20 del 28 de noviembre al 2 de diciembre de 2022 CONVENCIÓN CIENTÍFICA DE INGENIERÍA Y ARQUITECTURA PALACIO DE CONVENCIONES DE LA HABANA ANIVERSARIO 58 PROGRAMA Y MEMORIAS CCIA 2022 Programa General y Técnico CONVENCIÓN CIENTÍFICA DE INGENIERÍA Y ARQUITECTURA DE LA CUJAE 20 CCIA 2022 Palacio de las Convenciones La Habana Del 28 de noviembre al 2 de diciembre de 2022 Edición y revisión: Comité Organizador INDICE DE LA PROGRAMACIÓN TÉCNICA 20 CCIA. EVENTO PROGRAMA PÁGINA XI Congreso Cubano de Ingeniería Mecánica y Metalúrgica. (CCIM 2022) General 11 Memorias 18 III Simposio Internacional sobre Generación Distribuida (SIGEDI 2022) General 549 Memorias 558 VI Congreso Internacional de Ingeniería Química, Biotecnológica y Alimentaria (VI CIIQBA) General 796 Memorias 807 V Congreso de Ingeniería Informática y Sistemas de Información (CIIISI’2022) General 1058 Memorias 1068 General 1350 Memorias 1360 V Congreso Internacional de Ingeniería Civil en Cuba (V CIIC) General 2209 Memorias 2218 V Congreso Internacional de Educación y Extensión Universitaria (CEEU) General 2559 Memorias 2578 General 3349 Memorias 3353 XI Simposio de Ingeniería Industrial y Afines (XI SIIA) General 3889 VI Congreso Internacional Medio Ambiente Construido y Desarrollo Sustentable (MACDES 2022) Memorias 3899 General 4221 General 4224 XI Congreso Internacional de Telemática y Telecomunicaciones (CITTEL 2022) X Conferencia Internacional del Centro Europeo Latinoamericano de Logística. Proyectos Ecológicos (CELALE) XIX Congreso Latinoamericano de Control (LACC 2022) Amigos y colegas: Con motivo de la celebración de la Convención Científica de Ingeniería y Arquitectura en su XX edición, 20 CCIA, la cual se realizará entre los días 28 de noviembre al 2 de diciembre del presente año en el marco del 58 Aniversario de la inauguración de nuestra querida CUJAE, el Comité Organizador ha invitado a participar en la misma a la Comunidad Científica Internacional. Esta edición estará conformada por 11 eventos científicos principales dentro de los cuales se celebrarán diferentes Talleres, Simposios y Foros colaterales, la expectativa se sigue cumpliendo: un total de 110 trabajos de especialistas extranjeros más otros 430 trabajos de especialistas cubanos, conforman un espectro científico y cultural que desde estos propios instantes auguran el éxito de la 20 Convención. En esta edición se ha organizado en paralelo una feria expositiva del vínculo de la CUJAE con el sector de la producción y los servicios como contribución a la Gestión del Gobierno basado en la Ciencias e Innovación. Esperamos que la Convención Científica de Ingeniería y Arquitectura de la CUJAE permita incrementar las acciones de colaboración en el marco del intercambio de las experiencias y resultados que serán expuestos por los representantes de las Universidades, Institutos de Investigaciones y Empresas de diferentes objetos sociales, pero todas relacionadas con la formación de las nuevas generaciones, el adelanto científico–técnico y el acervo cultural de nuestros respectivos países. Es un honor para nuestra comunidad científica poder compartir con colegas y amigos de todo el mundo nuestras experiencias, recibirlos en nuestra Patria y ofrecerles la hospitalidad natural del pueblo cubano. Esperamos disfruten su estancia en nuestro país, y en lo particular puedan admirar la maravillosa sede que son el Palacio de las Convenciones de la Habana y nuestra siempre querida ciudad. Sin otro particular, Atentamente, Dr. C. Modesto Ricardo Gómez Crespo Rector 6 COMITÉ ORGANIZADOR. Presidente: Dr. Modesto Ricardo Gómez Crespo Vicepresidente Primero: Dr. Daniel Alfonso Robaina Vicepresidentes: Dra. Martha Dunia Delgado Dapena Dra. Anaisa Hernández González Dr. Osney Pérez Ones MSc.. Diego de los Ángeles Fernández Labrada Dr. Humberto Díaz Pando MSc. Yoimi Trujillo Reina Miembros: Dr. Gil Cruz Lemus (Secretario Ejecutivo) Dr. Miguel Castro Fernández (Secretario Científico) Dr. Arq. Luis Alberto Rueda Guzmán MSc. Danae Pigueiras Otero Lic. Delvia Noris González Martínez Dra. Ada Esther Portero Dr. Rolando Serra Toledo MSc. Gladys Eloina Mesa Palacios Ing. Juan Cabezola Ruíz MSc. Esther Ansola Hazday OPC. Angel Zalabarría Lay Ing. Emelia López Carbó 7 INFORMACIÓN GENERAL La acreditación y el pago de la cuota de inscripción se efectuarán en el Palacio de las Convenciones entre el 28 de noviembre y el 1 de diciembre de 2022 desde las 09:00 horas hasta las 14:00 horas. Las actividades precongresos se realizarán en las sedes y horarios expuestos en el Programa General y Técnico de la 20 CCIA. SEDE La sede del evento es el Palacio de Convenciones de La Habana, en cuyas instalaciones se celebrarán todas las sesiones de trabajo. Entre las facilidades generales, el Palacio cuenta con librería, tienda de ARTEX y del FCBC; llamada general. El acceso a sus áreas es a partir de las 08:30 a.m, y los participantes deben asistir con ropa ocasional de acuerdo con el protocolo de nuestros eventos. OFICINA DEL COMITÉ ORGANIZADOR El Comité Organizador y el Comité Científico radican en la oficina 1102, ubicada en la planta alta. OFICINA DE INFORMACIÓN Durante los días del evento, usted puede indagar sobre cuestiones del evento en el Buró de Información 1, ubicado en el vestíbulo principal del Palacio de Convenciones de La Habana (Petit Foyer). Teléfonos: 7208 7558, 7208 0450 y a través de la pizarra 7210 7100, extensiones 1210 y 1211. POSTA MÉDICA La posta médica brinda sservicio durante todo el tiempo que sesione el evento. Está ubicada en la planta baja, local 617, teléfono: 7210 7100, extensión 617. BUROES DE TURISMO Los Buroes de Turismo radican en los diferentes hoteles donde se alojan los participantes, los que pueden solicitar reservaciones para visitar centros turísticos y otros lugares de interés. COMUNICACIONES Se encuentra ubicado en la primera planta, próximo a la cafetería y brinda servicios de venta de tarjetas telefónicas, sellos, postales y souvenirs. El Centro de Negocios del Hotel Palco dispone de facilidades para el envío de fax, acceso a Internet, correo electrónico, impresión de documentos, fotocopias, y venta de periódicos en el horario de 08:30-17:00 horas. SERVICIOS GASTRONÓMICOS Restaurante “El Bucán”, situado en la planta baja, frente a la entrada principal, ofrecerá servicio de almuerzo a los participantes entre las 13:30 a 15:00 h. Snack Bars, ubicados en la primera planta, ofrece sus servicios a partir de las 8:30 am, con ofertas de café, té, bebidas y alimentos ligeros. MEDIOS AUDIOVISUALES Las salas de conferencias disponen para las presentaciones de:  Proyector de datos  Computadora Las presentaciones en CD, DVD, memorias USB y otros medios de almacenamiento masivo que contengan los trabajos, deben entregarlo los propios ponentes en la Oficina de Recepción de Medios Audiovisuales, ubicada junto al Buró de Información 1. La entrega se realizará un día antes de la presentación y en el horario en que se encuentre sesionando el evento. No se aceptarán en las salas de trabajo. 8 9 DISPOSICIONES GENERALES. Las actividades científicas de la XX Convención Científica de Ingeniería y Arquitectura serán las siguientes:  Actividades pre-congresos.  Conferencias magistrales.  Mesas redondas.  Talleres.  Exposición asociada.  Feria expositiva Todas las actividades tendrán una hora de inicio y terminación definidas en el Programa, las cuales deben ser cumplidas rigurosamente. El Comité Organizador se reserva el derecho de modificar el Programa ante la eventual ausencia de algún ponente en los temas oficiales. Los ajustes al mismo se anunciarán en las primeras horas de cada mañana, en las salas en que se efectúen, y en la pizarra que se encuentre a la entrada de cada una de ellas. Para lograr el adecuado desarrollo del programa, todos los participantes deberán estar en la sala 15 minutos antes del comienzo de la sesión. 10 PROGRAMA GENERAL CONVENCIÓN CIENTÍFICA DE INGENIERÍA Y ARQUITECTURA 20 CCIA 2022 NOTA: ST.- Sesiones de trabajo: Salas del Palacio de las Convenciones: 1, 3, 4, 7, 8, 9, 10, 11, 13, 14. Salas del Hotel Palco: Salón de Protocolo, Sala Conferencia, Sala Multipropósito. En paralelo a este programa se desarrolla una feria expositiva en el lobby del Palacio de Convenciones. Programa General X CONGRESO CUBANO DE INGENIERÍA MECÁNICA Y METALÚRGICA CCIM 2022 Programa General CCIM 2022 Día Horario 28-11 29-11 30-11 1-12 2-12 9:00-13:30 Acreditación 9:00-13:30 ActividadesPreevento Acto Inaugural del CCIM 9:00- 9:10 Sala 8 Conferencia Central: Rector Universidad Técnica de Manabí, Portoviejo, Ecuador, 9:00- 10:30 Sala 4 Sesión de Trabajo (Otros eventos) Sesión de Trabajo (Otros eventos) Sesión de Trabajo 9:15-13:30 Sala 8 Sesión de Trabajo 10:35- 13:30 Sala 8 Sesión de Trabajo 9:15-13:30 Sala 10 Sesión de Trabajo 10:35- 13:30 Sala 10 13:30-15:00 Almuerzo Clausura de la CCIA 13:30 14:00 Acto inaugural Sala 1 Ceremonia de Condecoración, Sala 4 Almuerzo de despedida Rest. El Bucán 14:30 15:30-17:30 Brindis de Bienvenida Rest. El Bucán Programa Técnico Día: 29 de noviembre Sesión: Mañana Presidente Sesión: Sala: 10 Actividad: Sesión de presentación de ponencias. (Mecánica) Horario Código Actividad Martes 29 de noviembre 9:00- 9:10 Palabras de apertura Dr. Deny Oliva Merencio (Decano de la Facultad de Ingeniería Mecánica. Presidente del Comité Organizador del CCIM) Sala 8 9:15- 9:35 Principales retos para la Ingeniería Mecánica (Mesa redonda) Pedro A. Rodríguez Ramos (Cuba) Biomecánica y Biomateriales. Moderador: Tania Rodríguez Moliner 9:40- 9:50 Diseño y manufactura de dispositivos médicos Yusleiby Dago Rivera (Cuba) 9:55- 10:05 Obtención de andamios (scaffolds) de colágeno de crestas de pollo para la regeneración de arterias Javier Luis Villegas Santos (Cuba) 10:10- 10:20 Propuesta de diseño de un stent valvular aórtico expandible para TAVI Pablo A. Megret Menéndez (Cuba) 10:25- 10:35 Propuesta de un método para determinar el patrón de la marcha Joyce Eduardo Taboada Díaz (Cuba) 10:40- 10:50 Diseño de un sistema de accesorios de retención para implantes osteointegrados Carla Pascau Carnesoltas (Cuba) 10:55- 11:05 Deposición de recubrimientos de fosfatos de calcio en andamios de PLA Jesús E. González Ruíz (Cuba) 11:10- 11:20 Propuesta de diseño de un equipo de electrohilado Allan Cardet Graña (Cuba) 11:25- 11:35 Protocolo de obtención de guías quirúrgicas con tecnologías CAD/CAM Carla Pascau Carnesoltas (Cuba) 11:40- 11:50 Biomecánica de implantes dentales Jesús E. González Ruíz (Cuba) Tecnología y Metalurgia. Moderador: Víctor M. Mir Labrada 11:55- 12:05 Correlación entre la resistencia a compresión simple e índice de carga puntual del material rocoso Ernesto Patricio Feijoo Calle. ECUADOR. VIRTUAL 12:10- 12:20 La eficiencia tecnológica como soporte en el ahorro energético de la recuperación René Collazo Carceller (Cuba) 12:25- 12:35 Desarrollo tecnológico para obtener esteras fundidas en moldes de arena, tratadas térmicamente de acero Hadfield con cromo Francisco Mondelo García (Cuba) 12.40- 12:50 Estudio comparativo de materiales para la selección de bombas para agua de mar Mario Martínez López (Cuba) 12:55- 13:05 Comprobación numérica para la modificación geométrica de la abrazadera del sistema principal de riego Víctor Manuel Mir Labrada (Cuba) 13:10- 13:20 Influencia de la temperatura y rotación del sustrato sobre la porosidad y adherencia de recubrimientos de hidroxiapatita depositados por plasma térmico atmosférico. Abel Fumero Pérez (Cuba) 13:25- 13:35 Producción de un acero inoxidable nitrogenado resistente a la corrosión por picadura para emplear en implantes óseos. Andrés Parada Expósito (Cuba) 13:40- 13:50 Evaluación teórica de las posibilidades para el termoconformado de materiales compuestos de fibras de henequén a partir de técnicas termoanalíticas Daniel Díaz Batista Programa Técnico Día: 29 de noviembre Sesión: Mañana Presidente Sesión: Sala: 8 Actividad: Sesión de presentación de ponencias. (Mantenimiento) Moderador: Armando Díaz Concepción Horario Código Actividad Martes 29 de noviembre 9:00- 9:10 Palabras de apertura Dr. Deny Oliva Merencio. Decano de la Facultad de Ingeniería Mecánica y presidente del Comité Organizador del CCIM (Cuba) 9:15- 9:25 Inauguración del XI Congreso Cubano de Ingeniería de Mantenimiento. Dr. C. Armando Díaz Concepción. Director del Centro de Estudios de Ingeniería del Mantenimiento (Cuba) 9:30- 10:15 Tecnología de organización y gestión de mantenimiento asistida por computadora: Sgestman, un producto generalizado en la industria biofarmacéutica cubana con un enfoque de encadenamiento productivo (Conferencia magistral) MSc. José Antonio Rodríguez Ramírez. Director División Tecnologías de Mantenimiento Inversiones Gamma S.A. (Cuba) 10:20- 11:05 El mantenimiento actual y futuro en las entidades Biofarmacéutica (Conferencia magistral) Dr. C. Santiago Dueñas Carrera Director de Inversiones y Mantenimiento de BioCubaFarma (Cuba) 11:10- 11:40 El empleo de herramientas de gestión de mantenimiento Sgestman y su integración con las RS 66 y RS67/2021. (Mesa redonda) MINDUS 11:45- 12:15 El mantenimiento actual y futuro, herramientas. Industria 4.0. (Mesa redonda) MINDUS 12:20- 12:30 La ingeniería biomédica en la gestión e implementación del Mantenimiento de equipos médicos del Centro Oftalmológico “Amistad Cuba-Bolivia” Dayquelín Portuondo Castillo (Cuba) 12:35- 12:45 El mantenimiento en la eficiencia energética Francisco Martínez Pérez (Cuba) 12:50- 13:00 Herramientas para la validación de los modelos de madurez Ailyn Naranjo Navarro (Cuba) 13:05- 13:15 Mantenimiento 5.0, tendencias y desafíos Carlos Andrés Deus Aguilera (Cuba) 13:20- 13:30 Análisis y mejoras de la fiabilidad de las bombas dosificadoras Prominent VAMc Guillermo Adrian Castillo Ortega (Cuba) Programa Técnico Día: 30 de noviembre Sesión: Mañana Presidente Sesión: Sala: 10 Actividad: Sesión de presentación de ponencias. (Mecánica) Miércoles 30 de noviembre Energía. Moderador: Joel Morales 10:35- 11:05 Implementación de un sistema de gestión energética en el sector industrial (Conferencia magistral) Tirso Lorenzo Reyes Carvajal (Cuba) 11:10- 11:20 Evaluación del potencial eólico en el complejo turístico “las terrazas” empleando el software wasp José Augusto Medrano Hernández (Cuba) 11:25- 11:35 Design of wind system for supplying electricity to hotel Covarrubias, Las Tunas province Conrado Moreno Figueredo (Cuba) 11:40- 11:50 Particularidades. Dimensionado de sistema fotovoltaico autónomo para la recarga de vehículos eléctricos Yamir Sánchez Torres (Cuba) 11:55- 12:05 Estudio del gasto energético en climatización del autovaz 2107 según la posición de sus ventanillas. José Carlos Erbiti Otero (Cuba) 12:10- 12:20 Comparación de dos sistemas para la valorización de los residuos generados en los ecosistemas turísticos de playa Eduardo Miguel Matheu-Muñiz (Cuba) 12:25- 12:35 Evaluación térmica de un condensador de vapor de una unidad de la CTE Ernesto Guevara de la Serna e impacto ambiental Gisela Nuviola Colsa (Cuba) 12:40- 12:50 Ventaja del enfriamiento del aire en turbinas de gas en zonas subtropicales costeras Alberto E. Calvo González (Cuba) Mecánica Aplicada. Moderador: Sergio Marrero 12:55- 13:05 Experiencias del uso de juegos en la carrera de ingeniería Carlos R. Hernández Fuentes (Cuba) 13:10- 13:20 Modelación de la estabilidad de montacargas según la norma ISO 22915: mcd25-un caso de estudio Jaime González Albiza (Cuba) 13:25- 13:35 Dispositivos biomédicos implantables mediante impresión 3D. Avances del proyecto Carlos Alberto Armand Márquez (Cuba) 13:40- 13:50 Sistema de control de la calidad para la impresora 3D de metal SLM250 HL Oscar Arencibia Díaz (Cuba) Programa Técnico Día: 30 de noviembre Sesión: Mañana Presidente Sesión: Sala: 8 Actividad: Sesión de presentación de ponencias. (Mantenimiento) Moderador: Armando Díaz Concepción Miércoles 30 de noviembre 10:35- 10:45 Estado de la gestión de la lubricación y los lubricantes en una unidad de transportaciones. Carlos Barrera Rodríguez (Cuba) 10:50- 11:00 Procedimiento para la selección de aceros y de su tecnología de tratamiento térmico para elementos de máquina Francisco Martínez Pérez (Cuba) 11:05- 11:15 Mantenimiento a máquinas eléctricas rotatorias en el sector industrial María Rosa Perellada Gamio 11:20- 11:30 Metodología para la recuperación de las tamboras de las purificadoras de Aceite y Fuel Oíl SJ30 Jose Antonio Ferreira. ANGOLA. PRESENCIAL 11:35- 11:45 Modelo con enfoque logístico para mejorar la gestión del mantenimiento en Envametal Jorge Arnaldo González Echavarría (Cuba) 11:50- 12:00 Mejora del Sistema de gestión de mantenimiento en la UEB Gráfica Caribe de la Empresa Ediciones Caribe Yeleidys Domínguez Artires (Cuba) 12:05- 12:15 Experiencias de la aplicación de herramientas para la toma de decisiones en la solución de problemas en grupos electrógenos. Ailyn Naranjo Navarro (Cuba) 12:20- 12:30 Estado de la gestión de la lubricación y los lubricantes en empresas Industriales. Alejandra Elena García Toll (Cuba) 12:35- 12:45 Diagnóstico al sistema de gestión de mantenimiento de una OSDE Pedro Pablo Hernández García (Cuba) 12:50- 13:00 Acciones para aumentar producción y mejorar calidad de la producción de áridos Rafael Betancourt Varela (Cuba) MEMORIAS CCIM 2022 1 PROPUESTA DE DISEÑO DE UN EQUIPO DE ELECTROHILADO. Lianna Rodríguez Rodríguez1, Yumeily Rosales Cruz 1, Allan Cardet Graña1 1Universidad Tecnológica de La Habana, Calle 114 y Rotonda, Marianao, La Habana, Cuba, 1e-mail: liannacaridadr@gmail.com , yumeilyrosales@gmail.com, allanca@automatica.cujae.edu.cu RESUMEN A continuación, se presentará el proyecto de diseño de una variante de una máquina de electrohilado (electrospinning) y la fuente de alto voltaje que se le acoplará a esta, para ser aplicada en la ingeniería de tejidos (IT). El diseño estuvo basado en las posibilidades económicas y de tecnología de fabricación con las que se dispone en el país. Para la máquina se diseñó un sistema de mecanismos capaces de usar un receptor plano y uno cilíndrico, tipo drum o tambor. Se consiguió hacer un diseño de la máquina lo más portátil y cómoda para su uso, respetando parámetros como el principio de funcionamiento de las máquinas de electrospinning, así como las condiciones de montaje y los parámetros tecnológicos del proceso. Se diseñó una estructura en forma de contenedor, dentro de la cual se resguardaría la máquina para asegurar mayor protección al usuario y evitar la influencia del aire del ambiente sobre el hilo del polímero electrohilado. Además, dicho contenedor servirá para alojar la fuente de alta tensión, la que se diseñará, utilizando la configuración de un circuito Fly-Back y se utilizará para proveer de energía al equipo de electrohilado, cuyo desempeño depende en gran medida de la misma. . PALABRAS CLAVES: equipo de electrohilado, Flyback, drum. DESIGN PROPOSAL OF AN ELECTROSPINNING EQUIPMENT. ABSTRACT Next, the design project of a variant of an electrospinning machine and the high-voltage source that will be coupled to it, to be applied in tissue engineering (IT), will be presented. The design was based on the economic possibilities and manufacturing technology available in the country. For the machine a system of mechanisms capable of using a flat receiver and a cylindrical one was designed, drum type or drum. It was possible to make the machine design as portable and comfortable for use, respecting parameters such as the principle of operation of electrospinning machines, as well as the assembly conditions and technological parameters of the process. A container-shaped structure was designed, inside which the machine would be protected to ensure greater protection for the user and avoid the influence of ambient air on the electrospinning polymer wire. In addition, this container will serve to house the high voltage source, which will be designed, using the configuration of a Fly-Back circuit and will be used to provide energy to the electrospinning equipment, whose performance depends largely on it. KEY WORDS: electrospinning equipment, Flyback, drum. INTRODUCCIÓN En la comunidad científica actual se ha despertado un creciente interés por la producción de nuevos biomateriales, debido a la alta demanda de materiales más eficientes que puedan tener aplicaciones biomédicas utilizando la ingeniería de tejidos (IT). Para la producción de fibras poliméricas, se ha destacado el uso de la técnica de electrohilado (electrospinning), la cual permite la creación de tejidos a partir de fibras que son obtenidas por medio de campos electrostáticos. Esta técnica emplea fuerzas eléctricas para producir fibras de polímeros con diámetros en la escala nanométrica y de longitudes variables[1]. 2 El funcionamiento de la máquina de electrospinning es relativamente sencillo, aunque se deben tener en cuenta numerosos parámetros a la hora de su diseño, fabricación y utilización. La máquina se compone de una bomba de pistón para someter a presión al polímero (en solución) que se desea hilar, similar a una jeringuilla en su variante más básica; una fuente de alta tensión que debe tener dos terminales, un polo positivo conectado a la aguja por donde sale la solución convirtiéndola en hilo y un polo negativo conectado directamente al colector, que es de hecho otro de los componentes, y tiene como función recibir las fibras creadas, para así obtener una fina capa o tela de fibras poliméricas[2]. La fuente de alta tensión debe ser adecuada para superar la viscosidad y la tensión superficial de la solución para formar y sostener el hilo desde el capilar. La tensión que debe alcanzar la fuente para que la aguja permita la formación de fibras de forma estable se encuentra entre los de 1Kv y 30Kv[2]. Este es un parámetro indispensable, aunque existen otros factores que influyen como la concentración del polímero en la solución, la distancia entre la aguja y el colector, y la conductividad de la disolución.[3, 4] En Cuba, la técnica de electrospinning no ha pasado desapercibida. Con el objetivo de utilizar los tejidos poliméricos en el campo de la medicina, han surgido diversas investigaciones [5,6], centrándose todas en adaptar la técnica de electrospinning y sus aplicaciones a las necesidades de la medicina cubana. Se estará abordando dicha técnica desde el punto de vista del diseño de la máquina de electrospinning y su fuente de alta tensión, con el objetivo de obtener en un futuro diferentes estructuras de fibras poliméricas organizadas en forma de andamios, para su aplicación en la ingeniería de tejidos. MATERIALES El diseño de la máquina de electrospinning posee las partes siguientes, como se muestra en el esquema de la figura 1:  Elemento colector  Elemento de soporte de la jeringuilla o bomba de flujo.  Capilar  Fuente de alta tensión Fig. 1 Partes del diseño de la máquina de electrospinning. Diseño partes mecánicas Para el diseño del elemento colector se debe tener en cuenta que este puede ser de tipo tambor o de tipo plano, además de escoger el material correcto como se relaciona a continuación. - Para el diseño de un colector de tipo tambor se necesitará:  Soporte del colector, para el cual se empleará aluminio AISI 6061  Eje del colector el cual será construido con acero AISI 1045  Tapa del tambor para la cual se empleará aluminio AISI 6061  Cilindro o Tambor para la cual se empleará aluminio AISI 6061 - Para el colector de tipo plano se necesitará diseñar:  Soporte del colector plano construido con aluminio AISI 6061  Varilla cuadrada de la placa receptora construida con aluminio AISI 6061  Placa receptora construida con aluminio AISI 6061 Para el elemento de soporte de la jeringa (bomba de flujo) se diseñarán los elementos relacionados a continuación y se emplearán los materiales correspondientes: 3  Soporte del sinfín construida con acero AISI 1045  Guías de soporte construida con acero AISI 1045  Sinfín construido con acero AISI 1045  Soporte de la bomba de flujo construida con acero AISI 1045  Plataforma construida con acero AISI 1045  Correderas construidas con acero AISI 1045 Diseño fuente de alta tensión Para el diseño de la fuente de esta máquina de electrohilado se realizará una simulación mediante el software libre NI Circuit Desing Suitr , empleándose una Laptop (Core i5 utilizando un conversor Flyback que combina una fuente de alta y baja tensión. Para el diseño de la fuente de baja tensión se usaron los componentes siguientes:  Diodo 1N5408G  Transistor MJE13005  Transistor MJE340G  Diodo Zener 1N5364BRLG Por otro lado, los componentes empleados en el diseño de la fuente de alta tensión son:  Transistor MJE1320:  Diodo RGP-20E-E3/54 MÉTODO La metodología de diseño de la máquina de electrospinning se dividirá en tres etapas como se muestra en el esquema de la figura 2 Fig.2 Esquema que muestra los pasos para el desarrollo del diseño de la máquina de electrospinning. Diseño Mecánico El diseño de la máquina de electrospinning se realizó con el objetivo de ser capaz de producir tejidos de distintas estructuras, dimensiones y grosores, a la par de ser lo más económica y realista posible de acuerdo con la situación económica de Cuba. Para la realización del diseño, se utilizó como apoyo principal el software Inventor Professional 2018. Con el propósito de cumplir con los objetivos planteados en este trabajo, se decidieron establecer algunos requerimientos que deben ser tomados en cuenta en el diseño de la máquina. Estos son:  La máquina debe tener dos variantes de sistema colector, plano y cilíndrico, y debe permitir el montaje de cada uno de manera relativamente sencilla.  Debe poseer, además, otra variante de montaje que permita la obtención de las fibras poliméricas de manera vertical.  La distancia entre la punta de aguja y el colector, sea plano o cilíndrico, debe ser ajustable en un rango entre 50 y 300 mm.  La velocidad de traslación de la bomba de inyección transversal a los colectores debe ser regulable y constante.  La velocidad de rotación del colector tipo drum debe ser regulable y estar en un rango desde 200 a 3000 rpm.  La máquina deberá estar aislada del medio circundante, protegiéndola de variables externas como el viento, exceso de humedad, entre otras. Metodología Ensamblaje Diseño de la fuente Diseño mecánico 4  La temperatura y humedad dentro del compartimiento de aislamiento de la máquina deben ser controladas. La fuente debe colocarse de forma tal que no represente peligro de accidente durante la operación de electrohilado o colocarse fuera de la caja. Diseño de la fuente El diseño de la fuente consta de dos etapas debido a que está compuesta por una fuente de alta tensión y una de baja. La fuente de baja tensión estará basada en un regulador de tensión básico realimentado, pues esta configuración presenta mayor estabilidad frente a las variaciones de la tensión de entrada que un regulador serie básico. Esto se debe a que cuando la tensión de salida disminuye o aumenta por cualquier causa, ocurre un proceso de realimentación que permite que la tensión permanezca constante [7]. La fuente de alta tensión se divide en dos etapas, una primera etapa donde se encuentra el oscilador de alta frecuencia en configuración FlyBack. Este oscilador no fue posible diseñarlo calculando los valores de sus componentes, esto se debió a que el programa de simulación multisim no posee en su base de datos transformadores con núcleos de ferrita, por lo tanto, se escogió una configuración básica y se fueron reajustando los valores de los componentes hasta obtener los resultados adecuados. En la segunda etapa se utilizaron multiplicadores de tensión, circuito que permite obtener un voltaje con un nivel de directa igual a un factor entero multiplicado por el valor pico de la señal de entrada. Su principio de operación es la carga sucesiva de condensadores debido a la habilitación en cascada de diodos. Procedimiento para el ensamblaje A continuación, se describirá brevemente los pasos a seguir para realizar el ensamblaje correcto de todos los componentes de la máquina diseñada al momento de su construcción: 1. Colocar la plataforma en una superficie plana, que impida vibraciones adicionales a la máquina. 2. Insertar el tornillo sinfín o husillo (figura 3ª) en el soporte de la bomba de flujo (figura 3B), enroscándolo hasta la mitad, aproximadamente. Fig. 3 Partes a ensamblar. A sinfín, B soporte de la bomba de flujo. 3. Colocar en las correderas (figura 4), los dos soportes del sinfín, de forma tal que los agujeros de estos coincidan con los agujeros de 13 mm de las correderas. Fig.4 Correderas 4. Insertar los extremos del sinfín en sus soportes (figura 5), ya ubicados en las correderas, asegurando que los bujes estén bien colocados. Fig.5 Soportes de del sinfin. 5. Colocar las correderas, ya con el soporte de la bomba de flujo ensamblada a ellas, en la plataforma, de manera tal que los agujeros para los tornillos que la sujetan a esta, coincidan. 5 6. Insertar en las correderas, ya fijas en la plataforma, las guías de soporte en los agujeros de 15 mm de diámetro correspondientes a ellas. Aclarar que estas guías deben también ser insertadas en los agujeros del soporte de la bomba de flujo, como se ve en el plano de ensamble en el anexo1  Para el colector cilíndrico, se deben colocar las siguientes piezas en el eje del colector en el orden correcto: el cilindro o tambor, las dos tapas del tambor y las dos bridas de las tapas como se expone en el plano de ensamble del anexo 2.  Para el colector plano, lo primero es soldar la placa receptora a la varilla cuadrada de la placa receptora, como se expone en el plano de ensamble del anexo 3. El soporte para la variante vertical debe colocarse de manera tal que la aguja que sea colocada en él, quede justo encima del colector que esté instalado. Aun así, la posición y altura de esta pieza puede variar dependiendo del experimento que se realice. Por último, se colocará la caja de aislamiento, la cual, debido a su diseño, podrá ser instalada desde arriba de la máquina, sin ser obstaculizada por ninguna pieza del ensamblaje como se observa en el plano de ensamblaje final del anexo 4. RESULTADOS El diseño mecánico de la maquina propuesta tras seguir los pasos de la metodología se muestra en la figura 7. A continuación se muestran los resultados obtenidos en el diseño de la fuente de alta tensión. Tras seguir la metodología proporcionada para su diseño, se logró realizar exitosamente la propuesta simulada de la misma para la máquina de electrohilado cuyo proyecto se está proponiendo en este trabajo, la misma se muestra en la figura 6. El programa con el que se ejecutó el diseño solo permitió realizar las corridas de la simulación a 16 kV aproximadamente, esta resulta una limitante para nuestro diseño la que se deberá tener en cuenta al momento de la construcción. Fig.6 Diseño de fuente simulada para este proyecto. El diseño final del proyecto se muestra en la figura 7. En este se encuentra la fuente colocada dentro de la caja, aunque se recomienda tener en cuenta el colocarla fuera de esta, para cómo se mencionó anteriormente, garantizar una mayor protección. 6 Fig. 7 Propuesta final del diseño de la máquina de electrospinning DISCUSIÓN Según autores como Ginestra [2], Cardenas Perez[ 8] , entre otros, un equipo de electrospinning debe componerse de cuatro partes fundamentales para poder realizar su función, estas son , el colector, la bomba de inyección del polímero, la cubierta o caja y la fuente de tensión. En el caso del diseño propuesto cumple con esos supuestos básicos del diseño general. El procedimiento empleado para el diseño de la máquina de electrospinning resultó efectivo; se logró que la máquina diseñada pueda ser capaz de obtener diferentes estructuras de andamios, ya que presenta la posibilidad de alternar entre un sistema colector de tipo tambor o uno tipo placa. Se diseñó el equipo con la protección requerida, en este caso, por una caja de acrílico transparente aislante que garantiza la continuidad del proceso y que asegura al máximo posible el resguardo del usuario que la manipule. También debido a las altas tensiones con las que trabaja la fuente, esta protección se recomienda, aun en el caso en que la fuente se coloque fuera de la caja. Los materiales propuestos para la construcción de esta idea poseen condiciones óptimas para las aplicaciones que se pretenden desarrollar siendo los mismos que en su trabajo utilizaron Ruiz Silva[9], Davila Gomez[10] y Vázquez Gonzalez[11] para la construcción de sus equipos y que resultaron ser recomendables comprobando sus prestaciones a través de simulaciones de esfuerzo. La máquina cumple las condiciones necesarias para producir fibras tanto caóticas como alineadas debido a la posibilidad del uso de diferentes colectores. Esto se demuestra en diferentes trabajos como los de Li [12], y Wen [13] los que al utilizar un colector tipo drum, obtuvieron fibras alineadas o los realizados por Ginestra[2] y Cárdenas Pérez [8] los que al utilizar un colector tipo plano, obtuvieron fibras caóticas, como se muestra en la figura 8. Fig 8 Fibras caóticas obtenidas con un colector plano (A,B)[8] y fibras alineadas obtenidas con un colector tipo drum (C,D)[12,13]. 7 Para comprobar que la fuente diseñada puede resultar funcional. Se realizó una revisión bibliográfica acerca de los trabajos donde los equipos de electrospinning de construcción artesanal poseen los requisitos del diseño propuesto y se han obtenido resultados con buena calidad. Entre estos se encuentran los trabajos realizados por Ginestra [2]y Perez Puyana [3] donde se evaluaron andamios producidos con policaprolactona (PCL) y gelatina, mediante la técnica de electrohilado empleando una fuente de tensión cercana a los 16 kV realizándose una caracterización de las fibras, en cuanto a calidad y alineación y demostrando que con una tensión de entre 10 y 15 kV pueden obtenerse fibras de buena calidad como se muestra en las imágenes de las figuras 9 y 10. Fig.9 Andamios producidos con policaprolactona y tensiones entre 15 kV tomado de [2] Fig.10 Andamios producidos con gelatina y tensiones entre 10 y 16 kV. Tomado de [3] . Análisis económico Para la realización de este diseño se tuvo en cuenta los costos de fabricación de la máquina y los de diseño y fabricación de la fuente. Para la máquina de electrohilado se tuvo en cuenta el costo del material y la cantidad de piezas según el diseño realizado en este proyecto. Además el costo de la mano de obra necesaria para la construcción de las mismas y el ensamble del equipo. Las mismas se muestran en la tabla 1 y 2. Tabla1. Costo de las piezas propuestas en el diseño. Materiales Cantidad de Piezas Costo Total Acero AISI 1045 9 4 USD - 100 CUP Aluminio AISI 6061 10 106.53 USD - 2663.25 CUP Total - 110USD - 2763,25 CUP Tabla 2. Salario del personal involucrado Personal Salario básico (cup) Diseñador 7225.1 Obrero 3000 Mecánico de taller 2500 Total 12 725.1 8 La construcción de las piezas del diseño mecánico propuesto posee un valor de 2763,25 destinado a los materiales y 12 725.1 a la mano de obra (en cup), para un costo total de fabricación de la parte mecánica de la máquina de electrohilado de 15 488.35 CUP. En el caso de la fuente para el diseño y su construcción se muestran los precios de la mano de obra y los componentes en USD y CUP en la tabla 3 y 4. Tabla 3. Precios de los componentes utilizados en el diseño de la fuente de alta tensión. Dispositivo Electrónico Cantidad Costo Total Laptop( Core i5) 1 305USD - 7625 CUP Software NI Circuit Desing Suitr 1 800USD -20000 CUP Diodo 1N5408G 4 0.62USD -15.5 CUP Transistor MJE13005 1 3.06USD -76.5 CUP Transistor MJE340G 1 2.00USD -50 CUP Diodo Zener 1N5364BRLG 1 0.30USD -7.5 CUP Diodo RGP-20E-E3/54 6 0.20USD -5 CUP Transistor MJE1320 1 1.06USD -26.5 CUP Total 1 112,18 USD - 27 806 CUP Tabla 4. Salario del personal involucrado Personal Salario básico(CUP) Ingeniero 1 5600 Ingeniero 2 5600 Obrero 2500 Total 13 700 Entre el precio de los componentes y la mano de obra el diseño de la fuente, esta tiene un costo de 41 506 CUP Realizando la sumatoria del valor de los precios para cada etapa del diseño, se obtiene que la máquina de electrohilado llega a un costo total de 56 994.35 CUP. Teniendo en cuenta que en el mercado internacional estas máquinas cuestan un mínimo de 3200 USD, el precio calculado para este proyecto ahorra aproximadamente 930 USD como valor minimo. CONCLUSIONES El procedimiento de diseño empleado a través de Autodesk Inventor Profesional 2018 fue satisfactorio, logrando dimensionar todos los elementos de la máquina de electrospinning, así como su plano de ensamblaje. La simulación de la fuente de alto voltaje diseñada, permite su futura fabricación a partir de los elementos escogidos. La misma cumple con los requisitos necesarios para obtener los andamios requeridos en la regeneración de tejidos. REFERENCIAS 1. LIZARAZO-FONSECA, Liliana; MUÑOZ-PRIETO, Efrén; VERA-GRAZIANO, R; CAMACHO, Bernardo; SALGUERO, Gustavo; SILVA-COTE, Ingrid; “Andamios eletrohilados de poli(ɛ-caprolactona) /colágeno con uso potencial en regeneración de tejido cutáneo”, Ciencia en Desarrollo, 2019 Vol. 10 No. 2, 197-208. 2. GINESTRA, P; CERETTI, E; FIORENTINO, A; “Electrospinning of poly/caprolactone for scaffold manufacturing; experimental investigation on the process parameters influence”, Procedia , 2016, CIRP 49, 8 – 13 3. PÉREZ-PUYANA, Víctor; JIMÉNEZ-ROSADO, Mercedes; RUBIO-VALLE, José Fernando; GUERRERO, Antonio; ROMERO, Alberto; “Study of anisotropy in the development of electrospun nanofibrous biomaterials”. 24 Th International Congress on Project Management and Engineering Alcoi, 7th – 10th July 2020 646-655 9 4. INDONG, Jun; HYUNG-SEOP, Han; JAMES, R. Edwards; HOJEONG, Jeon; ” Electrospun Fibrous Scaffolds for Tissue Engineering: Viewpoints on Architecture and Fabrication”, Int. J. Mol. Sci. 2018, 19, 745; doi:10.3390/ijms1903074. 5. PEÓN AVÉS, Eduardo; GARCÍA-COUCE, Jomarien; “Fast Vision of Two Electrospinning Technique: History, Fundamentals and Applications”, Curr Trends Biomedical Eng & Biosci 2019, 19(4): CTBEB.MS.ID.556017 6. BRIZUELA GUERRA, N; CORREA FERRÁN, D; CALDAS DE SOUSA, V; DELGADO GARCÍA-MENOCAL, J.A; GARCÍA VALLÉS, M; MARTÍNEZ, S; MOREJÓN ALONSO, L; LOUREIRO DOS SANTOS, L.A; “Development of poly (lactic-co-glycolic acid)/ bioglass fibers using an electrospinning technique”, Latin American Applied Research 2018, 48:131-138 7. SINGHASATHEIN, A; KESI, W; BOONYAYUT, S; SUWANPINGKARL, P; POUNGSRI, P; PRUKSANUBAl, A.; TANTHANUCH, N; “Design and Construction of 30 kV High Voltage Generator using Fly-back Converter” Applied Mechanics and Materials 2015, Vol 781, pp 361- 365, doi:10.4028/www.scientific.net/AMM.781.361 8. CÁRDENA-PÉREZ, Yesica C; VERA-GRAZIANO, Ricardo; MUÑOZ-PRIETO, Efrén d. J; GÓMEZ-PACHÓN, Edwin Y; ” Preparation and characterization of scaffold nanofibers by electrospinning, based on chitosan and fibroin from Silkworm (Bombyx mori)”, Ingeniería y Competitividad,, 2017, Volumen 19, No. 1, P. 139 – 151. 9. RUIZ SILVA Eddy Santiago “Diseño y construcción de una máquina de electrohilado vertical de 0 a 15 kv para generar nanofibras a base del polímero polisiloxano” tesis de grado, Universidad Técnica De Ambato, Ambato – Ecuador 2018 10. DÁVILA GÓMEZ, Helio Hernando; TOBACIA MARTÍNEZ, Juan Carlos; Diseño e implementación de un sistema de control automático para un equipo experimental de electrohilado por centrifugado de nanofibras poliméricas, Tesis de grado, Universidad Pedagógica Y Tecnológica De Colombia, , Duitama, Colombia, 2016 11. VAZQUEZ-GONZALEZ, Jose Luis; CORDOVA, Felipe; CORDOVA ESTRADA, Ana Karen; “Diseño Mecatrónico de un Sistema de Electrospinning para la fabricación de nanofibras a bajo costo” Conference Paper • July 2017 https://www.researchgate.net/publication/318710049_Diseno_Mecatronico_de_un_Sistema_de_ Electrospinning_para_la_fabricacion_de_nanofibras_a_bajo_costo 12. D. Li and Y. N. Xia; “ Direct Fabrication of Composite and Ceramic Hollow Nanofibers by Electrospinning” , Nano Lett., 2004, vol 4, 933–938. 13. XIAOXIAO, Wen; SAIJILAFU, Zongping; HUILIN YANG, Luo; WEIHUA Wang and LEI Yang, Cap 6: Biomaterials and scaffolds for the treatment of spinal cord injury, En Biomaterials in Translational Medicine. 2019, Elsevier, DOI: https://doi.org/10.1016/B978-0-12-813477- 1.00006-2 Sobre los autores 1- Allan Cardet Graña, estudiante de Segundo Año de Ingeniería Biomédica, Facultad Ingeniería Automática y biomédica (FIAB) en la Universidad Tecnológica de La Habana José Antonio Echeverría. 2- Yumeily Rosales Cruz, estudiante de Segundo Año de Ingeniería Biomédica, Facultad Ingeniería Automática y Biomédica (FIAB) en la Universidad Tecnológica de La Habana José Antonio Echeverría 3- Lianna Rodríguez Rodríguez, estudiante de Segundo Año de Ingeniería Biomédica, Facultad Ingeniería Automática y Biomédica (FIAB) en la Universidad Tecnológica de La Habana José Antonio Echeverría. 10 Anexos Anexo 1 Anexo 2 11 12 Anexo 3 13 Anexo 4 OBTENCIÓN DE ANDAMIOS (SCAFFOLDS) DE COLÁGENO DE CRESTAS DE POLLO PARA LA REGENERACIÓN DE ARTERIAS. Janet Carvajal de la Osa1, Ariel Hidalgo Benitez2, Carlos R. Figueroa1, Tania Campos Cuello3, Javier Luis Villegas Santos1, Karen León Arcia4, Tania Rodríguez Moliner1, John William Sandino del Busto5 1 Universidad Tecnológica de la Habana José Antonio Echeverría, (CUJAE). La Habana, Cuba, 2 Hospital Clínico Quirúrgico Docente Julio Trigo López, La Habana, Cuba.3 Empresa productora de vacunas virales y bacterianas (OSDE Labiofan). La Habana, Cuba. 4 Centro de Neurociencas de Cuba (CNeuro). La Habana, Cuba. 5 Universidad Nacional de Colombia (UNAL). Bogotá, Colombia 1e-mail: janetco@automatica.cujae.edu.cu RESUMEN La enfermedad vascular es uno de los daños irreversibles más frecuentes que sufre el sistema cardiovascular. Se han realizado sustitutos arteriales de diferentes materiales capaces de desempeñar bien el rol de las arterias, aunque no poseen las características morfológicas ni mecánicas necesarias para ser los sustitutos ideales. Por este motivo el objetivo de este trabajo es construir andamios de colágeno de crestas de pollo y caracterizarlos para ser utilizados como sustitutos arteriales. Para cumplir los requerimientos de este propósito se obtuvo colágeno mediante el método ácido. Se caracterizó para construir andamios tubulares mediante el método de liofilizado, utilizando moldes de diferentes materiales, que fueron caracterizados mediante diferentes pruebas. Obteniendo como resultado la extracción de colágeno tipo I con el que se construyeron dos andamios por el método de liofilización. Uno de ellos fue construido con un molde de acero inoxidable y el otro con un molde combinado de acero inoxidable y polietileno. El andamio construido con el molde de acero presentó porcientos de absorción de agua, swelling y biodegradabilidad mayor que el andamio realizado con el molde combinado. La microscopía superficial demostró que existe una diferencia entre la porosidad y su distribución al utilizar diferentes materiales para la construcción de los andamios. Se concluye que ambos andamios pueden ser utilizados para sustitutos arteriales a pesar de sus diferencias morfológicas. PALABRAS CLAVES: Colágeno, andamios tubulares, electroforesis de proteínas SDS-page, crestas de pollo. OBTAINING SCAFFOLDS OF COLLAGEN FROM CHICKEN COMBS FOR ARTERY REGENERATION. ABSTRACT Vascular disease is one of the most frequent irreversible damages suffered by the cardiovascular system. Arterial substitutes have been made from different materials capable of playing the role of arteries well, although they do not have the morphological or mechanical characteristics necessary to be the ideal substitutes. For this reason, the objective of this work is to build chicken comb collagen scaffolds and characterize them to be used as arterial substitutes. To meet the requirements of this purpose, collagen was obtained by the acid method. It was characterized to build tubular scaffolds by the freeze-drying method, using molds of different materials, which were characterized by different tests. Obtaining as a result the extraction of type I collagen with which two scaffolds were built by the lyophilization method. One of them was built with a stainless-steel mold and the other with a combined stainless steel and polyethylene mold. The scaffold built with the steel mold presented higher percentages of water absorption, swelling and biodegradability than the scaffold made with the combined mold. Superficial microscopy showed that there is a difference between porosity and its distribution when using different materials for the construction of scaffolds. It is concluded that both scaffolds can be used for arterial substitutes despite their morphological differences. . KEY WORDS: Collagen, tubular scaffolds, SDS-page protein electrophoresis, chicken combs. INTRODUCCIÓN La enfermedad vascular es uno de los daños irreversibles más frecuentes que sufre el sistema cardiovascular. En Cuba cada año mueren aproximadamente 181,3 personas x cada100 000 habitantes y en el mundo un aproximado de 2 000 000 de personas, según la OMS en 2020 [1]. Esta enfermedad se caracteriza por su recurrencia si no se le aplican tratamientos drásticos a la zona dañada. Generalmente cuando surge una enfermedad vascular es por incremento, rotura o deformación de una de las capas de las arterias o por aparición de diferentes agentes externos que obstruyen el paso de los fluidos por ella [2]. El cuerpo humano posee en toda su extensión un andamiaje denominado matriz extracelular que sirve de soporte, sustento y nutrición a cada tipo de tejido. Este andamiaje está compuesto mayormente de colágeno y otros componentes, los que varían según el tejido a soportar, nutrir o sustentar [3]. Las arterias están compuestas por tres capas, íntima, media y adventicia. Las mismas poseen morfologías diferentes que responden al lugar que ocupan y la función que realizan. En ellas la composición de colágeno varía en dependencia de estas. En la íntima existen diferentes tipos de colágeno, pero los más representativos y que son los que mayor influencia poseen sobre las características mecánicas de la arteria, son el colágeno tipo I y el tipo III con un 27% de representatividad del existente en toda la pared arterial. En la capa media esta composición varía con un 30% de colágeno tipo I y 70% de colágeno tipo III. En la adventicia primordialmente se encuentra colágeno tipo I, debido a que esta capa de la pared arterial está compuesta prácticamente por tejido fibroso [4]. Cuando existen daños, las arterias son propensas a rechazar las suturas no por incompatibilidad sino porque las capas de colágeno que componen la matriz extracelular, pierden las características mecánicas. Para corregir esto han surgido en el mercado diferentes sustitutos arteriales, tanto naturales como artificiales, los que han ido mejorando sus características desde los primeros realizados por Weinberg y Bell en 1986 [5], a los que se les añadieron diferentes compuestos propios de la matriz extracelular a lo largo de los años, hasta los más recientes construidos por diferentes autores que varían sus diámetros, composición y formas de presentación, con vistas al mejoramiento de las características mecánicas [6,7]. Estos sustitutos mayormente se realizan de materiales biodegradables, los que cumplen la función de soporte o andamio mientras se regenera la zona sustituida por las células propias in vivo o células madre escogidas in vitro en el caso que se quiera construir una arteria artificial. Para esto el material principalmente utilizado ha sido el colágeno, aunque también se realizan mezclas con elastina, factores de crecimiento y otros componentes de la matriz natural. El presente trabajo tiene como objetivo extraer colágeno de las crestas de pollo, para realizar andamios de grueso calibre imitando a la arteria aorta abdominal mediante el método de liofilizado, caracterizarlos y valorar su aplicación como implante arterial. 1. MATERIALES Y MÉTODOS Para la confección del andamio se utilizaron, como material para la disolución, 680 y 226,8 g, por separado, de crestas de gallina de la raza Leghorn, ácido acético al 30 y 5%, alcohol al 95%, agua destilada, cloruro de sodio al 95%, y una centrífuga universal 320 para la obtención del colágeno. Al mismo se le realizaron pruebas de Espectroscopía infrarroja por transformada de Fourier (FTIR por sus siglas en inglés) con un equipo Shimadzu Corp. Modelo IRPrestige21 con Rango de Análisis 4000 a 600cm-1 y modo Reflexión, utilizando un Accesorio ATR SPECAC, además pruebas de electroforesis de proteínas con el equipo Sistema MiniV8.10 Biometra, Sistema de doble gel y un patrón de proteínas estándar confeccionado por el equipo de trabajo para conocer la pureza y el tipo de colágeno que se obtuvo. Este se liofilizó con una liofilizadora industrial marca Usifroid, en moldes tubulares construidos para este propósito. Estos moldes fueron construidos de materiales con diferente conductividad térmica, con el propósito de modificar la velocidad de extracción del calor durante la etapa de cristalización a baja temperatura y con esto obtener cambios en la morfología de los poros en los andamios. Uno de ellos es completamente de acero inoxidable y el otro es una combinación de acero inoxidable y polietileno. Tras la obtención del andamio se le realizaron diferentes pruebas utilizando un cuarto de incubación a temperatura controlada de 37o C, una desecadora, agua desionizada, solución buffer salino (PBS) y también pruebas morfológicas a través de un microscopio óptico con cámara incorporada marca Zoom Stereo Microscope y objetivo 10x, para caracterizarlo superficialmente. El protocolo de investigación descrito se muestra a través del diagrama siguiente (fig.1) Fig.1. Diagrama que muestra el protocolo de investigación de manera general. Obtención de colágeno Para la extracción de colágeno se empleó el método de disolución ácida, utilizando ácido acético como disolvente. Se prepararon dos disoluciones una con el ácido al 30% y otra con el ácido al 5%. Los pasos se presentan en el diagrama de la figura 2 y el protocolo seguido se describe a continuación. Fig .2. Diagrama que muestra los pasos a seguir para la obtención del colágeno. Las crestas de pollo se lavaron para retirar impurezas con agua destilada y alcohol, se trituraron y se les realizó otro lavado con alcohol y agua destilada para eliminar las grasas. Este material ya preparado se mezcló en una disolución de ácido acético al 30 y otra al 5% las que se mantiene en refrigeración a 4oC por un tiempo de 72 horas. Al cabo de este tiempo se tamizó y centrifugó a 1782 g durante 30 min, se colectó el sobrenadante y se desechó el precipitado. A este sobrenadante se le realizó una prueba de PH para conocer el grado de acidez de la muestra y se le agregó cloruro de sodio (NaCl), este se agitó magnéticamente por espacio de 30 min y se dejó reposar por 2 horas, antes de centrifugarlo por segunda ocasión a700 g durante 20 min. En este segundo centrifugado se recogió el precipitado y se dializó con agua desionizada, para obtener el colágeno. Prueba de FTIR Para la realización de la prueba de FTIR se tomó un fragmento de la muestra de colágeno obtenida de la disolución con 5% de concentración acida y se depositó sobre la ventana de diamante del accesorio aplicando presión y limpiándolo previamente, se le aplicó una radiación infrarroja desde 600 hasta 4000 1/cm, la cual al pasar a través de la muestra llega a un sensor que al identificar las moléculas que se encuentran en la misma, envía un determinado número de longitud de onda que se traduce cualitativamente en el patrón del compuesto que se está analizando. Este método llamado por reflexión, fue aplicado a la muestra de colágeno antes del liofilizado. Al igual que una huella digital, no hay dos moléculas que produzcan el mismo patrón o longitud de onda, aunque existe un rango de variación pequeña de valores que identifican a un mismo compuesto. Esto es muy útil para poder identificar la composición de una muestra. El análisis cualitativo se vuelve fácil debido a este hecho. Cuando se utiliza un algoritmo en el software para trazar el espectro resultante, se genera una representación visual en forma de gráfico de transmitancia vs longitud de onda. Electroforesis de proteínas SDS-PAGE Al colágeno obtenido se le realizó una prueba de electroforesis de proteínas SDS-PAGE, mediante esta prueba se puede determinar el tipo de colágeno presente. Siguiendo el procedimiento empleado por Sotelo [8]. Se prepararon las muestras a analizar durante la electroforesis de proteínas de la manera siguiente: Se estimó el peso del contenido de cada tubo de muestra mediante la pesada del vial con el precipitado de colágeno en una balanza de precisión, al cual se le restó el del vial vacío. Se calculó el volumen necesario de tampón de muestra 2X y se resuspendió cada precipitado para que las muestras quedaran a 50µg/100µl. Se empleó un minigel de 10cmx10cm al 6%. El Patrón de Peso Molecular (PPM) empleado fue confeccionado por los laboratorios del Centro de Neurociencias de Cuba (CNEURO) y se marcó en los 75 KDa de peso molecular. Cálculo del rendimiento. El rendimiento se calculó mediante fórmula que involucra el cociente del pesaje de la cantidad del producto obtenido y de la cantidad del material inicial utilizado, llevado a porcentaje, como expresa la fórmula 1 [10]: (1) Donde: Gpu: gramos de producto Gmp: gramos de materia prima Proceso de Liofilizado Para el liofilizado se utilizaron dos moldes. Uno de materiales con diferente conductividad térmica para garantizar un gradiente de temperatura entre ellos y otro de un mismo material. Estos materiales fueron acero inoxidable, que posee una conductividad térmica de 14 W / mK, y el polietileno de entre 0.33 a 0.5 W / mK. Esto debe provocar una cristalización dirigida durante la etapa de congelación. Después durante el secado a bajas presiones aparecen poros con una estructura alargada, lo cual permite facilitar el crecimiento celular y con esto biomimetizar la estructura celular original de las arterias. Los mismos se muestran en la figura 3. Estos poseen un diámetro de 20mm entre las paredes exteriores, un núcleo cuyo diámetro es de14mm y una altura de 50mm. Entre la cara interna de las paredes exteriores y el núcleo existe una distancia de 3mm, la que correspondería a la pared del andamio tubular construido. El espesor de la pared exterior del molde de acero posee 1mm y el de polietileno 4 mm. Fig. 3 Moldes utilizados para la construcción de los andamios. A- Molde de acero, B- Molde con núcleo y tapas de cero y pared tubular de polietileno. El proceso, que tuvo una duración completa de aproximadamente 22 horas, se realizó en las etapas siguientes: 1ra etapa: Congelación. En esta etapa factores como la concentración y cantidad del producto, la congelación adecuada y la obtención de la morfología necesaria, son la clave para un buen producto final. Para ambos moldes, se utilizó una temperatura de -40oC y un tiempo de 7 horas. 2da etapa: Secado primario. En este paso es cuando ocurre la eliminación de la mayor parte del disolvente presente en el producto, al someter al vacío el material congelado y que tenga lugar la sublimación, para que esto ocurra el mismo debe encontrarse en estado sólido. En esta etapa se utilizó una presión de 0,01 mbar a una temperatura de 30o C con una permanencia de 6 horas. 3ra etapa: Secado secundario. Se eliminan las últimas trazas de disolvente que puedan existir en el producto, llevándolo a una temperatura de 19o C durante 5 horas y luego destapando el equipo y dejando sin tiempo requerido que alcance la temperatura ambiente. El proceso completo se observa en la gráfica de la figura 4. -100 0 100 0 1 8 9 15 16 21 22 te m p e ra tu ra tiempo PROTOCOLO DE LIOFILIZACIÓN Fig.4.Gráfico que muestra el protocolo seguido para el liofilizado del colágeno. Caracterización de los andamios Los andamios fueron caracterizados mediante las pruebas de absorción de agua; hinchamiento; biodegradación y microscopía óptica Prueba de absorción de agua. Esta prueba busca conocer la capacidad de absorción de agua de los andamios. Para ello se tomaron una porción de los andamios, se pesaron y luego se dejaron en un recipiente con agua desionizada durante un tiempo de 2 horas para ser pesados nuevamente. Los datos que se obtuvieron de los dos pesajes nos brindaron el índice de absorción de agua de ambas muestras a través de la fórmula 2 [10]: (2) Donde: W1: masa del andamio después de 2 horas en agua destilada. W0: masa inicial del andamio. Prueba de swelling. El índice de hinchamiento (swelling) se realizó en presencia de una sustancia básica, en este caso buffer fosfato salino (PBS) a una temperatura de 37 ºC. Para ello se necesitó conocer la masa de las muestras a estudiar, antes de introducirlas en el PBS y luego la masa húmeda de las muestras pasadas 72 horas de incubación. El índice de Sweling (Wsw) se determinó con la expresión 3 [7]. (3) Donde: W72h: masa del andamio después de 72 horas de incubación W0: masa inicial del andamio (seca) Prueba de Biodegradación. La prueba de biodegradación expone los andamios a un ambiente que se generara en presencia de una solución de PBS, estos se mantuvieron a 37 ºC durante 72 h, para luego secarlas en un desecador durante 48h o más. La biodegradación se calculó en porcentaje de pérdida de masa utilizando la fórmula siguiente [10]. (4) Donde: Wn: Masa de la muestra del andamio, después de n horas en la desecadora. W0: masa inicial de la muestra antes de sumergir en el PBS. Microscopia óptica Se realizó un análisis morfológico superficial con un microscopio óptico marca Zoom Stereo Microscope 2. RESULTADOS Y DISCUSIÓN El colágeno obtenido resultó en una masa homogénea amorfa con características gelatinosas como se observa en la figura 5 (B). Fig 5. Figura donde se observa la muestra de colágeno obtenido (A), la electroforesis SDS page realizada (B) y la prueba de FTIR(C). El patrón definido para el colágeno en las pruebas de FTIR tiene un % de variación según el lugar y tipo de material de donde sea extraído. La aparición de amida A entre las bandas (3400-3300) significa que la triple hélice de colágeno se mantuvo unida durante el proceso de disolución y que el compuesto no perdió sus características en la estructura primaria, es decir en la secuencia de aminoácidos de la que está formada. La amida B encontrada entre (3100-2800) relaciona el estiramiento asimétrico y simétrico de enlaces C -H dentro del compuesto y las amidas I entre (1700-1600), II entre (1550-1300) y III entre (1250-1000), relacionan la configuración del colágeno [9, 11-13]. Si se aprecia el patrón de bandas mostrado en el FTIR de la figura 5(A) se puede afirmar que se obtuvo colágeno, puesto que las mismas se encuentran ubicadas dentro del rango de valores concebido para este compuesto. Las bandas que se muestran en el primer bloque corresponden a la amida A en 3300, a la amida B en 2920 y la banda mostrada en 2850 demuestra presencia de enlaces CH2 lo que significa que existen trazas de ácido acético en la muestra. El segundo bloque muestra bandas para las amidas I (1620), II (1498) y III (1250). Cuando las bandas representativas se encuentran entre 1700-1650 para la amida I esto sugiere presencia de cadenas β, mientras que cuando se presentan entre los 1660-1620 se sugiere la presencia de cadenas α [14]. Aunque la banda representativa de las amidas I se encuentra corrida, situación atribuible a las modificaciones locales que sufren las frecuencias vibracionales y rotacionales mientras se realiza el proceso de extracción [15], este patrón nos muestra presencia de colágeno tipo I, lo que fue confirmado por la prueba de electroforesis de proteínas. Para que una muestra analizada por electroforesis se defina como colágeno de cualquier tipo, la representación de sus bandas debe quedar para las cadenas α entre 90 y 150 kDa y las β por sobre los 200kDa. La electroforesis de proteínas SDS-PAGE realizada a la muestra de colágeno obtenida se observa en la figura 5(C). La misma representa un patrón de 2 bandas ubicadas aproximadamente sobre los 100 y 125kDa, correspondientes a las cadenas α2 y α1 respectivamente y por sobre los 200 kDa, aunque poco perceptible, correspondiente a las cadenas β, con lo que se puede afirmar que el colágeno obtenido es tipo 1. Autores como Solaris [16], Braz da Silva [17], Hashim[18] y Mantelli [19], exponen en sus trabajos de extracción de colágeno para diferentes partes y tipos de animales que los valores para las bandas electroforéticas del colágeno tipo 1 se encuentran entre los 125 a 140 kDa, para la cadena α1, entre los 100 a 125 kDa para la cadena α2 y para la cadena β entre 200 y 225 kDa. Esta prueba se repitió para una muestra de cada una de las disoluciones, repitiéndose aproximadamente el mismo patrón. El rendimiento del colágeno, se calculó para cada una de las disoluciones, teniendo en cuenta sus características como se muestra en la tabla 1. Para el caso 1 donde se utilizaron 680.4g de crestas, se obtuvieron 17.71g de colágeno y para el caso 2 donde se utilizaron 226.8g de crestas se obtuvieron 11g de producto final. Tabla 1. Resultados del rendimiento. Solución % de rendimiento 1era solución (30% de ácido acético pH 2.2) 2.60 2da solución (5% de ácido acético pH 4.11) 4.85 El rendimiento del proceso de extracción puede ser mejorado según diferentes autores [18,20] si se reduce el grado de acidez, dando lugar a que la formación de fibrillas de colágeno sea mayor, en este caso se observa que el mayor rendimiento se lo atribuye la solución con menor grado de acidez es decir la que presenta el valor más cercano al PH considerado como neutro que corresponde a 7 aproximadamente. Los andamios construidos se pueden observar en la figura 6. Fig 6. Andamios obtenidos. Andamio de molde combinado (A y B), Andamio con molde de acero(C) Como se observa el andamio cuya coloración es más cercana a la del colágeno extraído es el obtenido con el molde combinado figura 6 A y B. El andamio obtenido con el molde de acero, presenta un color más oscuro y al tacto se encuentra más rígido, figura 6 C. En los productos naturales liofilizados, debido a la transferencia forzada de calor para el proceso, se alteran diferentes propiedades físico-químicas que afectan características del producto entre ellas el color, este cambio se atribuye a la inestabilidad de los pigmentos los cuales se afectan por la oxidación provocada por el calor [21]. Uno de los parámetros que se mide al analizar el color es la luminosidad L* la que se hace mayor mientras mayor sea la velocidad de congelación, debido a que se define como el flujo de luz en una dirección dada que depende del número y la orientación de las superficies reflectantes [22]. El aumento de este parámetro hace que la coloración del producto se vuelva más oscura [23]. El proceso de liofilización se basa en el intercambio térmico entre la sustancia a liofilizar y el medio en que se liofiliza. Una congelación adecuada es básica para que esté presente un buen aspecto y que sus propiedades originales se conserven. Se conoce que el acero posee una conductividad térmica alta (14 a 16 W / m.K) y un calor específico de 500 J/kg·K, por lo que existe la posibilidad, que, para la temperatura de congelación utilizada en el proceso y el espesor de la pared del molde, se haya acelerado la velocidad de congelación provocando la formación de pequeños cristales distribuidos aleatoriamente influyendo así en las características del colágeno. Lo que sucede en trabajos donde se liofilizan materiales naturales como frutos frescos y vegetales. [21,22] No obstante, se realizaron pruebas a los dos andamios obtenidos para su caracterización, teniendo como resultados en la prueba de absorción de agua los datos que se aportan en la tabla 2. Tabla 2. Resultados de la prueba de absorción de agua Muestras según el molde de obtención del andamio Peso inicial (g) Peso final (g) Índice absorción de agua Molde de acero, muestra con 1mm de espesor en la pared 0.059 0.3467 4.87 Molde combinado, muestra de 3mm de espesor en la pared 0.1757 0.8311 3.73 Estos resultados indican que para un tiempo de 2 horas el andamio que posee la pared más delgada absorbe mayor cantidad de líquidos que el andamio que posee una pared más gruesa. Según Yang Ling, [24] mientras mayor capacidad de absorción de agua posee un andamio, mayores posibilidades de uso tendrá debido a que esta característica aporta recursos en la mejora de las características mecánicas, al actuar como un amortiguador hidráulico capaz de soportar más carga. Para la prueba de Swelling o hinchamiento los datos se procesaron mediante la fórmula (3) y se obtuvieron los porcientos que se relacionan en la tabla 3. Tabla3.Resultados de swelling Muestras según el molde de obtención del andamio Peso inicial (g) Peso final (g) Porciento de hinchamiento (%) Molde de acero ,muestra de 1mm de pared 0.0781 0.5901 656,5 Molde de plástico , muestra de 3mm de pared 0.24 1.7130 614,0 Esta prueba determina el grado de hinchamiento del material, para establecer las características que debe tener en cuanto a volumen el dispositivo a implantar. Si se observa en la tabla 3 la diferencia entre los índices alcanzados por las muestras fue de 42,5% la que resulta algo mayor que las alcanzadas por Yang Ling [24] en los resultados para la comparación entre muestras de diferentes combinaciones de materiales con una matriz vascular de colágeno tipo I y cuyo mayor valor no sobrepasó el 25%. Este comportamiento pudiera deberse a la diferencia del grosor de las paredes lo que hace posible que la penetración de las moléculas de agua se realice con mayor facilidad causando la hidrolisis del colágeno como determinara Zhang [7] en su trabajo de andamios arteriales construidos con colágeno y fibras sintéticas. Esto concordó con la evidencia obtenida en la prueba de absorción de agua, donde el andamio cuya pared de 1mm de espesor, construido con acero, alcanza la mayor cifra. En cuanto a la prueba de biodegradación se obtuvieron los resultados que se muestran en la tabla 4. Tabla 4. Resultados de prueba de degradación. Muestras según el molde de obtención del andamio Peso inicial (g) Peso al sacar de la incubadora 72h (g) Peso a las 48h de secado(g) Peso a las 96h de secado(g) Peso a los 10 días de secado(g) % de pérdida de masa Molde de acero, muestra de 1mm de espesor de la pared 0.0781 0.5901 0.3273 0.0404 0,0073 90.65 Molde combinado, muestra de 3mm de espesor de la pared 0.24 1.7130 1.3625 0.8954 0.0885 63.13 Esta prueba se realiza para conocer el tiempo que demora el material dentro del organismo para degradarse, integrarse o el tipo de célula a utilizar in vivo e invitro para la regeneración celular. Como se observa se extendieron los tiempos para el estudio de la biodegradación hasta los 10 días para completar el secado de la muestra del andamio combinado. Esto según Fang, [7] cuyos resultados coinciden con los obtenidos, se debe al espesor de la pared y la conservación de las características del material, durante el proceso de liofilizado. En cuanto al andamio construido con el molde de acero, posee una degradación rápida existiendo aproximadamente una diferencia de un 32% entre ambos procesos. El tiempo de degradación es importante para la caracterización de un andamio. Este puede influir en la aplicación a la que se asocie el mismo. En este trabajo los andamios construidos están destinados a su aplicación en reparación o regeneración arterial por lo que una lenta degradación es favorable para este propósito, ya que algunos autores aseveran que el tiempo de regeneración autóloga de la arteria aorta es de aproximadamente 4 semanas, [25] durante las cuales se regeneran los componentes de la matriz capa por capa. La microscopía se hizo de manera superficial, observando la disposición de los poros según el molde utilizado. Según Ma [26] la disposición de los poros y su tamaño se debe al tipo de material utilizado en los moldes y el tipo de solvente utilizado. Esta propiedad hace que sobre el polímero se realice una inducción térmica en la fase-separación durante el proceso debido a la diferencia de conductividad térmica entre los materiales del molde. Esto hace factible el control morfológico de los andamios. Este autor manifiesta que andamios de un mismo material van a proveer una misma disposición de los poros durante toda la pared del andamio y que la combinación de diferentes materiales hace que este comportamiento cambie según el orden en que se coloquen, observándose también de manera superficial este comportamiento. Fig7. Andamio de cresta de pollo construido con molde de acero inoxidable. Superficie de la pared del andamio (A), Superficie de la capa externa del andamio (B). Tomada con objetivo 10x Fig 8. Microscopía superficial realizada a las superficies del andamio construido con molde combinado. Superficie externa (A), superficie de la pared del anillo (B). Tomada con objetivo 10x Para el andamio construido con un molde de acero solamente, figura 7, el tamaño de los poros se mantuvo pequeño relativamente distribuyéndose de manera homogénea, tanto en el borde de la pared del anillo, como sobre la superficie externa del andamio, manifestándose en forma de puntos diminutos de color oscuro. Esta estructura homogénea con pequeños poros distribuidos aleatoriamente se debe a que no existe un gradiente térmico por la presencia de un mismo material en las diferentes partes del molde. Por su parte, el andamio construido con el molde combinado, figura 8, muestra sobre la superficie diferencias entre los tamaños de los poros denotados por puntos de color oscuro agrupados de manera no homogénea, concentrándose hacia la zona de la parte superior del molde cuya tapa es de acero. Debido a esto en el borde de la pared se puede observar la presencia de poros de diferentes tamaños esparcidos de manera grupal o sola, aunque la disposición de poros de mayor tamaño se presentó más cercana a la superficie externa. Esto concuerda con lo obtenido por Ma [26] en su trabajo donde el tamaño de los poros, dependió del tipo de material con que se construyó el molde. Las modificaciones en la morfología de estos andamios se deben a la presencia de un gradiente de temperatura entre el núcleo, las tapas de acero y la pared de polietileno. 3. CONCLUSIONES El andamio obtenido con el molde combinado presentó índices de absorción de agua (3.73), porciento de swelling (614.0) y biodegradabilidad (63.13), más bajos que el realizado con el molde de acero cuyas cifras fueron (4.87, 656.5, 90.65) respectivamente. El porciento de biodegradabilidad obtenido en el andamio construido con el molde combinado (63.13) sugirió la posibilidad de su aplicación como implante. El andamio construido con la pared más delgada propone mejores condiciones para las características mecánicas al tener mayor índice de absorción de agua. REFERENCIAS 1. Organización Panamericana de la Salud (OPS), Enfermedades no Transmisibles y Salud Mental. La Carga de Enfermedades Cardiovasculares. Disponible en: https://www.paho.org/es/enfermedades-no- transmisibles-salud-mental/portal-datos-enfermedades-no-transmisibles-salud-0 2. BOLAÑOS MARTÍNEZ, Isabel; CHAVES CHAVES, Alejandra; GALLÓN VANEGAS, Luisa; IBAÑEZ MORERA1, Mario; LÓPEZ BARQUERO, Hubert. “Enfermedad arterial periférica en miembros inferiores”. Med. leg. Costa Rica 2019; 36(1):84-90 3. RODWELL Victor W, BENDER David A, BOTHAM Kathleen M, KENNELLY Peter J, WEIL P. Anthony. La matríz extracelular. En: Harper. Bioquímica ilustrada. 30aed.México: Kathleen M Botham; Robert K Murray, McGraw Hill 2017.p.31 4. HOLZAPFEL G. Collagen in Arterial Walls: Biomechanical Aspects. En: P Fratzl, editor, Structure and Mechanics. 2008. P: 285-324. 5. WEINBERG, Crispin B; BELL, Eugene;”A Blood Vessel Model Constructed from Collagen and Cultured Vascular Cells”. SCIENCE 1986; 231:397- 400 6. JUSTIN, Alexander W.; BURGESS, Sebastian; ESTEVEZ, Silas R; STAVROPOULOU-TATLA, Agavi; ONG, John; AISHWARYA, G.Jacob; SAEB-PARSY, Kourosh; SINHA, Sanjay;. MARKAKIDIS; Athina E.” Densified Collagen Tubular Grafts for Human Tissue Replacement and Disease Modelling Applications” bioRxiv preprint doi: https://doi.org/10.1101/2021.02.05.429744 7. ZHANG, Fa; BAMBHAROLIYA, Tusha; XIE, Y; LIU, Laijun; CELIK, Hakan; WANG, Lu; AKKUS, Ozan; KING, Martin W. “A hybrid vascular graft harnessing the superior mechanical properties of synthetic fibers and the biological performance of collagen filaments”. Materials Science & Engineering C 2021; 118:111418. 8. GONZÁLEZ SOTELO, Carmen; BLANCO COMESAÑA, M.; RAMOS, Patricia; PÉREZ MARTÍN, Ricardo Isaac. Characterization of Collagen from Different Discarded Fish Species of the West Coast of the Iberian Peninsula. Journal of Aquatic Food Product Technology, 2016; 25(3): 388-399 9. CARVAJAL DE LA OSA, Janet; PACHECO LEAL, Amanda; NUEVO ARTÍLES, Yaimara; FIGUEROA HERNÁNDEZ, CarlosR; GÓMEZ GONZÁLEZ, Reynie;, VILLEGAS SANTOS, JavierL; SERRANO RIVERO, Yuniel; VALDÉS MARTÍNEZ, Ahmed; RODRÍGUEZ MOLINER, Tania; PROHÍAS MARTÍNEZ, Juan; DÍAZ ROLLER, Yenisel“ Obtención de andamios de colágeno de crestas de pollo y piel de cerdo para la reparación del sistema cardiovascular” . Revista Cubana de Ingeniería 2021; XII (2): e279. 10. FIGUEROA HERNÁNDEZ, CarlosR; GÓMEZ GONZÁLEZ, Reyniel; PROHIAS MARTÍNEZ, Juan; EXPÓSITO, LP. Obtención de andamios de colágeno para la restauración del tejido del miocardio. Revista Cubana de Ingeniería., 2016; VII (3):15 - 24. 11. SUPARNO, O; PRASETYO, NB.” Isolation of collagen from chicken feet with hydroextraction method and its physico-chemical characterization”. IOP Conference Series: Earth and Environmental Science, 2019; 335(1): pp. 012018. 12. DE CAMPOS VIDAL, Benedicto, S MELLO, Maria Luiza. “Collagen type I amide I band infrared spectroscopy”. Micron, 2011; 42(3):283–289. 13. ANAND, Sushil, KAMATH, Sandip, CHUANG, Lillian, KASAPIS, Stefan, and LOPATA, Andreas L. Biochemical and thermo-mechanical analysis of collagen from the skin of Asian Sea bass (Lates calcarifer) and Australasian Snapper (Pagrus auratus), an alternative for mammalian collagen. European Food Research and Technology 2013, 236 (5). pp. 873-882. 14. DANG, Qi Feng; LIU, Han; YAN, Jing Quan; LIU, Cheng Sheng; LIU, Ya; LI, Jing; LI, Jing Jing “Characterization of collagen from haddock skin and wound healing properties of its hydrolysates”. Biomed. Mater., 2015. 10:015022. 15. SHANMUGANATHAN, S; SHANMUGASUNDARAM, N; ADHIRAJAN, N; RAMYAA, LT; BABU, M. “Diseño de una matriz de soporte compuesta de colágeno de piel de tiburón-aloe para ingeniería tisular”. Ars Pharm, 2008. 49(4):321-340. 16. SOLARI, A; CÓRDOVA, JS. “Extraction of collagen from wastes processing Engraulis ringens “anchovy””. Ciencia e Investigación 2015; 18(2): 65-68 17. BRAZ DA SILVA ARAÚJO, I; ALVES BEZERRA, TK; SILVA DO NASCIMENTO, E; DE ALMEIDA GADELHA, CA; SANTI-GADELHA, T; MADRUGA, MS. “Optimal conditions for obtaining collagen from chicken feet and its characterization”. Food Sci. Technol, 2018; 38(1):167-173. 18. HASHIM, P; MOHD RIDZWAN, MS; BAKAR, J.” Isolation and Characterization of Collagen from Chicken Feet”. Journal of Bioengineering and Life Sciences, 2014; 8(3):250-254. 19. MANTELLI SCHMODT, M; MENNA DA FDNTDURA, A; VODAL,AR; PRESTES DDRNELLES, RC; HASHIME KUBDTA, E; DE DLIVEIRA MELLD, R; et al. “Characterization of hydrolysates of collagen from mechanically separated chiken meat residue” Food Sci. Technol (Campinas),2020; 40 (1): 355-362. 20. WU, J; KONG, L; ZHANG, J; CHEN, W. “Extraction and Properties of Acid-Soluble Collagen and Pepsin-Soluble Collagen from Silver Carp (Hypophthalmichthys molitrix) Scales: Prerequisite Information for Fishery Processing Waste Reuse”. Pol. J. Environ. Stud. 2019; 28(4):2923-2930. 21. CABALLERO, BL; MARQUEZ, CJ; BETANCOURT, MI. “Efecto de la liofilizacon sobre las características físico-quimicas del aji rocoto (capsicum pubescens R&P) con o sin semillas”. Bioagro 2017; 29(3):225-234 22. MUÑOZ LÓPEZ, C; URREA GARCÍA, GR; JIMÉNEZ FERNÁNDEZ, M; RODRÍGUEZ JIMÉNES, G del C; LUNA SOLANO, G. “Efecto de las condiciones de liofilización en propiedades físico-químicas, contenido de pectina y capacidad de rehidratación de rodajas de ciruela (Spondias purpureaL.)” Agrociencia 2018;52(1):1-13. 23. ORREGO ALZATE, CE. Congelación y liofilización de alimentos. Manizales; 2008: p 172. 24.YAN-LING, G; CHEN, X; YA-LI, H; YAN-JUAN, H; SONG-BO, T; YU-HE, Ch; et al. “Characterization of different biodegradable scaffolds in tissue engineerin”. Molecular Medicine Reports 2019; 19:4043-4056. 25. MORGAN, E; GINN, B; FUKUNISHI, T; BEDJA, D; SURESH, A; CHEN, Th; et al.” Regenerative and durable small-diameter graft as an arterial conduit”. PNAS 2019;116(26):12710–12719, 26. HAIYUN, Ma; JIANG, H; MA, PX. “Polymer Scaffolds for Small-Diameter Vascular Tissue Engineering”. Adv. Funct. Mater. 2010; 20:2833–2841. sobre los autores - Janet Carvajal de la Osa, Licenciada en electromedicina, Máster en Bioingeniería, Profesora Auxiliar, Universidad Tecnológica de la Habana José Antonio Echeverría, (CUJAE). La Habana, Cuba. https://orcid.org/0000-0001-7954-8359 - Ariel Hidalgo Benitez, Ingeniero Biomédico, adiestrado, Hospital Clínico Quirúrgico Docente Julio Trigo López, La Habana, Cuba. https://orcid.org/0000-0003-0723-5120 - Carlos Rafael Figueroa, Ingeniero Mecánico, Doctor en Ciencias Técnicas, Profesor Titular, Universidad Tecnológica de la Habana José Antonio Echeverría, (CUJAE). La Habana, Cuba. https://orcid.org/0000-0002-3821-8748 - Tania Campos Cuello, Dra. en Medicina Veterinaria, MSc en Virología, Empresa productora de vacunas virales y bacterianas (OSDE Labiofam). La Habana, Cuba. https://orcid.org/0000-0002- 2685-9855 - Javier Luis Villegas Santos, Ingeniero Biomédico, Profesor Instructor, Universidad Tecnológica de la Habana José Antonio Echeverría, (CUJAE). La Habana, Cuba. https://orcid.org/0000-0003- 2773-3469 - Karen León Arcia, Lic. Bioquímica, MSc en Neurociencias, Investigador Auxiliar, Centro de Neurociencas de Cuba (CNeuro). La Habana, Cuba. https://orcid.org/0000-0001-5143-1642 - Tania Rodríguez Moliner, Ingeniero Mecánico, Doctor en Ciencias Técnicas, Profesor Titular, Universidad Tecnológica de la Habana José Antonio Echeverría, (CUJAE). La Habana, Cuba. https://orcid.org/0000-0001-6995-2948 - John William Sandino del Busto, Licenciado en Física, Doctor en Ciencias, Profesor Titular, Universidad Nacional de Colombia (UNAL). Bogotá, Colombia https://orcid.org/0000-0002- 2925-3998 PROPUESTA DE DISEÑO DE UN STENT VALVULAR AÓRTICO EXPANDIBLE PARA TAVI Primer Autor: Ing. Pablo A. Megret Menéndez1, Segundo Autor: Ing. Rut Lay Abad Rodríguez2, Tercer Autor: DrC. Carlos Rafael Figueroa 1,2,3 Universidad tecnológica de la Habana José A Echeverría (CUJAE), Grupo de Investigación de Biomecánica - Biomateriales y Centro de Estudio de Bioingeniería (CEBIO), Dirección: Ave 114 e/ Rotonda y Ciclovía, Marianao, La Habana, Cuba. 1e-mail: pabmm38@automatica.cujae.edu.cu; pabmm38@gmail.com. 2e-mail: rutlay.abad@automatica.cujae.edu.cu. 3e-mail: carlosrfh@tesla.cujae.edu.cu; carlosrfhg@gmail.com. RESUMEN La estenosis valvular aórtica consiste en una disfunción de la válvula de la aorta, una de las cuatro válvulas que controlan el flujo de sangre al interior y al exterior del corazón, es un proceso de engrosamiento y endurecimiento de la válvula, que puede dar lugar a un estrechamiento anormal de la apertura de la válvula aórtica, y una reducción del flujo sanguíneo. Como alternativa terapéutica para pacientes de alto riesgo quirúrgico con dicha patología surge el implante valvular aórtico transcatéter, (TAVI). En dicha alternativa, el stent, juega un papel fundamental. En este caso funciona como prótesis vascular, en forma de malla tubular y sirve de soporte y anclaje de la válvula artificial. Su funcionamiento y los problemas que pueden aparecer por sus defectos o fallos, son de naturaleza mecánica, por tanto, es imprescindible su análisis desde el punto de vista mecánico y estructural. En el presente trabajo se realizó un análisis de estas propiedades, se establecieron comparaciones entre los principales stents aórticos existentes y se propuso, a partir del análisis anterior, un nuevo diseño de stent valvular aórtico expandible con balón, para su futura simulación por elementos finitos, con el objetivo de seleccionar los mejores parámetros pare el diseño a partir del análisis tensional y dimensional del stent. PALABRAS CLAVES: aórtico, diseño, estructura, stent. PROPOSAL FOR THE DESIGN AND MODELING OF AN EXPANDABLE AORTIC VALVE STENT ABSTRACT Aortic valve stenosis consists of a dysfunction of the aortic valve, one of the four valves that control the flow of blood inside and outside the heart, it is a process of thickening and hardening of the valve, which can lead to an abnormal narrowing of the aortic valve opening, and a reduction in blood flow. Transcatheter aortic valve implantation (TAVI) arises as a therapeutic alternative for patients with high surgical risk with this pathology. In this alternative, the stent plays a fundamental role. In this case, it functions as a vascular prosthesis, in the form of a tubular mesh, and serves as a support and anchor for the artificial valve. Its operation and the problems that may appear due to its defects or failures are of a mechanical nature, therefore, its analysis from the mechanical and structural point of view is essential. In the present work, an analysis of these properties was carried out, comparisons were made between the main existing aortic stents and, based on the previous analysis, a new balloon-expandable aortic valve stent design was proposed for its future simulation by finite elements. with the objective of selecting the best parameters for the design from the tensional and dimensional analysis of the stent. KEY WORDS: aortic, design, structure, stent. 1. NTRODUCCIÓN Al cierre del 2019, alrededor del 20,3% de población cubana era superior a los 60 años y dentro las principales causas de muerte, las enfermedades cardiovasculares ocupaban el primer lugar en el país [1]. La estenosis aórtica (EA) es una valvulopatía presentada generalmente en personas de la tercera edad y sus soluciones fundamentales son la operación para el recambio valvular aórtico y/o los implantes valvulares por mínimo acceso como la Transcatheter Aortic Valve Implantation (TAVI), siendo esta última prácticamente la única opción para pacientes que presentan una EA severa sintomática y con alto riesgo quirúrgico. Son varias las empresas que se han dedicado a fabricar y perfeccionar los dispositivos utilizados para dicha opción terapéutica. Entre ellas se encuentran Edwards Lifescience inc.®, California, Estados Unidos y Medtronic, Minneapolis, EEUU quienes han desarrollado las 2 válvulas aprobadas desde 2007, de mayor uso en Europa. Estas son la Edwards Sapien y la CoreValve respectivamente. En los últimos años se han desarrollado nuevos modelos como son la Sapien 3 (Edwards Lifescience inc.®, California, EEUU), la Jena Valve (Jena Valve®, Munich, Alemania) la Symetis Accurate (Symetis SA®, Ecublens, Suiza), y la Engager (Medtronic®, Minnesota, EEUU) entre otras (Figura 1). Estos últimos modelos tienen en común un introductor más pequeño que facilita su implante por vía femoral, un sistema de recaptura y que, además, permite un implante más preciso [2]. Figura 1. Modelos de prótesis percutáneas aórticas. A) Edwards SAPIEN; B) Edwards SAPIEN 3; D) Edwards Centera; E) Meditronic Core Valve; F) Meditronic Core Valve Evolut R; G) Meditronic Engager; H) Boston Lotus; I) Direct Flow Medical; J) St. Jude Portico; K) Symetis Acurate; L) Jena Valve; M) Heart Leaflet Technologies; N) Colibri Heart Valve [3]. Es evidente que cada vez se busca más el perfeccionamiento de los dispositivos a implantar tanto en las válvulas como en los diferentes diseños de stents utilizados y se apuesta por el método menos invasivo para pacientes tanto de alto, moderado o bajo riesgo quirúrgico previendo que sea la principal solución para el tratamiento de pacientes con EA [4]. En Cuba este tipo de implante no se ha realizado y esto se debe al alto costo de los dispositivos y todo el equipamiento que lo acompaña en especial la válvula transcatéter (válvula + stent) que representa más del 70 % del costo de todos los recursos empleados [5]. Al elevado costo se añade, el detallado y complejo proceso de fabricación y la tecnología necesaria para el mismo, el no contar con un diseño propio de stent valvular aórtico y el difícil acceso a esta tecnología desde el propio país. Por las razones antes expuestas tiene lugar la presente investigación. 2. DESARROLLO Stent Un stent se refiere generalmente a cualquier dispositivo que se emplee para sujetar el tejido en su lugar en el cuerpo de un paciente. Sin embargo, los stents especialmente útiles son aquellos utilizados para el mantenimiento de la permeabilidad de un vaso sanguíneo en el cuerpo de un paciente cuando el vaso sanguíneo se estrecha o se cierra debido a enfermedades o trastornos entre las que se incluyen, la enfermedad pancreática benigna, enfermedad arterial coronaria, enfermedad arterial carotídea y enfermedad arterial periférica tal como aterosclerosis y reestenosis. Los stents se utilizan no solo como una intervención mecánica, sino también como un vehículo para proporcionar terapia biológica. Como intervención mecánica, los stents actúan a modo de andamiajes, sirviendo para mantener físicamente abierta y, si se desea, para expandir la pared de un conducto [6]. Hay diferentes tipos de stents y sus materiales o formas dependen de su aplicación ante las diversas patologías generalmente para el tratamiento de aneurismas, arteriosclerosis y valvulopatías. Entre estos se encuentran los stents convencionales generalmente de aceros inoxidables y de aleaciones de Cromo Cobalto, los stents liberadores de fármacos y los stents reabsorbibles. También pueden ser clasificados según la forma en la que se expande o se dilata el balón en autoexpandibles o expandibles con balón [7]. Específicamente en el tratamiento de la EA, las dos válvulas aórticas por implantación transcatéter más utilizadas son: la Sapiens (Edwards Sapiens, Edwards Lifescience inc.®, California, Estados Unidos) y la CoreValve (Revalving System CoreValve®, Paris, Francia; Medtronic, Minneapolis, EEUU) [4, 8]. Debido a que estas dos válvulas son las más utilizadas en el tratamiento de valvulopatías este proyecto se centra en los dos tipos de stents que estas presentan: expandibles con balón y autoexpandibles de nitintol, haciendo énfasis en el primero (Figura 2) pues es el que se propone modelar en un futuro. Figura 2. Principal válvula empleadas en TAVI. Edwards Sapien [4]. Funcionamiento del stent expandible Los stents expandibles fueron los primeros que se comercializaron y abarcaban la totalidad del mercado. En estos stents, la forma del sistema de suministro viene determinada por el globo sobre el cual se monta. La adherencia del stent al globo debe ser la adecuada con el fin de evitar cualquier tipo de problema durante el proceso de expansión. Los stents expandibles con balón se diseñan y se fabrican de acuerdo con su diámetro mínimo es decir su configuración comprimida de forma que se expanden hasta alcanzar el diámetro del vaso en el que se inserta a través de la fuerza que un globo situado en el interior del stent le suministra al inflarse, de este modo el stent se deforma plásticamente. En consecuencia, los stents expandibles con balón resisten el proceso de expansión que realiza el globo situado en su interior ya que su tendencia es a permanecer comprimidos [6] Variables biomecánicas sobre un stent Dentro de las características mecánicas a analizar, por su importancia, se encuentran los factores facilitadores independientes del tipo del stent que son: la presencia de más puntos de flexión durante el ciclo cardíaco y durante la expansión y compresión del stent que generan: compresión, torsión, acodamiento y elongación, que al final pueden causar la fractura. Los sitios de ruptura, en general, están situados en puntos sometidos a fuerzas de cizallamiento creadas por la propia anatomía de los vasos y la distorsión de la estructura del stent durante el implante que ocasiona una mala distribución de la fuerza durante la contracción cardiaca [9]. De igual manera, los diferentes diseños y materiales de los stents tienen mayor o menor susceptibilidad a la fractura, por ejemplo: los stents fabricados en aleaciones metálicas (cromo-cobalto, platino-cobalto) son menos proclives a la fatiga y fractura que el acero inoxidable [10, 11]. Características y comportamiento de los materiales Los materiales empleados en la fabricación de stents expandibles con balón deben estar hechos de materiales que puedan deformarse plásticamente por la acción de un globo ya que se fabrican a partir de su configuración no expandida. Una vez que el balón se deshincha el material debe mantenerse expandido, aunque haya un cierto grado de estrechamiento debido a la deformación de carácter elástico El material ideal para un stent expandible con balón debe tener las siguientes características, un bajo límite elástico para que sea deformable plásticamente a las presiones ejercidas por el globo; Alto módulo elástico (E) para un mínimo estrechamiento post-deformación (recuperación) y que se endurezca por deformación plástica para así conseguir que el material tenga una alta resistencia. En su mayoría estos materiales son aleaciones metálicas. Las más utilizadas son el acero inoxidable 316L y las aleaciones de cromo-cobalto. Otros materiales menos utilizados son: aleaciones de platino, aleaciones de niobio, aleaciones de tántalo y polímeros biodegradables [6, 12]. TAVI Se trata de una técnica poco invasiva en la que se introduce por vía transfemoral, o transapical, una válvula aórtica biológica suturada a un stent que le sirve de soporte, y se despliega, mediante control angiográfico y ecocardiográfico, por dentro de la válvula aórtica calcificada del paciente con la ayuda de un catéter guía. Al llegar al lugar del implante, se infla un balón que permite la expansión del stent y con la retirada de dicho balón, queda anclada la válvula artificial en el lugar de la dañada, lista para controlar el flujo sanguíneo resolviendo así la estenosis aórtica (Figura 3). Esta técnica es, por tanto, un implante dentro de la válvula aórtica nativa del paciente, no una sustitución de la válvula dañada. Figura 3. Etapas de TAVI. 1) Inserción del catéter guía. 2) Introducción de la válvula suturada al stent. 3) Inflado del balón y expansión del stent. 4) Retirada del balón [13]. Estudios realizados en subpoblaciones mayores de 80 años con EA severa sintomática han demostrado que la sustitución valvular reduce la mortalidad al año y a los 5 años a 13% y 32% respectivamente. Sin embargo, solo entre el 50% y el 70% de los pacientes se llegan a operar, debido a que una parte importante de esta población es de edad avanzada y tiene múltiples comorbilidades, que hacen que se desestimen para cirugía convencional por su elevado riesgo quirúrgico [2]. En el caso de estos pacientes que se consideran inoperables o en los que la cirugía cardiaca supone un riesgo elevado, la única opción terapéutica viable podría ser la utilización de tecnologías de reemplazo de la válvula aórtica mínimamente invasivas, como el implante valvular aórtico transcatéter (TAVI) [14]. A pesar de la eficacia del método, se pueden presentar complicaciones asociadas a principalmente asociados al uso de los stents y las válvulas biológicas. Dentro de ellos se encuentran la durabilidad limitada, deterioro y fallo estructural de las válvulas biológicas que ocurren en el 50% de los casos a los 10 años, ya sea por calcificación o por filtraciones [15]. Trombosis aguda del stent están en estrecha relación con aspectos relacionados a la técnica del implante, tales como la expansión y aposición adecuada, no hay un correcto contacto entre el stent y las paredes de la cavidad donde se desee implantar, la cobertura completa de la lesión, la anticoagulación peri-procedimiento y el tiempo de coagulación activada (ACT) previo a la colocación del dispositivo, así como la antiagregación apropiada del paciente [16, 17]. Regurgitaciones: Para evitarla es crucial una medición exacta del anillo aórtico [18]. La complicación que tiene que ver más directamente con el diseño propio del dispositivo es la fractura del stent, se define como la presencia de una conexión interrumpida de celdas o de la estructura completa del stent vista por angiografía coronaria o ultra-sonido intravascular que no estaba presente durante el caso índice. Adicionalmente, se describen tres patrones de fractura: la disrupción, la avulsión y el desplazamiento, dependiendo del sitio de interrupción y la presencia o ausencia de desplazamiento [9]. Requisitos a cumplir en el diseño de stents valvulares aórticos expandibles con balón A partir del estudio de los diferentes modelos de stents valvulares, se tuvo en cuenta varios elementos para el diseño de esta propuesta de stent dentro de los que se encuentran: Dimensiones normandas El diámetro y la altura de un stent valvular aórtico varía en dependencia de las características físicas y edad del paciente a implantar por lo que existen diferentes variantes de stent para su fabricación. Diferentes autores han tomado, para el diseño y fabricación de los stent las siguientes dimensiones a modo de estándares para la forma expandida (stent abierto) (Tabla 1) [22, 23, 24]: Tabla 1. Dimensiones normadas de stents valvulares aórticos expandibles en su forma expandida Diámetro de la válvula Altura 20 mm 15.5 mm 23 mm 18.0 mm 26 mm 20.0 mm 29 mm 22.5 mm Diámetro mínimo reducido En el diseño que se propone analizar será sobre las dimensiones de diámetro máximo de 23 mm y altura 18 mm para el stent expandido, pero al comprimirse, debe reducirse más del tercio del diámetro inicial, hasta 5 mm aproximadamente pues este es el diámetro mínimo de la arteria por donde será introducido y guiado con un catéter hasta el lugar del implante [3, 25]. Altura máxima luego de ser comprimido el stent La altura exacta de los stents luego de ser comprimido hasta su diámetro mínimo, no se referencia en las bibliografías consultadas pues es un dato reservado de los fabricantes, pero se estima que la altura aumente un poco más de la longitud del alto de los stent. Biocompatibilidad Los materiales empleados en la fabricación de los stents y válvulas empleadas en TAVI deben ser materiales que una vez implantados en el cuerpo humano, no sean rechazados ni produzcan reacciones adversas por el mismo [6, 25]. Generalmente los aceros inoxidables empleados en la fabricación de los stents expandibles con balón, poseen una alta resistencia a la corrosión y son altamente biocompatibles. Las válvulas empleadas, son generalmente de pericardio bobino o porcino, materiales biocompatibles también. Trombogenesidad Los stents empleados en el tratamiento de la estenosis valvular aórtica están suturados a una válvula biológica artificial que puede ser de pericardio bobino o porcina previamente tratada con glutaraldehído y sustancias conservantes para mejorar su resistencia mediante enlaces cruzados. Esta válvula será la sustituta de la válvula dañada y como habíamos visto anteriormente, a diferencia de las válvulas mecánicas, tiene una baja trombogenesidad. Soportes valvulares Los stents empleados en TAVI deben tener soportes valvulares que permitan la sutura y correcto posicionamiento de la válvula biológica en el mismo para, una vez realizado el implante, al expandir y colocar el balón dentro de la válvula dañada, la válvula artificial pase a realizar su función. Recuperación elástica. El funcionamiento de este tipo de stent, se basa en la presión que el globo situado en el interior del balón ejerce sobre este o la presión que se realice sobre la superficie externa del mismo para su compresión. Para que el stent efectúe correctamente su labor, la presión aplicada debe ser tal que el acero supere el tramo inicial de deformación elástica (la presión debe ser superior al límite elástico del acero) y entre la región plástica. El hecho que el acero sufra una deformación plástica o se endurezca en frío, es una condición necesaria, ya que el stent, una vez se retire el dispositivo que posibilita su cierre y se deje de ejercer presión, debe mantener el diámetro mínimo para pasar por la arteria en la que es introducida hasta llegar al lugar del implante. Si el acero no llega a sufrir una deformación plástica, solamente se produciría una deformación elástica y, por tanto, reversible, de forma que el stent recuperaría su forma original [6]. Distribución de las fuerzas Las fuerzas que actuarán sobre el dispositivo serán: fuerzas radiales uniformemente distribuidas empleadas en el momento de la expansión del stent con el balón, fuerzas que ejercerán las paredes de la válvula sobre la superficie externa del stent con una frecuencia aproximada de 60 latidos por minutos en condiciones normales y también la fuerza resultante del flujo sanguíneo al pasar por la válvula artificial. Métodos de fabricación Los stents se pueden obtener a partir de alambre (circular o plano), tubos o láminas. El método de fabricación de estos depende principalmente del material empleado y la forma de partida que se tiene. Las técnicas de fabricación más utilizadas en la fabricación de stents son: corte con láser, gravado fotoquímico, chorro de agua, trenzado, tejido y soldadura eléctrica por puntos [6, 12]. Propuesta de diseño Para el diseño y fabricación de un stent se necesita tener experiencia y conocimiento de diferentes factores entre los que se encuentran: la elección del material a utilizar, este dependerá del tipo de stent que se desee diseñar, ya sea expandible con balón o autoexpandible. La forma del material y el tipo de método de fabricación que se emplearán también son necesarios conocerlos pues de esto dependerán las uniones de las secciones del stent. La forma del material se puede presentar en forma de alambre, lámina o tubo. Luego se considera la variedad de configuraciones geométricas que se utilizan en el diseño de los stents y, por último, se debe tener en cuenta los “añadidos” que se le hacen al stent tales como injertos, recubrimientos o marcadores radiopacos para mejorar su visibilidad por rayos X a la hora del implante por parte del especialista [6]. El diseño de partida analizado en este trabajo (Figura 4) es un stent valvular aórtico expandible con balón para solución de la estenosis de la válvula aórtica. Figura 4. Diseño propuesto de stent valvular aórtico. A) Boceto B) Isométrico del stent En el diseño analizado se ha trabajado sobre las dimensiones de diámetro máximo de 23 mm y altura 18 mm para el stent expandido, pero al comprimirse, debe reducirse más del tercio del diámetro inicial, hasta 5 mm aproximadamente pues este es el diámetro mínimo de la arteria por donde será introducido y guiado con un catéter hasta el lugar del implante [3, 25]. Las estructuras básicas del diseño propuesto se muestran en la siguiente figura. Esta es, una representación plana de una sección del stent formada por la unión de varios struts que facilitará la comprensión del resto del trabajo. Figura 5. Nombres de las estructuras básicas del stent diseñado. El boceto de este diseño consta de tres secciones transversales de 12 picos. Dos de sus secciones transversales tienen una longitud de 4.5 mm y la otra sección transversal posee 7 mm de longitud. La unión de las tres alcanza una altura de 16 mm, pero, al tener en cuenta los grosores del alambre empleado (0.7 mm y 0.5 mm) se alcanzarán alturas de 17.5 mm y 17.3 mm respectivamente. La longitud de la circunferencia (perímetro) que describe el stent es de 72.216 mm que equivaldría a un diámetro del stent de 22.987 mm, pero al tener en cuenta los grosores de alambres empleados habrá un aumento en el diámetro externo y disminución en el diámetro interno. Es un stent expandible con balón por lo que el material utilizado es acero inoxidable 316L en forma de alambre de sección cuadrada. Este es un material biocompatible, de buena resistencia a la corrosión, deformable plásticamente, límite elástico bajo que le permitirá una fácil deformación por la presión que ejerce el balón, tiene un módulo elástico alto con el objetivo de evitar el retorno en el rango elástico y con capacidad de endurecerse cuando se expande manteniendo la forma debido a su propiedad de endurecimiento de deformación en frío que ocurre por el incremento de las dislocaciones y su frenado [20, 21, 26]. Este endurecimiento depende de la naturaleza de las fuerzas de cohesión del cristal y del valor de la energía de defecto de apilamiento. Las dislocaciones se mueven y en un primer momento se favorece la deformación plástica. Cuando se alcanza una densidad determinada, las dislocaciones entre sí se frenan, incrementándose la resistencia del material [27]. Tabla 2. Características del stent en su forma expandida Material Espesor del alambre (mm) Cantidad de puntas o secciones longitudinales Cantidad de secciones transversales Diámetro interior (mm) Diámetro exterior (mm) Longitud (altura) (mm) Radiopa cidad Acero Inoxidable 316L 0.7 12 3 22.637 23.337 17.5 Baja 0.5 12 3 22.737 23.237 17.3 El método de fabricación que se empleará será soldadura por láser o soldadura por resistencia eléctrica que permitirá la unión de las estructuras transversales por un punto de soldadura en sus vértices. Esta se basa en el calentamiento que se produce en los materiales por el paso de una corriente eléctrica a través de ellos y la fuerza o presión que se hace sobre las superficies a unir mediante los electrodos. La resistencia que ofrecen los materiales al paso de la corriente eléctrica genera un calentamiento localizado hasta llegar a la temperatura de forja (estado pastoso) de los materiales, de forma que en ese momento se aplica a la zona el esfuerzo necesario o presión suficiente para que las piezas a unir queden soldadas (Figura 6) [28]. La forma del alambre empleado (sección cuadrada) se pensó de acuerdo a este método de fabricación, pues el área de contacto entre los alambres es mayor y resultará en una soldadura más segura de la que resultaría sí el alambre tuviese sección circular pues tendrá mayor superficie de contacto. Figura 6. Método de fabricación de stent por soldadura eléctrica por punto [28]. Para la sujeción de la válvula artificial al stent de segunda generación diseñado, se prevé la sutura de la misma a una de las secciones transversales del stent y a la vez, unido al stent y para proporcionar la correcta posición de la válvula artificial dentro del mismo antes y después del implante, se propone la adición de 3 barras espaciadas y perpendiculares a las secciones transversales del mismo material de fabricación el stent a las que también estará suturada la válvula artificial. Las ubicaciones propuestas de las barras metálicas en el stent se muestran en la figura 7. Figura 7. Propuesta de ubicación en el stent de los soportes para la válvula biológica. Recomendaciones La necesidad de disponer un nuevo diseño de stent valvular aórtico de fabricación nacional, destinado al remplazo de la válvula aórtica en pacientes con estenosis aórtica, enfermedad de etiología degenerativa y que es una cardiopatía cada vez más prevalente dado el progresivo envejecimiento de la población. Es una condición para la cual no se ha establecido un tratamiento farmacológico, y el único tratamiento posible es el reemplazo valvular donde, el procedimiento de implantación de la válvula aórtica transcatéter (TAVI) se ha establecido como el procedimiento de referencia para pacientes de alto riesgo. Se recomienda realizar el análisis por elementos finitos, para este se propone aprovechar la simetría del diseño presentado y analizar varias secciones del mismo con el fin de determinar cuál sería el diámetro mínimo al que al que se reduciría el stent al aplicar una presión determinada. Además, mediante la variación de los parámetros de grosor y radio de curvatura se podrá observar comportamientos y proponer futuras modificaciones. Para el análisis se debe: Obtener el modelo geométrico, definir el comportamiento del material utilizado, realizar el mallado, aplicar las cargas, definir cuáles serían las condiciones de frontera y visualizar y analizar los resutados 3. CONCLUSIONES El presente proyecto de creación científica propone una nueva tecnología de fabricación de stents valvular aórticos además de mejorar el desarrollo de nuestros profesionales en el campo de la cardiología y dotar al país de una tecnología capaz de competir con las del mercado internacional, lo cual garantiza mejoras notables en la calidad de vida de pacientes con estenosis aórtica y la disminución de importaciones. Es un proyecto de innovación tecnológica que busca obtener como resultado prototipos de stents valvulares expandibles para su futura fabricación y comercialización. El diseño propuesto del stent valvular aórtico para ser utilizado en el procedimiento TAVI, reúne los requisitos necesarios para continuar realizando el ajuste dimensional requerido mediante el análisis por elementos finitos, para su futura fabricación y comercialización. Referencias [1] S. B. Constantén, "Dirección de registros médicos y estadísticas de salud. Anuario Estadístico de Salud 2019," 48 ed. La Habana: Ministerio de Salud, 2020. [2] D. V. Echeverri, F. Estévez-Cid, and J. J. C. Castillo, "Tratamiento de la estenosis valvular aórtica severa degenerativa: Actualidad y futuro. Perspectiva del cirujano cardíaco," Galicia Clin vol. 76, pp. 13- 18, 2015. [3] L. S. Tahoces, R. A. H. Antolín, and J. L. Z. Gómez, "Estenosis aórtica. Indicaciones y resultados del implante de válvula aórtica percutánea (TAVI)," Clínica Española, p. 6, 0014-2565 2017. [4] M. B. Leon, C. R. Smith, M. J. Mack, R. R. Makkar, L. G. Svensson, S. K. Kodali, et al., "Transcatheter or surgical aortic-valve replacement in intermediate-risk patients," New England Journal of Medicine, vol. 374, pp. 1609-1620, 2016. [5] E. Bittar and V. Castilho, "The cost of transcatheter aortic valve implantation according to different access routes," Rev Esc Enferm 2017. [6] S. C. Sanchez, "Diseño y análisis computacional de Stents," Trabajo de fin de grado, Escuela Técnica Superior de Ingenieros Industriales, Universidad Politécnica de Madrid, Madrid, 2017. [7] L. W. Kleiner and Y. Tang, "Dispositivo médico implantable liberador de fármacos con revestimiento superior hemocompatible y/o que favorece la cicatrización," ed: Google Patents, 2016. [8] A. Alban, A. S. M. Viteri, and M. J. F. Añazco, "Implante valvular aórtico transcatéter (TAVI) e impacto en la sobrevida del paciente," Revista Digital de Postgrado, vol. 9, 2020. [9] T. Chakravarty, A. J. White, and M. Buch, "Meta-Analysis of Incidence,Clinical Characteristics and Implications of Stent Fracture," The American Journal of Cardiology, vol. 106 2010. [10] O. JA, W. B, U. B, W. J, and W. MW, "Coronary stent durability and fracture: an independent bench comparison of six contemporary designs using a repetitive bend test," 2015. [11] J. Q. Morenoa, C. A. C. Tascóna, and J. D. M. Dalea, "Fractura de los stents: una etiología diferente," Revista Colombiana de Cardiología p. 5, 2016. [12] D. Stoeckel, C. Bonsignore, and S. Duda, "A survey of stent designs," vol. 11, pp. 137-147, 2002. [13] " Transcatheter Aortic Valve Replacement TAVR," ed. Rush University Medical Center, 2020. [14] D. H. García, "Información de contexto para los medios: La valvulopatía aórtica " Boston Scientific, sept 2016 2016. [15] J. L. G. Romero, A. d. A. Hernández, and X. C. Villalón, "Evolución de los pacientes mayores de 60 años con disfunción ventricular izquierda en la cirugía de válvula aórtica," Revista Cubana de Cardiología, vol. 24, 2018. [16] I. Romero, "ECOGRAFIA INTRAVASCULAR," in Stent Directo, ed, pp. 56-166. [17] E. C. Valldeperas and L. G. Jaikel, "Resultados clínicos y complicaciones de la angioplastía coronaria con stent en el Hospital México (Costa Rica) en el período 2005-2007," Revista Costarricence de Cardiología, vol. 11, p. 7, Julio-diciembre 2009 [18] M. B. R. López, H. P. López, F. M. C. Lóriga, N. E. Álvarez, A. M. Martínez, and Y. D. P. Ramos, "Prótesis valvulares cardiacas. Apuntes de interés," Revista Cubana de Cardiología y Cirugía Cardiovascular, vol. 19, pp. 147-152, 2013. [19] E. JULIO and F. H. F. MORALES, "La simulación por computador en investigación y desarrollo," Tecnura, vol. 8, pp. 106-114, 2005. [20] K. I. Sánchez, "MODELACIÓN POR ELEMENTOS FINITOS DE UN STENT CORONARIO DEL TIPO APOLO SMALL/3 CORDYNAMIC," FACULTAD DE INGENIERÍA AUTOMÁTICA Y BIOMÉDICA, UNIVERSIDAD TECNOLÓGICA DE LA HABANA JOSÉ ANTONIO ECHEVERRÍA, La Habana, 2020. [21] O. P. Acosta, " Análisis del comportamiento mecánico de un estent coronario recubierto durante la expansión.," Tesis de Maestría, Universidad Tecnologica de la Habana José Antonio Hecheverría, La Habana, Cuba, 2015. [22] A. Albarrán, J. Tascón, and M. Velázquez, "Implante percutáneo de prótesis valvular aórtica por vía femoral." [23] R. Zegdi, "Increased Radial Force Improves Stent Deployment in Tricuspid but Not in Bicuspid Stenotic Native Aortic Valves," Ann Thorac Surg, 2010. [24] E. Lifesciences, "Edwards SAPIEN 3 Kit -Transapical and Transaortic," 2016. [25] P. Avanzas, A. J. Muñoz-García, J. Segura, M. Pan, J. H. Alonso-Briales, Í. Lozano, et al., "Implante percutáneo de la prótesis valvular aórtica autoexpandible CoreValve ® en pacientes con estenosis aórtica severa: experiencia inicial en España," Esp Cardiol, 2010. [26] R. J. Ticona Zegarra, "Estudio de la soldabilidad en un acero inoxidable super Dúplex UNS S32760 por el proceso SMAW," 2014. [27] C. F. Hernández, U. O. Hernández, A. F. Pérez, and J. C. d. l. Osa, "COMPORTAMIENTO MECÁNICO DE LOS MATERIALES," Monografía, Departamento de Tecnología de la Facultad de Ingeniería Mecánica., Universidad Tecnológica de La Habana, “José Antonio Echeverría”, La Habana, 2019. [28] M. C. P. García. (2017, Abril / junio 2017) Fundamentos de la soldadura por puntos. Centro Zaragoza. Available: www.centro-zaragoza.com Sobre los autores Pablo A. Megret Menéndez, ingeniero Biomédico, profesor instructor. Pertenece al Grupo de Investigación de Biomecánica - Biomateriales y Centro de Estudio de Bioingeniería (CEBIO). Asignaturas impartidas, Gestión de Mantenimiento Clínico Hospitalario, Biomateriales y Biomecánica. Cuatro años de experiencia laboral. Rut Lay Abad Rodríguez, ingeniera Biomédica. Pertenece al Grupo de Investigación de Biomecánica - Biomateriales y Centro de Estudio de Bioingeniería (CEBIO). Carlos Rafael Figueroa Hernández, doctor en ciencias técnicas, profesor titular. Pertenece al Grupo de Investigación de Biomecánica - Biomateriales y Centro de Estudio de Bioingeniería (CEBIO). Temas de investigación que está desarrollando: Fabricación de andamios de colágeno para regenerar tejidos. Desarrollo de liberadores de fármacos para stent coronarios. Proyección de hidroxiapatita para implantes metálicos. Obtención de implantes dentales en impresoras láser 3D. Desarrollo de scaffolds mediante electrospinning. Diseño y fabricación de un prototipo de stent valvular aórtico expandible. PROPUESTA DE UN MÉTODO PARA DETERMINAR EL PATRÓN DE LA MARCHA. PROPOSAL OF A METHOD TO DETERMINE THE GAIT PATTERN. Joyce Eduardo Taboada Díaz1, Tania Rodríguez Moliner1, Carlos Díaz Novo 2, Maylin Hernández Ricardo3 1Universidad Tecnológica de La Habana “José Antonio Echeverría” La Habana Cuba, 2Universidad Tecnológica Suroeste ITR UTEC, Fray Bentos, Río Negro, Uruguay. 3Universidad de Ciencias Pedagógicas “Enrique José Varona”. La Habana. Cuba e-mail: joyceetd77@gmail.com, e-mail: tania@mecanica.cujae.edu.cu, e-mail: cdiaznovo@yahoo.es, e- mail: maylinhr83@nauta.cu RESUMEN Esta investigación tiene como antecedentes los resultados de los estudios de la marcha en niños sanos y patológicos, así como la influencia de las invariantes de la marcha y la asimetría en los miembros inferiores tiene como objetivo: Proponer un método cuantitativo para la determinación del patrón biomecánico de la marcha que contribuya al diagnóstico y seguimiento de los niños con parálisis cerebral. Se asumió la edad necesaria para la determinación del patrón de marcha en niños y los parámetros que más se afectan en la parálisis cerebral, se realizó una comparación estadística de los datos cuantitativos que caracterizan las invariantes de la marcha, obtenidos en un laboratorio de captura de movimiento. Esta comparación se realizó utilizando una muestra de tres sujetos adultos de diferentes edades, peso, estatura y sexo. Se determinó los elementos que deben contener el método cuantitativo y la muestra estadística a utilizar para la valoración del método. PALABRAS CLAVES: método cuantitativo, marcha humana, patrón de marcha, parámetros de marcha. GUIDELINES FOR PREPARING ARTICLES FOR THE XX SCIENTIFIC CONVENTION ON ENGINEERING AND ARCHITECTURE ABSTRACT This research has as background the results of gait studies in healthy and pathological children, as well as the influence of gait invariants and asymmetry in the lower limbs. Its objective is: To propose a quantitative method for the determination of the biomechanical pattern gait that contributes to the diagnosis and follow-up of children with cerebral palsy. The necessary age for the determination of the gait pattern in children and the parameters that are most affected in cerebral palsy were assumed, a statistical comparison was made of the quantitative data that characterize the gait invariants, obtained in a data capture motion laboratory. This comparison was made using a sample of three adult subjects of different ages, weight, height, and gender. The elements that must contain the quantitative method and the statistical sample to be used for the evaluation of the method were determined. KEY WORDS: quantitative method, human gait, gait patterns, parameters of gait. 1. INTRODUCCIÓN El estudio de la marcha humana es una herramienta diagnóstica importante en la evaluación de patologías neuro-músculo-esqueléticas, ya sean transitorias o permanentes, locales o generales [1, 2]. En la práctica, un análisis completo de la marcha de un paciente permite identificar los problemas específicos que la afectan, y partiendo de estos es posible realizar la prescripción quirúrgica, terapéutica, farmacológica o de ayudas técnicas, para maximizar las habilidades físicas del paciente. Con el desarrollo de este estudio y la utilización de la biomecánica se han introducido métodos más objetivos para la medición y control de las afecciones que aquejan a estos pacientes. Apoyándose en estudios cinemáticos y cinéticos, es decir, viendo la marcha desde el punto de vista mecánico analizando variables como posición, trayectoria, ángulos, velocidades y aceleraciones, además del estudio de las fuerzas ejercidas durante la realización de la actividad física de la marcha sobre el medio externo o por parte de un músculo o grupo de estos [3]. Una de las afecciones más conocidas y que demanda una ayuda extraordinaria de la aplicación de la biomecánica en el análisis de la marcha humana es la Parálisis Cerebral Infantil (PC) siendo un problema de salud importante, que genera gran discapacidad en la infancia. Bajo este término, se agrupa a un conjunto de niños que tienen en común un trastorno persistente del tono postural y del movimiento en la actividad física. Más bien, se prefiere considerar a la PC como un término descriptivo para un grupo de trastornos motores de origen cerebral que se ubican dentro de las discapacidades del desarrollo. Es esta una discapacidad seria, con excepción de sus formas ligeras, y la más frecuente dentro de las discapacidades físicas de la niñez. Esta afección que en Cuba como en el mundo aqueja de 2 a 3 niños por cada 1000 nacidos vivos, incidiendo en un trastorno del desarrollo del tono postural y del movimiento de carácter persistente (aunque no invariable), que condiciona una limitación en la actividad, secundario a una agresión no progresiva a un cerebro inmaduro [2]. Al Centro Nacional de Rehabilitación “Julio Díaz González” llegan los pacientes remitidos con diagnóstico de esta enfermedad donde son valorados y se les indica tratamiento, atendiendo a las diferentes clasificaciones y características de cada una, con el desarrollo de la medicina en Cuba y la reducción de los índices de mortalidad en niños la incidencia de la PC ha tenido un ligero aumento en los últimos años. En la actualidad la identificación de los parámetros afectados en la marcha en niños con PC se realiza, por parte de los especialistas médicos, a través del método de observación directa del paciente, esta situación tiene un componente subjetivo extremadamente amplio y depende en gran medida de la pericia y experiencia que posea el especialista. Para contribuir a ser más efectivo este proceso, se puede utilizar los resultados de la aplicación de un método cualitativo de captura de movimiento, haciendo uso de las potencialidades que brinda la biomecánica para identificar con mayor exactitud las distintas afectaciones de la marcha en esta patología. Este patrón de la marcha humana puede ser caracterizado con diferentes tipos de parámetros, algunos básicos y otros de mayor complejidad. De la forma más básica, la marcha se describe mediante parámetros espacio-temporales. Sin embargo, se obtiene una descripción más detallada del ciclo de la marcha al utilizar información cinemática, posibilitando registrar las variaciones angulares de las articulaciones del cuerpo, así como la inclinación, torsión y oscilación de los segmentos corporales Estos hechos reflejan la situación existente, por una parte, un patrón biomecánico de la marcha obtenido por métodos cuantitativos, el cual sirva de base para la determinación de posibles variaciones en los parámetros que lo conforma y que posibilita la identificación del cambio en estos factores y por otra parte la determinación subjetiva mediante el método observacional usado en el protocolo clínico del hospital “Julio Díaz” de la patología en la marcha de los niños con parálisis cerebral. En consecuencia, sobre la base de esta contradicción, se comprende la pertinencia de esta investigación, y se formula el problema científico que se aborda en este trabajo: ¿Cómo determinar el patrón biomecánico de la marcha que contribuya al diagnóstico y seguimiento de los niños con parálisis cerebral? Para resolver esta situación nos trazamos como objetivo. Proponer un método cuantitativo para la determinación del patrón biomecánico de la marcha que contribuya al diagnóstico y seguimiento de los niños con parálisis cerebral. 2. MARCO TEÓRICO No existe en la literatura un criterio único sobre la edad en que se logra la maduración y consolidación del patrón de marcha del niño. Grieve y Gear (1966) se encuentran entre los primeros investigadores en considerar que la marcha similar a la del adulto se obtiene entre los 5 y 6 años. Por su parte, en estudios posteriores, Sutherland (1997) considera que entre los 6 y 7 años las características electromiografías, cinéticas y cinemáticas se asemejan a las del adulto25.Viladot (2001) planteó que la marcha en el niño alcanza el patrón igual al del adulto entre los 7 y 9 años, modificando los desplazamientos de las distintas partes en el proceso de marcha. Para Chester et al. (2006) la marcha infantil se asemeja a la del adulto hacia los 7-9 años. Antes de esa edad el niño está desarrollando su sistema neuronal y musculo- esquelético, hasta conseguir un completo control motor. En la evolución de los estudios para obtener la edad en la cual el niño adquiere el patrón de marcha definitivo apunta a que los parámetros cinemáticos, cinéticos y electromiográficos que conforma dicho patrón se adquieren de los 7 a los 9 años [4]. En el patrón de marcha definitivo adquirido por los niños a esta edad está marcada por que las mayores dispersiones en los valores de las invariantes de la marcha se presentan en la flexo-extensión de la rodilla y dorsiflexión y flexión plantar del tobillo [4]. En cuanto al estudio de la asimetría se puede obtiene que no existen diferencias marcadas en las asimetrías flexo extensión de rodilla y tobillo entre la misma pierna en el contacto del talón ni entre pierna derecha e izquierda en este mismo instante. Las mayores dispersiones en la asimetría se encuentran en la rodilla en el momento de apoyo total del pie y demanda de un esfuerzo distinto entre las distintas piernas y repercute en la altura que alcanza el centro de gravedad en su movimiento vertical [4]. Los elementos descritos posibilitan prestar especial atención para la definición del método cuantitativo a utilizar para poder obtener los parámetros necesarios y que más se afectan en la marcha y así completar el patrón de marcha y que los datos que este ofrezca sean los necesarios para poder diagnosticar y dar seguimiento a las variaciones, en la marcha, que sean características de un marcha deficiente o patológica. 3. MATERIALES Y MÉTODOS En el estudio participaron 3 sujetos voluntarios, sin trastornos de la marcha conocidos hasta el momento. Fueron recopilados los datos de varias sesiones, separadas estas en aproximadamente una semana entre sí. La velocidad de la caminata durante los estudios fue seleccionada por los sujetos, se mantuvieron iguales condiciones de acondicionamiento de los sistemas de captura y análisis del laboratorio. La tabla. 1 recopila las características generales y antropométricas de cada uno: Tabla. 1. Características generales y antropométricas de la muestra utilizada. Fuente: Elaboración propia. Parámetros Sujeto 1 Sujeto 2 Sujeto 3 Edad (años) 42 60 50 Sexo M M F Estatura (cm) 173 176 161 Peso (kg) 72.1 100 55 Longitud de la pierna derecha (cm) 87.5 88 86 Longitud de la pierna izquierda (cm) 87.5 88 86 Distancia Interaxis (cm) 21 26 23 Ancho de la rodilla izquierda (cm) 9.1 12 11 Ancho de la rodilla derecha (cm) 9 12 11 Contando con la base de datos obtenidos en el estudio de marcha, estos fueron organizados para su análisis haciendo uso del software Statgraphics Centurior XVIII, con el fin de obtener variables estadísticas que describieran la dispersión y la variabilidad de las muestras, además del análisis de ajuste de estas en determinados puntos del ciclo de la marcha a una distribución normal. El conjunto de datos de los 3 sujetos fue organizado, teniendo en cuenta, en primer lugar, el sujeto y la sesión que correspondía a cada conjunto de muestras, luego fueron subdivididos en dependencia de la articulación que representaban (cadera, pelvis, rodilla, tobillo, o mecanismo del pie) para cada una de las piernas, y en los tres planos de análisis del movimiento (sagital, frontal y/o transversal). Los datos obtenidos describen la variación angular durante un ciclo de marcha de cada articulación en cada pierna y en los tres planos referencia, contando con alrededor de 10 muestras de cada sesión, en 51 momentos de un ciclo de marcha, iniciando siempre por el contacto del talón (0% del ciclo de marcha). La variabilidad de los datos del estudio fue analizada teniendo en cuenta una serie de estadígrafos de dispersión: desviación estándar, varianza, coeficiente de variación, valores máximos y mínimos de cada muestra y rango de datos. El análisis se realizó para todas las muestras obtenidas del estudio de marcha, en los tres planos de referencia y en cada uno de los puntos del ciclo obtenidos del estudio. En un primer momento fueron analizados los estadígrafos mencionados para cada sesión de los 3 sujetos y posteriormente fueron comparadas entre sí las muestras de todas las sesiones de cada uno. Para comprobar el comportamiento normal de la muestra se realizó el análisis de los histogramas de frecuencia, la simetría que presenta una muestra alrededor de su media, el comportamiento de los sesgos y la curtosis estandarizados como estadígrafos que, mientras se mantienen en el rango de 2 a -2, reportan comportamientos simétricos de las muestras aleatorias alrededor de la media. Se analizó el ajuste de las muestras a una distribución normal, con un nivel de confianza del 95%, obteniendo el análisis de normalidad por el Test Shapiro–Wilk, además de los histogramas de frecuencia y los gráficos de simetría. De los datos, fueron analizados los puntos del ciclo de la marcha que contenían los valores máximos, mínimos y de mayor rango para cada articulación, en cada pierna y en cada uno de los planos de análisis. Fueron analizadas las muestras de una sesión del sujeto 1, y el conjunto de muestras de todas las sesiones con las que se contaba de los sujetos 2 y 3, obteniendo tamaños de muestras, para los datos del sujeto 1 n=8, para el sujeto 2 de n=20, y para el sujeto 3 de n=28 para la pierna derecha y n=20 para la izquierda. De los datos del sujeto 1, fueron analizados 132 muestras de los parámetros cinemáticos de la articulación de la cadera 28, de la pelvis 21, de la rodilla 41 y del mecanismo pie/tobillo 42. De los datos del sujeto 2, fueron analizadas 134 muestras, de los parámetros cinemáticos de la articulación de la cadera 32, de la pelvis 29, de la rodilla 35 y del mecanismo pie/tobillo 38. De los datos del sujeto 3, fueron analizadas 128 muestras; de los parámetros cinemáticos de la articulación de la cadera 30, de la pelvis 29, de la rodilla 33 y del mecanismo pie/tobillo. Correspondientes a distintos puntos del ciclo de la marcha en los tres sujetos. 4. RESULTADOS Y DISCUSIÓN En total fue analizado el ajuste a una distribución normal de 394 muestras del total de datos, resultando de ellas 339 en las que se acepta el supuesto de normalidad, y 55 muestras en las que se rechaza. El 84 % de las muestras analizadas resultaron corresponder a una distribución normal por el test Shapiro–Wilk, con un 95% de confianza. Los parámetros cinemáticos de la marcha recogidos en un estudio tienen un carácter aleatorio debido a la naturaleza del proceso y los múltiples factores que influyen en su comportamiento, esta característica unida a los resultados antes expuestos permite la aplicación del Teorema del Límite Central para considerar el comportamiento normal de los parámetros cinemáticos de la marcha para tamaños de muestra suficientemente grande (n≥30). A partir de estos resultados se elaboró un método cuantitativo para la obtención del patrón de marcha en niños. Propuesta de método cuantitativo para la obtención del patrón biomecánico de marcha en niños. Se describen a continuación los elementos que contiene el método que se propone para la determinación del patrón de la marcha. 1. Determinación de los elementos teóricos y prácticos necesarios sobre los parámetros necesarios para la elaboración del patrón de marcha. 2. Determinación de la muestra y sus características a estudiar de niños con parálisis cerebral diparecia espástica. 3. Elaboración del protocolo de captura de marcha. 4. Procesamiento y obtención de datos cuantitativos en el software de análisis de video (tracker). 5. Aplicación de un programa de computo numérico para la obtención de los parámetros. 6. Elaboración del patrón cinemático de marcha. 7. Valoración de la fiabilidad del patrón de marcha obtenido. A continuación, se hará un desglose de los elementos que se tienen en cuenta en el método cuantitativo para la determinación cuantitativa del patrón de marcha en niños 1. Revisión de literatura El patrón biomecánico de la marcha está compuesto por parámetros que dependiendo del tipo de estudio que se realiza pueden aportar elementos que contribuyen a definir específicamente las particularidades de cada sujeto. La revisión realizada refuerza la visión de numerosos investigadores de la utilidad de la captura de movimiento. Esta aporta datos cuantitativos de los parámetros espaciales, temporales, espaciotemporales, cinemáticos en los 3 planos (sagital, frontal y transversal), cinéticos y electromiográficos. Todos estos parámetros describen en su totalidad el patrón de marcha [5]. Se determinaron los parámetros necesarios para el diagnóstico y evaluación cuantitativa del patrón de marcha que satisfaga las necesidades del diagnóstico médico, siendo los parámetros flexión-extensión en cadera, rodilla y tobillo los que más se afectan por patologías como la PC que acompañados con los parámetros espacio-temporales complementan le patrón necesario para poder diagnosticar las afectaciones de la marcha a un nivel preliminar [6, 7]. 2. Muestra y sus características Se realizó el ajuste de las muestras a una distribución normal, con un nivel de confianza del 95% mediante la prueba de Shapiro-Wilk. Para el 84% de las muestras de análisis corresponden a una distribución normal para la prueba de Shapiro-Wilk con un 95% de confianza. La mayor variabilidad en los datos se encontró en los valores de flexión-extensión de rodilla y tobillo. Existe cierto consenso, que los niños de 7 a 9 años adquieren un patrón de marcha definitivo. La tecnología de captura de movimiento más utilizada es la Vicon 3D (óptica, placa de fuerza y electromiografía). Aplicando el Teorema del Límite Central, basado en la existencia de una distribución normal en los parámetros de la marcha, una muestra con un mínimo de 30 individuos (n≥30) será suficiente y representativa de toda la población en estudio. 3. Diseño del protocolo Un correcto estudio del movimiento requiere:  determinación del modelo teórico que más se ajusta al estudio que se requiere.  precisión de las coordenadas de los marcadores a través del uso de tecnología que responda a las necesidades del estudio.  interpretación y análisis de los parámetros biomecánicos de interés [8]. En la fig. 1 se muestra los pasos que se tendrán en cuenta, para la determinación del patrón de marcha, así como de su fiabilidad. Fig. 1. Diseño del protocolo de captura de movimiento. Elaboración propia. Se utiliza una pasarela de captura donde se obtendrán los parámetros en dos dimensiones lo que posibilita obtener el flexo extensión en el plano sagital de cadera rodilla y tobillo, en la fig. 2 se muestra las distancias desde la cámara hasta el plano de calibración, así como la distancia de la pasarela para poder, en la captura de marcha desechar los dos primeros ciclos y los dos últimos por la aceleración y desaceleración que afecta el normal desarrollo de la marcha. Se utilizará, para la toma de video una cámara de video sencilla de 20 cuadros por segundo, esta puedes ser de un móvil teniendo en cuanta el paralelismo entre la cámara y el plano de calibración y el error de foco [9]. Fig. 2. Volumen de captura de la marcha. Elaboración propia. Para la ubicación de los marcadores que contribuyen determinar la posición de los puntos anatómicos necesarios, se utilizara el modelo Newington-Helen Hayes con 16 marcadores pasivos [10, 11]. 4. Uso del software de análisis de video (tracker). Se utiliza para el procesamiento de los videos de la marcha y obtención de los datos necesarios el software Tracker, este es un software de análisis de video de código abierto para Windows, Mac y Linux. Está especialmente analizar los videos. Puede importar y analizar videos en todos los formatos de video comúnmente usados, incluyendo MP4, MOV, AVI, etc. Ahora, las principales características se detallan a continuación.  Proporciona varias herramientas de calibración para las mediciones del mundo real en un video.  Proporciona múltiples herramientas de rastreo como centro de masa, rastreo de objetos manual y automatizado, vectores gráficos interactivos, etc.  También ofrece transportadores y cintas métricas para medir la distancia y el ángulo en un video.  Puedes encontrar varios filtros de vídeo y un filtro de distorsión radial que puedes aplicar sobre un vídeo según tus necesidades.  También se obtienen herramientas de análisis de datos que incluyen herramientas de ajuste automático y manual de la curva en este software de análisis de video.  Se puede estudiar Modelos Cinemáticos, Modelos Dinámicos (Cartesiano, Polar, Sistema de dos cuerpos), y Modelos Externos en este software. 5. Aplicación del programa de computo MATLAB. Para el procesamiento de los datos obtenidos en el software tracker usaremos dos rutinas en el software MatLab una que proporciona la normalización de todos los ciclos de marcha ajustándolos al 100% en dependencia de la cantidad de cuadros que tenga, respetando los puntos claves de cambio de fase y subfase da la marcha. La otro proporciona las curvas y datos cuantitativo de cada parámetro estudiado con la desviación estándar como se muestra en la fig. 3. Fig. 3. Funciones de MATLAB con las curvas y desviación estándar. Fuente elaboración propia a partir de resultados del MATLAB 6. Elaboración del patrón cinemático de marcha. Una vez obtenidos los elementos que se necesitan para la cuantificación de los parámetros y con ello la elaboración del patrón biomecánico de la marcha, se elabora dicho patrón y se expresa en los elementos que se describen a continuación: Elaboración del patrón cinemático de marcha Presentación de los valores numéricos de cada parámetro. Presentación de curvas cinemáticas en gráficas de valor angular contra ciclo de marcha. Presentación de grabación de video. Presentación de informe (descripción) con los elementos que caracterizan la marcha del individuo. 7. Valoración de la fiabilidad del patrón de marcha obtenido. La valoración del método cuantitativo se hace teniendo en cuenta la captura y procesamiento de los mismos sujetos en cata tipo de método: el propuesto y el método Vicon 3D, se propicia una comparación de los resultados cuantitativos de cada parámetro estudiado determinado mediante métodos estadísticos de fiabilidad y representatividad de los resultados cuan efectivo y cercano a la realidad es el patrón propuesto [12]. CONCLUSIONES se puede concluir que a partir del trabajo en la elaboración de la propuesta de método cuantitativo se pudo:  elaborar un método cuantitativo para la determinación del patrón de marcha en niños.  determinar la muestra necesaria para la comprobación del método la fiabilidad de los resultados del método.  Seleccionar los softwares para el procesamiento de las capturas de movimiento en video 2D realizada para la determinación de los parámetros de la marcha. REFERENCIAS 1. PASSMORE, E; GRAHAM, H; PANDY, M; SANGEUX, M. “Hip and patello-femoral joint loading during gait are increased in children with idiopathic torsional deformities”. Gait Posture. 2018, vol 63, pp 228-235. 2. TABOADA, J, DÍAZ, J, HERNÁNDEZ, M. “Restauración del patrón biomecánico de la marcha en niños cubanos”. Revista Cubana Investigaciones Biomédicas. 2019, vol 38, pp 86-103. 3. BENNETT, H; FLEENOR, K; WEINHANDL, J. “A normative database of hip and knee joint biomechanics during dynamic tasks using anatomical regression prediction methods”. Biomechanics. 2018, vol 81, pp 122-131. 4. TABOADA, J: CARREÑO, D; DUNN, E: RODRÍGUEZ, T; NOVO, C. “Rasgos esenciales para la obtención del patrón biomecánico de la marcha en niños sanos. Una revisión sistemática”. Rehabilitación Madrid, https://doi.org/10.1016/j.rh.2021.11.003. 5. RAMIREZ, R; CARMONA, D; HERNÁNDEZ, K; VELÁZQUEZ, J; MORALES, A; VEGA, A. “Cinemática de la marcha en adultos jóvenes con peso normal, sobrepeso y obesidad”. XLI Congreso de Ingeniería Biomédica. 2018, vol 5, pp 366-379. 6. DÍAZ, C; MONTOYA, A; GÁMEZ, O; ZAMORA, L; CUADRA, M; MOLINA A. “Videographic study and objective classification of gait patients with neurological disease”. Tecciencia. 2019; vol 14, pp 29-36. 7. DEDIEU, P. “Anatomía y fisiología de la marcha humana”. EMC Podología. 2020, vol 22, pp 1-15 8. NICHOLSON, K; CHURCH, C; TAKATA, C; NIILER, T; CHEN, B; LENNON, N; et al. “Comparison of three-dimensional multi-segmental foot models used in clinical gait laboratories”. Gait Posture. 2018, vol 63, pp236-241. 9. AGUDELO, A; BRIÑEZ, T; GUARÍN, V; RUIZ, J; ZAPATA, M. “Marcha: descripción, métodos, herramientas de evaluación y parámetros de normalidad reportados en la literatura”. Revista CES Mov Salud. 2013, vol 1, pp 29-43 10. LEBOEUF, F; BAKER, R; BARRÉ, A; REAY, J. “The conventional gait model, an open-source implementation that reproduces the past but prepares for the future”. Gait Posture. 2019, vol 69, pp 126- 139. 11. HARA, R; MCGINLEY, J; BRIGGS, C; BAKER, R; SANGEUX, M. “Predicting the location of the hip joint centers, impact of age group and sex”. Sci Rep, 2016 vol 6, pp 37. 12. BRAVO, D; RENGIFO, C; AGREDO, W. “Comparación de dos Sistemas de Captura de Movimiento por medio de las Trayectorias Articulares de Marcha”. Revista Mexicana Ingeniería Biomédica, 2016, vol 37, pp 149 -160. RECONOCIMIENTOS “Los autores desean agradecerá los especialistas y directivos del Centro Nacional de Rehabilitación Julio Díaz por todas las facilidades y ayudas prestadas para el desarrollo de esta investigación” Sobre los autores La información sobre los autores de esta investigación se recoge a continuación; Joyce Eduardo Taboada Díaz institución: Universidad Tecnológica de La Habana “José Antonio Echeverría”, labor que desempeña: Profesor, categoría docente: Auxiliar y categoría científica: Máster. Tania Rodríguez Moliner institución: Universidad Tecnológica de La Habana “José Antonio Echeverría”, labor que desempeña: directora CITI, categoría docente: Titular y categoría científica: Doctor. Carlos Díaz Novo institución: Universidad Tecnológica Suroeste ITR UTEC, labor que desempeña: Profesor, categoría docente: Titular y categoría científica: Doctor. Maylin Hernández Ricardo institución: Universidad de Ciencias Pedagógicas “Enrique José Varona”, labor que desempeña: Profesora, categoría docente: Auxiliar y categoría científica: Máster. DISEÑO DE UN SISTEMA DE ACCESORIOS DE RETENCIÓN PARA IMPLANTES OSTEOINTEGRADOS Carla Pascau Carnesoltas1, Alfredo Álvarez Rivero 2, Wilma Marín Páez3, Yaima Contino Matos4 1Centro de Neurociencias de Cuba (CNEURO), Calle 190 entre 25 y 27, Reparto Cubanacán, Municipio Playa, La Habana, Cuba, 2Centro de Investigaciones Médicas Quirúrgicas (CIMEQ), Calle 216 y 11-B, Reparto Siboney, Municipio Playa, La Habana, Cuba, 3Centro de Neurociencias de Cuba (CNEURO), Calle 190 entre 25 y 27, Reparto Cubanacán, Municipio Playa, La Habana, Cuba, 4Centro de Neurociencias de Cuba (CNEURO), Calle 190 entre 25 y 27, Reparto Cubanacán, Municipio Playa, La Habana, Cuba, 1e-mail: carla.pascau@cneuro.edu.cu RESUMEN La pérdida de cualquier parte del cuerpo no resulta fácilmente aceptada por la mayoría de las personas. Si se refiere particularmente a zonas del rostro o la cavidad intraoral su aceptación se torna aún más difícil. Las afectaciones en esta área perjudican considerablemente los procesos masticatorios, de deglución, fonación y comprometen la armonía del rostro, desencadenando en los pacientes severas limitaciones psíquicas que los hacen aislarse de sus semejantes. El uso de prótesis bucomaxilofaciales es una práctica antiquísima y en la actualidad, gracias al desarrollo de nuevos biomateriales y métodos, ha logrado perfeccionarse y cumplir más eficientemente su cometido, particularmente las prótesis soportadas en implantes osteointegrados gozan de gran popularidad por su gran capacidad de retención, fijación y estabilidad, esto gracias a los sistemas de fijación que se utilizan para acoplar ambos elementos, los más utilizados para lograr una sujeción estable son los sistemas de barra clip y la sujeción por imanes. El objetivo principal de este trabajo fue diseñar un sistema de accesorios de retención del tipo barra clips para su implementación en la red de hospitales del Sistema Cubano de Salud. PALABRAS CLAVES: Prótesis externas, implantes osteointegrados, sistemas de fijación, CAD/CAM, impresión 3D. DESIGN OF A RETENTION ACCESSORY SYSTEM FOR OSSEOINTEGRATED IMPLANTS ABSTRACT The loss of any part of the body is not easily accepted by most people. If it refers particularly to areas of the face or the intraoral cavity, its acceptance is even more difficult. The affectations in this area considerably impair the masticatory, swallowing and phonation processes and compromise the harmony of the face, triggering severe psychic limitations in the patients that make them isolate themselves from their peers. The use of buccomaxillofacial prostheses is an ancient practice and nowadays, thanks to the development of new biomaterials and methods, it has been perfected to fulfill its purpose more efficiently, particularly the prostheses supported by osseointegrated implants are very popular due to their great retention, fixation and stability thanks to the fixation systems used to couple both elements, the most commonly used methods to achieve a stable fixation are the clip-bar systems and the fixation by magnets. The main objective of this research was to design a system of clip-bar type retention accessories for its implementation in the hospital network of the Cuban Health System. KEY WORDS: External prosthetics, osseointegrated implants, fixation systems, CAD/CAM, 3D printing. 1. INTRODUCIÓN La pérdida y/o extirpación de estrucuras importantes como los dientes, la nariz, los ojos, los labios, y las orejas dan como resultado varios problemas médicos y estéticos para el paciente, especialmente si esta se produce en la región bucomaxilofacial. Esta zona es de vital importancia para un ser bio-psico-social como el hombre pues el rostro, uno de los atributos físicos más importantes para la vida, que nos identifica con nuestros semejantes y juega un papel vital en la interacción humana por su capacidad de expresar las emociones, se encuentra emplazado en esta área. Las prótesis bucomaxilofaciales pueden ser realizadas en los defectos oculares, orbitales, nasales, auriculares, maxilares, mandibulares, craneales y complejos [1]–[4]. Los defectos presentados en esta región, pueden tener tres orígenes básicos: neoplasia, alteración genética y traumatismo El edentulismo o la extirpación de estructuras importantes como la nariz, el ojo, los labios o las orejas dan como resultado alteraciones de las funciones básicas como la masticación, deglución, fonación, además de una acentuada deformidad estética que provoca severas afectaciones a la psiquis del paciente, pudiendo desencadenar episodios de depresión y conflictos de identidad y socialización que dificultan su reinserción en la sociedad [5]. Con el fin de disimular en la medida de lo posible estos defectos, desde tiempos remotos el ser humano ha utilizado prótesis confeccionadas en distintos materiales y las ha fijado al cuerpo mediante diversos métodos. Con el desarrollo alcanzado a lo largo de los años en el campo de los biomateriales, la aplicación de los mismos en la impresión 3D y el uso de programas informáticos de diseño y análisis estructural se ha abierto un mundo de posibilidades que promete llevar el desarrollo de prótesis bucomaxilofaciales y sus sistemas de retención a una nueva etapa, donde cada vez será menos el tiempo y los recursos empleados y mayor el beneficio para el paciente. La prótesis bucomaxilofacial, es una alternativa terapéutica que aumenta la calidad de vida del paciente al devolverle la seguridad emocional necesaria para su reincorporación integral a la sociedad [6]. Un buen soporte y fijación son elemento importantes para mantener la prótesis en su sitio, de ahí surge la necesidad de diseñar un sistema de accesorios (piezas para cubrir los tornillos, barras y clips) para brindar estabilidad a la prótesis y así proteger los tejidos y mucosas, y enmascarar los defectos[2], [7]. 2. PRÓTESIS BUCOMAXILOFACIALES Y ALTERNATIVAS DE RETENCIÓN Prótesis bucomaxilofaciales La idea de utilizar las prótesis faciales se remonta a épocas antiquísimas, como testimonian algunas momias egipcias que aparecen con narices y orejas artificiales, así como ojos confeccionados de piedra y mosaico [1], [6]. En el siglo XVI Ambrosio Pare es la figura relevante en el desarrollo protésico, aunque las prótesis modernas con implicaciones morfológicas y funcionales hicieron su aparición a finales del siglo XIX. Rahn y Boucher denominan a la Prótesis Maxilofacial ¨al arte y ciencia que comprende la rehabilitación morfofuncional de las estructuras intra y parabucales por medios artificiales, no solo restableciendo la forma y función adecuadas, sino que conserva las estructuras remanentes ya sean duras o blandas en buen estado de salud lo que trae consigo la reincorporación del individuo a la sociedad¨ [1], [6]. Los implantes bucomaxilofaciales modernos comenzaron a implementarse desde finales del siglo XX y han evolucionado hasta convertirse en una alternativa viable en un alto porcentaje de casos de pacientes con defectos bucomaxilofaciales, sobre todo en individuos con enfermedades de base como la diabetes mellitus, enfermedades inmunológicas, tejidos radiados o deteriorados alrededor del área del defecto, con pérdidas anatómicas extensas o de avanzada edad en los que una cirugía no es recomendable. Hoy en día los implantes osteointegrados están siendo muy utilizados para la reconstrucción facial porque ofrecen varias ventajas para la retención de prótesis faciales, comparados con las convencionales retenidas por adhesivos, y proporcionan mayor comodidad y calidad de vida para los pacientes[1], [6], [8]. En la Fig. 1 se presenta el procedimiento a seguir para tratar un defecto auricular. Figura 1: Secuencias de tratamiento defecto auricular origen traumático. Cortesía del doctor Alfredo Alternativas de retención. Retención mecánica Existen diversas alternativas disponibles de retención y fijación de prótesis. Para elegir la técnica que mejor cumple con los requerimientos del paciente se realizan varias pruebas para escoger un método que garantice la estabilidad de la prótesis. En la actualidad destacan tres métodos de soporte y retención: la retención anatómica, la retención química y la retención mecánica [6], [9]. La retención anatómica está dada por la propia anatomía del paciente, es más utilizada en aquellos que no presenten deformidades severas después de la cirugía, en los que todavía se conservan secciones capaces de soportar el peso de una prótesis aunque hay riesgo de desplazamiento al no estar totalmente fijada. El roce que se puede producir entre la prótesis y los tejidos puede irritarlos causando que los pacientes abandonen el uso de las prótesis [6], [9]. La retención química se basa en el uso de adhesivos médicos en cualquiera de sus presentaciones (pastas, líquidos o aerosoles) para fijar las prótesis al tejido, se utiliza principalmente en prótesis faciales. La acción de los mismos puede durar de 10 a 48 horas dependiendo de las condiciones del cutis del paciente. No es recomendable en su uso en individuos de piel sensible e irritable, con dermatitis, alergias, con sensibilidad a los compuestos químicos del adhesivo o que estén sometidos a tratamientos de radioterapia [6], [9]. La retención mecánica es uno de los métodos más eficientes y eficaces a la hora de fijar una prótesis bucomaxilofacial. Gracias al gran avance en el campo de los biomateriales, en los últimos años se cuenta con una gran variedad de opciones que garantizan al paciente una excelente fijación, retención y estabilidad en sus prótesis sin comprometer la integridad de los tejidos adyacentes [6], [9]. Desde mediados de los años sesenta del pasado siglo se han implementado los sistemas osteointegrados con componentes fabricados en titanio, gracias a la excelente biocompativilidad de este con el tejido óseo vivo. Este método ha contribuido grandemente al avance de las técnicas de fijación, retención y estabilidad de las prótesis. Para la planeación del tratamiento se realizan exploraciones físicas y, con el uso de modelos de yeso o impresos por esteriolitografía se planifica la posición que tendrá cada uno de los elementos. Se recomienda tener al menos tres puntos de apoyo para asegurar el éxito de la fijación, en la Fig. 2 se muestra un ejemplo de fijación con una estructura con tres puntos de apoyo [6], [9]. Para lograr el acople de la prótesis al implante se puede utilizar un set de barras y clips o un set de imanes para fijar su posición, en la Fig. 3 la prótesis auricular que se muestra está acoplada con un sistema de clips. Figura 2: Marco para la retención de la prótesis. Cortesía del doctor Alfredo Álvarez Rivero Figura 3: Prótesis colocada sobre el marco. Cortesía del doctor Alfredo Álvarez Rivero Uso de las tecnologías en el diseño de sistemas de fijación El diseño y la fabricación asistida por computadora (CAD/CAM) están ganando popularidad en la realización de estos y otros aditamentos, gracias a los programas de CAD/CAM no solo se pueden diseñar y adaptar estos elementos, sino que también se pueden llevar a cabo estudios de las cargas que estos soportan y como impactan estas sobre su integridad estructural mediante estudios realizados por el Método de Elementos Finitos (MEF), esto garantiza que los elementos fabricados mantendrán su estructura al estar sometidos al ambiente en el que serán empleados. La impresión 3D también ha resultado viable en varias aplicaciones médicas incluyendo la fabricación de prótesis y los accesorios que estas utilizan. La aplicación de tecnologías 3D, se considera lo más novedoso y revolucionario ocurrido en estos momentos. En Cuba, existe ya alguna evidencia clínica que demuestran las ventajas de estas técnicas aplicadas en la medicina. 3. SISTEMA DE ACCESORIOS Hoy en día el sistema barra clips es uno de los sistemas más utilizados de conjunto con los implantes osteointegrados por su gran capacidad de retención, fijación y estabilidad. Una de las principales ventajas de este sistema es la facilidad de colocación y extracción de la prótesis, ello hace que el paciente no pierda tiempo en la colocación diaria, ya que son segundos, frente a los cinco minutos o más que puede emplear un paciente con experiencia para colocar la misma prótesis con adhesivos, pues hay que dejarla secar un poco al aire y luego situar bien la prótesis a la primera sobre la superficie cutánea. Los diseños que se propone están concebido para obtenerse por impresión 3D. Tapón de cicatrización Hace unos años, al insertar el implante, se cubría con tejido esperando a la osteointegración. Transcurrido un periodo entre 3 y 6 meses, se abría de nuevo para añadir el pilar transepitelial que serviría de conector entre el implante y la prótesis. En la actualidad, se ha avanzado mucho el proceso, ya que en la misma cirugía se coloca el implante y el pilar a la vez y no se cubre con tejido, sino que se protege de forma externa con unos tapones de cicatrización y vendajes en 8 de guarismo entre dichos tapones (Fig. 4). El tiempo de espera a la osteointegración se ha reducido notablemente hasta las 6 semanas. Figura 4: Protección de los implantes con los tapones de cicatrización y vendaje en forma de ocho. Cortesía del Centro de Investigaciones Médicas Quirúrgicas (CIMEQ) El tapón de cicatrización que integra este sistema de accesorios tiene 4.05 mm de altura, con un diámetro de la base de 8.87 mm y una altura de 17.74 mm. El cilindro interior tiene un diámetro de 2.44 mm (Fig. 5). Figura 5: Tapón de cicatrización Este elemento se imprime por estereolitografía en una resina fotopolimerizable biocompatible. Cilindros de conexión y barras Una vez que los tornillos de titanio del implante se osteointegraron es momento de montar la estructura en la que descansará la prótesis, para ello se utilizan los cilindros de conexión y las barras. Las barras se colocan sobre las réplicas de los pilares del modelo de trabajo y se ubican los cilindros de conexión sobre las mismas con cera adhesiva o acrílica. La barra no debe extenderse más de 8 a 10 mm más allá del pilar para reducir el movimiento de flexión de los accesorios, luego esta estructura se retira del modelo y se procede a colar por el método tradicional. El cilindro de conexión tiene una altura de 6.97 mm, un diámetro exterior de 3.6 mm en la parte inferior y 6.52 mm en la zona superior. El diámetro interior es de 2.3 mm (Fig. 6). Figura 6: Cilindro de conexión Las barras son de 25.17 mm de altura y 2.05 mm de radio (Fig. 7) Figura 7: Barra Ambos elementos se imprimen por estereolitografía en resina fotopolimerizable calcinable. Clips de retención Después de fundida la estructura se revisa cuidadosamente en el modelo de trabajo y en el paciente para determinar si se ajusta pasivamente. Luego se colocan clips de retención en la barra y se hace una placa acrílica; la que se prueba en el paciente para verificar el ajuste y los contornos. Estos clips tienen diferentes ángulos en la apertura que va a acoplarse en la barra, lo que permite seleccionar el más adecuado en dependencia de forma de la prótesis. Los clips tienen 15.24 mm de altura total, con crestas de 0.63 mm de altura con respecto a la base que va en la prótesis. La altura del cilindro de anclaje es de 11.5 mm, el diámetro del cilindro interior es de 1 mm y la apertura que permite el anclaje es de 0.76 mm. Los ángulos de las aperturas con respecto a una línea horizontal paralela a la base son de 30°, 45° y 90°. En la Fig. 8 se muestra el diseño de un clip con un ángulo de apertura de 30° Figura 8: Clip de 90° Estos elementos se imprimen por estereolitografía en una resina fotopolimerizable biocompatible, en concreto la E-Shell 300. Figura 9: Accesorios de retención para implantes impresos en 3D En el caso de los clips se realizó un estudio por el Método de Elementos Finitos con el módulo de análisis estructural del programa de diseño mecánico SolidWorks 2018. Este elemento del conjunto de accesorios estará fijo a la prótesis por la zona de las crestas por lo que se aplicó una restricción de movimiento en esta área. Para comprobar que la apertura que se acopla en la barra no se fracturará al ejercer presión se aplicó una fuerza con un valor de 100 N en la cara interior. Los resultados obtenidos muestran que la elección de la resina es acertada ya que en el diagrama de Tensiones de Von Mises no se aprecian zonas con tonalidades rojas por lo que no se ve comprometida la integridad de la pieza Figura 10: Diagrama de Tensiones de Von Mises del clip de 90° 4. CONCLUSIONES El sistema de accesorios que se propone es una alternativa de producción nacional obtenida haciendo uso de las tecnologías CAD/CAM y la impresión 3D, métodos rápidos y confiable que actualmente se encuentran a la vanguardia de la manufactura moderna y que permitirán acortar los tiempos de espera pues se podrá mantener una disponibilidad de los productos de acuerdo a la demanda de los hospitales. Además, estos accesorios se podrán adaptar de acuerdo a las necesidades de las instituciones de salud cubanas, esto gracias a que se pueden editar las medidas en el diseño de los componentes para acoplarse con los sistemas de implantes que se utilicen en los servicios de prótesis bucomaxilofaciales. Esta propuesta también abaratará los costos de adquisición por parte del Sistema Cubano de Salud al no tener que agregarle los fletes aduanales y otros gastos asociados a la importación. RECONOCIMIENTOS Los autores desean agradecer al Centro de Investigaciones Médicas Quirúrgicas (CIMEQ) y al Centro de Neurociencias de Cuba (CNEURO). REFERENCIAS [1] E. C. Quintero et al., “Conformador nasal como complemento quirúrgico . Shaping the nose as surgical complement .”, Investig. Medicoquirúrgicas, vol. 3, núm. 2, pp. 121–126, 2011. [2] P. Martins-Bueno, C. Lopes-Cardoso, A. F. Benites-Condezo, R. Z. Araújo, C. C. DeAntoni, y M. Martins-Curi, “Extra-oral implants used for the rehabilitation of oculo-palpebral deformities in oncology patients. Retrospective study with 14 cases”, Rev. Esp. Cir. Oral y Maxilofac., vol. 40, núm. 2, pp. 49–54, 2018, doi: 10.1016/j.maxilo.2017.06.002. [3] M. Vivanco-Barahona, “Manejo Protésico y Multidisciplinario de Prótesis Maxilofacial: Serie de Casos”, International journal of odontostomatology, vol. 15, núm. 4. pp. 797–805, 2021. doi: 10.4067/s0718-381x2021000400797. [4] A. Y. Piñón Ruelas, M. Anaya Álvarez, J. A. Luego Fereira, I. Toscano García, y L. E. Carlos Medrano, “Prótesis parcial removible en paciente odontopedriático con avulsión múltiple”, Conf. Proc. Jornadas Int. Investig. en Odontol., vol. 1, núm. 1, pp. 71–75, 2022. [5] S. Marayde y R. González, “Pacientes con defectos maxilares en el servicio de prótesis bucomaxilofacia”, Rev. Ciencias Médicas Pinar del Río, vol. 22, núm. 2, pp. 270–280, 2018. [6] N. G. García, H. G. T. Parra, S. A. M. Juárez, C. V. Gómez, R. T. Polo, y I. R. Polo, “Prótesis máxilofacial : alternativa terapéutica para la recuperación integral del paciente con cáncer bucal”, Rev. Médica la Univ. Veracruzana, vol. 6, núm. 1, pp. 20–27, 2006. [7] S. M. R. González y S. M. R. González, “Pacientes con defectos maxilares en el servicio de prótesis bucomaxilofacial”, Revista de Ciencias Médicas de Pinar del Río, vol. 22, núm. 2. pp. 270–280, 2018. [8] A. H. Br. Zapata García, “Análisis Multivariado del Edentulismo Parcial en Adultos del Centro Radiológico Maxilofacial Roxtro, Puno 2019-2020”, Universidad César Vallejo, 2019. [En línea]. Disponible en: https://repositorio.ucv.edu.pe/bitstream/handle/20.500.12692/40039/Zapata_GAH.pdf?sequence=1&isAll owed=y [9] A. Garduño Guevara, R. Jiménez Castillo, V. GonzálezCardín, y A. Benavides Ríos, “Alternativas en la fijación, retención y estabilidad de las prótesis bucales y craneofaciales”, Artemisa, vol. 13, núm. 1. pp. 24–30, 2009. Sobre los autores Carla Pascau Carnesoltas: Reserva científica del Centro de Neurociencias de Cuba, Ingeniera Biomédica (CNEURO). Alfredo Álvarez Rivero: Doctor Especialista de I y II Grado en Prótesis Estomatológica del Centro de Investigaciones Médicas Quirúrgicas (CIMEQ). Profesor Titular Dpto. Prótesis Facultad Estomatología. Universidad Ciencias Médicas de La Habana. Investigador Titular del CIMEQ. Doctor en Ciencias Estomatológicas, Teniente Coronel del MININT. Miembro de la Comisión de Grados Científicos de la Universidad Ciencias Médica de La Habana, Jefe del Programa Nacional de Prótesis Bucomaxilofacial, Vicepresidente Primero Sociedad Latinoamericana Rehabilitación Bucomaxilofacial. Wilma Marín Páez: Jefa del Grupo de Soluciones Dentales del Centro de Neurociencias de Cuba (CNEURO). Profesora Asistente. Máster en Atenciones de Urgencias Estomatológicas, Máster en Odontogeriatría. Yaima Contino Matos: Jefa del Departamento de Organización de la Producción del Centro de Neurociencias de Cuba (CNEURO). Profesora Asistente. Ingeniera en Automática. 1 DEPOSICIÓN DE RECUBRIMIENTOS DE FOSFATOS DE CALCIO EN ANDAMIOS DE PLA Autores: Jesús E. González1,2, Marcelino Rivas Santana3, Elizabeth F. Santiesteban del Toro4, Nancy Bada5, Elsa Paz6 y Patricia del Carmen Zambrano Robledo7 1Departamento de biomateriales cerámicos y metálicos, Centro de Biomateriales, Universidad de la Habana, Cuba, e-mail: jgonzalezr1961@gmail.com 2Grupo de Biomecánica, Facultad de Ingeniería Mecánica, Universidad Tecnológica de La Habana José Antonio Echeverría. 3Centro de Estudios de Manufactura Avanzada y Sostenible, Facultad de Ciencias Técnicas, Universidad de Matanzas, Cuba, e-mail: marcelino.rivas@umcc.cu 4Centro de Bioingeniería, Universidad Tecnológica de La Habana José Antonio Echeverría, Cuba, e-mail: faustinasantiesteban@gmail.com 5Departamento de biomateriales Poliméricos, Centro de Biomateriales, Universidad de la Habana, Cuba, e- mail: bada@biomat.uh.cu 6Centro de Estudios de Manufactura Avanzada y Sostenible, Facultad de Ciencias Técnicas, Universidad de Matanzas, Cuba, e-mail: elsitaape@gmail.com 7Centro de Investigación e Innovación en Ingeniería Aeronáutica, Universidad Autónoma de Nuevo León, México, e-mail: patricia.zambranor@uanl.edu.mx RESUMEN El desarrollo de dispositivos implantables mediante manufactura aditiva se ha incrementado significativamente en los últimos años. Dentro de los materiales más utilizados para aplicaciones en zonas no cargadas se encuentra el PLA. En este trabajo se presentan los resultados de la deposición de fosfatos de calcio mediante el método química en andamios de PLA elaborados mediante manufactura aditiva. En un primer paso, los andamios se activaron mediante un tratamiento en una disolución de 0,1M de NaOH a temperatura ambiente durante 24h. En la deposición de los recubrimientos se utilizó una disolución sobre- saturada en calcio y dos variantes de tratamiento diferenciadas por el pH de la disolución. Como resultado de los tratamientos se obtuvieron en los andamios de PLA superficies parcialmente recubiertas con fosfatos de calcio. En el caso de la primera variante de deposición se obtuvo brushita, mientras que con la segunda se formó una apatita. PALABRAS CLAVES: Deposición, recubrimiento, fosfato de calcio, PLA, andamio, manufactura aditiva ABSTRACT The development of implantable devices through additive manufacturing has increased significantly in recent years. Among the most used materials for applications in non-loaded areas is PLA. In this work, the results of the deposition of calcium phosphates by the chemical method in PLA scaffolds made by additive manufacturing are presented. In a first step, the scaffolds were activated by treatment in a 0.1M NaOH solution at room temperature for 24h. In the deposition of the coatings, a solution super-saturated in calcium and two variants of treatment differentiated by the pH of the solution were used. As a result of the treatments, surfaces partially coated with calcium phosphates were obtained on the PLA scaffolds. In the case of the first variant of deposition brushite was obtained, while with the second an apatite was formed. KEYWORDS: Deposition, coating, calcium phospate, PLA, scaffold, additive manufacture 1. INTRODUCCIÓN En períodos recientes numerosas investigaciones se centraron en la obtención y desarrollo de nuevos biomateriales que permitan acelerar la regeneración ósea, así como incrementar la tasa de éxito clínico de dispositivos endoóseos [1-3]. Ello ha permitido mejorar la calidad de vida de pacientes que requieren de la reparación de defectos óseos resultantes de infecciones, tumores o de diferentes traumas. Estas afecciones 2 resultan cada vez más comunes en la sociedad, comportamiento relacionado con el incremento de la expectativa de vida de la población, enfermedades osteomusculares y accidentes de diferente índole. El hueso natural es un material compuesto formado por colágeno y cristales de apatita [3, 4]. En la actualidad, como alternativas para su reemplazo se utilizan diferentes biomateriales, entre los que se incluyen metales, polímeros, cerámicas y materiales compuestos [3, 5, 6]. No obstante, dichos materiales pueden diferir por sus propiedades y composición elemental del hueso natural [7]. En las últimas décadas la utilización del ácido poli láctico PLA (material biodegradable) se ha convertido en un candidato atractivo como sustituto óseo. El PLA ha sido aprobado por diferentes entes reguladores, entre los que se encuentra la FDA (Administración de Alimentos y Medicamentos), en aplicaciones tales como tornillos, pines y placas con fines ortopédicos y en la ingeniería tisular como andamio para la regeneración ósea [8-10]. Entre sus propiedades se destacan su biocompatibilidad, biodegradabilidad y bioactividad. No obstante, presenta una bioactividad limitada, relativamente bajas propiedades mecánicas y en algunas aplicaciones es recomendable retardar su biodegradación. Como solución a esta problemática han emergido los recubrimientos de hidroxiapatita (HA) [11, 12]. Los andamios tienen una importante función en la ingeniería de tejidos ya que sirven de soporte a células madres, actúan como sustituto de la matriz extracelular y pueden controlar los estímulos mecánicos que reciben las células [13, 14]. Además, facilitan la adhesión, diferenciación y proliferación celular [13]. En años recientes se ha incrementado su elaboración mediante el método de Manufactura Aditiva, al posibilitar dicho método la obtención de dispositivos personalizados [15-17]. Estos dispositivos se ajustan a las características y necesidades del paciente. El presente trabajo tiene entre sus objetivos mejorar el comportamiento biológico de andamios de PLA a partir la deposición en sus superficies de recubrimientos de fosfatos de calcio mediante el método químico. 2. MATERIALES Y MÉTODOS Preparación de las muestras a recubrir Como sustrato se utilizaron andamios de PLA, con una arquitectura rectangular en sus poros, fabricados en la Universidad de Matanzas mediante manufactura aditiva (Fig. 1). El tratamiento de activación se realizó a partir de sumergir las probetas en una disolución acuosa de 0,1 M de NaOH durante 24h a temperatura ambiente (Fig. 2). 3 Fig. 1. Andamios de PLA utilizados en los experimentos. Fig. 2. Imagen del proceso de activación superficial de las probetas de PLA. Preparación de la disolución y proceso de deposición de los recubrimientos En la deposición de los recubrimientos de fosfatos de calcio sobre probetas de PLA previamente activadas se utilizó el método químico y una solución sobresaturada en calcio (SCS por sus siglas en idioma inglés). En la elaboración de la disolución se usaron los productos químicos de grado reactivo (BDH Chemicals Ltd) CaCl2 (0,971 g), NaH2PO4 (0,262 g) y NaHCO3 (0,127 g). Las concentraciones de iones de calcio utilizadas en la solución resultaron similares a las presentadas por un SBF x 7. 4 Para la elaboración de la disolución sobresaturada en calcio y la posterior deposición de los recubrimientos apatíticos, se colocó un reactor que contenía 500 ml de agua destilada en un baño de aceite termostático. Se procedió a añadir las sales portadoras de iones calcio y fosfato al reactor cuando se alcanzó la temperatura de 37 ºC y se dejaron transcurrir 5 minutos entre la adición de cada una. Durante esta etapa se utilizó un agitador mecánico para mantener una agitación de 200 rev./min. Luego, se redujo la agitación a 80 rev./min y se introdujeron las probetas de PLA atadas con un hilo de algodón a la disolución. Al transcurrir 30 min, se adicionó el hidrógenocarbonato de sodio, mientras que las probetas se mantuvieron en la disolución hasta completar el proceso (4h). Durante la etapa de deposición de los recubrimientos se utilizaron dos esquemas de tratamiento. En el primero se mantuvieron niveles de pH entre 5,5 y 5,7; mientras que en el segundo esquema se reguló a valores de 7,3 mediante el goteo de NaOH 10M. Caracterizaciones En la determinación del pH de las disoluciones se utilizó un pH-metro marca Basic 20 de la firma Crison Instruments (España). Adicionalmente, las caracterizaciones de las superficies del PLA, tanto activadas como sometidas a los dos esquemas de deposición de los recubrimientos de apatitas se realizaron en laboratorios de la Universidad Autónoma de Nuevo León, México. Para ello se realizaron ensayos de microscopia electrónica de barrido (MEB), Energía dispersiva de RX (EDS) y de difracción de RX (DRX). 3. RESULTADOS EXPERIMENTALES Activación de la superficie de andamios de PLA En las micrografías (MEB) correspondientes a la Figura 3 se muestran imágenes con diferentes magnificaciones de la superficie de andamios de PLA después del tratamiento alcalino (en disolución acuosa de 0,1 M de NaOH). En la Figura 4 (con una magnificación de 100X) se puede apreciar que la superficie posee una morfología no homogénea, caracterizada por la presencia de estructuras interconectadas en forma de “fibras”, pequeñas estructuras con una configuración globular y zonas menos rugosas con una coloración gris. Además, dicha superficie resultó rugosa, lo cual concuerda con los resultados reportados por Hyuk y colaboradores [18]. En la Figura 3B (con mayor magnificación), se puede apreciar con nitidez la morfología de la superficie activada. Por otro lado, las estructuras en forma de fibras mostraron un diámetro entre 1 y 2 m, mientras que los glóbulos presentaron un diámetro entre 1 y 5 m y en algunos casos formaron aglomerados, los que pueden alcanzar dimensiones de hasta 20 m. 5 Fig 3. Imagen (MEB) de andamio de PLA activado mediante tratamiento en disolución acuosa de 0,1M de NaOH. A- baja magnificación, B- elevada magnificación. La determinación de la composición elemental se realizó mediante ensayos de Energía Dispersiva de RX (EDS) (Fig. 4). El espectro (EDS) mostró que la superficie modificada se encuentra formada por C, O y Na. En el caso del contenido de carbono detectado en la superficie debe corresponderse con el presentado por el PLA, mientras que el O puede provenir tanto del polímero como de la microestructura resultante del tratamiento alcalino. Por otro lado, el contenido de Na revelado en el espectro es resultado del tratamiento de activación. En general se observó la disminución del contenido de carbono y el incremento del contenido de O en las superficies activadas en comparación con los contenidos de dichos elementos reportados para el PLA por Hamid y colaboradores [19]. Fig. 4. Espectro (EDS) de la superficie de andamio de PLA activado mediante tratamiento en disolución acuosa de 0,1M de NaOH. Morfología y topografía de las superficies recubiertas En la Figura 5 se muestra la morfología de las superficies de los andamios después de su tratamiento mediante los dos esquemas de deposición de apatitas evaluados. Tanto a bajas como a altas magnificaciones se observaron significativos cambios en la morfología generada por ambos esquemas en comparación con la superficie activada. En especial se observó una reducción en la altura de las micro-irregularidades, así como la ausencia de las micro-estructuradas observadas en las superficies activadas. Es de notar que a bajas magnificaciones (Fig. 5A y B) en ambos casos se observaron pequeños puntos de color blanco sobre un fondo gris. Estos puntos resultaron más numerosos y presentaron mayor dimensión en la muestra sometida 6 al esquema de deposición 2 (Fig. 5B). En las micrografías con mayor magnificación (Fig. 5 C y D) se apreció la presencia de aglomerados formados por estructuras que presentan nano-placas en sus superficies, comportamiento previamente observado en recubrimientos de fosfatos de calcio depositados sobre sustratos metálicos en el Centro de Biomateriales [20, 21]. Además, ese comportamiento ha sido reportado para este tipo de recubrimientos por diferentes autores [22, 23]. Por otro lado, en dichas imágenes se corroboró que los aglomerados cubren parcialmente las superficies tratadas. Dichos aglomeradas deben ser total o parcialmente el resultado del proceso de precipitación de fosfatos de calcio que ocurre durante el proceso de deposición. Como consecuencia de la precipitación se produjo una disminución del pH de la disolución desde valores de aproximadamente 6 hasta valores entre 5,5 y 5,75. No obstante, como se expuso en los materiales y métodos, en la disolución correspondiente al esquema de deposición número 2 se incrementó el pH hasta un valor de 7,3. Es conocido que los fosfatos de calcio son pH dependientes y que en específico las apatitas resultan más estables que el resto de dichos compuestos a valores de pH más elevados [24, 25]. Fig. 5. Imagen (MEB) de superficies de andamios de PLA tratados en DSC. A, C- esquema de deposición 1, B, D- esquema de deposición 2. A, B- baja magnificación (100X); C, D- magnificación más elevada (1000X). Composición elemental a nivel superficial En las figuras 6 A-D se muestran espectros (EDS) puntuales de diferentes zonas de las muestras tratadas mediante los dos esquemas de deposición evaluados. Los espectros de EDS corroboraron que en todas las zonas se encuentran presentes los elementos constituyentes de los fosfatos de calcio (O, Ca y P), no obstante, los aglomerados presentaron contenidos significativamente superiores de estos elementos. Este resultado confirma que los aglomerados se encuentran formados por fosfatos de calcio. Por otro lado, los picos del calcio y del fósforo en las superficies resultantes del esquema de deposición 2 resultaron significativamente más intensos que los obtenidos con el esquema 1 (Fig. 6 C y D). 7 El análisis semi-cuantitativo (MEB-EDS) mostró que el esquema de deposición 2 generó contenidos significativamente superiores de calcio y fosforó en la superficie activada del PLA. Además, dicha superficie mostró como promedio una relación Ca/P de 1,66 (próxima a la presentada por la hidroxiapatita), mientras que el esquema 1 generó como promedio una relación Ca/P de 1,07; cercana a la reportada para los fosfatos de calcio brushita y monetita [27]. Es conocido que generalmente dichas fases se forman con valores de pH inferiores a 6. Fig. 6. Espectros (MEB-EDS) de la superficie de andamios de PLA. A, B- tratados mediante el esquema de deposición 1, C, D- tratados mediante el esquema de deposición 2. A, C fuera de los aglomerados; B, D- en los aglomerados. 8 Composición de fases a nivel superficial En la figura 7 se muestran los patrones de difracción de muestras de PLA antes y después del tratamiento para la deposición de recubrimientos de fosfatos de calcio. El difractograma de las probetas correspondientes al esquema de deposición 1 mostró las mayores variaciones en comparación con el PLA activado mediante el tratamiento alcalino. Nuevos picos se observaron en 2Theta ≈ 20°, 23° y 29,2°, los que pueden asignarse a la brushita. Además, la presencia de esa fase se corresponde con los resultados de los ensayos puntuales de EDS realizados sobre los aglomerados, en los que se obtuvo una relación Ca/P próxima a 1. La superficie del PLA generada por el esquema de deposición 2 solamente mostró un nuevo pico con una intensidad muy baja en 2Theta ≈ 25,8° (difractograma B en la figura 7). El mismo se corresponde con el pico de mayor intensidad generado en recubrimientos de hidroxiapatita cuando estos se encuentran alineados de forma perpendicular al sustrato (pico 002), comportamiento reportado para recubrimientos de HA depositados mediante el método químico [24, 28]. Adicionalmente, la formación de dicha fase se corresponde con la relación Ca/P determinada mediante EDS en los aglomerados. Fig. 7. Difractograma (DRX) de superficies del PLA antes y después de tratadas en una disolución sobresaturada en calcio. A- Deposición mediante el esquema 1, B- Deposición mediante el esquema 2 y C- Activada mediante el tratamiento alcalino. 4. CONCLUSIONES A partir de los resultados experimentales se arriba a las conclusiones siguientes: - Se modificó la superficie del PLA mediante un tratamiento en una disolución de 0,1M de NAOH. Como resultado se obtuvo una superficie con una morfología no homogénea, caracterizada por la presencia de estructuras interconectadas en forma de "fibras", pequeñas estructuras con una configuración globular, en las que predominan los elementos O y Na, y zonas menos rugosas. - Se obtuvieron depósitos de fosfatos de calcio a partir de los dos esquemas de deposición evaluados, caracterizados por no resultar homogéneos, quedando zonas de la superficie del PLA sin recubrir o con un espesor de capa muy pequeño. 9 - Se determinó que el esquema de deposición 2 generó los mejores resultados al mostrar superficies con un área mayor recubierta, mayores contenidos de calcio y fósforo y una relación Ca/P de 1,66 en sus aglomerados. - Se demostró que los aglomerados generados por la variante de deposición 2 se encuentran formados por apatitas. 5. REFERENCIAS BIBLIOGRÁFICAS [1] Anene F, Aiza J, Zainol I, Hanim A, Suraya MT. Additively manufactured titanium alloys and effect of hydroxyapatite coating for biomedical applications: A review. Proceedings of the Institution of Mechanical Engineers, Part L: Journal of Materials: Design and Applications 2020;234:1450-60. [2] Liu Y, Rath B, Tingart M, Eschweiler J. Role of implants surface modification in osseointegration: A systematic review. Journal of Biomedical Materials Research Part A 2020;108:470-84. [3] Kamboj N, Ressler A, Hussainova I. Bioactive Ceramic Scaffolds for Bone Tissue Engineering by Powder Bed Selective Laser Processing: A Review. Materials 2021;14:5338. [4] Kehoe S. Optimisation of hydroxyapatite (HAp) for orthopaedic application via the chemical precipitation technique: Dublin City University; 2008. [5] Asri RIM, Harun WSW, Samykano M, Lah NAC, Ghani SAC, Tarlochan F, et al. Corrosion and surface modification on biocompatible metals: A review. Materials Science and Engineering C 2017:1261-74. [6] Grémare A, Guduric V, Bareille R, Heroguez V, Latour S, L'heureux N, et al. Characterization of printed PLA scaffolds for bone tissue engineering. Journal of Biomedical Materials Research Part A 2018;106:887- 94. [7] Wang W-T, Sheng R-N, Jhuang Z-L. Design, Test and FEM Analysis of Customized Titanium Alloy Implant with Scaffold Based on Additive Manufacturing. IOP Conference Series: Materials Science and Engineering: IOP Publishing; 2021. p. 012007. [8] Singh D, Babbar A, Jain V, Gupta D, Saxena S, Dwibedi V. Synthesis, characterization, and bioactivity investigation of biomimetic biodegradable PLA scaffold fabricated by fused filament fabrication process. Journal of the Brazilian Society of Mechanical Sciences and Engineering 2019;41:121. [9] Hamad K, Kaseem M, Yang H, Deri F, Ko Y. Properties and medical applications of polylactic acid: A review. Express Polymer Letters 2015;9:435-55. [10] Raquez J-M, Habibi Y, Murariu M, Dubois P. Polylactide (PLA)-based nanocomposites. Progress in Polymer Science 2013;38:1504-42. [11] Mondal S, Nguyen TP, Hoang G, Manivasagan P, Kim MH, Nam SY, et al. Hydroxyapatite nano bioceramics optimized 3D printed poly lactic acid scaffold for bone tissue engineering application. Ceramics International 2020;46:3443-55. [12] Deplaine H, Lebourg M, Ripalda P, Vidaurre A, Sanz‐Ramos P, Mora G, et al. Biomimetic hydroxyapatite coating on pore walls improves osteointegration of poly (L‐lactic acid) scaffolds. Journal of Biomedical Materials Research Part B: Applied Biomaterials 2013;101:173-86. [13] Jucht D, Rujano R, Romero M. Utilización de células madre en el ámbito odontológico. Revisión de la literatura. Acta Bioclínica 2014:101-15. [14] Sandino C, Planell J, Lacroix D. A finite element study of mechanical stimuli in scaffolds for bone tissue engineering. Journal of biomechanics 2008;41:1005-14. [15] Oliveira TT, Reis AC. Fabrication of dental implants by the additive manufacturing method: A systematic review. The Journal of prosthetic dentistry 2019;122:270-4. [16] Nouri A, Shirvan AR, Li Y, Wen C. Additive manufacturing of metallic and polymeric load-bearing biomaterials using laser powder bed fusion: A review. Journal of Materials Science & Technology 2021;94 196–215. [17] Yadroitsava I, Plessis Ad, Yadroitsev I. Bone regeneration on implant of titanium alloys produced by laser powder bed fusion: a review In: Froes F, Qian M, Niinomi M, editors. Titanium for Consumer Applications. 1st Edition ed: Elsevier; 2019. p. 197-233. [18] Im SH, Jung Y, Jang Y, Kim SH. Poly (L-lactic acid) scaffold with oriented micro-valley surface and superior properties fabricated by solid-state drawing for blood-contact biomaterials. Biofabrication 2016;8:045010. 10 [19] Abdul Hamid Z, Tham C, Ahmad Z. Preparation and optimization of surface-engineered poly (lactic acid) microspheres as a drug delivery device. Journal of materials science 2018;53:4745-58. [20] Hernández L, González JE, Barranco V, Veranes-Pantoja Y, Galván J, Gattorno GR. Biomimetic hydroxyapatite (HAp) coatings on pure Mg and their physiological corrosion behavior. Ceramics International 2022;48:1208-22. [21] Morejón-Alonso L, Bussulo MA, Debone R, González-Martínez E, González JE. Apatite coatings on chemically modified titanium using a new accelerated biomimetic route. Materials Letters 2020;280:128576. [22] Avila I, Pantchev K, Holopainen J, Ritala M, Tuukkanen J. Adhesion and mechanical properties of nanocrystalline hydroxyapatite coating obtained by conversion of atomic layer-deposited calcium carbonate on titanium substrate. Journal of Materials Science: Materials in Medicine 2018;29:111. [23] Yu H-N, Hsu H-C, Wu S-C, Hsu C-W, Hsu S-K, Ho W-F. Characterization of nano-scale hydroxyapatite coating synthesized from eggshells through hydrothermal reaction on commercially pure Titanium. Coatings 2020;10:112. [24] Li F, Feng QL, Cui FZ, Li HD, Schubert H. A simple biomimetic method for calcium phosphate coating. Surface and Coatings Technology 2002;154:88-93. [25] Lu X, Leng Y. Theoretical analysis of calcium phosphate precipitation in simulated body fluid. Biomaterials 2005:1097-108. [26] Ratnayake JT, Mucalo M, Dias GJ. Substituted hydroxyapatites for bone regeneration: A review of current trends. Journal of Biomedical Materials Research Part B: Applied Biomaterials 2017;105:1285-99. [27] Ratner BD, Hoffman AS, Schoen FJ, Lemons JE. Biomaterials Science An Introduction to Materials in Medicine. Third Edition ed. Canada: Elsevier; 2013. [28] Brohede U, Zhao S, Lindberg F, Mihranyan A, Forsgren J, Strømme M, et al. A novel graded bioactive high adhesion implant coating. Applied Surface Science 2009;255:7723-8. DISEÑO Y MANUFACTURA DE DISPOSITIVOS MÉDICOS DESIGN AND MANUFACTURING OF MEDICAL DEVICES Ing. Yusleiby Dago Rivera¹, Dr. Saimel Bello González², Dra. Irene Rojas³, Dr C. Alfredo Álvarez Rivero4 1 Grupo de Diseño, Dirección de Producción (CNEURO), yusleiby.dago@cneuro.edu.cu, 2 Complejo Científico Ortopédico Internacional Frank País, saimel@infomed.sld.cu 3 Instituto de Oftalmología “Ramón Pando Ferrer”, irojas@infomed.sld.cu 4 Centro de Investigaciones Médicas Quirúrgicas (CIMEQ), ralvarez@infomed.sld.cu RESUMEN El Centro de Neurociencias de Cuba (CNEURO) trabaja en la actualidad en el diseño y manufacturación de equipos y dispositivos para el Sistema de Salud Pública del país, aplicando las tecnologías para la manufactura aditiva (impresión 3D) y con el apoyo del software CAD/CAE. Los servicios médicos en Cuba avanzan con la utilización de nuevas tecnologías, pero la adquisición de distintos dispositivos se han visto limitadas por el bloqueo y las dificultades económicas del país, lo que limita la respuesta y solución a múltiples afecciones de los pacientes. Dada esta situación, se decide comenzar un estudio sobre los dispositivos oculares, como conformadores, iris para prótesis, tapón de punto lagrimal y un set de implantes oculares; en el caso relacionado a la ortopedia, con el espaciador de cadera. El diseño y fabricación de estos dispositivos, así como la selección de los materiales se condicionan a su aplicación, su comportamiento en el proceso de esterilización y las características de bio-compatibilidad de los materiales. Quedando establecido su diseño y las tecnologías a emplear durante su manufactura. Los implantes oculares, los biointegrables porosos más comúnmente usados, son de hidroxiapatita coralina; como los espaciadores de cadera [1] no están en existencia en el país. Este trabajo se realiza con el objetivo de garantizar la disponibilidad de los mismos en el Sistema de Salud Pública. PALABRAS CLAVES: Oculoplastia, impresora 3D, materia Bio-compatible, espaciador de cadera, manufactura aditiva. ABSTRACT The Cuban Neuroscience Center (CNEURO) has been given the task of designing and manufacturing equipment, devices that help the country. With the application of technologies for additive manufacturing (3D printing), with the support of CAD/CAE software. The development of medical services in Cuba in different areas has advanced with the use of new technologies, with new challenges appearing every day; the acquisition of different devices has been limited by the blockade; as well as the response and solution to multiple conditions that are treated. It was decided to begin our study with a selection of ocular devices such as conformers, irises for prostheses, punctal plugs and a set of ocular implants; and in the case related to orthopedics with the hip spacer. The design and manufacture of these devices, as well as the selection of materials, are conditioned by their application, their behavior in the sterilization process, the bio-compatibility characteristics of the materials; Being established its design and the technologies to be used in its manufacture. The different devices are designed to solve problems in the country's health system and improve the quality of life of patients. In our country, implants; as the most commonly used porous biointegrables are those of coralline hydroxyapatite; or hip spacers [1], currently they are not available; in the same case are all the devices in proposal This work is carried out with the aim of obtaining the availability of these devices in the public health system throughout the country. KEY WORDS: Oculoplasty, 3D printer, Bio-compatible material, hip spacer, additive manufacturing. 1. INTRODUCCIÓN Vivimos en un país bloqueado y con limitaciones económicas, donde las importaciones son difíciles, por lo que se decidió analizar y estudiar las necesidades en dos áreas: la ortopédica y la oftamológica. En el servicio de Ortopedia, los espaciadores de cadera están diseñados para reemplazar provisionalmente los componentes protésicos y servir de ayuda en el tratamiento a los pacientes. Secundariamente garantiza múltiples ventajas en la calidad de vida del paciente durante el tiempo de cura de la infección y simplifica la cirugía de revisión, tanto en la colocación de la prótesis definitiva, como en la rehabilitación. En el servicio de Oftalmología, principalmente en el área de Oculoplastia, se ofrecen servicios especializados para niños y adultos con distintas afecciones. En ambos sectores se necesitan distintos dispositivos, componentes y accesorios para prestar un adecuado servicio. Oculoplastia: conformadores, iris para prótesis, tapón de punto lagrimal y un set de implantes oculares; todos con la misma propuesta de tecnología de manufactura. Ortopedia: espaciador de cadera modular y molde modular. Conociendo las necesidades de distintos dispositivos médicos en el sector de la salud y las posibilidades de las tecnologías de CNEURO, se realiza una propuesta de fabricación de algunos dispositivos, que incluye su diseño y manufactura. En la Oftalmología se logra el diseño y manufactura de un juego de conformadores de tres medidas estandar, así como un set de implante orbitario, tapón de punto lagrimal como una propuesta para los iris de las prótesis de ojo. En el área de la Ortopedia, se diseña un espaciador de cadera modular con las geometras de las prótesis Rayca, utilizadas en el país; con ese trabajo se logró el diseño de un molde modular para su fabricación con PMMA [2]. 2. OBJETIVOS Lograr el diseño y manufactura de distintos dispositivos médicos, con las características y diseños específicos para cada uso; con la finalidad de abastecer al Sistema de Salud Pública cubano y mejorar la calidad de vida de los pacientes. 3. MATERIAL Y MÉTODO Utilización de software de diseño mecánico Solidwork y el Magics. Mediante la tecnología 3D de SLA y/o DLP, que permite la impresión de la pieza de resina, mediante el método de esterolitografías o por un proceso de depósito de luz, aprovechar las potencialidades que brindan estas tecnologías, para la obtención de formas complejas y superficies ásperas con la granulometría deseada. 4. RESULTADOS Se logra definir el diseño geométrico de los dispositivos oculares y ortopédicos. (Fig. 1 y 2) Se imprime modelo a escala, en el caso del espaciador para estudio. Se logra la manufactura a tamaño real del espaciador modular diseñado; así como de todos los dispositivos en estudio. (Figura 3.) Se definió un proceso tecnológico de manufactura aditiva para la producción de distintos dispositivos, con sus respectivas tallas y medidas utilizando las tecnologías 3D con que cuenta el centro, cumpliendo con los requisitos del CECMED y las normas y regulaciones que están establecidas por el Sistema de Gestión de la Calidad. Figura 1: Diseño de los dispositivos oculares. Figura 1: Diseño de los dispositivos oculares. Figura 2: Diseño de los dispositivos ortopédicos Figura 2: Diseño de los dispositivos ortopédicos Figura 3: Manufactura de los dispositivos ortopédicos y oculares. 5. CONCLUSIÓN Se logra el diseño y la manufactura de dispositivos oculares con la utilización de tecnologías 3D, que eliminan las importaciones de los mismos y mejora la calidad de vida del paciente. Se realizó una comparación de los dispositivos obtenidos por las tecnologías de manufactura aditiva y los convencionales y se determinó que cumplen con todos los requisitos de calidad. Está en estudio el diseño de un dispositivo para la colocación del tapón de punto lagrimal; así como otros que necesita el Sistema de Salud Pública. 6. RECONOCIMIENTOS Los autores desean agradecer a todos los que han ayudado y colaborado con la obtención de los resultados referidos en el presente trabajo. REFERENCIAS 1. Zapico, P.L., Diseño de una prótesis liviana de cadera con la posibilidad de incorporar medicamento., in Tecnologías industriales. 2018, escuela técnica superior de ingenieros industriales (UPM): España. P. 168. 2. Sánchez Causil Jesús, L.R., Andrés pico, Polimetilmetacrilato, in POLIMETILMETACRILATO. 2014, Universidad Pontificia Bolivariana: Facultad de Ingeniería Mecánica. P. 16. 3. Quanjun Cui, M., MS, Mihalko William M., MD, phd, John S. Shields, MD, Michael Ríes, MD y Khaled J. Saleh, MD, msc,FRCS(C) Espaciadores de cemento impregnado de antibiótico para el tratamiento de la infección asociada con artroplastia total de cadera o de rodilla. P. 19. 4. Laget, S., Diseño de Moldes de inyección y prototipado rápido. 2005, Instituto Tecnológico Metalmecánico: Valencia PROTOCOLO DE OBTENCIÓN DE GUÍAS QUIRÚRGICAS CON TECNOLOGÍAS CAD/CAM Carla Pascau Carnesoltas1, Rosany Magaly Denis Echezarreta2, Wilma Marín Páez3, Yaima Contino Matos4 1Centro de Neurociencias de Cuba (CNEURO), Calle 190 entre 25 y 27, Reparto Cubanacán, Municipio Playa, La Habana, Cuba, 2Centro de Investigaciones Médicas Quirúrgicas (CIMEQ), Calle 216 y 11-B, Reparto Siboney, Municipio Playa, La Habana, Cuba, 3Centro de Neurociencias de Cuba (CNEURO), Calle 190 entre 25 y 27, Reparto Cubanacán, Municipio Playa, La Habana, Cuba, 4Centro de Neurociencias de Cuba (CNEURO), Calle 190 entre 25 y 27, Reparto Cubanacán, Municipio Playa, La Habana, Cuba, 1e-mail: carla.pascau@cneuro.edu.cu RESUMEN El tratamiento con implantes dentales representa, en la actualidad, una opción terapéutica muy exitosa en la práctica clínica odontológica. La rehabilitación con implantes, tras la evaluación sistémica y oral del paciente, la determinación del plan de tratamiento y un correcto protocolo quirúrgico y protésico, constituye una visión multidisciplinaria del tratamiento implantológico, agregando cada vez más soluciones y herramientas que ayudan a tomar mejores decisiones, y a conseguir las rehabilitaciones orales más predecibles, seguras y consistentes. El diseño de la férula quirúrgica con las diversas guías permite la inserción de los implantes en longitud, diámetro, inclinación y orientación espacial según las características anatómicas y así mismo posicionar los implantes para soportar las fuerzas axiales. La implantación guiada por férula, pese a su mayor costo, permite alcanzar un resultado terapéutico óptimo, incrementando la calidad del tratamiento en su conjunto. En la actualidad las guías diseñadas por computadora y luego impresas en 3D han demostrado ser dispositivos biomédicos de alto impacto gracias al bajo margen de error que brindan. El objetivo principal de este trabajo fue diseñar un protocolo para la confección de guías utilizando programas de CAD/CAM e impresión 3D para que puedan implementarse en la red de hospitales del Sistema Cubano de Salud. PALABRAS CLAVES: Guía quirúrgica, implantes dentales, planificación digital, CAD/CAM, impresión 3D. PROTOCOL TO OBTAIN SURGICAL GUIDES WITH CAD/CAM TECHNOLOGIES ABSTRACT The treatment with dental implants represents, at present, a very successful therapeutic option in clinical dental practice. The rehabilitation with implants, after the systemic and oral evaluation of the patient, the determination of the treatment plan and a correct surgical and prosthetic protocol, constitutes a multidisciplinary vision of the implant treatment, adding more and more solutions and tools that help make better decisions, achieving the most predictable, safe and consistent oral rehabilitations. The design of the surgical guide with the various guides allows the insertion of the implants in the correct length and diameter, as well as their inclination or spatial orientation according to the anatomical characteristics and positioning the implants to endure the axial forces. The splint-guided implantation, in spite of its higher cost, provides an optimal therapeutic result, increasing the quality of the treatment as a whole. Currently, computer-designed and 3D-printed guides have proven to be high-impact biomedical devices thanks to the low margin of error they provide. The main objective of this research was to design a protocol for making guides using CAD/CAM programs and 3D printing so that they can be implemented in the Cuban Health System hospital network. KEY WORDS: Surgical splint, dental implants, digital planning, CAD/CAM, 3D printing. 1. INTRODUCIÓN En los últimos años, los avances tecnológicos y científicos han revolucionado el mundo de la odontología, debido a la credibilidad alcanzada por la implantología. Desde los inicios de la implantología a principios del siglo XX, las técnicas quirúrgicas y los protocolos prostodóncicos, han sufrido importantes cambios. Actualmente, una de las principales preocupaciones es el conseguir una restauración implanto protésica correcta, no sólo desde un punto de vista protésico, sino también desde el punto de vista biológico y estético [1]. La incorrecta inserción de los implantes puede desencadenar una serie de efectos adversos de forma inmediata y a futuro, como, por ejemplo, problemas de osteointegración [2], [3][4], falta de predictibilidad y éxito a largo plazo [2], mala oclusión, daños a la integridad del hueso y los tejidos blandos circundantes [3], complicaciones asociadas a una higiene deficiente debida a la posición del implante [4] y problemas de estética [2], [3], es por esto que la planificación preoperatoria de la posición de los implantes cobra gran importancia, ya que esta posibilita una mejor coordinación quirúrgica y protésica que ha ido incrementando hasta conseguir resultados funcionales y estéticos muy satisfactorios. Con la aparición de las tecnologías de Diseño Asistido por Computadora y Manufactura Asistida por Computadora (CAD/CAM por sus siglas en inglés) y el desarrollo y evolución de los programas informáticos ha sido posible la captación de información de diferentes fuentes como las tomografías y los escaneos 3D y el procesamiento de los mismos para luego ponerlas a disposición de los especialistas. Los primeros programas inicialmente tenían un papel más de apoyo y asistencia a la visualización de las imágenes radiológicas, actualmente se han perfeccionado y complejizado hasta ser capaces de procesar archivos mediante diversas herramientas para obtener guías para usar como medios complementarios de diagnóstico y en el procedimiento quirúrgico, todo a través de procesos de elaboración virtual [5], [6][4], [7]. Conscientes de la importancia de mejorar los procedimientos quirúrgicos, junto con la precisión en la colocación de los implantes y la exigencia de obtener excelentes resultados estéticos y biológicos, surge a comienzos de la década pasada, una cirugía mínimamente invasiva denominada cirugía guiada asistida por ordenador [1]. 2. GUÍAS QUIRÚRGICAS. TIPOS GUÍAS Guías quirúrgicas La rehabilitación protésica dental implantosoportada es un procedimiento cada vez más empleado mundialmente para tratar el desdentamiento total y parcial debido a sus altas tasas de éxito. La planificación del tratamiento con implantes es uno de los pasos más importantes para el procedimiento implantológico, ya que de esto dependerá la calidad de la predictibilidad clínica del mismo. Una de sus ventajas más valiosas es la elaboración de un diseño claro del resultado final antes de empezar dicho tratamiento. Una vez que se tiene una idea clara de la posición en la que se desea se coloquen los implantes se pasa a la elaboración de una guía quirúrgica, este elemento biomédico es indispensables para llevar a cabo una inserción controlada de los implantes dentales respecto a las estructuras anatómicas, garantizando una futura rehabilitación exitosa. Las férulas quirúrgicas como también se le conoce, es considerada una herramienta estándar en el diagnóstico y planificación de implantes dentales ya que permite transferir la configuración protésica predeterminada a la planificación del implante. Para cumplir con su cometido las guías quirúrgicas deben, en general, poseer propiedades de rigidez, estabilidad y precisión adecuadas para garantizar la exactitud y seguridad durante los procedimientos de inserción de los implantes, idealmente también les corresponde tener incorporados marcadores radiopacos, ser retentivas y estables intraoralmente, confortables, esterilizables y compatibles con la técnica tomográfica [8]. Tipos de guías. Guías quirúrgicas CAD/CAM Las guías quirúrgicas pueden clasificarse de acuerdo con la limitación o restricción que ofrezcan durante el momento de la preparación quirúrgica o de acuerdo con la técnica de fabricación [3], [9]. De acuerdo con la restricción pueden ser no restrictivas, semirrestrictivas o restrictivas. Las no restrictivas le indica al cirujano la posición de los implantes en relación con la prótesis, impide mayor control sobre dirección o profundidad de fresado lo que puede ocasionar errores de angulación, falta de paralelismo o compromiso de estructuras anatómicas [3], [9]. La semirrestrictiva incorpora un tubo guía que corresponde a la fresa inicial de la preparación pero el cirujano deberá continuar a mano alzada con el protocolo quirúrgico lo que también puede ocasionar complicaciones[3], [9]. Las restrictivas limitan las posiciones vestibular o lingual y poseen topes de profundidad lo que lleva a que las preparaciones sean exactas y de acuerdo con la planificación. Las guías restrictivas y semirrestrictivas pueden obtenerse a partir del duplicado de encerados o enfilados diagnósticos, pero también es posible utilizar prótesis dentales prexistentes, si presentan similitud con la proyección protésica propuesta, en cualquier caso se les debe incorporar marcadores radiopacos. [3], [9]. Dependiendo de la técnica de fabricación las guías podrán ser guías clásicas o de laboratorio, o guías diseñadas por computador o CAD-CAM [9]. Las guías clásicas o de laboratorio son las más comunes, en un principio se diseñaron para permitir establecer la relación entre la predeterminación y el reborde óseo sin ser muy precisa, pero ha sufrido múltiples modificaciones como la incorporación de tubos guías en los sitios de las perforaciones en un diámetro que corresponda a la primera fresa, siendo considerada como una guía semirrestrictiva o semiestricta. Su principal ventaja es su bajo costo y facilidad de elaboración, sin embargo no es muy exacta pues es incapaz de garantizar con certeza una buena estabilidad y precisión [9]. Figura 1: Guía quirúrgica de laboratorio. Cortesía de la doctora Rosany Magaly Denis Echezarreta Las guías diseñadas por computadora con programas CAD/CAM son la tendencia mundial en estos momentos. Estas se obtienen en ambientes totalmente digitales y pueden modificarse y adaptarse al sistema de implantes que utilicen los especialistas. No hay limitaciones en cuanto a diseño se refiere, además de cumplir con los requerimientos anatómico para garantizar el éxito de la cirugía se pueden personalizar otros aspectos físicos, como el grosor de las paredes de la férula, los cilindros que sirven de guía y los métodos de acople entre los elementos que la conforman. Mientras que las guías clásicas se fabrican en un reducido grupo de materiales, las férulas diseñadas por computadora cuentan con un vasto catálogo de resinas biocompatibles que cada día se expande más. Varios fabricantes de impresoras 3D han desarrollado sus propias fórmulas que brindan estabilidad y dureza y que, al ser utilizadas con sus tecnologías, prometen dar como resultado modelos muy fieles al diseño digital original. Uso de las tecnologías en el diseño de guías quirúrgicas Durante muchos años la planificación del tratamiento con implantes dentales ha sido común, habitualmente se realizaba tomando como base radiografías periapicales y ortopantomografías, el criterio clínico certero adquirido por la experiencia profesional y el examen de la cavidad intraoral del paciente, sin embargo, con el desarrollo de la tomografía axial computarizada y el surgimiento de programas capaces de interpretar las imágenes obtenidas para obtener modelos tridimensionales con los que interactuar y la llegada de los escáner 3D permitió el surgimiento del concepto de “Cirugía implantológica guiada por computadora”[9]. A día de hoy existen multitud de programas informáticos que facilitan la planificación de implantes digitalmente, luego la relación entre la posición de este y la plantilla radiográfica se utiliza para fabricar una guía quirúrgica estereolitográfica [10]. El diseño y la fabricación asistida por computadora (CAD/CAM) son herramientas poderosas que permiten la total personalización de las guías quirúrgicas atendiendo al más mínimo detalle, garantizando una alta tasa de éxito. Los programas de diseño mecánico de CAD/CAM también han resultado ser muy útiles, en ellos es posible diseñar los cilindros de las guías y también se pueden llevar a cabo estudios para simular el comportamiento de las guías bajo diferentes tipos de fuerza y como impactan estas sobre su integridad estructural mediante estudios realizados por el Método de Elementos Finitos (MEF), esto garantiza que los elementos fabricados mantendrán su integridad al estar sometidos al ambiente en el que serán empleados. Una vez concluido todo el diseño de la guía es momento de imprimirla. La impresión 3D ha resultado ser un método viable para la fabricación de los elementos que conforman las guías quirúrgicas. La estereolitografía es una técnica muy utilizada para producir las férulas, ya que permite obtener impresiones de modelos con gran fidelidad los archivos digitales, es un proceso rápido y muy preciso [9], [10]. Por otra parte los cilindros que sirven para guiar al especialista se pueden fabricar utilizando la fusión por láser selectiva, esto permite obtener modelos de materiales resistentes (acero 316 L, titanio) capaces de soportar el roce de las fresas utilizadas en el área de odontología. La aplicación de tecnologías 3D, se considera lo más novedoso y revolucionario ocurrido en estos momentos. En Cuba, existe ya alguna evidencia clínica que demuestran las ventajas de estas técnicas aplicadas en la medicina. 3. PROTOCOLO DE OBTENCIÓN DE GUÍAS QUIRÚRGICAS Cilindros guía Los cilindros de las guías quirúrgicas deben guiar efectivamente las fresas de los micromotores sin comprometer la integridad física de la férula, es por esto que, por lo general, se fabrican en metales resistentes y biocompatibles y van acopladas a las mismas por diversos métodos mecánicos y/o químicos. Para una primera etapa de desarrollo se diseñaron 4 versiones de guías quirúrgicas. A continuación se presentan los modelos con una breve caracterización, los diámetros interiores y exteriores se ajustarán al sistema de implantes que se utilicen en los hospitales en los que se implemente esta tecnología. Versión 1. Guía de 3.2 mm de altura, pared exterior completamente lisa y un espesor de pared constante de 0.4 mm (Fig. 1). Figura 2: Primera propuesta de cilindro guía. Versión 2. Guía de 3.2 mm de altura. El diseño cuenta con 3 hileras de crestas con un perfil en forma rectangular de 0.2 mm de ancho y 0.1 mm de altura, con un espacio entre cada una de 0.2 mm. El espesor de pared en la zona lisa de la guía es de 0.4 mm y en las crestas aumenta hasta 0.5 mm (Fig. 2). Figura 3: Segunda propuesta de cilindro guía. Versión 3. Guía de 3.2 mm de altura. El diseño cuenta con 2 guías con un perfil en forma rectangular de 0.8 mm de ancho y 0.4 mm de altura, ubicadas diametralmente en los laterales del cilindro. El espesor de pared en la zona lisa de la guía es de 0.4 mm y en las guías retentoras aumenta hasta 0.8 mm (Fig. 3). Figura 4: Tercera propuesta de cilindro guía. Versión 4. Guía de 3.2 mm de altura. El diseño cuenta con 3 hileras de crestas con un perfil en forma triangular con un ángulo en el pico externo de 30° y una altura variable para cada uno, la primera cresta de abajo tiene una altura de 0.1 mm, la segunda 0.15 mm y la tercera 0.2 mm con un espacio entre cada una de 0.2 mm. El espesor de pared en la zona lisa de la guía es de 0.4 mm y en las crestas aumenta hasta 0.5 mm, 0.55 mm y 0.6 mm respectivamente (Fig. 4). Figura 5: Cuarta propuesta de cilindro guía. Análisis por el Método de Elementos Finitos Es de vital importancia que los cilindros que forman parte de la guía quirúrgica resistan la fricción que va a ejercer la fresa sobre ellos. Para validar el diseño y la elección del material que se proponen se realizó un análisis estructural por el Método de Elementos Finitos (MEF), este permite visualizar cómo se comportan ante la fricción que se produce entre las fresas y estos. En el programa de diseño mecánico SolidWorks 2018 se simuló la interacción entre una fresa de tungsteno y los cilindros de titanio aleación Ti6Al4V. Se fijaron las paredes exteriores y se aplicó definió que la fresa giraría ejerciendo fuerza centrífuga sobre las paredes del cilindro. Al analizar el Diagrama de Tensiones de Von Mises se puede apreciar que los cilindros pueden soportar adecuadamente las fuerzas a las que están sometidos. Figura 6: Diagrama de Tensiones de Von Mises. Procedimiento para obtener la férula Las férulas en la que se posicionarán las guías se confeccionan para cada paciente, por lo tanto primero se deberá obtener un modelo de la arcada sobre la cual diseñar e imágenes tomográficas para hacer la planificación de la cirugía. Primeramente se deben obtener las imágenes médicas mediante tomografía axial computarizada. Estas luego serán procesadas en el programa de visualización y edición 3D Slicer, este software gratuito permitirá visualizar en todos los ejes la calidad y disponibilidad del hueso, el espacio disponible entre las dientes y otros requerimientos que, con la ayuda de un especialista en implantología, permitirán obtener la planificación protésica ideal para el paciente. Una vez se llegue a un consenso se ubicará un cilindro en formato STL previamente importado con las dimensiones adecuadas y se desplazará hasta la posición definida. Esto servirá para hacer el corte en la férula donde se posicionará el cilindro guía. El modelo 3D que se aprecia en 3D Slicer es una renderización basada en las imágenes DICOM del paciente y por lo tanto no se pueden utilizar en otros programas de diseño, por esta razón es necesario importar al área de trabajo un modelo en formato STL de las arcadas del paciente. Para esto el protesista debe obtener las impresiones del paciente por el método tradicional, utilizando cubetas y alginato, resultando en un modelo de yeso que posteriormente será escaneando con el escáner 3D del fabricante 3Shape disponible en el centro. Una vez digitalizado el modelo se obtiene algo similar a lo que se muestra en la Fig. 5, un modelo hueco en formato STL con algunos agujeros y fallas en la malla. Figura 7: Archivo digital producto del escaneo 3D Estos modelos son procesados con el software Meshmixer, pensado para la edición de mallas para su posterior impresión. Efectuados todos los arreglos pertinentes se llega a un resultado más limpio, con únicamente los elementos necesarios e indispensables para facilitar el diseño de la férula (Fig. 6). Figura 8: Modelo de la arcada del paciente editado. Este modelo es importado al 3D Slicer y con las herramientas disponibles en el programa se alinea con el render 3D hasta lograr una coincidencia de al menos el 98%. Al superponer ambas estructuras la planificación quedará reflejada también en el modelo STL, entonces se exportarán en este mismo formato el cilindro y la arcada del paciente, es necesario revisar que se guardó la relación entre ambos elementos. Concluido este proceso se pasa al software de diseño FreeCad y se obtiene por varios procesos un sólido en formato STEP. Con el modelo ya en un formato editable comienza a diseñar como tal el dispositivo. Se importa al software de diseño SolidWorks la arcada del paciente con la planificación incluida y se trazan los croquis necesarios para obtener un sólido y con una operación booleana de resta se obtiene el modelo definitivo de la férula. Una vez realizadas todas las operaciones se pasa al ensamblaje para corroborar que los elementos de acoplan correctamente entre sí (Fig. 7). Los componentes luego son impresos utilizando en el caso de la férula una resina fotopolimerizable biocompatible específicamente formulada para guías quirúrgicas y para los cilindros se usan polvos metálicos de acero 316L o la aleación de titanio Ti6Al4V. Figura 9: Ensamblaje digital de la guía quirúrgica. 4. CONCLUSIONES El procedimiento que se propone es una alternativa que permitirá mejorar la calidad y el éxito de la implantología oral en el país haciendo uso de las tecnologías CAD/CAM y la impresión 3D, métodos rápidos y confiable que actualmente lideran el mercado de la manufactura moderna y que permitirán mantener una disponibilidad de los productos de acuerdo a la demanda de los hospitales. Además, los cilindros que sirven de guía para las fresas podrán adaptar de acuerdo a las necesidades de las instituciones de salud cubanas, esto gracias a que se pueden editar las medidas en el diseño para trabajar con los sistemas de implantes que se utilicen en los servicios de implantología. RECONOCIMIENTOS Los autores desean agradecer al Centro de Investigaciones Médicas Quirúrgicas (CIMEQ) y al Centro de Neurociencias de Cuba (CNEURO). REFERENCIAS [1] L. Bragança, J. P. Mourelo, F. D. Prada, J. L. Castro, y A. Anache, “Rehabilitación fija maxilar con implantes mediante cirugía guiada asistida por ordenador”, Av Odontoestomatol, vol. 33, núm. 5. pp. 197–203, 2017. [2] W. Geng, C. Liu, Y. Su, J. Li, y Y. Zhou, “Accuracy of different types of computer-aided design/ computer-aided manufacturing surgical guides for dental implant placement”, Int. J. Clin. Exp. Med., vol. 8, núm. 6, pp. 8442–8449, 2015. [3] A. Afshari et al., “Free-Hand versus Surgical Guide Implant Placement”, Adv. Mater. Sci. Eng., vol. 2022, 2022, doi: 10.1155/2022/6491134. [4] G. Kalaivani, V. Balaji, D. Manikandan, y G. Rohini, “Expectation and reality of guided implant surgery protocol using computer-assisted static and dynamic navigation system at present scenario: Evidence-based literature review”, J. Indian Soc. Periodontol., vol. 24, núm. 5, p. 398, 2020, doi: 10.4103/jisp.jisp_92_20. [5] “UNIVERSIDAD NACIONAL DE CHIMBORAZO CARRERA DE ODONTOLOGÍA Proyecto de Investigación previo a la obtención del título de Odontólogo TEMA : ‘ TECNOLOGÍA CAD / CAM EN PRÓTESIS TOTAL REMOVIBLE ODONTOLÓGICA ’ Autor : Giovanny Andrés Morales Luzuriaga Tutor : D”, 2022. [6] N. A. Oliveira, “CIRUGIA GUIADA EN IMPLANTOLOGÍA ORAL Tesis Doctoral”, 2019. [7] T. Joda, M. Ferrari, G. O. Gallucci, J. G. Wittneben, y U. Brägger, “Digital technology in fixed implant prosthodontics”, Periodontol. 2000, vol. 73, núm. 1, pp. 178–192, 2017, doi: 10.1111/prd.12164. [8] R. A. Boyce y G. Klemons, “Treatment Planning for Restorative Implantology”, Dent. Clin. North Am., vol. 59, núm. 2, pp. 291–304, 2015, doi: 10.1016/j.cden.2014.10.009. [9] J. Henao et al., “Elaboración de un nuevo tipo de guías quirúrgicas para implantes dentales mediante impresión 3D”, Inf. Técnico, vol. 82, núm. 1, p. 78, 2018, doi: 10.23850/22565035.1005. [10] C. Melej G., C. Ibáñez N., y D. Ilic H., “Planificación quirúrgica digital: guía quirúrgica semi- estricta e implantes alternativos al sistema original TT - Digital surgical planning”, Rev. Fund. Juan Jose Carraro, vol. 16, núm. 34, pp. 4–8, 2011, [En línea]. Disponible en: http://www.fundacioncarraro.org/descarga/revista34_art1.pdf Sobre los autores Carla Pascau Carnesoltas: Reserva científica del Centro de Neurociencias de Cuba, Ingeniera Biomédica (CNEURO). Rosany Magaly Denis Echezarreta: Doctora Especialista de II grado en prótesis estomatológicas del Centro de Investigaciones Médicas Quirúrgicas (CIMEQ). Profesora Asistente. Investigadora Auxiliar. Máster en Ciencias. Wilma Marín Páez: Jefa del Grupo de Soluciones Dentales del Centro de Neurociencias de Cuba (CNEURO). Profesora Asistente. Máster en Atenciones de Urgencias Estomatológicas, Máster en Odontogeriatría. Yaima Contino Matos: Jefa del Departamento de Organización de la Producción del Centro de Neurociencias de Cuba (CNEURO). Profesora Asistente. Ingeniera en Automática. 1 BIOMECÁNICA DE IMPLANTES DENTALES Autores: Jesús E. González1,2, Amanda Robau-Porrua3, Eugenia Araneda Hernández3 1Departamento de biomateriales cerámicos y metálicos, Centro de Biomateriales, Universidad de la Habana, Cuba. jesus.gonzalez@biomat.uh.cu 2Grupo de Biomecánica, Facultad de Ingeniería Mecánica, Universidad Tecnológica de La Habana José Antonio Echeverría. 3Departamento de Metalurgia, Facultad de Ingeniería, Universidad de Concepción, Chile. arobau@udec.cl, euaraned@udec.cl RESUMEN El éxito clínico de los implantes dentales endo-óseos se encuentra relacionado con su comportamiento biomecánico. En el trabajo se presentan los resultados de una revisión bibliográfica sobre el comportamiento biomecánico de implantes dentales, en la que se hace énfasis en los factores que mayor influencia muestran sobre los niveles de esfuerzos y deformaciones generados en el hueso peri-implantar, así como en los micro-movimientos de los implantes. Se encontró que existe una relación directa entre el diseño, tanto a nivel macro como micro, de los implantes sobre su biomecánica. Entre los factores que poseen mayor influencia se encuentran la forma, diámetro y longitud de los implantes, así como los parámetros de la rosca: perfil, paso, ancho y altura del filete. Además, se determinó que los resultados de la simulación por el Método de Elementos Finitos permiten mejorar el diseño de los implantes dentales. Otros factores que también influyen sobre el comportamiento biomecánico de los implantes dentales son la magnitud y dirección de las cargas, la calidad ósea del maxilar y el tiempo de aplicación de la carga (inmediata o retardada). PALABRAS CLAVES: Implantes dentales, biomecánica, esfuerzos, deformaciones, diseño ABSTRACT The clinical success of endosseous dental implants is related to their biomechanical behavior. The paper presents the results of a bibliographic review on the biomechanical behavior of dental implants, in which emphasis is placed on the factors that show the greatest influence on the levels of stress and deformation generated in the peri-implant bone, as well as on the the micro-movements of the implants. It was found that there is a direct relationship between the design, both at the macro and micro levels, of the implants on their biomechanics. Among the factors that have the greatest influence are the shape, diameter and length of the implants, as well as the thread parameters: profile, pitch, width and height of the thread. In addition, it was determined that the results of the simulation by the Finite Element Method allow to improve the design of dental implants. Other factors that also influence the biomechanical behavior of dental implants are the magnitude and direction of the loads, the bone quality of the maxilla and the time of application of the load (immediate or delayed). KEYWORDS: Dental implants, biomechanic, stresses, strains, design 1. INTRODUCCIÓN El reemplazo de piezas dentales perdidas o deterioradas sustituidas por dientes artificiales es uno de los retos en la implantología [1]. Los avances constantes en este campo han favorecido el perfeccionamiento y obtención de implantes dentales, componentes protésicos, así como, los procedimientos quirúrgicos, bajo mayores exigencias implantológicas, mejorando con ello las condiciones de recepción de los implantes y su correcta oseointegración. Un suceso que marco la implantología fue el descubrimiento del fenómeno de la oseointegración por el cirujano Per-Ingvar Brånemark en 1952, posibilitando el desarrollo de implantes dentales osteointegrados [2]. 2 En la actualidad, una de las soluciones más efectivas para reemplazar y restaurar la función masticatoria son los implantes dentales. Esto ha facilitado el desarrollo de una amplia gama de implantes que sustituyen la raíz del diente perdido, disponibles en una variedad de plataformas, superficies, porosidad, interfaces, diámetros, longitudes, y diseños de su arquitectura. La utilización de implantes dentales, recientemente, se ha incrementado significativamente, mejorando la calidad de vida de los pacientes. Aproximadamente 5,5 millones de implantes fueron colocados solo en los Estados Unidos, en 2006, mientras que, en 2018, ascendió a aproximadamente cinco mil millones dólares el mercado de implantes dentales [3, 4]. Los implantes dentales son un método prometedor para sustituir un diente o varios faltantes, o en pacientes completamente desdentados como soporte de prótesis removibles. Además, son un ejemplo atípico del resultado del trabajo de múltiples disciplinas como la ingeniería, la ciencia y las tecnologías de modificación de superficies. La vida útil y el éxito de los implantes dentales dependen en gran medida de las características de la superficie. Es sabido que el diseño geométrico contribuye a la estabilidad mecánica de un implante dental, sin embargo, las propiedades superficiales de estos, también son de vital importancia para la tasa de osteointegración [5]. La calidad del implante se encuentra relacionada con tres aspectos específicos: características físico-químicas, topográficas y mecánicas, estos rasgos se encuentran relativamente interconectados y cualquier mejora en estos puede afectar a otros [3, 6]. Los implantes dentales presentan diversos tamaños, formas, así como, se utilizan diferentes materiales con propiedades de superficies distintas. Las características de sus superficies posibilitan la osteointegración precoz, haciendo loa implantes dentales duraderos y de gran éxito clínico [5]. Anualmente, el número de cirugías con implantes dentales ha aumentado, las expectativas de los odontólogos y pacientes se eleva con la aspiración de establecer un tratamiento con implantes de rápida curación, con estabilidad a largo plazo, utilizando implantes de colocación inmediata y de carga inmediata [7, 8]. Por lo anteriormente expuesto, las investigaciones recientes de los implantes biomédicos cada vez más están orientadas a las condiciones de proceso, durabilidad, biocompatibilidad, osteointegración, etc. cuestiones claves en la obtención y desarrollo de los implantes dentales modernos [3]. El tratamiento con implantes dentales requiere de un proceso minucioso de planeación, una fabricación detallada de todos sus componentes y una colocación precisa de los mismos, a fin de lograr un tratamiento perfectamente funcional [9]. La ingeniería del diseño de implantes está basada en muchos factores que se encuentran interrelacionados, como la geometría del implante, propiedades mecánicas, su estabilidad inicial y, a largo plazo, así como, el comportamiento de la interfaz tejido-implante y su estabilidad con diferentes tipos de prótesis dentales [10]. En la década de 1960, los implantes comtemplaron un gran avance con el diseño en espiral básico [11], se introdujo un implante de cuchilla, el cual, permite se colocado tanto en el maxilar, como, en la mandíbula. A partir del descubrimiento de la oseointegración, hallando que el titanio se integra con el hueso, la historia de los implantes dentales se revolucionó [2], dado que este concepto de osteointegración supuso un momento determinante en el éxito clínico de los implantes dentales. El primer implante de tipo tornillo se desarrolló en 1963 y actualmente se conoce como implante roscado. El diseño de los implantes dentales puede clasificarse en macrodiseño y microdiseño. El macrodiseño incluye la geometría y dimensiones del implante, así como, el diseño de la rosca (perfil, altura y ancho del filete y paso de la rosca, y el ángulo de la hélice del hilo de la rosca), mientras que, el microdiseño se relaciona directamente con las características superficiales de los implantes [5, 12]. Los diseños del cuerpo del implante dental pueden definirse como cilíndricos, tipo tornillo, escalonados, ajuste a presión, o combinación de esas características [13, 14]. Generalmente, los implantes dentales se diseñan garantizando una elevada resistencia en la interfase hueso-implante antes de la oseointegración 3 (estabilidad primaria), evitando complicaciones bacterianas, en función de las condiciones de cargas aplicadas y/o magnitud. Las últimas tendencias de diseño asistido por computadora y de tecnologías de fabricación mediante manufactura aditiva [15], así como, el análisis mediante el método de elementos finitos (MEF) [16-18] son alternativas empleadas para mejorar el diseño y fabricación de los implantes dentales. Se han utilizado modelos tridimensionales computarizados para predecir características de la distribución de tensiones y deformaciones en el hueso periimplantar. Los diseños de los implantes están influenciados tanto por las dimensiones del implante como por la unión biomecánica formada entre el hueso y el implante. 2. BIOMECÁNICA DE LOS IMPLANTES DENTALES Para lograr un tratamiento satisfactorio con implantes dentales oseointegrados, uno de los factores más importantes a considerar es su comportamiento biomecánico. Es por ello, que es necesario el correcto control de la carga biomecánica en los implantes dentales para lograr a largo plazo su éxito clínico. Existen marcadas diferencias estructurales entre las piezas dentales naturales y los implantes, teniendo un impacto importante en la transmisión de las cargas y en el resultado clínico. A largo plazo, las tensiones mecánicas y presiones ejercidas por la carga funcional tienen influencia en la remodelación ósea [19]. Es sabido que a través de correctos estímulos mecánicos se genera un adecuado proceso de remodelación ósea. Incluso después de la osteointegración puede existir un riesgo de reabsorción del hueso periimplantario por condiciones de sobrecarga o subcarga, así como debido a una infección bacteriana [17, 20]. La reabsorción ósea provoca una pérdida de densidad ósea en el hueso maxilar pudiendo ocasionar fallas en el implante dental [21]. En varias investigaciones biomecánicas, se ha encontrado en el hueso cortical periimplantario, altas concentraciones de tensiones, principalmente alrededor del cuello de los implantes dentales [17, 18]. En los implantes dentales los elevados picos de tensión se asocian a niveles altos de pérdida de hueso crestal [22]. Varios estudios ha revelado que para el éxito a largo plazo de los implantes dentales es esencial el mantenimiento de niveles de hueso crestal periimplantario [23, 24]. Una sobrecarga puede ser el resultado de una distribución ineficaz de la tensión causada por la fuerza oclusal, por el diseño del implante o colocación inadecuada. La ubicación de las cargas trasmitidas y el diseño final de la prótesis tienen una influencia significativa en la distribución de cargas en los implantes y los niveles de deformaciones generadas en el hueso periimplantar. Generalmente, para limitar la sobrecarga en el implante son sugeridos modificaciones en la ubicación de la corona e inclinación de la cúspide [25]. Según Cehreli et al., la magnitud de las deformaciones es incrementada por la carga de compensación, en comparación con la carga axial [26]. Además, examinaron la ubicación del implante, la angulación, el diseño de la prótesis y cómo se distribuye las cargas alrededor de los implantes concluyendo que es un fenómeno multifactorial. [25]. El diseño y características superficiales del implante, las propiedades mecánicas del mismo y la prótesis, el tipo de carga aplicada, la naturaleza de contacto hueso-implante, así como, la cantidad y calidad del hueso circundante son factores biomecánicos que presentan mayor influencia en la trasmisión de cargas al hueso periimplantario [22]. El incremento del área de contacto hueso-implante, generalmente, disminuye los picos de tensión en el hueso periimplantario, mejorando la distribución del mismo [18, 27]. Durante el proceso de remodelación ósea y estabilización del hueso, un papel importante en la transmisión de las cargas son las caracteristicas del implante. Tanto el diámetro como la longitud del implante son factores determinantes para conseguir la distribución de esfuerzos apropiada en el hueso [19, 28]. Según Xi Ding et. al., el aumento del diámetro, la longitud del implante y los parámetros de la rosca (tipo, paso y altura del perfil) influyen en la disminucion de los esfuerzos y deformaciones de la cresta alveolar [28]. No obstante, la mayor influencia sobre la carga transmitida al hueso periimplantar la presenta el aumento del diámetro [17]. 4 Valores bajos de cargas (subcarga) en el hueso pueden provocar debilitamiento por desuso y por consiguiente pérdida ósea en el maxilar. La subcarga, generalmente, se considera que es generada por el apantallamiento de tensiones, razón para la reabsorción ósea. Cuando el módulo elásticidad del implante dental metálico es significativamente mayor que el del hueso maxilar, en algunos casos es observado un apantallamiento de tensiones, dado que la transferencia de tensión al hueso periimplantario presenta niveles bajos. Este evento, provoca circunstancias donde, habitualmente, el implante metálico se afloja y desprende del hueso [29]. Durante el funcionamiento de los implantes dentales, estos están expuestos a diversas magnitudes y direcciones de carga [25]. Debido a que, una de las principales funciones de los implantes dentales es la transmisión de cargas al tejidos óseo que lo rodea, en el diseño del implantes dentales, el objetivo es lograr la disipación y distribución de las cargas biomecánicas optimizando la función de la prótesis soportada por implantes [25, 30]. En los implantes, las cargas aplicadas en la dirección axial son distribuidas a lo largo de su longitud; sin embargo, los valores máximos se encuentran localizados en el tercio crestal del implante, disminuyendo gradualmente su magnitud en la dirección de la zona apical [19]. Para el éxito clínico de los implantes son determinantes la eficacia y los mecanismos de transferencia de fuerzas al hueso peri-implantar. Para una mejor comprensión, de la biomecánica, se requiere entender fundamentos del diseño de los implantes, implementando conceptos de biomecánica en la atención al paciente [31]. Fig. 1. Diseños de implantes dentales. (a) Implantes cilíndricos, (b) Implantes cónicos (Catálogo de Proclinic® SA, 2022) [32] Hoy en día, la mayoría de los implantes presentan un diseño roscado (Fig. 1), con el objetivo de aumentar el área contacto aproximadamente entre un 30-50%, en comparación con un implante cilíndrico no roscado. Como ha sido mencionado con anterioridad, el diseño roscado facilita el autorroscado, fomenta la estabilidad primaria, transforma las cargas oclusales en cargas de compresión más beneficiosas y favorece la transferencia de tensiones en la interfaz hueso-implante [25]. En la implantación inmediata son utilizados los implantes de tornillo cónico (Fig. 1, b), presentando una mayor estabilidad primaria en comparación con los tipos de tornillos cilíndricos rectos (Fig. 1, a) [33]. Además, muchos sistemas de implantes dentales están diseñados con un collar de implante provisto de micro ranuras/roscas. Este collar micro- ranurado/roscado disminuye la reabsorción crestal y mantiene el nivel del hueso marginal [34]. Se ha planteado la posibilidad de que las microranuras/roscas incrementan las tensiones de compresión y disminuyen los esfuerzos cortantes en el área crestal [35]. Para el cuerpo del implante, los diseños de rosca en V estándar son los más comunes, rosca cuadrada, rosca de contrafuerte y trapecial [12]. Una forma de (a) (b) 5 rosca específica da como resultado diferentes direcciones de cargas en la interfaz hueso-implante, a partir, de las transferencias de las cargas del implante al hueso maxilar. 3. ESTABILIDAD DE LOS IMPLANTES DENTALES En el comportamiento biomecánico de los implantes dentales, uno de los factores importantes es su estabilidad. Esta se puede dividir en estabilidad primaria, estabilidad secundaria y estabilidad general, esta última es resultado de la combinación de las dos primeras (Fig. 2) [8]. Estabilidad primaria La estabilidad primaria se define como la estabilidad biométrica, una vez implantado el implante se considera un momento crítico que determina a largo plazo, el éxito de los implantes [8, 36]. Los micromovimientos del implante en relación con el hueso [37], puede influir en la remodelación ósea y la osteointegración [8, 37]. Los micromovimientos no deben exceder los 50-150 μm, así se evita la encapsulación de tejido fibroso no mineralizado [38]. Técnicas quirúrgicas emplean un tamaño insuficiente del agujero de colocación del implante, con el objetivo de asegurar la estabilidad primaria, debido a que, una alta estabilidad asegura una alta resistencia del implante al micromovimiento [39]. Esto conlleva a una condición de precarga, donde, existe compresión ósea en la interfaz implante-hueso. Parámetros geométricos adecuados del implante sumados a una alta densidad ósea, impulsan el nivel de bloqueo mecánico entre el implante y el hueso colindante influyendo en el éxito de la implantación. Fig. 2. (a) Estabilidad primaria en el momento de la colocación del implante, (b) Estabilidad secundaria creada por la formación de hueso nuevo, (c) Estabilidad general alrededor de las cuatro semanas después de la instalación del implante [40]. Estabilidad secundaria La presencia de la estabilidad secundaria comienza con el crecimiento de hueso nuevo sobre la superficie del implante, uniendo biológicamente ambas partes [8, 41]. Una vez realizada la instalación del implante, se generan espacios vacíos en el hueso trabecular en contacto con el implante insertado quirúrgicamente. Estos vacíos se llenan de sangre formando un coágulo sanguíneo, caracterizado por la presencia de trombocitos, eritrocitos, neutrófilos y monocitos/macrófagos en una red de fibrina [41], lo que trae como consecuencia la formación de tejido de granulación primitivo derivado de estructuras vasculares (a) (b) (c) 6 proliferantes y células mesenquimales indiferenciadas [42]. Después de esta respuesta inicial de la herida, se inicia el proceso de formación de hueso. Existen dos tipos de osteogénesis periimplantaria: (1) donde el hueso es formado a partir del tejido óseo huésped hacia la superficie del implante (osteogénesis a distancia), (2) donde el hueso es depositado desde la superficie del implante hacia el hueso en curación (osteogénesis de contacto) [43]. Esta última, se considera que sucede en la fase temprana de la cicatrización de la herida, a partir de la generación de hueso recién formado emergido de la superficie del implante. Luego, es seguido de la osteogénesis a distancia donde el hueso tejido que se extiende desde el hueso antiguo hasta el tejido provisional construye un puente hacia la superficie del implante. Finalmente, cuando se alcanza cierto grosor del hueso, seré formado hueso con fibras paralelas, seguido de un depósito de hueso laminar que rodea múltiples estructuras osteónicas primarias en la interfaz implante-hueso [42]. Esta serie de transformaciones incrementarán el contacto hueso-implante contribuyendo a mejorar la estabilidad secundaria. Estabilidad general La estabilidad general de un implante dental surge a partir de la combinación de estabilidad primaria, que disminuye con el tiempo, y la estabilidad secundaria, que incrementa con el tiempo, [8, 44]. La estabilidad primaria del implante decrece durante la fase de cicatrización temprana (Fig. 2, a), produciendo una creación excesiva de microgrietas y necrosis ósea debido al procedimiento de perforación, así como, la compresión del implante en las paredes del agujero creado por el mismo, lo que desencadenará la reabsorción ósea [45]. En estos procesos, la apoptosis de los osteocitos proporciona una parte vital de los mecanismos de activación o señalización mediante los cuales los osteoclastos se dirigen a la zona afectada del hueso después de una lesión de la matriz inducida por fatiga [46]. Dicha resorción ósea mediada por células y posterior aposición ósea desde la pared ósea prístina hacia la superficie del implante han sido probadas teóricamente [40] y experimentalmente [47]. El área reabsorbida se verá afectada por el hueso recién formado, a medida que pasa el tiempo, finalmente restablecerá el contacto con la interfaz del implante, remodelando varias veces a una configuración laminar que soporta el implante a lo largo de su vida útil [47]. Esta teoría anteriormente mencionada, no solo confirma que la disminución transitoria de la estabilidad general del implante comúnmente se observa 3-4 semanas después de la colocación del implante a consecuencia de la pérdida de la estabilidad primaria. Sin embargo, también explica las mayores tasas de fracaso clínico de implantes de carga temprana, comparados con implantes de carga inmediata o retardada [8]. 4. SIMULACIÓN MEDIANTE EL MÉTODO DE ELEMENTOS FINITOS (MEF) DEL COMPORTAMIENTO BIOMECÁNICO DE IMPLANTES DENTALES El método de elementos finitos (MEF), conocido como análisis de elementos finitos, FEA (por sus siglas en idioma inglés), ha sido muy exitoso en la implantología para el estudio diferentes diseños de implantes dentales, materiales y aspectos biomecánicos y biológicos relacionados con pacientes, tanto en condiciones de cargas estáticas como cargas dinámicas [48, 49]. Con este método se ha estudiado niveles de tensión y deformación, así como, patrones de distribución generados en el hueso periimplantar, a partir de la influencia de parámetros de diseño (tamaño y forma) de los implantes dentales. Dentro de los parámetros más evaluados se encuentra el diámetro y longitud de los implantes, así como, los parámetros de sus roscas, como el paso, altura y ancho de los filetes. Se ha utilizado para evaluar la influencia de los distintos materiales de los implantes dentales y prótesis. Últimos estudios, han simulado implantes dentales porosos en los que se evalúa el efecto de su porosidad, tanto sobre los esfuerzos y deformaciones en el hueso maxilar como sobre las tensiones y resistencia a la fatiga de los implantes [49-51]. Otros factores que han sido evaluados mediante MEF, son la magnitud y dirección de las cargas, la calidad ósea del maxilar y el tiempo de aplicación de la carga (inmediata o retardada) [51-54]. Se han empleado como herramienta para analizar el proceso de la oseointegración en la interfaz hueso-implante, así como, de la remodelación ósea [19]. 7 Las mejoras en el diseño de implantes dentales gracias a la evaluación del comportamiento biomecánico por FEM, ha permitido la obtención de diseños personalizados, acorde a las necesidades y características del paciente [16, 55, 56]. Diferentes estudios han obtenido como resultado diseños de implantes dentales que generan niveles de esfuerzos y deformaciones en el hueso maxilar mejorando la osteointegración y manteniendo la densidad ósea adecuada. No obstante, en huesos de baja densidad y áreas de las mandíbulas muy cargadas, particularmente, aún este problema no ha sido resuelto por completo [57]. Las nuevas técnicas de ingeniería mejoraran las propiedades mecánicas, biocompatibilidad y eficiencia biomédica de los implantes [58]. Las tecnologías basadas en CAD/CAM se han extendido lentamente por todo el sector médico [59]. En la odontología se utiliza cada vez más las técnicas de fabricación aditiva (AM por sus siglas en idioma inglés) basados en datos de modelos 3D produciendo muestras mediante la técnica capa por capa [3, 60, 61]. Algunos resultados registrados de las simulaciones de implantes dentales Conicidad del implante Según Siegele y Soltesz, la forma del implante dental contribuye en la estabilidad primaria y determina el área superficial donde se transmiten los esfuerzos. Según estudios, entre los implantes dentales cilíndricos y cónicos se ha podido apreciar que los implantes con mayor conicidad presentan menores valores de concentraciones de esfuerzos ante cargas axiales, mientras que, para carga oblicua los mayores esfuerzos Von Mises se han encontrado en los implantes cilíndricos y en implantes con mayor conicidad. Generalmente, estos esfuerzos se concentraron en la zona del cuello y en el primer filete de la rosca. Estudios in vivo (Lee et al., 2010) e in vitro (Elias et al., 2012) han demostrado que los implantes cónicos presentan una mayor estabilidad primaria en comparación con los cilíndricos, asi como, mayor resistencia y fácil colocación en el hueso [34, 39]. Diámetro del implante De acuerdo a los resultados de un estudio mediante el MEF realizado por Himmlova y colaboradores el diámetro del implante tiene mayor influencia en los esfuerzos generados en el hueso peri-implantar que su longitud. Por ejemplo, en ese trabajo encontraron que un incremento del diámetro del implante de 3,6 mm a 4,2 mm produjo una disminución de los esfuerzos en el hueso cortical de un 31 %[66] .En otros trabajos mediante el MEF, también se reporta que los esfuerzos en el hueso cortical decrecen con el incremento del diámetro del implante tanto al recibir cargas en dirección vertical como lateral [67.] No obstante, el incremento del diámetro del implante se encuentra limitado por el ancho del maxilar que le servirá de soporte. Longitud del implante Una de las controversia actuales en cuanto a las tasas de éxito y fracaso de los implantes se relaciona con su longitud. Los implantes largos brindan mayor estabilidad recién colocados por su mayor superficie de contacto con el hueso, sin embargo no siempre es posible usarlos, en ocasiones, es necesario colocar injertos óseos previo a la implantación. Otros autores defienden el uso de implantes cortos por requerir menos trabajo y desgaste en el hueso para su colocación [28]. Diversos investigadores han simulado implantes desde 8 a 13 mm de longitud, obteniendo como resultado que los implantes de mayor longitud pueden presentar un mejor comportamiento ante carga axial, mientras que, mayores valores de esfuerzos se obtuvieron para los implantes más cortos. 8 En los resultados de un estudio clínico, Misch, expone que los implantes cortos presentan una relación corona-implante mayor que los implantes largos, aumentando el brazo de palanca, además, tienden a colocarse donde se reciben mayores fuerzas oclusales y donde la densidad de hueso es menor. Estos son factores de riesgo relacionado con las mayores tasas de fracasos de los implantes cortos [25, 31]. Paso y ancho de rosca Como anteriormente se mencionó, buenos resultados clínicos y de transmisión de esfuerzos se consiguen con una macrogeometría roscada debido al aumento del contacto superficial del implante con el hueso receptor, lográndose una mejor fijación o estabilidad inicial. Por otra parte, en cuanto al paso de rosca, se recomienda un ancho de filete entre 0.19 y 0.42 mm. Se ha encontrado que los mejores comportamientos se obtienen al utilizar un paso de rosca entre 1-1,25 mm ante carga axial, mientras que, las concentraciones mayores esfuerzos se registraron en implantes con 1-2 mm de paso de rosca ante cargas oblicuas. Este resultado concuerda con lo reportado por Ao et al. (2010) quienes en un estudio por elementos finitos con distintos perfiles y pasos de rosca, concluyen y recomiendan el uso de un paso de rosca mayor a 0,44 mm con el objetivo de permitir suficiente espacio para el desarrollo de la osteona (unidad funcional fundamental del tejido óseo compacto). [62] En cuanto al ancho del filete de la rosca, estudios ha revelado que el mejor comportamiento se obtiene para con 0,36-0,43 mm de ancho ante carga axial. Los implantes con menor ancho del filete de la rosca concentraron ligeramente mayores esfuerzos en las paredes del cuerpo del implante y menor magnitudes de esfuerzos en la superficie externa de la rosca. El ancho de la rosca es importante porque, al igual que el paso de rosca, aumenta el contacto del implante con el hueso, mejorando la estabilidad del mismo. En este sentido se puede afirmar que un implante cilíndrico sin roscas y de gran diámetro, posee menor área superficial que un implante roscado de menor diámetro [12, 62]. Porosidad Los implantes porosos son una alternativa para desarrollar piezas con un módulo de Young cercano al del tejido óseo y de baja densidad. En los implantes densos puede ocurrir, debido a la diferencia de rigidez entre el hueso y el implante dental, el mencionado “apantallamiento del esfuerzos o tensiones” que se ocasiona porque el metal tiene un módulo de elasticidad considerablemente más alto que el hueso, por lo que, el implante soporta la mayor parte de la carga. El material óseo responde a la tensión remodelándose según el nivel de esfuerzo al que está sometido y este fenómeno hace que el hueso se remodele a un nivel de carga más bajo y su calidad se deteriore. En la literatura consultada se utilizan implantes de titanio poroso con 40 %, 50 %, 60 % y 70 % de porosidad, pero se plantea que la porosidad óptima para implantes dentales en la zona de contacto con el hueso es 40 %, porque posee las mayores ventajas por su buena respuesta a las tensiones a las que son sometidas los implantes dentales [63]. Sin embargo, se debe tener en cuenta que la presencia de la porosidad conduce a una disminución de la resistencia mecánica del material debido a los defectos estructurales y a la concentración de esfuerzos alrededor de los poros. En diferentes estudios se han determinado los esfuerzos y deformaciones producidas en los huesos por implantes porosos. Estos resultados son de gran importancia para evaluar el comportamiento mecánico desarrollado por los modelos de implantes dentales y conocer la influencia de los mismos sobre los huesos. En específico, se ha evaluado el comportamiento biomecanico de implantes dentales, \empleando porosidades entre 0-40 % y su distribución en el implante. Para implantes con 40 % de porosidad se han obtenido esfuerzos y deformaciones en el intervalo permisible. Los modelos de implantes dentales porosos han presentado valores de esfuerzos muy por debajo de límite de fluencia del Ti6Al4V de 825-860 MPa 9 [64]. Es importante obtener valores que estimulen el crecimiento óseo entre 13-26 MPa para el hueso cortical y para el trabecular calidad ósea II entre 3,5 y 8 MPa 5. CONCLUSIONES - El comportamiento biomecánico de los implantes dentales depende del diseño, características estructurales y propiedades mecánicas del sistema hueso-implante. - Para el análisis del comportamiento biomecánico de los implantes dentales se deben tener en cuenta un grupo de parámetros como la longitud, porosidad, conicidad del implante, así como, el paso de la rosca y el ancho del filete. - Dentro de los aspectos a considerar en el desarrollo de implantes dentales se encuentra mejorar su diseño a partir de los resultados de la simulación por Elementos Finitos de su comportamiento biomecánico. - Las cargas oclusales oblicuas tienden a producir mayores concentraciones de esfuerzos tanto en el sistema de implante dental, como en el hueso, por lo cual, deben ser consideradas para optimizar el diseño de estos, con el objetivo de obtener un adecuado comportamiento biomecánico. 6. REFERENCIAS BIBLIOGRÁFICAS 1. Rajput R, Chouhan Z, Sindhu M, Sundararajan S, Chouhan RRS. A brief chronological review of dental implant history. International Dental Journal of Students Research 2016;4:105-7. 2. Brånemark P, Hansson B, Adell R, Breine U, Lindström J, Hallén O, et al. Osseointegrated implants in the treatment of the edentulous jaw. Experience from a 10-year period. Scandinavian Journal of Plastic and Reconstructive surgery Supplementum 1977;16:1-132. 3. Kandavalli SR, Wang Q, Ebrahimi M, Gode C, Djavanroodi F, Attarilar S, et al. A brief review on the evolution of metallic dental implants: history, design, and application. Frontiers in Materials 2021;8:140. 4. [Alani A, Kelleher M, Bishop K. Peri-implantitis. Part 1: Scope of the problem. British Dental Journal 2014;217:281-7. 5. Pandey A, Gupta S, Chandu G, Kumar P, Permar S, Tiwari L. Macrodesign of Dental implant–A review. Journal Of Applied Dental and Medical Sciences 2017;3. 6. Pachauri P, Bathala LR, Sangur R. Techniques for dental implant nanosurface modifications. The journal of advanced prosthodontics 2014;6:498-504. 7. Isidor F. Influence of forces on peri-implant bone. Clin Oral Impl Res 2006;17:8-18. 8. Li J, Jansen JA, Walboomers XF, van den Beucken JJ. Mechanical aspects of dental implants and osseointegration: A narrative review. Journal of the mechanical behavior of biomedical materials 2020;103:103574. 9. Sunil, S., & Dhatrak, P. (2021). Biomechanical consideration of bone density and its influence on stress distribution characteristics of dental implants. Materials Today: Proceedings, 46, 478–483. https://doi.org/10.1016/j.matpr.2020.10.368 10. Ouldyerou, A., Aminallah, L., Merdji, A., Mehboob, A., & Mehboob, H. (2022). Finite element analyses of porous dental implant designs based on 3D printing concept to evaluate biomechanical behaviors of healthy and osteoporotic bones. Mechanics of Advanced Materials and Structures, 1–13. https://doi.org/10.1080/15376494.2022.2053908 11. Kawahara H. From organization of the academy until today. Journal of the Japanese Society for Dental Implants 1978;1:3-10. 12. Abuhussein H, Pagni G, Rebaudi A, Wang H-L. The effect of thread pattern upon implant osseointegration. Clin Oral Impl Res 2010;21:129–36. 13. Sahiwal IG, Woody RD, Benson BW, Guillen GE. Macro design morphology of endoseous dental implants. The Journal of prosthetic dentistry 2002;87:543-51. 14. Nimbalkar S, Dhatrak P, Gherde C, Joshi S. A review article on factors affecting bone loss in dental implants. Materials Today: Proceedings 2021;43:970-6. 10 15. Mandhane SS, More AP. A review: evaluation of design parameters of dental implant abutment. Inter J Emerging Sci Eng 2014;2:64-7. 16. Paracchini L, Barbieri C, Redaelli M, Di Croce D, Vincenzi C, Guarnieri R. Finite Element Analysis of a New Dental Implant Design Optimized for the Desirable Stress Distribution in the Surrounding Bone Region. Prosthesis 2020;2:225-36. 17. Robau-Porrua A, Pérez-Rodríguez Y, Soris-Rodríguez LM, Pérez-Acosta O, González JE. The effect of diameter, length and elastic modulus of a dental implant on stress and strain levels in peri-implant bone: a 3D finite element analysis. Bio-medical materials and engineering 2020;30:541-58. 18. Valera-Jiménez JF, Burgueño-Barris G, Gómez-González S, López-López J, Valmaseda-Castellón E, Fernández-Aguado E. Finite element analysis of narrow dental implants. Dental Materials 2020;36:927-35. 19. Ramakrishnaiah R, Mohammad A, Divakar DD, Kotha SB, Celur SL, Hashem MI, et al. Preliminary fabrication and characterization of electron beam melted Ti–6Al–4V customized dental implant. Saudi journal of biological sciences 2017;24:787-96. 20. Eraslan O, İnan Ö. The effect of thread design on stress distribution in a solid screw implant: a 3D finite element analysis. Clin Oral Invest 2010;14:411-6. 21. Brune A, Stiesch M, Eisenburger M, Greuling A. The effect of different occlusal contact situations on peri-implant bone stress–A contact finite element analysis of indirect axial loading. Materials Science and Engineering: C 2019;99:367-73. 22. Ishak MI, Shafi AA, Khor C, Rahim WFW, Rosli M, Zakaria M, et al. The effect of different dental implant thread profiles on bone stress distribution. AIP Conference Proceedings: AIP Publishing; 2018. p. 020057. 23. Messias A, Nicolau P, Guerra F. Titanium dental implants with different collar design and surface modifications: A systematic review on survival rates and marginal bone levels. Clinical oral implants research 2019;30:20-48. 24. Sanz M, Ivanoff CJ, Weingart D, Wiltfang J, Gahlert M, Cordaro L, et al. Clinical and radiologic outcomes after submerged and transmucosal implant placement with two‐piece implants in the anterior maxilla and mandible: 3‐year results of a randomized controlled clinical trial. Clinical implant dentistry and related research 2015;17:234-46. 25. Steigenga JT, Al-Shammari KF, Nociti FH, Misch CE, Wang H-L. Dental implant design and its relationship to long-term implant success. Implant dentistry 2003;12:306-17. 26. Cehreli M, Iplikçioğlu H, Bilir Ö. The influence of the location of load transfer on strains around implants supporting four unit cement‐retained fixed prostheses: in vitro evaluation of axial versus off‐ set loading. Journal of oral rehabilitation 2002;29:394-400. 27. Xi Ding M, Zhu X-H, Liao S-H, Zhang X-H, Chen H. Implant–Bone Interface Stress Distribution in Immediately Loaded Implants of Different Diameters: A Three-Dimensional Finite Element Analysis. Journal of Prosthodontics 2009;18:393-402. 28. Ding X LS-H, Zhu X-H, Zhang X-H, Zhang L. Effect of Diameter and Length on Stress Distribution of the Alveolar Crest around Immediate Loading Implants. Clinical Implant Dentistry and Related Research 2009; 11 279-87. 29. Tu CC, Tsai P-I, Chen S-Y, Kuo MY-P, Sun J-S, Chang JZ-C. 3D laser-printed porous Ti6Al4V dental implants for compromised bone support. Journal of the Formosan Medical Association 2020;119:420- 9. 30. Misch CE. Contemporary implant dentistry. Implant Dentistry 1999;8:90. 31. Bidez MW, Misch CE. Force transfer in implant dentistry: basic concepts and principles. The Journal of oral implantology 1992;18:264-74. 32. Catálogo de Proclinic® SA, 2022 33. AlFarraj Aldosari A, Anil S, Alasqah M, Al Wazzan KA, Al Jetaily SA, Jansen JA. The influence of implant geometry and surface composition on bone response. Clinical oral implants research 2014;25:500-5. 34. Lee DW, Choi YS, Park KH, Kim CS, Moon IS. Effect of microthread on the maintenance of marginal bone level: a 3‐year prospective study. Clinical oral implants research 2007;18:465-70. 11 35. Hudieb MI, Wakabayashi N, Kasugai S. Magnitude and direction of mechanical stress at the osseointegrated interface of the microthread implant. Journal of periodontology 2011;82:1061-70. 36. Javed F, Romanos GE. The role of primary stability for successful immediate loading of dental implants. A literature review. Journal of dentistry 2010;38:612-20. 37. Anssari Moin D, Hassan B, Wismeijer D. A patient specific biomechanical analysis of custom root analogue implant designs on alveolar bone stress: a finite element study. International journal of dentistry 2016;2016. 38. Brunski JB. Biomechanical factors affecting the bone-dental implant interface. Clinical materials 1992;10:153-201. 39. Elias CN, Rocha FA, Nascimento AL, Coelho PG. Influence of implant shape, surface morphology, surgical technique and bone quality on the primary stability of dental implants. Journal of the mechanical behavior of biomedical materials 2012;16:169-80. 40. Raghavendra S, Wood MC, Taylor TD. Early wound healing around endosseous implants: a review of the literature. International Journal of Oral & Maxillofacial Implants 2005;20. 41. Salvi GE, Bosshardt DD, Lang NP, Abrahamsson I, Berglundh T, Lindhe J, et al. Temporal sequence of hard and soft tissue healing around titanium dental implants. Periodontology 2000 2015;68:135-52. 42. Leonard G, Coelho P, Polyzois I, Stassen L, Claffey N. A study of the bone healing kinetics of plateau versus screw root design titanium dental implants. Clinical Oral Implants Research 2009;20:232-9. 43. Davies JE. Understanding peri‐implant endosseous healing. Journal of dental education 2003;67:932- 49. 44. Bosshardt DD, Chappuis V, Buser D. Osseointegration of titanium, titanium alloy and zirconia dental implants: current knowledge and open questions. Periodontology 2000 2017;73:22-40. 45. Halldin A, Jimbo R, Johansson CB, Wennerberg A, Jacobsson M, Albrektsson T, et al. The effect of static bone strain on implant stability and bone remodeling. Bone 2011;49:783-9. 46. Verborgt O, Gibson GJ, Schaffler MB. Loss of osteocyte integrity in association with microdamage and bone remodeling after fatigue in vivo. Journal of bone and mineral research 2000;15:60-7. 47. Gomes JB, Campos FE, Marin C, Teixeira HS, Bonfante EA, Suzuki M, et al. Implant biomechanical stability variation at early implantation times in vivo: an experimental study in dogs. International Journal of Oral & Maxillofacial Implants 2013;28. 48. Brune A, Stiesch M, Eisenburger M, Greuling A. The effect of different occlusal contact situations on peri-implant bone stress–A contact finite element analysis of indirect axial loading. Materials Science and Engineering: C 2019;99:367-73. 49. Hussein MO, Alruthea MS. Evaluation of Bone–Implant Interface Stress and Strain Using Heterogeneous Mandibular Bone Properties Based on Different Empirical Correlations. European journal of dentistry 2021. 50. Yu T, Gao H, Liu T, Huang Y, Wang C. Effects of immediately static loading on osteointegration and osteogenesis around 3D-printed porous implant: A histological and biomechanical study. Materials Science and Engineering: C 2020;108:110406. 51. Huang C-C, Li M-J, Tsai P-I, Kung P-C, Chen S-Y, Sun J-S, et al. Novel design of additive manufactured hollow porous implants. Dental Materials 2020;36:1437-51. 52. Azcarate-Velázquez F, Castillo-Oyagüe R, Oliveros-López L-G, Torres-Lagares D, Martínez- González Á-J, Pérez-Velasco A, et al. Influence of bone quality on the mechanical interaction between implant and bone: A finite element analysis. Journal of dentistry 2019;88:103161. 53. Pellizzer EP, Lemos CA, Almeida DA, de Souza Batista VE, Júnior JFS, Verri FR. Biomechanical analysis of different implant-abutments interfaces in different bone types: An in silico analysis. Materials Science and Engineering: C 2018;90:645-50. 54. Hussein MO. Biomechanical Analysis of Different Implant-Overdenture Loading Protocols under Dynamic loads. Journal of American Science 2013;9:77-85. 55. Geramizadeh M, Katoozian H, Amid R, Kadkhodazadeh M. Three-dimensional optimization and sensitivity analysis of dental implant thread parameters using finite element analysis. Journal of the Korean Association of Oral and Maxillofacial Surgeons 2018;44:59-65. 12 56. Song K, Wang Z, Lan J, Ma S. Porous structure design and mechanical behavior analysis based on TPMS for customized root analogue implant. Journal of the Mechanical Behavior of Biomedical Materials 2021;115:104222. 57. Chen J, Xiao Z, Yangpeng S, Deng F, Zhiguang Z. Production of inter-connective porous dental implants by computer-aided design and metal three-dimensional printing. Journal of Biomaterials Applications 2020:0885328219899523. 58. Ansarian I, Shaeri M, Ebrahimi M, Minárik P, Bartha K. Microstructure evolution and mechanical behaviour of severely deformed pure titanium through multi directional forging. Journal of Alloys and Compounds 2019;776:83-95. 59. Yang L, Miyanaji H. Ceramic additive manufacturing: a review of current status and challenges. Solid Freeform Fabrication Symposium2017. p. 652-79. 60. Bartolomeu F, Dourado N, Pereira F, Alves N, Miranda G, Silva F. Additive manufactured porous biomaterials targeting orthopedic implants: A suitable combination of mechanical, physical and topological properties. Materials Science and Engineering: C 2020;107:1-31. 61. Bouet G, Cabanettes F, Bidron G, Guignandon A, Peyroche S, Bertrand P, et al. Laser-Based Hybrid Manufacturing of Endosseous Implants: Optimized Titanium Surfaces for Enhancing Osteogenic Differentiation of Human Mesenchymal Stem Cells. ACS Biomater Sci Eng 2019;5:4376-85. 62. Ao J., Li T., Liu Y., Ding Y., Wu G., Hu K., Kong L. Optimal de- sign of thread height and width on an immediately loaded cylinder implant: A finite element analysis. Computers in Biology and Medicine. 40 (8): 681-686, 2010. 63. Pérez Pozo, L., Briones Picheira, F., Lascano Farak, S., & Aguilar Ramírez, C. (2015). Stress analysis of porous titanium dental implants by using the finite element method. Ingeniería y Desarrollo, 33(1), 80–97. https://doi.org/10.14482/inde.33.1.6153 64. Gordillo, J.D.(2010). Estudio de la influencia sobre la microestructura y las propiedades mecánicas de la altura de fabricación para la aleación Ti6Al4V Eli procesada mediante la tecnología aditiva Electron Beam Melting, Universitat Politécnica de Valéncia. 65. Sotomayor, G. (2016). Estudio sobre el diseño mecánico personalizado de implantes dentales con tecnología CAD/CAE in Facultad de Ingeniería. Departamento de Ingeniería Mecánico-Eléctrica, Universidad de Piura: Piura, Perú. 66. Himmlova L, Dostalova T, Kacovsky A, Konvickova S. Influence of implant length and diameter on stress distribution: A finite element analysis. Journal of Prosthetic Dentistry 2004;91:20-5. 67. Geng J-P, Tan KBC, Liu G-R. Application of finite element analysis in implant dentistry: A review of the literature. The Journal of prosthetic dentistry 2001;85:585-98. DISPOSITIVOS BIOMÉDICOS IMPLANTABLES MEDIANTE IMPRESIÓN 3D. AVANCES DEL PROYECTO IMPLANTABLE BIOMEDICAL DEVICES THROUGH 3D PRINTING TECHNOLOGY. STATUS OF PROJECT Carlos Alberto Armand Márquez1; Jesús Eduardo González Ruiz2; Carlos Rafael Figueroa Hernandez3; Saúl Rodríguez Moreno4 1 Centro de Neurociencias de Cuba (CNEURO). Calle 190 e/ 25 y 27 Cubanacán, Playa, La Habana, Cuba 2 Centro de Biomateriales (BIOMAT) – U.H. Ave Universidad e/ G y Ronda, Vedado. La Habana, Cuba. 3 Facultad de Ingeniería Mecánica - Universidad Tecnológica de la Habana José Antonio Echeverría (CUJAE). Calle 114 # 11901 e/ Ciclovía y Rotonda. Marianao, La Habana, Cuba. 4 Empresa NOVECAM S. de R.L. de C.V. Calle Mayorazgo de Luyando #20 Colonia Xoco, Delegación Benito Juárez. CP 03330, México D.F. México. 1 armand@cneuro.edu.cu; 2 jesus.gonzalez@biomat.uh.cu; 3 carlosrfh@tesla.cujae.edu.cu; 4 saul.e.rodriguez@gmail.com RESUMEN Las Prótesis Personalizadas constituyen uno de los grandes avances en los últimos años. Actuar a medida de las patologías de los pacientes, permite adaptarnos con exactitud a la situación de cada individuo. Las principales ventajas que proporcionan es que, debido a mayor precisión, la agresión y el sangrado son menores, lo que hace aumentar considerablemente la eficacia en el acto quirúrgico. En casos donde existen defectos óseos, permite calcular su importancia y programar adecuadamente su reconstrucción. En nuestro país no se realiza este proceder quirúrgico ya que no ha contado con tecnología adecuada para la personalización y fabricación de estos dispositivos, individualmente para cada paciente. Este proyecto viene dado por la necesidad del desarrollo y fabricacion de dispositivos biomédicos implantables, donde se han agrupado distintos dispositivos con déficit en el pais, fundamentalmente personalizados, para la reconstrucción maxilofacial y ortopédica. Se realiza el diseño personalizado a partir del procesamiento de imágenes médicas DICOM, orientado a la fabricacion mediante manufactura aditiva por Impresión 3D, tanto en procesos con tecnología de Fusion Selectiva Laser en metal, como en Esteriolitografia y Modelaje por Deposicion Fundida de polímeros. Se han tenido en cuenta los requerimientos clinicos de la planeacion quirurgica, asi como las normas tecnicas correspondientes. Se ha obtenido el diseño personalizado de estos dispositivos y la fabricación de prototipos funcionales para pruebas de concepto. Este trabajo tiene como objetivo exponer el estado actual del desarrollo de los dispositivos vinculados al Proyecto Dispositivos Biomédicos Personalizados para la Reconstrucción Ósea y Ortopédica mediante Impresión 3D. PALABRAS CLAVES: Implante Personalizado Maxilofacial y Ortopédico; Impresion 3D; ABSTRACT Personalized Prostheses are one of the great advances in recent years. Acting according to the pathologies of patients allows us to adapt exactly to the situation of each individual. The main advantages they provide is that, due to greater precision, aggression and bleeding are less, which considerably increases the efficiency of the surgical act. In cases where there are bone defects, it allows calculating their importance and properly programming their reconstruction. This surgical procedure is not performed in our country, since it has not had adequate technology for the customization and manufacture of these devices, individually for each patient. This project is given by the need for the development and manufacture of implantable biomedical devices, where different devices with deficits in the country have been grouped, fundamentally personalized, for maxillofacial and orthopedic reconstruction. The personalized design is made from the processing of DICOM medical images, oriented to manufacturing through additive manufacturing by 3D Printing, both in processes with Selective Laser Melting technology in metal, as well as in Stereolithography and Modeling by Fused Deposition of polymers. The clinical requirements of surgical planning have been taken into account, as well as the corresponding technical standards. The personalized design of these devices and the manufacture of functional prototypes for proofs of concept have been obtained. This work aims to expose the current state of the development of the devices linked to the Personalized Biomedical Devices for Bone and Orthopedic Reconstruction through 3D Printing Project. KEY WORDS: Personalized Maxillofacial and Orthopedic Implant; 3D Printing. 1. INTRODUCCIÓN Entre los problemas serios de salud que existen en la sociedad cubana actual, se pueden mencionar los que están asociados al sistema óseo humano, provocados en general por traumatismos, la incidencia de tumores óseos y malformaciones congénitas y estos se ven potenciados con el aumento de la esperanza de vida y el consiguiente envejecimiento de la población [1,2]. Las alteraciones patológicas óseas en la mandíbula y en la ortopedia, pueden ser ocasionadas por diferentes situaciones, las cuales incluyen defectos traumáticos, lesiones congénitas, oncológicas o provocadas por infecciones. La cirugía maxilofacial y las artroplastias se llevan a cabo para lograr la rehabilitación funcional y morfológica de la zona afectada, cualquiera que sea la causa [1,2,3]. La personalización de los dispositivos biomédicos implantables, tanto en la ortopedia como en la cirugía maxilofacial, constituye uno de los grandes avances innovadores de los últimos años. Actuar a la medida de las patologías o lesiones de los pacientes permite ofrecer mejores resultados y adaptarnos con exactitud a la situación de cada individuo. A partir de las imágenes DICOM que se obtienen de tomografía axial computarizada (TC), se obtienen los modelos óseos tridimensionales y los dispositivos biomédicos implantables acorde a estos, lo que permite ajustar los parámetros técnicos de la prótesis e implantes a la morfología del hueso y así obtener un dispositivo con la medida casi exacta del paciente, lo que garantiza colocar estos dispositivos con gran precisión [2,3]. Las principales ventajas que proporciona este proceder es que al utilizar un dispositivo personalizado, la precisión quirúrgica es mucho mayor por lo que es menos invasiva y la eficacia mucho mayor. Además, la hospitalización es menor, y la recuperación mucho más cómoda y rápida. [1,4]. Actualmente en nuestro país, estos tipos de procederes quirúrgicos se realizan generalmente utilizando injertos autólogos, es decir un proceso de reconstrucción ósea con un injerto tomado de su propio cuerpo, con la consiguiente morbilidad que esto puede traer consigo en la zona afectada [1,3,5]. Otros aspectos a tener en cuenta en el proceso de desarrollo de estos dispositivos biomédicos son la integración del implante en la estructura ósea correspondiente y la evaluación de la resistencia y funcionalidad de los mismos a partir de ensayos mecánicos, tanto destructivos como no destructivos, lo cual garantiza la integridad funcional y constituyen parámetros fundamentales a lo que son objeto de estudio en este proyecto [6]. En los últimos años, se han desarrollado procesos tecnológicos normalizados de manufactura aditiva (MA) basados en la fabricación capa a capa o Impresión 3D, que tiene ventajas significativas en el campo biomédico, permitiendo la obtención de dispositivos personalizados donde se pueden lograr arquitecturas muy complejas [7,8]. Dentro de los procesos de Impresión 3D más utilizados se encuentran la Estereolitografía (SLA), el Modelado por deposición de hilo fundido (FDM), la Sinterización Selectiva por Láser (SLS) y la Fusión Selectiva por Láser (SLM); utilizadas en la elaboración de dispositivos biomédicos de diferentes características, tanto implantables, como utilizados para la planeación quirúrgica. Estos procesos, tienen la ventaja de que posibilitan acortar los plazos para obtener los prototipos y series cortas de fabricación y de colocación del producto en el mercado. Además, permiten un mejor aprovechamiento de las materias primas, la modificación del diseño con relativa facilidad y eficacia, la fabricación de piezas con configuraciones complejas, la obtención de piezas sin porosidad residual o con diferentes niveles de porosidad y no requieren de herramientas específicas o de moldes para su confección. La viabilidad de obtener implantes porosos mediante este método, permite aproximar su módulo de elasticidad al del hueso trabecular y paralelamente mejorar su estabilidad “in vivo”. [1,7,8]. La flexibilidad en la producción que la fabricación aditiva supone frente a las técnicas tradicionales como el mecanizado de piezas a partir de forja o fundición, es una ventaja que permite una fabricación personalizada de forma rentable, con plazos de entrega aceptables y con una calidad equivalente a la de los implantes tradicionales, manteniendo unos costes unitarios razonables y sin pérdida de calidad, aun bajando sus volúmenes de fabricación. [1,7,8]. El Centro de Neurociencias de Cuba cuenta con tecnologías de Impresión 3D y otras complementarias, lo que permite poder desarrollar un proyecto donde utilizaria estas potencialidades, fomentadas con las habilidades de otras instituciones clínicas y docentes del país y con la colaboracion de especialistas de la empresa mejicana “NOVECAM S. de R.L. de C.V.”, con el objetivo de obtener diseños personalizados de dispositivos biomédicos implantables a partir de imágenes médicas, orientados a la reconstruccion osea maxilofacial y para la ortopedia, y lograr su fabricación utilizando tecnologías de manufactura aditiva. Como resultado de este proyecto se plantea obtener nuevos productos de alto valor agregado para el sistema nacional de salud en la esfera de los dispositivos biomédicos implantables, a un costo económicamente viable comparado a los adquiridos en la esfera internacional, capaz de aportar un ahorro económico considerable por concepto de sustitución de importaciones al país. 2. MATERIALES Y MÉTODOS Procesamiento de Imagenes Con el apoyo de un software especializado para el procesamiento de imágenes DICOM, se realiza la segmentación osea para el diseño personalizado acorde a la morfología del paciente. Aquí se segmenta la seccion osea requerida para proceder al diseño de la protesis y se definen las medidas antropométricas para el diseño personalizado de ésta, con los requisitos clínicos definidos en previa planificación quirúrgica (Figura 1). Estas herramientas permiten la creación de modelos 3D, la simulación quirúrgica y otras funcionalidades. Despues de diseñado el dispositivo, se realizan pruebas de superposición de las prótesis en la estructura ósea, garantizando una correcta posición del dispositivo diseñado en el hueso. La metodología para la obtención del modelo consistió en los siguientes pasos: 1. Lectura y visualización de las imágenes médicas en las vistas axial, sagital y coronal. 2. Pre-procesamiento (ecualización del histograma). 3. Segmentación a través de umbralización (thresholds). 4. Segmentación por Regiones Crecientes (Region Growing). 5. Obtención de la morfología osea para el diseño de la prótesis personalizada. (Figura 1). a-) b-) c-) Figura 1: Segmentación Ósea a partir de imágenes DICOM: a-) Maxilofacial. b-) De Pelvis. c-) De Maxilares Edéntulos. En el desarrollo y obtención del modelo de los dispositivos estandarizados, el diseño se realiza a partir de la información obtenida en el estudio del arte y realizando ingeniería inversa de muestras cedidas por los especialistas clinicos, donde se toman las dimensiones necesarias y los requisitos clinicos para realizar los modelos. (Figura 2). a-) b-) Figura 2: Muestra de Dispositivos Estandarizados: a-) Cedido por Clínicos. b-) A partir de estudio del mercado. Diseño y Modelacion 3D de los Implantes Personalizados y Estandarizados. La planificación del diseño del Implante, se realiza a partir de la segmentación obtenida en el procesamiento descrito anteriormente, donde se definen los parámetros geometricos fundamentales acorde a la morfologia osea y los criterios clinicos a tener en cuenta en el diseño, como el criterio Oncológico para resecar la parte con deterioro óseo de la Mandibula objeto de estudio (Figura 3a). Estos parámetros pueden ser: 1. La distancia necesaria de resecar para evitar las metástasis de la masa tumoral. 2. Ángulo de corte teniendo en cuenta el herramental quirúrgico. 3. Ángulo de inclinación para el diseño y la colocación del implante. 4. Posición del dispositivo respecto a la cavidad osea defectuosa. 5. Proyección del modelo para definir la posición de la fijación implante. 6. Preservacion de la funcionalidad de nervios y tejido sano. 7. Otras características morfológicas que garanticen la funcionalidad del dispositivo. a-) b-) c-) Figura 3: Proceso del diseño: a-) Mandíbula resecada según criterio Oncológico; b-) Diseño de Craneoplástia frontal; c-) Diseño de Andamio con estructura Trabecular para Maxilar Edéntulo. Después de haber obtenido la segmentacion y el modelo tridimensional del componente oseo, se procede al diseño del Implante, utilizando las herramientas adecuadas que nos permite obtener el modelo tridimensional del Implante personalizado (Figura 4a). Por otra ´parte para comprobar los parámetros del diseño, se realiza la superposición del modelo 3D del dispositivo estandarizado con la reconstrucción 3D de la imagen de TC (Figura 4b), obteniendo una coincidencia total entre los modelos. a-) b-) Figura 4: Muestra del proceso de diseño de los Implantes. a-) Personalizados. b-) Estandarizados. En el diseño de las Prótesis Total de Cadera Personalizada, se realiza el proceso de personalización del Vástago a partir de la segmentación de la imagen DICOM, donde se definieron los parámetros fundamentales a partir de las medidas antropométricas del Femur (Figura 5). Los parámetros que se tuvieron en cuenta fueron: 1. Análisis de la sección transversal elíptica con varias dimensiones durante el trayecto. 2. Ángulo Coxofemoral. 3. Distancia del eje del Fémur a la Cabeza. 4. Ángulo de Anteversión. 5. Alabe anti-torsión y canales de fijación ósea. 6. Tope superior hacia el Trocánter del Fémur. a-) b-) c-) Figura 5: Parametrización del Vástago: a-) Ángulo Coxofemoral; b-) Morfología del Vástago; c-) Ángulo de Anteversión. Por otra parte, mediante el Método de los Elementos Finitos (MEF), se estudia la influencia del porciento de la porosidad del Vástago en la resistencia del mismo, teniendo en cuenta la orientación de los poros: transversal y en orientación a las cargas sobre el hueso (Figura 6). Así mismo se realiza con esta técnica la Simulación del ensayo de la resistencia a la fatiga del Vástago, con las condiciones requeridas acorde a la Norma correspondiente [9] (Figura 7). a-) b-) c-) Figura 6: Simulación de la Influencia de la porosidad en el Vástago mediante el M. E. F.: a-) Orientación de la Porosidad; b-) Refinamiento de la Malla; c-) Deformaciones y desplazamientos en rango admisible. a-) b-) c-) Figura 7: Simulación del ensayo a Fatiga, utilizando el M. E. F.: a-) Posición del Vástago según Norma ISO 7206; b-) Grados de Refinamiento de la Malla; c-) Vida en ciclos del Vástago en rango admisible. 3. RESULTADOS. Se obtuvo la segmentación ósea y las medidas antropométricas necesarias a partir del procesamiento de imágenes médicas DICOM, permitiendo realizar el diseño de distintos Dispositivos Biomédicos Personalizados, teniendo en cuenta los requisitos de la planificación quirúrgica, tambié se obtuvo el diseño de otros dispositivos estandarizados a partir de Ingeniería Inversa y estudios del mercado realozados. Por otra parte, se comprobaron los parámetros geométricos del diseño con la superposición de éstos en la geometría ósea segmentada. Se realizo el estudio del diseño de una Estructura Trabecular Interconectada, con una matriz de alta densidad de porosidad, la cual se incluye en el diseño de algunos dispositivos, donde en algunos casos favorece el potencial de crecimiento del hueso sobre la superficie del implante y en el interior de su estructura, y en otros constribuye a su vascularizacion. En la Figura 8 se pueden observar los modelos del diseño personalizado de: Implante Maxilofacial con estructura reticular parcial, Anilla de Reconstrucción de Cavidad Acetabular, Craneoplástia Frontal y Andamio para la Restauración de Maxilar Edéntulo, éste con distintos diámetros de la estructura Reticular. Aspectos Grado 1 Grado 2 Grado 3 Mallado del Vástago Cantidad de Nodos 59118 129694 248813 Cantidad de Elementos 36177 84145 166822 Figura 8: Modelos del Diseño de los Dispositivos Biomédicos Personalizados. Así mismo se obtiene el diseño de Dispositivos Estandarizados a partir de Ingeniería Inversa, tales como: Anillas de Reconstrucción Acetabular, Placa Spider para Artrodesis Mediocarpiana, Sistema de fijación Coraco-Clavicular para la Luxación Acromioclavicular, Placa en 8 para Epifisiodesis y Tornillos Interferenciales para la fijación del Ligamento Cruzado Anterior de la Rodilla (Figura 9). Figura 9: Modelos del Diseño de los Dispositivos Biomédicos Estandarizados. Obtencion de Prototipos mediante Impresion 3D En el proceso de fabricación de prototipos de los dispositivos, se tienen en cuenta tanto el procesamiento del modelo digital, como el ajuste de los parámetros técnicos para el proceso de fabricación en la máquina. La fabricación de los prototipos, se realizó utilizando Tecnología de Impresión 3D por Fusión Selectiva Laser, en la impresora SLM-250 HL, utilizando polvo metálico de aleación Ti6Al4V, material biocompatible con propiedades mecánicas adecuadas para la fabricación de esta clase de dispositivos implantables (Figura 10). a-) b-) Figura 10: Fabricación de los dispositivos en la impresora SLM-250 HL. a-) En la cámara de trabajo; b-) Plataforma retirada para el post-proceso. También se tienen en cuenta las tareas acometidas en el post-proceso correspondiente de las piezas y otras tecnologías complementarias después del proceso de Impresión 3D. En la Figura 11 se pueden observar algunos prototipos de Dispositivos Biomédicos obtenidos por Impresión 3D Láser de Metal. a-) b-) c-) d-) e-) Figura 11: Prototipos de dispositivos objeto de estudio, obtenidos por Impresión 3D Láser de Metal: a-) Implante Maxilofacial; b-) Anilla de Reconstrucción de Cavidad Acetabular Personalizada; c-) Tornillo Interferencial d-) Anillas de Reconstrucción Acetabular Estándar; e-) Dispositivos de Fijación Coraco-Clavicular. 4. DISCUSION Estado actual del Proyecto Actualmente se encuentran en curso varias tareas encaminadas a la comprobacion de la eficacia de los dispositivos en desarrollo como: - Proceso de realización de Ensayos Mecánicos según la aplicación de las Normas correspondientes al comportamiento de cada dispositivo, teniendo en cuenta el diseño experimental acorde a los parámetros de interés objeto de estudio. - Complementación de la documentación necesaria del expediente para la solicitud al CECMED del Permiso de Uso Excepcional en seres humanos según corresponda. - Se recibió por parte de los colabordores de la Empresa Novecam de México, la donación de una Impresora 3D con características especiales para la fabricación con material PEEK, lo cual permitirá obtener otros dispositivos Biomédicos con este material. Como parte de la colaboración con especialistas técnicos de la Empresa Novecam de México, se ha obtenido el diseño, la fabricación y la implantología de tres Dispositivos Personalizados para la Reconstrucción Mandibular. Estos dispositivos fueron implantados exitosamente por parte del grupo de cirujanos del Servicio de Cirujía Maxilofacial del Hospital Universitario General Calixto García, los cuales forman parte de este Proyecto. (Figura 12). a-) b-) c-) Figura 12: Dispositivos de Reconstrucción Ósea Mandibular, obtenidos con la colaboración de la Empresa Novecam de México e implantados satisfactoriamente en nuestro país. Fotos: Cortesia de Colaboradores del Servicio de Cirugía Maxilofacial, Hospital General Calixto García. En este proyecto también se encuentran vinculados otros Dispositivos Biomédicos en desarrollo, fabricados en base a Polímeros Biocompatibles a partir de Impresión 3D, en los cuales se han obtenido avances significativos en su desarrollo y obtención de prototipos funcionales, tales como: Aditamentos Oculares como los Conformadores Oculares, Implantes Orbitario Poroso, Medidor de Cavidad Anoftálmica y Tapón de puntos Lagrimales; Férula de Avance Mandibular para el tratamiento de la Apnea Obstructiva del Sueño leve y moderada; Separadores Interdigitales para la cirugía del Halux Valgus y el Compensador de Dosis para Radiaciones de Teleterapia. (Figura 13). a-) b-) c-) d-) e-) f-) Figura 13: Dispositivos en base a Polímeros en desarrollo: a-) Conformadores Oculares; b-) Implantes Orbitario Poroso; c-) Medidor de Cavidad Anoftálmica; d-) Tapón de Puntos Lagrimales; e-) Férula de Avance Mandibular; f-) Separadores Interdigitales para cirugía del Halux Valgus. 5. CONCLUSIONES Por todo lo expuesto en este trabajo, se puede concluir que el proyecto se desarrolla satisfactoriamente según lo planificado, logrando el diseño a partir de imágenes médicas DICOM de distintos Dispositivos Biomédicos Personalizados, también se ha realizado el análisis del comportamiento funcional del diseño utilizando el Método de los Elementos Finitos y la obtención de prototipos funcionales de diferentes dispositivos mediante Tecnología de Impresión 3D, tanto en metal con aleación de Ti6Al4V como con polímeros de propiedades Biocompatibles, por lo que el proyecto presenta buenas perspectivas de continuar con las tareas planificadas en las proximas etapas para así obtener los objetivos trazados en el mismo. RECONOCIMIENTOS Los autores desean agradecer a todos los que han ayudado y colaborado con la obtención de los resultados referidos en el presente trabajo, principalmente a Especialistas y Colaboradores miembros del Proyecto pertenecientes a las Instituciones que se relacionan a continuación: - Centro de Neurociencias de Cuba – CNEURO: Departamento de Diseño y Tecnologías de Avanzada. - Universidad Tecnológica de la Habana José Antonio Echeverría - CUJAE: Facultad de Ingeniería Mecánica; Grupo de Investigación de Biomecánica - BIOMEC. - Centro de Biomateriales – BIOMAT, Universidad de la Habana. - Universidad de Matanzas Camilo Cienfuegos - UMCC. - Hospital Universitario General Calixto García: Servicio de Cirugía Maxilofacial. - Complejo Científico Ortopédico Internacional Frank País. - Centro de Investigaciones Médico Quirúrgicas – CIMEQ: Servicio de Prótesis Bucomaxilofacial; Servicio de Cirugía de Cadera; Centro Especializado de Diagnóstico y Terapia. - Instituto Cubano de Oftalmología Ramón Pando Ferrer: Servicio de Cirugía Plástica Ocular. - Hospital Clínico Quirúrgico Hermanos Ameijeiras: Grupo de Cirugía Ortognática. - Empresa NOVECAM S. de R.L. de C.V., México. REFERENCIAS 1. MIRANDA VILLASANA, Ernesto; RIVERA ESTOLANO,Takeo; DELGADO GALVÁN, Paola: “Reconstrucción mandibular con prótesis hemimandibular de titanio HTR con reemplazo total de ATM de polietileno de diseño individualizado por secuelas de resección tumoral”. Vol. 6, núm 3. Sept-Dic 2010. pp. 100 - 105. 2. Cortés Funes, Hernán: Tratado de Artroplástia. Editorial Permanyer. Barcelona, España. 2009. Páginas: 309 – 325. 3. HERNANDEZ VAQUERO, D.; SOLER CELDRAN, J.; FERNANDEZ MILIA, C.; FERNANDEZ CORONA, C.; MENENDEZ VIÑUELA,G.: “Utilidad de la reconstrucción tridimensional con tomografía computarizada en Traumatología y Ortopedia”. Rev Esp Cir Osteoart. Vol. 27, No 159. p.p 147 – 151. 4. VULT VON STEYERN, F.; BAUER, H.C.; TROVIK, C.; KIVIOJA, A.; BERGH, P.; HOLMBERG JORGENSEN, P.; FOLLERAS, G.; RYDHOLM, A.; “Scandinavian Hip Prosthesis Group. Treatment of local recurrences in long bones after curettage and cementing: a Scandinavian Hip Group study”. J Bone Joint Surg Br. 2006. Pages: 1 – 5. 5. LÓPEZ MARTÍNEZ, J.; GARCÍA SANDOVAL, P.; FERNÁNDEZ HERNÁNDEZ, J. A.; VALCÁRCEL DÍAZ, A.; “Acta Ortopédica Mexicana: Funcionalidad y osteointegración de los aloinjertos óseos de huesos largos”. 2012. Páginas: 31. 6. DOC PLAYER. “Selección de Ensayos Mecánicos para la Evaluación Preclínica de Implantes” [ref. julio 2022]. Disponible en Web: https//docplayer.es/amp/18697337-Selección-de-ensayos-mecanicos- para-la-evaluacion-preclinica-de-implantes-disertantes-noelia-carrizo-mauro-pisano.html. 7. ISO/ASTM. “Standard Guidelines for Design for Additive Manufacturing”. ISO/ASTM 52910:2017(E). ISO, Geneva, Switzerland. and ASTM International, West Conshohocken, United States. 8. UNE-EN ISO. “Fabricación aditiva. Principios generales. Parte 3: Características principales y métodos de ensayo correspondientes”. UNE-EN ISO 17296-3:2017. Asociación Española de Normalización, Madrid, España. 9. ISO. “Implants for surgery –Partial and total hip joint prostheses- Part 6: Endurance properties testing and performance requirements of neck region of stemmed femoral components”. ISO 7206- 6:2013. ISO, Geneva, Switzerland. Sobre los Autores: - Carlos Alberto Armand Márquez1: Ingeniero Mecánico; Neurotecnólogo I Nivel; Centro de Neurociencias de Cuba (CNEURO); Miembro de la Sociedad Cubana de Bioingeniería. - Jesús Eduardo González Ruiz2: Ingeniero Mecánico; Doctor en Ciencias Técnicas; Investigador Titular; Profesor Titular; Centro de Biomateriales (BIOMAT) – Universidad de la Habana. - Carlos Rafael Figueroa Hernandez3: Ingeniero Mecánico; Doctor en Ciencias; Profesor Titular; Universidad Tecnológica de la Habana (CUJAE) – Facultad de Ingeniería Mecánica. - Saúl Rodríguez Moreno4: Ingeniero Biomédico; Maestría en Mecatrónica; Empresa NOVECAM S. de R.L. de C.V, México. 1 XI Congreso Cubano de Ingeniería Mecánica y Metalúrgica CCIM 2022 Procesos tecnológicos de manufactura (Cartel) SISTEMA DE CONTROL DE LA CALIDAD PARA LA IMPRESORA 3D DE METAL SLM250 HL Oscar Arencibia Díaz1, Javier Villate Acosta2 y Yanet Garriga Pereira3 1 Centro de Neurociencias de Cuba (CNEURO), Calle. 190 e/ 25 y 27, Cubanacán, Playa. La Habana. 11600, Cuba. e-mail: (oscara@cneuro.edu.cu 2 CNEURO, Calle. 190 e/ 25 y 27, Cubanacán, Playa. La Habana. 11600, Cuba. e-mail: (javier.villate@cneuro.edu.cu) 3 CNEURO, Calle. 190 e/ 25 y 27, Cubanacán, Playa. La Habana. 11600, Cuba. e-mail: (garriga@cneuro.edu.cu) RESUMEN La impresora 3D de fusión selectiva por láser SLM250 HL instalada en CNEURO, utiliza una tecnología de fabricación aditiva que permite fabricar ágilmente objetos metálicos complejos sobre lecho de polvo de metal con gran detalle y en breve tiempo. Sin embargo, para insertarla dentro del sistema productivo es necesario que cumpla con lo establecido por el Sistema de Gestión de la Calidad de CNEURO, según la norma cubana NC ISO 13485: 2018. Equipos y dispositivos médicos. Sistemas de gestión de la calidad. Requisitos para propósitos reguladores y con las buenas prácticas de fabricación. De ahí, los objetivos de este trabajo, que consistieron en realizar el diagrama de flujo del proceso de fabricación de la impresora, identificar los puntos críticos y elaborar un conjunto de instrucciones de trabajo que establezcan la secuencia de pasos necesarios y que funcione como herramienta para introducir rápidamente a las personas vinculadas con este proceso a entender y realizar sus actividades. Se utilizaron como referencias la información contenida en los manuales de operaciones de la impresora, las notas de los entrenamientos y los procedimientos del SGC de CNEURO. A pesar de la cantidad de operaciones a ejecutar, el nivel de complejidad, lo novedoso de esta tecnología y su desconocimiento, así como los cuidados que son necesarios para el manejo de la materia prima, se logró elaborar el diagrama de flujo del proceso de fabricación de la impresora, identificar los puntos críticos y contar con un manual de 28 instrucciones de trabajo para el proceso de fabricación. PALABRAS CLAVES: Sistema de Gestión de la Calidad, impresora 3D de fusión selectiva por láser SLM250 HL, instrucciones de trabajo. QUALITY CONTROL SYSTEM FOR THE SLM250 HL METAL 3D PRINTER ABSTRACT The SLM250 HL selective laser fusion 3D printer installed at CNEURO uses additive manufacturing technology that allows complex metal objects to be quickly manufactured on a bed of metal powder with great detail and in a short time. However, to insert it into the production system, it must comply with the provisions of the CNEURO Quality Management System, according to the Cuban standard NC ISO 13485: 2018. Medical equipment and devices. Quality Management Systems. Requirements for regulatory purposes and with good manufacturing practices. Hence, the objectives of this work, which consisted of making the flow diagram of the printer manufacturing process, identifying the critical points and developing a set of work instructions that establish the sequence of necessary steps and that works as a tool for quickly introduce the people involved in this process to understand and carry out its activities. The 2 information contained in the printer operations manuals, the training notes and the CNEURO SGC procedures were used as references. Despite the number of operations to be carried out, the level of complexity, the novelty of this technology and its lack of knowledge, as well as the care that is necessary for the handling of the raw material, it was possible to elaborate the flow chart of the manufacturing process, identify critical points and have a manual of 28 work instructions for the manufacturing process. KEY WORDS: Quality Management System, SLM250 HL selective laser melting 3D printer, work instructions. 1. INTRODUCCIÓN La impresora 3D de fusión selectiva por láser SLM250 HL permite fabricar ágilmente objetos metálicos de geometría compleja, completamente y con gran detalle a partir de polvo de metal, que por los métodos tradicionales son imposibles de fabricar en una única maquinaria y en un solo montaje. Los objetos se fabrican en un lecho de polvo del metal, anclados a una plataforma metálica precalentada dentro de la cámara presurizada con atmósfera inerte. Capas finas y homogéneas del polvo del metal se adicionan sucesivamente sobre la plataforma, una sobre otras, mientras que un láser impacta selectivamente sobre la superficie de la capa expuesta para fundirlas, siguiendo una trayectoria específica de barrido, derivada de la descomposición por capas de la imagen digital 3D del objeto a fabricar. [1], [2], [3]. La impresora consta del bloque principal con la cámara de fabricación, la computadora propia, el sistema automático contra incendios, los tanques de llenado principal y recolección, entre otros agregados, y otros periféricos como el bloque tamizador, generador de nitrógeno, compresor de aire libre de aceite, sistema de recirculación para el enfriamiento del láser y el equipo propio para la aspiración de polvos y precisa además de sistemas para mantener una atmósfera a temperatura y humedad relativa controladas. [4] Las imágenes digitales 3D de los objetos a fabricar se pueden obtener a partir de modelar ideas y objetos existentes ya sean personalizados o no, mediante algún programa de diseño asistido por computadoras (CAD) que las exportan como archivos con formato STL. Generalmente, las imágenes digitales 3D de los objetos personalizados son previamente obtenidas mediante sistemas comerciales de barrido y programas de procesamiento de imágenes, sobre todo cuando los objetos no son medibles convencionalmente debido a su alto nivel de complejidad geométrica o por encontrarse ocultos, rodeados por otros cuerpos, como dentro del cuerpo humano o dentro de un molde. [5]. Posteriormente esas imágenes son procesadas mediante otros programas específicos donde se establecen los parámetros de fabricación, el tipo de material del polvo metálico para fabricar el objeto, la estrategia o forma de barrido del láser para cada capa, el espesor de las capas de polvo, la potencia y velocidad de barrido del láser para cada zona de la capa, la cantidad de objetos iguales y diferentes a fabricar, su distribución sobre la plataforma metálica, los tipos de soportes de anclaje y su distribución, entre otros. [6], [7]. Después de finalizar la impresión, los objetos y los equipos pasan por una fase de Post-proceso. Los objetos son separados de la plataforma metálica mediante la fractura mecánicamente de los soportes de anclaje, se hacen las limpiezas y los tratamientos finales de los objetos, de la impresora y sus periféricos, el tamizado de polvo a reutilizar, entre otros. [1], [2]. La fusión selectiva por láser, además de las ventajas mencionadas, permite reutilizar el polvo de metal sobrante sin fundir de la cámara de trabajo para la impresión de próximas piezas, obtener estructuras livianas o aligeradas gracias a la posibilidad de fabricar objetos con núcleos ahuecados y porosos, reducir costes asociados al no usar utillajes, obtener superficies micro y nano estructuradas y propiedades similares a otros procesos de fabricación como la fundición del metal en moldes ya sea por vertido a gravedad o mediante presión pero en este caso se alcanza mayor dureza debido al enfriamiento rápido puntual que se sucede inmediatamente después de la fusión en la medida que se funde el polvo que evita el crecimiento del grano, la posibilidad de fabricar bajo demanda, series cortas o individuales de objetos en un tiempo 3 breve lo cual reduce los niveles de inventario físicos de las empresas a cambio de tener inventarios virtuales, menor impacto medioambiental debido a la reducción del consumo de materia prima y energía, entre otras. También presenta algunas desventajas como una limitada disponibilidad y coste de los tipos de metales en polvo, el tamaño limitado de los objetos, la eleva rugosidad superficial, la velocidad de fabricación relativamente lenta, altas tensiones residuales, propiedades anisotrópicas de los objetos, difícil evacuación del polvo en pequeños canales, desperdicia cierta cantidad de material en forma de soportes que se necesitan para fabricar ciertos objetos y que se eliminan a posteriori, manipulación de la materia prima en polvos muy finos, entre 0.01 y 0.035 mm, entre otras. Tanto los beneficios como los inconvenientes de esta tecnología, requieren de un conjunto de instrucciones detalladas para lograrlas o para evitarlas. Es debido a eso que para obtener objetos metálicos mediante la impresora de fusión selectiva por láser SLM250 HL con la calidad requerida en cada caso en cuanto a dimensiones, acabado superficial, densidad, dureza, entre otras y que sean reproducibles en el tiempo y con la mayor productividad posible y debido a la cantidad de operaciones a ejecutar, nivel de complejidad, lo novedoso de la tecnología y su desconocimiento, así como los cuidados en el manejo de la materia prima, se precisa de un sistema o manual de instrucciones de trabajo que establezca la secuencia de pasos necesarios y que funcione como herramienta imprescindible y útil para introducir rápidamente a las personas vinculadas con este proceso a entender y realizar sus actividades, para lograr un buen control de la calidad del proceso de fabricación de los objetos y el manejo de la impresora, sus periféricos, la materia prima, los objetos fabricados y los desechos. El propósito del trabajo fue realizar el diagrama de flujo del proceso de fabricación de la impresora 3D, identificar los puntos críticos y elaborar un conjunto de instrucciones de trabajo que establezcan la secuencia de pasos necesarios y que funcione como herramienta para introducir rápidamente a las personas vinculadas con este proceso a entender y realizar sus actividades siguiendo lo establecido por el Sistema de Gestión de la Calidad (SGC) de CNEURO que cumple con la norma cubana NC ISO 13485: 2018. Equipos y dispositivos médicos. Sistemas de gestión de la calidad. Requisitos para propósitos reguladores y con las buenas prácticas de fabricación. [8], [9]. La SLM 250 HL está instalada en el taller de mecánica especializada, en la dirección de soluciones dentales del Centro de Neurociencias de Cuba (CNEURO) Fig. 1 y se ha estado utilizando fundamentalmente en la fabricación de piezas para la industria médica como coronas y puentes dentales y pequeñas piezas de repuesto para la industria textil, entre otras Fig. 2. Figura 1: Impresora 3D de Fusión Selectiva por Láser SLM250 HL y Figura 2: Aplicación médica. Plataforma metálica de la impresora 3D con puentes de coronas dentales y tornillos interferenciales para ortopedia, impresos en 3D con aleación CoCrASTM F75: Co212 f. 2. MATERIALES Y MÉTODOS 4 Este trabajo se desarrolló teniendo en cuenta las características y aplicaciones de la impresora 3D de fusión selectiva por láser SLM250 HL, y apoyándonos en la información contenida en los manuales de operaciones, las notas de los entrenamientos y los procedimientos del SGC de CNEURO, según la norma cubana NC ISO 13485: 2018. Equipos y dispositivos médicos. Sistemas de gestión de la calidad. Requisitos para propósitos reguladores y de las buenas prácticas de fabricación. [1], [2], [4], [8], [9], [10], [11], [12], [13]. El trabajo se realizó en dos etapas fundamentales: Una primera en la que se definieron las etapas del proceso para elaborar el diagrama de flujo del proceso y se identificaron 28 instrucciones de trabajo, así como los puntos críticos, los cuales facilitarán posteriormente el control de la calidad y el cumplimiento de las buenas prácticas de fabricación y una segunda etapa en la que se elaboraron 20 de las instrucciones de trabajo identificadas. La impresora puede fabricar objetos de hasta 250 mm de ancho, 250 mm de profundidad y 250 mm de alto. La cámara de fabricación trabaja bajo una presión de 6 bares de gas inerte (argón para el polvo TiAl6V4 ELI (Grado 23) y nitrógeno gaseoso para Acero H13, Co212-F y Aisi 316 L) con un flujo máximo de 3 L/min. Además, utiliza aire comprimido libre de aceite a una presión de 6 bares con un flujo máximo de 15 L/min para mover los mandos neumáticos y para generar el N2. La cámara del láser es bañada constantemente por un tiro forzado de una mezcla de agua destilada con un agente anticorrosivo (pH entre 8 y 8.2) a 4 bar y un flujo volumétrico máximo de 0.3 m3/h, que la mantiene a una temperatura de entre 18 y 20 °C. Trabaja en un rango de temperatura ambiente de 18 a 30 °C y humedad relativa de 40 a 50%. [1], [2], [4]. Utiliza polvo de metal con morfología esférica de dimensiones que oscilan entre 0.01 y 0.045 mm y es suministrado y certificado por SLM Solutions GmbH en envases sellados y herméticos a la humedad. [1], [2], [4]. Las imágenes digitales 3D de los objetos a fabricar se han obtenido a partir de modelar ideas y de objetos existentes ya sean personalizados o no mediante la aplicación Solid Work 2018 capaz de exportar los archivos con formato STL. [5]. Las imágenes digitales 3D de los objetos personalizados han sido obtenidas mediante sistemas de Tomografía axial computarizada o de Resonancia magnética nuclear y programas de procesamiento de imágenes como 3-matic Research 12.0 (x64) y Mimics Research 20.0 Posteriormente esas imágenes son procesadas mediante otras aplicaciones más específicas para las tecnologías de fabricación aditiva como el Materialise Magics 21.1 y el AutoFab 1.8 donde se establecen los valores de los parámetros de fabricación, el tipo de material o polvo metálico del objeto, la estrategia o forma de como el láser barre cada capa, el espesor de las capas de polvo que comúnmente tienen 0,03 mm (30 µm) o 0.05mm (50 µm) y la cantidad de capas a superponer antes que el láser impacte sobre la superficie de la capa expuesta, la potencia y velocidad de barrido del láser para cada zona del objeto, la cantidad de objetos iguales y diferentes a fabricar, su distribución sobre la plataforma metálica, los tipos de soportes de anclaje y su distribución, entre otros. Combinaciones diferentes de los valores de todos los parámetros permiten fabricar objetos con diferentes propiedades en su núcleo y en su corteza, más o menos densos, más o menos duros, con una rugosidad superficial menor o mayor, etc. Los soportes de anclaje de los objetos con la plataforma metálica de fabricación persiguen minimizar la deformación de los objetos favoreciendo el tránsito del calor generado por la fusión del metal, desde el punto de incidencia del láser hasta la plataforma que es precalentada hasta los 200 °C para el proceso de fabricación. La deformación de los objetos puede ser causada por estrés térmico, sobrecalentamiento o por ser arrastrados a través del sistema de recubrimiento del polvo de metal. La precisión dimensional obtenida con este tipo de tecnología de fabricación aditiva (TFA) está comprendido en ±0.04 mm, para un acabado superficial de 0.05mm (5 µm) – 0.15 mm (15 µm) (Rugosidad, Rz) y una velocidad de fabricación de 1-3 mm3/s. Los materiales con los que dispone esta impresora son TiAl6V4 ELI (Grado 23), AISI H13 (F-5318) y Co212-f ASTM F75. 5 3. RESULTADOS Y DISCUSIÓN Se muestra el diagrama de flujo del proceso de fabricación de la impresora 3D de Fusión Selectiva por Láser SLM250 HL (fig. 3), se exponen las etapas del proceso y las 28 instrucciones de trabajo identificadas con sus objetivos específicos que abarcan el manejo de la impresora, sus periféricos, la materia prima, los objetos fabricados y sus desechos. También se muestran subrayadas nueve instrucciones de trabajo que fueron identificadas como puntos críticos de los subprocesos de fabricación de la pieza y del post- proceso. [8], [9]. 6 Fabricación de la pieza Post-Proceso O bj et iv o: D es cr ib ir lo s pa so s p ar a p ro ce d er c on la S LM Inicio Creación de fichero .STL IT.PD.10-V01 Operación del Software Magics IT.PD.11-V01 Operación del Software AUTOFAB IT.PD.12-V01 Encendido y Apagado de la SLM 250 HL IT.PD.13-V01 Inspección técnica Registro de uso del equipo Configurar los parámetros del proceso de construcción IT.PD.14-V01 Cambiar el tipo de polvo? La capa de polvo dispensada queda superficialmente desigual? Reemplazar y calibrar el Labio limpiador del recoater IT.PD.15-V01 Cargar un nuevo trabajo en la SLM IT.PD.17-V01 si no Operación del tamizador PSM 100 IT.PD.18- V01 Creación de la primera capa de polvo IT.PD.20-V01 Alcanzar la atmósfera de proceso en la cámara de procesos IT.PD.21-V01Inicio del proceso de construcción en la SLM 250 HL IT.PD.22-V01 Exceso de polvo de metal acumulado en la cámara de procesos? Cambio de las botellas de reboso y llenado del tanque principal IT.PD.19-V01 si Desmontar un trabajo de la cámara de procesos y prepararla para nueva fabricación IT.PD.24-V01 no Vaciado del tanque principal y del recoater IT.PD.25-V01 Limpieza y mantenimiento para cambio material IT.PD.26-V01 Operación de la aspiradora KARCHER IT.PD.29-V01 Limpieza del vidrio de seguridad F- Thetal. IT.PD.16-V01 Reemplazo del filtro de circulación de gas IT.PD.27-V01 Parada intermedia por vaciado de los tanques principal y del recoater IT.PD.23-V01 Reparación del sistema extintor de la SLM 250 HL IT.PD.28-V01 Rellenar el cilindro ext intor de argón con una lira o trasegador IT.PD.30-V01 Corrección del láser IT.PD.31-V01 Reparación de la válvula de botella de extintor incendios IT.PD.32-V01 Reparación y montaje de la bomba del sistema de enfriamiento IT.PD.33-V01 Fin Operación de la aspiradora KARCHER IT.PD.29-V01 no Existe fuga de líquido en el sistema de enfriamiento? Cambio del líquido refrigerante? si Mensaje en pantalla solicita cambio de filtro? El valor del diferencial de presión se aproxima 30 mbar? si no Encendido y Apagado de la SLM 250 HL IT.PD.13-V01 El sistema contra incendios se disparó? O existe fuga del sistema contra incendios? Existe fuga aleatoria por la válvula del cilindro? si si no no Cambio de las botellas de reboso y llenado del tanque principal IT.PD.19-V01 Operación del tamizador PSM 100 IT.PD.18- V01 Existe correspondencia con las dimensiones de los objetos reales? no si Orden de producción IT.PD.09-V01 Solicitud de insumos IT.PD.09.2-V01 Calidad de los insumos IT.PD.09.3-V01 Manejo de los desechos IT.PD.24-V01 Fig. 3 Diagrama de flujo del sistema de instrucciones de trabajo de la SLM 250HL. Subprocesos de fabricación de la pieza y del post-proceso. 7 Etapas e instrucciones de trabajo con sus objetivos específicos: 1- Orden de producción: Establece el tipo de objeto a procesar, idea virtual, objeto plantilla o escaneado 3D, el material del objeto, dimensiones físicas, la cantidad de objetos a fabricar, los insumos necesarios, breve descripción de las características funcionales de los objetos. [8], [9]. • IT.PD.09.1-V01 Orden de producción. Ordenar la fabricación de los objetos en la impresora de fusión selectiva láser SLM250 HL. • IT.PD.09.2-V01 Solicitud de los insumos. Establece los pasos a seguir para la solicitud de los insumos de trabajo. • IT.PD.09.3-V01 Calidad de los insumos. Establece los pasos a seguir para controlar la calidad de los insumos. 2- Prototipado virtual: creación de la imagen 3D del objeto mediante programa CAD y preparación para procesarla mediante SLM, a partir de una idea, objeto plantilla o escaneado 3D del objeto. Exportar el archivo a formato STL. [1], [2], [5]. • IT.PD.10-V01 Creación de fichero STL. Establecer los pasos a seguir para la creación de un fichero con formato STL a partir de algún programa de diseño asistido por computadora que permita crear, editar y ver modelos 3D y dibujos de modelo detallados y que tenga como salida dicho formato, como es el Solid Work versión 2018 y preparar el diseño del producto para fabricar con esta tecnología. 3- Preparación de las imágenes 3D y de la impresora, revisar la geometría de la imagen 3D importada, reparar los defectos de importación, preparar la imagen para la manufactura aditiva, ubicarla en la posición de fabricación sobre una plataforma de sustrato virtual, generar y colocarle los soportes de anclaje, guardar el nuevo fichero con extensión .stl. [1], [2], [6]. • IT.PD.11-V01-Operación del software Materialise Magics. Esablecer los pasos a seguir para operar el software Materialise Magics, versión 21.1, y ejecutar las acciones de: 1. Revisar la pieza y reparar los defectos de exportación de ficheros con formato STL. 2. Ubicar la pieza en la posición de fabricación. 3. Generar y colocar los soportes de anclaje a la plataforma metálica y los que sostienen los voladizos. 4- Fabricación de la pieza. Preparar las imágenes 3D para la manufactura en SLM 250HL. Duplicar las imágenes y orientarlas en una forma ideal, crear las capas de construcción de las imágenes con los soportes y exportar el archivo con extensión .FAB. Aprovisionar la impresora 3D y establecer sus parámetros de trabajo. [1], [2], [7]. • IT.PD.12-V01 Operación del software AUTOFAB. Establecer los pasos a seguir para operar el software AUTOFAB, versión 1.8, y hacer las acciones de: 1. Duplicar los objetos y orientarlos en una forma ideal para la construcción 2. Generar las capas de construcción • IT.PD.13-V01 Encendido y apagado de SLM250 HL. Establecer los pasos a seguir para encender y apagar la impresora 3D de metal SLM 250HL. • IT.PD.14-V01 Configurar los parámetros del proceso de construcción. Establecer los pasos a seguir para configurar los parámetros del proceso de construcción. • IT.PD.15-V01 Reemplazar y calibrar el Labio limpiador del recubridor de polvo. Establecer los pasos a seguir para reemplazar y calibrar el labio limpiador del recubridor de polvo cuando: 1. Se va a cambiar el tipo de polvo metálico del proceso de fabricación. 2. La capa de polvo dispensada queda superficialmente desigual. • IT PD.17-V01 Cargar un nuevo trabajo en la SLM. Establecer los pasos a seguir para Cargar un nuevo trabajo en la SLM 250HL • IT PD.18-V01 Operación del tamizador PSM100. Establecer los pasos a seguir para la operación del tamizador PSM100 para: 1. Extraer la humedad al polvo que se va a utilizar anterior a cada impresión, sino ha sido filtrado recientemente. 2. Filtrar y extraer las impurezas del polvo que se recuperó durante el proceso de fabricación, después de cada impresión. 8 • IT PD.19 -V01 Cambio de las botellas de reboso y llenado del tanque principal. Establecer los pasos a seguir para remover e instalar las botellas de reboso y llenar el tanque de almacenamiento principal. • IT PD.20-V01 Creación de la primera capa de polvo. Establecer los pasos a seguir para crear la primera capa de polvo de metal del proceso de construcción de piezas en la impresora de metal SLM 250HL. • IT PD.21-V01 Alcanzar la atmósfera de proceso en la cámara de procesos. Establecer los pasos a seguir para alcanzar la atmósfera de trabajo en la cámara de procesos de la impresora de metal SLM 250HL. • IT.PD.22-V01 Inicio del proceso de construcción en SLM 250HL. Establecer los pasos a seguir para iniciar el proceso de construcción en la impresora de metal SLM 250HL. 5- Post-proceso, retirar los objetos fabricados de la plataforma, retirar los soportes de fabricación, limpieza y tratamientos finales de las piezas, la impresora y sus periféricos. • IT PD.24 -V01 Desmontar un trabajo de la cámara de proceso y prepararla para una nueva fabricación. Establecer los pasos a seguir para desmontar un trabajo de la cámara de proceso y prepararla para una nueva fabricación. • IT PD.25-V01 Vaciado del tanque principal y del recubridor de polvo. Establecer los pasos a seguir para vaciar de polvo de metal los tanques principales y del recubridor de polvo. El vaciado del tanque principal se hace a través del tanque del recubridor de polvo y procede cuando se hace necesario: 1. Tamizar todo el polvo que queda en el tanque del recubridor de polvo y en el tanque principal para extraer la humedad al polvo que se va a utilizar, como paso previo a cada impresión, sino ha sido filtrado recientemente. 2. Cambiar a un tipo de polvo de metal diferente al que se ha estado utilizando en el proceso de construcción. • IT.PD.26-V01 Limpieza y mantenimiento para cambio material. Establecer los pasos a seguir para realizar la limpieza y el mantenimiento de la SLM 250HL cuando se requiere proceder a un cambio de material. 6- Mantenimiento y reparación de la impresora y sus periféricos. • IT PD.23-V01 Parada intermedia por vaciado del tanque principal y del recubridor de polvo. Establecer los pasos a seguir para superar una parada intermedia del sistema por vaciado del polvo metálico de los tanques principal y del recubridor de polvo. [1], [2], [4]. • IT PD.16-V01 Limpieza del vidrio de seguridad F-Thetal. Establecer los pasos a seguir para la limpieza del vidrio de seguridad F-Theta, por donde sale el láser hacia la cámara de fabricación. [4], [13]. • IT PD.27-V01 Reemplazo del filtro de circulación de gas. Establecer los pasos a seguir para reemplazar el filtro de circulación del gas que inunda continuamente la cámara presurizada donde se fabrican los objetos. [1], [2], [4]. IT PD.28-V01 Reparación del sistema extintor de la SLM 250HL. Establecer los pasos a seguir para: [4], [13]. 1. Chequear, desactivar o activar el sistema extintor Sinorix TM al-deco STD en la impresora SLM 250HL. 2. Desinstalar el cilindro extintor de la impresora e instalarlo nuevamente. • IT.PD.29-V01 Operación de la aspiradora KARCHER. Establecer los pasos a seguir para utilizar la aspiradora Karcher que se utiliza en la impresora SLM250HL. El aparato es apto para aspirar polvos secos, no inflamables y nocivos para la salud, establecidos por la norma EN 60 335–2–69 por ejemplo polvos clase M. • IT PD.30-V01 Rellenar el cilindro extintor de argón con una lira o trasegador. Establecer los pasos a seguir para rellenar ocasionalmente el cilindro extintor con una lira o trasegador desde un cilindro más grande con 150 bar de presión. • IT.PD.31-V01 Corrección del láser. Establecer los pasos a seguir para la corrección del láser de la SLM 250HL. [1], [2], [4], [11]. 9 • IT.PD.32-V01 Reparación de la válvula de botella extintor incendios. Establecer los pasos a seguir para realizar la reparación de la válvula de la botella del sistema extintor de incendios de la SLM 250HL en caso de fuga aleatoria del argón de la botella. • IT.PD.33-V01 Reparación y montaje de la bomba del sistema de enfriamiento. Establecer los pasos a seguir para la reparación y el montaje de la bomba del sistema de enfriamiento del láser de la impresora del metal SLM 250HL. [12]. 7- Manejo de los desechos. • IT PD.24-V01 Manejo de los desechos. Establecer los pasos a seguir para el manejo de los desechos del proceso de fabricación en la impresora, dígase servilletas, residuos de polvo, piezas con calidad deficiente, labios limpiadores del recubridor de polvo en mal estado, soportes de anclaje, guantes desechables, entre otros. 4. CONCLUSIONES 1. Se estableció una primera versión del Diagrama de flujo y las etapas de trabajo del proceso productivo de la impresora 3D de metal SLM 250HL, así como, el Manual de la Calidad. 2. Se identificaron y elaboraron un total de 28 instrucciones de trabajo, de las cuales 9 constituyen puntos críticos del proceso. La puesta en práctica de estas instrucciones de trabajo ha permitido introducir rápidamente a las personas vinculadas con el proceso, a entender y realizar sus actividades. 3. Lo anterior permitió insertar la impresora 3D de metal SLM 250 HL dentro del sistema productivo de la Dirección de soluciones dentales de CNEURO al cumplir con lo establecido por el SGC de CNEURO, según la norma cubana NC ISO 13485: 2018. Equipos y dispositivos médicos. Sistemas de gestión de la calidad. Requisitos para propósitos reguladores y con las buenas prácticas de fabricación. De esta manera todo lo que se fabrique con este equipo puede estar certificado por el Centro para el Control Estatal de Medicamentos, Equipos y Dispositivos Médicos (CECMED) y tener salida comercial, lo cual permite cumplir con varias propuestas productivas de negocios vinculadas con esta tecnología. RECOMENDACIÓN Se deberá en el futuro, concluir el manual con todas las instrucciones de trabajo identificadas y continuar mejorándolas continuamente en función de los resultados en la práctica. REFERENCIAS 1. Armand, C. et al. “Anotaciones del entrenamiento en Impresora 3D de metal SLM250 HL”. Empresa SLM Solutions GmbH. Alemania. Oct. 2013. 3-20 pp. 2. Arencibia, O; Armand, C; Garriga, Y. “Compendio de anotaciones del entrenamiento impartido por especialistas de SLM sobre Impresora 3D de metal SLM250 HL”. La Habana, CNEURO. Ene. 2014. 3-30 pp. 3. DELGADO, Jordi. “Contribución a la fundición selectiva por láser de pieza metálica mediante el estudio de propiedades mecánicas y de manufactura”, Director: Dr. Joaquim de Ciurana Gay. Tesis de doctorado, Universidad de Girona, Provincia de Girona, 2013 4. SLM Solutions GmbH. (2012). Operating manual. Selective Laser Melting System SLM 250HL. Doc ID: SLM-BA-SLM250HL-20121213-EN 5. Alonso Sanchez, Francisco J. “SOLIDWORKS 2018 (MANUAL IMPRESCINDIBLE)”. España, Editorial ANAYA MULTIMEDIA, 2018. 416 pp. ISBN: 9788441540644 10 6. Materialise. (2018). “Materialise Software. Magics 23.01: Reference Guide”. 7. Marcam Engineering GmbH. (2018). “AutoFab 1.8. Software for Additive Manufacturing Applications. Software documentation”. 8. NC ISO. Equipos y dispositivos médicos. Sistemas de gestión de la calidad. Requisitos para propósitos reguladores. NC ISO 13485: 2018. Oficina Nacional de Normalización. La Habana. Cuba. 2018. 9. Procedimiento general de calidad (PGC). Control de Docs. y Registros. PGC.01-V02. CNEURO. La Habana. Cuba. 2019. 10. SLM Solutions GmbH. (2012). Operating manual. Powder Sieve Machine PSM 100. Doc ID: SLM-BA-PSM100-20121213-EN 11. SLM Solutions GmbH. (2012). Operating manual. Laser. YLR-200-WC. 12. SLM Solutions GmbH. (2012). Operating manual. Process cooler. SK3336.209 LW 13. Siemens Building Technologies (2012). Operating handbook. Fire extinguishing unit SinorixTM al-deco STD Argon. Sobre los autores Oscar Arencibia Díaz1, ingeniero mecánico, trabaja en la investigación y desarrollo de productos en Cneuro, es investigador auxiliar Javier Villate Acosta2, ingeniero industrial, trabaja en la organización de la producción de las prótesis auditivas en Cneuro Yanet Garriga Pereira3, ingeniero mecánico, trabaja en investigación y desarrollo de productos en Cneuro DIMENSIONADO DE SISTEMA FOTOVOLTAICO AUTÓNOMO PARA LA RECARGA DE VEHÍCULOS ELÉCTRICOS Yamir Sánchez Torres1, Pedro Rodríguez Ramos2 1 Universidad Tecnológica de La Habana “José Antonio Echeverría”, Centro de Estudio de Tecnologías Energéticas Renovables, CETER. La Habana, Cuba, 2 Universidad Tecnológica de La Habana “José Antonio Echeverría”, Centro de Estudios en Ingeniería de Mantenimiento, CEIM. La Habana, Cuba, 1e-mail: yamircuba23@gmail.com RESUMEN Actualmente se incentiva el uso del vehículo eléctrico en el mundo. No obstante, es difícil predecir hasta dónde llegará su adopción debido a que su proliferación depende de la capacidad de la red eléctrica para la recarga. El objetivo de esta investigación fue dimensionar y evaluar el proceso de recarga de una flota de 14 vehículos eléctricos de manera sustentable, mediante energía solar, implementando un sistema fotovoltaico autónomo aislado, con el fin de tributar a un transporte sostenible. Con la metodología energética Modelo de Comportamiento Mensual, utilizada para el dimensionado, se estableció la potencia eléctrica necesaria de 40,0 kW. El sistema fotovoltaico debe generar 140,0 kWh al día de energía en una región con radiación promedio diaria de 5,0 kWh/m2 al día para cumplir con la demanda de la flota. El escenario considerado consiste en que la flota puede ser recargada solo los fines de semana. Para la evaluación energética del comportamiento del sistema se usa el software Modelo de Optimización de sistemas Híbridos Eléctricos Renovables. Como resultado se determinó que el sistema es capaz de suministrar solo el 70 % del total de la energía demandada. PALABRAS CLAVES: vehículo eléctrico, sistema fotovoltaico, evaluación energética, HOMER. SIZING OF AN ISOLATED SOLAR SYSTEM FOR RECHARGE ELECTRIC VEHICLES ABSTRACT Nowadays the use of electric vehicles is being diffused worldwide. However, it is difficult to predict to what extent electric vehicles could be spread because its distribution depends on the grid energy availability for the recharge. This work tries about the design and energetic evaluation of an isolated photovoltaic solar system for recharging a fleet of 14 electric vehicles in order to contribute to sustainable transportation. From the energy methodology used for the photovoltaic system sizing, denominated “Monthly behavior method”, a 40.0 kW of generated electric power is necessary. The photovoltaic system has to generate 140.0 kWh/day of energy in a place with 5.0 kWh/m2 a day of solar radiance in order to supply the energy needs of the vehicles. In the considered scenario, the EV fleet can only be recharging on weekends. The energetic evaluation of the system behavior has been performed by means of the Hybrid Optimization Model for Electric Renewable software. The results revealed that the system is capable to provide just the 70.0 % of the needed energy. KEY WORDS: Electric vehicle; photovoltaic system; energetic assessment; HOMER. 1 INTRODUCCIÓN La agenda 2030 para el Desarrollo Sostenible presenta una visión ambiciosa e integra sus dimensiones a escala económica, social y ambiental. Dentro de sus 17 objetivos, se reconocen metas que requieren la implementación de fuentes de energías no contaminantes. La energía es crucial para todos los grandes desafíos y oportunidades a los que hace frente el mundo actualmente; ya sea para los empleos, la seguridad, el transporte o la producción de alimentos [1]. Alcanzar una adecuada integración ambiental de la movilidad en las ciudades es un factor decisivo para lograr una mayor sostenibilidad urbana [2, 3]. En ese sentido el uso de vehículos con combustibles alternativos como el vehículo eléctrico (VE), forma parte de las estrategias de movilidad que algunos países están poniendo en práctica [4-6]. Por su parte en Cuba el sector del transporte automotor consume anualmente 992 mil toneladas de combustible, de ello el 74 % de Diésel y el 26 % gasolina [7]. Siendo, además, uno de los sectores que más contribuye al deterioro de la calidad del aire en las ciudades, con concentraciones de material articulado, Partículas materiales 10 (PM10), SO2 y NO2 de 100 g/m3, 80 g/m3 y 17 g/m3 respectivamente [8]. Es por ello que la electrificación de este sector es una alternativa estratégica que contribuye con la seguridad e independencia energética del país al reducir su dependencia del petróleo. Con la introducción paulatina de vehículos eléctricos, se estima que aumente la eficiencia energética y la disponibilidad técnica de los medios de transporte, mejorando la calidad del transporte público de pasajeros y productivo. Se busca, además, una disminución considerable en las emisiones de gases de efecto invernadero, la integración de las Fuentes Renovables de Energía (FRE) y una operación más eficiente del Sistema Electro-energético Nacional (SEN). Sin embargo, el uso del VE y su potencial desarrollo supone la necesidad del diseño e implementación de una adecuada infraestructura de recarga. La misma presenta especial complejidad en el caso de las flotas, debido a la cantidad de consumidores, las demandas y las necesidades de carga en tiempo y cantidad, la ocupación de los puntos de recarga, las llegadas y salidas de los vehículos, la potencia eléctrica contratada en la instalación, así como la necesidad de un gestor de carga entre otras [9, 10]. Por otra parte, para que el vehículo eléctrico sea en realidad una opción limpia de transportación es necesario que la electricidad para su recarga no haya sido generada a partir de combustibles fósiles, ni fuentes no renovables. Es por ello, que se plantea que, para que el transporte eléctrico sea realmente sustentable, debe ser recargado a partir de fuentes renovables de energía [2, 3]. En la literatura se encuentran varios ejemplos de soluciones sobre la recarga de flotas de VE, así en [11] se ofrece una solución mediante el concepto de aparcamiento y de carga basado en la aceptación mediante el confort, en [12] se propone un estacionamiento inteligente que consiste en un controlador que usa paneles como fuente de energía, para limitar los impactos de los VE en la red de suministro eléctrico y reducir el costo de carga. En [13] los autores consideran un escenario en el que n-vehículos eléctricos deben ser cargados a lo largo de “t” unidades de tiempo de forma que se satisfagan restricciones de tipo caducidad. En [14], se propone el algoritmo ODC (Optimal Decentralized Charging) o carga descentralizada óptima para resolver el problema de la recarga. En [15] los autores consideran el caso en el que las baterías pueden tomar energía de la red, o bien proporcionar energía a la red cuando están estacionados, lo que se conoce como Vehículo a la red o V2G (Vehicle to Grid), donde se propone un algoritmo basado en la metaheurística de Optimización por aglomeración de partículas o PSO (Particle Swarm Optimization). En [16] se propone un modelo para una red de carreteras a gran escala en la cual se disponen un conjunto de estaciones de recarga en algunas de las entradas y salidas de dicha red. En [17] se propone un marco de trabajo en el que varios agentes coordinan y controlan las recargas de una serie de vehículos eléctricos y finalmente en [18] se evalúa la capacidad que tiene la energía fotovoltaica para la recarga de flotas de vehículos eléctricos, teniendo en cuenta su naturaleza intermitente. También se han realizado estudios referentes a la alineación y orientación de los paneles fotovoltaicos para generar la mayor cantidad de energía. [19] Sin embargo, todos los trabajos anteriores tienen en común que los sistemas dan la posibilidad de inyectar corriente a la red o recibirla en caso necesario. Esto se debe principalmente a que las energías renovables son variables en el tiempo. En particular la energía fotovoltaica, la cual depende de las variaciones en la irradiación total en el plano horizontal, así como la temperatura, humedad, velocidad del viento, entre otras. Estas variaciones pueden provocar variaciones en la tensión del punto de conexión con la red y variaciones en la frecuencia del sistema, estos aspectos dependen de factores como: la capacidad de la central fotovoltaica, las características del punto de conexión y/o del sistema de estudio y las características de la zona donde se instalan. Con respecto a estos temas se han llevado a cabo varios estudios a nivel mundial [18-20]. En este sentido, la presente investigación tiene como objetivo principal, dimensionar y evaluar el proceso de recarga de una flota de 14 vehículos eléctricos de manera sustentable, mediante energía solar, implementando un sistema fotovoltaico autónomo aislado, por lo que el sistema debe autoabastecerse y no recibir ni entregar corriente del sistema electro-energético. 2 MÉTODOS Y MATERIALES Para dar respuesta a este objetivo se emplea la metodología denominada Modelo de Comportamiento Mensual. Se establece una potencia eléctrica mínima necesaria de 40,0 kW para el sistema fotovoltaico (SFV) que debe generar 140,0 kWh al día de energía para cumplir con la demanda energética de la flota, en una región con radiación diaria promedio de 5,0 kWh/m2 al día. Para el desarrollo del dimensionado del SFV autónomo fueron definidas cuatro tareas específicas: 1. Evaluación de la cantidad de energía semanal demandada por la flota. 2. Determinación del potencial solar presente en el lugar de emplazamiento. 3. Dimensionado del SFV capaz de suministrar la energía semanal demandada por la flota. 4. Simulación del comportamiento del SFV mediante el software HOMER. 1. Evaluación de la cantidad de energía semanal demandada por la flota. El escenario considerado consiste en que la flota puede ser recargada solo los fines de semana. El vehículo que compone la flota es el panel modelo Nissan e-NV200, con capacidad para 7 personas, además del chofer, cuenta con una batería de 40,0 kWh de capacidad, cuenta con una batería de 40,0 kWh de capacidad, sus características se pueden apreciar en la tabla 1: Tabla 1. Datos técnicos del Nissan e-NV200. Fuente: [21] Datos técnicos del Nissan e-NV200 Largo-ancho-altura [m] 4,40-2,01-1,86 Potencia motor / régimen 80 kW / 3000 rpm Torque máximo / régimen 254 N-m / de 0 a 3000 rpm Tipo de batería Iones de litio Capacidad de la batería 40 kWh Autonomía 280 km Velocidad máxima 120 km/h Consumo 0,13 kWh/km 2. Determinación del potencial solar En este acápite se procede a realizar un estudio general del recurso solar presente en el lugar, para así evaluar el potencial energético del cual apoyarse para la generación eléctrica. El sitio se ubica a 23,0 de latitud Norte y 82,4 de longitud Oeste. Los datos de irradiación solar incidente en el lugar se encuentran disponibles en la web de la NASA: https://eosweb.larc.nasa.gov/sse/RETScreen. 3. Dimensionado del SFV Para el dimensionado del SFV se utiliza el método denominado Modelo de Comportamiento Mensual, en el cual se parte de conocer la energía disponible (Radiación o Irradiación solar en el sitio de aplicación) y la demanda de energía (electricidad necesaria en la aplicación) en los 12 meses del año. Los paneles fotovoltaicos considerados en el presente trabajo son de 300,0 Wp, de silicio policristalino, con una eficiencia de 15,0 % y un voltaje y corriente de potencia máxima de 31,6 V y 9,6 A respectivamente. Las dimensiones de los mismos son de 1956 x 992 mm. Por su parte el inversor empleado, de 5,0 kW de potencia, trabaja con un rango de voltaje de 180 a 280 V y entrega una corriente de 23,0 A a 230 V. Para calcular la energía eléctrica entregada por un panel fotovoltaico (Eeu), aplicando el método enunciado anteriormente se tiene en cuenta la radiación solar recibida en el mes de menor radiación solar y se aplica la expresión 1. Eeu=m (I) (A) Donde: Eeu: Energía entregada por un módulo, kWh m: Eficiencia del módulo fotovoltaico. I: Irradiación solar, kWh/m2 día. A: Área del módulo, m2 4. Simulación del comportamiento del SFV mediante el sofware HOMER La simulación es una herramienta eficaz para analizar sistemas cuya complejidad no permite establecer un modelo matemático simple de los mismos. El software HOMER es ampliamente utilizado por la comunidad científica internacional para la simulación de sistemas híbridos de energía renovable debido a su sencilla plataforma, por lo tanto este simulador se ha convertido en una herramienta estándar, siendo un lenguaje común para los desarrolladores de energía fotovoltaica [22, 23, 24]. 4 RESULTADOS Y DISCUSIÓN 1. Evaluación de la cantidad de energía semanal demandada por la flota Estos vehículos componen una flota de trabajo en la cual los mismos recorren un promedio de 50,0 kilómetros diarios, en labores de mantenimiento de redes hidráulicas, por lo que aproximadamente suman un total de 250,0 kilómetros a la semana. Teniendo en cuenta que su autonomía es de entre 280,0 y 300,0 kilómetros, los mismos pueden trabajar de lunes a viernes sin necesidad de recargar sus baterías, pudiendo recargar los fines de semana. Actualmente la flota es recargada utilizando la red eléctrica y se desea independizar la recarga utilizando para ello un SFV autónomo. La recarga debe tener lugar los fines de semana, pues durante la semana los vehículos están trabajando por el día. Es por ello que el SFV tiene que abastecer las baterías de los 14 vehículos entre el sábado y el domingo. Cada vehículo, recorriendo entre 250,0 y 280,0 kilómetros semanales debería consumir entre 32,0 y 36,0 kWh a la semana, pero los mismos cuentan con un sistema de frenado regenerativo que en recorridos urbanos devuelve hasta un 25,0 % de energía a las baterías. Es por ello que el viernes, al terminar la jornada, los mismos cuentan con una energía en las baterías de entre 12,0 y 14,0 kWh. Así el sistema debe recargar los vehículos hasta el 80,0 % de la carga máxima de sus baterías, correspondiente a 32,0 kWh. Así, considerando una carga remanente de 12,0 kWh en cada uno, la energía necesaria es de 20,0 kWh por vehículo, o sea 280,0 kWh a entregar en un fin de semana, por lo que se distribuye en 140,0 kWh el sábado y 140,0 kWh el domingo. 2. Determinación del potencial solar presente en el lugar de emplazamiento La radiación o irradiación solar promedio presente en la zona para cada mes, en kWh/m2 al día, se muestra en la figura 1, con un valor promedio anual de 5,0 kWh/m2 al día. [19] Fig. 1. Radiación solar y cobertura nubosa presente en la zona. Fuente: autores 3. Dimensionado del SFV capaz de suministrar la energía semanal demandada por la flota Aplicando el método Modelo de Comportamiento Mensual y la expresión 1, se tiene que la energía entregada por un panel (Eeu) es de 1,2 kWh/día por módulo. Luego, la cantidad total necesaria de módulos (Nm) se obtiene con la condición de que la suma de la energía entregada por todos los paneles resulta la energía demandada (EeT), correspondiente a 280,0 kWh en dos días, equivalente a 140,0 kWh/día. Por lo tanto, si se necesita entregar 140,0 kWh/día para la recarga, se necesita un arreglo de 114 paneles fotovoltaicos, los cuales ocupan un área de 221,2 m2. Estos 114 módulos entregan una potencia pico de 34,2 kWp. No obstante, se deben tener en cuenta las pérdidas por temperatura, pérdidas debido a suciedad, pérdidas óhmicas del cableado y el rendimiento del inversor, que van a reflejarse en la eficiencia energética del sistema [19]. La eficiencia del panel ya se tuvo en cuenta anteriormente. Considerando todas las pérdidas se acuerda una potencia necesaria de 40,0 kWp, por lo que el sistema estará compuesto por 133 paneles fotovoltaicos. Los módulos deben estar orientados hacia el sur en el plano horizontal (azimut = 0,0o) y deben tener la inclinación de 15,0 teniendo en cuenta la posición del emplazamiento [19]. Luego de realizado el dimensionado del sistema, compuesto por un arreglo de 133 paneles fotovoltaicos de 300,0 Wp, para una potencia total de 40,0 kWp, se procede a realizar la simulación del mismo. 4. Simulación del comportamiento del SFV mediante el software HOMER. En primer lugar, se diseña el sistema autónomo, tal como se muestra en la fig. 2. Fig. 2. Diseño del sistema de recarga fotovoltaico. Fuente: autores Posteriormente el software estima la radiación solar si se le dan los datos de latitud y longitud del lugar del emplazamiento o también da la posibilidad de introducirlos manualmente. Para la simulación se toman los valores de radiación representados en la fig. 2. El arreglo fotovoltaico está compuesto por 133 paneles de 300,0 Wp, para una potencia total de 40,0 kWp. También son definidos los horarios de demanda eléctrica y su duración. En este caso se desea recargar la flota durante 5,0 horas, de la hora 11 a la 16, dos días consecutivos, con una potencia máxima de 30,0 W, figura 3. De esta manera la energía diaria generada es de 150,0 kWh, sobrepasando en 10,0 kWh la demanda diaria necesaria de la flota, esto se decide para asumir las pérdidas del sistema de recarga. Fig. 3. Demanda eléctrica de la flota. Fuente: autores Luego, se simula el sistema fotovoltaico de acuerdo a las condiciones de diseño expuestas anteriormente. La figura 4 representa la potencia fotovoltaica generada promedio mensual. Fig. 4. Potencia fotovoltaica generada promedio mensual. Fuente: autores La energía obtenida de los módulos fotovoltaicos es de 160,0 kWh/día como promedio. No obstante, a pesar de ser 20,0 kWh mayor que los 140,0 kWh necesarios al día, hay días nublados en el año en los cuales no se llega a ese valor. Esto se evidencia en la figura 5, en la cual, en amarillo se representa la energía diaria generada por los módulos fotovoltaicos durante todo el año y en azul, la demanda de la flota. Puede apreciarse que los paneles nunca producen los 40,0 kW de potencia de diseño, el valor mayor alcanzado es de 38,0 kW en noviembre, señalado mediante el círculo verde. Existen en cambio varios días en el año en los que la potencia de los paneles no llega ni a los 30,0 kW de potencia máxima de recarga establecida. Finalmente resulta que a pesar de que el SFV entrega un exceso de energía anual, correspondiente a 23,6 MWh, no se cumple con la recarga y se tiene un déficit de 5,5 MWh al año. Fig. 5. Comportamiento diario de la potencia entregada por el SFV de 40 kW. Fuente: autores Lo anterior se puede apreciar con más precisión en la figura 6. En ella, al igual que en la anterior, en amarillo se representa la energía generada por los módulos fotovoltaicos en los días sábado 12 y domingo 13 de septiembre, correspondientes a un fin de semana. En la misma también se representa, en azul, la demanda de la flota. Puede observarse que a pesar de que el sábado 12 se cuenta con una potencia de 36,0 kW y se abastece la demanda, el domingo 13 no se cumple con la misma. Opción 1, aumentando el número de paneles a instalar Esta opción no resulta aconsejable, pues haría falta instalar un SFV de más del triple de la potencia de diseño inicial, correspondiente a 40,0 kWp y 133 paneles. Pues con 120,0 kWp y 400 paneles fotovoltaicos, a pesar de que existe un exceso de energía generada en el año de 119,6 MWh, aún no se llega a cubrir el 100,0 % de la demanda, existiendo un déficit de 1,3 MWh al año, áreas de color azul en la figura 7. Fig. 7. Comportamiento diario de la potencia entregada por el SFV de 120 kW. Fuente: autores Opción 2, colocación de baterías para acumular energía Para esta opción se probó adicionarle al sistema propuesto, de 133 paneles fotovoltaicos y 40,0 kWp, diez (10) baterías Surrette S4KS25P de 1900,0 Ah y 4,0 V de capacidad y voltaje nominal respectivamente. Con una corriente máxima de descarga de 67,5 A. El esquema de la instalación queda representado en la figura 8. Fig. 8. Diseño del sistema de recarga fotovoltaico con baterías. Fuente: autores En la figura 9 se muestra el comportamiento anual del sistema. Se comprobó que las 10 baterías suministran el déficit de 5,5 MWh al año de energía del SFV y su descarga nunca sobrepasó el 45,0 %, figura 9. Fig. 9. Comportamiento de la potencia entregada por el SFV de 40 kW con baterías. Fuente: autores Opción 3, acoplar al sistema un generador eléctrico Instalar un generador eléctrico que emplee gasolina o diésel no es permisible si se desea contar con un sistema de recarga sostenible. La opción de emplear un generador eléctrico solo sería viable si el mismo se acopla a un motor de combustión interna (MCI) que trabaje con un combustible renovable. Un ejemplo pudiera ser que el MCI trabaje con biogás, obtenido a partir de biodigestores y este es un sistema complejo y costoso [25, 26]. De esta forma, con la configuración de 133 paneles fotovoltaicos, dimensionados a partir de tener en cuenta el mes de menor recurso solar, efectivamente se comprueba que el SFV no es capaz de cumplir con la demanda. Por esta razón, se presentarían 3 situaciones teóricamente factibles durante la simulación anual del SFV autónomo. De las mismas, la primera no fue factible. La segunda cumplió con la demanda pero al implementarla se incurriría en gastos adicionales, al necesitar 10 baterías, su cableado, interruptores, controladores de carga y demás. La tercera, cumpliría con los objetivos del trabajo solo si el MCI emplea combustibles obtenidos a partir de fuentes renovables de energía. CONCLUSIONES El empleó del método Modelo de Comportamiento Mensual permitió el dimensionamiento y evaluación de un SFV autónomo para la recarga de una flota de 14 vehículos eléctricos que consumen 140 kWh/día y evidenció la necesidad de contar con un arreglo de 133 paneles fotovoltaicos con una potencia de 40 kWp. A partir de las simulaciones con el software HOMER se demostró que el SFV no pudo abastecer el 30,1 % de la demanda energética impuesta por la flota, ascendente a 5,5 MWh/año de energía. La alternativa más ventajosa para satisfacer la demanda es aprovechar los horarios entre semana para recargar los vehículos. La metodología basada en el Modelo de Comportamiento Mensual presentó una baja certidumbre en la estimación de la demanda real de la flota, por lo que, en concordancia con la bibliografía consultada, se evidencia la importancia del empleo de los softwares de simulación para el dimensionamiento de sistemas que empleen fuentes renovables de energía, debido a la variabilidad de las mismas en el tiempo. REFERENCIAS 1. Vazquez L, Majanne Y, Castro M, et al. Energy System Planning towards Renewable Power System: Energy Matrix Change in Cuba by 2030. IFAC-PapersOnLine. 2018;51(28):522-7. DOI 10.1016/j.ifacol.2018.11.756. 2. Soria Lara J, Valenzuela Montes L. Dimensiones relevantes para la evaluación ambiental proactiva de la movilidad urbana. Investigaciones Geográficas, Boletín del Instituto de Geografía, UNAM. 2015;(87):5- 24. DOI 10.14350/rig.34416. 3. Kougias I, Nikitas A. Thiel C, et al. Clean energy and transport pathways for islands: A stakeholder analysis using Q method. Transportation Research Part D. Transport and Environment. 2020;78:102180. DOI 10.1016/j.trd.2019.11.009. 4. Sovacool B, Kester J. Cars and kids: Childhood perceptions of electric vehicles and sustainable transport in Denmark and the Netherlands. Technological Forecasting & Social Change. 2019;(144):182-92. DOI 10.1016/j.techfore.2019.04.006. 5. Helen Broadbent G, Metternicht G, Drozdzewski D. An Analysis of Consumer Incentives in Support of Electric Vehicle Uptake: An Australian Case Study. World Electric Vehicle Journal. 2019;10(11):1-15. DOI 10.3390/wevj10010011. 6. Habich Sobiegalla S, Kostka G, Anzinger N. Citizens’ electric vehicle purchase intentions in China: An analysis of microlevel and macro-level factors. Transport Policy. 2019;(79):223-233. DOI 10.1016/j.tranpol.2019.05.008. 7. Bolufé Torres J, Carrillo Vitale E. Contaminación atmosférica por material particulado en avenidas de La Habana con alto flujo vehicular. Transporte, Desarrollo y Medio Ambiente. 2018;38(74):10-18. 8. Cuesta O, Bolufé Torres J, Gonzalez Y, et al. Contaminación atmosférica por fuentes móviles en la calle Reina, La Habana. Revista Cubana de Meteorología. 2017;23(1):78-88. 9. Guo C, Yang J, Yang L. Planning of Electric Vehicle Charging Infrastructure for Urban Areas with Tight Land Supply. Energies. 2018;11(9):23-34. DOI 10.3390/en11092314. 10. Zhang Q, Li H, Zhu L, et al. Factors influencing the economics of public charging infrastructures for EV: A review. Renewable and Sustainable Energy Reviews. 2018;(94):500-9. DOI 10.1016/j.rser.2018.06.022. 11. Tan Ma, Mohamed A, Mohammed, O. Optimal charging of plugin electric vehicles for a car park infrastructure,” In Industry Applications Society Annual Meeting (IAS). Ottawa, Cánada: IEEE; 2012 DOI 10.1109/IAS.2012.6374035. 12. Chakrabarti A, Proeglhoef R, Bustos Turu G, et al. Optimisation and analysis of system integration between electric vehicles and UK decentralised energy schemes. Energy. 2019.176(1) p. 805-15. DOI 10.1016/j.energy.2019.03.184. 13. Hutson C, Venayagamoorthy G, Corzine K. Intelligent scheduling of hybrid and electric vehicle storage capacity in a parking lot for profit maximization in grid power transactions. In: Energy 2030 Conference, 2008. ENERGY 2008. Ottawa, Cánada: IEEE; 2008. DOI 10.1109/ENERGY.2008.4781051. 14. Gan L, Topcu U, Low S. Optimal decentralized protocol for electric vehicle charging. In: IEEE Conference on Decision and Control and European Control Conference. Orlando, USA: IEEE; 2011. DOI 10.1109/CDC.2011.6161220. 15. Paffumi E, De Gennaro M, Martini G. Innovative technologies for smart cities: towards customer driven infrastructure design for large scale deployment of electric vehicles and Vehicle-to-Grid applications. Transportation Research Procedia. 2016;(14):4505-14. DOI 10.1016/j.trpro.2016.05.373. 16. Cheng A, Tarroja B, Shaffer B, et al. Comparing the emissions benefits of centralized vs. decentralized electric vehicle Smart charging approaches: A case study of the year 2030 California electric grid. Journal of Power Sources. 2018;(401):175-85. DOI 10.1016/j.jpowsour.2018.08.092. 17. Timpner, J, Wolf L. A back-end system for an autonomous parking and charging system for electric vehicles. Electric Vehicle Conference (IEVC). Ottawa, Cánada: IEEE International; 2012. DOI 10.1109/ IEVC.2012.6183267. 18. Hoaraua Q, Perez Y. Interactions between electric mobility and photovoltaic generation: A review. Renewable and Sustainable Energy Reviews. 2018;(94):510-22. DOI 10.1016/j.rser.2018.06.039. 19. Castillo O, Sarmiento A. Influencia combinada del espaciamiento y la inclinación de módulos en generación fotovoltaica. Revista Cubana de Ingeniería. 2017; VIII(2):29-34. EVALUACION DEL POTENCIAL EOLICO EN EL COMPLEJO TURISTICO “LAS TERRAZAS” EMPLEANDO EL SOFTWARE WASP WIND POTENTIAL ASSESSMENT IN THE TOURIST COMPLEX “LAS TERRAZAS”, CUBA USING WASP SOFTWARE Jose Augusto Medrano Hernandez1 Conrado Moreno Figueredo2 1Centro de Estudio de Tecnologías Energéticas Renovables, Universidad Tecnológica de la Habana José A. Echeverría, Calle 114 nro. 11907, Marianao, La Habana, Cuba,, 2 Centro de Estudio de Tecnologías Energéticas Renovables, Universidad Tecnológica de la Habana José A. Echeverría, Calle 114 nro. 11907, Marianao, La Habana, Cuba 1e-mail: jmedrano@mecanica.cujae.edu.cu RESUMEN El cálculo del recurso eólico en un sitio y la producción de energía correspondiente están basados en le mediante programas de computación que calculan la producción de energía pronosticada en el sitio propuesto. En este caso la campana de mediciones fue llevada a cabo por el Instituto de Meteorología en la Zona Especial de Desarrollo Mariel. Con el objetivo de evaluar el potencial eólico en el Complejo Turístico Las Terrazas se aplicó el software WAsP (Wind Atlas Analysis and Application Program). Los datos de entrada empleados fueron los valores registrados de dirección y velocidad del viento en la Loma El Salón, las dimensiones de los obstáculos en los alrededores, de la torre anemométrica y el mapa combinado de cambios de rugosidad y descripción del terreno que contiene la orografía del mismo, De esta forma el programa WAsP proporciona un file de salida en un Sistema de Información Geográfica (GIS) con el mapa de distribución de densidad acorde con la velocidad media anual con un resolución especial de 100 metros. Los resultados muestran que la velocidad potencial máxima es localizada exactamente en el sitio seleccionado la Loma El Salón. Un análisis detallado también permitió la identificación de diferentes sitios con potencial eólico explotable PALABRAS CLAVES: potencia eólica, turbina eólica, velocidad del viento ABSTRACT The calculation of the wind resources on-site and the corresponding energy production are based on the assessment of wind potentials by anemometric measurement. The wind data is processed by software packages to calculate the expected wind energy yield for the proposed site. A wind measurement campaign was carried out in the Meteorological Station of Special Zone MarielWith the aim of assessing the wind potential in the Tourist Complex Las Terrazas was applied the software WAsP (Wind Atlas Analysis and Application Program). The inputs used were the records of direction and wind speed values registered in La Loma El Salon, location and dimensions of the obstacles in the vicinity of anemometer mast and the combined map of changes roughness and terrain description comprising of the orographical (topographical) model Processing WAsP ouputs file in a Geographic Information System (GIS) was obtained the map with density distribution of average annual wind power with spatial resolution of 100 meters. The results show that the máximum wind potential is located exactly in the selected site La Loma El Salon. A detailed analysis also allowed the identification different sites with exploitable wind potential. KEY WORDS: wind power, wind turbine, wind speed 1. INTRODUCCION El creciente consumo de energía y el desmesurado uso de los combustibles fósiles, ha impulsado a las grandes economías del mundo a fomentar planes estratégicos e inversiones en el uso de las energías limpias, vinculando a su formación, nuevas tecnologías, para poder confrontar la crisis global y la inestabilidad en los precios del petróleo; a raíz del acuerdo de París sobre el cambio climático y factores macroeconómicos. La energía es un bien necesario para el progreso económico y para el bienestar de la humanidad, así como uno de los pilares básicos en el desarrollo de un país. En todo caso, el ahorro de energía es una necesidad económica y ecológica, principalmente en el bombeo de agua, entre otras aplicaciones [1]. El problema del suministro de agua se va situando entre los principales temas para políticos, economistas, comunicadores, ecologistas, manteniendo la atención del público en general. Se trata, además, de algo técnicamente complejo. Para enfrentar el problema del consumo de combustibles fósiles por concepto de suministro de agua, a nivel mundial se realizan investigaciones y proyectos de I+D en aras de buscar soluciones para la producción de energía teniendo en cuenta el crecimiento de la demanda de agua, tratando de depender lo menos posible de estos productos, es que surgen alternativas como las Tecnologías Energéticas Renovables. La principal razón que actualmente impulsa a investigadores, ingenieros y especialistas a la búsqueda de soluciones más viables al problema de la producción de electricidad para el bombeo de agua, son los altos costos de obtención del kWh, debido al alto precio del petróleo a nivel mundial y la contaminación medioambiental que genera la quema de combustibles fósiles. Es por ello que el presente trabajo se basa en estudiar la factibilidad de aprovechar el viento como recurso energético para el suministro de agua en zonas pre-montañosas, a partir de la evaluación del recurso eólico y estimación del potencial energético, a través del empleo del programa WAsP. Para ello, como caso de estudio, se ha seleccionado el complejo eco - turístico “Las Terrazas”, localizado en el extremo oriental de la Sierra del Rosario, donde predomina un relieve pre- montañoso, el cual, por su situación geográfica, se encuentra en la zona de actividad de la mayoría de los huracanes que llegan a Cuba, con alto índice de turbulencia, algo característico de este tipo de relieve y además de su exposición a la ocurrencia de vientos extremos, característico en Cuba y el Caribe. Adicionalmente, el complejo se localiza en zona alejada de la costa norte, donde los vientos son apreciables y el terreno varía significativamente adoptando rasgos particulares con zonas que se distinguen y diferencian unas a otras. Los terrenos complejos como el del caso de estudio y las turbulencias locales pueden provocar ráfagas de viento que ataquen el rotor de la turbina eólica desde diversas direcciones y provoquen deformaciones permanentes y fracturas en estructuras y mecanismos, de ahí la importancia de una correcta evaluación del recurso eólico, para la posterior selección de la máquina a instalar (clase y tipo). 2. ANÁLISIS DE LA FACTIBILIDAD DE APROVECHAMIENTO DEL VIENTO COMO RECURSO ENERGÉTICO PARA EL SUMINISTRO DE AGUA EN ZONAS PRE- MONTAÑOSAS. MATERIALES Y MÉTODOS. En este acápite se presenta la metodología para analizar la factibilidad de aprovechar el viento como recurso energético para el suministro de agua en zonas pre-montañosas, comenzando por la evaluación del recurso eólico. Evaluación del recurso eólico en un sitio En esta etapa se recopilan y analizan los datos del viento que se dispongan. Lo más común es que al evaluar el recurso eólico, los datos, sean provenientes de las estaciones meteorológicas. Generalmente, en éstas se pueden encontrar las velocidades medias de cada mes, siendo posible, además, determinar los valores de la desviación estándar en cada mes promediando para un período de tiempo que debe ser como mínimo un año. Estas mediciones deben corresponder a la estación de medición más cercana al sitio de instalación de la máquina eólica. El conocimiento de los recursos eólicos de un país es imprescindible para estimar la energía que se puede obtener a través la instalación de turbinas eólicas, bien sea a pequeña o gran escala. Uno de los primeros pasos, necesario para el estudio de factibilidad de la energía eólica en una región, es la estimación del recurso eólico disponible. Como se resume en la revisión realizada por Landberg et al. (2003), existen muchos métodos para la estimación del recurso eólico en un área [2]. Esta revisión resume los siguientes métodos: a) Mediciones solamente: En este caso, se instalan torres de medición y los datos se van acumulando como mínimo durante un año. Cuando estas torres de medición son instaladas adecuadamente expuestas al viento, y en terreno llano y homogéneo, éstas son representativas de amplias zonas, pero en otros casos, apenas son representativas. A causa de la variabilidad espacial del recurso eólico, los datos de viento obtenidos, sólo pueden emplearse para evaluar su entorno más cercano. Incluso, cuando no existen grandes efectos topográficos, las condiciones de viento se ven afectadas por las inhomogeneidades de las condiciones superficiales. Por tanto, se necesitan técnicas para evaluar el efecto de la topografía sobre las características del viento en puntos distintos del de la estación de medida. En unos pocos casos sencillos, existen expresiones algebraicas que permiten cuantificar el efecto de la topografía sobre el campo de vientos. En otros hay que recurrir a métodos físicos o numéricos [3]. b) Bases de datos globales: En caso de no contar con mediciones de los parámetros del viento en el lugar, la estimación de la velocidad media del viento, se realiza a través de la consulta de varias bases de datos (nacionales e internacionales) y la utilización de modelos como los mapas eólicos existentes, se comparan los resultados y si existe diferencia entre ellos, se considera un promedio de las velocidades de viento obtenidas. En la actualidad, la evaluación del recurso eólico en un sitio, se realiza con más frecuencia a través de modelos como los atlas eólicos de cada región. Para la elaboración de los atlas eólicos, se emplean programas entre los que se encuentra el Modelo WAsP. c) Análisis de atlas eólicos: Para el análisis de atlas eólicos se pueden emplear varios modelos. Entre los más empleados se encuentran el Windpro y el WAsP: - Windpro: Es un programa informático para ordenadores, creado por la empresa danesa EMD International A/S Ltd. Y está dirigido a todos los que trabajan en la planificación, aprobación y administración oficial de proyectos eólicos. Dispone de un módulo de energía que funciona con un emplazamiento definido, pudiendo importar, analizar y procesar los datos de viento medidos para la caracterización y evaluación del potencial energético de un sitio. Tiene además la posibilidad del cálculo de la energía producida por las turbinas eólicas. - Modelo WAsP (Wind Atlas Analysis Program): Es un sistema de programas integrado por varios modelos físicos y estadísticos que permite modelar horizontal y verticalmente el campo de viento en un área dada. WAsP fue desarrollado en 1987 por DTU. WAsP incluye también al programa windPRO, siendo empleado ya en más de 120 países. Principales ventajas del modelo WAsP Entre las principales ventajas del programa WAsP se encuentran: - Facilidad de uso - Necesidad de sólo un observatorio - Buen tratamiento del efecto de obstáculos, cambios de rugosidad y topografía sencillas. Dada la gran versatilidad del modelo WAsP y las ventajas que presenta, a los efectos del presente trabajo, para el tratamiento estadístico de las mediciones del viento realizadas en el complejo “Las Terrazas”, se emplea esta herramienta. Metodología para la evaluación del recurso eólico en un sitio a través del modelo WAsP. Herramientas empleadas. La metodología para la evaluación del recurso eólico en un sitio a través de WAsP es como sigue: 1. Preparación de los ficheros de los datos del viento para su inserción el programa: Los datos del viento (fecha de medición, hora de medición, velocidad del viento correspondiente a cada intervalo de medición y dirección del viento correspondiente a cada intervalo medición) se copian en el block de notas (Notepad), luego este fichero se guarda con extensión .DAT. 2. Preparación del fichero del Clima de Viento Observado: Para crear este fichero se emplea la herramienta Wind Climate Analyst (Analizador del clima de viento en WAsP 12) u OWC Wizard (para versiones más antiguas de WAsP). 3. Digitalización del mapa correspondiente al terreno donde se realizaron las mediciones del viento: La digitalización del mapa donde se realizaron las mediciones consiste en asignar valores de longitud de rugosidad según las características del terreno. Para la digitalización del mapa se emplea la herramienta Map Editor (editor de mapas). En la siguiente tabla se presentan los valores de longitud de rugosidad de acuerdo con el tipo de terreno. Tabla 1. Longitud de rugosidad de acuerdo con el tipo de terreno Tipo de terreno Zona Longitud de la rugosidad (m) Llano abierto Playa, océano, superficies arenosas z0= 0.0003 Hierba baja, aeropuertos, tierras de cultivos vacías. z0= 0.03 Hierba alta, cultivos bajos z0= 0.100 Terreno Rugoso Cultivos altos alineados, árboles bajos z0= 0.250 Terreno muy rugoso Bosques naturales. z0= 0.400 Terrenos cerrados Poblados, suburbios. z0> 1.000 Ciudades Centro de ciudades, espacios abiertos en bosques. z0> 2.000 4. Predicción del recurso eólico en el sitio bajo estudio: En este caso, se utiliza la herramienta Generalised Wind Climate (Clima de viento generalizado, en WAsP 12) y Wind Atlas (en versiones anteriores de WAsP). En esta etapa es donde se obtienen finalmente los resultados de la evaluación del recurso eólico del sitio (velocidad media del viento ( v ), los factores de forma k y escala c, rumbos dominantes de la velocidad del viento a través de la rosa de los vientos, la distribución de frecuencias de ocurrencia de cierto valor de la velocidad del viento y la distribución de probabilidades de Weibull). Análisis preliminar de la factibilidad del aprovechamiento de viento como recurso energético Para analizar la factibilidad de aprovechar el viento como recurso energético en un sitio, debe tenerse en cuenta un parámetro muy importante como el Factor de Capacidad (FC). Este es un indicador que brinda una muestra de cuánto se aprovecha a lo largo del período considerado la potencia instalada de acuerdo con las características del viento en el sitio. Generalmente el Factor de Capacidad se considera bueno para este tipo de instalaciones a partir del 20%. Para la selección del sitio de emplazamiento de máquinas eólicas, el factor de capacidad en un sitio se puede determinar a través de la ecuación [4]:  0,07 0,2 100%FC v      (1) Donde v representa a la velocidad media en m/s. En resumen, el principio de factibilidad de aprovechamiento del viento como recuro energético en un sitio, bajo el criterio del Factor de Capacidad, se cumple si FC ≥ 20%. Si FC ≥ 20%, entonces se procede al dimensionamiento del sistema de bombeo, de lo contrario, se concluye que no es factible instalar un sistema eólico en el sitio estudiado, por lo que debe seleccionarse otro lugar para el emplazamiento de la máquina eólica. A continuación, se presenta la metodología para el dimensionamiento y selección del equipamiento del sistema de bombeo, capaz de satisfacer la demanda de agua del caso de estudio (a los efectos de este trabajo, el Complejo eco-turístico “Las Terrazas”). Dimensionamiento y selección del equipamiento del sistema de bombeo A los fines del presente trabajo, se propone el dimensionamiento de un Sistema de Bombeo Eolo- Eléctrico, SBEE (compuesto por una turbina eólica, bomba (s) centrífuga (s), sistema de control y circuito hidráulico). En este tipo de sistema la turbina eólica produce la energía eléctrica necesaria para accionar el equipamiento de bombeo sin necesidad de consumir electricidad de la red. Estos sistemas de bombeo son más avanzados y eficientes que los sistemas de bombeo tradicionales con molinos de viento y bombas de émbolo. Para el dimensionamiento y selección del equipamiento del sistema de bombeo, se deben definir las siguientes variables de entrada: Requerimientos para el bombeo Constituyen requerimientos para el bombeo el caudal de agua demando por el Complejo “Las Terrazas”, Qd (considerando todos los tipos de consumidores existentes) y la carga total de bombeo, HT (es la sumatoria de la altura a la cual hay que suministrar el agua más las pérdidas hidráulicas existentes en el interior de la tubería conductora). - Parámetros del viento obtenidos como resultados de la evaluación del recurso eólico (acápite 2.3, paso 4). -Dimensionamiento y selección de la turbina eólica Para el dimensionamiento de la turbina eólica para el bombeo de agua, se determina el diámetro de rotor mínimo necesario. Esto se hace posible a través de las siguientes ecuaciones [5]: 2 313,6 24 2 T d aire g H Q A m v FPE             (2) Donde A es el área de barrido mínima necesaria en m2; Qd corresponde al caudal de agua demandado, en m3/día; HT es la carga total de bombeo, en m; ρaire es la densidad del aire, en kg/m3; v es la velocidad media del viento, en m/s; FPE es el Factor Patrón de Energía; η es la eficiencia global del sistema de bombeo. Este valor se estima entre el 10 y el 12% y g es la aceleración de la gravedad, en m/s2. El Factor Patrón de Energía (FPE) La utilidad del FPE radica en que con él se puede calcular la potencia media disponible en un determinado lugar, pues por lo general lo que se conoce es la velocidad media. Por ejemplo, al emplear la velocidad media estimada para calcular la densidad de potencia media en un sitio cualquiera, es necesario introducir el FPE para acercar la estimación al valor real. La ecuación que caracteriza al factor patrón de energía tiene la forma:     3 3 1 3 /* 1 1/ kv FPE v k          (3) Donde k corresponde al factor de forma La utilidad del FPE radica en que con él se puede calcular la potencia media disponible en un determinado lugar. Por otro lado, la función Gamma (Γ) se puede aproximar a un polinomio que tiene la forma: 2 3 4 0 1 2 3 4C C C X C X C X C X      (4) Donde C´ es la función Gamma (Γ) evaluada en el factor de forma (k). El polinomio anterior se puede escribir de la manera: 2 3 4 0 1 2 3 4 3 1 1 ; 1 C C X C X C X C X k k                     (5) Donde C0 = 0,8863; C1= 0,00853; C2= 0,02558; C3= 0,002118 y C4= 6,0436 * 10-4 Para el caso de la función Ganma evaluada en: 3 1 k        , 3 4 1 6X k         (6) Para el caso de la función Ganma evaluada en: 1 1 k        , 1 4 1 6X k         (7) El diámetro del rotor de la turbina eólica (D), se obtiene empleando la fórmula descrita en [5]: 4A D   (8) Selección del equipamiento Para el caso de la selección de la turbina eólica, para zonas pre-montañosas es muy importante tomar en consideración la clase de viento de la máquina a instalar, pues la zona donde se encuentra el complejo “Las Terrazas”, cada año es azotada por los huracanes. La clase de viento de las turbinas eólicas se especifica en la siguiente tabla: Tabla 2. Parámetros básicos para la definición de la clase de las turbinas eólicas [6]. Clase de la turbina eólica I II III S Vreferencia (m/s) 50 42,5 37,5 Valores especificados por el diseñador A Iref 0,16 0,14 0,12 B Iref C Iref Donde Vref. es la velocidad del viento de referencia con un promedio de registro sobre los 10 min en m/s, A, B y C son las categorías designadas para las características de altas, medianas y bajas turbulencias e Iref, el valor de intensidad de turbulencia esperado a una velocidad de 15 m/s. La metodología para la determinación de la clase de viento de la turbina eólica, se especifica en [7]. Para el caso del equipamiento de bombeo, la selección en los catálogos se realiza en función del caudal de agua a satisfacer (Qd) y la carga total de bombeo (HT). Predicción del caudal de agua que se pudiera bombear (Qe). Una vez seleccionados los principales componentes del sistema de bombeo (bomba(s) y turbina eólica), primeramente, se debe verificar si se satisface la demanda de agua. Si todos los pasos se han dado correctamente, la demanda de agua debe ser satisfecha. La siguiente ecuación que permite determinar el caudal de agua entregado diariamente por el sistema: 2 3 3 1 3,6 24 4 2 m /día aire e T D v FPE Q g H               (10) Determinación de la eficiencia global de trabajo del sistema de bombeo (η) La eficiencia global del sistema (η) se obtiene multiplicando la eficiencia de cada componente (como se muestra en la ecuación 6). En este caso, como componentes se tienen la turbina eólica y la bomba eléctrica. 31 2 i TE B B aire P A v FPE             (11) Donde ηTE es la eficiencia de la turbina eólica o coeficiente de potencia como también se conoce, A es el área de barrido de la turbina eólica, v es la velocidad media del viento y ηB es la eficiencia de la bomba (que se obtiene a través del método de simulación del sistema de bombeo). 3. RESULTADOS Y DISCUSIÓN En este acápite se presentan y discuten los resultados de la evaluación del recurso eólico en el complejo “Las Terrazas”. Evaluación del recurso eólico. Caracterización del recurso eólico en el complejo “Las Terrazas” Al Complejo “Las Terrazas” lo rodean tres elevaciones, una al suroeste (El Salón con una altura de 544m sobre el nivel del mar), otra más al este (La Gloria con una altura de 241m sobre el nivel del mar) y una más cercana (El Taburete con una altura de 452.7m sobre el nivel del mar), como se observa en la siguiente figura. Figura 2. Localización geográfica del complejo “Las Terrazas”, las lomas “El Salón”, “La Gloria” y “El Taburete”. De las tres elevaciones, “El Salón” es la de mayor altura (544m). En la zona donde se localiza el complejo “Las Terrazas”. Por lo antes expuesto, se propone realizar la evaluación del recurso eólico en la loma “El Salón”, pues además es la más cercana al complejo. Caracterización de la loma “El Salón” La loma “El Salón” constituye una de tres zonas de amortiguamiento de “Las Terrazas”. En los alrededores de la cima de la loma existen bosques naturales, con una tupida vegetación. Dadas las características de la vegetación, esta clasifica como un terreno complejo, con altos velores de rugosidad del terreno y turbulencia. En la siguiente figura, se observa el entorno de la cima de la loma, mirando al suroeste. Figura 3. Entorno de la cima de la loma “El Salón”, mirando al suroeste. Evaluación del recurso eólico en la loma “El Salón” a través del modelo WAsP La evaluación del recurso eólico en la loma “El Salón” se realiza siguiendo la metodología descrita en el acápite 2.2. Los datos del viento para realizar los cálculos se utilizó una serie temporal de los datos del viento (correspondientes a un año e intervalo de medición de 10 min) de un sitio localizado en las cercanías del pueblo de Mariel, cuyas coordenadas son 22.59153° N de latitud, 82.444625° E de longitud. Las mediciones del viento fueron tomadas a una altura de 50 m sobre el nivel del terreno. Del procesamiento estadístico, se obtuvo la dirección predominante y los parámetros del viento observados en la torre de medición (estos resultados no tienen en cuenta el efecto de la orografía y la topografía), tal y como se muestra en la figura: Figura 4. Parámetros del viento observados en la torre de medición a 50 m sobre el nivel del terreno Para conocer el comportamiento del recurso eólico real en la loma “El Salón”, deben considerarse las características del terreno (topografía y orografía). Para el análisis en el programa WAsP, el viento observado tiene que asociarse al mapa que contiene las verdaderas características del terreno (topografía y orografía según corresponda). Dado que la cima de la loma está rodeada por bosques naturales con vegetación alta y tupida, corresponde una altura de rugosidad z0= 0.4 m (tabla 1). En este caso, se toma en cuenta tanto la topografía (rugosidad) como la orografía (elevación), pues ambas tienen un efecto significativo sobre la velocidad del viento. En la siguiente figura se presenta el mapa donde aparecen representadas las características del terreno. Figura 5. Representación de las características del terreno de la loma “El Salón” en un mapa de rugosidades Tomando en cuenta los efectos de la rugosidad y de la elevación, las características del viento tienen un comportamiento como el que se muestra en la figura siguiente: Cima de la loma “El Salón” Figura 6. Comportamiento de los parámetros del viento en la loma “El Salón” a 50 m sobre el nivel del terreno y rugosidad clase 3 (z0= 0.4 m) De acuerdo con la figura 6, los parámetros del viento en la loma “El Salón” a 50 m sobre el nivel del terreno y rugosidad clase 3 (z0= 0.4 m), se resumen en la siguiente tabla: Tabla 3. Resumen de los parámetros del viento en la loma “El Salón” a 50 m sobre el nivel del terreno y rugosidad clase 3 (z0= 0.4 m) Parámetro Valor Velocidad media del viento (para los efectos de WAsP, U ) 6.28 m/s Factor de forma (k) 2.63 Factor de escala c (para los efectos de WAsP, A) 7.1 m/s Densidad de potencia (P) 231 W/m2 Nótese que al tomar en consideración las características del terreno, los parámetros del viento observados en la torre de medición sufren cambios (generalmente sufren una reducción como se aprecia en las figuras 4 y 6). Esto también demuestra que tanto la rugosidad del terreno como las elevaciones tienen un efecto significativo sobre la velocidad del viento (figura 6). Análisis preliminar de la factibilidad del aprovechamiento de viento como recurso energético Como se expresó anteriormente, la ecuación 1 brinda una medida de la factibilidad o no de aprovechar el viento existente en la loma “El Salón” para fines energéticos. Aplicando la ecuación 1, para una velocidad media de 6.28 m/s a 50 m sobre el nivel del terreno, el Factor de Capacidad es de 23.96%, ligeramente superior al 20%, por lo que se puede afirmar es factible aprovechar el viento para fines energéticos. Predicción del caudal de agua que se pudiera bombear si se instala una turbina eólica en la cima de loma “El Salón” Para predecir el caudal de agua que se pudiera bombear si se instala una turbina eólica en la cima de la loma “El Salón”: - Determinar los requerimientos para el bombeo El caudal de agua demandado Qd: tomando en cuenta las necesidades de agua de la población, el hotel Moka y servicios, la demanda de agua se estima en 572.8 m3/día. La carga total de bombeo HT: A través de una visita a la estación de bombeo, se conoce que la carga total de bombeo, incluyendo las pérdidas hidráulicas en el circuito, se estima en 110 m. El Factor Patrón de Energía (FPE): Utilizando las ecuaciones 3-7, FPE = 1.62. - La eficiencia glogal del sistema de bombeo (η): Como se expresó anteriormente, este valor se estima entre el 10 y el 12%. A los efectos del cálculo se toma el menor valor, η = 0.10 (10%). Finalmente, aplicando las ecuaciones 2 y 8, se obtiene que el diámetro mínimo necesario del rotor de la turbina eólica es 19.2 m. Dado que la loma “El Salón” clasifica como un terreno complejo que se localiza en la zona occidental de Cuba, área de gran actividad de huracanes, se hace necesario tomar en consideración la clase de viento de la máquina a instalar. A partir de un estudio realizado recientemente sobre los vientos extremos, se obtuvieron los resultados que se muestran en la siguiente tabla: Tabla 4. Comportamiento de la velocidad de los vientos extremos en el occidente de Cuba Año 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 Velocidad máxima anual (m/s) 30.6 36.7 33.8 34.4 26.7 36.6 32.5 36.5 39.9 32.1 Aplicando la metodología descrita en [7], del procesamiento estadístico de los datos de la tabla 4, se obtiene que la velocidad de referencia para la selección de la clase de la turbina eólica es Vref = 49.9 m/s, lo cual corresponde a una turbina eólica clase I. Por otro lado, considerando que a la loma “El Salón” la rodean bosques naturales con vegetación tupida, se asume el máximo índice de turbulencia de referencia que se especifica en [6] (Iref = 0.16). De acuerdo con la tabla 2, en la cima de la loma “El Salón” se debe instalar una turbina eólica clase IA. Teniendo en cuenta la clase de viento, en catálogos se selecciona una turbina eólica modelo Norwin 29- STALL-200 kW (29 m de diámetro de rotor, 200 kW de potencia nominal y una altura de buje de 50 m). En cuanto al equipamiento de bombeo, se propone instalar una bomba de eje horizontal en la estación de bombeo 2, pues es la más cercana al complejo y se disminuirían las pérdidas hidráulicas en la tubería conductora. Para sistemas de bombeo que emplean Fuentes Renovables de Energía, las bombas sumergibles son las más empleadas comúnmente en los pozos perforados, aunque cuando se trata de bajas cargas, como en “Las Terrazas”, las bombas centrífugas de eje horizontal pueden ser empleadas con buenos resultados [8]. Para el abastecimiento de agua al complejo, se propone instalar una bomba modelo INH 50-250 ɸ249 (potencia nominal 30 kW, carga máxima de bombeo, 118.4 m y velocidad de rotación, 3450 rpm). Según la curva de potencia ofrecida por el fabricante, la potencia que entrega la turbina eólica para el valor de la velocidad media (5.73 m/s) es Pi = 33.28 kW, y aplicando la ecuación 11, se obtiene que la eficiencia de la turbina eólica es ηTE = 0.205 (20.5%). De los resultados de la simulación del sistema de bombeo se obtiene que la eficiencia de la bomba centrífuga es ηB = 0.5536 (55.36%), la velocidad de rotación es 2565 rpm y la potencia consumida es Ne = 16.61 kW. La eficiencia global del sistema de bombeo operando bajo las características del viento de la loma “El Salón” es η = 0.113 (η = 11.3%). Como se puede observar, la eficiencia global calculada se encuentra en el rango de 0.1 – 0.12 (10-12%). Como resultado de la aplicación de la ecuación 10, se obtiene que el caudal de agua entregado por el sistema de bombeo es Qe = 1467.9 m3/día, lo cual demuestra que con el potencial eólico existente en la loma “El Salón” es posible satisfacer la demanda de agua del complejo “Las Terrazas”, contribuyendo a disminuir la degradación medioambiental que produce la quema de combustibles fósiles para la producción de electricidad. 4. CONCLUSIONES A los fines del presente trabajo se resume lo siguiente: 1. Se realizó un estudio sobre el comportamiento del viento en la loma “El Salón”, partiendo de una serie temporal de datos correspondiente a un año. 2. Se empleó el modelo WAsP para el análisis del comportamiento del viento en la loma “El Salón”, considerando las características del terreno (orografía y topografía), obteniéndose como resultado que la velocidad media del viento es de 6.28 m/s, la cual cumple con los requerimientos para la instalación de turbinas eólicas. 3. Según los resultados obtenidos de la evaluación del recurso eólico, se concluye que es factible instalar un sistema de bombeo eólico para atenuar el consumo de combustibles fósiles, y así disminuir contaminación medioambiental. 4. La evaluación del potencial eólico realizada en la loma “El Salón” demuestra que es posible satisfacer las necesidades de agua del complejo “Las Terrazas”. REFERENCIAS 1. MORENO FIGUEREDO C R. et. al Doce Preguntas y Respuestas sobre Energia Eolica, Ciudad de la Habana Editorial Cubasolar, 2017 vol 1, ISBN: 2017978-959-7113-51-5. 2. MANWELL M J G and ROGER J F 2011. Wind Energy Explained Second edition, ISBN 978-0-470-01500-1, p 65 - 66. 3. MEDRANO HERNANDEZ J A. PhD thesis, Technological University of Havana (Havana: Cuba) Universidad Tecnológica de La Habana, 2020, p36-38. 4. VILLARRUBIA M. Energía eólica, Editorial CEAC Energías Alternativas y Medio Ambiente, Barcelona, España, 2012. ISBN:84-267-1580-7. 5. Moreno C, Medrano Hernandez J A, Arzola Ruiz J and Janssens A, Cuban Journal of Engineering Havana, Cuba 2020, , vol XI (3), p 54-65, ISSN: 2223-1781 6. SPANISH ASSOCIATION FOR STANDARDIZATION AND CERTIFICATION IEC 61 400-1 2013, International Standard, third edition, Madrid, España. 7. MEDRANO J A, MORENO C R and VAILLANT J E, Energy Engineering Magazine, Havana, Cuba 2020, vol 40, no. 3, p. 223-233, 2019. ISSN 1815-5901. 8. GARCÍA BRMUDEZ L, Thesis, Technological University of Havana2014, Havana: Cuba.. DESIGN OF WIND SYSTEM FOR SUPPLYING ELECTRICITY TO HOTEL COVARRUBIAS, LAS TUNAS PROVINCE Conrado Moreno Figueredo1 Jose Augusto Medrano Hernandez2 1Centro de Estudio de Tecnologías Energéticas Renovables, Universidad Tecnológica de la Habana José A. Echeverría, Calle 114 nro. 11907, Marianao, La Habana, Cuba, 2 Centro de Estudio de Tecnologías Energéticas Renovables, Universidad Tecnológica de la Habana José A. Echeverría, Calle 114 nro. 11907, Marianao, La Habana, Cuba 1e-mail: conrado@mecanica.cujae.edu.cu ABSTRACT This paper aims to design a wind system for supplying electricity to the Hotel Covarrubias which demand 56 207 kWh/monthly. Given the favourable wind conditions in the site, to select the most optimal turbine model that makes use of the wind resource of the place capable of supplying the necessary electricity to the hotel and to demonstrate which is economically feasible are the main objectives of this paper. For this, the wind potential in the study area has been assessed. Following three wind turbines are shortlisted according to the extreme speeds coming from the hurricanes and the turbulence index. The power curve method will be used for estimating the wind energy produced that will link the behaviour of the wind turbine with the characteristics of the wind in the site, which will allow to reach the searched results. An economical study is carried out in order to select the best wind turbine from the point of view economic benefits. Finally, a 275 kW wind turbine is selected able to satisfy the demand of the hotel. . KEY WORDS: wind power, wind turbine, wind speed 1. INTRODUCTION As is well known, the wind energy generation increases day by day, therefore it is very useful to have a quick and accurate methodology to design a wind system focused on supply electricity to an autonomous objective. Precisely this paper concerns the application of a methodology to design this type of wind energy system to a study case: Hotel Covarrubias in Las Tunas province, Cuba This methodology is focused to assess and select an adequate site in Cuba for this autonomous objective, , to estimate the annual energy production finding out the most appropriate wind 2. MATERIALS AND METHODS This section presents first the initial step for solving the problem declared that is, the selection of the site and next the methodology applied to satisfy the proposed objective. Wind system site selection One important and decisive step for applied the methodology is the identification of possible locations for installing the wind turbines. For this, four main aspects are necessary to take into account for identifying the correct location of the wind turbine: wind resources, impact on birds, distance to transmission grid and land area requirements. In addition, it is usual an Environmental Study in the major part of wind energy projects. The purpose of a Wind System Environmental Study may be summarized as to: local regulations, local community acceptance, measures that will be taken to mitigate any adverse impact, noise assessment and others. Wind Resources One of the most important aspects of locating wind turbines is the available wind resource. Wind turbine power output depends on the cube of wind speed. Thus, it is best to locate wind turbines in areas with high average wind speeds. In addition, wind speed generally increases, and turbulence decreases, with increasing height off the ground. Thus, taller wind turbines generally produce more power than shorter turbines. The location of wind turbines is subordinated to the wind resource characteristics, e.g. the wind resource availability. Thus, the production of energy from a wind turbine depends on the performance of wind speed therefore the best location of wind turbines the highest average wind speed and minor turbulence. An important property of the wind is the increasing of wind speed with the height of the wind turbine tower. Thus, the wind resource assessment is not only for wind speeds but also for other parameters such as turbulence index. Summarizing, obtaining information about the wind resource in the site selected is a key step to the site selection process. Two usual sources of wind resource are available: wind resource maps and wind measurements derived from wind measurement campaign. Wind resource map is a good starting point for identifying a promissory project sites. The information presented in wind resource maps is different. Usually the majority of the wind maps indicate the estimated long-term mean wind speed and the expected mean wind power density in watts per square meters of swept rotor area. In Cuba, the wind resource maps are available in Meteorological Institute [1] [2] [3]. In addition, some regions average annual wind speed data available. For example, in Island of Youth (Isla de la Juventud), average annual wind speed data are available from Regional Office of Meteorological Institute. Details on wind resource assessment in the site selected will be found in the section 2.2 referring to the applied methodology. Impact on birds Several studies have been made due to concern about the negative impacts of wind energy development in Cuba because the possible interference of the wind turbines with bird migrations and habitat modifications [4] [5]. The purposes of those studies have been to carry out an objective assessment of the risks that it would bring to migratory flows in order to define migration measures that allow wind development in harmony with these natural elements. Information about the bird migrations and habitat of birds can be meet in the national comprehensive review offered by Minister of Sciences, Technology and Environment (CITMA). Distance to transmission grid Transmission of power from the wind turbines to utility is generally very expensive. Thus, the location of wind turbines as close as possible to the high transmission lines could improve the competitiveness of the project in a relevant way, Also, it is important to avoid transmission lines near full capacity and not capable of assimilating additional power generation. Maps with the characteristics of the electric lines voltages and their extension throughout the island are available from the Cuban utility (Electric Union) [6]. Land area requirements The amount of land area required to install one or more wind turbines must be taken into account from the first steps. The land area needed to install a wind turbine varies significantly depending on the rotor diameter, high of tower, the power of wind turbines and the characteristics of the wind. This consideration becomes more important in small island where the tourism is exploited and the land is used for this purpose [7][8]. Analysing those four considerations and according to the results of Cuba’s Wind Assessment Program carried out between 2005-2010 and the wind maps, the most promissory sites are located in the northern coast of the eastern part of Cuba. Precisely, hotel Covarrubias is situated in the northern coast of Las Tunas province, in the municipality of Puerto Padre, between the Manati bay to the west and Malagueta bay to the east (Fig. 1) [7]. . Figure 1. Location of Hotel Covarrubias Hotel Covarrubias has 180 rooms and the mean demand is 56 207 kWh monthly in accordance to the statistics provided by the administration of the hotel [9]. In this research, the best location for the wind turbine was determined and it turned out to be at hill level, which is far enough away to avoid discomfort to hotel visitors. As is well known the small noises typical of speed variation also affects the users of hotel to be close. The selected location is technically the best option 3. METHODOLOGY At present, there are different methodologies that have been developed to design wind systems for the generation of electrical energy. One of them is the methodology applied for the design of this power generation system proposed in this project and based on three crucial steps, which includes a financial analysis with the corresponding results in the area under study [10][11] [12]. These steps are shown in the Fig. 2. Wind resource assessment To assess and select an appropriate site for wind system connected to the grid with a favorable wind condition. Energy estimation To find out the compatibility of the prospective wind turbines that give maximum Annual Energy Production (AEP) Financial analysis To evaluate the wind energy profitability and expenses in the selected site Figure 2. Steps of the methodology Wind Resource Assessment For preliminary estimate of wind potential in the hotel Covarrubias the search on Wind Atlas of Cuba [5] and on the international data base the Global Wind Atlas.[4] are applied. Wind resource assessment is focused on identifying the feasibility of the project from technical and economic point of view. The information obtained with the wind assessment can be summarized as follows: Average mean Speed, turbulence intensity, wind rose, wind power density, power law profile and frequency distribution. One of the most important information obtained from the wind assessment is the frequency distribution (Fig. 3). It shows the percentage of time the wind blowing at a certain speed [13] [14] Figure 3. Wind speed distribution According to the Wind Atlas of Cuba and a campaign of measurement in site, the mean annual wind speed at 60 m height results 6,5 m/s [1] [2] . As is well known, the Weibull frequency distribution is the most widely used for statistical treatment of wind data. For this, it is necessary to calculate the k (shape factor) and c (scale factor) values that characterizes each site. Applying the variability method and considering the high variability of the wind due to location of the hotel near of the coast, the shape factor results k = 1,86 and the scale factor c = 7,32 m/s [15]. Annual Energy Estimation According to the annual energy demand of the hotel and the mean wind speed at the site, the experience indicates that turbines between 250 kW y 300 kW could satisfy that demand. The energy production depends on the wind conditions in the site and on the wind turbine selected. After the wind study carried out previously corresponds now the selection of the wind turbine. This selection becomes a decisive step due to danger of hurricanes. For this, the determination of wind class is very important because the site in located in zone where hurricanes are frequent. The IEC 61400-1 standard [16] defines three classes of wind conditions. - I, II and III - ranging from the windiest (50 m/s reference wind speed) to the least windy (37,5 m/s reference wind speed. The turbulence is denoted A, B and C corresponding to high, medium and low turbulence. According to the wind study in the site and applying the Gumbel method for determining the extreme wind s Vref= 49.9 m/s, what corresponds to a wind turbine Class I. Considering the turbulence intensity the wind turbine to be installed is Class IA [7]..Taking into account the above results, three wind turbines for selected site were preselected as potential candidates to be installed at hotel Covarrubias. 1. Ventus 250/42,5 2. Wind Technik Nord WTN 250/30 3. Vergnet GEV M C 275/32 The process for selecting the most profitable wind turbine initially is based on the evaluation of the performance of each wind turbine estimating its annual energy production (AEP). The production in a period T of a turbine with a given power curve Pi (v) results from the production of individual speeds The process for selecting the most profitable wind turbine initially is based on the evaluation of the performance of each wind turbine estimating its annual energy production (AEP). The production in a period T of a turbine with a given power curve Pi (v) results from the production of individual speeds Ei = fi PiT with fi = ti/T (1) Where ti is the time the wind is blowing at a certain speed. By summing up AEP= ∑ Ei = ∑fi Pi T = (2) Calculating the frequency of occurrences of wind speeds in an interval of 1 m/s using Weibull distribution and multiplying by the power curve data on that particular wind speed of the turbine gives the power output at that particular speed [17] [18]. The results are shown in the Table 1 for each wind turbines. Table 1. Annual Energy Production of wind turbines selected Nr. Model of wind turbine AEP (MWh/year 1 Ventus 250/42,5 511 808,18 2 Wind Technik Nord WTN 579 389,70 3 Vergnet GEV M C 275/32 682 119,50 Only the wind turbine Vergnet satisfy the demand of hotel (674,5 MWh per year) In order to compare the performance of wind turbines selected usually it is used the Capacity Factor (CF) [14]. This calculation is shown in the Table 2. Table 2. Capacity Factor of wind turbines selected Nr. Model of wind turbine CF (%) 1 Ventus 250/42,5 20.00 2 Wind Technik Nord WTN 22,64 3 Vergnet GEV M C 275/32 24,23 Taking into account that the wind turbine Vergnet GEV MC 275/32 is the only one that satisfies the demand of hotel and reaches the highest capacity factor this wind turbine is preliminary selected [7]. Financial analysis The last step concerns the financial analysis carried out for measuring the profitability of the project through the selection the optimal wind turbine from the point of view of economic and financial results. Financial analysis of wind energy should consider several basic aspects: 1. Total investment costs or capital costs 2. Annual costs of exploitation (O & M costs) 3. Financing costs Total investment cost of a wind energy installation is equal to the summation of several parameters. It is given as CT = CWT + CF + CE + other costs (3) Where CT is total cost, CWT is wind turbine cost, erection, sea transport, inland transport, crane and crane works, and installation CF foundation costs, road access and other civil works CE is electrical cost: cable trenches, electrical equipment, substation, control building, overhead lines and others components. See Figure 4. Figure 4. Share of different costs in the total investment costs The estimation of total investment costs for each wind turbine selected is presented the Table 3: Table 3. Total investment costs of wind turbines selected Nr. Model of wind turbine Total investment cost ($) 1 Ventus 250/42,5 411 000.00 2 Wind Technik Nord WTN 445 250.00 3 Vergnet GEV M C 275/32 479 500.00 Operation and maintenance (O & M) costs constitute sizeable share of the total costs of a wind turbine. For a new wind turbine, O & M costs may easily make up 20-25% of the total cost of electricity per kWh produced over the lifetime of the turbine. The O&M costs includes insurance, regular maintenance, repair, spared parts and administration. Based on experience in Germany, Spain the UK and Denmark, O&M costs are generally estimated to be around 1.2 to 1.5 eurocents (CE) per kWh of wind power produced over the total lifetime of a turbine [19]. Financing costs is the interest and other charges involved in the borrowing money to build the wind system Several major indicators can be uses to evaluate the financial feasibility of the project based on a complete description of benefits and costs. Following economic indicators could be used: Net Present Value (NPV) Internal Rate of Return (IRR) Payback period (PBP) Levelized Cost of Energy (LCOE) NPV is used to analysed the feasibility of the investment NPV = (4) where Qj is the cash flow and r is the discount rate The project is feasible if NPV results positive IRR is the internal rate for which the NPV of a project equals zero (5) The project is feasible if the IRR is greater than the agreed economic discount rate i Payback Period is the length time in which the investment is expected to be recovered Payback = (6) Shorter paybacks mean investment that is more attractive. LCOE (Levelized Cost of Energy) is the average net present cost of electricity generation for the wind system under study over its lifetime. It is the cost of generating a unit of energy. It is used to compare different alternatives, = (7) Where LCOE - Levelized Cost of Energy ($/kWh) CAPEX - Capital expenses ($/kW) AEP - Annual Energy Production (kWh/year) OPEX - Operation and Maintenance Expenses ($/kW/year 3. RESULTS In each section, the partial results have been presented. However, the main result is related to the selection of the best wind turbine. As mentioned earlier, three wind turbines were preselected to finally select the most adequate. The Annual Energy Production (AEP) of each turbine was calculated. These results are shown in the Table 1 for each wind turbines. Note that only the wind turbine Vergnet satisfy the demand of hotel (674,5 MWh per year). In addition, this wind turbine (see Table 2) reaches the highest capacity factor [7]. Of the three preselected wind turbines, according to the financial analysis, the most adequate from the economic-financial point of view is the model Vergnet GEV MC 275/32. This calculation is presented in the Table 4. Table 4. Economic indicators Model of wind turbine AEP NPV IRR PAYBACK LCOE kWh/year $ % years $/kWh Ventus 250/42,5 513257.38 129359.64 12,3 13 0.1286 Wind Technik Nord WTN 580474.15 210539.05 13,7 11 0.1137 Vergnet GEV M C 275/32 684031.80 335598.78 16,7 8 0.1063 The selection of the wind turbine Vergnet GEV MC 275/32 was made taking into account that this model satisfies the demand of Hotel Covarrubias (674,5 MWh/year) and presents the best indicators even the lowest cost of electricity (10.63 cent/kWh). With this result, the main objective of this paper has been satisfied. 4. CONCLUSIONS The paper gives a methodology for designing a wind system that is applied to the case of Hotel Covarrubias in Las Tunas province, Cuba. The objective of this wind system is to satisfy the demand of electricity of this hotel. Many attempts have been made to achieve a high economic performance satisfying at the same time satisfy the electricity demand of the hotel. This methodology was applied to the study case and the following conclusions were drawn: - Firstly, the selection of the site was carried out satisfactorily taking into account different considerations that are decisive to ensure the competitiveness of the study system such as the potentiality of the wind, the impact on the birds, the distance to the electric grid and the use of the land. Satisfying those four considerations resulted very difficult, so it was necessary to carry out an in-depth study including multiple hotels located in the northeast part of the country. After that, the Hotel Covarrubias was chosen due to satisfy all those considerations and it is present the need to save electricity. This hotel classifies as high consumer according to the electricity consumption scale in Cuban tourist hotels. - Using the wind potential map of Cuba and the result of measurement campaign carried out in the zone, the assessment of the wind was made and it showed that the wind speed is favourable for exploiting the wind energy in the site selected. An annual mean wind speed of 6,5 m/s at 60- meter height is appropriate for this purpose. The values of shape factor k and the scale factor c for the Weibull distribution were estimated - Following, three different wind turbines was preselected in order to find the most appropriate to satisfy the demand optimally and as final result select the most suitable among the three preselected. The economy indicators used for this purpose are the Net Present Value (NPV), the Internal Rate of Return (IRR), the “payback” and the Levelized Cost of Energy (LOEC). - The model Vergnet is the only one wind turbine that satisfy the demand of the hotel - From comparisons between the three wind turbines preselected, it was found that the Vergnet wind turbine achieved the maximum AEP and capacity factor. In addition, the best economic performance according to the values reached by indicators NPV, IRR, “payback” and LCOE occurred in the Vergnet wind turbine. - In summary, the paper shows that this simple methodology can be applied in cases like this connected to the grid and in remote and standalone areas not connected to the grid hence its importance. - REFERENCES 1. MORENO C. et al. Doce Preguntas y Respuestas sobre Energía Eólica, La Habana: Editorial Cubasolar, 2017. 674 pp. ISBN 978-959-7113-51-5 2. ROQUE A 2013 “Atlas eólico de Cuba,” Proc. 12th World Wind Energy Conference, Havana, Cuba 3. SOLTÚRA, Rolando; ROQUE Alfredo “Mapa del potencial eólico de Cuba”, Revista Energía y Tú, 2007 núm. 37 4. BIRDLIFE INTERNATIONAL “Wind farms and birds: An analysis of the effects of wind farms on birds, and Guidance on Environmental Assessment Criteria and Site Selection Issus”. Council of Europe Report. 2003 5. CLAUSAGER I, NOHR H , “Impacts of wind turbines on birds”, Proc. European Union Wind Energy Conference, 1996. Goteborg, Sweden 6. SANTOS FUENTEFRIA A. “Analysis of Gibara I wind farm from 2015 to 2019”, Proceedings on 2020 IEEE PES Transmission & Distribution Conference and Exhibition Latin American, 2020, Montevideo, Uruguay, DOI: 10.1109/TLDA47668.2020.93261666 7. RODRÍGUEZ R. 2020 “Diseño de un sistema eólico para el suministro de electricidad al Hotel Covarrubias, Las Tunas, Cuba” 2020, Final Thesis 8. NATIONAL ACADEMY SCIENCES Environmental Impacts of Wind Energy Projects, Washington, 2007. National Academic Press 9. STOLIK Daniel, Energía fotovoltaica para Cuba, Havana, Cuba: Editorial Cubasolar, 2018. 531 pp. ISBN 978-959–7113–56-0 10. TIMOTHY J., “Design of a Residential Wind Turbine System” Master Degree Thesis Rensselaer Polytechnic Institute Hartford (Connecticut). 2012 11. ELTAMALY A., “Design and implementation of wind energy system in Saudi Arabia” Renewable Energy, 2013 DOI: 10.1016/j.renene.2013.04.006 12. MOHAMED A., “Development of a methodology for wind energy estimation and wind park design” Journal of Renewable and Sustainable Energy, 2018. DOI: 10.1063/1.4895919 13. FYRIPPIS I, AXAOPOULOS P, GREGORIS P., “Wind energy potential assessment in Naxos Island, Greece” , Applied Energy, 2010, vol. 87, Issue 2, February , pp. 577 14. ABAS H, VAHID R. SIMIN R , “Wind Energy Potential Assessment In Order to Produce Electrical Energy for Case Study in Divandareh, Iran” Proc. Int. Conf. on RE Research and Appl. 2014 15. BARRERA Andrés, “Prospección eólica en Cuba”, Revista Energía y Tú, 2005 núm. 37 16. FAIAS S, DE SOUSA J., “Assessment and Optimization of Wind Energy Integration into the Power Systems: Application to the Portuguese System” IEEE Transaction on Sustainable Energy, 2012 vol. 3 pp. 627 17. MANWELL A, MC GOWAN J, ROGERS A., Wind Energy Explained, second edition, London, John Wiley & Sons, 2009, 677 pp. ISBN 978-0-470-01500-1 18. KHOULOUD B, MAHIEDDINE A, RABAH L 2016 “Assessment and analysis of wind energy generation and power control of wind turbine system”. Rev. Sci. Technol , vol. 32 pp. 147-162 19. WESLEY L. GSANGER S 2014 Operations and Maintenance for Onshore Wind Energy Systems, WWEA Background Paper, Bonn SOBRE LOS AUTORES CONRADO MORENO FIGUEREDO Ingeniero mecánico, 1969. Master en Ciencias. 1976. Doctor en Ciencias Técnicas, 1983. Profesor Titular del Centro de Estudio de Tecnologías Energéticas Renovables (Ceter) de la Universidad Tecnológica de la Habana José Antonio Echeverría (Cujae). Reconocido nacional e internacionalmente por su trabajo en torno a la energía eólica. Vicepresidente de Honor de la Asociación Mundial de Energía Eólica (WWEA). Miembro de la Junta Directiva de Cubasolar, Miembro del Consejo Técnico Asesor del Ministerio de Energía y Minas y del Grupo de Expertos del Programa Nacional de Desarrollo Energético Integral y Sostenible del CITMA. Orden Carlos J. Finlay y Orden Frank País de I y II grado. Premio Academia de Ciencias en 2001 y 2021. Premio Nacional de la Critica Cientifico-Tecnica 2017 por el libro Doce Preguntas y Respuestas sobre Energía Eólica JOSÉ AUGUSTO MEDRANO HERNÁNDEZ Ingeniero mecánico (2009). Doctor en Ciencias Técnicas (2021). Profesor Asistente del Centro de Estudio de Tecnologías Energéticas Renovables Ceter en la Cujae. Experto en energía eólica. Autor de varios artículos publicados en revistas de prestigio. Coautor del libro Fuentes Renovables de Energía: Tecnologías y Aplicaciones publicado en 2022. Miembro del colectivo de profesores del proyecto internacional VLIR UOS Desarrollo Energético Sostenible del Complejo Turístico Las Terrazas IMPLEMENTACIÓN DE UN SISTEMA DE GESTIÓN ENERGÉTICA EN EL SECTOR INDUSTRIAL. PARTICULARIDADES. Tirso Lorenzo Reyes Carvajal Universidad Tecnológica de la habana. Facultad de Ingeniería Mecánica. CETER e-mail:reyestirso08@gmail.com RESUMEN En el presente trabajo se detallan los pasos a seguir en la implementación de un sistema de gestión energética, tomándose como referencia el ciclo PDCA de Deming con sus adaptaciones correspondientes, donde se parte del criterio que las iniciativas o actividades que tienen lugar en la empresa deben ser consultadas y aprobadas por la alta gerencia de la empresa siendo un objetivo central de la gerencia, mantener a la empresa dentro de parámetros aceptables y rentables en su gestión, lográndose un equilibrio entre la iniciativa y el control y a partir de este punto se describen las actividades a realizar como son el entrenamiento de los recursos humanos que participaran en el proceso de implementación del sistema de gestión energética, pre diagnóstico, diagnóstico energético ambiental, diseño de un plan, formación de equipos, implementación de acciones y medidas y supervisión y evaluación. Se parte del criterio que la implementación del sistema de gestión energética en la empresa se puede estimar estimar entre seis meses a un año y todo el proceso, además de lo antes expresado se apoya en herramientas matemático-estadística, con la filosofía de Gestión Total de la Calidad. PALABRAS CLAVES: Implementación de un sistema de Gestión energética, herramientas matemático- estadísticas. IMPLEMENTATION OF ENERGY MANAGEMENT IN THE INDUSTRIAL SECTOR. PARTICULIARITIES. ABSTRACT In this paper, the steps to follow in the implementation of an energy management system are detailed, taking Deming's PDCA cycle as a reference with its corresponding adaptations, where it is based on the criterion that the initiatives or activities that take place in the company must be consulted and approved by the senior management of the company, being a central objective of the management, to keep the company within acceptable and profitable parameters in its management, achieving a balance between initiative and control and from this point the activities to be carried out such as the training of human resources that will participate in the process of implementing the energy management system, pre- diagnosis, environmental energy diagnosis, design of a plan, team building, implementation of actions and measures, and supervision and evaluation. It is based on the criterion that the implementation of the energy management system in the company can be estimated between six months to one year and the entire process, in addition to what was previously expressed, is supported by mathematical-statistical tools, with the philosophy of Total Management of the quality. KEY WORDS: Implementation of an energy management system, mathematical-statistical tools. 1. INTRODUCCIÓN. La eficiencia energética forma parte de las políticas nacionales y es considerada la piedra angular para la obtención de altos niveles de racionalidad en el uso de la energía y un desarrollo sostenible. Los defensores de eficiencia energética comúnmente citan una amplia gama de beneficios como son el uso racional de la energía, reducción de emisión de gases de efecto invernadero, disminuye la importación de portadores energéticos, incremento de la competitividad de las empresas y la creación de mayores fuentes de empleo [1,2] Grandes han sido los esfuerzos durante las últimas cuatro décadas para medir la eficiencia energética y entender su impacto en el consumo de energía y diseñar sistemas eficaces de gestión energética. La Agencia Internacional de la Energía (AIE) ha jugado un papel de liderazgo en el desarrollo de indicadores energéticos para demostrar como el consumo de energía está ligado a las actividades humanas. Las políticas de eficiencia energética se han implementado en muchos de los países desarrollados [3], Sin embargo, los países más pobres y en vías de desarrollo aún carecen de recursos y herramientas que les permita avanzar con rapidez en este sentido. Altos niveles de eficiencia energética basados en la identificación de pérdidas de energía, permiten una mayor disponibilidad de la energía para su uso. Se puede afirmar que la eficiencia energética es la fuente más barata de energía, ya que la inversión inicial ya fue hecha, son los equipos y tecnologías donde se producen las perdidas [4, 5]. Es conocido que a nivel mundial se requieren 3 USD para reducir el consumo en 1 KWh por eficiencia energética, mientras se invierten mínimo 6 USD para instalar una nueva capacidad de generar 1 KWh. [6]. La aplicación de los sistemas de gestión energética nos permite determinar donde se encuentran estas pérdidas durante la operación de las instalaciones, su cuantificación, causas que las originan y las vías para su reducción o eliminación y el análisis costo-beneficio. Las formas de organizar los sistemas de gestión energética en las empresas o centros de servicio son variables dependiendo de las características de la organización, los intereses y la capacidad de los equipos de trabajo dentro de la empresa. Sin embargo, ya existe desde el año 2011 un estándar internacional que establece los requisitos mínimos que debe cumplir un sistema de gestión energética para que sea efectivo, basado en el modelo PDCA de la Organización Internacional de Estándares ISO denominado ISO 50001. Sistemas de Gestión Energética [7, 8,9] Lo cierto es que todos están de acuerdo que el incremento de la eficiencia energética es la clave del éxito de la organización. La implementación del sistema de gestión energética requiere de un sistema de información por área de producción o centro de costo, lo que implica la medición de los consumos. El registro del consumo histórico de energía es una información clave, para cualquier tipo de organización. Uno del problema que se presentan en la realidad de la producción o los servicios para la implementación de un sistema de gestión energética es que las instalaciones o áreas no cuentas con dispositivos propios de medición de consumos ni evaluación de la calidad de la energía consumida [10]. Muchas plantas o centros de servicio sólo tienen un único metro medidor que contabiliza el consumo total y no por zonas. Por eso a veces sólo es posible determinar el consumo total de la organización, pero no para las áreas de producción o máquinas que representan el mayor consumidor de energía y generalmente es donde se encuentran los mayores potenciales de ahorro. Es por ello que antes de comenzar con la implementación de un sistema de gestión energética, el sistema de información de los consumos de energía de la organización debe ser revisado para establecer la estrategia del trabajo a realizar con el fin de garantizar la disponibilidad de toda la información necesaria. El objetivo del método es poner en práctica medidas eficaces en el lugar que proporcionan ahorros significativos de energía. En la práctica un sistema de gestión energética debería dar como resultado, los siguientes: • Monitoreo del desempeño energético de las instalaciones y control de los consumos. • Programa de motivación y formación especializada de los recursos humanos que mayor impacto puede tener en el uso eficiente de la energía. • Propuestas de proyectos para la mejora de la eficiencia energética en el corto, mediano y largo plazos. 2. PROCEDIMIENTOS Y ENFOQUES DE LA METODOLOGIA PARA LA IMPLEMENTACIÓN DE UN SISTEMA DE GESTIÓN ENERGÉTICA. Etapas de un sistema de gestión energética Un Sistema de Gestión Energética (SGEn) incluye varias etapas, las cuales pueden ser resumidas de la figura 1 [1]. Las iniciativas o actividades que tienen lugar en la empresa deben ser consultadas y aprobadas por la alta gerencia de la empresa, conocer el desarrollo de la iniciativa y los resultados a obtener. El objetivo central de la gerencia es mantener a la empresa dentro de parámetros aceptables y rentables en su gestión lográndose un equilibrio entre la iniciativa y el control. Formulación de posibles objetivos y propuesta de alternativas dentro de los posibles escenarios de acuerdo a la misión de la organización. Por esta razón, la alta gerencia de la empresa juega un papel relevante cuando se inicia la implementación del sistema de gestión energética. Divulgación de un sistema de gestión energética. Promover y difundir la importancia de implementar el sistema de gestión energética en la empresa con el fin de hacer de la energía un uso más racional como premisa para un mejor desempeño de la empresa. El primer paso es obtener la aprobación de la alta dirección de la empresa. Entrenamiento. La capacitación de los recursos humanos, la sensibilización y las campañas publicitarias regulares. Este personal tendrá una participación directa en la implementación del sistema de gestión energética en la empresa. Pre diagnóstico. ✓ Balance del consumo y uso final de la energía ✓ Identificación y análisis de índices globales. ✓ Gráficos de comportamiento del consumo. ✓ Diagnóstico preliminar energético-ambiental. ✓ Diagnóstico general al sistema de gestión energética. ✓ Identificación de los potenciales de ahorro energético. Diagnostico energético-ambiental. ✓ Estructura de consumo y uso final de la energía ✓ Estructura de consumo y costos de portadores energéticos primarios y secundarios. ✓ Identificación de las áreas, equipos y personal que mayor influencia tiene sobre los consumos de energía. ✓ Identificación de los parámetros y actividades de operación y de mantenimiento que mas impactan los consumos de energía ✓ Costo de los flujos primarios y secundarios de energía. ✓ Estructura de las pérdidas de energía. ✓ Identificación de las prácticas ineficientes. ✓ Mecanismos de evaluación de interés. ✓ Determinación de los niveles de competencia. ✓ Identificar las oportunidades y los ahorros potenciales. ✓ Relación de problemas. Diseño de un plan y composición de equipos de mejora. ✓ Identificación de soluciones. ✓ Evaluación Técnico- Económica. ✓ Establecimiento de escenarios. ✓ Clasificación de soluciones. • Planificación de soluciones y metas. • Diseño del Sistema de Monitoreo. • Diseño y conocimiento del programa de entrenamiento. ✓ Definir estructuras necesarias. ✓ Identificar los roles y misiones. ✓ Sistemas de retroalimentación. ✓ Mecanismos de estimulación. ✓ Barreras y alternativas. Implementación de acciones y medidas. Obtener el apoyo y la cooperación de las personas clave en diferentes niveles dentro de la organización es un factor importante para la exitosa implementación del plan de acción. Alcanzar las metas del sistema depende con frecuencia de la conciencia, el compromiso, el conocimiento y la capacidad de las personas que van a poner en práctica los proyectos. La ejecución del plan de acción llevará tiempo. Para poner en práctica un plan de acción, deben adoptarse las siguientes medidas: ✓ Desarrollar la información específica para las audiencias claves sobre el programa de gestión energética. ✓ Fortalecer el apoyo en todos los niveles de la organización a las iniciativas y objetivos de la gestión energética ✓ A través de la formación, el acceso a la información, procedimientos y tecnologías así como la transferencia de prácticas exitosas, se puede ampliar el conocimiento y la capacidad de las personas involucradas. Supervisión y evaluación. ✓ Establecimiento de criterios de control operativo y de mantenimiento de los parámetros y actividades que impactan el consumo. ✓ Seguimiento y Evaluación del desempeño energético a través de los índices. ✓ Identificación de las de las desviaciones del índice respecto a su valor deseado ✓ Identificación y análisis de las causas de las desviaciones. ✓ Implementación del sistema de correcciones. ✓ La divulgación de resultados. La aplicación del sistema de gestión energética en la empresa se puede estimar entre 6 meses a 1 año. El sistema de gestión energética se basa en herramientas matemático-estadística y termodinámicas para su aplicación, con la filosofía de Gestión Total de la Calidad [1, 10,11,12]. 3. HERRAMIENTAS MATEMÁTICO-ESTADÍSTICAS BÁSICAS PARA LA IMPLEMENTACIÓN DEL SISTEMA DE GESTIÓN ENERGÉTICA. ✓ Diagrama de Pareto. ✓ Estratificación de la información. ✓ Gráficos de control. ✓ Gráficos de consumo/producción en el tiempo. ✓ Gráfico Consumo-Producción (diagrama de correlación) ✓ Gráficos de Índice de consumo-Producción ✓ Gráficos de tendencia Herramientas termodinámicas más utilizadas en los diagnósticos energéticos ambientales: ✓ Diagrama de flujos energéticos. ✓ Balance de masa y energía. ✓ Análisis entrópico y exergético. ✓ Análisis termoeconómicos. ✓ Otras herramientas. Diagrama de Pareto El Diagrama de Pareto, Figura 2, es la herramienta recomendada para el establecimiento de la estructura de consumo, un gráfico en forma de barras que clasifica en forma descendente los factores que se analizan (Consumo de portadores energéticos) en función de su frecuencia, importancia absoluta o relativa. Adicionalmente permite observar en forma acumulada la incidencia total del parámetro objeto de análisis. Para el caso particular analizado por ejemplo se obtuvo que la electricidad representa el 88,6% de los consumos. Utilidad del Diagrama de Pareto. ✓ Identificar y concentrar los esfuerzos en los puntos clave de un problema o fenómeno como puede ser: los mayores consumidores de energía de la fábrica, las mayores pérdidas energéticas o los mayores costos energéticos. ✓ Predecir la efectividad de una mejora al conocer la influencia de la disminución de un efecto al reducir la barra de la causa principal que lo produce. ✓ Determinar la efectividad de una mejora comparando los diagramas de Pareto anterior y posterior a la mejora. Por lo que los mayores potenciales de ahorro se concentran en el portador electricidad, el próximo paso estará dirigido a la estratificación del portador electricidad por área y equipos. Gráfico de control Los gráficos de control son diagramas lineales que permiten observar el comportamiento de una variable en función de ciertos límites establecidos. Se usan como instrumento de autocontrol y resultan muy útiles como complemento a los diagramas causa y efecto, para detectar en cuales fases del proceso analizado se producen las alteraciones. Su importancia consiste en que la mayor parte de los procesos productivos tienen un comportamiento denominado normal, es decir existe un valor medio M del parámetro de salida muy probable de obtener, si no aparecen causas externas que alteren el proceso hasta hacerse prácticamente cero para desviaciones superiores a tres veces la desviación estándar (3σ) del valor medio. Utilidad de los gráficos de Control. ✓ Conocer si las variables evaluadas están bajo control o no, por ejemplo consumo de energía. ✓ Conocer los límites en que se puede considerar la variable bajo control. ✓ Identificar los comportamientos que requieren explicación e identificar las causas no aleatorias que influyen en el comportamiento de los consumos. ✓ Conocer la influencia de las acciones correctivas sobre los consumos o costos energéticos. En la figura 3 se muestra un ejemplo de gráfico de control real de un proceso productivo real durante un periodo de un año. Gráfico de consumo y producción en el tiempo Consiste en un gráfico que muestra la variación simultánea del consumo energético con la producción realizada en el tiempo. El gráfico se realiza para cada portador energético importante de la empresa y puede establecerse a nivel de empresa, área o equipos. Utilidad de los gráficos E-P vs. T. ✓ Muestran períodos en que se producen comportamientos anormales de la variación del consumo energético con respecto a la variación de la producción. ✓ Permiten identificar causas o factores que producen variaciones significativas de los consumos. En la figura 4 se muestra un ejemplo de energía producción en el tiempo de un proceso productivo real durante un periodo de un año. Gráfico de consumo producción (diagrama de correlación) Este diagrama (E vs S) debe ser realizado por tipo de portador energético, y por área, teniendo en cuenta en cada caso la producción o servicio asociado con el portador energético en cuestión, Figura 5. Para el caso particular analizado el cual puede corresponder a un Hospital u hotel por cuanto el eje de las abscisas muestra Camas Días Ocupadas CDO. En el caso analizado se observa que el valor R2, (correlación lineal), es relativamente baja lo que no muestra una buena correspondencia entre las CDO y el consumo de energía) por otro lado la ecuación de la energía Donde: E - consumo de energía en el período seleccionado P, S – producción, servicio asociado en el período seleccionado m – pendiente de la recta que significa la razón de cambio medio del consumo de energía respecto a la producción. Eo – intercepto de la línea en el eje y, que representa la energía no asociada directamente al nivel de producción. m.P – es la energía utilizada en el proceso productivo. En el caso analizado el valor de m = 32,51, la pendiente de la recta, Eo= 31885 kWh, valor nada despreciable como energía no asociada al servicio y si bien una parte de esta necesariamente se consume en actividades no asociadas pero necesarias una gran parte son perdidas de energía y que son la base de la investigación, donde se localizan y como disminuirlas a valores mínimos. La energía no asociada directamente al nivel de producción o servicio Eo en una institución puede corresponder a: • Iluminación de plantas, electricidad para oficinas, ventilación. • Áreas climatizadas, tanto de calefacción como de aire acondicionado. • Energía usada en servicios de mantenimiento. • Trabajo en vacío de equipos eléctricos o térmicos. • Energía perdida en salideros de vapor, aire comprimido, deficiente aislamiento térmico, etc. • Pérdidas eléctricas por potencia reactiva. • Pérdidas por radiación y convección en calderas y equipos térmicos. • Precalentamiento de equipos y sistemas de tuberías. El porcentaje de energía no asociada directamente al nivel de producción (Ena) se determina como: Donde: Em – es el valor del consumo medio de energía determinado como el valor de la línea central del gráfico de control de consumo del portador energético correspondiente. El valor del porcentaje de energía no asociada directamente al nivel de producción debe ser tan pequeño como sea posible. Este valor varía con el tipo de producción y de proceso tecnológico utilizado para una producción dada. Constituye un parámetro a monitorear y controlar. La Figura 6 muestra el valor de la energía no asociada a proceso en este caso un proceso de producción, dicho valor se corresponde con 55,99 MWh valor nada despreciable de energía eléctrica. La literatura y la experiencia acumulada en los trabajos realizados en el sector industrial, indican que se pueden considerar adecuados, a los efectos de estos análisis energéticos, valores del coeficiente de correlación R2  0,75. Las causas más frecuentes de la baja correlación entre energía y producción son las siguientes: ✓ Existen errores en la medición o captación de los datos primarios o en su procesamiento. ✓ Pobre disciplina tecnológica. El consumo de energía en la empresa no es controlado adecuadamente y las prácticas de operación y mantenimiento están pobremente definidas. No hay estabilidad en los procesos productivos o de servicios. ✓ Los períodos en que se han medido la producción (P) y el consumo (E) no son iguales. ✓ El término producción (P) no ha sido adecuadamente establecido: • Existe producciones intermedias en proceso que ha consumido energía y esta no ha sido considerada. • La estructura de producción incluye productos con diferentes requerimientos energéticos. Por ejemplo, habitaciones diferentes en un hotel, o distintos productos en una fábrica de helados, o almacenamiento de productos diferentes y a distintas temperaturas en un frigorífico. • Existen factores que influyen sensiblemente sobre el consumo de energía y que no han sido considerados. Por ejemplo, la temperatura ambiente en instalaciones con un peso determinante en el consumo de sistemas de refrigeración o climatización. • En el proceso productivo o de servicios se incluyen actividades que consumen energía y no se reflejan en la producción o servicios incluidos en el índice. Por ejemplo, el uso de salones de conferencias en un hotel y que no se reflejan en las habitaciones ocupadas ni en la cantidad de huéspedes alojados. • Se realizan bajos niveles de producción o servicios que no permiten la estabilización de los parámetros del proceso. Por ejemplo, encendido del generador de vapor para procesar unos pocos kilogramos de producto en una empacadora, uso de ómnibus para el traslado de un número personas que pueden ser transportadas en un auto o una carga ligera transportada en un vehículo de cargas pesadas, etc. Índice de consumo - producción Este diagrama se realiza después de haber obtenido el gráfico E vs. P y la ecuación, E = m.P + Eo, con un nivel de correlación significativo. La expresión de la función IC= f(P) se obtiene de la siguiente forma: El gráfico IC vs. P es una hipérbola equilátera, con asíntota en el eje x, al valor de la pendiente m de la expresión E= f (P). A continuación se presentan dos gráficos reales de IC vs. P, en los que se observa la influencia del nivel de producción sobre el índice de consumo. Para el siguiente ejemplo determinemos el índice de consumo: El gráfico anterior muestra como el índice de consumo aumenta al disminuir el nivel de la producción realizada. En la medida que la producción se reduce debe disminuir el consumo total de energía, como se aprecia de la expresión E=f(P), pero el gasto energético por unidad de producto aumenta. Esto se debe a que aumenta el peso relativo de la energía no asociada a la producción respecto a la energía productiva. Si la producción aumenta, por el contrario, el gasto por unidad de producto disminuye. En cada gráfico IC vs. P existe un punto donde comienza a elevarse significativamente el índice de consumo para bajas producciones. Este punto se puede denominar punto crítico. Utilidad del Diagrama IC vs. P ✓ Establecer metas de índices de consumos en función de una producción planificada por las condiciones de mercado. ✓ Evaluar el comportamiento de la eficiencia energética de la empresa en un período dado. ✓ Determinar el punto crítico de producción de la empresa o de productividad de un equipo y planificar estos indicadores en las zonas de alta eficiencia energética. ✓ Determinar factores que influyen en las variaciones del índice de consumo a nivel de empresa, área o equipo. ✓ Seleccionar indicadores de producción de la empresa que puedan influir sobre el índice de consumo. Ej.: productividad, rendimiento horario, interrupciones, rechazos, tipo de producciones, etc. 4. CONCLUSIONES. ✓ La implementación de un sistema de gestión energética se apoya en una secuencia lógica de pasos que toma como referencia el Ciclo PDCA de Deming, con las adaptaciones pertinentes a cada caso particular. ✓ Un SGEn incluye entre tantas actividades una correcta planificación que permite entre otras cosas conocer el estado energético de la organización, establecer lo que se ha dado en denominar la línea base y definir indicadores de desempeño, estableciendo tantos planes como sean necesarios para lograr altos niveles de desempeño energético de la empresa. ✓ Un SGEn permite a la organización alcanzar los compromisos derivados de su política, Implementar los planes de acción de gestión energética de acuerdo a objetivos energéticos de la institución. ✓ La implementación de las herramientas del sistema de gestión energética es clave para conocer el escenario energético actual de una empresa y la forma de diseñar un plan que posibilite una mayor eficiencia energética, así como para la sensibilización de directivos y empleados en el uso racional de la energía. ✓ La aplicación de las herramientas matemático-estadísticas dan el soporte requerido a la organización durante la implementación y seguimiento de un sistema de gestión energética para el establecimiento de compromisos necesarios de la alta dirección en el monitoreo y control del consumo energético requerido para el funcionamiento de la organización. ✓ Los gráficos que correlacionan la energía y producción o servicio, que muestran la energía no asociada a la actividad en cuestión y los gráficos de índice de consumo derivados de estos, se ha comprobado que son claves en la implementación de un SGEn. REFERENCIAS [1] Tirso L. Reyes Carvajal, colectivo de autores. Sistema de Gestión Energética. Estudio de Caso: Hospital de Enfermedades Cardiovasculares. JETIA. 2016. Edition. 08.Vol: 02 https://www.itegam- jetia.org ISSN ONLINE: 2447-0228. [2] Schnapp, R. Energy statistics for energy efficiency indicators. Joint Rosstat—IEA Energy Statistics Workshop Moscow, February 2012. [3] International Energy Agency. Implementing energy efficiency policies. Are IEA member countries on track. 2008. [4] Reyes Carvajal T.L. Colectivo de autores. 2007. Caracterización energética del sector empresarial en la provincial Villa Clara. Dpto. Energía. Universidad Central de las Villas. Cuba. [5] Borroto Nordelo A. Colectivo de autores. 2002. Gestión Energética Empresarial. CEEMA. Universidad de Cienfuegos. Cuba. [6] Capturing the Multiple Benefits of Energy Efficiency, 232 pages, ISBN 978-92-64-22072-0 [7] NC ISO 50001: 2011 (Publicada por la ISO en 2011). SISTEMAS DE GESTIÓN DE LA ENERGÍA — REQUISITOS CON ORIENTACIÓN PARA SU USO (ISO 50001:2011, IDT) [8] GUÍA DE IMPLANTACIÓN DE SISTEMAS DE GESTIÓN DE LA ENERGÍA. ISO 50001:2018 [9] Borroto Nordelo, A., et al. (2013). Recomendaciones metodológicas para la implementación de sistemas de gestión de la energía según la Norma ISO 50001. Cienfuegos. Universo Sur. [10] Reyes Carvajal T.L. Colectivo de autores. 2007. Caracterización energética del sector empresarial en la provincial Villa Clara. Dpto. Energía. Universidad Central de las Villas. Cuba. [11] Campos Avella J. C. 2008. Caracterización energética. http://ecodesarrollo.cl. [12] Barney L. Capehart, Wayne C. Turner, Guide to Energy Management, Seventh Edition Hardcover– August 18, 2011. Sobre el autor. Dr. C.T. Tirso Lorenzo Reyes Carvajal. Profesor Titular. Universidad tecnológica de la habana. CUJAE. Facultad de Ingenia Mecánica. CETER Ingeniero Termoenergético. Master en Plantas Térmicas. Ucrania. Universidad Estatal Politécnica de Odessa., Ucrania. (1981). Dr. en Ciencias Técnicas en Ingeniería Mecánica. Universidad Central Marta Abreu de las Villas. Villa Clara. (1997). Post-doctorado: "Eficiencia energética empresarial" Universidad Libre de Bruselas, VUB. Bélgica. Bruselas. 2008. Especialista en Eficiencia Energética y gestión de proyectos en el sector industrial y de los servicios, máquinas y proceso térmicos, energía y medio Ambiente, fuentes renovables de energía, gestión del mantenimiento en el sector industrial y de los servicios, Confiabilidad durante la explotación de instalaciones. Cuenta con 41 años de experiencia en la producción, docencia e investigación. EVALUACION TERMICA DE UN CONDENSADOR DE VAPOR DE UNA UNIDAD DE LA CTE ERNESTO GUEVARA DE LA SERNA E IMPACTO AMBIENTAL THERMAL EVALUATION OF A STEAM CONDENSER OF A UNIT OF THE CTE ERNESTO GUEVARA DE LA SERNA AND ENVIRONMENTAL IMPACT Gisela Nuviola Colsa1, César Arnaldo Cisneros Ramírez2, Alberto Menéndez Pérez3, Luis Enrique Castillo Jerez4 1Especialista A en Explotación de CTE. CTE Ernesto Guevara de la Serna, 2Centro de Estudio de Tecnologías Energéticas Renovables (CETER), Calle114 #11901. Mnao. La Habana, 3 Centro de Estudio de Tecnologías Energéticas Renovables (CETER), Calle114 #11901. Mnao. La Habana, 4Instructor- J´Planta de Generación. CTE Ernesto Guevara de la Serna 1giselanuv@ctehabana.une.cu, 2cesar@mecanica.cujae.edu.cu, 3amenendez@mecanica.cujae.edu.cu , 4luiscas@ctehabana.une.cu. RESUMEN En este trabajo se efectuó una evaluación de un condensador de vapor; siendo considerado uno de los equipos importante dentro de una central termoelécrica. Para poder realizar esta evaluación térmica se aplicó la metodología basada en la norma para condensadores de vapor de superficie del Standard for Steam Surface Condenser; Heat Exchange Institute. Permitiendo comparar valores de diseño con parámetros reales. Además, se pudo determinar el Factor de Limpieza del condensador con datos de operación. Por otro lado, el condensador del vapor tiene un impacto directo en el medio ambiental que rodea dicha instalación; pues siendo un equipo de transferencia de calor utiliza como medio de enfriamiento el agua de mar. Por lo que se evalúa a través de sus parámetros de operación los cambios que se producen en su hábitat. Asimismo, se demuestra con valores de sobreconsumos por encima de 650 toneladas equivalentes, el exceso de consumo de combustible que se produce para poder alcanzar una determinada presión del vacío durante su operación. PALABRAS CLAVES: Condensador de vapor, evaluación térmica, factor de limpieza, impacto ambiental. ABSTRACT In this work, an evaluation of a steam condenser was carried out; being considered one of the important equipment within a thermoelectric plant. In order to carry out this thermal evaluation, the methodology based on the standard for surface steam condensers of the Standard for Steam Surface Condenser was applied; Heat Exchange Institute. Allowing to compare design values with real parameters. In addition, the Condenser Cleaning Factor could be determined with operating data. On the other hand, the steam condenser has a direct impact on the environment surrounding said installation; because, being a heat transfer equipment, it uses sea water as a cooling medium. Therefore, the changes that occur in their habitat are evaluated through their operating parameters. Likewise, it is demonstrated with excess consumption values above 650 equivalent tons, the excess fuel consumption that occurs to be able to reach a certain vacuum pressure during its operation. KEY WORDS: Steam condenser, thermal evaluation, cleanliness factor, environmental impact. NOMENCLATURA Superficie total de transferencia de calor Área total transversal Área de transferencia de calor teórico Área de transferencia de calor efectiva Calor específico del agua Diámetro externo de los tubos Diámetro interno de los tubos Factor de ensuciamiento Factor de corrección de temperatura Factor de corrección por calibre y material Entalpía de vapor que sale de la turbina Entalpía del líquido de condensador Diferencia de temperatura inicial Diferencia de temperatura media logarítmica Longitud efectiva de los tubos Flujo de agua de enfriamiento Flujo volumétrico de agua de enfriamiento Flujo de agua de enfriamiento teórico Números de tubos del condensador Números de unidades de transferencia Flujo de calor absorbido por el agua Carga térmica rechazada en el condensador Flujo de calor transmitido Resistencia a la transferencia de calor por ensuciamiento Resistencia total a la transferencia de calor del condensador Diferencia de temperatura terminal Coeficiente global de transferencia de calor Coeficiente global de transferencia de calor de diseño Coeficiente global de transferencia de calor teórico Coeficiente global de transferencia de calor de referencia Velocidad de los tubos Flujo de vapor Cantidad de calor adicional suministrada al condensador por otro medio Incremento de temperatura Densidad del agua de circulación Eficiencia del condensador Factor de fricción debido al movimiento del fluido Presión diferencial en el condensador 1. INTRODUCCIÓN Dada la importancia que poseen las centrales eléctricas en nuestras vidas; han sido motivos de innumerables estudios, tanto para mejorar su eficiencia, como para mantenerlas en el mejor nivel de funcionamiento [1]. Una de las zonas estudiadas, es el circuito de condensación de vapor y sus elementos auxiliares. Este circuito tiene una especial influencia en el rendimiento del conjunto del ciclo pues las variaciones en la presión absoluta o en el vacío en el condensador alteran el consumo específico de combustible y la producción de energía [2,3]. Actualmente existen centrales termoeléctricas operando con condensadores principales con deficiencias debido en gran parte a diferentes problemáticas que son difíciles de diagnosticar y aunado a que no existen métodos prácticos de evaluación no es posible encontrar las causas reales que lo originan [1,4]. La experiencia en la operación de los condensadores de vapor permite tener las siguientes hipótesis de las causas del desempeño inadecuado de estos equipos: diseño inadecuado, ensuciamiento por materia orgánica e inorgánica, temperatura ambiente, bajo flujo de agua de enfriamiento, carga térmica adicional, entradas de aire y área de intercambio de calor insuficiente. En términos económicos, los condensadores pueden tener un impacto importante en el régimen térmico de las unidades de generación eléctrica y en los costos por indisponibilidad de planta. Mientras que; en términos de la conservación del medio ambiente, la buena operación y mantenimiento de los condensadores puede contribuir a reducir el impacto de las descargas térmicas directas, a través del agua de circulación. Además; a reducir las emisiones de bióxido de carbono o algún otro gas nocivo para el medio ambiente, asociado con los combustibles adicionales quemados durante el proceso de generación, los cuales pudieron haber sido evitados [5]. 2. MATERIALES Y MÉTODOS Sistema de condensado Los condensadores de vapor son intercambiadores de vapor, en los cuales se condensa el vapor de escape procedente de las turbinas, además es de donde el aire y otros gases no condensables son evacuados en forma continua. El condensador es un componente necesario del ciclo de vapor por dos razones. La primera, convierte el vapor usado nuevamente en líquido para regresarlo al generador de vapor como agua de alimentación. Esto baja el costo operacional de la planta permitiendo reutilizar el agua de alimentación, y resulta más fácil bombear un líquido que el vapor [6]. La segunda razón, aumenta la eficiencia del ciclo permitiendo que el ciclo opere con los gradientes más grandes posibles de temperatura y presión entre la fuente de calor (generador de vapor) y el sumidero de calor (condensador) [1,4]. Cálculo de la diferencia de temperatura media logarítmica. En el caso específico de condensadores de superficie la variación de la temperatura del agua de circulación a su paso por el interior de los tubos es exponencial en relación a la longitud recorrida. Lo anterior es debido principalmente a la geometría del arreglo de los tubos y a la forma en cómo interactúan los flujos, entre otros factores. Para el caso de tubos cilíndricos, la diferencia de temperatura media logarítmica mencionada se expresa como. (1) El Incremento de la temperatura del agua de enfriamiento durante su paso por el condensador queda expresado como. (2) La diferencia de temperatura de entrada al equipo o diferencia de temperatura inicial, es. (3) La diferencia de temperatura a la salida del condensador llamada diferencia de temperatura terminal, que se expresa como. (4) Metodología de cálculo del coeficiente global de transferencia de calor. Una expresión importante es la transferencia de calor a través de las resistencias que se oponen al flujo de calor, mediante el cálculo de la carga térmica. (5) Igualmente, la carga térmica, puede ser determinada usando la ecuación. (6) El coeficiente global de transferencia de calor se puede expresar como. (7) (8) (9) (10) Entonces el coeficiente global de transferencia de calor se puede evaluar fácilmente usando la expresión. (11) El factor de ensuciamiento se enuncia. (12) O también se puede escribir que el coeficiente global de transferencia de calor de diseño es igual a. (13) (14) (15) (16) Metodología de cálculo del coeficiente global de transferencia de calor teórico. Este método permite calcular el coeficiente global de transferencia de calor, dichos resultados teóricos obtenidos permitirán compararlos con el condensador existente en operación y determinar si tiene las características requeridas para la carga térmica de la unidad. El coeficiente global de transferencia de calor es obtenido utilizando la metodología propuesta por el Instituto de Intercambio de Calor (Heat Exchange Institute HEI). (17) (18) (19) (20) (21) (22) Eficiencia de transferencia de calor del condensador El desempeño térmico de un intercambiador de calor puede evaluarse a través de las relaciones Efectividad Térmica-Número de Unidades de Transferencia de Calor ( ). La efectividad térmica de un intercambiador de calor es la relación de la carga térmica que se transfiere a la máxima carga térmica que podría transferirse. Si solo se conocen las temperaturas de entrada de ambos flujos, la metodología requiere un proceso iterativo, en tales condiciones es preferible utilizar el método del número de unidades térmicas El exponente de esta función es el número de unidades de transferencia de calor del condensador. puede definirse como la proporción de la capacidad térmica de cambio de temperatura de un fluido al medio. (23) (24) (25) Por otro lado, se sabe que la eficiencia del condensador ε está dada por la relación del calor absorbido entre el calor máximo que puede absorber el sistema . (26) Ahora bien, sustituyendo las ecuaciones se obtiene. (27) (28) Evaluación del factor de limpieza del condensador mediante la metodología del cálculo del bio- ensuciamiento Uno de los métodos que permiten analizar el bio-ensuciamiento depositado en el interior de los tubos de un condensador mediante la medida indirecta; es el método de medición de bio-película, basados en propiedades del transporte del fluido, que se puede aplicar a plantas reales de condensadores, consiste controlar a esta por medio de sensores, como son medidores de caudal, transmisores de presión diferencial y termo-resistencias, que mediante cálculos matemáticos se pueden utilizar para supervisar parámetros que definen indirectamente la bio-película: (29) (30) (31) (32) Resultados y discusión En las siguientes tablas se muestran los valores de los resultados según las metodologías descritas anteriormente; el cálculo de diseño del condensador existente, el cálculo del condensador empleando la metodología del HEI y la evaluación del factor de limpieza del condensador con parámetros de operación. Tabla 1: Datos del condensador de vapor. Parámetros Valor de diseño Valor de operación Unidades Tipo - Superficie de intercambio de calor Cantidad de vapor condensado Número total de tubos - Longitud efectiva Diámetro externo Diámetro interno Número de pasos - Flujo volumétrico Material de tubos Carga de la unidad Presión del condensador 9.7 11.08 Temperatura de saturación 45.21 47.84 Flujo de enfriamiento 4652.78 - Temperatura de entrada agua de enfriamiento 33 27.95 Temperatura de salida de agua de enfriamiento 39 34.58 Temperatura de agua de condensado 43.46 47.2 3.28 7.35 25 23 2 70-30 Cu-Ni 100 000 KM-6960 6960 231.566 11950 Tanto con los parámetros de diseño como de operación se determina la diferencia de temperatura media logarítmica. Tabla 2: Resultados de los valores obtenidos de las temperaturas del condensador de vapor y su diferencia porcentual. Parámetros Valores de diseño Valor de operación Diferencia porcentual Diferencia media logarítmica 8.87 16.35 84.32 Incremento del 6 6.63 10.5 Diferencia de temperatura inicial 12.21 19.89 62.9 Diferencia de temperatura terminal 6.21 13.26 113.53 La causa más probable de una presión de salida elevada en el condensador es la incapacidad del medio de refrigeración para eliminar eficazmente el calor del vapor de escape. Para comprobar la eficacia de la transferencia térmica se debe comprobar la temperatura del vapor de escape y la temperatura de entrada y salida del agua de circulación. Siendo; la diferencia entre la temperatura de escape y la temperatura de la salida del agua, la diferencia terminal de temperatura nos indica según los resultados obtenidos anteriormente, la mala transmisión de calor desde el vapor al agua que pasa por los tubos. De igual forma; la diferencia de temperatura entre la salida y la entrada del agua de enfriamiento constituye un indicativo de la calidad de la transferencia de calor; pues expresa la cantidad de calor que se transmite desde el vapor al agua de circulación. Enunciando como nos muestra en los resultados que está circulando una cantidad menor de agua para extraer la misma cantidad de calor. Tabla 3: Anomalías en el condensador de vapor y causas de origen. Síntomas Causas Observaciones * Ensuciamiento del condensador. * Realizar cálculo. * Área de transferencia de calor reducida. * Revisión del diseño. * Entradas de aire. * Medir flujo de incondensables. * Obstrucción en tuberías. * Revisión del equipo de bombeo. * Deficiencia de la bomba. Incremento de la diferencia de temperatura terminal * Ensuciamiento del condensador. * Limpieza del condensador. Alta presión absoluta del condensador. Aumento del rango de temperatura Tabla 4: Comparación de datos de diseño contra datos de operación reales. Parámetros HEI Diseño condensador Operación Unidades Carga térmica - Presión del condensador 11.08 Temperatura de saturación del vapor 47.84 Temperatura de entrada del agua de enfriamiento 27.95 Temperatura de salida del agua de enfriamiento 34.58 Flujo másico de agua de enfriamiento 6162 4652.78 3262.62 Velocidad agua del interior de los tubos 3.5 1.9 1.34 Calor absorbido del agua 154 469.01 116 635.9 90 375 Área de transferencia de calor 4917 6960 6258 Números de tubos 8518 11 950 11 791 - Número de unidades 0.957 1.053 0.413 - Eficiencia 0.616 0.651 0.34 - Coeficiente de transferencia de calor 3.54 2.501 0.9 Factor de ensuciamiento 0.31 adimensional0.85 154 413.87 9.7 45.21 33 39 Según los resultados obtenidos de los cálculos se puede expresar que: El condensador de vapor cuenta con 42% de área de transferencia de calor adicional desde el punto de vista de diseño; aunque a pesar de todo hay presencia de bio-ensuciamiento de acuerdo a los valores de operación, afectando el flujo de agua de enfriamiento y velocidad de los tubos. Debido fundamentalmente al paso del tiempo y no de la realización adecuada de las medidas de control aplicadas en la operación. El flujo de agua de enfriamiento es afectado por la obstrucción de los tubos del condensador debido al ensuciamiento, al desgaste del impulsor por la erosión del agua de mar y por el nivel del agua. El factor de ensuciamiento evidencia la necesidad urgente de una limpieza oportuna del condensador, ya que está provocando una pérdida de capacidad de transferencia de calor, disminución de la presión de vacío y de la eficiencia de la unidad durante el tiempo de operación. Pese a su nombre, no depende de que los tubos del condensador estén limpios o sucios. Un valor bajo de este factor indica solamente que el coeficiente actual de transferencia de calor es menor que el coeficiente de diseño o de referencia . La causa de esta diferencia puede deberse a condiciones diferentes al grado de ensuciamiento de los tubos, como son tubos taponados no contabilizados en el área de transferencia, bolsas de aire atrapadas en el haz de tubos, cajas de agua llenas parcialmente o mal funcionamiento del sistema de extracción de gases incondensables. Impacto ambiental El desarrollo sustentable de un parque de generación termoeléctrico implica un balance entre la operación de centrales de mayor eficiencia en el uso de recursos, el costo de inversión y operación de dichas unidades, y el desarrollo armónico con la capacidad de asimilación ambiental y evitando, en la medida que sea posible, causar impactos irreversibles sobre comunidades y el medio ambiente. Para el contexto de Cuba, donde las plantas termoeléctricas se ubican principalmente en regiones costeras, el principal desafío debiera orientarse a dar una mayor certidumbre al uso del mar para la operación de sistema de refrigeración abiertos, utilizando sistemas de protección y descarga diseñados, operados y mantenidos adecuadamente. Siendo apropiado en términos de lograr un aprovechamiento de un medio de refrigeración abundante y eficiente para el uso del recurso energético, tanto desde la perspectiva ambiental como económica. Lo indicado anteriormente está alineado no sólo con los objetivos de desarrollo sustentable de proyectos de generación termoeléctricos que provean energía segura y económica al país, sino también como política para una eficiencia energética. De manera general, los impactos asociados a un sistema de enfriamiento en una central eléctrica se pueden caracterizar en tres aspectos importantes. 1. La construcción del sistema de succión y descarga de agua puede producir impactos temporales o permanentes en los hábitats costeros. 2. La operación de la central, particularmente del sistema de succión de agua puede producir efectos de atrapamiento y arrastre de especies hidrobiológicas con un efecto en la dinámica de la población del hábitat costero si el sistema de captación no es diseñado y gestionado apropiadamente 3. La operación de la central, particularmente del sistema de descarga de efluentes en el cuerpo de agua puede afectar la calidad del cuerpo de agua y las especies hidrobiológicas presentes en el cuerpo de agua si el sistema de descarga no es diseñado y gestionado apropiadamente. Influencia de la temperatura de saturación y las temperaturas de salida y de entrada del agua de enfriamiento El parámetro de la temperatura de agua de enfriamiento de mar varía en función de la temperatura del año, las corrientes marinas, la ubicación geográfica de la central y fenómenos climáticos. Una alta temperatura de entrada afecta directamente la operación del condensador y al régimen térmico de la unidad. Mientras un elevado aumento de temperatura de la salida del agua de enfriamiento, cuando el caudal de ésta permanece normal, es una señal de la existencia de una excesiva carga térmica adicional. La magnitud normativa de calentamiento de agua de enfriamiento del condensador de vapor oscila de 6-8 °C. Este indicativo expresa la cantidad de calor que se transmite desde el vapor al agua de circulación. Un incremento del valor de la diferencia entre la temperatura de salida y de entrada del agua de enfriamiento por encima de 8°C; como se muestra en algunos valores de la tabla, evidencia sobre el consumo insuficiente de agua de enfriamiento o de la suciedad de los paquetes de tuberías del condensador. Asimismo, con un condensador limpio, una alta temperatura en la entrada del agua de circulación producirá una elevada presión de salida. Se debe recordar que el régimen de extracción del calor guarda una relación directa con la diferencia de temperatura entre el vapor y el agua de circulación. Si aumenta la temperatura de entrada de ésta última, la temperatura del vapor que sale de la turbina también aumentará (y lo mismo ocurrirá con la presión de salida) para restablecer el valor de ΔT. Como consecuencia, normalmente podemos alcanzar una presión de salida más baja (temperaturas más bajas del vapor a la salida de la turbina) durante los meses de invierno, cuando el agua de circulación está más fría. Además, una alta infiltración de aire en el condensador puede provocar la reducción del vacío del condensador; dando como resultado que se incremente la temperatura de saturación del vapor y también que se incremente la diferencia térmica terminal, tal como se muestra en los valores de la tabla. Tabla 5: Diferencias entre las temperaturas de entrada y salida del agua de enfriamiento del condensador de vapor. agosto-15 junio-16 junio-17 junio-17 junio-18 junio-19 julio-20 Temperatura de entrada de agua de mar 2A 28.67 29.15 27.83 27.75 27.90 29.10 29.34 Temperatura de entrada de agua de mar 2B 28.44 28.61 26.96 27.36 27.58 28.75 28.53 Temperatura de salida de agua de mar 2A 36.55 36.74 35.64 34.40 35.94 35.82 36.83 Temperatura de salida de agua de mar 2B 35.85 37.09 36.25 35.04 34.82 35.82 37.12 ΔT sección 2A 7.88 7.59 7.81 6.65 8.04 6.72 7.49 ΔT sección 2B 7.41 8.48 9.30 7.67 7.24 7.08 8.59 Diferencias entre las temperaturas de salida y de entrada del agua de enfriamiento Parámetros Unidades Fechas Tabla 6: Diferencia térmica terminal del condensador de vapor. agosto-15 junio-16 junio-17 junio-17 junio-18 junio-19 julio-20 Diferencia térmica terminal 11.78 10.70 11.86 11.00 10.96 10.32 13.80 Parámetro Unidades Fechas Influencia del sobreconsumo de combustible por bajo vacío en el condensador. La producción d energía a través de la quema de combustibles fósiles es una de las grandes causas de la contaminación ambiental y del creciente cambio climático. Las irreversibilidades y el mal funcionamiento en una termoeléctrica causan e incrementan sobreconsumos de combustibles y la emisión de gases contaminantes a la atmósfera. Si bien las mayores irreversibilidades se producen durante el proceso de combustión en la caldera, el mal funcionamiento en el ciclo agua-vapor contribuye a un incremento del consumo de combustibles y por ende un aumento de emisiones de gases. En la siguiente figura se muestra el comportamiento del sobreconsumo de combustible por bajo vacío en el condensador. Figura 2: Comportamiento de sobreconsumos por vacío en el condensador. Estos sobreconsumos están determinados a partir de la diferencia entre los valores normativos y valores reales obtenidos en las condiciones actuales de explotación. Como se puede apreciar a medida que los valores reales del vacío son bajos, como los meses de julio a octubre, existe un aumento del consumo de las toneladas equivalentes de combustible para poder llegar a un valor aproximado al normativo. Es válido aclarar que este parámetro, el bajo vacío, es el mayor indicador de sobreconsumos de combustible en esta unidad. 3. CONCLUSIONES Existe una mala transmisión del calor desde el vapor al agua que pasa por los tubos; según nos indica la diferencia terminal por ensuciamiento del condensador. Circula una menos cantidad de agua por los tubos para extraer la misma cantidad de vapor; según el cálculo de la diferencia de temperatura entre la salida y entrada del agua de enfriamiento, lo cual puede es dado por la obstrucción en las tuberías. Los diferentes valores en los resultados del cálculo de la evaluación del factor de ensuciamiento evidencian la necesidad de una limpieza oportuna del condensador. Debido a al bajo por ciento de los resultados se comprueba que, existe pérdida de capacidad de transferencia de calor, disminución de la presión de vacío y por ende de la eficiencia de la unidad. Se obtuvo un 42 % de área de transferencia de calor adicional desde el punto de vista de diseño, y a pesar de ello hay presencia de bioensuciamiento de acuerdo a valores de operación, afectando el flujo de agua de enfriamiento y velocidad de los tubos. Hay existencia de infiltraciones de aire en el condensador, disminuyendo la presión de vacío e incrementando la diferencia térmica terminal durante años. Se evidencia un alto sobreconsumo de combustible por el bajo vacío a lo largo de todo un año, provocando contaminación ambiental por incremento de consumo de combustible para poder obtener valores normativos. REFERENCIAS 1. VISOSO PARRA, Juan C. “Sistema de condensado”. Documentación técnica 102-49/1987. 2. RIVERA-GRIJALVA, Juan J; CRISTALINAS-NAVARRO, Víctor M; MARIÑO-LOPEZ, Carlos A; RAMIREZ SOLIS, José Antonio. “Procedimiento para la evaluación y monitoreo del comportamiento de los condensadores de superficie de centrales termoeléctricas”. XIV Congreso y Exposición Latinoamericana de Turbomaquinaria. Querétaro, Qro. 2014. 3. INEL, ING. “CTE este Habana Eddy Curret Unidad 2”. Grupo Procesos Químicos. Habana, Cuba. 2017, pp. 8,12. 4. DOUSOTO LORENZO, Alejandro. “ Cálculo del factor de limpieza del condensador de la central termoeléctrica Carlos Manuel de Céspedes de Cienfuegos” . Universidad de Cienfuegos, Facultad de Ingeniería. Cuba, 2021, pp. 45. 5. HEAT EXCHANGE INSTITUTE, INC. “Standars for steam surface condensers”. Eleventh edition. Cleveland, Ohio. 2012, pp. 6-11. 6. CUEVAS VIVEROS, Geraldo. “Análisis de la transferencia de calo ren condensadores de superficie de la central Manzanillo” . Instituto Politécnico Nacional. México, D.F. 2008, pp. 56-58. 7. SOTO EVANGELISTA, J.F. “Análisis energéico y exergético del sistema de condensado de una central termoeléctrica del ciclo combinado en Ventanilla” . 2013. 7. División de Desarrollo Sustentable. “Guía de buenas prácticas en el uso de agua para refrigeración de centrales termoeléctricas”. Chile, 2016. pp. 31. COMPARACIÓN DE DOS SISTEMAS PARA LA VALORIZACIÓN DE LOS RESIDUOS GENERADOS EN LOS ECOSISTEMAS TURÍSTICOS DE PLAYA. Ing. Eduardo Miguel Matheu-Muniz1, Ing. Yusleidys Núñez Valdés2. 1 Centro de Estudios de Tecnologías Energéticas Renovables (CETER), Facultad de Ingeniería Mecánica, Universidad Tecnológica de La Habana José Antonio Echeverría (CUJAE), La Habana, Cuba. Correo electrónico: ematheum@mecanica.cujae.edu.cu. ORCID: 0000-0002-6187-2481 2 Centro de Estudios de Tecnologías Energéticas Renovables (CETER), Facultad de Ingeniería Mecánica, Universidad Tecnológica de La Habana José Antonio Echeverría (CUJAE), La Habana, Cuba. Correo electrónico: yulinunezv97@gmail.com. ORCID: 0000-0002-1241-8493 RESUMEN La Biomasa es la fuente renovable más común y generalizada en el mundo, su potencial es abundante. Un producto turístico será sostenible si no arruina los recursos naturales del medio, no contamina a ritmos superiores a los que la propia naturaleza asimila, no congestiona el espacio geográfico disponible, no genera tensiones sociales y pérdidas de la identidad cultural. Por lo tanto, una iniciativa turística será sostenible, mientras que posibilita mantener los valores naturales y culturales sobre los que se basa el equilibrio de la comunidad y que han permanecido en una situación de equilibrio fluctuante durante largos períodos de tiempo. El objetivo de este estudio es realizar el análisis energético de dos sistemas de gasificación de los residuos generados en hoteles de sol y playa con la finalidad de obtener energía útil. Se desarrolló un modelo en el software SuperPro Designer para la gasificación de biomasa donde permite predecir la evolución de la composición del gas de síntesis en función de la temperatura y la composición elemental de la biomasa. Se logró generar con una capacidad en el bloque de potencia de 534 kW unos 1 153 MWh de energía eléctrica al año y la planta 2 (motor de gas) una capacidad en el bloque de potencia de 486,4kW unos 1 051 MWh de energía eléctrica al año. PALABRAS CLAVE: Biomasa, residuos sólidos urbanos, gasificación, valorización de residuos. COMPARISON OF TWO SYSTEMS FOR THE VALORIZATION OF WASTE GENERATED IN BEACH TOURISM ECOSYSTEMS. ABSTRACT Biomass is the most common and widespread renewable source in the world, its potential is abundant. A tourism product will be sustainable if it does not ruin the natural resources of the environment, does not pollute at a higher rate than nature itself assimilates, does not congest the available geographic space, and does not generate social tensions and loss of cultural identity. Therefore, a tourism initiative will be sustainable as long as it makes it possible to maintain the natural and cultural values on which the community's equilibrium is based and which have remained in a situation of fluctuating equilibrium for long periods of time. The objective of this study is to perform the energy analysis of two systems for the gasification of waste generated in sun and beach hotels in order to obtain useful energy. A model was developed in the SuperPro Designer software for biomass gasification which allows predicting the evolution ion of the composition of the synthesis gas as a function of temperature and the elemental composition of the biomass. It was possible to generate with a power block capacity of 534 kW about 1 153 MWh of electrical energy per year and plant 2 (gas engine) with a power block capacity of 486,4 kW about 1 051 MWh of electrical energy per year. KEY WORDS: Biomass, municipal solid waste; gasification, waste valorization. 1. INTRODUCCIÓN El turismo es un servicio mundialmente expandido en la actualidad por los resortes económicos que mueve. Puede generar impactos perjudiciales si su crecimiento acelerado sólo se dirige a obtener beneficios económicos, si no se aplica un adecuado manejo de los recursos naturales, materiales e inmateriales que lo sustentan, y además si no se tienen en cuenta las leyes que rigen el equilibrio de los ecosistemas.[1] Los mayores impactos de la actividad turística producen afectaciones a la diversidad biológica, fundamentalmente sobre los ecosistemas costeros, como las playas, lagunas, manglares, arrecifes coralinos y otros; así como en el orden social entre otros[2]. En Cuba, el turismo se ha consolidado en los últimos años, hasta llegar a convertirse en un sector dinámico y estructural de la economía, logrando clasificarse entre los primeros países turísticos del Caribe, con destinos muy sobresalientes como La Habana y Varadero. Es uno de los renglones que más ingresos económicos genera, así la cultura, historia y naturaleza son los fundamentales atractivos para los visitantes de diversas partes del mundo. La construcción de infraestructuras de hospedaje, servicios, el desarrollo de áreas recreativas, y todas las acciones que se realizan de forma directa o indirecta para prestar servicio a los visitantes, contribuyen al deterioro del medio ambiente, de ahí la necesidad de fomentar un turismo sostenible en todos los aspectos [3]. La mayoría de los estudios sobre sostenibilidad turística de destinos se han realizado a partir de la selección y evaluación de indicadores, los que se han clasificado de acuerdo con las dimensiones de la sostenibilidad. Aunque estos estudios constituyen avances en la evaluación de la sostenibilidad del desarrollo de los destinos turísticos de Cuba, se aprecia que aún esta no se ha sistematizado. Como resultado de la implementación de estos indicadores en los destinos turísticos de sol y playa se pueden obtener una serie de problemas que tiene el sistema turístico nacional como son: el alto consumo de agua, la poca utilización de fuentes renovables de energía, las escasa inversiones para el medio ambiente, el tratamiento limitado de las aguas residuales y la poca gestión de desechos sólidos. A partir de estos problemas se realizó una investigación que llevó a que en nuestro país no se hace un uso eficiente de los residuos generados por las instalaciones turísticas [4-7]. Entre otros recursos, los establecimientos hoteleros utilizan una notable cantidad de energía para suministrar los servicios y el confort que ofrecen a sus clientes como se muestra en la tabla 1. Es por ello que el ahorro de energía se convierte en uno de los compromisos que debe asumir el sector hotelero, donde existe todavía un gran potencial para el ahorro energético. Tabla 1: Indicadores energéticos utilizados por las diferentes cadenas hoteleras cubanas[8, 9]. **Información resumida de los manuales energéticos de cada cadena hotelera. Cadena Hotelera Electricidad (kWh/HDO) Agua (m3/HDO) Diesel (Lts/HDO) GLP (Lst/HDO) Gran Caribe 14-30 0,8-1 0,65-0,7 1,9 Gaviota 35-40 0,8-1 2-3,5 1,9-2 Cubanacán 30-60 0,8-1 --- 1,5-2 Islazul 27-60 0,8-1 2-2.5 1,5-2 *HDO: Habitaciones Días Ocupadas con clientes. Experiencias internacionales demuestran que en una instalación hotelera que funcione eficientemente, desde el punto de vista energético, debe consumir entre 5 y 7 % de sus ingresos para cubrir los gastos energéticos, indicador que varía en función del tipo de hotel y la categoría que ellos posean, así como el tipo de servicio que se ha prestar. En Cuba, en las cadenas CUBANACÁN, Gran Caribe, Isla Azul y Horizontes, este indicador oscila entre 8 y 16 % y puede llegar hasta 20 % en hoteles que tienen un infraestructura muy atrasada y bajos niveles de comercialización. Las áreas que consumen más energía eléctrica en un hotel son la climatización y el alumbrado. Para hoteles del Caribe en particular, el consumo de climatización puede representar alrededor de 65 % del total del consumo de electricidad, debido fundamentalmente a las altas temperaturas, mientras que el consumo de equipos de refrigeración representa alrededor del 14 %, el alumbrado 11 %, ventiladores y bombas 12 % y la producción de agua caliente 7 % aproximadamente. Debido a la creciente competencia en el mercado mundial y la exigencia del hombre por alcanzar un entorno ecológicamente sostenible, las empresas turísticas cubanas se ven obligadas a incrementar la productividad y a realizar un amplio estudio en el tratamiento de los residuos, con el propósito de optimizar y aprovechar al máximo cada recurso, ayudando a la protección del medio ambiente, disminuyendo la emisión de residuos al ambiente y teniendo un impacto positivo en la sostenibilidad mediante la introducción de conceptos novedosos como la economía industrial, simbiosis industrial y biorrefinería. Por lo expuesto anteriormente es que nuestro trabajo tiene como objetivo general evaluar y comparar el desempeño energético de los sistemas de gasificación propuestos para el tratamiento y valoración de los residuos generados en ecosistemas turísticos de sol y playa del grupo hotelero Gaviota S.A. en Varadero. Generación de residuos en el sector turístico. La cantidad promedio de los residuos y desechos sólidos generados en los hoteles está determinada por el tamaño del mismo, diversidad de acciones internas y el número de estrellas del establecimiento. El intervalo de generación en los hoteles de todas las categorías es de 0.914 a 5.02 kg/habitación*Días (Gutiérrez, 2002) (XXVIII Congreso Interamericano de Ingeniería Sanitaria y Ambiental, Cancún) por ejemplo en el caso de cubano en ecosistema de playa se muestran a continuación.  Cayo Largo del Sur, 1300 habitaciones (3,9 t/d residuos sólidos)  Guardalavaca, 15000 habitaciones (45 t/d residuos sólidos) En la península de Varadero el promedio de residuos generados (Kg/turista/día) está en el orden de los 1,33 y el volumen total que generan todas estas instalaciones se encuentra en el orden de los 6544,5 Kg/día para un 40% de ocupación. Para la temporada alta con una ocupación del 75% se debe arribar la cifra de 12 530,7 Kg/día aproximadamente. Es por ello que se hace imprescindible darles una solución a estos residuos generados de forma tal que se puedan utilizar como materia prima para la generación de energía eléctrica y/o térmica u otro producto de valor agregado que genere ingresos, disminuya costos y transforme la matriz energética del sector todo con un enfoque en la sostenibilidad del ecosistema[10, 11]. Tratamiento de residuos. Los procesos termoquímicos se basan en la descomposición térmica de la biomasa. Se somete la biomasa a altas temperaturas, teniendo lugar transformaciones químicas de la misma, generando productos combustibles o, directamente, energía para la producción de electricidad u otro tipo de energía útil como se muestra en la figura 1. Actualmente son los más utilizados por su mayor viabilidad técnica y económica. Dependiendo de las condiciones en las que se produzca el proceso, de la composición de la atmósfera imperante y del nivel de temperatura, éste se va a regir por unos principios u otros, y se generarán unos productos u otros[12]. Figura 1: Métodos de aprovechamiento de la biomasa. Se denomina gasificación de biomasa a un conjunto de reacciones termoquímicas que se produce en un ambiente pobre en oxígeno, y que da como resultado la transformación de un sólido en una serie de gases susceptibles de ser utilizados en una caldera, en una turbina o en un motor, tras ser debidamente acondicionados. Esta mezcla de gases llamada gas de síntesis o “syngas”, tiene un poder calorífico inferior (PCI) equivalente a la sexta parte del poder calorífico inferior del gas natural, cuando se emplea aire como agente gasificante[13]. La gasificación tiene como objetivo la obtención de una fracción mayoritaria de gas combustible, mediante una serie de reacciones que ocurren a temperaturas superiores a las de pirólisis en presencia de un agente gasificante (aire, oxígeno puro y/o vapor de agua). En definitiva, se trata de una oxidación parcial de la biomasa usando únicamente un 25-30% del oxígeno estequiométrico para la combustión total de la misma. El proceso de gasificación puede tener carácter autotérmico o requerir, como la pirólisis, de aportes suplementarios de energía para llevarse a cabo. Si bien se maximiza el rendimiento a productos gaseosos, se producen también una fracción sólida (constituida en gran parte por el contenido en cenizas original de la biomasa y una pequeña cantidad de carbono no convertido), y una fracción líquida condensable. Esta última se conoce genéricamente con el nombre de alquitranes (tars) y representa un importante problema operacional en la mayoría de las instalaciones de gasificación por su tendencia a condensar en válvulas y conducciones, creando atascos y dificultades a la hora de quemar el gas producto. En la bibliografía consulta encontramos varios casos de estudio de instalaciones de tratamiento de residuos en polos turísticos con el objetivo de generar o producir energía tanto eléctrica y/o térmica u otro producto de valor agregado como el compost. En la localidad de Campinas, Brasil, se genera una cantidad de 4795ton/día, donde el 37.4% de esta es orgánica. Para la gestión y manejo de los residuos generados proponen utilizar un tratamiento térmico (incineración) y uno biológico (landfills) lo cual les permitiría generar a partir de la landfills 28.495x103m3/día de biogás y con ello producir 1.135MW y con la incineración 40.265MW lo que se puede traducir en 0.458 y 12.349 respectivamente de GJ/ton de residuos tratados ya que en el presente no se aprovechando como materia prima estos residuos generados[14]. Debido a la creciente competencia en el mercado mundial y la exigencia del hombre por alcanzar un entorno ecológicamente sostenible, las empresas turísticas cubanas se ven obligadas a incrementar la productividad y a realizar un amplio estudio en el tratamiento de los residuos, con el propósito de optimizar y aprovechar al máximo cada recurso, ayudando a la protección del medio ambiente, disminuyendo la emisión de residuos al ambiente y teniendo un impacto positivo en la sostenibilidad mediante la introducción de conceptos novedosos como la economía industrial, simbiosis industrial y biorrefinería. Por lo expuesto anteriormente es que nuestro trabajo tiene como objetivo general evaluar y comparar el desempeño energético de los sistemas de gasificación propuestos para el tratamiento y valoración de los residuos generados en ecosistemas turísticos de sol y playa del grupo hotelero Gaviota S.A. en Varadero. Utilizándolos como materia prima para la generación de energía eléctrica y/o térmica u otro producto de valor agregado que genere ingresos, disminuya costos y transforme la matriz energética del sector todo con un enfoque en la sostenibilidad del ecosistema que le permita ser más competitivo a nivel mundial. 2. MATERIALES Y MÉTODOS Se analizarán un sistema de gasificación con dos aplicaciones del gas pobre para la valoración de los residuos, con el énfasis en la generar energía ya sea eléctrica y/o térmica, así lograr un impacto positivo en la sostenibilidad del ecosistema turístico dando los primeros pasos en los sistemas de cero residuos. El caso de estudio seleccionado fue el grupo hotelero Gaviota S.A ubicado en Varadero provincia de Matanzas, Cuba. Como resultado del levantamiento de la información referida a las cantidades y manejo de los residuales alimenticios en las instalaciones hoteleras del Polo Turístico Varadero, se obtuvo la información del grupo hotelero Gaviota S.A en relación con la generación de residuo como que se muestra en la tabla siguiente. Tabla 2: Resumen del Grupo Hotelero Gaviota S.A.[15] N.º Instalación Categoría Habitaciones en explotación Residuales por consumidores (kg/cons./día) Residuales generados (kg/día) Ocupación del 40% Ocupación del 75% 1 El Patriarca 5* 416 1,21 321,1 302 2 Paradisus Varadero 5* 507 1,42 461,6 865,6 3 Memories Varadero 4* 1031 1,37 903,2 1 693,6 4 Paradisus Princesa del Mar 5* 623 1,23 491,8 922,2 5 Laguna Dorada (Riu Varadero) 5* 1 110 1,46 1038 1947 6 Meliá Marina Varadero 5* 549 1,20 423,3 952,5 7 Hotel Allegro Varadero 4* 443 1,08 307,1 575,8 8 Playa Alameda 5* 300 1,37 263,7 494,4 9 Meliá Península Varadero 5* 583 1,18 516.6 968,6 10 Sirenas Coral 5* 646 1,50 621 1164,4 11 Iberostar Laguna Azul 5* 814 1,09 569,6 1168 12 Blau Marina Varadero 5* 630 1,56 627,5 1176,6 Total 7 209 6 544,5 12 530,7 El volumen total que generan todas estas instalaciones se encuentra en el orden de los 6544,5 kg/día (0,076kg/s) para un 40% de ocupación y de 12 530,7 kg/día (0,15 kg/s) para una ocupación del 75% del complejo hotelero. En la simulación de los sistemas propuestos consideraremos un nivel de ocupación del sistema del 40% para las primeras aproximaciones de configuración del sistema de gasificación para la reutilización de los residuos generados para la generación de energía eléctrica y/o térmica. Sistemas propuestos modelados en el SuperPro Designer.  Bloque de Potencia Como solución energética se plantea una planta 1 con un pequeño ciclo Brayton el cual aprovecharía la energía química de los gases producidos a partir de la gasificación de los residuos biodegradables. Además, se propone un intercambiador de calor acoplado a la salida de los gases de la turbina de gas para la producción de vapor, que puede ser utilizado para la producción de agua caliente sanitaria o para la cocción de alimentos. Con el siguiente análisis se constatará cuan viable es el empleo de este tipo de sistema con la disponibilidad de residuos biodegradables En la figura 2 se muestra un esquema donde se aprecia el sistema propuesto encontrándose un gasificador, dos intercambiadores de calor y una turbina. Figura 2: Esquema de un ciclo de energía mediante una turbina de vapor (planta 1).  Motor de gas Para la obtención de energía como fin propongo la planta 2 que consta de un motor de gas el cual aprovecharía la energía química de los gases producidos a partir de la gasificación de los residuos biodegradables una vez ya pasado por un intercambiador de calor que reduzca la temperatura del gas el cual hace función de combustible y partir de ahí se obtiene energía eléctrica. Los gases de escape del motor de gas pasarían ya por último por un intercambiador de calor para que puedan ser utilizado para la producción de agua caliente sanitaria o para la cocción de alimentos. Figura 3: Esquema de un ciclo de energía mediante un motor de gas (planta 2). Especificaciones técnicas de ambos sistemas para la simulación. Para el análisis del sistema se recurrió al programa de diseño de procesos SuperPro Designer en el cual se montó un ciclo potencia de gas, el cual toma la energía del gas producido en el proceso de gasificación y simplificando la complejidad de este tipo de proceso, asumiendo consideraciones que no alejaran tanto nuestro modelo de la realidad pero que nos permitiera describir el proceso de manera más satisfactoria.  Operación en condiciones de estado estacionario.  Reactor isotermo, es decir, temperatura uniforme en el lecho.  Mezcla perfecta en el gasificador.  Modelo adimensional de equilibrio.  Gases ideales.  No se tienen en cuenta las caídas de presión en los equipos.  No hay pérdidas de calor en el reactor, el cual está perfectamente aislado.  El nitrógeno procedente del aire es inerte durante todo el proceso.  Los cambios de energía cinética y potencial son despreciables y se consideró la variación de los calores específicos con la temperatura. Composición elemental de los residuos sólidos urbanos. Para el proceso de tratamiento de los residuos fue necesario determinar la composición próxima y elemental de los residuos generador y así determinar el porcentaje de C (carbono), H (hidrógeno), O (oxígeno), N (nitrógeno), S (azufre) y cenizas, de los componentes típicos de los residuos orgánicos. Tabla 3: Composición química de los residuos orgánicos [10, 13]. Componente Comp. Física (% peso, base seca) Análisis último del componente (% peso, base seca) C H O N S Cenizas Materia orgánica 60% 48 6.4 37.6 2.6 0.4 5 Plásticos 18 % 60 7.2 22.8 10 Cartón 7 % 44 5.9 44.6 0.2 5 Papel 4% 43.5 6 44 0.3 02 6 Textiles 4% 55 6.6 31.2 4.6 0.2 2.5 Composición Química (MSW) 47.68 6.18 32.88 1.8 0.28 11.18 Humedad (%peso) 59% Poder Calorico Inferior PCI (MJ/kg) 15,90 Poder Calorico Superior PCS (MJ/kg) 19,18 Balance energético del gasificador (A) (B) Figura 4: Esquema del balance de masa (A) y de energía (B) en el gasificador. El balance energético se realizó a partir de la energía que entró y salió del gasificador con el objetivo de evaluar las pérdidas y su influencia en el proceso de gasificación. La ecuación que se muestra a continuación refleja el balance planteado: * * *comb comb aire aire gas gas cen mam PCI m h m h Q Q    [1] donde: cenQ -Calor que se pierde con las cenizas en kW, que se halló a partir de la siguiente ecuación: *c ( )cen cen cen cen aQ m T T  [2] donde: cenT =800Cº siendo esta la temperatura de trabajo del gasificador. ccen =0,68 kJ/kg K, Calor específico de las cenizas. maQ -Calor que se pierde al medioambiente en kW, el cual se halla a partir de su despeje en la ecuación (1). Flujo másico del aire en el gasificador Si nos fijamos en la tabla 9, está presente la composición química de la materia orgánica o sea los elementos que se tomaran como combustible del gasificador; dicho esto se puede calcular el flujo másico del aire. El flujo de aire se determinó a partir del cálculo de aire teórico necesario para que ocurra la combustión, considerando que la gasificación es una combustión que ocurre con defecto de aire, como promedio con el 30 % del aire teórico. 𝑀𝑎𝑖𝑟𝑒 = 29 𝑘𝑔 𝑘𝑚𝑜𝑙⁄ M (masa molar), N (número de moles)    * kgm kg N mol M kmol      [3] C OH H productos C H O H m mm m N M M M M     [4] 𝑁𝑝𝑟𝑜𝑑𝑢𝑐𝑡𝑜𝑠 = 48 12 + 6.4 1 + 37.6 16 + 2.6 14 𝑁𝑝𝑟𝑜𝑑𝑢𝑐𝑡𝑜𝑠 = 4 + 6,4 + 2,35 + 0,186 𝑁𝑝𝑟𝑜𝑑𝑢𝑐𝑡𝑜𝑠 = 12,936 kmol 4C + 3,2H2 + 1,175 O2 + 0,186N + ath[O2+3,76N2] xCO2 + yH2O + zN2 C x = 4 H2 y = 3,2 O2 1,175 + ath = x + 0,5y ath = 4,425 N2 0,186 + ath (3,76) z = 16,824 Reacción química 4C + 3,2H2 + 1,175 O2 + 0,186N + 4,425[O2+3,76N2] 4CO2 + 3,2H2O + 16,824N2 aire a c combustible m r m  [5] 𝑟 𝑎 𝑐⁄ = 𝑚𝑎𝑖𝑟𝑒 𝑚𝑐𝑜𝑚𝑏𝑢𝑠𝑡𝑏𝑙𝑒 = 4.425 [1𝑘𝑚𝑜𝑙 + 3.76𝑘𝑚𝑜𝑙] 29 𝑘𝑔 𝑘𝑚𝑜𝑙⁄ 100𝑘𝑔 = 6.1 𝑘𝑔 𝑎𝑖𝑟𝑒 𝑘𝑔 𝑐𝑜𝑚𝑏⁄ * *%aire a comb c m r m [6] (el gasificador trabaja por defecto de aire al 30%) ?̇?𝑎𝑖𝑟𝑒 = 6.1 (0.15)(0.3) ?̇?𝑎𝑖𝑟𝑒 = 0.27 𝑘𝑔𝑎𝑖𝑟𝑒 𝑠⁄ 3. RESULTADOS Y DISCUSIÓN Se realizará el análisis los principales resultados del sistema propuesto para el tratamiento de los residuales orgánicos generados por el grupo hotelero de Varadero que consta de 12 hoteles pertenecientes a la cadena GAVIOTA SA. También se calculará la energía eléctrica que se puede generar con el bloque de potencia y en el motor de gas dependiendo de la biomasa de entrada al gasificador. Los datos de la calidad del gas generado se obtuvieron de la simulación del sistema. Como primeros resultados de la simulación fue la obtención de los principales elementos constituyentes del gas síntesis de gasificación y sus respectivos por cientos. En la tabla 3 se muestran dichas composiciones. Tabla 3: Composición (%) en base seca de los principales gases constituyentes del gas síntesis. CO CO2 N2 H2 CH4 26,2234 20,4706 45,6256 1,9958 2,8723 En la figura 5 se muestra el esquema del sistema de gasificación simulado. A continuación, se explica en detalle el significado de cada elemento que lo compone y los resultados obtenidos por bloques de la instalación. Figura 5: Esquema del sistema de gasificación simulado en SuperPro. La entrada de la biomasa orgánica se identificó como S-107, en la cual se ajustó a 272.5 kg/h para un período de trabajo de 10 meses como se dijo anteriormente además con una temperatura de 31ºC. Las propiedades de dicha biomasa se introdujeron en el programa teniendo en cuenta la composición de los distintos elementos constituyentes. El aire se utilizó como agente oxidante cuya entrada se identificó como S-109, su flujo másico está calculado anteriormente. La salida del gas fue denominada como S-101. Luego el gas pasó por el intercambiador de calor (P- 2/HX-101) en el cual se le disminuyó la temperatura a 200ºC. Los resultados del balance de masa y de energía en el gasificador (P1/GSF-101), se muestran en las tablas 4 y 5 respectivamente. Tabla 4: Resultados del balance de masa en el gasificador. ?̇?𝑐𝑜𝑚𝑏 ?̇?𝑎𝑖𝑟𝑒 ?̇?𝑔𝑎𝑠 ?̇?𝑐𝑒𝑛𝑖𝑧𝑎𝑠 0,0757 kg/s 0,166 kg/s* 0,872 kg/s 0,0092kg/s *El flujo másico de aire varia debido a que el gasificador convierte en carbón un 90% de la biomasa. Tabla 5: Resultados del balance de energía en el gasificador. 𝑚𝑐𝑜𝑚𝑏 ∗ ℎ𝑐𝑜𝑚 *aire airem h *gas gasm h cen Q ma Q 1693 kW 4,87 kW 607,32 W 16 kW 1085 kW Resultados obtenidos en el bloque de potencia para la turbina. El bloque de potencia está compuesto por el compresor (a), la cámara de combustión (b), la turbina (c) y el generador eléctrico (d), lo cual se muestra identificado en la figura 6. Figura 6: Esquema del bloque de potencia. Las características de la entrada de aire del compresor (a), dígase flujo, presión y temperatura se ajustaron en el módulo de entrada que se identifica por S-102. Como el aire fue extraído del medio ambiente la presión tomó un valor de 1.013 bar. La temperatura del aire ambiente fue de 29ºC y el flujo quedó determinado por el exceso de oxígeno con el cual se trabajó en la combustión llegando a alcanzar un valor de 0,40 kg/s. Se consideraron eficiencias isoentrópicas para la turbina y el compresor del 95% para ambos, además se tomó una relación de compresión para el compresor de 20 y un exceso de aire del 130%. La turbina pudo entregar una potencia de 643,9 kW, pero 82 kW fueron para el funcionamiento del compresor. Para la generación de energía eléctrica quedaron 561,8 MW y teniendo en cuenta una eficiencia del generador eléctrico del 95% la instalación posee una capacidad de aproximadamente 533,7 kW. Resultados obtenidos para el motor de gas. Las características de la entrada de aire al motor, dígase flujo, presión y temperatura se ajustaron en el módulo de entrada que se identifica por S-102. Como el aire fue extraído del medio ambiente la presión tomó un valor de 1,013 bar. La temperatura del aire ambiente fue de 29ºC y el flujo quedó determinado por el exceso de oxígeno con el cual se trabajó en la combustión llegando a alcanzar un valor de 0,4246 kg/s. Como mecanismo de enfriamiento del motor tiene entrada de agua a 25oC y presión de 1bar. Se tomó una relación de compresión para el compresor de 20 y un exceso de aire del 85%. El motor pudo entregar una potencia mecánica de 521 kW, aunque para la generación de energía eléctrica quedaron 486,4 kW, teniendo en cuenta una eficiencia del generador eléctrico del 95%. Energía producida por la instalación en un año de trabajo. El período de trabajo de la instalación sería de 10 meses al año durante 12 horas lo cual representa nuestro año de trabajo luego para conocer la energía producida en este tiempo. 𝐸𝑝:Energia producida en kWh 𝐶𝑃: Capacidad de la planta en kW. 𝜏: Tiempo de trabajo. 𝑓𝑝: Factor de planta 0,6.      * * PEp kWh CP kW h f [7] Bloque de potencia para la turbina. 𝐸𝑝 =534 [kW]*3600*(0.6) 𝐸𝑝 = 1 153 440 𝑘𝑊ℎ/𝑎ñ𝑜 Motor de gas. 𝐸𝑝 =486,4 [kW].3600[s]. (0.6) 𝐸𝑝 = 1 050 624 𝑘𝑊ℎ 4. CONCLUSIONES La producción total de desechos de la cadena hotelera Gaviota SA. es de 6544.5 Kg/día con una capacidad del 40% de ocupación. La instalación propuesta para el tratamiento de los residuos orgánicos generados en el complejo turístico consta de un proceso de gasificación para el tratamiento de estos residuos, de un bloque de potencia para la planta 1 y un motor de gas para la planta 2 con el fin el aprovechar estos gases de combustión. La energía que produce la planta 1 (bloque de potencia) y la planta 2 (motor de gas) durante un periodo de 10 meses trabajando las 12h es de 1 153 MWh/año con una capacidad de 534 kW y de 1 051 MWh/año con una capacidad de 486,4 kW respectivamente. 5. REFERENCIAS 1. Peláez-Rodríguez, T., Evaluación del desempeño ambiental de hotel Versalle, con un enfoque multidimensional. Retos Turísticos, 2018. 17(Gestión ambiental sostenible): p. 10. Cited]. ISSN: 2224-7947 (versión en línea). 2. Leonel J. R. Nunes, M.A.M.R.a.C.J.P.G., The Impact of Tourism Activity on Coastal Biodiversity: A Case Study at Praia da Cova Redonda (Algarve—Portugal). environments, 2020.DOI: doi:10.3390/environments7100088. Cited]; Available from: www.mdpi.com/journal/environments. 3. Cristina Andolina, G.S., Agostino Tomasello, Antonio Mazzola and Salvatrice Vizzini, Environmental effects of tourism and its seasonality on Mediterranean islands: the contribution of the Interreg MED BLUEISLANDS project to build up an approach towards sustainable tourism. Environment, Development and Sustainability, 2020.DOI: https://doi.org/10.1007/s10668-020-00984-8. Cited]. 4. Ana María Azze Alonso, M.B.O.Á., La gestión ambiental en una entidad hotelera de turismo de naturaleza. Caso Villa Mirador de Mayabe de Holgín, Cuba. Revista Interamericana de Ambiente y Turismo, 2017. 13: p. 52-67. Cited]. ISSN: 0718-235X. 5. Torres-Hechavarría, L., Factores que inciden en la evaluación del desarrollo sostenible de destinos turísticos. El caso de Cuba. Retos Turísticos, 2016. 15(Gestión ambiental sostenible): p. 11. Cited]. ISSN: 2224-7947 (versión en línea). 6. Castro, D.H.A., Evolución de Indicadores Turísticos de Cuba 2011-2013. Retos Turísticos, 2014. 2(Desarrollo de productos turísticos): p. 15. Cited]. ISSN: ISSN: 2224-7947 (versión en línea). 7. Ruano, M.M.M.M.L.B.N., Auditoría Ambiental en Varadero: alternativa de control de la gestión ambiental sostenible legislada a partir del 2013. Retos Turísticos, 2013. 1(Gestión Ambiental Sostenible): p. 10. Cited]. ISSN: 2224-7947 (versión en línea). 8. Harolfner, P.R., Caracterizacion de la demanda de los principales portadores energeticos en un hotel de cuatro estrellas, in Centro de Estudios Energéticos y Tecnologías Ambientales (CEETA). 2009, Universidad Central “Marta Abreu” de Las Villas: Facultad de Ingeniería Mecánica. 9. Arnaldo Molina González, H.R.V.B., Aníbal E. Borroto Nordelo, Cosme E. Santiesteban Toca and José P. Monteagudo Yanes, Nuevos índices de consumo energético para hoteles tropicales. Revista Ingenieria Energética, 2017. XXXVIII: p. 198-207. Cited]. ISSN: 1815-5901. 10. Francisco Cesar Dalmo, N.M.S., Heleno Quevedo de Lima, Ana Carolina Medina Jimenez, Silvia Nebra, Gilberto Martins, Reynaldo Palacios-Bereche, Paulo Henrique de Mello Sant’Ana, Energy recovery overview of municipal solid waste in Sao Paulo State,Brazil. Journal of Cleaner Production, 2019.DOI: https://doi.org/10.1016/j.jclepro.2018.12.016. Cited]; Available from: www.elsevier.com/locate/jclepro. 11. Anshika Singh, K.K., An inclusive approach for organic waste treatment and valorisation using Black Soldier Fly larvae: A review. Journal of Environmental Management, 2019.DOI: https://doi.org/10.1016/j.jenvman.2019.109569. Cited]; Available from: www.elsevier.com/locate/jenvman. 12. Arashdeep Singh, P.B., Economic and environmental evaluation of rice straw processing technologies for energy generation: A case study of Punjab, India. Journal of Cleaner Production, 2019.DOI: https://doi.org/10.1016/j.jclepro.2018.12.033. Cited]; Available from: www.elsevier.com/locate/jclepro. 13. Anastasia Zabaniotou, P.K., Food waste valorization advocating Circular Bioeconomy - A critical review of potentialities and perspectives of spent coffee grounds biorefinery. Journal of Cleaner Production, 2019.DOI: https://doi.org/10.1016/j.jclepro.2018.11.230. Cited]; Available from: www.elsevier.com/locate/jclepro. 14. F.A.M. Lino, K.A.R.I., Evaluation of the treatment of municipal solid waste as renewable energy resource in Campinas, Brazil. Sustainable Energy Technologies and Assessments, 2018.DOI: https://doi.org/10.1016/j.seta.2018.06.011. Cited]; Available from: www.elsevier.com/locate/seta. 15. Sánchez, J.A.C.H.A.A.C.R.y.L.C., Evaluación de la sostenibilidad ambiental de destinos turísticos. Caso de estudio Varadero. Retos Turísticos, 2014. 13(Gestión Ambiental Sostenible): p. 13. Cited]. ISSN: 2224-7947 (versión en línea). CONTRIBUCIÓN DE LOS AUTOR Ing. Eduardo Miguel Matheu Muñiz profesor instructor e investigador del Centro de Estudio de Tecnologías Energéticas Renovables (CETER) perteneciente a la Facultad de Ingeniería Mecánica de La Universidad Tecnológica de La Habana José Antonio Echeverría Cujae. Participó en el diseño de la investigación y en la revisión del estado del arte Trabajó en la recolección y el procesamiento de los datos para el estudio. Realizó contribuciones en el análisis e interpretación de los datos, en la simulación y en el análisis de los resultados. Participó en la revisión crítica de su contenido, así como en la redacción y aprobación del informe final. Ing. Yusleidys Núñez Valdés profesora adiestrada e investigadora del Centro de Estudio de Tecnologías Energéticas Renovables (CETER) perteneciente a la Facultad de Ingeniería Mecánica de La Universidad Tecnológica de La Habana José Antonio Echeverría Cujae. Apoyó en la revisión del estado del arte y diseño de la investigación. Trabajó en la recolección de los datos y en la revisión crítica de su contenido. ESTUDIO DEL GASTO ENERGÉTICO EN CLIMATIZACIÓN DEL AUTOVAZ 2107 SEGÚN LA POSICIÓN DE SUS VENTANILLAS. Ing. José Carlos Erbiti Otero 1, Dr.C Alberto Menéndez-Pérez 2, Ing. Guillermo Manuel Fabra Fernández 3, Dr.C Rubén Borrajo-Pérez4 1. Facultad de Ingeniería Mecánica Universidad Tecnológica de La Habana “José Antonio Echeverría” CUJAE. La Habana. Cuba. jerbitio@mecanica.cujae.edu.cu 2. Centro de Estudio de Tecnologías Energéticas Renovables Universidad Tecnológica de La Habana “José Antonio Echeverría” CUJAE. Habana. Cuba. alberto900116@gmail.com ORCID: 0000-0002-2110-6491 3. Centro de Estudio de Tecnologías Energéticas Renovables Universidad Tecnológica de La Habana “José Antonio Echeverría” CUJAE. Habana. Cuba. gfabregaf@gmail.com ORCID: 0000-0003-4586-2543 4. Centro de Estudio de Tecnologías Energéticas Renovables, Universidad Tecnológica de La Habana “José Antonio Echeverría” CUJAE. Habana. Cuba. rborrajo@mecanica.cujae.edu.cu ORCID: 0000-0002-8236-0581 RESUMEN Este estudio es llevado a cabo debido a la alta dependencia que tiene el País al uso de vehículos de fabricación soviética antiguos, en particular el AUTOVAZ, LADA 2107 y su consumo de combustibles fósiles. Tiene como objetivo principal, comparar el consumo de energía usando aires acondicionados ajenos al fabricante, contra la ventilación natural producto de conducir con las ventanillas abajo. Utilizando softwares de cálculos y métodos como la Dinámica de Fluidos Computacional se determinó el consumo de combustible a partir de la posición de las ventanas a una velocidad promedio. Y mediante un análisis termodinámico y datos brindados por el fabricante, se determinó el consumo a partir del uso del aire acondicionado. La principal conclusión de este estudio es que, conduciendo a una velocidad constante de 90 kilómetros por hora, con las ventanas bajadas, se tiene un consumo de 14,1174 litros de combustible por cada 100 kilómetros recorridos, mientras que, si se conduce a esa misma velocidad con el aire acondicionado encendido y las ventanas subidas, se obtiene un consumo de 10,91 litros por cada 100 kilómetros recorridos. Por lo tanto, conducir largas distancias en carretera, con las ventanillas cerradas y aire acondicionado, es más eficiente. PALABRAS CLAVE: consumo de energía, ventilación natural, CFD. GUIDELINES FOR PREPARING ARTICLES FOR THE XX SCIENTIFIC CONVENTION ON ENGINEERING AND ARCHITECTURE ABSTRACT This study is carried out due to the high dependence of the Country on the use of old Soviet manufactured vehicles, in particular the AUTOVAZ, LADA 2107 and their consumption of fossil fuels. Its main objective is to compare the energy consumption using non-manufacturer air conditioners against the natural ventilation resulting from driving with the windows down. Using calculation software and methods such as Computational Fluid Dynamics, the fuel consumption was determined from the position of the windows at an average speed. And through a thermodynamic analysis and data provided by the manufacturer, the consumption from the use of air conditioning was determined. The main conclusion of this study is that, driving at a constant speed of 90 kilometers per hour, with the windows down, there is a consumption of 14.1174 liters of fuel per 100 kilometers traveled, while, if you drive at the same speed with the air conditioning on and the windows up, you get a consumption of 10.91 liters per 100 kilometers traveled. Therefore, driving long distances on the highway, with the windows closed and air conditioning on, is more efficient. KEY WORDS: energy consumption, natural ventilation, CFD. 1. Introducción En el mundo actual, cada día más globalizado, hay cada vez más automóviles, y en consecuencia se quema más combustible fósil, una fuente de energía finita que produce gases que contaminan el medio ambiente. Este problema ha sido abordado en reiteradas ocasiones por organismos internacionales, y darle una solución a mediano y largo plazo es imperativo. Con el desarrollo de nuevas tecnologías e innovaciones en la industria automotriz, los automóviles modernos consumen menos combustible, o contaminan menos el ambiente gracias a sistemas implementados en los motores de combustión interna o a aditivos que se le agregan a este. Nuestro país desafortunadamente no tiene un acceso masivo a flotas de vehículos de esta índole y la mayor parte de los automóviles que transitan hoy en día por nuestras calles son modelos de fabricación del siglo pasado, cuando las normas ambientales no eran tan severas y con consumos de combustible elevados (1). A esta situación además se le suma el clima tropical de la nación, con altas temperaturas la mayor parte del año y casi todos los LADA 2107 no tienen funcional los aires acondicionados de fábrica debido a la falta de repuestos del fabricante y la antigüedad de estos. A pesar de los progresos alcanzados en estudios bajo regímenes turbulentos, usando métodos analíticos, muchas veces los resultados carecen de validez, están plagados de errores y el costo de tiempo y dinero es demasiado elevado (2). Muchos experimentos de este tipo requieren de pruebas, tanto en el laboratorio como en el campo. Además de que siempre se verán afectados por la cantidad de puntos de medición que se ubiquen en el sólido, que mientras mayor cantidad se coloquen, mayor exactitud y validez tendrán los valores obtenidos; pero en cada punto de medición hay que aplicar métodos de cálculos y por tanto a mayor cantidad de puntos de medición, mayor costo estará involucrado, y las probabilidades de cometer errores van aumentando por cada iteración realizada (3, 4). También es necesario tener en cuenta la posición de estos y el carácter intrusivo del método usado, que no todos siempre ofrecerán el mismo resultado. Estas características junto con el elevado número de grados de libertad involucrados hacen que alcanzar un resultado definitivo y concluyente valido sea muy complejo. En orden de alcanzar resultados validos de una manera eficientemente, se desarrolló la Dinámica de Fluidos Computacional (CFD), una rama ingenieril que utiliza métodos y algoritmos numéricos para resolver situaciones y problemas en los que flujos que se comportan de manera turbulenta estén involucrados. Muchos autores (5-7) se han dedicado al estudio del gasto energético en automóviles por concepto de climatización. La mayoría de estos estudios van dirigidos al estudio de automóviles modernos y en climas no tropicales. Debido a las duras leyes actuales (8), las empresas automovilísticas se ven obligadas a reducir el consumo de combustible y las emisiones de los vehículos. Los fabricantes de carros modernos han logrado coeficientes de arrastre que pueden llegar hasta valores de Cd de 0,21 (9). La forma más aerodinámica del mundo es una lágrima o una gota de agua, con un Cd de 0,04, pero es una forma poco práctica para los automóviles, por lo que la forma de media lágrima es la siguiente mejor opción con un Cd de 0,09. En investigaciones numéricas se tiende a recrear el objeto de estudio, pero utilizando aproximaciones que faciliten la simulación del mismo. En un automóvil ligero no pueden ser despreciados los retrovisores. Según Zaareer (10) los retrovisores laterales del vehículo son una de las contribuciones más importantes al ruido del viento. Afirmó que, "desde el punto de vista del rendimiento, la contribución de un espejo lateral genérico a la resistencia total de un coche es de alrededor del 3-6%". Los sistemas de clima en automóviles han sido ampliamente estudiados (11-13). Por lo general, estas investigaciones van dirigidas a utilizar tecnologías más eficientes o nuevos refrigerantes. La mayoría de los estudios encontrados tienen como referencia países desarrollados con flotas de automóviles modernos o con climas no tropicales. El objetivo principal de este trabajo es evaluar el consumo de combustible en un vehículo LADA VAZ 2107 a partir de su manejo con el aire acondicionado encendido o con las ventanas del conductor y el copiloto abajo. 2. Materiales y Métodos Se analizarán dos configuraciones de carrocería vehículos distintas, ambas configuraciones pertenecen al mismo modelo, un Lada 2107, siendo la única diferencia que un modelo será con ventanillas totalmente arriba y el otro con las ventanillas delanteras abajo. La Figura 1 muestra una representación geométrica de los modelos a estudiar. Figura 1. Construcción geométrica del automóvil. a) Vista frontal. b) Automóvil totalmente cerrado. c) Automóvil con las ventanillas delanteras abiertas. Ambos cuerpos se encuentran encerrados en un cajón o volumen de control a través del cual circulara el flujo de fluido, en este caso aire. Ambos cuerpos se encuentran centrados en este cajón a una distancia de 2 metros en todas direcciones a excepción de la dirección –Y que se encuentra a 0.0005 m. En las direcciones +X y –X se encuentra a una distancia de 3 metros y 5 metros respectivamente. Esto se debe a que es en esta distancia en la que inciden los vectores de velocidad del flujo de aire y es donde se centraran los estudios y resultados. En la entrada del modelo (dirección X+) se establece la condición de contorno de velocity inlet y a la salida pressure outlet, el resto de las caras del modelo son consideradas como wall. La Figura 2 muestra una representación grafica del automóvil dentro del cajón de aire que lo rodea. Figura 2. Modelo geométrico del automóvil simulado. Para realizar el mallado se utilizó el software ICEM incorporado en el ANSYS. La mayoría de los modelos utilizados finalmente rondan un número alrededor de 363600 elementos. Esta cantidad de elementos está de acuerdo con estudios similares en los que utilizan las mismas condiciones de contorno y realizan exitosamente un estudio de independencia de la malla. Las mallas empleadas en el trabajo no poseen ningún elemento con volúmenes de acrecentada esbeltez (skewness), ni ningún elemento con volumen negativo o invertido, pues ambos conspirarían contra la convergencia de las iteraciones. La Figura 3 muestra una representación gráfica de la malla. Se aprecia en las zonas cercanas a las paredes del carro que la malla se hace mas densa con el objetivo de observar el desarrollo de las capas límites hidrodinámicas. Figura 3. Representación grafica de la malla. El flujo que se va a simular es fundamentalmente estacionario, tridimensional, incompresible y con propiedades constantes, bajo las siguientes condiciones de operación. • Presión manométrica de operación: 0kPa. • Densidad del aire: 1,2 kg/m3 • Viscosidad absoluta de aire: 1,7894∙10−5 kg/ms • Velocidad del flujo a la entrada del canal: 90 km/h. • Peso vacío del vehículo: 1430 kg El vehículo utiliza neumáticos con designación R13/175/55 y transita sobre una superficie urbana en buen estado, seco, con una pendiente inexistente. Debido a estas características se puede determinar que el factor 𝑓𝑟𝑟 tendrá un valor de 0,014 y el ángulo de inclinación 𝛼 será 0. Debido a que el vehículo se desplaza a una velocidad constante, la aceleración de este va a ser cero, convirtiendo así la fuerza de inercia en un valor nulo. También la fuerza del implemento será 0 debido a que no lleva ningún tipo de remolque. La fuerza de resistencia al camino depende exclusivamente del tipo de terreno sobre el cual se esté transitando, las características de este, así como también el tipo de neumáticos utilizados y la distancia entre los ejes del vehículo. Surge a partir de la interacción de los neumáticos con el terreno. Frc = Gm ∗ (frr ∗ cos(α) + sin⁡(α)) (1) La fuerza de resistencia aerodinámica surge a partir de la interacción del vehículo con el aire que lo rodea y es tomado convencionalmente como componente paralelo al camino. Su magnitud es directamente proporcional al área del vehículo, así como a la velocidad de este y a la densidad del aire que lo rodea. Esta fuerza puede ser calculada a partir de métodos analíticos a partir de ecuaciones o a partir de métodos numéricos como los métodos CFD. Fra = 1 2 ∗ ρ ∗ V2 ∗ Af ∗ Cx (2) Donde: 𝜌: Densidad del aire V: Velocidad del vehículo Af: Área Frontal Cx: Coeficiente de arrastre Utilizando herramientas implementadas en el software de AUTODESK INVENTOR es posible la determinación del valor del área frontal del vehículo, teniendo esta un valor de 2,023 m2. El coeficiente de arrastre será extraído del ANSYS luego de las simulaciones. La fuerza de inercia surge sobre cualquier cuerpo que experimente una variación de su velocidad y lo convencional en máquinas automotores es reducir toda la inercia rotacional a las ruedas motrices. Al ser la aceleración la derivada de la velocidad, en vehículos en movimiento a velocidad constante esta fuerza de inercia tendrá un valor de 0 por lo que no es tenida en cuenta en ese tipo de estudios. Fi = m ∗ a ∗ δm (3) Luego, las fuerzas tractivas pueden ser calculadas con la siguiente ecuación: Ft = Frc + Far + Fi (4) Una vez determinada la fuerza tractiva del vehículo es posible calcular la potencia demandada por el motor de este a partir de la fórmula: Nem = Ft ∗ V 3,6 ∗ ηm ⁄ (5) Donde: V: Velocidad del vehículo ηmov: Eficiencia del movimiento (0,65) Una vez determinada la potencia demandada por el motor es posible realizar el cálculo del consumo de combustible del vehículo a través de la fórmula: Qv = Nem ∗ gem 10 ∗ ρc ∗ V ⁄ (6) Donde: gem: Consumo específico efectivo del punto de operación correspondiente del motor primario de la máquina (g/kW-h): 65 ρc: Densidad del combustible (kg/l): 0,680 3. Resultados y Discusión En la figura siguiente se muestran los vectores de velocidad circulados en rojo. Se puede observar las zonas de recirculación asociada a las zonas de bajas presiones. Se aprecia que el modelo que tiene las ventanillas abajo muestra una gran zona de recirculación dentro del vehículo. Estas zonas de bajas presiones están asociadas a un aumento del coeficiente de arrastre sobre el vehículo. Figura 4. a) Vectores de velocidad sobre los retrovisores. b) zonas de bajas presiones del vehículo totalmente cerrado. c) zonas de bajas presiones del vehículo con las ventanillas delanteras abajo. d) lineas de corriente sobre el vehículo. En el modelo de estudio que tiene las ventanas abajo, las principales zonas de recirculación del fluido ocurren en zonas donde hay cambios de área muy abruptos. En el habitáculo del vehículo se observa una gran zona de recirculación, lo cual es la principal diferencia con el modelo del vehículo Como se puede observar en la anterior tabla comparativa, la diferencia entre los valores de consumo de ambos métodos de cálculo es menor del 10%, por lo que ambos valores serían válidos. En ambos casos el modelo que más combustible consume es el que tiene las ventanas abajo, teniendo un máximo de consumo de 14,411 litros por cada 100 kilómetros recorridos. La diferencia entre el consumo de combustible por cada 100 km que aquí se calcula y el brindado por el fabricante, puede estar asociado a las simplificaciones existentes en la construcción del modelo geométrico. 4. Conclusiones Luego de análisis de los resultados se puede llegar a las siguientes conclusiones: Se lograron determinar los valores de los coeficientes de viscosidad y de presión a velocidad constante de 90 kilómetros por hora a partir de la velocidad del fluido y las caídas de presión. Se determinaron la magnitud de la Fuerza de Arrastre y el valor de los coeficientes de arrastre que actúan sobre un modelo de vehículo con ventanas subidas y el mismo modelo de vehículo con ventanas bajadas. Una vez determinadas ambas Fuerzas de Resistencia al Camino se pudo calcular el consumo de combustible de ambas variantes, constatándose que la variante con ventanas bajadas describía un mayor consumo de combustible que la variante con ventanas subidas, siendo este de 14,1174 litros por cada 100 kilómetros recorridos. REFERENCIAS 1. Kaynakli O, Pulat E, Kilic M. Thermal comfort during heating and cooling periods in an automobile. Heat and Mass Transfer. 2005;41(5):449-58. 2. Fuller J, Best M, Garret N, Passmore M. The importance of unsteady aerodynamics to road vehicle dynamics. Journal of Wind Engineering and Industrial Aerodynamics. 2013;117:1-10. 3. Hobeika T, Sebben S, Lofdahl L, editors. Study of different tyre simulation methods and effects on passenger car aerodynamics. International Vehicle Aerodynamics Conference 2014; 2014. 4. Vinnichenko NA, Uvarov AV, Znamenskaya IA, Ay H, Wang T-H. Solar car aerodynamic design for optimal cooling and high efficiency. Solar Energy. 2014;103:183-90. 5. Saw LH, Ye Y, Tay AA, Chong WT, Kuan SH, Yew MC. Computational fluid dynamic and thermal analysis of Lithium-ion battery pack with air cooling. Applied energy. 2016;177:783-92. 6. Winkler N, Drugge L, Trigell AS, Efraimsson G. Coupling aerodynamics to vehicle dynamics in transient crosswinds including a driver model. Computers & Fluids. 2016;138:26-34. 7. Gay D, Rogers T, Shirley R. Small island developing states and their suitability for electric vehicles and vehicle-to-grid services. Utilities Policy. 2018;55:69-78. 8. Hooftman N, Messagie M, Van Mierlo J, Coosemans T. A review of the European passenger car regulations–Real driving emissions vs local air quality. Renewable and Sustainable Energy Reviews. 2018;86:1-21. 9. Liang K, Wang M, Gao C, Dong B, Feng C, Zhou X, et al. Advances and challenges of integrated thermal management technologies for pure electric vehicles. Sustainable Energy Technologies and Assessments. 2021;46:101319. 10. Zaareer M, Mourad A-H. Effect of Vehicle Side Mirror Base Position on Aerodynamic Forces and Acoustics. Alexandria Engineering Journal. 2021. 11. Pabon JJ, Khosravi A, Belman-Flores J, Machado L, Revellin R. Applications of refrigerant R1234yf in heating, air conditioning and refrigeration systems: A decade of researches. International Journal of Refrigeration. 2020;118:104-13. 12. Pan L, Liu C, Zhang Z, Wang T, Shi J, Chen J. Energy-saving effect of utilizing recirculated air in electric vehicle air conditioning system. International Journal of Refrigeration. 2019;102:122-9. 13. Vashisht S, Rakshit D. Recent advances and sustainable solutions in automobile air conditioning systems. Journal of Cleaner Production. 2021:129754. VENTAJAS DEL ENFRIAMIENTO DEL AIRE EN TURBINAS DE GAS EN ZONAS SUBTROPICALES COSTERAS Alberto E. Calvo-González1, José Rodríguez-Bertrán2, Gisela Nuviola-Colsa3, Jorge Arango-Gómez4, 1Universidad Tecnológica de La Habana José Antonio Echeverría, Facultad de Ingeniería Mecánica. La Habana, Cuba, aegcalvo@mecanica.cujae.edu.cu; 2Instituto de Cibernética, Matemática y Física, Dpto. Control automático. La Habana, Cuba, rodrigueztito606@gmail.com; 3CTE Ernesto Guevara de la Serna, UNE, Cuba, giselanuv@ctehabana.une,cu; 4Universidad Nacional de Colombia, Facultad de Ingeniería, Dpto. de Ingeniería Mecánica y Mecatrónica. Bogotá, Colombia, jearangogo@unal.edu.co RESUMEN En este trabajo se analizó la conveniencia financiera del enfriamiento del aire de entrada a la turbina de gas trabajando en ciclo simple y con ciclo combinado en la zona subtropical costera basado en los resultado previos de un estudio de la influencia de la temperatura ambiente en turbinas de gas, tanto en condiciones de diseño, como después de años de explotación. Durante el estudio se emplearon métodos estadísticos, la observación directa y el criterio de expertos, graficándose la influencia de la temperatura ambiente antes y después del mantenimiento, y con su comportamiento original. Se comprobó que la alta temperatura produce una disminución de la potencia de unos 2,5 MW. La conveniencia económica se comprobó por el método de flujo de caja, resultando 6 años de recuperación trabajando en ciclo simple, pero cuando trabaja en ciclo combinado con quemado adicional de combustible se demuestra que no es económicamente conveniente. PALABRAS CLAVES: turbinas de gas, influencia de la temperatura ambiente, enfriamiento del aire entrante, análisis económico. ADVANTAGES OF THE GAS TURBINES AIR COOLING IN SUBTROPICALS COASTAL AREAS ABSTRACT In this work was analyzed the financial convenience of gas turbine air cooling working in simple cycle and combined cycle in a coastal subtropical area based on the previous results of a study of the influence of the ambient temperature in gas turbines under design conditions and also after years of exploitation. Statistical methods, direct observation and the expert’s criteria were used during the study. Being graphed the influence of the ambient temperature before and after the maintenance, and with their original behavior. It was proven that the high temperature produces a decrease of the power of about 2,5 MW. The economic convenience was verified by the cash flow method, resulting in 6 years of recovery working in simple cycle, but when it works in combined cycle with additional fuel firing it was demonstrated that it is not economically convenient. KEY WORDS: gas turbines, ambient temperature influence, inlet air cooling, economic analysis, INTRODUCCIÓN El clima subtropical húmedo es un ambiente específico en la explotación de turbinas de gas, su temperatura es comúnmente mayor que la certificada por norma ISO [1,2] de 150 ºC y en este se producen variaciones de temperatura y de φ según avanza el día, así como estas variaciones están influenciadas por la etapa del año [3]. La mayoría de los trabajos consultados está dedicado a climas áridos, desérticos lo que condiciona los métodos de enfriamiento del aire de entrada como los evaluados en [4ver Iran]. La no existencia de una información completa acerca de la influencia de la temperatura del aire en los parámetros de operación de las turbinas de gas en la zona subtropical costera dificulta la toma de decisiones adecuadas durante su operación, así como de las medidas de mejoras a ese fenómeno. Las condiciones ambientales (temperatura, presión y humedad relativa) afectan la eficiencia de las turbinas de gas y su potencia de salida y otras características. La influencia principal en el comportamiento de las turbinas de gas es causada fundamentalmente por la temperatura ambiente [6]. Los efectos de la presión atmosférica y la humedad relativa φ, pueden ser considerados menos importantes. Si se toma como ejemplo una turbina de gas de ciclo simple, a cada variación de 1 oC se produce una variación de potencia de aproximadamente 0,5 – 0,9 % [1] y aproximadamente 0,10 % del valor correspondiente de la norma ISO [1,2] para cada 1 mbar de disminución de presión [1,2 ]; en el caso de la humedad relativa φ una variación de un 1 % conlleva un cambio menor del 0,01 % en la potencia que genera. En este caso, para condiciones que no sean las ISO [1,2], los parámetros pueden estimarse a partir del gráfico que comúnmente ofrece el fabricante, donde se muestran las curvas características de cada parámetro de trabajo en función de la temperatura del aire de entrada al compresor. Es de notar que las gráficas de fábrica dejan de corresponderse con los valores reales en la medida en que la instalación tiene más tiempo de explotación. Por ello después de un periodo de explotación no se tiene cuantificado en estas condiciones en cuánto disminuye la generación de potencia por cambios en la temperatura ambiente [7], ni cuánto significa económicamente esta disminución de potencia, tampoco, si sería rentable o no recuperar parcial o completamente, esta disminución en la potencia [8]. En las turbinas de gas con años de explotación, se van produciendo deterioros que disminuyen la potencia entregada y que enmascaran el verdadero efecto de las condiciones ambientales es por ello que se hace imprescindible el monitoreo de la variación de la temperatura ambiente con la variación de los parámetros fundamentales que caracterizan el comportamiento de esta turbina objeto de estudio, así como, también se hace necesario su comparación con los parámetros que debe cumplir según los datos de fábrica con el fin de verificar su adecuado comportamiento. En los últimos años se le presta también atención al mejoramiento del desempeño de las microturbinas de gas por medio del enfriamiento del aire de entrada al compresor [10,11] presentándose resultados cualitativos semejantes, pero con valores proporcionales a sus potencias. Para poder observar el comportamiento del objeto de estudio y efectuar su modelación matemática [12,13] se debe especificar qué parámetros fundamentales se requiere analizar, los que en este caso son: la Potencia (Output), Consumo Específico de Calor (Heat Rate), Consumo de Calor (Heat Consumption), Flujo de Gases de Escape (Exhaust Flow) y Temperatura de los Gases de Escape (Exhaust Temperature) porque la variación de la temperatura del aire ambiente influye en todos estos parámetros. Es conveniente señalar que las características de la turbina objeto de estudio, según sus datos de diseño a condiciones ISO [1,2] 15 ºC, 1,013 bar y 60 % de humedad relativa (φ) y empleando gas natural son: Potencia 38 340 kW, Consumo Específico de Calor, a partir del valor calórico bajo (LHV) del combustible, 11460 KJ/kWh, Consumo de Calor, a partir del valor calórico bajo (LHV),439,4x106 kJ/h, temperatura de los Gases de Escape 539 ºC, Flujo másico de los Gases de Escape 501 x 103 kg/h. Aplicación de la turbina de gas: transmisión generadora; Ciclo: simple; Rotación del eje: en sentido contrario al de las manecillas del reloj; Tipo de operación: continua; Velocidad del eje: 5100rpm; Tipo de sistema de combustible: gas natural; Capacidad nominal de la turbina de gas (a nivel del mar); Sección del compresor: número de etapas del compresor: 17; Tipo de compresor: Flujo axial, de servicio pesado; Hendidura de la carcasa: Brida horizontal; Tipos de aletas guías de entrada: modulado variable; Sección de la turbina: número de etapas de la turbina: 3 (eje simple); Hendidura de la carcasa: horizontal; Sección de combustión: tipo: 10 cámaras de combustión múltiple, diseño de flujo inverso; Toberas de combustión: presión pulverizadora, 1 por cámara; Detector de llama: 2, tipo ultra-violeta; Bujía de encendido: 2, tipo de electro, con inyección de resorte. El objetivo de este trabajo fue estudiar la Influencia de la temperatura ambiente en turbinas de gas en zona subtropical costera, siendo el principal resultado que la alta temperatura produce una disminución de la potencia de unos 2,5 MW. Como posible solución se evaluó el enfriamiento del aire de entrada por diferentes métodos, seleccionando el de enfriamiento por absorción MÉTODOS Para enfrentar el trabajo se analizaron los diferentes métodos empleados en la literatura consultada concluyéndose que por el tipo de procesamiento y características de los datos, el tratamiento adecuado era por el métodos estadísticos [13], así como por el estado de los datos se requería de la aplicación del método de la observación directa y la utilización del panel de expertos para evaluar las situaciones no registradas con datos confiables. En el caso de la evaluación de la factibilidad económica se escogió el flujo de caja como método en la determinación del tiempo de recuperación de la inversión por ser una sola opción. Análisis de las condiciones ambientales en la zona donde se ubica la turbina de gas objeto de estudio En el gráfico de la figura 1 se pueden observar las temperaturas mínimas, temperaturas medias, temperaturas máximas y las temperaturas modas que se obtuvieron en el sitio de ubicación de la planta objeto de estudio, a unos 50 metros de la costa. Fig. 1. Variación de la temperatura ambiente en un año. Fuente: autores La temperatura del aire presenta los mayores valores en los meses de julio a septiembre, mientras que los más bajos se observan en enero y febrero; la marcha diaria muestra el máximo poco después del mediodía y el mínimo al final de la madrugada, poco antes de salir el sol; la amplitud térmica (diferencia entre la temperatura máxima y la temperatura mínima) diaria es, como promedio, inferior a los 8 ºC cada mes, valor relativamente bajo, lo que es característico de las localidades cercanas a las costas; el intervalo de temperatura que se muestra es de 18,50 ºC hasta 30,50 ºC, con una diferencia de 12 ºC. A continuación se muestra la tabla 1 con los valores de temperatura mínimos, medios, máximos y valores de moda en un año, siendo la temperatura que se repite con más frecuencia 26,5 ºC, y la temperatura acumulada en el tiempo durante el año completo, seleccionada entre 26 ºC y 30 ºC, siendo de 28 ºC, Como en la planta no se monitorea la humedad relativa, se acudió a datos meteorológicos para estudiar su variación en el tiempo en la zona se tomaron los datos graficados para el periodo de 1971- 2007 [15] . La humedad relativa del aire presenta un comportamiento anual que se corresponde, Tabla 1. Datos de las temperaturas mínimas, media, máxima ambiental por meses en grados Celsius. Fuente: autores Datos de temperatura ambiental 0C Mes I II III IV V VI VII VIII IX X XI XII Tmín 18,50 20,00 21,60 22,80 24,00 24,50 20,60 25,90 26,60 23,90 22,10 20,30 Tmed 23,08 23,46 25,02 25,80 26,97 27,91 28,51 29,41 28,33 27,30 26,13 23,82 Tmax 27,40 26,50 28,50 29,90 29,60 29,10 30,50 30,60 30,50 29,00 28,00 26,30 Tmoda 24,50 23,80 22,20 25,30 26,50 28,90 27,00 29,30 29,30 28,00 26,90 23,80 Temperatura media anual 26,31 Temperatura moda anual 26,50 Temperatura acumulada en el tiempo 28 en buena medida, con el comportamiento estacional de las precipitaciones. Los mayores valores se ubican entre junio y octubre, mientras que los mínimos se reportan de enero a abril, como se aprecia en la figura 2. En el transcurso del día el máximo de la humedad relativa ocurre en horas de la noche y principalmente en la madrugada, con valores más cercanos a la saturación al final de este último período. Con la salida del sol, la humedad relativa disminuye rápidamente hasta alcanzar su mínimo diario después del mediodía. Siendo el aire húmedo menos denso que el aire seco, se producirá una reducción en el flujo de masa a través de la turbina en un día húmedo, afectando principalmente los parámetros de la Potencia que genera y el consumo específico de calor, Modelo de la variación de los parámetros de operación de la turbina de gas con la temperatura ambiente según las curvas suministradas por el fabricante Procesamiento estadístico El gráfico de operación de cada turbina en función de la temperatura del aire de entrada al ciclo muestra la variación de los parámetros fundamentales de operación de la turbina con la variación de esta, siendo los mismos: 1. Potencia que genera. 2. Consumo específico del calor. 3. Consumo de Calor. 4. Flujo de Gases de Escape. 5. Temperatura de Gases de Escape. El trabajo con este gráfico no es preciso y el trabajo con él se hace muy engorroso. Debido a esto, se elaboraron varios modelos que permiten trabajar con el mismo de una manera más sencilla y exacta. Los modelos correspondientes a cada uno se muestran en la tabla 2. Tabla 2. Ecuaciones del modelo obtenido para los parámetros de operación. Fuente: autores Condiciones ISO/Gas Natural Valores a 15 oC Potencia Generada y = (-0,357911*t) + 120,911 38340 kW Flujo de los gases de escape y = (-0,225986*t) + 113,648 501 kg/hr x103 Consumo de Calor y = (-0,275643*t) + 116,25 439,4 kJ/hr x 106 Consumo específico de calor y = (0,0898406*t) + 95,4956 11460 kJ/kWh Temperatura de gases de escape y = (0,71684*t) + 959,25 539 oC Estos modelos son la expresión matemática aproximada de las curvas que aparecen en el gráfico, dadas por el fabricante de la turbina, que muestran las variaciones de cada uno de los parámetros referidos en el párrafo anterior, con la temperatura de entrada. Las ecuaciones que aparecen en la tabla 3 se muestran los modelos obtenidos a partir de los datos extraídos del referido gráfico, usando el paquete estadístico de Statgraphics, versión 5.1. Tabla 3. Ecuaciones obtenidas a partir de datos de operación. Fuente: autores Parámetros Después del mantenimiento Antes del mantenimiento Potencia que genera y = 38,6884 - 0,192143 * t y = 38,0971 - 0,237833 * t Temperatura de los gases de escape y = 529,885 + 0,620893 * t y = 534,878 + 0,574 * t Consumo de calor y = 466,48 - 1,42579 * t y = 475,227 - 2,417 * t Consumo específico de calor y = -21025,319 + (4956,6743 * t) - (268,881 * (t ^ 2)) +( 6,3476567 * (t ^3 )) - (0,054613043 * (t ^ 4)) y = 755478,03 - (113476,73 * t) + (6480,1559 * (t ^ 2)) - (163,90033 * (t ^ 3)) + (1,54929752 * ( t^ 4)) Estos modelos desarrollados previamente ofrecen la posibilidad de estimar los parámetros de operación de la turbina de gas objeto de estudio. El comportamiento de los parámetros de operación, estimados por los modelos resultantes de las curvas brindadas por el fabricante de la turbina objeto de estudio, se muestra en la siguiente figura 4, en función de su porcentaje. Los valores que se emplearon para la realización de este gráfico fueron tomados del gráfico original ofrecido por el fabricante de la turbina objeto de estudio. Fig.4. Efecto de la temperatura ambiente en porcentaje de los parámetros fundamentales, trazadas a partir de los modelos obtenidos con los datos del fabricante. Fuente: autores Desarrollo del diseño de experimentación Relacionar las características de la potencia de salida de las turbinas de gas con la temperatura del aire ambiente mediante métodos estadísticos de análisis de la información experimental, presupone la realización de mediciones de los parámetros que aparecerán en estos modelos y la concepción de una planificación del experimento, empleando el sistema SCADA (Supervisory Control and Data Acquisition) instalado en la planta. Este sistema permite obtener información rápida y precisa de cualquier variación en los parámetros del proceso, que normalmente se emplea en actuar sobre diferentes elementos de control para ajustar determinadas desviaciones en los parámetros de trabajo de los procesos. El sistema tiene la posibilidad de registrar las mediciones en un fichero denominado HistoricalData. La recolección del material inicial para la obtención del modelo de la temperatura del aire de entrada al compresor se efectuará empleando el modelo de experimento pasivo, el cual consiste en la selección de variables de entrada y salida del proceso. El tratamiento de los datos experimentales se realiza por el método clásico de análisis de correlación de regresión. Para la validación del método de diseño de experimento y el tratamiento de datos experimentales, la información se exporta a un fichero de excel, seleccionando la fecha y hora de la muestra seleccionada y los intervalos entre mediciones con las variables escogidas. La toma de muestra inicial de las mediciones se efectuó con un intervalo de 5 minutos. Se tomó este intervalo porque los cambios en las mediciones no son significativos a los niveles de precisión de los instrumentos. Los datos se seleccionaron en días determinados en un rango de tres meses (enero, febrero y marzo) y se escogieron días, tanto de principio como de final de mes. Durante estos diferentes días existe una gran variación de temperatura ambiente en la entrada del compresor de la turbinas de gas (desde 19 C hasta 33 C).Los datos seleccionados en el mes enero son de los primeros días, momento en que la máquina posee las horas permisibles de trabajo y se encuentra lista para efectuar un mantenimiento capital. En los meses de febrero y marzo, después de realizarse el mantenimiento, a la turbina se le considera nueva y limpia; pero con el transcurso del tiempo existe cierto grado de ensuciamiento del compresor, que afecta el rendimiento de la turbina de gas. Esta comparación permite evidenciar la importancia del mantenimiento en cuanto a potencia dejada de producir y a la mejora de otros parámetros. De esta forma fueron obtenidos los modelos que son capaces de predecir el comportamiento de los parámetros de operación de interés para este trabajo, a partir de un factor independiente, la temperatura del aire de entrada al compresor. Además, se analizan los resultados que fueron obtenidos al efectuar una corrida experimental con mediciones de parámetros del proceso de la planta. La tabla 3 muestra las ecuaciones obtenidas a partir de los datos reales de operaciones de la turbina, antes y después del mantenimiento, en función de la temperatura del aire de entrada. RESULTADOS Y DISCUSIÓN Análisis del diseño de experimentación En las siguientes figuras 5, 6, 7 y 8, se muestra una comparación entre los parámetros de diseño según las curvas del fabricante y los parámetros reales de operación antes y después de un mantenimiento. Fig. 5. Efecto de la temperatura en la Potencia que genera. Fuente: autores Fig. 6. Efecto de la temperatura ambiente en la temperatura de los gases de escape. Fuente: autores Fig. 8. Efecto de la temperatura ambiente en el consumo específico de calor. Fuente: autores En la figura 5 se puede observar que después de efectuado un mantenimiento mayor a la máquina, donde la misma se considera como nueva (cero horas de trabajo), no se alcanzan los valores de la potencia de diseño, existiendo una diferencia promedio de aproximadamente 2 MW. Esta diferencia se debe a que el valor graficado no está corregido a las condiciones de diseño, tales como la caída de presión a la entrada del compresor, que establece que cada 4 pulgadas (10,0 mbar) de H2O se produce una pérdida de 1,50 % de la potencia que genera (la caída de presión de trabajo normal es 6 pulgadas de H2O, que representan 0,8 MW). Los efectos de la humedad relativa y la altitud pueden ser despreciados en la práctica en este caso. Otro factor que influye grandemente en esta diferencia es la deformación por tiempo de trabajo que sufren las carcasas del compresor y de la turbina, lo cual disminuye la eficiencia de ambos. Según cálculos de los técnicos especialistas, la turbina se está comportando como si tuviera 5000 horas de operación, por lo que ya solo este factor representa una pérdida de aproximadamente 1 MW. Como se puede apreciar la disminución en la potencia generada debido a una temperatura ambiente existente mayor a la de diseño es aprox. de 2,5 MW lo que implica una sustancial disminución de las entradas monetarias de la unidad, reduciendo la efectividad de la inversión. La reducción de la temperatura del aire de entrada a la turbina mediante un sistema de enfriamiento incrementaría la potencia de salida llegando a alcanzar aproximadamente la potencia de diseño de la máquina. De igual forma se obtiene una reducción en el consumo, lo que ayuda a incrementar los ahorros y coloca a la planta en mejores condiciones de operación. Por último, debido a que se reduce la temperatura de salida de gases de la turbina se logra reducir los costos de mantenimiento. Estos dos últimos efectos son difíciles de precisar por lo cual no se trabajará numéricamente con ellos dejándose como beneficios colaterales. Sería interesante analizar la causa de que las temperaturas de los gases de escape para temperaturas menores de 26 ºC se acercan tanto después del mantenimiento a los valores dados del fabricante pero se escapa al alcance de este trabajo. Se conoce por datos de meteorología que la temperatura de mayor frecuencia es de 26,5 ºC pero que la temperatura que posee mayor acumulado en el tiempo es de 28 ºC por lo cual se utilizará esta temperatura para calcular la cantidad de grados que se debe reducir la temperatura ambiente para llegar a la de diseño. Se puede plantear que por la forma de la curva de disminución de la potencia generada al aumentar la temperatura ambiente (recto de pendiente sostenida) en los casos de mayor temperatura ambiente, cuando no se alcance la temperatura de diseño, la recuperación de potencia generada tendrá aproximadamente el mismo valor (2,55 MW). Se acostumbra a utilizar instalaciones de enfriamiento por absorción lo cual tiene impacto positivo sobre el medio ambiente (producción más limpia), aunque, tienen como inconveniente las dimensiones que poseen estos equipos, aspecto a tener en cuenta debido al espacio disponible que pueda existir en la planta. Si bien es un consenso general en los trabajos revisados con respecto al enfriamiento del aire de entrada como una medida para mejorar el desempeño de las turbinas de gas en condiciones diferentes a las de diseño, en [14] consideran el calentamiento del aire de entrada como positivo para aumentar la eficiencia de las turbinas de gas en cargas parciales Antes de instalar un sistema de enfriamiento [15]en una turbina de gas se deben tener en cuenta dos aspectos importantes; uno de ellos es las consecuencias que trae consigo una instalación de este tipo y el otro es analizar si es factible o no económicamente enfriar el aire a la entrada del compresor: Las consecuencias fundamentales de la instalación de un sistema de enfriamiento es la caída de presión que se produce en el conducto de escape de la turbina de gas debido a la ocurrencia de una contrapresión y a una disminución de la entalpía, además, surge una complejidad mayor en la operación y un mayor costo en los mantenimientos [16]. Con el fin de establecer el tiempo de recuperación de la inversión se determinaron los datos requeridos para seleccionar las instalaciones de enfriamiento que permitan llevar el aire de entrada de 28 ºC a 15 ºC: flujo másico de aire, 490 000 kg/h; calor específico del aire, 1,004 kJ/kg-K; diferencia de temperaturas del aire, 13 K; se obtuvo como resultado una capacidad de 6395480 kJ/h (1 776,52 kW), que equivale a 506,13 TR (toneladas de refrigeración). Se tomó como base un sistema de 280 TR de capacidad, por lo que se seleccionan dos equipos para alcanzar la capacidad necesaria, lo que aporta más flexibilidad en la operación. En la tabla 4 se muestran los precios por unidad. Tabla 4. Valores de precio del sistema de enfriamiento. Fuente: autores Carga TR Tipo de fuente Voltaje Modelo Cantidad Consumo Total de potencia Precio/U USD Precio Total uSD 280 Gas doble efecto 440/60 Hz BZ100 35 KW Máquina de absorción 1 294329,67 294329,67 Bomba de agua 1 74373,63 74373,63 Torre de enfriamiento 1 26109,89 26109,89 Precio de un quipo d enfriamiento 394813,19 394813,19 Precio para dos equipos de enfriamiento 789626,38 Seguro total en USD 28492,68 Flete total en USD (20x40HQ +7x40´GP+5x20´) 175200,00 Inspección total en USD 4200,00 Instalación del equipo en USD 473775,83 Precio total para dos equipos de enfriamiento en USD 1471294,89 Flujo de caja de la inversión En posesión de los datos anteriores se procede a la realización de un flujo de caja de la inversión para determinar su pertinencia o no como inversión. Valor en USD (o su equivalente para evaluación de inversiones) del MW-hr = 22 Se considerará una recuperación de 2 MW; Interés anual del crédito = 5,5 % del valor inicial en PR; 10 % para mantenimiento capital; 5 % para un mantenimiento parcial y 2 % para mantenimiento en año normal. Tiempo de recuperación máximo de la inversión = 8 años, tabla 5. Tabla 5. Flujo de caja de la inversión. Fuente: autores Año Ingresos Egresos Acápite Monto Acápite Monto 1 Por energía 90 % utilización de la capacidad instalada. 346896,00 Costo inicial de la instalación 1471294,89 2 Por energía 80 % utilización de la capacidad instalada. Mantenimiento parcial. 289080,00 Remanente del costo inicial 1124398,89 Interés acumulado del año anterior 80921,22 Piezas Repuesto 73564,74 3 Por energía 90 % utilización de la capacidad instalada. 346896,00 Remanente del costo inicial 989804,85 Interés acumulado del año anterior 54439,27 Piezas Repuesto 3948,14 4 Por energía 70 % utilización de la capacidad instalada. Mantenimiento capital. 274713,60 Remanente del costo inicial 701296,26 Interés acumulado del año anterior 38571,29 Piezas Repuesto 147129,49 5 Por energía 90 % utilización de la capacidad instalada. 346896,00 Remanente del costo inicial 612213,35 Interés acumulado del año anterior 33675,58 Piezas Repuesto 3948,14 6 Por energía 80 % utilización de la capacidad instalada. Mantenimiento parcial. 289080,00 Remanente del costo inicial 302941,07 Interés acumulado del año anterior 16661,76 Piezas Repuesto 73564,74 7 Por energía 90 % utilización de la capacidad instalada. 346896,00 Remanente del costo inicial 104087,57 Interés acumulado del año anterior 5724,82 Piezas Repuesto 3948,14 8 Por energía 70 % Utilización de la capacidad instalada. Mantenimiento capital. 274713,60 -233135,47 Piezas Repuesto 147129,49 En lo adelante las utilidades de cada ciclo de 4 años serán de $ 1028995,10, para un total a los 20 años de $ 3086985,30 (considerando el remanente positivo del año 7). Es de señalar que el valor del MW-hr ($ 22) es sustancialmente bajo y que se consideró solo una recuperación de 2 MW por el enfriamiento del aire de entrada (el que indican los gráficos como posible es de 2,5 MW (casi $ 80 000 más al año). Estos aspectos aportan una gran reserva a los cálculos. Los estudios realizados fueron aplicados a turbinas de gas en ciclo simple donde los gases de escape se encuentran completamente disponibles lo cual no es así para el ciclo combinado siendo necesario la evaluación de este efecto sobre la conveniencia del enfriamiento del aire de entrada con el método propuesto en este trabajo [16]. Enfriamiento del aire de la turbina de gas trabajando en ciclo combinado. El análisis del enfriamiento del aire de la turbina de gas trabajando en ciclo combinado se realizará basado en los ya realizados cálculos y selección de los equipos enfriadores del aire de entrada. En este caso hay una pérdida de energía en los gases que van a la caldera recuperadora por la disminución del flujo utilizado para el enfriamiento y debido a la disminución de la temperatura de los mismos al haber sido enriado el aire entrante. La cantidad de combustible que se requiere para compensar la energía de los gases de escape desviada hacia el enfriador, así como el incremento de combustible para compensar la energía que no le llega a la caldera más abajo se muestran El esquema de turbina de gas trabajando en ciclo combinado y enfriamiento del aire de entrada utilizando gases de escape y calentamiento adicional en la caldera recuperativa se presenta en la figura 9, la cual, como todo esquema térmico principal, muestra los enlaces entre los equipos fundamentales que lo componen, las turbinas de gas y la instalación de turbina de vapor: Fig, 9. Esquema térmico principal de la instalación de ciclo combinado Con el enfriamiento por cada turbina de gas se obtendría 2 MW adicionales por lo que se deberá determinar cuánto combustible adicional se requiere para entregar la misma energía al ciclo de vapor, manteniendo los parámetros anteriores al uso del enfriamiento del aire. Si el resultado de la comparación de los egresos y los egresos es positivo se deberá re analizar el flujo de caja de la inversión para determinar su conveniencia económica. Se conoce por datos de meteorología que la temperatura de mayor frecuencia es de 26,5oC y que la temperatura promedio con mayor acumulado en el tiempo es de 28oC, así se puede plantear que por la forma de la curva de disminución de la potencia generada al aumentar la temperatura ambiente (recto de pendiente sostenida) en los casos de mayor temperatura ambiente, la recuperación de potencia generada cuando se alcance la temperatura de diseño será aproximadamente 2,55 MW. Antes de instalar un sistema de enfriamiento en una turbina de gas en una planta con ciclo combinado en la cual se quema combustible adicional en la caldera recuperativa para aumentar los parámetros del vapor y poder utilizar ciclos de vapor mas eficientes se deben tener en cuenta dos aspectos importantes; uno de ellos es las consecuencias que trae consigo una instalación de este tipo y el otro es analizar si es factible o no económicamente enfriar el aire a la entrada del compresor. Las consecuencias fundamentales de la instalación de un sistema de enfriamiento es la disminución del gasto de gases de escape, debido al desvió de parte de ellos hacia la instalación de enfriamiento, así como la menor temperatura de los gases de escape producida por una entrada de aire más frio. También hay que considerar mayores costos de mantenimiento. Con el fin de establecer la conveniencia técnico económica se determinaron los datos requeridos para seleccionar las instalaciones de enfriamiento que permitan llevar el aire de entrada de 28 a 15 o el flujo másico de aire, 490000 kg/h; calor específico del aire, 1,004 kJ/kg-K; diferencia de temperaturas del aire, 13 oK; se obtuvo como resultado una capacidad de 6395480 kJ/h (1776,52 kW), que equivale a 506,13 TR (toneladas de refrigeración). Ya en posesión de estos datos se determina el costo de la cantidad de combustible adicional requerido para suplir la cantidad de energía de los gases de escape que deja de ir a la caldera que son desviados al enfriador de aire es de 6395480 kJ/h (1776,52 kW) Considerando que el precio del kJ de calor liberado en la combustión, es igual para el petróleo equivalente y para el gas y considerando a su vez que es 200 $ por tonelada el precio del petróleo equivalente con una capacidad de 41 868 kJ/kg, entonces el precio por kJ es de 4,78 $ /106 kJ . Valido también para el gas. El costo del combustible adicional para compensar la energía desviada será de 30,55 $/h al multiplicar la cantidad por el precio del calor de combustión 6395480 Kj/h x 4,78 $/106 kJ. El costo del combustible adicional para compensar la energía desviada será de 30,55 $/h Para considerar la energía que se requiere suplir por la disminución de la temperatura de los gases de escape se recurre al gráfico de la figura 5 donde se puede apreciar que la diferencia de temperatura es de aproximadamente 9 grados (a 26,50C la temperatura de los gases es de 5470C y a 15 0C es de 5380C). La energía que deja de aportar el gas de escape es de ∆h = cp ∆t = 1.075 x 9 = 9,68 kJ/kg. Se tiene que a la caldera recuperativa se enviaría por cada turbina de gas cuando se está enfriando el aire entrante una cantidad menor, en 11,03 x 103kg/h, 501 x 103kg/h – 11,03 x 103kg/h = 490 x 103kg/h. Con lo cual la energía que se deja de suministrar será 9,68 x 490 x 103= 4740,75 x 103 kJ/h, entonces la cantidad de combustible adicional será de 4740,75 x 103 x 4,78 $/106 kJ = 23,44$/h. El costo total en combustible adicional será entonces de 30,55 $/h +23,44 $/h = 53,99 $/h. Si se considera el intervalo del incremento de generación de electricidad de 2 a 2,5 MW se obtendría un ingreso de 44 $/h a 55 $/h lo cual está por debajo o con un margen superior despreciable. CONCLUSIONES Los modelos desarrollados a partir de las curvas dadas por el fabricante y ajustadas a las condiciones específicas existentes predicen los valores esperados de los parámetros de operación de la turbina de gas con errores menores al 1% y en el caso específico del flujo de los gases de escape un error de 2 % para cuando el ciclo opera fuera de las condiciones ISO. El análisis de las condiciones ambientales del lugar de instalación determino que la temperatura de mayor frecuencia es de 26,5 C, pero la temperatura de más acumulado en el tiempo es de 28 C. Se demuestra la conveniencia financiera del enfriamiento del aire de entrada a la turbina de gas trabajando en ciclo simple al arrojar una recuperación de la inversión durante el transcurso del sexto año. Pero para el caso de una instalación con ciclo combinado y quemado de combustible para aumentar la temperatura del vapor existente se demuestra que no es económicamente conveniente el enfriamiento del aire de entrada a la turbina de gas RECONOCIMIENTOS Los autores agradecen la asesoría de los especialistas de la Unión Eléctrica de Cuba Ing. Rubén Pérez Pérez y Dr.C Félix Juan Domínguez. REFERENCIAS 1. DE PASCALE, A, MELINOA F, MORINI, M. “Analysis of Inlet Air Coolingfor IGCC Power Augmentation”. Energy Procedia. 2014;45:1265-74.DOI: 10.1016/j.egypro.2014.01.132. 2. ASHLEY DE S, ZUBAIDY SA, “Gas turbine performance at varying ambient temperature”. Applied Thermal Engineering. 2011;31:2735-39. 3. SHAHRUL NAHAR OK. “Feasibility Study of Turbine Inlet Air Cooling using Mechanical Chillers in Malaysia”. Climate International. In: Conference on Alternative Energy in Developing Countries and Emerging Economies. Bangkok, Thailand; 2017. 4. ARABI S., GHADAMIAN M., Aminy H., M., et al, “Simulation of a GEF5 Gas Turbine Power Plant Using Fog Advanced Cycle and a Systematic Approach to Calculate Critical Relative Humidity”. International Journal of Engineering (IJE), IJE TRANSACTIONS. 2020 (184-191) https://www.researchgate.net/publication/344385703 5. BAAKEEM 5. S., ORFI J., ALAQEL S., et al. “Impact of Ambient Conditions of Arab Gulf Countries on the Performance of Gas Turbines Using Energy and Exergy Analysis”, Entropy, Volume 19, No. 1, 2017, 32, doi: 10.3390/e19010032. 6. EL-SHALY A, ELHELW M, SOROUR M, et al. “Gas turbine performance enhancement via utilizing different integrated turbine inlet cooling techniques”. Alexandria Engineering Journal. 2016;55:1903-14. 7. BAAKEEM SS, ORFI J, AL-ANSARY, H. “Performance improvement of gas turbine power plantsbyutilizing turbine inlet air-cooling (TIAC) technologies in Riyadh, Saudi Arabia”, Applied Thermal Engineering. 2018; (17):1359-4311. 8. BARIGOZZI G, PERDICHIZZI A, GRITTI C, et al. “Techno-economic analysis of gas turbine inlet air cooling for combined cycle power plant for different climatic conditions”. Applied Thermal Engineering.2015; 82:57-67. 9. MONTERO CARRERRO M, BRAM S, PARENTE A, et al. “Advanced Humidified Gas Turbine Cycle Concepts Applied to Micro Gas Turbine Applications for Optimal Waste Heat Recovery”. Energy Procedia. 2017;105:1712- https://doi.org/10.1016/j.egypro.2017.03.557 10. COMODI G, RENZI M, CARESANA F, et al. “Limiting the Effect of Ambient Temperature on Micro Gas Turbines (MGTs) Performance Through Inlet Air Cooling (IAC) Techniques: An Experimental Comparison between Fogging and Direct Expansion”, Energy Procedia. 2015;75:1172- 77. https://doi.org/10.1016/j.egypro.2015.07.561 11. HAO LYU, JIANHONG CHEN, HUANYAN HUANG. “A Calculation and Analysis to Determine Feasibility of Inlet Air Evaporative Cooling Systems for CCPP by Thermodynamic and Economic Method IOP”. In: Conference Series: Materials Science and Engineering. 2018;394:25-35. DOI:10.1088/1757-899X/394/4/042021 12. THAMIR K IBRAHIM, MOHAMMED K MOHAMMED, OMAR I AWAD, et al. “Thermal and Economic Analysis of Gas Turbine Using Inlet Air Cooling System. MATEC2. In: Web of Conferences; 2018. https://doi.org/10.1051/matecconf/201822501020 13. THAMIR K IBRAHIM, RAHMAN MM, MOHAMMED MK, et al. “Statistical analysis and optimum performance of the gas turbine power plant”. International Journal of Automotive and Mechanical Engineering. 2016;13(1):3215-25. DOI: http://dx.doi.org/10.15282/ijame. 13.1.2016.8.0268. 14. ZHI TAN L, XIAO DONG R, ZHI YUAN Y, et al. “Effect of Inlet Air Heating on GT Efficiency under Partial Load”. Energies. 2019. DOI:10.3390/en12173327 15. CALVO GONZÁLEZ AE, RODRÍGUEZ BERTRÁN J, NUVIOLA COLSA G, et al. “Influencia de la temperatura ambiente en turbinas de gas en zona subtropical costera”. Ingeniería Mecánica. 2020;24(1):e617. ISSN 1815-5944. 16. NAJJAR YSH, AL-ZOGHOOL YMA. “Sustainable Energy Development in Power Generation by Using Green Inlet-Air Cooling Technologies with Gas Turbine Engines”. Journal of Engineering Thermophysics. 2015;24(2):1–24. Sobre los autores Alberto E. Calvo González, es Ingeniero Mecánico, Dr.CT, Profesor Titular del CETER de la Facultad de Ingeniería Mecánica de la UTH, CUJAE; José R. Rodríguez Bertrán, es Ingeniero Mecánico, Dr.CT, Especialista para la Ciencia, Tecnología y Medio Ambiente del ICIMAF, Instituto de Cibernética, Matemática y Física Calle 15 e/ C y D, Vedado, La Habana Cuba; Gisela Nuviola Colsa, es Ingeniero Mecánico, Especialista A en Explotación de Centrales Termoeléctricas; Jorge Arango-Gómez, es Ingeniero Mecánico, MSc., Profesor Asociado del Dpto. de Ingeniería Mecánica y Mecatrónica de la, Facultad de Ingeniería, Universidad Nacional de Colombia,. Bogotá, Colombia; MODELACIÓN DE LA ESTABILIDAD DE MONTACARGAS SEGÚN LA NORMA ISO 22915: MCD25-Un caso de estudio Jaime González Albiza1, Armando Delgado Callejo2 1Universidad Tecnológica de La Habana, Calle 114 e/ Ciclovía y Rotonda, Marianao, La Habana, Cuba 2MONCAR, calle 110 e/ 61 y Lindero, Reparto Oriental Park, Marianao, La Habana, Cuba 1e-mail: jaimego@mecanica.cujae.edu.cu RESUMEN Los montacargas constituyen, en la actualidad, un eslabón fundamental de la industria. Los accidentes más recurrentes se atribuyen a la pérdida de estabilidad. Con esta premisa la empresa MONCAR necesita evaluar la estabilidad del montacargas MCD25, diseñado y fabricado por la empresa. Para evaluar la estabilidad del montacargas es necesario según la norma “ISO 22915-2:2018 Industrial trucks - Verification of stability-Part 2”, construir u obtener una plataforma de inclinación. Resulta factible implementar un modelo con el objetivo de simular las pruebas para las condiciones estipuladas en la norma. Modelando el MCD25 en Autodesk Inventor y estimando su centro de gravedad. Simulando las pruebas de estabilidad se determinan los valores de inclinación a los que el montacargas pierde su estabilidad comparando con los valores estipulados en la norma se determina que el montacargas MCD25 es estable de acuerdo a la norma ISO 22915-2:2018. PALABRAS CLAVES: montacargas, estabilidad, dinámica multicuerpos. ABSTRACT Forklifts constitute a fundamental link in today’s industry. The most recurrent accidents are attributed to loss of stability. With this premise, the MONCAR company needs to evaluate the stability of the MCD25 forklift, designed and manufactured by the company. To evaluate the stability of the forklift, it is necessary, according to the " ISO 22915-2:2018 Industrial trucks - Verification of stability-Part 2" standard, to build or obtain a tilt platform. It is more feasible to make a model in order to model and simulate the tests according to the conditions stipulated in the standard. The MCD25 is modeled in Autodesk Inventor to estimate its center of gravity. Simulating stability tests are determined the tilt values at which the forklift loses its stability, comparing with the values stipulated in the standard, it is determined that the MCD25 forklift is stable according to the ISO 22915-2:2018 standard. KEY WORDS: forklift, stability, multibody dynamics. 1. INTRODUCCIÓN. La logística garantiza el funcionamiento de la economía en todas sus escalas, uno de sus componentes esenciales son los equipos de manejo de cargas, dentro de los que se encuentran los montacargas. El mercado cubano se caracteriza por su diversidad de montacargas en cuanto a proveedores y modelos, situación que complejiza la sostenibilidad y propició el surgimiento de la Empresa de Servicios y Comercialización de Equipos Automotores y de Manipulación de Cargas, conocida como MONCAR. La empresa ejecuta servicios de alquiler, mantenimiento y reparación de montacargas, también ha desarrollado y fabricado el montacarga diésel MCD25 de 2,5 T de capacidad (ver Figura 2), con un grado de integración nacional y componentes importados de socios extranjeros, más otros proyectos en documentación como el montacargas eléctrico MCE25 de 2,5 T y el montacargas diésel MCD50 de 5,0 T. Comparando visualmente el MONCAR MCD25 de la Figura 2, con la Figura 2 que muestra el esquema de la norma “ISO 5053 - Industrial trucks - Terminology and classification” [1], se fundamenta su clasificación como del tipo “Counterbalance lift truck” de la norma, en forma más abreviada también conocido como “forklift” y en español “carretilla industrial contrabalanceada”. En nuestro país se emplea el término “montacargas”, que será usado en todo el trabajo. Los montacargas realizan una variedad de tareas: descarga/desestiba/recogida, traslado y carga/estiba/colocar las cargas. Durante estas operaciones existen riesgos de que ocurran lesiones a operadores y personal cercano, así como daños a las mercancías provocados por la pérdida de estabilidad del montacargas (vuelco). Aunque no se conocen las estadísticas en Cuba, durante el periodo de 1989 a 1992 en Australia, hubo de un total de 52 fallecidos por accidentes relacionados con montacargas, el 22% estuvo relacionado con la volcadura del equipo [2]. Mientras en los Estados Unidos, entre los años 1980 y 1994, según el Sistema de Vigilancia del censo de Muertes Traumáticas Ocupacionales Nacionales (NTOF), murieron por lesiones traumáticas relacionados con montacargas un total de 1021 trabajadores, de los cuales el 22% estuvo provocado por la volcadura [3]. Lo anterior sustenta la necesidad de MONCAR, en cuanto a evaluar la estabilidad del montacargas cubano MCD25, diseñado tomando como referencia el montacargas chino HELI CPCD25 (Serie h2000) y fabricado con componentes importados y de producción nacional. Adicionalmente los clientes solicitan incorporar aditamentos que modifican la estabilidad del equipo original, ejemplo de lo anterior, el manipulador de bobinas de papel agregado a un MCD25 para la Empresa Periódicos Granma. Para evaluar la estabilidad del montacargas según la norma “ISO 22915-2:2018 Industrial trucks - Verification of stability-Part 2” [4] (en lo sucesivo ISO 22915-2), puede realizarse experimentalmente en una plataforma de inclinación o teóricamente mediante cálculos. Es obligatorio el cumplimiento de los requisitos de la norma ISO 22915-2, pero las pruebas con la plataforma se realizan posterior a la fabricación del prototipo y no existen análisis de la estabilidad durante el proceso de diseño, lo anterior contrasta con precedentes de evaluar mediante modelos la estabilidad de los montacargas [5-6]. Los factores que influyen en la estabilidad estática son: posición del centro de masas, masa, rigidez de los neumáticos, rigidez del mástil y juegos entre sus uniones. En el modelo a desarrollar se evalúa la estabilidad a partir de simular las pruebas de la norma ISO 22915-2, el modelo se compone de solidos rígidos y uniones ideales sin holguras, constituye una primera aproximación a un modelo de mayor fidelidad y evalúa solo la influencia de la posición de los centros de masa. El objetivo es obtener y verificar un modelo paramétrico para evaluar la estabilidad del montacargas MCD25 mediante la modelación y simulación de las pruebas de estabilidad según la norma ISO 22915-2. El modelo se implementa en el software Autodesk Inventor, dentro de su ambiente Dynamic Simulation, partiendo del modelo geométrico 3D e informaciones de catálogos, garantizando desde la etapa de diseño estimar el Centro de Gravedad y evaluar preliminarmente su efecto sobre el Ángulo de Pérdida de Estabilidad del montacargas MCD25 mediante la norma referenciada. Figura 2 Montacargas MONCAR MCD25. Figura 2 Esquema de un montacargas ISO 5053 Estabilidad de los montacargas según la ISO 22915-2:2018. Las pruebas requeridas por la norma “ISO 22915-2 son estáticas, pero permiten evaluar la estabilidad longitudinal/lateral estática y parcialmente la estabilidad lateral dinámica mediante una prueba equivalente al giro del montacargas. Durante las cuatro pruebas del montacargas cargado/descargado con la masa de prueba, en cada caso el montacargas debe mantenerse estable hasta el valor de inclinación establecido en la norma ISO 22915-2, la Tabla 1 ilustra cada prueba y el Ángulo de Pérdida de Estabilidad mínimo en cada caso. Tabla 1 Criterios para cada prueba de estabilidad establecidos en la norma ISO 22915-2:2018 [1]. Criterio Prueba 1 Prueba 2 Prueba 3 Prueba 4 Dirección Prueba Longitudinal Longitudinal Lateral Lateral Altura Torre Máxima Mínima (300 mm) Máxima Mínima (300 mm) Posición Torre 0° / Vertical -6° / Atrás -6° / Atrás -6° / Atrás Ángulo de Pérdida de Estabilidad (para sistema con masa ≥ 5000 kg) 3.5% = 2.00° 18% = 10.20° 6% = 3.43° 40% = 21.80° Posición Montacargas en Plataforma 2. MATERIALES Y MÉTODOS Modelado geométrico del montacargas. Existen modelos geométricos 3D del montacargas MONCAR MCD25 [7], parte importante de los elementos no están modelados con la intención de estimar propiedades geométrico-másicas o permitir el cambio de posición de las partes. El agregado principal que no pudo ser utilizado de estos modelos fue la torre, que está compuesta por el mástil, el porta-horquillas y las horquillas, por lo que el principal aporte al modelo geométrico es un modelo cinemático y articulado de la torre. Figura 3 Partes del Modelo 3D del MCD25. Torre Chasis Contrapeso Componentes Varios Para obtener las dimensiones geométricas generales de los agregados de la torre se midieron las piezas que se encontraban en la línea de producción del modelo MCD25 y posteriormente se elaboró el modelo 3D mostrado en la Figura 3, garantizando el movimiento relativo de sus componentes (mástil exterior, mástil interior, mástil medio, porta horquillas y horquillas) [8]. Para los elementos restantes, modelados previamente, se verificaron sus medidas respecto a un MCD25 producido, se realizaron ajustes menores y finalmente el ensamble completo, para los propósitos del estudio se agruparon los elementos en las partes que se ilustra en la Figura 3: Torre, Chasis, Contrapeso y Componentes Varios. El criterio de agrupamiento obedece a al conocimiento de la geometría y masas de los elementos, agrupando los de mayor incertidumbre en Componentes Varios. Calibración y verificación geométrico-másica del modelo 3D. Debido a la aproximación geométrica y a que se desconoce la densidad de los materiales de los componentes importados y/o fabricados, es necesario calibrar la masa de las partes en el modelo 3D del MCD25. La geometría y masa de la Torre se conoce por el embalaje, mientras el Chasis y Contrapeso se conocen con precisión, dado que fueron rediseñados y pesados los prototipos fabricados. En Componentes Varios están agrupados los elementos importados que no fueron modelados en detalle o se desconoce la masa individual: motor, trasmisión, sistema hidráulico, puente delantero, puente trasero y otros, pero asumidos iguales a los del HELI CPCD25 y a partir de información del catálogo se estima su masa y considera igual para el MONCAR MCD25, los valores de masa de cada parte se presentan en la Tabla 2. Tabla 2 Comparación de las masas de los agregados principales del MCD25 y CPCD25. Partes MONCAR MCD25 HELI CPCD25 Observación Masa (kg) Masa de Prueba, M 2500 2500 Carga nominal del montacargas Masa del montacargas, oM - 3680 Descargado (Catálogo Serie h2000) [9] - 6180 Cargado=Descargado + M Masa de la Torre, tM 915 915* Dato de embalaje Masa de las Horquillas, hM 120 120* Cada horquilla 60 kg (dato de embalaje) Masa de la Torre & Horquillas con Masa de Prueba, thM 1035 1035 th t hM M M M   Masa del Chasis, chM 475 491 Determinado en balanza industrial Masa del Contrapeso, cpM 1365 1200 Determinado en balanza industrial Masa de Componentes Varios, cvM 954** 954 cv o th ch cpM M M M M    * asumido igual al tomado del embalaje de torres importadas, por ser de igual proveedor ** asumido igual al determinado por datos del CPCD25, dado que incluye elementos similares y de igual proveedor Dada la similitud geométrica de la Torre, Chasis, Contrapeso y Componentes Varios del CPCD25 con el MCD25, se asumen iguales las coordenadas de los centros de masa. La masa de la Torre y Componentes Varios se asume igual en ambos, la diferencias en la masa del Chasis es pequeña y el Contrapeso del MCD25 es más pesado que el CPCD25. Pero las diferencias son pequeñas considerando la masa total de los montacargas cargados, fundamentando asumir valores iguales de las propiedades geométrico-másicas de ambos montacargas. Como criterio preliminar de verificación, se toma la distancia desde el centro de masas del montacargas cargado hasta la línea de apoyo de las ruedas delanteras 0L , determinado para el MCD25 a partir del modelo 3D calibrado, mientras que el CPCD25 se analiza mediante el modelo de equilibrio representado en la Figura 4. Las ecuaciones de equilibrio estáticas para el montacargas cargado: 2 1 0 0 0AM Q L Q L     (1) Resolviendo para 0L 20 1 0 Q L L Q  (2) donde: 1Q , 2Q - reacciones en el puente delantero y trasero, N 0Q - peso del montacargas cargado, N 1L - distancia longitudinal entre ruedas, mm 0L - brazo del peso respecto al puente delantero, mm Cuando está cargado, por el catálogo del CPCD25 se conocen: 0 6180 kgf 60605 NQ   , 1 5562 kgf 54545 NQ   , 2 618 kgf 6061NQ   y 1 1600mmL  , sustituyendo en la ecuación (2): 0 6061 1600 160 60605 NL mm mm N    El valor para el modelo 3D del MCD25 es 0 142 mmL  , que respecto al 0 160 mmL  del CPCD25 es un 13% menor. Otro elemento a considerar es la masa del montacargas cargado, en el modelo 3D del MCD25 es 0 6228M kg y el CPCD25 es 0 6180M kg , un 1% de diferencia. Las diferencias obtenidas se consideran aceptables para el propósito de verificar preliminarmente el modelo. Figura 4 Esquema de fuerzas en el montacargas cargado. Figura 5 Centro de masas del MCD25 cargado y sus partes. Como verificación cualitativa y referencia, se determinaron y visualizaron los centros de masas del MCD25 y sus partes, como se muestran en la Figura 5. 3. MODELACIÓN Y SIMULACIÓN DINÁMICA MULTICUERPO DE LAS PRUEBAS DE ESTABILIDAD. La modelación matemática en el estudio de la estabilidad de los montacargas ha empleado métodos analíticos y numéricos, orientados a resolver problemas del control automático para mejorar la seguridad de operación (estabilidad dinámica) o crear equipos autónomos [10-11]. La modelación de la estabilidad estática o las pruebas de la ISO 22915-2 tienen antecedentes recientes en el modelo analítico de KIM [10], que relaciona los parámetros geométrico-másicos y las pruebas previstas en la norma. La modelación computacional de las pruebas, empleando herramientas CAD (Computer Aided Design) y Simulación Dinámica Multicuerpo (SDM)/MBD (MultiBody Dynamics), evalúan la estabilidad durante la etapa de diseño y para mejorar la seguridad de las pruebas [6,13]. La funcionalidad del modelo que se propone, permite el análisis de las pruebas en forma similar al de GARDELLA [6], pero no considera elasticidades y holguras del sistema. La causa de esta simplificación es práctica, al no disponer de información y medios para caracterizar esos efectos, siendo además de segunda importancia, dado que la estabilidad estática del montacargas es dominada por las masas y su posición, factores que si permite evaluar el modelo. Modelado de la plataforma de pruebas. Para llevar a cabo la simulación de las pruebas de estabilidad según la norma ISO 22915-2, se utiliza el entorno Dynamic Simulator de Autodesk Inventor. Las pruebas se dividen en 2 grupos: longitudinales y laterales. Para la simulación de las pruebas de estabilidad se asumen las siguientes condiciones:  Los parámetros físicos del montacargas, como la holgura de la torre y la elasticidad y rigidez de los neumáticos, se descartan para así no sobrecargar el modelo y la simulación.  El modelo de cada prueba estará compuesto por: modelo del MCD25, una plancha que representa el terreno sobre el que está apoyada la plataforma y una plancha que representa la plataforma de inclinación en la Figura 6. Figura 6 Simulación de pruebas longitudinales: a) Suelo (Inmóvil). b) Plataforma (Móvil). c) Montacargas MCD25 (Móvil). La plataforma gira sobre un eje, variando su inclinación durante la prueba, modelada mediante una unión en revolución, ya que permite representar el movimiento de rotación, pero sin traslación (ver Figura 7a). Al seleccionar esa unión se limitan los movimientos en ese par cinemático, pero para que se cambie su inclinación se debe editar sus propiedades y activar la opción de imponer movimiento, ver ¡Error! No se encuentra el origen de la referencia.b, especificando valores en una gráfica de velocidad contra tiempo para un movimiento suave. Pruebas Longitudinales. Para las pruebas 1 y 2 se utilizan dos modelos con los mismos pares cinemáticos, ya que ambas pruebas el montacargas mantiene su posición con respecto a la plataforma, solo cambia la elevación de las horquillas y la inclinación del mástil, ver Tabla 1.  Rueda Delantera Derecha-Plataforma y Rueda Delantera Izquierda-Plataforma: se utiliza la unión punto-línea, ya que permite limitar los movimientos de traslación, para así representar la situación en la que las ruedas están detenidas y permite la rotación respecto a la línea que une los puntos de a b c Figura 7 Unión en revolución Plataforma-Suelo. a) Unión Revolución b) Velocidad angular aplicada contacto de cada rueda delantera con la plataforma, estos puntos de pivote se representan en la Figura 9.  Ruedas Traseras-Plataforma: se utiliza el contacto 2D como se ilustra en la Figura 10, para modelar el contacto entre las ruedas traseras y la plataforma, impide que las ruedas penetren la plataforma, pero permite que puedan separarse de la misma cuando llega al punto de pérdida de estabilidad, identificado como el ángulo de inclinación  para el que la reacción toma valor cero 2 0Q N . Para simular la Prueba #1 según la norma ISO 22915-2, se modelan las condiciones estipuladas en la Tabla 1. Se utiliza el modelo antes explicado para las pruebas longitudinales y se posiciona el MCD25 en la plataforma de prueba como se ilustra en la Figura 11. El resultado de la simulación, es decir, la inclinación a la que el modelo pierde la estabilidad está ilustrado en la Figura 12. La Prueba #2 se simula de manera similar, variando la posición de la torre y la carga como se ilustra en la Tabla 1, el resto de las condiciones son iguales que para la Prueba #1, al valor del ángulo de inclinación para el que ocurre la pérdida de la estabilidad es 18.05   . Pruebas Laterales. Para las pruebas 3 y 4 se utilizan dos modelos con los mismos pares cinemáticos, ya que ambas pruebas representan la misma posición del montacargas con respecto a la plataforma, solo cambia la elevación de las horquillas y si está cargado o descargado el montacargas, ver Tabla 1.  Rueda Delantera Derecha-Plataforma y Rueda Trasera Derecha-Plataforma: se utiliza la unión punto-línea, ya que permite limitar los movimientos de traslación, para así representar la situación en la que las ruedas están completamente detenidas y permite la rotación respecto a la línea que une Figura 9 Unión punto-línea entre Ruedas Delanteras-Plataforma. Figura 10 Unión contacto 2D entre Ruedas Traseras-Plataforma. Figura 11 Vista lateral del MCD25 en la en la Prueba #1. Figura 12 Gráfico de en función del ángulo de inclinación de la plataforma. . para ángulo de inclinación de la plataforma los puntos de contacto de la rueda delantera y trasera derechas con la plataforma, estos puntos de pivote se representan en la Figura 13.  Rueda Delantera Izquierda-Plataforma: se utiliza el contacto 2D como se ilustra en la Figura 14, para modelar el contacto entre las ruedas traseras y la plataforma, impide que las ruedas penetren la plataforma, pero permite que puedan separarse de la misma cuando llega al punto de pérdida de estabilidad, identificado como el ángulo de inclinación  para el que la reacción toma valor cero 1 0Q N . Para simular la Prueba #3 y Prueba #4 según la norma ISO 22915-2 se modelan las condiciones correspondientes en la Tabla 1. Se utiliza las condiciones explicadas para las pruebas laterales y se posiciona el MCD25 en la plataforma de prueba, el MCD25 pierde la estabilidad en la Prueba #3 a una inclinación de 9.75° y en la Prueba # 4 a 34.64°. El modelo predice reserva de estabilidad del montacargas MCD25 en todas las pruebas, como se resume en la Tabla 3. Estos resultados no pueden tomarse como definitivos, por la incertidumbre del modelo en cuanto a los Componentes Varios y la no consideración de las elasticidades y holguras en las uniones, pero el modelo permite simular las pruebas y obtener una estimación preliminar durante el diseño y cuando se dispone de los sólidos 3D. Tabla 3 Comparación de Ángulo de Pérdida de Estabilidad: ISO 22915-2 vs Modelo del MCD25. Ángulo de Pérdida de Estabilidad Prueba 1 Prueba 2 Prueba 3 Prueba 4 ISO 22915-2 2.00° 10.20° 3.43° 21.80° Simulación 4.73° 18.05° 9.75° 34.64° 4. CONCLUSIONES  El modelo 3D del MCD25 en Autodesk Inventor garantiza obtener los parámetros geométrico- másicos en diferentes posiciones del mástil y las horquillas, siendo parcialmente verificado por la distancia horizontal entre el centro de masas y el punto de apoyo del puente delantero con la plataforma.  El entorno de Dynamic Simulator en Autodesk Inventor permite simular las pruebas necesarias para evaluar la estabilidad del MCD25 según la norma 22915-2, siendo factible realizar análisis paramétricos durante el diseño y evaluación del montacarga MCD25 u otros de similar geometría.  Para elevar la fiabilidad del modelo es necesario reducir la incertidumbre de las propiedades geométrico-másicas de los Componentes Varios e incorporar la flexibilidad de la Torre y neumáticos, además de modelar las holguras de las uniones. Figura 13 Unión punto-línea Ruedas Delantera y Trasera Derechas-Plataforma. Figura 14 Unión contacto 2D Rueda Delantera Izquierda-Plataforma. RECONOCIMIENTOS Los autores desean agradecer al personal técnico y especialistas de la empresa MONCAR, su apoyo fue invaluable para realizar el estudio presentado, en especial al Ing. Juan Ramón Fernández García. REFERENCIAS 1. ISO, ISO 22915-2 Industrial trucks – Verification of stability –Part 2: Counterbalanced trucks with mast. Geneva. Switzerland. 2018. 2. SARIC, S.; Bab-HADIASHAR, A. et al. "Analysis of Forklift Accidents within Victorian Industry (Australia)", School of Aerospace, RMIT University, 2012, p. 14. 3. OHS GROUP. "Forklift Literature Review", Muarc OHS Group, Canadá, 2011, p. 6. 4. ISO, ISO 22915-2 Industrial Trucks - Verification of stability. Geneva. Switzerland. 2008 5. LEMERLE, P.; HÖPPNER, O.; REBELLE, J. “Dynamic stability of forklift trucks in cornering situations: parametrical analysis using a driving simulator”. 2011. Veh. Syst. Dyn. 49(10), 1673–1693 6. GARDELLA, M.; MARTINI, A. "Multibody Models and Simulations to Assess the Stability of Counterbalance Forklift Trucks", En actas de Proceedings of the 9th ECCOMAS Thematic Conference on Multibody Dynamics (SPRINGER), 2019, Duisburg, Alemania. 7. SANABRIA HAEDO, M. "Documentación del Proyecto: Montacargas MCD25", MONCAR, La Habana, 2020. 8. DELGADO CALLEJO, Armando. "Modelado de las pruebas de estabilidad del montacargas MCD25 según la norma ISO 22915". Tesis de Grado, Universidad Tecnológica de La Habana, La Habana, 2022 9. HELI. "Heli Engine Powered 2-3t", ANHUI HELI Machinery IMP.& EXP.COLTD., China, 2014. 10. XIA, G.; LI, J.; TANG, X.; ZHAO, L. and SUN, B. “Layered control of forklift lateral stability based on Takagi–Sugeno fuzzy neural network”. En actas de Proceedings of the Institution of Mechanical Engineers, Part D: Journal of Automobile Engineering, 2021, 235(6), pp.1767-1780. 11. TAO, P.; JIN, X.; WU, H; WU, K. “Research on Control Strategy of the Side Forklift Steering Movement Stability and Its Simulation Analysis”. En actas de 5th International Conference on Information Science and Control Engineering (ICISCE), 2018, IEEE, pp. 927-931. 12. JAE BEOM, Kim; WOONCHUL, Shin; JAI HAK, Park. “Stability Analysis of Counterbalanced Forklift Trucks”. Journal of the Korean Society of Safety, 2015, 30(2), 1–8. https://doi.org/10.14346/JKOSOS.2015.30.2.1 13. KELKAR, S.; GAIKWAD, S.M. "Virtual stability of forklift truck in CAD", International Journal Of Research In Aeronautical And Mechanical Engineering, 2015, pp. 18-27. Sobre los autores Jaime González Albiza, profesor de elementos de máquinas en la Universidad Tecnológica de la Habana, categoría docente de Prof. Auxiliar. Armando Delgado Callejo, ingeniero en la Dirección de Desarrollo de la Empresa MONCAR.. EXPERIENCIAS DEL USO DE JUEGOS EN LA CARRERA DE INGENIERÍA M.Sc. Carlos R. Hernández Fuentes. Profesor. Universidad Tecnológica de La Habana José Antonio Echeverría, Cujae. Cuba.Teléfono: Móvil: (+53) 54699837. crhfuentes@mecanica.cujae.edu.cu)1, Dr. C. Sergio Marrero Osorio. Profesor. Universidad Tecnológica de La Habana José Antonio Echeverría, Cujae. Cuba. smarrero@mecanica.cujae.edu.cu)2 RESUMEN La participación de los estudiantes de ingeniería, en su propio proceso de aprendizaje es fundamental en su formación. Uno de los métodos pedagógicos adecuado para este fin, es el método lúdico. Socializar las experiencias del empleo de este método constituye el objetivo de este trabajo. Usando materiales como: software, legos, y recursos propios en las asignaturas Mecánica Teórica, Fundamentos del Diseño, y en la Jornada Científica Estudiantil; fueron utilizados diferentes tipos de juegos y concursos. Como método pedagógico se empleó la Elaboración conjunta, buscando la socialización de sus miembros, la intercomunicación de estos y espacios positivos para que tengan lugar vivencias que propicien la internalización del conocimiento. El empleo del método contribuye, además a la solución de problemas como habilidad conformadora del desarrollo personal. Como resultados se obtuvo; el uso correcto del algoritmo de diseño por estudiantes de primer año con resultados positivos. El trabajo conjunto de estudiantes de años diferentes. Fueron demostrados varios métodos de manufactura y habilidades en la confección de maquetas. Se descubrieron los futuros talentos para la ingeniería de diseño. Se demuestra que la implementación de juegos competitivos para la creación y desarrollo de prototipos de sistemas mecánicos, aumenta la participación del estudiante en función de su aprendizaje con adecuada motivación Palabras claves: software educativo, diseño, aprendizaje, juego. ABSTRACT The participation of engineering students in their own learning process is essential in their training. One of the pedagogical methods suitable for this purpose is the playful method. Socializing the experiences of using this method is the objective of this work. Using materials such as: software, legos, and own resources in the subjects Theoretical Mechanics, Fundamentals of Design, and in the Student Scientific Conference; different types of games and contests were used. As a pedagogical method, joint elaboration was used, seeking the socialization of its members, their intercommunication and positive spaces for experiences that promote the internalization of knowledge. The use of the method also contributes to the solution of problems as a shaping ability of personal development. As results it was obtained; the correct use of the design algorithm by first-year students with positive results. The joint work of students of different years. Various manufacturing methods and model making skills were demonstrated. Future talents for design engineering were discovered. It is shown that the implementation of competitive games for the creation and development of prototypes of mechanical systems increases student participation based on their learning with adequate motivation. KEY WORDS: educational software, design, learning, game. Introducción En el proceso de producción de bienes materiales y servicios, el roll de un ingeniero mecánico consiste en operar y mantener las máquinas destinadas a la producción. Además, tiene que rediseñar piezas que se fracturan o desgastan por diferentes razones. El diseño de piezas y mecanismos es uno de los campos de acción del ingeniero, concebido en el modelo del profesional del programa de estudio de la carrera de ingeniería mecánica en la Cujae. Saber diseñar implica estar dotado de un sistema de habilidades, dentro de las cuales, el análisis del sólido rígido es la primera habilidad que debe ser formada por la asignatura de Estática y Dinámica. Teniendo en cuenta precedencia que tienen estas asignaturas en la disciplina de Mecánica Aplicada y las habilidades desarrolladas por la Física I, cuya precedencia fue analizada por Arcelio Hernández Fereira en el 2011(Arcelio Hernández Fereira, 2011) y la diferencia entre la habilidad de solucion de problemas de la ciencia, con la solucion de problemas profesionales; acentúa la necesidad del empleo de métodos y procedimientos que movilicen el esfuerzo de los estudiantes en la solucion de los problemas planteados. La habilidad Análisis del Sólido Rígido, es un tipo particular de lo que se conoce como solución de problema, basado en modelos matemáticos. Esta consiste en determinar un algoritmo para dar solución a un problema, que puede ser cerrado o abierto (Addine, 2004). En lo teórico, merece un aparte la solución de problemas como habilidad, tratada por muchos autores, como habiliades conformadoras de la personalidad y (Addine, 2004), quien considera que: se enfrentan problemas determinados y cerrados y a problemas indeterminados y abiertos, con respecto a los últimos considera que: los grupos son más apropiados para resolverlos al no tener una única respuesta. Basado en esto criterio se conforman equipos para dar solucion a problemas de diseño con los conocimientos de la Mecánica Teórica. Esta solución tiene que ser competitiva, por el ambiente de competencia entre equipos que tiene lugar la implementación del juego y todo ello moviliza a los estudiantes a rebuscar en lo aprendido en claeses, a consultar profesores e incluso escudriñar en asignaturas futuras en el programa de estudio. La participación activa de los estudiantes en el proceso de aprendizaje es determinante para el desarrollo la habilidad Análisis del Sólido Rígido” como habilidad profesional; sin embargo, en los resultados obtenidos por los estudiantes en la asignatura encargadas de desarrollar esta habilidad no son suficientes para el nivel de desarrollo deseado. "El juego es una acción u ocupación libre, que se desarrolla dentro de los límites temporales y espaciales determinados, según las reglas absolutamente obligatorias, aunque libremente aceptadas, acción que tiene su fin en sí misma y va acompañada de un sentimiento de tensión y alegría y de la conciencia de ser de otro modo que en la vida corriente. Como dice Huizinga, J, El carácter lúdico puede ser propio de la actividad más sublime. En la definición anterior podemos observar que enfoque lúdico (característica fundamental de los juegos) garantiza la motivación del sujeto y despierta en el mismo el interés por participar tanto de forma individual como formando parte de un grupo; El uso de juegos en el proceso de enseñanza- aprendizaje permiten la aplicación de varios métodos. En este caso se hace referencia al Trabajo individual y a la Elaboración conjunta. Desarrollo Uno de los software empleados fue el MDSolid (Timothy. A. Philpot, 1997-2008), del cual fue utilizada la versión 3.4.0. Este es un software educativo diseñado para la asignatura de mecánica de los materiales. En el primer semestre, de la parte correspondiente a la Estática, se insertaron como medio de enseñanza el uso del módulo de las herramientas de aprendizaje animado del software. Con el fin de entrenar las operaciones en las que se deben adiestrar los alumnos para la construcción del diagrama de fuerza cortante y momento flector en el análisis de fuerzas internas en vigas simplemente apoyadas, empleando en este caso el método directo. Los alumnos asisten a este encuentro después de haber recibido dos conferencias y dos clases prácticas, donde aprendieron a construir el gráfico de fuerza interna por el método de las secciones. Aplicando el método de elaboración conjunta, según (Klingberg, 1970), se organizó una competencia entre grupos de alumnos los cuales debían resolver 4 ejercicios para cada una de las 6 reglas establecidas para la construcción de diagrama por el método directo. La competencia se organizó contrarreloj con el fin de determinar los tres primeros lugares y de forma intencional incrementar el nivel de motivación de los estudiantes. El software además, fue empleado en las competencias de habilidades en el marco de la jornada científica; sin embargo los resultados no fueron tan satisfactorios pues solo se inscribieron tres alumnos y participó uno de ellos. Las principales experiencia del empleo de este software fueron: - La posibilidad de desarrollar 24 ejercicios de construcción del diagrama de fuerza cortante y momento flector; que a diferencia de las clases prácticas se resuelve por el método de las secciones, pero solo se logran desarrollar dos ó tres ejercicios completamente en el mismo tiempo. - La forma en que el software entrega los resultados, le permite al docente definir aquellos conceptos donde hay mayor porciento de errores, lo que sirve de retroalimentación para el docente. - El correcto diseño de la curva de dificultad de la aplicación (Timothy A. Philpot, 2003), permite una alta motivación de los alumnos durante el transcurso del laboratorio. Se pudo observar como los alumnos comenzaron insertando directamente la respuesta y terminaron consultando la libreta de notas y usando la calculadora para obtener los cálculos. - El uso consecutivo durante diferentes cursos ha permitido un aumento gradual en promoción y calidad de este objetivo, lo que puede ser advertido en la gráfica. A partir del curso 2016-2017, esta aplicación comenzó a llevarse a cabo en base a la recompensa de reconocer a los alumnos integrantes del equipo ganador el objetivo de la asignatura como vencido para tener el derecho al examen. El otro software empleado fue el Armadillo. Este es un juego con niveles editables cuya meta consiste en hacer llegar una pelota hasta un portal, lugar donde la pelota debe permanecer 5 seg. Para ello es necesaria la construcción de estructuras y mecanismos usando materiales de diferentes tipos y fuentes de energía conservativa y no conservativa, como la elasticidad de los materiales y la del cohete, respectivamente. Este software tiene la característica de ser portable, de ocupar poco espacio en memoria y permite editar los niveles de dificultad y puede hacer un grupo de niveles, donde superar cada nivel, depende de superar el nivel que le antecede. Cada material tiene un precio, lo cual el docente toma en cuenta para la calificación, midiendo de esta forma la eficiencia de los alumnos en la solución de la tarea. Se debe destacar el software tiene como deficiencia, que aunque su apariencia es en tercera dimensión, el trabajo de los usuarios solo se puede hacer en el plano, lo que limita el desarrollo del razonamiento espacial de los alumnos. Este juego fue aplicado como sistema de tareas independientes en el marco de la asignatura electiva Introducción a los fundamentos del diseño mecánico. Como el juego permite editar los niveles, el profesor editó niveles para que los alumnos dieran solución en el tiempo extra docente y enmarcando la solución en el estilo competitivo entre los alumnos, donde los tres primeros lugares estaban dados por la solución del ejercicio con el menor gasto de recursos materiales. La intencionalidad del docente con este ejercicio es formar en los alumnos la responsabilidad de ser cada vez más eficiente en el consumo de recursos. La responsabilidad de los alumnos de encontrar una variante de solución del ejercicio con el menor gasto de recursos, pone a los mismos en la situación de decidir una solución maximizada dentro de muchas alternativas. La otra modalidad de juego fue a través del empleo del lego dacta (Lego System A/S, 1997-1998), que constituye un set de piezas en miniatura, que permite al alumno diseñar un grupo de mecanismos utilizando varios elementos como son: ruedas dentadas, cadenas, poleas, árboles, barras etc. En el marco de esta asignatura electiva Introducción a los fundamentos del diseño mecánico, el docente organizó talleres como forma de enseñanza y utilizando el método de elaboración conjunta (por equipos) y propuso a los alumnos diferentes temas de competencias referidas a una función específica que debían realizar el modelo diseñado (fuerza, velocidad, etc). En cada tema de competencia, la esencia de ganar la misma consistió en diseñar un prototipo para superar a los demás en la función para la cual fue diseñada la máquina. La experiencia en la aplicación de este juego fue la forma en que los alumnos recibieron estos talleres y como se familiarizaron con un grupo de términos de piezas y mecanismos, así como, la vivencia de descubrir fenómenos que normalmente tienen lugar en los mecanismos cuando no son correctamente diseñados. Estas experiencias sirven al alumno, de precedencia a otras asignaturas de la disciplina, creando condiciones para que el aprendizaje significativo tenga lugar, tanto en asignaturas que reciben paralelamente a la electiva, como en otras asignaturas de la disciplina. Para el docente estos talleres fueron importantes para observar cómo se pone de manifiesto el aprendizaje significativo (Ausubel, 1991) en los alumnos y retroalimentar los métodos pedagógicos empleados en función de ampliar la zona de desarrollo próximo de su aprendizaje. Por iniciativa del Departamento de Mecánica Aplicada, se lanzaron un grupo de concursos y competencias a fin de despertar la motivación por el diseño mecánico. Estas tuvieron lugar en el marco de la jornada científica estudiantil. Nuevamente se acudió al empleo de legos para convocar a competencias. Con la experiencia que se tuvo con empleo del lego como medio de enseñanza, en la asignatura electiva, se propuso dos competencias, denominadas “Fuerza” y “Velocidad”. La competencia de “Fuerza” consistió en diseñar un prototipo de vehículo usando el lego dacta que arrastrara el mayor peso posible. Para ello se dota a los alumnos de un catálogo de las piezas del lego y dos sesiones de ensayo y prueba del prototipo antes del día de la competencia. En el día de la competencia tuvieron una hora para armar el prototipo en un cubículo independiente para cada equipo. Es significativo que uno de los equipos observó durante el ensayo de su modelo que necesitaba poner tracción en dos ejes y para ello usó un sistema de trasmisión por cadena. Este fue modelo ganador que logró arrastrar un peso de 2762 gramos. La competencia “Velocidad”, se desarrolló en las mismas condiciones que la competencia de “Fuerza”, con la particularidad que al concluir el diseño de cada prototipo se realizaría una carrera de prueba y otra de competencia. En este caso se unieron en un solo equipo un alumno de segundo año y otro de cuarto, proceso de socialización importante en el proceso pedagógico de la carrera para la formación de habilidades en el trabajo en equipo. El otro equipo lo integró un alumno de primer año, el cual inició su proceso de construcción del prototipo desplegando sobre la mesa 5 esquemas diferentes, hechos a mano alzada representando las trasmisiones que debía tener el vehículo. Este proceder puede parecer insignificante, sin embargo en el proceso de diseño mecánico, generar conceptos (modelos, esquemas) es una práctica propia de profesionales, lo que causa admiración que siendo un alumno de primer año ya asume conducta consecuente con el algoritmo del de diseño. Es de destacar que este hecho fue único en todas las manifestaciones de competencias. El último equipo lo integró un alumno de cuarto año, quien intentó modelar un prototipo con un mecanismo parecido a una caja de velocidad, sin mucho éxito. Esta modalidad de competencia la gana el alumno de primer año, quien había ganado otro concurso de dibujo convocado por el departamento de gráfica. En todos los casos de los alumnos que emplearon legos tanto en la asignatura electiva, como en las competencias, demostraron alto nivel de motivación y desarrollaron actividades en función de alcanzar los objetivos trazados, fundamentalmente evacuaron dudas en concernientes a la disciplina de diseño. Además de estas competencias, se lanzaron en convocatoria dos eventos más, con la particularidad que los alumnos debían usar medios propios. Ellas fueron denominadas “Rueda Libre” y “Catapulta” Se debe destacar que la competencia de “Rueda Libre” fue la segunda edición, pues la primera tuvo lugar en el curso escolar 2014-2015, la cual fue propuesta por Dr. Sergio A Marrero Osorio, con las siguientes características: El concursante debía construir un prototipo vehículo (con medios propios) de 1 kg de masa, 250 mm de largo. 200 mm de ancho y que al ser lanzado por una superficie inclinada (de 20 grados de inclinación), debía recorrer una distancia de un metro adquiriendo de esta forma un impulso y finalmente recorrer una distancia determinada. El medio que recorriera más distancia ganaría la competencia. En aquella ocasión solo participaron dos concursantes en toda la facultad. Al comienzo de la competencia se pesaron todos los prototipos diseñados con una pesa electrónica del tipo “sartorius” modelo TE6101-L y se procedía al desarrollo de la competencia la cual tuvo lugar en el pasillo central de la facultad de mecánica, con gran concurrencia de alumnos. El ganador de aquella primera edición fue un prototipo construido de cartón, el cual recorrió una distancia de 16,24 metros. Este año se presentaron 6 concursantes de los que se describen los tres primeros lugares: El prototipo ganador, era de cartón, con rueda de discos compactos, cuyo diseño fue apropiado desde el punto de vista aerodinámico. El alumno dotó el prototipo de luces, lo pintó y le puso una marca en la pintura de la carrocería y presentó, a solicitud del docente una exposición, donde explica los pasos seguidos para llevar a cabo el diseño(Rodríguez, 2016), además diseñó una cavidad dentro de la carrocería para colocar los pesos y llegar hasta la masa de 1 kg. En este caso, el alumno se mantuvo informando al docente del progreso de su diseño, además lo consultó con el profesor de física y realizó las primeras pruebas, alcanzando un promedio de 30 metros. En la competencia este prototipo alcanzó la distancia de 48.43 m imponiendo un nuevo record en este evento. El segundo lugar fue un prototipo construido de metal (inicialmente el alumno lo presentó en madera) con rodamiento entre los ejes y el cuerpo del prototipo. Este prototipo presentó una aerodinámica menos acabada, sus ruedas también eran de discos compactos. Durante el período de diseño el alumno solicitó ayuda, preguntando dudas de cómo podría mejorarlo, para lo cual se le ofreció ayuda incitándolo a la búsqueda de los temas que había recibido hasta el momento en las asignaturas de Mecánica Teórica. Este alumno preguntó ¿si él podía agregar un mecanismo que hiciera que el modelo perdiera peso al abandonar la rampa? El alumno lo puso en práctica, pues cuando el prototipo abandonó la pendiente en las tres oportunidades que se le dan a cada concursante, dejó caer un peso; sin embargo, este prototipo alcanzó la distancia de 28.94 metros, quedando de esta forma en segundo lugar en la competencia. El tercer prototipo presentado fue un modelo con alto grado de elaboración, en lo que a procesos de manufactura se refiere, pues se trataba de una plancha de metal (chasis) a la cual se le adjuntó en la parte superior un trozo de madera tallado con la forma de un auto (carrocería) y pintado en negro. Sus rodamientos eran de cajas de bola cubiertas en la parte exterior con silicona, con una aerodinámica aceptable. Se debe destacar que este diseño se realizó sin previa consulta y solo se supo del mismo el día de presentación de la competencia. En una charla con los alumnos participantes, se les recordó que para el cálculo del diámetro de las ruedas habían tenido como referencia, el ejercicio 8.74 de la página 337 de su libro de texto (Ferdinand P. Beer, 1994), el cual había sido objeto de estudio en clase práctica y que el mismo pide como variable de salida el diámetro de la rueda de una patineta que debe trasladarse con velocidad constante. En la expresión de afirmación de algunos alumnos se pudo constatar la significación que había adquirido para ellos este ejercicio, que hasta ese momento no había sido más, que un simple ejercicio de clase práctica. La otra competencia convocada para la jornada científica de los alumnos fue denominada “Catapulta”, la que propuesta por el Dr. Jorge Wellesley-Bourke Funcasta, consistió en diseñar una catapulta de 20 cm de ancho por 20 cm de largo por 20 cm de alto. En el caso de las catapultas no se inscribieron alumnos, lo que nos hizo pensar, que este evento no había llamado la atención, sin embargo, en los días previos a la competencia algunos alumnos se preocuparon por el lugar y día del evento, lo que puso en alerta a los docentes del departamento. En efecto el día del evento se presentaron tres diseños de catapulta. Después de comprobar que los diseños cumplían con los requisitos referidos en la convocatoria, se procedió al desarrollo de la competencia: Cada concursante tenía tres posibilidades de lanzar la bala (una pesa de laboratorio de 50 gramos) y para la competencia se consideraba la mayor distancia de los tres lanzamientos. La competencia se desarrolló frente a las aulas de la facultad con la concurrencia de los alumnos de la carrera. El primer diseño se elaboró de madera y como fuente de energía se empleó banda elástica de uso médico. Las piezas de maderas fueron unidas mediante clavos. El alumno diseñó esta catapulta con la posibilidad de variar la fuerza de empuje del brazo lanzador repitiendo hasta tres veces la liga por atrás del brazo. Como se observa en la foto los recursos eran mínimos y los resultados alcanzados fueron los mejores. Durante la competencia el alumno hizo los tres lanzamientos con fuerza variable, alcanzando los 8,83 m de distancia, siendo esta la mayor distancia y el primer record para esta modalidad de competencias de habilidades de diseño. La otra catapulta fue diseñada con madera como base y piezas de metales recuperadas para el mecanismo de lanzamiento el cual fue ensamblado a la base mediante uniones atornilladas. Como fuente de energía se emplearon bandas elasticas de caucho (camara), fijadas a la base por tirafondos, lo que no permitía variar la fuerza elastica de estas ligas. La distancia de lanzamiento máxima de esta catapulta fue de 2.62 metros. El tercer diseño de catapulta fue construido de madera y sin brazo de lanzamiento. Diseñaron una recamara que debía trasladarse por una guía sobre una placa de madera contrachapada y con un ángulo de inclinación fijo. La fuente de energía también fue una banda elástica de uso médico. El mecanismo de lanzamiento no pudo realizar ninguna de las pruebas debido a que el movimiento de la recamara por la guía tenía restricciones excesivas lo que impidió el lanzamiento en las tres ocasiones. En sentido general la respuesta de los alumnos a esta primera convocatoria de competencia, fue satisfactoria, dejando en los alumnos experiencias vividas que servirá para enriquecer su cultura de diseño y trazarse nuevas metas para la próxima jornada y para los docentes de esta disciplina un conjunto de ideas de retroalimentación para perfeccionar las competencias como método pedagógico en la formación de habilidades para el diseño en el ingeniero mecánico. 1. CONCLUSIONES Las repetidas oportunidades de protagonismo que ofrece a los alumnos, la inserción de juegos en la modalidad de competencias tanto individual como por equipos, en el programa de estudio de la carrera, permite al colectivo de docentes varias ventajas en el proceso pedagógico de formación del ingeniero. Se logró el objetivo propuesto, pues se demostró que los alumnos participantes en competencias aumentan el nivel de participación en su aprendizaje, ya que para competir tiene que convertirse en un agente decisor de sus propias soluciones, sabiendo que sus propuestas tienen que ser los más óptimas y racionales posibles para competir con los demás diseños. Además no cabe duda, que el significado(AUSUBEL, 1991) que tiene para el alumno este tipo de aprendizaje, el cual es diferente al que recibe a través de otras formas de enseñanza. Aunque la competencia individual también activa el proceso de aprendizaje en los alumnos, se demostró lo importante de las competencias por equipos, dado las posibilidades que ofrece el método pedagógico de elaboración conjunta, para el aprendizaje colaborativo y el desarrollo de hábitos de socialización que deben formar estos profesionales para su futuro desempeño. Otra experiencia importante fue la oportunidad que tienen los docentes para descubrir y captar los talentos en el diseño mecánico, con que cuenta de la carrera en primer y segundo año. Esto permite a su vez enfocarlos hacia la mención de salida de diseño y fortalecer aún más dicha motivación. Se considera que la aplicación de métodos lúdicos en las condiciones específicas de la carrera de ingeniería mecánica permite profundizar en la investigación de otros aspectos de las ciencias pedagógicas como pudieran ser: La caracterización del proceso del tránsito hacia la zona de desarrollo próximo del aprendizaje en condiciones de juegos, tanto individual como por equipos, en el marco del proceso pedagógico de la disciplina de Mecánica Aplicada. La caracterización del proceso de transformación de las motivaciones extrínsecas con que inicia la carrera el alumno (satisfacer a sus padres con el título de ingeniero, por ejemplo) en motivación intrínsecas propias de la necesidad de conocimiento de las ciencias, para la innovación y creación de diseños mecánicos. Los resultados de estas investigaciones podrían tributar importantes aportes a teoría de las ciencias pedagógicas en cuanto a las particularidades de la enseñanza de la ingeniería y la arquitectura. RECONOCIMIENTOS Los autores desean agradecer a Comité científico de la facultad por dar la posibilidad de integrar los juegos educativos en el marco de Jornada Científica Estudiantil. REFERENCIAS Addine, F. (2004). Didáctica teoría y práctica Colectivo de autores. Arcelio Hernández Fereira, J. L. M. O. (2011). Habilidades--Habilidades Profesionales de la Física. Revista Universidad y Sociedad, 3(1). Ausubel, D., JOSEPH, P. NOVAK, y HELEN HANESIAN. , México, 1991. (1991). Psicología Educativa. Un punto de vista cognoscitivo. Bermúdez Morris, R., Pérez Martín, L. M. Armas, C. B., Arzuaga, M., D Angelo. (2016). El Pensamiento de Lev Semionovich Vigotsky su Vigencia en la Educación. Elster, J. (2006). CAPÍTULO II: EL CAMBIO RACIONAL DE PREFERENCIAS EN EL PROCESO ELECTORAL. Ferdinand P. Beer, E. R. J. (1994). Mecánica vectorial para ingenieros., . Mexico: Mc Graw-Hill. Lego System A/S, D.-. (1997-1998). Lego DACTA (pp. Set de construcción). Denmark: Lego DACTA. Quesada, O. G. (2009). Fundamentos Didácticos de la Educación Superior Cubana.: Editorial FÉLIX VARELA Calle A No. 703, esq. a 29, Vedado, La Habana, Cuba. Rodríguez, A. J. F. (2016). Competencia de Habilidades de Diseño: "Rueda Libre" [Presentación.ppt]. CUJAE. Timothy. A. Philpot. (1997-2008). MDSolidsh Educational Softwares (Version 3.4.0) [Educational Software ]. Missou sobre los autores institución y labor que desempeña, categoría docente y categoría científica, membresía en organizaciones profesionales, etc. REVISIONES FINALES Antes de enviar su artículo le recomendamos hacer las siguientes revisiones finales: 1. Revise la secuencia de los encabezados. 2. Revise la numeración de las referencias, las ecuaciones, las tablas y las figuras. 3. Revise las citas en el texto de las referencias, figuras, tablas y ecuaciones. CONTACTOS Si tiene alguna pregunta u observación en la preparación de su artículo por favor diríjase a la siguiente dirección de correo electrónico: ccia@tesla.cujae.edu.cu CORRELACIÓN ENTRE LA RESISTENCIA A COMPRESIÓN SIMPLE E INDICE DE CARGA PUNTUAL DEL MATERIAL ROCOSO Ernesto Patricio Feijoo Calle1 1Universidad del Azuay, Av. 24 de mayo 777, Cuenca, Ecuador 1pfeijoo@uazuay.edu.ec RESUMEN Este trabajo tuvo como objetivo principal, luego de obtener una correlación entre la resistencia a la compresión simple y el índice de carga puntual de una andesita, misma que aflora en la provincia del Cañar (Ecuador), realizar una comparación y análisis de su aproximación o similitud con correlaciones existentes, presentes en la literatura respectiva. El trabajo se lo inició con la toma de muestras de material rocoso en el campo y la consecuente elaboración de probetas, con dimensiones establecidas. Como segunda etapa, a dichas probetas, se las sometió a los ensayos de resistencia a compresión y de carga puntual. Finalmente, se determinó la relación entre estos dos parámetros y la misma se la comparó con otras correlaciones publicadas por autores que han trabajado sobre el tema. Los resultados generan conclusiones que deben ser tomadas en consideración, especialmente para materiales específicos y se recomienda su análisis minucioso. PALABRAS CLAVES: Andesita, resistencia a compresión, correlación, roca. CORRELATION BETWEEN UNCONFINED COMPRESSIVE STRENGTH AND POINT LOAD TEST INDEX OF ROCK MATERIAL ABSTRACT This work had as its main objective, after obtaining the correlation between the unconfined compressive strength and the point load test index of an andesite, which outcrops in the province of Cañar (Ecuador), to make a comparison and analysis of its approximation or similarity with existing correlations, present in the respective literature. The work began with the taking of rock material samples in the field and the consequent elaboration of specimens, with established dimensions. As a second stage, these specimens were subjected to compressive strength and point load tests. Finally, the relation between these two parameters was determined and it was compared with other correlations published by authors who have worked on the subject. The results generate conclusions that must be taken into consideration, especially for specific materials, and careful analysis is recommended. KEY WORDS: Andesite, compressive strength, correlation, rock. 1. INTRODUCCIÓN En el desarrollo de las actividades mineras, tanto en minas a cielo abierto como en minas subterráneas, es importante conocer la estabilidad de las estructuras presentes en el proyecto minero, las que son generadas por los ingenieros en minas, para la extracción y explotación de los recursos minerales, pero es indispensable el análisis de la estabilidad de estas obras, el cual es dependiente de algunas propiedades, tanto del material rocoso como del macizo rocoso. Por esta razón es importante establecer las propiedades o características de la zona, para ejecutar los análisis y evaluar la estabilidad, mediante la obtención de factores numéricos 1. Una propiedad fundamental es la resistencia a la compresión simple de la roca (RCS) pero en ocasiones se dificulta su determinación por la falta de laboratorios cercanos al proyecto minero y/o también por su alto costo, especialmente para el caso de pequeña minería, en especial en distritos mineros en los que laboran mineros artesanales. La resistencia a la compresión simple de las rocas es la medida más común para definir los razonamientos de rotura y el proceder geo mecánico de un macizo rocoso determinado. Para la obtención en los exámenes de laboratorio requiere muestras escrupulosamente preparadas y de un tiempo considerable para poder conocer el resultado, lo cual puede presentar un alto costo. Las rocas anisótropas en específico son dificultosas de realizar exámenes por la variante de su resistencia por lo que son necesarios numerosos exámenes de laboratorio para obtener parámetros representativos de todo el rango de resistencias 2. El propósito de este ensayo es medir la resistencia a compresión de una probeta de roca, sometida a una carga axial. Para realizar el ensayo, hay que disponer de una prensa de capacidad adecuada que permita emplear la carga sobre la probeta a velocidad constante hasta que se produzca la rotura en la misma en un intervalo de tiempo entre 5 y 15 minutos, también la velocidad de carga puede establecerse entre intervalos de 0,5 a 1 MPa/s 3. La probeta se coloca entre los discos de la prensa, bien centrada, donde se aplica una carga de asentamiento equivalente al 1% de la resistencia a compresión simple estimada. En este momento, el reloj indicador de carga se pone en cero. Se fija la velocidad de aplicación de la carga, dando comienzo la compresión, hasta que la muestra se rompe. La ecuación 1 nos muestra como determinar la resistencia a compresión simple de una probeta: Donde: P= es la carga máxima a la que ha sido sometida la probeta durante el ensayo. A= es el área de la sección transversal de la probeta. Para la determinación de la resistencia a compresión simple o uniaxial de la roca, se ha desarrollado un ensayo alterno conocido como índice de carga puntual (Is 50), el cual es de fácil ejecución en campo. El índice de carga puntual es uno de los ensayos más importantes que se usan para la determinación indirecta de la RCS, ya que la implementación de la prensa puede ser usada in situ o en laboratorio, además de que requiere de muy poca o nula preparación de las muestras para la prueba 4. El ensayo de carga puntual o de rotura entre puntas es un ensayo básico que puede realizarse en el campo con testigos sin modificación o con fragmentos de roca. Este se fundamenta en aplicar una carga puntual en un trozo de roca hasta su rotura obteniéndose un índice Is que se correlaciona con la resistencia a compresión simple de la roca 5. El valor de prueba de carga puntual se puede usar como una estimación indirecta de la compresión uniaxial o simple de la roca, la muestra que se lleve a cabo su ejecución puede ser un núcleo de roca, un bloque o un bulto irregular de roca 6. El ensayo de carga puntual consiste en romper un pedazo de roca entre dos puntas cónicas de acero endurecido. Las muestras que posteriormente van a ser colocadas entre dichas puntas pueden ser de cualquier forma, pero lo recomendable es que su diámetro no sea inferior a 50 mm, ya que, el volumen de dicha probeta influye en su resistencia 7. La ecuación 2 nos permite calcular el índice de carga puntual sin corrección: Donde: P = Carga aplicada en N. De = Diámetro del núcleo equivalente en mm 8. La razón 0.3 < D / W < 1 que de preferencia quede cerca de 1. En la ecuación 3 se determina el diámetro equivalente De en función de las dimensiones de los fragmentos irregulares: Donde: Donde A es el área transversal mínima paralela a la dirección de la carga en mm². El índice de resistencia a la carga puntual corregido, Is 50 de una muestra de roca se define como el valor de Is que se ha medido para una prueba diametral con D = 50 mm. Cuando una clasificación de roca es fundamental, el método más fiable para conseguir el Is 50 es llevar a cabo las pruebas con diámetros de D = 50 mm o muy cercanos a dicho valor. La mayoría de las pruebas de carga puntual, son llevadas a cabo utilizando tamaños de muestras diferentes al diámetro mencionado 9. En la ecuación 5 podemos obtener la corrección por tamaño: Realizados los ensayos antes descritos, se obtiene una relación entre la RCS y el Is 50, la cual genera un dominio y rango, características que sirven para la caracterización del material rocoso, en este caso la andesita, y de esta forma conocer la propiedad de resistencia de las muestras obtenidas. Sin embargo, existen correlaciones para las rocas en la literatura que ya han sido establecidas en años pasados y las mismas proponen algunas ecuaciones. Ahora al conocer las correlaciones propuestas en la teoría, las más relevantes y usadas se detallan a continuación. En 1972, Franklin, J. A. y Bosh, E., proponen un factor de correlación de 24. Chau, K. T., y Wong, R. H. C., en 1996 un factor de 12.5. Rusnak, J., y Mark, C., en 2000, un factor de 21. Thuro y Plinninger, R. J., en 2001 un factor de 18.7. Mark, C., en 2002, un factor de 21. Akram, M., y Bakar, M. Z. A., en 2007 un factor de 13.295. Cobanoglu, I., y Celik, S. B., en 2008, una relación RCS=8.66 Is 50 + 10.85 10. Por lo tanto, se poseen estas correlaciones para luego compararlas con la relación que se obtendrá del material rocoso, para el presente caso. 2. MATERIALES Y MÉTODOS Para este estudio, se estableció trabajar con una andesita proveniente de la zona de Cojitambo, provincia del Cañar, Ecuador. Las andesitas son rocas volcánicas de grano fino, son comunes, como coladas de lava en regiones orogénicas y ocasionalmente forman pequeñas intrusiones. Son compactas, algunas veces vesiculares y comúnmente de color castaño y en extensión total ocupan el segundo lugar después del basalto 11. Luego de obtener las muestras en campo, se procedió a la elaboración de las probetas, mediante una cortadora marca Covington, la cual es un modelo de piso diseñada para cortar rocas. Esta posee una sierra de estilo inmersión, lo que significa que el fluido de corte se asienta dentro del tanque y la cuchilla giratoria elevará el fluido alrededor de la probeta (Figura 1). De hecho, las propiedades de las rocas varían en las diferentes direcciones que se aplique un efecto, por eso a este punto proponemos utilizar el corte en la roca, el cual por razones descritas no será igual en función de la arista establecida para generar el mismo. Este corte debe ser ejecutado sobre muestras o probetas preparadas, para tratar de mitigar los efectos de la anisotropía, lo cual es muy difícil conseguir. Así pues, en el proceso de corte de rocas intervienen conjuntamente el equipo o sierra de corte, el útil diamantado y el material a cortar 12. También se pueden obtener muestras a partir de bloques de roca; la extracción de estos bloques en la mina o en la obra se debe llevar a cabo sin voladuras, ya que éstas pueden generar en la roca nuevas micro fisuras o aumentar las existentes, lo cual se traduciría en una pérdida de resistencia de las probetas que se obtengan de ellos 13. Obtenidas las probetas, se procede a la ejecución de los ensayos. En el ensayo de resistencia a la compresión simple se utilizaron 60 probetas, las que tuvieron dimensiones de 5x5x10 cm. El mismo número y dimensiones de probetas se usó en el ensayo de carga puntual, es decir se trabajó sobre un total de 120 probetas (Figura 2). En la ejecución de los ensayos se utilizó el equipo apropiado. Para la determinación de la RCS, este equipo es una prensa Humboldt que tiene facultades para someter materiales a ensayos de tensión y compresión (Figura 3). La presión se logra mediante placas o mandíbulas accionadas por tornillos o sistema hidráulico. La máquina de ensayos tiene como función comprobar la resistencia de diversos tipos de materiales, para esto posee un sistema que aplica cargas controladas sobre una probeta (modelo de dimensiones preestablecidas) y mide en forma gráfica la deformación, y la carga al momento de su ruptura 14. En la ejecución del índice de carga puntual se utilizó un equipo construido para este efecto, el cual consiste de una bomba y una estructura diseñada en base a las recomendaciones del caso (Figura 4). Cabe indicar que los ensayos de resistencia a la compresión y de carga puntual se los ejecutaron siguiendo las normas respectivas. Figura 1: Cortadora de piso Covington. Figura 2: Probetas de material rocos listas para los ensayos. Figura 3: Prensa Humboldt para el ensayo de RCS. Figura 4: Equipo para ensayo de carga puntual. 3. RESULTADOS Obtenidos los diferentes valores, se ordenaron los resultados y los mismos se pueden observar en la Tabla 1, se procedió a graficarlos para determinar la correlación buscada (Figura 5). Las rocas presentan relaciones lineales y/o no lineales entre las fuerzas aplicadas y las deformaciones producidas, obteniéndose diferentes modelos de curvas de tensión contra deformación para distintos tipos de rocas 15. Cabe recalcar que esta expresión es exclusiva para el material rocoso del sector del Cojitambo, el cual es una andesita anfibólica, que presenta una variedad típica y apolínea en su masa microcristalina de color gris claro, perfectamente se distingue los cristales de anfíbola, mica negra y fragmentos bastantes grandes de plagioclasa blanca (andesita). Tabla 1: Resultados de RCS e índice de carga puntual de las 120 probetas. N° Is 50 RCS N° Is 50 RCS N° Is 50 RCS N° Is 50 RCS (MPa) (MPa) (MPa) (MPa) (MPa) (MPa) (MPa) (MPa) 1 2.99 46.25 16 3.38 53.35 31 3.65 57.51 46 3.98 61.53 2 3.00 46.94 17 3.40 53.41 32 3.65 57.92 47 3.99 61.63 3 3.04 47.31 18 3.40 53.81 33 3.71 58.00 48 4.00 62.05 4 3.15 47.33 19 3.41 53.84 34 3.71 58.00 49 4.02 62.71 5 3.19 48.20 20 3.42 54.03 35 3.77 58.01 50 4.03 62.87 6 3.19 48.53 21 3.44 54.04 36 3.80 58.02 51 4.08 63.00 7 3.20 49.22 22 3.46 54.54 37 3.80 58.45 52 4.09 63.69 8 3.20 49.93 23 3.46 54.78 38 3.82 58.47 53 4.10 63.81 9 3.22 50.05 24 3.49 55.15 39 3.82 58.52 54 4.11 63.81 10 3.29 50.84 25 3.51 55.44 40 3.83 59.14 55 4.12 64.03 11 3.32 51.87 26 3.53 55.99 41 3.87 59.78 56 4.12 64.37 12 3.35 51.93 27 3.53 56.15 42 3.91 59.89 57 4.15 64.37 13 3.35 53.18 28 3.53 56.67 43 3.93 60.01 58 4.17 64.37 14 3.35 53.24 29 3.57 56.70 44 3.94 60.60 59 4.19 64.49 15 3.37 53.32 30 3.65 57.32 45 3.98 61.11 60 4.20 64.85 Figura 5: Correlación entre la RCS e índice de carga puntual de la andesita estudiada. La relación existente entre el Is 50 y la resistencia a la compresión permitió obtener la ecuación 6: 𝑅𝐶𝑆 = 15 ∙ 𝐼𝑠 50 + 2.05 (6) Donde: Is 50 en MPa RCS en MPa. Esta relación presenta un R2 igual a 0.98, lo cual conlleva al objetivo propuesto. Ahora al graficar esta ecuación, en color rojo, con las correlaciones de la literatura, las mismas que están en color azul, lo que podemos observar en la gráfica de la Figura 6, se evidencia que no existe una correlación similar a la encontrada para la andesita estudiada. Figura 6: Grafica de correlaciones de la literatura (azul) y correlación determinada para la andesita (rojo). 4. CONCLUSIONES Se determinó que existe una relación entre el Is 50 y la RCS de la roca estudiada (andesita) y la misma proporciona límites para dicho material rocoso. Se propone también, para el caso de estudio presentado, una relación entre el Is 50 y la RCS, la cual se expresa mediante la ecuación 6. La relación propuesta permite caracterizar el material rocoso presente en la zona, en consecuencia, se han obtenido valores de Is 50 que van desde 2.99 MPa a los 4.2 MPa y el valor de la RCS entre los 46.25 MPa hasta los 64.85 MPa. Este trabajo muestra que no existe una buena aproximación de la ecuación encontrada con las correlaciones propuestas en la literatura, por lo que para materiales específicos se recomienda ejecutar ensayos y obtener así una relación propia para el material rocoso. Finalmente se sugiere que esta propuesta sea desarrollada en otros tipos de roca, con un número mayor de probetas elaboradas, diferentes dimensiones de probetas, es decir ejecutarla con una modificación de las diferentes variables involucradas, para de esta forma tratar de generalizarlo y que sea efectivo al momento de usarlo en un proyecto minero. REFERENCIAS 1. FEIJOO, Ernesto; IÑIGUEZ, Camila. “Corte en rocas y su relación con la resistencia a compresión simple”, RISTI, 2020, núm. E 30, pp. 59-67. 2. BURBANO, Danny; GARCÍA, Tania. “Estimación empírica de la resistencia a compresión simple a partir del ensayo de carga puntual en rocas anisótropas (esquistos y pizarras)”, FIGEMPA, 2016, vol.1, núm. 2, pp. 13-16. 3. RAMÍREZ, P.; DE LA CUADRA, L.; LAIN, R.; GRIGALBO, E. Mecánica de rocas aplicada a la minería metálica subterránea. Madrid, España, Instituto Geológico y Minero de España, 1984. 4. CORDERO, Pablo. "Manual de prácticas de laboratorio de Mecánica de Rocas (Parte I)". Director: Javier Mancera. Tesis de Grado, Universidad Nacional Autónoma de México, México D.F., México, 2019. 5. GONZÁLEZ DE VALLEJO, Luis; FERRER, Mercedes. Manual de campo para la descripción y caracterización de macizos rocosos en afloramientos. Madrid, España, Instituto Geológico y Minero de España, 2007. 6. POHJANPERA, P.; WANNE, T.; JOHANSSON, E. Point Load Test Results from Olkiluoto Area Borehole Cores. Finlandia, Posiva, 2005. 7. FEIJOO, Ernesto; UREÑA, Carlos. “Caracterización de la resistencia a la compresión en rocas mediante clasificación granulométrica: un ensayo de campo”, Ingeniería y Competitividad, 2022, vol. 24, núm. 1, pp. 1-11. 8. RAMIREZ, Pedro; ALEJANO, Leandro. Mecánica de rocas: fundamentos e ingeniería de taludes. Madrid, España, Universidad Politécnica de Madrid. Madrid, 2004. 9. NAVARRETE, M.; MARTÍNEZ, W.; ALONSO, E.; LARA, C., BEDOLLA, A.; CHÁVEZ, H.; DELGADO, D.; ARTEAGA. J. “Caracterización de propiedades físico-mecánicas de rocas ígneas utilizadas en obras de infraestructura”, ALCONPANT, 2013, vol. 3, núm. 2, pp. 133-143. 10. GALVÁN, Manolo. Mecánica de Rocas. Correlación entre la Resistencia a Carga Puntual y la Resistencia a Compresión Simple. Colombia, Universidad del Valle, 2015. 11. BLYTH, F.; FREITAS, M. Geología para Ingenieros. México D.F., CECSA, 2003. 12. FEIJOO, Ernesto; PERALTA, Adriana; TAMAYO, Andrea; FEIJOO, Bernardo. “Rock material particle size and its correlation with the point load test index”, Minerva, 2022, vol. 3, núm. 7, pp. 78-88. 13. FEIJOO, E.; et al. “The Concept of the Granulometric Area and Its Relation with the Resistance to the Simple Compression of Rocks”. En actas de IESTEC, 2019, pp. 52–56. 14. FEIJOO, Ernesto; BRITO, Elizabeth. “Caracterización de la roca mediante propiedades físicas y su relación con la resistencia a la compresión simple”, South Florida Journal of Development, 2021, vol. 2, núm. 4, pp. 5081-5093. 15. SECRETARIA DE COMUNICACIONES Y TRANSPORTE, Manual de Diseño y Construcción de Túneles de Carreteras. México D. F., 2016. E. Patricio Feijoo C., Ingeniero en Minas, graduado en la Universidad del Azuay (Cuenca-Ecuador), con estudios y pasantías en: Bolivia, Brasil, España, Australia, en áreas de la geología, geofísica y desarrollo de actividades de explotación de minas. Se encuentra vinculado a la docencia en la Universidad del Azuay desde 1991. Actualmente mantiene la categoría de Profesor Titular Principal e Investigador.    HERRAMIENTAS PARA LA VALIDACIÓN DE LOS MODELOS DE MADUREZ Ailyn Naranjo Navarro1Leisis Villar Ledo2, Armando Díaz Concepción1, Yaima Alfonso Padura1 1 CEIM, Facultad de Ingeniería Mecánica, CUJAE. Calle 114 e/Rotonda y Ciclovía, Marianao, La Habana. 2 Departamento de Ingeniería Industrial, Facultad de Ingeniería Industrial, CUJAE. Calle 114 e/Rotonda y Ciclovía, Marianao, La Habana. 1e-mail: anaranjo@mecanica.cujae.edu.cu  RESUMEN La concepción del mantenimiento a nivel mundial ha evolucionado desde una proyección reactiva a ejecutar actividades proactivas, con una visión de negocio que aseguren la competitividad de la organización. Actualmente, existen metodologías, estándares, modelos de madurez y guías que pueden ayudar a una organización a mejorar su modo de operar. A pesar de esto, existe poca literatura para medir el grado de madurez de las variables de gestión de mantenimiento. Es por esta razón que existe la necesidad de realizar un estudio teórico con el fin de analizar modelos que permitan conceptualizar y entender los procesos mínimos necesarios para desarrollar una correcta gestión en una organización. En esta investigación se pretende proponer un procedimiento constitutivo de herramientas que permitan validar un modelo para medir la madurez en una organización. Como resultado de esta investigación se diseña un procedimiento que permite validar un modelo de madurez en una organización. Este procedimiento consta de 3 fases, la primera se basa en el diseño del instrumento, la segunda es la implementación de las herramientas seleccionadas las cuales fueron la encuesta y el juicio de expertos, y la tercera fase es el análisis de los resultados. PALABRAS CLAVES: herramientas, modelos de madurez, validación. TOOLS FOR VALIDATION OF MATURITY MODELS ABSTRACT The conception of maintenance worldwide has evolved from a reactive projection to executing proactive activities, with a business vision that ensures the organization's competitiveness. Currently, there are methodologies, standards, maturity models and guides that can help an organization improve its way of operating. Despite this, there is little literature to measure the degree of maturity of maintenance management variables. It is for this reason that there is a need to carry out a theoretical study in order to analyze models that allow us to conceptualize and understand the minimum processes necessary to develop correct management in an organization. This research aims to propose a constitutive procedure of tools that allow validating a model to measure maturity in an organization. As a result of this research, a procedure is designed to validate a maturity model in an organization. This procedure consists of 3 phases, the first is based on the design of the instrument, the second is the implementation of the selected tools which were the survey and expert judgment, and the third phase is the analysis of the results. KEY WORDS: tools, maturity models, validation. 1. INTRODUCCIÓN   Actualmente, existen metodologías, estándares, modelos de madurez y guías que pueden ayudar a una organización a mejorar su modo de operar [1]. Los modelos de madurez fueron concebidos inicialmente para la industria del software, pero actualmente su área de aplicación es muy diversa. Un modelo de madurez se puede concebir como una estructura conceptual, con partes constituyentes, que define la madurez del área de interés; sumado a ello, puede proveer información para identificar los procesos que va a necesitar la organización para alcanzar un futuro deseado [2]. La concepción del mantenimiento a nivel mundial ha evolucionado desde una proyección reactiva a ejecutar actividades proactivas, con una visión de negocio que aseguren la competitividad de la organización. Cumplir con estas expectativas requiere adoptar nuevas maneras de pensar y actuar, así como de la aplicación de herramientas y métodos que sirvan de soporte para la toma de decisiones durante la fase operación – mantenimiento [3]. Para realizar el diagnóstico a la gestión del mantenimiento existen herramientas de diagnóstico las cuales analizan todos los factores internos y externos que afectan a una organización permitiendo hacer mejoras en los procesos. Existen otras herramientas como son los modelos de madurez que no son más que un modelo conceptual. En el artículo de los autores [4] lo definen como un mapa que guía a la organización en la implementación de buenas prácticas, ofreciendo un punto de partida. Describe un camino de mejoramiento evolutivo, desde los procesos inconsistentes hasta los más maduros de la organización. En las últimas décadas, se han desarrollado diferentes herramientas para evaluar el estado de la gestión del mantenimiento No se dispone de una herramienta para el diagnóstico del nivel de madurez de la gestión del mantenimiento en el sistema empresarial que contribuya a la toma de decisiones, la mejora de la disponibilidad operacional y la disminución de los costos operacionales. El objetivo de este trabajo fue diseñar una herramienta, tipo encuesta, para validar un modelo de madurez a partir del juicio de expertos. La misma se aplicará en un estudio que está en proceso de investigación. El instrumento es del tipo encuesta, con dos variables de salida, compuesto por dimensiones e Indicadores. Para validar su confiabilidad se realiza a través del alfa de Cronbach, y se determina el grado de concordancia de los encuestados [5,6]. 2. MATERIALES Y MÉTODOS. A partir de un estudio bibliográfico se hace una búsqueda de las posibles herramientas a implementar para realizar una validación, estas son:  Juicio de expertos. La evaluación mediante el juicio de expertos es un método de validación cada vez más utilizado en las investigaciones, “consiste, básicamente, en solicitar a una serie de personas la demanda de un juicio hacia un objeto, un instrumento, un material de enseñanza, o su opinión respecto a un aspecto concreto” [7]. Se trata de una técnica cuya realización adecuada desde un punto de   vista metodológico constituye a veces el único indicador de validez de contenido del instrumento de recogida de datos o de información; de ahí que resulte de gran utilidad en la valoración de aspectos de orden radicalmente cualitativo. Para [7], el juicio de expertos como estrategia de evaluación presenta una serie de ventajas entre las que destacan la posibilidad de obtener una amplia y pormenorizada información sobre el objeto de estudio y la calidad de las respuestas por parte de los jueces. Según los autores, si se tiene en cuenta que “el concepto de experto es bastante polisémico”, su correcta aplicación depende de los criterios de selección y del número adecuado de los mismos. Por lo que atañe al número de expertos necesarios, no hay un acuerdo unánime para su determinación. En [7] la selección del número de expertos depende de aspectos como la facilidad para acceder a ellos o la posibilidad de conocer expertos suficientes sobre la temática objeto de la investigación. Por otra parte, autores como [8] señalan que el número de jueces que se debe emplear en un juicio depende del nivel de experticia y de la diversidad del conocimiento. En relación con los métodos de recogida de la información brindada por los jueces, las posibilidades son varias y, como en el caso de los procedimientos de selección de expertos, incluyen desde los más simples hasta los que implican un alto nivel de estructuración. Pueden realizarse de manera individual, grupal o a través del método Delphi, técnica que ofrece un alto nivel de interacción entre los expertos. El método individual consiste en obtener información de cada uno de los expertos sin que los mismos estén en contacto. Entre las técnicas grupales se encuentra la nominal y la de consenso, en las que se requieren la presencia de expertos y un nivel de acuerdo, que es mayor en el caso de la segunda. También son amplias las posibilidades en relación con los instrumentos de acopio de datos en las que se encuentran la recogida de información a través de cuestionarios, de entrevistas individuales, de grupos de discusión, de listas de características referidas al objeto, aspecto o fenómeno por evaluar. “La selección de uno u otro depende tanto del objeto a evaluar como de los objetivos que persiga el evaluador y la facilidad de acceso a los expertos” [7]. El juicio de expertos es un procedimiento que nace de la necesidad de estimar la validez de contenido de una prueba. Para realizarlo se debe recabar información de manera sistemática.    Metodología Delphi. El método Delphi es una técnica que permite obtener la opinión de un grupo de expertos, es considerado un método de recogida de información. Esta técnica es utilizada para investigaciones cuantitativas, se recomienda cuando no se dispone de información suficiente para tomar una decisión o se necesita tomar una decisión de común acuerdo entre dos o más partes y que son representativas de un grupo de individuos. Este método en una técnica que sirve para obtener información basada en la consulta de expertos en un área determinada, con la finalidad de obtener la opinión consensuada con mayor fiabilidad. A estos expertos se les solicita que respondan cuestionarios de forma anónima e individual (este grupo solo es conocido por la persona que aplica los cuestionarios) tras lo cual emitirán una opinión que represente a dicho grupo. Este consenso puede llegar a ser muy fiable, debido a que al ser un grupo en el que no se   crean liderazgos se amplía la libertad de opinar. Es importante señalar que lo más significativo de la técnica es su característica principal: es prospectiva, es decir, tiene la posibilidad de que se utilice para estudiar y analizar el futuro social, tecnológico y económico [7].  Comparaciones. Se realiza una recopilación de evidencia primaria se hace un análisis comparativo usando como criterios los siguientes ítems: propósito, estructura, procesos, personas involucradas e indicadores. Por último, con base en el análisis previo, se realiza un cuadro de ventajas y desventajas para los modelos tratados en este trabajo, se verifica si se cumple con el objetivo [9]. La propuesta de la herramienta para validar el modelo de madurez se validará por un juicio de expertos y a continuación se diseñará el procedimiento con la herramienta seleccionada y un cuestionario evaluativo. 3. RESULTADOS Y DISCUSIÓN. Para realizar la propuesta de validación lo primero a tener en cuenta es el tipo de investigación desarrollada (fue transeccional o transversal), ya que recogió datos en un solo momento y en un tiempo único, partiendo de la descripción de las variables y analizando su incidencia en un momento dado [10], los tipos de muestras a seleccionar fue la de sujetos – tipos (ya que es apropiada para estudios exploratorios o en investigaciones del tipo cualitativo) [11] y bola de nieve (los primeros participantes se eligen de manera probabilística o no probabilística, y a su vez, estos mismos van dando pistas de otros participantes que podrían ser incluidos en el estudio) [12]. Para el diseño de la encuesta se utiliza el método Likert [13] y para la medición de la confiabilidad de la misma el método de estimación de alfa de Cronbach [14, 15]. Al final de la encuesta se agrega una casilla llamada observaciones para que los especialistas expongan cualquier criterio que consideren necesario. El procedimiento quedaría conformado por tres fases. Figura 1 Propuesta del procedimiento. Fuente: Elaboración propia. Como se aprecia en la figura 1, en la Fase I se determinan los elementos sobre los que se va hacer la validación. Las capacidades estarán determinadas de acuerdo a las consideraciones de los expertos con respecto a la implementación del modelo. Las variables se determinarán a partir de las herramientas de seleccionadas, teniendo en cuenta el desarrollo de las habilidades con respecto a cómo van madurando estas variables.   Los niveles de madurez se seleccionan a partir del modelo que se implementará. Luego de esto se diseñará la herramienta de diagnóstico, esta herramienta será un cuestionario. En la tabla 1, se muestra un primer acercamiento al cuestionario diseñado. Se diseñaron preguntas dicotómicas, ofreciéndose a los encuestados la opción de argumentar, en caso de que lo consideren necesario, cualquier criterio o argumentación que deseen aportar. El método seleccionado para evaluar esta herramienta es el Método de lógica difusa, la escala de evaluación ira desde:  De Acuerdo: (DA)  Medianamente De Acuerdo: (MDA)  Ni De Acuerdo Ni en Desacuerdo: (NA/ND)  Medianamente en Desacuerdo: (MD)  En Desacuerdo Total: (DT) Tabla 1: Instrumento para validar el modelo de madurez. No. Ítems DA MDA NDA/ND MD DT 1→ Se puede aplicar el modelo en la empresa. 2→ El modelo evalúa lo que se desea. 3→ En el modelo propuesto están claramente determinados los elementos que integran el diseño. 4→ El modelo propuesto está desarrollado en base a modelos actuales. 5→ En el modelo propuesto están claramente determinados los elementos constituyentes. 6→ El modelo propuesto es útil para contribuir a la toma de decisiones. 7→ El modelo propuesto es capaz de medir el grado de madurez de la organización. 8→ El modelo propuesto está ligado a otros modelos de madurez. Los datos que ofrece esta encuesta se procesarán a través del método de estimación de alfa de Cronbach, usando el software de Minitab. En la Fase II se seleccionará el grupo de expertos, se tendrá en cuenta que estos deben de ser especialistas en el tema de los modelos de madurez, ya sean nacionales e internacionales, todos con artículos publicados en la WoS, Scopus y Scielo, consultores de la entidad o cualquier otra entidad que esté capacitado en el tema, directivos de la empresa. Aplicación de la herramienta de validación. En la Fase III se procesarán y analizarán los resultados, en esta fase se podría tener un retroceso en el camino, ya que al empezar a procesar se pudo percibir que algunas encuestas o preguntas no estaban respondidas y si se tiene acceso a esa persona se puede tratar de volver a localizarla por lo que se muestra un pequeño reflujo entre el análisis y la implementación. El diseño del instrumento quedó conformado   por la variable de salida (1), las dimensiones (2), los indicadores (4) e ítems (8) como se describe en la tabla 2. Tabla 2: Resumen de los componentes del instrumento para validar el modelo de madurez. Variable de salida Dimensiones Indicadores Ítem Validez del modelo de madurez Pertinencia Contextualización 1-2 Actualidad 3-4 Precisión Claridad 5-7 Concordancia 8 Fuente: elaboración propia 4. CONCLUSIONES. Se logra el objetivo partiendo del análisis bibliográfico de las herramientas y empleando 6 de ellas en la investigación. Se logró identificar que los modelos de madurez se validan a través de herramientas de acuerdo con el campo de aplicación. Se logró proponer una herramienta para validar un modelo de madurez que permitirá validar por un juicio de expertos y se diseñó el procedimiento con la herramienta seleccionada y un cuestionario evaluativo. 5. BIBLIOGRAFÍA. [1] De la Paz Martínez, E., Perfeccionamiento del sistema de mantenimiento en la industria textil cubana: un proceso de mejora continua. 1996, Universidad Central de Las Villas. [2] Lórez, R.Y. and H. Hernández Modelos de madurez de la gestión de la seguridad y salud en el trabajo. 2021. 346. [3] Diaz Concepción, A., et al. Instrumento para medir el grado de implementación de la Resolución 116:2017 del MINDUS. 2020. [4] Perez Mergarejo, E., I. Perez Vergara, and Y. Rodríguez Ruiz Modelo de madurez y su idoneidad para aplicar en pequeñas y medianas empresas. 2014. XXXV, 149-160. [5] Virla M. Confiabilidad y coeficiente alpha de cronbach telos. Revista de estudios interdisciplinarios en ciencias sociales. 2010;12(2):248-52. [6] Bojórquez Molina JA. Utilización del alfa de Cronbach para validar la confiabilidad de un instrumento de medición de satisfacción del estudiante en el uso del software Minitab. In: Eleventh LACCEI Latin American and Caribbean Conference for Engineering and Technology; Cancún, México: 2013. [Citado 18 de abril de 2015] Disponible en: http://www.laccei.org/LACCEI2013-Cancun/. [7] Cabero Almenara, J. and A. Infante Moro, Empleo del método Delphi y su empleo en la investigación en comunicación y educación. Revista electrónica de Tecnología educativa, 2014: p. 1-16.   [8] Pérez., E.-. and Cuervo-Martínez, 2008. [9] Carolina, C.P. and L. P. H., Análisis comparativo de modelos de gestión de tecnología biomédica. Revista Ingeniería Biomédica, 2015. 9: p. 41-49. [10] Sampieri, H.R., Fernández-Collado, C., Baptista, L. P., Metodología de la investigación. Mc Graw Hill ed, ed. t. edición. 2008. [11] Díaz Concepción, A., A.D. Castillo Serpa, and L. Villar Ledo, Instrumento para evaluar el estado de la gestión de mantenimiento en plantas de bioproductos: Un caso de estudio. Ingeniare. Revista chilena de ingeniería, 2017. 25(2): p. 306-313. [12] C., M.-C.B. and S.C.A. B., El muestreo en la investigación cualitativa. Revista Cientifica de Enfermería, 2007. 27 [13] Hayes, B.E., Cómo medir la satisfacción del cliente. 2000, E. G, 2010: p. 194. [14] Bojórquez Molina, J.A., Utilización del alfa de Cronbach para validar la confiabilidad de un instrumento de medición de satisfacción del estudiante en el uso del software Minitab. 2013: p. 14-16. [15] Domínguez Lara, S.A., Propuesta para el cálculo del Alfa ordinal y Theta de armor. 2012. 15: p. 213-217. EL MANTENIMIENTO EN LA EFICIENCIA ENERGÉTICA. MAINTENANCE IN ENERGETIC EFFICIENCY DrC. Francisco Martínez Pérez, profesor e investigador titular Centro de Estudios de Ingeniería de Mantenimiento (CEIM) Facultad de Ingeniería Mecánica, Universidad Tecnológica de La Habana, Cuba. Email: fmartinezperez2013@gmail.com Resumen: El problema de la energía y el ahorro energético se convierte hoy en un problema muy importante a tener en cuenta en el mundo. Si analizáramos el porqué de esto, pudiéramos comentar los siguientes aspectos. La energía se obtiene a partir de las fuentes de energía y las cantidades disponibles de dichas fuentes es lo que se denomina recursos energéticos. El carácter limitado o ilimitado de dichas fuentes nos permite diferenciarlas y valorarlas en términos de sostenibilidad partiendo de la evidencia de que la atmósfera está alcanzando su límite medio ambiental y de que el consumo energético sigue creciendo, con zonas del planeta en pleno desarrollo demandando su equiparación energética con el mundo desarrollado. Las fuentes de energía son finitas, y por lo tanto, su correcta utilización se presenta como una necesidad del presente para que podamos disfrutar de ellas en un futuro. Pero practicar un consumo más responsable e inteligente de la energía que consumimos es tarea de todos. Por todas estas razones hoy se hace indispensable el ahorro energético y la eficiencia energética. En el presente artículo se expone el papel que el Mantenimiento puede y debe jugar en estos aspectos. Abastract: The problem of energy and energy saving today becomes a very important problem to take into account in the world. If we analyze the reason for this, we could comment on the following aspects. Energy is obtained from the sources of energy and the quantities available from such sources is what is called energy resources. The limited or unlimited nature of these sources allows us to differentiate and assess them in terms of sustainability based on the evidence that the atmosphere is reaching its environmental limit and that energy consumption continues to grow, with areas of the planet in full development demanding equalization With the developed world. The sources of energy are finite, and therefore, its correct use is presented as a necessity of the present so that we can enjoy them in the future. But practicing a more responsible and intelligent consumption of the energy we consume is everyone's job. For all these reasons, today, energy saving and energy efficiency are indispensable. In this article it is exposed the role that Maintenance can and should play in these aspects. Palabras clave: Mantenimiento, eficiencia energética, ahorro energético. Key words: Maintenance, energy efficiency, energy saving. INTRODUCCIÓN. La Eficiencia Energética se puede definir como la reducción del consumo de energía, manteniendo los mismos servicios energéticos, sin disminuir nuestro confort y calidad de vida, protegiendo el medio ambiente, asegurando el abastecimiento y fomentando un comportamiento sostenible en su uso [1]. La reducción de la intensidad energética es un objetivo prioritario para cualquier economía, siempre que su consecución no afecte negativamente al volumen de actividad. Uno de los parámetros que determinan la correlación entre consumo de energía y crecimiento económico es la evolución de la intensidad energética, indicador generalista que señala la relación entre consumos de energía y el Producto Interno Bruto [2]. Como consecuencia de los estudios del uso eficiente de la energía, que son realizados por consultores expertos en el uso de la energía, se logra también una mejora en la productividad de la empresa. La implementación de estos estudios genera las condiciones precisas para una gestión de costos más efectiva y contribuye a lograr mayor participación en el mercado. Después de realizado el Estudio Integral de Energía se desarrolla y se tiende a implementar un programa sistemático para la gestión de la energía. Durante los últimos años la reducción de costos de energía en la industria ha sido objeto de cuidadosa atención. Esto se ha venido logrando con la aceptación e incorporación de medidas que permitan implementar proyectos de ahorro y establecer un programa sostenible. En algunas industrias los costos de energía representan un gran porcentaje que puede ir del 7 al 24% del costo de producción total. Con respecto al consumo energético, éste se incrementa a un ritmo superior al crecimiento económico, básicamente debido al comportamiento de los sectores doméstico, comercial y de servicios, y también del industrial y de los grandes equipamientos [3]. En estos estudios y análisis, el Mantenimiento puede y debe tener un papel predominante que, en muchas ocasiones es desconocido o carece de un apoyo decisivo por los gerentes y dirigentes empresariales. El estudio aporta dos ventajas importantes: una mayor protección ante los problemas de suministro de la energía y beneficios superiores por reducción de costos de energía. La realización de estos estudios representa adicionalmente una ventaja competitiva y un factor de diferenciación frente a las empresas que hasta el momento no han adoptado estas exigencias. Ventajas de los estudios del uso de energía:  Ahorro en energía del 7% hasta un 24%, al aplicar los proyectos de Ahorro Energético las cuales buena parte no requieren inversión.  Incremento en la disponibilidad de las líneas de energía.  Mejoramiento de la gestión e ingeniería del Mantenimiento y la introducción del mantenimiento predictivo.  Incremento en la vida útil de los equipos.  Disminución de la contaminación ambiental. DESARROLLO. 2.1 Ahorro y Eficiencia Energética. El diagnóstico energético es una técnica que detecta áreas de oportunidad en materia de ahorro de energía, de una manera clara y específica en todos los sectores o áreas donde se genera el mayor consumo de energía eléctrica. "Para entender la importancia y necesidad del ahorro de energía eléctrica, resulta indispensable reconocer el impacto del sector energético sobre los países y su desarrollo; para ello conviene visualizar el impacto desde sus tres dimensiones: económica, social y ambiental" [4,5]. La asistencia técnica a las empresas, muchas veces toma la forma de una auditoría o diagnóstico energético. El ahorro de energía, inevitablemente, presupone la aplicación y control de métodos técnicamente fundamentados que permitan utilizar la energía con eficiencia y responsabilidad en cualquier lugar que se apliquen. Aunque mucho se ha trabajado en el sector residencial, sin dudas un gran consumidor de energía, es el del sector industrial. Aunque existen estudios y recomendaciones para accionar en cuanto al ahorro energético en este último sector, no lo está al mismo nivel, sobre todo en los países subdesarrollados, así cómo trabajar en el incremento de la eficiencia energética industrial y el innegable papel que puede jugar el mantenimiento en este aspecto. Es precisamente a estos dos temas, a los que está dedicado este artículo. Debe tenerse en cuenta que los costos energéticos relativos al plan de producción son elevados para diferentes industrias y lo son particularmente en algunas de ellas, tal como se puede apreciar en la Fig. 1. Fig. 1 Costos energéticos relativos a los costos totales de producción, en diferentes industrias. La aplicación de un diagnóstico energético es una organización ayuda a encontrar áreas de oportunidad para la optimización de la utilización de la energía. La falta de atención a estas áreas de oportunidad presupone el seguir haciendo un uso ineficiente de la energía eléctrica como insumo de la producción, lo cual mantendrá un alto costo de la misma, y al final se reflejará en la economía de la empresa. En cambio, la realización de un diagnóstico energético en la empresa, mostrará las áreas críticas en cuanto al consumo, para la aplicación de tecnologías más modernas que ayuden al ahorro del consumo de la misma. MATERIALES Y PROCESOS. Las empresas industriales pueden lograr ahorros de energía de hasta un 40%, algunos sin inversión de capital, mediante la aplicación de métodos de gestión energética [6]. El método debe comenzar por detectar aquellas áreas de máxima oportunidad. El plan de gestión energética debe partir de su planificación y organización tal como se muestra en la Fig. 2. Seguimiento y Control Acciones y Aplicación de Medidas Organización y Composición de Equipos de Mejora de la Compromiso Alta Dirección Energético y Diagnóstico Socioambiental Prueba de la Necesidad Diseño de un Plan GESTIÓN TOTAL EFICIENTE DE LA ENERGÍA Fig. 2 Plan para una gestión eficiente de la energía. Analicemos algunos ejemplos: Calentamiento de proceso. De acuerdo con los EE.UU. Las plantas del Ministerio de Energía, fabricación pueden reducir proceso - gastos de calefacción en hasta 15 por ciento a menudo implementando medidas de ahorro energético. La calefacción de proceso da cuenta de más que un tercio del uso de energía en el sector de fabricación así que cualquier ahorro en esta área tiene un gran impacto. En estas instalaciones se puede sacar provecho al monitorear y controlar gases de escape y proporciones de aire - combustible, que mejoran la transferencia de calor. Si el proceso requiere cantidades grandes de agua caliente, se debe precalentar el agua de proceso con un sistema de calefacción solar lo que puede resultar en ahorros importantes para su planta. Motores y equipos. La tracción por máquina representa más de un 22 por ciento de la energía en el sector de fabricación. Analizando las pérdidas de los sistemas se pueden lograr sistemas de eficiencia mayores. Se pueden bajar los costos de explotación significativamente. A veces esto implica reemplazar el equipamiento. Sin embargo, no cada inversión actualizada requiere una gran inversión. Se podría mejorar el rendimiento mecánico de su planta modificando el sistema de mantenimiento existente o los procedimientos de operación. L a eficiencia de energía debe ser medida en relación con la reducción del consumo de energía. Más específicamente, cuánta energía se consume para lograr el adecuado funcionamiento de la máquina. Este principio es aplicable a máquinas que transforman un tipo de la energía química o eléctrica a una mecánica, como es el caso de los motores eléctricos y motores de combustión. Es también aplicable a las máquinas que transmiten la energía mecánica, de la misma manera que cajas de cambios. La energía ahorrada debe ser medida en relación con lo que es utilizado para mover u operar la máquina. Por ejemplo, para un motor de combustión, la reducción en el consumo de combustible sería medida. Para un motor eléctrico y/o caja de cambios, la reducción de energía eléctrica se mide como el voltaje o la Los ahorros de energía también pueden ser medidos indirectamente sólo verificando una reducción en la temperatura operativa. Adicionalmente, se debe trabajar en la identificación de las áreas de oportunidad, determinando el comportamiento de los equipos instalados en determinadas áreas, para hacer un análisis entre su desempeño y su consumo (su eficiencia). Algunas medidas a tener en cuenta, se muestran en la Tabla 1. Tabla 1. Posibles medidas a tener en cuenta en el ahorro de energía. Acción Aspecto Ejemplo Detener Energía La pérdida energética No operación en vacío. No operaciones en falso. Mínimos tiempos de calentamiento. No luces innecesarias. Disminuir Temperatura, presión, flujo,  contrato electricidad Presión aire y vapor, temperatura calentamiento,  volumen agua, volumen aire soplado. Mantener Estado equipos y sistemas Fugas aire, vapor, agua, aceite, combustibles. Material aislamiento. Luminarias. Detener Equipos innecesarios Ventiladores, equipos auxiliares. Dividir Elementos usados en grupos Seccionalización circuitos alumbrado.  Independización sistemas aire comprimido, agua  enfriamiento, etc. Recuperar Calor perdido Recuperación condensado, drenajes calientes. Aprovechamiento energía gases calientes. Cambiar Método producción, proceso,  tipos de energía. Adopción  equipos más eficientes.  Electricidad, gas combustión, refrigeración,  acondicionamiento aire, iluminación, presión  hidráulica, cogeneración. Puntos de chequeo para el ahorro de energía . Las perspectivas a considerar aparecen en la Fig. 3. Perspectivas identificación  potencial conservación energía Pérdidas Desperdicios Recuperación Eficiencia Fig. 3 Perspectivas para la identificación de potenciales de conservación de la energía industrial. Estos diferentes aspectos deben ser considerados de la siguiente forma. Pérdidas: Se refiere a aquellas pérdidas que son mayores que las técnicamente admisibles. Ejemplos: pérdidas de hierro en transformadores sub cargados, energía eléctrica reactiva no compensada, disipación de calor por superficies de tuberías, tanques y paredes que no están bien aislados, fugas de calor por válvulas en mal estado o no bien cerradas, pérdidas de calor por trampas deficientes, pérdidas térmicas en locales climatizados que no están bien hermetizados o protegidos contra la penetración solar y salideros o fugas de todo tipo. Desperdicios: Se refiere tanto a consumos energéticos directos o indirectos, superiores a los requeridos técnicamente, como a los efluentes que contienen un valor energético. Ejemplos: ciclos de cura excesivos en prensas de vulcanización de neumáticos, presión excesiva en instalaciones de compresión de aire o generación de vapor, operación de plantas a bajas capacidades, inadecuada organización de la producción, gases de combustión con temperatura excesiva o con alto contenido de CO, fluidos en general que salen de los procesos con niveles de energía aprovechables. Recuperación: Se refiere al aprovechamiento de la energía desperdiciada. Ejemplos: los más clásicos son la recuperación de condensado y la instalación de economizador o calentador de aire en conducto de salida de gases de calderas y hornos, aunque hay muchos más. Eficiencia: La idea es obtener el mejor comportamiento posible conjugando los elementos técnicos y económicos. Tiene varios componentes: diseño, tecnología, selección, estado técnico y operación de equipos y sistemas. Se debe evaluar la conveniencia de sustituir el activo o seguir explotándolo, siempre mediante un análisis del costo del ciclo de vida. El mantenimiento juega siempre un papel importante en la eficiencia. Al diseñar y ejecutar sistemas de gestión energética se pueden cometer diferentes errores. Ellos son: • Se atacan los efectos y no las causas de los problemas. • Los esfuerzos son aislados, no hay mejora integral en todo el sistema. • No se atacan los puntos vitales. • No se detectan y cuantifican adecuadamente los potenciales de ahorro. • Se consideran las soluciones como definitivas. • Se conforman creencias erróneas sobre cómo resolver los problemas. 2.2 El Mantenimiento y la Eficiencia Energética. [7-12] La función del Mantenimiento: es asegurar que todo Activo Físico continúe desempeñando las funciones deseadas. El objetivo de Mantenimiento, es asegurar la competitividad de la Empresa, garantizando niveles adecuados de la Confiabilidad y Disponibilidad de los equipos, respectando los requerimientos de Calidad, Seguridad Industrial y cuidado del Medioambiente. El objetivo de Mantenimiento es asegurar la competitividad de la Empresa, en esa medida es necesario aumentar la Confiabilidad de los equipos; es decir disminuir la cantidad de fallas que generan interrupciones no programadas, de manera de poder entregar la disponibilidad requerida por Operaciones. Tal como lo muestra el concepto de Confiabilidad Operacional, el área de Mantenimiento no es la única responsable por la Confiabilidad final de los equipos, es todo el Sistema, ya que toda Planta Industrial o Empresa de Servicios, estará integrada por: Procesos, Tecnología, y Gente, en esa medida se puede relacionar la Confiabilidad Operacional, con los siguientes factores determinantes: Confiabilidad de Equipos, Mantenibilidad de Equipos, Confiabilidad Humana y Confiabilidad de Procesos. La eficiencia energética dependerá, al igual que la Confiabilidad Operacional de: Del diseño del equipo, Cómo se opera el equipo y Cómo se mantiene el equipo. La mala operación, y la sobrecarga de los equipos, tendrán nefastas consecuencias tanto sobre la Confiabilidad de los equipos, como con el consumo de energía. La correcta operación es un pilar fundamental de la eficiencia energética. La Eficiencia Energética es la relación entre las energías consumidas y el volumen o cantidad producida o movilizada. La Eficiencia Energética implica poder realizar el mismo trabajo, con igual o menos energía, para poder lograr esto, se debe: Reducir las pérdidas de energía, Aumentar el rendimiento energético, es decir: el trabajo que se obtiene, para la misma energía consumida. Los procesos en sistemas tribomecánicos se caracterizan porque de la potencia mecánica total entregada al sistema, solo una parte se puede obtener en forma de salida útil del sistema. El resto, o bien se acumula dentro del sistema, o bien se pierde hacia el medio circundante, o bien se transfiere como energía térmica, dentro o fuera del sistema. La transmisión de potencia a través de sistemas tribomecánicos solo es factible en presencia de procesos de deformación elástica en las piezas de las máquinas, dentro del sistema. Esta deformación puede ser volumétrica (como en el caso de árboles o dientes de engranajes) o superficial, a través de la superficie de separación de las piezas en contacto (como es el caso de buje y árbol en cojinetes o en los flancos de los dientes de un engranaje). Estos procesos de deformación elástica son reversibles. Los procesos que disipan potencia son, por supuesto irreversibles. En ellos interviene como causa primaria la fricción. La aplicación de la Tribología es esencial en el estudio de la energética de la fricción. Parte del trabajo de entrada al sistema, puede acumularse como energía cinética o potencial en los cuerpos del sistema, o bien puede transformarse en calor debido a fenómenos tales como la deformación plástica, la adhesión de los cuerpos, la histéresis elástica e inclusive el trabajo necesario para producir desprendimiento de material [13]. Cuando se acumula energía, en forma de calor, dentro del sistema, se eleva la temperatura de los cuerpos y con ello se modificarán las reacciones químicas entre los cuerpos, por ejemplo procesos de oxidación superficial y también las propiedades de los cuerpos. Hoy es lo más usual, representar este esquema en el llamado análisis TRIBOTERMODINÁMICO (TTD) (Fig. 4). Fig. 4 Análisis tribotermodinàmico de un tribosistema. La entropía es la magnitud del desgaste de la energía dentro de un sistema. Este desgaste no consiste en la desaparición de la energía, sino de su dispersión en el sistema hacia un estado de mayor equilibrio en que la energía va quedando inutilizable, requiriendo así, un flujo de energía mayor lo que atenta contra le eficiencia del sistema. La tribología, como ciencia y técnica del mantenimiento, es la única disciplina que permite analizar la disminución de la entropía y el incremento de la exergia de todo sistema tribológico o par de fricción como sistema. Para ello hay que emplear la modelación físico matemática. Los análisis tribológicos se desarrollan mediante la modelación física al estudio de los aspectos y características físicas, en un banco de ensayo, conservando la naturaleza física del fenómeno que se estudia [14], el análisis gráfico y la modelación matemática, todo lo cual puede ser consultado en bibliografía especializada [13]. Otra forma más sencilla, es la del empleo de la medición y el diagnóstico, lo cual permite el conocimiento necesario para pronosticar el comportamiento mecánico de la maquinaria industrial. Mediante el empleo de diferentes técnicas de diagnóstico. Para desarrollar las diferentes técnicas de diagnóstico se necesita de una secuencia de pasos que puede ser apreciada en la Fig. 5. Fig. 5 Secuencia de pasos para determinar fallos. Las tecnologías de diagnóstico reflejan cuantitativa o cualitativamente el estado de la maquinaria industrial a partir de la medición de los parámetros síntomas seleccionados. No siempre las tecnologías de inspección y diagnóstico requieren de inversiones previas. Esto quiere decir que existen tecnologías de inspección organolépticas, a veces olvidadas, aunque requieren de experiencia en su aplicación. Las inspecciones de proceso no requieren tecnologías especiales o solo el montaje de dispositivos sencillos, como puede ser la instalación de un Bernoullí para medir flujo. Son valores medibles de parámetros que relacionan el comportamiento y las manifestaciones del proceso productivo. Su campo de aplicación es en procesos productivos donde exista algún atributo del producto o artículo medible y controlado por la automática instalada (sistemas de monitoreado de parámetros) o por la instalación o empleo de dispositivos sencillos (lápices de termo color, equipos Orsat y otros). La aplicación de tecnologías de diagnóstico sí requiere de la adquisición de equipos especializados. Su aplicación, por lo general se hace a equipos dinámicos, aunque hay tecnologías que pueden ser aplicadas a equipos estáticos [15]. Estas tecnologías son: análisis de ruido y vibraciones, análisis termográfico, análisis de aceite y partículas contaminantes y de desgaste y ensayos no destructivos como las más empleadas. El aceite es como la sangre: siempre podemos recurrir a él para que nos diga que está pasando dentro del sistema, pero la correcta interpretación del resultado es la que nos dice qué hacer, dónde hacerlo y cuándo es necesario hacerlo. La serie de técnicas desarrolladas en análisis de aceites pueden ser sorprendentes si sabemos “leer” sus resultados. El aceite recorre todos los componentes del equipo, por lo que podemos mediante un buen monitoreo del lubricante, monitorear internamente el equipo. El desalineamiento es también un depredador energético por excelencia [*][16] . Baste decir que este efecto, causante de al menos el 50% de los problemas que se presentan en la maquinaria industrial, produce pérdidas en la eficiencia del accionamiento eléctrico e incrementa el riesgo de fallos debido a sobrecargas en los cojinetes, sellos y acoplamientos. [*] Palomino. E. Ingeniero Mecánico, Doctor en Ciencias Técnicas, Presidente del Comité Técnico Nacional de Mantenimiento SIMEI-UNAIC. Director del Centro de Estudios Innovación y Mantenimiento, CEIM- CUJAE. La industria consume cerca del 40% de la electricidad, de la cual dos terceras partes son utilizadas por motores eléctricos. Durante los últimos treinta años, el consumo eléctrico mundial casi se ha triplicado; en el mismo periodo, el consumo eléctrico de la industria aumentó un 260%. [17-18]. El Mantenimiento de hoy tiene que ser considerado como una de las actividades fundamentales del proceso productivo y como un servicio proactivo. Las políticas de mantenimiento deben ser establecidas por las personas que están más cerca de los activos. La responsabilidad de la Dirección y Gerencia es de proveer las herramientas que les permitan tomar las decisiones correctas y asegurar que esas decisiones sean sensatas y defendibles, cuidando el aspecto económico. El mantenimiento tiene que ser considerado como esencial durante toda la vida útil de cualquier activo físico- En la Fig. 6 pueden observarse las etapas del ciclo de vida de todo activo físico. Etapas del ciclo de vida de un activo físico. Diseño + Construcción Selección + Instalación (Entorno) Operación (Entorno) Reacondicio- namiento (Entorno) Reingeniería ENFOQUE TECNICO-ECONOMICO-SOCIAL MANTENIBILIDAD GESTIÓN DE MANTENIMIENTO OPTIMIZAR EL COSTO DEL CICLO DE VIDA Fig. 6 Etapas del ciclo de vida de todo activo físico. La única forma de control del rendimiento energético, es a través de Indicadores. Pero, si no se estandariza qué se quiere medir y cómo se va a medir, y con qué frecuencia, no ayudará a controlar y mejorar el sistema. La administración de la energía necesita un enfoque gerencial coherente e integral. La experiencia demuestra que los ahorros de energía sólo son significativos y perdurables en el tiempo cuando se alcanzan como resultado de un sistema integral de gestión energética. En la Fig. 7 pude apreciarse en un diagrama causa-efecto las espinas de pescado de la ineficiencia energética. LAS ESPINAS DE LA INEFICIENCIA Insuficiente evaluación técnico económica de los problemas Desconocimiento del costo de portadores secundarios y control Planificación por datos históricos Bajo nivel de capacitación en administración energética de directivos y especialistas La eficiencia energética no es problema de todos responden a diagnósticos Los bancos de problemas no Falta de atención y motivación-personal clave Insuficiente disciplina tecnológica Inspecciones esporádicas de los índices de insuficiente análisis Baja efectividad e Eficiencia Energética normas por Inexistencia de áreas o equipos Sistemas de Monitoreo y Control Energético incompletos y poco efectivos Acciones aisladas y con seguimiento parcial Instrumentación insuficiente BAJO NIVEL EN GESTION ENERGETICA Bajo nivel de inversiones en ahorro y conservación de energía No identificación de áreas y personal claves en la Efic. E. Fig. 7 Diagrama causa- efecto de la ineficiencia energética. Salvo raras excepciones, las mayores reservas de ahorro de energía en la industria están en el proceso, de ahí que se imponga el conocimiento de la tecnología en la que participan los equipos y la función específica que ellos realizan. El especialista energético debe dominar los elementos fundamentales de todos los procesos de su ámbito de acción, pero para llevar a cabo un eficaz análisis de la economía energética se impone el concurso de los especialistas de operaciones, tecnología y mantenimiento. El sector industrial es muy variado y cada uno de sus subsectores tiene una evolución diferente en lo que se refiere a la eficiencia y el ahorro energético. Los subsectores con mayor potencial de ahorro son el de alimentación, el de bebidas y tabaco, la industria química, el sector de los minerales no metálicos, y el de siderurgia y fundición [19]. En cada uno de estos subsectores los costos energéticos afectan de forma diferente a los costos totales, debido a los diferentes procesos que utilizan. En algunos incluso los ahorros o cambios pueden repercutir en el producto final. Posibles agrupaciones de actividad del sector industrial. [20,21]. • Alimentación, Bebidas y Tabaco • · Textil, Cuero y Calzado • · Madera, Corcho y Muebles • · Pasta, Papel e Impresión • · Química • · Minerales no Metálicos • · Equipos de Transporte • · Metalurgia y Productos Metálicos • · Maquinaria y Equipo Mecánico • · Equipos Eléctricos, Electrónicos y Ópticos • · Resto de la industria manufacturera, entre las que se encuentra la Construcción Estas agrupaciones representan cerca del 90% del consumo total de energía final de la industria. CONCLUSIONES. La energía es, y lo será cada vez más en el futuro, uno de los recursos más importantes para un mundo en vías de desarrollo o desarrollado tecnológicamente. El aumento del consumo energético, unido a la escasez de los recursos energéticos de que disponemos, hará que la eficiencia energética adquiera un papel aún más relevante dentro de nuestra sociedad, de manera que podamos satisfacer las necesidades que tenemos en el presente, sin comprometer las futuras. La tecnología es elemento fundamental en la mejora de la eficiencia de todas las etapas de la cadena de suministro de energía, necesarias para dar respuesta a los desafíos actuales del sector energético: seguridad de suministro, protección del medio ambiente, mejora de la competitividad y mantenimiento del progreso y del bienestar social. El hecho de reducir el consumo energético está relacionado directamente con el beneficio económico obtenido, siendo este beneficio el porqué de dicho consumo. Las mejoras de eficiencia energética de todos los procesos se presentan como la oportunidad de evitar mayores problemas en nuestro planeta. Estas mejoras deben ser conseguidas primordialmente en todos los sectores de nuestra sociedad, y en especial en los sectores más intensivos energéticamente, como es el caso de la industria. En el sector industrial, el consumo energético ha ido aumentando con el paso de los años, alcanzando un peso del 30% en el total del país, siendo el segundo sector con un mayor consumo, solo por detrás del sector Transporte. La aplicación de programas de eficiencia energética, puede ser útil para acercar el problema del consumo no racional de la energía dentro de las empresas. Las medidas a tomar dentro del sector industrial, son las siguientes: realización de auditorías energéticas, la mejora de la tecnología de equipos y procesos, y la implantación de sistemas de gestión energética. Las conclusiones que se pueden obtener de este tipo de estudios permitirán descubrir procesos ineficientes, generar y evaluar acciones correctivas, y desarrollar mecanismos de control y seguimiento de estas acciones. La construcción de indicadores energéticos nos sirve para evaluar las tendencias de la eficiencia energética a nivel macroeconómico y sectorial. En estos propósitos, el mantenimiento puede y debe jugar un papel esencial en estrecha coordinación con operaciones y el especialista o responsable de la energía. Estas acciones deben realizarse durante todo el ciclo de vida de los activos. Para el éxito de estas acciones se requiere el total apoyo y dirigencia de los dirigentes empresariales aplicando principios de ingeniería concurrente y garantizando la capacitación y estimulación de los que trabajan el mantenimiento. BIBLIOGRAFÍA. [1] EFICIENCIA ENERGÉTICA/La eficiencia energética, una preocupación mundial - Monografias_com.htm. [2] Askeland D. Ciencia e Ingeniería de los materiales, International Thompson Editors, ISBN 968- 7529-36-9, Cuarta edición, Méjico. 2015. [3] http://www.monografias.com/trabajos67/eficiencia-energetica/eficiencia- energetica2.shtml#ixzz2KoGsmlTl ISBN 978-959-261-526-7, 2017 [4] Urteaga, J., 2005, Energía racional, FIDE, No. 55 abril-junio 2005, p. 48. [5] Shankar, G., 2006, Energía racional, No. 59 abril-junio 2006, p. 10. [6] Campos, J.C., Quispe, E.C., Vidal, J.R., Lora, E. EL MGIE, un modelo de gestión energética para el sector productivo nacional. El hombre y la máquina, pp. No 30,18-31, 2008. [7] Díaz Caravantes, G., Hernández López J., Velázquez, Armando R., “Desarrollo e implementación de estrategias enfocadas a la disminución del consumo de energía eléctrica en una empresa cervecera” , Impulso, Revistas de Electrónica, Eléctrica y Sistemas Computacionales, España, 2005, pp. 60-67. [8] Realpozo del Castillo, S. F., “Programas de Eficiencia Energética y su Impacto en el Mejoramiento del Medio Ambiente”, Energía Racional, España, pp.26-29 2016. [9] Restrepo V., Álvaro Hernán, 2003, Gestión total eficiente de la energía: herramienta fundamental para el mejoramiento productivo de las empresas, Scientia et Technica, Italia, No. 21, pp. 109- 114 2017. [10] Shankar, G., Energía racional, No. 59 abril-junio 2006, p. 10, España. [11] Urteaga, J., Energía racional, FIDE, No. 55 abril-junio 2005, p. 48. España. [12] Valenzuela Agramón, P., Gabriel Núñez R., Diagnóstico Energético aplicado al edificio de Seguridad Pública del H. Ayuntamiento de Cajeme, Impulso, Revista de Electrónica, Eléctrica y Sistemas Computacionales, pp. 82-85, España. [13] Martínez F , Tribología Integral, Editorial Noriega, México, 2 010 ISBN: 9786070502712, 2010. [14] Hebda M., Chichinadze A., “Manual de Tribotecnia, Tomo I, Mashinoestroenie, 1989,Moscú. [15] Moubray J. “Mantenimiento Centrado en Confiabilidad” Lillington Edward Brothers, 2 004, ISBN 09539603-2, 2017. [16] DAINTITH, E. P. GLATT Reduce costs with laser shaft alignment. Hydrocarbon Proecessing®.1996. [17]ENERGÍA/El%20gasto%20energético%20en%20la%20industria%20- %20Convertidores%20ABB.htm [18] EFICIENCIA%20ENERGÉTICA/El%20Mantenimiento%20y%20la%20Eficiencia%20Energética%2 0-%20Reliabilityweb%20%20A%20Culture%20of%20Reliability [19]Eficiencia energética. Manual de soluciones. www.schneider- electric.com.ar/documents/solutions/catalogo_soluciones.pdf, [20] Club Español de la Energía: “Conceptos de ahorro y eficiencia energética: Evolución y oportunidades”. Green Printing, S.L. ISBN: 978-84-613-8370-2. Marzo 2010 [21] Club Español de la Energía: “Conceptos de ahorro y eficiencia energética: Evolución y oportunidades”. Green Printing, S.L. ISBN: 978-84-613-8370-2. Marzo 2010. Del autor: Ingeniero Mecánico graduado en la Universidad de La Habana en 1971. Especialista en Tecnología Mecánica (Master), compartido entre la Universidad de Waterloo, Canadá y la Universidad de La Habana en 1977. Doctor en Ciencias Técnicas en la Universidad Técnica de Poznan, Polonia en 1984. Es Profesor Titular e Investigador Titular, máximas categorías docente y de investigación en Cuba. PROCEDIMIENTO PARA LA SELECCIÓN DE ACEROS Y DE SU TECNOLOGÍA DE TRATAMIENTO TÉRMICO PARA ELEMENTOS DE MÁQUINA. PROCEDURE ON THE SELECTION OF STEELS AND THEIR HEAT TREATMENT TECHNOLOGY FOR MACHINE ELEMENTS DrC. Francisco Martínez Pérez, profesor e investigador titular Centro de Estudios de Ingeniería de Mantenimiento (CEIM) Facultad de Ingeniería Mecánica, Universidad Tecnológica de La Habana, Cuba. Email: fmartinezperez2013@gmail.com Resumen La selección adecuada y la correcta aplicación de la tecnología del tratamiento térmico para la fabricación de un elemento de máquina necesita de procedimientos y conocimientos que hoy, se hacen mucho más complejos. En todas las carreras de contenido mecánico, es indispensable en pregrado y posgrado no solo su conocimiento sino su correcta aplicación. Es indispensable conocer previamente de las condiciones de trabajo exigidas de temperatura, medio ambiente, resistencias de diferente índole (a tracción, flexión, torsión, fatiga) sino que en ocasiones se necesitan diferenciar las propiedades del núcleo de las de la superficie, lo que exige del conocimiento de una nueva ciencia, “la ingeniería de superficies”. En el presente trabajo en forma de razonamientos algorítmicos y aplicando aspectos novedosos, algunos desarrollados por el autor, se pretenden facilitar los elementos esenciales para lograr una aplicación exitosa que garanticen las exigencias de trabajo del elemento y su correcta enseñanza. Abstract: The proper selection and correct application of heat treatment technology for the manufacture of machine elements, requires procedures and knowledge that today, become much more complex. In all careers of mechanical content, it is essential in undergraduate and postgraduate not only their knowledge but their correct application. It is essential to know previously the required working conditions of temperature, environment, resistance of different kinds (tensile, flexion, torsion, fatigue) but sometimes it is necessary to differentiate the properties of the core from those of the surface, which requires of the knowledge of a new science, "surface engineering". In the present work in the form of algorithmic is introduced reasoning and applying novel aspects, some of theme, developed by the author. It is intended to facilitate the essential elements to achieve a successful application that guarantee the work requirements of the element and its correct teaching. Palabras clave: Educación Producción de elementos de máquina, Tecnología de Tratamientos Térmicos, Ingeniería de Superficies, Algoritmización, Procedimiento. Key words: Education Production of machine elements, Heat Treatment Technology, Surface Engineering, Algorithmization, Procedure. INTRODUCCIÓN La respuesta integral que se necesita en un elemento de máquina está íntimamente relacionada no solo con la correcta selección del material a utilizar, sino con la tecnología de tratamiento térmico que debe ser aplicada. La resistencia de un elemento de máquina, en muchos casos exige de la obtención de estructuras martensíticas, siendo estas las que brindan una mayor dureza y resistencia. A su vez, muchos elementos de máquina requieren propiedades diferentes en el núcleo que en la superficie, donde están presentes exigencias de poco desgaste. Hoy la problemática de las exigencias de una superficie necesita de la aplicación de elementos de tribología y de ingeniería de superficies. La formación de gradientes de esfuerzo en procesos de desgaste adhesivo, implican la posibilidad de que el desgaste y la fricción se concentren solo en la capa superficial con la menor penetración posible en la misma de los esfuerzos actuantes. De no ser así, se corre el riesgo de que el desgaste se produzca desde el interior de la capa y por tanto sea mucho mayor y también el daño. En el proceso de temple de un acero, se deben tener en cuenta su composición química, el contenido real de carbono, el medio de enfriamiento (su temperatura y agitación), las dimensiones y formas del elemento y la necesidad o no de diferenciar propiedades en el núcleo y superficiales. En el trabajo se propone un procedimiento, utilizando varios enfoques algorítmicos, que permiten que la aplicación de todo el proceso de obtención de las propiedades integrales del elemento sea considerada y permita un mejor resultado. Se presentan varias tablas y figuras que permiten alcanzar estos propósitos; habiendo sido empleados en la práctica industrial con resultados satisfactorios. DESARROLLO. No se pretende en el trabajo profundizar en la selección del acero a emplear. La existencia de diversas publicaciones y artículos referidos al tema [1-6] hace esto innecesario. Por el contrario se profundizará en todo lo referido a la selección y correcta aplicación de la o las tecnologías de tratamiento térmico, así como en lo referido a la ingeniería de superficies [7], en cuanto a diferenciar las propiedades de núcleo y superficie y la interrelación entre ambos. TRATAMIENTO VOLUMÉTRICO O AQUEL EN QUE SEA NECESARIO DIFERENCIAR PROPIEDADES DEL NÚCLEO Y LA SUPERFICIE. El primer aspecto a tener en cuenta en la selección de la tecnología de tratamiento térmico a emplear para la completa satisfacción de las exigencias de trabajo estará destinado a conocer de la necesidad o no de diferenciar las propiedades de núcleo y superficie y el garantizar su adecuada interrelación. Hay que tener en cuenta desde un principio que a medida que se avance en este procedimiento, habrá quizás la necesidad de cambiar el acero inicialmente seleccionado. Este primer aspecto llevado a un enfoque algorítmico se podrá ver así (Fig. 1). Fig. 1 Enfoque algorítmico en el primer paso del procedimiento. Analicemos en primer término la variante en que no se hace necesario diferenciar las propiedades del núcleo y superficie. En este caso, el procedimiento de la tecnología a emplear deberá incluir el riguroso análisis de la resistencia exigida para garantizar las condiciones de trabajo y esto incluirá las características estructurales del material. En este análisis hay que incluir: a) ¿Qué tipo de solicitudes están actuando? (resistencia a la tracción, a la flexión, a torsión, a la fatiga, solicitudes combinadas, existen cargas de impacto, qué temperatura es la de trabajo, etc.) b) Dimensiones del elemento. c) Condiciones tecnológicas existentes de fabricación, número de elementos a fabricar. Todos estos aspectos harto conocidos, no son parte esencial en el procedimiento que se presenta, el cual aportará un análisis que parte esencialmente de conocer qué cantidad de martensita se necesita en el núcleo y cómo esto se logra, si se tiene en cuenta la forma y dimensiones de la pieza y las características del medio de temple (esto estará íntimamente relacionado con el concepto de templabilidad). El cálculo de la templabilidad es un problema tecnológico perfectamente definido en numerosos libros de texto y otras publicaciones sobre Tratamiento Térmico [8,9]. En lo fundamental, se parte de los resultados obtenidos después de un análisis en un equipo para el ensayo Jominy. En este ensayo se puede establecer una relación entre la distancia del extremo templado en la probeta normalizada para el mismo y se emplean los parámetros normalizados para el ensayo Jominy, como es, el de conocer el diámetro máximo en el que se puede obtener un 50 % de transformación martensítica en el acero en cuestión. La obtención del 50 % de transformación martensítica dependerá del contenido de carbono y de la presencia de elementos aleantes. Selección del acero ¿Es necesario diferenciar las propiedades del núcleo y de la superficie? SI NO En la tabla 1 se puede apreciar para aceros al carbono y aleados la dureza promedio posible a alcanzar en una zona con un 50 % de martensita [2]. Tabla I. Dureza promedio en la zona de 50 % de martensita en función del contenido de carbono y del tipo de acero. CONTENIDO DE CARBONO (%) HRC Al carbono Aleados 0,08-0,17 - 25 0,18-0,22 25 30 0,23-0,27 30 35 0,28-0,32 35 40 0,33-0,42 40 45 0,43-0,52 45 50 0,53-0,62 50 55 ≥ 0,63 55 60 En la tabla 2 se observa con mayor precisión la dureza que puede alcanzarse en función del contenido de carbono y el contenido de la transformación martensítica [2]. En la Tabla 3 se puede apreciar el efecto que tiene la concentración drl carbono y el % de martensita (M) en la dureza promedio del acero templado. Tabla II. Efecto de la concentración de carbono y el % de martensita (M) en la dureza promedio del acero templado. % Carbono HRC 99 % M 95 % M 90 % M 80 % M 50 % M 0,10 38,5 32,9 30,7 27,8 26,2 0,20 44,2 40,5 38,2 35,0 31,8 0,30 50,3 47,0 44,6 41,2 37,5 0,36 53,9 50,4 47,6 44,4 40,5 0,38 55,0 51,4 49,0 45,4 41,5 0,40 56,1 52,4 50,0 46,4 42,4 0,42 57,1 53,4 50,9 47,3 43,4 0,44 58,1 54,3 51,8 48,2 44,3 0,45 59,1 55,2 52,7 49,0 45,1 0,48 60,0 56,0 53,5 49,8 46,0 0,50 60,9 56,8 54,3 50,6 46,8 0,52 61,7 57,5 55,0 51,3 47,7 0,54 62,5 58,2 55,7 52,0 48,5 Sin embargo, si se quiere analizar la templabilidad de una pieza cualquiera, los resultados del ensayo Jominy, constituyen solo un primer paso, que además necesita de consideraciones adicionales, y que después de obtenido el resultado, se exige de la aplicación de una serie de pasos adicionales, que conforman una metodología de cálculo [3, 8, 9]. En este trabajo se pretende presentar esa metodología, mediante un algoritmo de cálculo, lo cual fue empleado exitosamente para el análisis de la templabilidad de varios elementos. Esta metodología en forma de algoritmo se muestra en la Fig. 2 Conocer el marcaje del acero que se emplea, según el país y el fabricante. Realizar análisis espectral y conocer exactamente composición química Calcular el carbono equivalente Realizar ensayo Jominy Calcular la superficie y volumen de la pieza a dar temple Calcular el factor de forma y determinar la templabilidad real de la pieza Ajustar el valor de la templabilidad real a partir del medio de enfriamiento que se emplee y las condiciones del mismo Es conveniente comparar con especificaciones del fabricante Fig. 2 Algoritmo para el cálculo correcto de la templabilidad de una pieza. En el ensayo Jominiy, la templabilidad se halla con una relación L/D = 3 (como la del ensayo Jominy), en que se alcanza, con diferentes medios de enfriamiento, un temple total volumétrico (al menos 50 % de martensita en el núcleo). Este diámetro se denomina diámetro ideal (Di). Como se comprenderá, las piezas no guardan necesariamente esta relación (L/D = 3). Para saber si una pieza cualquiera puede tener una templabilidad total se emplea un factor de forma Kf. Dp = Di  Kf (1) Donde: Dp – es el diámetro o espesor medio de la pieza posible a obtener temple total. Di – diámetro ideal según el ensayo Jominy. Kf – factor de forma. A su vez, el factor de forma es igual a (S/V)p = (S/V)j  Kf (2) Donde: (S/V)p – es la relación superficie/volumen de la pieza real a calcular (S/V)j – es la relación superficie/volumen de la probeta Jominy Por otra parte, los diferentes medios de enfriamiento inciden en el valor del diámetro crítico ideal (Di). Esto se debe a varias causas, pero en lo fundamental, a la severidad con que se transmite el calor de la pieza al medio. Los medios de enfriamiento presentan severidades de temples diferentes, no solo entre ellos (como se puede apreciar en la tabla 3) sino también en función de su temperatura y de la velocidad de circulación. Tabla III. Severidad del temple comparativa de diferentes medios de enfriamiento en función de la temperatura del medio en 0 C y de la velocidad de circulación del medio en m / s. TEMPERATURA DEL MEDIO 0 C MEDIO VELOCIDAD DE CIRCULACIÓN m / s SEVERIDAD 32 AGUA 0 O,25 0,51 0,76 1,1 2,1 2,7 2,8 55 0 0,25 0,51 0,76 0,2 0,6 1,5 2,4 0 0,25 0,5 1,0 60 ACEITE RÁPIDO 0,51 0,76 1,1 1,5 De la tabla se puede apreciar que el agua tiene una severidad de temple mayor que la del aceite; y que a medida que se incrementa la velocidad de circulación se incrementa la severidad de enfriamiento, tanto en el agua como en el aceite. Existen diferentes tipos de aceite de enfriamiento. En la tabla 3 se compara el agua con aceites rápidos, los cuales duplican o triplican su severidad de temple en comparación con los convencionales. Además se recomienda emplear el enfriamiento en aceite, calculando este hasta 60-70 °C 3. Por otra parte, la velocidad de enfriamiento de los diferentes medios también depende del rango de temperatura en que este se produce. Esto puede apreciarse en la tabla 4 2. Como conclusión, los resultados del % de martensita a obtener y hasta qué profundidad se alcanza la misma no solo dependen del acero empleado, sino del medio de enfriamiento, su temperatura, sus características de agitación y la forma y tamaño de la pieza tratada, factores todos que hay que tener en cuenta y con ellos incidir en el resultado primario. Tabla IV. Velocidad de enfriamiento de diferentes medios en función del rango de temperaturas durante el enfriamiento. MEDIO DE ENFRIAMIENTO VELOCIDAD DE ENFRIAMIENTO EN 0 C / s RANGO 650-500 0 C RANGO 300-200 0 C Agua a 30 0 C 500 270 Agua a 50 0 C 100 270 Agua a 75 0 C 30 200 Emulsión de aceite en agua 200 - Aceite mineral promedio 100-150 20-50 Aire comprimido 30 10 Aire tranquilo 3 1 De esta forma, si se tiene en cuenta todos los elementos propuestos, se podrá obtener un resultado favorable de la templabilidad exigida. A continuación se mostrará el procedimiento de cálculo en los casos en que se necesita diferenciar las propiedades del núcleo y de la superficie. TRATAMIENTO EN QUE SE NECESITAN DIFERENCIAR LAS PROPIEDADES DEL NÚCLEO Y DE LA SUPERFICIE [7]. Los primeros aspectos a considerar en este caso serán: a) ¿Qué propiedades se exigen en la superficie? b) ¿Qué propiedades se exigen en el núcleo? c) ¿Qué profundidad de capa se necesita? d) Posible gradiente de esfuerzos que se generan en núcleo-superficie. Los dos primeros aspectos son datos de condiciones de trabajo. Para el cálculo de la profundidad de capa en el caso de ejes sometidos a flexión puede ser llevado a cabo según el procedimiento que se muestra. En un sistema de coordenadas a escala, se situarán en el eje Y, dimensiones en mm, colocando en primer término el radio del eje y en el eje X en MPa se irán colocando valores de diferentes esfuerzos. Este esquema se verá de la forma que se muestra en la Fig. 3. En otros casos en que los esfuerzos de contacto penetran profundamente dentro del componente, hacia toda la capa superficial o aún más debajo de la misma (gradientes negativos), se necesitan de métodos que generen capas superficiales más gruesas. Fig. 3 Esquema para el cálculo del espesor de capa en función de los esfuerzos de flexión actuantes. Sobre la línea que demarca el extremo del radio del eje se situará el valor del esfuerzo de flexión actuante, el cual designaremos por σfla. A continuación sobre el mismo eje se situará el valor del esfuerzo de flexión del material en su capa superficial, que designaremos como σflm Como es natural, σflm > σfln, lo cual, unido a la profundidad necesaria de capa a obtener, nos indicará, el valor que debe obtenerse en la capa, lo que, a su vez delimitará, como veremos más tarde el tipo de tratamiento superficial a emplear. A continuación, sobre la línea X se situará el valor del esfuerzo de flexión exigido en el núcleo del material que designaremos por σfln. Como es conocido los esfuerzos de flexión aplicados a un eje, siguen una mm MPa Radio del eje σfla σflm σfln 0 A B F Espesor de capa e distribución lineal desde la superficie hasta el centro, por lo que uniremos σfla con el origen de coordenadas que será el centro del eje (Ver. Fig. 1). A continuación, levantando una recta desde σfln hasta el punto D, se conocerá hasta que profundidad hay que obtener la capa, para dar una respuesta integral a la solicitud de esfuerzo demandadas, este valor estará dado por σfln – D. De esta forma podrá establecerse basado en la semejanza de triángulos una fórmula matemática para calcular el espesor de capa e. σfla / r = σfla - σfln / e (3) donde: σfla es el esfuerzo de flexión aplicado. r es el radio del eje σfln es el esfuerzo de flexión que soporta el núcleo. e es el espesor de capa que se desea calcular. Por lo tanto: e = (σfla - σfln ) r / σfla (4) Siempre será conveniente incrementar el espesor calculado en 0,1 – 0,15 mm con la finalidad de evitar el punto crítico D. Analicemos ahora como aspecto final, desde el punto de vista de la ingeniería de superficies, qué tipo de capa deberá emplearse, lo cual podrá también establecer la necesidad de variar el acero a emplear, siempre que se garanticen en el mismo las condiciones anteriormente establecidas. Para este análisis habrá que tener en consideración el gradiente de esfuerzos que se puedan producir, lo que no está dentro de los objetivos de este trabajo. La amplia diversidad de materiales superficiales ingenieros existentes, permiten al diseñador su selección, al menos con cierta amplitud, en vez de utilizar materiales volumétricamente iguales al de su superficie [10,11]. La Fig. 4 muestra el amplio rango de combinación de profundidad de capa y de dureza que puede obtenerse en las superficies por estos métodos [3]. Dureza HV 1 0000 5 000 2 000 1 000 500 250 0,01 0,1 1 10 100 1 000 10 000 100 000 Espesor en μm Fig. 4 Profundidades y durezas típicas de diferentes formas de recubrimientos y endurecimientos superficiales. De la Fig 4., puede concluirse que diferentes métodos ofrecen diferentes posibilidades de combinación de profundidades y dureza de la capa superficial. Es de destacar que faltan algunos métodos como el níquel químico, el niquelado, el cromado, el fosfatado y otros. En métodos como son, las deposiciones superficiales con PVD, CVD o las implantaciones iónicas, en los cuales se obtienen solo capas de pequeño espesor y gran dureza; su empleo, será útil, en aquellas aplicaciones con una extensión de desgaste mínima y donde el esfuerzo actuante en la superficie decrezca rápidamente, durante el trabajo, de forma tal que la delgada capa superficial no sea eliminada. Esto está asociado con que se alcance la etapa de interacción elástica rápidamente. CONCLUSIONES En el presente trabajo se ha mostrado, mediante un razonamiento algorítmico y utilizando diversas tablas y figuras, algunas fueron elaboradas por el autor, un procedimiento para el cálculo más acertado de selección de tecnologías de tratamientos volumétricos de piezas de acero o de aquellas en que se necesita diferenciar las propiedades entre el núcleo y la superficie de algunos elementos de máquina de aceros. En este último se ha introducido el concepto de la ingeniería de superficie para lograr respuesta, no solo en cuanto a las exigencias de resistencia y dureza de la capa más externa del elemento, sino también en cuanto a la profundidad de la capa para evitar que las cargas actuantes provoquen daño en el núcleo del material, por un insuficiente espesor de capa. Se brindó una figura para el cálculo de la profundidad de capa en elementos sometidos a cargas de flexión. BIBLIOGRAFÍA. Leyenda:   Deposición al vació con vaporización química con diamante.   Implantación iónica.   Métodos de PVD, CVD y NTi   Borado.   Nitruración   Cementación.   Proyección gasotérmica.   Nitro cementación de aceros ferríticos.   Temple superficial. [1] Martínez F., “Teoría y Tecnología del Tratamiento Térmico”, Editorial Pueblo y Educación SNLC: CU 01.68820.3, La Habana, Cuba, 1 988 (Edición ampliada y corregida, también texto nacional). Fue reeditada en abril 1 990. SNLC: RA01.13820.0 [2] Martínez F “Tecnología del Tratamiento Térmico, Un enfoque sistémico”, Editorial Félix Varela, ISBN: 958-258-113-4, La Habana, Cuba, marzo 2 000. [3] Apraiz Barreiro J. “Tratamientos Térmicos de los Aceros” ISBN 8423705684, 8va. Edición, España, junio 1984. [4] Kudriatseva I. V. “Materiales en la Construcción de Maquinarias” Manual Tomos II y III, Moscú, Tercera Edición, febrero 2005, ISBN 621-002-33-3 [5] Arza Masova B.N. “Materiales de Construcción”, Manual, Moscú, Tercera Edición, septiembre 2006, ISBN 5-217-01112-2 [6] Valencia A. “Tecnología de Tratamiento Térmico de los Metales” Tercera Edición, Colombia, 1988, ISBN 958-655-081-8. [7] Martínez F “¿Qué es la Ingeniería de Superficies? Cuál es su aplicación?”, CubaMan, NT 272, CUJAE, Habana, Cuba, marzo 2014. [8] Martínez F “Teoría y Práctica de la Tecnología de Tratamiento Térmico de aleaciones ferrosas”, En proceso de Edición, Colombia, julio 2 015 [9] Caballero N. “Manual de Práctica de Tecnología de Tratamiento Térmico”, ISBN 978-959-261-314-0, La Habana, Cuba, enero 2012. [10] ASM International, ASM Handbook, Second Edition, octubre 1988, ISSN 0-87170-377-7. [11]Martínez F “Análisis de la relación entre las propiedades de la superficie y el volumen del cuerpo desde la Ingeniería de Superficies”, Revista Cubana de Ingeniería, Revista Cubana de Ingeniería, ISSN 2223-1781 Vol. III, No. 2, mayo -agosto, agosto 2012, pp. 51 – 57. Del autor: Ingeniero Mecánico graduado en la Universidad de La Habana en 1971. Especialista en Tecnología Mecánica (Master), compartido entre la Universidad de Waterloo, Canadá y la Universidad de La Habana en 1977. Doctor en Ciencias Técnicas en la Universidad Técnica de Poznan, Polonia en 1984. Es Profesor Titular e Investigador Titular, máximas categorías docente y de investigación en Cuba. Los modelos para medir la madurez en una organización en el proceso de mantenimiento. Es necesario? Models to measure maturity in an organization in the maintenance process. Necessary? Leisis Villar LedoI, Alexei Fernández DurandII, Armando Díaz ConcepciónIII, Martha Beatriz InfanteIV, José Alberto VilaltaV, Alberto Julio Rodríguez PiñeroVI I Universidad Tecnológica de la Habana José Antonio Echeverría, Departamento de Ingeniería Industrial. La Habana. Cuba. leisis@ind.cuaje.edu.cu II Centro Nacional de Biopreparados, BIOCEN, alexei.fdez@biocen.cu III Universidad Tecnológica de la Habana José Antonio Echeverría, Centro de Estudios en Ingeniería de Mantenimiento, La Habana. Cuba.adiaz@mecanica.cujae.edu.cu IV Universidad Tecnológica de la Habana José Antonio Echeverría, Departamento de Ingeniería Industrial. La Habana. Cuba. miabreu@ind.cujae.edu.cu V Universidad Tecnológica de la Habana José Antonio Echeverría, Departamento de Ingeniería Industrial. La Habana. Cuba jvilalta@ind.cujae.edu.cu. VI Universidad Tecnológica de la Habana José Antonio Echeverría, Centro de Estudios en Ingeniería de Mantenimiento, La Habana. Cuba.alberto@mecanica.cuaje.edu.cu RESUMEN Uno de los procesos básicos en cualquier entidad para garantizar la sostenibilidad económica de la misma es el proceso de mantenimiento. El objetivo de este artículo fue analizar las diferentes herramientas aplicadas para el diagnóstico de la gestión del mantenimiento a través de una revisión bibliográfica realizada en este campo y de forma conjunta la demostración de la necesidad o no de disponer de un modelo que mida la madurez en el proceso de mantenimiento en las organizaciones. Para el análisis se empleó el método de análisis y síntesis así como el método de análisis de conglomerados. Se analizaron un total de 33 herramientas mostrándose las características de cada herramienta en forma de tablas aplicándose análisis de estadística descriptivas. El estudio bibliográfico proporciona a los investigadores los beneficios e insuficiencias para la selección de herramientas que mejor se contextualicen a su campo de trabajo, dentro del mantenimiento, potenciando así, la toma de decisiones ante los problemas presentados. Además se propone un concepto de mantenimiento en estrecha relación con su función y objetivo. PALABRAS CLAVES: Diagnóstico, gestión de mantenimiento, herramientas, toma de decisiones, modelo de madurez ABSTRACT One of the basic processes in any entity to guarantee its economic sustainability is the maintenance process. The objective of this article was to analyze the different tools applied for the diagnosis of maintenance management through a bibliographic review carried out in this field and jointly the demonstration of the need or not to have a model that measures the maturity in the maintenance process in organizations. For the analysis, the analysis and synthesis method was used, as well as the conglomerate analysis method. A total of 33 tools were analyzed, showing the characteristics of each tool in the form of tables, applying descriptive statistical analysis. The bibliographic study provides researchers with the benefits and insufficiencies for the selection of tools that are best contextualized to their field of work, within maintenance, thus enhancing decision-making in the face of the problems presented. In addition, a maintenance concept is proposed in close relation to its function and objective. KEY WORDS: Diagnosis, maintenance management, tools, decision making, maturity model INTRODUCCIÓN Las investigaciones relacionadas con la gestión de mantenimiento comienzan a desarrollarse fundamentalmente en la última etapa de la década de los años 90 del siglo XX, notándose, en las publicaciones seleccionadas para este estudio, un incremento de la necesidad e interés de abordar el diagnóstico a la gestión del mantenimiento, lo que se refleja posteriormente en las investigaciones que se realizan y publican en el presente siglo XXI. De aquí que se han diseñado diferentes herramientas de diagnóstico [1-3] para los diferentes sectores del ámbito empresarial. Estas fueron creadas para ayudar a las organizaciones a mejorar su desempeño, al brindarle con este análisis, el grado de economía, eficiencia y eficacia en la planificación, control y uso de sus recursos [1]. En las últimas décadas la concepción del mantenimiento a nivel internacional ha cambiado, pasando de una actividad reactiva a adoptar una concepción proactiva y extendiéndose a asegurar la confiabilidad de los activos a través de acciones concretas, vinculadas a nuevas prácticas y referenciada bajo un sistema de gestión a través del cual se define cómo se realizan los procedimientos, de manera tal que puedan ser medidos y auditados de forma más precisa [2]. La gestión del mantenimiento es la variable que más repercute en el desempeño de la función mantenimiento. Con una administración efectiva de las labores de mantenimiento, en cualquier tipo de empresa, se puede obtener la máxima calidad posible y un control eficiente de los costos y recursos materiales utilizados en los activos, garantizando disponibilidad, confiabilidad y rendimiento operativo de los equipos, con un alto nivel de eficiencia en los costos. La forma actual de gestionar el mantenimiento está estrechamente vinculada al proceso de producción o servicio que se realice por lo que se hace de extrema importancia conocer las particularidades de diferentes herramientas para poder seleccionar la más idónea a cada contexto radicando en este punto la necesidad de esta investigación. En este trabajo se analizaron las diferentes herramientas aplicadas para el diagnóstico de la gestión del mantenimiento a través de una revisión bibliográfica. Los resultados de la investigación realizada permiten a los investigadores conocer los beneficios e insuficiencias para la selección de herramientas que mejor se contextualicen a su campo de trabajo, permitiendo la toma de decisiones ante los problemas presentados así como la demostración de la necesidad de contar con un modelo que permita estimar el grado de madurez de una organización en el proceso de mantenimiento. Y se propone un concepto de mantenimiento relacionado con su función y objetivo. MÉTODOS El desarrollo de esta investigación acerca de las diferentes herramientas (modelos, procedimientos y metodologías) empleadas para el diagnóstico de la gestión del mantenimiento se realiza empleando la Metodología de clasificación propuesta por Lage y Godinho [4] pero contextualizada a este objeto de investigación; se compone de los siguientes pasos: 1. Desarrollo del marco conceptual. 2. Revisión del estado del arte y planteamiento del método de clasificación. 3. Organización y tabulación de la información. 4. Análisis y conclusiones arribadas. Para el análisis de conglomerados o análisis clúster se utilizaron todas las variables analizadas en el paso 3 Organización y tabulación de la información. Al ser variables cualitativas se utilizó el método Ward y la distancia raíz cuadrática euclidiana según proponen [5] que utilizan en sus investigaciones variables de este tipo. RESULTADOS En la bibliografía investigada se recoge una amplia gama de autores que han conceptualizado el término mantenimiento fundamentado en la época en que se propuso la definición, entre algunos conceptos publicados, en [6] se proponen varios de estos conceptos así como el que se toma como base para este trabajo.  Revisión del estado del arte y planteamiento del método de clasificación En las últimas décadas, se han desarrollado diferentes herramientas para evaluar el estado de la gestión del mantenimiento. Para esta investigación fueron seleccionadas 52 bibliografías publicadas en internet entre los años 1990–2020. De ellas fueron seleccionadas 33 (ver listado de bibliografías en el anexo) donde los autores realizaron su trabajo utilizando las herramientas necesarias para esta investigación, se tuvo en cuenta como criterio de inclusión que fuesen herramientas referenciadas en bases de datos con soporte científico y/o libros, incluyéndose trabajos publicados en tesis doctorales y de maestría, donde se demostró rigor científico en su obtención y validación. Los elementos investigados para cada bibliografía fueron:  Áreas funcionales: determinar si la evaluación se realiza por áreas funcionales o no, y en caso afirmativo cuáles son estas áreas.  Forma de obtener la información: directa (observación in situ o revisión de documentos) o indirecta (a partir de encuestas).  Variables analizadas por los autores: elementos de la gestión del mantenimiento evaluados. En el estudio, a cada bibliografía analizada se le otorga el valor 1 si contiene el aspecto analizado relacionado con la gestión del mantenimiento y el valor 0 si no lo contiene. En el caso del análisis de los elementos de la gestión del mantenimiento se amplió el rango de valoración entre 0 y 3, sobre la base de la cantidad de ítems que propone cada autor para la evaluación de cada elemento, a continuación se exponen los criterios, Tabla 1. Tabla 1. Valores y criterios de evaluación. Valor Criterio 0 No analiza el elemento. 1 Lo analiza débilmente, propone un (1) ítem para establecer su estado. 2 Lo analiza con mayor exactitud proponiendo entre 2 y 3 ítems para establecer su estado. 3 Es analizado con suficiente profundidad proponiendo más de 3 ítems para establecer su estado.  Organización y tabulación de la información La información recogida de las distintas herramientas fue organizada en tablas. En la tabla 2 se exponen las distintas herramientas, así como se analiza la gestión del mantenimiento en cada entidad a través de la división de áreas funcionales o no y en caso, de existir las áreas funcionales, cuantas y cuáles son analizadas, así como, también la forma de análisis de las mismas. En la tabla 3 se muestran los resultados de las valoraciones dadas por los expertos a cada componente de la gestión del mantenimiento de cada herramienta analizada.  Análisis y conclusiones Los resultados tabulados del análisis de las diferentes metodologías y características técnicas se pueden ver en [6]. Del análisis de la tabla 2 se puede concluir que 16 herramientas, el 64 %, se publicaron a partir del 2011 por lo que se consideran de actualidad el tema investigado. En la Fig. 1 se muestra como están diseñadas de forma general estas herramientas en cuanto a las áreas funcionales. Figura 1: Áreas funcionales de las herramientas Del análisis de la Figura ig.1 se observa que el 64,5 % (20) de las herramientas proponen la evaluación de la gestión del mantenimiento a partir del análisis de áreas funcionales, sin embargo los autores difieren entre cuántas y cuáles son estas áreas. En cuanto a la cantidad, varían desde 4 hasta 12, siendo las áreas más comunes organización (19) y capital humano (17), seguidas por otras como planificación (13), ingeniería (11), economía (10) e infraestructura (10). Es de señalar que como las áreas difieren entre sí, en algunos casos las mismas se combinan En cuanto a los elementos de la gestión del mantenimiento presentes en las diferentes herramientas, se determinan un total de 32 elementos diferentes. En la Fig. 2 se muestran un análisis cuantitativo de cómo estos elementos se encuentran presentes en las herramientas. Para este análisis a cada elemento se le otorga el valor 0 si no lo analiza y el valor uno (1) si lo analiza, independientemente de la fortaleza del análisis, según [6]. Figura 2: Resultados cuantitativos del estudio de las herramientas en cuanto a los elementos de la gestión del mantenimiento En la Figura 2 se puede observar que el 90 % de los elementos son tratados en al menos el 50% de las herramientas analizadas, siendo los menos tratados sistema de mantenimiento (1), gestión de lubricación (1)], diagnóstico de mantenimiento (13) y portadores energéticos (18). Esto demuestra que aun cuando hay diferencias de criterios en cuanto a las áreas funcionales a analizar, si existe acuerdo entre los elementos que deben ser evaluados en la gestión del mantenimiento. Un análisis de cómo están presentes estos elementos dentro de cada herramienta se muestra en la Figura 3. Figura 3: Total de elementos analizados por cada herramienta En la Figura se puede observar como más del 90 % (29) de las herramientas analizan al menos el 75 % (24) de los elementos determinados, con 12 herramientas que analizan 30 o más de estos. En este grupo se destacan las herramientas propuestas por [3 y [7] que evalúan todos los elementos, ratificando que existe encuerdo en este aspecto entre los diferentes autores. Solo las herramientas planteadas en [8] y [2] no se encuentran dentro de este grupo. Posteriormente se realiza un análisis sobre la fortaleza con la que se aborda cada uno de estos elementos, a partir del promedio de las valoraciones dadas a cada elemento [entre cero y tres, según se planteó con anterioridad] en cada herramienta. Este resultado se muestra en la Fig. 4. Figura 4: Valoraciones promedios de los elementos A partir del análisis de la Figura 4 se puede observar la creación de 3 grupos:  Grupo I: elementos con puntuaciones promedios inferiores a uno (1). Está conformado por los elementos sistema de mantenimiento (0,58), gestión de lubricación (0,74), portadores energéticos (0,84) y diagnóstico de mantenimiento (0,87). Estos elementos coinciden con los menos tratados en las herramientas analizadas.  Grupo II: elementos con puntuaciones promedios entre uno y dos. Está compuesto por 17 elementos, entre los que se encuentran plantilla (1,74), estructura organizativa (2,00), política y objetivos (1,61), entre otros.  Grupo III: elementos con puntuaciones superiores a dos (2). Está compuesto por 11 elementos, donde las mayores valoraciones se obtienen en gestión de órdenes de trabajo (2,42), planificación (2,42), programación (2,39), gestión de costo (2,35) y capacitación (2,29). Los resultados demuestran que de forma general los elementos son tratados en las herramientas con algún nivel de desarrollo, dado que el 87,5 % (28) se encuentran en los grupos II y III, incluso todos con puntaciones promedios por encima de 1,5. Un análisis similar pero realizado para cada herramienta se muestra en la Fig. 5. Los promedios son calculados en base a los elementos de diagnóstico analizados en cada herramienta, no se tuvieron en cuenta los valores puntuados con cero ya que falsearía el valor en esa herramienta. Figura 5 Valoraciones promedios de los elementos por cada herramienta Como se muestra en la Figura 5 el 45 % (14) de las herramientas obtienen una valoración entre uno y dos, incluso todas por encima de 1,50, mientras que el 55 % (17) de las mismas obtienen un resultado superior a dos. Estos resultados implican que de manera general los análisis que se realizan en las diferentes herramientas son profundos, dando criterios claros de como evaluarse los mismos. Este resultado está en concordancia con los análisis realizados en la Figura 44. Como resumen de este acápite se puede señalar que más del 60 % (20) de las herramientas proponen el empleo de áreas funcionales para la evaluación de la gestión del mantenimiento, sin embargo, no muestran concordancia en cuales serían estas áreas. Contrario a esto si se muestra acuerdo entre los elementos que se evalúan dentro de ellas, pero los mismos no se encuentran fundamentados de igual forma en cada herramienta, aunque se detecta de forma general una valoración profunda de los mismos. Para el análisis de estas diferencias y similitudes a continuación se realiza un análisis de agrupamiento o análisis clúster [9,10]. En cuanto al análisis de cómo son evaluados los elementos integrantes del Decálo del mantenimiento Clase Mundial se obtuvo los resultados mostrados en la Fig. 6. Figura 6 Valoraciones promedios del cumplimiento del Décalo Clase Mundial por cada herramienta Análisis de agrupamiento Para el análisis de conglomerados o análisis clúster se utilizaron todas las variables estudiadas anteriormente, con excepción de las áreas que aborda cada herramienta. Todas estas variables son cualitativas, a las cuales se les otorgó valores según escala referida con anterioridad. Al ser variables cualitativas se utilizó el método Ward y la distancia raíz cuadrática euclidiana según proponen [5] que utilizan en sus investigaciones variables de este tipo. Los resultados obtenidos con un nivel similitud de 60 % se muestran en el dendograma de la Fig. 7. Figura 7: Dendograma del análisis de las herramientas Como se observa en la Figura se conforman 6 grupos o clúster  Resumen sobre herramientas de diagnóstico de la gestión del mantenimiento Del estudio referencial se puede resumir que se evidenció la necesidad de división de las entidades en áreas funcionales como forma de evaluar la gestión del mantenimiento, no existiendo concordancia en las herramientas analizadas en cuáles deben ser. Por otra parte, se demostró que existe acuerdo entre los elementos a evaluar en la gestión del mantenimiento, sin embargo, no todos son evaluados con el mismo peso en todas las herramientas, ni se toman en cuenta todos los principios del décalo del mantenimiento de Clase Mundial. Se observó además la vinculación entre herramientas cuantitativas y cualitativas para la obtención de la información durante el proceso de diagnóstico. Estas herramientas de diagnóstico al determinar las brechas de mejoras pueden ser utilizadas para la mejora continua de las organizaciones, sin embargo, al determinar solo para un momento específico (cuando se realiza el diagnóstico) el estado actual de la organización sin establecer cuánto ha crecido la misma de un diagnóstico a otro no permiten visualizar el cambio a la mejora de la organización de forma sostenida a niveles superiores inclusive al logro de la madurez organizacional. Tampoco establecen sobre qué habilidades se deben desarrollar en la organización [capacidades] para el mantenimiento de las mejoras.  Modelo de Madurez Madurez es el estado donde la organización se encuentra en relación a una condición ideal para conseguir sus objetivos [11- 13] Esta madurez según [13] está condicionada por la capacidad de sus procesos, definiéndose esta como la habilidad del proceso para cumplir sus requerimientos. Por otra parte [14] se define estas capacidades organizacionales como el conjunto de destrezas que desarrolla la organización para realizar una actividad o tarea, estas se hallan tanto en los individuos como en los grupos, y se materializan en la forma de cooperar, interactuar y de tomar decisiones en la organización. En la práctica, la realidad es que no es posible la existencia de una organización completamente madura; nadie puede conseguir el estado de máxima madurez. Por ello, tiene sentido hablar acerca de medir un grado de madurez o caracterizar la madurez de las organizaciones señalando los derroteros para mantener un proceso continuo de mejora [12]. En este sentido se habla entonces de evaluar el nivel de madurez de las organizaciones [11]. Cada nivel de madurez considera un conjunto de objetivos [características] y un método de evaluación que permite pasar al siguiente nivel [11,15]. Del análisis de los conceptos anteriores se puede concluir que el desempeño de una organización depende de la capacidad que tenga la misma para asumir los retos que se imponen en el entorno empresarial. Es por esto que las organizaciones deben involucrase en un proceso de mejoramiento continuo para alcanzar los objetivos deseados. Sin embargo, sin un modelo que guíe a la organización a alcanzar sus objetivos, esto se vuelve inalcanzable. Un modelo de madurez es un mapa que guía a la organización en la implementación de buenas prácticas, ofreciendo un punto de partida describiendo un camino de mejora, desde los procesos inconsistentes hasta los más maduros de la organización trazando estrategias de mejoras e identificando las áreas donde la organización debe enfocarse para mejora. CONCLUSIONES De los resultados presentados se puede concluir que las herramientas de diagnóstico para la gestión del mantenimiento actual, aunque tiene muchas ventajas presentan como insuficiencias la no evaluación de los elementos del Décalo de Mantenimiento Clase Mundial así como brindan una fotografía del estado actual pero no permite a las organizaciones establecer acciones para mejorar la capacidad de la misma. Estos problemas pueden ser resueltos con la implementación de un modelo que permita establecer el grado de madurez de una organización de donde se podrán establecer acciones de mejoras hasta alcanzar la madurez de la organización en este proceso. REFERENCIAS 1. ACOSTA, Palmer. H. R. y Troncoso, F. M. (2011). Auditoria integral de mantenimiento en instalaciones hospitalarias, un análisis objetivo. Ingeniería Mecánica, 14(2),107-118. 2. DÍAZ, Concepción A., Castillo, Serpa A., & Villar, Ledo L. (2017). Instrumento para evaluar el estado de la gestión de mantenimiento en plantas de bioproductos: Un caso de estudio. Ingeniare. Revista chilena de ingeniería, 25(2), 306-313. 3. VÁSQUEZ, G. & Emiro J. (2011). Metodología para auditar la gestión de mantenimiento de PDVSA Caso: Rrefinería San Roque. Mantenimiento en Latinoamerica, 2 (1), 21-35. 4. LUNA-AMAYA C. et al. (2016). Universidad corporativa y aprendizaje organizacional: un marco de referencia. Dirección y Organización, 58, 79-94. 5. CHÁVEZ, E. D., Miranda, C. I., Varela, N. M., & Fernández, L. (2010). Utilización del análisis de clúster con variables mixtas en la selección de genotipos de maíz (Zea mays). Revista Investigación Operacional, 30(3), 209-216. doi:https://www.researchgate.net/publication/47394521 6. VILLAR Ledo, L., Díaz Concepción, A., Infante Abreu, M. B., Vilalta Alonso, A., & Alfonso Álvarez, Á. A. (2022). Análisis de herramientas para el diagnóstico de la gestión del mantenimiento. Revista Universidad y Sociedad, 14(1), 493-510 7. DÍAZ, Concepción A., Villar, Ledo Leisis, Rodríguez, Piñeiro Alberto J., et al, (2019). Methodology for maintenance management based on diagnostic criteria. Revista DYNA, 6(211), 220-226. 8. RAÑa, González L, Castillo, Asencio O. (2013). Evaluación de la función mantenimiento en empresas transportistas (PESOVA). Revista Ciencias Técnicas Agropecuarias, 19(2), 10-16. 9. CUADRADO, J. J., Garre, M., Rodríguez, D., Rejas, R., & Sicilia, M. (2003). Comparación de diferentes algoritmos de Clustering en la estimación de coste en el desarrollo de software REICIS. Revista Española de Innovación, Calidad e Ingeniería, 3, 6-22. 10. SALAZAR, H. R. (2013). Los clúster, como herramienta de alta calidad en escenarios competitivos de la región Caribe colombiana. Revista FACCEA, 3(2), 119-129. 11. AMENDOLA, L. J. (2012). ¿Cómo diagnósticar organizaciones de Gestión Integral de Activos Físicos? . PMM Project Magazine, Vol. 23 p 11. 12. ANDERSEN, E., & Jessen, S. A. (2003). Project maturity in organizations. International Journal of Project Management, Vol. 21. 13. LACERDA, T. C., & Gresse von Wangenheim, C. (2017). A Systematic Literature Review of Usability Capability/Maturity Models. Computer Standards & Interfaces, CSI 3223, 1-20. doi:10.1016/j.csi.2017.06.001 14. PASQUINI, A., & Galiè, E. (2013). COBIT 5 and the Process Capability Model. Improvements Provided for IT Governance Process. https://kgk.uni- obuda.hu/sites/default/files/06_Pasquini_Galie.pdf 15. DE CAROLIS, A., Macchi, M., Negri, E., & Terzi, S. (2017). A Maturity Model for Assessing the Digital Readiness of Manufacturing Companies. Paper presented at the IFIP International Federation for Information Processing, London.    ESTADO DE LA GESTIÓN DE LA LUBRICACIÓN Y LOS LUBRICANTES EN EMPRESAS INDUSTRIALES. Alejandra Elena García Toll1, Carlos Deus Aguilera2, Yaima Alfonso Padura3, Carlos Barrera Rodríguez4, José de Jesús Ramos Vives5 1,2,3 CEIM, Facultad de Ingeniería Mecánica, CUJAE. Calle 114 e/Rotonda y Ciclovía, Marianao, La Habana. 4Transporte MININT 5OSDE BioCubaFarma 1e-mail: alejandga@mecanica.cujae.edu.cu, 2e-mail: carlosade@mecanica.cujae.edu.cu, 3e-mail: yalfonso07@mecanica.cujae.edu.cu RESUMEN La gestión de la lubricación es un proceso de planificación, ejecución, control y mejora continua de las acciones de lubricación, que comprende la calidad, la seguridad, la preservación del medio ambiente y eficiencia energética, enfocado a los activos físicos en un contexto operacional específico e integrado al mantenimiento. El objetivo de este trabajo es caracterizar el estado actual de la gestión de la lubricación en el sector industrial cubano y las posibilidades de mejora. La herramienta de evaluación que se aplica es una lista de chequeo que permite revelar las acciones apropiadas e inapropiadas que se realizan en las entidades industriales cubanas. El estado de la gestión de la lubricación y los lubricantes en empresas industriales es calificado de deficiente ya que el promedio de todas las entidades calificadas sólo alcanza el 53% de la meta por lo que estas unidades requieren del diseño de un nuevo modelo de gestión de la lubricación y los lubricantes acordes con las prácticas actuales. Entre las principales acciones a realizar para la mejora de la gestión de la lubricación son la concepción de un nuevo modelo y realizar acciones de capacitación de los recursos humanos dirigido a los temas de lubricación y lubricantes. PALABRAS CLAVES: estado de la lubricación, auditoría de lubricación, calificación de la gestión de la lubricación. STATUS OF THE MANAGEMENT OF LUBRICATION AND LUBRICANTS IN INDUSTRIAL COMPANIES. ABSTRACT Lubrication management is a process of planning, execution, control and continuous improvement of lubrication actions, which includes quality, safety, environmental preservation and energy efficiency, focused on physical assets in a specific operational context. and integrated into maintenance. The objective of this work is to characterize the current state of lubrication management in the Cuban industrial sector and the possibilities for improvement. The evaluation tool that is applied is a checklist that allows revealing the appropriate and inappropriate actions that are carried out in Cuban industrial entities. The state of the management of lubrication and lubricants in industrial companies is classified as deficient since the average of all the qualified entities only reaches 53% of the goal, for which these units require the design of a new model of management of lubrication and lubricants consistent with current practices. Among the main actions to be carried out to improve lubrication management are the conception of a new model and carrying out training actions for human resources aimed at lubrication and lubricant issues. KEY WORDS: lubrication status, lubrication audit, lubrication management qualification. 1. INTRODUCCIÓN   La gestión del mantenimiento no es más que las actividades coordinadas que se realizan en una organización, con el objetivo de asegurar que cumplan las funciones de los activos físicos, minimizando los tiempos de parada y los costos asociados a los mismos, ayudando a incrementar la productividad, cumpliendo con los niveles de calidad y normas de seguridad personal y medio ambientes establecidos y de esta manera maximizar los beneficios económicos. [1] La gestión de mantenimiento, incluye a la gestión de la lubricación como uno de los aspectos claves para garantizar las funciones de los activos. [2] El Ministerio de Industrias en Cuba es el encargado de regir el mantenimiento industrial en el país. Según la Resolución 66 y 67 de 2021 del Ministerio de Industrias, el Sistema de Gestión Integral de Mantenimiento Industrial, es la plataforma diseñada donde se combina el talento humano con las estrategias organizativas que se realizan durante las operaciones de mantenimiento de una instalación, optimizando el rendimiento de los activos físicos y procesos, ordenados por un sistema informativo que garantiza seguridad para las personas y evita o minimiza las pérdidas por paradas de la producción. [3] La gestión de la lubricación es un proceso de planificación, ejecución, control y mejora continua de las acciones de lubricación, que comprende la calidad, la seguridad, la preservación del medio ambiente y eficiencia energética, enfocado a los activos físicos en un contexto operacional específico e integrado al mantenimiento. [4] En el Capítulo VII de la Resolución 66, desde el artículo 36 al 41, se orientan las acciones generales para el manejo de los lubricantes, su uso, control y almacenamiento, esto se hace con el propósito de lograr una correcta disciplina en la gestión de la lubricación. [3] Una apropiada gestión de la lubricación es importante porque permite emplear lubricantes eficientes, lubricantes limpios, contar con lubricantes sin degradación y posibilita el uso del diagnóstico de los activos. Además, una buena gestión de la lubricación contribuye a disminución de la contaminación ambiental y el aumento de la disponibilidad, la calidad, la eficiencia y la seguridad. El objetivo de este trabajo es caracterizar el estado actual de la gestión de la lubricación en el sector industrial cubano y las posibilidades de mejora. 2. MATERIALES Y MÉTODOS. La herramienta de evaluación que se propone es del tipo lista de chequeo. Para su diseño requiere de la definición de los indicadores y ello se logró con la contribución de un grupo de personas, que se eligieron previamente mediante un método de selección de expertos. [2] La competencia de los expertos se determinó por un coeficiente de competencia que se calcula de acuerdo con la opinión del especialista sobre su nivel de conocimiento acerca del problema que se está resolviendo y con las fuentes que le permiten argumentar sus criterios. [2] La herramienta para evaluar el estado de la lubricación y los lubricantes tiene las siguientes características generales [2]: Variable de salida: Estado de la gestión de la lubricación y los lubricantes. (pudiendo tomar valores en 5 niveles: 1,2,3,4,5) Indicadores: 3 Gestión de los lubricantes, Gestión de la lubricación Gestión de recursos humanos Dimensiones: 15 Aparecen divididos por indicadores en la tabla 1. Elementos a evaluar (Ítems): 50 Relacionados con las dimensiones e indicadores de la tabla 1.   Tabla 1. Las dimensiones de la gestión de la lubricación y de los lubricantes. [2] Estado de la gestión de la lubricación y los lubricantes Gestión de los lubricantes Gestión de la lubricación Gestión de los recursos humanos Compra (2) Recepción (4) Control de la calidad (4) Almacenamiento (11) Manejo de los lubricantes usados (2) Estudio de lubricación (6) Métodos medios o sistemas de lubricación (4) Empleo de lubricantes más apropiados y eficientes (3) Filtración y control de fugas (4) Limpieza (2) Tecnologías de inspección y diagnóstico (6) Análisis de aceite (5) Reingeniería (3) Capacitación (3) Seguridad y salud (2) La gestión de los lubricantes, incluye 5 subcomponentes que evalúan diferentes aspectos [5]:  Compra de los lubricantes (evalúa la cobertura a la demanda, planificación de volúmenes y tipos de lubricantes)  Recepción de lubricantes (comprueba la forma de desembarque de lubricantes y cuidado de los depósitos)  Control de la calidad del lubricante. (verifica la coincidencia entre factura y el producto, cumplimiento de las especificaciones de calidad, existencia de certificado de control de calidad del lote y de consecutivo con los certificados de concordancia del producto recibido)  Almacenamiento (comprueba si existe orden y correcta ubicación de los depósitos, protección contra la contaminación, control de fugas en depósitos almacenados, tarjetas de inventario actualizadas, sistema de identificación de los lubricantes según tipo y marca, sistemas de supresión de incendios, pisos limpios y seguros)  Uso y manejo de los lubricantes usados (verifica si está definido el destino final de los lubricantes usados, y si son adecuadas las condiciones de almacenamiento de estos) La gestión de la lubricación tiene 8 subcomponentes [5]:  Estudio o guía de lubricación (comprueba la existencia del estudio de lubricación para todos los activos, si los estudios incluyen acciones de los técnicos para el empleo de lubricantes de mejor desempeño en las condiciones del par tribológico, que garanticen el ahorro de energía, además de que los estudios de lubricación son empleados en todas las actividades de la lubricación)  Métodos o sistemas de aplicación de lubricantes (verifica si hay medios para la lubricación apropiados y protegidos de contaminantes y único medio de lubricación identificado para cada lubricante)  Empleo de lubricantes más apropiados y eficientes (comprueba que a cada par tribológico llegue el lubricante que brinde la máxima protección y eficiencia)  Filtración y control de fugas. (evalúa si existe control de los índices de consumo de lubricantes y combustibles, y control de las pérdidas de aceite lubricante por mangueras, retenes, codos)  Limpieza (verifica el conocimiento de las normas de limpieza)  Tecnologías de Inspección y Diagnóstico (comprueba la aplicación de forma integral de todas las tecnologías de inspección y diagnóstico disponibles).  Reingeniería (verifica que se apliquen los resultados de los estudios realizados en los mecanismos para el mejor desempeño de los mismos, confirma la aplicación de modificaciones a los activos en función de los análisis ejecutados y diseño de sistemas de lubricación más confiables). La gestión de recursos humanos posee 2 subcomponentes [5]:   Capacitación de los recursos humanos (evalúa la calidad del diagnóstico de las necesidades de capacitación de las personas vinculadas a las actividades de lubricación, con respecto al conocimiento de las mejores prácticas actuales, el diseño del plan de capacitación y la certificación de los conocimientos).  Seguridad y salud de los recursos humanos (comprueba si existe la identificación de los riesgos para la seguridad y salud, además verifica la aplicación de las normas de seguridad y salud de los trabajadores relacionados con la actividad de lubricación). Luego de evaluar e identificar las acciones como apropiadas e inapropiadas se debe establecer de forma orientativa el estado de la gestión de la lubricación y los lubricantes y concebir las medidas generales a aplicar. [6] En la tabla 2, aparecen los criterios valorativos para clasificar el estado de la gestión de lubricación. Tabla 2. Valoraciones aplicadas a los criterios de diagnóstico. [7] Calidad de la evaluación Puntuación Muy deficiente (MD) 1 Deficiente (D) 2 Ni deficiente ni bien (N) 3 Bien (B) 4 Muy bien (MB) 5 Las evaluaciones fueron realizadas en diferentes entidades industriales de diferentes sectores, estos son los que aparecen en la tabla 3. Se agruparon como empresas de producciones mecánicas las que fabrican partes, piezas de repuesto y equipos, en el caso de las empresas de generación eléctrica evaluadas estas son dedicadas a la generación distribuida. De la construcción se valoraron dos entidades una para la producción de concreto y otra de piezas de la construcción, en la industria química se evaluó una fábrica de pintura. Tabla 3. Empresas evaluadas. Empresas Cantidad Producciones mecánicas. 8 Generación eléctrica. 2 Construcción. 2 Industria química. 1 3. RESULTADOS Y DISCUSIÓN. Las evaluaciones han sido realizadas en diferentes empresas de diversos sectores económicos que tienen un importante aporte para la economía nacional. A pesar de las disímiles características propias de cada entidad, se han podido identificar acciones tanto bien ejecutadas como mal realizadas en común. Las deficiencias presentadas están vinculadas con las insuficientes actividades de capacitación específica, en los temas de Tribología e Ingeniería de Lubricación. En el gráfico que aparece en la figura 1, se puede apreciar por sectores las evaluaciones alcanzadas en la gestión de lubricación. Las calificaciones son bajas debido a que no son pocas las deficiencias identificadas.   Figura 1. Evaluación de la gestión de los lubricantes. (Elaboración propia) Las deficiencias fundamentales en la gestión de los lubricantes identificadas son:  Las compras no dan cobertura a la demanda. (Se constató en el diagnóstico que faltaban lubricantes de los recomendados en el Estudio de Lubricación).  Problemas con la recepción de lubricantes. (No se cuenta con medios para la descarga de los lubricantes por lo que no se garantiza que en esta acción los depósitos no sufran daños).  Ineficiente control de calidad del lubricante. (En la mayor parte de las entidades evaluadas no se realiza la verificación de las propiedades de los lubricantes).  Almacenamiento deficiente. (Los depósitos de lubricantes se almacenan en locales que en carecen de todas las condiciones para evitar el excesivo calor y la humedad. Los lubricantes carecen de un sistema eficaz y permanente de identificación. Generalmente se encuentran restos de lubricante y polvo en el exterior de los bidones, al igual que en el suelo. No existen todos los dispositivos para el control de fugas.)  Inapropiado manejo de lubricantes usados. (Se han detectado entidades que manejan pequeñas cantidades de lubricantes usados, en que este no se deposita en tanques identificados y almacenados fuera del cuarto de los lubricantes nuevos. En las empresas que desechan grandes cantidades de productos oleosos, se observa que, aunque tienen depósitos identificados en ocasiones carecen de identificadores de nivel por lo que pueden desbordarse y algunos están enterrados sin medios detectar fugas.) En la figura 2 se muestra el gráfico que permite valorar por sectores las evaluaciones alcanzadas en la gestión de lubricación. Todas las calificaciones son bajas y es importante revertir esta situación por la importancia de los sectores incluidos en la evaluación. Figura 2. Evaluación de la gestión de la lubricación. (Elaboración propia) Las deficiencias fundamentales en la gestión de la lubricación identificadas son: 2,4 2,8 3 1,8 1 2 3 4 5 Producciones Mecánicas Generación Eléctrica Construcción Química Gestión de los Lubricantes 2,5 2 2 1,5 1 2 3 4 5 Producciones Mecánicas Generación Eléctrica Construcción Química Gestión de la Lubricación    No se preserva ni controla la limpieza de los lubricantes. (En los cárteres de los motores, compresores, reductores y tanques de los sistemas hidráulicos presentan respiraderos que no evitan la entrade de humedad o partículas pequeñas).  Insuficiente uso de las tecnologías de diagnóstico. (El empleo de estas tecnologías es muy limitado, aun cuando se pueden emplear algunos activos al menos tecnologías, como por ejemplo la evaluación del consumo energético, o de la temperatura).  No se aplican acciones de reingeniería enfocadas a la efectividad de la lubricación. (Estas pueden ser dirigidas a la disminución de las fuentes de contaminación por ejemplo el rediseño de los respiraderos, de sistemas de enfriamiento y sellos) En el caso de la gestión de los recursos humanos se puede observar, en el gráfico de la figura 3, que las calificaciones son altas aun así las acciones que se realizan no son suficientes para la mejor capacitación y la óptima seguridad de los trabajadores. Figura 3. Evaluación de los recursos humanos vinculados con los lubricantes. (Elaboración propia) Las deficiencias fundamentales en la gestión de los recursos humanos son:  No preparan los recursos humanos relacionados con la lubricación en las buenas prácticas para garantizar una lubricación efectiva. (Esto se evidencia en las malas prácticas de lubricación que se realizan de forma generalmente involuntaria)  No existe un buen cumplimiento de las normas de seguridad. (No se cumplen las normas de seguridad de forma sistemática y hay entidades que no las tiene bien identificadas) Los aspectos positivos son las acciones que se corresponden con las mejores prácticas, que permiten el cuidado de los activos. Si se preservan los lubricantes limpios de contaminantes tales como partículas, agua, aire, calor y productos químicos, tanto durante el almacenamiento, como en su dispensación y dentro de los activos, entonces se podrá establecer una correcta lubricación y los equipos podrán tener un mejor desempeño. Los aspectos positivos en común son:  Los bidones están organizados en los almacenes.  Las tarjetas de inventario están actualizadas.  Existen extintores o sistemas de supresión de incendios en el lugar donde se almacenan los lubricantes.  Existen estudios de lubricación realizados por centros autorizados.  Se realizan diagnósticos de las necesidades de capacitación de las empresas.  Se realizan los diseños de los planes de capacitación.  Se identifican los riesgos para la seguridad y salud de los trabajadores. De forma general se puede observar en la figura 4 por sectores las evaluaciones de cada indicador y el promedio. 3,3 4 3 3,5 1 2 3 4 5 Producciones Mecánicas Generación Eléctrica Construcción Química Evaluación de la Gestión de los Recursos Humanos   Figura 4. Evaluación de cada indicador y el promedio de estos. (Elaboración propia) Las empresas de producciones mecánicas, química y de la construcción presentan valores iguales o menores de 2.7 puntos, deben ser evaluadas de deficientes, estas entidades se encuentran en un estado de conciencia, pero necesitan acciones importantes para eliminar los problemas detectados. Las empresas de generación eléctrica obtuvieron una mejor calificación y se evalúan de regular (ni deficiente ni bien), por lo que se considera que estas entidades están en un estado de entendimiento, que necesitan hacer cambios para realizar avances sostenidos. En una encuesta para la autoevaluación realizada a 60 técnicos de entidades industriales en el Congreso de Mantenimiento y Confiabilidad México (CMCM) del año 2016, se identificaron las insuficiencias en las acciones de lubricación. Los problemas fundamentales encontrados fueron recepción y almacenamiento, control de la contaminación y el uso insuficiente de las tecnologías de diagnóstico. [8] Los hallazgos encontrados en las diferentes instalaciones industriales cubanas, son similares a las investigaciones realizadas en Latinoamérica y tienen un origen común: la insuficiente disciplina tecnológica y la escasa cultura en los temas de lubricación de los técnicos y obreros tanto en Cuba, como en América Latina. 4. CONCLUSIONES. La herramienta aplicada permitió identificar las deficiencias fundamentales en las entidades estudiadas, las cuales son comunes a las organizaciones valoradas estas son: las insuficientes acciones de capacitación dirigidas a garantizar una gestión de lubricación con la aplicación de la mejora continua y las prácticas que eviten la contaminación, la degradación de los lubricantes y las afectaciones a los activos. Además, se detecta que no se aplican las acciones de diagnóstico integral para determinar la efectividad de la gestión de la lubricación y los lubricantes. La gestión de capacitación y la seguridad de los recursos humanos, se valoran como buena, aprovechar estas potencialidades para promover la capacitación en los temas de la gestión de la lubricación y los lubricantes, es imprescindible para revertir la situación actual del sector industrial. 5. BIBLIOGRAFÍA. 1. GONZÁLEZ, J.D., DEL CASTILLO Alfredo., DÍAZ, Armando. “Propuesta de mejora a la gestión del mantenimiento en un taller de fundición de cobre para la fabricación de cables”. Revista Mantenimiento en Latinoamérica. 2019, vol. 11, n 3, p. 23-27. ISSN 2357-6340. 2. GARCÍA, Alejandra, MUÑOZ, Manuel, DIAZ Armando, PENABAD Laksmi, et al., “Evaluación de la gestión de la lubricación y los lubricantes”. Ingeniería Mecánica, 2019. Vol 22, núm 3: p. 121-126. ISSN 1815-5944. 3. MINDUS. Resolución 66 y 67 de 2021 de Ministerio de Industrias. Gaceta Oficial No. 86 Ordinaria de 2021; 2021. 2,4 2,8 3 1,8 2,5 2 2 1,5 3,3 4 3 3,5 2,7 2,9 2,7 2,3 1 2 3 4 5 Producciones Mecánicas Generación Eléctrica Construcción Química Evaluación de la Gestión de la lubricación y los lubricantes Gestión de los Lubricantes Gestión de la Lubricación Gestión de los Recursos Humanos Promedio   4. GARCÍA, Alejandra, MUÑOZ, Manuel, PENABAD Laksmi, ALFONSO Yaima, et al. Gestión de la Lubricación y los Lubricantes. La Habana: CEIM, CUJAE; 2021. ISBN 978-959-261-605-9. 5. MUÑOZ Manuel. ¨La gestión de lubricación y el mantenimiento en Cuba¨. 1ra Convención y Exposición Internacional de la Industria Cubana, CUBAINDUSTRIA. Memorias del I Congreso de Automatización y Mantenimiento Industrial, La Habana, 2014. ISBN 978-959-282-097-5 6. GARCÍA, Alejandra, DEUS, Carlos, DIAZ Armando, VILLAR Leisis, et al, Evaluación del estado de la Gestión de Lubricación en el sector de la construcción. La Habana: CEIM, CUJAE; 2022. ISBN: 978- 959-261-616-5. 7. DÍAZ, Armando, VILLAR Leisis, TRETO, Orestes, RODRÍGUEZ, Alberto J, Martínez, et al. Criterios de diagnóstico para evaluar el estado de la gestión de mantenimiento en el sector industrial cubano. La Habana: CEIM, CUJAE; 2020. ISBN 978-959-261-604-2 8. TRUJILLO, Gerardo. Encuesta Latinoamericana del estado de la lubricación en la Industria. Predictiva 21, 2016. Vol 3, núm 19: p. 99-101. MODELO CON ENFOQUE LOGÍSTICO PARA MEJORAR LA GESTIÓN DEL MANTENIMIENTO EN ENVAMETAL Jorge Arnaldo González Echavarría1, Edith Martínez Delgado2 1Empresa de Envases Metálicos (ENVAMETAL), Calle Mayor y Final, San Miguel del Padrón, La Habana, Cuba, 2Facultad de Ingeniería Industrial, Universidad Tecnológica de la Habana José A. Echeverría (CUJAE), Calle 114 No 11901 entre Ciclo Vía y Rotonda. Marianao, La Habana, Cuba. jorge.gonzalez@eem.com.cu, edithmd910@gmail.com RESUMEN La gestión de mantenimiento requiere cada vez más, de técnicas o herramientas que apoyen la toma de decisiones relativas a sus actividades para, entre otras cosas, lograr mayor disponibilidad de los activos. Esta investigación tuvo como objetivo concebir un modelo, con enfoque logístico, para contribuir al aumento de la disponibilidad de los activos de la Fábrica Luis Melián, perteneciente a la Empresa de Envases Metálicos (ENVAMETAL). Para desarrollar la investigación, se emplearon métodos como la observación, revisión documental, modelo de diagnóstico, Diagrama Ishikawa, Modelo General de Organización (MGO), Diagrama de Gantt, Método Multiatributo Scoring, Modelo de Aseguramiento al Proceso (MAP), métodos matemáticos de inventario, entre otros, así como la consideración del enfoque logístico, la Resolución de mantenimiento 66/2021, las NC ISO 9000; el trabajo en equipo y el enfoque al cliente, los que permitieron: identificar las causas y sub-causas que afectan a la gestión del mantenimiento, calcular los ciclos logísticos de aprovisionamiento, jerarquizar los equipos críticos como base para determinar las piezas de repuesto e insumos priorizados para su compra, determinar los tipos y métodos de gestión de los inventarios y los parámetros de inventarios, documentar las actividades que conforman el aseguramiento al proceso de mantenimiento y el plan de mantenimiento, contribuyendo a una mayor disponibilidad de los activos de la entidad. Como producto fundamental resultante, se provee a la organización, de un modelo para la mejora de la gestión de mantenimiento con su procedimiento de implementación, lo que constituye una guía metodológica que facilita su comprensión y aplicación sistemática. PALABRAS CLAVES: Logística en el mantenimiento, Modelo de diagnóstico, Enfoque multicriterio, Logística de aprovisionamiento. MODEL WITH LOGISTICAL APPROACH TO IMPROVE MAINTENANCE MANAGEMENT IN ENVAMETAL ABSTRACT Maintenance management increasingly requires techniques or tools that support decision-making regarding its activities in order, among other things, to achieve greater availability of assets. Logistics is one of these tools, that constitutes support for maintenance management. The objective of this research was to develop a model, with a logistical approach, to contribute to increasing the availability of the assets of the Luis Melián Factory belonging to the metallic packaging company (ENVAMETAL). Methods such as observation, documentary review, diagnostic model, Ishikawa Diagram, General Organization Model, Gantt Chart, Multi-Attribute Scoring Method, Process Assurance Model, mathematical inventory methods, among others, as well as consideration of the logistics approach, Maintenance Resolution 66/2021, NC ISO 9000; teamwork and customer focus; made it possible to identify the causes and sub-causes that affect maintenance management, calculate the supply logistics cycles, prioritize critical equipment as a basis for determining the spare parts and supplies prioritized for purchase, determine the types and methods of management of the inventories and inventory parameters, document the activities that make up the assurance of the maintenance process and the maintenance plan, contributing to a greater availability of the entity's assets. As a resulting fundamental product, the organization is provided with a model for the improvement of maintenance management with its implementation procedure, which constitutes a methodological guide that facilitates its systematic understanding and application. KEY WORDS: Maintenance Logistics, Diagnostic Model, Multi-criteria Approach, Supply Logistics. 1. INTRODUCCIÓN La gestión de mantenimiento (GM) comprende una parte importante de los procesos empresariales y su fin es asegurar el correcto y continuo uso de equipos, maquinarias, instalaciones y servicios para tributar al objetivo final, que es lograr la eficiencia y eficacia de los procesos de la empresa. En la actualidad, la concepción del mantenimiento a nivel internacional ha cambiado, pasando de adoptar un enfoque reactivo a uno proactivo y dotándola de una visión de negocio en su expresión más amplia [1]. El estudio que se presenta, trata del mantenimiento a los activos directos de una empresa productora de envases. Actualmente se puede afirmar que éstos, además de cumplir con sus funciones básicas, se están transformando en un medio de sofisticadas interacciones con su contenido y en un registro de información relevante tanto para el consumidor final como para los actores intermedios de la cadena de valor; de esta forma, la calidad de los envases también es la base para que éstos se conviertan en envases activos e inteligentes [2]. Sin embargo, si los activos que los producen no están disponibles, no se puede garantizar la continuidad requerida del proceso de producción, de ahí la importancia de prestar la debida atención al mantenimiento y su gestión. La presente investigación se realizó en Fábrica Luis Melián, perteneciente a ENVAMETAL, empresa que se dedica a la producción y comercialización de envases, recipientes metálicos y otros productos obtenidos a partir de la conformación de metales. Más de setenta activos, de tecnología avanzada con instalaciones automatizadas y controladas a nivel de software, que están distribuidos entre sus líneas de producción, requieren del mantenimiento. La mayor parte de éstos están dedicados a la producción de productos terminados y el resto a la producción de piezas de repuesto. En dicha fábrica existen un conjunto de aspectos disfuncionales relativos al mantenimiento tales como: existencia de aspectos contradictorios dados por la no realización de mantenimientos preventivos planificados y el exceso de mantenimiento por imprevistos y paradas de los activos, ocurrencia reiterada de fallos imprevistos, parada de los activos y dilatación del tiempo empleado en la realización de las acciones correctivas y, la no disponibilidad de las partes, piezas de repuestos y accesorios (PPA) necesarios para la realización del mantenimiento. Dichos aspectos provocan la indisponibilidad de los activos de la fábrica con la consiguiente parada del proceso productivo. Esto trae como consecuencia que se vayan acumulando atrasos en la producción, con entrega tardía e incompleta en las cantidades a del producto final, incurriéndose en pérdidas económicas por concepto de costo de oportunidad. Por tal motivo se hace necesario buscar formas que sean ágiles, precisas, que cumplan con lo establecido de modo que la organización pueda contar con un proceso de mantenimiento que se gestione de acuerdo a los requerimientos de los activos. Un aspecto necesario a tener en cuenta es la interrelación, en la medida que se considere la necesidad de comunicación entre las áreas para gestionar el mantenimiento, se manifiesta la conveniencia de aplicar un enfoque logístico, capaz de lograr la integración entre las distintas partes de la organización y como plantea uno de los preceptos que la rigen, gestionar la empresa como un flujo único y equilibrado [3]. La Logística es la estrategia que permite en cada caso cumplir los requisitos que pide el cliente con la máxima seguridad y la combinación racional de costos, recursos y stocks, en estrecha colaboración con los integrantes de la cadena de suministro global. En [4] se reconoce como el centro de las tareas logísticas, a las actividades de aprovisionamiento, producción y distribución. La consideración de la integración entre las distintas áreas, generan conflictos cuya solución se alcanza a través del enfoque multicriterio. Múltiples son los autores que conceptualizan este enfoque, evidenciando la diversidad de criterios a utilizar según las aplicaciones, así como los métodos de solución [5], [6], [7]. De esta forma, el estudio se encaminó a la concepción de un modelo que apoyado en un enfoque logístico, contribuyese al aumento de la disponibilidad de los activos directos a la producción de la Fábrica Luis Melián. En la presente ponencia se muestran los resultados fundamentales de la investigación desarrollada. 2. DIAGNÓSTICO DE LA GESTIÓN DE MANTENIMIENTO Con el fin de identificar las oportunidades de mejora de la gestión de mantenimiento, se propone un modelo de diagnóstico, que se muestra en la Figura 1 y posteriormente se precisan los objetivos y contenido fundamental de cada una de las etapas del mismo. Para profundizar en esta propuesta y conocer los resultados de su aplicación, se puede consultar [8]. Figura 1: Modelo de diagnóstico El objetivo de la etapa I: Caracterización de la organización, es conocer las características generales de la entidad y en particular del lugar específico donde se realiza la investigación. Algunos aspectos de interés son: la misión, la visión, el objeto social, la estructura organizativa, la cartera de productos, los estándares regulatorios, el estado actual de las instalaciones y los principales indicadores de desempeño. El objetivo de la etapa II: Situación actual del mantenimiento, es identificar los aspectos que influyen directa e indirectamente en la gestión del mantenimiento e ir detectando los puntos fuertes y débiles que pueden incidir en la mejora de la disponibilidad de los activos. El análisis se realiza sobre la base tanto de un análisis interno, como externo. El interno se centra en la descripción del proceso de mantenimiento a partir de un enfoque logístico especificándose cómo es el flujo informativo, financiero y material del proceso de mantenimiento. También se sugiere el análisis de indicadores relativos al mantenimiento tales como: tiempos de paro, cantidad de intervenciones, entre otros importantes. El análisis externo pone su atención en los agentes externos al mantenimiento, determinando así las principales deficiencias que presentan éstos en su interacción con el proceso de mantenimiento. Este análisis se enfoca en el análisis de los distintos subsistemas logísticos que tengan lugar en la organización en relación al proceso de mantenimiento. El mismo debe realizarse de manera crítica con el fin de detectar deficiencias relacionadas con el mantenimiento y sus operaciones. El objetivo de la etapa III: Resumen de las deficiencias encontradas en el diagnóstico, es ordenar y sintetizar las oportunidades de mejora que son detectadas a través del análisis crítico realizado en la etapa anterior. Después de la recopilación de información acerca de la situación actual del proceso de mantenimiento y el análisis correspondiente, se debe proceder a resumir aquellos aspectos que constituyen trabas al buen desempeño de la organización. El análisis permite identificar las deficiencias encontradas a lo largo del diagnóstico. Se sugiere el empleo de alguna herramienta gráfica o tabular que posibilite de manera rápida y resumida visualizar las causas que provocan las insuficiencias identificadas; agrupando las mismas en las distintas dimensiones con las que se corresponda cada una, tales como gráficos de barra, gráficos de pastel, Diagrama Ishikawa e Inograf. Asimismo, se deben valorar aquellas herramientas logísticas e ingenieriles en general, que más se ajusten a las necesidades de los problemas a resolver y que facilita el análisis. El objetivo de la etapa IV: Elaboración del informe de diagnóstico, es dejar plasmados los resultados del estudio, las conclusiones y una propuesta de mejora para erradicar las deficiencias encontradas. Estos resultados deben ser intercambiados con la dirección de la organización y precisamente sobre esta base, encaminar los esfuerzos para la proyección de las soluciones. A partir de la aplicación del modelo de diagnóstico presentado anteriormente, el que a su vez incluye el empleo de un grupo de técnicas ingenieriles, se detectaron distintas causas y sub-causas que fueron agrupadas en las dimensiones: mano de obra, máquina, métodos, medios y materiales. Atendiendo a las dimensiones en que se pueden clasificar a los problemas detectados, se identifica que los principales son los relacionados con la dimensión método, donde se destaca la incorrecta utilización del software Gestión del Mantenimiento Integral, ausencia de listado de prioridad del equipamiento para las compras de PPA, ausencia de herramientas logísticas que apoyan la gestión del mantenimiento, así como la carencia de guías y procedimientos que permitan tomar mejores decisiones sobre el proceso de mantenimiento. Entre otras deficiencias importantes, que clasifican en otras dimensiones, están: el pobre desempeño de la mano de obra, la escasez de PPA, los largos periodos en la ejecución de compras de PPA, la dilatación de los tiempos de ejecución del mantenimiento y los altos índices de fallos imprevistos, entre otros. 3. PROYECCIÓN DE SOLUCIONES La proyección de soluciones está soportada en un modelo diseñado cuyo objetivo es contribuir a que, de forma continua, se realicen las mejoras que resulten necesarias en el proceso de mantenimiento, implementando para ello, aquellas acciones de mejora que exija el proceso. La base conceptual del modelo diseñado centra su atención en el enfoque logístico, enfatizando en uno de los preceptos de la filosofía gerencial que más caracteriza a la logística y es, “Gestionar la empresa como un flujo único y equilibrado”. El modelo incluye a todos los factores que de forma directa o indirecta, inciden en el desempeño integral del Sistema de Gestión de Mantenimiento y por ende en la disponibilidad del equipamiento. El punto de partida es la consideración de la política, visión, estrategias y objetivos diseñados para el proceso de GM, el que se expone como núcleo. El mismo está en intercambio continuo con otros procesos, integrando los subprocesos que se llevan a cabo y en los que se generan el flujo informativo, financiero y material; facilitando la retroalimentación de la información y el compromiso mutuo de los actores que intervienen en el proceso; todo lo cual tributa al mejoramiento continuo de la GM. Los subprocesos de la GM que se integran son: planificación y programación, ejecución, registro y control y, análisis y evaluación, mientras que los procesos que intercambian con él son: Proceso de compra e importaciones con sus correspondientes subprocesos (Elaboración de solicitud, Gestión comercial, Contratación y Recepción y almacenaje), Proceso logístico, Proceso contable financiero, Proceso de recursos humanos y el Proceso productivo. Para viabilizar la aplicación del modelo de mejora diseñado, se elaboró además un procedimiento de implementación, que consta de siete etapas. Estas son: 1) Conformación del equipo de trabajo, 2) Revisión/actualización del diagnóstico del proceso de mantenimiento, 3) Identificación de las acciones de mejora a planificar, 4) Planificación y programación, 5) Ejecución del plan, 6) Registro y control y 7) Análisis y Evaluación. Con la aplicación del modelo de mejora, a través de su procedimiento de implementación, el equipo de trabajo conformado y considerando las oportunidades de mejora identificadas en el diagnóstico, se propusieron trece acciones de mejora, no quedando todas seleccionadas para su ejecución inmediata, debido a que no resultaron suficientes los recursos materiales, financieros y humanos para garantizar la ejecución de todas. En este caso, para decidir cuáles implementar de manera inmediata y cuáles no, se valoraron como criterios los siguientes: alcance de la acción, disponibilidad de los participantes que deberían estar involucrados en la ejecución de la acción, capacitación de los participantes en la acción a desarrollar, tipos de recursos y cuantía disponible de los que se requieren para la realización de la acción e impacto asociado a la acción a desarrollar. Algunas de las acciones ejecutadas de manera inmediata se brindan en la Tabla NO 1, también se especifican diversos métodos de los que han sido utilizados, así como los resultados alcanzados. Tabla No 1: Acciones de mejora y resultados Otras acciones definidas y programadas para su desarrollo posterior, son las que siguen: establecimiento de estrategia de capacitación, planificación de la elaboración de las PPA internamente mediante software, potenciación de la política de supervisión y control, conciliación de planes de mantenimiento-producción y determinación de los tiempos a planificar para la ejecución de los mantenimientos. Se realizaron propuestas de modelos y formatos para implementar las dos últimas etapas con el fin de llevar a cabo el registro y control de la totalidad de los resultados obtenidos con la ejecución de las acciones de mejora y su posterior análisis y evaluación. 4. CONCLUSIONES A partir del estudio desarrollado se llegan a las conclusiones que siguen: 1. El modelo de diagnóstico concebido permitió el análisis de la interacción de los diferentes actores que intervienen en el proceso de mantenimiento, identificándose como principales oportunidades de mejoras las relativas a los métodos de gestión del mantenimiento, la escasez de partes y piezas de repuesto y la forma en que éstas se gestionan, así como la insuficiencia de la documentación del quehacer de los actores del proceso. 2. El modelo con su procedimiento de implementación, concebido para mejorar la gestión de mantenimiento en ENVAMETAL, hizo posible llegar a un grupo de acciones de mejora que requirieron el empleo de distintos métodos entre los que se destacan las técnicas e instrumentos para la gestión logística aplicados al mantenimiento, el enfoque multicriterio y modelos matemáticos de inventario. 3. El modelo con enfoque logístico diseñado, con su procedimiento de implementación, constituye una guía de trabajo para mejorar la gestión de mantenimiento de los activos directos a la producción en ENVAMETAL, cuyo contenido facilita su comprensión y aplicación sistemática, en aras de contribuir a una mayor disponibilidad de los activos de la entidad. REFERENCIAS 1. ALTMANN, C. La importancia de alinear la gestión de mantenimiento con el negocio. Editado por: Directora, A. A. 2020, Disponible en: https://esp.reliabilityconnect.com. 2. RODRÍGUEZ R, ROJO GE, et al. “Envases inteligentes para la conservación de alimentos”. Ra Ximhai. Revista de Sociedad, Cultura y Desarrollo sustentable. 2014, Vol. 1, núm. 6, pp.151-173. 3. GÓMEZ ACOSTA, M. I; ACEVEDO SUÁREZ, J. A. et al. “Caracterización de la Logística y las Redes de valor en empresas cubanas en perfeccionamiento empresarial”. Ingeniería Industrial. 2013; 34(2): 212-226 4. HANNE T; DORNBERGER R. Computational Intelligence in Logistics and Supply Chain Management. International Series in Operations Research & Management Science. 2017. ISBN 978- 3-319-40720-3 ISBN 978-3-319-40722-7 (eBook). Library of Congress Control Number: 2016943140. Springer International Publishing Switzerland. ISSN 0884-8289 ISSN 2214-7934 (electronic). DOI 10.1007/978-3-319-40722-7. 5. DE PRADA J; DEGIOANNI A, et al. “Planificación territorial: elección multicriterio interactivo del patrón de urbanización. Estudio de caso: Río Cuarto, Córdoba, Argentina”. Revista Métodos Cuantitativos para la Economía y la Empresa. 2018; Vol. 26, núm. 2: pp. 25-51. 6. MAHER A.; MAYSAM F. Classifiers Consensus System Approach for Credit Scoring. Knowledge Based Systems. Elsevier BV. 2016; 104: 89-105, ISSN: 0950-7051. DOI: 10.1016/j.knosys.2016.04.013. 7. GÓMEZ E M; CABRERA J et al. Herramienta Informática para el análisis de criticidad de activos: Modelos personalizados. Ingenierías. 2016; Vol. 19, núm. 71: ISSN-e 1405-0676. 8. GONZÁLEZ ECHAVARRÍA, J., MARTÍNEZ DELGADO, E. et al. “Modelo con enfoque logístico para diagnosticar la gestión de mantenimiento de una entidad productora de envases”. Ingeniería Mecánica, vol.23 núm.2, versión On-line ISSN 1815-5944. Sobre los autores Jorge González Echavarría: Ingeniero mecánico con más de treinta años de experiencia profesional que se desempeña como Especialista en mantenimiento de equipos industriales en la Empresa de Envases Metálicos (ENVAMETAL). Ostenta el título de Máster en Ingeniería y gerencia de mantenimiento. Edith Martínez Delgado: Ingeniera industrial con más de cuarenta años de experiencia profesional que se desempeña como profesora en la Facultad de Industrial de la Universidad Tecnológica de La Habana (CUJAE). Ostenta la categoría científica de Doctora en Ciencias Técnicas. Además es Máster en Técnicas para la optimización y ayuda a la decisión. Posee la categoría docente de Profesora Titular y la condición docente especial de Profesora consultante del Departamento de Ingeniería Industrial. Es Presidente de tribunal de categorización a nivel departamental y Profesora principal de diversas asignaturas de la carrera. MANTENIMIENTO 5.0, TENDENCIAS Y DESAFÍOS Carlos Andres Deus Aguilera1, Reicelis Casares Li1, Alejandra García Toll1 1. Universidad Tecnológica de La Habana. Centro de Estudios en Ingeniería de Mantenimiento, CEIM. Calle 114, No. 11901 e/119 y 127, Cujae, Marianao 15, 19390. La Habana, Cuba. e-mail: carlosade@mecanica.cujae.edu.cu, reicelis@gmail.com, alegandga@mecanica.cujae.edu.cu RESUMEN Se exponen tendencias y retos que los mantenedores deben tener en cuenta para afrontar con éxito las exigencias de las tareas de mantenimiento en el marco de la Industria 5.0, que han vuelto a situar al ser humano en el centro, interactuando sin problemas con el software y el hardware. Se describe un conjunto de tecnologías que sustentan el mantenimiento 5.0, entre ellas: cadenas de suministro ágil, sistemas ciberfísicos cognitivos, fabricación aditiva, plataformas de gestión de mantenimiento inteligente personalizables, tecnologías usables, realidad virtual y aumentada, cobots y servicio al cliente automatizado. Estas tecnologías posibilitan la evolución de un mantenimiento predictivo hacia uno más preciso y resiliente, el prescriptivo, en armonía con las demandas de la industria 5.0, al colocar a este primero como piedra angular para su migración. Además, se identifican los tres mayores desafíos que se derivan con estas tecnologías, la seguridad, privacidad y confiabilidad (ciberseguridad), la mano de obra calificada y la aprobación de leyes para que se cumplan los derechos de los trabajadores para regular el trabajo entre los humanos y los robots. PALABRAS CLAVES: Mantenimiento 5.0, tecnología avanzada, inteligencia artificial. ABSTRACT Trends and challenges are exposed that maintainers must take into account to successfully face the demands of maintenance tasks within the framework of Industry 5.0, which have once again placed the human being at the center, interacting without problems with the software and the hardware. A set of technologies underpinning maintenance 5.0 are described, including: agile supply chains, cognitive cyber- physical systems, additive manufacturing, customizable smart maintenance management platforms, wearable technologies, virtual and augmented reality, cobots, and automated customer service. These technologies enable the evolution of predictive maintenance towards a more precise and resilient one, prescriptive, in harmony with the demands of industry 5.0, by placing the latter first as the cornerstone for its migration. In addition, the three greatest challenges that arise with these technologies are identified: security, privacy and reliability (cybersecurity), qualified labor and the approval of laws to comply with the rights of workers to regulate work between workers humans and robots. KEY WORDS: Maintenance 5.0, advanced technology, artificial Intelligence. 1. INTRODUCCIÓN Han ocurrido cuatro revoluciones industriales; en la primera, se introdujeron equipos impulsados por vapor para la producción mecánica; en la segunda, la producción se vio impulsada por energía eléctrica, dando paso a la producción en masa y se introdujo el concepto de división de tareas; mientras que en la tercera, se utiliza la electrónica e informática para la producción automatizada , en la industria 4.0 puede considerarse como la cuarta revolución industrial, en la que las formas de producción hacen uso de sistemas físicos cibernéticos para crear una industria más flexible y de carácter reconfigurable, es decir, que la estructura de una fábrica se pueda modificar para poder producir diferentes productos [1]. Hoy se habla de la industria 5.0 , donde los cambios de la inteligencia artificial (IA) (ver tabla 1), ya hace parte de nosotros sin siquiera saberlo, determinar cuándo va a llover basado en datos debidamente medidos por herramientas tecnológicas ya es un hecho cierto, las predicciones basados en las probabilidades de ocurrencia de un hecho, determinan el comportamiento del ser humano en un futuro, podríamos empezar a pensar que el ser humano a través de las ciencias informáticas, matemáticas y estadísticas empezaron a conocer como si se tratará de una bola de cristal acontecimientos del futuro [2]. En la época en que se vive no hay lugar para el error, ni para los retrasos en la producción. Las empresas deben ofrecer un servicio impecable en todo momento para mantener la fidelidad de sus clientes; de lo contrario, estos podrían encontrar otra alternativa con la competencia [3]. Por tanto, se exigen políticas de mantenimiento que permitan garantizar una mayor precisión en la detección, diagnóstico y predicción de fallas, aunado a un aumento en las ganancias y mejoras en los niveles de fiabilidad y rendimiento de los activos [4]. Las empresas de renombre mundial sienten que la presión va en aumento y conocen que los responsables de mantenimiento tienen que evitar el downtime (tiempo de inactividad no programada de un equipo), prolongar la vida útil de los activos, garantizar el retorno de la inversión y generar el menor número posible de residuos en todo el proceso. Casi se tiene que ser Superman… Y, de hecho, es imposible alcanzar estos objetivos sin los superpoderes de la tecnología moderna de gestión de mantenimiento [5]. Y es ahí donde entra en escena la "tecnología avanzada”, término que engloba a las tecnologías que todavía tienen pocos usuarios pero que muestran un gran potencial, como la IA, el reconocimiento de voz y la realidad virtual o la visualización en 3D. A pesar de ser tachada de «inmadura», la tecnología avanzada ya ha causado un «revuelo» en el mantenimiento industrial en 2020. El 17% de los responsables de mantenimiento ya utiliza algún tipo de tecnología avanzada y otro 47% tiene intención de utilizarla en los próximos 3 años [6]. El objetivo del trabajo es describir las nuevas tendencias y desafíos que los directivos y mantenedores de las industrias cubanas deben dominar para poder afrontar los cambios tecnológicos provenientes de la industria 4.0 y enfocadas en el mantenimiento 5.0, que ha puesto los sistemas ciberfísicos en el centro de todo, las máquinas automatizadas y plantas automatizadas. Cuba está implementando políticas y estrategias orientadas a la soberanía, como el diseño y puesta en marcha de proyectos para la automatización de varios procesos en la industria farmacéutica nacional. Hoy la industria 5.0 ha llegado de conjunto con la automatización y la IA para devolver a los humanos al primer plano, se debe utilizar la tecnología con el fin de mejorar la forma en que se interactúa con ella y lograr un mayor equilibrio entre el trabajo y la vida. Tabla 1: Cambios que pueden atribuirse IA que pueden dividirse en cuatro categorías [7]. Requiere interacción humana No requiere intervención humana IA Estática Inteligencia Asistida: Proporciona una visión de conjunto que permite concluir las tareas más rápidamente y con más eficacia. Depende de sistemas fijos, datos de sensores, análisis analítico, robots y internet of things (IoT) Inteligencia Automatizada: Incluye la automatización de tareas rutinarias y manuales. Esta tecnología existe ya, pero se perfecciona para ampliarla a más y más áreas. IA Adaptável Inteligencia Aumentada Sistemas de IA capaces de aprender y mejorar a través de sus interacciones con los humanos. La inteligencia aumentada es el principio de los sistemas adaptables, algo que aún no hemos podido realizar. Inteligencia Autónoma: Consiste en sistemas de IA capaces de adaptarse a diferentes situaciones y actuar de forma autónoma: el objetivo final de la industria 4.0. 2. LA INDUSTRIA 5.0 Y LAS PRINCIPALES TECNOLOGÍAS QUE LA HABILITAN En la última década, la expresión “Industria 4.0” se ha convertido en sinónimo de la 4ta revolución, que se entiende como un avance progresivo y contundente dentro de una organización en una cultura de gestión de activos. Todo ello enfocado a las necesidades específicas que tiene cada una de las empresas en los diferentes tipos de industrias [8]. En esencia, la industria 4.0 está relacionada con la producción en masa y la máxima eficacia. El objetivo de la Industria 5.0 es alcanzar una personalización masiva, ofrecer una buena experiencia al cliente y ver el retorno de la mano de obra a las fábricas. Se cree que aumentará la sostenibilidad y la resiliencia, una idea que ha ganado más protagonismo durante la pandemia. En vez de correr constantemente detrás de la tecnología, la idea es hacer que la tecnología trabaje para el hombre. Las máquinas y los humanos se unen como compañeros de labor para aumentar la eficacia, integrar los flujos de trabajo, evitar el desperdicio, mejorar la logística y crear productos personalizados de alta calidad. La Industria 5.0 también lleva la sostenibilidad al primer plano, con las 6Rs basadas en humanos: reconsiderar, rechazar, reducir, reusar, reciclar y reparar [9]. Aunque es verdad que la industria 5.0 da prioridad a la personalización, los logros de la industria 4.0 no desaparecerán. Con todo lo que se ha aprendido, es seguro decir que conseguirá “la máxima personalización al menor coste y la máxima precisión”. Estas son las seis tecnologías que los expertos creen que apoyan la Industria 5.0.  Edge computing (computación frontera) Se asume que el 5G es una de las redes más rápidas que serán suficientes para impulsar las aplicaciones en tiempo real y disminuir la latencia. La “Frontera” acercará el almacenamiento a las fuentes de datos. Esto impactará en el tiempo de respuesta y en la necesidad de menos ancho de banda. En definitiva, permitirá que miles de millones de dispositivos se conecten al mismo tiempo. El objetivo es terminar con la latencia, habilitar aplicaciones en tiempo real, conectar activos y conseguir hogares/instalaciones inteligentes Otra de las potencialidades de la 5G está en el mantenimiento predictivo y en el mantenimiento prescriptivo, ya que permite conectar más equipos al mismo tiempo, integrar más los sistemas y obtener datos de calidad sin latencia. Abre también el camino para las reparaciones remotas con la realidad aumentada [10].  Gemelos digitales Los gemelos digitales son una representación virtual de un objeto o proceso físico. Mejoran el diseño de productos, lo que genera menos fallas y menos modos de fallas. En la gestión de instalaciones y mantenimiento es probable que se use para realizar evaluaciones de riesgo (por ejemplo, para realizar un Análisis de modos y efectos de los fallos (AMEF) o para simular cómo se debe realizar una reparación. Se espera que los gemelos digitales reduzcan los costes de producción e impulsen el mantenimiento predictivo.  Cobots (robots colaborativos) Los robots no son una amenaza, son un activo. Los robots colaborativos aumentarán la productividad, la solidez y mejorarán la destreza de los técnicos. Junto a estos cobots se enconarán: • operadores de superfuerza (operadores + exoesqueleto) • operadores aumentados (operadores + AR) • operadores virtuales (operadores + realidad virtual) • saludable (operadores + rastreador portátil) • más inteligente (asistente personal inteligente) • colaborativo (operador + robot colaborativo, como un asistente) • social (operador + redes sociales) • analítica (operador + analítica de big data)  Internet de todo (IoE) El internet de las cosas es una red de dispositivos físicos conectados. El internet de todo va más allá de las “cosas” para incluir a personas, procesos y datos. Con este IoT de nueva generación, se espera mejorar la productividad de los activos, reducir el tiempo de inactividad y desarrollar una “inteligencia reflexiva”, que es la capacidad de todo el sistema para autogestionarse, autocontrolarse y automodificarse.  Blockchain El potencial de las aplicaciones de las blockchain fuera de las criptomonedas, durante años se ha tenido en cuenta, pero parece que nunca se ha conseguido aplicar al mantenimiento y la gestión de instalaciones. La industria 5.0 puede cambiar esto para siempre, usando las blockchain como un método de gestión descentralizada. Por ejemplo, será posible establecer un “contrato inteligente” y un “libro de contabilidad compartido” entre tus clientes, proveedores y empresa.  6G (y más allá) La implementación del 5G puede que acabe de empezar, pero las redes inteligentes de 6G ya están en marcha. Probablemente tendrán una arquitectura compleja en capas para mejorar el rendimiento, soportar mejor la realidad virtual y aumentada y permitir el descubrimiento de conocimientos (los datos se reconfiguran o recategorizan para producir nuevos conocimientos explícitos). Al igual que la industria 5.0, nature electronics predice que el 6G estará “centrado en el ser humano”. 3. LIMITACIONES Y DESAFÍOS QUE ENFRENTA LA INDUSTRIA 5.0 La tecnología también tiene sus desventajas. Los tres mayores desafíos que enfrenta son la seguridad, privacidad y confiabilidad. Las empresas se preocupan por la seguridad y privacidad de los datos con respecto al mantenimiento predictivo. Solo se puede asumir que tendrán las mismas reservas con respecto a cualquier software que requiera la recogida y análisis de datos por temor a que los hagan vulnerables. No existe una solución fácil para estos problemas, ya que la ciberseguridad está en constante evolución y las estructuras digitales también necesitan su propia actualización y mantenimiento. También se debe tener en cuenta la problemática de que los robots se hacen cargo de las tareas más pesadas y los humanos de pensar en todo, es necesaria una mano de obra calificada. De hecho, los gestores de mantenimiento ya están luchando con la falta de personal calificado. La industria 5.0 solo aumentará este problema. La mejora de las habilidades es la solución obvia para estos problemas, pero no la única. Además de la capacitación continua y utilizar el tiempo libre para desarrollar estas nuevas habilidades, los gestores deben asegurarse de que cada tecnología en la que deciden invertir se adapte a sus equipos. Se está trabajando en que la industria 5.0 se centre en el ser humano y sea sostenible, los países probablemente intentarán aprobar leyes para que se cumplan los derechos de los trabajadores, regular el trabajo entre los humanos y los robots y cumplir con el “Pacto Verde”. Como la cadena de suministro es global, estos estándares de la industria deben aplicarse en todo el mundo y las empresas deben comprometerse con los objetivos de desarrollo sostenible. 4. EL MANTENIMIENTO 5.0 Y LAS PRINCIPALES TECNOLOGÍAS QUE LA HABILITAN La Industria 5.0 es ya una realidad, y se impone el empleo del mantenimiento con esas características. El mantenimiento 5.0 sigue un enfoque centrado en el ser humano en armonía con el software y hardware. Es cada vez más personalizable para cada instalación y equipo, más seguro e intuitivo para los técnicos y menos disruptivo en las operaciones normales. Con el mantenimiento integrado es imposible buscar la armonía entre las personas y el software. El mantenimiento 5.0 depende en gran medida de plataformas integradas accesibles para gestores, técnicos, usuarios finales y dispositivos inteligentes. Esto centraliza los planes de mantenimiento preventivo y las órdenes de trabajo reactivas (ambas generadas por los humanos o por el propio sistema) lo que significa que se contabiliza cada tarea. La información recogida durante las operaciones diarias fluye sin problemas para generar pedidos automáticos de proveedores, enviar facturas a clientes y conectar el mantenimiento con los objetivos más amplios de la empresa [9]. Se prevé que el mantenimiento predictivo se convierta en la piedra angular de la Industria 5.0 junto con el IoE y la computación en nube. Pero esta triada ya es clave para las empresas que buscan eficacia y confiabilidad. Sin embargo, el mantenimiento predictivo será más preciso y otras tecnologías (ver tabla 2) permitirán su evolución hacia el mantenimiento prescriptivo. El mantenimiento prescriptivo es cognitivo y se basa en tus datos de mantenimiento (como informes, información de monitoreo de condición y algoritmos predictivos) para ejecutar escenarios hipotéticos. Por tanto, proporciona sugerencias para evitar pérdidas y tiempo de inactividad [9]. Tabla 2: Tecnologías y tendencias soportan el mantenimiento 5.0 [9]. IoE, computación en nube y automatización Tecnologías como el IoT (o su evolución natural, el IoE), computación en nube y automatización continuarán dejando su huella en los softwares de mantenimiento. La IoT y la tecnología avanzada contribuyen a la recogida automática de datos, que se almacenan en la nube. Este avance tiene dos consecuencias inmediatas: poder comprender mejor el estado de los equipos y predecir los daños. Además de predecir los daños, se utilizan estos datos para proyectar el retorno sobre la inversión, el rendimiento y la calidad. Gracias a ello, los simuladores serán cada vez más sofisticados y precisos, y esto se convertirá en una herramienta indispensable para la resolución de problemas [6]. Cadena de suministro ágil Las empresas pueden realizar un seguimiento de la ubicación y estado de cada pieza, analizar los datos y mejorar su espacio de almacén e inventario. Una logística eficiente permite a los equipos de mantenimiento evitar ineficiencia en espera, transporte y movimiento. Sistemas ciberfísicos cognitivos Los saristemas ciberfísicos son la base para la realización de sistemas de fabricación inteligentes que integran la informática, la comunicación y el control. La arquitectura del sistema generalmente está compuesta por la capa de quipo, capa de detección, capa de red, capa cognitiva y capa de control. Después de detectar, recopilar, transmitir, almacenar, extraer y analizar la información sobre la máquina en el espacio físico, se configura una máquina digitalizada (i-Machine) que duplica la máquina física en el espacio cibernético y se denomina el modelo digital de la máquina física en la capa cognitiva del saristemas ciberfísicos. [11]. Con la adición de la componente cognitivo combinará mejor la tecnología y los componentes físicos. Favorecerá una mayor resiliencia gracias a su capacidad para autoajustarse a las variaciones y automejorarse frente a las perturbaciones, junto con la toma de decisiones en colaboración con los humanos Fabricación aditiva La fabricación aditiva (o impresión 3D) podría ser una de las tecnologías más disruptivas para las cadenas de suministro. En lugar de esperar a que llegue una pieza, los proveedores pueden enviar un modelo en 3D para imprimir en tus propias instalaciones. Además, esto aumenta las posibilidades de personalización, que es la idea central de la Industria 5.0. La fabricación aditiva (quizás más conocida como «Impresión 3D») podrá ser se utilizada para imprimir piezas de repuesto de forma inmediata. En cuanto un técnico detecte una avería, o la máquina la diagnostique, puede imprimir una nueva pieza y sustituirla inmediatamente [6]. Esto promueve una gestión más eficaz de las existencias y mejor utilización del espacio. La fabricación aditiva promueve el cero downtime. [6]. Plataformas de gestión de mantenimiento inteligente personalizables Con una Plataforma Inteligente de Mantenimiento (PIM) se pueden automatizar los flujos de trabajo (técnicos, listas de materiales, proveedores) y recibir alertas si falta un plan para un activo en concreto. No sólo ahorra tiempo, sino que también se identifican los activos sin planes de mantenimiento preventivo [12]. Estas plataformas combinan la gestión del mantenimiento con la inteligencia artificial para recoger los datos de los equipos y convertirlos en información valiosa. Se integran con otras herramientas e incluso con hardware, convirtiéndose en un sistema de mantenimiento vivo y vibrante en lugar de una burbuja estática [13]. Las PIM te permiten integrar el software de mantenimiento con otras herramientas (como las herramientas de inteligencia empresarial, comunicación o análisis) para crear flujos de datos, aumentar la eficacia y detectar oportunidades. Tecnología vestible El potencial de la tecnología vestible para el mantenimiento permanece sin explotar: tejidos inteligentes (por ejemplo, ropa de protección), trajes robóticos para fuerza sobrehumana o incluso gafas inteligentes que ofrecen a los técnicos instrucciones paso a paso sobre cómo ensamblar o reparar un activo. Realidad virtual y aumentada La realidad aumentada (RA) puede servir de apoyo en muchas actividades del sector industrial, como son la configuración de equipos, soporte en operaciones de supervisión de la producción, ensamblaje de componentes, mantenimiento (incluyendo la ayuda en reparaciones complejas), el entrenamiento y formación de operarios, etc. Mediante técnicas de RA se pueden desarrollar herramientas que asistan al operario en entornos reales, simplemente aportando información visual perfectamente posicionada, que pueda dar pistas al operario sobre los elementos físicos que tiene delante [14]. La segunda aplicación es el soporte remoto. Mediante la RA, los expertos pueden ofrecer una supervisión virtual de las reparaciones, proporcionando apoyo a los equipos y tecnologías in situ. Esto es muy prometedor como solución potencial a uno de los mayores retos de la industria: la falta de competencias [6]. La realidad virtual y aumentada puede crear experiencias e interfaces inmersivas para los técnicos, lo que les ayuda a simular reparaciones y realizar guías rápidas. Este enfoque práctico, la realidad virtual y la realidad aumentada pueden revolucionar la capacitación y la integración. Cobots Los cobots se diferencian de los robots en que son verdaderos compañeros humanos. El objetivo es utilizar estos “cobots” para tareas repetitivas y laboriosas y liberar nuestros cerebros humanos para personalizar los productos y desarrollar un pensamiento crítico. En el futuro, cada técnico de mantenimiento podría trabajar junto con su propio cobot. [9]. Excelente servicio al La industria 5.0 está centrada en el ser humano, por lo que debe lograr un cliente automatizado servicio al cliente más rápido y amplio. Por ejemplo, los clientes pueden informar las fallas, solicitar cotizaciones y así se puede comenzar las reparaciones de inmediato. Es verdad que el mantenimiento se reducirá a mantener, gestionar y optimizar las configuraciones de los robots. Aunque es probable que gran parte del trabajo gire en torno a ello (especialmente para los técnicos), la inteligencia y la intervención humanas seguirán siendo indispensables. Es un hecho que los fallos son inevitables. El mantenimiento predictivo y basado en la condición hará que los equipos sean más fiables, pero los cerebros humanos seguirán interviniendo cuando se produzcan fallos. Además, aunque la IA y la inteligencia aumentada son una ayuda valiosa, sus propuestas no son definitivas [7]. "El mejor escenario desde una perspectiva económica no siempre es el más justo, ni siquiera el más inteligente, desde una perspectiva humanista". 5. CONCLUSIONES El futuro del mantenimiento está fundamentado en una serie de nuevas tecnologías de avanzada que permiten transformar los activos en equipos más inteligentes durante el proceso de producción y mantenimiento, por lo que hoy se hace sumamente importante lograr una base de conocimientos referentes a las nuevas tendencias y desafíos que se avecinan en el futuro próximo, con respecto al mantenimiento 5.0 lo que permitirá la actualización y preparación para recibir estos cambios tecnológicos. De aquí, que los directivos de mantenimiento de cada empresa deben tomar el reto de rediseñar y consolidar sus políticas de mantenimiento como un factor clave que permita afrontar estas nuevas tendencias, siempre con miras a trabajar de manera más efectiva y con la visión de implementar mantenimiento predictivo o prescriptivo en los equipos donde económicamente sea factible. "La comunicación, la empatía y la compasión no son variables programables. En última instancia, las decisiones siempre serán aprobadas por humanos". RECONOCIMIENTOS Los autores agradecen a la comunidad INTELLIGENCE FOR MANTENACE (IFM) y a INFRASPEAK, la plataforma inteligente para la gestión de las operaciones de mantenimiento y facility management, que hayan permitido compartir los conocimientos adquiridos con respecto al mantenimiento 5.0 en el curso on line Innovators programme http://pages.infraspeak.com/es-ifm-innovators-programme con nuestros colegas de Cuba. REFERENCIAS BIBLIOGRÁFICAS 1. LUNA PÉREZ, M, BADILLO PIÑA, I, VÁZQUEZ ÁLVAREZ G. "Diseño de una metodología de mantenimiento predictivo para asegurar procesos de producción de la industria 4.0 "South Florida Journal of Development, Miami, v.2, n.1, p. 1009-1017, jan./feb. 2021. ISSN 2675-5459 2. INGRY NATHAL, SALAMANCA, R, EDGAR JUNIOR C. "Técnicas de aprendizaje automático aplicadas en los sistemas de predicción". Tecnol.Investig. Academia TIA, ISSN: 2344-8288, 8 (1), pp. 39-53. Bogotá-Colombia, 2021. 3. "Tendencias y retos del mantenimiento para 2022". Infraspeak, Intelligence for Maintenance Innovators Programme Módulo V, 2022. 4. PACHANO, L. et al. "Estado del arte de la inteligencia artificial aplicada al mantenimiento basado en condición", 2015. 5. "Gestión de operaciones de mantenimiento: mejorar con la tecnología". Infraspeak, Intelligence for Maintenance Innovators Programme Módulo I, 2022. 6. "Tendencias del mantenimiento industrial para 2022-2030". Infraspeak, Intelligence for Maintenance Innovators Programme Módulo V, 2022. 7. "A Distancia y Automatizado ¿Cómo será el futuro de Facility Management?". Infraspeak, Intelligence for Maintenance Innovators Programme, Módulo I, 2022. 8. RUSSMANN, M., LORENZ, M., GERBERT, P., WALDNER, M., JUSTUS, J., ENGEL, P., Y HARNISCH, M. "Industry 4.0: The future of productivity and growth in manufacturing industries". Boston Consulting Group, 9(1), 54-89, 2015. 9. "El futuro del mantenimiento: Guía práctica para el Mantenimiento 5.0". Infraspeak, Intelligence for Maintenance Innovators Programme Módulo I, 2022. 10. "Las potencialidades de la tecnología 5G en el mantenimiento". Infraspeak, Intelligence for Maintenance Innovators Programme Módulo I, 2022. 11. TOAPANTA GUACAPIÑA, A. "Un enfoque basado en Sistemas Ciberfísicos". Máster Universitario en Ingeniería Electromecánica, Julio, 2018 12. "¿Cómo se puede evitar el Mantenimiento Correctivo?". Infraspeak, Intelligence for Maintenance Innovators Programme Módulo II, 2022. 13. "PIM: Una nueva era de un mejor control de tus operaciones." Infraspeak, Intelligence for Maintenance Innovators Programme Módulo III, 2022. 14. GONZALEZ PICHEL, J. "Máster en aplicaciones de realidad virtual y realidad aumentada", Tesis de maestría “curso 2021-2022. EL INDICADOR OEE EN LA INDUSTRIA BIOFARMACEUTICA THE OEE INDICATOR IN THE BIOPHARMACEUTICAL INDUSTRY Edisbel Muñoz González1, Antonio Enriques Gaspar1, Armando Díaz Concepción2, Abel Cruz Bayo1, Alexei Fernández Durand1 Primer Autor (nombres y apellidos)1, Segundo Autor (nombres y apellidos)2 1Centro Nacional de Biopreparados. Mayabeque. Cuba, 2 Universidad Tecnológica de la Habana José Antonio Echeverría, Departamento de Ingeniería Industrial. La Habana. Cuba. 1e-mail: edisbel@biocen.cu RESUMEN Una de las preocupaciones diarias de las industrias productivas es mejorar su rendimiento y buscar que su negocio sea cada vez más rentable. Las industrias necesitan ser cada día más eficientes, aumentando su productividad, maximizando el rendimiento de su equipamiento, reduciendo costos y optimizando sus procesos productivos. El objetivo de esta investigación fue implementar el indicador que mide la Efectividad Total del Equipamiento (OEE) a un proceso productivo en una planta Biofarmacéutica, a partir de la información de la producción en el año 2021 más 6 meses del 2022. Del análisis se obtuvo como resultado que el indicador de OEE, atendiendo a su clasificación, se pudo determinar que este no cumple ya que no existió durante el período analizado un buen desempeño de la variable Rendimiento, debido al no aprovechamiento de las capacidades de la máquina en el tiempo que estuvo disponible, ocasionado fundamentalmente, a una disminución de la demanda; no afectando así el sobre cumplimento de la producción demandada. PALABRAS CLAVES: Indicador Efectividad Total del Equipamiento; productividad; rendimiento. ABSTRACT One of the daily concerns of the productive industries is to improve their performance and seek to make their business increasingly profitable. Industries need to be more efficient every day, increasing their productivity, maximizing the performance of their equipment, reducing costs and optimizing their production processes. The objective of this research was to implement the indicator that measures the Total Equipment Effectiveness (OEE to a production process in a Biopharmaceutical plant, based on the production information in the year 2021 plus 6 months of 2022. From the analysis, it was obtained as a result that the OEE indicator, based on its classification, it was possible to determine that it does not comply since there was no good performance of the Performance variable during the analyzed period, due to the non-use of the capabilities of the machine in the time it was available, fundamentally caused by a decrease in demand; thus not affecting the over compliance of the demanded production. Keywords: Total Equipment Effectiveness indicator; productivity; performance. KEY WORDS: Total Equipment Effectiveness Indicator; productivity; performance. 1. INTRODUCCIÓN La OEE es la mejor métrica disponible para optimizar los procesos de fabricación y está relacionada directamente con los costos de operación. Informa sobre las pérdidas y cuellos de botella del proceso y enlaza la toma de decisiones financiera y el rendimiento de las operaciones de planta, ya que permite justificar cualquier decisión sobre nuevas inversiones [6]. Entre sus características fundamentales presenta tomar decisiones para reducir los gastos gracias a la disminución de pérdidas y verificar constantemente la eficiencia de la producción. Además, las previsiones anuales de mejora del índice OEE permiten estimar las necesidades de personal, materiales, equipos, servicios, etc. de la planificación anual [7]. La OEE ha emergido como un poderoso método para medir con exactitud y visualizar de manera simple la productividad real de un equipo, área, línea de producción o planta, buscando optimizar calidad, costo y velocidad. Mide, en un único indicador, los parámetros fundamentales de la producción industrial: la Disponibilidad, que mide las pérdidas por inactividad, el Rendimiento, las pérdidas por velocidad, y la Calidad, las pérdidas por defectos [4]. También se puede expresar que la OEE mide la condición operativa y la confiabilidad de un proceso respecto al nivel de operaciones deseadas, le puede mostrar que tan bien es utilizando los recursos, incluyendo el equipo y la mano de obra, para satisfacer a los clientes al cumplir con sus requerimientos de suministro y calidad del producto [5]. El objetivo de esta investigación es implementar la Efectividad Total del Equipamiento (OEE) a un proceso productivo en una planta Biofarmacéutica con el fin de lograr una medición de su eficiencia general, obtener resultados acerca del comportamiento de la producción de dicho proceso y las propuestas que serán de gran ayuda a la empresa para la toma de decisiones a futuro. La información empleada para este análisis es la correspondiente al año 2021 más 6 meses del 2022 (18 meses), a través de los informes emitidos por el sistema de los diferentes procesos realizados. Como resultado se obtuvo el valor del indicador de la Efectividad Total del Equipamiento (OEE) para el periodo analizado. El no aprovechamiento de las capacidades de la máquina en el tiempo que estuvo disponible influyó notablemente en el resultado obtenido, ocasionado fundamentalmente a la disminución de la demanda. 2. MATERIALES Y MÉTODOS A partir de la información del proceso productivo en una planta Biofarmacéutica correspondiente al año 2021 más 6 meses del 2022 (18 meses), se realizó el cálculo correspondiente al OEE, donde se integran los resultados obtenidos de la disponibilidad, rendimiento y calidad del proceso. Cálculo del OEE: El OEE mide la efectividad, que es calculado combinando tres elementos asociados a cualquier proceso de producción [1; 8], ver Figura 1: Figura 1. Grafico que muestra cómo obtener los tres factores del OEE. Fuente: Autor. Al mismo tiempo, el OEE analiza y califica los diferentes tipos de pérdidas que pueden producirse en un proceso productivo. Se define en “Seis Grandes Pérdidas”, que hacen reducir el tiempo efectivo de proceso y la producción óptima a alcanzar [8; 9].  Disminución de Disponibilidad Pérdidas de Tiempo: La pérdida de tiempo se define como el tiempo durante el cual la máquina debería haber estado produciendo, pero no lo ha estado: Ningún producto sale de la máquina. Las pérdidas son: Averías (Primera Pérdida): Un repentino e inesperado fallo o avería genera una pérdida en el tiempo de producción. La causa de esta disfunción puede ser técnica u organizativa (por ejemplo; error al operar la máquina, mantenimiento pobre del equipo). El OEE considera este tipo de pérdida a partir del momento en el cual la avería aparece. Esperas (Segunda Pérdida): El tiempo de producción se reduce también cuando la máquina está en espera. La máquina puede quedarse en estado de espera por varios motivos, por ejemplo; debido a un cambio, por mantenimiento, o por un paro para ir a merendar o almorzar. En el caso de un cambio, la máquina normalmente tiene que apagarse durante algún tiempo, cambiar herramientas, útiles u otras partes. La técnica de SMED (en inglés Single Minute Exchange of Die; en español técnica de paradas al estilo fórmula uno para realizar un abastecimiento/cambios necesarios) define el tiempo de cambio como el tiempo comprendido entre el último producto bueno del lote anterior y el primer producto bueno del nuevo lote. Para el OEE, el tiempo de cambio es el tiempo en el cual la máquina no fabrica ningún producto.  Disminución de Rendimiento Pérdidas de Velocidad: Una pérdida de velocidad implica que la máquina está funcionando, pero no a su velocidad máxima. Existen dos tipos de pérdidas de velocidad: Microparadas (Tercera Pérdida): Cuando una máquina tiene interrupciones cortas y no trabaja a velocidad constante, estas microparadas y las consecuentes pérdidas de velocidad son generalmente causadas por pequeños problemas tales como bloqueos producidos por sensores de presencia o agarrotamientos en las cintas transportadoras. Estos pequeños problemas pueden disminuir de forma drástica la efectividad de la máquina. En teoría las microparadas son un tipo de pérdida de tiempo. Sin embargo, al ser tan pequeñas (normalmente menores de 5 minutos) no se registran como una pérdida de tiempo. Velocidad Reducida (Cuarta Pérdida): La velocidad reducida es la diferencia entre la velocidad fijada en la actualidad y la velocidad teórica o de diseño. En ocasiones hay una considerable diferencia entre lo que los tecnólogos consideran que es la velocidad máxima y la velocidad máxima teórica. En muchos casos, la velocidad de producción se ha rebajado para evitar otras pérdidas tales como defectos de calidad y averías. Las pérdidas debidas a velocidades reducidas son por tanto en la mayoría de los casos ignoradas o infravaloradas.  Pérdidas de Calidad (Disminución de Calidad) La pérdida de calidad ocurre cuando la máquina fabrica productos que no son buenos a la primera. Se pueden diferenciar dos tipos de pérdidas de calidad: Deshechos (Scrap) (Quinta Pérdida): Deshechos son aquellos productos que no cumplen los requisitos establecidos por calidad, incluso aquellos que no habiendo cumplido dichas especificaciones inicialmente puedan ser vendidos como productos de calidad menor. El objetivo es “cero defectos”. Fabricar siempre productos de primera calidad desde la primera vez. Un tipo específico de pérdida de calidad son las pérdidas en los arranques. Estas pérdidas ocurren cuando: - Durante el arranque de la máquina, la producción no es estable inicialmente y los primeros productos no cumplen las especificaciones de calidad; - Los productos del final de la producción de un lote se vuelven inestables y no cumplen las especificaciones; - Aquellos productos que no se consideran como buenos para la orden de fabricación y consecuentemente se consideran una pérdida. - Normalmente este tipo de pérdidas se consideran inevitables. Sin embargo, el volumen de estas puede ser sorprendentemente grande. Re-trabajo (Sexta Pérdida): Los productos re-trabajados son también productos que no cumplen los requisitos de calidad desde la primera vez, pero pueden ser reprocesados y convertidos en productos de buena calidad. A primera vista, los productos re-trabajados no parecen ser muy malos, incluso para el operario pueden parecer buenos. Sin embargo, el producto no cumple las especificaciones de calidad a la primera y supone por tanto un tipo de pérdida de calidad (al igual que ocurría con el scrap). De la Figura se puede concluir que para incrementar el índice OEE es indispensable tener información veraz del origen de las pérdidas productivas. La diferencia entre lo ideal y la realidad es igual a la suma de las pérdidas y, en consecuencia, muestra exactamente donde se encuentran las posibilidades de mejora. Cálculo del OEE Se calcula al multiplicar tres factores: Disponibilidad, Rendimiento y Calidad [10; 11], ver Ecuación 1 OEE ൌ Disponibilidad ൈ Rendimiento ൈ Calidad ൈ 100% (1)  Disponibilidad: La Disponibilidad, ver Ecuación 2, resulta de dividir el tiempo que la máquina ha estado produciendo (Tiempo de Operación: TO, ver Ecuación 3) por el tiempo que la máquina podría haber estado produciendo (Tiempo Planificado de Producción: TPO). El TOP es el tiempo total de trabajo menos los periodos en los que no estaba planificado producir por razones legales, festivos, almuerzos, mantenimientos programados, etc., lo que se denominan Paradas Planificadas, ver Ecuación 4. Disponibilidad ൌ ൬ TOTOP൰ ∗ 100 (2) Donde: TO ൌ TOP െ Tiempo Paradas y/o Averías (3) TOP ൌ Tiempo Total de Trabajo – Tiempo de Parada Planificada (4) Incluye: Averías por imprevistos (técnicas u organizativas) y/o esperas La Disponibilidad es un valor entre 0 y 1 por lo que se suele expresar porcentualmente.  Rendimiento: El Rendimiento resulta de dividir la cantidad de piezas realmente producidas por la cantidad de piezas que se podrían haber producido, ver Ecuación 5. La cantidad de piezas que se podrían haber producido se obtiene multiplicando el tiempo en producción por la capacidad de producción nominal de la máquina. Incluye: Pérdidas de velocidad por pequeñas paradas y pérdidas de velocidad por reducción de velocidad. Rendimiento ൌ Nº Total de UnidadesሺTiempo de Operación ∗ Velocidad Máximaሻ (5) El Rendimiento es un valor entre 0 y 1 por lo que se suele expresar porcentualmente.  Calidad: Incluye: Pérdidas por deshechos y/o re-trabajos. La pérdida de calidad implica dos tipos de pérdidas: - Pérdidas de Calidad, igual al número de unidades mal fabricadas. - Pérdidas de Tiempo Productivo, igual al tiempo empleado en fabricar las unidades defectuosas. Y adicionalmente, en función de que las unidades sean o no válidas para ser reprocesadas, incluyen: - Tiempo de reprocesado. - Coste de tirar, reciclar, etc. las unidades malas. Tiene en cuenta todas las pérdidas de calidad del producto. Se mide en tanto por uno o tanto por ciento de unidades no conformes con respecto al número total de unidades fabricadas, ver Ecuación 6. Calidad ሺQሻ ൌ Nº de Unidades ConformesNº Unidades Totales (6) Las unidades producidas pueden ser Conformes (buenas), o No Conformes, (malas o rechazos). A veces, las unidades No Conformes pueden ser reprocesadas y pasar a ser unidades Conformes. La OEE sólo considera Buenas las que se salen conformes la primera vez, no las reprocesadas. Por tanto, las unidades que posteriormente serán reprocesadas deben considerarse Rechazos, es decir, malas. Por tanto, la Calidad resulta de dividir las piezas buenas producidas por el total de piezas producidas incluyendo piezas re- trabajadas o desechadas. La Calidad es un valor entre 0 y 1 por lo que se suele expresar porcentualmente. • Clasificación OEE [1; 12] El valor del OEE permite clasificar una o más líneas de producción, o toda una planta, con respecto a las mejores de su clase y que ya han alcanzado el nivel de excelencia. De esta manera se tiene la siguiente clasificación: 1. OEE < 65% Inaceptable. Se producen importantes pérdidas económicas. Muy baja competitividad. 2. 65% < OEE < 75% Regular. Aceptable sólo si se está en proceso de mejora. Pérdidas económicas. Baja competitividad. 3. 75% < OEE < 85% Aceptable. Continuar la mejora para superar el 85 % y avanzar hacia la WorldClass. Ligeras pérdidas económicas. Competitividad ligeramente baja. 4. 85% < OEE < 95% Buena. Entra en Valores WorldClass. Buena competitividad. 5. OEE > 95% Excelencia. Valores WorldClass. Excelente competitividad 3. RESULTADOS Y DISCUCIÓN Los resultados obtenidos se muestran en la ¡Error! No se encuentra el origen de la referencia.2. Figura 2. Resultados del cálculo del OEE. Fuente: Autor. En la figura 2 (A), se muestra el resultado del OEE contra unidad producida en el rango de análisis, en el (B) se muestra el resultado contra unidad producida solo en los días con plan, en (C) se muestra el resultado contra unidad producida en el tiempo que duró el proceso de llenado. Para el valor obtenido en (A) y (B) el indicador de OEE, ver figura 2, atendiendo a su clasificación, es Inaceptable (OEE<65%). Se pudo determinar que este no cumple debido a que no existió durante el período analizado un buen desempeño de la variable Rendimiento, ocasionado fundamentalmente, a una disminución de la demanda y el no aprovechamiento de las capacidades de la máquina en el tiempo que estuvo disponible; no afectando así el sobre cumplimento de la producción demandada. Para el valor obtenido en (C), enfocado fundamentalmente al comportamiento del equipamiento, el indicador de OEE, atendiendo a su clasificación, es Aceptable (75%720 y <1300 revoluciones por minuto, pero en el caso de la potencia, sería entonces por encima de 1000 kW, es decir, la fila inferior del segmento mostrado en la Tabla 4. Tabla 4 - Segmento de interés de la ISO 8528-9. En relación con esto, se puede observar que tomando en cuenta que las mediciones se realizaron en términos de Velocidad RMS en mm/s, son tolerables valores de hasta 45 mm/s RMS registrados en los puntos del motor de combustión interna, es decir, 1H, 1V, 2H, 2V, 3H, 3V, 4H y 4V y en ninguno de los tres grupos grupos electrógenos en los que se realizaron las mediciones se superó este valor, se puede incluso afirmar, que en el peor de los casos se registraron los mayores valores (24.67 mm/s RMS) en el punto 1V del grupo grupos electrógeno No. 24 los días 17 de marzo y 10 de abril. Por ello, se estima que o bien los grupos electrógenos en los que se realizaron las mediciones están muy bien en cuanto a niveles de vibraciones según la norma ISO 8528 – 9 o esta norma no es aplicable en todos los casos y será necesario por consiguiente realizar un estudio posterior para determinar cuáles son los valores límites para estos grupos electrógenos y proponer una modificación a esta norma. En el caso de los grupos electrógenos, la norma ISO 8528 – 9 establece que no se deben presentar daños si los niveles de vibraciones permanecen por debajo del Valor 1 [2]. De acuerdo a las características de los grupos electrógenos de la CE “Habana 220” el Valor 1 corresponde a 18 mm/s RMS y en el caso particular de los grupos electrógenos identificados como 2, 23 y 24, el valor más alto fue registrado en la dirección axial del cojinete lado libre del grupo electrógeno No.24, que fue de 17.78 mm/s RMS el 2 de abril de 2015. Así, el valor más alto registrado en el motor de combustión interna fue de 24.67 mm/s RMS, lo cual se corresponde con el 45.17 % del límite. Por el contrario, el máximo valor registrado en los generadores fue de 17.78 mm/s RMS el cual representa el 1.2 % del límite, lo cual quiere decir que para el generador el límite indicado en la norma resulta más adecuado. 3. PROPUESTA PARA EL MONITORADO DE CONDICIÓN BASADO EN LA NORMA ISO 8528 - 9 Los programas para el monitorado de condición están concebidos para proporcionar información que pueda ser asimilada por el personal de operaciones y a su vez sirva de herramienta de trabajo para el personal de mantenimiento [4]. El monitorado con fines de protección, en el cual la respuesta del sistema ante un cambio eventual es rápida y reactiva, resulta la prioridad número uno. Pero el monitorado y la predicción no están presionados por el tiempo de respuesta – si el programa ha sido bien concebido y está a punto – y puede apoyarse en el análisis de un sin número de características incluyendo las más complejas [5]. Un programa de monitorado contempla técnicas para evaluar el desempeño de la máquina y el análisis del comportamiento de los parámetros de procesos con vista a precisar el estado de la maquinaria industrial. Por supuesto que la selección de la técnica depende del tipo de máquina, históricos de operación, aspectos relativos a la seguridad y al medio ambiente así como, el impacto económico que tenga una interrupción imprevista y por supuesto, de los requerimientos impuestos por las personas. Por ejemplo, si se atesoran entre 8 y 10 lecturas de vibraciones a intervalos entre uno y dos meses, sin duda se podrá contar con datos para evaluar la condición de la máquina [6]. Un programa de monitorado persigue tres objetivos prioritarios [5]: 1. Identificar y alertar de manera anticipada sobre defectos potenciales. 2. Proporcionar métodos primarios para monitorar el estado de las máquinas fundamentales. 3. Alertar sobre defectos que aunque están presentes, permanecen ocultos dentro de características de mayor complejidad. Puntos de medición La ubicación de los puntos donde se realizaron las mediciones en los grupos electrógenos HYUNDAI HIMSEN H25/33 de 2.5 MW, fue definida según lo indicado en la norma ISO 8528 – 9 en correspondencia con las zonas más críticas de los generadores, en este caso los identificados como HSR7719-8P y de los motores de combustión interna identificados como 9H25/33. De esta manera se puede evaluar el comportamiento de las vibraciones en los lugares de mayor importancia para determinar la condición de los mismos. La Figura 4 muestra de manera detallada la ubicación de los puntos donde se deben realizar las mediciones según la norma ISO 8528 – 9. La propuesta derivada de esta investigación mantiene las posiciones de los puntos de medición indicados por la ISO 8528 en su Parte 9, incorporando las orientaciones Verticales para los puntos 1 y 2. Figura 4 - Puntos de medición para un grupo electrógeno en línea. Parámetro síntoma Aunque las vibraciones pueden ser observadas en el dominio del tiempo o en el dominio de la frecuencia, el nivel de estas puede ser cuantificado en términos de desplazamiento, velocidad y/o aceleración. En este caso, atendiendo a la instrumentación disponible, la medición del nivel total de las vibraciones se realizará en términos de Velocidad expresada en milímetros por segundo RMS. Periodicidad de las mediciones De acuerdo al análisis realizado anteriormente, todo parece indicar que en lo que respecta al motor de combustión interna, el valor límite es suficientemente alto para evaluar el comportamiento dinámico, al menos, de los grupos electrógenos de la central eléctrica “Habana 220”, por lo cual, resulta imprescindible dar seguimiento específicamente a los motores de combustión interna para poder ajustar estadísticamente los límites. Por ello, se debe medir cada 200 horas de operación, continua o no, de manera que se tenga suficientes muestras de niveles de vibraciones para proceder a su tratamiento estadístico y claro está, aunque en el caso de los generadores el comportamiento no es similar al de los motores de combustión interna, cada vez que se vaya a realizar mediciones en estos, pues también se deberá medir en los generadores. 4. CONCLUSIONES Finalmente, luego de haber concluido la investigación en correspondencia con los objetivos planteados, se puede arribar a las siguientes conclusiones: 1. A juzgar por los resultados de las mediciones efectuadas, todo parece indicar que para los motores de combustión interna de la Central Eléctrica “Habana 220”, los límites establecidos en la norma ISO 8528, en su Parte 9, resultan excesivos. 2. Según los resultados de las mediciones efectuadas, se estima que para los generadores instalados en la Central Eléctrica “Habana 220”los límites establecidos en la norma ISO 8528, en su Parte 9, resultan adecuados. 3. Se estima que en caso de que la central eléctrica “Habana 220” implemente el programa de monitorado de condición presentado como resultado de la presente investigación, se incurriría en ahorros de alrededor de 777 725 unidades monetarias al año, teniendo en cuenta que este valor ha sido estimado sólo bajo la suposición de aplicar el monitorado de condición a tres de los veinticuatro grupos electrógenos de la Central Eléctrica “Habana 220”. RECONOCIMIENTOS Los autores desean agradecer al personal de la Central Eléctrica “Habana 220” por su colaboración incondicional durante el desarrollo de la presente investigación. REFERENCIAS 1. CEPERO,Y. Primera aproximación al monitorado de condición basado en el análisis de vibraciones por bandas espectrales. Tutor: Palomino, E. Maestría, CEIM. CUJAE, La Habana. 2012. 2. ISO8528. Reciprocating internal combustion engine driven alternating current Grupos Electrógenosnerating set. 1995, vol. 8528, 16 p. 3. LTD., H. S. HS - 620/630 Vibration Meter Kit Operating Manual. 2012, 15 p. 4. CEPERO,Y. Monitorado de condición basado en el análisis de vobraciones por bandas espectrales. La Habana: CUJAE, 2012. 71 p. ISBN ISBN978-959-261-407-9. 5. PALOMINO, E. Monitorado y Predicción. Actualidad industrial. La Habana: CUJAE, 2003. 81 p. ISBN ISBN 978-959-261-319-5. 6. PALOMINO, E. Elementos de medición y análisis de vibraciones en máquinas rotatorias. 2007 ed. La Habana: CUJAE, 2007, 236 p. ISBN ISBN 959-261-043-6. Los autores Glenda Gutiérrez García, es graduada de Ingeniería Mecánica en el año 2015. Su comienzo laboral fue como inversionista en el Centro Nacional de Investigaciones (CNIC) hasta el año 2020. Como parte de su superación profesional recibió cursos de Inversiones, Mecatrónica y Talleres. En el año 2020 comenzó a trabajar en el Centro de Inmunología Molecular (CIM), desempeñándose como Especialista en Gestión del Mantenimiento. Actualmente cursa la Maestría en Ingeniería y Gerencia de Mantenimiento en su 6ª Edición. Evelio Palomino Marín, es graduado de Ingeniería Mecánica en el año 1981 y Doctorado en Ciencias Técnicas en 1995. Fundador del Centro de Estudios en Ingeniería de Mantenimiento, con más de treinta y cinco años de experiencia profesional ejerciendo cátedra universitaria y participando en la solución de problemas de investigación y desarrollo relativos al condition monitoring y la alineación láser en las ramas del Azúcar, el Petróleo, la Pesca, el Cemento, la Salud, el Turismo, la Sideromecánica, las Fuerzas Armadas y el Níquel entre otras, incluyendo la formación de personal técnico especializado. Diagnóstico al sistema de gestión de mantenimiento de una OSDE Diagnosis of the maintenance management system of an OSDE Pedro Pablo Hernández GarciaI, Armando Díaz ConcepciónII, Leisis Villar LedoIII, Maykel Rivero VillamarzoIV I Especialista de Mantenimiento. La Habana. Cuba. garcia@sime.cu II Universidad Tecnológica de la Habana José Antonio Echeverría, Centro de Estudios en Ingeniería de Mantenimiento, La Habana. Cuba. adiaz@mecanica.cujae.edu.cu III Universidad Tecnológica de la Habana José Antonio Echeverría, Departamento de Ingeniería Industrial. La Habana. Cuba. leisis@ind.cuaje.edu.cu IV RESUMEN Uno de los procesos básicos en cualquier entidad u organismo para garantizar la sostenibilidad económica de la misma es el proceso de mantenimiento. El objetivo que tuvo esta investigación fue realizar un diagnóstico al estado del sistema de gestión de mantenimiento en una OSDE atendiendo a las tendencias actuales y que permita tomar decisiones en el establecimiento de acciones de mejoras, para desarrollar este objetivo se utilizó métodos y herramientas como fueron las encuestas y entrevistas directas así como revisión de información, como resultados fundamentales se obtuvo que aun cuando existen evidencias del cumplimento de varias de las funciones que se deben desarrollar en esta dirección faltan elementos para que la misma cumpla con su encargo social que es trazar las estrategias del sistema empresarial perteneciente al organismo. PALABRAS CLAVES: Diagnóstico, gestión de mantenimiento, herramientas, toma de decisiones. ABSTRACT One of the basic processes in any entity or organization to guarantee its economic sustainability is the maintenance process. The objective of this research was to make a diagnosis of the state of the maintenance management system in an OSDE, taking into account current trends and allowing decisions to be made in the establishment of improvement actions. To develop this objective, methods and tools such as surveys and direct interviews were used, as well as a review of information, as fundamental results it was obtained that even when there is evidence of the fulfillment of several of the functions that should be developed in this direction, there are missing elements for it to fulfill its social task, which is to draw up the strategies of the business system belonging to the organization. KEY WORDS: Diagnosis, maintenance management, tools, decision making. INTRODUCCIÓN En las últimas décadas la concepción del mantenimiento a nivel internacional ha cambiado, pasando de una actividad reactiva a adoptar una concepción proactiva y extendiéndose a asegurar la confiabilidad de los activos a través de acciones concretas, vinculadas a nuevas prácticas y referenciada bajo un sistema de gestión a través del cual se define cómo se realizan los procedimientos, de manera tal que puedan ser medidos y auditados de forma más precisa [1,2]. La gestión del mantenimiento es la variable que más repercute en el desempeño de la función mantenimiento [3,4]. Con una administración efectiva de las labores de mantenimiento, en cualquier tipo de empresa, se puede obtener la máxima calidad posible y un control eficiente de los costos y recursos materiales utilizados en los activos, garantizando disponibilidad, confiabilidad y rendimiento operativo de los equipos, con un alto nivel de eficiencia en los costos. La forma actual de gestionar el mantenimiento está estrechamente vinculada al proceso de producción o servicio que se realice por lo que se hace de extrema importancia conocer las particularidades de diferentes herramientas para poder seleccionar la más idónea a cada contexto radicando en este punto la necesidad de esta investigación [6,7]. Los grupos empresariales, son organizaciones superiores de dirección empresarial, que se crean previa autorización del Ministerio de Economía y Planificación, por resolución de los ministros de los organismos a los que están subordinados. Dentro de esta OSDE se encuentra la Dirección de mantenimiento industrial que entre otras funciones se encuentra Dirigir y controlar, en las entidades subordinadas, la aplicación de las políticas y estrategias de mantenimiento industrial y automatización del equipamiento tecnológico. Atendiendo a lo antes planteados se necesita conocer estado del sistema de gestión de mantenimiento en la OSDE atendiendo a las tendencias actuales y que permita tomar decisiones en el establecimiento de acciones de mejoras siendo este el objetivo de este trabajo. Para su cumplimiento se aplicaron diferentes métodos de recolección y tratamiento de información. MÉTODOS Para el buen cumplimiento de las funciones de la dirección de mantenimiento perteneciente a esta OSDE se analizaron diferentes renglones tales como: 1. Analizar estado de implementación de la RS 66 y 67/2021 en la OSDE y el control en las empresas y UEB. 2. Analizar estado de implementación Resolución 108/2015 en la OSDE y el control en las empresas. 3. Verificar el uso y control de portadores energéticos y lubricantes. Lineamientos 206 y 207 vinculados con el mantenimiento. 4. Analizar el cumplimiento de lo dispuesto en los Decretos 335 y 281. Todo lo referente a organización. 5. Analizar el cumplimiento de la Resolución 32 – 17 febrero 2016 – Contraloría General de la República Aspectos a tener en cuenta para la identificación de los daños y perjuicios económicos causados al patrimonio público. 6. El software adquirido no está en explotación o no es utilizado en toda su magnitud 7. Verificar estado de cumplimiento de los lineamientos 13 y 125 referentes al vínculo Universidad _ Empresa. Para esto se formó un equipo de trabajo formado por especialistas y todas las conclusiones se realizaron aplicando tormenta de ideas y aplicando el principio de consenso [7]. Se aplicó métodos de encuestas abiertas, así como revisión de la información. RESULTADOS Para todo el análisis se formó un equipo de trabajo como se muestra en la Tabla 1. Tabal 1: Formación del equipo de trabajo No. Cargo Años de experiencia 1 Especialista en mantenimiento (moderador) 20 2 Director de Mantenimiento Industrial 12 3 Especialista A en Ahorro y uso Racional de la Energía 23 4 Especialista A en Ahorro y uso Racional de la Energía 24 5 Especialista A en Ahorro y uso Racional de la Energía 16 6 Especialista Integral de Equipos e Instalaciones Industriales 23 7 Especialista Integral de Equipos e Instalaciones Industriales 12 8 Técnico en Mantenimiento Industrial 34 9 Técnico en Mantenimiento Industrial 34 Se analizaron toda la información aportada referente al área de mantenimiento llegándose a los siguientes resultados: 1. Existen evidencias que en la dirección existe un sistema organizado de trabajo en los grupos funcionales tanto el que desempeña las funciones del mantenimiento como el de energía. Esta afirmación se realiza sobre la base del análisis de las actas de los órganos colegiados y otras reuniones administrativas y técnicas, todos los especialistas tienen diseñadas sus funciones, aunque se debería revisar y potenciar las mismas atendiendo a las tendencias actuales del mantenimiento. No obstante, se le plantearon acciones de mejora en la necesaria integración que debe existir entre los dos grupos de trabajo, esta propuesta será analizada más adelante soportada en dictar una política sobre la gestión de portadores energéticos. 2. Se han realizado controles integrales al estado del mantenimiento industrial por la OSDE a las empresas subordinadas a esta Organización, no obstante, se afirma que en relación al control del estado de implementación en los diagnósticos no se realiza de forma específica al estado de implementación de las resoluciones vigentes. Se pudo evidenciar que en las empresas y UEB visitadas se han conformado y cumplidos los planes de acción derivados de los controles integrales. 3. El Decreto 108 queda inmerso en su control en base a controles integrales, no quedando claro el estado del cumplimiento de este Decreto, tampoco se pudo evidenciar a partir de la información brindada por el grupo de inspección y control del MINDUS. 4. En la Dirección se tiene control sobre el cumplimiento y actualización de los estudios de lubricación, de forma general en las empresas y UEB visitados existen y están actualizados y controlados por la Dirección de mantenimiento de la OSDE, se le deja una recomendación de emitir un procedimiento desde la dirección para el diseño de procedimiento en las empresas y UEB relativos a la gestión de los lubricantes usados. 5. En cuanto al control de los portadores energéticos se evidencia un control de los mismos cumpliendo lo estipulado por las normativas trazadas al respecto pero se analizó la necesidad de que desde la OSDE, exista no solo un control de los portadores energéticos si no también un proceso de gestión y que este elemento tenía que trasladarse hasta la base, para dar solución a esta problemática se recomienda diseñar una política de gestión de portadores energéticos, atendiendo a las tendencias actuales en este campo, sobre la base del cumplimiento de lo reglamentado por los organismos reguladores pero que de criterio del desarrollo de este proceso en la OSDE y sus empresas y que haga más eficiente la utilización de los mismos, esta política tiene puntos de integración con el grupo de mantenimiento, esta propuesta fue tomada como muy favorable para su propuesta e implementación atendiendo a los grandes volúmenes de recursos energéticos que podrán ser ahorrados. 6. En cuanto al cumplimiento de lo dispuesto en los Decretos 335 y 281. Todo lo referente a organización a partir de la revisión de toda la documentación entregada se afirma que la Dirección de mantenimiento contiene los elementos básicos referentes a documentación que facilita su organización y control del proceso, que las mismas contiene los elementos fundamentales y tiene los niveles de aprobación requeridos. No obstante, se les deja diferentes elementos a tener en cuenta con la finalidad de mejorar estos documentos, la gran mayoría son elementos de forma y ninguno de contenido, se les orienta que una vez realizado estas correcciones volver a llevar al presidente de la OSDE para su nueva revisión y aprobación. 7. Otra propuesta fundamental es elaboración, revisión y aprobación por el presidente de las políticas de mantenimiento para la OSDE sobre la base de dictar para la misma todos los objetivos y directivas a cumplir que den sostenibilidad a los resultados que se esperan de este proceso. 8. En referencia a este mismo aspecto si se les orienta trabajar en la elaboración de una cartera de indicadores que permita a la OSDE evidenciar el estado de desempeño de las entidades, así como trabajar en las propuestas de indicadores de las empresas, este elemento de forma general se evidencio con problemas en varias de las empresas controladas donde los indicadores no eran la base para la toma de decisiones. Se les recomendó varias referencias actualizadas para elaborar esta cartera. 9. En cuanto al chequeo del cumplimiento de la Resolución 32 – 17 febrero 2016 – Contraloría General de la República Aspectos a tener en cuenta para la identificación de los daños y perjuicios económicos causados al patrimonio público. Sobre la base de que el software adquirido no está en explotación o no es utilizado en toda su magnitud se puede afirmar, aunque la muestra de las empresas y UEB fue restrictiva, no se evidenciaron software adquirido que no estén en explotación, aunque en varias de ellas no están implementados en toda su magnitud, en la mayoría de las ocasiones por elementos ajenos a las Empresas y OSDE. Se propone realizar acciones de integración entre el departamento de informatización y gestión de la información y la Dirección de Mantenimiento Industrial en busca de lograr sistemas de información integrales, que brinden información en tiempo real y que sirva para la gestión del proceso y la toma de decisiones. Otra acción recomendada es la de capacitar a los especialistas de mantenimiento en esta área del conocimiento para el apoyo de esta integración. 10. En cuanto a la verificación del estado de cumplimiento de los lineamientos 13 y 125 referentes al vínculo Universidad _ Empresa se pudo constatar que en la actualidad el grupo de energía ha realizado 34 tesis y proyectos con la Universidad, estos mismo resultados no son obtenidos en el otro grupo dejando este problema como una acción a implantar en el futuro, no obstante aprovechando el marco del control se han comenzado a realizar contactos con la Facultad de Mecánica y con el Centro de Estudios de Ingeniería de Mantenimiento en específico con la finalidad de darle un vuelco al problema planteado y ya se propuso incrementar el nivel de los principales especialistas. CONCLUSIONES De los resultados presentados de los hallazgos se plantea la necesidad de realizar acciones de mejoras atendiendo a las tendencias actuales de mantenimiento y que pongan a esta Dirección al nivel que necesita como guía a las entidades adscritas a esta organización. REFERENCIAS 1. ACOSTA, Palmer. H. R. y Troncoso, F. M. (2011). Auditoria integral de mantenimiento en instalaciones hospitalarias, un análisis objetivo. Ingeniería Mecánica, 14(2),107-118. 2. DÍAZ, Concepción A., Castillo, Serpa A., & Villar, Ledo L. (2017). Instrumento para evaluar el estado de la gestión de mantenimiento en plantas de bioproductos: Un caso de estudio. Ingeniare. Revista chilena de ingeniería, 25(2), 306-313. 3. VÁSQUEZ, G. & Emiro J. (2011). Metodología para auditar la gestión de mantenimiento de PDVSA Caso: Rrefinería San Roque. Mantenimiento en Latinoamerica, 2 (1), 21-35. 4. AMENDOLA, L. J. (2012). ¿Cómo diagnósticar organizaciones de Gestión Integral de Activos Físicos? . PMM Project Magazine, Vol. 23 p 11. 5. VILLAR Ledo, L., Díaz Concepción, A., Infante Abreu, M. B., Vilalta Alonso, A., & Alfonso Álvarez, Á. A. (2022). Análisis de herramientas para el diagnóstico de la gestión del mantenimiento. Revista Universidad y Sociedad, 14(1), 493-510 6. DÍAZ, Concepción A., Villar, Ledo Leisis, Rodríguez, Piñeiro Alberto J., et al, (2019). Methodology for maintenance management based on diagnostic criteria. Revista DYNA, 6(211), 220-226. 7. SHANE, B. “Utilizing and adapting the Delphi Method for use in qualitative research´´. International Journal of Qualitative Methods. 2015, v. 14, n. 5, p. 1-6. DOI: 10.1177/1609406915621381.   EVALUACION DE LOS VEHICULOS EN LA CADENA DE SUMINISTRO CON COMBINACION DE ROLES Noel Mederos Alvarez1, Laksmi Penabad-Sanz2 1Empresa Comercializadora y Distribuidora de Medicamentos, Calzada de Vento No.4161 e/ Línea del Ferrocarril y Callejón, La Habana, Cuba. mederosnoel@gmail.com 2 Facultad de Ingeniería Mecánica, Universidad Tecnológica de La Habana José Antonio Echeverría, La Habana, Cuba. laksmi@mecanica.cujae.edu.cu    RESUMEN Las empresas operadoras de flotas de transporte pueden participar indistintamente como operador logístico y empresa comercializadora en la cadena de suministro. El presente estudio tiene el objetivo de proponer el monitoreo de la degradación de los vehículos en la Empresa Comercializadora y Distribuidora de Medicamentos, que opera con combinación de roles, con el uso del indicador disponibilidad, del límite de control basado en el equilibrio de los impactos en el resultado económico de la operación de los vehículos y considerando la influencia de la subcontratación, permitiendo identificar los vehículos impactan negativamente en el resultado económico de la entidad, así como las oportunidades de mejora. La clasificación del impacto del vehículo se realiza por el método gráfico a través del Gráfico de Estado de la Racionalidad. La aplicación de la propuesta a una flota real ilustra sus posibilidades en condiciones reales, particularmente en entornos de fuertes restricciones económicas, con bajo nivel tecnológico de la flota y de disponibilidad de datos. PALABRAS CLAVES: cadena logística; distribución; operador logístico; disponibilidad; combinación de roles. VEHICLES EVALUATION IN THE SUPPLY CHAIN WHITH COMBINATION OF ROLES ABSTRACT Transport fleet operating companies can participate indistinctly as logistics operator and marketing company in the supply chain. The objective of this study is to propose the degradation monitoring of the vehicles in the Drug Marketing and Distribution Company, which operates with a combination of roles, with the use of the availability indicator, the control limit based on the balance of the economic impacts result of the vehicles operation and considering the subcontracting influence, allowing to identify the vehicles that have a negative impact on the entity economic result, as well as the opportunities for improvement. The classification of the vehicle impact is carried out by the graphic method through the Graph of State of Rationality. The application of the proposal to a fleet illustrates its possibilities in real conditions, particularly in environments with strong economic restrictions, with a low technological level of the fleet and data availability. KEY WORDS: logistics chain; distribution; logistics operator; availability; role matching 1 INTRODUCCION El mantenimiento basado en el estado (CBM, por sus siglas en inglés) es una forma de mantenimiento que se centra en el monitoreo de la degradación de los activos a través de indicadores de estado [1], mostrando la capacidad funcional de los activos y posibilitando la toma de decisiones. Consiste en estudiar la evolución temporal de ciertos parámetros y asociarlos a la evolución de defectos, para así determinar en qué período de tiempo ese defecto va a convertirse en fallo [2]. El fallo supone la pérdida de la capacidad de trabajo del vehículo y con ello   impacta desfavorablemente en el resultado económico. Contribuciones recientes relacionadas con el CBM en el entorno logístico han estado dirigidas a la optimización conjunta de procesos de mantenimiento y logísticos. Tal es el caso de Jing et al. [4] que optimizan el mantenimiento de los aviones y la utilización del inventario de piezas de repuesto, la revisión de Hwang and Samat [5] sobre la optimización conjunta del mantenimiento y la planificación de la producción y las piezas de repuesto de sistemas de fabricación, el trabajo de Regattieri et al. [6] dirigido a la integración entre el fallo en aviones y el proceso de reparación o el modelo de decisión propuesto por Liu et al. [7] que vincula las decisiones de mantenimiento predictivo y las decisiones de planificación de la producción. También se ha vinculado el CBM con el control estadístico de procesos en cadenas de suministro [8]. La aplicación del CBM se distingue además por la complejidad de los modelos matemáticos, la necesidad de abundantes datos, instrumentación y sistemas de procesamiento de datos costosos y personal altamente calificado [11][12][13][3] que limitan la aplicación del CBM a situaciones reales. De acuerdo con Quatrini et al [3], existe una tendencia al incremento en la investigación del CBM en el transporte, aunque, la relación entre la degradación del medio de transporte y el resultado económico de su operación en el entorno logístico ha sido poco tratado. La Unidad Empresarial Básica de Operaciones de Emcomed (UEBO) es la encargada de la extracción de los contenedores de materias primas y productos provenientes de puertos y aeropuertos, teniendo como destino final los centros de almacenamiento de Plataforma Logística y Suministros Farmacéuticos. Una vez que arriban a dichos almacenes son distribuidos a los centros de producción nacional. A partir de este punto comienza el proceso de distribución de Emcomed denominado como distribución primaria donde son enviados los medicamentos fabricados de los centros de distribución a todas las droguerías del país. Posteriormente se realiza el proceso de distribución secundaria que se despliega desde las Droguerías hasta las Instituciones de Salud y Farmacias de todo el país, para de esta forma hacer llegar los medicamentos a la población. Todo el proceso de transportación es llevado a cabo por la flota propia de Emcomed que participa como comercializadora y operador logístico en función de las condiciones que se presenten. El presente estudio tiene el objetivo evaluar los vehículos de Emcomed que participan la transportación primaria de medicamentos con combinación de roles a través del monitoreo del indicador disponibilidad y el límite de control basado en el equilibrio de los impactos en el resultado económico de la operación de los vehículos, considerando la influencia de la subcontratación del servicio de transporte, como vía de identificación de los vehículos que impactan positiva o negativamente en el resultado económico de la entidad y con ello la detección de oportunidades de mejora. 2 IMPACTO EN EL RESULTADO ECONOMICO DE LOS VEHICULOS SEGÚN EL ROL EN LA CADENA LOGISTICA DE MEDICAMENTOS   La distribución es la comercialización y transporte de productos a los consumidores y alude al conjunto de estrategias y procesos para mover los productos desde el punto de fabricación hasta el punto de venta [14]. La comercialización, por su parte, se refiere a las actividades que aseguran que el producto se encuentre en el lugar, en el momento, al precio y en la cantidad requeridos, garantizando así ventas rentables [15] al colocar el producto a disposición de los consumidores [16]. La transportación en Emcomed cuando realiza el rol comercializador está dividida en dos etapas: distribución primaria y distribución secundaria, empleando las modalidades de trasportación de las que se disponga ya sea con flota propia y/o servicio subcontratado. Todos los medicamentos que se transportan con el rol de comercializador son cargas propias pues son productos adquiridos para la venta. El transporte aporta al resultado económico de Emcomed en forma de ahorro si los medicamentos se transportan por medios de transporte propios o gastos si se realiza por servicios de transporte subcontratados (ver Tabla 1). Tabla 1. Vinculo del transporte con el resultado económico de Emcomed según el rol con que se participa en la cadena de suministro. Fuente: [17] Rol en la cadena de suministro Propiedad de la carga Modalidad de transporte Flota propia Servicio subcontratado Comercializador Propia Ahorro Gasto de subcontratación Operador logístico Ajena Utilidad Utilidad El operador logístico ofrece, básicamente, dos servicios principales: el almacenamiento y transporte de productos. Los servicios de transporte pueden ser ofrecidos igualmente por medios propios o servicios subcontratados [18]   desde el punto de salida en un origen hasta el punto de llegada en un destino [19]. A diferencia de un comercializador, el operador logístico no es dueño de la carga que transporta y el resultado económico es la utilidad generada por los viajes realizados en la transportación de las cargas del cliente (ver Tabla 1). Este el caso cuando Emcomed transporta los insumos necesarios desde los puertos y aeropuertos hasta los laboratorios de producción de medicamentos. La relación existente entre el estado en que se encuentre el vehículo y su impacto en el resultado económico es estrecha (Figura 1). Con independencia del rol que desempeñe, un vehículo de carga en buen estado (disponible), se va a encontrar en condiciones para el trabajo por lo que, si existe demanda de transportación, se le asignará una carga y el vehículo pasaría al estado trabajando siendo su impacto en el resultado económico de Emcomed en forma de beneficio económico ya sea como ahorro en caso del rol comercializador o como utilidad en caso de rol logístico. Si el estado técnico del vehículo no le permite realizar actividad alguna entonces se encuentra en el estado fuera de servicio. El impacto en el resultado económico de la organización es en forma de afectación económica pues los gastos fijos se mantienen y si existe la demanda de transportación (tanto propia como ajena), es necesario subcontratar el servicio incurriendo en un gasto por subcontratación. El efecto de este último se reduce en el rol operador logístico pues también se produce un ingreso por lo que la afectación es menor. Además, se incurre en un costo de oportunidad, pues no se genera el ahorro o la utilidad según la procedencia de la carga. Figura 1 Relación entre el estado del vehículo y el impacto en el resultado económico. Fuente: [17] 3 COMPONENTES DEL CBM APLICADO A LA SITUACION DE ESTUDIO El monitoreo de la degradación de los sistemas requiere de tres definiciones iniciales: los IC que serán monitoreados, la frecuencia de inspección y los límites de control de los IC a partir de los cuales la operación de los activos no es permisible [20]. En el marco de los servicios logísticos, el indicador que caracteriza el estado técnico del vehículo de transporte de carga es la disponibilidad. Este indicador es ampliamente utilizado y disminuye en la medida que se incrementa el deterioro del activo. El indicador disponibilidad resume cuantitativamente el perfil de funcionabilidad de un elemento y en la práctica se expresa como la proporción de tiempo en que el sistema se encuentra disponible para operar o producir [21], o sea, el vehículo se encuentra en un estado técnico que le permita cumplir con su función. En este sentido, niveles bajos de disponibilidad de los vehículos suponen la degradación del estado técnico de estos, lo que se refleja directamente el proceso logístico. El límite de control de la disponibilidad está dado por el punto de equilibrio entre el beneficio económico por el trabajo del vehículo (BE) y las afectaciones económicas que se producen por el tiempo sin trabajar (AE), de acuerdo a lo explicado por Penabad Sanz et al. [22]. Este punto fue definido por estos autores como límite de uso racional. El tiempo trabajando por un vehículo genera beneficios económicos, mientras que el tiempo sin trabajar influye negativamente, provocando una afectación económica. El beneficio económico generado por el trabajo de un vehículo en un periodo determinado depende del beneficio diario por trabajar ܽ y el tiempo trabajado T୲ del vehículo según la ecuación (1), mientras que la afectación económica se genera cuando el vehículo se encuentra en los estados: inactivo y fuera de servicio y se   calcula tomando como referencia las ecuaciones establecidas por Mederos Alvarez et al [17]. Al transformar la expresión del límite de uso racional con el indicador disponibilidad se obtiene la ecuación del límite de control siguiente: Donde α୲ై౅౉es la disponibilidad límite, ܽ, ܾ, ܿ parámetros de la función y αୱ el coeficiente de salida y constituye la variable independiente. La expresión representa el límite de uso racional, o sea, el equilibrio entre BE y AE. Las expresiones de la (2) a la (11) permiten calcular los parámetros de la función para un conjunto de vehículos asumiendo que vehículos iguales operando en el mismo contexto tienen el mismo límite de control. ܽ ൌ I௠௘௤ െ ݒ ∙ ݈௧೏ െ Fୢ (2) ܾ ൌ I௠௘௤ െ vl୲ౚ ൅ Fୢ (3) ܿ ൌ ܾ ൅ 2α௦௖ሺܩ௦௖೏ െ ݊௦ܫ௙௔௖௧೏ሻ (4) ݒ ൌ෍ܫܥ௞݌௞ ൅ ∑ሺ ௜ܰ ∙ ܥெ்௜ሻܫ௖௜௖௟௢ ൅ ܥ௥௘௣ ܦܯܧܨ (5) ܫ௙௔௖௧೏ ൌ ܫ௙௔௖௧೟ ݊௦ܣܦ௦௖ (6) I௠௘௤ ൌ ݊௣ܩ௦௖೏ ൅ ݊௦ܫ௦ (7) l୲ౚ ൌ ቐ l୲ AD୲.0 AD୲ ൒ 0 AD୲ ൌ 0 (8) ݊௣ ൌ AD୲೛ AD୲ (9) ܩ௦௖೏ ൌ ܩ௧௢௧௔௟ ܣܦ௦௖ (10) ݊௦ ൌ 1 െ ݊௣ (11) Donde: I୫ୣ୯: ingreso medio equivalente del conjunto de vehículos, $/d. ݒ: costo variable unitario de la operación del conjunto de vehículos, $/km. l୲ౚ: distancia media diaria recorrida por el conjunto de vehículos, km/d. ܨௗ: gastos fijos diarios del conjunto de vehículos, $/d. α௦௖: probabilidad de que exista carga cuando el vehículo se encuentre fuera de servicio. ܩ௦௖೏: gasto medio diario por la subcontratación de un vehículo de la misma capacidad del bloque, $/día. nୱ: probabilidad de que la transportación esté relacionada a una carga ajena. ܫ௙௔௖௧೏: ingreso medio diario facturado por el servicio prestado, en el rol de operador logístico, $/día ݊௣: probabilidad de que la transportación esté relacionada a una carga propia. ܫ௦: ingreso por concepto de servicio relacionado con una carga ajena AD୲: cantidad de días trabajado por los vehículos en un periodo, d. ܩ௧௢௧௔௟: gastos totales relacionados con la tercerización de la actividad de transporte, $ ܣܦ௦௖: cantidad de días trabajado, en rol de operador logístico, por los vehículos relacionados con la subcontratación de la actividad de transporte en un periodo, d AD୲೛: cantidad de días trabajados, en rol comercializador, por los vehículos en un período relacionados con transportaciones propias, d AD୲ೞ: cantidad de días trabajado, en rol de operador logístico, por los vehículos en un período relacionados con transportaciones de servicio, d α୲ై౅౉ ൌ ܿ αୱሺܽ ൅ ܾሻ ൅ ܿ െ ܾ ∀ αୱ ∈ ൤ ܾ ܽ ൅ ܾ , 1൨ (1)   l୲: distancia total que deben recorrer los vehículos en el período de planificación, km. ݇: materiales de explotación (combustibles, neumáticos y baterías) ܫܥ௞: norma de consumo del material de explotación k, k/km ݌௞: precio del material de explotación k, $/unidad del material ݇. ݅: i-ésimo mantenimiento tipo. ௜ܰ: cantidad de mantenimientos tipo i que se realizan en un ciclo de mantenimiento. ܥெ்௜: costo del mantenimiento tipo i, $. ܫ௖௜௖௟௢: ciclo de mantenimiento, km. ܥ௥௘௣: costo medio de reparación, $. DMEF: distancia media entre fallos, km. 4 PROCEDIMIENTO PARA LA EVALUACION DE LOS VEHICULOS La evaluación se realizó para el periodo de un año. El procedimiento seguido fue el siguiente: 1. Segmentación de la flota en bloques homogéneos atendiendo a las características de los vehículos y del contexto operacional. 2. Cálculo de los parámetros del modelo para cada bloque a partir de los datos de la planificación realizada para el periodo, con lo que se obtuvo la función α୲ై౅౉. Para ello se emplearon las expresiones de la (1) a la (11). 3. Clasificación de los vehículos a través del método gráfico. La clasificación en operación aceptable o inaceptable se realiza utilizando el Gráfico de Estado de la Racionalidad (GER) [23] de vehículos de transporte de cargas. Este gráfico se muestra en la ¡Error! No se encuentra el origen de la referencia.. En este, la curva continua representa la función de la disponibilidad límite según la ecuación (1) y la discontinua, la frontera entre operación y mantenimiento dada por la expresión (12). La clasificación se realiza según la zona en la que se ubiquen los pares coordenados (αୱ; α୲) de cada vehículo. Ambos indicadores se calculan a través de las expresiones (13) y (14).   Figura 2 Grafico de Estado de la Racionalidad (GER). [23] α୲୓ି୑ ൌ 1 2 െ αୱ ∀ αୱ ∈ ൤0, 2ܾ ܽ ൅ 2ܾ൨ (12) αୱ ൌ D୲D୮ െ D୤ୱ (13) α୲ ൌ D୮ െ D୤ୱD୮ (14) Donde: α୲୓ି୑: Disponibilidad en la frontera de operación y mantenimiento. De acuerdo con Penabad Sanz [23], para todos los puntos de esta función se cumple que el tiempo inactivo es igual al tiempo fuera de servicio. Esto permite separar la prevalencia de cada uno de estos tiempos en el tiempo sin trabajar del vehículo. D୲: Cantidad de días trabajados del vehículo en el periodo, d.  D୤ୱ: Cantidad de días fuera de servicio del vehículo en el periodo, d. D୮: Cantidad de días del periodo, d. La clasificación coincide con los nombres de cada zona. O sea, un vehículo que se encuentra en la zona de uso aceptable se clasifica como vehículo con operación aceptable y significa que impacta favorablemente en el resultado económico (BE ൒ AE). Si se encuentra en la zona de uso inaceptable por mantenimiento entonces impacta desfavorablemente en el resultado económico (BE ൏ AE) y el tiempo fuera de servicio prevalece en el tiempo sin trabajar (tiempo fuera de servicio es mayor que el tiempo inactivo). Igualmente, si el vehículo se encuentra en la zona de uso inaceptable por operaciones significa que también impacta desfavorablemente en el resultado económico pero el tiempo inactivo es el que prevalece en el tiempo sin trabajar (tiempo inactivo es mayor que el tiempo fuera de servicio). De esta manera se identifican los vehículos que impactan desfavorablemente en el resultado económico, lo que determina la existencia de oportunidades de mejora. La flota evaluada está integrada por 31 vehículos con los atributos mostrados en la Tabla y que se emplean en la distribución primaria de medicamentos (rol comercializador) y la transportación de suministros a los laboratorios para la producción de medicamentos (rol operador logístico). Cuando no es posible satisfacer la demanda de trasportación tanto de cargas propias (medicamentos) como ajenas (suministros a los laboratorios farmacéuticos) se subcontrata la transportación.   Tabla 2 Características de la flota. Fuente: Los autores Marca Modelo Motor Capacidad (t) Cantidad Años de explotación VW 18310 6C3AA8.220 30 4 12 VW 17220 6C3AA8.3 10 16 12 Freightliner FLD120 CUMMINS M11 25 5 25 Hyundai HD-120 WEICHAI N4102QB2 8 2 10 Howo HOWO WEICHAI WD615,62 3.5 2 2 Howo HOWO D6AB 8 2 2 En el cálculo de los parámetros de α୲ై౅౉ fueron empleados los datos extraídos de registros de operación y mantenimiento (cartas porte, órdenes de trabajo de mantenimiento y los reportes económicos). En el caso específico de los datos operacionales se utilizaron los registros para el control de flotas. Para el análisis de los resultados fueron seleccionados los bloques que poseían más de dos vehículos en su estructura. 5 RESULTADOS Y DISCUSIÓN Como resultado de la aplicación del procedimiento se obtuvo que los criterios relevantes para la agrupación de los vehículos son: el modelo y su capacidad de carga, pues el nivel de actividad planificada y el tiempo en operación son iguales para cada modelo por lo que no se subdivide. Se segmentó la flota en seis bloques homogéneos (A, B, C, G, H, y L) correspondientes a cada modelo y capacidad de carga de los vehículos como se muestra en la Tabla 5. En esta tabla también se muestran los valores calculados de los parámetros de la función α୲ై౅౉ correspondientes a cada bloque. Los valores de α୲ y αୱ de cada vehículo se muestran en la Tabla 6 y se emplearon para la ubicación de estos en los gráficos correspondientes (Figura 3). Tabla 3 Variables fundamentales correspondientes a cada bloque. Fuente: Los autores Bloques Modelo Capacidad I୫ୣ୯ ݒ l୲ Fୢ ܽ ܾ ܿ A 18 310 30 518.98 0.41 69886.45 3.67 371,88 375,55 667,91 B 17 220 10 3612.62 0.38 793723.30 3.67 3451,17 3454,84 7324,61 C FLD120 25 5235.58 0.55 89 618 3.67 4988,32 4991,99 7581,48 G HOWO 3.5 3205.29 0.52 53262 3.67 3132,10 3135,77 7611,35 H HOWO 8 3138.90 0.65 105469 3.67 2864,21 2867,88 6307,17 L HD-120 8 3663.93 0.36 34609 3.67 3611,48 3615,15 10518,31   En la Tabla 3, que muestra los valores calculados de los parámetros de la función α୲ై౅౉ de cada bloque, se observa que para todos los bloques los valores de ܽ son mayores que 0, lo que significa que la operación de los vehículos de la flota genera utilidades que vienen dadas fundamentalmente por el ahorro debido a las subcontrataciones evitadas. Por tanto, con relación a los gastos directos, la existencia de una flota propia se justifica económicamente. También se puede observar que los valores de ܽ, ܾ y ܿ del bloque A son los más bajos cuando son los vehículos de mayor capacidad de carga. Esto se debe a que los bloques B, C, G, H cuentan con furgones refrigerados, para los que las tarifas de transportación son superiores en ambos roles y con ello los valores de ܽ , ܾ y ܿ. Tabla 4 Coordenadas para representación gráfica Bloques Vehículo α୲ αୱ A 1 0,76 0,21 2 0,17 0,00 3 0,89 0,22 4 0,74 0,26 B 5 0,26 0,52 6 0,85 0,32 7 0,70 0,41 8 0,87 0,39 9 0,66 0,38 10 0,83 0,47 11 0,87 0,38 12 0,70 0,46 13 0,82 0,44 14 0,44 0,81 15 0,91 0,44 16 0,81 0,40 17 0,64 0,35 18 0,74 0,77 19 0,58 0,70 20 0,77 0,45 C 21 0,74 0,23 22 0,63 0,33 23 0,08 0,00 24 0,79 0,17 25 0,82 0,25 G 26 0,81 0,66 27 0,78 0,70 H 28 0,64 0,46 29 0,83 0,38 L 30 0,54 0,88 31 0,08 0,00 Las coordenadas para la representación gráfica se muestran en la Tabla 4, los valores de αୱ indican el nivel de aprovechamiento de los días en buen estado, mientras los valores de α୲ indican el nivel de disponibilidad presentado por los vehículos en el periodo analizado.   Figura 3 Estado de racionalidad en el uso de los vehículos para cada bloque   La clasificación obtenida a partir de los gráficos se presenta en Tabla 5 Tabla 5 Clasificación de los vehículos. Fuente: Los autores Bloques Vehículo Operación Inaceptable por A 1 Inaceptable Mantenimiento 2 Inaceptable Operaciones 3 Inaceptable Operaciones 4 Inaceptable Operaciones B 5 Inaceptable Mantenimiento 6 Inaceptable Operaciones 7 Inaceptable Operaciones 8 Inaceptable Operaciones 9 Inaceptable Operaciones 10 Inaceptable Operaciones 11 Inaceptable Operaciones 12 Inaceptable Operaciones 13 Inaceptable Operaciones 14 Inaceptable Mantenimiento 15 Inaceptable Operaciones 16 Inaceptable Operaciones 17 Inaceptable Operaciones 18 Inaceptable Mantenimiento 19 Inaceptable Mantenimiento 20 Inaceptable Operaciones C 21 Inaceptable Operaciones 22 Inaceptable Operaciones 23 Inaceptable Mantenimiento 24 Inaceptable Operaciones 25 Inaceptable Operaciones G 26 Inaceptable Operaciones 27 Inaceptable Operaciones H 28 Inaceptable Mantenimiento 29 Inaceptable Operaciones L 30 Inaceptable Mantenimiento 31 Inaceptable Mantenimiento Como se puede observar en la Tabla 5, el 100 % de los vehículos es evaluado con operación inaceptable por lo tanto impactan negativamente en el resultado económico de Emcomed. En los gráficos de la Figura 3 y en la Tabla 5 se muestra que 22 vehículos (70,97 %) se ubican en la zona de uso inaceptable por operaciones. Esto sugiere bajos niveles de aprovechamiento que pueden estar vinculados a problemas de planificación y la organización de la distribución de las cargas. Solamente 9 vehículos (29,03 %), se ubican en la zona de uso inaceptable por mantenimiento, a pesar de presentar vehículos con más de 10 años de explotación. Ello es contrario al criterio generalmente aceptado de que el mantenimiento es responsable de las afectaciones que se producen por el tiempo sin trabajar de los vehículos, sobre todo en vehículos con muchos años de explotación. En general, la evaluación de los vehículos a través del procedimiento mostrado permite identificar los vehículos que impactan negativamente en el resultado económico. Las expresiones de cálculo son sencillas, sin operaciones matemáticas complejas y los datos que se requieren coinciden con los que comúnmente se registran en las empresas de transporte. Tampoco requiere de un elevado nivel tecnológico para la adquisición y procesamiento de los datos ni precisa de elevado nivel académico de los trabajadores. El GER, como herramienta gráfica, facilita la clasificación y la socialización de los resultados. Además, la identificación de la presencia de oportunidades de mejora en el nivel de unidad y de flota, sobre la base de la apreciación de tendencias individuales y grupales. El monitoreo con una frecuencia de evaluación determinada permitirá dar un seguimiento al comportamiento de la flota y valorar los efectos de las medidas que se tomen luego de la identificación de los vehículos con operación inaceptable   6 CONCLUSIONES La evaluación de los vehículos que participan en la cadena logística de medicamentoso con combinación de roles y con subcontratación del servicio, a través de la disponibilidad es factible y contribuye a la detección de oportunidades de mejora. Permite realizar inferencias sobre la aceptabilidad de la operación del vehículo con relación al impacto en el resultado económico y con ello orientar las acciones mejora de manera tal que repercutan de manera favorable en el resultado económico de la empresa. REFERENCIAS BIBLIOGRAFICAS [1] Alaswad, S. & Xiang, Y. (2017). A review on Condition-Based Maintenance Optimization Models for Stochastically Deteriorating System. Reliability Engineering and System Safety, 157, 54–63. doi: 10.1016/j.ress.2016.08.009 [2] Andrés Gutiérrez, L, H.G. (2015), Elaboración del plan de mantenimiento basado en condición para la flota vehicular de mezcladoras de concreto de una empresa productora de concretos, morteros y derivados, in Facultad de posgrados, Bogotá. p. 107. [3] Quatrini, E, Costantino, F, Di Gravio, G. & Patriarca, R (2020). Condition-Based Maintenance— An Extensive Literature Review. Machines, 8(2), 31; doi: 10.3390/machines8020031 [4] Cai, Jing., Yin, Y. & Zhang, L. (2017). Joint Optimization of Preventive Maintenance and Spare Parts Inventory with Appointment Policy. Mathematical Problems in Engineering, 20172.doi: 10.1155/2017/3493687 [5] Hwang, J. & Samat, H. A. (2019, June). A Review on Joint Optimization of Maintenance with Production Planning and Spare Part Inventory Management. In IOP Conference Series: Materials Science and Engineering (Vol. 530, No 1, p. 012048) IOP Publishing. doi:10.1088/1757- 899X/530/1/012048 [6] Regattieri, A., Giazzi, A., Gamberi, M. & Gamberini, R. (2015). An innovative method to optimize the maintenance policies in an aircraft: General framework and case study. Journal of Air Transport Management, 44, 8-20. doi: 10.1016/j.jairtrama.2015.02.001 [7] Liu, Q., Dong, M., Chen, F. F., Lv, W., & Ye, C. (2019). Single-machine-based joint optimization of predictive maintenance planning and production scheduling. Robotics and Computer Integrated Manufacturing, 55, 173-182. doi: 10.1016/j.rcim.2018.01.002. [8] Zhao, X., Lv, Z., He, Z., & Wang, W. (2019). Reliability and opportunistic maintenance for a series system with multi-stage accelerated damage in shock environments. Computers & Industrial Engineering, 137, 106029.doi: 10.1016/j.cie.2019.106029 [9] Amari, S. V., McLaughlin, L. & Pham, H. (2006, January). Cost-effective condition-based maintenance using Markov decision processes. In RAMS´06. Annual Reliability and Maintainability Symposium, 2006. (pp. 464-469) IEEE. doi: 10.1109/RAMS.2006.1677417. [10] Makis, V., Jiang, X., & Jardine, A. K. S. (1998). A condition-based maintenance model. IMA Journal of Mathematics Applied in Business and Industry, 9(2), 201-210. doi: 10.1093/imaman/9.2.201. [11] Dekker, R. (1996). Applications of maintenance optimization models: A review and analysis. Reliability Engineering & System Safety. 51(3), 229-240. [12] Van Horenbeek, A., Pintelon, L. & Muchiri, P. (2010). Maintenance optimization models and criteria. International Journal of System Assurance Engineering and Management, 1(3), 189-200. Doi: 10.1007/s13198-011-0045-x. [13] Tsui, K. L., Chen, N., Zhou, Q., Hay, Y. & Wang, W. (2015) Prognostics and health management: A review on data driven approaches. Mathematical Problems in Engineering. 2015. DOI: 10.1155/2015/793161. [14] Fleitman, J. (2000). Negocios exitosos. Como empezar, administrar y operar eficientemente un negocio, McGraw-Hill. [15] Mankiw, N. G. (2007). Principles of Economics, 4th edition. South-Western College Pub, ISBN 0324224729   [16] Armstrong, G. & Kotler, P. (2016). Marketing Management. Global edition, 15E.Pearson Education. doi.org/10.1080/08911760903022556 [17] Mederos-Alvarez, N., Penabad-Sanz, L., Rodríguez-Ramos, P.A. and Iznaga-Benítez, A.M., (2022) Monitoring of vehicle degradation in fleets of companies involved in the logistics chain with a combination of roles. DYNA, 89(223), pp. 88-96, July - September, 2022. DOI: https://doi.org/10.15446/dyna.v89n221.100792 [18] Marasco, A. (2008). Third-party logistics: A literature review. International Journal of Production Economics. 113(1), 127-147. doi: 10.1016/j.ijpe.2007.05.017. [19] Granillo-Macías, R., González-Hernández, I. J. & Santana-Robles, F. (2019). Operadores Logísticos, Ingenio y Conciencia, 6(11), 44-48. doi: 10.29057/ess. v6i11.3740 [20] Shin, J. H., & Jun, H. B. (2015). On condition-based maintenance policy. Journal of Computational Design and Engineering, 2(2), 119-127. doi: 10.1016/j.jcde.2014.12.006 [21] Mesa Grajales, D. H., Ortiz Sánchez, Y. & Pinzón, M. (2006). La confiabilidad, la disponibilidad y la mantenibilidad, disciplinas modernas aplicadas al Mantenimiento. Scientia et Technica, 1(30), 155-160. [22] Penabad Sanz, L., Rodríguez Ramos, P. A., & Iznaga Benítez, A. M. (2018). Monitoreo de la degradación de los vehículos de transporte de cargas a través de la disponibilidad. Dyna, 85(205), 355-362. doi: 10.15446/dyna.v85n205.68443 [23] Penabad Sanz, L. (2021). Método para clasificar la utilización de los vehículos en flotas de empresas de transporte de cargas. Universidad Tecnológica de La Habana, La Habana. [24] Feuerman, M., & Miller, A. R. (2008). Relationships between statistical measures of agreement: sensitivity, specificity and kappa. Journal of Evaluation in Clinical Practice, 14(5), 930–933. doi: 10.1111/j.1365-2753.2008.00984. N. Mederos-Alvarez, graduado de Ingeniería Mecánica en el año 2016 en la Universidad Tecnológica de la Habana José Antonio Echeverria (CUJAE). Actualmente trabaja como especialista en Sistema empresarial en la Empresa Comercializadora y Distribuidora de Medicamentos. Miembro del grupo de investigación de ingeniería del transporte de la Facultad de Ingeniería Mecánica. Su campo de acción esta relacionado con la gestión del mantenimiento y el mantenimiento en flotas de transporte. ORCID: 0000-0001-7690-037X L. Penabad-Sanz, graduada de Ingeniería Mecánica e Industrial en 1999 y 2009 respectivamente. Master en Gestión Integral del Transporte Mención Automotriz en 2011.Doctorado en Ciencias Técnicas en 2021, todo en la Universidad Tecnológica de la Habana José Antonio Echeverria (CUJAE). Actualmente se desempeña como vicedecana de la Facultad de Ingeniería Mecánica y profesor asistente. Dirige el grupo de investigación de ingeniería del transporte de la Facultad de Ingeniería Mecánica. Investiga proyectos relacionados con la operación y mantenimiento de flotas de transporte, particularmente gestión del mantenimiento, evaluación tecnológica de vehículos y mantenimiento automotriz. ORCID: 0000-0001-9106-2087 Recuperación de estériles en plantas de áridos Rafael Betancourt Varela, , Armando Díaz ConcepciónII, Jorge Varela-CancinoIII I Empresa de canteras. MICONS. rafael@canternet.cu II Universidad Tecnológica de la Habana José Antonio Echeverría, Centro de Estudios en Ingeniería de Mantenimiento, La Habana. Cuba.adiaz@mecanica.cujae.edu.cu III Compañía minera Autlan, Unidad Molango. México. vargas@emta.co.cu RESUMEN Uno de los procesos básicos en cualquier entidad es garantizar el cumplimiento de los estándares de calidad del o los productos, un impacto significativo juegas las estrategias y acciones mantenimiento que se deben ejecutar. Esta investigación tuvo como objetivo recuperar la materia prima que se pierde en el proceso de separación de estériles durante la producción de áridos, determinando las acciones de mejora para que los productos que se obtengan cumplan con los requerimientos de calidad, seguridad a las personas y al medio ambiente. Para dar cumplimiento se revisaron catálogos, normas técnicas de calidad, manuales de procesamiento y trabajo en equipo. Como resultado más importante fue la propuesta de una nueva tecnología con la inclusión de activos necesarios que nos permita obtener el objetivo trazado PALABRAS CLAVES: Toma de decisiones, tecnología, calidad, medio ambiente ABSTRACT One of the basic processes in any entity is to guarantee compliance with the quality standards of the product or products, a significant impact is played by the strategies and maintenance actions that must be executed. The objective of this research was to recover the raw material that is lost in the sterile separation process during the production of aggregates, determining improvement actions so that the products obtained meet the requirements of quality, safety for people and the environment. environment. To comply, catalogs, technical quality standards, processing manuals and teamwork were reviewed. The most important result was the proposal of a new technology with the inclusion of necessary assets that allow us to obtain the objective set. KEY WORDS: Decision making, technology, quality, environment INTRODUCCIÓN Durante la producción de áridos, debido a las condiciones que presentan los frentes de canteras se hace necesario la separación de tierras que vienen con el material alimentado, que en nuestro caso es de un 40% del total de la masa minera puesta en la tolva de alimentación, en dichos estériles se va un porciento de material que puede ser recuperado e incorporado al proceso, mejorando así el aprovechamiento de la masa que se extrae de la mina Es por ello que nos planteamos las siguientes preguntas: ¿Se podrán aprovechar los desechos? ¿Qué parte de ellos se podrán Utilizar? ¿Cómo los vamos a Recuperar? ¿Qué Beneficios nos aportaría recuperar estos desechos? MÉTODOS Para ello se reunió un grupo especialistas de las diferentes áreas de la empresa (Área Técnica; Producción, minería; Mantenimiento Industrial), se realizaron a nivel de laboratorio análisis de granulometría de los estériles producidos; se revisaron catálogos de los equipos, los manuales de procesamientos y procedimientos existentes en nuestra empresa, determinándose la tecnología más conveniente para la extracción del material reutilizable presente en los desechos RESULTADOS Para dar respuesta a las dos primeras preguntas, se tomaron muestras de los estériles producidos en dos plantas de la UEB San José, que se encuentran a una distancia de 300 m entre si y que generan gran cantidad de estériles durante el proceso de separación de las tierras y se le realizaron los análisis granulométricos correspondientes para saber la composición de material reutilizables que contenían los mismos y se graficaron por separados La tabla 1 nos muestra los resultados del análisis de los desechos donde se puede apreciar perfectamente la composición por tamaño de grano de los estériles Tabla 1 Resultados del análisis granulométrico medida del tamiz mm. Peso Retenido. Parcial Kg Peso Retenido. Acumulado Kg % Retención Acumulado % de material Pasado % Peso Retenido Parcial 90,0 0 0 0 100 0 75,0 0 0 0 100 0 63,0 0 0 0 100 0 50,0 0 0 0 100 0 38,1 0 0 0 100 0 25,0 4850 4850 14 86 14 19,0 3593 8443 24,3 75,7 10,3 12,5 3770 12213 35,1 64,9 10,9 9,5 1957 14170 40,8 59,2 5,6 4,75 3345 17515 50,4 49,6 9,6 2,36 1984 19499 56,1 43,9 5,7 1,18 1293 20792 59,8 40,2 3,7 0,59 928 21720 62,5 37,5 2,7 Debemos señalar que los áridos se clasifican teniendo en cuenta el tamaño de los granos que la componen en; Producto para remolida: tamaño de grano mayores de 19 mm Gravillas: Tamaños de granos mayores de 12 mm y menores de 19 mm Granitos: Tamaños de granos mayores de 5 mm y menores de 12 mm Arenas: Tamaños de granos mayores de 0.074 y menores de 5 mm Lodos: Tamaños de granos por debajo de 0.074 mm Si graficamos los datos de la tabla 1 obtendremos el siguiente grafico 0,297 715 22435 64,6 35,4 2,1 0,149 612 23047 66,3 33,7 1,8 0,074 422 23469 67,5 32,5 1,2 fondo 11277 0 32,5 Grafico 1 Composición granulométrica del estéril Al agrupar los datos según los criterios de clasificación de los áridos obtendremos el grafico 2 Grafico 2 Composición de los estériles en % de material retenido Al agrupar los resultados en material que se puede aprovechar y los lodos obtenemos el siguiente grafico Grafico 3 Material que se Aprovecha y lodos Es por ello que dándonos a la tarea de responder la tercera pregunta (Como vamos a recuperar dicho material) y oyendo el criterio de varios expertos, se propuso la siguiente Tecnología; Montar dos transportadores de cinta que lleven el estéril desde ambas plantas a una tolva colectora que se instalara de forma que permita también ser alimentada con un cargador para ir recuperando la gran cantidad de material acumulado en los patios durante años, De aquí mediante otro transportador de cinta se alimentaria un tambor lavador (DROMER) que haría un lavado enérgico de estos productos separando así las arcillas plásticas que viene impregnada en las piedras Posteriormente se depositarían en una zaranda clasificadora que separaría los diferentes productos de acuerdo a la granulometría deseada, (gravilla, Granito, Arena) las piedras de sobre medidas (Las mayores de 19 mm) pasarían a un molino Remoledor remoledor que las trituraría llevándolas a las fracciones más pequeñas las cuales mediante un transportador de cintas serian incorporadas a la zaranda para su clasificación, cerrando el ciclo. Las arenas (partículas mayores de 0.074 mm y menores de 5 mm) y los lodos pasarían a una estación de hidrociclonado donde serían separadas definitivamente ya que el mismo es capaz de separar partículas de hasta 0.074 mm las cuales se evacuan por un flujo inferior y se optienen prácticamente secas los lodos saldrían por el flujo superior del hidrociclon siendo estos enviados a la planta de tratamiento de residuales donde en un tanque de sedimentación con la ayuda de la utilización de floculantes se separarían del agua la cual sale limpia y lista para ser reincorporada al proceso. Por la parte inferior del tanque sedimentación se obtiene un lodo más denso el cual es bombeado a un Filtro prensa que literalmente lo exprime extrayéndole el agua que contiene, saliendo totalmente seco y en forma de ‘tortas”, listo para ser utilizado como recebo en albañilería; finalmente el agua extraída en el filtro prensa se incorpora al proceso junto a la que proviene del tanque sedimentador. CONCLUSIONES: Como resultado de la aplicación de esta tecnología se lograría Un mayor aprovechamiento de la masa minera, cuestión muy importante ya que este yacimiento tiene más de 100 años de explotación y tiene recursos muy limitados Da la posibilidad de, ampliando la separación de las barras en la pre separación, garantizar mayor calidad de los productos ya que pasaría menor cantidad de desechos al proceso Aumento de la producción Mejoras al medio ambiente ya que se eliminarán las lagunas de lodos así como la acumulación de materiales de desecho REFERENCIAS 1. DÍAZ, Concepción A., Castillo, Serpa A., & Villar, Ledo L. (2017). Instrumento para evaluar el estado de la gestión de mantenimiento en plantas de bioproductos: Un caso de estudio. Ingeniare. Revista chilena de ingeniería, 25(2), 306-313. 2. VÁSQUEZ, G. & Emiro J. (2011). Metodología para auditar la gestión de mantenimiento de PDVSA Caso: Rrefinería San Roque. Mantenimiento en Latinoamerica, 2 (1), 21-35. 3. LUNA-AMAYA C. et al. (2016). Universidad corporativa y aprendizaje organizacional: un marco de referencia. Dirección y Organización, 58, 79-94. 4. VILLAR Ledo, L., Díaz Concepción, A., Infante Abreu, M. B., Vilalta Alonso, A., & Alfonso Álvarez, Á. A. (2022). Análisis de herramientas para el diagnóstico de la gestión del mantenimiento. Revista Universidad y Sociedad, 14(1), 493-510 5. DÍAZ, Concepción A., Villar, Ledo Leisis, Rodríguez, Piñeiro Alberto J., et al, (2019). Methodology for maintenance management based on diagnostic criteria. Revista DYNA, 6(211), 220-226. 6. AMENDOLA, L. J. (2012). ¿Cómo diagnósticar organizaciones de Gestión Integral de Activos Físicos? . PMM Project Magazine, Vol. 23 p 11. 7. ANDERSEN, E., & Jessen, S. A. (2003). Project maturity in organizations. International Journal of Project Management, Vol. 21.   LA EFICIENCIA ENERGÉTICA COMO OBJETIVO EN LA GESTIÓN DEL MANTENIMIENTO Y SU RELEVANCIA EN LAS EMPRESAS DE BIOCUBAFARMA 1José de Jesús Ramos Vives,2 Orestes Treto Cárdenas 1Biocubafarma, Dirección de Inversiones y Mantenimiento, Ave. Independencia No 8126 esquina a calle 100. Boyeros, La Habana, Cuba. 2Biocubafarma, Dirección de Inversiones y Mantenimiento, Ave. Independencia No 8126 esquina a calle 100 Boyeros, La Habana, Cuba. e-mal:1 jramos@oc.biocubafarma.cu e-mail:2otreto@oc.biocubafarma.cu RESUMEN El ahorro de energía se traduce en una disminución del costo de producción en cualquier sector de la industria, por lo se debe trabajar en la dirección de elevar la eficiencia energética. La gestión de mantenimiento tiene una gran responsabilidad en este aspecto, el empleo de la energía renovable no es la única forma de ahorrar portadores energéticos, también el correcto funcionamiento de los equipos y sistemas que participan en el proceso productivo tienen una gran influencia en la eficiencia energética. En Cuba, el organismo rector de la actividad de mantenimiento es el Ministerio de Industria y como parte de su labor ha dictado varias resoluciones relacionadas con el tema. En el trabajo se exponen algunos detalles estratégicos de cómo BioCubaFarma implementa estas resoluciones en cada una de sus empresas para favorecer el fortalecimiento del Sistema de gestión integral de mantenimiento industrial en las empresas, propiciando con ello el cumplimiento de las resoluciones vigentes y un mejor uso de los recursos, evidenciándose, con algunos ejemplos, la importancia del mantenimiento como fuente de ahorro energético. PALABRAS CLAVES: ahorro de energía, mantenimiento industrial. ABSTRACT Saving energy translates into a decrease in the cost of production in any sector of the industry, must work towards increasing energy efficiency. Maintenance management has a great responsibility in this aspect, the use of renewable energy is not the only way to save energy carriers, also the correct functioning of the equipment and systems that participate in the production process have a great influence on efficiency. energetic. In Cuba, the governing body of the maintenance activity is the Ministry of Industry and as part of its work it has issued several resolutions related to the subject. In the work, some strategic details of how BioCubaFarma implements these resolutions in each of its companies are exposed to favor the strengthening of the Comprehensive Industrial Maintenance Management System in the companies, thereby promoting compliance with the current resolutions and a better use of resources, evidencing, with some examples, the importance of maintenance as a source of energy savings. KEY WORDS: Saving energy, Industrial Maintenance. 1. INTRODUCCIÓN Debido al progresivo aumento del costo, tanto de los combustibles, como de la energía eléctrica, la demanda creciente de la energía y la crisis de generación eléctrica, el ahorro de energía es un elemento importante a considerar en cualquier industria, optimizar la eficiencia energética es vital para lograr la competitividad necesaria. La eficiencia energética debe tenerse en cuenta como un   factor relevante en la gestión técnica del mantenimiento, el control de los portadores energéticos permitirá valorar hacia qué dirección encaminar el mantenimiento para mejorar la eficiencia energética. Dentro de los costos operativos, el costo energético es uno de los costos más importantes a lo largo de todo el ciclo de vida de un activo. En el país la eficiencia energética ha ido tomando cada vez más relevancia y se trabaja para el ahorro energético en las industrias y para mitigar las causas que provocan la ineficiencia energética e incrementar el uso de fuentes de energía renovable. 2. LA EFICIENCIA ENERGÉTICA La eficiencia energética es la relación entre las energías consumidas y el volumen o cantidad de energía producida o movilizada e implica poder realizar un trabajo con la menor energía necesaria. Por lo que la eficiencia energética de un equipo nunca podrá ser mayor que la eficiencia intrínseca de diseño, y sólo será posible aumentarla realizando rediseños en el mismo, es por ello que para lograr el mismo trabajo con el mismo o menor consumo de energía se deberán abordar dos estrategias complementarias. Por un lado, minimizar la demanda y el uso de la energía; y por otro, maximizar el desempeño energético de los equipos e instalaciones. Es decir, la eficiencia energética implicará:  Reducir las pérdidas de energía.  Aumentar el rendimiento energético: Obtener mayor trabajo con la misma energía. Las pérdidas de energía, el desempeño energético y el sobreconsumo de energía deben ser considerados como una anomalía o fallo, debiendo existir tareas de mantenimiento destinada específicamente a inspeccionar la condición y prevenir el impacto negativo de estos fallos. Las pérdidas de energía, en línea con la filosofía del Lean Manufacturing, son un desperdicio que se debe eliminar, evitar o minimizar (Macchio, El Monitoreo de Condición Aplicado a la Eficiencia Energética, 2011) (Macchio, 2018) En los equipos y sistemas las variaciones en el consumo energético se manifiestan cuando varían uno a varios de los siguientes factores: ‐ Régimen de operación (velocidad, capacidad, exigencias, etc.). ‐ Desgaste de partes móviles. ‐ Fallos. ‐ Lubricación. ‐ Suciedad o incrustaciones. Las variaciones descontroladas o fuera de parámetros de los factores antes mencionados pueden provocar diversas consecuencias, que son las causantes de los sobreconsumos energéticos; entre ellas están: ‐ Desalineación. ‐ Desajustes. ‐ Desbalanceo. ‐ Desgastes. ‐ Fricción excesiva. ‐ Holgura excesiva. ‐ Incrustación o suciedad sobre superficies de intercambio. ‐ Fugas no deseadas (vapor, fluidos, gases) ‐ Pérdidas de calor. ‐ Sobre consumo de combustible o de energía. ‐ Deterioro del aislante en conductoras de fluidos fríos o calientes.   Ante la pregunta: ¿Cuál es el costo de las fugas térmicas? La gran mayoría de las veces se presentan en forma oculta (es una forma de… modos de fallos ocultos), sutilmente se van incrementando hasta que sorprenden; al final llegan a ser habituales y se aprende a convivir con esas fugas energéticas. A continuación, se presentan algunos elementos que permiten calcular, a groso modo, cuánto dinero se pierde en algunos tipos de fallos comunes. Para calcular los costos por fugas de vapor se pueden emplear las siguientes expresiones [4]: ࡲ࢛ࢍࢇ ࢊࢋ ࢜ࢇ࢖࢕࢘ ൌ ۯ૛ܠ ۰ ܠ ۱ (1) D Fuga de vapor (kg/h) A Tamaño del orificio (mm) B Constante (adimensional) B = 0.4 C Presión de vapor absoluta (bar) ࡯࢕࢙࢚࢕ ࢊࢋ ࢖é࢘ࢊ࢏ࢊࢇ࢙ ൌ ۲ܠ۳ܠ۴૚૙૙૙ (2) Cp Costo de pérdidas (US $/año) D Fuga de vapor (kg/h) E Horas en operación (h/año) F Costo unitario de vapor (US$/1000 kg) Para ejemplificar cómo determinar las fugas y los costos de estas fugas se brindan algunos ejemplos: Ejemplo 1. Fugas en tuberías Datos: A= 2mm C= 8 bar E= 8000 h/año F=10 USD/1000kg Fuga de vapor D = 14 kg/h ࡯࢕࢙࢚࢕ ࢊࢋ ࢖é࢘ࢊ࢏ࢊࢇ࢙ ൌ ૚૝ ܠ ૡ૙૙૙ ܠ ૚૙ ૛ ૚૙૙૙ ۱ܗܛܜܗ ܌܍ ܘéܚ܌ܑ܌܉ܛ ൌ ૚૚૛૙. ૙૙ ࢁࡿࡰ/ࢇñ࢕ En el caso de varios orificios que produzcan pérdidas, debe multiplicar ૚૚૛૙.00 USD/año por la cantidad de orificios que tienen las líneas de vapor para obtener la cantidad de dinero que está despilfarrando. El ejemplo 2 muestra cómo determinar los costos del mal funcionamiento de trampas de vapor, a partir de la magnitud de las fugas, el tiempo de trabajo y el costo de la generación del vapor, con el empleo de la expresión 2. Ejemplo 2. Mal funcionamiento de trampas de vapor. Tabla 1. Datos del ejemplo 2: Fuga de Vapor Horas en Operación Fuga Pequeña - 4 kg/h Solo turno de día - 2000 h/año Fuga - 7 kg/h Varios turnos - 4000 h/año Soplando - 15 kg/h Operación continua - 8000 h/año Costo unitario de vapor F = 10 USD/1000kg   ۱ܗܛܜܗ ܌܍ ܘéܚ܌ܑ܌܉ܛ ቆ܃܁$܉ñܗቇ ൌ ૠ ܠ ૡ૙૙૙ ܠ ૚૙ ૚૙૙૙ ۱ܗܛܜܗ ܌܍ ܘéܚ܌ܑ܌܉ܛ ቆ܃܁$܉ñܗቇ ൌ ૞૟૙. ૙૙ ࢁࡿࡰ/ࢇñ࢕ Para el caso de varias trampas defectuosas se debe multiplicar los 560.00 USD/año por la cantidad de trampas defectuosas se obtiene la cantidad de dinero que está despilfarrando cada año. Las tuberías que conducen el vapor y no presentan recubrimiento, presentan grandes pérdidas energéticas, en el ejemplo 3 se muestra cómo se puede estimar este valor. Ejemplo 3. Fugas de calor en tubería de vapor sin revestimiento Datos: Ø (diámetro) = 4 pulgadas ó 100 mm P (presión) = 5 atm ó 5 kg/cm2 L (longitud)= 10 m ŋ (eficiencia de la caldera) = 88% Se pierden 182 kg vapor / hr también puede decirse que se pierden 0.5 kg combustible / hr Se deben multiplicar los metros de tuberías no revestidas o inadecuadamente revestidas para obtener la cantidad de combustible que está despilfarrando. Como se había explicado diversos fallos o defectos pueden afectar la eficiencia energética, entre estos aspectos indeseables se pueden señalar los desalineamientos de los ejes de las poleas en las transmisiones por correas. En el ejemplo 4 se muestra una experiencia en que se evalúa la potencia que se consume antes y después de alinearse una transmisión, con el empleo de la ecuación 3. Ejemplo 4. Desalineamiento de ejes de poleas Datos generales: V (voltaje de la corriente) = 440 [V] I (intensidad de la corriente) = 40 [A] P (potencia) = 28 [kW] F.P. (factor de potencia) = 0,92 ࡼ࢕࢚ࢋ࢔ࢉ࢏ࢇ ሺ࢑࢝ሻ ൌ ࢀࢋ࢔࢙࢏ó࢔ ∗ ࢉ࢕࢘࢘࢏ࢋ࢔࢚ࢋ ∗ ࢌࢇࢉ࢚࢕࢘ ૚. ૠ૜૛ ࢖࢕࢚ࢋ࢔ࢉ࢏ࢇ ∗ ૚૙૙૙ (3) Valores medidos:  Antes de alinear: Ia (corriente medida antes de alinear) = 36 [A] P (potencia antes de alinear) = 25,2 [kW]  Después de alinear: Id (corriente medida después de alinear) = 32 [A] P (potencia después de alinear) = 22,4 [kW] Ahorro anual Un año de trabajo (16 x 300) = 4800 horas/año Ahorro = 2,8 [kW] por 4800 horas/año por 5,00 CUP/kW-hora Ahorro = 67200.00 CUP/año Como se muestra en el ejemplo el alineamiento correcto de una transmisión por correas puede aportar un importante ahorro energético y monetario a cualquier organización empresarial. En BioCubaFarma, al tema de la eficiencia energética y su relación con el mantenimiento se le brinda una especial atención. La labor de mantenimiento resulta clave para sostener los niveles de consumo de energía, tanto del equipamiento nuevo, como de las medidas de eficiencia energética implementadas o en proyectos de ejecución.   3. EL MANTENIMIENTO COMO PILAR DE LA EFICIENCIA ENERGÉTICA EN BIOCUBAFARMA En el Sistema de Gestión Integral de Mantenimiento Industrial en BioCubaFarma se labora para mejorar la eficiencia energética optimizando el rendimiento de los activos físicos y procesos, y se trabaja para corregir los fallos que provocan la ineficiencia energética, se jerarquizan las mismas y se incluyen en los planes de mantenimientos las acciones para prevenirlas. Se tienen en cuenta tareas básicas de menor complejidad y bajo costo de implementación, que tienen gran incidencia en la eficiencia energética, reduciendo significativamente el consumo de energía, tales como: - La limpieza de condensadores evaporativos, filtros, generadores de vapor, intercambiadores, etc. El Centro Nacional de Investigaciones Científicas (CNIC) presta servicios especializados de limpieza de incrustaciones en tuberías, mediante la cual se aplican técnicas muy modernas con las que se han obtenidos excelentes resultados. - El alineamiento de los motores en los equipos. En la organización existen equipos de alineación sofisticados que como estrategia deberán ser más intensamente utilizados. - La reparación de pérdidas de fluidos como: aire comprimido, vapor, etc. Se incluyen actividades de inspección y mantenimiento de líneas tecnológicas. Estratégicamente estas actividades deberán formar parte de los planes de mantenimiento en las empresas. - En la OSDE se viene realizando un levantamiento de todos los sistemas auxiliares de las empresas para determinar el estado de las instalaciones de este tipo, efectuado por especialistas de la Empresa de Servicios Ingenieros Especializados (ESINES), donde uno de los aspectos a tener en cuenta es todo aquello que atenta contra la eficiencia energética. - La reparación y/o sustitución de aisladores de temperaturas en los conductos y equipos (conocido por insulación) tanto para fluidos a bajas temperaturas como para fluidos a altas temperaturas. Se incluyen actividades de inspección y mantenimiento de líneas tecnológicas y equipos. Estratégicamente estas actividades deberán formar parte de los planes de mantenimiento en las empresas. - El correcto funcionamiento de las plantas de tratamiento de agua. Se incluyen actividades de inspección y mantenimiento de estos sistemas. Estratégicamente estas actividades deben formar parte de los planes de mantenimiento en las empresas. Existe un chequeo permanente por parte de la dirección del Departamento de Mantenimiento de la OSDE. - El análisis tribológico, con los correspondientes registros. Existen empresas que utilizan correctamente estos métodos de diagnóstico y análisis no destructivos. Como estrategia la OSDE se propone hacer un uso más extensivo de estas técnicas en general. - Utilización de la termografía infrarroja, etc. Existen muy pocas empresas que utilizan esta técnica. Como estrategia la OSDE se propone hacer un uso más extensivo de la misma. - El uso de técnicas del mantenimiento basado en condición: inspecciones sensoriales y la toma de datos de las variables de proceso por parte de los operadores, la inspección diaria de rutina por parte de los mantenedores, análisis de los parámetros que nos indican que existe una falla. - Uso de técnicas de diagnóstico objetivo mediante la medición de vibraciones, termografía, ultrasonido, líquidos penetrantes, etc. En las instalaciones existentes se hacen estudios para que, en caso de ser posible, realizar proyectos de mejora de eficiencia energética. Existen empresas como Laboratorios AICA y Centro de Ingeniería Genética y Biotecnología de Cuba (CIGB) con sistemas de recuperación de agua muy   eficientes. Otras como Laboratorio Farmacéutico de Oriente donde se ha aprovechado la energía “sobrante” de un proceso para mejorar la eficiencia energética de otro. También se cuenta con empresas como Instituto Finlay de Vacunas (IFV) que está inmersa en la sustitución de equipamientos de clima por otros energéticamente más eficientes. En la organización las auditorías internas que se les realizan a las empresas, se aplica el Procedimiento para la Categorización del Sistema Integral de Mantenimiento Industrial (Resolución 67/2021 del MINDUS). Estas auditorías son realizadas por personal propio, certificado en el Centro de Gestión Empresarial y Superación Técnica y Administrativa. En estas auditorías de mantenimiento se evalúan con profundidad los aspectos que están directamente relacionados con actividades básicas del mantenimiento y que inciden directamente en la eficiencia energética. Hasta la fecha se han realizado un total de 8 inspecciones identificándose problemas concurrentes en las siguientes áreas: ‐ Calderas y hornos ‐ Motores eléctricos y bombas ‐ Sistemas eléctricos ‐ Turbinas ‐ Compresores ‐ Sistemas de refrigeración ‐ Marmitas, lavadores y planchadores ‐ Intercambiadores de calor ‐ Áreas de oficina (iluminación, acondicionamiento ambiental, aparatos eléctricos) ‐ Vehículos automotrices ‐ Equipos o sistemas consumidores de calor, frio y energía eléctrica ‐ Sistema de tuberías Otro aspecto no menos importante es la capacitación de todo el personal, tanto a los operadores como el personal de mantenimiento. Las malas prácticas operacionales, pueden ser causante de la ineficiencia energética, las inspecciones de rutina de los operadores pueden arrojar resultados increíbles en la detección de fallas que originen el sobreconsumo de energía. La falta de conocimiento de los mantenedores, la inexperiencia en el uso equipos modernos para la detección de fallos, la falta de iniciativa para llevar a cabo acciones básicas de mantenimiento que corrijan los fallos que, aunque parezcan simples, inciden directamente en la eficiencia energética y la mala calidad en los trabajos de mantenimiento, tienen una gran repercusión sobre la eficiencia energética. Todo lo anterior ratifica el carácter estratégico de la capacitación para el mantenimiento y en este sentido desde la OSDE se promueven maestrías (actualmente con 17 especialistas matriculados en la Maestría de Ingeniería de Mantenimiento), doctorados, cursos de posgrado y cursos propios de superación (Cursos del Sistema de Gestión de Mantenimiento SGestMan, utilizado en la mayoría de las empresas de la organización) La automatización de procesos tecnológicos, también trae muy buenos resultados, por ejemplo, se han automatizado líneas de producción, equipos de procesos de climatización, autoclaves y otros equipos en los que se han logrado aumentos considerables de producción y un mejor control de los parámetros óptimos de funcionamiento, con lo cual se ha aumentado la eficiencia energética. Otro aspecto estratégico referido a la automatización es trabajar para en el futuro contar con una industria biofarmacéutica que aplique los preceptos de la industria 4.0 y así poder monitorear los   procesos constantemente, lo que va a permitir optimizar el uso de todos los equipos o sistemas en la industria. En el área de las inversiones y aplicación de tecnología eficientes y ecológicas, se plantean transformaciones en varias empresas en el campo de la generación de energía limpia, aprovechando las condiciones y donde sea posible llevar a cabo la generación de este tipo de energía. El Mantenimiento en BioCubaFarma es uno de los pilares fundamentales que permitirá sostener la eficiencia energética durante todo el ciclo de vida de los activos. 4. INDICADORES DE EFICIENCIA ENERGÉTICA EN EL MANTENIMIENTO. Para poder implementar un Sistema de Gestión Energética en la empresa, será necesario establecer indicadores de eficiencia energética de manera global, pero sin dejar de establecer indicadores específicos para cada subsistema principal de la planta o empresa. Para cada tipo de equipo e instalación, se debe determinar los parámetros para medir directamente la condición de eficiencia energética o también se pueden establecer indicadores de rendimiento energético. Para poder evaluar y controlar la eficiencia del proceso productivo y de mantenimiento, se pueden definir los indicadores específicos siguientes: 1. Indicadores de rendimiento energético en circuito de vapor, 2. Indicadores de rendimiento energético en circuitos de aire comprimido, 3. Indicadores de rendimiento energético en sistemas de refrigeración y acondicionamiento térmico 4. Indicadores de rendimiento energético en circuito de agua. 5. Indicadores de rendimiento eléctrico. 6. Indicadores de rendimiento de combustible para flotas. Para establecer los indicadores específicos, se recomienda hacer Benchmarking internamente o con otras industrias, la industria Biotecnológica y de medicamentos tiene sus características muy particulares donde no se pueden establecer similitudes con otras industrias, por lo que se hace necesario establecer un sistema dentro de la misma organización que permita establecer patrones para así evaluar la eficiencia del mantenimiento y su impacto en los indicadores de eficiencia energética. Como indicadores que miden la eficiencia en el mantenimiento y que tienen una relación estrecha con la eficiencia energética, en este momento la OSDE controla los siguientes:  Cumplimiento el Plan de Mantenimiento.  Cumplimiento del Presupuesto de Mantenimiento  Cumplimiento de la relación entre mantenimiento preventivo y mantenimiento correctivo  Cumplimiento de la relación entre los gastos de mantenimiento y las ventas  Cumplimiento de la relación entre los gastos de mantenimiento y el valor de los activos  Cumplimiento del plan de categorización del mantenimiento en las empresas En estos indicadores se destaca la importancia que se le da al mantenimiento preventivo y a su planificación como base fundamental a implementar en las empresas para así hacer del mantenimiento uno de los pilares fundamentales que permitirá sostener la eficiencia energética durante todo el ciclo de vida de los activos. 5. CONCLUSIONES El mantenimiento también BioCubaFarma apuesta por el uso de la energía renovable, pero también trabaja para resolver los problemas que atentan contra la eficiencia energética en nuestras industrias. El Departamento de Mantenimiento de la OSDE BioCubaFarma trabaja en el uso eficiente de los recursos energéticos de las empresas en cuatro direcciones fundamentales:  ‐ Mantenimiento (planificación, inspecciones, diagnóstico, evaluación). ‐ Automatización de los procesos ‐ Capacitación del personal. ‐ Inversiones (energía renovable y compra de equipos tecnológicos con sistemas eficientes). REFERENCIAS 1. BioCubaFarma. (2022). Objetivos de trabajo, criterios de medida y su evaluación para el año 2022. La Habana: BioCubaFarma. 2. Macchio, C. A. (2011). El Monitoreo de Condición Aplicado a la Eficiencia Energética. Ingeniería del Mantenimiento en Canarias. 3. Macchio, C. A. (2018). El Monitoreo de Condición Aplicado a la Eficiencia Energética. Ingeniería del Mantenimiento en Canarias. 4. TLV. (28 de 02 de 2022). TLV. Compañía especializada en vapor. Obtenido de https://www.tlv.com/global/LA/steam-theory/cost-of-steam-trap-losses.html 5. Cárcel Carrasco, F. J.-L. (2017). Principles to base industrial maintenance techniques in relation to energy efficiency. 9 (6), 18-22. Selección y contextualización de una herramienta para el diagnóstico de la gestión del mantenimiento en la Empresa Finlay de vacunas Yoander Delgado Peña I, Mileidis Aliuska Hernández Chery1, Eney Adan Martin Ametller1, Cristian Preval Guevara1, Reymundo B. López Ferrier1, Armando Díaz ConcepciónII I El instituto Finlay de Vacunas. La Habana. Cuba. 'ydelgado@finlay.edu.cu' II Universidad Tecnológica de la Habana José Antonio Echeverría, Centro de Estudios en RESUMEN Uno de los procesos básicos en cualquier entidad para garantizar la sostenibilidad económica de la misma es el proceso de mantenimiento. El objetivo de este artículo fue analizar las diferentes herramientas aplicadas para el diagnóstico de la gestión del mantenimiento a través de una revisión bibliográfica realizada en este campo y de forma conjunta la demostración de la necesidad o no de disponer de un modelo que mida la madurez en el proceso de mantenimiento en las organizaciones. Para el análisis se empleó el método de análisis y síntesis así como el método de análisis de conglomerados. Se analizaron un total de 33 herramientas mostrándose las características de cada herramienta en forma de tablas aplicándose análisis de estadística descriptivas. El estudio bibliográfico proporciona a los investigadores los beneficios e insuficiencias para la selección de herramientas que mejor se contextualicen a su campo de trabajo, dentro del mantenimiento, potenciando así, la toma de decisiones ante los problemas presentados. Además se propone un concepto de mantenimiento en estrecha relación con su función y objetivo. PALABRAS CLAVES: Diagnóstico, gestión de mantenimiento, herramientas, toma de decisiones, modelo de madurez ABSTRACT One of the basic processes in any entity to guarantee its economic sustainability is the maintenance process. The objective of this article was to analyze the different tools applied for the diagnosis of maintenance management through a bibliographic review carried out in this field and jointly the demonstration of the need or not to have a model that measures the maturity in the maintenance process in organizations. For the analysis, the analysis and synthesis method was used, as well as the conglomerate analysis method. A total of 33 tools were analyzed, showing the characteristics of each tool in the form of tables, applying descriptive statistical analysis. The bibliographic study provides researchers with the benefits and insufficiencies for the selection of tools that are best contextualized to their field of work, within maintenance, thus enhancing decision-making in the face of the problems presented. In addition, a maintenance concept is proposed in close relation to its function and objective. KEY WORDS: Diagnosis, maintenance management, tools, decision making, maturity model INTRODUCCIÓN En las últimas décadas la concepción del mantenimiento a nivel internacional ha cambiado, pasando de una actividad reactiva a adoptar una concepción proactiva, dotándolo de una visión de negocio en su expresión más amplia [1]. Este novedoso concepto implica desarrollar una cuidadosa preparación de las acciones a emprender, valiéndose para ello de la organización y desarrollo de la Gestión de Mantenimiento [SS. La gestión del mantenimiento es una variable que más repercute en el desempeño económico de cualquier entidad. Con una gerencia efectiva de las acciones de mantenimiento, en cualquier tipo de empresa, se puede obtener la máxima calidad posible y un control eficiente de los costos y recursos materiales utilizados en los activos, garantizando disponibilidad, confiabilidad y rendimiento operativo de los equipos, con un alto nivel de eficiencia en los costos salvaguardando la seguridad de las personas y la del medio ambiente. En la industria biotecnológica se tienen altos requerimientos en cuanto a la disponibilidad del equipamiento, confiabilidad y seguridad de las instalaciones así como el personal que labora en esta industria [2]. Actualmente se emplean diferentes procedimientos, técnicas y políticas en cuanto a la atención de la actividad de mantenimiento para el normal funcionamiento de los equipos de esta industria pero es necesariamente importante tener un criterio de cómo marcha el proceso de gestión de mantenimiento. Algunos conceptos fundamentales que sustentaran este trabajo esta entenderse como mantenimiento: es el conjunto de acciones encaminadas a preservar, corregir o conservar las funciones y condiciones de disponibilidad, seguridad, eficiencia de los activos fijos durante su ciclo de vida y diagnóstico a la gestión del mantenimiento examen objetivo y sistemático de evidencias con el fin de proporcionar una evaluación independiente del desempeño de la función, la cual tiene como propósito mejorar la acción de la administración y facilitar la toma de decisiones de los responsables de supervisar o implementar las acciones recomendadas. Consiste en el examen y evaluación que se realiza a una entidad para establecer el grado de economía, eficiencia y eficacia en la planificación, control y uso de los recursos y comprobar la observancia de las disposiciones establecidas, con el objetivo de verificar la utilización racional de los recursos y mejorar las actividades y materias examinadas. Es un cuidadoso y detallado análisis con la calificación de cada una de las funciones características de la gestión del mantenimiento, agrupadas según las áreas básicas que constituyen su campo de actividad [3] En este trabajo se partió de otras investigaciones donde se analizaron las diferentes herramientas aplicadas para el diagnóstico de la gestión del mantenimiento a través de una revisión bibliográfica [4] y partiendo de las fortalezas y insuficiencias detectadas se seleccionará una que se va a contextualizar a este campo de trabajo que es una empresa biotecnológica de alta tecnología siendo este el objetivo del trabajo. Los resultados de la investigación realizada permitieron a los especialistas de esta entidad contar con una herramienta contextualizada, permitiendo la toma de decisiones ante los problemas que se detecten de su implementación. MÉTODOS El desarrollo de esta investigación se sustenta en investigaciones anteriores sobre caracterización de herramientas de diagnóstico a la gestión del mantenimiento fundamentalmente por la publicada por Villar [4]. Del estudio de estas herramientas se seleccionará una que sea factible su aplicación al Instituto Finlay de vacunas y se realizará su contextualización. Para este trabajo de selección se creará un equipo de trabajo y se tomaran las decisiones por consenso. Para los análisis que se realizaron en la investigación se creó un grupo de expertos partiendo de un grupo de especialistas que se le aplicó la herramienta de análisis de experticia [1, 5, 6]. RESULTADOS Para los análisis de las diferentes herramientas se formó un equipo de trabajo formado de la siguiente forma como se muestra en la Tabla 1. Todas las decisiones fueron tomadas aplicando la tormenta de ideas y finalmente aceptadas pro consenso. Tabla 1: Constitución del equipo de trabajo No. Cargo Formación Experiencia 1 Directora de Ingeniería Ing. Química 22 años 2 Director de Inversiones. Actuó como moderador Ing. Mecánico 17 años 3 Tecnólogo de Planta de Procesamiento Aséptico Ing. Mecánico 8 años 4 Jefe Grupo Ingeniería Ing. Mecánico 5 años 5 Jefe de departamento Mecánica y Termoenergía Ing. Mecánico 5 años Aplicando la herramienta descrita en [8] se llega a los siguientes resultados que se muestran en la tabla 2. Tabla 2 Resultados del análisis de expertos. Especialistas Kc Ka K 1 0,9 0,994 0,947 2 0,9 0,998 0,949 3 0,8 0,897 0,848 4 0,8 0,798 0,799 5 0,8 0,796 0,798 Del análisis de los resultados reflejados en le tabla 2 se concluye que los 5 especialistas cumplen con los criterios de poder ser tomados como expertos. Características distintivas de la entidad objeto de estudio El instituto Finlay de Vacunas es una empresa orientada a la ciencia y a salvar vidas humanas mediante la prevención. Se dedica al desarrollo de vacunas específicamente para niños, soportados en las áreas de Investigación, Desarrollo, Producción, Control de la Calidad y Comercialización de las mismas. Con un ciclo cerrado tiene la misión de garantizar la producción de vacunas del Plan de Inmunización Nacional y para la exportación. Misión: Garantizar el soporte técnico de ingeniería, validación y seguridad integral para el diseño, establecimiento y mantenimiento de facilidades de producción con certificación GMP y cumplimiento de las normas y regulaciones ambientales. Política: La política de mantenimiento se basa en mantener la disponibilidad del equipamiento necesario para la investigación, desarrollo y producción de vacunas, cumpliendo con las normas de seguridad, calidad en el servicio prestado exigido por las regulaciones internacionales. Estrategias:  Desarrollar la capacidad tecnológica que garantice tecnologías óptimas, de alta intensidad, eficiencia y estándar de calidad, con un alto nivel de competitividad que tribute a la cadena de valor y a la estrategia de negocios como motor impulsor de la institución.  Desarrollar las capacidades productivas existentes, renovadas y nuevas con altos niveles de eficiencia y competitividad que tributen efectivamente al crecimiento económico y desarrollo estratégico de la institución.  Contar con capacidades de desarrollo que garantice altos niveles de eficiencia, calidad y competitividad que tributen efectivamente a la cadena de valor y a la estrategia de negocios como motor impulsor de la institución.  Desarrollar una gerencia transversal integrada que alinee la gestión de los procesos clave de la institución para el logro de resultados superiores de eficiencia, calidad, competitividad y confiabilidad de la institución. En la figura 1 se muestra la estructura organizativa de la entidad Figura 1: Estructura organizativa de la entidad Así como en la figura 2 se muestra estructura organizativa y funcional de la dirección de mantenimiento Figura 2: Estructura organizativa y funcional de la dirección de mantenimiento Como se parecía en ambas figuras la estructura es aceptada así como las vías de obtención de la información y la toma de decisiones. Selección de la metodología Partiendo del análisis realizado por Villar en su investigación y atendiendo los resultados que s muestran en la figura 3 y figura 4 Figura 3: Total de elementos analizados por cada herramienta Figura 4: Valoraciones promedios de los elementos Se decide tomar como metodología apropiada a aplicar en el IFV la denominada “metodología por Criterios de Diagnóstico” Entre otras bondades de esta metodología está [7]: Principios de la metodología 1. Trabajo en equipo El equipo de trabajo tiene como objetivo trabajar en la toma de decisiones por consenso para el intercambio de conocimientos y saberes. Debe estar conformado por especialistas de diferentes áreas, tales como operación, mantenimiento, calidad, logística y recursos humanos, gestionado por un líder de equipo. 2. Integración En la metodología se analizan integralmente los elementos que componen los procesos de mantenimiento y operación. 3. Adaptabilidad La metodología tiene la capacidad de implementarse en diferentes escenarios con independencia de la organización 4. Continuidad La metodología se constituye en un proceso de mejora continua, que contribuye al conocimiento de la organización en lo referente a la gestión de mantenimiento a partir de implementaciones sucesivas de acciones de mejora para su cumplimiento. Como áreas funcionales se llega a la propuesta vertida en la continuación: No. Área I Organización general II Capital humano III Control económico IV Planificación, programación, tercerización y control V Ingeniería En la aplicación de esta nueva metodología el evaluador debe tomar como referencia los criterios de diagnósticos de referencia y compararlos con el estado actual tomando como base los siguientes criterios expuestos en la tabla 3. Tabla 3. Valoraciones aplicadas a los criterios de diagnóstico Calidad de la evaluación Puntuación Muy deficiente (MD) 1 Deficiente (D) 2 Ni deficiente ni bien (N) 3 Bien (B) 4 Muy bien (MB) 5 Se toman como base los rangos planteados en la metodología diseñada para evaluar el estado de la gestión de mantenimiento. Los rangos determinados son:  Entre 1 y menor que 2 se considera un valor extremadamente malo. La entidad está en un estado de inocencia consentida o incompetencia. Se tienen que trazar acciones radicales para cambiar el estado actual.  Entre 2 y 2,8 se considera un valor malo. La entidad se encuentra en un estado de conciencia pero necesita acciones importantes para eliminar los problemas detectados.  Entre 2,81 y 3,4 es regular. La entidad está en un estado de entendimiento, que necesita hacer cambios para realizar avances sostenidos.  Entre 3,41 y 4,3 es un valor bueno. La entidad está en un estado de competencia y se recomienda detectar la existencia de oportunidades de mejora. Mayor de 4,3 es un valor de excelencia. La entidad se encuentra en un estado de excelencia, no obstante debe revisar para trazar acciones sobre la base de la mejora continua. Se propone la implentación de un modelo de madurez para lograr establecer metas superiores. Para la evaluación final se tomará como base para su análisis la siguiente propuesta que se muestra en la tabla 4: Tabla4: Propuesta de valores. 90 a 100 = Excelente 80 a 89,9 = Bueno 70 a 79,9 = Regular 60 a 69,9 = Malo Menos de 60 = Pésimo Finalmente quedaría realizar los diferentes pasos para la aplicación de esta metodología que va a permitir establecer en qué estado s encuentra el IFV en lo referente al sistema de gestión de mantenimiento y que permitirá establecer acciones correctivas en dependencia de sus valoraciones. CONCLUSIONES De los resultados presentados se puede concluir que la metodología seleccionada es la idónea a aplicar así como también se sentaron las bases generales de sus especificaciones para su implementación. REFERENCIAS 1. ACOSTA, H, Troncos, M. Auditoría integral de mantenimiento en instalaciones hospitalarias, un análisis objetivo. Ingeniería Mecánica. 2017, Vol. 14, no 2, p. 107-118, 2011. 2. Díaz CA. “Propuesta de un modelo para el análisis de criticidad en plantas de productos biológicos”. Ingeniería Mecánica. 2012, Vol. 15. no. 1, p. 304-13. ISSN 1815-5944. 3. VÁSQUEZ, Emiro J. (2013). Diseño de un modelo para la auditoría de la gestión de mantenimiento basado en el modelo de gerencia de mantenimiento de PDVSA. Mantenimiento en Latinoamerica, 5 (1), 17-20. 4. VILLAR Ledo, L., Díaz Concepción, A., Infante Abreu, M. B., Vilalta Alonso, A., & Alfonso Álvarez, Á. A. (2022). Análisis de herramientas para el diagnóstico de la gestión del mantenimiento. Revista Universidad y Sociedad, 14(1), 493-510 5. SHANE, B. “Utilizing and adapting the Delphi Method for use in qualitative research´´. International Journal of Qualitative Methods. 2015, v. 14, n. 5, p. 1-6. DOI: 10.1177/1609406915621381. 6. LUNA-AMAYA C. et al. (2016). Universidad corporativa y aprendizaje organizacional: un marco de referencia. Dirección y Organización, 58, 79-94 7. Díaz Concepción Armando, VILLAR Ledo Leisis, Et al “Criterios de diagnóstico para evaluar el estado de la gestión de mantenimiento en el sector industrial cubano” 2020. ISBN 978-959-261-604-2 1 PRINCIPALES RETOS PARA LA INGENIERÍA MECÁNICA Pedro A. Rodríguez Ramos1, Marcelino Rivas Santana2, Roberto M. Sagaró Zamora 3, 1Facultad de Ingeniería Mecánica, Universidad Tecnológica de La Habana, Calle 114 No. 11901 e/ Ciclovía y Rotonda, Marianao, La Habana, Cuba. 2Facultad de Ciencias Técnicas, Universidad de Matanzas, Autopista a Varadero km 3, Matanzas, Cuba. 3Facultad de Ingeniería Mecánica e Industrial, Universidad de Oriente, Av. Patricio Lumunba s/n, Santiago de Cuba, Cuba 1e-mail: parr@mecanica.cujae.edu.cu RESUMEN El presente trabajo tiene como objetivo principal mostrar cinco importantes retos a los que deberán hacer frente las empresas de ingeniería y sus ingenieros mecánicos, en el futuro más inmediato. En el contenido del trabajo se presentan los siguientes aspectos: principales aportes que ha hecho la Ingeniería Mecánica a la humanidad, asimismo, se destaca el estado actual en que se encuentra para enfrentar estos retos. Es intención de los autores colaborar con técnicos, profesionales, gerentes, etc. al brindarle este material, que les permita, aumentar su información sobre esta área del saber, para ser mejores ingenieros, que tributen a la toma de decisiones con excelencia e inducirlos a no dejar pasar la oportunidad de adaptar sus conocimientos a la nueva era, para lograr la excelencia en el desempeño profesional y en la gestión de negocios competitivos y sostenibles. PALABRAS CLAVE: ingeniería mecánica, aportes, estado actual, retos. 1. INTRODUCCIÓN Aportes más destacados de la Ingeniería Mecánica a la humanidad La ingeniería mecánica es una de las ramas más antiguas e importantes de la ingeniería. Algunos de los aportes más destacados han surgido desde tiempos bastante remotos, pero han recibido cambios recientemente de diversos profesionales, que han potenciado su funcionamiento. Algunos de los más importantes se resumen a continuación: Agricultura y mecanización Los equipos mecánicos han reemplazado casi por completo al Capital Humano (CH) y al animal, para realizar las tareas rurales en las naciones desarrolladas. En la actualidad, también se está transformando la agricultura de muchas áreas en desarrollo, desde tractores, hasta una amplia variedad de máquinas cosechadoras, han permitido un aumento vertiginoso en la producción agrícola de alimentos y fibras. Acondicionamiento de aire y refrigeración Permitió redefinir los estándares de comodidad del hombre, que junto, con el estrechamente ligado campo de la refrigeración, posibilitó varios procesos de fabricación, procesamiento y almacenamiento de alimentos y procesos médicos. El acondicionamiento del aire se convirtió en una iniciativa práctica sólo después de que Willis Carrier definiera completamente las relaciones entre el aire, el agua y la energía en su "tabla sicométrica", y después del desarrollo de nuevos refrigerantes ecoamigables, ecológicos. El control de la humedad permite muchos procesos de fabricación sensibles a la humedad y la refrigeración mejora la conservación de alimentos, de tejidos para uso médico y de una amplia variedad de elementos perecederos. Pocas tecnologías han tenido un mayor efecto directo en la comodidad y calidad de vida del hombre desde finales del siglo pasado. Automotriz 2 Aunque se inventó a finales de 1800, el automóvil no adquirió importancia hasta comienzos del siglo 20, después de que se determinara su configuración básica y se establecieran los métodos de producción masiva para ser accesible a un amplio sector de la sociedad. De todos los descubrimientos e innovaciones de los que la Ingeniería Mecánica ha sido la protagonista, sin duda se destaca el automóvil. Una de las más grandes innovaciones que se han apoyado de la IM son los medios de transporte, ya que los conocimientos de esta rama han dado lugar a que se unieron dos elementos: el uso del motor y el control de este por medio del volante y otros elementos indispensables para el funcionamiento de todo tipo de vehículos. Con los años se han logrado grandes avances en los vehículos hasta convertirse en uno de los inventos más llamativos de la Ingeniería Mecánica. Hoy algunos automóviles ya pueden estacionarse automáticamente, cuentan con suspensiones adaptativas, que escanean el estado del pavimento y la conducción para endurecer o suavizar los amortiguadores, GPS, medios de seguridad, entre otros avances. Uno de sus desarrollos tecnológicos más importantes son los motores híbridos, los cuales utilizan un propulsor eléctrico y uno de combustión interna, logrando disminuir el daño al medioambiente al utilizarlos. El desarrollo tecnológico adquirido en esta esfera se encuentra entre los más relevantes aportes. Bioingeniería La Ingeniería Mecánica ha permitido importantes avances en la comprensión de la vida y ha producido diversas máquinas para mantener, prolongar y mejorar la vida humana. La fabricación y modificación de moldes para crear prótesis (medicina). Análisis biomecánico de muchos videos deportivos e inclusive cualquier movimiento como es la marcha. La fabricación de componentes para aparatos ópticos y la industria aeroespacial. La máquina de circulación extracorpórea hizo que la cirugía cardíaca, y en definitiva los trasplantes, fueran posibles, mientras que corazones artificiales mantienen a pacientes con vida hasta que se encuentren los donantes adecuados. Desarrollo de biomateriales para la medicina regenerativa. Generación de energía La electrificación ha mejorado la calidad de vida. Es, por mucho, el método de transmisión de energía más flexible que se ha inventado, pero antes de poder transmitirse y utilizarse, la electricidad debe generarse. Existen diversas fuentes para producir energía: agua, viento (generadores eólicos o aerogeneradores), sol (paneles solares), combustibles fósiles y energía nuclear para impulsar los generadores que producen la corriente eléctrica. Las mejoras en el tamaño, eficiencia, seguridad y confiabilidad de la maquinaria generadora raramente son apreciadas por la humanidad. Todo esto es gracias a los trabajos de la Ingeniería Mecánica. Robótica y máquinas controladas numéricamente Las computadoras han impactado la vida humana desde la segunda mitad del siglo 20, pocas tecnologías han tenido un mayor efecto en la sociedad que el control automático de las máquinas. Las máquinas controladas numéricamente han posibilitado cambios directos e indirectos en casi todos los aspectos de la vida moderna. Al redefinir física y económicamente los conceptos de trabajo y la naturaleza de la participación del CH, estos se concentran en los aspectos más creativos, en lugar de los más triviales. Códigos y normas A medida que la maquinaria se hacía cada vez más grande, más compleja y omnipresente en la vida moderna, fue esencial establecer normas para la construcción y funcionamiento seguros de los dispositivos y sistemas. El Código para Calderas de ASME de 1914 señaló la 1ra vez que los fabricantes se pusieron de acuerdo con respecto a un grupo de especificaciones para asegurarse contra las fallas y mejorar la seguridad pública. Esta acción ya incluye todo tipo de dispositivos y sistemas con posibilidades de fallas perjudiciales, entre ellos, recipientes a presión, grúas, ascensores y reactores nucleares, otros con muchas de sus disposiciones codificadas en leyes y reglamentos. Fabricación de plástico La producción masiva de plásticos, que comenzó con el proceso de baquelita, ofreció a la producción masiva del siglo 20 un material más liviano y sumamente flexible para el diseño de la mayoría de los 3 productos. Entre los ejemplos más connotados se pueden mencionar: moldeado de extrusión, moldeado por insuflación de aire comprimido, moldeado de láminas y moldeado por inyección. Realmente, han sido muchos y significativos los aportes que la Ingeniería Mecánica ha hecho la humanidad y lo más interesante es que, todavía queda bastante por aportar en esta nueva era, para la cual deben adaptarse los conocimientos, por tanto, el presente trabajo tiene como objetivo principal mostrar cinco importantes retos a los que deberán hacer frente las empresas de ingeniería y sus ingenieros mecánicos, en el corto y mediano plazos. 2. MATERIALES Y MÉTODOS ¿En qué momento estamos? Dinámica de los factores que más inciden en el desarrollo de la Ingeniería Mecánica:  1950 - 1980  la energía  1980 - 1990  la tecnología  1990  la electrónica (comunicaciones) Siglo XXI  el conocimiento (aprender a aprender y aprender a desaprender). El Capital Humano (CH) es la fuente de riqueza del siglo XXI * Cada año el 20 % de los conocimientos de un ingeniero se vuelven obsoletos. * No considerar al CH como un costo, que debe ser reducido, sino como un bien a ser desarrollado. Cuando se compra un equipo se acumula dinero para su mantenimiento, ¿Por qué no hacer igual con el CH? * El costo de producción / servucción dependerá cada vez más del costo de I + D + F + i + TT: (Investigación, Desarrollo, Formación, Innovación, Transferencia de Tecnología. Cada vez más, la riqueza dependerá de lo que el CH sea capaz de hacer. El cálculo asistido por computadora ha adquirido mayor protagonismo. Evoluciona la representación de los sistemas físicos – se pasa de esquematizar partes del sistema aproximado a reproducir todo el conjunto en modo detallado. En el proceso de análisis y diseño se utilizan herramientas de cálculo como: En el proceso de análisis y diseño se utilizan herramientas de cálculo: - Elementos Finitos (MEF), - Dinámica de Fluidos Computacional (CFD), - Diseño de procesos de fabricación (CAD-CAM) mediante máquinas de control numérico (CNC) - Otros procesos automatizados, sin dibujos intermedios. El uso de estas herramientas, al analizar virtualmente su comportamiento, permite obtener resultados más precisos y bajar costos. Dinámica de las máquinas  1950 - 1990: las máquinas con memoria  1990 - 2020: las máquinas se comunican, se integran: INTERNET, teléfonos de disco hasta llegar a los inalámbricos, TV, celulares, memorias flash, PC core i-12, tablet, mini PC, los smartphones (permiten ingresar a Internet, utilizar aplicaciones, realizar videollamadas, ubicación por medio de GPS, entre muchas otras bondades), ..........  2020 - ......): las máquinas vivientes- Biotecnología, Nanotecnología (operación craneal, movimiento por las venas) ……… Tendencias actuales de la Ingeniería Mecánica 1. Perfil amplio. Después  especialización. 2. Modernas tecnologías. 4 3. Nuevos materiales. 4. CAD; CAM; CAE; GMAC, CAx (VAR). 5. Lote mínimo. No  Economía Escala. 6. Inventario ocioso  min. 7. Competitividad (calidad; costo, etc.) 8. Mando numérico computarizado. 9. Sistemas flexibles. 10. Empleo y desarrollo de la mecatrónica. Modos de actuación  Cada acción como servicio, atiende al aspecto económico (Economía).  Calidad y gestión a partir de la informática (Canales de Comunicación).  Desarrollo de instrumentación más eficientes para pruebas, análisis, etc. (Tecnología).  Materiales auxiliares con alta calidad (Materiales).  Mecanización de los procesos (Automatización).  Ahorro energético y cuidado de la ecología (Medioambiente).  Organizaciones especializadas en los servicios (Contratación).  Elevación del nivel de calificación del Capital Humano (Formación). Estos modos de actuación implican que se han redefinido algunos paradigmas concernientes a:  Administración participativa  Globalización  Producción orientada al cliente  Nueva ingeniería de planta  Desarrollo sostenible Administración participativa  Disminución de los niveles, (estructuras planas) mayor interrelación entre todos.  Las ideas y participación de los empleados hacen la empresa viva y en constante desarrollo. La capacitación, es vital para que la empresa sobreviva.  En los próximos 5 años se reducirá la mitad de las posibilidades de empleo para los medios y no calificados. Globalización La Globalización es objetiva, desde 1840 C. Marx la predijo. Era su intención unir todos los países por muy lejanos que estuvieran y por desiguales económicamente que fueran, pero con otro enfoque al actual. ¿Qué es la Globalización?:  El crecimiento mayor la economía mundial,  El crecimiento del capital financiero, que el especulativo no sea mayor que la economía real,  El aumento del intercambio de mercancías, El incremento de la informatización, la automatización y la computación, que propician los dos anteriores, y aumenta la productividad del trabajo, reducen los costos de comercialización y de administración ¿Qué no es la Globalización?, que por desgracia es lo que se ha fomentando:  Neoliberalismo. - privatización, que el estado no participe en la economía, pues es ineficiente.  Perder sentido las fronteras entre países,  Perder sentido las políticas / estrategias de la economía nacional,  No existir soberanía nacional,  Homogenizar el mercado financiero, pero asimétricamente, con desigualdad,  Generalizar una expansión y uniformidad de los cánones de la cultura, Producción orientada al cliente  Hoy son muy importantes los servicios. El Ciclo de Vida considera: Diseño + Producto + Explotación + Función Mantenimiento + Garantía + Repuesto + Reciclaje 5  CAM (Manufacturing). - fabricación digital, unitaria u orientada (dirigida) al cliente, su costo es menor que el costo en series.  Las empresas solo se preocupaban por sus activos y pasivos. Ahora deben preocuparse por intangibles como: la capacidad de respuesta y la flexibilidad. Nueva ingeniería de planta  Las máquinas inteligentes (robots) hacen tareas mecánicas y repetitivas. Dicen cuando y donde hay fallos.  El ingeniero mecánico debe dominar la Informática y Automatización, para buscar nuevas formas de hacer mejor el trabajo, para hacer Reingeniería.  Un ingeniero de perfil amplio, que después se forma en la especialidad: diseño, manufactura, mantenimiento, energía, otras.  Hay nuevos mercados de trabajo: hoteles, hospitales, bancos, centros comerciales, mantenimiento arquitectónico. Desarrollo sostenible  Fuerte movimiento ecologista.  Se ha comprobado una estrecha relación entre: pobreza – crecimiento demográfico - contaminación del medioambiente.  El ingeniero mecánico actual debe velar por: ahorro energético, reciclaje de desechos, tecnologías limpias, preservar el entorno.  La diferencia entre lo público y lo privado se reduce, (todos rinden cuentas a la sociedad). 3. RESULTADOS Y DISCUSIÓN Retos a corto y mediano plazos La Ingeniería Mecánica, al igual que las otras ingenierías, se enfrenta a una constante evolución para adaptarse a las nuevas necesidades que van surgiendo en la sociedad y en el panorama laboral. Hoy, esta evolución viene marcada profundamente por la industria 4.0 y la digitalización de las empresas. La era digital trae consigo nuevas herramientas, procedimientos y metodologías llamadas a revolucionar los entornos de trabajo de las empresas de ingeniería, por tanto, los profesionales han de estar siempre listos para adaptarse y sacarle el máximo partido. A continuación, se presentan 5 importantes retos a los que deberán hacer frente las empresas de ingeniería y sus ingenieros, en el futuro más inmediato: 1. Integración en los entornos digitales de trabajo 2. Implantación BIM 3. Desarrollo de infraestructuras inteligentes 4. Incorporación de herramientas tecnológicas a las labores de trabajo 5. Formación de expertos en tecnología 1. Integración en entornos digitales de trabajo Es uno de los principales y más abruptos retos de la ingeniería. Ante las grandes ventajas que supone la digitalización, las empresas tradicionalmente gestionadas de manera no digital están condenadas a ir desapareciendo de manera progresiva. El mayor desafío de las empresas de nuestro sector es conseguir integrar de manera coherente la tecnología en el ecosistema de trabajo de la empresa manteniendo su nivel de eficiencia e incluso, aprovecharlo para aumentar la competitividad y el rendimiento. 2. Implantación BIM La necesidad de implantar BIM en las empresas del sector de la ingeniería es cada vez más imperiosa. 6 BIM (Building Information Modeling) es una metodología de trabajo colaborativa y en tiempo real para la gestión de proyectos constructivos (evolución respecto a los sistemas de diseño tradicionales basados en un plano). Usa herramientas de software para modelado de edificios en tres dimensiones y en tiempo real. Logra centralizar toda la información de un proyecto en un único modelo, permitiendo estudiar todo su ciclo de vida, desde el diseño hasta su posterior demolición. BIM integra a todos los agentes que intervienen en el proceso, ya sean arquitectos, ingenieros (el mecánico es clave) constructores, propietarios, especialistas, etc. La implantación de BIM en una empresa es más que la mera adopción de un software de trabajo. Para ser exitosa, la implantación de esta metodología ha de realizarse a todos los niveles y no debe basarse únicamente en los medios tecnológicos, sino también en los comportamientos de los equipos de trabajo. Es necesaria la adaptación de todos los directivos y empleados a reformas de profundo calado en la empresa y los entornos, formas, y actuaciones de trabajo. En España, Francia y Alemania la legislación ya prevé el establecimiento obligatorio de la metodología BIM para proyectos públicos. En Latinoamérica, aún incipiente 3. Desarrollo de infraestructuras inteligentes Las infraestructuras inteligentes son el futuro de la construcción. Incorporar las diferentes tecnologías de la información y la comunicación para mejorar la eficiencia energética, funcionalidad y comodidad de edificios, carreteras, estaciones de tratamiento de agua o infraestructuras energéticas es un hecho al orden del día. Su desarrollo implica un gran reto para las empresas tradicionales, al que solamente podrán hacer frente sí disponen de ingenieros y arquitectos con conocimientos profundos sobre estas nuevas tecnologías y herramientas, así se podrán diseñar infraestructuras funcionales y eficientes. Ej. Cuba. Aplicación de la inteligencia artificial a problemas de la Ingeniería Mecánica.: Sistema inteligente basado en redes neuronales convolucionales (CNN) para el control de la calidad de la soldadura ecuatorial de cilindros de gas. (Deep learning) Fig. 1 Soldadura ecuatorial de cilindros de gas 7 Fig. 2 Control de la geometría del cordón Fig. 3 Comprobación de la alineación de la chapa 4. Incorporación de herramientas tecnológicas a labores de trabajo Además de BIM, existen una serie de herramientas tecnológicas cuyo empleo puede suponer grandes posibilidades de mejora de la eficiencia en los proyectos. Ejemplos: el robot pone-ladrillos, los sensores incorporados a las infraestructuras inteligentes, los drones (pequeños dispositivos voladores sin tripulación, que son controlados en forma remota) empleados en auscultación de terrenos e infraestructuras o las impresoras 3D que ya construyen casas y puentes, entre otros empleos. Ej. Cuba. El auge de la manufactura aditiva ha impulsado el desarrollo de la medicina, teniendo grandes aplicaciones en el entrenamiento de operaciones con prototipos impresos en 3D a partir de tomografías y el diseño y fabricación de implantes. Además, se trabaja en el desarrollo de andamios personalizados recubiertos con apatitas para regeneración de tejido. Fig. 4 Diseño de una prótesis de cráneo para un paciente 8 Fig. 5 Impresión 3D de una probeta de compresión de un andamio para tejido celular sin recubrimiento 5. Formación de expertos BIM, las nuevas herramientas tecnológicas y el desarrollo de infraestructuras inteligentes requieren profesionales con formación y conocimientos acordes a ellos. Las empresas pueden optar por incorporar ingenieros jóvenes con conocimientos básicos en nuevas tecnologías, los cuales deberán ser ampliados y enfocados a las necesidades de la empresa mediante formación especializada, o bien adaptar la formación de sus ingenieros actuales en función al mundo digital, en este caso, el reto principal de la empresa será el establecer un plan de formación adecuado. 4. CONCLUSIONES Retos para el Ing. Mecánico cubano: en Cuba abundan declaraciones de principios sobre que se debe avanzar mucho en esta esfera; pero hasta el momento no pasan de ahí. Lo que pueden ser retos actuales de la Ing. Mecánica para el especialista de los países desarrollados, no pasan de ser metas que requieren de un basamento de todo tipo, que aún no se logra en Cuba. No obstante, ante cualquiera de los retos mencionados, la formación de los profesionales es la clave de éxito. La Inteligencia artificial y el Machine Learning son una realidad. Esto cambiará la demanda de empleos a futuro. La Ingeniería Mecánica siempre ha estado en constante evolución, por tanto, es el momento de sumarse plenamente a esta revolución digital y al Big Data. No dejes pasar la oportunidad de adaptar tus conocimientos a la nueva era. ¡Los resultados te lo agradecerán! REFERENCIAS 1. OFICINA NACIONAL DE NORMALIZACIÓN. "Norma Cubana". La Habana, Cuba: Oficina Nacional de Normalización (ONN). 2017. [Consulta: 1 febrero de 2018]. Disponible en: http://www.nconline.cubaindustria.cu:81/ 2. HICKEL, Jason. "The Sustainable Development Index: Measuring the Ecological Efficiency of Human Development in the Anthropocene", Ecological Economics vol 167 2. Resolución de las Naciones Unidas, 2020 UN Resolution A/RES/75/229 3. Informe de las Naciones Unidas, 2021 UN Report A/76/217 3. TANNY, T.T.; AKTER, N.; AMIN, O.M. "Finite element analysis of container ship’s cargo hold using ANSYS and POSEIDON software" AIP Conference Proceedings. 2017. No 1919: 020012. 4. MABROUK, M., BEHEREI, H. H., & DAs, D. B. "Recent progress in the fabrication techniques of 3D scaffolds for tissue engineering". Materials Science and Engineering: C, 110716. doi: 10.1016/j.msec.2020.110716 5. H. A. S. M. D. MUBAROK. "Electrical load forecasting study using artificial neural network method for minimizing blackout". 2018 5th International Conference on Information Technology, Computer, and Electrical Engineering (ICITACEE), IEEE, 2018, pp. 256—259. 6. NIKOLOVA, M. P., & CHAVALI, M. S. "Recent advances in biomaterials for 3D scaffolds: A review". Bioactive Materials, 4, 271–292. doi:10.1016/j.bioactmat.2019.10.005 9 7. H.-g. a. K. Y. A. K. S. SON, "Time Series Clustering of Electricity Demand for Industrial Areas on Smart Grid". Energies, vol. 13, nº 9, 2020. pp. 2—14. 8. HEMMAT ESFE, M., & ALIDOUST, S. "Modeling and Precise Prediction of Thermophysical Attributes of Water/EG Blend-Based CNT Nanofluids by NSGA-II Using ANN and RSM". Arabian Journal for Science and Engineering. 2020. doi:10.1007/s13369-020-05086-1 9. KUMARI, S., SINGH, B. N., & SRIVASTAVA, P. "Effect of copper nanoparticles on physico- chemical properties of chitosan and gelatin-based scaffold developed for skin tissue engineering application". 2019. 3 Biotech, 9(3). doi:10.1007/s13205-019-1624-9 10. SHIRZAD, M., ZOLFAGHARIAN, A., MATBOUEI, A., & BODAGHI, M. "Design, evaluation, and optimization of 3D printed truss scaffolds for bone tissue engineering". Journal of the Mechanical Behavior of Biomedical Materials, 120, 104594. doi:10.1016/j.jmbbm.2021.104594 11. YAN, D., ZENG, B., HAN, Y., DAI, H., LIU, J., SUN, Y., & LI, F. "Preparation and Laser Powder Bed Fusion of Composite Microspheres Consisting of Poly(lactic acid) and Nano-Hydroxyapatite". Additive Manufacturing, 101305. doi:10.1016/j.addma.2020.101305 1 AUDITORÍA DE LA GESTIÓN DE LA FUNCIÓN MANTENIMIENTO POR MUESTREO BASADO EN ATRIBUTOS. MBA-50 1Eyilennys Probance Caro, 2Pedro A. Rodríguez Ramos, 1Biocubafarma, División de Servicios Técnicos ESINES, Calle 17 No. 7809 e/78 y 80, Playa, La Habana, Cuba. 2CEIM, Facultad de Ingeniería Mecánica, Universidad Tecnológica de La Habana, Calle 114 No. 11901 e/ Ciclovía y Rotonda, Marianao, La Habana, Cuba.2 e-mail: eyilennyspc@gmail.com RESUMEN En el presente trabajo se muestra la Auditoría de la gestión de la Función Mantenimiento por muestreo basado en atributos; MBA-50. Es una auditoría del tipo checklist cuyo procedimiento y la propia lista de chequeo han sido concebidos por los autores. Es una herramienta fácil y efectiva para el seguimiento y control de procesos. Contiene los atributos que han sido definidos a partir de estudios previos, normas y regulaciones que se emplea actualmente en la gestión de la Función Mantenimiento y que están soportados por los doce factores claves de Mantenimiento Clase Mundial. El objetivo de este trabajo es promocionar esta herramienta y sus bondades para identificar el estado actual de la Función Mantenimiento en el lugar donde se aplique y establecer el orden de atención a los atributos de mayor riesgo, así como fundamentar la implementación de las acciones de mejora propuestas que tributan a una gestión de la Función Mantenimiento eficiente y sostenible. PALABRAS CLAVES: auditoría, función mantenimiento, muestreo, atributos AUDIT OF THE MANAGEMENT OF THE MAINTENANCE FUNCTION BY SAMPLING BASED ON ATTRIBUTES. MBA-50 ABSTRACT In the present work the Audit of the Management of the Maintenance Function by sampling based on attributes; MBA-50, is shown. It is an audit of the check list type, whose procedure and the checklist itself have been conceived by the authors. It is an easy and effective tool for monitoring and controlling processes. It contains the attributes that have been defined from previous researches, norms and guidelines that are currently used in the management of the Maintenance Function. The attributes are supported by the twelve key factors of World Class Maintenance. The objective of this work is to promote this tool and its benefits to identify the current state of the Maintenance Function. Nevertheless, MBA-50 audit allows setting the order of attention to the attributes of greatest risk, as well as the implementation of improvement actions that contribute to an efficient and sustainable Maintenance Function Management. KEY WORDS: audit, maintenance function, sampling, attributes 1. INTRODUCCIÓN La Auditoría es un proceso sistemático, independiente y documentado para obtener evidencias objetivas y evaluarlas de manera objetiva con el fin de determinar el grado en que se cumplen los criterios de auditoría. [1] La Auditoría parte de la búsqueda de información, la evalúa para determinar errores y desviaciones y establece las pautas para corregirlas. Por lo tanto, auditar permite examinar o analizar la calidad de un 2 sistema, proceso, producto o servicio contra la norma previamente adoptada para detectar si satisface los requisitos exigidos. La Auditoría es la pieza clave de un Sistema de Mejora Continua - Éxito Sostenido, que permite reducir fallos y prevenir no conformidades. [1, 2] Se han concebido muchos tipos de auditorías [3 - 8] para la evaluación objetiva del estado de la gestión de la Función Mantenimiento (FM). Cada una de ellas tiene su objetivo y alcance, sus ventajas, desventajas y sus resultados, según el objeto donde se aplica. La Auditoría de la FM consiste en la evaluación, análisis y valoración objetiva, periódica y sistemática de las funciones y características esenciales del servicio, para comprobar la pertinencia de la gestión de la FM y su evolución en el tiempo. Es un acto voluntario del jefe de mantenimiento, que desea esclarecer los puntos débiles y fuertes del servicio (no es una inspección, no es un control externo). La Auditoría de la FM es una combinación de la auditoria de calidad y la auditoría de procesos (servicios). Concepción básica de la auditoría de la FM [9]: - Aplicar lista de chequeo de atributos - Auditoría (diagnóstico) - Definir las prioridades de atención - Proponer acciones de mejora - Validación económica de las acciones de mejora - Control y seguimiento En este trabajo se presenta la Auditoría de la Función Mantenimiento por Muestreo Basado en Atributos (acrónimo MBA-50). Ni mejor, ni peor que las existente, solo sencilla y más abarcadora en cuanto a los atributos que caracterizan la gestión de la FM. Es universal. La MBA-50 es una auditoría del tipo checklist (lista de chequeo). El procedimiento y la lista de chequeo han sido concebidos por los autores. Es una herramienta fácil y efectiva para el seguimiento y control de procesos. Contiene los atributos que han sido definidos a partir de estudios previos, normas y regulaciones que se emplea actualmente en la gestión de la FM. Para evaluar la conformidad de la lista de chequeo con los requisitos establecidos, se usa el enfoque basado en atributos. El atributo es una cualidad de algo (propiedad, carácter, particularidad, condición, naturaleza, esencia). Símbolo que denota el carácter y oficio, en este caso, de la FM. Es el eslabón base de la auditoría que se propone. La lista de chequeo diseñada para la Auditoría de la FM; MBA-50, está integrada por 50 atributos (no se audita por áreas funcionales, sino por atributos individuales) que están soportados por los doce factores claves de Mantenimiento Clase Mundial. El objetivo de este trabajo es promocionar esta herramienta y sus bondades, para identificar el estado actual de la Función Mantenimiento en el lugar donde se aplique y establecer el orden de atención a los atributos de mayor riesgo, así como fundamentar la implementación de las acciones de mejora propuestas que tributan a una gestión de la Función Mantenimiento eficiente y sostenible. 2. MATERIALES Y MÉTODOS Procedimiento La Auditoría de la FM; MBA-50 está estructurada en cinco etapas, [9] que garantizan su correcto desarrollo y que satisfacen las expectativas de la organización auditada.  Etapa 1. Selección de los expertos  Etapa 2. Obtención de la información  Etapa 3. Procesamiento de la información  Etapa 4. Validación de las acciones de mejora  Etapa 5. Informe final Input Estado actual de la gestión de la FM Output Gestión de la FM clase mundial 3 Etapa 1. Selección de los expertos La calidad y confiabilidad de la evaluación depende en gran medida de la idoneidad de los expertos. La característica más importante es la competencia del experto, por eso el método de selección de los expertos usado es el del Coeficiente de Competencia Experta (K) [10, 11, 12]. El coeficiente se calcula, para cada experto potencial (bolsa de expertos), por la siguiente fórmula: K= ½ × (Kc + Ka) (1) Kc: Coeficiente de conocimiento Ka: Coeficiente de argumentación El Coeficiente de conocimiento o información, grado de conocimiento que tiene el experto potencial (o por autoevaluación) acerca del tema, se calcula sobre la valoración del propio experto (VP) en una escala del 1 al 10 y multiplicado por 0.10: KcE1 = VP x 0.10. [10, 11] El Coeficiente de argumentación (fuentes de criterio del experto) se obtiene a partir de la auto asignación por parte del experto de puntuaciones a distintas fuentes (son 6) de argumentación en las que se basa su conocimiento experto (análisis teóricos sobre la temática, la experiencia profesional, participación en proyectos de investigación, entre otras). Se apoya en la Tabla Patrón de las fuentes de argumentación [10, 11] que vincula las mismas vs grado de influencia de cada una de estas fuentes en los criterios de argumentación del experto. Etapa 2. Obtención de la información Consiste en calificar cada atributo de la lista de chequeo, tabla 1. Los expertos validan el estado real de cada atributo, asignando una calificación: 0, 1, 2 de acuerdo al estado, que él detecta, que tiene el atributo en el momento que se realiza la auditoría. Es decir: 0 - mal, 1 - regular y 2 – bien. [9] Tabla 1. Lista de chequeo. Atributos 1. Presupuestos 26. Estructura 2. Descripción de las funciones por cargos 27.Taller 3. Medioambiente 28. Pañol 4. Mantenimiento autónomo 29. Útiles y herramientas 5. Comprensión y actitud de la gerencia 30. Ingeniería 6. Cliente interno 31. Efectividad 7. Cubrimiento de la plantilla 32. Estrategia de mejora 8. Estimulación 33. Solución de los problemas 9. Gestión de compras de mantenimiento 34. Nivel de prevención 10. Capacitación del capital humano 35. Procedimientos de trabajo 11. Aplicaciones informáticas 36. Tareas de inspección 12. Contratación 37. Competencias de operarios de inspección 13. Motivación del capital humano 38. Tecnologías de inspección 14. Gestión de seguridad y salud del trabajo 39. Control de portadores energéticos 15. Recuperación de piezas y partes de repuesto 40. Estudios de lubricación 16. Gestión de la lubricación y los lubricantes 41. Almacenaje de aceites y lubricantes 17. Medición del desempeño laboral 42. Capital humano de lubricación 18. Gestión de costos 43. Gestión de órdenes de trabajo 19. Organización interna 44. Gestión de la calidad 4 20. Gestión de indicadores 45. Certificaciones de activos 21. Toma de decisiones de los directivos 46. Gestión de compras de piezas de mantenimiento 22. Trabajos planificados 47. Análisis de riesgos 23. Recursos de planificación 48. Política general y directrices 24. Programación 49. Toma de decisiones en la inspección 25. Almacenes 50. Toma de decisiones en ahorro energéticos Etapa 3. Procesamiento de la información La evaluación del estado real de la FM tiene un carácter cuantitativo. La calificación otorgada a cada atributo (etapa 2) se procesa y se evalúa según el procedimiento indicado en la tabla 2. Tabla 2. Procesamiento y evaluación de la información [9] Atri buto , A Calificación de los expertos, E Total, E Media, M E / E Factor de pondera ción, P, % Estado Real. Calificación absoluta, CAi= (M*P)/3 Orden de atención 1 2 3 4 5 6 7 E 1 E 2 E 3 E 4 E 5 E 6 .. Ei A1 A2 …. A50 Tot - - - - - - - - ------ --------- 100.00 CAi --------- Estado cuantitativo % CAi Estado cualitativo M / R / B Donde: Columna 1: Contiene los 50 atributos en el orden que aparecen en la lista de chequeo. Columna 2: Se subdivide en tantas columnas como expertos se hayan seleccionado (etapa 1). En cada subcolumna el experto coloca la calificación asignada a cada atributo. Columna 3: Corresponde a la suma total (E), por la horizontal (subcolumnas 2), de las calificaciones dadas por cada experto al atributo. Columna 4: Es la calificación media (M=E/E) asignada al atributo por los expertos. Se obtiene como resultado de dividir el total de cada fila de la columna 3, entre el número de expertos encuestados. Columna 5: Factor de ponderación, P (%). Es el peso relativo de cada atributo. Para la obtención de su valor se aplica la técnica de consenso del método Delphi, en particular la técnica del Estadígrafo Kendall w [10, 11, 12]. Debido a la existencia de 50 atributos (una cantidad significativa), para definir la ponderación se utiliza la Ponderación con Sesgo Prestablecido (PSP, concebida por los autores). Consiste en distribuir los 50 atributos en 10 rangos y a cada uno se le asignan 5 atributos que tienen igual calificación (ligas o sesgos). El rango 1 agrupa los 5 atributos que tienen máxima incidencia y el rango 10 los 5 de menor incidencia. La puntuación por rangos, para sesgo prestablecido, se muestra a continuación, tabla 3: [9] Tabla 3. Puntuación por rangos de la PSP Rango 1 2 3 4 5 6 7 8 9 10 Calificación sesgada prestablecida 2.5 6.5 10.5 14.5 18.5 22.5 26.5 30.5 34.5 38.5 5 La tarea inicial de cada experto consiste en definir cuales 5 atributos van en cada rango. Después, sencillamente, asigna la calificación a cada uno de los 5 atributos del rango correspondiente, según indica la tabla anterior. El modelo empleado, en esta prueba estadística con sesgo prestablecido, para MBA-50, responde a la siguiente expresión [9]: )100()( )(12 32 1 2      EAAE SS w n j j (2) Calculado el valor de w, se continúa con el proceder tradicional de la técnica del Estadígrafo Kendall w: calcular 2práctico, 2teórico, compararlos etc.), para determinar si hay o no consenso. El valor consensuado de la ponderación P (%) resulta de la división de Sj / Sj *100. [9] Columna 6: Cada cuadrícula de esta columna representa la Calificación Absoluta, (estado real) del atributo. Es el resultado de multiplicar el valor medio del atributo (M) por su correspondiente ponderación (P) y dividido entre la base de calificación, es decir, 3 puntos. En la cuadrícula Total, columna 6, (CAi) de la tabla 4 se obtiene el valor final de la evaluación del estado real que corresponde a la Función Mantenimiento. La valoración cualitativa del estado real se asigna según la tabla 4: Tabla 4. Calificación cualitativa del estado real de la FM [9] Calificación Absoluta, puntos Calificación Relativa, % Estado cualitativo < 46.66 < 70.00 MAL 46.67 - 60.00 70.00 – 90.00 REGULAR > 60.01 >90.00 BIEN Para mejor visualización de la calificación absoluta obtenida por cada atributo, se utiliza la forma gráfica: Diagrama de barras. Columna 7: Se coloca el orden de atención del atributo, que surge a partir de los resultados de la columna 6. La prioridad de atención es para los atributos que menor calificación absoluta alcancen, ya que su estado real indica que están mal y, por tanto, requieren la mayor atención. La propuesta de acciones de mejora puede aplicarse a todos los atributos cuya calificación absoluta sea M y R; pero se recomienda considerar la Ley de Pareto (20 - 80), para analizar la cantidad inicial de atributos que requieren la mayor atención. Esta ley propone seleccionar, el 20.00 % de los atributos de menor puntuación (clase A). En el caso de la Auditoría de la FM. MBA-50, resultarían los 10 atributos con valores más bajos de CA. El orden de atención de los 10 atributos y la correspondiente propuesta de acciones de mejora para cada uno, se recomienda presentarlos como aparece en la siguiente tabla: Tabla 5. Orden de atención de los atributos y propuesta de acciones de mejora Orden Atributo Estado real, CAi Acciones de mejora Descripción 1 #. 2 #. .... 6 10 #. Cada atributo puede tener más de una acción de mejora. Etapa 4. Validación de las acciones de mejora Para constatar la pertinencia objetiva de cada acción de mejora (tabla 5) propuesta se debe validar su aplicabilidad y sostenibilidad, para lo cual se deben evaluar las siguientes dimensiones: Dimensión impactos de la solución Definir a qué tipo de impacto está asociada cada acción de mejora propuestas en la etapa anterior, a saber: CC - Conocimiento Científico, T – Técnico, EF – Económico - financiero, S – Social, MA – Medioambiental, P - Político, J - Jurídico. La asociación se declara marcando con una cruz en la cuadrícula correspondiente: Tabla 6. Asociación de las acciones de mejora y los tipos de impacto Acc CC T EF S MA P J Argumentación 1 x x x 2 x x .... x x 10 Las acciones de mejora que, considerando los efectos de su impacto, no sean factibles o invalidantes, desde ya se eliminan y, por tanto, no continúan en la validación. Dimensión prevención de riesgos Riesgo, es la incertidumbre de que ocurra un acontecimiento que pudiera afectar o beneficiar el logro de los objetivos y metas de la acción de mejora, por tanto, el Plan de Prevención de Riesgos, Tabla 7, [12, 13] constituye un instrumento de trabajo de la dirección para dar seguimiento sistemático a los objetivos de control. Tabla 7. Plan de Prevención de Riesgos Acc Acti vidad o Área Riesgos Posibles manifestacio nes negativas Medidas a aplicar para la prevención de riesgos Respon sable Ejecu tante Fecha cumpli miento de medidas 1 2 ..... 10 Dimensión costos Para complementar la validación de la pertinencia de las acciones de mejora que continúan en el análisis, se debe proceder a calcular el costo económico de su implantación, para fundamentar su real efectividad y sostenibilidad. La personalización del requerimiento de recursos económicos (RE) por cada acción de mejora se declara marcando con una cruz en la cuadrícula correspondiente de la siguiente tabla: Tabla 8. Requerimiento de recursos económicos Ac Recursos económicos 7 $ Mater $ Salario $ Invers $ Capacit $ Otros Fuente del presupuesto Disponible en tiempo y cantidad Observaciones 1 x x x 2 x ... 10 Para determinar el costo de implementación de cada acción de mejora se recomienda calcular las partidas siguientes:  Materias primas, materiales fundamentales y auxiliares, Otros recursos, Salario básico, Otras retribuciones. (CLA, peligrosidad, otros), Salario complementario, Aporte a la Seguridad social, Estimulación, Impuesto por la utilización de la fuerza de trabajo, Portadores energéticos, Combustible, Contratación, Otros Costos Directos, Subtotal Costos Directos Corrientes (CD) y Subtotal Costos Indirectos (CI). El Costo Total ($) de cada acción de mejora es: CTai = CDi + CIi (3) El Costo Total necesario (CTa, $) para la implementación de todas las acciones de mejora propuestas se determina como: CTa = CTa1 + CTa2 + ……………… + CTai (4) Posteriormente, se estiman los resultados técnicos (Indicadores Clase Mundial) que reportaría la implementación de las acciones de mejora propuestas, comparando antes y después de implementar las acciones:  Disponibilidad, Mantenibilidad, Confiabilidad, Tiempo medio entre fallos, Tiempo medio hasta el fallo, Tiempo medio para reparación. Los resultados técnicos, anteriormente relacionados, traen aparejados resultados económicos que se concretan en el cálculo del Beneficio Económico Total (BET, $):   T= BETa1 + BETa2 + ……………… + BETai (5) Dimensión eficiencia económica Para constatar la eficiencia económica general de las acciones de mejora propuestas, se determina la Relación Costo Beneficio Integral (RCBI, $/$) de la implementación de todas las acciones de mejora, que se determina como: RCBI = CTa (6)  Cuando RCBI es mayor que 1.00 significa que es un mal resultado. Además, para complementar la validación de la eficiencia económica, se debe calcular el valor de los indicadores Clase Mundial, que generan las acciones propuestas:  Costo mantenimiento / facturación,  Costo mantenimiento / costo total,  Costo mantenimiento no programado (avería) / costo mantenimiento total También, se deben comparar otros indicadores importantes, aunque no sean Clase Mundial: 8  Activo (máquinas redundantes, inventarios y otra máquinas de mtto) / beneficio  Rentabilidad del capital  Margen de beneficio (precio - componente unitario del costo variable) Solo después de desarrollar todo lo antes indicado es que, finalmente, se puede concluir cuales acciones de mejora son las objetivamente factibles y se justificaría la implantación de las mismas. No se concibe una propuesta de acciones de mejora, aun siendo factibles, sin una programación de su implementación y que además contemple su seguimiento, por tanto, de debe confeccionar su Cronograma de Ejecución. Sobre acciones de mejora que requieren solicitud de inversiones Si algunas de las acciones de mejora requieren presupuesto para gastos correspondiente a inversiones en compra de activos fijos, instalaciones, otros (declarado en la tabla de personalización del requerimiento de RE), éste debe estar en correspondencia con el plan de inversiones de la entidad. En este caso hay que presentar el flujo de efectivo y el cálculo del Valor Presente Neto (VPN), la Tasa Interna de Retorno (TIR), el Período de Recuperación de la Inversión (PRI), entre otros indicadores. Etapa 5. Informe final Se confecciona el documento donde se describe claramente las acciones de mejora de manera que sirva de ayuda a los directivos de la entidad a establecer sus objetivos y las oportunidades de mejora. Respetando el ciclo PDCA: se discute el informe, se distribuye a las partes interesadas, se conserva seguramente, se da seguimiento y se verifica el cumplimiento de Plan de Mejora, según tiempo y forma, se revisa por la dirección. 3. RESULTADO Y DISCUSIÓN La auditoría MBA - 50 es de reciente creación. Está siendo aplicada en este momento en la División de Servicios Técnicos ESINES. Biocubafarma, por tanto, no se dispone de resultados concretos para mostrar y por esto, no existe tampoco la discusión. Se reitera que el objetivo principal de este trabajo es promocionar esta herramienta y sus bondades para identificar el estado actual de la Función Mantenimiento en el lugar donde se aplique. La auditoría MBA - 50 ya está al alcance de todos, pues se encuentra colgada en researchgate. 4. CONCLUSIONES El procedimiento de la Auditoría de la Función Mantenimiento; MBA-50 es una herramienta aplicable y eficaz para identificar el estado general de la Función Mantenimiento y para establecer el orden de la atención a los atributos en cualquier tipo de empresa. La aplicación de la Auditoria MBA-50 permite definir el estado real de la gestión de la FM en cualquier tipo de empresa. Permite establecer el orden prioritario de atención a los atributos del mantenimiento y define los riesgos y sus correspondientes acciones de mejora, así como fundamenta la factibilidad de la implementación de las mismas. Para las acciones de mejora que sean identificadas se valida y se constata su factibilidad económica, considerando además, sus impactos y riesgos, por lo que en correspondencia con la argumentación de la pertinencia objetiva de cada acción de mejora propuesta, se espera que con la correcta implementación de todas ellas se produzca una mejora efectiva en la FM, que permita alcanzar el estado deseado de la gestión de la FM. REFERENCIAS 1. Oficina Nacional de Normalización. NC ISO 19011: 2018. Directrices para la auditoría de los sistemas de Gestión. p. 58. La Habana: ONN, 2018. 2. Ministerio de Auditoría y Control. Normas Cubanas de Auditoría. Anexo I. p. 223-272. Resolución 76/2020. La Habana: GOC -2020-306-ex18, 2020. 9 3. VÁSQUEZ, G.; EMIRO, J.” Diseño de un Modelo para la Auditoría de la Gestión de Mantenimiento Basado en el Modelo de Gerencia de Mantenimiento de PDVSA”. p. 11. 2015. 4. DÍAZ, Armando; DEL CASTILLO, Alfredo; VILLAR, Leisis.” Instrumento para evaluar el estado de la gestión de mantenimiento en plantas de bioproductos: Un caso de estudio”. Ingeniare. Revista chilena de ingeniería. 2017. 25(2), p. 306-313. 5. ACOSTA, Héctor; TRONCOSO, Mayra.” Auditoría integral de mantenimiento en instalaciones hospitalarias, un análisis objetivo”. Ingeniería Mecánica. 2011. 14(2), p.107-118. 6. ACOSTA, Héctor.” Auditoría y Evaluación de la Calidad en el Mantenimiento”. La Habana. 2012. 86 p. ISBN: 978-959-261-402-4 7. DÍAZ, Armando, et al.” Methodology for maintenance management based on diagnostic criteria”. Revista DYNA. 2019. 6(211), p. 220-226 8. MICHELENA, Esther.” Auditorías de la calidad”. La Habana. Cujae. 2015. Folleto. 41 p. 9. RODRÍGUEZ, Pedro et al.” Auditoría de la Función Mantenimiento. Muestreo Basado en Atributos-50”. La Habana. Cujae. Monografía. 2021. 65 p. ISBN:978-959-261-605-9 10. FRAGA, Elena; DEL CASTILLO, Alfredo.” Método Delphi”. La Habana. Cujae. Folleto. 2010. 16 p. Sin ISBN 11. LÓPEZ GÓMEZ, E.” El método Delphi en la investigación actual en educación: una revisión teórica y metodológica”. Educación XX1, 21(1), 17-40, 2018. Doi: 10.5944/educXX1.15536 12. RAMOS, Fernando; GARCÍA, Romel.” Una aproximación a la toma de decisiones en el escenario azucarero mediante el Método Delphi. Un estudio de caso”. Centro azúcar. 2011. 38(3): p. 39-45 13. Ministerio de Auditoría y Control. Resolución No. 60/2011 Normas del sistema de control interno. p. 84. La Habana: GOC, 2011. Sobre los autores Eyilennys Probance Caro Ingeniera Química, 2011 (Universidad Holguín). Desde su graduación ha trabajado en la producción: montaje y puesta en marcha de la planta de tratamiento de Agua de Osmosis Inversa a partir de agua de mar, Especialista "A" en ensayos físicos y mecánicos y Especialista "A" en Mantenimiento Industrial. Ha realizado presentaciones de forma oral en varios eventos nacionales. Ha recibido varios cursos de postgrado. Tiene experiencia docente impartiendo Cursos de Tratamiento de Agua. Actualmente está cursando la Maestría de Ingeniería y Gerencia del Mantenimiento, Cujae. Pedro Antonio Rodríguez Ramos Ingeniero Naval, Explotación Transporte Marítimo, 1977 (Universidad Marítima de Odesa). Doctor en Ciencias Técnicas, 1986 (Universidad Marítima de Odesa). Profesor Titular, 1988 (Universidad Tecnológica de La Habana). Post doctorado en Universidad de Gante, Bélgica, 2001 y en Universidad de Sao Paulo, Brasil, 2005. Ha participado y/o dirigido múltiples proyectos de investigación. Ex-presidente del tribunal permanente nacional de grados científicos de IM. Miembro de Consejos Científicos. Autor de múltiples publicaciones en revistas nacionales e internacionales y presentaciones de forma oral en eventos y congresos. Miembro de comités académicos de varias maestrías. Profesor invitado para el postgrado en universidades de Ecuador, España, Venezuela y Brasil. Actual editor de la Revista IPEN Journal. Tres años premio nacional de la ACC. LA INGENIERÍA BIOMÉDICA EN LA GESTIÓN E IMPLEMENTACIÓN DEL MANTENIMIENTO DE EQUIPOS MÉDICOS DEL CENTRO OFTALMOLÓGICO “AMISTAD CUBA-BOLIVIA” BIOMEDICAL ENGINEERING IN THE MANAGEMENT AND IMPLEMENTATION OF THE MAINTENANCE OF MEDICAL EQUIPMENT OF THE "AMISTAD CUBA- BOLIVIA" OPHTHALMOLOGICAL CENTER Dayquelín Portuondo Castillo1, Dayana Portuondo Castillo2, Rafaela Pavón Muchulí3 1Instituto Cubano de Oftalmología Ramón Pando Ferrer. Calle 76 / 31 y 41. Marianao. 2Instituto de Cardiología y Cirugía Cardiovascular. Calle 17 / Paseo y calle A. 3Instituto Cubano de Oftalmología Ramón Pando Ferrer. Calle 76 / 31 y 41. Marianao. 4Centro de Estudios de Proteínas, Facultad de Biología, UH. Calle 25 / J e I. Plaza de la Revolución. 1e-mail: dayquelinpc@infomed.sld.cu RESUMEN La Ingeniería Biomédica propicia el desarrollo del área médico-biológica mediante la investigación y desarrollo de nuevas tecnologías en diversos campos de la medicina. Los técnicos e ingenieros especializados en esta rama están capacitados para realizar el mantenimiento del equipamiento biomédico existente en las unidades hospitalarias y brindar soporte a los usuarios de los mismos. La Gestión del Mantenimiento es una herramienta de gran importancia para el personal médico y de ingeniería en el control, organización y planificación de un programa de mantenimiento para el equipo médico garantizando no solo la seguridad y la efectividad sino también la disponibilidad y el funcionamiento óptimo de estos equipos. En este trabajo se presentan los resultados obtenidos tras analizar la gestión e implementación del mantenimiento y la recuperación de equipos médicos del Centro Oftalmológico “Amistad Cuba-Bolivia”, en los que se evidencian que durante el período analizado (2017- 2019) se ha llevado a cabo una adecuada gestión del mantenimiento que ha proporcionado la solución y disminución de la mayoría de las roturas que estaban presentes durante años anteriores, y además la aplicación de algunas modificaciones y mejoras en la documentación técnica para proporcionar una información actualizada sobre el equipamiento médico. Se exponen además las reparaciones que se han llevado a cabo no solo en el Hospital Gral. Guayaramerín “Luis Alberto Navarro”, sino también en otros cuatro centros de salud de la comunidad. PALABRAS CLAVES: ingeniería biomédica, equipo médico, gestión, mantenimiento. ABSTRACT Biomedical Engineering favorable the development of the biological- medicine area by means of the research and development of new technologies in diverse fields of the medicine. The technicians and engineers specialized in this branch are qualified to carry out the maintenance of the existent biomedical equipment in the hospital units and to offer support to the users of the same ones. Management of Maintenance is a tool to support the medical personnel and of engineering in the control, organization and planning of a maintenance program for the medical equipment not guaranteeing alone the security and the effectiveness but also the readiness and the good operation of these equipment. In this work the results are presented obtained after analyzing the management and implementation of the maintenance and the recovery of medical equipment of the "Friendship Cuba-Bolivia" Ophthalmologic Center, in those that are evidenced that during the analyzed period (2017-2019) it has been carried out an appropriate maintenance management that has provided the solution of most of the breaks that were present during previous years, and also the application of some modifications and improvements in the technical documentation to provide an information modernized on the medical equipment. They are also exposed the repairs that have been carried out non alone in the "Luis Alberto Navarrese" Guayaramerín General Hospital but also in other four centers of health of the community. KEY WORDS: biomedical engineering, medical equipment, management, maintenance, recuperation. 1. INTRODUCCIÓN La Ingeniería Biomédica tiene como fin ayudar al desarrollo del área médico-biológica mediante la investigación y desarrollo de nuevas tecnologías en los campos de la ingeniería clínica, telemedicina, bioinstrumentación y tecnologías asistenciales; realizar mantenimiento preventivo y correctivo a equipo biomédico existente en las clínicas o unidades hospitalarias y brindar soporte a usuarios de los mismos. Además, permite mantener y diseñar equipos que ofrezcan soluciones tecnológicas en el campo de la salud; así como gestionar programas de mejoramiento, operación y conservación de instalaciones y equipos médicos, considerando para ello la evaluación, mantenimiento y modificación de lo existente, además del diseño de soluciones científicas y administrativas integrales, todo ello considerando el aspecto ambiental y humano. La Gestión de Mantenimiento es una herramienta para apoyar al personal médico y de ingeniería en el desarrollo, control y dirección de un programa de mantenimiento para el equipo médico garantizando su operación segura a máximas prestaciones y a costo efectivo. Esta contribuye de forma positiva en brindar calidad de todos los entornos que se localizan dentro de él proporcionando una mejor y mayor productividad de los servicios, pues es el medio ideal de poder contar con equipos más confiables, menos gastos de mantenimientos de los mismos y un uso más eficaz y preciso para atender a los usuarios. Para llevar a cabo una buena Gestión del Mantenimiento se deben tener en cuenta los siguientes aspectos: El Mantenimiento Planificado del Equipo Médico es el trabajo realizado sobre el equipo según una planificación. Verificación y Calibración. - La Verificación se lleva a cabo para comprobar que el equipo está completamente operacional dentro de los límites especificados. La calibración implica que el dispositivo es comparado contra un estándar confiable. Mantenimiento Preventivo. - Normalmente incluye inspecciones periódicas de instrumentos y equipos, haciendo las tareas de limpieza, lubricación, ajuste, comprobación y reemplazo de componentes defectuosos, que pudieran fallar, alterando el estado operacional del equipo antes de la próxima inspección. Mantenimiento Correctivo- Es el trabajo realizado sobre un equipo o parte para restaurar su estado operacional. No es planificado, se lleva a cabo a partir del reporte que hace el usuario, operador del equipo o personal que realiza el mantenimiento programado. El Inventario para el Mantenimiento se diseña con el propósito específico de servir como herramienta efectiva para llevar a cabo la gestión de mantenimiento del equipo médico. Los Procedimientos para el Mantenimiento deben ser obtenidos a partir del fabricante y/o agencias especializadas, tales como ECRI (Emergency Care Research Institute), AAMI (Asociation for the Advancement of Medical Instrumentation), etc. Los contenidos y la frecuencia de cada uno de los Procedimientos para el Mantenimiento, no son estándares sino modelos sujetos a una adecuación particular en cada hospital. En muchas instituciones de salud los profesionales encargados de la gestión del equipo médico pueden incluir, técnicos, ingenieros biomédicos, ingenieros automáticos e ingenieros eléctricos especializados en las áreas de la bioingeniería, ingeniería clínica y electromedicina. El ingeniero biomédico para efectuar e implementar dicha gestión debe llevar a cabo disímiles tareas tales como: actualizar el inventario físico-funcional de los equipos médicos/hospitalarios; evaluar y modificar las órdenes de trabajo y expedientes del equipo; establecer un inventario para el mantenimiento de los equipos de alta prioridad; evaluar y verificar los procedimientos no solo para la inspección y el mantenimiento preventivo, sino también para el mantenimiento correctivo de los equipos; y generar un plan de mantenimiento anual de equipos médicos orientado a riesgos, entre otras. En la actualidad se demanda constantemente el desarrollo de una cultura de gestión de mantenimiento, teniendo en cuenta la importancia de esta y su impacto en la seguridad y la eficacia de los servicios de salud que se brindan en las instituciones hospitalarias, garantizando al mismo tiempo la disponibilidad y el funcionamiento óptimo de los equipos médicos, así como también el aumento de la vida útil de los mismos, contribuyendo de manera general, al mejoramiento del sistema de salud en el país. Por lo cual, este trabajo tiene como objetivo principal analizar y evaluar la gestión e implementación del mantenimiento en el Centro Oftalmológico “Amistad Cuba-Bolivia” en el período comprendido desde octubre del 2017 hasta marzo 2019. Para dar cumplimiento a este objetivo general se diseñaron los siguientes objetivos específicos:  Estudio de aspectos fundamentales de la Gestión del Mantenimiento en el Centro Oftalmológico “Amistad Cuba-Bolivia”.  Análisis del Mantenimiento y Recuperación del equipamiento médico del Centro Oftalmológico “Amistad Cuba-Bolivia”.  Análisis de las Reparaciones y Recuperaciones realizadas a tecnología médica de otros centros de la localidad.  Trazar estrategias futuras para mejorar la Gestión del Mantenimiento y el desempeño del personal electromédico del centro. 2. Materiales y Métodos Para el desarrollo de este trabajo se han utilizado diversos materiales tales como manuales y documentación técnica, medios de cómputo, acceso a Internet y otras herramientas necesarias en apoyo a la investigación propuesta. Entre los métodos de investigación aplicados se encuentran:  Método histórico - lógico para revisar el estado del arte sobre la gestión de mantenimiento hospitalario.  Métodos experimentales para efectuar la gestión e implementación del mantenimiento de los equipos médicos.  Método de análisis y síntesis para extraer las regularidades de los resultados experimentales y poder establecer conclusiones. 3. Resultados y Discusión Gestión e Implementación del Mantenimiento. Centro Oftalmológico A continuación, se analiza el equipamiento del centro. Se muestran aspectos fundamentales de la Gestión del Mantenimiento, Reparación y Recuperación del equipamiento médico llevados a cabo durante el período que comprende los meses desde octubre 2017 hasta marzo 2019. Caracterización del Equipamiento El Centro Oftalmológico “Amistad Cuba-Bolivia” cuenta actualmente con 43 equipos médicos distribuidos en 5 especialidades. En la Tabla 1 se muestra el equipamiento distribuido en las diferentes especialidades médicas, y se comparan dos períodos: septiembre 2017 y octubre 2017- marzo 2019. Tabla 1. Equipamiento Médico del Centro Oftalmológico. Especialidad septiembre 2017 octubre 2017 - marzo 2019 Cant. Equipos Equipos Parados Equipos Parados Esterilización 4 3 0 Electrónica Médica 3 3 0 Electromecánica 10 5 0 Óptica y Oftalmología 25 8 3 Electro Óptica 2 0 0 Total 44 19 3 Los datos de esta tabla fueron procesados en dos gráficos. En el primero (figura 1) se muestra el porcentaje del equipamiento en las diferentes especialidades médicas. Donde se observa que el mayor porcentaje lo tienen los equipos de la especialidad Óptica y Oftalmología. En el segundo (figura 2), se demuestra de forma cualitativa y cuantitativa que durante el periodo octubre 2017-marzo 2019, no solo se aumentó la cantidad de equipos, debido a que se lograron insertar dos equipos que se recuperaron y se repararon, pues se encontraban desde años anteriores fuera de uso, sino también se disminuyó la cantidad de equipos parados en el centro. Figura 1. Porcentaje del equipamiento en las diferentes especialidades médicas. Figura 2. Análisis del comportamiento del equipamiento del centro en dos períodos. Mantenimientos Realizados Para llevar a cabo los mantenimientos realizados en el período se actualizó el Inventario Físico-Funcional del Equipamiento y se estableció un plan de mantenimiento. En la Tabla 4 se muestran los mantenimientos realizados durante los 17 meses comprendidos desde octubre 2017 hasta marzo 2019. Tabla 4. Mantenimientos realizados a los equipos que le corresponden. Especialidad Cant. Equipos Mantenimientos Equipos Recuperados Preventivos Correctivos Esterilización 4 51 30 2 Electrónica Médica 3 17 10 2 Electromecánica 10 11 5 2 Óptica y Oftalmología 25 209 100 0 Electro Óptica 2 11 5 0 Total 44 299 150 6 Los datos de la tabla anterior fueron procesados en el gráfico que se muestra a continuación (figura 3). Figura 3. Mantenimientos realizados a los equipos de las distintas especialidades médicas. En la figura 3 se evidencia que los mantenimientos preventivos han aumentado en el período, esto conlleva consecuentemente a la disminución de los mantenimientos correctivos, aspecto esencial en la eficacia de la gestión del mantenimiento realizado. También se observa la presencia de equipos recuperados, lo cual significa que, gracias al esfuerzo del personal ingenieril del centro, se han logrado recuperar equipos que se encontraban fuera de uso por roturas o defectos, y representaban una pérdida lamentable en el equipamiento necesario para garantizar la prestación de servicios en el centro. Mantenimientos Correctivos A continuación, se muestran una serie de imágenes que representan los mantenimientos correctivos (reparaciones) efectuados en los equipos pertenecientes a diferentes áreas del centro (figuras 4, 5,6-10). Además se exponen los equipos que fueron reparados y recuperados tanto en el centro oftalmológico como en el Hospital y en otros centros de salud (figuras 11,12-20). Equipos del Salón de Operaciones Figura 4. Microscopio Quirúrgico. Figura 5. Monitor de Video y Equipo de Electrocirugía. Equipo del Área de Esterilización Figura 6. Deltaclave S-410 y Autoclave Cristófoli. Equipos de la Consulta de Refracción Figura 7. Unidad de Refracción, Proyector, Autorrefracto, y Lensómetro. Equipos de las Consultas del Pre y Post Operatorio Figura 8. Izquierda: Lámpara de Hendidura. Medio: Láser. Derecha: Oftalmoscopio. Equipos de la Consulta Evaluación Clínica y Cardiología Figura 9. Esfigmomanómetro Aneroide y Electrocardiógrafo. Equipos Recuperados. Centro Oftalmológico Figura 10. Equipos recuperados: a) Monitor de Signos Vitales, b) Autoclave de Vapor (de mesa), c) Biómetro, d) Transformador de 220 v a 110 V 2000 W, e) Autoclave de Vapor, f) Electrocardiógrafo Digital. Equipos Reparados y Recuperados. Hospital Gral. Guayaramerín En este hospital se han llevado a cabo una serie de reparaciones y recuperaciones de equipos médicos en distintas áreas, por parte del personal técnico especializado del Centro Oftalmológico. A continuación, se muestran imágenes de algunos de estos equipos, los cuales pertenecen a las áreas de Laboratorio, Ecografía, Rayos X, Quirófano, Esterilización, Emergencia y Terapia (figuras 11, 12-18). Figura 11. Gasómetro ABL 80. Laboratorio. Figura 12. PC de Rayos X. Figura 13. Ecógrafo TOSHIVA de Ecografía. Figura 14. a) Autoclave de vapor, b) Aspiradora del Quirófano y c) Electrovisturí. Figura 15. a) Bomba de Infusión, b) Ventilador Artificial, Monitor de Parámetros Fisiológicos. Unidad de Terapia Intensiva. Figura 16. Bomba de Infusión. Monitor de Parámetros Fisiológicos. Oxímetro de Pulsos. Estufa de Esterilización y Secado. Emergencia. Figura 17. Electrocardiógrafo Digital. Consultorio 1. Figura 18. Instrumento de Terapia de Acupuntura Electrónica. Fisioterapia. Equipos Reparados y Recuperados en Centros Integrales de Salud (CIC) CIC Simón Bolívar Figura 19. Estufa de Esterilización. Odontología. CIC San Gabriel Figura 20. Equipo de Química Analítica Stat Fax. Laboratorio. CIC 31 de Enero-CRVIR Figura 21. Equipo de Química Analítica Stat Fax, Microscopio Óptico y Esfigmomanómetro Aneroide. Laboratorio CRVIR. Equipos Reparados en el Hospital Materno Infantil. Riberalta Figura 22. Bombas de Infusión. Monitor de parámetros Fisiológicos. Monitor Fetal. Acciones y herramientas implementadas en la Gestión del Mantenimiento en el Centro Oftalmológico Diseño, impresión y utilización de Orden de Servicio Técnico. Figura 23. Orden de Servicio diseñada y empleada en el centro. Rediseño de Modelos para las Historias Clínicas de Pacientes Operados en el centro. Figura 25. Modelos para las Historias Clínicas. Aproximadamente el 70 % del modelaje empleado en las historias clínicas y en el proceso de atención oftalmológica, ha sido adaptado a las necesidades reales del centro, basado en el modelaje oficial. Realización de Base de Datos de Pacientes con Historia Clínica del centro. Figura 26. Base de Datos de pacientes con Historia Clínica en el centro. 4. Conclusiones La actualización del inventario físico-funcional se hizo con el fin de verificar que equipos médicos del centro estaban en condiciones de operatividad y rectificar si los datos eran o no correctos. Se evidenció de manera general, que tanto el Hospital Gral. Guayaramerín y otros centros de salud han contado con el servicio técnico especializado del Centro Oftalmológico. Se han efectuado una serie de reparaciones y recuperaciones de equipos médicos importantes para el funcionamiento de algunas de sus áreas. Como parte de las acciones llevadas a cabo para mejorar la gestión del mantenimiento en el centro, se diseñó e implementó un formato de orden de trabajo teniendo en cuenta un modelo básico, con el fin de llevar un control y registro de las acciones correctivas y preventivas efectuadas en los equipos médicos del centro. La Gestión de Mantenimiento para equipos médicos del centro ha permitido proporcionar no solo un entorno seguro y funcional, mediante el mantenimiento adecuado de todos los equipos y espacios, sino también la documentación esencial y necesaria de todos los equipos. Además, se ha minimizado el tiempo requerido para generar y archivar la documentación de mantenimiento de todos los equipos y espacios. Reconocimientos Agradecemos a todos los que de una forma u otra con su valiosa colaboración y dedicación contribuyeron al desarrollo y elaboración del presente trabajo. Referencias [1] Gestión de mantenimiento de equipos médicos en la fundación clínica infantil Club Noel. Módulo de ingeniería biomédica. Universidad autónoma de occidente facultad de ingeniería departamento de automática y electrónica programa de ingeniería biomédica Santiago de Cali 2016. [2] Gestión de mantenimiento para equipos médicos. Memorias II congreso Latinoamericano de Ingeniería Biomédica, Habana 2001, Mayo 23 al 25, 2012, La Habana, Cuba. [3] Gestión y apoyo al proceso de mantenimiento de equipos biomédicos de Proinsalud s.A. Universidad de Nariño Facultad de ingeniería Departamento de electrónica San juan de pasto 2015. [4] Manual de mantenimiento para equipo de laboratorio en línea]. Organización Panamericana de la Salud, Washington D.C., 2005. [Consultado el 20 de octubre del 2010]. [5] Caracterización de la gestión del mantenimiento de equipo biomédico en servicios de urgencia de clínicas y hospitales de Medellín en el período 2008-2009. Rev Cienc Salud 2015; 11 (1): 35-44. [6] Proyecto de mantenimiento hospitalario: manual de mantenimiento preventivo planificado MPP [en línea]. San Salvador. Ministerio de salud pública y asistencia social, 2017. Sobre los autores: Dayquelín Portuondo Castillo, Ingeniera Biomédica que labora en el Instituto Cubano de Oftalmología Ramón Pando Ferrer, se desempeña como Especialista en Electromedicina y presenta la categoría científica de Aspirante a Investigador. Dayana Portuondo Castillo, Ingeniera Biomédica que trabaja en el Instituto Nacional de Cardiología y Cirugía Cardiovascular y ejerce de Especialista en Electromedicina. Felipe A. Escalona Rodríguez, Msc. Bioquímica y Biotecnología, que labora en el Centro de Estudios de Proteínas perteneciente a la Facultad de Biología de la Universidad de La Habana, funge como profesor e investigador, presenta la categoría científica de Investigador Agregado y es miembro de la Sociedad de Química de Cuba. ii “Mantenimiento de Mejora a la línea de llenado de una planta de Sueros.” Ing. Yuniel Mendez Pupo, Ingeniero Mecánico, Laboratorios AICA, La Habana, Cuba, yuniel921010@gmail.com Ing. Daniel Rodriguez Alonso, Ingeniero Mecánico, Laboratorios AICA, La Habana, Cuba, danielrodriguezalonso95@gmail.com Dr. Ing. Jesús Cabrera, Ingeniero Mecánico, Cujae, La Habana, Cuba, cabrera@mecanica.cujae.edu.cu Dr. Ing. Evelio Palomino. Ingeniero Mecánico, Cujae, La Habana, Cuba, e.palomino@mecanica.cujae.edu.cu Resumen La planta de Sueros cuenta con dos líneas de llenado fabricadas en el año 2011, ambas líneas por falta de mantenimiento, años de explotación, mala selección de sus materiales y mala operación habían provocado que su estado técnico fuera desfavorable, esto ocasionaba una baja eficiencia y disponibilidad, además que los tiempos de fabricación eran muy elevados y atentaban con la productividad de medicamentos, dichos productos tenían problemas en varias fases del proceso de llenado. Ante estos problemas se decidió aplicar un mantenimiento de mejora que consistía en reparar y reconstruir varias partes de la máquina. Algunas de sus piezas se encontraban descatalogadas por lo que el fabricante no ofrecía piezas de repuesto y hubo que crearlas o sustituirlas. En muchos de estos trabajos se tuvieron que buscar soluciones y materiales alternativos. Con la implementación del mantenimiento de mejora se logró mejorar considerablemente la eficiencia y disponibilidad del equipo, disminuir el tiempo de fabricación y los problemas en el proceso, de manera tal que se pudieran duplicar las producciones diarias, antes del mantenimiento, un lote de fabricación era de aproximadamente 10000 unidades y aumentó a más de 20000 unidades diarias, esto ocasiono el ahorro económico por la sustitución de importaciones de medicamento, además de alargar la vida útil de la línea de llenado. Summary The Serum plant has two filling lines manufactured in 2011, both lines due to lack of maintenance, years of exploitation, poor selection of materials and poor operation had caused their technical condition to be unfavorable, this caused low efficiency and availability, in addition to the fact that the manufacturing times were very high and affected the productivity of medicines, these products had problems in several phases of the filling process. Given these problems, it was decided to apply improvement maintenance that consisted of repairing and rebuilding various parts of the machine. Some of its parts were discontinued, so the manufacturer did not offer spare parts and they had to be created or replaced. In many of these works, alternative solutions and materials had to be sought. With the implementation of the improvement maintenance, it was possible to considerably improve the efficiency and availability of the equipment, reduce the manufacturing time and the problems in the process, in such a way that the daily productions could be duplicated, before the maintenance, a manufacturing lot was of approximately 10,000 units and increased to more than 20,000 units per day, this caused economic savings due to the substitution of drug imports, in addition to lengthening the useful life of the filling line. Página | 1 INTRODUCCION La industria farmacéutica cubana ha demostrado en los últimos tiempos dotes de excelencia e integridad, sobreponiéndose incluso a sistemas políticos hostiles y a situaciones epidemiológicas complejas. Dentro de sus pilares encontramos la Empresa de Laboratorios aica, destinada a la elaboración de medicamentos genéricos, cuna de producción de las vacunas contra la Covid-19 creadas en Cuba y que ostenta desde el año 2021 la categoría de Empresa de Alta Tecnología. La empresa laboratorios aica cuenta con cinco plantas productivas, UEB aica, UEB Liorad, UEB Julio Trigo, UEB Citostáticos y UEB Sueros y Hemoderivados, cada una de estas plantas cuenta con una estructura de dirección y con su propio departamento de Ingeniería y Mantenimiento. La UEB Sueros y Hemoderivados tiene dos líneas productivas de sueros y una línea de Hemoderivados. Las líneas de llenado de sueros fueron fabricadas en el 2011 por el proveedor alemán Rommelag, dicha línea cuenta desde la conformación del frasco hasta el tapado final del producto, todo este sistema está dividido en tres partes, la primera parte la bottelpack bp 321 que se encarga de la conformación, llenado y sellado de los frascos, una troqueladora que se encarga de cortar todo el plástico sobrante de la conformación del frasco y la máquina de soldar que se encarga de poner la tapa al mismo. Estas líneas de llenado, de más de once años de fabricación, no estuvieron en explotación la mayor parte del tiempo y nunca se les proporcionó un tratamiento para la conservación de la mismas, además de nunca haber contado con un plan de mantenimiento preventivo y la mayor parte del mantenimiento ha sido correctivo. Este equipo contiene una gran variedad de partes y piezas, muchas son piezas realmente costosas por la precisión y calidad que se exige en su funcionamiento. Partiendo del concepto de mantenimiento industrial que se define como un conjunto de tareas a realizar con el fin de mantener y conservar en óptimas condiciones de servicios a los equipos, sistemas e instalaciones, para garantizar el correcto funcionamiento del proceso productivo. El mantenimiento de mejora es una tarea que se efectúa a efectos de aumentar la mantenibilidad de un activo o equipo, entendiendo por mantenibilidad las características de la unidad, equipo o infraestructura de apoyo que hacen que las tareas de mantenimiento sean fáciles de realizar [1]. Puede consistir en la realización de mejoras en el diseño de las piezas con el fin de reducir las averías redundantes y mejorar anticipadamente el rendimiento de los equipos o la búsqueda de nuevos materiales para su aplicación en la industria. También se refiere a modificaciones en los equipos, si ello constituye una ventaja técnica y/o económica y si permite reducir, simplificar o eliminar operaciones de mantenimiento. METODOLOGIA Descripción del funcionamiento de la línea. La línea de llenado está conformada por una maquina llenadora modelo Bottelpack Rommelag bp321115, troqueladora, soldador de tapas y estación de transferencia. El proceso comienza por la bottelpack donde un agregado de alimentación abastece a la tolva de granulado con granulados plásticos, el granulado va a un tornillo helicoidal donde es comprimido, plasticado por el calor y prensado bajo alta presión por una cabeza extrusora. La masa fundida caliente sale en forma de tubo de plástico maleable o parison de la cabeza, de ahí es suministrado al molde, donde las mordazas abrazan el parison y lo sujetan por medio de vacío. Página | 2 Por encima de las mordazas de sujeción, el extrusoer gira y se separa hacia arriba y evita que el tubo toque la unidad de cierre, en el molde desembocan los canales de vacío por medio de aire estéril soplado y de vacío, el material sintético en estado plástico se adhiere al molde. En este punto el plástico se solidifica y forma el cuerpo hueco para recibir el producto. Los tubos de inmersión de la unidad de mandril se desplazan dentro de la cámara estéril de llenado para introducirse en el recipiente aún abierto por arriba. El producto dosificado fluye en los recipientes y el aire desplazado escapa a través de la tubería de aire de salida. La unidad de mandril va hacia arriba y el plástico del molde principal se solidifica, solo la parte de la cabeza está aún maleable para que las mordazas de cabeza se cierren y configuren la cabeza por medio de vacío, con eso quedan cerrados herméticamente los recipientes y la unidad de cierre se abre y va a la posición de parison. En el caso de los frascos sellados, pasan a la troqueladora, que se encarga de quitar todo el plástico sobrante mediante corte por cuchillas, estos frascos terminados pasan a la estación de soldar donde son colocadas las tapas de los frascos. El proceso de soldadura es mediante un molde que calienta la parte superior de los frascos y la parte inferior de las tapas durante unos segundos y luego pasa a unirlos. Para la colocación de las tapas la máquina de soldar cuenta con una estación de tapas que acomoda las tapas hasta la posición de uso, quedando la disposición de la línea de llenado como se muestra en la figura 1. Fig. 1 Línea de llenado, troqueladora y máquina de soldar. Acciones preliminares. Con el objetivo de aplicar un mantenimiento de mejora a la línea de llenado se tuvieron que realizar varias acciones preliminares, la primera acción llevada a cabo fue la organización de un equipo de trabajo capacitado con conocimiento sobre el funcionamiento de la máquina. El equipo de trabajo conto con dos ingenieros mecánicos, un ingeniero automático, un ingeniero eléctrico y dos técnicos mecánicos. Una vez confeccionado el equipo de trabajo se procedió a preparar todas las tareas, tiempos y materiales necesarios para realizar el mantenimiento. Con previa coordinación con el área productiva, las tareas fueron separadas en dos grupos para lograr una optimización del tiempo y los recursos disponibles. Un grupo se encargaría de toda el área de confección del frasco y llenado de la máquina y el otro grupo se encargaría de la troqueladora, soldadura de tapas y estación de tapas. Ambos grupos se encargarían de la limpieza general, engrase y comprobación de los servicios auxiliares. Página | 3 Acciones realizadas. Reparación del Brazo Hidráulico del Molde En el brazo hidráulico del molde o unidad de cierre existía un salidero de aceite que, provocaba que el molde se desplazara de forma brusca y dando empujones innecesarios, además de la perdida aproximada de 500 ml de aceite a la semana, en reiteradas ocasiones se había intentado reparar, pero sin éxito debido a que los sellos y anillos presentaban un gran desgaste. Estos sellos y anillos se habían solicitado al fabricante, pero ya este sistema se encuentra descatalogado y el proveedor no cuenta con los recambios necesarios, estando en el estado mostrado en la figura 2. Ante esta problemática se decidió confeccionar los sellos y anillos de un material alternativo, en este caso empleamos caucho de neumático. Estos materiales fueron confeccionados con precisión en un torno y con las medidas que fueron determinadas y calculadas para este servomotor. Esta solución logro detener el salidero de aceite, que sus movimientos no fuesen irregulares y prolongar la vida útil del servomotor, quedando como se muestra en la figura 3. Fig. 2 Estado técnico del brazo hidráulico antes del mantenimiento. Fig. 3 Estado técnico del brazo hidráulico después del mantenimiento. Página | 4 Reparación del cilindro hidráulico del Eje de ruptura de clavijas. El eje de ruptura de clavijas se encarga de separar los frascos del molde para evitar que el plástico se quede dentro y ocasione mala conformación de los mismos. En la figura 4 se puede observar el cilindro hidráulico de ruptura de clavijas, el mismo se encontraba un salidero de aceite que, provocaba la perdida aproximada de 300 ml de aceite a la semana, este cilindro se encontraba con defecto en su sello, esto provocaba una mala conformación de los frascos y al igual que el servomotor del molde se encuentra descatalogado por lo cual el fabricante no cuenta con recambios. Ante esta problemática se confecciona el sello con caucho de neumático, siguiendo el mismo procedimiento que con los sellos y anillos del brazo hidráulico del molde. Fig. 4 Clavija de ruptura reparada. Reparación del cilindro de la mordaza de cabeza. La mordaza de cabeza se encarga de conformar la cabeza del frasco y es de vital importancia para disminuir las mermas en el proceso productivo. En el cilindro de la mordaza de cabeza se encontraba un salidero de aceite que, provocaba la perdida aproximada de 150ml de aceite hidráulico a la semana, este cilindro se encontraba con defecto en su sello, esto provoca que la conformación de la parte superior del frasco no sea la adecuada, provocando mermas y pérdidas de producción. Página | 5 Ante esta problemática se confecciono el sello con caucho de neumático, siguiendo el procedimiento aplicado para los cilindros anteriormente explicados se sustituyó el sello como se muestra en la figura 5. Fig. 5 Cilindro de la mordaza de cabeza y sello de caucho. Limpieza de las boquillas. En la boquilla de salida del plástico derretido se encontraban restos de plástico endurecido y carbonizado que afectaban la extrusión del parison y por tanto la conformación de los frascos, para esto se realizó una limpieza completa de la base de las boquillas, con esta limpieza se logró una correcta conformación de los frascos y así disminuir los rechazos por esta causa, en la figura 6 se puede apreciar el antes y el después de la limpieza de las mismas. Fig. 6 Placa de soporte de las boquillas de inyección de plástico antes de la limpieza y después de la limpieza. Página | 6 Reparación de la guía de desplazamiento del brazo hidráulico del molde La guía de desplazamiento del molde se encontraba en mal estado, le faltaban tornillos y problemas con la pintura, lo que provocaba fallos esporádicos en los movimientos del molde y se veía comprometida su integridad, se sustituyeron los tornillos y se le aplicó pintura para su mejor conservación, el cambio de la base del molde se refleja en la figura 7. Fig. 7 Base del Molde antes del mantenimiento(Izquierda) y base actual después del mantenimiento (Derecha) Mantenimiento general a la Troqueladora. La máquina troqueladora en las labores de corte presentaba ruidos y se apreciaba óxido y desgaste en los cilindros, lo cual hizo evidente la necesidad de realizar un cambio del lubricante en sus partes móviles, y limpiar las zonas con presencia de óxido. Estos cambios mejoraron la velocidad de corte y la calidad del mismo, estos cambios se pueden observar en la figura 8. Fig. 8 Cuchilla de corte(izquierda) y pinzas de sujeción(derecha) después de la limpieza del óxido. Página | 7 También se realizó una limpieza de las electroválvulas que se reflejan en la figura 9 que accionaban los pistones, en las mismas se encontró presencia de humedad, esta limpieza evita que se llegara acumular agua dentro de las electroválvulas y evitar cortocircuito. Fig.9 Juego de electroválvulas de control de accionamiento de la troqueladora. Se realizó engrase y limpieza a la estación de transportación de los frascos, además de un ajuste fino para lograr una correcta alineación entre la etapa de llenado, la troqueladora y la máquina de soldadura de tapas. Mantenimiento a la máquina de soldadura de tapas. La máquina de soldadura de tapas se encontraba en muy mal estado debido al continuo derramamiento de líquido, al no existir un plan de mantenimiento planificado para este equipo no se realizaban labores de limpieza que minimizaran la corrosión o al menos que permitiera a la maquina trabajar sin causar rotura de frascos. En esta parte de la línea hubo que realizar grandes reparaciones y grandes ajustes de sus partes. Reparación general de la bancada de la máquina de soldar La bancada guía de la maquina está construida de aluminio, el aluminio con el tiempo al estar en exposición con el producto y con los químicos de limpiezas se fue deteriorando provocando que el aluminio se degradara perdiendo material como se muestra en la figura 10. Fig. 10 Estado general de la bancada antes del mantenimiento. Página | 8 Para lograr reparar la bancada se utilizó una composición de resina epóxica inerte a los productos que intervienen en el proceso productivo para crear una capa aislante para dar fortaleza a la base y frenar la corrosión del aluminio. Quedando la bancada como se refleja en la figura 11. Fig. 11 Bancada de la máquina de soldar durante la aplicación de la resina epóxica y aspecto final. Reparación del sistema de transferencia de frascos. La estación de transferencia de frascos presentaba problemas a la hora de recibir los frascos, al llegar el frasco a la estación de transferencia, las pinzas presentaban fallos y no sostenían en la posición correcta el mismo, asimismo, en algunas ocasiones no realizaban la acción de cerrar. Esto se debía a varios factores, entre ellos, se encontraban los pistones que dan la posición de las pinzas oxidados, los rodamientos guías de las pinzas se encontraban defectuosos y desgastados, el piñón de transferencia de carga se encontraba fuera de posición sin realizar su recorrido completo, la bancada del sistema de transferencia se encontraba agrietada y defectuosa, como se puede apreciar en la figura 12. Fig. 12 Estado general del sistema de trasferencia de frasco. Página | 9 Lo primero que se realiza es la inspección y desarme todo el sistema para la identificación de los problemas y gestionar las acciones y recursos para darle la mejor solución posible. Los pistones se desarman, limpian y reparan, los rodamientos guías (12 rodamientos) fueron sustituidos casi en su totalidad (8 rodamientos) y los que no fueron sustituidos fueron reparados, la bancada fue reparada con resina epóxica y pintada como se explicaba. Para el montaje del sistema se alinearon todas sus partes con la línea de llenado en general quedando todo como se refleja en la figura 13. Fig. 13 Reparación general del sistema de transferencia de frascos. Estos cambios garantizaron el correcto funcionamiento del sistema de transferencia de frascos, logrando la correcta alineación de los frascos y las pinzas y disminuyendo considerablemente las paradas de la línea por vibraciones. Reparación del sistema de alimentación de tapas. La estación de tapas está conformada por el listón de tapas encargado de llevar las tapas hasta la posición de los frascos y el transportador de clasificación de tapas que se encarga de posicionar las mismas en el listón. El listón de tapas se encontraba en muy mal estado puesto que por un desajuste de dicha estación había sufrido desgaste y se encontraba pandeada la misma, además el rodamiento que guía el movimiento se encontraba desgastado y en mal estado, la parte inferior del listón presentaba perdida de aluminio de 3 milímetros de espesor y en casi la totalidad de la pieza como se muestra en la figura 14 Fig. 14 Estado General del listón de transportación de tapas. Página | 10 Para la reparación de este sistema se realizaron varias acciones, la primera acción fue rellenar el espacio del listón de las tapas con resina epoxica como se refleja en la figura 15, emparejarla y luego pintarla para un correcto acabado, se reparó el rodamiento guía de la estación debido a que no fue posible sustituirlo por no contar con repuesto, se ajustó finamente la posición y el funcionamiento de dicha estación. Fig. 15 Acabado del listón de tapas. Estos cambios, ajustes y reparaciones garantizaron el correcto funcionamiento del sistema de transferencia de tapas. Reparación del reductor de velocidad del sistema de transporte de frascos en la máquina de soldar. Para el movimiento de los frascos en la estación de soldadura se cuenta con un moto reductor que es parte del sistema que transporta los frascos a las cuatro posiciones de trabajo, en la primera posición se reciben seis frascos en la segunda posición se reciben los otros seis frascos los cuales en un tercer momento van a la posición de tapado, y de ahí a la posición final de salida, para volver a empezar el ciclo. Este movimiento ocurre a través de dos poleas, una unida al moto reductor mediante un eje y otro libre para seguir los movimientos y mantener el ajuste de la correa. Ambas posiciones cuentan con dos rodamientos 6002.2RS cada uno a un lado de la polea. Debido a la falta de mantenimiento no se había realizado nunca el cambio de rodamientos inferior en la unión de la polea y el reductor, lo que ocasionó que dicho rodamiento se oxidara y además el rodamiento cónico interior-superior del reductor se rompiera y dejara de transmitir correctamente el movimiento, el estado del reductor y de su rodamiento es el que se aprecia en la figura 16,lo que reflejaba un mal posicionamiento de cada una de sus etapas y fuertes ruidos y vibraciones en el sistema que detenían regularmente la línea de llenado. El rodamiento que empleaba este reductor era L68140 con dimensiones de 59.131mm de diámetro exterior, 34.987 mm de diámetro interior y 15.875 mm de ancho total como principales características, este es un rodamiento especial y no es común en la industria nacional por lo que solo podía ser importado. Ante este problema se decidió realizar una modificación en la camiseta del reductor para adaptarle un rodamiento cónico modelo LM 67048 (empleado en la industria automotriz) con dimensiones 59.131 mm de diámetro exterior, 31.75mm de diámetro interior y 15.875mm de ancho total, al solo variar el diámetro interior se evaluó su adaptación y se adoptó como respuesta al problema técnico. Esta reconstrucción unida Página | 11 al cambio de los dos rodamientos 6002.2RS devolvieron el correcto funcionamiento de esta parte de la estación de soldadura. Fig. 16 Desarme de la camiseta del reductor. Construcción del eje de la guía de frascos. Debido a todo lo planteado anteriormente y para poder realizar el trabajo de ajuste del reductor, había que realizar la extracción del eje de transmisión de movimiento, en dicho trabajo nos percatamos que el eje presentaba oxidación además que se encontraba deformado, y no fue posible por los métodos convencionales ni con herramientas profesionales su extracción. En estas condiciones, se decide cortarlo y construir uno nuevamente, al realizar el corte se puede observar el mal estado en el que se encontraba dicho eje relejado en la figura 17. Para la fabricación de un nuevo eje lo primero que se realiza es la modelación en tres dimensiones del mismo y su proyección en un plano utilizando la información del fabricante, mediciones sobre el mismo y el software de dibujo Autodesk Inventor Professional como se ve reflejado en la figura 18. Fig. 17 Eje sistema de guía de frascos deformado y oxidado. Página | 12 La construcción del eje se hizo mediante conformación en un torno convencional y se realizó un ajuste de precisión para lograr un correcto acople con el buje del motor reductor. Como resultado de este trabajo se logró completar el sistema de motor reductor y la correcta alineación de la correa y las poleas, ambos trabajos completaron el sistema de soldadura de tapas. Fig. 18 Eje construido de acero inoxidable con la polea acoplada para la transmisión del movimiento de la guía de frascos. Reconstrucción de la bandeja de la estera guía de los servicios. La máquina de soldadura de tapas para poder realizar su accionamiento necesita un grupo de servicios auxiliares entre los que se encuentra aire comprimido, electricidad y cables de control de los sensores. Todos estos servicios viajan a través de una estera guía que se desplaza sobre una bandeja en la parte final de la bancada en una de sus posiciones de movimiento. Esta bandeja se encontraba deteriorada y sin cumplir su objetivo de guiar estos servicios para evitar deterioro en los mismos, debido a esto, varias mangueras de aire y cables de control de sensores se encontraban en mal estado y hubo que sustituirlos. Como solución definitiva se construyó una nueva bandeja de salida según las especificaciones del fabricante y guiándonos por los espesores y diámetros de la base original. Esta reconstrucción ayuda a evitar deterioro de los sistemas auxiliares de la máquina y así mantener un correcto funcionamiento de la misma y se aprecia a gran escala el cambio que representa esta acción quedando la bandeja como se muestra en la figura 19. Fig. 19 Bandeja guía de servicios existente (Izquierda) y la bandeja guía de servicios nueva(derecha). Página | 13 Reparación de la bancada de la máquina, alineación de la máquina, limpieza y ajuste de la calefacción. La bancada de la máquina en general presentaba corrosión e hizo falta pulir la superficie y pintarla para frenar esta oxidación. Una vez realizada estos trabajos se realizó una alineación de las tres máquinas que componen la línea de llenado con un sensor ultrasónico y con un nivel especializado que fue suministrado por el fabricante. En la estación de calefacción no se encontró problemas con ninguna resistencia ni problemas de calefacción alcanzando la temperatura de trabajo sin problemas, lo único que si se pudo apreciar fue incrustaciones de plástico derretido y suciedad lo que llevo a una limpieza y un ajuste general junto a toda la máquina. En la figura 20 se puede observar el cambio de dicha bancada. Fig. 20 Fragmentos del estado de la bancada general antes (izquierda) y después del mantenimiento (derecha). Limpieza y conservación de la polea y la correa. Debido a la mala situación de la máquina de soldar tapas y a la posición en la que se encontraba la correa de trasmisión del movimiento y la polea estas sufrían de la contaminación con sustancias como el cloruro de sodio y otras sales que son altamente corrosivas. La correa es reforzada con alambres en su interior lo que la hace más susceptible a la corrosión Por lo que se implementó un sistema de limpieza con acetona y alcohol tecnológico para limpiar todos los restos de grasa y sales y un método de conservación con grasa fina para evitar que se dañara la misma en el tiempo, además de establecer que mensualmente se realizara el trabajo de limpieza de la correa y la polea. Reparación de las pinzas de la estación de transferencia de salida de frascos. Una vez culminado todo el proceso de llenado, troquelado y soldado de las tapas, los frascos se dirigen a la estera de salida donde pasan a otra etapa del proceso. Para que los frascos sean colocados en dicha estera se utilizan unas pinzas que, a través de un pistón accionado por aire, cierran y aguantan el frasco, luego se contraen y lo llevan a la estera donde se liberan para que se pueda realizar su extracción. En dicho sistema se detectó un defecto donde la posición delantera del brazo cerraba con mayor fuerza que la posición trasera, esto provocando la caída de los últimos frascos al no ser posicionados correctamente en la estera, esto se debía a que el material de dicho brazo es aluminio y por los derrames de productos, limpiezas y falta de Página | 14 mantenimiento se encontraban explotados, provocando este defecto. Para la corrección de esto se tuvo que limar y emparejar toda la superficie, además de tener que darle un mayor recorrido al pistón para poder suplir el material sustraído. Con esta acción se logró corregir este defecto, como se ve reflejado en la figura 21. Fig. 21 Pinzas de la estación de transferencia final antes del mantenimiento(izquierda) y brazo transportador después del mantenimiento(derecha). Calibración de la posición de las agujas de llenado. En la documentación del fabricante se plantea que después de realizado cambios o acciones de mantenimiento en la línea se deben realizar varios ajustes entre los más importantes se encuentra la calibración de la posición de las agujas de llenado, esta acción antes se realizaba de manera aproximada y sin usar ninguna herramienta, debido a que no se conocía como se debía emplear la herramienta suministrada por el fabricante. La calibración consistió en poner dos calibradores uno en cada extremo y bajar las agujas hasta la posición tal que rozaran ligeramente dicho calibrador, y ahí ajustar hasta que el tope de la aguja coincidiera con los bordes del calibrador, esto garantizo una correcta conformación y un llenado adecuado de los frascos. Los calibradores utilizados se pueden observar en la figura 22. Fig. 22 Calibradores de unidad de molde y mandriles de llenado. Página | 15 Resultados y Discusiones Este grupo de acciones realizadas permitió obtener varios resultados entre los más importantes se encontraron: - Restablecer la línea de llenado a una condición de operación óptima. - Aumentar la capacidad de producción de 10000 unidades diarias a más de 20000 unidades diarias. - La producción de un lote de producto demoraba aproximadamente 8 horas y medias, después del mantenimiento demora aproximadamente 7 horas y medias. - Disminuir las interrupciones inesperadas al mínimo. - Mejorar la calidad con la que son conformados los frascos. - Disminuir la merma de frascos por mala soldadura de las tapas. - Sustituir importaciones por un valor superior a los 50000 usd. - Construir un programa de mantenimiento adecuado para cada parte de la línea. - Confeccionar un sistema de limpieza adecuado para la máquina. Bibliografía [1] J. Knezevic, Mantenibilidad, 4ta ed., Madrid: Isdefe, 1996. [2] P. Muchiri, L. Pintelon, L. Gelders y H. Martin, «Development of maintenance function performance measurement,» International Journal of Production Economics, vol. 4, nº 39, pp. 3-11, 2010. Acciones para aumentar producción y mejorar calidad de la producción de áridos Actions to increase production and improve quality of aggregate production Rafael Betancourt Varela, , Armando Díaz ConcepciónII, Jorge Varela-CancinoIII I Empresa de canteras. MICONS. rafael@canternet.cu II Universidad Tecnológica de la Habana José Antonio Echeverría, Centro de Estudios en Ingeniería de Mantenimiento, La Habana. Cuba.adiaz@mecanica.cujae.edu.cu III Compañía minera Autlan, Unidad Molango. México. vargas@emta.co.cu RESUMEN Uno de los procesos básicos en cualquier entidad es garantizar el cumplimiento de los estándares de calidad del o los productos, un impacto significativo juegas las estrategias y acciones mantenimiento que se deben ejecutar. Esta investigación tuvo como objetivo determinar acciones de mejora para que los productos que se cumplan con los requerimientos de calidad, seguridad a las personas y al medio ambiente. Para dar cumplimiento se revisaron catálogos, órdenes de trabajo para detectar falla que afectaran esto factores y trabajo en equipo. Como resultado más importante fue la propuesta de una nueva tecnología con la inclusión de activos necesarios. PALABRAS CLAVES: Toma de decisiones, ordenes de trabajo, tecnología, calidad, medio ambiente ABSTRACT One of the basic processes in any entity is to guarantee compliance with the quality standards of the product or products, a significant impact is played by the strategies and maintenance actions that must be executed. The objective of this research was to determine improvement actions so that the products meet the requirements of quality, safety for people and the environment. To comply, catalogs, work orders were reviewed to detect failures that affected these factors and teamwork. The most important result was the proposal of a new technology with the inclusion of necessary assets. KEY WORDS: Decision making, work orders, technology, quality, environment INTRODUCCIÓN Debido a la obsolescencia tecnológica y el envejecimiento de los equipos instalados en nuestra empresa se venían confrontando problemas con: • Altos costos de mantenimiento • Perdidas elevadas por paradas imprevistas • Baja eficiencia de los equipos • Perdida de finos en los lodos debido ya que la tecnología instalada no era la más eficiente en ese Sentido • La granulometría del producto final se ve afectada • Mayor consume energética ya que el nivel del reciclaje aumenta por la baja eficiencia de los remoledores Es por ello que se hace necesario llevar a cabo una serie de cambios tecnológicos que nos permitiera minimizar o eliminar los problemas antes expuesto. MÉTODOS Para ello se reunió un grupo especialistas de las diferentes áreas de la empresa (Área Técnica; Area de Producción, Mantenimiento Industrial), se analizaron los catálogos de los equipos, los manuales de procesamientos y procedimientos existentes en nuestra empresa, determinándose los cambios tecnológicos necesarios a realizar, así como las plantas de producción donde se llevarían a cabo los mismos RESULTADOS Nuestra empresa cuenta con 5 UEB productivas, de las cuales se escogieron 3 para llevar a cabo los trabajos de modernización, teniendo en cuenta los niveles de producción, las demandas de productos y las afectaciones en el proceso productivo Escogiéndose una planta de la UEB San José (Garantiza los Áridos de alta resistencia para las obras de la construcción de la capital), dos plantas de la UEB de Guanabacoa (Garantizan el 60% de la producción de arena para albañilería de la empresa y una planta de la UEB Mariel (Garantiza los áridos para las construcciones de la zona de desarrollo Mariel) UEB SAN JOSÉ (Planta DRAGÓN) Se sustituyó un Sinfín Lavador Por una Planta de Hidrociclonado la cual es una tecnología más eficiente y moderna ya que permite recuperar finos de hasta 0.074 mm lo que mejora la calidad de la arena al incorporarle más finos y aumenta la producción. Ver Figura 1 Figura 1: Planta de Hidrociclonado instalada en el Dragón Se introdujo un molino Terciario en el proceso que permite una mejor trituración de la piedra Sobre medida proveniente de la zaranda lográndose aumentar la producción de fracciones menores de 5 mm (Arenas); además de disminuir el reciclaje y hacer más eficiente el proceso. Ver Figura 2 Figura 2: Montaje de molino terciario en la planta Dagon Se montó una Planta de tratamiento de lodos la cual permite la recuperación de hasta un 70% de las aguas que intervienen en el proceso productivo, las cuales se perdían totalmente ya que no se reciclan. Ver Figura 3 Figura 3 : Planta de tratamiento de lodos y recuperacion de aguas en el Dragón Se introdujo la utilización de un Filtro prensa que es una tecnología moderna para el manejo de los lodos residuales, el cual compacta y extrae el 95% del agua que se va en los lodos provenientes de la planta de tratamiento lo que implica una recuperación adicional de agua del proceso y además facilita la manipulación de los mismos al entregarlos en forma de “tortas” totalmente secas, eliminándose las lagunas de vertimiento. Actualmente se estudia la posibilidad de utilizarlos como recebos en la Albañilería. Ver Figura 4 Figura 4 Filtro prensa en planta Dragón La figura 5 muestra una vista general donde aparecen la planta de hidrociclonado, la planta de tratamiento de lodos y el filtro prensa en plena producción Figura 5 Vista general planta Dragón UEB GUANABACOA Estos trabajos se llevan a cabo en las tres plantas (Victoria II, Victoria III, Victoria IV) donde solo se produce arena y donde está más del 60% de la producción de ellas en la empresa Se sustituye un alimentador ATM 1000 x 5000 de fabricación checa, el cual tenía alrededor de 30 años de explotación y los niveles de afectación por roturas imprevistas eran altos, además de no existir piezas de repuesto para ellos, por un alimentador BZ 120-6 de fabricación china con una tecnología más moderna y con buen suministro de piezas de repuesto. Se sustituyeron seis (6) molinos MA 120 x 180 de fabricados en la Republica Democrática Alemana los cuales estaban en operaciones desde el año 1983 y su grado de deterioro era alto; así como la no existencia de piezas de repuesto, por dos molinos MLR 10 de tecnología española (en Victoria II) y cuatro molinos 1000 MIL SP de tecnología italiana (Victoria III y Victoria IV) los cuales son más modernos y eficientes y tienen una me mayor índice de triturabilidad por lo que disminuyen el reciclaje por concepto de sobre medias y aumenta la producción de arenas. Ver Figura 6 Figura 6: Vista general de los remoledore MLR 10 Intalados en Vicctoria II Se introdujeron, en sustitución de los sinfines lavadores, tres (3) plantas de hidrociclonado que permiten la obtención de mayor cantidad de finos (Cortan en 0.074 mm) lo que aumenta la producción y mejora la calidad de la arena al aumentar la presencia de finos en la misma Ver figura 7 Figura 7: Vista general de los Molinos 1000mil SP y los Hidrociclones UEB MARIEL En esta planta se sustituyen dos sinfines lavadores por monta una planta de hidrociclonado, de tecnología más moderna y eficiente. Se construye una zona de remolida que está compuesta por una tolva receptora, un molino de impactos (POZZATO FL 100) y dos transportadores; con ello se logra dar solución a la utilización de un producto (El hormigón); que sale en el proceso productivo propio de esta planta y el cual no tiene una amplia demanda pero que en ocasionases necesario fabricarlo, siendo remolido en esta zona y convertido en arena (de amplia demanda en el mercado y con mejores precios), permitiendo así un mejor aprovechamiento de la instalación y sus consiguientes aumentos de producción. Además, la introducción de esta zona en el proceso productivo nos permite que de existir alguna parada en la zona de trituración primaria, no se detendría la producción de arena, ya que está previsto que se alimentaria la tolva receptora con un cargador frontal, lo que permitiria un mínimo de afectaciones a la producción. Ver Figura 8 Figura 8: Vista general de la zona de remolida en Mariel CONCLUSIONES Como resultado de estas acciones se logró • Disminuir los gastos en mantenimiento en un 20% • Disminuir perdidas por paradas imprevistas en un 25% • Con la Introducción de los Hidrociclones, Aumento la producción de arenas por concepto de recuperación de finos en un 25% • Con la Introducción de la planta de tratamientos de lodos se recupera el 70% de las aguas industriales • El Montaje del Filtro prensa se eliminan las lagunas de vertimiento de lodos muy dañinas al medio ambiente, se obtiene un producto con posible utilización como recebo para trabajos de albañilería • Se logra aumentar la producción de áridos en general en un 30% REFERENCIAS 1. DÍAZ, Concepción A., Castillo, Serpa A., & Villar, Ledo L. (2017). Instrumento para evaluar el estado de la gestión de mantenimiento en plantas de bioproductos: Un caso de estudio. Ingeniare. Revista chilena de ingeniería, 25(2), 306-313. 2. VÁSQUEZ, G. & Emiro J. (2011). Metodología para auditar la gestión de mantenimiento de PDVSA Caso: Rrefinería San Roque. Mantenimiento en Latinoamerica, 2 (1), 21-35. 3. LUNA-AMAYA C. et al. (2016). Universidad corporativa y aprendizaje organizacional: un marco de referencia. Dirección y Organización, 58, 79-94. 4. VILLAR Ledo, L., Díaz Concepción, A., Infante Abreu, M. B., Vilalta Alonso, A., & Alfonso Álvarez, Á. A. (2022). Análisis de herramientas para el diagnóstico de la gestión del mantenimiento. Revista Universidad y Sociedad, 14(1), 493-510 5. DÍAZ, Concepción A., Villar, Ledo Leisis, Rodríguez, Piñeiro Alberto J., et al, (2019). Methodology for maintenance management based on diagnostic criteria. Revista DYNA, 6(211), 220-226. 6. AMENDOLA, L. J. (2012). ¿Cómo diagnósticar organizaciones de Gestión Integral de Activos Físicos? . PMM Project Magazine, Vol. 23 p 11. 7. ANDERSEN, E., & Jessen, S. A. (2003). Project maturity in organizations. International Journal of Project Management, Vol. 21. ANÁLISIS Y MEJORAS DE LA FIABILIDAD DE LAS BOMBAS DOSIFICADORAS PROMINENT VAMc RELIABILITY ANALYSIS AND IMPROVEMENTS OF PROMINENT VAMc METERING PUMPS Guillermo Adrian Castillo Ortega1, Mario Clemente Zaldivar Salazar 2 1Empresa de Mantenimiento y Reparación a Obras Hidráulicas. Zapata No.1511 e/Paseo y A, Plaza de la Revolución. 2Instituto de Superior de Diseño. Belascoaín No.517 e/Maloja y Estrella, Centro Habana 1e-mail: gcastillo@emroh.ays.cu 2e-mail: mzaldivar@isdi.co.cu RESUMEN Este proyecto de investigación estará regido por distintas premisas, entre las que se pueden enunciar, el análisis y mejora de la fiabilidad de las bombas dosificadoras ProMinent VAMc de hipoclorito de sodio de la OSDE Agua y Saneamiento, lograr el encadenamiento del potencial científico - tecnológico de la Universidad Tecnológica de la Habana CUJAE , empresas de acueducto y centros de investigación para enfrentar estos problemas, garantizar el desarrollo de sus especialistas y la divulgación de los resultados, además de aplicar sistemas de mantenimientos, que garanticen y permitan un mayor tiempo útil de las piezas y sus partes, disminuyendo los niveles de averías. PALABRAS CLAVES: Mantenimiento, dosificadores, diafragma, hipoclorito. ABSTRACT This research project will be governed by different premises, among which can be stated, the analysis and improvement of the reliability of the ProMinent VAMc dosing pumps of sodium hypochlorite of the OSDE Agua y Saneamiento, to achieve the linkage of the scientific-technological potential of the Technological University of Havana CUJAE, aqueduct companies and research centers to face these problems, guarantee the development of their specialists and the dissemination of the results, in addition to applying maintenance systems that guarantee and allow a greater useful time of the pieces and their parts, reducing the levels of breakdowns. KEY WORDS: Maintenance, dosing, diaphragm, hypochlorite. 1. INTRODUCCION El cloro es el nombre común que se le da en Cuba al hipoclorito de sodio. En otros países se le conoce como lavandina, lejía, agua de Javel o agua de Jane. La cloración ha sido de importancia crítica en la protección del agua potable de las enfermedades transmisibles durante los últimos 90 años. La filtración y la desinfección del agua potable, han sido responsables en gran parte del 50% del incremento en la esperanza de vida en este siglo. Recientemente, la revista LIFE cita a la filtración del agua potable y la cloración como “probablemente el más importante avance de la salud pública del milenio”, publicado en 1997. (1) Figura 1: Crecimiento de la calidad de vida por el tratamiento del agua. (1) La cloración es un medio sencillo y eficaz para desinfectar el agua y hacerla potable. Consiste en introducir productos clorados (pastillas de cloro, lejía, etc.) en el agua para matar los microorganismos en ella contenidos. Normalmente, tras un tiempo de actuación de unos 30 minutos, el agua pasa a ser potable. Gracias al efecto remanente del cloro, continúa siéndolo durante horas o días (en función de las condiciones de almacenamiento). El tratamiento del agua por cloración permite eliminar de forma sencilla y poco costosa la mayor parte de los microbios, las bacterias, los virus y los gérmenes responsables de enfermedades como la disentería, las fiebres tifoideas y el cólera. No obstante, es incapaz de destruir ciertos microorganismos parásitos patógenos. La cloración, por tanto, desinfecta el agua, pero no la purifica por completo. (1) En nuestro país como en muchas partes del mundo, se ejecuta el saneamiento del agua del consumo humano con empleo de equipos de bombeo que garantizan la inserción de diversas sustancias en estado líquido o gaseoso al torrente de agua, antes de que llegue a su destino, tal y como sucede con toda actividad económico, político y/o social; este bombeo y saneamiento no se aleja de las dificultades que impone el Bloqueo Económico impuesto por el imperio, para lograr la asfixia de nuestro sistema social. El incumplimiento del vital parámetro que constituye el saneamiento de las aguas antes de su consumo, se traduce en la inserción de diversos agentes patógenos, que redundan en la disminución de la salud y la calidad de vida de nuestros ciudadanos y con ello, una afectación total a cuanta actividad humana se realice en nuestro país. Es la Empresa de Mantenimiento y Reparación a Obras Hidráulicas (EMROH), perteneciente a la Organización Superior de Empresa Agua y Saneamiento, la entidad encargada del mantenimiento y recuperación de los equipos de bombeo; sin embargo, esta no cuenta con las tecnologías ni el equipamiento necesario para la fabricación de las piezas de repuesto, dependiendo de las importaciones de equipos nuevos para satisfacer la demanda del país, lo que implicaba un gasto antes de la pandemia de unos 3,8 millones de Euros anuales como promedio. Para sostener el Programa de Equipos de Bombeo en Cuba se debe de reponer anualmente el 10% del equipamiento instalado a lo largo y ancho del país, unos 350 equipos de bombeos. En los últimos 5 años se ha recibido unos 963 equipos de bombeo por concepto de importación, con un déficit de 787 equipos por los muros políticos hacia nuestro país y la carencia de liquidez de pago a los proveedores. Lo que ha provocado trazar nuevas estrategias de trabajo. Una de ellas es la creación y fortalecimiento de los talleres de reparación de bombas pertenecientes a la EMROH, el principal situado en el municipio San José de las Lajas en la provincia de Mayabeque que atiende a las regiones hermanas, centrales y occidentales, y uno anexo en la provincia de Camagüey que atiende a las provincias Orientales. En ellos se recuperan el 52% de todas las roturas anuales de los equipos de bombeo en Cuba, más del 90% de los equipos rotos de alto impacto en el abasto y el 86% de los hipocloradores. Entre los equipos más demandados están las bombas dosificadoras de hipoclorito (hipocloradores), con un total de 5000 equipos distribuidos por todo el país, adquiridos en el mercado internacional a un precio promedio de € 1500 Euros. Lo que representa un valor total en activos de € 7500000 Euros. Los hipocloradores se emplean en la desinfección del agua para consumo humano, por lo que su falta detiene el servicio de abasto de agua potable. (2) 2. CARACTERÍSTICAS DE LAS BOMBAS DOSIFICADORAS DE QUÍMICOS PARA ACONDICIONAMIENTO DEL AGUA En el mundo del tratamiento de aguas la dosificación de químicos es de vital importancia y muchas veces desatendida por los ingenieros y operadores. La preocupación aparece cuando se convierte en la solución de emergencia a trastornos en el proceso o cuando los costos de los químicos se disparan. Para una adecuada dosificación de químicos se requiere de varios componentes, siendo el primordial la bomba dosificadora. Es una bomba diseñada para inyectar un químico líquido en el seno de un fluido, en pequeña cantidad, y de la cual se requiere de un control preciso del volumen añadido por sus efectos en el proceso y o costo del químico. (3) Existen en el mercado diferentes tipos de bombas, las bombas dosificadoras encabezan la lista. Como su nombre indica, son bombas de desplazamiento positivo diseñadas para inyectar productos químicos en vapor, gas o líquido. En los últimos años, se han convertido en una parte indispensable de los sistemas de dosificación integrados que permiten la dispensación automática de productos químicos. (4) Debe permitir el ajuste del caudal y este debe tener linealidad. Es decir que puede ser representado como una línea recta. Su diseño debe garantizar la reproducibilidad, la repetitividad y la precisión del volumen desplazado. La reproducibilidad se refiere a la capacidad de dar el mismo resultado en mediciones por diferentes operarios realizadas en las mismas condiciones a lo largo de periodos dilatados de tiempo. La repetitividad se refiere a las mediciones realizadas por un mismo operario en un período corto de tiempo para las mismas condiciones. La precisión a la capacidad de dar el mismo resultado en mediciones diferentes realizadas en las mismas condiciones. Estas son las condiciones características de un instrumento de medición y de ahí que en inglés suelen ser llamadas como “metering pumps”. El caudal ajustado debe ser preciso aun cuando la presión en la tubería o sistema donde se inyecte el químico varíe. Por consiguiente, debe ser seleccionada para que sea capaz de producir una presión igual o superior a la máxima que pueda tener el fluido en la tubería. Debe ser a prueba de fugas y con características seguras en el diseño ya que la mayoría de los químicos dosificados suelen ser peligrosos. Todas estas características hacen que la bomba dosificadora pertenezca al grupo de desplazamiento positivo y esté dentro de las que se clasifican como reciprocantes. El flujo es producido por un pistón o émbolo reciprocante y es de forma sinusoidal, también conocido como flujo pulsante similar al del corazón humano el cual tiene muchas analogías con una bomba dosificadora. En la figura se muestra el flujo a diferentes porcentajes de carrera o desplazamiento del pistón o émbolo. (3) Figura 2: Ejemplo de flujo reciprocante en bombas dosificadoras con ajuste de desplazamiento. (3) En el mercado existen diferentes tipos de bombas para distintas aplicaciones con diferentes grados de error máximo en su dosificación, así como diferentes materiales para las piezas de la bomba, flujos y contrapresión máxima de trabajo. Por lo general estos equipos son bombas volumétricas oscilantes. Estas succionan un volumen de líquido definido y lo introducen en la tubería de dosificación. Se pueden hacer diferentes ajustes para conseguir una dosificación exacta constante. (5) 3. TIPOS DE BOMBAS DOSIFICADORAS Al igual que cualquier otra bomba industrial, las bombas de dosificación se diferencian en función de su uso y sus acciones típicas. Están diseñadas para dosificar diferentes productos químicos a diferentes presiones. (5) Por su tecnología: - Bombas dosificadoras de membrana Estas bombas utilizan un mecanismo de diafragma. Hay dos tipos de bombas de diafragma: 1. Bomba de tipo de inyección constante Figura 3: Bomba dosificadora de inyección constante accionada por motor. (3) (6) 2. Bomba de tipo de inyección por impulsos Las bombas de diafragma de inyección constante tienen válvulas y pistones en la salida y en la entrada. El pistón puede vaciar y llenar la cámara de entrada o salida. La cámara se llena cuando el pistón es aspirado. El producto químico se inyecta en una dosis específica y a una velocidad predefinida. Por otro lado, las bombas de inyección por pulsos de diafragma están equipadas con una bobina de solenoide, que inyecta los productos químicos en pulsaciones. (5) Figura 4: Bomba dosificadora por impulsos, solenoide o magnéticas. (3) - Bombas de dosificación de émbolo Estas bombas cuentan con impulsores de engranajes. Mueven un volumen prefijado de productos químicos a través de estos impulsores. Las bombas de lóbulos son adecuadas para fluidos de alta viscosidad y caudales altos. (5) Figura 5: Bomba dosificadora de engranajes. (7) - Bombas de dosificación peristálticas De todas las bombas mencionadas, éstas son las bombas de dosificación más precisas que se utilizan actualmente. Disponen de tubos flexibles doblados que permiten el paso de los fluidos. Un rodillo en la bomba ayuda a controlar el flujo del fluido. (5) Figura 6. Ejemplo de funcionamiento de la bomba peristáltica. (3) O por el sistema de accionamiento de la bomba: - Bombas dosificadoras magnéticas. - Bombas dosificadoras de motor. - Bombas dosificadoras neumáticas. Las bombas dosificadoras se utilizan en una gran variedad de aplicaciones industriales, comerciales, municipales y marítimas. Se utilizan para aplicaciones de tratamiento de agua en las siguientes industrias: agricultura, lecheras, horticultura, cervecerías, generación de energía, petróleo y gas, productos cosméticos y cuidado personal y líneas de producción de agua y líquidos. (5) 4. ¿CÓMO ELEGIR UNA BOMBA DOSIFICADORA? Para poder seleccionar una bomba dosificadora adecuada se deben tener en cuenta estos datos: - La dosificación necesaria en L/h. - Determinar la contrapresión (esta debe ser más alta que la presión de la línea o el equipo al que se desea dosificar). - Con ayuda de un gráfico de funcionamiento de la bomba (presión contra flujo) buscar una intersección entre ambos valores. Para seleccionar una bomba se debe tomar en cuenta la compatibilidad química de los materiales de la bomba con la sustancia que se desea dosificar, ya que de no hacerlo de forma correcta el tiempo de vida o el correcto funcionamiento de nuestro equipo se verá afectado. También es importante seleccionar el tipo de bomba adecuado de acuerdo a las condiciones de trabajo y el volumen que se desea dosificar, es importante tener en cuenta que siempre existe un error máximo en la dosificación (esto sucede en todas las bombas y en todos los equipos de medición en general), por lo que sí es crítico para nuestro proceso que la dosificación sea precisa, será necesario elegir una bomba con un bajo % de error para evitar desviaciones en él. (4) 5. PROBLEMA EXISTENTE De los 5 000 hipocloradores existentes en nuestro sistema de acueducto más de 100 se encuentran fuera de servicio, ya que el activo colisiona una vez que uno de sus componentes más importantes, el diafragma, comienza a tener problemas. Cuando esto sucede, el sello del vástago comienza a entrar en contacto con el cloro por lo q se deteriora. Trayendo consigo el deterioro por corrosión de los demás componentes mecánicos del dosificador, ya que el cloro es muy oxidante y reacciona con muchos compuestos, en presencia de humedad es extremadamente corrosivo. El resorte espiral es el componente mecánico más dañado, este regula la carrera del eje haciendo que el diafragma funcione; una vez dañado (rígido) el equipo hace un sobreesfuerzo, tanto mecánico (desgaste de la corona-sinfín) como eléctrico, haciendo que se dañe el motor eléctrico (quema del bobinado por sobrecarga) y este, a su vez derrite la base (PVC) del motor en la carcasa, también se puede partir la base en los apoyos de los rodamientos de bola del eje de la leva y en la base del resorte, cerca del cabezal dosificador; dejando al equipo completamente en desuso en muchos de los casos. Figura 7. Bomba dosificadora ProMinet VAMc. Figura 8. Bomba dosificadora ProMinet VAMc, vista interior, resorte oxidado. Figura 9. Bomba dosificadora ProMinet VAMc, vista exterior lateral, carcaza partida. Figura 10. Bomba dosificadora ProMinet VAMc, vista interior, componentes mecánicos. Figura 11. Bomba dosificadora ProMinet VAMc, vista ampliada (desgaste y residuos del material bronce de la corona. Rodamiento oxidado y la grasa contaminada. 6. ANÁLISIS DE LAS CAUSAS RAÍZ DE LAS AVERÍAS En este apartado se van a identificar y recopilar las diferentes causas de las fallas o averías ocurridas en los equipos de dosificación con el fin de resolver los problemas que tienen lugar en las bombas dosificadoras. Las prácticas de ACR (análisis causa raíz) se centran en resolver problemas a través de la identificación y corrección de las causas raíz de los eventos, en lugar de tratar directamente los síntomas que surjan de un problema. Esto nos permite evitar la repetición de una avería y fomentar el mantenimiento preventivo de los equipos. (8) Figura 12: Esquema del análisis causa raíz. (8) De esta forma, el ACR es un proceso reiterativo y una herramienta para la mejora continua. El análisis se realiza una vez el evento o avería ha ocurrido y su objetivo final es permitir que la metodología sea preventiva, pronosticando eventos probables antes de que sucedan. (8) Así pues, a continuación, se muestran los fallos más frecuentes en las bombas dosificadoras y las posibles causas que los provocan: - La bomba no suministra un caudal suficiente o normal debido a la suciedad existente en el circuito que bloquea los conductos de aspiración o impulsión. - Rotura parcial o encogimiento/desgaste de la membrana del conjunto dosificador que da lugar a una alteración del caudal de la bomba dosificadora y el paso del hipoclirito a la zona del conjunto mecánico donde se mezcla con los componentes mecánicos. - Recalentamiento del motor o caudal de la bomba anormal debido a un reglaje incorrecto de la carrera o el caudal de la bomba. - Rotura de una o varias piezas de la parte del conjunto mecánico de la bomba (corona-sinfin, eje pistón, conjunto de reducción, resorte, etc.) debido al desgaste de los componentes o a la rotura de la membrana, que provoca el paso del aditivo químico a la zona del conjunto mecánico y su posterior mezcla con el aceite de lubrificación. - La bomba suministra un caudal por debajo de lo normal o sufre un ruido mecánico inusual debido al desgaste de los rodamientos o la empaquetadura o el aflojamiento de los tornillos de sujeción del acoplamiento motor/bomba. - El motor deja de funcionar debido a un problema eléctrico con el cableado, un fallo de la transmisión o un defecto en alguna pieza del motor. - Problemas en la instalación de dosificación como el mal dimensionado del circuito (pérdidas de carga, etc.) o una longitud/sección inadecuada para el conducto de aspiración o impulsión, que dan lugar al descebado de la bomba, el sifonado del circuito dosificador o la alteración del caudal normal de la bomba. Una vez sacadas estas conclusiones sobre los principales modos de fallo de las bombas dosificadoras, extraídos de la documentación de cada reparación y la experiencia del personal de mantenimiento; a continuación, se mostrará gráficamente que tipo de modo de fallo presenta un mayor porcentaje en los últimos 2 años durante los cuales se han notificado las operaciones de trabajo de las bombas dosificadoras ProMinent. Para ello, se reagruparán todos los modos de fallo en los siguientes tipos de fallos: - Fallo por suciedad del circuito - Fallo por rotura o defecto en la membrana - Errores de operación - Fallo en el conjunto mecánico de la bomba - Desgaste de elementos como empaquetaduras o rodamientos - Problemas en la instalación o eléctricos (motor, cableado, etc.) 35% 25% 15% 10% 5% 10% Fallo por suciedad del circuito Fallo por rotura o defecto en la membrana Errores de operación Fallo en el conjunto mecánico de la bomba Desgaste de elementos como empaquetaduras o rodamientos Figura 13: Porcentaje de modos de fallo de bombas dosificadoras ProMinent VAMc durante los últimos 2 años. Una vez realizado el análisis RCA y mostrado el impacto de las diferentes causas raíz en las averías de las bombas dosificadoras, se constata que más de un tercio de los problemas de las dosificadoras vienen por bloqueos de los conductos de aspiración e impulsión debido a la suciedad existente en el circuito. Esto puede llegar a causar daños en piezas vitales como la membrana, la empaquetadura o los asientos y bolas de las válvulas; y es debido a la no aplicación del mantenimiento preventivo en aquéllas bombas que no suelen ser sometidas a reparaciones por avería. 7. MANTENIMIENTO. MEJORAS EN LA GESTIÓN DEL MANTENIMIENTO Mantenimiento: Acción de preservar, corregir o conservar las funciones en condiciones de disponibilidad, seguridad y eficiencia de los activos fijos durante su ciclo de vida. Existes tres tipos de mantenimientos principales: el preventivo, predictivo y el correctivo. El mantenimiento preventivo se ejecuta a intervalos predeterminados en correspondencia con criterios preestablecidos con la intención de reducir la probabilidad de fallo o el deterioro de un elemento. El mantenimiento predictivo es la aplicación de técnicas de inspección, diagnóstico y pronóstico. El mantenimiento correctivo es el que se ejecuta luego de la ocurrencia de un fallo con la intención de restituir un elemento a un estado en el que pueda cumplir una función requerida. EL objetivo del mantenimiento es asegurar la competitividad de la Empresa, garantizando niveles adecuados de la confiabilidad y disponibilidad de los equipos, respetando los requerimientos de calidad, seguridad y medioambientales. (9) Para mejorar sustancialmente la fiabilidad, es necesario aumentar el mantenimiento preventivo en los equipos, asegurando que éstos se encuentren en buenas condiciones de funcionamiento para evitar que puedan dejar de funcionar por alguna avería. Pese a todo, en las empresas de acueducto y alcantarillado de nuestro país, encargados de la explotación de estos activos, el mantenimiento preventivo es prácticamente nulo en cuanto a bombas dosificadoras se refiere, de forma que siempre que se realiza algún tipo de intervención es por el hecho de que la bomba está averiada y no está funcionando correctamente. Esto no ayuda a la mejora de la fiabilidad en los equipos de dosificación y es por ello que a continuación se expondrán diversos puntos para contribuir a aumentar el mantenimiento preventivo en las bombas dosificadoras. De esta forma, uno de los principales objetivos del proyecto es el de ajustar el preventivo sobre el correctivo para reducir costes de reparaciones por averías de los equipos que no han sido correctamente sometidos a revisiones periódicas. (8) La primera mejora en materia de mantenimiento es la introducción de un protocolo de trabajo cuando una bomba dosificadora tiene que ser intervenida. Este protocolo se divide en 8 pasos mostrados a continuación: 1. Desmontaje del cabezal dosificador 2. Desmontaje del motor 3. Desmontaje del conjunto mecánico 4. Limpieza total del compartimiento mecánico y del dosificador 5. Sustitución de las piezas de desgaste 6. Montaje del equipo 7. Pruebas de estanqueidad, presión y caudal En cuanto a mantenimiento preventivo, se va a proponer un tipo de ejecución. En el cual consistirá en realizar los trabajos de preventivo cada 5000 horas de trabajo o una vez al año, en función de lo que se cumpla primero. A continuación, se muestran las operaciones básicas de mantenimiento que se deben realizar en cada parte del equipo de dosificación: Conjunto mecánico - Limpieza y cambio de las juntas de goma y sellos. - Revisión de estado de las piezas vitales del equipo. - Engrase de los rodamientos, leva y recubrimientos metálicos para su preservo. Conjunto dosificador - Desmontaje y revisión de todos los elementos. - Verificación y sustitución de la membrana, empaquetaduras y asientos, bolas y juntas de las válvulas. Motor - Verificación de ruidos, consumos y estado del acoplamiento motor/bomba. General - Comprobación de ruidos anómalos. - Comprobación de presión y caudal. Y a continuación en la siguiente tabla se muestran las acciones que se pueden ejecutar a diario o con regularidad. Tabla 1: Tareas de mantenimientos a realizar y sus intervalos. Mantenimiento a realizar Frecuencia Comprobar la correcta fijación de las tuberías Con regularidad Comprobar la correcta fijación de válvula de aspiración y de presión Con regularidad Limpiar válvulas de aspiración y de presión Con regularidad Comprobar la integridad de las conexiones eléctricas Con regularidad Reapretar tornillos del cabezal dosificador - Con regularidad - Antes de la primera puesta en marcha - Después de cada cambio de diafragma Comprobar fugas en membrana por rotura de la misma Con regularidad Comprobar ruidos de funcionamiento, temperatura u olores inusuales en la bomba dosificadora Con regularidad Cambiar las piezas de desgaste (diafragma, válvulas, juntas, etc.) En caso de detectarse la aparición de un desgaste inaceptable Lavar y limpiar la bomba dosificadora - Antes del cambio de membrana - Antes de suspender el funcionamiento a largo plazo - Tras el bombeo de fluidos agresivos, pegajosos, cristalizables o sucios Engrase de los componentes mecánicos (resorte, eje con leva, rodamientos - Con regularidad - Antes de la primera puesta en marcha - Después de cada cambio de diafragma Otra de las acciones y no por mencionarla de último es la menos importantes es que, cuando exista una parada de producción de agua potable en la Planta o en la Estación de bombeo por más de 4 horas, se deberá conectar la línea de aspiración del dosificador a una red de agua neutral y echarlo a andar para su posterior enjuague, para que no queden residuos de hipoclorito en el cabezal dosificador. Se recomienda que el sistema de dosificación tenga un programa de mantenimiento general por lo menos una vez al año. Se pueden requerir períodos de servicio más frecuentes debido a: 1. El tipo, la calidad y la cantidad del hipoclorito que se maneja. 2. La complejidad del sistema de suministro de hipoclorito y 3. Los procedimientos de operación. Los períodos de servicio más frecuentes se recomiendan en la parte del extremo liquido (Cabezal de bombeo y válvula de pie y de inyección), tubing, tanque de almacenamiento de hipoclorito, y verificación del equipo eléctrico de control. (1) 8. CONCLUSIONES Como muchos otros de los problemas que atentan contra nuestro desarrollo, se impone dirigir esfuerzos en la solución de los problemas que a diario afloran en el desarrollo de esta actividad, disminuyendo al mínimo, los lugares en que se ejecute el saneamiento del agua, con mecanismos manuales. Garantizar un cuidado del agua de consumo, con los estándares impuestos por las autoridades competentes, resulta una tarea de vital importancia, siendo tan vital como la producción de alimentos y servicios, evidenciando las cifras expuestas que por razones ajenas a nuestro gobierno, esta actividad como muchas otras se ven afectadas, con la consecuente afectación, por ello el desarrollo del presente trabajo y su puesta en explotación aportará las soluciones necesarias para atenuar el daño que se nos causa. 9. RECONOCIMIENTOS Quiero reconocer en especial la ayuda de mis compañeros de trabajo, ingeniero Wilmer director técnico del Taller de Equipos de Bombeos de San José de las Lajas de Mayabeque, a Michel mecánico de los equipos de cloración en general del mismo taller, también al ingeniero Nelson Fontanills Acosta, compañero de oficina en la empresa, que con su experiencia en el sector hidráulico ha aportado mucho a la realización de este trabajo, al MsC. Ing. William Gurri Carballosa especialista en equipos de bombeos de nuestro OSDE Agua y Saneamiento. Y también sin dejar fuera de estas palabras, a mi familia, mi mujer por su paciencia y dedicación. Gracias a todos. 10. REFERENCIAS 1. Ing. Paul Ricardo Lima Maldonado. Uso y Manejo de Cloro en procesos de potabilización. Ciudad de México : https://aneascapacitacion.com, 2020. 2. Carballosa, Abisniel Villar Cirión y William Gurri. OSDE Agua y Saneamiento. La Habana, 6 de 10 de 2022. 3. jpais. SUMIO water systems. SUMIO water systems. [En línea] 13 de 5 de 2014. [Citado el: 10 de 10 de 2022.] https://sumiowater.com/bomba-dosificadora/. 4. Carbotecnia. Bombas dosificadoras. Bombas dosificadoras. [En línea] Carbotecnia, 2022. [Citado el: 9 de 10 de 2022.] https://www.carbotecnia.info/aprendizaje/bombas-de-agua/bombas-dosificadoras/. 5. —. Bombas dosificadoras de químicos. Bombas dosificadoras de químicos. [En línea] Carbotecnia, 2022. [Citado el: 9 de 10 de 2022.] https://www.carbotecnia.info/categoria-producto/equipo-para-tratamiento-de- aguas/bombas-e-hidroneumaticos/bombas-dosificadoras-de-quimicos-bombas-e-hidroneumaticos/. 6. ProMinent. Instrucciones de servicio Bombas de dosificación Vario, VAMc. Germany : ProMinent, 2012. 987065, 2, es_ES. 7. Fluideco, Fluid Engineering Company. ¿Qué es una bomba de engranajes y cómo funciona? ¿Qué es una bomba de engranajes y cómo funciona? [En línea] 14 de 2 de 2020. [Citado el: 10 de 10 de 2022.] https://fluideco.com/que-es-una-bomba-de-engranajes-y-como-funciona/. 8. Análisis y mejora de la fiabilidad de las bombas dosificadoras en refinería a partir del desarrollo de un plan de mejora continua. Payá, Fernando Bueno. Castellón de la Plana, España : ESCOLA SUPERIOR DE TECNOLOGIA I CIÈNCIES EXPERIMENTALS GRADO EN INGENIERÍA EN TECNOLOGÍAS INDUSTRIALES, 2015. 9. Dr. C. Ing. Armando Díaz Concepción, M.Sc. Estrategias y Sistemas Avanzados en el Mantenimiento. La Habana : s.n., 2022. 10. Grundfos. Grundfos. Grundfos. [En línea] 2022. [Citado el: 9 de 10 de 2022.] https://www.grundfos.com/es/learn/research-and-insights/chlorination. 11. Hidroagua. Hidroagua. Equipos para tratamiento y purificación del agua. Hidroagua. Equipos para tratamiento y purificación del agua. [En línea] Hidroagua, 2022. [Citado el: 9 de 10 de 2022.] https://www.hidroagua.com.mx/cloracion.html#:~:text=Es%20el%20equipo%20cuya%20funci%C3%B3 n,flujo%20de%20agua%20a%20clorar.. Sobre los autores Guillermo Adrian Castillo Ortega Metodología para la recuperación de las tamboras de las purificadoras de Aceite y Fuel Oíl SJ30 Methodology for the recovery of the drums of the SJ30 Oil and Fuel Oil purifiers Jose Antonio Ferreira I,II I Universidad Tecnológica de la Habana José Antonio Echeverría. Maestría en Ingeniería y Gerencia de Mantenimiento II Ministerio de Recursos Mineral y Petróleo, Angola. jef2017c@gmail.com RESUMEN La investigación tuvo como objetivo proponer una metodología para el rediseño de las tamboras de compresores de los motores HYUNDAI dada el problema presentado en cuanto a mismas sufren desgastes producto a la acción de fricción de las zapatas siendo desechadas y cambiadas por otra, esta actividad desarrollada estuvo dentro del contexto de un mantenimiento que se le estaba aplicando a estos grupos electrógenos. Para la realización se basó en la propuesta de una carta tecnológica para la recuperación por maquinado de estas tamboras, como resultado fundamental fue la obtención de esta tambora con la premisa de cumplir las funciones que tenía el sistema original. PALABRAS CLAVES: Recuperación, zapatas, tamboras, carta tecnológica ABSTRACT The objective of the research was to propose a methodology for the redesign of the compressor drums of the HYUNDAI engines, given the problem presented in that they suffer wear due to the friction action of the shoes being discarded and changed by another, this activity developed was within the context of a maintenance that was being applied to these generator sets. For the realization, it was based on the proposal of a technological letter for the recovery by machining of these drums, as a fundamental result was the obtaining of this drum with the premise of fulfilling the functions that the original system had. KEY WORDS: Recovery, shoes, drums, technological letter INTRODUCCIÓN Dentro de las acciones de mantenimiento se encuentra el rediseño, acción muy importante donde se le tarta de otorgar a una pieza las capacidades funcionales de la pieza original y que no se puede cambiar por no existir la disponibilidad de la misma [1,2]. La fase de diseño o rediseño en la mantenibilidad responde a la mejora de los procedimientos de ejecución de la actividad de mantenimiento, a la reducción del tiempo medio de reparación, al reordenamiento de los ciclos de mantenimiento, al uso de nuevas tecnologías que ayuden a anticiparse al fallo y evitar la rotura, a identificar los elementos críticos y darles seguimientos para hacer los activos más confiables y con ello garantizar una elevada disponibilidad. La metodología para el diseño o rediseño de proceso en producciones continúas e intermitentes o por lotes comprenden las mismas fases, cada una con más o menos elementos en función del objetivo final [3,4,5]. La investigación se planteó como problemática Debido a la falta de pieza de repuesto de las purificadoras SJ30 de aceite y de fuel Oil, principalmente de las centrales eléctricas de 1.7 MW de la marca HYUNDAI sobre todos las tamboras parte fundamental en la trasmisión del movimiento del motor eléctrico hacia los ejes de la purificadora Para dar solución a eta problemática se trazó como objetivo proponer una metodología para el rediseño de las tamboras de compresores de los motores HYUNDAI partiendo de otras piezas que se disponían. También se realizó una valoración económica del trabajo realizado. DESARROLLO En la figura 1 se muestra como está constituido el sistema objeto de estudio. Figura 1: Composición del sistema Se analizó la posibilidad de su recuperación ya que las mismas sufren desgastes producto a la acción de fricción de las zapatas siendo desechadas y cambiadas por otra En el análisis realizado se llegó a la conclusión que se podían encasquilla se buscó una camisa desechable de los motores GUASCOR RESULTADOS Descripción de la metodología [6]: Se debe de rectificar la tambora por el lado donde trabaja las zapatas hasta eliminar por completo la rugosidad existente, para ello se debe centrar en el torno a cuatro garras independientes con una desviación máxima de 0.02 mm. Ver figura 2 Figura 2: Secuencia para rectificar la tambora Cilindrar el diámetro interior a 170 +0.03 Se comprueba con un alexometro el diámetro existente después de ser eliminada las rugosidades y se procede a fabricar un casquillo para insertarlo en la parte maquinada del tambor con un apriete de 0.05 a 0.07 mm el diámetro interior se deja en 150 +- 0.1 una vez elaborado el casquillo se procede a insertarlo en la cavidad de la tambora utilizando la presa, se llevara el casquillo hasta el final que tope con la parte interior de la tambora, ver figura 3 y figura 4 Figura 3: Dimensiones del anillo Figura 4: Dimensiones del casquillo Posteriormente se hacen dos barrenos a 180 o uno respecto al otro teniendo como centro la unión del casquillo con la tambora para pasar un macho M6, ver figura 5 Figura 5: Barrenado Después de hacer esto se monta en el torno centrándose a cuatro garra con una desviación máxima de 0.02 mm y se procede a dar la medida final interior de la tambora diámetro 160 +0.25/0 mm, ver figura 6 Figura 6: terminación VALORACIÓN ECONÓMICA. Una vez obtenida a pieza con la implementación de la metodología se realizó un cálculo económico para probar la factibilidad de lo realizado. Recuperación de una tambora. Mano de obra Calificación Tasa ($ /horas) Tiempo(horas) Valor Técnico en Mantto Industrial (Mec. De Taller) 18,5 2 37 Técnico en Mantto Industrial 18,5 0,5 9,25 Total 46,25 Materiales Descripción UM Cantidad Precio Valor Tornillo M6X60 U 2 0,0928 0,1856 La camisa utilizada son las desechadas por no cumplir con las dimensiones requeridas Valor total de la recuperación : 46,43 CUP Valor de una tambora importada. 1Tambora……………….225 USD……24 tasa de cambio 5400 CUP El ahorro seria de 5353,75 por cada tambora que se recupere por lo tanto se ha recuperado hasta la fecha 6 tamboras lo que representa un ahorro de 32122,5 CUP CONCLUSIONES Con la propuesta de una metodología se realizó una recuperación en el rediseño de una pieza que se patento sus potencialidades. Hoy se continúa con esta metodología en esa entidad. REFERENCIAS 1. BENÍTEZ Montalvo Reinaldo, Leisis Villar Ledo, Armando Díaz Concepción, Alexander Alfonso Alvarez, Ángel Rodríguez Soto, Alberto Rodríguez Piñeiro.(2022) “Modificación de la metodología 6 Sigma para comprobación del rediseño de un filtro rotatorio de un producto biológico”. Ingeniare. Revista chilena de ingeniería, vol. 30 Nº 1, 2022, pp. 124- 133 2. ZALDÍVAR Salazar Mario, Armando Díaz Concepción 82021) “La mantenibilidad, su previsión desde el diseño de las máquinas. “Revista a 3 manos No. 14 enero - junio 2021 3. ALTAMIRANO, ESPINOZA M. A. (2017). Herramienta de gestión para la implementación de un programa de mantenimiento preventivo en la Empresa GEOS Ingenieros S. R. L. Para optar el título profesional de magister en Ingeniería Mecánica, escuela Académico Profesional de Ingeniería Mecánica, Trujillo – Perú https://dspace.unitru.edu.pe/handle/UNITRU/9486 [Fecha acceso Febrero 2018] 4. BORROTO, PENTÓN Y. (2005). Contribución al mejoramiento de la gestión del mantenimiento en hospitales en Cuba. Aplicación en hospitales de la provincia Villa Clara. Tesis en opción al grado científico de Doctora en Ciencias Técnicas, Universidad Central “Marta Abreu” de Las Villas, Villaclara, Las Villas. https://dspace.uclv.edu.cu/handle/123456789/3562 [Fecha acceso Julio 2008] 5. ESPINOSA, FERNANDO F., DIAS, A. Y BACK, N. (2008). «Un Procedimiento de Evaluación de las Condiciones Necesarias para Innovar la Gestión de Mantenimiento». Información Tecnológica, 19(1), pp 97-104. 6. KALPAKJIAN, Serope Manufactura,Ingeniería y Tecnología. PEARSON EDUCACIÓN, México, 2008ISBN: 978-970-26-1026-7. Pp 1368 Mejora del Sistema de gestión de mantenimiento en la UEB Gráfica Caribe de la Empresa Ediciones Caribe Yeleidys Domínguez Artires1, Héctor Vargas Nápoles2, Edith Martínez Delgado3 1 Empresa Ediciones Caribe, Departamento de Mantenimiento, Carretera vieja de Guanabacoa No. 8602 / Línea de Ferrocarril y Habana, Reparto Mañana, Guanabacoa. 2 Empresa de Fundición ¨ Hermanos Ruiz Aboy ¨, UEB de Logística, Sol No. 14612 / Mangos y Romanich, San Francisco de Paula, San Miguel del Padrón. 3Facultad de Ingeniería Mecánica, Universidad Tecnológica de la Habana José A. Echeverría, Calle 114 No 11901 entre Ciclo Vía y Rotonda. Marianao, La Habana, Cuba. yeleidys@edicionescaribe.co.cu,hector85vn@gmail.com, edithmd910@gmail.com RESUMEN La presente investigación se desarrolló en la UEB Gráfica Caribe perteneciente a la Empresa Ediciones Caribe, encargada de producir y comercializar tabloides, revistas, impresos comerciables, libros, folletos, etiquetas y plegables, así como otras producciones de la industria gráfica. Para lograr la continuidad de la producción es necesario que sus equipos estén disponibles y en esto juego un papel muy importante el sistema para la gestión del mantenimiento (SGM). Sin embargo, éste no responde a las necesidades actuales del proceso de mantenimiento, por esto, la investigación tuvo el propósito de diseñar un plan de acciones para actualizar el SGM y de esta forma mejorar el desempeño del proceso de mantenimiento de la organización. El estudio realizado se centró fundamentalmente en la revisión de la documentación del sistema implementado en la empresa tomando como guía en una primera etapa, a las indicaciones de la Resolución 116/2017 y los lineamientos que rigen la política económica y social del partido y la revolución cubana y en una segunda etapa, se realizó una actualización del estudio considerando otras resoluciones vigentes, en particular, la Resolución de mantenimiento 66/2021. La observación, entrevistas e intercambio con especialistas de la organización y la revisión documental, permitieron detectar que el sistema actual no se ajusta a la estructura de la organización, los procedimientos no relacionan los cargos y sus funciones. Sobre la base de las oportunidades de mejoras detectadas, se propuso un plan de acciones que contribuye a un mejor desempeño del proceso de mantenimiento. PALABRAS CLAVES: Sistema de gestión de mantenimiento, Plan de acciones, Revisión documental. Improvement of the Maintenance Management System at the Gráfica Caribe UEB of the Ediciones Caribe Company ABSTRACT This research was carried out at the UEB Gráfica Caribe belonging to the Ediciones Caribe Company, in charge of producing and marketing tabloids, magazines, commercial printed matter, books, brochures, labels and brochures, as well as other productions of the graphic industry. To achieve production continuity it is necessary that your equipment is available and in this the maintenance management system (SGM) plays a very important role. However, it does not respond to the current needs of the maintenance process, for this reason, the research had the purpose of designing an action plan to update the SGM and thus improve the performance of the organization's maintenance process. The study carried out focused fundamentally on the review of the documentation of the system implemented in the company, taking as a guide in a first stage, the indications of Resolution 116/2017 and the guidelines that govern the economic and social policy of the party and the revolution. Cuban and in a second stage, an update of the study was carried out considering other resolutions in force, in particular, Maintenance Resolution 66/2021. The observation, interviews and exchange with specialists of the organization and the documentary review, allowed to detect that the current system does not fit the structure of the organization, the procedures do not relate the positions and their functions. Based on the improvement opportunities detected, an action plan was proposed that contributes to a better performance of the maintenance process. KEY WORDS: Maintenance management system, Action plan, Document review INTRODUCCIÓN Desde el siglo XIX, el diseño gráfico ha ido ganando importancia. De manera paralela, también ha ocurrido lo mismo con todos los demás aspectos del diseño, en la industria, la tecnología, la arquitectura y el comercio, por esta razón, han surgido un grupo de empresas que dedican su actividad a la elaboración de libros, impresos de publicidad, periódicos, revistas y todo aquel material impreso que nos rodea y que forma parte del día a día de todas las sociedades. La diversidad de las máquinas, hace posible que se pueda trabajar con una amplia variedad de materiales y formatos lo que a su vez permite contar con una cartera amplia de productos, para satisfacer las necesidades de los clientes. En la presente ponencia se exponen los resultados parciales de la investigación realizada en una empresa que produce y comercializa tabloides, revistas, impresos comerciables, libros, folletos, etiquetas y plegables, así como otras producciones de la industria gráfica. Debido a los diversos problemas que tienen lugar en los activos directos a la producción asociados al mantenimiento, la investigación se centró en el sistema de gestión de este proceso, con el propósito de identificar oportunidades de mejora que tributen a la disponibilidad de los activos directos a la producción y sobre esa base, proponer un plan de acciones que contribuya a la mejora del sistema. DESARROLLO Múltiples son los autores que se han expresado sobre el mantenimiento (Carrasco, 2015), (García, 2013), Letford, 2017). Se reconoce que el mantenimiento es una poderosa herramienta para incrementar la productividad y elemento clave para enfrentar la creciente competitividad de mercado. Históricamente el mantenimiento ha evolucionado a través del tiempo, según Moubray J. (1997), desde el punto de vista práctico, se diferencian enfoques de mejores prácticas aplicadas cada una en épocas determinadas, pudiéndose distinguir tres generaciones. La primera cubre el período 1914 hasta el final de 1930, en ésta época las industrias tenían pocas máquinas, eran muy simples, fáciles de reparar y normalmente sobredimensionadas. Los volúmenes de producción eran bajos, por lo que los tiempos de parada no eran importantes. La prevención de fallas en los equipos no era de alta prioridad gerencial, y sólo se aplicaba el mantenimiento reactivo o de reparación (Letford, 2017). La segunda generación nació como consecuencia de la Segunda Guerra Mundial, cuando se incorporaron maquinarias más complejas, y el tiempo improductivo comenzó a preocupar a los directivos, ya que se dejaban de percibir ganancias por efectos de demanda, de allí la idea de que los fallos de la maquinaria se podían y debían prevenir, idea que tomaría el nombre de mantenimiento preventivo. Además se comenzaron a implementar sistemas de control y planificación del mantenimiento, o sea, las revisiones a intervalos fijos (Letford, 2017). La tercera generación se inicia a mediados de la década de los setenta donde los cambios, a raíz del avance tecnológico y de nuevas investigaciones, se aceleran, aumenta la mecanización y la automatización en la industria, donde se opera con volúmenes de producción más altos, se le da importancia a los tiempos de parada debido a los costos por pérdidas de producción, alcanzan mayor complejidad las maquinarias y aumenta la dependencia del hombre hacia las mismas y además se exigen productos y servicios de calidad, considerando aspectos de seguridad y medio ambiente y se consolida el desarrollo de mantenimiento preventivo (Letford, 2017). El sistema de mantenimiento asociado a cada una de estas etapas, jugó y aún desempeñan un papel decisivo en los esfuerzos de las empresas por conseguir, mantener y mejorar los rendimientos con los medios disponibles. Dentro de los ingentes esfuerzos por la producción, muchos no han sido consecuentes con la importancia que tiene la actividad integral de mantenimiento para el logro de ese objetivo cardinal, surgiendo con frecuencia innumerables contradicciones entre mantenimiento y producción. Y es que también tiene que producirse la reconversión en el mantenimiento, comenzando por entender que el Sistema de Mantenimiento Preventivo Planificado establecido y casi generalizado en las empresas e industrias cubanas, presenta grandes problemas que lo hacen difícil de ejecutar y altamente costoso, además que los procedimientos normados para su ejecución se violan continuamente al ser impracticables y que en definitiva, la actividad integral de mantenimiento es ineficiente, pues parte de un sistema que ya se ha vuelto caduco en su concepción original, ante las nuevas exigencias y reglas de la producción en entornos competitivos. Mientras que antiguamente el principal objetivo del mantenimiento era optimizar la disponibilidad de los equipos al mínimo costo, por lo que estaba relacionado con la preservación de los activos físicos, hoy en día el mantenimiento se puede ver como el conjunto de acciones emprendidas en una organización con el fin de preservar adecuadamente sus equipos e instalaciones, manteniendo su desempeño en condiciones de fiabilidad y respetando la seguridad, salud y cuidado del medio ambiente. Como se aprecia existe un alcance más amplio en sus objetivos. El avance tecnológico que ha tenido la industria ayuda a tener más herramientas eficientes que permite ser más productivos en sus procesos, pero en cuestiones de mantenimiento, aún no existe la concientización de los resultados negativos que se generan por falta de un sistema eficiente de gestión de mantenimiento. La palabra gestión a nivel empresarial se refiere a la forma en que se dirigen, administran y controlan los recursos con el objetivo de crear bienes que contribuyan a mejorar el nivel de vida de las personas que trabajan en dichas empresas. Está relacionada directamente con el concepto de dirección y es aplicada en todos los niveles de la estructura organizacional (Dixon, 2010). La principal función de una gestión adecuada del mantenimiento consiste en rebajar el correctivo hasta el nivel óptimo de rentabilidad para la empresa. Este desarrollo, conducirá en un futuro, a la utilización de los sistemas expertos y a la inteligencia artificial en el mantenimiento, con amplio campo de actuación en el diagnóstico de averías y en facilitar las actuaciones de mantenimiento en condiciones difíciles (Carrasco, 2015). La entidad en la que se realiza la presente investigación está orientada a elaborar y comercializar productos de las artes gráficas que satisfagan a los clientes, mediante prácticas de producción y gestión de alta efectividad, debiendo producir y comercializar tabloides, revistas, impresos comerciales, libros, folletos, etiquetas y plegables, así como otras producciones de la industria gráfica. El mantenimiento en esta empresa constituye un proceso de apoyo y su buen desempeño contribuye a la disponibilidad de los activos directos a la producción y con ello a la continuidad del proceso productivo y la consecuente disminución de los costos de oportunidad. La Empresa hereda, del reordenamiento de la antigua Unión Integración, un Sistema de Mantenimiento Alternativo (SAM), conformado por un conjunto de procedimientos, instrucciones y registros que tiene como objetivos: establecer las pautas para organizar el mantenimiento en la industria gráfica, características y tipos de mantenimiento, técnicas para el control de gastos, plan anual de mantenimiento, métodos a utilizar para el recibo y entrega de trabajos y especificaciones de la programación (GEMPIL, 2012). La filosofía del SAM integra los objetivos técnicos, organizativos y económicos del mantenimiento con los objetivos de competitividad e imagen de la empresa, lo que debe ser considerado para que su implementación sea adecuada y resulte válidas sus bondades (Velázquez, E., 2014), (GEMPIL, 2012). Su estructura se puede ver en el organigrama que recoge la Figura No 1. Figura No 1 Estructura del SA Figura No 1 Estructura del SAM A través de la aplicación de distintas técnicas ingenieriles tales como la observación, intercambio con especialistas de la organización, normativas reguladoras del mantenimiento (Res No. 116/2017) y la revisión documental se identificaron un grupo de aspectos que afectan al sistema de gestión del mantenimiento a los equipos en cuestión. A continuación se relacionan y comentan brevemente estos aspectos: • La documentación del SAM no se adecua en su totalidad a la Empresa, este se diseñó para la extinta Unión poligráfica. • La estructura organizativa de la empresa, no se ajusta a los requerimientos de la Resolución 116/2017. No existe una dirección de Mantenimiento, por lo cual, no participa de forma directa en el proceso de toma de decisiones y no existe claridad en el flujo de informaciones. • EL manual del SAM no contiene los procedimientos de trabajo que permitan llevar a la práctica en forma racional y lógica, las funciones de los cargos de dirección; por lo que no existe un diseño de funciones claras y de conocimiento de los operadores y mantenedores. • Carencia de recursos informáticos en cuanto a mobiliarios y software referidos a mantenimiento, provocando mala eficiencia en el uso de información. • En el plan anual de mantenimiento no se prevé la capacitación del personal, tanto a directivos como a operarios, de manera tal que no quedan establecidos los presupuestos de gastos para esta actividad. • No existe un programa de capacitación con la estrategia de formación de personal de mantenimiento; ya que la fuerza de trabajo está envejecida, y no tienen relevo. • Los indicadores que se implementan no facilitan trazar acciones correctivas ante problemas que suceden. • A pesar de existir una Guía de Evaluación de la actividad de Mantenimiento, no se han establecido procedimientos documentados para la realización de Auditorías de Mantenimiento. SOBRE EL PLAN DE ACCIONES 1. Realizar estudio para la adquisición e implementación de un sistema GMAC. Con esta herramienta se buscará mejorar la efectividad en la gestión de la información, mejorando la eficiencia del proceso de gestión de mantenimiento. Es una herramienta que ayuda en la gestión de los servicios de mantenimiento de una empresa. Básicamente es una base de datos que contiene información sobre la empresa y sus operaciones de mantenimiento. Esta información sirve para que todas las tareas de mantenimiento se realicen de forma más segura y eficaz; para contribuir con el cumplimiento de las exigencias actuales de confiabilidad y fiabilidad, así como garantizar la organización y el control. También se emplea como herramienta de gestión para la toma de decisiones. 2. Incorporar en el plan anual de mantenimiento la capacitación de los recursos humanos y los presupuestos de gastos para esta actividad. Para esto se deben implementar acciones de capacitación continua a todo el personal involucrado con el tratamiento de información en el proceso de mantenimiento. 3. Es necesario un plan de la preparación, capacitación y formación de los recursos humanos emergentes en la actividad de mantenimiento, en actividades de sistemas modernos para su utilización más eficiente y oportuna. Incrementar los conocimientos en electrónica, hidráulica y mecánica, que permitan al personal acometer la solución de roturas complejas. Entre las bondades de la propuesta realizada a través del plan de acción, están las siguientes: • Contribuye a la organización de la actividad de mantenimiento en la empresa, propiciando la adaptabilidad a las particularidades del mantenimiento y de la instalación. Requiere disponer de todos los niveles de la estructura divididos por especialidades u oficios, considera que en el diseño del organigrama de mantenimiento se cuente con cuadros gerenciales de taller y técnico. • Posibilita la implementación de ciencias aplicadas, conocimientos y habilidades de ingenierías para desarrollar la función mantenimiento, preservando el costo del ciclo de vida de los activos físicos tangibles, considerando su eficiencia y calidad en determinado contexto operacional. • La propuesta contribuye además, a la mejora continua del proceso de mantenimiento al considerar la implementación de un sistema GEMAC, herramienta avanzada de gestión para el Plan de Acciones para la actualización del Sistema de Mantenimiento Industrial (SMI) en la Empresa Ediciones Caribe, optimizar la gestión, planeación, ejecución y control, de la producción industrial, todo lo anterior contribuye a la gestión de la calidad. • Facilita la planificación del presupuesto destinado a las reparaciones de las maquinarias, a la demanda de piezas de repuesto y a la capacitación de los trabajadores. • Tiene impacto en la gestión del capital humano al incorporar una dirección de Mantenimiento, la cual facilita en control de esta actividad, estableciendo las funciones de cada cargo. • Establece y contribuye a mantener actualizada la documentación técnica apropiada para asegurar la implantación del SMI, en correspondencia con las características productivas, sociales, territoriales y ambientales de la empresa. CONCLUSIONES El plan de acciones propuesto está en correspondencia con las exigencias actuales del país y del MINDUS para la actualización del Sistema de mantenimiento industrial, el mismo propiciará mejoras en la gestión del mantenimiento industrial. Se recomienda la elaboración de una metodología para la realización de auditorías. BIBLIOGRAFÍA 1. Carrasco, F. J. (2015). Evolución histórica del mantenimiento industrial en Relación a la Gestión del Conocimiento. Recuperado el 23 de Mayo de 2018, de DYNA: https://www.revistadyna.com/busqueda/evolucion-historica-del-mantenimiento-industrial-en- relacion-a-gestion-del-conocimiento 2. Dixon. D. R. (2010). Sistemas de mantenimiento. Planeación y control. México, DF: Limusa Wiley. Empresa Ediciones Caribe. (2017). Manual de identidad. La Habana. 3. García, L. (2013). Eficiencia en el mantenimiento; Mantenibilidad y ciclo de vida, la experiencia de los Facility Managers y su impacto en la gestión de activos. En Coloquio Oficial de Aparejadores y arquitectos técnicos de Madrid. España. 4. GEMPIL. (2012). Manual para la implementación del SAM en la industria gráfica. La Habana. Ministro de Industrias. (2017). 5. Letford, R. I. (2017). Perfeccionamiento del sistema de gestión del mantenimiento del equipamiento tecnológico en las UEB con talleres, pertenecientes a la Empresa Ferrocarriles de Centro Este. Opción al grado de especialista en transporte automotor, Universidad de Camagüey “Ignacio Agramonte Loynaz”, Departamento de Ingeniería Mecánica, Camagüey. Recuperado el 15 de Mayo de 2018. 6. Moubray, J. (2004). Mantenimiento Centrado en Confiabilidad. Carolina del Norte: Aladon LLC. 7. Resolución No. 116/2017 “Indicaciones metodológicas que contienen los requisitos técnico- organizativos mínimos del sistema de mantenimiento industrial". La Habana: Gaceta Oficial. Título: TECNOLOGÍA DE ORGANIZACIÓN Y GESTIÓN DE MANTENIMIENTO ASISTIDA POR COMPUTADORA: SGestMan, UN PRODUCTO GENERALIZADO EN LA INDUSTRIA BIOFARMACEUTICA CUBANA CON UN ENFOQUE DE ENCADENAMIENTO PRODUCTIVO. Conferencista: MSc. José Antonio Rodríguez Ramírez Director División Tecnologías de Mantenimiento Inversiones Gamma S.A., Cuba RESUMEN: La actividad de mantenimiento dentro de cualquier empresa es distinguida por su función: Garantizar la disponibilidad de los activos a un costo competitivo, para ello se precisa establecer niveles de organización que posibiliten el cumplimiento de esta, nunca fácil meta. Desde hace de 7 años la Empresa de Tecnologías de la Información, ETI, y la Empresa Inversiones Gamma S.A. tienen una alianza estratégica que ha permitido un trabajo conjunto que garantiza la posibilidad de Generalizar la Tecnología de Organización y Control de Mantenimiento SGestMan en todas las empresas que conforman el Grupo Empresarial de la industria biofarmaceútica cubana. La experiencia adquirida durante todo este proceso ha permitido lograr entre ambas instituciones, un ciclo dinámico de desarrollo e implementación, que constituye una referencia a tener en cuenta por empresas, de otros sectores, para lograr hacer realidad procesos de Innovación y desarrollo conjuntos con un enfoque de encadenamiento productivo, muy a tonos con las políticas que el país lleva adelante. Las metas y resultados alcanzados en esta alianza estratégica, así como sus nuevos retos constituyen el objetivo principal de esta conferencia, la cual sin dudas es un ejemplo aplicado de cómo se pueden lograr efectivos procesos de mejora que beneficien a las empresas, en particular las enfocadas en la producción de vacunas y medicamentos. En los últimos 20 años la Empresa Inversiones Gamma, ha sido responsable de la concepción, desarrollo, comercialización, implementación y soporte de la Tecnología SGestMan, la cual califica como Tecnología GMAO o CMMS, a partir de la División Comercial de Tecnologías de Mantenimiento. Su misión principal es la transferencia de la tecnología descrita y desarrollada por sus especialistas, a partir de un proceso de generalización que involucra prácticamente todos los sectores de producción y servicios del país. A partir de los resultados satisfactorios de la generalización de la tecnología en las empresas cubanas, y con una estrategia comercial dirigida a exportar todo resultado con potencialidades para ser comercializado fuera de Cuba, la Empresa logra hasta la fecha realizar más de 35 proyectos en industrias azucareras, hospitales, empresas de servicios y aeropuertos, en países como Brasil, Republica Dominicana, México, Colombia y El Salvador. Palabras Clave: CMMS, GMAO, SGestMan   ESTADO DE LA GESTIÓN DE LA LUBRICACIÓN Y LOS LUBRICANTES EN UNA UNIDAD DE TRANSPORTACIONES. Carlos Barrera Rodríguez1, Alejandra Elena García Toll2, Carlos Deus Aguilera3, José de Jesús Ramos Vives4, 1 Taller N3 Trasporte, MININT. 2,3 CEIM, Facultad de Ingeniería Mecánica, CUJAE. Calle 114 e/Rotonda y Ciclovía, Marianao, La Habana. 4 Biocubafarma, Dirección de Inversiones y Mantenimiento, Ave. Independencia No 8126 esquina a calle 100. Boyeros, La Habana. 1e-mail: carlosbarrerarodriguez3@gmail.com 2e-mail: alejandga@mecanica.cujae.edu.cu, 3e-mail: carlosade@mecanica.cujae.edu.cu, RESUMEN La gestión de la lubricación es un aspecto clave dentro de la gestión de mantenimiento, que contribuye a la disminución de la ocurrencia de fallos, con lo que se logra un mejor funcionamiento de los equipos y se reducen los costos de mantenimiento. El objetivo de la presente investigación es evaluar el estado de la gestión de lubricación, que contribuya al buen funcionamiento de los equipos, al ahorro de energía y consumo de combustibles, considerando la evaluación de impactos. El procedimiento se aplica a una Base de Transportaciones. El estado de la gestión de la lubricación y los lubricantes en empresas industriales es calificado de deficiente ya que el promedio de todas las entidades calificadas sólo alcanza el 58% de la meta por lo que estas unidades requieren del diseño de un nuevo modelo de gestión de la lubricación y los lubricantes acordes con las prácticas actuales. Entre las principales acciones a realizar para la mejora de la gestión de la lubricación son la concepción de un nuevo modelo y realizar acciones de capacitación de los recursos humanos dirigido a los temas de lubricación y lubricantes. PALABRAS CLAVES: estado de la lubricación, auditoría de lubricación, calificación de la gestión de la lubricación. STATUS OF THE MANAGEMENT OF LUBRICATION AND LUBRICANTS IN INDUSTRIAL COMPANIES. ABSTRACT Lubrication management is a key aspect of maintenance management, which contributes to reducing the occurrence of failures, thus achieving better equipment operation and reducing maintenance costs. The objective of this research is to evaluate the state of lubrication management, which contributes to the proper functioning of equipment, energy savings and fuel consumption, considering the impact assessment. The procedure applies to a Transportation Base. The state of the management of lubrication and lubricants in industrial companies is classified as deficient since the average of all the qualified entities only reaches 58% of the goal, for which these units require the design of a new model of management of lubrication and lubricants consistent with current practices. Among the main actions to be carried out to improve lubrication management are the conception of a new model and carrying out training actions for human resources aimed at lubrication and lubricant issues. KEY WORDS: lubrication status, lubrication audit, lubrication management qualification.   1. INTRODUCCIÓN Durante los últimos años las administraciones de las empresas han empezado a preocuparse más por todo lo concerniente al mantenimiento, debido principalmente al aumento en número y en complejidad de los activos físicos encargados de generar bienes y servicios. Es por ello que, se han convertido en principales retos para toda empresa minimizar los costos de adquisición y de mantenimiento, así como asegurar el correcto desempeño de estos activos físicos.[1] En el caso del sector del transporte, asegurar una adecuada disponibilidad y estado técnico de los vehículos garantiza, en buena medida, el eficiente desarrollo de la actividad en que se estén utilizando los mismos.[2] Para garantizar esta disponibilidad y el buen estado técnico de la flota de vehículos automotores, entre otras condiciones, se le debe garantizar un correcto sistema de mantenimiento, sistema que puede aumentar los costos de la empresa, en cuantías innecesarias, si no se aplica adecuadamente.[3] Es sumamente evidente la importancia que le dan al mantenimiento, como lo planifican y ejecutan al mismo nivel que otra actividad dentro del proceso tecnológico. Con el objetivo de introducir un modelo de buenas prácticas en Cuba que permita el mejoramiento de las actividades de mantenimiento del transporte, el grupo del CEIM ha investigado las buenas prácticas de lubricación de los países desarrollados, así como las prácticas realizadas en diferentes empresas del país.[4] La gestión del mantenimiento no es más que las actividades coordinadas que se realizan en una organización, con el objetivo de asegurar que cumplan las funciones de los activos físicos, minimizando los tiempos de parada y los costos asociados a los mismos, ayudando a incrementar la productividad, cumpliendo con los niveles de calidad y normas de seguridad personal y medio ambientes establecidos y de esta manera maximizar los beneficios económicos. [5] La gestión de mantenimiento, incluye a la gestión de la lubricación como uno de los aspectos claves para garantizar las funciones de los activos. [6] La gestión de la lubricación es un proceso de planificación, ejecución, control y mejora continua de las acciones de lubricación, que comprende la calidad, la seguridad, la preservación del medio ambiente y eficiencia energética, enfocado a los activos físicos en un contexto operacional específico e integrado al mantenimiento. [7] Una apropiada gestión de la lubricación es importante porque permite emplear lubricantes eficientes, lubricantes limpios, contar con lubricantes sin degradación y posibilita el uso del diagnóstico de los activos. Además, una buena gestión de la lubricación contribuye a disminución de la contaminación ambiental y el aumento de la disponibilidad, la calidad, la eficiencia y la seguridad. El objetivo de este trabajo es caracterizar el estado actual de la gestión de la lubricación en el sector industrial cubano y las posibilidades de mejora. [8] 2. MATERIALES Y MÉTODOS. La herramienta de evaluación que se propone es del tipo lista de chequeo. Para su diseño requiere de la definición de los indicadores y ello se logró con la contribución de un grupo de personas, que se eligieron previamente mediante un método de selección de expertos. [10] La competencia de los expertos se determinó por un coeficiente de competencia que se calcula de acuerdo con la opinión del especialista sobre su nivel de conocimiento acerca del problema que se está resolviendo y con las fuentes que le permiten argumentar sus criterios. [10] La herramienta para evaluar el estado de la lubricación y los lubricantes tiene las siguientes características generales: Variable de salida: Estado de la gestión de la lubricación y los lubricantes. (Pudiendo tomar valores en 5 niveles: 1, 2, 3, 4, 5) Indicadores: 3   Gestión de los lubricantes, Gestión de la lubricación Gestión de recursos humanos Dimensiones: 15 Aparecen divididos por indicadores en la tabla 1. Elementos a evaluar (Ítems): 50 Relacionados con las dimensiones e indicadores de la tabla 1. Tabla 1. Las dimensiones de la gestión de la lubricación y de los lubricantes. [6] Estado de la gestión de la lubricación y los lubricantes Gestión de los lubricantes Gestión de la lubricación Gestión de los recursos humanos Compra Recepción Control de la calidad Almacenamiento Manejo de los lubricantes usados Estudio de lubricación Métodos medios o sistemas de lubricación Empleo de lubricantes más apropiados y eficientes Filtración y control de fugas Limpieza Tecnologías de inspección y diagnóstico Análisis de aceite Reingeniería Capacitación Seguridad y salud La gestión de los lubricantes, incluye 5 subcomponentes que evalúan diferentes aspectos. [9]  Compra de los lubricantes (evalúa la cobertura a la demanda, planificación de volúmenes y tipos de lubricantes)  Recepción de lubricantes (comprueba la forma de desembarque de lubricantes y cuidado de los depósitos)  Control de la calidad del lubricante. (verifica la coincidencia entre factura y el producto, cumplimiento de las especificaciones de calidad, existencia de certificado de control de calidad del lote y de consecutivo con los certificados de concordancia del producto recibido)  Almacenamiento (comprueba si existe orden y correcta ubicación de los depósitos, protección contra la contaminación, control de fugas en depósitos almacenados, tarjetas de inventario actualizadas, sistema de identificación de los lubricantes según tipo y marca, sistemas de supresión de incendios, pisos limpios y seguros)  Uso y manejo de los lubricantes usados (verifica si está definido el destino final de los lubricantes usados, y si son adecuadas las condiciones de almacenamiento de estos) La gestión de la lubricación tiene 8 subcomponentes. [9]  Estudio o guía de lubricación (comprueba la existencia del estudio de lubricación para todos los activos, si los estudios incluyen acciones de los técnicos para el empleo de lubricantes de mejor desempeño en las condiciones del par tribológico, que garanticen el ahorro de energía, además de que los estudios de lubricación son empleados en todas las actividades de la lubricación)  Métodos o sistemas de aplicación de lubricantes (verifica si hay medios para la lubricación apropiados y protegidos de contaminantes y único medio de lubricación identificado para cada lubricante)  Empleo de lubricantes más apropiados y eficientes (comprueba que a cada par tribológico llegue el lubricante que brinde la máxima protección y eficiencia)   Filtración y control de fugas. (evalúa si existe control de los índices de consumo de lubricantes y combustibles, y control de las pérdidas de aceite lubricante por mangueras, retenes, codos)  Limpieza (verifica el conocimiento de las normas de limpieza)  Tecnologías de Inspección y Diagnóstico (comprueba la aplicación de forma integral de todas las tecnologías de inspección y diagnóstico disponibles).  Reingeniería (verifica que se apliquen los resultados de los estudios realizados en los mecanismos para el mejor desempeño de los mismos, confirma la aplicación de modificaciones a los activos en función de los análisis ejecutados y diseño de sistemas de lubricación más confiables). La gestión de recursos humanos posee 2 subcomponentes. [9]  Capacitación de los recursos humanos (evalúa la calidad del diagnóstico de las necesidades de capacitación de las personas vinculadas a las actividades de lubricación, con respecto al conocimiento de las mejores prácticas actuales, el diseño del plan de capacitación y la certificación de los conocimientos).  Seguridad y salud de los recursos humanos (comprueba si existe la identificación de los riesgos para la seguridad y salud, además verifica la aplicación de las normas de seguridad y salud de los trabajadores relacionados con la actividad de lubricación). Luego de evaluar e identificar las acciones como apropiadas e inapropiadas se debe establecer de forma orientativa el estado de la gestión de la lubricación y los lubricantes y concebir las medidas generales a aplicar. [10] En la tabla 2, aparecen los criterios valorativos para clasificar el estado de la gestión de lubricación. Tabla 2. Valoraciones aplicadas a los criterios de diagnóstico. [11] Calidad de la evaluación Puntuación Muy deficiente (MD) 1 Deficiente (D) 2 Ni deficiente ni bien (N) 3 Bien (B) 4 Muy bien (MB) 5 Las evaluaciones fueron realizadas en la Unidad de Transportaciones que radica en la garita del diezmero.   3. RESULTADOS Y DISCUSIÓN. En el gráfico que aparece en la figura 1, se puede apreciar las calificaciones obtenidas para la gestión de los lubricantes en el mismo se evidencia que son la recepción y el almacenamiento de los lubricantes lo que presenta más deficiencias. Figura 1. Evaluación de la gestión de los lubricantes. (Elaboración propia) Las deficiencias fundamentales en la gestión de los lubricantes identificadas son:  Las compras no dan cobertura a la demanda. (Se constató en el diagnóstico que faltaban lubricantes de los recomendados en el Estudio de Lubricación).  Problemas con la recepción de lubricantes. (No se cuenta con medios para la descarga de los lubricantes por lo que no se garantiza que en esta acción los depósitos no sufran daños).  Ineficiente control de calidad del lubricante. (En la mayor parte de las entidades evaluadas no se realiza la verificación de las propiedades de los lubricantes).  Almacenamiento deficiente. (Los depósitos de lubricantes se almacenan en locales que en carecen de todas las condiciones para evitar el excesivo calor y la humedad. Los lubricantes carecen de un sistema eficaz y permanente de identificación. Generalmente se encuentran restos de lubricante y polvo en el exterior de los bidones, al igual que en el suelo. No existen todos los dispositivos para el control de fugas.) En el gráfico que aparece en la figura 2, se puede apreciar las calificaciones obtenidas para la gestión de la lubricación en el mismo se evidencia que son las tecnologías de inspección y diagnósticos la limpieza y la reingeniería las áreas que más deficiencias presentan. Figura 2. Evaluación de la gestión de la lubricación. (Elaboración propia) 1 3 5 Compra de lubricantes Recepción de lubricantes Control de la calidad del… Almacenamient o Uso y manejo de los… 1. Gestión de lubricantes. 1. Gestión de lubricantes. 1 3 5 Estudio de… Métodos o… Optimización… Filtración  y…Limpieza Tecnologías de… Reingeniería 2. Gestión de lubricación 2. Gestión de lubricación   Las deficiencias fundamentales en la gestión de la lubricación identificadas son:  No se preserva ni controla la limpieza de los lubricantes. (En los cárteres de los motores, compresores, reductores y tanques de los sistemas hidráulicos presentan respiraderos que no evitan la entrada de humedad o partículas pequeñas) de igual manera los almacenes no tienen las condiciones necesarias de limpieza y organización.  Insuficiente uso de las tecnologías de diagnóstico. (El empleo de estas tecnologías es muy limitado, aun cuando se pueden emplear algunos activos al menos tecnologías, como por ejemplo la evaluación del consumo energético, o de la temperatura).  No se aplican acciones de reingeniería enfocadas a la efectividad de la lubricación. (Estas pueden ser dirigidas a la disminución de las fuentes de contaminación por ejemplo el rediseño de los respiraderos, de sistemas de enfriamiento y sellos) En el gráfico que aparece en la figura 3 se puede apreciar las calificaciones obtenidas para los recursos humanos y la capacitación. Figura 3. Evaluación de los recursos humanos vinculados con los lubricantes. (Elaboración propia) Las deficiencias fundamentales en la gestión de los recursos humanos son:  No preparan los recursos humanos relacionados con la lubricación en las buenas prácticas para garantizar una lubricación efectiva. (Esto se evidencia en las malas prácticas de lubricación que se realizan de forma generalmente involuntaria)  No existe un buen cumplimiento de las normas de seguridad. (No se cumplen las normas de seguridad de forma sistemática y hay entidades que no las tiene bien identificadas)  No existen planes de capacitación.  El personal encargado de la lubricación no es idóneo (carecen de conocimientos de la especialidad lo que afecta toda la actividad). De forma general se puede observar en la figura 4 Estado de la gestión de la lubricación y los lubricantes 1 2 3 4 5 Capacitación Seguridad 3. Recursos humanos y capacitación 3. Recursos humanos y capacitación   Figura 4. Estado de la gestión de la lubricación y los lubricantes principales sectores evaluados. (Elaboración propia) 4. CONCLUSIONES. La herramienta aplicada permitió identificar las deficiencias fundamentales en la entidad estudiada, las insuficientes acciones de capacitación dirigidas a garantizar una gestión de lubricación con la aplicación de la mejora continua y las prácticas que eviten la contaminación, la degradación de los lubricantes y las afectaciones a los activos. Además, se detecta que no se aplican las acciones de diagnóstico integral para determinar la efectividad de la gestión de la lubricación y los lubricantes. La gestión de capacitación y la seguridad de los recursos humanos, se valoran como buena, aprovechar estas potencialidades para promover la capacitación en los temas de la gestión de la lubricación y los lubricantes, es imprescindible para revertir la situación actual del sector industrial. 5. BIBLIOGRAFÍA. 1 2 3 4 5 Compra de lubricantes Recepción de lubricantes Almacenamiento Uso y manejo de los lubricantes… Estudio de Lubricación Métodos o sistemas de…Optimización de los lubricantes Filtración  y control de fugas Limpieza Tecnologías de Inspección y… Reingeniería Capacitación Seguridad Grafico Polar Grafico Polar   1. MARAIS, K. B. R., J. TETZLOFF, I. J. CROSSLEY, W. A. Modeling the impact of maintenance on naval fleet total ownership cost. 2013. 801-808 p. ISBN 978-1-4673-3107-4. 2. RASMEKOME, N. K. Maintenance and Overhaul Scheduling of Transportation Assets. 2013. 3. ROBERTS, C. Application of asset management to railway fleet; Best practice examples from around the world. 2012. 4. RODRÍGUEZ, J. L. F. Procedimiento para la evaluación del impacto de la introducción de una nueva tecnología de lubricación en la UEB Lisa. Grado, Centro de Estudio e Ingeniería de Mantenimiento. Instituto Superior Politécnico José Antonio Echeverría, La Habana. 2017. 5 GONZÁLEZ, J.D., DEL CASTILLO Alfredo., DÍAZ, Armando. “Propuesta de mejora a la gestión del mantenimiento en un taller de fundición de cobre para la fabricación de cables”. Revista Mantenimiento en Latinoamérica. 2019, vol. 11, n 3, p. 23-27. ISSN 2357-6340. 6 GARCÍA, Alejandra, MUÑOZ, Manuel, DIAZ Armando, PENABAD Laksmi, et al., “Evaluación de la gestión de la lubricación y los lubricantes”. Ingeniería Mecánica, 2019. Vol 22, núm 3: p. 121-126. ISSN 1815-5944. 7 MINDUS. Resolución 66 y 67 de 2021 de Ministerio de Industrias. Gaceta Oficial No. 86 Ordinaria de 2021; 2021. 8 GARCÍA, Alejandra, MUÑOZ, Manuel, PENABAD Laksmi, ALFONSO Yaima, et al. Gestión de la Lubricación y los Lubricantes. La Habana: CEIM, CUJAE; 2021. ISBN 978-959-261-605-9. 9 MUÑOZ Manuel. ¨La gestión de lubricación y el mantenimiento en Cuba¨. 1ra Convención y Exposición Internacional de la Industria Cubana, CUBAINDUSTRIA. Memorias del I Congreso de Automatización y Mantenimiento Industrial, La Habana, 2014. ISBN 978-959-282-097-5 10 GARCÍA, Alejandra, DEUS, Carlos, DIAZ Armando, VILLAR Leisis, et al, Evaluación del estado de la Gestión de Lubricación en el sector de la construcción. La Habana: CEIM, CUJAE; 2022. ISBN: 978- 959-261-616-5. 11 DÍAZ, Armando, VILLAR Leisis, TRETO, Orestes, RODRÍGUEZ, Alberto J, Martínez, et al. Criterios de diagnóstico para evaluar el estado de la gestión de mantenimiento en el sector industrial cubano. La Habana: CEIM, CUJAE; 2020. ISBN 978-959-261-604-2 12 TRUJILLO, Gerardo. Encuesta Latinoamericana del estado de la lubricación en la Industria. Predictiva 21, 2016. Vol 3, núm 19: p. 99-101. TITULO: MANTENIMIENTO A MAQUINAS ELECTRICAS ROTATORIAS EN EL SECTOR INDUSTRIAL. MAINTENANCE OF ROTARY ELECTRICAL MACHINES IN THE INDUSTRIAL SECTOR. María Rosa Perellada Gamio1, Lorenzo Linfernal Ricardo2, Evangelista Cecilia González-Posada Rodríguez3, Pedro Pablo Hernández García4 1Especialista en Uso Racional de la Energía, Dirección de Mantenimiento GESIME, 2Especialista en Uso Racional de la Energía, Dirección de Mantenimiento GESIME, 3Especialista en mantenimiento Industrial, Dirección de Mantenimiento GESIME, 4Director Mantenimiento Industrial, Dirección de Mantenimiento GESIME. 1mariar@sime.cu; 2lorenzo@sime.cu; 3cecilia@sime.cu; 4garcia@sime.cu RESUMEN En el presente trabajo se expone un manual teórico práctico para realizar el mantenimiento sistemático de los motores eléctricos en el sistema empresarial. Las máquinas eléctricas rotatorias son partes esenciales de los equipos y líneas de producción de los procesos industriales. Están presentes en todas sus clasificaciones, que pueden ser: máquinas de corriente directa, máquinas asincrónicas y máquinas sincrónicas, teniendo en cuenta el proceso tecnológico al cual se encuentren asociadas. El mantenimiento sistemático es fundamental para el desempeño de un motor eléctrico con una buena eficiencia y un rendimiento adecuado a sus características técnicas, lo que contribuye a que no ocurran fallas en el proceso en el que se encuentren involucrados. Palabras claves: mantenimiento, motores, eficiencia. ABSTRACT In the present work, a practical theoretical manual is exposed to carry out the systematic maintenance of electric motors in the business system. Rotating electrical machines are essential parts of the equipment and production lines of industrial processes. They are present in all their classifications, which can be: direct current machines, asynchronous machines and synchronous machines, taking into account the technological process to which they are associated. Systematic maintenance is essential for the performance of an electric motor with good efficiency and adequate performance for its technical characteristics, which helps to prevent failures in the process in which they are involved. KEY WORDS: maintenance, motors, efficiency. INTRODUCCION. En el sistema empresarial del Grupo de la Sideromecánica, en su forma abreviada GESIME, existe una amplia gama de motores eléctricos, gran parte de ellos están asociados a tecnologías que datan de la extinta Unión Soviética, pero son de gran importancia porque los equipos a los que pertenecen son los que garantizan la productividad de los bienes inscritos a las producciones de encargo estatal y productos directivos. En el transcurso de la explotación del equipamiento industrial no se ha ejecutado con la disciplina tecnológica necesaria el mantenimiento sistemático que permite garantizar la sostenibilidad del mismo, es objetivo del presente trabajo dar a conocer un manual que se ajuste a la realidad tecnológica teniendo en cuenta los recursos humanos existentes en la industria y que permita brindar un mantenimiento en una primera etapa preventivo para posteriormente, creadas las condiciones, establecer el mantenimiento predictivo y que éste abarque los equipos con años de explotación y con tecnologías recientemente incorporadas que poseen mayor rigor técnico. Además, permitirá conocer los principios básicos que rigen la actividad de mantenimiento a los motores eléctricos, acciones e intervenciones a ejecutar con vistas a que estos sistemas conserven sus características operacionales. Alcance: Grupo Empresarial de la Sideromecánica, en su forma abreviada GESIME. 1. ASPECTOS TEÓRICOS FUNDAMENTALES. Términos y definiciones. Mantenimiento: Conjunto de operaciones o una operación para mantener la operatividad o capacidad de servicio de un producto durante su uso. Orden de trabajo: Instrucción detallada y escrita que define el trabajo que debe realizarse a un equipo. Revisión: Reparación realizada para restaurar la capacidad de servicio y la vida útil total o casi completa del producto con el reemplazo o restauración de cualquiera de sus piezas, incluidas las básicas. Máquina eléctrica giratoria: Dispositivo eléctrico diseñado para convertir energía basado en la inducción electromagnética y la interacción de un campo magnético con una corriente eléctrica, que contiene al menos dos partes involucradas en el proceso de conversión principal y tiene la capacidad de rotar o rotar entre sí. Motor eléctrico: Máquina eléctrica con la que la energía eléctrica se convierte en energía mecánica para impulsar varios mecanismos. El motor eléctrico es el elemento principal del accionamiento eléctrico. Por el tipo de movimiento mecánico creado, los motores eléctricos son giratorios, lineales, etc. Un motor eléctrico generalmente significa un motor eléctrico giratorio, ya que ha recibido la mayor aplicación. La mayoría de los motores eléctricos tienen un rotor dentro del estator. Los motores eléctricos con un rotor fuera del estator se denominan motores invertidos. Tipos de motores eléctricos y sus características. La invención de los motores eléctricos fue el impulso para el desarrollo de la industria y la mejora de la calidad de vida. Se utilizan en muchas industrias, en el transporte, en la vida cotidiana. Hay muchos tipos de motores eléctricos, pero el principio de funcionamiento y diseño se mantiene sin cambios. La unidad consta de: parte móvil (rotor o armadura), parte fija (inductor o estator). Tipos de motores eléctricos: motores de corriente continua (Motores CC), motores de corriente alterna (Motores CA). [1] 2. GENERALIDADES DEL MANTENIMIENTO DE LAS MÁQUINAS ROTATORIAS. Los tipos de mantenimiento a aplicar a las máquinas eléctricas rotatoria se clasifican en: Mantenimiento correctivo o contra avería: Este es el modelo de mantenimiento más común en la pequeña y mediana empresa como su nombre lo indica y se ejecuta cuando ocurre una avería y es necesario acometer la reparación del motor o el equipo tecnológico al que este asociado el mismo. Pueden distinguirse dos modos de enfocar el mantenimiento correctivo principalmente: Eliminando sólo la avería, en este caso se efectúa una reparación de emergencia en la que solamente se realizará la sustitución de aquellos elementos averiados, sin indagar sobre las posibles causas de dicha avería. De esta forma sólo se resuelve el problema de forma temporal y se corre el riesgo de un pronto retorno de la avería. En la otra posibilidad se lleva a cabo la eliminación de la avería, así como de las causas que la produjeron. Esta segunda opción es la que proporciona soluciones más duraderas y precisa de la participación de técnicos y conlleva un mayor tiempo de intervención. Es por esto que suele realizarse en las paradas programadas. Este tipo de mantenimiento presenta algunos inconvenientes que deben ser tenidos en cuenta como las interrupciones impredecibles y la reducción de la vida útil de equipos e instalaciones. También requiere de un mayor stock almacenado con diferentes repuestos y, en caso de elementos de difícil adquisición, puede traer consigo un tiempo de espera. Mantenimiento preventivo. Esta forma de mantenimiento surge de la necesidad de remediar los inconvenientes de mantenimiento correctivo. En este método se procede a la sustitución de las piezas o partes del sistema que pudieran que pudieran causar una avería de manera periódica, determinada mediante criterios estadísticos. Por lo que la sustitución de un elemento se producirá después de un tiempo pre-programado, o al producirse una avería, en caso de que esta tuviese lugar antes de la fecha estipulada. Debido a que es imposible saber con exactitud cuándo se va a producir una avería y, de esta forma, realizar el reemplazo justo antes de ésta, el cambio tendrá lugar antes del fin de la vida útil de la pieza en cuestión, causando de este modo un evidente desaprovechamiento de la reserva de los equipos. Es por esto que es necesario tener un adecuado criterio basado en análisis y estadísticas fiables para poder determinar los mejores tiempos de intervención, con el fin de evitar pérdidas para la empresa. Este tipo de mantenimiento responde a un plan confeccionado generalmente con frecuencia anual y en el que se tienen en consideración los tipos de intervenciones a realizar entiéndase servicio técnico, reparación corriente o reparación general. Para la elaboración del plan es necesario contar con el documento primario que recoja el inventario de equipos tanto los instalados como los pendientes de instalar y posteriormente determinar las normativas correspondientes a las características técnicas de cada uno. Aspectos que se deben tener en cuenta para la elaboración del plan. Las normativas establecidas para para cada tipo de equipo. Lo estipulado en los contratos con las empresas especializadas de reparación. La información brindada por el documento primario, ya sea digital o en carpeta de registro, sobre las incidencias que han tenido los mismos durante su explotación. Los equipos de reserva, ya que para los mismos debe planificarse servicios de conservación. Estas máquinas de reserva permitirán dar mantenimiento a otros equipos tecnológicos sin una parada prolongada. La fuerza de trabajo técnico con que cuenta, así como la capacidad de los talleres especializados de reparación que posee la entidad. El control sobre la ubicación y los movimientos de los equipos que tengan asociadas las máquinas eléctricas rotatorias como por ejemplo máquinas herramientas, transportadores, etc. El abastecimiento de los materiales y piezas de repuesto necesarias para realizar las reparaciones. La estructura de los ciclos de reparaciones y los tiempos entre intervenciones de los equipos y se planificaran las correspondan durante el año. Debe tenerse en cuenta el punto del ciclo en que se encuentra el equipo. Tipo de intervenciones en el mantenimiento preventivo: Servicio técnico. Pueden aparecer o no en la estructura del ciclo teniendo en cuenta las sugerencias del fabricante o la complejidad del equipo. Reparación corriente. Las reparaciones corrientes de las máquinas eléctricas rotatorias deben realizarse sin desmontarlas siempre que el estado técnico y las condiciones lo permitan. Para aquellas entidades que posean taller especializado para la reparación de las máquinas eléctricas deben analizarse donde es más económica esta reparación. Reparación general. Siempre que sea posible de realizar en los talleres especializados en este tipo de intervención. Contenido de trabajo por tipo de intervención. Servicio técnico. El servicio técnico se efectúa a todas las máquinas eléctricas y para su ejecución deben aprovecharse los paros de producción, y su contenido de trabajo es el siguiente: Control de la conexión a tierra. Limpieza de las partes accesibles de la máquina. Corregir pequeños desajustes que limiten el trabajo de la máquina. Medir el aislamiento de los enrollados (meggeo). Chequear el sistema de control de la máquina. Vigilancia diaria de cumplimiento de las normas de explotación y las instrucciones del fabricante Chequear la magnitud de la carga, la temperatura de los rodamientos, devanado y cuerpo. Para los motores de ventilación cerrada, chequear la temperatura de entrada y salida del aire. Comprobar la ausencia de ruidos anormales. Comprobar la ausencia de chisporroteo. Comprobar que se cumplan las medidas de seguridad por los operarios. Actualizar la documentación de las máquinas ya sea digital o en copia dura con la intervención realizada Reparación corriente. La reparación corriente se realiza a las máquinas eléctricas que se encuentra en explotación, comprendidas entre ellas las reservas calientes. el contenido de trabajo es el siguiente: Control de la conexión a tierra. Desarme de la máquina al grado suficiente que permita el contenido de la reparación. Chequear y limpiar el sistema de ventilación, y repararlo de ser necesario. Revisión, limpieza y soplado con aires seco, de los devanados del estator y rotor, del colector y los canales de ventilación. Chequear estado y fijación de los devanados eliminando cualquier defecto. Medir aislamiento de los enrollados, hornear y barnizar, si es necesario. Verificar el estado de los rodamientos, cambiar de ser necesario. Chequear correcto funcionamiento del sistema de lubricación a los rodamientos de fricción, en máquinas grandes reparar de ser necesario. Para esta actividad debe consultarse el estudio de lubricación y utilizar el lubricante indicado por el mismo. Cambiar lubricantes en los rodamientos. Limpiar anillos y/o colectores, de ser necesario rectificar. Verificar y regular porta escobillas, cambo d escobillas de ser necesario. (máquinas de corriente directa). Chequear juntas y retenedores, cambiar de ser necesario. Chequear hermeticidad de los motores a prueba de explosión. Trabajar la máquina en vacío, con carga y comprobar el correcto funcionamiento en los diferentes regímenes de trabajo. Eliminar cualquier deficiencia de pinturas. Proceder a la prueba de entrega y llenar la documentación correspondiente ya sea en formato digital o en las carpetas correspondientes. Reparación general. Abarca todas las operaciones de la reparación corriente y, además: Desarme completo de la máquina. Preparación de los apoyos de los rodamientos y de las tapas, restablecer las medidas de los puntos de apoyo. Cambiar los rodamientos. Comprobar la holgura entre el rotor y el estator, si la construcción de la máquina lo permite, regulación de la holgura de los polos de la máquina de corriente directa y de las sincrónicas, si la construcción de la máquina permite realizar la medición. Limpieza y lavado de todas las partes mecánicas, piezas aislantes, colectores, anillos, defectación de conjuntos y piezas (soldar las rajaduras, restablecer las roscas de los agujeros y los tornillos o espárragos). Reparación de las chapas del estator y rotor eliminando cualquier detalle que ponga en corte las chapas, eliminar el juego entre el rotor y el eje. Reparación del eje comprobación y corrección de los centros, eliminar la flexión, restablecer los diámetros de los puntos donde se montan las polea, acoplamiento, ventilación y núcleo. Reparación o cambio de ventilación. Reparación del rotor: realizar el balance del mismo, verificar las marcas de los conductores en los terminales de salida, comprobación de la resistencia de aislamiento, cambio de devanados de ser necesarios. Realizar el montaje, pintura y efectuar las comprobaciones correspondientes, posteriormente llenar la documentación correspondiente ya sea en formato digital o en las carpetas correspondientes. Se les realiza a las máquinas eléctricas que se encuentran en explotación. La reparación de las máquinas que no se consideran como equipos fundamentales se hace necesaria cuando: La carcaza de la máquina o las tapas están rotas. Se han averiado más del 25% de las chapas que componen el núcleo. Cuando por un significativo deterioro de los conjuntos mecánicos, el restablecerlos no es posible con las condiciones del taller de reparación de la entidad. La principal ventaja de esta forma de mantenimiento es la reducción del número de paradas eventuales por avería derivada de la introducción de una periodicidad en el control y reparación del sistema. Sin embargo, también se dan ciertas desventajas derivadas de la dificultad de estimar correctamente los tiempos necesarios para realizar las intervenciones, se corre el riesgo de desaprovechar parte de la vida útil de una pieza en caso de una sustitución demasiado temprana. Por otro lado, en caso de que la programación del preventivo tenga un retraso con respecto a la avería, se trataría de un mantenimiento correctivo que acarrearía los inconvenientes anteriormente citados de este. Lubricación de los motores eléctricos. En el corazón de casi todas las instalaciones industriales están los motores eléctricos, que pueden hacer que los equipos no funcionen si los rodamientos fallan, lo que es más común de lo necesario debido a la tensión resultante de una lubricación inadecuada. Lubricar sus motores correctamente es fácil, pero no exactamente simple. Si no considera todos los factores involucrados, su máquina estará predispuesta a fallas prematuras. Invertir en las herramientas adecuadas es una parte crucial para mantener un programa de lubricación estructurado y abordar todos los factores involucrados. Hay varios modos de falla que debe tener en cuenta al realizar el mantenimiento de sus motores eléctricos, aunque las estadísticas muestran que el 50% de las fallas de los rodamientos están relacionadas con la lubricación. A continuación, se muestran algunos modos de falla comunes relacionados con el lubricante: Pérdida de lubricante Incompatibilidad de las grasas Grasa incorrecta Degradación de la grasa Exceso de lubricación Re engrase, [6]. El mantenimiento predictivo es un tipo de mantenimiento en el que se relaciona una variable física, característica de una máquina, con el desgaste o estado de ésta. Se trata de un seguimiento organizado con medición periódica o continua para comparar estos resultados con unos patrones preestablecidos, con el fin de conocer el instante exacto en el que se debería producir la intervención de mantenimiento. Los inconvenientes de este tipo de mantenimiento derivan principalmente de su forma de aplicación, algunos ejemplos son: Limitaciones a la hora de elegir la instrumentación de medida y diagnóstico, dada por la necesidad de no desviar a la máquina de su funcionamiento normal durante el análisis. A las técnicas aplicadas durante el normal funcionamiento de una máquina, sin perturbar dicho funcionamiento, se las conoce como técnicas no invasivas. Se requiere una mayor inversión inicial para obtener los equipos adecuados de medida y recolección de datos. Necesidad de un alto nivel de formación para los técnicos de mantenimiento, pues deben dominar el manejo de equipos de alto nivel tecnológico y conocer en profundidad tanto el funcionamiento de las máquinas como las disciplinas relacionadas con ellas. También presenta diversas ventajas que pueden ayudar a la empresa en las labores de mantenimiento como: Determinación óptima del tiempo para realizar el mantenimiento preventivo y mayor aprovechamiento de la reserva de uso de piezas y equipos, así como una reducción al mínimo de las emergencias correctivas. Ejecución sin interrumpir ni alterar el normal funcionamiento de las instalaciones. Mejora del conocimiento sobre el funcionamiento y estructura del sistema. Mejores condiciones de seguridad e higiene en la planta. Mejora en el control de fiabilidad de los elementos y consecución de información para los fabricantes. Sin embargo, en algunos casos particulares el mantenimiento predictivo puede ser menos recomendable que las otras formas de mantenimiento tradicional: No se aplica en aquellos sistemas en los que existe un reglamento que establece el número máximo de horas de funcionamiento de las instalaciones; para este caso se aplica el mantenimiento preventivo según dichos periodos. Tampoco se aplica en aquellos sistemas en los que la detección de la avería es costosa y/o poco fiable, ni cuando la reposición se puede realizar a bajo coste y de forma inmediata. Tradicionalmente la única técnica de diagnóstico aplicada en el mantenimiento predictivo en máquinas rotativas era el análisis de vibraciones, sin embargo, en la actualidad se han desarrollado diferentes métodos para la detección de fallos en este tipo de máquinas como pueden ser el análisis físico-químico de lubricantes, mediciones del par, la velocidad, la temperatura, el ruido, el estudio del grado de deterioro de los cojinetes, niveles de desalineación o desequilibrio de las partes móviles rotativas y el seguimiento de otras variables de la máquina que sufren alguna alteración con la presencia de averías. Estos parámetros también pueden aplicarse en el caso del mantenimiento de motores eléctricos puesto que se trata de máquinas rotativas. Además, se le pueden añadir otros parámetros más específicos como el equilibrio de fases, la aparición de consumos anómalos, anomalías en las corrientes de alimentación, temperatura de los devanados. Mantenimiento de las máquinas eléctricas rotatorias (motores eléctricos). Hay una serie de anomalías comunes que tienen un efecto adverso en el rendimiento de un motor: a) ventilación insuficiente b) altas temperaturas ambientales c) desalineación mecánica d) selección o aplicación incorrecta del motor e) lubricación inadecuada f) humedad excesiva g) contaminación h) sobrecarga sostenida i) voltaje anormal La ventilación insuficiente o las altas temperaturas ambientales dan como resultado una mayor resistencia en el devanado. Sobre el promedio, la eficiencia de un motor decaerá entre 0,2 y 1,0 puntos porcentuales desde la temperatura ambiente hasta su temperatura de funcionamiento. Además, los aumentos excesivos de temperatura causados por un mal mantenimiento o la aplicación incorrecta reduce la vida útil del motor y aumenta el consumo de energía. Con frecuencia, las temperaturas excesivas (ya sea la temperatura del ambiente o la que se deriva de un problema dentro del motor) son causa de avería de la máquina. Los motores deben funcionar dentro de la variación límite de su temperatura indicada en su placa de identificación, a fin de lograr una larga vida útil, por cada 10 °C de aumento de la temperatura de operación del motor por encima de la nominal, la duración del aislamiento se reduce a la mitad. Además de mantener la temperatura ambiente correcta, hay que localizar y eliminar otras fuentes de aumento de temperatura, como la desalineación, sobrecarga, voltaje incorrecto y muchas otras. Las condiciones ambientales perjudiciales suelen consistir en la presencia de vapores corrosivos, sal suspendida en el aire, y suciedad, polvo y otros contaminantes en exceso. En lugares con tales condiciones es esencial contar con motores cuyas carcasas estén especialmente diseñadas. A veces, se desarrolla gradualmente una fricción adicional dentro de la máquina accionada. Esto podría ser causado por una acumulación de polvo en un ventilador, desgaste de piezas, desalineación de engranajes o correas o lubricación insuficiente en la máquina accionada. Estas condiciones hacen que la máquina accionada se vuelva menos eficiente, lo que reduce eficiencia del sistema y aumenta el consumo de energía. Para asegurar una operación eficiente continua y larga vida útil del motor, se debe establecer un programa regular para la inspección de motores y equipos accionados. La humedad es otra causa común de fallas de motores. Si se condensa en la superficie del aislamiento por cambios de temperatura o por contacto con agua, dicha superficie se volverá altamente conductora, se dañará y producirá la falla inmediata del motor. Además, es posible que el aislamiento absorba humedad con el paso del tiempo, hasta que la resistencia dieléctrica del aislamiento se reduce tanto que ocurre la falla. En ocasiones la selección o aplicación de los motores pueden ser incorrectas. Es esencial seleccionar el tamaño y tipo correcto de motor para la carga. Hay numerosos factores que deben considerarse, por ejemplo, un ciclo severo de trabajo podría ocasionar falla prematura del motor. La marcha irregular «a tirones», el frenado por contramarcha (inversión) y un prolongado tiempo de aceleración hacen que los motores trabajen a velocidad más baja que la normal. Debido a que los motores sometidos a este ciclo de servicio toman corrientes muy intensas en el arranque, éstas producen, a veces, calentamiento excesivo. Además, debido a la baja velocidad del rotor, el enfriamiento normal disminuye mucho y empeora el problema del sobrecalentamiento. La altitud de la instalación es otro factor importante que a menudo no se toma en cuenta. A grandes altitudes, el aire es menos denso y menos eficaz para el enfriamiento; esto permite que en casi todos los motores la temperatura aumente alrededor del 5 % por cada 300 m (1000 pies) de altitud. La selección de la carcasa también es importante; las hay disponibles y normalizadas para casi cualquier clase de situación. Las deficiencias en el montaje del motor pueden ocasionar su falla. Si los pernos de montaje no son de la medida correcta o no están bien apretados, puede ocurrir una desalineación y vibraciones que ocasionarán daños en los cojinetes y el eje (flecha) y, en un momento dado, la quemadura de los devanados. Las placas de base de acero y los cimientos deben tener suficiente resistencia para soportar los paros y arranques. Acoplamientos, bandas, poleas y cualesquiera otras conexiones entre el motor y la carga impulsada deben estar bien alineados para evitar la vibración excesiva, que es dañina para los motores. Una carga excesiva puede dañar con rapidez un motor; éste quizá haya sido al principio del tamaño apropiado para la carga, pero una variación en ésta o en el mecanismo para impulsión puede producir sobrecarga del motor. Los cojinetes empezarán a fallar, los engranes pueden trabarse, o pueden presentarse otras causas de fricción o cargas extra. En este caso, el motor consumirá más corriente y se incrementará su temperatura. Si la corriente del motor excede del amperaje nominal a plena carga, aunque sea por un tiempo breve, el rápido sobrecalentamiento reducirá la vida útil del motor. Si se tienen relevadores de sobrecarga del tamaño correcto, se dispararán en caso de una sobre corriente intensa. Mantenimiento de las máquinas asincrónicas o de inducción. Las máquinas asíncronas debido a sus características constructivas son las más robustas y, por tanto, las que menor mantenimiento precisan de todas las máquinas rotativas. Sin embargo, debido a su uso generalizado en todo tipo de plantas industriales, su aplicación en procesos críticos para la producción, y el hecho de que algunas de las averías que pueden padecer son destructivas para el conjunto de la máquina, el conocimiento de su estado interno se ha convertido en una necesidad si se desea alargar su vida útil y evitar paradas intempestivas. Puesto que el uso de la máquina asíncrona como generador, salvo en casos excepcionales, suele corresponder a aplicaciones muy específicas donde la potencia requerida no es muy elevada, en este libro se hará referencia únicamente al diagnóstico de fallos en motores de inducción. A pesar de ello, debe tenerse en cuenta que todos los procedimientos de diagnóstico relacionados con el sistema aislante de la máquina son comunes a motores y generadores. En un motor asincrónico, las averías más frecuentes se pueden clasificar en: Fallos mecánicos: Los fallos mecánicos corresponden a averías en los cojinetes, aflojamiento en elementos de sujeción del paquete magnético, desalineación de ejes, desequilibrio del rotor y regímenes anómalos de vibración. Su principal medio de diagnóstico va a consistir en el análisis espectral de la vibración de la máquina. Asimetrías rotóricas: Las asimetrías rotóricas se pueden definir como la rotura o agrietamiento de las barras o anillos de la jaula rotórica y las modificaciones. en el tamaño del entrehierro conocidas como excentricidades estática y dinámica. Puesto que este tipo de fallo produce alteraciones en el campo magnético de la máquina, y éstas inducirán fuerzas electromotrices en el estator, podrá ser detectado principalmente mediante el análisis espectral de las corrientes de alimentación. Defectos en el sistema aislante: Los defectos del sistema aislante en este tipo de motores son comunes a todas las máquinas eléctricas que empleen aislantes del mismo tipo, generalmente compuestos mica-epoxy, cuando la máquina trabaja a media tensión. Este tipo de fallos van desde la presencia de contaminación o humedad, falta de compactación del muro aislante, defectos de aislamiento en las zonas sometidas a mayores esfuerzos dieléctricos y mecánicos (cabezas de bobinas) y finalmente cortocircuitos entre espiras, e incluso entre fases del devanado y tierra. Fallos en los núcleos magnéticos: Los fallos del paquete magnético consisten en la degradación de aislamiento que existe entre chapas, lo que origina la presencia de puntos en los que es posible la circulación de corrientes parásitas y, por tanto, se produce un elevado calentamiento del núcleo. La forma más habitual para detectar este tipo de avería es la termografía infrarroja. Mantenimiento de las máquinas de corriente directa. Las particulares características de esta máquina eléctrica, hacen que no sean de especial importancia en ella los métodos de mantenimiento predictivo. La presencia en su estructura de puntos especialmente sensibles al desgaste, conduce a que sean normalmente los mantenimientos preventivo y correctivo, los preferidos por los técnicos. Algunos de los problemas específicos que afectan a este tipo de máquinas son: Sobrepeliculado: Consiste en la pérdida de conductividad de la pátina (película formada sobre el colector). El método más comúnmente aceptado para la detección de este problema es la medición periódica de la resistencia superficial del conmutador. En condiciones de funcionamiento normal esta resistencia se encuentra entre los 0 y 500Ω. La aparición de este defecto puede ocasionar resistencias superficiales de hasta 10.000Ω, siendo especialmente notable el fenómeno en la parte trasera de las barras del colector. La aparición de sobrepeliculado es debida al ataque de la pátina por parte de contaminantes atmosféricos. El efecto final suele ser el quemado del borde trasero de las barras del colector ante la excesiva resistencia que ahora esta zona opone al paso de la corriente. Ruptura de la pátina: A pesar de llevar a cabo un atento mantenimiento, existen ocasiones en las que se produce la ruptura de la película superficial del colector. En estos casos se suele proceder limpiando con un producto abrasivo para el montaje de escobillas el propio colector, ayudando así a la vez a la eliminación del cobre depositado sobre las escobillas. La ruptura de la pátina está generalmente causada por los cambios de humedad, que suelen venir asociados a variaciones bruscas de la temperatura. Desgaste de las escobillas: La obtención de una conmutación adecuada implica una cierta presión de las escobillas sobre el colector. Si bien esta presión no debe exceder ciertos límites, a la larga el funcionamiento normal de la máquina hace que los equipos de mantenimiento deban intervenir periódicamente procediendo a su sustitución. No se ha desarrollado todavía un método completamente eficaz que sea capaz de predecir el tiempo de vida esperado de las escobillas para una máquina en un determinado ambiente. No obstante, una duración inusualmente corta de las mismas es síntoma de la existencia de defectos en la conmutación, cuyas causas pueden ser múltiples y requerirán un estudio minucioso. Por otro lado, un desgaste selectivo de alguna de las escobillas o la aparición de un arco eléctrico especialmente visible, pueden ser síntoma de una presión no uniforme. Deformación del colector: Son muchos los factores que pueden conducir a un deterioro de las condiciones mecánicas de esta pieza, que con cierta frecuencia tendrá que ser sometida a tareas de reparación superficial entre las cuales se pueden destacar: Lijado; Esmerilado manual; Rectificado; Torneado. En todos los casos el paso último es el rebajado del aislamiento de mica que separa los segmentos del colector. A pesar de todas estas particularidades que como se acaba de describir afectan al mantenimiento de las máquinas de corriente continua. Técnicas como el análisis espectral de vibraciones o el análisis del estado del aislamiento, son plenamente adecuadas para el diagnóstico precoz de fallos en este tipo de máquinas. [4] 3-TÉCNICAS DE MANTENIMIENTO PREDICTIVO EN MOTORES ELÉCTRICOS. Medida de Vibraciones. Se define vibración como el movimiento oscilatorio de las partículas de un sólido. Se pueden clasificar en dos tipos claramente diferenciados: deterministas y aleatorias. En el primer caso, siempre pueden ser definidas por ecuaciones matemáticas que representen la evolución del parámetro en concreto en función del tiempo. Habitualmente se trata de oscilaciones periódicas debidas a las imperfecciones propias de la máquina. En el caso de las vibraciones aleatorias, no se pueden definir mediante ecuaciones matemáticas, tan solo por métodos estadísticos. Éstas no responden a ningún patrón periódico, y suelen estar causadas por una fuerza que actúa durante un periodo de tiempo y luego desaparece. Con el objetivo de detectar los fallos y averías en máquinas eléctricas a través del análisis de vibraciones deberán analizarse las de tipo determinista pues es en estas donde aparecen las anomalías en forma cíclica de la respuesta vibratoria que producen los fallos. Generalmente su utiliza un acelerómetro para medir la magnitud de estas vibraciones ya que posee un amplio rango dinámico de frecuencias, robustez, fiabilidad y unas reducidas dimensiones. Estos funcionan produciendo una señal eléctrica proporcional a la aceleración de la máquina en la que están instalados. El análisis de vibraciones es la técnica más extendida a nivel industrial para el diagnóstico de fallos en motores eléctricos, si bien se ha probado adecuada para fallos de índole mecánica y no tanto para otros fallos de naturaleza eléctrica como fallos en el rotor o estator. Medida de Temperatura. La aparición de altas temperaturas en un motor, ya sea por una alta temperatura ambiente o bien por un fallo interno, es una causa de riesgo de fallo muy a tener en cuenta a la hora de establecer un plan de mantenimiento. Para la monitorización y detección de zonas de elevada temperatura en la superficie motor, se puede utilizar el método de la termografía infrarroja. A través de esta técnica, se genera un mapeado de las temperaturas en la superficie del motor. En caso de aparición de picos de temperatura muy grandes en una parte concreta del motor se puede intervenir esta zona en concreto y así evitar problemas mayores que afecten seriamente la integridad del motor. Análisis de las Corrientes del estator del Motor. Se trata de una técnica en la que, en su versión más extendida, se realiza un análisis en el dominio de la frecuencia de la señal de corriente demandada por el motor. El objetivo es evaluar la amplitud de ciertas componentes, que son amplificadas por la presencia de ciertas averías como roturas de barra o excentricidades. Mayores amplitudes son indicativas de un nivel mayor de severidad de la avería, lo cual permite determinar la salud de las partes diagnosticadas mediante la evaluación de la amplitud de estas componentes. A través de este método es posible identificar fallos como roturas de barras del rotor, roturas de anillos del rotor, excentricidad del rotor e incluso fallos en rodamientos. Excentricidades. Las excentricidades en el entrehierro de una máquina eléctrica engloban diversos fallos causados por no estar perfectamente alineados el rotor y el estator, o también cuando uno de estos dos elementos no presenta una redondez perfectamente homogénea. Se puede considerar que existe excentricidad en una máquina eléctrica cuando su entrehierro no es uniforme, es decir, la distancia en todos los puntos entre rotor y estator presenta variaciones, ya sea al girar como en estado estático. Actualmente este entrehierro en las máquinas eléctricas es de un tamaño muy reducido (suele ser de pocos milímetros). Por esta razón, es de vital importancia para la integridad del motor conseguir que sea perfectamente uniforme. Existen dos tipos de excentricidades (aunque se puede dar el caso de combinaciones de ambas de diferentes maneras): excentricidad estática y excentricidad dinámica. Se denomina excentricidad estática a la que viene dada por una distorsión del tamaño del entrehierro en la que su valor mínimo se mantiene en una posición fija. Se da básicamente de dos formas: producida por una forma ovalada del estator o bien por un incorrecto posicionamiento del rotor. En el caso de una excentricidad dinámica el punto de mínima distancia del entrehierro gira junto con el rotor y, por lo tanto, va cambiando de posición en el tiempo. Este tipo de excentricidad puede ser causada por una forma ovalada del rotor o por que el centro de giro del rotor este desfasado con respecto del centro geométrico de rotación. Con el fin de determinar si existen o no excentricidades en un motor que puedan ser motivo de peligrosidad para el funcionamiento de éste, las técnicas más empleadas en la industria son el análisis espectral de las corrientes de alimentación de la máquina y el análisis de vibraciones. Cuando existen excentricidades en el entrehierro de una máquina asíncrona se produce una modificación en la forma de éste, lo cual se traduce en cambios en la onda que representa la fuerza magneto motriz y se producirán fuerzas que sobresaldrán a la frecuencia de giro de la máquina. Por lo tanto, existen una serie de frecuencias asociadas a la presencia de estas excentricidades. En el caso de la aparición de excentricidades estas no suelen ser exclusivamente de uno de los dos tipos antes expuestos, sino como una combinación de ambos (excentricidad mixta). Esta expresión es válida para detectar las frecuencias provocadas por excentricidades mixtas que son las que se suelen dar en la realidad ya que es inevitable tener un cierto grado de excentricidad estática y dinámica combinadas. Si los armónicos principales de excentricidad superan un cierto umbral, se considera que la excentricidad puede resultar peligrosa. Este umbral de alarma es de 20 dB por encima de la media del ruido. Una excesiva excentricidad provoca esfuerzos inadecuados sobre los rodamientos e, incluso, puede acabar provocando el roce entre estator y rotor, con el consiguiente daño del aislamiento y fallo catastrófico del motor. [3] Rotura de barras La rotura de barras es una de las principales maneras de fallo que tiene un motor, especialmente en motores de alta potencia que arrancan frecuentemente bajo carga. El transitorio de arranque es el que más esfuerzos provoca en las barras del rotor, ya que durante este transitorio aparecen las mayores corrientes en dichas barras debido a la diferencia de velocidades entre el rotor y el campo del estator. Esta rotura de las barras suele empezar a darse en las partes de éstas que no están sujetas por el cuerpo del rotor, es decir, en las zonas cercanas al de la unión al anillo de cortocircuito o en el propio anillo. Cuando existen barras rotas en un motor la simetría del rotor queda destruida lo que se traduce en la aparición de un campo giratorio que genera armónicos en la corriente del estator de acuerdo con la expresión: Donde f1 es la frecuencia de alimentación, s el deslizamiento en tanto por uno y k=1,2,3… Para saber si el motor se encuentra sano se debe observar la magnitud de ganancia que alcanzan estos armónicos. En el caso de los armónicos laterales entorno a la frecuencia fundamental, f1·(1±2s), se puede considerar que el motor está sano cuando el armónico f1·(1-2s) se encuentra por debajo de -55 dB. Cuando la magnitud se encuentra entre -55 dB y -45 dB se considera que este motor empieza a presentar riesgo de rotura de barras o empieza a presentar fisuras. En el caso de estar entre -40 dB y -35 dB se considera que hay, al menos, una barra rota y cuando es superior a -35 dB existen varias barras rotas. Estos márgenes funcionan tan solo para el análisis de armónico lateral inferior f1·(1-2s). [2] Prueba resistencia a tierra (RAT) Indica la limpieza y la salud del sistema de aislamiento. Una baja RAT indica que el motor requiere ser limpiado. Si la acción no es tomada, el aislamiento puede fallar y devanados dañaren. Las normas IEEE Std 43-2000 y NFPA 70B establece que el mínimo valor de aislamiento rm, corregido a 40 °C, es 1 megohm por 1000 voltios, más 1 megohm La prueba debe ser por un tiempo de 30 segundos, un incremento > 5% de la línea base es para Precaución, y un incremento > 10% de la línea base es para Alarma. [5] Tabla 1: Valores a tener en cuenta durante las pruebas dela resistencia del aislamiento en máquinas de CD. Tensión nominal del devanado (V) Ensayo de resistencia de aislamiento tensión continua <1000 500 1000-2500 500-1000 2501-5000 1000-2500 5001-12000 2500-5000 >12000 5000-10000 Ref. IEEE- Std-43-2000 Rangos de tensiones entre líneas para máquinas trifásicas, tensiones entre línea y tierra para máquinas monofásicas y voltajes para máquinas de corriente directa. Tabla 2. Valores mínimos de resistencia de aislamiento recomendados para 400 c. Todos los valores están en Mohm. IR 1min = kV+1 Para la mayoría de bobinado realizado anterior a 1970, todos los devanados de campo y otros no especificados a continuación. IR 1min = 100 Un devanado de CA construido después de 1970 enrollado en forma de bobina. IR 1min = 5 Para la mayoría de las máquinas con estator de bobinado y bobinas enrolladas en forma clasificada inferior a 1 kV. Tabla 3. Índice de polarización IP e Índice de Absorción IA Valor IA Valor IP Condición del motor Acción recomendada >1.5 >2 Buena Continuar monitoreo según programa. 1.25- 1.5 1.25-1.5 Observación Monitoreo a más frecuencia. 1.0— 1.25 1.0-1.25 Moderada Aumenta nivel de peligro. Aislamiento, motor o cable. Incrementar frecuencia de monitoreo. <1.0 <1.0 Severa Nivel de peligro alto .limpieza del motor , lavado secado, limpieza acometida CONCLUSIONES En el presente trabajo se realiza un resumen de las acciones teóricos prácticos que son utilizados para realizar el mantenimiento a las máquinas eléctricas rotatorias. Se describen los tipos de intervenciones y la importancia de cada una de ellas dando a posibilidad a las entidades de valorar acorde a las posibilidades la implementación del más adecuado en su entorno. Aumque esta realizado para el sector de la industria mecánica puede ser generalizado ya que las máquinas eléctricas están presentes en todo proceso industrial definiendo la calidad y entrega de productos. Los autores de esta ponencia son especialistas y director de la Dirección de Mantenimiento Industrial del Grupo de la Sideromecánica, GESIME. María Rosa Perellada se desempeña como especialista, atiende los temas relacionados con la electricidad. Tiene categoría docente de Instructora, es MSc en Eficiencia Energética. Lorenzo Linfernal Ricardo se desempeña como especialista, atiende los análisis de eficiencia. Es MSc en Eficiencia Energética. Evangelista Cecilia Gonzalez-Posada Rodriguez se desempeña como especialista y atiende los temas que tienen que ver con la Gestión del Mantenimiento y la Cultura Industrial. Es MSc en Eficiencia Energética. Pedro Pablo Hernández García se desempaña como Director de Mantenimiento Industrial del grupo. En estos momentos estudia la Maestría en Dirección Empresarial. REFERENCIAS 1) GOST 27471-87, Maquinas eléctricas giratorias. Términos y definiciones. 2) William Murillo, ¨¨Mantenimiento Predictivo para Motores Eléctricos¨, Universidad Centroamericana Jose Simeón Cañas. San Salvador. 3) Jorge Algarra Íñiguez, ´´Aplicación de técnicas de mantenimiento predictivo en motores de alterna en una industria de tratamiento de acero. ´´ Trabajo de Posgrado, Universidad Politécnica de Valencia.2017. 4) Guía para la Reparación de Motores Eléctricos, CONUEE, Primera Edición, México, 2019. ´´Comisión Nacional para el uso eficiente de la Energia –CONUE, México. 5) Saúl Francisco Gutiérrez Argueta, Kevin Giovanni Morán Gil, ´´Propuesta de una Metodología para el Desarrollo e Implementación de un Plan de Mantenimiento Predictivo y Preventivo para Motores Eléctricos en la Industria Salvadoreña. ¨, Tesis para optar al título de Ingeniero Electricista, Universidad Centroamericana Jose Simeón Cañas De El Salvador Facultad De Ingeniería Y Arquitectura Escuela de Ingeniería Eléctrica. 6) https://noria.mx/manejo-y-aplicacion-h/descubra-los-secretos-para-la-lubricacion-adecuada-de-los- rodamientos/ 7) 7) https://docplayer.es/4601174-Mantenimiento-predictivo-para-motores-electricos-ing- william-murillo.htm 8) https://ri.ues.edu.sv 1 EVALUACIÓN TEÓRICA DE LAS POSIBILIDADES PARA EL TERMOCONFORMADO DE MATERIALES COMPUESTOS DE FIBRAS DE HENEQUÉN A PARTIR DE TÉCNICAS TERMOANALÍTICAS Daniel Díaz Batista1, Victor Bridi Tellez2, Francisco Rolando Valenzuela Díaz2, Antonio Hortencio Munhoz Junior3 Helio Wiebeck2, José Luis Valín Rivera4. 1 Cujae, Calle 114 #11901 e/ Ciclovía y Rotonda, Marianao, La Habana, Cuba, 2 Universidad de Sao Paulo (USP), SP, Brasil. 3 Universidad Presbiteriana Mackenzie, SP, Brasil. 4 Pontificia Universidad Católica de Valparaíso(PUCV). Valparaíso, Chile. 1 e-mail: danieldiaz@mecanica.cujae.edu.cu RESUMEN Se presenta el proceso de consolidación y las propiedades mecánicas de un material compuesto (MC) de fibras largas de henequén. Se realizó la caracterización de este material mediante técnicas termoanalíticas, para obtener los datos que permiten una introducción mucho más rápida, precisa y económicamente viable, en un proceso productivo de termoconformado. Se dan los elementos de decisión básicos que permiten diseñar el post procesamiento termo-mecánico de forma tal que se minimicen los consumos energéticos y se obtengan piezas con mejores propiedades mecánicas. Se discuten algunas diferencias de sensibilidad entre las técnicas termoanalíticas utilizadas, para esclarecer en cuanto a su validez como referencia en la toma de decisión en los procesos de manufactura que involucran conformación de polímeros termoplásticos. Toda vez que el proceso de solidificación es reversible, estos estudios han dejado también información respecto al probable desempeño del material en ambientes donde la temperatura rebase los límites de estabilidad térmica, estando en unos 80 grados Celsius, para este MC. . PALABRAS CLAVES: Henequén, polímero termoplástico, material compuesto, termoconformado, DMA. THEORETICAL EVALUATION OF THERMOFORMING POSSIBILITIES FOR HENEQUEN REINFORCED COMPOSITE MATERIAL BY THERMOANALYTIC TECHNIQUES ABSTRACT Consolidation process and mechanical properties of long henequen fiber composite material is presented. Characterization by thermoanalytical techniques of such material was carried out in order to obtain data allowing to introduce faster, easier and economically in an industrial thermoforming process. Basic elements allowing design thermal-mechanical post processing are given, aimed at minimizing energy consumption in such step, obtaining parts having better mechanical performance. Some differences among sensibility of exposed thermoanalytical techniques in order to make clear their worthiness as reference in decision taking in manufacturing processes involving forming thermoplastic polymers. Since solidification process is reversible, this study has hence left information in relation to parts performance in environments where temperature could surpass thermal stability limit, being this parameter about 80 degrees Celsius for this composite. KEY WORDS: henequen, thermoplastic polymer, composite, thermoforming, DMA. 2 1. INTRODUCCION. Los avances en el diseño de materiales no han quedado relegados solamente al uso de productos sintéticos. Las fibras naturales entran cada vez más a jugar un papel relevante en el diseño de nuevos materiales para cumplir tareas de mayor exigencia, donde se requiere un control preciso de las propiedades. La introducción de procesos tecnológicos avanzados presenta iguales retos ya que los márgenes de permisibles para las variables que se controlan en los mismos son cada vez más estrechos, si se quieren obtener productos con una calidad alta y estable. La fibra de henequén (Agave fourcroydes Lem.) presenta unas excelentes propiedades mecánicas con una resistencia media en el entorno de los 500 MPa [1] [2] y ha sido introducida con eficacia en procesos de producción de materiales compuestos. El uso de polímeros termoplásticos, si bien presenta complejidades para la manipulación, ya que deben ser trabajados con altas viscosidades y a temperaturas relativamente altas, presenta también aspectos muy convenientes como una alta estabilidad química durante el proceso y un menor consumo energético en la preparación de los productos terminados, gracias al uso de una diversidad de técnicas disponibles actualmente para llevar energía de forma eficiente y controlada al proceso de moldeo o conformación [3]. El termoconformado [4] se presenta como otra alternativa interesante para la obtención de piezas con una alta estabilidad dimensional, típicas de la industria moderna en ramas como la de producción de medios de transportación u otras en las que la de fabricación de estructuras ensamblables sea una alternativa posible para aumentar productividad y reducir costos. El comportamiento del material compuesto de matriz termoplástica reforzado con fibras lignocelulósicas ha sido estudiado por varios autores. De interés particular, en el estudio del MC con fibras de henequén, resulta su posible degradación térmica y para el caso de su aplicación práctica, la aparición de fragilidad en los intervalos de temperatura en que estos pueden ser utilizados. En el presente trabajo se muestran algunos resultados de pruebas experimentales realizadas a un material compuesto una matriz de Polietileno de Baja Densidad (PEBD), reforzado con fibras de henequén, cortas orientadas de forma aleatoria. 2. Materiales y métodos 2.1. Materiales. Como matriz se utilizó polietileno de baja densidad (PEBD) (Índice de fluidez (IF):0,4 g/10 min con 2,16 kg) (temperatura de procesamiento (TP): 180 °C) de la firma Sinopec (República Popular China). Se utilizaron fibras de henequén colectadas en la región de Limonar, provincia de Matanzas, Cuba, y fueron aportadas por la empresa agroindustrial “Antonio Berdayes". 2.2. Equipos utilizados. - Pie de rey Mitutoyo, con indicación digital y apreciación 0,01mm. (Fabricado en Japón) - Los ensayos de Calorimetría Diferencial de Barrido (DSC) se realizaron en un equipo DSC200F3 “Maia” y el software Proteus, ambos de la firma Netzsch (Alemania). Se trabajó con flujo de 20 ml/min de nitrógeno, como fluido refrigerante e inerte en relación a los materiales en estudio (Ver Figura 1). - Los estudios de DMA se realizaron mediante un equipo DMA 8000, de la firma Perkin-Elmer (Estados Unidos de Norteamérica) (Ver Figura 2). En los ensayos de DMA se utilizó un ciclo de temperatura de 25 – (- 60) – 220 °C. Las muestras de DMA (Ver Figura 3) se prepararon y ensayaron con el método de flexión en tres puntos, imponiendo una deformación de 0,05 mm con una frecuencia de 1 Hz. Si el comportamiento mecánico indicaba la rotura o falla de la muestra, se interrumpía el ensayo, tomándose solo los datos hasta esa temperatura. En el ensayo de DMA se utilizó como fluido refrigerante el nitrógeno líquido. - Para el mezclado y producción de las muestras se empleó una instalación experimental desarrollada en el Departamento de Tecnología (TCM) de la Facultad de ingeniería Mecánica de la Universidad Tecnológica de La Habana (Cujae) (Ver Figura 4). 3 Figura 1: Equipo para ensayos de DSC. Figura 2: Equipo para ensayos de DMA. Figura 3: Muestra de material compuesto sin ensayar (M123) y después de ensayada (M116), con el equipo DMA8000. 4 Para la realización de estos trabajos experimentales, además de la abundante bibliografía [5] [6] [7] [8], se consultaron las normas referentes al uso de los métodos dinámico-mecánicos para la caracterización del comportamiento viscoelástico de los materiales [9][10]. 2.3. Método para la preparación de los laminados y probetas. Las fibras son cortadas y almacenadas. Se pesan las cantidades necesarias y en el momento de preparación, se van alimentando en el equipo de fusión e inyección (Ver Figura 6), de forma paralela, fibra y polímero. Con descarga libre, se va segmentando el flujo de salida para configurar las pre-formas que son almacenadas momentáneamente hasta que se comienza el proceso de preparación de los especímenes de material compuesto (MC) de cada corrida experimental. Figura 4: Equipo utilizado para la preparación de materiales. De las muestras del material compuesto, se sacan los especímenes para distintos ensayos, entre ellos los de DSC y DMA (Ver figura 5). 3. RESULTADOS Y DISCUSIÓN. A partir del ensayo de Calorimetría Diferencial de Barrido (DSC) se pudo comprobar que la presencia de las fibras, no cambió sustancialmente la temperatura de fusión tanto para el polímero (Ver Figura 5) como para el MC (Ver Figura 6), la cual se encuentra en el entorno de 109 grados Celsius para el primero y 106 grados para la muestra M128, de material compuesto. La primera transición vítrea, se observa a -40 Grados para la muestra de PEBD y se mantiene la misma transición, para la muestra de material compuesto, en el intervalo estudiado. El material compuesto no va a presentar fallas por fragilidad a temperaturas superiores a estas, manteniendo la buena resistencia a las bajas temperaturas que tradicionalmente exhibe el PEBD. Siguiendo el criterio del DSC a temperaturas superiores a 106 grados, ya hay condiciones para moldear el material compuesto, aunque en el caso del polímero puro, tecnológicamente se prefiere trabajar a temperaturas mayores buscando mayor fluidez y productividad. 5 Figura 5: Termograma DSC de doble barrido de la muestra del PEBD utilizado como matriz. Figura 6: Termograma DSC, segundo barrido, de la muestra M128 de Material compuesto. El comportamiento viscoelástico, para la matriz polimerica (Ver Figura 7) y para el material compuesto (Ver Figura 8), a distintas temperaturas, fue también estudiado y correlacionado con los datos de DSC debido a su incidencia en el proceso tecnológico y en el desempeño de componentes fabricados con este tipo de material. Observando el grafico de módulo de elasticidad, simultaneado con el gráfico de Tangente_Δ, para la matriz, se puede observar que, entre 20 y 50 grados el módulo de elasticidad se ha reducido a la mitad y el material ha comenzado a dar síntomas de inestabilidad como sólido. Desde el punto de vista tecnológico, ya puede haber reservas para un conformado, no muy profundo, a esa temperatura de 50 grados, en cambio, para la resistencia mecánica en alguna aplicación ya comienza a ser cuestionable su utilidad. Para la muestra M128 (Ver Figura 8), de material compuesto, en ese mismo intervalo comparado inicia con valores 10 veces mayores para terminar con valores 20 veces mayores al final del intervalo, no observándose signos de inestabilidad como solido hasta temperaturas mayores que 100 grados lo que indica, dos cosas: Una, que el material reforzado con fibra debe moldearse a temperaturas más cercanas o mayores que la temperatura indicada por DSC, como temperatura de fusión de la matriz, en cambio, la temperatura de posible uso del material, se eleva casi hasta los 80 grados, al menos en intervalos, 30 grados más que sin refuerzo, manteniendo una rigidez entre 11 y 18 veces mayor en todo ese intervalo. 6 Figura 7: Termograma DMA, de la muestra del PEBD utilizado como matriz. Figura 8: Termograma DMA, de la muestra M128 de Material compuesto. 4. CONCLUSIONES. Los valores de temperatura a utilizar en el termoconformado del MC de fibras de henequén en matriz de polietileno de baja densidad son considerablemente menores a los indicados para moldear este polímero en procesos tradicionales como el de inyección, lo que indica también que la degradación, por calentamiento, debe ser mucho menor. Las propiedades mecánicas de las piezas fabricadas con este polímero y reforzadas con fibras de henequén son considerablemente superiores, como predice el diseño del material, con la ventaja añadida de que su temperatura de servicio se incrementa considerablemente. 7 RECONOCIMIENTOS La mayor parte de este trabajo se Hizo con el patrocinio del proyecto CAPES-MES No: 142/11 Titulado: Desarrollo de Materiales Nanocompuestos de Matriz Termoplástica Reforzados con Bentonita Organofílica cubana y Arcillas de Brasil. Es imposible concluir este trabajo sin dejar de reconocer a la Universidad de Sao Paulo, Brasil y al laboratorio LAREX, perteneciente al Área de Metalurgia y Materiales de la Escuela Politécnica de la Universidad de São Paulo (USP), que puso a nuestra disposición su equipamiento para la realización de estos estudios. A la Universidad Presbiteriana Mc Kenzie, de Sao Paulo, Brasil, que gentilmente puso a nuestra disposición a su personal técnico y equipamiento. A la Empresa agroindustrial “Antonio Berdayes” del Ministerio de Agricultura, de Matanzas, Cuba el agradecimiento por suministrar la mayor parte del material experimental, a la Empresa EMPROMAVE, del Ministerio de Educación por su ayuda, también material y a La Empresa Hidroplast, de La Habana, Cuba quien colaboró en las caracterizaciones que se hicieron a todos estos materiales. REFERENCIAS 1. VALADEZ, A., et al “Effect of fiber treatment on the fiber-matrix bond strength of natural fiber reinforced composites”. Composites: Part B. 1999, Vol. 30, p. 309-320. ISSN 1359-8368/99/$ 2. DÍAZ, D, et al “Comportamiento mecánico de fibras henequén cubano e interfase con polímeros termoplásticos del tipo poliolefina” Ingeniería Mecánica. Vol. 18. No. 3, septiembre-diciembre, 2015, p. 148- 157. ISSN 1815-5944 3. LI, H., et al "On the Dynamic Performance of Flax Fiber Composite Beams Manufactured at Different Relative Humidity Levels" Journal of Natural Fibers. 2018. https://doi.org/10.1080/15440478.2018.1507864 4. FAN, Z. et al "Estimation of the Molding Thickness of Knitted Fabric Reinforced Thermoplastic Composites Produced by Hot-pressing" Journal of Thermoplastic Composite Materials. 2007 Vol 20 p 487. https://doi.org/10.1177/0892705707082327 5. SENTHIL-MUTHU-KUMAR, T. et al "Characterization, thermal and dynamic mechanical properties of poly(propylene carbonate) lignocellulosic Cocos nucifera shell particulate biocomposites" Mater. Res. Express 6 (2019) 096426, https://doi.org/10.1088/2053-1591/ab2f08 6. LIMAYE, M. et al "Thermoforming process effects on structural performance of carbon fiber reinforced thermoplastic composite parts through a manufacturing to response pathway" Tiger Prints, 2-2022, Clemson University. URL:https://tigerprints.clemson.edu/mecheng_pubs/37 7. SHUNMIN, Y. et al "Synergistic toughening effects of grafting modification and elastomer-olefin block copolymer addition on the fracture resistance of wood particle/polypropylene/elastomer composites" Materials and Design 181 (2019) 107918. https://doi.org/10.1016/j.matdes.2019.107918 8. GUNTHER, D et al "3D Printed Sand Tools for Thermoforming Applications of Carbon Fiber Reinforced Composites—A Perspective" Materials 2021, 14, 4639. https://doi.org/10.3390/ma14164639 9. WOIGK, W. et al "Damping behaviour of bio-inspired natural fibre composites" Proceedings ECCM18 - 18th European Conference on Composite Materials, Athens, Greece, 24-28th June 2018 10. ASTM D4065. Standard Practice for Plastics: Dynamic Mechanical Properties: Determination and Report of Procedures. Philadelphia, United States, ASTM International. 2012 1 PRODUCCIÓN DE UN ACERO INOXIDABLE NITROGENADO RESISTENTE A LA CORROSIÓN POR PICADURA PARA EMPLEAR EN IMPLANTES OSEOS. Andrés Parada Expósito. (1) Sandra del Carmen Ofarrill Enrique (2) Demetrio Papamantellos (3) Gert De Vos (4) (1) Universidad Tecnológica de la Habana. CUJAE. Habana, Cuba. e-mail: Andres410109@gmail.com (2) Universidad Tecnológica de la Habana. CUJAE. Habana, Cuba. e-mail: sofarril@mecanica.cujae.edu.cu (3) ELKEME.Instituto de Investigaciones para metales. Atenas, Grecia. (4) OCAS NV. Centro de Investigaciones, Ghent, Bélgica. RESUMEN Este trabajo responde a un proyecto en ejecución en Cuba, con la adquisición de un horno de vacío de 100Kg, por una empresa nacional y lograr aleaciones para implantes óseos. Por proyecto internacional y de cooperación con la Universidad de Ghent (Bélgica) y del centro ELKEME (griego) con el que se probaba un Ferro Níquel (Larco griego) se obtuvo una aleación inoxidable W.N.r 1.4462 (X2CrNiMoN) con 0.1% de N dentro de los estándares con un mínimo de inclusiones para ser probado como material biocompatible en implantes ortopédicos, con elevadas propiedades mecánicas Max Rst 650 - 880 (N/mm2). - Resiliencia R impacto ≥ 100 Joule. y elevada plasticidad. Se funde y se vierte en Horno de Inducción al vacío de 100 Kg. El vertido 1560oC en el Horno de vacío, el laminado (1000 – 1200) oC, el tratamiento térmico (solubilizarían 1020-1100 oC enfriamiento en aceite) Se utiliza en la producción de la aleación como una de las materias primas el Ferro Níquel LARCO (griego). La atmosfera utilizada fue de Argón y se obtuvo la nitrogenacion con materiales de aporte en la carga, como Ferro Níquel, Ferro Cromo, Ferro-Manganeso. PALABRAS CLAVES: inoxidable, nitrogenado, prótesis, fijadores externos, ortopedia. ABSTRACT This work responds to a Project in execution in Cuba, with the acquisition of a vacuum furnace of 100Kg by a national company to obtain alloys for bone implants. In the frame of an international project and in cooperation with the University of Ghent (Belgium) and the ELKEME center research (Greece) with which a Ferro Nickel (Greece Larco) was tested; a stainless alloy W.N.r 1.4462 (X2CrNiMoN) was obtained with 0.1% of N having a level on inclusions within the minimum requirements to be tested as biocompatible material in orthopedic implants and with high mechanical properties (650 - 880 (N/mm2). –impact resistance ≥ 100 Joule. and high plasticity. It is melted in a 100 Kg vacuum induction furnace and poured at 1560oC.Rolling occurs at 1000- 1200 oC followed by a heat treatment that includes solubilization at 1020-1100 oC with subsequent quenching in oil. The Greek Ferro Nickel LARCO is used in the production of the alloy as one of the raw materials. The atmosphere used was Argon and the nitrogenation was obtained charging materials such as Ferro-Nickel, Ferro chromium, Ferro Manganese. INTRODUCCION. – El campo de los biomateriales ha experimentado un gran avance en los últimos años. Una motivación importante para ello ha sido el mejoramiento en la calidad de vida, lo cual se ve reflejado en el crecimiento acelerado del 2 uso de prótesis, implantes, sistemas y aparatos médicos que deben trabajar en contacto con los tejidos corporales,se evalúan nuevos materiales, nuevas composiciones químicas, Ejemplo: fermanal a base de Al y Mn ¡1), y evaluación de los efectos de los componentes en las propiedades mecánicas ,biocompatibilidad (2)(3)(4) fatiga, limite elástico, relaciones propiedades costos diferentes soft para seleccionar materiales, diferentes métodos de producción , conformación fundición impresión 3D , prótesis personalizadas,etc (5)(6)(7) después de una amplia revisión bibliográfica siempre caemos en un método tradicional que se adapta para nuestro país ,fundición-cera perdida y maquinado. Los materiales clásicos titanio. CrCoMo, y los aceros inoxidables y dentro de esto los nitrogenados son vanguardia en cuanto costo-beneficio. (método tradicional con fundición al vacío el efecto (8)(9). Haciendo un análisis de las características y problemática de los Aceros inoxidables clásicos para prótesis y la necesidad de encontrar materiales más baratos que las aleaciones de titanio y Cromo-cobalto-molibdeno (Cr-Co- Mo), así como también las buenas propiedades de aceros inoxidables nitrogenados para condiciones de biocompatibilidad, es que se propone un estudio de producción con hornos de inducción y vacío. Los primeros aceros inoxidables en implantes quirúrgicos fueron el acero 18Cr -8 Ni, siendo utilizados en piezas para fijaciones internas de fractura, este material es susceptible del ataque de los ácidos y sales del cuerpo humano. A partir de l926 se le adiciona 2-4 % Mo y el contenido de carbono se lleva a 0.08% C consiguiendo de esa forma aumentar la resistencia a la corrosión por picadura. Después de la década del 40, en investigaciones más intensas fue producido el acero inoxidable 304 L y 3l6L con un bajo %C, de fácil laboriosidad en caliente y en frío, al tener (%C< 0.03% C) disminuye la susceptibilidad a la corrosión ínter granular. Dentro de los aceros austeníticos el 316L, es el más utilizado en la ortopedia. La gran aplicación en este campo proviene de su elevada resistencia a la corrosión, buenas propiedades mecánicas y bajo costo. Sin embargo, cuando este material entra en contacto con el ser humano durante un periodo de tiempo prolongado se detectan fallos, lo que conlleva al rechazo del material por el organismo. El análisis de injertos recuperados demuestra el fracaso del 316L debido al ataque localizado. . Composición del 316 y 316L (en %). -Las composiciones son similares, la diferencia está en el contenido %C, el 3l6 contiene 0.08% C y el 316L contiene 0.03% C. Tabla 1.-Características Principales de los inoxidables 316 y 316L.- Elementos Cr Ni Mo Mn P C S Si Fe ASTM 16 – 18 12 – 14 2.00 2.00 0.075 0.02 0.03 1.00 Balance Tipo Condición Resistencia a la rotura [MPa] Límite elástico [MPa] Elongación % 316 Recocido 515 205 40 Terminado en frío 620 310 35 Trabajado en frío 860 690 12 316L Recocido 505 195 40 Terminado en frío 605 295 34 Trabajado en frío 860 690 12 El contenido de carbono es reducido a 0.02 % debido a la precipitación de carburos (Cr23C6) en los límites de grano que produce la corrosión ínter cristalina y fragiliza al acero. Se le añade cromo para aumentar la resistencia a la corrosión. 3 Se le añade níquel para proporcionarle la fase austenítica, homogénea. Para considerar al acero de buena calidad en su uso ortopédico debe ser: Austenítico ;Sin ferrita ;Sin carburos; Tamaño de grano uniforme; Tamaño de grano menor que 100 m Tabla 2.- Valores máximos del contenido de inclusiones UNE 36-431 para inoxidables empleados en prótesis. – Tipos de Inclusiones Valores máximos Serie fina Serie gruesa A- Sulfuros 1.5 ( 4um) 1 (6um) B- Aluminatos 1.5 (9um) 1 (15um) C-Silicatos 1.5 (5um) 1 (9um) D-Óxidos ,tipo globular 1.5 (8um) 1 (12um) Hoy son empleados aceros inoxidables austeníticos ASTM F138 (ISO 5832-1) y ASTM F1586 (ISO 5832-9), Tabla 3 los cuales presentan estructuras austeníticas, libre de ferrita fase sigma y precipitados. Estos materiales son no magnéticos, poseen alta pureza, no presentando inclusiones que disminuyan las propiedades del acero. Estos materiales son solubilizados con un tratamiento térmico entre 1020-1050°C y el F1586 entre 1030-1060° C; con mantenimiento según su espesor y enfriados en agua. Hoy en día se desarrollan los Aceros inoxidables nitrogenados para prótesis Tabla 3.-Aceros inoxidables nitrogenados para prótesis Elemento %Cr % Mn %Mo %N %C %Si %Ni %Nb ASTM-F138 17,50 1,69 2,70 0,068 0,01 0,16 14,50 -- ASTM-F1586 21,06 3,62 2,44 0,37 0,017 0,16 10,60 0,40 Böhler P558 16,70 9,90 3,30 0,48 0,16 0,40 0,014 -- ASPECTOS TEORICOS A CONSIDERAR. - ACEROS INOXIDABLES NITROGENADOS (1). - El N se disuelve en la red de forma intersticial y estabiliza la austenita, esto hace que aumente la resistencia mecánica, la ductilidad, la resiliencia, el compromiso entre aumento de resistencia y ductilidad y además aumenta la resistencia a la corrosión por picadura, (inhibe la corrosión por picadura). Puede sustituir al Níquel o parte de él en los inoxidables por su papel de estabilizador de la austenita, o sea que puede aumentarse el cromo y evitar la aparición de compuestos nocivos en borde de grano. En la Fig. 1 correspondiente al diagrama de fase Fe-Cr se puede observar la reducción del campo de estabilidad de la austerita a temperaturas entre 850-1400° C para contenidos máximos de 12% Cr. Los campos de estabilidad de la austerita se mueven según los otros elementos de aleación (10).El Mn elemento gammágeno aumenta la estabilidad de la fase austenita hasta 12%, encima de este contenido estabiliza la ferrita. (11). 4 Figura 1: Influencia del Cr en la estructura Según la Fig. 2, se observa que, con pequeños contenidos de C y N, se amplía la estabilidad de la austenita, se observa que con contenidos de 0.25% N y 0.05%C el campo de la austerita llega hasta 28%Cr. (10). Figura 2.-: Influencia del C y N en la ampliación de la fase austenítica. Son considerados aceros inoxidables de alto contenido de nitrógeno con > 0.1 - 0.4% N (9). La obtención de los aceros inoxidables nitrogenados por fusión es complicada debido a la absorción del N en el estado líquido, y la dificultad de fijarlo en la solución sólida (13). -En la Fig. 3 se muestra la variación de la solubilidad del nitrógeno en hierro puro para diferentes temperaturas 5 Figura. 3.-Solubilidad del N en hierro puro (9). - Fig. 4.- Solubilidad del N en aleaciones Fe-Cr. (12). La solubilidad responde a la Ley de Sieverts   2 % NX N P f K N  Donde %N: Porcentaje de N en solución en el estado líquido 2N P : Presión parcial de nitrógeno a una temp. dada K ; X Nf : Parámetros de interacción. Se observa según la Ley de Sieverts que aumentando la presión del N aumentamos la solubilidad en el líquido. COMPORTAMIENTO DEL NITRÓGENO DURANTE LA FUSIÓN DEL ACERO. - En casi todos los métodos de producción de acero al carbono y de baja aleación el contenido de nitrógeno se encuentra en los límites 0.002—0.008 %,cuando se funden aceros alto aleados inoxidables, la cantidad de nitrógeno disuelto puede llegar a 0.018—0.035 % .La concentración de N más elevada se alcanza en los aleados con Cromo (Fig. 5),Manganeso ,Vanadio, Titanio, Aluminio, en procesos básicos con escorias blancas y más con escorias carbídricas ,cuando se burbujea el nitrógeno y se trabaja con presión positiva se puede aumentar los contenidos normales ,Los materiales de carga son fuente importante en la introducción del nitrógeno ,así como los desoxidantes ,las ferro aleaciones y la atmósfera del horno. 6 Figura. 5- Solubilidad del nitrógeno en el hierro líquido con diferentes contenidos de elementos a una temperatura de 1873 o K (1600 o C) (14). CORROSIÓN INTERCRISTALINA DE INOXIDABLES NITROGENADOS. - Las precipitaciones de los carburos de Cromo en borde de grano debilitan en Cromo las zonas cercanas al borde por lo que se promueve la corrosión ínter cristalina de los inoxidables austeníticos, la nucleación y crecimiento de estos carburos es inhibida o prohibida por la adición de nitrógeno. (15) (16). En datos presentados por investigadores chinos (17) (18) (19) se presentan resultados que demuestra que la resistencia a la corrosión ínter cristalina está relacionada con la adición de un valor moderado de Nitrógeno, para aleaciones 0.04-0.05%C; 18-19%Cr; 8-9 %Ni. según se observa en las Figs. 6 y 7. Figura. 6.-Razón de corrosión en 65% ácido nítrico mojado a 650oC por 120 minutos y enfriado al aire. Figura 7.- Cambio en la distribución de cromo cruzando los bordes de granos debido a la aleación con nitrógeno EDAX in JEOL –2000FX. PARTE EXPERIMENTAL. - Se funde y se vierte en Horno de Inducción de 100 Kg al vacío un inoxidable W.N.r 1.4462 (X2CrNiMoN) con 0.1% de N con un mínimo de inclusiones para ser probado como material biocompatible, en próximas etapas 7 corresponde bajar el contenido de Ni, aumentar el Mn y se harán los ensayos de resistencia a la corrosión y los ensayos de biocompatibilidad. RESULTADOS. – Aleación especial B090/ W.N.r 1.4462 (X2CrNiMoN) con alto grado de pureza. standard DIN 50602 K4 ≤ 40. Elevadas propiedades mecánicas Max Rst 650 - 880 (N/mm2). - Resiliencia R impacto ≥ 100 Joule. y elevada plasticidad, pero con un límite elástico que se corresponde dentro de las normas para varios tipos de prótesis. Elevada resistencia a los ácidos y a la corrosión por picadura y stress corrosión. La fundición de esta aleación se llevó a cabo en horno de inducción al vacío, así como también el vertido, lográndose con esta tecnología un alto grado de limpieza, se realiza una desoxidación con alta eficiencia. La aleación presentaba como norma de composición de nitrógeno 0.1 a 0.22, el nitrógeno se introdujo con los materiales de carga, ferro-aleaciones rica en nitrógeno. Además, la composición química de la aleación el contenido alto de cromo y el bajo níquel permite lograr mayor absorción de nitrógeno. Las principales características de la aleación propuesta para este caso por Standard “Key of the Steel”. (llave de los aceros) y los resultados después de la fusión y vertido 1560 oC en el Horno de vacío, el laminado (1000 – 1200) oC, el tratamiento térmico (solubilizarían 1020-1100 oC enfriamiento en aceite) y la caracterización mecánica son: Tabla.4.-Composicion química Tabla .5.-Resultados de las propiedades mecánicas . En la Figura 8, aparecen las dimensiones de los bloques fundidos y cortados para laminar. W.N 1.4462 deseado Resultado C 0.03 0.03 Mn 2.00 1.66 Si 1.00 0.91 P 0.02 0.02 S 0.015 0.016 Cr 22 21.28 Ni 5.5 5.54 Mo 3 3.49 N 0.1 0.1 W.N 1.4462 Wish Results (N/mm2) Max Rm 650-880 686.7 (N/mm2) Yield point Max Re > 450 487.6 % Deformación lo=5do 25 32 Reduction of área (%) 40 41 Resilience R impact (Joule) ≥ 100 186.1 8 Figura 8.-Dimensiones del bloque fundido y los sectores cortados para laminar. RESULTADOS DEL ESTUDIO SOBRE INCLUSIONES. – Este estudio fue hecho en un analizador de imágenes y se empleó un software para el procesamiento de los resultados en Ghent University, y en Metallographic Laboratorio de ELKEME’ Atenas -Grecia por el método óptico y standard DIN 50602. El SMn o el oxide-sulphur (oxide –Si and Al mezclado con SMn) forma el principal grupo. -En la foto de inclusiones se muestran las típicas inclusiones de la muestra, y presenta el SMn con un anillo exterior de inclusiones de óxidos. para algunos casos. Las inclusiones son muy pequeñas. Se muestra en la tabla resumen que para 700 inclusiones por muestra el tamaño medio de las mismas no sobrepasa 5 micrones.En el laboratorio metalográfico de Elkeme, por metalografía óptica usando el standard DIN 50602 los resultados fueron. Tabla 7.- Table of Results about study of inclusions using the standard DIN 50602 Designation Total index K4 Type of steel B090 34 Stainless Steel CONCLUSIONES. Con la Tecnología de Horno de inducción de vacío se lograron los parámetros adecuados para esta aleación de inoxidable con alto nitrógeno, empleando Argón como gas protector, ferro aleaciones con alto contenido de N y ferroníquel Larco y que a su vez puede aplicarse en implantes óseos según estándares exigidos por normas internacionales ISO. 9 BIBLIOGRAFÍA. – 1. Aperador W., Melgarejo ,M. Ramírez Martín ,C. "Evaluación mecánica y electroquímica de una placa de acero 316 LVM". Revista Mexicana de Ingeniería Química Vol. 12, No. 2 (2013) 337-344 2. Caballero Sarmiento, J., Correa Muñoz, E. Revista chilena. Scielo. Chile. "Análisis de la biocompatibilidad de Ti6Al4V y acero inoxidable 316 LVM". Rev. chil. ing. vol.25 no.1 Arica ene. 2017 3. Hernández ABG, Ávila VA, "Comparación de ti6al4v y acero inoxidable 316 L", 2019. Rev Mex Med Forense, 4(sup 1):29-31 ISSN: 2448-8011 4. Monzamodeth Román S." Estudio de acero inoxidable 316L de uso quirúrgico". Centro de Investigación en ingeniería y ciencias aplicadas Universidad Autónoma del estado de Morelos enero 2019 5. Salem, H. S., Marchand, K. B., Ehiorobo, J. O., Tarazi, J. M., Matzko, C. N., Sodhi, N., et al. “Benefits of CT Scanning for the Management of Hip Arthritis and Arthroplasty”. Surgical Technology International, 36, 2020. 6. Saeed, S., Rouein, H., Shokoufe, T., Alimorad, R." Neural network and genetic algorithm for modeling and optimization of effective parameters on synthesized ZSM-5 particle size", Materials Letters, 136 (2014) 138. 7. Tsoulfas G., Petros I. Bangeas, Jasjit Suri, “3D Printing: Applications in Medicine and Surgery”. Elsevier, 1a Ed., 2019. orthroplasty”. International Orthopaedics, 1-6, 2020. 8. prótesis quirúrgicas. ogy International, 36, 2020. (Bou-Saleh (Bou-Saleh y col., 2007; Shahryari y col., 2008). 9. Speidel, M.O." Properties and application of high nitrogen steels. High Nitrogen Steels 88". The Institute of Metals. Londres, p. 94.1989. 10. Padilha, A.F.; Guedes L.C. "Aços Inoxidáveis Austeníticos. Microestrutura e Propriedades". Hemus Editora limitada. Brasil. 1994. 11. Gavriljuk, V.G.; Berns, H. High Nitrogen Steels. Structure, proprieties, manufacture, applications. Editorial Springer. Alemanha 1999. 12. Stein, Hucklenbroich and H.K. Feichtinger. Current and future applications of high nitrogen steels p 151-160. Proceed of the HNS .Conf 1998 Espoo/ Stockholm ,Finland /Sweden. 13. Tschiptschin, A.P.; Aidar, C.H.; Neto, F.B.; Alonso-Falleiros, N. – "Nitrogen Bearing Austenitic Stainless Steels for Surgical Implants" – HNS 98 - Materials Science Forum, vol. 318-320, p. 569, 1999. 14. Smirnov N."Producción de Acero". Texto. Editorial Pueblo y Educación. Cuba.1984. 15. Bryant C.L. , Mulford and E.L Hall "Corrosion" ,38 (1982) 9, 468-477. 16. Shying Lu." Stainless Steel. Nuclear Power Publishing hous"e. Beijing 1995.(202-206). 17. "Fabricación de prótesis por el proceso de fusión y vaciado de precisión". http://cdigital.dgb.uanl.mx/te/1020146078/1020146078_03.p 18. Caracterización electroquímica de fermanal. https://node1.123dok.com/dt02pdf/123dok_es/003/105/3105508.pdf 19. iyuan Iron and Steel Corporation, Taiyuan 03082, China . DESARROLLO TECNOLÓGICO PARA OBTENER ESTERAS FUNDIDAS EN MOLDES DE ARENA, TRATADAS TERMICAMENTE DE ACERO HADFIELD CON CROMO. TECHNOLOGICAL DEVELOPMENT TO OBTAIN MATS CAST IN SAND MOLDS, HEAT TREATED FROM HADFIELD STEEL WITH CHROME. Francisco Mondelo García1, Mario Luis Fernández Tamayo2, Andrés Parada Expósito3 1 Universidad Tecnológica de La Habana CUJAE, Calle 114 entre ciclovía y rotonda, Marianao, La Habana, 2 Centro de Investigación del Transporte, Autopista Novia del Mediodía y calle 161, Valle Grande, La lisa, La Habana, 3 Universidad Tecnológica de La Habana CUJAE, Calle 114 entre ciclovía y rotonda, Marianao, La Habana. 1e-mail: mondelo@mecanica.cujae.edu.cu, 2e-mail: mariofernandeztamayo@gemail.com, 3e-mail: parada@mecanica.cujae.edu.cu RESUMEN En esta investigación se realizó el desarrollo tecnológico para fabricar en Cuba las esteras de un vehículo blindado, debido a su funcionamiento estos elementos de máquinas están sometidas a elevadas cargas y desgastes combinados, por lo que son fabricadas de aceros Hadfield, este material combina alta tenacidad, ductilidad y elevada resistencia al desgaste, el método de fabricación propuesto fue la fundición en arena con mezcla de moldeo autofraguantes. Se analizaron las esteras fundidas en Cuba, evaluando su composición química, microestructura y propiedades mecánicas, en busca de posibles defectos durante el proceso de fabricación, además del estudio de simulaciones por el Método de Elementos Finitos (MEF) del proceso de fundición de las esteras, con vertido y obtención por fundición en moldes autofraguantes, asumiendo disímiles variantes tecnológicas de disposición de la pieza en el molde. Se decidió fundir dos piezas por molde, con plano divisorio de molde recto o inclinado, el flujo técnico-productivo por operaciones con proceso de moldeo en mezcla autofraguante, hornos eléctricos fusores básicos e instrucciones tecnológicas operativas, junto a controles del proceso y el producto final. Se realiza el análisis medioambiental y valoración económica, posibilitando producir esteras nacionales a menor costo, sustituyendo importaciones. PALABRAS CLAVES: aceros austeníticos al manganeso (Hadfield), matriz austenítica ABSTRACT In this investigation technological development is carried out to manufacture in Cuba the mats of an armored vehicle, due to their operation these machine elements are subject to high combined loads and wear, so they are made of Hadfield steels, this material combines high toughness, ductility and high resistance to wear, the proposed manufacturing method is sand casting with self-setting molding mix. Bread from cast mats in Cuba are analyzed, evaluating their chemical composition, microstructure and mechanical properties, looking for possible defects during the manufacturing process, in addition to the study of simulations by the Finite Element Method (FEM) of the bread casting process of mats, with pouring and obtaining by casting in self-hardening molds, assuming dissimilar technological variations in the arrangement of the part in the mold. It was decided to melt two pieces per mold, with a dividing plane of a straight or inclined mold, the technical-productive flow for operations with a self-hardening molding process, electric basic melting furnaces and operating technological instructions, together with controls for the process and the final product. The environmental analysis and economic valuation are carried out, making it possible to produce national mats at a lower cost, substituting imports. KEY WORDS: austenitic manganese steels (Hadfield), austenitic matrix. 1. INTRODUCCIÓN La fundición es una de las tecnologías de manufactura del material más antiguas de la humanidad, entre la gran variedad de tipos de fundición existentes, la fundición en moldes de arena es la de mayor utilización a nivel mundial por su economía, flexibilidad, gran variedad de aleaciones que se pueden fundir y arenas que se pueden utilizar para elaborar los moldes [1,2]. Se han desarrollado teorías y modelos matemáticos para explicar las propiedades de los metales mientras ocurre el proceso de solidificación en los moldes. Los programas de simulación fueron desarrollándose a partir de estos métodos los cuales son útiles prediciendo como resultará la fundición. Los posibles defectos y problemas que pueden presentar los productos antes de ser fundido, evitando costos adicionales de prueba [3,4]. Investigaciones desarrolladas por Ktari [4], integran la modelación de procesos basados en el método de los elementos finitos MEF, con redes neuronales y algoritmos para predecir, optimizar y validar el comportamiento de procesos de llenado, sistema de alimentación, gradientes de temperatura y velocidad durante la fundición en moldes de arena de aleaciones de aluminio, se destaca el ahorro de tiempo, la exactitud de estos métodos y la posibilidad de resolver problemas no lineales de manera rápida y efectiva con la utilización de avanzados algoritmos computacionales. La inclinación del molde de arena durante el llenado es una de las acciones realizadas para disminuir defectos de fundición en piezas grandes, estudios realizados por el MEF para predecir defectos en el proceso de fundición de un riel ferroviario fabricados de acero Hadfield, el cual requiere elevada calidad, revela que la inclinación del molde juega un papel fundamental en el control de la solidificación dirigida de las piezas, así como la disminución de porosidades, cavidades o rechupes, arrastres de arena y tiempo de solidificación, garantizando rieles con elevada calidad [5]. Sin duda la utilización de nuevas técnicas computacionales resulta una tendencia actual y novedosa en la optimización de los procesos de fabricación de piezas por fundición, permitiendo predecir posibles defectos en las piezas fundidas, comportamiento del material durante el llenado y solidificación del molde , diseño del sistema de alimentación, posición de la pieza en el molde y así validar la fabricación de productos de gran responsabilidad, con la limitación que el proceso simula un comportamiento ideal del material dentro del molde, parámetro a tener en cuenta por los investigadores en el desarrollo de una tecnología de fundición. Entre las técnicas avanzadas utilizadas para optimizar el proceso de fundición además de la utilización de potentes simuladores por métodos computacionales, se encuentra la impresión en 3D de elementos importantes como los modelos o plantillas, machos y demás elementos para la fabricación de piezas en moldes de arena, la calidad de este proceso depende del tipo de material utilizado, pero representa una ventaja eminente en comparación con los métodos tradicionales de fabricación en madera, cera, arena y otros materiales [6,7]. Soto, C [8] realiza un estudio sobre el proceso de fundición y simulación en moldes de arena de una aleación de aluminio A 380, utiliza la impresión en 3D del modelo o plantilla con filamento de polímero PLA, logrando mayor exactitud en las dimensiones finales de las piezas y ahorro de tiempo. En Sama, S [9] se destacan cuatro casos de estudios de piezas con configuraciones complejas, elevada responsabilidad y fabricadas con materiales ferrosos, empleando la fabricación en moldes de arena con la impresión en 3D de elementos importantes del proceso como los moldes y machos, apoyado de la simulación por el FEM del proceso, se destaca la reducción de los defectos como contracción, rechupes, porosidades e inclusiones en las piezas, la reducción del tiempo de fabricación, exactitud dimensional y calidad de las piezas fabricadas. El pan o eslabón de estera es una pieza fundida, con maquinado limitado, está sometida a elevadas cargas dinámicas de tracción y aplastamiento, además del continuo deterioro por desgaste abrasivo, corrosivo, combinados por choques e impactos. Para su fabricación es necesario utilizar el acero austenítico al manganeso, el acero Hadfield se caracteriza por su alta tenacidad y ductilidad, además de poseer una alta capacidad de endurecimiento por trabajo en frío y una buena resistencia al desgaste [10,11]. La microestructura luego del proceso de fundición está compuesta por granos de austenita y colonias de carburos precipitados en los bordes de granos, provocando fragilidad intergranular, disminución del endurecimiento por trabajo en frío, resistencia mecánica y al desgaste, elementos que pueden provocar fallas en la piezas, por lo que son necesarios realizar tratamientos térmicos de temple para garantizar las propiedades mecánicas adecuadas de las piezas al entrar en servicio, además de tratamientos termoquímicos favorable para su buen desempeño [12,13]. El objetivo de esta investigación es el desarrollo tecnológico para fabricar en Cuba las esteras de un vehículo blindado, debido a sus requerimientos funcionales son fabricadas de aceros Hadfield, el método de fabricación propuesto es la fundición en arena con mezcla de moldeo autofraguantes. Se analizan las esteras fundidas en Cuba de vehículos blindados, evaluando su composición química, microestructura y propiedades mecánicas, además del estudio de simulaciones por el Método de Elementos Finitos (MEF) del proceso de fundición de las esteras, con vertido y obtención por fundición en moldes autofraguantes, asumiendo disímiles variantes tecnológicas de disposición de la pieza en el molde. Se deciden fundir dos piezas por molde, con plano divisorio de molde recto o inclinado, proceso de moldeo en mezcla autofraguante, hornos eléctricos fusores básicos e instrucciones tecnológicas operativas, junto a controles del proceso y el producto final. La falta de talleres especializados que incluyan: control del proceso, exigencias técnicas, requerimientos mecánicos y estructurales durante la fabricación de esteras fundidas con acero Hadfield, aparejado a un deteriorado equipamiento tecnológico, además de obtener semimoldes con mezclas de moldeo en verde (arena-bentonita-agua/aditivo) en mezcladores comunes y método convencional de moldeo (manual o semimecánico) a baja presión de compactación, sin implementar controles y/o valoración de parámetros de calidad en el proceso de fabricación; aparejado a una cualificación del personal productivo insuficiente, dificultan el avance y ejecución de los trabajos, para implementar esta producción a escala industrial periódicamente y lograr piezas fundidas sanas (bajo índice de defectos o rechazos). 2. MATERIALES Y MÉTODOS. Las muestras seccionadas y preparadas como probetas de piezas de estera, se le evaluaron su composición química, microestructura y propiedades mecánicas, tanto en bruto de colada fundidas en Cuba, como muestras de piezas importadas en servicio. Se analiza la modelación y simulación por el MEF del proceso de fundición de esteras, con vertido y obtención por fundición en moldes autofraguantes de piezas en acero Hadfield, asumiendo disímiles variantes tecnológicas de disposición de las piezas en los moldes, según plano divisorio del molde (PDM). Comportamiento mecánico, químico y estructural de la muestra de la estera en servicio (original). % C %Si %Mn %P %S %Cr %Mo %Ni %Al %Cu %V 1.16 0.92 13.7 0.06 0.014 0.7 0.097 0.91 0.034 0.16 0.015 El material clasifica según la norma ASTM A128 dentro del grado B2. Destacando los elementos principales de aleación como %C, %Mn, %Cr, %Si y %Ni. Figura 1: Microestructura de la estera en servicio a) 100X, b) 200X, atacado con Nital 5% [14]. La estera que se encontraba en servicio muestra una matriz austenítica con carburos finos en el interior del grano, además de estructura martensítica o endurecimiento de la matriz austenítica por trabajo en frío (acritud), pues la estera se encontraba sometida a cargas dinámicas de choques e impactos y desgastes combinados, lo que provoca movimiento de dislocaciones, maclas y compactación por deformación de la matriz, figura 1. Lo anterior evidencia incrementos de valores de dureza HB y microdureza HV en el acero Hadfield con tratamiento térmico y alto período de explotación en vehículos blindados y corrobora los resultados obtenidos por los autores en estudios de los mecanismos de desgaste de los aceros Hadfield [15,16,17]. Pruebas de fundición realizadas en la “Empresa Vanguardia Socialista”. Se fundieron coladas de prueba con plantilla de madera, aleación adecuada, sistema de alimentación y tecnología de moldeo. Figura 2: Eslabón de esteras fundido en la empresa Vanguardia Socialista. Fuente: autores. Se obtiene un mal acabado superficial, esto se debe a la utilización de arena de sílice, pintada con pintura base circonio, los cuales tienen características ácidas y el acero Hadfield, requiere de elementos con características básica, provocando interacciones metal-molde. Como segundo problema se tiene la aparición de una pequeña zona de rechupe en la parte plana superior de la pieza. %C %Si %Mn %P %S %Cr %Mo %Ni %Al %Cu 0,95 0,46 10,04 0,05 0,001 0,75 0,12 0,22 0,04 0,13 Los elementos principales del acero Hadfield, %C y %Mn quedaron por debajo en comparación con el eslabón de esteras rusa en servicio. Se emplean algunos componentes de aleación como Cr, Ni, Mo. Podemos concluir que el eslabón de esteras fundido en la Empresa Vanguardia Socialista, no cumple con las exigencias planteadas por los fabricantes. Pruebas de fundición realizadas en el Combinado Mecánico del Níquel (CMN). El corte para la elaboración de las probetas se realizó a todo lo largo del eslabón de estera, obteniendo probetas de 12 mm de espesor y dejando la superficie lo más recta o plana posible sin rugosidad, figura 3 (b). Figura 3: Eslabón de esteras fundido en el CMN [14]. Composición química y metalografía del eslabón de esteras fundido en el CMN. % Fe % C %Si %Mn %P %S %Cr %Mo %Ni %Cu 85,8 1 0,62 11,49 0,001 0,001 0,44 0,001 0,32 0,24 Por los valores de composición química, el material de la muestra del CMN cumple con los requisitos que exige la norma ASTM A128 y clasifica como de grado B1, según dicha norma. Mientras que los resultados del análisis químico medio por muestra después de tres chispazos de la estera en servicio, brindan un material que según la norma ASTM A128 exigida, se clasifica dentro del grado B2. Se puede observar que los %C, Mn, y algunos de los elementos de aleación como Cr, Mo, Ni, se encuentran por debajo en comparación con el eslabón de esteras ruso. Metalografía de microestructura. Se observa en la figura 4 la microestructura de la muestra fabricada en el CMN, se observa una matriz austenítica con carburos mayormente en bordes del grano, matriz presente en las piezas de aceros Hadfield luego del proceso de fundición, sin tratamiento térmico. Microestructura referenciada por todos los autores luego del proceso de fundición del acero Hadfield. La dureza promedio medida para el eslabón de esteras fundido en el CMN fue de 204 HV, mientras la medida en el eslabón de esteras original (ruso) fue de 397 HV, evidentemente superior a la fundidas en el CMN, esto se debe fundamentalmente a que la estera original se encontraba en explotación, por ende, su dureza es mayor por el proceso de endurecimiento por deformación en frío que experimentan los aceros Hadfield. Figura 4: Microestructura de las muestras a)-100X, b)-400X, c)-800X, ataque Nital 5% [14]. Análisis de los resultados de pruebas de simulación tecnológica de la estera. Los resultados de variantes tecnológicas analizadas con herramientas de simulación en condiciones de llenado y solidificación del acero Hadfield en molde de arena fraguado, empleando programa simulador Experto Tridimensional, muestran un material muy propenso a los problemas de contracción y sobre todo de rechupe en zonas masivas de no colocarse mazarotas, tal como muestra la en la figura 5 (a), con posición de la pieza en plano horizontal al plano de división del molde (PDM) y dientes hacia arriba, se observan zonas con posibles rechupes y cavidades, en zonas masivas y cambios de sección. Por tanto, el problema es saber colocar las mazarotas en zonas adecuadas, en los nudos masivos visibles, determinando donde y cuando se emplean, cantidad y colocación adecuada, junto a la alimentación del metal, para lograr piezas sanas y sin defectos. Una forma sencilla y eficaz para concentrar todos los defectos de rechupes en la pieza es la inclinación de la caja de moldeo. Para esto se colocó la pieza en distintas posiciones, y así ver cómo se comportan las zonas de rechupe. Caso 1: se colocó la pieza con el diente hacia abajo en posición horizontal, ver figura 5 (b). Caso 2: con el dienta hacia abajo e inclinada 20o, ver figura 5 (c). Caso 3: con el diente hacia arriba e inclinado 20o, ver figura 5 (d). Figura 5: Resultados de simulación del rechupe de las piezas [14]. La imagen resultante de simulación para el caso 1, figura 5 (b), indica que la pieza obtenida por fundición tendrá problemas de llenado, con aparición de rechupes en zonas de bordes finos superiores, laterales y en zonas aledañas de la pieza, mientras las zonas macizas quedan por debajo del PDM, es decir en la zona inferior de la pieza, las cuales son zonas que solidifican últimas, por eso es necesario el uso de mazarotas preferentemente laterales. El caso 2, figura 5 (c), con el diente hacia abajo e inclinación de la pieza 20 grados, muestra mucho menos cantidad de posibles rechupes en las zonas superiores de pieza, con ciertos destellos de coloración entre morado y rojizo en zonas de cambios de sección en la pieza (zonas finas a gruesas), acercándose al extremo superior de la parte alta de pieza inclinada, que muestra colores entre morado y violeta a azul intenso, esto supone usar en lado extremo de la pieza una mazarota con dimensión apreciable, junto a otras mazarotas de menor tamaño colocadas en puntos laterales como medidas extras de seguridad, para evitar residuo de rechupe en otras zonas. Con la posición del diente hacia arriba e inclinada a 20o, caso 3, figura 5 (d), en la pieza fundida el rechupe se concentra en tres zonas principales, en la parte más alta y extrema de pieza, producto de la inclinación, así como en la parte superior del diente colocado hacia arriba y en la base del diente por el lado de menor altura. Lo anterior indica la necesidad de mazarota de considerable dimensión en el extremo superior de la pieza, así como de menor dimensión, colocada en la parte alta del diente. Por tanto, la mejor variante simulada es la inclinada a 20o con diente hacia arriba, caso 3, ya que las zonas de rechupes se pueden agrupar y alimentar mediante las mazarotas con mayor facilidad que en restantes posiciones. No obstante, emplear este método de vertido de moldes inclinados, al desarrollar los racimos de moldes ensamblados es imposible, para moldes de piezas chicas, de querer aprovechar más el área productiva de vertido, no es aconsejable ni efectivo, lo que supone mantener el vertido de moldes en racimos acostados y PDM horizontal, para facilitar el vertido del acero. Resultados similares de simulación con inclinación del molde se obtuvieron por [5], donde se estudió del proceso de solidificación y disminución de defectos en la fundición de un riel de ferrocarril fabricado de acero Hadfield. 3. DESARROLLO TECNOLOGÍCO DEL ESLABÓN DE ESTERA FUNDIDO EN ACERO HADFIELD. AL CROMO Análisis de la pieza y su diseño constructivo por plano mecánico. El eslabón de estera (figura 6) es una pieza de configuración compleja, tipo placa longitudinal, con numerosas salidas y nervios de refuerzo, situados en distintos planos, lo que dificulta la salida de la plantilla. La estera es de gran precisión, principalmente en los agujeros de las orejetas, donde se colocan los bujes de caucho-metal y los pasadores para unir la cadena. Los orificios de las esteras se pueden obtener por fundición. En tanto, el acero Hadfield con que fabrican los eslabones de esteras no es maquinable, debiendo utilizarse el moldeo y el acabado como elementos claves cualitativos y sin defectos en piezas fundidas salidas del proceso de fundición, al igual que agujeros obtenidos sin maquinar, donde el diámetro interior de los orificios se debe rectificar por deformación plástica. Como aspecto positivo; los espesores de manera general son semejantes o casi iguales, favoreciendo un enfriamiento más uniforme de la pieza (figura 6). Figura 6: Plano simplificado del eslabón de esteras [14]. Determinación de la posición de la pieza en el molde y del plano divisor (PDM). En esta pieza el PDM pasa por el centro de los agujeros donde van los pasadores que unen las piezas para ensamblar la estera. Se tomó esta posición facilitando el moldeo de la pieza, dar comodidad en el apisonado, acabado, pintado, secado, montaje y control dimensional del molde, pocas partes sueltas, una sola división. Esta posición garantiza una correcta ubicación del sistema de alimentación, los machos utilizados ocupan durante el llenado la posición más estable. Por tanto, se toma la disposición del eje en el PDM para moldeo y la fundición en forma horizontal, ver figura 7. Figura 7: Plano de división del molde (P.D.M) [14]. Orificios de fundición y diseño de los machos. Para la fabricación de esta pieza fundida de pan o eslabón de estera con peso fundido aproximado de 17.5 kg (por cálculos y comprobada realmente) se necesitará la elaboración de tres machos (con mezclas de moldeo autofraguante químico de arena sílice y/o cromita, silicato Na y desmoldeante de polvo de carbón y aplicación de gas CO2, aunque puede sustituirse por mezcla autofraguante-AF con similares rellenos de arenas y resina con catalizador, proporcionarán mejor acabado y más prolongada durabilidad sin absorción de humedad), tanto a semimoldes, como a machos confeccionados, lo cual es característico de estos tipos de mezclas, que generan un residual polimérico policondensado; cuya fina capa envuelve los granos entre si y a los propios granos, volviendo a este material particulado compactado con carácter hidrófobo. La necesidad de confeccionar los tres machos para lograr las cavidades de pieza; es debido a la complejidad de la pieza y además porque el sistema de alimentación estará situado en plano de división de esta. Los dos primeros machos corresponden a los orificios de las orejetas, estos son en forma cilíndrica, por su longitud serán reforzados con una barra de acero que pase por el centro de las mismas. El tercer macho corresponde al diente hueco que posee la pieza. Este formará la cavidad del mismo, que por su forma no permite el desmoldeo. Todos estos elementos están representados en el plano tecnológico (croquis del molde en color verde (Izquierda) y en imagen en color azul (derecha), como se muestra en la figura 10; aunque un croquis de estos machos con sus dimensiones y configuración geométrica se muestran a continuación en figura 8. No 1 y 2 No 3 Figura 8: Configuración con dimensiones de machos cilíndricos No 1 y 2 y el No 3 con mezclas AF. Cálculo del sistema de alimentación. El sistema de alimentación usado en el eslabón de esteras fundido de acero Hadfield es a presión (presurizado), debido a no muy alta temperatura de vertido del acero Hadfield, requiriendo alta velocidad de llenado, que evite oxidación prematura del metal, no dificulte el llenado de la huella del molde que promueva la aparición de inclusiones no metálicas. Se toma la relación de colada para piezas de acero, teniendo en cuenta las dimensiones de secciones de alimentación, Aa: Ae: Atr = 1: 1,2: 1,6 (presurizado), según valores recomendados en la tabla 1, por referencia [14,18]. Tabla 1: Dimensiones normalizadas. Dimensiones normalizadas de los alimentadores. Área de la sección transversal (cm2) Aa Dimensiones en (mm) a b h r 1,6 55 52 3 0,3 Dimensiones normalizadas de los escoriadores. Área de la sección transversal en (cm2) Ae Dimensiones en (mm) a b h r=0,1 8 24 17 38 4 Dimensiones del tragadero. Diámetro del tragadero en (mm) Área del Tragadero en (cm2) Atr Dimensiones en (mm) R r H H1 50 19,63 29 10 60 15 Diseño de las mazarotas (método de los módulos). El módulo de la mazarota debe ser un 20% mayor que el de la pieza para que la alimente satisfactoriamente. La mazarota a utilizar debe ser cerrada, para aprovechar mejor el calor contenido, con el metal vertido y presurizado en el molde por gases calientes, a evacuarse del molde en la zona de mazarota, de donde la zona masiva de pieza se alimentará adicionalmente con metal extra, debe tener la suficiente cantidad de metal calculado y en estado líquido para el suministro a la pieza, teniendo en cuenta la utilización del metal extra en la mazarota, para la prevención de rechupes propios. Módulo de pieza. Este corresponde a una configuración geométrica parecida a la que posee la pieza, pero si la pieza se conforma de varias figuras geométricas como es el caso, hay que analizar el módulo de la pieza por cada sección de la figura geométrica, determinando cuales pueden ser propensas a rechupes y cuáles no [19,20]. En la figura 9 se representan las figuras geométricas en las que se divide la pieza analizada: Pieza 1: Plancha (1 partes). Pieza 2: Orejeta (7 partes). Pieza 3: Pieza en forma de pirámide hueca truncada. Mientras los resultados calculados del diseño constructivo y dimensiones de mazarota están reflejados en la tabla 2, por referencia [14]. Figura 9: Figura geométricas que componen el eslabón de esteras [14]. Tabla 2: Módulos y dimensiones de mazarotas mínimas en partes de pieza requeridas. Al usar menos mazarotas con PDM inclinado a 20o, respecto al plano del piso en el área de vertido, según figura 10, variante B, aunque es más factible en los resultados de simulación; en la realidad no es utilizable en producciones seriadas o masivas de piezas pequeñas y de poco peso como el eslabón de estera, por complicaciones en la organización técnica y productiva del área de vertido y baja productividad de moldes. Figura 10: Plano tecnológico de fundición [14]. Parte Pieza 1 Parte Pieza 3 Dimensión de mazarota mm Dimensión de mazarota mm Altura (Hm) 68 Altura (Hm) 50 Diámetro (Dm) 34 Diámetro (Dm) 25 Radio (r) 17 Radio (r) 12,5 Módulo Mazarota 7,44 Módulo Mazarota 5,16 Cant Mazar. Mm-1 2 Cant. Mazar. Mm-3 1 No obstante, para panes (eslabones) de esteras con mayor peso (pieza mediana) y dimensiones considerables, el vertido de moldes ensamblados con inclinación del PDM empleando menos mazarotas (figura 10, variante B); sería una opción efectiva para obtener piezas sanas. Por tanto, las anteriores variantes se lograría mayor aprovechamiento del área productiva, incrementando la productividad más moldes vaciados/colada en el taller, continuidad de moldeo sin paros por utillaje como cajas de moldeo, bajo estricto control operacional tecnológico, mejorando los indicadores cualitativos y específicos en el proceso de manufactura por fundición con mayor efectividad y rendimiento productivo. En variantes analizadas por simulación (ver figura 5) con selección en uso seriado y productivo de esteras pequeñas en peso y dimensiones con PDM horizontal o acostado (figura 10, variante A) sin inclinación, aunque usan más mazarotas, no causa problemas de alimentación o rechupe, siendo factible técnica y organizativamente en talleres de fundición, incrementar el área productiva de vertido, al implementar el sistema de moldeo y ensamble de moldes (sin cajas de moldeo) en racimos o niveles de moldes ensamblados (sin cajas o motas) y disposición de PDM vertical u horizontal, según figura 11 (casos A y B ). Figura 11. Variantes de moldes de racimos con par de semimoldes (cajas desarmables o motas sin cajas) Propuesta tecnológica para obtener esteras fundidas por refundida de cargas metálicas variables y método de moldeo con mezcla de arena autofraguante. La tecnología de fusión de los aceros Hadfield se puede realizar tanto empleando hornos eléctricos de inducción de crisol de mediana o alta frecuencia (HIC-MF o AF), es decir capacidad productiva del horno vs su frecuencia o de arco eléctrico de acción directa (HAE-AD) con refractario básico (espinela MgO- Al2O3) en ambos casos y fundente también básico. Existen dos procesos de fusión usados para los aceros (Hadfield), por refundición de chatarras y retornos con muy bajo o ningún material nuevo, así como por fusión primaria o secundaria de materiales nuevos y bajo nivel de chatarras y desechos. Aquí sería preciso utilizar materiales de carga metálica, compuesta de chatarras de acero al carbono o chatarras aleadas, chatarra de fundición gris no aleada (15-30%) y una proporción de retornos, reciclados como desechos no útiles del propio proceso de fundición (alimentación y mazarotado) no mayor del 30-40% Al establecer adecuado régimen térmico fusor en hornos eléctricos, usan carga metálica limpia, clasificada y seleccionada por peso y dimensión, así como aleantes o ferroaleaciones de alto %C como FeCr, FeMn y desoxidantes como FeSi, FeSiMn o FeMn de mediano %C. El fundente básico de cal (CaO) o dolomita calcinada (CaO-MgO) controla la basicidad en escoria y desulfuración, con espato flúor. El vaciado de metal a cazuela a elevada temperatura de recalentado (1560-1580 oC) desde el horno, con composición química óptima de aleantes ajustados. El acero recibiría una desoxidación parcial durante las etapa media y final de la operación de fusión y otra desoxidación final tras vaciarlo a cazuela y antes del vertido a los moldes ensamblados. Los semimoldes y machos mejoran sus propiedades mecánicas, durabilidad, sin crear defectos por moldeo con riguroso control de parámetros de calidad, empleando mezclas autofraguantes (AF) orgánicas (arena- resina-catalizador/aditivo) o combinando mezclas con compuestos orgánicos e inorgánicos (arena-álcalis Na-resina fenólica-aditivo-CO2) en semimoldes y machos por moldeo convencional semimecanizado o mecanizado con mezcladores continuos y mesa vibratoria para producciones seriadas variables. Otra opción en grandes o masivas producciones vertidas al instante; sería utilizar mezclas en verde (baja humedad 3- 4% y elevada resistencia), para moldeo mecanizado o automatizado con moldeadoras de media a alta presión de compactación (métodos de apisonado combinado), combinando métodos de compactación y vertido en poco tiempo, evitan en ambos casos defectos de fundición por moldeo o macheria. Los moldes y machos conformados con mezclas de arena autofraguante (AF) pueden usar arenas de cromita, cromo-magnesita o magnesita, aunque en capa superficial de contacto y el resto de mezcla AF (relleno) con arena silícea, debido a salto costo de estos materiales. Sería racional y económico usar mezclas de cara con arenas silíceas de alta calidad y magnesita (silicatos de magnesio) o forsterita (MgO-SiO2) y/o arenas de espinelas (Al2O3-MgO). Luego cubrir el resto de semimoldes con mezcla silícea de relleno y aplicarle capa de pintura estable y considerable a huella interior de molde con modelo o macho con caja de macho, conteniendo los mismos rellenos refractarios antes mencionados de carácter básico (base cromita, cromo-magnesita o magnesita) y diluyentes de alcohol con aditivos aglomerantes orgánicos o inorgánicos (controlando densidad), al aplicarse y secarse por flameo, evitan defectos superficiales de penetración metálica, rugosidad o costra de fundición. El vertido del metal líquido y desoxidado a los moldes compactados y ensamblados con machos también de mezclas autofraguantes (AF), pintados y ensamblados, debe realizarse de forma rápida y segura, a poca altura entre el labio (tapón) de cazuela y la abertura del cono (cubeta) de colada, evitando salpicaduras, entrada de escoria residual de metal oxidado y/o inclusiones extras de arena al metal. La solidificación y enfriamiento de metal en moldes forma la moldura, que adquiera forma y propiedades, determinadas, antes de extraerla como pieza fundida. El desmoldeo de piezas con sistema de alimentación en desmoldeadoras, logra limpieza primaria de residuos de arena en piezas y alimentación. Mientras la limpieza secundaria seria primero a mano con cepillos y terminaría en granallado con equipo lanza granalla metálica, limpiando totalmente las piezas y la alimentación de toda arena residual. Las piezas granalladas y limpias se rebabean y acaban, recibiendo al final la eliminación de esquirlas, rebabas, salientes, restos de alimentación o mazarotado. Esto permite revisar mejor las piezas, verificar dimensiones y posibles defectos. Las piezas de esteras terminadas reciben un tratamiento térmico de temple a 1050oC por (30-60min) de permanencia y revenido a 200oC, eliminando las tensiones térmicas residuales, logrando una microestructura y propiedades mecánicas adecuadas para la explotación. Impacto medioambiental de proceso de fundición en moldes de arena. Las áreas de moldeo, fusión, vertido, limpieza y acabado promueven la mayor contaminación medio ambiental por desechos, generados por materiales granulados, particulados o polvos en suspensión procedentes del mezclado, además gases, vapores calientes, tóxicos, partículas incandescentes en área fusora con el horno en mayor contaminación y el vertido con similares contaminantes y desechos orgánicos, que generan envenenamiento, enfermedad por metales pesados, productos de combustión gaseosos orgánicos. El área de limpieza y acabado al retirar arenas de piezas, alimentación y mazarotas, genera polvos particulados muy finos una vez eliminadas rebadas y residuos del corte de alimentación en piezas con el uso de muelas abrasivas, cepillos metálicos, chorros de arenas o perdigones metálicos. Todos los contaminantes sólidos son reciclables, la arena vuelve al circuito productivo, como el metal de alimentación y mazarotado al área de fusión. Los gases y polvos deben extraerse y recolectarse con medios de captación de contaminantes en forma forzada, separarlos y tratarlos con diversos dispositivos de captación (filtros de manga), recolección y limpieza, para reutilizarlos en el ciclo productivo u otros. Valoración económica del proceso de fundición de esteras en moldes de arena. Los gastos al fabricar eslabones de esteras fundidas (materias primas, adiciones, energía, insumos, equipos, salarios), por áreas productivas en moldes y machos con mezclas de arena, tiene costo unitario/colada de piezas fundidas (incluido con índice de defectos o rechazos), conformado para acero Hadfield, producido en la EMI Emilio Bárcenas Pier sobre 13666.61 USD/ton-piezas. Al salir 16 moldes/colada (1000kg), se obtienen 32 piezas/colada y el costo de fabricación aproximado por unidad sería de 239.17/pieza. El precio con 15% de incremento por ganancia es 14827.71/ton-piezas y 259.48 USD/pieza, más un 40% (aranceles por transportación) es 363.3 USD/unidad, con el incremento correspondiente por la crisis internacional y la guerra actual. Al comparar el precio nacional de fabricación (cambio realizado 24 CUP/USD) vs el valor de piezas semejantes en el mercado internacional al importarlo da 420 USD/pieza; más un 40% adicional por aranceles de trasportación estaría en 588.1 USD/pza. Entonces se tendrá un ahorro (363.3-588.1 = 224.8 USD/pieza) de 224.8 USD/pieza CONCLUSIONES. 1. Se propone emplear el método de moldeo con mezclas de arena autofraguante (AF), frenando interacción metal-molde y la fusión del acero Hadfield en hornos eléctricos (inducción o arco directo) y revestido básico en flujo técnico-productivo, al obtener esteras fundidas seriadas de más calidad. 2. Al seleccionar la forma de colocar el molde ensamblado vs dimensiones y peso/pieza o molde, para lograr producciones seriadas, las piezas chicas-pequeñas usan PDM horizontal (racimos de moldes) y piezas medianas-grandes moldes ensamblados usan inclinación a 200, según resultados de variantes con herramientas para simulación, ayudando a tomar decisiones tecnológicas efectivas del proceso. 3. Detectar y mantener control periódico de los parámetros de calidad, al fabricar panes (eslabones) de esteras en acero Hadfield, con niveles ínfimos de inclusiones no metálicas o poros, junto al adecuado tratamiento térmico, mejora su microestructura, propiedades mecánicas y de servicio. 4. El costo del eslabón de estera fundido, junto al precio de fabricación genera considerables ahorros, respecto al valor de piezas importadas en el mercado internacional, siendo económicamente factible su fabricación nacional as escala industrial. BIBLIOGRAFÍA 1. Anwar, N.; Sappinen, T., et al. "Comparative experimental study of sand and binder for flowability and casting mold quality". Advanced Powder Technology. 2021, nº. 32, p. 1902–1910. ISSN 0921- 8831. DOI https://doi.org/10.1016/j.apt.2021.03.040 2. Hatsu, J.; Sunnu, A., et al. "Investigation of shell mold casting technique in Ghana using indigenous materials". Scientific African. 2021, vol. 14, p. 1-17. ISSN 2468-2276. DOI https://doi.org/10.1016/j.sciaf.2021.e01052 3. Mir, V.; García, T., et al. "Gating system analysis of permanent molds for aluminum piston". Ingeniería Mecánica. 2022, vol. 25, nº. 1, p. 636. ISSN 1815-5944. 4. Ahmed Ktari, M. E. M. "Intelligent approach based on FEM simulations and soft computing techniques for filling system design optimisation in sand casting processes". International Journal of Advanced Manufacturing Technology. 2021, vol. 114, nº.3, p. 981-995. DOI https://doi.org/10.1007/s00170-021-06876-z 5. SUN, D.; Ruihao, L., et al. "Casting Defect and Process Optimization of Steel Crossing". ISIJ International. 2020, vol. 60, nº.6, p. 1196–1203. ISSN 1347-5460. DOI https://doi.org/10.2355/isijinternational.ISIJINT-2019-612 6. Sivarupan, T.; Balasubramani, N., et al. "A review on the progress and challenges of binder jet 3D printing of sand moulds for advanced casting". Additive Manufacturing. 2021, vol. 40, nº. 101889, p. 1-24. DOI https://doi.org/10.1016/j.addma.2021.101889 7. Ben Saada, M. y Mansori, M. "Assessment of the effect of 3D printed sand mold thickness on solidification process of AlSi13 casting alloy". Advanced Manufacturing Technology 2021, vol. 114, nº. 5, p. 1753-1766. [Consultado el: 25 Marzo 2022]. Disponible en: http://hdl.handle.net/10985/20235. 8. Soto, C.; Hernández, J., et al. "Proceso de fundición en molde de arena: diseño, simulación e impresión 3D". Ingenio y Conciencia. 2020, vol. 7, nº. 14, p. 47-51. ISSN 2007-784X. 9. Sama, S.; Manogharan, G., et al. "CASE STUDIES ON INTEGRATING 3D SAND-PRINTING TECHNOLOGY INTO THE PRODUCTION PORTFOLIO OF A SAND-CASTING FOUNDRY". International Journal of Metalcasting. 2020, vol. 14, nº. 1, DOI https://doi.org/10.1007/s40962-019-00340-1 10. Malinov, L.; Malysheva, I., et al. "Effect of Particular Combinations of Quenching, Tempering and Carburization on Abrasive Wear of Low-Carbon Manganese Steels with Metastable Austenite". Revista Materials Science 2019, nº. 945, p. 574-578. [Consultado el: 19 Octubre 2019]. ISSN 1662-9752. DOI https://doi.org/10.4028/www.scientific.net/MSF.945.574 11. Pan, Z.; Dong, X., et al. "The Role of Distribution Forms of Fe–Cr–C Cladding Layer in the Impact Abrasive Wear Performance of Hadfield Steel". Revista materials 2020, nº. 13, p. 2-13. ISSN 1996-1944. DOI 10.3390/ma13081818 12. Garmeha, B.; Kasiri-Asgarania, M., et al. "Analysis of hadfield scrap shredder hammer fracture and replacing it with carbide-free nano-bainitic steel". Engineering Failure Analysis. 2020, vol. 109, p. 2-14. ISSN 1350-6307. DOI https://doi.org/10.1016/j.engfailanal.2019.104230 13. Jafarian, H.; Sabzi, M., et al. "The influence of austenitization temperature on microstructural developments, mechanical properties, fracture mode and wear mechanism of Hadfield high manganese steel". Journal of Materials Research and technology. 2021, vol. 10, p. 819-831. ISSN 2238-7854. DOI https://doi.org/10.1016/j.jmrt.2020.12.003 14. Fernández, M. Desarrollo tecnológico para fabricar por fundición y tratamiento térmico panes de estera con acero Hadfield. Tutores: Mondelo, F. y Parada, A. Tesis de maestría, Dpto Tecnología de Construcción de Maquinarias-TCM, Facultad de Ingeniería Mecánica. Universidad Tecnológica de la Habana UTLH-CUJAE, Habana, Cuba. 2020. 15. Lindroos, M.; Laukkanen, A., et al. "Micromechanical modeling of polycrystalline high manganese austenitic steel subjected to abrasive contact". VTT Lifecycle Solutions. 2020, vol. 8, nº. 3, p. 626-642. ISSN 2223-7690. DOI https://doi.org/10.1007/s40544-019-0315-1 16. Gervas, M.; Khotinov, V., et al. "Changes in microstructure and strain hardening of high- manganese steels under tension". Metal Science and Heat Treatment. 2020, vol. 62, nº. 3, p. 3-6. ISSN 0304-0183. DOI 10.1007/s11041-020-00534-z 17. Caraballo, M. "Incidencia del endurecimiento mediante explosivos en el desempeño del acero Hadfield". Revista Facultad de Ingeniería. 2007, nº. 39, p. 89-99. On line. ISSN 0120-6230. 18. Goyos, L. Tecnología de fundición. Pueblo y Educación La Habana. Cuba: 1992. vol. II, 241 p. 19. Ivanov, V. N. Diccionario-manual especializado de la producción de fundición de piezas. Editora Construcción de maquinaria ed. Moscú: 1996. 384 p. 20. Wlodawer, R. Directional Solidification of Steel Castings. Published by Pergamon Press. 3th Edition ed. 1996. 242 p. INFLUENCIA DE LA TEMPERATURA Y ROTACIÓN DEL SUSTRATO SOBRE LA POROSIDAD Y ADHERENCIA DE RECUBRIMIENTOS DE HIDROXIAPATITA DEPOSITADOS POR PLASMA TÉRMICO ATMOSFÉRICO Abel Fumero-Pérez1 afumero@mecanica.cujae.edu.cu Carlos Figueroa-Hernández1 Jesús Gonzalez Ruiz2 Nicolás Alberto Sirgado Pérez3 1. Universidad Tecnológica de la Habana José Antonio Echeverría. Facultad de Ingeniería Mecánica. La Habana, Cuba 2. Centro de investigaciones Biomateriales de la Universidad de la Habana 3. Instituto de Materiales y Reactivos de la Universidad de la Habana RESUMEN El efecto de la temperatura y rotación del sustrato sobre la porosidad y adherencia de recubrimientos de hidroxiapatita proyectados por plasma térmico atmosférico ha sido poco estudiado. Los recubrimientos fueron depositados sobre sustrato de titanio con temperaturas de 25 y 600°C manteniendo la posición de este, estática o rotando a 600 rpm. La porosidad de los recubrimientos fue medida usando el método de Arquímedes y la adherencia a través de un ensayo de rayado. Los resultados muestran que el recubrimiento obtenido con el sustrato rotando precalentado presentó la mejor combinación de porosidad y adherencia soportando una carga a la falla mayor de 7N. Palabras claves: Temperatura, porosidad, adherencia, hidroxiapatita INFLUENCE OF SUBSTRATE TEMPERATURE AND ROTATION ON POROSITY AND ADHESION OF HYDROXYAPATITE COATINGS DEPOSITED BY ATMOSPHERIC THERMAL PLASMA ABSTRACT The effect of substrate temperature and rotation on porosity and adhesion of hydroxyapatite coatings sprayed by atmospheric thermal plasma has been little studied. The coatings were deposited on a titanium substrate with temperatures of 25 and 600 ° C and maintaining the position of this static or rotating. The porosity of the coatings was measured using the Archimedean method and the adhesion through a scratch test. The results show that the coating obtained with the preheated rotating substrate presented the combination better of porosity and adherence supporting a greater failure load of 7N. Keys words: Temperature, porosity, adhesion, hydroxyapatite INTRODUCCIÓN La hidroxiapatita es un material biocerámico de fosfato de calcio, el cual tiene una gran identidad química y estructural con el tejido óseo. Posee excelente biocompatibilidad y osteointegración, pero a la vez tiene muy baja tenacidad y resistencia a la fatiga; por tanto, en las aplicaciones médicas ortopédicas, es utilizada habitualmente, como material de recubrimiento sobre la superficie de un implante metálico biocompatible; que aporta la resistencia mecánica necesaria. El desempeño y tiempo de servicio de un recubrimiento para implantes biomédicos es dictado por la adherencia de este al sustrato. Los parámetros de proyección más estudiados sobre las características microestructurales y mecánicas de los recubrimientos son: Potencia eléctrica, distancia de proyección, composición de gas de plasma, razón de flujo de gas transportador y razón de alimentación del polvo [1-4] El recubrimiento presenta una estructura multicapa acumulativa y de composición química inhomogénea. La primera capa determina la adherencia sustrato-recubrimiento mientras que la interacción entre las capas determina la cohesión del recubrimiento. Un recubrimiento denso debe poseer más resistencia que uno poroso. En la interfase inmediata al sustrato metálico una capa delgada de fosfato de calcio amorfo se forma debido a su alto grado de subenfriamiento. Esta capa delgada tiene una importancia significativa debido a su alta solubilidad en vivo, de ahí que muchas investigaciones estén dirigidas hacia la obtención de capas de hidroxiapatita con alto grado de cristalinidad. Uno de los factores, en los que se cree provocan los fallos en los implantes, son las tensiones residuales inherentemente inducidas a cualquier recubrimiento depositado por el método de proyección por plasma, causadas por las diferencias en las propiedades térmicas entre el recubrimiento y el material del sustrato. Existen autores que plantean que el precalentamiento del sustrato promueve la recristalización de la hidroxiapatita y aumenta la adherencia [5-7]pero hay otros que plantean que aumentan las tensiones residuales compresivas en la interfase sustrato-recubrimiento y por ende disminuye la adherencia [8]. Yung-chin Yang y Edward Chang plantean que los recubrimientos de hidroxiapatita poseen una resistencia de enlace mayor cuando es utilizado un soporte para rotar el sustrato [8] que aquellos que usan un soporte fijo [9] En el presente trabajo, recubrimientos depositados con diferentes temperaturas en el sustrato y manteniendo la posición de este, estática o rotando, fueron evaluados con el objetivo de determinar la influencia de estas variables sobre la porosidad y adherencia. La primera fue medida por el método de Arquímedes y la segunda mediante un ensayo de rayado. MATERIALES Y MÉTODOS Un polvo de hidroxiapatita obtenido por molienda a partir de corales marinos de la plataforma insular cubana fue usado en un rango de partículas entre 10-120 µm con un tamaño medio de 51,74 µm. Como sustrato fue utilizado titanio comercialmente puro grado II, en forma de disco con 19 mm de diámetro x 1mm de espesor. Antes de la proyección la superficie del sustrato de titanio fue desengrasada con alcohol de elevada pureza para remover los contaminantes orgánicos y posteriormente fue tratada con un chorro de partículas de SiO2 en un rango de tamaño de 355-710 µm. Una rugosidad superficial Ra = 2,3 µm en el sustrato fue determinada por un rugosímetro modelo Surtronic 25 de la marca Taylor Hobson. El polvo de hidroxiapatita, fue proyectado con un equipo de plasma construido en el laboratorio de procesamiento de materiales por plasma de la Universidad Federal Rio Grande del Norte[10], utilizando las condiciones experimentales que se muestran en la tabla 1 donde la temperatura y velocidad superficial del sustrato fueron variadas, manteniendo constante los demás parámetros. Tabla 1 Condiciones experimentales El aumento de la temperatura del sustrato fue realizado precalentando la superficie con la llama de plasma y medida con un termopar. La rotación del sustrato se logró con un motor de 600 rpm. Medición de porosidad La porosidad fue medida utilizando el método de Arquímedes y la norma ASTM C373-88 usada como guía [11]. Ensayo de rayado La adherencia fue evaluada utilizando un equipo desarrollado [12] con carga constante e indentador Rockwell C. Se realizaron cinco ensayos de rayado desde una carga inicial de 1N hasta 7N, con un incremento de 2N. Pero, en una longitud de 10 mm a una velocidad de desplazamiento de 10 mm/s. Todas las muestras ensayadas tienen un espesor constante de 30 µm. La trayectoria del rayado y los daños inducidos en el sistema recubrimiento-sustrato para determinar la carga crítica fueron examinados con un microscopio óptico marca Novel NJF-120A. RESULTADOS Y DISCUSIÓN Porosidad de los recubrimientos En la tabla 2 se muestran los resultados de los diferentes experimentos que se hicieron para medir la porosidad aparente de los diferentes recubrimientos obtenidos. Tabla 2 Porosidad aparente obtenida en las condiciones experimentales evaluadas Muestra Masa seca (D) (g) Masa del recipiente solo con agua (g) Masa del recipiente con agua y muestra sumergida a las 24 h (g) Masa inmersa en el agua (S) (g) Masa saturada en el aire (M) (g) Porosidad aparente (%) FCP 1,2514 97,1417 98,2904 1,1487 1,2556 3,9 1,2499 97,4841 98,6853 1,2012 1,2519 3,9 Parámetros Valor Polvo de hidroxiapatita (µm) 80-100 Potencia eléctrica (kW) 7,5 Distancia de proyección (mm) 20 Flujo de gas de plasma argonio (l/min) 30 Flujo de gas de arrastre argonio (l/min) 9 Masa de polvo proyectada (g) 0,5 Tiempo de deposición (s) 30 Temperatura del sustrato (°C) 25, 600 Movimiento del sustrato Estático, Rotando 1,2510 61,6164 62,8396 1,2232 1,2541 3,8 RSP 1,2618 109,7716 110,9801 1,2085 1,2657 6,8 1,2569 64,0431 65,2790 1,2359 1,2589 8,7 1,2617 62,8533 64,0748 1,2215 1,2633 10 FSP 1,2540 93,5545 94,7834 1,2289 1,2561 7,7 1,2501 74,0691 75,2965 1,2274 1,2520 7,7 1,2599 61,9032 63,1339 1,2307 1,2615 5,4 RCP 1,2508 89,7880 91,0271 1,2391 1,2517 7,1 1,2738 64,3877 65,6360 1,2483 1,2757 6,9 1,2509 62,4266 63,6410 1,2144 1,2530 5,2 En la figura 1 se muestran los valores promedio de porosidad aparente y su desviación estándar obtenidos como resultado de los diferentes tratamientos aplicados. 0 2 4 6 8 10 12 FSP FCP RSP RCP P o ro si d ad a p ar en te ( % ) Tratamientos * * Figura 1. El gráfico representa el porciento de porosidad aparente de los diferentes tratamientos aplicados (FCP: Sustrato fijo con precalentamiento, FSP: Sustrato fijo sin precalentamiento, RCP: Sustrato rotando con precalentamiento y RSP: Sustrato rotando sin precalentamiento) (*p < 0,05) Del gráfico se observa que las muestras con precalentamiento presentan los menores porcientos de porosidad. El precalentamiento del sustrato posibilita una amplia extensión de la lámina de hidroxiapatita sobre su superficie o sobre capas previamente formadas y así a la formación de láminas muy delgadas en forma de disco perfectamente redondas. Existe una temperatura que delimita la transición de una lámina en forma irregular a una en forma de disco regular. Samandari et al [13] determinan que para la hidroxiapatita esta temperatura es 300°C. Por esta razón un buen contacto intercapas puede ser alcanzado, lo cual conduce a recubrimientos más densos. De las muestras no precalentadas, la rotando posee la mayor porosidad debido a que el impacto de las capas de hidroxiapatita sobre el sustrato, ocurren en diferentes puntos lo cual contribuye a una distribución de poros dispersa y conduce a recubrimientos menos densos. Adherencia de los recubrimientos En la figura 2 se muestra el rayado aplicado a la superficie de los diferentes recubrimientos obtenidos. La trayectoria del indentador fue de derecha a izquierda, mientras que las cargas aumentan de abajo hacia arriba (a la izquierda de cada figura se representa la carga en cada rayado). El color oscuro representa al sustrato y el blanco al recubrimiento. Figura 2. Micrografía óptica de los recubrimientos después del ensayo de rayado a 16X. a) FSP b) FCP c) RSP d) RCP Se observó que los recubrimientos depositados con el sustrato precalentado poseen mayor adherencia, lo cual pudiera estar asociado a la posible formación de una capa de enlace de óxido de titanio entre el recubrimiento de hidroxiapatita y el sustrato de titanio. En la micrografía correspondiente a la figura 2 a) se aprecia que aplicando una carga de 1N se produce desprendimiento del recubrimiento. En la figura 2 b), se observa que no hubo delaminación del recubrimiento hasta una carga entre 5 y 7 N. En la figura 2 c) se aprecia que la carga que produce la delaminación del recubrimiento está entre 3 y 5 N y en la figura 2 d) no se observa la delaminación del recubrimiento hasta una carga de entre 11 y 13 N. La posible presencia de una capa amorfa en la interfase explica la disminución de la resistencia adhesiva debido a la naturaleza frágil de esta capa y la presencia de muchas grietas dentro de la capa debido a las tensiones térmica y tensiones residuales del recubrimiento que surgen de las altas razones de solidificación. El precalentamiento del sustrato disminuye la razón de solidificación y disminuye la formación de capa amorfa en la interfase recubrimiento-sustrato. Gligorijevic y otros [6] han encontrado que el precalentamiento del sustrato a 200°C y una distancia de proyección de 80 mm promueve la recristalización de ACP→HA y esto mejora la resistencia de enlace del recubrimiento. Fernández Prada y otros [14] han mostrado que una capa de óxido de titanio en la interfase debe ser de pequeño espesor para alcanzar un mejor desempeño mecánico de los recubrimientos de hidroxiapatita. Szesz y colaboradores [15] en su investigación obtienen una capa de óxido de titanio de 600 nm resistente al aplicar un tratamiento combinado de bombardeo de partículas y oxidación anódica. Samandari y otros [13] determinan que la adherencia al sustrato de titanio comercialmente puro de la capa de óxido de titanio de 20 nm creada precalentando el sustrato a 300°C es excelente y consideran que pudiera promover enlace químico entre el recubrimiento y el sustrato. Aunque los resultados de EDS no demuestran la existencia de la capa de óxido, al calentar el sustrato con la llama del plasma ocurre sin lugar a duda, una oxidación térmica sobre su superficie que influye en los resultados de adherencia, no obstante, hay otros factores que inciden. Es conocido que en todo recubrimiento depositado térmicamente sobre un sustrato son inducidas tensiones residuales causadas por las diferentes propiedades térmicas del recubrimiento y el sustrato, combinado con el proceso complejo de solidificación del recubrimiento. El coeficiente de expansión térmica del sustrato es generalmente más elevado que el del recubrimiento cerámico, por tanto, para disminuir las tensiones residuales el sustrato no debería calentarse, pero estas no son el único factor que controla la resistencia de enlace. Otros parámetros deben ser tomados en cuenta como el espesor, la naturaleza de la capa interfacial, así como la estructura de grano y cristalina del recubrimiento. Recientes estudios han reportado [16] que recubrimientos de hidroxiapatita con orientación preferencial (002) presentan excelentes propiedades mecánicas. De las muestras precalentadas, la mayor adherencia la posee la rotando, lo cual pudiera estar asociado a la fuerza centrípeta, menor espesor y orientación preferencial de los cristales. Para determinar la adherencia de los recubrimientos se utilizó el modelo de Ollivier y Matthews que considera la carga crítica para evaluar la tensión de corte.[17] En la tabla 3 se muestran las mediciones del ancho del rayado en la carga crítica para cada muestra evaluada, empleándose el software Image J. Tabla 3. Ancho del rayado para las diferentes muestras evaluadas Muestra Ancho del rayado en la carga crítica Promedio FSP 176,13 176,13 170,97 168,39 187,74 195,48 174,84 178,53 FCP 106,6 97,46 102,54 95,43 84,77 94,92 87,82 95,65 RSP 296,81 315,92 307,00 322,29 343,94 340,14 331,21 322,47 RCP 98,73 103,17 87,34 74,73 88,61 90,51 80,38 89,07 Aplicando la fórmula se determina la tensión de corte para las diferentes muestras evaluadas. En la figura 3 se muestran los resultados. 0 100 200 300 400 500 600 FSP FCP RSP RCP E sf u er zo a c o r ta n te ( M P a ) Figura 3. Esfuerzo a cortante para las diferentes muestras evaluadas Los esfuerzos a cortante de todas las muestras excepto la FSP son mucho mayores que el valor mínimo de 34,5 MPa reportado por la norma ASTM F 1044 [18]. Conclusiones Recubrimientos de hidroxiapatita fueron obtenidos por plasma térmico atmosférico variando la temperatura y el movimiento del sustrato. La porosidad y la adherencia fueron evaluadas llegando a las conclusiones siguientes: Los tratamientos con precalentamiento tienen la menor porosidad, con el sustrato rotando poseen la mayor adherencia y el que presenta una mejor combinación de porosidad y adherencia es el del sustrato rotando con precalentamiento. Reconocimiento A CAPES por el auxilio financiero y al profesor Clodomiro Alves Junior director del laboratorio de procesamiento de materiales por plasma, del departamento de Física de la Universidad Federal Rio Grande del Norte, en el que se realizaron los experimentos de proyección del polvo de hidroxiapatita. Referencias bibliográficas 1. J Cizek, Khor, K.A, Prochazka, Z. Influence of spraying conditions on thermal and velocity properties of plasma sprayed hydroxyapatite. Materials Science and Engineering C. 2007;27:340-4. 2. S Dyshlovenko, Pawlowski,L, Roussel,P et al. Relationship between plasma spray operational parameters and microstructure of hydroxyapatite coatings and powder particles sprayed into water. Surface and Coatings Technology. 2006;200:3845-55. 3. L Sun, Berndt, C.C, Grey, C.P. Phase, structural and microstructural investigations of plasma sprayed hydroxyapatite coatings. Materials Science and Engineering A. 2003;360:70-84. 4. Y.P Lu, Li, S.T, Zhu, R.F et al. Further studies on the effect of stand-off distance on characteristics of plasma sprayed hydroxyapatite coating. Surface and Coatings Technology. 2002;157:221-5. 5. B.R Gligorijević, Vilotijević,M.N, Šćepanović,M.J et al Cracking caused by cutting of plasma- sprayed hydroxyapatite coatings and its relation to the structural features of coatings deposited at different initial substrate temperatures. Hemijska industrija. 2016. 6. B.R Gligorijević, Vilotijević,M.N, Šćepanović,M.J et al. Substrate preheating and structural properties of power plasma sprayed hydroxyapatite coatings. ceramics international. 2016;42:411-20. 7. M.F Morks, Kobayashi,A. Influence of spray parameters on the microstructure and mechanical properties of gas-tunnel plasma sprayed hydroxyapatite coatings. Materials Science and Engineering B. 2007;39:2009-15. 8. Yang YC, Chang E. The bonding of plasma-sprayed hydroxyapatite coatings to titanium:effect of processing, porosity and residual stress. Thin Solid Films. 2003:260– 75. 9. Yang YC, Chang E. Influence of residual stress on bonding strength and fracture of plasma- sprayed hydroxyapatite coatings on Ti6Al4V substrate. biomaterials. 2001;22:1827-36. 10. Fumero. A Da silva. TR, Alves Jr. C et al. Efecto de la temperatura del sustrato y el modo de proyección sobre la cristalinidad, humectabilidad y biocompatibilidad de recubrimientos de hidroxiapatita, depositados por plasma térmico atmosférico. Rev Téc Ing Univ Zulia. 2014;27(1):76-84. 11. Standard test method for water absorption, bulk density, apparent porosity and apparent specific gravity of fired whiteware products, (2006). 12. A Fumero, Figueroa,C, Fernández,A.J et al. Diseño y fabricación de un equipo para medir adherencia por rayado. Ingeniería Mecánica. 2018;21(3):124-9. 13. Alamara Saeed Saber-Samandari, K, Samaneh Saber-Samandari. Calcium phosphate coatings: Morphology,micro-structure and mechanical properties. Ceramics International. 2014;40:563-72. 14. J.M. Fernández Prada, García Cuenca, M.V., Cleries,L., et al. Influence of the interface layer on the adhesion of pulsed laser deposited hydroxyapatite coatings on titanium alloy. Applied Surface Science. 2002;195:31-7. 15. E.M Szesz, Souza,G.B, Lima,G.G et al. Improved tribo-mechanical behavior of CaP-containing TiO2 layers produced on titanium by shot blasting and micro-arc oxidation. J Mater Sci: Mater Med. 2014;25:2265-75. 16. X Liu, He, D, Zhou, Z et al. Characteristics of (002) Oriented Hydroxyapatite Coatings Deposited by Atmospheric Plasma Spraying. coating. 2018;8:258-65. 17. Ollivier B, Matthews A. Adhesion of diamond-like carbon films on polymers: an assessment of the validity of the scratch test technique applied to flexible substrates. Journal of Adhesion Science and Technology. 1994;8(6):651-62. 18. ASTM F 1044 – 05 Standard Test Method for Shear Testing of Calcium Phosphate Coatings and Metallic Coatings. Sobre los autores Abel Fumero Pérez, profesor auxiliar y doctor en ciencias técnicas de la Facultad de ingeniería mecánica de la Universidad Tecnológica de la Habana. Carlos Figueroa Hernández, profesor titular y doctor en ciencias técnicas de la Facultad de ingeniería mecánica de la Universidad Tecnológica de la Habana. Jesús González Ruiz, profesor auxiliar y doctor en ciencias técnicas del centro de investigaciones de biomateriales de la Universidad de la Habana Nicolás Alberto Sirgado Pérez, licenciado en física del Instituto de Materiales y Reactivos de la Universidad de la Habana La eficiencia tecnológica como soporte en el ahorro energético de la recuperación. Dr. René Collazo Carceller 1, Ing. Yuniel Ernesto Martínez Pérez2 1. Facultad de Ingeniería Mecánica Universidad Tecnológica de La Habana “José Antonio Echeverría” CUJAE. La Habana. Cuba. collazo@mecanica.cujae.edu.cu 2. Facultad de Ingeniería Mecánica Universidad Tecnológica de La Habana “José Antonio Echeverría” CUJAE. La Habana. Cuba. yuniel@mecanica.cujae.edu.cu RESUMEN El objetivo del presente trabajo fue mostrar el estudio realizado en el proceso de recuperación por soldadura de los machetes de los tándem de los “CAI” (Complejos Agroindustriales) donde, a raíz de la aplicación de la tecnología de recuperación, se logró no solo la disminución de la cantidad de material a aportar y del tiempo de soldadura, sino y un aporte a la conservación de las condiciones ambientales por concepto de contaminación, además de un ahorro significativo en el consumo energético del proceso tecnológico. Como conclusión se obtuvo una tecnología superior, desde el punto de vista técnico – energético, la cual minimiza el deterioro de las condiciones medioambientales, así como el consumo desmesurado de la energía eléctrica, utilizada en el proceso de recuperación. Como resultado se mostró la influencia de los parámetros del proceso en la eficiencia tecnológica. PALABRAS CLAVE: consumo, intensidad de corriente, parámetros de soldadura. The technologic efficiency as support in the energetic saving of the restoration ABSTRACT The objective of the present work deal with the analysis of the restoration process by using welding technology in the cutting blade in the ”CAI” (Sugar Meal Factory) where, according to the application of the restoration technology, was obtained not only the decrease in the quantitative of the deposited material and the welding time and also a giving in the improve of the environment condition by contamination concept, although the important saving in the energetic consume of the technologic process. As a conclusion was obtained a better technologic, from the point of view of the energetic and technic aspect, which minimize the distraction of the environment conditions, like of the excessive consume of the electric energy, employed in the restoration process. The influence of the process parameters in the technology efficiency was showed. KEY WORDS: consume, current intensity, welding parameters. 1. Introducción La eficiencia en el trabajo de los equipos y agregados en ramas como la minería, la agricultura, el transporte, la industria azucarera y otras dependen en gran medida de la conservación de la forma, dimensiones y propiedades mecánicas de sus superficies de trabajo [1- 4]. Los procesos de recargue han jugado un papel muy importante en la restauración de un sinnúmero de piezas de estos mecanismos, debido a las amplias posibilidades que confiere al modificar la resistencia al desgaste de las superficies de trabajo de las piezas. La aplicación de estos procesos implica un favorable balance técnico-económico para cualquier industria del país. Aunque en la práctica se ha difundido el uso de aleaciones de recargue de alta resistencia, es aún insuficiente el conocimiento del efecto de los parámetros del proceso en la morfología en aras de incrementar la resistencia al desgaste [5]. El objetivo del presente trabajo fue mostrar el estudio realizado en el proceso de recuperación por soldadura de los machetes del tándem de los “CAI En la soldadura manual por arco eléctrico con electrodo revestido, se utilizan aleaciones de recargue al Mn, Co, Ni y al Cr que es la más empleada actualmente por las ventajas que presenta desde el punto de vista técnico económico. El incremento de la resistencia a la abrasión de las aleaciones de recargue de fundición y acero al cromo, guardan estrecha relación con las características morfológicas de estos depósitos, al variar la cantidad, tamaño y distribución de sus carburos, predominantemente del tipo MC3 [4]. Las valoraciones de la influencia de los parámetros del proceso (energía introducida, número de capas y ancho del depósito), en muchos casos han sido dirigidas a aspectos funcionales, como la adherencia del depósito al material base, la porosidad, el acabado superficial, las salpicaduras, el coeficiente de depósito de los electrodos y el rendimiento. Estos análisis se han realizado, sin resaltar los aspectos morfológicos antes mencionados, retomándose en este trabajo, este punto de vista [5 - 7]. Las características del deterioro superficial, causado por los mecanismos de deformación plástica y desprendimiento frágil, guardan una estrecha relación, con las morfologías presentes al variar los parámetros del proceso [8]. Los resultados de este trabajo establecieron las premisas para el diseño e introducción de una tecnología de recuperación de los machetes Zuazagas, en nuestros centrales azucareros, con una eficiencia de tres veces mayor a la anterior. Siendo novedoso la forma de enfocar el comportamiento morfológico en la resistencia al desgaste del depósito de recargue. Lo anteriormente expresado se valoró gracias al uso de un diseño factorial de 33 donde se tuvieron en cuenta la variable mencionada arriba en los cambios morfológicos que se experimentaron en la cantidad de carburos, sus tamaños y dispersión en la resistencia al desgaste abrasivo. 2. Materiales y Métodos Para desarrollar la fase experimental, se empleó un diseño factorial de 33. El mismo consta de tres variables a tres niveles, para correlacionar el efecto de los parámetros Energía introducida, Número de capas y Ancho del depósito en los cambios morfológicos y la resistencia al desgaste abrasivo. Dichos niveles se indican en la matriz de experimento de la tabla No. 1. Tabla No. 1. Matriz de experimento. Niveles Energía introducida (kJ/cm) Número de capas Ancho del depósito (mm) + 16,00 3 50 0 14,87 2 34 - 13,00 1 17 Los ensayos de desgaste se realizaron en una máquina de desgaste abrasivo de plato horizontal, diseñada y construida para este trabajo [8], la cual se representa en la figura 1. Figura 1. Máquina de desgaste abrasivo. El ensayo de desgaste se realizó con una carga de 50 N con 500 rpm en intervalos de 20 minutos. El ensayo desgaste se realizó en cuatro intervalos de 20 minutos, midiendo el peso de la muestra en cada uno de estos. La carga fue determinada con un sensor marca TOSHIBA y la frecuencia se midió con un tacómetro PHILIPS. En cada uno de los intervalos se determinó la pérdida de masa, con una balanza digital marca SALTORIUS con una precisión de diez milésimas de gramo. Se reporta como valor de desgaste el promedio de tres mediciones al culminar el tiempo de 80 minutos. Después de identificar las fases y estructuras presentes en los depósitos de acero al cromo, fue necesario cuantificar la cantidad, tamaño y dispersión de los carburos, para lo cual, se utilizó el software Imagen Tool. 3. Resultados y Discusión La síntesis de los resultados de los ensayos experimentales, para determinar la influencia de los parámetros del proceso de recargue en la morfología y la resistencia al desgaste se muestran en la tabla 2. Tabla No. 2. Evaluación de los parámetros morfológicos en diferentes depósitos, obtenidos con el electrodo de acero al cromo. Hi: Energía introducida (kJ/cm); Ac: Ancho del Cordón (mm); Nc: Número de capas; g: Desgaste como pérdida de masa en g; C: Cantidad; Tm: Tamaño promedio (píxeles); Dp: Dispersión promedio (píxeles Si se analizan las corridas 21, 24 y 27, donde se tiene el mayor valor de la energía introducida y ancho de cordón (16.84 kJ/cm, 50 mm), con el aumento del número de capa se incrementa la cantidad y tamaño de carburos, con tendencia a aumentar su dispersión, lo que provoca un incremento de la resistencia al desgaste. En la corrida 19, con la menor energía introducida, mayor ancho de cordón y menor número de capa, se deteriora la resistencia al desgaste, producto de que disminuye la cantidad, tamaño y dispersión de los carburos en borde de grano. Este comportamiento al desgaste abrasivo de los depósitos de acero al cromo está relacionado con una morfología de carburos segregados en borde de grano. Donde el incremento de la energía introducida afecta la cantidad de estos carburos y el ancho del cordón se relaciona con el efecto de su tamaño. Esto se explica ya que, al aumentar la energía introducida a un mismo valor de ancho de cordón, No Corrido Parámetro de recargue Hi Ac Desgaste (g) No de Capas Nc CARBUROS CrC3 C Tm Dp 11 16,13 25 5,7424 1 125 103,0 5,87 14 2,0649 2 131 130,0 6,16 17 1,3038 3 183 119,2 6,42 19 15,32 50 6,2405 1 91 79,8 7,97 21 16,84 50 6,3713 1 135 117,0 6,17 24 1,9450 2 170 129,0 8,20 27 0,7145 3 238 138,4 8,73 puede existir una mayor cantidad de carbono segregado, siendo este elemento el principal rector en la formación de carburo, por lo que podrá incrementarse su número en borde de grano, a partir de la disolución de los carburos finos y dispersos presentes en la matriz martensítica. Este efecto se puso de manifiesto también al presentarse valores de dureza similares entre la segunda y tercera capa donde los carburos finos y dispersos de la matriz se disuelven y van a ser segregados al borde de grano, no incrementando la dureza por efecto del aumento del cromo y carbono, dado por el aporte del electrodo, producto de una menor dilución en estas capas. Esto está dado ya que la energía introducida activa el movimiento de los elementos que participan en la formación de los carburos en borde de grano. En la medida que aumenta el ancho del cordón, para igual nivel de la energía introducida, se produce un mayor gradiente térmico, con energía suficiente, para disolver los carburos dispersos en la matriz, provocando así la segregación de estos hacia el borde de grano. Este efecto se relaciona con la desestabilización de los carburos en el interior de la matriz, estos pueden ser disueltos y estos elementos moverse en dirección al borde de grano, para hacer crecer los carburos ya allí presentes. Conduciendo entonces a ligeros incrementos en los tamaños de los carburos, sin grandes variaciones en sus cantidades. El incremento en la dispersión de los carburos se asoció al proceso de coalescencia, en las condiciones en que el gradiente térmico es menor se produce una menor coalescencia y los valores de dispersión entre carburos son más pequeños, a medida que el gradiente térmico se aumente los procesos de coalescencia serán más intensos y aumenta la dispersión entre carburos. Por lo que, en estos depósitos, para valores de la energía introducida y ancho de cordón, el aumento del número de capas provoca un incremento de la cantidad, tamaño y dispersión de los carburos lo que incrementa la resistencia al desgaste. Mientras que, para un ancho de cordón, cuando se disminuye la energía introducida y el número de capas, se deteriora la resistencia al desgaste, provocado esto por la disminución de la cantidad, tamaño y dispersión de los carburos. Entonces se obtienen la mayor cantidad, tamaño y dispersión de los carburos a los mayores valores de la energía introducida, ancho de cordón y número de capas. Estos resultados se corroboran, al analizar el efecto del deterioro superficial, con la medida de la rugosidad y el desgaste presente en estos depósitos, lo cual se analizará a continuación. El comportamiento de la influencia de los parámetros del régimen de recargue, según la tabla 2, mostró que la resistencia al desgaste, se incrementa para los mayores valores de Hi, Nd y Ad, al presentar una morfología con la mayor cantidad de carburos de mayor tamaño. Esta combinación morfológica ha demostrado poseer las mejores cualidades para aumentar la resistencia al desgaste. Al realizar un análisis del desgaste en estos machetes y apoyado en los resultados experimentales se logró realizar una propuesta tecnológica para el recargue de los mismos. Si el motor del eje de los machetes gira a 600 rpm, entonces girará a 10rps. Si son 8 machetes en un mismo plano y la velocidad de la estera es 190mm/seg y el diámetro medio de la caña oscila aproximadamente en 30 mm, entonces el machete trozará aproximadamente 19 mm de los 30, que representa el diámetro de la caña. Esto que equivale a un 63% del espesor, teniendo en cuenta como hipótesis primaria que la caña viene en posición paralela al árbol del machete. Este porciento de caña, por la acción de la fuerza centrípeta de las caras planas del machete, se deslizará por las mismas, provocando un desgaste no significativo en estas. Del análisis anterior, se puede decir que los machetes trabajan con un volumen efectivo relativamente pequeño gracias a las diferencias de velocidades existentes entre estos y a la estera. Además, se pudo inferir que el grueso del trabajo se desarrolla en las crestas; según el análisis mostrado en la figura 3. Figura 3 Distribución de las fuerzas aplicadas en el diente del machete. Partiendo de esta hipótesis preliminar, sobre el trabajo de los machetes, mayoritariamente en la cresta de los dientes del sector dentado, se puede agregar, el comportamiento de las fuerzas aplicadas en el mismo. Como se puede apreciar del desglose de las fuerzas aplicadas en la cresta del sector dentado, mostrado en la figura 3, los vértices delanteros opuestos, reciben la acción de tres fuerzas a la vez, durante su trabajo, la fuerza normal fn, en la cara frontal del diente, la fuerza de rozamiento fr, en la cara horizontal superior y la fuerza tangencial, en la cara lateral del diente. Partiendo de esto, se puede pensar que las condiciones de desgaste en estos puntos son mayores, ya que entre los factores que influyen en la magnitud del desgaste, uno de los que más efecto tiene, es la magnitud de las cargas, según la mayoría de los autores que se han dedicado al estudio de estos tipos de desgaste. Por ende, esta porción de la cresta del diente, se desgastará aceleradamente en comparación con el resto de las áreas. En esta área, el metal de recargue depositado se desgastará a mayor velocidad. Como se planteó anteriormente, esto traerá, por consiguiente, que el material base quedará al descubierto más rápidamente en esta primera etapa. Como se puedo apreciar en la figura 3 a una vez que el abrasivo empiece a interactuar con el material base no solo desgastará éste más rápidamente que el material de recargue, sino que empezará a desgastar la base del material de recargue siguiente que queda a continuación, provocando un socavamiento de éste y un desprendimiento más acelerado del material de recargue. Al encontrarse éste sin suficiente base a la cual fijarse, no podrá tan fácilmente resistir los embates combinados de las diferentes fuerzas aplicadas en estas caras figura 3 b Teniendo en cuenta esto y considerando la influencia de los parámetros del proceso de recargue en la morfología de estos depósitos y en la resistencia al desgaste, se presentó una nueva propuesta para el recargue de los machetes Zuazaga, la cual se presenta en la figura 3 c. Esta consistió en usar los mayores niveles en los parámetros del proceso de recargue, mayor energía introducida (17 kJ/cm), mayor ancho del depósito (50 mm) y mayor número de capas (3), para formar una coraza protectora en la cresta de los dientes, con mejores propiedades ante el desgaste abrasivo y con menor volumen de material utilizado, que la tecnología usada anteriormente figura 3 a. Figura 3 a, b y c Tecnologías de los machetes Zuzzagaz utilizadas anteriormente y actualmente. Un aspecto de singular interés, en este caso, lo fue el hecho del ahorro energético que deviene a partir de la aplicación de esta tecnología pues, como se puede apreciar en las figuras 3 a y 3 c, la cantidad de material que se ahorró es de aproximadamente el 80 % y, evidentemente, este proceso se caracteriza por su alto consumo de energía eléctrica, la cual se ve reducida en un porciento considerable. Esto por una parte, si se considera que la eficiencia de esta tecnología aumentó en tres veces, por su durabilidad en correspondencia con la variante anterior en uso, pues este valor de ahorro se incrementó en esa misma razón y, además, esto se vio reflejado también en la disminución del consumo energético en el sector de las mazas azucareras por el concepto de mantenimiento en la calidad de preparación de la caña de azúcar. Y el hecho de emplear por esto menores presiones, que conllevan a gastos energéticos, como se apreció en el cálculo económico realizado. Otro aspecto, no menos importante, lo fue el mejoramiento de las condiciones medioambientales para el operario y la sociedad Es conocido que la soldadura es una fuente de emanación de gases tóxicos y, sobre todo, cuando se habla de vapores de cromo, como es el caso tratado. Pues el hecho de la disminución de éste es un resultado bien recibido. Cálculo económico. Para dicho cálculo se consideró la variante más económica y de mejor comportamiento, que en este caso fue la número 27 y se comparó con la variante 19, la utilizada anteriormente tabla 3. El análisis técnico económico se realizó atendiendo a la metodología ¨Full Calculation¨, la cual considera para evaluar el costo total de recuperación partir de los costos directos e indirectos. Para realizar este cálculo se evalúa el Costo Total de Recuperación para una pieza, a partir del cálculo de los costos directos e indirectos involucrados. Por lo que el Costo Total de Recuperación (CR) se determina como: CR = Cdr + Cir (5.1) Donde: CR: Costo Total de Recuperación. Cdr: Costos directos. Cir: Costos indirectos. Los costos directos estarán dados por: valor de la pieza recuperada a costo de chatarra (Cpr), materia prima (Mp), salario básico (Sb), salario complementario (Sc), aporte al seguro social (Ss) y consumo de energía (Ce). Cdr = Cpr + Mp + Sb + Sc + Ss + Ce (5.1a) Donde Cpr: valor de la pieza recuperada a costo de chatarra. Mp: materia prima. Sb: salario básico. Sc: salario complementario. Ss: aporte al seguro social. Ce: consumo de energía. Tabla No. 3 Costo total de la recuperación. Aleación Variante Cdr (CUC) Cir (CUC) Cr (CUC) ACr 27 16,13 2,75 18,88 ACr 19 19,10 2,75 2`1,85 Si se tiene en cuenta que cada tándem cuenta con dos escalones de ejes, con 95 machetes en cada uno, entonces se sustituyen 190 machetes cada 15 ías y estos centrales cuentan a su vez con dos tándem, entonces serían 380 machetes por cada central a cambiar cada 15 días con la tecnología antigua. El costo, para ambas variantes fue, 11901,6 $ con la variante 19 y 9215, 4 $ con la variante 27, el ahorro es de 2686,2 $. Si se tiene en cuenta la cantidad de centrales que prestan servicios en Cuba (75), el ahorro sería de 201465$, con el uso de la variante 27. La vida útil de las piezas recuperadas con la variante 19 y 27 se evaluaron en diferentes ingenios en Cuba. Para el machete recuperado con la variante 19 a los 15 días de molienda se tuvieron que sustituir todos los machetes en la línea del tándem, mientras que para los machetes recuperados por la variante 27 se tuvieron que sustituir al cabo de 30 días de trabajo. Entonces el ahorro ascendería al doble 402930 $. Además de esto, debe considerarse el efecto, que se tiene, con el uso de esta propuesta, al poderse mantener la eficiencia en la preparación de la caña por un periodo mayor de tiempo. Esto no solo se refleja en ahorro de divisas y tiempo, como muestra el cálculo económico, sino en la disminución de la potencia en las mazas de los centrales, aspecto de vital importancia para el mantenimiento del agregado en general Conclusiones Se observó un efecto positivo, con en el empleo de la tecnología propuesta, en la disminución del desgaste, al utilizar los mayores niveles de energía introducida, ancho del depósito y numero de capas. Todo esto gracias a los cambios positivos de la morfología, dados por el crecimiento de tamaño y cantidad de los carburos. Se obtuvo una tecnología de recuperación más económica, para los machetes Zuazaga, en los centrales del país. Se disminuyó, considerablemente, el consumo energético, por el concepto de ahorro de material de aporte y aumento de la eficiencia tecnológica, además por disminución de las presiones ejercidas en las mazas azucareras por el mantenimiento en la preparación dela caña. Se mejoraron las condiciones ambientales para el operario y la sociedad.R REFERENCIAS 1. Vinícius da Silva, P., Resende, Ivany de Queiroz, M., Neves, S." Efeito da normalização pós revestimentoduro porsoldagem nas propriedades do cordão de sold" 22 de mayo 2015.Disponible en: www.cobef.com.br/anais/PDFS/COF-2015-0501.PDF - 2. CEDRE, E., CRESPO, A., SCOTTI, A., et, al “Evaluación de electrodos para la fabricación de blindajes laterales de molinos de trituración de áridos" DYNA, Volumen 80, Número 177, p. 75-85, 2013. ISSN electrónico 2346-2183. ISSN impreso 0012-7353. [Consultado el 21 de mayo 2012]. Disponible en:www.revistas.unal.edu.co/index.php/dyna/article/view/30225/43725 3. COLLAZO, R Y SALINAS, HECTOR. "Estudio del comportamiento de los recargues multicapas de Depósitos" Ingeniería Mecánica. Vol. 12. No.2, mayo-agosto de 2009, pág. 83-92 ISSN 1815-5944 4.Soldados de fundición blanca al cromo. [Consultado el 4 de febrero 2008]. Disponible en: Www.ingenieriamecanica.cujae.edu.cu/index.php/revistaim/article/download/70/393 5. KOTECKI, D. J. Y OGBORN, J. S. "Abrasion Resistance of Iron – Based Hardfacing Alloys. The Lincoln Electric Co. Paper presented at the AWS 74, Th. Anual Meeting April 25 - 29, 1993. Houston. Texas. EU." Journal Welding Research, April 1993, p. 269 - 677. 6. ANTUNEZ, J., COLLAZO, R. LARIOT., et, al " Valoración del procedimiento por Gas Argón en el aluminio AW5086". Ingeniería Mecánica vol.20 no.1 La Habana ene.-abr. 2017. Versión On-line ISSN 1815-5944. 7. NOBLE, D. N. "Abrasive wear resistance of hardfacing welds deposits. Metal Construction. "Journal Metal Conatruction, Septembre 1985, p. 2-8. 8. RODA VÁZQUEZ, C. Y LOUREIRO, A. Comportamiento frente al desgaste abrasivo de las aleaciones con tendencia a la formación de carburos aplicados por soldadura. Vol. 134. Universidad de La Coruña. Escuela Politécnica Superior de Ferrol, Mayo 2000. 9. SAIRRE BÁLSAMO, P. S. Y ARIZA GONCALVES, R. Resistência a abrasão de revestimentos de solda utilizados em manutenção. . Pag . . . En Anais XIX Encontro Nacional de Tecnologia da Soldagem. Águas de São Pedro. SP. Brasil. 24 - 27 Outubro 1993. P. 425 - 439. 10. Collazo, R.," Propuesta para la recuperación de los machetes Zuazaga de los centrales azucareros con electrodos de acero". Ingeniería Mecánica. Vol. 9. No.3, septiembre-30 diciembre de 2009. 11. SAIRRE BÁLSAMO, P. S.; SCOTTI, A., et al. "Interpretación de la microestructura de recargues duros depositados por Soldadura utilizando la Superficie de Líquidos de Diagramas Fe – Cr – C". Revista CENIM. 1995. P. 199 - 207. ESTUDIO COMPARATIVO DE MATERIALES PARA LA SELECCIÓN DE BOMBAS PARA AGUA DE MAR Mario Martínez López1, William Gurri Carballosa2 1Facultad de Ingeniería Mecánica de la Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE. Ave. 114 # 11901 e/ Ciclovía y Rotonda, Marianao, La Habana, Cuba 2OSDE Agua y Saneamiento. Calle 184 e/ 5ta. y 1ra, Reparto Flores, Playa, La Habana, Cuba 1 mmartinezl@mecanica.cujae.edu.cu RESUMEN Se realiza un estudio comparativo de los materiales empleados en equipos de bombeo destinados a la captación de agua de mar para instalaciones desalinizadoras o desaladoras. Estas plantas desaladoras se ubican en centros turísticos o asentamientos poblaciones para el consumo humano o regadío. Ante la necesidad de respaldar científicamente la licitación de tres ofertas de distintos proveedores, para su instalación en el polo turístico de Cayo Largo del Sur, se analizan comparativamente el bronce CC480K GS (C90700) y los aceros inoxidables AISI 904L (N08904) y el súper dúplex de la norma A270 (ASTM). Se analizan entre otros aspectos la composición, estructura, tratamientos, propiedades mecánicas, anticorrosivas y tecnológicas que aseguren las condiciones de explotación y mantenimiento, así como, los precios contra referentes internacionales. Se concluye que el acero inoxidable austenítico AISI 904L (N08904) protegiéndolo catódicamente ofrece la mayor garantía en cuanto a resistencia mecánica y anticorrosiva y aceptables condiciones de mantenimiento y reparación. Se dispone de un sistema de conocimientos y una metodología de análisis que permitirá analizar futuras compras para el resto de las plantas desaladoras que atiende la OSDE Agua y Saneamiento. PALABRAS CLAVES: bombas para agua de mar, bronce naval, acero inoxidable austenítico, acero inoxidable súper dúplex COMPARATIVE STUDY OF MATERIALS FOR THE SELECTION OF SEAWATER PUMPS ABSTRACT A comparative study of the materials used in pumping equipment for the collection of seawater for desalination plants, is carried out. These desalination plants are located in tourist centers or population settlements for human consumption or irrigation. Given the need to scientifically support the bidding of three bids from different suppliers, for installation in the tourist resort of Cayo Largo del Sur, are comparatively analyzed: bronze CC480K GS (C90700) and stainless steel AISI 904L (N08904) and super duplex of standard A270 (ASTM). Among other aspects, the composition, structure, treatments, mechanical, anticorrosive and technological properties that ensure operating and maintenance conditions are analyzed, as well as prices against international benchmarks. It is concluded that the austenitic stainless steel AISI 904L (N08904), by protecting it cathodically, offers the greatest guarantee in terms of mechanical and anticorrosive resistance and acceptable maintenance and repair conditions. There is a knowledge system and an analysis methodology that will make it possible to analyze future purchases for the rest of the desalination plants served by the OSDE Agua y Saneamiento. KEY WORDS: seawater pumps, naval bronze, austenitic stainless steel, super duplex stainless steel 1. INTRODUCCIÓN Las bombas de grado marino se emplean en ambientes salinos como instalaciones portuarias u offshore, embarcaciones de mar y zonas costeras, para trasegar lastre, fluidos residuales e infiltraciones de las sentinas del buque, sistemas de refrigeración con agua de mar, canalizaciones submarinas, instalaciones desaladoras o desalinizadoras de agua de mar, entre otras. Además de resistencia mecánica y dureza, deben poseer resistencia a la corrosión al agua de mar. Por lo que la selección del material cobra particular importancia para prolongar su plazo de servicio. La OSDE (Organización Superior de Dirección Empresarial) Agua y Saneamiento necesita seleccionar el material más conveniente para efectuar la compra de equipos de bombeo de grado marino para la captación de agua de mar para las instalaciones desalinizadoras en Cayo Largo del Sur donde se encuentran instalados 5 módulos con 3 bombas cada uno. Además, la OSDE atiende en Cuba 12 instalaciones desalinizadoras de agua de mar para consumo de la población o centros turísticos, que en dependencia del caudal pueden requerir 2 o 3 bombas, que oscilan alrededor de los 40 litros/s de caudal y un consumo de 3.5 a 3.8 kW.h/m3. Algunas de ellas trabajan a partir de agua salobre con una carga de 40 m de profundidad y un caudal de 12 m3/s. El precio de estas bombas oscilan en el mercado internacional entre 1 300 y 1 500 USD, pudiendo superar los 20 000 USD en dependencia de sus características [1]. Estas bombas van situadas en zonas costeras donde puede haber alta presencia de partículas sólidas en el agua, como son zonas cercanas a las playas donde el flujo puede contener partículas de arena. En dependencia de su ubicación, en el agua de mar puede haber residuos orgánicos que pueden dar lugar a la formación de sulfatos, los que en dependencia del material seleccionado, pueden provocar fenómenos corrosivos adicionales en los equipos de bombeo [2]. Para la adquisición de las bombas ˗ similares a la que se ilustra en la Fig. 1 ˗ destinadas al polo turístico de Cayo Largo del Sur se licitaron tres ofertas de equipos de bombeo similares por sus características hidráulicas, que se diferencian en material y precio. Estos son: bronce CC480K GS, acero inoxidable AISI 904L, y acero súper dúplex A 270. Por lo que la dirección de ingeniería de la OSDE Agua y Saneamiento se enfrenta a la problemática de: ¿cuál de estos materiales es más conveniente desde el punto de vista de propiedades mecánicas y anticorrosivas para la captación de agua de mar para las desaladoras ubicadas en Cayo Largo? Figura 1: Bomba para agua de mar Omega KSB para instalar en seco, de 0,01 m³/s (50 m3/h) y 2,5 MPa (25 bar) recomendada para plantas desaladoras [3]. Ante la tarea técnica se propone como objetivo: profundizar en la fundamentación y selección del material más adecuado para la importación de los equipos de bombeo destinados a la captación de agua de mar para las instalaciones que atiende la OSDE. El adecuado análisis y selección del material para los equipos de bombeo para agua de mar, permitirá asegurar el plazo de servicio de los equipos para las condiciones de explotación en ambiente marino y por consiguiente, impactará de manera positiva en los gastos de mantenimiento y reposición de los equipos, ahorrando al país importantes recursos financieros. A su vez, ampliar y profundizar los conocimientos de selección para el resto de las instalaciones en el país. Para el análisis y selección del material más adecuado para estos equipos deben tenerse en cuenta los siguientes aspectos (entre otros de relevancia menor) [4]:  Resistencia a la corrosión.  Resistencia a la oxidación y la sulfuración (en aguas contaminadas)  Resistencia mecánica y ductilidad en ambientes y temperaturas  Idoneidad para técnicas de fabricación y/o recuperación  Idoneidad para procedimientos de limpieza  Estabilidad de las propiedades durante el servicio  Tenacidad  Resistencia a la abrasión, erosión (cavitación)  Acabado superficial  Rigidez 2. DESARROLLO Identificación y caracterización de los materiales de los equipos de bombeo de agua de mar. Los proveedores licitados emplean diferentes normas para la designación de los materiales, por lo que previamente se identifican sus designaciones, los que se muestran en la Tabla 1. Tabla 1: Identificación de los materiales de los equipos de bombeo licitados. Material Equivalencias según normas internacionales Designación Norma Tipo Norma Designación Ref. CC480K GS W Nr/DIN Bronce al estaño ISO/EN CuSn10 [5], [6] ASTM B505/505M-18 (UNS/CDA) C90700 (B-427) [8] SAE 62 [8] DIN/ISO 1705-GSnBz10 [8] BS PB1 [8] AISI 904L AISI/SAE Acero inoxidable austenítico ASTM A182/A182M-18 (UNS) N08904 [7] AFNOR NF Z 2 NCDU 25-20 [8] DIN X1NiCrmOcUn 25 20 5 [8] Acero súper dúplex A270 ASTM Acero inoxidable austeno - ferrítico ASTM/ASME SA276/A479 (UNS) S31803 [8] S32760 [8] UNS - Unified Numbering System [9] Caracterización de los materiales de los equipos ofertados La caracterización efectuada contempló en general los siguientes aspectos de análisis: composición, estructuras y tratamientos, propiedades mecánicas, físicas, anticorrosivas en agua de mar, propiedades tecnológicas y precio. Caracterización del Bronce CC480K GS (C90700 según UNS) Tabla 2. Composición del bronce CC480K GS (C90700 según UNS). Material (según UNS) Cu Sn Pb Zn Ni Residuales Ref. C90700 88.0– 90.0 10.0– 12.0 0.50 0.50 0.50 Fe- 0,15; Sb- 0,20; S- 0,05; P- 1,5; Al- 0,005; Si- 0.005 [10] Microestructura del bronce CC480K GS En la fig. 2 se observa la microestructura procedente de la fundición, mostrando la matriz primaria alfa (α) y la eutectoide terciaria α+δ. Figura 2: Microestructura del bronce UNS C90700. Fuente Savaskan. T y Alemdag. Y. (2008) [11] Tabla 3. Propiedades mecánicas del bronce CC480K GS (C90700 según UNS) Material (según UNS) Resistencia máxima, MPa Límite de fluencia a 0,5 %, MPa Elongación, % Dureza HB 3000 kg, kg/mm2 Ref. C90700 276 172 10 160 [10] Tabla 4. Propiedades tecnológicas de fabricación / recuperación del bronce CC480K GS (C90700 según UNS) Soldadura Braseado OFW GTAW/GMAW SMAW Maquinabilidad con respecto al latón de corte rápido, en % Ref. Excelente Buena Media Media Media 20 [5], [12], [4] Nota: OFW- soldadura oxigas, GTAW/GMAW - soldadura por arco bajo atmósfera protectora, SMAW - soldadura por arco con electrodo revestido Aplicaciones del bronce CC480K GS (C90700 según UNS) Ruedas helicoidales, engranajes, cojinetes para altas cargas y relativamente bajas velocidades de trabajo, cuerpos de válvulas, equipamientos para restaurantes. Este bronce es conocido como bronce fosfórico para engranajes. Se comporta bien a la corrosión atmosférica, sin embargo, no es recomendable para ambientes salinos, no es muy resistente a los iones cloro [12; 184], [4; 1178]. Las aleaciones base cobre resistentes al agua de mar presentan significativos contenidos de zinc y menos de estaño, pueden contener además, plomo y níquel. Ejemplos de estas son los latones navales C46400 al C46700 (60,0 Cu; 39,25 Zn; 0,75 Sn), los latones emplomados C48500 (60,0 Cu; 1,75 Pb; 37,5 Zn; 0,75 Sn). Estos últimos no se recomiendan para trasegar agua para consumo humano o riego, puesto que, como es conocido, su exposición prolongada provoca saturnismo. Caracterización del acero inoxidable AISI 904L (N08904 según UNS) Tabla 5. Composición del acero inoxidable AISI 904L (N08904 según UNS). Material (según UNS) C Mn P S Si Ni Cr Mo Otros Ref. N08904 0,020 2.0 0.040 0.030 1.00 23.0 – 28.0 19.0 - 23.0 4.0 – 5.0 Cu 1.00 - 2.00 N 0.10 [7] Microestructura del acero inoxidable austenítico El acero inoxidable AISI 904L (N08904 según UNS) es de estructura monofásica austenítica dado por el alto contenido de níquel y molibdeno y la presencia del manganeso, elementos todos favorecedores de la formación de la fase austenítica. Puede presentar segregación de carburos de cromo que se disuelven con tratamientos de solubilización, lo que mejora la resistencia a la corrosión. a) b) Figura 3: Microestructura del acero inoxidable austenítico en la aleación CN-7M, similar al AISI 904L: a) en estado de fundición, mostrando carburos M23C6 precipitados en los límites intergranulares de la austenita. Ataque electrolítico en CrO3 al 10%, a 6 V, durante 5 a 60 segundos, x500. b) solubilizado a 1175 ºC, durante 1 h y enfriado en agua, mostrando austenita con inclusiones dispersas. Ataque electrolítico en ácido oxálico, x400. Los puntos negros son las inclusiones. [14]. Tabla 6. Propiedades mecánicas del acero inoxidable AISI 904L (N08904 según UNS). Propiedades tecnológicas de fabricación / recuperación del acero inoxidable AISI 904L (N08904 según UNS). La aleación 904L destinada a ambientes de cloro puede recuperarse por recargue con electrodos tipo ERNiCrMo-3 y desempeñarse apropiadamente [12]. Aplicaciones del acero inoxidable AISI 904L (N08904 según UNS). La aleación 904L trabaja satisfactoriamente en soluciones de cloro de baja concentración, resiste compuestos de cloruros, fluoruros y fosfatos, así como, ácidos fuertes como el nítrico y el sulfúrico. Posee una alta resistencia a la corrosión superficial e intercristalina evitando la picadura. Puesto que el níquel no se diluye, contenidos por encima de 8 – 10 %, en presencia de cromo incrementan marcadamente la pasivación, volviendo el acero inmune a los ácidos fuertes. Las adiciones de molibdeno, cobre y nitrógeno, inhiben los procesos de segregación del cromo, incrementando la resistencia a la corrosión intercristalina [8]. Por otra parte los aceros austeníticos, a diferencia de los ferríticos, no experimentan la transición dúctil/frágil, lo cual evita muchos problemas de fracturas imprevistas [8]. En condiciones equivalentes, son menos sensibles a las entalladuras, que los aceros inoxidables martensíticos y ferríticos. Material (según UNS) Resistencia máxima, MPa Límite de fluencia 0,2, MPa Elongación, % Dureza HRB Ref. N08904 490 215 35 90 max [7], [8] Por otra parte, los aceros inoxidables austeníticos pueden presentar una severa disminución de su resistencia a la fatiga-corrosión, en condiciones que conduzcan a la picadura, como es en agua de mar. No obstante, ellos son fácilmente protegidos por el método de protección catódica con ánodos de zinc, sin temor a la fragilización por hidrógeno, dada por la poca solubilidad del hidrógeno en la austenita a diferencia de la ferrita que es seis veces superior [15; 48]. Caracterización del acero inoxidable súper dúplex El proveedor no especifica de qué tipo de acero súper dúplex de la norma ASTM A270 se trata. Dentro de la ASTM A270 [16] existe una amplia variedad de designaciones de aceros, que se diferencian en el contenido de molibdeno y nitrógeno entre otros detalles, que son determinantes para su selección en ambientes de agua de mar. Estos aceros en general se emplean para tuberías en la industria alimenticia y farmacéutica que requieren de una elevada limpieza. Pueden trabajarse por deformación plástica y por soldadura, ya que no son propensos a la formación de precipitados a altas temperaturas, debido a la alta estabilidad de la austenita, lo que reduce la tendencia a la corrosión intercristalina. Los aceros inoxidables dúplex se distinguen por presentar una estructura de austenita ferrita, al 50 % cada una aproximadamente, dada por un menor contenido de níquel en comparación con los aceros inoxidables austeníticos, pueden contener también cobre. La gama súper dúplex, denominados también como de segunda generación, se caracterizan, además, por poseer nitrógeno, que se introduce para incrementar aún más la estabilidad del carbono en la austenita, evitando la aparición de la indeseada corrosión intercristalina. Los aceros inoxidables súper dúplex pueden dividirse por su contenido de molibdeno: los que poseen hasta 3 % de Mo no se recomiendan para trabajos en agua de mar, mientras, los que poseen más de 3 % se desempeñan bien en ese medio. Como en los aceros inoxidables austeníticos, en los austeno-ferríticos el carbono debe mantenerse bien bajo (menor a 0,08 %) para evitar la corrosión intercristalina por precipitación de carburos. En la tabla 7 se puede comparar como el acero inoxidable súper dúplex S32760 posee una mayor presencia de elementos estabilizadores de la austenita, tales como: N, Mo, Cu y Ni. Este acero resiste bien el ambiente salino y además, las altas temperaturas. Sin embargo, el acero S31803 no es recomendable para servicios en agua de mar (11; 45), por presentar, debido al bajo contenido de Mo, picadura (pitting) por tenso- corrosión (SCC - stress–corrosion cracking, por sus siglas en inglés), similar a los inoxidables austeníticos no estabilizados con nitrógeno como el 304 L, 316 L y 317 L. Tabla 7. Composición química de algunos aceros inoxidables súper dúplex según la ASTM (designados según UNS) Material (según UNS) C Mn Si Cr Ni P S Mo Otros Ref. S31803 0,030 2,00 1,00 21,0 – 23,0 4,50 - 6,50 0,030 0,020 2,50 – 3,50 N 0,08 – 0,20 [15], [16] S32760 0,030 1,00 1,00 24,0 – 26,0 6,00 – 8,00 0,030 0,010 3,00 – 4,00 W 0,50 – 1,00 Cu 0,50 – 1,00 N 0,20 – 0,30 [8] Estructura del acero inoxidable súper dúplex a) b) Figura 4: Microestructura del acero inoxidable súper dúplex aleación CD-4MCu (UNS J93370: a) en estado de fundición mostrando placas dentadas y partículas de austenita en matriz ferrítica. b) solubilizada a 1065 ºC durante 1 hora y enfriado en agua, mostrando el efecto de la solubilización. Ambos con ataque electrolítico en CrO3 al 10%, a 6 V, durante 5 a 60 segundos x500 [14] Tabla 8. Propiedades mecánicas de algunos aceros inoxidables súper dúplex. 1En estado de recocido Se observa que las propiedades mecánicas de los dúplex son superiores a las de los austeníticos. En comparación con los aceros inoxidables ferríticos y martensíticos presentan mayor resiliencia, dado por la presencia de la fase austenítica. Propiedades tecnológicas de fabricación / recuperación Los aceros inoxidables súper dúplex pueden recuperarse por recargue con soldadura con electrodos del mismo material. Las adiciones de nitrógeno y los pequeños incrementos del níquel (con respecto a los dúplex de primera generación) aseguran que la ferrita del metal de aportación se transforme en austenita, manteniendo el balance de las dos fases. Presentan menor distorsión durante la soldadura que los aceros inoxidables austeníticos dado por poseer, generalmente, mayor conductibilidad térmica y menor coeficiente de expansión térmica. Las adiciones de cobre a los aceros inoxidables dúplex permiten elevar la resistencia y dureza mediante endurecimiento por precipitación, pudiendo ser mejorados por tratamiento térmico. La Maquinabilidad de los aceros inoxidables dúplex es limitada por su alto nivel de resistencia en estado de recocido [15; 1391] Aplicaciones de aceros inoxidables súper dúplex Material1 (según UNS) Resistencia máxima, MPa Límite de fluencia 0,2, MPa Elongación, % Dureza HB Ref. S31803 620 448 24 290 [8] S32760 750 550 25 290 [8] Los aceros inoxidables súper dúplex de alta aleación como el caso del S32760 (en condiciones de recocido, con un 40 -50 % de ferrita) poseen una alta resistencia a la corrosión por picadura. Su microestructura posee la alta resistencia mecánica de los aceros inoxidables ferríticos, a la vez que mantiene la resistencia a la corrosión de los grados austeníticos. Suelen ser empleados ante problemas de agrietamiento por tenso- corrosión en entornos con cloruro, que es el talón de Aquiles del acero inoxidable. Conocido por su alta resistencia al impacto, el S32760 no muestra transición dúctil-frágil, sino solo una ligera reducción en la energía de impacto a medida que disminuye la temperatura. Incluso cuando se suelda, el S32760 muestra solo una resistencia al impacto ligeramente inferior. Inicialmente se desarrolló como material resistente al agua de mar para aplicaciones de bombas en el Mar del Norte. Debido a su éxito en esa aplicación, se convirtió en el material deseado para una amplia gama de usos, que incluyen aplicaciones de petróleo y gas, agua de mar, sistemas de tuberías submarinas, intercambiadores de calor entre otras. El S32760 puede ser empleado además, en una variedad de aplicaciones que incluyen [15]:  Plantas de desalinización  Sistemas marinos  Plantas de desulfuración de gases de combustión (FGD)  Centrífugas y agitadores  Válvulas y bombas  Tanques de almacenamiento y tanques de presión Los aceros inoxidables súper dúplex aventajan a los aceros inoxidables austeníticos, ya que no experimentan la fragilidad por envejecimiento que tiene lugar a temperaturas de 475 ºC, debido a que se inhibe la precipitación de fases secundarias indeseables tales como: fosfuros, carburos, nitruros u óxidos. El comportamiento de la fatiga-corrosión no ha sido aún suficientemente estudiado en los aceros inoxidables dúplex [15]. Análisis comparativo de precios de los materiales en forma de semiproductos laminados En la tabla 9 se destaca el alto precio del bronce, en comparación con los aceros inoxidables, debido al encarecimiento en el mercado internacional de sus dos componentes fundamentales: el cobre y el estaño, siendo el más económico actualmente el AISI 904L. Tabla 9. Precios promedios de los materiales analizados surtidos en barras. Material Precio FOB de referencia, USD/kg Forma Ref. Bronce CC480K GS 9.45-10.18 Barras redondas [18] Acero inoxidable AISI 904L 1.00-2.00 Barras cuadradas [18] Acero súper dúplex A 270 1.13-6.00 Barras redondas [18] 3. CONCLUSIONES 1. El Bronce CC480K GS (C90700) no se recomienda para aplicaciones en agua de mar por su baja resistencia a la corrosión en ambiente salino. Por otra parte sus propiedades mecánicas son significativamente más bajas (límite de elasticidad 172 MPa) que las de los aceros inoxidables, pudiendo ser erosionados con mayor intensidad por partículas de arena. Su vida útil en las condiciones planteadas será reducida. 2. El acero inoxidable AISI 904L tipo austenítico se desempeña satisfactoriamente en agua de mar, sin embargo, se debe aplicar aplicar protección anticorrosiva catódica. Su resistencia mecánica es superior al bronce (límite de elasticidad 215 MPa) y menor que los súper dúplex. Se pronostica una buena durabilidad en dependencia de sus condiciones de explotación. Facilita los trabajos de recuperación por maquinado y soldadura. 3. Los aceros inoxidables súper dúplex en general son menos propensos a la picadura por tenso- corrosión que los austeníticos. Sus propiedades mecánicas son altas (su límite elasticidad oscila entre 448 y 485 MPa, según el grado de que se trate). Es de los más recomendables para trabajos en agua de mar, sin embargo, debe precisarse el grado del acero dela oferta, puesto que, con menos del 3,5 % de molibdeno no se recomiendan. Pueden presentar fragilización por hidrógeno conduciendo a fallas imprevistas, no admitiendo la protección catódica. Son más difíciles de trabajar por maquinado. 4. La oferta de los equipos de bombeo de acero inoxidable austenítico AISI 904L debe ser la más económica, si consideramos los precios actuales de estos materiales en el mercado internacional. 5. Finalmente, en este caso se recomienda seleccionar la variante de equipos de bombeo para agua de mar ofertados en acero inoxidable austenítico grado ASTM 904L (UNS N08904), teniendo en cuenta que deben ser además, protegidos catódicamente, para disminuir la tendencia a la picadura por iones cloro. REFERENCIAS 1. ALIBABA. 2022, www.alibaba.com [en línea]. [ref. de 7 de mayo 2022]: https://spanish.alibaba.com/premium/pump.html?src=sem_ggl&from=sem_ggl&cmpgn=10147114760&a dgrp=101465682613&fditm=&tgt=kwd- 22076351&locintrst=&locphyscl=2192&mtchtyp=b&ntwrk=g&device=c&dvcmdl=&creative=48978225 2084&plcmnt=&plcmntcat=&p1=&p2=&aceid=&position=&localKeyword=bomba&gclid=CjwKCAjw m8WZBhBUEiwA178UnKNzNe1iEdi9AJhRICB6GqU9Mbj-SVnrQ0H- ZQywpx1LOHJJtkE17xoCREYQAvD_BwE 2. HENRIQUEZ TOLEDO, Raúl. La corrosión en el cobre y sus aleaciones [en línea]. Dpto. de Ingeniería Mecánica Universidad de Antofagasta [ref. de 7 de mayo 2022] Disponible en Web: https://www.yumpu.com/es/document/download/28124230/7b592-d2650-3d72d-2e05c-583fc-b4b29- ab930-a3b38. 3. KSB. Bomba para agua de mar Omega® [en línea]. [ref. de 8 de mayo 2022]: https://www.directindustry.es/prod/ksb/product-7053-431199.html. 4. ASM International. Metals Handbook. Properties and Selection: Nonferrous Alloys and Special- Purpose Materials, 2005, vol. 2, ISBN 0-87170-378-5 (v.2) 5. BRONCESVAL. B10, Bronce Aleación de Cobre Estaño [en línea]. [ref. de 8 mayo 2022] Disponible en Web: https://www.broncesval.com/bronce/b10-bronce-aleacion-de-cobre-estanio/. 6. KEMPER. Sophisticated castings of copper alloys [en línea]. Hauptsitz Olpe, Deutschland, [ref. de 26 abril 2022] Disponible en Web: https://www.kemper-olpe.de/oc/business-units/cast- products/material/special-bronze/cusn10-c-gs/?L=0. 7. ASTM A182/A182M – 18. Standard Specification for Forged or Rolkled Alloy and Stainless Steel Pipe Flanges, Forged Fittings, and Valves and Parts for High-Temperature Service. ASTM Committee on Standards. PA. United States. 2018 8. Key to Steel. Internet Data base, 2005 www.key-to-stel.com [en línea]. [ref. de 15 mayo 2022] Disponible en Web: https://www.searchsteel.info/. 9. SAE. Unified Numbering System (UNS). Ed 8, 1999. ISBN 0-7680-0407-1 10. ASTM. B 505/B 505M – 18 Standard Specification for Copper Alloy Continuous Castings. ASTM Committee on Standards. PA. United States. 2018 11. CÚJAR, J. L. y DE ORO, J. “Microestructura y propiedades mecánicas del aluminio UNS A906061, del bronce UNS C90700 y del latón UNS C38500”. Director: Luis A. Espitia Tesis de Ingeniería [en línea]. Universidad De Córdoba, 2016. [ref. de 15 mayo 2022] Disponible en Web: https://repositorio.unicordoba.edu.co/handle/ucordoba/686. 12. KUTZ, M. Mechanical Engineers’ Handbook. Materials and Mechanical Design, Third Edition, JOHN WILEY & SONS, INC., 2005, ISBN-13 978-0-471-44990-4 13. PÉREZ, Ana Ma. “Estudio de la difusión y fragilización por hidrógeno de un acero inoxidable súper dúplex”. Tutor: Jorge A. Calderón. Tesis de doctorado. [en línea]. Universidad de Antioquia, Medellín. 2015. [ref. de 15 mayo 2022] Disponible en Web: https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&ved=2ahUKEwjw6- X07uD3AhVis4QIHZJQD9QQFnoECB0QAQ&url=https%3A%2F%2Fbibliotecadigital.udea.edu.co%2 Fbitstream%2F10495%2F7419%2F1%2FPerezAna_2017_EstudioDifusionFragilizacion.pdf&usg=AOv Vaw1K7cxY5QCmMKd-k22jatOq. 14. ASM International. Metals Handbook. Metallography and Microstructures, vol. 9, 2005. ISBN 0- 87170-007-7 (v.9) 15. ASM International. Metals Handbook. Properties and Selection: Irons, Steels, and High Performance Alloys, vol. 1, 2005. ISBN 0-87170-377-7 (v.1) 16. NEONICKEL. Alta resistencia al impacto a temperaturas bajo cero; el acero inoxidable UNS S32760 presenta una excelente resistencia a la corrosión [en línea]. Blackburn, UK. [ref. de 26 abril 2022] Disponible en Web: https://www.neonickel.com/es/alloys/aceros-inoxidables-super-duplex/uns-s32760/. 17. ASTM. A270/A270M-2015 Standard Specification for Seamless and Welded Austenitic and Ferritic/Austenitic Stainless Steel Sanitary Tubing. ASTM Committee on Standards. PA. United States. 2015 18. MADE IN CHINA. Directorio de productos [en línea]. Jiangsu, China [ref. de 8 de mayo 2022] Disponible en Web: https://es.made-in- china.com/productSearch?keyword=CuSn10&inputkeyword=&historywords=Sus+Palabras+claves+Reci entes. 19. VALLE NAVARRO, Katusca T. “Elaboración por medio de norma UNS de la aleación C 91700”. Tesis de ingeniería. Director: Ignacio Wiesner [en línea]. Escuela Superior Politécnica del Litoral. Guayaquil. Ecuador. 2004 [ref. de 7 de mayo 2022] Disponible en Web: https://www.dspace.espol.edu.ec/handle/123456789/35059. Sobre los autores Dr.C. Mario Martínez López, Profesor Titular del Departamento de Tecnología de la Construcción de Maquinarias (TCM) de la Facultad de Ingeniería Mecánica de la Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE. Gestiona proyectos de investigación y servicios de asesoría científica para la OSDE Agua y Saneamiento, radicada en La Habana. Ms.C. William Gurri Carballosa, Ingeniero Principal de la Dirección de Aguas Limpias de la OSDE Agua y Saneamiento, dirección que incluye la adquisición, gestión y mantenimiento de los equipos de bombeo de la red del acueducto nacional, incluyendo las plantas desalinizadoras. Gestiona proyectos de investigación y servicios de asesoría científica para la OSDE Agua y Saneamiento con la CUJAE. ◊ Comprobación numérica para la modificación geométrica de la abrazadera del sistema principal de riego. Ing. Victor Manuel Mir Labrada 1, Ing. Yusleidi Cuesta Figueroa 2, MSc. Tiel García Hernández 3, Dr. Andrés Parad Expocito4, Dr. José Arzola Ruiz5. 1. Departamento de Tecnología de Construcción de Maquinarias (TCM). Universidad Tecnológica de La Habana “José Antonio Echeverría” CUJAE. Habana. Cuba. vmir@mecanica.cujae.edu.cu ORCID: https://orcid.org/0000-0003-4163-2656 2. Empresa de Ingeniería del Reciclaje (ISDE) Zapata entre 2 y Paseo. La Habana. Cuba yusleidicf@gmail.com ORCID: 0000-0002-3167-1072 3. Departamento de Tecnología de Construcción de Maquinarias (TCM). Universidad Tecnológica de La Habana “José Antonio Echeverría” CUJAE. Habana. Cuba. tgarcia@mecánica.cujae.edu.cu ORCID: https://orcid.org/0000-0002-0783-5209 4. Departamento de Tecnología de Construcción de Maquinarias (TCM). Universidad Tecnológica de La Habana “José Antonio Echeverría” CUJAE. Habana. Cuba. aparada@mecánica.cujae.edu.cu ORCID: https://orcid.org/ 0000-0002-3120-9259 5. Departamento de Tecnología de Construcción de Maquinarias (TCM). Universidad Tecnológica de La Habana “José Antonio Echeverría” CUJAE. Habana. Cuba. josearzolaruiz1945@gmail.com ORCID: https://orcid.org/0000-0003-1128-2245 RESUMEN El objetivo de este trabajo es proponer y comprobar la modificación del diseño de la abrazadera de polipropileno de 50 mm de diámetro del sistema principal de riego, producida en Cuba. Dicha abrazadera falla en funcionamiento y por esto, se importan con otras características que brindan mayor resistencia mecánica. Para la sustitución de importaciones en dicha empresa, se nos dio la tarea de estudiar las abrazaderas, tanto la importada como la de producción nacional. Para lograr la tarea asignada, se realizaron consultas bibliográficas, relacionadas con el tema en cuestión, tanto nacional como internacional. Se realizó un estudio de los tipos de polímeros utilizados en estos procesos, acentuando el polipropileno (PP), se modeló una nueva propuesta y simuló por elementos finitos en software profesionales. A su vez, se efectuó un análisis de las técnicas de inyección, teniendo en cuenta las características de la pieza y la cantidad demandada; obteniendo resultados satisfactorios en la propuesta brindada. Arribando a la conclusión de que aplicando el método de inyección y modificando geométricamente la pieza fabricada en Cuba es mecánicamente y económicamente factible. PALABRAS CLAVE: polipropileno, inyección, elementos finitos. Numerical check for the geometrical modification of the clamp of the main irrigation system. ABSTRACT The objective of this work is to propose and verify the modification of the design of the 50 mm diameter polypropylene clamp of the main irrigation system, produced in Cuba. Which in operation fails and for this, they are imported. For the substitution of imports in said company, we were given the task of studying the clamps, both imported and nationally produced. To achieve the assigned task, bibliographical consultations were carried out, related to the subject in question, both nationally and internationally. A study of the types of polymers used in these processes was carried out, emphasizing polypropylene for its characteristics, determining its functions and applications, as well as modeling a new proposal and simulating it by finite elements. In turn, an analysis of the injection techniques was carried out, taking into account the characteristics of the piece and the quantity demanded. Obtaining satisfactory results in the offered proposal. Arriving at the conclusion of applying the injection method and geometrically modifying the part manufactured in Cuba, it is mechanically and economically feasible. KEY WORDS: polypropylene, injection, finite elements. 1. Introducción En la actualidad existen diversas formas para la fabricación de piezas. Donde los polímeros están tomando un papel principal dentro de una gama amplia de las mismas. Los polímeros (plástico, sobre todo los termoplásticos) dentro de su manufactura, en su mayoría, los métodos extrusión, soplado, inyección, conformado por vacío, etc. son los más utilizados. La decisión de elegir un método u otro puede venir dada por varios factores; dimensiones de la pieza, complejidad geométrica, material con el que se desea fabricar o incluso con las propiedades finales de la pieza. Por lo tanto, el método de fabricación que se utilizará irá exigido por la pieza. [1] La Empresa Industrial de Riego EIR, perteneciente al Grupo Empresarial de la Industria Sidero Mecánica GESIME del Ministerio de Industria MINDUS, tiene como objetivo social: Producir y comercializar Sistemas de Riego (SR), Piezas de Repuestos, Tuberías, Conexiones y Accesorios, en partícula de termoplásticos del tipo Polipropileno (PP), debido a su gran resistencia mecánica, tanto al impacto, fatiga, su elevado punto de fusión, resistencia química y gran versatilidad [2]. Dentro de las principales limitaciones para lograr el completamiento de partes, piezas y accesorios (PPA), se tiene un elemento que sostiene y une dos conductos de 50mm de diámetro (abrazadera) que conforman el SR principal por aspersión, el cual está presentando roturas en el trabajo, provocando que la empresa tenga que sustituir estas piezas al cliente, producto a que se encuentran en garantía. Debido a esto importando un número considerable de abrazaderas que no fallan. La UEB tiene como plan de trabajo para el año 2021 la producción 1870 hectáreas de SR de esas 1000 hectáreas son para la agricultura, 600 hectáreas para TABACUBA y 270 hectáreas para AZCUBA. Para lograr el cumplimiento de dicho plan de trabajo se deben producir 96340 abrazaderas, que en estos momentos se están importando. Por lo que esta investigación va dirigida a modificar la pieza, para comprobar si cumple con la calidad requerida y no tener la necesidad de comprarlas en el extranjero. El objetivo principal de este trabajo es la Modificación del diseño de la abrazadera polimérica de producción nacional para sustituir importaciones. Materiales y Métodos A continuación, se analizará la pieza de importación y de fabricación cubana, estableciendo una comparación para determinar las principales diferencias físicas en ambas, que provoca que en la cubana exista un fallo y en la importada no siendo las dos del mismo material. Por lo que es de gran importancia destacar estas diferencias y determinar cuáles puedes ser las mejoras que se le puedan hacer a la pieza cubana para evitar dicho inconveniente. Comparación entre las piezas. Como se explicó anterior mente las piezas fabricadas en Cuba presentan un fallo por rotura en la zona, que se muestra en la figura 1. Figura 1: Pieza cubana. Zona de rotura marcada en rojo. En la pieza importada no ocurre este fenómeno, pero si, son apresables diferencias geométricas ente ambas, como se destaca en la figura 2, resaltando un grupo de nervios, especialmente en la zona donde ocurre el fenómeno de rotura en la pieza cubana. Figura 2. Pieza importada destacando. La pieza une los conductos de agua a la base de los regadíos como se observa en la figura 3, en color naranja. En esta posición, después de colocada y en explotación, es decir, cuando comienzan a trabajar es que fallan, todo en ausencia de estas diferencias geométricas que posee la pieza importada. Figura 3. Pieza en la zona de servicio. Por lo anterior, se recomienda, realizar modificaciones a la pieza con características similares a la importada, sobre todo con los nervios, que son un importante elemento desde el punto de vista de resistencia, producto a que estos aumentan el momento de resistencia del elemento [1]. Planteando la bibliografía estudiada, [3] "…el momento de una fuerza, aunque fuese un elemento constante y conociendo el momento de esa fuerza podía ser muy distinto según su distancia hasta el punto respecto del que se tomaba el momento" Es común en el cálculo de vigas sometidas a flexión, tener en cuenta el momento de inercia y el módulo (o momento resistente) de la sección con respecto al eje neutro, sus valores serán distinto según la viga este en una posición o esté en otra. [4]. Por lo que se deduce al estudiar la resistencia de materiales que, si se colocan los nervios a la pieza fabricada en Cuba, se tendrá mayor resistencia a la flexión a que no los tuviese, como se evidencia en las diferencias de ambas en el apartado 2.1. De lo anterior, proponemos colocarle los nervios a la pieza cubana como se observa en la figura 4. Figura 4. Pieza cubana modificada, con nervios. En este caso para la comprobación se utilizó el software, Autodesk Inventor Professional 2020. En el proceso de comprobación, se simuló la pieza sometiéndola a un valor de carga de 25N el cual permite que las pestañas de la brida se cierren, evitando que estas se partan debido a la instalación de los nervios propuesto por el software, con la carga aplicadas a la pieza, donde una parte es fija y el extremo contrario móvil. Figura 5 (a) (b) Figura 5. a) Cara seleccionada. b) Restricción fija. En las tablas 1 y 2 se muestran las propiedades del material obtenidas de la biblioteca del software, se comprobarán con los resultados de las tenciones de Von Miss (criterio de resistencia para materiales dúctiles donde se somete a un (δmax y Ʈ en equilibrio) estado tensional equivalente tal como si se analizara cada esfuerzo individual) y los desplazamientos. Tabla 1: Propiedades físicas. Material Polystyrene, High Impact Density 1,022 g/cm^3 Mass 0,0239758 kg Area 17636,3 mm^2 Volume 23459,7 mm^3 Center of Gravity x=0,0671544 mm y=-13,1925 mm z=5,90849 mm Tabla 2: Propiedades del material 2. Resultados y Discusión A continuación, se muestra el informe de los resultados Tabla 3: Resumen de los resultados. Imágenes de los resultados obtenidos al aplicar el método numérico para la comprobación de la resistencia en la pieza. . Figura 6. Método empleado: Von Miss Stress Figura 7. Desplazamiento general. (a) (b) (c) Figura 8. a) Desplazamiento en el eje x. b) Desplazamiento en el eje y c) Desplazamiento en el eje z. Resumen de los resultados. Según el comportamiento de la pieza después de aplicadas las cargas, como se muestran en las figuras 6; 7; y 8, se puede concluir que soporta la carga sin deteriorarse o romperse, cosa que es comparable entre los resultados expuestos en las tablas 2 y 3. El análisis se realizó entre las tenciones de VON MISS, los resultados fueron (7.028 MPa) y el límite elástico del material (Yield Strength 26,5 MPa) que es propiedad del mismo. Debido a los resultados, que brinda una buena aceptación se decide optar por la modificación propuesta para el molde. 3. Conclusiones Luego de análisis de los resultados se puede llegar a las siguientes conclusiones: 1. Se llevó a cabo la propuesta de modificación de la pieza cubana. 2. Se comprobó por métodos numéricos que la modificación propuesta cumple con las expectativas del diseño y de explotación del a pieza. 3. Se comprobó que producir las abrazaderas es rentable para el país. Referencias 1. (CODEPLASA), Corporación de plástico S.A. Historia del plástico. Guatemala: s.n., 2006. 2. Curso básico sobre plástico CBIP Jornal del plástico. Brasil: Emma Florentino, 2006. 3. Maya Ortega, Enrique. Diseño de moldes de inyección de plástico con ingeniería concurrente. escuela superior de ingeniería mecánica y eléctrica sección de estudios de posgrado y superación. mexico, mexico: s.n., 19 de febrero de 2007. 4. Prada Ospitra, Ricardo y Acosta Prado, Julio Cesar. El moldeo en el proceso de inyección de plástico para el logro de objetivos empresariales. 2017. PROGRAMA GENERAL III Simposio Internacional de Generación Distribuida SIGEDI 2022 III Simposio Internacional sobre Generación Distribuida (SIGEDI 2022) Palacio de las Convenciones de La Habana Del 28 de noviembre al 2.de diciembre de 2022 XX Convención Científica de Ingeniería y Arquitectura, Palacio de las Convenciones de La Habana, del 28 de noviembre al 2 de diciembre de 2022 1 Programa General III Simposio Internacional de Generación Distribuida SIGEDI 2022 III Simposio Internacional sobre Generación Distribuida (SIGEDI 2022) Palacio de las Convenciones de La Habana Del 28 de noviembre al 2.de diciembre de 2022 XX Convención Científica de Ingeniería y Arquitectura, Palacio de las Convenciones de La Habana, del 28 de noviembre al 2 de diciembre de 2022 2 Programa General y Técnico III Simposio Internacional de Generación Distribuida SIGEDI 2022 Palacio de las Convenciones de la Habana, del 28 de noviembre al 2 de diciembre de 2022 Organizado por: Patrocinado por: Coauspiciado por: III Simposio Internacional sobre Generación Distribuida (SIGEDI 2022) Palacio de las Convenciones de La Habana Del 28 de noviembre al 2.de diciembre de 2022 XX Convención Científica de Ingeniería y Arquitectura, Palacio de las Convenciones de La Habana, del 28 de noviembre al 2 de diciembre de 2022 3 PROGRAMA GENERAL SIGEDI 2022 / GENERAL PROGRAM SIGEDI 2022 Día / Day Horario/Hours 28-11 29-11 30-11 1º.-12 2.-12 09:12:00 Acreditación 09:00-10:00 Inauguración SIGEDI 2022 09:00 – 10:00 Mesa Redonda No.2 Conferencia Central: Rector Universidad de Manabí, Portoviejo, Ecuador; 09:00-10:00 Mesa Redonda No.4 Mesa Redonda No.5 10:00-11:00 Mesa Redonda No.1 10:00 – 12:00 Mesa Redonda No.3 11:00-12:00 Sesión de presentación de trabajos técnicos Sesión de presentación de trabajos técnicos Sesión de presentación de trabajos técnicos Sesión de presentación de trabajos técnicos 12:00-13:30 13:30-15:00 Almuerzos (Restaurante El Bucán) Almuerzo de despedida Rest. El Bucán 13:30 horas 14:00 Acto inaugural 20 CCIA Sala 1, 14:00 horas Ceremonia Condecoración Sala 8, 14:00 horas 15:30-17:30 Brindis de bienvenida 20 CCIA Rest. El Bucán III Simposio Internacional sobre Generación Distribuida (SIGEDI 2022) Palacio de las Convenciones de La Habana Del 28 de noviembre al 2.de diciembre de 2022 XX Convención Científica de Ingeniería y Arquitectura, Palacio de las Convenciones de La Habana, del 28 de noviembre al 2 de diciembre de 2022 4 Programa Técnico SIGEDI 2022 ACTO INAUGURAL Día: 28 de noviembre de 2022 Sesión: Mañana Presidente Sesión: Dr. C. Miriam Vilaragut Llanes Sala: 11 Actividad: Inauguración de SIGEDI 2022. Lugar: Palacio de las Convenciones de La Habana Horario Código Título del trabajo 09:00 - 010:00 Inauguración Oficial de SIGEDI 2022 a. Bienvenida a nombre de la Unión Eléctrica de Cuba. Ing. Alfredo López Valdez, Director General b. Conferencia: Una visión de futuro del SEN. Conferencista: Dr. C. Miguel Castro Fernández 09:30 – 11:30 MR-01 Mesa Redonda No.1. La eficiencia en la operación y explotación de las Centrales Eléctricas de Generación Distribuida Ponentes: Ing. Arles Luna Leyva, Ing. Reynaldo Ponce Iglesias, Ing. Raciel Olalde Stuch, Ing. Antonio Martínez García III Simposio Internacional sobre Generación Distribuida (SIGEDI 2022) Palacio de las Convenciones de La Habana Del 28 de noviembre al 2.de diciembre de 2022 XX Convención Científica de Ingeniería y Arquitectura, Palacio de las Convenciones de La Habana, del 28 de noviembre al 2 de diciembre de 2022 5 Día: 29 de noviembre de 2022 Sesión: Mañana Presidente Sesión: Dr. C. Ariel Santos Fuentefría Sala: 11 Actividad: Las Fuentes Renovables de Energía y su impacto en las redes eléctricas Lugar: Palacio de las Convenciones de La Habana Horario Código Título del trabajo 09:00 - 11:00 MR-02 Mesa Redonda No.2. Las FRE y su impacto en las Redes Eléctricas Ponentes: Ing. Ovel Concepción Díaz; Dra. C. Miriam Vilaragut Llanes; Ing. Edel Gómez Gómez; Ing. Ricardo Mangana Pérez 11:15 – 11:30 SIGEDI 001 Possibilities and challenges for developing a 100% renewables electricity system for Cuba Jyrki Luukkanen, Finlandia 11:30 - 11:45 SIGEDI 017 Impacto de los parques fotovoltaicos en las redes de distribución radiales Urbano J. Pedraza Ferreira, Cuba 11:45 – 12:00 SIGEDI 016 Ubicación y dimensionamiento de centrales de generación distribuida en redes de distribución radial Carlos A. Perdomo Pérez, Cuba 12:00 - 12:15 SIGEDI 011 Preliminary analysis of cuban power system flexibility toward to scenario of a rising share of vRES in 2030 Eduardo Sierra Gil, Cuba 12:15 – 12:30 SIGEDI 015 Modelado de un parque solar fotovoltaico de empleo industrial Jesús Gabriel García Tamayo, Cuba 12:30 – 12:45 SIGEDI 006 Desempeño de inversores multinivel para energías renovables, una alternativa a la generación distribuida en México Francisco E. López Monteagudo, México 12:45 – 13:30 DEBATE III Simposio Internacional sobre Generación Distribuida (SIGEDI 2022) Palacio de las Convenciones de La Habana Del 28 de noviembre al 2.de diciembre de 2022 XX Convención Científica de Ingeniería y Arquitectura, Palacio de las Convenciones de La Habana, del 28 de noviembre al 2 de diciembre de 2022 6 Día: 30 de noviembre de 2022 Sesión: Mañana Presidente Sesión: Dr. C. Miguel Castro Fernández Sala: 11 Actividad: La Electromovilidad y su impacto en las Redes Eléctricas Lugar: Palacio de las Convenciones de La Habana Horario Código Título del trabajo 10:00 - 12:00 MR-03 Mesa Redonda No.3. La Electromovilidad y su impacto en las Redes Eléctricas Ponentes: Ing. Ramses Montes Calzadilla; M. Sc, Luis A. Madrigal Valdés; Ing. Rodny Soberats Cobos; Ing. Julián Ameneiros Marrero. 12:00 - 12:15 SIGEDI 021 Análisis de las potencialidades de un laboratorio para pruebas y homologación de baterías para vehículos eléctricos Antonio Villasol López, Cuba 12:15 – 12:30 SIGEDI 022 Propuesta de reglamento para el diseño y construcción de las estaciones de carga en Cuba Miguel Castro Fernández, Cuba 12:30 – 12:45 SIGEDI 025 Estación de carga de baja potencia Enmanuel Jorge Coto, Cuba 12:45 – 13:00 SIGEDI 020 Cargadores de motos eléctricas Pablo Antonio Rodríguez Gutiérrez, Cuba 13:00 – 13:30 DEBATE III Simposio Internacional sobre Generación Distribuida (SIGEDI 2022) Palacio de las Convenciones de La Habana Del 28 de noviembre al 2.de diciembre de 2022 XX Convención Científica de Ingeniería y Arquitectura, Palacio de las Convenciones de La Habana, del 28 de noviembre al 2 de diciembre de 2022 7 Día: 1º. de diciembre de 2022 Sesión: Mañana Presidente Sesión: Dr. C. Miriam Lourdes Filgueiras Sainz de Rozas Sala: 11 Actividad: La Ciencia y la Innovación en el sector energético Lugar: Palacio de las Convenciones de La Habana Horario Código Título del trabajo 09:00 - 11:00 MR-04 Mesa Redonda No.4. La Ciencia y la Innovación en el sector energético Ponentes: Dr. C. Julio Molé Menéndez; Dr. C. Jesús Suárez Hernández; Dra. C. Marle Pérez de Armas; Dra. C. Mercedes Delgado Fernández 11:15 – 11:30 SIGEDI 005 Energy system efficiency in Cuba. Decomposition análisis of energy use and CO2 emissions Jarmo Vehmas, Finlandia 11:30 - 11:45 SIGEDI 004 Resilience análisis of energy Sources in the cuban economy in years 1971- 2050. Empirical Herfindahl-Hirschman and Lauraeus-Kaivo-Oja index analysis Jari Roy Lee Kaivo-oja, Finlandia 11:45 – 12:00 SIGEDI 018 Casos de estudio de diagnóstico por SFRA a dos transformadores de potencia de tres devanados Ernesto Díaz Alfonso, Cuba 12:00 - 12:15 SIGEDI 009 Metodología para el diagnóstico y la gestión del mantenimiento en las subestaciones eléctricas de los grupos Carlos Ruano González, Cuba 12:15 – 12:30 SIGEDI 010 Gestión de fallos eléctricos en los turbogeneradores TBΦ100 de la central eléctrica Ernesto Che Guevara Dany Oscar Díaz Vélez, Cuba 12:30 – 12:45 SIGEDI 013 Las oscilaciones de potencia y sus retos a los relés de distancia utilizados en Cuba Osmel Pérez Baluja, Cuba 12:45 – 13:00 SIGEDI 23 Índice de salud en transformadores de fuerza. Su análisis y utilización Jorge J. Montané García, Cuba 12:45 – 13:30 DEBATE III Simposio Internacional sobre Generación Distribuida (SIGEDI 2022) Palacio de las Convenciones de La Habana Del 28 de noviembre al 2.de diciembre de 2022 XX Convención Científica de Ingeniería y Arquitectura, Palacio de las Convenciones de La Habana, del 28 de noviembre al 2 de diciembre de 2022 8 Día: 2 de diciembre de 2022 Sesión: Mañana Presidente Sesión: Dra. C. Miriam Vilaragut Llanes Sala: 11 Actividad: Presencia de la mujer en el sector eléctrico Lugar: Palacio de las Convenciones de La Habana Horario Código Título del trabajo 09:00 - 11:00 MR-05 Mesa Redonda No.5. Presencia de la mujer en el sector eléctrico Ponentes: Ing. Norbelis Infante Pérez, M. Sc.; Ing. Nubia Fuentes Montero; Est. Universitaria Soyneli Córdova Ortiz; Est. de Preuniversitario Erika Sarahy Montenegro Morales 11:10 – 11:15 SIGEDI 014 Convertidores electrónicos de potencia de los sistemas fotovoltaicos autónomos de 300 W instalados en Cuba Mercedes Canasí Piñeiro, Cuba 11:15 – 11:30 SIGEDI 007 Metodología para la reconfiguración multiobjetivo en las redes de distribución con presencia de generación distribuida Irina Laamanen, Finlandia 11:30 - 11:45 SIGEDI 019 Análisis de ferroresonancia en el circuito MU4073 de Jagüey Grande Dailen García del Sol, Cuba 11:45 – 12:00 SIGEDI 008 Sustainability window and dogghnut economy model for Cuba Anaely Saunders Vazquez, Finlandia 12:00 – 12:45 SIGEDI 002 Cuba in global politics-geopolitics through cross-impact analysis Jyrki Luukkanen, Finlandia 12:45 – 13:15 DEBATE 13:15 – 14:00 Clausura Oficial de SIGEDI 2022. a. Relatoría a nombre del Comité Organizador de SIGEDI 2022. Dr. C. Miguel Castro Fernández b. Lanzamiento del Congreso ALTAE 2023 Palabras de Clausura Oficial del Congreso. Ing. Arles Luna Leyva, Director de Generación Distribuida, UNE MEMORIAS SIGEDI 2022 POSSIBILITIES AND CHALLENGES FOR DEVELOPING A 100% RENEWABLE ELECTRICITY SYSTEM FOR CUBA / POSIBILIDADES Y DESAFÍOS PARA DESARROLLAR UN SISTEMA ELÉCTRICO 100% RENOVABLE PARA CUBA Jyrki Luukkanen1, Anaely Saunders Vázquez2, Yrjö Majanne3 and Mika Korkeakoski2 1,2University of Turku, Finland Futures Research Centre, 3Tampere University 1e-mail: jyrki.luukkanen@utu.fi Introduction The Cuban electricity system relies on fossil fuel combustion in large condensing power plants (termoeléctricas) and internal combustion engines using fuel oil and diesel. About 95 % of electricity production is based on fossil energy. Cuba has, however, plans to reduce carbon emissions and shift to using more renewable energy sources. In the Third National Communication to UNFCCC, Cuba states that to achieve a change in the energy mix, increase energy efficiency, and reduce GHG emissions, the incorporation of renewable energy sources such as solar PV, biomass, and wind, in electricity production is needed [1] and the Council of Ministers approved, in 2014, the "Policy for the prospective development of renewable sources and efficient use of energy”, aimed at making the most of renewable resources available nationwide [1]. The fire at the Matanzas oil storage in August 2022 and several problems in the old power plants have highlighted the need to transform the electricity system. The Cuban authorities have discussed possibilities to find ways to develop a 100 % renewable electricity system [2]. In the Cuban case, where hydropower resources are very limited, and biomass resources cannot cover the electricity demand, the use of solar PV and wind power becomes crucial. However, integrating these variable renewable energy sources in the electricity system faces some techno-economic challenges. In the electrical system, the electricity supply has to be equal to the electricity demand every second. When the load (electricity demand) varies throughout the day and year, and the supply of solar PV and wind power varies according to the weather conditions, the balancing has to be carried out using controllable power sources and loads. When the share of variable solar and wind production increases in the system, balancing power production faces larger challenges. The balancing of supply and demand can be carried out in several ways. Controllable power plants, such as fossil-based thermal, biomass, and hydropower plants, can change their power output to balance supply and demand. Different types of power plants can respond to the required changes at different change rates. Hydropower, gas turbines, and ICE power plants are faster than steam power plants. The required change rate of balancing power depends on how fast the electricity demand changes (load curve changes) and how fast the variable energy sources change their outputs. In this article, we look at the required changes in electricity production from the point of view of balanced supply and demand in the future Cuban electricity system. Energy storage can be an essential resource for balancing supply and demand in a system with a high share of variable renewable energy sources. The energy storage can be, for instance, in the form of batteries, pumped hydro storage, compressed air storage, flywheels, or a power-to-gas-to-power (P2G2P) system. P2G2P technology involves using excess electricity to produce hydrogen that can be stored in the gas network and later converted into power again. This article analyzes the use of pumped hydro storage for balancing the electricity system because it seems to fit the local requirements in the Cuban case. This article analyzes possible scenarios for reaching a 100% renewable electricity system by 2050. We concentrate on constructing scenarios for electricity consumption in different sectors of the economy and building backcasting scenarios for electricity supply to meet targets for the share of renewable energy in the production mix. The scenario construction in this article is carried out using the CubaLinda model [3]. The model structure is shortly presented in the next section. The CubaLinda model is used for constructing hourly consumption scenarios till 2050 and then looking at different options to cover the demand with renewable sources. The two different production scenarios are based on the increase in solar PV and wind power investments in different locations in Cuba and the wind and solar radiation potentials in these locations. The scenario approach used here is the so-called backcasting scenario [4], where first the target, in this case, 100 % renewable electricity production, is set, and then different options for reaching the target are analyzed using the CubaLinda model by changing the different input data (like investments in power plants). CUBALINDA MODEL CubaLinda model is a so-called accounting framework model with which scenarios can be constructed for the energy demand and supply sides. The electricity demand and supply are modelled hourly. The model balances electricity supply and demand. The historical power plant data is from the National Statistical Office of Cuba [5], and the sectoral energy consumption figures are from the International Energy Agency IEA statistics [6]. The sectoral economic data of value added is from UN Statistics [7]. The Linda model is based on the so-called intensity approach using the Kaya identity to calculate CO2 emissions [3]. The main balancing components of the model are illustrated in Fig. 1. The energy demand for both electricity and fuels is based on the constructed scenario for economic growth in different sectors and electricity and fuel intensities in different sectors of the economy. The hourly electricity demand is constructed based on user-given load curves for sectors and the future scenarios of the changes in load curves and the growth in sectoral consumption. The sectoral load curves are constructed separately for weekdays and weekends and the different months of the year. Sectoral economic development 0 20 000 40 000 60 000 80 000 100 000 120 000 140 000 160 000 180 000 1971 1979 1987 1995 2003 2011 2019 2027 2035 Mill. USD Value added (GDP) Cuba BAU Commercial Transportation, communication Industry Agriculture and forestry Sectoral energy/electricity intensity 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 1971 1979 1987 1995 2003 2011 2019 2027 2035 ktoe/Mill USD Electricity intensity in Cuba BAU Agriculture Industry Commercial Sectoral annual/hourly energy consumption 0 5 000 10 000 15 000 20 000 25 000 30 000 35 000 40 000 1971 1981 1991 2001 2011 2021 2031 GWh Electricity consumption in Cuba BAU Losses Residential Commercial Industry Agriculture forestry 0 500 1000 1500 2000 2500 3000 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 MW Load curve: Friday Jan 30 vs. Sun Feb 1 Friday Jan 30 Sunday Feb 1 0 10 20 30 40 50 60 70 80 90 100 0 -1 1 -2 2 -3 3 -4 4 -5 5 -6 6 -7 7 -8 8 -9 9 -1 0 1 0 -1 1 1 1 -1 2 1 2 -1 3 1 3 -1 4 1 4 -1 5 1 5 -1 6 1 6 -1 7 1 7 -1 8 1 8 -1 9 1 9 -2 0 2 0 -2 1 2 1 -2 2 2 2 -2 3 2 3 -2 4 % of maximum load Households 0% 20% 40% 60% 80% 100% 120% Jan Feb Mar Apr May June July Aug Sept Oct Nov Dec Cuba monthly electricity demand (of average) 0 500 1000 1500 2000 2500 3000 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 MW Friday load curves in January and May Fri Jan 2, 2009 Fri May 29, 2009 Sectoral hourly electricity consumption Energy demand Energy supply Controllable power production (fossil) Variable electricity production 0 20 40 60 80 100 0 -1 1 -2 2 -3 3 -4 4 -5 5 -6 6 -7 7 -8 8 -9 9 -1 0 1 0 -1 1 1 1 -1 2 1 2 -1 3 1 3 -1 4 1 4 -1 5 1 5 -1 6 1 6 -1 7 1 7 -1 8 1 8 -1 9 1 9 -2 0 2 0 -2 1 2 1 -2 2 2 2 -2 3 2 3 -2 4 % Solar 0 1 2 3 4 5 6 7 8 9 1 1 4 2 7 4 0 5 3 6 6 7 9 9 2 1 0 5 1 1 8 1 3 1 1 4 4 1 5 7 1 7 0 1 8 3 1 9 6 2 0 9 2 2 2 2 3 5 2 4 8 2 6 1 2 7 4 2 8 7 3 0 0 3 1 3 3 2 6 3 3 9 3 5 2 3 6 5 kWh/m2 Solar daily radiation Santiago de Cuba 2005 0.0 2.0 4.0 6.0 8.0 10.0 12.0 1 7 1 3 1 9 2 5 3 1 3 7 4 3 4 9 5 5 6 1 6 7 7 3 7 9 8 5 9 1 9 7 1 0 3 1 0 9 1 1 5 1 2 1 1 2 7 1 3 3 1 3 9 1 4 5 1 5 1 1 5 7 1 6 3 1 6 9 Wind speed m/s 0% 20% 40% 60% 80% 100% 120% 140% 160% 180% Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec Rain availability for hydro 0 % 20 % 40 % 60 % 80 % 100 % Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec Sugar production volume (bagasse use for CHP) CubaLinda model Balancing Electricity storage? Power plant technology and ecnomics -3000 -2000 -1000 0 1000 2000 3000 0 1 2 3 4 5 6 MW Hours Ramp rate envelope 2030 in Cuba BAU Max Min Av + Av - Figure 1. Functioning of the CubaLinda model. Electricity supply scenarios are constructed based on user-given investments in different power plants. The solar PV power plants are situated in different provinces, and the incoming radiation is obtained from the MERRA database using renewables.ninja website [8]. The model uses hourly data from 2019 for different locations and combines the incoming radiation data with the installed PV capacity in different provinces defined in scenarios. The wind power production is based on wind speed information and its conversion to electricity output in the MERRA database for 2019 [9] for different planned wind farm locations (see Figure 2.). As a result, wind power capacity will be invested in these locations in the scenarios. Figure 2. The planned wind farm locations used in the CubaLinda model with variable power plant investment amounts. The model uses controllable power plants to balance the supply and demand of electricity. The first option for balancing is electricity storage, in this case, pumped hydro storage. It will carry out balancing, and if there is not enough capacity in the pumped hydro storage, fossil ICE and gas turbine power plants will be used. According to Montes Calzadilla (2019) [10], there is a potential pumped hydro storage capacity in the Eastern part of about 7800 MW in 13 locations, in the central part about 1850 MW in four locations, and the Western part, about 3300 MW in eight locations. The estimated potential in these 25 locations is almost 20 000 MW with 5 hours of operation as an average in generation (discharge) mode, which could result in a maximum generation of 100 GWh/Day. The CubaLinda model constructs scenarios for different sectors of the economy and calculates the fuel used in different sectors, related CO2 emissions, and electricity production costs (Levelized Cost of Electricity, LCOE) based on user given information of future investment costs, operation and maintenance costs, and fuel cost for different power plant types and fuels. The model also calculates the required ramping rates (need for maximum change in power production per hour) and load duration curves to assess types of power plant capacity investments. Scenario construction for renewable integration – towards 100% renewables The CubaLinda model has been used to construct different scenarios for the future in order to analyse the changes in electricity consumption and production when lots of new solar PV and wind power capacity in installed. First, we have constructed a base scenario until 2050 concerning economic development and electricity demand, and based on it, we have used the backcasting scenario method [4] to analyze possibilities to reach the 100 % renewable scenario. In the backcasting scenario construction, the target for the end-year situation, is the starting point, and the model input data is modified to see what kind of possibilities there are for reaching the target. Scenario 1 The economic development in Cuba in the first scenario is assumed to follow a similar pattern to historical development in the main production sectors. The development of Value Added is shown in Figure 3. 0 50 000 100 000 150 000 200 000 250 000 1971 1980 1990 2000 2010 2020 2030 2040 2050 Mill. USD Value added (GDP) Cuba Services Transportation, communication Industry Agriculture and forestry 0 5 000 10 000 15 000 20 000 25 000 30 000 35 000 1971 1980 1990 2000 2010 2020 2030 2040 2050 GWh Electricity consumption in Cuba Losses Residential Services Industry Agriculture forestry Figure 3. Economic development and electricity consumption in Cuba in different sectors of the economy in scenario 1. The electricity consumption in Scenario 1 is also shown in Figure 3. The growth in electricity consumption in different sectors is based on economic development and the changes in the electricity intensity in the sectors. Here we assume considerable growth in the residential sector, which also includes the consumption in the rented apartments for tourists (casa particular), private restaurants, and other small private businesses. 0 1 000 2 000 3 000 4 000 5 000 6 000 7 000 8 000 Hydro Oil (Termoelectricas) Gas turbine New technology + Diesel generators Solar Wind Biofuel MW Installed capacity 2050 in Cuba 0 2 000 4 000 6 000 8 000 10 000 12 000 14 000 16 000 18 000 20 000 1971 1980 1990 2000 2010 2020 2030 2040 2050 GWh Electricity production in Cuba Oil Gas Hydro Biofuel Solar Wind Figure 4. Installed power plant capacity and electricity production by different types of power plants in scenario 1. ‘New technology’ here means internal combustion engines (ICE) using diesel oil or fuel oil. In this scenario, there is a considerable increase in solar and wind power investments and pumped hydro storage with a capacity of 40 000 MWh. The installed power plant capacity of this scenario is shown in Figure 4 and the electricity production by different power plants. Biofuel, wind, and solar productions are increasing considerably while oil-based production decreases fast due to investments in renewable capacity. It is assumed that termoeléctricas do not generate in this scenario in 2050 because of the fast response needed for the residual production and the form of the residual load duration curve, which implies that there is no room for baseload production. In this scenario, wind and solar capacity growth after 2024 is assumed to be 10 percent per year until 2050. In Figure 5, we see the electricity production and consumption during the first two days in 2050. The wind speed (from the reference year 2019) is relatively high, enabling lots of wind power production. During the first seven hours of the first day, wind production exceeds the electricity demand, and the extra production is stored in the pumped hydro storage. Biomass is used for power production, even though wind production covers the demand because industrial Combined Heat and Power (CHP) production is needed for heat production. During the daytime, solar power increases production and enables additional electricity storage despite the increasing demand. During the evening peak consumption time, wind, solar, and biomass production are not enough to cover the demand, and that is why a little bit of supply from the storage is needed for balancing. The second day of January is quite similar to the first day, and we can see that all the electricity consumption is covered with renewable sources during these days. The storage is not charged during the peak solar production on the second day because the storage capacity is already full (see Figure 6). 0 2000 4000 6000 8000 10000 12000 14000 16000 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 MW Hours January 1-2, 2050 Wind Solar Hydro Biomass Termoelectricas Gas turbine New technology Storage supply Storage charge Demand Figure 5. Electricity supply and demand during January 1-2, 2050, in Scenario 1. When we look at the first week of January (see Fig. 6), we notice that renewable sources cannot cover all the demand on the 5th, 6th, and 7th of January. During these days, the wind speed decreases (in the reference year), and renewables production is too low to cover the demand even though biomass production uses the total available capacity. As a result, the storage capacity needs to be used to balance production and consumption as shown in Figure 6. 0 2000 4000 6000 8000 10000 12000 14000 16000 1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 61 64 67 70 73 76 79 82 85 88 91 94 97 100 103 106 109 112 115 118 121 124 127 130 133 136 139 142 145 148 151 154 157 160 163 166 MW Hours January 1-7, 2050 Wind Solar Hydro Biomass Termoelectricas Gas turbine New technology Storage supply Storage charge Demand 0 5 000 10 000 15 000 20 000 25 000 30 000 35 000 40 000 45 000 1 5 9 1 3 1 7 2 1 2 5 2 9 3 3 3 7 4 1 4 5 4 9 5 3 5 7 6 1 6 5 6 9 7 3 7 7 8 1 8 5 8 9 9 3 9 7 1 0 1 1 0 5 1 0 9 1 1 3 1 1 7 1 2 1 1 2 5 1 2 9 1 3 3 1 3 7 1 4 1 1 4 5 1 4 9 1 5 3 1 5 7 1 6 1 1 6 5 MWh Hours Stored energy MWh, January 1-7, 2050 Figure 6. Electricity supply and demand and stored energy during January 1-7, 2050, in Scenario 1. Figure 7 shows the situation on August 25-31. It shows that the amount of wind and solar capacity, biomass capacity, and assumed storage capacity is not enough to reach the 100% renewable energy target because the wind speed is meager during that period, and also the solar PV production is low, and the biomass production cannot cover the demand. This indicates the need to use fossil energy to cover the electricity demand. 0 1000 2000 3000 4000 5000 6000 7000 8000 9000 1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 61 64 67 70 73 76 79 82 85 88 91 94 97 100 103 106 109 112 115 118 121 124 127 130 133 136 139 142 145 148 151 154 157 160 163 166 MW Hours August 25-31, 2050 Wind Solar Hydro Biomass Termoelectricas Gas turbine New technology Storage supply Storage charge Demand Figure 7. Electricity supply and demand during August 25-31, 2050, in scenario 1. ‘New technology’ here means internal combustion engines (ICE) using diesel oil or fuel oil. The energy storage is almost empty during the August 25-31 period. However, the low wind period continues during the first days of September, and fossil energy supply is needed to balance the supply and demand, as is shown in Figure 8. During this week, the wind speed increases, and at the end of the week, the storage capacity will get some energy during the daytime. 0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000 1 3 5 7 9 1 1 1 3 1 5 1 7 1 9 2 1 2 3 2 5 2 7 2 9 3 1 3 3 3 5 3 7 3 9 4 1 4 3 4 5 4 7 4 9 5 1 5 3 5 5 5 7 5 9 6 1 6 3 6 5 6 7 6 9 7 1 7 3 7 5 7 7 7 9 8 1 8 3 8 5 8 7 8 9 9 1 9 3 9 5 9 7 9 9 1 0 1 1 0 3 1 0 5 1 0 7 1 0 9 1 1 1 1 1 3 1 1 5 1 1 7 1 1 9 1 2 1 1 2 3 1 2 5 1 2 7 1 2 9 1 3 1 1 3 3 1 3 5 1 3 7 1 3 9 1 4 1 1 4 3 1 4 5 1 4 7 1 4 9 1 5 1 1 5 3 1 5 5 1 5 7 1 5 9 1 6 1 1 6 3 1 6 5 1 6 7 MW Hours September 1-7, 2050 Wind Solar Hydro Biomass Termoelectricas Gas turbine New technology Storage supply Storage charge Demand 0 5 000 10 000 15 000 20 000 25 000 30 000 35 000 40 000 1 5 9 1 3 1 7 2 1 2 5 2 9 3 3 3 7 4 1 4 5 4 9 5 3 5 7 6 1 6 5 6 9 7 3 7 7 8 1 8 5 8 9 9 3 9 7 1 0 1 1 0 5 1 0 9 1 1 3 1 1 7 1 2 1 1 2 5 1 2 9 1 3 3 1 3 7 1 4 1 1 4 5 1 4 9 1 5 3 1 5 7 1 6 1 1 6 5 1 6 9 1 7 3 1 7 7 1 8 1 1 8 5 1 8 9 MWh Hours Stored energy MWh, September 1-7. 2050 Figure 8. Electricity supply and demand and stored energy during September 1-7, 2050, in scenario 1. The annual electricity production of different energy sources in Scenario 1 is shown in Figure 9. In this scenario, renewables dominate production, and their share of the total annual production is 95 %. Biomass has the highest share of production (about 12 000 GWh), followed by wind power (about 11 000 GWh). Solar PV production is about 10 600 GWh, fossil-based ICE production (New technology) about 1 500 GWh, and gas turbines about 400 GWh. The hydro production is very low due to the low installed capacity. The storage supply is about 3 200 GWh in this scenario, and the storage charge is 3 700 GWh. 0 2 000 4 000 6 000 8 000 10 000 12 000 14 000 Wind Solar Hydro Biomass Termoelectricas Gas turbine New technology Annual production GWh Figure 9. Annual electricity production by different types of power plants in 2050 in Scenario 1. Scenario 2 In Scenario 2, the economic development is equivalent to Scenario 1, but wind and solar investments have increased. In this scenario, we have also increased pumped hydro storage capacity from 40 000 MWh to 120 000 MWh. The electricity consumption in this scenario is the same as in Scenario 1, shown in Figure 4. The installed power plant capacity in 2050 in this scenario is shown in Figure 10. The increase in wind capacity in this scenario is considerable. The growth of solar PV capacity is assumed to be 10 percent per year after 2024, and wind capacity is assumed to increase 11 percent per year after 2024. Electricity production with different power sources in Scenario 2 is shown in Figure 10 too. Again, we can notice that the share of fossil production decreases fast after the introduction of added renewable capacity, and almost reaches zero by 2050. 0 1 000 2 000 3 000 4 000 5 000 6 000 7 000 8 000 Hydro Oil (Termoelectricas) Gas turbine New technology + Diesel generators Solar Wind Biofuel MW Installed capacity 2050 in Cuba 0 2 000 4 000 6 000 8 000 10 000 12 000 14 000 16 000 18 000 20 000 1971 1980 1990 2000 2010 2020 2030 2040 2050 GWh Electricity production in Cuba Oil Gas Hydro Biofuel Solar Wind Figure 10. Total installed power plant capacity and electricity production from different power sources in 2050 in Scenario 2. The annual electricity production in 2050 from different power sources in Scenario 2 is shown in Figure 11. Fossil energy sources still cover part of the consumption, but the share of renewable sources in this scenario is already 99.6%. 0 2 000 4 000 6 000 8 000 10 000 12 000 14 000 16 000 Wind Solar Hydro Biomass Termoelectricas Gas turbine New technology GWh Hours Annual production GWh Figure 11. Annual production of electricity in 2050 from different power sources in Scenario 2. When we look at the electricity production and demand in the first week of January 2050, in this scenario, we can find out that the renewable energy capacity, together with the increased storage capacity, is sufficient to produce all the needed electricity as can be seen in Figure 12. There is considerable overproduction of electricity in this scenario on some days. The storage capacity is not large enough to store all the excess energy, as shown in Figure 12, where the storage capacity reaches its maximum limit on the second day of the operation. 0 2000 4000 6000 8000 10000 12000 14000 16000 18000 20000 1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 61 64 67 70 73 76 79 82 85 88 91 94 97 100 103 106 109 112 115 118 121 124 127 130 133 136 139 142 145 148 151 154 157 160 163 166 MW Hours January 1-7, 2050 Wind Solar Hydro Biomass Termoelectricas Gas turbine New technology Storage supply Storage charge Demand 0 20 000 40 000 60 000 80 000 100 000 120 000 140 000 1 5 9 1 3 1 7 2 1 2 5 2 9 3 3 3 7 4 1 4 5 4 9 5 3 5 7 6 1 6 5 6 9 7 3 7 7 8 1 8 5 8 9 9 3 9 7 1 0 1 1 0 5 1 0 9 1 1 3 1 1 7 1 2 1 1 2 5 1 2 9 1 3 3 1 3 7 1 4 1 1 4 5 1 4 9 1 5 3 1 5 7 1 6 1 1 6 5 MWh Hours Stored energy MWh, January 1-7, 2050 Figure 12. Electricity supply and demand and stored energy during January 1-7, 2050, in Scenario 2. When the wind speed reduces during August-October (see Figure 15), the renewable capacity is insufficient to produce all the required electricity, as shown in Figure 13 for the last week of August 2050. During this period, the stored energy capacity is partly increased during the daytime when solar production increases, but the low wind speed and the resulting low production of wind power cannot produce enough to cover the demand, and fossil production is required. 0 2000 4000 6000 8000 10000 12000 1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 61 64 67 70 73 76 79 82 85 88 91 94 97 100 103 106 109 112 115 118 121 124 127 130 133 136 139 142 145 148 151 154 157 160 163 166 MW Hours August 25-31, 2050 Wind Solar Hydro Biomass Termoelectricas Gas turbine New technology Storage supply Storage charge Demand 0 20 000 40 000 60 000 80 000 100 000 120 000 1 5 9 1 3 1 7 2 1 2 5 2 9 3 3 3 7 4 1 4 5 4 9 5 3 5 7 6 1 6 5 6 9 7 3 7 7 8 1 8 5 8 9 9 3 9 7 1 0 1 1 0 5 1 0 9 1 1 3 1 1 7 1 2 1 1 2 5 1 2 9 1 3 3 1 3 7 1 4 1 1 4 5 1 4 9 1 5 3 1 5 7 1 6 1 1 6 5 MWh Hours Stored energy MWh, August 25-31, 2050 Figure 13. Electricity supply and demand and stored energy during August 25-31, 2050, in scenario 2. In early September, the wind speed is still meagre (in the reference year data), and fossil energy is needed to cover the demand (see Figure 14). 0 2000 4000 6000 8000 10000 12000 14000 1 3 5 7 9 1 1 1 3 1 5 1 7 1 9 2 1 2 3 2 5 2 7 2 9 3 1 3 3 3 5 3 7 3 9 4 1 4 3 4 5 4 7 4 9 5 1 5 3 5 5 5 7 5 9 6 1 6 3 6 5 6 7 6 9 7 1 7 3 7 5 7 7 7 9 8 1 8 3 8 5 8 7 8 9 9 1 9 3 9 5 9 7 9 9 1 0 1 1 0 3 1 0 5 1 0 7 1 0 9 1 1 1 1 1 3 1 1 5 1 1 7 1 1 9 1 2 1 1 2 3 1 2 5 1 2 7 1 2 9 1 3 1 1 3 3 1 3 5 1 3 7 1 3 9 1 4 1 1 4 3 1 4 5 1 4 7 1 4 9 1 5 1 1 5 3 1 5 5 1 5 7 1 5 9 1 6 1 1 6 3 1 6 5 1 6 7 MW Hours September 1-7, 2050 Wind Solar Hydro Biomass Termoelectricas Gas turbine New technology Storage supply Storage charge Demand 0 20 000 40 000 60 000 80 000 100 000 120 000 140 000 1 5 9 1 3 1 7 2 1 2 5 2 9 3 3 3 7 4 1 4 5 4 9 5 3 5 7 6 1 6 5 6 9 7 3 7 7 8 1 8 5 8 9 9 3 9 7 1 0 1 1 0 5 1 0 9 1 1 3 1 1 7 1 2 1 1 2 5 1 2 9 1 3 3 1 3 7 1 4 1 1 4 5 1 4 9 1 5 3 1 5 7 1 6 1 1 6 5 1 6 9 1 7 3 1 7 7 1 8 1 1 8 5 1 8 9 MWh Hours Stored energy MWh, September 1-7, 2050 Figure 14. Electricity supply and demand and stored energy during September 1-8, 2050, in Scenario 2. The wind power production for the year 2050 in Scenario 2 is shown in Figure 15. From this figure, we can see that the low wind speed occurs especially in August, September, and October, and it has a considerable impact on wind power production. The solar PV production in Scenario 2 for 2050 is shown in Figure 16. 0 1 000 2 000 3 000 4 000 5 000 6 000 1 23 8 47 5 71 2 94 9 11 86 14 23 16 60 18 97 21 34 23 71 26 08 28 45 30 82 33 19 35 56 37 93 40 30 42 67 45 04 47 41 49 78 52 15 54 52 56 89 59 26 61 63 64 00 66 37 68 74 71 11 73 48 75 85 78 22 80 59 82 96 85 33 MW Hours Wind power production 2050 Figure 15. Wind power production in the year 2050 in Scenario 2. 0 1 000 2 000 3 000 4 000 5 000 6 000 7 000 1 1 4 1 2 8 1 4 2 1 5 6 1 7 0 1 8 4 1 9 8 1 1 1 2 1 1 2 6 1 1 4 0 1 1 5 4 1 1 6 8 1 1 8 2 1 1 9 6 1 2 1 0 1 2 2 4 1 2 3 8 1 2 5 2 1 2 6 6 1 2 8 0 1 2 9 4 1 3 0 8 1 3 2 2 1 3 3 6 1 3 5 0 1 3 6 4 1 3 7 8 1 3 9 2 1 4 0 6 1 4 2 0 1 4 3 4 1 4 4 8 1 4 6 2 1 4 7 6 1 4 9 0 1 5 0 4 1 5 1 8 1 5 3 2 1 5 4 6 1 5 6 0 1 5 7 4 1 5 8 8 1 6 0 2 1 6 1 6 1 6 3 0 1 6 4 4 1 6 5 8 1 6 7 2 1 6 8 6 1 7 0 0 1 7 1 4 1 7 2 8 1 7 4 2 1 7 5 6 1 7 7 0 1 7 8 4 1 7 9 8 1 8 1 2 1 8 2 6 1 8 4 0 1 8 5 4 1 8 6 8 1 MW Hours Solar PV production 2050 Figure 16. Solar PV production in the year 2050 in Scenario 2. Ramp rates and duration curves Ramping rate describes the need to change power output from power plants during the changing load. Different types of power plants can change their power output at different change rates, and power plants using combustion engines or gas turbines are faster than steam power plants consisting of steam boilers and turbines. Hydropower also provides fast ramp rates, and in this sense, the pumped hydro capacity is good for balancing the supply and demand and compensating for the fast changes that occur in wind and solar production. The ramp rate envelope shows the required maximum rates for different time windows (1-6 hours in this case) for changing the power output up and down. It also shows the average ramp rate up and down. The ramp rate envelope for the residual power production (demand minus wind and solar, and biomass production) in 2050 in Scenario 2 can be seen in Figure 17. Here, we can see that the maximum ramp rate in one hour is about 1500 MW up and down in this scenario. In two hours, the maximum ramp rate up is close to 7000 MW/2h and down slightly less than 4000 MW/2h. In three hours, the maximum ramp rate up is over 9000 MW/3h. These ramp rates show how fast changes take place when lots of supply is from variable renewable sources, and at the same time, the consumption is also changing. The situation is especially problematic when the evening peak consumption takes place at the time when solar production decreases fast. In this scenario, the maximum storage supply power is about 4000 MW, requiring a vast power plant capacity in the pumped hydro storage. -8000 -6000 -4000 -2000 0 2000 4000 6000 8000 10000 12000 0 1 2 3 4 5 6 MW Hours Ramp rate envelope 2050 in Cuba Max Min Av + Av - Figure 17. Ramp rate envelope for residual load for 2050 in Scenario 2. In Scenario 2, the share of fossil energy in electricity production is only 0.4 %. In order to reach a 100% share of renewable energy, the investments in solar energy and storage capacity should be increased considerably, or the biomass capacity should be increased. The problem with the increase in biomass capacity is biomass availability [11]. Additional possibilities would be to use municipal waste for electricity production and to produce biogas for electricity generation. These resources are, however, relatively small in Cuba. One possible option to increase the share of renewable energy in electricity production is to utilize biodiesel or bio-oil in the existing diesel generators and fuel oil plants. The amount of biofuel in this form is calculated with the CubaLinda model. In Scenario 2, the amount of electricity produced with fossil energy will be about 180 GWh in 2050. If this is produced with a diesel motor with an efficiency of about 40%, the fuel requirement is about 450 GWh which is about 39 ktoe. If the price of biodiesel is about 1500 USD per ton the fuel cost for the production would be about 58 million USD. This would, however, reduce the same amount of fossil oil consumption so that the total cost would not be very high. If we assume the regular diesel price to be 1000 USD per ton, the price difference to using biodiesel instead of regular diesel to produce 255 GWh would be about 20 million USD. An approximation of cumulative investment costs for Scenario 2 during 2010-2050 is given in Fig. 18. The cumulative investment costs are calculated based on assumptions of sharply reducing costs of solar PV and wind power investments. Solar PV investment costs are assumed to reduce from 1500 USD/kW in 2010 to 400 USD/kW in 2050 and the wind power investment costs from 1500 USD/kW in 2010 to 600 USD/kW in 2050. In addition, the capacity factor of wind power production is assumed to increase due to the new types of wind power plants with considerably higher hub height. The investment costs of fossil and biofuel power plants are assumed to remain constant. 0 500 1 000 1 500 2 000 2 500 3 000 3 500 4 000 Million USD Cumulative investment costs 2010 - 2050 Figure 18. Cumulative investment costs of power plants in Scenario 2 from 2010 till 2050. CONCLUSIONS The target of a 100% renewable electricity system is challenging for Cuba. Some of the challenges are related to the economics of the energy system. A switch to a 100 % renewable system requires significant wind and solar power plant investments. This is not easy for Cuba, which is struggling with economic problems caused mainly by the US blockade. International climate change funds could provide one possibility for obtaining resources for investments if the industrialized countries will fulfil the obligations of the Paris Agreement and the promises given in the Glasgow COP26 negotiations. The use of renewable energy sources instead of fossil energy will naturally lead to a decrease in the fuel costs of electricity production. However, the required payback time of the investments depends on the future investment costs and the future fuel costs. In addition to the investments in power production, there will be a need for investing in the electricity transmission and distribution grid. Most of the wind production potential and planned capacity are situated in the Eastern part of the country, while most of the consumption is in the Western part, and this will result in a need to increase the power transmission capacity. If part of the investments is carried out decentralized, especially in the case of solar PV, the need for increased transmission could even be reduced. On the other hand, the estimated increase in electricity consumption will naturally increase the need for added transmission and distribution capacity. One of the challenges is the required investments in the energy storage capacity. Required ramp rates for balancing the power system with a high share of variable renewable generation require much controllable capacity both on the generation and consumption side. The analyzed amount of storage capacity is vast, especially compared with the total capacity of the generation system. In these scenarios, we assumed the use of pumped hydro storage to balance supply and demand. According to National Electric Union (UNE) estimations, the theoretical potential for large-scale pumped hydro capacity exists in Cuba, even up to 20 000 MW and 100 GWh [10]. Battery storage can provide some advantages for the grid's fast balancing and frequency control, but their role in ample energy storage is implausible if their future prices will not decrease radically. One possible technical solution to medium- and long-term energy storage is power-to-X-to-power technology (P2X2P), where electrolysis produces hydrogen and, together with carbon, converted to ammonia, methane, or some other storable medium to be reconverted back to electricity when needed. Conversion with carbon benefits from existing infrastructure like the natural gas network and internal combustion engines, but hydrogen can also be used without conversion, for example, in industrial sites. The challenges of conversion include high costs and poor efficiency. Producing the hydrogen required for producing 1 MWh of storable fuel energy takes 1.9 MWh of electricity. Conversion losses and costs of carbon capture increase the cost. Fuel cells can be used as part of this technology. Their conversion efficiency varies from 40% to 60% depending on the fuel (hydrogen or reformed fuel, for example, methane). The use of fuel cells is also possible in the transport sector where the decarbonization requirement exists. The Cuban power system is an island system. This makes balancing supply and demand even more difficult because the isolated power system is relatively small and sensitive to disturbances. Moreover, this balancing task will become even more complicated when the synchronous generation of massive turbine-generator systems of termoeléctricas will be replaced by switched converter-connected solar and wind generators having no natural inertia. This will make the system prone to severe frequency fluctuations in the system. Reduced system inertia results in the increased need for fast responding controllable capacity. There are also many opportunities for developing the Cuban energy system towards a 100 % renewable electricity system. Cuba has vast solar and wind energy resources, and their utilization will become cheaper in the future with decreasing global prices. In addition, distributed production from renewable sources provides some protection against hurricanes and other impacts of climate change. However, the planning of the installations of renewable energy sources has to be carried out considering the increasing climatic disturbances. Demand-side management can provide possibilities for balancing, especially if electric transport increases and the charging and discharging of vehicles is carried out using innovative technology. One possibility for demand-side management is to use variable electricity prices, which directs demand towards periods when renewable production is high. This type of policy requires hourly-based smart electricity metering and changes in the tariff structures. Improvement of energy efficiency is an important tool to enhance the possibilities to reach a 100 % renewable energy system. In many cases, the improvement in efficiency is a cheaper alternative than the investment in new production capacity. The power system infrastructure in Cuba is old and needs new investments. Thus, investing in a new sustainable power system infrastructure does not replace adequate capacity. The scenarios constructed with the CubaLinda model show that it can reach 100% renewable electricity production in Cuba. It requires significant investments in solar PV and wind production and investments in energy storage to balance the variable production and the variable demand. Nevertheless, the scenarios indicate that it is possible to construct a roadmap to a 100% renewable system. ACKNOWLEDGMENTS We wish to thank the Academy of Finland for financing the research project “Cuban energy transformation. Integration of renewable intermittent sources in the power system (IRIS)” (Decision 320229). REFERENCES 1. INSTITUTO DE METEOROLOGÍA. Tercera Comunicación Nacional a la Convención Marco de las Naciones Unidas sobre Cambio Climático. 2020. Editores: Gutiérrez, EOP. y Pérez TLG. Cuba: Editorial AMA. 2. TAMAYO, R. (2021). Sesión del Consejo Nacional de Innovación: Vamos a trabajar con todas las energías. CUBADEBATE. 2021. [Accessed 10 Nov 2021]. Available on the web: http://www.cubadebate.cu/noticias/2021/10/16/sesion-del-consejo-nacional-de-innovacion-vamos-a- trabajar-con-todas-las-energias/ 3. Luukkanen, J., Akgün, O., Kaivo-oja, J., Korkeakoski, M., Pasanen, T., Panula-Ontto, J., & Vehmas, J. “Long-run energy scenarios for Cambodia and Laos: Building an integrated techno-economic and environmental modeling framework for scenario analyses”. Energy, 2015, Vol. 91, pages 866–881. https://doi.org/10.1016/j.energy.2015.08.091 4. ROBINSON, J. “Future subjunctive: backcasting as social learning”. Futures, 2003, Vol. 35, No. 8, pages 839–856. https://doi.org/10.1016/S0016-3287(03)00039-9 5. ONEI. (2021). ANUARIO ESTADÍSTICO DE CUBA 2020. CAPÍTULO 10: MINERÍA Y ENERGÍA. In Anuario Estadístico de Cuba 2020. 6. IEA. (2020). World Energy Statistics. [Online]. 2020. [Accessed 18 Mar 2020]. Available on the web: https://www.iea.org/data-and-statistics/data-product/world-energy-statistics 7. UN. SDG Indicators. Metadata repository. [Online]. 2020. [Accessed 21 Jan 2020]. Available on the web: https://unstats.un.org/sdgs/metadata/ 8. RENEWABLES.NINJA. Renewables.ninja. [Online]. 2021. [Accessed 07 Jun 2021]. Available on the web: https://www.renewables.ninja/ 9. NASA. MERRA-2. [Online]. 2019. [Accessed 14 Dec 2019]. Available on the web: https://gmao.gsfc.nasa.gov/reanalysis/MERRA-2/ 10. MONTES CALZADILLA, R. (2019). Modelación de la Transición Energética en el Sistema Eléctrico Nacional cubano utilizando el software IRENA FlexTool. Director: Castro Fernández, M., Vilaragut Llanes, M. Tesis de maestría, Universidad Tecnológica de La Habana “José Antonio Echeverría”, La Habana, 2019 11. TAMAYO PACHECO, J. J., RUBIO GONZÁLEZ, Á., LORENZO LLANES, J., AND BRITO SAUVANELL, Á. L. IV.4. Biomass energy, resources, technologies, current situation, and future perspectives in Cuba. In LUUKKANEN, J.; SAUNDERS VÁZQUEZ, A.; SANTOS FUENTEFRÍA, A.; MAJANNE, Y.; FILGUEIRAS SAINZ DE ROZAS, M.L.; & LAITINEN, J. (EDITORS). (2022). Cuban energy system development - Technological challenges and possibilities. 2022, pp. 145-158, FFRC eBook 2/2022. ISBN: 978-952-249-566-2; ISSN: 1797-1322; Finland Futures Research Centre, University of Turku. Finland. http://urn.fi/URN:ISBN:978-952-249-568-6 ABOUT THE AUTHORS. • Jyrki Luukkanen, University of Turku, Finland Futures Research Centre, Ph.D., research director. E-mail: jyrki.luukkanen@utu.fi. ORCID: 0000-0003-0223-9827 • Anaely Saunders Vázquez, University of Turku, Finland Futures Research Centre, MSc, researcher. E-mail: alelysava@gmail.com; asavaz@utu.fi. ORCID: 0000-0002-2893-824x • Yrjö Majanne, Tampere University, MSc, senior researcher. E-mail: yrjo.majanne@tuni.fi. ORCID: 0000-003-0336- 0514 • Mika Korkeakoski, University of Turku, Finland Futures Research Centre, MSc, researcher. E-mail: mika.korkeakoski@utu.fi. ORCID: 000-0003-0209-7494 CUBA IN GLOBAL POLITICS – GEOPOLITICS THROUGH CROSS-IMPACT ANALYSIS / CUBA EN LA POLÍTICA GLOBAL – GEOPOLÍTICA A TRAVÉS DEL ANÁLISIS DE IMPACTO CRUZADO Burkhard Auffermann1, Jari Roy Lee Kaivo-oja2 , Jyrki Luukkanen2 and Jasmin Laitinen2 1,2 University of Turku, Finland Futures Research Centre 1e-mail: burkhard.auffermann@utu.fi ABSTRACT. This paper focuses on Cuba and its position in global politics by means of geopolitics/geoeconomics. These two concepts are used to describe the current international political dimensions and how different nations attempt to control their position within global power politics. Geopolitics has always been related to the energy economy and energy policy. Cuba has throughout history been heavily connected to the states located in its neighbourhood as well as the international power politics. In this article, we illustrate the impacts of geopolitics and further explain the Cuban dependency on international global politics through Cross-Impact analysis (CIA), especially in terms of its version called Express Cross-Impact Technique (EXIT), developed at Finland Futures Research Institute. Three alternative scenarios are the results of the analysis. KEYWORDS: Global Politics, Geopolitics, Interdependence, Cross-Impact Analysis, Cuba INTRODUCTION. This paper focuses on Cuba and its position in the world by means of geopolitics and geoeconomics. These two concepts are used to describe the current international political dimensions and how different nations attempt to control their position within global power politics. Geopolitics is not a new phenomenon. The official term “geopolitics” was first used by Rudolf Kjellén in 1899 [1]. Cowen & Smith [2] posed the idea that geopolitics played a role in nation-building in Europe as early as in the 19th century. Geopolitics as a concept has gone through many different stages throughout history and thus its past can be viewed as controversial. Its roots lie in European imperialism but geopolitics has emerged all over the world in different political contexts. David Livingstone [3] highlighted the plurality of geopolitics and concluded that there is no singular geopolitical tradition. According to him, it is important to recognize the different geopolitical variants that have been constructed in different places and time periods. Geopolitics has always been related to energy economy and energy policy whether it can be considered renewable or none renewable energy. Energy geopolitics has primarily centred around fossil fuels throughout history due to their wide usage. Scholten [4] specified that oil, coal and natural gas were the most used energy resources in the world in 2014, making up 86% of the entire energy mix. Renewable energy sources covered only a small proportion of the world’s energy usage. Trend analyses indicate that electricity production and consumption developments are in the transition process in China, in the USA and European Union. These regions are major players in global climate change and climate policy. Especially China is now a global trendsetter in climate change and climate policy. Upwards sloping trends were evident in the Chinese energy economy. However, the U.S. and the EU are still very important players. The structures of electricity production and energy mixes are changing. Global benchmarking studies indicate that the role of renewables is increasing in electricity production and the role of oil-based electricity production has drastically decreased. Cuba has throughout history been heavily connected to the states located in its neighbourhood as well as the international power politics. The country was colonized by Spain in the 16th century and continued to be under the control of the United States (US) after the war between the US and the Spaniards in 1898. Cuba gained its independence a few years later in 1902. The US was still heavily involved in the country’s business which resulted in The Revolution in 1959, led by Fidel Castro. After the Revolution, the country formed a socialist state that was and still is led by the Cuban Communist Party as a single party. The country had strong connections to the Soviet Union (USSR) during the Cold War period. As tensions rose between the US and the USSR, Cuba became the centre of attention in the Cuban missile crisis in 1962. After the crisis, Cuba continued its business with the Soviet Union but the relationship was not going to last. In 1991, the Soviet Union collapsed which meant that the country’s primary companion was no longer able to support them. This was a big setback to the Cuban economy and the country’s economy fell into recession. Cuba has since found new partners in Spain, Venezuela, China and other Latin American countries but the cooperation with Russia still continues. Cuba’s relationship with the US has remained less than friendly throughout the years. The US has, for example, attempted to overthrow the country’s socialist government, assassinate the president several times and still maintains the embargo it placed on Cuba during the missile crisis in 1962. During the Obama administration (2009-2014) the relationship between the two countries entered a new era and promises of lessening the embargo were made. Obama administration also lifted some of the travelling restrictions to Cuba and allowed the Cubans immigrants living in the US to send money to Cuba. All of this was reversed by the Trump administration between 2017 and 2021. The new Biden administration (2021-) has made little to no changes to the situation. In this article, we illustrate the impacts of geopolitics and further explain the Cuban dependency on international global politics through Cross-Impact analysis (CIA). METHODOLOGY. Cross-Impact analysis is an umbrella term for a variety of different cross-impact methods that can be used to analyse events, as a tool for planning and to form several scenarios of different futures. In this method, modelling is formed and different variables are placed in it to display the relationships the variables have with each other. Instead of empirical data or statistics, the key feature of the CIA is that it relies on data harvested from experts in order to form its modelling. In this analyse, we are using the CIA called Express Cross-Impact Technique (EXIT) [5, 6, 7]. We form three different future scenarios that will explain the changing relations of the different nation-states while keeping our focus on Cuba in particular. Cuba has historically been in the middle of many big global events, notably for example during the Cold War. Thus, it is interesting how the position of Cuba might change along with the changing power politics. In our modelling, we have 6 different variables in form of six different state(s); A: Cuba, B: Latin America & Caribbean, C: The United States, D: European Union, E: Russia and F: China. By changing the relationships of these nations, we can examine how dependent they are on each other and how influential they are compared to each other. The impacts of the nations on each other are indicated in Figure 1. For instance, the Cuban impact on Latin America and the Caribbean is marked with A12 while the Latin American impact on Cuba is indicated with B21 and Russia’s impact on the USA is indicated with E52. These direct impacts are collected in the Cross-Impact Matrix shown in Table 1, where the impacts of row variables on column variables are indicated. Russia Cuba USA China EU Lat. Am. Caribbean A12 A13 A14 A15 A16 B21 B23 B24 B25 B26 C31 C32 C34 C35 C36 D41 D42 D43D45 D46 E51 E52 E53 E54 E56 F61 F62 F63 F64 F65 Figure 1. Illustrations of cross-impacts between the variables in the analysis. Table 1. Cross-Impacts of the nations. Direct impact of the row variable on the column variable. A B C D E F Cuba A A12 A13 A14 A15 A16 Lat. Am. and Caribbean B B21 B23 B24 B25 B26 USA C C31 C32 C34 C35 C36 EU D D41 D42 D43 D45 D46 Russia E E51 E52 E53 E54 E56 China F F61 F62 F63 F64 F65 Geopolitics through cross-impact analysis. An expert group defined the assumed changes of the direct impacts of the variables on each other in each scenario. The direct impacts are placed in the Cross-Impact matrix and the EXIT algorithm calculates the chained cross-impacts between the variables. The algorithm calculates all possible chains of impacts (such as A->B->D->E->F->B->A) and constructs new values for the impacts between the variables taking into account all these possible cross-impacts. These cross-impacts change the driver-driven values of the variables providing interesting information about the dynamics of the system. The states were selected because a) they are very influential in global power politics or b) they are expected to be affecting Cuba in some way due to their location in the world. Each impact is given a number between -4 to 4 depending on the expected state’s ability to influence the other variables. For example, if the US is given a 4, it is expected that the impact of the state will increase considerably on the other variable, for instance, Cuba. And, if the US is given a -4, it is expected that the impact of the state is going to decrease considerably on the other variable, for instance, China. All of the variables are compared against each other and based on the overall score they get they are sorted into driver states and driven states. Driver states are the states that have the largest impacts on others in each scenario. Driven states on the other hand are impacted by other states. A state can be both a driver and driven if it is impacting others but is also impacted by others. This type of state is a critical driver variable having both high influence and high dependence. If a state has high influence and low dependence it can be called an active variable. A state which has low influence and high dependence is called a reactive variable. And a state with low influence and low dependence is called the dependent buffer variable. The classification is illustrated in Figure 2. Low Dependence High Lo w In flu en ce H ig h Critical driver variableActive variable Reactive variableDependent buffer variable Figure 2. Classification of the types of variables in Cross-Impact analysis. The three scenarios we have created are the Two Red Flags, the Pan American Renaissance and the Cold War II. The names of the scenarios reflect the nature of the narrative storylines of the scenarios. In the Two Red Flags scenario, China and Russia will gain more influence in Latin America and the Caribbean. This could be due to the US backing away from the region and focusing its efforts somewhere else. China is already spreading its influence throughout the world and has caused the US to view it as a threat. It is a growing economy and the likelihood of its influence growing in the future is not unlikely. Russia has been China’s long-time partner and has provided the country with resources such as raw materials and oil. So, the two countries act as allies in this scenario while China takes the role of the most influential actor. In this scenario, the US and Europe stay further away from Latin America and thus their influence diminishes. The larger China and Russia grow in this scenario, the less the EU and US are expected to influence the two opposite states. In this scenario, Latin America and Cuba will grow closer to the China/Russia unite and both sides will affect each other in some sense. It is expected that China/Russia will be able to influence Latin America and Cuba more than vice versa. Latin America and Cuba’s influence on the US and EU will be very neutral and the relationships will grow distant. The Cross-Impact Matrix of the direct impacts in the Two Red Flags scenario is shown in Table 2. The Two Red Flags scenario Table 2. Cross-Impact Matrix of direct impacts in the Two Red Flags scenario. Assessment of the increase of the impact of the row variables on the column variables. In this scenario, China is the clear driver state. The driven state is Cuba. The Latin American states, The US and Russia are all rather strong drivers and driven states. The EU on the other hand doesn’t appear to be a strong driver or driven state either. This setup will be the basis of the Cross-Impact Analysis. After the Cross-Impact Analysis, we can predict the changing relationships of the different states. We will examine how influential the different variables are on each other and on the other hand how dependent they are on each other. The results are visualised in Figure 3 below and the changes caused by cross- impacts in Figure 4. Cuba Lat.Am. And Cribbean USA EU Russia China 0 2 4 6 8 10 12 14 16 0 2 4 6 8 10 12 Lo w I nf lu en ce H ig h Low Dependence High Driver and driven variables Driven Driver A 10 4 B 7 6 C 7 7 D 5 3 E 8 9 F 6 14 Figure 3. Location of the states in the Influence-Dependence chart in the Two Red Flags scenario based on direct impacts. A B C D E F A1 B1 C1 D1 E1F1 0 2 4 6 8 10 12 14 16 -1 1 3 5 7 9 11 13 15 Lo w In flu en ce H ig h Low Dependence High Driver and driven variables A Cuba B Lat.Am. and Caribbean C USA D EU E Russia F China Figure 4. Changes in the Influence-Dependence of the states when the cross-impacts are taken into account in the Two Red Flags scenario. The table above illustrates the results of the Cross-Impact Analysis. We can see that China’s influence is getting smaller as a result of the cross-impacts while its dependence on other states remains largely the same. The opposite happens with Russia. Its influence does not grow by much but its dependence on other states is getting smaller. Although the change is not massive. The US gains a bit more influence and becomes less dependent on other states and the EU, in turn, loses influence while becoming even more dependent on other states. Finally, Cuba’s influence grows slightly while it becomes more dependent on other states. Figure 5 illustrates the sensitivities of the position of different countries on the cross-impacts. This shows the change of the position from the direct impacts when the cross-impacts are taken into account. 0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 Cuba Lat.Am. and Caribbean USA EU Russia China Sensitivies on cross-impact interactions Figure 5. Sensitivities of the position of different countries on the cross-impacts. The reasons for the results above can be explained by the fact that the states that are very involved in global politics are both influential and somewhat independent from outside influences. However, the more they are involved with other states less influential than them, the relationship itself seems to lift up the less influential states. They gain influence but in turn, become more dependent on others. This seems to be the case with the Latin American countries and Cuba. Countries like the US still hold a rather strong influence but by not involving themselves with other states the less dependent it will become. In the case of the EU it is not a strong driver or driven state, its influence diminishes and it grows more dependent. The Pan American Renaissance In this scenario, the US will change its foreign policy strategy and form connections to Cuba. It will also focus its efforts on the Latin American states and gain more influence in this way. Its alliance with the EU will also strengthen. In this scenario, China and Russia will take a back seat and pull their forces from Latin America. On the contrary to the previous scenario, this time the US and EU are the powerful global actors with the lead of the US. The Latin American countries and Cuba will also be able to influence the US and the EU through the alliance. China and Russia will likely continue their long-lasting relationship but on a smaller scale. Their influence on the other state is neutral or negative. Table 3. Cross-Impact Matrix of direct impacts in the Pan American Renaissance scenario. Scale: -4, -3, -2, -1, 0, +1, +2, +3 +4 A B C D E F Cuba A 2 2 1 0 -1 Lat.Am. and Caribbean B 2 3 2 0 -2 USA C 4 3 2 0 -1 EU D 2 1 2 0 -1 Russia E -1 -1 0 -1 1 China F -1 -1 -1 0 1 In this scenario, the US is a clear driver state. Through the relationship with the US, the EU is able to gain more influence but is still rather dependent on other states. It is both a driver and driven state and not strong in either front. This is the case with almost all the variables in this scenario. Most of them are not clearly driver or driven states. Russia and China are the two that take the biggest hit in influence but remain largely independent. This can be seen in Figure 6 below. Cuba Lat.Am. And Cribbean USA EU Russia China 0 2 4 6 8 10 12 0 2 4 6 8 10 12 Lo w In flu en ce H ig h Low Dependence High Driver and driven variables Driven Driver A 10 6 B 8 9 C 8 10 D 6 6 E 1 4 F 6 4 Figure 6. Location of the states in the Influence-Dependence chart in the Two Red Flags scenario based on direct impacts. A B C D E F A1 B1 C1 D1 E1 F1 0 2 4 6 8 10 12 -1 1 3 5 7 9 11 13 15 Lo w I nf lu en ce H ig h Low Dependence High Driver and driven variables A Cuba B Lat.Am. and Caribbean C USA D EU E Russia F China Figure 7. Changes in the Influence-Dependence of the states when the cross-impacts are taken into account in the Pan American Renaissance scenario. Figure 7 explains the changes in the relationships between the different states when the cross-impacts are taken into account. In this scenario, the changes are smaller than in the Two Red Flags. Similar trends can be noticed in this scenario, although they are not identical. The US has the highest influence but it diminishes the more it is involved with the other countries. The same can be noticed in the case of the Latin American states. EU’s influence grows as a result of the cooperation with the US. The same trend can be seen with Russia that in this scenario takes steps back in the global power politics. China gains little to no influence and grows more dependent on other countries. Cuba on the other hand grows slightly less dependent. The Cold War II In the last scenario, the tensions start to rise between the different alliance groups. In this version, the US and EU have formed one alliance group against Russia and China. Cuba is linked to the China/Russia alliance while the Latin American states appear as rather neutral. The powerful states; the US, the EU, China and Russia will mainly focus on each other while the US and China will act as the main aggressors. Cuba still stays in contact with the Latin American states and vice versa. Table 4. Cross-Impact Matrix of direct impacts in the Cold War scenario. Scale: -4, -3, -2, -1, 0, +1, +2, +3 +4 A B C D E F Cuba A 1 -1 -1 1 1 Lat.Am. and Caribbean B 1 0 0 -1 0 USA C -4 -2 2 -3 -4 EU D 0 0 2 -1 -1 Russia E 3 0 -2 -2 3 China F 4 2 -4 -2 4 In this scenario, China and the US are two very close driver states. Russia is equally a driver and a driven state while the EU continues to obtain less influence. Latin America stays out of the conflict so its dependence and influence are not high. Cuba continues to be a driven state, even more so than in the previous scenarios. Figure 18 illustrates the direct impacts of the Cold War scenario and Figure 19 the changes caused by the cross-impacts. Cuba Lat.Am. And Cribbean USA EU Russia China 0 2 4 6 8 10 12 14 16 18 0 2 4 6 8 10 12 14 Lo w I nf lu en ce H ig h Low Dependence High Driver and driven variables Driven Driver A 12 5 B 5 2 C 9 15 D 7 4 E 10 10 F 9 16 Figure 8. Location of the states in the Influence-Dependence chart in the Cold War scenario based on direct impacts. A B C D E F A1 B1 C1 D1 E1 F1 0 2 4 6 8 10 12 14 16 18 -1 1 3 5 7 9 11 13 15 Lo w I nf lu en ce H ig h Low Dependence High Driver and driven variables A Cuba B Lat.Am. and Caribbean C USA D EU E Russia F China Figure 9. Changes in the Influence-Dependence of the states when the cross-impacts are taken into account in the Cold War scenario. Yet again, similar trends can be seen in the case of the strongest countries. Both China and the US lose their influence due to focusing on each other. Russia on the other hand gain influence and is less dependent on the other states. The EU will also appear as a more influential actor but will become more dependent. In both the case of Latin America and Cuba, their dependency increases. GENERAL CONSIDERATIONS ON THE CASE OF CUBA AND CONCLUSION The Cross-Impact Analysis paints an interesting picture of global power politics. The strongest states in each scenario while influential and rather independent actors are never completely independent and tend to lose some of their influence as a result of the complex interactions and interdependencies. The possible reason for this could be that these states often try to either defend their position in global power politics or try to gain more power in relation to the other states. These states will often form alliances with other countries at least in some form. Due to these reasons, they always have to think about their possible opponents and alliances while forming their foreign policy. This makes them less independent and leaves room for other countries to influence them. Countries that are still powerful but don’t take part in global power politics tend to gain more influence and are the most independent actors of the system. Some actors are heavily connected to the cooperation they have with other states so depending on how the cooperation is going, the more influence they gain and the more dependent they become. Smaller countries that are weaker actors in global power politics are automatically in a difficult spot. They are not automatically influential and will have to rely heavily on alliances to influence other countries. And this leads them to become heavily dependent. This is also the case with Cuba. Figure 10 displays the three different scenarios and how Cuba’s influence and dependency change according to them. The changes are not major but they paint the picture of Cuba in the global power politics. There is no question about the fact that Cuba is a country that is heavily dependent on outside forces. In all three scenarios, Cuba’s dependency has always stayed high. There have been some changes in Cuba’s ability to influence other states but that has always resulted in the loosing of independence. The best scenario out of these three is the Pan American Renaissance. In that scenario, Cuba’s influence remains rather high while it grows less dependent. The dependence seems to grow both in the Cold War II and the Two Red Flags scenarios. Figure 10. Changes in the position of Cuba as a result of cross-impacts in the different scenarios on the Influence-Dependence chart. The Cuban position in global power politics supports the arguments that can be made through geoeconomics and dependency theory. Cuba has always been dependent on other states and their political movements in many political sectors. This is due to Cuba’s history, how the country has formed its own economy in the past, what kind of foreign policy decisions it has made and how the states close by and far away have reacted to its presence. In this article, we explore the complex role Cuba plays in global power politics through geopolitics and geoeconomics as well as from the viewpoint of dependency. It is obvious that the current global climate presents a challenge to the Cuban state. Cuba is still heavily impacted by dependencies thus making it vulnerable. Dependence is a corollary of dominance, a situation in which a developing country has to rely on a developed country’s domestic and international economic policy to stimulate its own economic growth and development. The Cuban space for manoeuvrings is limited and makes the policy forming ever so important. The situation of the state is partly a result of its historical context with path dependencies. Cuban economic structure is still dependent on old production structures established in the past and there is a lot of potential for development. The source of dependency comes from a few export commodities as well as a few partnering countries. In the case of import commodities, the variability is greater and the number of partner countries is larger resulting in less dependency. However, dependency on food and technology imports remains a significant challenge. The US blockade creates major obstacles to Cuban development. This has given opportunities for other actors to strengthen their cooperation with Cuba. China has become a prominent actor in the region and has considerably increased its influence on the Cuban economy. The European Union has through its Political Dialogue and Cooperation Agreement (PDCA) pursued to develop a closer bond between the two actors. However, it is important to note that the dependencies have several different forms as illustrated by the cross-impact analysis. The results of the cross-impact analysis display the limitations of Cuban influence as well as the high dependency on the global actors. The geopolitical and geoeconomic frameworks provide an intriguing approach to examining these power relations. A more comprehensive cross-impact analysis of this topical area can be found in [8]; further research will be published in the near future. Yet, a variety of possibilities still exist for Cuba. Balanced cooperation with the Caribbean countries and the European Union could, for example, provide new opportunities for mutually beneficial collaborations. These partners come crucial in developing, for instance, the already promising fields of biotechnological and pharmaceutical industries. Utilizing these opportunities takes careful planning and smart investments. To reach their full potential it is necessary to take into account the different interactions of the complex domestic and global political processes. Cuba is on its own, facing challenging trade-offs to harmonize social and economic objectives. Especially, maintaining progress in education, health, life expectancy and other social indicators while providing incentives for personal advance, entrepreneurial initiatives and improvements in productivity call for an extremely difficult political balancing act in Cuba. ACKNOWLEDGEMENTS. The authors would like to thank the Academy of Finland for funding the “Cuban energy transformation Integration of Renewable intermittent sources in the power system (IRIS)” project, decision n:o 320229. REFERENCES. 1. DODDS, K.; ATKINSON, D. Geopolitical Traditions- A Century of Political Thought, Routledge, Taylor & Francis Group, London, The United Kingdom, 2000. 2. COWEN, D. & SMITH. N. “After Geopolitics? From the Geopolitical Social to Geoeconomics”, Antipode, 2009, Volume 41, No. 1, 22–48. 3. LIVINGSTONE, D. N. Putting science in its place. In Putting Science in Its Place. University of Chicago press, 2010 4. .SCHOLTEN, D. The Geopolitics of Renewables, Springer International Publishing AG, Switzerland, 2018. 5. PANULA-ONTTO, Juha. AXIOM Method for Cross-Impact Modelling and Analysis. University of Tampere, 2016. 6. PANULA-ONTTO, J; LUUKKANEN, J.; KAIVO-OJA, J., O'MAHONY, T.; VEHMAS, J.; VALKEALAHTI, S. BJÖRKVIST, T.; KORPELA, T.; JÄRVENTAUSTA, P.; MAJANNE, Y.; KOJO, M; AALTO, P.; HARSIA, P.; KALLIOHARJU, K.; HOLTTINEN, H.; REPO, S, (2018) “Cross-impact analysis of Finnish electricity system with increased renewables: Long-run energy policy challenges in balancing supply and consumption”. Energy Policy, Vol. 118, July 2018, 504-513. 7. PANULA-ONTTO, J.; PIIRAINEN, K.A. 2018). “EXIT: An alternative approach for structural cross- impact modelling and analysis.” Technological Forecasting and Social Change, 137, 89–100. https://doi.org/10.1016/j.techfore.2018.06.046. 8. LAITINEN, J.; KAIVO-OJA, J.; LUUKKANEN, J. ”Cuba’s role in global power politics. Geopolitical and geoeconomic perspectives”. Luukkanen, J; Saunders Vasquez; Laitinen; Auffermann, (eds.). Cuban Energy Futures, The Transitions towards a Renewable Energy System – Political, Economic, Social and Environmental Factors, Finland Futures Research Centre, FFRC e-books 3/2022, University of Turku, 2022. https://urn.fi/URN:ISBN:978-952-249-569-3. ABOUT THE AUTHORS  Burkhard Auffermann: Dr. phil., University of Turku, Finland Futures Research Centre (FFRC), Finland. E-mail: burkhard.auffermann@utu.fi. ORCID: 0000-0002-4825-9295  Jari Roy Lee Kaivo-oja: PhD. Research Director, Adjunct Professor, University of Turku, Finland Futures Research Centre (FFRC), Finland. E-mail: jari.kaivo-oja@utu.fi ORCID: 0000- 0002-2401-6299  Jyrki Luukkanen: University of Turku, Finland Futures Research Centre (FFRC), Finland. Ph.D. Research Director, Adjunct Professor, E-mail: jyrki.luukkanen@utu.fi. ORCID: 0000- 0003-0223-982.  Jasmin Laitinen: Research Assistant, University of Turku, Finland Futures Research Centre (FFRC), Finland. E-mail: jasminlaitinen25@gmail.com ORCID: 0000-0002-1120-6755 DIVERSITY AND RESILIENCE OF CUBAN EXPORT AND IMPORT ECONOMY. PORTFOLIO ANALYSIS OF EXPORT AND IMPORT BASED ON HERFINDAHL-HIRSCHMAN INDEX AND LAURAEUS-KAIVO-OJA INDEX DIVERSIDAD Y RESILIENCIA DE LA ECONOMÍA CUBANA. ANÁLISIS DE LA CARTERA DE EXPORTACIÓN E IMPORTACIÓN EN BASE A LOS INDICES HERFINDAHL-HIRSCHMAN Y LAURAEUS-KAIVO-OJA Jari Roy Lee Kaivo-oja1, Jarmo Vehmas2, Anaely Saunders2 & Jyrki Luukkanen2 1,2,3 University of Turku, Finland Futures Research Centre 1Finland Futures Research Centre, Turku School of Economics, University of Turku, Åkerlundinkatu 2 A, 4th Floor, 33100 Tampere, Finland 2 1e-mail: jari.kaivo-oja@utu.fi ABSTRACT This empirical study analyses both export and import portfolios of the Cuban economy. This article provides data-driven analyses of Cuban foreign trade activities. We combine Herfindahl-Hirschman Index (HHI) and Lauraéus-Kaivo-oja Index (LKI) measures to identify key changes and trends in export and import structures of the Cuban country-level trade relations. In this article, we report key results and findings of index-based analyses. This empirical study provides results of export and import structures of the Cuban economy and trade. Results are based on HHI and LKI analyses. These results give knowledge-based background for the export and import strategies of Cuba. Especially this kind of analysis gives a good knowledge base for smart specialization strategies of the Cuban economy. Results indicate that export-led strategies need some re-assessment from the resilience perspective of the Cuban export strategy. A more diversified export portfolio would be a smarter solution than the current concentration rate of the export portfolio. There is less need for re-assessment in the field of import strategy because the import portfolio of Cuba is already very diversified. KEY WORDS: Cuba, Resilience, Smart specialization strategy, Export, import, concentration, portfolio, diversification, Herfindahl Hirschman Index, Lauréaus-Kaivo-oja Index. 1. Introduction. In this study, we focus our analyses on the central question of economic resilience and smart specialization strategy. Examining the dynamics of a country’s innovation and economic growth dynamics, the authors like Frenken et al. [1] point out that not only the diversity of sectors in different regions is important, but also the strength of the links between the elements of that diversity. Organizations compete by expanding their areas of knowledge and their ability to use more components of the knowledge space and industrial production. This means that diversification promotes the diversity of innovative activities and the creation of new radical innovations through cooperation between different sectors of the economy. This kind of aspect is highly relevant for the Cuban economy and society. The ongoing global digitalisation and globalisation in general open up new opportunities to identify the strengths and priorities of economic and scientific-technological development in countries and regions. Nowadays this is done through research on smart specialization strategies (S3). Also, the sustainability of smart specialization strategies is gaining more attention nowadays (S4), especially in the European Union. One such direction is the determination of the level of specialization of the country’s economic sectors, i.e., industry [2, 3, 4, 5, 6]. In essence, they are inseparable from the analysis of the structure of the industry. These methodologies have always been given great attention in the scientific literature [see e.g. 7-14]. This fact was caused by the changing situation in trade relations ‒ changes in the degree of concentration of economic operators and states, the conditions of entering global markets; growth in the range of production, change in the degree of integration and diversification of enterprises, and also, finally in export and import strategies [7-14] 2. Methodology of the study shortly Being a commonly accepted measurement of market concentration, the HHI measures the ratio of firm size to industry size as a proxy for the degree of competition among them (Herfindahl 1950, Hirschman 1964, Adams 2017). As noted above, the HHI index is defined as the total of the squared market shares of all firms within the industries at stake. The result of this exercise may range from 0.0 to 1.0, thus spanning a continuum ranging from the prevalence of a huge number of very small firms to a situation defined by only a single monopolistic firm. HHI increases are typically understood as indicators of decreases in competition and increases of market power [15-19]. One key advantage of the HHI vis-à-vis the CR is that the former gives more weight to larger firms as it accounts for relative firm size distributions in each market. In fact, the former’s calculation differs from the latter’s insofar as formula for determining the HHI is as follows: [20, p. 188]. HHI = . Full background reviews of HHI analyses can be found in [22]. Data is collected from [21]. Again, we find that the HHI is calculated by squaring the market share of each firm competing in the market and then totalling up the resulting numbers. The original reason why Lauraéus and Kaivo-oja [23] started their further development of the HHI is that this indicator does not account for size differences among the analyzed categories, while the authors concluded there to be good reasons for avoiding such potential calculational biases. The so-called S3 methodology includes many special methods and planning tools. Typically, comparative advantage, resilience level, and innovation potential are measured [see 24-32]. 3. New methodology for export and import portfolio analysis: Expanding the HHI towards the LKI In the HHI, the Lauraéus-Kaivo-oja Index (LKI) is based on the subsequently outlined reasoning. First, Lauraéus and Kaivo-oja [22] hold that: HHI = s1^2 + s2^2 + s3^2 + ... + sn^2, (1) which can be written using the mathematic formula: HHI = , (2) Whereby  The sample size is = N,  The count of different categories in the sample = k, and  The average value of the sample classes = . Yet, there is a way to remove the “1002”-part of the equation as we can replace percentages with the decimals of 0.01-0.99, which obviously correspond to 1-99%. Thus, we also avoid calculational problems related to values 0-10000, which are less intuitive than percentage values. Thus, we may create the index hhi, which means HHI index without 1002. 10000 * hhi (3) As we take out the out of the equation, have replaced the HII by the “hhi”, whose formula is hhi= (4) Which is equal to: hhi= . (5) Yet, as the total quantity of the sample is = N, which is equal to the number of different classes in the sample, the total sum in the sample classes may be expressed as follows: N= k = k (6) Consequently, we may argue that if the “hhi” may be expressed as hhi= (7) Then it may also be represented as hhi= + (8) Whereby refers to 1 over k numbers of categories within the sample. Yet, the issue is that this might generate a distorted analysis of key trends as if one has different numbers of categories in one’s sample, then one is incapable of comparing these categories with one another, for otherwise, it will distort the analysis [23]. Take the example of a sample consisting of 34 categories of goods ( = =0,029 =2,9%) and 11 categories of services ( = =0.09=9%). In this case, it applies that the fewer the classes, the bigger the percentage added to the “hhi” index. Thus, the question arises why such percentages should be added to an index at all. If all numbers of the samples are in one class, then = =1. Thus, one may safely remove and retain a more informative and pertinent trend curve [23]. “lki”= (9) If the maximal diaconal standard deviation is correctly expressed as =(k-1) , then the divisor must be (k-1). Thus, appears to be the wrong divider, whereas the right one seems to be (k-1) n2. Thus, the new novel LKI indicator must be: LKI= (10) It follows that the LKI index is the square of standard deviation over the completely divided square of standard deviation (see [23]). We report key results based on both the HHI and the novel LKI indicators in the next section 4. 4- Results of HHI and LKI analyses In this section 4, we report some key findings of our analysis. We have performed data analyses of export and import in Lithuania. First, we report the Herfindahl-Hirschman Index analysis of the Lithuanian export and import data. This analysis is based on the OEC database [21]. The Data pool covers 24 countries’ export and import data. of the Cuban economy. It gives a robust picture of recent economic activities in the Cuban economy. In Fig. 1 we can observe trends in the structure of the export portfolio and in Fig 2, the import portfolio. Figure 1. Herfindahl-Hirschman Analysis of the Export Structure of Cuba. Years 2000, 2005, 2010, 2015 and 2019. We can observe that the Cuban export portfolio was not diversified in 2000-2010, but in 2015 it diversified, but again concentration trend continued. Figure 2. Herfindahl-Hirschman Analysis of the Import Structure of Cuba. Years 2000, 2005, 2010, 2015 and 2019 We can observe that after 2005 concentration trend of Cuban import activities continued till year 2015, but in 2019 slightly became more diversified in 2019. We can note that on the basis of HHI analyses the export portfolio of the Cuban economy is more concentrated than the import portfolio of the Cuban economy. In Fig 3. we report the results of LKI analysis of the Cuban economy. This index-based analysis reveals that after the year 2005, the concentration of export structures increased in a considerable way in the Cuban trade. In 2019, the concentration trend decreased slightly being almost on the same level as in 2010. Figure 3. Lauraéus- Kaivo-oja Analysis of the Export Structure of Cuba. Years 2000, 2005, 2010, 2015 and 2019. In Fig 4. we report the results of LKI analysis of the Cuban economy. We can observe that after 2005 low concentration trend of Cuban import activities continued till the year 2010, but in 2015 it changed slightly to became more concentrated, but it dropped to a lower level. We can note that on the basis of LKI analyses the export portfolio of the Cuban economy is more concentrated than the import portfolio of the Cuban economy. The results are similar to HHI analyses. In general, on the basis of empirical analyses, we can note that resilience challenges of trade are more challenging in the field of export than import. This indicated that economic dependency problems are linked more to export activities than to import activities. Figure 4. Lauraéus- Kaivo-oja Analysis of the Import Structure of Cuba. Years 2000, 2005, 2010, 2015 and 2019. Conclusions This empirical study provides results of export and import structures of the Cuban economy and trade. Results are based on Herfindahl-Hirschman (HHI) and Lauraéus-Kaivo-oja (LKI) analyses. These results give knowledge-based background for the export and for import strategies of the Cuban economy. Especially these kinds of analyses give a good knowledge base for smart specialization strategies of the Cuban economy. Results indicate that export-led strategies need some re-assessment from the resilience perspective of the Cuban export strategy. A more diversified export portfolio would be a smarter solution than the current concentration rate of the export portfolio. There is less need for re-assessment in the field of import strategy because the import portfolio of Cuba is already very diversified. Acknowledgments Funding from the Academy of Finland for the project “Cuban energy transformation Integration of Renewable intermittent sources in the power system” (IRIS), decision n:o 320229, is kindly acknowledged. References. [1] FRENKEN, K.; VAN OORT, F.; VERBURG, T. (2007) Related variety, unrelated variety and regional economic growth. Regional studies, 41(5), 685-697. doi:https://doi.org/10.1080/00343400601120296 [2] BRUNNER, H-P.; CALÌ, M. (2006) Dynamics of manufacturing competitiveness in Asia: analysis through export data. ERD working paper series, 77, 1-27. [3] CAPASSO, M.; STAM, E.; CEFIS, S. (2015) Industrial dynamics and economic geography. Regional Studies, 49(1), 5-9. doi:http://dx.doi.org/10.1080/00343404.204.982440 [4] HONGXIA, CH.; GUOPING, LI. (2011) Empirical study on effect of industrial structure change on regional economic growth of Beijing-Tianjin-Hebei Metropolitan Region. Chinese Geographical Science, 21(6), 708-714. doi:10.1007/s11769-011-0478-9 [5] HALLACK, J. (2004) Product Quality, Linder and the Direction of Trade. University of Michigan. Retrieved from http://www.ekf.vsb.cz/export/sites/ekf/projekty/cs/weby/esf-  0116/databaze prispevku/ersa_2012/ersa_2012_00788.pdf [6] SZIRMAI, A.; REN, R.; BAI, M. (2005). Chinese manufacturing performance in comparative perspective, 1980-2002. Economic growth center. Disscusision paper, No 920. [7] MISRA, A. (2006). Growth and Structural Change in Manufacturing Industries Since 1980-1981 to 2001- 2002. Journal of Industrial Economics, Forthcoming. Retrieved from https://ssrn.com/abstract=945577 [8] JENISSEN, B.; THOMSON, R.; CLARK, C.; GEER, T. (1998). Aspects of structural change in Australia. Productivity Commission: research paper. [9] TIKHOMIROVA, G. (1997). Analysing charges in industry structure. CSES working paper, 11. United Nations Framework Convention on Climate Change (UNFCCC). (n.d.). Retrieved from FCCC/INFORMAL/84 GE.05-62220 (E) 200705: https://unfccc.int/resource/docs/convkp/conveng.pdf [10] SCHOTT, P. (2004). Across-product versus within-product. Specialization in international trade. Quarterly Journal of Economics, 3(1), 261-269. [11] HALLACK, J. (2004). Product Quality, Linder and the Direction of Trade. University of Michigan. Retrieved from http://www.ekf.vsb.cz/export/sites/ekf/projekty/cs/weby/esf-  0116/databaze prispevku/ersa_2012/ersa_2012_00788.pdf [12] CARLTON, D.W.; PERLOFF, J.M. (1994). Modern industrial organisation. New York: Published by Harpercollins College Div. [13] SABONIENĖ, A. (2009). Lithuanian export competitiveness: comparison with other Baltic States. Inžinerinė ekonomika - Engineering Economics, 2, 49-57. [14] SABONIENĖ, A. (2010). The Evaluation of the Potential of Lithuanian Manufacturing Industry Structure on the basis of CI Index. Inžinierinė Ekonomika - Engineering Economics, 21(4), 399-407. [15] HERFINDAHL, O.C. (1950). National Power and the Structure of Foreign Trade. University of California. Berkley. [16] HIRSCHMAN, A.O. (1964). The paternity of an index. American Economic Review, September 1964, Vol 54, 761-762. [17] HERFINDAHL, O.C. (1950). Concentration in the US Steel Industry. Columbia University. New York, USA. [18] HIRSCHMAN, A. (1945). National Power and the Structure of Foreign Trade. California Library reprint series, University of California Press, California, USA. Herfindahl 1950, [19] ADAMS, C. (2017). What is the Herfindahl Hirschman Index (HHI) and why would you use it? Modern analyst. Read 18.6.2017. Available at: http://www.modernanalyst.com/Careers/InterviewQuestions/tabid/128/ID/1003/What-is-the-Herfindahl- Hirschman-Index-HHI-and-why-would-you-use-it.asp [20] RHOADES, S. A. (1993). The Herfindahl-Hirschman Index (pp. 188-189). St. Louis, MO: Federal Reserve Bank of St. Louis. https://fraser.stlouisfed.org/files/docs/publications/FRB/pages/1990-1994/33101_1990-1994.pdf [21] OEC (2022) Cuba Export and Import trade profile. https://oec.world/en/profile/country/cub. [22] RINKEVIČIŪTĖ, V.; MARTINKUTĖ-KAULIENĖ, R. (2014). Impact of market concentration on the profitability of Lithuanian banking sector. Business: Theory and Practice, 15(3), 254-260. doi:https://doi.org/10.3846/btp.2014.25 [23] LAURAÉUS, T.; KAIVO-OJA, J. (2017). New transparent way to perform competition, market structure and IPR portfolio analyses: Analysis of the dynamics of trademark competition in Finland as a case example. Journal of Business Management and Economics, 5(12), 8-23. [24] FORAY, D. (2018). Smart specialisation strategies and industrial modernisation in European regions—theory and practice. Cambridge Journal of Economics, 42(6), 1505-1520. doi:https://doi.org/10.1093/cje/bey022 [25] FORAY, D.; GODDARD, J.; GOENAGA BELDARRAIN, X.; LANDABASO, M.; MCCANN, P.; MORGAN, K.; NAUWELAERS, C.; ORTGEA-ARGILES, R. (2012). Guide to research and innovation strategies for smart specialisation (RIS 3), Smart Specialisation Platform. Seville: IPTS. Spain. [26] BENNER, M. (2017). From clusters to smart specialization: Tourism in institution-sensitive regional development policies. Economies, 5(3), 26. doi:https://doi.org/10.3390/economies5030026 [27] BRENNAN, L.; RAKHMATULLIN, R. (2015). Global Value Chains and Smart Specialisation Strategy. Retrieved from Publications Office of the European Union, Luxembourg. [28] ASHEIM, B. (2019). Smart specialisation, innovation policy and regional innovation systems: what about new path development in less innovative regions? Innovation: The European Journal of Social Science Research, 32(1), 8-25. doi:https://doi.org/10.1080/13511610.2018.1491001 [29] CARAGLIU, A.; DEL BO, C.F. (2015). Smart specialization strategies and smart cities: An evidence-based assessment of European Union policies. In The rise of the city. Edward Elgar Publishing. doi:https://doi.org/10.4337/9781783475360.00009, 55–84. [30] MCCANN, P.; ORTEGA-ARGILÉS, R. (2016). Smart specialisation, entrepreneurship and SMEs: issues and challenges for a results-oriented EU regional policy. Small Business Economics, 46(4), 537- 552. https://doi.org/10.1007/s11187-016-9707-z [31] BIKKER, J.A.; GROENVELD, J.M. (2000). Competition and concentration in the EU Banking Industry. Kredit and Kapital, 33, 62-98. [32] KAIVO-OJA, J., VÄHÄSANTANEN, S., KARPPINEN, A. & HAUKIOJA, T. (2017) Smart Specialization Strategy and its operationalization in the regional policy: Case Finland. Business, Management and Education, Vol. 15, No. 1 (2017). Web: http://bme.vgtu.lt/index.php/bme/article/view/362 Information about the authors: Jari Roy Lee Kaivo-oja: PhD. Research Director, Adjunct Professor, University of Turku, Finland Futures Research Centre (FFRC), Finland. E-mail: jari.kaivo-oja@utu.fi ORCID: 0000-0002-2401-6299 Jarmo Vehmas: University of Turku, Finland Futures Research Centre (FFRC), Finland. Ph.D. Regional Manager. E-mail: jarmo.vehmas@utu.fi. ORCID: 0000-0002-1540-3895. Anaely Saunders Vázquez: University of Turku, Finland Futures Research Centre (FFRC), Finland. M.Sc. Researcher. E-mail: alelysava@gmail.com; asavaz@utu.fi. ORCID: 0000-0002-2893-824x. Jyrki Luukkanen: University of Turku, Finland Futures Research Centre (FFRC), Finland. Ph.D. Research director. E-mail: jyrki.luukkanen@utu.fi. ORCID: 0000-0003-0223-982. RESILIENCE ANALYSIS OF ENERGY SOURCES IN THE CUBAN ECONOMY IN YEARS 1971-2050: EMPIRICAL HERFINDAHL-HIRSCHMAN AND LAURAEUS-KAIVO-OJA INDEX ANALYSES ANÁLISIS DE LA RESILIENCIA DE LAS FUENTES ENERGÉTICAS EN LA ECONOMÍA CUBANA ENTREN LOS AÑOS 1971-2050: ANÁLISIS EMPÍRICOS UTILIZANDO LOS ÍNDICES HERFINDAHL-HIRSCHMAN Y LAURAEUS-KAIVO-OJA. Jari Roy Lee Kaivo-oja1 , Jyrki Luukkanen2, Jarmo Vehmas2, 1,2 Finland Futures Research Centre, Turku School of Economics, University of Turku 1e-mail: jari.kaivo-oja@utu.fi ABSTRACT. This paper focuses on the Cuban economy and its resiliency of energy sources. This study includes three analyses of resilience, (1) total energy consumption, (2) indigenous energy sources, and (3) import energy consumption. These three resilience analyses are performed with Herfindahl-Hirschman Index and Lauraéus-Kaivo-oja Index. The time horizon of the resilience analyses is 1971-2018. In addition to these historical energy sources analyses also a long-run IEA scenario till the year 2050 for Cuba will be operationalised with HHI and LKI analyses. These resilience analyses of the Cuban energy economy provide useful insights into the Cuban energy planning processes. KEYWORDS: Energy sources, resilience, Herfindahl-Hirschman Index, Lauraéus-Kaivo-oja Index Cuba, energy policy analysis 1. Introduction. This paper focuses on Cuba and its resilience analysis of energy sources. The analysis covers the years 1971-2018. We also analyse the domestic energy resilience level till the year 2050 in a future energy scenario. The concept of ‘resilience’ has come up frequently in discussions about the impact of COVID- 19 on the energy sector. Also, other external economic shocks are testing resilience in the energy sector in economies. However, the actual meaning of resilience can be hard to pin down. The term seems to be being used more and more, at the risk of being overused and losing any real meaning. A general assumption among energy experts is that renewable energy systems are more resilient compared to non- renewable energy systems. Energy systems with high percentages of renewables are better able to resist global shocks than those based on fossil fuels. Energy systems which are controlled locally are less susceptible to the negative effects of crises elsewhere. A sound and resilient global energy system can effectively guarantee normal production and other green research and development activities [1, 2]. National and regional sustainability and risk management aspects are more and more relevant issues for decision-makers. These kinds of discussions are in the background of this empirical energy sector study, which focuses on the resilience analysis of the Cuban energy sector. The article predicts that, while the demand for fossil fuels has collapsed during the Covid-19 crisis, the production of renewable power should continue to grow in the future. Nonetheless, in the current situation, falling investments are threatening new renewable projects in Cuba and in the world. From this special future perspective, it is wise to monitor the use of different energy sources in the Cuban economy. 2. Methodology Being a commonly accepted measurement of market and portfolio concentration, the HHI measures the ratio of firm size to the industry size as a proxy for the degree of competition among them [3-11]. As noted above, the HHI index is defined as the total of the squared market shares of all firms within the industries at stake. The result of this exercise may range from 0.0 to 1.0, thus spanning a continuum ranging from the prevalence of a huge number of very small firms to a situation defined by only a single monopolistic firm/unit. HHI increases are typically understood as indicators of decreases in competition and increases in market power [3-11]. One key advantage of the HHI vis-à-vis the CR is that the former gives more weight to larger firms as it accounts for relative firm size distributions in each market. In fact, the former’s calculation differs from the latter’s insofar as the formula for determining the HHI is as follows: [, p. 188]. HHI = . Full background reviews of HHI analyses can be found in [3-10] especially in [10]. Data is collected from the updated International Energy Agency database [11]. Again, we find that the HHI is calculated by squaring the market share of each firm competing in the market and then totalling up the resulting numbers. The original reason why Lauraéus and Kaivo-oja [9] started their further development of the HHI is that this indicator does not account for size differences among the analyzed categories, while the authors concluded there to be good reasons for avoiding such potential calculational biases. 1. New methodology for export and import portfolio analysis: Expanding the HHI towards the LKI In the HHI, the Lauraéus-Kaivo-oja Index (LKI, [9]) is based on the subsequently outlined reasoning. First, Lauraéus and Kaivo-oja hold that: HHI = s1^2 + s2^2 + s3^2 + ... + sn^2, (1) which can be written using the mathematic formula: HHI = , (2) Whereby  The sample size is = N,  The count of different categories in the sample = k, and  The average value of the sample classes = . Yet, there is a way to remove the “1002”-part of the equation as we can replace percentages with the decimals of 0.01-0.99, which obviously correspond to 1-99%. Thus, we also avoid calculational problems related to values 0-10000, which are less intuitive than percentage values. Thus, we may create the index hhi, which means the HHI index without 1002. 10000 * hhi (3) As we take out the out of the equation, have replaced the HII by the “hhi”, whose formula is hhi= (4) Which is equal to: hhi= . (5) Yet, as the total quantity of the sample is = N, which is equal to the number of different classes in the sample, the total sum in the sample classes may be expressed as follows: N= k = k (6) Consequently, we may argue that if the “hhi” may be expressed as hhi= (7) Then it may also be represented as hhi= + (8) Whereby refers to 1 over k numbers of categories within the sample. Yet, the issue is that this might generate a distorted analysis of key trends as if one has different numbers of categories in one’s sample, then one is incapable of comparing these categories with one another, for otherwise, it will distort the analysis [9]. Take the example of a sample consisting of 34 categories of goods ( = =0,029 =2,9%) and 11 categories of services ( = =0.09=9%). In this case, it applies that the fewer the classes, the bigger the percentage added to the “hhi” index. Thus, the question arises why such percentages should be added to an index at all. If all of the numbers of the samples are in one class, then = =1. Thus, one may safely remove and retain a more informative and pertinent trend curve [9]. “lki”= (9) If the maximal diaconal standard deviation is correctly expressed as =(k-1) , then the divisor must be (k-1). Thus, appears to be the wrong divider, whereas the right one seems to be (k-1) n2. Thus, the new novel LKI indicator must be: LKI= (10) It follows that the LKI index is the square of standard deviation over the completely divided square of standard deviation (see [9]). We report key results based on both the HHI and the novel LKI indicator in the next section 4. 4- Energy resiliency analysis results of HHI and LKI analyses In this section 4 we report key results and findings of energy resiliency analysis of the Cuban economy. In Fig. 1, we report a long-run resilience trend of total energy consumptiom in Cuba measured by the Herfindahl-Hirschman Index. Figure 1. The HHI Analysis of total energy consumption in Cuba. Years 1971-2018. Source: IEA. In Fig. 1 we can observe that resilience measured by HHI trend, was quite favourable in Cuba in 1971- 2007, but after the year 2007 situation became less resilient when HHI jumped to 0,4 level when HHI reached the lowest level of 0,25 in years 2001-2007. Again, after 2014 resilience, diversification of energy sources increased, probably because of the high price of oil and other fossil fuels. A scholarly guess is that all these changes in HHI resilience level are linked to external shocks that the Cuban economy has faced in history. Figure 2. The LKI Analysis of total energy consumption in Cuba. Years 1971-2018. Source: IEA. In Fig. 2 we can observe that resilience measured by LKI trend, was quite favourable in Cuba in 1971- 2007, but after the year 2007 situation became less resilient when LKI jumped almost to 0,6 level. Again, after 2007-2008 alarming resilience problems, diversification of energy sources increased, probably because of the high price level of oil and other fossil fuels. The LKI analysis provides more sensitive results compared to the previous HHI analysis (Fig. 1). Again, a scholarly guess is that all these changes in the LKI resilience level are linked to external shocks that the Cuban economy has faced in history. In Fig. 3 we report the results of the HHI analysis of domestic energy consumption in the Cuban economy. Figure 3. The HHI Analysis of domestic energy consumption in Cuba. Years 1971-2018. Source: IEA. Figure 3 tells us that resilience of domestic consumption has been quite stable in Cuba, which is in a way a good result. There have not been very many dramatic risky situations in domestic energy resilience, and the HHI trend of domestic energy consumption has been decreasing indicating improving resilience in the domestic energy consumption in Cuba. In Fig. 4, we report the results of the LKI analysis of domestic energy consumption in the Cuban economy. Figure 4. The LKI Analysis of domestic energy consumption in Cuba. Years 1971-2018. Source: IEA. In Fig. 4, we see some interesting things and can do a new scientific discovery. The more sensitive analysis of LKI provides a little bit different results compared to traditional HHI analysis, which includes the possibility of statistical measurement biases. The novel LKI analysis informs us that domestic energy resilience problems have increased gradually in the long run, historical perspective in the years 1971- 2018. The external shock of the Soviet Union collapse can be seen in changes in the long-run trend in the years 1998-1994. This energy resilience change was not so well observed in the HHI resilience analysis. It is also important to note that the LKI level is very high indicating serious domestic energy resilience problems. In Fig. 5, we report the results of the HHI analysis of import energy consumption in the Cuban economy. Figure 5. The HHI Analysis of import energy consumption in Cuba. Years 1971-2018. Source: IEA. In Fig. 5, we can easily observe the peak moments of import energy resilience problems in the Cuban economy. The Soviet Union´s socio-economic collapse, and later the global financial crisis created two very bad historical resilience crises in the Cuban economy. However, we can also note that in the long- run resilience level has been on a quite stable level being about on HHI 0,6 level. In Fig. 6, we report the results of the LKII analysis of import energy consumption in the Cuban economy. Compared to Fig. 5, the more sensitive LKI analysis provides more information to us. Figure 6. The LKI Analysis of import energy consumption in Cuba. Years 1971-2018. Source: IEA. A novel LKI analysis reveals new information regarding Cuba's energy import resilience challenges. The results of the analysis suggest that there would have been bigger fluctuations in the resilience levels compared to what the HHI analysis told us in Fig. 5. This is a new scientific result and finding that should certainly be investigated further. There can be also statistical and measurement errors, which may explain these strong fluctuations. However, again we can observe dramatic changes after the Soviet Union´s collapse and during the global financial crisis in Cuba. 5- Resiliency analysis results of HHI and LKI analyses for years 2019-2050 In this section 5, we report the results of futuristic scenario analyses of the Cuban energy economy. These results are based on the International Energy Association´s statistical analyses, which reported a domestic energy source scenario of the IEA [11]. Figure 7. The HHI Analysis of energy consumption in Cuba. Years 1919-2050. Source: IEA. When we observe Fig. 7, we can see that the general expectation is that Cuba will improve its energy resilience from HHI 0,435 (2019) to HHI 0,25 (2050). This HHI energy resilience analysis result, of course, indicates more positive future prospects for Cuban domestic energy resilience. Figure 8. LKI Analysis of energy consumption in Cuba. Years 1919-2050. Source: IEA. When we observe Fig. 8., we can see that the general expectation is that Cuba will improve its energy resilience from HHI 0,7 (2019) to HHI 0,2 (2050). This finding is, of course, a very positive expectation of energy resilience. 6. Conclusions In this article, we have assessed the resilience of Cuba's energy economy through three basic empirical analyses, using the Herfindahl-Hirschman index and the Lauraéus-Kaivo-oja index. The results and findings are interesting and raise many urgent needs for further research. Increasing resilience in the energy sector is one key strategic energy policy issue. This is a challenge for all key decision-makers in Cuba. In relation to this strategic key sustainability challenge, the results are relevant. The empirical results presented in this Cuban energy resilience study indicate that the disintegration and the collapse of the Soviet Union and also the global financial crisis had significant impacts on the resilience of the energy economy in Cuba. External and international shocks have been bad drivers for energy resilience in Cuba. ACKNOWLEDGMENTS. The authors would like to thank the Academy of Finland for funding the “Cuban energy transformation Integration of Renewable intermittent sources in the power system (IRIS)” project, decision n:o 320229. REFERENCES. [1] DONG, K., DONG, X., JIANGAB, Q., & ZHAOAB, J. (2021) Assessing energy resilience and its greenhouse effect: A global perspective. Energy Economics. Volume 104, December 2021, Energy Economics. Article 105659. [2] MUJJUNIA, F., BETTS, T, TO, R.S & BLANCHARD, R.E. (2021) Resilience a means to development: A resilience assessment framework, and a catalogue of indicators. Renewable and Sustainable Energy Reviews. Volume 152, December 2021, Article 111684. [3] HERFINDAHL, O.C. (1950). National Power and the Structure of Foreign Trade. University of California. Berkley. [4] HIRSCHMAN, A.O. (1964). The paternity of an index. American Economic Review, September 1964, Vol 54, 761-762. [5] HERFINDAHL, O.C. (1950). Concentration in the US Steel Industry. Columbia University. New York, USA. [6] HIRSCHMAN, A. (1945). National Power and the Structure of Foreign Trade. California Library reprint series, University of California Press, California, USA. Herfindahl 1950, [7] ADAMS, C. (2017). What is the Herfindahl Hirschman Index (HHI) and why would you use it? Modern analyst. Read 18.6.2017. Available at: http://www.modernanalyst.com/Careers/InterviewQuestions/tabid/128/ID/1003/What-is-the-Herfindahl- Hirschman-Index-HHI-and-why-would-you-use-it.asp [8] RHOADES, S. A. (1993). The Herfindahl-Hirschman Index (pp. 188-189). St. Louis, MO: Federal Reserve Bank of St. Louis. https://fraser.stlouisfed.org/files/docs/publications/FRB/pages/1990-1994/33101_1990-1994.pdf [9] LAURAÉUS, T.; KAIVO-OJA, J. (2017). New transparent way to perform competition, market structure and IPR portfolio analyses: Analysis of the dynamics of trademark competition in Finland as a case example. Journal of Business Management and Economics, 5(12), 8-23. [10] RINKEVIČIŪTĖ, V.; MARTINKUTĖ-KAULIENĖ, R. (2014). Impact of market concentration on the profitability of Lithuanian banking sector. Business: Theory and Practice, 15(3), 254-260. doi:https://doi.org/10.3846/btp.2014.25 [11] IEA (2022). Energy Statistics Data Browser. International Energy Agency. https://prod.iea.org/data- andstatistics. ABOUT THE AUTHORS  Jari Roy Lee Kaivo-oja: PhD. Research Director, Adjunct Professor, University of Turku, Finland Futures Research Centre (FFRC), Finland. E-mail: jari.kaivo-oja@utu.fi ORCID: 0000- 0002-2401-6299  Jarmo Vehmas: University of Turku, Finland Futures Research Centre (FFRC), Finland. Ph.D. Adjunct Professor, Regional Manager. E-mail: jarmo.vehmas@utu.fi. ORCID: 0000-0002-1540- 3895.  Jyrki Luukkanen: University of Turku, Finland Futures Research Centre (FFRC), Finland. Ph.D. Research Director, Adjunct Professor, . E-mail: jyrki.luukkanen@utu.fi. ORCID: 0000-0003- 0223-982. ENERGY SYSTEM EFFICIENCY IN CUBA DECOMPOSITION ANALYSIS OF ENERGY USE AND CO2 EMISSIONS EFICIENCIA DEL SISTEMA ENERGÉTICO EN CUBA ANÁLISIS DE DESCOMPOSICIÓN DEL USO DE ENERGÍA Y EMISIONES DE CO2 Jarmo Vehmas1, Jyrki Luukkanen2, Anaely Saunders Vázquez2, Jari Kaivo-oja3 1,2, 3 University of Turku, Turku School of Economics, Finland Futures Research Centre 1e-mail: jarmo.vehmas@utu.fi ABSTRACT This article presents results from a decomposition analysis of energy consumption and CO2 emissions in Cuba during the period 1971–2019. Energy decomposition is done with a dynamic Sun-Shapley decomposition, which produces activity, intensity, and structural effects. CO2 decomposition has been done with a chained two- factor decomposition, which provides effects identified in an extended Kaya identity. The results show that during this period, changes in sectoral energy intensities and the economic structure have decreased energy consumption slightly more than economic growth has increased it, but CO2 emissions have not decreased correspondingly because of economic growth per capita and increasing carbon intensity of the primary energy mix. These kinds of scientific findings indicate that the energy efficiency policy in Cuba requires more attention. KEY WORDS: energy consumption, CO2 emissions, decomposition analysis, Sun-Shapley method, Cuba 1. INTRODUCTION This article looks at the development of energy consumption and carbon dioxide (CO2) emissions in Cuba. The change over time in energy consumption and CO2 emissions and the reasons for changes are in the focus. Earlier studies on the reasons for a change in aggregated energy consumption or/and CO2 emissions in Cuba are not rare, only one article by Vazquez et al [1] solely focuses on Cuba. However, in some international comparisons, especially those made for the Caribbean and for Latin American countries, Cuba has been included in the analysis of energy consumption [2], energy intensity [3], and CO2 emissions [4, 5] in recent years. We carry out two index decomposition analyses with the Sun-Shapley method to illustrate the role of major drivers of energy consumption and the CO2 emissions from fossil fuel combustion in Cuba. The decomposition of energy consumption takes into account the major economic sectors, and identifies the activity effect, intensity effect, and structural effect to change in energy consumption during the years 1971–2019. The CO2 decomposition analysis identifies a larger number of effects by using an extended version of the Kaya identity but deals with the national aggregate level of the Cuban economy only. 2. DECOMPOSITION ANALYSIS 2.1. Energy decomposition Several methods have been developed for index decomposition analysis (IDA) of changes over time in the energy sector [6–12]. Typically, energy-related decomposition focuses on changes in energy consumption, energy intensity, or CO2 emissions, and takes changes in different sectors of the economy into account by applying index numbers such as Paasche, Laspeyres, Fisher, and Divisia indexes. Decomposition analysis divides the observed change into a number of effects, which may either increase or decrease energy consumption or CO2 emissions. Typically the effects include (i) activity effect, (ii) intensity effect, and (iii) structural effect. The structural effect usually refers to changes in the shares of different sectors in the total economic output, but in the CO2 decomposition analysis, it often refers also to the shares of different energy sources in the energy mix. We have used a complete decomposition method based on the Laspeyres index developed by Sun [13, 14], and named as Sun-Shapley method by Ang [9], who observed that a Shapley decomposition method, introduced by Albrecht et al. [15], is similar to Sun’s method where a principle “jointly created, equally distributed” [13, 14] provides a complete decomposition without a residual term: The energy intensity I can be operationalised as I(E, Q) = ୉ ୕ (1) where E is energy consumption and Q is the economic output. Energy intensity defined in different sectors (i) of the economy is I୧ = ୉౟ ୕౟ (2) where Ii is energy intensity in sector i, Ei is the energy consumption of sector i, and Qi is the economic output of sector i. To decompose the energy use of an economy we can use the following equations: E = Q ୉ ୕ = Q∑ I୧ ୕౟ ୕୧ = Q∑ I୧୧ s୧ (3) where the sum is taken over all sectors, and the structural factor of the economy, i.e. one sector’s share of the total production, is s୧ = ୕౟ ୕ (4) In Eq. (3) the energy use is decomposed in relation to the structure of the economy. . Here we use a dynamic version of the Sun-Shapley method developed by Luukkanen and Kaivo-oja [16–19] where the acticity effect, intensity effect, and structural effect are calculated as follows: ∆E = E୲ − E଴ = Qୣ୤୤ୣୡ୲ + Iୣ୤୤ୣୡ୲ + Sୣ୤୤ୣୡ୲ (5) Qୣ୤୤ୣୡ୲ = ∆𝑄 ∑ 𝐼௜଴𝑠௜଴ + ଵ ଶ Δ𝑄 ∑ (𝐼௜଴∆𝑠௜ + 𝑠௜଴∆𝐼௜) + ଵ ଷ Δ𝑄 ∑ ∆𝐼௜∆𝑠௜௜௜௜ (6) 𝐼 ୤୤ୣୡ୲ = 𝑄଴ ∑ 𝑠௜଴௜ Δ𝐼௜ + ଵ ଶ ∑ Δ𝐼௜(𝑠௜଴Δ𝑄 + 𝑄଴Δ𝑠௜)௜ + ଵ ଷ Δ𝑄 ∑ Δ𝐼௜Δ𝑠௜௜ (7) 𝑆ୣ୤୤ୣୡ୲ = 𝑄଴ ∑ 𝐼௜଴Δ𝑠௜ + ଵ ଶ ∑ Δ𝑠௜(𝐼௜଴Δ𝑄 + 𝑄଴Δ𝐼௜) + ଵ ଷ Δ𝑄 ∑ Δ𝐼௜Δ𝑠௜௜௜௜ (8) In Equations 5–8, superscripts 0 and t refer to the base year and comparison year values of the corresponding variable, and  refers to change during the studied period, i.e. difference between the comparison year t and the base year 0 values, in this case, the base year is 1971 and the comparison years cover the period 1971–2019. The energy decomposition analysis is covering a long time horizon, covering observations from five different decades, from the years of the oil crisis to almost the present day. The activity effect Qeffect (Eq. 6) describes how total economic growth changes sectoral energy use. It does not directly depend on the sector’s own production. The intensity effect Ieffect (Eq. 7) describes how technological change and change in the production system change sectoral energy consumption. The structural effect Seffect (Eq. 8) describes how changes in the sectoral share of total production change total energy consumption. All these three analyses provide interesting and vital information for decision-makers. A major strength of the Sun-Shapley method is its perfect value-robustness, i.e. the method can handle all input data without data modifications which are needed for zero and negative values in e.g. the logarithmic mean Divisia index method [22, 23]. This methodological character of Sun-Shapley method is very valuable in times, when negative changes in CO2 emissions and energy use are probable because of the climate policy measures. This is important, especially in the short-period analysis and the analysis of CO2 emissions, where negative are common. De Boer and Rodrigues [24] do not recommend using LMDI if the input data includes a lot of negative values. On the other hand, the Sun-Shapley method is not as applicable and flexible as the LMDI methods, if there is a need to analyse a larger number of variables and structural effects. 2.2. CO2 decomposition We have carried out the so-called chained two-factor decomposition to analyse the drivers affecting CO2 emissions in Cuba. In this analysis we use an extended version of the original Kaya identity [25] to identify the major drivers of CO2 emissions [26, 27]: CO2 ≡ େ୓ଶ ୘୔୉ୗ × ୘୔୉ୗ ୊୉େ × ୊୉େ ୋୈ୔ × ୋୈ୔ ୔୓୔ × POP (9) where CO2 is carbon dioxide emissions from fuel combustion, TPES is total primary energy supply, FEC is final energy consumption, GDP is the gross domestic product in real prices, and POP is the amount of population. Equation (9) identifies the major drivers of change in CO2 emissions. The effect of CO2/TPES indicates the change in the shares of different energy sources in the primary energy mix and their impact on CO2 emissions. For instance, a shift from fossil fuels to renewables or from oil to natural gas decreases this effect. The effect of TPES/FEC describes the change in the energy efficiency of the conversion process from primary to final energy, such as electricity production from coal, natural gas, and other primary energy sources. If the energy conversion efficiency improves, this effect decreases. Because some energy sources such as hydro, wind, solar, or nuclear, are difficult to measure in primary energy terms, energy statistics apply conversion factors when calculating the primary energy from the produced energy carrier (usually electricity). IEA energy statistics use a conversion factor 1 for hydro, wind, and solar electricity, and a conversion factor 3 for nuclear electricity. For this reason, a shift from other energy sources to nuclear in electricity production can increase the effect of TPES/FEC, while a shift to hydro, wind or solar decreases it. Therefore, the effect of TPES/FEC also depends on the change in the use of different energy carriers (electricity, heat, and combustible fuels). These facts are good to remember when interpreting the results of energy decomposition analyses. The effect of FEC/GDP comes from the change in the energy intensity of production – how much energy is needed for producing one unit of economic output. If energy intensity decreases, this effect decreases. Improvement in energy efficiency at the end-use level decreases this effect. The effect of GDP/POP comes from the change in the economic output per capita, and the effect of POP comes from the change in the amount of population. Increases in GDP and POP increase energy use and hereby CO2 emissions. In the following Equations 10–17, variable C is CO2, G is GDP, P is POP, F is FEC, and T is TPES. A base year value has a superscript 0, and  refers to change, i.e. the difference between comparison year t and base year 0 values (e.g. C = Ct–C0). The parameter  determines the allocation of a joint effect to the factors in each of the chained decompositions. In the empirical analysis, the value = 0.5 is used systematically following the “jointly created, equally distributed” principle defined by Sun [13, 14]. The decomposition is complete with all choices of  values (0 ≤ ≤ 1). However, each choice slightly affects the size of decomposed effects. The analysis starts with decomposing C into the effects of factors C/T and T: ቀେ ୘ ቁ ୣ୤୤ୣୡ୲ = (𝑇଴ + λΔT) × ∆ ቀେ ୘ ቁ (10) Tୣ୤୤ୣୡ୲ = ൤ቀ ஼ ் ቁ ଴ + (1 − λ)Δቀେ ୘ ቁ൨ × ∆C (11) Then, the Teffect is further decomposed into the effects of T/F and F by chaining a new variable F: ቀ୘ ୊ ቁ ୣ୤୤ୣୡ୲ = ൤ቀ஼ ் ቁ ଴ + (1 − λ)Δ ቀେ ୘ ቁ൨ × (𝐹଴ + λΔF) × ∆ ቀ୘ ୊ ቁ (12) Fୣ୤୤ୣୡ୲ = ൤ቀ ஼ ் ቁ ଴ + (1 − λ)Δቀେ ୘ ቁ൨ × ൤ቀ் ி ቁ ଴ + (1 − λ)Δ ቀ୘ ୊ ቁ൨ × ∆F (13) Next, a new variable G will be added to decompose the Feffect into the effects of F/G and G: ቀ୊ ୋ ቁ ୣ୤୤ୣୡ୲ = ൤ቀ஼ ் ቁ ଴ + (1 − λ)Δ ቀେ ୘ ቁ൨ × ൤ቀ் ி ቁ ଴ + (1 − λ)Δቀ୘ ୊ ቁ൨ × (𝐺଴ + λΔG) × ∆ ቀ୊ ୋ ቁ (14) 𝐺ୣ୤୤ୣୡ୲ = ൤ቀ ஼ ் ቁ ଴ + (1 − 𝜆)Δ ቀ஼ ் ቁ൨ × ൤ቀ் ி ቁ ଴ + (1 − 𝜆)Δ ቀ் ி ቁ൨ × ൤ቀி ீ ቁ ଴ + (1 − 𝜆)Δቀி ீ ቁ൨ × ∆𝐺 (15) And finally, by adding a new variable P the Geffect will be decomposed into the effects of G/P and P: ቀீ ௉ ቁ ୣ୤୤ୣୡ୲ = ൤ቀ஼ ் ቁ ଴ + (1 − 𝜆)Δ ቀ஼ ் ቁ൨ × ൤ቀ் ி ቁ ଴ + (1 − 𝜆)Δ ቀ் ி ቁ൨ × ൤ቀி ீ ቁ ଴ + (1 − 𝜆)Δ ቀி ீ ቁ൨ × (𝑃଴ + 𝜆Δ𝑃)× ቀீ ௉ ቁ (16) Pୣ ୤୤ୣୡ୲ = ൤ቀ ஼ ் ቁ ଴ + (1 − λ)Δ ቀେ ୘ ቁ൨ × ൤ቀ் ி ቁ ଴ + (1 − λ)Δቀ୘ ୊ ቁ൨ × ൤ቀி ீ ቁ ଴ + (1 − λ)Δ ቀ୊ ୋ ቁ൨ × ൤ቀீ ௉ ቁ ଴ + (1 − λ)Δ ቀୋ ୔ ቁ൨ × ∆𝑃 (17) To summarise, the effects of CO2 emission drivers identified in the extended Kaya identity (Eq. 9) are thus calculated in the chain of Equations 10, 12, 14, 16 and 17 above. We have taken all energy and CO2 data from the International Energy Agency database [28] and the economic and population data from the United Nations database [29] In the following results section, changes in the different decomposed components are compared to the base year value, which is in this case 1971 (the first year of the data in the IEA statistics for Cuba). The results from energy decomposition are presented in kilotonnes of oil equivalent (ktoe) from the base year 1971 energy use value, and the results from CO2 decomposition are presented in percentage change from the base year 1971 CO2 emission value. In section 3 we shall present the main results and findings of the analyses. 3. RESULTS 3.1. Energy decomposition We have analysed the different sectoral effects on Cuban energy consumption for the time period of 1971–2019 using the sectoral energy data taken from the IEA statistics [28] and sectoral economic performance data taken from the UN statistics [29] for a Sun-Shapley index decomposition analysis. Figure 1 shows the total and sectoral energy consumption in Cuba 1971–2019, which will be decomposed into the activity effect, intensity effect, and structural effect. Figure. 1. Energy consumption in Cuba 1971–2019 (ktoe) in total and in different economic sectors. Data source: IEA [28]. Figure 2 (a–c) illustrates the activity effect, intensity effect, and structural effect on Cuban energy consumption in the major economic sectors compared to the base year 1971. The activity effect illustrated in Figure 2 (a) is the largest in the industrial sector, which indicates its central role in energy consumption. In the activity effect, we can see the major periods of change in the Cuban economy, i.e. the recession of the early 1990s after the collapse of the Soviet Union. The intensity effect on energy consumption in different economic sectors in Cuba is illustrated in Figure 2 (b) compared to the base year 1971. Energy intensity in the Cuban industry has decreased considerably and significantly reduced industrial energy use. Energy efficiency (reduction in energy intensity) has improved also 0 2,000 4,000 6,000 8,000 10,000 12,000 14,000 1971 1977 1983 1989 1995 2001 2007 2013 2019 ktoe Energy consumption in Cuba, 1971-2019 Agriculture and forestry Industry Transport Commercial Residential Total Domestic in the transport and communication sector. In the service sector and agriculture, the intensity effect has not reduced energy consumption which indicates that these sectors have not been able to reduce their energy consumption in relation to the value of their economic output. This result should be taken into account in energy policy decision-making in Cuba. The structural effect on energy consumption in different sectors in Cuba is shown in Figure 2 (c) compared to the base year 1971. Structural changes in Cuba before 1990 were very small and for that reason, the impact on energy use 1971–1990 was small as well. After the collapse of the Soviet Union, the structural changes in the Cuban economy have been considerable impacting also the energy use. The role of the industry has reduced in Cuban economic output remarkable after 1996 and this has reduced industrial energy use very fast. The transportation and communication sector has increased its impact on the economy, which results in an increase in energy consumption. In the commercial (service) sector, there is a slight increase in the share of economic output and hence a slight increasing impact on energy use. The agricultural sector has decreased in economic importance and the structural effect on energy use can be seen as a reduction in energy use, especially in the early 2000s. Figure 2 (d) shows the change in the sectoral energy consumption as a sum of the decomposed effects. Figure 2. The activity effect (a), intensity effect (b), and structural effect (c) on energy consumption in different sectors of the economy, and the total change in energy consumption (d) in Cuba 1971–2019. Data sources: IEA [28]; UN [29]. 0 1,000 2,000 3,000 4,000 5,000 6,000 7,000 8,000 1971 1977 1983 1989 1995 2001 2007 2013 2019 ktoe (a) Activity effect on energy consumption, Cuba 1971-2019 Agriculture and forestry Industry Transportation, communication Commercial Total -9,000 -8,000 -7,000 -6,000 -5,000 -4,000 -3,000 -2,000 -1,000 0 1,000 1971 1977 1983 1989 1995 2001 2007 2013 2019 ktoe (b) Intensity effect on energy consumption, Cuba 1971-2019 Agriculture and forestry Industry Transportation, communication Commercial Total -2,000 -1,500 -1,000 -500 0 500 1,000 1971 1977 1983 1989 1995 2001 2007 2013 2019 ktoe (c) Structural effect on energy consumption, Cuba 1971-2019 Agriculture and forestry Industry Transportation, communication Commercial -3,000 -2,000 -1,000 0 1,000 2,000 3,000 4,000 1971 1977 1983 1989 1995 2001 2007 2013 2019 ktoe (d) Change in sectoral energy consumption, Cuba 1971-2019 Agriculture and forestry Industry Transportation, communication Commercial Total 3.2. CO2 decomposition Figure 3 shows the carbon dioxide emissions from fuel combustion (CO2) in Cuba during the years 1971–2019. in the following, change in CO2 emissions will be decomposed into the effects identified in the extended Kaya identity (Equation 2), i.e. change in the carbon intensity of primary energy (CO2/TPES), the efficiency of energy conversion from primary to final energy (TPES/FEC), the energy intensity of economic production (FEC/GDP), economic production per capita (GDP/POP), and amount of the population (POP). The results from the chained two-factor Sun-Shapley index decomposition analysis are presented in Figure 4 and summarised in Figure 5. Figure 3. CO2 emissions (million tonnes) from fuel combustion in Cuba, 1971–2019. Data source: IEA [28]. Figure 4 (c) shows the impact of change in energy intensity (FEC/GDP) on CO2 emissions in Cuba. This factor defines how much energy is needed for producing one unit of value-added (GDP) in the economy. This factor has been reducing significantly, indicating that the production system has become much more efficient in its energy use for producing economic output. Reasons behind this positive development include the use of more efficient technology and structural change in the economy, i.e. a shift from energy-intensive production (especially in the industrial sector) to lighter production, and a shift from other sectors to the new branches of the service sector. Figure 4 (d) shows the impact of changes in GDP per capita (GDP/POP) on CO2 emissions in Cuba. Here we see the impact of a GDP reduction during the “special period” and the considerably fast growth starting from 1994. Figure 4 (e) shows that population growth has had a modest increasing effect on CO2 emissions in Cuba. The total change in CO2 emissions in Cuba compared to the 1971 level as a sum of the different factors presented above is shown in Figure 4 (f). Since the scales in Figure 4 (a–f) are not the same, the effects of different factors on CO2 change are presented in a common scale in Figure 5 to describe better their relative importance. A comparison of the different factors shows the importance of the improvement of energy efficiency (effect of FEC/GDP) in reducing CO2 emissions and the role of economic growth (effect of GDP/POP) in increasing emissions. During the analysed period, changes in the use of different primary energy sources (indicated by the effect of CO2/TPES) or energy transformation technology (indicated by the effect of TPES/FEC) have not had a very large impact on emissions. The planned shift to renewable energy sources will naturally in the future impact the CO2/TPES and TPES/FEC relation when implemented. 0 5 10 15 20 25 30 35 40 1971 1977 1983 1989 1995 2001 2007 2013 2019 Million tonnes CO2 emissions from fuel combustion in Cuba, 1971-2019 Figure 4. Impact of the extended Kaya identity factors CO2/TPES (a), TPES/FEC (b), FEC/GDP (c), GDP/POP (d), and POP (e) on change in CO2 emissions in Cuba 1971–2019 (f), as a percentage from the base year 1971 CO2 value. Data sources: IEA [28], UN [29]. -30 -20 -10 0 10 20 30 40 50 60 1971 1977 1983 1989 1995 2001 2007 2013 2019 % of 1971 CO2 value (a) Effect of CO2/TPES, Cuba 1971-2019 0 10 20 30 40 50 60 70 80 90 1971 1977 1983 1989 1995 2001 2007 2013 2019 % of 1971 CO2 value (b) Effect of TPES/FEC, Cuba 1971-2019 -300 -250 -200 -150 -100 -50 0 1971 1977 1983 1989 1995 2001 2007 2013 2019 % of 1971 CO2 value (c) Effect of FEC/GDP, Cuba 1971-2019 0 20 40 60 80 100 120 140 160 1971 1977 1983 1989 1995 2001 2007 2013 2019 % of 1971 CO2 value (d) Effect of GDP/POP, Cuba 1971-2019 0 5 10 15 20 25 30 35 40 1971 1977 1983 1989 1995 2001 2007 2013 2019 % of 1971 CO2 value (e) Effect of POP, Cuba 1971-2019 -20 -10 0 10 20 30 40 50 60 70 80 90 1971 1977 1983 1989 1995 2001 2007 2013 2019 % of 1971 CO2 value (f) Change in CO2 emissions, Cuba 1971-2019 Figure 5. Impact of the extended Kaya identity factors on CO2 emissions in Cuba compared to the base year 1971. Data sources: IEA [28], UN [29]. Improving the energy efficiency of production processes will not only reduce their energy intensity, but also financially benefit firms and households by cutting resource use. In regular economic activities, investments in higher energy efficiency processes will result in a return on investment. However, reducing the carbon intensity of energy production does not provide such benefits directly, but with time lags. Additional measures are therefore required to facilitate the introduction of energy carriers with lower carbon footprints, unless they provide a cheaper alternative. The lack of inherent commercial drivers forms the essence of the challenges we face when attempting to decarbonize industry and the energy system. CONCLUSIONS In this article, we have studied the drivers of change in energy consumption and carbon dioxide (CO2) emissions from fuel combustion in Cuba during a period of almost 50 years, 1971–2019. The results of energy decomposition summarised in Figure 2 show that decreasing energy intensity and structural change of the economy have decreased and the activity effect increased energy consumption in Cuba. The volume of these changes has been in the industrial sector, where energy consumption has been decreasing especially in the 2000s. In addition to industry, the intensity effect has decreased energy consumption also in the transportation and communications sector, but the activity effect and structural effect have increased it so that the energy consumption in the transport and communications sector has only slightly decreased during the studied period. It is therefore a great challenge to decarbonize an energy system that is essentially based on fossil energy. The results of CO2 decomposition summarised in Figure 5 show that decreasing energy intensity (FEC/GDP) is the only factor which has constantly decreased CO2 emissions in Cuba. GDP growth per capita (GDP/POP) has been the most significant factor in increasing CO2 emissions, and a slight increase in emissions due to population growth (POP) has been continuous when the effect is compared to the base year 1971 CO2 emission value. The other effects, i.e. change in the efficiency of primary energy conversion into energy carriers (TPES/FEC) have also increased CO2 emissions except for a short period in the early 1990s when the CO2 emissions temporarily decreased especially due to economic recession, but also carbon intensity of the primary energy mix (CO2/TPES) decreased at the same time. The energy system efficiency in Cuba depends on further development in the intensity and structural effects (calculated in the energy decomposition analysis), well as in the efficiency of the energy conversion system -280 -240 -200 -160 -120 -80 -40 0 40 80 120 160 1971 1977 1983 1989 1995 2001 2007 2013 2019 % of 1971 CO2 value Drivers of change in CO2 emissions, Cuba 1971-2019 CO2/TPES TPES/FEC FEC/GDP GDP/POP POP Total change in CO2 (effect of TPES/FEC calculated in the CO2 decomposition analysis). From the point of view of the 100 % renewable energy system target in Cuba, reaching the target is easier if the amount of consumed energy decreases. Here the structural change of the economy towards a less energy intensive structure and energy saving are in a key position in addition to technical improvements in energy efficiency. In this study, methodologically we introduced Sun Shapley decomposition analysis combined with Kaya identity assessment. The method has advantages for assessing energy and climate policy, as it allows for flexibility in the assessment of negative changes in the data. ACKNOWLEDGEMENTS Funding from the Academy of Finland for the project “Cuban energy transformation Integration of Renewable intermittent sources in the power system” (IRIS), decision n:o 320229, is kindly acknowledged. REFERENCES 1. VAZQUEZ, L.; LUUKKANEN, J.; KAISTI, H.; KÄKÖNEN, M.& MAJANNE, Y. (2015), Decomposition analysis of Cuban energy production and use: Analysis of energy transformation for sustainability. Renewable and Sustainable Energy Reviews, Vol. 49, pp. 638–645. 2. LIMA, F.; LOPES, M.; NUNES, J., CUNHA, A, & LUCENA, F.P. (2017). Driving forces for aggregate energy consumption: A cross-country approach. Renewable and Sustainable Energy Reviews. Vol. 68, pp. 1033–1050, 3. JIMENEZ, R. & MERCADO, J. (2014). Energy intensity: A decomposition and counterfactual exercise for Latin American countries. Energy Economics, Vol. 42, pp. 161–171. 4. ROMÁN-COLLADO, R. & MORALES-CARRIÓN, A.V. (2018). Towards a sustainable growth in Latin America: A multiregional spatial decomposition analysis of the driving forces behind CO2 emissions changes. Energy Policy, Vol. 115, pp. 273–280 5. KIM, K. & KIM, Y. (2012). International comparison of industrial CO2 emission trends and the energy efficiency paradox utilizing production-based decomposition. Energy Economics, Vol. 34, pp. 1724–1741. 6. ANG, B.W. & ZHANG, F.O. (2000). A survey of index decomposition analysis in energy and environmental studies. Energy, Vol. 25, pp. 1149–1176. 7. Hoekstra, R. & van den Bergh, J.C.J.M. (2003). Comparing structural decomposition analysis and index. Energy Economics, Vol. 25, pp. 39–64. 8. ANG, B.W.; LIU, F.L. & CHEW, E.P. (2003). Perfect decomposition techniques in energy and environmental analysis. Energy Policy, Vol. 31, pp. 1561–1566. 9. ANG, B.W. (2004). Decomposition analysis for policymaking in energy: which is the preferred method? Energy Policy, Vol. 32, pp. 1131–1139. 10. ANG, B.W; HUANG, H.C. & MU, A.R. (2009). Properties and linkages of some index decomposition analysis methods. Energy Policy, Vol. 37, pp. 4624–4632. 11. XU, X.Y. & ANG, B.W. (2014). Multilevel index decomposition analysis: Approaches and application. Energy Economics. Vol. 44, pp. 375–382. 12. ANG, B.W. & GOH, T. (2019). Index decomposition analysis for comparing emission scenarios: Applications and challenges. Energy Economics, Vol. 83, pp. 74–87. 13. SUN, J.W. (1996). Quantitative Analysis of Energy Consumption, Efficiency and Saving in the World, 1973–90. Publications of the Turku School of Economics and Business Administration, Series A-4. 14. SUN, J.W. (1998). Changes in energy consumption and energy intensity: a complete decomposition model. Energy Economy, Vol. 20, pp. 85–100. 15. ALBRECHT, J.; FRANQOIS, D. & SCHOORS, K. (2002). A Shapley decomposition of carbon emissions without residuals. Energy Policy, Vol. 30, pp. 727–736. 16. LUUKKANEN, J. & KAIVO-OJA, J. (2002a). A comparison of Nordic energy and CO2 intensity dynamics in the years 1960–1997. Energy, Vol. 27, pp. 135–150. 17. LUUKKANEN, J. & KAIVO-OJA, J. (2002b). ASEAN tigers and sustainability of energy use — decomposition analysis of energy and CO2 efficiency dynamics. Energy Policy, Vol. 30, pp. 281–292. 18. LUUKKANEN, J. & KAIVO-OJA, J. (2002c). Meaningful participation in global climate policy? Comparative analysis of the energy and CO2 efficiency dynamics of key developing countries. Global Environmental Change, Vol. 12, pp. 117–126. 19. KAIVO-OJA, J. & LUUKKANEN, J. (2004). The European Union balancing between CO2 reduction commitments and growth policies: decomposition analyses. Energy Policy, Vol. 32, pp. 1511–1530. 20. ANG, B.W. (2005). The LMDI approach to decomposition analysis: a practical guide. Energy Policy, Vol. 33, pp. 867–871. 21. ANG, B.W. (2015). LMDI decomposition approach: A guide for implementation. Energy Policy, Vol. 86, pp. 233–238. 22. ANG, B.W. & LIU, N. (2007a) Handling zero values in the logarithmic mean Divisia index decomposition approach. Energy Policy, Vol. 35, pp. 238–246. 23. ANG, B.W. & LIU, N. (2007b). Negative-value problems of the logarithmic mean Divisia index decomposition approach. Energy Policy, Vol. 35, pp. 739–742. 24. DE BOER, P. & RODRIGUES, J.F.D. (2020). Decomposition analysis: when to use which method? Economic Systems Research, Vol 32, pp. 1–28. 25. KAYA, Y. (1990). Impact of Carbon Dioxide Emission Control on GNP Growth: Interpretation of Proposed Scenarios. Energy and Industry Subgroup, Response Strategies Working Group. Intergovernmental Panel on Climate Change, Paris. 26. VEHMAS, J. (2009). Decomposition analysis of CO2 emissions from fuel combustion in selected countries. International Journal of Environmental Technology and Management, Vol. 11, pp. 47–67. 27. VEHMAS, J.; LUUKKANEN, J. & KAIVO-OJA, J. (2018). Energy efficiency as a driver of total primary energy supply in the EU-28 countries – incremental decomposition analysis. Heliyon, Vol 4, p. e00878. 28. IEA (2022). Energy Statistics Data Browser. International Energy Agency. https://prod.iea.org/data-and- statistics 29. UN (2022). UN Data. United Nations. http://data.un.org/default.aspx Information about the authors: Jarmo Vehmas: University of Turku, Finland Futures Research Centre (FFRC), Finland. Ph.D. Regional Manager. E-mail: jarmo.vehmas@utu.fi. ORCID: 0000-0002-1540-3895. Jyrki Luukkanen: University of Turku, Finland Futures Research Centre (FFRC), Finland. Ph.D. Research director. E-mail: jyrki.luukkanen@utu.fi. ORCID: 0000-0003-0223-982. Anaely Saunders Vázquez: University of Turku, Finland Futures Research Centre (FFRC), Finland. M.Sc. Researcher. E-mail: alelysava@gmail.com; asavaz@utu.fi. ORCID: 0000-0002-2893-824x. Jari Roy Lee Kaivo-oja: PhD. Research Director, Adjunct Professor, University of Turku, Finland Futures Research Centre (FFRC), Finland. E-mail: jari.kaivo-oja@utu.fi ORCID: 0000-0002-2401-6299 1 DESEMPEÑO DE INVERSORES MULTINIVEL PARA ENERGIAS RENOVABLES, UNA ALTERNATIVA A LA GENERACIÓN DISTRIBUIDA EN MEXICO Francisco Eneldo López Monteagudo1, Jorge de la Torre y Ramos1, Carlos Alberto Olvera Olvera1, Santiago Villagrana Barraza1, Luis Octavio Solís Sánchez1, Héctor Guerrero Ozuna1, Miriam Vilaragut Llanes2 1Unidad Académica de Ingeniería Eléctrica, Universidad Autónoma de Zacatecas, Av. López Velarde No. 801, CP 98060 Zacatecas, México, e-mail: eneldolm@yahoo.com 2Centro de Investigaciones y Pruebas Electroenergéticas (CIPEL), Universidad Tecnológica de La Habana, Calle 114 No.11901 e/ Rotonda y Ciclovía, Marianao, La Habana. RESUMEN En la actualidad el empleo de sistemas de generación eléctrica a través de fuentes alternas de energía incrementa continuamente, debido al aumento de la demanda energética, reduciendo las emisiones de CO2. En este trabajo se desarrolló un prototipo de inversor monofásico multinivel para aplicaciones fotovoltaicas, utilizando la topología de puentes H en cascada con fuentes de corriente directa independientes. Aplicando la técnica de Eliminación Selectiva de Armónicos (SHE) para determinar los ángulos de conmutación apropiados para el control de un inversor multinivel con baja distorsión armónica total (THD). En las condiciones del estado de Zacatecas las principales fuentes alternas de generación de electricidad son la energía solar y energía eólica, mediante la utilización de dispositivos electrónicos de potencia con inversores CC/CA (corriente continua - corriente alterna), para fuentes de generación eléctrica de pequeña, media y alta potencia, que cumplan con los requerimientos de eficiencia, calidad y seguridad establecidas por la Comisión Federal de Electricidad (CFE). PALABRAS CLAVES: Eliminación selectiva de armónicos, inversor multinivel, puentes H en cascada. PERFORMANCE OF MULTILEVEL INVESTORS FOR RENEWABLE ENERGIES, AN ALTERNATIVE TO DISTRIBUTED GENERATION IN MEXICO ABSTRACT At present, the use of electrical generation systems through alternative energy sources is continuously increasing, due to the increase in energy demand, reducing CO2 emissions. In this work, a multilevel single-phase inverter prototype for photovoltaic applications was developed, using the H-bridge topology in cascade with independent direct current sources. Applying the Selective Harmonic Elimination (SHE) technique to determine the appropriate switching angles for the control of a multilevel inverter with low total harmonic distortion (THD). In the conditions of the state of Zacatecas, the main alternative sources of electricity generation are solar energy and wind energy, through the use of power electronic devices with DC/AC inverters (direct current - alternating current), for sources of electricity generation of small, medium and high power, that meet the efficiency, quality and safety requirements established by the Federal Electricity Commission (CFE). KEY WORDS: Selective harmonic elimination, multi-level inverter, cascading H bridges 2 1. INTRODUCCION El desarrollo de tecnologías para el aprovechamiento de las energías renovables tiene un papel muy importante en la generación de energía ante el constante crecimiento del sector eléctrico, uno de los principales impulsores de la economía nacional. La participación de estas energías en la oferta total de energía primaria varía dependiendo del nivel de desarrollo del país. En México la generación de su energía eléctrica con fuentes limpias es del 15.66%, del cual solo el 0.35% es de generación de energía solar [1]. Los paneles o módulos fotovoltaicos son dispositivos electrónicos capaces de convertir la energía solar en electricidad mediante un proceso físico, conocido como efecto fotoeléctrico. Para que la energía del sistema fotovoltaico pueda ser inyectada a la red y se pueda aprovechar de manera convencional, debe cumplir con normas de calidad y eficiencia preestablecidas por el Sistema Eléctrico Nacional (SEN), sin que afecte el funcionamiento de la red eléctrica. El sistema fotovoltaico debe presentar un sistema de inyección de potencia, cuya función consiste en inyectar la energía producida por el conjunto de células fotovoltaicas, convirtiéndola de corriente directa (DC) a corriente alterna (CA) con las características eléctricas deseadas para poder realizar la interconexión a la red sin afectar su funcionamiento. El sistema de inyección de potencia que realiza esta conversión es el inversor [2]. Los inversores juegan un rol crítico en este reciente avance de aprovechamiento de energías renovables, lo cual ha conducido al desarrollo de múltiples configuraciones de convertidores DC-AC, los inversores multinivel en cascada de DC-AC, son una de las topologías más usadas en aplicaciones de media y alta potencia debido a los beneficios que brinda [3]. La tecnología multinivel se basa en convertidores constituidos por dispositivos electrónicos de potencia, los cuales pueden operar a tensiones y niveles de potencia medios generando una señal de voltaje casi sinusoidal por su conmutación alternada a partir de varios niveles de voltaje de DC, tratando de representar la señal de la red eléctrica, con una distorsión armónica lo suficientemente baja para su posterior inyección a la red. En el sector eléctrico mexicano la producción y consumo de energía eléctrica, respecto a la capacidad de generación de electricidad de la Comisión Federal de Electricidad (CFE) se diversifica en 10 tipos de tecnología: vapor (combustóleo y gas), carboeléctrica, geo-termoeléctrica, ciclo combinado, turbogas, combustión interna, hidroeléctrica, eoloeléctrica, nucleoeléctrica y solar fotovoltaica. Según la secretaria de energía (SENER), se tiene una capacidad instalada de 65 451.8 MW considerando todas las formas de generación interconectadas con generación distribuida. Actualmente en México la energía eólica ha tenido un gran crecimiento en la última década en comparación con la energía solar fotovoltaica que solo representa menos del 0.1%. 2. PRINCIPALES TOPOLOGIAS DE INVERSORES MULTINIVEL Existen principalmente tres topologías de inversores multinivel: Diodos Anclados (NPC), Capacitor Flotante (FC) y Puentes H en Cascada (CHB) [4]. Cada puente H en cascada es un convertidor multinivel, en forma de H que es alimentado por un voltaje DC independiente, el cual genera 3 voltajes a la salida (VDC, 0 y -VDC). El inversor multinivel en cascada está formado de un arreglo en serie de varios puentes H, por lo que su salida es la suma de los voltajes de salida de cada puente, a mayor número de etapas en cascada, la señal reproducida se acerca a una senoidal perfecta. Las ventajas que presenta esta topología comparada a las otras, es que requiere un menor número de componentes para generar el mismo número de niveles de voltaje a la salida, tiene un análisis de operación más sencillo además presenta mayor estabilidad durante su funciona-miento. El principal inconveniente de esta topología es que necesita tantas fuentes de DC aisladas como puentes H [5]. La calidad de una onda de voltaje es cuando se tiene una amplitud y frecuencia constantes igual que la forma sinusoidal. La calidad de la energía eléctrica es un tema importante a la hora de realizar una interconexión a la red, ya que existe una gran cantidad de cargas que demandan una buena calidad para su 3 correcto funcionamiento, así como también existen las car-gas llamadas no lineales, los cuales son circuitos electrónicos que solo absorben cortos impulsos de energía formando ondas a diferentes frecuencias de la onda sinusoidal, provocando la distorsión y variación en las señales de voltaje y corriente a la cual se le llama distorsión armónica total (THD) [6]. Una clave importante para el diseño de un efectivo y eficiente inversor multinivel, es asegurar que la THD en la señal de salida sea lo suficientemente baja. Con más niveles de voltaje, la forma de onda multinivel se vuelve más suave con bajo contenido armónico, pero con muchos niveles, el diseño más complicado y se requiere un controlador más complicado para el inversor [7]. Para que el inversor pueda generar el voltaje deseado es necesario controlar correctamente el encendido y apagado de los semiconductores en él, las técnicas de control se encargan de generar los patrones de conmutación adecuados para generar dicha onda sinusoidal [8]. La técnica eliminación selectiva de armónicos (SHE) es una estrategia de modulación que opera a frecuencia fundamental, elimina armónicas de bajo orden, lo que permite reducir las pérdidas por conmutación, la distorsión armónica total, y de esta forma aumenta la calidad de la potencia suministrada. El principio de este método es construir una forma de onda conmutada con algunas muescas de voltaje que son utilizadas para cancelar armónicos específicos no deseados, mediante el cálculo apropiado de los ángulos de conmutación. [9]. En esta técnica tiene simetría de cuarto de onda, esto se refiere a que solo es necesario encontrar los ángulos de disparo del primer cuarto del ciclo de la onda (π = 900), y los demás se encuentran sumándole o restándole el primer cuarto de onda o media onda (2π = 1800), según el ángulo que se deseé encontrar [10]. Durante la conmutación, cuando los semiconductores se apagan se presentan picos de voltaje o sobrevoltajes que pueden llegar a sobrepasar sus límites de trabajo y provocar la destrucción del dispositivo. Las redes snubber son circuitos de protección, los cuales son capaces de controlar la reactancia causada por elementos inductivos y capacitivos del circuito durante la conmutación. Mejoran el rendimiento de los semiconductores proporcionando mayor eficiencia, reducen variaciones bruscas de voltaje o corriente que deben soportar, esto los mantiene dentro del área de operación segura [11]. 3. TOPOLOGÍAS DE INVERSORES MULTINIVEL Se han desarrollado varias topologías de convertidores multinivel, dentro de las más comúnmente se encuentran los convertidores en cascada de puentes H, el convertidor diodo anclado y el convertidor de capacitores flotantes. 3.1 INVERSORES MULTINIVEL DE DIODOS ANCLADOS Este inversor multinivel de diodos anclados (IMDA) se caracteriza por dividir la tensión continua de alimentación en una cierta cantidad de niveles por medio de condensadores conectados en serie, la topología para un IMDA de tres niveles, se muestra en la figura 1. 4 Figura 1: Topología diodo anclado de tres niveles En la topología IMDA la cantidad de capacitores necesarios se considera (m−1), en el cual “m” representa el número de niveles del inversor. Además se requiere también (m−1)(m−2)/2 diodos de enclavamiento, los cuales deben ser capaces de bloquear la tensión proveniente del capacitor y de esta forma limitar el estrés de voltaje de los dispositivos de potencia. Conforme incrementa el número de niveles de control de tal forma se mejora la calidad del voltaje de salida y la forma de la onda se asemeja a una onda senoidal. 3.2 INVERSORES MULTINIVEL CON CAPACITORES FLOTANTES La estructura del inversor multinivel de capacitores flotantes (IMCF) es similar a la de IMDA pero utiliza condensadores en lugar de diodos para establecerlos niveles de tensión. En la figura 2 se muestra el diagrama electrónico de un inversor monofásico de tres niveles. 5 Figura 2: Topología de inversor con capacitores flotantes de tres niveles El IMCF de la figura 2, para su construcción requiere de (m−1) condensadores, 2(m−1) interruptores para m niveles de tensión deseados a la salida y (m−1)(m−2)/2 capacitores auxiliares por fase. Cada condensador debe mantener una tensión fija; sin embargo, debido a que los condensadores no siempre están cargados, el convertidor presenta grandes problemas para mantener equilibrados los niveles de tensión. En este caso, la técnica de modulación implementada debe corregir dicho problema mediante la implementación de un control muy complejo; además, en esta topología es necesario cargar previamente los condensadores antes de empezar a operar como inversor, por lo tanto, el arranque se torna lento. 3.3 INVERSORES MULTINIVEL CON PUENTES H CONECTADOS EN CASCADA La topología de inversores multinivel de puentes H conectados en cascada (IMPHC), se basa en la conexión en serie (o cascada) de varios inversores de tres niveles, los cuales se constituyen como celdas y cada una de ellas es alimentada por una fuente de corriente continua (CC) independiente, lo cual evita el uso de diodos de enclavamiento. En la figura 3a se muestran la topología de un inversor en cascada con fuentes asimétricas y en la figura 3b se muestra la forma de onda para 7 niveles. 6 Figura 3: (a) Topología de Inversor en cascada con fuentes asimétricas, (b) Forma de onda para 7 niveles. Como se observa en la figura 3 (a), la tensión de la onda de salida es la suma de los voltajes que se generan en cada celda, estas sumas de voltaje conforman una onda de salida cuasi-senoidal mediante diferentes arreglos de conmutación de los dispositivos semiconductores de potencia (DSP), con la opción de ser controlados mediante las distintas técnicas de conmutación existentes. Debido a su característica de poseer fuentes de CC independientes, una de las principales ventajas de las topologías de este tipo es la posibilidad de aumentar fácilmente el número de niveles al agregar celdas en cascada sin tener la necesidad de rediseñar la etapa de potencia. Dentro de los IMPHC, surgen dos clasificaciones los que poseen fuentes simétricas y asimétricas, la diferencia entre ellos radica en la magnitud de la fuente de alimentación de cada inversor. Los inversores simétricos requieren que las fuentes de alimentación tengan la misma magnitud, en cambio los asimétricos poseen fuentes de tensión de valores diferentes. Lo anterior se refleja en la cantidad de niveles que pueden generar con base en la misma secuencia de encendido. Resultando que en los inversores asimétricos pueden generar más niveles de tensión que los simétricos. Para un IMPHC de fuentes simétricas, en este el número de niveles de tensión a la salida, está dado por m = (2n + 1). Donde “m” representa el número de niveles, y “n” el número de celdas del inversor. En este inversor el numero niveles de voltajes que se puede obtener son 2Vcc, Vcc, 0, -Vcc y -2Vcc. Para este tipo de inversor en una configuración con dos celdas y fuentes simétricas se pueden obtener hasta cinco niveles. De igual forma para una configuración de dos celdas en cascada, donde se escala la segunda fuente de alimentación al doble de la primera fuente se tiene un IMPHC de fuentes asimétricas, como se puede notar en la Figura 3 (a). La forma de onda generalizada para un inversor con 7 niveles de tensión, puede ser observada en la Figura 3 (b), la cual se puede generar a partir de distintas secuencias de conmutación de los DSP, en la tabla 1 se muestra la secuencia más utilizada en la literatura consultada. 7 Tabla 1. Secuencias de conmutación para un IMPHC de 7 niveles Vout S1A S´1A S2A S´2A S1B S´1B S2B S´2B 1.5 Vcc 1 0 0 1 1 0 0 1 Vcc 1 0 0 1 0 1 1 0 0.5 Vcc 0 1 0 1 1 0 0 1 0 0 1 0 1 0 1 0 1 -0.5 Vcc 0 1 0 1 0 1 1 0 - Vcc 0 1 1 0 1 0 0 1 -1.5 Vcc 0 1 1 0 0 1 1 0 La secuencia de conmutación más comúnmente empleada en los IMPHC de fuentes asimétricas para obtener 7 niveles de tensión se indica en la tabla 1, donde “0” representa que el DSP se encuentra apagado y “1” que el DSP se encuentra encendido. En los IMPHC de fuentes asimétricas se puede obtener hasta nueve niveles de voltaje una escalada tres veces mayor que la otra, siendo este el número máximo de niveles a controlar como lo se establece en la ecuación 1: m = 3n (1) Dónde: m representa el número de niveles del inversor, y n representa el número de celdas del IMPHC de fuentes asimétricas. De igual forma se pueden agregar más celdas de puentes H, cada una con su fuente de CC independiente y de esta manera aumentar el número de niveles, siendo que en un inversor con 3 celdas de puentes H de acuerdo a la Ecuación 1 el número de niveles de voltaje será de 27, siendo esta configuración suficiente para cumplir el objetivo de este proyecto degenerar 11 niveles de voltaje. 4. TÉCNICAS DE MODULACIÓN Las técnicas de modulación para los algoritmos multinivel son programas o circuitos electrónicos que manejan a los DSP, para que se enciendan o apaguen ciertos niveles del inversor, al mismo tiempo se encargan de regular la amplitud, frecuencia y minimizar el contenido armónico de las tensiones y corrientes de salida del inversor, y dependiendo de la topología se debe encargar de mantener el equilibrio de los condensadores en el bus de continua. Las principales técnicas de modulación para inversores multinivel se muestran en la figura 4. Figura 4: Clasificación de métodos de modulación multinivel En la figura 4 se muestra el esquema de las principales técnicas de modulación, que se derivan en dos vertientes principales. En la primera vertiente se encuentran las que trabajan a una MAP de Alta Frecuencia en las cuales se tienen la Modulación en Espacio Vectorial y los de MAP senoidal multinivel y en la segunda están los que trabajan a una Frecuencia de Conmutación Fundamental, es decir, que trabajan a la frecuencia de oscilación de la red eléctrica, dentro de estos se tienen el Control en Espacio 8 Vectorial (CEV), y la Eliminación Selectiva de Armónicos (ESA). La importancia de las técnicas de modulación se debe a que estas definen el desempeño de los inversores multinivel. 5. DISEÑO DEL INVERSOR MULTINIVEL Se diseñó y construyó un prototipo de un inversor multinivel de 11 niveles mediante la técnica de eliminación selectiva de armónicos (SHE), el cual trabaje de manera autónoma ajustándose a los cambios de frecuencia que existen en la RED eléctrica. 5.1 ETAPA DE POTENCIA DEL INVERSOR MULTINIVEL La topología de inversores multinivel de puentes H conectados en cascada con fuentes asimétricas (IMPHC-FA), es la topología que mejor se adapta para el desarrollo del inversor multinivel de11niveles de tensión. La topología de IMPHC-FA desarrollada para el diseño del inversor de 11 niveles se muestra en la figura 5. Figura 5. Inversor multinivel con tres puentes H y fuentes asimétricas De la ecuación 1 se comprueba que la topología propuesta para el inversor multinivel, será capaz de proporcionar los 11 niveles de tensión y de esta forma obtener una señal de salida cuasi-senoidal. Para el control del inversor IMPHC-FA se utilizan procesadores digitales de señales (DSP). 5.2 ETAPA DE MODULACIÓN Y CONTROL DEL INVERSOR MULTINIVEL Para una adecuada selección de los DSP para el control del IMPHC-FA, es necesario conocer la potencia, tensiones y corrientes máximas que son capaces de suministrar las fuentes de alimentación, las cuales deben de ser independientes para cada uno de los puentes H del inversor multinivel. 9 El inversor multinivel desarrollado se alimenta a través de un panel fotovoltaico de 320W de potencia, con una tensión y corriente máxima de 37.4V y 8.56A, el cual cuenta con fuentes de CC diseñadas para funcionar con los parámetros que se indican en la tabla 2. Tabla 2. Parámetros de las fuentes independientes de CC Fuente Fuente tensión (V) Corriente nominal (A) Corriente máxima (A) Vcc 31.1 0.255 0.856 3 Vcc 93.3 0.755 2.568 6 Vcc 186.6 1.53 5.136 De la tabla 2 se observa que la corriente máxima de entrada, es de 1.53A, pero sumada a los dos puentes de menor tamaño, la corriente máxima para los DSP es de 8.56A, de igual forma tienen que considerarse los voltajes de bloqueo, el cual está dado por VCC/2. Por lo que se seleccionó como DSP para la conmutación en el inversor multinivel, un transistor IGBT IRGB4062D, sus características principales se muestran en la tabla 3. Tabla 3. Características del IRGB4062D VCE (voltaje colector emisor) 600V IC (corriente colector) 24A IC pulsada (corriente colector pulsada) 72A PD (potencia disipada) 125W → 200W Tj (temperatura de la unión) 55◦C → +175◦C Rθjc (resistencia térmica unión-carcasa) 0.60◦C/W Rθcd (: resistencia térmica carcasa- disipador) 0.50◦C/W El transistor seleccionado IGBT IRGB4062D, tiene internamente un diodo de recuperación suave en paralelo con el transistor el cual se encarga de proteger a los transistores IGBT de corrientes inversas. En la figura 6 se muestra la etapa de potencia para un puente H Figura 6. Etapa de potencia para un puente H 10 EL diseño de la etapa de control se desarrolla simultáneamente con el diseño de la etapa de potencia, dado la importancia de esta para una adecuada conmutación de los DSP, así como para poder controlar los niveles de tensión y corriente manteniéndolos en niveles constantes para permitir una adecuada interconexión del inversor multinivel a la RED eléctrica. La estrategia de control utilizada se basada en la Eliminación selectiva de Armónicos (ESA), la cual, además de mantener niveles de tensión y corriente constantes, tiene la característica de poder eliminar de manera selectiva armónicos de baja frecuencia, disminuyendo el porcentaje de distorsión armónica total (DAT), además solo se utilizan filtros para eliminar los armónicos de alta frecuencia. Para el empleo de la ESA, es necesario considerar la forma de onda de salida del inversor multinivel, para lo anterior se plantea la forma de onda generalizada para 11 niveles de tensión la cual se puede observar en la figura 7. Figura 7. Forma de onda generalizada para un inversor de 11 niveles de tensión A partir de la forma de onda generalizada de la figura 7, se pueden determinar las formas de onda que tendrán cada una de las celdas de puentes H del inversor multinivel. En la figura 8 se muestran las formas de onda para cada puente H del inversor de 11 niveles Figura 8. Forma de onda para cada puente H del inversor multinivel de 11 niveles 11 En la figura 8 se puede apreciar la forma de onda de salida que fueron determinadas para cada una de las celdas de puentes H, donde cada una representa a la celda del inversor con el mismo nombre de las fuentes de alimentación deseadas para el inversor de 11 niveles, es decir Vcc, 3Vcc y 6Vcc. A partir de las formas de ondas que fueron determinadas en la figura 8, es posible obtener las secuencias de conmutación para cada uno de los transistores IGBT, en la tabla 4, se muestra las secuencias de conmutación para el inversor multinivel de 11 niveles. Tabla 4. Secuencias de conmutación para el inversor multinivel de 11 niveles Volts S1 S2 S3 S4 S5 S6 S7 S8 S9 S10 S11 S12 0 0 1 0 1 1 0 1 0 1 0 1 0 2 0 1 1 0 1 0 0 1 1 0 1 0 4 1 0 0 1 1 0 0 1 1 0 1 0 6 1 0 1 0 1 0 1 0 1 0 0 1 8 0 1 1 0 1 0 0 1 1 0 0 1 10 1 0 0 1 1 0 0 1 1 0 0 1 8 0 1 1 0 1 0 0 1 1 0 0 1 6 1 0 1 0 1 0 1 0 1 0 0 1 4 1 0 0 1 1 0 0 1 1 0 1 0 2 0 1 1 0 1 0 0 1 1 0 1 0 0 0 1 0 1 1 0 1 0 1 0 1 0 -2 1 0 0 1 0 1 1 0 1 0 1 0 -4 0 1 1 0 0 1 1 0 1 0 1 0 -6 1 0 1 0 1 0 1 0 0 1 1 0 -8 1 0 0 1 0 1 1 0 0 1 1 0 -10 0 1 1 0 0 1 1 0 0 1 1 0 -8 1 0 0 1 0 1 1 0 0 1 1 0 -6 1 0 1 0 1 0 1 0 0 1 1 0 -4 0 1 1 0 0 1 1 0 1 0 1 0 -2 1 0 0 1 0 1 1 0 1 0 1 0 0 0 1 0 1 1 0 1 0 1 0 1 0 Estas secuencias de conmutación para cada uno de los transistores IGBT, que se observan en la tabla 4, donde “1” indica que el IGBT se encuentra encendido y “0” que se encuentra apagado, se complementan con los tiempos de conmutación o disparo que se obtendrán a través de la aplicación de la ESA, permitiendo de esta forma obtener a la salida del inversor. La etapa de control se implementó con un micro-controlador ATMEGA 2560, que se encuentra en las tarjetas Arduino la cual utiliza el lenguaje de programación de código abierto, el diagrama esquemático se muestra en la figura 9. 12 Figura 9. Diagrama esquemático de la tarjeta Arduino MEGA 2560 R3 Dicha etapa de control basada en el micro-controlador ATMEGA 2560 de la Figura 9, se centra en el procesamiento de las secuencias de conmutación para los transistores del inversor tomando la señal de referencia de cruce por cero de la red para su inicio, así como un monitoreo en tiempo real de las señales de voltaje y corriente, que permitirán conocer los valores de frecuencia, factor de potencia y del espectro armónico. La etapa de control debe encontrarse totalmente aislada de la etapa de potencia del inversor multinivel y de las señales de referencia de la red, por lo que es necesaria la implementación de opto-acopladores y así como de una etapa de acondicionamiento para las secuencias de conmutación de acuerdo a las características del Arduino MEGA ese solo puede proporcionar salidas de máximo 5V y 50mA y conforme a los requerimientos del transistor IGBT IRGB4062D este necesita de una entrada en su compuerta de 20V y 200nA. Para el diseño de la etapa de acondicionamiento de disparo de los transistores IGBT se seleccionó, para el aislamiento de la etapa de control el opto-acoplador 4n26 y para el acondicionamiento de las señales de disparo el driver IR2101 el cual es capaz de acondicionar voltaje y corriente a niveles constantes para su uso en los transistores IGBT 13 El circuito de acondicionamiento para las señales de disparos fue configurado para obtener a la salida del driver IR2101 la salida de 20V requerida por el transistor IGBT, este circuito que se observa en la Figura 10, es decir opto-acoplador, driver, y transistor es útil para medio puente por lo que será necesaria la implementación de 6 circuitos similares. Figura 10. Circuito de acondicionamiento para las señales de disparo Las señales de conmutación son procesadas en el micro-controlador y dirigidas a través de las salidas de los pines digitales hacia los opto-acopladores, para de esta forma aislar la etapa de control, la señal que sale del opto-acoplador, será la entrada del driver la cual se inyectara a la compuerta del transistor IGBT para su encendido y apagado. 6 CONCLUSIONES Mediante la metodología desarrollada en el presente artículo se construyó un prototipo de un inversor multinivel con una configuración de 11 niveles, el cual cumple con los requerimientos de seguridad, eficiencia y calidad de generación de energía para interconexión a la red eléctrica establecidos por Comisión Federal Electricidad. Para el control del inversor multinivel se utilizó la técnica de eliminación selectiva de armónicos (SHE), la cual es una técnica de modulación estática, por lo que el prototipo trabaja de manera autónoma ajustándose a los cambios de frecuencia de la RED eléctrica, el cual se sincronizo mediante un transformador. 7 REFERENCIAS 1 Reporte de Avances de Energías Limpias 2017, Secretaría de Energía, [online:] . (https://www.gob.mx/cms/uploads/attachment/file/354379/Reporte_de_Avance_de_Energ_as_limpias_cierre_2017.p df). [2] V. Miñambres-Marcos, E. Romero-Cadaval, and M. Milanes-Montero, "Three Phase System multiconverter Injection Plant Energy Generation Photovoltaics," p. 6. [3] F. Chabani, R. Taleb, and M. Helaimi, "ANN-based SHEPWM using a search on a new harmony multilevel inverter topology," Turkish J. Electr. Eng. Comput. Sci., Vol. 25, no. 6, pp. 4867-4879, 2017. [4] F. E. Ríos Díaz, "Diseño y construcción de un Inversor Trifásico Multinivel, " Tesis de investigación, Pontificia Universidad Católica de Chile Escuela de Ingeniería, Santiago, Chile, 2003. [5] J. A. Vila García, "Control no Lineal de Convertidores Eléctricos de Potencia," Tesis de Mestría, Universidad Nacional Autónoma de México, México, D.F., 2005. 14 [6] J. D. Arcila, "Armónicos en Sistemas Eléctricos," Trabajo de Investigación, Ingeniería Especializada S. A. [online:] (https://www.ingenieros.es/files/proyectos/Armonicos_en_sistemas_electricos.pdf ), [consultado:] 13 de diciembre de 2019. [7] A. Sharma and A. Bardalai, "Technique to Determine the Optimized Harmonic Switching Angles of a Cascaded Multilevel Inverter for Minimum Harmonic Distortion," IETE, Vol. 62, no. 3, pp. 288-294, 2016. [8] J. Loranca Coutiño, "Analisis de Técnicas de Modulación en Convertidores Multinivel en Cascada Asimétrico," Tesis de Maestría, Centro Nacional de Investigación y Desarrollo Tecnologíco, Morelos, Méx, 2013. [9] E. B. Guerrero, "Diseño y Construcción de un Inversor Multinivel con Técnicas de Eliminación Selectiva de Armónicos para Inyección de Energía a la Red Eléctrica, " Unidad Académica de Ingeniería Eléctrica, Zacatecas, Zac, 2018. [10] O. L. Jimenez Antunez, "Estudio de Técnicas de Modulación para el Inversor Multinivel en Cascada Híbrido (Simétrico-Asimétrico), " Tesis de Maestría, Centro Nacional de Investigación y Desarrollo Tecnológico, Morelos, Méx, 2012. [11] J. Ignacio Morales, "Análisis de Topologías de Redes Snubber para Transistores de Potencia en Fuentes Conmutadas, " Universidad Tecnológica Regional, pp.1-6, 2011. SOBRE LOS AUTORES Francisco Eneldo López Monteagudo, Doctor en Ciencias Técnicas, Profesor Titular de la Unidad Académica de Ingeniería Eléctrica, Universidad Autónoma de Zacatecas, México. Jorge de la Torre y Ramos, Doctor, Profesor Titular de la Unidad Académica de Ingeniería Eléctrica, Universidad Autónoma de Zacatecas, México. Carlos Alberto Olvera Olvera1, Doctor, Profesor Titular de la Unidad Académica de Ingeniería Eléctrica, Universidad Autónoma de Zacatecas, México Luis Octavio Solís Sánchez1, Doctor, Profesor Titular de la Unidad Académica de Ingeniería Eléctrica, Universidad Autónoma de Zacatecas, México. Héctor Guerrero Ozuna1, Doctor, Profesor Titular de la Unidad Académica de Ingeniería Eléctrica, Universidad Autónoma de Zacatecas, México. Santiago Villagrana Barraza, Doctor, Profesor Titular de la Unidad Académica de Ingeniería Eléctrica, Universidad Autónoma de Zacatecas, México. Miriam Vilaragut Llanes, Doctora, Profesora Titular del Centro de Investigaciones y Pruebas Electroenergéticas (CIPEL), Universidad Tecnológica de La Habana METODOLOGÍA PARA LA RECONFIGURACIÓN MULTIOBJETIVO EN LAS REDES DE DISTRIBUCIÓN CON PRESENCIA DE GENERACIÓN DISTRIBUIDA Irina Laamanen1, Enrique Cardero Cardero2, Nelson Alexey Castro Torres3, Delmar Jaime García4 1Universidad de Tampere, Finlandia, 2,3,4Universidad de Oriente, Santiago de Cuba 1e-mail: irina.salazarfonseca@tuni.fi RESUMEN En el presente artículo se propone una metodología para reconfiguración multiobjetivo de las redes de distribución con presencia de generación distribuida. En el planteamiento del problema se trabaja con dos funciones objetivos; las pérdidas de potencia activa y el índice de tensión de la red. Mientras que en la solución del modelo se emplea un algoritmo evolutivo elitista de ordenamiento no dominado (NSGA-II), el que se implementa con ayuda del MATLAB, determinando un conjunto de soluciones factibles. La metodología propuesta es implementada en la reconfiguración del circuito de prueba, 33 nodos, 37 ramas y 4 generadores distribuidos, de la IEEE. Se analizan dos casos de estudios, uno sin presencia de generación distribuida y el otro en presencia de cinco generadores distribuidos. Los resultados obtenidos se comparan con la configuración inicial de la red. En ambos casos se logra reducir las pérdidas de potencia de la red analizada y mejorar el perfil de tensión. PALABRAS CLAVES: Generación distribuida, NSGA-II, reconfiguración multiobjetivo de los sistemas de distribución. METHODOLOGY FOR MULTIOBJECTIVE RECONFIGURATION IN DISTRIBUTION NETWORKS WITH THE PRESENCE OF DISTRIBUTED GENERATION ABSTRACT This article proposes a methodology for multi-objective reconfiguration of distribution networks with the presence of distributed generation. In the statement of the problem, we work with two objective functions: active power losses and grid voltage index. While in the solution of the model an elitist evolutionary algorithm of non-dominated ordering (NSGA-II) is used, which is implemented with the help of MATLAB, determining a set of feasible solutions. The proposed methodology is implemented in the reconfiguration of the test circuit, 33 nodes, 37 branches, and 4 distributed generators of the IEEE. Two case studies are analyzed, one without the presence of distributed generation and the other in the presence of five distributed generators. The results obtained are compared with the initial configuration of the network. In both cases, it is possible to reduce the power losses of the analyzed network and improve the voltage profile. KEYWORDS: Distributed generation, NSGA-II, multi-objective reconfiguration of distribution power systems. 1. INTRODUCCIÓN Las empresas distribuidoras de energía eléctrica enfrentan el reto de ofrecer un servicio eficiente y confiable a los clientes. Por lo tanto, los ingenieros de planificación deben diseñar las redes de distribución eléctricas (RD) con costo mínimo y alta confiabilidad. A su vez, los operadores de las RD tienen la responsabilidad de operar estas redes de la manera más económica posible, garantizando un adecuado nivel de tensión a los clientes y con formas de onda sin distorsión. A la par de minimizar las interrupciones en el suministro y las pérdidas de energía en las redes [1]. En todo el mundo, la integración de la generación distribuida (GD) en las redes distribución eléctricas existentes ha aumentado considerablemente. El aumento significativo en el nivel de penetración de la DG en estas redes se ha desencadenado principalmente debido al cambio del mundo hacia energías más limpias y la voluntad de reducir las emisiones de gases de efecto invernadero [2]. Un cierto nivel de penetración de DG en las RD puede ser ventajoso para mejorar el desempeño del sistema de distribución, pero más allá de este nivel, pueden presentarse varios problemas técnicos como aumento de tensión, flujo de potencia inverso, aumento de las pérdidas de potencia, isla no intencional, desequilibrio de tensión, etc. [3]. Para mitigar estos problemas se puede utilizar la reconfiguración de las redes de distribución (RRD), metodología ampliamente conocida en la mejora de la eficiencia y la confiabilidad de las RD [4, 5, 6, 7]. La RRD consiste en la alteración del estado de interruptores normalmente cerrados, a un estado de operación abierto, y viceversa, produciendo una nueva topología de la red [8]. El problema de la reconfiguración de las RD se puede plantear como una tarea de planificación de la operación de la red y se puede clasificar como un problema de optimización combinatoria. Cualquiera sea la topología seleccionada luego de realizar la RRD, debe satisfacer las restricciones operativas de la red a la par de optimizar las funciones objetivos planteadas. En la literatura especializada, existen numerosos métodos para la RRD en presencia de GD. En [9], cuatro métodos metaheurísticos son empleados y comparados con el objetivo de optimizar las pérdidas totales de energía; ellos son Enjambres de partículas, Optimización del Lobo Gris, Búsqueda de retroceso y Algoritmo de optimización de ballenas. Por su parte en [10], se emplea un Algoritmo Evolutivo diferencial minimizando pérdidas de potencia, desviación de tensión, corriente límite de ramas y desbalance de corriente. Mientras que [11] desarrolla un Algoritmo Genético (GA) y Lógica Difusa para la optimización de pérdidas de potencia y de la desviación de tensión. En tanto [12] presenta un modelo que considera como funciones objetivo desviación de tensión y pérdidas de potencia utilizando un método híbrido, basado en GA y Búsqueda Armónica. Finalmente, en [13] se utiliza GA con el objetivo de minimizar pérdidas de potencias y costos de operación. En el presente artículo, se propone una metodología para realizar la reconfiguración multiobjetivo en las RD con presencia de generación distribuida. Para darle solución al problema planteado se emplea un algoritmo evolutivo elitista de ordenamiento no dominado (NSGA-II) elaborado por [14]. Los algoritmos evolutivos son bien reconocidos, utilizados y aplicados en la reconfiguración multiobjetivo de redes de distribución [5, 15, 16]. Ya que no requieren de múltiples ejecuciones para hallar una aproximación al frente óptimo de Pareto y permiten abordar problemas de grandes dimensiones [13]. 2. MATERIALES Y MÉTODOS La red de distribución primaria contiene dos tipos de interruptores, conocidos como interruptores de enlaces (normalmente abiertos) e interruptores seccionalizadores (normalmente cerrados). La RRD se logra alterando el estado abierto/cerrado de los seccionadores y los interruptores de enlace. La reconfiguración de la RD con presencia de GD se puede realizar de dos formas, reconfiguración estática y reconfiguración dinámica. En la reconfiguración estática se supone que tanto la generación como la demanda no varían, o sea se toman constante, este estudio se enfoca en esta forma. La reconfiguración dinámica si toma en cuenta la variación de la demanda como de la generación, sobre todo de la generación distribuida con fuentes renovables de energía. Una vez realizada la reconfiguración la topología que se seleccione debe cumplir con las restricciones mínimas que son [5]: ✓ Conservar la configuración radial de los alimentadores ✓ Los límites térmicos de líneas, transformadores y otros equipos no deben ser excedidos ✓ Los niveles de tensión tienen que quedar dentro de los límites establecidos ✓ Todas las cargas deben ser servidas, en el caso de que se realice la reconfiguración para disminuir pérdidas ✓ Que la mayor cantidad de clientes sean alimentados, si el objetivo es mejorar la confiabilidad del sistema Formulación matemática del problema La reconfiguración multiobjetivo de los sistemas de distribución de energía eléctrica es un problema combinacional donde el número de posibles configuraciones que tienen que ser analizadas crece exponencialmente con el tamaño de la red. Es un problema de difícil solución mediante las técnicas tradicionales por la gran cantidad de configuraciones posibles, especialmente en los sistemas de distribución de gran tamaño. Para la optimización de las funciones objetivos en el presente artículo se emplean técnicas basadas en el uso de Algoritmos Evolutivos, que son muy adecuadas para resolver problemas combinacionales dado que no exploran todo el espacio de posibles soluciones, evaluando únicamente un grupo reducido, y de buena calidad, del gran número de configuraciones candidatas. El algoritmo NSGA-II empleado en la solución del problema permite minimizar las funciones objetivos seleccionadas. Funciones objetivo La primera función objetivo a minimizar es las pérdidas de potencias reales, ecuación (1), la cual se formula a continuación:  = + = nb l l ll l V QP rP 1 2 22 min (1) Dónde: ΔP son las pérdidas de potencia real; nb es los números totales de ramas; rl resistencia de la rama l; Pl potencia activa de la rama l; Ql potencia reactiva de la rama l y Vl tensión al inicio de la rama l. La segunda función objetivo a minimizar es el índice de perfil de tensión puede ser expresada como se muestra en la ecuación (2): ( ) = −= mb i pis vv mb V 1 21 min (2) Dónde: Vs el índice de perfil de tensión; vi la tensión en el nodo i; mb el número de nodos y vp la tensión promedio de los nodos. Como consideraciones del problema aproximado (condiciones iniciales) se plantean las siguientes: ✓ Todas las líneas poseen interruptores que pueden cambiar su estado de abierto a cerrado, excepto el primer tramo de los alimentadores donde se encuentran instalados los interruptores generales. ✓ Los enlaces se realizarán en los troncos de los circuitos y en aquellos ramales que sean trifásicos. ✓ Se definirán las mallas elementales del sistema, como aquella malla que puede ser formada en el sistema y que no contiene a otras mallas. Restricciones Caídas de tensión Las restricciones de caídas de tensión máximas permisibles se pueden plantear matemáticamente por medio de la ecuación (3): ni VV  %% (3) Dónde: %Δ Vi es el porcentaje calculado en el nodo i-ésimo del sistema de distribución y %ΔVn es el porcentaje máximo permitido, sobre la tensión nominal, en el que puede variar el valor la tensión de suministro de energía eléctrica a un centro de demanda. Capacidad admisible para alimentadores La ecuación (4) muestra la restricción para las líneas, la corriente máxima que circula por cada una de ellas no debe exceder en ningún momento la corriente límite térmico del conductor. ijltijmáx II ,,  (4) Dónde: Imáx,ij es la corriente máxima que circula por el tramo de línea i, j y Ilt,ij es la corriente de límite térmico del conductor del tramo de línea i, j. Capacidad admisible para subestaciones existentes La ecuación (5) muestra la restricción para las subestaciones de la red de distribución en estudio, ninguna de las configuraciones del circuito debe violar que la demanda máxima del circuito sea menor o igual que la capacidad nominal de la subestación. nmáx SS  (5) Dónde: Smáx es la potencia aparente máxima demandada por el circuito y Sn es la capacidad nominal de la subestación. Restricción de Inyección de Potencia Para prevenir que la potencia inyectada por los generadores distribuidos a la red de distribución eléctrica fluya hacia la fuente principal o subestación, la carga total en la red de distribución necesita ser mucho más grande que el total de la potencia de salida de los generadores distribuidos en todo momento. En la ecuación (6) se expresa la restricción de inyección de potencia de los generadores distribuidos conectados en la red de distribución. PPP ac k i GD + = arg1 < (6) Dónde: k es el número de generadores distribuidos; Pcarga es la potencia activa de carga total, PGD es la potencia de los generadores distribuidos. Restricción de Balance de Potencia El principio de equilibrio que estipula que la potencia suministrada debería ser igual a la demandada. La sumatoria de las pérdidas de potencia y las cargas deberían ser igual al total de lo generado por las unidades de generación distribuida y la subestación. Como aparece reflejado en la ecuación (7). PPPP ac k i subGD +=+ = arg1 (7) Dónde: Psub es la potencia suministrada por la subestación. Restricción de radialidad El modelo planteado en este trabajo permite la selección de topologías radiales, donde no pueden existir caminos en la topología que permitan la formación de mallas o lazos ni nodos sin alimentación. ✓ Para detectar nodos sin alimentación se explora la matriz de incidencia A en busca de alguna columna donde todos los elementos sean ceros, en ese caso existe un nodo sin alimentación y es descartada esa configuración. ✓ Para detectar si una configuración es radial, se construye la matriz de adyacencia nodo-nodo, luego se explora en busca de caminos cerrados, de encontrarse se descarta la configuración. Técnica de solución multiobjetivo En este trabajo se ha aplicado un NSGA-II desarrollado por [14] para resolver el problema de reconfiguración multiobjetivo de las redes de distribución con presencia de generación distribuida. El método empleado tiene dos elementos importantes: asegura la diversidad durante el proceso de solución y considera las mejores soluciones (elitismo), mediante la aplicación de los operadores de acuerdo con las funciones de aptitud. En la Fig. 1, se muestra el diagrama de flujo del algoritmo NSGA-II. Figura 1: Diagrama de flujo del algoritmo NSGA-II implementado. Las principales etapas de la técnica de solución empleada se detallan a continuación: 1. Generar una población inicial Pt de tamaño N de forma aleatoria, una vez cargados los ficheros con los datos de la red de distribución a reconfigurar, así como el cálculo del flujo de carga inicial. 2. Chequea la restricción de radialidad de los individuos que corresponden a la población inicial P t, las soluciones no deseadas son eliminadas. Solo las configuraciones factibles son evaluadas y se verifica su viabilidad con respecto a las restricciones restantes basadas en el flujo de potencia. El método de Barrido Iterativo fue empleado en el trabajo para el cálculo del flujo de potencia. 3. Evaluar las funciones objetivas usando las ecuaciones (1) y (2). 4. Clasificar las soluciones por los frentes de dominancia de Pareto. 5. Calcular las distancias de apilamiento en cada frente, para mantener la diversidad en la frontera de Pareto. 6. Aplicar los operadores genéticos: selección, cruzamiento y mutación, con ellos se asegura el elitismo. Se genera una nueva población Qt (descendiente) del mismo tamaño Pt (padres). Luego se realiza una combinación entre ambas poblaciones para obtener una población Rt, de tamaño 2*N, que es organizada en frentes de Pareto 7. Mediante el uso del concepto de dominancia de Pareto (F1, F2, . . ., Fn). En medio de cada operador genético se evalúa las restricciones técnicas. 8. Genera nueva población Pt+1 a partir de las configuraciones de los frentes no dominados una vez finalizado. 9. Evalúa las funciones objetivas para los individuos de Pt+1. 10. Si se cumple el criterio de convergencia, se finaliza el proceso y muestra los resultados. De lo contrario retornar al paso 5. Codificación del problema La codificación del problema se describe por medio de un vector de números reales, que identifican aquellos elementos de maniobra que se encuentran presentes en líneas asociadas a las mallas fundamentales de la red de distribución. Las mallas fundamentales son aquellas que pueden ser formadas en el sistema y no contienen a otras mallas. En la Fig. 2, se representan las cinco mallas fundamentales formadas en el sistema de prueba de la IEEE [18, 19], que consiste en un alimentador de 33 nodos, 32 interruptores seccionalizadores, y 5 interruptores de enlace. Figura 2: Sistema de distribución de 33 nodos. Fuente [18] modificado por el autor. La representación genética de la cadena de cromosomas que representa una topología radial en la Fig. 2 es la siguiente: [33 34 35 36 37] Lo que significa que los interruptores S33, S34, S35, S36 y S37 están abiertos. Métrica para determinar la mejor solución del frente de Pareto Luego de obtener el conjunto de soluciones óptimas (frente de Pareto) entregadas por el algoritmo, se emplea el criterio Max-min [5] para elegir la mejor solución. Este criterio consiste en utilizar el grado de satisfacción de cada objetivo, que se puede calcular teniendo en cuenta el valor mínimo y máximo de ese objetivo. El valor mínimo tendrá un grado de satisfacción unidad y el valor máximo tendrá un grado de satisfacción cero. El valor de cada objetivo obtenido en cada solución es ordenado entre el grado máximo posible de satisfacción y el mínimo correspondiente. El criterio de decisión se basa en maximizar el grado mínimo de satisfacción de cada uno de los objetivos. A los pares de valores normalizados se les aplica el criterio Max-min, ecuación (8), y se obtiene la solución elegida.                     − − − − −− −− −− −− min2max2 2max2 min1max1 1max1 ,minmax FOFO FOFO FOFO FOFO ii (8) Dónde: FO1-max es valor máximo obtenido de la función del ΔP para el frente de Pareto; FO1-min es valor mínimo obtenido de la función del ΔP para el frente de Pareto; FO2-max es valor máximo obtenido de la función Vs para el frente de Pareto; FO2-min es valor mínimo obtenido de la función Vs para el frente de Pareto; FO1-i es valor de la función del ΔP de la solución i del frente de Pareto y FO2-i es valor de la función de Vs de la solución i del frente de Pareto. Metodología para la reconfiguración multiobjetivo de las RD con presencia de GD. Paso 1: Recopilación de la información elemental del circuito de media tensión en estudio. ✓ El plano del circuito de la red de distribución primaria de Media Tensión, con sus correspondientes puntos de enlaces con otros circuitos, la subestación a la que pertenece y los elementos de maniobra. El calibre de los conductores y las distancias entre los nodos. ✓ Potencia total instalada en la subestación (kVA). ✓ Potencia total instalada de cada uno de los generadores distribuidos. ✓ Medición en el inicio del alimentador por el periodo de tiempo de 24 horas. ✓ Mediciones de la potencia activa (P) y reactiva (Q) en cada transformador por un período de tiempo (generalmente de 24 horas). Como alternativa en caso de no poder contar con las mediciones de P y Q, se debe conocer la potencia instalada en kVA de cada transformador y el factor de potencia del circuito. Paso 2: Se seleccionan los puntos de enlaces entre los circuitos para obtener las mallas elementales. Estas se enumeran de forma consecutiva comenzando por la malla I. Además de los puntos de enlaces existentes entre los circuitos en estudios. Se pueden escoger como enlaces nodos que pertenezcan al tronco del circuito o a los ramales trifásicos, que se encuentren lo más cerca posibles unos de otros. Paso 3: Realizar el diagrama general de la red a reconfigurar donde se muestren las mallas elementales. Paso 4: Ejecutar el Algoritmo NSGA-II propuesto. Paso 5: Con los resultados obtenidos en el paso 4 se selecciona la mejor solución empleando la ecuación (8). 3. RESULTADOS El circuito de prueba seleccionado para las simulaciones del algoritmo de reconfiguración propuesto es el sistema de prueba de la IEEE que se muestra en la Fig. 2. Es un sistema trifásico con tensión nominal 12.66 kV, las potencias activas y reactivas totales de del sistema son 5048.26 kW y 2547.32 kVAR respectivamente. En la Tabla 1 se muestran los nodos donde están instalados los generadores distribuidos y su capacidad [18]. Mientras que en la Tabla 2 se muestran los parámetros del circuito [19]. Tabla 1: Generadores distribuidos y su capacidad. Nodo kW Factor de potencia 3 50 0.8 6 100 0.9 24 200 0.9 29 100 1 Tabla 2: Estructura y parámetros del circuito. No. Línea Nodo inicial i Nodo final j Resistencias (Ω) Reactancias (Ω) P(KW) Q(KVAr) 1 1 2 0.0922 0.047 100 60 2 2 3 0.493 0.2512 90 40 3 3 4 0.3661 0.1864 120 80 4 4 5 0.3811 0.1941 60 30 5 5 6 0.819 0.707 60 20 6 6 7 0.1872 0.6188 200 100 7 7 8 0.7115 0.2351 200 100 8 8 9 1.0299 0.74 60 20 9 9 10 1.044 0.74 60 20 10 10 11 0.1967 0.0651 45 30 11 11 12 0.3744 0.1298 60 35 12 12 13 1.468 1.1549 60 35 13 13 14 0.5416 0.7129 120 80 14 14 15 0.5909 0.526 60 10 15 15 16 0.7462 0.5449 60 20 16 16 17 1.2889 1.721 60 20 17 17 18 0.732 0.5739 90 40 18 2 19 0.164 0.1565 90 40 19 19 20 1.5042 1.3555 90 40 20 20 21 0.4095 0.4784 90 40 21 21 22 0.7089 0.9373 90 40 22 3 23 0.4512 0.3084 90 50 23 23 24 0.898 0.7091 420 200 24 24 25 0.8959 0.7071 420 200 25 6 26 0.2031 0.1034 60 25 26 26 27 0.2842 0.1447 60 25 27 27 28 1.0589 0.9338 60 20 28 28 29 0.8043 0.7006 120 70 29 29 30 0.5074 0.2585 200 100 30 30 31 0.9745 0.9629 150 70 31 31 32 0.3105 0.3619 210 100 32 32 33 0.3411 0.5302 60 40 33 25 29 0.5 0.5 34 8 21 2 2 35 12 22 2 2 36 9 15 2 2 37 18 33 0.5 0.5 Se realizaron varias simulaciones para dos casos de análisis de estudios. El Caso 1 sin generación distribuida y el Caso 2 con presencia de los generadores distribuidos optimizando las funciones objetivas propuestas, partiendo de la configuración inicial del sistema. Del conjunto de soluciones obtenidos, en la Tabla 3 se exponen las soluciones obtenidas como se indica en el paso 5 de la metodología propuesta. Se muestran también, las pérdidas de potencia activa en kW, la reducción en % de las pérdidas para ambos casos con respecto a la configuración inicial, la tensión mínima en p.u (por unidad). Además, se brindan los tiempos promedios que se demora cada corrida del NSGA-II en una PC Core i3 con 4 GB de memoria RAM, programa desarrollado en MatLab versión 2018b, para una población inicial de 300 individuos y 100 generaciones. Tabla 3: Resultados numéricos para ambos casos en estudio. Casos Interruptores Abiertos Pérdidas (kW) Reducción (%) Tensión mínima (p.u) Tiempo (segundos) Inicial S33 S34 S35 S36 S37 201.9 - 0.91337 18.1 1 S7 S9 S14 S32 S37 139.2 31.05 0.9381 18.4 2 S7 S9 S14 S28 S32 110.95 45.05 0.9458 18.8 Como se puede apreciar en la Tabla 3 la reducción de las pérdidas de potencia cuando se utiliza la generación distribuida y una vez realizada la reconfiguración es del 45.05 % con respecto a la configuración inicial del circuito analizado. En la Fig. 3 se ilustra la configuración del circuito para la solución escogida del caso 2. Figura 3: Esquema de la solución seleccionada del caso 2. Fuente [18] modificado por el autor. 4. CONCLUSIONES En este artículo, un algoritmo evolutivo elitista de segundo orden ha sido propuesto para reducir las pérdidas de potencia real y mejorar el perfil de tensión en los sistemas de distribución. La funcionalidad del NSGA-II es corroborada en un sistema de prueba de 33 nodos. El método logra encontrar un conjunto de soluciones óptimas demostrando su efectividad con respecto a otros métodos. Se logran reducir las pérdidas de potencia real para el primer caso (sin GD) cerca de un 31% y en el segundo caso, con la penetración de GD, cerca de un 45 %; en ambos casos de estudios se logra mejorar el perfil de tensión de sistema. RECONOCIMIENTOS Los autores desean agradecer a la colaboración entre la Facultad de Ingenieria Electrica de la Universidad de Oriente y la Universidad de Tampere mediante el proyecto IRIS (Cuban energy transformation. Integration of Renewable Intermittent Sources in the power system, 2019-2022) financiado por la Academia de Finlandia (320229) por su aporte en del resultado del presente artículo. REFERENCIAS 1. CRESPO SÁNCHEZ, Gustavo, et al. “Revisión de la asignación de interruptores en la reconfiguración de redes de distribución para maximizar la confiabilidad y minimizar los costos”. Revista Universidad y Sociedad, 2019, vol. 11, no 1, p. 339-349. 2. SALAZAR, Irina; REPO, Sami; STETZ, Thomas. Cuban energy system development: Technological Challenges and Possibilities [en línea]. Finland Futures Research Centre, University of Turku. FFRC eBooks 2/2022. 49 pp. ISBN 978-952-249-566-2 [ref. de 31 de Agosto 2022]. Disponible en: https://urn.fi/URN:ISBN:978-952-249-568-6 3. HUDA, AS Nazmul; ŽIVANOVIĆ, R. “Large-scale integration of distributed generation into distribution networks: Study objectives, review of models and computational tools”. Renewable and Sustainable Energy Reviews, 2017, vol. 76, p. 974-988. 4. CATTANI, Ivo Benitez; CHAPARRO, Enrique; BARÁN, Benjamín. “Distribution system operation and expansion planning using network reconfiguration”. IEEE Latin America Transactions, 2020, vol. 18, no 05, p. 845-852. 5. SALAZAR-FONSECA, Irina, et al. “Reconfiguración multiobjetivo en sistemas de distribución primaria de energía. Ingeniare”. Revista chilena de ingeniería, 2017, vol. 25, no 2, p. 196-204. 6. MUKHOPADHYAY, Bineeta; DAS, Debapriya. “Multi-objective dynamic and static reconfiguration with optimized allocation of PV-DG and battery energy storage system”. Renewable and sustainable energy reviews, 2020, vol. 124, p. 109777. 7. JAFARI, Amirreza, et al. “Dynamic and multi-objective reconfiguration of distribution network using a novel hybrid algorithm with parallel processing capability”. Applied soft computing, 2020, vol. 90, p. 106146. 8. RAO, Rayapudi Srinivasa, et al. “Optimal network reconfiguration of large-scale distribution system using harmony search algorithm”. IEEE Transactions on power systems, 2010, vol. 26, no 3, p. 1080- 1088. 9. JORDEHI, A. Rezaee. “DG allocation and reconfiguration in distribution systems by metaheuristic optimisation algorithms: a comparative analysis”. IEEE PES Innovative Smart Grid Technologies Conference Europe (ISGT-Europe). IEEE, 2018. p. 1-6. 10. GHAWETA, Ahmad; LIAO, Yuan. “Optimal distribution feeder reconfiguration with distributed generation using intelligent techniques”. IEEE International Conference on Electro/Information Technology (EIT). IEEE, 2018. p. 0860-0865. 11. ABBASKHANI-DAVANLOO, Arash, et al. “Distribution system reconfiguration for loss reduction incorporating load and renewable generation uncertainties”. IEEE Texas Power and Energy Conference (TPEC). IEEE, 2019. p. 1-6. 12. SAFAVI, Vahid; VAHIDI, Behrooz; ABEDI, Mehrdad. “Optimal dg placement and sizing in distribution network with reconfiguration”. Science International, 2014, vol. 26, no 3. 13. CRUZ, Marco RM, et al. “Coordinated distribution network reconfiguration and distributed generation allocation via genetic algorithm”. IEEE International Conference on Environment and Electrical Engineering and 2017 IEEE Industrial and Commercial Power Systems Europe (EEEIC/I&CPS Europe). IEEE, 2017. p. 1-6. 14. DEB, Kalyanmoy, et al. “A fast and elitist multiobjective genetic algorithm: NSGA-II”. IEEE transactions on evolutionary computation, 2002, vol. 6, no 2, p. 182-197. 15. MENDOZA BAEZA, Jorge; ROJAS LAGO, Fabian. “Restauración de servicio multiobjetivo en redes de distribución utilizando NSGA-II”. Ingeniare. Revista chilena de ingeniería, 2009, vol. 17, no 3, p. 337-346. 16. MAGHOULI, Pouria, et al. A multi-objective framework for transmission expansion planning in deregulated environments. IEEE Transactions on power systems, 2009, vol. 24, no 2, p. 1051-1061. 17. RODRÍGUEZ, Alexis; NESMACHNOW, Sergio. MOE: un entorno de trabajo para optimización multiobjetivo con algoritmos evolutivos. Reportes Técnicos 09-21, 2009. 18. WU, Yuan-Kang, et al. Study of reconfiguration for the distribution system with distributed generators. IEEE transactions on Power Delivery, 2010, vol. 25, no 3, p. 1678-1685. 19. KARGAR, A.; MALEKI, V. Reconfiguration of distribution systems with distributed generators based on imperialist competitive algorithm. En 2012 Proceedings of 17th Conference on Electrical Power Distribution. IEEE, 2012. p. 1-5. SUSTAINABILITY WINDOW AND DOUGHNUT ECONOMY MODEL FOR CUBA / VENTANA DE SOSTENIBILIDAD Y MODELO DE ECONOMÍA DE DONA PARA CUBA Anaely Saunders Vázquez1, Jyrki Luukkanen2, Jari Roy Lee Kaivo-oja2 and Jarmo Vehmas2 1, 2 University of Turku, Finland Futures Research Centre. 1e-mail: alelysava@gmail.com ABSTRACT Sustainability Window (SuWi) analysis is a novel tool to analyze the different dimensions of sustainability. It can be used to define the minimum economic development to fulfill the requirements for social sustainability and the maximum economic development not to surpass the environmental limits. The method provides quantitative measures to define whether the real development of GDP is within the sustainability limits using different indicators for measuring social welfare and environmental stress. The SDG indicators and selected Cuban indicators have been used in the analysis. Cuba has an exciting profile among developing countries since its development has been related to sustainability in several fields. Unfortunately, the US blockade against Cuba has severely limited the possibilities for development in all spheres of life. However, Cuba has been able to develop successful sustainability policies in different sectors to achieve the Sustainable Development Goals. The SuWi results can be used to visualize the sustainability doughnut to illustrate the critical areas of development where policy intervention may be needed to reach sustainability. In addition, the doughnut economy visualization is constructed for Cuban development to analyze both strong and weak sustainability. KEYWORDS: Sustainability, Sustainability Window (SuWi), doughnut economy, Sustainable Development Goals (SDGs), Cuba 1. INTRODUCTION In the Brundtland Commission's publication “Our Common Future” (1987), the definition of sustainability was “sustainable development is a development that meets the needs of the present without compromising the ability of future generations to meet their own needs”. This definition of sustainability includes two key concepts: (1) the concept of needs, particularly the essential needs of the world's poor, which must be given absolute priority; and (2) the idea of the limitations imposed by the state of technology and social organization on the ability of the environment to meet present and future needs. The 2030 Agenda for Sustainable Development is transformative, puts people's equality and dignity at the center, and calls for a change in the style of development that respects the environment. It is a universal commitment acquired by both developed and developing countries within the framework of a global alliance, which considers the means of implementation to carry out change and the prevention of disasters due to extreme natural events, as well as the mitigation and adaptation to climate change [1]. The Sustainable Development Goals (SDGs) are the heart of the 2030 Agenda, with a comprehensive, indivisible perspective and a renewed international collaboration. All the SDGs show an ambitious vision of sustainable development, integrating the economic, social, and environmental dimensions. The SDGs are a planning and monitoring tool for all countries at the national and local levels. Thanks to their long-term vision, they support each country on its path towards sustainable, inclusive development in harmony with the environment, through public policies and planning, budgeting, monitoring, and evaluation instruments [2]. The complex and interrelated problems of environment and development require a simultaneous analysis of the different dimensions of development processes. Therefore, new methods and tools are needed to analyze these processes and provide a comprehensive development vision. One of the new methodologies for this type of research is the analysis of the Sustainability Window (SuWi) [3-6]. The Sustainability Window is a tool to assess the sustainability of development in its three dimensions simultaneously (environmental, economic, and social). The method provides information on the maximum and minimum economic development required to maintain the direction of social and environmental development towards more sustainable objectives. In this sense, SuWi's analysis is based on the approach of the Brundtland Commission. It allows analyzing the dynamics of the sustainability of societies using different indicators and periods and can be easily used for comparative analysis. Furthermore, sustainability trends can be linked to different sustainability policies to analyze their effectiveness. Sustainability Window can be used to analyze sustainability transitions in developing economies, for example, as explained by Geels et al. (2016) [7], Loorbach (2002), (2007) [8-9] and Kemp et al. (2005) [10]. This article demonstrates the Sustainability Window approach with Cuban data. Cuba is a compelling case of analysis because, on the one hand, it has exemplary achievements in sectors such as education, as explained, for example, by Hanushek et al. (2012) [11], and in health, demonstrated for example in Farouq (2019) [12], but on the other hand, it depends on the use of fossil fuels, as exemplified by Andersen et al. (2013) [13]. Based on the selected indicators, the Sustainability Window analysis indicates the minimum economic growth rate to improve social conditions and the maximum economic growth rates that do not exceed environmental development limits. However, the analysis here does not refer to the absolute level of sustainability (usually, this cannot be determined) but rather determines whether the direction of change is towards a more sustainable state. The method can also be used for analysis of absolute level of sustainability if it can be determined. The Sustainability Window analysis results can be visualized with a quantitative approach if used in the analysis of the Doughnut Economy. According to Kate Raworth (2017) [14], “the environmental ceiling consists of nine planetary boundaries, as established by Rockstrom et al. (2009) [15], beyond which lie unacceptable environmental degradation and potential tipping points in Earth systems”. The twelve dimensions of the social foundation are derived from internationally agreed minimum social standards, as identified in the 2015 SDGs. Between the social and planetary boundaries lies an environmentally safe and socially just space where humanity can prosper. SuWi's analysis provides quantitative insights into these boundaries and economic development. The method provides a visual interpretation of the Doughnut and denotes where problem areas of unsustainable development exist. Before the adoption of the SDGs, the World Wildlife Fund (WWF), in its 2006 [16] report on the progress of countries towards sustainable development, indicated that Cuba was the only country that met the conditions of sustainability, based on the Human Development Index as a social indicator and the Ecological Footprint, which measures the number of natural resources used per capita [17]. Cuba aspires to build a prosperous, sustainable, profoundly humanistic, and democratic socialist society [18], despite the application and intensification of the US government's economic, commercial, and financial blockade policy for more than 60 years. The blockade prevents Cuba from accessing financing from the main international financial institutions and maintains fierce financial persecution of those resources the country has been able to access. The blockade also prevents financial transactions derived from Cuba's foreign trade. This is the result of the application of Title III of the Helms-Burton Act, which reinforces the extraterritorial nature of the sanctions against Cuba (in general, on the impacts of US sanctions on poverty, see Neuenkirch et al. (2016) [19]). Cuba's strategic purpose is the integral development of the human being with high values and ethical principles, fundamental to progressively consolidating the bases of new social relations. These elements are also reflected in several guiding documents of the nation, such as the Bases of the National Plan for Economic and Social Development to 2030: Vision of the Nation, Strategic Axes and Sectors [20]. These documents are decisive for the sustainability and prosperity of the Cuban nation, in broad coherence with the objectives and goals of the 2030 Agenda. The National Economic and Social Development Plan for 2030 [21] establishes six strategic axes. These are designed under a systemic approach, which articulates the economic and social development proposal and contributes from its area of influence to achieve that purpose in the long term. According to the national plan of the 2030 Agenda for Cuba, economic, social, and environmental sustainability is associated with development. It requires growth rates and economic structures that ensure prosperity with social justice and equity in harmony with the environment, the rational use and preservation of natural resources, and the care and enrichment of the nation's heritage. Furthermore, the sustainable increase in production is seen as a fundamental premise to raise the level and quality of life gradually, the full realization of the human being and his individual, family, and collective project, through a fair and equitable distribution of wealth, advancing in the eradication of social inequalities [22]. 2. METHODOLOGY AND DATA In the Sustainable Development Reports, where compliance by most countries in the world with the SDGs can be seen, Cuba appears in 40th place, out of 163 countries, the second country in level of compliance in the Latin American region and the Caribbean. Figure 1: Cuba. Updated information on the status of compliance with the SDGs. [23] Based on the conditions in Cuba, the analysis of the Sustainability Window is carried out to evaluate the country's development around three fundamental pillars of the Green Economy: (i) Low-carbon development, (ii) resource efficiency, and (iii) social inclusion. Different indicators have been used in the analysis to compare their ease of use and provide a broader view of the development of the Green Economy. International organizations, research centers, and statistical offices have developed different sets of indicators of sustainability (see comparison by Schoenaker, Hoekstra & Smiths (2015) [24]). As a result, various indicators have been used in this research. The Sustainable Society Index (SSI) [25-26] has been the main source of data for the analysis. In addition, statistical data from the UN [27], UNDP data such as the Human Development Index [28], IEA data [29] on energy and CO2 emissions, and UNESCO data [30] on education. Specifically, the SSI dataset integrates human, environmental, and economic well-being indicators to form a more comprehensive view of development. The data used in the analysis covers 2006 - 2016, for which SSI data is available. In addition to the SSI database, a "social inclusion" indicator has been calculated to add this dimension to the analysis explicitly. This indicator is based on secondary education completion rate data, including urban/rural, female/male, and East/West dimensions. For the Sustainability Window analysis, all the indicators have been indexed to have the value 1 in the base year of the analysis, 2006. For the indexing, raw data of the SSI indicators have been used. The indicators used in the analysis are shown in Table 1. The construction of the Sustainability Window (for more details on the method, see Luukkanen et al. (2015) [4]) can be explained using a visual method. The Sustainability Window is presented as the space on the X-axis between the minimum sustainable economic growth (defined by social sustainability) and the maximum sustainable economic growth (defined by environmental sustainability). On the Y-axis are the variables that describe social development and environmental development. Different indicators approximate these variables. All the indicators used in the analysis -economic, social, and environmental- are indexed to have the value 1 in the base year. The development of the variables is presented as a function of time in the XY graph; in this case, the values of the last year, 2016, of the indexed indicators are used for the analysis. It is also possible to analyze the development of the Sustainability Window as a function of time (see Luukkanen et al. (2015) [4]), called dynamic sustainability, which can be used for trend analysis and construction of future scenarios. In Figure 2, point A is the starting point of the development. This represents the index point for environmental stress (Env0) and economic development (GDP0). Line r1 indicates the environmental stress productivity of GDP in the base year. The environmental stress in the last year of analysis is Env1 and the corresponding GDP1 is the economic development (point E), so line r2 represents the last year´s productivity. If the sustainability criterion is that environmental stress does not increase, then point F represents the maximum economic development, GDPmax, on line r2, to meet the sustainability criterion. A E F r1 r2 GDP0 GDP1GDPmax Env0 Env1 Environmental stress Economic development Figure 2. Defining maximum economic development in the case where environmental stress is not increased. Figure 3 illustrates the procedure to determine the minimum economic development to fulfill the social sustainability criterion. In this figure, point A represents the starting point for analysis, having Soc0 as the social welfare production and GDP0 as the economic development, and line r1 represents the social welfare productivity (for the productivity of different components, see, e.g., Tamura et al. (2019) [31]). The final year of analysis is indicated with point S with social welfare Soc1, and GDP1, and the social welfare productivity is indicated with line r2. Now the sustainability criterion is that the social welfare should not decrease, which means that point G on the line r2 represents the minimum economic development, GDPmin to fulfill the sustainability criterion. A S G r1 r2 GDP0 GDP1GDPmin Soc0 Soc1 Social welfare Economic development Figure 3. Defining minimum economic development to fulfill the social sustainability criterion. When the previous cases of environmental and social sustainability analyses are combined, we can define the minimum and maximum economic development to fulfill social and environmental sustainability criteria, the definition for the Sustainability Window. In Figure 4, the Sustainability Window is presented by combining the previous analyses. In this figure, the environmental stress productivity line r2 determines the maximum economic development GDPmax and the social welfare productivity line r3 the minimum economic development GDPmin to fulfill both sustainability criteria. A E F r1 r2 GDP0 GDP1 GDPmax Env0 Env1 Environmental Stress / Social Welfare Economic development r3 GDPmin S Sustainability Window G Soc0 Soc1 Figure 4. Defining Sustainability Window with maximum economic development GDPmax to fulfill environmental sustainability criterion and minimum economic development GDPmin to fulfill social sustainability criterion. In the case of Cuba, the example of analysis of the Sustainability Window has been carried out using GHG emissions (environmental dimension of low-carbon development) and years of healthy life (social dimension of social welfare) in the context of economic development (GDP). The strong criterion for environmental sustainability is defined when GHG emissions are not growing (see discussion on strong sustainability in Vehmas et al. (2007) [32] and Kaivo-oja et al. (2014 a,b) [33-34]). In this analysis, we also utilize the weak sustainability criterion for CO2 emissions, which states that the emissions produced per GDP should not increase. The weak sustainability criterion can be used in this case because Cuba's CO2 emissions per capita are very low. On the other hand, the criterion for social sustainability in this analysis is that the “Healthy life years” should increase. The indexed “Healthy life years” are indicated in Figure 5 with the blue line for 2006 – 2016, between points A and B. Indexed GHG emissions divided by GDP (weak sustainability) are indicated with the orange line for the same period, between A and E. Line r1 indicates the indexed GDP productivity for the “Healthy life years” (how much indexed healthy life years are produced per unit of GDP) and for GHG emissions (how much GHG emissions are produced per unit of GDP) for the reference year 2006. Line r2 indicates the “Healthy life years” productivity of GDP in 2016, and line r3 indicates the GHG productivity of GDP in 2016. To achieve social sustainability in 2016 in relation to 2006, the ‘Healthy life years’ should not decrease (development towards a more sustainable direction). With r2 productivity, the minimum GDP to have the same level of ‘Healthy life years’ (point C) is marked with GDPmin. This determines the minimum level of economic output to prevent a decrease in healthy life years. Therefore, the analysis determines the lower limit of the Sustainability Window, GDPmin. Concerning environmental sustainability, line r3 determines the maximum GDP to keep the growth of GHG/GDP below the value of the reference year (development towards a more sustainable direction). At point D in the figure, the weak environmental sustainability criterion is fulfilled, which determines the upper limit, the maximum economic growth, GDPmax, for the Sustainability Window. In this practical case, Cuban economic development seems to be within the Sustainability Window for 2006 – 2016. Therefore, according to the analysis, the maximum sustainable economic growth (GDPmax) could have been about 15 % higher between 2006 and 2016 than the real economic growth (GDPreal) (the difference between D and E in figure 5). Figure 5. Weak Sustainability Window for Cuba using “Healthy life years” (blue line) as a social indicator, “GHG intensity of GDP” (GHG/GDP) (orange line) as the environmental indicator (weak sustainability), and GDP as the economic indicator. “Healthy life years” productivity of GDP (line r2) determines the minimum economic growth (GDPmin) to fulfill the social sustainability criterion (“Healthy life years” should not decrease) in point C. The “GHG intensity of GDP” should not increase, and the line r3 (GDP productivity of the intensity) determines the maximum GDP growth (GDPmax) in point D in order not to increase productivity. The real GDP growth (points B and E) is within the Weak Sustainability Window (GDPmin < GDPreal < GDPmax). Another example of Cuban development is illustrated in Figure 6. In this example, we use “Social inclusion” as the indicator for social welfare and “Consumption of global hectares” as the indicator for environmental stress. The environmental indicator is now used for analyzing strong sustainability, referring to the absolute value of the consumption of global hectares. The environmental indicator, “Consumption of global hectares”, is taken from the SSI database. The development of the indicators is shown in Figure 6 from 2006 to 2016. With these indicators, the real GDP development in Cuba is within the Sustainability Window. 0 0,2 0,4 0,6 0,8 1 1,2 1,4 1,6 1,8 0 0,2 0,4 0,6 0,8 1 1,2 1,4 1,6 1,8 Cuba Sustainability Window Social inclusion Consumption GDP Social inclusion Consumption global hectares GDPmaxGDPmin GDPreal r1 r2 r3 A B CD E SuWi Figure 6. Sustainability window (Strong sustainability) for Cuba using ‘Social inclusion’ as the social welfare indicator (blue line) and ‘Consumption of global hectares’ as the environmental stress indicator (red line), and GDP as the economic indicator. All the indicators are indexed (point A), and their evolution until 2016 is indicated by the blue line (up to point B) and the red line (up to point C). Social inclusion productivity (line r2) in 2016 determines the minimum economic development (GDPmin, point D) not to decrease social welfare. Consumption productivity in 2016, line r3, determines the maximum economic development (GDPmax, point E) not to increase environmental stress. In this case, the real GDP development in 2016 is within the Sustainability Window (GDPmin < GDPreal < GDPmax). 3. RESULTS Similar Sustainability Window analyses have been carried out using several SSI and other database indicators. When the pairwise results, the quantified “Sustainability Window”, of all the pairs of social and environmental indicators are arranged in a radial diagram, we can visualize sustainability in a doughnut form. In this analysis, we have used the following indicators, listed in Table 1, to illustrate the method: Table 1. Indicators used in the construction of the doughnut model for Cuban development. Social indicators Environmental indicators Economic Food Sufficient Food Forest Biodiversity forest area GDP Drink Sufficient to Drink Conservation Biodiversity protected area Edu Education Water Renewable Water Resources HLY Healthy life years Consu Consumption of global hectares Gend Gender equality Energy Energy use Inc Income distribution Intens Energy savings Emp Employment CO2 Greenhouse gases Soc inc Social inclusion Ren energy Renewable energy HDI Human Development Index Organic Organic farming EduPT Education Pupil-Teacher ratio Sanitation Safe sanitation 0 0,5 1 1,5 2 2,5 3 Food-Forest Drink-ForestHLY-Forest Gend-Forest Inc-Forest Emp-Forest Soc inc-Forest HDI-Forest EduPT-Forest Food-Conservation Drink-Conservation HLY-Conservation Gend-Conservation Inc-Conservation Emp-Conservation Soc inc-Conservation HDI-Conservation EduPT-Conservation Food-Water Drink-Water HLY-Water Gend-Water Inc-Water Emp-Water Soc inc-Water HDI-Water EduPT-Water Food-Consu Drink-Consu HLY-Consu Gend-Consu Inc-Consu Emp-Consu Soc inc-Consu HDI-Consu EduPT-Consu Food-Intens Drink-Intens HLY-IntensGend-IntensInc-IntensEmp-IntensSoc inc-Intens HDI-Intens EduPT-Intens Food-CO2 Drink-CO2 HLY-CO2 Gend-CO2 Inc-CO2 Emp-CO2 Soc inc-CO2 HDI-CO2 EduPT-CO2 Food-Ren energy Drink-Ren energy HLY-Ren energy Gend-Ren energy Inc-Ren energy Emp-Ren energy Soc inc-Ren energy HDI-Ren energy EduPT-Ren energy Food-Organic Drink-Organic HLY-Organic Gend-Organic Inc-Organic Emp-Organic Soc inc-Organic HDI-Organic EduPT-Organic Food-Sanitation Drink-Sanitation HLY-Sanitation Gend-Sanitation Inc-Sanitation Emp-Sanitation Soc inc-Sanitation HDI-SanitationEduPT-Sanitation Cuba Weak Sustainability Doughnut Max GDP weak sust Soc Min GDP GDP real Figure 7. Doughnut model for weak sustainability analysis of Cuban development in 2006-2016. The blue line indicates the maximum economic development to fulfill the environmental sustainability criteria, and the green line indicates the minimum economic development to fulfill the social sustainability criteria. The red line indicates the real GDP growth level during the analyzed period. Green area, sustainability doughnut illustrates the possible area for sustainable development. The weak sustainability doughnut model for Cuba (Fig. 7) shows that the weak environmental sustainability criteria are fulfilled when the selected indicators are used. This means that the real GDP growth has been lower than the maximum sustainable GDP growth defined by the environmental sustainability criteria (environmental stress productivity should not increase). This can be seen in Fig. 7, where the red line indicating real GDP growth is within the blue line indicating maximum economic development. Social sustainability, indicated with the green line in Fig. 7, is fulfilled in most cases. This means that the real GDP growth has been significant enough to improve social welfare measured with the chosen indicators. In the case of ‘Education’ and ‘Income distribution’ the social sustainability criteria are not fulfilled. In the case of ‘Education’, the statistics used for the SSI database may not provide a correct view of the development because of the differences in the definition and statistics of secondary education in different countries. Also, the statistics describing ‘Income distribution’ in Cuba may not be reliable because of the changes in the economic structure, the increase in the share of private economic actors, and the coverage of the statistics. However, social sustainability criteria are fulfilled regarding the other indicators of social welfare development. 0 0,5 1 1,5 2 2,5 Food-Forest Drink-ForestHLY-For Gend-For Inc-For Emp-For Soc inc-For HDI-Forest EduPT-Forest Food-Conservation Drink-Conservation HLY-Cons Gend-Cons Inc-Cons Emp-Cons Soc inc-Cons HDI-Cons EduPT-Cons Food-Waterer Drink-Water HLY-Water Gend-Water Inc-Water Emp-Water Soc inc-Water HDI-Water EduPT-Water Food-Consu Drink-Consu HLY-Consu Gend-Consu Inc-Consu Emp-Consu Soc inc-Consu HDI-Consu EduPT-Consu Food-Intens Drink-Intens HLY-IntensGend-IntensInc-IntensEmp-IntensSoc inc-Intens HDI-Intens EduPT-Intens Food-CO2 Drink-CO2 HLY-CO2 Gend-CO2 Inc-CO2 Emp-CO2 Soc inc-CO2 HDI-CO2 EduPT-CO2 Food-Ren energy Drink-Ren energy HLY-Ren energy Gend-Ren energy Inc-Ren energy Emp-Ren energy Soc inc-Ren energy HDI-Ren energy EduPT-Ren energy Food-Organic Drink-Organic HLY-Organic Gend-Organic Inc-Organic Emp-Organic Soc inc-Organic HDI-Organic EduPT-Organic Food-Sanitation Drink-Sanitation HLY-Sanitation Gend-Sanitation Inc-Sanitation Emp-Sanitation Soc inc-Sanitation HDI-SanitationEduPT-Sanitation Cuba Strong Sustainability Doughnut Max GDP weak sust Soc Min GDP GDP real Figure 8. Doughnut model for strong sustainability (absolute reduction in environmental stress) analysis of Cuban development in 2006-2016. The blue line indicates the maximum economic development to fulfill the solid environmental sustainability criteria, and the green line indicates the minimum economic development to fulfill the social sustainability criteria. The red line indicates the real GDP growth level during the analyzed period. Green area, sustainability doughnut illustrates the possible area for sustainable development. The strong sustainability doughnut indicates that Cuba has problems in fulfilling all the sustainability criteria. The economic growth is within the sustainability criteria regarding “Consumption of global hectares” ‘Biodiversity, protected areas’, ‘Biodiversity, forest area’ and ‘Sanitation’ and on the edge of sustainability regarding ‘CO2 emissions’ and ‘Renewable energy’. On the other hand, the decisive sustainability criteria are not met regarding ‘Renewable water’, ‘Energy intensity’, ‘Energy use’ and ‘Organic farming’. The environmental stress productivity has not decreased fast enough regarding these indicators to allow the amount of economic growth that has taken place. The other interpretation is that the economic growth should have been slower to reach the sustainability condition. The social sustainability criteria are in this analysis the same as in the weak sustainability analysis. 4. CONCLUSIONS Sustainability Window (SuWi) method provides a novel approach for analyzing sustainability simultaneously in social, environmental, and economic dimensions in a quantitative way. The simultaneous analysis in different dimensions provides possibilities for comprehensive analyses where the interactions between different sectoral developments are revealed, and the problematic areas can be detected. This makes it possible to consider the policy responses in sectors of the economy and direct interventions in the areas most urgently needed. Furthermore, the possibility of simultaneously analyzing development in different policy areas can lead to more balanced policies and timely actions compared to one-sector analyses. The developed quantitative illustration of the doughnut economy provides a new visualization of the development. It clearly illustrates the problematic areas of development and can be utilized to communicate the complex development problem. The visualization is crucial when the policy planning includes actors from different areas and backgrounds to receive feedback from larger stakeholder groups. For the analysis, the use of absolute versus relative sustainability is essential. In many cases, it is impossible to determine whether absolute levels of environmental stress are sustainable or not. In this way, the use of relative sustainability as a basis of the analysis is motivated. The direction of change towards a more sustainable state can be used as a criterion for many indicators, where the absolute level of sustainability cannot be determined. It is possible to utilize absolute levels of sustainability in the SuWi analysis by placing the target at the reference level and not the base year level and determining Sustainability Window accordingly. The SuWi method and the related doughnut economy analysis can be utilized for comparative analyses of different countries. It can also be used for provincial or local level analysis if suitable indicator sets are available. The quality of the indicators is naturally crucial for the reliability of the analysis results. Indicator sets, including the different dimensions of the development, social, environmental, and economic, are needed for a comprehensive analysis to reveal potential trouble areas where policy actions should be directed. The availability of the indicator sets and time-series data for different countries, areas, and sectors is vital for future policy planning, and the work on the UN Sustainable Development Goals indicators is of enormous importance in this respect. The developed SuWi method and the doughnut model can be used to analyze development dynamics. The changes in the width of the Sustainability Window as a time function provide trend analysis information. This can function as a basis for scenario construction and future policy planning. The gap analysis (see Luukkanen et al. (2018) [35]) provides information on the areas where efficiency development is needed. This is relevant for policy planning and illustrates the magnitude of actions required. Our analyses of the Cuban case illustrate the usefulness of the developed approach. The weak sustainability, meaning that the intensity of the environmental stress is not increasing, is achieved in the Cuban development in the dimensions measured with the indicators. The strong sustainability criteria (absolute reductions of emissions) are, however, not all achieved. The criteria are too strict for many developing countries where the environmental stress measured, for instance, with CO2 emissions or energy use, is still very low. The social development in Cuba seems to be sustainable concerning most of the used indicators. However, the social indicators are often not so easily measured, and in this respect, the relative sustainability, development towards a more sustainable direction, is a preferable option. ACKNOWLEDGMENTS Thank the Academy of Finland for funding the “Cuban energy transformation Integration of Renewable intermittent sources in the power system (IRIS)” project, decision n:o 320229. REFERENCES 1. UN. United Nations. SDG indicators–metadata repository. [Online] [Accessed 15 Apr 2021]. Available on the web: https://unstats.un.org/sdgs/metadata/ 2. CEPAL. Objetivos de Desarrollo Sostenible (ODS) Comisión Económica para América Latina y el Caribe [Online]. [Accessed 8 Apr 2021]. Available on the web: https://www.cepal.org/es/temas/agenda-2030- desarrollo-sostenible/objetivos-desarrollo-sostenible-ods 3. LUUKKANEN, J. “Sustainability Window Analysis (SuWi). Sustainability of Chinese development in relation to poverty-environment nexus”. Paper presented in CHEC-seminar, Tampere, Finland, 2013. Available on the web: https://www.researchgate.net/publication/342751026_Sustainability_Window_Analysis_SuWi_Sustainabili ty_of_Chinese_development_poverty_environment_nexus 4. LUUKKANEN, J; KAIVO-OJA, J; VEHMAS, J; PANULA-ONTTO, J; HÄYHÄ, L. “Dynamic sustainability. Sustainability window analysis of Chinese poverty-environment nexus development”. Sustainability, 2015, Vol. 7, issue 11, pages. 14488 - 14500. DOI: https://doi.org/10.3390/su71114488 5. LUUKKANEN, J; KAIVO-OJA, J; VÄHÄKARI, N; O’MAHONY, T; KORKEAKOSKI, M; PANULA- ONTTO, J; et al. “Resource efficiency and green economic sustainability transition evaluation of green growth productivity gap and governance challenges in Cambodia”. Sustainable Development, 2019, Vol. 27, issue 3, pages 312 - 320. DOI: https://doi.org/10.1002/sd.1902 6. LUUKKANEN, J; VEHMAS, J; KAIVO-OJA, J. “Quantification of doughnut economy with the sustainability window method: Analysis of development in Thailand”. Sustainability, 2021, Vol. 13, issue 847, 18 pages. DOI: https://doi.org/10.3390/su13020847 7. GEELS, F; SCHOT, J. “The Dynamics of Transition”. In: GRIN, J; ROTMANS, J; SCHOT, J (editors). Transitions to Sustainable Development New Dimensions in the Study of Long Terms Transformative Change. London, 2016. pages 11–104. 8. LOORBACH, D. Transition Management. Berlin: International Dimensions of Human Change, 2002. 9. LOORBACH, D. “Transition Management: New Mode of Governance for Sustainable Development”. Ph.D. Thesis. Dutch Research Institute for Transition (Drift), Erasmus University Rotterdam, the Netherlands, 2007. 10. KEMP, R; PARTO, S, Gibson RB. “Governance for sustainable development: Moving from theory to practice”. International Journal of Sustainable Development, 2005, Vol. 8, issues 1–2, pages 12–30. DOI: https://doi.org/10.1504/IJSD.2005.007372 11. HANUSHEK, EA; WOESSMANN, L. “Schooling, educational achievement, and the Latin American growth puzzle”. Journal of Development Economics, 2012, Vol. 99, issue 2, pages 497–512. DOI: https://doi.org/10.1016/j.jdeveco.2012.06.004 12. FAROUQ, S. “Cuba’s Healthcare System: A Political, Social, and Economic Revolution”. Berkeley Political Review, 2019. [Accessed 15 Apr 2021]. Available on the web: https://bpr.berkeley.edu/2019/02/09/cubas-healthcare-system-a-political-social-and-economic-revolution/ 13. ANDERSEN, JJ; ASLAKSEN, S. “Oil and political survival”. Journal of Development Economics, 2013, Vol. 100, issue 1, pages 89–106. DOI: https://doi.org/10.1016/j.jdeveco.2012.08.008 14. RAWORTH, K. “Doughnut Economics: Seven Ways to Think Like a 21st-Century Economist”. 2017 [Accessed 15 Apr 2021]. Available on the web: https://www.hive.co.uk/Product/Kate-Raworth/Doughnut- Economics--Seven-Ways-to-Think-Like-a-21st-Century-Economist/21739630 15. ROCKSTRÖM, J; STEFFEN, W; NOONE, K; PERSSON, Å; CHAPIN, FS; LAMBIN, EF; LENTON, TM; SCHEFFER, M; FOLKE, C; SCHELLNHUBER, HJ; et al. “A safe operating space for humanity”. Nature, 2009, Vol. 461, issue 7263, pages 472 - 475. DOI: https://doi.org/10.1038/461472a 16. WWF. Living Planet Report 2006. [Online] [Accessed 9 Mar 2021]. Available on the web: https://www.zoo.cam.ac.uk/ioz 17. CABELLO, JJ, GARCIA, D, SAGASTUME, A, PRIEGO, R, HENS, L, VANDECASTEELE, C. “An approach to sustainable development: the case of Cuba”. Environment, Development, and Sustainability, 2012, Vol. 14, issue 4, pages 573 - 591. DOI: https://doi.org/10.1007/s10668-012-9338-8 18. ANPP. “Constitución de la República de Cuba. Asamblea Nacional del Poder Popular”. Gaceta Oficial de la República de Cuba, No 5 Extraordinaria de 10 de abril de 2019. Cuba, 2019. Available on the web: https://www.gacetaoficial.gob.cu/sites/default/files/goc-2019-ex5_0.pdf 19. NEUENKIRCH, M; NEUMEIER, F. “The impact of US sanctions on poverty”. Journal of Development Economics, 2016, Vol. 12, pages 110 - 119. DOI: https://doi.org/10.1016/j.jdeveco.2016.03.005. 20. PCC. “Documentos del VII Congreso del Partido aprobados en el III Pleno del Comité Central del PCC el 18 de mayo de 2017 y respaldados por la Asamblea Nacional del Poder Popular el 1ero de junio de 2017”. Partido Comunista Cuba. La Habana, Cuba, Editorial Política. 2017, 32 pages. Available on the web: https://planipolis.iiep.unesco.org/sites/default/files/ressources/ultimo_pdf_32.pdf 21. MEP. “Agenda 2030 para el Desarollo Sostenible y Plan Nacional de Desarollo Económico y Social al 2030”. 2020. Available on the web: https://www.mep.gob.cu/sites/default/files/Documentos/Archivos/Agenda_2030_para_el_desarrollo_sosten ible_Plan_Nacional_de_Desarrollo_Económico_y_Social_al_2030.pdf 22. CUBA. National Report on the Implementation of the 2030 Agenda. [Online]. 2019. [Accessed 5 Jan 2021]. Available on the web: https://foroalc2030.cepal.org/2019/sites/foro2019/files/informe_nacional_voluntario_de_cuba_sobre_imple mentacion_de_la_agenda_2030.pdf 23. Sustainable Development Report. SDG Dashboards and Trends. [Online]. 2022. [Accessed 10 Aug 2022]. Available on the web: https://dashboards.sdgindex.org/profiles/cuba 24. SCHOENAKER, N; HOEKSTRA, R; SMITS, JP. “Comparison of measurement systems for sustainable development at the national level”. Sustainable Development, 2015, Vol. 23, issue 5, pages 285–300. DOI: https://doi.org/10.1002/sd.1585 25. VAN DE KERK, G; MANUEL, A. “Sustainable Society Index 2014”. Sustainable Society Foundation, The Hague, The Netherlands, 2014. 26. SSI. SSI index. [Online]. 2020. [Accessed 20 Nov 2020]. Available on the web: http://wikiprogress.org/data/dataset/datatables 27. UN. United Nations. SDG Indicators–Metadata Repository. [Online]. 2020. [Accessed 14 Dec 2020]. Available on the web: https://unstats.un.org/sdgs/metadata/ 28. UNDP. Human Development Reports. [Online]. 2020. [Accessed 15 Nov 2020]. Available on the web: http://hdr.undp.org/en/data 29. IEA. CO2 Emissions Statistics, International Energy Agency 2020. [Online]. 2020. [Accessed 18 Jun 2020]. Available on the web: https://www.iea.org/subscribe-to-dataservices/co2-emissions-statistics 30. UNESCO. Database. [Online]. 2020. [Accessed 10 Nov 2020]. Available on the web: http://data.uis.unesco.org/ 31. TAMURA, R., DWYER, J., DEVEREUX, J. and BAIERA, S. “Economic growth in the long run”. Journal of Development Economics, 2019, Vol. 137, March 2019, pages 1-35 32. VEHMAS, J; LUUKKANEN, J; & KAIVO-OJA, J. “Linking Analyses and Environmental Kuznets Curves for Material Flows in the European Union 1980-2000”. Journal of Cleaner Production, 2007, Vol. 15, issue 17, pages 1662-1673 33. KAIVO-OJA, J., VEHMAS, J. and LUUKKANEN, J. (2014a) “A Note: De-growth Debate and New Scientific Analysis of Economic Growth”. Journal of Environmental Protection, Special Issue Environmental Management, 2014a, Vol.05, issue 15. 34. KAIVO-OJA, J; PANULA-ONTTO, J; LUUKKANEN, J; VEHMAS, J. “Relationships of the dimensions of sustainability as measured by the Sustainable Society Index framework”. International Journal of Sustainable Development & World Ecology, 2014b. Vol. 21, issue 1, pages 39 - 44. 35. LUUKKANEN, J; KAIVO-OJA, J; VÄHÄKARI, N; O’MAHONY, T; KORKEAKOSKI, M; PANULA- ONTTO, J; PHONHALATH, K; NANTHAVONG, K; REINCKE, K; VEHMAS, J; HOGARTH, NJ. “Green economic development in Lao PDR: a Sustainability Window analysis of Green Growth Productivity and the Efficiency Gap”. Journal of Cleaner Production 211, 2019, pages 818-829. DOI: https://doi.org/10.1016/j.jclepro.2018.11.149 ABOUT THE AUTHORS. • Anaely Saunders Vázquez. University of Turku, Finland Futures Research Centre (FFRC), Finland. MSc, Researcher. E-mail: alelysava@gmail.com; asavaz@utu.fi. ORCID: 0000-0002- 2893-824x • Jyrki Luukkanen: University of Turku, Finland Futures Research Centre (FFRC), Finland. Ph.D. Research director. E-mail: jyrki.luukkanen@utu.fi. ORCID: 0000-0003-0223-982 • Jari Roy Lee Kaivo-oja: PhD. University of Turku, Finland Futures Research Centre (FFRC), Finland. E-mail: jari.kaivo-oja@utu.fi ORCID: 0000-0002-2401-6299 • Jarmo Vehmas: PhD. University of Turku, Finland Futures Research Centre (FFRC), Finland. E-mail: jarmo.vehmas@utu.fi ORCID: 0000-0002-1540-3895 METODOLOGIA PARA EL DIAGNÓSTICO Y LA GESTION DE LOS MANTENIMIENTO EN LAS SUBESTACIONES ELECTRICAS DE LOS GRUPOS DE GENERACION DISTRIBUIDA Carlos Ruano González1 1ECIE-UNE, UEB Camagüey 1e-mail: cruano@uebcmg.ecie.une.cu; cruano848@gmail.com RESUMEN La introducción de generación distribuida que juega un papel importante hasta que no se modifique la matriz energética, por su naturaleza, cambia la concepción a la hora de analizar las técnicas de mantenimiento respecto a las que se conocen tradicionalmente o usadas normalmente en las subestaciones convencionales de exteriores, por lo que la gestión de una metodología para su realización debe estar bien concebida y fundamentada. Sobre esta línea de trabajo se dirige el análisis y concepción de los mantenimientos a las celdas que conforman esta subestación que se utilizan en el grupo de generación con fuel oil HYUNDAI de 40 MW instalado en el municipio de Nuevitas Camagüey, la subestación es atendida por la ECIE para su mantenimiento y atención a las averías. Donde no se cuenta con un proceder para realizar los mantenimientos, utilizándose los métodos y procedimientos aplicados a las subestaciones de exteriores, después de análisis y estudios realizados por las frecuentes averías que han sucedido, comprometiendo el servicio de energía eléctrica a los usuarios del municipio y existiendo daños a los equipos primarios que componen las celdas, fue necesario implementar una metodología para el diagnóstico y la gestión del mantenimiento donde se conjuguen los métodos de mantenimientos predictivos y preventivos. Para garantizar un adecuado funcionamiento de la subestación eléctrica del grupo electrógeno. PALABRAS CLAVES: metodología, mantenimiento, grupo electrógeno, subestación, celdas. METHODOLOGY FOR THE DIAGNOSIS AND MAINTENANCE MANAGEMENT IN THE ELECTRICAL SUBSTATIONS OF THE DISTRIBUTED GENERATION GROUPS ABSTRACT The introduction of distributed generation that plays an important role until the energy matrix is not modified, due to its nature, changes the conception when analyzing maintenance techniques with respect to those that are traditionally known or normally used in conventional substations external, so the management of a methodology for its realization must be well conceived and well-founded. On this line of work, the analysis and conception of the maintenance of the cells that make up this substation that are used in the generation group with HYUNDAI fuel oil of 40 MW installed in the municipality of Nuevitas Camagüey is directed, the substation is served by the ECIE for its maintenance and attention to breakdowns. Where there is no procedure to carry out maintenance, using the methods and procedures applied to outdoor substations, after analysis and studies carried out due to the frequent breakdowns that have occurred, compromising the electricity service to the users of the municipality and There being damage to the primary equipment that makes up the cells, it was necessary to implement a methodology for diagnosis and maintenance management where predictive and preventive maintenance methods are combined. To guarantee proper operation of the electrical substation of the generator set. KEY WORDS: methodology, maintenance, generator set, substation, cells. 1. INTRODUCCION Con la introducción de la generación distribuida, la cual juega un papel importante como complemento de la generación base y hasta que no se modifique la matriz energética, dando pasos a la generación con fuentes renovables de energías, se hace necesario mantenerla en una forma técnicamente óptima, por lo que las subestaciones eléctricas de interiores, independientemente que de forma conceptual cumplen el mismo objetivo que las subestaciones eléctricas de exteriores, su diseño técnico cambia la concepción de realizar el diagnóstico y la gestión de los mantenimientos respecto a las que se conocen tradicionalmente o usadas normalmente en las subestaciones de exteriores, por lo que es de suma importancia tener una metodología para el diagnóstico y la gestión de los mantenimientos adecuada, para evitar frecuentes averías que comprometen el servicio de energía eléctrica a los usuarios y precaver daños a los equipos primarios que componen las celdas eléctricas. En el municipio de Nuevitas provincia de Camagüey se encuentra instalado un grupo de generación con fuel oil HYUNDAI de 40 MW, el mismo está compuesto por cuatro baterías conformadas con cuatro motores del tipo HSR77198P de 2,5 MW cada uno, cada batería tiene una generación de 10 MW para un total de 40 MW. La subestación eléctrica o Shelter como es conocida la conforman 11 celdas eléctricas con la siguiente distribución, cuatro transformadores de salida del tipo KMO – 0542 de las baterías de 12,5 MVA y 34.5/6,6 kV, cuatro salida de líneas eléctricas, un de enlace de barra y dos salida de conexión con la subestación de 110 kV de salida de planta de la Central Termoeléctrica 10 de Octubre, cada celda la componen generalmente un interruptor de potencia, un desconectivo de barra, un desconectivo de tierra, un juego de pararrayos, transformadores de potencial, un transformador de corriente por fase y los conductores, todos a un nivel de tensión a 34,5 kV. Esta subestación es atendida por la ECIE para su mantenimiento y atención a las averías, las frecuentes interrupciones y fallas en las celdas eléctrica que la compone han provocado afectación del servicio eléctrico a los usuarios y daños a los equipos primarios, llegando a la necesidad de sustituciones en algunos casos, nos llevó a realizar un estudio y análisis de dichas causas, que al no existir un proceder o metodología para realizar el diagnóstico y los mantenimientos, se utilizan los procedimientos y métodos aplicados a las subestaciones de alta tensión de exteriores. Independientemente de ser subestaciones eléctricas de interiores y encontrarse en un espacio reducidos en cabinas metálicas y climatizadas, siempre existe penetración de partículas contaminantes como son polvos en suspensión, hollín que provocan muy a menudo saltos de potencial entre las partes energizadas o activas y el aislamiento de los equipos por la condensación de la humedad, lo cual conlleva a severas fallas generalmente por contaminación, ocurriendo frecuentemente saltos de corrientes que trae consigo una condición anormal en su funcionamiento, Por lo que fue necesario realizar un estudio e investigación de como disminuir ese índice falla. Por lo antes expuesto, el desarrollo de las técnicas de diagnóstico y mantenimiento juegan un rol fundamental, donde el monitoreo y diagnóstico de los equipos primarios de subestaciones han atraído gran atención durante mucho tiempo. Este interés se ha disparado en los últimos años debido a los cambios estructurales en los negocios de la electricidad. En el competitivo mercado actual, los productores deben seguir las estrategias que coincidan en lo más posible con los intereses de los consumidores, ya que el desarrollo en el monitoreo y diagnóstico debe estar directamente relacionado con las necesidades de las empresas eléctricas y para reducir los costos operacionales totales. El monitoreo y el diagnóstico se aprecia como una posible vía de optimización de los activos existentes, con vistas a reducir los costos de mantenimiento, prevenir las salidas por emergencia, y lograr que los equipos trabajen un plazo mayor y de una forma más segura. Los tipos de mantenimientos que se pueden aplicar al equipo en operación, son los siguientes: - Mantenimiento correctivo. - Mantenimiento preventivo. - Mantenimiento predictivo. Cada uno de ellos, tiene sus principales características y definiciones. 2. TÉCNICAS DE MONITOREO, DIAGNÓSTICO Y MANTENIMIENTO Es conveniente desde el inicio establecer las diferencias entre los términos monitoreo y diagnóstico, El monitoreo es el proceso continuo y sistemático mediante el cual se verifica la eficiencia y la eficacia de un producto mediante la identificación de sus logros y debilidades y en consecuencia se recomiendan medidas correctivas para optimizar los resultados esperados. Es, por tanto, condición para la rectificación o profundización de la ejecución y para asegurar la retroalimentación entre los objetivos y presupuestos teóricos y las lecciones aprendidas a partir de la práctica. Asimismo, es el responsable de preparar y aportar la información que hace posible sistematizar resultados y procesos, por tanto, es un insumo básico para el diagnóstico. Para que el monitoreo sea exitoso requiere del establecimiento de un sistema de información, identificando a los usuarios de la información, los tipos de información prioritaria, vinculando las necesidades y las fuentes de información, estableciendo métodos apropiados para efectuar la recopilación de datos e identificar los recursos necesarios. El Diagnóstico es el proceso integral y continuo de investigación y análisis de los cambios más o menos permanentes que se materializan en mediano y largo plazo, como una consecuencia directa o indirecta del quehacer de un equipo en el contexto, la población y las organizaciones participantes. Por ello, constituye una herramienta para la transformación, que arroja luz sobre las alternativas para la mejora permanente de las intervenciones presentes y futuras, o sea, transfiere buenas prácticas. Desde esta concepción, el monitoreo y el diagnóstico tienen que ser coherentes con su objeto de análisis y, por tanto, deben colocar en el centro del análisis al sujeto situado en su contexto, lo cual implica incorporar la perspectiva de género y concebirse como una herramienta para la acción y para habilitar e incluir la participación de los diferentes actores. El monitoreo es la medición de uno o varios parámetros previamente establecidos que se define como la recolección de datos, e incluye el desarrollo de sensores, técnicas de medición y hardware para la adquisición y almacenamiento de los mismos. El diagnóstico es la ciencia encargada de determinar por los síntomas, el estado y el carácter de una posible rotura, envejecimiento, etc. de un equipo, sistema o proceso a partir del análisis y procesamiento de sus datos de pruebas, de fallas e históricos. El diagnóstico tiene como objetivo detectar las desviaciones de los parámetros de control, analizar sus tendencias, determinar sus causas de manera que permita al personal proponer las medidas correctoras que permitan la intervención oportuna del equipo para lograr máxima disponibilidad y confiabilidad de los mismos a través del mantenimiento. Generalidades del mantenimiento Con base en los resultados obtenidos de pruebas realizadas al equipo eléctrico, el personal responsable del mantenimiento, tiene los argumentos suficientes para tomar la decisión de mantener energizado o retirar de servicio un equipo en operación que requiera mantenimiento, para el mantenimiento del equipo, es conveniente considerar los aspectos siguientes: a) Archivo histórico y análisis de resultados obtenidos en inspecciones y pruebas. Es necesario además considerar las condiciones operativas de los equipos, así como las recomendaciones de los fabricantes. b) Establecer las necesidades de mantenimiento para cada equipo. c) Formular las actividades de los programas de mantenimiento. d) Determinar actividades con prioridad de mantenimiento para cada equipo en particular. e) Se debe contar con personal especializado y competente para realizar las actividades de mantenimiento al equipo y establecer métodos para su control. Mejorando las técnicas de mantenimiento, se logra una productividad mayor y se reducen los costos del mismo. Los tipos de mantenimientos que se pueden aplicar al equipo en operación de forma general, son los siguientes: - Mantenimiento correctivo. - Mantenimiento preventivo. - Mantenimiento predictivo. Para cada uno de ellos, se describen a continuación sus principales características y definiciones: Mantenimiento Preventivo: Es un conjunto de actividades (inspecciones, pruebas, ajustes, reparaciones, toma de muestras, etc.) regularmente programadas y aplicadas a los equipos de una instalación determinada, con el objeto de minimizar su “degradación” o perdida de vida útil. Mantenimiento Predictivo: Es una técnica que consiste en monitorear regularmente (más seguido que en el mantenimiento preventivo) los parámetros “claves” de un equipo en operación, con la finalidad de detectar y/o corregir a tiempo un problema potencial antes de que se produzca la falla del equipo. Mantenimiento Correctivo: Cuando se detecta que el desempeño de algún equipo comienza a disminuir y se presume las posibles causas de este bajo desempeño, se debe atacar a dichas causas y realizar un mantenimiento del equipo para evitar que el problema se agrave. El mantenimiento realizado en este tipo de circunstancias se lo conoce como mantenimiento correctivo, estas cuestiones han ido evolucionando y desarrollando como podemos apreciar y en cualquier caso podemos distinguir cuatro generaciones en la evolución del concepto de mantenimiento. 1ª Generación: La más larga, desde la revolución industrial hasta después de la 2ª Guerra Mundial, aunque todavía impera en muchas industrias. El Mantenimiento se ocupa sólo de arreglar las averías. Es el Mantenimiento Correctivo. 2ª Generación: Entre la 2ª Guerra Mundial y finales de los años 70 se descubre la relación entre edad de los equipos y probabilidad de fallo. Se comienza a hacer sustituciones preventivas. Es el Mantenimiento Preventivo. 3ª Generación: Surge a principios de los años 80. Se empieza a realizar estudios CAUSA-EFECTO para averiguar el origen de los problemas. Es el mantenimiento predictivo o detección precoz de síntomas incipientes para actuar antes de que las consecuencias sean inadmisibles. Se comienza a hacer partícipe a Producción en las tareas de detección de fallos. 4ª Generación: Aparece en los primeros años 90. El Mantenimiento se contempla como una parte del concepto de Calidad Total: mediante una adecuada gestión del mantenimiento es posible aumentar la disponibilidad al tiempo que se reducen los costos. Es el Mantenimiento Basado en el Riesgo (MBR): se concibe el mantenimiento como un proceso de la empresa al que contribuyen también otros departamentos. Se identifica el mantenimiento como fuente de beneficios, frente al antiguo concepto de mantenimiento como "mal necesario". La posibilidad de que una máquina falle y las consecuencias asociadas para la empresa es un riesgo que hay que gestionar, teniendo como objetivo la disponibilidad necesaria en cada caso al mínimo coste. Se requiere un cambio de mentalidad en las personas y se utilizan herramientas como: Ingeniería del Riesgo (determinar consecuencias de fallos que son aceptables o no). Análisis de Fiabilidad (identificar tareas preventivas factibles y rentables). Mejora de la Mantenibilidad (reducir tiempos y costes de mantenimiento). Control y evaluación del mantenimiento a subestaciones eléctricas mediante indicadores de clase mundial Para conocer cuán eficiente es la aplicación de la política de mantenimiento planificada, se necesita controlar y evaluar la gestión del mantenimiento, esto permite actuar de forma rápida y precisa sobre los factores débiles en el mantenimiento. Deben realizarse informes concisos y específicos, formados por tablas de indicadores y sus respectivos gráficos para algunos de estos. Estos informes deben permitir un análisis fácil y adecuado a cada nivel de gestión, sobre la base de "indicadores de clase mundial", llamados así por ser utilizados y obtenidos en casi todos los países de la misma forma, de los seis indicadores de clase mundial, cuatro se refieren al análisis de la gestión de equipos y dos a la gestión de costos. En este trabajo solo tuvimos en cuenta tres indicadores del primer grupo, el indicador “tiempo medio para la falla”, no se analiza, por referirse a equipos reparados. Los tres indicadores analizados son [1]: Tiempo medio para reparaciones (TMPR): relación entre el tiempo total de intervención correctiva en un conjunto de elementos con falla y el número total de fallas detectadas en esos elementos, en el período observado. Tiempo promedio entre fallos (TMEF): indica el intervalo de tiempo más probable entre un arranque y la aparición de un fallo; es decir, es el tiempo medio transcurrido hasta la llegada del evento “fallo”. Mientras mayor sea su valor, mayor es la confiabilidad del componente o equipo. Disponibilidad (DISP): porcentaje del tiempo total que el equipo estuvo a disposición del órgano de operación para desempeñar su actividad. Teniendo en cuenta los indicadores mencionados anteriormente y las bases de datos generadas de la gestión del mantenimiento aplicada a esta Subestación eléctrica del grupo Electrógeno, donde el tiempo promedio entre fallos (1) se considera mucho menor que el tiempo promedio para considerarlo adecuado, tomamos como ejemplo una celda que tiene como promedio dos fallas en el trimestre, aplicando la fórmula de tiempo promedio entre fallos tenemos. (1) Donde: NOIT: total de elementos analizados. HROP: tiempo total de operación. NTMC: número total de fallas detectadas en elementos con falla en el período observado. TMEF = 7 X 2160 ∕ Ʃ 2 = 7560 Sobre esta línea de trabajo se dirige el análisis y concepción de los mantenimientos [2] a las celdas que conforman esta subestación que se utilizan en el grupo de generación distribuida, instalado en el municipio de Nuevitas provincia de Camagüey, la subestación es atendida por la ECIE para su mantenimiento y atención a las averías, al no existir un procedimiento específico para este tipo de subestación eléctrica, se aplica el procedimiento de la ECIE CD-IY 0032: MANTENIMIENTO DE SUBESTACIONES DE 110 Y 220 kV EQUIPOS PRIMARIOS, SISTEMAS DE AIRE, FUENTES DE CORRIENTE DIRECTA Y SISTEMAS DE ATERRAMIENTO, ejecutándose las actividades de mantenimiento en los tiempos programados en esta normativa, que es un proceder para subestaciones de exteriores, pero las fallas del tipo saltos de corrientes entre las partes activas y tierras son frecuentes en los terminales de los elementos bajo tensión, trayendo consigo su salida de servicio con la correspondiente afectación al cliente, gastos de mantenimientos por recursos y capital humano, los mantenimientos aplicado a las subestaciones eléctricas de exteriores los cuales se ejecutan una vez anual a los equipos primarios y si se realizan acciones de diagnóstico con termografía infrarroja una vez a la semana, cuestión que no se hace en la subestación del grupo electrógeno por lo que su mantenimiento también se programa anualmente y sin la acción de diagnóstico, como se puede apreciar en la Tabla 1. Tabla 1: Programación anual de los mantenimientos por celdas. MANTENIMIENTOS ANUALES CELDAS No EQUIPOS P∕S 2020 2021 2022 1 1 Interruptor 2 Desc. Barra 3 Desc. A Tierra 4 TC 5 Pararrayos 6 Conductores 2 1 Interruptor 2 Desc. Barra 3 Desc. A Tierra 4 TC 5 Pararrayos 6 Conductores En esta tabla se reflejan las 11 celdas que componen la subestación, donde se plasma en la columna correspondiente a los años en el mes que le corresponde realizar los mantenimientos, 3. PROPUESTA DE METODOLOGÍA PARA EL MANTENIMIENTO A SUBESTACIONES ELÉCTRICAS DE 34,5 KV UTILIZADAS EN LOS GRUPOS DE GENERACIÓN DISTRIBUIDA Considerando que la instalaciones de los Grupos Electrógenos para la Generación Distribuida, aun en estos momentos juegan un rol fundamental como complemento de la generación base del Sistema Electroenergetico Nacional, hasta que no se logre modificar la matriz energética del Sistema Eléctrico de Potencia en lo concerniente a la generación de electricidad con fuentes de energía renovables y considerando que la metodología de los mantenimientos a las subestaciones eléctricas [3] de estas instalaciones no cuentan con un proceder y se aplican los estándares establecidos en el procedimiento CD-IY 0032 de la ECIE: MANTENIMIENTO DE SUBESTACIONES DE 110 Y 220 kV EQUIPOS PRIMARIOS, SISTEMAS DE AIRE, FUENTES DE CORRIENTE DIRECTA Y SISTEMAS DE ATERRAMIENTO y al no existir ninguna actividad de diagnóstico, este tipo de subestación eléctrica presentan una situación específica por su configuración, que son conformadas por celdas dentro de un local climatizado a una temperatura de trabajo entre 21 y 23 °C la cual no siempre se cumple y no existe una total hermeticidad, que provoca la acumulación de sólidos en suspensión y hollín que se depositan en las superficies provocando conducción entre las partes activas de los elementos y tierra existiendo saltos de corrientes indeseados que conllevan a fallas o salidas fuera de servicio de las celdas eléctricas, por lo que se requiere disminuir la frecuencia de verificación de sus parámetros ósea que el tiempo entre un mantenimiento o control de sus parámetros puede variar, donde buscamos una relación de tiempo mínimo para realizar la intervención antes que ocurra la avería [4], esto apoyado con un sistema de diagnóstico termográfico una vez a la semana como se realiza en las subestaciones eléctricas de exteriores que permite el monitoreo de la condición. Proponemos la siguiente metodología de mantenimiento Tabla 2 (elaboración propia). Tabla 2: Metodología para mantenimientos de las celdas de 34,5 kV Grupos Electrógenos. Equipos a mantener. Que verificar. Periodicidad de la intervención. Interruptor en Sf6 de 34,5 kV. - Presión del gas al valor nominal., Calidad del Gas. - Resistencia de contacto dinámica. - Termografía infrarroja. - Una vez por semana realizar inspección visual y termografía infrarroja. - Semestralmente limpieza y pruebas. Desconectivo de 34,5 kV. - Resistencia de contacto dinámica. - Termografía infrarroja. - Una vez por semana realizar inspección visual y termografía infrarroja. - Una vez al año mantenimiento. Esta propuesta está basada en la experiencia de la explotación, mantenimientos y atención de las averías en la subestación eléctrica del Grupo Electrógeno de 40 MW de la Generación Distribuida en el municipio de Nuevitas provincia de Camagüey, que de acuerdo a los estudios y análisis realizados debidos a las frecuentes fallas presentadas en las celdas que componen la subestación eléctrica conllevan a implementar una técnica de diagnóstico de termografía infrarroja que es posible ejecutar, ya que se cuenta con la tecnología y la realización de mantenimientos en un menor plazo de tiempo [5]. 4. CONCLUSIONES En el análisis realizado en la subestación eléctrica del grupo electrógeno de Nuevitas por las continuas averías producidas por saltos de corrientes en los elementos que componen las celdas eléctricas, entre la parte activas de los equipos y tierra que provocan salidas de servicio, con sus inconvenientes como son falta de servicio al cliente, reparación de elementos dañados que trae consigo gastos de recursos materiales y de capital humano y al no existir un procedimiento o metodología para la realización de los mantenimientos, se aplica el utilizado en las subestaciones de alta tensión de exteriores, pero el diseño de estas subestaciones conformadas por celdas dentro de un local climatizado tiene sus especificidades, además de no realizarse ningún tipo de diagnóstico, es necesario establecer una metodología para su concepción, Cuchilla de tierra. - Ausencia de corrosión en los contactos. - Ajustes correcto de los tornillos. - Presencia de grasa en la unión. - Una vez al año mantenimiento. TC de 34,5 kV. - Ausencia de corrosión en los bordes de las uniones. - Ajustes correcto de los tornillos. - Termografía infrarroja. - Una vez por semana realizar inspección visual y termografía infrarroja. - Semestralmente limpieza y pruebas. TP de 34,5 kV. - Ausencia de corrosión en los bordes de las uniones. - Ajustes correcto de los tornillos. - Termografía infrarroja. - Una vez por semana realizar inspección visual y termografía infrarroja. - Semestralmente limpieza y pruebas. Pararrayos de 34,5 kV. - Ausencia de corrosión. - Prueba de corriente de filtración. - Termografía infrarroja. - Una vez por semana realizar inspección visual y termografía infrarroja. - Una vez al año limpieza y pruebas. Transformador de fuerza. - Rigidez dieléctrica del aceite. - Relación transformación. - Prueba tangente delta. Una vez año termografía infrarroja y revisión. Cada cinco años mantenimiento. Transformador uso planta. - Rigidez dieléctrica del aceite. - Relación de transformación. - Prueba tangente delta. Una vez año termografía infrarroja y revisión. Cada cinco años mantenimiento. Cables soterrados. - Prueba de alto voltaje. - Prueba de resistencia de aislamiento. Cada seis meses termografía en las copas y una vez en al año pruebas. Por lo que es necesario utilizar como método de diagnóstico la termografía infrarroja una vez por semana, para la cual se cuenta con los medios técnicos necesarios como la cámara infrarroja InfRec modelo R300R-D y de esta forma determinar tempranamente los posibles saltos de corrientes entre la parte activa y tierra. Se demuestra que la metodologías utilizadas en la gestión de los mantenimientos para las subestaciones de interiores utilizadas en los grupos electrógeno de generación distribuida y en específico las normativas para realizar el mantenimientos no se adecuan para este tipo de subestación, por lo que se hace necesario implantar una metodología, que aunque no tenga en cuenta el monitoreo de la condición de la subestación o de las celdas en específico, ya que no se cuenta con la tecnología necesaria, se pueda identificar en un tiempo la posible falla, realizando un eficiente diagnóstico termografico e interviniendo oportunamente los elementos que la componen. RECONOCIMIENTOS El autor desea agradecer al personal de campo de la subestación de salida de planta de la Central Termoeléctrica 10 de Octubre de Nuevitas, por su aporte en la ingeniería de datos puesta en mis manos para la realización de este artículo. REFERENCIAS 1. MONTANÉ – GARCÍA, Jorge Juan; DORRBERCKER – DRAKE, Santiago Alfredo; HERNÁNDEZ – AREU, Orestes. "El mantenimiento a los transformadores de potencia; su análisis en el caso de una Central termoeléctrica cubana". Ingeniería Energética Vol. XXXII, 2/2011 Abril – Julio p- 56- 64 ISSN 1815 – 5901. 2. RUANO GONZÁLEZ, Carlos. Experiencia en la explotación de interruptores empleados para la conexión y desconexión de reactores hasta 34.5 kV. Congreso Internacional de Alta Tensión y Aislamiento Eléctrico ALTAE. La Habana, 2017. 3. RUANO GONZÁLEZ, Carlos. "Metodología para el mantenimiento de interruptores empleados en las maniobras de reactores y bancos de reactores". XIX Simposio de Ingeniería Eléctrica (SIE-2021). III Convención Científica Internacional 2021. Universidad Central de las Villas "Martha Abreu" Santa Clara Noviembre 2021. 4. ROQUE LOPEZ. Alexander. "Transformadores Eléctricos". Universidad Nacional Autonoma De Honduras. Tegucigalpa 2019. 5. ABB. "Manual de celdas Metal Clad-Metal Enclosed". 2020. Carlos M. Ruano González. Ingeniero Eléctrico desde 1987 en la Universidad de Camagüey. Cuba. Ingeniero en Potencia, ha desempeñado varios cargos técnicos dentro de subestaciones de alta tensión 220 kV como son, Ingeniero de Equipos Primarios e Ingeniero en Protecciones Eléctricas. Actualmente es Especialista “A" en protecciones eléctricas por relés, automática y circuitos secundarios ECIE- Camagüey, tiene vasta experiencia en la operación y control de los sistemas eléctricos de potencia, así como en la operación y mantenimiento de subestaciones eléctricas de alta tensión. GESTIÓN DE FALLOS ELÉCTRICOS EN LOS TURBOGENERADORES TBΦ100 DE LA CENTRAL ELÉCTRICA ERNESTO CHE GUEVARA Ing. Dany Oscar Díaz Velez1, Dra. Miriam Filgueiras Sainz de Rozas2 1Especialista “C” Mantenimiento Industrial, UEB EMCE CTE Este Habana (UNE), dodv9603@gmail.com, 2Profesora Auxiliar, Centro de Investigaciones y Pruebas Electroenergéticas (CIPEL) CUJAE, miriaml@electrica.cujae.edu.cu RESUMEN El equipo de mayor importancia en las centrales termoeléctricas es el generador eléctrico de potencia, este transforma la energía mecánica de una turbina acoplada a él en energía eléctrica. Por este motivo se desarrollan a nivel mundial un grupo de medidas para que el generador eléctrico no salga de servicio, algunas son pruebas de corriente directa otras son a corriente alterna y las que más información brindan en tiempo real son las pruebas en líneas con en el generador en funcionamiento. El número de fallos de los generadores eléctricos en Cuba es pequeño, pero es importante contar con una herramienta para cuantificar estos fallos y así determinar qué hacer con ellos. Por lo cual el objetivo de este trabajo es gestionar los fallos eléctricos en los turbogeneradores TBΦ100-3600-T3 de la Central Termoeléctrica Ernesto Guevara. Para el desarrollo de este tema en el cual se carece de datos confiables para implementar métodos internacionales que midan los resultados del mantenimiento se implementa el Análisis de los Modos de Fallos, Efecto y Criticidad (AMFEC) orientado a determinar la magnitud de dichos fallos, proponiendo medidas a aplicar. PALABRAS CLAVES: análisis de criticidad, análisis de modos y efectos de fallo, análisis de criticidad, gestión del mantenimiento. MANAGEMENT OF ELECTRICAL FAULTS IN THE TBΦ 100 TURBOGENERATORS OF THE ERNESTO CHE GUEVARA THERMAL POWER PLANT ABSTRACT The most important equipment in power thermal plants is the electric power generator; this transforms the mechanical energy from a turbine coupled to it into electric energy. For this reason, a group of measures are developed worldwide so that the electric generator does not go out of service, some are direct current tests, others are alternating current and the ones that provide more information in real time are line tests, with in the generator running. The number of failure of the electric generators in Cuba is small, but it is important to have a tool to quantify these failure in order to determine what to make with them. Therefore, the objective of this work is to manage electrical failures in the TBΦ100-3600-T3 turbogenerators at the Ernesto Guevara Thermal Power Plant. For the development of this issue in which there is a lack of reliable data to implement international methods that measure the results of maintenance, the Analysis of Failure Modes, Effect and Criticality (AMFEC) is implemented to determine the magnitude of said failures and the measurements to be carried out. KEY WORDS: criticality analysis, failure mode and effect analysis, maintenance management. 2 1. INTRODUCCIÓN Debido a la situación actual que presenta el país, donde se hacen evidentes los impactos de un recrudecimiento del brutal bloqueo económico, comercial y financiero del Gobierno de los Estados Unidos, con una afectación importante en la adquisición de materias primas, insumos y piezas de repuesto para la generación de electricidad; además está la situación de la CTE de Felton, la cual de las dos unidades generadoras que posee una de ellas se encuentra fuera de servicio, que condiciona la necesidad de acortar los mantenimiento en que se realizan los mantenimiento en las otras plantas generadoras y se pone en tensión la Generación Distribuida. Esto conlleva que no se pueda profundizar en las averías por las cuales se dan las vías libres para realizar los mantenimientos y un mayor tiempo en la operación de las plantas con menor tiempo de parada en las unidades. Atendiendo al contexto existente en la CTE Ernesto Guevara, el cual provoca junto al tiempo de explotación de los turbogeneradores que las unidades generadoras de 100 MW oscilen en un rango de generación de (80 a 90) MW. En el tiempo de explotación los generadores no han tenido daños aunque han sufrido modernizaciones: la unidad 1 fue modernizada en el año 2012, la unidad 2 fue modernizada en el 2004 y la unidad 3 fue modernizada en el año 2014. En las máquinas 1 y 2 se modernizó el aislamiento, el sistema de sellaje y el sistema de excitación del rotor y en la unidad 3 el sistema de excitación del rotor de los generadores eléctricos. A pesar de los cambios ocurridos en las unidades generadores estas aun poseen problemas técnicos en cuanto a: la unidad 3 tiene problemas en el aislamiento del rotor y del estator, posee un desajuste en la conexión del circuito magnético con la carcasa del generador y la unidad 2 esta pasada en cuanto el tiempo de la realización del mantenimiento capital. Sin embargo, para un correcto funcionamiento y comportamiento de la vida útil de los turbogeneradores (TG) en las centrales termoeléctricas (CTE) es necesario que se realice una serie de mantenimientos, los cuales constan de varios tipos [1]. Los generadores eléctricos constituyen unos de los más importantes equipos en el proceso de generación de la electricidad y un fallo en estas máquinas, según su magnitud, puede traer severas consecuencias en el funcionamiento de la unidad de generación, de la que forma parte; también, puede afectar a otras unidades de la planta y al mismo al sistema de potencia, hasta el punto de provocar el colapso de este. Este hecho justifica la jerarquía de un diagnóstico de fallos, con el objetivo de incrementar la confiabilidad y evitar fallos irreversibles que pueden provocar la paralización de un proceso o grandes catástrofes. Un fallo en un generador, por más simple que parezca, puede llevar a una pérdida total de la potencia generada, provocando una afectación en la calidad de vida de la sociedad y en los renglones económicos del país. Esta área ha recibido considerable atención, tanto desde el punto de vista industrial como desde el punto de vista académico, debido al impacto económico y de seguridad que trae consigo. Por lo que detectar la verdadera magnitud de los fallos más severos en tiempo y pérdidas económicas, que influyen sobre el generador constituye uno de los problemas fundamentales para garantizar un funcionamiento adecuado en el proceso de generación de electricidad [2]. En diagnóstico de fallos se incluye, tanto la detección como la localización de los fallos, se trata no solo de conocer que existe algo que no anda bien, sino determinar, además, qué componente o parte del sistema ocasiona ese comportamiento distinto, para así tomar medidas correctivas y evaluar la magnitud del problema [3]. Cuando se realizó este trabajo, en la Central Termoeléctrica Ernesto Che Guevara no se disponía de un método que permitiera reducir los fallos eléctricos en los turbogeneradores TBΦ100, lo que disminuía la confiabilidad de la central. En este trabajo se analiza la distribución de los fallos eléctricos que se han producido en los turbogeneradores TBΦ100-3600T3 de la Central Eléctrica Ernesto Che Guevara, durante tres años de estudio (2018, 2019 y 2020); con el objetivo de implementar una metodología para la gestión del mantenimiento de estos equipos, basada en los métodos del análisis de los modos y efectos de fallo y de la criticidad, con la finalidad de reducir los fallos eléctricos en los turbogeneradores TBΦ100 de la Central Termoeléctrica Ernesto Che Guevara. 3 2. METODOLOGÍA Se parte de una base de datos históricos de las averías (no conformidades) que se han presentado durante los años 2018 -2020, los meses desde julio del 2018 hasta agosto de 2020 afectando negativamente el cumplimiento del proceso y conformidades de servicio. Se recogen todas las fallas producidas en las unidades 1, 2 y 3, que afectaron el factor de potencia disponible en las unidades respectivas y se evalúan según la ocurrencia y la severidad teniendo en cuenta el Manual de Procedimientos Generales del Ministerio de la Industria Básica Cód.: TD PG 0001 Rev: 01. Los datos primarios se obtuvieron del Grupo Técnico Productivo (GTP). Con la puntuación asignada a la severidad y ocurrencia, se determina el nivel de riesgo. Además, se utilizó el Análisis del Modo y Efecto de Fallos (AMEF), como procedimiento que permite identificar fallos en productos, procesos y sistemas, así como evaluar y clasificar de manera objetiva sus efectos, causas y elementos de identificación, para de esta forma, evitar su ocurrencia y tener un método documentado de prevención. Este análisis modal de fallos y efectos es una metodología que se utiliza para estimar y predecir los fallos que pueden suceder en un producto o proceso. Tiene la finalidad de incorporar, desde un inicio, todos los componentes y funciones de estos que garanticen su fiabilidad, seguridad y cumplimiento de los parámetros de las funciones que exijan los niveles de confiabilidad. Esta ayuda a minimizar el tiempo y el costo en cuanto al desarrollo del producto, proceso o servicios. Facilita el análisis preventivo de los fallos potenciales más probables que puede tener un producto. Que ocurran fallos genera una serie de sobre costos en el proceso o producto como puede ser la pérdida de rendimiento o la parada imprevista de cualquiera de las funciones del proceso o producto analizado, lo que genera una serie de inconvenientes en las instalaciones donde se realiza el proceso o producto, con la finalidad de incorporar, desde el inicio, los componentes y funciones que garanticen su fiabilidad y seguridad [4]. Este análisis es también es utilizado por empresas fabricantes durante las fases del ciclo de vida del producto para resolver reclamaciones de productos o gamas de productos que pierden su competitividad frente a otros que tienen un mejor diseño y mejores especificaciones [4]. Una de las ventajas potenciales del AMEF, es que con esta herramienta se construye un documento dinámico, en el cual se puede recopilar y clasificar mucha información acerca de los productos, procesos y el sistema en general. La información constituye un capital invaluable de las organizaciones [4] Las conclusiones del AMFE s permiten tomar las acciones correctivas y preventivas sobre el desarrollo del proceso para aumentar la fiabilidad y la seguridad del mismo. Las conclusiones del AMFE y las acciones correctivas para eliminar los modos de fallos, se organizan según los criterios de una matriz de decisión. Desde el punto de vista matemático la Criticidad se puede expresar como: el producto de la frecuencia por consecuencia, donde la frecuencia está asociada al número de eventos o fallos que presenta el sistema o proceso evaluado en un período de tiempo y la consecuencia está referida con: el impacto y flexibilidad operacional, los costos de reparación y los impactos en seguridad y ambiente [5-6-7]; medición relativa de las consecuencias de un modo de fallo y su frecuencia de ocurrencia; característica (cálculo numérico determinista) de un sistema, que representa el impacto del fallo en cuanto a seguridad, ambiente o producción del proceso al cual pertenece; evalúa la flexibilidad operacional, costos de reparación-mantenimiento y confiabilidad. Esta característica puede ubicarse en bandas alta, media y baja” [4] La Criticidad tiene una relación directa con los parámetros económicos de cualquier empresa y está basada en riesgo. La escasez actual de los recursos hace necesario lograr la mayor efectividad que permita dirigir los esfuerzos hacia aquellos puntos donde se logre una relación máxima entre los resultados obtenidos y los recursos utilizados. El Análisis de Criticidad permite la identificación de esos puntos más críticos estableciendo un grado de jerarquía o prioridad de los activos de una empresa o planta, para jerarquizar las acciones correctivas que se deberán implementar. Sin embargo, en la mayoría de los casos, las acciones recomendadas se quedan así, en recomendaciones las cuales, en la mayoría de los casos no son implementadas o si lo son, no se les da seguimiento para validar el impacto real en la disminución del riesgo [4]. Para el desarrollo del trabajo se aplicó la metodología que se muestra en la Figura 1. 4 Distribución histórica de los fallos en los turbogeneradores de la CTE Ernesto Guevara. Análisis causa efecto (Diagrama de Ishikawa) Construcción de la Matriz de Fallos. Diagrama de Pareto para la obtención de la matriz de parámetros óptimos Análisis de Criticidad debido a la carencia de datos históricos confiables. Obtención de la matriz de criticidad para los turbogeneradores de la CTE Ernesto Guevara. Determinación de los modos de fallos Figura 1: Algoritmo de la metodología a seguir para la determinación de las causas más importantes que provocan los fallos en los turbogeneradores. Fuente: [1] 3. RESULTADOS Características de los turbogeneradores TB100-3600-T3de la Central Ernesto Guevara Los turbogeneradores ELEKTROSILA TBФ100-3600-T3 Los turbogeneradores (TG) de 100 MW son equipos diseñados en la antigua URSS hace más de 50 años. En Cuba comenzó su explotación en la década de 1960, están instalados en las CTE Mariel y Renté. En la Tabla 1, se muestran algunos datos característicos de este TG. Tabla 1.1 Datos característicos de los turbogeneradores ELEKTROSILA TBФ-100-3600-T3 DE 100 MW. Fuente: [8] Características Descripción Características Descripción Potencia aparente 117,5 MVA Cantidad de fases 3 Potencia activa 100 MW Clase de aislamiento de los enrollados del TG B Potencia reactiva 62,5 Mvar Sistema de enfriamiento Hidrógeno indirecto Tensión nominal del estator 10 kV + 5% Presión del hidrogeno 205,65 kPa Corriente nominal del estator 6475 A Total de ranuras del estator 60 Factor de potencia 0,85 Velocidades criticas 1500 rpm Corriente nominal de excitación 2500 A 3820 rpm Tensión nominal de excitación 170 V Reactancias % Xd’’ 13,6 Frecuencia 60 Hz Xd’ 23 Velocidad del rotor 3600 rpm Xd 165 Eficiencia 93,3 % X2 20 Conexión del enrollado del estator YY X0 7,6 Leyenda: Xd” – Reactancia directa subtransitoria; Xd’ – Reactancia directa transitoria; Xd – Reactancia directa sincrónica; X2 – Reactancia de secuencia inversa; X0 – Reactancia de secuencia cero (homopolar) La relación entre los sistemas se establece mediante un agregado común. En los TG TBФ-100-3600T3 el agregado común son los enfriadores de circuito intermedio. En la Figura 2, se muestran estas relaciones. 5 Figura 2: Relación entre los sistemas y el turbogenerador. Fuente: [8] Se estudiaron y analizaron por la literatura los principales fallos que ocurren en los turbogeneradores TG a nivel mundial, las cuales se distribuyen en: en las partes activas del estator, pérdida de hermeticidad del sellaje del TG, las que se encuentran el rotor, la contaminación, la mala operación y las que ocurren en los sistemas auxiliares. Al propio tiempo se hizo un análisis de las averías ocurridas en estos generadores de la CTE Ernesto Guevara, fundamentalmente fallos eléctricos en: sistema de excitación del generador eléctrico, fallo a tierra del rotor del generador eléctrico, bajo aislamiento y actuación de la protección de potencia inversa. El análisis histórico de la información relacionada con la temática sobre los generadores muestra que se ha trabajado en la determinación de los fallos más importantes, mediante el análisis de causa raíz, la identificación y caracterización de los fallos. El disponer de una clasificación jerarquizada de los sistemas, subsistemas y equipos en el proceso de generación de electricidad en la CTE permiten mejorar significativamente la gestión de mantenimiento en este tipo de instalación. El presente capítulo tiene como propósito obtener un modelo o metodología a emplear para realizar un análisis de criticidad que posibilitó realizar la clasificación jerarquizada de los principales fallos eléctricos en la generación de electricidad en los TG rusos instalados en la CTE Ernesto Guevara. Se analizaron, también, los métodos más comunes para la detección de las avería o fallos, los cuales son de gran importancia en el proceso de generación de energía, ellos son: la inspección visual, las pruebas de diagnóstico, (las cuales tienen pruebas a CD y CA) y las pruebas on line, en las que se utilizan distintos métodos, siendo mejor las descargas parciales on line al devanado del estator las mejores. Análisis de las interrupciones ocurridas en las unidades de generación Para una buena comprensión y análisis de lo ocurrido en los TG se enmarcaron los fallos por unidad y según el origen en las siguientes tablas (Tabla 2, Tabla 3 y Tabla 4). En ellas se expresan todo lo ocurrido en las 3 unidades de la CTE en el periodo estudiado. Tabla 2 Fallos ocurridos en la unidad 1 de la CTE Ernesto Guevara en el periodo estudiado. Fuente: [1] Unidad 1 Tipo de fallo 2014 2015 2016 2017 2018 2019 Total 166 Automáticos 0 0 0 1 0 0 1 Mecánicos 13 8 11 18 18 17 85 Eléctricos 2 2 3 3 2 1 13 Externos 2 1 1 2 0 0 6 Turbina 6 12 4 10 0 4 36 Caldera 5 2 7 4 5 2 25 6 Tabla 3 Fallos ocurridos en la unidad 2 de la CTE Ernesto Guevara en el periodo estudiado. Fuente: [1] Unidad 2 Tipo de fallo 2014 2015 2016 2017 2018 2019 Total 182 Automáticos 1 1 0 0 0 0 2 Mecánicos 10 16 25 13 13 17 94 Eléctricos 3 0 2 2 0 1 8 Externos 0 1 1 3 0 1 6 Turbina 15 6 11 7 5 1 45 Caldera 5 7 5 4 2 4 27 Tabla 4 Fallos ocurridos en la unidad 3 de la CTE Ernesto Guevara en el periodo estudiado. Fuente: [1] Unidad 3 Tipo de fallo 2014 2015 2016 2017 2018 2019 Total 127 Automáticos 0 0 0 0 0 0 0 Mecánicos 16 0 17 18 12 14 77 Eléctricos 0 0 4 9 3 1 17 Externos 3 0 4 2 1 0 10 Turbina 0 0 0 7 1 2 10 Caldera 2 0 4 3 4 0 13 En la tabla 5 se muestran las principales causas que provocaron los fallos eléctricos, obtenidas por medio de entrevistas y revisión de los documentos de incidencias en los controles de las unidades. Tabla 5 Principales causas de los fallos eléctricos en la CTE Ernesto Guevara en el periodo estudiado. Fuente: [1] Unidad 1 Unidad 2 Unidad 3 Por actuación de la protección de potencia inversa Por la protección de fallo a tierra del estator. Por actuación de la protección de potencia inversa Por la protección de fallo a tierra del estator. Por la actuación de la protección de potencia inversa. Por prueba eléctrica. Por fallo en las baterías de alimentación de corriente directa (UPS). Por bajo aislamiento en el generador eléctrico. Por bajo aislamiento en el generador. Por problemas en el sistema de excitación del generador eléctrico Por la actuación de protección de sobreflujo del generador eléctrico. Por problemas en el sistema de excitación del generador eléctrico En la Tabla 6 se aprecia que, para las 3 unidades analizadas, la desviación estándar de fallos por unidad, así como su dispersión es alta, por lo cual no es fiable tomar el valor promedio para realizar el posterior Análisis de Criticidad (AC). Para ello, se toman las causas más repetidas en las 3 unidades en valor porcentual para observar si los datos son confiables, que la mayoría de los fallos en la unidad 1 y 3 se encuentran en el sistema de excitación, mientras que en la 2 ocurren en el disparo de la protección de potencia inversa. El sistema de excitación de la unidad 1 y el de la 2 son del mismo modelo, mientras que el de la unidad 3 es distinto. 7 Tabla.6 Causas más reiteradas en las unidades de generación de la CTE Ernesto Guevara. Fuente: [1] Tipo de fallos en % Unidad 1 Unidad 2 Unidad 3 Desviación estándar Dispersión Sistema de excitación 46,15 0 47,06 26,91 30,44 Potencia inversa 30,76 50 29,41 11,51 13,02 Bajo aislamiento 0 25 17,65 12,85 14,53 Otras causas 23,08 25 5,88 10,53 11,91 A continuación la interrelación fallos modo fallos Tabla 7 Resumen de los modos y efectos de fallo en el TG. Fuente: [1]. Componente Fallo Modo de fallos Causas Efecto A. Generador A.1 Daños al aislamiento del rotor y el estator A.1.1 Contaminación del aislamiento Bajo aislamiento debido a la humedad y aceite. Bajo aislamiento en las anillas del rotor. Por prueba eléctrica (equipo en mal estado). Degradación y envejecimiento del aislamiento. Sobrecalentamientos locales. Aumento de las corrientes de fuga que aceleran el envejecimiento del aislamiento. Daños severos al aislamiento e incluso su destrucción. A.1.2 Diferencia de potencial A.1.3 Descargas parciales A.2 Daños a los anillos de bandaje A.2.1 Sobretensiones Cambio brusco del sentido de giro del TG en funcionamiento. Un evento de secuencia inversa. Sobretensión en los terminales del TG impuesto por el SEN. Si el fallo ocurre con la máquina en régimen de trabajo esta puede llegar a causar la destrucción total de la máquina. A.2.2 Sobre corrientes A.3 Rotor A.3.1 Imantado el generador Un evento de secuencia inversa (con el interruptor del generador cerrado una parada).Motorización Aislamiento entre el cobre de las espiras alterado localmente, permitiendo el contacto entre dos espiras adyacentes. Una sobre velocidad incidental. Oscilaciones en el Cortocircuito entre espiras. Bobinado inductor a tierra. Una sobre velocidad incidental A.3.2 Motorización de la máquina 8 Componente Fallo Modo de fallos Causas Efecto servo motor. A.4 Estator Incapacidad de crear el flujo magnético para inducir la fuerza magnetomotriz. En las cabezas se presentan cortocircuitos, con los cuales aparecen esfuerzos electrodinámicos capaces de destruir las amarras y provocar la deformación de las cabezas. Envejecimiento de las bobinas del estator, por los años de explotación y la continua penetración de aceite de sellaje hacia el interior del devanado del estator (aceite contaminado con humedad). Incremento de las descargas parciales y disminución de la resistencia de aislamiento (índice de polarización y coeficiente de absorción). B. Sistema de excitación B.1 Pérdida de excitación B.1.1 Circuito abierto Deterioro y bajo aislamiento en los cables de fuerza del sistema de excitación. Desacoplada la excitatriz piloto. Arandelas y canutos aislantes en mal estado y deteriorados. Bajo aislamiento en las anillas del rotor. Mala regulación en la presión de las escobillas. Por fuego en anillas, suciedad y avería en los fusibles. Incapaz de excitar el rotor del generador. Fundición del porta escobillas, partición de las escobillas, se establece el fuego circular. Altas temperaturas. Bajo aislamiento, fuera de servicio la unidad. B.1.2 Contaminación B.1.3 Fuera de servicio convertidor B.1.4 Fallo a tierra A partir de lo cual se elaboró la matriz de criticidad Componente Modo de fallo Gravedad Probabilidad de ocurrencia Criticidad A. Generador A.1.1 Contaminación del aislamiento 1,5 4 6 Intolerable A.1.2 Diferencia de potencial 1,5 4 6 Intolerable A.1.3 Descargas parciales 0,5 3 1,5 Tolerable A.2.1 Sobretensiones 1 3 3 Nocivo A.2.2 Sobre corrientes 1 3 3 Nocivo 9 Componente Modo de fallo Gravedad Probabilidad de ocurrencia Criticidad A.3.1 Imantado el generador 0,5 3 1,5 Tolerable A.3.2 Motorización de la máquina 2 3 6 Intolerable A.4 Incapacidad de crear el flujo magnético para inducir la fuerza magnetomotriz 0,5 3 1,5 Tolerable B. Sistema de excitación B.1.1 Circuito abierto 0,5 3 1,5 Nocivo B.1.2 Contaminación 1,5 2 3 Nocivo B.1.3 Fuera de servicio convertidor 0,5 2 3 Peligroso B.1.4 Tierra en el sistema de excitación 1,5 2 3 Nocivo Con la utilización de todas las herramientas de análisis empleadas anteriormente resulta útil confeccionar la matriz de criticidad, la cual posibilita la jerarquización de los fallos y permite determinar las medidas correctivas a emplear para priorizar el buen funcionamiento de los TG de la CTE. La tendencia mundial hacia el mantenimiento predictivo ha incrementado la posibilidad de obtener mejores diagnósticos del estado de los equipos, aplicando diversas técnicas de monitoreo en línea, principalmente de descargas parciales. Con éstas técnicas, es posible identificar el estado dieléctrico de los equipos y observar su comportamiento bajo los esfuerzos reales de operación. ver en la tabla 8. Tabla 8 Plan de medidas correctivas según la criticidad de los fallos. Fuente: [1]. Código Fallos Criticidad Medidas A.1.3 Descargas parciales Insignificante Estos son corregidos con los mantenimientos preventivos, dándoles seguimiento en el momento que aparecen. Comprobar el funcionamiento de los relés de protección. Cada 6 meses Desarrollar distintos tipos de mantenimiento, como son: predictivo, cada 3 meses y preventivo. Por parte del departamento eléctrico y el jefe de mantenimiento. A.3.1 Desimantado del generador A.3.3 Incapaz de crear el flujo magnético B.1.1 Circuito abierto A.2.1 Sobretensiones Tolerable A.2.2 Sobrecorrientes A.1.1 Contaminación del aislamiento Nociva Mantenimiento preventivo. Medir la resistencia de puesta a tierra y del aislamiento cada 6 meses. Comprobar el estado general de la máquina e inspeccionar el sistema de excitación cada 3 meses Comprobar el funcionamiento de los relés de protección. Cada 6 meses Desarrollar distintos tipos de mantenimiento, como son: predictivo, cada 3 meses y correctivo. Por parte del departamento eléctrico y el jefe de mantenimiento. A.1.2 Diferencia de potencial B.1.3 Fuera de servicio convertidor B.1.2 Contaminación B.1.4 Tierra en el sistema de excitación Motorización de la Intolerable Revisar la protección de potencia inversa cada 3 meses, para corroborar su funcionamiento. Desarrollar distintos tipos de mantenimiento, como son: predictivo, cada 3 meses, preventivo y correctivo. Por parte del departamento eléctrico y el 10 Código Fallos Criticidad Medidas A.3.2 máquina jefe de mantenimiento. 4. CONCLUSIONES Los métodos empleados permitieron determinar la distribución y jerarquización de los fallos eléctricos que se han producido en los turbogeneradores TBΦ100 de la Central Eléctrica Ernesto Che Guevara por medio del Análisis del Modo y Efecto de Fallos y el Análisis de Criticidad. En el proceso de análisis de la distribución histórica de los fallos se apreció que la mayor cantidad de fallos se establecen en mecánicos, de turbina, de caldera, eléctricos, externos y automáticos respectivamente, representando estos 475 fallos. Y los principales fallos eléctricos ocurridos en el periodo de 2014-2019, fueron causados por bajo aislamiento, fallos a tierra en los devanados del estator y rotor y en el sistema de excitación. Estos y otras causas representan 38 fallos del total. Con la realización del Análisis de Criticidad se determinó que la mayoría de los modos fallos se encuentran en un estado nocivo (5), algunos se encuentran en insignificantes (4), en estado tolerable (2) y en estado intolerable (1). A partir de lo cual, se elaboró un plan de medidas previo para la aplicación de estas en los TG, las cuales se sintetizaron después de un amplio debate con los técnicos y especialistas. REFERENCIAS 1. DÍAZ-VÉLEZ, Dany O. “Gestión de fallos eléctricos en los turbogeneradores TBΦ100 de la Central Eléctrica Ernesto Che Guevara”. Directores: Dr.C Santiago Alfredo Dorrbercker Drake y Dra.C Miriam Lourdes Filgueiras Sainz de Rozas. Trabajo de diploma, Universidad Técnológica de La Habana “José A. Echeverría” CUJAE, La Habana, 2020. 2. ZIO, E., “Reliability engineering: Old problems and new challenges”. [en línea], Reliability Engineering and System Safety, vol. 94, n.2, (2009), p. 125-141, [Consulta 2 de octubre de 2014], Disponible en: http://www.sciencedirect.com/science/article/pii/S0951832008001749 3. DORRBERCKER-DRAKE, Santiago, TEXIDÓ-ROSADO, Manuel A. y MONTESERIN-SANTOS, Nailyn. Criterios de Decisión para la Detección de Cortocircuitos entre Espiras en el Estator de Motores de Inducción de Gran Potencia. Congreso Internacional de Alta Tensión y Aislamiento Eléctrico 2015. 26-29 de octubre 2015. Portoviejo, Manabí, Ecuador. 4. PERDOMO- OJEDA, M., & SALOMÓN-LLANES, J. Análisis de modos y efectos de falla expandido: Enfoque avanzado de evaluación de fiabilidad. Revista Cubana de Ingeniería, 2016. VII (2), 4p.5-54. 5. HOURNÉ-CALZADA María Bárbara, BRITO-VALLINA, María Lucia, DEL CASTILLO-SERPA, Alfredo y DÍAZ-CONCEPCIÓN, Armando. Análisis de criticidad de grupos electrógenos de la tecnología fuel oil en Cuba. Revista Ciencias Técnicas Agropecuarias, ISSN-1010-2760, RNPS-0111, (julio-septiembre, 2012). Vol. 21, No. 3, p. 55-61. 6. DÍAZ-CONCEPCIÓN, Armando; DEL CASTILLO-SERPA, Alfredo M.; TOLEDO-GARCÍA, Manuel; CABRERA-GÓMEZ, Jesús. Obtención de un modelo de criticidad para los equipos y sistemas tecnológicos de una Termoeléctrica. Ingeniería Energética, vol. XXXVII, núm. 3, (septiembre- diciembre, 2016), pp. 217-227 7. ALFONSO-PADURA, Yaima; GARCÍA-TOL, Alejandra Elena; DÍAZ-CONCEPCIÓN, Armando; RODRÍGUEZ-PIÑEIRO; Alberto J.; HOURNÉ-CALZADA, María Bárbara; CEDRÓN-PÉREZ, Grenda. Análisis de criticidad en los sistemas mecánicos de los grupos electrógenos. Ingeniería Energética, vol. XXXVIII, núm. 3, (septiembre-diciembre, 2017), p.224-230 8. MARTÍNEZ-RODRÍGUEZ, Odalys y DORRBERCKER-DRAKE, Santiago A. Santiago A. Determinación de las Prioridades de Mantenimiento en Turbogeneradores “Elektrosila TBФ- 100-3600-T3” a partir del Comportamiento de sus Fallos. Ingeniería Energética Vol. XXXIII, No. 3, (septiembre-diciembre, 2012) p.250-262. SOBRE LOS AUTORES Miriam Lourdes Filgueiras Sainz de Rozas, doctora en Ciencias Técnicas, profesora titular del Departamento de Ingeniería Eléctrica del CIPEL, es profesora también del Instituto Superior de Tecnologías y Ciencias Aplicadas, del Centro Nacional de Capacitación Azucarera, la Escuela Superior de Cuadros del Estado y del Gobierno; y asesora de la Dirección de la UNE. Dany Oscar Díaz Vélez, ingeniero eléctrico, especialista “C” en Mantenimiento Industrial, UEB EMCE CTE Este Habana (UNE) PRELIMINARY ANALYSIS OF CUBAN POWER SYSTEM FLEXIBILITY TOWARD TO SCENARIO OF A RISING SHARE OF vRES IN 2030 Eduardo Sierra Gil1, Sami Repo2, Jyrki Luukkanen3, Frank Grau Merconchini4, Irina Laamanen5 1University of Camagüey, Camagüey, Cuba, 2Tampere University, Tampere, Finland, 3University of Turku, Turku, Finland, 4University of Oriente, Santiago de Cuba, Cuba, 5Tampere University, Tampere, Finland. 1e-mail: eduardo.sierra@reduc.edu.cu ABSTRACT In the context of the depletion of fossil fuels and the rising climate change impact, Cuba is a small island country with a lack of conventional energetic resources and, in addition, has limited access to the energetic resources market due to the restrictions imposed by EE.UU blockade, therefore the only way to reach energetic independence is to increase the share of renewable energy sources in the energetic mix. The rising of generation of electricity with renewable energy sources like solar and wind has the problem of the intermittence of these resources and contributes to worsening the flexibility of the power system. This work presents a preliminary evaluation of the flexibility of the Cuban Power System toward the 2030 goal to reach 37% of renewable energy share in electricity generation using a modified USAID-NREL analytical framework for the flexibility analysis, with five indicators that average form a power system flexibility score. This methodology permitted an assessment of Cuban power system flexibility from 2019 to 2030 and identified the indicators that Cuban Electric Union has focused upon and indicators that it is need to address for a more flexible power system and is a decision-making tool for the preparation for a new scenery with a high share of intermittent renewable energy. KEY WORDS: Cuban power system, Flexibility analytical framework, Flexibility sources, Variable renewable energy sources. 1. Introduction. Cuba is a small developing island located in the Caribbean region with limited fossil fuel resources despite this it has a 100% level of electrification and a high Human Development Index (HDI) according to the Human Development Report 2020 [1]. Figure 1 shows the impact of Electrical Energy Consumption (EEC) on Human Development Index (HDI) for all countries in the world. Figure 1. Impact of ECC on HDI for all countries of the world. Source: [2] In this figure, it can appreciate that the HDI is strongly related to electrical energy consumption per capita and effectively the consumption of electrical energy in Cuba had a sustained increase until 2019 (2020 and 2021 were atypical years hereby to restrictions by COVID 19 pandemic) and it is expecting a rise of 18,8% until 2030 [3]. Figure 2 shows the mix of electricity generation by technology in 2021. Figure 2. Mix of electricity generation by technology in percent of total generation in 2021. Source: self-elaboration The 95% of electricity generation is based on fossil fuel and the 53% is with imported fuel. The high energy dependence on imported fossil fuel makes it market prices volatility have a great impact on national economies. Therefore, one of the main challenges of the new energy strategies is the achievement of a change in generation mix, increasing the use of renewable energy source. For Cuba, this is particularly transcendent, considering that the country's electrical energy comes almost all of fossil fuel [4]. In another hand in 2016, the last year in which GHG emissions in Cuba were estimated, in the structure of gross total emissions they were accounted for at 50,213.7 ktCO2eq. and the absorptions in 27,147.2 ktCO2eq., resulting in about 23,066.5 ktCO2eq. of net emissions. Of the total gross GHG emissions, 70.5% correspond to the Energy sector , the National Plan for Economic and Social Development to 2030 (PNDES 2030), introduces for the first time in the country's public policies, the concept of a less intense development in greenhouse gas emissions [5]. Cuba has a vast renewable energy potential to be harnessed. According to IRENA, Cuba has a good potential in both solar and wind resources with an average solar irradiance of 223.8 W/m2 (5.4 kWh/m2/day) and average wind speed at around 5.7 m/s, and in the southeast above 7 m/s [6]. Policy decision for changing Cuba’s energy matrix encloses several issues such as energy economy, environmental issues and energy efficiency. Transition to renewable energy production will reduce the amount of imported fuels and harmful environmental impacts. Furthermore, the distributed generation (DG) structure instead of the centralized one will reduce transmission losses and improve system resilience for hurricane attacks and other locally occurred natural disasters [7]. Initially, the goal of governmental energy policy was to reach 24% of renewable energy sources in the generation mix in 2030, but this target was increased to 37%. To accomplish the 37% renewables goal, the use of solar and wind energy is necessary, due to market possibilities and very good solar resources in all of the country and good wind resources on the northeastern coast of the island. To integrate wind and solar energy planners have always had to deal with variability and uncertainty to some extent and the uncertain timing of electricity generation remains an issue to maintain the power system stability and frequency [8] [9] [10]. Solutions to uncertainties require increasing the grid's flexibility, a key factor to addressing stability and reliability issues [9] [11]. Power system reliability refers to the ability to supply electricity and meet demands. To achieve reliability, the power system needs to remain stable by maintaining a balance of electricity demand and supply at every second. Flexibility describes the power system's ability to respond to the changes in supply and demand from different sources. Various solutions exist through system operation, markets, load, flexible generation, networks and storage [12]. Under these conditions is necessary to carry out a particular flexibility analysis due to the characteristics of the Cuban power system. Cuba only has a regulated internal market and doesn’t have interconnection with any other power systems that can be behavior as a flexibility source, moreover the transmission system in many cases is not available to support the need for flexibility. On other hand, the basis generation is realized with thermal power plants that have a very slow ramp and with fuel oil or diesel generators, diesel generators are inefficient when operating at low or partial loading. In this article, it carried out a preliminary comparative assessment of Cuban power system flexibility toward a high share of variable renewable energy source (vREs) scenario in 2030 2. Materials and Methods. For this analysis USAID-NREL analytical framework are used [13], six indicators are further developed in this framework: grid reliability, load profile ramp, electricity market access, forecasting systems, proportion of natural gas in electricity generation, and renewable energy diversity. In the reference [14] the authors recognized that USAID and NREL's framework is not a perfect representation of grid flexibility; however, the framework is comprehensive in scope and systematic to analyze groups of countries and diagnose areas for improvement. Each indicator identified aims to characterize grid flexibility (Table 1). Table 1. The six indicators used by USAID-NREL analytical framework to characterize grid flexibility (source [14]) Indicator Grid Flexibility Characteristic Grid reliability How reliable, in terms of disruptions, is the current grid? Load profile ramp How steep is the worst-case scenario ramp in an average daily load profile? Electricity market access How much access to electricity trade does a nation have for balancing surplus and deficit electricity generation? Forecasting systems Are forecasting systems used to predict the expected generation from solar and wind energy? Proportion of natural gas in electricity generation What is the proportion of electricity generation by natural gas? Renewable energy diversity How many different renewable energy sources are currently grid integrated? For the purpose of this work, in the context of Cuban power systems, the aforementioned indicators need to be modified according to the following criteria: Centralized internal energy market without interconnection with another external power systems and impossibility of export or import electrical energy; Low proportion of natural gas in electricity generation (7% of total installed capacity); The renewable energy diversity integrated into the grid is the same in the analysis time line. Therefore, the modified proposed criteria are showing in the Table 2. Table 2. The modified indicators to characterize grid flexibility (source: self-elaboration) Indicator Grid Flexibility Characteristic Grid reliability How reliable, in terms of disruptions, is the current grid? Load profile ramp How steep is the worst-case scenario ramp in an average daily load profile? Forecasting systems Are forecasting systems used to predict the expected generation from solar and wind energy? Proportion of flexibility source in electricity generation (Considering the dispatchable renewable energy generation like a flexibility source) What is the proportion of electricity generation by sources of flexibility? Diversity of renewable sources How is the distribution of the growth of the different kinds of renewable sources? Some of the indicators required calculations for the data. First, load profile ramp refers to the rate of demand increase. The worst-case ramp rate of the average daily load profile was determined by using national average load daily profile and considering the expecting rise of maximum demand in each year analyzed. For calculating the Load Ramp Profile indicator (LRP) it is needing to identify the maximum demand and minimum demand associated with the steepest slope in the average daily load curve and calculated the worst case load profile ramp (WCLPR) by: (1) Where: MaxDSS: Maximum demand of steepest slope (MW) MaxDSS: Minimum demand of steepest slope (MW) Tt: Time taken (h) Graphically, it is represented as the slope's gradient and represents the largest demand increase in a small-time frame [14]. To calculate flexible installed capacity as the normalizing factor for the metric, it is needing to identify flexible installed capacity sources as renewable energy sources and energy storage systems (ESS) [15]. Thus, the total flexible installed capacity is calculated by summing total installed capacity by the identified installed capacity sources. The final metric is calculated by: (2) Second the Proportion of flexible generation (POFG) in electricity generation it is determining by: (3) With two sceneries, the scenery A (SA) considering the dispatchable renewable energy sources and also the diesel and fuel motors installed capacity as sources of flexibility and the scenery B (SB) considering only dispatchable renewable energy sources, like bioelectric power plants and energy storage systems, as sources of flexibility. Small hydropower is a non-dispatchable renewable source, however, in the future storage may enable the dispatchability of these technology [16] [17] Grid reliability selecting indicator was annual average TIU (Costumer Time Interruption Index) that is used by Cuban Electric Union and is similar to SAIDI world class index. Forecasting systems indicator is scored 1 when it exists and 0 when it doesn’t. The Diversity of renewable sources indicator (DRS) is determined as a ratio between sum of the installed capacity of the rest of the renewable sources and the installed capacity of the renewable source whit the most significant share in the energy mix. (4) For data analysis, it used a min-max normalization to linearly transform the data to a new range between zero and one [18]. 3. Results. In this work was evaluated each one of selecting indicators from 2019 to 2030 with the following results Grid reliability indicator have a decreasing trend from 2019 to 2021 taken in account the real annual average TIU, the raising in 2022 is due to fundamentally undisponibility of thermal and distributed generation and the prospects to 2030 are a continuously decreasing of this indicator with the consequent improving of the reliability. The figure 3 showing the behavior of this indicator. Figure 3. Behavior of TIU. Source: self-elaboration In the Table 3 it can see the real and normalized values of Grid reliability (TIU) indicator Table 3. Real and normalized values of Grid reliability (TIU) indicator (source: self-elaboration) Year TIU (h/consumer) Normalized TIU 2019 21.8 0.0 2020 20.8 0.1 2021 18.8 0.4 2022 20 0.3 2023 19.4 0.4 2024 18.8 0.4 2025 18.1 0.5 2026 17.5 0.6 2027 17 0.7 2028 16 0.9 2029 16 0.9 2030 15 1 The Load Profile Ramp was calculated from average load daily curve [19] considering the expecting growing of maximum demand and the same behavior in all years included in the analysis. The figure 3a, 3b and 3c showing the load profile corresponding to each year, the expecting growing of maximum demand and the steepest slope respectively. Figure 3a Load profile. Source: self-elaboration Figure 3b Expecting growth of maximum demand and energy consumption. Source: self-elaboration Figure 3b Maximum steepest slope. Source: self-elaboration Load curves with occasionally high load change rates, and the large ratio between minimum and maximum loads, make it difficult to maintain the balance between energy production and consumption under constraints of accomplishing quality conditions, such as system frequency and the voltage level. Balancing load and consumption becomes even more difficult considering that the country's generation park is mainly based on thermal units over 40 years old, most of which were designed to operate as base load plants. In addition, they were initially designed for operation on good quality heavy fuel oil, but in the past have been adapted to operate on lower quality Cuban crude, which is heavier and has a higher sulfur content. These modifications limit the thermal efficiency and the loading rate of existing thermal power plants [20]. In Table 4 it can see the real values of the load profile worst case ramp, flexible installed capacity, and load profile ramp and the normalized value of the last mentioned indicator in both sceneries (SA) and (SB). Table 4. Load profile worst case ramp, flexible installed capacity, and real and normalized values of Load Profile Ramp (LPR) indicator (Source: self-elaboration) Year Load profile worst case ramp MW/h flexible installed capacity (MW) (SA) flexible installed capacity (MW) (SB) Load profile ramp (SA) Load profile ramp (SB) Normalized Load Profile Ramp (SA) Normalized Load Profile Ramp (SB) 2019 57.5 2124 367 0.027 0.16 0.3 0.5 2020 89.3 2074 367 0.043 0.24 0 0 2021 69.8 1685 367 0.041 0.19 0.1 0.3 2022 57.1 2143 369 0.027 0.15 0.7 0.5 2023 58.3 2189 373 0.027 0.16 0.7 0.5 2024 60.0 2257 378 0.027 0.16 0.7 0.4 2025 61.3 2260 381 0.027 0.16 0.7 0.4 2026 62.7 2716 773 0.023 0.08 0.9 0.9 2027 64.3 2761 818 0.023 0.08 0.9 0.9 2028 65.8 2994 918 0.022 0.07 0.9 0.9 2029 67.9 3054 978 0.022 0.07 0.9 0.9 2030 70.04 3365 1278 0.021 0.055 1 1 Cuba doesn’t have an adequate forecasting system for hourly daily demand and wind or solar generation. Considering that several research centers and Cuban universities are working intensively on developing forecasting systems using different multivariate analysis methods it is supposed that Cuba will have a robust forecasting system in 2023. In the years previous to 2023 the normalized value for this indicator is 0 and from 2023 to 2030 is 1. Using the data by UNE it can note a growing trend of installed flexibility source capacity in the power system, Figure 4. Figure 4 Growth of Flexible Installed Capacity by Source. Source: self-elaboration In Table 5 it can see the and real and normalized values of Proportion of Flexible Generation (POFG) indicator in both sceneries (SA) and (SB). Table 5. Real and normalized values of Proportion of Flexible Generation (POFG) indicator (source : self-elaboration) Year POFG (SA) POFG (SB) Normalized POFG (SA) Normalized POFG (SB) 2019 0.55 0.1 0.73 0.5 2020 0.56 0.1 0.77 0.5 2021 0.51 0.11 0.58 0.63 2022 0.62 0.11 1 0.63 2023 0.42 0.07 0.23 0.13 2024 0.4 0.07 0.15 0.13 2025 0.38 0.06 0.8 0 2026 0.41 0.12 0.19 0.75 2027 0.37 0.11 0.04 0.63 2028 0.37 0.11 0.04 0.63 2029 0.36 0.12 0. 0.75 2030 0.38 0.14 0.08 1 The goal of Cuban Government’s energy policy is to reach 37% of renewable energy sources in the generation mix in 2030, as aforementioned. The figure 5 show the expected annual growth of the share of RES. Figure 5. Expected annual growth of the share of RES. Source: self-elaboration However, although in the goals of the UNE are the developing of 4 principal renewable resources for electricity generation, solar, wind, hydro and biomass, the growth of each of this renewable’s sources is not uniform. Table Table 6 show the and real and normalized values of Diversity of renewable sources (DRS) indicator. Table 6. Real and normalized values of Diversity of renewable sources (DRS) indicator (source: self- elaboration) Year DRS Normalized DRS 2019 0.9 1 2020 0.9 0.97 2021 0.61 0.53 2022 0.51 0.38 2023 0.4 0.21 2024 0.27 0.02 2025 0.26 0 2026 0.32 0.09 2027 0.41 0.23 2028 0.52 0.39 2029 0.55 0.44 2030 0.57 0.47 A summary of all normalized flexibility indicator per year is showed in the figure 6a and 6b. Figure 6a. Normalized flexibility indicators of Cuban Power Systems toward 2030, Scenery A. Source: self-elaboration Figure 6b. Normalized flexibility indicators of Cuban Power Systems toward 2030, Scenery B. Source: self-elaboration The power system flexibility score (PSFS) in each year was determined as an average of the normalized score of each indicator, Table 7. This resulted in the annual expected evolution of flexibility. Table 7. Power system flexibility score (source: self-elaboration) Year PSFS (SA) PSFS (SB) 2019 0.49 0.39 2020 0.38 0.32 2021 0.32 0.38 2022 0.48 0.35 2023 0.51 0.43 2024 0.47 0.41 2025 0.47 0.4 2026 0.56 0.67 2027 0.57 0.69 2028 0.65 0.76 2029 0.65 0.79 2030 0.71 0.89 From the normalized indicator and power system flexibility score, the radar chart shows the indicators that Cuban Electric Union has focused upon and indicators that it is need to address for a more flexible grid in both sceneries. Figures 7 and 8 Figure 7. Radar charts for each year based on the normalized indicator and power system flexibility score. Scenery A. Source: self-elaboration. Figure 8. Radar charts for each year based on the normalized indicator and power system flexibility score. Scenery B. Source: self-elaboration. When the radar chart is analyzed, it can see that the Diversity of RES indicator is variable in the timeline without a defined trend, and the growth of the four RES used for electricity generation in Cuba (Photovoltaic, wind, Hydro and Biomass) is not uniform. The mayor growth corresponds precisely to the intermittent RES. In other hand this indicator is not relevant for the average power system flexibility. The flexible installed capacity is rising in the timeline and tradeoff the rising of Load profile worst case ramp. The same trend is showed by proportion of flexible generation indicator (POFG), this trend is more accentuated in scenery B because in the scenery A the diesel and fuel generator sets installed capacity is limited by a low availability factor. 4. Conclusions. The final goal of the Cuban governmental energy policy is to reach 100% of electricity generation whit Renewable energy sources, to this scenery Cuba will need to consider increasing its current power system flexibility. The radar charts indicate the strengths and weaknesses of power system operation. It is needed to highlight that the way to increase the preparation for a new high share of intermittent renewable energy source power systems must be based on a robust demand and generation forecasting system, the improvement of grid reliability, and the investment in the development of flexible renewable generation like hydro and biomass in an adequate proportion to the rising of non-dispatchable renewable generation like solar and wind. The flexibility of the Cuban power system can’t be accomplished by developing conventional fossil fuel generation as a source of flexibility and in addition demand response programs should be used for reducing the load profile ramp. Acknowledgments. The authors would like to thank to IRIS research project (Cuban energy transformation. Integration of renewable intermittent sources in the power system) funded by the Academy of Finland and coordinated by the University of Turku, Finland Futures Research Centre, for the support to this research. References. 1. Human Development Reports. Online. [Accessed 26 May 2022]. Available from: https://hdr.undp.org/en/2020-report 2. PIORO, Igor. Statistics on electricity generation in the world. In : Climate change and the role of nuclear power. Vienna : International Atomic Energy Agency, p. 100–104. Proceedings series (International Atomic Energy Agency). ISBN 978-92-0-120220-8. 3. CEPERO HERNÁNDEZ, Jorge Armando. Situación y Perspectiva del SEN, Retos desde la Ciencia la tecnología y la Innovación. Taller Nacional de Eficiencia Energética y Fuentes Renovables de Energía. Universidad de Camagüey. April 2022. Asamblea Nacional del Poder Popular, Comisión de Industria, Construcciones y Energía 4. LAINO, Luis Domingo. Un Análisis de la Política Energética en Cuba. Población y Desarrollo. 2008. No. 35, p. 45–62. Autoría: Luis Domingo Laino.Localización: Población y Desarrollo. No. 35, 2008.Artículo de Revista en Dialnet. 5. Cuban First NDC (Updated submission).pdf. Online. [Accessed 27 May 2022]. Available from: https://www4.unfccc.int/sites/ndcstaging/PublishedDocuments/Cuba%20First/Cuban%20First%20NDC%20(U pdated%20submission).pdf 6. ALBERTO ALVAREZ, Ernesto, KORKEAKOSKI, Mika, SANTOS FUENTEFRÍA, Ariel, LOURDES FILGUEIRAS SAINZ DE ROZAS, Miriam, ARCILA PADURA, Ramsés and LUUKKANEN, Jyrki. Long-Range Integrated Development Analysis: The Cuban Isla de la Juventud Study Case. Energies. January 2021. Vol. 14, no. 10, p. 2865. DOI 10.3390/en14102865. 7. VAZQUEZ, L., MAJANNE, Y., CASTRO, M., LUUKKANEN, J., HOHMEYER, O., VILARAGUT, M. and DIAZ, D. Energy System Planning towards Renewable Power System: Energy Matrix Change in Cuba by 2030. IFAC-PapersOnLine. 1 January 2018. Vol. 51, no. 28, p. 522–527. DOI 10.1016/j.ifacol.2018.11.756. 8. SALAZAR, Irina, SAUNDERS, Anaely, LUUKKANEN, Jyrki, MAJANNE, Yrjö, SANTOS, Ariel, VAZQUEZ, Luis and KORKEAKOSKI, Mika. Electricity supply with renewable energy sources and the Cuban Electricity System: Challenges of supply-demand balance. . 2018. 9. Large-Scale Electricity Interconnection - Technology and Prospects for Cross-Regional Networks. . 2016. P. 36. 10. Renewable energy integration in power grids. /publications/2015/Apr/Renewable-energy-integration- in-power-grids. Online. [Accessed 13 September 2022]. Available from: https://www.irena.org/publications/2015/Apr/Renewable-energy-integration-in-power-grids 11. MARTINOT, Eric. Grid Integration of Renewable Energy: Flexibility, Innovation, and Experience. Annual Review of Environment and Resources. 2016. Vol. 41, no. 1, p. 223–251. DOI 10.1146/annurev- environ-110615-085725. 12. COCHRAN, Jaquelin, MILLER, Mackay, ZINAMAN, Owen, MILLIGAN, Michael, ARENT, Doug, PALMINTIER, Bryan, O’MALLEY, Mark, MUELLER, Simon, LANNOYE, Eamonn and TUOHY, Aidan. Flexibility in 21st century power systems. National Renewable Energy Lab.(NREL), Golden, CO (United States), 2014. 13. USAID NREL 2015. Renewable Energy Grid Integration: Scorecard and Roadmap. Online. [Accessed 18 May 2022]. Available from: https://cleanenergysolutions.org/sites/default/files/documents/08-re- grid-integration-scorecard-exercise-and-results-giz-usaid-ddw-acef-2015.pdf 14. HUANG, Yu Wen, KITTNER, Noah and KAMMEN, Daniel M. ASEAN grid flexibility: Preparedness for grid integration of renewable energy. Energy Policy. 2019. Vol. 128, p. 711–726. 15. GONZALEZ-SALAZAR, Miguel Angel, KIRSTEN, Trevor and PRCHLIK, Lubos. Review of the operational flexibility and emissions of gas- and coal-fired power plants in a future with growing renewables. Renewable and Sustainable Energy Reviews. 1 February 2018. Vol. 82, p. 1497–1513. DOI 10.1016/j.rser.2017.05.278. 16. KITTNER, Noah, GHEEWALA, Shabbir H. and KAMMEN, Daniel M. Energy return on investment (EROI) of mini-hydro and solar PV systems designed for a mini-grid. Renewable Energy. 1 December 2016. Vol. 99, p. 410–419. DOI 10.1016/j.renene.2016.07.023. 17. KITTNER, Noah, LILL, Felix and KAMMEN, Daniel M. Energy storage deployment and innovation for the clean energy transition. Nature Energy. 31 July 2017. Vol. 2, no. 9, p. 1–6. DOI 10.1038/nenergy.2017.125. 18. HAN, Xingning, CHEN, Xinyu, MCELROY, Michael B., LIAO, Shiwu, NIELSEN, Chris P. and WEN, Jinyu. Modeling formulation and validation for accelerated simulation and flexibility assessment on large scale power systems under higher renewable penetrations. Applied Energy. 1 March 2019. Vol. 237, p. 145–154. DOI 10.1016/j.apenergy.2018.12.047. 19. ANGULO PEÑA, Pavel Luis. Situación del cubrimiento de la demanda y pérdidas de energía en el año 2021. Taller Nacional de Eficiencia Energética y Fuentes Renovables de Energía. Universidad de Camagüey. April 2022. 20. GARCÍA, Antonio Martínez, LLANES, Miriam Vilaragut, FERNÁNDEZ, Miguel Castro, SANTOS, Ariel and FUENTEFRÍA, Yrjö Majanne. III. 4. Operación y control del Sistema Eléctrico Na-cional (SEN) de la República de Cuba. DESARROLLO DEL SISTEMA ENERGÉTICO CUBANO. 2022. P. 86. About the authors. Eduardo Sierra Gil, Electrical Engineer Department, University of Camagüey, Cuba, Director of Science, Technology and Innovation, Associated Professor, Ph.D. Sami Repo, Electrical Engineer, Faculty of Information Technology and Communication Sciences, Tampere University, Finland, Associated Professor, Ph.D. Jyrki Luukkanen, Finland Futures Research Centre, University of Turku, Finland, Senior Advisor, Adjunct Professor, Ph.D. Frank Grau Merconchini, Electrical Engineer, Faculty of Electrical Engineering, University of Oriente, Cuba, Dean of Electrical Engeneering Faculty, Adjunct Professor, MSc. Irina Laamanen, Electrical Engineer, Faculty of Information Technology and Communication Sciences, Tampere University, Finland, Doctoral Student, MSc. 1 LAS OSCILACIONES DE POTENCIA Y SUS RETOS A LOS RELÉS DE DISTANCIA MÁS UTILIZADOS EN CUBA. MSc. Osmel Pérez Baluja1, Dr. Orlys Ernesto Torres Breffe1 1Universidad Tecnológica de la Habana, La Habana Cuba 1e-mail: operezb@electrica.cujae.edu.cu RESUMEN Actualmente no se conocen las principales afectaciones que introducen las oscilaciones de potencia en los relés de distancia más utilizados en el Sistema Eléctrico de Potencia (SEP) de Cuba. Este trabajo aborda las principales características de las oscilaciones de potencia en los (SSEEPP) y su impacto sobre el correcto funcionamiento de los relés de distancia (21/21N Código ANSI) más empleados en el (SEP) cubano, para lo cual se acude a la simulación matemática. Se analizan los principales métodos de bloqueo y desbloqueo de los relés de protección (21/21N). En las simulaciones se confirmó que el método de bloqueo contra oscilaciones es efectivo en todas las tecnologías analizadas (Relés de distancia Siemens, MICOM y NR) con las particularidades de cada fabricante. Por otro lado, se observó que los métodos de desbloqueo de cada uno de los relés poseen dificultades cuando se presenta un cortocircuito simétrico durante una oscilación de potencia. PALABRAS CLAVES: Oscilación de Potencia, Relé de Distancia, Bloqueo contra oscilaciones. POWER SWING AND THEIR CHALLENGES TO TYPICAL DISTANCE RELAYS IN CUBA. ABSTRACT Currently, the main effects introduced by power oscillations in the most used distance relays in the Electric Power System (SEP) of Cuba are not known. This work deals with the main characteristics of the power oscillations in the (SSEEPP) and its impact on the correct operation of the distance relays (21/21N ANSI Code) most used in the Cuban (SEP), for which we turn to the mathematical simulation. The main blocking and unblocking methods of protection relays (21/21N) are analysed. In the simulations it was confirmed that the oscillation blocking method is effective in all the analyzed technologies (Siemens, MICOM and NR distance relays) with the particularities of each manufacturer. On the other hand, it was observed that the unlocking methods of each of the relays have difficulties when a symmetrical short circuit occurs during a power oscillation. KEY WORDS: Power Oscillation, Distance Relay, Blocking against oscillations. 1. INTRODUCCIÓN Las fallas de los Sistemas Eléctricos de Potencia (SEP) , las aperturas y cierres de líneas, las pérdidas e incrementos de grandes grupos de generación resultan en cambios muy rápidos de potencia eléctrica en los que se conserva constante la potencia mecánica de los generadores [1, 2]. Esto provoca que se produzcan oscilaciones de potencia tan severas como la magnitud de la perturbación. Si la perturbación es pequeña y los equipos de control (AVR, PSS, FACTS y otros) responden de manera adecuada, el sistema regresa a un nuevo punto de equilibrio y la oscilación de potencia se considera estable [3–5]. Las perturbaciones más fuertes pueden por otro lado provocar grandes fluctuaciones de potencia asociadas a grandes separaciones de los ángulos de los rotores de los generadores, provocando pérdidas de sincronismos conocidas como oscilaciones inestables de potencia [6]. 2 Cuando ocurren las perturbaciones antes descritas, en los generadores se producen oscilaciones de la potencia activa que se manifiestan en cambios periódicos de las amplitudes de las corrientes y tensiones en las líneas de transmisión. Es importante destacar que los cambios en las magnitudes de tensión y corriente ocurren aproximadamente iguales en las tres fases, por esta razón las oscilaciones de potencia se consideran fenómenos balanceados. Atendiendo a las consideraciones anteriores se hace necesario entender el concepto de centro eléctrico de oscilación del sistema o tensión cero, que no es más que el punto o los puntos del sistema eléctrico (equivalente de 2 fuentes) donde la tensión se hace cero durante una oscilación de potencia y el ángulo entre los sistemas es θ= 180°[5, 7]. Los cambios de tensión y corriente debidos a oscilaciones de potencia dan lugar a que las protecciones de distancia (21/21N del código ANSI), incluidas las de algunas líneas no afectadas por la falla, vean, durante un cierto tiempo, impedancias bajas (similares a las de una falla trifásica) que pueden entrar en sus características de disparo[1, 8]. La operación de relés de protección de distancia en líneas sanas puede hacer que el sistema sea aún más débil, aumentando la gravedad de la perturbación. Los relés de distancia deben ser inhibidos temporalmente durante oscilaciones estables para prevenir la separación innecesaria del sistema. Es decir, durante las oscilaciones los relés de distancias pueden operar incorrectamente al estimar las oscilaciones como cortocircuitos y es necesario bloquearlos durante las oscilaciones, para lo cual, es necesario detectar que es una oscilación mucho antes de que el relé opere incorrectamente. En los relés numéricos modernos está disponible una función de Bloqueo de Oscilación de Potencia (“Power Swing Blocking” o PSB) [9, 10] que incorpora criterios al relé para discernir las oscilaciones de potencia de los cortocircuitos, con el fin de efectuar el bloqueo de las protecciones de distancia y evitar que operen incorrectamente en el caso de oscilaciones. El método más común implementado en los relés para detectar oscilaciones utiliza las mediciones de tasa de cambio del vector impedancia de secuencia positiva. Este método está basado en el hecho de que la impedancia estimada por el relé cambia lentamente durante las oscilaciones, mientras que para cortocircuitos cambia de forma instantánea[1], [4–7]. Para estas aplicaciones se deben ejecutar estudios de estabilidad extensos en que se consideren distintos panoramas de carga‐generación para diversas fallas para determinar la tasa de cambio de la impedancia más rápida que se pueda presentar. La labor es sumamente costosa y nunca se puede tener la certeza de que se consideraron todos los casos. Las perturbaciones severas pueden causar separaciones angulares entre grupos de generadores que ocasionen la pérdida de sincronismo entre ellos. En el caso de la oscilación de potencia inestable el disparo no necesariamente debe darse sobre la línea protegida por el relé, lo primordial es que la separación entre los sistemas que han perdido sincronismo se realice sobre una línea o conjunto de líneas que divida al sistema en islas y logre que haya un balance carga‐generación en cada porción del sistema resultante. En algunos casos la separación deberá ir acompañada por desprendimientos de carga y generación. La función de Disparo ante Pérdida de Sincronismo (“Out‐of‐Step Tripping” u OST) [9] identifica las condiciones para una posible pérdida de sincronismo y ejecuta la separación en lugares preestablecidos con el fin de mantener la estabilidad. Adicionalmente es necesario dotar a la protección con la capacidad de disparar cualquier cortocircuito que se produzca durante la oscilación de potencia por lo que se implementa la función desbloqueo de la protección, encontrada con el nombre de PSUB (del inglés Power System UnBlocking)[9, 11]. Para desbloquear la protección se utilizan normalmente algunos criterios basados en que las oscilaciones de potencia son fenómenos balanceados. Partiendo del criterio anterior, el PSUB desbloquea si durante una oscilación aparecen corrientes de secuencia cero o secuencia negativa que superen un valor ajustado. Otros métodos consideran que si durante la oscilación de potencia la corriente es muy elevada superior a un valor ajustado debe desbloquearse la protección. En el SEP cubano las protecciones de distancia constituyen la filosofía de protecciones más utilizadas en las líneas de transmisión (en la mayoría de los casos como función principal), por lo que la probabilidad de que el fenómeno de oscilaciones de potencia las afecte es alto. Los relés de protección más utilizados en Cuba que poseen la función de distancia son[9], [11–15]: • SIEMENS SIPROTEC 7SA6 • SIEMENS SIPROTEC 7SD5 • MiCOM ALSTOM P543, P544, P545, P546 3 • MiCOM P441/P442/P444 P44x/EN T/G75 • Nari-Relays Electric PCS-902 • Nari-Relays Electric PCS-931 Algunos de estos relés son protecciones diferenciales que poseen además la función de distancia, pero lo más común es encontrar relés de distancia protegiendo líneas de transmisión como función principal, dado a que pueden existir problemas de comunicación que imposibiliten el uso de la función deferencial de línea (87L del código ANSI). Cada uno de estos relés bloquea y desbloquea las oscilaciones de potencia de formas diferentes. El principal objetivo de esta investigación es demostrar de manera clara y concisa la existencia del ya conocido fenómeno de oscilaciones de potencia, y como este afecta a los relés de distancia; haciendo una crítica técnica de los métodos de bloqueo y desbloqueo contra oscilaciones de potencia que utilizan los relés de distancia más utilizados en el sistema eléctrico de Cuba. 2. HERRAMIENTAS DE ANÁLISIS Para la realización de este trabajo teórico experimental, basado en esquemas de líneas de transmisión típicas del SEN cubano, se evaluó el funcionamiento de los relés de protección con función de distancia (21/21N Código ANSI) más utilizados en Cuba. De forma general durante la ocurrencia de una oscilación de potencia, cualquier relé de protección de distancia que utilice el análisis de fasores a la frecuencia fundamental puede medir una impedancia que entra en sus zonas de medida y declarar una condición de falla de forma incorrecta. Lo anterior se puede analizar tomando el caso de una red simple formada por una línea de transmisión con áreas de generación en ambos extremos, como se ilustra en la figura 1. Figura 1: Sistema típico de transmisión con dos áreas de generación. La potencia activa que puede transmitirse entre estos dos sistemas puede describirse utilizando la Fem de las fuentes de los generadores (E1 y E2), el ángulo entre estas (𝛷), la impedancia de cada área de generación (Z1 y Z2) y la impedancia de la línea que une las áreas de generación (ZL), en la ecuación (1): 𝑃 = 𝐸1−𝐸2 𝑍1+𝑍L+𝑍2 · sin 𝛷 (1) La potencia máxima que se puede transferir será cuando el valor del ángulo entre las fuentes (𝛷) este cercano a los 90 ˚. Considerando la información aportada en la figura 1, la corriente IL en la barra A es calculada como se muestra en la ecuación (2): 4 𝐼L = 𝐸1−𝐸2 𝑍1+𝑍L+𝑍2 (2) Es típico que la dirección de la corriente se mantenga durante la oscilación de potencia, solo las tensiones cambiarán entre ellas. Por lo tanto, la impedancia medida por un relé de distancia en la barra A (ZA) será igual a como se muestra en la ecuación (3): 𝑍A = 𝑉A 𝐼L = 𝐸1 − 𝐼L ·𝑍1 𝐼L = 𝐸1 𝐼L − 𝑍1 (3) Luego sustituyendo la ecuación (1), en la ecuación (2), se obtiene la ecuación (4): 𝑍A = 𝐸1(𝑍1+𝑍L+𝑍2) 𝐸1-𝐸2 − 𝑍1 (4) De los conocimientos de sistemas eléctricos se deriva que para que la corriente IL fluya en la dirección mostrada en la Figura 1, E1 debe tener un adelanto de fase con respecto a E2 y que la proporción entre las magnitudes de las tensiones es una constante k |𝐸1| |𝐸2| = 𝑘 .Analizando el ángulo entre los dos sistemas de generación (𝛷) se puede prever las posibles trayectorias de la impedancia cuando se presenta una oscilación de potencia y 𝛷 comienza a experimentar cambios cíclicos (Figura 2). La trayectoria de la impedancia medida en el relé durante la oscilación de potencia cuando el ángulo entre las dos fuentes de tensión cambia, corresponde a una línea recta (k=1) que interseca el segmento A B en el punto intermedio (Figura 2 (a)). Figura 2: Trayectoria de la impedancia durante una oscilación de potencia [6]. 5 El ángulo entre los dos segmentos que conecta P a los puntos A y B es igual al ángulo 𝛷. Cuando el ángulo 𝛷 alcanza un valor de 180º, la impedancia es precisamente la ubicación del centro eléctrico. Se puede apreciar que la trayectoria de la impedancia, medida por la protección, puede entrar en la zona 1 de la protección y corresponder con una falla en la línea. En situaciones para las que k ≠1, se puede demostrar que la trayectoria de la impedancia corresponde a círculos (Figura 2 (b)). 3. RESULTADOS Y DISCUSIONES Para entender como el fenómeno de las oscilaciones de potencia afectan las protecciones de distancia instaladas en las líneas de transmisión del SEP de la República de Cuba, se ha modelado la configuración mostrada en la figura 3; que representa una configuración típica en el lazo de La Habana y otras partes del sistema de transmisión a 110 kV y 220 kV. Figura 3: Configuración de líneas de transmisión típica del SEP cubano en ambiente de DIgSILENT. En el modelo se han tenido en cuenta los datos reales de cada uno de los elementos mostrados. A través de la herramienta Network Reduction del propio software DIgSILENT y teniendo toda la modelación del SEN de Cuba, se obtuvieron del modelo actual los valores de potencia de cortocircuito en cada uno de los sistemas equivalentes (en las condiciones de mayor generación). También se obtuvo a través de esta reducción los valores de resistencia, reactancia y susceptancia en ambos puntos de interconexión. Además, las líneas de transmisión han sido modeladas con la geometría de torre que más se repite, así como también se han modelado los conductores reales. Se modelaron en esta investigación cortocircuitos a lo largo de la línea 2 que une la barra 1 y barra 2, para analizar el comportamiento de la impedancia medida por los relés de distancia en la línea paralela no fallada (línea 1) una vez se despeje el cortocircuito. En algunos casos de ubicación de la falla (cortocircuitos por debajo del 20 % y por encima del 80 % de la longitud de la línea) el disparo de la línea no fue simultáneo en ambos interruptores, dado que la zona dos ajustada en los relés posee un tiempo de operación mayor al disparo instantáneo de la zona 1 y no existen esquemas de teleprotección, esta condición agravó el comportamiento de la impedancia medida por los relés de distancia en la línea 1 una vez despejado el cortocircuito. En todos los casos se observó la aparición de una oscilación de potencia luego de que la línea dos fuese desconectada. El caso más crítico se presentó cuando la transferencia por ambas líneas era cercana al 90 % de su capacidad y ocurrió un cortocircuito en la línea 2 al 15 % de su longitud (Ver figura 3). En la figura 4, se puede observar el comportamiento de la impedancia medida por el relé de distancia de la línea 1 instalado en la barra 1 luego de esta falla. 6 Figura 4: Comportamiento de la impedancia medida por el relé de distancia instalado de la línea 1 (barra 1), (a) a mayor escala, (b) a menor escala. La oscilación que se presenta es estable ya que comienza a disminuir su amplitud gradualmente (Figura 4 (a)). Lo anterior es favorable para la estabilidad del sistema, pero en esta oscilación estable la impedancia en ocasiones entra a la zona 3 de operación del relé de distancia de la línea no fallada (Figura 4 (b)), y si permanece dentro de la zona 3 un tiempo superior al tiempo de operación existirá un disparo innecesario que agravaría las condiciones del sistema eléctrico. En este caso el mayor tiempo de la impedancia dentro de la zona 3 fue de 2.8 segundos, lo que quiere decir que si la zona 3 de operación posee un tiempo de ajuste menor a ese valor la protección disparará, sino se tiene habilitada la función PSB [10, 11, 13]. Si en las condiciones antes descritas se dispara la línea sana (línea 1) debido a la oscilación de potencia, el sistema podría colapsar dado que ya se encuentra en condiciones críticas. Lo anterior podría ser el comienzo de una caída del sistema (Blackout) lo cual es una de las condiciones más indeseadas de cualquier compañía eléctrica. Con la función PSB se garantiza que, aunque la impedancia entre a la zona de operación, el relé no opere dado que previamente ha declarado que el comportamiento de la impedancia corresponde al de una oscilación de potencia. Lo anterior se logra observando la tasa de cambio de la impedancia durante el fenómeno, y se detecta con la instalación de zonas externa que detecten la variación de la impedancia. En la figura 5, se puede observar esta solución para algunos de los relés de las tecnologías mencionadas [9, 11, 12], mayormente la utiliza Siemens y los relés Micom de la serie P44x. Es importante destacar que las zonas cuadrilaterales son las que encuentran mayor aplicación en las líneas de transmisión debido a la existencia de cortocircuitos con resistencias de falla[16, 17], en este tipo de aplicación las oscilaciones de potencia impactan más las zonas de protección (Figura 5). 7 Figura 5: Zonas externas de detección de oscilaciones de potencia, (a) características Mho, (b) característica cuadrilateral. El uso de dos zonas externas garantiza la detección de la oscilación de potencia y previamente el bloqueo de la protección, por lo general el relé detecta el paso de la impedancia por la zona más externa y comienza a contar un tiempo que de estar por encima de un valor pre-ajustado se declara una oscilación de potencia. Otros tipos de relés utilizan una zona de protección adicional a la zona 3 para detectar las oscilaciones de potencia [13, 14]. El principal problema se presenta cuando luego de declarada una oscilación de potencia y bloqueadas las zonas de operación ocurre un cortocircuito. Para lograr operar por fallas durante oscilaciones de potencia se permite el desbloqueo del relé durante estas, mediante la función PSUB (del inglés Power System UnBlocking). Por lo general el desbloqueo de la protección durante una oscilación es permitido si se cumplen cualquiera de los siguientes criterios[9], [12–14]: • La intensidad residual IN supera un umbral. Esto permite el disparo para fallas a tierra que puedan presentarse durante una oscilación de potencia. • La intensidad de secuencia negativa I2 supera un umbral. Esto permite el disparo para fallas bifásicas que se presenten durante la oscilación. • La intensidad de fase supera un umbral. Esto permite el disparo para fallas trifásicas que puedan presentarse durante la oscilación de potencia. Durante las simulaciones luego de que la protección bloqueo las zonas de protección debido a la existencia de una oscilación, se simularon cortocircuitos monofásicos, bifásicos y trifásicos para observar el desempeño del desbloqueo en todos los tipos de relés que se utilizan en las líneas de transmisión cubanas. En el caso de los cortocircuitos monofásicos y bifásicos el desbloqueo fue correcto en todas las posiciones de falla a lo largo de la línea, pero para el caso de fallas trifásicas en ocasiones la protección no desbloqueo correctamente dado que el valor de la corriente de cortocircuito no excedió el valor umbral preajustado. Los cortocircuitos trifásicos en líneas de transmisión son bastante balanceados y esto dificulta su detección, pues estos son similares a las oscilaciones que son balanceadas y además generan altas corrientes y bajas tensiones. Muchos ingenieros [10, 18], a la hora de realizar los ajustes de los relés, calculan las máximas corrientes generadas por una oscilación y así establecen el ajuste de intensidad de fase que debe superarse para declarar una condición de cortocircuito durante una oscilación de potencia. Esto último no permitiría detectar cortocircuitos trifásicos que generen pequeñas corrientes, por lo que se pierde sensibilidad del relé para este tipo de fallas, como sucedió en las simulaciones realizadas en este estudio. Existen algunos métodos [1], para diferenciar entre una oscilación y un cortocircuito trifásico prestando atención al comportamiento de la tensión. La principal idea es que las oscilaciones suelen generar que las tensiones bajen y suban, oscilando sus magnitudes de forma profunda, mientras que, en los cortocircuitos trifásicos, las tensiones bajan, pero permanecen abajo mientras dure el cortocircuito. Todos los relés de protección no poseen estas prestaciones y en 8 muchas ocasiones será necesario diseñarla en la lógica del relé por el proteccionista y no sería 100 % efectiva o tecnológicamente posible. Tantos detalles a la hora del ajuste complejizan el trabajo de los proteccionistas en el terreno, y en ocasiones pueden obviar estas cuestiones. Por esta razón debe implementarse una herramienta que analice la solución antes expuesta y otros criterios. Una red neuronal artificial, parece ser la mejor solución a este problemas, dado que pueden entrenarse para discernir entre una oscilación o un cortocircuito (simétrico o asimétrico) atendiendo a los criterios expuestos en este trabajo[1, 12, 13]. Todos los relés [9], [12–14], presentan dificultades cuando las oscilaciones de potencia se presentan en la línea que protegen. En el caso del bloqueo (PSB) es importante analizar las oscilaciones más críticas a presentarse y las posibles trayectorias que la impedancia medida por el relé de protección de distancia realizará. Con relación a la aleatoriedad del fenómeno, se realizaron simulaciones en diferentes escenarios para una misma contingencia. Se insertó la transferencia y el sentido de esta en las líneas de transmisión, y en cada caso la oscilación de potencia fue diferente y por consiguiente la trayectoria de la impedancia medida por los relés de distancia igualmente cambió. También se realizaron contingencias diferentes a la de disparar una línea paralela fallada, pues además se simuló, una falla permanente en el transformador conectado entre la Barra 1 y Barra 1A lo cual derivó en la desconexión de la subestación; en estas condiciones las oscilaciones presentadas fueron críticas para la zona 3 de operación, evidenciándose las múltiples formas en las que se pueden presentar las oscilaciones de potencia. En todas las simulaciones se constató que cada cambio en las condiciones iniciales del sistema, repercute en una oscilación de potencia diferente. También el tipo de contingencia y el tipo de falla cambia el fenómeno por completo. En tales condiciones los relés de protección de distancia instalados en las líneas de transmisión del SEP cubano pueden operar incorrectamente cuando se presenten oscilaciones de potencia, dado a que tantos cambios y posibilidades de ocurrencia del fenómeno pueden ser obviados a la hora de realizar los ajustes de las protecciones de distancia. 4. CONCLUSIONES Según los datos recopilados en las simulaciones de este trabajo y la interpretación científico técnica de los fenómenos observados se puede concluir que: • Las oscilaciones de potencia constituyen un fenómeno de un gran porciento de ocurrencia en los SEP. • Las oscilaciones de potencia tienen un alto grado de aleatoriedad lo cual complejiza la consideración del fenómeno a la hora de ajustar las protecciones de distancia. • Los relés de protección más utilizados en el SEP cubano que poseen habilitada la función de distancia están en riesgo de operar incorrectamente al presentarse una oscilación de potencia, dado a la no consideración del fenómeno en los ajustes del PSB o la no habilitación del mismo. • Los relés de distancia de las líneas de transmisión cubana con características cuadrilaterales son más probables a disparar por oscilaciones de potencia. • El bloqueo PSB en la mayoría de los relés analizados resulta efectivo siempre y cuando se halla ajustado adecuadamente. • El correcto ajuste del PSB requiere la consideración de todas las posibles oscilaciones que pueden ocurrir, para así obtener la tasa de cambio de la impedancia más crítica, esto último constituye un trabajo bastante extenso y complicado en la práctica. • El desbloqueo PSUB resulta efectivo para fallas asimétricas en todos los relés analizados. • El desbloqueo PSUB en ocasiones falla cuando se presentan cortocircuitos trifásicos poco desequilibrados, y no se dispararía el cortocircuito. • Los métodos de desbloqueo PSUB presentan dificultades aún no resueltas en la práctica por los fabricantes. • Una red neuronal artificial para desbloquear la protección durante la ocurrencia de cualquier tipo de cortocircuito durante una oscilación de potencia parece ser la solución más efectiva a los problemas existentes con el desbloqueo, que facilitaría el trabajo de los proteccionistas en este sentido, ahorrándoles tiempo y trabajo. 9 RECONOCIMIENTOS Los autores desean agradecer a la Empresa Eléctrica de La Habana y la Unión Eléctrica de Cuba por su apoyo en la obtención de información para la realización de este trabajo. REFERENCIAS [1] ANDERSON P. ``Power System protection´´. IEEE Press. New York, 1999. ISBN: 9780470545591. Disponible en: https://ieeexplore.ieee.org/book/5264125 [2] RAMÍREZ Castaño, S. ``Protección de sistemas eléctricos´´. Universidad Nacional de Colombia-Sede Manizales. 2003. [Consultado 26 de junio de 2020]. [En línea]. Disponible en: https://repositorio.unal.edu.co/handle/unal/7094 [3] HOROWITZ S. H. ``POWER SYSTEM RELAYING´´, 3ra Ed. USA: Resear ch Studies Pr ess, 2008. ISBN: 978-0-470-75878-6. Disponible en: https://www.wiley.com/en- us/Power+System+Relaying%2C+3rd+Edition-p-9780470758786 [4] MACHOWSKI J. ``NEW POWER SWING BLOCKING METHOD´´. Sixth International Conference on Developments in Power System Protection (Conf. Publ. No. 434). Alemania, 1998, p. 4. Disponible en: https://ieeexplore.ieee.org/document/608184/ [5] ANGULO Umaña, Julio. ``Estudio de oscilaciones de potencia en el Sistema Eléctrico Nacional´´. ResearchGate. julio 2015. [Consultado 11 de mayo de 2020]. Disponible en: https://www.researchgate.net/profile/Julio-Umana- Angulo/publication/279961290_Estudio_de_oscilaciones_de_potencia_en_el_Sistema_Electrico_Nacional/lin ks/559ff83708ae032ef0544dce/Estudio-de-oscilaciones-de-potencia-en-el-Sistema-Electrico- Nacional.pdf?origin=publication_detail [6] IEEE PSRC WG D6. ``Power swing and out-of-step considerations on transmission lines´´. yumpu.com. [Consultado 28 de julio de 2021]. Disponible en: https://www.yumpu.com/en/document/read/8360858/power- swing-and-out-of-step-considerations-on-transmission-lines [7] Schneider Electric. ``Protección de Distancia´´. Guía de aplicación. España, 2005. Disponible en: https://www.se.com/ww/en/product-subcategory/4635-distance-protection/ [8] GALLEGO C., J. Urresty y J. Gers. ``Analysis of phenomena, that affect the distance protection´´. IEE. ago. 2008, p. 1-6. Disponible en: https://www.neplan.ch/wp-content/uploads/2015/01/Distance-Proteccion-IEEE- 2008.pdf [9] Areva. ``Technical Manual MiCOM P44x Numerical Distance Protection´´. junio de 2013. Disponible en: https://www.rza.by/upload/iblock/da5/P44x_EN_T_I95_v.C7-D4-D5-D6.pdf [10] SELINC.``SEL-321 Relé de distancia de fase y tierra´´ [Consultado 23 de junio de 2020]. Disponible en: https://selinc.com/es/products/321/ [11] Siemens. ``Protección de distancia 7SA6´´. 2006. Disponible en: https://support.industry.siemens.com/cs/document/109743386/siprotec-4-7sa6-protecci%C3%B3n-de- distancia?dti=0&lc=es-MX [12] SIPROTEC. ``Manual , Protección diferencial de línea con protección de distancia 7SD5´´. SIEMENS. Disponible en: https://assets.new.siemens.com/siemens/assets/api/uuid:9d2517ec-4fcb-4445-a105- 21f52f97927d/7sd5xxmanuala1v040005es.pdf [13] ALSTOM. `` Protección Diferencial de Intensidad´´. MiCOM P543/P544/P545/546 (Manual técnico). 2010. Disponible en: https://download.schneider- electric.com/files?p_enDocType=User+guide&p_File_Name=P54x_ES_M_J74.pdf&p_Doc_Ref=P54x_ES_ M_J74 [14] NR Electric. ``Manual Relé de Distancia PCS-902S´´. China, 2019. Disponible en: https://www.directindustry.es/prod/nr-electric/product-223684-2335825.html [15] NR Electric. ``PCS-931 Line Differential Relay Instruction Manual´´. Disponible en: https://kupdf.net/download/pcs-931-x-instruction-manual-en_58ca8222dc0d60d362339030_pdf. 10 [16] SEGHIR Samira, et al. ``Fault Resistance Effect on Distance Protection in High Voltage Transmission Lines´´. ResearchGate. [Consultado 7 de mayo de 2020]. Disponible en: https://www.researchgate.net/publication/326957328_Fault_Resistance_Effect_on_Distance_Protection_in_H igh_Voltage_Transmission_Lines [17] BALUJA P., O. y O. Torres Breffe. ``La protección de distancia y las condiciones de prefalla´´. Revista Ingeniería Energética, vol. 40, n. 2, p. 9, 2019. Disponible en : http://scielo.sld.cu/scielo.php?script=sci_abstract&pid=S1815-59012019000200103 [18] apinar0401, ``Ajuste y coordinacion de protecciones de distancia y sobrecorriente p…´´, 12:46:56 UTC. Accedido: 7 de mayo de 2020. [En línea]. Disponible en: https://es.slideshare.net/apinar0401/ajuste-y- coordinacion-de-protecciones-de-distancia-y-sobrecorriente-para-lineas-de-transmision DATOS DE LOS AUTORES MSc. Osmel Pérez Baluja. Trabaja en el Centro de Investigaciones y Pruebas Electroenergéticas perteneciente a la Universidad Tecnológica de la Habana, donde realiza la función de profesor e investigador. Posee la categoría de profesor instructor. Dr. Orlys Ernesto Torres Breffe. Trabaja en el Centro de Investigaciones y Pruebas Electroenergéticas perteneciente a la Universidad Tecnológica de la Habana, donde realiza la función de profesor e investigador. Posee la categoría de profesor Titular. CONVERTIDORES ELECTRÓNICOS DE POTENCIA DE LOS SISTEMAS FOTOVOLTAICOS AUTÓNOMOS DE 300 W INSTALADOS EN CUBA Mercedes Canasí Piñeiro 1, Eduardo Rodríguez Álvarez 1, Daniel Ravelo Artíles 1, Yandry Rodríguez Domínguez 1, Raynel Díaz Santos 1 1Facultad de Ingeniería Eléctrica, Universidad Tecnológica de la Habana José Antonio Echevarría CUJAE 1e-mail: mcanasi@electrica.cujae.edu.cu, edu@electrica.cujae.edu.cu, danielrae@electrica.cujae.edu.cu, yandry@electrica.cujae.edu.cu, raynelds@electrica.cujae.edu.cu RESUMEN En el “Plan de Desarrollo y Uso Eficiente de la Energía hasta el 2030” se encuentra la utilización de las fuentes renovables de energía en Cuba. Un elemento importante dentro de este plan consiste en la explotación de los sistemas fotovoltaicos autónomos (SFVA) para el suministro de energía eléctrica a las viviendas que se encuentran muy alejadas del sistema electroenergético nacional. En el presente trabajo se realiza un análisis de las topologías de los convertidores electrónicos de potencia que conforman los SFVA de 300 W, con el objetivo de caracterizar el comportamiento de los mismos. Se estudian en el trabajo tanto el regulador de carga con seguimiento del punto de máxima potencia como la etapa inversora desde la simulación y las mediciones en puntos de interés de la instalación. Los resultados obtenidos de forma experimental permiten afirmar que el regulador de carga está compuesto en todos los casos por un convertidor reductor sincrónico que maneja el control del punto de máxima potencia en el proceso de carga de la batería. Un convertidor CD-CD tipo Push-Pull junto a un convertidor tipo puente completo monofásico con modulación sinusoidal se encargan de suministrar la corriente alterna a la salida. PALABRAS CLAVES: Sistemas Fotovoltaicos Autónomos, Convertidores Electrónicos de Potencia. POWER ELECTRONIC CONVERTERS OF 300 W STAND-ALONE PHOTOVOLTAIC SYSTEMS INSTALLED IN CUBA ABSTRACT The "Plan for the Development and Efficient Use of Energy until 2030" includes the use of renewable energy sources in Cuba. An important element within this plan consists of the exploitation of autonomous photovoltaic systems (SFVA) for the supply of electric energy to houses that are far away from the national electro-energetic system. In the present work, an analysis of the topologies of the power electronic converters that make up the SFVA in 300 W systems is carried out, with the objective of characterizing their behavior. Both the charge regulator with maximum power point tracking and the inverter stage are studied from the simulation and measurements at points of interest of the installation. The results obtained experimentally allow us to affirm that the charge regulator is composed in all cases by a synchronous step- down converter that manages the control of the maximum power point in the battery charging process. A Push-Pull DC-DC converter and a single-phase full-bridge converter with sinusoidal modulation are responsible for supplying the alternating current at the output. KEY WORDS: Stand-Alone Photovoltaic Systems, Electronic Power Converters 1. INTRODUCCIÓN Con el transcurso del tiempo, las emisiones de gases de efecto invernadero (GEI) hacia la atmósfera se han incrementado considerablemente. En la actualidad, la concentración de CO2 en la atmósfera ha aumentado aproximadamente en un 145 %, con respecto a los niveles existentes antes de la Revolución Industrial. Con el acelerado crecimiento de la población mundial y de las economías emergentes, se predice que, para el año 2050, el consumo global de recursos naturales será de hasta 3 veces mayor que el actual [1], lo cual influirá de manera notable en el cambio climático. Estudios realizados han debelado que el aumento de la temperatura en el planeta coincide con el inicio de la quema de carbón, petróleo y gas natural de manera masiva. Todo esto también ha influido en la acumulación de CO2 en la atmósfera, viéndose reflejado de manera significativa en el aumento de la temperatura de los fondos oceánico, el incremento del nivel del mar por la dilatación térmica del agua, así como la disminución de los glaciales y de la superficie de hielo ártico [2–6]. Dentro de las tecnologías desarrolladas para mitigar estos efectos se encuentra el aprovechamiento de las fuentes renovables de energía (FRE), a partir de convertidores electrónicos de potencia que permiten almacenar y distribuir la energía proveniente del sol. Dichos sistemas se pueden clasificar en autónomos, conectados a la red e híbridos, siendo estos primeros el objeto de estudio del presente trabajo. En la ¡Error! No se encuentra el origen de la referencia. se muestra la estructura en bloque de un sistema fotovoltaico autónomo, en el cual queda representados los elementos principales que lo conforman: el arreglo de paneles fotovoltaicos (PV array), el controlador de carga (charge controller) y el inversor (inverter); destinados al manejo y conversión de la energía proveniente de los paneles, las baterías (battery) y las cargas. Las fuentes renovables aportan alrededor del 4,5 % del total de la generación en Cuba, pero se estima que sean las de mayor crecimiento en los años venideros, dado que implica para la nación mayor soberanía e independencia energética. Igualmente se avanza en la electrificación de las zonas rurales mediante sistemas fotovoltaicos autónomos, que entre los instalados y en proyección beneficiarían a miles de viviendas en todo el país [7]. Figura 1: Diagrama en bloques de un sistema fotovoltaico autónomo [8]. 2. CARACTERÍSTICAS DE LOS SISTEMAS FOTOVOLTAICOS AUTÓNOMOS INSTALADOS La Figura 2: Convertidores Electrónicos de Potencia utilizados. Figura 2 muestra la estructura de los sistemas fotovoltaicos y los correspondientes convertidores utilizados. Un convertidor de Corriente Directa a Corriente Directa (CD-CD) se encarga del proceso de carga de las dos baterías de 12 V, controlado por un algoritmo de seguimiento del punto de máxima potencia (MPPT por sus siglas en inglés) de los paneles solares. La etapa inversora está constituida por un convertidor CD- CD aislado con excitación bidireccional del núcleo Push-Pull y un inversor monofásico puente completo. El convertidor Push-Pull permite, a partir del nivel de tensión proporcionado por las baterías, obtener la tensión necesaria a la entrada del inversor la cual es de magnitud similar a la deseada a la salida del sistema; a este punto se le denominó bus de CD (VCD). Es de señalar que de no detectarse baterías conectadas no se generan señales de control y por consiguiente no se suministra energía a las cargas. Figura 2: Convertidores Electrónicos de Potencia utilizados. El convertidor Buck Sincrónico, cuyo esquema se muestra en la Figura 3, adecua el nivel de tensión a la salida del panel fotovoltaico VP al requerido por las baterías VB, garantizando una elevada eficiencia dado por su propia estructura como por la estrategia de control MPPT utilizada. Este tipo de convertidor utiliza un MOSFET (Q02) en lugar de un diodo Schottky dado que su caída en conducción es muy pequeña e inferior a la tensión umbral típica de un diodo de potencia. Los MOSFET Q01 y Q02 trabajan de forma complementaria. No obstante, dada la necesidad de incluir un tiempo muerto en el funcionamiento del convertidor, la corriente del inductor fluiría a través del diodo propio del MOSFET Q02 durante este tiempo, lo que afecta la eficiencia. El diodo Schottky D01 se incorpora para minimizar las pérdidas durante el tiempo muerto, o sea, cuando ambos transistores Q01 y Q02 están apagados; ya que su caída en conducción es considerablemente menor a la del diodo del MOSFET [9]. Los transistores Q03 y Q04 se utilizan para proteger el convertidor de conexión con polaridad invertida del panel y las baterías respectivamente. El control de este convertidor con la implementación del seguimiento del punto de máxima potencia se lleva a cabo por diferentes procesadores de la familia de microcontroladores STM32F que incorporan un núcleo de alto rendimiento ARM Cortex-M3 de 32 bits. Figura 3: Esquema del convertidor Buck Sincrónico. El convertidor Push-Pull queda conformado por un transformador de ferrita elevador con relación de vueltas 𝑁2 𝑁1 y un rectificador onda completa tipo puente y se prescinde de un filtro inductivo a la salida, todo lo cual se observa en la Figura 4. El ciclo útil de trabajo D determina la tensión de salida VCD [8, 9] y se puede predecir a partir de las mediciones realizadas de: 𝑉𝐶𝐷 = 210 𝑉(1) 𝑁2 𝑁1 = 9,1(2) El ciclo útil D queda determinado según (3) como: 𝐷 = 𝑉𝐶𝐷 2∙𝑉𝐵∙ 𝑁2 𝑁1 = 210 2∙24∙9,1 = 0,48(3) Como se observa, se trabaja muy cercano al ciclo útil máximo permitido para esta topología de convertidor, teniendo en cuenta el tiempo muerto requerido entre las conmutaciones de los semiconductores de potencia. Este resultado confirma el uso solamente del filtro capacitivo E2. Figura 4: Convertidores de la etapa inversora. El circuito integrado SG3525 (ver Figura 2) es un regulador PWM que provee dos salidas en configuración totem-pole, que pueden ser usadas para controlar el ciclo útil en convertidores CD-CD. Es un circuito monolítico que dispone de una tensión de referencia para uso interno y externo, arranque suave, control del tiempo muerto, protección por baja tensión, terminal que permite inhibir las salidas y el arranque suave y control del ciclo útil a través de un amplificador de error. La frecuencia de trabajo se define mediante resistor y condensador externo. En esta aplicación se utilizan valores que fijan la frecuencia a 40 kHz. En el control del inversor monofásico se utilizan circuitos integrados también de propósito específico que implementan estrategias de modulación sinusoidal a alta frecuencia (ver Figura 2), utilizando algunos componentes que definen sus características de funcionamiento. 3. RESULTADOS DE LAS MEDICIONES Para la obtención de las mediciones en los diferentes componentes y terminales de los convertidores se utiliza un osciloscopio de almacenamiento digital de la serie TPS2024B del fabricante Tektronix. Cuando el panel comienza a generar, o en caso de una perturbación en su punto de trabajo, el algoritmo del regulador de carga ejecuta una secuencia para buscar el punto de máxima potencia. Se incrementa paulatinamente el ciclo útil del transistor Q01 y, por tanto, aumenta la corriente extraída del panel, de modo que el punto de trabajo se mueve por la curva característica de Potencia contra Tensión. El control MPPT permite buscar el punto de máxima potencia de los paneles solares. Para realizar esta tarea en cada período de muestreo se mide la tensión y corriente del panel, calculando con estos valores la potencia que entrega. Básicamente el control se basa en la comparación de la potencia y la tensión con el valor medido en la iteración anterior respectivamente. La Figura 5 muestra un diagrama en bloques del control MPPT. Figura 5: Diagrama en Bloques del Algoritmo MPPT. En la Figura 6 se observa el proceso de búsqueda del punto de máxima potencia a partir de tres mediciones realizadas, donde se observa el incremento del ciclo útil de Q01 mientras que en el avance de este proceso se mantiene constante el ciclo útil de Q02. La última imagen de la secuencia muestra las señales de control de ambos transistores, una vez establecido el punto de máxima potencia. Figura 6: Señales de control de Q01 y Q02 durante el proceso de búsqueda del punto de máxima potencia. En la Figura 7a se muestran las señales entre ¨gate-source¨ aplicadas a los transistores S1 y S2 del convertidor Push-Pull. Como se observa trabajan en contra fase, con un ciclo útil similar al calculado y frecuencia de conmutación alrededor de 40 kHz. Se puede apreciar el tiempo muerto entre las señales que impide que ambos semiconductores entren en conducción a la misma vez. En la Figura 7b se observa el comportamiento bidireccional de este convertidor. a) b) Figura 7: a) Señales de control de los transistores S1 y S2 b) Tensión a la entrada, Tensión en el primario y secundario del transformador y a la salida del Push-Pull. Las características de la modulación PWM sinusoidal implementada se observan en la Figura 8. En cada diagonal un transistor trabaja a la frecuencia de salida deseada de 60 Hz mientras el otro conmuta a una frecuencia de 23 kHz aproximadamente (Figura 8a). Este tipo de estrategia se conoce como modulación PWM híbrida [10]. Las señales mostradas en la Figura 8b se corresponden a la tensión de salida antes y después del filtro LC. Como resultado se obtiene una señal de alterna cuyo valor efectivo es 118 V a una frecuencia de 60 Hz. a) b) Figura 8: a) Señales de control de los transistores b) Tensión de salida del inversor. 4. SIMULACIONES REALIZADAS A continuación, se presentan los resultados obtenidos en la modelación y simulación del regulador de carga y la etapa inversora en el software MATLAB. Disponer de esta herramienta posibilita evaluar el comportamiento del sistema ante variaciones de la carga y para diferentes condiciones de trabajo de los paneles solares y las baterías. Se han utilizado los valores de resistencia del canal en conducción de los MOSFET (RDS(ON)) y de caída de tensión en sentido directo de los diodos (VF) declarados por el fabricante de las componentes. Los resultados obtenidos de la simulación del modelo del regulador de carga ante diferentes valores de irradiancia, en correspondencia con los datos reales del panel, demuestran lo significativo del uso de un algoritmo MPPT en lo que a eficiencia se refiere. En la Figura 9 y la Figura 10 se observan los valores de potencia entregada por el panel, los cuales coinciden con el punto de máxima potencia para cada condición (ver Figura 11). Figura 9: Modelo y simulación en MATLAB del regulador de carga para una Irradiancia de 1000 W/m2 Figura 10: Modelo y simulación en MATLAB del regulador de carga para una Irradiancia de 100 W/m2 Figura 11: Curvas características del panel utilizado para diferentes valores de irradiancia La Figura 12 y Figura 13 muestran el modelo de la etapa inversora y los resultados de la simulación a carga nominal, obteniéndose una tensión de salida sinusoidal de 120 V. Figura 12: Modelo en MATLAB de la etapa inversora. a) b) c) Figura 13: a) Tensión a la salida del convertidor Push-Pull b)Tensión en el inversor sin filtrar c) Tensión de salida del sistema. En una vista ampliada de la tensión de salida del convertidor Push-Pull se observa como la tensión de rizado es de aproximadamente 6 V a potencia nominal sin afectar el funcionamiento del sistema (ver Figura 14) Figura 14: Tensión de rizado a la salida del Push-Pull. Los resultados de la simulación de la etapa inversora con carga resistiva inductiva (R-L) permiten asegurar que no existe gran distorsión de armónicos en la tensión y corriente para dicho tipo de carga (Ver Figura 15). Figura 15: Tensión y corriente a la salida con carga R-L 5. CONCLUSIONES En Cuba se han instalado una gran cantidad de este tipo de sistemas fotovoltaicos en diferentes geografías, dando solución a la no disponibilidad del Sistema Eléctrico Nacional y en la actualidad existen planes de incrementar su uso, debido a las necesidades aún no cubiertas. Los resultados del trabajo contribuyen a elevar, en los profesionales que se encargan de su puesta en marcha y mantenimiento, el conocimiento sobre las características y funcionamiento de dichos sistemas lo que abre la posibilidad de su reparación en nuestro país. Adicionalmente, fomenta el cumplimiento de la ansiada meta del diseño y construcción de sistemas fotovoltaicos de producción nacional. REFERENCIAS 1. TORRES-CUEVAS, Eduardo and GONZÁLEZ-DÍAZ, Patricia. Las ciencias en la construcción de la sociedad y la cultura cubanas. Tesis de debate. . La Habana, Cuba : Imágen Contemporánea, 2021. ISBN 978-959-293-054-4. 2. SANTER, Benjamin D., SOLOMON, Susan, WENTZ, Frank J., FU, Qiang, PO-CHEDLEY, Stephen, MEARS, Carl, PAINTER, Jeffrey F. and BONFILS, Céline. Tropospheric warming over the past two decades. Scientific reports. 2017. Vol. 7, no. 1, p. 1–6. 3. LEVITUS, Sydney, ANTONOV, John I., BOYER, Tim P., BARANOVA, Olga K., GARCIA, Hernan Eduardo, LOCARNINI, Ricardo Alejandro, MISHONOV, Alexey V., REAGAN, J. R., SEIDOV, Dan and YAROSH, Evgeney S. World ocean heat content and thermosteric sea level change (0–2000 m), 1955–2010. Geophysical Research Letters. 2012. Vol. 39, no. 10. 4. OERLEMANS, Johannes. Extracting a climate signal from 169 glacier records. science. 2005. Vol. 308, no. 5722, p. 675–677. 5. Arctic sea ice 2017: Tapping the brakes in September | Arctic Sea Ice News and Analysis. Online. [Accessed 24 January 2022]. Available from: http://nsidc.org/arcticseaicenews/2017/10/arctic- sea-ice-2017-tapping-the-brakes-in-september/ 6. LÜTHI, Dieter, LE FLOCH, Martine, BEREITER, Bernhard, BLUNIER, Thomas, BARNOLA, Jean-Marc, SIEGENTHALER, Urs, RAYNAUD, Dominique, JOUZEL, Jean, FISCHER, Hubertus, KAWAMURA, Kenji and STOCKER, Thomas F. High-resolution carbon dioxide concentration record 650,000–800,000 years before present. Nature. May 2008. Vol. 453, no. 7193, p. 379–382. DOI 10.1038/nature06949. Bandiera_abtest: aCg_type: Nature Research Journalsnumber: 7193Primary_atype: Researchpublisher: Nature Publishing Group 7. Unión Eléctrica: producir energía de modo más sostenible. Online. [Accessed 9 July 2022]. Available from: http://www.opciones.cu/cuba/2021-03-17/union-electrica-producir-energia-de-modo- mas-sostenibleSe perfeccionan los bloques de generación termoeléctrica a través de inversiones y mantenimientos. La generación a partir de las fuentes renovables de energía resulta una prioridad en la que se continúa avanzando 8. RASHID, M. H. Power electronics handbook: devices, circuits, and applications. . 3ra edición. Elsevier Inc., 2011. ISBN 978-0-12-382036-5. 9. KAZIMIERCZUK, M. K. Pulse-Width Modulated DC-DC Power Converters. . 2nd Edition. Wiley, 2016. ISBN 978-1-119-00954-2. 10. TEODORESCU, Remus, LISERRE, Marco and RODRIGUEZ, Pedro. Grid converters for photovoltaic and wind power systems. . John Wiley & Sons, 2011. ISBN 97804700667040. Sobre los autores MSc. Mercedes Canasí Piñeiro se desempeña como profesora Auxiliar y jefa de la disciplina Electrónica de la facultad de Eléctrica de la Universidad Tecnológica de La Habana José Antonio Echevarría, con cuarenta años de experiencia profesional. Se encuentra vinculada a diversos proyectos de investigación relacionados con la evaluación, diseño y construcción de equipamiento para la industria nacional. Ing. Eduardo Rodríguez Álvarez se desempeña como profesor Instructor en la disciplina Electrónica de la facultad de Eléctrica de la Universidad Tecnológica de La Habana José Antonio Echevarría, con dos años de experiencia profesional. Se encuentra vinculado a diversos proyectos de investigación relacionados con la evaluación, diseño y construcción de equipamiento para la industria nacional. Ing. Daniel Ravelo Artiles se desempeña como profesor Instructor en la disciplina Electrónica de la facultad de Eléctrica de la Universidad Tecnológica de La Habana José Antonio Echevarría, con cuatro años de experiencia profesional. Se encuentra vinculado a diversos proyectos de investigación relacionados con la evaluación, diseño y construcción de equipamiento para la industria nacional. DrC. Yandry Rodríguez Domínguez se desempeña como profesor Auxiliar en la disciplina Electrónica de la facultad de Eléctrica de la Universidad Tecnológica de La Habana José Antonio Echevarría, con quince años de experiencia profesional. Ocupa la responsabilidad Vicedecano Docente de dicha facultad. Se encuentra vinculado a diversos proyectos de investigación relacionados con la evaluación, diseño y construcción de equipamiento para la industria nacional. MSc. Raynel Díaz Santos se desempeña como profesor Auxiliar de la facultad de Eléctrica de la Universidad Tecnológica de La Habana José Antonio Echevarría, con catorce años de experiencia profesional. Ocupa la responsabilidad de Jefe del departamento de Informática de dicha facultad. Se encuentra vinculado a diversos proyectos de investigación relacionados con la evaluación, diseño y construcción de equipamiento para la industria nacional. MODELADO DE UN PARQUE SOLAR FOTOVOLTAICO DE EMPLEO INDUSTRIAL MODELING OF A PHOTOVOLTAIC SOLAR PARK FOR INDUSTRIAL USE Jesús Gabriel García Tamayo1, Francisco Beraldo Herrera Fernández2 1Empresa de Tecnologías de la Información y Automática, Villa Clara, 2Universidad Central “Marta Abreu” de Las Villas, Villa Clara 1e-mail: jesusgabrielgarciatamayo@gmail.com, 2e-mail: herrera@uclv.edu.cu RESUMEN En este trabajo se desarrollan modelos matemáticos aplicando técnicas clásicas de identificación para la modelación del funcionamiento de un Parque Solar Fotovoltaico (PSFV) aplicando diferentes técnicas de identificación, considerando el comportamiento de la irradiación solar y la temperatura del panel como variables de entrada y la potencia activa generada como variable de salida. Estos modelos tienen como objetivo estudiar el comportamiento de los PSFV y son tomados como referencia en sistemas de predicción de la potencia generada, contribuyendo a la toma de decisiones relativas a la logística del Sistema Electroenergético Nacional (SEN). La metodología expuesta en este trabajo puede ser utilizada para obtener el modelo de cualquier PSFV que sea de interés. Los modelos de PSFV son obtenidos y validados con medidas extraídas directamente de una instalación industrial de PSFV. PALABRAS CLAVES: Parque solar fotovoltaico (PSFV), modelo de PSFV, Sistema electroenergético nacional (SEN) ABSTRACT Some mathematical models are developed for a Photovoltaic Solar Park (PSFV) applying different identification techniques, considering the behavior of the solar irradiation and panel temperature as input variables and the generated active power as output variable. These models will be used to study a behavior and as reference in forecasting systems of generated power predictions in this PSFV, contributing to the decision making concerning the logistics of the national electro-energy system (SEN). The methodology exposed in this work can be used to obtain the model of any PSFV that is of interest. The PSFV models are awarded and validated with measurements extracted directly from an industrial PSFV installation. KEY WORDS: Photovoltaic Solar Park (PSFV), model of PSFV, National Electro-energy System (SEN) 1. INTRODUCCIÓN El modelado matemático de Parques Solares Fotovoltaicos (PSFV) de empleo industrial es un tema de intenso trabajo a nivel mundial debido al esfuerzo de gobiernos y organizaciones en poder conocer con precisión sus características y así hacer un uso eficiente de los mismos. En nuestro país, como política de interés gubernamental, se ha dado un impulso al desarrollo de trabajos de investigación sobre el modelado de este tipo de fuente renovable debido a su utilidad en tareas relacionadas con el comportamiento y predicción de la generación de energía eléctrica en estos parques a: mediano, corto y largo plazo; lo cual es de vital importancia para contribuir a la estabilidad del Sistema Electroenergético Nacional (SEN), considerando la creciente penetración de la energía solar fotovoltaica en el sistema nacional. El Despacho Nacional de Carga (DNC) utiliza los datos ofrecidos por los modelos PSFV para planificar una efectiva distribución y uso de los recursos energéticos a su disposición entre las diferentes formas de generación que le son tributarias. El modelado de PSFV considera tanto las variables climatológicas como las variables y parámetros de la tecnología instalada en dichas plantas. Esto implica considerar variables meteorológicas como la trayectoria del sol, la temperatura, la irradiación solar, la humedad, la velocidad del viento y otras variables atmosféricas; así como las específicas del PSFV, como la tasa de conversión, el grado de limpieza de los paneles, etc. Normalmente este modelado se realiza con el objetivo de obtener modelos de predicción para estimar la posible potencia eléctrica a generar por la planta. Estos métodos de predicción se basan fundamentalmente en la determinación de las relaciones existentes entre las variables meteorológicas, tecnológicas y económicas, que permiten obtener estimaciones de los valores futuros de generación potencial. Según la bibliografía técnica especializada, se utilizan dos tipos de modelos diferentes; uno para la predicción de la irradiación solar (Ir) que actúa sobre el PSFV y un segundo modelo para la caracterización del funcionamiento de la propia planta, relacionando las variables meteorológicas con la potencia generada [1]. La figura 1 establece la relación entre ambos modelos. Figura 1. Principales relaciones funcionales en un PSFV. Vkr : k- esima variable de proceso afectada por la relación P/IR. Vrat: Vector de variables metereológicas con influencia en la generación de potencia. Para representar el comportamiento de un PSFV, normalmente se utilizan las relaciones entre la potencia generada y las variables de irradiación solar proporcionadas por los fabricantes de la instalación, lo que no considera un conjunto de parámetros tecnológicos inherentes al PSFV que presentan una dinámica de comportamiento con una incidencia permanente en el coeficiente de conversión energética de la instalación. El comportamiento de un PSFV se manifiesta en sus dos componentes fundamentales: un conjunto de módulos fotovoltaicos y un inversor eléctrico. Sobre esta base, el segundo modelo propuesto, el modelo PSFV, debe considerar a su vez los modelos de ambos componentes. En el modelo de la disposición de los módulos fotovoltaicos, existe una marcada influencia de las variables meteorológicas, siendo la temperatura de los paneles una variable importante de influencia en los parámetros que definen el coeficiente de conversión. En [1] se demuestra que la temperatura de los paneles en un PSFV puede influir hasta un 20% en la eficiencia de conversión. Por las razones expuestas, tanto la irradiación solar como la temperatura de los paneles pueden considerarse variables de entrada básicas en este modelo. La nubosidad, otra variable meteorológica, podría considerarse como entrada, dada su influencia negativa en la conversión de la planta. También existen modelos de previsión para esta variable [1]. Otros parámetros tecnológicos, como la limpieza de los paneles, también deben ser considerados, aunque predecir su comportamiento ya es un poco más complicado, comparado, por ejemplo, con la predicción de la irradiación solar y la temperatura ambiente. Este comportamiento real de los PSFV implica la necesidad de obtener modelos que representen todos los cambios que se producen, lo que implica una mejora en los sistemas de diagnóstico y predicción energética que se aplican. De ello se deduce que es un objetivo práctico obtener modelos matemáticos para cada planta en particular. En la actualidad se está trabajando intensamente en la modelación de PSFV, presentándose los resultados en la literatura técnica de diversas formas [2]–[7]. En el presente estudio, se presenta primeramente lugar una breve descripción del PSFV objeto del modelado. A continuación, se presentan los resultados de la caracterización del conjunto de datos reales obtenidos por medición. Finalmente, se expone la aplicación de diferentes técnicas de identificación para obtener los modelos deseados, realizando conjuntamente una comparación de los modelos obtenidos. 2. CARACTERÍSTICAS DEL PSFV DE LA UCLV El PSFV objeto de la presente investigación se encuentra ubicado en la Universidad Central ''Marta Abreu'' de Las Villas. Está compuesto por 207 estructuras de soporte para paneles solares llamadas bandejas, cada una de las cuales agrupa 22 módulos [8] de paneles. Las bandejas conectan los módulos en serie y éstos se conectan en bloques de hasta 16 a 14 cajas de conexión (string); estos strings a su vez conectan las bandejas en serie o en paralelo hasta alcanzar los 700 V necesarios para entregar la instalación a los 2 inversores [9] de 0,5 MW de potencia cada uno para u total de 1 MW de capacidad máxima instalada, y, finalmente, éstos se conectan a una celda de media tensión que interactúa con la red del SEN. Para la captura de las mediciones de los datos se utilizó la estación meteorológica proporcionada por el fabricante de la tecnología PSFV, en la que están instalados: un anemómetro para la medición de la velocidad del viento; dos sensores de temperatura pt100 para medir la temperatura ambiente y la temperatura de los paneles, variables a tener en cuenta en la eficiencia de la conversión energética; un piranómetro [10] situado con la misma inclinación de los paneles solares que obtiene en su lectura el valor de la irradiación solar efectiva que los mismos reciben. Esta variable es de gran importancia ya que es la principal fuente de energía del sistema. Además de la estación meteorológica, la instalación dispone de un contador de energía [11] para cuantificar la potencia activa entregada al SEN. Todos los valores de las mediciones anteriores se almacenan en tiempo real en el software de control y supervisión instalado en la cabina de control de dicha PSFV. Durante el periodo de recopilación de los datos, todos los instrumentos disponían del certificado de calibración vigente. 3. CARACTERIZACIÓN DE LOS DATOS Los datos para el experimento de modelado se obtuvieron directamente del PSFV en el periodo del 28 de junio de 2018 y el 24 de abril de 2021, alrededor de 3 años. Los datos tienen un tiempo de muestreo de 1 hora. Para el análisis, se eligieron 10 horas solamente de las 24 horas del día, debido a que es donde se concentran las horas efectivas de generación de energía. La tabla 1 contiene información sobre las variables del modelo, mientras en la figura 2 se presenta un gráfico con una muestra de estos datos. Tabla 1: Información acerca de las variables del modelo. Nombre de la variable Media Varianza Unidad Física Correlación con la salida Irradiación 495.12 12803 W/m2 Entrada 1 Temperatura de los paneles 30.03 100.04 ,oC Entrada 2 Potencia Generada 0.4550 0.0952 ,MW Salida Figura 2. Muestra de medición de un día: Irradiación solar (izquierda), potencia activa (centro), temperatura del panel (derecha). La tabla 1 muestra las grandes relaciones que existen entre las variables de irradiación solar y potencia activa con un valor de correlación de 0,96 y un poco menor pero no despreciable de la variable temperatura de los paneles con la potencia generada con un 0,48. La relación entre las primeras variables mencionadas es mayor ya que la irradiación solar es la principal fuente de energía para la generación de potencia; y el caso de la temperatura de los paneles esta influye en la eficiencia de la conversión de energía a razón de si la temperatura supera los [12], y como muestran los resultados de los valores medios la temperatura en la geolocalización del PSFV se mantiene por encima de los 30ᵒC. En el caso de la varianza de los datos, se puede observar en la Tabla 1 que la irradiación tiene una alta varianza con respecto a las demás variables, esto se debe a que los valores de irradiación varían entre 0 y 1200 , un campo muy amplio de mediciones. Debido a las características de los entornos industriales, los datos obtenidos presentan imperfecciones. Se detectó una gran cantidad de datos con valores atípicos, datos faltantes y registros no continuos, debido principalmente a fallos en las fuentes de alimentación o en el canal de comunicación de los instrumentos de medida, o a fallos en el software de supervisión y control del PSFV. Para aplicar con éxito el procedimiento de modelado, es necesario eliminar los valores atípicos descritos anteriormente, ya que podrían introducir dinámicas no deseadas. En el análisis previo de los datos, los valores atípicos se trataron como valores perdidos. Este análisis se llevó a cabo mediante una inspección visual a través de gráficos y análisis a través del software [13]. Para la estimación de los valores perdidos en las mediciones o eliminados por su valor atípico, se utilizó la técnica de modelado de datos perteneciente a la caja de herramientas Matlab systemIdentification [14], que permite reconstruir el conjunto de datos y tiene muy buenos resultados cuando la pérdida no es severa. En el caso de las variables de entrada, los valores perdidos se estiman mediante: una regresión lineal que utiliza una interpolación lineal en su primera iteración, mientras que, en el caso de los valores perdidos en la variable de salida, se utiliza un filtro de Kalman variable en el tiempo, con un procedimiento estándar [13]. 4. MODELO DE PSFV Y DISCUSIÓN Un modelo analítico general de un PSFV contiene una relación estática entre la potencia activa generada y las variables económicas y tecnológicas. Considerando los paneles solares como una fuente generadora de corriente, esta relación se puede expresar como: (1) Donde: I : corriente eléctrica generada, expresada por los componentes iq e id , Ir: Irradiación Ta: Temperatura de los paneles  : valor de referencia del factor de potencia Mientras que la potencia generada en la salida del convertidor es expresada por: (2) Donde: Vr: Voltaje de la red eléctrica (V) Normalmente los fabricantes de sistemas solares ya proporcionan estas relaciones, en forma de: (3) Donde K es un valor calculado a partir de la potencia máxima generada en condiciones estándar de temperatura e irradiación, previamente establecidas por los fabricantes. En resumen, en la práctica se aplica la ecuación 3 proporcionada por el fabricante. Este procedimiento no considera las lógicas variaciones en los parámetros tecnológicos que se dan en estas plantas solares, como por ejemplo con el nivel de suciedad. La figura 3 muestra la reducción de la potencia generada que puede provocar la suciedad de los paneles. Figura 3. Reducción de la potencia generada a causa de la suciedad de los paneles Para resolver esta limitación en la práctica, es necesario aplicar en cada PSFV un método de identificación experimental de esta relación, lo que significa obtener el modelo real que representa la planta, a partir de los datos experimentales de las variables que intervienen en las relaciones anteriores (P, Ir y Tpaneles). Si los procedimientos de identificación se aplican sistemáticamente a lo largo del tiempo, todos los efectos causados por las variaciones de los parámetros tecnológicos, como la suciedad, etc., se incluyen en los datos medidos. Para la culminación del experimento de identificación dinámica del PSFV, del total de muestras se eligen 700 (70 días en total), ya que éstas representan todas las características deseadas que reproduce un modelo de este tipo y evitan el sobreentrenamiento y la memorización; para la validación se eligen un total de 400 muestras (40 días en total). Para el modelado, se eligieron varias estructuras de modelos lineales simples, como el modelo de proceso con dos entradas y una salida con funciones de transferencia independientes, dando un resultado de seguimiento del 62% de la salida (se utilizaron funciones de transferencia de orden cero y de primer orden para las relaciones irradiación-potencia y temperatura de los paneles-potencia, respectivamente); Otro modelo utilizado fue el ARX con una estructura polinómica de tercer orden pero con resultados muy discretos (3%), luego se experimentó con modelos no lineales, como el modelo Hammerstein-Wiener, que se compone de un bloque no lineal en cascada con un modelo ARX lineal y finalmente otro bloque no lineal dando resultados considerables de hasta un 78% de coincidencias de la salida. Por último, se analizó un modelo NARX con un bloque de regresores lineales con un retardo de 5 muestras en la salida y 1 y 3 en la entrada con respecto a la irradiación solar y la temperatura de los paneles, en el caso del bloque no lineal tiene un grado 4, dando un resultado del 79% de coincidencia. Tabla 2. Características de los modelos obtenidos. Tipo de modelo Mejor coincidencia Orden de los modelos MSE NARX 78% Orden de la salida 5 Orden de la salida 3 y 1 0.003495 Hammerstein Wiener 79% Entrada 1 pwlinear 10 unidades Entrada 2 pwlinear 10 unidades Salida no lineal 10 unidades 0.003113 Figura 4. Ejemplos de validación de los modelos con un día soleado (izquierda) y un día nublado (derecha). La figura 4 muestra un seguimiento aceptable del 79% de coincidencia para el modelo PSFV tanto en días soleados como en días nublados. La figura 5 representa la calidad del modelo en la reproducibilidad de los valores futuros que se le suministran debido a que los valores de sus residuos están entre -0,1 y 0,1 en ambas entradas y una correlación cruzada entre -0,15 y 0,2 como se muestra en la figura 5. Figura 5. Residuos del modelo: entrada irradiación (izquierda), entrada temperatura de los paneles (derecha). 5. CONCLUSIONES Se ha demostrado que es posible obtener modelos no lineales para describir el comportamiento de un PSFV (Hammerstein-Wiener, NARX). Para el PSFV particular utilizado en el trabajo, el mejor resultado en términos de reproducibilidad de las muestras y comportamiento de los residuos lo presentó el modelo NARX, con una coincidencia de hasta el 79%. Estos modelos tienen como entradas la irradiación solar y la temperatura de los paneles ya que son las variables de mayor influencia en este tipo de instalaciones. Con este modelo es posible estudiar el comportamiento de las PSFV para uso industrial y utilizar los resultados en la planificación de la generación de potencia eléctrica. RECONOCIMIENTOS “Los autores desean agradecer a la Empresa de Tecnologías de la Información y la Automática Vila Clara y a la Empresa de Fuentes Renovables de Energía por su contribución a la obtención de los datos para la realización de los experimentos. Además, un gran reconocimiento al Instituto de Meteorología (INSMET)” por la organización y financiación del “Proyecto Energía”. REFERENCIAS [1] M. Paulescu, E. Paulescu, P. Gravila, y V. Badescu, Weather Modeling and Forecasting of PV Systems Operation. London: Springer London, 2013. doi: 10.1007/978-1-4471-4649-0. [2] V. Cuk et al., «Considerations on the modeling of photovoltaic systems for grid impact studies», Math. Comput. - Math Comput, ene. 2011. [3] S. I. Nanou y S. A. Papathanassiou, «Modeling of a PV system with grid code compatibility», Electr. Power Syst. Res., vol. 116, pp. 301-310, nov. 2014, doi: 10.1016/j.epsr.2014.06.021. [4] M. G. Villalva, J. R. Gazoli, y E. R. Filho, «Comprehensive Approach to Modeling and Simulation of Photovoltaic Arrays», IEEE Trans. Power Electron., vol. 24, n.o 5, pp. 1198-1208, may 2009, doi: 10.1109/TPEL.2009.2013862. [5] Y. Mahmoud, W. Xiao, y H. H. Zeineldin, «A Simple Approach to Modeling and Simulation of Photovoltaic Modules», IEEE Trans. Sustain. Energy, vol. 3, n.o 1, pp. 185-186, ene. 2012, doi: 10.1109/TSTE.2011.2170776. [6] P. Eguia, A. Etxegarai, E. Torres, J. I. San Martin, y I. Albizu, «Modeling and validation of photovoltaic plants using generic dynamic models», en 2015 International Conference on Clean Electrical Power (ICCEP), Taormina, jun. 2015, pp. 78-84. doi: 10.1109/ICCEP.2015.7177604. [7] D. Sera, R. Teodorescu, y P. Rodriguez, «PV panel model based on datasheet values», en 2007 IEEE International Symposium on Industrial Electronics, Vigo, Spain, jun. 2007, pp. 2392-2396. doi: 10.1109/ISIE.2007.4374981. [8] «Panel solar 450w», Xi’An Yuanfar International Trade Company, 17 de diciembre de 2021. http://www.ht-energy.net/pv-modules/450w-solar-panel.html (accedido 17 de diciembre de 2021). [9] «Híbrido de 50kw fases 3Inversor híbrido», Made-in-China.com, 17 de diciembre de 2021. https://es.made-in-china.com/co_sungoess/product_50kw-Hybrid-3phases-Hybrid- Inverter_onnrorieg.html (accedido 17 de diciembre de 2021). [10] «Kipp & Zonen CMP11 Pyranometer | Solar Data Acquisition | Kintech Engineering», Kintech Engineering - Sistemas de medición eólica y solar. https://www.kintech- engineering.com/es/catalogue/solar-es/kipp-zonen-cmp11/ (accedido 13 de septiembre de 2021). [11] «P2000-D Three Phase Whole Current Meter – Microstar Electric Company Limited», 2021. https://www.microstarelectric.com/products/smart-meters/p2000-d/ (accedido 17 de diciembre de 2021). [12] M. Koehl, M. Heck, S. Wiesmeier, y J. Wirth, «Modeling of the nominal operating cell temperature based on outdoor weathering», Sol. Energy Mater. Sol. Cells, vol. 95, n.o 7, pp. 1638-1646, jul. 2011, doi: 10.1016/j.solmat.2011.01.020. [13] L. Ljung, System Identification, Theory for the user, Second Edition., vol. 1, 1 vols. United States of America: Prentice Hall Information and System Sciences Series, 1999. [En línea]. Disponible en: http://www.phptr.com [14] L. Ljung, «System Identification Toolbox. User’ Guide». The MathWorks, Inc, 2014. [En línea]. Disponible en: www.mathworks.com 1 UBICACIÓN Y DIMENSIONAMIENTO DE CENTRALES DE GENERACIÓN DISTRIBUIDA EN REDES DE DISTRIBUCIÓN RADIAL LOCATION AND SIZING OF DISTRIBUTED GENERATION PLANTS IN RADIAL DISTRIBUTION NETWORKS Ing. Carlos A. Perdomo Pérez1, Ing. Urbano J. Pedraza Ferreira2, Dr.C. Alfredo M. Del Castillo Serpa3, Dr.C. Ariel Santos Fuentefria4 1Adiestrado, Centro de Investigaciones y Pruebas Electroenergéticas (CIPEL) CUJAE, cperdomop@electrica.cujae.edu.cu 2Adiestrado, Centro de Investigaciones y Pruebas Electroenergéticas (CIPEL) CUJAE, urbanoj@tesla.cujae.edu.cu 3Profesor Titular Consultante, Instituoto de Ciencicias Báscias, CUJAE, 4Profesor Titular, Centro de Investigaciones y Pruebas Electroenergéticas (CIPEL) CUJAE, asfuentefria@electrica.cujae.edu.cu RESUMEN Las redes de distribución eléctricas se encargan de distribuir la energía a los consumidores residenciales, comerciales e industriales pequeños, generalmente a media tensión con valores por debajo de los 34,5 kV. Alrededor del 70% de las pérdidas de un sistema eléctrico se producen en estas. También son las que mayores problemas presentan con la regulación de tensión. La generación distribuida es una buena solución para estos problemas, ya que permite tener generación en puntos cercanos a las cargas del sistema, reduciendo las transferencias por las líneas. Sin embargo, la ubicación y dimensionamiento de centrales de este tipo no debe hacerse de forma arbitraria. Normalmente se emplean métodos de optimización con el fin de mejorar al máximo el estado técnico de la red. En este trabajo se usa un método de optimización heurístico llamado Optimización Combinatoria con Método de Búsqueda por Coordenadas, que permite encontrar la localización óptima y las capacidades de varias centrales de generación distribuida en una red de distribución. El algoritmo se validó e implementó en el sistema de prueba de 33 nodos del IEEE. PALABRAS CLAVES: Generación distribuida, función de objetivos múltiples, reducción de pérdidas, perfil de tensión, redes de distribución radial. ABSTRACT The electrical distribution networks are responsible for distributing energy to residential, commercial and small industrial consumers, generally at medium voltage with values below 34.5 kV. About 70% of the losses of an electrical system occur in these networks. They are also the ones that present the greatest problems with voltage regulation. Distributed generation is a good solution for these problems, since it allows generation at points close to system loads and reducing transfers through the lines. However, the location and sizing of this kind of generation should not be done arbitrarily. Optimization methods are normally used in order to maximize the technical state of the network. In this work, a heuristic optimization method called Combinatorial Optimization with Coordinate Search Method is used, which allows finding the optimal location and capacities of several distributed generation plants in a distribution network. The algorithm was validated and implemented on the IEEE 33-node test system. KEY WORDS: Distributed generation, multi-objective function, loss reduction, voltage profile, radial distribution networks. 2 INTRODUCCIÓN La matriz energética mundial depende principalmente del uso de combustibles fósiles. En 2019 se generaron aproximadamente 53 620 TWh a base de petróleo, 43 849 TWh con carbón y 39 293 TWh con gas [1]. El empleo de estas fuentes de energía no renovables ha ocasionado un incremento en las temperaturas en estos últimos años y se observa una tendencia a largo plazo que conduce al aumento del calentamiento global. Por ejemplo, el 2016 fue el año más cálido en la Tierra desde 1850, seguido del 2019 donde se registraron en varios lugares del planeta récords de temperatura [2]. A pesar del acuerdo de París firmado el 22 de abril del 2016, el escenario político actual que mantienen muchos países, no es esperanzador. Se prevé que para 2030 la producción mundial de combustible (petróleo y gas) de EEUU este por encima de la producción total de Rusia, llegando a producir 16 millones de barriles por día [3]. Actualmente hay 850 millones de personas sin acceso a la electricidad en el mundo, por lo que se espera que la demanda de energía a nivel mundial aumente un 1,3% cada año hasta 2040 [3]. Queda claro que no es una opción suplir estas demandas con combustibles fósiles, por esta razón, durante la Cumbre sobre la Acción Climática celebrada en Nueva York el 23 de septiembre de 2019, 77 países y más de 100 ciudades se comprometieron a reducir las emisiones de gases de efecto invernadero a cero, para el 2050. Entre estos países está a la vanguardia Costa Rica, quien produce un 99% de su energía eléctrica con fuentes renovables de energía (FRE) [4]. En el mundo, el consumo de energías renovables se ha incrementado en un promedio de 2,3% desde el año 2015, y se espera que llegue a un valor promedio anual de 3,1% desde la actualidad hasta el 2050 [3], [5]. Para este año se estima que la participación de las FRE en la matriz energética mundial será de un 28%. Esto representa una reducción del uso de los combustibles fósiles del 83% (en el año 2018) a 69% (en el 2050) [5]. El incremento esperado de la generación a base de FRE, durante los próximos años, propiciará un mayor uso de la generación distribuida en los sistemas eléctricos de potencia. Actualmente en los países en vías de desarrollo, se está optando por el uso de generación distribuida ya que disminuye las emisiones de gases contaminantes a la atmósfera, establece un mercado donde la generación ya no esté centralizada, satisface las demandas crecientes, favorece la autonomía energética y permite mejorar el estado técnico de las redes de distribución eléctricas [6]. Entre todas las ventajas de este tipo de generación, la última ha impulsado el desarrollo de algoritmos de optimización para ubicar y dimensionar en un sistema eléctrico de distribución, centrales de generación distribuida (CGD). Ubicar y dimensionar de forma óptima CGD permite reducir las pérdidas de potencia activa, mejorar el perfil de tensión, la cargabilidad, la confiabilidad y la estabilidad de un sistema de distribución eléctrico. Además, mejora la calidad de la energía entregada a los consumidores y el factor de potencia de la red. Los métodos que se utilizan para resolver esta tarea pueden ser analíticos, emplear técnicas de optimización clásica, de inteligencia artificial o técnicas híbridas [7]. En [8] los autores desarrollaron dos técnicas analíticas que permiten minimizar las pérdidas de potencia activa de un sistema de distribución por medio de generación distribuida. Estos métodos emplean índices de sensibilidad que indican el cambio de las pérdidas del sistema con respecto a la inyección de corriente de una CGD, pudiendo encontrarse su mejor ubicación, su punto de operación y su capacidad óptima. En [9], se realiza una comparación entre varios métodos analíticos que permiten satisfacer el mismo objetivo. Entre estos se encuentran: Novel method (simple y con modificación), combined lost sensitivity, index vector y voltage sensitivity index. En [10] se emplea una de las técnicas de optimización clásicas llamada dynamic programming (DP), no solo para reducir pérdidas, también para mejorar la confiabilidad del sistema. Este algoritmo es un eficiente método matemático para resolver problemas de decisiones secuenciales. Otra de las técnicas clásicas combina non-linear programming (NLP) y mixed integer programming (MIP). En [11] los autores redujeron las pérdidas de un sistema de distribución a partir del método Mixed Integer Non-Linear Programming, que consta de dos pasos y permite reducir el espacio de búsqueda y el tiempo de computación. Entre las técnicas basadas en inteligencia artificial se encuentran Genetic Algorithm (GA) y Particle Swarm Optimization (PSO). En [12] los autores emplean GA para optimizar el plan de distribución de generadores que emplean fuentes renovables como energía primaria. Este método de optimización es evolutivo, por lo que se basa en mejorar la población que participa en la búsqueda del óptimo, a partir de los individuos que existieron en iteraciones anteriores. En [13] se usa el PSO para instalar CGD en un sistema de distribución, con el fin de 3 reducir sus pérdidas y mejorar su perfil de tensión. Este método de optimización se basa en la inteligencia de grupo que usan las bandadas de aves, para cazar a su presa. El algoritmo actualiza las posiciones de los miembros de la población, a partir de la posición de la partícula más cercana al óptimo y de la mejor ubicación alcanzada por cada individuo, en iteraciones anteriores. El PSO se emplea con las simulaciones Monte Carlo para conformar una técnica hibrida que permite alcanzar una mejor solución al problema de optimización. En [14] los autores ofrecen una versión mejorada siguiendo esta línea, en donde se usan dos estrategias para actualizar la posición de las partículas. La selección de las estrategias se determina por una probabilidad dinámica gracias a la generación de números aleatorios con el método de Monte Carlo. Backtracking Search Optimization Algorithm (BSOA) es un método evolutivo que consta de cinco pasos para su ejecución. La novedad de esta técnica es que usa dos nuevos operadores para realizar el cruzamiento y la mutación. El BSOA permite encontrar buenas soluciones, de forma rápida, para problemas de optimización no lineales, no diferenciales y con funciones de optimización complejas [15]. Existe un compromiso entre el tiempo de ejecución y la exactitud en los resultados del método que se utilice, ya que ambos son importantes para garantizar la eficiencia de un algoritmo de optimización. La tendencia es desarrollar algoritmos que usan la generación de partículas aleatorias en un espacio de búsqueda multidimensional que describa al sistema de distribución donde se desea instalar las CGD. Sin embargo, en este trabajo se desarrolla un algoritmo de búsqueda exhaustiva multidimensional llamado Optimización Combinatoria con Método de Búsqueda por Coordenadas (OCMBC). Su tiempo de ejecución resulta a veces grande, pero su principal ventaja radica en que es capaz de obtener buenos resultados en sistemas con restricciones críticas. También debe destacarse que su exactitud le permite ser comparado con cualquier algoritmo que se encuentre en la bibliografía. FORMULACIÓN DEL PROBLEMA MATEMÁTICO El algoritmo OCMBC optimiza la ubicación y la capacidad de 𝑚 centrales de generación distribuida en una red de distribución radial con 𝑛 nodos, siguiendo tres criterios de optimización: minimizar solo pérdidas de potencia activa, minimizar solo la desviación de tensión del sistema o minimizar ambas usando factores de peso para cada una. Este método primero encuentra las ubicaciones óptimas de las centrales por medio de una búsqueda exhaustiva en todo el espacio de búsqueda del problema de optimización. Esta búsqueda permite encontrar una buena solución, si existe, cuando el sistema funciona bajo condiciones críticas de operación, o sea, está mal condicionado. La solución óptima del problema de optimización estará compuesta por una matriz (Φ) de orden 𝑚 por 𝑛 y dos vectores (𝑃𝐺𝐷) y (𝑄𝐺𝐷) de orden 𝑚, cuyos elementos serán las potencias activa y reactiva óptimas de cada CGD. GENERACIÓN DE ASIGNACIONES. Para su funcionamiento el OCMBC necesita generar todas las asignaciones posibles que puede tener el problema de optimización. Un problema de asignación generalizado (PAG) consiste en encontrar una solución adecuada (Φ) de 𝑚 tareas a 𝑛 agentes de manera tal que se minimice el costo total de la asignación [18]. Este problema combinatorio es del tipo N-P completo, de difícil solución y en dependencia de las restricciones y los parámetros que se empleen, este puede tener más de una solución óptima e incluso no tener solución [19]. Como el algoritmo de optimización permite dimensionar la capacidad de las centrales que serán ubicadas, entonces no es necesario analizar el caso donde dos o más centrales serán ubicadas en un mismo nodo. Por tanto, la generación de asignaciones se reduce a un problema de combinatoria donde el coeficiente binomial (𝑛 𝑚 ) expresa las posibles soluciones del mismo. Una asignación adecuada para resolver este problema es una matriz (Φ), de orden 𝑚 por 𝑛, cuyos elementos 𝜙𝑖𝑗 satisfacen las siguientes restricciones: 𝜙𝑖𝑗 ∈ {0, 1} (1) ∑𝜙𝑖𝑗 𝑚 𝑖=1 = 1 (2) 4 ∑𝜙𝑖𝑗 𝑛 𝑗=1 = 1 (3) Donde: 𝑖 = 1,𝑚̅̅ ̅̅ ̅̅ ; 𝑗 = 1, 𝑛̅̅ ̅̅̅ Las restricciones anteriores permiten que cada central de GD solo pueda asignarse a uno y a solo un nodo, y que en cada nodo puede estar conectada solo una central. El diagrama de flujo del algoritmo empleado para generar cada solución (Φ) se muestra en la figura 1. A continuación se explicará cada paso del mismo, para facilitar su comprensión. Figura 1: Diagrama de flujo del algoritmo que se emplea para generar cada solución (Φ). 5 Paso 1: Para que el algoritmo funcione, se necesita construir la primera matriz de asignación (Φ). En la figura 2 se observa la estructura de dicha matriz. Esta es de orden 𝑚 por 𝑛 y solo tendrán el valor de 1, los elementos que ocupen la posición donde las filas y las columnas son iguales (o sea: 𝑖 = 𝑗). (Φ) = ( 1 0 0 0 1 0 0 0 1 … 0 0 0 ⋮ 0 0 0 1) Figura 2: Primera matriz de asignación (Φ). Paso 2: Se carga la matriz generada en el paso 1 y se preparan las condiciones para generar y almacenar en el arreglo (𝐴), todas las asignaciones posibles del PAG. Paso 3: Se almacena la matriz (Φ) de cada asignación en (𝐴). Paso 4: La sentencia condicional de este paso permite que el programa identifique si se debe permutar la ubicación de la central que se encuentra en la fila 𝑖, o de las que se encuentren en las filas superiores. Si la sentencia condicional es cierta se prosigue con el paso 5a, si no se ejecuta el 5b. Paso 5a: Este paso presenta el criterio de parada del proceso de generación de todas las asignaciones. Además, permite cambiar la fila de la matriz (Φ) para que se modifiquen las ubicaciones de las otras centrales, actuando en conjunto con los pasos 4 y 6. Paso 5b: Este constituye el paso más importante del método porque permite formar las nuevas matrices que serán guardadas en (𝐴). Si 𝑖 = 𝑚 se permuta la CGD de la fila 𝑖, de la columna 𝑗 a la 𝑗 + 1. En cambio, si 𝑖 ≠ 𝑚, se ubica la central de la fila 𝑖 + 1 en el nodo que ocupa la posición 𝑗 + 2. Paso 6: Este paso se emplea para encontrar la posición 𝑗 que ocupa la CFV de la fila 𝑖. En el caso especial de que 𝑖 = 𝑚 y 𝑗 ≠ 𝑛 la ejecución del paso 5b permuta la posición de la central de GD de la fila 𝑚 un lugar. En la figura 3 se ha representado en azul las posiciones que alcanza la central para el caso especial de 𝑚 = 3 y 𝑛 = 5. Figura 3: Permutaciones que sufre la central de GD de la fila 𝑚. Si la central de la fila 𝑚 se encuentra en la posición 𝑛, al llegar al paso 4, se ejecutará el 5a. Las transformaciones que sufre la matriz desde este punto, hasta que pueda ser almacenada en otra celda de (𝐴) se muestran en la figura 4. Figura 4: Transformaciones de la matriz (Φ) cuando se ejecutan los pasos 4, 5a, 6, 4 y 5b, en ese orden. 6 En general, los pasos 4, 5a, 5b, y 6 generarán todas las asignaciones posibles del arreglo (𝐴), cumpliendo con las restricciones de las ecuaciones 14, 15 y 16. Una vez que culmina el proceso en el paso 5a, han sido generadas todas las asignaciones del arreglo (𝐴). En este punto el algoritmo está listo para ejecutar, para cada asignación, la búsqueda de las potencias activa y reactiva de las CGD que minimicen el valor de la función objetivo, teniendo en cuenta las restricciones impuestas por el usuario. MÉTODO DE BÚSQUEDA POR COORDENADAS. Para encontrar una solución inicial que cumpla con todas las restricciones impuestas por el usuario se debe ejecutar una búsqueda donde solo se incrementa la capacidad de las CGD. Para esta tarea se emplea el Método de Búsqueda por Coordenadas (MBC) [20]. Durante este proceso se establece que cada variable del problema de optimización siempre crecerá en una dirección, con un paso de búsqueda constante. El objetivo principal de esta búsqueda es conservar en cada iteración, la solución más cercana al óptimo de la función objetivo. Sin embargo, el método concluirá cuando han sido satisfechas todas las restricciones del problema de optimización. Una vez que se encuentre una solución inicial, se procede a buscar una más próxima al óptimo de la función objetivo, que satisfaga también las restricciones impuestas por el usuario. El MBC se basa en la idea de realizar búsquedas unidimensionales, para una asignación, en todo el espacio de búsqueda de la función objetivo, y solo puede ser aplicado si esta es unimodal, de modo que cada problema de búsqueda unidimensional tenga solución. El espacio de búsqueda realmente es complejo (ℂ) de 2𝑚 dimensiones (debe recordarse que 𝑚 representa la cantidad de CGD), porque se actualiza tanto la potencia activa como la reactiva de las centrales. La generación de potencia activa y reactiva de las CGD que estarán instaladas en los nodos de la asignación 𝑎𝑔 estarán definidas por los elementos 𝑃𝑘 𝐺𝐷 y 𝑄𝑘 𝐺𝐷 respectivamente. Estos elementos serán guardados en los vectores (𝑃𝐺𝐷)𝑔 y (𝑄 𝐺𝐷)𝑔 respectivamente. Estos vectores son de orden 𝑚. Luego de ejecutado el MBC, estos vectores serán almacenados como la mejor solución para las capacidades de la asignación 𝑎𝑔. Cada vector es entonces un mínimo local del problema de optimización, por lo que se obtendrá el mínimo global luego de ejecutar el MBC en todas las asignaciones. En cada iteración de este método uno de los elementos 𝑃𝑘 𝐺𝐷 y 𝑄𝑘 𝐺𝐷 será modificado, incrementando o disminuyendo su valor por medio de una variable que define el paso de las búsquedas unidimensionales. Esta variable es definida inicialmente por el usuario, pero a medida que avanza el MBC su valor disminuye. Se pueden usar varias estrategias para disminuir el paso de búsqueda, pero en este trabajo se modificó dividiéndolo por la mitad cuando ninguna búsqueda unidimensional de la iteración 𝑡 del MBC, alcance un valor mejor que el de la iteración anterior. Las potencias activa y reactivas inyectada en cada nodo del sistema, durante cada iteración del MBC, entonces puede ser calculadas por las ecuaciones (4) y (5). 𝑃𝑖𝑛𝑦𝑒𝑐𝑡𝑎𝑑𝑎 𝑡 𝑖 = 𝑃𝑐𝑎𝑟𝑔𝑎𝑖 − [ (𝑃𝐺𝐷)𝑔 𝑡 ∙ (Φ)𝑔]𝑖 (4) 𝑄𝑖𝑛𝑦𝑒𝑐𝑡𝑎𝑑𝑎 𝑡 𝑖 = 𝑄𝑐𝑎𝑟𝑔𝑎𝑖 − [ (𝑄𝐺𝐷)𝑔 𝑡 ∙ (Φ)𝑔]𝑖 (5) Donde: 𝑃𝑖𝑛𝑦𝑒𝑐𝑡𝑎𝑑𝑎 𝑡 𝑖 y 𝑄𝑖𝑛𝑦𝑒𝑐𝑡𝑎𝑑𝑎 𝑡 𝑖 : Son las potencias activa y reactiva inyectadas en el nodo 𝑖 durante la iteración 𝑡 del MBC. (kW y kvar respectivamente). 𝑃𝑐𝑎𝑟𝑔𝑎𝑖 y 𝑄𝑐𝑎𝑟𝑔𝑎𝑖: Son las potencias activa y reactiva de carga instaladas en el nodo 𝑖. (kW y kvar respectivamente). [(𝑃𝐺𝐷)𝑔 𝑡 ∙ (Φ)𝑔]𝑖: Es el elemento 𝑖, del vector de orden 𝑛, que se obtiene de la multiplicación matricial del vector (𝑃𝐺𝐷)𝑔 𝑡 y de la matriz de asignación (Φ)𝑔. (kW) [(𝑄𝐺𝐷)𝑔 𝑡 ∙ (Φ)𝑔]𝑖: Es el elemento 𝑖, del vector de orden 𝑛, que se obtiene de la multiplicación matricial del vector (𝑄𝐺𝐷)𝑔 𝑡 y de la matriz de asignación (Φ)𝑔. (kvar) 7 Los vectores (𝑃𝐺𝐷)𝑔 𝑡 y (𝑄𝐺𝐷)𝑔 𝑡 se modifican en cada iteración del MBC porque al menos uno de sus elementos es modificado por el paso de búsqueda. En la figura 5 se observa la ejecución del MBC para la mejor asignación que se encontró al instalar dos centrales, que operan a factor de potencia unitario, en el sistema de 33 nodos del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE por sus siglas en inglés). Figura 5: Ejemplo de ejecución del MBC para alcanzar el mínimo de una función f. Los puntos amarillos son los mejores valores de la función objetivo en cada iteración y el cuadrado negro es la solución óptima del problema. Nótese que siempre se avanza en una dimensión, y que al hacerlo el valor de la función objetivo (𝑓) va disminuyendo gradualmente. Un análisis más detallado permite identificar que la búsqueda en las iteraciones 4 y 5 se ejecutó con un paso más pequeño que el inicial, para así garantizar la convergencia del método hacia el punto óptimo del problema de optimización. El diagrama de flujo del OCMBC se muestra en la figura 6. Método de flujo de cargas en redes radiales Para la solución del flujo de cargas en redes radiales, se emplea el método debido a Haque [16], el cual es relativamente fácil de programar, converge muy rápido y ofrece soluciones exactas. Este método consta de dos etapas. En un principio se aplica la ley de conservación de la energía en cada nodo del sistema, comenzando desde los nodos terminales hasta llegar a la subestación del sistema (barrido aguas arriba). En esta primera etapa se asume que la tensión en cada nodo es igual a la tensión de la subestación de la red. El segundo barrido (barrido aguas abajo) emplea la segunda ley de Kirchhoff para calcular las caídas de tensión en cada alimentador, comenzando desde la subestación hasta los nodos terminales. Este proceso permite obtener nuevos valores para las tensiones nodales, que se emplean luego en el nuevo barrido aguas arriba de la siguiente iteración. El proceso se detiene cuando la diferencia entre las tensiones nodales de dos iteraciones sucesivas es menor que una tolerancia establecida por el usuario [17]. 8 Figura 6: Diagrama de flujo del OCMBC. 9 Las ecuaciones (6) y (7) permiten calcular las pérdidas de potencia aparente compleja y las tensiones nodales, en cada iteración del método. ∆𝑆𝑡 𝑖𝑗 = (𝑃𝑖𝑛𝑦𝑒𝑐𝑡𝑎𝑑𝑎 𝑡 𝑗 ) 2 + (𝑄𝑖𝑛𝑦𝑒𝑐𝑡𝑎𝑑𝑎 𝑡 𝑗 ) 2 (𝑈𝑡 𝑗 )2 ∙ (𝑅𝑖𝑗 + 𝑗𝑋𝑖𝑗) (6) 𝑈𝑡 𝑗 = 𝑈𝑡𝑖 − ( 𝑃𝑒𝑛𝑣í𝑜 𝑡 𝑖 ∙ 𝑅𝑖𝑗 + 𝑄𝑒𝑛𝑣í𝑜 𝑡 𝑖 ∙ 𝑋𝑖𝑗 𝑈𝑡𝑖 + 𝑗 𝑃𝑒𝑛𝑣í𝑜 𝑡 𝑖 ∙ 𝑋𝑖𝑗 − 𝑄𝑒𝑛𝑣í𝑜 𝑡 𝑖 ∙ 𝑅𝑖𝑗 𝑈𝑡𝑖 ) (7) Donde: ∆𝑆𝑡 𝑖𝑗 : Pérdidas de potencia aparente compleja de la iteración 𝑡, en la línea que conecta al nodo 𝑖 con el nodo 𝑗 (kVA). 𝑃𝑖𝑛𝑦𝑒𝑐𝑡𝑎𝑑𝑎 𝑡 𝑗 𝑦 𝑄𝑖𝑛𝑦𝑒𝑐𝑡𝑎𝑑𝑎 𝑡 𝑗 : Potencias activa y reactiva inyectadas en el nodo 𝑗 en la iteración 𝑡 (kW y kvar respectivamente). 𝑃𝑒𝑛𝑣í𝑜 𝑡 𝑖 y 𝑄𝑒𝑛𝑣í𝑜 𝑡 𝑖 : Potencias activa y reactiva del envío de la línea que conecta los nodos 𝑖 y 𝑗 para la iteración 𝑡. (kW y kvar respectivamente). 𝑈𝑡𝑗: Módulo de la tensión del nodo 𝑗 en la iteración 𝑡. (kV). 𝑈𝑡𝑖: Módulo de la tensión del nodo 𝑖 para la iteración 𝑡 (La de la subestación siempre es fija, por lo que no itera). (kV). 𝑈𝑡 𝑗 : Tensión fasorial del nodo 𝑗 para la iteración 𝑡 (Este nodo siempre se encuentra aguas abajo del 𝑖). (kV). 𝑅𝑖𝑗 𝑦 𝑋𝑖𝑗: Resistencia y reactancia del alimentador que conecta los nodos 𝑖 y 𝑗 (Ω). La condición de culminación del flujo de cargas está dada por la ecuación (8). 𝑆𝑖 |𝑈𝑡 𝑖 − 𝑈𝑡−1 𝑖 | < 𝑇𝑜𝑙𝑒𝑟𝑎𝑛𝑐𝑖𝑎 ∀𝑖 = 2, 𝑛 ⇒ 𝑇𝑒𝑟𝑚𝑖𝑛𝑎 𝑒𝑙 𝐹𝑙𝑢𝑗𝑜 (8) Donde: 𝑈𝑡 𝑖 : Tensión fasorial del nodo 𝑖 en la iteración 𝑡 (kV). 𝑈𝑡−1 𝑖 : Tensión fasorial del nodo 𝑖 en la iteración 𝑡 − 1 (kV). Función objetivo del algoritmo En este trabajo se emplea una función de objetivos múltiples (𝑓), compuesta por dos variables, que a su vez dependen de los resultados del flujo de cargas. La primera variable está asociada con las pérdidas de potencia activa del sistema (𝑓Δ𝑃). La ecuación (9) permite calcular estas pérdidas por medio de la sumatoria de la parte real de la matriz de pérdidas de potencia aparente. 𝑓Δ𝑃 =∑∑𝑟𝑒𝑎𝑙(∆𝑆 𝑗𝑘) 𝑛−1 𝑘=1 𝑛−1 𝑗=1 (9) Donde: 𝑛: Nodos del sistema de distribución radial. El perfil de tensión puede ser mejorado reduciendo la diferencia entre el módulo de la tensión de cada nodo y la tensión nominal del sistema. Una de las mejores formas de alcanzar este objetivo es emplear la desviación cuadrática media de tensión (DCMT), como parámetro de ajuste para las tensiones del sistema. El empleo de la DCMT (variable 𝑓Δ𝑈) permite reducir las desviaciones que existen entre las tensiones del sistema y la nominal. 10 La variable 𝑓Δ𝑈 dependerá de la suma del cuadrado de las desviaciones de las tensiones en cada nodo del sistema, y se define por la ecuación (10). 𝑓Δ𝑈 = 1 𝑛 ∙∑(𝑈𝑛𝑜𝑚 − 𝑈𝑘) 2 𝑛 𝑘=1 (10) Donde: 𝑈𝑛𝑜𝑚: Tensión nominal del sistema de distribución (kV). 𝑈𝑘: Módulo de las tensiones de cada nodo del sistema. Elementos del vector (𝑈) (kV). Formulación de la función de objetivos múltiples La función de objetivos múltiples se compone por las dos variables 𝑓Δ𝑃 y 𝑓Δ𝑈, dos factores de peso llamados 𝜔1 y 𝜔2, y un factor de penalización 𝑎. Es necesario, calcular las pérdidas de potencia activa del sistema (∆𝑃0) y su DCMT (Δ𝑈0), en su estado inicial. Estos valores se obtienen empleando las ecuaciones (9) y (10), luego de correr un flujo de cargas, sin presencia de CGD. La expresión que permite obtener el valor de 𝑓 es entonces: 𝑓 = 𝑎 ∙ (𝜔1 ∙ 𝑓Δ𝑃 ∆𝑃0 + 𝜔2 ∙ 𝑓Δ𝑈 ∆𝑈0 ) (11) Donde: 𝑎 = { D 1 si se incumple con (9) 𝑦 (10) . en cualquier otro caso La variable 𝐷 puede tomar cualquier valor de los números reales positivos (ℝ+), mientras que sea lo suficientemente grande para que, a la hora de minimizar el valor de 𝑓, esa solución no se tenga en cuenta si se incumple alguna restricción en estado estacionario del sistema. Los valores de 𝜔1 y 𝜔2 deben ser elegidos por el usuario. Si 𝜔1 = 1 y 𝜔2 = 0 solo se minimizan las pérdidas de potencia activa, en cambio si 𝜔1 = 0 y 𝜔2 = 1 se mejorará únicamente el perfil de tensión. Asignar valores intermedios a estos factores de peso permitirá que la función objetivo reduzca tanto la DCMT como las pérdidas de potencia activa del sistema. Debe aclararse que la suma de estos factores siempre debe ser igual a 1. Por último, la formulación matemática del problema de optimización que resuelve el algoritmo propuesto en este trabajo es minimizar 𝑓 (𝑓Δ𝑃 , 𝑓Δ𝑈) (12) Sujeto a las restricciones (13) - (19). Restricciones de igualdad Las restricciones de igualdad del problema de optimización se modelan por las ecuaciones (13) y (14). 𝑃𝐺 = 𝑃𝐷 +∑∑𝑟𝑒𝑎𝑙(∆𝑆 𝑗𝑘) 𝑛−1 𝑘=1 𝑛−1 𝑗=1 (13) 11 𝑄𝐺 = 𝑄𝐷 +∑∑𝑖𝑚𝑎𝑔(∆𝑆 𝑗𝑘) 𝑛−1 𝑘=1 𝑛−1 𝑗=1 (14) Las ecuaciones anteriores garantizan el balance de potencia del sistema, cumpliéndose la ley de conservación de la energía. 𝑃𝐺 y 𝑄𝐺 son la suma de las potencias activa y reactiva entregadas por las CGD y la subestación del sistema de distribución. En cambio, 𝑃𝐷 y 𝑄𝐷 son la suma de las potencias activa y reactiva demandadas por los nodos del sistema. Restricciones de desigualdad Las restricciones de desigualdad del problema de optimización se presentan en las ecuaciones (15), (16), (17), (18) y (19). 𝑈𝑚í𝑛 ≤ 𝑈𝑘 ≤ 𝑈𝑚á𝑥 (15) 𝐼𝑗𝑘 ≤ 𝐼𝑗𝑘 , 𝑚á𝑥 (16) 𝑃𝑘 , 𝑚í𝑛 𝐺𝐷 ≤ 𝑃𝑘 𝐺𝐷 ≤ 𝑃𝑘 , 𝑚á𝑥 𝐺𝐷 (17) 𝑄𝑘 , 𝑚í𝑛 𝐺𝐷 ≤ 𝑄𝑘 𝐺𝐷 ≤ 𝑄𝑘 , 𝑚á𝑥 𝐺𝐷 (18) 𝑃𝑘 𝐺𝐷 √(𝑃𝑘 𝐺𝐷)2 + (𝑄𝑘 𝐺𝐷)2 ≥ 𝑓𝑝 (19) La restricción (15) permite que el perfil de tensión del sistema de distribución se encuentre entre los valores de tensión mínima y máxima establecidos por el usuario (𝑈𝑚í𝑛 y 𝑈𝑚á𝑥). La variable 𝐼𝑗𝑘 define el valor de las corrientes de cada alimentador del sistema. En cambio 𝐼𝑗𝑘 , 𝑚á𝑥 es el límite máximo que se puede trasmitir por cada uno de ellos. Las variables 𝑃𝑘 , 𝑚í𝑛 𝐺𝐷 y 𝑃𝑘 , 𝑚á𝑥 𝐺𝐷 son los valores mínimo y máximo de potencia activa que pueden ser instalados en la CGD del nodo 𝑘 del sistema de distribución. De forma análoga ocurre con las variables 𝑄𝑘 , 𝑚í𝑛 𝐺𝐷 y 𝑄𝑘 , 𝑚á𝑥 𝐺𝐷 . Vale aclarar que si 𝑃𝑘 , 𝑚á𝑥 𝐺𝐷 toma un valor nulo en el nodo 𝑘, entonces en él no se instalarán centrales. En cambio, si 𝑄𝑘 , 𝑚á𝑥 𝐺𝐷 es cero en el nodo 𝑘, la central se verá forzada a operar a factor de potencia unitario. La restricción (19) garantiza que la central que sea instalada en el nodo 𝑘 no opere a un factor de potencia inferior a un valor definido por la constante 𝑓𝑝. SISTEMA DE 33 NODOS DEL IEEE El sistema de prueba fue empleado por Baran and Wu en 1989 y se conoce en la bibliografía como IEEE 33 bus [21]. Este se ha empleado para validar diferentes algoritmos que persiguen integrar de manera óptima generación distribuida en redes eléctricas [6], [22]–[24]. En la figura 7 se observa el diagrama unifilar de la red [25]. El nodo de referencia opera a la tensión nominal (12,66 kV), la carga total de potencia activa y reactiva instalada es 3 715 kW y 2 300 kvar respectivamente. Sin instalar generación distribuida las pérdidas de potencia activa son de 210,99 kW, lo que representa un 5,374% de la potencia activa consumida por el sistema. Además, la tensión del peor nodo es de 0,9038 p.u, representando una diferencia de un 9,62% con respecto a la tensión del nodo de referencia. 12 Figura 7: Diagrama unifilar del sistema de 33 nodos de MT del IEEE. Tomado de [25]. VALIDACIÓN DEL ALGORITMO PROPUESTO En [26], los autores emplearon un método llamado Ant Lion Optimizer (ALO). Por medio de este método se encontró la capacidad óptima de una CGD que opera a un factor de potencia unitario, en un escenario que solo perseguía reducir pérdidas de potencia activa con restricciones de tensión de 0,9 a 1,05 p.u. A partir de este escenario se comparan en la tabla 1 los resultados del ALO con los del algoritmo propuesto. Tabla 1: Comparación entre los resultados del algoritmo de OCMBC y el ALO. IEEE 33 Sin CFV Con 1 CFV Con 2 CFV OCMBC ALO OCMBC ALO OCMBC ALO Ubicación de las CFV - - 6 6 13 y 30 13 y 30 Capacidad de las CFV (kW) - - 2 590,30 2 590,20 851,5 1 157,6 851,5 1 157,6 Pérdidas de potencia activa (kW) 210,999 210,998 111,031 111,030 87,161 87,167 Porciento de reducción de pérdidas 0 0 47,30 47,379 58,691 58,688 Nodo con peor tensión 18 18 18 18 33 33 Tensión del peor nodo en p.u 0,9038 0,9038 0,9424 0,9424 0,9685 0,9685 La diferencia entre las pérdidas del sistema de distribución sin tener instalada ninguna CGD es tan solo del 0,0005% y se puede observar que los demás resultados para este escenario coinciden. Al instalar una y dos CGD prácticamente se obtienen los mismos resultados para ambos métodos, tan solo se presentan ligeras diferencias en las pérdidas de potencia activa de 0,0009 y 0,0069 % respectivamente. 13 Se puede comprobar la exactitud y validez del algoritmo de OCMBC con los resultados de otros métodos como el PSO y el Whale Optimization Algorithm, para el mismo problema de optimización presentado en esta sección [6], [27], [28]. RESULTADOS OBTENIDOS Para facilitar la descripción de los resultados se establece un escenario general de donde parten todas las simulaciones que se realizarán. Se instalarán dos centrales que generarán potencia activa y reactiva a un factor de potencia de 0,9 en adelanto. Las restricciones de capacidad mínima y máxima en todos los nodos del sistema serán de 0,5 MW y 2,5 MW respectivamente. Esto garantiza que todas las centrales que se instalen tengan una capacidad que este entre estos valores. La desviación máxima que pueden sufrir las tensiones en los nodos será del ±5% y se tendrán en cuenta los límites térmicos de los alimentadores del sistema por medio de su ampacidad. El valor de los factores de peso de la función de objetivos múltiples, 𝜔1 y 𝜔2 será de 0,5; lo que significa que la reducción de pérdidas y la mejoría del perfil de tensión serán tareas con el mismo grado de importancia. Para demostrar las potencialidades del algoritmo se necesitará cambiar al menos uno de estos parámetros, lo que se aclarará antes de describir los resultados que se obtengan. Influencia del número de CGD a instalar El algoritmo de OCMBC permite instalar tantas CGD como número de nodos tenga el sistema de distribución. En la tabla 2 se presentan los resultados del método al ubicar y dimensionar de una a cuatro CGD en el sistema de 33 nodos. Se observa como el valor de la función objetivo (𝑓) decrece a medida que se incrementa el número de centrales instaladas en el sistema, lo que es respaldado por la reducción de las pérdidas de potencia activa. También se manifiesta una mejoría significativa en el perfil de tensión lográndose en todos los escenarios que, con al menos una central, existan al menos 0,95 p.u en el peor nodo (diferencia del -5% con respecto a la tensión de referencia). Es de destacar que los beneficios obtenidos son cada vez menores al incrementar el número de centrales en el sistema de distribución, considerándose el mejor escenario el de 3 CGD, debido a la importante reducción de pérdidas que se obtiene. También se puede observar como al instalar cuatro centrales, la restricción de capacidad mínima actúa, acotando una de estas en 500 kW. Tabla 2: Resultados al instalar de una a cuatro CGD en el sistema de 33 nodos del IEEE. IEEE 33 Escenario Sin CGD 1 CGD 2 CGD 3 CGD 4 CGD Ubicación (nodo) - 30 13 y 30 13, 24 y 30 7, 14, 24 y 30 𝑷 (kW) - 2 387,1 909,6 1 319,2 807,2 1 039,2 1 293,6 500 692 960,8 1 114,4 𝐜𝐨𝐬(𝝋) (todas las CGD) - 0,900 0,900 0,900 0,900 Valor de 𝒇 1,000 0,3015 0,0899 0,0459 0,0347 Pérdidas de Potencia Activa (kW) 210,99 92,953 35,482 18,571 14,1862 % de reducción de pérdidas de potencia activa 0,000 55,94 83,18 91,20 93,28 𝑼𝒎í𝒏 (p.u) 0,9038 0,95 0,9805 0,9928 0,9941 𝑼𝒎á𝒙 (p.u) 1,000 1,0250 1,0040 1,0014 1,0021 Tiempo de ejecución (s) - 0,650 12,426 251,354 2 838,797 14 En la tabla anterior también se observa como los tiempos aumentan exponencialmente a medida que se incrementa el número de centrales. El factor que influye con mayor peso es la cantidad de nodos del sistema que considera el programa para realizar la búsqueda. La demora es bastante grande cuando se desea ubicar y dimensionar más de dos centrales, llegando a tardar 2 838,797 segundos (aproximadamente 47 minutos y 19 segundos) para cuatro centrales. Esto se considera la mayor desventaja de este método de optimización. Influencia de las restricciones de tensión y corriente máxima. En el primer escenario se instalaron dos CGD definiendo la restricción mínima de tensión para todos los nodos del sistema como 0,99 p.u; mientras que en el segundo escenario se forzó aún más este límite usando el valor de 1 p.u. Para cumplir con estas restricciones de tensión se necesitó violar las de capacidad por nodos y las de corriente máxima o ampacidad. Nótese además las consecuencias de definir restricciones tan críticas ya que el valor de la función objetivo se incrementa incluso por encima de su valor inicial en el escenario II y las pérdidas del sistema llegan a ser casi el doble. Tanto en los escenarios I y II se mantiene como límite máximo de tensión el valor de 1,05 p.u. En el tercer escenario se estableció como límite de corriente máxima el valor de 1 A por la línea 3-23 del sistema de prueba. El propósito de definir una restricción tan crítica es mostrar la capacidad que tiene el algoritmo para encontrar soluciones ante estas circunstancias. Partiendo de la condición anterior, se modeló el último escenario forzando a la corriente que circula por la línea 6-26 a que también sea menor que 1 A. Estas líneas son dos de las más cargadas del sistema, bajo las condiciones iniciales. Para encontrar una solución para el último escenario se necesitó violar las restricciones de operación de las centrales. Los resultados del algoritmo ante estas restricciones se muestran en la tabla 3. Estos resultados demuestran las ventajas que ofrece el método de optimización a la hora de satisfacer restricciones muy críticas. Tabla 3: Influencia de las restricciones de tensión y corriente en el sistema de 33 nodos del IEEE. IEEE 33 Escenario Sin CFV I II III IV Ubicación - 6 y 13 3 y 7 7 y 23 23 y 26 𝑷 (kW) - 4 148,8 454,4 10 825 2 715 2 500 956,4 955,61 963,59 𝐜𝐨𝐬(𝝋) - 0,9448 0,9020 0,9897 0,9473 0,9000 0,9000 0,8993 0,6998 Valor de 𝒇 1,000 0,2669 1,0431 0,1963 0,4082 Pérdidas de Potencia Activa (kW) 210,999 103,532 416,384 63,648 88,148 % de reducción de pérdidas de potencia activa 0,000 50,93 -97,35 69,83 58,22 𝑼𝒎í𝒏 (p.u) 0,9038 0,9900 1,0000 0,9650 0,9329 𝑼𝒎á𝒙 (p.u) 1,000 1,0274 1,0405 1,0045 1,0000 Corrientes por las líneas 3 – 23 y 6 – 26 (A) 48,484 65,364 47,475 60,143 45,938 59,547 0,9985 61,861 0,9961 0,9973 En la figura 8 se comparan los perfiles de tensión de los escenarios I y II, con los del estado inicial del sistema. Se aprecia que estos concuerdan con los valores de tensión mostrados en la tabla 3. 15 Figura 8: Comparación de los perfiles de tensión del sistema de 33 nodos del IEEE obtenidos al instalar dos CGD que garantizarán las restricciones de tensión del algoritmo de OCMBC. Del escenario II vale destacar que, aunque la tensión mínima sea 1 p.u, en vez de disminuir la desviación cuadrática media del perfil de tensión con respecto al caso I, aumenta y de forma considerable. Esto permite concluir que no siempre es provechoso establecer restricciones tan críticas en este tipo de problema de optimización. La figura 9 muestra el módulo de las corrientes que circulan por los principales alimentadores del sistema y los valores de la restricción máxima de corriente (𝐼𝑚á𝑥), para los escenarios III y IV. En ella se aprecia como las corrientes por todas las líneas se encuentran por debajo de la restricción. Puede observarse que las corrientes por las líneas 3 – 23 y 6 – 26 quedan limitadas a casi 1 A en el escenario IV. Figura 9: Comparación entre los módulos de las corrientes y la restricción de corriente máxima de los conductores del sistema de 33 nodos del IEEE, en los escenarios III y IV. 0,990 p.u 1,000 p.u 0,90 0,91 0,92 0,93 0,94 0,95 0,96 0,97 0,98 0,99 1,00 1,01 1,02 1,03 1,04 1,05 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 T en si ó n ( p .u ) Nodos Sin CGD Escenario I Escenario II 3-23; 0,996 6-26; 0,997 0,000 20,000 40,000 60,000 80,000 100,000 120,000 140,000 160,000 180,000 200,000 220,000 240,000 260,000 280,000 300,000 1 -2 2 -3 3 -4 4 -5 5 -6 6 -7 7 -8 8 -9 9 -1 0 1 0 -1 1 1 1 -1 2 1 2 -1 3 1 3 -1 4 1 4 -1 5 1 5 -1 6 1 6 -1 7 1 7 -1 8 2 -1 9 1 9 -2 0 2 0 -2 1 2 1 -2 2 3 -2 3 2 3 -2 4 2 4 -2 5 6 -2 6 2 6 -2 7 2 7 -2 8 2 8 -2 9 2 9 -3 0 3 0 -3 1 3 1 -3 2 3 2 -3 3 C o rr ie n te s (A ) Líneas (A) Sin CGD Escenario III Escenario IV Imax 16 Influencia del modo de operación de las CGD El algoritmo de optimización propuesto permite modelar la generación o consumo de potencia reactiva por parte de las CGD, acotando su factor de potencia. Para lograr que las centrales consuman potencia reactiva de la red, es necesario ubicar bancos de condensadores en algunos nodos con el fin de que se produzca sobre compensación. Por esta razón se decide modificar el sistema de distribución, instalando dos bancos de condensadores de 600 kvar. Los condensadores se ubican en los nodos 14 y 31 del sistema de distribución, reduciendo las pérdidas de potencia activa en un 28,23% y aumentando la tensión del nodo 18 (nodo con peor tensión) de 0,9038 p.u a 0,9377 p.u (vea la tabla 4). Tabla 4: Influencia del factor de potencia de operación de las CGD en los resultados del algoritmo de OCMBC. IEEE 33 Escenario Sin CGD y Condensadores Con condensadores I II Ubicación - 14 y 31 12 y 30 14 y 29 𝑷 (kW) - 600 kvar 970,5 1 204,2 824,7 1 266,4 𝐜𝐨𝐬(𝝋) - 0 1,000 1,000 0,971 (ind) 0,923 (cap) Valor de 𝒇 1,000 - 0,1323 0,1076 Pérdidas de Potencia Activa (kW) 210,99 151,419 36,665 29,660 % de reducción de pérdidas de potencia activa 0,000 28,23 82,62 85,94 𝑼𝒎í𝒏 (p.u) 0,9038 0,9377 0,9805 0,9808 𝑼𝒎á𝒙 (p.u) 1,000 1,000 1,0036 1,0041 Tomando como partida las condiciones del sistema con los condensadores instalados, se consideran dos escenarios más donde las centrales operarán en regímenes diferentes. En el primer escenario se encontrarán las capacidades y ubicaciones de dos centrales que generen solo potencia activa, mientras que en el segundo ambas centrales podrán generar o consumir reactivo, sin que el factor de potencia llegue a ser inferior a 0,9. En la tabla 4 nótese que, en el segundo escenario, la central instalada en el nodo 14 consume potencia reactiva a un factor de potencia de 0,971; o sea, esta central está compensando la generación del banco de condensadores fijo que se encuentra ubicado en este nodo. En cambio, la central del nodo 29 entrega potencia reactiva al sistema junto con el banco de condensadores que se encuentra instalado en el nodo 31. Este análisis permite concluir que el banco de condensadores instalado en el nodo 14 debería haber sido de menor capacidad (unos 300 kvar) y el del nodo 31 podía haber sido de mayor capacidad (unos 750 kvar). En la figura 10 se observa que, en los sistemas de distribución de MT, tanto la generación de potencia activa y el consumo o generación de potencia reactiva, permiten modificar el perfil de tensión de la red. Los escenarios I y II disminuyen considerablemente las diferencias de las tensiones de los nodos con respecto al valor nominal, gracias, en parte, a su generación de potencia activa. En la sección compuesta por los nodos del 25 al 33 es donde se aprecia una ligera diferencia entre los escenarios I y II, la que se debe a que la central instalada en el nodo 29 opera en régimen capacitivo en el escenario II. 17 Figura 10: Comparación de los perfiles de tensión del sistema de 33 nodos al instalar bancos de condensadores y generación distribuida que opera a distintos factores de potencia. CONCLUSIONES Y ALCANCE PARA FUTUROS TRABAJOS En este trabajo se empleó un método heurístico para resolver un problema de optimización de objetivos múltiples, cuyo fin era el dimensionamiento y ubicación de centrales de generación distribuida para reducir las pérdidas de potencia activa de un sistema de distribución y mejorar su perfil de tensión. El algoritmo propuesto (OCMBC) puede encontrar resultados satisfactorios en sistemas cuyas restricciones sean críticas. Permite modelar en estado estacionario cualquier tipo de generación distribuida ya que se puede ajustar su modo de operación para adaptarla a cualquier tipo de tecnología. El método también difiere de otros presentes en la bibliografía debido a que no emplea la generación de números aleatorios ni de una población para ejecutar la búsqueda del óptimo de la función objetivo. Presenta como principal desventaja su tiempo de ejecución el cual se incrementa a medida que crecen el número de centrales a instalar y los nodos del sistema a analizar. Por esta razón se propone para trabajos futuros que sea implementado con otro método de optimización como el PSO o el EHO con el fin de que estos ejecuten una búsqueda menos exacta pero rápida del óptimo y luego el OCMBC obtenga un ajuste fino de las capacidades de las centrales de generación distribuida. REFERENCIAS BIBLIOGRÁFICAS [1] H. Ritchie y M. Roser, «Energy», Our World in Data, jul. 2018. https://ourworldindata.org/energy. [2] Berkeley earth, «Global Temperature Report for 2019», Berkeley earth. http://berkeleyearth.org/archive/2019-temperatures/. [3] Internationa Energy Agency, «World Energy Outlook 2019», IEA, nov. 2019. https://www.iea.org/reports/world-energy-outlook-2019. [4] K. Park, «Llegar a cero emisiones netas de carbono para 2050, ¿es posible?», UN News, oct. 30, 2019. https://news.un.org/es/story/2019/10/1464591. [5] M. Lewis, «EIA Projects Renewables Will be “Most used” Energy Source in 2050, but...», Competitive Enterprise Institute, ene. 13, 2020. https://cei.org/blog/eia-projects-renewables-will-be-%E2%80%9Cmost- used%E2%80%9D-energy-source-2050%E2%80%94-%E2%80%A6. [6] P. Dinakara Prasad Reddy, V. C. Veera Reedy, y T.Gowri Manohar, «Whale optimization algorithm for optimal sizing of renewable resorces for loss reduction in distribution systems.», Renewables: Wind,Water, and Solar, vol. 4, n.o 3, pp. 1-13, mar. 07, 2017. [7] P. Prakash y D. K. Khatod, «Optimal sizing and siting techniques for distributed generation in distribution systems: A review.», Renewable and Sustainable Energy Reviews, vol. 57, pp. 111-130, 2016. 0,880 0,900 0,920 0,940 0,960 0,980 1,000 1,020 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 T en si ó n ) ( p .u ) Nodos Sin CGD y Condensadores Con condensadores Escenario I Escenario II 18 [8] M. A. Kashem, A. D. T. Le, M. Negnevitsky, y G. Ledwich, «Distributed Generation for Minimization of Power Losses in Distribution Systems», Montreal, 2006, pp. 1-8. [9] V. V. S. N. Murthy y A. Kumar, «Comparison of optimal DG allocation methods in radial distribution systems based on sensitivity approaches», Electrical Power and Energy Systems, vol. 53, pp. 450-467, 2013. [10] N. Khalesi, N. Rezaei, y M.-R. Haghifam, «DG allocation with application of dynamic programming for loss reduction and reliability improvement.», Electrical Power and Energy Systems, vol. 33, pp. 288-295, 2011. [11] S. Kaur, G. Kumbhar, y J. Sharma, «A MINLP technique for optimal placement of multiple DG units in distribution systems», Electrical Power and Energy Systems, vol. 63, pp. 609-617, 2014. [12] A. Ali, M. Fakhizan Romlie, N. Mohd Nor, y T. Ibrahim, «Optimization for the planning of distributed renewable generators using genetic algorithm.», Kuala Lumpur, 2018, pp. 1-6. [13] I. J. Hasan, M. R. A. Ghani, y C. K. Gan, «Optimum Distributed Generation Allocation Using PSO in order to Reduce Losses and Voltage Improvement», Kuching, 2014, pp. 1-6. [14] Sh. Abdi y K. Afshar, «Application of IPSO-Monte Carlo for optimal distributed generation allocation and sizing», Electrical Power and Energy Systems, vol. 44, pp. 786-797, 2013. [15] A. El-Fergany, «Optimal allocation of multi-type distributed generators using backtracking search optimization algorithm», Electrical Power and Energy Systems, vol. 64, pp. 1197-1205, 2015. [16] M. H. Haque, «Efficient load flow method for distribution systems with radial or mesh configuration», IEEE Proceedings-Generation, Transmission and Distribution, vol. 143, n.o 1, pp. 33-38, 1996. [17] «Garcés Ruiz et al. - 2004 - Flujo de Carga Trifásico para Sistemas Radiales de.pdf». . [18] M. Dorigo, V. Maniezzo, y A. Colorni, «Ant system: optimization by a colony of cooperating agents», Transaction of the American Institute of Electrical Engineers, vol. 26, n.o 1, pp. 1-13, 1996. [19] A. Colorni, M. Dorigo, F. Maffioli, V. Maniezzo, G. Righini, y M. Trubian, «Heuristics from Nature for Hard Combinatorial Optimization Problems». [20] Manuel Álvarez, Alfredo Guerra, y Rogelio Lau, Matemática Numérica, 2da edición. . [21] M. E. Baran y F. F. Wu, «Optimal sizing of capacitors placed on a radial distribution system.», IEEE Transactions on Power Delivery, vol. 4, n.o 1, 1989. [22] Mehdi Rezaei y Mahmood Ghanbari, «Optimization of sizing and placement of photovoltaic (PV) system in distribution networks considering power variations of PV and consumers using Dynamic Particle Swarm Optimization Algorithm (DPSO).», Indian Journal of Fundamental and Applied Life Sciences, vol. 5, pp. 3321-3327, 2015. [23] Minh Quan Duong, Thai Dinh Pham, Thang Trung Nguyen, Anh Tuan Doan, y Hai Van Tran, «Determination of Optimal Location and Sizing of Solar Photovoltaic Distribution Generation Units in Radial Distribution Systems», Energies, vol. 12, n.o 174, ene. 06, 2019. [24] C. Hari Prasad, K. Subbaramaiah, y P. Sujatha, «Cost–benefit analysis for optimal DG placement in distribution systems by using elephant herding optimization algorithm», Renewables: Wind,Water, and Solar, vol. 6, n.o 2, pp. 1-12, 2019. [25] Arif Wazir y Naeem Arbab, «Analysis and Optimization of IEEE 33 Bus Radial Distributed System Using Optimization Algorithm», Journal of Emerging Trends in Applied Engineering, vol. 1, n.o 2, pp. 1-5, 2016. [26] Asmaa H. Ali, Abdel-Raheem Youssef, Thomas George, y Salah Kamel, «Optimal DG Allocation in Distribution Systems Using Ant Lion Optimizer», presentado en International Conference on Innivative Trends in Computer Engineering, Aswan University, Egypt, 2018, vol. 978, pp. 324-331. [27] Dinakara Prasasd Reddy, Dr.V.C Veera Reddy, y Dr.T.Gowri Manohar, «Optimal renewable resources placement in distribution networks by combined power loss index and Whale optimization algorithms», Journal of Electrical Systems and Information Technology, vol. 170, pp. 1-30, may 22, 2017. [28] D.B. Prakash y C. Lakshminarayana, «Multiple DG Placements in Distribution System for Power Loss Reduction Using PSO Algorithm», en ELSEVIER, RAEREST, 2016, vol. 25, pp. 785-792, doi: 10.1016/j.protcy.2016.08.173. 1 IMPACTO DE LOS PARQUES FOTOVOLTAICOS EN LAS REDES DE DISTRIBUCIÓN RADIALES Ing. Urbano J. Pedraza Ferreira1, Ing. Carlos A. Perdomo Pérez2, Dr.C. Alfredo M. Del Castillo Serpa3 Dr.C. Ariel Santos Fuentefria4 1Adiestrado, Centro de Investigaciones y Pruebas Electroenergéticas (CIPEL) CUJAE, urbanoj@tesla.cujae.edu.cu 2Adiestrado, Centro de Investigaciones y Pruebas Electroenergéticas (CIPEL) CUJAE, cperdomop@electrica.cujae.edu.cu 3Profesor Titular Consultante, Instituoto de Ciencicias Báscias, CUJAE, 4Profesor Titular, Centro de Investigaciones y Pruebas Electroenergéticas (CIPEL) CUJAE, asfuentefria@electrica.cujae.edu.cu RESUMEN El uso de las fuentes renovables de energía se ha incrementado exponencialmente a nivel mundial. Cuba ha implementado un plan hasta el 2030 donde las fuentes renovables juegan un papel fundamental dentro de la matriz energética nacional. La política con respecto a la instalación de centrales fotovoltaicas ha sido conectar pequeñas centrales de hasta 5 MW, principalmente en redes de distribución. En este trabajo se analiza el impacto que tiene la instalación de parques fotovoltaicos en las redes de distribución radiales. Aspectos como los mejores puntos para la conexión de centrales fotovoltaicas con la red, capacidad de la central, perfil de tensión y pérdidas totales de potencia activa son estudiados y analizados. El conocimiento del impacto de este tipo de tecnología en las redes de distribución permite ubicar las centrales fotovoltaicas en el punto óptimo del circuito, disminuyendo las pérdidas de potencia activa, mejorando el perfil de tensión, ahorrando combustible y reduciendo las emisiones de gases de efecto invernadero a la atmósfera. La principal ventaja del método de análisis es que realiza una búsqueda exhaustiva de todas las posibles configuraciones del sistema y por tanto evita posibles errores derivados de la presencia de mínimos locales. De igual manera, esta característica permite la obtención de numerosos resultados con el análisis del sistema, sin necesidad de rehacer el proceso. La ubicación de la central fotovoltaica dentro de la red eléctrica dependerá de la función objetivo que se analice, obteniéndose diferentes puntos de conexión para cada una, aunque puede que, en dependencia del sistema analizado y bajo ciertas condiciones, se obtengan soluciones óptimas equivalentes. PALABRAS CLAVES: Algoritmo de optimización; centrales fotovoltaicas; flujo de cargas; problema de asignación generalizado; red eléctrica de distribución radial. IMPACT OF SOLAR PARKS ON RADIAL DISTRIBUTION NETWORKS ABSTRACT The use of renewable energy sources has increased exponentially worldwide. Cuba has implemented a plan until 2030 where renewable sources play a fundamental role within the national energy matrix. The policy regarding the installation of solar plants has been to connect small plants up to 5 MW, mainly in distribution networks. This paper analyzes the impact that solar parks has on radial distribution networks. Aspects such as the best points of common coupling with the network, capacity of the solar plant, voltage profile and total losses of active power are studied and analyzed. Knowledge of the impact of this type of technology on distribution networks allows located solar plants at the optimal point of the circuit, reducing active power losses, improving the voltage profile, saving fuel and reducing greenhouse gas emissions. to the atmosphere. The main advantage of the analysis method is that it performs an exhaustive search of all the possible configurations of the system and therefore avoids possible errors derived from the presence of local minima. In 2 the same way, this characteristic allows obtaining numerous results with the analysis of the system, without the need to rerun the process. The location of the solar plant within the electrical network will depend on the objective function that is analyzed, obtaining different connection points for each one, although, depending on the system analyzed and under certain conditions, equivalent optimal solutions may be obtained. KEY WORDS: generalized assignation problem; optimization algorithm; power flow; radial distribution INTRODUCCIÓN Los combustibles fósiles han sido los impulsores del desarrollo tecnológico e industrial en el último siglo, no obstante, su uso ha propiciado un elevado deterioro del medio ambiente. El aumento de los días de calor extremo al año, el incremento del nivel del mar y la ocurrencia de desastres naturales cada vez más destructivos son muestras de ello [1]. Estos fenómenos han impulsado la búsqueda de nuevas alternativas para la producción de energía eléctrica. Una de las principales variantes que viene tomando auge hace algunos años es el desarrollo y uso de las fuentes renovables de energía (FRE). El autor en [2] menciona que el 26,2% de la energía eléctrica producida en el mundo al finalizar el año 2018 se produjo utilizando FRE, siendo tercera la solar fotovoltaica fue la tercera en importancia con un 2,4%. Por su parte, se estima que cada será mayor la participación de las fuentes renovables de energía en el mercado eléctrico ya que crece a un ritmo de un 3,6% anual, y se prevé que se mantenga en ese orden hasta el 2050. Para ese mismo año se prevé que la producción de energía eléctrica crezca en un 70% en comparación con el 2018. Por su parte, las FRE representarán cerca de la mitad de las fuentes de energía, sumando la solar y eólica el 70% de las mismas [3]. El desarrollo de la energía solar será clave para alcanzar las metas de casi un 50% de participación de FRE en la matriz energética mundial para 2050. Para Cuba, en particular, representa un gran potencial producto a la intensidad de la radiación a la que está expuesta. Acorde al programa energético del país para el 2030, se plantea que el 24% de la matriz energética sea a través de la generación por FRE [4]. Según el plan del gobierno cubano se espera que para el año 2030 la capacidad fotovoltaica instalada sea de 700 MW, lo que representaría un 3% de la energía consumida por el país en ese año [5, 6]. Por consiguiente, la instalación de centrales fotovoltaicas (CFV) crecerá a ritmo exponencial y con ello surge la necesidad de aprovechar al máximo sus potencialidades. La decisión de la dirección del país va encaminada a distribuir las centrales fotovoltaicas por todo el país en configuraciones de hasta 3 MW [5]. Por lo tanto, estas se deberán conectar a las redes de distribución. En Cuba las redes de distribución son principalmente radiales. Esto indica que la energía tiene una sola trayectoria, desde la subestación hasta la carga. Su topología indica la existencia de un tronco o ramal principal del cual se van desprendiendo ramificaciones hacia todos los consumidores. Las redes radiales son de una baja complejidad y confiabilidad baja pero permiten a los sistemas con pocos recursos económicos una rápida expansión energética. La conexión de CFV en las redes de distribución pueden traer problemas de tensión y operación al sistema [7– 9], debido principalmente, a un valor de capacidad por encima del soportado por este [10, 11] o una mala selección del punto de conexión con la misma [12]. Para evitar estos problemas es de vital importancia seleccionar correctamente el punto de conexión de las CFV con la red, con el fin de minimizar las pérdidas totales de potencia activa y la desviación de tensión de todos los nodos de la red. En este trabajo se empleó un algoritmo que permite conocer el impacto que tendrá la conexión de centrales fotovoltaicas en los parámetros de operación de una red de distribución eléctrica radial con nodos de conexión. 3 MATERIALES Y MÉTODOS Se empleo un algoritmo para optimizar dos funciones objetivo por separado, minimizar las pérdidas de potencia activa totales del circuito o mejorar el perfil de tensión, y trabajando con m cantidad de CFV de capacidad fija (puede haber distintas capacidades en un mismo sistema, pero todas predefinidas). El algoritmo es capaz de determinar no solo el mejor punto de conexión con la red sino el mejor modo de operación de las centrales, entregando o consumiendo potencia reactiva, y en qué medida, siempre que no se afecte la producción de potencia activa. Por lo tanto, se decide emplear un modelo de asignación matemática N-P completo para optimizar la conexión de CFV a la red de distribución urbana y analizar el impacto de esta. Modelación matemática de un problema de asignación N-P completo Caso: asignación de m centrales fotovoltaicas (CFV) a n nodos de un sistema eléctrico radial. El problema de asignación generalizado (GAP) consiste en encontrar una asignación adecuada π de m tareas a n agentes de manera tal que se minimice el costo total de la asignación [13]. Este problema combinatorio es del tipo N-P completo de difícil solución [14]. Una asignación adecuada es una matriz de orden m por n cuyos elementos πij satisfacen las siguientes restricciones: } Ecuación 1 Ecuación 2 Ecuación 3 Donde: 𝜋𝑖𝑗- Elementos de la matriz de asignación adecuada. Además, los agentes pueden poseer recursos limitados para atender las tareas. Si se denota una matriz R de consumo de recursos en la cual el elemento rij representa los recursos consumidos por el agente j para atender la tarea i y una matriz o vector B cuyos elementos bj representa la capacidad total de recursos del agente j, entonces una asignación adecuada A debe satisfacer adicionalmente restricciones de la forma: Ecuación 4 Donde: - Recursos consumidos por el agente j para atender la tarea i. - Capacidad total de recursos del agente j. Cualquier asignación que satisfaga la Ecuación 1, la Ecuación 2 y la Ecuación 4 se denomina asignación adecuada y el conjunto de todas estas se denomina espacio de búsqueda finito del problema que tiene por función objetivo: Ecuación 5 4 - Función objetivo. - Costo de asignar la tarea i al agente j. Donde representa el costo de asignar la tarea i al agente j y es conocido para cada Ag según su matriz de costo . De esta manera el problema GAP queda formulado como: Ecuación 1 Sujeto a las restricciones mostradas en la ¡Error! No se encuentra el origen de la referencia., la ¡Error! No se encuentra el origen de la referencia. y la ¡Error! No se encuentra el origen de la referencia.. Si se tienen m centrales fotovoltaicas que se desean asignar a los n nodos de un sistema eléctrico cualquier, en este caso con configuración radial, se tiene que cada planta solo puede asignarse a uno y a solo un nodo, aunque es posible que haya varias plantas asignadas al mismo nodo. Se denota por 𝑐𝑖𝑗a las pérdidas de todo el sistema o la caída de tensión del peor nodo (en dependencia de la función objetivo) al asignar la CFV i al nodoj, las matrices R y B son las correspondientes al consumo de recursos y capacidad de asimilación de cada nodo. Entonces, el problema de minimizar las pérdidas de todo el sistema o mejorar el perfil de tensión se puede considerar una tarea de optimización del tipo GAP. Si se considera que la capacidad de asimilación de cada nodo es suficiente para atender todas las tareas, entonces la Ecuación 4 es satisfecha por cualquier asignación y por tanto el tamaño del espacio de búsqueda es 𝑛𝑚. Para valores de m y n relativamente pequeños el problema puede ser resuelto mediante una búsqueda exhaustiva. En caso de que el tamaño del espacio de búsqueda sea tal de que no permita la realización de esta pueden utilizarse métodos evolutivos para la solución tanto del problema GAP o el correspondiente al caso simplificado a la Ecuación 1 y Ecuación 2. Funcionamiento del algoritmo propuesto El algoritmo en cuestión realiza una búsqueda exhaustiva por lo que su exactitud es elevada y la aparición de mínimos locales no lo afecta, de igual manera su tiempo de ejecución es alto en comparación con otros métodos, pero factible para sistemas de distribución radiales. Trabaja con valores discretos de capacidades de las CFV, permitiendo ubicar desde uno hasta n emplazamientos. Permite distribuir varias capacidades a un mismo nodo y permite dividir en módulos la capacidad total, de manera que encuentra la configuración y puntos de conexiones óptimos para cada CFV. Además, se pueden analizar casos donde la CFV genere o consuma una determinada potencia reactiva, de manera que su uso se puede generalizar a cualquier tecnología de GD. Cabe destacar que todo el análisis se realiza para el sistema en estado estacionario. El funcionamiento del algoritmo propuesto para el análisis de la conexión de CFV en redes de distribución es descrito a continuación: • Paso 1: Se insertan los parámetros del sistema y las propiedades de las cargas, se guardan para posteriores análisis. • Paso 2: Se ejecuta un flujo de carga y se muestran todos los resultados del análisis del sistema actual. 5 • Paso 3: Se definen cuantas CFV se instalan, sus valores y las restricciones que debe cumplir el algoritmo. • Paso 4: Se crea una matriz con todas las posibles ubicaciones de las CFV y se ejecuta un flujo de cargas para cada caso, obteniéndose todos los resultados posibles. Se pueden restringir los nodos para disminuir el tamaño de la búsqueda. • Paso 5: Se emplea la función objetivo y encuentra el punto óptimo para conectar la/las CFV. Las posiciones en las que se incumpla una restricción son eliminadas de este análisis. SIMULACIÓN Y DISCUSIÓN DE RESULTADOS Para realizar el análisis se tomará como caso de estudio un sistema radial de complejidad relativamente baja, de 33 nodos del IEEE [15]– [17]. La tensión nominal del circuito es de 12,66 kV y la frecuencia de operación es de 60 Hz. El nodo 1 es de tensión controlada y sirve de unión con el resto del sistema eléctrico. El circuito posee cargas en cada uno de sus nodos (excepto en el 1) las cuales demandan potencias activas de entre 45 kW y 420 kW, y reactivas de 10 kvar a 200 kvar. La carga total del circuito es de 3 715 kW y 2 300 kvar y las pérdidas totales de potencia activa del sistema son de 202,7 kW. Validación del algoritmo El algoritmo se encuentra validado cuando se comparan los resultados con los de [18], en el cual los autores identifican los mejores resultados utilizando el método de ´´Biogeography-Based Optimization Algorithm´´ (BBO). En la Tabla 1 se evidencia como las CFV se ubican en los mismos nodos, por su parte los valores de las pérdidas de potencia activa totales solo difieren en un 0,066%. Tabla 1: Comparación de resultados del punto óptimo de instalación de tres CFV. BBO Algoritmo propuesto Nodo Capacidad (kW) Nodo Capacidad (kW) 14 753,9 14 753,9 24 1099,4 24 1099,4 30 1071,4 30 1071,4 Pérdidas totales (kW) 71,5 71,4549 El nodo con la mayor caída de tensión fue el 18 para ambos métodos. Con el BBO la tensión fue de 0,9722 pu lo que representa un 0,361% mayor que los 0,9687 pu con el método propuesto. Analizando los resultados obtenidos de la comparación entre el algoritmo propuesto y el desarrollado en [15], donde las CFV fueron conectadas en los mismos puntos y la diferencia entre las pérdidas de potencia activa y las tensiones en los nodos fueron menores al 0,4% en todos los casos, se puede ratificar la validación del algoritmo propuesto. 6 Casos de estudios analizados El primer caso de estudio analizado fue el de la conexión de una CFV de 1 MW que puede trabajar: consumiendo potencia reactiva, entregando potencia reactiva (ambas a un equivalente de factor de potencia de 0,9, de acuerdo a valores típicos dados por los fabricantes y operadores de los sistemas eléctricos) o sin consumir ni entregar potencia reactiva (factor de potencia unitario). Se instaló la CFV, consumiendo potencia reactiva, en el nodo 8. La reducción de pérdidas totales de potencia activa fue de 17,52% con respecto al estado inicial del sistema, antes de instalar generación fotovoltaica. Sin embargo, si la generación fotovoltaica además de potencia activa, inyecta potencia reactiva a la red, las pérdidas con respecto al caso inicial disminuyen hasta un 54,17%, cuando la CFV se ubica en el nodo 30, siendo de todas las posiciones, la mejor variante. Sin consumir ni generar potencia reactiva, la central es también colocada en el nodo 30, pero con una reducción de pérdidas del 37,20%. Nótese en este caso de estudio, que cuando cambia el modo de trabajo de la CFV, también puede cambiar el mejor punto de conexión con la red. Este resultado es importante para evitar un mal dimensionamiento de las centrales y escoger el mejor modo de operación de la misma cuando lo que se persigue es minimizar las pérdidas totales de potencia activa. Es posible que, si la CFV es de una capacidad muy grande, se incumplan determinadas restricciones del sistema, en cuyo caso el algoritmo elimina esas variantes del análisis, manteniendo todas las variantes que cumplan técnicamente. En la figura 1 se muestra el comportamiento de las pérdidas del sistema al conectar una CFV de 3 MW entregando potencia reactiva. Solo son mostrados los nodos en los que no se incumple ninguna restricción. En este caso, el mejor punto de conexión es el nodo 6 donde las pérdidas disminuyen a 65,32 kW, lo que representa una disminución del 67,77% respecto a las condiciones iniciales. Figura 1: Pérdidas totales de potencia activa del sistema, al conectar una CFV de 3 MW entregando potencia reactiva. La conexión de una CFV de 3 MW presenta resultados superiores a los obtenidos con 1 MW en cuanto a disminución de las pérdidas. Además, al aumentar la capacidad de la CFV cambia el punto de conexión con la red del nodo 30 al nodo 6. Sin embargo, debido a su tamaño en relación con las cargas del circuito se limita la cantidad de nodos donde pudiera conectarse y se dividen las capacidades de las CFV, dando la posibilidad de distribuirlas dentro del propio circuito. Por esa razón, se analiza la conexión de una potencia total de 3 MW dividida en varias CFV. En la tabla 2 se comparan los resultados para cuatro configuraciones y para el caso base o inicial. Se evidencia que, mientras más se distribuya la generación fotovoltaica, se minimizan más las pérdidas totales de potencia activa. La última configuración alcanza una reducción de hasta un 92,34% con respecto a las iniciales, aumentando enormemente la eficiencia del circuito. 7 Tabla 2: Análisis de la conexión de múltiples CFV. CFVs Capacidad de las CFVs Ubicación Pérdidas (kW) Reducción pérdidas (%) Tiempo (s) 0 0 - 202,68 0,00% 0,0599 1 3 MW 6 65,32 67,77% 0,0951 2 1,5 MW 30; 8 45,51 77,55% 0,485 3 1 MW 30; 24; 12 20,51 89,88% 8,733 4 0,75 MW 31; 26; 25; 14 15,52 92,34% 3 725,239 Debido a las condiciones geográficas del terreno o a intereses económicos, la conexión de las CFV puede estar restringida a ciertos nodos del sistema. Para este caso, se decide analizar la conexión de una CFV de 1 MW entre los nodos del 7 al 15, la figura 2 muestra los resultados obtenidos. Para esta configuración el mejor punto de conexión es el nodo 12 donde se obtienen pérdidas de 104,89 kW, lo que representa una reducción del 48,25% con respecto a las pérdidas iniciales del sistema. Figura 2: Pérdidas totales de potencia activa para la conexión de una CFV de 1 MW, con restricción de nodos. Cuando se desea minimizar la desviación de tensión del sistema, no se reducen tanto las pérdidas totales de potencia activa; sin embargo, se obtienen tensiones más cercanas a la nominal, en todos los nodos del sistema. La tabla 3 muestra los resultados obtenidos para una CFV de 1 MW, con diferentes modos de operación. Tabla 3: Conexión de una CFV de 1 MW atendiendo a la función objetivo de minimizar la desviación de tensión. Condición de la CFV Nodo donde se conecta la CFV Valor de la función objetivo Pérdidas (kW) Umin (kV) Sin CFV - 0,1171 202,68 11,56 1 MW_fp=1 17 0,0434 141,74 11,79 1 MW (entrega Q) 16 0,0311 112,99 11,86 8 1 MW (consume Q) 16 0,0648 189,68 11,72 Al igual que para la función objetivo anterior, la mejor condición de las analizadas es la conexión de una CFV de 1 MW entregando potencia reactiva, ya que presenta la tensión mínima más alta con 11,86 kV. Sin embargo, el punto de conexión es diferente, siendo ahora el nodo 16. Por su parte el aumento de la generación de la CFV a 3 MW y su distribución en varias centrales conectadas en distintos nodos, disminuye considerablemente el valor de la función objetivo del sistema. El comportamiento más favorable se presenta cuando se instalan cuatro CFV de 0,75 MW. La tensión mínima, para esta configuración, es de 12,58 kV lo que representa un 99,47 % de la tensión nominal del sistema. Esta configuración (4 CFV) permite un mejor comportamiento de la tensión, con valores muy cercanos a la tensión nominal en todos los nodos, ya que se suplen con pequeñas unidades generadoras los consumos locales de las ramas del sistema, disminuyendo las transferencias de potencia por las líneas y las caídas de tensión. La figura 3 muestra el perfil de tensión para estas configuraciones. Figura 3: Comportamiento de las tensiones de los nodos del sistema cuando el algoritmo persigue minimizar la desviación de tensión en el mismo, instalando varias CFV con una capacidad total de 3 MW. CONCLUSIONES En este trabajo se realizó un análisis del impacto que tendría la instalación de CFV en una red de distribución radial. Empleando un algoritmo de optimización se pudo identificar para el caso de estudio cual era la variante que mas beneficiaba al circuito técnicamente ya sea en cuanto a la reducción de perdidas totales o mejorar el perfil de tensión. Por tanto, se puede llegar a la conclusión de que la conexión de CFV en un circuito de distribución puede traer tanto buenas como malas consecuencias en el funcionamiento, por esto se debe realizar un estudio previo de los parámetros de operación para conocer las variantes que mas beneficien al circuito en dependencia del objetivo que se persiga. 9 REFERENCIAS BIBLIOGRÁFICAS [1] ROSSATI A. ``Global Warming and Its Health Impact´´. Int J Occup Environ Med, vol. 8, n. 1, p. 7-20, ene. 2017, doi: 10.15171/ijoem.2017.963. Disponible en: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6679631/ [2] REN21. ``RENEWABLES 2019: GLOBAL STATUS REPORT´´. Paris, Francia, 2019. [En línea]. Disponible en: www.ren21.net [3] IRENA. ``International Energy Outlook 2019´´. p. 85. Disponible en: https://www.eia.gov/outlooks/ieo/pdf/ieo2019.pdf [4] VAZQUEZ L., et al. ``Energy System Planning towards Renewable Power System: Energy Matrix Change in Cuba by 2030´´. IFAC-PapersOnLine, vol. 51, n. 28, p. 522-527, 2018, doi: 10.1016/j.ifacol.2018.11.756. Disponible en: https://www.sciencedirect.com/science/article/pii/S2405896318334773 [5] MASTERS H. y P. Swofford. ``Financing Renewable Energy in Cuba´´. p. 51, 2018. Disponible en: https://dukespace.lib.duke.edu/dspace/bitstream/handle/10161/16595/Financing%20Renewable %20Energy%20in%20Cuba_Masters-Swofford.pdf [6] PEDRAZA J. M.. ``Solar Energy in Cuba: Current Situation and Future Development´´.vol. 6, p. 15, 2019. Disponible en: https://www.zealpress.com/wp-content/uploads/2019/06/JSERU- V6A1-Pedraza.pdf [7] KARIMI M., et al. ``Photovoltaic penetration issues and impacts in distribution network – A review´´. Renewable and Sustainable Energy Reviews, vol. 53, p. 594-605, ene. 2016, doi: 10.1016/j.rser.2015.08.042. Disponible en: https://www.sciencedirect.com/science/article/abs/pii/S136403211500903X [8] CHAUDHARY P. y M. Rizwan. ``Voltage regulation mitigation techniques in distribution system with high PV penetration: A review´´. Renewable and Sustainable Energy Reviews, vol. 82, p. 3279-3287, feb. 2018, doi: 10.1016/j.rser.2017.10.017. Disponible en: https://www.sciencedirect.com/science/article/abs/pii/S1364032117313989 [9] DONG J. et al. ``Operational impacts of high penetration solar power on a real-world distribution feeder´´. en 2018 IEEE Power & Energy Society Innovative Smart Grid Technologies Conference (ISGT), Washington DC, DC, USA, feb. 2018, p. 1-5, doi: 10.1109/ISGT.2018.8403344. Disponible en: https://ieeexplore.ieee.org/document/8403344 [10] VARGAS M. C., M. A. Mendes, y O. E. Batista. ``Impacts of High PV Penetration on Voltage Profile of Distribution Feeders Under Brazilian Electricity Regulation´´. en 2018 13th IEEE International Conference on Industry Applications (INDUSCON), São Paulo, Brazil, nov. 2018, p. 38-44, doi: 10.1109/INDUSCON.2018.8627070. Disponible en: https://ieeexplore.ieee.org/document/8627070 [11] HAQUE M. M. y P. Wolfs. ``A review of high PV penetrations in LV distribution networks: Present status, impacts and mitigation measures´´. Renewable and Sustainable Energy Reviews, vol. 62, p. 1195-1208, sep. 2016, doi: 10.1016/j.rser.2016.04.025. Disponible en: https://www.sciencedirect.com/science/article/abs/pii/S1364032116300429 [12] SUSANTO J., F. Shahnia, y D. Ludwig. ``A framework to technically evaluate integration of utility-scale photovoltaic plants to weak power distribution systems´´. Applied Energy, vol. 231, p. 207-221, dic. 2018, doi: 10.1016/j.apenergy.2018.09.130. Disponible en: https://www.sciencedirect.com/science/article/abs/pii/S0306261918314430 [13] DORIGO, M., V. MANIEZZO a A. COLORNI. Ant system: optimization by a colony of 10 cooperating agents. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics) [online]. 1996, 26(1), 29– 41. ISSN 1941-0492. Dostupné z: doi:10.1109/3477.484436 [14] COLORNI, A., M. DORIGO, F. MAFFIOLI, V. MANIEZZO, G. RIGHINI a M. TRUBIAN. Heuristics from Nature for Hard Combinatorial Optimization Problems. International Transactions in Operational Research [online]. 1996, 3(1), 1– 21 [vid. 2020-01-14]. ISSN 1475- 3995. Dostupné z: doi:10.1111/j.1475-3995.1996.tb00032.x [15] RAJARAM, R., Sathish Kumar, K, y Rajasekar, N. ``Power system reconfiguration in a radial distribution network for reducing losses and to improve voltage profile using modified plant growth simulation algorithm with Distributed Generation (DG)». Energy Reports 2015. vol. 1, p. 116-122. Disponible en: https://www.sciencedirect.com/science/article/pii/S2352484715000165 [16] DIXIT M., P. Kundu, y H. R. Jariwala. ``Optimal placement of PV array in distribution system for power loss minimization considering feeder reconfiguration´´, en 2016 IEEE 16th International Conference on Environment and Electrical Engineering (EEEIC), Florence, Italy, jun. 2016, p. 1-6, doi: 10.1109/EEEIC.2016.7555662. Disponible en: https://ieeexplore.ieee.org/abstract/document/7555662 [17] DINAKARA Prasad Reddy P., Veera Reddy V.C., y Gowri Manohar T. ``Optimal renewable resources placement in distribution networks by combined power loss index and whale optimization algorithms´´. Journal of Electrical Systems and Information Technology, vol. 5, n. 2, p. 175-191, sep. 2018, doi: 10.1016/j.jesit.2017.05.006. Disponible en: https://www.sciencedirect.com/science/article/pii/S2314717217300259 [18] DUONG M. Q., et al. ``Determination of Optimal Location and Sizing of Solar Photovoltaic Distribution Generation Units in Radial Distribution Systems´´. Energies, vol. 12, n. 1, p. 174, ene. 2019, doi: 10.3390/en12010174. Disponible en: https://www.mdpi.com/1996- 1073/12/1/174 CASOS DE ESTUDIO DE DIAGNOSTICO POR SFRA A DOS TRANSFORMADORES DE POTENCIA DE TRES DEVANADOS Ernesto Díaz Alfonso1, Dailen García del Sol1, Orestes Hernández Areu1, Josnier Ramos Guardarrama1, Juan Carlos Olivares Galván2 1Facultad de Ingeniería Eléctrica, Universidad Tecnológica de la Habana, Cuba. 2 Departamento de Energía, Universidad Autónoma Metropolitana - Azcapotzalco, México. RESUMEN El diagnóstico de los transformadores ha sido un tema al que se ha prestado mucha atención debido a la importancia que reviste en el fin de aumentar el tiempo de vida y la calidad de la explotación de los mismos. Existen publicaciones sobre técnicas cuyos objetivos son predecir el estado de estas máquinas. Una de las pruebas que se emplea para diagnosticar, defectos mecánicos en estos equipos, es el “Análisis de Respuesta al Barrido de Frecuencia” (SFRA). En este artículo se presentan los ensayos de SFRA realizados a dos transformadores de tres devanados en subestaciones de subtransmisión. Se hace un análisis de cada caso a partir de las repuestas y resultados obtenidos, constatándose que en las descripciones de los patrones de respuestas de SFRA que hacen las normas para los modos de falla, se aprecia ambigüedad y se hace difícil discriminar entre un modo de falla, otro o percibir si hay más de uno presente. Palabras claves: transformadores, diagnóstico de transformadores, SFRA CASE STUDY OF DIAGNOSIS BY SFRA TO TWO POWER TRANSFORMERS WITH THREE WINDINGS ABSTRACT The diagnosis of transformers has been a subject to which much attention has been paid due to the importance it has in order to increase their life time and the quality of their exploitation. There are publications on techniques whose objectives are to predict the state of these machines. One of the tests used to diagnose mechanical defects in this equipment is the "Sweep Frequency Response Analysis" (SFRA). This article presents the SFRA tests carried out on two three-winding transformers in subtransmission substations. An analysis of each case is made based on the answers and results obtained, confirming that in the descriptions of the SFRA response patterns that make the standards for failure modes, there is ambiguity and it is difficult to discriminate between a mode of fails, another or perceive if more than one is present. Key words: transformers, transformer diagnostics, SFRA INTRODUCCIÓN Dentro de las actividades del mantenimiento periódico preventivo o predictivo basado en la condición de los transformadores de potencia, se realizan determinadas pruebas de diagnóstico, con el objetivo de supervisar su funcionamiento o estado técnico. Los costos de la actividad de supervisión del funcionamiento de un transformador a través del diagnóstico resultan económicos en comparación con los costos que ocasiona una avería o la interrupción del suministro eléctrico. El proceso de diagnóstico y mantenimiento comienza a partir de mediciones que pueden llevarse a cabo en el lugar del proceso o fuera de él, con el equipo desenergizado o con energía de forma general. Los transformadores de potencia se diseñan para resistir tensiones normales de operación, las sobretensiones a las que pueden estar expuestos, los esfuerzos térmicos a que estarán sometidos según sus características de carga y los esfuerzos electrodinámicos debidos a los cortocircuitos externos. En su interior pueden generarse desplazamientos o daños durante el transporte de las máquinas si la estructura mecánica de los devanados y núcleo no están sujetos suficientemente. Cuando un transformador ha sufrido alguna situación anómala, es necesario verificar su estado para estar conscientes de su capacidad residual para resistir los esfuerzos y contingencias a que podrá verse sometido nuevamente. Estas situaciones anómalas, tienden a generar distintas condiciones de estrés en la unidad que, si bien no causan una falla inmediata, van actuando y deteriorando progresivamente su integridad hasta producir daños irreparables. También es importante que estos daños sean detectados a tiempo para planificar mantenimientos correctivos [1]. Una de las pruebas de diagnóstico para detectar estos defectos, es el análisis de respuesta al barrido frecuencia SFRA, (Sweep Frecuency Response Analysis), la cual evalúa las deformaciones o desplazamiento en las bobinas o núcleo que se lleguen a presentar en el transformador; dicha prueba se realiza con el transformador fuera de servicio, lo que implica que no se realice con frecuencia y solo se haga en los mantenimientos o cuando se tenga cierta sospecha de un posible fallo en el equipo [2]. MATERIALES Y MÉTODOS El método SFRA en transformadores se realiza inyectando por un terminal una señal de frecuencia variable o con un ancho de banda amplio obteniendo la respuesta a esta excitación en un terminal distinto, por lo cual se considera al transformador como un modelo de parámetros distribuidos, resistivos (R), inductivos (L) y capacitivos (C). Se obtiene la función de transferencia de esta red RLC mediante la relación de las señales de excitación y de respuesta. Cualquier cambio en el interior del transformador cambiará la red RLC que lo representa [3]. La señal de excitación es una onda sinusoidal de baja amplitud (generalmente de amplitud de 1 a 20V), que se aplica a un terminal del transformador con un barrido de frecuencia (con un rango de Hertz a Mega Hertz), la función de transferencia se obtiene de la relación salida / entrada, para varias frecuencias [3]. La respuesta gráfica obtenida en el dominio de la frecuencia, es comparada con otra respuesta obtenida en condiciones similares, para detectar alguna diferencia que evidencie alteración en la red RLC. Para la comparación gráfica, se hace necesario disponer de las medidas de referencia de fábrica del equipo, o del propio equipo con evidencias de que está en buen estado, o equipos similares. Sin embargo, también es posible detectar una falla comparando entre sí las curvas obtenidas de las tres fases de un transformador trifásico, sin necesidad de disponer de curvas de referencia [4 - 6]. En este artículo se presentan los resultados de los ensayos a dos transformadores de subestaciones de subtransmisión de 110 kV, comparando entre sí las curvas obtenidas de las tres fases de cada máquina. Los transformadores en cuestión, fueron: a) Transformador 1, cuyos datos nominales son: 25/25/8 MVA; 110/34,5/6,6 kV. Y/Y/Δ. Devanado terciario accesible. b) Transformador 2, cuyos datos nominales son: 25/25/6 MVA; 110/34,5/6,0 kV. Y/Y/Δ. Devanado terciario no accesible. El ensayo se realizó con un equipo analizador de barrido de frecuencia y se empleó el procedimiento que se establece en [7]. Las mediciones se realizaron a través de los dos terminales de cada devanado para obtener la respuesta de frecuencia de extremo a extremo en forma de magnitud en dB vs. frecuencia, de acuerdo a la ecuación 1. (1) Donde: Vreferencia: tensión de la fuente, inyectada a uno de los terminales del devanado. Vmedida: tensión medida en el otro extremo del devanado. En teoría, la tensión Vmedida es una réplica de la respuesta de corriente en el extremo del devanado, a la tensión inyectada en el otro extremo del devanado. Por lo tanto, la respuesta de extremo a extremo del devanado se puede considerar como la admitancia "virtual" del devanado [7]. Una de las limitantes de la técnica de respuesta en frecuencia en los transformadores es que su interpretación para la obtención de un diagnóstico confiable, necesita de investigaciones más avanzadas dado que todavía no se toman decisiones a partir de sus mediciones, es decir que el ensayo de SFRA es una técnica complementaria [8]. Los problemas pueden ser presumidos a partir de la existencia de los siguientes criterios [7], [9], [10]: a) Variación en toda la forma de la respuesta de frecuencia. b) Variación en el número de resonancias (picos máximos) o anti - resonancias (picos mínimos). c) Cambios en la posición de las frecuencias de resonancias. A baja frecuencia (por debajo de 2 kHz), está presente el efecto del núcleo. La respuesta comienza con una magnitud decreciente de -20dB/década. Esto se debe a la inductancia magnetizante del núcleo. Esto es seguido por un mínimo que ocurre debido a la resonancia en serie entre la inductancia magnetizante del núcleo y la capacitancia total del transformador. La fase B tendrá una respuesta claramente diferente de las otras dos debido a la diferencia en trayectoria de la reluctancia magnética de la rama central de un núcleo de tres ramas. Entre 2 kHz y 20 kHz, está presente la interacción entre los devanados. La respuesta se ve influida por cómo se conectan y terminan los devanados (estrella o delta abierta o cerrada) y los neutros (flotando o a tierra). Desde 20 kHz hasta 1 MHz, la estructura del devanado influirá en gran medida en la respuesta. En este rango de frecuencia hay menos resonancias y anti - resonancias y una tendencia de aumento principalmente capacitiva, debido a la alta capacitancia en serie del devanado de AT. Más allá de la frecuencia de 1 MHz, la tendencia de la respuesta de frecuencia es irregular y compleja, influenciada por los cables de derivación y los cables de conexión a tierra [7], [9], [10]. Para la identificación de los posibles defectos se utilizaron los criterios de modo de fallas planteados en las publicaciones [7], [ 9], [10]. Ejemplo de los cuales se muestran a continuación: a) Defectos del núcleo. Las fallas por defectos en el núcleo provocan cambios en el circuito magnético. Los defectos del núcleo pueden incluir laminaciones del núcleo quemadas, laminaciones del núcleo en cortocircuito, puesta a tierra del núcleo múltiple/involuntaria, puesta a tierra del núcleo perdida y dislocaciones de juntas. En el rango 20 Hz – 10 kHz; las respuestas de las pruebas de circuito abierto se ven afectadas en las regiones por debajo de 10 kHz. Se debe dar menos peso al cambio, porque la identificación de defectos en el núcleo a veces puede quedar enmascarada por los efectos de la magnetización residual. Si la respuesta a circuito abierto, tiene la forma de una respuesta de cortocircuito, esto podría indicar un defecto en el núcleo. En las respuestas a las pruebas de cortocircuito, todas las fases deben ser similares. En el rango de 5 kHz – 100 kHz; las respuestas de las pruebas de circuito abierto y cortocircuito, pueden cambiar o producir nuevos picos y valles de resonancia. En el rango de 50 kHz – 1 MHz; las respuestas de las pruebas de circuito abierto y cortocircuito en este rango no se ven afectadas. Sin embargo, si la falla se debe a un problema de conexión a tierra del núcleo, pueden aparecer cambios de resonancia en la parte superior de este rango. En el rango mayor a 1 MHz; Si la falla se debe a un problema de conexión a tierra del núcleo, pueden aparecer cambios de resonancia en este rango. b) Deformación radial del devanado. En el rango de 20 Hz – 10 kHz; las respuestas de las pruebas de circuito abierto no se ven afectadas. Las respuestas a las pruebas de cortocircuito resultan en un aumento de la impedancia. El trazo de FRA para la fase afectada generalmente exhibe una ligera atenuación dentro de la región de caída inductiva. En el rango de 5 kHz – 100 kHz; las respuestas a las pruebas de circuito abierto y cortocircuito pueden cambiar o producir nuevos picos y valles de resonancia dependiendo de la severidad de la deformación. Sin embargo, este cambio es mínimo y difícil de identificar. Los cambios serán mayores para el devanado afectado, pero aún es posible que los efectos se transfieran a los otros devanados. En el rango de 50 kHz – 1 MHz la deformación radial es más obvia. Las respuestas de las pruebas de circuito abierto y cortocircuito pueden cambiar o producir nuevos picos y valles de resonancia dependiendo de la severidad de la deformación. Los cambios serán mayores para el devanado afectado, pero aún es posible que los efectos se transfieran a los otros devanados. Rango mayor a 1 MHz; Este rango generalmente no se ve afectado. Sin embargo, la deformación severa puede extenderse dentro de este rango. c) Deformación axial del devanado. En el rango de 20 Hz – 10 kHz las respuestas de las pruebas de circuito abierto, generalmente no se ven afectadas. Las respuestas de las pruebas de cortocircuito, resultan en un cambio en la impedancia. La traza FRA para el devanado afectado provoca una diferencia entre fases o resultados anteriores en la región de caída inductiva. En el rango de 5 kHz – 100 kHz la deformación axial es más obvia. Las respuestas de las pruebas de circuito abierto y cortocircuito pueden cambiar o producir nuevos picos y valles de resonancia dependiendo de la severidad de la deformación Los cambios serán mayores para el devanado afectado, pero aún es posible que los efectos se transfieran a los otros devanados. En el rango de 50 kHz – 1 MH las respuestas de las pruebas de circuito abierto y cortocircuito pueden cambiar o producir nuevos picos y valles de resonancia según la gravedad de la deformación. Los cambios serán mayores para el devanado afectado, pero aún es posible que los efectos se transfieran a los otros devanados. En el rango mayor a 1 MHz, la respuesta a la deformación del devanado axial es impredecible tanto en pruebas de circuito abierto como en cortocircuito d) Movimiento del devanado por stress electrodinámico o del transporte. En el rango de 20 Hz – 10 kHz. Esta región generalmente no se ve afectada durante el movimiento de devanados. En el rango 5 kHz – 100 kHz; las respuestas pueden cambiar o producir nuevos picos y valles de resonancia dependiendo de la magnitud del movimiento. Los cambios serán mayores para la fase afectada. En el rango de 50 kHz – 1 MHz Esta región generalmente no se ve afectada durante el movimiento de devanados, sin embargo, los cambios en la capacitancia longitudinal pueden causar cambios de resonancia en la parte superior de este rango. Rango mayor a 1 MHz; los cambios en la capacitancia longitudinal pueden causar cambios de resonancia DISCUSIÓN DE LOS RESULTADOS Resultados del SFRA del transformador 1 (devanado terciario accesible) En la figura 1 se muestran las respuestas obtenidas del transformador 1 cuando se alimentaron secuencialmente las fases U (trazo verde), V (trazo azul) y W (trazo rojo) del devanado primario y se midió por el neutro con los devanados secundario y terciarios, abiertos y el cambiador de derivaciones en el máximo. La temperatura de los devanados era 50,0°C. Figura 1. Alimentación por el primario, medición en el neutro, secundario y terciarios abiertos y cambiador de derivaciones en el máximo De acuerdo a [7], las respuestas de la figura, pudieran ser indicios de problemas de conexión a tierra del núcleo o en los conductores de las derivaciones del “cambia taps”, teniendo en cuenta que aparecen alteraciones en el rango mayor a 1 MHz. También existe la probabilidad de deformación radial de la fase “W”, ya que este modo de falla es más obvio en el rango de 50 kHz – 1 MHz, y en caso de deformación severa, puede extenderse a más de 1 MHz. En la figura 2 se muestran las respuestas obtenidas del transformador 1 cuando se alimentaron secuencialmente las fases U (trazo verde), V (trazo azul) y W (trazo rojo) del devanado primario y se midió por el neutro con los devanados secundario y terciarios, abiertos y el cambiador de derivaciones en el mínimo (no interviene en la medición). La temperatura de los devanados era 50,0°C. Figura 2. Alimentación por el primario, medición en el neutro, secundario y terciario abiertos y cambiador de derivaciones en el mínimo Ahora, al eliminarse el “cambia taps”, varió la respuesta, fundamentalmente en el rango mayor a 1 MHz. Esto indica que tal vez el problema está relacionado con las derivaciones y no con la conexión a tierra del núcleo. También sigue presente la probabilidad de deformación radial de la fase “W”. En la figura 3 se muestran los resultados de las respuestas del transformador 1 cuando se alimentaron secuencialmente las fases u (trazo verde), v (trazo azul) y w (trazo rojo) del devanado secundario y se midió por el neutro con el devanado primario y terciario, abiertos. Figura 3. Alimentación por el secundario, medición en el neutro, primario y terciario abiertos En esta figura tampoco se descarta la probabilidad de la deformación radial ya que el rango de más de 50 kHz tiene suficientes alteraciones que la justifican. En la figura 4 se muestran las respuestas obtenidas del transformador 1 cuando se alimentan secuencialmente las fases u (trazo verde), v (trazo azul) y w (trazo rojo) del devanado terciario, se mide por v, w y u respectivamente, con los devanados primario y secundario abiertos. Figura 4. Alimentación por el terciario, medición en el terciario, primario y secundario abiertos Se observan cambios en las resonancias a partir de 10 kHz, acentuados después de 100 kHz, con énfasis en la fase “W”, lo cual es consistente que el análisis de las anteriores respuestas de SFRA. En la figura 5 se muestran las respuestas obtenidas del transformador 1 cuando se alimentan secuencialmente las fases U (trazo verde), V (trazo azul) y W (trazo rojo) del devanado primario y se mide por el neutro con el devanado secundario en cortocircuito y el cambiador de derivaciones en el máximo. Figura 5. Alimentación por el primario, medición en el neutro, secundario en cortocircuito y cambiador de derivaciones en el máximo El trazo de FRA para la fase “W” exhibe una ligera atenuación dentro de la región de caída inductiva. La probabilidad de deformación radial sigue siendo alta en la fase “W”, reflejándose en las demás fases también. En la figura 6 se muestran las respuestas obtenidas del transformador 1 cuando se alimentan secuencialmente las fases U (trazo verde), V (trazo azul) y W (trazo rojo) del devanado primario y se mide por el neutro con el devanado terciario en cortocircuito y el cambiador de derivaciones en el máximo. Figura 6. Alimentación por el primario, medición en el neutro, terciario en cortocircuito y cambiador de derivaciones en el máximo El trazo de FRA para la fase “W” presenta una atenuación notable dentro de la región de caída inductiva. La probabilidad de deformación radial sigue siendo alta en esta fase, reflejándose en las demás también. Además, en el rango de 5 – 100 kHz, las alteraciones son mayores para el devanado afectado y sus efectos se transfieran a los otros devanados Resultados del SFRA del transformador 2 (devanado terciario no accesible) En la figura 7 se muestran las respuestas obtenidas del transformador 2 cuando se alimentaron secuencialmente las fases U (trazo verde), V (trazo azul) y W (trazo rojo) del devanado primario y se midió por el neutro con el devanado secundario abierto y el cambiador de derivaciones en el máximo. La temperatura de los devanados era 44,0°C. Figura 7. Alimentación por el primario, medición en el neutro, secundario abierto y cambiador de derivaciones en el máximo Las respuestas de la figura, pudieran ser indicios de problemas de conexión a tierra del núcleo o en los conductores de las derivaciones del “cambia taps”, teniendo en cuenta que aparecen alteraciones en el rango mayor a 1 MHz. También existe la probabilidad de deformación radial en alguna fase”, ya que en el rango de 50 kHz – 1 MHz hay cambios notables y casi a 1 MHz se produce una nueva resonancia de la fase “W”. No se descarta la deformación axial ni el movimiento del devanado porque entre 5 y 100 kHz la deformación axial es más obvia, cambiando las repuestas y produciendo nuevos picos y valles de resonancia, como se aprecia en la fase “U”. En la figura 8 se muestran las respuestas obtenidas del transformador 2 cuando se alimentan secuencialmente las fases U (trazo verde), V (trazo azul) y W (trazo rojo) del devanado primario y se mide por el neutro con el devanado secundario abierto y el cambiador de derivaciones en el mínimo. Figura 8. Alimentación por el primario, medición en el neutro, secundario abierto y cambiador de derivaciones en el mínimo Ahora, al eliminarse el “cambia taps”, varió la respuesta, fundamentalmente en el rango mayor a 1 MHz. Esto indica que tal vez el problema está relacionado con las derivaciones y no con la conexión a tierra del núcleo. También sigue presente la probabilidad de deformación radial o axial. En la figura 9 se muestran las respuestas obtenidas del transformador 2 cuando se alimentan secuencialmente las fases u (trazo verde), v (trazo azul) y w (trazo rojo) del devanado secundario y se mide por el neutro con el devanado primario abierto. Figura 9. Alimentación por el secundario, medición en el neutro, primario abierto Aquí se hace evidente que, de 10 kHz a 1 MHz y más, hay diferencias notables entre las respuestas, por lo que la sospecha de deformación radial o axial sigue presente. En la figura 10 se muestran las respuestas obtenidas del transformador 2 cuando se alimentan secuencialmente las fases U (trazo verde), V (trazo azul) y W (trazo rojo) del devanado primario y se mide por el neutro con el devanado secundario en cortocircuito y el cambiador de derivaciones en el máximo. Figura 10. Alimentación por el primario, medición en el neutro, secundario en cortocircuito y cambiador de derivaciones en el máximo Ahora, sin la influencia del núcleo magnético, sigue tomando fuerza el criterio de que pudiera haber deformación radial o axial de alguna fase, ya que en el rango de 10 kHz en adelante hay cambios notables, extendiéndose a más allá de 1 MHz. CONCLUSIONES 1. En el transformador 1 es posible que existan problemas en los conductores del cambiador de derivaciones, así como deformación radial en la fase “W” del devanado. 2. En el transformador 2 las alteraciones en las regiones de 5 a 100 kHz y de 50 kHz a 1 MHz, permiten presumir que pudiera haber deformación radial o axial de alguna fase. También puede ser que tenga problemas en los conductores del cambiador de derivaciones. 3. En las descripciones de los patrones de respuestas de SFRA que hacen las normas, para los modos de falla, se aprecia ambigüedad y muchas veces se hace difícil discriminar entre un modo de falla, otro o percibir si hay más de uno presente. 4. No es segura la sentencia de si algún cambio en la comparación de respuestas entre fases o transformadores similares, corresponde con un defecto o es un cambio lógico y aceptable para dos especímenes distintos. AGRADECIMIENTOS Los autores expresan su agradecimiento al Departamento y la brigada de linieros de Subestaciones Eléctricas de la Organización Básica Eléctrica de la provincia de Villa Clara en Cuba, por su apoyo en la ejecución de este proyecto. REFERENCIAS 1. Mayora Hernán, Calo Emilio, Alvarez R.E. y otros. “Efectos de la condición del núcleo magnético en las respuestas del análisis de respuesta en frecuencia”. En XVIII ERIAC Décimo Oitavo Encontro Regional Ibero-americano do CIGRE. A2 – TRANSFORMADORES, Foz do Iguaçu, Brasil, 13 a 23 de mayo de 2019, p 8 Páginas. Consultado el: 12 de abril de 2022. Disponible en: http://sedici.unlp.edu.ar/handle/10915/75454. ISBN: 978-85-906780-1-4. 2. Alvarez, R. E., Rodríguez S. “Efectos de cortocircuito en transformadores verificados con el análisis de respuesta en frecuencia” En XVII ERIAC Décimo Séptimo Encuentro Regional Ibero-americano de CIGRE. A2 – TRANSFORMADORES, Ciudad del Este, Paraguay, 21 a 23 de mayo de 2017, p 8 Páginas. Consultado el: 13 de abril de 2022. Disponible en: http://sedici.unlp.edu.ar/bitstream/handle/10915/64627/Documento_completo.pdf?sequence =1. 3. Tibanlombo, Víctor, Ramírez Juan; Granda Nelson; Quilumba, Franklin. “Evaluación del Estado del Aislamiento en Transformadores a partir de Mediciones IFRA de Alto Voltaje”. Revista Politécnica, febrero - abril 2020, vol. 45, n 1, p. 39 - 48. Consultado el: 17 de abril de 2022. Disponible en: https://doi.org/10.33333/rp.vol45, n1.04. ISSN 2477-8990. 4. Alvarez, R. E., Calo Emilio y otros. “Ensayos de respuesta en frecuencia (SFRA). Interpretación y análisis de las configuraciones de ensayo”. En XVII ERIAC Décimo Séptimo Encuentro Regional Ibero-americano de CIGRE. A2 – TRANSFORMADORES, Ciudad del Este, Paraguay, 21 a 23 de mayo de 2017, p 8 Páginas. Consultado el: 14 de abril de 2022. Disponible en: https://app.box.com/s/gdnmhmmkoblo622h4v9j2pwvd5xlgvx8. 5. Zorrilla J. D., Céspedes A., García D.F. “Técnicas para el diagnóstico de transformadores de potencia: Una revisión crítica”. Ingeniare. Revista chilena de ingeniería, 2020, vol. 28, n 2, p. 184-203. Consultado el 15 de abril de 2020. Disponible en: http://dx.doi.org/10.4067/S0718- 33052020000200184. ISSN 0718-3305. 6. Hernández O., Gutiérrez A. M., Hernández J.I. y otros. “Design a software for interpretation of SFRA test in power transformers diagnostic”. Conference: Congreso Internacional de Alta Tensión y Aislamiento Eléctrico. La Habana, Cuba 2017, p 1 – 10. Consultado el 15 de abril de 2022. Disponible en: https://www.researchgate.net/publication/322071219_DESIGN_A_SOFTWARE_FOR_RES ULTS_INTERPRETATION_OF_SFRA_TEST_IN_POWER_TRANSFORMERS_DIAGNOSTI C. ISBN - 978-959-261-572-4. 7. IEEE Standard C57.149. “Guide for the Application and Interpretation of Frequency Response Analysis for Oil Immersed Transformers”. IEEE. March, 2013 8. Pleite G., J., Gómez-Luna, E., Aponte M., G. “Obtención de la respuesta en frecuencia en transformadores estando en servicio”. Ingeniare. Revista Chilena de Ingeniería, 2017, v. 25, n 1, p. 59-69. Consultado el: 17 de abril de 2022. Disponible en: http://dx.doi.org/10.4067/S0718-33052017000100059. ISSN 0718-3305. 9. Technical Brochure CIGRE 342 WG A2.26, “Mechanical-condition assessment of transformer windings using frequency response analysis (FRA)”, April 2008. 10. IEC Standard 60076-18. “International Standard: Power transformers. Part 18: Measurement of Frequency Response International Electrotechnical Commission”. Edition 1. July, 2012. ANALISIS DE FERRORRESONANCIA EN EL CIRCUITO MU4073 DE JAGUEY GRANDE Dailen García del Sol1, Ernesto Díaz Alfonso1, Orestes Hernández Areu1, Idelmis Pérez Rodríguez2 1Facultad de Ingeniería Eléctrica, Universidad Tecnológica de la Habana, Cuba. 2 Dirección de Redes de la UNE, Ministerio de Energía y Minas, Cuba. RESUMEN Se presenta el estudio analítico realizado para determinar la probabilidad de ocurrencia del fenómeno de ferrorresonancia en el primer tramo de 250 m de línea del circuito MU4073 de Jagüey Grande. Este tramo va desde la subestación de distribución hasta el primer banco trifásico de transformadores monofásicos (GB73 de 3 transformadores Latino de 50 kVA). El tipo de conductor utilizado para la distribución de la energía es ACSR 150 mm2 y las estructuras de soporte, predominantes tipo A con cable protector AC70. Por no disponer de los datos de los transformadores específicos, se utilizaron parámetros de tres transformadores similares del mismo fabricante. El análisis se realiza para tres conexiones posibles de los devanados primarios del banco de transformadores, estas fueron; estrella con neutro aislado, estrella con neutro puesto a tierra y delta. Además, se consideró para cada caso, dos configuraciones; banco de transformadores energizado y apertura de una de las fases y banco de transformadores desenergizado y cierra de una de las fases. Los resultados arrojan que en algunas configuraciones existe el peligro de ocurrencia de la ferrorresonancia y en otras, el fenómeno es improbable. Palabras claves: transformadores, ferrorresonancia, estudio de ferrorresonancia. FERRORRESONANCE ANALYSIS IN THE MU4073 CIRCUIT OF JAGUEY GRANDE ABSTRACT The analytical study carried out to determine the probability of occurrence of the ferroresonance phenomenon in the first section of 250 m of line of the MU4073 Jagüey Grande circuit is presented. This section goes from the distribution substation to the first three-phase bank of single-phase transformers (GB73 of 3 Latin transformers of 50 kVA). The type of conductor used for power distribution is ACSR 150 mm2 and the supporting structures are predominantly type A with AC70 protective cable. Due to the lack of data from the specific transformers, parameters from three similar transformers from the same manufacturer were used. The analysis is carried out for three possible connections of the primary windings of the transformer bank, these were; star with isolated neutral, star with grounded neutral and delta. In addition, two configurations were considered for each case; transformer bank energized and opening of one of the phases and transformer bank de-energized and closing of one of the phases. The results show that in some configurations there is a danger of occurrence of ferroresonance and in others, the phenomenon is unlikely. Key words: transformers, ferrorresonance, ferrorresonance study. Introducción La ferrorresonancia es un caso especial de resonancia serie que ocurre en circuitos donde, si la resistencia es despreciable, cuando las magnitudes de la reactancia capacitiva e inductiva se acercan en su valor, por tener signos opuestos, la impedancia total vista por la fuente se reduce, provocando corrientes elevadas que pueden ocasionar la desconexión del circuito o causar tensiones elevadas tanto en XL como en XC [1]. La IEEE la define como un fenómeno de resonancia no lineal que se caracteriza por producir sobretensiones muy altas y formas de onda irregulares con armónicas apreciables y está asociado con la excitación de una a más inductancias saturables en serie con una capacitancia [2]. Se desea analizar la probabilidad de ocurrencia del fenómeno de ferrorresonancia periódica en el primer tramo de 250 m de línea del circuito MU4073 de Jagüey Grande. Este tramo va desde la subestación de distribución hasta el primer banco trifásico de transformadores monofásicos (GB73 de 3 transformadores Latino de 50 kVA). El tipo de conductor utilizado para la distribución de la energía es ACSR 150 mm2 y las estructuras de soporte, predominantes tipo A con cable protector AC70. Por no disponer de los datos de los transformadores específicos, se utilizaron parámetros de tres transformadores similares del mismo fabricante. El análisis se realiza para tres conexiones posibles de los devanados primarios del banco de transformadores, estas fueron; estrella con neutro aislado, estrella con neutro puesto a tierra y aunque en Cuba es improbable, se completó el análisis con la conexión delta. Además, se consideró para cada caso, dos configuraciones; banco de transformadores energizado y apertura de una de las fases y banco de transformadores desenergizado y cierra de una de las fases. Los estudios han demostrado que ciertas configuraciones del sistema de energía aumentan la susceptibilidad de una red a la ferrorresonancia. Las protecciones monofásicas pueden dejar una sección de la red en circuito abierto, creando un circuito LC en serie que es excitado por las fases restantes [3]. Desarrollo Las sobretensiones, sobrecorrientes y distorsiones en las ondas, provocan sobreesfuerzos térmicos o dieléctricos frecuentemente peligrosos para los materiales eléctricos (destrucción, pérdida de propiedades y envejecimiento acelerado) [4]. El fenómeno de ferrorresonancia periódica, en su mayoría, es un caso particular de la resonancia serie que ocurre en los circuitos trifásicos en el instante de energización o desenergización monopolar de alguna fase. En ese momento, la fuente de energía queda alimentando un circuito que involucra las reactancias capacitivas de secuencia cero de las líneas eléctricas desde el interruptor hasta el transformador y las reactancias de magnetización de cada fase del transformador en una configuración que dependerá de la conexión del devanado primario y que se transformará en un circuito equivalente donde habrá una reactancia capacitiva de secuencia cero equivalente de las líneas, XCEQ en serie con una reactancia de magnetización equivalente XLEQ, cuyas expresiones dependerán de la configuración que ve la fuente de energía en el momento de la maniobra [5]. De esta forma, la ferrorresonancia es posible cuando las reactancias inductiva y capacitiva del circuito serie, son iguales o comparables y es imposible que se verifique si se cumple alguna de estas dos situaciones [6]: 1. XCEQ > XLEQ (1) 2. XCEQ < XLSEQ (2) Donde: XCEQ: Reactancia capacitiva de secuencia cero equivalente de la línea. XLEQ: Reactancia de magnetización equivalente en el circuito. XLSEQ: Reactancia de magnetización en saturación equivalente en el circuito. Obtención de las reactancias capacitivas y de magnetización necesarias En la tabla 1 se muestran los datos de los tres transformadores Latino de 50 kVA, similares a los del banco GB73 [5]. Tabla 1. Datos de los transformadores de 50 kVA Transformador kVA U (V) Po (W) Io (A) L (kH) XL (kΩ) Ls (kH) XLS (kΩ) Transformador 1 50 19100 154,0 0,015 4,005 1509,85 1,082 407,914 Transformador 2 50 19100 157,0 0,015 4,037 1521,91 1,091 411,307 Transformador 3 50 19100 170,0 0,020 2,828 1066,13 0,808 304,616 En esta tabla: U: tensión nominal primaria; V. Po: Pérdidas de vacío a tensión nominal; W. Io: Corriente de vacío a tensión nominal, referida al devanado primario; A. L: Inductancia de magnetización primaria del transformador a tensión nominal; kH. Ls: Inductancia de magnetización primaria del transformador en saturación; kH. XL: Reactancia de magnetización primaria del transformador a tensión nominal; kΩ. XLS: Reactancia de magnetización primaria del transformador en saturación; kΩ. En la tabla 2 se muestran los parámetros calculados para la línea de 250 m con tres variantes del conductor AC150 y estructura tipo A sin y con cable protector. Se considera la flecha de los conductores de 0,8 la altura de los conductores y la flecha del cable protector; 0,8 la flecha de los conductores [6]. Tabla 2. Parámetros de secuencia cero de 250 m de línea con conductor AC150, sin y con cable protector Conductor B(0) (S/km) Xc (kΩ/km) C(0) (F/km) C(0) (F) Xc (kΩ) Sin cable protector AC150/19 2,0557 x 10-6 486,452 0,0054529x10-6 0,0013632x10-6 1945,768 AC150/24 2,0593 x 10-6 485,560 0,0054624x10-6 0,0013656x10-6 1942,384 AC150/34 2,0640 x 10-6 484,478 0,0054750x10-6 0,0013688x10-6 1937,914 Con cable protector AC70 AC150/19 2,3364 x 10-6 427,998 0,0061975x10-6 0,0015937x10-6 1711,993 AC150/24 2,3410 x 10-6 427,151 0,0062098x10-6 0,0015524x10-6 1708,602 AC150/34 2,3471 x 10-6 426,039 0,0062260x10-6 0,0015565x10-6 1704,156 En la tabla: B(0): Suceptancia de secuencia cero de la línea. Xc: Reactancia capacitiva de secuencia cero de la línea. C(0): Capacitancia de secuencia cero de la línea. Análisis del circuito El análisis se realiza para cada uno de los conductores de la línea, con y sin cable protector y en cada caso, tomando en consideración tres conexiones posibles de los devanados primarios del banco de transformadores, es decir; estrella con neutro aislado, estrella con neutro puesto a tierra y delta. Además, se consideró para cada caso, dos configuraciones; a) Banco de transformadores energizado y apertura de una de las fases. b) Banco de transformadores desenergizado y cierra de una de las fases. En todos los casos es necesario relacionar las reactancias capacitivas de secuencia cero y las reactancias de magnetización de los transformadores a tensión nominal y en saturación. En las tablas 3, 4 y 5 se muestran estas relaciones para cada conductor de línea, con y sin cable protector. Tabla 3. Parámetros relacionados para el conductor AC150/19 Banco Conductor Xc (kΩ) XL (kΩ) XLS (kΩ) JXC/JXL JXC/JXLS Sin cable protector Transformador 1 AC150/19 1945,77 1509,85 407,91 1,29 4,77 Transformador 2 1945,77 1521,91 411,31 1,28 4,73 Transformador 3 1945,77 1066,13 304,62 1,82 6,39 Con cable protector Transformador 1 AC150/19 1711,99 1509,85 407,91 1,13 4,20 Transformador 2 1711,99 1521,91 411,31 1,12 4,16 Transformador 3 1711,99 1066,13 304,62 1,60 5,62 Tabla 4. Parámetros relacionados para el conductor AC150/24 Banco Conductor Xc (kΩ) XL (kΩ) XLS (kΩ) JXC/JXL JXC/JXLS Sin cable protector Transformador 1 AC150/24 1942,38 1509,85 407,91 1,29 4,76 Transformador 2 1942,38 1521,91 411,31 1,28 4,72 Transformador 3 1942,38 1066,13 304,62 1,82 6,37 Con cable protector Transformador 1 AC150/24 1708,60 1509,85 407,91 1,13 4,19 Transformador 2 1708,60 1521,91 411,31 1,12 4,15 Transformador 3 1708,60 1066,13 304,62 1,60 5,61 Tabla 5. Parámetros relacionados para el conductor AC150/34 Banco Conductor Xc (kΩ) XL (kΩ) XLS (kΩ) JXC/JXL JXC/JXLS Sin cable protector Transformador 1 AC150/34 1937,91 1509,85 407,91 1,29 4,75 Transformador 2 1937,91 1521,91 411,31 1,28 4,71 Transformador 3 1937,91 1066,13 304,62 1,82 6,36 Con cable protector Transformador 1 AC150/34 1704,15 1509,85 407,91 1,13 4,18 Transformador 2 1704,15 1521,91 411,31 1,12 4,14 Transformador 3 1704,15 1066,13 304,62 1,60 5,59 Primer análisis. Conexión primaria en estrella con neutro aislado, cierre de una fase La figura 1(a) muestra la condición de banco de transformadores desenergizado, conectado por el primario en estrella, con neutro aislado y energización de una fase. La figura 1(b) muestra el circuito equivalente de Thevenin correspondiente con las reactancias equivalentes. Figura 1. Banco de transformadores desenergizado, en estrella con neutro aislado y cierre de una fase Según las ecuaciones 1 y 2 no habrá ferrorresonancia si se cumple alguna de estas condiciones: Lo que es igual a: Primera conclusión parcial Como se aprecia en las tablas 3, 4 y 5, en ningún caso se cumple alguna de las condiciones por lo que, para el caso de que el banco de transformadores esté conectado por el primario en estrella aislada y se cierre una fase, habrá probabilidad de ferrorresonancia, haya o no cable protector. Segundo análisis. Conexión primaria en estrella con neutro aislado, apertura de una fase La figura 2(a) muestra la condición de banco de transformadores energizado, conectado por el primario en estrella, con neutro aislado y apertura de una fase. La figura 2(b) muestra el circuito equivalente de Thevenin correspondiente con las reactancias equivalentes. Figura 2. Banco de transformadores energizado, en estrella con neutro aislado y apertura de una fase Según las ecuaciones 1 y 2 no habrá ferrorresonancia si se cumple alguna de estas condiciones: Lo que es igual a: Segunda conclusión parcial Como se aprecia en las tablas 3, 4 y 5, solo en el caso de que el banco de transformadores tenga las características del transformador 3, no habrá probabilidad de resonancia magnética. En todos los demás casos, cuando el banco de transformadores esté conectado por el primario en estrella aislada y se abra una fase, habrá probabilidad de ferrorresonancia, haya o no cable protector. Tercer análisis. Conexión primaria en estrella con neutro puesto a tierra, cierre de una fase La figura 3(a) muestra la condición de banco de transformadores desenergizado, conectado por el primario en estrella, con neutro puesto a tierra y cierre de una fase. La figura 3(b) muestra el circuito equivalente de Thevenin correspondiente con las reactancias equivalentes. Figura 3. Banco de transformadores desenergizado, en estrella con neutro puesto a tierra y cierre de una fase Según las ecuaciones 1 y 2 no habrá ferrorresonancia si se cumple alguna de estas condiciones: Lo que es igual a: Tercera conclusión parcial Como se aprecia en las tablas 3, 4 y 5, en todos los casos se cumple la primera condición, por lo que cuando el banco de transformadores esté conectado por el primario en estrella con el neutro puesto a tierra y se cierre una fase, no habrá probabilidad de ferrorresonancia, haya o no cable protector. Cuarto análisis. Conexión primaria en estrella con neutro puesto a tierra, apertura de una fase La figura 4(a) muestra la condición de banco de transformadores energizado, conectado por el primario en estrella, con neutro puesto a tierra y apertura de una fase. La figura 4(b) muestra el circuito equivalente de Thevenin correspondiente con las reactancias equivalentes. Figura 4. Banco de transformadores energizado, en estrella con neutro puesto a tierra y apertura de una fase Según las ecuaciones 1 y 2 no habrá ferrorresonancia si se cumple alguna de estas condiciones: Lo que es igual a: Cuarta conclusión parcial Como se aprecia en las tablas 3, 4 y 5, en todos los casos se cumple la primera condición, por lo que cuando el banco de transformadores esté conectado por el primario en estrella con el neutro puesto a tierra y se abra una fase, no habrá probabilidad de ferrorresonancia, haya o no cable protector. Quinto análisis. Conexión primaria en delta, cierre de una fase Esta es una conexión que no se emplea en Cuba por el primario de los bancos de transformadores, debido a las tensiones nominales primarias de cada unidad, pero con el fin de completar el estudio, se analizará. La figura 5(a) muestra la condición de banco de transformadores desenergizado, conectado por el primario en delta y cierre de una fase. La figura 5(b) muestra el circuito equivalente de Thevenin correspondiente con las reactancias equivalentes. Figura 5. Banco de transformadores desenergizado, en delta y cierre de una fase Según las ecuaciones 1 y 2 no habrá ferrorresonancia si se cumple alguna de estas condiciones: Lo que es igual a: Quinta conclusión parcial Como se aprecia en las tablas 3, 4 y 5, en todos los casos se cumple la primera condición, por lo que cuando el banco de transformadores esté conectado por el primario en delta y se cierre una fase, no habrá probabilidad de ferrorresonancia, haya o no cable protector. Sexto análisis. Conexión primaria en delta, apertura de una fase La figura 6(a) muestra la condición de banco de transformadores energizado, conectado por el primario en delta y apertura de una fase. La figura 6(b) muestra el circuito equivalente de Thevenin correspondiente con las reactancias equivalentes. Figura 6. Banco de transformadores energizado, en delta y apertura de una fase Según las ecuaciones 1 y 2 no habrá ferrorresonancia si se cumple alguna de estas condiciones: Lo que es igual a: Sexta conclusión parcial Como se aprecia en las tablas 3, 4 y 5, en todos los casos se cumple la primera condición, por lo que cuando el banco de transformadores esté conectado por el primario en delta y se cierre una fase, no habrá probabilidad de ferrorresonancia, haya o no cable protector. Conclusiones generales De acuerdo con las características de las líneas y los transformadores sometidos a análisis, se llegan a estas conclusiones generales para estos 250 m de línea: 1. Para el caso de que el banco de transformadores esté conectado por el primario en estrella aislada y se cierre o abra una fase monopolarmente, habrá probabilidad de ferrorresonancia, haya o no cable protector. 2. En las conexiones primarias estrella con neutro puesto a tierra, no habrá probabilidad de ferrorresonancia. 3. En las conexiones primarias en delta, no habrá probabilidad de ferrorresonancia. 4. La existencia del cable protector en la línea no afecta los resultados del análisis. Referencias. [1]- M. R. Iravani, A.K.S.C., W. J. Giesbracht, l. E. Hassan, A. J.F. Keri, K. F. C Lee, J. A. Martinez, A. S. Morched, B. A. Mork, M. Parniani, A. Sharshar, D. Shirmohammadi, R. A. Walling and D. A. Woodford, "Modeling and Analysis Guidelines for Slow Transients- Part 111: The Study of Ferroresonance". IEEE Transaction On Power Delivery, Vol. 15, 2000. [2]- Ovianyelis Caridad Pérez Pérez, Julio Fernando Valle García, Simulación del fenómeno de ferrorresonancia en transformadores, Universidad Tecnologica de La Habana José A. Echeverría, junio 2014. [3]- B. Vahidi R. Shariati Nassab S. Ghaghaheh Zadeh E. Abedi, Ferroresonant Overvoltage Investigation in Wye-Wye Transformers on Transmission System by Using MATLAB, Department of Electrical Engineering, Tehran – Iran, abril 2020. [4]- Orestes Hernández, Dora Terrero, José G. Sánchez, Investigación de la falla masiva de transformadores de distribución en la OBE JAGÜEY GRANDE, revista: energética Vol XXV, No 3. 2004 [5]- Dr. Orestes Hernández Areu. Monografía: La Ferrorresonancia en sistemas de distribución. Centro de Investigaciones y Pruebas Electroenergéticas. [6]- Simulación del fenómeno de ferroresonancia en transformadores. Orestes Hernández Areu, Ovianyelis Pérez Pérez, Julio Fernando Valle García. revista: Energética, Ingeniería Eléctrica 2020 Vol. 41 No: 3 sept/dic ISSN: 1815-5901. 30 de septiembre del 2020. ANÁLISIS DE LAS POTENCIALIDADES DE UN LABORATORIO PARA PRUEBAS Y HOMOLOGACIÓN DE BATERÍAS PARA VEHÍCULOS ELÉCTRICOS Ing. Antonio Villasol López1; Ing. Raynel Díaz Santos1, M.SC.; Dr. C. Miguel Castro Fernández1 1 Centro de Investigaciones y Pruebas Electroenergéticas (CIPEL), Universidad Tecnológica de la Habana “José Antonio Echeverría”, CUJAE, entronque Ave. Rancho Boyeros y Carretera CUJAE, Habana, Cuba Resumen En el presente trabajo, se aborda el tema de los avances tecnológicos actuales en el desarrollo de instalaciones para la prueba y homologación de las baterías a utilizar en los vehículos eléctricos, a fin de analizar los principales aspectos a tener en cuenta para el diseño y posible puesta en marcha de una en el país. En el mismo se ejecuta un estudio correspondiente al tema, donde se obtienen las experiencias internacionales y los avances que se reportan por diferentes organizaciones que trabajan en esta línea. Además, se analizan las técnicas y procedimientos más aplicados en el mundo en lo referente a diagnóstico y certificación de baterías para vehículos eléctricos. Partiendo de estos análisis, así como de los requerimientos de seguridad que deben poseer dichas baterías, así como del equipamiento requerido para su funcionamiento y del costo aproximado de adquisición del mismo, se analizan las potencialidades de su conformación en el país. Los resultados de la investigación demuestran los beneficios que se alcanzarían con la puesta en funcionamiento de dicho laboratorio, a partir de los beneficios que genera su utilización en el país. Palabras Claves: Electric vehicules, baterías ara autos eléctricos. Abstract In the present work, the subject of current technological advances in the development of facilities for the testing and homologation of batteries to be used in electric vehicles is addressed in order to analyze the main aspects to be taken into account for the design and possible start-up of one in the country. In it, a study corresponding to the subject is carried out, where international experiences and advances reported by different organizations that work in this line are obtained. In addition, the most applied techniques and procedures in the world in relation to diagnosis and certification of batteries for electric vehicles are analyzed. Based on these analyses, as well as the security requirements that these batteries must have, as well as the equipment required for their operation and the approximate cost of acquiring it, the potentialities of their conformation in the country are analyzed. The results of the investigation demonstrate the benefits that would be achieved with the start-up of said laboratory, based on the benefits generated by its use in the country. Keyords: electric vehicles, batteries for electric cars. Introducción A partir del acelerado crecimiento de la población, el desarrollo económico y los avances tecnológicos en el mundo, los niveles de consumo de energía a nivel mundial son cada vez mayores, lo que ha propiciado el desarrollo de los sistemas para su almacenamiento. Las baterías son una de las pocas formas confiables de almacenar la energía eléctrica convirtiendo la energía eléctrica, en energía química y viceversa. De esta manera se puede disponer de energía eléctrica cuando se requiera sin depender de la red. El desarrollo alcanzado en los últimos años de nuevas aplicaciones (vehículos eléctricos, sistemas fotovoltaicos, sistemas de alimentación ininterrumpida, etc.) han propiciado el surgimiento y desarrollo de nuevas tecnologías de baterías, cada vez más eficientes y confiables [1]. Si bien, los fabricantes de baterías para vehículos eléctricos han logrado el desarrollo de tecnologías con una mayor eficiencia, aun se hace extremadamente necesario precisar la estimación del comportamiento de las mismas en tiempo real, así como la apreciación de su comportamiento. A tal efecto, en el cuerpo del trabajo se desarrolla un análisis exhaustivo de todos los elementos que intervienen en el diseño de una instalación para el diagnóstico y certificación de baterías a emplear en vehículos eléctricos. Métodos Para llevar a cabo la investigación se ejecutó una investigación deductiva sobre el tema, comenzando por los tipos de baterías empleadas en los vehículos eléctricos, con lo que se logra alcanzar una visión general del tema de estudio. Por otra parte, se realizó una investigación descriptiva para comprender el funcionamiento de las mismas, los requisitos de seguridad que deben cumplir para su utilización y las técnicas y equipamiento empleados para su diagnóstico y certificación, y poder así entender las condiciones técnicas necesarias para el diseño de la instalación. A través de un estudio de mercado, se plantea una visión general de la inversión inicial requerida para la compra del equipamiento del laboratorio y los costos aproximados de su adquisición sobre la base de costos promedios de las tecnologías, partes y componentes. Estudio de las baterías empleadas en vehículos eléctricos Como punto de partida para la ejecución del estudio de las baterías empleadas en vehículos eléctricos, fue necesario realizar un análisis integral teniendo en cuenta los elementos que se relacionan a continuación: • Principio de funcionamiento. • Clasificación. • Tipos. • Cuidados, mantenimiento y precauciones para su utilización. • Parámetros de seguridad que deben cumplir. Análisis de las técnicas y equipamiento empleado en la prueba y homologación de las baterías a emplear en vehículos eléctricos Para la ejecución del análisis se realizó un estudio para obtener la familiarización con las tecnologías desarrolladas para la prueba y certificación de las baterías a utilizar en vehículos eléctricos a nivel internacional. En este sentido se logró determinar que hay dos grupos de ensayos de las baterías: los ensayos o tests de abuso y validación de seguridad, y las pruebas de envejecimiento y rendimiento. Valoración del costo preliminar Se lleva a cabo a partir de la valoración de los costos requeridos para la adquisición del equipamiento indispensable para el laboratorio con el fin de determinar la inversión inicial requerida para la puesta en funcionamiento del laboratorio, teniendo como base el análisis de la oscilación de sus precios en el mercado internacional. Resultados obtenidos Estudio de las baterías empleadas en vehículos eléctricos. Las baterías son dispositivos de almacenamiento energético que disponen de celdas electroquímicas capaces de generar corriente eléctrica a partir de la energía química almacenada. Esta generación se produce gracias al proceso reversible conocido como redox (reducción – oxidación), que consiste en el intercambio de electrones entre los diferentes metales presentes en su interior. Dichos metales reciben el nombre de electrodos, denominados cátodo (borne positivo) y ánodo (borne negativo), y se encuentran sumergidos en una solución iónica llamada electrolito, la cual permite el movimiento de iones. Así, gracias a este movimiento de iones, la corriente puede fluir fuera de la batería para alimentar el circuito eléctrico [2,3]. Las mismas se clasifican en: • Primarias: su carga no puede ser renovada cuando se agota, excepto sustituyendo las sustancias químicas que las componen. Su campo de aplicación se enmarca fundamentalmente dentro de las potencias bajas y de ahí que sean generalmente pequeñas [1]. • Secundarias: son susceptibles a su reactivación, sometiéndolas al paso más o menos prolongado de una corriente eléctrica, en sentido inverso a aquél en que la corriente de la pila fluye normalmente. Estas se comercializan en un amplio margen de capacidades, desde capacidades bajas (algunos cientos de miliamperios–hora) hasta capacidades medias y altas (varias decenas o centenas de amperios–hora) [1]. Dado que el trabajo se centra en el estudio de las tecnologías aplicadas a los vehículos eléctricos, solo son analizadas las secundarias. En este punto, dudar de que la batería de un automóvil eléctrico es un elemento básico sería extraño, ya que los avances en este campo marcan el porvenir de los mismos, algo lógico teniendo en cuenta que todo el proceso de desarrollo de este tipo de vehículo gira entorno a la batería. Atendiendo a los elementos anteriormente expuestos en la Tabla 1 se exponen los principales tipos de baterías utilizadas en vehículos eléctricos, y en la Tabla 2 los aspectos fundamentales a tener en cuenta para su utilización. Al analizar los elementos expuestos en las tablas 1 y 2, se puede llegar a la conclusión de que los equipos y vehículos industriales, y las baterías que les suministran energía, evolucionan constantemente. Los recientes avances en la tecnología de las baterías y el aumento de la popularidad de los vehículos eléctricos están cambiando la forma en que suministran energía a las vidas y a las áreas de trabajo de las personas. Se proyecta que las baterías más nuevas, menos pesadas y con mayor densidad de energía revolucionarán muchas industrias en los próximos 10 años. Sin embargo, a pesar de estos avances, siguen existiendo riesgos para la salud y la seguridad, los cuales se relacionan a continuación [10,11]: o Gases inflamables: Recargar, mover o agitar una batería de plomo ácido puede producir una mezcla explosiva de gases de hidrógeno y oxígeno que se escapan a través de las rejillas de ventilación de la batería. Dichos vapores, si se acumulan en un área pequeña, se encienden fácilmente y pueden ocasionar un incendio o una explosión. Una batería que explota puede causar lesiones graves debido a los pedazos del recipiente que vuelan y el ácido que se derrama. La mayoría de las baterías modernas incluyen un supresor de llamas, el cual es un filtro poroso en las rejillas de ventilación de la batería, diseñado para evitar que las llamas entren en la batería. Sin embargo, es vital mantener la no presencia de cualquier modo de ignición, tal como fumar, llamas abiertas o artículos que produzcan chispas, como las amoladoras, los soldadores u otros equipos eléctricos, lejos de las baterías [10]. o Lesiones físicas causadas por el peso de la batería: Mover las baterías de manera incorrecta puede causar torceduras, distensiones, o lesiones [10]. o Riesgos ambientales: Las baterías de plomo ácido y de EV representan una amenaza para el medio ambiente si no se desechan de manera adecuada. Los derrames de ácido no contenidos pueden contaminar el suelo y el agua subterránea. También puede transmitirse por el aire cuando se seca, provocando una posible irritación de los tejidos y daños permanentes [10,11]. Tabla 1. Tipos de baterías empleadas en vehículos eléctricos. Fuente: elaboración propia. Tipos de baterías Características fundamentales Plomo - Ácido o Tecnología totalmente establecida. o Alta tensión por celda (2 V/celda), lo que permite obtener baterías de mayor tensión con un número menor de celdas conectadas enserie. o Excelente capacidad para suministrar picos de corriente altos durante la descarga. o Su tasa de auto – descarga mensual es de las más bajas, aproximadamente un5%. o Elevada eficiencia, por encima del 80%. Facilidad de reciclado. o Elevado peso a causa de la utilización de plomo como material activo. o Baja energía específica menor a un 30 – 50Wh/kg. o Se usa para cubrir las necesidades de arranque, iluminación e ignición, ya que no son lo suficientemente grandes como para mover un vehículo. o Corta vida cíclica (500 ó 600 ciclos de carga –descarga). o No admiten carga rápida, por lo que necesitan largos períodos de tiempo para la recarga. o Baja resistencia ante sobrecargas y descargas accidentales. o Se ven seriamente afectadas por la corrosión de sus electrodos. Necesidad de mantenimiento periódico. Níquel - Cadmio o Tecnología muy establecida. o Buen comportamiento en un amplio margen de temperaturas (40 OC / 60 OC). o Admiten sobrecargas, se pueden continuar cargando aun cuando ya no admitan más carga, aunque no la almacenen. o Son de una vida cíclica larga (superiora los 1500 ciclos, de dos a tres veces lo alcanzado por la tecnología de plomo –ácido). o Gran robustez ante abusos eléctricos y mecánicos. o Gran fiabilidad, no fallan de manera repentina como las baterías de plomo –ácido. o Poseen un precio elevado, en comparación con las baterías de plomo – ácido. o Dentro de los componentes utilizados en su fabricación, se encuentran elementos altamente contaminantes y que obligan a incrementar la eficiencia en el proceso de reciclaje de dichas baterías una vez que quedan fuera deservicio. o En la actualidad ya no son fabricadas en muchos países. o Autodescarga de un 10% mensual. o tensión nominal de 12 V/celda, valor bastante BAJO, lo que requiere la conexión de un mayor número de celdas en serie para alcanzar una determinada tensión. o Efecto de memoria elevado. o Sufren envejecimiento prematuro a causa del calor. Continuación Tabla 1…………… Tipos de baterías Características fundamentales Níquel – Hidruro Metálico. o Mayor densidad energética y energía específica que las de NiCd. o Tecnología libre de cadmio (menos contaminantes). o Pueden ser cargadas con un cargador convencional. o Gran seguridad. o Fácil manejo comparado con la tecnología de litio. o Elevada razón de autodescarga, entre un 15 y un 20% por mes. o Menor fiabilidad que las baterías de NiCd. o No admiten grandes descargas. o Bajo nivel de tensión por celda (1,2V). o Vidamediadeaproximadamente300–500 ciclos de carga (en función del fabricante). o Tiempos de carga superiores al NiCd. Litio o Alta densidad energética. o Alta energía específica. o Alta capacidad de descarga en algunos tipos de baterías de litio. o No requieren mantenimiento. o Sin efecto de memoria. o Bajo efecto de autodescarga. o Necesitan un circuito de seguridad para mantener los límites de tensión máximo y mínimo por celda. o Deben ser almacenadas en lugares fríos al 40% de su carga. o Baja capacidad de descarga en su variante de iones de litio. o Limitaciones a la hora de su transportación de manera aérea. o Precios elevados. Polímero de Litio (LiPo) o Pueden reducirse hasta grosores de 1 milímetro. o Pueden empaquetarse de múltiples formas. o Alta densidad de energía. o Poco peso. o No necesitan mantenimiento. o Sin efecto memoria. o Bajo porcentaje de autodescarga. o Requiere un circuito de seguridad para mantener los límites de tensión. o Almacenar en lugar frío al 40% de su carga. o Limitaciones en su transporte (compañías aéreas). o Tecnología en desarrollo. o Pueden explotar si se perfora. Continuación Tabla 1…………… Tipos de baterías Características fundamentales Ion de Litio con cátodo de LiCoO2 o Batería con la mayor densidad energética del mercado. o Batería con la mayor energía específica del mercado. o Alta tensión por celda 3.6-3.7v o No posee efecto memoria. o Tasas de autodescarga inferior al10%. o No está fabricada con productos tóxicos. o Problemas de ecualización y necesidad de circuitos electrónicos adicionales. Litio Fosfato Hierro (LiFePO4) o Alta tensión en circuito abierto,3,3V. o LiFePO4 es un cátodo de material intrínsecamente más seguro que LiCoO2. o No posee efecto memoria. o No está fabricada con productos tóxicos. o Es la batería perteneciente a la familia del litio que mejor tolera las altas temperaturas. o Supera los 2000 ciclos de vida. o Vida superior a los 10 años. o Tiempo de carga entre 15- 30 minutos. o Buena capacidad para soporta sobrecarga o Buena energía específica y densidad energética. o Buena potencia específica. o Problemas de ecualización y necesidad de circuitos electrónicos adicionales (menor tendencia al desequilibro). o La densidad energética en una batería LiFePO4, es sensiblemente inferior su antecesora el ion de litio cátodo de LiCoO2, aproximadamente en un14%. o Sufren el efecto de pasivación. Litio Ternaria (batería de material ternario) o La batería de litio ternaria, generalmente se refiere a una batería de litio que utiliza níquel-cobalto-manganeso (Li(NiCoMn)O2,NCM) o material de cátodo ternario de níquel-cobalto-litio (NCA). Se puede dividir en baterías de paquete blando, baterías cilíndricas y baterías cuadradas de cubierta dura. Su tensión nominal puede alcanzar 3.6-3.8V por celda, tiene alta densidad de energía, plataforma de tensión más alta, alta densidad de derivación, largo alcance de crucero, gran potencia de salida, baja estabilidad a alta temperatura, excelente rendimiento a baja temperatura y alto costo [4]. o Relativamente equilibrada en términos de capacidad y seguridad, con un excelente rendimiento integral. o Tiene ventajas absolutas sobre el fosfato de hierro y litio, el manganato de litio o el titanato de litio, en lo referente a la densidad energética. o En condiciones de alta temperatura, el material ternario de esta batería se descompondrá a 200 °C, lo que producirá una reacción química violenta, liberará átomos de oxígeno y es propenso a la combustión o explosión a altas temperaturas. Tabla 2. Cuidados, mantenimientos y precauciones para el uso de las baterías. Fuente: elaboración propia Tipo de batería Aspectos a considerar Plomo - Ácido o Pérdida de material activo: Los ciclos (un ciclo = una carga más una descarga) son el factor más influyente. El efecto de una repetitiva transformación química del material activo en las placas tiende a disminuir su cohesión cosa que hace que el líquido activo se almacene en la parte más profunda de la batería y su aprovechamiento sea más difícil [1, 5,6]. o Corrosión de la placa positiva: Este proceso sucede al cargar la batería sobre todo en la última fase de carga, cuando la tensión es superior. Es un proceso lento pero continuo cuando la carga de la batería se encuentra en fase de mantenimiento. La corrosión hará que aumente la resistencia interna con la consecuente posible desintegración de las placas positivas [1, 5,6]. o Sulfatación: Contrariamente a los dos factores anteriores de envejecimiento de las baterías, la sulfatación puede evitarse con el cuidado de la batería. Cuando una batería se descarga, la masa activa de los polos positivo y negativo se convierte en pequeños cristales de sulfato [1, 5, 6]. Níquel - Cadmio o Carga Flotante: Se aplica una tensión constante en los terminales de una batería cargada completamente para producir una pequeña corriente de carga, usada para contrarrestar los efectos de la autodescarga [5,6]. o Reacondicionamiento: La batería es descargada en su totalidad y vuelta a cargar para mitigar los efectos de la degradación reversible [1, 5,6]. o Reposición de agua: Es necesario añadir agua destilada a cada celda individual para compensar las pérdidas debidas a la evaporación y la electrólisis [1,6]. Níquel – Hidruro Metálico. o No desechar baterías sometiéndolas a combustión o colocándolas entre residuos normales ya que pueden explotar cuando se las acerca al fuego y pueden constituir un residuo peligroso, así como contaminar el medio ambiente [6]. o Cuando las baterías no están instaladas en la unidad o en el cargador es necesario guardarlas en un recipiente limpio y seco que no sea conductor [6]. o Se deben cargar las baterías mientras están colocada sen la unidad o cuando se utilice un cargador adecuado, ya que pueden producirse explosiones [6] o Utilizar y almacenar las baterías en lugares cuya temperatura no supere los 50ºC [6]. Continuación Tabla 2……. Tipo de batería Aspectos a considerar Litio o Este grupo de baterías no requiere mantenimiento, no tienen efecto memoria y no es necesario realizar un reciclado cada cierto número de cargas. Además, la razón de autodescarga de una batería almacenada es menos de la mitad de otros tipos de batería [1,6]. o El envejecimiento de las baterías de Litio es un tema que los fabricantes suelen ocultar, pues las capacidades químicas de una batería se degradan notablemente en un periodo de un año. Esta degradación química ocurre tanto si se utiliza la batería o no [1,6]. Polímero de Litio (LiPo) o Emplear sólo cargadores específicos para baterías de Polímero de Litio (LiPo). En caso contrario puede provocar un incendio que derive en daños personales o materiales [6]. o Nunca cargue las baterías LiPo sin estar presente. Siempre debe vigilar el proceso para poder reaccionar ante cualquier problema que se pudiese plantear [6]. o En caso de golpe, debe observar durante 15 minutos la batería en un lugar seguro como el que describimos en el punto 3[6]. o Si por cualquier razón tiene que cortar los terminales de la batería, hágalo uno por uno para no correr el riesgo de provocar un cortocircuito [6]. Ion de Litio con cátodo de LiCoO2 o Protección electrónica (BMS): El circuito de protección BMS es el cerebro de la batería que controla multitud de parámetros [1,7]. 1. Protección contra cortocircuito. 2. Protección contra sobrecarga. 3. Protección contra corriente. 4. Protección contra sobrecarga. 5. Protección contra sobretensión o Aviso de carga: Solo deben ser cargadas con el cargador suministrado por el fabricante o bien con los que operan a los mismos parámetros que los oficiales [1, 7]. o Modo de empleo: Conectar el cargador a la red eléctrica y este a la batería, y no desconectarlo hasta que finalice el proceso de recarga [1,7]. Continuación Tabla 2……. Tipo de batería Aspectos a considerar Litio Fosfato Hierro (LiFePO4) o Precauciones: Para obtener una mejor vida útil de su batería, se deben tener en cuenta los aspectos que se relacionan a continuación [1, 6, 8]. 1. Mantener la batería fresca y seca y alejada de la luz solar directa (que aumenta innecesariamente la temperatura de la celda. 2. Verificar que los terminales de la batería estén apretados de manera regular, especialmente si conduce sobre muchas corrugaciones y no tienen ningún tipo de corrosión. o Almacenamiento: Para el almacenamiento prolongado de dichas baterías atenderá los elementos que se exponen seguidamente [1,6, 8]. 1. Almacenarlas en lugares frescos y secos, idealmente entre 10 y 45 oC.. 2. Evitar almacenarlas en pisos de concreto. Litio Ternaria o Seguridad [9]: 1. Emplear sólo cargadores específicos. 2. Nunca realizar la carga de las baterías sin estar monitorizándolas. Siempre debe vigilar el proceso de carga para poder reaccionar ante cualquier problema que pudiese ocurrir. 3. Si en cualquier momento observa deformación o derrame de líquido, desconecte la batería inmediatamente y observarla durante15minutosenunlugarseguroafindeprevenircualquier reacción anómala. o Almacenamiento y transporte [9]: 1. Guardarlasbateríasenlugarescontemperaturasentre4y27ºC para mantenerlas en perfecto estado. 2. No exponer las baterías a la luz directa del sol durante periodos largos de tiempo. o Durante el transporte de las baterías, la temperatura debe mantenerse siempre entre -5 y 66ºC. Los riesgos de accidentes de batería en vehículos eléctricos son bajos. Sin embargo, el principal peligro potencial es la electrocución si el vehículo se enciende accidentalmente al momento de ser reparado. Para abordar esta preocupación, muchas compañías automotrices han instalado un interruptor de seguridad que desconecta la batería del sistema eléctrico del vehículo. Otra característica de seguridad que han instalado los fabricantes de automóviles son los cables de alto voltaje codificados por colores para advertir sobre una posible descarga eléctrica. La mayoría de los cables son naranjas, pero en algunos modelos, los cables son azules [10, 11]. Entre las principales precauciones a tener en cuenta cando se trabaje con las baterías de los EV se encuentran: 1. Mantener el llavero remoto alejado del vehículo para evitar cualquier operación accidental de los sistemas eléctricos o movimiento del vehículo. 2. Examinar el vehículo en busca de señales de daños en los componentes eléctricos o en el cableado de mayor tensión. 3. Evitar el contacto con los cables de alto voltaje hasta que la batería del EV se haya desconectado. 4. Aislar(desconectaryasegurar)elsistemadelabateríaparaquenosepuedavolver a encender accidentalmente antes de que se complete el trabajo. 5. Utilizar herramientas y equipos de prueba aislados, ya que las baterías y los componentes aislados del vehículo pueden seguir teniendo grandes cantidades de energía y alto voltaje incluso después de haber sido desconectados. 6. Consultar la información suministrada por el fabricante sobre cómo descargar la energía almacenada. 7. Utilizar las medidas de control del fabricante después del accidente de un vehículo eléctrico (el daño puede hacer que sea imposible de aislar completamente el sistema eléctrico demás alta tensión o descargar la energía almacenada). Por otra parte, las baterías a utilizar en vehículos eléctricos deberán cumplir con todos los parámetros de seguridad establecidos en la Norma Internacional ISO 6469[12], la cual está en proceso de adopción en el país. Análisis de las técnicas y equipamiento empleado en la prueba y homologación de las baterías a emplear en vehículos eléctricos. El desarrollo de una batería a utilizar en un vehículo eléctrico debe adaptarse a muchos parámetros que entran en conflicto a la hora de encontrar una solución que cumpla con las expectativas mínimas: la degradación de la capacidad, la densidad de energía, la potencia, la seguridad, la integración, la experiencia general de conducción, el coste y el embalaje físico. La batería de un vehículo eléctrico debe pasar por muchos ensayos antes de alcanzar la madurez de producción. Este programa abarca desde pruebas de seguridad y de uso indebido, hasta el rendimiento de las celdas, la vida útil, la influencia de la temperatura, el sistema BMS (Battery Management System), así como el autodiagnóstico y la exposición ambiental [13]. En función de comprobar el cumplimiento de los parámetros de operación y seguridad a cumplir por las baterías a emplear en vehículos eléctricos, se reportan un grupo de pruebas (ensayos) a ejecutar y el equipamiento requerido para su realización, todo lo cual se expone en la Tabla 3. Tabla 3. Pruebas necesarias a ejecutar y el equipamiento requerido para el ensayo y homologación de baterías. Fuente: elaboración propia Pruebas (ensayos) o tests de abuso y validación de seguridad Prueba Función Equipamiento necesario Térmica Se ejecuta con el objetivo de evaluar la integridad del sello y las conexiones eléctricas internas de una batería, después de la exposición de la misma a variaciones extremas y rápidas de temperaturas. Para la ejecución de la misma se requiere de una cámara climática con control de temperatura (entre +78 y -45 OC en menos de 30 minutos). Medición de vibración Simula el efecto del tipo de vibración que podría aplicarse a una batería durante su transporte. Para la ejecución del ensayo se emplea una cámara climática para la realización de ensayos combinados con vibración. Prueba de choque Se ejecuta con el objetivo de valorar el comportamiento de la batería ante la ocurrencia de un impacto. Para la ejecución del ensayo se emplea un equipo de prueba de choque mecánico para baterías. Cortocircuito externo Sirve para determinar la capacidad de una batería para soportar un flujo máximo de corriente sin consecuencias adversas. Para la ejecución de la misma, se debe calentar la batería hasta una temperatura estable de +54°C en cámara climática. Prueba de impacto Simula la agresión mecánica de un impacto o aplastamiento que puede producir un cortocircuito interno. Para la ejecución del ensayo se emplea un equipo de prueba de choque mecánico para baterías. Medición de sobrecarga Se ejecuta para evaluar la capacidad de una batería para resistir un estado de sobrecarga. Para la ejecución del mismo se emplea un equipo para pruebas de carga y descarga de baterías. Descarga forzada Se ejecuta para evaluar la capacidad de una batería para resistir un estado de descarga forzada. Para la ejecución de dicho ensayo, emplea un equipo para pruebas de carga y descarga de baterías. Simulación de altitud Se ejecuta con el objetivo de evaluar el comportamiento de las baterías en condiciones de baja presión. Para su ejecución se emplea una cámara climática. Pruebas de envejecimiento y rendimiento Prueba Función Equipamiento necesario Envejecimiento por ciclos de descarga Se ejecuta con el objetivo de establecer el nivel de envejecimiento de las baterías a partir de los ciclos de carga/descarga de las mismas. Para la ejecución de dicho ensayo, emplea un equipo para pruebas de carga y descarga de baterías. Prueba de impedancia Se realiza para determinar el tiempo de vida útil de la batería. Para la ejecución de dicho ensayo, se emplea un equipo para pruebas de impedancia. Continuación Tabla 3……. Si bien en la Tabla anterior quedaron evidenciadas todas las pruebas necesarias a ejecutar, así como el equipamiento requerido para su ejecución, es importante también tener en cuenta los medios de seguridad que hacen falta para el correcto funcionamiento del laboratorio, lo cual se presenta en la Tabla 4. Tabla 4. Elementos necesarios para la seguridad de las actividades a realizar en el laboratorio de baterías. Fuente: elaboración propia Elemento Características Alfombra de aislamiento eléctrico Alfombra ignífuga aislante resistente al aceite y al ácido. Probada según IEC 61111, Clase2, para tensiones de trabajo de hasta 17 kV Poste de rescate aislado Aislamiento nominal a 45 kV. Con 1,65 m de largo. Peso 1 Kg. Guantes de seguridad totalmente aislados Clase 0 clasificada para tensión de trabajo de 1000V. Se recomienda el uso de guantes de cuero para protegerse de los peligros mecánicos y los arcos eléctricos. Guantes de flexión y agarre con aislamiento eléctrico Clase 0 clasificada para tensión de trabajo de 1000V. Estilo de flexión y agarre con características antideslizantes. Guantes de cuero Los guantes de cuero se usan sobre guantes aislantes para proteger contra los riesgos mecánicos y el arco eléctrico. Pantalla protectora facial Protege contra arcos eléctricos provocados por cortocircuitos. Certificado CE en EN 166 / EN 170, 1000V nominal. Pantalla de policarbonato con tratamiento antivaho. Juego de herramientas con aislamiento Está especialmente diseñado para que el trabajo en sistemas eléctricos y cableados sea más seguro; cada herramienta debe estar aislada y probada a un voltaje de 10.000 VCA. Pruebas (ensayos) o tests de abuso y validación de seguridad Prueba Función Equipamiento necesario Análisis de la tensión y corriente de flotación, y de la corriente de rizado Se realiza para valorar el comportamiento de la batería durante el período de análisis. Para la realización de la prueba, se emplean: • Analizador de redes. • Multímetro de resistencia con aislamiento. • Medidor de corriente AC/DC digital de pinza pequeña. Análisis de la temperatura de operación Para el correcto funcionamiento de una batería y que el ciclo de vida sea el estimado, es necesario que la misma trabaje en un rango de temperatura adecuado. Para la realización del ensayo se emplea mediante un termómetro infrarrojo. Detección de fallas a tierra Se ejecuta con el objetivo de velar que la batería cumpla los parámetros de seguridad establecidos. Para la realización del ensayo se emplea un equipo localizador de fallas a tierra. Evaluación del nivel de aislamiento Se ejecuta para detectar si existen fugas o averías en el sistema de aislamiento. Para la ejecución de la prueba se emplea un equipo de medición de resistencia de aislamiento. Costo preliminar A partir de los requisitos técnicos a cumplir por el equipamiento necesario para la ejecución de los ensayos, en la Tabla 5 se muestra el costo aproximado de cada equipo y/o elemento necesario para trabajar en un laboratorio de ensayos y homologación de baterías, basado en los costos promedios obtenidos en Internet de los mismos. Tabla 5. Costos (promedios) asociados a los equipos y elementos de diagnóstico y seguridad. Fuente: elaboración propia Como se observa en la tabla anterior, para la adquisición del equipamiento necesario para el completamiento del laboratorio se requiere de una inversión inicial aproximada de unos 238,74 MUSD. Conclusiones. En Cuba no existe un laboratorio con estas condiciones, por lo que la introducción masiva de vehículos eléctricos impone la necesidad de tener una instalación de este tipo, ubicada en una institución que no sea ni compradora, vendedora o productora de los mismos, como puede ser el MINDUS, las suministradoras nacionales y/o internacionales, ni utilice los mismos a gran escala, como pueden ser flotas de TRANSTUR, ETECSA, Empresa Eléctrica, Gobiernos territoriales, etc. Referencias bibliográficas [1] PEÑA ORDÓÑEZ, Carlos. Estudio de baterías para vehículos eléctricos [online]. 2011 [vid. 2022-02- 11]. Disponible z:https://e-archivo.uc3m.es/handle/10016/11805 [2] LORENTETRES, Alberto. Banco de pruebas para baterías [online].2012[vid. 2022- 02-21]. Disponible z:https://academica-e.unavarra.es/xmlui/handle/2454/6707 [3] MESA LOZANO, Antonio. Diseño y montaje de una bancada de laboratorio para ensayar baterías de litio [online]. 2019 [vid. 2022-02-11]. Disponible z:https://oa.upm.es/56832/ [4] Batería de litio terciaria y batería de fosfato de hierro y litio. Vehículo Co., Ltd de Xinxiang Hezon Xinhui [online]. [vid. 2022-05-04]. Disponible z: http://www.low- speed-vehicle.com/info/ternary- lithium-battery-and-lithium-iron-phosp- 29516384.html Equipo Cantidad Valor total (MUSD) Cámara de prueba de fiabilidad climática (Análisis de temperatura, humedad, presión y vibración). 1 47,50 Probador de impacto de choque de baterías. 1 24,50 Equipo para ensayos de carga y descarga de baterías. 2 55,00 Equipo para pruebas de impedancia de baterías. 2 40,00 Analizador de redes. 1 20,00 Multímetro de resistencia con aislamiento. 3 2,48 Medidor de corriente AC/DC digital de pinza pequeña. 3 2,48 Termómetro infrarrojo profesional. 2 1,30 Equipo para la localización de fallas a tierra en baterías. 2 33,00 Equipo para la medición de resistencia de aislamiento. 3 4,50 Alfombra de aislamiento eléctrico. 2 2,15 Poste de rescate aislado eléctricamente. 2 0,60 Guantes de seguridad totalmente aislados (clase 0). 3 1,04 Guantes de flexión y agarre con aislamiento eléctrico (clase 0). 3 0,68 Guantes de cuero. 3 0,60 Pantalla protectora facial. 3 0,93 Juego de herramientas totalmente aisladas hasta 1000 V (24 piezas). 2 2,00 Total 238,74 [5] Baterías de Vehículos Eléctricos-BR [online]. [vid. 2022-02-11]. Disponible en: http://www.cise.com/portal/notas-tecnicas/item/1030-bater%C3%ADas-de-veh%C3% Articulos -electricos-br.html [6] PADRÓN JABIB, Fernando Antonio. MANUAL DE BATERÍAS YACUMULADORES. 2013 [7] Análisis de datos del ciclo de la batería de litio con curvas y ecuaciones [online]. [vid.2022- 05-05].Disponiblez:https://es.everexceed.com/blog/an-lisis-de-datos-del- ciclo-de-la-bater-a- de-litio-con-curvas-y-ecuaciones_b180 [8] ManualdelusuariodelasbateríasdefosfatodehierroylitioALLSpark-Manuales [online].1.červen 2021 [vid.2022-05-05]. Disponible en: https://manuals.plus/es/toda-chispa/manual-de- bater%C3%ADas-de-fosfato-de- hierro-y-litio [9] GUÍA DE CONSEJOS: BATERÍAS DE LITIO. Seguridad de productos [online]. [vid. 2022- 05-05]. Disponible z: https://www.seguridaddeproductos.cl/seguridad-de-productos/consejos- de-seguridad/guia-de-consejos-baterias-de-litio/ [10] Hoja Informativa de Seguridad para las Baterías de Vehículos. B.m.: TDI, Safety at Work. červenec 2020 [11] Normas de seguridad para vehículos eléctricos. Manual de Movilidad [online]. [vid.2022-02- 18]. Disponible en: https://manualmovilidadsegura.fundacionmapfre.org/vehiculos/ seguridad- vehiculos-electricos/ [12] INTERNATIONAL STANDARD ISO 6469-1. Electrically propelled road vehicles-Safety specifications-Part 1: Rechargeable energy storage system (RESS). 2019 [13] ELÉCTRICOS, Híbridos y. Conoce cómo se ponen a prueba las baterías de los vehículos eléctricos. Híbridos y Eléctricos [online]. [vid. 2022-02-11]. Disponible z: https://www.hibridosyelectricos.com/articulo/actualidad/asi-prueban-baterias-vehiculos- electricos/20190801121124029401.html ÍNDICE DE SALUD DE TRANSFORMADORES DE FUERZA. SU ANÁLISIS Y UTILIZACIÓN Jorge Juan Montané García1, Orestes Nicolás Hernández Areu2 1Central Termoeléctrica “Ernesto Guevara de la Serna”, Vía Blanca km. 451/2, Santa Cruz del Norte, Mayabeque, Cuba, 2Centro de Investigaciones y Pruebas Electroenergéticas (CIPEL), Universidad Tecnológica de la Habana “José Antonio Echeverría”, (CUJAE), Ave. Rancho Boyeros y Carretera CUJAE, Habana, Cuba, 1e-mail: jorgemon@ctehabana.une.cu, 2e-mail: orestesh@electrica.cujae.edu.cu RESUMEN Como los transformadores de fuerza (TF) son parte principal de los costos de un sistema electroenergético (SE), debe controlarse su estado, envejecimiento y vida remanente, para valorar su condición actual y futura, algo importante para tomar decisiones de operación, mantenimiento o inversiones, favoreciendo el uso óptimo de las finanzas y asegurando la confiabilidad y calidad. Un fallo de aislamiento de un TF implica daños sensibles y genera pérdidas financieras y altos costos de reparación. Al aislamiento papel- aceite del TF es imposible realizarle mantenimientos, por lo que debe evaluarse su condición, para prevenir posibles defectos de los TF, minimizando el riesgo de fallas y salidas de servicio. Económicamente no es factible someter TF envejecidos a inspecciones y ensayos rigurosos, por lo que una estrategia promisoria para elevar su tiempo de vida remanente es establecer prioridades de monitoreo y desarrollar un plan detallado de mantenimiento; en esto juegan un papel primordial los sistemas de monitoreo y diagnóstico del aislamiento. El Índice de Salud (IS) se utiliza para cuantificar el estado global de los TF, tomando en consideración una multitud de factores. En el trabajo se realiza un acercamiento al cálculo del IS de TF en las condiciones de una central termoeléctrica (CTE) de Cuba, donde, debido a las condiciones económicas imperantes, no es posible realizar la medición de todos los factores de diagnóstico utilizados en otros países con este fin. Se analizan los distintos valores obtenidos del IS y se estudia la utilización de este parámetro. PALABRAS CLAVES: Aislamiento, diagnóstico, envejecimiento, Índice de Salud, transformadores de fuerza. HEALTH INDEX OF POWER TRANSFORMERS. ITS ANALYZE AND USE ABSTRACT Power transformers (PT) are a main part of costs of electro energetic systems (EES), so it must to control its state, ageing and remnant life, in order to assess its present and future condition, which is important to take correct decisions in operation, maintenance or investments, for assure the financial optimization, the reliability and the quality of all the EES. A fault in the isolation system of a PT carry out sensitive damages, generates financial losses and high repair costs. It is impossible to execute maintenances in the paper-oil isolation system of the PT, so it must to assess its condition, in order to prevent possible faults of the PT, minimizing the risk of failures and outages. It is not economic for an old transformer to be subjected to rigorous inspections and thorough testing. A promising strategy for lifetime increase is to establish monitoring priorities and develop a strategy for their maintenance. This is why insulation systems monitoring and diagnosis has become an important part in transformers monitoring. The Health Index (HI) is used to quantify the global state of the PT, taking into account a multitude of factors. In this paper, authors make an approach to the calculation of the HI of the PT in a thermal power station (TPS) in Cuba, where, doing of the actual economic conditions, it is not possible to execute the measurements of all the diagnostic factors, which are used in another countries. Authors analyze different HI values and they study the utilization of that parameter. KEY WORDS: Ageing, diagnostics, Health Index, isolation, power transformers. 1. INTRODUCCIÓN Como las reparaciones en los TF son muy complejas y costosas, debe evitarse su realización [1]; por ello, es muy importante determinar confiablemente la vida remanente de los TF, siendo el diagnóstico de su condición fundamental en su gestión de vida [2]. No es económicamente factible someter TF envejecidos a inspecciones y ensayos rigurosos, por lo que deben establecerse prioridades de monitoreo y desarrollarse un plan detallado de mantenimiento, en lo que son imprescindibles los sistemas de monitoreo y diagnóstico del aislamiento, basados en ensayos físicos, eléctricos, mecánicos, térmicos y en comprobaciones visuales, que permiten evaluar el estado de los TF, proveen información sobre su envejecimiento y recomiendan medidas para mejorar la calidad del aislamiento y la evaluación del tiempo de vida [3]. Los TF, desde el comienzo de su tiempo de operación (TO), están sometidos a esfuerzos de envejecimiento térmicos, eléctricos, ambientales, mecánicos, químicos y otros [4; 5], que ocasionan su deterioro; además, experimentan esfuerzos extremos y daños internos de sus componentes principales, debidos a fallas externas [6; 5]. Los TF se componen de un núcleo, aceite dieléctrico y papel (celulosa), aislamiento fundamental de los equipos, por lo que su trabajo y tiempo de vida remanente dependen del estado de este papel impregnado en aceite. Puede cambiarse el aceite, pero cambiar el aislamiento sólido del TF es tan costoso que es preferible adquirir uno nuevo; es decir, el fin de la vida útil del papel implica el fin de la vida útil del TF (por lo general alrededor o más de 40 años) [2]. Al aislamiento papel-aceite es imposible realizarle mantenimientos, por lo que es necesario evaluar su condición, para minimizar el riesgo de fallas y salidas de servicio. Estimar la vida remanente de los TF es decisivo para administrar el riesgo asociado con la confiabilidad de la red y para brindar un servicio eléctrico de calidad [5]. Debido al elevado precio de los TF y su importancia en el SE, es necesaria una herramienta para conocer el estado de estos equipos, siendo esta el Índice de Salud (IS), que aporta información objetiva, basada en datos, sobre la salud de los equipos y combinan inspecciones visuales de los TF, análisis en laboratorio (test eléctricos y análisis de gases disueltos (AGD) y de furanos) e información sobre las condiciones de funcionamiento, para obtener un valor representativo de su salud global, con el que pueden realizarse las correspondientes previsiones económicas, al conocerse los TF en peor estado y que necesitan ser sustituidos, además de los equipos que necesitan mayor vigilancia o algún mantenimiento. El valor obtenido del IS sirve para estimar el tiempo de vida remanente que le resta al TF [7]. El test eléctrico sirve para analizar la situación del bobinado y del papel aislante y para determinar las pérdidas del TF. La inspección visual aporta datos relativos al historial de la carga, color del aceite, partículas en suspensión y demás. [7]. Utilizando toda esta información y dando a cada factor el porcentaje adecuado de su impacto sobre el funcionamiento del TF, se llega a un valor que informa del estado global del equipo. Al interpretar el IS debe tenerse en cuenta la edad y la carga a la que ha sido sometido el TF y su esperanza de vida [7]. El reemplazo de TF, sobre la base del TO, ha sido prácticamente desechado [8; 5]. La vida técnica remanente de los TF debe determinarse sin requerirse costoso equipamiento, sino con el tratamiento y análisis estadístico de datos y análisis de riesgo. Debe encontrarse una variante que permita utilizar la información disponible de explotación, mantenimiento y los datos obtenidos de los controles e inspecciones de diagnóstico, considerando varios factores de degradación [5]. Para estimar el tiempo de vida remanente de los TF es necesario realizar un cálculo previo de su IS, lo que, en las condiciones de Cuba, con severos problemas económicos, que impiden o retrasan la adquisición de equipamiento de diagnóstico, se dificulta, por lo que es necesario comprobar si los métodos propuestos internacionalmente, que implican el tratamiento matemático de la información disponible sobre los TF, son utilizables en las condiciones de nuestro país. Se desconocen que este aspecto haya sido tratado con anterioridad. Sobre esto se trata en el presente trabajo. 2. ÍNDICE DE SALUD DEL TRANSFORMADOR DE FUERZA Y SU DETERMINACIÓN Al empeorar las condiciones de funcionamiento del TF, la probabilidad de falla aumenta, siendo conveniente clasificar los activos en función de su condición técnica, en base a los ensayos de diagnóstico que se realicen. El IS es una puntuación asignada a cada activo, que clasifica su condición y mide su salud global, permitiendo compararlo con el resto e identificar en cuáles es necesario tomar acciones a corto, mediano y largo plazo. No existe un método único para obtener el IS, además de que su nivel de dificultad puede variar, a causa de las pruebas que se utilicen como datos de entrada y del procedimiento de cálculo [9]. Para determinar el IS de un TF, se considera, como elemento dominante, el aislamiento aceite-papel. El IS es útil para representar la gravedad y cuantificar los diversos parámetros que afectan directa o indirectamente las características de envejecimiento y funcionamiento del TF [10]. Partiendo del IS de un grupo de TF, puede desmarcarse uno en la flota y juzgar si su condición se encuentra por debajo o por encima del IS promedio, lo que provee al personal de explotación de una referencia acerca de que debe prestarse mayor atención a los TF con un IS menor del IS promedio [11]. Es importante que el IS se tome como un parámetro variable, cambiante durante toda la vida útil del equipo [12]. Parámetros para el cálculo del Índice de Salud La condición del TF, según su IS, se divide en cinco categorías (muy bueno, bueno, favorable, pobre y muy pobre), atendiendo al nivel de degradación de sus componentes. El análisis del AGD, de la calidad del aceite y el contenido de furanos se usan para detectar los tipos de fallas que pueden ocurrir en el TF; el resultado son las predicciones de tiempos de vida, tipos de posibles fallas y recomendaciones de mantenimiento. Ya calculado el IS, se recomiendan tres tipos de acciones sobre los TF; sobre los que están trabajando normalmente, sobre los que continúan trabajando con restricciones y sobre los que requieren nuevas pruebas de muestreo. Es decir, el IS no permite conocer el tipo de fallas que ocurrieron en los TF, pero revela su condición general de salud [13]. En el cálculo del IS existen tres elementos principales: las entradas, los algoritmos y las salidas. Las entradas varían entre las cantidades, medidas regularmente, como parte del mantenimiento de rutina, como son [14; 15]: resultados de ensayos de calidad del aceite; resultados del AGD; condición general del TF, edad e historial de carga; inspecciones visuales del tanque, comprobando la existencia o no de salideros de aceite, su nivel, el estado de los radiadores, ventiladores, bushings, juntas y demás accesorios; resultados de inspecciones y ensayos del conmutador de elementos; resultados de inspecciones y ensayos de bushings; resistencia de los devanados a la corriente directa (CD); relación de transformación; resistencia de devanados y resistencia de aislamiento. Los algoritmos varían entre el promedio de ponderación, el puntaje logarítmico, el indexado de subconjuntos, la lógica difusa, redes neuronales y otros [16]. Las salidas pueden construirse de distintas formas. En la Tabla 1 se muestra la evaluación de la condición de degradación de TF según su IS. La gestión de una flota de TF envejecidos es un desafío para sus propietarios. El aislamiento liquido de los TF, usualmente aceite mineral, se oxida, generándose ácidos, humedad y otros componentes polares, como alcoholes e hidroperóxidos, que forman compuestos insolubles en el aceite (“lodos”). El aislamiento sólido, como el papel y el cartón, se somete inicialmente a oxidación, hidrólisis y otros procesos, generándose humedad, ácidos, monóxido y dióxido de carbono, furanos y metanol [17]. Tabla 1. Evaluación de la condición de degradación de TF según su IS [18] IS Condición Recomendaciones 0,85 3 E incremento > 10% sobre 5 años] O [Máx. (últimos 2 años) > 5] C [Máx. (últimos 2 años) > 5 E incremento > 30% sobre 5 años] O [Máx. (últimos 2 años) > 10] D [Máx. (últimos 2 años) > 10 E incremento > 50% sobre 5 años] O [Máx. (últimos 2 años) > 15] E [Máx. (últimos 2 años) > 15 E incremento > 80% sobre 5 años] O [Máx. (últimos 2 años) > 20] De la ¡Error! No se encuentra el origen de la referencia.¡Error! No se encuentra el origen de la referencia. se obtiene: 1. Condición general del TF-0 OT-A; 2. Condición de bushings-4 OT-B; 3. Condición del tanque principal-0 OT-A; 4. Sistema de enfriamiento-0 OT-A; 5. Corrosión del tanque principal-0 OT-A; 6. Cimientos-0 OT-A; 7. Aterramiento-0 OT-A; 8. Juntas-4 OT-B; 9. Conectores-0 OT-A; 10. Salideros de aceite-4OT-B; 11. Nivel de aceite-2 OT-A; 12. Condición general del cambiador de derivaciones-4 OT-B. Cálculo final del Índice de Salud La Tabla 8 muestra la puntuación que se otorga en otros ensayos que se toman en cuenta para el cálculo. Tabla 8. Puntuación para los ensayos de relación de transformación y resistencia de enrollados a la corriente directa (CD) [15] Código de puntuación Desviación de la relación de transformación con respecto a la de fábrica, % Desviación de la resistencia de enrollados a la CD con respecto a la de fábrica, % A ΔTR ≤ 0.1% ΔR < 1% B 0.1% < ΔTR ≤0.5% 1% ≤ ΔR<2% C 0.5% < ΔTR ≤ 1% 2% ≤ ΔR <3% D 1% < ΔTR < 2% 3% ≤ ΔR<5% E ΔTR ≥ 2% ΔR ≥ 5% Los resultados del cálculo de ΔTR, % se muestran en la Tabla 9, mientras en la Tabla 10 aparecen los resultados del cálculo de ΔR, %. Tabla 9. Resultados del cálculo de ΔTR, % Ramificación Lugar de ensayo AN/ab BN/bc CN/ca 9 Fábrica 10,688 10,703 10,698 Campo (último ensayo) 10,779 10,749 10,754 ΔTR, % 0,844234159 0,427946786 0,52073647 Tabla 10. Resultados del cálculo de ΔR, % Ramificación Lugar de ensayo AN BN CN 10 Fábrica 0,52440 0,53660 0,52999 Campo (último ensayo) 0,539 0,540 0,546 ΔR, % 2,708719852 0,62962963 2,932234432 De cada tipo de desviación se escogen los mayores valores; es decir, se toman ΔTR=0,844234159%, con código de puntuación C; ΔR=3,0335097, con código de puntuación D. El total de ensayos para el cálculo del IS se generaliza en la ¡Error! No se encuentra el origen de la referencia.. Las dos columnas de la derecha indican las puntuaciones en concreto para cada componente del TF. Tabla 11. Puntuación para el IS [15] # Factor de diagnóstico K Posibles puntuaciones de condición Posibles factores de IS Condición real Factor real de IS 1. AGD 10 A, B, C, D, E 4,3,2,1,0 E 0 2. Calidad del aceite 6 A, B, C, D, E 4,3,2,1,0 A 4 3. Condición general del TF 8 A, B, C, D, E 4,3,2,1,0 A 4 4. Relación de transformación 5 A, B, C, D, E 4,3,2,1,0 C 2 5. Resistencia de los enrollados a la CD 6 A, B, C, D, E 4,3,2,1,0 D 1 6. Condición de bushings 5 A, B, C, D, E 4,3,2,1,0 B 3 7. Corrosión del tanque principal 2 A, B, C, D, E 4,3,2,1,0 A 4 8. Sistema de enfriamiento 2 A, B, C, D, E 4,3,2,1,0 A 4 9. Corrosión del expansionador 1 A, B, C, D, E 4,3,2,1,0 A 4 10. Cimientos 1 A, B, C, D, E 4,3,2,1,0 A 4 11. Aterramiento 1 A, B, C, D, E 4,3,2,1,0 A 4 12. Juntas 1 A, B, C, D, E 4,3,2,1,0 B 3 13. Conectores 1 A, B, C, D, E 4,3,2,1,0 A 4 14. Salideros de aceite 1 A, B, C, D, E 4,3,2,1,0 B 3 15. Nivel de aceite 1 A, B, C, D, E 4,3,2,1,0 A 4 16. Condición general del cambiador de derivaciones 5 A, B, C, D, E 4,3,2,1,0 B 3 Tomando en consideración los componentes que mostrados y mediante la realización de un cálculo por la ecuación (1) se obtuvo IS= 0,687755102=68,77%. Esto, según la ¡Error! No se encuentra el origen de la referencia., indica que el TF en cuestión puede estar fallado, lo que corresponde con su comportamiento durante su explotación, por lo que se recomienda Incrementar los ensayos de diagnóstico que se realizan al equipo. El cálculo del IS del resto de los TF de la flota de estos equipos, perteneciente a la CTE estudiada, mostró resultados que indican similitud con la opinión de expertos sobre el estado y el comportamiento de todos los TF del mismo grupo. Análisis de índices de salud obtenidos A través del IS es posible conocer el estado de degradación o envejecimiento de un TF, lo que es importante para planificar su salida de servicio. Si el TF se retira de trabajo antes de tiempo se desaprovecha un equipo muy caro, lo que pone de manifiesto una utilización poco eficiente de los recursos. Si, por otro lado, un TF, que está al final de su vida útil, no se retira de servicio, se corre el riesgo que pueda ocurrir un fallo con grandes perjuicios económicos para la empresa. Finalmente, gracias al IS del TF, puede programarse más efectivamente su explotación y mantenimiento a corto, mediano y largo plazo, tanto en lo referente a inversiones como a gastos [10]. Los índices de salud deben ser calculados cada año y se deben analizar sus tendencias, a fin de conocer el comportamiento de los TF y algunas variaciones extremas [10]. En la Figura 2 se analiza la variación de los IS de grupos de TF con valores del TO de 0-10 años y de 20- 30 años. Cuando el TO es de hasta 10 años, los valores del IS son muy constantes y cercanos a la unidad, como corresponde a TF recién puestos en marcha, por lo que no parece haber problemas. En el conjunto de TF con valores de TO de 40-50 años se observa que los transformadores TF T4, T5 y T6 requieren el mayor seguimiento, aunque todos se encuentran en avanzado estado de deterioro, algo lógico al final de la vida útil. Por tanto, a excepción del transformador T2, que según su IS está en sorprendente buen estado, todos los TF deben analizarse, con vistas a tomar decisiones sobre mantenimiento o inversiones, en los menores intervalos de tiempo posibles, porque la probabilidad de fallas en ellos es bastante elevada [7]. Figura 2. IS de un grupo de TF con TO de hasta 10 años y de 40-50 años [7] 3. CONCLUSIONES Y RECOMENDACIONES Los resultados obtenidos del cálculo del IS para cada TF muestran correspondencia con el estado general de cada uno y con la opinión de expertos consultados. En el trabajo se comprobó que el método propuesto para el cálculo del IS en [3; 15; 18] puede utilizarse en las condiciones de Cuba, donde no se han implementado numerosas técnicas de ensayo, debido a la imposibilidad de adquisición de equipos para su realización. Se recomienda introducir aceleradamente en el país el cálculo del ÍS, como una herramienta para conocer la condición de los TF, lo que debe ampliarse a otras empresas donde existan flotas de estos equipos; gestionar el ciclo de vida de los TF, utilizando su IS, lo que permitirá tomar decisiones adecuadas, respecto a los planes de inversión y mantenimiento y asegurar que las empresas cuenten con un sistema eficiente de adquisición y almacenamiento de datos, que puedan ser procesados para obtener información útil para la gestión del ciclo de vida de los TF. REFERENCIAS [1] CALO, E., et al. Análisis de IEEE C57.152 y TB 445 de CIGRE para el diagnóstico de la condición de transformadores de potencia. XVII Encuentro Regional Iberoamericano (ERIAC) de CIGRÉ (Ciudad del Este, Paraguay 21 al 25 de mayo de 2017), CIGRÉ, 2017. 8 p., [2] TEYMOURI, A. y VAHIDI, B.; "CO2/CO concentration ratio: A complementary method for determining the degree of polymerization of power transformer paper insulation". IEEE Electrical Insulation Magazine. 2017, Vol. 33, núm. 1: p. 24-30, disponible en: https://ieeexplore.ieee.org/document/7804313, [3] GORGAN, B., et al.; "Calculation of power transformers health indexes". Annals of the University of Craiova. 2010, Vol. Electrical Engineering series, núm. 34: p. 13-18, disponible en: https://www.researchgate.net/publication/228582140_Calculation_of_power_transformers_healt h_indexes, issn: 1842-4805. [4] AKOLKAR, S. M. y KUSHARE, B. E.; "Remaining Life Assessment of Power Transformer". Journal of Automation and Control. 2014, Vol. 2, núm. 2: p. 4, disponible en: http://pubs.sciepub.com/automation/2/2/2/, [5] MONTANÉ GARCÍA, J. J.; A., DORRBERCKER DRAKE. S. y DEL CASTILLO SERPA, A. M.; "Avances en evaluación del estado y la vida remanente de transformadores de fuerza". Ingeniería energética. 2019, Vol. 40, núm. 3: p. 245-256, disponible en: http://rie.cujae.edu.cu/index.php/RIE/article/view/575/pdf, issn: 1815-5901. [6] ABBASI, E. y MALIK, O. P. Failure rate estimation of power transformers using inspection data. 2016 International Conference on Probabilistic Methods Applied to Power Systems (PMAPS). Beijing, China IEEE 2016. 4 p. [7] RUIZ SAIZ, R. "Análisis de la salud de una flota de transformadores industriales ". [Tesis para acceder al Título de Graduado en Ingenioería en Tecnologías Industriales]. Escuela Superior de Ingenieros Industriales y de Telecomunicación. Universidad de Cantabria, 2017. [8] ABBASI, E. "Developing Practical Methods for Ageing and Failure Probability Modeling of Mineral Oil Immersed Power Transformers Using Smart Utility Data". [Thesis in order to obtain the degree of Doctor of Philosophy]. Department of Electrical and Computer Engineering. University of Calgary 2017. [9] TARIACURI Q., J. A.; APONTE M., G. y CADAVID R., H. ; "Indice de salud para transformadores de potencia usando el analisis de gases disueltos y 2-Fal". e-Gnosis 2020, Vol. 18, núm. 1: p. 1-15, disponible en: https://www.researchgate.net/publication/339114142_INDICE_DE_SALUD_PARA_TRANSF ORMADORES_DE_POTENCIA_USANDO_EL_ANALISIS_DE_GASES_DISUELTOS_Y_2 -FAL, issn: 1665-5745 [10] PARRAGA ACOSTA, J. C. "El índice de salud y su influencia en la gestión del ciclo de vida de los transformadores del sistema eléctrico de la Mina Cobriza ". Tutor: DE LA CRUZ MONTES, E. [Tesis para optar por el grado académico de Maestro en Ciencias, Mención Sistemas Eléctricos de Distribución]. Facultad de Ingeniería Eléctrica y Electrónica Universidad de Nacional del Centro del Perú 2019 [11] LI, SH., et al.; "Probabilistic Health Index-Based Apparent Age Estimation for Power Transformers". IEEE Access. 2020, Vol. 8, núm.: p. 9692-9701, disponible en: https://www.researchgate.net/publication/338379545_Probabilistic_Health_Index- Based_Apparent_Age_Estimation_for_Power_Transformers, [12] MILOSAVLJEVIĆ, S. y JANJIĆ, A.; "Power transformer health index estimation using evidential reasoning". FACTA UNIVERSITATIS. 2020, Vol. 33, núm. 4: p. 571-581, disponible en: https://www.researchgate.net/publication/344830909_Power_transformer_health_index_estimati on_using_evidential_reasoning, [13] SATRIYADI HERNANDA, I. G. N., et al. Application of Health Index Method for Transformer Condition Assessment IEEE TENCON2014. Bangkok, Thailand, IEEE, 2014. 1-6 p. [14] APONTE M., G., et al. Herramienta de software para estimar el índice de salud en transformadores de potencia. e-Gnosis. Guadalajara, México, 2020. 18: 1-21 p. [15] JAHROMI, A. N., et al.; "An Approach to Power Transformer Asset Management Using Health Index ". IEEE Electrical Insulation Magazine. 2009, Vol. 25, núm. 2, March-April 2009: p. 20- 34, disponible en: https://itslearningakarmazyan.files.wordpress.com/2015/10/an-approach-to- power-transformer-asset-management-using-health-index-mag-2009-85.pdf, [16] DAS, B. P. y CHEIM, L.; "Transformer assessment using health index ". Transformer Magazine. 2020, Vol. 7, núm. 4: p. 42-49, disponible en: https://www.researchgate.net/publication/345454834_Transformer_Magazine_Vol_7_Issue_4_2 020_-_Transformer_assessment_using_health_index_- _Part_I_Sensitivity_analysis_and_critical_discussion, [17] WANG, Z. D, et al. Ageing Assessment of Transformers through Oil Test Database Analyses and Alternative Diagnostic Techniques 2015 CIGRE SC A2 Colloquium. Shanghai, China, CIGRE, 2015. 10 p. [18] TANASESCU, G., et al. Assessment of Power Transformers Conditions Based on Health Index. CIGRÉ Regional South-East European Conference (RSEEC 2012) Hotel Hilton, Sibiu, Romania, CIGRÉ, 2012. 1-8 p. [19] International Electrotechnical Commission. Mineral insulating oils in electrical equipment- Supervision and maintenance guidance. IEC 60422. Geneva, Switzerland: International Electrotechnical Commission, 2013 [20] CEI. Mineral oil-impregnated electrical equipment in service – Guide to the interpretation of dissolved and free gases analysis. 60599. Geneva, Switzerland: CEI, disponible en: www.irantransformer.com/wp.../4_6037621100639158422-2.pdf, 2015 [21] The Institute of Electrical and Electronics Engineers, Inc. . IEEE Guide for the Interpretation of Gases Generated in Mineral Oil-Immersed Transformers IEEE Std C57.104™-2019 New York, USA The Institute of Electrical and Electronics Engineers, Inc. , disponible en: https://pdfcoffee.com/qdownload/ieee-c57104-2019pdf-5-pdf-free.html, 2019 [22] IEEE. IEEE Guide for the Reclamation of Mineral Insulating Oil and Criteria for Its Use. C57.637. New York, USA: IEEE, disponible en: http://ppapco.ir›wp-content›uploads›2019/07, 2015 [23] MONTANÉ GARCÍA, J. J.; DORRBERCKER DRAKE, S. A. y DEL CASTILLO SERPA, A. M. Uso de relaciones químicas en cálculo de tiempo de vida útil y remanente de transformadores de fuerza. XIV Congreso Internacional de Alta Tensión y Aislamiento Eléctrico ALTAE 2019. Guadalajara, Jalisco, México, 2019. 8 p. Sobre los autores • Montané García, Jorge Juan. Ingeniero Eléctrico. Especialista “A” en Mantenimiento Industrial, Central Termoeléctrica ¨Ernesto Guevara de la Serna¨, de Santa Cruz del Norte. Master en Ingeniería Eléctrica, Universidad Tecnológica de la Habana ¨José Antonio Echevarría¨, 2012. Especialista de Postgrado en Diagnóstico Integral de Centrales y Subestaciones Eléctricas, Universidad Tecnológica de la Habana ¨José Antonio Echevarría¨, 2012. Estudiante de Doctorado en Ingeniería Eléctrica, Universidad Tecnológica de la Habana ¨José Antonio Echevarría¨, 2012. e-mail: jorgemon@ctehabana.une.cu. • Hernández Areu, Orestes. Ingeniero Electricista, Doctor en Ciencias Técnicas, Investigador Titular. Director del Centro de Investigaciones y Pruebas Electroenergéticas (CIPEL), de la Facultad de Ingeniería Eléctrica, Universidad Tecnológica de la Habana ¨José Antonio Echevarría¨, e-mail. orestesh@electrica.cujae.edu.cu. Programa General VI Congreso Internacional de Ingeniería Química, Biotecnológica y Alimentaria (CIIQBA 2022) Programa General VI Congreso Internacional de Ingeniería Química, Biotecnológica y Alimentaria (VI CIIQBA 2022) Días Horario 28-Nov 29-Nov 30-Nov 1-Dic 2-Dic 09:00- 13:30 Acto Inaugural VI- CIIQBA Sala 14 9:00– 09:15 Conferencia Magistral Sala 14 9:00– 10:00 Sesión técnica Sala 14 9:00-13:00 Conferencia Magistral Sala 14 9:15–10:15 Mesa redonda Sala 14 10:00–11:00 Sesión técnica Sala 14 10:15–13:30 Sesión técnica Sala 14 11:00–13:30 Feria Expositiva 10:00–12:30 Feria Expositiva Taller BIOCUBAFARMA 10:45 – 12:30 Feria Expositiva 10:00-12:30 Feria Expositiva 10:00–12:30 Almuerzo 14:00- 17:00 Coctel de Bienvenida 14:00 Sala 1 Acto de entrega de Condecoraciones 14:00 (Por invitación) Clausura 13:30 Sala 1 Día 29/11/2022 Palabras inaugurales: Dr.C. Tania Carbonell Morales. Decana Facultad de Ingeniería Química de la Universidad Tecnológica de La Habana José Antonio Echeverría, cujae. Presidenta del Comité Organizador. Sala 14; hora: 9:00– 9:15 am CONFERENCIAS MAGISTRALES Día 29/11/2022 Conferencia Magistral: Dr.C. Vicente Vérez Bencomo. Director General del Instituto Finlay de Vacunas (IFV) ¨Retos en el diseño y desarrollo acelerado de las vacunas SOBERANAS contra la COVID19¨ Sala 14; hora: 9:15– 10:15 am Día 30/11/2022 Conferencia Magistral: Dr.C. Gabriela Clemente Polo. Catedrática de Tecnología de Alimentos en el Departamento de Tecnología de Alimentos de la Universidad Politécnica de Valencia (UPV) “Valoración de la sostenibilidad en el sector alimentario¨ Sala 14; hora: 9:00– 10:00 am hora: 9:00-10:00 am. 2 MESA REDONDA Día 30/11/2022 Mesa redonda: “Soluciones tecnológicas para la integración de fuentes renovables de energía en el aseguramiento energético de la industria alimentaria” Dr.C. Tania Carbonell Morales, Dr.C. Alfredo Curbelo Alonso. CUBAENERGÍA, Dr. C Guido Riera González, Dr. C. Eduardo García Noa Fac. Ing. Química, Cujae, Cuba. Sala 14; hora 10:00-11:0 3 PROGRAMA TÉCNICO VI Congreso Internacional de Ingeniería Química, Biotecnológica y Alimentaria (CIIQBA 2022) Día: 29 de noviembre de 2022 Sesión: Mañana Presidente Sesión: Dr. C. Tania Carbonell Morales. Sala: 14 Secretario Sesión: Dr.C Guido Riera González Sesión Técnica: Plenaria Horario Código Título del trabajo 9:00–9:15 Palabras de bienvenida Inauguración del VI Congreso Internacional de Ingeniería Química, Biotecnológica y Alimentaria. Dra.C. Tania Carbonell Morales. 9:15–10:15 Conferencia Magistral Dr.C. Vicente Vérez Bencomo. Retos en el diseño y Desarrollo acelerado de las vacunas SOBERANAS contra la COVID19. Día: 29 de noviembre de 2022 Sesión: Mañana y tarde Presidente Sesión: Dr.C. Julio Dustet Mendoza Sala: 14 Secretario Sesión: Dr.C. Denia González León Sesión Técnica: Ingeniería en procesos biotecnológicos Horario Código Título del trabajo 10:15–11:00 CII 28 CII 50 CII 10 CII 3 CII 27  Abel Alfonso Gómez, Lourdes Zumalacarregui de Cardenas, Humberto González Rodríguez, Marixa Hernández Fundora, Francisco Concepción Rosell, Lay Achón García, Lianelis Pellicer Aciego, Niurka Veranes Tamayo, Bárbara Boloy Fuentes, Naylet Marrero Muñoz. Purificación de polisacáridos capsulares de Streptococcus pneumoniae serotipos 6b y 23f empleando una columna monolítica CIM DEAE  Maelys Miyares Estrada, Thais Fernández, Jannet Terrero Socorro, Luis A. Espinosa. Validación de la técnlca de cromatografía en fase reversa para la identificación del peptido ghrp-6 en el formulado de Acuabio V  Karel Dagoberto de la Paz Martín, Aliuska Cardoso Ramírez, Dayana Doce Sosa, Martha Castro Figueroa, Aymara Nieto Caballero, Yamira Caballero Lorenzo, Daniel Amaro González, Lourdes Zumalacárregui de Cárdenas. Implementación de un paso de filtración viral en la purificación de EPO-hr  Danuska Fernández Milián, Vladimir Peña Sanchez, Mathus Suanchan, Wiphusanee Dendamrongvit. Impacto de la cromatografía en la remoción de impurezas en un proceso de purificación de una glicoproteína.  Ivis Regalado Fonseca, Lourdes Hernández de la Rosa, Martha R. Castro Figueroa, Lourdes M. 4 CII 49 CII 58 Zumalacárregui de Cárdenas. Capacidad de los filtros virales en el proceso de purificación de la proteína RBD-His  Edgar Rey Rodriguez Figueroa, Rolando Martell Aedo. Aplicaciones de la refractometría al control de la preparación de soluciones.  Daniel Treto López, Roberto Javier Margolles Navia, Karel de la Paz Martín, Lourdes Zumalacárregui de Cárdenas, Roberto Hernández Apaulasa, Caridad Natalia Vega García. Evaluación de la transferencia tecnológica de la etapa de purificación de la EPOhr hacia la planta ANTYTER. 11:00-11:20 Debate de las ponencias 11:20-11:40 CII 24  Roberto Rafael Núñez Ortiz, Daylenis Pérez Pérez, María Caridad Duartes Castro, José Antonio Fernández de la Vega Velázquez, Osmán Fernández Oliva, Jorge Fernandez-de-Cossio- Diaz, Julio César Dustet Mendoza, Ernesto Chico. Modelación cinética del crecimiento de la línea celular ns0 en perfusión CII 26 CII 55 CII 44  Marixa Hernandez Fundora, Eliane Pérez Sanchidrian, Reydel García Fernández, Humberto González Rodriguez, Francisco Concepción Rosell, Juan Alberto Ruiz, Wendy Costa Mederos, Yohana Castillo Borrell, Kirenia Rivero Plascencia, Denia González León. Evaluación de un nuevo medio de cultivo para la obtención de polisacárido capsular de Streptococcus pneumoniae serotipo 15B y 22F.  Optimización de la concentración de biomasa y las condiciones de fermentación para la producción del biofertilizante FERTISEF a base de PSEUDOMONAS FLUORESCENS  Jennifer Quesada Rodríguez, Ernesto Chico Véliz, Ramón Zamorano Marcelo. Diseño tecnológico de una planta para la producción de Anticuerpos Monoclonales y Proteínas Recombinantes en la Zona Especial de Desarrollo Mariel 11:40-12:00 Debate de las ponencias Día: 29 de noviembre de 2022 Sesión: Mañana y tarde Presidente Sesión: Dr.C. Eduardo García Noa Sala: 14 Secretario Sesión: Dr.C. Osvaldo Gozá León Sesión Técnica: Análisis de procesos Horario Código Título del trabajo 12:00-13:00 CII 2 Temática: Modelación y simulación de procesos  Brenda Rodríguez Suárez, Osney Pérez Ones, Lourdes Zumalacárregui de Cárdenas, Evaluación de técnicas de deshidratación de etanol para obtención de etanol anhidro aplicando la simulación. 5 CII 22 CII 23 CII 25 CII 34 CII 35 CII 46 CII 52 CII 54 CII 57  Orelvis González Gómez, Julio Ariel Dueñas Santana, Jesús Delfín Luis Orozco. Predicción del efecto dominó en el almacenamiento de hidrocarburos usando técnicas integradas de inteligencia artificial  Claudia González Llanes, Claudia Miranda Nicolau, Ricardo Abeledo Rodríguez. Modelación de comportamientos de la viscosidad de fondos de destilación atmosférico-vacío asociados a la refinería Ñico López.  Yanelys Cuba Arana, Julio Ariel Dueñas Santana, Ramón Quiza Sardiñas. Análisis probabilístico de riesgo mediante la combinación de lógica fuzzy- redes bayesianas dinámicas (DBN) en un área de almacenamiento de hidrocarburos.  Osvaldo Gozá León, Arturo Toledo Rivera, Rosa Haydee Rodríguez Garcel. Experiencias en la aplicación de la minería de datos en la industria biofarmacéutica cubana.  Eliany de la Caridad Valera Sterling, Eduardo García Noa, Alfredo Curbelo Alonso, Guido González Riera. Consideraciones para el empleo de las fuentes renovables de energía y la aplicación de los métodos de integración de procesos en la industria láctea.  Elsa A. Paz Estévez, Renier Fagundo Mesa, N. V. Pavlyukevich. Modelación matemática de la degradación de un andamio polimérico implantado.  Arletis Cruz Llerena, Osney Pérez Ones, Gustavo Saura Laria. Aplicación de la simulación de procesos en el diseño de intercambiadores de calor de la industria alcoholera.  Daylen Yara Font Prieur, Lilieth Sánchez Martínez, Gabriel Orlando Lobelles Sardiñas, Yoan Capote Trujillo. Aplicación de balances de materiales y energía mediante simuladores de procesos en la metodología de producción más limpia.  Amaury Pérez Sánchez, Elizabeth Ranero González, Eddy Javier Pérez Sánchez, Norlem Liaño Abascal. Simulación de proceso de producción del cumeno mediante el simulador ChemCAD. 13:00-13:20 Debate de las ponencias 6 Día: 30 de noviembre de 2022 Sesión: Mañana Presidente Sesión: Dr.C. Tania Carbonell Morales. Sala: 14 Secretario Sesión: Dr.C. Guido Riera González Sesión Técnica: Plenaria Horario Código Título del trabajo 9:00–10:00 Conferencia Magistral Dr.C. Gabriela Clemente Polo. Valoración de la sostenibilidad en el sector alimentario. 10:00–11:00 Mesa Redonda Dr.C. Tania Carbonell Morales, Dr.C. Alfredo Curbelo Alonso, Dr.C. Guido Riera González, Dr. C. Eduardo García Noa. Soluciones tecnológicas para la integración de fuentes renovables de energía en el aseguramiento energético de la industria alimentaria. Día: 30 de noviembre de 2022 Sesión: Mañana y tarde Presidente Sesión: Dr.C Guido Riera González Sala: 14 Secretario Sesión: Dr.C Anabel Frías Chirino Sesión Técnica: Ingeniería en alimentos Horario Código Título del trabajo 11:00–11:30 CII 11 CII 14 CII 17 CII 21 CII 48 Temática: Aprovechamiento de los residuos de la agroindustria en el desarrollo de productos alimentaros  Yanet Sariego Toledo, Luis Cruz Viera, Liliam Yanes Díaz, Antonio Nogueira. Encapsulación de aceite de moringa enriquecido con licopeno  Carlos A, Ruiz Galvan, Katherin Martínez Caro, Lida María Cujia. Evaluación del extracto de flavonoles y antocianinas contenidos en uva de brasil o jabuticaba (plinia cauliflora) obtenidos a nivel laboratorio por medio de los métodos de extracción por rotoevaporacion y cuantificacion por metodo espectrofotometrico UV.  Teresa Altamar Pérez, Yaceris Mercedes Castro Escorcia, Teresa de Jesús Altamar Perez, Dialinis Blanco Villadiego, Lorena Patricia Sarmiento Morales. Aprovechamiento de residuos agroindustriales en la industria de cítricos de Maracuya para la obtención de harinas utilizables en la producción de embutidos tipo butifarra  Yaceris M. Castro Escorcia, Teresa de Jesús Altamar Perez, Dialinis Blanco Villadiego, Enedys Florez Cortés. Desarrollo de películas bioactivas a partir del aprovechamiento de los residuos del limón como biocompuesto productividad en el departamento de atlántico.  Anabel Frías Chirino, Dailyn Rojas Shira, Sheyla 7 CII 18 Abreu Saiz, Luis Cruz Viera. Modelación de la cinética de secado de la semilla residual del procesamiento agroindustrial del mango  Mitchel J. Toyo Díaz, Betsay María Toyo Fernández; Carimer esparragoza, Guido Riera. Evaluación de la pectina obtenida de la corteza de cambur en un dulce tipo mermelada 11:30-11:50 Debate de las ponencias 12:00–12:50 CII 32 CII 30 CII 33 CII 64 CII 37 CII 39 CII 45 CII 61 CII 9 CII 7 Temática: Evaluación de procesos y desarrollo de nuevos productos  Susnely Cruz Ponce, Caridad Curbelo Hernández, Arlet Camara Cabrera, Juan Manuel Reyes Sánchez Hernández, Arlet Camara Cabrera, Juan Manuel Reyes Sánchez. Fortificación de la compota “upa-upa-upa” de mango-plátano-guayaba con Moringa Oleífera  Alicia Casariego Año, Mario Antonio García Pérez, Yanelis Ruiz Díaz, Alejandro Cruz Socorro. Estabilidad de una bebida deportiva isotónica elaborada a partir de jugo de piña  Magaly Duarte Ginorio, Luis Cruz Viera. Efecto de la composición de la mezcla de harinas sobre las propiedades de un producto extruido.  Marilin García Díaz, Franco Menezes Mascolino Falcao, José Gandón Hernández, Carlos Cordoví Felipe, Guido Riera Gonzalez, José Raúl Correa. Propuesta de métodos para refinar la glicerina obtenida de la transformación de aceites vegetales usados.  Eduardo García Noa, Yilian Quesada Gómez, Ing. Meyvelin Real Milián, MSc. Yenesey Barrera Aldama. Efecto de las condiciones de operación sobre rendimiento en la coagulación en la producción de queso gratina.  Aymeé de la C. Montano Pérez, Melisa Téllez Guevara, Eduardo García Noa. Elaboración de crema ácida a partir de suero lácteo y crema de leche.  María Natividad del Río Morales, Marbelis Valdés, Danilo Bejerano Salgado, Guido Riera González, Anabel Frías Chirino. Evaluación de una leche fermentada simbiótica a partir de una pasta de frijol Caupí.  Consuelo de la C. González Triana, Teresa Figueroa Barrios, Angel Antonio Entrena García, Nereida Mantilla Gattorno, Vilma Espinosa Ladrón de Guevara, Damaris Matos Díaz, Abileny Cárdenas Lanz, Iliana Sosa Testé, Leticia Zuaznabar Macías, Noel Tejeda Suárez. Aplicación de los Microorganismos Eficientes en la actividad Agrícola y Pecuaria.  Manuel Medell Gago, Guido Riera González, José Gandón Hernández, Anabel Frías Chirino. Estudio de la vida útil de la jamonada tipo fiambre.  Elizabeth Suen González, Guido Riera González, 8 CII 8 CII 20 José Gandón Hernández, Anabel Frías Chirino. Desarrollo de una hamburguesa de carne restructurada.  Manuel Medell Gago, Pedro Gómez Sosa, Guido Riera González, José Gandón Hernández, Anabel Frías Chirino. Evaluación técnico- económica del proceso de producción de jamonada tipo fiambre en la UEB Indal.  Yen Alfonso Sosa, Guido Riera González, Anabel Frías Chirino. Empleo del carbón activado de coco de produción nacional en el filtrado de aguardientes en la UEB Ronera Occidental 12:50–1:10 Debate de las ponencias Día: 1 de diciembre de 2022 Sesión: Mañana y tarde Presidente Sesión: Dr.C. Osney Pérez Ones Sala: 14 Secretario Sesión: Dr.C. Elina Fernández Santana Sesión Técnica: Análisis de procesos Horario Código Título del trabajo 9:00-10:00 CII 1 CII 6 CII 36 CII 63 CII 42 CII 62 CII 59 CII 47 CII 65 Temática: Análisis de procesos  Liliet Fuentes Cruz, Osney Pérez Ones, Lourdes Zumalacárregui de Cárdenas, José Luis Pérez de los Ríos. Evaluación del sistema de tratamiento de residuales de la ronera San José.  Heylin González Álvarez, Lourdes Zumalacárregui de Cárdenas, Osney Pérez Ones, Idania Blanco Carvajal. Evaluación de la etapa final de tratamiento del ron añejo.  Fernando González Rodríguez, Mercedes Geraldina Pérez Trujillo, Gil Cruz Lemus, Anabel Frías Chirino. Estrategia para la operación de los grupos de generación eléctrica del municipio regla.  Irina Pedroso Rodríguez, Jesús Luis Orozco, Lourdes Yamen Gonzáles Sáez, Liz Pérez Martínez. Condiciones de almacenamiento y pretratamiento de fuentes orgánicas para la extracción de ácido húmico.  Juan José Camejo Giniebra, Jenry Viña Rodríguez, Magaly Alfonso Gonzáles. Análisis preliminar de riesgos de incendio en estación de combustible de una termoeléctrica.  Susset Beltrán Martínez, Ana Isabel Malleza González. Ensayos de corrosión atmosférica a exposición natural y acelerado para el acero.  Juan José Camejo Giniebra, Jorge Domínguez Domínguez, Rigoberto Marrero Águila. Derivados furánicos como inhibidores de la corrosión del acero en medios neutros.  Ribeaux-Kindelán, G., Gilart-González, F. El campo magnético y la capacidad calórica de una solución azucarada.  Siannah María Más Diego, Elizabeth Tamayo Rosales, Dalgis Guerrero Barriel,Meybel Ríos Hernández, 9 CII 66 CII 12 Héctor Tejera Cisneros. Aplicación del campo magnético para el aumento de la calidad de bioproductos de interés para la agroindustria.  Juan José Llovera González. HLB de tensioactivos y sus mezclas binarias. Permitividad equivalente.  Amanda Acosta Solares, Omar Pérez Navarro, Enrique R. Pérez Cruz, Duniesky Martínez García. Diseño tecnológico industrial para la inversión enzimática de la sacarosa. 10:00–10:20 Debate de las ponencias Día: 01 de diciembre de 2022 Sesión: Mañana y tarde Presidente Sesión: Dr.C. Susana Rodríguez Muños Sala: 14 Secretario Sesión: Dr.C. Lianys Ortega Viera Sesión Técnica: Ingeniería ambiental 10:30–11:10 CII 67 CII 29 CII 40 CII 31 CII 38 CII 51 CII 60  German Berezin, Alexander Debrovolsky. Experience in the implementation of monitoring of climatically active substances in spruce forests in the conditions of the north- west of Russia.  Leonor C. Pedroso-Jiménez, Yoneysi Pérez Almira, Deny Oliva Merencio, Ileana Pereda Reyes. Establecimiento de criterios de sostenibilidad en las producciones de la industria farmacéutica  Elina Fernández Santana, George Bess Palacios, Yulieth Viera Gallardo, Lianys Ortega Viera. Metodologías para la gestión de los costos ambientales  Jeney Ajete Acosta, Aymeé Montano Pérez, Lianys Ortega Viera, Elina Fernández Santana. Biorreactores de membranas para el tratamiento de las aguas residuales de la UEB BALKÁN  Carlos Antonio Méndez Saavedra, Susana Rodríguez Muñoz. Depuración simbiótica de aguas residuales: estudio de un caso.  María Shirlendy Guerrero Alcívar, Susana Rodríguez Muñoz, Peter Jhosue Navarrete Guerrero. Empleo de zeolita para disminuir el nitrógeno amnoniacal en residuales líquidos.  Consuelo de la C. González Triana, Carmen Rodríguez García, Teresa Figueroa Barrios, Angel Antonio Entrena García, Nereida Mantilla Gattorno, Vilma Espinosa Ladrón de Guevara, Damaris Matos Díaz, Abileny Cárdenas Lanz, Iliana Sosa Testé, Noel Tejeda Suárez. Evaluación ambiental de la aplicación de microorganismos eficientes (ME- Agroambiental) en el tratamiento de residuales líquidos. 11:10–11:30 Debate de las ponencias CII 41  Henry Alberto Salinas Freire, Osney Pérez Ones, Susana Rodríguez Muñoz. Desalinización de agua de mar. Consideraciones energéticas de la ósmosis inversa y uso de energías 10 11:30–12:00 CII 56 CII 5 CII 13 CII 43 renovables.  Nuria de los Ángeles Vaillant López, Gabriela Carreras Fernández, Guillermo Ribeaux Kindelán. El campo magnético, dureza total, calor específico y punto de ebullición del agua.  Yaima Barrios San Martín, Arelis Ábalos Rodríguez, Heidy F Toledo León, Maria I. Sánchez López. Aplicación de ramnolípidos a la remoción de vanadio en sedimentos contaminados con hidrocarburos.  Beatriz Guerra Alvarez, Roxana Cruz Villa, Ania Cabrera Díaz, Ileana Pereda Reyes, Luis Guerra Díaz. Obtención de ácido láctico por fermentación oscura de suero de queso mediante cultivos mixtos.  Diana Rosa Alcorta Cuello, Lianys Ortega Viera, Elina Fernández Santana. Análisis de sostenibilidad del ciclo de vida: una herramienta de gran importancia. 12:00–12:20 Debate de las ponencias MEMORIAS CIIQBA 2022 EVALUACIÓN TÉCNICO-ECONÓMICA DEL PROCESO DE PRODUCCIÓN DE JAMONADA TIPO FIAMBRE EN LA UEB INDAL Manuel Medell Gago1, Pedro Gómez Sosa2, Guido Riera González2, José Gandón Hernández2, Anabel Frías Chirino2 1UEB INDAL 2Grupo de Análisis de Procesos, Facultad de Ingeniería Química, Universidad Tecnológica de La Habana “José Antonio Echeverría”, Calle 114 No. 11901, Marianao, La Habana, Cuba, Teléfono: (53) 72603884. 1e-mail: guido@quimica.cujae.edu.cu RESUMEN Los embutidos son productos cárnicos de amplia demanda y es una de las opciones más viables de proveer alimentos a la familia cubanas, por su sencilla elaboración y gran acogida de los consumidores. La UEB INDAL en el año 2019, diseño una Jamonada tipo fiambre, la cual es un embutido grueso cocido de alta calidad, con el fin de abastecer la canasta básica cubana. Para su actual incorporación en el mercado nacional fue necesario realizar una evaluación debido a las variaciones en las materias primas y en la planta procesadora. Los resultados obtenidos fueron positivos, su composición nutricional es acorde a los parámetros establecido, presenta un por ciento de proteína igual a xxxx. Desde el punto físico químico se encuentra dentro los intervalos establecido el cloruro 2,17%, los nitritos tienen un valor de 61 ppm y la humead es de 70,54%. Desde el punto de vista de inocuidad, no presenta reisgo para el consumidor al tener los conteos de Coliformes totales igual a 1,6x102 ufc/g, los Coliformes fecales igual a 0,6x10-2 y no hay presencia de Salmonela ni de Sataphylococcus aureus. PALABRAS CLAVES: Jamonada, evaluación, físico químico, microbiológico EVALUATION OF RESIDUAL’S SYSTEM AT THE SAN JOSE´S RUM FACTORY ABSTRACT . KEY WORDS: 1. INTRODUCCIÓN La preocupación creciente por la calidad y garantía de los productos alimenticios ha irrumpido con fuerza en la industria cárnica y sus derivados, [1]. La carne es un producto necesario e indispensable en la dieta del hombre por ser una fuente importante de proteínas, aminoácidos esenciales, así como minerales y vitaminas necesaria para su desarrollo [2]. Las tendencias de consumo de carne; la manera de producirla y comercializarla está cambiando a nivel mundial. En este sentido Cuba no ha sido la excepción, donde además de lo anterior señalado se suma, escasez de materias primas, condiciones tecnológicas del equipamiento industrial y necesidad imperiosa de cubrir la demanda alimentaria de la población. Los embutidos son productos cárnicos de amplia demanda y es una de las opciones más viables de proveer alimentos a la familia cubanas, por su sencilla elaboración y gran acogida de los consumidores. El embutido es una tripa rellena contenida con varios ingredientes, donde el principal es la carne. En general se entiende por embutidos a los derivados cárnicos preparados a partir de una mezcla de tejido muscular crudo y tejido graso finamente picado, agua, sales, aditivos y condimentos; hierbas aromáticas y diferentes especias (pimentón, pimienta, ajos, romero, tomillo, clavo de olor, jengibre, nuez moscada) introducidos en tripas naturales o artificiales. [3, 4, 5]. La materia prima cárnica para producir embutidos puede ser, res, cerdo, pollo pescado o mariscos, mezclados con ingredientes alimentarios, que pueden ser sometidos o no, a un proceso de; macerado, curado, masaje, emulsficado y embutido en tripas o moldes. Pueden ser o no cocidos, fermentados, ahumados, horneados, secados, atemperados; refrigerados o congelados [6, 7]. Los procesos de producción de embutidos han sido evaluados para diferentes productos. Por ejemplo, Bruselas y colaboradores [8], determinaron el tratamiento térmico adecuado a emplear en un embutido alimenticio La jamonada tipo fiambre es un embutido creado a principios del año 2019 con el objetivo fundamental de aumentar la oferta en el mercado nacional, cumpliendo con los parámetros de calidad establecidos. El objetivo del presente trabajo fue la evaluación de la jamonada desde el punto de vista nutricional, químico-físico, sensorial y microbiológico en las condiciones actuales de producción para su comercialización en el mercado nacional. 2. MATERIALES Y MÉTODOS El trabajo se realizó en la UEB INDAL, en el proceso de producción de jamonada tipo fiambre. Para la determinación de parámetros bromatológicos, físico-químicos y sensoriales se empleó un muestreo normal para un nivel de inspección S-1 y un nivel de calidad aceptable de 6,5 %, según la NC 2859-1 [9], mientras que el tamaño de muestra para los análisis microbiológicos se calculó según lo establecido por la NC 585:2017 [10]. Se realizaron 3 réplicas por muestras, por triplicado según métodos de la Asociación Oficial de Química Analítica (AOAC), [11]. Composición proximal Para la composición nutricional se empleó los métodos establecidos los cuales se relacionan a continuación:  Contenido de proteínas (Pr) se calcula mediante el método 928.08/00 [11], se empleó un equipo digestor de proteínas marca Selecta y un Vapodest marca Gerhardt.  Contenido de grasas libre (Gr) se determina por el método 92.39/00 [11] empleando la unidad de extracción E-816SOX marca Buchi.  Contenido de ceniza (Ce) se emplea el método 923.03/00 [11] con ayuda de un Horno mufla HD-230 mara Hobersal.  La humedad (H) mediante el método 950.468/00 [11] y como equipo se empleó un Horno Venticell.  Contenido de carbohidratos (Carbh), se determinó por diferencia según ecuación 1. )Pr100( HCeGrCarbh  ( 1) Todos expresados en por ciento (%) Parámetros físico-químicos, microbiológicos y sensoriales Para determinar los parámetros físico-químicos, microbiológicos y sensoriales se emplearon los siguientes métodos:  El contenido de humedad en porcentaje fue determinado por el método rápido según NC 275:2003 [13].  El contenido total de cloruro es determinado por el método de Volhard especificado en la NC- ISO 1841-1: 2004 [13]. Se expresa como cloruro de sodio en porciento por masa.  Contenido de nitrito fue calculado mediante la extracción del nitrito de una porción de ensayo con agua caliente [14].  El recuento de estos microorganismos se realizó según lo establecido por la NC ISO 4833: 2011 [15], y para la interpretación de los resultados como método de referencia se empleó la NC 585:2016 [16].  La evaluación sensorial se aplicó en el laboratorio el Procedimiento Analítico de Evaluación Sensorial (PAES): 2001 y se midieron los parámetros: Aspecto exterior; Aspecto al corte; Olor; Sabor y Textura. Finalmente valorando todos los aspectos se emitió una evaluación final del lote. Las muestras fueron tomadas y preparadas según NC 274: 2003. El procesamiento estadístico de los datos se realizó con el paquete Statgraphics Centurión. Índices de consumo Los índices de consumo expresan la cantidad de energía, combustible o costos por unidad de producto final. Constituyen indicadores importantes de la eficiencia energética y permiten caracterizar la distribución de los consumos en un proceso. En el presente trabajo se calculan los índices de consumo de combustible y de energía eléctrica. Los mismos pueden ser determinados a partir de criterios de índole práctica, sobre la base de resultados históricos o a partir de los criterios teóricos que describen los procesos (índices de consumo técnicamente fundamentados). Estos últimos tienen gran importancia para la industria, pues permiten conocer el impacto provocado por cualquier modificación sobre los indicadores técnicos y económicos. [18, 19]. Índices de consumo de combustible Para la determinación los índices de consumo de combustible asociados al proceso de producción fue necesario calcular el calor total evolucionado durante el proceso. Para este cálculo se aplica un balance total de calor en el proceso el cual se expresa mediante la ecuación 2: perdidoequipoprocesototal QQQQ  (2) Donde: Qproceso: Calor proceso (kJ). Incluye producto, aire, agua, según el caso Qtotal: Calor total (kJ) Qequipo: Calor equipo (kJ) Las ecuaciones para cada caso se relacionan a continuación: Para el producto, aire y agua (ecuación 3) )(** ifppp TTCpmQ  (3) Donde: Qp: Calor consumido por el producto (kJ) Ti: Temperatura inicial del producto (K, ºC) Tf: Temperatura final del producto (K, ºC) mp: Masa del producto (kg) Cpp: Capacidad calórica del producto (kJ/kg ºC) Esta ecuación se también se emplea para determinar el calor necesario para calentar el agua y/o el aire dado el caso en los procesos de cocción y horneado sólo se debe sustituir los datos correspondientes a cada caso. Para el equipo (ecuación (4)) )(** ifeeequipo TTCpmQ  (4) Donde: Qequipo: Calor consumido por el equipo o soporte (kJ) me: masa del equipo o soporte (kg) Ti: Temperatura inicial del equipo o soporte (K, ºC) Tf: Temperatura final del equipo o soporte (K, ºC) Cpe: Capacidad calórica del equipo o soporte (kJ/kg ºC) Pérdidas de calor  Pérdidas por evaporación desde la superficie del líquido (ecuación (5)) elees HmQ  * (5) Donde: mle: masa de líquido evaporada (kg) Qes: Calor consumido para evaporar el líquido (kJ) ΔH: Diferencia de entalpia (kJ/kg) Las pérdidas de calor por convección-radiación para la etapa de cocción se calculan en los tachos y en las tuberías de vapor teniendo en cuenta que los tiempos necesarios en cada uno son de 6,6 h y 8,3 h respectivamente. En ambos casos se empleó la ecuación (6): )(**   TTAhQ warc (6) Donde: Qc -r: Calor perdido por convección-radiación en los tachos durante la cocción (kJ) ha: Coeficiente combinado de transferencia de calor, (W/(m2 K) A: Área de transferencia de calor (m2) Tw: Temperatura externa de la pared del tacho (°C), T∞: La cantidad de combustible consumido por conceptos de calor consumido se determina mediante de la ecuación (7). *VCI Q M consumidoecombustibl  (7) Donde: Mcombustible: Masa del combustible consumido (kg) (El combustible es Fuel Oil) Qconsumido: Calor total consumido en el proceso (kJ) VCI: Valor calórico inferior del combustible (39 900 kJ/kg) η: Rendimiento del generador de vapor (85 %) El índice de consumo en combustible se calcula según la ecuación (8): producto consumido M M IC  (8) Donde: IC: Índice de consumo en (kg/kg) Mcombustible: Masa de combustible (kg) Mproducto: Masa del producto (kg) Índice de consumo de electricidad La relación para determinar el consumo eléctrico es la siguiente: tIVnNECElectrico *10*cos**** 33   (9) Donde: CEléctrico: Consumo eléctrico (kW-h) NE: Cantidad de equipos o luminarias t: Tiempo (h). n: cantidad de fases V: Tensión o voltaje (V). : Intensidad de la corriente (A). : Factor de potencia. El índice de consumo de electricidad se calcula según la ecuación (10): producto Electrico adelectricid M C IC  (10) Donde: ICelectricidad: es el índice de consumo en (kW-h/kg) Mproducto: Masa del producto (kg) 3. RESULTADOS Y DISCUSIÓN Para el desarrollo del trabajo se emplea una jamonada tipo fiambre cuya formulación se presenta en la tabla 1. A partir de esta formulación se elaboró una tonelada de producto de la cual se tomaron muestras para los diferentes análisis a realizar. Composición proximal Para conocer la composición nutricional se tomaron 5 muestras con 3 réplicas cada una. Los resultados se presentan en la tabla 2. En la tabla anterior se observa que la composición de la jamonada tiene poca variación al ser la desviación estándar de cada componente pequeñas, así como su coeficiente de variación que en todos los casos es menor que 1%. Cada uno de sus componentes presenta una distribución normal al encontrarse los valores de Sesgo Estandarizado y Curtosis Estandarizada entre -2 y 2. Tabla 1. Formulación de Jamonada tipo fiambre Materia Prima Cárnica % Materias Prima Secas % Carne de Res de 1ª 25,0 Harina de Trigo 8,5 Carne de Cerdo de 1ª 17,0 Preparado de Jamonada 1,9 MDM 15,0 Fécula 2,0 Recorte de Cerdo 3,0 Sal 1,4 Agua 25,35 Sal de cura 0,5 Humo líquido 0,1 Ajo 0,3 Tabla 2. Composición proximal de la Jamonada tipo fiambre Agua Carbohidratos Cenizas Grasas Proteínas Recuento 15 15 15 15 15 Promedio 71,020 10,219 2,429 7,139 9,189 Desviación estándar 0,0337 0,0333 0,0008 0,0006 0,0005 Coeficiente de variación % 0,047 0,326 0,035 0,009 0,005 Sesgo estandarizado 1,660 -1,506 -1,485 0,120 -0,308 Curtosis estandarizada 0,791 0,795 0,649 -0,399 0,453 Caracterización físico-químico En la tabla 3 se presenta los resultados del procesamiento estadístico de los parámetros físico químicos estudiados. Tabla 3. Composición físico química de la Jamonada tipo fiambre Cloruro (%) Humedad (%) Nitrito (ppm) Recuento 15 15 15 Promedio 2,179 70,548 61,520 Desviación estándar (DS) 0,0746 0,6838 1,5068 Coeficiente de variación (%) 3,4260 0,9692 2,4493 Sesgo estandarizado -1,0726 1,7140 1,7216 Curtosis estandarizada -0,0444 -0,8936 1,3521 Al igual que en el caso de la composición nutricional los parámetros estudiados muestran poca variación al tener desviaciones estándar y coeficiente de variación pequeños. También todos los casos muestran distribución normal. Aunque la humead se encuentra en el límite del valor aceptable, el valor obtenido como promedio 70,548 % (DS=0,6838) refleja que puede exceder los límites establecido pudiendo ser causado por varios aspectos como son excedo de adición de agua por mal aforo del envase, dinámica productiva, humedad de las materias primas especialmente el picadillo de pollo. Estos aspectos hay que chequearlos constantemente. Los cloruros con un promedio en las 15 mediciones de 2,179 % y una desviación estándar de 0,0746 se mantuvieron en el intervalo permisible en todas las muestras analizadas (1,5-3%) según especificación de embutidos gruesos SCC 2.04.02.01:2007, lo que indica su correcta formulación. Este resultado satisfactorio pues el producto no presentaba sal en demasía, no hubo error en el pesado ni en la formulación. El cloruro de sodio es uno de los ingredientes básicos y esenciales en la masa de los embutidos, su efecto preservante es doble: por una parte, reduce la actividad de agua del medio, para lo cual es sumamente eficaz, comparada con otros solutos, pero además tiene un efecto inhibidor de los microorganismos. Por otra parte, el aumento de la concentración de cloruro de sodio en la masa, causa una reducción en la actividad de agua. El promedio de los nitritos fue de 61,520 ppm (DS=1,5068) el cual se encuentra dentro del intervalo establecido 59,62-67 ppm en la norma SCC 2.04.02.01:2007. Caracterización microbiológica En la tabla 4 se presenta el resumen del estudio microbiológico realizado a la jamonada tipo fiambre bajo estudio, los cuales muestran la adecuada calidad sanitaria en el proceso productivo. Tabla 4. Comportamiento microbiológico Recuentos (ufc/g) Microorganismos (M.o) Coliformes totales 1,6x102 Coliformes fecales 0,6x10-2 Salmonela Negativo Sataphylococcus aureus Negativo El análisis microbiológico arroja que el producto elaborado es inocuo a la salud, los Coliformes totales se encuentran en el intervalo permitido teniendo un valor de 1,6x102 ufc/g siendo el intervalo de 102 a 103 ufc/g según NC 585: 2015. Los Coliformes fecales deben ser menor a 10 ufc/g según NC 585: 2015 presentando un valor promedio de 0,6x10-2 que es bastante pequeño. No existe ni Salmonela ni Sataphylococcus aureus. Evaluación sensorial La jamonada alcanzó valores superiores en todos los atributos, encontrándose entre “me gusta muchísimo” y “me gusta mucho”. Los análisis de evaluación sensorial arrojaron una puntuación promedio convertida de 5 puntos en cuanto a los aspectos examinados lo que se otorgó la puntuación de Excelente en todas las piezas. Este resultado positivo obtenido en la evaluación con panelistas entrenado se llevó a un estudio poblacional. El estudio poblacional abarcó desde el gusto extremo hasta el disgusto extremo. La respuesta gráfica fue seleccionada por las personas encuestadas. Los resultados se muestran en la figura 1. Como se observa en la figura 1 el producto evaluado siempre gustó, al 36% de los encuestados le gustó mucho y al 33% le gustó muchísimo y para un 69% de los encuestados. En ninguno de los casos la respuesta fue negativa. Figura 1. Resultado del estudio del nivel de aceptación Índices de consumo de combustible Empleando las ecuaciones para el cálculo de los calores consumidos durante del proceso de cocción 100 t de jamonada tipo fiambre se tienen los resultados que se presentan en la figura 5. El calor total evolucionado en el proceso de cocción es de 15763892 kJ el cual puede considerarse alto. En la figura 2 puede observarse que el mayor consumidor es la cocción del producto que incluye el calentamiento del agua y la propia cocción. El calor consumido por el equipo en su calentamiento, así como las pérdidas, aunque no despreciables son poco pequeñas. La masa de combustible equivalente fue de 464,8 kg y el índice de consumo determinado fue de 0,0046 kgcombustible/kgproducto. Este valor resulta elevado al compararlo con el reportado por Valladares [20] que es de 0,0034 kgcombustible/kgproducto, para un producto similar en la misma empresa, pero en el año 2015. La diferencia entre ambos resultados puede tener diferentes causas, puede ser debido a diferentes materias primas, diferente tiempo de cocción y condiciones técnicas d ellos equipos. Sin embargo, si se compara con un resultado obtenido en Ecuador en un estudio en una planta de embutido realizado por Jaramillo en el 2018 donde el índice de consumo fue de 360 kg combustible/t producto resulta muy inferior. Figura 5. Calores consumidos durante la cocción de la jamonada tipo fiambre Índices de consumo eléctrico El de consumo de energía eléctrica se calculo determinando previamente los consumos en todos los equipos eléctricos involucrado en el proceso de elaboración, así como las luminarias de las áreas de producción. Para cada uno se tuvo en cuenta el tiempo de funcionamiento. El resultado obtenido fue de total de 23365 kW-h consumido para un índice de consumo de energía eléctrica igual a 0,233 kW- h/kgproducto muy similar al reportado por Valladares [20] que es de 0,2573 kW-h/kgproducto. El resultado se considera elevado. 4. CONCLUSIONES La jamonada tipo fiambre presenta una composición nutricional adecuada para este tipo de producto, su composición físico química se encuentra dentro de los intervalos establecidos. El análisis microbiológico no arrojo riesgo microbiológico para el consumidor. En la prueba sensorial fue aceptado por el panel de evaluadores y en el estudio poblacional fue aceptada por todos los encuestados con altos criterios. El índice de consumo de combustible es de 0,0046 kgcombustible/kgproducto. El índice de consumo de energía eléctrica igual a 0,233 kW-h/kgproducto el cual se considera elevado. REFERENCIAS 1. DANIEL BORBOR SUÁREZ Y ENGRACIA SANTANA REBECA (2019): “Elaboración de jamón cocido y ahumado de pescado con fécula de soya (glycine max) y maíz (zea maíz) como una alternativa alimenticia”, Revista Observatorio de la Economía Latinoamericana (noviembre 2019). En línea: https://www.eumed.net/rev/oel/2019/11/elaboracion-jamon-cocido.html 2. LEIDYAIDA LLERENA CASELLAS, Guido Riera González, Anabel Frías Chirino, Álvaro Valdés Aragón. Estudio de la vida útil de una salchicha de pollo mediante pruebas acelerada. Revista IIIA, Ciencia y Tecnología de Alimentos. Vol. No. 3, 2020. ISSN 1816-7721 3. FRÍO CARNES. Los embutidos crudos 2017 [citado 2021 30/06]. Disponible en: www.friocarnes.com]. 4. FREIRE VELASCO CA. Efecto de la adicion de la harina de Chocho (Lupinus Mutabilis Sweet) en la elaboraciónde embutidos (salchichas tipo Franckfurt). Revista Ambato. 2011; 4:32-44. 5. IZQUIERDO P, GARCÍA A, ALLARA M, ROJAS E, TORRES G, GONZÁLEZ P. Análisis proximal, microbiológico y evaluación sensorial de salchichas elaboradas a base de Cachama Negra (Colossomamacropomum). Revista Científica 2007; 17(3): 294-300. 6. STREET, W.N.F., Elaboración y estandarización de embutidos. 2003, Washington, USA: Oficina de Ciencia y Tecnología 7. GÓMEZ SOSA P. Evaluación técnico-económica del proceso de producción de Jamonada tipo fiambre en la UEB INDAL. Trabajo de diploma, Facultad de Ingeniería Química, Universidad Tecnológica de la Habana, CUJAE, 2021 8. ASTER BRUSELAS, BÁRBARA PÉREZ, JUNIOR PEÑA, MARÍA ALOIDA GUERRA, JOSÉ A. GANDÓN "Empleo del método CAENTER en el estudio del tratamiento térmico de embutidos”- Vol 172, Nº 3, (pp. 62-67) Revista: La Industria Cárnica Latinoamericana, ISSN: 0325-3414 9. OFICINA NACIONAL DE NORMALIZACIÓN. Procedimiento de muestreo para la inspección por atributos. Parte 1: Esquemas de muestreo indexado por el Nivel de Calidad Aceptable (NCA) para la inspección lote a lote, NC-ISO 2859-1, 2003, Cuba 10. OFICINA NACIONAL DE NORMALIZACIÓN. Contaminantes microbiológicos en alimentos- requisitos sanitarios, NC-585, 2017. Cuba 11. AOAC. Association of official methods of analytical chemist. 2003. Washington, U.S.A., Chapter 32: 1, 2, 5 y 14. 12. OFICINA NACIONAL DE NORMALIZACIÓN. Carne y productos cárnicos. Determinación del contenido de humedad: método rápido, NC 275, 2003. Cuba 13. OFICINA NACIONAL DE NORMALIZACIÓN. Carne y productos cárnicos- Determinación del contenido de cloruro- Parte1. Método de Volhard, NC-ISO 1841-1, 2004. Cuba 14. OFICINA NACIONAL DE NORMALIZACIÓN. Carnes y productos cárnicos. Determinación del contenido de nitrito. NC 357: 2004. Cuba 15. OFICINA NACIONAL DE NORMALIZACIÓN. Contaminantes microbiológicos en alimentos. Requisitos sanitarios. NC 585: 2015. Cuba 16. OFICINA NACIONAL DE NORMALIZACIÓN Contaminantes microbiológicos en alimentos- Requisitos sanitarios, NC 585. 2016. Cuba 17. OFICINA NACIONAL DE NORMALIZACIÓN. Carnes y productos cárnicos. Preparación de la muestra de ensayo NC 274: 2003. Cuba 18. NORMA INTECO (INTE 19-4-01 -94) del Instituto de Normas Técnicas de Costa Rica, en su anexo D, donde se aclara que este anexo no forma parte de la norma. http://www.energia.inf.cu/iee- mep/indices_i.htm (3/05/10). 19. YONHARA GARCÍA MARTÍNEZ; Ofelia Méndez Bustabad; José Gandón Hernández; Guido Riera González. Análisis de los consumos energéticos en una fábrica de productos cárnicos. Vol. xxNº 176, (pp 48-53). Revista: La Industria Cárnica Latinoamericana. 20. VALLADARES VALIENTE S. Evaluación del proceso de elaboración de la mortadela Novel. Trabajo de diploma, Facultad de Ingeniería Química, Universidad Tecnológica de la Habana, CUJAE, 2015 21. JARAMILLO PINEDA CA. Análisis de ciclo de vida (ACV) de un producto cárnico, como estrategia para un agronegocio sustentable: Un estudio en la Unidad Eduproductiva de la Universidad Técnica del Norte [Diploma]. Ecuador: Universidad Técnica del Norte; 2018. SOBRE LOS AUTORES Manuel Medell Gago, Graduada de Ingeniería Química en xxx, en la Universidad Tecnológica de La Habana “José Antonio Echeverría” (Cujae), Cuba. Desde su graduación se vinculó a la industria alimentaria. Ha laborado en diferneets empresas en la actualidad xxxxx. Cursa la Maetría de Ingeniería en alimentos y realiza su tesis vinculado al Grupo de investigación de Alimentos de la Facultad de Ingeniería Química, Guido Riera González. Graduado de Ingeniería Química en 1983 en la Facultad de azucarera, del Instituto Superior Politécnico José A. Echeverría (Cujae). Doctor en Ciencias Técnicas en 1996. Profesor Auxiliar. Dirige el grupo de investigación de Ingeniería en alimentos de la Facultad de Ingeniería Química. José Gandón Hernández. Graduado de Ingeniería Química en 1970 en el Instituto Superior Politécnico José A. Echeverría (Cujae), Cuba. MSc. Especialista en Diseño de Procesos (1978). Profesor Auxiliar de la Facultad de Ingeniería Química. Sus investigaciones incluyen líneas de uso y consumo de energía, producción de biocombustible. Anabel Frías Chirino. Graduada de Ingeniería Química en 1997, del Instituto Superior Politécnico José A. Echeverría (Cujae). Doctora en Ciencias Técnicas en 2011. Profesora Auxiliar (2004). Pedro Gómez Sosa. Graduado de Ingeniería Química en 2021 en la Universidad Tecnológica de La Habana “José Antonio Echeverría” (Cujae), Cuba. APROVECHAMIENTO DE RESIDUOS AGROINDUSTRIALES EN LA INDUSTRIA DE CÍTRICOS DE MARACUYA PARA LA OBTENCIÓN DE HARINAS ÚTILIZABLES EN LA PRODUCCION DE EMBUTIDOS TIPO BUTIFARRA Yaceris Mercedes Castro Escorcia1, Teresa de Jesús Altamar Perez2, Dialinis Blanco Villadiego3, Lorena Patricia Sarmiento Morales4 1Centro para el Desarrollo Agroecológico y Agroindustrial SENA, Regional Atlántico, Calle 9 N.º 19- 120, ycastroe@sena.edu.co, 2 Centro para el Desarrollo Agroecológico y Agroindustrial SENA, Regional Atlántico, Calle 9 N.º 19-120, taltamarp@sena.edu.co, 3Centro para el Desarrollo Agroecológico y Agroindustrial SENA, Regional Atlántico, Calle 9 N.º 19-120, dblanco@sena.edu.co, 4Centro para el Desarrollo Agroecológico y Agroindustrial SENA, Regional Atlántico, Calle 9 N.º 19- 120. e-mail: lpsarmiento5@misena.edu.co RESUMEN La presente investigación se desarrolló con el fin de aprovechar los residuos agroindustriales de cítricos y de este modo dar valor agregado a la utilidad sus altos contenidos de fibra, vitaminas y minerales para la innovación de nuevos productos. Por lo tanto, el objetivo consistió en aprovechar los residuos de la agroindustria de Cítricos (maracuyá) para la obtención de harinas útiles en productos alimenticios. Entre tanto la metodología que se implementó es de tipo descriptiva, experimental y cuantitativa, la investigación se desarrolló en tres fases en la primera se determinó el proceso productivo para la obtención de la harina, en la segunda se caracterizaron parámetros fisicoquímicos, microbiológicos y organolépticos de la harina de maracuyá y en la tercera se estandarizo la formulación para la elaboración de la butifarra y caracterización bromatológica. Los resultados arrojaron que para la obtención de harina de cítricos se realiza una deshidratación a una temperatura de 50 ° C, pasan al proceso de molienda, tamizado en mallas de 75 micras y empacado. Por su parte los análisis fisicoquímicos permitieron determinar que las harinas de cascara de maracuyá tiene un porcentaje de fibra de 48,68 %. Se estandarizo que la harina de maracuyá se utilizó como extensor en la elaboración de un embutido cárnico tipo butifarra con altos niveles de aceptación. Concluyendo que las características de las harinas de cascara de maracuyá permiten su inclusión en la elaboración de nuevos productos. PALABRAS CLAVES: cítricos, harina, residuos agroindustriales, productos alimenticos, cascara de frutas. ABSTRACT The present investigation was developed in order to take advantage of citrus agro-industrial residues and in this way give added value to the utility of its high fiber, vitamin and mineral contents for the innovation of new products. Therefore, the objective was to take advantage of the residues of the Citrus (passion fruit) agroindustry to obtain useful flours in food products. Meanwhile, the methodology that was implemented is descriptive, experimental and quantitative, the research was developed in three phases in the first the production process for obtaining the flour was determined, in the second the physicochemical, microbiological and organoleptic parameters of the passion fruit flour and in the third the formulation for the production of sausage and bromatological characterization was standardized. The results showed that to obtain citrus flour, a dehydration is carried out at a temperature of 50 ° C, they go to the grinding process, sieved in 75-micron mesh and packed. For its part, the physicochemical analyzes allowed to determine that the passion fruit peel flour has a fiber percentage of 48,68 %. It was standardized that the passion fruit flour was used as an extender in the elaboration of a sausage-type meat sausage with high levels of acceptance. Concluding that the characteristics of the passion fruit peel flours allow their inclusion in the elaboration of new products. KEY WORDS: citrus, flour, agro-industrial residues, food products, fruit peel. INTRODUCCION Los residuos industriales siguen convirtiéndose en un gran problema no sólo ambiental sino también económico, ya que las mismas empresas tienen que asumir altos costos de disposición de éstos. Tal es el caso de la gran cantidad de residuos de frutas que se producen en las ciudades del país, debido al número extenso de empresas de este sector agroindustrial. En Colombia la producción de cítricos se encuentra representada en un área de producción nacional de 51.604 Ha con un rendimiento en toneladas/Ha por productos en naranja 15.2, limón 13.8, mandarina 13.8, lima 15.9, tangelo 10.3, pomelo 14.6 y maracuyá con el 16.85 [1]. La maracuyá se siembra aproximadamente un área de 10.943 ha, un área cosechada de 8.223 ha con una producción de 138.590 ha [2]. Esta fruta cítrica es aprovechada para extraer el jugo y las cascaras son desechadas, es decir, que la mayoría de las industrias procesadoras de jugos y bebidas no tienen un plan para el manejo de estos residuos, debido al alto costo de su disposición final. Por el contrario, los ubican junto con la basura, en los vertederos o rellenos sanitarios, generando daños en los ecosistemas donde estos son vertidos [3]. La maracuyá se destaca por ser una fruta que es destinada como insumo para la agroindustria y es utilizada para la producción de jugos principalmente, cuyo proceso conlleva a una generación considerable de desechos como cáscaras y semillas [4]. Estos residuos suponen un problema para la industria alimentaria, ya que son desechos que ocupan un gran volumen y no tienen gran utilidad [5]. Sin embargo, desde hace varias décadas los residuos provenientes de los cítricos han sido un foco de atención para varios investigadores a nivel mundial, debido a que parte de sus constituyentes pueden ser materia prima para generar diversos productos y aditivos de interés, esta situación sigue prevaleciendo en la actualidad y se prevé que continuará en el futuro [6]. Actualmente en la industria cárnica los embutidos se elaboran con extensores, dado que estos les permiten la capacidad de coagular las proteínas y otorgarle una textura firme y elástica características de este tipo de producto, empleandose hoy en día derivados de la soya, caseinato de sodio, coprecipitado lácteo, proteínas del suero de la leche, gluten de maíz, harina de trigo entre otros. Por lo general estos se caracterizan por su alto contenido de proteína, teniendo en cuenta que las cascara de maracuyà posee altos contenidos de proteínas, vitaminas, pectinas y que actualmente son desechadas, desaprovechando sus propiedades nutricionales [7]. Por lo tanto, teniendo en cuenta esta problemática de los residuos de cascaras de cítricos y de la necesidad de establecer un tratamiento y disposición final para este tipo de residuos para darles un valor agregado, disminuir el impacto ambiental y reducir los costos, se buscan alternativas que deriven nuevas técnicas y métodos para su aprovechamiento, de tal forma que permitan darle una potencial valorización en la industria mediante la incorporación como aditivos alimentarios e incluso en el desarrollo de nuevos productos. De acuerdo con lo anterior, se plantea la siguiente pregunta problema: ¿Cómo reducir el impacto ambiental negativo de las industrias procesadoras de frutas, con el aprovechamiento de cáscaras de maracuyá utilizada como extensor en la elaboración de embutidos?. De esta manera, esta investigación pretende realizar un aprovechamiento de los residuos cítricos de las agroindustrias de alta productividad en el departamento del Atlántico, innovando en la producción de harinas con cáscaras de cítricos que puedes ser utilizado como aditivos para la industria de alimentos. Dado que su desarrollo permitirá poder realizar aportes considerables a la investigación y aplicación de tecnologías viables para el aprovechamiento de los residuos finales, además coadyuvara a disminuir esta problemática ambiental y planteará estrategias de reutilización directa de estos residuos para aprovechar sus numerosos aportes nutricionales y elementos funcionales, en la elaboración de nuevos productos que abarquen procesos sencillos y de bajo costo [8]. De igual manera emplear la cascara de cítricos ayudara a que se puedan emplear sus polifenoles y antioxidantes los cuales tienen un importante beneficio económico para los procesadores de alimentos [9]. En consecuencia, el aprovechamiento de este tipo de residuos se convierte en una estrategia de manejo ambiental y económico adecuado para la creación de nuevos subproductos. A raíz de los desechos y el poco aprovechamiento de la cáscara de frutos cítricos, surge la necesidad de elaborar una harina rica en antioxidantes naturales con la piel de maracuyá y que pueda ser utilizada como aditivo en la elaboración de embutidos cárnicos, de esta manera ofertar un nuevo producto en el mercado, que además contribuye al buen manejo ambiental. MATERIALES Y METODOS La investigación se enmarca en el tipo cuantitativa experimental pues en este proyecto de innovación se busca el porcentaje óptimo de las variables independientes que permitan la obtención de los productos alimenticios con la incorporación de harinas obtenidas de los residuos de los cítricos. Según el autor Fidias G. Arias, “La investigación experimental es un proceso que consiste en someter a un objeto o grupo de individuos, a determinadas condiciones, estímulos o tratamiento (variable independiente), para observar los efectos o reacciones que se producen (variable dependiente)”. En cuanto al nivel, la investigación experimental es netamente explicativa, por cuanto su propósito es demostrar que los cambios en la variable dependiente fueron causados por la variable independiente. Es decir, se pretende establecer con precisión una relación causa-efecto [10]. Para el desarrollo del prototipo se creó un diseño factorial 33 (el tres de la base indica que cada factor toma sólo tres valores y el tres del exponente indica que se estudiaran tres factores). El presente proyecto se desarrolló en los talleres de procesos y laboratorios del Centro para el Desarrollo Agroecológico y Agroindustrial de la Regional Atlántico del SENA CEDAGRO, localizado en la Calle 9 #19 -120, Colombia, Sabanalarga, (Atlántico). Para la recolección de la información se utilizaron fuentes primarias como la observación, que permitieron recoger y analizar datos de los diferentes productos llevados a cabo en los talleres laboratorios del centro CEDAGRO; además el uso de formatos de inspección, verificación de documentos internos (registros fotográficos, fichas técnicas de la materia prima e insumos, productos terminados, registros y formatos de inspección de calidad y producción). A su vez se emplearon técnicas secundarias como referentes bibliográficos sobre estudios e investigaciones realizadas con relación a la utilización de harinas a partir de las cascaras de cítricos incorporados en productos alimenticios. Para el desarrollo el presente proyecto de INNOVACIÓN se plantearon las siguientes fases: Fase I: Determinación del proceso productivo para la obtención de la harina de maracuyá incorporada como aditivo en la elaboración de embutidos cárnicos. En esta fase se determinaron las tecnologías disponibles, la materia prima, los ingredientes y aditivos, las operaciones y mecanismos de control necesarios en todo el proceso productivo mediante la revisión bibliográfica y normativa para obtener harinas a partir de productos cítricos que puedan ser incorporadas a la elaboración de diferentes embutidos cárnicos tal como la butifarra. Inicialmente se buscó información en bases de datos relacionados con el eje temático objeto de estudio. Fase II: Caracterización de los parámetros fisicoquímicos, microbiológicos y organolépticos de las harinas de maracuyá obtenidas para determinar el nivel de calidad con relación a las harinas existentes en el mercado. En esta fase se estipularon las especificaciones de la harina obtenida con el objetivo de adquirir y procesar la misma variedad de producto. Los criterios para tener en cuenta para determinar las características de calidad que deben cumplir este tipo de productos están contemplados en la NTC 420:2015. Además, se utilizaron materiales que cumplan las especificaciones haciendo énfasis en las condiciones higiénico- sanitarias. Fase III: Estandarización de formulaciones en la elaboración de butifarra con la adición de las harinas de maracuyá obtenida con el fin de determinar la funcionalidad de estas al ser incorporadas. Esta fase se desarrollaron las formulaciones para la elaboración del embutido tipo butifarra en donde se incorporó la harina maracuyá obtenida como aditivo funcional, para el caso de los productos cárnicos se utilizó como extensor. Se escogieron las formulaciones que cumplieron con los parámetros del proceso y que permitían la utilización de la harina de maracuyá como aditivo en la elaboración de embutidos cárnicos; cumpliendo con los estándares de calidad fisicoquímica, microbiológica y organoléptica. Estos productos se evaluaron de acuerdo con lo establecido en la normatividad vigente, teniendo en cuenta los parámetros fisicoquímicos y microbiológicos del embutido cárnico obtenido (NTC 1325:2008 INDUSTRIAS ALIMENTARIAS. PRODUCTOS CARNICOS PROCESADOS NO ENLATADOS.), Fase IV: Evaluación de parámetros de calidad sensorial del embutido tipo butifarra obtenido a partir de la incorporación de la harina de cítricos desarrollada con el objetivo de medir la aceptabilidad de estos alimentos. En esta fase se determinó el grado de aceptación del embutido tipo butifarra. Para ello se realizó un análisis sensorial del producto obtenido y se evaluaron a través de una prueba de preferencia mediante una escala de hedónica de cinco (5) puntos a panelistas no entrenados. Se tomaron como referencias tres muestras de cada uno de los productos obtenidos. RESULTADOS Proceso productivo para la obtención de la harina de cascara de maracuyá empleada como aditivo en la elaboración de productos alimenticios. Con el objetivo de describir el proceso industrial para la obtención de harina, se tuvieron en cuenta las tecnologías existentes dentro de la industria procesadora de alimentos, se indago mediante bibliografía la selección de los equipos para cada operación del proceso, y se relacionaron con los parámetros estipulados de acuerdo con los resultados arrojados en la etapa investigativa. Como resultado se obtuvo la descripción del proceso a nivel industrial, y parámetros de control para cada operación, el cual se puede escalar a nivel industrial para su producción en masa. A continuación, se describen los principales aspectos a tener en cuenta en el proceso productivo para la obtención de harinas a partir de las cáscaras de maracuyá. Descripción del proceso productivo para la obtención de harinas a partir de la cáscara de maracuyá a) Recepción de residuos frutales: en esta etapa se inspecciona la calidad de las materias primas, revisando que cumplan con las especificaciones que requiere el proceso, se reciben las cáscaras y se observan las características: color, olor y aroma. b) Limpieza y desinfección: aquí se efectúan una serie de operaciones como lavado, donde se sumergen las cascaras en agua con hipoclorito de sodio con una de concentración de 5 ppm y se procede con la separación de las semillas de las cáscaras. c) Acondicionamiento: una vez lavadas, se toman las cáscaras y se cortan en pequeños trozos para facilitar el proceso de deshidratación y la molienda. d) Escurrido: se colocan las cáscaras en bandejas perforadas para el proceso de escurrido, con el fin de retirar el exceso de agua durante el lavado. Se debe verificar que exista un espacio entre ellas que permita la circulación del aire. e) Deshidratación: las bandejas con las cáscaras se ingresan en el horno o deshidratador a una temperatura de 50° C por 24 horas y se mantiene el control de las variables. f) Molienda: una vez finalizado el proceso de deshidratación, se sacan las bandejas con las cáscaras se evalúa sus características y se realiza la molienda en un molino convencional y posteriormente se pasa por un molino pulverizador para reducir el tamaño de las partículas. g) Tamizado: luego de la molienda se lleva a cabo el tamizado para clasificar por granulometría para ello se hace uso de mallas 200 (75 micras) y 250 (58 micras) h) Empacado: se empaca la harina de maracuyá en las bolsas de plástico multiflex, se procede a sellarse y rotularse. i) Almacenamiento: el almacenamiento debe ser en un lugar seco, a una temperatura no mayor de 25° C. Evitando la humedad para mejor conserva de la harina y alargar su vida útil. En la figura 1, se presenta el diagrama de flujo del proceso productivo para la obtención de las harinas a partir de cascaras de maracuyá. Figura 1. Diagrama de flujo del proceso productivo a partir de cascaras de cítricos Fuente: Elaboración propia. Análisis fisicoquímicos, microbiológicos y sensoriales de las harinas obtenidas de cascara de cítricos Los análisis de alimentos son un soporte indispensable para evitar disconformidades en los productos, así como para garantizar la inocuidad y el cumplimiento de estándares de calidad. Los tipos de análisis ALMACENAMIENTO Temperatura ambiente <25° C. EMPACADO Bolsas de empacado TAMIZADO Malla 75, partículas de 200 micras. Malla 250, partículas de 58 micras MOLIENDA Las cáscaras se muelen en un molino convencional para reducir el tamaño y luego pasan al molino pulverizador Se ingresan al horno a una temperatura entre 50° C, por 24 DESHIDRATACIÓN ESCURRIDO ACONDICIONAMIENTO DE LAS CASCARAS DE FRUTAS Corte de las cáscaras de las frutas en trozos LIMPIEZA Y DESINFECCIÓN Lavado de los residuos frutales (Cáscara) con solución de hipoclorito a 5 ppm RECEPECIÓN DE RESIDUOS DE LAS FRUTAS realizados a las harinas de cascara de cítricos se analizaron individualmente arrojando los siguientes resultados: Análisis fisicoquímicos Los análisis fisicoquímicos realizados a la harina de cascara de maracuyá fueron en base a los exigidos por la normatividad NTC 267 para productos similares. Además, se realizaron análisis de tipo bromatológicos, los cuales contribuyen para determinar su composición en cuanto a nutrientes. Los análisis fisicoquímicos realizados a las harinas se muestran a continuación en las siguientes tablas. En la tabla 1, se analizan las características de la harina en donde se observa que la harina de cascara de maracuyá presenta un alto valor de proteína con el 48,68 %, seguido de una baja humedad con el 4,81 % y un porcentaje de materia seca del 95,19 %. Tabla 1. Resultados fisicoquímicos de la harina de cáscara de maracuyá. Análisis Norma de Análisis Método Referencia de Conformidad (NTC 267) Resultados (%) Grasa ntc 6240 Soxhlet 3,09 Humedad ntc6375 gravimétrico Máx. 14,5 % 4,81 Cenizas ntc3806 gravimétrico 5,16 Fibra cruda ntc 5122 hidrolisis acida/básica 48,68 Materia seca ntc 6375 gravimétrico 95,19 Fuente. Autores, 2020 Análisis microbiológicos Lo resultados microbiológicos arrojaron que la muestra de harina de cascara de maracuyá se encontraba con bajos niveles de mesófilos y mohos y ausencia de Escherichia coli, Salmonella, Bacillus Cereus, todos estos valores dentro de los rangos permitidos por la NTC 267. Tabla 2. Resultados microbiológicos de la harina de cascara de maracuyá Análisis Norma de Análisis Método Unidad de Medida Valor Limite Resultado Recuento de microorganismos Mesófilos NTC 4519 Por placa Ufc/g 200000 UFC 70 UFC/g Determinación de Escherichia coli NTC 4458 Por placa Ufc/g 10 UFC 0 UFC/g Determinación de Salmonella NTC 4574 Por placa AUSENTE Ausencia Ausencia en 25g Mohos y Levaduras NTC 4779 Por placa Ufc/g 3000 UFC 300 UFC/g Recuento Bacillus Cereus NTC 4679 Por placa Ufc/g 500 ufc Ausente Fuente. Autores, 2020 Características sensoriales u organolépticas Los parámetros organolépticos son importantes para la evaluación de un producto alimenticio, ya que estos definen la aceptabilidad del consumidor y su uso en la elaboración de otros productos alimenticios. De acuerdo con esto, se evaluó en las harinas de cáscara de maracuyá propiedades como el sabor, el color, el olor, entre otras. Los parámetros organolépticos se muestran a continuación en la tabla 3. En donde se observa que el color de la harina es proporcional al color de la cascara, en este sentido la harina de cascara de maracuyá su color se encuentra en amarrillo o café claro, en cuanto al olor es característico a la fruta y el sabor fue ligeramente amargo y acido. Tabla 3. Características sensoriales u organolépticas de la harina de cáscara de maracuyá Característica sensorial u organoléptica Descripción Color Ligeramente amarillo o café claro Olor Característico Sabor Característico Consistencia Solida en polvo Fuente. Autores, 2020 Formulación y estandarización para la elaboración de un embutido tipo butifarra A continuación, se describirá el proceso para la formulación y estandarización de un prototipo alimentarios del área de embutidos cárnicos utilizando como aditivo alimentario la harina de la cáscara de maracuyá como extensor en la elaboración de butifarras. Para la elaboración del embutido se tuvieron en cuenta los ingredientes utilizados en la elaboración del producto, así como el extensor utilizado, que para este caso era la harina de trigo. Además, se tuvieron en cuenta las propiedades y componentes de la cáscara de maracuyá; se realizó la formulación teniendo en cuenta el método de tanteo, variando inicialmente el contenido del extensor tradicional por la harina a partir de la cáscara de maracuyá. Se estudiaron tres factores, los cuales se determinaron de acuerdo con las variables que mayor influencia podían tener en las especificaciones que debe cumplir el producto de acuerdo con lo establecido en la NTC 1325. Estas son: temperatura de cuteado, temperatura de escaldado, % de harina de maracuyá (extensor). Los valores empleados se presentan en la tabla 4. Tabla 4. Factores de estudio de la Butifarra FACTOR A (temperatura de cuteado °C) FACTOR B (temperatura de escaldado °C) FACTOR C (harina de maracuyá %) (A1) 4 (B1) 75 (C1) 1,05 (A2) 6 (B2) 80 (C2) 1,47 (A3) 8 (B3) 85 (C3) 2,10 Fuente. Autores, 2020 Para determinar el tratamiento adecuado que se aplicará a la butifarra, se realizaron 6 pruebas, resultantes de la combinación de factores de estudio. Los tratamientos se detallan a continuación en la tabla 5, en donde los rangos de temperatura de cuteado, escaldado y porcentajes de harina de cascara de maracuyá que se desarrollaron en la parte experimental de los prototipos realizados. Tabla 5. Factores de estudio de la Butifarra Tratamiento temperatura de cuteado (°C) temperatura de escaldado (°C) Harina de maracuyá (%) Grado de aceptabilidad (%) T1 4 75 1,05 73 T2 4 75 1,47 81 T3 6 80 2,10 84 T4 6 80 1,47 89 T5 8 85 2,10 78 T6 8 85 1,05 72 Fuente. Autores, 2020 Posteriormente después de efectuadas las anteriores pruebas, según las características obtenidas en los prototipos elaborados se eligieron tres formulaciones que se caracterizaron por tener un mejor comportamiento al ser mezclados obteniendo mejores aspectos en cuanto a textura, color, olor y sabor. Estas formulaciones se sometieron a un análisis sensorial para determinar el grado de aceptabilidad y los mecanismos de control necesarios para el control del proceso. Tabla 6. Ingredientes para la elaboración de butifarras. Ingredientes Formulación 1 Formulación 2 Formulación3 Carne de res 77,70 % 77,70 % 77,70 % Hielo 6,60 % 6,60 % 6,60 % Ajo 2,05 % 2,05 % 2,05 % Cebolla roja 4,55 % 4,55 % 4,55 % Comino 0,10 % 0,10 % 0,10 % Harina de maracuyá 1,05 % 1,47 % 2,10 % Harina de trigo 1,05 % 0,63 % 0,00 % Pimentón 2,40 % 2,40 % 2,40 % Pimienta Picante 0,10 % 0,10 % 0,10 % Polifosfato 0,09 % 0,09 % 0,09 % Sabor butifarra 1,14 % 1,14 % 1,14 % Sal 1,00 % 1,00 % 1,00 % Lactato de sodio 1,00 % 1,00 % 1,00 % Acido ascórbico 0,05 % 0,05 % 0,05 % Tripas 1,12 % 1,12 % 1,12 % Total 100 % 100 % 100 % Fuente. Autores, 2020 Estas formulaciones se evaluaron fisicoquímica y microbiológicamente, determinándose como se analiza en la tabla 7, que la formulación 3 es la que contiene el valor más alto de proteína con el 20,20 % y una fibra de 0,97 %, bajo porcentaje de grasa con el 1,15 % Tabla 7. Resultados fisicoquímicos de las formulaciones de butifarras elaboradas. Informe de Resultados Fisicoquímicos Parámetro Formulación 1 Formulación 2 Formulación 3 Humedad 71,57 % 70,44 % 71,29 % Proteína 13,30 % 17,90 % 20,20 % Materia Seca 28,43 % 29,56 % 28,71 % Fibra 0,62 % 0,57 % 0,97 % Grasa 1,43 % 1,19 % 1,15 % Minerales 2,96 % 2,72 % 2,53 % Fuente. Autores, 2020 En cuanto a lo microbiológico en la tabla 8, se muestra que el embutido se encuentra libre de esporas, E. coli, Staphylococcus y Salmonella cumpliendo con los aspectos normativos. Tabla 8. Resultados microbiológicos de la harina de cascara de maracuyá Informe de Resultados Microbiológicos n M M C Resultad os Recuento de Esporas Clostridium Sulfito Reductor UFC/g 3 102 300 1 0 Recuento de E. Coli UFC/g 3 102 400 1 0 Recuento de Staphylococcus Aureus Coagulasa Positiva, UFC/g 3 102 300 1 0 Detección de Salmonella 25g 3 ausenci a - - ausente Fuente. Autores, 2020 Resultados del panel sensorial Las tres formulaciones establecidas en el diseño experimental seleccionadas para las pruebas piloto fueron sometidas a un análisis sensorial a través de la prueba de preferencia de escala hedónica de cinco puntos. Los resultados estadísticos arrojados, se analizaron por medio de un análisis de varianza (ANOVA), donde se consideró un valor del 5%. Se establece que los valores de Relación F calculados deben ser superiores a los valores Relación F tabulados. Dado que el valor Relación F calculado para los tratamientos es de 12,53 y es superior al valor Relación F tabulado que es 3.328, se encontró una diferencia significativa entre los tratamientos. Por otro lado, el valor Relación F calculado para los panelistas fue de 2,00 siendo mayor a Relación F tabulado que fue de 1,731, se llega a la conclusión que existe una diferencia significativa (p≤0,05), entre los tratamientos y los panelistas. Tabla 9. Resultados estadísticos de varianza ANOVA del panel sensorial Relación F Fuente De Variación GL SC CM Calculada Tabulada (p≤0,05) Total (T) 74 51,95 Tratamiento (Tr) 2 10,75 5,37 12,53 3,328 Panelista (P) 24 20,61 0,86 2 1,731 Error € 48 20,59 0,43 Fuente. Autores, 2020 Se analizaron los tratamientos y hubo diferencias significativas en el grado de aceptabilidad en cada formulación la cual fue de: Nº 1 con 69%, Nº 2 con 86,0 % y la Nº3 con 84,0 %. Se precisó que la formulación con mayor aceptación fue la formulación Nº2, la cual contiene resultados bromatológicos de la butifarra de 17,9 % de proteínas, 1,19 % de grasa, 1,85 % de minerales, humedad 70,56 %, fibra 0,57 %, además, estos resultados obtenidos cumplen con los establecido en la NTC 1325. CONCLUSIONES Se logró obtener una harina a partir de la cascara de maracuyá que puede ser utilizada como aditivo o insumo para la industria de alimentos. Se determinaron las tecnologías y mecanismos de control necesarios, así como también se estandarizo el proceso de obtención para la harina a partir de la cáscara de maracuyá. Se identificó que es viable la utilización de la harina de cascara de maracuyá como extensor en la elaboración de un embutido tipo butifarra, determinando su uso como aditivo en la industria de alimento. Se recomienda continuar el estudio sobre el uso tecnológico de las harinas a partir de la cáscara de maracuyá. RECONOCIMIENTO Reconocimiento al Centro para el Desarrollo Agroecológico y Agroindustrial, Centro de Comercio y Servicios, SENA, Regional Atlántico, por su colaboración en el uso de recursos tecnológicos disponibles y la asistencia técnica recibida de sus recursos humanos, a la empresa TANGO JUICE S.A.S por su colaboración en la caracterización de harina a partir de las cáscaras de maracuyá, su aporte fue vital para el logro de los objetivos propuestos en el proyecto de investigación. A los instructores y aprendices que de una u otra forma participaron otorgando su destreza y conocimiento para el desarrollo de este proyecto. REFERENCIAS BIBLIOGRAFICAS. 1. ASOHOFRUCOL, 2018. Comportamiento del Mercado Nacional e Internacional de Cítricos Frescos. Recuperado de http://www.asohofrucol.com.co/archivos/biblioteca/CongresoInternacionalCitricola/Comport amiento_Me rcado_Nacional_Internacional_c%C3%ADtricos_frescos.pdf 2. AGRONET. Cultivo de maracuyá (2017). Recuperado de http://www.agronet.gov.co/Documents/21- MARACUYA_2017.pdf 3. CURY R, K., AGUAS M, Y., MARTINEZ M, A., OLIVERO V, R., & CHAMS CH, L. (2017). Residuos agroindustriales su impacto, manejo y aprovechamiento. Revista Colombiana De Ciencia Animal - RECIA, 9(S1), 122-132. https://doi.org/10.24188/recia.v9.nS.2017.530 4. YEPES SANDRA MILENA; MONTOYA NARANJO, LINA JOHANA; OROZCO SÁNCHEZ, FERNANDO. Valorización de residuos agroindustriales - frutas - en medellín y el sur del Valle del Aburrá, Colombia Revista Facultad Nacional De Agronomía - Medellín, Vol. 61, Núm. 1, Junio, 2008, Pp. 4422-4431 Recuperado De : Http://Www.Redalyc.Org/Articulo.Oa?Id=179914077018 5. PEÑARANDA-GONZALEZ, L., MONTENEGRO-GÓMEZ S. & PAULA GIRALDO,A. (2017) Aprovechamiento De Residuos Agroindustriales En Colombia Vol. 8, Núm. 2 Recuperado De: Http://Hemeroteca.Unad.Edu.Co/Index.Php/Riaa/Article/View/2040/2251 6. GUTIÉRREZ, D; NAVARRO, J. (2017). Implementación De Alternativa De Aprovechamiento De Residuos Sólidos Orgánicos Mediante El Proceso De Pirolisis Lenta Para La Obtención De Materiales De Uso Agrícola. Universidad De La Salle. Facultad De Ingeniería. Bogotá. Recuperado De: Http://Repository.Lasalle.Edu.Co/Bitstream/Handle/10185/20502/41121048_2017.Pdf?Sequence=1 &Isal lowed=Y 7. GUERRERO ELKIN, NOVA JULIO. Evaluación de las propiedades texturales y funcionales de una emulsión cárnica empleando mezclas de harina de arroz (Oryza sativa) partido y almidon de yuca (Manihot esculenta). Universidad de Córdoba, 2016. Recuperado de https://repositorio.unicordoba.edu.co/bitstream/handle/ucordoba/1025/ELKIN%20GUERRERO%20 Y%2 0JULIO%20NOVOA.pdf?sequence=1&isAllowed=y 8. MARTÍNEZ, E., NAVARRO, A., VERA,O. & ÁVILA, R. (2017). Caracterización Fisicoquímica De Desechos De Naranja (Citrus Sinensis) Y Lechuga (Lactuca Sativa). Revista De Energía Química Y Física. Puebla. Recuperado De Http://Www.Ecorfan.Org/Bolivia/Researchjournals/Energia_Quimica_Y_Fisica/Vol4num1 0/Revista_De_Energ%C3%Ada_Qu%C3%Admica_Y_F%C3%Adsica_V4_10_6.Pdf 9. ORDOÑEZ-GÓMEZ E.S.; REÁTEGUI DÍAZ D.; VILLANUEVA TIBURCIO J.E. (2018) Polifenoles Totales Y Capacidad Antioxidante En Cáscara Y Hojas De Doce Cítricos. Scientia Agropecuaria 9(1): 113 – 121 Recuperado De: Http://Www.Scielo.Org.Pe/Pdf/Agro/V9n1/A12v9n1.Pdf 10. GUEVARA GLADYS, VERDESOTO ALEXIS, CASTRO NELLY. Metodologías de investigación educativa (descriptivas, experimentales, participativas, y de investigación-acción). Revista Recimundo, Vol 4, N°3, 2020. Pag 163-173. Recuperado de: https://recimundo.com/index.php/es/article/view/860/1560#:~:text=Seg%C3%BAn%20Fidias%20Ar ias% 2C%20autor%20del,reacciones%20que%20se%20producen%20(variable. EVALUACIÓN DE LA PECTINA OBTENIDA DE LA CORTEZA DE CAMBUR EN UN DULCE TIPO MERMELADA Mitchell José Toyo Díaz1; Betsay María Toyo Fernández1; Carimer esparragoza1, Guido Riera González3 1Departamento de Química, Universidad Nacional Experimental “Francisco de Miranda” (UNEFM) Complejo Académico Los Perozo, 2do. Piso, variante sur sector Los Perozo, Teléfonos: (0268)- 2528643 – (0268)-2530038, Código postal 4101. Coro estado Falcón, Venezuela. 2Centro de Investigaciones Tecnológicas-Unidad de Procesos Agroindustriales. Universidad Nacional Experimental “Francisco de Miranda” (UNEFM). Intercomunal Coro La Vela. Detrás del Conscripto Militar, Teléfono (0268)- 2523931, Código postal 4101. Coro estado Falcón, Venezuela. 2Facultad de ingeniería química, Departamento de química Universidad Tecnológica de la Habana “José Antonio Echeverría”, La Habana, Cuba, Código Postal 11400. 1e-mail: mitjose@gmail.com; 1e-mail: btoyofernandez@gmail.com; 2e-mail: guido@quimica.cujae.edu.cu RESUMEN En la investigación, se extrajo pectina por hidrolisis ácida de la cáscara de cambur (Musa paradisiaca), con ácido clorhídrico concentrado experimentando: pH (2,2, 5 y 3), tiempo (45, 60 y 75 min) y temperatura (80, 85 y 90 ºC); como variable respuesta el rendimiento. El análisis de superficie de respuesta precisa (P<0,05), condiciones de extracción a una temperatura 85 ºC, pH 2 y tiempo 75 min para un rendimiento de pectina del 13,87 % con un contenido metoxilo de 12 %, por lo tanto, de gelificación rápida, el grado de esterificación fue de 89 %. Se elaboró una mermelada de piña con la pectina y se evaluó mediante un análisis sensorial y estadístico (ANOVA), reportando niveles altos de aceptabilidad y diferencias significativas en los atributos respecto al control. Se concluye que la pectina obtenida de la cáscara de cambur puede ser aplicada en mermeladas. PALABRAS CLAVES: desperdicio agrícola, efecto químico, producto vegetal, propiedad química alimento. PECTIN EXTRACTION FROM CAMBUR BARK AND ITS APPLICATION IN A JAM ABSTRACT In the investigation, pectin was extracted by acid hydrolysis of banana peel (Musa paradisiaca), with concentrated hydrochloric acid experimenting: pH (2,2, 5 and 3), time (45, 60 and 75 min) and temperature (80 85 and 90 °C); performance as a response variable. The precise response surface analysis (P<0.05), extraction conditions at a temperature of 85ºC, pH 2 and a time of 75 min for a pectin yield of 13,87 % with a methoxyl content of 12 %, therefore, fast gelling, the degree of esterification was 89 %. A pineapple jam with pectin was made and evaluated by sensory and statistical analysis (ANOVA), reporting high levels of acceptability and significant differences in attributes compared to the control. It is concluded that the pectin obtained from banana peel can be applied in jams. KEY WORDS: agricultural waste, chemical effect, plant product, chemical property, food. 1. INTRODUCCIÓN La pectina, son sustancias que se obtienen de las plantas, fundamentalmente de sus frutos. Está formada por una mezcla compleja de polisacáridos estructurales, donde su componente medular es el ácido galacturónico, el cual es uno de los principales constituyentes de la pared celular de tejidos vegetales parenquimatosos [1]. Entre las fuentes de producción ésta sustancia están las cáscaras de manzana y los cítricos, la principal fuente comercial (10-15 % y 20-30 % peso en base seca, respectivamente) [2], sin embargo, se han explorado nuevos soportes alternos como residuos industriales como los provenientes del procesamiento de papaya, mango, melocotón, girasol, café, cacao y plátano [3;1]. La pectina, es un aditivo de gran aplicación en industria de alimentos, por sus propiedades gelificantes en la producción de gelatinas, mermeladas, jaleas, productos lácteos bajos en grasa, etc., espesantes, estabilizante de emulsiones y suspensiones, en helados y postres fríos, en soluciones para recubrir salchichas y carnes enlatadas, etc.; como agente espesante en bebidas, finalmente bocadillos, dulces, galletas, gomitas, entre otros [1; 4]. El requerimiento de pectinas en el mundo está en constante incremento, sobrepasando las 20,000 toneladas por año [4]. La exigencia de tal insumo en la industria alimentaria, hace que la búsqueda de materia primas alternativas y rentables, sea una tarea incesante para la ciencia, particularmente en aquellos países con elevado consumo y altos niveles de importación de este producto, de allí la imperiosa necesidad de evaluar recursos vegetales residuales no tradicionales generados del consumo comercial. En la actualidad, se evidencia el interés en el estudio de residuos vegetales con miras a su aprovechamiento para la generación de productos de interés económico y social. Esto se debe a su composición química variada, ya que son una fuente importante de sustancias que pueden ser utilizadas debido a sus propiedades favorables, tecnológica o nutricionalmente, para su conversión o extracción de un producto útil de mayor valor agregado que además de solucionar un problema, genere ingresos económicos adicionales [5] (Vargas y Pérez, 2018). En este sentido, variadas son las investigaciones que evidencian, la viabilidad en la extracción de pectina aplicando hidrólisis ácida a cortezas residuales, obteniéndose rendimientos y calidad aceptable [6;7;8]. El cambur, es un fruto básico en la alimentación humana, debido a rico sabor, disponibilidad y bajo costo, su consumo normalmente se centra en la pulpa del fruto fresco cuando ha alcanzado un nivel de maduración o mediante su procesamiento para obtener productos alimenticios, en ambos casos, queda la cáscara como un residuo [9]. Sin embargo, es posible la utilización de la cáscara de este fruto como soporte para la extracción de pectina, considerándolo como una vía alternativa a las ya existentes, a la vez que favorece el aprovechamiento de este residuo con la minimización de contaminación. En evidencia de la potencialidad de las cáscaras de frutos, se planteó una investigación con el objetivo de extraer pectina a partir de cáscara de cambur (Musa paradisiaca) y aplicarlo en la producción de una mermelada 2. MATERIALES Y MÉTODOS Materia prima Se emplearon frutos de cambur, provenientes de población San Luis, municipio Bolívar, estado Falcón, Venezuela. La cáscara, se tomó a partir de 30 kilogramos de cambur frescos agrupados en racimos, en su estado de madurez de consumo, de color amarillo uniforme, buen estado físico y sin daños biológicos (sin hongos ni descomposición). Preparación del material Los frutos se lavaron con agua y se desinfectaron con agua clorada, se separó la cáscara de la pulpa interior cortándose la cáscara a trozos de tamaño de 2 a 5 cm. Para prevenir el pardeamiento enzimático, se realizó un tratamiento de escaldado de la corteza con solución de ácido cítrico (5% m/v) a temperatura ambiente por 30 minutos. Posteriormente, se escurrieron, molieron y secaron a temperatura de 60ºC por un tiempo de 24 horas hasta humedad del 10%. Luego se pulverizó y se almacenó en bolsas herméticas [9; 10; 3]. Caracterización de la materia prima Las cáscaras de cambur en su estado inicial se analizaron en base a metodologías normalizadas determinando los siguientes parámetros fisicoquímicos por triplicado: Humedad [11], Sólidos totales [12], pH [13], Proteína cruda [14], Extracto etéreo [15], Azúcares totales [16], Azucares Solubles [17] y Cenizas totales [18]. Extracción de pectina por hidrólisis ácida y diseño de experimentos En un beaker de 500mL, se colocaron 30g de la cáscara de cambur pre-tratada y seca, se le adicionó 200mL de agua destilada y se agitó. La extracción, se experimentó con referencia a los siguientes factores y niveles: temperatura (45; 60; 75 °C), tiempos (80, 85, 90 min) y pH (2; 2,5 y 3) para lo cual se utilizó ácido clorhídrico concentrado. La mezcla experimental se agitó constantemente durante la hidrólisis y al terminar el tiempo, se filtró el residuo con un liencillo y el líquido obtenido se enfrió a temperatura ambiente. Al líquido, se le adicionó etanol absoluto en proporción 1:1,5 y agitó constantemente, dejando en reposo por 12 horas para precipitar la pectina como un sólido gelatinoso, se filtró nuevamente. El producto se secó en una estufa a una temperatura de 60ºC. Finalmente, se realizó la molienda de la pectina hasta un fino polvo [4; 19; 3]. Con los factores condicionantes de la hidrolisis, se realizó un diseño experimental aleatorio, cada uno con tres niveles, lo cual permitió un arreglo factorial 33 que determinaron 54 ensayos al realizarse en dos bloques. Como variable respuesta se estableció el rendimiento de pectina extraída. Caracterización de la pectina La calidad de la pectina extraída, se determinó a partir indicadores de pureza y propiedades gelificantes tales como: Contenido metóxilo, Ácido galacturónico y Grado de esterificación aplicando método titulométrico [20], tales parámetros definen el buen desempeño del extracto en la elaboración de productos [3]. Elaboración de mermelada con la pectina extraída En este producto, se concentra la fruta mezclada con azúcar hasta un 65 % de azúcar que corresponde a un contenido de sólidos solubles de 68 °Brix [21]. Se empleó la piña como fruto saborizante, la cual se escogió, lavo con agua, se le removió la corteza y se procesó la pulpa en trozos pequeños, se obtuvo 600 g. Se aplicó cocción y a la temperatura de 40 ºC se agregó 300 g de azúcar, 2,45 g de la pectina extraída y 3,54 g de ácido cítrico. Al trascurrir 18 minutos y al alcanzar 100 ºC se adiciona nuevamente 300 g de azúcar de modo controlado que el nivel de sólidos solubles no exceda los 65 ºBrix. Finalizado el proceso, el producto terminado se envasó en un recipiente esterilizado de 250 g y se conservó bajo refrigeración [22; 23]. Análisis sensorial de la mermelada El análisis sensorial, se realizó en base a los atributos color, olor, textura y sabor, aplicando la metodología de comparación referida en estudios similares [24]. Se fundamenta en la determinación de diferencia entre un producto comercial (control) y el elaborado con la pectina extraída de la corteza de cambur. La evaluación se realizó por 20 jueces no entrenados, mediante un instrumento con una escala verbal - hedónica de cinco puntos, se valoró la opinión del juez degustador con referencia a la siguiente descripción: me gusta mucho (5), me gusta (4), me gusta poco (3), me es indiferente (2) y me desagrada (1). Esto con la finalidad de determinar el grado de aceptación o rechazo de las muestras de mermeladas y seleccionar la de mayor agrado. Análisis estadístico Los resultados de la extracción de la pectina, se procesaron estadísticamente (ANOVA), para determinar la significancia de los factores experimentales y sus niveles. Por otra parte, las calificaciones de los jueces en el análisis sensorial de la mermelada control y la elaborada con la pectina extraída, se evaluaron utilizando el análisis de varianza de una vía para determinar si existían diferencias significativas entre los promedios de las calificaciones asignados a cada muestra. Se empleó el paquete estadístico Statgraphic Centurión XV, versión 15.2.06. 3. RESULTADOS Y DISCUSION Caracterización fisicoquímica de la cáscara de cambur En la tabla 3, se presentan los resultados de la caracterización fisicoquímica y se comparan con otros soportes utilizados con el mismo propósito. Tabla 3: Características fisicoquímicas de la materia prima y comparación Referencia comparativa Parámetros Cáscara de Cambur Cáscara de Mango[ 8] Cáscara de Naranja[ 25] Cáscara de Cacao[ 7] Bagazo de sábila[ 4] Humedad (%) 89,8±0,4 80,00±2,0 85,9 ± 1,6 8,17±0,52 5,926 ± 0,868 pH 4,8±0,3 - 3,93 ± 0,03 - 6,438 ± 0,0104 Proteína cruda (%) 4,3±0,5 0,50±0,1 6,16 ± 0,23 4,59±0,52 0,701 ± 0,0150 Extracto etéreo (%) 5,5±0,3 0,14±0,1 1,55 ± 0,17 0,60±064 - Azúcares totales (%) 12,7±0,2 9,33±1,53 3,8 ± 0,3 45,52 - Azúcares Solubles (°Brix) 5,5±0,08 - 7,1 ± 1,2 - - Cenizas totales (%) 13,46±0,07 9,17±0,76 3,29 ± 0,19 8,59±0,07 4,918 ± 1,565 Nota: (-) No reportado por los autores El contenido de humedad en la cáscara de cambur es alto, respecto a los demás materiales referenciados, a causa de la humedad natural de la muestra. Una humedad inferior al 10% previene el deterioro del material por actividad enzimática y microbiológica [26]. El pH es ácido y el resultado es mayor al reportado en la cáscara de naranja, pero menor al del bagazo de sábila. El mismo es atribuible a los ácidos galaturónicos, unidad básica de todas las sustancias pécticas [21]. La proteína cruda, se obtiene en el intervalo de los materiales referenciados, indicando su valor nutritivo como fuente de alimentación [27]. El extracto etéreo, es alto respecto a los citados. Referencias sobre la obtención de pectina, no señalan ningún efecto de la fracción lipídica en su extracción. El contenido de azúcares totales, es superior al reportado en las referencias a excepción de la cáscara de cacao. Este parámetro es un indicativo de los hidratos de carbono que se pueden relacionar indirectamente con la pectina y otros polisacáridos complejos [28]. El contenido de sólidos solubles, es menor al existente en la cáscara de naranja, los demás soportes no reportan resultados. Este parámetro, expresa la calidad del material para la extracción de pectina según el nivel de maduración. Este parámetro aumenta con la madurez del fruto y la pectina muestra degradación, disminuyendo el rendimiento, por lo tanto, los valores más bajos corresponden a frutos verdes incrementando la extracción de pectina [2]. La ceniza representa el contenido de minerales contenido en el soporte, el cual es absorbido por el mismo como nutriente del terreno donde se haya cultivado esta planta [29]. El resultado, obtenido es superior a los determinados en materiales utilizados para los mismos fines extractivos. Las cenizas, pueden afectar la capacidad de esta sustancia para gelificarse [30]. Los resultados del análisis fisicoquímico de la cáscara de cambur, dejan en evidencia que es un soporte con condiciones adecuadas para ser utilizado para obtener pectina. Obtención de pectinas mediante hidrolisis ácida El análisis estadístico de los resultados ANOVA (tabla 4) determinó con un nivel de confianza del 95 %, que la temperatura, el pH, el tiempo y las interacciones de pH y pH- tiempo tienen valor p<0,05, por lo tanto, son significativos. Tabla 4: Análisis de varianza (ANOVA) para la extracción de pectina de la cáscara de cambur Fuente Suma de Cuadrados Gl Cuadrado Medio Razón-F Valor-P A:pH 107,744 1 107,744 225,39 0,0000 B:Tiempo 8,132 1 8,132 17,01 0,0002 C:Temperatura 213,793 1 213,793 447,23 0,0000 AA 2,19593 1 2,19593 4,59 0,0373 AB 4,36054 1 4,36054 9,12 0,0041 Bloques 0,0000907407 1 0,0000907407 0,00 0,9891 Error total 22,4677 47 0,478036 Total (corr.) 358,694 53 R-cuadrada (%) 93,7363 Estadístico Durbin-Watson 2,48329 (P=0,9301) En la figura 1, se observa con referencia a la temperatura de 85ºC (p<0,05), un rendimiento mínimo de 10,37 % a pH 3 y t= 45 min y máximo de 13,87 % a pH 2 y t= 75 min. Con base a estos resultados, se determina mayor rendimiento al aplicar pH más bajos y mayores tiempos en la hidrólisis. Este comportamiento concuerda con el reportado en estudios similares [8]. En el gráfico de efectos de los factores (Figura 2) se muestra, que la temperatura y pH tienen mayor incidencia en la variable respuesta, en tanto, el tiempo, es ligeramente significativo. Asimismo, se aprecia un máximo rendimiento promedio a estas condiciones en un 13,87 %. Figura 1: Rendimientos de pectina a diferentes pH, tiempos y temperatura de 80ºC. Figura 2: Efectos de los factores en la hidrolisis de la cascara de cambur Figura 2: Efecto de los factores estudiados en el rendimiento. El gráfico de la superficie de respuesta (Figura 3), indica las condiciones que maximizan el rendimiento de pectina. El vértice de la malla muestra su mayor inclinación en el eje de rendimiento para un 13,87% a una temperatura de 85ºC, pH 2 y 75 minutos, representando las mejores condiciones de extracción. El vértice inferior, está cercano a un tiempo de 45 min y pH=3 refiriendo un rendimiento de 10,37%. Se observa un ligero efecto del tiempo a pH= 3, en tanto, el rendimiento en función del pH, muestra una pendiente inclinada, lo que indica su influencia en la extracción. pH 2 2,5 3 Tiempo (min) 45 60 75 45 60 75 45 60 75 2,0 Tiempo 75,0 90,0 Re nd im ei nt o (% ) Gráfica de Efectos Principales para Rendimiento 9 10 11 12 13 14 pH 3,0 45,0 Temperatura 80,0 (°C) (min) Tiempo (min) R e n d im ie n to p e c ti n a ( % ) Superficie de Respuesta Estimada Temperatura=85,0 2 2,2 2,4 2,6 2,8 3 pH 45 50 55 60 65 70 75 10 11 12 13 14 15 Figura 3: Superficie de respuesta del rendimiento de pectina en la hidrolisis (T=85ºC) Evaluación del rendimiento y calidad de la pectina obtenida La Tabla 5, reporta los rendimientos y las características fisicoquímicas de la pectina, comparándose con resultados de investigaciones similares. Tabla 5: Rendimientos de la pectina extraída, parámetros de calidad y comparación reportadas en investigaciones Resultados Referencia comparativa Rendimiento de pectina de : Parámetros Cáscara de cambur Cáscara de mango[8] Cáscara de naranja[25] Cáscara de cacao [31] Bagazo de sábila [4] Food Chemicals Codex [32] Rendimiento (%) 13,87±0,11 11 49,7 23,04 11,45 - Contenido metóxilo (%) 12±3 5.75 1,80 2,89 14,88 <6,70 Ácido galacturonico (%) 79±3 - 37,11 78,19 68,64 < 65 Grado de esterificación (%) 89,02±0,01 63.00 72,43 63,45 61,43 81,5 Nota: – No reportado por los autores El rendimiento de pectina de la cáscara de cambur, es inferior al obtenido en cáscara de naranja y cáscara de cacao, pero es mayor al reportado en la cáscara de mango y del bagazo de sábila. Las diferencias, obedecen a la naturaleza de cada soporte vegetal, nivel de maduración, grado de subdivisión de la materia, pretratamientos del material, condiciones operacionales de extracción. Las propiedades fisicoquímicas de las pectinas, se relacionan con la función como agente espesante en alimentos [33]. El contenido de metóxilo, el logrado en la pectina obtenida de la corteza de cambur supera el presentado en los materiales referenciados a excepción del bagazo de sábila, en tal sentido, se clasifican como pectina de alto metóxilo. Según investigaciones afines [34], las pectinas con un contenido de metóxilo en un intervalo de 7 a 12 %, es soluble en iones calcio y puede gelificar en presencia de azúcares y ácidos en condiciones que pueden requerir de 60-65 % de sólidos solubles (azúcar) y 2,7-3,2 de pH. El contenido de ácido galacturónico en la pectina extraída de la cáscara de cambur es alto comparado al de la cáscara de naranja y referencia estándar, pero similar al de la cáscara de cacao. De acuerdo a estos resultados, la pectina presenta mayor pureza y gelificación rápida. De acuerdo a estudios referenciados Según Pagán (1995) [35], a mayor contenido de ácido galacturónico en la pectina, mayor pureza presenta. El grado de esterificación de la pectina, es mayor en comparación a las referenciadas. Por lo que, a mayor grado de esterificación, la pectina será soluble en agua y mostrará una gelificación rápida [19]. Este parámetro, es un indicador de predicción de la fuerza y el tipo de gel, además que a mayor grado de esterificación mayor serán las interacciones hidrofóbicas y el gel será más fuerte. Caracterización sensorial de la mermelada elaborada Para determinar la calidad de la pectina desde una óptica sensorial, se elaboró una mermelada saborizada con piña y se comparó con un producto comercial similar (control), evaluando con panel no entrenado de personas la aceptabilidad o rechazo, según los atributos sensoriales, color, olor, sabor y textura. A continuación, se presentan los resultados (Figura 4). Figura 4: Diagrama de caja y bigote de los resultados comparativos en la evaluación sensorial. Nota: MC= Mermelada control y MPE= Mermelada de pectina extraída, Escala de valoración: 5=me gusta mucho, 4=me gusta, 4=me gusta poco, 2=me es indiferente, 1=no me gusta En la figura 4 se observa que la mermelada elaborada con la pectina extraída, se destaca con las mayores puntuaciones 4, 5 y extendiéndose hasta 3 un calificativo intermedio de agrado, lo que indica mayor aceptación de este producto. En tanto, la mermelada comercial, obtiene puntuaciones moderadas (4, 3) y bajas (2, 1), lo que evidencia una aceptación de intermedia a baja y rechazo. De los atributos evaluados la textura de la mermelada control, reportó la valoración más baja, esto puede estar relacionado a su baja compactación a causa de la baja gelificación de la pectina utilizada. De acuerdo a los valores obtenidos de la prueba sensorial, se realizó un análisis de varianza ANOVA de múltiple factor, siendo los factores los tipos de mermeladas (control y elaborada) y los resultados de la opinión emitida por los jueces, para determinar cuáles de estos factores mostraban diferencias. En la tabla 16, se muestran los resultados. El análisis de varianza (ANOVA) descompone la varianza de los resultados en dos componentes: un componente entre-grupos y un componente dentro-de-grupos (Tabla 6). La razón-F, que en este caso es igual a 13,5518, es el cociente entre el estimado entre-grupos y el estimado dentro-de-grupos. Puesto que el valor-P de la prueba-F es menor que 0,05, existe una diferencia estadísticamente significativa entre la media de la opinión resultante de cada panelista entre un nivel del atributo sensorial y otro, con un nivel del 95,0 % de confianza para cada producto degustado. Tabla 8: Resultados del análisis de varianza (ANOVA) de la evaluación sensorial de la mermelada elaborada con la pectina extraída de la corteza de cambur Fuente Suma de Cuadrados Gl Cuadrado Medio Razón- F Valor-P Entre grupos 86,375 7 12,3393 13,55 0,0000 Intra grupos 138,4 152 0,910526 Total (Corr.) 224,775 159 En síntesis, con base a los resultados emitidos por el panel evaluador, se precisa que la pectina extraída de la corteza de cambur es apropiada para elaborar producto tipo mermelada, ya que cuenta con elevada aceptación de acuerdo a los atributos sensoriales referenciados. 4. CONCLUSIONES Las características fisicoquímicas de la cáscara de cambur muestran resultados comparables con otros soportes para la extracción de pectinas, por tal razón, es apropiado para obtener el gelificante. El rendimiento de la pectina logrado con la hidrolisis acida fue de 13,87 % aplicando una temperatura de 85ºC, pH igual a 2 y un tiempo de 75 min y su análisis reporta un contenido metoxilo de 12 %, por lo tanto, es de gelificación rápida. La prueba de desempeño de la pectina en la elaboración de una mermelada, evidencia un efecto positivo lo que resultó adecuado para mostrar firmeza en el producto tipo mermelada de piña, cuya evaluación sensorial reportó buena aceptación por el panel de evaluadores. AGRADECIMIENTO A la Universidad Nacional Experimental Francisco de Miranda y al Centro de Investigaciones Tecnológicas (CITEC); por apoyar la Investigación. REFERENCIAS 1. RAMOS, V.; AGUILERA, A. y OCHOA, E. “Residuos de cáscara de plátano (Musa paradisiaca L.) para obtener pectinas útiles en la industria alimentaria”. Simulación y Laboratorio. 2016. Vol 3, núm. 9, pp. 22 - 29. 2. CHAPARRO, S.; MÁRQUEZ, R.; SÁNCHEZ, J.; VARGAS, M. Y GIL, J. “Extracción de pectina del fruto del higo (Opuntia ficus indica) y su aplicación en un dulce de piña”. Actualidad & Divulgación Cientifica, 2015. Vol 18, núm. 2, pp. 435 – 443. 3. ZEGADA, V. “Extracción de pectina de residuos de cáscara de naranja por hidrólisis ácida asistida por microondas (HMO)”. Investigación & Desarrollo, 2015, vol 1, núm. 15, pp. 65- 76. 4. MORENO, M.; GUTIÉRREZ, J.; MÁRQUEZ, D. Y HEREDIA, N. “Evaluación del bagazo de sábila para la extracción de pectina a escala de laboratorio”. Cienciamatria, 2017, vol 3, núm. 5, pp.117 - 132. 5. VARGAS Y. Y PÉREZ L. “Aprovechamiento de residuos agroindustriales en el mejoramiento de la calidad del ambiente”. Revista Facultad de Ciencias Básicas, 2018, vol 14, núm. 1, pp. 59 - 72. 6. ÁVILA, E. “Extracción y caracterización de pectina a partir de residuos de cáscaras de piña (Ananas comosus) por el método de hidrólisis ácida”, Tesis de especialidad. Universidad Nacional Abierta y a Distancia, Acacias, 2019. 7. CASTILLO, E.; ÁLVAREZ, C. Y CONTRERAS, Y. “Caracterización fisicoquímica de la cáscara del fruto de un clon de cacao (Theobroma cacao l.) cosechados en Caucagua estado Miranda. Venezuela”. Revista de Investigación Universidad Pedagógica Experimental Libertador, 2018, vol 42, núm. 95, pp. 154-175. 8. FUSTAMANTE, Y. Y VALDERA, W. ” Extracción enzimática y caracterización de la pectina a partir de los residuos del mango (Mangifera indica); Lambayeque 2015”, Tesis de pregrado, Universidad Señor Sipan, Peru, 2019. 9. ARELLANES, A.; JARABA, Z.; MÁRMOL, G.; PÁEZ, G.; AIELLO, C. Y RINCÓN, M. “Obtención y caracterización de pectina de la cáscara del cambur manzano (Musa AAB)”. Revista Facultad de agronomía (LUZ), 2011, vol 28, núm. 4, pp. 523-539. 10. ARRÁZOLA, G.; ALVIS, A. Y MOGOLLÓN, C.. “Efecto del tratamiento de escaldado sobre la actividad enzimática de la polifenoloxidasa en dos variedades de batata (Ipomoea batatas Lam.)”. Revista colombiana de ciencias hortícolas, 2016, vol 10, núm. (1), pp. 80-88. 11. COMISIÓN VENEZOLANA DE NORMAS INDUSTRIALES. Alimentos. “Determinación de humedad”, (Norma 1156-79). SENCAMER, Venezuela, 1979. 12. COMISIÓN VENEZOLANA DE NORMAS INDUSTRIALES. Leche y sus derivados. Determinación de humedad/solidos totales (Norma 1945-82). SENCAMER, Venezuela. 1979. 13. COMISIÓN VENEZOLANA DE NORMAS INDUSTRIALES. Alimentos. Determinación del pH (Norma 1315-79). SENCAMER, Venezuela, 1979. 14. ASSOCIATION OFFICIAL ANALYTICAL CHEMIST. Official Methods of Analysis (AOAC- 2057). Determination of crude protein. Washingtong, EEUU. 1980. 15. COMISIÓN VENEZOLANA DE NORMAS INDUSTRIALES. ALIMENTOS. Determinación de extracto etéreo (Norma 11785-81). SENCAMER, Venezuela, 1981. 16. COMISIÓN VENEZOLANA DE NORMAS INDUSTRIALES. Jugos y néctares, Determinación de azúcares (Norma 1301-83). SENCAMER, Venezuela, 1983. 17. COMISIÓN VENEZOLANA DE NORMAS INDUSTRIALES. Frutos y productos derivados, Determinación de azucares solubles por refractometría (Norma 924-83). SENCAMER, Venezuela, 1983. 18. COMISIÓN VENEZOLANA DE NORMAS INDUSTRIALES.. Alimentos. Determinación de cenizas (Norma 1155-79). SENCAMER, Venezuela, 1979. 19. CÚRBELO, C.; MORENO, M.; RAMÍREZ, D. Y CRESPO, L. (2017). “Hidrólisis ácida del bagazo de Aloe vera (sábila) para la obtención de pectina”, Centro Azúcar, vol 44, núm. 2, pp. 18 - 26. 20. MENDOZA, L.; JIMÉNEZ, J. Y RAMÍREZ, M. “Evaluación de la pectina extraída enzimáticamente a partir de las cáscaras del fruto de cacao (Theobroma cacao l.)”. Actualidad & Divulgación Científica 2017, vol 20, núm. 1, pp.131 – 138. 21. RODRÍGUEZ, C. Y ZEPEDA, V. “Aprovechamiento de la cáscara de cacao (Theobroma Cacao L.): Extracción de pectina para elaboración de mermelada”, Tesis de pregrado, Universidad Dr. José Matías Delgado, El Salvador, 2016. 22. CEDEÑO, L. “Evaluación del uso de la pectina obtenida de la cáscara de cacao (Theobroma cacao L.) en la elaboración de mermelada”. Tesis de grado, Universidad Católica de Santiago de Guayaquil, Ecuador. 2019. 23. CHARLEY, H. “Tecnología de Alimentos: Procesos químicos y físicos en la preparación de alimentos”. Editorial Limusa. México, 2012. 24. SANCHO, J.; BOTA, E. Y DE CASTRO, J. “Introducción al análisis sensorial de los alimentos”. Editorial Alfa Omega, México, 2002. 25. CERÓN, I. Y CARDONA, C. “Evaluación del proceso integral para la obtención de aceite esencial y pectina a partir de la cáscara de naranja”. Ingeniería y Ciencia, 2011, vol 7 núm. 13, pp. 65-86. 26. PRESCOTT, L.; HARLEY, J. Y KLEIN, D. Microbiología. [Microbiology]. (4ta Edición). España, Mc Graw Hill Interamericana de España. 1999. 27SÁENZ, C.; BERGER, H.; CORRALES, G.; GALLETTI, L.; GARCÍA, V. E HIGUERA, I., “Utilización agroindustrial del nopal”. Boletín de Servicios Agrícolas de la FAO, 2006), núm. 162, pp. 35-46. 28. SAAVEDRA, L. “Uso integral del maracuyá (Passiflora edulis flavicarpa) en la extracción de pectina y formulación de mermeladas”. Tesis de pregrado. Universidad Central del Ecuador, 2015. 29. MORENO, M.; GUTIÉRREZ, J.; GUTIÉRREZ, B. Y SÁNCHEZ, P. “Formulación de un pegamento a base de dextrina y pectina obtenidas de residuos vegetales”. Avances en Química, (2020). Vol 15, núm. (1), pp. 13-22. 30. MIYAMOTO, A. Y CHANG, K. “Extraction and physicochemical characterization of pectin from sunflower head residues”. Journal of Food Science, 1992 vol 57, núm. 6, pp. 1439-1443. 31. COBENAS, S. Y GUERRERO J. “Caracterización de la pectina obtenida a partir de la cascara de cacao (Theobroma cacao L.) mediante variación del ácido y temperaturas”, Tesis de pregrado, Universidad Nacional de Tumbes. Tumbes, Perú. 2018. 32. FOOD CHEMICALS CODEX, FCC. Specifications for commercial pectins. 1931. 33. CHASQUIBOL, N.; ARROYO, E.; Y MORALES, J. “Extracción y caracterización de pectinas obtenidas a partir de frutos de la biodiversidad peruana”. Revista Ingeniería Industrial, 2008, núm. 26, pp. 175-199. 34. MORENO, M.; CRESPO, L. Y QUINTERO, M.. “Extracción de pectina de las vainas de Moringa oleifera y su aplicación en una mermelada”. Monteverdia, 2018, vol 11, núm. 2, pp.1-9. 35. PAGAN, J. “Degradación enzimática y características físicas y químicas de la pectina del bagazo de melocotón”. Tesis de doctorado, Universitat de Lleida. 1995. SOBRE LOS AUTORES Mitchell José Toyo Díaz, Ingeniero químico, Máster en análisis de procesos en la industria química, Especialista en Desarrollo de la Gestión Académica Universitaria. Profesor titular e investigador en la línea de alimentos, labora de la Universidad Nacional “Francisco de Miranda” (UNEFM), área de tecnología, departamento de química, investigador de la Unidad de Procesos Agroindustriales del Centro de Investigaciones tecnológicas (CITEC- UPAGRIN- UNEFM). Registrado en el Colegio de Ingenieros de Venezuela Nº 143-781. Investigador PEII. Nivel A1 Año 2013 y año 2015. Ministerio de educación superior ciencia y tecnología, Venezuela. Betsay María Toyo Fernández, Licenciada en educación integral, Ingeniero en procesos químicos, especialista en Desarrollo de la Gestión Académica Universitaria y maestrante en la Universidad Bolivariana de Venezuela en estudios de ciencias para el desarrollo estratégico, profesora asistente e investigador en el área de química aplicada al desarrollo estratégico, labora en la Universidad Nacional “Francisco de Miranda” (UNEFM), adscrita al consejo académico bolivariano estadal (CABE) con estudios municipalizados. Carimer Esparragoza. Ingeniero químico, asistente de laboratorio e investigador en la línea de alimentos labora en la Universidad Nacional “Francisco de Miranda” (UNEFM), área de investigación, adscrito a la Unidad de Procesos Agroindustriales del Centro de Investigaciones tecnológicas (CITEC- UPAGRIN- UNEFM). Guido Riera. es ingeniero químico de la Universidad tecnológica de la Habana “José Antonio Echeverría” (Cujae); es profesor de ingeniería química con 34 años de experiencia y Doctor de ciencias desde el año 1996. Se desempeña como jefe del grupo de investigación de ingeniería alimentaria 1 EMPLEO DEL CARBÓN ACTIVADO DE COCO DE PRODUCIÓN NACIONAL EN EL FILTRADO DE AGUARDIENTES Yen Alfonso Sosa1, Guido Riera González2, Anabel Frías Chirino2 1UEB Ronera Occidental 2Universidad tecnológica de la Habana (CUJAE), PUCV, 1e-mail: guido@quimica.cujae.edu.cu RESUMEN En este trabajo se estudiará el proceso de filtración en la elaboración de aguardiente producido en la ueb ronera occidental, donde se valorará el uso del carbón activado de coco cubano en esta operación. primeramente, se realiza un estudio del proceso de filtración industrial, determinándose las características del equipamiento y las condiciones operacionales, resaltando tiempo de residencia de 9,58 horas, tiempo en que demora obtener un litro de filtrado con un valor de 3 minutos, flujo volumétrico por unidad de área 0,05 (m3/m2h) y volumen de líquido por encima de la cama de carbón por unidad de área 0,03 (m3/m2). posteriormente se realiza un escalado inverso (desescalado) del filtro industrial para realiza el estudio a nivel de laboratorio del posible uso del carbón activado de coco. Se presenta un tratamiento a seguir con el carbón activado de coco con el fin de acondicionarlo para el proceso de filtración el cual consiste en un lavado con agua y en una solución con ácido acético al 1 %, obteniéndose como resultado que es necesario emplear 7 litros de solución de ácido acético al 1% en agua desmineralizada para que la alcalinidad y el pH tenga los valores que permitan ser empleado en la filtración de aguardiente. Por último, se comprobó el empleo del carbón activado de coco en el proceso de filtración lograron resultados alentadores para cuando se emplean 15 kilogramos de carbón de coco por cada 100 kilogramos de carbón usado en el proceso. La sustitución del 15% del carbón activado representa un ahorro a la empresa de 2466,45 CUC al año. PALABRAS CLAVES: Carbón activado de coco, filtración, aguardiente. PRELIMINARY STUDY OF THE COAL ACTIVATEDX OF COCONUT IN THE FILTRATE OF LIQUORS ABSTRACT In this work the filtration process will be studied in the elaboration of liquor taken place in the ueb western ronera, where the use of the activated coal of Cuban coconut will be valued in this operation. firstly, he/she is carried out a study of the process of industrial filtration, being determined the characteristics of the equipment and the operational conditions, standing out time of residence of 9,58 hours, time in that delays to obtain a liter of filtrate with a value of 3 minutes, flow volumétrico for area unit 0,05 (m3/m2h) and volume of liquid above the bed of coal for area unit 0,03 (m3/m2). later on he/she is carried out a climbed inverse (desescalado) of the industrial filter for he/she carries out the study at level of laboratory of the possible use of the activated coal of coconut. A treatment is presented to continue with the activated coal of coconut with the purpose of conditioning it for the filtration process which consists on a laundry with water and in a solution with acetic acid to 1%, being obtained as a result that it is necessary to use 7 liters of solution of acetic acid to 1% in water desmineralizada so that the alkalinity and the pH have the values that allow to be an employee in the filtration of liquor. Lastly, he/she was proven the employment of the activated coal of coconut in the filtration process they achieved encouraging results for when 15 kilograms of coconut coal are used by each 100 kilograms of coal used in the process. The substitution of 15% of the activated coal represents a saving to the company from 2466,45 CUC to year. KEY WORDS: Coconut activated charcoal, filtration. 2 1. INTRODUCCIÓN Se define el ron como “la bebida alcohólica que procede de los destilados obtenidos a partir de los mostos fermentados de los jugos y melazas de la caña de azúcar y sus mezclas, añejados convenientemente en o con madera de roble blanco” según las normas NC 82-03:82 y NC 113:2001. El ron cubano constituye un tipo definido de producto dentro de la familia de los rones mundiales. Se distingue por su aroma muy fino y sutil, sabor ligeramente dulzón y apropiado para tomar solo, mezclado con bebidas refrescantes y cócteles. Se clasifica como un ron ligero o de poco cuerpo. Este proceso de fabricación de rones se inicia con la preparación de un mosto con agua y melaza, residuos de destilación (vinazas), y en ocasiones con las espumas de la defecación del zumo de caña. Luego se provoca un proceso de fermentación del mosto con diversas especies de levaduras. Tras un proceso de tiempo culmina la fermentación y el licor alcohólico obtenido es destilado en un alambique o columna de destilación. El aguardiente resultante se deja envejecer en barriles de roble. Por último, y antes de su expedición para el consumo se efectúan las mezclas adecuadas para lograr una calidad homogénea. Finalmente se desmineraliza y filtra. Existen diferentes tipos de filtración, el que corresponde a este estudio es una filtración profunda empleando carbón activado. La filtración no debe alterar al producto, y mantener íntegros el color, el aroma y el sabor. Las condiciones exigidas a un filtro son el fácil manejo, material de construcción que no afecte el producto a filtrar, largo ciclo de trabajo y el rendimiento horario lo más uniforme posible. El medio filtrante es una parte fundamental del filtro. Este medio poroso se selecciona atendiendo a las particularidades del proceso. Es conveniente que tenga un tamaño de poros lo mayor posible de acuerdo con el tipo de sólidos que debe depositarse sobre él, lo que garantiza la menor resistencia hidráulica, pero que a la vez no deje pasar las partículas más pequeñas. Uno de los medios filtrantes empleados en la filtración de rones es el carbón activado. Este es un adsorbente poroso de gran capacidad de limpieza eliminado olores y sabor desagradables. Uno de los carbones empleados en la industria ronera cubana es el Norit Rox 0.8, el cual tiene gran efectividad, pero sus costos en ocasiones limitan su empleo por lo que encontrar alternativas es una tarea que los ingenieros del ramo se han trazado. En el presente trabajo se tiene el objetivo estudiar el carbón activado de coco para su posible empleo en el filtrado de aguardiente. Al carbón activado de coco de producción nacional primeramente se le realiza un estudio de su granulometría y de las propiedades físico-químicas que influyen en el proceso. Posteriormente por un desescalado inverso se determinan las características de un equipo de laboratorio, se construye y se realiza el estudio. 2. MATERIALES Y MÉTODOS Para el desarrollo del trabajo primeramente se realizó un diagnóstico de los filtros empleados en la industria determinando las dimensiones de los mismos y sus parámetros operacionales. Se obtuvieron las características del carbón empleado (Norit Rox 0.8) mediante la información ofrecida por la empresa que lo comercializa. Se caracterizó el carcón activado de coco mediante un estudio de granulometría y se le determinó su densidad aparente y su porosidad. El estudio de granulometría se hizo por triplicado. LA característica físico química se realizó en el laboratorio. El área de la sección transversal se determinó por: 3 4 * 2D A   (2.1) Para determinar el volumen se empleó la siguiente ecuación: 4 ** 2 t HD V   (2.2) La densidad aparente se determinó empleando la relación de masa sobre volumen se pesó la masa que ocupaba un volumen fijo de las partículas sólidas. La ecuación se presenta a continuación. Las mediciones se realizaron por triplicado. Vr M a  (2.3) La porosidad se determinó por la vía siguiente )1(   pa (2.4) Para el tiempo de residencia se empelo la siguiente expresión: Q Vh tres  (2.5) Para la determinación del flujo volumétrico por unidad de área (Flux) y para el volumen por unidad de área (carga hidrostática) se empelaron las siguientes ecuaciones: A Q Flux  (2.6) A Vt Ch  (2.7) Posteriormente se realizó un desescalado manteniendo similitud geométrica y como estrategia de igual carga hidrostática. Por último, se construyó el filtro y se preparó para ser empelado a nivel de laboratorio. Los materiales empleados fueron:  Tubo plástico de PVC de 4 pulgadas de diámetro  Arena sílice  Lienzo  Carbón de coco cubano y carbón importado Norit Rox 0.8 El estudio culminó con la realización de 3 corridas con agua desmineralizada y tres con aguardiente. Tanto al agua filtrada como al aguardiente se le midió pH en un pHmetro (marca), el cual presenta una resolución de 0,01 y un error de medida ≤ 0,02 y la alcalinidad total mediante titulación con metil naranja explicar método. En la tabla 2.1 se muestran los rangos de alcalinidad. La carga permisible para los aguardientes debe ser menor a 75 ppm. Donde: V: Volumen (m3) D: diámetro interno del filtro (m) Ht: altura total del filtro (m) Donde: A: Volumen (m2) D: diámetro interno del filtro (m) Donde: Vr: Volumen del recipiente (m3) M: Masa del material sólido (kg) ρa: Densidad aparente (kg/m3) Donde: ρa: Densidad aparente (kg/m3) ρa: Densidad aparente (kg/m3) ξ: porosidad (-) Donde: Q: Flujo volumétrico (m3/s) Vh: Volumen de huecos (m3) tres: Densidad aparente (s) Donde: Q: Flujo volumétrico (m3/s) A: ärea de las ección transversal de la columna (m2) Flux: Flujo por unidad e áreaDensidad aparente (m/s) Q: Volumne de tope (m3) Ch: Carga hidrostática (m) 4 Tabla 2.1. Rangos de alcalinidad Rango Alcalinidad (mg/L CaCO3) Baja < 75 Media 75 – 150 Alta > 150 3. RESULTADOS Y DISCUSIÓN El proceso que se analiza cuenta con 12 filtros en operación, los cuales tienen una capacidad de filtrado de 600 L/día (0,6 m3/día) cada uno, para un total de 7200 L/día (7,2 m3/día), colocados en dos filas de seis filtros cada una, todos conectados en paralelo. El proceso se realiza con el objetivo de eliminar las partículas de polvo u otras impurezas que puedan quedar remanente en el aguardiente y afectar la brillantez del producto final. La fuerza motriz en este proceso de filtrado es la diferencia de presión, para mantener esta diferencia constante y por consiguiente el flujo de filtrado, a los filtros se le mantiene siempre ocupado con aguardiente un volumen fijo en la parte superior, el operario cada tres horas realiza esta operación, hasta que termine la jornada laboral dejando en reposo el filtro toda la noche para que filtre completamente el aguardiente remanente. Este proceso tiene un tiempo de duración de entre 9 y 12 horas. Los filtros utilizados para la realización de esta operación son filtros de carbón activado. El carbón usado es Norit Rox 0.8. Especificaciones del carbón granulado Norit Rox 0.8 Tamaño de partícula: < 0,6 mm pH: neutro Hierro (Fe): 0,02% másico Numero de iodo: 1 000 min Humedad: 5% másico Densidad aparente (ρa): 0,40 g/mL Densidad de partícula (ρp): 1,5 g/mL Densidad de retrolavado y secado (ρrs): 0,35 g/mL Área total de la superficie interior: 1 225 m2/g Contenido de ceniza: 3% másico Calcio (Ca): 0,01% másico Cloruro (Cl-): 0,1% másico Características y condiciones operacionales del filtro industrial En la figura 3.1, se muestra como ejemplo las dimensiones de uno de los filtros de carbón activado utilizados las cuales fueron empeladas para determinar los parámetros de interés para este estudio en las condiciones reales de operación. 5 Figura 3.1. Filtro de tratamiento con carbón activado Con la información anterior se determinaron las condiciones operacionales y los parámetros de interés para el escalado los cuales se muestran en la tabla 3.1 y 3.2. Tabla 3.1. Relaciones geométricas del filtro industrial Relaciones geométricas D/Ht D/Z D/Hfondo D/Tope 0,89 1,23 3,64 26,67 Tabla 3.2. Condiciones industriales de operación V (m3) Vc (m3) Vh (m3) Vcarbón (m3) Vtope (m3) AST (m2) mcarbón (kg) tres (h) Flux (m3/m2h) Ch (m3/m2) 0,452 0,327 0,239 0,087 0,015 0,502 130,62 9,58 0,05 0,03 Determinación del tiempo que demora recolectar un litro de filtrado En el proceso de filtrado, con el objetivo de mantener la diferencia de presión constante en la operación, se mantienen el volumen de tope hidrostático siempre lleno hasta que termine la jornada laboral, dejando en reposo el filtro toda la noche para que filtre completamente. Este proceso según criterios operacionales tiene una duración entre 9 y 12 horas. La primera determinación que se realizó fue la del tiempo que tarda en recolectarse un litro de aguardiente filtrado. Estas mediciones fueron realizadas en 6 de los 12 filtros existentes en operación y en cada uno se realizó tres mediciones, las mismas fueron procesadas estadísticamente. Los resultados obtenidos se muestran en la tabla 3.3. Donde: D: diámetro interno del filtro Ht: altura total del filtro z: altura de la cama de carbón e: espesor = 4 cm Vc: volumen de la cama de carbón Vh: volumen de hueco ξ: porosidad Qvol. Flujo de dilución = 600L/día z = 65 cm d = 80 cm Ht = 90 cm 6 Tabla 3.3. Resumen estadístico del que tarda en recolectarse un litro de aguardiente filtrad Tiempo F Recuento 18 Erro estándar 0,029 Promedio 3,0 Sesgo estandarizado -1,09 Desviación estándar 0,123 Curtosis estandarizada 1,030 análisis de la tabla nos permite afirmar que los datos obtenidos cumplen con una distribución normal al tener los valores del sesgo estandarizado y de curtosis estandarizada dentro del intervalo de -2 a 2. El tiempo promedio es de 3 minutos y presenta una pequeña desviación estándar (0,120) y un error estándar pequeño también de 0,029. Mediante un desescalado o escalado inverso se determinaron lad dimensiones del filtro a nivel de laboratorio y se construyó. Las relaciones geométricas son las reportadas en la tabla 3.1, además se empleó la información que se muestra en la tabla 3.4. Las dimensiones del filtro a escala de laboratorio se muestran en la tabla 3.5. Tabla 3.4. Datos adicionales para los cálculos en el desescalado Datos d (m) 0,102 Porosidad 0,400 ρa (kg/m3) 400 Flujo (L/h) 1,000 ρp (kg/m3) 1500 Flujo (m3/h) 4,17* Tabla 3.5. Dimensiones del filtro a nivel de laboratoritos adicionales para los cálculos en el desescalado Ht (m) z (m) Hf (m) Htope (m) 0,115 0,083 0,028 0,004 Luego con las dimensiones determinadas, se procede a calcular las condiciones operacionales del filtro a escala de laboratorio. En la tabla 3.6 se presenta un resumen de las variables calculadas. Tabla 3.6. Variables operacionales del filtro a nivel de laboratoritos V (m3) Vc (m3) Vh (m3) Vcarbón (m3) Vtope (m3) AST (m2) mcarbón (kg) tres (h) Flux (m3/m2h) Ch (m3/m2) 0.001 0.0007 2,7* 0,0004 2,5* 0,008 0,61 6,56 0,005 0,03 En la tabla 3.7 se presentan las características físicas y químicas del carbón activado de coco (CAC) para la fracción seleccionada de tamaño seleccionada. 7 Tabla 3.7. Granulometría y propiedades físicas y químicas del carbón activado de coco (CAC) para la fracción seleccionada CAC: Carbón activado de coco De la tabla se puede concluir que existe diferencia entre las características a las del carbón granulado Norit Rox 0.8, pero la que más incidencia tiene es el pH al tener Norit Rox 0.8 valor neutro y ser el de coco básico, lo que implica tener que realizar un tratamiento previo a la filtración para eliminar las impurezas y neutralizar el pH. Teniendo en cuenta la diferencia en las propiedades de los carbones activados en estudio y en la calidad de los mismos se decidió realizar el estudio de filtración Se prepararon tres filtros, uno al 50% de cada carbón, otro con 75% de Norit y el tercero con 85% de Norit. Para este estudio sólo fue posible realizar tres corridas. Los análisis se realizaron por triplicado. Las muestras en ambos casos se tomaron después de haber recolectado 2 litros de aguardiente filtrado. En la tabla 3.8 se presentan los resultados del análisis estadístico de las corridas para cada variable estudiada. Tabla 3.8. Resumen estadístico del filtrado de aguardiente Alc total Alc total N GAlc GAlcN pH pHN Recuento 9 9 9 9 9 9 Promedio 11,003 11,93 54,3144 54,6489 5,95 6,57444 Varianza 0,0116 0,0016 0,234753 0,165636 0,0075 0,00395 Desviación Estándar 0,1077 0,04 0,484513 0,406984 0,08660 0,06287 Sesgo Estandarizado 0,9356 0,23989 0,517432 -1,37201 0,0 0,59052 Curtosis Estandarizada -0,3357 -0,233 0,008884 0,016793 0,2624 -0,4779 Esta tabla 3.8 se muestra el resumen estadístico para cada una de las variables estudiadas. En la misma se puede comprobar que los datos cumplen con una distribución normas al encontrarse los valores de sesgo estandarizado y de curtosis estandarizada dentro del intervalo esperado de -2 a +2. Todas las variables analizadas tienen pocas variaciones al tener desviaciones estándar pequeñas. Para comprobar estadísticamente si los resultados del empleo de ambos carbones se realizaron pruebas de rangos múltiples a todas las variables. Pruebas de rangos múltiples entre la alcalinidad del aguardiente después de filtrado por ambos carbones, cuyos resultados se muestran a continuación: Muestra 1: Alc total (con carbón activado de coco) Muestra 2: Alc total N (con carbón activado Norit Rox 0.8) Características CAC Características CAC Tamaño promedio de partícula (mm) 1,856 Densidad de partícula (g/mL) 1,25 Tamaño de partícula (X=80%) (mm) 4,50 Área total de la superficie interior (m2/g) 978 pH 8,1 Porosidad 0,53 Humedad (%) 5,6 Contenido de ceniza (%) 6 Densidad aparente (g/mL) 0,4019 8 Tabla 3.9. ANOVA Fuente Suma de Cuadrados Gl Cuadrado Medio Razón-F Valor-P Entre grupos 3,8642 1 3,8642 585,48 0,0000 Intra grupos 0,1056 16 0,0066 Total (Corr.) 3,9698 17 Tabla 3.10. Análisis por grupo. (Método: 95,0 porcentajes LSD) Casos Media Grupos Homogéneos Alc total 9 11,0033 X Alc total N 9 11,93 X En ambas tablas se observa que hay diferencia significativa entre las medias de ambas muestras. En la tabla 3.9 se muestra que la razón-F, es igual a 585,485 y puesto que el valor-P de la prueba-F es menor que 0,05, existe una diferencia estadísticamente significativa entre las medias de las 2 variables con un nivel del 95,0% de confianza. En la tabla 3.10 se comprueba también que hay diferencia significativa al estar las “X” en diferentes columnas. El mismo análisis se realizó para el grado alcohólico cuyos resultados se presenta en las tablas 3.11 y 3.12. Muestra 1: GAlc (con carbón activado de coco) Muestra 2: GAlcN (con carbón activado Norit Rox 0.8) Tabla 3.11. ANOVA Fuente Suma de Cuadrados Gl Cuadrado Medio Razón-F Valor-P Entre grupos 0,503339 1 0,503339 2,51 0,1324 Intra grupos 3,20311 16 0,200194 Total (Corr.) 3,70645 17 Tabla 3.12. Análisis por grupo. (Método: 95,0 porcentajes LSD) Casos Media Grupos Homogéneos GAlc 9 54,3144 X GAlcN 9 54,6489 X Para este caso se comprueba que no hay diferencias significativas estadísticamente entre las medias de ambas muestras. En la tabla 3.11 se observa que el valor-P de la razón-F es mayor que 0,05, no existe una diferencia estadísticamente significativa entre las medias de las 2 variables con un nivel del 95,0% de confianza y en la tabla xx ambas X están en la misma columna. Por último, se realizó la prueba al pH, los resultados se presentan en las tablas 3.13 y 3.14. Muestra 1: pH Muestra 2: pHN Muestra 1: 9 valores en el intervalo de 5,8 a 6,1 Muestra 2: 9 valores en el intervalo de 6,5 a 6,68 9 Tabla 3.13. ANOVA Fuente Suma de Cuadrados Gl Cuadrado Medio Razón-F Valor-P Entre grupos 1,75469 1 1,75469 306,42 0,0000 Intra grupos 0,0916222 16 0,00572639 Total (Corr.) 1,84631 17 Tabla 3.14. Análisis por grupo. (Método: 95,0 porcentajes LSD) Casos Media Grupos Homogéneos pH 9 5,95 X pHN 9 6,57 X En este caso al igual que en la alcalinidad existe diferencia estadística entre las medias de ambos grupo. La razón-F, que en este caso es igual a 306,422 y puesto que el valor-P de la prueba-F es menor que 0,05, existe una diferencia estadísticamente significativa entre las medias de las 2 variables con un nivel del 95,0% de confianza. En la tabla 3.14 se muestra que las X están en dos columnas diferentes por lo que corrobora la diferencia significativa entre ambas muestras. 4. CONCLUSIONES Mediante una desescalada se determinaron las dimensiones y condiciones operacionales de un filtro a nivel de laboratorio, el cual se construyó y se empleó en experimentación. El carbón activado de coco tiene un diámetro medio superficial volumétrico de 1,856 mm, densidad aparente de 0,4019 g/cm3, y porosidad de 0,53 todos dentro de los intervalos que se ofrecen en la literatura. El carbón activado de coco puede ser empelado en la filtración de aguardiente, en combinación con el Norit Rox 0.8 REFERENCIAS 1. YOLANDA BACALLAO FELIPE. Procedimiento para la utilización del carbón de coco nacional en la Industria Ronera. Trabajo de diploma, IFAL, UH, 2014. 2. “Carbón activado de cascara de coco” https://carbonactivado.es.tl/CARBON-COCO.htm (Ref. Mayo 2018). 3. DONACIANO LUNA, ARMANDO GONZÁLEZ, MANUEL GORDON1A Y NANCY MARTÍN. “Obtención de carbón activado a partir de la cáscara de coco. ContactoS 64, 39–48 (2007). 4. “Carbón activado granular de concha de coco”. www.carbotecnia.com.mx. (Ref. Abril 2018). 5. “El carbón vegetal más efectivo es producido específicamente para la adsorción es hecho de cascara de coco” https://www.911metallurgist.com/metalurgia/adsorcion-carbon-activado/ (Ref. Mayo 2018). 10 SOBRE LOS AUTORES Yen Alfonso Sosa es ingeniera industrial de la Universidad tecnológica de la Habana “José Antonio Echeverría” (Cujae); tiene 15 años de experiencia en la industria ronera cubana en la actualidad se desempeña como Especialista A en procesos tecnológico. Guido Riera González es ingeniero químico de la Universidad tecnológica de la Habana “José Antonio Echeverría” (Cujae); es profesor de ingeniería química con 34 años de experiencia y Doctor de ciencias desde el año 1996. Se desempeña como jefe del grupo de investigación de ingeniería alimentaria. Anabel Frías Chirino: Graduada de Ingeniería Química (1997). Doctora en Ciencia Técnicas (2011). Profesora Auxiliar de la Universidad Tecnológica de La Habana José Antonio Echeverría. Desarrolla su trabajo de investigación en el campo de la ingeniería de alimentos. DESARROLLO DE PELÍCULAS BIOACTIVAS A PARTIR DEL APROVECHAMIENTO DE LOS RESIDUOS DEL LIMÓN COMO BIOCOMPUESTO PRODUCTIVIDAD EN EL DEPARTAMENTO DE ATLÁNTICO. Yaceris Mercedes Castro Escorcia1, Teresa de Jesús Altamar Perez2, Dialinis Blanco Villadiego3, Enedys Florez Cortes4 1Centro Para el Desarrollo Agroecológico y Agroindustrial SENA, Regional Atlántico, Calle 9 N.º 19- 120, ycastroe@sena.edu.co, 2 Centro para el Desarrollo Agroecológico y Agroindustrial SENA, Regional Atlántico, Calle 9 N.º 19-120, taltamarp@sena.edu.co, 3Centro para el Desarrollo Agroecológico y Agroindustrial SENA, Regional Atlántico, Calle 9 N.º 19-120, dblanco@sena.edu.co, 4Centro para el Desarrollo Agroecológico y Agroindustrial SENA, Regional Atlántico, Calle 9 N.º 19- 120, eflorez8@misena.edu.co RESUMEN La presente investigación se llevo a cabo con el objetivo de desarrollar películas bioactivas a partir del aprovechamiento de los residuos del limón como biocompuesto de productividad en el departamento del Atlántico, con el fin de darle un aprovechamiento y valor agregado a esta materia prima. Para ello se implementó una metodología cuantitativa experimental y descriptiva que se ejecuto en cuatro fases en donde la primera consistió en caracterizar los parámetros fisicoquímicos, microbiológicos y organolépticos de la materia prima; la segunda fase abarco el desarrollo de la metodología de producción para la obtención de las películas bioactiva; la tercera se basó en evaluar las propiedades físico – mecánicas de la película bioactiva y la cuarta consistió en determinar la actividad bioconservante. Lo resultados arrojaron que se emplearon las variedades de limón criollo, mandarino, tahití y limoncillo, los cuales para su transformación en harina se utilizan los desechos obtenidos del despulpado y se someten a una temperatura entre 50 a 60ºC, obteniendo una harina con características fisicoquímicas de sólidos solubles 11° Brix, pH 3.4, grasa 0,32 %, cenizas 1,25 %, proteínas 0,35 %, Fibra 3,4 %, acidez titulable 0,5 %, posteriormente se procede a elaborar la película bioactiva en donde se emplean seis formulaciones las cuales se someten a una evaluación de las propiedades físico – mecánicas obteniendo una tensión de 5.23 Mpa, elongación 3.61 Mpa, capacidad antioxidante 1.91 ABTS, resistencia a la fricción 1.98Mpa. Se evaluó su actividad biconservante en productos hortifruticolas arrojando que a la temperatura de refrigeración se presenta una menor cantidad de perdida de peso. PALABRAS CLAVES: películas bioactivas, limón, actividad bioconservante, propiedades físico- mecánicas. DEVELOPMENT OF BIOACTIVE FILMS FROM THE USE OF LEMON AS A BIOCOMPOUND OF GREATER PRODUCTIVITY IN THE DEPARTMENT OF ATLÁNTICO ABSTRACT The present investigation was carried out with the objective of developing bioactive films from the use of lemon as a biocomposite with greater productivity in the department of Atlántico, in order to give use and added value to this raw material. For this, an experimental and descriptive quantitative methodology was implemented, which was carried out in four phases, where the first consisted of characterizing the physicochemical, microbiological and organoleptic parameters of the raw material; the second phase covered the development of the production methodology for obtaining bioactive films; the third was based on evaluating the physical-mechanical properties of the bioactive film and the fourth consisted in determining the biopreservative activity. The results showed that the Creole, mandarin, Tahiti and lemongrass lemon varieties were used, which for their transformation into flour use the waste obtained from pulping and are subjected to a temperature between 50 to 60ºC, obtaining a flour with physicochemical characteristics of soluble solids 11 ° Brix, pH 3.4, fat 0,32 %, ash 1,25 %, protein 0,35 %, fiber 3,4 %., titratable acidity 0,5 %, then proceeds to develop the bioactive film where six formulations are used which are subjected to an evaluation of the physical-mechanical properties obtaining a tension of 5.23 Mpa, elongation 3.61 Mpa, antioxidant capacity 1.91 ABTS, resistance to friction 1.98Mpa. Its bipreservative activity in horticultural products was evaluated, showing that at refrigeration temperature there is a lower amount of weight loss. KEY WORDS: bioactive films, lemon, biopreservative activity, physical-mechanical properties. INTRODUCCIÓN Los envases bioactivos son una alternativa para la conservación y protección de los productos alimenticios ya que proporcionan protección al producto por daño físico, químico, biológico y microbiológico, ejercen efecto barrera, propiedad antioxidante y antimicrobiana a partir de la utilización de biocompuestos definidos como un conjunto de elementos que todos los seres humanos y todos los seres vivos necesitan para el correcto funcionamiento del organismo. Las películas bioactivas que brindan funciones antimicrobianas y propiedades barrera sin necesidad de agregar aditivos químicos contribuyen no solo a funciones de protección y conservación, sino además permiten el manejo eficiente de los procesos logísticos propios de la cadena de suministro, abastecimiento de alimentos y prolongación del tiempo de vida útil del producto [1]. Las principales características de los envases bioactivos es el aporte de sus propiedades funcionales siendo las más relevante la actuación sobre la temperatura, modifican la composición del espacio en que se encuentra el alimento, interactúan directamente con los alimentos inhibiendo la contaminación con microorganismos patógenos evitando su deterioro y asegurando la calidad e inocuidad de este [2]. Los materiales plásticos ofrecen estas características, sin embargo, estos presentan algunos inconvenientes siendo la migración la que presenta mayor incidencia en la calidad de los productos generando consigo riesgo de inocuidad. Igualmente, los plásticos de origen no biodegradable para el envasado y distribución de alimentos generan un impacto negativo ya que propician la contaminación ambiental la cual ha incrementado debido al constante uso de este material con una representatividad en el consumo de SAO sustancias agotadoras de ozono [3]. Del total del petróleo extraído en el mundo, alrededor de un 5 % se destina a la industria del plástico. Dicho mineral fósil experimenta en la actualidad un crecimiento continuo en su precio y las proyecciones afirman que se agotará en menos de 50 años si el ritmo de consumo sigue como el actual [4]. Los polímeros son materiales de amplio uso a nivel industrial, destacando su utilización en la industria de empaques y embalajes, desempeñando un papel central en las principales economías del mundo moderno. Los cambios de hábitos y estilos de vida de la sociedad actual, ha propiciado el incremento en el consumo de productos alimenticios manufacturados para los que usualmente se utilizan utensilios y recipientes como envases, platos, vasos, cubiertos desechables, entre otros; afectando negativamente el ambiente por el aumento en la cantidad de desechos sólidos dispuestos en el mismo [5]. Por otra parte los polímeros sintéticos tienen efectos en la seguridad sanitaria, así como también, en las características organolépticas del producto, el riesgo de un posible daño a la salud de los consumidores debido a la migración de componentes del material plástico al alimento, es reconocido y ha sido evaluado por el establecimiento de regulaciones alimentarias que definen límites a la migración, dentro de los límites establecidos por las normas nacionales, se han logrado detectar límites de migración hasta un 285% por encima de lo permitido lo cual es potencialmente tóxico para la salud del consumidor [6]. Motivo por el cual, se han empezado a desarrollar técnicas de envases a partir de materiales orgánicos, como una alternativa para la solución de problemas que enfrenta actualmente la industria en cuanto a conservación, mantenimiento de la calidad, mejoramiento de las condiciones de almacenamiento de los alimentos y disminución del impacto ambiental que se producen como consecuencia de la utilización de los materiales plásticos. Teniendo en cuentas estas características se han desarrollado películas biodegradables a base de nanobiopartículas (mucilago y pectina) y de nopal verdura (Opuntiaicus-indica) [7]. También se ha empezado a implementar la incorporación de compuestos agroindustriales con alto contenido de elementos funcionales como una alternativa viable para la elaboración de películas bioactivas. Con base en lo anterior, y teniendo en cuenta que en el departamento del Atlántico se produce una variedad de alimentos agrícolas que no son aprovechados en su totalidad y sus residuos son manejados de manera poco controlada. Dado que según reportes del DANE en el 2016 se encuentran un total de 192.663,8 hectáreas utilizadas para actividades agropecuarias en donde se desarrolla la producción primaria de estos alimentos; siendo la yuca, el mango y el limón los tres productos que poseen mayor productividad con un 41,61%, 18,36% y 13,8% respectivamente [8]. El limón tiene una alta producción registrando 927, 5 hectáreas con una producción de 22.414 toneladas y un rendimiento de 24, 17 ha/ ton. Se estima que en el departamento se pierden 472.844 toneladas de frutas ocupando el cuarto lugar en toda la región caribe, en donde los cítricos representan el 14% de las perdidas [9]. Por lo tanto, teniendo en cuenta esta problemática que se presenta en el departamento y la necesidad de elaborar películas bioactivas a partir de materiales orgánicos la presente investigación pretende realizar un aprovechamiento de los residuos del limón para viabilizar su utilización como biocompuesto, innovando en el desarrollo de películas bioactivas biodegradables que cumplan con las especificaciones de proteger las características principales de un alimento. Con relación a lo anteriormente citado se realiza la siguiente pregunta ¿Se podrían desarrollar a nivel experimental películas bioactivas a partir biocompuestos de alta productividad en el departamento del Atlántico como el limón que otorgue propiedad funcional en el envasado y conservación de alimentos y que a la vez sean biodegradabilidad después de uso? De esta manera, esta investigación realizar aportes considerables a la investigación, innovación y aplicación de tecnologías con el desarrollo de posibles prototipos de envases bioactivos a nivel experimental y se les otorgara un aprovechamiento a las fuentes poliméricas naturales o biocompuestos para el desarrollo de películas bioactivos que se puedan utilizar como envases para alimentos que puedan cumplir las funciones requeridas durante la vida útil y disposición final del producto. MATERIALES Y METODOS La investigación realizada es de tipo cuantitativa experimental, ya que se busca obtener un conocimiento científico a través de la comprensión de la realidad del fenómeno o caso estudiado, en donde los datos se obtienen de las mediciones realizadas a las variables analizadas en el objeto de estudio con el propósito de explicar o predecir el fenómeno [10]. De acuerdo con Serrano et al., (2016), la investigacion experimental se basa en la experiencia, práctica e influencia del fenómeno o problema estudiado[11]. En donde se caracteriza porque el objeto o grupo de individuos estudios tiene una variable independiente con la cual se generan los grupos de intervencion del estudioy es la variable causal de ocasionar un impacto sobre la variable dependiente, con esto se busca determinar la influencia de una variable sobre otra [12]. De igual manera es descriptivo dado que se busca describir algunas características fundamentales de conjuntos homogéneos de fenómenos, utilizando criterios sistemáticos que permiten establecer la estructura o el comportamiento de los fenómenos en estudio, proporcionando información sistemática y comparable con la de otras fuentes[13]. Para el desarrollo del prototipo se creó un diseño factorial 33 (el tres de la base indica que cada factor toma sólo tres valores y el tres del exponente indica que se estudiaran tres factores). El presente proyecto se desarrolló en los talleres de procesos y laboratorios del Centro para el Desarrollo Agroecológico y Agroindustrial de la Regional Atlántico del SENA CEDAGRO, localizado en la Calle 9 #19 -120, Colombia, Sabanalarga, (Atlántico). Para la recolección de la información se utilizaron fuentes primarias como la observación, que permitieron recoger y analizar datos de los diferentes productos llevados a cabo en los talleres laboratorios del centro CEDAGRO; además el uso de formatos de inspección, verificación de documentos internos (registros fotográficos, fichas técnicas de la materia prima e insumos, productos terminados, registros y formatos de inspección de calidad y producción). A su vez se emplearon técnicas secundarias como referentes bibliográficos sobre estudios e investigaciones realizadas con relación a la utilización de harinas a partir de las cascaras de cítricos incorporados en productos alimenticios. Para el desarrollo el presente proyecto de INNOVACIÓN se plantearon las siguientes fases: Fase I: Caracterizar los parámetros fisicoquímicos, microbiológicos y organolépticos de las materias primas para determinar la variedad de biocompuestos que se utilizaran en el desarrollo de las películas bioáctivas. En esta fase se evaluaron las materias primas mediante el análisis de los parámetros microbiológicos, fisicoquímicos y organolépticos obtenidos en los diversos ensayos a escala de laboratorio donde se priorizó la disponibilidad de almidón y fuentes pépticas como material indispensable en la formación de la biopelícula. Fase II: Desarrollar una metodología de producción para la obtención de las películas bioactivas a partir del aprovechamiento de biocompuestos de mayor productividad en el departamento de Atlántico En esta etapa se realizarán las pruebas piloto para la obtención de las distintas formulaciones de la película bioactiva mediante la utilización de materias primas producidas en el departamento del Atlántico y los demás insumos o aditivos requeridos. Para el desarrollo de las formulaciones se hará uso de un diseño experimental factorial, donde se les variarán las proporciones de los componentes de acuerdo con las características de la película bioactiva que se desea obtener y los parámetros fijados por las normas técnicas. Fase III: Evaluar las propiedades físico – mecánicas de la película bioactiva obtenidas para realizar una matriz comparativa con una película plástica sintética convencional En esta etapa se analizaron las propiedades físico – mecánicas de la películas bioactiva haciendo énfasis en las especificaciones técnicas como son grosor, capacidad de elongación, resistencia mecánica, opacidad, barrera a gases, entre otras. Para ello se tuvo en cuenta los procedimientos establecidos por la respectiva norma y parámetro a evaluar. Luego de realizar las pruebas físico – mecánicas se realizó un análisis comparativo con las películas de material plástico convencional a través de una matriz, con el propósito de evaluar la eficiencia de las películas bioactivas frente a las disponibles en el mercado. Fase IV: Determinar la actividad bioconservante de las películas bioactivas desarrolladas en alimentos hortofrutícolas para valorar la viabilidad en el empaque para alimentos En esta etapa se realizaron las pruebas piloto con el propósito de determinar la capacidad de bioconservación que puedan tener las biopelículas obtenidas al ponerlas en contacto con algunos alimentos (hortofrutícolas) con el ánimo de estudiar formas novedosas de empacado. RESULTADOS Caracterización de los parámetros fisicoquímicos, microbiológicos y organolépticos de la materia prima para determinar la variedad de biocompuestos que se utilizaran en el desarrollo de la película bioactiva. A partir de la revisión bibliográfica y normativa se logró establecer las especificaciones técnicas del limón que se utilizarán en la elaboración de las películas bioáctivas. Posteriormente se realizó una validación de los rendimientos y componentes de cada una de las materias primas objeto de análisis. Para ello se tomó como referencia 4 muestras de limón de distintas variedades, cada una de ellas se le extrajo el jugo y procedió a pesar 500 g de los residuos obtenidos por cada variedad. Luego se deshidrato, molió y tamizó, obteniendo los siguientes resultados: Tabla 1. Rendimientos de los desechos de la extracción del jugo de limón Variedad de limón Peso inicial (g) Peso de peso final (g) Porcentaje de rendimiento (%) Limón criolla 500 123.5 24,7 Limón mandarina 500 118 23,6 Limón Tahití 500 121.4 24,3 Limoncillo 500 215.1 43,0 Fuente: elaboración propia Posteriormente se procedió a establecer el proceso productivo para la obtención de la biopelícula, en donde se tuvo en cuenta las tecnologías existentes en la industria de alimentos y se analizaron parámetros, obteniendo como resultado la descripción del proceso a nivel industrial y los parámetros a controlar en cada operación. Por lo cual a continuación se describen las fases del proceso productivo: Descripción del proceso productivo para la obtención de la harina a partir de desechos del limón a) Recepción y selección del limón: Seleccionar y clasificar el limón según las características físicas, químicas y organolépticas que estén presentes. b) Lavado inicial: Proceso de limpieza al cual se somete el limón para retira arena, piedra y demás partículas diferente al producto. c) Lavado y desinfección: Proceso de limpieza y desinfección al cual se somete la limón para retira arena, piedra y demás partículas microbiologías diferente al producto. d) Troceado: Cortar el limón en trozos de 2x2 cm e) Despulpado: Se realiza para extraer el zumo de limón. f) Secado: Se realiza el secado para eliminar el contenido de agua que pueda presentar en el residuo de limón para ello se utilizó una temperatura de 50-60°C durante 24 hrs. g) Molienda y tamizado: reducción de residuos de limón deshidratado con el fin de obtener harina de limón. Moler por tres minutos para obtener lo más fina posible. h) Empacado y almacenamiento: La harina de limón se almacenará en Bolsas plásticas ZipLoc con cierre hermético para su conservación En la figura 1, se presenta el diagrama de flujo del proceso productivo para la obtención de la harina de limón: Figura 1. Diagrama de flujo del proceso productivo Fuente: Elaboración propia. Recepción y selección del limón Lavado inicial Lavado y desinfección Troceado Despulpado Secado Molienda y tamizado Empacado y almacenamiento Evaluación de los parámetros físicos, químicos, microbiológicos y organolépticos de la harina de limón a utilizar en la elaboración de las películas bioáctivas Los resultados fisicoquímicos obtenidos para el almidón de limón fueron: sólidos solubles 11° Brix, pH 3.4, grasa 0,32 %, cenizas 1,25 %, proteínas 0,35 %, Fibra 3,4 %, acidez titulable 0.5 %.Los resultados microbiológicos el recuento de mesófilos aerobios (<10), Coliformes totales (0), Escherichia coli (0), salmonella (Ausente), mohos y levaduras (0), indican que se encuentran dentro los parámetros establecidos en la NTC 6066, razón por la cual se considera un producto inocuo para el desarrollo de las películas bioáctivas. Desarrollo de la metodología de producción para la obtención de la película bioáctiva a partir del aprovechamiento de biocompuestos de mayor productividad en el departamento de Atlántico Esta fase se realizó teniendo en cuenta las variables de control del proceso siendo (cantidad de glicerol, temperatura y tiempo de secado. Estas se establecen como variables independientes debido a que permiten modificaciones que inciden en las características finales de la película bioactiva. Para determinar la metodología se llevaron a cabo los siguientes pasos: 1. Preparación y formación de películas bioáctivas: A partir de los extractos pépticos y poliméricos del residuo de limón se establecieron diferentes formulaciones con las que posteriormente se elaboró la película bioáctiva. Se utilizo un diseño experimental factorial compuesto con tres variables de acuerdo con el componente bioáctivo objeto de estudio, además se definió de forma aleatoria 6 tratamientos para la obtención de la película bioáctiva. 2. Acondicionamiento de la película: La película obtenida se acondicionarán teniendo en cuenta el control de la temperatura y la humedad relativa, para ello se utilizó un desecador donde se introdujeron por un tiempo de 48 horas. 3. Realización de pruebas preliminares: Se realizaron pruebas de resistencia mecánica y permeabilidad al vapor de agua con el fin de seleccionar las que mejores propiedades presentaban. Las formulaciones empleadas en el proceso de obtención de la película bioactiva a partir del limón se presentan a continuación: Tabla 2. Formulaciones establecidas para diseño experimental película bioáctivas limón. Materiales Cantidades de ingredientes en cada ensayo (g) película de limón 1 2 3 4 5 6 Harina de limón 1,56 1,56 1,56 1,56 1,56 1,56 Glicerol 1 3 6 9 12 15 Agua destilada 39 39 39 39 39 39 Pectina 0,5 0,5 0,5 0,5 0,5 0,5 Fuente: elaboración propia Posteriormente definida, la formulación se procede a llevar el cabo el proceso productivo de la película bioactiva a partir del limón, el cual se describen sus fases a continuación: Descripción del proceso productivo para la obtención de la biopelícula de limón a) Recepción de materia prima: Se inspecciona y verifica la calidad organoléptica y fisicoquímicas del almidón, así como la de los demás ingredientes. b) Alistamiento y pesaje: Es esta etapa se realza el pesaje y acondicionamiento de los materiales a utilizar. c) Mezclado: En esta etapa se mezcla primero el agua destilada con el almidón de yuca y la pectina. d) Gelificación: La mezcla se somete a un proceso de calentamiento en baños maría con agitación constante a una temperatura de 50-60°C/ 25min. e) Adición del glicerol: A la muestra gelificada se le adiciona la cantidad de glicerol establecida según formulación manteniendo agitación constante. f) Concentración (calentamiento): La muestra continua en proceso de calentamiento en baño maría hasta al llegar a una temperatura de 90°C/25min. g) Moldeo: El material gelificado se vierte en cajas de Petri previamente esterilizadas con un volumen de 20 g. h) Secado: Las muestras moldeadas son sometidas a temperaturas de secado en tiempos específicos. i) Precipitación: Se realiza una sedimentación de la del almidón de yuca para una mejor separación (agua-almidón) j) Secado: Se realiza el secado para eliminar el contenido de agua que pueda presentar el almidón de yuca extraído de la filtración, para ello se utilizó una temperatura de 50-60°C durante 24 hrs. k) Extracción de la película: Una vez finalizado el secado se extraen la película para determinar sus características de idoneidad. l) Almacenamiento: Las películas son almacenamiento para su conservación y análisis posterior. En la figura 1, se presenta el diagrama de flujo del proceso productivo para la obtención de la harina de limón: Figura 2. Diagrama de flujo del proceso productivo Fuente: Elaboración propia Recepción de materia prima Alistamiento y pesaje Mezclado Gelificación Adición de glicerol Concentración calentamiento Moldeo Secado Extracción de película Almacenamiento Evaluación de las propiedades físico – mecánicas de las películas bioáctivas obtenidas para realizar una matriz comparativa con una película plástica sintética convencional. Esta fase se realizó teniendo en cuenta las especificaciones técnicas que deben cumplir las películas utilizadas para la elaboración de empaques para alimentos. En esta etapa se analizarán las propiedades físico – mecánicas de las películas bioáctivas haciendo énfasis en las especificaciones técnicas como son grosor, capacidad de elongación, resistencia mecánica, opacidad, barrera a gases, entre otras. Para ello se tendrán en cuenta los procedimientos establecidos por la respectiva norma y parámetro a evaluar.  Tensión y elongación: Permite obtener información de las propiedades del material, se realiza a través del método descrito en la norma ASTM D882 10. Esfuerzo (MPa) y el porcentaje de elongación (%).  Determinación del color: importante determinar si queda una coloración amarillenta que el consumidor pueda detectar. Método ASTM D1003, NTC3304.  Evaluación del brillo: se efectuará para determina lisura, porosidad. La luz incidente es directamente reflejada sobre la superficie en la dirección principal de reflexión. El ángulo de incidencia es igual al ángulo de reflexión y vemos con claridad la imagen reflejada. Método descrito en la norma ASTM D2457, NTC 3337.  Permeabilidad al vapor de agua: se realiza por el Método descrito en la norma ASTM-E96, NTC 501.  Permeabilidad al oxigeno: Método descrito en la norma ASTM D1434-82.  Antioxidante: se realiza para determinar la migración específica. Antioxidante (BHA, BHT, tocoferol). liberados e integrados en la película. método cromatografía.  Resistencia a la fricción: Método descrito en la norma ASTM D1894  Lisura y Espesor: mediante la norma NTC 870  Prueba calorimetría diferencia del barrido (DSC): técnica realizada mediante el Análisis infrarrojo (FTIR).  Pruebas microbiológicas: Recuento de Mohos y levaduras mediante la norma NTC 4132 En la tabla 3, se presentan los resultados obtenidos de las propiedades físico-mecánicas de la película bioactiva obtenido a partir del limón. Tabla 3. Determinación de las propiedades físico-mecánicas de la película bioactiva obtenido a partir del limón. Propiedad Norma de referencia Resultados de la película bioactiva de limón Tensión ASTM D882 10 5.23Mpa Elongación ASTM D882 10 3.61 Mpa Color ASTM D1003, NTC3304 Ligeramente amarillo Brillo ASTM D2457, NTC 3337. Opaca Permeabilidad al vapor de agua ASTM-E96, NTC 501. 1.43 X10 -10g m/(sPam2) Permeabilidad al oxigeno ASTM D1434-82. 2.45 X 10-10 g m s-1Pa-1m-2 Capacidad antioxidante ASTM D1894 1,91 ABTS Resistencia a la fricción ASTM D1894 1,98Mpa Espesor NTC 870 1 mm Lisura Determinación de la actividad bioconservante de las películas bioactivas desarrolladas en alimentos hortofrutícolas para valorar la viabilidad en el empaque para alimentos. En esta fase del proceso metodológico se realizó un mapeo de bioconservación a partir de las películas obtenidas. Estas se colocaron en contacto directo con productos hortofrutícolas como mango y papaya (envoltura) a temperaturas ambiente y de refrigeración en donde a través de las diferencias de peso se determinó el intercambio de gases y la permeabilidad de vapor de agua que la biopelícula ofrece a los productos. En este proceso se tuvieron en cuenta variables como peso, tiempo, características organolépticas de los productos. De igual manera se realizó un análisis de biodegradabilidad a través del proceso de solubilización en agua a diferentes temperaturas con el propósito de evidenciar si el material elaborado se disemina en medio acuoso propiciando con ello un bajo o nulo impacto ambiental al ser usado como empaque. Los resultados obtenidos se presentan en la tabla 4 y 5 en donde se analiza su comportamiento a temperatura ambiente y a temperatura de refrigeración. Tabla 4. Conservación de productos frutícolas envueltos en la película bioáctivas obtenida a partir del limón a temperatura ambiente. Tabla 5. Conservación de productos frutícolas envueltos en la película bioáctivas obtenida a partir del limón a temperatura de refrigeración. Product o Peso inicial del producto Peso final del producto % de pérdida de peso Temperatu ra Observaciones Mango 180 172 4,44 12 El estado de madurez de la muestra de mango fue según la escala de color 3(NTC 5139), con contenido de solidos solubles de 9 °Brix Papaya 515 502 2,52 12 El estado de madurez de la muestra de papaya fue según con contenido de solidos solubles de 8 °Brix. Con tamaño pequeño de acuerdo con su peso que estaba en rango de 500 1500 g (Según NTC 1270) *Los productos frutícolas se analizaron durante 7 días a la misma temperatura Producto Peso inicial del producto Peso final del producto % de pérdida de peso Temperatura Observaciones Mango 175 175 0 12 El estado de madurez de la muestra de mango fue según la escala de color 3(NTC 5139), con contenido de solidos solubles de 9 °Brix Papaya 515 515 0 12 El estado de madurez de la muestra de papaya fue según con contenido de solidos solubles de 8 °Brix. Con tamaño pequeño de acuerdo con su peso que estaba en rango de 500ª 1500 g (Según NTC 1270) *Los productos frutícolas se analizaron durante 7 días a la misma temperatura Los resultados evidenciaron que la utilización de la película bioáctivas desarrollada a partir del limón mantuvo la tendencia de pérdida de peso en los productos frutícolas siendo mayor a temperatura ambiente que a temperatura de refrigeración. CONCLUSIONES Se concluye de la investigación realizada que a partir del limón es viable desarrollar películas bioactivas que otorguen protección y conservación a los alimentos. Se determinó que la metodología empleada permitió definir las tecnologías a utilizar, los mecanismos a controlar logrando obtener el proceso productivo para la obtención de la película bioactiva. Se identificó que la película bioactiva tiene un mejor efecto en la perdida de peso cuando se maneja a temperatura de refrigeración. Se recomienda continuar con este tipo de estudios ya que permiten darle un aprovechamiento agroindustrial a este tipo de biocompuestos de mayor producción en el departamento del Atlántico, ya que garantizan que se otorgue un valor agregado a esta materia prima. RECONOCIMIENTO Reconocimiento al Centro para el Desarrollo Agroecológico y Agroindustrial, Centro de Comercio y Servicios, SENA, Regional Atlántico, por su colaboración en el uso de recursos tecnológicos disponibles y la asistencia técnica recibida de sus recursos humanos. A los instructores y aprendices que de una u otra forma participaron otorgando su destreza y conocimiento para el desarrollo de este proyecto. REFERENCIAS BIBLIOGRAFICAS 1. R. TINITANA, Evaluación ambiental de un envase bioactivo para la conservación de crema pastelera fresca, Universidad Politécnica de Valencia, 2019. 2. A. MONTES, R. OROPEZA, C. PADRÓN, Y. ARAYA, L. WEXLER Y E. CUBERO, «Películas biodegradables con propiedades bioactivas,» Revista Venezolana de Ciencia y Tecnología de Alimentos, vol. 8, nº 1, 2017. 3. DANE, Empaques plasticos, 2017. 4. MOISÉS ORTIZ, M. VILLALOBOS, M. PRADO, A. PEÑA, T. AVALOS Y M. MARTÍNEZ, Desarrollo de una película plástica a partir del almidón extraído de papa residual, Universidad Tecnológica de Jalisco, 2015. 5. MOISÉS ORTIZ, M. VILLALOBOS, M. PRADO, A. PEÑA, T. AVALOS Y M. MARTÍNEZ, Desarrollo de una película plástica a partir del almidón extraído de papa residual, Universidad Tecnológica de Jalisco, 2015. 6. NAVIA DIANA, VILLADA HÉCTOR, Mosquera Silvio. Efecto del tiempo de secado, concentración de plastificante y tamaño de particula en la fuerza de ruptura de materiales semirrígidos basados en harina termoplástica de yuca. Pontificia Universidad Javeriana, Revista Ingeniería y Universidad, Vol 15, N°2, 2012. 7. BOCOURT MICHAEL, CRUZ JENY, BADA NANCY, PENICHE CARLOS. Síntesis y caracterización de hidrogeles biocompatibles interpenetrados de quitosana y poliacrilamida. Revista Cenic Ciencias Quimicas, Vol 39, N°2, 2008. 8. GUEVARA J, PÉREZ J, ÓRNELAS J. Elaboración y caracterización de películas biodegradables a base de nanobiopartículas (mucilago y pectina) de nopal verdura (Opuntia ficus-indica). Universidad de San Luís de Potosí, Revista NanoMex, Vol. 9, N° 11, 2015. 9. AGRONET, 2016. El cultivo del limón en el Atlantico, https://www.agronet.gov. co/estadistica/Paginas/home.aspx?cod=1 10. MARTÍNEZ MARITZA, QUINTERO JELEN, Estado actual de los desperdicios de frutas y verduras en Colombia, 4to Congreso Internacional AmITIC, 2017. 11. BABATIVA CARLOS, Investigaciòn cuantitativa. Fundaciòn Universitaria del Área Andina, Bogotà, 2017. Obtenido en linea en: https://core.ac.uk/download/pdf/326424046.pdf 12. SERRANO ATENEA, GARCÍA LORENA, LEÓN IRENE, GARCÍA ELISA, GIL BELÉN, RIOS LEA. Métodos de investigación de enfoque experimental. 2016. 13. RAMOS CARLOS, DISEÑOS DE INVESTIGACIÒN EXPERIMENTAL. Revista Cienci América, Vol 10, Nº1, 2021. 14. GUEVARA GLADYS, VERDOSOTO ALEXIS, CASTRO NELLYS. Metodologías de investigación educativa (descriptivas, experimentales, participativas y de investigación- acción). 2020. ESTABLECIMIENTO DE CRITERIOS DE SOSTENIBILIDAD EN LAS PRODUCCIONES DE LA INDUSTRIA FARMACÉUTICA Leonor C. Pedroso-Jiménez1,2, Yoneysi Pérez-Almira1, Deny Oliva-Merencio3, Ileana Pereda- Reyes2,4 1 Unidad Empresarial de Base Laboratorios Novatec, Empresa Laboratorios MedSol, La Habana, Cuba 2 Centro de Estudios de Ingeniería de Procesos (CIPRO), Facultad de Ingeniería Química, Universidad Tecnológica de la Habana José A. Echeverría (CUJAE), Calle 114 No 11901 e/ Ciclo vía y Rotonda, Marianao, La Habana, Cuba 3Centro de Estudios de Tecnologías Energéticas Renovables (CETER), Facultad de Mecánica, Universidad Tecnológica de la Habana José A. Echeverría (CUJAE), Calle 114 No 11901 e/ Ciclo vía y Rotonda, Marianao, La Habana, Cuba 4 Empresa de Ingeniería del Reciclaje (ISDE), Directora Adjunta, Grupo Empresarial del Reciclaje, MINDUS 1e-mail:064cachita@gmail.com RESUMEN Actualmente las producciones farmacéuticas requieren de grandes gastos de materias primas por lo que resultan realmente costosas. Además, si no son operadas óptima y responsablemente resultan potencialmente contaminantes, provocando fuertes impactos en el ecosistema y la sociedad circundante. En Cuba no se cuenta aún con suficientes investigaciones referentes a cuestionar la sostenibilidad de estos procesos industriales. Razón por la que este trabajo se propone generar herramientas para la evaluación de la sostenibilidad de estos. Como resultado del análisis generado por medio de los indicadores biofísicos, se logró demostrar que tanto el ruido presente en la producción como la contaminación del aire interior afectan considerablemente las condiciones laborales. Además, el alto consumo de agua provoca una seria disminución de la sostenibilidad del proceso. A la par que la disposición inadecuada del agua residual provoca que se incumplan las normas y persistan en el ambiente compuestos dañinos a la salud humana. Esto llevó a que se plantearan alternativas que proporcionaran una considerable mejoría en la situación actual de la producción. Por ende, esta investigación logra demostrar la gran efectividad del empleo de criterios de sostenibilidad en la optimización del proceso productivo. PALABRAS CLAVES: indicadores biofísicos, economía circular, producciones limpias, sostenibilidad. ESTABLISHMENT OF SUSTAINABILITY CRITERIA IN THE PRODUCTION OF THE PHARMACEUTICAL INDUSTRY ABSTRACT Pharmaceutical productions currently require large expenditures of raw materials, which is why they are really expensive. In addition, if they are not operated optimally and responsibly, they are highly polluting, causing strong impacts on the ecosystem and the surrounding society. In Cuba there is still not enough reference research to question the sustainability of these industrial processes. Reason why this work proposes to generate tools for the evaluation of the sustainability of these. As a result of the analysis generated through the biophysical indicators, it will be perfected by demonstrating that both the noise present in production and the pollution of the indoor air will arise with severe working conditions. In addition, the high-water consumption causes a serious decrease in the sustainability of the process. At the same time, the inadequate disposal of wastewater causes standards to be breached and compounds harmful to human health to persist in the environment. This led to alternatives that provided a considerable improvement in the current production situation. Finally, this research manages to demonstrate the great effectiveness of the use of sustainability criteria in the optimization of the production process. KEY WORDS: biophysical indicators, circular economy, clean production, sustainability. 1. INTRODUCCIÓN De forma general existen pocos reportes hacia un cuestionamiento sobre la sostenibilidad de la industria farmacéutica. Es por ello que en estos momentos es más oportuno que nunca reflexionar sobre la situación de la industria farmacéutica [1]. Siempre ha habido retos formidables en el desarrollo de nuevos fármacos, pero la sensación general ha sido que estos retos se pueden manejar, aunque con un costo cada vez mayor. Parte del cuestionamiento pasa porque se ha vuelto más estricto demostrar una clara eficacia de los medicamentos sin el correspondiente aumento de los efectos secundarios. La dimensión política de estos acontecimientos y su posible impacto en las políticas reguladoras están recibiendo actualmente mucha atención. Esto es desde el punto de vista social, un aspecto que no debe descuidarse, en favor del alto costo que representa para el ser humano y su calidad de vida. En un entorno de precios más complicado, se ha vuelto esencial desarrollar procesos para fabricar ingredientes farmacéuticos activos (IFAs) que representen lo último en tecnología conocida y disponible [2]. La oportunidad de definir una ruta escalable tiene que ir emparejado con la selección de métodos que demuestren que son buenos, tanto desde el punto de vista químico como técnico y económico [3]. Definir que un proceso farmacéutico ha alcanzado los mejores niveles en cada proceso es realmente un reto en la actualidad, principalmente cuando se pretende que sea con enfoque sostenible. Muchos trabajos solo se quedan en evaluar el impacto ambiental y descartan el efecto social que implica, por ejemplo, la dependencia de fármacos. Aunque, es cierto que las restricciones para comprobar el impacto medioambiental de la industria farmacéutica son cada vez más severas. Se conoce que las distintas etapas de fabricación en las unidades farmacéuticas implican una gran variedad de síntesis químicas. Estos procesos están asociados a un gran consumo de energía que provoca elevadas emisiones de gases de efecto invernadero (GEI) y generación de residuos. La situación actual subyace en el hecho de que las empresas farmacéuticas están abordando la sostenibilidad teniendo en cuenta los aspectos ambientales junto con el bienestar económico y social a un ritmo muy lento. Existen varios informes publicados por organizaciones, con y sin ánimo de lucro, para desarrollar una mejor comprensión de las prácticas de sostenibilidad en las organizaciones farmacéuticas [4]. Frente al objeto social que tienen o deberían tener las industrias farmacéuticas, las mismas tienen un importante papel que desempeñar en la aplicación del modelo de desarrollo empresarial sostenible. Lograr la sostenibilidad en ellas requiere un enfoque holístico a lo largo de todo el ciclo de vida del producto y deben ser incluidos en la legislación [5, 6]. Son ingentes aún los esfuerzos en la valoración de la sostenibilidad de la industria farmacéutica cubana. Por esta razón se hace oportuno desarrollar herramientas que permitan evaluar los procesos con un enfoque de circularidad y sostenibilidad. Por lo que este trabajo persigue plantear indicadores físicos y biofísicos que caractericen la sostenibilidad de un proceso productivo. Antecedentes El sector farmacéutico se ha convertido en uno de los que tributan de manera sustancial a la economía a nivel mundial debido a los grandes ingresos anuales que originan. A la par que también constituye una de las esferas que mayor contribución realizan a la huella de carbono [7]. Motivo por el que la industria se ha propuesto reducir radicalmente su impacto ambiental. El creciente interés que ha generado en los últimos años este tema, ha suscitado, por ejemplo, propuestas de cambios en la manera en que se conciben los blísteres en la fabricación de comprimidos. Tales como, la búsqueda de combinaciones de materiales ambientalmente más amigables, la reducción del consumo de materiales con la disminución del grosor del blíster, el espacio o el volumen entre tabletas; o del espesor de la película de sellado. Así como también, el inicio de investigaciones hacia la creación y el estudio de nuevos materiales que puedan ser reciclados de forma mucho más sencilla. De cualquier manera, se impone el establecimiento de un plan de reciclaje eficiente que permita que los restos de la producción de ampollas sin contacto con medicamentos puedan ser reciclados de forma segura [8]. Por otra parte, la contaminación del aire contribuye considerablemente en el aumento de la morbilidad y la mortalidad (70 %) al ser una de las principales causas de enfermedades no transmisibles [9]. Y es un factor de riesgo importante, en los trastornos del desarrollo neurológico en los niños y las enfermedades neurodegenerativas en los adultos [10]. La contaminación ambiental consta de materia particulada (PM) y componentes gaseosos como el dióxido de carbono (CO2) y los óxidos de nitrógeno (NOx), que están bien establecidos como estímulos inflamatorios en el tracto respiratorio [11]. Además, el uso de nuevos productos y materiales ha dado lugar a un aumento de las concentraciones de los compuestos orgánicos volátiles (COV), que se han encontrado asociados con el cáncer y pueden tener efectos adversos en la salud humana a corto y largo plazo. La exposición a corto plazo causa la irritación de las membranas mucosas; y la exposición prolongada provoca reacciones tóxicas [12]. La contaminación del aire por PM es más compleja y cubre un gran rango de tamaños. Por medio de la inhalación, el PM puede llegar a depositarse fácil y profundamente en los pulmones. Por lo que las partículas ambientales inhalables finas y gruesas están relacionadas con efectos adversos como inflamación, daño oxidativo y al ADN, que desencadenan enfermedades pulmonares, cardiovasculares y del sistema nervioso [13]. En la actual crisis sanitaria que enfrenta la humanidad, las investigaciones han encontrado que tanto las emisiones de dióxido de nitrógeno (NO2) como los altos niveles de PM en la atmosfera urbana impactan directamente en la aparición nuevos de casos pues los aerosoles son capaces de difundir el virus [13],[14]. Como la industria farmacéutica no está exenta de esta problemática se han potenciado tecnologías físico/químicas para el tratamiento del aire interior, como la filtración mecánica y electrónica, la adsorción y la ozonización. La filtración mecánica es el método más simple y popular para la eliminación del PM grueso (con diámetro > 2,5 μm y ≤ 10 μm, PM10). La eficiencia de una sola pasada es de más del 90 % incluso a altos caudales superficiales. Nuevos materiales como zeolitas o polímeros han sido probados como filtros efectivos para PM al resultar alternativas muy económicas. Los materiales más populares para el proceso de adsorción son el carbón activado y las zeolitas, alcanzándose tasas de eliminación del 90 % para BTEX (benceno, tolueno, etilbenceno y xileno) utilizando carbón activado y nanocompuestos de carbón como materiales adsorbentes. En general las tecnologías de adsorción se consideran las mejores físicas/químicas para la eliminación de COV en interiores [15]. Igualmente, la desfavorable situación que presentan las emanaciones contaminantes en el sector farmacéutico ha sido estudiada por varios autores [16, 17] y se descubrió que este sector en promedio genera emisiones contaminantes con mayor intensidad que la industria automovilística [17]. El CO2 es el principal GEI emitido por las actividades humanas. Es por esto que la captura y utilización del carbono, es una respuesta sostenible al problema [18]. Otra solución que actualmente se proponen se fundamenta en un giro en las políticas del impuesto al carbono donde el impuesto se aplicaría en función de si una empresa está por debajo o no de la intensidad de emisión de su sector [17]. Por otra parte, el ruido en entornos industriales y de oficina puede conducir a una mayor excreción de catecolaminas, considerada como un marcador de aumento del estrés. El ruido puede causar problemas cardiovasculares y fisiológicos pues se ha observado frecuentemente la aparición de problemas en la circulación periférica, problemas cardiacos y alteraciones del equilibrio en industrias ruidosas [19]. Al igual que la contaminación crónica del aire, la exposición al ruido puede influir en el proceso de envejecimiento fisiológico del cerebro. Los estudios ofrecen pruebas contundentes de la existencia de cambios estructurales en el cerebro debido a la contaminación del aire y la exposición al ruido, acompañado de las pérdidas del rendimiento cognitivo [20]. Por tanto, resulta indispensable la búsqueda de soluciones viables que permitan la reducción y control de las irradiaciones de contaminación sonora, como el uso de la absorción y el aislamiento acústico que pueden reducir la potencia de transmisión del ruido. En muchas industrias que solo se instrumenta un programa de equipo de protección personal (PEPP), pero estos solo previenen la exposición al ruido indirectamente y debe ser supervisado estrictamente [21]. Por ende, reducir la fuente mediante el desarrollo y la selección de equipos de bajo nivel de ruido, es el método más eficaz para controlar el ruido. Aunque, si se desea reducir la intensidad del ruido también se puede recurrir al empleo de una suspensión de material fonoabsorbente en techos y superficies. Mediante el empleo de este método se puede obtener una reducción de ruido de 8 a 12 dB [22]. Por otro lado, se ha demostrado que casi la mitad de todos los ríos del mundo están contaminados con cantidades preocupantes de IFAs llegando a alcanzar niveles tóxicos para los humanos, peces y otros animales. Uno de los elementos más alarmantes es que la presencia de compuestos antimicrobianos en el medio ambiente puede estar contribuyendo a la creación de bacterias resistentes a los medicamentos [23]. La metformina (MET), uno de los cinco medicamentos más empleados mundialmente, se ha detectado en las aguas superficiales e inclusos en aguas potables, considerándose ya un contaminante emergente. Se demostró que la MET reacciona con el hipoclorito formando dos subproductos los cuales poseen niveles de toxicidad iguales o mayores al del arsénico. Y, se encontró que al someter el residual a temperaturas superiores a los 100 °C o a procesos de absorción con carbón activado, se logra la eliminación de gran parte de los subproductos [24]. Todos estos argumentos solo refuerzan la necesidad de generar un sistema de tratamiento eficiente que sea capaz de contrarrestar el potencial tóxico que poseen las aguas residuales resultantes de esta actividad industrial. En la industria farmacéutica cubana no se reportan abundantes estudios que aborden este tema, por lo que solo se pudo realizar la consulta de dos estudios. La primera investigación plantea que se han detectado, recurrentemente, trazas de fármacos citostáticos en alcantarillados y menos frecuentemente en aguas superficiales. Desde los primeros análisis de laboratorio se logró establecer que la ozonización y/o los procesos de oxidación avanzados (POAs) permiten la degradación de diferentes moléculas de estos medicamentos en medio acuoso y eliminan la mutagenicidad de estos. Por lo que se pudo pasar al escalado a nivel industrial y posteriormente introducir exitosamente estos métodos en los tratamientos de aguas residuales de las plantas de producción de fármacos antineoplásicos [25]. Por otra parte, el segundo trabajo trata del desarrollo de una zeolita A jerarquizada con una alta capacidad de adsorción de ciprofloxacina. Durante la investigación se empleó a modo de comparación una clinoptilolita natural cubana. Los resultados de los estudios de adsorción de ciprofloxacina demostraron que la zeolita A jerarquizada presenta una alta capacidad de adsorción (383 mg/g) muy superior a la de la zeolita natural (73 mg/g); y superior, además, a la de otros adsorbentes reportados en la literatura. Por lo que se evidencian las potencialidades del material desarrollado en la remoción de fármacos de aguas residuales provenientes de la industria farmacéutica [26]. 2. MATERIALES Y MÉTODOS Para realizar este trabajo se recurrió a la recopilación de los datos de la entidad mediante reiteradas visitas al centro y la entrevista con especialistas del mismo. Además de realizar una revisión bibliográfica de los aspectos a tratar y los modos de actuación internacionales. Paso que posibilitó la adquisición de herramientas y argumentos para poder realizar un análisis consecuente, riguroso y adecuadamente fundamentado de los principales aspectos que caracterizan la sostenibilidad en la unidad. Posteriormente se establecieron diferentes indicadores para cuantificar el nivel de sustentabilidad que posee la entidad, valorando aquellos elementos propios que mayor incidencia poseen en las pérdidas económicas o que pueden tener un mayor aprovechamiento. A continuación, se estableció el caso base, para comprender con mayor profundidad las condiciones particulares de la entidad. Se analizó y clasificó del estado actual de los índices elegidos; y se seleccionaron los indicadores más críticos para formar el caso base mejorado. Finalmente, se analizaron los resultados esperados, y se compararon; con ayuda de un gráfico radial, con el estado inicial de los indicadores escogidos. Descripción del caso base presentado Como la actividad productiva que se realiza en estas instalaciones es muy propensa a generar grandes emisiones contaminantes, se realizaron mediciones del contenido de gases, de PM10 y niveles de polvo generados durante las mismas y en las áreas de trabajo más críticas. Además, de analizarse el nivel de emanaciones de gases combustibles durante la operación del proceso, en parte porque la entidad aún cuenta con varios equipos y transportes que demandan del empleo de combustibles fósiles en su funcionamiento. Además, el establecimiento carece de un sistema de manejo de aguas residuales idóneo, lo que conduce a que los efluentes líquidos generados posean una alta carga contaminante al momento de su deposición. Asimismo, la planta de producción posee una alta generación de residuales sólidos durante su desempeño. Y, por esta razón en busca de lograr un manejo de estos lo más adecuado posible, se ha elaborado todo un sistema de clasificación en cuanto a su naturaleza, origen y el tratamiento que debe recibir cada uno. Además, la industria química requiere el empleo de sustancias consideradas como peligrosas. Por lo que se impone el planteamiento de un adecuado protocolo de actuación para su manejo. La variable ambiental ruido es un factor importante a tomar en cuenta, pues este sector resulta potencialmente ruidoso y, por ende, se estudió minuciosamente el comportamiento de este parámetro. Por otro lado, un criterio significativo en la sostenibilidad de un proceso, por el fuerte impacto ambiental que genera, es el nivel de empleo de Sustancias agotadoras de la capa de ozono (SAOs) que en este caso son únicamente utilizadas en los equipos de refrigeración y climatización. La entidad presenta una gran variedad de riesgos que inciden directamente en las probabilidades de accidentes laborales por lo que este fue un aspecto a considerar en todo momento. Además, se llevaron a cabo disimiles pesquisas e investigaciones acerca de elementos sociales, tales como la distribución étnica, de género y etaria. Se valoró el impacto social de la industria y se muestreo del nivel de acceso a las capacitaciones y superaciones en el colectivo laboral. A través de encuestas se accedió a datos económicos sobre las erogaciones relacionadas con los consumos de energía eléctrica, de agua y combustibles. Lo cual se comparó con los ingresos de la producción. En base a todo esto se seleccionaron los indicadores de sostenibilidad a emplear y se confeccionaron las escalas de clasificación. La cuales exponen los diferentes niveles que se les podría asignar a estos. Dichas escalas se resumen en las tablas 1, 2 y 3. Tabla 1: Escala de clasificación para los indicadores ambientales. Indicador 0 1 2 3 4 5 Empleo de SAOs Es un estado no deseado donde se hace empleo de estas sustancias de forma reiterada e indiscriminada Aún se hace un abundante uso de estas sustancias, pero se percibe una ligera disminución de su empleo Se supera ligeramente los límites en el uso de SAOs, pero se cuenta con una tasa de reducción anual Se hace un uso medio de estas sustancias estando en el límite de aceptación Es un estado donde el uso de estas sustancias resulta moderado Se han erradicado de permanentemente o se emplea muy excepcionalmente este tipo de sustancias Contaminación sonora (dB medidos/ dB normados) ≥ 1,4 1,39 - 1,30 1,29 - 1,20 1,19 - 1,10 1,09 - 1,00 ≤ 0,99 Ahorro de agua (m3 ahorrados/ m3 consumidos) 0 0 - 10 % 11 - 25 % 26 - 39 % 40 - 49 % ≥ 50 % Eliminación de las sustancias persistentes (% de eficiencia en la remoción) < 20 % 20 - 39 % 40 - 59 % 60 - 79 % 80 - 99 % 100 % Calidad del aire interior [ (mg/m3) de PM10 generado/(mg/m3) de PM10 normado] ≥ 1,40 1,39 - 1,30 1.29 - 1,20 1,19 - 1,10 1,09 - 1,00 ≤ 0,9 Calidad de los residuales líquidos [(mg DBO/L) medidas/ (mg DBO/L) límite] ≥ 1,50 1,49 - 1,35 1,34 - 1,20 1,19 - 1,10 1,09 - 1,00 ≤ 0,9 Emisiones de NOx medidas/emisiones de NOx normadas ≥ 1,50 1,49 - 1,35 1,34 - 1,20 1,19 - 1,10 1,09 - 1,00 0,9 - 0,8 Consumo de combustibles fósiles (cantidad de energía obtenida por combustible fósil / consumo energético de la planta) Uso indiscriminado de fuentes de energía no renovables (0,9 - 1) La explotación intensiva de combustibles tradicionales, se han previsto programas de sustitución a largo plazo (0,7 - 0,8) Empleo predominante de combustibles fósiles, inicio del empleo de métodos alternativos de generación (0,5 - 0,6) Se emplean en igual magnitud las alternativas sustentables y los carburantes geológicos (0,3 - 0,4) Se cubre la mayor parte de demanda energética con métodos ambientalmente más viables (0,1 - 0,2) Se han sustituido las fuentes de generación de origen fósil con opciones sostenibles, empleo de biocombustibles (0,0) Residuos sólidos tratados/ residuos sólidos generados 0,0 - 0,1 0,2 - 0,3 0,4 - 0,5 0,6 - 0,7 0,8 - 0,9 1,0 Tabla 2: Escala de clasificación para los indicadores sociales. Indicador 0 1 2 3 4 5 Por ciento de mujeres vinculadas 0 < 10 % 10 - 29 % 30 - 39 % 40 - 50 % ≥ 50 % Por ciento de la demanda nacional que cubre la entidad 10 - 20 % 21 - 40 % 41 - 60 % 60 - 80 % 81 – 90 % ≥ 91 % Porción de trabajadores entre 21 y 35 años < 10 % 10 - 29 % 30 - 59 % 60 - 79 % 70 - 80 % > 80 % Distribución racial (% de negros y mestizos) <10 % 10 - 19 % 20 - 29 % 30 - 39 % 40 - 49 % ≥ 50 % Accidentes laborales por años ≥ 1 0 Superaciones anuales de los trabajadores < 20 % 20 - 39 % 40 - 59 % 60 - 79 % 80 - 99 % 100 % Tabla 3: Escala de clasificación para los indicadores económicos. Indicador 0 1 2 3 4 5 Ingresos de producción por costos de energía ($ ventas/$ costos) entre 10 y 99 entre 100 y 199 200 - 299 300 al 399 desde 400 hasta 499 500 Ingresos de producción por costos de agua ($ ventas/$ costos) De 10 a 99 índice de 100 a 199 entre 200 y 299 300 - 399 400 - 499 500 Ingresos de producción por costos de combustibles ($ ventas/$ costos) 10 - 99 100 - 199 200 - 299 300 - 399 entre 400 y 499 500 3. RESULTADOS Y DISCUSIÓN Análisis del caso base Partiendo de la escala de clasificación que corresponde a cada indicador (Tabla 4), se realizó una valoración individual que llevo al siguiente análisis. Manejo de los desechos peligrosos (Desechos peligrosos tratados/ Desechos peligrosos generados) No existe un plan de manejo de residuos peligrosos, estos son desechados junto con los residuos comunes (0,0 - 0,1) Los desechos son clasificados y separados de los residuos comunes, la eliminación no siempre se realiza apropiadamente (0,2 - 0,3) Programa de manejo de desechos peligrosos ineficiente, grandes producciones de desechos de este tipo, no se garantiza su eliminación segura (0,4 - 0,5) Control limitado de los residuos inestables que se originan la gestión no es totalmente efectiva (0,6 - 0,7) Los programas de gestión de desechos peligrosos funcionan bien, eliminación correcta de gran parte de estos (0,8 - 0,9) Generación mínima de residuos peligrosos, muy buen programa de prevención. La fracción que se produce recibe un tratamiento adecuado (1,0) Agua residual tratada/ agua consumida 0,0 - 0,1 0,2 - 0,3 0,4 - 0,5 0,6 - 0,7 0,8 - 0,9 1,0 Tabla 4: Valoración del estado de los indicadores ambientales. Indicadores ambientales Valor asignado al indicador Empleo de SAOs 2 Contaminación sonora (dB medidos/ dB normados) 2 Ahorro de Agua (m3 ahorrados/m3 consumidos) 0 Eliminación de sustancias persistentes [(mg/L) / kg MET] 0 Calidad del aire interior (mg/m3 de PM10 generado/mg/m3 de PM10 normado) 3 Calidad de los residuales líquidos [(mg DBO/L) medidas/ (mg DBO/L) límite] 0 Emisión de gases contaminantes a la atmosfera (emisiones de NOx medidas/emisiones de NOx normadas) 0 Consumo de combustibles fósiles (cantidad de energía obtenida por combustible fósil / consumo energético de la planta) 0 Residuos sólidos tratados/ residuos sólidos generados 4 Manejo de los desechos peligrosos (Desechos peligrosos tratados/ Desechos peligrosos generados) 1 Cantidad de agua residual tratada/ agua consumida en el proceso 0 En el empleo de SAOs se evidenció todavía 64 equipos las demandan para su funcionamiento y se emplean con una moratoria hasta el año 2030 debiéndose sustituir un 10 % anual [27]. Es por esto que se trabaja en el desarrollo de acciones estratégicas para cumplir con esta tasa de reducción anual. En cuanto a la contaminación sonora, los resultados obtenidos de los controles evidencian que los puestos de trabajos asociados directamente a la producción presentan niveles sonoros por encima de lo establecido (85 dB) [28]. Además, existen algunos puestos considerados con peligro grave pues las mediciones están por encima de los 100 dB. Por tanto, sería beneficioso el empleo de suspensiones de materiales fonoabsorbentes en techos y superficies. Además, de hacer mayor énfasis en el empleo de los EPP adecuados y propiciar oportunas revisiones audio métricas a los trabajadores que se encuentran expuestos directamente a esta variable ambiental. Los datos obtenidos sobre las emanaciones evidenciaron que los valores de las partículas suspendidas totales (PST) así también como los de las emanaciones de CO2 y monóxido de carbono respectivamente, se encuentran dentro de los límites establecidos; aunque los niveles de PM10 exceden ligeramente lo normado. Para perfeccionar este aspecto se plantea la puesta en práctica de un proyecto de remodelación del sistema de extracción de polvo central mediante el empleo de la filtración mecánica [29]. Adicionalmente, el plan de ahorro y uso integral de los recursos hídricos actual no logra garantizar su óptimo aprovechamiento. Por ello, se sugirió el diseño de un sistema de recirculación para la recuperación de parte del agua de rechazo de la planta purificadora. Por otra parte, debido a la persistencia de ciertos medicamentos en las aguas residuales, se propone el empleo de procesos de adsorción con zeolita A jerarquizada como método de pretratamiento de los residuales líquidos generados en la empresa. A la par se disminuirían los altos niveles de coliformes presentes en el residual, si el sistema de evacuación de residuales tuviera en sus inmediaciones un sistema de tratamiento primario. Y, por tanto, resulta oportuno la aplicación de tecnologías de ozonización que cumplan con este fin. Esto ayudaría a incrementar la porción aguas residuales tratadas en relación con el índice de consumo del proceso. Además, se detectó que más del 80 % de los desechos sólidos de la entidad son reutilizados. Aunque resultaría aún más beneficioso la búsqueda de alternativas de reúso o tratamiento alternativo para aquella fracción de residuales sólidos que permanecen sin ser recicladas actualmente. Por otro lado, el plan de manejo de los desechos peligrosos resulta limitado para brindar un adecuado tratamiento a estos residuos. Por tanto, se propone continuar con el perfeccionamiento del mismo. Y, promover el más adecuado tratamiento final para cada caso. Asimismo, las emisiones de gases contaminantes a la atmosfera se encuentran en una posición muy desfavorable pues algunas de las áreas analizadas muestran valores de NOx y del dióxido de azufre (SO2) fuera del parámetro de 500 mg/Nm3. Por otro lado, la planta cuenta con una plantilla en la que las mujeres representan el 45 %. Y, la porción de negros y mulatos es del 79 % por lo que existe una alta inclusión dentro del equipo de trabajo. Además, la mayor parte de los empleados se encuentran en el rango de 21 a 35 años de edad por lo que existe una buena renovación de la fuerza de trabajo en el centro (Tabla 5). Tabla 5: Valoración del estado de los indicadores sociales. Indicadores sociales Valor asignado al indicador Por ciento de mujeres vinculadas 4 Por ciento de la demanda nacional que cubre la entidad 5 Porción de trabajadores entre 21 y 35 años 4 Distribución racial (% de negros y mestizos) 5 Accidentes laborales por años 0 Superaciones anuales de los trabajadores 2 Así mismo, la producción de la unidad es capaz de abastecer totalmente la demanda en el país. Siendo los pacientes beneficiados con el fármaco el 20,53 % de la población diabética cubana [30, 31]. Cabe destacar que el centro cuenta con un buen programa de superaciones y capacitaciones. Sin embargo, no se alcanzan elevados niveles de superaciones anuales (30 %) en los empleados que se encuentran vinculados de manera directa con la producción. Por lo que se plantea realizar una mayor promoción de las oportunidades de superación que se brindan a nivel institucional. De igual forma, aunque existe un programa de prevención de riesgo, que logra evitar en gran medida los potenciales accidentes e incidentes en la unidad; no llega a dar una completa cobertura todos los riesgos que se presentan. Por lo que se aconseja aumentar la exigencia en el cumplimiento de los procedimientos normados de operación y las medidas de protección. Los índices de consumo de energía eléctrica del centro son todavía elevados. Por tanto, se sugiere elaborar un plan integrar de minimización del gasto energético en la entidad y proponer la sustitución a largo plazo de las fuentes de energía eléctrica que actualmente se emplean hacia otras más sostenibles y que reduzcan los costes de consumo. El uso del agua se encuentra en una situación media en la cual el consumo está relativamente controlado. No obstante, se puede continuar trabajando en función de mejorar este aspecto mediante la promoción y puesta en práctica de planes de reutilización de efluentes. La implementación de estos disminuiría el consumo total de agua en la planta y los gastos asociados. La empresa aún realiza un empleo intensivo de combustibles fósiles para satisfacer la totalidad de la demanda de la planta. Por ende, se propone la sustitución de estos, por alternativas que generen un impacto ambiental menor y reduzcan los dispendios en este aspecto. Además de la implementación de sistemas que aumenten de la eficiencia en las calderas y disminuyan el empleo de los carburantes. Tabla 6: Valoración del estado de los indicadores económicos. Indicadores económicos Valor asignado al indicador Ingresos de producción por costos de energía ($ ventas/$ costos) 0 Ingresos de producción por costos de agua ($ ventas/$ costos) 3 Ingresos de producción por costos de combustibles ($ ventas/$ costos) 0 Establecimiento de un nuevo escenario mejorado Por tanto, luego de evaluar el estado actual de los indicadores escogidos, se ha planteado un escenario 1 (tabla 7) seleccionando aquellos aspectos que se encontraban en una situación desfavorable y que la implementación de las respectivas propuestas de mejoras resultaría en un significativo paso de avance hacia una posición más óptima. Los indicadores escogidos para conformar el escenario 1 y los correspondientes niveles asignado a cada uno de ellos se muestran a continuación: Tabla 7: Valoración del estado de los indicadores ambientales en el escenario mejorado. Indicadores ambientales Valor asignado al indicador Contaminación sonora (dB medidos/ dB normados) 3 Ahorro de Agua (m3 ahorrados/m3 consumidos) 2 Eliminación de sustancias persistentes (mg/L x kg MET) 5 Calidad del aire interior (mg/m3 de PM10 generado/mg/m3 de PM10 normado) 5 Calidad de los residuales líquidos [(mg DBO/L) medidas/ (mg DBO/L) límite] 4 Cantidad de agua residual tratada/ agua consumida en el proceso 5 Ingresos de producción por costos de agua ($ ventas/$ costos) 4 La evaluación de los indicadores se llevó acabo partiendo de la estimación de los resultados que pueden esperarse en la aplicación de las tecnologías involucradas en la implementación de estas propuestas. Y, además, tomando como referencia las eficiencias concernientes en las literaturas internacionales para cada una de estas tecnologías. La mejora obtenida en torno a la contaminación sonora en el recinto se obtendrá a través de la aplicación de suspensiones de materiales fonoabsorbentes en techos y superficies, lo cual se estima requerirá una inversión de 12,54 USD/m2. Esta medida logrará una reducción de al menos 10 dB en las emisiones actuales, lo cual ubicará el valor de este indicador en aproximadamente 1,1. Esto suscitará una mejoría sustancial principalmente para la salud de los empleados que se desenvuelven directamente en estas áreas. Por su parte, la implementación del plan de ahorro de agua mediante la recirculación del agua de rechazo de la planta purificadora permitirá una disminución de 831 m3 en el consumo, junto con un ahorro económico de $ 4133,85. Esto resulta un paso de avance hacia un estado más favorable, pero, aún no resulta tan significativo. Por ende, se exhorta a explorar otras áreas para la recuperación de efluentes. Con respecto a los efluentes residuales líquidos la propuesta final resultó en instaurar una pequeña planta de tratamiento de agua a la salida de la planta de producción. Esta estaría compuesta de por un sistema de pretratamiento de aguas residuales, que logra procesar alrededor de 50 m3/h con un costo de adquisición de 10500 USD; y 4 filtros con capacidad de 8 m3/h cada uno, que permitirán procesar el flujo total de agua generado en la entidad y para la obtención de los mismos se deberá realizar una inversión de 22000 USD. En esta planta de tratamiento se aplicarán procesos de adsorción, con la zeolita A jerarquizada y se estimó que permitirá la remoción del 99 % de la sustancia persistente (partiendo de su alta capacidad de adsorción). Por tanto, los tres aspectos que guardan estrecha relación con esta decisión serán ampliamente beneficiados y exhibirán luego de su ejecución niveles más favorables. Por otra parte, se implementarán filtros mecánicos con una la alta eficiencia en la remoción del PM10 (95 - 99,99 %), una porosidad de 0,3 μm y un precio de adquisición de 850 USD. Esto permitirá que el indicador se sitúe en óptimas condiciones en el nuevo escenario. Pues, con la remodelación del sistema de extracción de polvos central, este parámetro disminuirá quedando muy por debajo de los límites normados. Para visualizar con mayor claridad la situación que tendrá la planta con la aplicación de las medidas de mejoras proyectadas, se recurre al empleo de una gráfica radial (figura 1): Figura 1: Gráfica de radial para la comparación de los dos escenarios trabajados. 4. CONCLUSIONES Se puede plantear que el empleo de criterios de sostenibilidad puede resultar una herramienta sumamente valiosa para caracterizar el estado actual de las plantas de producción de la industria farmacéutica cubana. Estos criterios servirán de punto de comparación con los estándares internacionales, pudiendo conducir al planteamiento de propuestas de mejoras que logren resultados alentadores. Adicionalmente se evidencian las grandes potencialidades que poseen las propuestas realizadas en cada uno de los aspectos analizados. Es por ello que se exhorta a la empresa a poner en práctica algunos de los cambios planteados, haciendo especial énfasis en el empleo de métodos de eliminación de PM, la reducción de la contaminación sonora y en la aplicación de sistemas de tratamiento de residuales líquidos; con el fin de lograr acercar la situación actual de la planta hacia una mucho más favorable. REFERENCIAS 1. FEDERSEL, H.-J., In search of sustainability: process R&D in light of current pharmaceutical industry challenges. Elsevier, 2006. 11. 2. FEDERSEL, H.-J., The Integration of Process R&D in Drug Discovery – Challenges and Opportunities. Combinatorial Chemistry & High Throughput Screening, 2006. 9: p. 79-86. 3. FEDERSEL, H.-J., Logistics of process R&D:Transforming laboratory methods to manufacturing scale. Nature Reviews, 2003. 2: p. 654-664. 4. CHATURVEDI, U., et al., Evolution and Adoption of Sustainable Practices in the Pharmaceutical Industry: an overview with an Indian Perspective. Journal Cleaner Production, 2017. 5. KUMAR, A., et al., When risks need attention: adoption of green supply chain initiatives in the pharmaceutical industry. International Journal of Production Research, 2018. 6. MILANESI, M., A. RUNFOLA, AND S. GUERCINI, Pharmaceutical industry riding the wave of sustainability: Review and opportunities for future research. Journal of Cleaner Production, 2020. 7. MISHRA, M., et al., Green synthesis interventions of pharmaceutical industries for sustainable development. Journal Current Research in Green and Sustainable Chemistry, 2021. 8. PEDROSA DE OLIVEIRA, D., J. SOUZA RIBEIRO COSTA, AND L. OLIVEIRA- NASCIMENTO, Sustainability of blisters for medicines in tablet form Journal Sustainable Chemistry and Pharmacy, 2021. 9. MANISALIDIS, I., et al., Environmental and Health Impacts of Air Pollution: A Review. Journal Frontiers in Public Health, 2020. 8. 10. LANDRIGAN, P.J., Air pollution and health. The Lancet, 2017. 2. 11. GLENCROSS, D.A., et al., Air pollution and its effects on the immune system. Journal Free Radical Biology and Medicine, 2020: p. 56–68. 12. MANISALIDIS, I., et al., Environmental and Health Impacts of Air Pollution: A Review. Journal Frontiers in Public Health, 2020. 8. 13. ZORAN, M.A., et al., Assessing the relationship between surface levels of PM2.5 and PM10 particulate matter impact on COVID-19 in Milan, Italy. Journal Science of the Total Environment, 2020. 14. ANSER, M.K., et al., The impact of coal combustion, nitrous oxide emissions, and traffic emissions on COVID-19 cases: a Markov-switching approach. Journal Springer, 2021. 15. GONZÁLES-MARTÍN, J., et al., A state-of-the-art review on indoor air pollution and strategies for indoor air pollution control. Journal Chemosphere, 2021. 16. OKEREKE, M., How Pharmaceutical Industries Can Address the Growing Problem of Climate Change. The Journal of Climate Change and Health, 2021. 17. BELKHIR, L. AND A. ELMELIGI, Carbon footprint of the global pharmaceutical industry and relative impact of its major players. Journal of Cleaner Production, 2018: p. 185-194. 18. GARCIA, M., et al., CO2 capture and revalorization as carbonate crystals using membrane technologies. 19. MÜNZEL, T., et al., The Adverse Effects of Environmental Noise Exposure on Oxidative Stress and Cardiovascular Risk. Mary Ann Liebert, Inc., 2018. 28. 20. NUßBAUM, R., et al., Associations of Air Pollution and Noise with Local Brain Structure in a Cohort of Older Adults. Journal Environmental Health Perspectives, 2020. 21. NASRI, S.M. and I. Shofwati, Utilization of Styrofoam as Soundproofing Material with Auditory Frequency Range. National Public Health Journal, 2018: p. 99-104. 22. Physical pollution control technology. 2017: University of Groningen. p. 139-189. 23. BOUZAS-MONROY, A., et al., Assessment of the Potential Ecotoxicological Effects of Pharmaceuticals in the World's Rivers. Journal Environmental Toxicology and Chemistry, 2022. n/a(n/a): p. 1–13. 24. ZHANG, R., et al., Metformin chlorination byproducts in drinking water exhibit marked toxicities of a potential health concern. Journal Environment International, 2021. 25. FERNÁNDEZ GARCIA, L., et al., Review of cytostatics wastewater degradation by ozone and advanced oxidation processes: Results from Cuban studies. Journal Environmental Reviews, 2019. 26. MENEAU-HERNÁNDEZ, R.I., et al., Adsorción de ciprofloxacina en materiales zeolíticos. Revista Cubana de Química, 2021. 33. 27. OFICIAL, G., Resolución No. 127/2012. 2012: Gaceta Oficial de la República de Cuba 28. NORMALIZACIÓN, NC 871:11 Seguridad y Salud en el Trabajo. Ruido en el Ambiente Laboral. Requisitos Higiénicos Sanitarios Generales, I.d. Normalización, Editor. 2011: Norma Cubana. 29. WHO. Ambient (outdoor) air pollution. 2021 22/9/2021 [cited 2021 28/9/2021]; Available from: https://www.who.int/news-room/fact-sheets/detail/ambient-(outdoor)-air-quality-and-health. 30. Cuba: Economía y demografía. 2021 07/11/2021 [cited 2021; Available from: https://countryeconomy.com/countries/cuba. 31. NODA ALONSO, S. Diabetes Mellitus: comorbilidad a tener en cuenta en tiempos de COVID- 19. [Sitio oficial de gobierno ] 2021 9 de noviembre del 2021; Available from: https://salud.msp.gob.cu/diabetes-mellitus-comorbilidad-a-tener-en-cuenta-en-tiempos-de-covid-19/. BIORREACTORES DE MEMBRANAS PARA EL TRATAMIENTO DE LAS AGUAS RESIDUALES DE LA UEB BALKÁN Jeney Ajete Acosta1, Aymeé Montano Pérez2, Lianys Ortega Viera3, Elina Fernández Santana3 1Instituto de Investigaciones de Granos (IIG), Autopista Novia del Mediodía km 16 ½, Bauta, Artemisa, Cuba, 2Empresa de Productos Lácteos Artemisa, UEB Balkán, Carretera Cayo La Rosa km 3 ½, Bauta, Artemisa, Cuba, 3Universidad Tecnológica de La Habana “José Antonio Echeverría” Cujae, La Habana, Cuba, 3e-mail: lortega@quimica.cujae.edu.cu RESUMEN La contaminación de las aguas residuales constituye uno de los grandes problemas ambientales del siglo XXI y es una consecuencia inevitable de las actividades humanas. Es un hecho que el vertido de aguas residuales sin depurar causa daños, en ocasiones irreversibles, al medio ambiente, y supone riesgos para la salud pública. Las aguas residuales de la industria láctea son una fuente de contaminación importante, es por ello que se debe llevar a cabo su tratamiento. Su impacto medioambiental está en gran medida determinado por los efluentes líquidos, que contienen un alto porcentaje de carga orgánica, debido a la pérdida de productos durante el procesamiento. Este trabajo tiene como objetivo analizar la importancia y beneficios de un sistema de tratamiento para las aguas residuales de la Unidad Empresarial de Base Balkán. Para llevarlo a cabo se realizó una búsqueda bibliográfica actualizada de la temática a abordar, donde se investigó la contaminación de las aguas, las características y composición de las aguas residuales, los tipos de tratamientos para su depuración, siendo la tecnología de Biorreactores de Membranas (BMR) una de las más apropiadas para el tratamiento de estas aguas contaminadas. PALABRAS CLAVES: aguas residuales, biorreactores de membranas, contaminación, industria láctea, tratamiento MEMBRANE BIOREACTORS FOR THE TREATMENT OF WASTEWATER FROM THE UEB BALKAN ABSTRACT Wastewater pollution is one of the great environmental problems of the 21st century and is an inevitable consequence of human activities. It is a fact that the discharge of untreated wastewater causes damage, sometimes irreversible, to the environment, and poses risks to public health. The wastewater from the dairy industry is an important source of contamination, which is why its treatment must be carried out. Its environmental impact is largely determined by the liquid effluents, which contain a high percentage of organic load, due to the loss of products during processing. The objective of this work is to analyze the importance and benefits of a treatment system for the residual waters of the UEB Balkán. To carry it out, an updated bibliographic search of the subject to be addressed was carried out, where the contamination of the waters, the characteristics and composition of the wastewater, the types of treatments for its purification, being the technology of Membrane Bioreactors (BMR) one of the most appropriate for the treatment of these polluted waters. KEY WORDS: wastewater, membrane bioreactors, pollution, dairy industry, treatment 1. INTRODUCCIÓN La creciente importancia que tiene la conservación de los recursos naturales, ha despertado en el hombre la búsqueda de métodos cada vez más eficientes y sofisticados para cuidarlos, recuperarlos y aprovecharlos. El agua es un elemento primordial, un recurso esencial para la vida y el más abundante de la Tierra. Es uno de los compuestos o elementos naturales fundamentales para la supervivencia de las especies y junto con el aire, la tierra y la energía; constituye uno de los cuatro recursos básicos en que se apoya el desarrollo. Sin embargo, su disponibilidad es muy escasa debido a los diferentes usos y actividades realizadas por el hombre, siendo las más importantes de tipo industrial, agrícola y doméstico. La importancia de la calidad de esta ha tenido un lento desarrollo, pero no fue hasta finales del siglo XIX que se reconoce como posible portadora de numerosas enfermedades infecciosas. Hoy en día, la importancia tanto de la cantidad como de la calidad de la misma, está fuera de toda duda [1]. La industrialización es la columna vertebral para el desarrollo de muchos países, pero la contaminación por residuos líquidos causada por las industrias es una seria preocupación a nivel mundial. El hombre influye sobre el ciclo del agua de dos formas distintas, directamente mediante la extracción y posterior vertido de aguas contaminadas, e indirectamente alterando la vegetación y la calidad de las mismas [2]. El tratamiento de aguas residuales es necesario para la prevención de la contaminación ambiental, al igual que para la protección de la salud pública. De acuerdo al Banco Internacional de Reconstrucción y Fomento (Banco Mundial), más de 300 millones de habitantes en Latinoamérica producen 225 000 toneladas de residuos sólidos cada día. Sin embargo, menos del 5 % de aguas de alcantarillado reciben tratamiento. Con la ausencia de estos, las aguas negras son por lo general vertidas en aguas superficiales, creando un riesgo para la salud humana, la ecología y los animales. En Latinoamérica, muchas corrientes son receptoras de descargas directas de residuos domésticos e industriales. La región presenta una gran necesidad de reducir el impacto ambiental provocado por la falta de tratamiento de las aguas, sin mencionar una preocupación por la salud humana [3]. Por tales razones es necesaria la implementación de sistemas de tratamiento que incluyan procesos físicos, químicos y biológicos eficaces en la depuración de aguas residuales, los cuales dependerán del tipo de efluente, la carga contaminante presente y el grado de purificación requerido, así como del cumplimiento de la normativa ambiental vigente para la descarga de efluentes [4]. En la actividad industrial es imposible generalizar sobre la contaminación del agua, ya que el grado de contaminación es específico del tipo de industria, lo que requiere un adecuado tratamiento de las aguas residuales para su posterior descarga al cuerpo receptor, a fin de proteger el medio ambiente. La contaminación no solo altera el equilibrio ecológico produciendo la muerte de algunas especies animales y vegetales o la proliferación descontrolada de otras, sino que puede destruir en forma definitiva la vida en los lugares afectados. El hombre debe cuidar su entorno y crear alternativas de tratamiento para los efluentes que genera con sus acciones pues, aunque no es un ser acuático, ha llegado a depender intensamente de este medio para satisfacer sus necesidades tecnológicas y sociales. Estas necesidades deben ser cubiertas utilizando métodos que sean compatibles con los ecosistemas, lo que requiere un cambio de cada actividad social, para que las mismas no sean contaminantes, preserven la diversidad natural, social y cultural y aseguren la capacidad de las generaciones venideras [5]. Las aguas residuales están conformadas por desechos líquidos a tratar para su vertido o reutilización, constituyendo un importante foco de contaminación de los sistemas acuáticos; por lo que se hacen necesarios los sistemas de depuración antes de evacuarlos, como medida importante para la conservación del medio y para el mejoramiento de la calidad de vida. Estos efluentes líquidos industriales generan una gran cantidad de contaminantes, principalmente materia orgánica, aceites y grasas, sólidos suspendidos y disueltos, Demanda Bioquímica de Oxígeno (DBO5), Demanda Química de Oxígeno (DQO), nitrógeno, coliformes, color y olor característico; parámetros muy importantes que deben ser analizados antes de ser descargados a los cuerpos de agua dulce o sistemas de alcantarillado para evitar problemas de contaminación en los ríos y ambiente [6]. De todas las actividades industriales, el sector alimentario tiene uno de los mayores consumos de agua y es uno de los mayores productores de efluentes por unidad de producción. Debido al desarrollo industrial, el aumento poblacional y a la creciente demanda de productos de origen lácteo, a lo largo de los últimos años se ha multiplicado el desarrollo e implementación de industrias que utilizan como materia prima la leche, para satisfacer las necesidades de consumo tanto a nivel local como nacional [4]. La industria láctea utiliza grandes volúmenes de agua para el proceso de producción de sus productos como son los diversos tipos de quesos, yogurt, mantequilla, cremas, entre otros; se incluyen también el agua para los procesos de lavado de equipos, materiales, de servicio y aseo del personal [6]. La Unidad Empresarial de Base (UEB) Balkán, perteneciente a la Empresa de Productos Lácteos Artemisa (EPLA), vierte sus efluentes líquidos industriales en un cuerpo receptor natural, es por ello que el presente tiene como objetivo: Analizar la importancia y beneficios de un sistema de tratamiento, basado en la tecnología de Biorreactor de Membranas para las aguas residuales de la UEB Balkán. 2. AGUAS RESIDUALES Y PROPUESTA DE TRATAMIENTO PARA LA UNIDAD EMPRESARIAL DE BASE (UEB) BALKÁN Composición y clasificación de las aguas residuales Las aguas residuales o residuales líquidos son la combinación de agua y residuos procedentes de residencias, instituciones públicas y establecimientos industriales, a los que pueden agregarse de forma eventual determinados volúmenes de aguas subterráneas, superficiales y pluviales. Esencialmente son aguas de abasto cuya calidad se ha degradado, como resultado de actividades humanas que modifican sus - propiedades físicas, químicas y biológicas, ocasionando daños irreversibles al ambiente [7-9]. En general los residuales líquidos contienen una gran cantidad de contaminantes, los cuales pueden presentarse en diversas formas, tales como suspendidos o disueltos, además de que por sus características químicas pueden ser orgánicos o inorgánicos. Todos estos aspectos deben tenerse en cuenta durante el tratamiento, donde el residual atraviesa diferentes etapas para eliminar los contaminantes [10]. La composición de las aguas residuales es de un 99,9 % de agua en su estado conocido como agua potable y de un 0,1 % por peso de sólidos, sean éstos disueltos o suspendidos. Este 0,1 % es el que requiere ser removido para que el agua pueda ser reutilizada, es la fracción más pequeña, pero representa el mayor problema a nivel de tratamiento. El agua sirve o actúa como medio de transporte de los sólidos, los que pueden estar disueltos, en suspensión o flotando en la superficie del líquido. La composición del agua residual está en función del uso, esta depende tanto de las características sociales y económicas de la población, así como del clima, la cultura y del uso del suelo [11]. Resulta conveniente abordar la clasificación de las aguas residuales de acuerdo con su origen, teniendo en cuenta que la solución a muchos de los problemas de contaminación es más efectiva cuando estos se eliminan desde su origen, por ejemplo, mediante la implementación de tecnologías que minimicen el vertido de los residuos industriales y acciones de carácter social que promuevan a una mayor conciencia y cultura ambientalista de la población. De esta manera, las aguas residuales se clasifican según su origen como: aguas residuales domésticas, industriales, agrícolas y pluviales [9, 12]. Características de las aguas residuales Las aguas residuales presentan características físicas, químicas y biológicas, las cuales deben ser determinadas para aplicar un tratamiento específico [10]. Entre ellas se encuentran, físicas: conductividad, color, olor, sabor, temperatura, turbidez, sólidos totales, sólidos totales disueltos, sólidos sedimentables, sólidos suspendidos; químicas: aceites y grasas, demanda bioquímica de oxígeno, demanda química de oxígeno, fosfatos, nitritos, nitratos, potencial hidrógeno, oxígeno disuelto, alcalinidad, dureza, entre otras y biológicas: bacterias, virus, algas, protozoos, hongos. Tratamientos de las aguas residuales Los tratamientos para las aguas residuales son el conjunto de operaciones y procesos físicos, químicos y biológicos a que se someten las mismas, para la remoción de contaminantes seleccionados, que permitan el vertimiento a cuerpos receptores y el cumplimiento de parámetros de reuso, evitando la afectación de patrones higiénicos, estéticos y económicos [13, 14]. El sistema de tratamiento a utilizar depende de los compuestos que integran los residuales. Razón por la cual la clasificación de estos desechos en sus distintos grupos, (compuestos halogenados, mercurio, aceite y otros) es de vital importancia al momento de seleccionar el tratamiento adecuado [15]. Los procesos de tratamiento de aguas residuales pueden clasificarse a partir de diversos principios, y aunque se reconocen otras maneras de clasificarlos, las formas más comunes son: según el fundamento prevaleciente en la tecnología (físico, físico-químico y biológico) y de acuerdo a la secuencia en una instalación de tratamiento (pre-tratamientos y tratamientos primarios, tratamientos secundarios y tratamientos terciarios) [16]. Residuales líquidos provenientes de la industria láctea La industria láctea genera gran cantidad de aguas residuales. Estas aguas concentran numerosos contaminantes que son originados en sus procesos. Aproximadamente, por cada litro de leche procesada genera hasta 10 L de agua residual. Tomando en cuenta que entre 1982 y 2012, esta industria a nivel mundial incrementó su producción de 482 a 754 millones de toneladas, es de gran interés el impacto ambiental que esta genera; por ejemplo, en India se descargan anualmente 200 millones de toneladas de efluentes. En Ecuador se desconocen informaciones sobre el monitoreo de efluentes de industrias lácteas a cuerpos naturales de agua, aunque se reporta una producción nacional de aproximadamente dos millones de litros diarios de leche, con un crecimiento de hasta 30 % anual en el consumo. De alta preocupación es el efecto nocivo para la biodiversidad provocado por efluentes de lecheras, puesto que contienen altas concentraciones de materia, así como también desechos inorgánicos como detergentes y sanitizantes [17]. En todos sus procesos productivos se utiliza gran cantidad de agua, cuyas características físicas, químicas y biológicas se alteran tras su uso, siendo necesario un tratamiento adecuado antes de ser descargada a un cuerpo de agua o alcantarillado. Las aguas residuales de esta industria se caracterizan por poseer una gran cantidad de materia orgánica, especialmente grasas y aceites, además de sólidos suspendidos y valores de pH con índices no aceptables para el vertimiento [2]. El problema más significativo en las industrias lácteas es la generación de elevados volúmenes de aguas residuales, con una concentración de carga contaminante muy alta, principalmente de tipo orgánico, parámetros como DBO5, DQO, aceites, grasas, fósforo y nitrógeno, los cuales son muy variables dependiendo del caudal y de los productos elaborados [18]. Estas industrias lácteas generan diferentes tipos de residuos que incluyen: aguas residuales de la línea de producción (limpieza de equipos y tuberías), por lo que contienen restos de productos lácteos y productos químicos (ácidos, álcalis, detergentes, desinfectantes, entre otros), también se vierten aguas de refrigeración, aguas residuales domésticas (baños, lavados), suero ácido y dulce. Debido a esto, la calidad y cantidad del producto contenido en las aguas residuales de estas industrias, en un momento dado, cambia con la aplicación de otro ciclo tecnológico en la línea de procesamiento. El suero dulce constituye el efluente más contaminante por su composición bioquímica rica en materia orgánica (lactosa, proteínas, fósforo, nitratos, nitrógeno) y es de 60 a 80 veces más contaminante que las aguas residuales domésticas [19]. Por tales razones es necesaria la implementación de sistemas de tratamiento que incluyan procesos físicos, químicos y biológicos eficaces en la depuración de aguas residuales, los cuales dependerán del tipo de efluente, la carga contaminante presente y el grado de purificación requerido, así como el cumplimiento de la normativa ambiental vigente para la descarga de efluentes industriales. Características de las aguas residuales de la UEB Balkán La UEB Balkán, perteneciente a la Empresa de Productos Lácteos Artemisa (EPLA) elabora productos de alta calidad entre los que se encuentra la leche fluida, el yogurt natural, queso destinado a la Merienda Escolar, además de producir Quesos frescal, Requesón, Quesos semiduros y se elaboran alimentos con subproductos de los procesos industriales como las bebidas lácteas a base de suero, todo lo anterior destinado a la canasta normada y a las dietas de enfermos, ancianos e infantes; siendo la producción anual aproximadamente de 4 251,3 toneladas [20]. Las aguas residuales de esta industria se caracterizan por un contenido medio de DBO5, por una carga elevada de sólidos suspendidos y carga media de aceites y grasas. Son generadas principalmente por las pérdidas de producto, materias primas y por las aguas de lavado, que son utilizadas con el fin de desinfectar los equipos y utensilios en cada etapa del proceso. Esta industria actualmente descarga sus efluentes líquidos en un cuerpo receptor natural, lugar donde está situada la entidad, importante zona hidrogeológica que se utiliza para la captación de aguas destinadas al abasto público, ya que la misma comprende partes de la provincia Artemisa y La Habana [21]. Para encontrar soluciones que incluyan la disposición y tratamiento de aguas, se requiere conocer sus características. Esto es posible, a partir de un análisis de caracterización de las aguas residuales que permite medir el impacto ambiental que tendría el agua y/o saber si cumple las normas sobre vertimientos, además de identificar y cuantificar los contaminantes con propósitos de diseñar un sistema de tratamiento, y en el caso de tratamiento de aguas residuales industriales, conocer el impacto que tendrían sobre la calidad del efluente final las aguas residuales generados en los procesos. Posibles tratamientos para las aguas residuales de la UEB Balkán Los efluentes de procesamiento de productos lácteos pueden ser tratados en conjunto, con la excepción del suero de leche, cuya compleja biodegradación puede causar demasiada carga a cualquier sistema tecnológico en el tratamiento de aguas residuales. Casi todas las fábricas de productos lácteos se enfrentan al problema del tratamiento, eliminación y aprovechamiento de estas aguas, por lo que se han puesto en marcha estudios que permitan encontrar una solución para eliminar estas dificultades en las industrias lácteas. Las plantas tradicionales de tratamiento de aguas residuales provenientes de estas industrias se basan principalmente en procesos de lodos activados que consisten en tratamientos donde el agua residual y el lodo biológico son mezclados y aireados en un reactor que involucra el metabolismo microbiano aeróbico de grasas, lactosa y proteínas y el tratamiento anaeróbico que a menudo es inhibido por la presencia de grasas que causan la eliminación de nutrientes. Existen métodos fisicoquímicos tales como desemulsificación, flotación, microelectrólisis y procesos de oxidación avanzada, que se pueden utilizar para efectuar el tratamiento de aguas residuales lácteas, pero el alto consumo de energía y la contaminación secundaria restringen su aplicación en la ingeniería de tratamiento de aguas residuales. Por el contrario, los procesos biológicos han tomado mayor atención para el tratamiento de aguas residuales debido a que son rentables, amigables con el medio ambiente y altamente eficientes, un ejemplo de ello es el Biorreactor de Membranas (BMR) [22]. Biorreactor de Membranas (MBR- membrane bioreactor) Los Biorreactores de Membranas son una tecnología emergente de los años 70 del siglo XX, se implementó a finales de esta década en Estados Unidos y a principios de la década de los 80 en Japón y Sudáfrica. Inició su comercialización en pequeñas aplicaciones como el tratamiento de aguas residuales a bordo de buques, lixiviados de vertedero o efluentes de alta carga industrial. En los BMR, el biorreactor y la membrana no pueden ser considerados como operaciones de unidades separadas, ya que interactúan de varias maneras, estos necesitan ser considerados como reactores híbridos [23]. Un BMR es una modificación del proceso de fangos activos para el tratamiento de las aguas residuales, donde la separación del fango del agua tratada se realiza mediante una filtración con membranas, en vez de un decantador, obteniéndose un efluente de mayor calidad, prácticamente libre de sólidos en suspensión y microorganismos. Están compuestos por dos partes principales: un proceso de degradación biológica, que puede ser aerobia o anaerobia, encargado de la degradación de la materia prima presente en el agua residual y un proceso de separación de sólidos y líquidos mediante una unidad de filtración por membranas, en el cual los sólidos en suspensión y microorganismos responsables de la biodegradación son separados del agua tratada [24]. El funcionamiento de las membranas se basa en una separación física, donde un efluente contaminado es separado en dos corrientes. La primera corriente es el permeado, que contiene el material que ha pasado a través de la membrana, y la segunda, el rechazo o concentrado, que contiene las especies que no atraviesan la misma. Este proceso permite que la membrana semipermeable retenga los coloides y contaminantes presentes en el agua [23]. En la actualidad los procesos de membrana se utilizan progresivamente en varios campos, sustituyendo la separación y técnicas de purificación convencional. Se pueden encontrar en numerosas industrias (farmacéutica, láctea, petroquímica, entre otras) para el tratamiento de residuos, incluyendo el tratamiento de agua para el suministro doméstico e industrial [25]. Los procesos de membrana impulsados por presión se clasifican en cuatro categorías principales, basadas en los diferentes tamaños de poros selectivos: para separar los sólidos disueltos se utilizan las membranas de Ósmosis inversa (OI) y las de Nanofiltración (NF); y para separar los sólidos en suspensión se utilizan las membranas de Ultrafiltración (UF) y Microfiltración (MF). Estas dos últimas pueden eliminar partículas más grandes que el tamaño de sus poros principalmente a través de un mecanismo de tamizado. A medida que los poros se hacen más pequeños, la membrana necesita más fuerza impulsora para ser operada [26]. Generalmente, las configuraciones de BMR se pueden definir en dos tipos: biorreactores con membranas externas y biorreactores con membranas sumergidas. En el primer caso, el módulo de membrana está ubicado fuera del reactor biológico, en estos sistemas existen dos tipos de recirculación: una destinada a controlar las concentraciones adecuadas en el biorreactor (recirculación externa) y otra para conseguir altas velocidades, creando un flujo tangencial en el interior de las membranas. En el segundo caso está la configuración de membranas sumergidas, donde los módulos de membrana se encuentran en un tanque aireado que permite que el efluente atraviese mientras se retienen las partículas [27]. Esta última, a criterio de las autoras, sería la variante recomendada para el tratamiento de los residuales lácteos de la UEB Balkán. En el BMR de membranas sumergidas, la unidad de membrana que realiza la separación física está inmersa en el biorreactor, como se muestra en la Fig. 1 y la fuerza impulsora a través de la membrana es alcanzada presurizando el biorreactor o creando presión negativa en el lado permeado de la misma. Fig. 1: Biorreactor de membranas sumergidas [28] La operación con membrana sumergida es la más habitual, a pesar de que el flujo de permeado suele ser más reducido que en membrana externa, ya que su consumo energético especifico es menor, pues el permeado podría ser impulsado por vacío o fuerza de gravedad. La limpieza de la membrana se realiza mediante frecuentes retrolavados con agua permeada más aire, y ocasionalmente mediante retrolavados con soluciones químicas. La aireación en el biorreactor, además de mantener la biomasa en suspensión y aportar las necesidades de oxígeno cuando se sitúa bajo el módulo de membranas, suministra el aire necesario para homogenizar el contenido del tanque, para el proceso biológico y minimizando el ensuciamiento de la membrana [29]. En la limpieza de las membranas el burbujeo de aire induce el movimiento de la fibra a lo largo de estas, que genera el cizallamiento superficial, mitigando la deposición de una capa incrustante. Además, el periodo de lavado a contracorriente y la limpieza química adicional se emplean para eliminar los depósitos de la superficie de la membrana, lo que permite su explotación a largo plazo [30]. Ventajas e inconvenientes de los BMR Las principales ventajas asociadas a las tecnologías BMR y que la convierte en una tecnología válida frente a las otras tecnologías son [21, 31]: eficaz retención de los sólidos suspendidos y de los compuestos más solubles dentro del biorreactor, lo que proporciona un efluente de excelente calidad, capaz de cumplir los requisitos de vertidos más rigurosos y potencialmente reutilizables; cuando se utiliza ultrafiltración, se logra la retención de bacterias y virus, obteniéndose un efluente estéril, lo que elimina la necesidad de llevar a cabo costosos procesos de desinfección eliminando también la peligrosidad que llevaban asociada los subproductos de la desinfección; la ausencia del clarificador, que también actúa como un selector de la población bacteriana, permite que se desarrollen bacterias de crecimiento lento (bacterias nutrientes, bacterias que degradan compuestos complejos) y que persistan el biorreactor incluso a tiempos de retención de sólidos cortos; la membrana retiene no solo la biomasa sino que también previene el escape de encima exocelulares y de oxidantes solubles que crean un licor de mezcla más activo capaz de degradar una gama más amplia de compuesto; compactación: con la tecnología BMR se puede operar bajo unas concentraciones de 15 – 30 g SSLM/L, trabajando a la máxima concentración de SSLM la superficie de la planta se puede reducir en un 50 % o más; dado que los biorreactores de los BMR pueden operar con 15 – 30 g SSLM/L, la edad del fango es más alta que en los sistemas convencionales, la mayor parte de las plantas BMR operan a edades de fango de 40 días o superior, estas edades de fango elevadas pueden reducir en hasta un 40 % la producción con la consiguiente reducción de costos de operación; el agua tratada permea a través de las membranas de microfiltración o ultrafiltración, lo que le confiere una excelente calidad, clarificado y desinfectado en una única etapa (equivalente a una filtración terciaria); flexibilidad: presenta la posibilidad de ampliación de plantas preexistentes sin necesidad de obra civil, por su gran estabilidad frente a vertidos de alta carga contaminante. Un BMR efectivamente reemplaza tres procesos individuales de los procesos de los sistemas convencionales de aguas residuales (el sistema de lodos activados, la sedimentación secundaria y la desinfección), demandando únicamente que se mantenga la fase inicial de tamizado para limitar los efectos perjudiciales sobre la membrana [32]. Los BMR presentan en cierta medida limitaciones. Entre sus desventajas se encuentran [21]: la inversión de capital para construir una planta BMR sigue siendo más elevado que para un sistema de tratamiento convencional. Debido a la alta demanda de energía, la tecnología BMR también incluye un mayor costo de mantenimiento y operación, en comparación con las técnicas convencionales. En este sentido se están reduciendo los costos asociados a medida que el precio de la membrana es más asequible y se ha mejorado en los materiales de esta, que extienden la vida útil de la membrana a 20 años, reduciéndose así los costos de explotación y mantenimiento. Aunque los sistemas conllevan un gasto energético importante para lograr las presiones requeridas en el sistema, los estudios comparativos hasta ahora confirman que los consumos energéticos de los BMR son similares a los de las plantas convencionales. El ensuciamiento de membranas es uno de los mayores problemas que existe en la tecnología BMR y determina que su comercialización no se extienda actualmente de modo general. Este viene dado por dos fenómenos: el ensuciamiento dentro del poro y la deposición de una capa de lodo sobre la superficie de la membrana, la cual se considera el componente predominante en el ensuciamiento. El ensuciamiento conlleva a una reducción del flujo de permeado que implica la necesidad de realizar ciclos de limpieza, de forma física, mediante la aireación y la relajación/retrolavados de las membranas, y química, mediante el uso de reactivos en dependencia de la naturaleza orgánica o inorgánica de las incrustaciones. La concentración por polarización también limita su uso, pues esta tiene que ver con la alta concentración de sales sobre la superficie de la membrana, situación que se minimiza con una correcta operación y supervisión. Otra limitación es la posible acumulación en el biorreactor de compuestos inorgánicos no filtrables como metales pesados que a determinadas concentraciones pueden ser dañinos para la población bacteriana o afectar a la integridad de la membrana, limitación que se desestima en el caso de residuos de la industria alimentaria. La tecnología BMR es una alternativa atractiva para superar los desafíos que plantean los microcontaminantes durante el tratamiento de aguas residuales y la recuperación del agua. Es una opción frente a tratamientos de depuración convencionales cuando no se dispone de espacio y se tiene previsto reutilizar en usos recreativos, agrícolas o medioambientales. Hoy en día constituyen un campo con un gran potencial pues el hecho de ser una tecnología en crecimiento, genera altas posibilidades de investigación. Mucho trabajo se ha realizado a lo largo de los años, sin embargo, todavía hay margen de mejora en muchas áreas, dado que las incrustaciones y la alta demanda de energía siguen siendo un problema importante en sus procesos. Por ello se necesita una investigación continua para encontrar una solución duradera para estos problemas, ya sea a través de la introducción de procesos de pretratamiento rigurosos pero económicos, o mediante el desarrollo de membranas resistentes a las incrustaciones. En la UEB Balkán el sistema de tratamiento de aguas residuales más conveniente son los BMR pues, aunque algunas industrias lácteas cuentan con lagunas de oxidación que son sistemas eficientes y más baratos, en esta empresa no pueden emplearse. Esto se debe a que con el tiempo ocurran roturas del fondo o pierda la permeabilidad la laguna, traspasando los contaminantes al suelo, por lo que debido a la importancia de la cuenca hidrográfica para el abasto de la población (cuerpo receptor clase A) es mejor un tratamiento que no genere dudas como los BMR. A pesar de ser una tecnología más costosa, garantiza un alto porcentaje de calidad del agua, que puede ser reutilizada para el fregado de cajas, carros y camiones, en la limpieza de pisos y paredes. Los BMR requieren un tratamiento previo para proteger las membranas, y así evitar el taponamiento de los aireadores, la degradación de la calidad del efluente y la acumulación en las membranas de basura, cabello y lodo. El cribado y los desarenadores son complementos para el pretratamiento de aguas residuales sin tratar. La finalidad de estos equipos es eliminar pequeños sólidos de alta densidad específica (restos de vegetación transportados por el viento, rocas, papel, arena, vidrios, partículas metálicas, entre otros) que puede dañar los sistemas de bombeo o producir tupiciones en las membranas, de esta manera se extiende la vida útil de las mismas y se reducen los costos futuros de reemplazo. 3. CONCLUSIONES Las aguas residuales de la industria láctea constituyen una fuente de contaminación importante para el medio ambiente, tanto por su volumen como por la carga de contaminantes asociados. Uno de los sistemas de tratamiento más conveniente a emplear en este tipo de industrias es la tecnología BMR, ya que se presenta como una alternativa competitiva en el mercado. Esto se debe a las diversas ventajas que posee este proceso, como es la excelente calidad del efluente obtenido, menor espacio requerido de la instalación y mayores posibilidades para la reutilización del agua tratada. RECONOCIMIENTOS Los autores desean agradecer a todos los trabajadores de la UEB Balkán que contribuyeron a la realización de la investigación, de la cual forma parte este trabajo, así como a varios compañeros del Cimab por el apoyo brindado. REFERENCIAS 1. CARBAJAL AZCONA, Ángeles, GONZÁLEZ FERNÁNDEZ, María. Propiedades y funciones biológicas del agua (Capítulo 3). Agua para la Salud, Pasado, presente y futuro. Departamento de Nutrición, Facultad de Farmacia, Universidad Complutense de Madrid, España, 2012. pp. 12. ISBN: 978- 9942-13-872-9. 2. RAKESH MEHROTRA, TRIVEDI MAZUMDAR. “Study on Characterization of Indian Dairy Wastewater”. International Journal of Engineering Applied Sciences and Technology, 2016, vol 11, núm. 1, pp. 77-88. 3. REYNOLDS, K. A. “Tratamiento de Aguas Residuales en Latinoamérica: Identificación del Problema”. Agua Latinoamérica. Arizona, Estados Unidos, 2002. pp. 4. 4. ALBÁN GUAMÁN, Nelson Ramiro; JARA RUIZ Cristian David. “Diseño y Construcción de una Planta de Tratamiento Prototipo de Aguas Residuales para la Empresa de Lácteos San Salvador”. Director: Lourdes Cumandá Carrera. Tesis de Grado, Escuela Superior Politécnica de Chimborazo, Riobamba, Ecuador, 2017. 5. MORA IANNELLI, Leila. “Tratamiento de efluentes líquidos en una industria láctea ubicada en Marcos Paz”. Directores: Federico Bailat y Ruth A. Rodríguez. Tesis de Grado, Universidad Nacional de San Martín, Perú, 2020. 6. ANDRADES BALAO, J. A. “Los Vertidos del sector lácteo. Contaminación de las aguas. Sector Lácteo”. Escuela de Organización Industrial, Sevilla, España. 2008, 22 pp. 7. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). “Las Aguas Residuales. El Recurso Desaprovechado”. Informe Mundial sobre el Desarrollo de los Recursos Hídricos de las Naciones Unidas: Resumen Ejecutivo. París, Francia, 2017, 11 pp. 8. ACEVEDO OCÓN Gabriela Michele. “Caracterización, Evaluación Y Propuesta de Tratamiento de las Aguas Residuales de una Industria de Fabricación de Envases De Aluminio”. Director: Sergio Alejandro Recinos. Tesis de Grado. Universidad de San Carlos de Guatemala, Guatemala, 2019. 9. BERMEO GARAY Martha Mirella. Tratamiento de aguas residuales: Técnicas convencionales. Guayaquil, Ecuador, 2016, 142 pp. Segunda Edición, ISBN: 978-9942-13-872-9. 10. MENÉNDEZ GUTIÉRREZ, Carlos. Tratamiento de Agua y Gestión y Tratamiento de Residuos. Universidad Tecnológica de La Habana José Antonio Echeverría, Editorial Félix Varela, La Habana, Cuba, 2010, 353 pp. ISBN: 978-959-261-360-7. 11. AROCUTIPA LORENZO, Juan Hipólito. “Evaluación y Propuesta Técnica de una Planta de Tratamiento de Aguas Residuales en Massiapo del Distrito de Alto Inambari – Sandia”. Directores: Germán Belizario Quispe y Armando M. Mamani. Tesis de Grado. Universidad Nacional del Altiplano, Perú, 2013. 12. LAUCERICA NÚÑEZ José Luis, GONZÁLEZ RODRÍGUEZ Damarys, SÁNCHEZ LINARES Yumisán de Bárbara. “Residuales Líquidos Generados en Laboratorios Docentes de Química. Alternativas para su Tratamiento”. Universidad de Matanzas “Camilo Cienfuegos”, Matanzas, Cuba. 2013. 13. XU Dong, LEE LAI Yoke, LIM FANG Yee, LYU Zhiyang, ZHU Hao, ONG SAY Leong, et al. “Water treatment residual: A critical review of its applications on pollutant removal from stormwater runoff and future perspectives”. Journal of Environmental Management. ISSN: 0301-4797, 2019, pp.12. 14. ZAMBRANO, Diana Alexandra. “Minimización y Prevención como Estrategia para el Control de la Contaminación por Aguas Residuales Municipales en la Zona de Expansión de Cali”. Director: Alberto Galvis. Tesis de Maestría. Universidad del Valle, Colombia, 2010. 15. BERRIO Linda, BELTRÁN Oscar, AGUDELO Edison, CARDONA Santiago. “Sistemas de tratamiento para residuos líquidos generados en laboratorios de análisis químico”. Gestión y Ambiente, 2012, vol. 15, núm. 3, pp. 113-24. 16. FLEITES RAMÍREZ Marisol. “Estudio del proceso de tratamiento químico -físico de coagulación- floculación en residuales líquidos”. Directores: Xiomara Cabrera Bermúdez y Ana Margarita Contreras Moya. Tesis de Grado. Universidad Central Marta Abreu, Cuba, 2007. 17. PRÓCEL Diego, POSLIGUA Paola, BANCHÓN Carlos. “Biodegradación de contaminantes orgánicos de la industria láctea”. Enfoque UTE, 2016, vol. 7, núm. 1, pp. 22 - 32. 18. NG MUHAMAD Sabrina, IDRUS Syazwani, AHSAN Animul, MOHD MARZUKI Tuan, BAIZURA MAHAT Siti. “Treatment of Wastewater from a Food and Beverage Industry Using Conventional Wastewater Treatment Integrated with Membrane Bioreactor System: A Pilot-Scale Case Study”. Membranes, 2021, vol.11, núm. 1, pp. 456. 19. MOHD-SALLEH Siti, MOHD-ZIN Nur Shaylinda, OTHMA Norzila.” Review of Wastewater Treatment using Natural Material and Its Potential as Aid and Composite Coagulant”. Sains Malaysiana, 2018, vol. 48, núm. 1, pp. 155-64. 20. MONTANO PÉREZ, A, DURÁN SÁEZ M. G. “Estrategia Ambiental”. Empresa Productos Lácteos Artemisa UEB Balkán, Bauta, Artemisa, Cuba, 2021. 21. PÉREZ FAJARDO, Y. Tarea técnica sobre planta de Tratamiento de residuales del Lácteo Balkán. Bauta, Artemisa, Cuba, 2018. 22. TIRADO ARMESTO Diego Felipe, GALLO GARCÍA Luis Alberto, ACEVEDO CORREA Diofanor, MOUTHON BELLO Javier Alejandro. “Biotratamientos de aguas residuales en la industria láctea”. Producción + limpia, 2016, vol. 11, núm. 1, pp. 171-84. 23. CORTES NARANJO Diego Andrey. “Procesos MBR y MBR con electrocoagulación (SMEBR): estudio en planta piloto de la influencia de la electrocoagulación en el ensuciamiento de la membrana”. Directores: Arturo Trapote Jaume, Liuba Domínguez Chabaliná y Karen Viviana Mora Cabrera. Tesis de Maestría, Universidad de Alicante, España, 2019. 24. IGLESIAS ESTEBAN Raquel, ORTEGA DE MIGUEL Enrique, MARTÍNEZ TARIFA María Adela, SIMÓN ANDREU Pedro, MORAGAS BOUYAT Lucas, GARCÍA FERNÁNDEZ Emilia, et al. “Avances en el diseño y la operación de los biorreactores de membrana: La experiencia española”. Ingeniería Civil, 2012, pp. 21-30. 25. WALI HAKAMI Mohammed, ALKHUDHIRI Abdullah, AL-BATTY Sirhan, ZACHAROF Myrto- Panagiota, MADDY Jon, HILAL Nidal. “Ceramic Microfiltration Membranes in Wastewater Treatment: Filtration Behavior, Fouling and Prevention”. Membranes, 2020, vol. 10, núm. 248, pp. 34. 26. YANG Jiaqi, MONNOT Mathias, ERCOLEI Lionel, MOULIN Philippe. “Membrane-Based Processes Used in Municipal Wastewater Treatment for Water Reuse: State-Of-The-Art and Performance Analysis”. Membranes, 2020, vol. 10, núme. 131, pp. 54. 27. MA Jinxing, DAI Ruobin, CHEN Mei, KHAN Stuart J, WANGA Zhiwei. “Applications of membrane bioreactors for water reclamation: Micropollutant removal, mechanisms and perspectives”. Bioresource Technology, 2018, vol. 269, ISSN: 0960-8524, pp. 532-43. 28. MENDES PREDOLIN Lyvia. “Estudio de un Sistema Híbrido UASB+MBR para el Tratamiento de Aguas Residuales Urbanas”. Director: Daniel Prats Rico. Tesis de Maestría, Universidad de Alicante, España, 2015. 29. JABBARI Bahman, JALILNEJAD Elham, GHASEMZADEH Kamran, IULIANELLI Adolfo. “Recent Progresses in Application of Membrane Bioreactors in Production of Biohydrogen”. Membranes, 2019; vol. 9, núm. 100, pp. 30. 30. GRYTA Marek. “The Application of Submerged Modules for Membrane Distillation”. Membranes, 2020; vol. 10, núm. 25, pp. 21. 31. CINAR, O. et. al. “Review on Dynamic Membrane Bioreactors: Comparison of Membrane Bioreactors and Different Support Materials, Transmembrane Pressure”. En International Conference on Engineering and Natural Sciences (ICENS), 2016, pp. 2505-13. 32. MENDES PREDOLIN Lyvia. “Tratamiento de aguas residuales mediante electrocoagulación acoplada a un MBR para minimizar el ensuciamiento de la membrana y obtener fluentes de calidad”. Directores: Daniel Prats Rico y Arturo Trapote Jaume. Tesis de Doctorado, Universidad de Alicante, España, 2019. sobre los autores Jeney Ajete Acosta. Ingeniera química, graduada en el 2021. Reserva científica, Instituto de Investigaciones de Granos (IIG), Artemisa, Cuba Aymeé Montano Pérez. Ingeniera química, alumna de la Maestría Ingeniería Alimentaria, Facultad de Ingeniería química, Universidad Tecnológica de La Habana “José Antonio Echeverría” Cujae, Jefe de grupo de Calidad, Unidad Empresarial de Base Balkán, Empresa de Productos Lácteos Artemisa, Cuba Lianys Ortega Viera. Ingeniera química, Vicedecana docente, Facultad de Ingeniería química, Universidad Tecnológica de La Habana “José Antonio Echeverría” Cujae. Profesor Auxiliar, Doctor en Ciencias Técnicas. Miembro de la Sociedad Cubana de Química (SCQ) y la Unión Nacional de Arquitectos e Ingenieros Civiles de Cuba (UNAICC), La Habana, Cuba Elina Fernández Santana. Ingeniera química, Jefe de carrera de Ingeniería química, Facultad de Ingeniería química, Universidad Tecnológica de La Habana “José Antonio Echeverría” Cujae. Profesor Titular, Doctor en Ciencias Técnicas. Miembro de la Sociedad Cubana de Química (SCQ) y la Unión Nacional de Arquitectos e Ingenieros Civiles de Cuba (UNAICC), La Habana, Cuba CONSIDERACIONES PARA EL EMPLEO DE LAS FUENTES RENOVABLES DE ENERGÍA Y LA APLICACIÓN DE LOS MÉTODOS DE INTEGRACIÓN DE PROCESOS EN LA INDUSTRIA LÁCTEA Eliany de la Caridad Valera Sterling1,2, Eduardo García Noa2, Alfredo Curbelo Alonso1, Guido González Riera2 1Centro de Gestión de la Información y Desarrollo de la Energía, Cubaenergía, Calle 20 No 4111 e/ 18A y 47, Miramar, Playa, La Habana, Cuba, 2 Universidad Tecnológica de La Habana José Antonio Echeverría, Cujae, La Habana. Cuba, Calle 114 No 11901 entre Ciclo Vía y Rotonda. Marianao, La Habana, Cuba, 1e-mail: sterling@cubaenergia.cu RESUMEN La Integración de Procesos ha sido reconocido como un campo de investigación activo en la industria de procesos lácteos, químicos y de alimentos, y los Métodos de Integración de Procesos una herramienta altamente poderosa para identificar y estimar los ahorros potenciales de energía en los procesos industriales. Sin embargo, sobre la aplicación de estos métodos en la industria láctea y en particular en la tecnología de yogur natural hasta ahora, solo breves resúmenes de este importante campo han sido proporcionado en la literatura. Este artículo presenta una revisión sobre el estado del arte en relación a la aplicación de la Programación Dinámica para la optimización de procesos industriales, los métodos de integración de procesos como herramienta para los sistemas de calidad y la mejora contínua y la evaluación de oportunidades de uso de fuentes renovables de energía cómo alternativa, para contribuir a la mejora y disminución de la demanda de energía y reducir el consumo de combustibles fósiles en la industria láctea. Esta revisión puede ser útil para establecer las posibles direcciones que pueden asumir futuras investigaciones que integren los métodos analizados en la industria láctea y particularmente en la producción de yogur natural. PALABRAS CLAVES: fuentes renovables de energía, métodos de integración de procesos, procesos lácteos, programación dinámica, revisión CONSIDERATIONS FOR THE USE OF RENEWABLE ENERGY SOURCES AND THE APPLICATION OF PROCESS INTEGRATION METHODS IN THE DAIRY INDUSTRY. ABSTRACT Process Integration has been recognized as an active research field in food, chemical and dairy process industry, and Process Integration Methods a highly powerful tool for identifying and estimating potential energy savings in industrial processes. However, deal with the application of these methods in the dairy industry and in particular in yogurt technology so far, only brief summaries of this important field have been provided in the literature. This article presents a review of the state of the art in relation to the application of Dynamic Programming for the optimization of industrial processes, process integration methods as a tool for quality systems and continuous improvement and evaluation of opportunities of use of renewable energy sources as an alternative to contribute to the improvement and reduction of energy demand and reduce the consumption of fossil fuels in the dairy industry. This review could be useful to establish the possible directions that future research could take that integrates the methods analyzed in the dairy industry and particularly in the production of natural yogurt KEY WORDS: dairy processes, dynamic programming, process integration methods, renewable energy sources, review. 1. INTRODUCCIÓN La industria alimentaria se encarga del procesamiento industrial de alimentos inocuos, de calidad y responsabilidad con el medio ambiente (1); utilizando para el desarrollo de sus actividades productivas, combustibles fósiles. La industria láctea es una de las principales consumidoras de energía de dicha industria; puesto que el uso de la energía es fundamental para asegurar el mantenimiento de la calidad de los productos lácteos (2); especialmente en los tratamientos de calentamiento y enfriamiento, y en el almacenamiento del producto. La Integración de Procesos, como plantea Lorenzo (3) resulta una herramienta muy útil a dicha industria puesto que, le permite disminuir en las operaciones productivas los consumos de energía, agua, materias primas y la generación de residuos contaminantes al medio ambiente; garantizando la solución óptima del sistema productivo de forma integrada. En este artículo se presenta una amplia revisión de la literatura técnica asociada al análisis y descripción de los métodos para la Integración de Procesos, de los Sistemas de Calidad, Mejora Contínua y Sistemas Integrados de Gestión. La Integración de Procesos es un enfoque poderoso utilizado en diversos procesos industriales para mejorar la eficiencia de los mismos, y optimizar el uso de energía, agua y otros recursos. La literatura actual reporta varias técnicas altamente efectivas para el diseño integrado de procesos; siendo los métodos (4) de mayor aplicación aquellos que tienen como base el tratamiento termodinámico y el tratamiento de la programación matemática. Un Sistema de Gestión de la Calidad establece la política y los objetivos acerca de las actividades coordinadas para dirigir y controlar una organización con respecto a la calidad (5); que es definida como el conjunto de propiedades y características de un producto o servicio que le confieren la aptitud para satisfacer las necesidades expresadas o implícitas. El Sistema de Gestión de la Calidad (6) se relaciona con la satisfacción de las expectativas de los clientes. Permite definir y mantener el control de los procesos que contribuyen al logro de productos aceptables para el cliente. Proporciona confianza tanto a la organización como a sus clientes, de su capacidad para suministrar productos que satisfagan los requisitos de forma coherente. En las últimas décadas las organizaciones han demostrado un marcado interés por la reinvención contínua de sus procesos y actividades; buscando las mismas la mejora contínua de dichos procesos y, por ende, poder mantenerse exitosamente a lo largo del tiempo. La Mejora Contínua (7) es una característica fundamental de un sistema de gestión; no es más que la acción recurrente por parte de las organizaciones para aumentar la capacidad de cumplimiento, de buscar continuamente mejorar la eficacia y la eficiencia de los procesos de la empresa. Las mejoras pueden variar desde actividades escalonadas contínuas hasta proyectos de mejora estratégica a largo plazo. Como plantea Yánez (8), una de las herramientas operativas administrativas que ayuda a lograr el éxito sostenido de una organización y alcanzar a su vez la eficiencia y mejora contínua en sus actividades; son los Sistemas Integrados de Gestión (SIG), en los que se integran componentes de calidad, buen desempeño ambiental y capital humano. Estos componentes seleccionados por las empresas para responder a una necesidad particular, pueden aplicarse como sistemas de manera independiente, pero tienen elementos comunes que inducen a su integración. La integración de los sistemas (8) establece la obligatoriedad de cumplir al mismo tiempo con los requisitos legales y regulatorios, los ambientales, de calidad, y de seguridad y salud en el trabajo; lo que requiere de un mayor esfuerzo en la planificación, el control de los procesos y en la toma de decisiones. Generalmente los sistemas integrados de gestión pueden estar relacionados con una o más normas de referencia, como: Sistemas de Gestión de Calidad (9), Sistema de Gestión de seguridad y salud en el trabajo (10) y Sistemas de Gestión Ambiental (11). Por ende, la integración de los sistemas puede resultar de gran ventaja puesto que (12): Permite solucionar los conflictos de responsabilidades, optimizar y simplificar el proceso de toma de decisiones basadas en datos integrales. Se alcanza con este una mayor coherencia, facilidad de manejo y reducción de los costos de mantenimiento de la documentación, al integrarse en un solo documento aspectos relacionados con la calidad, desempeño ambiental seguridad y salud en el trabajo. Se incrementa el rendimiento, las competencias y el entrenamiento de los miembros de la organización, ya que se determinan y suplen al unísono las necesidades de formación de los individuos en varias materias. Mejora la eficacia y la eficiencia de los procesos, aumentando la consistencia, la trazabilidad, evitando las redundancias y las incoherencias. Se logra un significativo ahorro de recursos en el desarrollo e implementación del SIG y una menor inversión que la necesaria para los procesos de certificación de estos sistemas de manera independiente. Debido a la dificultad que representa la implementación de todos los sistemas a la vez; es que la tendencia actual de las empresas sea implantar un Sistema de Gestión de la Calidad y posteriormente integrar los demás (13); siendo el de la gestión de la calidad el sistema de mayor acogida por las empresas, por estar directamente relacionado con su razón de ser y con los clientes. También, se hace referencia en este artículo al empleo de estos métodos aplicados en la industria química y de alimentos en general, pero haciendo hincapié en la tecnología para la obtención de yogur natural de leche; ya que el yogur como plantea Parra (14), es un alimento probiótico que aporta grandes beneficios a la salud, siendo la más conocida de todas las leches fermentadas y la de mayor consumo a nivel mundial. Tecnología del yogur natural. Fermentación láctica El yogur natural es el producto coagulado que se obtiene a partir de leche tratada, por fermentación con bacterias como Lactobacillus bulgaricus y Streptococcus thermophilus, productoras de ácido láctico. La acción de estas bacterias desencadena un proceso denominado Fermentación Láctica (15); en el cual la lactosa (el azúcar de la leche) se transforma en ácido láctico. A medida que el ácido se acumula la estructura de las proteínas de la leche va modificándose y lo mismo ocurre con la textura del producto, pues al alcanzarse el pH (potencial de Hidrógeno) del punto isoeléctrico, la caseína coagula formándose el gel. Este tipo de yogur no contiene edulcorantes, esencias ni colorantes; puede ser descremado, semidescremado o normal. En función de su consistencia puede ser firme o compacto; batido con consistencia cremosa (el producto escurre fácilmente) y líquido (yogur batido de menor consistencia) (16). Los métodos de elaboración del yogur natural pueden variar considerablemente, según la materia prima utilizada, la formulación del producto y el tipo de yogur que se desea obtener. La fabricación general (17) del mismo, consiste en una vez normalizada la leche en su contenido graso; sea posteriormente homogenizada, para reducir el tamaño de los glóbulos grasos y conseguir una emulsión estable para mejorar la digestibilidad del producto. Luego se procede a la pasteurización, por medio de un tratamiento térmico apropiado, que permita destruir la totalidad de su flora patógena. Una vez pasteurizada, se almacena durante unos minutos y se enfría a la temperatura de fermentación, alrededor de los 45oC. Dependiendo del tipo de yogur, la fermentación puede efectuarse dosificando el cultivo directamente en el envase de consumo individual (yogur de coágulo) o añadiéndolo en el tanque de incubación (yogur batido) para su envasado posterior. Una vez culminado el proceso de fermentación se enfría y se almacena para su ulterior distribución. Una solución tecnológicamente factible para asegurar energéticamente este producto lácteo, es la integración de energía renovable a dicho proceso tecnológico; como fuente alternativa, para satisfacer la demanda de energía y reducir el consumo de combustibles fósiles; y así lograr con ello satisfacer los requerimientos de agua, vapor y energía, insumos esenciales en dicha actividad productiva. En esta revisión muchos de los trabajos de investigación se basan en el empleo del Análisis de Procesos, la Modelación Matemática de Procesos, la Simulación de procesos y la Programación Dinámica para la optimización de procesos industriales. Para lograr la intensificación de los procesos tecnológicos de la industria se ha utilizado el Análisis de Procesos (18); puesto que, sirve para descubrir las partes débiles del proceso y para la creación de medidas que permitan un mejor aprovechamiento de las materias primas, la energía y los medios de trabajo. El análisis de procesos comprende un examen global de un proceso existente o concebido, el cual se puede realizar bajo un aspecto limitado, unilateral del proceso, o con un enfoque multilateral más complejo, constituye un elemento importante para tomar decisiones más científicas y responsables. La obtención de modelos matemáticos elaborados a partir de los valores reales del comportamiento de los propios procesos, es una forma conveniente de analizar dichos procesos; resultando la validación de los mismos imprescindible, para así evitar la posible propagación de errores del análisis efectuado (19). Los modelos matemáticos pueden ser modelos dinámicos, los que son utilizados para los estudios de control automático y afines; y modelos estáticos, los cuales se emplean para estudios de diseño técnico y optimización técnico-económica. Estos modelos pueden considerarse como un soporte o ayuda para la toma de decisiones. La función clave de la intensificación de procesos es su optimización, la cual se hace con apoyo de modelos fiables. Debido a la complejidad de estos modelos, la optimización de los mismos se realiza en la mayoría de los casos mediante la simulación (20); técnica definida para evaluar un proceso mediante modelos matemáticos. En la industria de procesos, hay que tomar decisiones que se basan en la evaluación de alternativas sobre el diseño o control operacional del proceso transformativo. Para ayudar a una decisión, tal como plantea Fleites (21) generalmente se deben realizar una serie de cálculos para estimar indicadores de carácter económico, tecnológico, energético o ambiental; para ello se han empleado principalmente métodos matemáticos de optimización, tal es el caso de la programación dinámica (22); técnica desarrollada para resolver problemas en los que es imprescindible la toma de decisiones en periodos sucesivos, sirviendo para la resolución de problemas de optimización complejos, descomponiéndolos en subproblemas más sencillos. Teniendo en cuenta todas las consideraciones anteriores, el objetivo general del presente trabajo es establecer el estado del arte en relación a la aplicación de la Programación Dinámica para la optimización de procesos industriales, los métodos de integración de procesos como herramienta para los sistemas de calidad y la mejora contínua y cómo pudieran complementarse con el uso de fuentes renovables de energía. Finalmente, el análisis realizado permite fundamentar en las conclusiones del trabajo, una hipótesis que establece la dirección que pueden asumir futuras investigaciones que integren los métodos analizados en la industria láctea y particularmente en la producción de yogur natural. 2. MÉTODOS DE INTEGRACIÓN DE PROCESOS APLICADOS EN LA INDUSTRIA Numerosos métodos de integración de procesos han demostrado que son muy efectivos para identificar y estimar los ahorros potenciales de energía en la industria. Estos métodos se dividen en tres grupos: Métodos Termodinámicos, Programación Matemática y Métodos Híbridos. Los Métodos de Integración de Procesos Termodinámicos (23) son apropiados para estimar en forma aproximada en un proceso, los requerimientos mínimos de servicios auxiliares de calefacción y de enfriamiento. Suelen ser agrupados en métodos basados en el análisis de la primera ley (Tecnología Pinch) y métodos basados en el análisis de la segunda ley (análisis exergético y análisis exergoeconómico), siendo la tecnología Pinch (24) (análisis del pellizco) la herramienta del análisis termodinámico que mayor aplicación industrial ha tenido; pasando actualmente de ser una herramienta dirigida a mejorar la eficiencia energética en el diseño de redes de recuperación de calor a ser una metodología de optimización tanto para diseñar procesos nuevos como para modificar procesos existentes. La Programación Matemática como Método de Integración de Proceso considera métodos de optimización matemática (25) para optimizar las condiciones de operación y dimensiones de los equipos en forma simultánea, utilizando modelos detallados y algoritmos convencionales. Estos métodos son herramientas potentes y eficaces para analizar y optimizar cualquier sistema en general; emplean principalmente la programación lineal, no lineal y dinámica, resultando la programación dinámica (26) una metodología perfecta, amigable y de mucha ayuda puesto que muestra los posibles escenarios óptimos que va a satisfacer las expectativas de la problemática; teniendo resolución mediante la recursividad y no contando con una formula estándar, siendo el enfoque tratado para la solución de problemas de tipo general; y las ecuaciones específicas que se usan, desarrolladas para que representen cada situación individual. El Método Híbrido como plantea Bergamini (27), es un Método de Integración de Proceso que combina las ventajas de los conocimientos del proceso del análisis Pinch con las ventajas de los métodos de programación matemática para abordar con éxito el problema general. Los métodos de Integración de Procesos pueden ser de naturaleza secuencial o simultánea; el análisis Pinch representa un método de solución secuencial, mientras que el problema de programación matemática se puede resolver utilizando un enfoque secuencial o simultáneo tal como plantea Čuček (28). Por ende, la programación matemática resulta el método más completo puesto que los termodinámicos presentan ciertas dificultades cuando se los pretende utilizar para optimizar la síntesis y diseño de cualquier proceso en los que los equipos-componentes se encuentran fuertemente acoplados (29). No han sido pocas, las investigaciones desarrolladas en relación a la aplicación de los Métodos de Integración de Procesos en la industria láctea, química y de alimentos. Por consiguiente, en este artículo se hace mención sobre algunos estudios de casos informados, con respecto a la aplicación de estos métodos en sectores industriales; tal es el caso de Nemati (30) en la industria alimentaria donde aplica el método Pinch para el uso eficiente del agua; en la industria láctea por ejemplo Bergamini (31) emplea el bridge framework en una planta de producción de leche en polvo como herramienta sistemática de apoyo a la toma de decisiones, para la integración de procesos en plantas industriales modernizadas; así como también Jablonsky (32) que ha aplicado la programación por metas para optimizar linealmente el proceso de producción en una procesadora de leche. Actualmente las industrias suelen aplicar para optimizar el uso del agua y la energía la programación matemática con un enfoque simultaneo, lo que se evidencia en Kermani (33) donde se presentan varios ejemplos de aplicación, como Ahmetovic´(34) y Ahmetovic´(35); este último presenta una revisión sistemática y completa de los artículos publicados en las últimas dos décadas acerca de la integración del agua y la energía, utilizando métodos sistemáticos basados en el análisis Pinch (36), (37), la programación matemática (38), (39), (40), (41), (42), (43) y su combinación (44), siendo las referencias más sobresalientes las recién aludidas. En cambio, no sucede de igual forma con las investigaciones relacionadas particularmente con la aplicación de estos métodos en la tecnología del yogur natural, que suelen ser menos; de las reportadas en la literatura se encuentra el estudio realizado por Ramírez (45), en el cual se evidencia cómo se puede mejorar la productividad de la elaboración de yogur por medio de un simulador. 3. PROGRAMACIÓN DINÁMICA APLICADA EN LA INDUSTRIA La programación dinámica es una técnica matemática basada en el llamado “Principio de optimalidad de Bellman” desarrollado por el matemático Richard Bellman en la década de 1950 (22); ayuda a resolver decisiones secuenciales interrelacionadas, combinándolas para obtener la solución óptima. El modelo de programación dinámica no sigue un patrón estándar; para cada situación especial, será indispensable establecer cada uno de los parámetros que caracterizan las variables únicas y usar aquellas que generan las soluciones óptimas (26). El método de solución para los problemas de programación dinámica está desarrollado para encontrar las soluciones óptimas para cada periodo o etapa en los escenarios que se presenten; comenzando de atrás hacia adelante y desplazándose etapa por etapa para encontrar cada uno de los parámetros óptimos de solución, hasta encontrar los parámetros óptimos de la etapa inicial (46). Esta característica de la Programación Dinámica, hace que sea ideal para aplicarlo en la optimización de las tecnologías lácteas, que pueden considerarse procesos, que van desarrollándose en etapas, tal y como se expone al describir la tecnología para la obtención del yogur natural. En este caso las etapas serían: Recibo y preparación de la leche, pasteurización-homogenización, preparación del inóculo, inoculación y fermentación, envasado y almacenamiento. Pudiéndose aplicar el método que corresponda para hallar las condiciones óptimas de cada una de esas etapas. No son muchos los estudios que han abordado el tema referente a la aplicación de la programación dinámica en la resolución de problemas que se presentan en la industria láctea, química y de alimentos y en particular en la tecnología del yogur natural. Una de las investigaciones que ha profundizado en el tema tal es el caso de González (47) resalta, que la razón por la que se evita el uso de la programación dinámica es debido a la dimensión de los espacios involucrados, puesto que la dimensión del espacio de estados crece de forma exponencial lo que se conoce como maldición dimensional; siendo el espacio de estados, el espacio de acciones y el espacio de realizaciones; fuentes de maldición dimensional las cuales han de determinar el tipo de problema y método de aproximación a usar. El problema clásico con el que se pueden introducir las ideas esenciales de la programación dinámica, es el problema de la ruta óptima (ruta corta pensando en distancias o ruta más barata pensando en costos); ofreciendo el algoritmo de programación dinámica una forma elegante y transparente para resolver este problema. El algoritmo de programación dinámica funciona para resolver una familia de problemas de minimización, deterministas y con un número finito de etapas (47). Para reconocer que se está frente a un problema que se puede plantear como una programación dinámica (46), es necesario identificar su estructura: etapa, estado y política. El problema a desarrollar es divisible en etapas, las mismas que tendrán sus propias políticas de decisión; los estados deben estar asociados a cada etapa del problema, pueden ser finitos o infinitos, dependerá de las condiciones posibles que presente el problema y la política de decisión del estado actual, tiene como efecto transformarlo en un estado inicial para la siguiente etapa. A medida que el problema aumenta en número de tareas u operaciones tornándose este, complejo y poco práctico; es importante señalar que a pesar del tiempo de cálculo que se extiende y crece de forma exponencial, la solución obtenida por el algoritmo de programación dinámica tiende a mostrar resultados mejores y exactos, de ahí la gran ventaja de aplicar la programación dinámica como Método de Integración de Procesos en la tecnología del yogur y lácteos en general puesto que la misma, presenta esta problemática. 4. OPORTUNIDADES DE USO DE LA ENERGÍA RENOVABLE EN LA INDUSTRIA LÁCTEA Dado el continuo desarrollo industrial y el encarecimiento de las fuentes de energía convencionales se ha hecho necesaria la introducción de Fuentes Renovables de Energía (FRE) en el sector industrial. El empleo de este tipo de energía puede resultar de gran ventaja en la industria ya que la misma es inagotable, es una energía limpia, su costo es relativamente bajo y ayuda a reducir las emisiones de gases de efecto invernadero contribuyendo con ello a frenar el cambio climático (48). Las siguientes soluciones tecnológicas pueden ser evaluadas por el sector industrial, tal plantea Bravo (49) como oportunidades de uso de energía renovable en la industria. Una opción madura tecnológicamente son los sistemas solares térmicos industriales, los que contribuyen a disminuir el consumo de combustible y electricidad en la producción de vapor y/o calentamiento de agua; siendo los sistemas fotovoltaicos la principal opción disponible para disminuir el consumo de electricidad de la red eléctrica, permitiendo con ello el autoabastecimiento eléctrico. Las complejidades de los sistemas fotovoltaicos pueden ir desde sistemas conectados directamente al sistema eléctrico hasta microrredes eléctricas que pueden integrar otras FRE, grupos electrógenos y/o bancos de batería. Empleo del biogás obtenido a partir del tratamiento anaerobio de aguas residuales, como combustible en calderas, priorizando la sustitución del diésel y fuel oíl siempre que esto sea posible. Esta acción debe ser acompañada con la modificación o sustitución de los quemadores de las calderas para permitir el uso del biogás como combustible en las mismas. La energía proveída por el biogás también puede ser utilizada en un generador para producir electricidad. Uso de biomasa forestal en calderas; para poder cubrir la demanda de combustible, en las actividades que no generan residuos líquidos orgánicos o que el uso del biogás producido no cubre completamente el consumo de combustible. Tecnológicamente esto es posible incorporando calderas de biomasa para cubrir la demanda base de vapor, o adaptando las existentes al uso de la biomasa como combustible, incorporando quemadores de solidos o gasificadores de biomasa. Esta biomasa puede utilizarse también para la producción de electricidad. Actualmente se han realizado significativos estudios prácticos referentes a la implementación de soluciones tecnológicas con FRE en procesos industriales, algunos ejemplos de ellos se mencionan a continuación; estudio realizado en una planta de helado en Cuba (50), evaluación de plantas termosolares en Cuba para la producción de electricidad (51), evaluación del potencial de producción de biogás en la industria agroalimentaria y pecuaria (52), así como también el estudio asociado a la adopción de energía renovable en el proceso de fermentación del yogur (53). En el proceso de producción de yogur natural las necesidades de calor que se requieren en función de las necesidades de la operación, se cubren en su mayor parte utilizando agua caliente o vapor de agua obtenida de la combustión de combustibles fósiles; mientras que las necesidades de refrigeración, iluminación, ventilación y equipos de proceso se cubren con uso eléctrico. En estas operaciones también se generan residuos líquidos orgánicos los cuales pueden tratarse por biodigestión anaerobia como vía de descontaminación y eliminación de residuos. Es por ello, que en este proceso el empleo de FRE desde los sistemas solares tanto térmicos como fotovoltaicos hasta fuentes bioenergéticas dígase biomasa húmeda y sólida; sirvan de gran ayuda para contribuir a la mejora y disminución de la demanda eléctrica y reducir el consumo de combustibles fósiles. 5. CONCLUSIONES Dado el continuo desarrollo industrial hace unos años y el encarecimiento de las fuentes de energía convencionales, se ha apostado por asegurar a la industria condiciones más adecuadas de productividad y competitividad; siendo un posible camino, tornarla energéticamente más eficiente. En este caso, para ello se han implementado técnicas de integración de procesos que garantizan la mejora contínua de los procesos industriales y la calidad de sus productos; aplicándose la programación matemática como método de integración para la obtención de soluciones óptimas que permitan servir de ayuda en la toma de decisiones, siendo la programación dinámica una metodología muy amigable que muestra los posibles escenarios óptimos satisfaciendo las expectativas de la problemática. También se ha apostado por la adopción de energías limpias para tratar de minimizar en mayor medida el uso de combustibles fósiles y así permitir satisfacer los requerimientos de agua vapor y energía en la industria. Toda esta información analizada, permite establecer como hipótesis, que dada la experiencia acumulada en la aplicación de los métodos para la integración de procesos y la programación dinámica para la optimización de procesos es posible establecer un procedimiento general para la mejora de los indicadores técnico-económicos en la tecnología para la obtención de yogur y otras producciones lácteas, que se complementen con el uso de fuentes renovables de energía. REFERENCIAS 1. SUÁREZ, J. Producción integrada de alimentos y energía a escala local. Pastos y forrajes. 2015, Vol. 38, 1, págs. 2-7. 2. PADILLA DIAZ, D S Y VÁSQUEZ GIRALDO, D J. Innovación y energía en las unidades productivas del sector lácteo. La eficiencia energética en la producción láctea. Tutor: Rubén Darío Diaz Mateuz. Pasantía de Investigación, Universidad de la Salle. Bogota, 2017. 3. LOREZO LLANES, JUNIOR, ZUMALACÁRREGUI DE CÁRDENAS, LOURDES Y MAYO ABAD, ORESTES. Integración Simultánea de Agua y Energía: Logros y Desafíos. Centro Azúcar. 2016, Vol. 43, 1, págs. 37-50. 4. LENG CHEWA, IRENE MEI , y otros. A model-based approach for simultaneous water and energy reduction in a pulp and paper mill. Applied Thermal Engineering. 2013, Vol. 51, págs. 393-400. 5. OFICINA NACIONAL DE NORMALIZACIÓN (NC). Norma Cubana Sistemas de Gestión de la Calidad - Fundamentos y Vocabulario. 3ra ed. La Habana: Cuban National Bureau of Standards; 2015, NC ISO 9000:2015, IDT. 6. VELÁSQUEZ RUEDA, MARÍA DEL ROSARIO. Planificación de un sistema. Signos. 2012, Vol. 4, 2. 7. OFICINA NACIONAL DE NORMALIZACIÓN (NC). Sistemas de Gestión Ambiental-Directrices Generales sobre la Implementación. 2da ed. La Habana: Cuban National Bureau of Standards; 2016, NC ISO 14004: 2016, IDT. 8. YÁNEZ MORETTA, PATRICIO Y REA VACA, FAUSTO. Sistemas Integrados de Gestión en un contexto de responsabilidad social. Polo del Conocimiento. 2022, Vol. 7, 1. 9. OFICINA NACIONAL DE NORMALIZACIÓN (NC). Sistemas de gestión de la calidad. Requisitos. La Habana, Cuba, NC ISO 9001, 2015. 10. OFICINA NACIONAL DE NORMALIZACIÓN (NC). Seguridad y salud en el trabajo. Sistemas de gestión de seguridad y salud en el trabajo. Requisitos. La Habana, Cuba, NC ISO 18001, 2015. 11. OFICINA NACIONAL DE NORMALIZACIÓN (NC). Sistema de gestión ambiental. Requisitos con orientación para su uso. La Habana, Cuba, NC ISO 14001, 2015. 12. CABALÉ MIRANDA, ELIZABETH Y RODRÍGUEZ PÉREZ DE AGREDA, GABRIEL . Sistemas de gestión. Importancia de su integración y vínculo con el desarrollo. Estudios del Desarrollo Social: Cuba y América Latina. 2020, Vol. 8, 1. 13. LEÓN RAMENTOL, CIRA CECILIA, y otros. Importancia de un sistema de gestión de la calidad en la Universidad de Ciencias Médicas. Archivo Médico de Camagüey. 2018, Vol. 22, 6. 14. Parra Huertas, Ricardo Adolfo. Yogur en la salud humana. Lasallista de Investigación. 2012, Vol. 9, 2. 15. MORENO AZNAR, LUIS A., y otros. Evidencia científica sobre el papel del yogur y otras leches fermentadas en la alimentación saludable de la población española. Nutrición Hospitalaria. 2013, Vol. 28, 6. 16. LEGARRETA CRUZ, DANAY. Integración energética en la UEB de Productos Lácteos de Santa Clara. Tutor: Juan Pedro Hernandez Touset, Universidad Central Marta Abreu de la Villas. Santa Clara, 2018. 17. RODRÍGUEZ GREGORICH, ALICIA, y otros. Estimación de la inversión de una planta para producir yogurt natural. Centro Azúcar. 2017, Vol. 44, 4. 18. CORTÉS MARTÍNEZ, R, y otros. Modelación y simulación de procesos en la intensificación de instalaciones de. Ingenio. 2020, Vol. 2, 2. 19. FRITZSON, PETER. Introducción al Modelado y Simulación de Sistemas Técnicos y Físicos con Modelica. 2015. ISBN: 978-91-7685-924-7. 20. BOLAÑOS PLATA, OMAR. Importancia de la Simulación en la Mejora de Procesos. Director: Silvina Hernández García. Tesis para obtener el título de Ingeniero Industrial, Universidad Nacional Autónoma de México. 2014. 21. FLEITES AVILA, YOELVIS, y otros. Experiencias de las Aplicaciones de la Programación Lineal en la industria de Procesos Químicos en Cuba. Centro Azúcar. 2020, Vol. 47. 22. FLORES VERDUGO, ISRAEL MATE. Modelo de programación de la producción con metodología de investigación de operaciones para la empresa Energy Cool. Director: Iván Coronel. Trabajp de titulación previo a a Obtención del título de Ingeniero en Producción y Operaciones, Universidad del Azuay. Escuela de Ingeniería de la Prducción y Operaciones. Cuenca, 2017. 23. LORENZO LLANES, JUNIOR. Propuesta de Alternativas para la Integración de Agua y Energía en la producción de Azúcar Crudo. Tutor: Alain Perez González. Memoria escrita para optar por el título de Máster en, Instituto Superior Politénico José Antonio Echeverría. La Habana, 2016. 24. SADEGHIAN JAHROMI, FARID Y BEHESHTI, MASOUD. An extended energy saving method for modification of MTP process heat exchanger network. Energy. 2017, Vol. 140, págs. 1059-1073. 25. PÉREZ LEÓN, ANA DIANA. Propuesta de Integración Energética en la Planta de Queso Crema de la UEB Productos Lácteos de Cárdenas. Tutor: Agustín Benítez Hernández. Tesis Presentada como Requisito Parcial para la Obtención del Título de Máster en Ingeniería Asistida por Computadora, Universdad de Matanzas. Matanzas, 2017. 26. MURIEDAS GARCÍA, SOFÍA. Programación Dinámica con Aplicaciones en la Economía. Director: Luis Alberto Fernández Fernández. Trabajo de Fin de Grado para acceder al Grado en Matemáticas, Universidad de Cantabria. Cantabria, 2021. 27. BERGAMINI, RICCARDO, y otros. A method for faster application of process integration techniques in retrofit situations. Journal of Cleaner Production. 2021, Vol. 284. (124698) 28. ČUČEK, LIDIJA y otros. Approaches for retrofitting heat exchanger networks within processes and Total Sites. Journal of Cleaner Production. 2019, Vol. 211, págs. 884-894. 29. MANASSALDI, JUAN IGNACIO. Aplicación de Técnicas de Programación Matemática y Métodos de Integración de Procesos para determinar la Síntesis y el Diseño óptimo de una Planta de Cogeneración de Ciclo Combinado. Director: Sergio F. Mussati. Tesis presentada como parte de los requisitos de la Universidad Tecnológica Nacional para la obtención del Grado Académico de Doctor en Ingeniería., Universidad Tecnológica Nacional. Rosario, 2017. 30. NEMATI AMIRKOLAII, KEIVAN, ROMDHANA, HEDI Y LAMELOISE, MARIE-LAURE. Pinch Methods for Efficient Use of Water in Food Industry: A Survey Review. Sustainability. 2019, Vol.11, 16, págs. 1-26. 31. BERGAMINI, RICCARDO, y otros. Analysis of energy integration opportunities in the retrofit of a milk powder production plant using the Bridge framework. Journal of cleaner production. 2021, 328 (129402). 32. JABLONSKY, JOSEF Y SKOCDOPOLOVA, VERONIKA . Análisis y Optimización del Proceso de Producción en una Empresa Procesadora de Leche. Información Tecnológica. 2017, Vol. 28, 4, págs. 39- 46. 33. KERMANI, MAZIAR , y otros. A novel MILP approach for simultaneous optimization of water and energy: Application to a Canadian softwood Kraft pulping mill. Computers and Chemical Engineering. 2016, Vol.102, págs. 238-257. 34. AHMETOVIC´, ELVIS Y KRAVANJA, ZDRAVKO. Simultaneous synthesis of process water and heat exchanger networks. Energy. 2013, Vol. 57, 1, págs. 236-250. 35. AHMETOVIC´, ELVIS, y otros. Water and energy integration: A comprehensive literature review of non-isothermal water network synthesis. Computers and Chemical Engineering. 2015, Vol. 82, págs. 144- 171. 36. LUO Y, LIU Z, LUO S, YUAN X. Thermodynamic analysis of non-isothermal mixing's influence on the energy target of water-using networks. Computers & Chemical Engineering. 2014, Vol. 61, págs1-8. 37. HOU Y, WANG J, CHEN Z, LI X, ZHANG J. Simultaneous integration of water and energy on conceptual methodology for both single- and multi-contaminant problems. Chemical Engineering Science. 2014, Vol. 117, págs. 436-44. 38. AHMETOVIC´ E, IBRIC´ N , KRAVANJA Z. Optimal design for heat-integrated water-using and wastewater treatment networks. Applied Energy. 2014, Vol. 135, págs 791-808. 39. IBRIC´ N, AHMETOVIC´ E, KRAVANJA Z. Simultaneous optimization of water and energy within integrated water networks. Applied Thermal Engineering. 2014, Vol. 70, págs 1097-122. 40. IBRIC´ , N, AHMETOVIC´ , E Y KRAVANJA, Z. Two-step mathematical programming synthesis of pinched and threshold heat-integrated water networks. Journal of Cleaner Production. 2014, Vol. 77, págs 116-39. 41. CHEN Z, HOU Y, LI X, WANG J. Simultaneous optimization of water and heat exchange networks. Korean Journal of Chemical Engineering. 2014, Vol. 31, págs 558-67. 42. JIMÉNEZ-GUTIÉRREZ A, LONA-RAMÍREZ J, PONCE-ORTEGA JM, EL-HALWAGI M. An MINLP model for the simultaneous integration of energy, mass and properties in water networks. Computers & Chemical Engineering. 2014, Vol. 71, págs 52-66. 43. SEID ER, MAJOZI T. Optimization of energy and water use in multipurpose batch plants using an improved mathematical formulation. Chemical Engineering Science. 2014, Vol. 111, págs 335-49. 44. SAHU GC, BANDYOPADHYAY S. Energy optimization in heat integrated water allocation networks. Chemical Engineering Science. 2012, Vol. 69, págs 352-64. 45. RAMÍREZ MARTÍN, CARLLOS, y otros. Simulator to Improve the Productivity of Yogurt Processing Based on a Model of Finite Automaton. International Journal of Engineering and Technology. 2019, Vol. 11, 2, págs. 344-351. 46. VASQUEZ, G., FIORELLA, S., MORENO, L., ALEXANDRA, M., CASALLO, M., CARLOS, J. Aplicación de modelo de programación dinámica para la asignación de recursos del área de fuerza de ventas de la empresa Total Potentials. Asesor: Bouillón Sardon, Adolfo. Trabajo de Suficiencia Profesional para optar al Título de Licenciado en Administración, Universidad Peruana de Ciencias Aplicadas. Lima, 2016. 47. GONZÁLEZ SÁNCHEZ, DAVID, DÍAZ INFANTE, SAÚL Y PEÑUÑURI, FRANCISCO. Del algoritmo de programación dinámica a los procesos Markovianos de decisión. Miscelánea Matemática. 2018, Vol. 66, págs. 57-80. 48. ROBLES ALGARIN, CARLOS Y RODRÍGUEZ ÁLVAREZ, OMAR. Un panorama de las energías renovables en el Mundo, Latinoamérica y Colombia. Espacios. 2018, Vol. 39, 34, pág. 10. 49. BRAVO HIDALGO, DEBRAYAN. Energía y desarrollo sostenible en Cuba. Centro Azúcar. 2015, Vol. 42, 4. 50. MORALES PONS, ÁNGEL LUIS Y CISNEROS RAMÍREZ, CÉSAR A. Estudio de Factibilidad de la Aplicación de la Energía Solar en una Planta de Helados. Eco Solar. 2020, Vol. 74. 51. CISNEROS RAMÍREZ, CÉSAR A., y otros. Evaluación técnico-económica preliminar de la producción de electricidad. Ingeniería Energética. 2021, Vol. 42, 1. 52. SUÁREZ HERNÁNDEZ, JESÚS , y otros. Evaluación del potencial de producción del biogás en Cuba. Pastos y Forrajes. 2018, Vol. 41, 2. 53. FELIPE LORENZO, DANEL. Estudio de eficiencia energética con energía renovable para la fermentación del yogur. Director: Valerio. L. Gutiérrez Afonso. Trabajo Fin de Grado, Universidad de La Laguna. Escuela Politecnica Superior de Ingeniería. La Laguna, 2014. sobre los autores Eliany de la Caridad Valera Sterling: Centro de Gestión de la Información y Desarrollo de la Energía, Cubaenergía, La Habana; departamento de Energía Renovable y Eficiencia Energética. Aspirante a Investigador. Ingeniero Químico. Especialista en el tema referente a la Integración de Energía Renovable en los procesos de la Industria Alimentaria. Pasante en el programa de maestría en Análisis y Control de Procesos de la Facultad de Ingeniería Química de la Universidad Tecnológica de La Habana José Antonio Echeverría, Cujae, La Habana. Miembro de CUBASOLAR. Eduardo García Noa. Universidad Tecnológica de La Habana José Antonio Echeverría, Cujae, La Habana. Profesor Titular de la Facultad de Ingeniería Química, Dr. en Ciencias Técnicas, Coordinador de la Maestría en Análisis y Control de Procesos, miembro del grupo de investigación de Ingeniería en Alimentos, miembro de la Sociedad Cubana de Química y de la ACTAC. Alfredo Curbelo Alonso. Centro de Gestión de la Información y Desarrollo de la Energía, Cubaenergía. Jefe del departamento de Energía Renovable y Eficiencia Energética. Investigador Titular. Dr. en Ciencias Técnicas. Miembro de CUBASOLAR. Guido González Riera. Universidad Tecnológica de La Habana José Antonio Echeverría, Cujae, La Habana. Profesor Auxiliar de la Facultad de Ingeniería Química, Dr. en Ciencias Técnicas. Jefe del grupo de investigación de Ingeniería en Alimentos, miembro de la Sociedad Cubana de Química y de la ACTAC. ESTRATEGIA PARA LA OPERACIÓN DE LOS GRUPOS DE GENERACIÓN ELÉCTRICA DEL MUNICIPIO REGLA Fernando González Rodríguez1, Mercedes Geraldina Pérez Trujillo2, Gil Cruz Lemus1, Anabel Frías Chirino1 1Facultad de Ingeniería Química, Universidad Tecnológica de La Habana, cujae, Marianao, La Habana. 2UEB Mantenimiento La Habana, EMGEF, MINBAS, Regla, La Habana. fglez@quimica.cujae.edu cu RESUMEN Este trabajo consistió en evaluar el funcionamiento de los motores de combustión interna, de los Grupos Electrógenos de la Central Eléctrica de Regla teniendo en cuenta sus rendimientos y analizando los fallos más importantes desde el punto de vista técnico de las unidades principales combustible pesado, con vistas a tomar decisiones acertadas en cuanto al arranque escalonado de las diferentes baterías. Para esta evaluación se utilizó la información disponible de la Central Eléctrica de Regla y se determinó la eficiencia y la fiabilidad de los motores del emplazamiento. Para determinar la eficiencia de cada uno de los motores se a calculó el consumo específico real de cada uno comparándolo con el consumo específico de diseño y con el planificado. La fiabilidad se estimó con el número total de fallos en que ha incurrido cada uno de los motores de la central para un periodo dado. Con los resultados anteriores se propuso una estrategia para el arranque de las baterías del emplazamiento. PALABRAS CLAVES: Índice de consumo, fiabilidad de equipos, motores de combustión interna, estrategia de operación de sistemas. OPERATION STRATEGY OF THE BATTERIES OF ELECTRICITY GENERATION GROUPS OF THE MUNICIPALITY REGLA ABSTRACT Este work consists in to evaluate the functioning of the internal combustion engines,of the Regla's power station generating sets having in bill its performances and examining the more important failures from the principal unit’s technical point of view fuel once was weighed, with an eye to taking decisions guessed as to the different batteries start planned in stages. The available information of Regla's power station was utilized for this evaluation and the efficiency and the the emplacement's motors reliability were determined. to determine the efficiency out of every one of the motors himself to he calculated the specific consumption real out of every one comparing it with the specific consumption designing and with the planned. Estimated the reliability with the total failures number whereon each one of the motors of the main station for a period given has incurred. With the aftermaths previous, he named for the start of the emplacement's batteries a strategy. KEY WORDS: Consume index, reliability index of teams, internal-combustion motors, strategy of systems operation. 1. INTRODUCCIÓN El presente trabajo se desarrolló en el emplazamiento de grupos electrógenos ubicado en el Anillo del Puerto entre calles 24 de febrero y calle 1ra, en el municipio Regla. Esta tecnología está compuesta por motores, del tipo marino con sus correspondientes generadores en forma de baterías que pueden contar con varios motores y sus respectivos generadores [1] – [8]. Los grupos electrógenos son de tecnología coreana Hyundai-Himsen los cuales están formados por baterías de cuatro unidades principales de diésel y combustible pesado (MDU), un generador de vapor recuperativo, una unidad de tratamiento de combustible (HTU) y una unidad de transformadores eléctricos (ETU). Estos emplazamientos están ubicados dentro del grupo base de generación ya que están diseñados para trabajar en régimen continuo (24 horas) o bajo demanda, consumiendo como combustible fuel oil [9]. Los procesos tecnológicos se efectúan por medio de una gran variedad de equipos interconectados convenientemente por lo que se deberá conocer qué implicación tiene que alguno de los equipos de una línea tecnológica cualquiera falle en el transcurso del proceso de producción. Esto puede implicar algunas de las siguientes consecuencias: Se pierden posibilidades productivas lo que implica retrasos al plan de producción, se reduce la productividad y la eficiencia, se incumple el plan de comercialización, se afecta el plan de ingresos, se afecta el período de recuperación de la inversión (si se está transitando por este período). Los niveles de afectaciones dependen de las posibilidades de fallas de cada equipo, del tipo de interconexión que posean así como la frecuencia con que ocurran. El concepto que engloba toda esta problemática se denomina fiabilidad [10], [11], es la probabilidad de que un sistema o equipo funcionen de manera satisfactoria en un período de tiempo de trabajo dado, cuando se use bajo condiciones de operación especificadas. El término fiabilidad se identifica como Re (del vocablo inglés reliability) y puede calcularse para cada equipo y/o componente del sistema y también para el sistema de forma global. Este trabajo busca evaluar el funcionamiento de los motores de combustión interna, de los grupos electrógenos de la Central Eléctrica de Regla teniendo en cuenta sus rendimientos y analizando los fallos más importantes desde el punto de vista técnico de las unidades principales de diesel y combustible pesado. Para esta evaluación se utilizó la información disponible de la Central Eléctrica de Regla mediante la cual se puede determinar la eficiencia y la fiabilidad de los motores del emplazamiento, para poder establecer una estrategia fundamentada para el orden en el arranque y utilización operando bajo demanda conociendo su rendimiento y fiabilidad. Para determinar la eficiencia de cada uno de los motores se procedió a determinar el consumo específico real de cada uno comparándolo con el consumo específico de diseño. Para el uso de la fiabilidad, se determinó para un periodo dado, el número total de tiempos asociados a fallos en que ha incurrido cada uno de los motores y baterías de la central. El objetivo general de la investigación fue elaborar una estrategia que con la información disponible, permita la operación de los motores de la Central Eléctrica de Regla de la forma más económicamente factible. 2. MATERIALES Y MÉTODOS Con el fin de lograr el objetivo propuesto se procesó la información disponible determinando si es la necesaria para la evaluación de los motores de la Central Eléctrica de Regla, además se determinaron el índice de consumo real de las baterías del emplazamiento y para un período de tiempo dado la fiabilidad en la operación de las diferentes baterías. Estableciéndose finalmente un orden para el arranque y operación de los motores de la Central Eléctrica. Índice de consumo de combustible: El índice de consumo de combustible [12], [13], es también conocido en el campo de la termodinámica como consumo específico de combustible. Se define como la cantidad de combustible, en gramos, que se consume por cada kilowatt generado en un intervalo de tiempo (1). CEB (1) Donde: CEB: Consumo especifico bruto (g/kW-h); C: Consumo de combustible del motor (g); GEB: Generación eléctrica bruta (kW-h) Método de cálculo del coeficiente específico bruto • Se calcula el coeficiente de eficiencia bruta, CEB, por baterías a partir de los datos reportados del consumo del emplazamiento y de generación, teniendo en cuenta las horas de trabajo de cada una de ellas. • Con este consumo específico bruto calculado se procede a hallar la diferencia entre el mismo y el dado por el fabricante, CEF, para contar con un estimado que permita para toda la información, conocer en qué momentos y magnitud era mayor esta diferencia para cada una de las baterías. • En el caso de obtenerse diferencias negativas esto indica consumos por debajo de los reportados por el fabricante y las diferencias positivas son consumos superiores a los dados por el fabricante. • Una vez que se obtiene la diferencia entre el consumo real y el consumo específico dado por el fabricante y por el plan, se determina para cada batería y para cada día de los tres meses estudiados el monto en dinero que se pierde o se gana por estar por encima o por debajo de los valores especificados por el fabricante y por el plan, obteniéndose el monto mensual de estas diferencias. • Con los valores calculados para el consumo especifico bruto se pueden construir gráficos para cada una de las baterías donde es posible comparar las fluctuaciones de este indicador a lo largo de los días, así como las diferencias entre este indicador y el consumo especifico bruto promedio, el consumo específico del fabricante y el consumo específico plan. Fiabilidad de equipos y componentes de un sistema: Se puede calcular la fiabilidad de los equipos y componentes de un sistema de una forma fácil. La expresión para el cálculo de los Rei, donde (i) representa la identificación de cada equipo o componente en cuestión, está dada por el tiempo de servicio u operación estable del equipo (2): Rei = (2) Donde: tet: tiempo total de trabajo estable previsto sin interrupciones; tee: tiempo de trabajo efectivo del equipo sin interrupciones En base al valor de la fiabilidad se tiene que: • Si Rei = 1 El sistema es totalmente fiable y no fallará nunca. • Si Rei = 0 El sistema es totalmente no fiable y fallará siempre. Método de cálculo de la fiabilidad: Se determinan los días totales trabajados durante el periodo estudiado, obteniéndose los días de fallos de las baterías, así como el tiempo efectivo calculándose con esta información la fiabilidad de cada motor. La fiabilidad de cada una de las baterías se calcula teniendo en cuenta que los motores componentes de las mismas operan en paralelo. Análisis económico: Una vez obtenidos los valores de eficiencia específica bruta y las diferencias existentes entre ésta y las eficiencias específicas dadas por el fabricante y establecidas como plan, es posible determinar el importe relacionado con estas diferencias y conocer para cada batería el dinero que se pierde por concepto de una operación deficiente o que se gana producto de una buena operación. En cuanto al análisis de la fiabilidad se puede conocer, teniendo calculado la cantidad de energía dejada de generar por fallos, el costo asociado a esta para cada una de las baterías. Establecimiento de estrategia en la utilización de las baterías del emplazamiento de Regla Una vez calculado el coeficiente específico bruto de cada una de las baterías y los aspectos económicos asociados a este y calculadas, además, las fiabilidades de las mismas y las pérdidas económicas por concepto de fallo, se puede determinar en qué orden deben explotarse las diferentes baterías para lograr las mayores ganancias o las menores pérdidas. 3. ANÁLISIS DE LOS RESULTADOS Cálculos relacionados con el coeficiente específico bruto Se calculó para cada batería para los meses estudiados el coeficiente específico bruto, a través del consumo de combustible del emplazamiento de Regla, las horas totales y las horas trabajadas para cada una de las baterías y se determinó el consumo por batería. Con el consumo y la generación por batería se calculó el consumo específico bruto por batería. (3) Esto se realizó para todos y cada uno de los días reportados durante los tres meses. A continuación, se muestra la tabla 1 donde se dan los resultados obtenidos para el CEB, incluyéndose los cálculos de las diferencias existentes entre este coeficiente y los coeficientes específicos del fabricante y del plan, para los primeros 10 días del mes de marzo. Tabla 1: Marzo Batería 1 CEF: 189 g/kWh CEP: 216 g/kWh. CEB CEB-CEF CEB-CEP CEB CEB-CEF CEB-CEP 1 192,253 3,253 -23,747 6 193,764 4,764 -22,236 2 200,739 11,739 -15,261 7 188,670 -0,330 -27,330 3 243,701 54,701 27,701 8 196,355 7,355 -19,645 4 195,123 6,123 -20,877 9 199,949 10,949 -16,051 5 211,296 22,296 -4,704 10 194,207 5,207 -21,793 De aquí se puede concluir que al plantear estas diferencias se obtendrán valores negativos en aquellos casos en que el CEF o el CEP sean mayores que el CEB o positivos en caso contrario. La magnitud de estos valores resulta interesante, ya que al ser mayores implican mayor alejamiento de la operación real con respecto a la dada por el fabricante y por el plan. Cálculos de la fiabilidad A partir de la información disponible se calcularon los días perdidos y el tiempo total trabajado por el emplazamiento para cada uno de los motores de cada una de las baterías, determinándose así la fiabilidad de los motores dentro del tiempo de estudio y de las baterías, teniendo en cuenta que los diferentes motores dentro de las baterías se encuentran operando en paralelo. Con los valores de fiabilidad de las baterías se determinó el tiempo perdido por cada batería y con este la cantidad de energía eléctrica dejada de generar. Los resultados de estos cálculos para la Batería 1 aparecen en la tabla 2. Tabla 2: Resultados de la fiabilidad para los motores y la batería 1. Batería 1 (No. Motores4) motor 1 motor 2 motor 3 motor 4 Tiempo de fallo 14 11 16 3 Tiempo efectivo 64 67 62 75 Fiabilidad motor 0,8205 0,6828 0,7949 0,9615 Fiabilidad batería 0,9996 Potencia perdida 75,00 Esto se repitió para todos los motores de todas las baterías, y de los resultados obtenidos para el emplazamiento se puede observar que la batería que mejor opera desde el punto de vista de fiabilidad, o sea, desde el punto de vista de días perdidos por concepto de fallos en el equipamiento, en este caso los motores de combustión interna, es la batería 1, teniendo la mayor fiabilidad y por consiguiente el menor tiempo perdido como batería dejando de generar la menor cantidad de energía eléctrica, expresada como MW generados. En la tabla 3 se muestran los resultados de la fiabilidad de las baterías y su orden en cuanto a su valor. Tabla 3: Fiabilidad de las baterías. Análisis económico Como se ha visto después de conocer el coeficiente específico bruto se estableció una diferencia entre este y los planteados por el fabricante y los correspondiente contemplados como plan por la empresa, obteniéndose valores que expresan cuanto se aleja o se acerca el consumo específico bruto a estos dos tomados como referencia. Con estos valores es posible calcular el monto en dinero en que se incurre como consecuencia de estas diferencias para cada una de las baterías durante el período analizado. Estos resultados se dan en la tabla 4. Tabla 4: Diferencias entre los consumos reales y los dados por el fabricante y por el plan. Atendiendo a estos resultados se puede establecer un orden de acuerdo a lograr las mayores ganancias obteniendo una mayor diferencia entre el coeficiente específico bruto y el coeficiente específico del fabricante y entre el coeficiente específico bruto y el coeficiente específico plan. Para la comparación entre el CEB y el CEF se tiene que en ningún caso el resultado reporta ganancias, por lo que se deberá establecer el ordenamiento con respecto a las menores pérdidas. Para la comparación entre el CEB y el CEP se tomará para el ordenamiento los valores que reportan las mayores ganancias, ya que de forma general el emplazamiento trabaja generalmente por debajo del plan. Aquí también se ha excluido del análisis la Batería 7 por lo anteriormente señalado. Batería 1 2 6 5 4 3 Re 0,9996 0,9878 0,9853 0,9448 0,8718 0,7051 Batería 1 2 3 4 5 6 7 CEB-CEF ($) 49109,30 51367,15 11349,87 44177,92 13491,88 25412,43 9476,26 CEB-CEP ($) -63528,92 -39108,11 -14126,16 -30383,41 -10337,92 -29426,79 12006,58 A continuación, se muestran estos resultados en la tabla 5 para el los resultados en cuanto a el coeficiente específico bruto y el coeficiente específico dado por el fabricante, y en la tabla 6 con respecto al coeficiente específico dado por el plan. Tabla 5: Orden de operación atendiendo a la eficiencia de las baterías con respecto al CEF. Tabla 6: Orden de operación atendiendo a la eficiencia de las baterías con respecto al CEP. Para el análisis económico se utilizará el segundo ordenamiento. En cuanto al aspecto de la fiabilidad al conocerse la energía eléctrica dejada de generar y el costo unitario de la misma se puede conocer cuál es la pérdida económica en que se incurre por este concepto. En la tabla 7 se muestran los resultados obtenidos, debiéndose señalar que se ha excluido la Batería 7 por lo que anteriormente se ha expresado con respecto al comportamiento operacional de esta batería. Tabla 7: Pérdidas económicas por batería ocasionadas por fallos. Analizando los resultados anteriores se puede establecer un ordenamiento en cuanto a la mejor operación teniendo en cuenta las pérdidas económicas asociadas a este aspecto de la fiabilidad. Es de esperar que este ordenamiento coincida con el mostrado anteriormente por estar dada esta pérdida por la magnitud de la energía eléctrica dejada de generar por los fallos existentes, siendo así este se presenta en la tabla 8. Tabla 8: Orden de operación atendiendo a las pérdidas por falta de fiabilidad de las baterías. Estrategia en la utilización de las baterías del emplazamiento de Regla En base a los resultados obtenidos en el análisis económico es posible establecer una estrategia en el uso de las diferentes baterías, teniendo en cuenta los valores de ganancia que se obtiene al operar por debajo del coeficiente específico plan y los valores de pérdidas asociadas a los fallos existentes en la operación de las diferentes baterías. Partiendo entonces de los resultados hallados anteriormente se pueden mostrar los mismos incluyendo el efecto combinado de eficiencia y fiabilidad en la tabla 9. Se puede apreciar que sólo en la batería 1 se tiene un resultado positivo en cuanto a los dos efectos combinados, es decir, solamente en esta batería se obtienen ganancias, mientras que en las restantes se tienen pérdidas. Ordenando de acuerdo a estos resultados se tendrá la siguiente propuesta, dada en la tabla 10, que garantizará el mejor aprovechamiento de la batería. De aquí que esta será la estrategia de operación de las diferentes baterías del emplazamiento de Regla, es decir, que el orden de arranque de las diferentes baterías según la demanda debe ser este, ya que es el ordenamiento que reportará el mejor balance económico. Orden 1 2 3 4 5 6 Batería 3 5 6 4 1 2 Orden 1 2 3 4 5 6 Batería 1 2 5 3 6 4 Batería Pérdidas económicas ($) Batería Pérdidas económicas ($) 1 36752,28 4 57327,49 2 49285,52 5 36295,47 3 32668,55 6 57851,27 Orden 1 2 3 4 5 6 Batería 3 5 1 2 4 6 Tabla 9: Resultados económicos finales. Tabla 10: Orden de operación propuesto. 4. CONCLUSIONES Se caracterizó la operación de las diferentes baterías del emplazamiento de Regla tomando como información base los reportes establecidos por la empresa rectora y centrándose en dos aspectos fundamentales: la eficiencia, expresada como coeficiente específico bruto, y la fiabilidad, obteniéndose la eficiencia específica bruta diaria de las 7 baterías del emplazamiento durante el período comprendido entre los meses de marzo a mayo de 2011. Se puede afirmar, atendiendo a los resultados obtenidos que, de forma general, durante todo el período evaluado se ha cumplido con el coeficiente específico planificado por la empresa rectora lo que representa ahorros para el emplazamiento. Pudiera señalarse que de acuerdo a los resultados obtenidos el CEP resulta algo elevado, ya que es 216 g de combustible por cada kW generado y el valor medio real es de sólo 210 g de combustible por kW generado. Además, se calculó la fiabilidad de cada uno de los motores, así como de las diferentes baterías, obteniéndose que, de forma general, a pesar de existir un grupo elevado de motores que no han operado por roturas prolongadas, los resultados no son del todo malos, pues de las seis baterías analizadas hay cuatro que están por encima de 0,90. No obstante esto las pérdidas asociadas a la fiabilidad son altas. Atendiendo al efecto económico de ambos indicadores, coeficiente específico bruto y fiabilidad se propuso una estrategia de arranque de las diferentes baterías del emplazamiento con vistas a lograr las menores pérdidas. RECOMENDACIONES 1. Establecer un conjunto de medidas técnicas y organizativas que permitan lograr un mínimo en el coeficiente específico bruto. 2. Validar los resultados obtenidos con información más reciente. 3. Utilizar esta estrategia para realizar cálculos similares que puedan servir para conocer más detalladamente el comportamiento de las diferentes baterías del emplazamiento de Regla t establecer ordenes de arranque reales a la situación existente en un momento dado. 4. Tener en cuenta la estrategia elaborada con la información procesada para el arranque y uso de las baterías del emplazamiento bajo demanda. Batería 1 2 3 4 5 6 Ganancia económica por diferencia entre el CEB y el CEP ($) 63528,92 39108,11 14126,16 30383,41 10337,92 29426,79 Pérdidas económicas por fiabilidad ($) 36752,28 49285,52 32668,55 57327,49 36295,47 57851,27 Efecto combinado ($) 26776,64 -10177,41 -18542,39 -26944,08 -25957,55 -28424,48 Orden 1 2 3 4 5 6 Batería 5 6 1 4 2 3 BIBLIOGRAFÍA 1. Auto & Truck Internacional en Español: Las flotas de camiones y el desafío de los combustibles alternativos. Volumen 71. No. 4. Julio - Agosto, 2014. 2. BOGOSLOVSKI A. M. ¨Manual del Mecánico de Motores Marinos de Combustión Interna¨. Ediciones de Ciencia y Técnica, Instituto Cubano del Libro 2004, La Habana. 3. CHUMACHENKO I. I. ¨Motores Marinos de Combustión Interna¨. Editorial Pueblo y Educación, La Habana. 2002. 4. DOUSSOU Rogelio. ¨Los Motores Diesel¨. Ediciones de Ciencia y Técnica, Instituto Cubano del Libro, La Habana. 2005. 5. http://es.wikipedia.org/wiki/Ciclo de diesel, [ref. de 25/02/08] 6. http://es.wikipedia.org/wiki/Motor de combustión interna,[ref. de 25/02/18] 7. http://guia.mercadolibre.com.ar/grupos-electrogenos-3404-VGP. [Consulta 15 de mayo 2018]. 8. LUKANIN, V.N. y otros. Motores de Combustión Interna. Editorial Mir. Moscú.1988. 9. Catálogos de la Hyundai. Marzo 2014. 10. RUDD and WATSON. ¨Strategy of Process Engineering¨. Edición Revolucionaria1979. La Habana. 11. GAMBOA CAPOTE, Leosdanis, ¨Análisis de los fallos presentados por las unidades principales de diesel y combustible pesado (MDU) del emplazamiento de Grupos Electrógenos Hyundai Himsen de Regla¨. Trabajo de Diploma. Cujae. 2010. 12. MORING, V. Termodinámica. Edición Revolucionaria 1968. La Habana. 13. PERDOMO PEREIRA, Karel, “Influencia de los factores externos en el consumo específico de combustible en los generadores eléctricos del emplazamiento de Río Verde”. Trabajo de Diploma. Cujae, 2008. sobre los autores Fernando González: Ingeniero Químico (CUJAE). MSc. Análisis y Control de Procesos. Profesor Auxiliar de la Facultad de Ingeniería Química. Anabel Frías Chirino: Ingeniera Química (CUJAE, 1997). Doctora en Ciencias (2011). Profesora Auxiliar de la Facultad de Ingeniería Química. METODOLOGÍAS PARA LA GESTIÓN DE LOS COSTOS AMBIENTALES Elina Fernández Santana1, George Bess Palacios2, Yulieth Viera Gallardo3, Lianys Ortega Viera1 1Universidad Tecnológica de La Habana “José Antonio Echeverría” Cujae, La Habana, Cuba, 2Corporación Cubana del Ron CubaRon S.A., La Habana, Cuba, 3Laboratorio Central de Criminalística, La Habana, Cuba 1e-mail: dralcorta@quimica.cujae.edu.cu RESUMEN El desequilibrio del medio natural encuentra sus orígenes en la actividad humana donde el continuo crecimiento y desarrollo de la humanidad demanda mayor consumo de los recursos naturales para satisfacer sus necesidades. Es necesario que el uso de los mismos responda a las verdaderas necesidades humanas de las presentes generaciones para poder salvaguardar la satisfacción de las futuras. La contabilidad ambiental es un tema de suma importancia pues su objetivo fundamental es medir y monitorear los recursos naturales, para evitar poner en riesgo el bienestar social con la debilitación del medio ambiente. Este trabajo tiene como objetivo analizar diferentes metodologías para la gestión de los costos ambientales en empresas cubanas, que permita la mejora de los procesos. Estas metodologías proveen a las empresas de una herramienta novedosa para gestionar la sostenibilidad de los recursos. A pesar que existen varias clasificaciones para la determinación de los costos ambientales, estos se pueden agrupar fundamentalmente en cuatro grupos: costo de prevención, detección, ambientales de falla interna o externa. PALABRAS CLAVES: costos ambientales, metodologías, recursos, sostenibilidad METHODOLOGIES FOR THE MANAGEMENT OF ENVIRONMENTAL COSTS ABSTRACT The imbalance of the natural environment finds its origins in human activity where the continuous growth and development of humanity demands greater consumption of natural resources to satisfy its needs. It is necessary that their use responds to the true human needs of present generations in order to safeguard the satisfaction of future ones. Environmental accounting is a topic of great importance because its fundamental objective is to measure and monitor natural resources, to avoid putting social welfare at risk by weakening the environment. This work aims to analyze different methodologies for the management of environmental costs in Cuban companies, which allows the improvement of processes. These methodologies provide companies with a new tool to manage the sustainability of resources. Although there are several classifications for the determination of environmental costs, these can be grouped fundamentally into four groups: cost of prevention, detection, environmental costs of internal or external failure. KEY WORDS: environmental costs, methodologies, resources, sustainability 1. INTRODUCCIÓN Hoy en día, la humanidad enfrenta una extensa variedad de amenazas ambientales críticas: el deterioro del suelo, del agua, de la flora y fauna silvestre y de los recursos marinos, esenciales para la producción de alimentos requeridos por una población humana en constante crecimiento; la generalizada contaminación del ambiente, que pone en peligro la salud; el agotamiento del ozono, los cambios climáticos mundiales y las pérdidas de la biodiversidad Al mismo tiempo, la población encara serios problemas sociales y económicos, niveles crecientes de pobreza y miseria en contraste con una minoría opulenta dentro de un modelo económico que ha aumentado esas disparidades en lugar de disminuirlas. Tales problemas generan gran preocupación, sobre todo si se quiere que las sociedades humanas de los decenios y siglos venideros habiten un mundo seguro desde el punto de vista ambiental, próspero desde la perspectiva económica y caracterizada por la paz, la equidad y una calidad de vida en mejoría constante. Por tanto, las generaciones actuales debemos abordar las tendencias fundamentales que amenazan con empeorar esos problemas [1]. Cualquier esfuerzo encaminado a revertir la actual problemática ambiental exige reexaminar y cuestionar el papel como personas en la sociedad y actuar consecuentemente de acuerdo con formas más sostenibles de vida. Los recursos que se extraen, se utilizan, agotan o degradan del medio natural tienen una importante implicación tanto en el medio ambiente del cual es parte el ser humano como en la economía de las organizaciones. Los recursos naturales y ecosistemas no son eternos, unos se agotan, otros se degradan y muy pocos tienen la capacidad de regenerarse en determinadas condiciones, es ahí donde las ciencias económicas juegan su papel en la gestión ambiental [2]. Las entidades económicas tienen un contrato implícito con la sociedad ya que utilizan los escasos recursos naturales y humanos y, a cambio de ello, brindan productos, servicios y residuos a la comunidad, de esta forma la empresa tiene responsabilidad con el medioambiente; una responsabilidad que es necesaria, medir, y registrar para poder tomar decisiones internas y promover esa información a las personas naturales o jurídicas interesadas [3]. El crecimiento acelerado de la población humana es la principal causante de escases desmedida de los recursos naturales, recursos que tienen que ser transformado para satisfacer necesidades. Las empresas y gobiernos en aras de obtener grandes ganancias sobreexplotan los mismos, sin tener en cuenta que la Tierra tarda en algunos casos hasta millones de años para volver a regenerarlos. En este escenario, se refleja la gran importancia que tiene el papel de la contabilidad ambiental en el adecuado desarrollo de las actividades sociales, económicas y financieras que las personas y empresas realizan, lo que exige que se tome cartas en el asunto con el elevado nivel de destrucción de los recursos naturales, lo que conlleva a buscar soluciones para el adecuado uso y cuidado de dichos recursos, es decir se debe formular conexiones entre los humanos y el sistema ecológico [4]. La contabilidad ambiental se ha convertido en un tema de gran importancia en los últimos años para las personas naturales y las empresas, donde su objetivo principal es medir y monitorear los recursos naturales, pues la debilitación del medio ambiente pone el riesgo el bienestar social y la situación económica. En otras palabras, la preservación del medio ambiente requiere que tanto las personas naturales como las empresas acojan una conducta dirigida a la concientización y adopten acciones que conlleven a la conservación del medio ambiente [4], [5]. Las empresas en el cumplimiento de los servicios, así como en la fabricación de productos utilizan recursos naturales y ocasionan impactos considerables al medio ambiente. Estos impactos negativos y la utilización de los recursos naturales tienen un costo. En Cuba muchas instituciones no toman en cuenta considerar los costos ambientales en su sistema de gestión, lo que ocasiona que la paga de estos efectos al medio ambiente se convierta en una externalidad. Es por ello que el objetivo de este trabajo es analizar diferentes metodologías para la gestión de los costos ambientales en empresas cubanas, que permita la mejora de los procesos. 2. ANTECEDENTES DE LOS COSTOS AMBIENTALES Comportamiento en países de Europa y América Latina Cuando las empresas llevan a cabo proyectos o actividades económicas que generan impactos negativos sobre el medio ambiente, necesariamente o por disposición legal deben incurrir en pagos asociados a la gestión ambiental de dichos proyectos o actividades, puesto que de no hacerlo podría verse afectada la continuidad de sus operaciones. En general, estos pagos incluyen los Estudios de Impacto Ambiental, Planes de Manejo Ambiental, licencias y demás pagos caracterizados por presentar precios de mercado que facilitan su cuantificación monetaria e incorporación a la contabilidad. Una vez allí, estos valores representan el costo de realizar la gestión de un proyecto o la fabricación de un producto, pero no permite evidenciar el consumo o degradación de los recursos naturales que fueron utilizados en su producción, es decir, existe un costo adicional que no está siendo reconocido por las empresas. Ante esta incapacidad, el costo se convierte en una externalidad, que termina siendo asumida por la sociedad en general [6]. Los costos ambientales son impactos incurridos por la sociedad, una organización, o “el resultado individual de las actividades que afectan la calidad ambiental”. Estos impactos se pueden reflejar en términos monetarios o no y los costos tienen consecuencias para la empresa a corto o largo plazo [7], [8]. Estos costos muestran el valor de los bienes ambientales provocada por su uso y como consecuencia su deterioro causado por las empresas o las personas de manera individual. Según [9] el costo ambiental se define como el consumo, necesario y debidamente valorado, de factores de producción relacionados con: los recursos naturales necesarios para la producción, la asimilación por el entorno natural de desechos de las actividades de producción y consumo y el conjunto de bienes y servicios ambientales que se orientan a las necesidades del ser humano. En el 2002, Jash [10] al respecto señala que: desde una perspectiva macroeconómica, el precio de la escasa materia prima, la contaminación y la disposición de desecho no reflejan su verdadero valor y costo para la sociedad. Los peligros para la salud, los reclamos por sitios contaminados, etc., son costos ambientales generalmente no generados por el que contamina sino por el público en general. Los costos ambientales comprenden tantos los costos internos como los externos y se relacionan con todos los costos ocurridos en relación con el daño y la protección ambiental. Los costos de protección ambiental incluyen costos de prevención, disposición, de planeamiento, de control, el entendimiento de acciones y la reparación de daños que pueden ocurrir en la empresa y afectar al gobierno y a las personas 22G) Otra de las definiciones dadas a los costos ambientales está asociada a las actividades ambientales de la empresa: prevención, reducción, tratamiento, aprovechamiento o eliminación de los residuos o emisiones y los costos que se producirían por la omisión de estas medidas ambientales [7]. La sostenibilidad en las empresas es actuar responsablemente con el desarrollo de las generaciones futuras. Algunos países europeos ya toman decisiones ambientales complejas que implican financiamiento de métodos de tratamiento ambiental. En Reino Unido, la UK Environmental Protection, destina créditos para la puesta en práctica del reciclaje, a partir de las corrientes de desechos de las empresas. La finalidad de este sistema, desarrollado desde 1992, es incentivar a todo el que utilice los desechos, de esta manera las autoridades locales no tienen que pagar por recogerlos y disponer de ellos. En Latinoamérica, se destacan Brasil y Uruguay como países pioneros en la adopción de políticas, incentivos y prácticas de carácter económico-ambiental de este tipo. En Cuba, se reporta en el año 2016 un procedimiento para cuantificar los costos de las actividades ambientales en la gestión de sostenibilidad del recurso agua potable [8]. Por tanto, uno de los retos más grandes que enfrentan los gobiernos y la sociedad actual consiste en crear un modelo donde se integren economía, sociedad y medio ambiente logrando un equilibrio que permita alcanzar un desarrollo sostenible [6]. Identificación y/o clasificación En la actualidad, uno de los mayores problemas está en identificar los costos ambientales, ya que la contabilidad financiera no registra los costos ambientales dentro de algunas cuentas financieras. Además, las diferentes categorías que se utilizan dificultan el trabajo de los contadores, fundamentalmente por la superposición de conceptos. De manera general los costos se pueden clasificar en costos de prevención, detección, ambientales de falla interna o externa [11]. Los costos de prevención ambiental pertenecen a actividades que se realizan para prevenir la producción de contaminantes o desechos que pudieran causar daños al ambiente, como la evaluación y selección del equipo para controlar la contaminación, diseño de procesos o productos para reducir contaminantes, estudios de impactos ambientales, entre otros. Los costos de detección ambiental pertenecen a las actividades ejecutadas para determinar si los productos, procesos y otras actividades dentro de la empresa, se ajustan a las normas ambiéntales apropiadas, como la medición de niveles de contaminación, auditorías ambientales, la inspección de productos y procesos, entre otros. Los costos ambientales de falla interna son los de actividades realizadas para eliminar y manejar los contaminantes o desechos que ya se han producido pero que aún no se han vertido en el ambiente. Estas actividades pueden tener dos metas: asegurarse de que los contaminantes y desechos producidos no se liberen al ambiente, o reducir el nivel de contaminantes liberados en una cantidad que cumpla con las normas ambientales. Los costos ambientales de falla externa son los de actividades que se han realizado después de liberarse los contaminantes y desechos al ambiente. A su vez, estos costos de fallas externas se pueden subdividir en realizados y no realizados. Los costos de falla externa realizados, también llamados costos privados, son aquellos incurridos y pagados por la empresa; los costos de falla externa no realizados, también llamados costos sociales, son causados por la empresa, pero se incurren y pagan por partes externas a la empresa. Estos costos pueden ser de dos tipos, los que resultan de la degradación ambiental y los relacionados con un impacto adverso en la propiedad o bienestar de los individuos; en cualquier caso, los costos los asumen otros, no la empresa, aunque ella los cause. Importancia y beneficios En Cuba existe una extensa agenda de trabajo encaminada a la gestión medioambiental impulsada por el Ministerio de Ciencia, Tecnología y Medio Ambiente. Sin embargo, no existen evidencias de implementación de un sistema de gestión ambiental que involucre los conceptos de desarrollo ambiental al mismo tiempo que el desarrollo económico [6]. La contabilidad ambiental ha permitido que las empresas amplíen su visión sobre el beneficio que se puede obtener a través del desarrollo de las actividades (ver Fig. 1). Fig. 1. Importancia de la contabilidad ambiental [4] Además, con la implementación de políticas en las entidades se ha contribuido a la obtención de un desarrollo sostenible [4]. En las empresas tener en cuenta los costos ambientales es de gran importancia, pues ofrece información contable-ambiental la cual es necesaria para la gestión empresarial. Para cuantificar, registrar e informar los daños causados al medio ambiente y las acciones preventivas o correctivas necesarias para evitarlas. La contabilidad ambiental toma una gran relevancia para establecer el grado del impacto que presenta la aplicación de políticas y los instrumentos para su regulación y control sobre el medio ambiente, por ello es necesario establecer los parámetros para esta pueda brindar información pertinente, viable, y relevante para su conformación dentro del ámbito social mundial [4]. El conocimiento de los costos ambientales en el desempeño de procesos y productos hace posible la fijación de precios más exactos. Esto permite a las empresas diseñar procesos, productos, y servicios amigables con el medio ambiente; lo cual constituye una ventaja competitiva para las empresas [6]. El Fórum Ambiental en el año 1999 plantea que la contabilidad ambiental se refiere a la generación, análisis y utilización de información financiera y no financiera destinada a integrar las políticas económicas y ambientales de la empresa y formar una empresa sostenible. Además, identifican a la contabilidad ambiental como el conjunto de instrumentos y sistemas que permiten a la empresa medir, evaluar y comunicar su actuación ambiental. Esto facilita el proceso de toma de decisiones directivas, relativas a la actuación ambiental de la empresa a partir de la selección de indicadores, la recolección y análisis de datos, la evaluación de esta información con relación a los criterios de actuación ambiental, la comunicación y la revisión y mejoras periódicas de tales procedimientos. También se plantea que la contabilidad ambiental es el área de las ciencias contables destinada a brindar información relevante de tipo ambiental a todos los partícipes. Además de estar en coherencia con las aspiraciones y metas de las empresas hacia la sostenibilidad. Desde el año 1999, la Asociación Española de Contabilidad y Administración, refiere que esta rama de la contabilidad registra, valora, racionaliza, y en la medida de lo posible controla, la proyección ambiental de la empresa. Esto se desarrolla basado en un plan de gestión a largo plazo, que deberá concretarse a corto plazo mediante planes operativos, asumiendo una nueva visión ambiental, que implique la configuración de las actividades de organización empresarial. A partir de los resultados presentados por la contabilidad ambiental, la administración puede optimizar los recursos y evitar los llamados «costos ocultos». El interés de la administración con principios de responsabilidad ambiental no radica solo en obtener una cifra positiva de resultados, es necesaria la identificación de las operaciones que generan mayor impacto ambiental para emprender las acciones correctivas de mejora e inversiones económicas ambientales. No es posible concebir un desarrollo sostenible en la empresa sin asumir los costos ambientales generados, para efectos de una cultura organizativa con responsabilidad ambiental; es necesario traducir a cifras contables los impactos ambientales que merecen intervención. Esto permite a la empresa demostrar públicamente el compromiso ambiental, optimar la gestión interna, el cumplimiento de las normas legales, reconocimientos oficiales, entre otros. A pesar de que las normas contables no expresen de manera clara la inclusión de partidas contables medioambientales, la presentación de las inversiones ambientales calculadas mediante las notas en los estados financieros permite llevar un control sobre la gestión ambiental, lograr una eficiencia energética, desarrollar una producción más limpia, ahorrar costos de desperdicios, entre otros [12]. Metodologías para la determinación de los costos ambientales Entre 2007 y 2010 en Cuba se comienza la investigación sobre los costos ambientales. Herrada [13] en el 2007 propone un procedimiento para la planificación, control y análisis de los costos ambientales en instalaciones hoteleras –caso Hotel Cayo Coco–. Reyes, 2010 [14] aplica un procedimiento para la gestión del costo ambiental con el que identifica los costos ambientales en que incurre un taller de laminado al realizar su proceso productivo, separándolos de los costos del período donde se encuentran ocultos en cuentas corrientes de gastos. Pelegrín y Urra en el 2004 [15] proponen un modelo de costos ambientales para empresas turísticas, donde mejora el control de los recursos ambientales y evalúa alternativas con posibles soluciones atendiendo a una mejora continua desde la óptica de la sostenibilidad. Este último autor introduce la óptica de los costos ambientales desde la perspectiva de la sustentabilidad, aspecto que no había sido tratado anteriormente. Ramírez Pérez y Rodríguez Sosa en el 2012 [16] proponen un procedimiento para un sistema de gestión de costos ambientales en la producción arrocera y Velázquez y Sánchez en el 2015 [17] determinan el costo ambiental siderúrgico basado en los procesos, con lo que posibilita el registro, cálculo y análisis de este, de forma separada y agrupada, de acuerdo con la clasificación de proceso estratégico, principal y de apoyo, con objetivos específicos y relaciones diferentes. Logran el perfeccionamiento del sistema de gestión empresarial en sectores específicos de la economía cubana, dejando brechas para su aplicación en otros sectores económicos. Son varias las metodologías y procedimientos analizados que a lo largo de los años han introducido al costo medioambiental en la gestión contable medioambiental de las organizaciones. Entre las principales deficiencias encontradas se destacan la falta de vinculación de las metodologías con la sostenibilidad, aspecto esencial para la toma de decisiones medioambientales en las empresas. No analizan los principales impactos que dan lugar al daño medioambiental y carecen de estrategias que relacionen los costos detectados con acciones específicas para la conservación de los recursos naturales. Relacionado con estos aspectos, Cañizares en el 2015 [18] diseñó un procedimiento que mediante un enfoque sistémico establece formas de relacionar variables económicas, ambientales y sociales, a partir del ciclo de vida y los elementos del Sistema de Gestión Ambiental, lo cual permite calcular los costos de las actividades ambientales, y provee a la contabilidad gerencial de una herramienta novedosa para gestionar la sostenibilidad del recurso agua potable. En este sólo se analiza el recurso agua potable lo que reduce su nivel de aplicación y de análisis de sustentabilidad. Igual sucede en la investigación Zequeira-Álvarez et al. (2017) [19] que proponen un procedimiento encaminado al reconocimiento y evaluación de los costos ambientales que fortalezca el proceso de toma decisiones, el mismo debe llevarse a cabo mediante la realización de una serie de acciones necesarias, integradas y sistematizadas. El procedimiento se sustenta a partir de la información contable y de gestión, pero imponen no de forma excluyente, tener implementado el Sistema de Gestión Ambiental. Por su parte, Hernández en el 2018 [20] emplea una metodología para la valoración de los costos ambientales en el proceso de tratamiento a las aguas residuales de la Empresa de Perforación y Extracción de Petróleo del Centro. Esta metodología requiere la base de especialistas formados y preparados para la aplicación del procedimiento y la interpretación de los resultados obtenidos Además, propone para el cálculo de los costos ambientales las siguientes ecuaciones: 𝐶𝑜𝑠𝑡𝑜𝑠 𝑑𝑒 𝑃𝑟𝑒𝑣𝑒𝑛𝑐𝑖ó𝑛 = ∑𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝐶𝑜𝑠𝑡𝑜 𝑑𝑒 𝑃𝑟𝑒𝑣𝑒𝑛𝑐𝑖ó𝑛 (1) 𝐶𝑜𝑠𝑡𝑜𝑠 𝑑𝑒 𝐸𝑣𝑎𝑙𝑢𝑎𝑐𝑖ó𝑛 = ∑𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝐶𝑜𝑠𝑡𝑜 𝑑𝑒 𝐸𝑣𝑎𝑙𝑢𝑎𝑐𝑖ó𝑛 (2) 𝐶𝑜𝑠𝑡𝑜𝑠 𝑑𝑒 𝐶𝑜𝑛𝑡𝑟𝑜𝑙 = ∑𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝐶𝑜𝑠𝑡𝑜 𝑑𝑒 𝐶𝑜𝑛𝑡𝑟𝑜𝑙 (3) 𝐶𝑜𝑠𝑡𝑜𝑠 𝑑𝑒 𝐹𝑟𝑎𝑐𝑎𝑠𝑜 = ∑𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝐶𝑜𝑠𝑡𝑜 𝑑𝑒 𝐹𝑟𝑎𝑐𝑎𝑠𝑜 (4) El costo total medioambiental se calcula mediante la suma de cada una de las cuatro clasificaciones realizadas. Por tanto, la expresión resultante es: 𝐶𝑡(𝑚) = 𝐶.𝑃𝑟𝑒𝑣.+𝐶.𝐸𝑣𝑎𝑙𝑢𝑎𝑐.+𝐶.𝐹𝑟𝑎𝑐𝑎𝑠𝑜 + 𝐶.𝐶𝑜𝑛𝑡𝑟𝑜𝑙 (5) Sánchez et al., 2021 [21] elaboraron un procedimiento basado en un enfoque complejo, participativo, sostenible y multidisciplinario. Es importante destacar que el procedimiento propuesto es un instrumento novedoso para las empresas que realizan inversiones en el sector de la construcción, pues contribuye a la gestión de la sostenibilidad de los recursos naturales y a la toma de decisiones con relación a la protección del medioambiente. Su aplicación durante las fases de las inversiones constructivas es un punto de partida para que la contabilidad de costos ambientales tenga un nuevo protagonismo en las instituciones cubanas. Las principales limitantes están dadas por el campo de aplicación (inversiones constructivas), pero a su vez contribuye a fomentar la planificación de esas inversiones tomando como premisa fundamental la sostenibilidad de los recursos naturales que conllevan realizarlas. De manera general se puede plantear, que para lograr una contribución y/o un cambio en la contabilización de los costos ambientales a partir de la aplicación del procedimiento es necesario partir del manejo de los recursos naturales en la búsqueda de alternativas sostenibles y la concepción dinámica y flexible de la contabilidad y la conservación ambiental. También es oportuno resaltar que no existe una metodología única para determinar los costos ambientales, por lo que se hace necesario comprender que los contextos ambientales requieren ser estudiados de manera integrada y contar con las premisas mínimas, conocer las restricciones y determinar los criterios de las empresas objeto de estudio para una adecuada implementación del instrumental metodológico. 3. CONCLUSIONES A pesar de los avances alcanzados en el marco legal para la conservación del medio ambiente, en Cuba son varias las entidades que proporcionan información sobre resultados ambientales como parte de una gestión responsable con su entorno, pero en la mayoría de casos lo hacen mediante informes cualitativos que no miden objetivamente su desempeño ambiental en términos de costos y beneficios reales o efectivos. A pesar de que se evidencian avances en las investigaciones relacionadas con los costos ambientales, aún existen limitaciones relacionadas con la concepción de un enfoque sistémico, para la comprensión, explicación e interpretación de los costos ambientales, así como para generar información útil en la toma de decisiones sobre la sostenibilidad de los recursos naturales REFERENCIAS 1. AYALES, I., BENÍTEZ, M., FEVRIER, S., & RAMÍREZ, I. (1996). Género, comunicación y desarrollo sostenible: aportes conceptuales y metodológicos. 2. MARESMA-HERNÁNDEZ, Y. (2016). Contabilidad de costos ambientales en la industria cárnica, recomendaciones para su desarrollo. Ciencias Holguín, vol. 22, pp. 1-14, Article 3. http://www.redalyc.org/articulo.oa?id=181546432001 3. BECERRA, K., GARCÍA, D., & PÉREZ, G. (2013). Gestión de costos e ingresos medioambientales como herramienta para la toma de decisiones empresariales. 13. 4. LÓPEZ, K. M. C. (2021). “La contabilidad ambiental y su valoración en el sector del calzado de la ciudad de Ambato.” Universidad Técnica de Ambato. Ambato, Ecuador. 5. RODRÍGUEZ-JIMÉNEZ, D. F. (2011). Formulación de una estructura teóricapara la contabilidad ambiental. Libre Empresa, Vol. 8, pp. 101-120, Article 2. 6. BECERRA, W. L., & HINCAPIÉ, D. (2014). Los costos ambientales en la sostenibilidad empresarial. Propuesta para su valoración y revelación contable. Contaduría Universidad de Antioquia, pp. 173-195, Article 65. 7. BECERRA, K., GÓMEZ, E., PÉREZ, G., & REYES, R. (2011). ¿Cómo Calcular Los Costos Medioambientales? Caso: Empresa Gráfica De Cienfuegos. "Visión de Futuro", Vol. 15, 22, Article No. 2. http://revistacientifica.fce.unam.edu.ar/index.php?le&id=251&Itemid=61 8. LINARES, M. C., & SUÁREZ, Y. M. (2017). Los costos ambientales: un análisis de la producción científica en el periodo 1977-2016 y una revisión de herramientas y teorías subyacentes. "Criterio Libre", Vol.15, Pp. 89-114, Article 27. 9. FRONTI, L., & FERNÁNDEZ, C. (2007). El Protocolo de Kioto y los Costos Ambientales. Revista del Instituto International de Costos, p.p. 9-31. 10. JASCH, C. M. (2002). Environmental Management Accounting, Procedures and Principles, United Nations Division for sustainable Development, Department of Economic and Social Affairs. 11. CHIRINOS, A., URDANETA, M., & RODRÍGUEZ, G. (2008). Gestión de Costos Ambientales en Sectores Industriales Venezolanos. 12. 12. LÓPEZ, A. A., & MAYORGA, M. P. (2019). Análisis de los costos ambientales en una empresa minera en el Ecuador. 13. HERRADA, T. (2007). Procedimiento para la planificación, control y análisis de los costos medioambientales en instalaciones hoteleras. Caso Hotel Tryp Cayo Coco. Tesis doctoral, Universidad de Camagüey. 14. RIZO, M. A., & COLLADO, V. (2017). La contabilidad y la actividad medio ambiental de la industria ronera en Cuba: caso de estudio empresa mixta Havana Club International S.A-Ronera San José. Contabilidad y Negocios, 12, pp. 6-18, Article 24. 15. PELEGRÍN, A., & URRA, K. (2004). La contabilidad y el medio ambiente. Procedimientos para su evaluación y análisis desde la óptica de la gestión empresarial. Revista Quehacer Científico, 1(1), 88-96. 16. RAMÍREZ PÉREZ, Y., & RODRÍGUEZ SOSA, S. (2012). Propuesta metodológica de un procedimiento para un sistema de gestión de costos medioambientales en la producción arrocera del CAI “Fernando Echenique” en la provincia Granma. Universidad de Granma. 17. VELÁZQUEZ, Y., & SÁNCHEZ, A. (2015). Sistema de costos medioambientales basado en los procesos productivos de la siderurgia. Revista Caribeña de Ciencias Sociales (2015_01). 18. CAÑIZARES, M. (2015). Los costos de las actividades ambientales para análisis de sostenibilidad. Revista cubana de ciencias económicas, 1(2), 1-12. 19. ZEQUEIRA-ÁLVAREZ, M. E., SALAS-FUENTE, H. S.-F., FRANCIS-ARCHER, D. V., & INFANTES-QUÍLEZ, L. (2017). Medidas generales de sostenibilidad ambiental compartidas para productores y comunidades locales en una zona costera. Anuario Facultad de Ciencias Económicas y Empresariales, 112-128. 20. HERNÁNDEZ, C. M. L. (2018). Aplicación de un procedimiento para la valoración de los costos medioambientales asociados al sistema de aguas residuales de la EPEPCentro Universidad de Matanzas]. Matanzas. 21. SÁNCHEZ, C. C. L., ARENCIBIA, A. S., & CRUZ, J. A. L. (2021). Procedimiento para la contabilización de costos medioambientales en las empresas que realizan inversiones en el sector de la construcción. Cuadernos de Contabilidad, 22, 1-22. sobre los autores Elina Fernández Santana. Ingeniera química, Jefe de carrera de Ingeniería química, Facultad de Ingeniería Química, Universidad Tecnológica de La Habana “José Antonio Echeverría” Cujae. Profesor Titular, Doctor en Ciencias Técnicas. Miembro de la Sociedad Cubana de Química (SCQ) y la Unión Nacional de Arquitectos e Ingenieros Civiles de Cuba (UNAICC), La Habana, Cuba. George Bess Palacios. Graduado de Ingeniera Química en el 2021, Corporación Cubana del Ron CubaRon S.A., La Habana, Cuba. Yulieth Viera Gallardo, Ingeniera Química, alumna de la maestría Ingeniería Ambiental, Especialista en el Laboratorio Central de Criminalística, La Habana, Cuba. Lianys Ortega Viera. Ingeniera Química, Vicedecana docente, Facultad de Ingeniería química, Universidad Tecnológica de La Habana “José Antonio Echeverría” Cujae. Profesor Auxiliar, Doctor en Ciencias Técnicas. Miembro de la Sociedad Cubana de Química (SCQ) y la Unión Nacional de Arquitectos e Ingenieros Civiles de Cuba (UNAICC), La Habana, Cuba ANÁLISIS PRELIMINAR DE RIESGOS DE INCENDIO EN ESTACIÓN DE COMBUSTIBLE DE UNA TERMOELÉCTRICA Juan José Camejo Giniebra1, Jenry Viña Rodríguez2, Magaly Alfonso Gonzáles3 1Grupos de Corrosión e Ingeniería de Materiales. Facultad de Ingeniería Química y de Estudio de Desastres. Facultad Arquitectura. Universidad Tecnológica de La Habana. Calle 114 No. 11901 entre Ciclo vía y Rotonda, Marianao, La Habana, 2Laboratorio de Protección de Materiales. Dirección de Investigación, Desarrollo e Innovación. Centro Nacional de Investigaciones Científicas CNIC. Avenida 25 y Calle 158 Cubanacan, Playa, La Habana, 3Magaly Alfonso Gonzáles, Grupo de Estudio de Desastres. Facultad Arquitectura. Universidad Tecnológica de La Habana. Calle 114 No. 11901 entre Ciclo vía y Rotonda, Marianao, La Habana. 1e-mail: camejo@quimica.cujae.edu.cu RESUMEN Entre los accidentes de origen tecnológico ocupan un importante lugar los derrames (líquidos), escapes (gases), incendios y explosiones que pueden producirse durante el procesamiento, producción, transporte o almacenamiento de sustancias peligrosas, denominados accidentes mayores, que pueden producir afectaciones graves a las personas, al medio ambiente y a la economía. En el presente trabajo se exponen los resultados del estudio realizado para el análisis preliminar de los riesgos de incendio en la estación o sistema de combustible de una termoeléctrica. Para ello se procedió a la caracterización del proceso tecnológico, así como de la peligrosidad del combustible a partir de sus propiedades físico químicas y eco tóxicas y la identificación de los sistemas y medios técnicos, medidas técnico-organizativas y humanas de seguridad implementadas. Para el análisis preliminar de riesgos de incendió se aplicó el método cualitativo “Análisis de Modos de Fallos y sus Efectos” (AMFE). A partir de los resultados obtenidos se recomiendan medidas que deben adoptarse, relacionadas con la revisión e inspección de equipos y componentes y la realización de acciones de mantenimiento predictivo y preventivo, para una mejor gestión de seguridad en la instalación. PALABRAS CLAVES: Incendio, accidente mayor, seguridad industrial, mantenimiento. PRELIMINARY ANALYSIS OF FIRE RISKS IN A FUEL STATION OF A THERMOELECTRIC PLANT ABSTRACT Among the accidents of technological origin, are very important spills (liquids), leaks (gases), fires and explosions that can occur during the processing, production, transport or storage of dangerous substances, called major accidents, which can cause serious damage to people, the environment and the economy. In the present work, are presented the results of the study carried out for the preliminary analysis of the risks of fire in the fuel station or system of a thermoelectric plant. For this, the characterization of the technological process was carried out, as well as the danger of the fuel based on its physical, chemical and eco-toxic properties and the identification of technical systems and means, technical-organizational and human security measures implemented. For the preliminary analysis of fire risks, the qualitative method "Analysis of Failure Modes and their Effects" (FMEA) was applied. Based on the results obtained, measures to be adopted are recommended, related to the review and inspection of equipment and components and the performance of predictive and preventive maintenance actions, for better safety management in the installation. KEY WORDS: Fire, major accident, industrial safety, maintenance. 1. INTRODUCCIÓN Se entiende por “accidente mayor” cualquier suceso tal como: escapes de gases o derrames de líquidos tóxicos y/o inflamables, incendio o explosión, que sea consecuencia del desarrollo incontrolado de un proceso industrial o actividad de servicios, que suponga una situación de grave riesgo, catástrofe o calamidad pública, inmediata o diferida, para las personas, el medio ambiente y(o) los bienes construidos en el interior o exterior de la instalación en que se produzcan, y en el que estén implicadas una o más sustancias peligrosas [1, 2, 3]. Partiendo de lo anteriormente expuesto, se consideran peligros de accidentes mayores, o de desastres de origen tecnológico por sustancias peligrosas, a los peligros de: derrame de líquidos inflamables y(o) tóxicos, escape de gases inflamables y(o) tóxicos, incendios y explosiones. Tienen la característica de que la ocurrencia de uno de ellos puede conducir a que se produzcan los demás, si se dan las condiciones para que se complete la cadena o secuencia accidental, “efecto dominó”. Los efectos peligrosos de los accidentes mayores capaces de producir afectaciones (daños) de diferentes grados en las personas, los bienes o al medio ambiente, se expresan mediante las siguientes variables físicas: concentración tóxica (C) en la atmósfera, suelos y aguas superficiales o subterráneas; por el escape de gases o derrame de líquidos tóxicos; calor directo o radiación térmica (qr) procedente de los incendios de diferentes tipos; sobrepresión máxima (ΔP) de la onda explosiva e impulso mecánico de proyectiles (I) por las explosiones confinadas y no confinadas [1, 2, 4]. La “seguridad industrial” o de procesos es el conjunto de sistemas o medios técnicos y medidas técnico- organizativas y humanas, dirigidos a disminuir la probabilidad de ocurrencia de accidentes y mitigar sus consecuencias sobre los trabajadores, la instalación, la comunidad y el medio ambiente, en caso de que se produzcan, debido al mal funcionamiento de los sistemas que posee la instalación la actividad humana, así como de la acción de eventos externos no imputables al hombre. El objetivo general de la seguridad industrial es proteger a las personas, la sociedad y el medio ambiente creando y manteniendo en las instalaciones de alto riesgo (con peligro de accidente mayor), una protección eficaz contra los peligros asociados a la actividad productiva que desempeñan [1, 4]. Los incendios son procesos de combustión (oxidación) no controlados, constituyen el tipo de accidente mayor más recurrente en las instalaciones en que se utilizan, procesan o almacenan sustancias o productos combustibles o inflamables, como es el caso de los derivados líquidos y gaseosos del petróleo. En la Tabla 1 aparece la clasificación de los procesos de combustión según la velocidad con que avanza la reacción en la masa combustible [1, 2]. Tabla 1. Clasificación de la combustión según su velocidad de propagación Tipo de combustión Velocidad de propagación (m/s) Simple (sólidos en braza).  1 Deflagración (polvos, gases y vapores inflamables). 1-340 Detonación (sustancias explosivas y gases inflamables en determinadas condiciones).  340 Las deflagraciones (incendios) y explosiones detonantes pueden producirse de forma confinada, o sea en el interior de un recipiente contenedor, o no confinada, después de liberado el producto o sustancia inflamable, por derrame (líquidos), o por escape (gases), debido a la pérdida de hermeticidad, o de contención, por el deterioro de diferentes tipos y formas, de equipos, recipientes, tuberías o accesorios. A partir de los derrames de líquidos inflamables se formará una nube de vapor inflamable, cuyo volumen dependerá, entre otros factores, de la cantidad de líquido derramado y de su volatilidad. En el caso del escape de gases inflamables, se formará directamente la nube inflamable. Tales nubes podrán inflamarse produciendo un incendio si la concentración de vapor o gas alcanza o supera su límite inferior de inflamabilidad (por ciento en volumen en el aire) y se pone en contacto con una fuente de ignición, o una explosión detonante, en el caso de los gases, si se dan las condiciones para ello. Los principales fallos de componentes por los que con mayor frecuencia se producen los derrames o escapes en procesos industriales son: por colapso (rotura catastrófica) de equipos o tuberías o por formación de orificios o fisuras en sus paredes por fallo de material o soldadura; roturas de bridas, instrumentos, válvulas reguladoras de flujo, prensas de bomba; apertura o rotura de válvulas de seguridad, de purga o de discos de ruptura. Ello evidencia la necesidad de realización de revisiones o inspecciones, periódicas, a todos los equipos, recipientes, tuberías y accesorios instalados en los procesos con peligro de accidente mayor, y realizar las acciones de mantenimiento requeridas en cada caso. Los fallos de equipos y accesorios pueden ser categorizados en gestionados, evitados y sorpresivos. Gestionados: considera la operación hasta el fallo de los equipos no críticos para la seguridad (mantenimiento correctivo). Evitados: fallos que pueden preverse a través de actividades exitosas de mantenimiento preventivo y predictivo. Sorpresivos: fallos que ocurren inadvertidamente, o sea no previstos. Un buen programa de mantenimiento debe aumentar el porcentaje de fallos evitados y gestionados y disminuir, sustancialmente, el de sorpresivos. El éxito está en cuan bien se focalicen los esfuerzos en alcanzar niveles aceptables de fiabilidad, al menor costo posible. Evaluación de los efectos y afectaciones de los accidentes mayores La evaluación cuantitativa de los efectos peligrosos de los accidentes mayores (concentración tóxica de líquidos o gases fugados, calor radiante procedente de incendios, sobrepresión e impulso de proyectiles por las explosiones), así como su alcance en el espacio (distancia y área de efecto), forman parte importante de los análisis de riesgos que representan las sustancias peligrosas presentes en una instalación. En términos generales, se trata de modelos matemáticos que permiten evaluar las circunstancias en el lugar de origen de un accidente y la variación de sus efectos peligrosos con la distancia contada desde dicho origen [1, 2, 5]. Para el caso de los incendios se requiere estimar, mediante los modelos matemáticos desarrollados para ello, el flujo de calor radiante (qr) que puede alcanzarse a determinadas distancias de las llamas y compararlos con los valores de la siguiente Tabla 2, para establecer la relación entre distancia y daños. Tabla 2. Afectaciones (daños) de la radiación térmica de un incendio [1]. Flujo de radiación térmica (kW/m2 ) Tiempo máximo de exposición para personas (segundos) Daños sobre personas a mayor tiempo de exposición. Otras afectaciones sobre los materiales y estructuras 1,6 --- Umbral de sensación dolorosa. 4,0 30 Aparición de ampollas en la piel no protegida. 12,6 4 Ignición de la madera. Fusión de los recubrimientos plásticos en cables eléctricos. 37,8 Pérdida de resistencia del acero, colapso de estructuras no ligeras. Estudios para el análisis y evaluación de riesgos en procesos con peligro de accidente mayor Referido a un accidente, el riesgo se define como la contingencia de sus consecuencias o daños. Tiene carácter cuantitativo, siendo su expresión más generalizada el producto de la probabilidad de ocurrencia del accidente considerado (absoluta o referida a un período de tiempo determinado), por las consecuencias esperadas (severidad). Tiene el sentido estadístico de una esperanza matemática cuya expresión es [1, 2, 4]: Riesgo = Probabilidad de ocurrencia del accidente x Severidad o magnitud de las consecuencias (R = PA x C) PA: Probabilidad de que ocurra el accidente. Será mayor o menor en la medida en que la gestión de seguridad de los procesos tecnológicos en la instalación o actividad peligrosa objeto de análisis, resulte más o menos eficiente, o sea más o menos segura por causas técnicas, organizativas y/o humanas. C: Severidad, o sea magnitud y alcance de las consecuencias que pudiera provocar un accidente, en términos de afectaciones económicas, a la salud o a la vida humana y/o al medio ambiente. Permitirá establecer si un accidente puede llegar a provocar un desastre. Para su determinación cuantitativa se requiere estimar la distancia a la que los efectos peligrosos del accidente considerado, alcanzan determinados valores capaces de producir daños (afectaciones) a instalaciones, personas y otros componentes bióticos y abióticos del medio ambiente. Se han elaborado una gran diversidad de técnicas o métodos para el análisis de riesgos con carácter reactivo, prescriptivo o predictivo. Según el grado de cuantificación del riesgo, las técnicas o métodos pueden agruparse o clasificarse en cualitativos, semicuantitativos o cuantitativos [1-4, 6]. Entre los objetivos generales de estos estudios se encuentran los siguientes: • Identificar los peligros de accidentes (identificación de los riesgos en su origen) presentes en una instalación, planta o proceso (escapes o derrames inflamables o tóxicos, incendios o explosiones) • Analizar las causas de los accidentes identificados. • Evaluar el riesgo que representa cada accidente identificado, o sea, probabilidad de ocurrencia por la magnitud de las consecuencias estimadas. • Definir las medidas técnicas, técnico-organizativas y humanas, activas y pasivas, de protección (de prevención o mitigación), para evitar la ocurrencia y/o mitigar las consecuencias de los accidentes identificados. • Cumplir con los requisitos legales que se vinculan con los objetivos. El objetivo de este trabajo es presentar los resultados del estudio realizado para el análisis preliminar de los riesgos de incendio en el sistema de combustible de una termoeléctrica, mediante la aplicación del método cualitativo para estudios de riesgos “Análisis de Modos de Fallo y sus Efectos” (AMFE) 2. METODOLOGÍA DE ESTUDIO Para la realización del estudio se aplicaron los procedimientos y métodos propios del análisis de riesgos de procesos, que comprenden; caracterización (estudio) del proceso tecnológico; caracterización físico- química y peligrosidad de las sustancias involucradas en el proceso; identificación de los sistemas, medios y(o) medidas técnicas, técnico-organizativas y humanas implementados para la operación segura del proceso tecnológico; gestión de mantenimiento. Recopilación de información disponible relativa a incidentes, averías y(o) accidentes tecnológicos ocurridos con anterioridad. Realización del análisis de riesgos aplicando el o los métodos de estudios seleccionados. Caracterización resumida del proceso tecnológico del sistema de combustible de la termoeléctrica La central termoeléctrica (CTE) cuenta con un generador de vapor (caldera) que produce vapor sobrecalentado a 9,0 MPa (90 atm) y 545ºC, el que se inyecta a un turbogenerador (turbina) con una potencia nominal de 64 MW. La caldera dispone de horno con 15 quemadores, ocho en la pared frontal y siete en la trasera, es de paredes de agua, con cabezales inferiores, un domo superior para evaporación en dos etapas. Tiene instalados dos ventiladores de tiro forzado para el suministro de aire al horno y dos de tiro inducido, para la circulación de los gases de combustión desde el horno hasta la chimenea. El petróleo utilizado como combustible es suministrado a la CTE mediante embarcaciones, o mediante el empleo de camiones cisternas, pudiendo ser descargado a dos de las tres cisternas soterradas existentes, construidas de material cerámico, o directamente a los tanques de almacenamiento y proceso. De las cisternas, el combustible se bombea hacia los tanques de proceso construidos de acero con capacidad de 1200 m3 cada uno, desde los cuales se suministra a los quemadores de la caldera. En operación normal el consumo de combustible es de 17800 kg/h (17,8 ton/h). La estación o sistema de combustible tiene el objetivo de la distribución y preparación del petróleo para lograr su combustión eficiente en los quemadores, para ello desde cada uno de los tanques salen dos líneas (tuberías) para la alimentación de petróleo a la caldera, con válvula a la salida del tanque y al llegar al área de caldera. La línea de los tanques hasta el cabezal de succión de las bombas es la más larga del sistema; en ella van incluidos los filtros de succión de las bombas de petróleo. Su diámetro y espesor de pared es de 159 y 4,5 mm respectivamente. Comienza en los tanques de petróleo, saliendo cuatro líneas, dos de cada tanque con su respectiva válvula, que descargan a dos líneas soterradas, que emergen en el piso del área de caldera en la que se encuentran las bombas que impulsan al petróleo hasta los calentadores, los filtros de descarga y la denominada línea del metro, mediante la que se distribuye a todos los quemadores. De esta línea forman parte los quemadores y las válvulas de regulación automática y manual de flujo de petróleo. Antes de cada quemador están instaladas la válvula manual de entrada de petróleo y su incomunicadora. A la entrada de cada quemador hay una manguera de alta presión que sale desde la válvula manual hasta el quemador. El diámetro y espesor de pared de todos los tramos de tubería desde las bombas hasta los quemadores es de 89 y 3,5 mm respectivamente. En los calentadores de petróleo el vapor circula por dentro de los tubos con forma de serpentín, lo que proporciona una superficie de calentamiento de 70 m2 por cada calentador (tres), que permite mantener la temperatura del petróleo a 150 ºC, aproximadamente, a plena carga de la caldera. La presión de diseño por la parte del petróleo es de 4,0 MPa (40 atm) y por la parte del vapor de 1,3 MPa (13 atm). Además de las válvulas de entrada y salida del petróleo y el vapor, los calentadores disponen de válvulas de seguridad por la parte del petróleo (de alivio), calibrada a 3,0 MPa, y del vapor, calibrada a 0,6 MPa y debajo de los mismos hay instalada una bandeja para la recolección de los posibles derrames incluido el petróleo liberado en caso de apertura de la válvula de seguridad. Las bombas del sistema de combustible permanecen bloqueadas (no entran en funcionamiento) si no está por lo menos un juego de ventiladores de tiro inducido y tiro forzado en servicio para evitar la posible acumulación de combustible en el horno o de gases de combustión. El sistema de combustible dispone de una línea de recirculación de petróleo a los tanques. La línea comienza con dos tramos; uno desde cada pared de quemadores y se unen en una línea común. A la salida de la línea de cada pared hay instalada una válvula manual de recirculación y en la línea común una válvula eléctrica de recirculación. A la línea común de recirculación se unen también la recirculación desde la salida de los calentadores y la recirculación desde la descarga de cada una de las bombas. A través de esta línea se desaloja el petróleo necesario para mantener la presión requerida a la descarga de las bombas. Además, el sistema de combustible dispone de las líneas de purga que van desde los diferentes elementos del sistema que lo requieren, hasta la cisterna colectora de purgas. En el sistema están instaladas las siguientes válvulas de regulación y cierre: válvula de regulación de la presión de petróleo en la descarga de las bombas (primera recirculación). El regulador que acciona a esta válvula, recibe señal de presión del cabezal de descarga de las bombas. Válvula de recirculación desde los calentadores al tanque (segunda recirculación). Esta permite la recirculación de petróleo desde la salida de los calentadores al tanque en los períodos de arranque, además, siempre que la válvula principal de petróleo cierre, esta válvula abrirá automáticamente, quedando las bombas recirculando desde los calentadores al tanque. En operación debe estar normalmente cerrada. Está ubicada en la línea de recirculación. Válvula principal de petróleo: su función es permitir el paso del petróleo hacia la caldera; está ubicada en la línea principal de petróleo. Se encuentra conectada al sistema de protección de la caldera, de manera que, en caso de producirse disparo de la misma, cerrará automáticamente cortando el flujo de petróleo a los quemadores. Válvula de regulación automática del flujo de petróleo; su función es regular el flujo de petróleo a la caldera en forma automática, tiene válvulas manuales incomunicadoras anterior y posterior. Válvula de regulación manual remoto del flujo de petróleo; su función es regular el flujo de petróleo en forma manual, en caso de estar fuera de servicio la válvula automática, está ubicada como desvío de la misma. En operación normal debe estar cerrada. Válvula eléctrica de recirculación desde los quemadores al tanque; su función es la de recircular el petróleo desde los quemadores al tanque, entronca en la línea de recirculación de petróleo hacia los tanques. En operación normal se encuentra cerrada. Caracterización físico-química y peligrosidad del combustible procesado En la Tabla 3 aparecen las principales propiedades físico-químicas del petróleo crudo mejorado utilizado como combustible en la termoeléctrica. Tabla 3. Características físico-químicas del petróleo utilizado en la termoeléctrica Parámetro Unidad Valor Densidad a 15 oC g/cm3 0.965 Viscosidad a 50 oC cP 1351 Viscosidad a 80 oC cP 178 Punto de inflamación oC 54 mínimo Temperatura auto ignición oC >200 Azufre % peso 7,0 máximo Agua por Destilación % Volumen 1,9 máximo Sedimento % peso 0,10 máximo Carbono Conradson % peso 16 máximo Asfaltenos % peso 18 máximo Vanadio ppm 150 máximo Sodio ppm 330 máximo Es un líquido combustible cuyos vapores pueden irritar las mucosas, asfixia por desplazamiento del oxígeno, dolor de cabeza, dificultad al respirar, perdida de coordinación muscular, visión borrosa y convulsiones. Puede provocar cáncer. Tóxico para los organismos acuáticos. Grandes volúmenes de producto pueden penetrar en el suelo y contaminar las aguas subterráneas. Los vapores pueden trasladarse a nivel del suelo a distancias considerables, puede introducirse en alcantarillas y sótanos. Durante su manipulación y almacenamiento tienen que evitarse la acumulación de cargas electrostáticas conectando a tierra todo el equipamiento y evitar fuentes de calor, llamas o chispas. En caso de incendio aplicar como medio de extinción polvo químico ABC, anhídrido carbónico, arena, espuma. El agua como, medio extintor, solo puede aplicarse en forma de niebla. En forma de chorro solo para enfriar los recipientes expuestos. No se debe realizar ninguna acción sin la formación adecuada, o que suponga un riesgo para el personal. Combatir al incendio desde un lugar protegido. Sistemas, medios y/o medidas técnicas, técnico-organizativas y humanas implementados para garantizar la seguridad del o los procesos tecnológicos. Gestión de mantenimiento La termoeléctrica tiene instalado un sistema automático de control de procesos y alarmas, así como sistemas instrumentados de seguridad para bloqueos, enclavamientos y paradas de emergencia. Dispone de una Unidad de Control (Sala de Control) en la que se registran y controlan los parámetros operacionales de la caldera, del sistema de combustible y del turbogenerador. Todos los equipos o aparatos que trabajan normalmente a presiones por encima de la atmosférica, disponen de dispositivos para el alivio de presiones (válvulas de alivio o válvulas de seguridad). La red del sistema de protección contra incendio con agua alcanza las diferentes áreas de la instalación que lo requieren. Se dispone también de diferentes tipos de extintores en correspondencia con las características de cada área. Se cuenta con medios pasivos de protección como son el cubeto de los tanques de almacenamiento de combustible, así como, muros protectores en algunas áreas que contribuyan a disminuir la propagación de un posible incendio y/o explosión, existen vías de acceso y escape que posibilitan la evacuación del personal en caso de producirse un siniestro. La instalación dispone de las normas de explotación elaboradas por la Unión Nacional Eléctrica (UNE) específicas de la central, en las que se establecen “las reglamentaciones necesarias para garantizar una explotación segura y eficiente de los equipos” de los diferentes sistemas de que dispone, incluyendo la norma del sistema de combustible. En las mismas se describen las principales características de diseño de los equipos, tuberías y accesorios, su función, instrucciones para su “puesta en servicio”, operación y “puesta fuera de servicio”, forma de actuación ante la ocurrencia de fallas o averías, automática, protecciones, bloqueos y accionamientos. No aparece el diagrama de flujo ni el de equipos e instrumentos y tuberías (P&ID). No tienen debidamente documentado un sistema de gestión de seguridad de procesos mediante el Informe de Seguridad como establece el Decreto Ley 309/2013. “De la Seguridad Química”, y su reglamento contenido en la Resolución 148/2013 “Reglamento sobre la gestión de los riesgos a la seguridad de los procesos en instalaciones industriales con Peligro Mayor” del Ministerio de Ciencia, Tecnología y Medio Ambiente (CITMA). Se garantiza que todos los trabajadores posean la capacitación necesaria y los medios de protección según el trabajo a desempeñar. La instalación posee una brigada integrada por operarios capacitados para actuar en situaciones de emergencia, especialmente ante el surgimiento de un incendio, hasta tanto se presentan los bomberos. La instalación dispone de un técnico especialista denominado ʺInspector de Explotaciónʺ entre cuyas funciones se encuentra fiscalizar y exigir que las operaciones para la intervención en componentes del sistema eléctrico, válvulas, bombas, tanques y otros equipos para su mantenimiento o reparación, se ejecuten según la secuencia establecida en los procedimientos, con la calidad requerida y cumplimiento de las medidas de seguridad establecidas. No existe un departamento o sección de Seguridad Industrial. La UNE tiene establecido un sistema de mantenimiento para este tipo de instalación que comprende: mantenimiento general de cinco días (hasta tres veces al año), mantenimiento general de 45 días (una vez al año), mantenimiento capital (cada cinco años), sin embargo, en la práctica por diversas razones, no se realizan con la periodicidad establecida, en particular el mantenimiento general de 45 días y el capital cada cinco años, por ejemplo, en esta central se debió realizar un mantenimiento capital en el año 2016, pero no fue hasta el año 2018 que fue llevado a cabo, luego de haberse producido un incendio en los pre calentadores de aire, por combustión de residuos sólidos acumulados en los mismos después de haberse realizado una limpieza química a la caldera e intentar ponerla en servicio. Información disponible relativa a incidentes, averías y/o accidentes tecnológicos ocurridos con anterioridad Aunque no existe en la instalación un registro completo de los incidentes y(o) accidentes tecnológicos ocurridos se pudo recopilar información respecto a los siguientes eventos: • 2017: Incendio de pequeñas proporciones en los pre calentadores de aire por combustión de residuos sólidos acumulados, después de realizar una limpieza en la caldera. • 2018: Durante el proceso de descarga de combustible desde la patana hacia los tanques, por deficiencias de operación durante el bombeo, se produjo un derrame apreciable, lo que obligó a la extracción del mismo y la sustitución del suelo. • 2019: Derrame de una cantidad apreciable de ácido sulfúrico durante el proceso de descarga desde el camión cisterna hacia el tanque existente en la planta de tratamiento químico de agua, debido al empleo de una manguera de material inadecuado. Descripción del método de estudio aplicado para el análisis de los riegos de incendio Se aplicó el método cualitativo “Análisis de Modos de Fallos y sus Efectos”. El objetivo de este método consiste en establecer los fallos posibles en todos y cada uno de los elementos, equipos (de proceso y de control) en una planta, los modos de detección de los fallos, sus causas y consecuencias y definir, medidas correctoras para los fallos que sean más significativos [1-3]. El procedimiento a seguir se expone a continuación: 1. Identificar y listar todos los elementos de equipo (de proceso y de control) dentro de una sección del proceso en la planta. 2. Definir el funcionamiento de cada elemento del equipo. 3. Definir las posibles desviaciones de las condiciones normales de operación como modos de fallo. En la Tabla 4 se muestran algunos ejemplos de modos de fallo. Tabla 4. Ejemplos de modos de fallo a considerar Condición normal Modo de fallo Estar cerrado Estar abierto Estar abierto Estar cerrado Flujo No fluir En marcha Parado Estanco Fuga Accionamiento Sin accionamiento Abrir No abrir Señal de mando Sin señal Enfriamiento Sin enfriamiento 4. Definir los efectos posibles de los fallos definidos en 3. 5. Establecer si los fallos definidos en 3 y los efectos definidos en 4 afectan a otros elementos de equipo aparte del que se esté considerando. En caso afirmativo debe trasladarse la parte del análisis correspondiente al elemento receptor de la influencia para determinar consecuencias sobre el mismo. 6. Discernir y recomendar medidas preventivas viables que eviten los fallos definidos en 3, que sean significativos a efectos de seguridad. 7. Registro escrito (informe) del análisis. 8. Repetir de 1 a 7 para todas las secciones del proceso. Los resultados se recogen en una tabla con la siguiente información: No Descripción Modo de fallo Causas Modo de detección Efectos Medidas correctoras 3. ANÁLISIS DE RESULTADOS En las Tabla 5 se presentan los resultados obtenidos a partir de la aplicación del método de estudio indicado. Como puede apreciarse, los principales modos de fallos, identificados como más significativos a efectos de la seguridad del sistema de combustible, consisten en la pérdida de integridad mecánica, o sea pérdida de hermeticidad o de contención, como resultado del deterioro físico y(o) químico de tanques, tuberías, bombas o de las numerosas válvulas y bridas instaladas, lo que conduciría al derrame de combustible, aumentando la probabilidad de ocurrencia de incendios. Tal es el caso del incendio que se produjo el 8 de julio de 2022 en la Unidad 2 de la termoeléctrica de Felton, a partir de un derrame de combustible en la línea de suministro a la caldera. Según la información ofrecida por la UNE, la Unidad quedó fuera de servicio. Los trabajos de reparación requerirán de varios meses. Entre las principales causas conducentes al deterioro de los componentes del sistema hasta su mal funcionamiento, fallo o rotura, se encuentran: las posibles desviaciones de las condiciones normales de operación, insuficiente revisión e inspección de equipos y componentes e insuficiente realización de acciones de mantenimiento preventivo y predictivo. Las medidas que se recomiendan para una mejor gestión de los riesgos de incendio presentes en la estación de combustible son las siguientes: ✓ Cumplir estrictamente con la realización de las revisiones e inspecciones y acciones de mantenimiento a los diferentes equipos y componentes del proceso, en los periodos o frecuencias establecidas. ✓ Actualizar el programa de mantenimiento de los equipos y componentes del sistema de combustible considerando su criticidad para la seguridad, o sea para disminuir la probabilidad de derrames que puedan conducir a la ocurrencia de incendios, mediante acciones de mantenimiento preventivo y predictivo, que aseguren la disminución de fallos sorpresivos. ✓ Establecer un libro de registro en el que los operarios, precisando fecha y hora, reporten en forma escrita, las incidencias (o no incidencias) durante cada turno de trabajo y el resultado de las revisiones o chequeos realizados durante el recorrido del sistema, que deben efectuar según lo establecido en la ·” Norma del Sistema de Combustible OP-7. Explotación”. ✓ Elaborar los diagramas de flujo y de tuberías e instrumentos (P&ID), debidamente actualizados, e incorporarlos a la “Norma del Sistema de Combustible OP-7. Explotación” de manera que formen parte de la misma, como establecen las buenas prácticas de seguridad industrial. ✓ Proceder a la preparación y elaboración del “Informe de Seguridad” según establece el Decreto Ley 309/2013, “De la Seguridad Química” y su reglamento contenido en la Resolución 148/2013, “Reglamento sobre la gestión de los riesgos a la seguridad de los procesos en instalaciones industriales con Peligro Mayor”, del CITMA. Tabla 5. Modos de fallos más significativos presentes en la estación de combustible No Descripción Modo de fallo Causas Modo de detección Efectos del fallo Medidas correctoras 1 Tanques de combustible 1200 m3 Perdida de contención Formación de cavidades en el techo y extremos superiores de las paredes por la acción corrosiva de vapores y gases procedentes del combustible contenido ✓ Visual ✓ Olfativa Contaminación de la atmósfera Posible derrame de combustible Posible incendio Proceder a la inspección anual del techo extremos superiores de las paredes y a su reparación si se detectan perforaciones o pérdida excesiva de espesor Pérdida de contención Perforación de las paredes por acción erosiva y corrosiva del petróleo y del agua separada del mismo, acumulada en su parte inferior ✓ Visual Derrame de combustible hacia cubetos de contención Contaminación de la atmósfera Posible incendio Realizar inspección externa e interna con la periodicidad establecida Extracción permanente del agua separada del petróleo 2 Tuberías desde las bombas hasta quemadores Pérdida de contención Formación de fisuras en las paredes por sobrepresión y(o) vibraciones o tensiones cíclicas ✓ Visual Derrame de combustible Posible incendio Realizar anualmente inspección de tuberías con medición del espesor de paredes No Descripción Modo de fallo Causas Modo de detección Efectos del fallo Medidas correctoras 3 Bridas (uniones embridadas) en válvulas, equipos y aparatos instalados Pérdida de hermeticidad Deterioro de las juntas: endurecimiento, fragilización, formación fisuras o rajaduras ✓ Visual Derrame de combustible Posible incendio Vigilancia permanente Revisión técnica de las bridas para determinar su integridad con una periodicidad semestral como mínimo 4 Bombas de combustible Pérdida de hermeticidad Deterioro de empaquetaduras o prensaestopas ✓ Visual Derrame de combustible Posible incendio Mantener vigilancia permanente Revisión y mantenimiento según indicaciones del fabricante o reglamento de operación 5 Válvula de alivio de sobrepresión de petróleo en el calentador No acciona ante valor excesivo de presión Vástago atascado ✓ Intentando accionar la válvula Derrame de combustible por rotura del calentador provocada por sobrepresión Posible incendio Comprobar accionamiento de la válvula según norma de operación 6 Válvulas Pérdida de hermeticidad Deterioro del vástago ✓ Visual Derrame de combustible Posible incendio Mantener vigilancia permanente. Revisión técnica semestral 4. CONCLUSIONES En la estación o sistema de combustible objeto de análisis están presentes los riegos de derrames y de incendios, que pueden producirse a partir del combustible derramado. Como causa principal de los derrames se identificó la pérdida de contención en tanques, tuberías o calentadores de petróleo, o de hermeticidad en las bombas, o en las numerosas válvulas y bridas instaladas, como resultado de su deterioro físico (mecánico) y(o) químico, debido a posibles desviaciones de las condiciones normales de operación, insuficiente inspección y realización de acciones de mantenimiento preventivo y predictivo, lo que evidencia la importancia de implementar las medidas recomendadas para lograr una mejor gestión de seguridad en la operación de esta instalación y sus similares en el país. REFERENCIAS 1. STORCH DE GRACIA, José María. Manual de seguridad industrial en plantas químicas y petroleras. Madrid, España: Editorial McGraw-Hill, 1998, 620 pp. ISBN 84-481-2053-1. 2. PERRY Robert; GREEN Don. Perry’s chemical engineers’ handbook Eighth edition. New York: Editorial McGraw-Hill. 2008, 2735 pp. ISBN 0-07-142294-3. 3. VIÑA, Jenry; CAMEJO, Juan José; CASTAÑEDA, Abel. “Métodos de estudio más utilizados para el análisis de riesgos de procesos con sustancias peligrosas”. Revista CENIC Ciencias Químicas; 2021, vol. 52, núm. 2, pp. 138-165. 4. CROWL, Daniel; LOUVAR, Joseph. Chemical Process Safety. Fundamentals with Applications New Jersey. EUA. Editorial Prentice Hall PTR. 2002, 650 pp. ISBN 0-13-018176-5. 5. The CAMEO Software System; U.S. Environmental Protection Agency; National Oceanic and Atmospheric Administration. “ALOHA, User Manual" [en línea]. Washington, DC, [ref. de 20 de febrero 2018]. Disponible en Web: http://response.restoration.noaa.gov/aloha 6. SALOMÓN, Jesús; PERDOMO, Manuel. Análisis de Riesgo Industrial. Caracas. Venezuela: Editorial ISID. 2001. 209 pp. ISBN 980-00-1491-8 980075679-5. sobre los autores Juan José Camejo Giniebra: Ingeniero químico. Doctor en Ciencias Técnicas. Profesor asistente en la Facultad de Ingeniería Química, Universidad Tecnológica de La Habana durante más de 45 años. En pregrado imparte las asignaturas “Ingeniería de los materiales, corrosión y protección” y “Seguridad de procesos industriales”. En postgrado imparte varias asignaturas relacionadas con la prevención y control de la corrosión y la gestión de seguridad industrial en instalaciones con peligro de accidente mayor. Es miembro de los comités académicos de las maestrías “Conservación de instalaciones industriales” y “Gestión de riesgos de desastres”, asi como del Comité de Expertos del programa sectorial de ciencia, tecnología e innovación: “Gestión integrada del riesgo de desastres en Cuba” gestionado por la Agencia de Medio Ambiente (AMA) del Ministerio de Ciencia, Tecnología y Medio Ambiente (CITMA). ANÁLISIS DE SOSTENIBILIDAD DEL CICLO DE VIDA: UNA HERRAMIENTA DE GRAN IMPORTANCIA Diana Rosa Alcorta Cuello1, Lianys Ortega Viera1, Elina Fernández Santana1 1Universidad Tecnológica de La Habana “José Antonio Echeverría” Cujae, La Habana, Cuba, 1e-mail: dralcorta@quimica.cujae.edu.cu RESUMEN El planeta se encuentra actualmente en un punto en la historia en el cual se están viendo reflejadas las consecuencias a nivel ambiental de las crecientes y aceleradas actividades industriales, que como parte de un ciclo inherente afectan a la sociedad y a la economía, ya que ambas están delimitadas por los límites ambientales. Sin embargo, el modelo que ha adoptado la industria invierte este ciclo, en el que predomina el aspecto económico, sobre el social y el ambiental, generando un modelo del cual se evidencian sus efectos adversos. La agenda del desarrollo sostenible muestra una continua evolución, donde la sostenibilidad se está convirtiendo en un tema estratégico para los sectores industriales y comerciales para su futuro posicionamiento en el mercado. Por lo cual, los modelos de negocio actuales deberán reinventar sus comportamientos estratégicos frente a la sostenibilidad por medio del desarrollo de la innovación, la reestructuración de las organizaciones de acuerdo con sus capacidades y superar el paradigma de la obligatoriedad de las normativas, al de la oportunidad por medio del reconocimiento de las ventajas competitivas de la gestión sostenible, siendo el Análisis de Sostenibilidad del Ciclo de Vida una de las herramientas actuales y novedosas, que permitirían cumplir tal propósito. Es por ello que el objetivo del presente trabajo es exponer las principales características del ACV, su importancia; así como los aspectos fundamentales del Análisis de Sostenibilidad de Ciclo de Vida. PALABRAS CLAVES: ciclo de vida, costos ambientales, económicos, sociales, sostenibilidad LIFE CYCLE SUSTAINABILITY ANALYSIS: A TOOL OF GREAT IMPORTANCE ABSTRACT The planet is currently at a point in history in which the environmental consequences of the growing and accelerated industrial activities are being reflected, which as part of an inherent cycle affect society and the economy, since both are bounded by environmental limits. However, the model that the industry has adopted inverts this cycle, in which the economic aspect predominates over the social and environmental, generating a model whose adverse effects are evident. The sustainable development agenda shows a continuous evolution, where sustainability is becoming a strategic issue for the industrial and commercial sectors for their future positioning in the market. Therefore, the current business models must reinvent their strategic behaviors in the face of sustainability through the development of innovation, the restructuring of organizations according to their capacities and overcome the paradigm of mandatory regulations, to that of opportunity through the recognition of the competitive advantages of sustainable management, being the Life Cycle Sustainability Analysis one of the current and innovative tools that would allow fulfilling such purpose. That is why the objective of this work is to expose the main characteristics of stroke, its importance; as well as the fundamental aspects of the Life Cycle Sustainability Analysis. KEYWORDS: life cycle, environmental, economic, social costs, sustainability 1. INTRODUCCIÓN El Análisis del Ciclo de Vida (ACV) clásico es un proceso objetivo que permite evaluar las cargas ambientales asociadas a un producto, proceso o actividad, identificando y cuantificando tanto el uso de materia y energía como las emisiones al entorno, para poder así determinar su impacto, llevar a la práctica estrategias de mejora ambiental y realizar declaraciones ambientales. Esta metodología para evaluación de los impactos ambientales se integra con facilidad a la de evaluación de los impactos socioeconómicos, con la que comparte elementos, lo que favorece y aporta datos comparativos para la toma de decisiones frente a nuevos proyectos o acciones de mejora. De esta forma, integrando las dimensiones económica y social, el ACV se aproxima a lo que se ha denominado la Evaluación de la Sostenibilidad del Ciclo de Vida [1]. Como herramienta se basa en un enfoque sistémico, bajo el concepto de que la totalidad de las propiedades de un sistema no pueden ser analizadas considerando sus componentes en forma individual, sino que es necesario el estudio integrado de todos los elementos del ciclo o sistema. El ACV abarca el ciclo completo del producto, proceso o actividad: extracción y procesamiento de materias primas, producción, transporte y distribución, uso, reutilización y mantenimiento, reciclado y disposición final. Este análisis se orienta a incrementar la eficacia mediante la evaluación de: La diferencia existente entre dos procesos diferentes de fabricación del mismo producto, en términos de utilización de recursos y emisiones; la diferencia existente entre un producto de determinado material respecto a otras alternativas, en términos de utilización de recursos y emisiones; la cuantificación de las contribuciones relativas de las diferentes etapas del ciclo de vida de un producto o servicio a las emisiones totales a la atmósfera y la diferencia existente entre el posible impacto ambiental de un producto nuevo y otros productos ya existentes en el mercado. El ACV no es una evaluación de riesgo. Es una herramienta que permite aumentar la eficacia e introducir mejoras mediante la identificación y cuantificación de las emisiones y el impacto real de las emisiones en función de cuándo, dónde y cómo se transfieren al ambiente [1]. La evaluación con un enfoque de ciclo de vida de la dimensión ambiental de un producto o proceso cuenta ya con una metodología bien establecida. Si bien se han realizado avances significativos en los últimos años, para la aplicación del enfoque de ciclo de vida aplicado a las dimensiones económica y social aún se requieren métodos e indicadores más consistentes y robustos. El desarrollo de una herramienta de Evaluación de la Sostenibilidad del Ciclo de Vida que contemple las tres dimensiones clásicas (ambiental, económica y social) enfrenta hoy en día grandes desafíos, uno de ellos es la presentación integrada de los resultados de forma fácilmente comprensible para todas las partes interesadas. En Cuba se han realizado diversos estudios encaminados al ACV en diferentes procesos y es por ello, que el presente trabajo tiene como objetivo exponer las principales características del ACV, su importancia; así como los aspectos fundamentales del Análisis de Sostenibilidad de Ciclo de Vida (ASCV), la cual se ha convertido en una herramienta de gran importancia en la actualidad. 2. LA METODOLOGIA DEL ACV Y SU IMPORTANCIA EN LA TOMA DE DECISIONES Fases del ACV Para llevar adelante un ACV se identifican la totalidad de las entradas y salidas del sistema en estudio. Se consideran como entradas o inputs el uso de recursos y materias primas, los componentes y los productos terminados, el transporte y la energía que se utilizan en cada proceso o fase del sistema. Como salidas u outputs se incluyen las emisiones a la atmósfera, al agua y al suelo, los residuos y los subproductos afectados en cada proceso o fase del sistema. El inventario es la plataforma donde se recopilan las entradas y salidas para el análisis. Se lo denomina Inventario de Ciclo de Vida (ICV) y es la fase correspondiente a la recopilación y la cuantificación de las entradas y salidas de un sistema durante su ciclo de vida [1]. Para estudiar el ciclo de vida de un producto o servicio se tienen en cuenta todas las entradas y salidas de los procesos que tienen lugar en su ciclo de vida, desde la extracción de las materias primas hasta el reciclado o disposición final. Las etapas intermedias del proceso y acciones como el transporte y almacenaje, siempre que cuenten con relevancia dentro del ciclo de vida en cuanto a su impacto, también se incluyen en el análisis. Cuando el ACV tiene este alcance se lo denomina “de la cuna a la tumba”. En cambio, si el alcance del sistema en estudio abarca solamente las entradas y salidas, desde que se obtienen las materias primas hasta que el producto se lanza en el mercado, se conoce como “de la cuna a la puerta”. Finalmente, si las entradas y salidas se limitan a las inherentes al proceso de fabricación, se denomina “de la puerta a la puerta”. Según la norma ISO 14040 [2]- [3], el estudio de ACV se compone de cuatro fases (Fig. 1): Fig. 1. Fases de un ACV [2]- [3] a) Definición del objetivo y el alcance. Establecimiento de los objetivos y cometidos del estudio, su alcance de acuerdo a los límites fijados para el sistema, la unidad funcional y los flujos dentro del ciclo de vida, la calidad exigida a los datos, y los parámetros tecnológicos y de evaluación b) Análisis del inventario. Fase en la que se recopilan los datos correspondientes a las entradas y salidas para todos los procesos del sistema en estudio. Los datos se refieren a la unidad funcional definida en la fase anterior c) Evaluación del impacto del ciclo de vida. Al inventario de entradas y salidas se les incorporan los indicadores correspondientes a los potenciales impactos hacia el medio ambiente, la salud humana y la disponibilidad de recursos naturales d) Interpretación. Los resultados del ICV y la Evaluación de Impactos se interpretan en función del objetivo y alcance establecidos. Luego de realizar el análisis de los resultados, considerando su integridad, sensibilidad y coherencia, se plasman las conclusiones, limitaciones y recomendaciones que surgen del estudio El alcance de un ACV varía según la metodología que se utilice, el objetivo y los límites establecidos para el sistema en estudio. Realizando un análisis de la totalidad del ciclo de vida, de la cuna a la tumba, es posible asegurar que las cargas imputadas en una fase del ciclo de vida no se traspasen a otras fases. A modo de ejemplo, si se tercerizan etapas de un proceso mediante la contratación de un proveedor externo, eso no exime de contabilizar las cargas ambientales asociadas a esas etapas o subprocesos. Esto responde a la visión integral del ACV. La fase correspondiente a la Evaluación de Impactos del Ciclo de Vida tiene por objetivo conocer y evaluar la magnitud y la significancia de los impactos ambientales potenciales de un sistema. Para ello se emplea un método de evaluación para transformar los datos recabados en el Inventario de Ciclo de Vida en resultados de carácter ambiental. Aquí se caracteriza el resultado final del ACV, el cual puede diferir según la metodología empleada; hasta la fecha no se ha acordado un modelo único de evaluación a nivel internacional. La norma ISO 14040 [2]- [3] establece una serie de etapas obligatorias y otras de carácter optativo (Fig. 2). Fig. 2. Elementos de la fase Evaluación del Impacto del Ciclo de Vida [2]- [3] Para comenzar un ACV el primer paso es la selección de las categorías de impacto ambiental que se consideran en el estudio. Estas categorías corresponden a los impactos ambientales relevantes, que son cuantificados en la Evaluación del Impacto del Ciclo de Vida del producto o servicio en estudio. Luego de que a las sustancias del inventario se le han asignado en la clasificación una o más categorías de impacto ambiental, se comparan sus valores respecto a la sustancia de referencia de esa categoría. Para esto se utilizan los factores de caracterización de cada sustancia, que representan su contribución a una determinada categoría de impacto en relación a la sustancia de referencia de esa categoría. Cada sustancia seleccionada se multiplica por su correspondiente factor de caracterización, logrando de este modo llegar a valores con unidades equivalentes y así cuantificar la contribución a cada categoría de impacto. Se denomina normalización a la conversión de los resultados de la caracterización a unidades globales neutras. Se realiza un cociente de cada resultado por un factor de normalización, representando los últimos al nivel de contribución de cada categoría de impacto sobre el medio ambiente. La clasificación de las categorías de impacto dentro de grupos con categorías de impacto con efectos similares se conoce como agrupación. La ponderación es la conversión de los resultados de los valores caracterizados a una unidad común que permita sumarlos, multiplicándolos por su factor de ponderación. Finalmente, se suma la totalidad de resultados para lograr una única puntuación total del impacto ambiental del sistema en estudio. Según el Programa de las Naciones Unidas para el Medio Ambiente “bajo el concepto de Desarrollo Sostenible se expresan las preocupaciones sobre el estado y la sostenibilidad de las dimensiones ambientales, económicas y sociales del mundo de hoy y del mañana. También se refiere a la responsabilidad social de las organizaciones y al objetivo de mejorar el desempeño social y ambiental a la par de una rentabilidad económica sostenida – todo desde la perspectiva de contribuir sensiblemente a un mayor bienestar del ser humano” [4]. La norma ISO 14040 [2]- [3] no tiene dentro de su alcance el estudio del impacto económico y social, por lo que es necesario combinarla con otras herramientas para profundizar ese análisis. Si bien los ciclos de vida ambiental de productos se construyen desde los flujos de materiales y de energía, también pueden partir de los impactos (reales o potenciales) de la producción y consumo en los trabajadores, las comunidades locales, los consumidores, la sociedad y todos los actores de la cadena de valor. A estos estudios también se les puede incorporar la evaluación de los impactos económicos mediante metodologías específicas y complementarias al ACV tradicional. Las líneas directrices de UNEP para un ACV social ofrecen la base necesaria para el desarrollo de bases de datos y el diseño de programas informáticos de soporte, además de la estructura en la cual un grupo más amplio de partes interesadas e involucradas puede participar. Estas líneas se basan en las normas ISO 14040 y 14044 [2]- [3] y se adaptan para la integración de cuestiones sociales y socioeconómicas. Para esto se estructura una doble clasificación de los impactos sociales: por categorías de partes interesadas e involucradas y por categorías de impacto. Como complemento se trabaja con una serie de subcategorías utilizadas en un ACV social referidas a cuestiones sociales y socioeconómicas de mayor interés. Los impactos sociales son consecuencia de las presiones positivas o negativas sobre el bienestar de los interesados. Los Análisis de Ciclo de Vida sociales y socioeconómicos son complementarios a los ambientales. Para lograr resultados consistentes es fundamental mantener la coherencia entre las normas utilizadas para los estudios; de hecho, con normas similares se puede llegar a resultados diferentes. En general, se recomienda recabar los datos propios del lugar en cuanto a temas socioeconómicos, ya que las bases de datos para los impactos sociales y socioeconómicos son de tipo generalista. La herramienta del cálculo del costo del ciclo de vida, LCC por su sigla en inglés, se centra en los costos directos y los beneficios de las actividades económicas, como los costos para la prevención de la contaminación, los costos de las materias primas, los impuestos, los intereses sobre el capital, entre otros. También aborda externalidades como los impactos sobre el bienestar humano debido a los impactos sociales, la biodiversidad, o la reducción en el rendimiento de los cultivos por la contaminación. Por lo tanto, el cálculo del coste de ciclo de vida es una recopilación y evaluación de todos los costos relacionados con un producto a lo largo de todo su ciclo de vida, desde la producción, al uso, el mantenimiento y la eliminación. Su aplicación es factible para la industria o para bienes de inversión como el transporte, la maquinaria en general y la construcción. Como técnica, el Análisis de Ciclo de Vida social ayuda a las partes interesadas e involucradas a participar de manera eficaz y eficiente en los procesos de mejora de las condiciones sociales y socioeconómicas [1]. Aplicaciones prácticas La Agencia Federal Alemana de Medio Ambiente estima que el 80 % de los impactos ambientales de los productos se determinan durante su fase de diseño. Respondiendo al auge del ecodiseño, el ACV ha incorporado nuevos parámetros para la evaluación del impacto ambiental. El método de ACV detallado en la ISO 14044:2006 [2]- [3] es aplicable a todos los productos en general, entre ellos los servicios, la industria, los proyectos y los procesos. La norma ISO 14040 detalla en forma general las siguientes aplicaciones: Identificación de oportunidades para mejorar el desempeño ambiental de productos en las distintas etapas de su ciclo de vida. Aportación de información a quienes toman decisiones en la industria, organizaciones gubernamentales o no gubernamentales (por ejemplo, para la planificación estratégica, el establecimiento de prioridades, el diseño y rediseño de productos o procesos). Selección de los indicadores de desempeño ambiental pertinentes, incluyendo las técnicas de medición. Marketing (por ejemplo, la implementación de un esquema de etiquetado ambiental, elaborando una reivindicación ambiental o una declaración ambiental de producto). Como complemento de las normas ISO hay una serie de metodologías para el ACV con amplia aceptación. Una de ellas es la definida en la norma PAS 2050:2008 [5], con algunas variantes menores frente a la ISO, pero de similares resultados. Las metodologías Ec99, Recipe e Impact 2002+ alcanzan las cinco fases de la Evaluación del Impacto Ciclo de Vida: clasificación, caracterización, normalización, agrupación y ponderación. A su vez, abarcan un amplio espectro de las diferentes categorías de impacto ambiental. La de IPCC, por su parte, se focaliza en el cambio climático y considera las fases de clasificación y caracterización. Para realizar el ACV de un producto o servicio se pueden utilizar numerosas alternativas de software. Las opciones más completas generalmente tienen un costo de compra de la licencia y cuentan con bases de datos asociadas. También se puede acceder a ellas mediante opciones de licencia limitada. Dentro de estos programas de enfoque genérico los de mayor difusión son SimaPro, GaBi y Umberto. Todos tienen bases de datos asociadas, permiten la realización de ACV y LCC, así como la interface con otros programas, la modificación de parámetros y la exportación de datos. Los análisis de ciclo de vida son muy intensivos en datos y las limitaciones que existen en el medio en cuanto a disponibilidad y accesibilidad de información local confiable, algo que también se traduce en mayores costos, determina una barrera adicional a la aplicación de esta herramienta. Aunque es posible recurrir a bases de datos internacionales, usualmente no reflejan las diferentes realidades locales de los países en desarrollo, lo que obliga a incurrir en estimaciones que pueden aumentar la incertidumbre de los resultados de los estudios. Al respecto vale destacar que la metodología de ACV incluye como elemento esencial la transparencia y trazabilidad de las fuentes de información, así como la declaración de la incertidumbre de los datos y resultados. Experiencias sobre el ACV en Cuba En Cuba existe una extensa agenda de trabajo encaminada a la gestión medioambiental impulsada por el Ministerio de Ciencia, Tecnología y Medio Ambiente. Sin embargo, no existen evidencias de implementación de un sistema de gestión ambiental que involucre los conceptos de desarrollo ambiental al mismo tiempo que el desarrollo económico [6]. Los estudios de ACV que se han realizado abarcan algunos sectores como son: la construcción, referente al impacto que tienen sobre el medio ambiente inversiones constructivas y la elaboración de materiales de construcción, como el hormigón [6], [7]. En la industria alimentaria, se han realizado investigaciones en los procesos de producción de azúcar crudo, de almidón de maíz, en la Empresa Cárnica de Holguín y se ha incorporado la categoría de inocuidad de los alimentos en el análisis de ciclo de vida [8] - [11]. A partir de la bibliografía consultada, los estudios donde se muestran resultados relacionados con los costos ambientales, se han desarrollado en la Empresa Gráfica de Cienfuegos [12], en la Sucursal CIMEX de Guantánamo [13], [14], en la Empresa de Suelos Ferralíticos Rojos, en zonas de estudio para la producción agrícola [15], en empresas turísticas [16] y en la industria minera [17]. No obstante, hasta la fecha las autoras no han encontrado referencias que manifiesten una metodología detallada para el análisis cuantitativo del CCV, ni se aprecia consenso sobre la combinación de ambos análisis en procesos productivos de la industria cubana y, por consiguiente, donde se aplique el ASCV. La evaluación mediante el análisis de ciclo de vida de la dimensión ambiental de un producto o proceso, cuenta ya con una metodología bien establecida. Si bien se han realizado avances significativos en los últimos años, el desarrollo de una herramienta de Evaluación de la Sostenibilidad del Ciclo de Vida que contemple las tres dimensiones clásicas (ambiental, económica y social) enfrenta hoy en día grandes desafíos, uno de ellos es la presentación integrada de los resultados de forma fácilmente comprensible para todas las partes interesadas. 3. CONCLUSIONES Más allá de sus limitaciones, el enfoque de ciclo de vida tiene una aplicación cada vez mayor en las decisiones de organismos gubernamentales y empresas privadas de países desarrollados. Su empleo por parte de las empresas no se basa exclusivamente en su visión de la responsabilidad corporativa en términos de sostenibilidad, sino también en cuestiones de mercado. El ejemplo más visible tal vez sea la creciente demanda en mercados internacionales de información sobre las cantidades de dióxido de carbono (CO2(g)) emitidos durante el ciclo de vida de un producto, así como de un esquema de etiquetado ambiental que lo contemple. REFERENCIAS 1. OLIVERA, ANDRÉS; CRISTOBAL, STELLA; SAIZAR, CARLOS. “Análisis de Ciclo de Vida Ambiental, Económico y Social: Una herramienta para la evaluación de impactos y soporte para la toma de decisiones”. INNOTEC Gestión, 2016, vol 7, pp. 20-27. 2. AENOR. Asociación Española de Normalización y Certificación. UNE-EN ISO 14040: Gestión ambiental. Análisis del ciclo de vida. Principios y marco de referencia. Madrid, España, 2006. 3. AENOR. Asociación Española de Normalización y Certificación. UNE-EN ISO 14044: Gestión ambiental. Análisis del ciclo de vida. Requisitos y directrices. Madrid, España, 2006. 4. UNEP-SETAC. Guidelines for social life cycle assessment of products [En línea]. UNEP, 2009. [Consulta: marzo de 2016] Disponible en: http:// www.unep.fr/shared/publications/pdf/dtix1164xpa- guidelines_slca.pdf 5. BRITISH STANDARD INSTITUTION. PAS 2050. Specification for the assessment of the life cycle greenhouse gas emissions of goods and services. Londres, BSI, 2011. 6. RIVERO, L. Evaluación de la eco-eficiencia del hormigón producido en la UEB Prefabricados de Remedios a partir de la utilización del cemento de bajo carbono. Trabajo de diploma para optar por el título de Ingeniero Químico. Universidad Central de Las Villas “Marta Abreu”. Villa Clara, Cuba 2016 7. LAGUNA, C. C.; SÁNCHEZ, A.; LAGUNA, J. A. Los costos medioambientales en la gestión de la sostenibilidad de los recursos naturales en las empresas que realizan inversiones constructivas. Revista de Investigación Latinoamericana en Competitividad Organizacional RILCO, noviembre 2019, No. 4 8. MENESES, YULEXIS. Análisis del ciclo de vida de los alimentos incluyendo las categorías falta de inocuidad alimentaria. Tesis de Doctorado. Departamento Ingeniería Química. Facultad Química-Farmacia. Universidad Central de Las Villas “Marta Abreu”. Villa Clara, Cuba 2017 9. RODRÍGUEZ, BERLAN. Metodología para la evaluación de impacto de ciclo de vida para la industria cubana. Tesis de Doctorado. Departamento Ingeniería Química. Facultad Química-Farmacia. Universidad Central de Las Villas “Marta Abreu”. Villa Clara, Cuba 2014 10. ROJAS, DC. Análisis del Ciclo de Vida de la producción de Azúcar Crudo en la Empresa Azucarera “Ecuador”. Trabajo de diploma para optar por el título de Ingeniero Químico. Universidad Central de Las Villas “Marta Abreu”. Villa Clara, Cuba 2009 11. PÉREZ, Maylier. Modelación de los inventarios parametrizados del azúcar crudo en Cuba para la evaluación ambiental con enfoque de ciclo de vida. Tesis de Doctorado Departamento Ingeniería Química. Facultad Química-Farmacia. Universidad Central de Las Villas “Marta Abreu”. Villa Clara, Cuba 2015 12. MARESMA, Y. “Contabilidad de costos ambientales en la industria cárnica, recomendaciones para su desarrollo”. Centro de Información y Gestión Tecnológica de Holguín. julio-septiembre, 2016; 22, No 3, p 1-14 13. BECERRA, E.; PÉREZ, G.; REYES, R. “¿Cómo calcular los costos medioambientales? Caso: Empresa Gráfica de Cienfuegos”. Revista Científica "Visión de Futuro". julio-diciembre, 2011; vol. 15, no. 2. 14. SALAS, H.; DE LA CRUZ, A. “Procedimientos para la identificación de los gastos medioambientales en la sucursal CIMEX de Guantánamo”. Revista Cubana de Finanzas y Precios, 2019, vol. 3, no. 4, p 98- 113. 15. MAURA, A. V.; FEBLES, J. M. “Una aproximación a los costos ambientales en los suelos ferralíticos rojos para el logro de la sostenibilidad”. Cofín Habana, 2018; vol. 12, no. 1, p 192-208 16. Pelegrín, A.; Reyes, M.; Campos, S. Modelo de costos ambientales para Empresas Turísticas. Experiencias en Cuba y México. (Contabilidad Ambiental. Costos Ambientales). Universidad de Camagüey. Cuba, 2010 17. González, A. Propuesta para el tratamiento contable de los costos ambientales en el proyecto Cierre de actividades mineras de la Empresa Comandante René Ramos Latour de la Empresa Ingeniería y Proyectos del Níquel, Ceproníquel. Facultad: Administración Pública y Empresarial, Departamento: Ciencias Económicas, Cuba, 2017. sobre los autores Diana Rosa Alcorta Cuello. Ingeniera química, Profesor Asistente, Máster en Ingeniería Ambiental, Facultad de Ingeniería Química, Universidad Tecnológica de La Habana “José Antonio Echeverría” Cujae. Miembro de la Sociedad Cubana de Química (SCQ), La Habana, Cuba Lianys Ortega Viera. Ingeniera Química, Vicedecana docente, Facultad de Ingeniería química, Universidad Tecnológica de La Habana “José Antonio Echeverría” Cujae. Profesor Auxiliar, Doctor en Ciencias Técnicas. Miembro de la Sociedad Cubana de Química (SCQ) y la Unión Nacional de Arquitectos e Ingenieros Civiles de Cuba (UNAICC), La Habana, Cuba Elina Fernández Santana. Ingeniera química, Jefe de carrera de Ingeniería química, Facultad de Ingeniería Química, Universidad Tecnológica de La Habana “José Antonio Echeverría” Cujae. Profesor Titular, Doctor en Ciencias Técnicas. Miembro de la Sociedad Cubana de Química (SCQ) y la Unión Nacional de Arquitectos e Ingenieros Civiles de Cuba (UNAICC), La Habana, Cuba APLICACIÓN DE BALANCES DE MATERIALES Y ENERGÍA MEDIANTE SIMULADORES DE PROCESOS EN LA METODOLOGÍA DE PRODUCCIÓN MÁS LIMPIA Daylen Yara Font Prieur1*, Lilieth Sánchez Martínez 1, Gabriel Orlando Lobelles Sardiñas2, Yoan Capote Trujillo2 1Departamento de Química, Universidad de Cienfuegos “Carlos Rafael Rodríguez”. Cuatro Caminos, km 4 Carretera Rodas. Cienfuegos, Cuba. E-mail: dyara@ucf.edu.cu 2 Refinería Cienfuegos S.A. Finca Carolina, km 3 ½. Código Postal- 55400. Cienfuegos, Cuba. RESUMEN La metodología de Producción Más Limpia es una estrategia de gestión empresarial preventiva, aplicada a productos, procesos y organización del trabajo, cuyo objetivo es minimizar emisiones tóxicas y residuos, reduciendo así los riesgos para la salud humana y ambiental, y elevando simultáneamente la competitividad. Sin embargo, la efectividad de dicha metodología se ve afectada por la poca precisión de los balances materiales que se utilizan para su implementación. En tal sentido, es objetivo del presente estudio desarrollar balances de energía y materiales mediante la utilización de simuladores de proceso para lograr una mayor precisión en los mismos. Se seleccionó le proceso y el simulador de proceso para desarrollar dicho balance. Se obtuvo el modelo de simulación y se seleccionó el paquete termodinámico. Para la validación del mismo se corrió el simulador logrando realizar el balance de materiales requerido y con la mayor precisión. Se realizan las pruebas de sensibilidad del modelo. Como resultado relevante se alcanza una mayor exactitud en el control de las principales variables operacionales del proceso, lo que permitió lograr la recuperación de 1 368 553 m3/año de agua con un costo de 2 121 257 dólares. A razón de 1,55 dólar/m3. Se recuperaron 23 071 t/año de H2S, que alimentadas a la unidad recuperadora de azufre permitirá la producción de 22 840 t/año de azufre elemental, que comercializado a 107 dólares/tonelada, significa un ingreso de 2 443 880 dólares. Se recuperan 10 910 toneladas/año de NH3, para la venta a la industria química para la producción de fertilizantes. PALABRAS CLAVES: balance de materiales; simuladores de proceso; producción más limpia. APPLICATION OF HEAT AND MATERIAL BALANCE THROUGH PROCESS SIMULATORS IN CLEANER PDODUCTION METHODOLOGY ABSTRACT The Cleaner Production methodology is a preventive business management strategy, applied to products, processes and work organization, whose objective is to minimize toxic emissions and waste, thus reducing risks to human and environmental health, and simultaneously increasing competitiveness. However, the effectiveness of said methodology is affected by the inaccuracy of the material balances used for its implementation. In this sense, the objective of this study is to develop energy and material balances through the use of process simulators to achieve greater precision in them. The process and the process simulator were selected to develop said balance. The simulation model was obtained and the thermodynamic package was selected. For its validation, the simulator was run, achieving the required balance of materials and with the greatest precision. Sensitivity tests of the model are performed. As a relevant result, greater accuracy is achieved in the control of the main operational variables of the process, which allowed the recovery of 1,368,553 m3/year of water at a cost of 2,121,257 dollars. At a rate of 1.55 dollars/m3. 23,071 t/year of H2S were recovered, which fed to the sulfur recovery unit will allow the production of 22,840 t/year of elemental sulfur, which, marketed at 107 dollars/ton, means an income of 2,443,880 dollars. 10,910 tons/year of NH3 are recovered for sale to the chemical industry for the production of fertilizers. KEY WORDS: material balance; process simulators; cleaner production. 1. INTRODUCCIÓN Es conocido que el 25 % de las reservas de agua dulce se consume en procesos industriales, cuyos residuales contaminan severamente las fuentes de abasto [1]. El aumento en la contaminación ambiental, la extinción de algunas especies animales y vegetales, son algunos ejemplos de los efectos perjudiciales causados por dicha industria [2]. Para contrarrestar esos impactos se han desarrollado nuevas tecnologías que descontaminan los residuales, partiendo de factores fundamentales como la factibilidad de la reutilización [3], la economía y la eficiencia de los procesos [4]. Sin embargo, en los últimos años, la efectividad de esos procesos se ha visto seriamente limitada debido a restricciones ambientales cada vez más severas [5], [6]. En tal sentido, la Refinería Cienfuegos S.A trabaja con parámetros de calidad reconocidos según las normas internacionales y con un tratamiento primario de sus residuales, con el objetivo de minimizar los costos de producción y mitigar los impactos medioambientales. Entonces, en el caso particular de la unidad recuperadora de H2S y NH3 (Unidad 121), caso de estudio, es necesario destacar que, para el diseño de dicha unidad, cuyo objeto social estaba definido, se tomaron en cuenta básicamente, las características de los crudos a procesar en el futuro, con vista a garantizar materia prima para la industria petroquímica. No obstante, hoy día esa perspectiva ha cambiado, por cuanto se requiere realizar la rehabilitación de dicha unidad, pero ahora como un proceso auxiliar, básicamente con fines medioambientales. Entonces, se impone la perspectiva de las producciones más limpias como su razón de ser. Por tanto, atendiendo a los requerimientos actuales, y las normas de emisiones antes mencionadas; se hace necesario lograr una total rehabilitación de la misma. Partiendo en primer lugar, de un preciso balance de materiales y energía para poder establecer mayor control sobre los parámetros operacionales de la unidad; toda vez que, sobre el diseño de los equipos ya no es posible actuar y un rediseño resulta en extremo costoso. Entonces, se precisa del uso de programas de cómputo para lograr la mayor exactitud en dichos balances. De ellos dependerá en gran medida el control de las principales variables operacionales y, consigo, la eficiencia de su proceso. Cada día es más común que las empresas inviertan grandes cantidades de dinero en la adquisición de programas de cómputo para el dimensionamiento de equipos y plantas de proceso. Si bien, en algunos casos se utilizan herramientas de cálculo como Excel, o el de un programa específico como PRO II o Chemcad, éstos solo son calculados en algunos casos sin la experiencia adecuada para llegar propiamente a la especificación de diseño. Todavía, se siguen utilizando tablas y gráficas para especificar los cálculos de manera artesanal y se realiza mucho trabajo a mano. Bajo estas condiciones fue diseñado el proceso objeto de estudio. Pero también, por la necesidad de integrar procesos contiguos de un complejo industrial, desde el enfoque de las Producciones Más Limpias [7], con el objetivo de propiciar algún valor agregado a diferentes residuales y a su vez que puedan utilizarse como materia prima de otros procesos. Para dar solución a la problemática presentada, es objetivo del presente estudio: Aplicar balances de materiales y energía mediante simuladores de procesos en la metodología P+L para la recuperación de H2S y NH3. 2. MATERIALES Y MÉTODOS Para la presente investigación se seleccionó el simulador de procesos ProMax® 2.0; [8] y fue necesario señalar el modelo termodinámico por el cual serán calculadas las propiedades de cada corriente. Visto así, se selecciona el paquete termodinámico Electrolytic ELR-PR, el mismo puede aplicarse en simulaciones de torres despojadoras, hidrotratadoras, unidades de crudo o cualquier proceso que contenga hidrocarburos, gases ácidos y agua [9]. Después de elegirla termodinámica del proceso, mediante la opción “Componente”, se añaden los componentes presentes en el caso de estudio: H2O, H2S, NH3, CO2. Se confeccionó un diagrama de flujo de información (DFI), que consta con varios módulos, dos columnas de destilación de 38 platos, que además de su alimentación requiere de la instalación de un rehervidor y la extracción de una corriente de tipo flujo circulante por el plato 34 que retorna en el plato 38. Para calcular este módulo se consideraron, además, la especificación de capacidad de intercambio del rehervidor igual a 8 500 000 kcal/h, el flujo de la corriente de recirculación (168 474 kg/h) y la temperatura de retorno de esa corriente (55 ºC). A este módulo entrará por el plato 33 la alimentación de agua agria definidas en la tabla 1 y se espera que las salidas sean agua despojada y vapor despojado. Para la validación del modelo se simuló el proceso de la torre recuperadora a las condiciones de diseño y se compararon los resultados obtenidos, estimándose el error que se comete al estudiar el sistema con el modelo simulado. Como criterio de comparación se tomó el error relativo: Tabla 1. Variables definidas de entrada a las torres recuperadoras. Corrientes 1A 1B 1C 1D 1E 1F Descripción de la corriente Agua Agria Agua Agria Agua Agria Agua Agria Agua Agria Agua Agria Fase Líquido Líquido Líquido Líquido Líquido Líquido Flujo molar total (kmol/h) 2889 46 1148 1902 384 2607 Flujo másico total (kg/h) 52 104 837 20 832 34 623 7000 47 527 Temperatura (oC) 45 40 50 52 50 48 Presión (kg/cm2) 5,5 5,5 5,5 5,5 5,5 5,5 Peso molecular 18,0 18,2 18,1 18,2 18,2 18,2 Entalphía (kcal/kg) -3762,1 -3667,9 -3688,4 -3652,3 -3654,9 -3643,9 Flujo másico total por componentes (kg/h) H2O 51 992,9 808,0 20 314,0 33 380,0 6 755, 0 45 625,8 H2S 111,0 19,0 345,1 828,9 175,0 1267,5 NH3 -- 10,0 172, 9 414,1 70,0 633,7 Para medir la sensibilidad del modelo de simulación se hacen corridas manipulando una variable dentro de los rangos de operación. Las demás variables se mantienen estables para poder observar cuales son los mejores resultados. Para cada caso se presentan los resultados gráficos involucrando la variable composición de NH3 y H2S, tanto, en el vapor despojado como en el agua despojada, teniendo en cuenta que son los que provocan la mayor contaminación. Estos contaminantes deben ser controlados con mayor rigurosidad debido a que después de ser despojados se envían a la unidad de recuperación de azufre, donde el sulfuro de hidrógeno en presencia de oxígeno se convierte en azufre elemental mientras el amoníaco es totalmente destruido, por acción de las altas temperaturas en el reactor de oxidación térmico para evitar que se formen sales de amonio [10], [11], [12]. 3. RESULTADOS Y DISCUSIÓN Implementación y validación del modelo de simulación en ProMax® 2.0 La implementación y validación del modelo de simulación se realiza según la metodología explicada anteriormente y los resultados se muestran y en las tablas 2 y 3 con una comparación entre los resultados que se obtienen con el modelo de simulación y los parámetros de diseño y operación, así como en la figura 1. Tabla 2. Análisis comparativo para los flujos de gas de salida en las torres recuperadoras. Corriente Vapor despojado Componentes Diseño (kg/h) Simulación (kg/h) % Error H2O 3765,20 3655,303 2,92 H2S 2746,9 2746,597 0,011 NH3 1300,8 1298,9 0,023 Total (kg/h) 7812,9 7702,401 1,41 Tabla 3. Análisis comparativo para los flujos de líquido de entrada y salida en las torres recuperadoras. Corriente Agua Agria Agua Agria Componentes Diseño (kg/h) Simulación (kg/h) % Error Diseño (kg/h) Simulación (kg/h) % Error H2O 158878,3 158875,7 0,002 155224,197 155220,397 0,003 H2S 2746,9 2746,6 0,01 0,002 0,002 0 NH3 1300,8 1300,7 0,007 0,19 0,2 5,26 Total (kg/h) 162926 162923 0,001 155224,389 155220,599 0,024 Después de utilizar el criterio de error como criterio de comparación entre los datos de diseño y los datos obtenidos por el software, se puede concluir que ningún % sobrepasa el 10 % permisible, lo que indica que los valores mostrados por la simulación se acercan a la realidad. Teniendo en cuenta estos elementos, se considera que el modelo se ajusta a los parámetros de este tipo de proceso. Figura 1. Modelo de simulación de las torres recuperadoras Resultados del análisis de sensibilidad Las figuras 2 y 3 muestran primero, que la presencia de los compuestos sulfuro de hidrógeno y amoníaco, en la composición del agua despojada disminuye a medida que aumenta la temperatura de alimentación a la torre, comportamiento lógico porque ocurre mayor despojamiento de dichos compuestos. En el segundo caso, la presencia de los compuestos sulfuro de hidrógeno y amoníaco, en la composición del vapor despojado, aumenta en la misma medida que aumenta el valor de la capacidad de intercambio del rehervidor, por consiguiente, se logra un mayor despojamiento de ambos compuestos, al mismo tiempo que aumenta el reflujo circulante, quien regula la temperatura en el tope de la torre. Resultados del balance de materiales en las tablas 4.1 a la 4.5 Tabla 4.1 Balance de materiales y propiedades de las corrientes de alimentación Tabla 4.2 Balance de materiales y propiedades de las corrientes intermedias Corrientes Intermedias Unidad 1 2 3 4 5 9 Tasa molar total kmol/h 8976 8976 8976 8976 8976 222 Tasa másica total kg/h 162923 162923 162923 162923 162923 5225 Temperatura ºC 48 48 40 40 84 93 Presión kgf/cm2 5,50 2,72 3,07 6,13 2,41 2,36 Peso molecular 18,2 18,2 18,2 18,2 18,2 23,5 Entalphía kcal/kg -3689,8 -3689,8 -3697,6 -3697,5 -3654,4 -939,5 Densidad kg/m3 989,9 989,9 993,3 993,2 969,9 Composición másica total H2O kg/h 158875,7 158875,7 158875,7 158875,7 158875,7 2476,803 H2S kg/h 2746,6 2746,6 2746,6 2746,6 2746,6 2746,597 NH3 kg/h 1300,7 1300,7 1300,7 1300,7 1300,7 1,6 Tabla 4.3 Balance de materiales y propiedades de las corrientes intermedias. Cont…. Corrientes Intermedias Unidad 13 14 18 25 26 Tasa molar total kmol/h 8754 8754 105,24 8623 8623 Tasa másica total kg/h 157698 157698 2477,401 155220,599 155220,599 Temperatura ºC 130 86 37 86 45 Presión kgf/cm2 2,72 2,41 1,00 8,68 7,00 Peso molecular 18,0 18,0 23,5 18,0 18,0 Entalphía kcal/kg -3683,8 -3728,1 -939,5 -3683,8 -3728,1 Densidad kg/m3 964,7 969,9 967,7 990,2 Composición másica total H2O kg/h 156398,897 156398,897 1178,5 155220,397 155220,397 H2S kg/h 0,003 0,003 0,001 0,002 0,002 NH3 kg/h 1299,1 1299,1 1298,9 0,2 0,2 Corriente de Alimentación Unidad 1A 1B 1C 1D 1E 1F Tasa molar total kmol/h 2889 46 1148 1902 384 2607 Tasa másica total kg/h 52104 837 20832 34623 7000 47527 Temperatura ºC 45 40 50 52 50 48 Presión kgf/cm2 5,50 5,50 5,50 5,50 5,50 5,50 Peso molecular 18,0 18,2 18,1 18,2 18,2 18,2 Entalphía kcal/kg -3762,1 -3667,9 -3688,4 -3652,3 -3654,9 -3643,9 Densidad kg/m3 990,2 993,7 989,1 988,7 989,6 9921,0 Composición másica total H2O kg/h 51992,9 808,0 20314,0 33380,0 6755,0 45625,8 H2S kg/h 111,1 19,0 345,1 828,9 175,0 1267,5 NH3 kg/h 10,0 172,9 414,1 70,0 633,7 Tabla 4.4 Balance de materiales y propiedades corrientes de recirculación Corriente de Recirculación Unidad 6 y 15 Extracción 8 y 20 Retorno PTR Tasa molar total kmol/h 9230 9230 862 Tasa másica total kg/h 168474 168474 15522,0 Temperatura ºC 101 55 45 Presión kgf/cm2 2,38 2,36 7,00 Peso molecular 18,3 18,3 18,0 Entalphía kcal/kg -3436,8 -3481,2 -3728,1 Densidad kg/m3 944,2 970,4 990,2 Composición másica total H2O kg/h 152198,3 152198,3 15522,0 H2S kg/h 5921,8 5921,8 0,002 NH3 kg/h 10353,9 10353,9 0,2 Tabla 4.5 Balance de materiales y propiedades corrientes de productos Corriente de Alimentación Unidad 26A 26B 26C 26D 26E 26F Tasa molar total kmol/h 2505 42 958 1659 343 2255 Tasa másica total kg/h 45093 723 17248 29860 6180 40594 Temperatura ºC 45 45 45 45 45 45 Presión kgf/cm2 7,00 7,00 7,00 7,00 7,00 7,00 Peso molecular 18,0 18,0 18,0 18,0 18,0 18,0 Entalphía kcal/kg -3728,1 -3728,1 -3728,1 -3728,1 -3728,1 -3728,1 Densidad kg/m3 990,2 990,2 990,2 990,2 990,2 990,2 Composición másica total H2O kg/h 45092,7 722,7 17247,7 29859,7 6179,7 40593,7 H2S kg/h 0,002 0,002 0,002 0,002 0,002 0,002 NH3 kg/h 0,2 0,2 0,2 0,2 0,2 0,2 4. CONCLUSIONES Los fundamentos teóricos de la investigación permitieron conocer las diferentes apreciaciones de la metodología de Producción Más Limpia, en las cuales se resalta la elaboración de los balances de materiales, en consecuencia, la simulación del proceso en el presente estudio permitió que: 1. Se obtuvo el modelo de simulación para el caso de estudio y se validó su implementación pues ninguno de los parámetros evaluados sobrepasó el 10% del error relativo establecido. Se realizaron los análisis de sensibilidad pertinentes para comprobar las variaciones del proceso y finalmente se desarrolló el balance de materiales y energía de la unidad objeto de estudio. 2. El balance de materiales y energía desarrollado mediante la simulación del proceso estudiado, permitió la aplicación eficiente de la metodología de Producción Más Limpia y en consecuencia se logra recuperar el 95,27% del agua despojada, lo que significa un ahorro de 1 368 553 m3/año con un costo de 2 121 257 dólares. Se recuperaron 23 071 t/año de H2S como materia prima para la unidad recuperadora de azufre. Se recuperan 10 910 toneladas/año de NH3 para la producción de fertilizantes. REFERENCIAS 1. LOBELLES-SARDIÑAS, G.O., DÉBORA-MIRA, L., SABINA-DELGADO, A. Evaluación integral de una torre despojadora para recuperar aguas sulfurosas en la Refinería de Cienfuegos. Tecnología Química. Vol.41, No.1, 2021, pp.123-140. ISSN:2224-6185. https://tecnologiaquimica.uo.edu.cu/index.php/tq/issue/view/323 2. MEIRA-CARTEA, P.A., ANDRADE-TORALES, M. Educación para una Cultura de la Sostenibilidad: eco-ciudadanía, políticas públicas y participación social. Pedagogía social: revista interuniversitaria. PSRI. Nº. 36, 2020, pp. 13-17. ISSN-e 1989-9742. DOI: 10.7179/PSRI_2020.36.01. https://recyt.fecyt.es/index.php/PSRI/issue/view/3960 3. LOBELLES-SARDIÑAS, G.O., LÓPEZ-BASTIDA, E., CORTÉS-MARTÍNEZ, R., PEDRAZA- GARCIGA, J. Economía ecológica y gestión tecnológica integral de aguas sulfurosas en la refinería de Cienfuegos para minimizar emisiones. Tecnología Química. Vol.39, No.1, 2019, pp.22-43. ISSN:2224-6185. https://tecnologiaquimica.uo.edu.cu/index.php/tq/issue/view/302 4. PLIEGO-RODRÍGUEZ, G. Intensificación del proceso Fenton para el tratamiento de aguas residuales industriales. 2012. Tesis doctoral. Universidad Autónoma de Madrid. https://repositorio.uam.es › bitstream › handle › 478.pdf. 5. NC-521:2007. Vertimiento de aguas residuales a la zona costera y aguas marinas- Especificaciones. Ciudad Habana, Cuba: ONN. Oficina Nacional de Normalización. Web: www.nc.cubaindustria.cu. 6. NC-27:2012. Vertimiento de aguas residuales a las aguas terrestres y alcantarillado- Especificaciones. In. Ciudad Habana. Cuba: ONN. Oficina Nacional de Normalización. Web: www.nc.cubaindustria.cu 7. OCHOA, George. Las Producciones Más Limpias en la gestión empresarial. Editorial Félix Varela. 2008. Pp: 15-24. ISBN: 978-959-07-0940-1 https://isbn.cloud/9789590709258/las-producciones-mas-limpias-en-la-gestion- empresarial/ 8. BR&E ProMax® with TSWEET® Process Simulation Software. 2015. Disponible en https://www.bre.com/ProMax-Main.aspx. 9. ÁLVAREZ, H. C. Optimización de la Unidad Despojadora de Aguas Agrias (T-2590) de la Gerencia Complejo Barrancabermeja mediante la aplicación de herramienta de simulación. 2007. Tesis de Grado, Santander; Colombia. https://docplayer.es/24990935-Helver-crispiniano-alvarez-castro.html 10. SASSI, M. & GUPTA, A. K. Sulfur Recovery from Acid Gas Using the Claus Process and High Temperature Air Combustion (HiTAC) Technology. American Journal of Environmental Sciences, 2008, 4(5), 502-511. ISSN 1553-345X https://thescipub.com/pdf/ajessp.2008.502.511.pdf 11. ABEDINI R, KOOLIVAND M and GHASEMIAN S. Modeling and simulation of condensed sulfur in catalytic beds of Claus process: rapid estimation. Chemical Engineering Research Bulletin, 14, 2010, pp.110-114. DOI:10.3329/cerb.v14i2.5595 https://www.banglajol.info › CERB › article › view pdf 12. HAMID.R.M, KEYVAN. K, RESA. H & HOOMAN. J. Effect of reaction furnace and converter temperatures on performance of SRUs. Journal of Petroleum Science Research (JPSR), 2012. 1, Issue 1, pp. 1-3. https://www.destechpub.com/wp-content/uploads/2019/01/JPSR-Volume-1-Issue-1-April- 2012.pdf?x45684 SOBRE LOS AUTORES Daylen Yara Font Prieur, Ingeniera Química, Profesor Instructor de la Universidad de Cienfuegos “Carlos Rafael Rodríguez”, Departamento de Química. Lilieth Sánchez Martínez, Ingeniera Química, Técnico de Adiestramiento en la Empresa de Servicio a Trabajadores de Cienfuegos. Gabriel Orlando Lobelles Sardiñas, Dr. C, Profesor Titular, Departamento de Investigación, Desarrollo e Innovación en Refinería Cienfuegos S.A . Yoan Capote Trujillo, Ingeniero Químico, Refinería Cienfuegos S.A. APLICACIÓN DE LA SIMULACIÓN DE PROCESOS EN EL DISEÑO DE INTERCAMBIADORES DE CALOR DE LA INDUSTRIA ALCOHOLERA Arletis Cruz Llerena1,2, Osney Pérez Ones2, Gustavo Saura Laria1 1Grupo de Bioingeniería, Dirección de Biotecnología, Instituto Cubano de Investigaciones de los Derivados de la Caña de Azúcar (Icidca). Vía Banca 804 y Carretera Central. San Miguel del Padrón, La Habana, Cuba. 1e-mail: arletis.cruz@icidca.azcuba.cu 2Grupo de Análisis de Procesos, Facultad de Ingeniería Química, Universidad Tecnológica de La Habana “José Antonio Echeverría”, Calle 114 e/ Rotonda y Ciclovía, No. 11901, Marianao, La Habana, Cuba. RESUMEN En el presente trabajo se realizó el diseño de los equipos de intercambio de calor del proceso de deshidratación de etanol por tamices moleculares en una destilería cubana. Se empleó el simulador Aspen Hysys v10.0 a partir de la herramienta EDR para realizar el diseño de seis intercambiadores de calor: calentador de alcohol hidratado (PE801), evaporador de alcohol hidratado (TE0801), sobrecalentador de alcohol hidratado (TE0802), condensador de flemas (TE0803), condensador de alcohol absoluto (TE0804) y enfriador de alcohol absoluto (PE0804). Para la estimación de las propiedades se seleccionó el paquete de propiedades NRTL para el equilibrio entre el agua y sustancias orgánicas a bajas presiones e Ideal para la fase vapor. Para la selección de los componentes se consideró el etanol como una mezcla binaria etanol-agua. La herramienta Aspen EDR se puede considerar como una alternativa factible y con potencialidades para realizar diseños de equipos de intercambio de calor de forma rápida. PALABRAS CLAVES: diseño de intercambiadores de calor, etanol anhidro, simulación, Aspen EDR APPLICATION OF PROCESS SIMULATION IN THE HEAT EXCHANGERS DESING OF THE ALCOHOL INDUSTRY ABSTRACT In the present work, the design of the heat exchange equipment of the ethanol dehydration process by molecular sieves in a Cuban distillery was carried out. The Aspen Hysys v10.0 simulator was used from the EDR tool to design six heat exchangers: hydrated alcohol heater (PE801), hydrated alcohol evaporator (TE0801), hydrated alcohol superheater (TE0802), condenser (TE0803), Absolute Alcohol Condenser (TE0804), and Absolute Alcohol Cooler (PE0804). For the estimation of the properties, the NRTL property package was selected for the equilibrium between water and organic substances at low pressures and Ideal for the vapor phase. For the selection of the components, ethanol was considered as a binary ethanol-water mixture. The Aspen EDR tool can be considered as a feasible alternative with potential for quickly designing heat exchange equipment. KEY WORDS: heat exchangers design, anhydrous ethanol, simulation, Aspen EDR 1. INTRODUCCIÓN La obtención de alcohol etílico deshidratado o alcohol etílico anhidro constituye un interés mundial. El alcohol etílico anhidro es el etanol o alcohol etílico con una fracción muy baja de agua en la mezcla. Al tener un 0,50 % v/v como máximo de agua [1], es apto para mezclarse con gasolinas y producir un combustible oxigenado de mejor calidad que disminuye la emisión de gases de combustión, es por esta razón que al alcohol anhidro también se lo conoce como alcohol carburante. El proceso de deshidratación de alcohol etílico utilizando solventes orgánicos limita su uso en la industria médico farmacéutica por los efectos cancerígenos que pueden provocar en la salud humana, por lo que se ha incursionado en el empleo de otros adsorbentes [2-5] como los tamices moleculares. En Cuba no existen experiencias en la producción de etanol anhidro con tamices moleculares. En el Icidca en el año 2022 [6], se realizó el diseño de un sistema de deshidratación de etanol utilizando tamices moleculares para su instalación anexa a una destilería cubana; por lo que fue necesario realizar el diseño de los sistemas de intercambio de calor del proceso. El diseño de intercambiadores de calor de forma manual a partir de la metodología del Kern [7], requiere de la determinación de un conjunto de propiedades y parámetros, lo cual hace este procedimiento un tanto complejo y engorroso. Por lo que, emplear una herramienta integrada a una simulación de proceso, donde el diseño del intercambiador está vinculado al proceso, permite realizar un diseño de forma rápida, además que, si se modifican los parámetros del proceso, resulta sencillo el rediseño de los intercambiadores de calor. De esta forma se destaca la utilidad de emplear la simulación a partir de Aspen EDR para el diseño o evaluación de equipos de intercambio de calor. Aspen Exchanger Desing & Rating (Aspen EDR) es considerada una herramienta poderosa para simular y diseñar intercambiadores de calor, ya que con pocos datos iniciales es posible obtener información detallada sobre: comportamiento físico y térmico del equipo, diseño, costo, etc. [8]. El diseño de los intercambiadores de calor de tubos y coraza a través de EDR, se basa en las normas de la Asociación de Fabricantes de Intercambiadores Tubulares (TEMA, por sus siglas en inglés). Otro aspecto muy importante es la posibilidad de tener parámetros para optimizar el costo; así, se selecciona la mejor geometría estándar que cumpla los requisitos al menor costo, mediante cálculos mecánicos e hidráulicos que permiten un diseño más detallado considerando la vibración, el ruido y los problemas de rendimiento durante la operación. En el diseño de intercambiadores de calor el primer paso es delimitar el problema tanto como sea posible inicialmente, esto es, definir para las corrientes: flujos, presiones, temperaturas, propiedades físicas, ensuciamiento, pérdidas de presión admisibles, etc. Luego se procede a seleccionar valores tentativos para los parámetros más importantes de diseño, tales como longitud y diámetro de los tubos (teniendo en cuenta las pérdidas de presión) [9]. En este trabajo se estableció como objetivo realizar el diseño de los intercambiadores de calor del proceso de deshidratación de etanol mediante tamices moleculares de una destilería cubana, empleando la simulación de procesos. 2. MATERIALES Y MÉTODOS Descripción del proceso tecnológico El sistema de deshidratación de etanol con tamices moleculares opera en fase de flujo descendiente para la producción de alcohol deshidratado al 99,2 % v/v a 20 ˚C, a partir de una fuente de alimentación de alcohol hidratado con una graduación aproximada de 93 % v/v a 20 ˚C. Esta área puede operar de forma autónoma, es decir, sin la necesidad de que se encuentre en operación el área de destilación debido a la existencia de un tanque pulmón de alcohol hidratado que posee una capacidad de trabajo de aproximadamente 1 430 L. Esta capacidad permite una operación de aproximadamente 3,5 horas de trabajo del área de deshidratación. La capacidad nominal considerada es de 500 hL/d, expresada como alcohol puro en el módulo productor de alcohol rectificado. No obstante, las capacidades reales están condicionadas en la práctica al tipo de alcohol que se produce y al grado alcohólico del vino que se alimente al sistema. La capacidad instalada de 500 hL estará constituida por 270 hL de alcohol etílico rectificado, 120 hL de alcohol etílico fino, 100 hL de alcohol etílico deshidratado y un 0,10 hL de alcohol etílico flema obtenidos por condensación. Las cabezas y las colas serán consideradas como alcohol etílico flema, a los efectos de la evaluación, y su uso será participar en la preparación del alcohol desnaturalizado F-5. La corriente de alcohol etílico fino de esta instalación será la materia prima utilizada para el sistema de deshidratación de etanol propuesto. Figura 1. Diagrama del proceso de producción de etanol deshidratado por tamiz molecular En la Tabla 1 se exponen los índices de consumo básicos en los procesos de deshidratación de etanol [6,10]. Tabla 1: Índices de consumo por hectolitro de alcohol etílico anhidro Facilidades auxiliares Tamices moleculares Pervaporación Destilación azeotrópica Agua de enfriamiento (m3/hL) 0,99 3,56 2,01 Fuel-oíl ( kg/hL) 0,12 7,76 6,05 Electricidad (kW/hL) 0,94 0,58 1,11 En la figura 1 se presenta el diagrama de la propuesta tecnológica del proceso de deshidratación de etanol mediante tamices moleculares y se señalan los equipos de intercambio de calor a diseñar. Simulación de procesos Se empleó el simulador Aspen Hysys v10.0 [11] a partir de la herramienta Aspen EDR para el diseño de seis intercambiadores de calor de tubos y coraza: calentador de alcohol hidratado (PE801), evaporador de alcohol hidratado (TE0801), sobrecalentador de alcohol hidratado (TE0802), condensador de flemas (TE0803), condensador de alcohol absoluto (TE0804) y enfriador de alcohol absoluto (PE0804). Para la estimación de las propiedades se seleccionó el paquete de propiedades NRTL para el equilibrio entre el agua y sustancias orgánicas a bajas presiones e Ideal para la fase vapor. Para la selección de los componentes se consideró el etanol como una mezcla binaria (etanol-agua) [4,5]. De manera general para el diseño de los intercambiadores de calor (IC) en Aspen EDR se siguió el procedimiento siguiente [8]: 1. Definición del problema 1.1. Seleccionar las opciones de aplicación (modo de cálculo, ubicación del fluido caliente, fases de los fluidos, etc.) 1.2 Ingresar las corrientes y datos de operación 2. Propiedades de los fluidos 2.1. Selección de componentes y paquete de propiedades 2.2. Datos de los fluidos 3. Geometría del IC 3.1. Seleccionar la configuración del IC 3.2. Ingresar datos de la geometría de la coraza, tubos y deflectores. 4. Realizar/ evaluar diseño Una vez se genera el diseño, la herramienta EDR permite en el resumen de los resultados, ver los errores, advertencias y otros mensajes como ayuda en el empleo del programa; lo cual facilita la obtención de un diseño adecuado. 3. RESULTADOS Y DISCUSIÓN Diseño de intercambiadores de calor de tubos y coraza En las tablas 2-7 se presentan los resultados del diseño para los seis intercambiadores de calor. En las figuras 2-7 se muestran los diseños obtenidos en la herramienta Aspen EDR. Todos los diseños realizados cumplen con los requerimientos de la caída de presión permisible y el factor de incrustación o obstrucción (Rd) [7]. Intercambiador PE0801. Calentador de Alcohol hidratado Descripción del equipo Tipo de intercambiador: Tubos y coraza, posición horizontal, dos pases por los tubos y uno por la coraza. Tipo TEMA: AEL (Tipo de cabezal: A, Tipo de coraza: E, Tipo de cabezal trasero: L) Material: AISI304 Localización del fluido caliente: Coraza El intercambiador de calor PE0801 está diseñado para realizar el precalentamiento del alcohol hidratado de 30 ºC a 78 ºC con vapor de escape (280 kPa 131,2 ºC) a razón de 37 kg/h. El alcohol etílico hidratado pasa por los tubos mientras que el vapor por la coraza. En la tabla 2 se presenta un resumen de los principales resultados del diseño propuesto. Tabla 2: Resultados del diseño del PE0801 Parámetro Unidad Valor Parámetro Unidad Valor Pitch mm 40 Lado externo (coraza) cont. Diámetro interno mm 213,54 Relación Área: Act/Req - 1,08 Velocidad máx. m/s 0,87 Lado interno (tubos) Dimensiones m 0,214 x 1,2 Relación Área interna- Área externa - 1,12 Espacio entre deflectores mm 140 Diámetro externo mm 32 Diámetro externo mm 219,08 Diámetro interno mm 28,7 Coeficiente pelicular W/m2°K 15 571 Velocidad máx. m/s 0,04 Caída de presión kPa 1,039 Longitud m 1,2 Total Arreglo - 30° Calor transferido kW 22,5 Coeficiente pelicular W/m2°K 200,6 LMTD °C 74,3 Caída de presión kPa 0,469 Coeficiente global W/m2°K 193,7 Lado externo (coraza) Número de deflectores - 7 Número de tubos - 17 Corte del deflector % 40,63 Costo del equipo USD 12 256 Figura 2. Resultados del diseño de PE0801 en Aspen EDR Intercambiador TE0801. Evaporador de alcohol hidratado Descripción del equipo Tipo de intercambiador: Tubos y coraza, vertical, 4 pases por los tubos y dos pases por la coraza Tipo TEMA: AFL Material: AISI304 Localización del fluido caliente: Coraza El intercambiador de calor TE0801 está diseñado para realizar la vaporización del alcohol hidratado hasta vapor saturado utilizando vapor de escape a razón de 223 kg/h. El alcohol hidratado precalentado pasa por los tubos mientras que el vapor de escape por la coraza. En la tabla 3 se presentan un resumen de los principales resultados del diseño. Tabla 3. Resultados del diseño Parámetro Unidad Valor Parámetro Unidad Valor Pitch mm 40 Lado externo (coraza) cont. Diámetro interno mm 266,24 Relación Área: Act/Req - 1,01 Velocidad máx. m/s 4,04 Lado interno (tubos) Dimensiones m 0,266 x 3,0 Relación Área interna- Área externa - 1,12 Espacio entre deflectores mm 530 Diámetro externo mm 32 Diámetro externo mm 273,05 Diámetro interno mm 28,7 Coeficiente pelicular W/m2°K 8 112,1 Velocidad máx. m/s 7,68 Caída de presión kPa 1,073 Longitud m 2,7 Total Arreglo - 30° Calor transferido kW 134,2 Coeficiente pelicular W/m2K 1 141 LMTD °C 23,69 Caída de presión kPa 3,052 Coeficiente global W/m2°K 902,6 Lado externo (coraza) Número de deflectores - 6 Número de tubos - 28 Corte del deflector % 27,18 Costo del Equipo USD 17 362 Figura 3. Resultados del diseño de TE0801 en Aspen EDR Intercambiador TE0802. Sobrecalentador de alcohol hidratado Descripción del equipo Tipo de intercambiador: Tubos y coraza, vertical, 1 pase por los tubos y por la coraza. Tipo TEMA: AEL Material: AISI304 Localización del fluido caliente: Coraza El intercambiador de calor TE0802 está diseñado para realizar el sobrecalentamiento del vapor saturado de alcohol hidratado con vapor de alta presión a razón de 4 kg/h. El alcohol hidratado pasa por los tubos mientras que el vapor de alta presión por la coraza. En la tabla 4 se presenta un resumen de los principales resultados del diseño propuesto. Tabla 4: Resultados del diseño Parámetro Unidad Valor Parámetro Unidad Valor Pitch mm 40 Lado externo (coraza) cont. Relación Área: Act/Req - 2,63 Diámetro interno mm 162,74 Lado interno (tubos) Velocidad máx. m/s 0,04 Relación Área interna- Área externa - 1,21 Dimensiones m 0,163 x 1,2 Espacio entre deflectores Mm 135 Diámetro externo mm 32 Diámetro externo mm 168,28 Diámetro interno mm 28,7 Coeficiente pelicular W/m2°K 21 747 Velocidad máx. m/s 5,54 Caída de presión kPa 0,003 Longitud m 1,2 Total Arreglo - 30° Calor transferido kW 2,2 Coeficiente pelicular W/m2°K 88,3 LMTD °C 66,58 Caída de presión kPa 4,04 Coeficiente global W/m2°K 87,1 Lado externo (coraza) Número de deflectores - 6 Número de tubos - 10 Corte del deflector % 37,71 Costo del equipo USD 9 551 Figura 4. Resultados del diseño de TE0802 en Aspen EDR Intercambiador TE0803. Condensador de Flemas Descripción del equipo Tipo de intercambiador: Tubos y coraza, horizontal, dos pases por los tubos y uno por la coraza. Tipo TEMA: AEL Material: AISI304 Localización del fluido caliente: Coraza El intercambiador de calor TE0803 está diseñado para realizar la condensación mediante el intercambio con agua de enfriamiento de los vapores de alcohol flema obtenidos durante la regeneración de los tamices moleculares. En la tabla 5 se presenta un resumen de los principales resultados del diseño. Tabla 5: Resultados del diseño Parámetro Unidad Valor Parámetro Unidad Valor Pitch mm 40 Lado externo (coraza) cont. Relación Área: Act/Req - 1,0 Diámetro interno mm 213,54 Lado interno (tubos) Velocidad máx. m/s 0,03 Relación Área interna- Área externa - 1,12 Dimensiones m 0,214 x 2,0 Espacio entre deflectores mm 110 Diámetro externo mm 32 Diámetro externo mm 219,08 Diámetro interno mm 28,7 Coeficiente pelicular W/m2°K 608,3 Velocidad máx. m/s 0,01 Caída de presión kPa 0,74 Longitud m 1,8 Total Arreglo - 90° Calor transferido kW 3,1 Coeficiente pelicular W/m2°K 148,2 LMTD °C 10,82 Caída de presión kPa 0,053 Coeficiente global W/m2°K 117,6 Lado externo (coraza) Número de tubos - 16 Número de deflectores - 14 Corte del deflector % 39,53 Costo del Equipo USD 13 402 . Figura 5. Resultados del diseño de TE0803 en Aspen EDR Intercambiador TE0804. Condensador de Alcohol absoluto Tipo de intercambiador: Tubos y coraza, horizontal, un pase por los tubos y por la coraza. Tipo TEMA: AEL Material: AISI304 Localización del fluido caliente: Coraza El intercambiador de calor condensador TE0803 está diseñado para realizar la condensación mediante el intercambio con agua de enfriamiento de los vapores de alcohol absoluto obtenidos del proceso de deshidratación mediante tamices moleculares. En la tabla 6 se presenta un resumen de los resultados del diseño. Tabla 6: Resultados del diseño Parámetro Unidad Valor Parámetro Unidad Valor Pitch mm 40 Lado externo (coraza) cont. Relación Área: Act/Req - 2,3 Diámetro interno mm 213,54 Lado interno (tubos) Velocidad máx. m/s 0,21 Relación Área interna- Área externa - 1,12 Dimensiones m 0,214 x 2,00 Espacio entre deflectores mm 190 Diámetro externo mm 32 Diámetro externo mm 219,08 Diámetro interno mm 28,7 Coeficiente pelicular W/m2°K 2 685,8 Velocidad máx. m/s 4,58 Caída de presión kPa 3,56 Longitud m 2,55 Total Arreglo - 30° Calor transferido kW 129,9 Coeficiente pelicular W/m2°K 3 690,3 LMTD °C 69,38 Caída de presión kPa 2,59 Coeficiente global W/m2°K 1 330,5 Lado externo (coraza) Número de deflectores - 12 Número de tubos - 18 Corte del deflector % 40,63 Costo del Equipo USD 13 992 Figura 6. Resultados del diseño de TE0804 en Aspen EDR Intercambiador PE0804. Enfriador de Alcohol absoluto Tipo de intercambiador: Tubos y coraza, horizontal, dos pases por los tubos y uno por la coraza. Tipo TEMA: AEL Material: AISI304 Localización del fluido caliente: Coraza El intercambiador de calor enfriador PE0804 está diseñado para realizar el enfriamiento mediante el intercambio con agua de enfriamiento del alcohol absoluto proveniente del condensador TE0804. En la tabla 7 se presenta un resumen de los resultados del diseño propuesto. Tabla 7: Resultados del diseño Parámetro Unidad Valor Parámetro Unidad Valor Pitch mm 40 Lado externo (coraza) cont. Relación Área: Act/Req - 1,03 Diámetro interno mm 315,93 Lado interno (tubos) Velocidad máx. m/s 0,05 Relación Área interna- Área externa - 1,12 Dimensiones m 0,314 x 3,0 Espacio entre deflectores mm 275 Diámetro externo mm 32 Diámetro externo mm 323,85 Diámetro interno mm 28,7 Coeficiente pelicular W/m2°K 932,7 Velocidad máx. m/s 0,01 Caída de presión kPa 1,71 Longitud m 2,85 Total Arreglo - 30° Calor transferido kW 16,8 Coeficiente pelicular W/m2°K 86,2 LMTD °C 20,8 Caída de presión kPa 0,34 Coeficiente global W/m2°K 78,2 Lado externo (coraza) Número de deflectores - 8 Número de tubos - 23 Corte del deflector % 37,1 Costo del Equipo USD 17 024 Figura 7. Resultados del diseño de PE0804 en Aspen EDR 3. CONCLUSIONES Se realizó el diseño de seis intercambiadores de calor para el proceso de deshidratación de alcohol con tamices moleculares de una destilería cubana. Para el desarrollo del diseño se empleó el simulador Aspen Hysys, a partir de la herramienta EDR, lo que permitió llegar a resultados sobre el diseño de los equipos de una forma rápida. La herramienta Aspen EDR es una herramienta poderosa para la simulación y diseño de intercambiadores de calor, ya que, con poca información inicial, el programa es capaz de generar resultados altamente detallados. REFERENCIAS 1. NC 792. Alcohol etílico — Requisitos. Oficina Nacional de Normalización (NC). La Habana. Cuba. 2015 2. ACOSTA, L., PÉREZ, O., ZUMALACÁRREGUI, L. "Deshidratación de etanol empleando líquidos iónicos". Universidad, Ciencia y Tecnología (Venezuela), 20 (80):124-133, 2016. 3. ACOSTA, L., PÉREZ, O., ZUMALACÁRREGUI, L. "Deshidratación de etanol empleando líquidos iónicos de naturaleza prótica". Afinidad (España), 74 (579): 202-207, 2017. 4. LAUZURIQUE, Y., ZUMALACÁRREGUI, L., PÉREZ, O., ROJAS, D. "Simulación de la destilación extractiva con sales para la obtención de etanol deshidratado". Revista Mexicana de Ingeniería Química (México). 16 (3): 1055-1066, 2017. 5. LAUZURIQUE, Y., ZUMALACÁRREGUI, L., PÉREZ, O., MOLINA, G. "Evaluación de técnicas de deshidratación de etanol aplicando la simulación". Dyna, 84 (200): 185-192, 2017. 6. SAURA, G., IBÁÑEZ, M., LA GUARDIA, M., GONZÁLEZ, L., HERNÁNDEZ, E., CRUZ, A., PÉREZ, O., LORENZO, M., CASAÑAS A. "Propuesta de sistema de deshidratación de alcohol empleando tamices moleculares. Experiencia cubana". XVI Congreso Internacional de Azúcar y Derivados, La Habana, Cuba, 20-24 junio, 2022, p. 708-711. ISBN: 978-959-7165-68-2. 7. KERN, D. "Procesos de transferencia de calor". Trigésima primera reimpresión, Compañía Editorial Continental, S.A. México: Grupo Patria Cultural; 981 p., 1999. 8. APUNTE, C. "Diseño térmico de un intercambiador de calor crudo carga/diésel para la Refinería Lago Agrio, Bloque 56 de Petroamazonas EP" (Trabajo de titulación, modalidad Propuesta Tecnológica para la obtención del título de Ingeniero Químico) Universidad Central del Ecuador, 2020. 9. SILVA, E. A. "Simulación de intercambiadores de calor, diseño de redes de intercambio calórico y estimación de costos usando Aspen" (Trabajo de titulación para la obtención del título de Ingeniero Civil Químico) Universidad de Magallanaes, 2012 10. ZUMALACÁRREGUI, L., PÉREZ, O., ZUMALACÁRREGUI, B., RODRÍGUEZ, P., LOMBARDI, G. "Potencialidades del bagazo para la obtención de etanol frente a la generación de electricidad". Ingeniería Investigación y Tecnología, XVI (3): 407-418, 2015. 11. HAYDARY J. "Chemical process design and simulation: Aspen Plus and Aspen Hysys applications". First ed. AICE, editor. USA: John Wiley & Sons; 418 p, 2019. SOBRE LOS AUTORES Arletis Cruz Llerena. Graduada de Ingeniería Química en 2016, Máster en Análisis y Control de Procesos en 2020, todos en la Universidad Tecnológica de La Habana “José Antonio Echeverría” (Cujae), Cuba. Aspirante a Investigador de la Dirección de Biotecnología del Instituto Cubano de Investigaciones de los Derivados de la Caña de Azúcar (Icidca). Osney Pérez Ones. Graduado de Ingeniería Química en 1998, Máster en Tecnología de la Industria Azucarera en 2003 y Doctor en Ciencias Técnicas en 2011, todos ellos en la Universidad Tecnológica de La Habana “José Antonio Echeverría” (Cujae), Cuba. Desde 2000 a 2022 ha trabajado en la Cujae. Es Profesor Auxiliar en el Departamento de Ingeniería Química, de la Facultad de Ingeniería Química. Es Vicerrector en la Cujae. Sus investigaciones incluyen líneas de producción de etanol, modelación y simulación y energía en las que trabaja actualmente en varios proyectos. Gustavo Saura Laria. Graduado de Ingeniería Química en 1981 en la Universidad Tecnológica de La Habana “José Antonio Echeverría” (Cujae), Cuba. Investigador Auxiliar de la Dirección de Biotecnología del Instituto Cubano de Investigaciones de los Derivados de la Caña de Azúcar (Icidca). APLICACIÓN DE BALANCES DE MATERIALES Y ENERGÍA MEDIANTE SIMULADORES DE PROCESOS EN LA METODOLOGÍA DE PRODUCCIÓN MÁS LIMPIA APPLICATION OF HEAT AND MATERIAL BALANCE THROUGH PROCESS SIMULATORS IN CLEANER PDODUCTION METHODOLOGY Daylen Yara Font Prieur1*, Lilieth Sánchez Martínez 1, Gabriel Orlando Lobelles Sardiñas2, Yoan Capote Trujillo2 ____________________________________________________________ 1Departamento de Química, Universidad de Cienfuegos “Carlos Rafael Rodríguez”. Cuatro Caminos, km 4 Carretera Rodas. Cienfuegos, Cuba. E-mail: dyara@ucf.edu.cu 2 Refinería Cienfuegos S.A. Finca Carolina, km 3 ½. Código Postal- 55400. Cienfuegos, Cuba. ___________________________________________________________________ RESUMEN La metodología de Producción Más Limpia es una estrategia de gestión empresarial preventiva, aplicada a productos, procesos y organización del trabajo, cuyo objetivo es minimizar emisiones tóxicas y residuos, reduciendo así los riesgos para la salud humana y ambiental, y elevando simultáneamente la competitividad. Sin embargo, la efectividad de dicha metodología se ve afectada por la poca precisión de los balances materiales que se utilizan para su implementación. En tal sentido, es objetivo del presente estudio desarrollar balances de energía y materiales mediante la utilización de simuladores de proceso para lograr una mayor precisión en los mismos. Se seleccionó le proceso y el simulador de proceso para desarrollar dicho balance. Se obtuvo el modelo de simulación y se seleccionó el paquete termodinámico. Para la validación del mismo se corrió el simulador logrando realizar el balance de materiales requerido y con la mayor precisión. Se realizan las pruebas de sensibilidad del modelo. Como resultado relevante se alcanza una mayor exactitud en el control de las principales variables operacionales del proceso, lo que permitió lograr la recuperación de 1 368 553 m3/año de agua con un costo de 2 121 257 dólares. A razón de 1,55 dólar/m3. Se recuperaron 23 071 t/año de H2S, que alimentadas a la unidad recuperadora de azufre permitirá la producción de 22 840 t/año de azufre elemental, que comercializado a 107 dólares/tonelada, significa un ingreso de 2 443 880 dólares. Se recuperan 10 910 toneladas/año de NH3, para la venta a la industria química para la producción de fertilizantes. PALABRAS CLAVES: balance de materiales; simuladores de proceso; producción más limpia. ABSTRACT The Cleaner Production methodology is a preventive business management strategy, applied to products, processes and work organization, whose objective is to minimize toxic emissions and waste, thus reducing risks to human and environmental health, and simultaneously increasing competitiveness. However, the effectiveness of said methodology is affected by the inaccuracy of the material balances used for its implementation. In this sense, the objective of this study is to develop energy and material balances through the use of process simulators to achieve greater precision in them. The process and the process simulator were selected to develop said balance. The simulation model was obtained and the thermodynamic package was selected. For its validation, the simulator was run, achieving the required balance of materials and with the greatest precision. Sensitivity tests of the model are performed. As a relevant result, greater accuracy is achieved in the control of the main operational variables of the process, which allowed the recovery of 1,368,553 m3/year of water at a cost of 2,121,257 dollars. At a rate of 1.55 dollars/m3. 23,071 t/year of H2S were recovered, which fed to the sulfur recovery unit will allow the production of 22,840 t/year of elemental sulfur, which, marketed at 107 dollars/ton, means an income of 2,443,880 dollars. 10,910 tons/year of NH3 are recovered for sale to the chemical industry for the production of fertilizers. KEY WORDS: material balance; process simulators; cleaner production. 1. INTRODUCCIÓN Es conocido que el 25 % de las reservas de agua dulce se consume en procesos industriales, cuyos residuales contaminan severamente las fuentes de abasto [1]. El aumento en la contaminación ambiental, la extinción de algunas especies animales y vegetales, son algunos ejemplos de los efectos perjudiciales causados por dicha industria [2]. Para contrarrestar esos impactos se han desarrollado nuevas tecnologías que descontaminan los residuales, partiendo de factores fundamentales como la factibilidad de la reutilización [3], la economía y la eficiencia de los procesos [4]. Sin embargo, en los últimos años, la efectividad de esos procesos se ha visto seriamente limitada debido a restricciones ambientales cada vez más severas [5], [6]. En tal sentido, la Refinería Cienfuegos S.A trabaja con parámetros de calidad reconocidos según las normas internacionales y con un tratamiento primario de sus residuales, con el objetivo de minimizar los costos de producción y mitigar los impactos medioambientales. Entonces, en el caso particular de la unidad recuperadora de H2S y NH3 (Unidad 121), caso de estudio, es necesario destacar que, para el diseño de dicha unidad, cuyo objeto social estaba definido, se tomaron en cuenta básicamente, las características de los crudos a procesar en el futuro, con vista a garantizar materia prima para la industria petroquímica. No obstante, hoy día esa perspectiva ha cambiado, por cuanto se requiere realizar la rehabilitación de dicha unidad, pero ahora como un proceso auxiliar, básicamente con fines medioambientales. Entonces, se impone la perspectiva de las producciones más limpias como su razón de ser. Por tanto, atendiendo a los requerimientos actuales, y las normas de emisiones antes mencionadas; se hace necesario lograr una total rehabilitación de la misma. Partiendo en primer lugar, de un preciso balance de materiales y energía para poder establecer mayor control sobre los parámetros operacionales de la unidad; toda vez que, sobre el diseño de los equipos ya no es posible actuar y un rediseño resulta en extremo costoso. Entonces, se precisa del uso de programas de cómputo para lograr la mayor exactitud en dichos balances. De ellos dependerá en gran medida el control de las principales variables operacionales y, consigo, la eficiencia de su proceso. Cada día es más común que las empresas inviertan grandes cantidades de dinero en la adquisición de programas de cómputo para el dimensionamiento de equipos y plantas de proceso. Si bien, en algunos casos se utilizan herramientas de cálculo como Excel, o el de un programa específico como PRO II o Chemcad, éstos solo son calculados en algunos casos sin la experiencia adecuada para llegar propiamente a la especificación de diseño. Todavía, se siguen utilizando tablas y gráficas para especificar los cálculos de manera artesanal y se realiza mucho trabajo a mano. Bajo estas condiciones fue diseñado el proceso objeto de estudio. Pero también, por la necesidad de integrar procesos contiguos de un complejo industrial, desde el enfoque de las Producciones Más Limpias [7], con el objetivo de propiciar algún valor agregado a diferentes residuales y a su vez que puedan utilizarse como materia prima de otros procesos. Para dar solución a la problemática presentada, es objetivo del presente estudio: Aplicar balances de materiales y energía mediante simuladores de procesos en la metodología P+L para la recuperación de H2S y NH3. 2. MATERIALES Y MÉTODOS Para la presente investigación se seleccionó el simulador de procesos ProMax® 2.0; [8] y fue necesario señalar el modelo termodinámico por el cual serán calculadas las propiedades de cada corriente. Visto así, se selecciona el paquete termodinámico Electrolytic ELR-PR, el mismo puede aplicarse en simulaciones de torres despojadoras, hidrotratadoras, unidades de crudo o cualquier proceso que contenga hidrocarburos, gases ácidos y agua [9]. Después de elegirla termodinámica del proceso, mediante la opción “Components”, se añaden los componentes presentes en el caso de estudio: H2O, H2S, NH3, CO2. Se confeccionó un diagrama de flujo de información (DFI), que consta con varios módulos, dos columnas de destilación de 38 platos, que además de su alimentación requiere de la instalación de un rehervidor y la extracción de una corriente de tipo flujo circulante por el plato 34 que retorna en el plato 38. Para calcular este módulo se consideraron, además, la especificación de capacidad de intercambio del rehervidor igual a 8 500 000 kcal/h, el flujo de la corriente de recirculación (168 474 kg/h) y la temperatura de retorno de esa corriente (55 ºC). A este módulo entrará por el plato 33 la alimentación de agua agria definidas en la tabla 1 y se espera que las salidas sean agua despojada y vapor despojado. Para la validación del modelo se simuló el proceso de la torre recuperadora a las condiciones de diseño y se compararon los resultados obtenidos, estimándose el error que se comete al estudiar el sistema con el modelo simulado. Como criterio de comparación se tomó el error relativo: Tabla 1. Variables definidas de entrada a las torres recuperadoras. Corrientes 1A 1B 1C 1D 1E 1F Descripción de la corriente Agua Agria Agua Agria Agua Agria Agua Agria Agua Agria Agua Agria Fase Líquido Líquido Líquido Líquido Líquido Líquido Flujo molar total (kmol/h) 2889 46 1148 1902 384 2607 Flujo másico total (kg/h) 52 104 837 20 832 34 623 7000 47 527 Temperatura (oC) 45 40 50 52 50 48 Presión (kg/cm2) 5,5 5,5 5,5 5,5 5,5 5,5 Peso molecular 18,0 18,2 18,1 18,2 18,2 18,2 Entalphía (kcal/kg) -3762,1 -3667,9 -3688,4 -3652,3 -3654,9 -3643,9 Flujo másico total por componentes (kg/h) H2O 51 992,9 808,0 20 314,0 33 380,0 6 755, 0 45 625,8 H2S 111,0 19,0 345,1 828,9 175,0 1267,5 NH3 -- 10,0 172, 9 414,1 70,0 633,7 Para medir la sensibilidad del modelo de simulación se hacen corridas manipulando una variable dentro de los rangos de operación. Las demás variables se mantienen estables para poder observar cuales son los mejores resultados. Para cada caso se presentan los resultados gráficos involucrando la variable composición de NH3 y H2S, tanto, en el vapor despojado como en el agua despojada, teniendo en cuenta que son los que provocan la mayor contaminación. Estos contaminantes deben ser controlados con mayor rigurosidad debido a que después de ser despojados se envían a la unidad de recuperación de azufre, donde el sulfuro de hidrógeno en presencia de oxígeno se convierte en azufre elemental mientras el amoníaco es totalmente destruido, por acción de las altas temperaturas en el reactor de oxidación térmico para evitar que se formen sales de amonio [10], [11], [12]. 3. RESULTADOS Y DISCUSIÓN Implementación y validación del modelo de simulación en ProMax® 2.0 La implementación y validación del modelo de simulación se realiza según la metodología explicada anteriormente y los resultados se muestran y en las tablas 2 y 3 con una comparación entre los resultados que se obtienen con el modelo de simulación y los parámetros de diseño y operación, así como en la figura 1. Tabla 2. Análisis comparativo para los flujos de gas de salida en las torres recuperadoras. Corriente Vapor despojado Componentes Diseño (kg/h) Simulación (kg/h) % Error H2O 3765,20 3655,303 2,92 H2S 2746,9 2746,597 0,011 NH3 1300,8 1298,9 0,023 Total (kg/h) 7812,9 7702,401 1,41 Tabla 3. Análisis comparativo para los flujos de líquido de entrada y salida en las torres recuperadoras. Corriente Agua Agria Agua Agria Componentes Diseño (kg/h) Simulación (kg/h) % Error Diseño (kg/h) Simulación (kg/h) % Error H2O 158878,3 158875,7 0,002 155224,197 155220,397 0,003 H2S 2746,9 2746,6 0,01 0,002 0,002 0 NH3 1300,8 1300,7 0,007 0,19 0,2 5,26 Total (kg/h) 162926 162923 0,001 155224,389 155220,599 0,024 Después de utilizar el criterio de error como criterio de comparación entre los datos de diseño y los datos obtenidos por el software, se puede concluir que ningún % sobrepasa el 10 % permisible, lo que indica que los valores mostrados por la simulación se acercan a la realidad. Teniendo en cuenta estos elementos, se considera que el modelo se ajusta a los parámetros de este tipo de proceso. Figura 1. Modelo de simulación de las torres recuperadoras Resultados del análisis de sensibilidad Las figuras 2 y 3 muestran primero, que la presencia de los compuestos sulfuro de hidrógeno y amoníaco, en la composición del agua despojada disminuye a medida que aumenta la temperatura de alimentación a la torre, comportamiento lógico porque ocurre mayor despojamiento de dichos compuestos. En el segundo caso, la presencia de los compuestos sulfuro de hidrógeno y amoníaco, en la composición del vapor despojado, aumenta en la misma medida que aumenta el valor de la capacidad de intercambio del rehervidor, por consiguiente, se logra un mayor despojamiento de ambos compuestos, al mismo tiempo que aumenta el reflujo circulante, quien regula la temperatura en el tope de la torre. Resultados del balance de materiales en las tablas 4.1 a la 4.5 Tabla 4.1 Balance de materiales y propiedades de las corrientes de alimentación Tabla 4.2 Balance de materiales y propiedades de las corrientes intermedias Corrientes Intermedias Unidad 1 2 3 4 5 9 Tasa molar total kmol/h 8976 8976 8976 8976 8976 222 Tasa másica total kg/h 162923 162923 162923 162923 162923 5225 Temperatura ºC 48 48 40 40 84 93 Presión kgf/cm2 5,50 2,72 3,07 6,13 2,41 2,36 Peso molecular 18,2 18,2 18,2 18,2 18,2 23,5 Entalphía kcal/kg -3689,8 -3689,8 -3697,6 -3697,5 -3654,4 -939,5 Densidad kg/m3 989,9 989,9 993,3 993,2 969,9 Composición másica total H2O kg/h 158875,7 158875,7 158875,7 158875,7 158875,7 2476,803 H2S kg/h 2746,6 2746,6 2746,6 2746,6 2746,6 2746,597 NH3 kg/h 1300,7 1300,7 1300,7 1300,7 1300,7 1,6 Tabla 4.3 Balance de materiales y propiedades de las corrientes intermedias. Cont…. Corrientes Intermedias Unidad 13 14 18 25 26 Tasa molar total kmol/h 8754 8754 105,24 8623 8623 Tasa másica total kg/h 157698 157698 2477,401 155220,599 155220,599 Temperatura ºC 130 86 37 86 45 Presión kgf/cm2 2,72 2,41 1,00 8,68 7,00 Peso molecular 18,0 18,0 23,5 18,0 18,0 Entalphía kcal/kg -3683,8 -3728,1 -939,5 -3683,8 -3728,1 Densidad kg/m3 964,7 969,9 967,7 990,2 Composición másica total H2O kg/h 156398,897 156398,897 1178,5 155220,397 155220,397 H2S kg/h 0,003 0,003 0,001 0,002 0,002 NH3 kg/h 1299,1 1299,1 1298,9 0,2 0,2 Corriente de Alimentación Unidad 1A 1B 1C 1D 1E 1F Tasa molar total kmol/h 2889 46 1148 1902 384 2607 Tasa másica total kg/h 52104 837 20832 34623 7000 47527 Temperatura ºC 45 40 50 52 50 48 Presión kgf/cm2 5,50 5,50 5,50 5,50 5,50 5,50 Peso molecular 18,0 18,2 18,1 18,2 18,2 18,2 Entalphía kcal/kg -3762,1 -3667,9 -3688,4 -3652,3 -3654,9 -3643,9 Densidad kg/m3 990,2 993,7 989,1 988,7 989,6 9921,0 Composición másica total H2O kg/h 51992,9 808,0 20314,0 33380,0 6755,0 45625,8 H2S kg/h 111,1 19,0 345,1 828,9 175,0 1267,5 NH3 kg/h 10,0 172,9 414,1 70,0 633,7 Tabla 4.4 Balance de materiales y propiedades corrientes de recirculación Corriente de Recirculación Unidad 6 y 15 Extracción 8 y 20 Retorno PTR Tasa molar total kmol/h 9230 9230 862 Tasa másica total kg/h 168474 168474 15522,0 Temperatura ºC 101 55 45 Presión kgf/cm2 2,38 2,36 7,00 Peso molecular 18,3 18,3 18,0 Entalphía kcal/kg -3436,8 -3481,2 -3728,1 Densidad kg/m3 944,2 970,4 990,2 Composición másica total H2O kg/h 152198,3 152198,3 15522,0 H2S kg/h 5921,8 5921,8 0,002 NH3 kg/h 10353,9 10353,9 0,2 Tabla 4.5 Balance de materiales y propiedades corrientes de productos Corriente de Alimentación Unidad 26A 26B 26C 26D 26E 26F Tasa molar total kmol/h 2505 42 958 1659 343 2255 Tasa másica total kg/h 45093 723 17248 29860 6180 40594 Temperatura ºC 45 45 45 45 45 45 Presión kgf/cm2 7,00 7,00 7,00 7,00 7,00 7,00 Peso molecular 18,0 18,0 18,0 18,0 18,0 18,0 Entalphía kcal/kg -3728,1 -3728,1 -3728,1 -3728,1 -3728,1 -3728,1 Densidad kg/m3 990,2 990,2 990,2 990,2 990,2 990,2 Composición másica total H2O kg/h 45092,7 722,7 17247,7 29859,7 6179,7 40593,7 H2S kg/h 0,002 0,002 0,002 0,002 0,002 0,002 NH3 kg/h 0,2 0,2 0,2 0,2 0,2 0,2 4. CONCLUSIONES Los fundamentos teóricos de la investigación permitieron conocer las diferentes apreciaciones de la metodología de Producción Más Limpia, en las cuales se resalta la elaboración de los balances de materiales, en consecuencia, la simulación del proceso en el presente estudio permitió que: 1. Se obtuvo el modelo de simulación para el caso de estudio y se validó su implementación pues ninguno de los parámetros evaluados sobrepasó el 10% del error relativo establecido. Se realizaron los análisis de sensibilidad pertinentes para comprobar las variaciones del proceso y finalmente se desarrolló el balance de materiales y energía de la unidad objeto de estudio. 2. El balance de materiales y energía desarrollado mediante la simulación del proceso estudiado, permitió la aplicación eficiente de la metodología de Producción Más Limpia y en consecuencia se logra recuperar el 95,27% del agua despojada, lo que significa un ahorro de 1 368 553 m3/año con un costo de 2 121 257 dólares. Se recuperaron 23 071 t/año de H2S como materia prima para la unidad recuperadora de azufre. Se recuperan 10 910 toneladas/año de NH3 para la producción de fertilizantes. REFERENCIAS 1. LOBELLES-SARDIÑAS, G.O., DÉBORA-MIRA, L., SABINA-DELGADO, A. Evaluación integral de una torre despojadora para recuperar aguas sulfurosas en la Refinería de Cienfuegos. Tecnología Química. Vol.41, No.1, 2021, pp.123-140. ISSN:2224-6185. https://tecnologiaquimica.uo.edu.cu/index.php/tq/issue/view/323 2. MEIRA-CARTEA, P.A., ANDRADE-TORALES, M. Educación para una Cultura de la Sostenibilidad: eco-ciudadanía, políticas públicas y participación social. Pedagogía social: revista interuniversitaria. PSRI. Nº. 36, 2020, pp. 13-17. ISSN-e 1989-9742. DOI: 10.7179/PSRI_2020.36.01. https://recyt.fecyt.es/index.php/PSRI/issue/view/3960 3. LOBELLES-SARDIÑAS, G.O., LÓPEZ-BASTIDA, E., CORTÉS-MARTÍNEZ, R., PEDRAZA- GARCIGA, J. Economía ecológica y gestión tecnológica integral de aguas sulfurosas en la refinería de Cienfuegos para minimizar emisiones. Tecnología Química. Vol.39, No.1, 2019, pp.22-43. ISSN:2224-6185. https://tecnologiaquimica.uo.edu.cu/index.php/tq/issue/view/302 4. PLIEGO-RODRÍGUEZ, G. Intensificación del proceso Fenton para el tratamiento de aguas residuales industriales. 2012. Tesis doctoral. Universidad Autónoma de Madrid. https://repositorio.uam.es › bitstream › handle › 478.pdf. 5. NC-521:2007. Vertimiento de aguas residuales a la zona costera y aguas marinas- Especificaciones. Ciudad Habana, Cuba: ONN. Oficina Nacional de Normalización. Web: www.nc.cubaindustria.cu. 6. NC-27:2012. Vertimiento de aguas residuales a las aguas terrestres y alcantarillado- Especificaciones. In. Ciudad Habana. Cuba: ONN. Oficina Nacional de Normalización. Web: www.nc.cubaindustria.cu 7. OCHOA, George. Las Producciones Más Limpias en la gestión empresarial. Editorial Félix Varela. 2008. Pp: 15-24. ISBN: 978-959-07-0940-1 https://isbn.cloud/9789590709258/las-producciones-mas-limpias-en-la-gestion- empresarial/ 8. BR&E ProMax® with TSWEET® Process Simulation Software. 2015. Disponible en https://www.bre.com/ProMax-Main.aspx. 9. ÁLVAREZ, H. C. Optimización de la Unidad Despojadora de Aguas Agrias (T-2590) de la Gerencia Complejo Barrancabermeja mediante la aplicación de herramienta de simulación. 2007. Tesis de Grado, Santander; Colombia. https://docplayer.es/24990935-Helver-crispiniano-alvarez-castro.html 10. SASSI, M. & GUPTA, A. K. Sulfur Recovery from Acid Gas Using the Claus Process and High Temperature Air Combustion (HiTAC) Technology. American Journal of Environmental Sciences, 2008, 4(5), 502-511. ISSN 1553-345X https://thescipub.com/pdf/ajessp.2008.502.511.pdf 11. ABEDINI R, KOOLIVAND M and GHASEMIAN S. Modeling and simulation of condensed sulfur in catalytic beds of Claus process: rapid estimation. Chemical Engineering Research Bulletin, 14, 2010, pp.110-114. DOI:10.3329/cerb.v14i2.5595 https://www.banglajol.info › CERB › article › view pdf 12. HAMID.R.M, KEYVAN. K, RESA. H & HOOMAN. J. Effect of reaction furnace and converter temperatures on performance of SRUs. Journal of Petroleum Science Research (JPSR), 2012. 1, Issue 1, pp. 1-3. https://www.destechpub.com/wp-content/uploads/2019/01/JPSR-Volume-1-Issue-1-April- 2012.pdf?x45684 SOBRE LOS AUTORES Daylen Yara Font Prieur, Ingeniera Química, Profesor Instructor de la Universidad de Cienfuegos “Carlos Rafael Rodríguez”, Departamento de Química. Lilieth Sánchez Martínez, Ingeniera Química, Técnico de Adiestramiento en la Empresa de Servicio a Trabajadores de Cienfuegos. Gabriel Orlando Lobelles Sardiñas, Dr. C, Profesor Titular, Departamento de Investigación, Desarrollo e Innovación en Refinería Cienfuegos S.A . Yoan Capote Trujillo, Ingeniero Químico, Refinería Cienfuegos S.A. EL CAMPO MAGNÉTICO, DUREZA TOTAL, CALOR ESPECÍFICO Y PUNTO DE EBULLICIÓN DEL AGUA Nuria de los Ángeles Vaillant López1, Gabriela Carreras Fernández2, Guillermo Ribeaux Kindelán3 1 Centro de Investigaciones Hidráulicas (CIH), Calle 114 #11901 e/Ciclovía y Rotonda, Marianao, La Habana, Cuba, nuriavl@civil.cujae.edu.cu 2 Centro de Investigaciones Hidráulicas (CIH), Calle 114 #11901 e/Ciclovía y Rotonda, Marianao, La Habana, Cuba; gabycarrerasf.98@nauta.com 3Centro de Electromagnetismo Aplicado (CNEA) Universidad de Oriente, Santiago de Cuba, Cuba. ribeaux@uo.edu.cu RESUMEN Con el objetivo de estudiar el efecto del tratamiento magnético (TM) en la dureza total (DT), punto de ebullición (PE) y capacidad de conservación de calor (CC) del agua de la fuente de abasto ¨Cosculluela¨, en el municipio Boyeros, La Habana, las muestras fueron sometidas a un campo magnético (CM) generado por imanes permanentes, para tres valores de intensidad de CM y tres tiempos de exposición. Para estas condiciones experimentales, se obtuvieron variaciones en la DT, el PE y la CC de las muestras de agua con TM. PALABRAS CLAVES: Tratamiento magnético, dureza total, punto de ebullición, conservación de calor, memoria magnética. THE MAGNETIC FIELD, TOTAL HARDNESS, SPECIFIC HEAT AND BOILING POINT OF WATER ABSTRACT With the objective of studying the effect of the magnetic treatment (MT) on the total hardness (TH), boiling point (BP) and heat conservation capacity (CC) of the water from the ¨Cosculluela¨ supply source, in the municipality Boyeros, Havana, the samples were subjected to a magnetic field (MF) generated by permanent magnets, for three MF intensity values and three exposure times. For these experimental conditions, variations in the TH, PE and CC of the water samples with MF were obtained. KEY WORDS: Magnetic treatment, total hardness, boiling point, heat conservation, magnetic memory. 1. INTRODUCCIÓN El creciente déficit y el continuo incremento de la demanda de agua en los últimos años, ha propiciado la búsqueda de nuevas y factibles tecnologías para el ahorro y reúso de las aguas. Teniendo en cuenta que la mayoría de los tratamientos para la potabilización se realizan con productos químicos no degradables, caros y cuyos lodos contaminan el medio ambiente, se hace impostergable el uso de tecnologías limpias y económicas, como el tratamiento magnético (TM). A pesar de los años transcurridos de las primeras instalaciones de acondicionadores magnéticos para reducir incrustaciones en tuberías y calderas, el tema no ha perdido actualidad, aunque muchas veces se le atribuyen al agua que ha sido tratada magnéticamente propiedades mágicas, y abunda el uso de terminología pseudocientífica. De forma general, no existen dudas de la efectividad del TM, pero si coexisten discrepancias en la explicación del fenómeno que se observa, existiendo incógnitas en la explicación teórica de la influencia del campo magnético (CM) sobre las propiedades de los sistemas acuosos. Este asunto se complejiza si tiene en cuenta la influencia de parámetros externos como la temperatura, el material de las tuberías y el amplio rango posible de frecuencias, intensidad, tiempo de exposición y velocidad del fluido, entre otros. Las teorías que explican el efecto de las aplicaciones magnéticas sobre los sistemas acuosos no ha sido íntegramente esclarecida por los investigadores que trabajan el tema. Muchos artículos describen diferentes tipos de mecanismos de acción del campo magnético, y varios de ellos, llegan a conclusiones que entran en conflicto entre sí. En las aguas cubanas, específicamente en La Habana, no se conocen estudios de la influencia del TM en las propiedades físico - químicas de las mismas. Estos estudios favorecerían el esclarecimiento de algunas de las teorías existentes y su posible aplicación en centros e industrias habaneras y localidades con aguas de características similares. La provincia La Habana, cuenta con un potencial de recursos hídricos propios evaluados en 430 hm3, de los cuales 323 hm3 son aprovechables. El abasto de agua a la capital del país se efectúa a través de 68 fuentes, de las cuales 67 son subterráneas y sólo una superficial. De las 67 fuentes subterráneas, 55 son de agua potable, mientras que 12 son de agua salobre que sirven a la zona costera del Este de la ciudad. En la Tabla I se muestran las principales fuentes de abasto de La Habana. Tabla I. Principales fuentes de abasto de La Habana. (1) 2. MATERIALES Y MÉTODOS Tratamiento magnético Los acondicionadores magnéticos se ubican en los sistemas de manera que el fluido circule a través del campo magnético, en el que interactúan las líneas de inducción magnética directamente con el fluido, según muestra la figura 1. Para garantizar un tratamiento eficiente deben cumplirse varios requerimientos, de los cuales, los más importantes son: lograr la perpendicularidad de líneas de inducción magnética 𝐵⃗ con respecto al movimiento del fluido y la permanencia o el tiempo de exposición del fluido al CM. Figura 1. Tratamiento magnético del agua. Fuente:(2) Los diferentes enfoques para la aplicación del tratamiento magnético tienen efectos significativamente diferentes en el rendimiento de cada sistema. El uso de imanes permanentes normalmente crea un campo magnético uniforme. Sin embargo, el campo se puede variar cambiando la orientación y disposición de los imanes. Diferentes formas (y geometría) de imanes permanentes también pueden exhibir diferentes valores de intensidad de campos magnéticos. Cuando el agua circula por el campo magnético creado por los acondicionadores magnéticos, sobre los iones de las sales que están disueltos en el agua, inciden las líneas del campo magnético, surgiendo fuerzas que los mueven de su posición de equilibrio y, se dice, que el agua modifica algunas propiedades físico - químicas. (3) Actualmente, el campo magnético no solo se aplica al agua con el único objetivo de prevenir, retardar o eliminar la formación de depósitos o incrustaciones, sino que también se han obtenido resultados interesantes con el agua tratada magnéticamente para inactivar microorganismos patógenos, (4, 5) mejorar el tratamiento biológico del agua, (6) degradar sustancias orgánicas o remover sustancias inorgánicas (7). También se estudia con éxito sus efectos en la salud humana y de los animales. (8) De manera general, esta tecnología resulta ser de gran relevancia pues además de todas las ventajas mencionadas anteriormente, promueve el ahorro de reactivos químicos, potenciando la coagulación, (9) remueve metales pesados (11,12, 13) y su aplicación no produce cambios químicos en el agua, ni altera su sabor ni su olor. Esquema general de investigación Las muestras de agua fueron expuestas a tres tiempos de exposición y a tres intensidades de CM generadas por dos pares de imanes permanentes. Se analizó el comportamiento de la dureza total (DT), el punto de ebullición (PE) y la capacidad de conservación de calor (CC) en las muestras, antes del TM y después del mismo, en los periodos de 0 h, 48 h y 72 h para estudiar también el fenómeno de la memoria magnética. Sistema experimental El sistema experimental del presente estudio estuvo conformado por una bomba peristáltica (Thermo Fisher Scientific, FH 100) para generar el flujo del fluido; una tubería de silicona de 2,85 m de longitud y 0,7 cm de diámetro interior, dos vasos de precipitado con capacidad de 1 000 mL cada uno y dos pares de imanes permanentes (acondicionadores magnéticos) con polos norte y sur, ubicados uno frete al otro para generar un campo magnético homogéneo. El tamaño de cada uno de los imanes es de 5 cm x 3 cm x 0,1 cm (largo, ancho y alto) y la separación entre cada par fue de 6,5 cm orientados en repulsión como se muestra en la figura 2. Los acondicionadores magnéticos pertenecen a la marca NOVAMAG diseñados y construidos por el CNEA, son dispositivos constituidos a base de imanes de tierras raras, hechos de una aleación de neodimio (Nd2), hierro (Fe14) y boro (B), y fueron acreditados en los laboratorios de caracterizaciones magnéticas del CNEA. Figura 2: Sistema experimental para el tratamiento magnético Las muestras de agua fueron tomadas del grifo, abastecido por la fuente ¨Cosculluela¨, y llevadas a analizar a los laboratorios de calidad del agua de la empresa Aguas de La Habana. Se eligieron tres mediciones de parámetros para estudiar el efecto del TM al agua: dureza total, punto de ebullición y temperatura (capacidad de conservación del calor luego de haber alcanzado el punto de ebullición). Procedimiento experimental Para el estudio se tomaron cuatro muestras de 1 000 mL de agua, la primera sin TM (STM), las otras tres muestras fueron impulsadas por la bomba peristáltica con una velocidad de rotación constante de 35 rpm. Cada una de las muestras se analizó para un valor de intensidad de CM diferente según se muestra en la tabla 2 y los valores fueron medidos con un Gaussímetro de efecto Hall de la marca LakeShore (modelo 41). Tabla 2: Parámetros de intensidad utilizados y su nomenclatura Separación entre caras polares (cm) Intensidad (Gauss) Nomenclatura 1,2 3250 TMA 1.8 2678 TMB 2.5 2170 TMC En las figuras 3, 4 y 5, se pueden observar los mapas de las escalas de valores de inducción de campo magnético en la zona de trabajo para las distancias de 1,2 cm, 1,8 cm y 2,5 cm respectivamente entre las caras polares, obtenidos mediante simulación haciendo uso del software profesional COMSOL Multiphysics 3.2. Cabe destacar que independientemente de que la simulación del software es más precisa, los valores de intensidad de campo magnético medido manualmente con el gaussímetro y declarado en los experimentos, están dentro del rango de valores de inducción de campo magnético en la zona de trabajo obtenidos por el software. (tabla 3) Figura 3: Mapa de escala de valores de inducción de campo magnético en la zona de trabajo para una distancia entre polos de 1,2 cm. Figura 4: Mapa de escala de valores de inducción de campo magnético en la zona de trabajo para una distancia entre polos de 1,8 cm. Figura 5: Mapa de escala de valores de inducción de campo magnético en la zona de trabajo para una distancia entre polos de 2,5 cm. El fluido pasa por el sistema a una velocidad de circulación constante promedio de 0,073 m/s. Para cada valor de intensidad se analizó el comportamiento de la DT, PE y temperatura para tres tiempos de exposición al CM diferentes: 1,37 seg (1-TMA, 1-TMB, 1-TMC), 2,74 seg (2-TMA, 2-TMB, 2-TMC) y 4,11 seg (3-TMA, 3-TMB, 3-TMC) (tabla 4). La temperatura de las muestras no fue controlada por lo que se mantuvo igual a la temperatura ambiente del medio (22 ± 1 °C). Tabla 3: Valores promedios de inducción de campo magnético medio, mínimo y máximo en la zona de trabajo. Tabla 4: Condiciones experimentales y parámetros de estudio. Tratamiento magnético con imanes permanentes Intensidad de campo (Gauss) STM 2 170 2 678 3 250 Tiempo de exposición (seg) STM 1,09 2,18 3,27 1,09 2,18 3,27 1,09 2,18 3,27 La investigación se llevó a cabo en tres etapas, repetidas 3 veces cada una: Primera etapa: análisis de las propiedades a estudiar de la muestra sin exposición magnética. Segunda etapa: aplicación del campo magnético a intensidades y tiempos de exposición diferentes a las muestras restantes y análisis de la dureza total, punto de ebullición y temperatura luego de su exposición al campo magnético. Tercera etapa: estudio de la memoria magnética en las muestras con tratamiento magnético, luego de haber transcurrido 48 h y 72 h de su exposición al campo magnético. Análisis de las muestras Se determina dureza total por el método volumétrico (Standard Methods for the examination of water and wasterwater (1999)). Se utilizó una bureta automática (Duran Germany) de 25 mL con una precisión de ± 0,03 mL, una pipeta aforada de bulbo central de 25 mL y un erlenmeyer de 250 mL. (figura 6). Figura 6: Diseño experimental para determinar dureza Para la determinación del punto de ebullición de las muestras se utilizó una plancha de inducción (IKA C- MAG HS 10), termómetro con rango de medición de 0 °C – 200 °C y con una precisión de ± 1 °C, un vaso de precipitado con capacidad de 100 mL y soporte universal. (figura 7) Figura 7: Diseño experimental para determinar punto de ebullición. Para el análisis del comportamiento de la temperatura o capacidad de conservación de calor de las muestras luego de haber alcanzado el punto de ebullición se llevó a cabo un estudio de la variación de la temperatura en el tiempo, para ello se empleó un termómetro con rango de medición de 0 °C – 200 °C y con una precisión de ± 1 °C, y un cronómetro. 3. RESULTADOS Y DISCUSIÓN Efecto del tratamiento magnético en la dureza del agua En la Figura 8 se muestran los resultados obtenidos durante la prueba de dureza total para todas las muestras analizadas. Se puede observar una disminución de la misma con el aumento de la intensidad del campo magnético, resultando ser la segunda (2 678 Gauss) y la tercera (3 250 Gauss) intensidad donde se mantienen los valores de dureza. Estos resultados se corresponden con los obtenidos por Ronald (2018) quien demostró que existe una reducción de los valores de dureza total del agua, después de ser expuesta a un campo magnético de 1 200 Gauss y una velocidad de flujo de 40 L/min. Figura 8: Comportamiento de la dureza total en las muestras analizadas. Varios estudios han encontrado reducciones significativas en el grado de dureza del agua, aunque no de manera directa, sino que plantean la existencia de una disminución considerable en la concentración de carbonato de calcio disuelto y un aumento en el grado de precipitación del mismo. Esta reducción resulta de gran interés, pues las incrustaciones provocadas por el grado de dureza total presente en las aguas resultan el principal problema que aqueja a la mayoría de las entidades en Cuba, fundamentalmente en el sector industrial ya que las aguas subterráneas cubanas presentan un alto contenido de sales, principalmente carbonato de calcio, responsable de la dureza carbonatada, que al alcanzar altas temperaturas propicia la formación de dichas incrustaciones. Efecto del tratamiento magnético en el punto de ebullición del agua Varios estudios muestran resultados sobre un posible cambio en el punto de ebullición del agua bajo tratamiento magnético. En la Figura 9 se muestran los valores obtenidos durante el análisis de las diferentes muestras; como puede observarse existe una disminución aparente del punto de ebullición. La muestra sin tratamiento magnético lo alcanzó para una temperatura de 100 °C, mientras que las muestras con tratamiento magnético con intensidades de campo de 2 170 Gauss, 2 678 Gauss y 3 250 Gauss lo alcanzaron a una temperatura de 99 °C, 98 °C y 98 °C respectivamente, resultando las dos últimas intensidades de campo magnético las óptimas de las que se analizaron durante este estudio. Figura 9: Punto de ebullición para las muestras analizadas. Por otra parte, no se registró una influencia directa de los diferentes tiempos de exposición analizados en la variación de los resultados obtenidos. Este efecto resulta de gran interés, pues una disminución de este tipo podría representar un ahorro de energía considerable para el país en los sectores donde se aplique esta tecnología, sobre todo en el industrial que constituye la base de nuestro desarrollo. Esto significaría un notable aporte a la economía del país, haciendo la aplicación de esta tecnología una posible alternativa para propiciar una mayor ecosostenibilidad. Efecto del tratamiento magnético en la variación de la temperatura. Capacidad de conservación de calor del agua Después de alcanzado el punto de ebullición de cada una de las muestras, se analizó el comportamiento de la disminución de la temperatura en el tiempo, para ver si existía una influencia directa del campo magnético en la capacidad de conservación de calor del agua. En la Figura 10, 11 y 12 se pueden observar los resultados obtenidos durante esta prueba, donde se observa que para las muestras con TM se alcanza la ebullición a los 98°C - 99°C; además, de manera general el comportamiento de las curvas en cada caso es bastante similar, sin embargo, se observa una mayor conservación de la temperatura en las muestras con tratamiento magnético durante los primeros 30 min. Para 2170 G se conservó la temperatura 1°C más que en la muestra control, mientras que para 2678 G y 3250 G se conservó 2°C más que en la muestra control, existiendo una relación directa entre la intensidad del campo magnético y la capacidad de conservación de calor. De los 30 min en adelante se estabilizó el comportamiento de la temperatura en todas las muestras, alcanzando los 23 °C a los 90 min. Figura 10: Punto de ebullición y conservación de calor para 2170 G Figura 11: Punto de ebullición y conservación de calor para 2678 G Figura 12: Punto de ebullición y conservación de calor para 3250 G Este efecto registrado de la influencia del campo magnético sobre la capacidad de conservación de calor del agua al igual que el resultado obtenido en la disminución del punto de ebullición, representaría un significativo ahorro de energía para los sectores que apliquen esta tecnología. Ventajas de aplicar el tratamiento magnético en Cuba Los resultados obtenidos en el presente estudio confirman lo demostrado en la literatura acerca de la efectividad del tratamiento magnético al agua, no solo desde el punto de vista de la variación en algunas de sus propiedades físico-químicas, sino también desde el enfoque del mejoramiento de la calidad del agua y ahorro energético. Definitivamente extender esta tecnología al resto de los sectores del país en los que sea necesaria y aplicable representaría un gran paso para lograr el mejoramiento y una mayor sostenibilidad de la economía del país. Sobre todo, porque además de ser una tecnología limpia y eficiente, esta puede ser producida a nivel nacional, lo que la hace mucho más económica y rentable para ser aplicada en determinadas entidades nacionales que cuentan con aguas con índices altos de dureza y sin embargo no aplican ningún tratamiento por ser de altos costos y de difícil adquisición. Tal es el caso de clínicas, hospitales, centros educativos, hoteles pequeños y centros recreativos. 4. CONCLUSIONES Para el caso de la dureza total del agua analizada se obtuvieron diferencias significativas entre las muestras con tratamiento magnético y el control (STM) a las 0 h; observándose una “aparente disminución” de los valores de dureza por efecto del campo magnético, que se corresponde con los límites cuantitativos establecidos por otras investigaciones. No siendo así a las 48 h y 72 h, pues los valores de dureza total del agua con tratamiento magnético retornan al valor inicial igual al del control (STM). En el caso del punto de ebullición y la conservación del calor, para las muestras con TM se alcanza la ebullición a los 98°C - 99°C y se observa una mayor conservación de la temperatura en las muestras con TM durante los primeros 30 min. Para 2170 G se conservó la temperatura 1°C más que en la muestra control, mientras que para 2678 G y 3250 G se conservó 2°C más que en la muestra control, existiendo una relación directa entre la intensidad del campo magnético y la capacidad de conservación de calor. De los 30 min en adelante se estabilizó el comportamiento de la temperatura en todas las muestras, alcanzando los 23 °C a los 90 min. De manera general los resultados obtenidos en esta investigación resultan de gran interés, pues la aplicación del tratamiento magnético en las diferentes entidades que son abastecidas por ¨Cosculluela¨, y de manera general; en aguas de características similares en el país, representaría un ahorro considerable para la economía nacional. 5. BIBLIOGRAFÍA 1. LASA GARCÍA, V. La experiencia en La Habana. En EXPOZARAGOZA, Agua y ciudad. Zaragoza, España. 2008. 2. CNEA. El tratamiento magnético del agua en sistemas industriales. Universidad de Oriente. Cuba. 1997. 3. VAILLANT LÓPEZ, N. Agua, dureza y magnetismo, 54 pp., Cuba, La Habana, Centro de Investigaciones Hidráulicas de la Universidad Tecnológica de la Habana José Antonio Echeverría, (monografía), 2019. ISBN: 978-959-261-601-1. 4. PRATS RICO, D. et al. Efecto del electromagnetismo sobre la dureza, bacterias y algas en agua. Paper presented at the Universidad de Alicante. España. 2018. 5. RAMÍREZ CAMPEROS, M., et al. Proyecto “Uso del campo magnético y de materiales magnéticos como auxiliares en el tratamiento del agua y del agua residual”. México: TC 1320.1. Informe final. Coordinación de Tratamiento y Calidad del Agua. Subcoordinación de Tratamiento de Aguas Residuales. 2013. Retrieved from http://repositorio.imta.mx/handle/20.500.12013/1513?show=full 6. ADETUYI C, et al. Efectos de los campos electromagnéticos en la carga microbiana de muestras de aguas residuales de seleccionadas en Industrias en Akure Metropolis. Revista Internacional de Medio Ambiente, Agricultura y Biotecnología (IJEAB), 2(e-5), 2685. 7. 2017. 7. GUTIÉRREZ LÓPEZ, A., RAMÍREZ CAMPEROS, M. Efecto del campo magnético de densidad de flujo variable en la remoción de contaminantes en el proceso de lodos activados. Paper presented at the 2º Congreso Nacional Amica, Asociación Mexicana de Ingeniería Ciencia y Gestión Ambiental. 2015. 8. BELIN MORALES, M. G. Efecto del campo magnético sobre la formación de incrustaciones en sistemas de conducción de agua (Maestría). Universidad Nacional Autonoma de México, México D. F.Krylov O. et al. Electronnaya Obrabotka Materialov. 1987. 2: p. 53-56. 2015. 9. Krylov O. et al. Electronnaya Obrabotka Materialov. 1987. 2: p. 53-56. 10. RAJCZYKOWSKI, K. et al. Simulation of Heavy Metal Adsorption Process by Usinga Strong Magnetic Field. Water, Air and Soil Pollution. 2018. 11. AYAT KHAIRI, H., SEROOR ATALAH, K., & MOHAMMED, I. Effect of magnetic treatment of water on the reduction of heavy metal concentration. International journal of recent scientific research, 10 (01(b)). Doi: 10.24327/ijrsr. 2019. 12. CAYETANO TERREL, P. Tecnologías para la recuperación de agua contaminada con metales pesados: Plomo, Cadmio, Mercurio y Arsénico. Boletín Tecnológico N° 3. Instituto Nacional de Salud. Oficina General de Investigación y Transferencia Tecnológica (OGITT). Oficina Ejecutiva de Transferencia Tecnológica y Capacitación. Lima. Perú. 2019. SIMULACIÓN DEL PROCESO DE PRODUCCIÓN DEL CUMENO MEDIANTE EL SIMULADOR CHEMCAD® Amaury Pérez Sánchez1, Elizabeth Ranero González1, Eddy Javier Pérez Sánchez2, Norlem Liaño Abascal1 1Facultad de Ciencias Aplicadas, Universidad de Camagüey “Ignacio Agramonte Loynaz”. Carretera Circunvalación Norte, Km. 5½, e/ Camino Viejo de Nuevitas y Ave. Ignacio Agramonte, Camagüey, Cuba. CP 74650. 2Dirección Comercial, Empresa Servicios Automotores S.A., Calle C, e/ Abraham Delgado y Marcial Gómez, Ciego de Ávila, Cuba. 1e-mail: amaury.perez84@gmail.com RESUMEN En el presente trabajo se realizó la simulación del proceso de producción del cumeno a partir de la alquilación del benceno con propileno mediante el simulador ChemCAD® versión 5.2.0. Se obtuvieron las curvas de calor de cada uno de los intercambiadores de calor de tubo y coraza utilizados, mientras que se calculó la composición y caudal de cada una de las corrientes involucradas en el proceso. También se efectuó un estudio de sensibilidad con el fin de conocer la influencia de la presión de operación del tanque flash sobre la cantidad de cumeno a obtener por la corriente del fondo de este equipo. Se obtienen 13 403,54 kg/h de cumeno por el tope de la segunda columna de destilación (columna de cumeno), con una pureza del 98,6%, siendo el benceno (1,2%) la principal impureza encontrada en esta corriente. El tanque flash deberá operar a una presión de 7 atm para obtener el mayor rendimiento de cumeno en este equipo. PALABRAS CLAVES: Análisis de sensibilidad, ChemCAD®, Cumeno, Rendimiento, Simulación. SIMULATION OF THE CUMENE PRODUCTION PROCESS BY USING CHEMCAD® SIMULATOR ABSTRACT In the present work, the simulation of the cumene production process was carried out from the benzene alkylation with propylene by using the ChemCAD® simulator version 5.2.0. Heat curves of each shell and tube heat exchanger were obtained. At the same time, the composition and mass flowrate of each stream involved in the process were calculated. A sensitivity study was also accomplished in order to know the influence of the flash vessel operating pressure on the amount of cumene to be obtained by the stream at the bottom of this equipment. 13,403.54 kg/h of cumene are obtained at the top stream of the second distillation column (cumene column), with a purity of 98.6%, being benzene (1.2%) the main impurity found in this stream. The flash vessel must operate at a pressure of 7 atm to obtain the best yield of cumene in this equipment. KEY WORDS: Sensitivity analysis, ChemCAD®, Cumene, Yield, Simulation. 1. INTRODUCCIÓN El cumeno es un compuesto químico importante que se utiliza fundamentalmente como intermediario en la fabricación de fenol, acetona y α-metilestireno [1]. En la actualidad el cumeno es producido mediante la alquilación del benceno con propileno utilizando un catalizador ácido como el cloruro de aluminio, trifluoruro de boro, ácido fosfórico, fluoruro de hidrógeno o zeolitas [2]. También se ha reportado la utilización de un catalizador de Ni/γ-Al2O3 en un reactor de lecho fijo [3] y el empleo de bentonita con pilares de aluminio intercambiada con cationes K+, La3+ y Al3+ [4]. El cumeno se puede obtener además a partir de la hidroalquilación del benceno con acetona utilizando catalizadores bifuncionales conteniendo un sistema binario de óxido de cobre-cromito de cobre como el componente hidrogenado, y zeolita BEA, MOR, FAU o MFI como el componente de alquilación [5], así como también a partir de la lignina en un proceso de tres etapas en el cual se incluye la pirolisis catalítica de la lignina para obtener una mezcla de compuestos aromáticos, seguido de la desalquilación de estos compuestos aromáticos para obtener una mezcla de compuestos aromáticos ricos en benceno, y la posterior transformación de estos últimos compuestos en cumeno a través de reacciones en fase líquida utilizando catalizadores líquidos iónicos [6]. El proceso de producción del cumeno a través de la alquilación del benceno con propileno ha sido estudiado por varios autores. En este sentido, Luyben [7] llevó a cabo un diseño económicamente óptimo de una planta de producción de cumeno considerando costos capitales, costos de la energía y costos de las materias primas, para desarrollar una estructura de control a escala de planta industrial capaz de manejar, de forma efectiva, posibles alteraciones en la tasa de producción. En otro estudio, Norouzi y col. [8] demostraron la validez de la aplicación del Método de Superficie de Respuesta para efectuar la optimización de las condiciones operacionales del proceso de producción del cumeno a escala industrial, así como también efectuaron la introducción de un procedimiento por pasos para encontrar las mejores condiciones de operación con mayor atracción desde el punto de vista económico. También Gera y col. [9] aplicaron el procedimiento de diseño de control a escala de planta planteado por Skogestad [10] al proceso de producción del cumeno, utilizando un análisis en estado estacionario “fluctuante” para seleccionar las variables controladas primarias “auto-optimizadas” las cuales, al mantenerse constantes, conducen a pérdidas económicas aceptables sin necesidad de re-optimizar el proceso cuando ocurran alteraciones. Por último, Mahapatra [2] simuló el proceso de producción del cumeno mediante el simulador Aspen Plus®, obteniendo los resultados de balance de masa y energía de cada una de las corrientes que intervienen en el proceso. La simulación de procesos asistida por computadora se ha convertido en una herramienta estándar para planificar, optimizar, diseñar y evaluar procesos químicos. Involucra usualmente la preparación de un diagrama de flujo de proceso, la solución de los balances de masa y energía basados en la estimación de parámetros suministrados por el usuario, la estimación del costo total y el análisis de sensibilidad ante cambios en las suposiciones iniciales realizadas. La simulación de procesos proporciona un enlace entre el descubrimiento de un compuesto químico novedoso y las etapas iniciales del desarrollo de procesos, guiando esfuerzos para optimizar el proceso de fabricación de forma expedita. Resulta particularmente efectivo cuando se emplea en las etapas tempranas del desarrollo del proceso [11]. Los simuladores de procesos ofrecen la oportunidad de reducir el tiempo requerido para el desarrollo del sistema o proceso bajo estudio. Permiten comparar alternativas de proceso sobre una base consistente para que puedan sintetizarse y analizarse un gran número de ideas de forma interactiva en un corto período de tiempo [12]. Entre los simuladores más utilizados en la actualidad se encuentra el ChemCAD®, el cual ha sido empleado para simular diferentes procesos productivos, entre los cuales se encuentran la fabricación de acetaldehído [13]; biodiesel [14]; ácido monocloroacético [15]; epiclorohidrina [16]; deshidratación del propanol [17]; estireno [18] y ácido acrílico [19]. En el presente trabajo se lleva a cabo la simulación del proceso de producción de cumeno a partir de la alquilación del benceno con propileno utilizando el simulador ChemCAD® versión 5.2.0 [20], con el objetivo de conocer la composición másica de cada una de las corrientes involucradas en el proceso productivo, los principales parámetros de diseño de los equipos utilizados y el caudal requerido de los diferentes servicios auxiliares consumidos (vapor de agua, agua de enfriamiento, etc.) También se efectúa un estudio de sensibilidad para determinar la influencia de la presión de operación del tanque flash sobre la cantidad de cumeno a obtener por la corriente del fondo de este equipo. 2. MATERIALES Y MÉTODOS Propiedades físicas del cumeno El cumeno [iso-propilbenceno; 2-fenilpropano; (1-metiletil)benceno] presenta las propiedades físico- químicas que se muestran en la Tabla 1 [21]: Tabla 1: Propiedades fisicoquímicas más importantes del cumeno. Propiedad Valor Fórmula molecular C9H12, C6H5CH(CH3)2 Peso molecular 120,191 Punto de fusión - 96,02 ºC Punto de ebullición 152,41 ºC Densidad a 20 ºC 0,8618 g/cm3 Volumen molar a 20 ºC 139,5 Entalpía de vaporización 37,53 kJ/mol Entalpía de fusión 7,32 kJ/mol Solubilidad en agua (15 – 80 ºC) 56 g/m3 Descripción del proceso de producción La Figura 1 muestra el diagrama de flujo del proceso de producción del cumeno. Figura 1: Diagrama de flujo del proceso de producción de cumeno a partir de la alquilación del benceno con propileno. El benceno es alimentado al proceso con un caudal másico de 10 545,39 kg/h, y a 25º C de temperatura y 1,3 atm de presión. A continuación es enviado hacia un tanque de mezclado, en donde se mezcla con una corriente de reciclo (39,6° C, 1,28 atm) proveniente del tope de la primera columna de destilación (columna de benceno), la cual contiene fundamentalmente benceno, con trazas de cumeno, propileno y propano El benceno reciclado incrementa la relación benceno/propileno en el reactor y consecuentemente minimiza la producción de di-iso-propilbenceno (DIPB). A continuación, a la mezcla obtenida a la salida del tanque de mezclado se le incrementa la presión hasta alcanzar las 31 atm, y es mezclada con una corriente de propileno (6 749,08 kg/h), la cual se encuentra a 27° C y 31 atm, y contiene trazas de propano (5,0% m/m). En este proceso se emplea una relación másica benceno/propileno de 2:1. La mezcla resultante obtenida es precalentada en un intercambiador de tubo y coraza, hasta alcanzar una temperatura de 232° C, para luego ser enviada hacia un calentador quemador, en donde se le incrementa la temperatura hasta alcanzar los 350° C. La mezcla gaseosa calentada es enviada luego hacia el reactor, del tipo tubo y coraza y contiene ácido fosfórico como catalizador ácido soportado en diatomita. En este equipo ocurren las reacciones exotérmicas de transformación de los reactantes en productos, requiriéndose el uso de un agente de transferencia de calor (Dowtherm) para mantener la temperatura de reacción en el intervalo deseado (350° C). Durante la reacción se obtiene una conversión del propileno del 99% y una selectividad molar de cumeno/DIPB de 31:1. A la mezcla gaseosa reaccionante proveniente del reactor se le reduce la presión hasta los 2,2 atm, y seguidamente es enfriada en un intercambiador de tubo y coraza hasta los 65° C, obteniéndose una mezcla bifásica vapor/líquido a la salida. El enfriador utiliza agua de enfriamiento como agente de intercambio de calor. Esta mezcla bifásica es enviada posteriormente hacia un tanque flash, donde se separan los gases de la porción líquida. Los gases separados en este recipiente, ricos en propileno y propano, son venteados a la atmósfera, aunque se recomienda utilizarlos como combustible para incrementar el valor añadido de los subproductos que se obtienen en el proceso de producción. La corriente líquida es enviada hacia la primera columna de destilación (columna de benceno), donde el benceno y otros componentes ligeros tales como el propileno y el propano remanentes son separados del cumeno y el DIPB. La corriente del tope (101,7° C), rica en benceno es enfriada hasta 40° C por medio de un intercambiador de calor de tubo y coraza, y recirculada al proceso, mientras que la corriente del fondo (188,3° C) es enviada hacia la segunda columna de destilación (columna de cumeno), en la cual se lleva a cabo la purificación del cumeno, esto es, su separación del DIPB. En esta columna se obtiene cumeno por el tope (177,6° C) con una pureza del 99,9%, mientas que el DIPB es obtenido por el fondo (283,7° C) y puede ser comercializado como combustible. Debido a que las temperaturas de ebullición del propileno, benceno, cumeno y DIPB varían considerablemente entre sí, las separaciones de los componentes en las columnas de destilación se llevan a cabo fácil y eficientemente. Reacciones que ocurren en el reactor La Tabla 2 muestra las reacciones que ocurren en el reactor, así como también su cinética de reacción [8], las cuales tienen lugar sobre un lecho fijo de gránulos de catalizador a una temperatura de 350° C y presiones que oscilan entre 25 – 32 atm en fase de vapor. Tabla 2: Cinética de reacción en el reactor. Reacción Expresión de la velocidad de reacción Constantes de velocidad de reacción 129 1 6663 HCHCHC k PBcumeno CCkr  1         RT k 9,24 exp105,3 41 1812 1 12963 HCHCHC k CBDIPB CCkr  2         RT k 08,35 exp109,2 61 Donde la E está en kcal/mol; la concentración en mol/L, temperatura en Kelvin y la velocidad de reacción (r) en mol/(g cat.s). Según se puede observar en la Tabla 2, la energía de activación de la reacción del cumeno (ecuación 1) es menor que la de formación del DIPB (ecuación 2). Por tanto, a menor temperatura del reactor mayor será la selectividad de la reacción del cumeno sobre la reacción del DIPB. Pero la menor temperatura de reacción traerá consigo una menor conversión por parte de la reacción. Por tanto deberá existir un compromiso entre la conversión por pase y la selectividad, por lo que se selecciona una temperatura de reacción de 350° C [22]. Propiedades del catalizador Según se describió con anterioridad, el catalizador empleado será ácido fosfórico soportado sobre diatomita, el cual presenta las siguientes propiedades [22] (Tabla 3): Tabla 3: Propiedades del catalizador empleado. Propiedad Valor Diámetro de partícula (dp) 3 mm Densidad de partícula (ρcat) 1 600 kg/m3 Fracción hueca (ε) 0,50 Modelo termodinámico utilizado De acuerdo con los límites de temperaturas y presiones establecidas por el proceso, así como también debido a las propiedades físico-químicas de los compuestos químicos manejados, se escoge un modelo termodinámico del tipo Peng-Soave-Redlich-Kwong (PSRK) con asociación en fase de vapor, el cual se encuentra contenido en la base de datos de modelos termodinámicos del simulador ChemCAD®. Vale destacar que el propio simulador ChemCAD® propuso el empleo del modelo termodinámico PSRK considerando las características del proceso productivo, mediante el uso de la opción “K-Value Wizard”. Estudio de sensibilidad Se efectuó un estudio de sensibilidad para determinar la influencia de la presión de operación del tanque flash sobre la cantidad a obtener de cumeno por la corriente del fondo de este equipo, haciendo uso de la opción “Sensitivity Study” contenida en el simulador ChemCAD®. Para ello se varió la conversión fraccional entre 1 - 10 atm, manteniendo constante la temperatura de operación de este equipo en 65° C. 3. RESULTADOS Y DISCUSIÓN Diagrama de flujo del proceso de producción simulado en el ChemCAD® La Figura 2 muestra el diagrama de flujo obtenido una vez simulado el proceso productivo en el simulador ChemCAD®. Figura 2. Diagrama de flujo del proceso de producción de cumeno obtenido mediante el simulador ChemCAD® Resultados de las corrientes de proceso La Tabla 4 muestra los caudales másicos de cada una de las corrientes de entrada, intermedias y finales involucradas en el proceso, así como también sus temperaturas, presiones y fracción de vapor. Tabla 4: Resultados obtenidos para las principales corrientes de proceso. Variable Número de la corriente (referirse a la Fig. 2) 1 17 22 4 3 Temperatura (ºC) 25,00 35,11 40,00 25,00 33,55 Presión (atm) 1.3 1,28 1.9 1.3 31 Fracción de vapor 0 0 0 0 0 Compuesto Caudal [kg/h] Propileno - 412,38 412,38 6 411,63 412,38 Benceno 10 545,39 30 296,60 19 751,21 - 30 296,60 Cumeno - 135,66 135,66 - 135,66 Propano - 434,39 434,39 337,45 434,39 DIPB - 8,10x10-7 8,10x10-7 - - Total 10 545,39 31 279,03 20 733,64 6 749,08 31 279,03 Variable Número de la corriente (referirse a la Fig. 2) 5 2 6 9 10 Temperatura (ºC) 74,25 67,65 232 350 350 Presión (atm) 31 31 30 29 28 Fracción de vapor 1 0 1 1 1 Compuesto Propileno 6 411,63 6 824,00 6 824,00 6 824,00 750,63 Benceno - 30 296,6 30 296,6 30 296,6 20 274,19 Cumeno - 135,66 135,66 135,66 13 584,27 Propano 337,45 771,85 771,85 771,85 771,58 DIPB - 8,10x10-7 8,10x10-7 8,10x10-7 2 631,40 Total 6 749,08 38 028,11 38 028,11 38 028,11 38 012,07 Variable Número de la corriente (referirse a la Fig. 2) 16 13 14 15 18 Temperatura (ºC) 331,37 65 65 65 102,7 Presión (atm) 2,2 2 1,97 1,97 2 Fracción de vapor 1 0,046 1 0 1 Compuesto Propileno 750,63 750,63 338,25 412,38 412,38 Benceno 20 274,19 20 274,19 323,46 19 950,72 19 751,21 Cumeno 13 584,27 13 584,27 18,43 13 565,83 135,66 Propano 771,58 771,58 337,19 434,39 434,39 DIPB 2 631,40 2 631,40 0,0267 2 631,37 8,10x10-7 Total 38 012,07 38 012,07 1 017,36 36 994,69 20 733,64 Variable Número de la corriente (referirse a la Fig. 2) 19 20 21 Temperatura (ºC) 188,70 177,63 283,76 Presión (atm) 2,2 1,97 2,17 Fracción de vapor 0 0 1,53x10-6 Compuesto Propileno - - - Benceno 199,51 165,17 34,34 Cumeno 13 430,18 13 403,54 26,64 Propano - - - DIPB 2631,37 26,53 2 604,84 Total 16 261,06 13 595,24 2 665,82 Como bien se puede percibir en la Tabla 4, la corriente de salida del reactor (equipo N° 10 en la Fig. 2) contiene mayormente benceno (53,3%) y cumeno (35,7%). La relación cumeno/DIPB en esta corriente es de 5:1 aproximadamente, mientras que el 89,0% del propileno que entró al reactor se convirtió en cumeno A continuación, en el tanque flash (N° 8), la corriente del tope de este equipo contiene fundamentalmente propileno (33,2%), benceno (31,7%) y propano (33,1%); mientras que la corriente del fondo trae consigo fundamentalmente benceno (53,9%) y cumeno (36,7%), con pequeñas cantidades de DIPB (7,1%), propano (1,2%) y propileno (1,1%). En la columna de benceno (N° 10) se obtiene por el tope una corriente compuesta mayormente por benceno (95,3%), la cual es recirculada de vuelta al proceso. La corriente del fondo de este equipo, por su parte, contiene esencialmente cumeno (82,6%) y DIPB (16,2%). Por último, la corriente del tope de la columna de cumeno (N° 12) incluye mayormente cumeno (13 403,54 kg/h) con una pureza del 98,6%, con trazas de benceno (1,2%) y DIPB (0,2%), la cual puede considerarse de aceptable considerando que este es el producto final deseado por el proceso, mientras que la corriente del fondo de esta columna contiene principalmente DIPB con un 99,7% de pureza. De forma general, la cantidad total de cumeno que se pierde por las corrientes del tope del tanque flash y la del fondo de la columna de cumeno (sin incluir el reciclo) es baja, alcanzando un valor de 45,07 kg/h, incrementando de esta manera el rendimiento global del proceso. Equipamiento Intercambiadores de calor La Figura 3 muestra el calor intercambiado (Q), la Media Logarítmica de la Diferencia de Temperatura (MLDT) calculada, el área total de transferencia de calor (A) y el caudal másico de servicio auxiliar demandado para cada uno de los intercambiadores de calor utilizados en el proceso. a) b) c) d) Figura 3. Resultados obtenidos para los intercambiadores de calor a) Calor intercambiado b) MLDT c) Área de transferencia de calor requerida d) Caudal de servicio auxiliar De acuerdo con los resultados mostrados en la Figura 3, el segundo intercambiador de calor (equipo N° 7 en la Fig. 2) es el que más calor intercambia (61 810 MJ/h), lo cual se debe fundamentalmente a que en este equipo es donde se le reduce la temperatura de la mezcla gaseosa reaccionante de salida del reactor desde 331° C hasta 65° C, es decir, presenta un ΔT elevado (266° C), lo cual influye además en que sea el equipo que mayor MLDT posee (146,76° C), el de mayor área de transferencia de calor requerida (117 m2), y el que mayor caudal de servicio auxiliar necesita, con 155 947,9 kg/h de agua de enfriamiento. Curva de calor La Figura 4 muestra las curvas de calor obtenidas para cada uno de los intercambiadores de calor de tubo y coraza empleados en el proceso. a) b) c) Figura 4. Curvas de calor de cada intercambiador de calor de tubo y coraza utilizado en el proceso Según los resultados descritos en la Figura 4, la curva de calor obtenida para el intercambiador de calor N° 1 (equipo número 1 en la Figura 4) presenta un comportamiento lineal creciente hasta un 36% aproximadamente de la posición del intercambiador de calor, en donde tiene lugar un punto de inflexión a una temperatura de 162° C, lo cual representa la ocurrencia de un cambio de fase (vaporización) de la mezcla líquida. A partir de ese punto, la curva de calor muestra un comportamiento lineal creciente también hasta alcanzar la temperatura final deseada (232° C). Por su parte, la curva de calor obtenida para el intercambiador de calor N° 2 (equipo número 7) presenta una tendencia lineal decreciente hasta alcanzar el 40% de la longitud del intercambiador, en cuya posición manifiesta un punto de inflexión que significa que existe un cambio de fase (condensación) de la mezcla gaseosa de salida del reactor, a una temperatura de 140° C aproximadamente. Por último, la curva de calor obtenida para el tercer intercambiador de calor (equipo N° 13) muestra una tendencia lineal decreciente hasta llegar al 40% de la longitud del intercambiador (temperatura de 96° C), en donde acontece un punto de inflexión que significa la ocurrencia de un cambio de fase (condensación) de la mezcla gaseosa de salida del tope de la columna de benceno A partir de este punto la curva muestra una tendencia curvada decreciente hasta llegar a la temperatura de enfriamiento deseada (40° C). Columnas de destilación La Tabla 5 expone los parámetros de diseño de ambas columnas de destilación calculados por el simulador ChemCAD®. Tabla 5: Parámetros de diseño calculados por el simulador ChemCAD para ambas columnas de destilación. Parámetro Valor Columna de benceno Carga de calor condensador (MJ/h) -10 678,8 Carga de calor rehervidor (MJ/h) 24 330,6 Etapas mínimas 17 Etapa de alimentación 6 Relación de reflujo, mínima 0,254 Relación de reflujo 1,25 Columna de cumeno Carga de calor condensador (MJ/h) -9 498,61 Carga de calor rehervidor (MJ/h) 9 938,67 Etapas mínimas 15 Etapa de alimentación 5 Relación de reflujo, mínima 0,139 Relación de reflujo 1,30 Tomando en cuenta los resultados mostrados en la Tabla 5, la columna de benceno deberá poseer un número total de platos o etapas mínimas de 17, siendo la etapa de alimentación la número seis. Por su parte, la columna de cumeno deberá poseer 15 etapas como mínimo, siendo la cinco la etapa o plato de alimentación. Resultados del estudio de sensibilidad La Figura 5 describe los resultados del estudio de sensibilidad efectuado. Figura 5: Resultados del estudio de sensibilidad efectuado. Según se puede observar en la Figura 5, la cantidad de cumeno a obtener por la corriente de fondo del tanque flash se incrementa de forma constante hasta una presión de 6,4 atm aproximadamente, para luego presentar un comportamiento estacionario a partir de este valor de presión. Debido a esto se aconseja operar el tanque flash a una presión de 7 atm para obtener el rendimiento máximo posible de cumeno 4. CONCLUSIONES El empleo del simulador ChemCAD® permitió llevar a cabo la simulación exitosa del proceso de producción de cumeno a partir de la alquilación del benceno con propileno. Se obtiene cumeno por la corriente del tope de la columna de destilación N° 2 (columna de cumeno) con un caudal de 13 403,54 kg/h y una pureza del 98,6%, lo cual puede considerarse de aceptable. Las curvas de calor obtenidas de cada intercambiador de calor permiten conocer y analizar el perfil de temperatura seguido por cada corriente en dependencia de la longitud del equipo. El intercambiador de calor N° 2 presenta la mayor carga calórica (61 810 MJ/h), el mayor valor de MLDT (146,76° C), la mayor área de transferencia de calor requerida (117 m2) y el mayor caudal de servicio auxiliar necesario (155 947,9 kg/h de agua de enfriamiento), lo cual se debe a que es el intercambiador que mayor ΔT presenta (266° C). Se recomienda operar el tanque flash a una presión de 7 atm para maximizar la cantidad de cumeno a obtener por la corriente del fondo de este equipo. REFERENCIAS 1. SPEIGHT, James. Chemical and process design handbook. New York: McGraw-Hill, 2002. 559 pp. ISBN 0-07-137433-7. 2. MAHAPATRA, Nirlipt. "Design and simulation of cumene plant using Aspen Plus". Director: Shabina Khanam. Bachelor of Technology in Chemical Engineering, National Institute of Technology Rourkela, India, 2010. 3. PANMING, Jian; QIUYING, Wang; CHAO, Zhu; YANHE, Xu. "Alkylation of benzene with propene to produce cumene over a nickel/y-alumina catalyst". Applied Catalysis A: General, 1992, vol 91, pp. 125-129. 4. GEATTI, Andrea; LENARDA, Maurizio; STORARO, Loretta; GANZERLA, Renzo; PERISSINOTTO, Michele. "Solid acid catalysts from clays: Cumene synthesis by benzene alkylation with propene catalyzed by cation exchanged aluminum pillared clays". Journal of Molecular Catalysis A: Chemical, 1997, vol 121, pp. 111–118. 5. SHUTKINA, O. V.; PONOMAREVA, O. A.; IVANOVA, I. I. "Catalytic Synthesis of Cumene from Benzene and Acetone". Petroleum Chemistry, 2013, vol 53, núm 1, pp. 20–26. 6. JIN, Feng; FAN, Ming-hui; JIA, Qi-fang; LI, Quan-xin. "Synthesis of Cumene from Lignin by Catalytic Transformation". Chinese Journal of Chemical Physics, 2017, vol 30, núm 3, pp. 348-356. 7. LUYBEN, William L. "Design and Control of the Cumene Process". Ind. Eng. Chem. Res., 2010, vol 49, pp. 719–734. 8. NOROUZI, Hamid Reza; FATEMI, Shohreh. "Economic Optimization of the Cumene Production Process Using Response Surface Methodology". Chem. Eng. Comm., 2012, vol 199, pp. 1375–1393. 9. GERA, Vivek; KAISTHA, Nitin; PANAHI, Mehdi; SKOGESTAD, Sigurd. "Plantwide Control of a Cumene Manufacture Process". En actas de 21st European Symposium on Computer Aided Process Engineering – ESCAPE 21, 2011, pp. 1-5. 10. SKOGESTAD, S. "Control structure design for complete chemical plants". Comp. Chem. Engg., 2004, vol 28, pp. 219–234. 11. ERNST, Steffen; GARRO, Oscar A.; WINKLER, Stefan; VENKATARAMAN, Ganesh; LANGER, Robert; COONEY, Charles L.; SASISEKHARAN, Ram. "Process Simulation for Recombinant Protein Production: Cost Estimation and Sensitivity Analysis for Heparinase I Expressed in Escherichia coli". Biotechnology and Bioengineering, 1997, vol 53, núm 6, pp. 575-582. 12. AULI, N. Alnur; SAKINAH, M.; AL BAKRI, Mustafa; KAMARUDIN, H.; NORAZIAN, M. N. "Simulation Of Xylitol Production: A Review". Australian Journal of Basic and Applied Sciences, 2013, vol 7, núm 5, p. 366-372. 13. ELIASSON, Johanna. Design of an Plant for Manufacturing of Acetaldehyde. Lund, Sweden: Department of Chemical Engineering, Lund University, 2010. 4 pp. 14. CHILEV, Chavdar; SIMEONOV, Evgeni. "Simulation of Biodiesel Production by Transesterification of Vegetable Oils". Journal of Chemical Technology and Metallurgy, 2014, vol 49, núm 5, pp. 479-486. 15. GREESHMA, Nair; SHAH, Bharat; PATEL, Narendra. "Simulation Study of Reactive Distillation for Monochloroacetic Acid using CHEMCAD". International Journal of Futuristic Trends in Engineering and Technology, 2014, vol 1, núm 2, pp. 1-11. 16. ALMENA, Alberto; MARTÍN, Mariano. "Technoeconomic Analysis of the Production of Epichlorohydrin from Glycerol". Industrial & Engineering Chemistry Research, 2016, vol 55, pp. 3226−3238. 17. WYCZESANY, Andrzej. "Simulation of N-Propanol Dehydration Process via Heterogeneous Azeotropic Distillation Using the NRTL Equation". Chemical and Process Engineering, 2017, vol 38, núm 1, pp. 163-175. 18. PÉREZ, Amaury; PÉREZ, Eddy Javier; SEGURA, Rutdali María. "Simulation of the styrene production process via catalytic dehydrogenation of ethylbenzene using CHEMCAD® process simulator". Tecnura, 2017, vol 21, núm 53, pp. 15-31. 19. PÉREZ, Amaury; PÉREZ, Eddy Javier; SEGURA, Rutdali María. "Simulation of the acrylic acid production process through catalytic oxidation of gaseous propylene using ChemCAD® simulator". Ingeniare. Revista chilena de ingeniería, 2019, vol 27, núm 1, pp. 142-150. 20. CHEMSTATIONS. ChemCAD® (Version 5.2.0). Wesel, Germany, 2002. 21. MACKAY, Donlad; SHIU, Wan Ying; MA, Kuo-Ching; LEE, Sum Chi. Handbook of physical- chemical properties and environmental fate for organic chemicals (2nd ed., Vol. I), Boca Raton: CRC Press, 2006, 925 pp. ISBN 1-56670-687-4. 22. WVU. “Design of a New, 100,000 Metric Ton Per Year, Cumene Production Facility”, West Virginia University: West Virginia, USA. 2012. 17 pp. Amaury Pérez Sánchez Ingeniero químico. Trabaja actualmente como especialista principal de la planta piloto de la Universidad de Camagüey. Profesor Instructor, Aspirante a Investigador y miembro de la Sociedad Cubana de Química. Actualmente se encuentra cursando una Maestría de Biotecnología en el Centro de Ingeniería Genética y Biotecnología de Camagüey. Elizabeth Ranero González Ingeniera química. Profesor Instructor y Aspirante a Investigador de la Universidad de Camagüey. Eddy Javier Pérez Sánchez Ingeniero químico. Especialista comercial de la Empresa de Servicios Automotores S.A. en Ciego de Ávila. Norlem Liaño Abascal Ingeniero químico, Máster en Análisis de Procesos de la Industria Química. Profesor Asistente de la Universidad de Camagüey. Actualmente se encuentra realizando un Doctorado en la Universidad de Camagüey. DERIVADOS FURÁNICOS COMO INHIBIDORES DE LA CORROSIÓN DEL ACERO EN MEDIOS NEUTROS Juan José Camejo Giniebra1, Jorge Domínguez Domínguez2 Rigoberto Marrero Águila3 1, 2, 3Grupo de Corrosión e Ingeniería de Materiales. Facultad de Ingeniería Química, Universidad Tecnológica de La Habana. Calle 114 No. 11901 entre Ciclo vía y Rotonda, Marianao, La Habana, Cuba 1e-mail: camejo@quimica.cujae.edu.cu RESUMEN El deterioro por corrosión de la gran diversidad de estructuras metálicas, de imprescindible uso en las esferas industrial y social, provoca pérdidas millonarias cada año, e importantes afectaciones ambientales por contaminación de suelos, aguas y la atmósfera, además en no pocos accidentes tecnológicos catastróficos se ha identificado la corrosión entre sus causas directas o indirectas. Todo ello explica los esfuerzos que se realizan para lograr su prevención y control por diferentes vías o métodos entre los que se encuentra la aplicación de los llamados inhibidores de la corrosión En el presente trabajo se exponen los resultados obtenidos en el estudio realizado acerca de la capacidad protectora del ácido 5- nitrofuroico y varias de sus sales, así como de sus mezclas con otros derivados nitrogenados furánicos y productos inorgánicos, contra la corrosión de dos tipos de acero en contacto con disoluciones neutras acuosas. Los métodos experimentales empleados para la realización del estudio fueron el método electroquímico, para la obtención de curvas de polarización, y el gravimétrico, para la determinación de la velocidad de corrosión. Se demuestra que el ácido 5-nitrofuroico y sus sales presentan propiedades inhibidoras de la corrosión del acero en medios neutros acuosos, las que se refuerzan al mezclarse con productos inorgánicos como el nitrito de sodio y el fosfato trisódico. Se evaluó la capacidad protectora de una de estas mezclas a escala industrial en el sistema de enfriamiento con recirculación de agua dulce de la Fábrica “Coppelia” de La Habana, con resultados satisfactorios. PALABRAS CLAVES: Inhibidor de corrosión, sistemas de enfriamiento, aceros al carbono. FURANIC DERIVATIVES AS INHIBITORS OF STEEL CORROSION IN NEUTRAL MEDIA ABSTRACT The deterioration due to corrosion of the great diversity of metallic structures, of essential use in the industrial and social spheres, causes millionaire losses every year, and important environmental effects due to contamination of soils, waters and the atmosphere. In addition, in not a few catastrophic technological accidents, corrosion has been identified among its direct or indirect causes. All this explains the efforts that are made to achieve its prevention and control by different routes or methods, among which is the application of corrosion inhibitors. In this paper, are presented the results obtained in the study carried out on the capacity protector of 5-nitrofuroic acid and several of its salts, as well as its mixtures with other nitrogenous furan derivatives and inorganic products, against the corrosion of two types of steel in contact with neutral aqueous solutions. The experimental methods used to carry out the study were the electrochemical method, to obtain polarization curves, and the gravimetric method, to determine the corrosion rate. It is shown that 5-nitrofuroic acid and its salts have properties that inhibit steel corrosion in neutral aqueous media, which are reinforced when mixed with inorganic products such as sodium nitrite and trisodium phosphate. The protective capacity of one of these mixtures was evaluated on an industrial scale in the cooling system with fresh water recirculation of the "Coppelia" Factory in Havana, with satisfactory results. KEY WORDS: Corrosion inhibitor, cooling systems, carbon steels. 1. INTRODUCCIÓN Es conocido que los aceros al carbono o bajo aleados, así como otros metales y aleaciones utilizados para la construcción de sistemas industriales de enfriamiento con aguas naturales sufren en mayor o menor medida el ataque corrosivo de dicho medio. En el caso de sistemas con recirculación total o parcial del agua de enfriamiento, en donde se emplea agua dulce previamente tratada, la velocidad de corrosión puede alcanzar en determinadas zonas una profundidad de varios mm/año. En este valor influye el tipo de material, la composición del agua, especialmente su contenido de aniones cloruros (Cl-) y sulfatos (SO42-) activadores del proceso de corrosión y las condiciones de operación, en particular la temperatura y la velocidad del fluido. La corrosión se presenta normalmente en forma generalizada, pero son frecuentes otros tipos como la corrosión picadura, generada principalmente por efectos de celdas de concentración, la corrosión erosión y otras formas [1,2]. Por sus características estructurales la vía más usual para proteger a los materiales metálicos contra la corrosión en los sistemas de enfriamiento con aguas dulces, en los que el oxígeno disuelto constituye el agente oxidante fundamental, es la adición de inhibidores de la corrosión. En estos sistemas han sido los pasivadores y los inhibidores formadores de depósito los tradicionalmente empleados. En la práctica se han ensayado y utilizado con éxito una gama de sustancias inorgánicas como los cromatos, nitritos, molibdatos, fosfatos, carbonatos y otros, así como mezclas sinérgicas de ellos [1-5] . La prohibición del uso del efectivo, universal y económico cromato debido a su elevada toxicidad, obligó a intensificar el estudio de otros productos inhibidores y sus mezclas, incluyendo a los productos de naturaleza orgánica tales como benzoatos, nitro benzoatos, aminas y amidas diversas, ácidos carboxílicos o sus sales, compuestos poliméricos naturales o sintéticos, esteres y otros. [6, 7] En este trabajo se presentan los resultados del estudio realizado para la caracterización de diferentes derivados nitrogenados furánicos, que podrían obtenerse a partir de materia prima nacional, como inhibidores de la corrosión de aceros al carbono en medios acuosos cercanos a la neutralidad, así como la evaluación de la capacidad protectora de mezclas de dichos derivados con productos inorgánicos con propiedades conocidas como inhibidores. 2. MATERIALES Y MÉTODOS Se evaluaron en calidad de inhibidores los siguientes productos: furoato de sodio (FS), ácido 5- nitrofuroico (ANF) y sus sales: nitrofuroato de sodio (NFS), nitrofuroato de furfurilamonio (NFFA) y nitrofuroato de dietilamonio (NFDEA), así como mezclas de NFS con 2,4,5-trifurfurilimidazolina (furfurina) y con furfurilamina (FA). Todos estos productos, salvo la furfurilamina, fueron obtenidos en el Instituto Cubano de Investigaciones de los Derivados de la Caña de Azúcar (ICIDCA). Se evaluaron también diferentes mezclas de la sal sódica (NFS) con otras sustancias inorgánicas inhibidoras conocidas como pasivadores. Como medio corrosivo se empleó agua corriente con una composición de: anión cloruro 35, sulfato 12, hidrógeno carbonato 86, ion calcio 49, ion magnesio 36, todos en mg/L, dureza 274 mE/L, alcalinidad 216, pH alrededor de 7,2 y una disolución modelo consistente en agua destilada con 60 y 40 mg/L de cloruro de sodio y sulfato de sodio respectivamente (36 mg/L de aniones cloruros y 13 mg/L de aniones sulfato), a pH alrededor de 5,8. El agua corriente se empleó para la evaluación preliminar de la capacidad protectora de los productos, mientras que la disolución modelo se utilizó preferentemente para estudiar la influencia de diferentes factores en la efectividad de los mismos: pH, poder tampón de la disolución y de la concentración de oxígeno. Para evaluar el efecto del pH el ajuste del mismo se efectuó con hidróxido de sodio, mientras que para evaluar el efecto tampón, se adicionó a la disolución modelo los pares tetraborato de sodio 400 mg/L – ácido bórico para pH 7 y 8 y carbonato de sodio 400 mg/L – hidrógeno carbonato de sodio para pH 9. Los aceros ensayados para evaluar la efectividad de los inhibidores y los factores influyentes en la misma, fueron los aceros 08kp y Ct-3 (A366 y A570Gr36 respectivamente según normas ASTM). La velocidad de corrosión se determinó por el método gravimétrico a temperaturas de 30, 40 y 50 0C, utilizando cinco réplicas en cada condición ensayada. El área de las muestras, colocadas en tubos de ensayo, introducidos en baño termostático, fue de aproximadamente 8 cm2 y el volumen de disolución superior a los 80 mL, exponiéndose durante 30 días. Las muestras, inicialmente, se desengrasaron con cal de Viena y detergente, se decaparon con ácido clorhídrico, se pulieron con esmeril 400 y 600, se enjuagaron con agua destilada y acetona, se midieron sus dimensiones con pie de rey y se pesaron en balanza analítica digital. Al extraer las muestras previo a la obtención de su peso final, los productos de corrosión se removieron mecánicamente con una goma suave y cal de Viena, se enjuagaron y se secaron con aire caliente o en una estufa. Para estudiar el mecanismo de acción inhibidora se trazaron las curvas de polarización potencio dinámicas a una velocidad de barrido de 20 mV/min. Como electrodo de referencia se empleó el de calomel saturado y como contra electrodo una lámina de platino. El electrodo de trabajo con área de 1 cm2 se encapsuló en un portamuestra epoxídico. Se trabajó en una celda abierta a la atmósfera sin agitación, a temperatura ambiente. Dichas probetas fueron pulidas convenientemente hasta papel de esmeril Nº 600 y desengrasadas con acetona caliente. En todos los casos, antes de la medición, el electrodo se introdujo en la disolución de trabajo durante tres horas. El control del contenido de oxígeno en la solución, cuando fue necesario, se logró mediante burbujeo de corrientes de hidrógeno y oxígeno de diferentes proporciones durante 30 minutos. Por último, se realizaron ensayos de laboratorio para evaluar el efecto protector de los productos con mejores resultados en los sistemas descritos anteriormente, como inhibidores de la corrosión de los aceros al carbono 08kp y Ct-3 a temperatura de 40 0C, en agua del sistema industrial de enfriamiento con recirculación de la Fábrica “Coppelia” de La Habana, en el que se realizaron finalmente los ensayos de campo. La composición media, en mg/L, del agua de circulación empleada fue de: 80 de cloruros, 30 de sulfatos, 42,2 de carbonatos + hidrógeno carbonatos, 12 de calcio, 4 de magnesio, dureza de 38 mEq/L, alcalinidad 413 mEq/L y pH 8,26. Para los ensayos de campo se emplearon 40 muestras de acero 08kp de unos 40 cm2 de área total, cada una, distribuidas en ocho portamuestras que se situaron en diferentes partes del sistema. 3. ANÁLISIS DE RESULTADOS Con el fin de realizar una estimación preliminar de los productos más perspectivos como inhibidores de la corrosión en medios neutros dentro de una relación de derivados furánicos como son el furoato sódico (FS), el ácido nitrofuroico (ANF), así como las sales sódicas (NFS), de dietilamonio (NFDEA) y de furfurilamonio (NFFA) de este ácido, se obtuvieron las curvas potenciodinámicas de polarización anódicas del acero 08kp en agua corriente sin y con adición de 500 mg/L de dichos productos, a temperatura ambiente, sin agitación y en sistema abierto a la atmósfera , las que se muestran en la Fig. 1. La adición del furoato de sodio (FS) no provoca desplazamientos del potencial de corrosión ni efecto en la pendiente de la curva anódica. En contraposición con ello el ácido nitrofuroico y sus sales desplazan considerablemente el potencial de corrosión hacia valores más positivos (desde unos – 700 mV hasta cerca de – 200 mV y más positivos), con reducción significativa de la pendiente anódica en el gráfico de corriente vs. potencial. Figura 1. Influencia del FS, ANF, NFS y NFFA en la polarización anódica del acero 08kp en agua corriente sin y con 500 mg/L de cada producto Resulta evidente que tal comportamiento es el resultado de la pasivación del acero por la acción de los nitrofuroatos en los que, a diferencia del furoato, está presente el grupo nitro (NO2-). A valores aún más positivos de potencial se inicia una elevación de la corriente en correspondencia con el alcance de la zona transpasiva. Se aprecian además pequeñas diferencias en las curvas según el catión que presentan los nitrofuroatos. Sin embargo, resulta algo difícil juzgar a través de estas curvas de polarización la influencia que ejercen dichos cationes sobre el efecto protector ya que fueron obtenidas a igualdad de masa en gramos y no a igualdad de masa molar. Por esta razón se realizaron ensayos gravimétricos de las sales del ácido nitrofuroico a iguales concentraciones molares. Los resultados se muestran en la Tabla 1. Tabla 1. Efecto protector del NFS; NFFA y NFDEA sobre la corrosión del acero en agua corriente, estática a 30 0C. PRODUCTO CONCENTRACIÓN ( mol/L) ( g/L) VELOC. DE CORROSIÓN (g/m2h) VELOC. DE CORROSIÓN (mm/año) EFICIENCIA (%) - - - 0,0326 0,0361 - NFS 510-4 110-3 2,510-3 510-3 0,090 0,179 0,448 0,895 0,0392 0,0418 0,0017 0,0020 0,0435 0,0463 0,0018 0,0022 -20,2 -28,2 94,8 93,9 NFFA 510-4 110-3 2,510-3 510-3 0,132 0,263 0,658 1,315 0,0380 0,0027 0,0012 0,0016 0,0421 0,0029 0,0013 0,0017 -16,6 91,7 96,3 95,1 NFDEA 510-4 110-3 2,510-3 510-3 0,111 0,222 0,550 1,110 0,0296 0,0025 0,0020 0,0025 0,0328 0,0027 0,0022 0,0025 9,2 92,3 94,0 92,9 Los resultados recogidos en la Tabla 1 indican claramente la capacidad inhibidora de estas sales del ácido nitrofuroico especialmente si el catión es una amina orgánica. Dicho catión orgánico facilita el alcance del estado pasivo, lo cual se evidencia por el hecho de que la sal sódica requiere de una concentración molar mayor para lograr protección que las de catión amínico. Por debajo de una concentración crítica, que depende de su catión, estos productos resultan activadores de la corrosión, como sucede con la mayoría de los pasivadores. El mayor incremento observado correspondió a la sal sódica (NFS). La presencia de cationes aminados capaces de adsorberse sobre la superficie metálica, reduce, en alguna medida, el área a pasivar en los inicios del proceso. Esto favorece la acción pasivadora del anión nitrofuroato, lo que explica la necesidad de menores concentraciones molares de dichas sales en relación con la sódica. Es de señalar también que la presencia del átomo de oxígeno en el anillo furánico pudiera favorecer tanto la adsorción del anión mismo como facilitar la reducción del grupo nitro a hidroxilamina. Con el fin de explicar más claramente el mecanismo básico de acción de los nitrofuroatos se obtuvieron las curvas de polarización catódica en disolución modelo con 400 mg/L de Na2CO3 y NaHCO3 hasta pH = 9 para estas sustancias. En la Fig. 2 se presentan las curvas obtenidas para 200 y 500 mg/L de NFS. Figura 2. Curvas de polarización catódicas del acero 08kp para diferentes concentraciones de NFS en solución modelo con 400 mg/L de Na2CO3 y NaHCO3 hasta pH = 9. Sin adición y con 200 y 500 mg/L de NFS Es conocido que pasivadores como el cromato, nitrito, molibdato y tungstenato, aniones considerados fuertemente oxidantes, apenas se reducen catódicamente hasta valores bastante más negativos que el potencial de corrosión. Ellos no actúan como despolarizadores catódicos sino como verdaderos inhibidores del proceso anódico de oxidación metálica [2, 3]. Por el contrario, los nitrofuroatos si se reducen con facilidad produciendo un incremento considerable de la efectividad del proceso catódico originalmente limitado a la reducción del oxígeno disuelto (Fig.2). Esto permite, para determinadas concentraciones de los productos, que la magnitud de la reducción catódica supere a la corriente crítica anódica del metal en el medio y en consecuencia, que el potencial de corrosión se traslade al rango pasivo. Es por esta razón que una concentración de estos productos inferior a la crítica requerida para alcanzar la protección, aumenta la corrosión generalizada pero no provoca la corrosión picadura del material ya que no reduce significativamente el área anódica como los pasivadores inorgánicos anteriormente señalados. Para estudiar la influencia de factores tales como el pH y poder “buffer” o tampón del medio corrosivo en la efectividad de los nitrofuroatos, se estudió el comportamiento del NFS como inhibidor de la corrosión del acero en la disolución modelo para diferentes valores de pH y poder tampón de la misma. El aumento del valor de pH de la disolución modelo desde 5,8 hasta 7, 8 y 9 por adición de NaOH, no provoca incrementos apreciables del poder protector según muestran las curvas de polarización presentadas en la Fig. 3. Por el contrario, la preparación de disoluciones modelo con poder tampón a valores de pH 7 y 8 por adición de tetraborato de sodio (bórax) y ácido bórico, o a pH 9 con carbonato e hidrógeno carbonato de sodio, si elevan la capacidad protectora del NFS, lográndose la inhibición a concentraciones menores de 200 mg/L del inhibidor. Es conocido que la pasividad se facilita y fortalece con el aumento del poder tampón de la disolución, debido a que reduce la acidulación de las zonas anódicas en la superficie metálica durante el proceso de corrosión por oxígeno en medios neutros. Figura 3. Influencia del pH y poder tampón de la solución modelo en la acción inhibidora del NFS sobre la corrosión del acero 08kp. Concentración de NFS = 10-3 M (179 mg/L). Otros factores que pueden también facilitar o afectar la acción de estos inhibidores son la presencia o concentración de oxígeno y la velocidad del fluido. En cuanto a la influencia del oxígeno, como se observa de las curvas de polarización representadas en la Fig. 4, este inhibidor no precisa de la presencia del mismo para pasivar al acero (curva de polarización obtenida burbujeando H2), a diferencia de otros pasivadores que si la requieren. No obstante, lo anterior, se estableció que la presencia de oxígeno, así como el aumento de su concentración en la disolución favorece la pasivación con desplazamiento del potencial de corrosión hacia valores más positivos, reducción de la corriente pasiva e incremento de la zona de pasividad. Figura 4. Influencia de la concentración de oxígeno en la polarización anódica del acero 08kp en disolución modelo con 500 mg/L de NFS. Mediante el empleo del electrodo de disco rotatorio a velocidades de 0, 240 y 480 rpm, se comprobó que el incremento de la velocidad de rotación favorece el logro del estado pasivo, como era de esperarse de una mayor velocidad de difusión del oxígeno y de la especie inhibidora hacia la superficie metálica. Como ya se indicó, se evaluaron diferentes mezclas de la sal sódica (NFS) con otras sustancias inhibidoras inorgánicas conocidas como pasivadores o con inhibidores orgánicos de adsorción. Los resultados para mezclas de 200 mg/L de NFS con diferentes inhibidores a 30 y en algunos casos a 50 0C, se muestran en la Tabla 2. Evidentemente todas las mezclas evaluadas resultan favorables si no sinérgicas, ya que la activación que caracteriza al NFS para concentración menor o igual a 200 mg/L (Tabla 1), se transforma en inhibición con la adición de cualquiera de los productos evaluados, al margen de que estos presenten, a las concentraciones evaluadas, acción activadora también. En los casos en que los productos adicionados individuales muestran eficiencia su valor es bajo. El mayor reportado es el del nitrito sódico a 30 0C y concentración de 100 mg/L con menos de 70 % de eficiencia. Por su parte las mezclas suministran valores de eficiencia que superan el 90 % en la gran mayoría de los casos. Tabla 2. Efectividad (, coeficiente de protección y , eficiencia) del NFS en sus mezclas con otros inhibidores en solución modelo para el acero 08kp. Inhibidor Concentración (mg/L) Temp. (0C) Sin NFS   ( %) Con 200 mg/L de NFS   (%) NFS 200 30 - - 0,84 -18,8 Nitrito de sodio 50 100 30 0,96 3,3 -3,2 69,4 10,7 28,2 90,6 96,5 100 150 50 - - - - 9,6 17,9 89,6 94,5 Fosfato trisódico 100 150 30 0,94 2,6 -6,3 60,9 12,0 20,0 91,9 95,0 100 150 50 - - - - 8,3 12,0 88,6 91,7 Bórax-Ácido Bórico hasta pH 7 400 30 0,48 -106  100 Inhibidor Concentración (mg/L) Temp. (0C) Sin NFS   ( %) Con 200 mg/L de NFS   (%) Furfurina 75 100 30 1,9 2,3 44,9 55,8 12 16,2 91,9 93,9 Furfurilamina 485 970 30 1,7 1,8 37,6 41,2 11,0 17,5 90,9 94,4 485 970 50 - - - - 6,2 11,5 82,3 90,4 Resulta de interés hacer notar que el reforzamiento se produce con sustancias pasivadoras como el nitrito o el fosfato y con inhibidores orgánicos de adsorción como la furfurina y la furfurilamina. Esto es probablemente debido a que en ambos casos el mecanismo básico de inhibición de los aditivos es el de bloqueo e inhibición del proceso anódico. No es posible dejar de destacar la mezcla con bórax y ácido bórico a pH 7, la cual de por sí resulta fuertemente activadora, mientras que en su mezcla con NFS proporciona una eficiencia del 100 %. Si bien es cierto que el tetraborato de sodio es considerado un pasivador, la adición de ácido bórico para el ajuste de pH, elimina totalmente su poder inhibidor por lo que el alto efecto protector reportado al adicionar el NFS debe ser consecuencia principal del elevado poder tampón que adquiere la disolución. Por último, en la Tabla 3 se muestran los resultados obtenidos con estas mezclas en agua del sistema industrial de enfriamiento con recirculación de la Fábrica “Coppelia” de La Habana, para los aceros al carbono 08kp y Ct-3 a temperatura de 40º C. Tabla 3. Efectividad del NFS a 200 mg/L en mezclas con otros inhibidores para los aceros 08kp y Ct-3 en agua industrial del sistema de enfriamiento de la Fábrica “Coppelia” a temperatura de 40 0C Inhibidor Vcorrosión (g/m2h) 08kp Ct-3  08kp Ct-3  (%) 08kp Ct-3 - 0,093 0,098 - - - - 100 mg/L nitrito de sodio 0,0043 0,0065 21,4 15 95 93 100 mg/L fosfato trisódico 0,0051 0,0080 18 11,5 94,5 91,8 400 mg/L bórax + ácido bórico pH 7 0,0000 0,0000   100 100 100 mg/L furfurina 0,0012 0,0015 73 62 98,7 98,4 485 mg/L Furfurilamina 0,0060 0,0098 14,6 10 93,5 90 Los resultados alcanzados en estas condiciones se corresponden muy bien con los obtenidos en la solución modelo. El acero de calidad 08kp fue inhibido en casi todos los casos algo mejor que el acero normal de construcción Ct-3 probablemente por su menor contenido de carbono, azufre y otras impurezas. En las mezclas con bórax ambos materiales fueron protegidos al 100 % nuevamente. La prueba industrial se realizó con la mezcla para la cual se disponían las cantidades suficientes de productos para inhibir los 20 m3 de agua de circulación a razón de 200 mg/l de NFS + 100 mg/L de fosfato trisódico, aunque esta mezcla reportó uno de los resultados más pobres en el laboratorio. Las probetas de 08kp se expusieron en los condensadores de amoniaco utilizado como refrigerante en la Fábrica “Coppelia” y en la torre de enfriamiento y se extrajeron parte a los 15 y el resto a los 30 días, obteniéndose eficiencias de 75 y 76,5 % respectivamente, en el condensador y de 81,6 y 80,7 % en la torre donde la temperatura del agua es algo menor y hay una mayor aireación. 4. CONCLUSIONES El ácido 5-nitrofuroico y sus sales (nitrofuroatos) constituyen excelentes inhibidores de la corrosión de los aceros al carbón en medios neutros acuosos. Los nitrofuroatos de cationes orgánicos amínicos inhiben la corrosión del acero a menores concentraciones que la sal sódica, lo cual indica una participación del catión orgánico en el proceso de inhibición. Los nitrofuroatos actúan como despolarizadores catódicos enérgicos logrando, por encima de una concentración critica el cumplimiento de las condiciones para la pasivación espontánea del acero. Por ello la adición insuficiente del inhibidor aumenta la corrosión generalizada pero no provoca la indeseable aparición de picaduras. Entre los factores influyentes en la inhibición por estas sustancias, el poder tampón de la disolución resulta de importancia primordial, aunque el aumento de la concentración de oxígeno y la agitación también son favorables. La mezcla del nitrofuroato de sodio con otros pasivadores inorgánicos o con inhibidores orgánicos de adsorción aminados, refuerza sinérgicamente sus efectividades por separado. La evaluación de la acción inhibidora de la corrosión del acero de una de estas mezclas en un sistema de enfriamiento industrial, con recirculación de agua, arrojó resultados satisfactorios, aun cuando se empleó para la prueba una de las mezclas de menor eficiencia en los ensayos de laboratorio realizados. REFERENCIAS 1. ROBERGE, Pierre. Handbook of corrosion engineering. New York: McGraw-Hill, 2000. 1132 pp. ISBN 0-07-076516-2. 2. DOMÍNGUEZ, Jorge. CASTRO, Dulce María, MATOS, Roberto, HING, Romelia. Introducción a la corrosión y protección de metales. La Habana; Editorial Félix Varela. 2006. 455 pp. ISBN 978-959-261- 2. 3. DEYAB, M. A.; ABD EL-REHIM S. S. “Inhibitory effect of tungstate, molybdate and nitrite ions on the carbon steel pitting corrosion in alkaline formation water containing Cl- ion”, 2007 Electrochemical Acta 53, pp. 1754-1760. Disponible en Web: www.sciencedirect.com 4. MOHANA K. N., BADIEA A. M. “Effect of sodium nitrite-borax blend on the corrosion rate of low carbon steel in industrial water medium”. 2008. Corrosion Science 50, pp. 2939-2947, Disponible en Web: www.sciencedirect.com 5. Wide Tec. Laboratory, División Tratamiento de Aguas Industriales. Inhibidores para Sistemas de Enfriamiento por Agua. [en línea]. Maracaibo. Venezuela. [ref. de 6 de enero 2017] Disponible en Web: http://www.widetec.com.ve 6. SAHIN M., BILGIC S. YILMAZ H. “The inhibition effects of some cyclic nitrogen compounds on the corrosion of the steel in NaCl mediums, 2002. Applied Surface Science 195, pp.1-7, Disponible en Web: www.sciencedirect.com 7. PECH CANOL M. A., BARTOLO-PÉREZ P. “Inhibition effect of N-phosphono-methyl-glycine/Zn2+ mixtures on corrosion of steel in neutral clorhide solution”, 2004. Surface and Coatings Technology 184, pp. 133-140, Disponible en Web: www.sciencedirect.com sobre los autores Juan José Camejo Giniebra: Ingeniero químico. Doctor en Ciencias Técnicas. Profesor asistente en la Facultad de Ingeniería Química, Universidad Tecnológica de La Habana durante más de 45 años. En pregrado imparte las asignaturas “Ingeniería de los materiales, corrosión y protección” y “Seguridad de procesos industriales”. En postgrado imparte varias asignaturas relacionadas con la prevención y control de la corrosión y la gestión de seguridad industrial en instalaciones con peligro de accidente mayor. Es miembro de los comités académicos de las maestrías “Conservación de instalaciones industriales” y “Gestión de riesgos de desastres”, asi como del Comité de Expertos del programa sectorial de ciencia, tecnología e innovación: “Gestión integrada del riesgo de desastres en Cuba” gestionado por la Agencia de Medio Ambiente (AMA) del Ministerio de Ciencia, Tecnología y Medio Ambiente (CITMA) Rigoberto Marrero Águila: Ingeniero químico. Doctor en Ciencias Técnicas. Profesor titular en la Facultad de Ingeniería Química, Universidad Tecnológica de La Habana, en la que ha laborado durante más de 40 años. Profesor principal de la disciplina Ingeniería de Materiales. En pregrado imparte las asignaturas “Ingeniería de los materiales, corrosión y protección” y “Diseño mecánico de equipos”. En postgrado imparte varias asignaturas relacionadas con la prevención y control de la corrosión. Coordinador de la maestría “Conservación de instalaciones industriales”. Es miembro del Consejo Científico de la Facultad. ENSAYOS DE CORROSIÓN ATMOSFÉRICA A EXPOSICIÓN NATURAL Y ACELERADO PARA EL ACERO Autores: Susset Beltrán Martínez. Ingeniero Químico1 Ana Isabel Malleza González. Tec. Medio Electrónica1 1 Centro de Investigación y Desarrollo Técnico. (CIDT), Minint. Teléfonos y correo electrónico: 78584000-78584006; cidt@mn.mn.co.cu RESUMEN No existe una metodología única para el estudio y solución de los problemas de corrosión, por lo que se hace necesario realizar una metodología donde se investigue la influencia de algunos factores ambientales en la aceleración del proceso corrosivo en el acero con y sin recubrimiento, utilizados en la fabricación de equipos y dispositivos electrónicos que se producen en el Centro de Investigación y Desarrollo Técnico (CIDT) para posteriormente establecer una correlación que permita predecir el efecto corrosivo de dichos materiales. Los resultados obtenidos muestran que se presentan dos tipos de atmósfera, una altamente agresiva (zona costera, estación A) y otra de agresividad media (zona urbana, estación B). En ambientes naturales la presencia y concentración de iones sulfato y cloruros dificultan la formación de la capa pasiva en ambas estaciones, siendo más marcada en la A, donde la fuente primaria de contaminación por compuestos de azufre es principalmente el aerosol marino, mientras que en la B fue producto a otras fuentes emisoras. Se reveló en el acero una tendencia hacia la formación de una capa protectora de productos de corrosión en la B, no comportándose así en la A. Se logra establecer la correlación entre los ensayos a exposición natural y acelerados para 240 h en el laboratorio, siendo para el caso A 120 días en tiempo real y en el caso B 270 días. Se logró conformar una metodología propia de trabajo, para la evaluación de la corrosión atmosférica que se produce sobre superficies metálicas. PALABRAS CLAVES: CORROSIÓN; FACTORES INFLUYENTES; CORRELACIÓN; ENSAYOS ACELERADOS O EXPOSICIÓN NATURAL THE REHEARSALS OF ATMOSPHERIC CORROSION TO NATURAL AND QUICK EXHIBITION FOR THE STEEL ABSTRACT An unique methodology doesn't exist for the study and solution of the problems of corrosion, for what becomes necessary to carry out a methodology where the influence of some environmental factors is investigated in the acceleration of the corrosive process in the steel with and without covering, used in the production of teams and electronic devices that take place in the Center of Investigation and Technical Development (CIDT) he/she stops later on a correlation that allows to predict the corrosive effect of this materials to settle down. The obtained results show that two atmosphere types are presented, a highly aggressive one (coastal area, station A) and another of half aggressiveness (urban area, station B). In natural atmospheres the presence and concentration of ions sulfate and chlorides hinder the formation of the passive layer in both stations, being more marked in the A, where the primary source of contamination for made up of sulfur it is mainly the marine aerosol, while in the B product went to other sources radio stations. It was revealed in the steel a tendency toward the formation of a layer protector of products of corrosion in the B, not behaving this way in the A. is possible to establish the correlation among the rehearsals to natural and quick exhibition for 240 h in the laboratory, being for the case A 120 days in real time and in the case B 270 days. It was possible to conform a methodology characteristic of work, for the evaluation of the atmospheric corrosion that takes place on metallic surfaces. KEY WORDS: CORROSION; INFLUENTIAL FACTORS; CORRELATION; QUICK REHEARSALS OR NATURAL EXHIBITION 1 1. INTRODUCCION El esclarecimiento de la acción conjunta de cloruros y sulfatos, constituye en la actualidad un problema no resuelto de acuerdo con lo reportado por las más recientes investigaciones realizadas sobre el tema en Ibero América y en Cuba, resultando de gran interés para nuestros países dada la acción determinante de estos contaminantes en los niveles de corrosividad que se reportan y en las grandes pérdidas que se producen en nuestra economía El presente trabajo, tiene como objetivo fundamental analizar la influencia de algunos factores ambientales en la aceleración del proceso corrosivo en dos de los materiales metálicos (acero y Aluminio) utilizados en la fabricación de productos electrónicos del CIDT, basado en datos ambientales y meteorológicos convenientemente recolectados de diversas atmósferas y la correspondiente caracterización de los diferentes procesos de degradación que puedan manifestarse, para posteriormente establecer una correlación que permita predecir el efecto corrosivo de materiales metálicos empleados. Se presentarán los resultados obtenidos durante un año de exposición, relacionados con el tiempo de humectación, la determinación de iones sulfato y cloruro, así como la pérdida de peso correspondiente al acero y aluminio en dos estaciones de ensayo. 2. DESARROLLO 2.1. Análisis Bibliográfico 2.2 Corrosión Atmosférica 2.2.1. Introducción al fenómeno de corrosión. Aspectos Económicos La corrosión atmosférica es un proceso de naturaleza electroquímica. El electrólito está constituido, bien por una película de humedad extremadamente delgada (unas pocas monocapas) o bien por una película acuosa (de centenares de micrómetros de espesor) cuando el metal aparece perceptiblemente mojado. Se ha demostrado que la humedad relativa (HR) ejerce un papel decisivo en la corrosión atmosférica. Por debajo de un determinado nivel de HR la corrosión es insignificante, pues no existe película apreciable de electrólito sobre el metal. Aun cuando la HR exceda del 80%, para que la velocidad de corrosión sea realmente importante, la atmósfera debe estar, además, contaminada. El cloruro sódico y el dióxido de azufre son los principales contaminantes y agentes corrosivos de la atmósfera. El cloruro sódico se incorpora a la atmósfera desde el mar, siendo sus efectos muy acusados cerca de la orilla, donde el aire transporta grandes cantidades de sal, pudiéndose llegar a producir una continua pulverización de agua. El dióxido de azufre se encuentra en las atmósferas que están impurificadas por humos industriales y residenciales y se origina al quemar combustibles que contienen azufre. Estas dos sustancias químicas estimulan grandemente la corrosión de las superficies metálicas humedecidas, ya que aumentan la actividad de la película acuosa. Así, la corrosión atmosférica en puntos cercanos a la orilla del mar puede exceder considerablemente a lo previsible en el caso de una atmósfera pura. Igual sucede en los complejos industriales, grandes urbes (atmósferas contaminadas por SO2), etc, en cuyos entornos los procesos corrosivos se aceleran notablemente. Cuando se trata de atmósferas con insignificante contaminación, las velocidades de corrosión de los principales metales de construcción, no suelen ser alarmantes. Sin embargo, en el caso de aquellas atmósferas contaminadas con gases no habituales en ellas y con el aerosol proveniente del agua de mar, la contaminación puede alcanzar cotas que hagan peligrar, en tiempos relativamente cortos, la integridad de la estructura o de sus componentes metálicos. A pesar de que la acción de la atmósfera sobre los materiales ha sido objeto de numerosas investigaciones, quedan todavía cuestiones por aclarar sobre los mecanismos, variables y la cinética de la corrosión atmosférica. La corrosión y degradación atmosférica en la condiciones del ambiente natural del clima tropical húmedo de Cuba, se presenta en múltiples aspectos, por lo que su estudio se encuentra muy lejos de agotar las posibilidades de investigación, no solo desde el punto de vista teórico y de los procedimientos, sino por el hecho de que el país se encuentra en los comienzos de la investigación de las peculiaridades y de la medición del alcance de este fenómeno, que tantas pérdidas ha venido ocasionando a la economía nacional. Un reporte del Buró Nacional de Normas de los Estados Unidos estima que los costos por corrosión se encuentran en el orden del 3 al 4% del Producto interno Bruto y que en ello influyen las medidas anticorrosivas que se tomen [1]. Sobre esta base se calculó que para 1975 el total de costos anuales por corrosión en los Estados Unidos fue de alrededor de 70 billones de dólares, lo que correspondió al 4% del Producto Nacional Bruto para ese año. En un trabajo anterior, [2] se hace referencia a los costos por corrosión anual estimados al 2 considerar el 3.5% del PIB y se señala que constituye una aproximación por defecto, si se toma en consideración los elevados niveles de corrosividad existentes en Cuba en comparación con otros países, tal y como se observa en los Mapas de Ibero América, [3] además de la insuficiente aplicación de medios de protección anticorrosiva dado entre otras causas por el bloqueo y las limitaciones de recursos, proponiéndose el 4% de pérdidas por corrosión. Tomashov demuestra que el 50% de los costos por corrosión, corresponden a la corrosión atmosférica. [4] En los estudios sobre corrosión atmosférica a nivel mundial, la determinación de las pérdidas por corrosión a partir de estos indicadores es muy frecuente, sin embargo, no se poseen estos datos para Cuba, exceptuando lo abordado por Echeverría [5] en la década del 90. 2.2.2. Agresividad corrosiva de la atmósfera La agresividad corrosiva de la atmósfera es un factor de gran importancia cuando se proyectan y construyen nuevas inversiones, se realizan investigaciones sobre métodos de protección y se proyectan sistemas de recubrimiento, entre otras aplicaciones. [6] De acuerdo con Morcillo, [3] los principales factores que operan en la corrosión atmosférica son: • Factores externos, meteorológicos y de contaminación del aire. • Condiciones de exposición que permitan el libre acceso del medio corrosivo a la superficie expuesta a la atmósfera, almacenamiento en caseta o bajo abrigo ventilado, en las cuales el metal sólo se humidifica por el rocío o el contacto accidental con la lluvia. • Factores internos, como naturaleza y propiedades electroquímicas del metal, así como características de los productos de corrosión. En una investigación precedente, [2] se determinó la agresividad corrosiva para el acero en la Universidad de Matanzas, clasificándose para un período, de Alta tipo C4 y donde se obtuvo un comportamiento similar al observado en la década de 1980. La velocidad de corrosión se determina por los parámetros meteorológicos como: temperatura, humedad relativa, precipitaciones, velocidad y dirección de los vientos, así como por la naturaleza de los contaminantes. [4] Los compuestos de azufre, representados fundamentalmente por los iones sulfato provenientes del aerosol marino y el sulfuro de hidrógeno (H2S) característico de la zona, así como el cloruro de sodio (NaCl) son los agentes corrosivos más corrientes de la atmósfera. Los iones cloruro se incorporan desde el mar y sus efectos más importantes tienen lugar cerca de la línea de costa. [3,6] Lejos del mar, la contaminación atmosférica depende de la presencia de industrias y de núcleos poblacionales. En este caso, el principal contaminante sobre el proceso corrosivo es el SO2, que proviene de la combustión de sólidos y líquidos que contienen azufre. [4] El estudio de la corrosión atmosférica del acero de bajo contenido de carbono dada su amplia utilización en las industrias, y las características meteorológicas y aeroquímicas de la atmósfera de Cuba, constituyó uno de los objetivos principales de la investigación como fuente de información valiosa para el control de la calidad de los aceros que es necesario emplear en condiciones de agresividad corrosiva. Los objetivos que persiguió el trabajo consistieron en determinar la velocidad de corrosión anual del acero durante un año de exposición, en dos estaciones de ensayo en una zona costero-industrial de Cuba y en una zona urbana- industrial, estimar los niveles de contaminación por iones cloruro y sulfato, según la atmósfera presente en cada estación de ensayo, estudiar la cinética del proceso de corrosión del acero. Resulta por tanto de interés determinar la agresividad corrosiva de la atmósfera en las dos zonas seleccionadas, una ubicada a 100 metros de la costa norte y la otra alejada de la costa. 2.2.3. Influencia del aerosol marino en la corrosión Corvo y col. plantean que en Cuba, la influencia de los cloruros, provocados por el aerosol marino, es muy significativa en la elevación de la velocidad de corrosión y una vez que ya está formada la capa, existe un proceso de adsorción competitiva entre los cloruros y los sulfatos. Por otra parte, se distinguen 2 períodos cualitativamente diferentes en el año: temporada invernal o de seca (octubre a marzo), con gran influencia de 3 los vientos del norte-nordeste que producen rompientes en la costa, y por ende, grandes concentraciones de aerosol marino en el aire, suficientes para incrementar drásticamente la corrosividad y la temporada de lluvias o de verano (abril a septiembre), donde los vientos provenientes del sur originan rompientes y cabrillas de poca envergadura. [7] En la literatura consultada, [2, 3, 7, 8, 9] se demuestra la influencia del aerosol marino en la magnitud de la corrosión atmosférica, coincidiendo la casi totalidad de los autores, en las publicaciones más recientes, que el principal responsable de esta acción es el ión cloruro. Sin embargo, reconociendo que el aerosol marino es sal de mar y que en ella están presentes además de los cloruros, los iones sulfatos y como señala Gómez, [4] los diferentes estudiosos de la corrosión atmosférica están de acuerdo totalmente que el sulfato ferroso y demás contaminantes salinos juegan un papel importante en el mecanismo de la corrosión atmosférica del hierro y el acero, llama la atención la poca referencia a este contaminante cuando se estudia la influencia del aerosol marino. En este trabajo se investiga la influencia de este contaminante conjuntamente con el cloruro en el proceso de corrosión. 2.2.4. Ensayos de Corrosión Acelerada El propósito de un ensayo de corrosión acelerada de un producto en cámara salina es duplicar a escala de laboratorio su comportamiento para la evaluación de nuevos recubrimientos metálicos, de pinturas y de diferentes tratamientos químicos y de pre pintado. En el caso del ensayo de niebla salina, nadie ha sido capaz de demostrar la relación con ningún tipo de exposición al ambiente, sin embargo, se continúa empleando. Los resultados típicamente citados en los libros dan el tiempo de vida de un determinado tipo de recubrimiento y los beneficios de nuevos sistemas de pintura. 3. Materiales y Métodos 3.1 Corrosión atmosférica para diferentes períodos de exposición y agresividad corrosiva de la atmósfera. Clasificación de la corrosión 3.1.1. Estudios de campo. La estación de Ensayo Se seleccionan dos zonas geográficas diferentes para realizar el ensayo de manera tal que se represente la variabilidad en la atmósfera. • Estación A: Laboratorio de ensayos de tropicalización (LABET) ubicado en Carretera del morro # 7246 Km 2 1/2, Cojimar, Habana del este, a 100m de la costa norte. • Estación B: En el CIDT, ubicada en la Calle E # 20724 entre 2da y Carretera Varona alejada de la costa norte. Para determinar el grado de corrosividad presente, en correspondencia con la Norma ISO 9223 [7], se determinan contaminantes atmosféricos (cloruros y sulfatos) por dos tipos de captadores (filtracita y bujía húmeda), métodos establecidos por la Norma ISO 9225, [10] pero con modificaciones como se explica más adelante. El ensayo se realiza en áreas que cumplen con lo establecido en la Norma ISO 8565, [8] siendo esta una zona marina, y un área representativa de las condiciones climáticas existentes en la zona urbana-industrial. 3.1.2. Determinación de la velocidad de corrosión Se emplea como material de ensayo probetas de acero (CT-3) de bajo contenido de carbono, como se observa en la tabla 1 y dimensiones de 150*100*1 mm, con preparación previa y exposición a la intemperie de acuerdo con la Norma ISO 8565, [8]. Los períodos de exposición a la atmósfera fueron de uno, dos, tres, seis meses, ocho meses, desde diciembre de 2016 hasta septiembre 2017. Tabla 1. Composición química del acero CT-3. Elemento Fe C Si Mn P S Cr Ni Cu Composición (%, p/p) 98.16 0.20 0.14 0.80 0.040 0.05 0.01 0.03 0.3 4 3.1.2.1. Preparación de probetas El marcado de las probetas de prueba para su identificación, que debe ser legible y duradero durante todo el período de exposición, se realiza según lo establecido en el proyecto Mapa Iberoamericano de Corrosión Atmosférica (MICAT). [3] Las dimensiones de las probetas se determinan empleando un pie de rey, se preparan mecánicamente y se identifican con perforaciones. Se desengrasan con solvente orgánico, se limpian con agua destilada y se secan rápidamente. Se empaquetan y guardan en desecadora, empleando como agente deshidratante silicagel. Pasadas las 24 h se pesan en balanza analítica y nuevamente regresan a la desecadora hasta el inicio de la exposición en la estación de ensayo. Las probetas se expusieron por triplicado [8] y una vez finalizado el período de exposición, las oxidadas se sometieron a tratamiento químico. [11] 3.1.2.2. Modos de exposición Las muestras de acero al carbono fueron preparadas según lo establecido. [8] Fueron expuestas en soportes de prueba a la intemperie, a no menos de 1 m del piso e inclinadas a 45º de la vertical, con sus anversos orientados hacia el sur según lo normado. [9] Para determinar la velocidad de corrosión se utilizó acero al carbono de 4 mm de espesor. Las muestras correspondientes a los diferentes métodos de captación de los contaminantes se expusieron en casetas específicas para su estudio durante 1 mes de exposición. Para el SO2, se empleó la filtracita de área conocida que captó los óxidos de azufre y otros compuestos de carácter ácido. Se determinaron los compuestos de azufre que se convirtieron en sulfatos y la velocidad de deposición en mg/(m2*d). La determinación de cloruros se realizó mediante la técnica de la bujía húmeda y la cantidad de cloruros depositada por análisis químico. La velocidad de deposición se expresó igualmente que para el SO2. [10,12,13] Se aclara que en el estudio, la determinación de SO2 que se reporta es limitada por no haber podido cuantificar otras formas de compuestos de azufre a nivel de laboratorio y además durante la experimentación ocurrió un fenómeno meteorológico que voló las muestras y los captadores, por lo que se tuvo que asumir los valores de contaminación final según la tendencia ascendente que mostraban. La estimación de las categorías de corrosividad de la atmósfera se realizó a partir de la corrosión promedio anual de las estaciones en el año de exposición, según ISO 9223. [7] 3.1.2.3. Determinación de la pérdida de peso Una vez finalizado el período de exposición, los productos de corrosión formados son separados del anverso y reverso de las probetas para la posterior determinación de los contaminantes, cumpliendo con los requisitos de la Norma ISO 8407 [11]. Posteriormente, son sometidas a un proceso de desoxidación realizando una limpieza química, que debe ser repetida por ciclos de intervalos de tiempo iguales, la cual consiste en sumergir la probeta en una solución química para su limpieza, sin que se disuelva el metal base; para finalmente determinar las pérdidas por corrosión que se obtienen por el método gravimétrico, en correspondencia con la Norma ISO 9226 [9]. Este consiste en pesar las probetas antes y después de realizado el ensayo de resistencia a la corrosión, en balanza analítica (RADWAG) con una precisión de 0.1 mg, Para el cálculo se tuvo en cuenta que la desviación del promedio aritmético no excediera el 10 % de la media aritmética [2]. 3.1.3. Determinación de la velocidad de deposición de cloruros y sulfatos por diferentes captadores Para la evaluación de los contaminantes, como fue analizado en el análisis bibliográfico, resulta de interés realizar la determinación de ambos contaminantes en cada uno de los captadores más utilizados (filtracita, y bujía húmeda). [2, 3, 8,10, 11,13, 14-18, 19]. En correspondencia con lo antes planteado se determinó la velocidad de deposición de iones cloruros y sulfatos por el método de la filtracita y la bujía húmeda; el primero de estos captadores, específico para la determinación compuestos de azufre y el otro para la determinación de cloruros, tal y como establece la Norma ISO: 9225 [10]. 5 3.1.3.1. Método de la Filtracita Los óxidos de azufre (SOx) y otros compuestos de azufre con características ácidas son captados sobre superficies alcalinas de platos de filtros porosos, saturados en una solución de carbonato de sodio o de potasio, siendo este el material de ensayo en dicha determinación. Este captador tiene forma de cuadrada, con un área expuesta de 0.024 m2. Los períodos de exposición a la atmósfera son de un mes y se realizó el ensayo desde diciembre de 2015 hasta septiembre 2016. 3.1.3.2. Método de la Bujía Húmeda (Vela Húmeda) Este captador es específico para la determinación de cloruros. La bujía húmeda está formada por un frasco de 500 mL, en el interior del cual se inserta un tubo de material inerte con diámetro interno de 25 mm, cubierto con una gasa quirúrgica doble. El tubo tiene una largo de 120 mm, que corresponde a un área superficial expuesta a la atmósfera de aproximadamente 100 cm2. Al no poseer el tubo de dichas dimensiones se realizó un diseño con acrílico de área cuadrada con dichas dimensiones y un vástago que permitía introducir la gasa quirúrgica al interior del elermeyer que contenía la solución. Los períodos de exposición a la atmósfera son de un mes y el trabajo abarcó el período de ensayo de diciembre del 2015 a septiembre 2016. La bujía húmeda se expone en un soporte, debajo del centro del techo, según la ISO 9225 [10]. La cantidad de cloruro en una muestra se determina por titración (valoración) mercurimétrica en presencia de un indicador mixto (bromofenol azul-difenilcarbazona). El punto final de la titración está indicado por la formación de un complejo azul violeta de mercurio-difenil-carbazona en el intervalo de ph (2.3-2.8). La técnica fue aplicada según el procedimiento analítico establecido en la norma. Para el procesamiento de los datos experimentales se utilizó el Software EXCEL, el cual permitió realizar los cálculos y gráficos correspondientes, conjuntamente con este el STATGRAPHICS 6.1, para el análisis estadístico (pruebas de hipótesis y obtención de modelos de regresión). 4. Ensayos de Corrosión Acelerada 4.1. Procedimiento del Ensayo de Niebla Salina Básicamente, el procedimiento involucra el pulverizado de una solución salina sobre las muestras a ensayar. Esto se hace en una cámara con temperatura controlada. El medio es una solución salina al 5% (cloruro de sodio – NaCl). Las muestras a ensayar son introducidas a la cámara, luego la solución salina es pulverizada como una niebla muy delgada sobre las muestras. La temperatura en la cámara se mantiene en un nivel constante. Como el pulverizado es continuo, las muestras están húmedas constantemente, y por eso están sujetas a la corrosión constantemente. A través de los años, se han agregados nuevos cambios para estimular mejor las condiciones ambientales especiales, pero el proceso más común en Norte América es el ensayo descrito en la norma ASTM B 117, Normas Prácticas para la Operación de Aparatos de Niebla Salina. En resumen, el proceso es: • La cámara de niebla salina contiene bastidores de acrílico en su interior. • Colocar las muestras en los bastidores de acrílico con un pequeño ángulo de inclinación. • El agua con 5% de NaCl es bombeada de un compartimento lateral que posee la cámara hacia las boquillas de pulverizado. • La solución humedecida es mezclada con aire comprimido en las boquillas. • El aire comprimido en las boquillas atomiza la solución NaCl en niebla. • Las resistencias eléctricas mantienen la temperatura de la cabina a 35 ºC (95°F). • La duración de la ensayo puede ser desde 24 h hasta 1000 h o más para algunos materiales. Cuando el ensayo de niebla salina es usado para planchas de acero con recubrimiento metálico el comportamiento de la corrosión debe ser evaluada de las siguientes formas: • Número de horas hasta que la corrosión del acero se hace evidente. • Número de horas hasta que 5% de la superficie está corroída. • Número de horas hasta que 10% de la superficie está oxidada, etc. 6 5. Resultados y discusión 5.1. Agresividad Corrosiva de la Atmósfera La agresividad corrosiva de la atmósfera se determina a partir de los datos promedios anuales históricos. En las tablas 2 y 3, se muestran los resultados del estudio de corrosión atmosférica en la estación A y B respectivamente, desde diciembre del 2015 hasta septiembre del 2016. En las mismas aparecen las pérdidas por corrosión del acero para períodos mensuales, de dos, tres, seis y ocho meses, así como los valores promedios, máximos y mínimos en ese período. Tabla 2: Pérdidas por Corrosión del Acero (g/m²) en Estación de Ensayo de Cojimar (A). Período de diciembre de 2015 a septiembre 2016. Meses/Año Período de los Ensayos Mensual 2 Meses 3 Meses 6 Meses 8 Meses Diciembre/15 140.5638 Enero 173.168 204.6636 Febrero 193.9920 380.2952 Marzo 173.2543 206.8422 Abril 162.0488 Mayo 148.5501 206. 5348 344.5235 729.6412 Junio 144.3274 Julio 144.0157 202.129 945.5236 Agosto 141.4616 362.5501 Septiembre 145.7032 201.0856 Octubre - Noviembre/16 - Promedio 156.708 204.251 362456 729.6412 945.5236 Máximo 193.9920 206.8422 380.2952 Mínimo 140.5638 201.0856 344.5235 La agresividad corrosiva de la atmósfera se determina a partir de los datos promedios anuales históricos, pero al no poder determinar los valores de los meses restantes debido al fenómeno meteorológico. Tabla 3. Pérdidas por Corrosión del Acero (g/m²) en Estación de Ensayo de CIDT (B). Período de diciembre de 2015 a septiembre 2016. Meses/Año Período de los Ensayos Mensual 2 Meses 3 Meses 6 Meses 8 Meses Diciembre/15 50.5626 Enero 62.0570 102.5525 Febrero 43.9821 180.8992 Marzo 43.8169 106.4861 Abril 42.0199 133.4124 Mayo 37.5528 106.4384 239.6147 Junio 42.2273 141.4400 Julio 42.3029 101.092 397.6414 Agosto 41.1554 Septiembre 40.8910 100.9817 Octubre - Noviembre/16 - Promedio 44.656 103.510 151.917 239.6147 397.6414 Máximo 62.0570 106.4861 180.8992 Mínimo 37.5528 101.092 133.4124 Además, se valora que siguiendo la tendencia de la curva de las figuras 1 y 2, el valor promedio anual será mayor que 945.5236 (g/m²), por lo que según la clasificación de la corrosividad atmosférica [7] se establece que para velocidades de corrosión dentro del intervalo 650 < Vc ≤ 1 500 [g/(m2*a)], la estación A posee una alta agresividad (C5), mientras que la estación B posee una agresividad media (C3), pues el valor promedio 7 anual será mayor que 397.6414 (g/m²) (figura 3), lo que corresponde con una Agresividad Corrosiva media correspondiente al intervalo de 200< Vc =400 según la clasificación internacional. Figura 1. Comportamiento promedio de las muestras, estación A. Figura 2. Comportamiento promedio de las muestras según la estación Invierno/Verano en la Estación A. Figura 3. Comportamiento promedio de las muestras, estación B. Los valores obtenidos de velocidad por corrosión deben ser tomados en consideración por las pérdidas que se producen, más aún en esta zona, próxima a la costa norte, con gran influencia del aerosol marino; lo cual provoca que el proceso corrosivo sea aún más intenso en presencia de los contaminantes cloruros y sulfatos, unido a la alta humedad relativa, propio de nuestro país. Esto es de gran importancia para la toma de medidas de protección anticorrosivos y a la hora de preparar y seleccionar esquemas de pinturas ferroprotectoras, etc 0 200 400 600 800 1000 1 mes 2 meses 3 meses 6 meses 8 meses Δ P(g/ m2) 0 50 100 150 200 250 Comportamiento de la velocidad de corrosión (ΔP) en muestras expuestas en 10 meses. Seri… 0 100 200 300 400 500 1 mes 2 meses 3 meses 6 meses 8 meses ΔP(g/m2 ) 8 Se destaca que esta agresividad es en función de un material metálico desnudo, es decir, sin ningún tipo de recubrimiento, teniendo en cuenta la ISO 9223 en relación con el acero al carbono. En las figuras 2 y 4 se puede observar el comportamiento similar de la velocidad de corrosión de las muestras mensualmente expuestas en ambas estaciones A y B. En ambos se pone de manifiesto que en el período invernal se acrecientan los procesos corrosivos y en el verano tiende a disminuir, esto es debido a que en el invierno o período de seca (octubre-marzo) existe gran incidencia de los frente fríos los cuales transportan mediante los vientos los contaminantes y en el verano o período de lluvia ocurre un lavado de los contaminantes sólidos y gaseosos sobre la superficie metálica, lo cual se corresponde con estudios anteriores realizados [20]. Para un tiempo igual de actuación, el rocío puede ser más perjudicial que la lluvia, ya que las gotas de rocío no escurren de la superficie metálica a diferencia de la lluvia que ejerce una acción de lavado y arrastre de contaminantes. Figura 4. Comportamiento promedio de las muestras según la estación Invierno/Verano en la Estación B. Figura 5. Comportamiento de la velocidad de corrosión en función de los contaminantes cada dos meses de exposición. 0 10 20 30 40 50 60 70 Comportamiento de la velocidad de corrosión (ΔP) en muestras expuestas en 10 meses 0 500 1000 DICIEMBRE FEBRERO ABRIL JUNIO AGOSTO Pérdidas por Corrosión del Acero (g/m²) en Estación de Ensayo de Cojimar (A) con influencia de los contaminantes atmosféricos Serie 1 Serie 2 Serie 3 Serie 4 Serie 5 9 Figura 6. Comportamiento de la velocidad de corrosión en función de los contaminantes cada dos meses de exposición. En las figuras 5 y 6 se expone la curva de velocidad de corrosión contra los meses de exposición para muestras tomadas cada dos meses en ambas estaciones. Con ello se comprueba cómo influye la deposición de los contaminantes atmosféricos en la velocidad de corrosión según período expuesto, comprobándose que en la estación A esta variación es muy pequeña con relación a la velocidad promedio del año, lo que indica que la incidencia mensual de los contaminantes atmosférico es permanente y en el caso de la estación B existe una variación mayor con relación a la velocidad promedio de corrosión pues en esta influyó la variabilidad de la deposición de los contaminantes según los meses expuestos, debido a que en esta zona es de menor la agresividad manifestada. 5.2. Determinación de la velocidad de deposición de iones sulfato (NC: 93-01-118) La determinación de sulfato puede realizarse a través de una técnica volumétrica, aunque cualquier otro procedimiento analítico que tenga una buena precisión puede ser usado, tal es el caso de métodos gravimétricos y espectrofotométricos, según la Norma ISO 9225[10]. En el presente trabajo los datos fueron entregados por el CENIC entidad que se encargó de realizar el ensayo por contratación. En la tabla 4 se muestran los valores de la velocidad de deposición de los iones sulfatos, captados por la bujía húmeda determinada como se indica por las Normas Internacionales. Tabla 4. Determinación de la velocidad de deposición de los iones sulfatos Deposición del SO2 [mg/(m2d)] Meses de exposición Dic/15 Enero Febrero Marzo Abril Mayo Junio Julio Agosto Punto A 36.50 - 39.95 34.98 33.68 36.65 31.96 27.98 26.32 Punto B 33.35 - 32.04 31.75 30.18 29.07 26.68 25.4 24.69 • Promedio de la velocidad de deposición de SO2 [mg/(m2 d)] en el Punto A: 33.50 • Promedio de la velocidad de deposición de SO2 [mg/(m2 d)] en el Punto B: 29.14 Se debe señalar que el nivel de captación la bujía húmeda posee mucha variabilidad, debido a la evaporación excesiva y secado en ocasiones de la gasa y al encontrarse alejada la estación A requeríamos de los servicios de la institución en la cual estaba instalada. 5.3. Determinación de la velocidad de deposición de iones cloruros (ISO 9225) En la tabla 5 se muestran los valores con relación a los iones cloruros. 0 100 200 300 400 500 Diciembre Febrero Abril Junio Agosto Pérdidas por Corrosión del Acero (g/m²) en Estación de Ensayo del CIDT (B) con influencia de los contaminantes atmosféricos. Serie 1 Serie 2 Serie 3 Serie 4 Serie 5 10 Tabla 5. Determinación de la velocidad de deposición de los iones cloruros Deposición del Cl- [mg/(m2d)] Meses de exposición Dic/15 Enero Febrero Marzo Abril Mayo Junio Julio Agosto Punto A 338.72 408.22 476.79 452.12 358.22 352.26 252.21 249.58 232.54 Punto B 37.35 33.25 32.04 31.75 30.18 28.37 26.68 24.5 21.69 • Promedio de la velocidad de deposición de Cl- [mg/(m2*d)] en el Punto A: 346,74 • Promedio de la velocidad de deposición de Cl- [mg/(m2*d)] en el Punto B: 29,53 De acuerdo con la clasificación establecida para la contaminación atmosférica por iones, Cl- y SO4-, se obtuvieron en el estudio los niveles más elevados de velocidad de deposición de iones cloruro en la estación A (muy cercana a la línea de costa), con 476.79 mg/(m2*d) catalogada como S3 y el mayor valor promedio de velocidad de deposición de SO2 se encontró en la misma estación (39.95 mg/m2*d), por lo que fue clasificada como P2 por lo que se obtiene que la principal fuente de compuestos de azufre en la estación A fue el aerosol marino [7]. La estación B presenta en el estudio las menores velocidades de deposición de contaminantes Cl- y SO2: 21.69 mg/(m2*d) (S1) y 25.4 mg/(m2*d) (P1), respectivamente. En la estación A aproximadamente un 10 % de la contaminación proviene del aerosol marino y el resto es de otras fuentes [14]. Según la clasificación de la corrosividad atmosférica, [7] se establece que para velocidades de corrosión dentro del intervalo 650 < Vc ≤ 1 500, [g/(m2*a)], la estación A poseen una alta agresividad (C5), mientras que la estación B posee una agresividad media (C3) (Tabla 5 y 4 respectivamente). Hay que observar aquí, como se planteó con anterioridad, que al emplearse para la captación del dióxido de azufre el método de la filtracita y para los cloruros el método de la Tela Seca y bujía húmeda, siempre existirá una mayor concentración de sulfato por las características del captador, lo cual tiene por tanto incidencia en el análisis de los resultados. 5.4. Relación Cloruro/Sulfato Al determinar las relaciones Cloruro / Sulfato para los dos captadores, en el caso de la estación A esta relación da mayor a 7 lo que se corresponde con que la mayor contaminación la aporta el ión Cl- que arrastra el aerosol marino mientras que en la estación B el valor es menor a 7, lo que indica que la concentración de ión sulfato es mayor que la que corresponde al sulfato procedente del aerosol marino y por tanto hay presencia de sulfato de otras fuentes diferentes de la marina. La causa principal de las elevadas velocidades de corrosión que tienen lugar en la estación A, se debe a la deposición de partículas del aerosol marino, constituidas tanto por iones cloruro como iones SO42-, además existe influencia de otras fuentes emisoras de compuestos de azufre. Se señala que la acción conjunta de los contaminantes estudiados cataliza la corrosión del acero y que el poder corrosivo de los SO42- aumenta al asociarse a los iones Cl-, [16] aunque prevalece la acción de los iones cloruro (estación costera). 5.5 Ensayo de Niebla salina Las muestras de acero al carbono fueron preparadas según lo establecido. [8]. Se colocan en el interior de la cámara una vez pesadas. Se comienza la experimentación fijando los parámetros antes descritos. Exposición a la cámara de niebla salina neutra, según la norma IEC 600-68-2-11 • Temperatura de la resistencia 42°C • Temperatura de la cámara en el interior 35-37°C • Presión de flujo de la solución salina 20 lb/m2 • Humedad relativa 80.1 Se realizó la experimentación en 10 ciclos de 24h, 8h con spray y 16 con intermitencia, obteniendo los resultados que se exponen en la tabla 6. 11 Tabla 6. Capa de óxido formada en el acero Material Tiempo Aproximado de formación de capa óxido 5 % 10 % Acero 72 h 168 h La pérdida de peso correspondiente al acero sin recubrimiento en este tiempo establecido fue de 459.5594 g/m² En el caso de la estación B, al extrapolar la recta de la Figura 3 debe corresponderse con valores aproximadamente cercano a los 9 meses, es decir 270 días de exposición en tiempo real, mientras que en el caso de la estación A, la ventaja que se presenta es la rapidez con que se puede tener resultados certeros puesto que los 10 ciclos se llevan a cabo en 240 horas aproximadamente en el laboratorio, ya que los 10 ciclos de exposición en la cámara de simulación acelerada equivalen a 4 meses o 120 días en tiempo real. La correlación se realiza de forma directa, con valoraciones desde el punto de vista de factor humano. En la actualidad estas correlaciones se realizan a través comparaciones microscópicas, donde se emplean técnicas instrumentales de última generación como el microscopio electrónico de barrido (MEB), el difractómetro de rayos X (DRX), entre otras, que permiten establecer las diferentes fases por las que trascurre el material durante el proceso de corrosión, ya sea en vida real como en condiciones de laboratorio. No obstante, la cámara salina sigue siendo para muchos investigadores una técnica no fiable para correlacionar estos valores, ya que en esta la superficie de las muestras están húmedas constantemente, sin ciclo de secado, lo que no sucede en el campo o ambiente externo, la temperatura de la cámara de ensayo es constante a 35 º C (95°F), lo que aumenta el transporte de agua, oxígeno y el ion cloruro comparado con el medio externo y el contenido de cloruro es muy alto (5%). 6. CONCLUSIONES El trabajo realizado permitió: • Clasificar la agresividad corrosiva de las estaciones de ensayo: A de muy alta agresividad (categoría C-5), B de agresividad media (categoría C-3). • La acción catalítica conjunta de los iones Cl- y el SO42- sobre la corrosión del acero en las estaciones estudiadas, resulta más marcada en la estación A. La fuente primaria de contaminación por compuestos de azufre en la estación A, es principalmente el aerosol marino, mientras que en la B proviene de otras fuentes emisoras. • Se corroboró que en la temporada de invierno las velocidades de corrosión son mayores que en la temporada de verano en ambas estaciones. • Se logra establecer la correlación entre los ensayos a exposición natural y acelerados siendo para el caso de la estación A de alta agresividad corrosiva, 240 h en el laboratorio representa 120 días en tiempo real y en el caso de la estación B, 240 h en el laboratorio representa 270 días en el tiempo real. • Se logró conformar una metodología propia de trabajo, para la evaluación de la corrosión atmosférica que se produce sobre superficies metálicas. 7. RECOMENDACIONES • Extender la experiencia obtenida para la evaluación del deterioro de los recubrimientos orgánicos comúnmente utilizados para la protección de metales, con esto se podrá tener una evaluación más precisa y rápida de lo que se ha logrado hasta la fecha. • Realizar el ensayo acelerado siguiendo la norma IEC 600-68-2-52 que es la que actualmente se está aplicando para este tipo de estudios. • Realizar este estudio en la nueva cámara adquirida por nuestro centro pues según la literatura los datos reunidos en dos cámaras diferentes, presentan una alta variación, a pesar que son diseñadas idénticamente y operan de acuerdo a las recomendaciones. 12 8. REFERENCIAS BIBLIOGRAFICAS 1. Díaz I, Morcillo Ml, De la Fuente M. Corrosión atmosférica de aceros patinables de nueva generación. [Memoria para optar por el grado de doctor en Ciencias], Centro Nacional de Investigaciones Metalúrgicas, España. Noviembre de 2012. 2. Morcillo M. Corrosión y protección de metales en las atmósferas de Iberoamérica. Parte I. Mapas de Iberoamérica de corrosividad atmosférica. 1.a ed. Madrid, España: Editorial CYTED 1999: p.1-21. 3. Schweitzer PA. Fundamentals of metallic corrosion. Atmosphere and media corrosion. United States of America: Taylor and Francis Group; 2007: p.45-46. 4. Gómez JL. Estudio corrosivo sobre cuatro metales en estaciones cubanas del proyecto MICAT. [Tesis doctoral en Ciencias Químicas] Ciudad de La Habana, junio de 2000. 5. Ma Y, Li Y, Wang F. The atmospheric corrosion kinetics of low carbon steel in a tropical marine environment. Corrosion Science. 2010; (52): 1796-1800. 6. Schweitzer PA. Fundamentals of corrosion. Mechanisms, causes and preventive methods. United States of America: Taylor and Francis Group; 2010: p.83-84. 7. ISO 9223 192-02-15: 1992: Corrosion of metals and alloys. Corrosivity of atmospheres. Classifications. 8. ISO 8565:1992: Metals and alloys. Atmospheric corrosion testing. General requirements for field tests. 9. ISO 9226:1992: Corrosion of metals and alloys. Corrosivity of atmospheres. Determination of corrosion rate of standard specimens for evaluation of corrosivity. 10. ISO 9225: 1992: Corrosion of metals alloys. Corrosivity of atmospheres. Measurements of pollution. 11. ISO/DIS 8407-3:1986: Metals and alloys. Procedures for removal of corrosion products from corrosion test specimens. 12. NC-12-01-08: 1988: Sistemas de normas para la protección contra la corrosión. Determinación del contenido de dióxido de azufre en la atmósfera. Método de análisis químico. 13. NC-12-01-09: 1988: Sistemas de normas para la protección contra la corrosión. Determinación del contenido de cloruros en la atmósfera. Método de análisis químico. 14. Echeverría E, Echeverría CA. Determinación de iones cloruro y sulfato en un mismo captador en investigaciones de la corrosión atmosférica. Revista CNIC Ciencias Químicas, 40,1; 2009:11-16. 15. Vargas A, Aperador W, Ortiz C, Betancurt, J D, Chaur-Jeng W. Estudio de la corrosión en ambiente marino de aleaciones del sistema Fermanal mediante técnicas electroquímicas. Revista Latinoamericana de Metalurgia y Materiales. [en línea]. Julio, 2009 [Consultada 16 de abril de 2013]. 16. Corvo F, Pérez T, Martin Y, Reyes J, Dzib LR, González-Sánchez J, Castañeda A. Time of wetness in tropical climate: Considerations on the estimation of TOW according to ISO 9223 standard. Corrosion Science. 2008; 50: 206-219. 17. Castaño JG, Botero CA, Restrepo AH, Agudelo EA, Correa A, Echevarría F. Atmospheric corrosion of carbon steel in Colombia. Corrosion Science. 2010; 52: 216-223. 18. Syed S. Atmospheric corrosion of hot and cold rolled carbon steel under field exposure in Saudi Arabia. Corrosion Science. 2008; 50: 1779-1784. 19. Morcillo M. y otros: Corrosión y Protección de Metales en las Atmósferas de Iberoamérica. Parte I. Mapas de Iberoamérica de corrosividad atmosférica. (Proyecto MICAT). Editor Programa CYTED 1998. Págs. 787. 20. Echeverría, C.A. y Col. 2002. Corrosión Atmosférica del Acero en Condiciones Climáticas de Cuba: Influencia del Aerosol Marino. ISBN: 959 – 16 – 0188 – 3. 32 p. (monografía). Sobre los autores Susset Beltrán Martínez: Labora en el Centro de Investigación y Desarrollo Técnico y se desempeña como Jefa de Grupo en una Unidad Organizativa de dicho Centro. Graduada de Ingeniera Química. Posee la categoría científica de Investigador Agregado. Cursa la maestría de mantenimiento y Reparación de las Instalaciones Industriales en la Cujae. Pertenece a la Sociedad Cubana de Química. Ana Isabel Malleza González: Labora en el Centro de Investigación y Desarrollo Técnico y se desempeña como Jefa de Grupo en una Unidad Organizativa de dicho Centro. Graduada de Técnico Medio de Electrónica. CONDICIONES DE ALMACENAMIENTO Y PRETRATAMIENTO DE FUENTES ORGÁNICAS PARA LA EXTRACCIÓN DE ÁCIDO HÚMICO M. Sc. Irina Pedroso Rodríguez1, Dr. C. Jesús Luis Orozco1, Dr. C. Lourdes Yamen Gonzáles Sáez1, Dr. C. Liz Pérez Martínez1 1Facultad de Ciencias Técnicas, Universidad de Matanzas, km 3 ½ Carretera a Varadero, Matanzas, Cuba 1e-mail: irina.pedroso@umcc.cu RESUMEN El aumento de la población humana ha llevado a un cultivo intensivo sin reponer adecuadamente los nutrientes del suelo. Los fertilizantes químicos han sido reclamados como el contribuyente más importante para el aumento de la productividad agrícola, con el consiguiente aumento de los costos de producción y degradación de los suelos por manejos inadecuados. De ahí la necesidad de buscar alternativas de fertilizantes que mejoren la calidad del suelo y el desarrollo de las plantas. Las sustancias húmicas son un ejemplo de estos fertilizantes orgánicos, donde el ácido húmico es el componente activo. El objetivo del trabajo es determinar las condiciones de almacenamiento y pretratamiento de fuentes orgánicas para la extracción de ácido húmico. Se estudian dos materias primas: la cachaza y el estiércol de ganado vacuno, para dos condiciones de almacenamiento, bajo y a la intemperie, durante ocho semanas. Se analizan muestras sin pretratamiento, trituradas y tamizadas a 2 mm y 4 mm. Las condiciones de almacenamiento adecuadas de la cachaza requieren de un área techada y de un proceso de trituración a las tres semanas; mientras que el estiércol de ganado vacuno se puede almacenar a la intemperie y no requiere pretratamiento, con un tiempo de almacenamiento mínimo de seis semanas. PALABRAS CLAVES: fuentes orgánicas, extracción, ácido húmico, almacenamiento, pretratamiento. CONDITIONS OF STORAGE AND PRETREATMENT OF ORGANIC SOURCES FOR THE EXTRACTION OF HUMIC ACID ABSTRACT The human population increase has taken to an intensive cultivation without restoring the nutrients of the floor appropriately. The chemical fertilizers have been claimed as the most important taxpayer for the increase of the agricultural productivity, with the rising increase of the production costs and degradation of the soils for inadequate handlings. Of there the necessity to look for alternative of fertilizers that improve the quality of the floor and the development of the plants. The humic substances are an example of these organic fertilizers, where the humic acid is active component. The objective of the work is to determine the storage conditions and pretreatment of organic sources that allow the extraction of humic acid. Two matters cousins are studied: the filter cake and the manure of bovine livestock, for two storage conditions, under and to the bleakness, during eight weeks. Samples are analyzed without pretreatment, crushed and served to 2 mm and 4 mm. The appropriate storage conditions of the filter cake require of a roofed area and of a trituration process to the three weeks; while the manure of bovine livestock store to the bleakness and not require pretreatment, with a time of minimum storage of six weeks. KEY WORDS: organic sources, extraction, humic acid, storage, pretreatment. 1. INTRODUCCIÓN El aumento de la población humana ha llevado a un cultivo intensivo sin reponer adecuadamente los nutrientes del suelo. Ello ha provocado la disminución de los rendimientos de los cultivos y el agotamiento de la base de recursos [1-3]. Los fertilizantes químicos han sido reclamados como el contribuyente más importante para el aumento de la productividad agrícola mundial en las últimas décadas, debido a que pueden mejorar los rendimientos de los cultivos y el pH del suelo, contenido total y disponibilidad de nutrientes, pero los efectos negativos del uso intensivo de los mismos en el suelo y en el medio ambiente limitan su aplicación en sistemas agrícolas sostenibles [4]. Esto amenaza la seguridad alimentaria futura y aumenta los costos de producción para los agricultores. De ahí la necesidad de buscar formas alternativas de fertilizantes que mejoren la calidad del suelo y el desarrollo de las plantas. Entre las alternativas se encuentra el uso de fertilizantes orgánicos, los cuales mejoran la fertilidad y productividad del suelo, así como el rendimiento de los cultivos, sin dejar ningún efecto residual en el suelo y son mucho más económicos. También aumentan la acumulación de carbono orgánico en el suelo, que a su vez induce cambios en la comunidad microbiana, estructura y estimula la biomasa microbiana [5]. Las sustancias húmicas son un ejemplo de estos fertilizantes orgánicos, los cuales se extraen de diferentes fuentes orgánicas [6] y han atribuido grandes ventajas en la agricultura, pues contribuyen al mejoramiento de los suelos, ayudan a la germinación de las semillas e incrementan la energía para plantas y suelos. Las sustancias húmicas son una serie de polímeros amorfos de color amarillo marrón a negro, de peso molecular relativamente alto, y formado por reacciones de síntesis secundaria, biótica y abiótico, llamadas humificación [7, 8]. Algunos autores relacionados con el tema [3, 8-11] plantean que las sustancias húmicas (SH) se fraccionan según su solubilidad en tres fracciones: ácido húmico (AH), insoluble en agua en condiciones ácidas de pH inferior a 2, pero soluble a valores de pH más altos, ácido fúlvico (AF), soluble en agua bajo todas las condiciones de pH y la humina (H), insoluble en agua a cualquier valor de pH. El ácido húmico es el componente activo de varios materiales orgánicos, por lo que estudios sobre purificación y usos del mismo se reportan a nivel internacional [5, 8, 12-15], y se buscan las vías y métodos más adecuados en la extracción del mismo, para su uso como fertilizante. Estudios realizados en Cuba han definido que la cachaza y el estiércol de ganado vacuno son materias primas con potencial para la extracción de ácido húmico, pero existe poco conocimiento de las condiciones de almacenamiento de estas fuentes orgánicas y si necesitan de un pretratamiento. El objetivo del trabajo es determinar las condiciones de almacenamiento y pretratamiento de fuentes orgánicas para la extracción de ácido húmico. 2. MATERIALES Y MÉTODOS Metodología de extracción de sustancias húmicas La Figura 1 muestra la metodología de extracción de sustancias húmicas que se aplica en la investigación, la cual es recomendada por la Sociedad Internacional de Sustancias Húmicas [15] y reportada por varios autores [13, 16-18]. Figura 1: Etapas de obtención de ácido húmico Las condiciones de cada etapa del proceso son: Etapa 1 (Extracción básica): Con condiciones de extracción de una relación sólido líquido igual a 1/10 y una concentración de hidróxido de sodio (0,5 mol/L) como extractante básico de, según estudios realizados por [17, 19]. Se agita la suspensión durante 10 h [15]. Luego se centrífuga a 3200 rpm por 10 min [13, 19, 20], donde el sobrenadante son las sustancias húmicas y el precipitado la humina. Etapa 2 (Extracción ácida): Las sustancias húmicas son tratadas con ácido clorhídrico (6 mol/L) como extractante ácido [19, 21] y se mantiene en reposo por 10 h. Luego se centrifuga a 3200 rpm por 10 minutos [13, 19]. El sobrenadante es el ácido fúlvico y el precipitado el ácido húmico. Condiciones para la selección de las condiciones de almacenamiento de las materias primas Se planifica un diseño experimental factorial multinivel, donde las variables independientes son las condiciones de almacenamiento y el tiempo de recolección de las materias primas. Se tienen en cuenta dos condiciones de almacenamiento (intemperie y bajo techo), y se estudia durante un periodo de ocho semanas. Las variables respuestas que se analizan son: las características físico-químicas de las materias primas (contenido de humedad, materia orgánica, fósforo, potasio, sodio, calcio, magnesio) y el % de extracción de MO en el AH, el cual se determina por la ecuación 1 [22]: % 𝐸𝑀𝑂𝐴𝐻 = 𝑋(𝑀𝑂)𝐴𝐻 𝑚(𝐴𝐻) 𝑋(𝑀𝑂)𝑀𝑃 𝑚(𝑀𝑃) ∗ 100 (1) Donde: m(MP): masa de materia prima (g) m(AH): masa de ácido húmico obtenido (g) X(MO) MP: composición de materia orgánica en la materia prima X(MO)AH: composición de materia orgánica en el ácido húmico % EMOAH: Porcentaje de extracción del contenido de materia orgánica en el ácido húmico extraído (%) El contenido de materia orgánica de la materia prima y del ácido húmico se determinan por métodos gravimétricos. Condiciones para la selección del proceso de pretratamiento de las materias primas Se planifica un diseño experimental unifactorial categórico, donde el factor es tipo de pretratamiento y la variable respuesta es el % de extracción de materia orgánica en el AH, el cual se calcula por la ecuación 1. Las variantes de pretratamiento que se estudian son: Trituración (T), Trituración y tamizado (TT) y Materia prima sin tratamiento (ST). En las variantes que se incluyen la etapa de tamizado se emplearon dos tamaños de partículas: 2 mm y 4 mm [23]. 3. RESULTADOS Y DISCUSIÒN Resultados para las diferentes condiciones de almacenamiento La tabla 1 muestra los resultados de la caracterización física química de la cachaza y del estiércol de ganado vacuno, para cada condición de almacenamiento. Tabla 1: Caracterización de las materias primas para las diferentes condiciones de almacenamiento, durante ocho semanas. Parámetro / Condición de almacenamiento Cachaza Estiércol de ganado vacuno Bajo techo Intemperie Bajo techo Intemperie Media CV (%) Media CV (%) Media CV (%) Media CV (%) Materia orgánica (%) 75,86 4,77 77,66 6,34 75,98 4,49 74,43 4,95 Humedad (%) 30,93 71,13 38,97 71,30 29,80 80,63 41,67 50,51 Fósforo (mg/L) 0,76 1,48 0,77 1,51 0,82 10,69 0,85 11,65 Potasio (mg/L) 0,60 6,81 0,59 4,92 1,66 43,58 1,80 45,47 Sodio (mg/L) 0,015 6,17 0,15 6,17 0,41 28,00 0,50 51,54 Calcio (mg/L) 4,04 3,94 4,05 3,99 2,88 23,15 2,88 32,65 Magnesio (mg/L) 1,79 2,95 1,78 4,61 0,97 34,00 1,60 61,76 % EMOAH 18,66 52,95 12,46 52,64 45,14 40,28 51,48 41,67 El contenido de materia orgánica (MO) de la cachaza se mantiene estable durante las ocho semanas de experimentación para las dos condiciones de almacenamiento, pues presenta coeficientes de variación (CV) iguales a 4,77 % y 6,35 5 respectivamente (tabla 1), esto indica que este residuo de la industria azucarera no sufre proceso de oxidación de la materia orgánica, lo cual es favorable para su uso como materia prima en la obtención de ácido húmico, según Galba, Basílio [24]. El análisis de varianza arroja que no existen diferencias significativas en el contenido de MO entre las condiciones en que se almacena y en el tiempo de almacenamiento para un 95 % de confianza, pues los valores de probabilidad son superiores a 0,05 (0,4541 y 0,6052), por lo que no es necesario almacenar la cachaza en áreas techadas, para su uso en la extracción de ácido húmico, lo que reduce los costos. Esto se refleja también en la figura 2, donde el comportamiento de este parámetro es similar para ambas materias primas. Figura 2: Comportamiento del porciento de la materia orgánica con respecto a las condiciones de almacenamiento de la cachaza. La humedad muestra inestabilidad en el periodo, pues presenta un coeficiente de variación igual a 70,29 % (tabla 1), esto se debe a que la cachaza es un coloide amorfo que absorbe grandes cantidades de agua [25]. Sin embargo, el análisis de varianza arroja que no existen diferencias significativas en los resultados de humedad para las dos condiciones de almacenamiento en el tiempo de estudio, pues arroja valores de probabilidad superiores a 0,05. Este parámetro tiene estrecha relación con la cantidad de agua a añadir en el proceso de extracción, para mantener la relación sólido – líquido deseada. La figura 3 muestra la inestabilidad que existe en la humedad para ambas materias primas. Figura 3: Comportamiento del porciento de humedad con respecto a las condiciones de almacenamiento de la cachaza en las ocho semanas. El tiempo y las condiciones de almacenamiento de la cachaza, no influyen significativamente para un 95 % de confianza, en los contenidos de sodio, calcio, potasio, fósforo y magnesio, pues el análisis de varianza arroja para todos los parámetros, valores de probabilidad superiores a 0,05. El porciento de extracción de la materia orgánica del ácido húmico muestra una inestabilidad apreciable (tabla 1), pues presenta un elevado coeficiente de variación (55,99 %), y la tabla ANOVA (tabla 2) muestra que el tiempo y las condiciones de almacenamiento de la cachaza influyen significativamente sobre el rendimiento de extracción, para un 95 % de confianza, pues los valores de probabilidad para ambos factores son inferiores a 0,05. Tabla 2: Tabla ANOVA para el porcentaje de extracción de MO en el AH, obtenido a partir de la cachaza Efecto Suma de cuadrados Grados de libertad Cuadrado medio Fisher Valor de probabilidad Condiciones de almacenamiento 153,88 1 153,88 17,97 0,0038 Tiempo de almacenamiento 924,80 7 132,12 15,42 0,0009 Error 59,96 7 8,57 Total 1138,64 15 En la figura 4 se observa que se alcanzan mayores porcentajes de extracción de materia orgánica en el ácido húmico cuando la cachaza se almacena bajo techo, y en la semana tres, y luego se estabiliza en el tiempo. Es decir, después de tres semanas ocurre el proceso de descomposición máximo de la cachaza. Figura 4: Comportamiento del % de EMO en el AH, a partir de la cachaza. La humedad del estiércol de ganado vacuno presenta una elevada variabilidad en el periodo de estudio para las dos condiciones de almacenamiento (bajo techo e intemperie), con coeficientes de variación iguales a 80,63 % y 50,51 % respectivamente (tabla 1) y un valor medio igual a 29,80 % y 41,67 % respectivamente. Esta materia prima presenta mayor contenido de humedad a partir de la semana 4 cuando se encuentra a la intemperie (figura 5), debido a las condiciones ambientales. Esto provoca que al utilizar la materia prima bajo estas condiciones se reduzca el gasto de agua en el proceso. Figura 5: Comportamiento de la humedad del estiércol de ganado vacuno para las condiciones de almacenamiento La materia orgánica del estiércol de ganado vacuno bajo techo y a la intemperie arroja un valor medio igual a 75,98 % y 74,43 5 respectivamente, con estabilidad en el periodo. Estudios realizados por Kulikowska, Mariusz [26], muestran que un compost proveniente de estiércol de ganado vacuno, que presente un contenido de humedad superior a 47,9 % se debe fundamentalmente a las condiciones de almacenamiento de este residuo, así como a la alimentación que reciben los animales. En la figura 6 se observa que en las semanas 3, 4, y 5 se alcanzan los máximos valores de contenido de materia orgánica en el estiércol de ganado vacuno para las dos condiciones de almacenamiento, lo que indica que en ese período se estabiliza el proceso de descomposición, con un coeficiente de variación de 4,63 % inferior al 12 % lo que demuestra que este parámetro no presenta una variabilidad significativa. A partir de la semana 6 se observa una disminución en el contenido de materia orgánica, lo cual se debe a que en el interior de la pila comienza a ocurrir un proceso anaeróbico formando ácidos y gases, como H2S y CH4 [27]. Figura 6: Comportamiento del contenido de materia orgánica del estiércol de ganado vacuno en el tiempo 0.00 10.00 20.00 30.00 40.00 50.00 60.00 70.00 80.00 1 2 3 4 5 6 7 8 H u m ed ad ( % ) Semana Bajo techo Intemperie No existen diferencias significativas en los resultados obtenidos de los diferentes parámetros que caracterizan el estiércol de ganado vacuno (contenido de: materia orgánica, humedad, fósforo, potasio, sodio, calcio y magnesio), entre las condiciones y el tiempo de almacenamiento, pues el análisis de varianza arroja valores de probabilidad mayores que 0,05. El tiempo de almacenamiento influye significativamente, sobre el porcentaje de EMO en el AH, para un 95 % de confianza, pues el valor de probabilidad es inferior a 0,05 (0,0108) (tabla 3). Tabla 3: Tabla ANOVA para el % de extracción de MO en el AH, obtenido a partir del estiércol de ganado vacuno, para el tiempo y las condiciones de almacenamiento. Efecto Suma de cuadrados Grados de libertad Cuadrado medio Fisher Valor de probabilidad Condiciones de almacenamiento 161,1000 1 161,0000 1,59 0,2474 Tiempo de almacenamiento 48,2600 7 689,4370 6,81 0,0108 Error 708,3210 7 101,1890 Total 5595,4810 15 En la figura 7 se observa que el porcentaje de extracción de materia orgánica en el ácido húmico tiene un comportamiento inestable con respecto al tiempo, bajo techo y a la intemperie (coeficiente de variación igual a 40,28 % y 41,67 %). A partir de la semana 3 se observa un ascenso, pero se alcanza el mayor porcentaje en la semana 6. Esto se debe fundamentalmente a que ocurre el proceso de descomposición de la materia orgánica y que la materia prima alcanzó la etapa de maduración [28]. Figura 7: Comportamiento del % de extracción de MO en el AH, a partir del estiércol de ganado vacuno, durante 8 semanas, para las dos condiciones de almacenamiento. Resultados para los pretratamientos de las materias primas El tipo de pretratamiento influye en el rendimiento de la extracción, para las dos materias primas, pues el análisis de varianza arroja valores de probabilidad inferiores a 0,05, en ambos casos. La prueba Duncan (figura 8), demuestra que para la cachaza sólo existe homogeneidad en el % de EMOAH, entre los tratamientos Trituración y Trituración y tamizado a 2 mm, donde se obtienen los mayores rendimientos, 21,10 % y 21,21 % respectivamente. Como el proceso de triturado es menos costoso, se selecciona este pretratamiento para la cachaza. Figura 8: Comportamiento del % de extracción de MO en el AH, en dependencia del tipo de pretratamiento de la cachaza. No existe homogenidad en el rendimiento de extracción, entre los pretratamientos del estiércol de ganado vacuno (figura 9). El mayor % EMOAH se obtiene cuando el estiércol de ganado vacuno no se trata, 20,01 %, por lo que no es necesario realizar tratamiento a esta materia prima. Esto se debe a al tamaño de partícula de este residuo y sus características. Figura 9: Comportamiento del % de extracción de MO en el AH, en dependencia del tipo de pretratamiento del estiércol de ganado vacuno. 4. CONCLUSIONES Las condiciones de almacenamiento de la cachaza influyen significativamente en el rendimiento de extracción de ácido húmico. La cachaza requiere de un área techada para su almacenamiento y de un proceso de trituración a las tres semanas. No influyen las condiciones de almacenamiento del estiércol de ganado vacuno, se puede almacenar a la intemperie y no requiere pretratamiento, con un tiempo de almacenamiento mínimo de seis semanas. RECONOCIMIENTOS Los autores desean agradecer el apoyo del VLIR UOS a través del proyecto ZEIN2015PR402 – 3942, por la colaboración en la investigación de profesores de la Universidad Católica de Leuven, Bélgica. Box-and-Whisker Plot % E M O e n A H Pretratamiento de la cachaza ST T TT 2 mm TT 4 mm 14 16 18 20 22 Box-and-Whisker Plot % E M O e n A H Pretratamiento del estiércol de ganado vacuno ST T TT 2 mm TT 4 mm 11 13 15 17 19 21 REFERENCIAS 1. GARCÍA, P., Empleo de sustancias tipo húmicas obtenidas a partir de diferentes residuos orgánicos en la eliminación de contaminantes emergentes. 2021, Universidad de Valencia. 2. GÓMEZ, M.D., Aplicación de diferentes dosis de ácidos húmicos, fúlvicos en tres híbridos de maíz (Zea mays L.), en la zona de Puebloviejo, in Facultad de Ciencias Agropecuarias. 2019, UNIVERSIDAD TÉCNICA DE BABAHOYO: Los Ríos, Ecuador. p. 71. 3. VEOBIDES-AMADOR, H., F. GURIDI-IZQUIERDO, AND V. VÁZQUEZ-PADRÓN, Las sustancias húmicas como bioestimulantes de plantas bajo condiciones de estrés ambiental. Cultivos Tropicales, 2018. 39(4): p. 102-109. 4. MARTÍNEZ, J., J. BERBEL, AND R. ORDÓÑEZ, Nitrogen Fertilization. A Review of the Risks Associated with the Inefficiency of Its Use and Policy Responses. Sustainability,, 2021. 13(5625). 5. VILLAGRÁN, A., et al., Extracción y caracterización de un ácido húmico, y su evaluación fisicoquímica de coagulación en presencia de Fe3+ y Al3+. Publicación annual, Tópicos de Investigación en Ciencias de la Tierra y Materiales, 2020. 7(7): p. 62-67. 6. MÉNDEZ, C.M., Valorización de residuos orgánicos mediante la obtención de fertilizantes, in Dpto. Ingeniería Química y Tecnología del Medio Ambiente. 2019, Universidad de Valladolid, España. 7. BENITES, V.M., B. MADARI, AND P.L.O.D.A. MACHADO, Extração e Fracionamento Quantitativo de Substâncias Húmicas do Solo: um Procedimento Simplificado de Baixo Custo. 2003, Ministério da Agricultura, Pecuária e Abastecimento (16). Rio de Janeiro. 8. RAPOSO, J.C., et al., Determination of humic substances in sediments by focused ultrasound extraction and ultraviolet visible spectroscopy. Microchemical Journal, 2016. 128: p. 26-33. 9. STEVENSON, F.J. AND K.M. Goh, Infrared spectra of humic aids and related substances. Geochimica et Cosmochimica Acta, 1971. 35: p. 471-488. 10. VALENZUELA, E.I. AND F.J. CERVANTES, The role of humic substances in mitigating greenhouse gases emissions: Current knowledge and research gaps. Science of the Total Environment, 2021. 750: p. 141677. 11. WEBER, J. Humic Substances and their Role in the Environment. EC Agriculture, 2020. 03-08. 12. OLK, D.C., et al., Environmental and Agricultural Relevance of Humic Fractions Extracted by Alkali from Soils and Natural Waters. Journal Environmental Quality, 2019. 48: p. 217-232. 13. SAITO, B. AND M.M. SECKLER, Alkaline extraction of humic substances from peat applied to organic-mineral fertilizer production. Brazilian Journal of Chemical Engineering, 2014. 31(3): p. 675-682. 14. SCAGLIA, B., et al., Chlorpyrifos-methyl solubilisation by humic acids used as bio-surfactants extracted from lignocelluloses and kitchen wastes. Chemosphere, 2016. 159: p. 208-213. 15. SUN, Q., et al., Humic acids derived from Leonardite to improve enzymatic activities and bioavailability of nutrients in a calcareous soil. International Journal of Agricultural Biological Engineering, 2020. 13(3): p. 200-205. 16. DE OLIVEIRA, L.K., et al., Interaction of arsenic species with tropical river aquatic humic substances enriched with aluminum and iron Environ Sci Pollut Res, 2016. 23: p. 6205-6216. 17. DE SOUZA, F. AND S. ROCA, Extraction and characterization of humic acid from coal for the application as dispersant of ceramic powders. Journal of Materials Research and Technology, 2018. 7(3): p. 254-260. 18. LUKYANOV, N.V., et al., Extraction of Humic Acids from KanskoAchinsk Lignite. Coke and Chemistry, 2016. 59(2): p. 48-53. 19. PEDROSO, I., L.Y. GONZÁLEZ, AND J. LUIS, Determinación de las condiciones óptimas del proceso de extracción de ácido humico a partir de la cachaza. Centro Azúcar, 2021. 48(4). 20. BAGLIERI, A., et al., A method for isolating soil organic matter after the extraction of humic and fulvic acids. Organic geochemistry, 2007. 38(1): p. 140-150. 21. ASING, J., N. WONG, AND S. LAU, Optimization of extraction method and characterization of humic acid derived from coals and composts. J. Trop. Agric. and Fd. Sc, 2009. 37(2): p. 211-223. 22. FONG, S.S., et al., A comparative evaluation on the oxidative approaches for extraction of humic acids from low rank coal of Mukah, Sarawak. Journal of the Brazilian Chemical Society, 2007. 18(1): p. 34-40. 23. XU, J., et al., Chemical nature of humic substances in two typical Chinese soils (upland vs paddy soil): A comparative advanced solid state NMR study. Science of the Total Environment, 2017. 576: p. 442-452. 24. GALBA, J., et al., Humic substances isolated from residues of sugar cane industry as root growth promoter. Science Agriculture, 2010. 67(2): p. 206-2012. 25. FORERO, F.E., J. TORRES, AND H.E. BALAGUERA-LÓPEZ, Efecto de la aplicación de la cachaza fresca y de dos sistemas de producción de maíz y de maíz con asocio frijol sobre ñlas propiedades físicas de un Inceptisol. Revista Colombiana de Ciencias Hortícolas, 2008. 2(2): p. 205-216. 26. KULIKOWSKA, D., et al., Humic substances from sewage sludge compost as washing agent effectively remove Cu and Cd from soil. Chemosphere, 2015. 136: p. 42-49. 27. HERNÁNDEZ, R., et al., Protección antioxidativa de los ácidos húmicos extraídos de vermicompost en arroz (Oryza sativa L.) var. IACuba30. Revista Protección Vegetal, 2012. 27(2): p. 102-110. 28. FUNES, F. AND L.L. VÁZQUEZ, Avances de la agroecología en Cuba. 1ra ed. 2016, La Hbana, Cuba. Sobre los autores Irina Pedroso Rodríguez. Graduada de Ingeniería Química en el 2002 en la Universidad de Matanzas. Máster en Gestión y Control Ambiental en el 2007. Profesora Auxiliar. Es Vicedecana de la Facultad de Ciencias Técnicas. Ha trabajado en investigaciones de Control de calidad de procesos, Eficiencias de procesos y estudios medioambientales. Jesús Luis Orozco. Graduado de Ingeniería Química en 1984. Profesor Titular del Departamento de Química. Máster en Contaminación Ambiental en el 2001. Recibe el grado de Dr. Ciencias Técnicas en el 2006. Ha trabajado en investigaciones relacionadas con la industria azucarera, eficiencia de procesos, riesgos industriales, y estudios medioambientales. Lourdes Yamen González Sáez. Graduada de Ingeniería Química en el 1994. MÁSTER EN Contaminación Ambiental en el 2001. Recibe el título de Dr. Ciencias Técnicas en 2006. Profesora Titular. Es Vicedecana de la Facultad de Ciencias Técnicas. Ha trabajado en investigaciones relacionadas con Producción más limpia, Control y tratamiento de residuales sólidos y líquidos. Liz Pérez Martínez. Graduada de Ingeniería Informática en el 2012 en la Universidad de Matanzas. Máster en Administración de empresas en el 2015. Profesora Auxiliar. Recibe el título de Dr. Ciencias Técnicas en el 2021. Se desempeña como Decana de la Facultad de Ciencias Técnicas de la Universidad de Matanzas. Ha trabajado en investigaciones relacionadas con Inteligencia artificial, minería de datos, administración de empresas y estudios medioambientales. PROPUESTA DE MÉTODOS PARA REFINAR LA GLICERINA OBTENIDA DE LA TRANSFORMACIÓN DE ACEITES VEGETALES USADOS Marilin García Díaz1, Franco Menezes Mascolino Falcao1, José Gandón Hernández1, Carlos Cordoví Felipe1, Guido Riera Gonzalez1, José Raúl Correa2 1 Departamento de Ingeniería Química, Facultad de Ingeniería Química, Universidad Tecnológica de La Habana “José Antonio Echevarría”, CUJAE 2 Departamento de Química General e Inorgánica, Facultad de Química. Universidad de La Habana. 1e-mail: mgarcia@quimica.cujae.edu.cu RESUMEN Los aceites vegetales juegan un papel primordial en la fritura de los alimentos, pues son los encargados de transmitirle el calor a los mismos, aportándole un sabor, color, textura y aspecto diferente. El reiterado uso en dicho proceso conlleva a la degradación del mismo. Es por ello que una aplicación que se le ha dado recientemente es la transformación en biocombustible. Del proceso de transesterificación de aceites vegetales usados alrededor del 10 % del volumen de materia prima inicial se convertirá en glicerina cruda. Para que este subproducto alcance valor en el mercado es preciso purificarla o refinarla. De ahí, que sea de extrema importancia la búsqueda de alternativas de tratamiento para la glicerina generada en el proceso de producción de biodiesel. A través de la búsqueda bibliográfica, se proponen diferentes métodos a nivel de laboratorio, con el fin de obtener un producto de valor agregado. En casi todas las propuestas se tiene en común que el residuo es acidificado con ácido fuerte para lograr la separación por decantación de los ácidos grasos y luego es neutralizado con base fuerte. La siguiente etapa consiste en evaporar el alcohol remanente, una cantidad mayoritaria de agua y la separación por precipitación y filtración de la sal formada. Se selecciona el método uno, que es más sencillo de aplicar y el quinto que da un producto de calidad superior. La elección depende del uso posterior que se le va dar al producto. PALABRAS CLAVES: Aceites vegetales usados, biodiesel, glicerina, purificación. PROPOSAL OF METHODS TO REFINE GLYCERIN OBTAINED FROM THE TRANSFORMATION OF USED VEGETABLE OILS ABSTRACT Vegetable oils play a key role in frying food, as they are responsible for transmitting heat to it, giving it a different flavor, color, texture and appearance. The repeated use in this process leads to its degradation. That is why an application that has recently been given is the transformation into biofuel. From the transesterification process of used vegetable oils, about 10% of the initial raw material volume will be converted into crude glycerin. In order for this by-product to reach market value, it must be purified or refined. Hence, the search for treatment alternatives for the glycerin generated in the biodiesel production process is extremely important. Through the bibliographic search, different methods are proposed at the laboratory level, in order to obtain a value-added product. In almost all the proposals, it is common that the residue is acidified with a strong acid to achieve the separation by decanting of the fatty acids and then it is neutralized with a strong base. The next stage consists of evaporating the remaining alcohol, a majority of the water, and separating the salt formed by precipitation and filtration. Method one is selected, which is easier to apply, and method five, which gives a superior quality product. The choice depends on the subsequent use that is going to be given to the product. KEY WORDS: Used vegetable oils, Aceites vegetales usados, biodiesel, glycerin, purification. 1. INTRODUCCIÓN El aceite vegetal es un compuesto orgánico que se obtiene a partir de semillas u otras partes de las plantas oleaginosas. La composición química de los aceites vegetales corresponde en la mayoría de los casos a una mezcla de 95 % de triglicéridos (triésteres formados por la reacción de los ácidos grasos) y 5 % de ácidos grasos libres, esteroles, ceras y otros componentes minoritarios (Campbell Ramos, 2019). Los aceites vegetales juegan un papel primordial en la fritura de los alimentos, pues son los encargados de transmitirle el calor a los mismos, aportándole un sabor, color, textura y aspecto diferente. En la actualidad, los alimentos fritos gozan de una popularidad cada vez mayor en el mundo y son aceptados por personas de todas las edades (Hernández Fernández, 2017). Dentro de las aplicaciones que tienen los aceites y las grasas comestibles, la fritura es la aplicación en la que se somete estos productos a condiciones más rigurosas. Para lograr un proceso adecuado es necesario sumergir el alimento en un medio graso que pueda mantener una temperatura constante sin que se pierdan las características nutricionales del mismo por efecto del calentamiento, ya que actúan como agente transmisor del calor garantizando una cocción uniforme del alimento, alcanzando temperaturas elevadas entre 150 y 200 ºC, trayendo como consecuencia la aceleración de los procesos químicos y enzimáticos que potencian las reacciones de oxidación, hidrólisis y polimerización (Campbell Ramos, 2019). La reutilización de los aceites vegetales en la cocción de alimentos, puede traer efectos nocivos para la salud humana, ya que los aceites al ser sometidos a elevadas temperaturas generan dioxinas un agente cancerígeno muy agresivo, y uno de los químicos que tienen la dudosa fama de pertenecer a la docena de contaminantes orgánicos peligrosos. Además el aceite recalentado provoca el desarrollo de la obesidad, el envejecimiento prematuro, la diabetes, cáncer, cirrosis hepática e hipertensión (Hernández Fernández, 2017). El aceite vegetal usado (AVUs) además de causar daños a la salud humana también afecta directamente al medio ambiente si no se manipula de forma adecuada, pues provoca la contaminación de tierras, ríos y mares por su baja biodegradabilidad. Con el propósito de ofrecer una solución a esta problemática y brindarle un buen aprovechamiento a este residuo, se han estudiado las características de los aceites comestibles usados para ser utilizados como materia prima en la fabricación de biodiesel. Pues este, es similar al diésel convencional, sin afectar el medio ambiente, ya que genera menores emisiones a la atmósfera y es renovable comparado con los combustibles de origen petroquímico (Acosta Fernández- Getino, 2020). La producción de biodiesel genera un nuevo problema: se obtiene glicerina como subproducto. La glicerina obtenida como subproducto de la producción de biodiesel, resulta ser un desecho contaminante si no se trata adecuadamente. Está puede contener trazas de metanol, hidróxido de sodio o potasio o aceite que pudo no haber reaccionado (Maldonado Ordoñez, 2013). La glicerina es usada en la actualidad en la fabricación de una gran cantidad de productos, entre sus aplicaciones se encuentran la fabricación de detergentes, de productos farmacéuticos, de cosméticos, etc. Es un producto de alto valor económico, por lo que su comercialización forma parte imprescindible en la rentabilización del biodiesel (Eduardo Manuel & Eduardo, 2013). La obtención de glicerol a partir de la producción de biodiesel tiene diferente grado de pureza dependiendo del tratamiento posterior a la separación del glicerol y del biodiesel crudo. Existen tres grados de glicerol: crudo (pureza: 80,71 %), técnico (pureza: 81,90 %) y bi-destilado o de grado USP (99,7 % superior). El glicerol bruto puede tener una composición de 84,7 % de glicerol, 12,1 % de agua, 0,46 % de metanol y el resto 2,74 % de impurezas. (Diaz Holguin, 2017). Es por ello que esta investigación tiene como objetivo plantear una propuesta para la refinación de este subproducto principal (Glicerina), a nivel industrial y planta piloto, alcanzando altos grados de pureza, a partir del estudio bibliográfico. 2. ESTUDIO BIBLIOGRÁFICO Propiedades que convierte el AVUs en un desecho El proceso de fritura es tradicionalmente empleado en la preparación de alimentos debido a que requieren cortos tiempos de cocción. Además, este aporta textura crocante, sabor y color deseables a los alimentos, las cuales son características apreciadas entre diferentes culturas alrededor del mundo. La fritura se lleva a cabo a altas temperaturas (de 175 hasta 185 ºC), y el aceite actúa como agente transmisor de calor, generando un proceso de secado y cocción uniforme del alimento; lo anterior ocurre en medio de un proceso de transferencia simultánea de calor y masa. Debido a esto, la fritura se reconoce como un proceso fisicoquímico complejo, que está influenciado por diversas variables del proceso como las descritas en la figura 1. Es justamente el efecto sinérgico de las diferentes condiciones de procesamiento, las que generan la descomposición gradual y variable de los aceites durante la fritura (Rincón Vija, 2018). Figura 1: Variables del proceso de fritura. Fuente: Tomado de (Rincón Vija, 2018) Como consecuencia, el aceite vegetal se degrada químicamente por efecto de reacciones oxidativas, térmicas, e hidrolíticas, así como se presenta en la figura 2. Inicialmente, el proceso de degradación se da por reacciones de autoxidación a temperatura ambiente y en condiciones de almacenamiento; esto debido a que los antioxidantes, naturales y adicionados al aceite fresco, pierden su efectividad con el tiempo y el uso. Sumado a lo anterior, se da la termo-oxidación como producto del calentamiento a la temperatura de fritura (293 - 413 K) y el contacto con el aire (Rincón Vija, 2018). . Figura 2: Reacciones de degradación del aceite durante el proceso de fritura. Fuente: Tomado de (Rincón Vija, 2018) Las reacciones químicas que tienen lugar durante el proceso de fritura son la termo-oxidación, hidrólisis y polimerización, y en menor medida ciclación e isomerización; de ahí que sea un proceso complejo. Todas ellas dan lugar a la formación de compuestos volátiles y no volátiles. Los volátiles suelen evaporarse o absorberse mientras que los no volátiles son los responsables de los cambios físicos y químicos del aceite y el alimento (Lázaro Vela, 2018). El aceite en su periodo de utilización pasa por varias fases, la primera de ellas en la que no se muestra degradación alguna, la segunda en la que existe un incremento en la acidez derivado de procesos de hidrólisis, la tercera en la que las sustancias emulsionantes favorecen el contacto aceite/producto, la cuarta fase en la que los niveles de hidrólisis y oxidación son elevados y el alimento absorbe parte de ellos, y la última fase en donde se llega a un estado de descarte, a razón de que se agravan los problemas ocurridos en la fase cuatro y se generan sabores y olores desagradables (Rivera, Gutiérrez, Gómez, Matute, & Izaguirre, 2014). Producción de biocombustibles a partir de AVUs Los biocombustibles, como el etanol y el biodiesel, constituyen las opciones más prometedoras para la sustitución de los combustibles tradicionales. A partir de lo mencionado en los párrafos anteriores, resulta atractivo el aprovechamiento de los AVUs para la producción de biodiesel. La práctica de la producción de biocombustibles hasta este momento se basa en los cultivos energéticos como materia prima ya sea para obtener bioetanol por fermentación, o bien biodiesel a partir de aceite vegetal. Esto ha suscitado numerosas críticas al entrar su producción en conflicto debido a una posible influencia en la subida de precios de ciertos cultivos alimentarios debido a una reducción en la oferta de ese alimento. Por todo esto, la utilización de aceite usado es una alternativa muy conveniente para la producción de biodiesel ya que, antes de su recolección, este ha cumplido su uso alimentario y, además, genera un producto con bajo impacto ecológico. Además, se estima que aproximadamente la mitad de los costos de producción del biodiesel vienen dados por el cultivo, recolección y refinado de la materia prima. Recoger el aceite usado supone que ese costo ya ha sido cubierto por el consumidor del aceite vegetal alimentario, por lo que los únicos costos derivados de la obtención de la materia prima serán los derivados de la recolección del aceite y los del pre tratamiento para la realización de los métodos de obtención del biodiesel (Graciano et al., 2020). Asimismo, tienen un impacto económico positivo, dando independencia energética y mejorando la competitividad. En lo ambiental, contribuyen a la reduciendo la contaminación atmosférica, generando subproductos reutilizables y biodegradables. En lo social, ayudan al crecimiento y diversificación de la economía rural y calidad de vida. Es por esta razón que se buscan combustibles alternativos como el biodiesel obtenido a partir de aceites usados. Asimismo, tienen un impacto económico positivo, dando independencia energética y mejorando la competitividad. Obtención del biodiesel Tradicionalmente el biodiesel es obtenido mediante una transesterificación de aceites o grasas, haciendo reaccionar un alcohol de cadena corta (usualmente metanol) en presencia de un catalizador (usualmente NaOH). La reacción química se establece entre un aceite en presencia de un alcohol con catalizador o sin catalizador para producir biodiesel y glicerol. (González, 2014). (Mollenido Mamani, 2017). Glicerina. Propiedades y uso La glicerina (también conocida como glicerol) es un compuesto cuyos derivados son de gran aplicación para varias industrias en que la mayoría de su consumo es asociado a la cosmética y fármacos. (Mendes & Serra, 2012). También puede usarse en la industria alimenticia o incluso en la industria tabaquera como humidificante (Mesa, 2020). Además de la saponificación, hidrolisis o transesterificación de grasas y aceites, la glicerina puede también ser producido por la fermentación de hidratos de carbono o hidrogenólisis, pero estas rutas actualmente no se utilizan industrialmente; sin embargo, fueron utilizados durante las primeras y segunda guerras mundiales en Europa (Montiel Díaz, 2017). La glicerina como se recupera de los triglicéridos o sintetizada, es casi siempre consumida como una sustancia refinada o purificada. Los productores de glicerina, sea natural o sintética, monitorean estrictamente cada etapa de procesamiento desde pre tratamiento de crudo o materiales precursores hasta el acabado para asegurar una alta pureza y calidad uniforme (Montiel Díaz, 2017). Características físico-químicas de la glicerina Es un líquido incoloro, inodoro, de baja toxicidad ambiental, soluble en agua y otros disolventes polares, insoluble en hidrocarburos, hidrocarburos clorinados y éteres, no se considera un líquido volátil. Es una sustancia higroscópica con un pH neutro (no libera cationes hidronio, ni hidroxilo cuando se disuelve en agua), es químicamente estable bajo condiciones normales de almacenamiento y manejo. Sin embargo, puede ser explosivo cuando entra en contacto con agentes oxidantes como el clorato de potasio. Tiene un alto punto de ebullición y viscosidad provocado por los puentes de hidrógeno que se forman entre sus moléculas (Aguilar et al., 2016). La glicerina cruda constituye una mezcla que contiene diferentes cantidades de glicerina (mayor porcentaje), detergente, alcohol (fundamentalmente metanol), sales de sodio o potasio en dependencia del catalizador usado, materia orgánica no glicerol (MONG) y agua. La composición de la glicerina cruda registra marcadas diferencias en los valores reportados por diferentes autores (porcentajes o intervalos) y en el tipo de variables medidas (Aguilar et al., 2016). En (Maldonado Ordoñez, 2013) se presentan los datos generales y propiedades físicas de la glicerina comercializada actualmente en el mercado. Refinación de la glicerina Los estudios de purificación de glicerina indican la necesidad de desarrollar nuevos métodos según el tipo de transesterificación, los parámetros físicos y la calidad de la glicerina. La elección del método apropiado para la purificación depende de muchos factores, tales como: los costos empleados en el sistema de depuración y la calidad del producto final. Algunas de las técnicas de purificación más utilizadas son: recuperación, concentración, refino, destilación, blanqueo e intercambio iónico (Pereira & De Souza, 2019). El glicerol crudo requiere una serie de pasos de purificación antes de convertirlo en productos valiosos que es mediante la eliminación de las impurezas como el exceso de catalizador, jabón, ácidos grasos libres y materia orgánica distinta del glicerol (MONG). Actualmente, las tecnologías de purificación se consideraron caras y complejas. Como resultado, se han realizadas muchas investigaciones para producir glicerol puro rentable a partir de producción orgánica mediante neutralización, filtración, evaporación, vacío resinas de destilación e intercambio iónico, entre otros procesos (Isahak et al., 2016). Se tiene como objetivo hasta el momento de lograr la refinación y/o purificación de la glicerina obtenida como subproducto principal en la producción del biodiesel a partir del proceso de transesterificación y en función del alto índice de pureza que tenga esta glicerina, saber a qué destinarla según las especificaciones establecidas por expertos en la materia y obtenidas en artículos internacionales. Se hará mediante propuestas, haciendo un estudio profundo de literaturas que abordan dicho tema, con la finalidad de obtener la propuesta ideal y eficaz a la hora de alcanzar el producto deseado, económicamente factible, ambientalmente viable y de alta calidad. Propuesta de procedimientos o métodos para la refinación a nivel de laboratorio • Método 1 Las muestras se purifican utilizando dos procedimientos de diferentes operaciones, según (Morales, Polich, Sequeira, Chamorro, & Herrero, 2011) en la figura siguiente se muestra uno de ellos. Figura 3: Segundo procedimiento de purificación del glicerol. Fuente: Tomado de (Morales et al., 2011) Acondicionamiento de la muestra: en ambos casos, las muestras de glicerina sólida deben ser diluidas en la misma proporción en peso de agua destilada. Se trabaja normalmente con 50 g de glicerol y 50 g de agua destilada. La disolución se hace con agitación suave y un leve calentamiento hasta 30 ºC, la razón de realizar una disolución acuosa es que se necesita neutralizar la muestra de glicerol que tiene cantidades importantes de hidróxido de sodio (catalizador homogéneo de la transesterificación) (Morales et al., 2011). Neutralización: En ambos casos, se determina el pH inicial, el cual en todos los casos es de carácter básico en el orden de pH 10, lo cual es de esperar ya que la glicerina cruda también tiene residuos del catalizador utilizado en la transesterificación. Luego, para neutralizar con la consecuente formación y precipitación de sales se le agrega ácido concentrado hasta alcanzar un pH ligeramente ácido (pH:6). La neutralización se realiza a temperatura ambiente y con agitación, agregando gota a gota ácido y controlando con un pHmetro. Con el agregado de ácido se podrá observar que la muestra se va aclarar, tornándose de aspecto lechoso en todos los ensayos, esto se debe a la formación de pequeño precipitado que da el aspecto de una suspensión coloidal. Una vez alcanzado el pH 6, se sigue agitando durante 15 minutos. Se dejan reposar las muestras y se observa la formación de 2 fases, la más oscura en la parte superior corresponde a la fase orgánica insoluble en agua. Se puede o no observar precipitados en el fondo del recipiente o también en algunos casos partículas blancas en la interfase. La neutralización se ensaya con ácido fosfórico, ácido clorhídrico y ácido sulfúrico, en dependencia de cual logra separar un mayor porcentaje de impurezas, obteniéndose una fase acuosa más clara (Morales et al., 2011). Filtración: Luego de neutralizadas las muestras de glicerol crudo, en ambos esquemas, son filtradas dos veces, para ello se utiliza trampa de vacío y embudo butchner y papel de filtro. En todos los casos se espera muy poco precipitado en el papel de filtro de la segunda filtración. También se espera distintos aspectos de sólidos filtrados según el ácido utilizado para la neutralización (Morales et al., 2011). Destilación Simple: Siguiendo el primer esquema de trabajo, en esta etapa se separa toda el agua que viene con la muestra a determinadas condiciones operativas como la presión atmosférica, temperatura del baño (130 – 150 ºC), temperatura del balón (105 ºC), agitación a altos rpm, tiempo aproximado de 1,5 h. Con esta destilación se consigue concentrar la glicerina, pero ésta aún presenta impurezas coloreadas y restos de biodiesel por lo que es necesario realizar una destilación al vacío para finalmente lograr glicerina con un alto grado de pureza (Morales et al., 2011). Destilación al vacío del glicerol: La destilación a alto vacío se realiza con una bomba para este fin con determinadas condiciones de operación como la presión de vacío (720 - 730 mmHg), temperatura del baño (160 – 180 ºC), temperatura del balón (130 – 140 ºC), agitación y tiempo aproximado de 40 minutos. Finalizada la destilación al vacío se espera dos fases bien definidas en el destilado, la superior de biodiesel y la inferior de glicerina pura (Morales et al., 2011). Separación de fases: La separación de fases del destilado se realiza con ampolla de decantación. La capa superior inmiscible en agua, se determina en placa cromatografía que se trata de biodiesel. La capa inferior, mucho más densa y miscible en agua, correspondiente a glicerina. En el segundo esquema de trabajo, todos los ensayos se repiten siguiendo la misma metodología solo que luego de la filtración se separan las fases presentes y se las destila por separado (Morales et al., 2011). Caracterización de la glicerina purificada: Se determina la densidad e índice de refracción tanto de la glicerina como del biodiesel obtenido de la destilación al vacío, según normas estándares (Morales et al., 2011). El método planteado es sencillo y permite la recuperación de cerca de 28 % de la masa tratada como glicerol puro y se puede observar que la fase glicerina que se separa de la reacción lleva cerca de un 17 % de biodiesel, que con el método planteado es posible recuperarlo. • Método 2 Inicialmente, las muestras son acidificadas con ácido clorhídrico (35.5-38%) 1N para separar los jabones y neutralizar el residuo de NaOH contenido en ellas. Luego se realiza una decantación en donde se separa la solución acuosa de glicerina, la cual se encuentra en la fase inferior, de los ácidos grasos crudos formados en la acidificación. A continuación, la solución acuosa de glicerina es filtrada para separar las impurezas y luego es neutralizada con NaOH 1N. Finalmente, las muestras son sometidas a calentamiento, mediante un mechero de bunsen para concentrar la solución de glicerina. La sal que cristaliza por el cambio de solubilidades debido a esta operación térmica es removida por filtración (Ferrero, Rosa, & Veneciano, 2010). Ver la siguiente figura. Figura 4: Proceso de purificación de la glicerina Fuente: Tomado de (Ferrero et al., 2010) El proceso desarrollado permite obtener un producto cuya composición final es apta para ser incluida como suplemento energético en la alimentación animal. Además, dicho proceso es sencillo desde el punto de vista tecnológico y de los insumos utilizados. • Método 3 La glicerina cruda es primeramente acidulada al papel tornasol con HCl 6M, para separar los ácidos grasos que contenga en un embudo de separación; seguida de su neutralización con NaOH 0,1 M. 500 cm3 de esta glicerina libre de ácidos grasos se transfiere a un balón de destilación de 1 L y se procede a calentar hasta que el destilado tenga 100 °C. Dicho destilado contiene metanol y fue reutilizado para la producción de biodiesel. La destilación continua, pero a presión reducida (15 - 20 mmHg), descartándose la fracción que se destila a menos 135 °C. La glicerina se destila a 135 – 140 °C. La glicerina obtenida tendrá una coloración amarillenta, que se elimina al re-destilarla con una columna de fraccionamiento de 20 platos teóricos (Johnson, Bonilla, & Yao, 2013). La destilación directa de la glicerina cruda presenta muchos problemas técnicos, por lo que normalmente se opta por la separación previa de los ácidos grasos presente en ella, representando un 43 % por volumen. El 12 % del destilado corresponde a metanol, 35 % a glicerina y el resto (10 %) corresponda a agua, biodiesel y residuos en el balón de destilación. La glicerina obtenida ofrece un valor agregado a la producción de biodiesel. • Método 4 Como el glicerol crudo recibido es sólido a temperatura ambiente, alrededor de 200 g de glicerol crudo se funden a 55 °C en un recipiente de 500 mL vaso de precipitados colocado sobre una placa magnética. El glicerol crudo fundido bajo suave agitación se acidifica con diferentes ácidos (ácido sulfúrico, ácido clorhídrico y ácido fosfórico, respectivamente) a un pH deseado y se mantiene durante un tiempo suficientemente largo para permitir la formación de tres capas separadas. La capa superior es la fase de ácidos grasos, la media es la fase rica en glicerol y la inferior es la fase de listones inorgánicos. La fase del fondo se separa por simple decantación. El graso en la fase superior rica en ácido se separa de la fase rica en glicerol utilizando un embudo separador. El glicerol extraído se neutraliza usando Solución de KOH 12 M seguida de evaporación de agua a 110 °C durante 2 h y filtración para eliminar la sal precipitada (MR, Z, Qin W2, & X, 2014). El glicerol obtenido se purifica adicionalmente mediante extracción con disolvente, proceso utilizando metanol como disolvente para promover la precipitación de sales disueltas. Las sales precipitadas se separan por filtración y pasa a través de una columna de carbón activado para decolorar y eliminar el olor y algunos iones metálicos (MR et al., 2014). El ácido fosfórico es el mejor agente acidificante entre los otros ácidos minerales probados para acidificación de glicerol crudo para purificación. El contenido de glicerol aumenta aproximadamente 13% en peso en el glicerol crudo y a más de 96% en peso en el glicerol purificado productos. La densidad, viscosidad, pH y contenido metálico de los productos de glicerol purificado se analizan y se encuentran muy cerca a la del glicerol puro disponible comercialmente. La espectroscopia UV-VIS demuestra una absorbancia del glicerol purificado a la del glicerol puro. La naturaleza biogénica del fósforo, las aplicaciones de alto valor de los fosfatos con fácil escalabilidad del proceso lo hacen muy prometedor para comercialización. • Método 5 a) Prepurificación de glicerina Lavado con disolvente: Se transfiere una muestra de 100 mL de glicerina a un embudo de decantación al que se le añade unos 30 mL de hexano, estando el embudo tapado y agitado. La mezcla se deja reposar durante 24 horas para la separación de las fases. Este paso tiene como objetivo extraer los residuos de ésteres y triglicéridos. Después de separarse, la fase de hexano se recupera utilizando un evaporador rotatorio, pesando el residuo (Pereira & De Souza, 2019). Acidificación: Debido a que la glicerina es bastante viscosa a temperatura ambiente, la muestra se calienta a 60 °C. Luego, lentamente titulado con ácido sulfúrico (H2SO4 6N, 98%) hasta pH 4, utilizando tiras de medición como indicador de pH. El ácido sulfúrico reacciona con el jabón presente en la mezcla para formar ácidos grasos libres (Pereira & De Souza, 2019). Separación: La muestra acidificada se coloca en un embudo de decantación y se deja reposar durante un período de 2 horas para la separación de fases. La fase ligera está compuesta por ácidos grasos y la fase pesada comprende glicerina, que estaba separado (Pereira & De Souza, 2019). Neutralización: La muestra se neutraliza a temperatura ambiente con hidróxido de sodio (NaOH 6N) hasta pH entre 6,5 y 7,5 (la medición del pH se realiza mediante tiras indicadoras). Luego se filtra la glicerina para retener jabones y otras impurezas (Pereira & De Souza, 2019). Salazón-Salida: Corresponde al paso final de la prepurificación, este proceso se conoce como precipitación por antidisolvente, teniendo como función eliminar las sales formadas durante el proceso de acidificación y neutralización, un simple método en el que se añade etanol a las muestras en una proporción de 2:1 en relación con el volumen de glicerina y esperando 24 horas para decantar y posteriormente centrifugar durante 5 min a 5000 rpm. Para una mejor retención de impurezas, se filtra la glicerina usando diatomita como medio de filtrado (Pereira & De Souza, 2019). Evaporación: El etanol se evapora en un rotavapor, para obtener solo glicerina y agua. El proceso se lleva a cabo hasta obtener la cantidad inicial de alcohol utilizada en el proceso de salazón-salida para ser reutilizado (Pereira & De Souza, 2019). Adsorción con carbón activado: Se utiliza carbón activado en el tratamiento para eliminar el color y el olor de la muestra de glicerina como detallado a continuación (Pereira & De Souza, 2019). Cantidad de carbón activado: Para la eliminación del color se realizan pruebas con diferentes masas de carbón activado (desde 1,0 a 5,0 g) por cada 50 ml de solución de glicerina prepurificada (glicerina diluida al 35 % en agua). Entonces, la absorbancia es medida en ultravioleta visible (UV-Visible) en longitud de onda corresponde al color (Pereira & De Souza, 2019). Tiempo de contacto: La solución de glicerina se deja en contacto con el carbón activado durante un período de 15 horas, durante ese tiempo, se toman muestras después de 1 y 5 horas, midiéndose: conductividad, pH y glicerol contenido. Después de eso, se filtra con diatomita (Pereira & De Souza, 2019). En la etapa de purificación previa de la glicerina cruda en la quinta propuesta, es eficaz para eliminar la mayoría de las impurezas. Se puede observar que el contenido de glicerol de la muestra aumenta en comparación con la muestra de glicerina cruda. Una glicerina para ser considerada rubia debe tener una pureza mínima del 80%. Por tanto, la glicerina después del proceso de prepurificación ya se puede considerar glicerina rubia. Con esta pureza, la glicerina ya puede ser aplicada en la producción de plásticos, aditivos, biopelículas, entre otros. b) Purificación de glicerina prepurificada por intercambio iónico Las resinas utilizadas en este proceso son: C-160 (catiónica) y A-133 (aniónica) y una resina mixta (Purolite Marcos). Para asegurar una buena difusión a través de la resina, en todos los casos la glicerina se diluye en agua destilada a una concentración media de 35% de glicerina prepurificada. Los ensayos se realizan pasando la solución a través de las resinas, primero en serie: a través de la resina catiónica, luego a través de la resina aniónica y luego a través de la mezcla resina, y, además, los ensayos se realizan individualmente con cada tipo de resina, evaluando su efecto por determinación de la conductividad eléctrica de la glicerina, utilizando un conductímetro digital. Para evaluar el rendimiento mejorado de las resinas y en consecuencia obtener una mejor calidad de glicerina, se realizan cuatro pasos de procesos de intercambio iónico conocidos como 1º, 2º, 3º y 4º (Pereira & De Souza, 2019). 1º (Resinas en serie) pasando la solución a través de la resina catiónica, luego a través de la resina aniónica y luego a través de la mezcla resina; 2° (Resina individualmente) pasando la solución a través de la resina catiónica; 3° (Resina individualmente) pasando la solución a través de resina aniónica; 4° (Resina individualmente) pasando la solución a través de la resina mezclada (Pereira & De Souza, 2019). A partir de 3 gramos de carbón activado por 50 mL de glicerina es suficiente para eliminar el color, de acuerdo con las mediciones de absorbancia en la longitud de onda equivalente al color. Se puede observar que la conductividad y el pH permanecen casi constantes en el tiempo. El contenido de glicerol disminuye con el tiempo, lo que indica que el carbón activado adsorbe el glicerol, lo que no se desea. En el caso del color, en solo 1 hora de contacto del carbón activado con la glicerina es suficiente para la eliminación completa del color. Sobre los valores del glicerol contenido, luego de pasar por el carbón activado, se observa que existe una pequeña adsorción de glicerol en el proceso, sin embargo, la glicerina que pasa a través del carbón activado es indispensable para la eliminación de color y olor. Haciendo una comparación con el tratamiento utilizando diferentes tipos de resina, se puede ver que las resinas catiónicas y aniónicas, individualmente tienen peores resultados manteniendo el contenido de glicerol en un porcentaje menor que las muestras de glicerina prepurificada tratadas con Carbón activado. En el caso de la resina mixta, se observa un aumento en el contenido de glicerol. Esto probablemente se debe a la retención de compuestos en la resina y poca o ninguna retención de glicerol, lo que hace que las soluciones estén más concentradas en contenido de glicerol. A modo de resumen, la prepurificación de glicerina es eficaz para eliminar impurezas, sales y ácidos grasos libres que componen el color y el olor de la glicerina. Que el carbón activado, retenga o no un pequeño porcentaje de glicerol, es importante para eliminar el color y el olor de la glicerina prepurificada. Haciendo una comparación con los tipos de resina utilizados en el proceso de purificación por intercambio iónico, se puede observar que el catión y las resinas aniónicas, individualmente, son ineficaces en el tratamiento, manteniendo el contenido de glicerol más bajo que la muestra de glicerina prepurificada y tratamiento con carbón activado. Para las resinas en serie, los resultados son insatisfactorios, con un porcentaje de purificación solo ligeramente superior en comparación con el tratamiento con carbón activado, con el fin de que es el tratamiento más costoso habiendo utilizado todo tipo de resinas. El resultado más eficiente presentado después de todo el proceso está relacionado con el procesamiento de purificación por intercambio iónico con la resina mixta, en la que el contenido de glicerol aumenta considerablemente en la glicerina. • Método 6 Glicerina cruda se calienta a una temperatura de 60 °C y se acidifica añadiendo (85% de ácido fosfórico, 96% de ácido sulfúrico y 65% de ácido nítrico) hasta 36 mmol poco a poco mientras se agita continuamente, seguido de agitar con el uso de un agitador magnético a 400 rpm durante 30 minutos. La solución luego se deja reposar durante 30 minutos. En la siguiente etapa, la glicerina acidificada está separada por su sedimento y analizada para los niveles de glicerina (Hudha & Laksmana, 2018). La glicerina resultante sólo necesita ser separado del metanol (mediante evaporación (temperatura y vacío - si se requiere mejorar la eficiencia de evaporación), y condensación del metanol) y así tendrá una pureza considerable y aceptable. En esta forma ya está listo para su venta a otros procesos industriales que lo refinen aún más, o que requieran este insumo en este estado. El metanol recuperado tanto de los metilésteres como de la glicerina suele contener agua derivada del proceso y por lo tanto debe ser rectificado (es decir, destilado para separarlo del agua) antes de volver a utilizarlo en el proceso. Si se está trabajando con etanol, este paso es más complejo ya que el etanol forma mezclas estables (Azeótropos) con el agua, y se requiere además de la destilación un filtro molecular para separarlos completamente. Otros estudios reportan, en menor medida la utilización de resinas de intercambio iónico (catiónicas y aniónicas) para la purificación de la glicerina en función de la utilización que se la quiera dar. Sin embargo, estas aplicaciones no llegan a su explotación a escala comercial, limitándose a pruebas a escala laboratorio. Para cambiar el olor y el color se utilizan así mismo procesos de absorción, a través de carbón activado seguidos de filtración de la glicerina purificada (J & J., 2015). 3. CONCLUSIONES A partir del estudio bibliográfico, se seleccionó 6 métodos para la refinación de la glicerina cruda a nivel de laboratorio. De ellos se propone, el primer método ya que es el más empleado y simple de ejecutar y con este se puede obtener una glicerina de grado técnico. También el quinto método, aunque sería el más costoso debido a todos los materiales y procesos por realizar, que permite alcanzar una glicerina refinada o de grado USP con fines farmacéuticos debido a su alto grado de pureza. REFERENCIAS 1. Acosta Fernández-Getino, M. V. (2020). Empleo de dos catalizadores en la transformación del aceite vegetal residual. Universidad Tecnológica de La Habana La Habana. 2. Aguilar, C. B., Prado, R. d. M., Gonzáles, L. C., & Campos, C. N. S. (2016). Características de la glicerina generada en la producción de biodiesel, aplicaciones generales y uso en el suelo Cultivos Tropicales, 37. Retrieved from http://dx.doi.org/10.13140/RG.2.1.4329.2403 3. Campbell Ramos, M. (2019). “Cuantificación de los ésteres para verificar el completamiento de la transesterificación de aceites vegetales usados”. Universidad Tecnologica de La Habana, La Habana, Cuba. 4. Diaz Holguin, K. D. ( 2017). Estandarización del proceso de obtención de polioles a partir de aceites vegetales mediate glicerólisis. Universidad ECCI, Bogotá. 5. Eduardo Manuel, R. B. E., & Eduardo, R. G. C. (2013). Diseño de instalación de una planta para purificación de glicerina obtenida en la producción de biodiesel. Universidad Nacional de Trujillo, Trujillo. 6. Ferrero, A. J., Rosa, I. M., & Veneciano, E. (2010). Proceso de purificación de la glicerina obtenida del biodiesel a pequeña escala. Centro de Investigación en Tecnología Lactocárnica. 7. González, C. E. G. (2014). Diseño de una planta de fabricación de jabón a partir de aceites vegetales usados Universidad de Almería, Almería. 8. Graciano, L., Reboursin, M., & Pertusati, E. (2020). Cadena de abastecimiento de ciclo cerrado aplicada al reciclaje de aceites vegetales usados Instituto Tecnológico de Buenos Aires Buenos Aires. 9. Hernández Fernández, M. (2017). “Utilización de catalizadores sólidos preparados para la transformación de aceite de soya usado”. Universidade Tecnologica de La Habana, La Habana 10. Isahak, W. N. R. W., Jahim, J. M., Ismail, M., Nasir, N. F., BA-Abbad, M. M., & Yarmo, M. A. (2016). Purification of crude glycerol from industrial waste: experimental and simulation studies. Journal of Engineering Science and Technology, 11. 11. Lázaro Vela, M. (2018). Alteraciones de los aceites vegetales durante la fritura. Universidad de Sevilla, Sevilla. 12. Maldonado Ordoñez, O. A. (2013). Evaluación de la producción microbiana de aceites a partir de la glicerina o glicerol proveniente de la producción de biodiesel. Universidad del Valle de Guatemala, Guatemala 13. Mendes, D. B., & Serra, J. C. V. (2012). Glicerina: uma abordagem sobre a produção e o tratamento. Revista Liberato, 13. Retrieved from danylobiologo@yahoo.com.br 14. Mesa, E. M. (2020). Estudio de viabilidad de la instalación de una planta de producción de biodiésel a partir de aceites de fritura usadas domésticos. Universidad de La Laguna, 15. Mollenido Mamani, P. (2017). Reaprovechamiento de aceites usados en pollerias para la producción de biosiesel - Juliaca. Universidad Nacional del Altiplano, Puno. 16. Montiel Díaz, W. D. L. Á. (2017). Elaboración de jabón líquido para uso industrial a partir de glicerina, como subproducto de la obtención de biodiésel, en el laboratorio 101 del Departamento de Química de la UNAN-Managua, Agosto a Diciembre 2016. Universidad Nacional Autónoma de Nicaragua, Managua, Managua. 17. Morales, W. G., Polich, N., Sequeira, A., Chamorro, E., & Herrero, E. (2011). Purificación de glicerol obtenido a partir de síntesis de biodiesel de aceite crudo de algodón. Avances en Energías Renovables y Medio Ambiente, 14. 18. MR, N., Z, Y., Qin W2, P. M., & X, C. (2014). Purification of Crude Glycerol using Acidification: Effects of Acid Types and Product Characterization. Austin Journal of Chemical Engineering, 7. Retrieved from www.austinpublishinggroup.com 19. Osorio Meniz, M. G. (2018). Mejora de Procesos para optimizar los volúmenes de obtención de glicerina y biodiésel en laboratorio a partir de aceite vegetal reciclado en la Universidad César Vallejo – ATE, 2018. . Universidad César Vallejo Lima. 20. Pereira, R. G., & De Souza, F. A. B. A. (2019). Purification and characterization of glycerin obtained from soybean biodiesel production. Revista Ibero-Americana de Ciências Ambientais, 10. Retrieved from http://doi.org/10.6008/CBPC2179-6858.2019.003.0022 21. Rincón Vija, L. A. (2018). Reutilización de aceites de cocina usados en la producción de aceites epoxidados 22. Rivera, Y., Gutiérrez, C., Gómez, R., Matute, M., & Izaguirre, C. (2014). Cuantificación del deterioro de aceites vegetales usados en procesos de frituras en establecimientos ubicados en el Municipio Libertador del Estado Mérida. Revista Ciencia e Ingeniería, 35. Retrieved from http://www.redalyc.org/articulo.oa?id=507550626005 Sobre los autores Marilin García Díaz: Facultad de Ingeniería Química. CUJAE. La Habana. Cuba. Ingeniera química. MSc. Ingeniería Alimentaria. Profesora Auxiliar. Miembro: ACTAC, UNAICC, SCQ. Franco Meneses Falcao: Facultad de Ingeniería Química. CUJAE. La Habana. Cuba. Ingeniero químico. Recién graduado José Gandón Hernández: Facultad de Ingeniería Química. CUJAE. La Habana. Cuba. Ingeniero químico. MSc. Especialista en diseño de procesos. Profesor Auxiliar. Especialista de alto nivel de la UNAICC. Miembro: UNAICC, ACTAC, SCQ. Carlos Cordoví Felipe: Facultad de Ingeniería Química. CUJAE. La Habana. Cuba. Ingeniero químico. DrC. Profesor Auxiliar. Guido Riera González: Facultad de Ingeniería Química. CUJAE. La Habana. Cuba. Ingeniero químico. DrC. Profesor Auxiliar. Miembro: UNAICC, ACTAC, SCQ. José Raúl Correa: Facultad de Química. UH. La Habana. Cuba. Licenciado químico. DrC. Profesor Auxiliar. Miembro SCQ APLICACIÓN DEL CAMPO MAGNÉTICO PARA EL AUMENTO DE LA CALIDAD DE BIOPRODUCTOS DE INTERÉS PARA LA AGROINDUSTRIA Siannah María Más Diego1, Elizabeth Tamayo Rosales2, Dalgis Guerrero Barriel2, Meybel Ríos Hernández 2, Héctor Tejera Cisneros1 1CNEA, Universidad de Oriente, Santiago de Cuba, 2Laboratorio Provincial de sanidad Vegetal, Santiago de Cuba 1e-mail: siannah@uo.edu.cu RESUMEN Los hongos entomopatógenos cumplen un papel esencial como bioplagicidas pues constituyen una alternativa viable y sostenible para el control de plagas en los cultivos, debido a que estos bioproductos no dejan residuos tóxicos y por lo general son específicos hacia su blanco biológico, reduciendo el riesgo de desarrollar resistencia en las plagas. La producción de bioproductos para el control de plagas en Cuba se realiza mayormente en los CREE donde el sustrato empleado es la cabecilla de arroz y se utilizan las tarrinas de polipropileno para su envase. En este trabajo se evaluó la calidad de los preparados obtenidos a partir de los microorganismos Beauveria bassiana (Cepa Bb1234) y Lecanicillium lecanii (Cepa Y-57), con la aplicación del campo magnético de inducción 80 mT a diferentes tiempos de exposición. El tratamiento por 30 min con campo magnético de inducción media de 80 mT mejora la concentración y viabilidad de Beauveria bassiana (Cepa Bb1234) y Lecanicillium lecanii (Cepa Y-57). PALABRAS CLAVES: Beauveria bassiana, Lecanicillium lecanii, campo magnético. MAGNETIC FIELD APPLICATION AT BIOPRODUCTS OF AGRO-INDUSTRIAL INTEREST FOR QUALITY INCREMENT ABSTRACT Entomopathogenic fungi play an essential role as biopesticides, since they constitute a viable and sustainable alternative for pest control in crops, since these bioproducts do not leave toxic residues and are generally specific to their biological target, reducing the risk of developing pest resistance. The production of bioproducts for pest control in Cuba is carried out mostly in the CREEs where the substrate used is the rice husk and polypropylene tubs are used for its packaging. In this work, the quality of the preparations obtained from the microorganisms Beauveria bassiana (Strain Bb1234) and Lecanicillium lecanii (Strain Y-57) was evaluated, with the application of the 80 mT induction magnetic field at different exposure times. Treatment for 30 min with an average induction magnetic field of 80 mT improves the concentration and viability of Beauveria bassiana (Strain Bb1234) and Lecanicillium lecanii (Strain Y-57). KEY WORDS: Beauveria bassiana, Lecanicillium lecanii, magnetic field. 1. INTRODUCCIÓN La Agricultura Sustentable resulta una respuesta reciente a la preocupación por la degradación de los recursos naturales y se asocia a tecnologías de avanzada donde se combinan los métodos tradicionales de conservación del medio y el equilibrio biológico, con las técnicas modernas para el control de plagas y enfermedades por medios naturales [1]. Como respuesta a la creciente demanda de alimentos se ha venido usando frecuentemente fertilizantes y plaguicidas para aumentar la producción y protección. Sin embargo, el uso indiscriminado de estos químicos ha tenido efectos secundarios que impactan negativamente el ambiente y la salud humana [2]. Al Control Biológico se lo considera como el método de control de plagas más viable, ecológicamente recomendable y auto sostenible. Pero, en la mayoría de los casos el Control Biológico por sí mismo, no provee una supresión económicamente aceptable de una plaga en los sistemas agrícolas, es por esto que debe ser desarrollado e implementado como un componente del Manejo Integrado De Plagas. [1] Los microorganismos entomopatógenos son capaces de producir enfermedad y muerte de los insectos, ya que los infectan directamente, mediante la penetración de la cutícula, además ejercen múltiples mecanismos de acción, confiriéndoles una alta capacidad para evitar que el hospedero desarrolle resistencia [3]. Estos organismos comprenden aproximadamente 750 especies agrupadas en 115 géneros entre los que se destacan por su importancia: Beauveria, Metarhizium, Tolypocladium, Paecilomyces, Nomuraea, Lecanicillium e Hirsutella [4]. En nuestro país se emplean varios hongos entomopatógenos como elementos de control para plagas de relevancia económica, como Lecanicillium lecanii, Beauveria bassiana, Metarhizium anisopliae y Paecelomyces lilacinus [5], los que refuerzan la acción de los enemigos naturales. El hongo entomopatógeno Beauveria bassiana está siendo estudiado de manera intensiva como agente de control biológico, para insectos y otras plagas artrópodas, por su amplia gama de organismos diana. El potencial de este microorganismo en el control biológico de insectos ha permitido su inclusión en diversos programas de manejo integrado de plagas que atacan cultivos de importancia económica en el mundo. En Cuba, actualmente se utiliza en el control biológico de insectos plaga como la broca del café (Hypothenemus hampei Ferrari) (Coleoptera: Scolytidae) [6]. Lecanicillium lecanii es altamente patógeno a los insectos chupadores, como el caso de los áfidos, escamas y moscas blancas; no causa daño a otros organismos, posee residualidad en campo y es inocuo para el ambiente, también puede ser aplicado con insecticidas, fertilizantes foliares y bactericidas [3]. Estudios realizados han demostrado que la aplicación de un campo magnético a microorganismos tiene un efecto estimulador en el crecimiento micelial y la formación de conidios [6]. Por lo que el objetivo de este trabajo esEvaluar el crecimiento celular de los hongos entomopatógenos Beauveria bassiana Lecanicillium lecanii a diferentes tiempos de exposición al campo magnético. 2. MATERIALES Y MÉTODOS El trabajo experimental se desarrolló en el Laboratorio de Microbiología de la Sala de Fermentación del Centro Nacional de Electromagnetismo Aplicado (CNEA). Se emplearon cepas de Lecanicillium lecanii (Cepa Y-57) concentración de 109 c/mL y una viabilidad de 99% y Beauveria bassiana (Cepa Bb1234) concentración de 108 /mL y una viabilidad de 98%, provenientes del Laboratorio Provincial de Sanidad Vegetal, Santiago de Cuba Se empleó un imán de campo constante y no homogéneo modelo IP 1000-12 [7]. El mismo fue calibrado por el método de Resonancia Magnética Nuclear (RMN), caracterizado magnéticamente con el Gaussímetro Modelo 410-HCAT con Número de Serie 42302, provisto del Sensor Modelo MST- 410 con Número de Serie HA2580, el cual ha sido calibrado contra los patrones de Lake Shore Cryotronics Inc. con Certificado de Calibración No. 66073-2 con fecha de emisión 14 de febrero del 2000 y contra la referencia del Patrón Nacional de la Magnitud Inducción Magnética que se encuentra en el Centro Territorial de Metrología de Santiago de Cuba. Se aplicó campo magnético de 80 mT, en tiempos de 15, 30, 45 y 60 minutos, para los que se realizaron 3 réplicas en cada uno de ellos. La aplicación del campo magnético se realizó al sexto día de inoculación de la cepa. 3. RESULTADOS Y DISCUSIÓN En la Figura 1 se muestran los resultados de la aplicación del campo magnético para el mejoramiento de calidad de Beauveria bassiana (Cepa Bb1234). 57.21 32.40 85.50 49.33 48.33 0.00 10.00 20.00 30.00 40.00 50.00 60.00 70.00 80.00 90.00 100.00 Testigo 80 mT-15 min 80 mT-30 min 80 mT-45 min 80 mT-60 min C o n ce n tr a ci ó n (1 0 8 . c o n id io s/ m L) Figura 1: Efecto de diferentes tiempos de exposición en la concentración de conidios de Beauveria bassiana (Cepa Bb1234) Se observa que para el tratamiento con campo magnético de inducción media de 80 mT el tiempo de 30 min es donde se observan los mejores resultados. Para los otros tiempos analizados no existen diferencias estadísticamente significativas en cuanto a concentración. En estudiados realizados el campo electromagnético parece facilitar la entrada de nutrientes a la célula, lo que se traduce en un mejor aprovechamiento del oxígeno disuelto en el medio por parte de los microorganismos y, por consiguiente, contribuye al mejoramiento de la respiración y al crecimiento celular [8]. No existen diferencias estadísticamente significativas con respecto a los valores de viabilidad. Estos se mantienen por encima del 80 % por lo que el criterio para definir el mejor resultado es el de la mayor concentración celular. 90.54 88.00 88.33 92.33 92.33 60.00 65.00 70.00 75.00 80.00 85.00 90.00 95.00 100.00 Testigo 80 mT-15 min 80 mT-30 min 80 mT-45 min 80 mT-60 min V ia b il id a d (% ) Figura 2: Efecto de diferentes tiempos de exposición en la viabilidad de Beauveria bassiana (Cepa Bb1234) En la Figura 3 se muestran los resultados de la aplicación del campo magnético para el mejoramiento de calidad de Lecanicillium lecanii (Cepa Y-57) Figura 3: Efecto de diferentes tiempos de exposición en la concentración de conidios de Lecanicillium lecanii (Cepa Y-57) En este caso se observa que el tratamiento de 30 minutos obtuvo mejores resultados con respecto a todos los demás. De manera general, se puede decir que todo factor que influye negativamente en la capacidad de reproducción de las células puede considerarse como estrés. Durante un cultivo, las células consumen nutrientes para poder reproducirse. Cuando la concentración de alguno o varios nutrientes disminuye de tal forma que la velocidad de reproducción de las células también disminuye, hablamos de un estrés de tipo nutricional. Dependiendo de la magnitud y la duración del estrés, éste puede considerarse como subletal, cuando las células son capaces de reproducirse, aunque a una menor velocidad, o letal, cuando el daño es tan importante que las células mueren [9]. Para este caso,[10] reportó que el campo magnético puede ser interpretado como un evento de estrés para las células y que el sistema responde de una manera tal de contrarrestar tales eventos. En la Figura 4 se muestran los resultados de la aplicación del campo magnético en la viabilidad de Lecanicillium lecanii (Cepa Y-57) Figura 4: Efecto de diferentes tiempos de exposición en la viabilidad de Lecanicillium lecanii (Cepa Y- 57) Se observa que para el tratamiento con campo magnético de inducción media de 80 mT el tiempo de 30 min es donde se observan los mejores resultados. Para los otros tiempos analizados se aprecia una ligera disminución no significativa en cuanto a concentración y viabilidad. Los efectos de estimulación o inhibición de los campos magnéticos se han atribuido a cambios en la orientación de las biomoléculas (proteínas), cambios en las biomembranas (lipídicas y plasmáticas), alteraciones del flujo de iones a través de la membrana plasmática y/o cambios en la estructura de las biomoléculas [11]. 4. CONCLUSIONES El tratamiento por 30 min con campo magnético de inducción media de 80 mT mejora la concentración y viabilidad de Beauveria bassiana (Cepa Bb1234) y Lecanicillium lecanii (Cepa Y-57) RECONOCIMIENTOS Este trabajo se realizó en el marco del proyecto territorial PT-223-SC-001.2. “Aplicaciones del campo magnético a microorganismos de interés para la agroindustria” REFERENCIAS 1. VÁZQUEZ MORENO, L. L. Tendencias y percepciones acerca del manejo de plagas en la producción agraria sostenible. En Proceedings of the XV Congreso Científico del Instituto Nacional de Ciencias Agrícolas (INCA), La Habana2006, 1-27. 2. BAUTISTA, E. J.; MESA, L. ; GÓMEZ ALVAREZ, M. Alternativas de producción de bioplaguicidas microbianos a base de hongos: el caso de América Latina y El Caribe. Scientia Agropecuaria 2018, 585 – 604 http://www.scielo.org.pe/scielo.php?script=sci_arttext&pid=S2077- 99172018000400015&lng=pt&nrm=iso 3. PADILLA SANTANA, V. A. ; PÉREZ SALINAS, M. Evaluación de dos productos y tres dosis de Verticillium lecanii(Verticillium lecanii) para el control de mosca blanca (Bemisia tabaci) en tomate hotícola(Lycopersicum esculentum). 2017. https://repositorio.uta.edu.ec/handle/123456789/26409. 4. ESTRADA MARTÍNEZ, M. E. Utilización de hongos entomopatógenos para el control biológico de artrópodos plagas agrícolas. Revista Científica Agroecosistemas. 2019 134-139. 5. HERNÁNDEZ MANSILLA, A. A. ; ROSÓN ÁLVAREZ, C. Evaluación preliminar y la esporulación de Aschersonia Aleyrodis Webber en medios de cultivo convencionales. . Fitosanidad. 2005, 9. 6. MAS-DIEGO, S. M.; RIBEAUX-KINDELÁN, G. ; CABRERA-CHAMIZO, C. A. Incremento de la biomasa de la levadura Saccharomyces cerevisiae con aplicación de un campo magnético de intensidad constante. ICIDCA. Sobre los Derivados de la Caña de Azúcar. 2017, 51 (1, enero-abril), 43-46. [0138- 6204 0138-6204]. http://www.redalyc.org/articulo.oa?id=223153894007. 7. TRISTÁ MONCADA, J. J.; BERENGUER MAURANT, A.; DEÁS YERO, D.; RIBEAUX KINDELÁN, G., et al. Magnetizador a imanes permanentes exteriores. Universidad de Oriente, Patente Certificado de Autor de Invención Cuba, 1997. 8. CAMPOS SOFÍA, M.; MAS DIEGO, S.; GONZÁLEZ MORLÁ, A.; CABEZA PULLÉS, D., et al. Influencia del campo electromagnético en la KLa en la fermentación en fase sumergida de Trichoderma viride. Tecnología Química. 1999, XIX. https://www.researchgate.net/publication/277097292_Influencia_del_campo_electromagnetico_en_el_K La_en_la_fermentacion_en_fase_sumergida_de_Trichoderma_viride&ved=2ahUKEwirj5r6lYrtAhVvu1k KHXMcCF0QFjAAegQIARAB&usg=AOvVaw3RcLH1u7D7EjlZcUwBv5M-. 9. GALINDO, E.; PEÑA, C. ; CARRERÓN, S. Domesticar microorganismos en un biorreactor: los retos del bioingeniero., 2007. 10. SANTOS OLIVERA, L.; ALEGRE MONTE, R. ; GARCÍA CRISTINA, D. Effects of magnetic fields on biomass and glutathione production by the yeast Saccharomyces cerevisiae. . 2010, 1362-1367. https://www.sciencedirect.com/science/article/abs/pii/S1359511310001893. 11. GARCÍA CALDERÍN, K. Uso de Trichoderma harzianum Rifai (A-34) tratado con campo magnético estático en el cultivo de la habichuela china Vigna unguiculata (L.) Walp. . 2019 Sobre los autores Siannah María Más Diego: Doctor en Ciencias, Profesor Titular. Investigador Titular del Centro Nacional de Electromagnetismo Aplicado. Santiago de Cuba Elizabeth Tamayo Rosales: Especialista en Control Biológico. Laboratorio Provincial de Sanidad Vegetal. Santiago de Cuba. Dalgis Guerrero Barriel: Máster en Ciencias, Especialista en Control Biológico. Laboratorio Provincial de Sanidad Vegetal. Santiago de Cuba. Meybel Ríos Hernández: Máster en Ciencias, Especialista en Control Biológico. Laboratorio Provincial de Sanidad Vegetal. Santiago de Cuba Héctor Tejera Cisneros: Investigador del Centro Nacional de Electromagnetismo Aplicado. Santiago de Cuba HLB DE TENSIOACTIVOS Y SUS MEZCLAS BINARIAS. PERMITIVIDAD EQUIVALENTE Juan José Llovera González Instituto de Ciencias Básicas, Departamento de Física, Universidad Tecnológica de La Habana “José Antonio Echeverría “ Cujae. Ave 114 No. 11901 entre 119 y 127 Marianao, La Habana Cuba e-mail: llovera@icb.cujae.edu.cu RESUMEN La permitividad de las mezclas de líquidos emulsificantes es un parámetro físico de interés en la determinación del grado de asociación molecular de dichos líquidos. Las fórmulas semiempíricas conocidas para calcular la permitividad de dichas mezclas no reproducen en algunos casos los valores experimentales obtenidos, en particular esto ocurre en el caso de líquidos de estructura molecular anfifílica. En este trabajo se presentan los resultados obtenidos en el estudio de la permitividad de mezclas de líquidos emulsificantes así como ecuaciones que permiten ajustar los resultados experimentales con un buen grado de precisión y su aplicación para determinar el balance hidrófilo lipófilo (HLB) de tensioactivos y sus mezclas binarias. PALABRAS CLAVES: Emulsiones, tensioactivos, dieléctricos, constante dieléctrica HLB OF SURFACTANTS AND HIS BINARY MIXTURES. EQUIVALENT DIELECTRIC CONSTANT The dielectric constant of mixtures of surfactants liquids of complex molecular structure is a physical parameter of interest in the determination of the degree of molecular association of this liquids. The hemi empirical formulas well-known to calculate the dielectric constant of this mixtures don't reproduce in some cases the obtained experimental values, in particular this happens in the case of liquids of anphiphylic molecular structure. In this work the results are presented obtained in the study of the dielectric constant of mixtures of these liquids as well as one formulates that it allows to adjust the experimental results with a good degree of precision and its application to determine the hydrophilic lipophilic balance (HLB) of surfactants and their binary mixtures. KEY WORDS: Emulsions, surfactants, dielectrics, dielectric constant. 1. INTRODUCCIÓN Las mezclas de dieléctricos se pueden clasificar en dos tipos, las llamadas mezclas moleculares o disoluciones y las llamadas mezclas caóticas o estadísticas. Cuando se mezclan emulsificantes a fin de lograr uno tal que responda adecuadamente a los requerimientos de emulsificación de cierto aceite con agua, por lo general estos emulsificantes se disuelven entre si conformando una disolución molecular. Aunque hay una literatura muy abundante en relación con la dependencia de la permitividad con la estructura molecular de la sustancia, [1-4] esta se concentra fundamentalmente en los estados agregativos gaseoso y sólido, no ocurre igual en el caso del estado líquido donde por lo general se trabaja con disoluciones diluidas de un líquido polar en uno no polar evitando así las complejidades del análisis de la interacción cercana dipolo-dipolo y el fenómeno de asociación entre moléculas de diferente naturaleza. El estudio de la permitividad equivalente de una mezcla de moléculas anfifílicas está mucho menos tratado en la literatura y como se comprenderá presenta un nivel de complejidad mayor. Este es el caso de los agentes emulsificantes o tensioactivos cuyo objeto de estudio fue el de esta investigación. 2. FUNDAMENTO TEORICO E HIPÓTESIS Un modelo sencillo ha sido propuesto por Le Fevre [5] para considerar el efecto de interacción molecular de asociación sobre el momento dipolar equivalente a grupos de moléculas diferentes asociadas. Según este autor, las moléculas dipolares de estructura simple se asocian en compactos grupos acopladas de manera que como tendencia el momento dipolar equivalente del “cluster” formado sea nulo o mínimo posible. En la medida en que la estructura molecular se hace más compleja estas agrupaciones se conforman menos compactas no lográndose en general que sea anulado el momento dipolar resultante de tales “clusters”. Un resultado experimentalmente comprobado para muchas mezclas de dieléctricos es la llamada regla de Wiener, esta regla se refiere a los valores límites de la permitividad de una mezcla de dieléctricos y se corresponde con la desigualdad ieqm i         m 1 i i 1 i i 1 (1) Aquí eq es la permitividad de la mezcla siendo iyi  los valores de la permitividad y la fracción volumétrica del componente i. Como valores límites se consideran los correspondientes a los modelos de acoplamiento serie y paralelo de los dieléctricos componentes en un capacitor de placas planoparalelas respectivamente. Sí representamos en un gráfico los valores extremos de eq según esta regla obtenemos la siguiente figura. Fig. 1 Comportamiento teórico de la permitividad equivalente de mezclas bicomponentes de sustancias dieléctricas La curva A corresponde al límite superior 2 1    i iieq  (2) y la curva B al límite inferior    2 1 i i i 1   eq (3) de modo que cualquier otro resultado debe ubicarse en cierta curva C entre A y B. 1  2 En los trabajos de Gormann y Hall [6] estos autores hicieron estudios de la dependencia del logaritmo de la permitividad de la mezcla de dos tensioactivos respecto a las proporciones de estos en la mezcla observándose en la mayoría de las mezclas desviaciones de la linealidad por encima de los valores teóricos máximos esperados, este resultado contradice la regla de Wiener. Los resultados obtenidos por Gormann y Hall presentan curvas log eq vs  cuyos valores de permitividad están por encima de la curva A (curva D en el gráfico de la figura), la mayor discrepancia respecto del modelo lineal se corresponde con 5,021   aproximadamente en todos los casos, con independencia de los valores de las permitividades que muestran ambos dieléctricos. Un comportamiento similar reporta Papanastasiou [7] El autor estudió las datas reportadas por Gormann y Hall y desarrolló un estudio complementario con otras mezclas de tensioactivos formuladas en el laboratorio cuyas permitividades fueron medidas. De las 12 mezclas estudiadas se encontraron 6 en las cuales los valores de eq son superiores a los que reporta el modelo lineal en todo el rango de variación de la fracción  del primer componente, y 4 en las que eq es inferior al reportado por el modelo lineal; las otras se ajustan bien a dicho modelo Ninguna de las fórmulas que aparecen reportadas en la literatura para el cálculo de la permitividad de una mezcla bicomponente de líquidos dieléctricos reporta valores de permitividad que superen a los que se obtienen por la ley lineal en tanto, como ya hemos visto, tales valores se obtienen experimentalmente para algunas mezclas. La complejidad de las estructuras de las moléculas anfifílicas así como la complejidad de las interacciones moleculares entre las mismas no han posibilitado hasta hoy desarrollar un modelo único de las mezclas de líquidos dieléctricos que conduzca a una ecuación que resuelva la contradicción entre práctica y teoría anteriormente señalada. Tomando en cuenta la diversidad de fórmulas semiempíricas que hoy se conocen, el carácter limitado de la aplicación de cada una de estas, así como el hecho de que ninguna de las mismas permite ajustar datas en las cuales los valores de permitividad equivalente obtenidos mayoreen a los que se obtienen con el modelo lineal y que sí se obtienen en la práctica cuando se mezclan sustancias compuestas por moléculas anfifílicas, el autor ha propuesto como hipótesis de trabajo que para cualquier mezcla de dos líquidos dieléctricos siempre existe un número s característico de dicha mezcla y tal que la ecuación.   s 2 -1 s 1 s   eq Ley potencial de las mezclas binarias (4) reproduce los valores experimentales en todo el rango de variación de  (0    1) siendo  la fracción en volumen de la componente 1 en la mezcla. Tal ecuación satisface los requerimientos que debe cumplir para describir la permitividad equivalente de una mezcla, es decir: 1. El resultado de eq es invariante si se permutan 1 por 2 y  por (1- ) (condición de simetría). 2. eq =  sí 1 = 2 =  3. Sí la mezcla es unicomponente   1eq 4. Sí  se multiplica por una constante el resultado no se altera, en particular sí se multiplica por la constante eléctrica,  0, la regla es válida para la permitividad absoluta. No cumple sin embargo con la regla de Wiener [1] pero esto no es una insuficiencia de la ley propuesta sino que es el resultado del carácter limitado de dicha regla la cual evidentemente no se cumple cuando las moléculas de los líquidos mezclados presentan estructura compleja. Al exponente s lo denominaremos en lo adelante exponente de asociación de la mezcla binaria de líquidos dieléctricos. Como se comprenderá, el cálculo de la permitividad equivalente de una mezcla binaria de líquidos dieléctricos usando la ley potencial requiere del conocimiento del valor del exponente de asociación (s). Este valor se puede encontrar con la ayuda de un experimento previo que consiste en mezclar los componentes escogidos en proporciones iguales y medir la permitividad equivalente de dicha mezcla. Una vez conocida  eq se resuelve la ecuación trascendente siguiente:    s2 s 1 5,0 s  eq (5) y se obtiene el valor de s tal que          s 2 s 1 0,5 s eq  4 10 El valor de s así obtenido satisface la ecuación (4) para 1 0  con aproximación suficiente a los efectos de su utilización práctica. 3. RESULTADOS EXPERIMENTALES E INTERPRETACIÓN El autor ha realizado el ajuste de una data de 44 valores de permitividad equivalente correspondientes a 8 mezclas diferentes de tensioactivos dieléctricos con permitividades entre 19,34 y 3,37 y con  en la mezcla entre -0,57 y 1,03; para cada una de las mezclas se estimó el exponente de asociación y posteriormente se calcularon los correspondientes valores de eq aplicando la ley de potencia propuesta. En las tablas 1 (ver anexo) se reportan los resultados obtenidos en comparación con los resultados experimentales donde % = [(exp-  pot )/ exp]x100. El análisis de incertidumbre por el procedimiento A de los errores relativos porcentuales en las 44 muestras consideradas reporta que los mismos responden a una distribución normal con ̅̅ ̅̅ y ̅̅̅̅̅ resultando una incertidumbre expandida U( ̅̅ ̅̅ ) = 0,64 con nivel de confianza del 95% significando que ̅̅ ̅̅ está contenido en el intervalo -1,02  ̅̅ ̅̅  0,26. De lo anterior se concluye que la ley potencial de las mezclas propuesta se correlaciona muy satisfactoriamente con los resultados experimentales obtenidos. Queda por discutir entonces un posible sentido físico del exponente de asociación s. Como ya se ha explicado el exponente s es característico de cada mezcla. Comencemos por analizar el caso más general posible en el cual las moléculas son poliméricas y anfifílicas. Como es conocido el momento dipolar total de una molécula polimérica es el vector suma de los momentos dipolares de las unidades monoméricas constituyentes y depende de la configuración de la molécula del polímero [1,8,9,10]. Como la configuración de la cadena polimérica está variando continuamente, no es rígida y no tiene sentido definir un momento dipolar único y constante para dichas moléculas sino que solo se puede hablar de un momento dipolar medio que depende de la temperatura y del entorno molecular que rodea a una molécula cualquiera. Esta circunstancia trae como consecuencia que el momento dipolar del polímero en el volumen o en disolución diferirá del de la molécula aislada ya que las moléculas del propio polímero o del disolvente modifican la configuración. En general puede considerarse que:  T 2 2M   (6) donde el subíndice M denota que el polímero está mezclado  2 simboliza el valor cuadrático medio del momento dipolar de la cadena polimérica aislada y  (T) es la llamada función de estiramiento de la cadena que puede ser mayor o menor que la unidad de acuerdo a que la proximidad de las moléculas del entorno favorezcan el acoplamiento paralelo o antiparalelo de los dipolos de los monómeros. Esta función en general no puede ser calculada como ha sido discutido por Brouckere y Mandel [11] sino que solo puede ser tratada como una cantidad empírica cuyo valor refleja las particularidades de la interacción entre las moléculas de un polímero y otro, que puede estar afectada inclusive por un posible sinergismo en la mezcla [12]. De acuerdo a lo anteriormente expuesto el exponente de asociación s puede tener un significado físico similar y debe estar correlacionado con los valores de la función de estiramiento para las diferentes mezclas de moléculas poliméricas. Sí las moléculas son de estructura más simple entonces el exponente s continúa teniendo el mismo sentido físico, es decir, su valor es reflejo del grado de asociación molecular en la mezcla entre las moléculas de uno y otro componente pero sus valores posibles estarán en general en el intervalo –1  s  1 verificándose entonces la regla de Wiener. 4. APLICACIÓN EN LA SELECCIÓN DE TENSIOACTIVOS REQUERIDOS La selección de un tensioactivo apropiado para lograr una emulsión estable sea del tipo directa (O/W) o inversa (W/O), continúa siendo de interés para la formulación de emulsiones y no resulta una tarea teóricamente resuelta [13, 14, 15, 16, 17, 18]. La selección se basa en su número HLB que expresa el balance hidrófilo lipófilo de las moléculas que lo constituyen y en cálculos porcentuales aproximados. Se ha comprobado que existe una relación casi lineal entre este número HLB y el logaritmo de la permitividad de muchos tensioactivos [6] lo cual es de esperar si se tiene en cuenta que la relación entre la cadena hidrocarburo y el grupo polar de las moléculas anfifílicas que componen los tensioactivos determina su momento dipolar resultante de manera que tiene sentido definir una “permitividad requerida” como criterio de selección de un tensioactivo o una mezcla de estos para lograr una determinada emulsión. Un estudio experimental realizado por el autor [19] incorporando a los 20 tensioactivos comerciales estudiados por Gormann y Hall otros 5 tensioactivos más, 2 de estos de producción nacional (CC-102 y Tensioactivo IDO) permitió obtener la siguiente relación de ajuste lineal entre el logaritmo de la permitividad y el número HLB teóricamente calculado = 0,51 + 0,03 (HLB) (7) con un coeficiente de regresión de r = 0,977 para los 25 tensioactivos estudiados. Tomando como base esta relación se han estimado los valores de HLB equivalente de las mezclas reportados en las tablas 1. La evaluación de la capacidad de una mezcla de tensioactivos para lograr un HLB apropiado basada en la evaluación de su exponente de asociación s permite determinar en qué proporción deben mezclarse para lograr una permitividad requerida y en consecuencia el mejor valor del HLB de la mezcla. 5. CONCLUSIONES A manera de conclusión puede decirse que el cálculo de la permitividad equivalente de una mezcla de líquidos dieléctricos responde satisfactoriamente a una ley de potencia donde el exponente s está determinado por el grado de asociación molecular entre los componentes, la ley potencial propuesta responde muy satisfactoriamente a los resultados experimentales y permite incluir el comportamiento de las mezclas de agentes emulsificantes cuya permitividad adopta valores que están fuera del rango permitido por la desigualdad de Wiener. El exponente de asociación s así definido refleja el grado de asociación intermolecular y debe depender no solo de las estructuras moleculares de los emulsificantes que constituyen la mezcla sino que también de las características de la interacción molecular entre las moléculas de uno y otro componente así como también probablemente de la temperatura. La aplicación de estos resultados puede contribuir a la mejor selección de emulsificantes y sus mezclas para estabilizar emulsiones en sus múltiples aplicaciones en las industrias química, biotecnológica, farmacéutica y alimentaria. REFERENCIAS 1. Hill N. E. Vaughan W. E. “Dielectric Properties and Molecular Behaviour”, Van Nostrand Reinhold Co. London, 1969. 2. Fröhlich H. “Theory of Dielectrics”, Oxford University Press. London, 1963. 3. Smith C. P. “Dielectric Behaviour and Structure “,Vol 1 Mc. Graw Hill, N. Y., 1955. 4. Kirkwood J. G. “Documents on Modern Physisc”, Dielectric Intermolecular Forces – Optical Rotation, Vol 2, Gordon and Breach Science Publishers Inc. N. Y. 1965. 5. Le Févre, R. J. W. “Dipole Moments”, Mathuen, 1948. 6. Gormann W. G. Hall G. D. “ Use of the Dielectric Constant for the Classification of Surfactant” J. Pharm. Soi. Vol 52, No 5, pp 442 – 447, 1963. 7. Papanastasiou, G. E. and Zlogas I. I. “ Physical Behaviour of Some Reaction Media”. Journal of Chemical and Engineering, Data. No 1, pp 125, 1985. 8. Evans D. F. “Molecualar Forces in the Self – Organization of Amphiphiles”, J. Phys. Chem. Vol. 90, pp 226 – 234, 1986. 9. Monreau G. “Lipophilicity and Hidrophicity. Model of a two – Component. Molecule Containing Both Lipophilic and Hidrophilic. Groups”, Bull. Soc. Chem. No 718, pp 1247 – 1250, 1974. 10. Shinozaki K. “Effect of Blending Hidrophobic and Hidrophilic Surfactants on Some Properties”, J. SCCJ, Vol 16, No 1, pp 19 – 26, 1982. 11. Brouckere R. et al. Adv. Chem Phys. No 1, pp 77, 1958. 12. Jelesen, E. “Some Aspects of the Synergism of Mixtures of Nonionic and Anionic Surface – Active Agents”, Rev. Chim. Vol 17, No 1, pp 9 – 12, 1966 13. Martín Piñero, M.J., Santos García, J., Trujillo-Cayado, L.A., García González, M.d.C. y Alfaro Rodríguez, M.d.C. Influencia del tensoactivo en la formación y estabilidad física de emulsiones ecológicas concentradas. Afinidad: Revista de Química Teórica y Aplicada, 75 (581), 9-15 2018. 14. Griffin WC. Classification of surface-active agents by “HLB”. JSCC 1949;1:3 11-26 15. Monroy y Pereira Recent advances in nanoemulsions desing: concepts and trends across nanocosmetics / Revista Ingenieria UC, Vol. 27, No 3, Diciembre, 2020 249 – 272 16. Martínez, S. Síntesis, purificación y evaluación de surfactantes a partir de derivados de biomasa, 2019 recuperado de: http://ciqa.repositorioinstitucional.mx/jspui/handle/1025/599 17. J. Salager, R. Antón, J. Bullón, A. Forgiarini, and R. Marquez, “How to Use the Normalized Hydrophilic-Lipophilic Deviation (HLDN) Concept for the Formulation of Equilibrated and Emulsified Surfactant-Oil-Water Systems for Cosmetics and Pharmaceutical Products,” Cosmetics, vol. 7, no. 3, p. 57, 2020. 18. Godoy , M. et. al. “Determinación del balance hidrófilo-lipófilo (HLB) requerido de grasas y aceites de origen vegetal y animal, para su utilización en las formulaciones farmacéuticas y cosméticas” Tesis de grado, Universidad El Salvador, San Salvador 2004. 19. Llovera, J. J. “Métodos experimentales para el estudio de la estabilidad y la microexplosión de combustibles emulsionados”. ISPJAE Tesis de doctorado (1998). ANEXO TABLAS 1 Comparación de resultados experimentales de permitividad equivalente exp de las mezclas de diferentes tensioactivos con sus valores pot teóricamente calculados (*mezclas reportadas por Gormann y Hall)(** HLB calculados por la ecuación 7) Mezcla 1* 1 exp  pot % HLB ** Tween 20 1=9.89 Span 20 2=5.57 s=2.45 0,0 5,57 5,57 0 8,5 0,25 6,91 7,03 -1,74 11,9 0,50 8,150 8,15 0 14,0 0,75 9,29 9,08 2,26 15,6 1,00 9,89 9,89 0 16,8 Mezcla 2* 1 exp  pot % HLB ** Tween 80 1=8.75 Span 80 2=4.16 s=1.70 0,0 4,16 4,16 0 4,3 0,25 5,49 5,55 -1,09 8,3 0,50 6,74 6,737 0,04 11,3 0,75 7,78 7,790 -0,13 13,4 1,00 8,75 8,75 0 15,1 Mezcla 3* 1 exp  pot % HLB ** Tween 60 1=8.27 Span 85 2=3.37 s=0.60 0,0 3,37 3,57 -5,93 1,3 0,25 4,42 4,43 -0,23 5,2 0,50 5,56 5,60 -0,72 8,5 0,75 7,01 6,89 1,71 11,9 1,00 8,27 8,27 0 14,3 Mezcla 4 1 exp  pot % HLB ** Lipesa 1=18.61 Tween 80 2=8.75 s=1 0,0 8,75 8,75 0 15,1 0,20 11,75 10,72 8,77 18,0 0,40 12,50 12,69 -1,52 20,4 0,60 14,50 14,66 -1,10 22,5 0,80 16,00 16,63 -3,94 24,4 1,00 18,6 18,6 0 42,3 Mezcla 5 1 exp  pot % HLB ** Facea 140 1=10.28 CC-102 sueroglicérido 2=4.83 s=3,20 0,0 4,83 4,83 0 6,5 0,23 6,89 7,02 -1,89 11,9 0,42 7,98 8,13 -1,88 14,0 0,62 9,14 9,00 1,53 15,5 1,00 10,28 10,28 0 17,4 Mezcla 6 1 exp pot % HLB ** Lipesa 1=18,86 Tensoactivo D 2=7,83 s=1,45 0,00 7,83 7,83 0 13,5 0,20 10,22 10,36 -1,37 17,5 0,40 12,72 12,64 0,63 20,4 0,60 14,77 14,75 0,14 22,6 0,80 16,05 16,72 -4,17 24,4 1,00 18,6 18,6 0 42,3 Mezcla 7 1 exp pot % HLB ** Sucrotensor 1=19.34 Tween 20 2 =9.87 s=4 0,0 9,87 9,87 0 16,8 0,20 13,42 13,73 -2,31 21,6 0,40 15,95 15,76 1,19 23,6 0,60 16,64 17,21 -3,43 24,9 0,80 18,14 18,37 -1,27 25,8 1,00 19,34 19,34 0 42,9 Mezcla 8 1 exp pot % HLB ** Facea I2 1=10.7 Span 2=7.9 s=-6 0,0 7,90 7,90 0 13,6 0,20 7,99 8,15 -2,00 14,0 0,40 8,52 8,456 0,75 14,6 0,60 8,95 8,88 0,78 15,3 0,80 9,51 9,51 0 16,3 1,00 10,70 10,70 0 34,3 RECONOCIMIENTOS El autor agradece a la Facultad de Ingeniería Química de la Universidad Tecnológica de La Habana y en particular al comité organizador del Congreso Internacional de Ingeniería Química, Biotecnológica y Alimentaria (CIIQBA 2022) su apoyo e interés mostrado para la presentación de esta ponencia en este Congreso. SOBRE EL AUTOR Juan José Llovera González Profesor titular y Doctor en Ciencias Técnicas, por el Instituto Superior Politécnico “José Antonio Echeverría”, Cuba. Pos-doctorado en óptica aplicada por la Universidad de São Paulo. Investigador por proyecto con la Universidad Estadual de Campinas. Ha asesorado metodológicamente, impartido diplomados, o desarrollado investigaciones conjuntas con colectivos de docentes e investigadores de las siguientes universidades : Universidad Autónoma de Nuevo León, México, 1995 y 1996, Universidad Libre de Colombia, Colombia, 1998, Universidad Técnica de Oruro, Bolivia, 2005, Universidad de California Davis, USA desde 2009, Universidad Católica del Norte, Chile 2010, Universidad de Campinas, Brasil, desde 2010, Universidad de Sao Paulo, Brasil desde 2010, Universidad del Litoral, Santa Fé Argentina, desde 2010, Universidad Tecnológica de Pereira, Colombia desde 2014, INSA Tolousse, Francia 2019 Asesor de Investigaciones y Posgrado del Instituto de Ciencias Básicas (ICB) Universidad Tecnológica de La Habana, Cujae, Cuba. Miembro del Tribunal Nacional de Grados Científicos en Ciencias Pedagógicas de la República de Cuba. Vicepresidente de la Sociedad Cubana de Física, sección de Enseñanza de la Física. 50 años de experiencia en enseñanza de la Física, 38 de estos en el nivel universitario. EXPERIENCE IN THE IMPLEMENTATION OF MONITORING OF CLIMATICALLY ACTIVE SUBSTANCES IN SPRUCE FORESTS IN THE CONDITIONS OF THE NORTH-WEST OF RUSSIA* 1 German Berezin, 2 Alexander Dobrovolsky 1, 2194021, Institutsky per. 5. St. Petersburg, Russia e-mail: 1gera644.217@mail.ru, 2alexander-83@yandex.ru ABSTRACT This paper reviews the literature on the monitoring of climatic active substances, according to which it will be possible to understand the carbon stores in forest ecosystems, litter and soil. The aim of the study is to review the literature on the monitoring of the amount of active substances in Northwest Russia. During the study the following tasks are planned: to review the literature on the topic; To analyze the carbon stock concentrated in the soil; To estimate the carbon stock in the forest litter and phytomass. The review resulted in the following figures: the total carbon stock on forest land in Russia was 123.77 Gt C. The contribution to the national forest carbon stock (206.10 Mt C year-1) in the Northwest was 12.4%. The total soil carbon stock on forest land in the Russian Federation is 172.4 Gt over an area of 1110.5 million hectares, excluding large woody debris, the coniferous stands of Western Siberia accounts for 8.7% and soft-leaved stands 2.9%. The total carbon stock in the litter of forest stands in the Russian Federation is 5.26 Gt C for the forest area of 733.15 million ha. The northwestern region accounts for approximately 1.2 Gt C. KEY WORDS: forest ecosystem, carbon, forest leaf litter, leaf litter RESUMEN En este trabajo se revisa la literatura sobre el seguimiento de las sustancias activas climáticas, según la cual será posible conocer los almacenes de carbono en los ecosistemas forestales, la hojarasca y el suelo. El objetivo del estudio es revisar la literatura sobre el seguimiento de la cantidad de sustancias activas en el noroeste de Rusia. Durante el estudio se han planificado las siguientes tareas: revisar la literatura sobre el tema; analizar el stock de carbono concentrado en el suelo; estimar el stock de carbono en la hojarasca forestal y la fitomasa. La revisión dio como resultado las siguientes cifras: el stock total de carbono en las tierras forestales de Rusia era de 123,77 Gt C. La contribución al stock nacional de carbono forestal (206,10 Mt C año-1) en el noroeste era del 12,4%. La reserva total de carbono en el suelo de las tierras forestales de la Federación Rusa es de 172,4 Gt en una superficie de 1110,5 millones de hectáreas, excluyendo los grandes restos leñosos, los rodales de coníferas de Siberia Occidental representan el 8,7% y los rodales de hojas blandas el 2,9%. La reserva total de carbono en la hojarasca de las masas forestales de la Federación Rusa es de 5,26 Gt C para una superficie forestal de 733,15 millones de hectáreas. La región del noroeste representa aproximadamente 1,2 Gt C. PALABRAS CLAVE: ecosistema forestal, carbono, hojarasca forestal, hojarasca INTRODUCTION Forests are a major terrestrial ecosystem occupying 30-43% of the world's land surface. Forest ecosystems play a vital role in the economy of many regions of the world (Dixon 1994). Because they are an energy resource that is actively used by humans. In addition, they perform a range of functions, among them the formation of certain phyto-, zoo- and microhabitats, the filtration of water flows, carbon *The study was carried out within the framework of the state task of SPbGLTU (Registration number 1022090600013-0-4.1.2) in accordance with the Decree of the Government of the Russian Federation No. 2515-r dated September 2, 2022 in order to implement the most important innovative project of national importance aimed at creating a unified national monitoring system of climatically active substances sequestration and climate change mitigation (Ashton 2012). The main carbon reservoirs of terrestrial ecosystems are forest biomass and soil (Franzluebbers and Doraiswamy 2007). The burning of fossil fuels and deforestation have increased the concentration of carbon dioxide (CO2) in the atmosphere from 280 parts per million (ppm) to 394 ppm (Peñuelas 2013). More than half of the total increase in atmospheric CO2 concentration is due to the burning of fossil fuels, and the rest is the result of the loss of organic soil carbon (Soil organic carbon, SOC) due to intensive land use (Lal 2004): deforestation and land processing for food production. These kinds of changes can have a significant impact on forest dynamics and, ultimately, forest ecosystem carbon storage (Hui 2017). Figure 1: Soil carbon stock density (Ashton 2012). Forest floor is an important link determining many processes related to the global carbon cycle. It influences the water-air and thermal regime, as well as the physical and chemical composition of the soil (Ashton 2012). In addition, a large amount of organic soil carbon is accumulated in the forest litter, the concentration of which varies greatly spatially (Fig. 1), аnd quite a large part is accounted for by the Northwest region of Russia. Therefore, it is necessary to understand under what conditions the accumulation and mass loss of litter substrate occurs, and together with this, how it can affect the rate of carbon input to the atmosphere (Krishna, Mohan 2017). The purpose of the study is to review the literature on monitoring the amount of active substances in Northwest Russia. During the study it is planned to solve the following tasks: to review the literature on the topic; To analyze the carbon stock concentrated in the soil; To estimate the carbon stock in the forest floor. RESULTS AND DISCUSSION The greatest amount of solar energy and biomass is concentrated in forest bicenoses. This is primarily due to the longevity of trees, which results in the accumulation of a huge amount of organic matter. The maximum biomass is in tropical rainforests (600-1500 t/ha). In broad-leaved forests, the index decreases by 1.5-3 times, and in the northern taiga subzone by almost 10 times (Chart 1) (Kishchenko, 2019). The lowest reserves of phytomass are formed in the harsh northern forest-tundra conditions (25-50 t/ha Chart 1: Stock and annual growth of phytomass in forests of different vegetation zones, t/ha. Vegetation zones Stock Growth Tundra 25—50 3—4 Middle and southern taiga sub-zones 50—150 4—6 Northern taiga subzone 150—300 6—8 Coniferous-broadleaved forests 300—400 8—10 Broadleaved forests 400—500 10—15 Rainforest 600—1500 20—30 It was found that in arid habitats, pine stands growing on poor soils, the total phytomass is about 584 cents per hectare, in pine stands on mineral-poor soils with excessive moisture - 776 cents per hectare, and in pine stands on relatively rich soils with optimum moisture - 1322 cents per hectare (Chestnykh 1999). This distribution of phytocenosis phytomass is due to the different levels of ecosystems in which plantations were formed. Participation of plants of living ground cover in the total fallout reaches 10-40 %. As soil moisture increases, the value of this indicator increases. Fall of the ground cover plants makes up 93-98% of the mass of their current growth. In other words, almost all annual organic growth of lower tier plants is transformed into fall. The largest reserves of organic matter accumulate in the taiga zone, especially in the northern and middle taiga sub-zones. In waterlogged forests with reduced decomposition of forest litter, its stock can reach 100 t/ha (Kishchenko 2019). The intensity of the decomposition process is most pronounced in forest- steppe areas, where the stock of forest litter does not exceed 20 t/ha. This dependence is related to the composition of the litter. According to studies conducted on the data of the State Forest Registry and archival materials of state forest inventories, calculations of the forest carbon budget of the federal districts were carried out, the total carbon stock on forested lands in Russia was 123.77 Gt C (Zamolodchikov, 2018).The Siberian (36.4%) and Far Eastern (35.2%) forests were leading in terms of their contribution to the national forest carbon stock, together retaining 71.6% of the national forest carbon stock. This situation can be logically explained by the vast areas of forests covering the lands of these districts. The share of forest carbon stocks is minimal in the Southern (0.2%) and North Caucasus (0.3%). The contribution to the national forest carbon stock (206.10 Mt C year-1) in the Northwest accounted for 12.4%. Evaluation of organic soil carbon pools in Russia The total soil carbon stock of the forest lands of the Russian Federation is 172.4 Gt for an area of 1110.5 million ha, excluding large woody debris (Chesnykh et al., 1999). The highest absolute stock of soil C is concentrated in coniferous forests - 69% of the stock for the whole forested area (Chart 2), this is explained by the dominance of this group in area (72%), hardwood and softwood - 3.4% and 15.1%, respectively. Among conifers, maximum carbon stocks are concentrated in soils of larch ecosystems - 35.8 and of them 20.4 Gt C falls in the Far East, the minimum 0.1 Gt C. The highest absolute carbon stocks in soils of larch forests are concentrated in the middle zonal belt - 16.5 Gt C, the minimum - in the The concentration of organic matter in forests is the net result of a certain annual productivity of the phytocenosis over its lifetime. Rainforests in the tropics have the fastest rate of organic synthesis due to a constantly humid and warm climate and the predominance of evergreen plants, where there is a year- round assimilation of carbon. A decrease in the value of primary production in forests occurs under less favorable climatic conditions for photosynthesis. This is particularly pronounced in the northern direction. Therefore, in the zone of humid tropical forests, the annual productivity is not seldom 30 t/ha, while in taiga it is usually 4-8 t/ha. Spruce and pine forests grow in the taiga zone of northwestern Russia. Within each formation, the productivity of phytocenoses varies considerably depending on forest types, which reflect differences in soil and ground conditions (Kishchenko 2019). southern belt 4.1 Gt. Soils of pine forests account for 13.4 Gt C, spruce forests for 12.4 Gt C, cedar forests for 8 Gt C, fir forest soils for 2.4 Gt. Chart 2: Distribution of organic carbon stocks, %. Absolute carbon stock in the soil by groups of forest forming species, % Регион Coniferous Hardwoods Softwoods other Shrubs Russian Federation 68,8 3,4 15,1 0,1 12,6 European-Ural part 11 0,4 4,3 – – Western Siberia 8,7 – 2,9 – 0,2 Eastern Siberia 25,2 – 5,4 – 3,1 Far East 24 3 2,6 0,1 9,3 Among soft-wooded formations, stocks of carbon accumulated by birch plantations are most abundant: 1.91 Gt C in the northern belt, 3.28 in the middle belt, and 6.96 Gt C in the southern belt; the maximum stocks are in Eastern Siberia - 4.5, and the minimum in the Far East - 2.1 Gt C. In general, the greatest absolute stocks of carbon for forests are in the middle latitude belt - 37.7, the lowest - 30.7 Gt C in the southern belt. It is worth noting that with increasing degree of moisture the mass of organic matter of litter increases. For example, in spruce forests growing in overmoistened conditions approximately 3 times more than in spruce forests growing in moderate moisture, while as mentioned above, forest types with a moderate degree of moisture significantly differ in the productivity of stands growing in them. A kind of inverse correlation is due to the fact that with excessive moistening of the soil layer the process of gas exchange between the soil microbiome and the atmosphere deteriorates, resulting in slower degradation of the organic substrate. A similar dependence is traced in pine forest types of the taiga zone. Estimation of carbon stocks in the forest litter of Russia The total litter carbon stock of forest stands in the Russian Federation is 5.26 Gt C for a forested area of 733.15 million ha (Chestnykh et al., 2007). The ratio of averaged litter stocks of non-forested (clearcuts, burnt areas) and forested lands is 0.66. Values of litter carbon stocks for the northern latitudinal band range from 2.1 C ha-1 (Pine forests) in the Far East to 19.8 C ha-1 in the European part (birch forests). In the middle belt, the carbon stocks in the forest litter of pine plantations are - 24.2 С ha-1, for other categories of averaging they range from 4.4 (fir forests) to 17.2 (pine forests) tC ha-1. According to other estimates, in the middle taiga of Eastern Siberia, litter stocks are most pronounced in larch forests, 15.17 tC ha-1. In cedar stands - 12.6, spruce stands - 8.9, pine - 5.2 tC ha-1, the lowest values are noted for birch and aspen forests 3.3 tC ha-1. Litter carbon pools in southern forest plantations vary considerably among themselves, depending on temperature and the intensity of woody debris input. In the first case, the activity of the process of organic matter degradation increases with increasing temperature, due to the activation of microbial fauna. In the second case, the high intensity of entering the sediment into the litter. Accordingly, from the predominance of one of these processes, the mass of the litter can be both low and high. Carbon pools in litter of aspen forests range from 2.6 (Far East) to 10.9 tC ha-1 in spruce forests (European-Ural part). Similar estimates of the carbon pool in forest litter are given in (Bazilevich 1993; Grishina 1974). In the southern taiga of the European part, the carbon concentration varies in pine forests 11.8 to 23.3, spruce forests 5.9 tC ha-1. In mixed deciduous-coniferous plantations - 6.7 tC ha-1, birch forests - 4.8 tC ha-1 (Bazilevich 1993). Figure 2: Carbon pools of forest leaf litter of the Russian Federation. The largest litter substrate carbon pool is in coniferous plantations, with the maximum value recorded in larch forests - 1.73 Gt C and the minimum in fir forests - 0.07 Gt C (Fig. 2). This distribution of the carbon pool is determined by the coverage area of coniferous plantations (coniferous - 514740, deciduous - 144104 103 ha). Among softwood species, the carbon stock is maximal in birch forests, 0.66 Gt C. In turn, the litter pool in hardwoods is 0.49 Gt C. The maximum total litter carbon stocks are concentrated in the Siberian and Far Eastern districts in the hoary plantations of 1.24-1.21 Gt C (Fig. 3). The minimum litter carbon values were found in the Southern - 0.02, Central - 0.1, and Volga District - 0.3 Gt C, respectively. Figure 3: Litter carbon stocks (106 tC) of forested lands. Federal Districts of the Russian Federation. The results of studies show that the value of carbon in the northern and middle forests is higher compared to the southern. In the northern forests, due to many reasons, the decomposition process is slower, dominated by: the impact of abiotic factors; weak participation of invertebrates in the processing of forest litter, as well as the low species composition of microorganisms. In connection with this, with small flows of the organic component with fallen matter, significant reserves of litter are accumulated. The opposite situation in the southern taiga, the rate of mineralization of litter is much higher than the intensity of the influx of litter, in connection with this decreases and the stock. In the European-Ural part and Western Siberia, the previously observed trend is clear: the northern parts of the Russian Federation have higher litter carbon stocks compared to the southern parts. However, the picture is almost the opposite in Eastern Siberia and the Far East. To the east of the Yenisei River, larch becomes the predominant species, which, in turn, is associated with the spread of permafrost. The litter carbon stocks in northern taiga larch forests are somewhat lower than in middle taiga pine forests dominating in the southern part of eastern Siberia and middle taiga dark coniferous forests of the southeastern part of the Far East. The geographic subzones comprising the southern zonal band are poorly represented in these regions. Thus, the higher values of litter carbon in the south of East Siberia and the Far East are explained, on the one hand, by the southward expansion of the northern and middle taiga zones and, on the other hand, by the spicification of the dominant coniferous species. CONCLUSION The review showed that there are very few studies on pools concentrated in litter, forest phytomass, and soil, all of which are imprecise and do not allow us to cover this issue more broadly. However, the performed review of existing literature materials on monitoring of climatically active substances in Russia allowed solving all set objectives: 1) Analysis of climate-active substances monitoring materials 2) Carbon values in forest litter related to biomass accumulation were analyzed. 3) Values of carbon pools of phytomass in forest ecosystems in Northwest Russia were estimated Analysis of climate-active substances monitoring materials. ACKNOWLEDGMENTS *The research was carried out within the framework of the state task of St. Petersburg State Forestry University (Registration Number 1022090600013-0-4.1.2) in accordance with the decree of the Government of the Russian Federation №2515-r of September 2, 2022, in implementation of the most important innovation project of national importance, aimed on creating a unified national system for the monitoring of climatic active substances. REFERENTS DIXON, R. K., SOLOMON, A. M., BROWN, S., HOUGHTON, R. A., TREXIER, M. C., & WISNIEWSKI, J. (1994). Carbon pools and flux of global forest ecosystems. Science, 263 (5144), 185- 190. ASHTON, M. S., TYRRELL, M. L., SPALDING, D., & GENTRY, B. (Eds.). (2012). Managing forest carbon in a changing climate. Springer Science & Business Media. FRANZLUEBBERS A. J., DORAISWAMY P. C. Carbon sequestration and land degradation //Climate and land degradation. – Springer, Berlin, Heidelberg, 2007. – С. 343-358. PEÑUELAS J, SARDANS J, ESTIARTE M et al (2013) Evidence of current impact of climate change on life: a walk from genes to the biosphere. Glob Chang Biol 19:2303–2338 LAL R. Soil carbon sequestration impacts on global climate change and food security //science. – 2004. – Т. 304. – №. 5677. – С. 1623–1627. HUI D. et al. Climate change and carbon sequestration in forest ecosystems //Handbook of climate change mitigation and adaptation. – 2017. – Т. 555. – С. 594. KRISHNA M. P., MOHAN M. Litter decomposition in forest ecosystems: a review //Energy, Ecology and Environment. – 2017. – Т. 2. – №. 4. – С. 236–249. KISHCHENKO I. T. Forest science and forest ecology. 2019. CHESTNYKH O.V., ZAMOLODCHIKOV D.G., UTKIN A.I. I., KOROVIN G.N. Distribution of organic carbon stocks in soils of Russian forests // Forest Science. 1999. № 2. С. 13-21 ZAMOLODCHIKOV D.G., GRABOVSKY V. I., CHESTNYKH O. V. Dynamics of the carbon balance in the forests of the federal districts of the Russian Federation // Voprosy lesnoy nauki. - 2018. - Т. 1. - №. 1. - С. 8-8.). CHESTNYKH O. V., LYZHIN V. A., KOKSHAROVA A. V. Carbon reserves in forest litter in Russia // Forest Science. - 2007. - №. 6. - С. 114-121. BAZILEVICH N. I. Biological productivity of ecosystems of northern Eurasia. - 1993. GRISHINA L.A. Biological cycle and its role in soil formation //M.: Publishing house of Moscow State University. - 1974. About the authors BEREZIN German V. – Master's student of forestry in St.Petersburg State Forest Technical University. DOBROVOLSKY Alexander A. ORCID: 0000-0002-6816-4912, Scopus Author ID: 27567667300. Programa General V CONGRESO INTERNACIONAL DE INGENIERIA INFORMÁTICA Y SISTEMAS DE INFORMACIÓN (CIIISI´2022) 1Programa General CONFERENCIA INTERNACIONAL DE INGENIERÍA INFORMÁTICA Y SISTEMAS DE INFORMACIÓN (CIIISI´22) Día Horario 28-11 29-11 30-11 01-12 02-12 09:00-16:00 Acreditación 9:00- 9:30 Conf_1 Conf_2 Conf_3 9:30-11:00 Paneles y Ponencias CIIISI Lugar: Sala Conferencia Hotel Palco Taller Universidad – Empresa Lugar: Sala Conferencia Hotel Palco Taller Proyectos de Maestrías y Doctorados Lugar: Sala Conferencia Hotel Palco Resultados del Proyecto Internacional Diagnóstico para la Economía Circular Lugar: Sala Conferencia Hotel Palco, 10 AM 11:00-11:20 Coffee - break 11:20-13:00 Paneles y Ponencias CIIISI (cont.) Taller Universidad – Empresa (cont.) Taller Proyectos de Maestrías y Doctorados (Cont.) 13:30-15:00 Almuerzos (Restaurante El Bucán) Clausura CCIA 13:30 PM14:00 Acto Inaugural Sala 1 Ceremonia Condecoración Sala 8, 14:00 PM Visita a la Feria TIC 15:30-17:30 Brindis de Bienvenida Rest. El Bucán Almuerzo despedida Rest. El Bucán 14:30 PM 2CONFERENCIAS MAGISTRALES Día _29_.- Conferencia magistral 1: “La consideración del contexto en la resolución de problemas con ordenador”, Dr. David Alejandro Pelta Mochcovsky, Catedrático de Universidad, Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad de Granada, España. Lugar: Sala de Conferencia Hotel Palco. Hora: 9:00. Día _30_.- Conferencia magistral 2: “Transformación digital y una Agenda Digital para Cuba”, Dra. Ailyn Febles Estrada, Cuba, Presidenta de la Unión de Informáticos de Cuba, Lugar: Sala de Conferencia Hotel Palco. Hora: 9:00. Día _01_.- Conferencia magistral 3: “Proyectos de doctorado: un desafío en la formación científica”, Dr. Roberto Sepúlveda Lima, Director de Grados Científicos Del Ministerio de Educación Superior, Secretario Comisión Nacional de Grados Científicos. Lugar: Sala de Conferencia Hotel Palco. Hora: 9:00. TALLERES Y PANELES Día _29_.- Panel: Inteligencia computacional y soluciones de infraestructura informática. Lugar: Sala de Conferencia Hotel Palco. Hora: 9:30 – 11:00. Día _29_.- Panel: Ingeniería de software, soluciones informáticas y estudios de caso en múltiples sectores, Lugar: Sala de Conferencia Hotel Palco. Hora: 11:00 – 13:00 Día _30_.- Taller: Integración Universidad – Empresa a través de proyectos I+D+i. Lugar: Sala de Conferencia Hotel Palco. Hora: 9:30 – 13:00. Día _01_.- Taller: Sesión científica de los Programas de Maestría en Informática Aplica y el Programa de Formación Doctoral “Ciencias y Tecnologías Informáticas”. Lugar: Sala de Conferencia Hotel Palco. Hora: 9:30 AM – 13:00. 3PROGRAMA TÉCNICO CONFERENCIA INTERNACIONAL DE INGENIERÍA INFORMÁTICA Y SISTEMAS DE INFORMACIÓN (CIIISI´22) Día: 29 de noviembre de 2022 Sesión: Mañana 9:00-11:30 Moderador: Dr. Leandro Zambrano Méndez Sala: Sala Conferencia (Palco) Actividad: Panel CIIISI-01: Inteligencia computacional y soluciones de infraestructura informática. Horario Código Título del trabajo 09:00- 09:30 CM_01 Conferencia: “La consideración del contexto en la resolución de problemas con ordenador”, David Alejandro Pelta Mochcovsky, Universidad de Granada, España. 09:30 09:35 Presentación del Panel CIIISI-01 Moderador: Dr. Leandro Zambrano Méndez Dispone de 5 minutos cada panelista. 09:30-10:40 CIIISI-01 Análisis de sentimientos en el contexto del comercio electrónico de CITMATEL, Carlos Mar Rodríguez, Alfredo Simón-Cuevas, CITMATEL – Cujae. CIIISI-02 Método híbrido de detección de emociones con enfoque semántico en la selección de características, Oscar Miguel González Parets, Alfredo Simón-Cuevas, Harold González-Guerra, Cujae. CIIISI-03 Método no supervisado de minería de opinión basado en aspectos, Patricia Montañez Castelo, Alfredo Simón-Cuevas, Cujae. CIIISI-04 Extracción automática de requisitos de software a partir de información textual , Amanda Hernández Carreras, Alfredo Simón-Cuevas, Anaisa Hernández González, Cujae. CIIISI-05 Enfoque difuso de modelado de topicos aplicado a la generación de resúmenes multi-documentos, Yamel Pérez Guadarramas, Alfredo Simón Cuevas, Francisco P. Romero, Raudel Hernández-León, CENATAV – Cujae. CIIISI-06 Tecnologías inteligentes en la predicción de larelevancia en opiniones de usuario para el 409:30-10:40 soporte de software, Thalía Blanco Martín, Alfredo Simón-Cuevas, Anaisa Hernández González, Vladimir Milián Núñez, Hector González Diéz, Cujae. CIIISI-07 Multiclasificador homogéneo para detección de bots en el comercio electrónico, Hélder João Chissingui, Nayma Cepero Pérez, Humberto Díaz Pando, Mailyn Moreno Espino, CITMATEL – Cujae. CIIISI-08 Algoritmo para la detección de caídas colocando un sensor inercial en la cabeza, Adriana María Companioni Rodríguez, Fidel Ernesto Hernández Montero, Elías Osmany García Alvaredo, Cujae. CIIISI-09 Un enfoque proactivo para la detección de bots malignos en sitios de comercio electrónico, Daniel Pardo Echevarría1, Nayma Cepero Pérez, CITMATEL – Cujae. CIIISI-10 Un análisis bibliométrico de la producción científica cubana en la web de la ciencia, Fermín Rivas Sotomayor, Alejandro Rosete Suarez, Manuel Jesús Cobo Martín, Anaisa Hernández González, Cujae. CIIISI-11 Representación de la información de señales de un radar empleando Odroid-n2, Lisvan Guevara Trujillo, Leandro Zambrano Méndez, CI Naval – Cujae. CIIISI-12 Una solución para el control de acceso personal usando node-red, Harol Picarín Pérez, Leandro Zambrano Méndez, Humberto Díaz Pando, Ernesto Martínez Álvarez, Cuba. CIIISI-13 Protocolos asimétricos con criptografía no conmutativa y matrices elementales, Ernesto Rafael Carbonell Rigores, Ricardo Araujo Rodríguez, Cujae. 10:40-11:00 Ronda de preguntas y debate en el Panel CIIISI-01. Moderador: Dr. Leandro Zambrano Méndez 11:00-11:30 Coffee - Break 5Día: 29 de noviembre de 2022 Sesión: Mañana 11:30 – 13:00 Moderador: Dra. Anaisa Hernández González Dra. Margarita André Ampuero Sala: Sala Conferencia (Palco) Actividad: Panel: Ingeniería de software, soluciones informáticas y estudios de caso en múltiples sectores Horario Código Título del trabajo 11:30-11:35 Presentación del Panel CIIISI-02 Moderadora: Dra. Anaisa Hernández González Dispone de 5 minutos cada panelista. 11:35-12:40 CIIISI-14 Buenas prácticas de la ingeniería de software: pruebas de software, Anays Gómez García, Mercedes Sosa Hernández, Sandra Verona Marcos, Martha Dunia Delgado Dapena, CITMATEL – Cujae. CIIISI-15 Entrenamiento para la certificación de roles: una experiencia del ingeniero de requisitos, Anaisa Hernández González, Cujae. CIIISI-16 La actividad de tutoría y la evaluación del desempeño de roles en la carrera de ingeniería informática, Miriam Roll Hechavarría, Margarita Andrade Ampuero, Cujae. CIIISI-17 Arquitectura para la interactividad en la televisión digital adaptada a las condiciones de Cuba, Ariel Alfonso Fernández Santana, Joaquín Danilo Pina Amargós, Cujae. CIIISI-18 Integración del servicio de datos de la tdt con la tv interactiva mediante TVC+, Joaquín Danilo Pina-Amargós, Ariel Alfonso Fernández Santana, Juan Carlos González-Fernández, Raisa Socorro Llanes, UIC – Cujae. CIIISI-19 Sistema de gestión de la documentación en los laboratorios Aica: Estudio de caso en el desarrollo de microservicios, Devops y gestión de proyectos, Pedro Velázquez Borrero, Carlos Ramón López Paz, Katerine Escalera Fariñas, Ana Lilian Infante Abreu, Aica – Cujae. CIIISI-20 Modelo de estudio fraseográfico digital: hallazgos preliminares de un estudio de caso de evaluación de tecnologías digitales, Andrés Novoa Aedo, Carlos Ramón López Paz, Yurelkys 611:35-12:40 Palacio Piñeiro, Cujae – AICA - ILL. CIIISI-21 "Apache Gacamole, una propuesta para la migración a software libre y el teletrabajo, Redeis Alonso Labrada, Arsenio Mesa Álvarez, Yurisdan López Villa, ETECSA. CIIISI-22 Implementación de plugin para generar reportes estadísticos consolidados en Moodle, Hansel Eric Megret Reyes, Miriam Roll Hechavarría, Indira Ordoñez Reyes, Alfredo Sáez, Cujae. CIIISI-23 Sistema de gestión de la cantera joven de la Cujae, Laura Méndez del Pino, Pavel Pérez González, Perla Beatriz Fernández Oliva, Marta Dunia Delgado Dapena, Alejandro Miguel Güemes Esperón. CIIISI-24 Soporte automatizado para la actividad de relaciones institucionales en la cujae, Martha Dunia Delgado Dapena, Alejandro Miguel Güemes Esperón, Julio Andrés Varona de la Paz, Jorge Luis Bolaños, Cujae. CIIISI-25 Guatiní: un proyecto para fomentar el conocimiento de la fauna cubana en las nuevas generaciones. Quirópteros, Juan Carlos Sepúlveda Peña, Yurisleidy Hernández Moya, Manuel Borrego Venero, Gilberto Socorro Llanes, Luis Miguel González Ramos, Joel Monzón, Cujae – CITMA - UCI . CIIISI-26 Desafíos de las pruebas de aplicaciones IoT en entornos inteligentes, Alejandro Miguel Güemes Esperón, Martha Dunia Delgado Dapena, Cujae. CIIISI-27 Método de evaluación de la satisfacción de los estudiantes de posgrado empleando el modelo 2-tuplas, Yoisbel Tabares León, Yeleny Zulueta Véliz, UCI. 12:40-13:00 Ronda de preguntas y debate del Panel CIIISI-02. Moderadora: Dra. Anaisa Hernández González, Dra. Margarita André Ampuero. 13:00-15:00 Almuerzo 7Día: 30 de noviembre de 2022 Sesión: Mañana 9:00 – 13:00 Moderador: Dr. Carlos Ramón López Paz Sala: Sala Conferencia (Palco) Actividad: Taller “Integración Universidad – Empresa a través de proyectos I+D+i.” Horario Código Título del trabajo 09:00 09:30 CM_02 Conferencia: Transformación digital y Agenda Digital para Cuba, Ailyn Febles Estrada, UIC. 9:30 9:35 Introducción de los diferentes actores que representan a los sectores académico y empresarial. Se abrirá el debate a través de la exposición de iniciativas concretas para impulsar la innovación a través de proyectos. 09:30 11:00 Presentación de iniciativas de universidades como la Cujae (Ecosistema de Innovación Tecnológica), el Ministerio de Comunicaciones, el Ministerio de Educación Superior y la Unión de Informáticos de Cuba. 11:00-11:30 Coffee - Break 11:30-13:00 Experiencias de empresas cubanas de Alta Tecnología y de otras organizaciones y entidades representativas del sector TI (CITMATEL, DATAZUCAR, AICA+, entre otros nuevos actores económicos.) 8Día: 01 de diciembre de 2022 Sesión: Mañana 9:00 – 13:00 Moderadores: Dr. Raisa Socorro Llanes Dr. Alfredo Simón Cuevas Sala: Sala Conferencia (Palco) Actividad: Taller de Proyectos de Maestría y Doctorado Horario Código Título del trabajo 9:00 9:30 CM_03 Proyectos de doctorado: un desafío en la formación científica, Roberto Sepúlveda Lima, Cuba. 10:15-11:00 Moderadora: Dra. Raisa Socorro Llanes Título: Sesión científica del Programa de Maestría en Informática Aplicada. Resumen: Un panel de doctores analizará los progresos de una selección de proyectos de maestría. Se propiciará un debate acerca de cómo enfrentar los desafíos de estos proyectos en función del tipo de investigación y sus diferentes niveles de progreso. Se presentarán proyectos de entidades como el MES, AZCUBA, FAR, ETECSA, AICA+ y CITMATEL. 11:00-11:30 Coffee - Break 11:30-13:00 Título: Sesión científica del Programa de Formación Doctoral “Ciencias y Tecnologías Informáticas”. Resumen: Continuación del panel con los estudiantes del programa de doctorado. Habrá representación de entidades como la Cujae, UCI y CENATAV. 9Día: 02 de noviembre de 2022 Sesión: Mañana 10:00 – 13:00 Moderador: MSc. Yaroslav Borrego Morejón Sala: Sala Conferencia (Palco) Actividad: Taller Universidad - Empresa Horario Código Título del trabajo 10:00 10:10 Presentación de Resultados de la Asistencia Técnica Internacional “Diagnóstico de la situación actual de la Economía Circular para el desarrollo de una Hoja de Ruta en Cuba. Moderadores: MSc Yaroslav Borrego Morejón, CITMATEL Ing. Danna Espinoza (Consultora DEUMAN modalidad virtual) 10:10-11:00 Resumen de la Asistencia Técnica: El Enlace Regional del Centro-Red de Tecnologías Climáticas (CTCN-Onudi) y los consultores principales participantes, expondrán las experiencias, resultados y productos obtenidos en esta Iniciativa, que se desarrolló de forma simultánea en cinco países latinoamericanos: Ecuador, El Salvador, Paraguay, República Dominicana y Cuba. En particular, se desarrollarán los productos realizados para Cuba: Etapa de Diagnóstico e insumos para una Hoja de Ruta; Oportunidades y Barreras; Experiencias Internacionales relevantes y la Propuesta de Proyecto Piloto para el sector industrias manufactureras. Participantes: estarán representantes de los Ministerios CITMA, MINDUS, MEP, empresas públicas, instituciones de investigación científica, universidades y nuevos actores económicos convocados durante la ejecución de la asistencia técnica; en modalidades presencial y virtual. 11:10-11:30 Coffee – Break 11:30-13:00 Presentación de iniciativas relevantes de Cuba. “Industria 4.0 y sus conexiones con la Economía Circular”, Dra. Tatina Delgado (Cujae) “Hacia la transición para una Economía Circular en Cuba: Experiencias de Gobierno recientes”, Dra. Odalys Goicochea (Directora General de Medio Ambiente. CITMA) Palabras de Cierre. MEMORIAS CIISI 2022 ANÁLISIS DE SENTIMIENTOS EN EL CONTEXTO DEL COMERCIO ELECTRÓNICO DE CITMATEL SENTIMENT ANALYSIS IN E-COMMERCE CONTEXT OF CITMATEL Carlos Mar Rodríguez1, Alfredo Simón-Cuevas2 1 Empresa de Tecnologías de la Información y Servicios Telemáticos Avanzados (CITMATEL), Ave 47 entre 18A y 20, Miramar, Playa e-mail: cmar@citmatel.inf.cu 2Universidad Tecnológica de La Habana “José Antonio Echeverría”, La Habana, Cuba, asimon@ceis.cujae.edu.cu RESUMEN La inteligencia artificial (IA) como una tecnología omnipresente, ha llegado para quedarse, con el objetivo de ayudar a los directivos de las empresas ha lograr una mayor eficiencia. Los grandes mercados en línea ya han incorporado algoritmos de IA y sus usuarios empiezan a conocerla. Esta tecnología dentro del comercio electrónico se utiliza principalmente para analizar y anticipar las necesidades reales del cliente. Esto ayuda a las empresas a adquirir más cuota de mercado y a superar a la competencia. Internet y sus servicios se han convertido en los últimos años en una parte cada vez más importante de nuestra vida cotidiana. En este contexto las organizaciones empresariales siempre están deseosas de conocer las opiniones de los consumidores o de los individuos con respecto a sus productos y servicios. En este trabajo se pretende dar una breve panorámica de la utilización de la inteligencia artificial dentro del comercio electrónico, haciendo énfasis en el análisis de sentimientos o minería de opinión. Al final se presenta un primer acercamiento para la aplicación de algunas de estas tecnologías en la empresa CITMATEL y sus beneficios. PALABRAS CLAVES: Comercio electrónico, Inteligencia Artificial, Análisis de sentimientos, Minería de Opinión, Análisis de sentimientos basado en aspectos. ABSTRACT Artificial intelligence (AI) as a ubiquitous technology is here to stay, with the goal of helping business managers achieve greater efficiency. Large online marketplaces have already incorporated AI algorithms and their users are beginning to learn about it. This technology within e-commerce is mainly used to analyze and anticipate real customer needs. This helps companies to acquire more market share and outperform the competition. The Internet and its services have in recent years become an increasingly important part of our daily lives. In this context business organizations are always eager to know the opinions of consumers or individuals regarding their products and services. In this paper we intend to give a brief overview of the use of artificial intelligence within e-commerce, with emphasis on sentiment analysis or opinion mining. At the end, an approach for the application of some of these technologies in CITMATEL and its benefits is presented. KEY WORDS: E-commerce, Artificial Intelligence, Sentiment Analysis, Opinion Mining, Aspect-based Sentiment Analysis. 1. INTRODUCCIÓN Desde hace varios años el proceso de la transformación digital a nivel mundial ha venido desarrollándose de forma acelerada y el comercio electrónico (E-commerce, en inglés) juega un papel fundamental en dicha transformación, tanto para las empresas como para los clientes finales de los productos y servicios que estas ofrecen. Las organizaciones pueden utilizar diferentes aplicaciones y tecnologías en los procesos vinculados al comercio electrónico. Una de estas tecnologías es la inteligencia artificial (IA), y sus principales beneficios son el fortalecimiento de las relaciones con los clientes, la competitividad y el aumento de la productividad. La IA tiene tres elementos claves: la minería de datos, el reconocimiento del lenguaje natural y el aprendizaje automático. Estos elementos ayudan a las empresas existentes en el ámbito del comercio electrónico a tener mejores resultados. La IA es la tecnología con las mayores tendencias dentro del comercio electrónico en los próximos años. Según Gartner, la mayoría de las organizaciones que utilizan la IA en sus sistemas de comercio electrónico lograrán un aumento de al menos el 25 por ciento en satisfacción de los clientes para 2023, junto con un aumento de los ingresos y una reducción de los costes. Hoy en día, en las empresas se presta cada vez más atención a la inteligencia empresarial y al análisis del mercado, y dentro de este contexto, analizar y comprender la opinión de los clientes se convierte en una parte indispensable de los negocios. Las empresas compiten básicamente basándose en el nivel de experiencia del cliente que son capaces de proporcionar. Como resultado de ello, cada vez es más difícil que las empresas destaquen entre sus competidores, tanto a través de los productos que venden, como de los servicios que ofrecen o la fijación de precios que dan. Esto significa que para permanecer competitivas estas empresas deben, constantemente, dar buenas experiencias de cliente. La generalización del uso de Internet, acompañado del surgimiento y desarrollo de las plataformas de redes sociales (Facebook, Twitter, etc.), incremento de los medios digitales de comunicación, foros, y otras aplicaciones Web 2.0, como los Blogs, donde los clientes y consumidores opinan libremente sobre los productos, servicios y expresan sus emociones y experiencias, abre paso a una nueva forma de percepción de la satisfacción de los clientes. El seguimiento y la medición de la satisfacción de los clientes, en esos escenarios y otros, tienen el propósito de monitorear la percepción sobre la calidad de los productos y servicios recibidos. Por tanto, analizar las opiniones de forma eficaz podría ayudar a las empresas a mejorar la satisfacción y la fidelidad de los clientes. El uso de cuadros de mando visuales (o Dashboard) como ambiente de visualización de los resultados ayuda a realizar un seguimiento de los datos, la información y el conocimiento obtenido del procesamiento automático de la información textual, tales como las opiniones de usuario, permitiendo ir más allá de las métricas, y los temas de palabras clave, para empezar a comprender la experiencia emocional de los clientes. En este trabajo se proponen un grupo de ideas vinculadas a la tecnología de la IA que pudieran impactar en empresas con actividades de comercio. Inicialmente se proporciona una panorámica conceptual sobre el significado de Comercio Electrónico. Luego se presenta la vinculación de la IA y el comercio electrónico, a través de su utilización en diferentes áreas de manera general. Por último se proyecta su aplicación en el caso específico de la Empresa de Tecnologías de la Información y Servicios Telemáticos Avanzados (CITMATEL). 2. COMERCIO ELECTRÓNICO EN LA ERA DE LA INTELIGENCIA ARTIFICIAL El comercio electrónico puede definirse como las actividades o servicios relacionados con la compra y venta de productos o servicios a través de Internet. Las empresas se dedican cada vez más al comercio electrónico debido a la creciente demanda de servicios en línea por parte de los clientes y su capacidad de crear una ventaja competitiva. Sin embargo, las empresas se ven obligadas a adaptar constantemente sus modelos de negocio a las cambiantes necesidades de los clientes y a como estos asumen las diferentes tecnologías de información que están a su alcance. La IA es la más reciente de estas tecnologías. La misma ha ido transformando el comercio electrónico gracias a su capacidad para "interpretar correctamente datos externos, aprender de esos datos y utilizar esos aprendizajes para lograr objetivos y tareas específicas mediante una adaptación flexible". Crea oportunidades para que las empresas obtengan una ventaja competitiva. La IA en el comercio electrónico puede definirse como el uso de técnicas de IA, sistemas, herramientas o algoritmos para apoyar las actividades relacionadas con la compra y venta de productos o servicios a través de Internet[1]. En [2] se describen algunas de las principales ventajas del uso de la inteligencia artificial en el comercio electrónico:  Búsqueda intuitiva centrada en el cliente Los consumidores suelen estar decepcionados con la experiencia del comercio electrónico porque, por ejemplo, los resultados de los productos mostrados pueden ser irrelevantes para su búsqueda. Para combatir este problema, la inteligencia artificial utiliza el procesamiento del lenguaje natural para mejorar los resultados de búsqueda de los compradores en línea, así como la capacidad de buscar, encontrar y comparar productos visualmente. Además, la inteligencia artificial permite a los compradores encontrar productos más fácilmente y, por tanto, aumenta la satisfacción del cliente.  Filtrar las reseñas y la información falsa Muchas empresas de comercio electrónico utilizan hoy en día la inteligencia artificial para contrarrestar las encuestas e informaciones falsas en todo el mundo, haciendo mayor hincapié en las encuestas validadas y útiles. Amazon, por ejemplo, utiliza inteligencia artificial para contrarrestar las reseñas y clasificaciones falsas de productos. La IA se centra en la prominencia y el peso de las reseñas aprobadas por los clientes y las publica.  Automatización La automatización es esencial para las empresas y se ha convertido en una de sus principales prioridades de inversión en sus tiendas de comercio electrónico. Además, como sabemos, cuando los negocios de comercio electrónico empiezan a crecer, la cantidad de trabajo repetitivo que realizan también aumenta. Los robots pueden encargarse de estas tareas adicionales. Cosas como publicar nuevas listas de productos en varios canales, programar las ventas, ofrecer descuentos a los clientes fieles, etc.  Personalización En el comercio electrónico, permitir la personalización y ofrecer productos a medida basados en los gustos del comprador no es un fenómeno nuevo, pero gracias a la introducción de la inteligencia artificial en este campo, las marcas online dispondrán de herramientas de personalización mucho más eficaces y precisas. Las recomendaciones al usuario pueden estructurarse; primero, según la categoría (tendencias, comportamientos, características del producto, etc) y, luego, en base al estado del cliente (nuevo, recurrente, en busca de un producto específico, etc)  La llegada de los asistentes de compra virtuales Los asistentes de compra virtuales inteligentes pueden actuar mucho más rápido que sus competidores humanos analizando grandes cantidades de datos en el menor tiempo posible. Estos asistentes se comportan de forma interactiva y humana y su personalidad virtual refleja los objetivos y prioridades de su marca propietaria. Los agentes virtuales también tienen la ventaja de estar disponibles 24 horas al día, 7 días a la semana, por lo que las preguntas y problemas de bajo nivel pueden ser atendidos en cualquier momento del día, sin hacer esperar a los clientes. Cuando las empresas saben exactamente lo que quieren sus clientes y pueden satisfacer esas necesidades antes que sus competidores, los clientes las eligen de forma natural y se quedan con ellas.  Segmentación de clientes. El acceso a más datos empresariales y de clientes y a la capacidad de procesamiento está permitiendo a los operadores de comercio electrónico comprender a sus clientes e identificar nuevas tendencias mejor que nunca. Los sistemas de IA pueden explorar muy rápidamente opciones muy complejas y variadas para la captación de clientes, y optimizar continuamente su rendimiento a medida que se dispone de más datos. Esto significa que los profesionales del marketing pueden establecer parámetros y permitir que la IA optimice y aprenda para lograr precisión.  Logística inteligente. Los poderes predictivos del aprendizaje automático brillan en la logística, ayudando a predecir los tiempos de tránsito, los niveles de demanda y los retrasos en los envíos. La logística inteligente se basa en el uso de información en tiempo real a través de sensores, etiquetas de identificación por radio frecuencia (RFID, por sus siglas en inglés), y similares, para la gestión de inventarios y para predecir mejor la demanda. Los sistemas de aprendizaje automático se vuelven más inteligentes con el tiempo para construir mejores predicciones para su cadena de suministro y funciones logísticas. 3. ANÁLISIS DE SENTIMIENTOS Y MINERÍA DE OPINIÓN Como parte del comercio electrónico, las tiendas en línea han abierto nuevas posibilidades a las empresas para vender sus productos y servicios. Unido a lo anterior, el crecimiento, desarrollo y accesibilidad de las redes sociales les ha otorgado derechos a los usuarios a expresar y compartir sus opiniones sobre diferentes tipos de productos y servicios adquiridos. Los clientes disfrutan el hecho de que sus criterios sean tenidos en cuenta, lo cual se evidencia en los numerosos sitios de comercio electrónico con grandes cantidades de opiniones y comentarios sobre los diversos productos y servicios que se ofrecen. La minería de opinión o análisis de sentimientos ha sido una tecnología dentro de la inteligencia artificial, específicamente dentro del área del procesamiento del lenguaje natural (NLP, por sus siglas en inglés) que ha permitido introducirse en los requerimientos de los clientes. Este tema figura entre los más investigados dentro de la aplicación de la IA en el campo del comercio electrónico[1]. Un alto número de individuos y proveedores de tiendas de comercio electrónico utilizan las redes sociales como medios para establecer relaciones con los clientes. La Minería de Opinión o análisis de sentimientos es el estudio computacional sobre las actitudes, pensamientos y sentimientos de las personas hacia determinadas entidades y sus características[3] que mediante el uso de lingüística computacional y análisis de textos es capaz de procesar y extraer información de datos representados de forma textual[4]. Por lo general en la literatura se hace una distinción entre opiniones y sentimientos[5].Cuando se habla de opiniones, se refiere al punto de vista de una persona hacia un determinado asunto, mientras que el sentimiento o polaridad se refiere a la emoción que experimenta la persona hacia ese asunto, la cual puede ser positiva o negativa[5]. La minería de opinión es dividida, por lo general, en tres categorías[6] dependiendo de la extensión de texto a analizar y los elementos que se quieren extraer del mismo, estas categorías son:  A nivel de documento (Document-Level): se toma todo el documento como opinión, y se clasifica la polaridad general del mismo sin tener en cuenta otros detalles[7]. En este nivel la clasificación de polaridad se hace basándose en la cantidad de palabras con sentimiento positivo o negativo que contenga el texto, lo cual no resulta factible para la toma de decisiones, ya que un mismo usuario puede hacer referencia a varios elementos y expresar diferentes sentimientos en una misma opinión[8].  A nivel de oración (Sentence-Level): se asume que toda la oración contiene una única opinión, y se clasifica en su conjunto de acuerdo a una polaridad[7]. En este caso, un único aspecto y polaridad es considerado para cada oración del documento[9]. A nivel de aspecto (Aspect-Level): se considera el nivel de más baja granularidad ya que se clasifican por separado las entidades, los aspectos y relaciones presentes en las opiniones[7]. Para este nivel se tienen en cuenta todos los aspectos que constituyen el documento y se determina la polaridad de cada uno de ellos[9]. El análisis a nivel de características o aspectos se podría decir que es el más cercano a dar un análisis preciso de las opiniones de los usuarios, siendo recomendado en muchos estudios como la mejor técnica de minería de opinión [11]. Análisis de sentimientos basado en aspectos El análisis de sentimientos basado en aspectos en un tipo de minería de opinión que consiste en clasificar, el sentimiento de la opinión que se está expresando acerca de diferentes características o aspectos de productos o servicios que están siendo evaluados [10]. Este método, mediante el análisis de un gran volumen de texto es capaz de extraer información relevante, logrando ir más allá de las calificaciones en base a una puntuación que dan los usuarios en los sitios de reseñas [11]. La tarea de análisis de sentimientos basado en aspectos, según algunos autores[6] se compone de tres subtareas fundamentales, las cuales son: Extracción de Aspectos (Aspect Extraction, AE), Análisis de Sentimientos del Aspecto (Aspect Sentiment Analysis, ASA) y Evolución del Sentimiento (Sentiment Evolution, SE), otros trabajos [12],[13] suelen dividirla en dos subtareas, estas son Extracción de Aspectos (Aspect Extraction, AE) y Clasificación del Sentimiento del Aspecto (Aspect Sentiment Classification, ASC), la primera parte tiene como objetivo identificar y extraer el aspecto acerca del cual se está emitiendo una opinión y la segunda parte se encarga de detectar la polaridad del sentimiento asociada a ese aspecto en la opinión[12]. Según [14] existen cuatro métodos fundamentales para la extracción de aspectos, estos son:  Basados en frecuencia de aparición de las palabras.  Basados en sentimientos y relaciones entre aspectos.  Utilizando métodos no supervisados.  Mediante modelado de tópicos y redes neuronales. Para llevar a cabo estas tareas han sido propuestos en la literatura un sinnúmero de modelos los cuales, pueden tener un enfoque supervisado, no supervisado o híbrido. 4. COMERCIO ELECTRÓNICO EN CITMATEL La empresa CITMATEL ha desarrollado y mantiene en funcionamiento varias plataformas de comercio electrónico. Estas plataformas ofrecen tanto productos como servicios que constituyen una línea de negocio estratégica para la empresa. El departamento comercial de la entidad apoyado por el grupo de marketing y publicidad analiza diferentes fuentes de información para obtener retroalimentación sobre el funcionamiento en general de la actividad de comercio electrónico y en consecuencia tomar acciones. La información obtenida por diversos canales es generalmente estadística y no se encuentra centralizada. Además todo el proceso de consolidación se realiza de forma manual por un grupo de personas, demorando la transmisión de la información a los decisores finales y con el riesgo de que no se tomen en cuenta todos los elementos. Dichas fuentes son heterogéneas y por tanto su análisis es diferenciado, dada la magnitud de los datos no se procesan todas las publicaciones exhaustivamente. Unido a lo anterior y como parte de la actividad logística de la entidad se ha desarrollado un sistema para apoyar la distribución de los productos de algunos proveedores. A continuación se expone una primera aproximación de un enfoque basado en tecnologías de IA para la captura, procesamiento y análisis de la información generada por los usuarios en formato digital y proveniente de diversas fuentes (multicanal), vinculadas con las plataformas de comercio electrónico de la empresa. Cualquier proceso que se desee llevar a cabo se debe iniciar con la recolección de información proveniente de diferentes fuentes, donde cada una constituye una de las vías a través de las cuales los usuarios generan contenidos de opinión, intereses, sobre productos y servicios de la empresa, ya sea bajo un marco estructurado (ej. quejas, encuestas), o libre (ej. redes sociales). La información capturada se preprocesa, y se almacena en diferentes índices (según la fuente) de forma estructurada (datos estructurados) para facilitar su procesamiento posterior. Luego un conjunto de procesos son concebidos para comprender esa información estructurada, mediante la búsqueda, filtrado y la extracción de frases relevantes. Este enfoque puede incluir el uso de bases de conocimiento (ej. ontologías) por medios de los cuales se definirá y representará el vocabulario de términos relevantes del domino de interés de CITMATEL, las relaciones entre ellos y sus significados semánticos, esto con el propósito de facilitar el procesamiento semántico del contenido textual. Unido a lo anterior se pueden sumar procesos dirigidos al análisis y descubrimiento de conocimiento sobre la información ya recopilada. La información resultante de todos los procesos de análisis puede ser mostrada usando diferentes artefactos gráficos (según corresponda), por ejemplo, sobre un cuadro de mando visual o dashboard. 4.1 Recolección de información Para los procesos anteriores la organización puede disponer de diferentes fuentes de información, las cuales pueden ser parte de sistemas ya implantados en la organización como sistemas de gestión de quejas, y otras fuentes más abiertas presentes en la Web, tales como: las propias plataformas que tiene la empresa para el comercio electrónico y las redes sociales. En estos últimos los clientes podrán compartir sus opiniones sobre los productos y servicios que se ofrecen a la venta. Otras fuentes de información pueden ser los Chatbots y los Asistentes Virtuales, tecnologías emergentes de gran impacto en proyectos de comercio electrónico, y sobre las que actualmente se ha incrementado la atención, corroborado esto en varias publicaciones científicas. En correspondencia se ha incluido en este análisis el Chatbots como otra de las fuentes de datos a tener en cuenta, aun cuando este tipo de herramientas no esté implementado en este contexto. La diversidad de fuentes contempladas, responde a la necesidad de dotar a la organización de una gestión multicanal de retroalimentación con el cliente. Cada una de las fuentes de datos contempladas, por su naturaleza (tipo y estructura de la información, objetivos de su recolección, plataforma origen, etc.) debe requerir servicios de recolección con características específicas, los cuales también forman parte del necesario proceso de homogenización de la estructuración del contenido desde la fuente primaria hacía del modelo. 4.2 Análisis y descubrimiento En esta etapa de servicio se incluyen tareas de Procesamiento de lenguaje natural (PLN) y minería de texto, las cuales se enfocan en el análisis y el descubrimiento dentro del contenido textual. Entre las tareas que se han considerado se encuentran: análisis de sentimientos, detección de tópicos, generación de resúmenes, detección de incidencias y otras que no son puramente de PLN que igualmente aportan información útil a la empresa. Entre ellas el análisis de sentimientos constituye una de las que más se le está prestando atención, según el estudio realizado en el marco de este trabajo, en correspondencia con el impacto que están teniendo las redes sociales en el comportamiento de los usuarios. 4.2.1 Análisis de Sentimientos El análisis de sentimientos (o minería de opinión) es el estudio computacional de las opiniones, valoraciones, actitudes y emociones de los usuarios hacia las entidades y sus atributos y expresadas en un texto[15]. Referido a las entidades, estas pueden ser: productos, servicios, organizaciones, individuos, eventos, aspectos o tópicos. Por otra parte, el sentimiento puede ser positivo, negativo o neutral, pero también una valoración o puntuación (‘rating’, en inglés), así como estar asociados a emociones. El término análisis de sentimientos es casi exclusivamente usado en el ámbito empresarial, mientras que minería de opinión y análisis de sentimientos son comúnmente empleados en la academia[15]. El análisis de sentimientos o la minería de opinión, como nueva disciplina de investigación ha sido ampliamente estudiada en la última década a partir su gran interés en el ámbito científico y empresarial[16]. En sentido general, el análisis va dirigido a intentar determinar la actitud de un interlocutor o usuario con respecto a algún tema o la polaridad contextual general de un documento. Más específicamente, es la tarea de detectar, extraer y clasificar las opiniones, los sentimientos y las actitudes con respecto a temas diferentes, como ha sido expresado en un texto[17]. La actitud puede ser su juicio o evaluación, estado afectivo (el estado emocional del autor al momento de escribir), o la intención comunicativa emocional (o sea, el efecto emocional que el autor intenta causar en el lector). Actualmente se reportan diferentes estudios que concluyen en la necesidad de incrementar la atención en el desarrollo e implementación de soluciones de análisis de sentimiento en las empresas. Una empresa no puede basarse únicamente en una única métrica como fuente de verdad en lo que respecta a la experiencia del cliente, dado que hay una diferencia significativa entre la puntuación de las calificaciones de los clientes y el sentimiento de su correspondiente revisión del producto o servicio, por tanto, es imperativo que una empresa complemente sus puntuaciones de las opiniones de los clientes con una sólida estrategia de análisis del sentimiento[18]. En este sentido, el análisis de sentimientos se dirigiría a examinar las conversaciones en línea, como los tweets, las entradas de blog o los comentarios sobre determinados productos, servicios o temas, y separar las opiniones de los usuarios (positivas, negativas y neutras), lo que permite a las empresas identificar el sentimiento de los clientes sobre esos aspectos claves para la toma de decisiones. Dado el impacto de este tipo de soluciones para captar la satisfacción de los usuarios, se ha considerado su extensión a tres tipos de tareas o servicios:  Servicio de Detección de polaridad: Se refiere al proceso de clasificar los textos de opinión según la polaridad (positivo, negativo o neutral) subyacente.  Servicio de Polaridad basada en aspectos: El análisis de sentimiento basado en aspectos es una variedad de análisis de sentimiento que ayuda a mejorar el negocio al conocer las características de su producto o servicios que necesitan mejorar de acuerdo con los comentarios de los clientes para hacer de su producto un éxito de ventas. Este tipo de análisis identifica los aspectos o características dada sobre un producto o servicio y determina qué clase de sentimientos se está expresando sobre dicho aspecto o característica mencionado en los textos de opinión. A diferencia de la tarea anterior, donde la polaridad se determina sobre todo el texto, aquí se logra un mayor nivel de granularidad, llegando a determinar dicha polaridad sobre los aspectos o características de productos, servicios, entidades en sentido general. En la concepción futura de esta solución, se propone explotar el uso de recursos de conocimiento externos como, como las ontologías ¡Error! No se encuentra el origen de la referencia., y en correspondencia así se ha considerado en el modelo propuesto. En dicha ontología se estarían describiendo las entidades y sus características, sobre las cuales sería útil realizar análisis de sentimientos en la información generada por los usuarios.  Servicio de Reconocimiento de emociones: La detección de emociones es una tarea del análisis de sentimientos que trata la extracción y el análisis de las emociones en textos. Las emociones son rasgos básicos que nos caracterizan como humanos y que influyen en las acciones, los pensamientos y, por supuesto, en nuestra forma de comunicarnos. A pesar de no considerarse entidades propiamente lingüísticas, las emociones se expresan a través del lenguaje por lo que, desde hace varios años, han sido estudiadas por investigadores de diferentes disciplinas[19]. En el ámbito del comercio electrónico, algunas de las emociones que serían de utilidad determinar de forma automática son: alegría, enfado, ira, etc. La detección de polaridad, como el reconocimiento de emociones, a través de la categorización de los textos, ofrecen a los decisores una síntesis (a nivel de etiquetas) y caracterización de los sentimientos que expresan los usuarios de manera rápida y explicita, lo cual permite elevar la proactividad en cuanto a las decisiones a tomar sobre productos y servicios que se ofrecen. 4.2.2 Detección de incidencias De esta tarea no se tienen muchos antecedentes, sin embargo se consideró conveniente incluirlo en el enfoque para su desarrollo en el futuro, aun cuando sea una tarea desafiante. Actualmente en CITMATEL se cuenta con un sistema a través del cual se formalizan quejas de la población sobre incidencias o insatisfacciones diversas, sin embargo, es reconocido que gran parte de las quejas sobre incidencias o situaciones que se presentan no terminan en ese sistema, sino que se queda en comentarios y opiniones en las redes sociales y en las plataformas digitales. El propósito de este servicio sería precisamente identificar contenidos textuales donde se expresen quejas e incidencias por los usuarios de forma automática, e ir más allá en cuanto a la identificación de elementos que constituyen una queja. En este sentido, una de las fuentes primarias podría ser las opiniones con polaridad negativa que se identifiquen, visto este tipo de solución como un procesamiento más profundo dentro del análisis de sentimientos. Este tipo de solución podría aportar elementos de información más cercanos a las decisiones a tomar y con ello se granaría en prontitud en la respuesta a las insatisfacciones de los usuarios. No solo este servicio se conectaría con el de análisis de sentimientos, sino también con Servicio para Georreferenciar opiniones. Al igual que en otras tareas, la base de conocimiento que se construya podría aportar elementos de información del dominio importantes en la identificación de estas quejas o incidencias. 4.2.3 Otros servicios En esta etapa han sido contemplados otros servicios de análisis, tales como: Servicio de Medición del grado de satisfacción; Servicio de Segmentación de clientes; y Servicio para Georreferenciar opiniones, los cuales no necesariamente constituyen tareas específicas de PLN o minería de textos. Sin embargo, han sido reconocidos como tareas de análisis de gran utilidad y a las cuales la tecnología de PLN puede aportar información valiosa. Por ejemplo:  Servicio de Medición del grado de satisfacción: Identificar y/o definir métricas que utilicen información resultante de las tareas de análisis y descubrimiento de conocimiento en los textos para medir el grado de satisfacción de los usuarios sobre un determinado producto o servicio, generar nuevos indicadores (o adaptar existentes) que aporten valores numéricos a la información resultante. En este sentido uno de los elementos de información que por ejemplo se puede considerar es el grado de polaridad (positivas, negativas, o neutrales) de las opiniones emitidas sobre un producto o servicio, así como emociones que se detecten en ese contenido (ej. alegría, o enfado).  Servicio de Segmentación de clientes: Identificar grupos de clientes con opiniones y sentimientos similares, y caracterizarlos. En este proceso serían de gran utilidad técnicas de categorización y agrupamiento de textos, las cuales se podrían combinar con otras provenientes del área de análisis del mercado.  Servicio para Georreferenciar opiniones: A partir de la identificación de entidades geográficas en los textos de opinión y otros, representar en mapas los datos extraídos de procesos de análisis y descubrimiento. Por ejemplo, datos resultantes del procesamiento de quejas o incidencias, así como de los textos de opinión (polaridad). 5. CONCLUSIONES  La utilización de la inteligencia artificial en el comercio electrónico puede marcar diferencias entre las empresas y contribuir a mejorar la eficiencia de las mismas.  El análisis de las opiniones de los clientes es de vital importancia para ofrecer soluciones más personalizadas y es un elemento clave en la toma de decisiones de los directivos en relación a los procesos de comercialización de productos y servicios.  Comenzar a introducir técnicas de IA en algunas áreas de la empresa CITMATEL influirá en un mejor aprovechamiento de la fuerza laboral y en el aumento del valor agregado de sus productos. REFERENCIAS 1. Bawack, R.E., et al., Artificial intelligence in E-Commerce: a bibliometric study and literature review. Electronic Markets, 2022. 32(1): p. 297-338. 2. Kian, R., Provide a model for an e-commerce system with the impact of artificial intelligence. International Journal of Innovation in Management, Economics and Social Sciences, 2021. 1(3): p. 88-94. 3. Liu, B. and L. Zhang, A Survey of Opinion Mining and Sentiment Analysis, in Mining Text Data, C.C. Aggarwal and C. Zhai, Editors. 2012, Springer US: Boston, MA. p. 415-463. 4. Varathan, K., A. Giachanou, and F. Crestani, Comparative Opinion Mining: A Review. Journal of the Association for Information Science and Technology, 2016. 68. 5. Brauwers, G. and F. Frasincar, A Survey on Aspect-Based Sentiment Classification. ACM Computing Surveys, 2021. 6. Nazir, A., et al., Issues and Challenges of Aspect-based Sentiment Analysis: A Comprehensive Survey. IEEE Transactions on Affective Computing, 2022. 13(2): p. 845-863. 7. Subhashini, L.D.C.S., et al., Mining and classifying customer reviews: a survey. Artificial Intelligence Review, 2021. 54(8): p. 6343-6389. 8. Aboelela, E.M., W. Gad, and R. Ismail, The impact of semantics on aspect level opinion mining. PeerJ Computer Science, 2021. 7: p. e558. 9. Liu, N., et al., Attention-based Sentiment Reasoner for aspect-based sentiment analysis. Human- centric Computing and Information Sciences, 2019. 9(1). 10. Aitor García-Pablos, M.C., German Rigau, W2VLDA: Almost Unsupervised System for Aspect Based Sentiment Analysis. 2017. 11. SemEval-2016 Task 5: Aspect Based Sentiment Analysis. 2016. 12. Geetha, M.P. and D. Karthika Renuka, Improving the performance of aspect based sentiment analysis using fine-tuned Bert Base Uncased model. International Journal of Intelligent Networks, 2021. 2: p. 64-69. 13. Phan, M. and P. Ogunbona, Modelling Context and Syntactical Features for Aspect-based Sentiment Analysis2020. 3211-3220. 14. Akhoundzade, R. and K.H. Devin, Unsupervised aspect-based Sentiment Analysis in the Persian language: Extracting and clustering aspects. 2020: p. 94-100. 15. Liu, B., Sentiment analysis: Mining opinions, sentiments, and emotions2015. 1-367. 16. Sun, S., C. Luo, and J. Chen, A Review of Natural Language Processing Techniques for Opinion Mining Systems. Information Fusion, 2016. 36. 17. Ravi, K. and V. Ravi, A survey on opinion mining and sentiment analysis: Tasks, approaches and applications. Knowledge-Based Systems, 2015. 89: p. 14-46. 18. Gallagher, C., E. Furey, and K. Curran, The Application of Sentiment Analysis and Text Analytics to Customer Experience Reviews to Understand What Customers Are Really Saying. International Journal of Data Warehousing and Mining, 2019. 15(4): p. 21-47. 19. Ekman, P., An argument for basic emotions. Cognition and Emotion, 2008. 6(3-4): p. 169-200. Método híbrido de detección de emociones con enfoque semántico en la selección de características Oscar Miguel González Parets, Alfredo Simón-Cuevas, Harold González-Guerra 1Universidad Tecnológica de La Habana “José Antonio Echeverría”, La Habana, Cuba, paretso@yahoo.com, asimon@ceis.cujae.edu.cu, haroldglezgue@gmail.com Resumen: La detección de emociones es una tarea del análisis de sentimientos que trata la extracción y el análisis de las emociones en textos. Reconocer emociones implícitas es uno de los principales desafíos en enfoques basados en palabras claves o lexicones. Este trabajo presenta un enfoque híbrido de detección de emociones, que combina la selección de características relevantes de emoción basada en un lexicón, con un enfoque clásico de aprendizaje para determinar la emoción. El proceso de selección de características propuesto se centra en capturar el significado emocional del texto mediante el cálculo de la relación semántica entre su contenido y el vocabulario del lexicón, con el objetivo de incrementar el reconocimiento de emociones implícitas. La solución propuesta fue evaluada en la clasificación de emociones en tweets en español incluidos en el corpus AIT, con diferentes alternativas para computar la relación semántica y varios algoritmos de clasificación, obteniéndose resultados muy prometedores. Palabras clave: Detección de emociones, selección de características, clasificación de textos, aprendizaje automático 1. Introducción Las emociones son rasgos básicos que nos caracterizan como humanos y que influyen en las acciones, los pensamientos y, por supuesto, en nuestra forma de comunicarnos. A pesar de no considerarse entidades propiamente lingüísticas, las emociones se expresan a través del lenguaje por lo que, desde hace varios años, han sido estudiadas por investigadores de diferentes disciplinas como la psicología, la sociología, la medicina, o la informática [1]. En los últimos años, la comunidad científica relacionada con el PLN ha mostrado especial interés en la detección de emociones en conversaciones textuales, ya que su investigación puede encontrar varias aplicaciones en el mundo digital actual [2, 3, 4]. Por ejemplo, en el ámbito de la atención al cliente, redes sociales como Twitter están ganando protagonismo y los clientes esperan respuestas rápidas. En caso de un gran flujo de tweets el tiempo de respuesta aumenta, por lo que, si los tweets se pudieran priorizar según su contenido emocional, la satisfacción del cliente seguramente aumentaría. Por otro lado, en esta era de la mensajería instantánea, dado que los usuarios están constantemente enviando mensajes, podría ocurrir que enviaran mensajes de enfado inapropiados a otros usuarios. En estos casos, si se utilizara una aplicación de detección de emociones, se podrían tomar medidas como, por ejemplo, mostrar una advertencia al usuario antes de enviar el mensaje. La tarea de la detección de emociones en textos presenta un importante desafío al carecer de la ayuda que, en cualquier comunicación visual, proporcionan las expresiones faciales y las modulaciones de voz. Además, el reto de detectar las emociones en un texto se ve agravado por la dificultad de comprender algunos aspectos relacionados con la comunicación, como pueden ser el contexto, el sarcasmo, la ambigüedad del propio lenguaje natural, o la creciente jerga que está provocando el uso masivo de aplicaciones de mensajería instantánea [5, 6]. En la literatura existen varios enfoques para abordar esta tarea. Uno de los más utilizados es el basado en reglas [2, 7], que trata de explotar el uso de palabras clave y su coocurrencia con otras palabras que tienen asociado un determinado valor emocional o afectivo. Ese valor asociado a determinadas palabras del lenguaje suele establecerse a partir de diferentes recursos léxicos existentes, algunos muy conocidos como WordNet-Affect o SentiWordNet. Por esa razón, a los métodos que siguen este enfoque también se les conoce como métodos basados en palabras clave o en lexicón. Más recientemente, se reportan acercamientos donde se combinan el uso de lexicón con modelos de aprendizaje automático, los cuales son reconocidos dentro de los enfoques híbridos [¡Error! No se encuentra el origen de la referencia.]. Disponer de un lexicón o palabras clave con determinado valor emocional o afectivo permite determinar con alta eficacia el estado emocional de los textos, sin embargo, se reconocen ciertas limitaciones en los enfoques basados en lexicón que están relacionadas con la cobertura del contenido textual [8, 9, 10]. El procesamiento del vocabulario en un lexicón desde una perspectiva semántica permite incrementar su cobertura para identificar características emocionales de un texto, sin necesidad de aumentar el tamaño de dicho vocabulario. Sin embargo, esta orientación semántica del uso de los lexicones, por ejemplo, mediante computo de relaciones semánticas subyacente entre las palabras de emoción y el contenido textual a procesar, ha sido muy poco explotado. Precisamente, estudios realizados sobre soluciones reportadas en la literatura señalan como limitaciones el no uso de características semánticas en la detección de emociones en textos [11]. En este trabajo se propone un método para la detección de emociones en textos cortos escritos en español (tweets), que se basa en la semántica de las palabras clave del texto. Nuestra hipótesis se centra en que si logramos determinar un buen grado de afinidad semántica del texto del tweet con cada emoción a detectar (relación semántica tweet-emoción), conseguiremos una selección de características más enfocada a las emociones, lo que supondría un mejor proceso de aprendizaje en el algoritmo encargado de la clasificación. Por tanto, la principal novedad que aporta este trabajo está relacionada con el enfoque propuesto para capturar el grado de afinidad semántica entre el contenido del tweet y cada uno de los vocabularios que caracterizan a cada emoción, lo que permite una selección de características de la opinión donde el análisis de relevancia este más orientado al dominio del problema (emociones), en lugar de a aspectos estadísticos dentro del contenido, como comúnmente se suele adoptar. Como principal contribución destaca el enfoque semántico propuesto con el que se trata el vocabulario del lexicón y su relación con el contenido del texto. Nuestra contribución aporta una solución al desafío que representa extender la cobertura de ese conocimiento en el procesamiento del contenido textual a clasificar y lograr identificar características del texto más relevantes para predecir las clases de emociones. El resto del trabajo se estructura de la siguiente manera: los principales trabajos relacionados se exponen en la Sección 2; la estructura general y los principios del método propuesto se describen en la Sección 3; los datos experimentales, la evaluación, y el análisis de los resultados obtenidos se muestran en la Sección 4; en la Sección 5 se resume el trabajo y se propone una dirección futura. 2. Trabajos relacionados En la literatura se pueden encontrar diferentes enfoques para abordar la tarea de la detección de emociones, siendo incluso clasificados en varias categorías por distintos investigadores [8, 12, 13, 14]. La clasificación más genérica es la propuesta en [12], que establece dos categorías: los basados en reglas y los basados en aprendizaje automático. Al primero pertenecen aquellos métodos que hacen uso de recursos léxicos tales como lexicones, bolsas de palabras e incluso ontologías. El segundo engloba aquellos métodos que aplican algoritmos de aprendizaje basados en características lingüísticas. En los enfoques basados en reglas algunos métodos explotan el uso de palabras clave en los textos y su coocurrencia con otras palabras clave con valor emocional/afectivo explícito [15]. Para ello, se utilizan varios recursos léxicos como WordNet-Affect [16] y SentiWordNet [17] para el idioma inglés. En cuanto a la disponibilidad de este tipo de recursos en otros idiomas, el número es muy limitado. Para el español, destacan el Spanish Emotion Lexicon (SEL)[ 18] y el Improved Spanish Opinion Lexicon (iSOL) [19]. Otros métodos basados en este enfoque también tratan de explotar la sintaxis de las palabras clave mediante el uso de etiquetadores POS y, aunque suelen obtener buena precisión, sufren de una baja cobertura (real) porque muchos textos no contienen palabras afectivas a pesar de transmitir emociones [13]. La mayoría de los trabajos presentados en el conocido foro de evaluación SemEval durante los últimos años [4, 3], utilizan léxicos de afecto y concluyen que son una fuente de información muy valiosa porque proporcionan información previa sobre el tipo de emoción asociada a cada palabra. Además, en WASSA, otro foro de evaluación relacionado con estas tareas, también se demostró que el uso de características procedentes de léxicos de afecto es útil para tareas de minería de emociones [3]. En este sentido, Bandhakavi et al. [20] estudian el problema de la selección de características de emoción utilizando recursos léxicos específicos del dominio y léxicos de emoción de propósito general. Aun así, existen varias revisiones recientes que ponen de manifiesto las limitaciones asociadas al uso de la semántica que se encuentran en estos procesos para detectar o clasificar emociones en los textos [8, 11]. En los enfoques basados en aprendizaje automático (Machine Learning, ML) la mayoría de los métodos se basan en la extracción de características, tales como la presencia de n-gramas frecuentes, la negación, la puntuación, los emoticonos, los hashtags, etc., para así formar una representación de características del texto que luego se utiliza como entrada por los clasificadores para predecir la salida [21, 22]. Estos métodos suelen requerir un arduo proceso de selección de características y no logran una alta cobertura debido a las diversas formas de representar las emociones. Dentro de los enfoques ML se han reportado métodos basados en redes neuronales profundas, que han tenido un éxito considerable en diversas tareas aplicadas a texto, habla e imagen. Variaciones de las redes neuronales recurrentes (RNN), como la LSTM y la BiLSTM, han sido eficaces para modelar información secuencial. Por su parte, la introducción de las redes neuronales convolucionales (CNN) en el dominio del texto ha demostrado su capacidad para clasificar características de las emociones [23]. A pesar de los buenos resultados, los enfoques basados en aprendizaje profundo presentan algunas desventajas respecto a modelos tradicionales de aprendizaje, lo que en algunos contextos pueden llevar a descartar su elección. Algunas de ellas son: demanda de mucha mayor cantidad de datos bien etiquetados para entrenamiento, mayores exigencias en la capacidad de computo, y por último, su naturaleza de funcionamiento tipo “caja negra”, que no permite una adecuada comprensión del proceso de aprendizaje [24]. El gran éxito de los métodos tradicionales basados en aprendizaje automático, junto con el hecho de que recursos léxicos como SEL aportan información muy valiosa sobre el tipo de emoción asociada a cada palabra, nos ha motivado a probar una combinación de ambos enfoques para detectar emociones. Partiendo del uso de SEL, proponemos calcular la relación semántica texto-emoción para así lograr una selección de características más enfocada a las emociones, lo que se supone redundar ‘a en un mejor aprendizaje del algoritmo de clasificación. 3. Solución propuesta Esta sección describe la solución propuesta en este trabajo. Las principales etapas del proceso de desarrollo se describen en la Figura 1. En primer lugar, los textos de opinión son pre procesados y normalizados. A continuación, se lleva a cabo el proceso de determinar la orientación emocional de los textos, que consiste en establecer un grado de afinidad (relación semántica) de cada texto con cada vocabulario asociado a cada emoción del lexicón SEL. Finalmente, se realiza el proceso de selección de características, tomando como base el grado de afinidad obtenido en la fase anterior, y que permite generar los vectores característicos que serán utilizados por el algoritmo de aprendizaje supervisado. Figura 1: Flujo de trabajo de la solución propuesta. 3.1 Pre procesamiento La naturaleza no estructurada de los textos, más aún en el caso de los tweets y textos de opinión, requirió la ejecución de tareas de reprocesamiento o normalización. Estas tareas consistieron en tokenizar los tweets usando NLTK TweetTokenizer1, convertir todo el texto a minúscula y eliminar stop words, signos de puntuación y caracteres raros. No fue necesario ningún proceso de traducción previa porque dicha herramienta soporta trabajar con textos en castellano. 3.2 Extracción de características orientadas a la emoción 3.2.1 Determinar la orientación emocional En esta tarea se determina la afinidad del contenido de los tweets a cada una de las emociones incluidas en el lexicón de emociones, desde el punto de vista semántico. Específicamente, el lexicón SEL (caso de estudio) contiene un total de 2.036 palabras en español que se organizan en 6 emociones diferentes: enojo (anger), miedo (fear), tristeza (sadness), alegría (joy), sorpresa (surprise), y repulsión (disgust). Por tanto, cada emoción está representada a través de un vocabulario de términos, donde cada término esta etiquetado con un valor PFA (Probability Factor of Affective) [18]. Ejemplos de palabras que se incluyen en cada categoría son: amistad, bienestar, carcajada, celebrar... (alegría), enfadado, enfurecer, enrabiar, ira... (enojo), espeluznante, fobia, temor, terror... (miedo), asqueroso, detestable, inmundo, repugnante... (repulsión), asombroso, increíble, maravilloso, perplejo... (sorpresa), infeliz, luto, pena, perdida... (tristeza). Al determinar esta afinidad (orientación) es posible realizar un proceso de selección de características de los tweets más enfocado en las emociones, lo cual no es posible en los modelos de relevancia basados en frecuencia, tales como TF o TF-IDF. La determinación de la afinidad emocional se basa en el análisis de la relación semántica existente entre el contenido de los textos de opinión y cada emoción del lexicón, tomando como referencia su vocabulario. En este trabajo se proponen evaluar dos variantes para el computo de esa relación semántica opinión-emoción: (1) basada en el corpus de opiniones, y (2) basada en un recurso semántico externo. Entre las medidas basadas en corpus que han sido aplicadas en el ´ámbito del análisis de sentimientos se encuentran Pointwise Mutual Information (PMI) y 1 http://www.nltk.org/api/nltk.tokenize.html chi-square, entre otras, siendo la primera la adoptada en esta propuesta. En el caso de la variante que se apoya en recursos semánticos, se utilizarán métricas basadas en WordNet [25]. La relación semántica entre los tweets y las emociones del lexicón se representa mediante una matriz de afinidad, la cual es construida para cada tweet u opinión que se vaya a procesar. En esta matriz, las filas identifican cada una de las emociones del lexicón SEL, y las columnas las palabras de la opinión que constituyen características candidatas. La orientación emocional O(wi,Ej) entre cada palabra wi de la opinión y la cantidad de términos del vocabulario de la emoción SEL presentes en la opinión Ej, es calculada según la Ecuación 1, y se almacena en la intersección término-emoción de la matriz de afinidad. Esta matriz constituye la base para la siguiente fase (selección de características basada en la emoción) donde son seleccionadas las características más relevantes (las que más relación tengan con las emociones). (1) Según se muestra en la Figura 2, en SEL existe un desbalance significativo en el tamaño de los vocabularios de cada emoción, lo que se traduce también en una mayor dispersión de valores PFA en las palabras que los componen, interpretándose este también como un valor de relevancia para la emoción. Todo ello indica que en un acercamiento basado en la relación semántica entre opinión-emoción, como el que se propone, se podría estar determinando esa relación semántica a partir de rangos de valores muy diferentes de PFA y, derivado de ello, originarse afectaciones en el cálculo de O(wi,Ej). Las emociones que más palabras tengan en su vocabulario tendrán más influencia en el cálculo de la orientación de la opinión, dado que hay más probabilidad de que los valores resultantes de este cálculo sean superiores. Una manera de reducir el efecto de este problema es mediante un mecanismo de poda o filtro del vocabulario de las emociones a partir de un umbral de relevancia mínima PFAmin. 3.2.2 Pointwise Mutual Information (PMI) La medida PMI se deriva de la teoría de la información y proporciona una vía formal de modelar la información mutua entre las características (ej. palabras de la opinión) y las clases (ej. emociones a clasificar) [26]. En el ámbito de la clasificación de textos, este tipo de medidas constituye una alternativa para evaluar la relevancia de características potenciales del texto con respecto a clases específicas. Esta información mutua puntual entre la palabra wi y la clase de emoción Ej se define sobre la base de la coocurrencia entre las palabras vi,j del vocabulario de la emoción Ej y la palabra wi de la opinión, y se calcularía según la Ecuación 2, siendo en este caso rel sem(wi,vi,j) = PMI(wi,vi,j). Este planteamiento se basa en la suposición de que las palabras afectivas (incluidas en el lexicón) que coocurren con frecuencia con las palabras de la opinión tienden a estar semánticamente relacionadas [27]. (2) 3.2.3 Chi-square (CHI) La fórmula estadística de Chi-cuadrado está relacionada con las funciones de selección de características que intentan capturar los mejores K términos para la clase. [28]. El estadístico CHI mide la asociación entre el término y la categoría y está definido por la ecuación 3 donde A es el número de veces que la palabra wi y la palabra vi,j del vocabulario de la emoción Ej coexisten; B es el número de veces que wi ocurre sin la palabra vi,j del vocabulario de la emoción; C está dado por la cantidad de veces que ocurren las palabras vi,j del vocabulario de la emoción Ej; E es el número de veces Ej ocurre sin wi; D es el número de veces que ninguno wi ni vi,j ocurre; N es el número total de comentarios. CHI(wi , Ej) = 𝑁(𝐴𝐷 − 𝐶𝐵)2 (𝐴 + 𝐶)(𝐵 + 𝐷)(𝐴 + 𝐵)(𝐶 + 𝐷) (3) 3.2.4 Métricas basadas en WordNet (WN) Las medidas de relación semántica basadas en WordNet constituyen otra de las alternativas viables para demostrar la hipótesis que ha motivado este trabajo. A diferencia del PMI, donde el computo se sustenta en el procesamiento solo del contenido de los textos, este tipo de medidas explotan la estructura topológica que forman los synsets y sus relaciones en WordNet, como recurso semántico externo. La relación semántica es un concepto que abarca la relación entre dos palabras, tanto por similitud entre significados, como por vínculos contextuales (ej. funcional, asociación, parte de, etc.) [29]. Diversas métricas han sido definidas para medir ambos tipos de relaciones, cuyas implementaciones se ofrecen en el paquete de software libre WordNet::Similarity2 [26]. La disponibilidad de estas métricas constituye una ventaja, dado que se podrían evaluar diferentes alternativas individuales y también combinarlas. No obstante, se reconoce que el uso de estas métricas tiene como limitante que las palabras que se comparan estén incluidas en algún synset en WordNet. En este enfoque se emplea Resnik Similarity(res) y la métrica JCN [30] como métricas para la evaluación de la relación semántica, siendo entonces rel_sem(wi ,vi,j) = res (wi ,vi,j) y rel_sem(wi ,vi,j) = JCN(wi ,vi,j) respectivamente. Estos métodos devuelven una puntuación que indica qué tan similares son los sentidos de dos palabras, según el contenido de información del nodo ancestro más específico. Una cosa a tener en cuenta es que para cualquier medida de similitud que utilice el contenido de la información, el resultado depende del corpus utilizado para generar el contenido de la información y los detalles de cómo se creó el contenido de la información. Resultados reportados en [29] muestran que, en un análisis experimental comparativo, la medida JCN es una de las que mejor se comporta. 3.2.4 Poda del vocabulario de las emociones El valor PFA que posee cada palabra en el lexicón SEL sugiere cierta imprecisión y vaguedad subyacente en la relación palabra-clase de emoción, cuyo grado o pertenencia a la clase se expresa a través de dicho valor de PFA. Esta imprecisión se puede propagar hacia el resultado final afectando su calidad. En este sentido, se propone un mecanismo de poda o filtrado del vocabulario del lexicón que permite descartar el subconjunto de vocabulario que mayor imprecisión posee, aspecto no considerado en otras soluciones reportadas. El mecanismo propuesto de poda o filtrado del vocabulario de las emociones a partir del PFAmin permite reducir la dispersión en los valores de PFA de las palabras a considerar en el cómputo de la afinidad emocional de las opiniones, y llevar a cabo una selección de características guiada por un vocabulario de mayor relevancia para las emociones. De esta forma, también se reduce la carga computacional de este proceso, dado que se disminuiría la cantidad de interacciones en el cómputo de las relaciones semánticas, aspecto muy relevante cuando se utilizan medidas basadas en WordNet. En este sentido, se definieron y evaluaron tres criterios para obtener el umbral para la poda del vocabulario de las emociones en el lexicón: 1. Tomar como PFAmin el valor mínimo de la media de PFA calculada para cada una de las emociones del SEL (enfoque optimista). 2. Tomar como PFAmin el valor máximo de la media de PFA calculada para cada una de las emociones del SEL (más restrictivo que el anterior, enfoque pesimista). 3. Tomar como PFAmin el valor resultante de aplicar un operador de agregación compensatorio (enfoque fuzzy de la selección del umbral de poda), que permita obtener un único valor representativo de los valores medios de PFA obtenidos de los vocabularios de cada emoción (ei), como es el caso del operador propuesto en [31] (Ecuación 4), donde γ es el grado de compensación proporcionado y se podría calcular según Ecuación 5 [32], en la que T(e1,e2,...,en) es una función t-norma y se podría calcular según la Ecuación 6. (4) (5) (6) Luego de obtenido el umbral de poda (PFAmin), se filtra el vocabulario de cada emoción seleccionando solo aquellas palabras que tengan un PFAi ≥ PFAmin, y se lleva a cabo el análisis de la relación semántica entre cada una de las opiniones y las emociones del lexicón (podadas). 2 http://wn-similarity.sourceforge.net 3.3 Selección de características En esta fase se seleccionan las características de las opiniones, tomando como base la matriz de afinidad construida en la fase anterior y con el objetivo de generar los vectores característicos que serán utilizados por los algoritmos de clasificación supervisados. Inicialmente, a partir la matriz de afinidad de cada opinión (o), se obtiene un grado de afinidad semántica (SAD, Semantic Affinity Degree) con respecto a cada una de las emociones (Ej), según la Ecuación 7. Luego, se selecciona la clase de emoción con la cual la opinión tiene mayor afinidad, siendo esta la que arroje un valor más alto de SAD(o,Ej). La emoción sobre la que se exprese mayor afinidad será la que determine que palabras afectivas (de las candidatas representadas) caracterizan la opinión (tweet). (7) A partir de identificar la emoción Ej con mayor SAD(o,Ej), se filtra la matriz de afinidad de la opinión que se está procesando, eliminando las filas correspondientes a las emociones restantes. El vector característico de la opinión se construirá con las palabras de la opinión que posean O(wi,Ej) > 0. En este enfoque se logra un proceso de selección de características donde la evaluación de su relevancia tiene más en cuenta la semántica alrededor de las emociones, a diferencia de otras propuestas donde el peso fundamental de la relevancia esta en enfoques basados en la frecuencia [33]. Esta propuesta de selección propicia la reducción de características redundantes en la construcción de los vectores de las opiniones, dado que las características se determinan por una emoción en particular. También permite reducir las características no informativas (o poco informativas) y que no tengan un alto poder discriminatorio, debido a la irrelevancia o redundancia con respecto a la clase (una misma característica es relevante en diferentes grados para varias clases). Todo ello propiciaría la mejora de los resultados del reconocimiento de emociones basado en un lexicón. Luego de identificadas las características de cada opinión, se procede a la última tarea para la construcción del vector de las opiniones referente al pesado de las características. El valor de peso de cada una de las características debe expresar un grado de relevancia de la misma, y como parte de este trabajo se estudiaron algunas alternativas de peso, tales como O(wi,Ej), como relevancia directa de la característica wi en función de la emoción que determinó su selección; y la frecuencia de ocurrencia de esa palabra características dentro del corpus de opiniones, dado que es la alternativa más común en soluciones de clasificación supervisada de textos. Sin embargo, resultados parciales experimentales arrojaron que un modelo binario de representación del vector obtuvo mejores resultados que esas dos alternativas, confirmándose lo reportado en [34], donde se plantea que, en el ´ámbito del análisis de sentimientos, este tipo de modelos ofrece mejores resultados que el basado en la frecuencia. En este sentido, se adoptó el modelo de representación binario para construir el vector característico de las opiniones, teniendo en cuenta que el peso de una característica wi tiene valor 1 si el O(wi,Ej) 6= 0, y valor 0 en caso contrario. 4. Resultados experimentales La solución propuesta fue evaluada en la clasificación de cuatro emociones (enojo /anger, miedo/fear, tristeza/sadness, alegría/joy) en tweets escritos en español, utilizando el corpus AIT empleado en SemEval-2018 Task 1: Affect in Tweets (subtarea EI-oc). Los experimentos fueron realizados utilizando los algoritmos de clasificación Support Vector Machine (SVM), Logistic Regression (LR), Multilayer Perceptron (MLP) y Naive Bayes (NB), implementados en la librería scikit-learn3 de Python. Los experimentos realizados pretendieron evaluar el comportamiento de las medidas de relación semántica seleccionadas y evaluar el comportamiento de la poda del lexicón por relevancia del vocabulario (en sus varias alternativas). En la evaluación de los resultados se utilizaron las métricas de Precision (P), Recall (R), F-score (F1), y Accuracy (Acc.) y se definieron los resultados de la selección de características basada en la frecuencia de términos (TF) como baseline. En las Tablas 1-4, se muestran los resultados obtenidos con cada uno de los clasificadores, SVM, LR, MLP, y NB, respectivamente. 3 http://scikit-learn.org Tabla 1: Resultados obtenidos con el clasificador SVM Lexicón Medidas Enfado Miedo Alegría Tristeza Acc. P R F1 P R F1 P R F1 P R F1 P o d a Optimista PMI .77 .98 .86 .90 .87 .89 .96 .81 .88 .95 .86 .90 .88 WN .53 .95 .68 .82 .68 .75 .93 .63 .75 .87 .64 .74 .72 CHI .7940 .9833 .8786 .8776 .885 .8813 .9538 .7916 .8652 .9422 .87 .9046 .8825 Pesimista PMI .76 .98 .85 .90 .86 .88 .96 .80 .87 .94 .85 .89 .87 WN .54 .95 .69 .83 .68 .75 .93 .63 .75 .88 .64 .74 .73 CHI .7898 .9833 .8760 .8770 .88 .8785 .9540 .7966 .8683 .9436 .865 .9026 .8812 Fuzzy PMI .76 .98 .86 .90 .86 .88 .96 .80 .87 .94 .85 .89 .88 WN .54 .95 .68 .82 .68 .75 .93 .63 .75 .88 .64 .74 .72 CHI .7940 .9833 .8786 .87768 .885 .8813 .9538 .7916 .8652 .9422 .87 .9046 .8825 Sin podar PMI .75 .98 .85 .90 .85 .88 .96 .80 .87 .94 .85 .89 .87 CHI .7983 .9833 .8812 .8780 .8883 .8831 .954 .795 .8672 .9422 .87 .9046 .8841 Baseline .33 .31 .31 .35 .28 .33 .36 .34 .38 .35 .31 .35 .34 Tabla 2: Resultados obtenidos con el clasificador LR Lexicón Medidas Enfado Miedo Alegría Tristeza Acc. P R F1 P R F1 P R F1 P R F1 P o d a Optimista PMI .83 .96 .89 .90 .88 .89 .93 .83 .88 .91 .87 .89 .89 WN .52 .86 .65 .77 .63 .69 .82 .59 .69 .74 .60 .66 .67 CHI .8477 .965 .9025 .8813 .8916 .8864 .9338 .8233 .8751 .9156 .8866 .9009 .8916 Pesimista PMI .81 .95 .88 .89 .87 .88 .93 .82 .87 .91 .86 .88 .88 WN .52 .85 .64 .77 .63 .69 .82 .59 .69 .74 .6 .66 .67 CHI .8427 .965 8997 .8745 .8833 .8789 .9303 .8233 .8735 .9131 .8766 .8945 .8870 Fuzzy PMI .82 .96 .88 .89 .87 .88 .93 .83 .87 .91 .87 .89 .88 WN .52 .86 .64 .77 .63 .69 .82 .59 .69 .74 .60 .66 .67 CHI .8477 .965 .9025 .8813 .8916 .8864 .9320 .8233 .8743 .9172 .8866 .9016 .8916 Sin podar PMI .80 .96 .87 .89 .86 .88 .92 .81 .86 .90 .86 .88 .87 CHI .8516 .9666 .9055 .8815 .8933 .8874 .9340 .8266 .8770 .9189 .8883 .9033 .8937 Baseline .33 .35 .37 .35 .30 .35 .35 .36 .39 .34 .33 .35 .36 Tabla 3: Resultados obtenidos con el clasificador MLP Lexicón Medidas Enfado Miedo Alegría Tristeza Acc. P R F1 P R F1 P R F1 P R F1 P o d a Optimista PMI .95 .99 .97 .90 .98 .94 .99 .87 .93 .98 .96 .97 .95 WN .94 .69 .80 .55 .96 .70 .95 .69 .80 .91 .72 .81 .77 CHI .9553 .9983 .9763 .8738 .9816 .9246 .9845 .8516 .9133 .9948 .9616 .9779 .9483 Pesimista PMI .93 .99 .96 .90 .96 .93 .98 .88 .92 .99 .95 .97 .95 WN .60 .96 .74 .83 .77 .80 .94 .69 .80 .96 .70 .81 .78 CHI .9643 9916 9778 .8703 .985 .9241 .9846 .8566 .9162 .9931 .9633 .9780 .9491 Fuzzy PMI .93 .99 .96 .89 .97 .93 .98 .87 .92 .99 .95 .97 .95 WN .60 .94 .73 .83 .77 .80 .96 .68 .80 .91 .73 .81 .78 CHI .9614 .9966 .9787 .8753 .9833 .9262 .9865 .855 .9160 .9914 .965 .9780 .95 Sin podar PMI .92 .99 .95 .90 .97 .93 .98 .86 .92 .98 .95 .97 .94 CHI .9613 .995 .9778 .8716 .985 .9248 .9845 .8516 .9133 .9931 .9633 .9780 .9487 Baseline .24 .29 .26 .24 .26 .31 .35 .30 .33 .32 .29 .31 .31 Tabla 4: Resultados obtenidos con el clasificador NB Lexicón Medidas Enfado Miedo Alegría Tristeza Acc. P R F1 P R F1 P R F1 P R F1 P o d a Optimista PMI .57 1 .72 .89 .55 .69 .93 .50 .65 .61 .67 .64 .68 WN .39 1 .56 .85 .38 .53 .97 .35 .51 .65 .42 .51 .54 CHI .5853 1 .7384 .8917 .5766 .7004 .9302 .5333 .6779 .6485 .695 .6709 .70125 Pesimista PMI .55 1 .71 .89 .52 .66 .93 .47 .62 .60 .67 .63 .66 WN .39 1 .56 .84 .39 .53 .97 .34 .51 .65 .42 .51 .54 CHI .5623 1 .7198 .7474 .725 .7360 .9918 .4033 .5734 .7593 .6416 .6955 .6925 Fuzzy PMI .56 1 .72 .89 .54 .67 .93 .49 .64 .60 .66 .63 .67 WN .39 1 .56 .85 .38 .53 .97 .35 .52 .65 .42 .51 .54 CHI .5847 1 .7380 .8877 .5533 .6817 .9039 .5333 .6708 .6408 .69 .6645 .6941 Sin podar PMI .55 1 .71 .89 .48 .62 .86 .46 .60 .60 .66 .63 .65 CHI .6137 .9983 .7601 .8883 .5833 .7042 .9325 .53 .6758 .6458 .7416 .6904 .7133 Baseline .28 .27 .25 .25 .26 .23 .33 .30 .34 .32 .25 .32 .30 Los resultados obtenidos muestran que el clasificador que mejores resultados obtiene es MLP, a diferencia de lo reportado en Plaza-del Arco et al. [33] donde se reporte SVM. Según se aprecia en estos resultados, respecto a la alternativa más comúnmente usada (TF), se obtienen mejores resultados cuando el proceso de selección de características este guiado solo por el análisis de relevancia a partir de la afinidad semántica de la opinión respecto a cada una de las emociones, utilizando como referencia el lexicón SEL, evidenciando la contribución del enfoque propuesto. Entre las métricas de la relación semántica evaluadas, se destaca PMI y CHI con respecto a la métrica JCN y Resnik basadas en WordNet, independientemente del clasificador y del tratamiento del lexicón. También esto se justifica dada la posible ausencia de palabras del lexicón o los tweets en WordNet, lo cual es más probable en su versión en español. Cabe destacar también en los resultados como contribución lograr mayor equilibrio en el vocabulario de emociones en cuanto a grados de relevancia de los términos que integre. Predominaron mejores valores de exactitud (medida Acc) cuando por todos los algoritmos de clasificación cuando los vocabularios del lexicón fueron podados. En general, los mejores resultados se concentran en los criterios optimista y fuzzy para el caso de PMI y los criterios fuzzy y sin poda en el caso de Chi-square, siendo el primero con el que se obtienen los mejores resultados combinando MLP y PMI, y el segundo es con el que se obtienen los mejores resultados combinando MLP y CHI. Tomando de referencia PMI + Poda Optimista y los mejores resultados en el caso de CHI, como las mejores variantes propuestas, se compararon los resultados con el estado del arte, específicamente con el trabajo el reportado en [33] (ver Tabla 5). En esa comparación se observan mejoras significativas de los resultados en por parte de la solución propuesta, respecto a lo reportado en [33] y para la mayor parte de los clasificadores, demostrándose contribuciones en el enfoque propuesto. Tabla 5: Comparación con otros trabajos reportados en la literatura Soluciones Enfado Miedo Alegría Tristeza Acc. P R F1 P R F1 P R F1 P R F1 Solución propuesta: PMI + Poda Optimista SVM .77 .98 .86 .90 .87 .89 .96 .81 .88 .95 .86 .90 .88 NB .57 1 .72 .89 .55 .69 .93 .50 .65 .61 .67 .64 .68 MLP .95 .99 .97 .90 .98 .94 .99 .87 .93 .98 .96 .97 .95 LR .83 .96 .89 .90 .88 .89 .93 .83 .88 .91 .87 .89 .89 Solución propuesta: CHI+sin poda SVM .7983 .9833 .8812 .8780 .8883 .8831 .954 .795 .8672 .9422 .87 .9046 .8841 NB .6137 .9983 .7601 .8883 .5833 .7042 .9325 .53 .6758 .6458 .7416 .6904 .7133 LR .8516 .9666 .9055 .8815 .8933 .8874 .9340 .8266 .8770 .9189 .8883 .9033 .8937 CHI+Poda Fuzzy MLP .9614 .9966 .9787 .8753 .9833 .9262 .9865 .855 .9160 .9914 .965 .9780 .95 Plaza et. al 2019 [33] SVM .78 .76 .77 .76 .68 .72 .73 .88 .80 .76 .68 .72 .76 NB .62 .77 .69 .67 .68 .67 .84 .63 .72 .68 .68 .68 .69 MLP .64 .66 .65 .62 .62 .62 .78 .72 .75 .59 .64 .62 .66 LR .79 .74 .77 .78 .64 .70 .68 .91 .78 .78 .66 .71 .74 5. Conclusiones y trabajo futuro En este trabajo se aborda la tarea de la detección de emociones en textos mediante un enfoque híbrido, que combina un proceso de selección de características basado en lexicón con un enfoque clásico de aprendizaje automático. La novedad de la propuesta radica en el enfoque semántico propuesto para capturar el grado de afinidad entre el contenido de opinión y el vocabulario que caracteriza cada emoción, de manera que se consigue una selección de características en las opiniones que es más adecuada para la tarea de clasificación objetivo. Para evaluar la solución propuesta se llevaron a cabo diversos experimentos utilizando el corpus AIT de emociones en tweets en español. En los experimentos se evaluaron diferentes alternativas para calcular el grado de afinidad semántica texto- emoción y se testearon varios algoritmos de clasificación. Como principal conclusión, se considera que el enfoque propuesto es bastante prometedor a la hora de realizar una selección de características más adecuada, es decir, más enfocada en las emociones, los buenos resultados obtenidos así lo avalan, siendo estos superiores a los obtenidos por otros trabajos del estado del arte. Como parte del trabajo futuro, además de aplicar el método propuesto a diferentes corpus de tweets, evaluar otras medidas de relación semántica y otros operadores de agregación, pretendemos ampliar este enfoque para entrenar modelos de clasificación que tengan en cuentan otra información lingüística del contexto de la opinión como, por ejemplo, la negación. Referencias 1. Ekman, P. An Argument for Basic Emotions. Cognition and Emotion 6(34):169-200, 1992. 2. Strapparava, C. Emotions and NLP: Future Directions. En Proceedings of NAACL-HLT 2016, pp. 180. 2016. 3. Mohammad, S. M., F. Bravo-Márquez, M. Salameh, y S. Kiritchenko. SemEval-2018 Task 1: Affect in Tweets. En Proceedings of International Workshop on Semantic Evaluation (SemEval-2018), New Orleans, LA, USA. 2018. 4. Chatterjee, A., K. N. Narahari, M. Joshi, y P. Agrawal. SemEval-2019 Task 3: EmoContext Contextual Emotion Detection in Text. Proceedings of the 13th International Workshop on Semantic Evaluation, ACL, pp. 39– 48, 2019. 5. Khan, M. T., M. Durrani, A. Ali, I. Inayat, S. Khalid, y K. H. Khan. Sentiment analysis and the complex natural language. Complex Adaptive Systems Modeling, 4(1):2, 2016. 6. Shivhare, S. N. y S. Khethawat. Emotion detection from text. ArXiv abs/1205.4944, pp. 371–377, 2012. 7. Sykora, M. D., T. W. Jackson, A. O’Brien, y S. Elayan. Emotive ontology: Extracting fine-grained emotions from terse, informal messages. Proceedings of the IADIS International Conference Intelligent Systems and Agents 2013, 2013. 8. Acheampong, F., C. Wenyu, y H. NunooMensah. Text-based emotion detection: Advances, challenges, and opportunities. Engineering Reports, 2(7):1-24, 2020. 9. Chakriswaran, P., D. R. Vincent, K. Srinivasan, V. Sharma, C.-Y. Chang, y D. G. Reina. Emotion ai-driven sentiment analysis: A survey, future research directions, and open issues. Applied Sciences, 9(24), 2019. 10. Hemmatian, F. y M. K. Sohrabi. A survey on classification techniques for opinion mining and sentiment analysis. Artificial Intelligence Review, 52(3):1495-1545, 2019. 11. Alswaidan, N. y M. Menai. A survey of state-of-the-art approaches for emotion recognition in text. Knowledge and Information Systems 62(8):2937-2987, 2020. 12. Cambria, E. Affective Computing and Sentiment Analysis. IEEE Intelligent Systems, 31(2):102–107, 2016. 13. Gupta, U., A. Chatterjee, R. Srikanth, y P. Agrawal. A sentiment and semantics based approach for emotion detection in textual conversations. arXiv, 2017. 14. Sailunaz, K., M. Dhaliwal, J. Rokne, y R. Alhajj. Emotion detection from text and speech: a survey. Social Network Analysis and Mining, 8(1), 2018. 15. Strapparava, C. y R. Mihalcea. Learning to identify emotions in text. Proceedings of the 2008 ACM symposium on Applied computing, pp. 1556-1560, 2008. 16. Strapparava, C. y A. Valitutti. WordNet-Affect: an affective extension of WordNet. Proceedings of the 4th International Conference on Language Resources and Evaluation, pp. 1083–1086, 2004. 17. Esuli, A. y F. Sebastiani. SentiWordNet: A Publicly Available Lexical Resource for Opinion Mining. Proceedings of LREC 2006, pp. 417–422, 2006. 18. Sidorov, G., S. Miranda-Jiménez, F. Viveros-Jiménez, A. Gelbukh, N. Castro-Sánchez, F. Velásquez, I. Díaz- Rangel, S. Suárez Guerra, A. Treviño, y J. Gordon. Empirical study of opinion mining in Spanish tweets. LNAI 7629, pp. 1–14, 2012. 19. Molina-González, M. D., E. Martínez-Cámara, M. T. Martín-Valdivia, y J. M. Perea Ortega. Semantic orientation for polarity classification in Spanish reviews. Expert Systems with Applications, 40(18):7250– 7257, 2013. 20. Bandhakavi, A., N. Wiratunga, D. Padmanabhan, y S. Massie. Lexicon based feature extraction for emotion text classification. Pattern Recognition Letters, 93:133–142, 2017. 21. Canales, L. y P. Martínez-Barco. Emotion detection from text: A survey. En Proceedings of the Workshop on Natural Language Processing in the 5th Information Systems Research Working Days (JISIC), ACL. pp. 37– 43, 2014. 22. Liew, J. S. Y. y H. R. Turtle. Exploring fine-grained emotion detection in tweets. Proceedings of the NAACL Student Research Workshop, pp. 73–80. ACL. 2016. 23. Mundra, S., A. Sen, M. Sinha, S. Mannarswamy, S. Dandapat, y S. Roy. Fine grained emotion detection in contact center chat utterances. Lecture Notes in Computer Science 10235, pp. 337–349, 2017. 24. Kowsari, K., K. Jafari Meimandi, M. Heidarysafa, S. Mendu, L. Barnes, y D. Brown. Text classification algorithms: A survey. Information, 10(4), 2019. 25. Pedersen, T., S. Patwardhan, y J. Michelizzi. WordNet::Similarity - Measuring the relatedness of concepts. Proceedings of the National Conference on Artificial Intelligence, pp. 1024–1025, 2004. 26. Aggarwal, C. C. y C. X. Zhai. Mining text data. Springer. 2013. 27. Agrawal, A. y A. An. Unsupervised emotion detection from text using semantic and syntactic relations. Proceedings - 2012 IEEE/WIC/ACM International Conference on Web Intelligence, pp. 346–353, 2012. 28. Bahassine, Said & Madani, Abdellah & Al-Sarem, Mohammed & Kissi, Mohamed. (2018). Feature selection using an improved Chi-square for Arabic text classification. Journal of King Saud University - Computer and Information Sciences. 32. 10.1016/j.jksuci.2018.05.010. 29. Budanitsky, A. y G. Hirst. Evaluating WordNet-based Measures of Lexical Semantic Relatedness. Computational Linguistics, 32(1):13–47, 2006. 30. Jiang, J. J. y D. W. Conrath. Semantic similarity based on corpus statistics and lexical taxonomy. Proceedings of the 10th Research on Computational Linguistics International Conference, pp. 19–33. ACLCLP, 1997. 31. Zimmermann, H. J. y P. Zysno. Latent connectives in human decision making. Fuzzy Sets and Systems 4(1):37–51, 1980. 32. Yager, R. R. y A. Rybalov. Full reinforcement operators in aggregation techniques. IEEE Transactions on Systems, Man, and Cybernetics, Part B: Cybernetics 28(6):757–769, 1998. 33. Plaza-del Arco, F. M., M. T. Martín-Valdivia, L. A. Ureña-López, y R. Mitkov. Improved emotion recognition in Spanish social media through incorporation of lexical knowledge. Future Generation Computer Systems, 110:1000–1008, 2020. 34. Agarwal, B. y N. Mittal. Prominent Feature Extraction for Sentiment Analysis. Prominent Feature Extraction for Sentiment Analysis, pp: 21–45, 2016. Sobre los autores MÉTODO NO SUPERVISADO DE MINERÍA DE OPINIÓN BASADO EN ASPECTOS Patricia Montañez Castelo1, Alfredo Simón-Cuevas1 1Universidad Tecnológica de La Habana “José Antonio Echeverría”, La Habana, Cuba, patriciacastelo99@gmail.com, asimon@ceis.cujae.edu.cu RESUMEN Con el rápido crecimiento de la web, las personas tienden a expresar, cada vez con más frecuencias sus opiniones acerca de diferentes productos y servicios, convirtiéndose sus reseñas en una fuente invaluable de conocimiento para diferentes empresas, administraciones gubernamentales y sectores sociales. El análisis de sentimientos basado en aspectos es la tarea de monitorear el sentir de los usuarios en opiniones textuales sobre las características de una entidad determinada. Reconocer los aspectos presentes en la opinión y determinar su orientación sentimental (positiva o negativa) de forma similar a como si lo hiciera un ser humano continúa siendo una tarea retadora, pero a la vez necesaria. Este trabajo presenta un método no supervisado de análisis de sentimientos basado en aspectos el cual utiliza reglas y técnicas para el análisis semántico del contenido a partir de WordNet para una mayor eficacia en la extracción de aspectos. Además, se emplea VADER para la detección de polaridad. La solución propuesta fue evaluada con datasets sobre reseñas de Amazon de cámaras y teléfonos celulares, computándose diferentes alternativas para la extracción de aspectos y la determinación de polaridad, obteniéndose resultados muy prometedores que permiten superar otras propuestas existentes en la literatura. PALABRAS CLAVES: Minería de Opinión, VADER, extracción de aspectos, detección de polaridad. UNSUPERVISED METHOD FOR ASPECT BASED SENTIMENT ANALYSIS ABSTRACT With the rapid growth of the web, people tend to express their opinions about different products and services more and more frequently, making their reviews an invaluable source of knowledge for different companies and social sectors. Aspect-based sentiment analysis is the task of monitoring users' sentiment on textual opinions about the characteristics of a given entity. Recognizing the aspects present in the opinion and determining its sentimental orientation (positive or negative) in a similar way as if a human being would do it continues to be a challenging task, but at the same time necessary. This work presents an unsupervised method of aspect-based sentiment analysis which uses rules and different metrics from WordNet to calculate domain similarity for aspect extraction and VADER for polarity detection. The proposed solution was evaluated with the dataset proposed by Hu & Liu (2004) on cameras and cellphones computing different alternatives for the extraction of aspects and the determination of polarity, obtaining very promising results that allow to overcome other existing proposals in the literature. KEY WORDS: VADER, aspect extraction, polarity detection, Opinion Mining. 1. INTRODUCCIÓN La gran cantidad de datos y específicamente opiniones existentes en los diferentes espacios de internet, como redes sociales, blogs, chats y páginas de comercio electrónico constituye un elemento muy valioso para diferentes compañías, a las cuales les interesa conocer lo que piensan sus consumidores acerca de sus productos[13]. La tarea de análisis de sentimientos, también conocida como minería de opinión es el proceso de analizar los sentimientos, opiniones y emociones de los usuarios sobre un determinado tema[26]. Más allá de nuestro punto de vista personal, desde una perspectiva empresarial, llevar a cabo el monitoreo y análisis de las opiniones de los usuarios o clientes se convierte en algo esencial en un entorno de alta competitividad. Sin embargo, en mayor o menor medida, las empresas se enfrentan al problema de analizar un gran volumen de opiniones relativas a productos o servicios, propios o de la competencia, y de múltiples fuentes. Por tanto, se hace inviable abordar manualmente el análisis de esas opiniones, siendo necesario establecer procesos automáticos que se encarguen de la tarea[7]. La minería de opinión o análisis de sentimientos brinda la posibilidad de solucionar los problemas mencionados anteriormente, automatizando el proceso de monitorear lo que piensan o sienten los usuarios sobre diversos temas[5]. Esta tarea es aplicable a, prácticamente, cualquier contexto como puede ser comercio electrónico, servicios, sistema de salud, política y el sector financiero. Empresas como Google y Microsoft han desarrollado sus propios sistemas de este tipo para mejorar la calidad de los productos y servicios que brindan[3]. Por lo general, el proceso de análisis de sentimientos en textos suele clasificarse en tres categorías, las cuáles son: a nivel de documento (Document-Level) que es cuando se analiza el sentimiento en un comentario completo, a nivel de oración (Sentence-Level) y a nivel de aspectos o características(Aspect- Level)[26]. Uno de los campos del procesamiento del lenguaje natural y específicamente de la minería de opinión que ha tenido un mayor auge en la actualidad es el análisis de sentimientos basado en aspectos (ABSA) el tiene el objetivo de detectar la polaridad del sentimiento asociado a una entidad o a un atributo de dicha entidad[30]. Los aspectos son atributos o componentes de una entidad, por ejemplo, en el caso de un teléfono (entidad) los aspectos serían la cámara, batería, entre otros. Estos últimos suelen ser clasificados en dos categorías, por una parte, están los aspectos explícitos, que son aquellos claramente distinguibles en un texto y que dejan ver la intención de la opinión, y por otra parte están los aspectos implícitos, que son aquellos que no aparecen directamente en el texto, sino que representan el objetivo de un comentario[13]. La tarea de análisis de sentimientos basado en aspectos, según algunos autores[3] se compone de tres subtareas fundamentales, las cuales son: Extracción de Aspectos (Aspect Extraction, AE), Análisis de Sentimientos del Aspecto (Aspect Sentiment Analysis, ASA) y Evolución del Sentimiento (Sentiment Evolution, SE), otros trabajos[18; 23] suelen dividirla dos subtareas, estas son Extracción de Aspectos (Aspect Extraction, AE) y Clasificación del Sentimiento del Aspecto (Aspect Sentiment Classification, ASC), la primera parte tiene como objetivo identificar y extraer el aspecto acerca del cual se está emitiendo una opinión y la segunda parte se encarga de detectar la polaridad del sentimiento asociada a ese aspecto en la opinión[18]. Uno de los grandes problemas que enfrentan los métodos propuestos en la literatura para el proceso de extracción de aspectos y análisis de sentimientos es el tratamiento de la incertidumbre. Además la mayoría de las propuestas existentes en la literatura basan su funcionamiento en algoritmos supervisados de Aprendizaje Automático, el cual posee la desventaja de necesitar un gran volumen de datos de entrenamiento para funcionar correctamente. En este trabajo se presenta un método de análisis de sentimientos basado en aspectos inspirado en la propuesta de [5], utilizando patrones e incorporando diferentes medidas de similitud semántica para la extracción de aspectos y lexicones de sentimientos para la determinación de la polaridad. Una limitación del trabajo presentado en [5] es que al calcular la relación de los aspectos seleccionados con la entidad utilizaban solo una métrica de WordNet, la cual en determinados casos, arroja resultados inexactos ya que dos conceptos pertenecientes a la misma jerarquía pueden obtener resultados de similitud menores que otros pertenecientes a jerarquías diferentes[9]. En este caso se plantea como hipótesis que la utilización de varias métricas para calcular la similitud del aspecto con el dominio, permite reducir la incertidumbre en el proceso de extracción de los mismos. Se diseñó y ejecutó un marco de experimentación donde fueron evaluados y comparados varios métodos de determinación de polaridad para medir el impacto de estos en la clasificación de sentimientos. El trabajo se ha organizado de la siguiente forma: en la Sección 2 se sintetiza el análisis de los trabajos relacionados; en la Sección 3 se describe el método propuesto; en la Sección 4 se muestran y analizan los resultados experimentales obtenidos; y en la Sección 5 se exponen las conclusiones arribadas y líneas de trabajo futuro. 2. TRABAJOS RELACIONADOS En general los métodos de análisis de sentimientos suelen dividirse en dos grupos, los basados en conocimiento (knowledge-based) y los basados en aprendizaje automático (machine learning)[37]. La identificación de aspectos es una de las tareas más complejas dentro de la minería de opinión basada en aspectos. Este proceso constituye un caso especial de un problema general que es el de extracción de información[17]. Según [19; 32] los métodos fundamentales para la extracción de aspectos son:  Basados en frecuencia de aparición de las palabras.  Usando técnicas de aprendizaje supervisado como Campos Aleatorios Condicionales y Vectores de Máquina de Soporte.  Utilizando métodos no supervisados.  Mediante modelado de tópicos y redes neuronales. En la actualidad, dominan el campo del ABSA los enfoques supervisados, entre ellos los métodos tradicionales como son los Vectores de Máquina de Soporte (Support Vector Machine, SVM) y Naive Bayes, donde se utilizan tanto para la detección de polaridad[19] como para la extracción de aspectos [19]. Entre este tipo de propuestas son muy usadas las que se basan en Fuzzy Logic Por ejemplo [4; 20], realizan la clasificación del sentimiento el algoritmo mencionado anteriormente, permitiendo tener un mayor número de clases a la salida del modelo, y por tanto la clasificación del comentario respecto al aspecto no se restringe a positivo o negativo, sino que también se clasifica como muy positivo, moderadamente positivo, poco positivo, muy negativo, moderadamente negativo y poco negativo. Este tipo de propuestas resultan ventajosas porque permiten tener un espectro de clasificación mayor, no limitándose únicamente a los extremos de polaridad (positivo o negativo). En los últimos años han ganado especial popularidad los métodos basados en aprendizaje profundo[30]. En varios trabajos [16] [11] se propone utilizar una Bidirectional Long Term Short Memory para la extracción de aspectos, ya que esta puede analizar el texto en ambas direcciones simultáneamente. Luego para el proceso de clasificación de polaridad se usa un Red Neuronal Convolucional (CNN) y un Graph Convolutional Network (GCN) respectivamente que arroja una puntuación de sentimiento respecto a un objetivo. Un problema existente con las utilización de las redes convolucionales es que no tiene en cuenta el orden de las palabras en la oración por lo cual es difícil que extraigan un significado apropiado de las ellas[25]. El campo del procesamiento del lenguaje natural y específicamente en la minería de opinión han liderado los algoritmos supervisados, sin embargo, requieren partir de colecciones previamente clasificadas[19] y esto constituye una desventaja, ya la cantidad de datos etiquetados existentes es poca, y aún menor en idiomas que no sea el inglés, por tanto el uso de estos algoritmos no siempre es factible. Las soluciones basadas en enfoques no supervisados, suelen ser más generalizables, ya que utilizan solo información contenida en los documentos de entrada. Estos métodos por lo general se basan en el uso de conocimiento previo mediante ontologías, lexicones y bases de datos[34]. En [12] se propone un modelo no supervisado basado en ontologías para la detección de aspectos y aprendizaje automático para la detección de polaridad. Este modelo posee la ventaja de ser fácilmente escalable a cualquier idioma o dominio, además de obtener una precisión mayor que todos los modelos propuestos en la competición SemEval 2016. En [1] se utiliza también un enfoque basado en ontologías para la extracción de aspectos y el lexicón SentiWordNet para hacer la clasificación de polaridad, esta propuesta es ventajosa porque tiene en cuenta las palabras negativas, lo cual permite alcanzar mayores niveles de precisión. Las palabras negativas son aquellas que invierten el sentido de la frase, por ejemplo, en la oración “La batería no dura mucho tiempo” la palabra “no” cambia el sentido de la frase “dura mucho tiempo”. La ontología utilizada en este trabajo fue WordNet, cual es una base de datos léxica que posee las relaciones semánticas entre palabras organizadas en conjuntos de términos sinónimos que forman synsets[22]. En el caso de [6] se propone un sistema basado en Latent Dirichlet Allocation (LDA) combinado con un modelo pre-entrenado no supervisado para separar los aspectos. La mayor ventaja de este modelo es que es independiente del idioma y el contexto, siendo uno de los pocos existentes en este sentido. Por otra parte [2] propone utilizar similaridad semántica para le extracción de aspectos. Luego de esto se le asigna un peso a cada aspecto extraído mediante una modificación del algoritmo Term Frequency Invert Document Frequency (TF-IDF) y una puntuación basándose en un lexicón específico para el dominio. Por último, con los datos anteriores se genera una puntuación general de sentimiento para cada opinión. Este tipo de propuestas que emplean lexicones requiere emplear menos recursos computacionales y son muy utilizados en situaciones donde no existe un corpus previamente etiquetado para realizar la fase de entrenamiento[8]. Un lexicón es, en esencia, un diccionario de palabras que tienen asociada una polaridad, una etiqueta part-of-speech (POS), un clasificador de subjetividad, entre otros[34]. Uno de los elementos a tener en cuenta de los trabajos mencionados anteriormente, es que solo [12] propone el modelo para idioma español, apreciándose que a pesar de que este tipo de aprendizaje resulta conveniente para ese idioma, debido a la ausencia de datasets etiquetados, existen muy pocas propuestas en la literatura que tengan en cuenta esta opción. 3. MÉTODO PROPUESTO El desarrollo de esta solución va encaminado a modificar y mejorar la solución propuesta en [5] con la incorporación de nuevas métricas para el cálculo de la similitud semántica con el dominio las cuales son agregadas mediante un operador y se emplea VADER para la determinación de la orientación de polaridad. La solución propuesta cuenta de tres pasos fundamentales los cuales son:  Pre-procesamiento de las opiniones, donde se eliminan inconsistencias en los datos y una vez limpios pasan a la fase de extracción.  Extracción de aspectos basado en patrones y frecuencia, donde los aspectos extraídos y las reseñas preprocesadas son pasados a la fase de detección de polaridad.  Determinación de la polaridad hacia el aspecto extraído de las opiniones donde este aparece. Pre-procesamiento El paso de pre-consiste en tomar todas las palabras tokenizarlas, llevar todas las letras a minúsculas, eliminar los caracteres especiales, realizar la corrección gramatical y asignarle su etiqueta de función gramatical (Part-of-Speech Tag) o categoría léxica mediante un etiquetador morfosintáctico. El proceso de tokenización consiste en la segmentación del texto en palabras, las cuales son posteriormente asignadas con su parte del discurso. Para la determinación de polaridad todas las reseñas pasan un filtro y aquellas donde se encuentren los aspectos extraídos son las que pasan a la fase de predicción de polaridad. Estas reseñas sin incongruencias son pasadas al proceso de extracción de aspectos. Extracción de aspectos Una vez pre-procesadas las reseñas, se extraen todas aquellas palabras que se contengan la etiqueta de sustantivo (NN) o frases sustantivas (NP), estas últimas son todos aquellos sintagmas que posean cualquiera de las estructuras descritas en Tabla 1 y se consideran como aspectos candidatos que pasan a la siguiente fase. Este método es el más utilizado para la extracción de aspectos, fundamentalmente debido a su simplicidad y eficiencia [14; 21; 24; 28]. Tabla 1 : Estructura de las frases sustantivas Descripción Patrón sustantivo singular + sustantivo singular Figura 1 : Esquema general de la solución propuesta sustantivo singular + sustantivo plural sustantivo plural + sustantivo singular adjetivo + sustantivo singular adjetivo + sustantivo plural Luego, por cada aspecto, ya sea sustantivo o frase sustantiva, se calcula su frecuencia de aparición en todos los comentarios, y se seleccionan solo aquellos que aparezcan con mayor frecuencia en el texto. Aquellos aspectos que pasen esta fase, pasan a un proceso de similitud semántica con la entidad a la cual se hace referencia. Esta similitud se calcula entre el nombre del producto (cámara, teléfono, etc..) y cada uno de los aspectos candidatos extraídos. Este método a pesar de ser muy eficiente presenta algunas desventajas, como por ejemplo que puede seleccionar palabras que a pesar de ser sustantivos frecuentes no son aspectos, además aspectos que no se mencionen con mucha frecuencia no serán detectados[2]. Para contrarrestar las ineficiencias mencionadas anteriormente como parte de la solución se decidió utilizar una propuesta parecida a la empleada en [31] combinando cuatro medidas de similitud cuya implementación se encuentra disponible en el paquete WordNet: Similarity, estas fueron: Wu & Palmer, Resnik, Lin y Jiang & Conrath [35]. Una vez realizado el cálculo, se normalizan los datos y se utiliza la función compensatoria de agregación(1)(2) propuesta por Zimmerman y Zysno [38] y la t-norma algebraica descrita en la ecuación (3), las cuales son usadas para combinar los valores resultantes del cálculo de similitud en un único valor. 𝑍𝛾(𝑠1, 𝑠2, … , 𝑠𝑛) = (∏ 𝑠𝑖 𝑛 𝑖=1 ) 𝑖− 𝛾 ∗ (1 − ∏(1 − 𝑠𝑖 𝑛 𝑖=1 )𝛾 (1) 𝛾 = 𝑇(𝑠1, 𝑠2, … , 𝑠𝑛) 𝑇(𝑠1, 𝑠2, … , 𝑠𝑛) + 𝑇(1 − 𝑠1, … , 𝑠𝑛) (2) 𝑇(𝑠1, 𝑠2, … , 𝑠𝑛) = ∏ 𝑠𝑖 𝑛 𝑖=1 (3) Una vez obtenidos los valores de similitud para cada uno de los aspectos candidatos, se define un umbral, y todos aquellos que sobrepasen este umbral se consideran finalmente aspectos del producto. El próximo paso consiste en encontrar, por cada uno de estos aspectos, su sinónimo, hiperónimo e hipónimo más cercano. Los sinónimos WordNet (synsets) son conjuntos de palabras que comparten el mismo significado, mientras que los hipónimos y e hiperónimos son las palabras que se encuentran semánticamente relacionadas dentro de la jerarquía, ya sea como superiores o inferiores. Para este proceso las palabras relacionadas más cercanas se obtienen utilizando la medida de WU&Palmer. La ejecución de ese proceso se divide en tres fases, donde primeramente se obtienen todos los synsets de una palabra determinada y se calcula la distancia existente desde la palabra hasta cada sinónimo y se selecciona finalmente el que tenga una mayor similitud, es decir la más cercana. El mismo procedimiento se repite para los hipónimos e hiperónimos. Finalmente se conforma una tabla que contiene por cada palabra, su hipónimo, hiperónimo y sinónimo más cercano. En el caso de las frases sustantivas, se dividen en las palabras que la conforman y se realiza el procedimiento anterior para cada una de esta, y finalmente se concatenan los resultados. Detección de polaridad Para la primera fase de detección de polaridad se mantuvo la propuesta de [5], donde se filtran todas las reseñas, seleccionando solo aquellas que contengan los aspectos elegidos en la fase de extracción o el sinónimo, hipónimo e hiperónimo de cada aspecto. Luego es necesario determinar cuáles son las palabras que se están utilizando para expresar la opinión hacia el aspecto. Para ello se consideran como términos de opinión candidatos cualquier tipo de palabra sin importar su función gramatical. Para encontrar estas palabras se divide la oración en n-gramas, cuyo tamaño se determina teniendo en cuenta dos factores fundamentales, los cuáles son: la cantidad de palabras que conforman el aspecto y la longitud de la oración, por tanto, si el aspecto está compuesto por una única palabra, pero la oración es de longitud dos, entonces se divide en bigramas. Una vez encontrado el aspecto dentro de la oración se seleccionan las palabras asociadas en ese n-grama con el aspecto y se procede a determinar su polaridad. Para ello se utilizó un lexicón de sentimientos, Valence Aware Dictionary for Sentiment Reasoning (VADER), aunque en el diseño de experimentos también se empleó el algoritmo de cálculo de sentimientos de la biblioteca TextBlob para medir la eficiencia de VADER frente a otras alternativas, sin embargo, los resultados experimentales demostraron que el uso de VADER mejora significativamente la clasificación de sentimientos. VADER es una aproximación basada en lexicón que devuelve cuatro valores fundamentales, positivo, negativo, neutro y compuesto, que significan la valencia y la magnitud de la emoción en el texto. La valencia es si la emoción es positiva o negativa. La magnitud es qué tan positiva o negativa es la emoción. VADER también identifica texto que no es emocional o neutro en su valencia[15]. En este caso, el valor compuesto no se tuvo en cuenta, por tanto, se utilizaron los valores positivo, negativo y neutro. Cada palabra que se utiliza para hacer referencia a un aspecto es evaluada en VADER y se determina su orientación, tomando como referencia el valor más alto de los tres posibles, en caso de que la orientación sea neutra, se cuenta con dos listas de palabras positivas y negativas que se utilizan para desambiguar la polaridad de esta. Cabe resaltar que en la solución propuesta por [5] no se especifica la lista de palabras empleadas para este proceso por tanto, luego de una revisión de la literatura se decidió emplear una lista que contiene alrededor de 6800 palabras positivas y negativas de términos de opinión o palabras de sentimientos propuesta por [14] y que fue construida a partir de términos de opinión que se considera que son frecuentemente usados en el comercio electrónico. 4. RESULTADOS Y DISCUSIÓN Metodología de evaluación La solución propuesta fue evaluada en la clasificación de dos tipos de sentimientos, positivo y negativo, de las opiniones asociadas a un aspecto determinado en reseñas escritas en idioma inglés sobre dos cámaras diferentes y un teléfono móvil, utilizando el corpus propuesto por [14] para la subtarea Aspect Sentiment Classification. Los experimentos se llevaron cabo con VADER y con el algoritmo de cálculo de polaridad de la biblioteca TextBlob para analizar la influencia de la incorporación de estos, contra otras soluciones reportadas que utilizaban solo el SentiWordNet[5; 29] o que utilizaban el mismo conjunto de datos pero con métodos distintos. En la evaluación de resultados se utilizaron las métricas F1-Score (7), Accurracy (4), Precision (5) y Recall (6). 𝐴𝑐𝑐𝑢𝑟𝑎𝑐𝑦 = 𝑇𝑃 + 𝑇𝑁 𝑇𝑃 + 𝐹𝑃 + 𝑇𝑁 + 𝐹𝑁 (4) 𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 = 𝑇𝑃 𝑇𝑃 + 𝐹𝑃 (5) 𝑅𝑒𝑐𝑎𝑙𝑙 = 𝑇𝑃 𝑇𝑃 + 𝐹𝑁 (6) 𝐹1 𝑆𝑐𝑜𝑟𝑒 = 2 ∗ 𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 ∗ 𝑅𝑒𝑐𝑎𝑙𝑙 𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛 + 𝑅𝑒𝑐𝑎𝑙𝑙 (7) Se define como verdaderos positivos (true positives, TP) todas aquellas reseñas que para un aspecto determinado se hayan clasificado como positivas y lo sean. Luego los falsos positivos (false positives, FP), son aquellas opiniones que se hayan clasificado como positivas para un aspecto, pero no lo son. Verdaderos negativos (true negatives, TN) son las opiniones que el sistema determina que son negativas y en verdad lo son y los falsos negativos (false negatives, FN) son todas aquellas clasificadas como negativas, pero son positivas para ese aspecto. Para llevar a cabo los experimentos se utilizaron tres de los datasets utilizados y compilados por [14], y que se ha empleado en [5; 10; 20; 33], específicamente el de reseñas de la cámara Canon Powershot G3, la cámara Nikon y el de opiniones sobre un teléfono celular Nokia. Tabla 2: Descripción de los datasets Dataset Total de reseñas etiquetadas Con etiqueta positiva Con etiqueta negativa Canon Powershot G3 286 225 61 Nikon 4300 203 172 31 Nokia 6610 Mobile Phone 340 254 86 Resultados y discusión Para medir el impacto que tiene la incorporación de nuevas métricas para el cálculo de similitud semántica con el dominio y el uso de diferentes lexicones de sentimientos se llevaron a cabo varios experimentos, algunos de los cuáles se muestran en la Tabla 3. Primeramente, se mantuvo el uso de SentiWordNet, pero con la introducción de las nuevas métricas combinándolos en el operador de agregación. Esto permitió la detección de aspectos, aunque los mismos no fueran tan frecuentes. Por otra parte, se experimentó con el uso de VADER y TextBlob, demostrándose que la utilización de VADER tiene un impacto significativo en la clasificación de polaridad de las opiniones. La utilización VADER permite superar los resultados obtenidos por [5] para el dataset de Canon G3 y aunque la precisión se mantuvo por debajo, la medida Recall, la cual es el radio de verdaderos positivos supera a dicha solución en 11.1%, además la medida F, que es el promedio armónico entre la precisión y la exhaustividad logra superar sus resultados en un 4.8%. En la Figura 2 se pueden apreciar la precisión, exhaustividad y medida F para la clasificación de polaridad de los aspectos extraídos aplicando la solución propuesta en cada uno de los datasets seleccionados. Como se puede apreciar en dicha figura los resultados obtenidos con esta alternativa son muy precisos. En la Tabla 4 se muestra el promedio de las métricas para los tres conjuntos de datos, comparando la solución propuesta con otras reportadas en la literatura, que hayan utilizado los mismos datasets aunque con métodos diferentes. Tabla 3 : Resultados obtenidos con distintas alternativas para el cálculo de polaridad y la extracción de aspectos. Método Amazon Reviews (Canon G3 Dataset) Recall Precisio n F-Measure Accuracy Zimmerman + SentiWordNet 91.8 94.1 92.2 88.4 WU&Palmer + VADER 99.0 92.8 95.4 91.9 Zimmerman + VADER 99.1 94.0 96.1 93.3 Zimmerman + TextBlob 94.4 93.5 93.3 89.6 WU&Palmer + TextBlob 93.4 93.9 93.0 88.9 Figura 2 : Resultados de la aplicación de la solución propuesta en los datasets Nikon, Canon G3 y Nokia. Tabla 4: Comparativa de los resultados obtenidos frente a otras soluciones. Solución Recall Precision F-Measure Hu and Liu (2004)[14] 69.3 64.2 84.2 Wu et al. (2009)[36] 44.7 47.1 45.8 Mowlaei et al. (2020)[27] 91.0 91.1 91.0 Güner, Coyne and Smit (2019)[10] 55.5 64.0 61.4 M. Aboelela et al.(2021)[5] 93.0 94.8 92.6 Solución Propuesta 96.6 91.7 93.6 5. CONCLUSIONES En este trabajo se ha abordado la tarea de análisis de sentimientos basado en aspectos utilizando un enfoque no supervisado para la extracción de aspectos y la detección de polaridad. La novedad de la solución propuesta es la utilización de cuatro medidas de similitud semántica del aspecto con el dominio que permitieron disminuir la incertidumbre en el proceso de extracción de aspectos y las cuales son agregadas mediante un operador. Por otra parte se pudo demostrar que la utilización de VADER para la determinación de polaridad mejora los resultados obtenidos por [5]. Como parte del trabajo futuro se propone la aplicación del método propuesto a otros conjuntos de datos que no sean exclusivos de comercio electrónico, así como tratar otros elementos que no son cubiertos por la solución como es el caso de los aspectos implícitos, la adaptación al idioma español o la subtarea de detección de categoría del aspecto (Aspect Category Detection). REFERENCIAS 1. ABOELELA, Eman Mahmoud;GAD, Walaa;ISMAIL, Rasha Ontology-Based approach for feature level sentiment analysis. International Journal of Intelligent Computing and Information Sciences, 2021, 21(3), 1-12. AL-GHURIBI , Sumaia Mohammed;SHAHRUL AZMAN, Mohd Noah ;TIUN, Sabrina Unsupervised Semantic Approach of Aspect Based Sentiment Analysis for Large Scale Users Reviews. IEEE, 2020, 8. AMBREEN , Nazir;YUAN, Rao ;LIANWEI, Wu;LING, Sun Issues and Challenges of Aspect-based Sentiment Analysis: A Comprehensive Survey. IEEE TRANSACTIONS ON AFFECTIVE COMPUTING, 2020. DHENAKARAN, S. Uma Maheswari and S. S. Aspect based Fuzzy Logic Sentiment Analysis on Social Media Big Data. International Conference on Communication and Signal Processing, 2020. EMAN M. ABOELELA, Walaa Gad and Rasha Ismail The impact of semantics on aspect level opinion mining. PeerJ Computer Science, 2021. GARCÍA-PABLOSA, Aitor ;CUADROSA, Montse ;RIGAUB, German W2VLDA: Almost Unsupervised System for Aspect Based Sentiment Analysis. Expert Systems with Applications, 2017. GARCÍA, Sergio Rincón. Minería de textos y análisis de sentimientos en sanidadysalud.com. Universidad Complutense de Madrid, 2016. GONZÁLEZ, Abel. Aplicación de minería de opinión en el procesamiento del contexto en un sistema de recomendación. Universidad Tecnológica de La Habana “José Antonio Echeverría”, 2021. GUESSOUM, Djamel;MIRAOUI, Moeiz;TADJ, Chakib. A modification of wu and palmer semantic similarity measure. In The Tenth International Conference on Mobile Ubiquitous Computing, Systems, Services and Technologies. 2016, p. 42-46. GÜNER, Levent;COYNE, Emilie;SMIT, Jim Sentiment analysis for amazon. com reviews. Big Data in Media Technology (DM2583) KTH Royal Institute of Technology, 2019, 9. HAIYUN PENG, Lu Xu, Lidong Bing, Fei Huang, Wei Lu, Luo Si Knowing What, How and Why: A Near Complete Solution for Aspect-Based Sentiment Analysis. The Thirty-Fourth AAAI Conference on Artificial Intelligence, 2020. HENRÍQUEZ, Carlos ;BRICEÑO, Freddy ;SALCEDO, Dixon Unsupervised Model for Aspect-Based Sentiment Analysis in Spanish. IAENG International Journal of Computer Science, 2019. HENRÍQUEZ MIRANDA, Carlos;BUELVAS, Edgardo AspectSA: Unsupervised system for aspect based sentiment analysis in Spanish. Prospectiva, 2019, 17. HU, Minqing;LIU, Bing. Mining and summarizing customer reviews. In Proceedings of the tenth ACM SIGKDD international conference on Knowledge discovery and data mining. 2004, p. 168-177. HUTTO, C.;GILBERT, Eric VADER: A Parsimonious Rule-Based Model for Sentiment Analysis of Social Media Text. Proceedings of the International AAAI Conference on Web and Social Media, 05/16 2014, 8(1), 216-225. JANGID, Hitkul;SINGHAL, Shivangi;SHAH, Rajiv Ratn;ZIMMERMANN, Roger. Aspect-based financial sentiment analysis using deep learning. In Companion Proceedings of the The Web Conference 2018. 2018, p. 1961-1966. JOSEPH, Shibily;T C, Chinsha A Syntactic Approach for Aspect Based Opinion Mining. Proceedings of the2015 IEEE 9th International Conference on Semantic Computing(IEEE ICSC2015), 2015. KARIMI, Akbar;ROSSI, Leonardo ;AND PRATI, Andrea Improving BERT performance for aspect- based sentiment analysis. International Journal of Intelligent Networks, 2021. LÓPEZ RAMOS, Dioni;ARCO GARCÍA, Leticia Deep learning for aspect extraction in textual opinions. Revista Cubana de Ciencias Informáticas, 2019, 105-145. M. SIVAKUMAR, Srinivasulu Reddy Uyyala Aspect‑based sentiment analysis of mobile phone reviews using LSTM and fuzzy logic. International Journal of Data Science and Analytics, 2021. MAGDALINI, Eirinaki;SHAMITA, Pisal;JAPINDER, Singh Feature-based opinion mining and ranking. Journal of Computer and System Sciences, 2012. MILLER, George A. WordNet: a lexical database for English. Commun. ACM, 1995, 38(11), 39–41. MINH HIEU PHAN, Philip Ogunbona Modelling Context and Syntactical Features for Aspect-based Sentiment Analysis. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020. MOGHADDAM, Samaneh;ESTER, Martin Opinion digger: An unsupervised opinion miner from unstructured product reviews. Proceedings of the 19th ACM international conference on Information and knowledge management, 2010. MOHAMMADI, Azadeh;SHAVERIZADE, Anis Ensemble deep learning for aspect-based sentiment analysis. International Journal of Nonlinear Analysis and Applications, 2021, 12(Special Issue), 29-38. MOHAMMADREZA SHAMS , Navid Khoshavi and Ahmad Baraani-Dastjerdi Language-Independent Method for Aspect-Based Sentiment Analysis. IEEE, 2020. MOWLAEI, Mohammad Erfan;ABADEH, Mohammad Saniee;KESHAVARZ, Hamidreza Aspect-based sentiment analysis using adaptive aspect-based lexicons. Expert Systems with Applications, 2020, 148, 113234. MUBAROK, Mohamad Syahrul;ADIWIJAYA;ALDHI, Muhammad Dwi. Aspect-based sentiment analysis to review products using Naïve Bayes. In AIP Conference Proceedings. AIP Publishing LLC, 2017, vol. 1867, p. 020060. MUHAMMAD ZUBAIR ASGHAR, Aurangzeb Khan, Syeda Rabail Zahra, Shakeel Ahmad, Fazal Masud Kundi Aspect-based opinion mining framework using heuristic patterns. Cluster Comput, 2017. NING, Liu;BO, Shen;ZHENJIANG, Zhang;ZHIYUAN, Zhang , et al. Attention‑based Sentiment Reasoner for aspect‑based sentiment analysis. Human-centric Computing and Information Sciences, 2019. PEREZ-GUADARRAMA, Yamel;SIMÓN-CUEVAS, Alfredo;HOJAS-MAZO, Wenny;OLIVAS, José A., et al. 2018. A Fuzzy Approach to Improve an Unsupervised Automatic Keyphrase Extraction Process. In Proceedings of the 2018 IEEE International Conference on Fuzzy Systems (FUZZ-IEEE), Rio de Janeiro, Brazil2018 IEEE Press, 1–6. REZA AKHOUNDZADE, Kourosh Hashemi Devin Unsupervised aspect-based Sentiment Analysis in the Persian language: Extracting and clustering aspects. 10th International Conference on Computer and Knowledge Engineering, 2020. SAMHA, Amani K;LI, Yuefeng;ZHANG, Jinglan Aspect-based opinion extraction from customer reviews. arXiv preprint arXiv:1404.1982, 2014. SARKAR, Dipanjan Text Analytics with Python. A Practitioner’s Guide to Natural Language Processing. edited by S.S.B. MEDIA. Edtion ed. Bangalore, Karnataka, India, 2019. SHAHZAD, Khurram;PERVAZ, Ifrah;NAWAB, Adeel. WordNet based Semantic Similarity Measures for Process Model Matching. In BIR Workshops. 2018, p. 33-44. WU, Yuanbin;ZHANG, Qi;HUANG, Xuan-Jing;WU, Lide. Phrase dependency parsing for opinion mining. In Proceedings of the 2009 conference on empirical methods in natural language processing. 2009, p. 1533-1541. ZHUANG, Lisa;SCHOUTEN, Kim;FRASINCAR, Flavius SOBA: Semi-Automated Ontology Builder for Aspect-Based Sentiment Analysis. Elsevier, 2019. ZIMMERMANN, H-J;ZYSNO, P Latent connectives in human decision making. Fuzzy sets and systems, 1980, 4(1), 37-51. EXTRACCIÓN AUTOMÁTICA DE REQUISITOS DE SOFTWARE A PARTIR DE INFORMACIÓN TEXTUAL Amanda Hernández Carreras, Alfredo Simón-Cuevas, Anaisa Hernández González 1Universidad Tecnológica de La Habana “José Antonio Echeverría”, La Habana, Cuba, tblanco@ceis.cujae.edu.cu, asimon@ceis.cujae.edu.cu, anaisa@ceis.cujae.edu.cu RESUMEN La obtención de requisitos es una de las fases más importantes y críticas en el desarrollo de software, debido a la influencia de sus resultados en el éxito de los proyectos. El análisis documental constituye una de las técnicas más utilizadas en este proceso. La ejecución manual de este análisis se ha caracterizado por el alto consumo de tiempo y la frecuente aparición de errores, motivando el desarrollo de investigaciones enfocadas en su automatización. El procesamiento del lenguaje natural para la ingeniería de requisitos (NLP4RE) es un área de investigación y desarrollo que busca aplicar técnicas, herramientas y recursos de procesamiento del lenguaje natural (NLP) al proceso de ingeniería de requisitos (RE), para ayudar a los analistas humanos a llevar a cabo diversas tareas lingüísticas. En el trabajo se presenta un método para la extracción automática de requisitos de software, a partir de información textual no estructurada. El método propuesto se enfoca en el análisis sintáctico basado en patrones léxicos – sintácticos. Como resultado se obtuvieron sentencias de requisitos de software que fueron evaluadas por métricas de calidad, dichos resultados no fueron muy altos, resaltando el valor de la cobertura que, en comparación a la precisión, fue relevante. PALABRAS CLAVES: Captura de requisitos, extracción automática de requisitos, procesamiento de lenguaje natural. AUTOMATIC EXTRACTION OF SOFTWARE REQUIREMENTS FROM TEXTUAL INFORMATION ABSTRACT Requirements elicitation is one of the most important and critical phases in software development, due to the influence of its results on the success of projects. Documentary analysis is one of the most used techniques in this process. The manual execution of this analysis has been characterized by the high consumption of time and the frequent appearance of errors, motivating the development of research focused on its automation. Natural Language Processing for Requirements Engineering (NLP4RE) is an area of research and development that seeks to apply natural language processing (NLP) techniques, tools, and resources to the requirements engineering (RE) process, to help human analysts to carry out various linguistic tasks. In the work, a method for the automatic extraction of software requirements, from unstructured textual information, is presented. The proposed method focuses on syntactic analysis based on lexical-syntactic patterns. As a result, software requirements sentences were obtained that were evaluated by quality metrics, these results were not very high, highlighting the value of coverage that, compared to precision, was relevant. KEY WORDS: Requirements capture, automatic requirements extraction, natural language processing. 1. INTRODUCCIÓN La Ingeniería de Requisitos (RE) constituye una de las fases más importantes en el desarrollo de proyectos software, ya que su ciclo de desarrollo está basado fundamentalmente en los requisitos. La ocurrencia de errores en los requisitos puede provocar numerosas consecuencias, tales como: retardo en la terminación del proyecto, incremento de los costos, no satisfacción de los solicitantes, entre otros [1]. Entre las fases que se llevan en la Ingeniería de Requisitos, la captura de requisitos es la fase más importante y crítica en el proceso, debido al alto consumo de tiempo que se requiere para su ejecución y el impacto negativo que pueden tener sus resultados en el producto final [2] [3], y porque la mayor parte de los sistemas fallan debido a errores en este proceso de captura [4]. Para lograr un producto software de calidad los requisitos deben satisfacer varias características y cumplir ciertos criterios. Además, un requisito debería ser completo, correcto, realizable, necesario, priorizable, no ambiguo y verificable [5]. La delimitación del alcance del proyecto constituye otro de los elementos críticos de la captura requisitos [6], por lo que, con el objetivo de reducir los problemas en este proceso se han definido numerosas técnicas y herramientas. Los requisitos provienen de varias partes interesadas que tienen diferentes necesidades, funciones y responsabilidades y, como tales, son propensas a que se produzcan conflictos, como la interferencia, la interdependencia y la incoherencia [7]. Además, los requisitos generalmente se especifican en lenguajes naturales, lo que aumenta la complejidad de la ingeniería de requisitos debido a la ambigüedad inherente, la incompletitud y la inexactitud del lenguaje natural [8]. Estos factores hacen que las tareas de RE sean desafiantes, lentas y propensas a errores, principalmente para proyectos grandes, ya que es necesario procesar, analizar y comprender grandes volúmenes de requisitos [9]. Se han llevado a cabo muchas investigaciones sobre la automatización de diferentes tareas de RE. Los enfoques propuestos generalmente comienzan aplicando un conjunto de pasos de Procesamiento del Lenguaje Natural (NLP) que extraen información y características lingüísticas de los textos de requisitos y construyen varias representaciones basadas en NLP. Este trabajo se centra en la automatización de la captura de requisitos apoyándose en herramientas y técnicas de procesamiento de lenguaje natural. La estructura del resto del trabajo se organiza de la siguiente forma: Sección 2 Procesamiento del lenguaje natural aplicado a la Ingeniería de Requisitos. Sección 3 Extracción automática de requisitos candidatos. Sección 4 Resultados y discusión. 2. PROCESAMIENTO DE LENGUAJE NATURAL APLICADO A LA INGENIERÍA DE REQUISITOS El Procesamiento del lenguaje natural (NLP) se usa ampliamente para respaldar la automatización de diferentes tareas de ingeniería de requisitos (RE). La mayoría de los enfoques propuestos comienzan con varios pasos de NLP que analizan las declaraciones de requisitos, extraen su información lingüística y las convierten en representaciones fáciles de procesar, como listas de características o representaciones vectoriales basadas en incrustaciones. Estas representaciones basadas en NLP generalmente se usan en una etapa posterior como entradas para técnicas de aprendizaje automático o métodos basados en reglas. Por lo tanto, las representaciones de los requisitos juegan un papel importante en la determinación de la precisión de los diferentes enfoques. Se han publicado muchas revisiones sobre la relación entre las tareas de NLP y RE. Tales como la identificación de defectos de calidad y ambigüedad, clasificación y agrupación de grandes colecciones de requisitos, extracción de abstracciones clave, generación de modelos y trazabilidad entre los requisitos de lenguaje natural (NL) [10]. Hasta hace poco, muchas de estas aplicaciones de la NLP se han limitado al mundo académico debido a la inaccesibilidad de las herramientas de la NLP y la pronunciada curva de aprendizaje. Afortunadamente, los avances en el aprendizaje profundo y la disponibilidad de grandes corpus de NL han reducido significativamente las barreras de entrada al uso de NLP. Esto crea oportunidades sin precedentes para aplicar técnicas de NLP a la práctica de RE y ayudar a analizar automáticamente los documentos relacionados con los requisitos [10]. Centrándose específicamente en la extracción automática de requisitos de software: La solución reportada por [11] describe: Cargar el diseño del documento y analizarlo en oraciones. Dentro de las oraciones, también convertir las oraciones en palabras individuales y recuperar las etiquetas de parte del discurso para cada palabra. Se probaron dos enfoques para extraer requisitos de software, (1) extraer oraciones que contienen verbos en su forma base y (2) extraer frases que contienen palabras clave que se utilizan a menudo para indicar requisitos. Se verificó la ambigüedad semántica, si existe, se construye el árbol estructural de la oración para identificar el sujeto de la oración anterior: se desarrolló y definió una gramática y se analiza la oración en un árbol de acuerdo con esta gramática; el sujeto se identifica como el sintagma nominal principal en el árbol. En [12] la metodología destinada es a mejorar la detección de los requisitos no funcionales (NFR) en los documentos de requisitos. Usa el Stanford Parser (equipado con el etiquetador POS de Brill y un lematizador morfológico) para derivar morfológicamente las palabras y extraer cinco características sintácticas de cada una de las instancias de entrenamiento (oraciones) del corpus. En [13] el procedimiento que se desarrolla es el enfoque L'Ecritoire, en el que esta relación es bidireccional. Así como los objetivos pueden ayudar en el descubrimiento de escenarios, los escenarios pueden ayudar en el descubrimiento objetivo. La solución total está en dos partes, se crean escenarios textuales que es el que produce objetivo. La correspondencia entre un patrón semántico y el modelo de escenario define la relación entre la forma textual de un escenario y su forma conceptual. En [14] una tarea importante para lograr este objetivo es construir una ontología que consista en un conjunto de conceptos, es decir, entidades, atributos y relaciones basadas en el dominio de aplicación de interés. La ontología construida aquí representa el conocimiento del dominio y los requisitos son el subconjunto especializado del mismo. En este documento [15], se propone un enfoque semiautomático llamado NFR-Specifier, cuyo objetivo es generar especificaciones precisas a partir de requisitos informales, incluidos los NFR. El enfoque consta de cinco módulos, a saber. Pre-procesamiento, resolución de ambigüedades, formación de ontologías SRS, generación de diagramas UML y clasificación de NFR. Inicialmente, el ingeniero de requisitos recopila el conocimiento del dominio de los usuarios por medio de varios enfoques de comunicación, a saber, cuestionarios, entrevistas, checklist, prototipado, reuniones, entre otros. Una vez finalizada la fase de comunicación, el ingeniero de requisitos representa la información recopilada por medio de archivos de texto, documentos, gráficos o modelos UML (es decir, caso de uso, clase, diagrama de secuencia). Este trabajo [16] explora cómo la cantidad y el tipo de conocimiento afectan la calidad de obtención de requisitos en dos simulaciones consecutivas. Se calcula con las salidas del automatismo con el patrón oro introducido en la última palabra. La recuperación puede verse como una medida de completitud, comparando el número de requisitos identificados con el número total de requisitos existentes en un documento. El documento [17] propone un método para obtener los requisitos del usuario en la industria de maquinaria basado en la regla de asociación de texto. El primer paso es el pre-procesamiento de datos de los requisitos del usuario. El modelo de espacio vectorial se utiliza para describir los requisitos del usuario. En segundo lugar, se utiliza una teoría mejorada de la regla de asociación gris para calcular el grado de correlación entre las palabras características y los nombres propios de la industria de la maquinaria. Luego se construye la matriz de candidatos a nombres propios seleccionando una palabra de mayor grado de correlación. Finalmente, el requerimiento del usuario se obtiene utilizando la matriz ponderada. Como conclusión de este análisis se identificaron varias limitaciones, tales como, la no existencia de disminución de redundancias entre las frases extraídas, solo se procesan textos en idioma inglés. 3. EXTRACCIÓN AUTOMÁTICA DE REQUISITOS CANDIDATOS En esta sección se describe la solución propuesta en el trabajo. Las principales etapas del proceso de desarrollo se describen en la Fig. 1. En primer lugar, el texto a analizar es pre-procesado, se hace una limpieza del texto, eliminando signos de puntuación y convirtiéndolo en su totalidad a letras minúsculas. A continuación, se lleva acabo el análisis sintáctico, a partir del etiquetado de cada tokens del texto según su clasificación sintáctica, se realiza un macheo con un conjunto de patrones basados en reglas, definidos previamente, extrayendo así, frases que dan lugar a sentencias de requisitos de software. Tomando como base las frases extraídas en la fase anterior se realiza un refinamiento del volumen de sentencias extraídas, reduciendo a una, aquellas que sean completamente iguales para ser grupadas en conjuntos según el 90% de similitud entre ellas. Finalmente se exporta un archivo con los resultados obtenidos. Fig. 1 Flujo de trabajo de la solución propuesta. Pre – procesamiento Como se planteaba en la subsección anterior la solución contará fundamentalmente con un componente para la preparación o pre-procesamiento de la información haciendo uso de la biblioteca de Procesamiento de Lenguaje Natural para español, SpaCy. El componente de pre-procesamiento se encargará de limpiar el texto de ruido y estandarizar para que sea fácil de procesar. Algunos de estos pasos incluyen quitar las puntuaciones, transformar el texto a minúscula, o eliminar palabras frecuentes usadas en el lenguaje como preposiciones, artículos, entre otros, que por sí mismas no aportan mucha información, además de usar la raíz de las palabras. Dentro de las principales actividades dentro del módulo de pre-procesamiento se encuentra: Tokenización: esta actividad consiste en dividir el texto sin procesar en pequeños trozos. La tokenización dividirá el texto en bruto en palabras u oraciones llamadas tokens. Estos tokens permitirán comprender el contexto o desarrollar el modelo para la PLN, ayudando a interpretar el significado del texto al analizar la secuencia de las palabras. Tras la tokenización, se procede al stopwords. Se trata de palabras muy habituales en cualquier idioma que, sin embargo, aportan poco valor tales como artículos, signos de puntuación, palabras de enlace, etc. Por ello, es interesante identificarlas y «excluirlas». Es una forma de «limpiar» el texto. Etiquetado PoS (Part-of-speech) tagging: Se encarga de clasificar las partes de las oraciones en verbo, sustantivo, adjetivo, preposición entre otras. Lematización: es el proceso mediante el cual las palabras de un texto que pertenecen a un mismo paradigma flexivo o derivativo son llevadas a una forma normal que representa a toda la clase. En este caso solo se les realiza a los verbos conjugados. El proceso de extracción de requisitos candidatos se lleva a cabo a partir del uso de patrones léxico- sintácticos. Los patrones léxicos – sintácticos son la secuencia de caracteres que se forman a partir de la clasificación gramatical de cada token. Para los identificadores y algunos otros tokens, el patrón es una estructura más compleja que se relaciona mediante muchas cadenas. Para extraer las frases que dan lugar a las sentencias de requisitos, se definieron previamente un conjunto de patrones léxicos – sintácticos que fueron generados a partir de un proceso estadístico realizado a 40 tesis del curso 2020-2021 de la facultad de Ingeniería Informática de la CUJAE, donde fueron tomados cada uno de los casos de uso, dando lugar a un total de 555 requisitos funcionales analizados. Estos requisitos fueron procesados por el analizador sintáctico de la biblioteca de SpaCy y a partir de la etiqueta gramatical de cada tokens fueron formados los patrones. Luego de realizado el pre-procesamiento del texto, partiendo de la clasificación gramatical de cada tokens se realiza un macheo con los patrones predefinidos y se generan las frases que dan lugar a las sentencias de requisitos. En la tabla se muestran cada uno de estos patrones léxico – sintácticos. Tabla 1 Patrones léxicos – sintácticos Patrón léxico – sintáctico Ejemplo de frase VERB NOUN analizar muestras, recetar medicamentos VER NOUN ADJ analizar muestras bilógicas VERB DET NOUN establecer un diagnóstico VERB NOUN ADP NOUN incluir detectores de humo VERB NOUN ADP DET NOUN recoger datos sobre su estructura VERB NOUN ADP NOUN ADJ obtener reportes en tiempo real VERB NOUN ADP NOUN ADP NOUN exportar base de datos del día VERB NOUN ADJ ADP NOUN gestionar tratamientos asociados al paciente VERB NOUN VERB DET NOUN ADJ reproducir voz alertando el billete reconocido VERB ADJ PRON VERB ADJ DET NOUN ADJ ejecutar nodo que tiene implementado el algoritmo RSKkNN VERB ADJ PRON VERB DET NOUN AUX ejecutar nodo que crea el árbol IUR-tree VERB CCONJ VERB DET NOUN ADP NOUN salvar y restaurar la base de datos VERB ADV ADP NOUN ADP DET NOUN ADJ organizar No. de lista de los estudiantes matriculados VERB NOUN CCONJ NOUN enviar reclamación o protesta VERB DET NOUN ADJ explicar la propuesta diseñada VERB DET NOUN CCONJ DET NOUN visualizar las delegaciones y sus atletas VERB ADP NOUN apelar a sanción VERB NOUN ADJ ADP NOUN ADJ cifrar código binario con contraseña modulada VERB NOUN ADJ ADJ ADP DET NOUN ADP NOUN obtener código binario original en el buffer de memoria VERB NOUN ADP NOUN ADP NOUN enviar correo de petición de acceso Reducción de redundancias Como estrategia de reducción de redundancias se definió la siguiente: Reducir a una, aquellas frases que sean completamente iguales, almacenando las restantes en otro archivo independiente a la solución, debido a que el objetivo de la solución propuesta es asistir el trabajo del analista – diseñador del software, se decidió no eliminar ninguna frase generada y que sea el especialista encargado quien decida la relevancia de la misma. Agrupar aquellas frases que tengan un 90% de similitud sintáctica entre ellas. Se utilizan dos métricas de similitud para agrupar: Métrica Levenshtein1 : La distancia de Levenshtein es quizá la más común y simple de las métricas de edición basadas en caracteres, por lo que generalmente (y quizá también por la dificultad de pronunciación) se le conoce simplemente como “distancia de edición”. Esta métrica es, en cierto sentido, una forma de cuantificar la diferencia entre dos cadenas de texto, sin embargo, aunque por su descripción parezca sencilla, la forma de calcularla no es trivial, además de ser capaz de comparar cadenas de diferente tamaño. Métrica Similitud de coseno2: En el análisis de datos , la similitud del coseno es una medida de similitud entre dos secuencias de números. Para definirlo, las sucesiones se ven como vectores en un espacio de producto interior, y la similitud de coseno se define como el coseno del ángulo entre ellos, es decir, el producto escalar de los vectores dividido por el producto de sus longitudes. De ello se deduce que la similitud del coseno no depende de las magnitudes de los vectores, sino solo de su ángulo. La semejanza del coseno siempre pertenece al intervalo [1, -1]. La similitud del coseno se usa particularmente en el espacio positivo, donde el resultado está claramente delimitado en [0, 1]. Al calcular la similitud entre las frases se generan sublistas con cada uno de los subgrupos y se devuelve una lista general con cada uno estos subgrupos. 1 https://soldai.com/blog/inteligencia-artificial/inteligencia-artificial-inteligencia-artificial/metricas- operaciones-edicion/ 2 https://www.grapheverywhere.com/algoritmo-de-similitud-de-coseno/ 4. RESULTADOS Y DISCUSIÓN El método propuesto fue implementado en el lenguaje de programación Python3, usado el entorno de desarrollo integrado (IDE) PyCharm4 por su gran rendimiento y flexibilidad, lo que permite un desarrollo ágil y reutilizable. La biblioteca SpaCy5 se utilizó para llevar a cabo todas las tereas de procesamiento de lenguaje natural dentro del proyecto, dado su fácil acceso y todo el potencial que posee. La solución propuesta fue evaluada con una colección de prueba elaborada manualmente por un experto en ingeniería de requisitos. La colección se conformó con la documentación asociada a 7 proyectos de software, específicamente, de cada proyecto se tiene un documento con información descriptiva en español sobre el ámbito del proyecto y los procesos a informatizar, así como los una lista de requisitos funcionales del software a desarrollar. En la Tabla 2 se presenta una caracterización de la colección de prueba. Tabla 2 Caracterización de la colección de prueba Casos de estudio Características Palabras Requisitos primarios Dominio Caso de estudio 1 614 17 Seguridad Caso de estudio 2 629 17 Seguridad Caso de estudio 3 503 18 Decoración Caso de estudio 4 614 17 Construcción Caso de estudio 5 583 18 Telecomunicaciones Caso de estudio 6 593 18 Administración Caso de estudio 7 1074 54 Docencia La evaluación de la solución desarrollada se llevó a cabo mediante su aplicación sobre cada uno de los documentos de los proyectos, y comparando los requisitos obtenidos de forma automática con los elaborados manualmente e incluidos en las listas asociadas a cada proyecto. Posteriormente se medirían los resultados usando las métricas de Precisión (P), Cobertura (C) y Medida-F (F), las cuales son comúnmente usadas en soluciones de procesamiento de lenguaje natural o minería de texto. No obstante, aquí se tuvo que hacer algunas adecuaciones para contextualizarlas al problema de la extracción automática de requisitos de software, dado que en este campo no se identificaron métricas de este tipo. Precisión (P) permite evaluar con que precisión los requisitos extraídas se pueden tomar realmente como los adecuados. La precisión brinda la proporción de requisitos funcionales extraídos correctamente (requisitos_extraidos_correctos) del total de los requisitos extraídos, y se calcula como se muestra en la fórmula: 𝑃 = 𝑟𝑒𝑞𝑢𝑖𝑠𝑖𝑡𝑜𝑠_𝑒𝑥𝑡𝑟𝑎𝑖𝑑𝑜𝑠_𝑐𝑜𝑟𝑟𝑒𝑐𝑡𝑜𝑠 𝑟𝑒𝑞𝑢𝑖𝑠𝑖𝑡𝑜𝑠_𝑒𝑥𝑡𝑟𝑎𝑖𝑑𝑜𝑠 Cobertura (C) permite evaluar la medida en la que se cubren los requisitos extraídos automáticamente en comparación con los requisitos identificados manualmente (requisitos_correctos) y se calcula como se muestra en la fórmula: 𝐶 = 𝑟𝑒𝑞𝑢𝑖𝑠𝑖𝑡𝑜𝑠_𝑒𝑥𝑡𝑟𝑎𝑖𝑑𝑜𝑠_𝑐𝑜𝑟𝑟𝑒𝑐𝑡𝑜𝑠 𝑟𝑒𝑞𝑢𝑖𝑠𝑖𝑡𝑜𝑠_𝑐𝑜𝑟𝑟𝑒𝑐𝑡𝑜𝑠 Medida-F (F) permite otorgarle una evaluación general a la propuesta a partir de las dos métricas definidas anteriormente. Un mayor valor de Medida-F significa un valor razonablemente mayor de la Precisión y la 3 https://www.python.org/ 4 https://www.jetbrains.com/help/pycharm/quick-start-guide.html 5 https://spacy.io/ Cobertura, dado que se corresponde con la media harmónica de estas dos, y se calcula como se muestra en la fórmula: 𝐹 = 2 ∗ 𝑃 ∗ 𝐶 𝑃 + 𝐶 Los resultados obtenidos en los experimentos realizados con la colección de prueba se muestran en la siguiente Tabla Tabla 3 Resultados Casos de estudio Resultados Precisión Cobertura Medida F Caso de estudio 1 15.78 26.08 19.67 Caso de estudio 2 18.18 40.0 25.0 Caso de estudio 3 17.14 33.33 22.64 Caso de estudio 4 5.71 10.0 7.27 Caso de estudio 5 5.40 9.52 6.89 Caso de estudio 6 10.81 21.05 14.28 Caso de estudio 7 8.23 12.5 9.92 Promedio 11.60 21.78 15.09 Los resultados obtenidos muestran, en la mayoría de casos, valores relativamente bajos, resaltando el valor de la cobertura que se muestra alto en comparación con la precisión. REFERENCIAS [1] S. Khan, A. B. Dulloo y M. Verma, «Systematic Review of Requirement Elicitation Techniques,» International Journal of Information and Computation Technology, vol. 4, nº 2 , pp. 133-138 , 2014. [2] H. Metha, M. Brhelb y A. Maedcheab, «The state of the art in automated requirements elicitation.,» Information and Software Technology, vol. 55, pp. 1695-1709, 2013. [3] M. A. Abbasi, J. Jabeen, Y. Hafeez, D.-e.-B. Batool y N. Fareen, «Assessment of Requirement Elicitation Tools and Techniques by Various Parameters,» Software Engineering, vol. 3, nº 2, pp. 7- 11, 2015. [4] N. Garg, P. Agarwal y S. Khan, «Recent advancements in requirement elicitation and prioritization techniques,» de 2015 International Conference on Advances in Computer Engineering and Applications, Ghaziabad, India, 2015. [5] A. T. Lazo y J. G. G. Botero, «Especificación de requisitos de software: Una mirada desde la revisión teórica de antecedentes,» Entre ciencia e ingeniería, vol. 10, nº 19, pp. 249-261, 2016. [6] P. Bourque, R. Dupuis, A. Abran, J. Moore y L. Tripp, «Guide to the Software Engineering - Body of Knowledge,» IEEE Software, vol. 16, nº 6, pp. 35-44, 2014. [7] A. Lamsweerde, R. Darimont y E. Letier, «Managing conflicts in goal-driven requirements engineering,» IEEE Transactions on Software Engineering, vol. 24, nº 11, p. 908–926, 1998. [8] C. Denger, D. Berry y E. Kamsties, «Higher quality requirements specifications through natural language patterns,» de Proceedings 2003 Symposium on Security and Privacy, Herzlia, Israel, 2003. [9] R. Vlas y W. N. Robinson, «A Rule-Based Natural Language Technique for Requirements Discovery and Classification in Open-Source Software Development Projects,» de 2011 44th Hawaii International Conference on System Sciences, Kauai, HI, USA, 2011. [10] F. Dalpiaz, A. Ferrari, X. Franch y C. Palomares, «Natural Language Processing for Requirements Engineering,» IEEE Software, vol. 35, pp. 115 - 119, 2018. [11] W. Shira y B. Paul, «A Fully Automated Approach to Requirement Extraction from Design Documents,» de 2021 IEEE Aerospace Conference , Big Sky, MT, USA, 2021. [12] I. Hussain, L. Kosseim y O. Ormandjieva, «Using Linguistic Knowledge to Classify Non-functional Requirements in SRS documents,» Lecture Notes in Computer Science, vol. 5039, pp. 287-298, 2008. [13] C. Rolland y C. Salinesi, «Supporting Requirements Elicitation through Goal/Scenario Coupling,» Lecture Notes in Computer Science, vol. 5600, p. 398–416, 2009. [14] S. &. J. Murugesh, «Construction of Ontology for Software Requirements Elicitation. J. Agric,» Scien,ce Eng, 2015. [15] U. S. Shah, S. J. Patel y D. C. Jinwala, «Specification of Non-Functional Requirements: A Hybrid Approach,» 2016. [16] H. Meth, A. Maedche y M. Einoeder, «Is Knowledge Power? The Role of Knowledge in Automated Requirements Elicitation,» de Lecture Notes in Computer Science , 2013. [17] L. Dong, X. Zhang, N. Ye y X. Wan, «Research on User Requirements Elicitation Using Text Association Rule,» de 2010 International Symposium on Intelligence Information Processing and Trusted Computing, Huanggang, China, 2010. ENFOQUE DIFUSO DE MODELADO DE TOPICOS APLICADO A LA GENERACIÓN DE RESUMENES MULTI-DOCUMENTOS Yamel Pérez-Guadarramas1, Alfredo Simon-Cuevas2, Francisco P. Romero3, Raudel Hernández- León1 1 Centro de Aplicaciones de Tecnologías de Avanzada (CENATAV), 7ma A, No. 21406, e/214 y 216, Playa, La Habana, Cuba. 2 Universidad Tecnológica de La Habana José Antonio Echeverría, Ave. 114, No. 11901, La Habana, Cuba. 3 Universidad de Castilla-La Mancha, Paseo de la Universidad, 4, Ciudad Real, España. 1e-mail: yperez@cenatav.co.cu RESUMEN En la actualidad, debido a la gran cantidad de información textual existente en Internet, los métodos de resumen automático de textos cobran cada vez más importancia en muchos campos del conocimiento. Los enfoques de documentos múltiples están destinados a generar automáticamente resúmenes a partir de una colección de documentos, cubriendo el contenido principal y evitando información redundante. El modelado de temas está presente en muchas propuestas de resumen de varios documentos, lo que permite identificar los principales temas tratados en el documento y las oraciones asociadas a ellos. En este artículo se propone un nuevo método para generar resúmenes multi-documento, basado en un modelado de los temas principales de los documentos utilizando técnicas de lógica difusa. El uso de un operador OWA permite combinar varias medidas de similitud y distancia entre oraciones en el modelado de tópicos, aumentando el análisis semántico en este proceso con respecto a otras propuestas. Para validar nuestra propuesta, se realizaron experimentos en las colecciones de texto de MultiLing 2015 en inglés y español, y los resultados se evaluaron utilizando las métricas ROUGE. Los resultados obtenidos se compararon con otros sistemas que incluyen MultiLing 2015 en su esquema de evaluación, mostrando mejoras en general, en concreto, mejorando los resultados en ROUGE 1 en ambos idiomas. PALABRAS CLAVES: Resúmenes Multi-Documentos, Análisis semántico, Modelado de tópicos, Lógica difusa, Operadores OWA. FUZZY TOPICAL MODELING APPROACH APPLIED TO MULTI-DOCUMENT SUMMARY GENERATION ABSTRACT Currently, due to the extensive textual information on the Internet, automatic text summarization methods are becoming increasingly important in many fields of knowledge. Multi-document approaches are intended to automatically generate summaries from a collection of documents, covering the main content and avoiding redundant information. Topic modeling is present in many multi-document summarization proposals, making it possible to identify the main topics addressed in the document and the sentences associated with them. In this paper, a new method for generating multi-document summaries is proposed, based on a modeling of the main topics of the documents using fuzzy logic techniques. The use of an OWA operator allows combining several measures of similarity and distance between sentences in topic modeling, increasing the semantic analysis in this process with respect to other proposals. To validate our proposal, experiments were carried out on the MultiLing 2015 text collections in English and Spanish, and the results were evaluated using the ROUGE metrics. The results obtained were compared with other systems that include MultiLing 2015 in their evaluation scheme, showing improvements in general, specifically, improving the results in ROUGE 1 in both languages. KEY WORDS: Multi-documents Summarization, Semantic analysis, topic modelling, fuzzy logic, OWA operators. INTRODUCCIÓN Con la generalización del uso de Internet, las personas se ven abrumadas por la gran cantidad de información textual disponible. En este contexto de sobrecarga de información la generación automática de resúmenes adquiere gran relevancia. Según [1], un resumen se define como “un texto que se produce a partir de uno o más textos, que transmite información importante en el(los) texto(s) original(es), y que no es más largo que la mitad del(los) texto(s) original(es) y, por lo general, significativamente menos que eso". El resumen automático de textos es la tarea de producir un resumen conciso y fluido mientras se preserva el contenido de la información clave y el significado general [2]. Los resúmenes se pueden obtener mediante métodos extractivos (seleccionan las oraciones más importantes de los textos) o abstractivos (usan palabras o frases diferentes a las incluidas en los documentos originales) [3], y a partir de enfoques supervisados, no supervisados o semi-supervisados [4]. La construcción automática de resúmenes ha sido ampliamente abordada, no obstante, sigue siendo una tarea desafiante, sobre todo cuando se quiere obtener el resumen de múltiples documentos (MDS por sus siglas en inglés) [36], que consiste en crear un resumen corto y relevantes de varios documentos de textos relacionados a un tema [5]. Nuestro trabajo se enfoca en esta problemática. El modelado de tópico es abordado en muchas soluciones de MDS [6-25] desde diferentes enfoques. Entre los enfoques más comunes están los basados en LDA (Latent Dirichlet Allocation) [11,17-22], en LSA (Latent Semantic Analysis) [12,23-25] y en agrupamiento [6-10,16,22]. El uso de un algoritmo de agrupamiento para el modelado de los tópicos brinda la flexibilidad de usar como función de distancia diferentes medidas de similitud y distancia para calcular relaciones entre los términos u oraciones del texto. El uso de estas medidas y del agrupamiento también permite eliminar redundancias, ya que se agrupan términos u oraciones que están fuertemente relacionados. Sin embargo, la información semántica que se obtiene de cada una de estas medidas se aprovecha de forma independiente y no se reporta el uso integrados de estás en una medida que encierre el significado semántico de cada una en un solo valor. En este trabajo se presenta una nueva forma de procesar la información semántica en el modelado de tópicos de los MDS extractivos, aplicando un operador de agregación difusa. El operador de agregación es usado para integrar los valores de diferentes medidas de similitud y distancia entre frases en solo un solo valor que representa toda la información semántica que se calculan con las diferentes medidas. Esto permitiría incrementar el análisis semántico en el modelado de tópicos de los MDS extractivos. El método propuesto fue evaluado con colecciones de textos en español e inglés ofrecidos en MultiLing1 2015 (http://multiling.iit.demokritos.gr/) , y la calidad de los resúmenes obtenidos fue medida usando métricas de ROUGE-N [26]. Los resultados del método fueron comparados con los obtenidos por otras soluciones, donde se evidencian resultados superiores por parte de nuestra propuesta. El trabajo se ha organizado de la siguiente forma: en la Sección 1 se sintetiza el análisis de los trabajos relacionados; en la Sección 2 se describe el método propuesto; en la Sección 3 se muestran y analizan los resultados experimentales obtenidos; y en la Sección 4 se exponen las conclusiones arribadas y líneas de trabajo futuro. 1. TRABAJOS RELACIONADOS Los métodos de resumen extractivo producen resúmenes eligiendo las oraciones más relevantes del documento original. La importancia de la oración se determina sobre la base de las características lingüísticas y estadísticas del texto dado. Estas características son utilizadas de diferente forma y desde diferentes enfoques para modelar los principales tópicos del o los documentos. En los métodos MDS extractivos, identificar los principales tópicos abordados en el texto es una de las vías más prometedoras para identificar las oraciones más relevantes [27], por lo que mejorar la identificación de los tópicos repercutirá en mayor calidad del resumen resultante. En este ámbito, el modelado de tópicos ha sido abordado desde diferentes enfoques, estando el uso de algoritmos de agrupamientos, de LDA y LSA entre los más usados. Los métodos basados en agrupamiento asumen los grupos de términos u oraciones como tópicos y generalmente seleccionan las oraciones más representativas de los tópicos [6,7] o calculan la relevancia de las oraciones en dependencia de la cobertura de estos temas [8,9]. Blair-Goldensohn et al. [6] evalúa las oraciones representativas según el tamaño del grupo al que pertenecen. En Angheluta et al. [9], además de identificar tópicos del texto, se utilizó un agrupamiento para eliminar la redundancia en las oraciones del resumen. Luego se eligen las oraciones importantes en función de la cantidad de palabras claves que contienen, las cuales se detectan utilizando un módulo de segmentación de temas de los autores. A partir de diferentes características, los métodos basados en agrupamiento computan la similitud entre oraciones, también conocida como prominencia de oraciones [28]. En MEAD [10] esta tarea se realiza con tres parámetros: el valor del centroide (la similitud de coseno promedio entre las oraciones y el resto de las oraciones en los documentos). En Saggion y Gaizauskas [8] también se usan diferentes características de la oración y se tiene en cuenta las oraciones con rol de centroide. En esta propuesta se evalúa las oraciones en función de tres características: la similitud con el centroide del grupo, la similitud con la parte principal del documento y la posición de la oración. Con el objetivo principal de eliminar redundancias en los tópicos y tener buna cobertura de los documentos, en [16] se agrupan las preposiciones similares y por cada grupo se selección la preposición más representativa. Mediante las preposiciones más representativas de los grupos se seleccionan las oraciones que conformarán el resumen. En [17] se consideraron las similitudes sintácticas y semánticas entre oraciones en el proceso de agrupamiento. El uso de diferentes características en forma de medidas de similitud entre oraciones o términos permite capturar diferentes informaciones, representadas cada una como una ponderación diferente de la relación entre los términos u oraciones del texto, para el proceso de agrupamiento. Esto permite realizar un mejor análisis semántico en el proceso de agrupamiento, lo que conlleva a discernir mejor que oraciones o términos están asociados al mismo tópico. Existen diversos algoritmos de agrupamiento y medidas de similitud para ponderar las relaciones entre términos u oraciones usadas como función de distancia. Esto constituye una ventaja de los métodos que se basan en agrupamiento para modelar los tópicos ya que permite un mayor análisis de las relaciones entre los tópicos. Por otra parte, el uso de otros enfoques para modelar tópicos, como LDA o LSA no poseen esa ventaja. Los métodos basados en LDA, generalmente después de descubrir los temas del texto, seleccionan las oraciones más importantes en cada tema para formar parte del resumen [29]. Roul [11] identifica el número de temas independientes utilizando LDA y tres modelos probabilísticos. Los métodos probabilísticos de la distancia de Hellinger, la divergencia de Jensen Shannon y la divergencia de KL se utilizan para calcular la similitud entre cada uno de los pares de temas. Luego, la técnica LDA se usa nuevamente para reducir un gran conjunto a un conjunto más pequeño mientras se mantiene la información importante. La oración representativa de cada tópico se selecciona y ordena por la importancia del tópico correspondiente para que aparezca en el resumen. En [21] se propone un método heurístico que usa LDA para determinar el número óptimo de tópicos independientes que representan el corpus. En [22] el enfoque empleado es basado en grafo, donde los nodos son las oraciones del documento. Para determinar que oraciones forman el resumen, se calcula un peso a los nodos del grafo, teniendo como uno de los criterios la similitud de cada nodo con los tópicos del documento. La medida de similitud empleada es la similitud semántica mediante WordNet [30] y para identificar los tópicos se usó LDA. LSA es otro de los enfoques más comunes para el modelado de tópicos y los trabajos basados en este que se reportan más recientes [12,24,25] siguen una estrategia similar a los basados en LDA. Tanto LDA como LSA no manejan la polisemia, lo cual puede dar como resultados tópicos semánticamente similares y resúmenes con información redundante. En [23], con el objetivo de reducir redundancia de los tópicos identificados con LSA, se usa un algoritmo de agrupamiento para agrupar los tópicos más similares. Los métodos que llevan a cabo un modelado de tópicos permiten identificar los principales temas abordados en el texto, esto con el objetivo de tratar que las oraciones que conformen el resumen cubran la mayor cantidad de temas posibles. Agrupar términos u oraciones fuertemente relacionados entre sí para el modelado de tópicos, además de las ventajas mencionadas anteriormente, permite reducir redundancia a la hora de seleccionar varias oraciones que pueden tener un alto valor de relevancia, pero que a la vez también pueden tener semántica muy similar. También nos permite tener concentrado diferentes términos u oraciones del texto que pueden estar hablando del mismo tema y esto propicia seleccionar de estas instancias cuál puede ser la, o las, más representativas y ser consideradas en la construcción del resumen. Por otra parte, resulta un gran desafío seleccionar por cuál criterio agrupar. Para esto existen diversas medidas que permiten calcular relaciones entre los términos u oraciones del texto y que pueden capturar diferente información semántica o estadística. El incremento de análisis semántico en el agrupamiento permite discernir mejor si un término u oración pertenece a un grupo u otro. Las diferentes medidas reportadas capturan diferente información de una relación entre cadenas de textos, por lo que usar varias de estas medidas conlleva a capturar más información y al incremento del análisis semántico, sin embargo, son escasos los trabajos [7,8,10] que emplean esta estrategia. Además, el uso combinado de estas medidas, permitiría agregar en un solo valor de relación toda la información que recogen las diferentes medidas. Otros enfoques que ha tomado popularidad recientemente son los que se basan en técnicas de Aprendizaje Profundo y Aprendizaje Automático [31-34]. Todas las técnicas basadas en el aprendizaje necesitan una gran cantidad de datos etiquetados para aprender los parámetros de los algoritmos de resumen [22]. Esto en la práctica resulta muy complejo de lograr [29], porque los datos para aprender son creados manualmente y etiquetar oraciones en los documentos es un trabajo que requiere mucho tiempo. 2. MÉTODO PROPUESTO El método propuesto se concibió en cinco fases: (1) Pre-procesamiento, (2) Identificación de tópicos, (3) Cálculo de relevancia de los tópicos, (4) Cálculo de relevancia de las oraciones y (5) Construcción del resumen, cuyo flujo de trabajo se muestra en la Fig. 1. Fig. 1 Flujo de trabajo del método Pre-procesamiento En esta fase se extrae la información sintáctica del texto y se identifican un conjunto de frases conceptuales, las cuales representan los tópicos candidatos del documento. Inicialmente, se usa Freeling para extraer el texto plano, segmentar en párrafos y oraciones el texto, y extraer sus tokens. Los tokens se etiquetan y mediante estos se identifican frases conceptuales a partir de un conjunto de patrones léxico- sintácticos predefinidos, tales como: [D | P |Z] + [] + NN; [D | P | Z] + [] + NN + NN; [Z] + ; NN + [IN] + NN; JJ + NN + [NN], de una forma similar a los reportado en [25]. Identificación de tópicos Los tópicos son identificados a partir del agrupamiento de las frases obtenidas en la fase anterior, según el grado de relación semántica entre ellas, ya sea por similitud de significado o por relación contextual. El algoritmo de Agrupamiento Aglomerativo Jerárquico (HAC por sus siglas en inglés) [36] es utilizado en este proceso. El proceso de agrupamiento es llevado a cabo considerando el valor de peso resultante de combinar cinco medidas de similitud y distancia entre frases aplicando un operador de agregación difusa. Las medidas usadas son, siguiendo la lógica de [37]: Distancia en Palabras entre Frases, Similitud Semántica y Similitud Sintáctica y otras dos medidas basadas en la lógica de la coocurrencia: PMI (Point Mutual Information) y Coeficiente Dice. Para agregar los valores numéricos resultantes de las cinco medidas en un solo valor de relación de similitud (VRS) de un par de frases, es aplicado el operador de agregación difusa OWA [38]. Estas medidas representan características con diferentes “significados” semánticos para el agrupamiento de frases, así como diferentes niveles de relevancia para la toma de decisiones en este proceso. El operador OWA permite modelar la semántica y los diferentes niveles de relevancia a través de asignar pesos a cada medida. Combinar estas diferentes medidas usando OWA permite lograr grupos de frases fuertemente relacionadas entre sí desde diferentes dimensiones semánticas, y al mismo tiempo, lograr una amplia cobertura de todo el documento en el proceso de modelado de tópicos. Esta operación de agregación se lleva a cabo mediante la Ecuación (1), donde se multiplica cada valor bj de las medidas con el peso wj que se calcula en Ecuación (2). Existen diferentes métodos para determinar los pesos a usar en un operador OWA, el uso de cuantificadores lingüísticos es uno de ellos [39], por ejemplo: el cuantificador RIM (Regular Increasing Monotone). En nuestra propuesta es utilizado el cuantificador RIM “Most (Feng & Dillon)” reportado en [40], el cual se calcula mediante Ecuación (3). 𝑓𝑜𝑤𝑎(𝑎𝑖, … , 𝑎𝑛) = ∑ 𝑤𝑗𝑏𝑗 𝑛 𝑗=1 (1) 𝑤𝑗 = 𝑄 ( 𝑗 𝑛 ) − 𝑄 ( 𝑗−1 𝑛 ) (2) 𝑄(𝑥) = { 0 𝑖𝑓 0 ≤ 𝑥 ≤ 0.5 (2𝑥 − 1)0.5 0.5 < 𝑥 ≤ 1 (3) Antes de comenzar con el agrupamiento, inicialmente cada frase es considerada como un tópico y se calcula un valor de relación difuso entre cada par de frase. Los valores difusos de relación entre cada par de frase o tópico son representados en una matriz simétrica cuadrada, donde cada tópico es representado por una columna y una fila y la intersección entre cada par de tópicos contiene el valor de la relación entre el par de frases que representan los tópicos correspondientes. Iniciado el proceso de HAC, en cada iteración el par de tópicos con el mayor valor de relación es agrupado Antes de comenzar con el agrupamiento, inicialmente cada frase es considerada como un tópico y se calcula un valor de relación difuso entre cada par de frase. Los valores difusos de relación entre cada par de frase o tópico son representados en una matriz simétrica cuadrada, donde cada tópico es representado por una columna y una fila y la intersección entre cada par de tópicos contiene el valor de la relación entre el par de frases que representan los tópicos correspondientes. Iniciado el proceso de HAC, en cada iteración el par de tópicos con el mayor valor de relación es agrupado en un nuevo tópico, uniendo las frases que los componen y recalculando el valor de la relación del nuevo tópico con los demás. Entre las tres estrategias de vinculación de HAC se propone usar la vinculación promedio porque representa una compensación entre la vinculación completa y la simple. Mediante el uso de la vinculación promedio, el peso de la relación entre el nuevo tema Tx y el tema Tk, denotado por R (Tx, Tk), se calcula según la Ecuación (4). 𝑅(𝑇𝑥 , 𝑇𝑘) = 𝑅(𝑇𝑖,𝑇𝑘)+𝑅(𝑇𝑗,𝑇𝑘) 2 (4) Siendo Ti y Tj los tópicos que se unifican para conformar Tx. HAC concluye cuando el valor no cumpla con un umbral predefinido, el cual funciona como condición de parada. El proceso de agrupamiento se muestra en el Algoritmo 1. La entrada del algoritmo es una lista de frases resultante de la fase de pre-procesamiento y la salida es una lista de todos los tópicos identificados. En primer lugar, se llena la matriz (líneas 2 a 6), donde se calcula la distancia (línea 4) entre cada par de frases (C[i] y C[j]), esta distancia corresponde con el VRS, calculado por la función de agregación difusa que se muestra en (1) arriba. Después de construir la matriz, comienza el proceso de agrupamiento. Se calcula un umbral en la función Umbral (matriz) (línea 7), que funciona como condición de parada al agrupamiento, posteriormente con la función MinValue (matriz) (línea 8), se elige la mínima distancia en la matriz. La función MergePairOfTopics (min, matriz) (línea 10) fusiona en un nuevo tema el par fila-columna que representan los temas C[i] y C[j]. Cada iteración de este proceso da como resultado una nueva matriz de la que se selecciona un nuevo mínimo (línea 9), para continuar con el proceso de agrupamiento (líneas 9 a 12), hasta que se cumpla la condición de parada. Algoritmo 1: Identificación de tópicos Entrada: F: Lista de frases Salida: T: Lista de Tópicos 1 n = F.Size 2 desde i = 1 hasta n -1 hacer 3 desde j = i+1 hasta n hacer 4 matriz[i][j] = VRS(F[i], F[j]) 5 fin 6 fin 7 th = Umbral(matriz) 8 min = MinValue(matriz) 9 mientras th < min hacer 10 T = MezclarParDeTópicos(min, matriz) 11 max = MaxValue(matriz) 12 fin 13 Devolver T Concluido el proceso de agrupamiento, cada tópico creado está compuesto por un vector de frases. Los tópicos obtenidos de este proceso representan los tópicos del contenido del conjunto de documentos. Cálculo de relevancia de los tópicos En esta etapa se calcula la relevancia de cada tópico, lo cual permite identificar cuáles son los principales temas que se abordan en los documentos de entrada. Para la evaluación de los tópicos es usando el modelo planteado por TopicRank [41], mediante el cual es evaluada la relevancia de los tópicos a partir de una representación de estos en forma de grafo. El grafo se construye utilizando tópicos como los vértices y los arcos son etiquetados con el peso de la relación entre los tópicos. Cada peso de los arcos representa cuan fuertes están relacionados los tópicos entre sí. Los tópicos A y B tienen una fuerte relación semántica si las frases que los componen aparecen cerca en el texto. El peso de cada arco (Wij) es calculado mediante la Ecuaciones (5) y (6). La Ecuación (6) se refiere a la distancia recíproca entre la posición de las frases ci y cj en el texto, donde pos(ci) representa todas las posiciones (pi) de ci. 𝑊𝑖,𝑗 = ∑ ∑ 𝐷(𝑐𝑖 , 𝑐𝑗)𝑐𝑗𝜖𝑇𝑗𝑐𝑖𝜖𝑇𝑖 (5) 𝐷(𝑐𝑖 , 𝑐𝑗) = ∑ ∑ 1 |𝑝𝑖− 𝑝𝑗| 𝑝𝑗𝜖𝑝𝑜𝑠(𝑐𝑗)𝑝𝑖𝜖𝑝𝑜𝑠(𝑐𝑖) (6) El cálculo de la relevancia de cada tópico Ti, es basado en el concepto de “votación”: Los tópicos adyacentes a Ti con la mayor puntuación contribuyen más a la evaluación de la relevancia de Ti. La evaluación de la relevancia S(Ti) es obtenida mediante la Ecuación (7) (basada en el algoritmo PageRank [42]), donde Vi es el conjunto de tópicos adyacentes a Ti en el grafo, y 𝜆 es un muffled factor que usualmente es 0.85 según [42]. 𝑆(𝑇𝑖) = 1 − 𝜆 + 𝜆 ∗ ∑ 𝑊𝑖,𝑗∗ 𝑆(𝑇𝑖) ∑ 𝑊𝑗,𝑘𝑇𝑘∈𝑉𝑗 𝑇𝑗∈𝑉𝑖 (7) Cálculo de relevancia de las oraciones En esta etapa primeramente se seleccionan los tópicos que mayor valor de relevancia obtuvieron en la etapa anterior. La relevancia senScore de cada oración Si se calcula a partir del promedio de su Similitud Coseno con cada frase Pj del vector de frases de tamaño N de cada uno de los tópicos seleccionados, como se puede ver en la Ecuación (8). Según [43], la Similitud Coseno es uno de los criterios más empleados para calcular similitud entre oraciones (a partir del par de vector de términos que las componen). 𝑠𝑒𝑛𝐸𝑣𝑎𝑙(𝑆𝑖) = ∑ 𝑐𝑜𝑠_𝑠𝑖𝑚𝑖𝑙𝑎𝑟𝑖𝑡𝑦(𝑆𝑖; 𝑃𝑗) 𝑁 𝑗=0 𝑀 (8) Construcción del resumen El resumen resultante se construye con la selección de las oraciones más relevantes según el criterio empleado en la etapa anterior. Las oraciones seleccionadas son ordenadas a partir de dos aspectos: según el orden de los documentos en el que aparecen las oraciones más relevantes, y luego el orden en que aparecen dentro del documento. Estos dos aspectos contribuyen a que el resumen resultante tenga mayor consistencias y coherencia. 3. RESULTADOS EXPERIMENTALES El método propuesto se evaluó con colecciones de textos en inglés y español, las cuales fueron usadas en MultiLing 2015 para evaluar soluciones en la tarea MMS (Multilingual Multi-document Summarization). MultiLing 2015 fue la última edición en la que se convocó a la tarea de generación de resúmenes multi-documentos, dentro de este espacio evaluativo. Las colecciones seleccionadas están formadas por artículos de noticias provenientes de WikiNews, agrupados en 15 corpus sobre tópicos diferentes. En la Tabla 1 se caracterizan ambas colecciones. Tabla 1 Caracterización de las colecciones de prueba Características Colecciones ENCol SPCol Idioma Inglés Español Cantidad de Corpus 15 15 Documentos en cada Corpus 10 10 Cantidad de Oraciones Totales 4469 5000 Prom. de Oraciones en Corpus 297,9 333,3 Prom. de Oraciones en Doc. 28,92 33,34 En ambas colecciones, se ofrece un resumen por cada corpus, el cual fue elaborado manualmente y es utilizado como referencia la evaluación de las métricas de calidad. Los resúmenes obtenidos de forma automática se compararon con los de referencias para evaluar las métricas de precisión (P), cobertura (R) y medida-F (F) asociadas a ROUGE-1 y ROUGE-2 [26]. Según [26] ambas medidas funcionan relativamente bien en este tipo de tarea, y son de las más comúnmente usadas. En las Tablas 1 y 2 se muestra los resultados obtenidos y su comparación con otras soluciones reportadas, incluyendo soluciones participantes en la tarea MMS de MultiLing 2015 (Tabla 2), así como otras más recientes que han sido evaluadas con esos corpus (Tabla 3). Como se aprecia en la Tabla 2, los resultados obtenidos por el método propuesto superan los valores del baseline en cada una de las métricas y colecciones de prueba. Los valores obtenidos para ROUGE-1 mejoran los del resto de los sistemas en ambas colecciones, destacándose los valores de cobertura superiores al 50%. En el caso de los valores asociados con ROUGE-2, destaca la cobertura en ENCol y la precisión en SPCol, esta última supera en más de un 20% a la mayoría de trabajos. No obstante, se distinguen los resultados de UWB [12] en cobertura y medida- f en SPCol. En UWB, el tamaño del vector de las oraciones es usado como medida para evaluar su relevancia dentro de los tópicos, los cuales se obtienen mediante LSA. Aunque son buenos los resultados obtenidos, esta técnica puede requerir que más de una oración exprese toda la información asociada a los tópicos, derivando en redundancias en los tópicos, siendo una limitación en algunas colecciones [44]. Sin embargo, esta limitación no está presente en el acercamiento propuesto al usar técnicas de agrupamiento para el modelado de los tópicos, dado que por cada grupo se selecciona solo la más representativa, además de la ventaja de modelar los tópicos de una forma más granular, representándolos como grupos de frases que tienen una fuerte relación semántica entre sí. Tabla 2 Comparación de nuestra propuesta con los trabajos presentados en la competencia Multiling 2015 Sistemas ENCol SPCol ROUGE-1 ROUGE-2 ROUGE-1 ROUGE-2 P R F P R F P R F P R F SCE-Poly 0.20 0.19 0.20 0.13 0.12 0.12 - - - - - - BUPT-CIST 0.13 0.11 0.12 0.01 0.03 0.02 0.13 0.12 0.12 0.03 0.03 0.03 BGU-MUSE 0.29 0.28 0.28 0.19 0.17 0.18 - - - - - - NCSR/SCIFY 0.15 0.14 0.14 0.05 0.04 0.05 0.23 0.20 0.21 0.07 0.06 0.06 UJF-Grenoble 0.14 0.12 0.13 0.04 0.03 0.04 - - - - - - UWB 0.34 0.33 0.33 0.19 0.18 0.18 0.41 0.39 0.39 0.26 0.25 0.25 ExB 0.23 0.23 0.23 0.08 0.09 0.09 0.25 0.24 0.25 0.09 0.09 0.09 ESIAllSummr 0.16 0.15 0.15 0.04 0.03 0.04 0.21 0.20 0.20 0.05 0.06 0.05 IDAOCCAMS 0.23 0.23 0.23 0.07 0.07 0.07 0.25 0.24 0.25 0.09 0.08 0.08 GiauUngVan 0.15 0.12 0.13 0.04 0.03 0.03 - - - - - - Lead (baseline) 0.39 0.41 0.40 0.11 0.13 0.12 0.45 0.46 0.45 0.16 0.17 0.17 Solución propuesta 0.42 0.53 0.47 0.16 0.25 0.19 0.49 0.57 0.52 0.33 0.20 0.25 Tabla 3 Comparación de nuestra propuesta con otros trabajos reportados en la literatura Sistemas ENCol SPCol ROUGE-1 ROUGE-2 ROUGE-1 ROUGE-2 P R F P R F P R F P R F Li et al., 2017 [45] - - - - - 0.12 - - - - - 0.23 Rao and Devi, 2018 [46] - - - - - 0.22 - - - - - - Al-Saleh and Bachir Menai, 2018 [47] - - 0.47 - - 0.17 - - - - - - Del Camino et. al., 2019 [14] 0.43 0.46 0.44 0.19 0.19 0.19 0.48 0.56 0.52 0.26 0.29 0.27 Valladares et. al., 2019 [15] 0.39 0.41 0.38 0.13 0.13 0.13 0.47 0.47 0.47 0.20 0.19 0.20 Solución propuesta 0.42 0.53 0.47 0.16 0.25 0.19 0.49 0.57 0.52 0.33 0.20 0.25 En sentido general, nuestra propuesta alcanza resultados superiores en la mayoría de las métricas y en ambas colecciones, observándose un mejor comportamiento con ROUGE-1. Superar el 50% en cobertura y medida-f en SPCol para ROUGE-1 constituye un importante resultado, superando incluso a lo ya reportado por [14]. Destacar también la cobertura obtenida en ENCol para ROUGE-1, siendo este el único valor superior al 50%, superando en más de un 7% al segundo mejor valor. Las métricas en que nuestra solución no alcanzó los mejores resultados, son superadas principalmente por [14] y solo en un caso por [46]. Aunque [14] obtiene en general buenos resultados, posee como limitación fundamental una alta dependencia de la información contenida en los textos a resumir y que esté presente en WordNet, ya que los contenidos que no aparezcan en ese recurso léxico no son utilizados en el proceso de identificación de la relevancia para obtener el resumen. En nuestra propuesta el análisis semántico usando WordNet, se lleva a cabo a través de métricas que evalúen la relación semántica entre frases, pero combinadas con otras medidas no pendientes de ese recurso, para así alcanzar mayor cobertura en procesamiento del contenido de entrada. 4. CONCLUSIONES Y TRABAJO FUTURO En el trabajo se presentó un nuevo método de generación de resúmenes extractivos multi-documentos guiado por el modelado de tópicos. En este método la agregación de varias medidas de similitud entre frases a través del operador OWA incrementó el procesamiento semántico en la identificación de los tópicos, aspecto poco considerado en los antecedentes estudiados. La información semántica, que recoge el VRS, permitió en el proceso de agrupamiento discernir mejor si una frase pertenece a un grupo u otro. Esto dio como resultado, que las frases que componen cada uno de los grupos tiene una fuerte relación semántica entre ellas. De esto se concluye que identificar tópicos que estén compuesto por frases fuertemente relacionadas entre sí, permite tener una mayor cobertura de los temas abordados en los documentos. Determinar la relevancia de las oraciones a partir de identificar la similitud de estas con los tópicos más relevantes garantiza que en las oraciones de mayor valor de relevancia se encuentre la información más importante de los documentos. Los resultados experimentales evidencias las mejoras en los resultados del método propuesto, respecto a otras soluciones de la literatura evaluadas con la colección de textos de MutiLing 2015 para la tarea MMS. En ambas colecciones se superaró el 50% en varias de las métricas ROUGE-1, y respecto a los trabajos presentados en MultiLing 2015 varios resultados fueron superiores en un 20%. En el futuro se pretende extender la evaluación experimentar con otras colecciones, e incluir otros algoritmos de agrupamiento, y cuantificadores lingüísticos aplicados al operador OWA. La estrategia para seleccionar las oraciones que formarán el resumen es otro de los aspectos que serán abordados posteriormente, evaluando otras medidas de similitud entre las oraciones y los tópicos. Esto con el objetivo de mejorar la precisión con que se seleccionan las oraciones relevantes para el resumen. AGRADECIMIENTOS Este trabajo ha sido parcialmente financiado por el Fondo Europeo de Desarrollo Regional (FEDER) y la Agencia Estatal de Investigación (AEI) del Ministerio de Ciencia e Innovación de España, a través del proyecto SAFER: PID2019-104735RB-C42 (AEI/FEDER, UE). REFERENCIAS 1. RADEV, Dragomir; HOVY, Eduard; MCKEOWN, Kathleen. Introduction to the special issue on summarization. Computational linguistics, 2002, vol. 28, no 4, p. 399-408. 2. ALLAHYARI, Mehdi, et al. Text summarization techniques: a brief survey. arXiv preprint arXiv:1707.02268, 2017. 3. BHATIA, Neelima; JAISWAL, Arunima. Trends in extractive and abstractive techniques in text summarization. International Journal of Computer Applications, 2015, vol. 117, no 6. 4. GAMBHIR, Mahak; GUPTA, Vishal. Recent automatic text summarization techniques: a survey. Artificial Intelligence Review, 2017, vol. 47, no 1, p. 1-66. 5. MA, Congbo, et al. Multi-document summarization via deep learning techniques: A survey. ACM Computing Surveys (CSUR), 2020. 6. BLAIR-GOLDENSOHN, Sasha, et al. Columbia university at DUC 2004. En Proceedings of the Document Understanding Conference, DUC-2004, Boston, USA. 2004 7. GUPTA, Virendra Kumar; SIDDIQUI, Tanveer J. Multi-document summarization using sentence clustering. En 2012 4th International Conference on Intelligent Human Computer Interaction (IHCI). IEEE, 2012. p. 1-5. 8. SAGGION, Horacio; GAIZAUSKAS, Robert. Multi-document summarization by cluster/profile relevance and redundancy removal. En Proceedings of the Document Understanding Conference. 2004. p. 6-7. 9. ANGHELUTA, Roxana, et al. KU Leuven summarization system at DUC 2004. En DUC Workshop Papers and Agenda. 2004. p. 53-60. 10. RADEV, Dragomir R., et al. Centroid-based summarization of multiple documents. Information Processing & Management, 2004, vol. 40, no 6, p. 919-938. 11. ROUL, Rajendra Kumar. Topic modeling combined with classification technique for extractive multi-document text summarization. Soft computing, 2021, vol. 25, no 2, p. 1113-1127. 12. STEINBERGER, Josef. The UWB summariser at multiling-2013. En Proceedings of the MultiLing 2013 Workshop on Multilingual Multi-document Summarization. 2013. p. 50-54. 13. FERREIRA, Rafael, et al. Assessing sentence similarity through lexical, syntactic and semantic analysis. Computer Speech & Language, 2016, vol. 39, p. 1-28. 14. CAMINO VALLE, Oleyda del, et al. Generación de resúmenes extractivos de múltiples documentos usando grafos semánticos. 2019. 15. VALLADARES-VALDÉS, Eduardo, et al. A fuzzy approach for sentences relevance assessment in multi-document summarization. En International Workshop on Soft Computing Models in Industrial and Environmental Applications. Springer, Cham, 2019. p. 57-67. 16. ERNST, Ori, et al. Proposition-Level Clustering for Multi-Document Summarization. En Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. 2022. p. 1765-1779. 17. ROUL, Rajendra Kumar. Topic modeling combined with classification technique for extractive multi-document text summarization. Soft computing, 2021, vol. 25, no 2, p. 1113-1127. 18. ISSAM, Kalliath Abdul Rasheed, et al. Topic modeling based extractive text summarization. arXiv preprint arXiv:2106.15313, 2021. 19. BELWAL, Ramesh Chandra; RAI, Sawan; GUPTA, Atul. Text summarization using topic-based vector space model and semantic measure. Information Processing & Management, 2021, vol. 58, no 3, p. 102536. 20. RANI, Ruby; LOBIYAL, D. K. An extractive text summarization approach using tagged-LDA based topic modeling. Multimedia tools and applications, 2021, vol. 80, no 3, p. 3275-3305. 21. ROUL, Rajendra Kumar, et al. A new automatic multi-document text summarization using topic modeling. En International conference on distributed computing and internet technology. Springer, Cham, 2019. p. 212-221. 22. BELWAL, Ramesh Chandra; RAI, Sawan; GUPTA, Atul. A new graph-based extractive text summarization using keywords or topic modeling. Journal of Ambient Intelligence and Humanized Computing, 2021, vol. 12, no 10, p. 8975-8990. 23. HAFEEZ, Rubab, et al. Topic based Summarization of Multiple Documents using Semantic Analysis and Clustering. En 2018 15th International Conference on Smart Cities: Improving Quality of Life Using ICT & IoT (HONET-ICT). IEEE, 2018. p. 70- 74. 24. GUPTA, Hritvik; PATEL, Mayank. Method Of Text Summarization Using Lsa And Sentence Based Topic Modelling With Bert. En 2021 International Conference on Artificial Intelligence and Smart Systems (ICAIS). IEEE, 2021. p. 511-517. 25. YADAV, Chandra; SHARAN, Aditi. A new LSA and entropy-based approach for automatic text document summarization. International Journal on Semantic Web and Information Systems (IJSWIS), 2018, vol. 14, no 4, p. 1-32. 26. LIN, Chin-Yew. Rouge: A package for automatic evaluation of summaries. En Text summarization branches out. 2004. p. 74- 81. 27. KHERWA, Pooja; BANSAL, Poonam. Topic modeling: a comprehensive review. EAI Endorsed transactions on scalable information systems, 2020, vol. 7, no 24 28. JALIL, Zakia; NASIR, Jamal Abdul; NASIR, Muhammad. Extractive Multi-Document Summarization: A Review of Progress in the Last Decade. IEEE Access, 2021. 29. AFSHARIZADEH, Mahsa, et al. A Survey on Multi-document Summarization and Domain-Oriented Approaches. Journal of Information Systems and Telecommunication (JIST), 2022, vol. 1, no 37, p. 68. 30. MILLER, George A. WordNet: An electronic lexical database. MIT press, 1998. 31. TOHALINO, Jorge V.; AMANCIO, Diego R. Extractive multi-document summarization using multilayer networks. Physica A: Statistical Mechanics and its Applications, 2018, vol. 503, p. 526-539 32. JING, Baoyu, et al. Multiplex Graph Neural Network for Extractive Text Summarization. arXiv preprint arXiv:2108.12870, 2021. 33. JIA, Ruipeng, et al. Neural extractive summarization with hierarchical attentive heterogeneous graph network. En Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP). 2020. p. 3622-3631. 34. WANG, Danqing, et al. Heterogeneous graph neural networks for extractive document summarization. arXiv preprint arXiv:2004.12393, 2020. 35. PÉREZ-GUADARRAMAS, Yamel, et al. Combinando patrones léxico-sintácticos y análisis de tópicos para la extracción automática de frases relevantes en textos. Procesamiento del Lenguaje Natural, 2017, no 59, p. 39-46 36. MÜLLNER, Daniel. Modern hierarchical, agglomerative clustering algorithms. arXiv preprint arXiv:1109.2378, 2011. 37. PEREZ-GUADARRAMAS, Yamel, et al. Analysis of OWA operators for automatic keyphrase extraction in a semantic context. Intelligent Data Analysis, 2020, vol. 24, no S1, p. 43-62. 38. YAGER, Ronald R. On ordered weighted averaging aggregation operators in multicriteria decisionmaking. IEEE Transactions on systems, Man, and Cybernetics, 1988, vol. 18, no 1, p. 183-190. 39. ZADEH, Lotfi A. A computational approach to fuzzy quantifiers in natural languages. En Computational linguistics. Pergamon, 1983. p. 149-184. 40. FENG, Ling; DILLON, Tharam S. Using fuzzy linguistic representations to provide explanatory semantics for data warehouses. IEEE Transactions on Knowledge and Data Engineering, 2003, vol. 15, no 1, p. 86-102. 41. BOUGOUIN, Adrien; BOUDIN, Florian; DAILLE, Béatrice. Topicrank: Graph-based topic ranking for keyphrase extraction. En International joint conference on natural language processing (IJCNLP). 2013. p. 543-551 42. BRIN, Sergey; PAGE, Lawrence. The anatomy of a large-scale hypertextual web search engine. Computer networks and ISDN systems, 1998, vol. 30, no 1-7, p. 107-117. 43. SANCHEZ-GOMEZ, Jesus M.; VEGA-RODRÍGUEZ, Miguel A.; PÉREZ, Carlos J. An Indicator-based Multi-Objective Optimization Approach Applied to Extractive Multi-Document Text Summarization. IEEE Latin America Transactions, 2019, vol. 17, no 08, p. 1291-1299. 44. NENKOVA, Ani; MCKEOWN, Kathleen. A survey of text summarization techniques. En Mining text data. Springer, Boston, MA, 2012. p. 43-76. 45. LI, Lei, et al. UIDS: a multilingual document summarization framework based on summary diversity and hierarchical topics. En Chinese Computational Linguistics and Natural Language Processing Based on Naturally Annotated Big Data. Springer, Cham, 2017. p. 343-354. 46. RAO, Pattabhi RK; LALITHA DEVI, S. Enhancing multi-document summarization using concepts. Sādhanā, 2018, vol. 43, no 2, p. 1-11. 47. AL-SALEH, Asma; MENAI, Mohamed El Bachir. Solving multi-document summarization as an orienteering problem. Algorithms, 2018, vol. 11, no 7, p. 96. Yamel Pérez-Guadarramas se graduó en Ingeniería Informática en 2017, en la Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE. Desde 2017 a la fecha es investigador de Minería de Datos en CENATAV. Su interés de investigación incluye descubrimiento de patrones frecuentes y reglas de asociación, minería de datos, procesamiento de lenguaje natural y minería de texto. Actualmente es estudiante de doctorado y tiene categoría científica de Aspirante a Investigador. Alfredo Simón-Cuevas se graduó en Ingeniería Informática en 2002, con Maestría en Informática Aplicada en 2006, y Doctor en Ciencias Técnicas (especialidad en Computación) en 2009, en la Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE. Actualmente es profesor en la Facultad de Ingeniería Informática de dicha universidad. Ha sido tutor de varias tesis de diploma, maestría y doctorado, y sus resultados científicos han sido publicados en revistas y capítulos de libros, y presentados en congresos internacionales. Ha dirigido y asistido en diversos proyectos de investigación de ámbito nacional e internacional, y asistido en diversas redes académicas y de investigación. Entre las áreas de investigación de mayor interés para él se encuentran el Procesamiento del Lenguaje Natural, la Minería de Textos, la Ingeniería del Conocimiento y la Web Semántica. Francisco P. Romero nació en Ciudad Real, España en 1978. Recibió el grado de Maestría en Informática por la Universidad de Castilla La Mancha en 2001 y Doctorado en Tecnologías Informáticas Avanzadas por la Universidad de Castilla La Mancha en 2008. Entre 2001 y 2008 fue Project Manager en Indra Software Labs. Desde 2005 es Profesor Ayudante del Departamento de Sistemas y Tecnologías de la Información de la Universidad de Castilla La Mancha. Es autor de más de 50 comunicaciones a congresos y 20 artículos de revistas. Sus intereses de investigación incluyen aplicaciones de aprendizaje automático en entornos complejos, recuperación de información y sistemas de soporte de decisiones clínicas. Es miembro del Consejo Editorial de la Revista Procesamiento y Gestión de la Información. El Dr. Romero fue Jefe del Departamento de Sistemas y Tecnologías de la Información de la Universidad de Castilla La Mancha desde 2017 hasta 2021. Raudel Hernández-León estudió informática en la Universidad de La Habana a finales de la década de los noventa del siglo anterior. Su investigación ha cubierto muchas áreas, incluida la minería de datos y el reconocimiento de patrones. Actualmente se desempeña como investigador de minería de datos en CENATAV, una empresa de alta tecnología especializada en el desarrollo de aplicaciones de software que ofrece soluciones propias a problemas tecnológicos complejos. TECONOGÍAS INTELIGENTES EN LA PREDICCIÓN DE LA RELEVANCIA EN OPINIONES DE USUARIO PARA EL SOPORTE DE SOFTWARE Thalía Blanco Martín1, Alfredo Simón-Cuevas1, Anaisa Hernández González1, Vladimir Milián Núñez2, Hector González Diéz2 1Universidad Tecnológica de La Habana “José Antonio Echeverría”, La Habana, Cuba, tblanco@ceis.cujae.edu.cu, asimon@ceis.cujae.edu.cu, anaisa@ceis.cujae.edu.cu 2Universidad de las Ciencias Informáticas vmilian, hglez@uci.cu RESUMEN El análisis del contenido textual de opiniones de usuarios en redes sociales sobre aplicaciones de software en uso puede dotar de información valiosa a los equipos de desarrollo y soporte, en cuanto a errores, insatisfacciones, nuevos requisitos funcionales, entre otros. En el presenta trabajo se presenta una solución basada en tecnologías inteligentes para clasificar de forma automática si el contenido de una opinión es relevante o no para el desarrollo de software. En esta solución se combinan algoritmos de aprendizaje automático, con el uso de un glosario de dominio (Glosario ISO/IEC/IEEE 2017) para la selección de características, en la predicción de la relevancia de las opiniones. La solución propuesta se evaluó experimentalmente con tres dataset, específicamente Facebook, Tapfish y SwiftKey, y los resultados obtenidos fueron muy prometedores, dado que se comprobó la mejora en la calidad de los resultados cuando de usa el glosario. PALABRAS CLAVES: Minería de opinión, ISO/IEC/IEEE, aprendizaje automático, procesamiento de lenguaje natural, evaluación. 1. INTRODUCCIÓN El rol que desempeña la Ingeniería de Requisitos (IR) en el desarrollo del software exige al equipo de analistas que las fuentes para la extracción de los requisitos sean lo más ricas en información posible. Actualmente, existe un cumulo elevado de contenidos relevantes, descritos en lenguaje natural de interés para la IR, como son los comentarios de los usuarios en tiendas de aplicaciones, redes sociales, foros de discusión, sistemas de control de versiones, de seguimiento de errores, entre otros [1]. Esto ha conllevado a que exista un creciente interés en el uso de técnicas de Procesamiento de Lenguaje Natural (NLP, Natural Language Processing) combinadas con el análisis de grandes volúmenes de datos y técnicas de aprendizaje automático (ML, Machine Learning), para extraer información útil para la IR, lo que se conoce como IR basada en datos [2], [3]. Surge así el problema planteado en el presente trabajo: ¿Cómo establecer la relevancia que puede tener un contenido textual? El análisis de las opiniones de usuarios en las redes sociales sobre un software en uso permite identificar que nueva característica se debe incluir en la próxima versión del producto, que funcionalidades evitar o mejorar, así como los errores presentes en las aplicaciones [4], [5], [6], [7]. Es importante tener en cuenta que la naturaleza no estructurada del contenido textual de las opiniones obliga a usar herramientas de NLP para su normalización y posteriormente su análisis. Durante este proceso de análisis los autores [1] recomiendan filtrar las irrelevantes o que no aportan a la mejora de los requisitos de las aplicaciones. Este primer paso es imprescindible, ya que representa aproximadamente el 70 % de las opiniones emitidas por los usuarios. Otros estudios arrojan resultados alentadores en procesos similares de filtrado al utilizar conocimiento del dominio como [8]. La investigación propone como objetivo clasificar el contenido textual que pudiera presentar información que se considerase de relevancia, es decir, que contenga vocabularios asociados al dominio de software. Demostrando en el proceso la hipótesis: Si en el proceso de representación del texto se introducen criterios para sacar características asociadas al dominio de conocimientos de requisitos, entonces las características que se identifiquen de los textos serán mucho más favorables para aumentar la precisión de la predicción. 2. CLASIFICACIÓN AUTOMÁTICA DE CONTENIDO TEXTUAL La naturaleza no estructurada de los textos, más aún en el caso de los textos de opinión, requiere la ejecución de tareas de preprocesamiento o normalización. Es una de las fases más importantes, donde se trata de eliminar el ruido de los datos que se tienen en las opiniones de entrada. Inicialmente las opiniones son segmentadas en oraciones, dado que, dentro de una opinión, algunas oraciones pueden ser “relevantes” y otras no. Este nivel de granularidad puede ayudar a distinguir con mayor precisión la información “relevante” y la información no relevante o “ruido” [1]. El Procesamiento de Lenguaje Natural (Natural Language Processing, NLP) es una traducción automática del lenguaje natural como discursos, textos, con la ayuda de softwares. Mayormente todos los documentos pueden ser escritos en la forma de lenguaje natural, por tanto, el análisis y procesamiento de esos datos en una computadora se hará con ayuda de las técnicas del lenguaje natural. Varias técnicas del lenguaje natural están presentes en la ayuda en el procesamiento de datos, como la minería de textos, tokenización, lematización, o análisis semántico [9]. Algoritmos de aprendizaje automático El aprendizaje supervisado es una técnica para deducir una función a partir de datos de entrenamiento. Los datos de entrenamiento consisten en datos de entrada y la salida esperada. El objetivo de este aprendizaje es crear una función capaz de predecir el valor correspondiente a cualquier objeto de entrada después de haber visto ejemplos (los datos de entrenamiento). Es decir, el aprendizaje supervisado persigue el objetivo de obtener un resultado a partir de una entrada de daos luego de haber sido entrenado con datos de los cuales ya se conoce la salida esperada. Las soluciones que implican trabajo con aprendizaje supervisado se desarrollan en dos fases: Entrenamiento y Prueba. Los algoritmos supervisados o predictivos predicen el valor de un atributo (etiqueta) de un conjunto de datos, conocidos otros atributos (atributos descriptivos). A partir de datos cuyas etiquetas se conoce, se induce una relación entre dicha etiqueta y otra serie de atributos. Esas relaciones sirven para realizar la predicción de datos cuya etiqueta se desconoce. Entre los algoritmos a analizar se encuentran: ExtraTrees, Stacking, Logistic Regression (LR), Random Forest (RF) y SVM. Técnicas de extracción de características Los algoritmos de aprendizaje automático operan en un espacio de características numéricas, esperando un arreglo bidimensional como entrada donde las filas son instancia y las columnas características [10]. Para llevar a cabo aprendizaje automático en un texto, es necesario transformar las instancias, documentos, en representaciones vectoriales, de forma tal que sea posible aplicar aprendizaje automático numérico. El proceso de codificar textos en un espacio vectorial numérico es conocido como extracción de características, o simplemente, vectorización, y es un primer paso esencial en el análisis de textos [10]. Entre las técnicas utilizadas en la investigación se encuentran Bag of Words (BoW), Term frequency – Inverse document frequency (TF IDF), N-Grams, Pointwise Mutual Information (PMI) y una basada en la ocurrencia de la palabra que se explicará más adelante en el artículo. Análisis de trabajos relacionados El aprendizaje supervisado es aquel en donde se intenta aprender de ejemplos como si estos fueran un maestro. Se asume que cada uno de estos ejemplos incluye características o atributos que especifican o definen a qué categoría o clase pertenece, de un conjunto de categorías o clases predefinidas, de esta manera cada ejemplo se asocia con su clase. Este tipo de aprendizaje es llamado supervisado por la presencia de los ejemplos para guiar el proceso de aprendizaje. Al conjunto de ejemplos del cual se intenta aprender se le llama conjunto de entrenamiento [11]. El estudio [1] propone una solución de aprendizaje supervisado para la predicción de categorías de requisitos utilizando las categorías Funcional, Error u Otro. Se analizan los resultados con los dataset de Facebook y Tapfish para las técnicas de extracción de características BoW, TF-IDF y N-Grams. De los algoritmos propuestos por el estudio se observa mayor presición en los datos con el algoritmo ExtraTrees. Kurtanović et al. [12] necesidades clasificadas en Requerimientos Funcionales, Requisitos No Funcionales y categorías de requisitos no funcionales utilizando la técnica Support Vector Machine. Los autores emplearon el repositorio PROMISE, que es conocido por tener un conjunto de criterios funcionales y no funcionales. Se incorporaron los comentarios de los usuarios sobre los artículos de Amazon en el conjunto de datos principal para ayudar a equilibrar la base de datos. Como técnica de extracción de características utiliza N-Grams. Otro estudio [13] utiliza Support Vector Machine para ofrecer un enfoque automatizado para el requisito categorización. Los autores utilizaron dos especificaciones de vehículos Mercedes-Benz para probar el aprendizaje automático. Los hallazgos de este estudio demostraron que la categorización automatizada de requisitos es significativa y proporciona un grado satisfactorio de precisión. Como técnica de extracción de características utiliza N-Grams. Jindal et al. [14] usó un único método de aprendizaje automático para realizar un análisis automatizado de las múltiples especificaciones necesarias de un software del repositorio PROMISE e introducir categorización binaria en varios tipos de categorías de requisitos de seguridad (árbol de decisión). Tokenización, lematización y eliminación de palabras vacías se utilizaron como técnicas de preprocesamiento, mientras que la vectorización se realizó utilizando TF-IDF. Los autores [15] proponen una solución para la clasificación de requisitos funcionales y no funcionales a partir de un dataset construido a partir de diferentes fuentes, que es analizado luego de la fase de preprocesamiento y extracción de características por los clasificadores Logistic Regression y Multinomial Naive Bayes. El aprendizaje semisupervisado es la combinación del aprendizaje supervisado y el no-supervisado. En éste se aprende con la ayuda de dos conjuntos. Uno que contiene datos asociados a una clase, y el otro que contiene datos no asociados a una clase. La idea es aprender con los datos asociados a su clase y asociar una clase a los datos que no contienen asociada una clase. [11] Para clasificar los NFR automáticamente, se utilizó una técnica automatizada semisupervisada [16]. Los autores de este estudio tuvieron como objetivo ayudar a los analizadores de requisitos en la categorización de los requisitos. Empezar, el equipo de análisis de requisitos seleccionó y clasificó una colección de requisitos que servir como conjunto de entrenamiento del sistema. Después de eso, la máquina pudo identificar el resto de necesidades no clasificadas. Usando un conjunto común de documentos de requisitos, los autores emplearon algunos métodos de aprendizaje automático supervisado. La vectorización se realizó utilizando TF-IDF. El estudio de [11] propone un método semisupervisado para la clasificación de contenido textual. Utiliza los modelos vectoriales BoW y N-Grams y clasificadores como Naive Bayes, k-nn y SVM. Para la evaluación de la solución propuesta se empleó el dataset propuesto en [17]. El modelo de predicción propuesto por Malhotra y Khanna [18], utiliza técnicas híbridas basadas en la búsqueda. Este estudio analiza y compara el rendimiento predictivo de cinco técnicas híbridas basadas en búsquedas y cuatro técnicas de aprendizaje automático, así como una técnica estadística para predecir clases propensas al cambio en seis paquetes de aplicaciones del sistema operativo Android. El trabajo de [8] propone un método híbrido para el análisis de opiniones. Su solución contempla el uso de N-Grams para la extracción de características, y clasificadores lineales, SVM, de regresión y de redes neuronales. Para la evaluación de su estudio utilizó los datasets AIT SemEval 2018 y TASS 2020. La investigación realizada por [19] propone una solución híbrida para la clasificación de textos utilizando la técnica de N-Grams para la extracción de características. La evaluación de la solución propuesta se hizo con la colección Reuters-21578 y clasificadores como k-nn. Tecnologías de implementación Las tecnologías empleadas en la solución son Python como lenguaje de programación, Scikit Learn como biblioteca para machine learning y NLTK como biblioteca para el Natural Language Processing. Python es un lenguaje de programación potente y fácil de aprender. Tiene estructuras de datos de alto nivel eficientes y un simple pero efectivo sistema de programación orientado a objetos. La elegante sintaxis de Python y su tipado dinámico, junto a su naturaleza interpretada lo convierten en un lenguaje ideal para scripting y desarrollo rápido de aplicaciones en muchas áreas, para la mayoría de plataformas [20]. Una de las grandes ventajas que ofrece Python sobre otros lenguajes de programación; es cuán grande y proliferante es la comunidad de desarrolladores que lo rodea; comunidad que ha contribuido con una gran variedad de librerías de primer nivel que amplían las funcionalidades del lenguaje [21]. Existen gran cantidad de bibliotecas disponibles para usar en Python. En el trabajo que concierne se va a basar en aquellas que sirvan de uso para aprendizaje automático. De entre ellas se tomará de referencia a la de Scikitlearn [22], una de las bibliotecas de libre uso de aprendizaje automático más utilizadas y populares en el día de hoy para aprendizaje automático. La misma librería dispone de una API de la cual se pueden usar los módulos necesarios para importar en el proyecto y realizar las llamadas a los métodos requeridos. En el trabajo que concierne se hará uso de los distintos módulos que dan acceso a los algoritmos que se usarán para aprendizaje automático enfocados en clasificación, además de aquellos que se usarán para la extracción de métricas. [23] NLTK (Natural Language Toolkit) es una plataforma para la creación de programas Python para análisis de texto. Como fue creado con fines educativos en el año 2001, permite la realización de proyectos con distintos propósitos y alcance variado. Provee demostraciones paso a paso de distintos algoritmos [24]. Integra más de 50 corpus y un conjunto de librerías para segmentación, tokenización, etiquetado del habla, análisis sintáctico y semántico, entre otros. Para el español muchas de estas opciones no están disponibles. Su instalación en Python es sencilla debido a que es un paquete que se encuentra en el repositorio del lenguaje. Con una simple instrucción, se instala lo necesario para utilizarlo. El etiquetador POS de NLTK originalmente fue creado para el idioma inglés. Sin embargo, se lo puede extender al español entrenando el etiquetador con algún corpus que incorpora NLTK en esta lengua o usando un etiquetador externo como el de Stanford. [25] El etiquetado POS que retorna NLTK se corresponde con el formato EAGLES3. Las etiquetas EAGLES codifican todas las características morfológicas existentes para la mayoría de los idiomas europeos, incluido el español. Estas etiquetas consisten en un conjunto de caracteres de longitud variable donde cada uno corresponde a una característica morfológica. El primer carácter en la etiqueta es siempre la categoría POS que, a su vez, determina la longitud y la interpretación de los elementos siguientes. [26] 3. DESCRIPCIÓN DE LA SOLUCIÓN PROPUESTA Se propone una solución para la predicción de categorías de requisitos en la cual se incorpora el uso de conocimiento del dominio de requisitos en forma de tesauro construido a partir del glosario de ISO/IEC/IEEE del 2017 [27], que cuenta con 5658 términos. Tomando para la evaluación los datasets Facebook, Tapfish, SwiftKey y TempleRun2, el proceso comienza una vez que los datos entran al sistema y pasan a la etapa del preprocesamiento, como indica el siguiente esquema de flujo de datos. Figura 1: Diagrama que refleja el flujo de los datos en la solución propuesta. Extracción de características orientadas a la relevancia Enfoque basado en la relación semántica El proceso de extracción de características orientadas a la relevancia se llevó a cabo utilizando la métrica Pointwise Mutual Information (PMI), la cual se deriva de la teoría de la información y proporciona una vía formal de modelar la información mutua entre las características y las palabras del tesauro [28]. En el ámbito de la clasificación de textos, este tipo de medidas constituye una alternativa para evaluar la relevancia de características potenciales del texto con respecto a clases específicas. Esta información mutua puntual entre la palabra wi y tesauro Ej se define sobre la base de la coocurrencia entre las palabras vi,j del vocabulario de Ej y la palabra wi de la opinión, y se calcularía según la siguiente ecuación (1) [8]: (1) Este planteamiento se basa en la suposición de que las palabras relacionadas con el dominio de software incluidas en el tesauro que coocurren con frecuencia con las palabras de la opinión tienden a estar semánticamente relacionadas [8]. Enfoque basado en la ocurrencia de la palabra Este enfoque experimental consiste en establecer una comparación entre cada una de las palabras de la opinión con las que se encuentran recogidas en el tesauro propuesto. De esta forma, si se establece una correspondencia entre las palabras, ya sea una coincidencia total o parcial, se considera esta una característica de relevancia dentro de la opinión. Una coincidencia total entre las palabras ocurre cuando la palabra de la opinión se encuentra dentro del glosario, por ejemplo: install (palabra de la opinión) – install (palabra del glosario). Sin embargo, una coincidencia parcial ocurre cuando una porción de la palabra de la opinión se corresponda con la palabra del glosario, por ejemplo: installing (palabra de la opinión) – install (palabra del glosario). Construcción del vector de características Se adoptó el modelo de representación binario para construir el vector característico de las opiniones, teniendo en cuenta que el peso de una característica wi tiene valor 1 si el valor de la relación semántica ≠ 0, y valor 0 en caso contrario como propone el estudio [8]. Se considera con esta representación que las características relevantes son aquellas con peso 1. El vector de características se representa entonces en forma de una lista de diccionarios de Python, donde cada opinión es un diccionario que cuenta con sus palabras o tokens como llaves y su valor 0 o 1 como item. Por ejemplo, una opinión: [‘takes’, ‘forever’, ‘load’, ‘photos’] como vector se expresaría: {‘takes’:’0’, ‘forever’:’0’, ‘load’:’1’, ‘photos’:’0’}, donde solo hay una característica de relevancia. 4. RESULTADOS Y DISCUSIÓN La evaluación de la solución propuesta se lleva a cabo de manera experimental usando los datasets Facebook, Tapfish, y SwiftKey. Fueron empleados en la experimentación 58 algoritmos de aprendizaje supervisado, aunque serán presentados solo los 5 de los algoritmos de mejores resultados entre los 10 primeros del ranking de cada dataset. Los resultados se midieron usando las métricas Precision (2), Recall (3), F1-Score (4) y Accuracy (5). Estas métricas se computan comparando las predicciones obtenidas por un modelo de clasificación propuesto, con los resultados correctos incluidos en los dataset [29]. (2) (3) (4) (5) Se define como verdaderos positivos (true positives, TP) todas aquellas opiniones se hayan clasificado como relevantes y lo sean. Luego los falsos positivos (false positives, FP), son aquellas opiniones que se hayan clasificado como relevantes, pero no lo son. Verdaderos negativos (true negatives, TN) son las opiniones que el sistema determina que son no relevantes y en verdad lo son y los falsos negativos (false negatives, FN) son todas aquellas clasificadas como no relevantes, pero son en realidad relevantes. Resultados experimentales A continuación, se presentan los resultados experimentales obtenidos tras la ejecución de la solución para cada uno de los datasets, los cuales se computaron a través de las métricas de Precision, Recall, y F1-score para las diferentes técnicas de extracción de características que se emplearán en la comparación (Tabla 1- 3). Fueron evaluada las técnicas de BoW, TF-IDF y N-Grams como representantes de la selección de características sin usar el glosario construido, y sus resultados fueron comparados con la silución que se propone donde se usa un glosario del dominio en este proceso. Son destacados en negritas los valores más altos obtenidos de las métricas, y asociado a cada una de ellas se incluye el valor promedio para comprobar su comportamiento independientemente del clasificador que se emplee. Finalmente, serán analizados los resultados atendiendo a la medida Accuracy (Tabla 4). Se incluyó en el experimento el uso de 5 algoritmos de aprendizaje los cuales constituyen clásicos en este ámbito, y comúnmente usados en este tipo de comparaciones, a saber: SVM, Naive Bayes (NB), MLP, Logistic Regression (LR), y k-NN. Tabla 1: Resultados obtenidos con el dataset Facebook. Algoritmos de aprendizaje Selección de características sin usar glosario ISO/IEC/IEEE Uso del glosario ISO/IEC/IEEE BoW TF-IDF N-Grams Prec Rec F1 Prec Rec F1 Prec Rec F1 Prec Rec F1 SVM .883 .909 .896 .865 .921 .892 .867 .443 .587 .891 .925 .908 NB .91 .842 .874 .93 .804 .862 .864 .488 .57 .906 .865 .885 MLP .874 .913 .893 .856 .875 .866 .676 .894 .77 .875 .925 .9 LR .859 .939 .897 .859 .917 .887 .838 .372 .515 .859 .940 .898 k-NN .728 .917 .811 .79 .823 .806 .463 1 .633 .737 .917 .817 Agregación de resultados Ave. .851 .904 .874 .860 .868 .863 .742 .639 .615 .854 .914 .882 Tabla 2: Resultados obtenidos con el dataset Tapfish. Algoritmos de aprendizaje Selección de características sin usar glosario ISO/IEC/IEEE Uso del glosario ISO/IEC/IEEE BoW TF-IDF N-Grams Prec Rec F1 Prec Rec F1 Prec Rec F1 Prec Rec F1 SVM .889 .967 .926 .858 .978 .914 .768 .989 .865 .889 .962 .924 NB .914 .86 .886 .846 .978 .907 .784 .997 .878 .906 .925 .917 MLP .892 .932 .912 .883 .932 .907 .812 .989 .892 .902 .938 .922 LR .887 .951 .918 .839 .983 .906 .758 .991 .859 .867 .960 .911 k-NN .8 .989 .884 .86 .957 .906 .728 1 .842 .794 .989 .881 Agregación de resultados Ave. .876 .940 .905 .857 .966 .908 .770 .993 .867 .872 .955 .911 Tabla 3: Resultados obtenidos con el dataset SwiftKey. Algoritmos de aprendizaje Selección de características sin usar glosario ISO/IEC/IEEE Uso del glosario ISO/IEC/IEEE BoW TF-IDF N-Grams Prec Rec F1 Prec Rec F1 Prec Rec F1 Prec Rec F1 SVM .845 .948 .894 .815 .98 .89 .719 1 .837 .847 .944 .899 NB .912 .883 .897 .797 .985 .881 .721 .997 .837 .894 .922 .908 MLP .868 .929 .897 .861 .919 .889 .78 .953 .858 .865 .934 .831 LR .865 .951 .906 .798 .98 .879 .712 1 .831 .849 .956 .906 k-NN .737 .992 .846 .802 .968 .877 .703 1 .826 .739 .99 .896 Agregación de resultados Ave. .845 .941 .888 .815 .966 .883 .727 .990 .838 .839 .949 .888 Tabla 4: Resultados obtenidos para la medida Accuracy. Algoritmos de aprendizaje Selección de características sin usar glosario ISO/IEC/IEEE Uso del glosario ISO/IEC/IEEE BoW TF-IDF N-Grams FB TP SK FB TP SK FB TP SK FB TP SK SVM .906 .889 .842 .901 .867 .83 .722 .776 .726 .917 .885 .841 NB .893 .840 .857 .886 .8 .813 .672 .8 .727 .9 .876 .868 MLP .903 .869 .851 .879 .862 .839 .762 .827 .779 .908 .882 .851 LR .904 .877 .861 .896 .852 .811 .689 .765 .715 .905 .864 .849 k-NN .811 .813 .746 .824 .856 .809 .485 .730 .703 .818 .806 .747 Agregación de resultados Ave. .883 .858 .831 .877 .847 .820 .666 .780 .730 .890 .863 .831 REFERENCIAS [1] V. Milián Núñez, H. González Diez y A. Simón Cuevas, Predicción de la evolución de requisitos de software a partir de opiniones de usuarios, La Habana, 2022. [2] E. C. Groen, J. Doerr y S. Adam, Towards crowd-based requirements engineering a research preview., Springer, Cham, 2015. [3] W. Maalej, M. Nayebi, T. Johann y G. Ruhe, Toward data-driven requirements engineering., IEEE, 2015. [4] N. Chen, J. Lin, S. C. H. Hoi, X. Xiao y B. Zhang, «AR-miner: mining informative reviews for developers from mobile app marketplace.,» de ICSE 2014: Proceedings of the 36th International Conference on Software Engineering, Hyderabad India, Association for Computing MachineryNew YorkNYUnited States , 2014, p. 767–778. [5] A. Ciurumelea, A. Schaufelbühl, S. Panichella y H. C. Gall, «Analyzing reviews and code of mobile apps for better release planning.,» de 2017 IEEE 24th International Conference on Software Analysis, Evolution and Reengineering (SANER), Klagenfurt, Austria, 2017. [6] L. Villarroel, G. Bavota, B. Russo, R. Oliveto y M. & Di Penta, Release planning of mobile apps based on user reviews, Austin, TX, USA: IEEE, 2016. [7] W. Maalej y H. Nabil, Bug report, feature request, or simply praise? on auto-matically classifying app reviews., Ottawa, ON, Canada: IEEE, 2015. [8] H. González Guerra, Método híbrido de detección de emociones con enfoque semántico en la selección de características, La Habana, 2021. [9] D. Nagpal, K. Malik y A. Kalia, «A Comprehensive Analysis of Requirements Engineering Utilizing Machine Learning Techniques,» Design Engineering, pp. 2662- 2678, diciembre 2021. [10] B. Bengfort, R. Bilbro y T. Ojeda, Applied Text Analysis with Python, California: O'Reilly Media, 2018. [11] N. P. Araujo Arredondo, Método Semisupervisado para la Clasificación Automática de Textos de Opinión, Tonantzintla, Puebla : INAOE , 2009. [12] Z. Kurtanović y W. Maalej, Automatically Classifying Functional and Non-functional Requirements Using Supervised Machine Learning, Lisbon, Portugal: IEEE, 2017. [13] E. Knauss y D. Ott, Automatic requirement categorization of large natural language, Springer, 2013. [14] R. Jindal, R. Malhotra y A. Jain, Automated classification of security requirements, Jaipur, India: IEEE, 2016. [15] A. Abdulmunim Abdulmajeen y Y. S. Younis, «Supporting Classification of Software Requirements system Using Intelligent Technologies Algorithms,» Technium Vol. 3,, pp. 32-39, 2021. [16] A. Casamayor, D. Godoy y M. Campo, «Identification of non-functional requirements in textual specifications: A semi-supervised learning approach,» Information and Software Technology, vol. 52, nº 4, pp. 436-445, abril 2010. [17] B. Pang y L. Lee, Seeing stars: Exploiting class relationships for sentiment categorization with respect to rating scales., Association for Computational Linguistics, 2005. [18] R. Malhotra y M. Khanna, «An exploratory study for software change prediction in object-oriented systems using hybridized techniques,» Springer, p. 673–717, 17 agosto 2017. [19] J. Villena Román, S. Collada Pérez, S. Lana Serrano y J. C. González Cristóbal, «Método híbrido para categorización de texto basado en aprendizaje y reglas,» Procesamiento del lenguaje natural, nº Nº. 46, pp. 35-43, 2011. [20] «python,» mayo 2022. [En línea]. Available: https://docs.python.org/3/. [21] E. Manrique Rojas, «Machine Learning: análisis de lenguajes de programación y herramientas para desarrollo,» Revista Ibérica de Sistemas e Tecnologias de Informação, nº N.º E28, p. 586–599, 2020. [22] F. V. G. G. A. M. V. T. B. G. O. É. Pedregosa, «Scikit-learn: Machine Learning in Python.,» Journal of Machine Learning Research, p. 2825–2830, 2 enero 2011. [23] J. Zamorano Ruiz y D. Garrido Márquez, Comparación y análisis de métodos de clasificación con las bibliotecas scikit-learn y TensorFlow en Python, Málaga, 2019. [24] S. Bird, «NLTK: The Natural Language Toolkit,» de ACL 2006, 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, Proceedings of the Conference, Sydney, Australia, 2006. [25] L. Talamé, A. Cardoso y M. Amor, «Comparación de herramientas de procesamiento de textos en español extraídos de una red social para Python,» de XX Simposio Argentino de Inteligencia Artificial (ASAI 2019) - JAIIO 48 (Salta), 2019. [26] R. C. o. L. a. S. T. Applications, «Freeling 4.1,» febrero 2019. [En línea]. Available: https://talp- upc.gitbook.io/freeling-4-1-. [Último acceso: junio 2022]. [27] ISO/IEC/IEEE, International Standard. Systems and software engineering — Vocabulary, 2017. [28] C. C. Aggarwal y C. X. Zhai, Mining text data, volumen 9781461432234, Springer, 2013. [29] E. Dias Canedo y B. Cordeiro Mendes, «Software Requirements Classification Using Machine Learning Algorithms,» Entropy, p. 20, 21 septiembre 2020. 1 MULTICLASIFICADOR HOMOGENEO PARA DETECCIÓN DE BOTS EN EL COMERCIO ELECTRÓNICO Hélder João Chissingui1, Nayma Cepero Perez2 , Humberto Diaz Pando3 Mailyn Moreno Espino3 1-4 Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE, 114 no. 11901. e/ Ciclovia y Rotonda, Marianao, Cuba 1 hjchissing@gmail.com, 2-4{ncepero, hdiazp, my}@ceis.cujae.edu.cu RESUMEN Para el comercio electrónico, mitigar las amenazas de bots es una tarea relevante, debido el enorme impacto de las actividades maliciosas perpetradas por bots, a través de estos por personas mal intencionadas, cuyas, además del daño que causan a la infraestructura informática y pérdidas económicas, también agudizan la insatisfacción de los usuarios humanos. Actualmente este problema se hace aún más complejo, porque en ocasiones, usuarios humanos emplean aplicaciones móviles con sus cuentas de usuario para tener privilegios en el acceso a determinados servicios del comercio, o sea, es cada vez más elevado el nivel de sofisticación de los bots, lo que resulta que en determinadas circunstancias los patrones de actividades humanas tengan las mismas características de las actividades de bots. Con estos niveles de desarrollo, las tareas de detección se hacen cada vez más complejas y vitales. En este estudio, se propone un enfoque de detección basado en meta-aprendizaje, con los modelos homogéneos de ensambles de clasificadores, Bagging y Boosting. Los modelos construidos con base los estimadores ExtraTree, Cart y K-vecinos más cercanos, lograron la puntuación F1 máxima de 100%, en determinados escenarios, en que la cantidad de ejemplos de la clase minoritaria no sobrepasa los 9% del conjunto de datos. Los resultados se comparan con otros enfoques del estado del arte. PALABRAS CLAVES: Detección de bots, meta-aprendizaje, multiclasificadores, comercio electrónico. HOMOGENEOUS MULTICLASSIFIER FOR BOT DETECTION IN E-COMMERCE ABSTRACT For electronic commerce, mitigating bot threats is a relevant task, due to the enormous impact of malicious activities perpetrated by bots, through these by malicious people, whose, in addition to the damage they cause to the IT infrastructure and economic losses, also exacerbate human user dissatisfaction. Currently this problem becomes even more complex, because sometimes human users use mobile applications with their user accounts to have access privileges to certain business services, that is, the level of sophistication of the bots is increasingly higher, which results in the patterns of human activities under certain circumstances having the same characteristics as the activities of bots. With these levels of development, detection tasks become increasingly complex and vital. In this study, a detection approach based on meta-learning is proposed, with the homogeneous models of ensembles of classifiers, Bagging and Boosting. The models built based on the ExtraTree, Cart and K-nearest neighbors estimators, achieved the maximum F1 score of 100%, in certain scenarios, in which the number of examples of the minority class does not exceed 9% of the data set. The results are compared with other approaches of the state of the art KEY WORDS: Bot detection, meta learning, multiclassifiers, e-commerce. 2 1. INTRODUCCIÓN La pandemia del COVID-19 ha impulsado el desarrollo de servicios basados en la web. Internet banking, teletrabajo, e-learning, comercio electrónico, marketing digital, gobierno, entre otros, son áreas con alto nivel de informatización en mundo de hoy, lo que también es visible en países como Cuba, donde se busca profundizar el proceso de informatización como una de las claves de las estrategias de desarrollo sostenible. Los bots son caracterizados por poseer determinadas habilidades de usuarios humanos e incluso mejoran algunas en determinados contextos. De forma general, los bots pueden pertenecer a una comunidad o conjunto de bots denominado Botnet, por otro lado, pueden ser controlados de forma remota por el Botmaster (rol de un usuario humano) por intermedio de canales de comando y control (C&C, del inglés, Command and Control) dedicados, estos últimos basados fundamentalmente en los protocolos de comunicación: Internet Relay Chat (IRC), Peer-to-Peer (P2P) y el protocolo de transferencia de hipertexto (HTTP, del inglés, Hypertext Transfer Protocol). Pueden ser clasificados según la finalidad como, bots benignos los que realizan de tareas como motores de búsquedas y otras que son parte importante de los sistemas, y bots maliciosos que son utilizados por atacantes para perpetrar actividades maliciosas. Según su evolución, pueden ser clasificados los bots maliciosos en: Bots Simples, se conectan en una sola dirección IP asignada por el proveedor del servicio de Internet (ISP, del inglés, Internet Service Provider) usando scripts automatizados, no navegadores, se disfrazan, además no se identifican como un navegador. Los Bots Moderados, con determinada complejidad, simula la tecnología del navegador, incluida la capacidad de ejecutar JavaScript. Por último, los Bots avanzados, reproducen movimientos del mouse y clics que engañan incluso a los métodos de detección más sofisticados, imitan a los humanos, emplean comportamientos más evasivos, utilizan software de automatización del navegador o malware instalado en navegadores reales para conectarse a los sitios. Bots Evasivos, son una agrupación de bots maliciosos moderados y avanzados, tienden a recorrer direcciones IP aleatorias, ingresan a través de proxies anónimos y redes P2P, y pueden cambiar sus agentes de usuario, utilizan una combinación de tecnologías y métodos para evadir la detección mientras se mantiene la persistencia en los sitios objetivo, a menudo eligen tácticas “bajas y lentas”, que permitirles llevar a cabo ataques significativos utilizando menos solicitudes e incluso retrasar las solicitudes, lo que les permite no sobresalir de los patrones de tráfico normales y evitar la activación de umbrales de detección de seguridad basados en tasas. Este método reduce el "ruido" o grandes picos de tráfico generados por muchas compañías de bots maliciosos [1]. Según el Imperva bad bot report 2022 [1], el 42.3% del tráfico de Internet del año 2021 es resultante de la actividad de bots, donde 27.7% es tráfico de bots maliciosos; lo cual representa un 2.1% más que el año anterior. Estos resultados demuestran, la tendencia creciente en el empleo de bots, lo cual trae consigo un crecimiento de la exposición recursos informáticos a varias amenazas. Una de las grandes ventajas de la web consiste en el poder de interconectividad global, lo que proporciona un aporte importante para los sistemas en dependencia de sus finalidades, y es determinante para la disponibilidad y calidad de servicio (QoS, del inglés, Quality of Service). Sin embargo, esta interconectividad suele ser el recurso que expone el sistema a variadas amenazas informáticas, de hecho, es el más utilizado en las actividades que violan las propiedades de seguridad de los sistemas (confidencialidad, autenticación, no repudio, control de integridad, auditabilidad e incluso la disponibilidad) de los sistemas, perpetradas por individuos que intentan dañar los recursos, confundir la opinión pública, obtener ventajas sobre los adversarios, y muchas otras actividades maliciosas materializadas por medio de ataques cibernéticos. El comercio electrónico es una de las áreas que en los últimos años se ha beneficiado de los diversos avances tecnológicos, no solo por el tema de la pandemia del COVID19, pues su tendencia de expansión es perceptible desde hace años con el crecimiento de la adopción de servicios basados en Internet. Posee 3 características distinguibles, donde se pueden identificar para el lado del proveedor la rentabilidad, gran alcance de las ventas, ahorros de recursos para el alcance del servicio, etc., lo que convierte el comercio electrónico en un entorno de alta disputa entre adversarios. Por otro lado, también es rehén de políticas micro y macro económicas de estados, continentes, grupo, etc., e incluso de los propios clientes, lo que desencadena un conjunto de actividades maliciosas con recurso a bots y que violan las propiedades de seguridad mencionadas en el párrafo anterior. En el estado del arte se emplean con mayor frecuencia algoritmos supervisados para clasificar el tráfico de red o solicitudes de usuarios. Entre ellos, los algoritmos de aprendizaje supervisado tradicionales tienen como objetivo minimizar el número de errores cometidos durante la clasificación, asumiendo que los costos de los falsos positivos y falsos negativos son los iguales, considerando un equilibrio de clases. Al suponer una distribución equilibrada de clases y costos de error iguales, por lo tanto, no son adecuados para datos de clases desequilibradas. Los modelos multiclasificadores funcionan relativamente bien para el problema de desequilibrio de clases en dos clases, ya que los clasificadores individuales que componen el conjunto pueden incluir versiones de los enfoques de sobremuestreo y el desplazamiento del umbral [2] 2. ANTECEDENTES En este apartado se presenta un resumen de los trabajos relacionados con la detección de bots en el comercio electrónico. Se hace énfasis en las diferentes variantes de algoritmos empleados, además se presentación los principios fundamentales para la construcción de multiclasificadores y la descripción de las técnicas más comunes. 2.1. Trabajos relacionados Entre las diferentes variantes de enfoques de detección de bots, el aprendizaje automático es el más común. En este campo de aplicación son empleadas todas las variantes de algoritmos: no supervisados, semi-supervisados y supervisados, siendo estos últimos los más frecuentes. La adopción del tipo de algoritmo está directamente asociada a las características propias del aprendizaje supervisado con respecto al problema de detección de bots. Entre los algoritmos de aprendizaje supervisado para la detección de bots el más utilizado es Random Forest [3]–[5]. Adicionalmente, existen otros enfoques, en los estudios de detección de bots en el comercio electrónico que se presentan a continuación:  En [6] se emplea un enfoque bayesiano de análisis de clústeres con accuracy mayor de 90%  En [7] se implementaron algoritmos de Red Neuronales Artificiales (ANN, del inglés, Artificial Neural Networks) para la detección de scraping bots en sitios web de comercio electrónico, donde se ha logrado un rendimiento (valores de las métricas de rendimiento de clasificación como, accuracy, precision, f-score, recall) no superior a 95%.  En los estudios [8], [9] se emplean otras variantes de ANNs. El aprendizaje no supervisado tiene una habilidad particular para detectar patrones ocultos en los datos.  En [10] se emplea el algoritmo K-Medios que incluso su rendimiento sobrepasó los clasificadores basados en Perceptrón Multicapas (MLP, del inglés, Multi-Layer Perceptrón) y de Máquinas de Soporte Vectorial (SVM, del inglés, Support Vector Machine).  Del mismo modo en [11] se emplea un algoritmo de Cuello de Botella de Información Aglomerativa (AIB, del inglés, Agglomerative Information Bottleneck).  En [12] se emplean arboles de decisión (DT, del inglés, Decision Tree) y un enfoque basado en reglas para clasificar las direcciones IP de bots maliciosos y benignos. Los estudios mencionados en el párrafo anterior tienen la similitud de que los modelos de aprendizaje automático fueron diseñados con características de sesiones de usuarios (extraídas a nivel de sesión y aplicación), donde se incluyen las características semánticas, cuyas representan los contenidos de las solicitudes HTTPs en cada sesión. Además, existen muchos estudios donde los modelos de clasificación para detectar bots, se construyen con características de tráfico web extraídas a nivel de las capas de red y transporte del modelo OSI. 4 2.2. Construcción de conjuntos de clasificadores En [13] se resumen las razones para el diseño de muticlasificadores: Estadística: Si los datos de entrenamiento son pequeños en comparación con el espacio de hipótesis. Si los datos son insuficientes, el algoritmo de aprendizaje puede encontrar variadas hipótesis en H con igual precisión sobre los datos. Si los clasificadores se combinan el algoritmo puede promediar sus votos y reducir el riesgo de seleccionar una hipótesis errónea. Computacional: En entornos donde no hay problema estadístico, como muchos de los algoritmos funcionan por medio de búsquedas locales, esto tiene como consecuencia que dicho algoritmos pueden cometer errores en los máximos locales, lo que puede representar enorme dificultad computacionalmente llegar al objetivo. Pero una combinación de clasificadores cuyas búsquedas locales sean realizadas desde diferentes puntos de partida del espacio de hipótesis, puede llegar a una mejor aproximación que uno de los clasificadores individuales que componen el conjunto. Representación: Mayor parte de las aplicaciones de aprendizaje automático su función real f, no puede ser representada por alguna hipótesis de H, la combinación de clasificadores puede permitir la expansión del espacio H de tal modo que se pueda incluir f en dicho espacio. Se hace referencia también, de algoritmos de ANNs y árboles de decisión (DT, del inglés, Decision Trees) que son muy flexibles en la exploración de todas las hipótesis posibles de determinado espacio. Estas razones están centradas en el hecho de que un conjunto de clasificadores puede representar mayor seguridad de clasificación, o sea, puede ser más preciso que un clasificador individual en un determinado entorno. Al considerar varios clasificadores (del mismo tipo, como de tipos diferentes), le confiere más diversidad (por usar diferentes formas de exploración del campo de hipótesis), en dependencia de la función de decisión del multiclasificador se torna el aporte determinante en la decisión. Es normal que, en determinado entorno, un clasificador individual tenga un rendimiento mejor que un multiclasificador, pero teniendo en cuenta la capacidad de generalización de los modelos para clasificación, un modelo multiclasificador tendrá una respuesta más robusta que un clasificador individual. Existen muchos métodos para generar el conjunto de clasificadores, teniendo en cuenta lo planteado en [13], a continuación se describen algunos métodos que son de propósitos generales. Voto Bayesiano. Aplicable en contextos donde se pueden enumerar las hipótesis hl. y calcular probabilidad “a posteriori” Se centra fundamentalmente en l teorema de Bayes. Manipulación de los ejemplos de entrenamiento. Con la finalidad de generar diferentes hipótesis, el algoritmo puede ser ejecutado varias veces con conjunto de datos diferentes. Esta técnica funciona mejor con algoritmos de aprendizaje inestables, es decir aquellos cuyo modelo resultante puede variar mucho al cambiar en menor grado los ejemplos de entrenamiento. Por ejemplo, los árboles de decisión, las redes de neuronales artificiales y los algoritmos de inducción de reglas, son algoritmos inestables. En cambio, los métodos de regresión lineal y el vecino más cercano, suelen ser muy estables. Manipulación de los atributos de entrada. Se centra en la manipulación de los atributos de entrada disponibles a la hora de utilizar el algoritmo de aprendizaje. Una debilidad de esta técnica es que sólo funciona cuando los atributos de entrada son altamente redundantes. Manipulación de las salidas. En esta técnica el conjunto de clasificador es generado por medio de la manipulación de clase de instancia, como es el caso de la técnica ECOC (error correcting output code). 5 Introducción de aleatoriedad. Otra técnica muy común para la generación de conjuntos consiste en la incorporación de aleatoriedad dentro del algoritmo de aprendizaje. En el estudio [13], no se hace referencia de los conjunto de clasificadores formados por diferentes algoritmos de aprendizaje, centrándose únicamente en multiclasificadores homogéneos. En el estado del arte no hay consenso cuanto a la taxonomía de algoritmos de construcción de multiclasificadores, pero de forma genérica se destacan los métodos de Boosting, Bagging, Voting y Stacking. Los dos primeros de refieren a algoritmos homogéneos cuyos se basan en la manipulación de ejemplos de entrenamiento, y que son el objetivo de este estudio. Bagging es un método que logra la diversidad en función de la aleatoriedad que se introduce en la fase de entrenamiento del modelo, por ejemplo, el muestreo aleatorio con reemplazo es utilizado para generar los subconjuntos de datos de entrenamiento de los clasificadores bases, a su vez las predicciones de los clasificadores bases son combinadas con una función basada en votación o promedio. Del mismo modo, el método Boosting logra la diversidad en el entrenamiento, pero con una estrategia diferente, los modelos clasificadores bases son formados secuencialmente, donde el objetivo del clasificador base posterior seria corregir los errores de clasificación del modelo anterior, o sea, se introduce en su entrenamiento las instancias clasificadas de forma errónea por el clasificador base anterior al actual. 3. MATERIALES Y MÉTODOS El presente trabajo fue desarrollado empleando un enfoque de minería de datos cuyos pasos se describen en los siguientes apartados. Tabla 1 : Características de los escenarios de botnet de CTU-13 (CF: Clics fraudulentos, PS: Escaneo de puertos, FF: FastFlux, US: Compilado y controlado por los desarrolladores)[14]. Id IRC SPAM CF PS DDoS FF P2P US HTTP Note 1 √ √ √ 2 √ √ √ 3 √ √ √ 4 √ √ √ UDP and ICMP DDoS 5 √ √ √ Scan web proxies 6 √ Proprietary C&C, RDP 7 √ Chinese hosts 8 √ Proprietary C&C, Net-BIOS, STUN 9 √ √ √ √ 10 √ √ √ UDP DDoS 11 √ √ √ ICMP DDoS 12 √ Synchronization 13 √ √ √ Captcha, Web mail 3.1. Descripción de los datos Los datos son el componente fundamental para la construcción de modelos basados en aprendizaje automático. Existe bastante escasez de conjuntos de datos de comercio electrónico disponibles en la web, de hecho, la mayor parte de los algoritmos de detección de bots en comercio electrónico del estado del arte son implementados con conjuntos de datos formados a partir de archivos de registro de servidores web, los cuales, no están disponibles por diversas razones. Por otro lado, las plataformas de comercio electrónico son desarrolladas con tecnologías diferentes, lo que reduce la posibilidad de tener un conjunto de datos que sea genérico. CTU-13 es un conjunto de datos de tráfico real de botnet, capturado en la universidad CTU de la Republica Checa en el año 2014, consiste en 13 capturas o escenarios de diferentes muestras de tráfico de 6 botnets y contiene datos de siete diferentes botnets: Neris, Rbot, Virut, Murlo, NSIS, Donbot y Sogou. Cada escenario fue analizado y etiquetado manualmente, la columna ID de la tabla 1 corresponde a los escenarios del conjunto de datos, cuyas características se describen en la misma tabla. 3.2. Preprocesamiento Para adecuar los datos al proceso de minería, se aplicaron un conjunto de procedimientos que visan eliminar irregularidades, inconsistencias y ruidos en los datos, convertir, escalar y reducir de dimensionalidad. El conjunto de datos posee instancias de clases de tráfico de Botnet, Normal y Background. Las clases de Normal y Background fueron tratadas como una sola clase, porque la primera representa el tráfico de usuarios humanos y la segunda es el tráfico propio de la red cuando no existen actividades de usuarios humanos y de bots. Tras la carga y limpieza de los datos, y con el objetivo de garantizar que los algoritmos de clasificación no sean inducidos a atribuir más peso a un atributo con relación los otros, con una técnica de estandarización se estableció una misma escala de valores para atributos. Para la reducción de dimensionalidad se implementó el Análisis de Componentes Principales (PCA, del inglés, Principal Component Analysis), considerando una varianza explicativa acumulada correspondiente a 98%, que resultó en 10 a 12 componentes principales en dependencia del escenario. Se observa también, que los escenarios de CTU-13 son muy desbalanceados, donde la clase positiva (clase de tráfico de botnet) es la clase minoritaria, con un porcentaje máximo inferior a 10% de los ejemplos en un escenario, como se describe en la tabla 2 Tabla 2: Dimensiones de los escenarios de CTU-13 antes y después del preprocesamiento (PCs: Componentes principales). Número de instancias por clase antes del preprocesamiento (con 14 atributos) Fases del preprocesamiento Porcentaje de la clase minoritaria Limpieza e integración Transformación y selección Id Botnet Normal Total Instancias PCs 1 40961 2783675 2824636 2824636 11 1.45% 2 20941 1787181 1808122 1808122 11 1.15% 3 26822 4683816 4710638 4710638 11 0.57% 4 2580 1118496 1121076 1121076 11 0.23% 5 901 128931 129832 129832 11 0.70% 6 4630 554289 558919 558919 11 0.83% 7 63 114014 114077 114077 11 0.05% 8 6127 2948103 2954230 2954230 11 0.20% 9 184987 1902521 2087508 2087508 12 8.45% 10 106352 1203439 1309791 1309791 10 8.11% 11 8164 99087 107251 107251 10 7.61% 12 2168 323303 325471 325471 11 0.67% 13 40003 1885146 1925149 1925149 11 2.07% 3.3. Diseño de experimento Tras el conjunto de tareas a las que fueron sometidos los datos en la etapa de preprocesamiento, para la validación de los algoritmos de multiclasificadores homogéneos, se realiza un diseño experimento basado en determinar los modelos multiclasificadores adecuados para clasificar el tráfico de usuarios de humanos y de bots con base a métricas de rendimiento. El proceso consistió en las siguientes actividades:  Construcción individual de algoritmos supervisados. En este experimento se busca encontrar un modelo clasificador individual de referencia (según los algoritmos supervisados de la tabla 3), para posteriormente compararlo con los modelos multiclasificadores Bagging y AdaBoosting. 7  Construcción de ensambles. Se construyen los ensambles Bagging y AdaBoosting considerando como estimadores los algoritmos supervisados de la tabla 3, y se busca encontrar el modelo ensamble más adecuado para clasificar el tráfico normal e de botnet.  Comparación con el estado del arte. Se comparan los resultados de los mejores modelos ensambles con los enfoques del estado del arte donde se emplea el mismo conjunto de datos. Tabla 3: Algoritmos de aprendizaje supervisado seleccionados. Tipo Variante Identificador Regresión logística Logística LR Modelos lineares Descenso de gradientes estocástico SGD Árbol de decisión Cart CART ExtraTree EXTRA Red bayesiana Naive Bayes NAIVE Basado en instancias k-vecinos más cercanos KNN Máquinas de soporte vectorial LinearSVC LSVC Red neuronal artificial Perceptrón multicapas MLP 4. RESULTADOS Y DISCUSIÓN Antes del empleo de los ensambles, se evaluaron de forma individual los algoritmos de aprendizaje supervisado mencionados en la tabla 3. Para la evaluación del rendimiento de los algoritmos, se empleó la métrica puntuación F1, cuya permite tener una noción más precisa de la influencia de los falsos positivos y falsos negativos en escenarios desbalanceados. Con la referida métrica se puede verificar que los valores F1 = 0.00 implican que el algoritmo no logro clasificar correctamente ningún ejemplo de la clase positiva (clase de tráfico de Botnet). Tabla 4: Desempeño de los clasificadores individuales según la métrica puntuación F1. La columna ID corresponde a los escenarios de CTU-13 mencionados en la tabla 1. Las celdas con valores en negrita, corresponden a los menores rendimientos alcanzados por los algoritmos de aprendizaje en el respectivo escenario (entr: Entrenamiento, test: Test). Clasificadores LR EXTRA SGD CART NAIVE KNN LSVC MLP ID entr test entr test entr test entr test entr test entr test entr test entr test 1 0.27 0.27 1.00 0.96 0.00 0.00 1.00 0.97 0.08 0.08 0.97 0.96 0.27 0.26 0.91 0.90 2 0.03 0.02 1.00 0.88 0.00 0.00 1.00 0.90 0.20 0.20 0.91 0.88 0.02 0.02 0.80 0.79 3 0.00 0.00 1.00 0.99 0.00 0.00 1.00 0.99 0.08 0.08 0.99 0.98 0.00 0.00 0.96 0.96 4 0.22 0.24 1.00 0.96 0.01 0.03 1.00 0.97 0.03 0.03 0.96 0.96 0.05 0.04 0.67 0.69 5 0.27 0.25 1.00 0.91 0.62 0.64 1.00 0.94 0.20 0.20 0.94 0.93 0.00 0.00 0.66 0.68 6 0.00 0.00 1.00 0.96 0.00 0.00 1.00 0.97 0.33 0.35 0.96 0.94 0.00 0.00 0.90 0.90 7 0.00 0.00 1.00 0.56 0.00 0.00 1.00 0.65 0.04 0.02 0.77 0.54 0.00 0.00 0.00 0.00 8 0.00 0.00 1.00 0.97 0.00 0.00 1.00 0.97 0.10 0.10 0.97 0.96 0.00 0.00 0.93 0.93 9 0.83 0.83 1.00 0.97 0.84 0.84 1.00 0.98 0.46 0.46 0.98 0.97 0.84 0.84 0.94 0.94 10 0.95 0.95 1.00 1.00 0.95 0.95 1.00 1.00 0.93 0.93 1.00 1.00 0.95 0.95 1.00 1.00 11 0.98 0.99 1.00 1.00 0.99 0.99 1.00 1.00 0.86 0.85 1.00 1.00 0.99 0.99 1.00 1.00 12 0.00 0.00 1.00 0.74 0.00 0.00 1.00 0.73 0.06 0.06 0.81 0.76 0.00 0.00 0.51 0.45 13 0.39 0.40 1.00 0.98 0.00 0.00 1.00 0.98 0.20 0.20 0.99 0.98 0.35 0.36 0.94 0.93 Promedio del rendimiento 0.30 0.30 1.00 0.91 0.26 0.27 1.00 0.93 0.27 0.27 0.94 0.91 0.27 0.27 0.79 0.78 8 Los resultados de la evaluación individual de los algoritmos supervisados en la tabla 4, demuestran una tendencia de bajo rendimiento en los escenarios con un desbalance de clases severo, como los escenarios 6, 7, 8 y 12. Mientras que los escenarios 10 y 11 fueron los más favorables, donde los todos los algoritmos lograron un rendimiento no inferior a 85%. Los clasificadores basados en los algoritmos ExtraTree, CART y KNN con los promedios de rendimiento (usando el conjunto de test) de 91%, 93% y 91% respectivamente, han presentado mejor estabilidad del rendimiento en los diferentes escenarios. Tabla 5: Desempeño del modelo Bagging según la métrica puntuación F1. La columna ID corresponde a los escenarios de CTU-13 mencionados en la tabla 1. Las celdas con valores en negrita, corresponden a los mayores rendimientos alcanzados por los algoritmos de aprendizaje. Multiclasificadores Bag-LR Bag-EXTRA Bag-SGD Bag-CART Bag-NAIVE Bag-KNN Bag-LSVC Bag-MLP ID entr test entr test entr test entr test entr test entr test entr test entr test 1 0.27 0.27 1.00 0.97 0.00 0.00 1.00 0.98 0.08 0.08 0.97 0.97 0.27 0.26 0.92 0.92 2 0.02 0.02 0.99 0.90 0.00 0.00 0.99 0.92 0.02 0.02 0.91 0.88 0.00 0.00 0.80 0.80 3 0.00 0.00 1.00 1.00 0.00 0.00 1.00 0.99 0.08 0.08 0.99 0.99 0.00 0.00 0.97 0.97 4 0.20 0.20 1.00 0.97 0.10 0.08 1.00 0.98 0.03 0.03 0.96 0.95 0.50 0.40 0.71 0.74 5 0.34 0.26 0.99 0.94 0.62 0.60 0.99 0.93 0.20 0.18 0.96 0.93 0.00 0.00 0.67 0.70 6 0.00 0.00 1.00 0.96 0.00 0.00 1.00 0.98 0.36 0.37 0.96 0.95 0.00 0.00 0.89 0.89 7 0.00 0.00 0.96 0.69 0.00 0.00 1.00 0.78 0.04 0.04 0.71 0.73 0.00 0.00 0.00 0.00 8 0.00 0.00 1.00 0.98 0.00 0.00 1.00 0.98 0.10 0.09 0.97 0.96 0.00 0.00 0.93 0.92 9 0.83 0.84 1.00 1.00 0.84 0.84 1.00 0.99 0.44 0.46 0.98 0.97 0.84 0.84 0.94 0.94 10 0.95 0.95 1.00 1.00 0.95 0.95 1.00 1.00 0.93 0.92 1.00 1.00 0.95 0.95 1.00 1.00 11 0.98 0.98 1.00 0.98 0.99 0.99 1.00 1.00 0.86 0.85 1.00 1.00 0.99 0.99 1.00 1.00 12 0.00 0.00 0.97 0.77 0.00 0.00 0.97 0.73 0.05 0.05 0.81 0.72 0.00 0.00 0.38 0.34 13 0.39 0.39 1.00 0.99 0.00 0.00 1.00 0.99 0.02 0.02 0.99 0.98 0.39 0.38 0.94 0.94 Promedio del rendimiento 0.31 0.30 0.99 0.93 0.27 0.27 1.00 0.94 0.25 0.25 0.94 0.93 0.30 0.29 0.78 0.78 Tabla 6: Desempeño del modelo AdaBoosting según la métrica Puntuación F1. La columna ID corresponde a los escenarios de CTU-13 mencionados en la tabla 1. Las celdas con valores en negrita, corresponden a los mayores rendimientos alcanzados por los algoritmos de aprendizaje. Multiclasificadores Ada-LR Ada-EXTRA Ada-SGD Ada-CART Ada-NAIVE Ada-LSVC ID entr test entr test entr test entr test entr test entr test 1 0.00 0.00 1.00 0.96 0.51 0.51 0.60 0.60 0.09 0.09 0.00 0.00 2 0.01 0.01 1.00 0.88 0.00 0.00 0.48 0.49 0.20 0.20 0.10 0.10 3 0.00 0.00 1.00 1.00 0.00 0.00 0.83 0.83 0.07 0.08 0.00 0.00 4 0.00 0.00 1.00 0.98 0.00 0.00 0.36 0.35 0.08 0.08 0.10 0.12 5 0.07 0.08 1.00 0.90 0.00 0.00 0.61 0.61 0.30 0.30 0.54 0.54 6 0.00 0.00 1.00 0.96 0.00 0.00 0.86 0.86 0.36 0.36 0.00 0.00 7 0.00 0.00 1.00 0.67 0.00 0.00 0.83 0.63 0.00 0.00 0.00 0.00 8 0.00 0.00 1.00 0.97 0.00 0.00 0.54 0.55 0.10 0.10 0.00 0.00 9 0.80 0.80 1.00 0.98 0.73 0.74 0.88 0.88 0.45 0.45 0.54 0.54 10 0.92 0.92 1.00 1.00 0.89 0.89 0.97 0.97 0.93 0.93 0.91 0.91 11 0.98 0.98 1.00 1.00 0.91 0.91 0.99 0.99 0.95 0.95 0.95 0.95 12 0.00 0.00 1.00 0.76 0.00 0.00 0.00 0.00 0.04 0.05 0.00 0.00 13 0.14 0.14 1.00 0.98 0.00 0.00 0.82 0.82 0.21 0.21 0.29 0.29 Promedio del rendimiento 0.22 0.23 1.00 0.93 0.23 0.23 0.67 0.66 0.29 0.29 0.26 0.27 9 Fig. 1: Representación del intervalo de valores que la métrica puntuación F1 para los modelos multiclasificadores seleccionados considerando los escenarios de CTU-13 (figura a la izquierda). Valor promedio de las métricas de rendimiento de los modelos seleccionados (imagen a la derecha). En ambos casos empleando el conjunto de datos de test. En las tablas 5 y 6 se describe el comportamiento de los ensambles Bagging y Adaboosting respectivamente. En los resultados de la evaluación del modelo Bagging, se mantiene la tendencia anterior de la evaluación individual de los algoritmos, donde se destacan los modelos basados en ExtraTree, CART y KNN con los rendimientos promedios de 93%, 94% y 93% respectivamente (para el conjunto de datos de test). Se evidencia un crecimiento mínimo de 1% y máximo de 2% del promedio de rendimiento. Para el modelo Adaboosting, los estimadores ExtraTree y CART presentaron los mejores rendimientos promedios de 93% y 66% respectivamente, lo que representa un descenso de rendimiento del clasificador basado en CART de evaluación individual. En la figura 1, se representan el comportamiento de los modelos que ha alcanzado mejor rendimiento. Los patrones atípicos en las gráficas, en relacionados a valores de puntuación F1 que están fuera da normalidad del conjunto de valores hallados en los 13 escenarios. Teniendo en cuenta los factores seleccionados para experimento, se pudo confirmar la influencia de ambos en rendimiento de un modelo clasificador, individual o multiclasificador. Los escenarios más complejos o donde se obtuvo muy poco rendimiento, tienen características similares, ya que están conformados fundamentalmente por tráficos de ataques de botnets, que son: Escaneo de puertos (PS), tráfico P2P y HTTP, y se puede asociar el hecho de que sean escenarios con acentuado desequilibrio de clases. Los resultados sugieren que los algoritmos de aprendizaje supervisados bases o individuales son la parte importante para el rendimiento del un modelo multiclasificador homogéneo, pues se mantuvo estable la tendencia de comportamiento de los clasificadores individuales en los multiclasificadores homogéneos. Del mismo modo, el mecanismo de ensamble, puede influir negativa o positivamente, ya que, se puede observar en la tabla 6, que con el modelo Adaboosting, el rendimiento mínimo para los mejores modelos, descendió en 20%. 10 4.1. Comparación con los algoritmos del estado del arte En esta sección se comparan algunas propuestas del estado del arte donde se emplea el conjunto de datos CTU-13, que es muy utilizado enfoques genéricos de detección de tráfico de Botnet. La comparación se describe en la tabla 7. Tabla 7: Comparación con los resultados de los enfoques del estado del arte. Referencia Algoritmos Breve descripción Rendimiento (%) [15] Random Forests Ensemble homogeneo Exactitud = 98.83 [16] Bot-AHGCN Basado en redes neuronales profundas. Puntuación F1 = 98.48 [17] SOM Enfoque basado en grafos Exactitud = 99.95 [18] Naive Bayes Enfoque Bayesiano Exactitud = 19.43 Rule base table Enfoque basado en reglas Exactitud = 87.79 ID3 Árbol de decisión Exactitud = 90.27 Presente trabajo Bagging y Adaboosting Empleando estimados basados En ExtraTree, CART, y KNN. Exactitud = 100 Precisión = 97 Recall = 92 Puntuación F1 = 94 5. CONCLUSIONES En el presente trabajo se obtuvieron 4 modelos multiclasificadores para predecir el tráfico de diferentes botnets, basados en tráficos de IRC, SPAM, clics fraudulentos (CF), escaneo de puertos (PS), denegación de servicio (DDoS), FastFlux (FF), peer-to-peer(P2P), compilado y controlado por los desarrolladores (US) y HTTP. Tres modelos se obtuvieron empleando el algoritmo Bagging con estimadores basados en los algoritmos ExtraTree, Cart y KNN (Bag-EXTRA, Bag-CART, Bag-KNN), y con el algoritmo Adaboosting con el estimador basado en ExtraTree (Ada-EXTRA). Por otro lado, hay una influencia significativa del tipo de algoritmo supervisado usado como estimador en el rendimiento del ensamble. Siendo el escenario 7 el más severo en desbalance de clases, se verificó un descenso significativo de rendimiento de los ensambles, lo que implica poca efectivad de los ensambles cuando el desbalance de clase es severo. 6. TRABAJOS FUTUROS Para el trabajo futuro, se planea enfocarlo en la captura de datos en una plataforma web de comercio electrónico real y la construcción de un sistema de detección, con dos fases de detección basado en meta- aprendizaje, utilizando los algoritmos Proative Forests y multiclasificadores hibridos. REFERENCIAS [1] Imperva, «2022 Imperva Bad Bot Report - Evasive Bots Drive Online Fraud», 2022. [2] J. Han, M. Kamber, y J. Pei, «Data mining concepts and techniques, third edition». Morgan Kaufmann Publishers, Waltham, Mass., 2012. [3] S. Garcia et al., «Artificial Intelligence - A Modern Approach», Comput. Secur., vol. 8, n.o 1, pp. 1-6, oct. 2020, doi: 10.1007/s11416-020-00368-6. [4] J. Barbon S., G. F. C. Campos, G. M. Tavares, R. A. Igawa, J. Proença M.L., y R. C. Guido, «Detection of human, legitimate bot, and malicious bot in online social networks based on wavelets», ACM Trans. Multimed. Comput. Commun. Appl., vol. 14, n.o 1s, 2018, doi: 10.1145/3183506. [5] M. Singh, M. Singh, y S. Kaur, «Detecting bot-infected machines using DNS fingerprinting», Digit. Investig., vol. 28, pp. 14-33, 2019, doi: https://doi.org/10.1016/j.diin.2018.12.005. 11 [6] G. Suchacka y M. Sobków, «Detection of Internet Robots Using a Bayesian Approach», IEEE, 2015. [7] R. U. Rahman y D. S. Tomar, «Threats of price scraping on e-commerce websites: attack model and its detection using neural network», J. Comput. Virol. Hacking Tech., vol. 17, n.o 1, pp. 75- 89, 2020, doi: 10.1007/s11416-020-00368-6. [8] G. Suchacka, A. Cabri, S. Rovetta, y F. Masulli, «Efficient on-the-fly Web bot detection», Knowledge-Based Syst., vol. 223, p. 107074, 2021, doi: https://doi.org/10.1016/j.knosys.2021.107074. [9] A. Cabri, G. Suchacka, S. Rovetta, y F. Masulli, «Online Web Bot Detection Using a Sequential Classification Approach», 2018 IEEE 20th Int. Conf. High Perform. Comput. Commun. IEEE 16th Int. Conf. Smart City; IEEE 4th Intl. Conf. Data Sci. Syst., 2018, doi: 10.1109/HPCC/SmartCity/DSS.2018.00252. [10] S. Rovetta, G. Suchacka, y F. Masulli, «Bot recognition in a Web store: An approach based on unsupervised learning», J. Netw. Comput. Appl., vol. 157, p. 102577, 2020, doi: https://doi.org/10.1016/j.jnca.2020.102577. [11] G. Suchacka y J. Iwanski, «Identifying legitimate Web users and bots with different traffic profiles — an Information Bottleneck approach», Knowledge-Based Syst., vol. 197, p. 105875, 2020, doi: https://doi.org/10.1016/j.knosys.2020.105875. [12] H. X. B et al., «Detecting and Characterizing Web Bot Traffic in a Large E-commerce Marketplace», ESORICS 2018, vol. 1, pp. 143-163, 2018, doi: 10.1007/978-3-319-98989-1. [13] T. G. Dietterich, «Ensemble Methods in Machine Learning», en Multiple Classifier Systems, 2000, pp. 1-15. [14] S. Garcia, M. Grill, J. Stiborek, y A. Zunimo, «An empirical comparison of botnet detection methods», Comput. Secur. Journal, Elsevier, vol. 45, pp. 100-123, 2014, doi: http://dx.doi.org/10.1016/j.cose.2014.05.011. [15] D. P. Echevarría, M. M. Espino, H. D. Pando, y H. J. Chissingui, «COMERCIO ELECTRÓNICO RANDOM FOREST FOR BOT DETECTION IN E-COMERCE», Infomática - XVIII Conv. Y FERIA Int., 2022. [16] J. Zhao, X. Liu, Q. Yan, B. Li, M. Shao, y H. Peng, «Multi-attributed heterogeneous graph convolutional network for bot detection», Inf. Sci. (Ny)., vol. 537, pp. 380-393, 2020, doi: https://doi.org/10.1016/j.ins.2020.03.113. [17] A. A. Daya, M. A. Salahuddin, N. Limam, y R. Boutaba, «A Graph-Based Machine Learning Approach for Bot Detection», IFIP/IEEE Int. Symp. Integr. Netw. Manag. Washingt. DC, USA, April 2019, n.o April, 2019. [18] S. Haq y Y. Singh, «Botnet Detection using Machine Learning», en 2018 Fifth International Conference on Parallel, Distributed and Grid Computing (PDGC), 2018, pp. 240-245. doi: 10.1109/PDGC.2018.8745912. Sobre los autores Hélder João Chissingui. Graduado en Ingeniería de telecomunicaciones en el Instituto Superior Técnico Militar – ISTM/Luanda en 2014, en el mismo año empezó su carrera docente en la misma institución, en el departamento de electrotecnia, donde impartió las asignaturas de Propagación de ondas electromagnéticas, Antenas y Microondas. Actualmente cursa la maestría en Informática Aplicada en la universidad Tecnología de la Habana José A. Echeverria- Cujae, La Habana, Cuba. Humberto Díaz Pando. Graduado de Ingeniería Informática en el año 2006 y de Máster en Informática Aplicada en el 2009, en la Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE. En el 2014 obtuvo el grado de Doctor en Ciencias en la Universidad de Alicante, España. Actualmente trabaja como Profesor Auxiliar en la CUJAE. Sus áreas de interés en la investigación radican en la Seguridad Informática, modelado de amenazas y en los métodos de protección para mitigar las amenazas en la información y sistemas. ALGORITMO PARA LA DETECCIÓN DE CAÍDAS COLOCANDO UN SENSOR INERCIAL EN LA CABEZA. Adriana Maria Companioni Rodríguez1, Fidel Ernesto Hernández Montero2, 3 Elías Osmany García Alvaredo 1 Cujae, Facultad de Telecomunicaciones y Electrónica, 2 Cujae, Facultad de Telecomunicaciones y Electrónica, 3 Cujae, Facultad de Telecomunicaciones y Electrónica. 1acampanionir@cujae.edu.cu: RESUMEN En este artículo se propone como objetivo desarrollar un algoritmo efectivo, confiable y de bajo costo computacional, capaz de detectar caídas a partir de datos obtenidos por un sensor IMU (Unidad de Medición Inercial) colocado en la cabeza, orientado fundamentalmente a una aplicación en ancianos. Para ello se realizó un análisis del comportamiento de la varianza de la magnitud de aceleración en el tiempo, tanto para señales de caída como para las de no caída, y se implementó un algoritmo basado en umbrales de varianza y tiempo. Para la validación del mismo se utilizó la base de datos Simulated Falls and Daily Living Activities Dataset, disponible públicamente, que cuenta con diferentes tipos de caídas y actividades de la vida diaria. Los resultados fueron obtenidos con una precisión de 93,07%; 98,82% de sensibilidad; 90,81% de especificidad y 95,26% de exactitud. PALABRAS CLAVES: caídas, sensores inerciales, varianza, tiempo. ALGORITHM FOR FALL DETECTION BY PLACING AN INERTIAL SENSOR ON THE HEAD. ABSTRACT The objective of this article is to develop an effective, reliable and low computational cost algorithm, capable of detecting falls from data obtained by an IMU (Inertial Measurement Unit) sensor placed on the head, fundamentally oriented to an application in the elderly. . For this, an analysis of the behavior of the variance of the magnitude of acceleration over time was carried out, both for falling and non-falling signals, and an algorithm based on variance and time thresholds was implemented. For its validation, the publicly available Simulated Falls and Daily Living Activities Dataset was used, which has different types of falls and activities of daily living. The results were obtained with an accuracy of 93.07%; 98.82% sensitivity; 90.81% specificity and 95.26% accuracy. KEY WORDS: falls, inertial sensors, variance, time. 1. INTRODUCCIÓN. Actualmente a nivel mundial se está experimentando un incremento de la población envejecida y por ende constituye un reto importante para los diferentes países garantizar que sus sistemas sanitarios y sociales estén preparados para afrontar tal cambio demográfico [1]. Cuba no está exenta de esto, las personas mayores de 60 años representan el 21,3% de la población total según datos estadísticos actuales y además para el año 2050 se espera una relación de 2360 ancianos por cada mil niños y jóvenes [2]. Los adultos mayores son especialmente sensibles a disminuir su capacidad locomotora por lo que son más propensos a experimentar la caída, la cual es definida por La organización Mundial de la Salud (OMS) como la consecuencia de cualquier acontecimiento que precipita a la persona al suelo contra su voluntad [3]. Las tecnologías implementadas para la detección de caídas permiten una intervención rápida de ayuda para las personas que han sufrido este evento; existen tres categorías principales de los dispositivos empleados: basados en la visión, ambientales y portátiles [4]. Estos últimos son escogidos por muchos investigadores, debido a los avances en la tecnología de sistemas microelectromecánicos (MEMS – del inglés Microelectromechanical Systems). Esta ha permitido la integración de acelerómetros, giroscopios y magnetómetros en pequeñas unidades de sensores de movimiento, resultando económicos y de bajo el consumo de energía, además de que permiten el reconocimiento de la actividad humana con precisión siendo mínimamente intrusivos [4] [5]. Estos pueden colocarse en diferentes partes del cuerpo ofreciendo comodidad a los usuarios y protección y estabilidad al dispositivo. Se han alcanzado resultados de ubicar dispositivos portátiles en la cabeza que demuestran que esta constituye una alternativa más adecuada en relación a otras alternativas más tradicionales (dispositivos en las muñecas, en la cintura, etc.) [6]. Este enfoque, unido al empleo de dos métodos fundamentales para la detección de caídas: basados en umbrales del vector de magnitud y clasificadores de patrones, resulta un área de investigación muy activa [7]. Precisamente el trabajo que se presenta intenta contribuir a los resultados que en este contexto se han obtenido. Varios han sido los trabajos realizados. Ching y colaboradores [8] proponen un sistema capaz de monitorear el aumento repentino de la aceleración y la orientación de la cabeza del usuario para detectar caídas. Los resultados se obtienen con una precisión del 95,44 %. En otra investigación realizada por estos autores[9] adoptan un filtro de Madgwick para mejorar la precisión de la estimación de orientación, obteniendo una sensibilidad del 96,67% y una especificidad del 98,27%. Sin embargo, en ambos casos los datos que se utilizan para validar los algoritmos presentan muy poca diversidad, puesto que se utiliza un grupo muy selecto de tipos de caídas y actividades de la vida diaria. Esto también se manifiesta en el estudio de Kangas [10], además de que las actividades se realizan solamente por dos voluntarios; los resultados de este trabajo reflejaron 100% de sensibilidad y especificidad. Otras investigaciones utilizan técnicas de reconocimiento de patrones, como es el caso de [11], que emplea el algoritmo de vecino más cercano (k-NN del inglés k-Nearest Neighbor) y Árboles de decisión, obteniendo sensibilidades de 92.84% y 91.06%, respectivamente. Turán Özdemir [12] propone la aplicación de Support Vector Machine y Redes Neuronales Artificiales (ANN – del inglés Artificial Neural Networks), en los que se obtienen resultados con precisiones de 94.2% y 96.08%, respectivamente. Estos métodos requieren de un elevado coste computacional para su implementación. En general se puede decir que los métodos que se han aplicado para detectar caídas colocando los dispositivos en la cabeza o no exhiben confiabilidad (se han validado utilizando una baja diversidad de datos), o requieren de un costo computacional significativo (se aplican técnicas de reconocimiento de patrones), como para ser implementados en sistemas microelectrónicos, por ejemplo. El objetivo de la presente investigación es desarrollar un algoritmo efectivo y de mayor confiabilidad (que sea validado utilizando datos con amplia diversidad de casos) capaz de detectar de caídas a partir de datos obtenidos por un sensor IMU (Unidad de Medición Inercial) colocado en la cabeza, que no exija un costo computacional elevado (no aplique técnicas de reconocimiento de patrones). En este trabajo, los aspectos generales referentes a los dispositivos utilizados se presentan en la Sección 2, en la Sección 3 se presenta el algoritmo propuesto, mientras que la metodología llevada a cabo para validarlo y los resultados obtenidos son contemplados en las Secciones 4 y 5, respectivamente, y por último se presentan las conclusiones. 2. UNIDAD DE MEDICIÓN INERCIAL Una Unidad de Medición Inercial (IMU - del inglés Inertial Measurement Unit), es un dispositivo electrónico que generalmente cuenta con acelerómetros, giroscopios y magnetómetros, además de microcontroladores para procesar las mediciones recopiladas y módulos de comunicación que permiten enviar la información de forma ordenada a un agente externo, por ejemplo, una computadora [13] . Un acelerómetro es un sensor electrónico que mide las fuerzas de aceleración que actúan sobre un objeto para determinar su posición en el espacio y monitorear el movimiento del mismo [14] [15]. Entre los principales tipos de acelerómetros se encuentran: piezoeléctricos, piezorresistivos y capacitivos, siendo estos últimos los más comúnmente utilizados. Los acelerómetros capacitivos usan el cambio en la capacitancia eléctrica para determinar la aceleración de un objeto; cuando el sensor sufre una aceleración varía la distancia entre las placas de su condensador [16]. Los giroscopios son dispositivos que miden la velocidad angular de un cuerpo. Su principio de funcionamiento se basa en el efecto Coriolis [14]. Dado un sistema de referencia inercial que rota y un objeto que se mueve con respecto a ese sistema, el objeto sufrirá una fuerza inercial que es ortogonal al eje de rotación del sistema y a la velocidad del objeto, provocando que el mismo tenga una desviación en su trayectoria [17] . Los magnetómetros miden el campo magnético en un punto determinado. Los sensores magnéticos se pueden clasificar según si miden el campo magnético total o los componentes vectoriales del campo magnético. Las técnicas utilizadas para producir ambos tipos de sensores magnéticos abarcan muchos aspectos de física y electrónica, algunas de estas son: fluxgate, efecto Hall, magnetoresistencia entre otros [18]. Los sensores inerciales son ampliamente utilizados en áreas de atención médica y rehabilitación, ya que son capaces de evaluar y monitorear actividades y síntomas de un trastorno del movimiento humano en particular; por ejemplo, la enfermedad de Parkinson, también para controlar los patrones de marcha, parámetros de la zancada y sistemas de detección de caídas [13]. 3. ALGORITMO PROPUESTO PARA LA DETECCIÓN DE CAÍDAS UTILIZANDO UN SENSOR IMU COLOCADO EN LA CABEZA. El algoritmo propuesto para detectar caídas fue desarrollado sobre la concepción de una máquina de estados. Este se basó en el análisis del vector de magnitud de aceleración, a partir del desplazamiento de una ventana (de tamaño igual a 3 segundos, pues se pudo determinar que en general la duración de la manifestación de una caída en la señal de aceleración no sobrepasa ese tiempo) y la determinación de la varianza y de determinados intervalos de tiempo. El vector de magnitud de la aceleración se determinó a través de la siguiente ecuación: (1) donde: Aceleración en el eje “X”. Aceleración en el eje “Y”. Aceleración en el eje “Z”. Magnitud del vector aceleración. El algoritmo propuesto para detectar caídas parte del cálculo de la varianza por cada ventana. Seguidamente se comprueba si la varianza supera un determinado umbral (umbralV1), lo cual estaría significando la ocurrencia de un evento que manifestó un elevado estrés físico en un corto tiempo; si fuera el caso, se lanza una porción del algoritmo, la cual se muestra en la Figura 1. En este caso, se acumula el tiempo en el que la varianza se mantiene por encima de dicho umbral. Si ese tiempo es menor que cierto valor (umbralT1), se determina que ha ocurrido una caída. De lo contrario, se vuelve al punto de partida. ¿varianza > umbralV1? Pasó umbralV1 Acumular tiempo SÍ NO ¿tiempoAc < umbralT1? ¿varianza < umbralV1? SÍ CAÍDA SÍ Tiempo largo con alta varianza ¿varianza < umbralV1? NO NO SÍ NO Estado Inicial NO Fig 1. Diagrama de flujo del algoritmo. Varianza mayor que umbralV1. Para tener en cuenta la ocurrencia de caídas que pudieran generar valores de varianza menos significativos (menores que umbralV1), por ejemplo, el caso de los síncopes, si la varianza no supera umbralV1, se lanza el algoritmo mostrado en la Figura 2, y en este caso, se realiza un procedimiento similar al anterior solo que se utilizan valores diferentes de umbrales de varianza (umbralV2) y tiempo (umbralT2). ¿varianza > umbralV2? Pasó umbralV2 Acumular tiempo SÍ NO ¿tiempoAc < umbralT2? ¿varianza < umbralV2? SÍ CAÍDA SÍ Tiempo largo con alta varianza ¿varianza < umbralV2? NO NO SÍ NO Estado Inicial NO Fig 2. Diagrama de flujo del algoritmo. Varianza menor que umbralV1. 4. MATERIALES Y MÉTODOS. Para validar el algoritmo propuesto, se utilizó la base de datos Simulated Falls and Daily Living Activities Dataset [19]. Esta contiene datos generados por sensores IMU colocados en diferentes partes del cuerpo (entre ellas la cabeza) de 17 voluntarios con edades entre 19 y 27 años, considerándose una base de datos con una amplia diversidad de datos. Cada sensor incluyó acelerómetros, giroscopios y magnetómetros triaxiales. La información de este conjunto de datos fue obtenida a partir de un Kit de Seguimiento de Movimiento Xsens MTw [20]. La frecuencia de muestreo aplicada fue de 25 Hz. La base de datos contempló información referente a 36 movimientos distintos, divididos en 20 tipos de caídas y 16 actividades de la vida diaria. Todas estas actividades fueron realizadas 5 veces por cada uno de los participantes, resultando en un total de 3060 instancias. Para medir el rendimiento del algoritmo se determinaron métricas basadas en la matriz de confusión, la cual brinda información relacionada con los siguientes parámetros [21]:  Verdaderos Positivos (TP - del inglés True Positive).  Verdaderos Negativos (TN - del inglés True Negative)  Falsos Positivos (FP - del inglés False Positive).  Falsos Negativos (FN - del inglés False Negative). Dentro de las métricas numéricas más comunes basadas en la matriz de confusión se encuentran la precisión, sensibilidad, especificidad y exactitud [21]. La precisión se determina como la proporción entre verdaderos positivos y la suma de verdaderos positivos y falsos positivos [22]. En la práctica constituye el porciento de caídas detectadas, y se determina a través de la siguiente ecuación: (2). La sensibilidad es la proporción de casos positivos que fueron correctamente identificadas por el algoritmo, es decir, la capacidad de detectar una caída [22]. La sensibilidad está dada por la relación entre el número de caídas detectadas y el total de caídas que ocurrieron, como se aprecia en la siguiente ecuación: (3). La especificidad se refiere al porciento de los casos negativos que el algoritmo ha clasificado correctamente [22] y se define como se expresa a continuación: (4). La exactitud representa el porciento de predicciones positivas que fueron correctas, es decir, la capacidad de distinguir entre caídas y las actividades de la vida diaria [22]. (5). Para definir los umbrales umbralV1, umbralV2, umbralT1 y umbralT2, asociados al algoritmo, se trabajó con la base datos, y se aplicó el algoritmo evaluando las métricas resultantes para diferentes valores de dichos umbrales. Los valores de umbrales con los que se obtengan los mejores resultados se definen como los seleccionados a ser utilizados. 5. RESULTADOS El método para encontrar los umbrales utilizados en el algoritmo propuesto para la detección de caída arrojó los resultados que se muestran en la Tabla 1. Estos resultados se orientaron al logro de la mayor efectividad en el caso en que ocurriera una caída. Es decir, se buscaron los umbrales que arrojaran el valor más alto de Sensibilidad, que se refiere a la capacidad de detectar la ocurrencia de caídas. Tabla 1. Definición de los umbrales empleados en el algoritmo propuesto para detectar caídas. umbralV1( ) umbralT1(s) umbralV2( ) umbralT2(s) 4.45 6.00 0.60 3.75 A partir de los valores reflejados en la tabla 1 se validó el algoritmo mediante las métricas basadas en la matriz de confusión, utilizando la base de datos descritas previamente. Los resultados obtenidos se reflejan en la Tabla 2. Tabla 2. Resultados obtenidos del algoritmo propuesto. P S Es Ex 93.07% 98.82% 90.81% 95.26% Una comparación de los resultados obtenidos con los obtenidos por otros algoritmos desarrollados para detectar caídas, y que colocan sensores inerciales en la cabeza, es presentada en la Tabla 3. En esta se puede apreciar que los resultados del algoritmo propuesto se encuentran en el orden de los que se han obtenido hasta el momento. Sin embargo, se debe hacer notar que el algoritmo que se propone incluye al mismo tiempo dos características muy significativas que prácticamente ninguna otra aplicación similar contiene: bajo costo computacional y validación empleando una base de datos bien diversa. Tabla 3. Comparación de los resultados del algoritmo propuesto con otros algoritmos. Algoritmo Cant. de sensores Base de Datos P S Es Ex Justin R. Burwinkel [6] Livio AI firmware. 2 8 caídas 8 ADL 10 Participantes 320 instancias - 92.1% 98.8% 96.0% Chih-Lung Lin [9] Basado en umbrales 1 3 caídas 2 ADL 15 Participantes 2220 instancias 96.4% 96.7% 98.3% 97.7% Periklis Ntanasis [11] Árboles de decisión. 1 20 caídas 16 ADL 14 Participantes 2520 instancias. - 91.1% 95.8% 96.5% Periklis Ntanasis [11] k-NN 1 20 caídas 16 ADL 14 Participantes 2520 instancias. - 92.8% 94.8% 93.7% Chih-Lung Lin [8] Basado en umbrales 1 4 caídas 5 ADL 5 Participantes 570 instancias - - - 95.4% Maarit Kangas [10] Basado en umbrales 1 5 caídas 14 ADL 2 Participantes - 100% 100% - Ahmet Turan Özdemir [12] Redes Neuronales 1 20 caídas 16 ADL 14 Participantes 2520 instancias. 94.2% - - - Ahmet Turan Özdemir [12] Support Vector Machine (SVM) 1 20 caídas 16 ADL 14 Participantes 2520 instancias. 96.1% - - - Propuesta Basado en umbrales de varianza y tiempo 1 20 caídas 16 ADL 17 Participantes 3060 instancias. 93.07% 98.82% 90.81% 95.26% 6. CONCLUSIONES Con este trabajo se logró la implementación de un algoritmo para la detección de caídas, que se basó en el comportamiento de la varianza en el tiempo de señales de aceleración entregadas por un IMU que se coloca en la cabeza de los usuarios. El algoritmo propuesto posee un bajo costo computacional. Esta característica por un lado no constituyó un impedimento para que el algoritmo pudiera obtener resultados comparables con los obtenidos por algoritmos más complejos ya desarrollados. Por otro lado, hace que el algoritmo sea conveniente para ser implementado en plataformas de microcontroladores. Adicionalmente, el algoritmo propuesto fue validado utilizando una base de datos que posee una gran diversidad en cuanto a tipos de caídas, actividades cotidianas y cantidad de participantes. De este modo, el algoritmo exhibe una capacidad de generalización mayor que la de algoritmos similares ya desarrollados, al estos últimos haber sido validados en escenarios menos diversos. RECONOCIMIENTOS La investigación que da origen a los resultados presentados en la presente publicación recibió fondos de la Oficina de Gestión de Fondos y Proyectos Internacionales bajo el código PN305LH13-050. REFERENCIAS [1] «Envejecimiento y salud». [En línea]. Disponible en: https://www.who.int/es/news-room/fact- sheets/detail/ageing-and-health. [Accedido: 28-mar-2022]. [2] «El envejecimiento de la población. Cuba y sus territorios.» 2021. [3] Álvarez Sintes, Medicina General Integral, vol. II. 2014. [4] S. Abbate, M. Avvenuti, P. Corsini, J. Light, y A. Vecchio, «Monitoring of human movements for fall detection and activities recognition in elderly care using wireless sensor network: a survey», Wirel. Sens. Netw. Appl.-Centric Des., vol. 1, 2010. [5] D. J. Bell, T. J. Lu, N. A. Fleck, y S. M. Spearing, «MEMS actuators and sensors: observations on their performance and selection for purpose», J. Micromechanics Microengineering, vol. 15, n.o 7, pp. S153–S164, jun. 2005. [6] J. R. Burwinkel, B. Xu, y J. Crukley, «Preliminary Examination of the Accuracy of a Fall Detection Device Embedded into Hearing Instruments», J. Am. Acad. Audiol., vol. 31, n.o 06, pp. 393-403, jun. 2020. [7] P. Vallabh y R. Malekian, «Fall detection monitoring systems: a comprehensive review», J. Ambient Intell. Humaniz. Comput., vol. 9, n.o 6, pp. 1809–1833, 2018. [8] C. L. Lin, W. C. Chiu, F. H. Chen, Y. H. Ho, T. C. Chu, y P. H. Hsieh, «Fall Monitoring for the Elderly Using Wearable Inertial Measurement Sensors on Eyeglasses», IEEE Sens. Lett., vol. 4, n.o 6, p. 9099035, jun. 2020. [9] C.-L. Lin et al., «Innovative Head-Mounted System Based on Inertial Sensors and Magnetometer for Detecting Falling Movements», Sensors, vol. 20, n.o 20, p. 5774, ene. 2020. [10] M. Kangas, A. Konttila, I. Winblad, y T. Jamsa, «Determination of simple thresholds for accelerometry-based parameters for fall detection», en 2007 29th Annual International Conference of the IEEE Engineering in Medicine and Biology Society, Lyon, France, 2007, pp. 1367-1370. [11] P. Ntanasis, E. Pippa, A. T. Özdemir, B. Barshan, y V. Megalooikonomou, «Investigation of sensor placement for accurate fall detection», en International Conference on Wireless Mobile Communication and Healthcare, 2016, pp. 225–232. [12] A. T. Özdemir, «An Analysis on Sensor Locations of the Human Body for Wearable Fall Detection Devices: Principles and Practice», Sensors, vol. 16, n.o 8, jul. 2016. [13] M. N. Victorino, X. Jiang, y C. Menon, «Chapter 7 - Wearable Technologies and Force Myography for Healthcare», en Wearable Technology in Medicine and Health Care, R. K.-Y. Tong, Ed. Academic Press, 2018, pp. 135-152. [14] I. A. Faisal, T. W. Purboyo, y A. S. R. Ansori, «A Review of accelerometer sensor and gyroscope sensor in IMU sensors on motion capture», J Eng Appl Sci, vol. 15, n.o 3, pp. 826–829, 2019. [15] M. Mathie, A. Coster, N. Lovell, y B. G. Celler, «Accelerometry: Providing an Integrated, Practical Method for Long-Term, Ambulatory Monitoring of Human Movement», Physiol. Meas., vol. 25, pp. R1-20, may 2004. [16] D. Jost, «What is an accelerometer?», Fierce Electronics, 11-jul-2019. [En línea]. Disponible en: https://www.fierceelectronics.com/sensors/what-accelerometer. [Accedido: 31-mar-2022]. [17] 330ohms, «Sensores Inerciales: Acelerómetros, giroscopios e IMUs», 330ohms, 27-sep-2017. . [18] J. Lenz y S. Edelstein, «Magnetic sensors and their applications», IEEE Sens. J., vol. 6, n.o 3, pp. 631–649, 2006. [19] «Index of /ml/machine-learning-databases/00455». [En línea]. Disponible en: https://archive.ics.uci.edu/ml/machine-learning-databases/00455/. [Accedido: 02-abr-2022]. [20] M. Paulich, M. Schepers, N. Rudigkeit, y G. Bellusci, «Xsens MTw Awinda: Miniature Wireless Inertial-Magnetic Motion Tracker for Highly Accurate 3D Kinematic Applications». . [21] N. Beheshti, «Guide to Confusion Matrices & Classification Performance Metrics», Medium, 10-feb- 2022. [En línea]. Disponible en: https://towardsdatascience.com/guide-to-confusion-matrices- classification-performance-metrics-a0ebfc08408e. [Accedido: 02-abr-2022]. [22] G. L. Santos, P. T. Endo, K. H. de C. Monteiro, E. da S. Rocha, I. Silva, y T. Lynn, «Accelerometer- Based Human Fall Detection Using Convolutional Neural Networks», Sensors, vol. 19, n.o 7, p. 1644, ene. 2019. Un enfoque proactivo para la detección de bots malignos en sitios de comercio electrónico A proactive approach to malicious bot detection on e-commerce sites Daniel Pardo Echevarría1, Nayma Cepero Pérez 2, Humberto Díaz Pando3 1-3 Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE, 114 no. 11901. e/ Ciclovia y Rotonda, Marianao, Cuba 1 dannypardo279903@gmail.com, 2-3{ncepero, hdiazp}@ceis.cujae.edu.cu RESUMEN Los bots malignos, son programas informáticos que tienen la particularidad de simular la actividad humana, empleándose para ejecutar ataques cibernéticos. Diversos sitios web se han visto afectados por ellos, sobre todo los dedicados al comercio electrónico. A partir de esto, se han desarrollado múltiples aproximaciones para detectarlos. Teniendo gran repercusión, la aplicación de algoritmos de aprendizaje automático, sobre todo los que generan modelos clasificadores, a partir del aprendizaje supervisado. El presente trabajo se propone la implementación del algoritmo de aprendizaje supervisado Proactive Forest para la detección de bots en sitios de comercio electrónico. Evaluando la influencia de sus parámetros en cuanto al rendimiento, en base al porcentaje de instancias correctamente clasificadas. Realizando adicionalmente, una comparación con el algoritmo Random Forest, al ser un algoritmo que también genera un bosque de decisión. Implementado en un artículo del estado del arte, para la detección de bots malignos en sitios de comercio electrónico. Los resultados alcanzados permiten apreciar un máximo del rendimiento del algoritmo Proactive Forest, del 63.14% de instancias correctamente clasificadas. PALABRAS CLAVES: Detección de bots, clasificación, bosque de decisión, árbol de decisión. ABSTRACT Malicious bots are computer programs that simulate human activity and are used to carry out cyber- attacks. Several websites have been affected by them, especially those dedicated to e-commerce. As a result, multiple approaches have been developed to detect them. The application of machine learning algorithms, especially those that generate classifier models based on supervised learning, has had a great impact. This paper proposes the implementation of the Proactive Forest supervised learning algorithm for bot detection in e-commerce sites. Evaluating the influence of its parameters in terms of performance, based on the percentage of correctly classified instances. Performing additionally, a comparison with the Random Forest algorithm, being an algorithm that also generates a decision forest. Implemented in a state-of-the-art article, for the detection of malicious bots in e-commerce sites. The results achieved show a maximum performance of the Proactive Forest algorithm of 63.14% of correctly classified instances. KEY WORDS: Bot detection, classification, decision forest, decision tree. 1. Introducción Cada vez es más frecuente la ocurrencia de violaciones y ataques a la seguridad, debido al masivo uso del internet y la cantidad de información que en ella se maneja. Los cibercriminales utilizan diversas herramientas para realizar este tipo de acciones y una de las más empleadas en los últimos años son los bots [1]. Los bots son programas informáticos que actúan de forma autónoma y automática, simulando la actividad humana. Se dividen en dos tipos, bots benignos y bots malignos. Los bots benignos son empleados en múltiples actividades beneficiosas, formando parte de numerosos servicios web. Por otra parte los bots malignos son utilizados para realizar ataques y violaciones a la seguridad, por lo que se consideran programas malignos (Malware) [2, 3]. El impacto de los bots en la actualidad es considerable. Según [4] los bots representaron el 37.2% del tráfico total de usuarios en internet en el año 2020, donde el 24.1% eran bots malignos. El problema de los bots ha afectado a múltiples servicios web, incluyendo los dedicados al comercio electrónico. Ya que se detectó un 18.1% % de bots malignos respecto al total de usuarios en estos sitios web [4]. Por esta razón, diversas técnicas han sido empleadas para garantizar la detección de bots en sitios de comercio electrónico y una de las más destacadas es la minería de datos, a través de diversos algoritmos de aprendizaje automático [2, 3]. La minería de datos explora y analiza grandes cantidades de datos de ataques de bots. Extrayendo información útil para desarrollar modelos que permitan predecir si un usuario es considerado como bot maligno o humano [1, 5]. Empleándose para ello diversas técnicas de aprendizaje automático [1]. Como parte de las técnicas de aprendizaje automático para la detección de bots, se destaca la aplicación de algoritmos de aprendizaje supervisado, debido a los buenos resultados obtenidos [1, 3, 6]. A partir del desarrollo de modelos clasificadores construidos sobre una muestra de datos conocida [1, 7]. Los más destacados son: Naïve Bayes(NB), K-Nearest Neighbors (KNN), Support Vector Machine (SVM), Decisión Tree(ID3) [1, 6]. Entre los algoritmos de aprendizaje supervisado más relevantes para la detección de bots, se encuentran los basados en bosques de decisión [1]. Ellos generan un modelo compuesto por múltiples árboles de decisión, siendo precisos y diversos [8]. Tal es el caso de Random Forest (RF), pues como se evidencia en [9], obtiene excelentes resultados en la detección de bots. Aunque los bosques construidos a partir de este algoritmo tienden a ser poco diversos, lo que de cierta forma produce una disminución de la precisión y por ende de los resultados [10]. Para contrarrestar la pérdida de diversidad de los bosques de decisión obtenidos de Random Forest, en [10] los autores desarrollan el algoritmo Proactive Forest(PF). Lo cual podría traducirse en mejores resultados en la clasificación de bots malignos y humanos. Este trabajo presenta la implementación del algoritmo de aprendizaje supervisado Proactive Forest, para la detección de bots malignos en sitios de comercio electrónico. Para evaluar, a partir de un diseño experimentar, la influencia de los parámetros del algoritmo en su rendimiento, basado en el porcentaje de instancias correctamente clasificadas. Además de efectuar una comparación con el algoritmo Random Forest, implementado en [9], para la detección de bots malignos en sitios de comercio electrónico. Pues ambos algoritmos generan un modelo basado en un bosque de decisión. 2. Antecedentes y Solución propuesta 2.1 Trabajos relacionados El alto y considerable impacto de los bots malignos en la actualidad, ha traído consigo un incremento del estudio de diversas aproximaciones para garantizar su detección. Por ello son muchos los trabajos que integran el estado del arte que abordan diferentes técnicas y metodologías con el fin de resolver esta tarea. Sobre todo, se destaca la minería de datos a partir de la aplicación de diversos algoritmos de aprendizaje automático. Lo cual se pone en evidencia en [1], donde los autores emplean diversos algoritmos de aprendizaje automático para la detección de bots malignos. Además en [2, 3], se emplean dichos algoritmos en sitios de comercio electrónico, destacándose los buenos resultados obtenidos por los algoritmos clasificadores, pertenecientes al aprendizaje supervisado. Como parte de las técnicas supervisadas, los bosques de decisión son generalmente utilizados. Sobre todo con el empleo del algoritmo Random Forest, como se evidencia en [1, 9, 11], lográndose en [9], un máximo del 99.88% de instancias correctamente clasificadas. Se señala además en [12, 13], la importancia de la base de datos CTU-13 en la construcción de los modelos de clasificación y la evaluación de sus resultados. 2.2 Proactive Forest para la detección de bots malignos Generalmente, los algoritmos basados en bosques de decisión generan buenos resultados al emplearse en la detección de bots malignos [1, 9]. Por esta razón, en el presente trabajo se implementa el algoritmo Proactive Forest para la detección de bots malignos. Este algoritmo genera un modelo de decisión compuesto por diversos árboles, más conocido como bosque de decisión [10]. Donde los árboles de decisión, generan modelos de clasificación que tienen una estructura de árbol. Integrados por nodos intermedios y hojas, además de aristas. En los nodos intermedios, incluida la raíz, se realiza la división continua de los datos, mientras que los nodos hojas contienen el valor de clase. Las aristas, conocidas como ramas, son el enlace entre cada nodo y representan las decisiones que se toman en el modelo [8, 14]. Como todo buen bosque de decisión, los modelos obtenidos por Proactive Forest se enfocan en ser diversos y precisos [8, 10]. Sobre todo, porque dicho algoritmo surge como una mejora a la pérdida de diversidad ocasionada por Random Forest, manteniendo la calidad de precisión de cada árbol individual. Donde cada árbol se construye sobre las características menos utilizadas en la generación de los anteriores [10]. El flujo de ejecución del algoritmo se detalla en la Figura 1. En el cual vale señalar que después de cargar los datos de ataques de bots y preprocesarlos, se establece el número de árboles a construir, en este caso se toma 250 árboles, pues a partir de este número los resultados no mejoran. Además, se establece un criterio de selección de un subconjunto variables del total que contenga la base de datos, para analizar en cada nodo de cada árbol. Seleccionándose el logaritmo de total de variables en esta ocasión. Posteriormente, el conjunto de datos para construir cada árbol es elegido aleatoriamente con reemplazo. Figura 1. Flujo de ejecución del algoritmo Proactive Forest Como parte más importante flujo de ejecución mostrado en la Figura 1, se establece que, en cada nodo de cada árbol a construir, se selecciona el subconjunto de características para dividir la muestra, de las que más probabilidad de elección tengan. Dicha probabilidad se incrementa a partir de un cálculo de la importancia de las características posterior a la construcción de cada árbol. Incrementando el valor de probabilidad de elección, de aquellas con menor valor de importancia [10]. Al culminar el proceso de construcción del modelo, cuando se generen la cantidad de árboles establecida, la clasificación de una nueva instancia es obtenida a través del voto mayoritario del conjunto de árboles [10] 3. Experimentos En esta sección del documento se define la estrategia de validación, a partir de un diseño experimental, con el objetivo de evaluar la influencia de los parámetros del algoritmo de aprendizaje supervisado Proactive Forest, en cuanto a su rendimiento. Teniendo en cuenta el porcentaje de instancias correctamente clasificadas. Además de efectuar una comparación de los resultados, con el algoritmo Random Forest, implementado en [9] para la detección de bots en sitios de comercio electrónico. 3.1. Descripción de la base de datos Se selecciona CTU-13 como base de datos para proceder con la experimentación. La cual fue desarrollada en la Universidad CTU de República Checa. Está integrada por 13 escenarios, cada uno de los cuales contiene datos etiquetados correspondientes al tráfico de bots, obtenidos en tiempo real. Cada escenario consta de 15 columnas y poseen diferentes tamaños en cuanto al flujo de datos, como se muestra en la Tabla 1. Tabla 1. Flujos de datos de los escenarios de CTU-13, tomado de [1] Escenario Flujos de fondo (%) Flujos de bots (%) Flujos normales (%) Flujos totales 1 97,47 1,41 1.07 2.824.636 2 98,33 1,15 0,50 1,808,122 3 96,94 0.561 2,48 4.710.638 4 97,58 0,154 2,25 1.121.076 5 95,70 1,68 3.60 129,832 6 97,83 0,82 1,34 558,919 7 98,47 1,50 1,47 114,077 8 97,32 2,57 2,46 2,954,230 9 91,70 6,68 1,57 2,753,884 10 90,67 8.112 1.20 1,309,791 11 89,85 7.602 2,53 107,251 12 96,99 0,657 2,34 325,471 13 96,26 2,07 1,65 1.925.149 Como se muestra en la Tabla 1, se destacan tres flujos de datos principales: flujos normales, flujos de fondo y flujos de bots. Los flujos normales corresponden al tráfico de usuarios humanos, mientras que los flujos de fondo son generados para ocultar la presencia de bots. Por otro lado, los flujos de bots corresponde a la navegación visible de los bots. Como se aprecia en los flujos totales, los escenarios tienen diferentes dimensiones. Destacándose los que contienen menos de un millón de instancias y los que superan dicha cifra. 3.2 Preprocesamiento En la etapa de preprocesamiento de datos, primeramente, se transforman todos los datos a tipo numérico, substituyendo los valores vacíos por el número 0, eliminando así inconsistencias presentes en la muestra. Como parte de este proceso, se cambia la etiqueta de clase a un valor de tipo numérico. Asignando a las instancias con etiqueta background y normal valor 0 y aquellas consideradas bots malignos con etiqueta botnet valor 1. Posteriormente se realiza una normalización de los datos, aplicando una técnica de estandarización de datos. Dividiéndolos en escalas que faciliten la comparación entre las instancias y para que el algoritmo no otorgue más importancia a un atributo con respecto a los demás. A esta primera fase del preprocesamiento se le denominó, limpieza de datos Al concluir la primera fase del preprocesamiento, se implementa un análisis de componentes principales (PCA), con el objetivo de reducir la dimensionalidad de los escenarios de la base de datos. Tomando una varianza acumulada explicativa al 98% de los datos, que dio lugar a 10 o 12 componentes principales dependiendo del escenario. Además, se efectuó un balance de las clases presentes, debido a la existencia de escenarios con pocas instancias de etiqueta botnet. Para ello se aplica la técnica SMOTE que basándose en vecinos más cercanos crea ejemplos sintéticos de clase minoritaria. Aunque esto trae como desventaja un aumento del conjunto de datos, principalmente cuando hay muy pocos ejemplos de la clase minoritaria para muchos ejemplos de la clase mayoritaria. La Tabla 2, muestra los resultados al aplicar cada fase del preprocesamiento Tabla 2. Resultados de las fases del preprocesamiento Número de instancias por clase antes del preprocesamiento (con 14 atributos) Fases del preprocesamiento Limpieza de datos Transformación y selección Componentes al aplicar PCA Balanceo Id Botnet (1) Normal (0) Total Instancias Botnet (1) Normal (0) Total 1 40961 2783675 2824636 2824636 11 2783675 2783675 5567350 2 20941 1787181 1808122 1808122 11 1787181 1787181 3574362 3 26822 4683816 4710638 4710638 11 4683816 4683816 9367632 4 2580 1118496 1121076 1121076 11 1118496 1118496 2236992 5 901 128931 129832 129832 11 128931 128931 257862 6 4630 554289 558919 558919 11 554289 554289 1108578 7 63 114014 114077 114077 11 114014 114014 228028 8 6127 2948103 2954230 2954230 11 2948103 2948103 5896206 9 184987 1902521 2087508 2087508 12 1902521 1902521 3805042 10 106352 1203439 1309791 1309791 10 1203439 1203439 2406878 11 8164 99087 107251 107251 10 99087 99087 198174 12 2168 323303 325471 325471 11 323303 323303 646606 13 40003 1885146 1925149 1925149 11 1885146 1885146 3770292 Señalar como parte del preprocesamiento, la selección de solo 5000 instancias para cada clase de las que contienen los escenarios. Debido a la alta complejidad algorítmica que presenta el algoritmo Proactive Forest al entrenar el modelo de clasificación. Además, a partir de un valor porcentual de los datos de la muestra, se obtiene el subconjunto de datos empleados en el entrenamiento y prueba algoritmo. 3.3 Diseño de los experimentos Como estrategia de validación, se efectúa un diseño experimental. Para obtener la configuración óptima del algoritmo Proactive Forest, tomando como referencia el utilizado en [9].Para comparar los resultados alcanzados con el algoritmo Random Forest, empleando el preprocesamiento descrito en la anterior sección del documento. Identificándose como rendimiento el porcentaje de las instancias correctamente clasificadas, teniendo en cuenta los siguientes factores:  Escenario: tamaño de los escenarios de la base de datos CTU-13. Identificando como escenarios pequeños a aquellos que tiene menos de un millón de instancias y como escenarios grandes, los que superan el millón ellas.  % de datos: porciento de datos empleados para la prueba del algoritmo. El resto de dichos datos serán empleados para la construcción del modelo. Presentan valores que se encuentran en una escala de 0 a 1. La Tabla 3, muestra los niveles asociados a cada factor identificado. Tabla 3. Fatores y niveles del diseño experimental Factor Nivel Bajo Nivel Alto Escenario Pequeño Grande % de prueba 0.2 0.5 Para desarrollar la experimentación se realiza un diseño factorial completo, identificando el impacto de los factores en el rendimiento del algoritmo. Para los dos factores y dos niveles identificados, se generan 4 tratamientos. Para cada tratamiento se realizaron 3 réplicas, obteniendo un total de 12 ejecuciones, logrando una mayor precisión en los resultados. Los tratamientos son aleatorios, garantizando así una independencia en las observaciones [15]. 3.4 Resultados del experimento En esta sección se analizan los resultados alcanzados durante la experimentación realizada. La Tabla 4 muestra los resultados obtenidos en base al porciento de instancias correctamente clasificadas. Tabla 4. Resultados de la experimentación de Proactive Forest Ejecución Escenario % de prueba Proactive Forest 1 Pequeño 0.5 61.26 2 Pequeño 0.2 50.80 3 Grande 0.2 53.35 4 Grande 0.5 63.14 5 Pequeño 0.2 52.25 6 Grande 0.5 62.24 7 Pequeño 0.5 60.74 8 Grande 0.2 51.75 9 Grande 0.2 52.95 10 Grande 0.5 61.01 11 Pequeño 0.5 60.54 12 Pequeño 0.2 49.8 Como se evidencia en la Tabla 4, el algoritmo Proactive Forest obtiene sus mejores resultados cuando se toma un valor de % de prueba de 0.5. Teniendo como mejor resultado un 63.14% de instancias correctamente clasificadas y aplicándose sobre un escenario grande. Mientras que se observa una disminución evidente de las instancias correctamente clasificadas para cuando se emplea un valor de % de prueba de 0.2. Llegándose a obtener un mínimo del 49.8% de instancias correctamente clasificadas, al aplicar el algoritmo en un escenario pequeño. Con el fin de comprobar si lo anteriormente planteado es cierto, se deben ejecutar pruebas estadísticas correspondiente. Identificando si los factores e interacciones influyen significativamente en el rendimiento del algoritmo. Para ello se construye un diagrama de Pareto, que como se muestra en la Figura 2, demuestra que no todos los factores e interacciones influyen significativamente en el rendimiento del algoritmo. A pesar de que individualmente los factores escenario y % de prueba si influyen en el rendimiento, pues sobrepasan el valor de significancia. Figura 2. Diagrama de Pareto Para corroborar lo anteriormente planteado se construye una gráfica de probabilidad normal de efectos estandarizados, evidenciada en la Figura 3. De la cual se puede reafirmar que no todos los factores e interacciones identificados influyen significativamente en el algoritmo. Figura 3. Gráfica normal de efectos 3.5 Comparación con Random Forest Como parte de la experimentación realizada, se comparan los resultados de Proactive Forest (PF) obtenidos, con los de Random Forest (RF), empleado para la detección de bots malignos en [9]. Pero utilizando los datos al efectuar el preprocesamiento descrito en el presente trabajo, para entrenar el modelo. La Tabla 5 muestra los resultados logrados para cada algoritmo. Tabla 5. Resultados de la experimentación de los algoritmos Ejecución Escenario % de prueba Proactive Forest (PF) Random Forest (RF) 1 Pequeño 0.5 61.26 62.32 2 Pequeño 0.2 50.80 57.21 3 Grande 0.2 53.35 55.65 4 Grande 0.5 63.14 61.92 5 Pequeño 0.2 52.25 55.01 6 Grande 0.5 62.24 61.44 7 Pequeño 0.5 60.74 61.12 8 Grande 0.2 51.75 55.55 9 Grande 0.2 52.95 55.70 10 Grande 0.5 61.01 62.10 11 Pequeño 0.5 60.54 62.34 12 Pequeño 0.2 49.8 56.85 Como muestra la Tabla 5, ambos algoritmos presentan resultados similares cuando se toma un valor de % de prueba de 0.5, ya sea para escenarios pequeños o grandes. Aunque la diferencia entre los resultados obtenidos para ambos se incrementa al tomar un valor de % de prueba de 0.2. Siendo más distantes cuando se utilizan sobre escenarios pequeños. Para comprobar si lo anteriormente planteado es cierto, se aplican las pruebas estadísticas correspondientes. Por ello se realizaron 30 ejecuciones de cada algoritmo en un escenario pequeño con un valor de % de prueba de 0.2. Pues fue donde más diferencia se evidenció entre los resultados. La Tabla 6 resume los valores máximos, mínimo y promedio de las ejecuciones realizadas. Tabla 6. Resultados de máximo, mínimo y promedio para las 30 ejecuciones Algoritmos Mayor Menor Promedio PF 53.750 48.800 51.130 RF 57.200 54.350 55.943 Para determinar si las muestras de los resultados para las 30 ejecuciones de cada algoritmo siguen una distribución normal, se realiza la prueba de normalidad de Shapiro-Wik. Planteándose las siguientes hipótesis: H₀: La muestra sigue una distribución normal H₁: La muestra no sigue una distribución normal Como resultado de esta prueba se obtuvo un valor de p-value>0.1, superior al nivel de significa α=0.05, para los resultados obtenidos del algoritmo Proactive Forest. Mientras que para Random Forest se obtuvo un valor de p-value=0.088, también superior a α=0.05. Por lo que no existe evidencia suficiente que rechace la hipótesis nula y las muestras de resultados de ambos algoritmos siguen una distribución normal. Como las muestras siguen una distribución normal, se efectúa una prueba paramétrica. Para este caso se utiliza la prueba t-student para comparar el valor de la media de las dos muestras, determinando si existen diferencias significativas entre ellas. Si existen diferencias, se determina cuál de los dos algoritmos presenta mejor rendimiento. Las hipótesis planteadas son: H₀: - = 0 H₁: - < 0 Al realizar la prueba se obtiene como resultado valor un de p-value=0.00, menor al nivel de significancia α=0,05. Por lo que se rechaza la hipótesis nula y se puede afirmar que existen diferencias significativas entre los resultados alcanzados de cada algoritmo. Donde, como muestra la Figura 4 con un diagrama de valores individuales de cada algoritmo, el algoritmo Random Forest presenta mejores resultados que Proactive Forest. Figura 4. Gráfica de valores individuales 4. Conclusiones Al culminar el presente trabajo, se puede concluir que:  El algoritmo de aprendizaje supervisado Proactive Forest puede ser empleado en la detección de bots.  A pesar de que todos los parámetros identificados no influyen significativamente en el rendimiento del algoritmo, se logra un máximo del 63.14% de instancias correctamente clasificadas en el mejor escenario.  En comparación con otro algoritmo aplicado para la detección de bots en [9], como es Random Forest. Utilizando el mismo preprocesamiento de datos, Proactive Forest presenta un menor rendimiento. 5. Referencias bibliográficas [1] A. R. Vishwakarma, "Network Traffic Based Botnet Detection Using Machine Learning," Master of Science (MS), Computer Science, San Jose State University, SJSU Scholar Works, 2020. [2] Z. L. Haitao Xu , Chen Chu , Yuanmi Chen , Yifan Yang , Haifeng Lu , Haining Wang , and Angelos Stavrou, "Detecting and Characterizing Web Bot Traffic in a Large E-commerce Marketplace," in European Symposium on Research in Computer Security, ed. Springer, Cham, Luxembourg, 2019, pp. 143-163. [3] G. S. Stefano Rovetta a, Francesco Masulli, "Bot recognition in a Web store: An approach based on unsupervised learning.," Journal of Network and Computer Applications., vol. 157, p. 102577, 2020. [4] Imperva, "Bad Bot Report," Imperva, California, USA Technical report 2020. [5] J. R. Q. y. C. F. R. José Hernández Orallo, Introducción a la Minería de Datos. Madrid, 2004, p. 680. [6] D. Doran, "Web robot detection techniques: Overview and limitations," Data Mining and Knowledge Discovery, vol. 22, no. 1, pp. 183-210, 2011. [7] M. B. K. Mohssen Mohammed , Eihab Bashier Mohammed Bashier, Machine Learning Algorithms and Applications. Crc Press, 2016. [8] L. Rokach, "Decision forest: Twenty years of research," Information Fusion, vol. 27, pp. 111- 125, 2015. [9] M. M. E. Daniel Pardo Echevarría, Humberto Diaz Pando, Hélder J. Chissingui, "RANDOM FOREST PARA LA DETECCIÓN DE BOTS EN EL COMERCIO ELECTRÓNICO," presented at the X Congreso Internacional de Tecnologías, Comercio Electrónico y Contenidos Digitales, 2022. [10] L. A. D.-M. Nayma Cepero-Pérez , Rafael Hernández-Palacio , Mailyn Moreno-Espino and Milton García-Borroto, "Proactive Forest for Supervised Classification," in International Workshop on Artificial Intelligence and Pattern Recognition, ed: Springer, Cham, 2018, pp. 255–262. [11] R. R. Rout, Lingam, G., & Somayajulu, D. V., "Detection of malicious social bots using learning automata with url features in twitter network," IEEE Transactions on Computational Social Systems, vol. 7, no. 4, pp. 1004-1018., 2020. [12] S. H. a. Y. Singh, "Botnet detection using machine learning," presented at the In 2018 Fifth International Conference on Parallel, Distributed and Grid Computing (PDGC), 2018. [13] G.-C. V. Javier Velasco-Mata, Eduardo Fidalgo, and Enrique Alegre, "Efficient Detection of Botnet Traffic by features selection and Decision Trees," presented at the Preprint submitted to IEEE Access, 2021. [14] S. C. Haim Dahan, Lior Rokach, Oded Maimon, "Proactive Data Mining with Decision Trees," in Proactive Data Mining with Decision Trees, ed: Springer, New York, NY, 2014, pp. 21-33. [15] P. B. L. Carlos Fernández Collado, Roberto Hernández Sampieri, T. M.-H. C. Inc., Ed. Metodología de la investigación. México, 1998. UN ANÁLISIS BIBLIOMÉTRICO DE LA PRODUCCIÓN CIENTIFICA CUBANA EN LA WEB DE LA CIENCIA Fermin Rivas Sotomayor1, Alejandro Rosete Suarez1, Manuel Jesús Cobo Martín2, Anaisa Hernández González1, 1Universidad Tecnológica de La Habana “José Antonio Echeverría”, Cujae, La Habana, Cuba, 2Universidad de Granada, España 1e-mail: frivasoto@gmail.com RESUMEN Este estudio caracteriza el volumen y la visibilidad de la producción científica cubana, a través de un análisis combinado de indicadores bibliométricos. Los datos para el análisis fueron obtenidos de la Base de Datos Bibliográfica Web of Science para el período 1900–2019. El estudio involucró un conjunto de indicadores cuantitativos basados en el recuento de documentos agrupando por instituciones, áreas de las ciencias, cantidad de autores, además de algunos indicadores de desempeño para medir el impacto basados en el recuento de citas. Los principales resultados revelan que las instituciones académicas tienen mayor producción científica, sin embargo, las entidades de investigación y desarrollo tienen mayor impacto. A nivel de país La Universidad de la Habana es la de mayor producción e impacto, al igual que el Centro de Ingeniería Genética y Biotecnología. La Universidad de Ciencias Médicas de La Habana tienen el mejor balance entre publicaciones y autores, pero su visibilidad es reducida. Claramente existe la necesidad de usar los indicadores bibliométricos a nivel de país que permitan implementar políticas eficientes que incentiven publicar en revistas cualificadas. PALABRAS CLAVES: bibliometría, análisis de datos, matemática, informática, estudio A BIBLIOMETRIC ANALYSIS OF THE CUBAN SCIENTIFIC PRODUCTION ON THE WEB OF SCIENCE ABSTRACT This study characterizes the volume and visibility of Cuban scientific production, through a combined analysis of bibliometric indicators. The data for the analysis were obtained from the Web of Science Bibliographic Database for the period 1900–2019. The study involved a set of quantitative indicators based on the count of documents grouped by institutions, areas of science, number of authors, as well as some performance indicators to measure the impact based on the count of citations. The main results reveal that academic institutions have greater scientific production; however, research and development entities have a greater impact. At the country level, the University of Havana is the one with the greatest production and impact, as is the Center for Genetic Engineering and Biotechnology. The University of Medical Sciences of Havana has the best balance between publications and authors; but its visibility is reduced. Clearly, there is a need to use bibliometric indicators at the country level to implement efficient policies that encourage publication in qualified journals. KEY WORDS: bibliometric, data analysis, mathematics, computer science, studie 1. INTRODUCCIÓN Desde el siglo pasado existe un crecimiento exponencial de las fuentes de información y a la vez de las formas en que se accede a ellas, convirtiéndose en un reto identificar lo relevante para la toma de decisiones. En el campo de las ciencias, el medio fundamental es la literatura científica, que mayormente es publicada en revistas electrónicas especializada y son indexadas para su acceso en Bases de Datos Bibliográficas (BDBs). Se puede evidenciar en la Figura 1 cómo ha aumentado el número de publicaciones en los últimos 100 años y una comparación de la cobertura de algunas BDBs [1, 2]. La bibliometría es la disciplina que permite caracterizar la producción científica a través de métodos matemáticos y estadísticos. El número de artículos publicados y el prestigio de la revista en la que se publica, constituyen indicadores para medir la capacidad, trayectoria y profundidad científica de cada comunidad de investigadores. Se debe señalar que la evaluación de la ciencia a través de estudios métricos no se puede hacer con un indicador, es necesario un conjunto de indicadores que consideren diferentes aspectos de ésta [3, 4]. Figura 1: Volumen de producción científica en BDBs. Fuente: Elaboración Propia En Cuba se apuesta por implementar un modelo de desarrollo económico y social basado en la ciencia, en la tecnología e innovación en todos los sectores. Para ello se cuenta con 214 Entidades de Ciencia y Técnica (ECTI) y una red de centros de educación superior que agrupa 50 universidades en las que sobresale unas 16 que son adscritas al Ministerio de Salud Pública (MINSAP) y 22 son atendidas por el Ministerio de Educación Superior (MES). En dichas instituciones se llevan procesos sistemáticos en la evaluación de indicadores de impacto y una parte están relacionados con la producción científica. En este aspecto se valoran las publicaciones realizadas en revistas científicas que se encuentren en índices de BDBs, denotando como calidad aquellas que pertenecen a la Web de la Ciencia (WoS) o SCOPUS [5, 6, 7]. Haciendo una indagación en las BDB sobre la producción científica en Cuba, se encontraron un total de 87 investigaciones que abordan análisis bibliométricos, con lo cual se puede resumir que aún es poca la investigación en el ámbito nacional. De las investigaciones encontradas, 3 estaban relacionadas con WoS y 34 con BDB de SCOPUS siendo este último el de más uso en las indagaciones. Hay que señalar que existen diversos estudios hechos por determinadas instituciones con el uso de indicadores en períodos cortos de tiempo, para el análisis interno de sus comunidades. En el caso de Raúl Torricella [8] se hace un estudio de la presencia de los autores cubanos en WoS en el período de 1989 a 1998, encontrando 3389 artículos, con un predominio de centros de investigación especializados en temáticas de medicina y biomédica. La tesis doctoral de María Peralta [4] expone un procedimiento de evaluación de indicadores bibliométricos en la Universidad Central de las Villas (UCLV) en WoS y SCOPUS, llegando a crear un perfil del centro, de sus facultades e investigadores, determinando sus fortalezas y debilidades en cuanto a visibilidad e impacto en el ámbito internacional. La publicación de Yaniris Rodríguez [9] fue una novedad científica, ya que realizó diagnóstico de la situación en Cuba en cuanto a la producción científica y se propuso una metodología para aplicar los indicadores según el contexto cubano. Dichas indagaciones han contribuido a trazar estrategias encaminadas a definir el uso de la bibliometría y medir el impacto de ciertas investigaciones; aunque una mayoría se centran en determinada área temática o en determinada institución, no estando presente una indagación que abarque toda la producción científica del país en determinada BDB de alto impacto. Con ello se puede plantear como situación a descubrir ¿cuáles son las relaciones que existen entre las publicaciones donde participan investigadores adscritos a instituciones cubanas? Para ello es necesario adentrarse como objeto de estudio en evaluar la producción científica de Cuba tomando como referencia las publicaciones en revistas de alto impacto publicadas en WoS durante el período de 1900 a 2019. El campo de acción está enfocado a las comunidades de investigadores científicos asociados a instituciones cubanas y las publicaciones científicas creadas por los mismos. Con ello se pretende descubrir patrones asociados a la producción científica de las instituciones y distinguir las áreas del conocimiento que tienen mayor presencia de los investigadores cubanos. 2. MÉTODO Para este trabajo se toman como referencias las investigaciones de Manuel Cobo [10] y de Yaniris Rodríguez [9]. El flujo de trabajo comenzó por la recuperación de los datos, posteriormente el preprocesamiento y para finalizar hacer un análisis minucioso de los mismos. Estos análisis se pretenden que sea de forma longitudinal para estudiar cómo evoluciona una o más variables a través del tiempo, a la vez que sean descriptivos para recolectar datos del fenómeno que se investiga. La extracción de los datos se hace en WoS, siendo una plataforma basada en tecnología web que recopila referencias de las principales publicaciones científicas en todas las disciplinas del conocimiento, como la ciencia, la tecnología, las humanidades desde 1900. Esta plataforma aplica un procedimiento de inclusión bastante selectivo, atendiendo sobre todo a la calidad de las revistas que indexan y por consiguiente los artículos que son publicados en las mismas. Además, existen muy pocos estudios en función del desempeño de la publicación de cubanos en la misma. Para la investigación se usó el servicio Web Services Lite que proporciona los metadatos de las publicaciones en formato XML. Como lenguaje de programación se eligió Python por ser de alto nivel, orientado a objetos, funcional e imperativo. El mismo disfruta de una amplia comunidad de desarrollo y una diversidad de librerías documentadas. Para almacenar los metadatos, se usó la MongoDB por tener un modelo orientado a documentos que permite mejorar los tiempos de respuesta en las consultas. Se realizó una consulta a la plataforma en enero de 2020 con el término “Cuba” en el campo “País” en todo el rango de fechas que proporciona la WoS. Para ello se recuperaron un total de 24100 registros, los que fueron exportados en XML y luego convertidos en formato JSON con la librería xmltodict para incorporar los datos en una BD en MongoDb. Se establece como período de tiempo longitudinal para el análisis las fechas, de 1900 hasta el 2019, siendo un rango temporal de 120 años de producción científica relacionada con Cuba. No existe un procedimiento generalmente aceptado por la comunidad científica para realizar la segmentación para estudios de este tipo. Algunas investigaciones precedentes analizan etapas de entre 3 y 5 años o sólo se revisan los últimos 10 años buscando el impacto de las publicaciones, pero en el caso de la presente indagación se busca la producción relacionada con toda la investigación cubana, incluyendo a su vez sus instituciones, y así poder dar una valoración a nivel de país. 3. PREPROCESAMIENTO En función de obtener resultados estadísticos que permitan hacer valoraciones exhaustivas, se procedió a estudiar los ficheros XML para caracterizar sus datos e identificar las etiquetas de interés, que luego serán usadas para concebir los análisis correspondientes. Como identificadores se tienen el atributo ISSN que determina de forma inequívoca a las revistas científicas, el mismo está presente en el en el 23906 (99%) de las publicaciones. El atributo ISBN tiene describ única los libros y en el conjunto de registros estos están presentes en 160(1%) publicaciones. Con estos dos atributos se tipificación las fuentes de publicación. Para el caso el DOI como identificador único de los artículos científicos en internet, estuvo presente en 10346 (43%) registros. Con ello no se cubre la identificación de total de los registros por lo que se usará el identificador propio de WoS. De las áreas de investigación existen dos colecciones de categorías: tradicional y extendida. La categoría tradicional aglutina 251 elementos guardándose con un nombre y por un código de dos caracteres. Para los extendidos se tienen 154 elementos, agrupándose en cinco áreas de la ciencia: Artes y Humanidades, Ciencias Sociales, Tecnología, Ciencias Físicas y Ciencias de la Vida y Biomedicina. Es necesario señalar que para la categoría de extendida una publicación puede tener muchas categorías temáticas y estar agrupadas en más de un área de la ciencia. Luego de revisar los propósitos de cada etiqueta de tipo categoría se determinó trabajar con las categorías extendidas debido a que las mismas agrupan las áreas temáticas por áreas del conocimiento [11]. Las palabras claves del autor en las publicaciones dan una cobertura a lo que pudiera ser el contenido que aborda. Una revisión en el corpus que se analiza se encontró una cobertura de dicha etiqueta en 13908 (58%) de documentos. A la vez, WoS genera otras palabras claves y las anexa a los metadatos y en el mismo compendio que se tiene se encontró una presencia en 15007 (62%) documentos. Uniendo las palabras claves de autores como las generadas por WoS, entonces se abarcaría a poder tener la información de dichos atributos en 17852 (74%) registros; por ello se eligió hacer un análisis con la unión de la información de las dos etiquetas. Para el caso de los autores, una de las cuestiones a considerar fue la extensión de los nombres y la manera en que éstos firman los artículos. Aunque se encontraron etiquetas relacionadas con el ORCID que permitirían identificar a cada uno de forma inequívoca, su presencia en sentido general es muy baja por ello se seleccionó un atributo estandarizado que genera WoS. Luego en caso de hacer análisis sobre los autores no serán datos válidos ya que bajo un nombre se pueden solapar varios autores. A fin de determinar la institución que se deriva de los autores se encontraron limitantes, dentro de ellas la variación de los acrónimos para identificarlas según el nombre. Un ejemplo de ello son las 92 formas de identificar a la Universidad de la Habana (UH), las 98 formas para el Centro de Ingeniería Genética y Biotecnología (CIGB) y 152 variantes para la Cujae. En el preprocesamiento de este atributo se debió recopilar información sobre las instituciones de Cuba, revisar las variantes de nombre, agruparlas y construir estructuras de almacenamiento junto a algoritmos para identificar de forma correcta las mismas. También fueron agrupadas y clasificadas en dos tipos de instituciones: académicas para especificar las que se dedican a la enseñanza de la educación superior y las entidades para agrupar las que su misión está encaminada al desarrollo científico de determinados sectores. 4. ANÁLISIS DE DATOS En un inicio se tienen 24100 registros tomados en una consulta de WoS que se definió como todas las publicaciones que tuvieran a Cuba de país de procedencia. Luego se revisaron las instituciones adscritas a los autores para dejar los trabajos que reflejaran al menos una institución cubana, despreciando un 12% de estos registros de la muestra, quedando 21298 registros. Esta última cifra es considerada el índice de publicación general y será la que se tome como referencia para hacer los análisis con respecto a varios indicadores. Con la finalidad de poder definir un acercamiento al perfil sobre la actividad científica de Cuba en dicha plataforma, se tomaron los indicadores relativos a las variables de producción, la evolución en las áreas de la ciencia, el origen institucional de los autores, la coautoría en función de las publicaciones. Existen varios autores y metodologías que refieren el concepto de documento citable refiriéndose exclusivamente a los artículos, las revisiones y los artículos de conferencias [3, 12]. Teniendo en cuenta estos criterios, los documentos citables serían el 90.86% y los no citables el 9.14%. Con ello hay que destacar que se debe trabajar porque en la cobertura de lo que se publique se potencie más las publicaciones que son del tipo citables. En contexto del mundo, el 52% de las publicaciones científicas son de idioma inglés, además que las mismas concentran el mayor número de citas e impacto; por lo que la comunidad de editoriales busca en competir para que las revistas sean de alto impacto y aconsejan que ese sea el idioma preferente para las publicaciones. Para los datos que se analizan se encontró que el 88.59% de las publicaciones están en dicho idioma, siguiéndole el español con tan sólo el 9.94% siendo este es el idioma nativo del país. Revisando la cobertura de datos de forma longitudinal en la Figura 2 se puede apreciar la evolución de la producción científica de Cuba en el período global examinado en esta investigación. En el eje de las ordenadas se representa el número de documentos y en el eje de las abscisas los años analizados. Figura 2 Evolución anual de las Publicaciones de Cuba en WoS de 1900-2019. Fuente: Elaboración Propia Los documentos más antiguos que se encuentran registrados datan de 1900, siendo cartas escritas en idioma inglés, que contienen informes de salud de y son publicadas en la revista “Public Health Reports”. Luego se puede observar una etapa casi nula de la producción hasta 1973, donde va aumentando discretamente con el paso de los años. Hay que recordar que la época de los setenta estuvo marcada por la cooperación del país con el campo socialista y por un protagonismo de la Academia de Ciencias de Cuba (ACAD) como centro rector de las investigaciones, al igual que se materializó la organización de la red de Centros de la Educación Superior de Cuba. A partir de 1990 existe un incremento sustantivo con un cambio de paradigma hacia la forma de trasmitir la ciencia, siguiendo el modelo del mundo occidental. En este período se crearon los polos científicos de investigaciones con el objetivo de impulsar el desarrollo de la Biotecnología, la Industria Médico Farmacéutica y las Tecnologías de Avanzada, para estudiar, evaluar y desarrollar soluciones en el ámbito de la salud y de la alimentación. A la vez se reorganizaron las ECTI bajo la supervisión del Ministerio de Ciencia, Tecnología y Medio Ambiente (CITMA). También se puede apreciar que en la etapa de 2010 a 2019, está marcado por una estabilidad con un ligero descenso final en el volumen de publicaciones anuales de la producción nacional. Es necesario destacar que los años 2009 y 2013 son la cumbre en cada etapa de estudio de la mayor cantidad de documentos publicados. Para los análisis por área temática se debe tener en cuenta que todos los documentos tienen reflejado su área científica y que sólo 3110 (15%) de ellos tienen más de un área registrada, por lo que sería un error hacer un conteo por unidad para comparar, por lo que se darán proporciones de cada una. Los resultados indican que la mayor parte de la producción científica total analizada se concentra en el área de Ciencias de la Vida y Biomedicina con un índice de actividad del 61%. La otra parte se distribuye de la siguiente manera: un 21% de publicaciones en Ciencias Físicas, un 15% en Tecnología y, en menor proporción, se encuentran los trabajos en el área de Ciencias Sociales con 2% y el área de Artes y Humanidades con 1%. Figura 3 Evolución de la producción por áreas científicas. Fuente: Elaboración Propia En la Figura 3 se desglosa las áreas científicas, mostrando la distribución del volumen de publicaciones por quinquenio. Se observa que en los años setenta existe un punto de inflexión que marca el inicio de la actividad científica formal en el país y se empiezan a registrar investigaciones en todas las áreas del conocimiento y en la última etapa se va reduciendo la proporción en Ciencias de la Vida y Biomedicina, una explanada en Ciencias Físicas y con un incremento en la proporción de documentos en Tecnología. Según lo investigado, Cuba tiene al menos una publicación en las 150 áreas temáticas de las 154 que utiliza WoS. En la Tabla 1 se puede apreciar las 10 temáticas con mayor concentración de publicaciones, destacando la Química y la Física que juntas acumular el 14% de las publicaciones generales. Tabla 1 Temáticas de mayor producción científica. Fuente: Elaboración Propia Categoría Ciencia Área Temática Total Porciento Ciencias Físicas Química 2714 8,34% Ciencias Físicas Física 1965 6,04% Ciencias de la Vida y Biomedicina Neurociencias y Neurología 1656 5,09% Ciencias de la Vida y Biomedicina Salud Pública, Ambiental y Ocupacional 1502 4,62% Ciencias de la Vida y Biomedicina Bioquímica y Biología Molecular 1433 4,40% Ciencias de la Vida y Biomedicina Agricultura 1399 4,30% Tecnología Ingeniería 1331 4,09% Ciencias de la Vida y Biomedicina Farmacología y Farmacia 1223 3,76% Tecnología Ciencia de Los Materiales 1181 3,63% Ciencias de la Vida y Biomedicina Inmunología 808 2,48% Teniendo en cuenta que las publicaciones pueden estar clasificadas en más de una de las cinco áreas de la ciencia se elaboró un grafo para agruparlas y que mostrara las relaciones entre las temáticas que comprenden dichos registros. En la Figura 4 se puede apreciar un dominio de trabajos relacionados con Ciencias de la Vida y Biomedicina y luego de Tecnología, sin embargo, son temáticas de Ciencias Físicas las que están entre las primeras posiciones por su acumulado. También se puede apreciar en los agrupamientos un solapamiento entre las temáticas del área de Ciencias Físicas con las temáticas de Tecnología. Además, se puede evidenciar que tienen relaciones fuertes la temática de Química con varios campos del área de las Ciencias de la Vida y la Biomedicina. Como aspecto negativo se evidencia muy pocas relaciones del área de Ciencias Sociales, de las cuales sólo destaca la Psicología. Figura 4 Relaciones entre las temáticas de mayor producción. Fuente: Elaboración Propia El análisis del desarrollo de la producción científica desglosada por las instituciones que la sostienen se hará con una división de las ECTI, que comúnmente se denominará entidades, y las universidades junto a sus centros de investigación se denominará academia. En este caso existen 20597 (97%) documentos en que sus instituciones asociadas fueron agrupadas y categorizadas por los nombres quedando 703 (3%) que no se identificaron. Haciendo un análisis de la participación de éstas en la producción total visible en WoS, las académicas tienen un predominio en un 56% de las publicaciones y las entidades en un 41% respectivamente. Revisando la evolución por quinquenio se puede apreciar en la Figura 5 que tanto las académicas como las entidades de ciencia mantuvieron el mismo ritmo de crecimiento hasta el periodo de 2000-2004 en el que las académicas siguen con un crecimiento de su producción alejándose significativamente de las entidades de ciencia. Hay que tener en cuenta que los indicadores del CITMA para evaluar el impacto de la ciencia son perfeccionados por cada organismo gubernamental. En el caso de los que atienden a las universidades, han consolidado un plan mayor para incentivar a sus investigadores. Figura 5 Evolución de publicaciones por tipo de institución. Fuente: Elaboración Propia En la Tabla 2 están las 10 instituciones que más publican en Cuba, distribuidas de formas general entre entidades, las académicas y de forma general. En las mimas se hzce un conteo del número de registros en las que al menos un autor declara que pertenece a dicha institución. Hay que señal que en las académicas la UH contempla un 22.30% de la producción nacional en WoS, la misma junto a la UCLV y la UO1 son las universidades más antiguas de Cuba y las de mayor interdisciplinariedad. Luego le siguen las que sólo se especializan en un área de la ciencia como la UCMH2 y la Cujae3. En el caso de las entidades la mayoría está relacionada con investigaciones sobre la salud, exceptuando el ICA4, la ACAD, y el ICIMAF5. 1 Universidad de Oriente 2 Universidad de Ciencias Médicas de La Habana 3 Universidad Tecnológica de La Habana “José Antonio Echeverria” 4 Instituto de Ciencia Animal 5 Instituto de Cibernética, Matemática y Física Tabla 2 Acumulado de publicaciones por cada tipo de institución Hacer análisis del talento científico por los autores tiene sus incongruencias ya que el campo sólo es identificado por el nombre de éstos, en diferentes etiquetas y se tienen 127 publicaciones con el atributo ORCID, por ello se dará una aproximación teniendo en cuenta que podrán quedar trabajos de distintos autores bajo un mismo nombre de autor. Se encontraron 12827 autores cubanos con al menos un documento publicado en WoS, teniendo como índice de productividad 1.6 trabajos por autor. Tener en cuenta que, al hacer un análisis de los autores, las instituciones a las que pertenecen y su volumen de producción, dichas instituciones no están normalizadas en WoS, aun así, se puede presentar un aproximado del comportamiento de estos. Del total de autores identificados, se tiene que 4698 (51%) pertenecen a centros universitarios y 4543 (49%) a entidades de ciencia, con lo cual se refleja que la cantidad de autores es casi pareja. Diferenciando el origen institucional de las publicaciones junto a los autores asociados, y organizando todas las instituciones por el índice de productividad, se puede evidenciar en la Tabla 3 el acumulado en de cada institución. En sentido general existen instituciones con mejores indicadores cuantitativos, pero no salen reflejadas por no tener un peso considerable de autores. Aun así, resalta que, dentro de estas diez, hay predominio de las entidades, marcadas en azul, con una mejor proporción entre autores por documento. Tabla 3 Comparativa de las instituciones con mayor número de autores e índice de productividad. Fuente: Elaboración Propia En el caso del índice de transitoriedad se tienen 6949 autores con un sólo trabajo, lo cual representa un 54% con respecto al total de los autores. El predominio de este comportamiento lo tienen las universidades. El promedio de la cantidad de autores por publicación es de 6, siendo un indicador normal con respecto al mundo, aunque se detectaron 44 trabajos con autoría múltiple de 50 hasta 100 autores y además resaltan a la vista cinco trabajos con 152, 129, 118, 101 y 101 autores respectivamente. Tales prácticas son fenómenos conocidos como autoría injustificada [14]. La autoría simple siempre se debe valorar como un indicador negativo, y en el caso de lo encontrado para Cuba se tienen 1780 (8%) publicaciones con un sólo autor. Segmentando el análisis por instituciones, se evidencio que un peso considerable lo tienen las universidades, especifícame la UCMH con un 39% del total de los documentos que tienen un solo autor lo cual representa un 64% del total sus propias publicaciones y un 3% del total de las publicaciones de Cuba. Por ello se debe revisar los manuales de buenas prácticas e indicadores de las publicaciones en dicho centro de la educación superior [15]. Los 21298 documentos publicados por Cuba se encuentran agrupados en 4110 revistas, donde el índice de documentos por revista total es de 6. La Figura 6 es una representación logarítmica entre la relación proporcional del número de revistas y el número de documentos. En el mismo se puede apreciar que la mayor parte de los trabajos producidos en el país se concentra en un número reducido de revistas. Contabilizando el número de revistas que han publicado el mismo número de documentos, se puede decir que 1717 revistas han publicado un trabajo de Cuba siendo un 42% del total de las revistas. Sin embargo, existen 477 (12%) revistas que han publicado más de 10 trabajos, dando como resultado la publicación de 12314 documentos que equivalen al 58% de la producción nacional. Figura 6 Representación logarítmica entre el número de revistas y el número de documentos que han publicado. Fuente: Elaboración Propia Sobre el impacto de las publicaciones según el número de citas recibidas dentro de la plataforma WoS, se encontró que 15612 (73%) tienen al menos una cita. Haciendo el cálculo del índice-h6, se tiene que Cuba cuenta con 153 publicaciones que tienen más de 153 citas. El número total de citas de todos los documentos publicados es de 271312, quedando como promedio 12 citas por cada documento. Con los documentos que tiene al menos una cita, entonces serían como promedio 17 citas por documentos. Sin embargo, existen una concentración en 6484 documentos que tienen más de 10 citas abarcando el 87% de 6 Indicador que mide tanto la productividad como el impacto de las citas de las publicaciones. las citas totales. Se aplica el índice-h por concepto de concentración de documentos por áreas de la ciencia, proporcionando el valor 133 para las Ciencias de la Vida y Biomedicina, 85 para las Ciencias Físicas, 80 en Tecnología, 16 en Ciencias Sociales y 5 en Artes y Humanidades. De las instituciones se tiene que las entidades comprenden el 55% de las citas, siendo mayor al 43% de las académicas, algo distinto a lo que sucede en cuanto a la cantidad de publicaciones. Teniendo en cuenta las 10 instituciones que más publicaciones tienen, se hizo un análisis de citas que se refleja en la Tabla 4 donde se dejaron en cada tipología de institución el mismo orden que el visto en la cantidad de documentos. En el ámbito académico, la superioridad la tiene la UH, con un predominio del 22.84% del total de las citas y un índice-h de 82. La UCLV aumenta su proporción de participación, al igual que lo hace la UM. Según la cantidad de citas, el orden cambia por lo que la UCMH, teniendo una producción que abarca el 6% pasa a representar el 1.58% de las citas. Para las entidades como el CIGB, el IPK7 y el CNEURO8 mejoran en su proporción de participación a nivel nacional con índices-h de 63, 59 y 56 respectivamente. Tabla 4 Cantidad de citas por instituciones. Fuente: Elaboración Propia 5. CONCLUSIONES Siempre resulta positivo que toda indagación arroje resultados que puedan ser considerados para medir un estado y tomar decisiones en mejora de éste. Para el caso de estudio sobre los fenómenos de divulgación de la ciencia en Cuba, se pueden considerar aún incipiente. Por ello, con esta investigación, se pretende encontrar elementos que sirvan para caracterizar la producción científica y así, poder contribuir al perfil bibliométrico de Cuba. Al parecer el país está en un periodo sin altos ni bajos en la producción científica, con lo cual no se avanzaría para ser competitivos en el ámbito de los resultados científicos, por ello se debe proponer e implementar las políticas y recursos necesarios que sean incentivos para incrementar el nivel participación. Según las áreas de la ciencia, la fortaleza está en las Ciencias de la Vida y la Biomedicina, sin embargo, lo estratégico es mantener el incremento en el área de Tecnología y Ciencias Físicas. Para ello se debe buscar crecer en interdisciplinariedad a la hora de llevar a cabo las investigaciones para luego poder clasificar en más de una categoría. Si se proyecta desde el punto de vista de las instituciones, las universidades tienen mayor producción que las entidades de ciencia, sin embargo, por la cantidad de citas las entidades tienen mayor impacto. Sobre 7 Instituto de Medicina Tropical “Pedro Kouri” 8 Centro de Neurociencias de Cuba las instituciones educacionales en el ámbito país, la UH es una institución representativa tanto por el volumen como por la calidad de sus publicaciones, sin embargo, la UCMH tiene un volumen considerable de publicaciones, pero no se corresponden con una cantidad proporcional de citas, además se detecta que tienen un número alto en el indicador de autoría simple. También se debe discurrir en el sector académico el impulsar a futuro que sus investigadores publiquen más de un artículo en revistas de calidad para así mejorar según el índice de transitoriedad. Para el ámbito de las entidades el CIGB es la institución que encabeza la calidad de las publicaciones que realiza. REFERENCIAS 1. ANDALIA, Rubén; RODRÍGUEZ, Roberto; PÉREZ, Luis. "Distribución de la producción científica cubana en salud registrada en Scopus y PubMed en 2011, según instituciones". Revista Cubana de Información en Ciencias de la Salud, 2013, vol 24, pp 3 - 33. 2. PIEDRA, Yelina; MARTINEZ, Ailín. "Producción científica". Ciencias de la Información,.2007, vol 38, pp 33 - 38. 3. CRUZ, Miguel; ESCALONA, Miguel; CABRERA, Suitberto; MARTÍNEZ, Mayelín. "Análisis cienciométrico de las publicaciones educacionales cubanas en la WoS y Scopus (2003-2012) ". Revista española de Documentación Científica, 2014, vol 37, núm. 3, pp. 58. 4. PERALTA, María. "Indicadores Bibliométricos para la evaluación de la producción científica de la Universidad Central Marta Abreu de las Villas en WoS y Scopus". Director: Francisco Solis. Tesis de doctorado, Universidad de Granada, Andalucía, España, 2015. 5. INFORMACIÓN, Oficina Nacional de Estadísticas. Capítulo 18: Educación, Anuario Estadístico de Cuba 2018. La Habana: Editorial ONEI, 2019 28 pp. 6. LEGAÑOA, María. La educación en Cuba: logros y buenas prácticas Formación y evaluación de competencias en la educación superior. Santo Domingo: Editorial Academia de Ciencias de la Republica Dominicana, 2018 124 pp ISBN 978-9945-8946-6-0. 7. ZACCA, G. et al. “Producción científica cubana en Salud Pública. Scopus 2003-2011” En actas del XIII Congreso Internacional de Información, 2014, pp. 11 8. TORRICELLA, Raúl; VAN, Guido; ARAUJO, Juan. “Estudio bibliométrico sobre la presencia de los autores cubanos en el Web of Science”. Revista de Ciência da Informação, 2010, vol 1, pp. 4 9. RODRIGUEZ, Yaniris. “Metodología bibliométrica para evaluar la actividad científica”. Director: Ramón Piloto. Tesis de doctorado, Instituto Superior Politécnico José Antonio Echevarría, La Habana, Cuba, 2012. 10. COBO, Manuel; LÓPEZ, A.G.; HERRERA, Enrique; HERRERA, Francisco. “SciMAT: A new science mapping analysis software tool”. Journal of the American Society for Information Science and Technology, vol 63, núm 8, pp 1609-1630. 11. Clarivate. Help of the Web of Science. [ref. de 10 de febrero 2020]. Disponible en Web: https://images.webofknowledge.com/WOKRS534DR1/help/es_LA/WOS/hp_database.html >. 12. IRIBARREN, Isabel. “Producción científica y visibilidad de los investigadores de la Universidad Carlos III de Madrid en las bases de datos del ISI, 1997-2003”. Director: Elías Sanz. Tesis de doctorado, Universidad Carlos III de Madrid, España, 2006. 13. ARAUJO, Juan; LLAMOS, Blanca; ARENCIBIA, Ricardo. “Identificación de frentes de investigación sobre esteroides en la producción científica cubana procesada por Scopus 1996-2006”. Acimed: Revista Cubana de los Profesionales de la Información y la Comunicación en Salud, 2008, vol 17, núm. 3, pp 25. 14. SILVA, Gustavo. “La autoría múltiple y la autoría injustificada en los artículos científicos”. Investigación en Salud, 2005, vol 2, núm. 2, pp 84 - 90. 15. ARENCIBIA, Ricardo; DE MOYA, Felix. “Challenges in the study of Cuban scientific output”. Scientometrics, 2010, vol 83, núm. 3, pp. 723 - 737 REPRESENTACIÓN DE LA INFORMACIÓN DE SEÑALES DE UN RADAR EMPLEANDO ODROID-N2+ Lisvan Guevara Trujillo1, Leandro Zambrano Méndez2 1Centro de Investigación y Desarrollo Naval, calle Estrada Palma No. 13, Regla, La Habana, Cuba, 2Universidad Tecnológica de La Habana “José Antonio Echeverría”, calle 114 No. 11901, Marianao, La Habana, Cuba 1e-mail: lisvan94trujillo@gmail.com 2e-mail: lzambrano@ceis.cujae.edu.cu RESUMEN Un visualizador de radar es un dispositivo electrónico que se utiliza para representar en un formato adecuado la información contenida en la radioseñal reflejada. Los visualizadores modernos realizan la representación a partir de la obtención de señales digitales. La mayoría de los visualizadores de radares de seguimiento con que se cuenta están sustentados en tecnología analógica. Estos son altos consumidores de energía eléctrica, poseen gran volumen y peso, sus piezas están obsoletas y existe incapacidad de adquirir los repuestos en el mercado internacional. Estos visualizadores están sometidos a largos períodos de mantenimiento, al presentar inestabilidad durante su funcionamiento. La solución propuesta se compone de un ordenador de placa reducida y un software elaborado con el entorno de desarrollado multiplataforma Qt Creator. Además del empleo de la computación paralela para lograr la recepción, procesamiento y representación de los datos cumpliendo con el período de actualización de la información del radar de seguimiento. Esto propició disminuir el tiempo de ejecución, incrementar la aceleración y cumplir con el período de actualización del radar, a diferencia de la versión secuencial donde no se cumplió con la restricción temporal. Como resultado se obtuvo dos versiones del software implementados con herramientas libres en un dispositivo de bajo consumo eléctrico, costo y tamaño. Los resultados experimentales evidencian la factibilidad del empleo de Qt Creator, el ordenador de placa reducida y la programación paralela en aplicaciones de radar. PALABRAS CLAVES: visualizador de radar, computación paralela, Odroid-N2+. REPRESENTATION OF RADAR SIGNAL INFORMATION USING ODROID-N2+ ABSTRACT A radar display is an electronic device used to represent in a suitable format the information contained in the reflected radio signal. Modern displays make the representation based on the acquisition of digital signals. Most of the available tracking radar displays are based on analog technology. These are high consumers of electrical energy, have great volume and weight, their parts are obsolete and there is inability to acquire spare parts in the international market. These displays are subject to long maintenance periods, as they present instability during their operation. The proposed solution consists of a single board computer and software developed with the Qt Creator multiplatform development environment. In addition to the use of parallel computing to achieve the reception, processing and representation of the data, complying with the update period of the tracking radar information. This allowed to decrease the execution time, increase the acceleration and comply with the radar update period, unlike the sequential version where the time restriction was not met. As a result, two versions of the software were obtained, implemented with free tools in a device of low power consumption, cost and size. The experimental results show the feasibility of using Qt Creator, the single board computer and parallel programming in radar applications. KEY WORDS: radar display, parallel computing, Odroid-N2+. 1. INTRODUCCIÓN Los radares son elementos fundamentales en la seguridad y la defensa, por su papel en la obtención de los datos básicos que permiten el funcionamiento de los sistemas de control de tráfico terrestre, aéreo y marítimo. Según su finalidad los radares se clasifican en radar de búsqueda y de seguimiento. Un radar de búsqueda es utilizado principalmente para la detección inicial de objetivos en un volumen de interés [1]. El radar de seguimiento tiene como función principal el seguimiento de objetivos, que se logra manteniendo el haz sobre el objetivo [1]. Una de las diferencias entre estos tipos de radar es la frecuencia de actualización de la información. Los radares de exploración poseen una tasa de actualización del orden de 1 - 0.1 Hz y los de seguimiento de 100 – 10 Hz [2]. Conceptualmente, un sistema de radar consta de cinco componentes: un generador, un receptor, un amplificador, un procesador y un visualizador [3, 4]. El visualizador es un dispositivo electrónico que se utiliza para representar en un formato adecuado la información procesada por el analizador [5]. Para mostrar la información, pueden emplearse una variedad de formatos de indicaciones. Entre los tipos más comunes de indicaciones se encuentra la Indicación de Posición en el Plano los cuales suelen utilizarse en radares de vigilancia que efectúan coberturas en los 360o y la indicación tipo B que es empleada en el aterrizaje de precisión de aeronaves [6]. Estas indicaciones deben presentar al observador una imagen gráfica continua, que permita comprender de forma fácil la posición relativa de los objetos detectados, lo que contribuye a la eficiencia del proceso de toma de decisión por los operadores [6, 7]. Tradicionalmente, todos los componentes de un radar han sido analógicos [8]. Estos son altos consumidores de energía eléctrica, poseen gran volumen y peso, sus piezas están obsoletas y existe incapacidad de adquirir los repuestos en el mercado internacional. También, están sometidos a largos períodos de mantenimiento al presentar inestabilidad durante su funcionamiento, provocado fundamentalmente por el envejecimiento de sus partes y piezas. Conociendo la inestabilidad en el funcionamiento del sistema de visualización analógico y la necesidad de obtener un sistema visualizador que cumpla con las exigencias operativas del radar de seguimiento, este trabajo propone la digitalización del visualizador. Con la evolución de los sistemas digitales se han ido transformando para usar la señal digital [8]. Para la implementación de un sistema de procesamiento digital de señal de radar se suelen emplear dispositivos electrónicos programables como microcontroladores, DSPs (digital signal processing), FPGAs (field- programmable gate array) y CPLDs (Complex Programmable Logic Device) [8]. Para la presentación de la información de las señales de radar se emplean medios de cómputo y monitores digitales [9, 10], siendo esta una de las vías para la solución de los problemas planteados. Varios autores han abordado la implementación de visualizadores digitales cumpliendo con las exigencias de tiempo y procesamiento que impone el radar, empleándose diversas plataformas hardware y software [7, 9, 11-16]. Entre las ventajas que posee la recepción de la señal digital está la posibilidad del procesamiento automático de la información, además de aumentar la cantidad de información a representar en pantalla, facilitando la comprensión y toma de decisiones a los operadores, evidenciándose mejoras respecto a la limitada representación en las antiguas pantallas de fósforo. A continuación se realiza un análisis de soluciones dadas en la implementación de visualizadores digitales de radar. En [9, 10] se desarrolló un visualizador digital de la situación aérea para remplazar uno antiguo basado en tubo de rayos catódicos. Por razones de rendimiento la aplicación fue escrita en C++ y la representación de la situación aérea se realizó en un hilo independiente. Para simplificar el desarrollo se utilizó el framework Qt. Los autores plantean que al sistema se le realizaron pruebas de rendimiento en los que se obtuvieron resultados satisfactorios, aunque no se explicó en qué consistieron las mismas. Los autores de [11] desarrollaron un visualizador de datos de radar en tiempo real, el cual es usado para probar y analizar algoritmos de procesamiento del radar, así como para el entrenamiento de los usuarios. Los autores emplearon una distribución de GNU/Linux para el desarrollo de este componente del sistema de radar, pues plantean que es un sistema operativo de código abierto, posee alta estabilidad y buena robustez. En [12] se desarrolló un componente del sistema de radar denominado Extractor Digital de Datos de Radar, permitiendo modernizar radares analógicos. Una de las funciones que permite este componente es la visualización de la situación aérea. En este trabajo se hizo uso de la programación paralela mediante la creación de hilos de ejecución en diferentes puntos del código fuente, lográndose un mejor aprovechamiento de los recursos de cómputo, aunque no se realizó una comparación de la solución secuencial con respecto a la solución paralela empleada. Por su parte en [13] se diseñó e implementó una aplicación para la visualización de la situación aérea capaz de correr sobre varios sistemas operativos. El dibujo de los objetivos aéreos se realizó empleando la clase QPainter de Qt Creator. Según los autores este sistema puede ser empleado en radares antiguos. Los autores de [14] presentan un sistema de procesamiento y visualización multiplataforma de la información del radar. En el sistema se auxilian de un FPGA para el procesamiento de los datos, ya que eran más de un millón de datos a analizar. Para realizar la representación se empleó un computador de bajas prestaciones. En este trabajo se propuso combinar Graphics-view con OpenGL para lograr la visualización de imágenes de radar de forma eficiente, además, de hacer uso de múltiples hilos de ejecución. En [7, 15] se diseñó y desarrolló un visualizador de radar para monitorear el espacio aéreo de Indonesia, los autores plantean que uno de los parámetros más importantes a tener en cuenta durante el procesamiento y representación es lograr realizarlo en tiempo real. En el análisis bibliográfico se apreció que el lenguaje de programación mayormente empleado fue el C [7, 15] y el C++ [9-13], así como el uso del Entorno de Desarrollo Integrado (IDE, por sus siglas en inglés) Qt Creator [7, 9-11, 13-15]. Además se emplearon diferentes distribuciones de GNU/Linux [7, 12-16] no siendo así en [9, 10] que emplearon Windows 7, lo cual podría provocar un aumento del costo del proyecto al ser este sistema operativo privativo. La mayoría de los trabajos hacen uso de la interfaz Ethernet para la recepción de los datos [7, 11-16] con el empleo del protocolo de comunicaciones UDP (en inglés, User Datagram Protocol) y TCP (en inglés, Transmission Control Protocol). En [7, 9, 11, 15, 16] se empleó como dispositivo hardware computadoras de escritorio, lo cual podrían tener un costo superior de desarrollo del proyecto, un aumento de consumo eléctrico y volumen con respecto al empleo de otras tecnologías como los ordenadores de placa reducida (SBC, por sus siglas en inglés) que fue empleado en [12]. En varios trabajos emplearon la computación paralela [9, 11, 13, 15] para lograr un mejor aprovechamiento de las capacidades de procesamiento de los medios de cómputo. En los trabajos consultados no se fundamenta la selección de la arquitectura hardware, ya que además de tener que cumplir con requerimientos de fiabilidad, rendimiento en tiempo real y flexibilidad ante posibles cambios, se debería considerar el consumo de energía, el costo y el tamaño. Además, no presentan experimentos detallados con el empleo de métricas de evaluación del rendimiento del software, para sustentar la calidad de las soluciones propuestas. 2. MATERIALES Y MÉTODOS Para la solución del problema de investigación, dado por la necesidad de resolver los problemas presentes en el visualizador analógico, el sistema propuesto debe cumplir con las exigencias impuestas por el radar. Como parte del análisis del sistema se definieron las características a cumplir. Basado en la definición de requisitos realizada en [16, 17], durante el proceso de captura de requisitos se documentaron los siguientes:  El período de actualización de la información del sistema visualizador tiene que ser menor o igual a 40 milisegundos.  Consumo de energía del dispositivo encargado de la representación menor de 20 watts.  Costo del dispositivo encargado de la representación menor a los 100 USD.  Tamaño del dispositivo encargado de la representación no mayor de 10 x 10 centímetros.  Representar la información mediante la indicación tipo B.  Representar la situación aérea con una distancia máxima de 37500 metros.  Utilizar la escala de grises durante la representación de la situación aérea.  Emplear herramientas de software libre en el desarrollo y despliegue del sistema.  Permitir la fácil migración del código fuente a diferentes sistemas operativos. Durante el estudio del problema y de las soluciones realizadas por diversos autores para el desarrollo del visualizador de radar, los autores decidieron emplear un ordenador de placa reducida. Esta decisión está basada en que estos dispositivos poseen reducidas dimensiones, precios económicos y bajo consumo de energía eléctrica, cumpliendo con los requisitos planteados. Esta placa posee buenas capacidades de procesamiento, tiene interfaz Ethernet para la recepción de datos y ha existido un crecimiento del uso de software y hardware libre. Para el desarrollo de la propuesta de solución se seleccionó el ordenador de placa reducida Odroid-N2+ de 4 GB de RAM, el cual tiene unas dimensiones de 100mm x 91mm y un precio de 83 USD. Para cumplir con los requisitos del sistema se optó por emplear el sistema operativo Ubuntu, el cual es una distribución de GNU/Linux muy conocida y utilizada a nivel mundial por su simplicidad y fácil uso. Está basado en el sistema operativo Debian, heredando la robustez, estabilidad y seguridad de este. Al contarse con experiencia de trabajo sobre la plataforma, se ahorra tiempo de configuración y se aborda rápidamente el problema a resolver. Es un sistema operativo multitarea, multihilo y estable, siendo esta última característica necesaria para aplicaciones de este tipo, donde el mantenimiento del sistema es esporádico y el tiempo de ejecución continua predomina. Destaca debido a que se actualiza cada seis meses lo que repercute en una mejor detección del hardware y la disponibilidad de versiones más modernas de las aplicaciones incluidas. Es menos propenso a malware y virus. La mayoría del software compatible con Ubuntu también es gratuito y están disponible en "repositorios" en línea y tiene un amplio soporte de la comunidad. Los autores de [18, 19] evidenciaron que los lenguajes C y C++ poseen bajos tiempo de ejecución y consumo de energía. Se seleccionó el C++, ya que incluye muchos aspectos del lenguaje C, pero además incorpora muchas características sofisticadas tales como: programación orientada a objetos, excepciones, sobrecarga de operadores y uso plantillas (templates). También C++ posee control absoluto de memoria y se pueden usar todas las técnicas de manejo de punteros y conteo de referencia. Aunque su lanzamiento fue hace más de 35 años posee una comunidad que lanza actualizaciones con nuevas funcionalidades para adaptarlo a las necesidades del software y hardware actual. Es un lenguaje muy extendido, por lo que existen muchos tutoriales, libros, códigos fuentes y material disponible. Para la elección del IDE se tuvo en cuenta que fuera una aplicación de software libre, multiplataforma y que permita programar en C++, por lo que se seleccionó Qt Creator. Esta decisión está basada, ya que está certificado su uso en sistemas embebidos al cumplir con las normas IEC 62304:2015, la EN 50128:2011, la ISO 26262:2018-6 y 2018-8. Además, en [20-22] se plantea que Qt es una buena opción para usar en sistemas embebidos, debido a que posee un bajo consumo de memoria, es legible y portable en diferentes plataformas. La mayoría de los trabajos consultados donde se desarrollan visualizadores digitales [7, 9-11, 13-15] emplean el entorno de desarrollo integrado Qt Creator. Diseño e implementación del visualizador del radar La propuesta de solución del sistema visualizador de señales para un radar de seguimiento está compuesto por el ordenador de placa reducida y un monitor. El Odroid-N2+ recibirá la información de la señal del radar por interfaz Ethernet desde el bloque analizador. Los datos recibidos corresponden a muestras de amplitud de la señal del radar. Cada recepción es un barrido del radar, el cual contiene 6250 muestras de 8 bits. Una exploración del espacio aéreo lo componen 128 barridos. El período de actualización de la información de cada exploración es de 40 milisegundos, constituyendo este la restricción de tiempo impuesto por el radar. Cada barrido recibido será procesado en el ordenador de placa reducida y luego representado en el monitor. Para la recepción de datos se empleó el protocolo UDP, el cual es un protocolo simple y muy básico de la capa de transporte que no está orientado a conexión [23]. Esto implica que ambos extremos del enlace transmiten datos sin mecanismos de negociación ni control entre ellos y no se produce retardo añadido al envío de paquetes a causa de la creación de una conexión [24, 25]. Para la implementación del módulo receptor de datos se empleó la clase QUdp, disponible en Qt Creator. Los valores recibidos, como resultado de la transmisión de un barrido, son almacenados en un arreglo y luego procesados. Para lograr la representación de la situación aérea en la indicación tipo B se hizo uso de la clase QPainter de Qt Creator. QPainter permite dibujar diferentes formas geométricas como puntos, líneas, rectángulos, imágenes, textos, etc [13]. Para la representación en el indicador de tipo B, además de emplearse QPainter, se empleó la clase QImage. QImage está diseñada y optimizada para operaciones de entrada/salida, y para acceso y manipulación directa a nivel de pixel. La función setPixel() permite acceder a un pixel específico de la imagen y asignarle el color deseado. Para la asignación del color de cada pixel se empleó el formato RGB y al ponerse los valores de las tres componentes (rojo, verde y azul) con el mismo valor, se obtiene un color en escala de grises [26]. El proceso de pintado de cada barrido en la imagen consiste en acceder a cada uno de los 625 valores de 8 bits y asignarle el color en escala de gris. Al conocerse el número del barrido a representar, se le asigna el color generado al píxel correspondiente de la imagen. Una vez implementado el software fue ejecutado en el ordenador de placa reducida con que se cuenta. En la Fig. 1 se puede apreciar el sistema visualizador en funcionamiento. El sistema está compuesto por el ordenador de placa reducida, el cual está conectado al monitor vía HDMI. Además se aprecia la conexión del cable de red a la Odroid-N2+ y del cable de alimentación. Figura 1: Sistema visualizador de un radar de seguimiento. Considerando la propiedad de calidad de un sistema/software eficiencia de desempeño, la cual está relacionada con el rendimiento de un dispositivo en función de su comportamiento temporal, entre otras definidas en la Norma ISO/IEC 25023:2016, se midió el tiempo de ejecución del software. En esta medición se detectó que no se cumplió con el período de actualización del radar. En [27] se plantea que la eficiencia del desempeño puede ser afectado por la velocidad de ejecución del procesador, el ancho de banda de la red, la carga de la red, entre otros. Como el ancho de banda empleado es de 1 Gigabit/s, siendo este el máximo soportado por el ordenador de placa reducida empleado y suficiente para garantizar la recepción de los datos, entonces los esfuerzos fueron concentrados en la velocidad de ejecución del software. Teniendo en cuenta que varios trabajos emplearon la computación paralela [9, 10, 12, 14], con el objetivo de disminuir el tiempo de ejecución mediante la aceleración de los algoritmos, razón por la cual fue tenido en cuenta para la solución. En [28] se plantea que uno de los pasos a seguir para el diseño de un algoritmo paralelo es la identificación de las partes del algoritmo que son más costosas y que puedan ejecutarse de forma concurrente. En [27] se plantea como buena práctica asociada a la eficiencia del desempeño, el uso de herramientas dedicadas a las pruebas, la monitorización y el análisis de registros de la eficiencia del desempeño en el software. Para la identificación de las funciones más costosas temporalmente se empleó la herramienta de profiling Gprof, la cual es una herramienta de análisis dinámico que extrae información en tiempo de ejecución [29, 30]. Como resultado del análisis de rendimiento se obtuvo que las funciones más costosas temporalmente son en primer lugar, la encargada de la recepción de datos (representando aproximadamente un 57% del tiempo total), en segundo lugar, la encargada del procesamiento de los datos (aproximadamente un 22%) y por último, la de representación con aproximadamente un 18% del tiempo total. A partir de estos resultados que devolvió la herramienta de profiling se hace necesario realizar un diseño que explote las características de la Odroid-N2+. En la versión secuencial del software, para realizarse el procesamiento de los datos y la representación, es necesario primero concluir con la recepción de los datos de un barrido. Utilizando el paralelismo se puede lograr que una vez recibidos los datos correspondientes al primer barrido, pueda realizarse de forma secuencial el procesamiento y representación de estos datos y a la misma vez, la recepción de los datos del segundo barrido, ya que la recepción consume más tiempo que el procesamiento y representación de manera secuencial. El paralelismo que se alcanza puede ser comprendido a través de la Fig. 2 en la que se aprecia como varias etapas pueden estar activas al mismo tiempo en la versión paralela. Figura 2: Comportamiento en el tiempo del algoritmo secuencial y paralelo. En la etapa 1 ocurre la recepción de los datos y en la etapa 2 el procesamiento y representación. Para el desarrollo de la versión paralela del software se empleó como base la versión secuencial del mismo. El paralelismo empleado fue el de flujo. Este tipo de paralelismo corresponde al principio de trabajo en cadena, ya que se dispone de un flujo de datos sobre los cuales se deben efectuar un conjunto de operaciones [31]. Este tipo de paralelismo implica un procesamiento de tipo encauzamiento, pues la recepción de datos es continua durante el funcionamiento del sistema. Para la implementación, Qt Creator proporciona clases para hilos que facilitan sacar las tareas de larga duración del hilo principal. Para garantizar que el objeto receptor de datos se ejecute en otro hilo se hizo uso de la clase QThread. 3. RESULTADOS Y DISCUSIÓN Una vez implementadas las versiones del software para realizar el procesamiento y representación de la información de la señal de un radar de seguimiento, se hace necesario verificar si se cumple con la restricción temporal. Con el objetivo de determinar la configuración óptima del sistema visualizador y determinar los factores que influyen de manera significativa en el tiempo de ejecución, se empleó el diseño de experimentos. Se define como rendimiento del proceso, el tiempo en milisegundos que emplea el sistema en la representación de una exploración del radar. Los factores controlables identificados a continuación son descritos:  Versión del software: se refiere a la forma de identificación de un software como resultado de cambios en el desarrollo del mismo. Fue seleccionado como nivel bajo la versión secuencial y como nivel alto la paralela. Estas dos versiones difieren en que la versión paralela empleó un hilo de ejecución independiente para la recepción de datos.  Prioridad del proceso: el sistema operativo le asigna una prioridad a cada uno de los procesos. Los procesos con mayor prioridad se ejecutan antes que los procesos con menor prioridad. Fueron seleccionados dos niveles uno por debajo de lo normal (nivel bajo) y otro encima de lo normal (nivel alto). A continuación se describe el factor no controlable identificado:  Procesos ejecutados por el sistema operativo: en el momento en que se ejecuta el programa hay procesos ejecutándose en el sistema operativo, que consumen recursos arbitrariamente y no pueden ser detenidos. Se empleó como unidad experimental el Odroid-N2+ con el sistema operativo Ubuntu 18.04. Para realizar el diseño de experimentos se decidió hacer un diseño factorial completo, ya que se desea incluir todas las combinaciones posibles de los niveles de los factores. Al tener el factor controlable versión del software 2 niveles y prioridad del proceso 2 niveles, se realizaron 4 combinaciones y cada combinación será replicada 5 veces para disminuir el error experimental, por lo que en total se realizaron 20 corridas. Al obtenerse los valores de rendimiento para los tratamientos generados, se procedió a generar un conjunto de gráficas para obtener conclusiones sobre los experimentos realizados. Para ello se empleó el software Minitab 19. El objetivo es investigar los efectos de las variables de entrada sobre la variable de respuesta. El diagrama de Pareto permite detectar los efectos determinantes de factores e interacciones en el rendimiento del proceso o sistema [32]. Este diagrama muestra el valor absoluto de los efectos y se traza una línea de referencia en el gráfico. Cualquier efecto que sobrepase esta línea de referencia es potencialmente importante para el rendimiento del proceso [32]. Los efectos son organizados según su valor en orden decreciente. Además, permite visualizar las variables que tienen un mayor impacto sobre la variable de respuesta. Como se aprecia en la Fig. 3 la versión del software y la prioridad influyen en el tiempo del software. Figura 3: Diagrama de Pareto. A partir de lo mostrado en el diagrama de Pareto, se determinó que el efecto versión del software es el más significativo. Para analizar la magnitud del efecto de cada factor y comparar fácilmente el efecto entre distintos factores, se emplea la gráfica de efectos principales [32]. Un efecto principal es la diferencia en la respuesta media entre los niveles de un factor. En esta gráfica se muestran las medias de tiempo utilizando los dos niveles de la versión del software y las medias de tiempo utilizando las dos prioridades. La línea horizontal muestra la media de tiempo de procesamiento para todas las corridas. En la Fig. 4 se muestra el efecto que tiene cada uno de los factores por separado en el rendimiento del problema. Figura 4: Gráfica de efectos principales. El nivel en el que se obtienen los mejores valores de rendimiento es en la versión paralela, con una media de 31.61 ms, teniendo un efecto directo sobre el rendimiento. En el caso del factor prioridad, el nivel en el que se obtuvo una pequeña disminución del tiempo es por encima de lo normal (EN), con una media de 37.86 ms. Con esta gráfica se corrobora lo obtenido en el diagrama de Pareto y la gráfica de probabilidad normal de los efectos estandarizados. Ambos factores influyen en el tiempo de ejecución del software y el más significativo es la versión del software, ya que existe una diferencia entre las medias de los niveles de 14.6 ms. Para analizar la interacción entre los dos factores se debe examinar la gráfica de interacción que se muestra en la Fig. 5. Cada punto de la gráfica de interacción muestra el tiempo de procesamiento medio con diferentes combinaciones de los niveles de los factores. Figura 5: Gráfica de interacción. La gráfica de interacción muestra que con la combinación de la versión del software paralelo con la prioridad por encima de lo normal, se obtuvo la configuración óptima, ya que se logra la mayor disminución del tiempo de ejecución con una media de 30.6 ms. También, muestra que al emplearse la versión del software secuencial combinada con los dos niveles de prioridad se obtienen medias de tiempos que no cumple con la restricción. Métricas de rendimiento Las métricas de rendimiento permiten realizar un análisis cualitativo del rendimiento del algoritmo. Una de las métricas más empleadas para determinar si un algoritmo es superior a otro en cuanto a su rendimiento es obteniendo el mismo resultado pero en un menor tiempo de ejecución. Para realizar las pruebas del rendimiento del software se comparan los tiempos obtenidos en las soluciones propuestas en los diferentes dispositivos. Entre las métricas más empleadas se encuentran: la aceleración o speed up, y la eficiencia [28], las cuales se definen a continuación. La aceleración es una medida que captura el beneficio relativo de resolver un problema en paralelo [33]. Se define como la proporción del tiempo empleado secuencialmente con respecto al tiempo empleado en la versión paralela, aplicados a procesos idénticos [28]. Esta métrica permite conocer cuántas veces es más rápido el programa paralelo con respecto al programa secuencial. Matemáticamente está definida por la siguiente ecuación: p s T T S (1) Donde S es la aceleración, Ts representa el tiempo de ejecución secuencial y Tp el tiempo de ejecución paralelo. La eficiencia es una medida de la fracción de tiempo para la cual un elemento de procesamiento es útilmente empleado [33], la cual denota qué tan bien se han utilizado los procesadores. En un sistema ideal la eficiencia es uno, pero en la práctica está entre cero y uno [33]. La eficiencia de los programas paralelos decrece con el aumento del número de elementos de procesamiento para un tamaño de problema dado [33]. Matemáticamente está definida por la siguiente ecuación: P S E (2) Donde E es la eficiencia, S representa la aceleración y P el número de procesadores empleados. Para realizar los cálculos de las métricas de rendimiento, fueron utilizados los valores de la configuración óptima. La Tabla 1 muestra los valores de las métricas aplicadas al software. Tabla 1 Métricas de rendimiento aplicadas al software. Métrica Resultado Promedio del tiempo de ejecución en milisegundos Tiempo secuencial 45.12 Tiempo en paralelo 30.6 Aceleración 1.47 Eficiencia 0.36 Mejora 32% La tabla corrobora la disminución del tiempo de ejecución del software a partir del empleo de la versión de programación paralela, al tener la aceleración un valor mayor que 1 y una mejora de un 32% respecto a la versión secuencial. El valor de eficiencia mostrado en la tabla indica que el aprovechamiento de los recursos de cómputo del Odroid-N2+ es de un 36%. La potencia eléctrica es la energía absorbida o emitida por un dispositivo eléctrico en un instante determinado. Cuando se trata de corriente continua la potencia eléctrica del dispositivo es el producto de la tensión y la intensidad de corriente que lo atraviesa. Para la determinación de la potencia eléctrica consumida por el Odroid-N2+ se empleó una fuente de alimentación. A la fuente se le ajustó el voltaje de salida necesario para el funcionamiento del dispositivo, el cual es de 12 V. Luego se midió la intensidad de la corriente en amperios demandada. Estos valores fueron multiplicados para el cálculo de la potencia. Se obtuvo que la potencia consumida por este dispositivo al ejecutarse el software, sin mouse y teclado es de 2.04 W. 4. CONCLUSIONES La arquitectura hardware-software propuesta posibilita la representación digital de la información de señales cumpliendo con el período de actualización de un radar de seguimiento y aprovechar de forma eficiente los recursos de cómputos. Al emplearse software libre en la solución propuesta se logra una auténtica independencia tecnológica y con el empleo del Odroid-N2+ permitió obtener un sistema de bajo costo, tamaño y consumo eléctrico. Con la investigación realizada se obtuvo una sustitución tecnológica del sistema visualizador analógico, permitiendo realizar procesamiento digital de datos y disminuir los mantenimientos técnicos causados por el largo período de explotación y la obsolescencia de las piezas. REFERENCIAS 1. IEEE. Standard for Radar Definitions. IEEE Standards Association. New York, USA. 2017. 2. BUTLER, J. M. "Tracking and control in multi-function radar". Tesis de doctorado, University College London, Londres, 1998. 3. ACOSTA, N., M. A. TOSINI AND M. F. MEZZANOTTE. "Desarrollo de un Visualizador de Señales de Radar". En XII Congreso Argentino de Ciencias de la Computación. Argentina, 2006, p. 53-64. 4. ACOSTA, N., M. A. TOSINI, M. F. MEZZANOTTE AND M. TOMMASI. "Improving radar visualization system". Journal of Computer Science & Technology, 2007, vol 7, núm. 1, pp. 1-7. 5. KAVYASHREE, V., P. N. MADHU CHAITRA, H. VINUTHA AND S. RAJESHWARI. "A Radar Target Generator for Airborne Targets". International Journal of Advance Research and Innovative ideas in Education, 2017, vol 2, núm. 15, pp. 249-261. 6. KAUSHIK, P. "Radar Displays". International Journal of Innovative Research in Technology, 2014, vol 1, núm. 7, pp. 472-476. 7. SULISTYANINGSIH, Y. P. SAPUTERA, M. WAHAB AND Y. Y. MAULANA "Design of radar display of Indonesian airspace monitoring application". TELKOMNIKA, 2019, vol 17, núm. 3, pp. 1176- 1184. 8. GÓMEZ, F. A. S. "Metodología de codiseño hardware-software para procesamiento de señales radar en sistemas embebidos". Tesis de maestría, Pontificia Universidad Javeriana, Bogotá, 2017. 9. STAMATOVIĆ, M., M. JEVTIĆ, U. KISIĆ, M. TATAREVIĆ, et al. "Modern Air Situation Picture Display for Air Surveillance Radar Applications". Telfor Journal, 2013, vol 5, núm. 1, pp. 54-59. 10. STAMATOVIC, M., M. JEVTIĆ, U. KISIĆ AND M. TATAREVIĆ. "Design and implementation of a modern radar display for air surveillance applications". En 20th Telecommunications Forum (TELFOR). IEEE, 2012, p. 1520-1523. 11. MANASA, M. AND M. HEMALATHA. "Design of generic radar data visualizer using model view controller pattern". International Journal For Technological Research In Engineering, 2015, vol 2, núm. 12, pp. 2990-2992. 12. MONTAMAT, I. A. "Combinador de Información Primaria y Secundaria para Extractor Digital de Datos de Radar en Sistemas de Vigilancia". Tesis de maestría, Universidad Nacional de Córdoba, Córdoba, 2015. 13. RAVINDRA, C., S. RAJKUMAR AND M. SREENIVASA BABU. "Design and Implementation of Radar Console Displays for Multi Object Tracking Radar using Qt-IDE". En 11th International Radar Symposium India. India, 2017, p. 1-4. 14. TIAN, Z., M. WANG, M. ZHOU AND F. QIU. "Virtual Memory Based Radar Display and Control System". En International Conference on Machine Learning and Intelligent Communications. Shanghai, China: Springer, 2017, vol. 183, p. 383-392. 15. SAPUTERA, Y. P., SULISTYANINGSIH, T. T. ESTU AND M. WAHAB. "Radar Software Development for the Surveillance of Indonesian Aerospace Sovereignty". En International Conference on Electrical Engineering and Computer Science. Pangkal, Indonesia: IEEE, 2018, p. 189-194. 16. MELEGATI, J., A. GOLDMAN, F. KON AND X. WANG. "A model of requirements engineering in software startups". Information and software technology, 2019, vol 109, pp. 92-107. 17. CHANCHÍ, G. E. G., M. C. A. GÓMEZ AND W. Y. M. CAMPO. "Propuesta de un videojuego educativo para la enseñanza-aprendizaje de la clasificación de requisitos en ingeniería de software". Revista Ibérica de Sistemas e Tecnologias de Informação, 2019, núm. E22, pp. 1-14. 18. PEREIRA, R., M. COUTO, F. RIBEIRO, R. RUA, et al. "Ranking programming languages by energy efficiency". Science of Computer Programming, 2021, vol 205, núm. 102609, pp. 1-30. 19. PEREIRA, R., M. COUTO, F. RIBEIRO, R. RUA, et al. "Energy efficiency across programming languages: how do energy, time, and memory relate?". En Proceedings of the 10th ACM SIGPLAN International Conference on Software Language Engineering. Vancouver, Canada, 2017, p. 256-267. 20. THELIN, J. Foundations of Qt Development. United States of America: Apress, 2007. 528 pp. ISBN 978-1-59059-831-3. 21. RISCHPATER, R. Application Development with Qt Creator. United Kingdom: Packt Publishing Ltd, 2013. 264 p. ISBN 978-1-78328-231-9. 22. TAN, D.-P., S.-T. CHEN, G.-J. BAO AND L.-B. ZHANG. "An embedded lightweight GUI component library and ergonomics optimization method for industry process monitoring". Frontiers of Information Technology & Electronic Engineering, 2018, vol 19, núm. 5, pp. 604-625. 23. BUÑAY, P., D. PASTOR, P. PAGUAY AND S. MORENO. "Análisis de la Arquitectura DIFFSERV sobre redes MPLS para la provisión de QoS en aplicaciones en tiempo real (VoIP)". Revista Digital Novasinergia, 2019, vol 2, núm. 1, pp. 33-40. 24. GAGO, D. L. "Configuración y evaluación de prestaciones del protocolo Multipath TCP". Tesis de ingeniería, Universidad Carlos III de Madrid, Madrid, 2019. 25. LEIBOVICH, P. E., F. ISSOURIBEHERE AND J. C. BARBERO. "Ensayo y comparación de métodos de transmisión de sincrofasores sobre redes Ethernet". En XVIII Encontro Regional Ibero- Americano do CIGRE. Foz do Iguaçu, Brasil, 2019, p. 1-8. 26. MESA, E. D. A., H. S. T. VARGAS, D. A. G. ARANGO AND S. B. SIDEK. "Proceso de extracción y almacenaje de características a partir de imágenes de huellas de mordida en el desarrollo de un software para la identificación de personas mediante procesamiento digital de imágenes". Revista Espacios, 2018, vol 39, núm. 11, pp. 2-15. 27. PIÑERO, M., A. MARIN, Y. TRUJILLO AND D. BUEDO. "Buenas prácticas para prevenir los riesgos de la eficiencia del desempeño en los productos de software". Revista Cubana de Ciencias Informáticas, 2021, vol. 15, núm. 1, pp. 89-113. 28. MENA, O. L., T. C. CORDOVÉS, A. R. SUÁREZ AND H. D. PANDO. "Algoritmo paralelo para la obtención de predicados difusos". Revista Cubana de Ciencias Informáticas, 2017, vol 11, núm. 2, pp. 117-133. 29. CHO, S.-Y. "A Program Optimization Method for Embedded Software Developed Using Open Sources". International Journal on Advanced Science Engineering Information Technology, 2018, vol 8, núm. 4, pp. 1692-1697. 30. JANJUSIC, T. AND C. KARTSAKLIS. "Glprof: A gprof inspired, callgraph-oriented per-object disseminating memory access multi-cache profiler". Procedia Computer Science, 2015, vol 51, pp. 1363- 1372. 31. AGUILAR CASTRO, J. L. AND E. LEISS. Introducción a la Computación Paralela. Venezuela: Universidad de los Andes, 2004. ISBN 980-12-0752-3. 32. ANTONY, J. Design of Experiments for Engineers and Scientists. Netherlands: Elsevier, 2014. 221 p. ISBN 978-0-08-099417-8. 33. GOYA, A. A., D. G. CAÑIZARES, R. M. SÁNCHEZ AND C. C. BRITO. "Análisis de la Escalabilidad del cálculo paralelo de medidas de similitud entre pares de genes". Revista Cubana de Ciencias Informáticas, 2016, vol 10 núm. 3, pp. 71-84. Sobre los autores Lisvan Guevara Trujillo, Ingeniero Informático, graduado en 2017. Ocupa el cargo de Investigador Agregado en el Centro de Investigación y Desarrollo Naval, La Habana, Cuba. Actualmente realiza investigaciones sobre Sistemas Embebidos, Programación Paralela y Biomédica. Leandro Zambrano Méndez, Ingeniero Informático, graduado en 2010. Máster en Informática Aplicada, graduado en 2016. Doctor en Informática, graduado en 2019. Ocupa el cargo Vicedecano de Investigación y Postgrado, miembro del Comité del Programa de Doctorado de Informática y Profesor Asistente de la Facultad de Ingeniería Informática de la Universidad Tecnológica de La Habana, La Habana, Cuba. Actualmente realiza investigaciones sobre Sistemas Embebidos, Internet de las Cosas y Sistemas Bioinspirados. UNA SOLUCIÓN PARA EL CONTROL DE ACCESO PERSONAL USANDO NODE-RED Harol Picarín Pérez 1, Leandro Zambrano Mendez 2, Humberto Diaz Pando 3, Ernesto Martínez Álvarez 4 1,2,3,4 Universidad Tecnológica de La Habana “José Antonio Echeverría”, calle 114 No. 11901, Marianao, La Habana, Cuba. 1 e-mail: hpicarin@gmail.com 2 e-mail: lzambrano@ceis.cujae.edu.cu 3 e-mail: hdiazp@ceis.cujae.edu.cu 4 e-mail: emartineza@ceis.cujae.edu.cu RESUMEN Dado el incremento de la automatización, en las distintas áreas y procesos de cualquier entorno laboral, así como la masividad del Internet de las Cosas (IoT) en el quehacer cotidiano, se hace casi imprescindible el uso de una plataforma o herramienta que permita organizar y manejar todos los elementos de este tipo de sistema. Por eso se toma la herramienta Node-RED, ya que la misma es flexible y soportable para el control automático de diversos tipos de flujos a través dispositivos y sensores, y se crea una solución aplicada al control de acceso personal. Con este diseño se hace uso de las nuevas tecnologías basadas en IoT para el monitoreo en tiempo real desde diversas interfaces de todos los parámetros necesarios y requeridos por los distintos sistemas que intervienen y se entrelazan en la solución. Con la implementación sobre cualquier dispositivo de fácil manejo para la adquisición de datos, de forma tal que puedan ser renovados o cambiados por cualquier circunstancia, sin afectar a todo el sistema o influir de forma negativa en el desempeño del mismo. El objetivo de este trabajo es el desarrollo de una solución IoT que a través de las lecturas del código QR impreso en los carné de identificación de trabajadores y estudiantes de la CUJAE se pueda gestionar el acceso al centro. PALABRAS CLAVES: IOT, plataforma, monitoreo inteligente, control del acceso, interbloqueo. A SOLUTION FOR PERSONAL ACCESS CONTROL USING NODE-RED ABSTRACT Given the increase in automation, in the different areas and processes of any work environment, as well as the massiveness of the Internet of Things (IoT) in everyday life, the use of a platform or tool that allows organizing and manage all the elements of this type of system. That is why the Node-RED tool is taken, since it is flexible and bearable for the automatic control of various types of flows through devices and sensors, and a solution applied to personal access control is created. With this design, new IoT-based technologies are used for real-time monitoring from various interfaces of all the necessary parameters required by the different systems that intervene and are intertwined in the solution. With the implementation on any user-friendly device for data acquisition, so that they can be renewed or changed for any circumstance, without affecting the entire system or negatively influencing its performance. The objective of this work is the development of an IoT solution that through the readings of the QR code printed on the identification cards of CUJAE workers and students, access to the center can be managed. KEYWORDS: IOT, platform, smart monitoring, access control, interlock. 1. INTRODUCCIÓN El IoT es un paradigma emergente que permite la comunicación entre dispositivos electrónicos y sensores a través de Internet para facilitar nuestras vidas [1]. La fama de esta tecnología radica principalmente en todas las aplicaciones y posibilidades que nos proporciona para mejorar tanto la vida cotidiana de las personas como los entornos empresariales, dónde ya se está implantando desde hace algún tiempo. La definición de IoT podría ser la agrupación e interconexión de dispositivos y objetos a través de una red (bien sea privada o Internet, la red de redes), dónde todos ellos podrían ser visibles e interaccionar. Véase como la interconexión digital de objetos cotidianos por medio del internet. Alternativamente, internet de las cosas es la conexión de internet con más cosas u objetos que con personas [2]. Y es que cuando se trata de hardware IoT, uno puede pensar en los teléfonos móviles como dispositivos IoT, ya que los teléfonos inteligentes tienen sensores, pantallas y una dirección única y están conectados a Internet. Pero IoT no es más que la conexión a Internet de objetos inteligentes y sistemas integrados que no sean teléfonos móviles, con teléfonos móviles que actúan como centros de acceso para IoT [3]. IoT llama la atención de los investigadores, ya que se convierte en una importante tecnología que permite una comunicación entre objetos, máquinas y todas las cosas junto con las personas. El mismo representa un sistema, que consiste en cosas en el mundo real, y sensores conectados o combinados con estas cosas, conectado a Internet a través de una red cableada o inalámbrica [4]. Los dispositivos conectados necesitan un protocolo mediante el cual hasta objetos cotidianos como pueden ser el frigorífico, el calzado o la ropa. Cualquier cosa que se pueda imaginar podría ser conectada a internet e interactuar sin necesidad de la acción humana, el objetivo por tanto es una interacción de máquina a máquina, o lo que se conoce como una interacción M2M (machine to machine) o dispositivos M2M. IoT es la tecnología que más evoluciona hoy en día. Esta tecnología avanzada tiene muchas aplicaciones, tales como movilidad interconectada, gestión de la salud, domótica, monitorización de datos. Debido a la automatización de la casa, estamos logrando consuelo en nuestra vida cotidiana. Los sistemas están atrapados en un marco manejable de forma remota. [5]. 2. FUNDAMENTOS TEÓRICOS Sistemas de Control de Acceso Un sistema de control de acceso tiene tres funciones principales: la autenticación que permite la identificación de las personas o vehículos que solicitan acceder a una empresa o a una zona concreta; la autorización que gracias al software del sistema realiza las comprobaciones y envía la orden de abrir o no un acceso; y la trazabilidad que facilita la obtención de listados de las personas presentes en una zona o recinto. Se pueden encontrar soluciones como el control de acceso mediante cerradura digital o llave física, diseñado para las personas normales que no tienen ningún problema en la función cognitiva. Especialmente, la cerradura digital se ha generalizado porque ha sido aceptado como un medio eficiente y medios seguros para el control de acceso [6]. U otras creadas específicamente por causas como el COVID, con condiciones especiales de manipulación y contacto de los dispositivos de acceso. Un sistema de autorización biométrica es una opción para la seguridad en los grupos y medios de transporte escolares. Pero como el sistema necesita el contacto físico de los estudiantes con la máquina de lectura, puede tomar más tiempo para la autorización y un riesgo debido a la propagación de covid-19. Una de las soluciones a este problema es una gestión inteligente de la seguridad con sistema basado en tecnología RFID [7]. Plataformas IOT El paradigma de Internet de las cosas (IoT) es el siguiente paso en la evolución de los objetos inteligentes, en el cual cualquier cosa cotidiana se conecta a Internet mediante una interfaz física-digital basada en las Tecnologías de la Información y las Comunicaciones (TIC) presentes y futuras. Con IoT, cualquier objeto cotidiano puede ser equipado con dispositivos, siendo clave a la hora de abordar desafíos sociales y transformando muchos aspectos de la vida personal y social, la salud, la logística, la industria, por mencionar algunos [2]. Es por esto que se hace necesario un ecosistema donde puedan interactuar todos estos elementos, dando paso a las plataformas IoT. Las plataformas de IoT ofrecen una solución completa en cuanto a los servicios de control de dispositivos y de recolección, procesamiento y visualización de los datos. Generalmente residen en la nube, aunque pueden implementarse en servidores locales, especialmente en áreas remotas de difícil conectividad. Son conocidas como el middleware de Internet de las Cosas, actuando como mediador entre la capa de hardware y la capa de aplicación. Las plataformas de middleware IoT pretenden simplificar la lectura de datos de todo tipo de fuentes (dispositivos físicos, entrada humana, datos en línea, etc.) y proporcionan funcionalidades básicas para filtrar, analizar, crear eventos y visualizar la información recibida [1]. Llegado este punto es necesario pensar que arquitectura supondría la implantación de una plataforma de este tipo. De manera que permita que un grupo determinado de dispositivos interconectados recolecten y procesen información de distintos entornos empresariales. La solución IoT analizaría los datos para elaborar modelos a escala que permitan detectar con precisión las anomalías de los procesos y apoyar a los clientes en la planeación de acciones relevantes. El mismo ejemplo se puede adaptar en ambientes de transporte y logística, manufactura, comercio y salud. Desglose En Capas Posiblemente la más simple de todas las arquitecturas y una de las primeras en ser utilizada. Se caracteriza por su enfoque técnico y centralizado de cómo pueden organizarse los elementos en una red IoT. En esta arquitectura se definen 3 bloques principales [8]:  Capa de Percepción: Es la capa sensorial de IoT donde “las cosas” (“the things”) identifican sus alrededores, recaban información del mundo físico e interactúan con él. Esta capa está compuesta por cámaras, GPS, Sensores, terminales, tarjetas RFID y actuadores los cuales convierten toda la información en señales eléctricas que son más fáciles de transmitir para su posterior análisis.  Capa de Red: Es la capa central de IoT. Su función principal es transmitir y procesar la información obtenida por la capa de percepción. Esta capa también es responsable por interconectar otras redes de dispositivos inteligentes, elementos de red y servidores.  Capa de Aplicación: Capa responsable por entregar servicios y aplicaciones específicas al usuario final. Esta capa puede entenderse como la convergencia entre IoT y las necesidades industriales e intelectuales, definiendo aplicaciones específicas como casas inteligentes, ciudades inteligentes, transporte inteligente, entre muchas otras. Uso de protocolos Para la interconexión de muchos de estos dispositivos podríamos mencionar como principales protocolos [9]: De datos:  Message Queing Telemetry Transport (MQTT).  Constrained Application Protocol (COAP).  Advanced Message Queuing Protocol (AMQP).  Hypertext Transfer Protocol (HTTP). De red:  Hypertext Transfer Protocol (HTTP).  LoRaWAN [10].  Bluetooth.  Zigbee. Herramienta IOT Node-RED es un entorno de desarrollo basado en JavaScript de código abierto basado en Node.js, desarrollado por ingenieros de IBM y más adecuado para desarrollar sistemas IoT. Más específicamente, es un entorno de programación virtual basado en procesos, que crea "flujos de datos" desde el sensor a la nube conectando hardware y software [11]. La esencia de esta herramienta es permitir a ingenieros y técnicos simplemente crear y configurar en tiempo real aplicaciones en dispositivos finales [12]. 3. PROBLEMA ACTUAL El escenario el cual es punto de atención por parte de este equipo es el flujo diario tanto de personal como vehículos que necesitan acceder a la CUJAE. Con la problemática de lo engorroso que se vuelve llevar el control del mismo, ya sea de forma manual con registros físicos por el personal de seguridad y protección presentes en los puntos de acceso; o de manera automática con lectores de barra por la falta de disponibilidad de los mismos y de la infraestructura que conllevan. No se cuenta con un registro automatizado del acceso a la universidad, que permita de manera oportuna conocer cantidad de personas dentro de la entidad, validación y restricción de acceso, así como también saber el parque vehicular presente dentro de las áreas de la institución. 4. PROPUESTA DE SOLUCIÓN Como propuesta de solución y para su construcción se utilizó la herramienta Node-RED para la implementación de todos los flujos de conexión. Dentro de la misma existirán nodos que permitan la persistencia de datos en un servidor con MySQL. Además de interfaces para la autenticación en el entorno de los dispositivos y la transmisión de los datos de los mismos. Para toda la comunicación se usará el protocolo HTTP, tanto para las terminales a usar, dígase Raspberry Pi con videocámaras o simplemente Smartphone, para las lecturas del código QR presente en los carné del personal de la universidad; como para las interfaces de aplicaciones propias y los repositorios de datos. En la Figura 1 se muestra un diagrama de despliegue general de la solución propuesta. Figura 1: Diagrama de despliegue general de la solución propuesta. La solución propuesta en este trabajo se centra en el desarrollo de la plataforma que será la encargada de la gestión y comunicación (a través de los protocolos HTTP y MQTT) de la capa “Terminales” y la capa “Aplicación”. Como se muestra en la Figura 1 la capa de la plataforma está compuesta por tres nodos que se encargan de crear la infraestructura necesaria para el despliegue correcto de los elementos que componen la plataforma. CONCLUSIONES Luego de diversos analisis y opciones, tomadas en cuenta para la realizacion de este tipo de solución, nos damos cuenta la facilidad con que hoy en dia, se puede lograr un entorno de IoT. El mismo, aplicado particularmente a escenarios como el control de acceso en instituciones o empresas, permite la homologacion de los distintos equipos hoy puestos en explotacion, la adquisicion de equipamiento mas barato, y la extension de vida util de los sistemas que hoy se usan. A esto tambien se suma, que no obliga al cliente a cambiar su entorno de sistemas, sino que le brinda de manera modular, la facilidad de introduccion de lo necesitado en su entorno de trabajo. Con Node-RED como herramienta base para la creacion de flujos e interfaces de aplicación. REFERENCIAS 1. Kumar, S., Tiwari, P. & Zymbler, M. Internet of Things is a revolutionary approach for future technology enhancement: a review. J Big Data 6, 111 (2019). 2. Roja Lòpez, Diego Enrique y Bermùdez Luna, Yeison Stiven. Sistema de riego para control y supervisiòn de cultivo de espinaca. Universidad Distrital Francisco Jose de Caldas. (2019) p 3 3. K. J. Singh and D. S. Kapoor, "Create Your Own Internet of Things: A survey of IoT platforms.," in IEEE Consumer Electronics Magazine, vol. 6, no. 2, pp. 57-68, April 2017, doi: 10.1109/MCE.2016.2640718. 4. S. Chanthakit and C. Rattanapoka, "MQTT Based Air Quality Monitoring System using Node MCU and Node-RED," 2018 Seventh ICT International Student Project Conference (ICT-ISPC), 2018, pp. 1-5, doi: 10.1109/ICT-ISPC.2018.8523891. 5. R. K. Kodali and A. Anjum, "IoT Based HOME AUTOMATION Using Node-RED," 2018 Second International Conference on Green Computing and Internet of Things (ICGCIoT), 2018, pp. 386-390, doi: 10.1109/ICGCIoT.2018.8753085. 6. J. J. Jang, J. Moon and I. Y. Jung, "A Personalized Access Control Based on IoT," 2015 IEEE 21st Pacific Rim International Symposium on Dependable Computing (PRDC), 2015, pp. 317-318, doi: 10.1109/PRDC.2015.36. 7. P. V. Bindu, K. D. Al-Hanawi, A. M. Al-Abri and V. Mahadevan, "IoT Based Safety System for School Children: A Contactless Access Control for Post Covid School Conveyance," 2021 2nd International Conference for Emerging Technology (INCET), 2021, pp. 1-4, doi: 10.1109/INCET51464.2021.9456314. 8. González García, Antonio Jesús. IoT: Dispositivos, tecnologías de transporte y aplicaciones. (2017). p. 5, pp 16-24 9. Manosalva Barrera, Néstor Eliécer, & Cangrejo Aljure, Libia Denisse. (2018). Arquitectura tecnológica loT para la trazabilidad de productos frescos. Revista Cubana de Ciencias Informáticas, 12(1), 28-42. p 33 10. Babun, L., Denney, K., Celik, Z. B., McDaniel, P., & Uluagac, A. S. (2021). A survey on IoT platforms: Communication, security, and privacy perspectives. Computer Networks, 192, 108040. p. 3 11. Ferencz, Katalin & Domokos, Jozsef. (2020). Using Node-RED platform in an industrial environment. https://www.researchgate.net/publication/339596157_Using_Node- RED_platform_in_an_industrial_environment. p 6 12. M. Lekić and G. Gardašević, "IoT sensor integration to Node-RED platform," 2018 17th International Symposium INFOTEH-JAHORINA (INFOTEH), 2018, pp. 1-5, doi: 10.1109/INFOTEH.2018.8345544. SOBRE LOS AUTORES Harol Picarin Pérez, Ingeniero Informático, graduado en 2010. Ocupa el cargo Especialista en Ciencias Informáticas de la Facultad de Ingeniería Informática de la Universidad Tecnológica de La Habana, La Habana, Cuba. Actualmente realiza investigaciones sobre Internet de las Cosas y plataformas asociadas, además es estudiante de maestría en la facultad antes mencionada. Leandro Zambrano Méndez, Ingeniero Informático, graduado en 2010. Máster en Informática Aplicada, graduado en 2016. Doctor en Informática, graduado en 2019. Ocupa el cargo Vicedecano de Investigación y Postgrado, miembro del Comité del Programa de Doctorado de Informática y Profesor Asistente de la Facultad de Ingeniería Informática de la Universidad Tecnológica de La Habana, La Habana, Cuba. Actualmente realiza investigaciones sobre Sistemas Embebidos, Internet de las Cosas y Sistemas Bioinspirados. Humberto Díaz Pando, Facultad de Ingeniería Informática, Universidad Tecnológica de La Habana "José Antonio Echeverría", CUJAE. Profesor Auxiliar, Doctor en Ciencias Técnicas, desarrolló sus estudios de doctorado en la Universidad de Alicante, España. Sus intereses de investigación están dirigidos a la seguridad informática, aplicaciones de internet de las cosas. ORCID: 0000-0003-1591-87811 Ernesto Martínez Álvarez, Estudiante de 3er año de la Facultad de Ingeniería Informática, Universidad Tecnológica de La Habana "José Antonio Echeverría", CUJAE. Trabaja en la línea de investigación de Infraestructura de Sistemas Informáticos (ISI) en proyectos relacionados con soluciones IoT y aplicaciones móviles. PROTOCOLOS ASIMÉTRICOS CON CRIPTOGRAFÍA NO CONMUTATIVA Y MATRICES ELEMENTALES Ernesto Rafael Carbonell Rigores1, Ricardo Araujo Rodríguez2 1Facultad de Ingeniería Informática, Universidad Tecnológica de la Habana “José Antonio Echeverría” Cujae , Calle 114 #11901 e/ Ciclovía y Rotonda. Marianao. La Habana. CP 19390 2Grupo de Desarrollo de Software, Instituto Finlay de Vacunas, Avenida 21, No. 19810, entre 198 y 200, Reparto Atabey, Playa, La Habana 1e-mail: ernesto@ceis.cujae.edu.cu, 2e-mail: raraujo@finlay.edu.cu RESUMEN En este trabajo se presenta una implementación de cuatro protocolos criptográficos asimétricos: transporte de claves, intercambio de claves, firma digital y cifrado de mensajes, basada en una propuesta teórica realizada por Juan Pedro Hecht, de la Universidad de Buenos Aires, Argentina. En los cuatro casos, se utiliza criptografía no conmutativa mediante el grupo algebraico de matrices de Hill. Como función de una vía se utiliza el Problema Generalizado de la Descomposición Simétrica, considerado un problema computacionalmente intratable, lo que obliga a la aplicación de “fuerza bruta” para vulnerarlo. Estos protocolos utilizan aritmética de precisión simple, lo que los hace utilizables en dispositivos de bajas prestaciones computacionales. En la propuesta original se requiere que algunas matrices se generen “aleatoriamente” y sean no singulares. Sin embargo, la “aleatoriedad” de una matriz no garantiza su no singularidad, por lo que dicha propuesta sugiere, iterar este proceso hasta obtener una matriz invertible, lo cual implica un elevado costo computacional. En este trabajo se propone una variante de solución a esta problemática, que consiste en la generación “aleatoria” de matrices elementales, imponiendo ciertas condiciones que garantizan su no singularidad. Las operaciones aplicadas sobre matrices elementales requieren un esfuerzo computacional menor que al aplicarlas sobre matrices generales y un espacio menor que el necesario para almacenar las entradas de las matrices generales. PALABRAS CLAVES: criptografía no conmutativa, protocolo criptográfico, matriz elemental, criptografía asimétrica, Problema Generalizado de la Descomposición Simétrica. ASYMMETRIC PROTOCOLS WITH NON-COMMUTATIVE CRYPTOGRAPHY AND ELEMENTARY MATRICES ABSTRACT This paper presents an implementation of four asymmetric cryptographic protocols: key transport, key exchange, digital signature and ciphering, based on a theoretical proposal made by Juan Pedro Hecht, at the University Of Buenos Aires, Argentina. In all of the four cases, non-commutative cryptography is used by means of the algebraic group of Hill matrices. As a one-way function, the Generalized Symmetric Decomposition Problem is used, considered a computationally intractable problem, which requires the application of "brute force" to attack it. These protocols use single-precision arithmetic, which makes them usable on devices with low computational performance. In the original proposal, some matrices are required to be generated “randomly” and to be non-singular. However, the "randomness" of a matrix does not guarantee its non-singularity, so that proposal suggests iterating this process until an invertible matrix is obtained, which implies a high computational cost. In this work, an alternative solution to this problem is proposed, which consists of the "random" generation of elementary matrices, imposing certain conditions that guarantee their non-singularity. The operations applied on elementary matrices require a lower computational effort than when applying them on general matrices and a smaller space than the necessary to store the entries of the general matrices. KEY WORDS: non-commutative cryptography, cryptographic protocol, asymmetric cryptography, elementary matrix, Generalized Symmetric Decomposition Problem. 1. INTRODUCCIÓN En la actualidad, el diseño de casi todos los sistemas computacionales impone, como requisitos, aspectos de Seguridad Informática. En ese proceso, los criptógrafos persiguen el objetivo de preservar la información y los criptoanalistas persiguen el de vulnerarla para sacar algún provecho de ella. Es por ello, que los métodos para ocultar y transmitir información han debido ser cada vez más sofisticados y sólidos, en aras de poder hacer frente a los ataques para destruirlos. En tal sentido, las matemáticas y la tecnología se han convertido en pilares fundamentales de la criptografía. La referida necesidad de preservar la información y transmitirla de forma segura, en el contexto de la Informática, ha estado presente desde el desarrollo de los primeros sistemas y redes de computadoras. Para responder a estos requerimientos, se diseñan soluciones ingeniosas que ofrecen garantías de confidencialidad, a través de mecanismos conocidos como herramientas (primitivas) criptográficas [1, 2]. La publicación, en 1976, de [3] se considera uno de los resultados más sorprendentes en la historia de la criptografía. En ese trabajo, Whitfield Diffie y Martin Hellman introdujeron el concepto de criptografía de clave pública (criptografía asimétrica o de dos claves), que ofreció un nuevo método para el intercambio de claves. Este método basa su seguridad en la intratabilidad computacional del Problema del Logaritmo Discreto (DLP, por las siglas del término inglés Discrete Logarithm Problem) [4]. A pesar de que los autores no contaban con un esquema práctico para el cifrado de clave pública, la idea fue clara y despertó gran interés y actividad en la comunidad criptográfica. En 1978, Ron Rivest, Adi Shamir y Leonard Max Adleman descubrieron el primer esquema práctico de cifrado y firma de clave pública, conocido hoy como RSA (por las iniciales de sus autores). La seguridad de este esquema se sustenta en el Problema de la Factorización de Enteros (IFP, por las siglas del término inglés Integer Factorization Problem), considerado computacionalmente difícil [4, 5]. En 1985, Taher ElGamal presenta otro esquema de clave pública, basado en DLP [4, 6]. A partir de estos trabajos y de forma tradicional, los protocolos criptográficos asimétricos han basado su seguridad en los problemas DLP e IFP aplicados sobre campos numéricos de naturaleza conmutativa. Sin embargo, se conocen ataques subexponenciales para muchos de ellos, se presume la existencia de ataques en tiempo polinomial y de futuros ataques eficientes a través de algoritmos cuánticos contra algunos [7-15]. Como respuesta, ha crecido el interés en el desarrollo de soluciones simples, entre las que se pueden mencionar las multi-cuadráticas, las basadas en hash, así como la criptografía algebraica no conmutativa y no asociativa [10]. En 2015, Pedro Hecht presenta en [9] una novedosa propuesta teórica, que consiste en un conjunto integrado de cinco protocolos criptográficos asimétricos, arbitrados y compactos, para intercambio de claves, transporte de claves, cifrado de mensajes, firma digital y autenticación (de conocimiento cero), respectivamente. A tales efectos, el autor expone las bases estructurales que fundamentan su propuesta, en virtud de las cuales se elige el grupo general lineal GL(n,Zp), como espacio no conmutativo común para dichos protocolos, formado por las matrices de orden n, cuyas entradas son congruencias módulo p (denominadas, en este trabajo, valores modulares). A GL(n,Zp) se le conoce en criptografía como el grupo de las matrices de Hill. El autor seleccionó el orden 8 y el módulo 251, que es el mayor número primo representable en 8 bits. GL(8,Z251), que el autor denota por M8, ofrece la garantía de que estos protocolos formen parte de la criptografía pos-cuántica, debido a que el producto matricial es, en general, no conmutativo. Al conjunto de protocolos se le considera integrado, dado que comparten un único núcleo algebraico. Por otro lado, todos basan su seguridad en el Problema Generalizado de la Descomposición Simétrica (GSDP, por las siglas del término inglés Generalized Symmetrical Decomposition Problem), aplicado sobre GL(8,Z251). La elección del módulo 251 convierte a los protocolos en compactos, por operar exclusivamente con aritmética de precisión simple. Esto hace posible su empleo en dispositivos de bajas prestaciones computacionales (procesadores de 8 ó 16 bits, teléfonos celulares, tablets, etc.). Se les considera, además, protocolos arbitrados por incorporar una Tercera Parte de Confianza (TPC) [9]. El objetivo de este trabajo consiste en ofrecer una implementación eficiente de los protocolos anteriormente mencionados, realizada por Ricardo Araujo en [16] (con la excepción del protocolo de autenticación). 2. GENERACIÓN Y OPERACIONES MATRICIALES EN LOS PROTOCOLOS Un tema común en las matemáticas consiste en dividir objetos complicados en componentes más simples [17], que permitan una mayor eficiencia en torno a requisitos impuestos a su manipulación, como los de almacenamiento y cantidad de operaciones (que determina el tiempo de ejecución de dicha manipulación). En el ámbito del álgebra, las matrices con una estructura determinada se consideran un ejemplo de esa clase de componentes. Con “estructura determinada”, se hace referencia a una distribución específica de los elementos o a la naturaleza particular de estos. Entre esas matrices, se encuentran las simétricas, diagonales, triangulares y elementales. En general, a las matrices que responden a una estructura se les conoce como matrices estructuradas. A las que no, se les denomina matrices generales [18]. Usualmente, es posible explotar, convenientemente, esta estructura matricial en aras de reducir el espacio para su almacenamiento o la cantidad de operaciones para su manipulación. Por ejemplo, una simétrica puede almacenarse en, aproximadamente, la mitad del espacio requerido por una general de su mismo orden. El producto de una matriz con muchos ceros, por un vector, puede tomar menos tiempo de ejecución que el de una matriz que no tenga entradas nulas, por un vector [18]. Generación aleatoria de matrices en los protocolos En las bases estructurales descritas en [9] se establece, para todos los protocolos, que ciertas matrices de M8 sean generadas aleatoriamente, a la vez que sean no singulares. Para cada una de ellas, el autor propone la generación aleatoria de sus 64 entradas (en Z251) y el cálculo de su determinante. La generación de todas las entradas debe repetirse mientras el determinante calculado resulte nulo [9], lo cual garantiza que la matriz así generada sea no singular pero no garantiza la eficiencia en el proceso, dado el elevado esfuerzo computacional que demanda el cálculo del determinante [17, 18]. Como respuesta a la problemática antes planteada, en este trabajo se propone utilizar matrices elementales invertibles que, por la naturaleza de su estructura, ofrecen beneficios relacionados con la eficiencia, como se muestra en la siguiente sección. Matrices elementales Las matrices elementales, también conocidas como transformaciones elementales, juegan un rol clave en la teoría y los cálculos matriciales. Se utilizan, tanto en el desarrollo de algoritmos para problemas computacionales, como para proporcionar pruebas constructivas de muchos resultados analíticos, como la eliminación gaussiana [17, 19]. Una matriz elemental de orden n responde la forma: , T uvIA  (1) donde u y v son vectores columna de orden n, de un cierto espacio Fn, e I es la matriz identidad de orden n. La inversa de esta matriz se obtiene mediante la expresión: , 1 )( 11    uv uv IuvIA T T T (2) siempre que vTu≠1. De lo contrario, la matriz resulta ser no invertible [17-19]. Nótese que vTu es un escalar, al igual que el valor: , 1 1   uv k T (3) denotado por k y denominado, en este trabajo, factor de inversión, que multiplica a uvT en (2). La obtención de k requiere 2n operaciones para el producto interior vTu (n productos y n sumas), una sustracción y una división, por lo que el orden de complejidad computacional para obtener k resulta lineal. La inversa A-1=(I-u’v’T) de una matriz elemental A de la forma (1) solo requiere de la obtención de los vectores u’=ku y v’=v. Para ello, se realizan, 2n operaciones para obtener k, n operaciones para obtener u’ y n operaciones para obtener v’. En resumen, el cálculo de la inversa se realiza con un costo computacional de orden lineal, que resulta significativamente menor que el de la inversión de matrices generales. El uso de matrices elementales para los protocolos conduce a una propuesta de representación interna para esta clase matricial, consistente en almacenar solo los vectores u y v, así como el factor de inversión k, para un total de 2n+1 valores modulares. En términos de eficiencia espacial, esto contrasta con los n2 valores modulares requeridos para la matriz general. Se propone, además, calcular y almacenar el factor de inversión k’, mediante (3), al obtener la inversa A-1 de A. El uso de esta clase de matrices ofrece varias ventajas relacionadas con la cantidad de operaciones para su manipulación. En primer lugar, y en virtud de (3), no se requiere calcular determinante alguno para obtener la inversa. Otras operaciones, como los productos matriz-matriz y matriz-vector, así como la potenciación, utilizados en los protocolos, se realizan de una manera más eficiente cuando las matrices involucradas son elementales y se aprovecha su estructura [17, 18]. Generación “aleatoria” de matrices elementales para los protocolos Como se expresó antes, la propuesta original en [9] establece la generación al azar de matrices generales invertibles de orden 8 en todos los protocolos. Se propone generar “al azar” las 8 entradas de u y las 8 de v y calcular y almacenar el factor de inversión de la matriz elemental generada, mediante una estrategia que garantiza su no singularidad (vTu≠1), como se ilustra en el algoritmo, al estilo MATLAB, de la Fig. 1. La idea esencial radica en no generar todas las entradas de u y v para, luego, verificar si vTu≠1. Por el contrario, se generan los n-1 primeros elementos de esos vectores y se calcula su suma. A continuación, se genera la última entrada de u y la de v. El producto de ellas completaría el cálculo del escalar vTu pero, para que la matriz sea no singular, la suma de los n-1 productos anteriores más ese último producto debe resultar en un valor distinto de 1. Luego, el valor de vn debe ser generado una y otra vez, mientras no garantice la satisfacción de esa condición. Por otro lado, tanto los elementos de u, como los de v, deben ser distintos de cero, para que ninguna fila ni columna de la matriz general correspondiente sea nula. Otro aspecto a considerar es que el producto de ui*vi no sea 1, dado que dicho producto se corresponde con la i-ésima entrada diagonal de la matriz que se sustrae de la matriz identidad en (1), cuya i-ésima entrada tiene, también, valor 1, lo que resultaría en un valor nulo en la matriz general que se genera a partir de la elemental. Al imponer estas condiciones, la matriz generada no es realmente aleatoria, razón por la cual se ha encerrado entre comillas el vocablo aleatoria. [u, v, k] = GeneraMatrizElementalNoSingular(n) suma = 0 Para i = 1 : n - 1 Hacer ui = random() encontrado = (ui = 0) j = 1 Mientras (encontrado = falso) y (j < i) Si (uj ≠ ui) j = j + 1 Si no encontrado = verdadero Fin Fin Mientras (encontrado = verdadero) Hacer vi = random() prod = vi * ui encontrado = (vi = 0) ó (vi = ui) ó (prod = 1) j = 1 Mientras (encontrado = falso) y (j < i) Si (vj ≠ vi) j = j + 1 Si no encontrado = verdadero Fin Fin Mientras (encontrado = verdadero) suma = suma + prod Fin Hacer un = random() encontrado = (un = 0) j = 1 Mientras (encontrado = falso) y (j < n) Si (uj ≠ un) j = j + 1 Si no encontrado = verdadero Fin Fin Mientras (encontrado = verdadero) Hacer vn = random() prod = vn * un encontrado = (vn = 0) ó (vn = un) ó (prod = 1) ó (prod + suma = 1) j = 1 Mientras (encontrado = falso) y (j < n) Si (vj ≠ vn) j = j + 1 Si no encontrado = verdadero Fin Fin Mientras (encontrado = verdadero) k = 1 / (suma + prod – 1) Fin Figura 1: Algoritmo para la generación “aleatoria” de matrices elementales no singulares. Nótese, además, que ni las entradas de u ni las de v se repiten y que los elementos de igual posición, en ambos vectores, deben ser distintos en magnitud. Con este proceder se genera “aleatoriamente” una matriz elemental no singular con una mayor eficiencia que la obtenida por la generación aleatoria de una general no singular. 3. IMPLEMENTACIÓN DE LOS PROTOCOLOS Y SUS RESULTADOS En esta sección se describe la variante adoptada en [16] para la implementación de los protocolos de transporte de claves, intercambio de claves, firma digital y cifrado de mensajes, propuestos en [9]. Esta variante fue desarrollada en atención a aspectos de eficiencia en torno al tiempo de ejecución de las operaciones sobre las matrices, al espacio requerido para el almacenamiento de estas y a la cantidad de datos que se transmiten por la red. Para ello, se introdujo el uso de matrices elementales, en sustitución de las generales que requieren ser generadas al azar, algunas de las cuales deben ser no singulares. Esta modificación en los protocolos permite, de manera consciente y sistemática, aprovechar la estructura de las elementales para satisfacer los requisitos de eficiencia mencionados. Como se expresó anteriormente, en todos los protocolos se utiliza el grupo general lineal GL(8,Z251) de matrices de Hill. Adicionalmente, hacen uso de un subgrupo conmutativo en el que se generan matrices mediante transformaciones de similitud de la forma PDP-1, donde P es una matriz de vectores propios, cuadrada, de orden 8 y no singular. Por su parte, D es la matriz diagonal con los valores propios correspondientes, también de orden 8. En todos los protocolos, las entradas de todas las matrices D deben generarse “al azar”, distintas dos a dos y no nulas. La seguridad de los protocolos se garantiza a través de GSDP, como función trampa de una vía para la que no se conocen soluciones eficientes y que consiste en, dados un grupo no conmutativo G, un subgrupo abeliano S (SG), el par (x, y)G×G y los enteros m y n, encontrar zS, tal que y=zmxzn. Vale aclarar, que en este trabajo, como en la propuesta original, el mencionado grupo no conmutativo G es el de las matrices de Hill. Como se observa, se requiere calcular las potencias m y n de la matriz z. En [9] se propone que m y n sean distintos y tomen valores en el intervalo [2, 1024], denominado en este trabajo intervalo de confianza, en el que se brinda suficiente seguridad para combinaciones aleatorias de dos potencias de una matriz y no se afecta, sensiblemente, el tiempo de ejecución de la operación de potenciación. En aras de lograr la eficiencia requerida, se propone, además, obtener y almacenar la menor de ellas y, a partir de ella, continuar con el cálculo de la mayor [9]. Todos los protocolos se ejecutan en varias fases. En ellos, intervienen dos entidades: Alice y Bob, que generan sus respectivas claves privadas y, en dependencia del protocolo particular, pueden definir otros datos. Vale aclarar que, en el de firma digital solo interviene la entidad Alice. La primera de las fases siempre es de preparación, en la que la TPC genera y publica la matriz de vectores propios P y, de igual modo, en dependencia del protocolo, puede generar y publicar otros datos. En este trabajo se propone que P sea una matriz elemental, de modo tal que se genere mediante el algoritmo de la Fig. 1 y se aproveche su estructura para utilizar un menor espacio para su almacenamiento y dar mayor velocidad a las operaciones que la involucran. Resulta importante significar que en todos los protocolos, en ningún momento se exponen las claves privadas ni datos secretos de ninguna de las entidades. En todos los casos, con la única excepción del protocolo de firma digital, la implementación consistió en dos aplicaciones: una que lleva a cabo el rol de Alice y la otra, el de Bob. Para la firma digital se implementó solo la correspondiente a la entidad Alice. Todas las aplicaciones se desarrollaron en el Ambiente de Desarrollo Integrado QtCreator 5.7.0, en lenguaje C++. Se hizo uso del protocolo de comunicación TCP/IP. Para la validación de la implementación de cada protocolo, se contrastaron las mediciones del tiempo de ejecución de la variante propuesta con matrices elementales, contra una variante con matrices generales y operaciones por métodos algebraicos tradicionales. Para ello, se utilizó, como unidad experimental, un ordenador portátil Lenovo, con procesador Intel Core i3-6006U, con 8.00GB de RAM y 3.00MB de Caché. Los tiempos de ejecución que aquí se presentan, son el resultado de promediar los tiempos medidos en 45 ejecuciones consecutivas de cada una de las variantes implementadas. Dado que las potencias deben ser distintas, se procedió a medir los tiempos de ejecución de estas variantes para los órdenes 4, 8, 16, 32, 64 y 128 de las matrices y para las combinaciones de potencias m=2 y n=3 (denotadas en las tablas como “Potencias mínimas”) y m=1023 y n=1024 (denotadas en las tablas como “Potencias máximas”). A continuación, se presenta la implementación de los protocolos, que incluye las modificaciones que se hicieron a la propuesta original, junto con los resultados obtenidos en las mediciones de sus tiempos de ejecución. Protocolo de transporte de claves Este protocolo implementa una versión generalizada del de Baumslag [20]: La entidad Alice desea transmitir una clave secreta K a la entidad Bob [9]. En la fase de preparación, la TPC genera al azar y publica la matriz P. Alice genera al azar la clave secreta K (de M8), la matriz diagonal DA y obtiene su clave privada A=PDAP-1. Por su parte, Bob genera al azar la matriz diagonal DB y obtiene su clave privada B=PDBP-1. En la fase 2, Alice elige al azar dos enteros diferentes k1 y k2 del intervalo de confianza, obtiene la matriz TA=Ak1KAk2 y la envía a Bob. En la fase 3, Bob elige al azar dos enteros r1 y r2 del intervalo de confianza, obtiene la matriz TB=Br1TABr2 y la envía a Alice. En la cuarta fase, Alice obtiene y envía a Bob la matriz S=A-k1TBA-k2. En la quinta y última fase, Bob obtiene la clave secreta mediante K=B-r1SB-r2. Finalmente, en [9] se presenta, mediante operaciones matriciales, una demostración de la obtención, por Bob, de la clave secreta K, por medio de este protocolo. Las modificaciones a este protocolo establecen, para la fase de preparación, que Bob es quien genera (mediante el algoritmo de la Fig. 1), y envía a Alice, la matriz P, como elemental no singular. Por otra parte, Alice genera la clave secreta K, como matriz elemental. El resto de las operaciones se realizan como se propone en la variante original. Las fases 3 a 5, y el resto de las operaciones de las fases modificadas se realizan según lo establecido en la propuesta original [9]. Dado que K y P se han generado como matrices elementales, en la fase 2 Alice no utiliza directamente su clave privada A para calcular TA. En su lugar se utilizó una función que aprovecha la estructura de estas dos matrices para acelerar los cálculos. Para ello, se utilizó la propiedad algebraica Ak=(PDAP-1)k=PDAkP- 1, donde la potenciación de una matriz diagonal es una operación de orden computacional lineal. En lo adelante, se denota por f(P,DA,K,k1,k2)=PDAk1P-1KPDAk2P-1 a esta función. En la Tabla 1 se muestran los resultados de las mediciones del tiempo de ejecución (en milisegundos) de este protocolo para los órdenes matriciales 4, 8, 16, 32, 64 y 128 y para las combinaciones de potencias m=2 y n=3 (potencias mínimas) y m=1023 y n=1024 (potencias máximas). Nótese que, para matrices de orden 4 y 8, con las potencias mínimas, los tiempos no alcanzan el milisegundo en ninguna de las dos variantes, por lo que no se puede determinar cuál de ellas es más eficiente. En el resto de los casos, la variante que utiliza matrices elementales resulta más rápida. Con respecto al espacio requerido y la cantidad de datos a transferir por la red, la variante que hace uso de matrices elementales resulta más eficiente por el hecho de almacenar y transferir solo 17 valores modulares para cada una de las matrices P y K (34 en total), en lugar de los 64 de las correspondientes matrices generales (128 en total). Protocolo de intercambio de claves Tabla 1: Mediciones de tiempo (en milisegundos) para el protocolo de transporte de claves, con diferentes órdenes y potencias matriciales. Orden matricial Tiempos de ejecución (msec) Potencias mínimas Potencias máximas Matriz general Matriz elemental Matriz general Matriz elemental 4 <1 <1 18.3 15.3 8 <1 <1 94.5 62.3 16 16.4 <1 625.2 484.0 32 78.0 16.3 4563.0 3812.8 64 703.2 110.5 40981.8 31220.4 128 8110.4 844.6 382862.4 241808.9 En este caso, se implementa una versión generalizada del protocolo de Diffie-Hellman [4]: Las entidades Alice y Bob generan, sin compartir secreto alguno, una misma clave de sesión aleatoria [9]. En la fase de preparación, la TPC genera al azar y publica las matrices P y G. La entidad Alice genera, igualmente al azar, la matriz diagonal DA y obtiene su clave privada A=PDAP-1. Por su parte, la entidad Bob genera aleatoriamente la matriz diagonal DB y obtiene su clave privada B=PDBP-1. Luego, en la segunda fase, Alice elige al azar dos enteros distintos k1 y k2 del intervalo de confianza y obtiene y envía a Bob el testigo TA=Ak1GAk2. En la fase 3, Bob elige al azar dos enteros diferentes r1 y r2 del intervalo de confianza y obtiene y envía a Alice el testigo TB=Br1GBr2. En la fase 4, Alice obtiene la matriz KA=Ak1TBAk2. En la quinta y última fase, Bob obtiene la matriz KB=Br1KABr2. Por último, mediante operaciones matriciales, en [9] se demuestra que KA=KB. Las modificaciones a la variante original de este protocolo designan, en la fase de preparación, a la entidad Alice a generar y enviar a Bob la matriz de vectores propios P, como matriz elemental no singular. De igual modo, se designa a la entidad Bob a generar y enviar a Alice la matriz G, como matriz elemental. En la fase 2, Alice procede a obtener su testigo mediante f(P,DA,G,k1,k2). En la tercera fase, Bob calcula su testigo mediante f(P,DB,G,r1,r2). Las fases cuarta y quinta, así como el resto de las operaciones de las fases modificadas, se realizan como en la variante original [9]. La Tabla 2 contiene los resultados de las mediciones del tiempo de ejecución realizadas a este protocolo, para los órdenes 4, 8, 16, 32, 64 y 128 y las potencias m=2 y n=3 (potencias mínimas) y m=1023 y n=1024 (potencias máximas). Se puede observar, que los tiempos de ejecución no alcanzan el milisegundo en ninguna de las variantes, para potencias mínimas y órdenes 4, 8 y 16, por lo que no se puede determinar qué variante es más eficiente en esos casos. Para el resto de los órdenes y potencias, la variante que hace uso de matrices elementales resulta más eficiente que la que utiliza matrices generales y operaciones matriciales tradicionales. En relación con el espacio requerido y la cantidad de datos a transmitir por la red, la variante con matrices elementales es más eficiente, por generar las matrices P y G como elementales. Protocolo de cifrado de mensajes Este protocolo implementa una versión generalizada del protocolo de ElGamal [6]: Alice cifra un mensaje M destinado a Bob [9]. Tabla 2: Mediciones de tiempo (en milisegundos) para el protocolo de intercambio de claves, con diferentes órdenes y potencias matriciales. Orden matricial Tiempos de ejecución (msec) Potencias mínimas Potencias máximas Matriz general Matriz elemental Matriz general Matriz elemental 4 <1 <1 31.3 25.5 8 <1 <1 125.6 110.3 16 <1 <1 875.2 391.3 32 63.4 3.1 4734.5 516.2 64 500.5 9.0 47455.8 641.4 128 8406.4 16.3 436411.2 781.8 En la fase de preparación, la TPC genera al azar y publica las matrices P y G y elige, también al azar, y publica dos enteros diferentes m y n del intervalo de confianza. Alice genera al azar la matriz diagonal DA, obtiene su clave privada A=PDAP-1, su clave pública A’=AmGAn, así como la matriz M del mensaje a cifrar (de M8) y la matriz secreta de sesión aleatoria K (de un subgrupo conmutativo generado por P), que requiere de la generación previa, por parte de Alice, de una matriz diagonal de valores propios DK, con la que se calcula K=PDKP-1. Por su parte, la entidad Bob genera al azar la matriz diagonal DB, obtiene su clave privada B=PDBP-1 y su clave pública B’=BmGBn. Vale aclarar que para cada nuevo mensaje, debe generarse una nueva instancia de la matriz K. Por otro lado, generar M implica convertir el mensaje original, en una matriz. En [16] se definen, a modo de ejemplo, un alfabeto y un conjunto de reglas para llevar a cabo esta conversión. En la segunda fase o fase de cifrado, Alice obtiene las matrices Y1=KmGKn y Y2=M(KmB’Kn) y las envía a Bob. En la tercera y última fase o fase de descifrado, Bob obtiene la matriz correspondiente al mensaje original M=Y2(BmY1Bn)-1. A través de operaciones matriciales, en [9] se demuestra que la matriz M obtenida por Bob se corresponde con el mensaje originalmente cifrado por Alice. Para este protocolo, se propone modificar la fase de preparación, en el sentido de designar a la entidad Bob a generar y publicar la matriz P, como matriz elemental no singular, y los enteros m y n, distintos y del intervalo de confianza. La clave pública B’ de Bob se obtiene mediante f(P,DB,G,r1,r2). Por su parte, se designa a la entidad Alice a obtener al azar y publicar la matriz G, como matriz elemental, así como la matriz M, que debe generarse como elemental, a partir del mensaje original. El resto de las operaciones descritas se realizan como en la variante original. Como antes, no se transmite, por la red, información secreta alguna ni se comprometen las llaves privadas de las entidades. La Tabla 3 muestra los tiempos de este protocolo, para los órdenes 4, 8, 16, 32, 64 y 128 y potencias m=2 y n=3 (potencias mínimas) y m=1023 y n=1024 (potencias máximas). En este caso, se muestra que el tiempo de ejecución no alcanzó el milisegundo en ninguna de las variantes, para el orden 4 y las potencias mínimas, con lo cual no se puede determinar, en esos casos, cuál variante es más eficiente que la otra. En el resto de los casos, la variante que utiliza matrices elementales resulta más veloz que la de matrices generales con operaciones tradicionales del álgebra. Con respecto al espacio requerido, al ser P, G y M matrices elementales, se guardan solo 17 valores para cada una (para un total de 51 valores), en lugar de 64 para cada una, lo que totalizaría 192 valores. Protocolo de firma digital Tabla 3: Mediciones de tiempo (en milisegundos) para el protocolo de cifrado de mensajes, con diferentes órdenes y potencias matriciales. Orden matricial Tiempos de ejecución (msec) Potencias mínimas Potencias máximas Matriz general Matriz elemental Matriz general Matriz elemental 4 <1 <1 47.3 16.7 8 16.6 <1 218.8 63.6 16 24.6 9.4 1594.3 406.3 32 94.8 49.7 7767.8 3094.4 64 734.2 362.3 45190.8 24863.3 128 5329.6 965.6 464421.4 242637.6 En este protocolo se convierte una función pública y criptográficamente segura en una matriz de digesto (hashing), que transforma irreversiblemente una cadena binaria finita msg[9] en una matriz H(msg) de un subgrupo conmutativo generado por una matriz de vectores propios. Se requiere de una función digesto que genera matrices diagonales de M8, a partir de una cadena binaria. Para generar la firma digital, se necesita una matriz secreta y aleatoria [9]. En este protocolo, Alice genera la firma digital y cualquier entidad que posea los elementos públicos puede verificarla. En la fase de preparación, la TPC genera y publica la matriz de vectores propios P, así como la matriz H a partir de la cadena msg. Alice elige los enteros diferentes m y n del intervalo de confianza, genera la matriz diagonal DA, obtiene su clave privada A=PDAP-1, una matriz diagonal DL de valores propios, la matriz secreta auxiliar L=PDLP-1, genera y publica una matriz A’=AmLAn, convierte el mensaje original en la cadena binaria finita msg y genera y publica la matriz digesto H, a partir de msg. En la fase 2, Alice genera y publica la firma F=A-nL-1HA-m, junto con el mensaje msg que le dio origen. En la tercera y última fase, se verifica la firma, mediante la comparación de H’=FA’ con H. Si son iguales, el mensaje es auténtico. Como modificaciones a este protocolo, se comienza por designar a Alice para generar “al azar” la matriz P, como elemental y no singular. El resto de los cálculos se realizan como indica el original. La Tabla 4 muestra los tiempos de este protocolo, para los órdenes 4, 8, 16, 32, 64 y 128 y potencias m=2 y n=3 (potencias mínimas) y m=1023 y n=1024 (potencias máximas). Tabla 4: Mediciones de tiempo (en milisegundos) para el protocolo de firma digital, con diferentes órdenes y potencias matriciales. Orden matricial Tiempos de ejecución (msec) Potencias mínimas Potencias máximas Matriz general Matriz elemental Matriz general Matriz elemental 4 <1 <1 16.0 13.3 8 1.2 <1 156.7 63.2 16 3.3 <1 1063.0 422.2 32 79.8 32.5 8094.2 3313.1 64 594.5 220.3 64300.4 48815.4 128 6813.8 4626.3 444099.6 364329.1 Los resultados de las mediciones muestran que los tiempos para ambas variantes, en el orden 4, no alcanzan el milisegundo, por lo que no se puede determinar, en ese caso, cuál es más eficiente. En el resto de los casos, la variante con matrices elementales se comporta mejor que la otra. Se utiliza menos espacio por almacenar la matriz P como elemental. 4. CONCLUSIONES Se logró una implementación práctica de los protocolos para transporte de claves, intercambio de claves, firma digital y cifrado de mensajes, por medio del uso de matrices elementales, que permite aportar una mayor eficiencia en cuanto a almacenamiento, cantidad de operaciones y cantidad de datos a transferir. Los protocolos implementados pueden ser introducidos con relativa facilidad en aplicaciones que requieran de una alta seguridad, incluso al transmitir datos por redes no seguras, pues no se transfieren datos sensibles ni información secreta alguna. Pueden utilizarse en aplicaciones para dispositivos de bajas prestaciones computacionales. RECONOCIMIENTOS Los autores desean agradecer al Dr. Roberto Sepúlveda Lima, por haber propiciado su incursión en el uso del Álgebra Lineal en el ámbito criptográfico. REFERENCIAS 1. PRIETO, M.J., Historia de la criptografía: Cifras, códigos y secretos desde la antigua Grecia a la Guerra Fría. 2020. 2. S. BARTOLINI, R.G., and E. MARTINELLI, Instruction set extensions for cryptographic applications, in Cryptographic Engineering, Springer, Editor 2009. p. 191-233. 3. DIFFIE, W., HELLMAN, M., New directions in cryptography. . IEEE Transaction on Information Theory, 1976. 22(6): p. 644-654. 4. MENEZES, A.J., P.C. VAN OORSCHOT, and S.A. VANSTONE, Handbook of Applied Cryptography1996: CRC Press. 5. RIVEST, R.L., A. SHAMIR, and L. ADLEMAN, A method for obtaining digital signatures and public-key cryptosystems. Communications of the ACM, 1978. 21(2): p. 120-126. 6. ELGAMAL, T., A public key cryptosystem and a signature scheme based on discrete logarithms. IEEE transactions on information theory, 1985. 31(4): p. 469-472. 7. BISHOP, M., What is computer security? IEEE Security & Privacy, 2003. 1(1): p. 67-69. 8. DIXON, J.D., Asymptotically fast factorization of integers. Mathematics of computation, 1981. 36(153): p. 255-260. 9. HECHT, P. A post-quantum set of compact asymmetric protocols using a general linear group. in Actas del VIII Congreso Iberoamericano de Seguridad Informática CIBSI. 2015. 10. HECHT, P., Post-Quantum Cryptography: generalized ElGamal cipher over GF(2518). Theoretical and Applied Informatics, 2016. 28(4): p. 14. 11. KALLENBERG, O., Random measures. 1975. 12. MIERES, J., Ataques informáticos. Debilidades de seguridad comúnmente explotadas). Recuperado http://proton. ucting. udg. mx/tutorial/hackers/hacking. pdf, 2009. 13. POMERANCE, C. A tale of two sieves. in Notices Amer. Math. Soc. 1996. Citeseer. 14. SEVILLANO CASTELLANO, E., Leyes de reciprocidad (cuatro demostraciones de la Ley de Reciprocidad Cuadrática). 2018. 15. SICARD, A., Algunos elementos introductorios acerca de la computación cuántica. Memorias VII Encuentro ERM, Universidad de Antioquia, Medelln, agosto, 1999. 23. 16. ARAUJO RODRÍGUEZ, R., Diseño e implementación de variantes eficientes de protocolos asimétricos compactos mediante el uso de matrices elementales, 2021, Tesis de Grado. Tutor: Ernesto R. Carbonell Rigores. Universidad Tecnológica de La Habana "José Antonio Echeverría", Cujae. 17. MEYER C.D., Matrix Analysis and Applied Linear Algebra. 2000: Society for Industrial and Applied Mathematics. 18. GOLUB, G.H. and C.F. VAN LOAN, Matrix Computations. 1996: Johns Hopkins University Press. 19. SUN, X., Aggregations of Elementary Transformations. 1996. 20. GERRITZEN, L., et al., Algebraic Methods in Cryptography: AMS/DMV Joint International Meeting, June 16-19, 2005, Mainz, Germany: International Workshop on Algebraic Methods in Cryptography, November 17-18, 2005, Bochum, Germany. Vol. 10. 2006: American Mathematical Soc. Sobre los autores El Lic. Ernesto Rafael Carbonell Rigores culminó sus estudios de Matemáticas en la Universidad Técnica de Dresde, Alemania, en 1988. Imparte docencia como Asistente en la carrera de Ingeniería Informática en la Universidad Tecnológica de La Habana “José Antonio Echeverría”, Cujae. Ha participado en grupos de investigación en las ramas de la Inteligencia Artificial, la Computación Paralela y Distribuida y la Criptografía. Ricardo Araujo Rodríguez culminó sus estudios de Ingeniería Informática en la Universidad Tecnológica de La Habana “José Antonio Echeverría”, Cujae en 2021. Labora como Especialista en el Instituto Finlay de Vacunas, La Habana, Cuba. Buenas prácticas de la ingeniería de software: pruebas de software Ing. Anays Gómez García 1, MSc. Mercedes Sosa Hernández 2, MSc. Sandra Verona Marcos 3, Dr. C. Martha Dunia Delgado Dapena 4 1, 2 Empresa de Tecnologías de la información y Servicios Telemáticos Avanzados (CITMATEL)3. Avenida 47 No. 1802 e/ 18 A y 20, Playa, La Habana, Cuba. 3, 4 Facultad de Ingeniería Informática, Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE). Calle 114 e/ Ciclovía y Rotonda, Marianao, La Habana, Cuba. 1e-mail: anaysgg@citmatel.inf.cu RESUMEN El presente trabajo aborda aspectos relacionados con las pruebas de software desde la mirada de la normalización y las buenas prácticas empleadas en la actualidad nacional e internacionalmente. Se plantean técnicas y herramientas de apoyo al proceso de pruebas. De igual manera, se introduce el estudio al modelo Mtest.Search propuesto por el Grupo de Calidad y Pruebas de Software (CyPSoft) de la Facultad de Ingeniería Informática de la CUJAE. Teniendo como premisa implantar mejoras al proceso de desarrollo de software de la empresa CITMATEL, se plantea una nueva forma de hacer vinculando las normativas existentes en la organización con los aportes prácticos del Mtest.Search. Finalmente se propone una estrategia de abordaje de la automatización de pruebas de software en el proceso de producción de software CITMATEL, que cuenta con tres etapas fundamentales centradas en la adopción de buenas prácticas en toda la estructura organizativa vinculada a este proceso. El aporte de la investigación va destinado a trazar un camino inicial en la vinculación entre el qué hacer y el cómo, durante el proceso de evaluación de la calidad del producto de software, a partir de la implementación de los resultados de la academia en el sector empresarial. PALABRAS CLAVES: aseguramiento de la calidad, pruebas de software, automatización de pruebas de software, Mtest.Search, GeCodP. Good practices of software engineering: software tests ABSTRACT This paper addresses aspects related to software testing from the perspective of standardization and good practices currently used nationally and internationally. Techniques and tools to support the testing process are proposed. Similarly, the study is presented to the Mtest.Search model proposed by the Software Quality and Testing Group (CyPSoft) of the Faculty of Computer Engineering of the CUJAE. Having as a premise to implement improvements to the software development process of the CITMATEL company, a new way of doing is proposed, linking the existing regulations in the organization with the practical contributions of Mtest.Search. Finally, a strategy to approach the automation of software tests in the CITMATEL software production process is proposed, which has three fundamental stages focused on the adoption of good practices throughout the organizational structure linked to this process. The contribution of the research is intended to trace an initial path in the link between what to do and how, during the process of evaluating the quality of the software product, from the implementation of the results of the academy in the sector. KEY WORDS: quality assurance, software testing, software test automation, Mtest.Search, GeCodP. 1. INTRODUCCIÓN La complejidad de los sistemas de software ha aumentado a un nivel sin precedentes. Esto ha llevado a nuevas oportunidades y a mayores desafíos para las organizaciones que crean y utilizan sistemas. Estos desafíos existen a lo largo del ciclo de vida de un sistema y en todos los niveles del detalle arquitectónico. Generalmente el proceso de desarrollo en el esquema tradicional -que ha demostrado ser efectivo y necesario en proyectos de gran tamaño-, lleva asociado un marcado énfasis en el control del pro-ceso mediante una rigurosa definición de roles, actividades y artefactos, incluyendo modelado y documentación detallada. Sin embargo, este enfoque no resulta ser el más adecuado para muchos de los proyectos actuales donde el entorno del sistema es muy cambiante, y en donde se exige acortar los tiempos de desarrollo, pero manteniendo una alta calidad. El presente trabajo se propone una estrategia de abordaje de la automatización de pruebas de software en el proceso de producción de software CITMATEL, que cuenta con tres etapas fundamentales centradas en la adopción de buenas prácticas en toda la estructura organizativa vinculada a este proceso. 2. UNA MIRADA DESDE LA NORMALIZACIÓN Para garantizar la calidad de software [1, 2] es importante implementar algún modelo o estándar de calidad que permita la gestión de atributos en el proceso de construcción de software, teniendo en cuenta que la concordancia de los requisitos y su construcción son la base de las medidas de calidad establecidas [2]. Internacionalmente son muchas las alternativas existentes que indican cómo construir técnicamente el software. Estas han sido creadas por organizaciones internacionales y/o los integrantes de la industria de software de los diferentes países del orbe. La Organización Internacional de Normalización desarrolla y publica estándares internacionales, que abarcan todas las esferas de la sociedad. En la actualidad han publicado más de 22824 estándares internacionales que cubren casi todos los aspectos de la tecnología y la fabricación. A lo largo del tiempo se han desarrollado diferentes modelos para evaluar la calidad del software, que intentan descomponer la calidad en una categoría de características más sencillas. En [2] se plantea un estudio del estado del arte de los modelos de calidad de software, quedando reflejados los principales modelos según su clasificación: a nivel de procesos ITIL, ISO/IEC 15504 [3], Dromey, Cobit 4.0, CMMI [4], Bootstrap, PSP, TPS, ISO 90003, ISO IEC IEEE 12207 [5]; y a nivel de producto McCall, GQM, Boehm, FURPS, Gilb, ISO/IEC 9126-1, SQAE o familia de normas SQuaRE [6-9], WebQEM. Otros modelos de calidad de software han sido desarrollados con el paso del tiempo y el aumento de las crecientes necesidades de la industria de software iberoamericana de ser más competitiva a nivel global, tal es el caso de los modelos MoProSoft [10], COMPETISOFT [11], MPS.BR [12], Si.MPS.Cu [13], CMMI-DEV® [4], ISO IEC IEEE 15288, entre otros. Cuba cuenta con el Comité Técnico de Normalización (CTN) No. 18 – Tecnologías de la Información perteneciente a un grupo de 128 CTN nacionales. El CTN No. 18 está conformado por varios subcomités, entre ellos el Subcomité 7 Ingeniería de software y sistemas (SC7) que tiene entre sus objetivos proponer proyectos de adopción de Normas Internacionales sobre la temática «Ingeniería de Software y Sistemas», adecuados al contexto cubano, a fin de que la Oficina Nacional de Normalización (ONN) las adopte como Normas Cubanas (NC). En este sentido se dispone de una serie de normas internacionales adoptadas como cubanas [14, 15]; y con un Modelo de Calidad para el Desarrollo de Aplicaciones Informáticas (MCDAI) [16-18], resultado del quehacer de la Industria cubana del software en el desarrollo de productos con mayor calidad y más competitivos. MCDAI es resultado de proyectos de investigación [19-21] ejecutados por las entidades CALISOFT, UCI, SEISA, CUJAE y XETID; y de revisiones realizadas por el SC7 en el período 2014-2016 y 2016- 2020 respectivamente. Ha consolidado su conformación a partir de las cuatro etapas por los que ha transitado, que han recorrido desde la definición de sus componentes, estructura y niveles de madurez; pasando por la realización de diagnósticos en las empresas cubanas desarrolladoras de software y teniendo en cuenta el criterio de expertos; hasta llegar a un modelo modificado a partir de las revisiones bibliográficas y las lecciones aprendidas. En el 2020 es aprobado como norma ramal NRCM 3-1:2020 Requisitos de la Calidad para los Sistemas y las Aplicaciones Informáticas mediante la Resolución 87 del Ministerio de Comunicaciones. Destacar que este modelo, teniendo en cuenta las necesidades de informatización del país, no solo está basado en modelos internacionales para la mejora de procesos de software, sino que también su definición está sustentada sobre la base del modelo Triple Hélice [22], por tanto es resultado del conocimiento de la academia, la industria y el gobierno. Esta norma especifica los requisitos para el desarrollo de software cuando una organización pretende: mejorar su proceso productivo, validar el nivel de madurez de sus procesos o aumentar la satisfacción de sus clientes. Proporciona a las entidades desarrolladoras de software en Cuba, un modelo sustentado en las mejores prácticas internacionales, que teniendo en cuenta las características nacionales le permita alcanzar mayor nivel de madurez a las organizaciones y obtener producciones de calidad. MCDAI contempla once áreas de procesos base, clasificados en cuatro categorías, la figura 1 ilustra esta información. Para la evaluación utiliza el método orientado a la capacidad y madurez EVAL-CM, aunque a diferencia de los modelos [4], [10-12] en los que se basaron las consultas y estudios de los expertos, define tres niveles de madurez: Básico, Intermedio y Avanzado. El método de evaluación de la madurez organizacional está orientado al cumplimiento de los requisitos genéricos y específicos de cada proceso base evidenciado en los resultados esperados. Figura 1: Procesos base agrupados por categorías. Fuente: [23] Las pruebas de software tienen presencia en todos los niveles de madurez definidos por el MCDAI, la tabla 1 muestra los requisitos definidos asociados a esta actividad. Tabla 1: Distribución de los requisitos de proceso base por los niveles de capacidad del proceso. Nivel Requisitos Descripción Básico Diseñar las pruebas. Se deben seleccionar los documentos de apoyo que se utilizarán en la ejecución de las pruebas. Se deben diseñar las herramientas manuales a utilizar teniendo en cuenta dichos documentos y/o configurar las automatizadas. Preparar entorno de pruebas. Se debe preparar un entorno de prueba controlado según lo descrito en la estrategia de prueba defina durante la planificación. Ejecutar pruebas funcionales. Se debe comprobar el cumplimiento de la característica de la calidad adecuación funcional al nivel correspondiente teniendo en cuenta los requisitos funcionales y Nivel Requisitos Descripción aplicando el resultado del diseño de las pruebas. Gestionar no conformidades. Se deben registrar las no conformidades detectadas en las pruebas. Estas deben ser analizadas para determinar si proceden y asignar el responsable y el tiempo de resolución. Realizar pruebas de confirmación y repetición. Se deben ejecutar las pruebas de confirmación y repetición para comprobar que las no conformidades fueron resueltas y no se introdujeron nuevos errores respectivamente. Intermedio Ejecutar pruebas no funcionales. Se debe comprobar el cumplimiento de los requisitos no funcionales teniendo en cuenta las características de la calidad identificadas en la estrategia de pruebas. Avanzado Prevenir las no conformidades. Se deben identificar y analizar las causas de las no conformidades detectadas a lo largo del ciclo de vida del desarrollo de software. Se deben definir acciones para prevenir que no conformidades similares vuelvan a ocurrir en el futuro. Se debe realizar un análisis de tendencias de las no conformidades e incluirlo en la base de conocimiento organizacional. Fuente: Elaboración propia a partir de la NRCM 3-1:2020. 3. ENFOQUE ÁGIL EN LA ACTIVIDAD DE PRUEBAS DE SOFTWARE Las guías tradicionales de desarrollo de software plantean una fase del ciclo de vida, destinada a las actividades de pruebas de software. Esta fase debe garantizar mejor calidad del producto, no siendo siempre el resultado esperado teniendo en cuenta el plan inicial y el real. Por su parte los métodos ágiles valoran la obtención de software funcional afirmando que esta es la medida principal de progreso. Para ello plantean desde el Manifiesto Ágil una serie de principios y valores reflejados en todas las metodologías ágiles, y a su vez están presentes en las buenas prácticas de ingeniería de software que estas proponen. La figura 2 muestra cuales son las técnicas y prácticas ágiles más empleadas según los resultados del 15th Annual State of Agile Report [24]. Figura 2: Técnicas y prácticas ágiles más empleadas según [24]. Las pruebas de software son seguramente la actividad más común de control de calidad realizada en los proyectos de desarrollo o mantenimiento de aplicaciones y sistemas. Aunque un aseguramiento de calidad de software más eficaz debería incluir otras técnicas como, por ejemplo, inspecciones y revisiones automatizadas o no de modelos y documentos no ejecutables de las primeras fases de desarrollo. Es casi imposible asegurar que exista un proyecto de desarrollo que no realice de manera más o menos exhaustiva y formal pruebas de software. En dependencia de lo que se quiera probar se traza la estrategia, se escoge el nivel [25, 26], el tipo y el método de prueba a utilizar. Los enfoques ágiles apuestan por el principio de pruebas tempranas [27] apoyándose en el empleo de las Pruebas unitarias [28-30], el Desarrollo Guiado por Pruebas [31], Desarrollo Guiado por Comportamiento [32, 33], entre otras variantes [34]. 4. PRUEBAS DE SOFTWARE EN ENTORNOS PRODUCTIVOS Los entornos productivos de desarrollo de software, se caracterizan entre otros aspectos por la integración de sus actividades como un proceso, en donde las entradas corresponden a las necesidades del cliente y la salida el producto final correctamente implementado de acuerdo con las entradas recibidas. A lo interno del proceso se ejecutan entre otras actividades, las pruebas de software que pueden ser automatizadas o no. Según lo conceptualizado en [35-39] en términos generales la automatización de pruebas consiste en utilizar software para ejecutar o apoyar las actividades de prueba, tales como la gestión de los casos de prueba, el monitoreo y control de la prueba, generación de datos de pruebas y casos de pruebas, la ejecución, la evaluación de resultados, entre otras. La estrategia proporciona un mapa que describe los pasos que se darán como parte de la prueba, indica cómo se planean y cuándo se dan esos pasos, además de cuanto esfuerzo, tiempo y recursos consumirán. Por tanto cualquier estrategia de prueba debe incorporar la planeación de pruebas, el diseño de casos de pruebas, la ejecución de pruebas y la recolección y evaluación de los datos resultantes, dando cumplimiento de esta forma al ciclo de pruebas. En [40] se presentan una serie de herramientas OpenSource de apoyo a la etapa de pruebas al software según el tipo de pruebas a realizar. Este estudio se considera muy acertado a nuestra realidad- a pesar de ser resultado de investigaciones realizadas en la Universidad de la Plata, Argentina- teniendo en cuenta el Decreto Ley No. 370, sobre la informatización de la sociedad cubana. La investigación propuesta en [41] incluye las actividades para la ejecución de pruebas en un entorno productivo, así como el modelo de optimización que reduce la cantidad de casos de prueba funcionales considerando criterios de cobertura de escenario y utilizando algoritmos de búsqueda heurística. Su fortaleza radica en los beneficios proporcionados por la relación universidad-empresa, a través de la interacción con el grupo de investigación CyPSoft, que garantiza la novedad de los resultados obtenidos y su actualización permanente con las mejores prácticas en la gestión de calidad y pruebas de software a nivel nacional e internacional [42]. El grupo de investigación CyPSoft afirma en [42] que los principales beneficios que aporta el modelo MTest.Search a las empresas desarrolladoras de software y a los laboratorios de calidad, están orientados a elevar la calidad del procesos de pruebas y por ende la calidad del producto final, de forma tal que la confianza en las actividades de aseguramiento de la calidad para los desarrolladores, gestores de calidad y clientes de la empresa aumenta de forma significativa. Adicionalmente el modelo contiene un conjunto de herramientas basadas en búsqueda que dan soporte a la generación de casos de pruebas funcionales. En [43] se plantea una herramienta informática que da soporte- desde la práctica- al modelo antes mencionado. 5. AUTOMATIZACIÓN DE PRUEBAS DE SOFTWARE EN EL PROCESO DE PRODUCCIÓN DE SOFTWARE DE CITMATEL La Empresa de Tecnologías de la Información y Servicios Telemáticos Avanzados (CITMATEL) devenida en Empresa de Alta Tecnología desde marzo del 2021, trabaja con una alta vocación innovadora e introduce sistemáticamente nuevas tecnologías con el objetivo de obtener resultados de mayor impacto en la sociedad y la economía del país. Cuenta, desde el año 2013, con un Sistema Integrado de Gestión (SIG) con alcance para los sistemas Calidad, Medio ambiente y Seguridad y Salud en el trabajo, certificado por la Oficina Nacional de Normalización según las normas cubanas NC ISO 9001:2015, 14001:2015 y 45001:2018 y sus homólogas certificables. La experiencia de trabajo bajo las premisas de un SIG son garantía de sus productos y servicios de cara a los clientes de la organización. Su matriz de procesos, tiene definidos quince procesos divididos en estratégicos, de apoyo y operacionales [44]. Incluido en este último grupo se encuentra el proceso P03 Producción de software que tiene como objetivo: “garantizar con la implementación del proceso la calidad de los desarrollos, la preservación del medio ambiente y la seguridad y salud de los trabajadores” [45]. En el proceso P03 intervienen varias áreas organizativas de la empresa, entre ellas el Departamento de Gestión de la calidad y Auditoría (DGCA) quien es el principal responsable de la evaluación y liberación de los productos de software resultado de la actividad productiva de las Unidades Empresariales de Base Proyectos Multimedia y Desarrollo de Software respectivamente. Durante las pruebas realizadas a los productos de software, son evaluadas características de calidad como la seguridad, usabilidad, adecuación funcional, entre otras que se encuentran definidas en la norma NC ISO/IEC 25010:2016 [8]. Para la identificación de las oportunidades de mejora al proceso P03 Producción de software se toma como base la revisión por la dirección realizada de forma semestral, requisito de la norma NC ISO 9001:2015 Sistemas de Gestión de da Calidad ― Requisitos; y el análisis –sin fines evaluativos- realizado en el marco de la transferencia científico-tecnológica del Modelo de Generación automática de Pruebas Basado en búsquedas, MTest.Search desarrollado en la CUJAE que tuvo como principal objetivo: conocer el nivel de automatización de las pruebas de software en la entidad [46]. Fueron identificadas un conjunto de buenas prácticas de pruebas de software que se realizan a nivel organizacional y otras que pudieran ser implementadas a través de la adopción del modelo MTest.Search, contribuyendo a avanzar en los niveles de automatización del proceso de pruebas. A partir de los análisis realizados al proceso P03 Producción de software, para la introducción de buenas prácticas de pruebas de software en la organización, se propone tres etapas de abordaje de la automatización (ver figura 1): una primera para cubrir la actividad del DGCA en los tipos de pruebas que ya hoy se realizan; una segunda para dar soporte automatizado a otros tipos de pruebas que no se alcanzan a realizar en los momentos actuales; y una tercera para llegar hasta la actividad del propio equipo de desarrollo. Figura 3: Etapas de abordaje de la automatización. Fuente: Elaboración propia 6. RESULTADOS Y DISCUSIÓN De la ejecución de las tareas comprendidas en la primera etapa de abordaje de la automatización, se obtienen como resultados las siguientes mejoras:  El esquema normativo para la evaluación del producto de software es modificado (ver figura 4), incluyendo no solo normas y procedimientos, sino buenas prácticas importadas de las metodologías ágiles y herramientas automatizadas de apoyo al proceso, específicamente GeCodP en su versión 1.0. El sub-esquema normativo se relaciona con el sub-esquema práctico, ya que el primero sienta las bases por las que pueden ser empleadas las buenas prácticas ágiles de ingeniería de software y proveen al modelo de la información necesaria para la ejecución de pruebas tempranas en el entorno de producción. Figura 4: Propuesta de esquema de evaluación de la calidad del producto de software en CITMATEL. Fuente: elaboración propia.  El flujo de trabajo actual para la evaluación del producto de software en el DGCA, es modificado incluyendo actividades asociadas al diseño, generación, ejecución y monitoreo de los casos de pruebas.  Se proponen un total de seis indicadores de eficacia para la evaluación del producto y el proceso. Estos puede ser incluidos en la ficha del proceso P03 Producción de software, como parte de la mejora continua. La tabla 2 muestra esta información. Tabla 2: Indicadores para medir la mejora del proceso de pruebas de software y el producto. Indicadores a medir Calificación Proceso 1 - Promedio de dictámenes técnicos realizados por proyecto. 2 - Estadía del desarrollo en calidad interna. 3 - Cumplimiento del ciclo de vida del producto. 4.- Estadía del desarrollo en el DGCA. Producto 5 - Conformidad de los proyectos entregados al DGCA para su revisión. 6 - Cantidad funcionalidades probadas y las No conformidades asociadas. Evaluación total: Proceso eficaz: Si____ No____ Elaborado por: Cargo: Firma: Criterio de Evaluación: Se considera que el proceso es eficaz siempre que: (1) El indicador de eficacia (Ie) se calcula a partir de la fórmula: (2) Siendo las puntuaciones alcanzadas por los indicadores 1, 2, y hasta n, respectivamente, donde n es el número máximo de indicadores definidos  Para la implantación de un entorno automatizado de pruebas en el DGCA, fueron analizadas algunas herramientas informáticas [43, 47], que dan soporte al ciclo básico de pruebas de software. 7. CONCLUSIONES Las pruebas de software son de vital importancia para lograr un producto con la calidad requerida por las partes interesadas en el producto de software. El modelo Mtest.Search se encuentra alineado y contribuye a avanzar en los niveles de madurez del MCDAI, teniendo en cuenta que con su implementación se da cumplimiento a los requisitos básicos y genéricos del proceso base de pruebas de software del MCDAI. Cada una de las tareas incluidas en las etapas abordaje de la automatización, responden al cumplimiento de los requisitos del proceso base Pruebas de Software del MCDAI. Con la implantación de la herramienta GeCodP en el entorno productivo empresarial, como resultado de la transferencia científico tecnológica del modelo Mtest.Search entre la CUJAE y CITMATEL, se contribuye a avanzar en los niveles de automatización del proceso de pruebas de la empresa. RECONOCIMIENTOS Los autores desean agradecer a todas las personas que han contribuido en la realización de esta investigación. REFERENCIAS 1. Pressman, R.S., Ingeniería del Software. Un enfoque práctico. 7ma ed. 2010, España: McGraw- Hill Interamericana. 2. Callejas Cuervo, M.A.A., Andrea Catherine; Álvarez Carreño, Ana María. , Modelos de calidad del software, un estado del arte. Entramado, 2017. 13(1): p. 236-250. 3. INGERTEC. Normas ISO. 2021 enero 2021 [cited 2021 11 de enero de 2021]; Available from: https://www.normas-iso.com/iso-iec-15504-spice/. 4. Team, C.P., CMMI para Desarrollo, Versión 1.3. Vol. 1.3. 2010: Software Engineering Institute, Carnegie Mellon University. 482. 5. ISO/IEC/IEEE, ISO/IEC/IEEE 12207:2017 Systems and software engineering — Software life cycle processes. 2017: Switzerland p. 158. 6. Normalización, O.N.d., NC ISO/IEC 25040:2016 Ingeniería de software y sistemas- Requisitos de la calidad y evaluación de software y sistemas (SQuaRE)- Proceso de evaluación. 2016, Oficina Nacional de Normalización: La Habana. p. 60. 7. Normalización, O.N.d., INGENIERÍA DE SOFTWARE — REQUISITOS DE CALIDAD Y EVALUACIÓN DE PRODUCTOS SOFTWARE (SQuaRE) — GUÍA PARA SQuaRE (ISO/IEC 25000: 2005, IDT) 2011: La Habana. p. 44. 8. Normalización, O.N.d., INGENIERÍA DE SOFTWARE Y SISTEMAS - REQUISITOS DE LA CALIDAD Y EVALUACIÓN DE SOFTWARE (SQuaRE) - MODELOS DE LA CALIDAD DE SOFTWARE Y SISTEMAS (ISO/IEC 25010: 2011, IDT) 2016: La Habana. p. 48. 9. Normalización, O.N.d., INGENIERÍA DE SOFTWARE ― REQUISITOS DE LA CALIDAD Y EVALUACIÓN DE P RODUCTOS DE SOFTWARE (SQuaRE) – REQUISITOS DE LA CALIDAD (ISO/IEC 25030: 2007, IDT) 2017: La Habana. p. 42. 10. Oktaba, H., et al., Modelo de Procesos para la Industria de Software MoProSoft. Versión 1.3, 2005. 11. COMPETISOFT, COMPETISOFT-Mejora de Procesos para Fomentar la Competitividad de la Pequeña y Mediana Industria del Software de Iberoamérica. Versión 0.2. 2006, Proyecto COMPETISOFT 506PI287. p. 294. 12. SOFTEX, MPS.BR - Mejora de Proceso del Software Brasileño. Guía de Implementación - Parte 5: Fundamentos para Implementación del Nivel C del MR-MPS. 2012, SOFTEX: Brasil. p. 57. 13. Trujillo Casañola, M.Y., D.C.A. Febles Estrada, and D.C.G. León-Rodríguez, Modelo Si.MPS.CU para valorar las organizaciones al iniciar la mejora de proceso de software. Revista Cubana de Ciencias Informáticas, 2014. 8: p. 92-103. 14. Sistemas, S.I.d.S.y. Calidad del producto de software y sistemas. [cited 16 de septiembre de 2022]; Available from: https://subcomite7.cubava.cu/grupo-de-trabajo-6-calidad-del-producto- de-software-y-sistemas/. 15. Sistemas, S.I.d.S.y. Gestión del ciclo de vida. [cited 16 de septiembre de 2022]; Available from: https://subcomite7.cubava.cu/gestion-del-ciclo-de-vida/. 16. COMUNICACIONES, M.D., NRCM 3 - 2: 2020 MODELO DE LA CALIDAD PARA EL DESARROLLO DE APLICACIONES INFORMÁTICAS (MCDAI)- GUÍA GENERAL. 2021, MINCOM: La Habana, Cuba. 17. COMUNICACIONES, M.D., NRCM 3-3: 2020 MODELO DE LA CALIDAD PARA EL DESARROLLO DE APLICACIONES INFORMÁTICAS (MCDAI)- GUÍA DE IMPLEMENTACIÓN. 2021, MINCOM: La Habana, Cuba. 18. COMUNICACIONES, M.D., NRCM 3 - 4: 2020 MODELO DE LA CALIDAD PARA EL DESARROLLO DE APLICACIONES INFORMÁTICAS (MCDAI)- GUÍA DE EVALUACIÓN. 2021, MINCOM: La Habana, Cuba. 19. Lazo Alvarado, Y., et al., Proceso de aseguramiento de la calidad para un modelo de la calidad en Cuba. Revista Cubana de Ciencias Informáticas, 2016. 10: p. 124-137. 20. Oro, L.T., Y. Lazo Alvarado, and J.F. Ramírez Pérez, Proceso de diseño del software para un modelo de la calidad en Cuba. Revista de I+D Tecnológico, 2019. Vol. 15(Num. 1). 21. Alvarado, Y.L., et al., APUNTES SOBRE EL MODELO DE LA CALIDAD PARA EL DESARROLLO DE APLICACIONES INFORMÁTICAS (MCDAI) NOTES ON THE QUALITY MODEL FOR THE DEVELOPMENT OF COMPUTER APPLICATIONS (MCDAI). VIII Taller Internacional de Calidad en las Tecnologías de la Información y las Comunicaciones (CALIDAD 2018), 2018. 22. Etzkowitz, H., La triple hélice: universidad, industria y gobierno. Implicaciones para las políticas y la evaluación. Estocolmo, Recuperado en: http://www.sivu.edu.mx/portal/noticias/2009/VinculacionLatriplehelice.pdf, 2002. 23. Tamayo Oro, L., Estado General del Modelo de la Calidad para el Desarrollo de Aplicaciones InformáticasMCDAI, in Subcomité 7 Ingeniería de Software y Sistemas. Taller 3: Modelo de Calidad para el Desarrollo de Aplicaciones Informáticas. 2018: CITI-CUJAE. 24. Digital.ai. 15th Annual State of Agile Report 2022; Available from: https://digital.ai/resource- center/analyst-reports/state-of-agile-report. 25. Myers, G.J., C. Sandler, and T. Badgett, The art of software testing. 2011: John Wiley & Sons. 26. Marin Diaz, A., Y. Trujillo Casañola, and D. Buedo Hidalgo, Estrategia de pruebas para organizaciones desarrolladoras de software. Revista Cubana de Ciencias Informáticas, 2020. 14: p. 83-104. 27. Benavides, Y. Pruebas tempranas, una buena práctica en el desarrollo de aplicaciones. [cited 31 de agosto de 2022]; Available from: https://www.datazucar.cu/?p=898. 28. Bandara, R. and I. Perera. Unit Test Code Generation Tool Support for Lower Level Programming Languages. in 2020 Moratuwa Engineering Research Conference (MERCon). 2020. IEEE. 29. Rojas-Robert, D.M., Z. Pérez-Morales, and M.D. Delgado-Dapena, Generador de valores interesantes para casos de pruebas unitarias. Ingeniería Industrial, 2019. 40: p. 183-193. 30. Uribazo, D.L., et al., Ejecución automática de pruebas en entornos empresariales de producción de sotware. Informática y Sistemas: Revista de Tecnologías de la Informática y las Comunicaciones, 2019. 3(1): p. 32-44. 31. Abushama, H.M., H.A. Alassam, and F.A. Elhaj. The effect of Test-Driven Development and Behavior-Driven Development on Project Success Factors: A Systematic Literature Review Based Study. in 2020 International Conference on Computer, Control, Electrical, and Electronics Engineering (ICCCEEE). 2021. IEEE. 32. Wynne, M., A. Hellesøy, and S. Tooke, The Cucumber Book: Behaviour-driven Development for Testers and Developers. 2017: Pragmatic Bookshelf. 33. Lawrence, R. and P. Rayner, Behavior-Driven Development with Cucumber: Better Collaboration for Better Software. 2019: Addison Wesley Professional. 34. Gärtner, M., ATDD by Example: A Practical Guide to Acceptance Test-driven Development. 2013: Addison-Wesley. 35. Normalización, O.N.d., INGENIERÍA DE SOFTWARE Y SISTEMAS – PRUEBAS DE SOFTWARE – PARTE 1: CONCEPTOS Y DEFINICIONES (ISO/IEC/IEEE 29119-1:2013, IDT). 2021, Oficina Nacional de Normalización: La Habana. p. 76. 36. Serna M., E., R. Martínez M., and P.A. Tamayo O., Un modelo para determinar la madurez de la automatización de las pruebas del software como área de investigación y desarrollo. Computación y Sistemas, 2017. 21: p. 337-352. 37. Quintana, G., M. Solari, and S. Matalonga. Estudio de caso sobre herramientas de generación automática de casos de prueba. in 17th Conferencia Iberoamericana en Software Engineering: CIbSE 2014. 2014. Curran Associates, Inc. 38. Godoy, Y.V., A.V. Cintra, and L.C. Rolo, Diseño de herramienta para casos de pruebas funcionales en la universidad de las ciencias informáticas. Serie Científica de la Universidad de las Ciencias Informáticas, 2020. 13(1): p. 47-61. 39. Colorado, S.M.G. and J.E.G. Plaza, Sistema de generación automática de scripts de ejecución para pruebas unitarias en aplicaciones web. Revista Politécnica, 2013. 9(17): p. 105 - 112. 40. Díaz, J., et al., Herramientas open source para testing de aplicaciones Web. Evaluación y usos. 2017. 41. Delgado Dapena, M.D., et al., Modelo para la generación automática de pruebas tempranas basadas en búsquedas. Computación y Sistemas, 2017. 21: p. 503-513. 42. Delgado Dapena, M.D.F.O., Perla; Verona Marcos, Sandra; Larrosa Uribazo, Danay., MTest.search: Modelo de Generación automática de Pruebas basado en búsquedas. 2019, Facultad de Ingeniería Informática. Universidad Tecnológica de La Habana “José Antonio Echeverría”: La Habana. p. 1-53. 43. Larrosa Danay, D.M.D., and Guemes Alejandro Miguel, GeCodP: Herramienta para la generación de código de pruebas integradas a entornos productivos. 22nd Ibero-American Conference on Software Engineering, CIbSE 2019, 2019. 44. CITMATEL, Manual del Sistema Integrado de Gestión. 2021, Empresa de Tecnologías de la información y Servicios telemáticos avanzados: La Habana. 45. CITMATEL, P03 Proceso de Producción de Software. 2019, Empresa de Tecnologías de la información y Servicios telemáticos avanzados: La Habana. p. 11. 46. Delgado Dapena, M., et al., INFORME PARCIAL NO. 1. DIAGNÓSTICO SOBRE LA REALIZACIÓN DE PRUEBAS DE SOFTWARE Y SU AUTOMATIZACIÓN EN LA EMPRESA CITMATEL. . 2021, Universidad Tecnológica de La Habana. 47. Ç, A. and E. Demir. Detection of Duplicate Bug Reports in Jira and Bugzilla Tools. in 2020 Turkish National Software Engineering Symposium (UYMS). 2020. ENTRENAMIENTO PARA LA CERTIFICACIÓN DE ROLES: UNA EXPERIENCIA DEL INGENIERO DE REQUISITOS Anaisa Hernández González1 1CUJAE 1e-mail: Anaisa@ceis.cujae.edu.cu RESUMEN La acreditación de que una persona posee los conocimientos y habilidades que lo certifican para realizar una determinada actividad, es una aspiración legítima personal y una necesidad de las organizaciones para desarrollarse. Pero certificar necesita antes de entrenar. El mundo vive una situación en la que todos hemos tenido que reinventarnos para poder continuar avanzando. La educación se ha extendido a la educación a distancia con el uso de tecnologías digitales en todos los niveles de enseñanza. La capacitación de profesionales no escapa a esta realidad, por lo que producir un cambio en las maneras de hacer llevó a la aplicación de prácticas innovadoras que dieron como fruto un resultado que contó con la satisfacción de los estudiantes. En este trabajo se describe la experiencia en un entrenamiento en Ingeniería de Requisitos empleando como escenarios educativos a Moodle, e-mail, Telegram y Jitsi Meet. Incluye las particularidades del proceso docente educativo, los objetos de aprendizaje construidos y la valoración de los participantes. PALABRAS CLAVES: Innovación educativa, Ingeniería de Requisitos, Espacios educativos, Aula virtual, Certificación. TRAINING FOR ROLES CERTIFICATION: AN EXPERIENCE OF THE REQUIREMENTS ENGINEER ABSTRACT Proving that a person has the knowledge and skills that certify him or her to carry out a certain activity is a legitimate personal aspiration and a need for organizations to develop. But you need to certify before you train. The world is experiencing a situation in which we have all had to reinvent ourselves in order to continue moving forward. Education has been extended to distance education with the use of digital technologies at all levels of education. The training of professionals does not escapes this reality, so producing a change in the ways of doing it led to the application of innovative practices that resulted in a result that had the satisfaction of the students. This paper describes the experience in a Requirements Engineering training using Moodle, e-mail, Telegram and Jitsi Meet as educational scenarios. It includes the particularities of the educational teaching process, the built learning objects and the assessment of the participants. KEY WORDS: Educational innovation, Requirements Engineering, Educational spaces, Virtual classroom, Certification. 1. INTRODUCCIÓN Los profesionales encargados de la elaboración de soluciones informáticas necesitan habilidades de diferentes tipos, lo que ha propiciado la especialización de las personas en ingenieros de requisitos, diseñadores de interfaz, arquitectos, especialistas de seguridad, programadores y probadores, entre otros roles. Los programas de estudio que se ofertan en las universidades hacen hincapié en determinados roles y muchas veces estas particularidades los diferencian. El rol puede acreditarse mediante procesos de certificación, pero requiere de un entrenamiento previo que prepare para desempeñarlos. Estos entrenamientos pueden tener una componente académica, es decir, se puede recibir en el aula como escenario educativo, no solo en el entorno laboral Nuevas estrategias de enseñanza aprendizaje son demandas para enfrentar la sociedad contemporánea donde se vive en un mundo entre lo analógico y lo virtual y en el que el papel pasivo del aprendiz de la escuela tradicional ya no tiene cabida [1]. La enseñanza actual tiene que ser innovadora para responder a las exigencias crecientes de los alumnos. Varios son los retos que configuran un nuevo escenario propicio para la innovación y el desarrollo de nuevas iniciativas por parte de los docentes: el cambio de eje de la docencia pasándola de la enseñanza al aprendizaje, la necesidad de potenciar el aprendizaje autónomo pero guiado de los estudiantes, y el reto de organizar la formación con base a competencias profesionales y de formación global [2]. A decir de Goyes [3], “…innovar no es solamente crear, adoptar o imitar algo ni mucho menos se puede querer replicar una técnica o distribuir una receta … se debe pensar en un plan de acción, el cual exige planear, implementar, evaluar y difundir las estrategias elegidas para mejorar ...”. En el ámbito de la educación los cambios producidos no alcanzan a romper los esquemas clásicos de enseñanza [4]. Las actuales condiciones exigían un cambio sustancial en la forma de practicar la educación y formación técnica y profesional, aplicando nuevos modos de impartir, es decir, innovar y emplear prácticas innovadoras [5]. La innovación aplicada al campo de la educación persigue un cambio y mejora de ciertos elementos de la realidad educativa; el proceso de enseñanza-aprendizaje, la gestión y administración de programas o el estatus quo de la institución educativa [6]. La innovación busca generar transformaciones e impactos reales sobre el aprendizaje de los estudiantes, los docentes, el entorno y cultura institucional y la sociedad [7]; por lo que puede impactar en las políticas educativas, las instituciones, el currículo, los dispositivos tecnológicos o los materiales que se emplean [8]. La Unión de Informáticos de Cuba (UIC) es una organización joven de la sociedad civil cubana constituida el 7 de marzo de 2016, que agrupa a profesionales de la Informática, las Telecomunicaciones y la Automática. Entre sus programas de trabajo se encuentra la capacitación y certificación de sus miembros para lo cual creó un Centro de Capacitación. El inicio de la pandemia de la COVID-19 coincidió con la entrada en funcionamiento de este centro, preparado para trabajar de forma presencial con el uso de tecnologías digitales. La necesidad de innovar ha estado asociada con la necesidad de continuar avanzando, las condiciones para el desarrollo de actividades de capacitación por parte de la UIC habían sido creadas, pero la pandemia puso un freno a un proceso que hasta ese momento como práctica se desarrolla de forma tradicional empleando un aula física como escenario educativo. Por otra parte, la UIC tiene entre sus líneas de trabajo la innovación; por lo que este nuevo escenario, unido a la tendencia cada vez más creciente de que la docencia pase de la enseñanza al aprendizaje potenciando el aprendizaje autónomo, pero guiado a los estudiantes, configuraron un entorno propicio para la innovación y el desarrollo de nuevas iniciativas por parte de los estudiantes. Tomando como base la experiencia del International Software Testing Qualifications Board (ISTQB®), el International Requirements Enginering Board (IREB®) y el International Software Architecture Qualification Board (ISAQB®), se decidió comenzar a desarrollar en nuestro país entrenamientos a profesionales de este sector para prepararlos para las certificaciones que este proveedor de exámenes de certificación proporciona. En el país hay personas certificadas en: Certified Tester Foundation Level, Certified Professional for Requirements Engineering Foundation Level y Certified Professional Software Architecture Foundation Level. La prueba piloto fue el entrenamiento para nivel básico de la certificación de Ingeniería Requisitos, que pone a disposición de los entrenadores y los aspirantes a certificar el libro “Requirements Engineering Fundamentals” [9]. Hasta la fecha se han producido tres entrenamientos que han beneficiado a más de 50 profesionales durante los años 2021 y 2022. En este trabajo se describe cómo se desarrolló estos entrenamientos partiendo de que en el período en que se produjo no era posible o existían limitaciones para la realización de actividades presenciales y se optó por desarrollar el entrenamiento en un entorno virtual. 2. METODOLOGÍA PARA EL ENTRENAMIENTO Dentro de los tipos de innovación educativa reconocidos en [10], disruptiva, revolucionaria, innovación incremental y mejora, consideramos que la experiencia se asocia a una innovación incremental pues es un cambio que se construye con base en los componentes de una estructura ya existente y dentro de un diseño ya establecido; refinando y mejorando la forma en que se realiza este tipo de entrenamiento [11]. El cambio se da en el método de realización de las sesiones. Varios cursos de capacitación y entrenamientos para certificaciones han sido diseñados e impartidos por el Centro de Capacitación de la UIC para desarrollarse a distancia con el empleo de tecnologías. El primero de ellos fue el entrenamiento en Ingeniería de Requisitos, asociado a la certificación en nivel básico del International Software Quality Institute (ISQI). El proceso docente educativo en un entrenamiento para una certificación en la que están precisos los elementos que se busca certificar en los aspirantes, tiene sus particularidades. La experiencia en Cuba con el entrenamiento para las certificaciones ofertadas por ISQI era de actividades presenciales ofrecidas por profesores latinoamericanos con experiencia en estos entrenamientos y certificados para realizarlos, que implicaba de tres a cinco días de explicación del programa a evaluar y la solución en conjunto de algún examen de certificación de los que aplica el ente evaluador. En las tres certificaciones que de este ente se han desarrollado en Cuba, los elementos más complejos o difíciles de asimilar para los estudiantes son los siguientes: los tipos de preguntas y redacción de las mismas diferente a la forma en que se evalúa en las universidades cubanas usualmente este contenido, el límite de tiempo para responder un gran número de preguntas y la evaluación de las preguntas que, en algunas certificaciones, exigen que esté respondida bien completamente para obtener los puntos asociados a ella y quién entrena es diferente al que evalúa, por lo que es irrelevante para certificar el desempeño del estudiante durante el entrenamiento. El entrenamiento se desarrolló en un área de conocimiento donde se exige que los estudiantes no solo conozcan si no que, en algunas temáticas, alcancen un aprendizaje profundo que les permita aplicarlo a la solución de problemas y situaciones de la vida real. Para su concreción se desarrollaron cinco etapas: caracterización, preparación, sensibilización, implementación y cierre (Figura 1). Figura 1 Etapas desarrolladas. Fuente: Adaptado de [11] En el entrenamiento en Moodle se aprecian las tareas de familiarización que se pueden desarrollar empleando esta plataforma (Figura 2). Figura 2 Tareas de familiarización en la plataforma Moodle. Fuente: [11]. 3. EXPERIENCIAS DEL ENTRENAMIENTO Desarrollo del proceso docente educativo La propuesta tuvo en consideración, tal como se señala en [12], que el ambiente educativo virtual fuese inclusivo y accesible a partir de la experiencia del usuario (profesionales de la informática), al interactuar con los contenidos, el docente y los demás participantes. En la actualidad se requieren habilidades de lectoescritura tanto como tecnológicas desde el lado del docente que enseña como del estudiante que aprende [13]; adoptándose la educación mediada por tecnologías (e-learning) que es una formación totalmente a distancia, entendida como el uso de tecnologías basadas en internet para propiciar la adquisición de conocimientos y habilidades o capacidades. Como herramienta integrada para la creación e impartición de cursos a través de internet (plataforma de teleformación) [14], se empleó Moodle por sus potencialidades como recurso didáctico que enriquece el proceso de enseñanza aprendizaje. En este proceso de enseñanza aprendizaje se consideraron las situaciones siguientes: qué hace el docente en el aula (forma de enseñanza), qué se pretender que aprendan los alumnos (competencias), cuáles son las estrategias de enseñanza más adecuadas para que el estudiante pueda adquirir estos aprendizajes y con qué criterios y procedimientos se comprueba si el alumno los ha adquirido finalmente [2]; a las cuales se dio solución (Figura 3). Los espacios virtuales empleados en este sistema de gestión de aprendizaje en redes fueron: aula virtual (moodle) donde colocaron los recursos e información necesaria para el desarrollo de las actividades, un espacio de atención personal a través del tablón de anuncios y el chat, y un espacio de debate usando las redes sociales (Telegram) empleada de forma sincrónica y asincrónica. Además, se usó el correo electrónico como herramienta de comunicación interpersonal profesor-alumno para abordar temas grupales (por ejemplo, aspectos organizativos) e individuales y la aplicación Jitsi Meet para las videoconferencias. Figura 3 Particularidades del desarrollo del proceso docente educativo. Fuente: [11]. Como se aprecia, en este proceso hay elementos organizativos (asociados a la elección de los escenarios, recursos y tipos de clase adecuados según el propósito o finalidad), técnico procedimentales (vinculado a la forma de desarrollar las actividades académicas) y evaluativas. Construcción de objetos de aprendizaje En este trabajo se asume la definición de objetos de aprendizaje de [15], que lo considera una unidad didáctica digital independiente cuya estructura está formada por un objetivo de aprendizaje específico, un contenido, actividades y una autoevaluación, y que puede ser reutilizado en diferentes contextos tecnológicos y educativos. Como mediador de aprendizaje dentro de la incorporación de las TIC en el proceso educativo centrado en el estudiante [4], su diseño es complejo [16] y su construcción representa un reto que exige atención para que cumpla su rol de facilitar la aprehensión de los contenidos por parte del estudiante que lo manipula [17]. Para la construcción de los objetos de aprendizaje se siguió el procedimiento que implica: definir qué es lo que hay que aprender, especificar cómo debe ser aprehendido, producir los materiales, implementar el proyecto en el contexto del mundo real y evaluar. Varios objetos de aprendizaje pueden conducir a la conformación de un curso. Para este entrenamiento se definen cuatro objetos de aprendizaje: Fundamentos de la Ingeniería de Requisitos, Educción de Requisitos, Documentación de Requisitos y Validación, Negociación y Gestión de Requisitos. Por ejemplo, en el caso del objeto de aprendizaje “Fundamentos de la Ingeniería de Requisitos” los componentes tienen correspondencia con su implementación en Moodle (Figura 4) y fueron los siguientes:  Objetivo de aprendizaje: Los fundamentos de la Ingeniería de Requisitos  Contenido: Conocimientos: síntomas de una ingeniería de requisitos inadecuada, requisitos, ingeniería de requisitos, interesados, actividades principales de la ingeniería de requisitos, área de conocimiento de requisitos de software, fuentes de requisitos, el sistema, los límites (fronteras) del sistema, el contexto del sistema y los límites (fronteras) del contexto y artefactos que permiten modelar el alcance del sistema (Diagrama de contexto, Diagrama de casos de uso y Diagramas de actividades). Habilidades:  Reconocer las actividades de la ingeniería de requisitos.  Comprender las implicaciones de una ingeniería de requisitos inadecuadas.  Comprender el papel de las comunicaciones en la ingeniería de requisitos.  Caracterizar el rol de los interesados (stakeholders) y los ingenieros de requisitos en la ingeniería de requisitos.  Identificar límites (fronteras) del contexto y del sistema, contexto, sistema e interfaces.  Actividades:  Participar en videoconferencia.  Escuchar audioconferencia.  Estudiar bibliografía específica que se encuentra en la plataforma de teleformación.  Interactuar con profesor y otros estudiantes por el grupo creado en redes sociales sobre el contenido.  Realizar cuestionario de estudio en la plataforma de teleformación.  Evaluación: Realizar evaluación en la plataforma de teleformación. Figura 4 Implementación del Objeto de aprendizaje Fundamentos de la Ingeniería de Requisitos en Moodle. Fuente: [11]. Para el nivel básico se espera de los estudiantes que sean capaces de: enumerar, caracterizar, reconocer, nombrar, reflejar, analizar, utilizar, ejecutar, justificar, describir, criticar, mostrar, diseñar, desarrollar, completar, explicar, ilustrar, educir, formular, identificar, interpretar, sacar conclusiones, asignar, distinguir, comparar, comprender, sugerir, resumir, comprender y reconocer [18]. En los objetos de aprendizaje están presentes los tres niveles de asimilación del aprendizaje que se quieren lograr en el estudiante, pues hay conocimientos que se quedan en el 1er nivel en los que sólo se exige que sean conocidos, otros requieren comprensión sin que se exija su aplicación a la solución de problemas y situaciones reales (2do nivel), y para algunos hay necesidad de llegar a un aprendizaje profundo que implique su aplicación (3er nivel). En el objetivo Fundamentos de la Ingeniería de Requisitos, se evidencian de la forma siguiente: 1er nivel: • Conocer la necesidad de la ingeniería de requisitos para atenuar los síntomas de una ingeniería de requisitos inadecuada. • Conocer los elementos que integran el área de conocimiento de requisitos de software del cuerpo de conocimientos de la Ingeniería de Software. • Conocer las actividades principales de la ingeniería de requisitos. • Conocer el papel de las comunicaciones en la ingeniería de requisitos. • Conocer los artefactos que permiten modelar el alcance del sistema. • Conocer los tipos de fuentes de requisitos y las consecuencias de no identificarlos de forma correcta y completa. 2do nivel: • Comprender el rol de los interesados (stakeholders) y el ingeniero de requisitos en la ingeniería de requisitos. 3er nivel: • Definir el sistema, los límites (fronteras) del sistema, el contexto del sistema y los límites (fronteras) del contexto. • Determinar los impactos en los límites (fronteras) del sistema y los límites (fronteras) del contexto, de los hallazgos que se encuentran durante la captura de requisitos. Tanto en el cuestionario de estudio como en la autoevaluación, se incluyen casos de estudios reales o descritos en la literatura, tomados y adaptados para su empleo en este entrenamiento. Cada objeto de aprendizaje fue desarrollado en una semana como se muestra en la Figura 5. Figura 5 Desarrollo de los objetos de aprendizaje durante la semana. Fuente: Elaboración propia. Resultados alcanzados En la experiencia participaron 54 estudiantes del área de la informática, que viven en diferentes provincias del país, algunos eran profesores en la universidad, otros profesionales de entidades de producción y servicio y un estudiante de una carrera del perfil. Por razones laborales o personales, el tiempo para este entrenamiento que cada uno dispuso estuvo repartido a lo largo del todo el día-noche- madrugada. El 61% de los estudiantes cumplió los objetivos pues logró en el tiempo establecido demostrar que poseían los conocimientos y habilidades requeridos. A los estudiantes se le solicitó que evaluaran el desarrollo del entrenamiento, para lo cual se le aplicó un cuestionario de preguntas calificadas en el intervalo [1,5]; siendo este último la expresión de la máxima calidad (Tabla 1). Tabla 1 Resultados del cuestionario sobre el desarrollo del entrenamiento. Fuente: Elaboración propia. Indicador Evaluación Equilibrio entre teoría y práctica 4.45 Relación entre tiempo disponible y objetivos del programa 4.62 Ejercicios y trabajo adecuados 4.65 Adquisición de nuevos conocimientos 4.90 Capacitados para aplicar conocimiento adquiridos 4.30 Preparación y organización del entrenamiento 4.75 Nivel de conocimiento por parte del profesor 4.95 Comunicación adecuada 4.80 Intercambio con los compañeros del grupo 4.20 Respuesta objetiva a las dudas formuladas 4.65 Cumplimiento de los horarios previstos para los intercambios en el entrenamiento 4.95 Claridad en la información sobre los objetivos del entrenamiento 4.95 Los estudiantes también opinaron libremente, expresando criterios muy positivos sobre la profesora, la atención y la calidad de los materiales puestos a su consideración. La única sugerencia, expresada por el 5% de los estudiantes, es el poco tiempo para la realización de las autoevaluaciones, pero realmente este es uno de los objetivos del entrenamiento, prepararlos para una certificación que tiene límites de tiempo, algo con lo que no estaban familiarizados y constituyó uno de los retos a vencer. Los resultados de la encuesta en indicadores como el equilibrio entre teoría y práctica y la capacidad para aplicar los conocimientos adquiridos, fueron los esperados pues este entrenamiento tributa a una certificación de nivel básica, en la que existe una carga asociada al conocimiento de elementos teóricos que sirven de base al proceso de Ingeniería de Requisitos. Por otra parte, en correspondencia con lo observado por la profesora, la comunicación esencialmente se dio entre esta y los estudiantes siendo menor la establecida entre ellos. Para el resto de los indicadores, más del 60% de los estudiantes los califican con el valor máximo. 4. CONCLUSIONES De acuerdo a la experiencia en Cuba con respecto al desarrollo del proceso de aprendizaje en esta área de conocimientos, el modo en que se desarrolló constituyó una práctica innovadora que aprovechó la ventaja de que sus aprendices están familiarizados con la tecnología digital generando un ambiente favorable para la formación y la capacitación. El empleo de varios espacios virtuales en el desarrollo del proceso de enseñanza aprendizaje fomentó la comunicación profesor estudiante y entre estudiantes, resolvió las distancias geográficas y temporales y permitió la adquisición de los conocimientos y habilidades asociados con la certificación. En los cuatro objetos de aprendizaje creados se manifiestan los tres niveles de asimilación del aprendizaje que se quiere lograr en el alumno y están en correspondencia con las especificidades de la certificación para la cual se desarrolla el entrenamiento. Para la docente (autora de este artículo) constituyó un impulso a la investigación pedagógica y didáctica; lo que le permitió adecuar el proceso docente educativo a las condiciones existentes e interpretar las experiencias acumuladas en otros escenarios educativos y otras buenas prácticas internacionales al entorno virtual. Los estudiantes valoraron positivamente el entrenamiento fundamentado en la calidad de los materiales, los métodos didácticos empleados y la preparación, conocimiento y atención de la profesora durante el desarrollo del mismo. La planificación del proceso de enseñanza aprendizaje y al organización de la actividad docente contemplando la utilización de diferentes espacios virtuales; constituyen una lección aprendida que será un activo valioso para la extensión de la experiencia en otros cursos y entrenamientos. REFERENCIAS 1. CORREA, J M; ABERASTURI, E;, GUTIÉRREZ-CABELLO, A; GUERRA, R. Usos críticos de las tecnologías digitales para el aprendizaje dentro y fuera de los contexos institucionales de formación. En H. Arencibia, P. Castillo y J. Saldaña (Eds), Innovación educativa: perspectiva y desafíos, 2018, pp 175-208, Chile: Instituto de Historia y Ciencias Sociales, Universidad de Valparaiso. Recuperado de http://dialnet.unirioja.es/servlet/articulo?codigo=6592933 . 2. VÁZQUEZ, F. “Innovar para mantener en alto el prestigio y la calidad de la docencia”. En P. E. Oviedo y A. C. Goyes (Eds), Innovar la enseñanza. Estrategias derivada de la investigación. 2012, pp 9-11, Bogotá: Editorial Kimpres Ltda. 3. GOYES, A C. “Referencias para orientar una enseñanza innovadora”. En P. E. Oviedo y A. C. Goyes (Eds), Innovar la enseñanza. Estrategias derivada de la investigación, 2012, pp 33-49, Bogotá: Editorial Kimpres Ltda. 4. BERTOSI, V. “Diseño de objetos de aprendizaje en contextos universitarios” (Tesis de doctorado), 2020. Recuperado de https://rtyc.utn.edu.ar/index.php/ajea/article/view/790/659 5. UNESCO-UNEVOC. Innovar en educación y formación técnica y profesional. Marco para centros y entidades formativas. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) y el Centro Internacional UNESCO-UNEVOC para la Educación y Formación Técnica y Profesional. Alemania: UNESCO. 2021. 6. ARENCIBIA, H; CASTILLO, P; SALDAÑA, J. “A vueltas con la innovación educativa”. En H. Arencibia, P. Castillo y J. Saldaña (Eds), Innovación educativa: perspectiva y desafíos, 2018, pp 7-15, Instituto de Historia y Ciencias Sociales, Universidad de Valparaiso. 7. GONZÁLEZ, C; CRUZAT, M. “Innovación educativa: la experiencia de las carreras pedagógicas en la Universidad de Los Lagos, Chile”. Educación. 2019, vol XXVIII; núm. 55, pp 103-122. Doi: 10.18800/educación.201902.005. 8. CRUZ, R; CRODA, G. Concepciones sobre innovación educativa: elementos para su teorización. XIV Congreso Nacional de Investigación Educativa. San Luis Potosí, Bolivia, 2017 Recuperado de http://www.comie.org.mx/congreso/memoriaelectronica/v14/doc/0580.pdf 9. POHL, K; RUPP, Ch. Requeriments Engineering Fundamentals. USA: Rocky Nook Inc. 2015. 10. LÓPEZ, C S; HEREDIA, Y. Marco de referencia para la evaluación de proyectos de innovación educativa – Guía de aplicación. México: Tecnológico de Monterrey, 2017. http://escalai.com/guia- app/ 11. HERNÁNDEZ GONZÁLEZ, A. Experiencias de un entrenamiento a distancia en Ingeniería de Requisitos empleando tecnologías digitales. Revista Transformación Digital, 2021, vol. 2, núm 3. 12. CRISOL E; HERRERA, N; MONTES, R. “Educación virtual para todos: una revisión sistemática”. Education in the Knowledge Society, 2020 Artículo 15, 12 páginas. Recuperado de https://repositorio.grial.eu/bitstream/grial/2083/1/a15.pdf 13. VIÑAS, M. La importancia del uso de plataformas educativas. Revista Letras. 2017, 1(6), 157-168. Recuperado de http://sedici.unlp.edu.ar/handle/10915/61390. 14. ZAPATA, M. Sistema de gestión de aprendizaje – plataformas de teleformación. Revista Educación a distancia. 2016, Artículo 5, pp 50-55 páginas. http://www.um.es/ead/red/50. 15. MALDONADO, J; SANZ, C;. y FERNÁNDEZ-PAMPILLÓN, A. “Desarrollo de un marco de análisis para la selección de metodologías de diseño de objetos de aprendizaje basado en criterios de calidad para contextos educativos específicos” (Tesis de pregrado). 2015, Universidad Nacional de la Plata, Buenos Aires. Recuperado de https://doi.org/10.35537/10915/45063. 16. COLOMÉ, D. “Objetos de aprendizaje y recursos educativos abiertos en educación Superior”. EDUTEC – Revista Electrónica de Tecnología Educativa, 2019, vol 69, pp 89-101. Recuperado de https://www.edutec.es/revista/index.php/edutec-e/article/view/1221/697. 17. SANDIA, B; PÉREZ, J; RIVAS, D. Propuesta metodológica para la creación de objetos de aprendizaje. Revista Electrónica de Enseñanza de las Ciencias. 2019, vol 18, núm 3, pp 521-542. Recuperado de http://revistas.educacioneditora.net/index.php/REEC/article/view/348/21. 18. IREB. Programa de estudios para el profesional certificado en Ingeniería de Requisitos de IREB – Nivel Básico. International Requeriment Engineering Board, 2015. Sobre los autores Anaisa Hernández González, Profesora Titular, Doctora en Ciencias Técnicas, Ingeniera en Sistemas Automatizados de Dirección, Máster en Informática Aplicada a la Ingeniería y la Arquitectura. 1 LA ACTIVIDAD DE TUTORÍA Y LA EVALUACIÓN DEL DESEMPEÑO DE ROLES EN LA CARRERA DE INGENIERÍA INFORMÁTICA. Miriam Roll Hechavarria1, Margarita Andrade Ampuero2, 1Cujae,, 2Cujae, dirección 1mroll@ceis.cujae.edu.cu, 2mayi@ceis.cujae.edu.cu RESUMEN La formación de roles y la evaluación de su desempeño es importante para validar la preparación del estudiante en la ocupación que desempeñará a partir de la profesión que estudia. En la carrera de Ingeniería Informática se atiende este aspecto a partir del plan D del modelo del profesional que enuncia los roles y su contenido. Se ha abordado este tema desde el desarrollo y evaluación de roles en las asignaturas que lo centran y/o tributan. El tutor constituye una figura integradora en la formación de roles a partir de la estimulación y evaluación del desempeño de roles de los estudiantes en el desarrollo de los proyectos de investigación que dirige. En este artículo se ofrece una visión de esta temática desde el trabajo del tutor en el acompañamiento de los estudiantes en la transformación de su práctica profesional, se muestra una experiencia de los indicadores y herramientas utilizadas para la evaluación del rol analista de negocio en la carrera en la Universidad Tecnológica de la Habana José Antonio Echeverría. PALABRAS CLAVES: Formación de roles, desempeño de roles, evaluación de roles, roles del profesional de Informática. THE TUTORING ACTIVITY AND THE EVALUATION OF THE PERFORMANCE OF ROLES IN THE CAREER OF COMPUTER ENGINEERING. ABSTRACT The formation of roles and the evaluation of their performance is important to validate the preparation of the student in the occupation that they will carry out from the profession they are studying. In the Computer Engineering career, this aspect is addressed from plan D of the professional model that states the roles and their content. This issue has been addressed from the development and evaluation of roles in the subjects that focus and/or tax it. The tutor constitutes an integrating figure in the formation of roles from the stimulation and evaluation of the students' role performance in the development of the research projects they direct. This article offers a vision of this subject from the work of the tutor in the accompaniment of the students in the transformation of their professional practice, an experience of the indicators and tools used for the evaluation of the business analyst role in the career is shown. at the José Antonio Echeverria Technological University of Havana. KEY WORDS: Role training, role performance, role evaluation, IT professional roles. 1. INTRODUCCIÓN 2 El mundo contemporáneo demanda de mayor eficacia y eficiencia en el desempeño de los profesionales, los conceptos de formación han variado de habilidades, competencia, roles profesionales. En la formación del profesional de la carrera de Ingeniería Informática, deben formarse diferentes roles que se precisan en el modelo del profesional, así como la forma en que contribuyen las diferentes disciplinas y el nivel en que deben alcanzarse. La preparación del estudiante para el desempeño de roles se inicia desde el componente académico y se desarrolla con la actividad investigativa en la práctica laboral y trabajo de diploma que demanda del trabajo independiente del estudiante y la tutoría del profesor. La actividad de tutoría es importante para el acompañamiento y la gestión del docente que en su carácter de maestro tutor, contribuye al desarrollo personal, social, afectivo, cognitivo y académico de los estudiantes [1]. El tutor debe inicialmente diagnosticar el estado para el desempeño de roles de sus estudiantes y a partir de ahí establecer un plan de acciones que le permitan su ejecución con la máxima calidad y posterior evaluación a partir de los resultados de su trabajo, por lo que necesita de instrumentos que le permitan detectar, guiar y evaluar los diferentes roles en los estudiantes. En el presente trabajo se ejemplifica esta actividad mediante la elaboración de formularios para cualificar y desarrollar de forma efectiva el desempeño de roles de analista de negocios en los estudiantes de la carrera de Ingeniería Informática de la universidad tecnológica de la Habana José Antonio Echeverría. 2. LA ACTIVIDAD DE TUTORÍA Un tutor de tesis es un guía y evaluador de la tesis estudiante. Es un experto o, por lo menos, una persona familiarizada con el tema del estudio que pretendemos llevar a cabo. Nos orienta y, cuando el trabajo está terminado, lo avala para que pueda ser defendido ante un jurado.[2] Las funciones del tutor son: acompañar, asesorar, facilitar, orientar y controlar, el tutor debe desarrollar las capacidades y habilidades investigativas así como consolidar la base de conocimientos de los estudiantes, “las tareas y funciones de los tutores representan una oportunidad excepcional para andamiar los procesos de aprendizaje y desarrollo de los futuros profesionales de la educación y conducirlos hacia niveles de desarrollos superiores, abriendo de forma permanente nuevas zonas de desarrollo potencial [3], el papel de los tutores en la actividad investigativa de los estudiantes para la formación del profesional es reconocida por diversos autores. El tutor debe tener claridad del contenido de los roles y en el plan de desarrollo de los estudiantes, durante su práctica laboral y tesis de grado, concebir las tareas que contribuyan de forma consciente a su formación, así como evaluar el desempeño de los estudiantes en el desarrollo de la solución informática a partir de los indicadores que lo acreditan. 3. EL PROYECTO DE INVESTIGACIÓN. La actividad investigativa en los estudiantes, se concreta en el desarrollo de un proyecto de investigación que resuelve un problema que tiene una solución informática y posee como característica:  Es un esfuerzo temporal que se lleva a cabo para crear un producto, servicio o resultado único.  La naturaleza temporal de los proyectos implica que tiene un principio y un final definidos. Un tiempo determinado  Tienen un objetivo se define como una meta hacia la cual se debe dirigir el trabajo.  Se concretan en un producto, resultado que puede ser tangibles o intangibles. 3.1 La actividad curricular y el desarrollo de proyectos de investigación. 3 La práctica profesional es una disciplina que está incluida en el Plan de estudio de nuestra carrera con el principal propósito, como su nombre lo indica, que cada estudiante logre desarrollar habilidades requeridas en nuestra profesión, la Ingeniería Informática. La disciplina está formada por varias asignaturas entre las que se encuentran: Práctica profesional 1, la cual debe ser desarrollada por los estudiantes al culminar los dos semestres de clase de 2do año. Práctica profesional 2, la cual debe ser desarrollada por los al culminar los dos semestres de clase de 3er año Las prácticas tienen entre sus objetivos que:  Los estudiantes se incorporen a trabajar en un proyecto dentro de una línea de investigación de la facultad.  Conozcan los problemas de investigación que se enfrentan en la línea.  De conjunto con sus tutores, otros profesores y estudiantes que investiguen en la línea, trabajen en la solución de algún problema específico.  Documenten la solución redactando un informe técnico, el cual deben entregar en la fecha prevista.  Defiendan su solución y el informe ante un tribunal. 4. ROLES DE LA CARRERA DE INGENIERÍA INFORMÁTICA. La RAE señala que el “rol”, es un papel o función que alguien o algo desempeña, y la “función” la define como la tarea que corresponde realizar. Un rol profesional puede ser definido como las expectativas y demandas sobre los comportamientos que se espera de la persona que sustenta una determinada posición [4]. Perfil o función que hay que desempeñar, ya sea en el puesto de trabajo habitual dentro de la empresa, ya sea en cualquier otra circunstancia profesional o privada [5]. De forma general los roles se vinculan con funciones, perfiles relacionados con la profesión de que se trate En la concepción del Plan E de la carrera, se precisan los roles de la profesión, así como el nivel (Alto, Medio o Básico) que debía lograrse cada uno, según muestra la sgte tabla: Tabla 1 Roles del profesional de la carrera de Ingeniería Informática [6 ] Rol Nivel Programador Alto Probador Medio Gestor de configuración y cambio Básico Analista de negocio Alto Analista de sistemas Alto Analista de datos Medio Arquitecto Medio Diseñador de software Alto Diseñador de bases de datos Alto Diseñador de interfaz hombre-máquina Básico Especialista en seguridad Básico Escritor-Expositor de trabajos técnicos Alto Gestor de proyectos Medio Habilitador de infraestructuras informáticas Básico Facilitador de la toma de decisiones Medio 4 En la determinación de los niveles, no solo primó la conveniencia o importancia del rol, sino también la madurez en el mismo que se podría y debería lograr en una educación de pregrado enfocado a la esencialidad, que posteriormente se debe vincular con una formación posgraduada.[7] Se precisan que aunque las asignaturas del tronco común de la Cujae (Matemática, Marxismo-Leninismo, Historia de Cuba, Preparación para la defensa y Economía Empresarial) aportan a esos roles, la formación y desarrollo de los mismos recae principalmente en las cuatro disciplinas propias de la carrera (Infraestructura de Sistemas Informáticos, Inteligencia Computacional, Ingeniería y Gestión de Software, Práctica Profesional), precisando en columnas anexas las disciplinas que centran o tributan al desarrollo de los roles. [6] ¿Qué es el desempeño de roles? Se denomina a la acción de una persona en una situación dada, la manera en que demuestra lo que se espera de su posición. El rol es papel que debe de representar, de acuerdo a su status. [6]. Es lo que una persona debe hacer para validar su ocupación de una función determinada, el correcto desempeño de un rol requiere que la persona que lo asuma tenga las características de: personalidad, actitud y competencia adecuados a los requerimientos del rol [6]. Además, distinguen en el desempeño tres situaciones bien diferenciadas: Escenario "individual", cuando el desempeño no requiere relacionarse con otras personas, Escenario "dual", cuando es necesario desempeñar tareas junto a otra persona, "cara a cara", mediante comunicación escrita, telefónica, etc. y escenario "grupal", en el caso en que hay que relacionarse con un grupo de personas para lograr el correcto desempeño de la función asignada. La evaluación, como categoría didáctica permite valorar el éxito o fracaso del proceso de enseñanza aprendizaje y permite, además, redefinir elementos en función de las finalidades de formación [7]. En este sentido, es importante por el tutor la evaluación del estudiante en el desempeño de roles. Constituye antecedente de este trabajo el artículo la Evaluación del desempeño de roles en equipos de desarrollo de software. Utilización de escalas de valoración, de profesores del departamento de la disciplina Ingeniería de Softtware III, tiene como objetivo se propone un procedimiento de evaluación del desempeño de roles utilizando escalas de valoración que puede ser aplicable no solo en el contexto docente sino también en el ámbito de la industria del software, este trabajo evalúa los roles que desempeña los estudiantes en un equipo de desarrolladores de software. En la Universidad Tecnología de la Habana se hizo necesaria la informatización del proceso de Orientación profesional en el centro por lo que se asume este proyecto para su realización como una tesis de grado por un estudiante de 5. Año con el siguiente diseño de investigación: Tema: Aplicación Android para la Orientación Profesional en la Universidad Tecnológica de La Habana “José Antonio Echeverría” Problema a resolver: ¿Cómo mejorar la orientación profesional para la elección de carreras de la Universidad Tecnológica de la Habana “José Antonio Echeverría”? Como objeto de estudio se definió la informatización del proceso de orientación profesional para la elección de carreras de la Universidad Tecnológica de la Habana “José Antonio Echeverría”. El campo de acción lo constituyen las aplicaciones móviles para la elección de carreras universitarias. Como objetivo general, se plantea desarrollar una aplicación Android que favorezca la elección consciente de la profesión de los estudiantes de preuniversitario en el proceso de Orientación Profesional de la Universidad Tecnológica de La Habana “José Antonio Echeverría”. En el desarrollo de las prácticas profesionales y desarrollo de las tesis los tutores de acuerdo a las características del proyecto de investigación que desarrolle el estudiante definirá los roles y el porciento de tiempo que dedicará a su desempeño. Tabla 2: Ejemplo de la planeación del % de cumplimiento de roles en el estudiante que desarrolló el tema. 5 Rol % del tiempo total de la práctica dedicado al rol Evaluación del rol Plan (%) Real (%) Analista de negocio 10 Analista de sistema 10 Diseñador de software 10 Diseñador de Interfaz hombre- máquina 5 Diseñador de base de datos 10 Arquitecto 15 Analista de datos Jefe de proyecto Especialista de seguridad Programador 25 Probador 10 Gestor de Configuración Facilitador de la Toma de Decisiones Habilitador de Infraestructuras Informáticas Escritor-expositor de trabajos técnicos 5% 4.1 Rol analista de negocios. Los analistas de negocios de TI (también conocidos como IT Business Analyst) son profesionales con conocimientos en el área de administración de negocios y tecnologías de la información. [8]. El analista de negocio o business analyst es la persona que posee conocimientos técnicos sobre la construcción de sistemas informáticos y al mismo tiempo comprende y está al corriente de las necesidades del usuario que requiere de esos sistemas para realizar su trabajo. Su misión es la de ser el interlocutor entre el usuario y el departamento de sistemas. Esta persona debe estar próximo al usuario final y entender los problemas que tiene en el día a día para desarrollar su trabajo y al mismo tiempo debe conocer cómo están construidas las aplicaciones, incluso haber tenido experiencia en el desarrollo de las mismas. De esta forma se convierte en un usuario técnicamente avanzado, por lo que puede ayudar a definir soluciones que cubran las necesidades del negocio con el menor impacto posible en las aplicaciones existentes. 6 Su misión será la de recoger las necesidades de los usuarios (requerimientos o requisitos) y aglutinarlos en un documento de especificación de requisitos que será entregado al departamento de sistemas o desarrollo. En el ciclo de vida del desarrollo participará en la construcción del diseño funcional donde se especifican los elementos del software que se crearán o adaptarán para poder cumplir estos requisitos, siendo una de las personas encargadas de la validación y aceptación del mismo. Durante la fase de construcción, atenderá a las dudas de los técnicos para garantizar que las aplicaciones sean construidas de acuerdo a las necesidades del usuario, pero pudiendo mantener un diálogo de igual a igual con ellos, algo que puede resultar complicado para un usuario. Finalmente, una vez desarrollada la solución deberá también participar en la fase de pruebas y aceptación del producto final. El análisis de negocio tiene como principal objetivo detectar las necesidades de una organización y recomendar soluciones que aporten valor a los interesados. Permite a las empresas articular esas necesidades y las razones para el cambio, diseñando y describiendo soluciones que aporten valor. Responsabilidades del analista de negocios:  Ejecutar proyectos de análisis de datos y necesidades de los usuarios  Evaluar los procesos basados en el análisis de datos  Identificar los procesos comerciales actuales y futuros  Ayudar a las empresas a determinar cómo deberá cambiar su trabajo para apoyar el futuro  Mantener la calidad de los productos y servicios informáticos  Entregar de elementos de diseño de sistemas, incluyendo reglas de migración de datos, reglas de negocio u otros entregables detallados  Ayudar a desarrollar material de capacitación y literatura para acelerar los procesos  Requisitos de documentación para formular recomendaciones basadas en datos  Facilitar la negociación de los requisitos entre múltiples interesados.  Asistencia en las pruebas de aceptación e integración  Ejecución de presupuestos y análisis de riesgos empresariales.  Gestión de proyectos y elaboración de planes de proyectos Para desempeñar el rol de analista de negocio, el estudiante necesita tener habilidades de comunicación oral y escrita, el desarrollo de técnicas de investigación como encuestas y entrevistas para obtener información en el intercambio con los especialistas, así como conocimiento en el desarrollo de aplicaciones informáticas para crear los artefactos necesarios. Para realizar el análisis del negocio, el estudiante necesita tener una preparación básica sobre el tema, desarrollar un intercambio con los especialistas y extraer la información a través de encuestas, entrevistas, revisión de documentación que le permitieran determinar los requisitos funcionales y no funcionales del sistema., crear los artefactos necesarios. Para que en este proyecto el estudiante pueda desempeñar este rol, el tutor debe determinar la preparación del estudiante en cuanto a: Indicadores:  Conocimiento acerca del negocio, en el caso de este proyecto (Actividad Orientación profesional, flujo de procesos en la universidad, test para determinar la orientación vocacional)  Conocimientos acerca de la elaboración de test para determinar la orientación vocacional  Conocimiento para diseñar instrumentos de recogida de información: encuestas y entrevistas  Experiencias en la construcción de software para esta actividad.  Vínculo con especialistas que atienden la Orientación profesional en la universidad  Vínculo con los centros preuniversitarios para la aplicación de las propuestas 7  Conocimiento en aplicaciones informáticas y artefactos como el modelo de dominio, casos de usos, requisitos funcionales y no funcionales del sistema.  Se aplicó una entrevista oral para determinar la preparación para el desempeño del rol (anexo 3)  Como resultado de la aplicación de este test a través de la entrevista oral y observación se detectaron las siguientes insuficiencias:  El estudiante no tiene conocimiento acerca de la actividad de orientación profesional en la Cujae, ni de los test para la orientación profesional.  Como aspecto positivo:  Muestra preparación en relación a los aspectos técnicos para la construcción de los artefactos.  Para garantizar su preparación básica en el plan de la práctica se pusieron como actividades de entrada:  Estudio de conceptos fundamentales y trabajos precedentes.  Análisis y documentación de requisitos de la solución 4.2 Evaluación del desempeño del rol Analista de negocio. La evaluación en la universidad posee una doble dimensión: formativa y de acreditación.[7]. Es un aspecto esencial que expresa la calidad del proceso de formación y la preparación del estudiante para el desempeño de su profesión. Para evaluar el desempeño de un rol es necesario evaluar la calidad de los artefactos elaborados por el estudiante que lo desempeñe. Un artefacto es considerado un término general aplicable a cualquier tipo de información creada, cambiada o utilizada por los trabajadores en el desarrollo del sistema. Es una pieza de información tangible utilizada o producida por un proceso de desarrollo de software[7]. Las escalas de valoración se clasifican de acuerdo con la manera de presentar los distintos niveles o valores escalares. En las escalas descriptivas, que son las que se utilizan, se describen de forma verbal y clara lo que significan cada uno de los niveles [7]. Para la evaluación de este rol se tuvieron en cuenta los siguientes artefactos en correspondencia con sus funciones: -Modelo de dominio -Diagramas de casos de uso - Casos de prueba Cada artefacto en la revisión del trabajo obtiene una evaluación según muestran los indicadores. Modelo de dominio MB __ B___ R___ M___ Diagramas de casos de uso MB___ B___ R____ M_____ Casos de prueba MB____ B____ R____ M_____ Escalas de valoración. Modelo de dominio: Se nombran correctamente las clases conceptuales Si ___ No____ Se representan correctamente las relaciones Si____ No____ Se nombran correctamente los atributos Si __ No____ Es correcta la representación gráfica del modelo Si____ No_____ Se selecciona adecuadamente el vocabulario del dominio Si___ No___ Si c≥4 el indicador se evalúa de MB, si c=3 se evalúa de B, si c=2 se evalúa de R, si c≤1 se evalúa de M. Casos de uso 8 Todos los casos de uso ofrecen un resultado de valor desde la perspectiva de los actores. Si___ No___ Todos los casos de uso ejecutarán solo las actividades que forman parte del negocio. Si___ No___ Los nombres de los casos de uso son claros y reflejan el propósito de los procesos de negocio. Si___ No___ Para nombrar los casos de uso se utilizan verbos en infinitivo. Si___ No___ Se representan correctamente las relaciones entre casos de uso. Si___ No___ Todos los casos de uso del negocio se vinculan a algún actor del negocio. (excepción de los extendidos, incluidos y generalizados). Si___ No___ Todos los actores del negocio se corresponden con un rol y no con una persona física. Si___ No___ Todos los actores del negocio se vinculan a algún caso de uso. Si___ No___ Se representan todas las relaciones de G/E posibles entre los actores. . Si___ No___ En ningún caso de uso un trabajador es considerado como actor. Si___ No___ En ningún caso de uso un actor es considerado como trabajador. Si___ No___ En el diagrama de casos de uso se indica quién inicia la comunicación. Si___ No___ La cantidad de casos de uso del negocio no dificulta la comprensión. Si___ No___ La extensión de los casos de uso del negocio no dificulta la comprensión. Si___ No___ Casos de prueba Establece de manera explícita el objetivo de la prueba Si____ No______ Es adecuado el diseño de casos de prueba Si____ No_____ Utiliza herramientas para la realización de las pruebas Si____ No_____ Realiza un registro de los resultados Si____ No_____ Realiza una evaluación de los resultados Si_____ No______ Permite detectar errores en la prueba Si____ No_____ Permite la verificación de los resultados Si____ No_____ Permite la validación de los resultados Si____ No_____ 4. 4 Automatización del proceso de evaluación de roles. Para la automatización del proceso se creó un formulario en el Sistema Excel según muestran los indicadores, se realizó la validación de la entrada de datos según muestra tabla 3. La evaluación de cada artefacto se obtiene a partir del resultado obtenido al contar las escalas de valoración evaluadas de si y almacenarla en la variable c y se resume en las fórmulas: Modelo de dominio =SI(C8>=4;"MB";(SI(C8=3;"B";(SI(C8=2;"R";"M"))))) Casos de uso = SI(C25>=12;"MB";(SI(C25>=8;"B";(SI(C25>=5;"R";"M"))))) Casos de prueba =SI(C36>=7;"MB";(SI(C36>=5;"B";(SI(C36>=3;"R";"M"))))) 9 Posteriormente se determinó el valor de los indicadores como muestran las tablas 4 y 5. Conclusiones: - La evaluación del estudiante en el desempeño de roles es importante para medir la calidad de la formación del profesional de la carrera de ingeniería informática, la determinación de indicadores y escala de valoración ofrecen mayor precisión en esta actividad. - Los tutores deben concebir las tareas que contribuyan de forma consciente a la formación y desempeño de los roles profesionales por los estudiantes y su evaluación a partir de los indicadores que lo acreditan. Referencias [1] La actividad de tutoría. Tomado de https://www.google.com/search?client=firefox-b- d&q=actividad+de+turoria [2] García Batista, Gilberto, Addine Fernández Fátima y colectivo de autores. Investigación interdisciplinaria en las ciencias pedagógicas. La Habana. Editorial Pueblo y Educación 2011. 10 [3] Castellanos Simons Beatriz, Fernández González Ana María y colectivo de autores. Esquema conceptual, referencial y operativo sobre la investigación educativa. La Habana. Editorial Pueblo y Educación 2011. [4] Psicoprevencion.com.¿soy lo que hago?. El rol profesional. | https://www.prevencionintegral.com › blog › 2015/02/2 [5] Bess busines service curso de trabajo en equipo https://www.todoempresa.com/cursos/trabajo%20en%20equipo%20demo/tema2-4.htm Consultado Abril 2022 [6] Facultad de Ingeniería Informática Universidad Tecnológica de La Habana “José Antonio Echeverría” Colectivo de autores. Plan del proceso docente Carrera Ingeniería Informática Plan E (Plan del Proceso Docente. 2010. [7] Y. López, M. André, A. L. Infante, K. Escalera, S. Verona, "Evaluación del desempeño de roles en equipos de desarrollo de software. Utilización de escalas de valoración," Revista chilena de Ingeniería, vol. 26, pp. 486-498, 2018. [8] Project Management Institut (PMI). Guía de los Fundamentos para la Dirección de Proyectos (Guía del PMBOK®) Global Standard. 2017 [9] F. J. G. Peñalvo and A. G. Holgado. Modelo de Dominio, 2018 [10] M. N. Sarria and Z. J. Loma, "Roles y responsabilidades para la gestión de las Tecnologías de la Información”. [11] R. S. Durán, "Aplicación Android para la Orientación Profesional en la Universidad Tecnológica de La Habana “José Antonio Echeverría” " Trabajo de diploma en opción al título de Ingeniería Informática Universidad Tecnológica de La Habana “José Antonio Echeverría” 2019. 1 ARQUITECTURA PARA LA INTERACTIVIDAD EN LA TELEVISIÓN DIGITAL ADAPTADA A LAS CONDICIONES DE CUBA Ing. Ariel Alfonso Fernández Santana1, Dr. C. Ing. Joaquín Danilo Pina Amargós2 1,2Facultad de Ingeniería Informática, Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE) 1e-mail: alphxcode@gmail.com RESUMEN La Televisión Digital (TVD) permite la incorporación y transmisión de datos que son interpretados por cajas decodificadoras y que el usuario final percibe con determinado grado de interactividad. En la actualidad la mayoría de servicios y tecnologías utilizadas para lograr la interactividad en la televisión digital son limitados por el cobro de elevadas tarifas y su código fuente no se encuentra disponible para adecuar su funcionamiento a las condiciones locales. Dentro de las aplicaciones interactivas están los videojuegos, visitas virtuales y multimedias, las cuales contribuyen a hacer más atractivo y educativo el uso de la televisión. La presente investigación se plantea como objetivo proponer una arquitectura adaptada a las condiciones tecnológicas del país, que tribute a incorporar funcionalidades de interactividad avanzada en la Televisión Digital cubana. Para ello se realiza un análisis de las tecnologías disponibles optando por una solución de software libre que permita la creación de estas aplicaciones y su integración en un mismo sistema adecuado a la Televisión Digital cubana. Con el desarrollo de la investigación se contribuye a enaltecer el patrimonio tecnológico del país. Al ser la televisión un medio de difusión tan utilizado en la sociedad actual, su implementación se ve reflejado como un claro beneficio a disímiles sectores. Además, fomenta el crecimiento de la soberanía tecnológica del país siendo un referente en el desarrollo de multimedias, videojuegos, visitas virtuales, u otro tipo de contenido interactivo para la Televisión Digital, ya que se crea una caracterización de los principales atributos que deben tener dichas aplicaciones. PALABRAS CLAVES: televisión digital interactiva, arquitectura de software, software libre. ARCHITECTURE FOR ADVANCED INTERACTIVITY IN DTV ADAPTED TO CUBA’S CONDITIONS ABSTRACT Digital Television (DTV) allows the incorporation and transmission of data that are interpreted by set-top boxes and that the end user perceives with a certain degree of interactivity. Currently, most of the services and technologies used to achieve interactivity on digital television are limited by the charging of high fees and their source code is not available to adapt their operation to local conditions. Among the interactive applications are video games, virtual tours and multimedia, which contribute to making the use of television more attractive and educational. The objective of this research is to propose an architecture adapted to the technological conditions of the country, which contributes to incorporating advanced interactivity functionalities in Cuban Digital Television. To this end, an analysis of the available technologies is carried out, opting for a free software solution that allows the creation of these applications and their integration into the same system suitable for Cuban Digital Television. The development of this research contributes to enhancing the technological heritage of the country. As television is a widely used means of dissemination in today's society, its implementation is reflected as a clear 2 benefit to different sectors of society. In addition, it promotes the growth of the technological sovereignty of the country, being in turn a benchmark in the development of multimedia, video games, virtual tours, or any other type of interactive content for Digital Television, since a characterization of the main attributes that such applications should have is created. KEY WORDS: interactive digital television, software architecture, free software. 1. INTRODUCCIÓN Se conoce como televisión digital TVD o DTV (por sus siglas en inglés: Digital Television) a un conjunto de tecnologías de transmisión y recepción audiovisual que emplea señales digitales en lugar de las analógicas tradicionales de la televisión [1]. Como se plantea en [2, 3] la televisión digital presenta interesantes innovaciones respecto a la tradicional: varios formatos de trasmisión, transmisiones simultáneas, interactividad. Basados en [4, 5] se puede afirmar que la interactividad permite a los canales de televisión ofrecer un conjunto de servicios adicionales al incorporar funciones avanzadas de comunicación, participación y servicios sociales para el desarrollo de la informatización. Esta interactividad se clasifica en dos niveles: interactividad local e interactividad con canal de retorno [6]. La Televisión Digital interactiva (TVDi) es un escenario emergente en ascenso que brinda la posibilidad de trasmitir contenidos informativos y recreativos utilizando este medio de gran penetración en la mayoría de los pueblos del mundo. Dentro de los contenidos más llamativos se encuentra la multimedia interactiva que incluye los videojuegos y las visitas virtuales. En su conjunto ofrecen una verdadera experiencia integrada combinando la televisión, el ordenador, la industria editorial y las telecomunicaciones. Un producto multimedia interactivo permite al usuario iniciar y desarrollar un diálogo, consultar información, explorar, descubrir y adquirir nuevos conocimientos; por lo que destacan los grandes beneficios que brinda su uso en el ámbito de la educación y el entretenimiento. Se considera una tecnología que promueve la creatividad mediante los sistemas de computación. La producción y creación de sistemas virtuales reduce el derroche de recursos técnicos y económicos. Se enfoca en el uso de los recursos tecnológicos disponibles, sus avances y las herramientas multimedia para desarrollar productos interactivos, sencillos, y en los cuales utilizando diversas técnicas de diseño y creatividad se puede incluir mucho contenido informativo. Además, una interacción que exige del usuario, facilita la atención, comprensión, y retención de información de una forma intuitiva y espontánea. Dentro de los varios productos en formato multimedia que existen, en Cuba destacan tres importantes colecciones de software educativos: la colección Multisaber, la colección el Navegante y la colección Fututo [7], dirigidas a trasmitir conocimiento de una forma más entretenida a los estudiantes de enseñanza primaria, secundaria y superior respectivamente. Sistemas como estos constituyen un valioso medio de enseñanza- aprendizaje, que ofrece variadas perspectivas de proyección al proceso docente-educativo. Algunos brindan un enfoque curricular y multidisciplinario por su relación con los contenidos de los programas de cada asignatura, y otros tributan a la formación de una cultura general integral. Sin embargo, no están preparados para desplegarse en el entorno masivo de la TVD, forma en la cual se haría llegar a todos los hogares independientemente de su nivel adquisitivo. En el caso de la Televisión Cubana solo es posible la interactividad local debido a la ausencia de un canal de retorno, lo que hace la comunicación bidireccional inaplicable [8]. Por tanto, para lograr esta interactividad avanzada se utilizará un sistema al que se accederá a través de Internet, permitiendo la comunicación cliente- 3 servidor. Este acceso será mediante un dispositivo externo como un smartphone o tablet o utilizando un televisor inteligente o caja decodificadora que tenga disponibilidad de Internet. En la actualidad la TVDi se utiliza principalmente para transmitir contenido multimedia que está controlado por empresas y corporaciones que responden a sus propios intereses por encima del de los usuarios. Por otro lado, el contenido útil con respecto al tema y a las tecnologías pertinentes está disperso en Internet, lo que dificulta que los interesados puedan apropiarse de él fácilmente. Además, las tecnologías privativas con que están desarrolladas no permiten adaptar los contenidos existentes a los entornos de bajas prestaciones con que cuenta el país, ni integrarlos con otras soluciones. Teniendo en cuenta lo planteado anteriormente, la investigación se basa en proponer una arquitectura adaptada a las condiciones tecnológicas de Cuba, que tribute a incorporar funcionalidades de interactividad avanzada en la Televisión Digital cubana. El desarrollo del tema que se plantea contribuiría a enaltecer el patrimonio tecnológico del país. Al ser la televisión un medio de difusión muy utilizado en la sociedad actual, su futura implementación se verá reflejado como un claro beneficio a diferentes sectores de la sociedad. Además, brindará soberanía tecnológica pudiendo convertirse en un referente en el desarrollo de multimedias, videojuegos, visitas virtuales, u otro tipo de contenido interactivo para la Televisión Digital, ya que se estaría creando una caracterización de los principales atributos que deberán tener dichas aplicaciones. 2. CONTENIDO Antecedentes En [9] se presenta una nueva solución de software que demuestra las posibilidades de la TVDi en un escenario real. La solución llamada TVC+ recoge información útil disponible en Internet y la integra con los servicios de TVDi. Algunas de sus funcionalidades ya se han desplegado en varios escenarios [10], demostrando su utilidad en algunas áreas de los objetivos de Desarrollo Sostenible 2030 de la ONU: Educación, Salud, Alimentación y Patrimonio [11]. TVC+ permite la transmisión de contenido en el estándar de TVDi que se requiera. Existen varios estándares técnicos que regulan el funcionamiento de un sistema de televisión interactiva. Basado en las investigaciones realizadas en [12] y [13], por las múltiples ventajas con respecto a las demás tecnologías, el estándar HbbTV (Hybrid Broadcast Broadband TV) resulta ideal para el desarrollo de aplicaciones interactivas en la televisión digital y teniendo en cuenta que se basa en estándares abiertos y ha sido desplegado en varios países será utilizado en el presente trabajo. El HbbTV se basa en un conjunto de estándares abiertos ya existentes, los cuales definen cómo se interactúa con los contenidos multimedia: OIPFDAE, DVB y W3C. El mismo va más allá de los estándares tradicionales, pues define sus propios estándares para las interfaces gráficas. El estándar OIPF-DAE define APIs de JavaScript para entornos de televisión, así como establece modificaciones al lenguaje CE-HTML para la creación de interfaces gráficas. CEA define las APIs para los servicios bajo demanda, así como el acceso a redes UpnP e Internet. El estándar DVB define la capa de transporte y señalización de los contenidos interactivos y W3C define los estándares Web (HTML5, CSS3, JavaScript, DOM3) para la presentación de los contenidos interactivos. Con estos estándares, HbbTV logra que contenidos de diferentes proveedores e incluso diferentes medios de transmisión sean accesibles a través de la misma interfaz. Utiliza la especificación MPEG-DASH con el fin de proveer soporte para el streaming adaptativo a través del protocolo HTTP. La transmisión de contenido con tasa de bits adaptativa es una de las características esenciales de HbbTV logrando una mejor experiencia del usuario en redes de alta saturación o de baja velocidad [14]. Actualmente, a varios años de publicado el estándar, numerosas organizaciones han creado sus soluciones para, generalmente, integrarlas con sus productos de hardware. Tal es el caso de Samsung, LG, Sony, entre otros que 4 han combinado sus sistemas de Smart TV con HbbTV. Muchos proveedores de televisión, sobre todo en Europa, han comenzado a transmitir contenidos bajo el estándar HbbTV y organizaciones gubernamentales, en conjunto con estos proveedores, han creado recomendaciones y especificaciones con las características que deben tener los equipos receptores y los productos de software para ser vendidos en sus países. Es por ello que se propone una solución propia que se integre a TVC+ para permitir la incorporación de interactividad. En un estudio realizado en [15] durante la propagación de la COVID-19, sobre cómo las visitas virtuales 360 pueden reducir el estrés psicológico de las personas, los resultados indicaron una reducción de estrés y aumento del disfrute al participar en esta forma de realidad virtual. De forma similar en [16] se comprobó que el jugar videojuegos puede influir positivamente en reducir el estrés y la ansiedad en niños, adultos y adultos mayores, además de ser una potencial fuente de conocimientos según las características particulares del juego en cuestión. Selección tecnológica Se realizó un análisis de los marcos de trabajo fundamentales para el desarrollo de visitas virtuales 360 en un ambiente propicio para la Televisión Digital. En la Tabla 1 se muestra una comparativa que los abarca. Tabla 1: Comparación de marcos de trabajo para el desarrollo de visitas virtuales 360 Herramienta Licencia Curva de aprendizaje Documentación Última versión estable1 A-frame MIT Alta Media 04.02.2021 Pannellum MIT Media Media 26.11.2019 Marzipano.js MIT Baja Media 14.11.2021 Three.js MIT Media Alta 30.04.2022 1 La fecha de la última versión estable fue revisada el 5 de octubre de 2022. Tras realizar el análisis anterior se decidió utilizar Three.js para el manejo de la realidad virtual en el lado del cliente con base en que es una biblioteca de JavaScript que posee una vasta documentación y comunidad, así como sus desarrolladores se mantienen actualizándola a menudo con nuevas funcionalidades, mejoras de estabilidad y corrección de errores; lo que garantiza el soporte técnico. Para el desarrollo del resto de la aplicación del lado del cliente se utilizó React.js ya que al utilizar un DOM (Document Object Model) virtual permite un gran rendimiento, posee una curva de aprendizaje baja y utiliza en gran medida las funcionalidades de JavaScript. En el caso de la aplicación en el lado del servidor se decidió utilizar NestJS fundamentado en que consume considerablemente pocos recursos del sistema comparado con otras opciones (Asp.Net o Spring), brinda una arquitectura predeterminada, utiliza JavaScript y facilita la realización de pruebas ya que permite desarrollar aplicaciones utilizando poca cantidad de código. De igual forma se realizó un análisis de las tecnologías disponibles para el desarrollo de videojuegos. En la Tabla 2 se muestra un resumen. Tabla 2: Comparación de marcos de trabajo para el desarrollo de videojuegos Herramientas Gratis + Código abierto Soporte para Smart TV Soporte HbbTV Soporte Técnico Documentación Recursos necesarios Unity No Si Si Bueno Amplia Medio 5 Unreal Engine No No No Bueno Amplia Mucho Babylon.js Si Si No Bueno Media Medio Pixi.js Si Si Si Bueno Media Poco Phaser.js Si Si No Regular Poca Poco Se seleccionó Pixi.js como marco de trabajo a utilizar debido a que es totalmente libre, necesita pocos requerimientos para su implementación y al ser multiplataforma es prácticamente compatible, no solo con casi todos los sistemas operativos de PC y teléfonos inteligentes, sino también con los disímiles sistemas operativos de los Smart TV y STB. Su vinculación al desarrollo de aplicaciones para la televisión digital interactiva fue un elemento de peso en su elección. Solución propuesta Teniendo en cuenta que se requiere que el sistema posea un alto nivel de disponibilidad y que es substancial que permita el aumento de sus funcionalidades se decidió utilizar una arquitectura basada en microservicios. Esto contribuirá a descomponer la aplicación en diferentes servicios, con el objetivo de obtener alta disponibilidad, bajo acoplamiento, descentralización y tolerancia a fallas. En la Figura 1 se muestra el sistema representado en una arquitectura de estructuración en capas con enfoque de reutilización donde se pueden observar los diferentes paquetes que componen la solución. En la capa específica y general se muestran los paquetes particulares de la aplicación que a su vez son los menos reutilizables. En la capa intermedia se encuentran las bibliotecas y marcos de trabajo utilizados como complemento en el desarrollo del sistema, creados por terceros, y que pueden ser reutilizados para el desarrollo de aplicaciones similares. Por último, en la capa de software del sistema están contenidos los componentes propios del sistema operativo como los protocolos que gestionan el acceso a los datos y recursos. Figura 1: Arquitectura de estructuración en capas con enfoque de reutilización Análisis de resultados 6 Una vez desarrollados los prototipos se probaros en computadoras de escritorio, móviles y computadoras de placa única (SBC). Como navegadores web se utilizaron Mozilla Firefox, Google Chrome y Opera. A continuación, se muestran capturas de pantalla del funcionamiento del sistema de visitas virtuales 360, tanto del editor como del visualizador. En la Figura 2 se observa el menú de inicio, donde se listan las visitas virtuales a las que el usuario tiene acceso y que puede visualizar, modificar o borrar. Desde esta vista también se puede crear una nueva visita virtual. Figura 2: Menú de inicio con la lista de visitas virtuales disponibles El usuario puede conformar la visita virtual desde el editor (ver Figura 3), donde se crean las escenas y puntos de interés que la componen. Figura 3: Editor de visitas virtuales Para visualizar una visita virtual se utiliza una vista (ver Figura 4) que propicia la inmersión del usuario en el recorrido, a la vez que permite interactuar con los elementos del entorno. 7 Figura 4: Visualización de una visita virtual En pos de promover el aprendizaje a través de los videojuegos se decidió que el prototipo a desarrollar fuera de lógica y conocimiento con un enfoque de preguntas y respuestas. En función de esto, se crearon bloques de preguntas agrupadas por materia que el usuario debe responder correctamente para ganar. En la Figura 5 se muestra el menú para seleccionar la materia que se desee elegir. Figura 5: Selección de la materia de las preguntas (niveles del videojuego) Asimismo, en la Figura 6 se observa la vista donde se muestran las preguntas y el usuario realiza su elección. Cada partida inicia con 3 vidas representadas como corazones, cuando el jugador conteste incorrecto una pregunta perderá un corazón, que al reducirse a 0 se da por terminado el juego. Si se logran contestar todas las preguntas de la materia sin perder todos los corazones se da por vencida la materia. 8 Figura 6: Entorno del videojuego (interactividad del usuario) Para la validación del sistema se realizaron una serie de pruebas con enfoque de caja negra, con el objetivo de verificar que cumpliera con los requerimientos planteados, lo cual arrojó resultados satisfactorios. 3. CONCLUSIONES El estudio del estado del arte demostró la necesidad de contar con una arquitectura que tribute a incorporar funcionalidades de interactividad avanzada en la Televisión Digital cubana y que se adapte a las condiciones tecnológicas del país. Tras el análisis de las tecnologías disponibles se decidió desarrollar la aplicación cliente con Three.js para visitas virtuales 360 y Pixi.js para videojuegos, utilizando para el lado del servidor Node.js y Nest.js. Las pruebas realizadas demuestran la factibilidad de las soluciones propuestas y, al utilizar una arquitectura basada en microservicios, se garantiza un bajo acoplamiento entre los componentes del sistema. Esto facilita que se puedan añadir nuevas funcionalidades a la par que se reutilizan elementos del sistema ya creados, resaltando así los beneficios obtenidos. De igual modo, representa un gran aporte para desarrollo de la Televisión Digital interactiva en Cuba, dado que queda sentada una base que sirve de guía y apoyo para desarrollar aplicaciones interactivas en este entorno utilizando software libre. RECONOCIMIENTOS Los autores desean agradecer a todas las personas que brindaron su apoyo y dedicación durante la realización de este proyecto, en especial a Carlos Flores y Raulise A. Frómeta por su aporte y colaboración en la investigación y en el marco de desarrollo del software. También agradecemos el finaciamiento del Proyecto Nacional de Ciencia y Técnica Nuevo receptor inteligente de Televisión Digital Interactiva (TVDi) y plataforma informática asociada para el desarrollo de aplicaciones orientadas a servicios públicos soportados en Dispositivos Móviles. REFERENCIAS 1. Zárate Torres, D.J., Diseño e implementación de una aplicación interactiva para educación a distancia: T- learning a través de un canal TDT universitario y un canal IPTV en la ciudad de Lima. 2012. 9 2. Amador-González, M., Módulo para la extracción de información de fuentes externas para la conformación de noticias en la televisión digital en Cuba. Bachelor thesis report Universidad Tecnológica de La Habana “José Antonio Echeverría”(CUJAE), 2018. 3. Sotelo, R., J. Joskowicz, and N. Rondán, An integrated broadcast-broadband system that merges ISDB-T with HbbTV 2.0. IEEE Transactions on Broadcasting, 2018. 64(3): p. 709-720. 4. Dávila Sacoto, M.A., Diseño de una plataforma de software para Televisión Digital interactiva de un canal de deportes utilizando GINGA-NCL LUA. 2012. 5. Millo Sánchez, R., et al., La interactividad en la Televisión Digital: su desarrollo en Cuba. Revista Cubana de Ciencias Informáticas, 2018. 12(1): p. 205-219. 6. García-Crespo, A., et al., Servicios Interactivos y Accesibilidad en la Televisión Digital, una Oportunidad para Reducir la Brecha Digital. Rev. Iberoam. de Tecnol. del Aprendiz., 2012. 7(2): p. 86-93. 7. de la Peña Sarracén, E. El Módulo Juegos de la Colección El Navegante en su versión multiplataforma. in [2019-MADRID] Congreso Internacional de Tecnología, Ciencia y Sociedad. 2019. 8. Pina Amargós, J.D., et al. Incorporation of immediacy, dynamics and interactivity to digital terrestrial television services in Cuba through TVC+. in Iberoamerican Conference on Applications and Usability of Interactive TV. 2019. Springer. 9. Pina-Amargós, J., et al., New functionalities of digital terrestrial television in cuba to contribute to the informatization of society. Revista Cubana de Ciencias Informaticas, 2018. 12: p. 158-172. 10. Abásolo Guerrero, M.J., et al. La Televisión Digital Interactiva para el mejoramiento de los pueblos latinoamericanos. in XXIII Workshop de Investigadores en Ciencias de la Computación (WICC 2021, Chilecito, La Rioja). 2021. 11. Desa, U., Transforming our world: The 2030 agenda for sustainable development. 2016. 12. Frómeta García, A., Diseño y desarrollo de videojuego de corte educativo en entorno interactivo de TV digital. 2021, Universidad Tecnológica de La Habana (CUJAE). 13. Eslava Arce, I., Estudio del estándar de televisión digital interactiva HbbTV e implementación de aplicación final. 2014. 14. Jakšić, B., et al., Characteristics of hybrid broadcast broadband television (HbbTV). Bulletin of Natural Sciences Research, 2017. 7(1). 15. Yang, T., et al., The impact of a 360 virtual tour on the reduction of psychological stress caused by COVID-19. Technology in Society, 2021. 64: p. 101514. 16. Pallavicini, F., A. Pepe, and F. Mantovani, Commercial off-the-shelf video games for reducing stress and anxiety: systematic review. JMIR mental health, 2021. 8(8): p. e28150. 1 INTEGRACIÓN DEL SERVICIO DE DATOS DE LA TDT CON LA TV INTERACTIVA MEDIANTE TVC+ Joaquín-Danilo Pina-Amargós1, Ariel-Alfonso Fernández-Santana, Juan Carlos González-Fernández, Raisa Socorro-Llanes 1Facultad de Ingeniería Informática, Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE) e-mail: jpina@ceis.cujae.edu.cu RESUMEN Los servicios de datos de la TDT Cubana ofrecen información útil a los espectadores complementaria a los programas que se transmiten. Actualmente, los procesos para asegurar el funcionamiento de los servicios de datos requieren una infraestructura de hardware y software compleja y costosa. Además, el empaquetado y entrega del contenido de los servicios de datos está limitado únicamente a la especificación china GY/T 201- 2004 por lo que las cajas decodificadores del tipo inteligentes tendrían limitadas sus funcionalidades de interactividad. En este trabajo se presenta una nueva solución que resuelve los problemas descritos. La solución agrega nuevas funcionalidades a la plataforma cubana TVC+ permitiendo obtener, empaquetar y transmitir los datos que podrán ser visualizados tanto en los decodificadores estándar, como en los nuevos del tipo inteligentes. El proceso de empaquetado es flexible pues entrega los TS tanto por IP/UDP como mediante un dispositivo de modulación. El sistema TVC+ es multiplataforma, requiere pocos recursos para su funcionamiento y está basado en tecnologías de software libre, por lo que puede ser utilizado como un sistema práctico en la TDT cubana y abre nuevas posibilidades para su desarrollo. PALABRAS CLAVES: televisión digital terrestre, servicio de datos, interactividad. INTEGRATION OF THE TDT DATA SERVICE WITH INTERACTIVE TELEVISION THROUGH TVC+ ABSTRACT The data services of the Cuban DTT offer useful information to viewers complementary to the programs that are transmitted. Currently, the processes for ensuring the operation of data services require a complex and expensive hardware and software infrastructure. In addition, the packaging and delivery of the content of the data services is limited only to the Chinese specification GY/T 201-2004, so the set-top boxes of the intelligent type would have limited their interactivity functionalities. In this paper, a new solution is presented that solves the described problems. The solution adds new functionalities to the Cuban TVC+ platform allowing data to be obtained, packaged and transmitted, which can be displayed both on standard decoders, as in the new ones of the intelligent type. The packaging process is flexible because it delivers the TS both by IP/UDP and by means of a modulation device. The TVC+ system is multiplatform, requires few resources for its operation and is based on free software technologies, so it can be used as a practical system in the Cuban DTT and opens up new possibilities for its development. KEY WORDS: digital terrestrial television, data service, interactivity. 1. INTRODUCCIÓN 2 En Cuba existen en la actualidad 3,5 millones de TV funcionando (según [3], Tabla V.17, p. 409). Hasta inicios de 2019 se han distribuido en Cuba más de dos millones de receptores de televisión digital terrestre (TDT) incluyendo las llamadas cajitas (STB, del inglés setup-box) y los TV híbridos. Lo anterior indica que existe un potencial de más de un millón de hogares que aún no tienen TDT, teniendo en cuenta que en muchos hogares existen más de un TV. Por otro lado, la importancia del TV es crucial para llegar de una manera sencilla y barata a la mayor parte de población [6]. La interactividad de la TDT es una de las funcionalidades principales incorporadas a la televisión digital a través de sus servicios de valor agregado [4]. En la Figura 1 se muestra un esquema general de la TDT incluyendo la interactividad tal y como existe a nivel mundial. Este esquema incluye las funcionalidades de comunicación del STB con el proveedor de Internet utilizando el “Canal de Retorno” y la comunicación del mismo con dispositivos de pantalla acompañante que a su vez puede estar conectados a Internet [9]. Figura 1. Esquema general de HbbTV (basado en [9]). Las flechas indican el sentido de la conexión. El recuadro inferior indica el significado de los colores de las diferentes conexiones existentes. A pesar de los adelantos que existen a nivel mundial al respecto, en Cuba solo se dispone de software y hardware que gestiona y visualiza contenido en texto plano, estático, de poca actualidad y utilidad los usuarios finales. Los autores de este trabajo han propuesto una solución que corrige la situación de la actualización de la información a través de la nueva plataforma tecnológica TVC+. Este sistema permite la gestión del contenido de manera manual pero también de forma automática tal y como se realiza a nivel internacional [2, 1, 10, 7] a partir de fuentes externas RSS y servicios Web. Desde septiembre de 2018, TVC+ está a prueba y de forma ininterrumpida ha publicado más de 50 000 noticias desde 13 fuentes externas (Periódico Granma, Cubadebate, Instituto de Meteorología, La Papeleta, etc.) que son captadas por todos los receptores de TDT del país. En 3 estos momentos se encuentra en fase de ajuste para que se muestre en todos los tipos de STB siguiendo la especificación china que define su estructura y formatos [8]. En este trabajo se exponen las principales funcionalidades que se incorporan a TVC+ para incorporar los primeros elementos de interactividad en la TDT cubana mediante la utilización del canal de datos que provee la empresa de telecomunicaciones del país. 2. SOLUCIÓN PROPUESTA La Televisión Digital (TVD) permite la inclusión de datos y software como valor agregado al flujo tradicional de audio y video. Este canal de datos permite al televidente profundizar en la información audiovisual que se transmite e incluso puede interactuar de manera que mejora la experiencia de usuario tradicional tal y como se sugiere a nivel internacional [11, 12, 13] (por ejemplo: consulta de alertas sobre eventos naturales como ciclones tropicales, sinopsis y repertorio de la película, estadísticas de la competencia deportiva, encuesta/examen que debe responder, etc.). Estas funcionalidades se agrupan en la denomina interactividad y en función del requerimiento de conexión con redes de telecomunicación se le conoce como interactividad local y total. En la televisión cubana por ahora solo es posible la interactividad local debido a las limitaciones actuales de la inexistencia del canal de retorno que hace imposible la comunicación bidireccional. Sin embargo, aún no se explota lo suficiente la interactividad local debido a inercia de la producción y transmisión del contenido tradicional que desde el comienzo ha existido. Para resolver el problema planteado, los autores han propuesto el desarrollo de un conjunto de nuevas funcionalidades que permiten mejorar la actualización y calidad del contenido que transmite por el canal actual de datos. De esta manera, se introduce de forma escalonada la interactividad en la TV cubana, en una primera etapa de forma local y se preparan las condiciones para la interactividad total. En la Figura 2 se muestra como TVC+ obtiene la información desde fuentes primarias de contenido mediante los estándares de RSS y servicios Web. Este contenido es empaquetado en los ficheros que son transmitidos para que sean visualizados por los receptores de TDT. Figura 2. Esquema general de la solución propuesta en su despliegue inicial. Entre las funcionalidades implementadas que mejoran el anterior, se encuentran: a) permite establecer el orden de las noticias, b) incorpora un flujo de aprobación de la noticia, c) mantiene un registro de trazas para futuras auditorías y reportes, d) obtiene de manera automática de noticias desde fuentes externas RSS lo que facilita su 4 edición y mejora la actualidad de su contenido, e) habilita el acceso desde cualquier medio de cómputo conectado a la intranet del ICRT (acceso nacional e incluso desde móviles), f) incorpora imágenes ajustando automáticamente su tamaño y formato, g) permite asignar permisos de forma personalizada, incluso a nivel secciones y subsecciones específicas, h) realiza la extracción y publicación automática de noticias desde fuentes RSS y servicios Web permitiendo que la fuente responsable del contenido específico sea la que se encargue de su actualización. Adicionalmente, se propone la incorporación de la gestión de eventos y acciones para lograr la dinámica automática de cambio del contenido y la gestión de la programación de una manera integrada con el servicio de datos. En las imágenes generadas por TVC+ se propone incluir códigos QR que encapsulan la información de interacción. Este código puede ser escaneado por teléfonos móviles que tengan conexión a los datos móviles del proveedor de telefonía móvil (ETECSA). En una primera etapa del proyecto se han incluido QR de navegación y televotación (ver Figura 3). Figura 3. Ejemplos de utilización de navegación web (izquierda) y televotación mediante SMS (derecha). La idea permite ampliar las potencialidades del servicio de datos transmitido por la televisión cubana sin cambiar la infraestructura actual. El alcance de la propuesta es muy amplio teniendo en cuenta que la TV es el medio promotor de contenido informativo que con más penetración y tiempo llega a la población. No existen antecedentes a nivel nacional y no se ha encontrado la publicación de algunas funcionalidades propuestas a nivel internacional. Las funcionalidades propuestas se resumen a continuación:  Automatizar la obtención de contenido desde fuentes primarias identificadas como útiles a la población,  Incorporar propiedades que indiquen el período de publicación de cada noticia,  Sincronizar las noticias con los programas que se transmiten,  Incorporar la gestión de eventos y acciones para lograr la dinámica automática de cambio del contenido: 5 ◦ Eventos: Al llegar determinado momento, Al expirar el tiempo de publicación de un contenido (sección, subsección o noticia), Al mostrarse determinado contenido, Al tener/no tener alguna noticia en una determinada subsección, etc. ◦ Acciones: Cambiar propiedad de determinado contenido (sección, subsección o noticia) a un valor dado, Cambiar plantilla de formato, Publicar contenido, etc.  Incorporar contenido con código QR que permita funcionalidades de interactividad utilizando el canal de datos de ETECSA: ◦ Televotación (SMS para votación o selección de respuesta), ◦ Navegación (URL http para conectar mediante navegador) y ◦ Pago de servicios mediante transferencia bancaria (Código de cuenta para efectuar pago por transferencia mediante Transfermóvil)  Gestión de las actividades realizadas mediante el canal de datos del proveedor de telefonía. Entre los eventos y acciones se han implementado los siguientes:  Si aparece una noticia en una determinada subsección (p. ej. alerta) entonces se ocultan determinadas subsecciones (p. ej. deportivas y culturales).  Cuando expira el tiempo de publicación de una noticia que está en una sección entonces se mueve la noticia a otra subsección con otro tiempo de expiración.  Si no hay ninguna noticia en determinada subsección entonces se oculta esta subsección.  Si se oculta una subsección entonces se muestra determinadas subsecciones.  Si un determinado programa comienza en un lapso de tiempo dado entonces se muestra determinada noticia. Se utilizaron tecnologías novedosas, de software libre y estándares abiertos sobre una arquitectura en capas basada en servicios web lo que permite la extensibilidad y adaptabilidad de la propuesta (Apache, Node.js, AngularJS, MongoDB). La arquitectura del software TVC+ permite la incorporación gradual de los elementos de interactividad logrando su compatibilidad con los codificadores actuales y futuros. En la actualidad TVC+ tiene como salida los ficheros especificados en la documentación china [8] pero ya se ha comenzado a implementar la entrega de su estructura y contenido siguiendo otros estándares como el especificado en HbbTV [9]. La convergencia tecnológica planteada en la actualidad permite la integración con otros estándares a nivel mundial [14, 5]. Este aspecto constituye una importante novedad que se presenta en este trabajo. La solución propuesta permite la soberanía tecnológica de nuestro país en esta importante área del conocimiento con posibilidades futuras reales de intercambio con otros países de la región. 3. ANÁLISIS DE LOS RESULTADOS 6 Las pruebas iniciales se han realizado en un entorno controlado mediante un el modulador (en el centro) que transmite la señal generada en la PC desde TVC+ y finalmente se visualiza en el TV desde un STB (ver Figura 4). Figura 4. Escenario de prueba donde se muestra el modulador (en el centro) que transmite la señal generada en la PC y finalmente se visualiza en el TV desde el STB. Luego de varios meses de estabilidad en su funcionamiento, TVC+ se desplegó desde el 27 de septiembre de 2018 y desde esa fecha funciona ininterrumpidamente las 24 horas de cada día. Se han publicado casi 200 noticias nuevas cada día y se reemplazan las antiguas para mantener alrededor de 400 en cualquier instante. Este software ahorra al país alrededor de 20 mil USD teniendo en cuenta que es de propósito específico. Además, reporta un ahorro de recursos equivalente a 5 mil CUP cada mes teniendo en cuenta que todo se hace digital, de forma instantánea y utilizando los recursos de cómputo e infraestructura de red actualmente instalados en el ICRT (ver Figura 5). 7 Figura 5. Despliegue en la emisora Radio Reloj el 27 de septiembre de 2018. Todas las instituciones que brindan información útil a la población pueden integrarse a la solución propuesta (algunos ej. Gobiernos de todos los niveles para informar de su gestión, InsMet para otros partes útiles como agricultura y marítimo, Emp. Omn. Nac. para informar el horario actualizado de salidas y arribos, Farmacia para informar la distribución de medicamentos, Banco para informar las tazas de cambio y horarios, MINED para orientar las tareas extraclase y preparación de las pruebas de ingreso, INDER para informar los resultados deportivos tales como la tabla de posiciones y líderes de la SNB, ICRT para transmitir información complementaria de programas que salen al aire y que ayudan a la cultura general y al debate). Solo tienen que publicar su contenido mediante los estándares RSS y servicios Web siguiendo las especificaciones de interfaz de servicios definida en TVC+. En la Figura 6 se muestran algunos de los ejemplos que demuestran las funcionalidades brindadas por TVC+. 8 FIGURA 6. ALGUNOS EJEMPLOS DE DINÁMICA INTERACTIVA QUE SE HAN INCORPORADO A TVC+. 4. CONCLUSIONES La solución propuesta facilita la gestión dinámica de los contenidos de valor agregado de la televisión digital terrestre en Cuba y la incorporación gradual de los necesarios elementos de interactividad que permiten su compatibilidad con los codificadores actuales y futuros. Algunas de estas funcionalidades ya están incluidas en la versión de TVC+ que en la actualidad está desplegada en el ICRT y cuentan con el aval del mismo. Con la propuesta se puede generar contenido que prepara las condiciones para la interactividad (información complementaria del programa que se transmite, utilizar canal de retorno mediante SMS o los datos móviles de ETECSA). La evolución hacia la interactividad es factible al agregar las nuevas funcionalidades manteniendo la compatibilidad con los STB actuales. Esta solución permite la soberanía tecnológica de nuestro país en esta importante área del conocimiento con posibilidades futuras reales de intercambio con otros países de la región. A partir de la solución propuesta se puede afirmar que la naciente industria cubana del software encuentra en esta idea otra puerta hacia la informatización de la sociedad cubana mediante el despliegue de servicios que brinden contenido actualizado de interés para los hogares y lugares comunitarios de todo el país, incluso, sin tener conexión a Internet. Como trabajo futuro queda realizar las pruebas de las funcionalidades en varios STB para su debido ajuste y culminar la implementación de las funcionalidades prototipadas. RECONOCIMIENTOS Los autores desean agradecer al finaciamiento del Proyecto Nacional PN223LH006-018 Desarrollo de módulo reconfigurable para escenarios tecnológicos emergentes en Cuba y todas las personas que brindaron su apoyo y dedicación durante la realización de este proyecto. REFERENCIAS [1] Barrero, A., Melendi, D., Pañeda, X. G., García, R., & Pozueco, L. (2016). Evaluation of text entry methods for interactive digital television applications with devices alternative to conventional remote controls. International Journal of Human–Computer Interaction, 32(10), 765-776. [2] Calixto, G. M., Angeluci, A. C., Costa, L., de Deus Lopes, R., K., and Zuffo, M. K. 2013. Cloud computing applied to the development of global hybrid services and applications for interactive TV. In Consumer Electronics (ISCE), IEEE 17th International Symposium on (2013), IEEE, 283-284. [3] ONEI. (2014). Informe final del Censo de población y viviendas de Cuba en el 2012. Oficina Nacional de Estadísticas e Información. Cuba. [4] ETSI. (2017). “Digital video broadcasting (DVB); signaling and carriage of interactive applications and services in hybrid broadcast/broadband environments” TS, 102 809, June 2017. V1.3.1. [5] Farias, B., Araújo, N., Fabrício, R., da Costa, J. B., & de Lima Filho, E. B. (2019, January). A Methodology for Convergence Between Ginga and HbbTV. In 2019 IEEE International Conference on Consumer Electronics (ICCE) (pp. 1-4). IEEE. [6] González-Neira, A. & Quintas-Froufe, N. (2015) Revisión del concepto de televisión social y sus audiencias. En: La participación de la audiencia en la televisión: de la audiencia activa a la social. Madrid. España: AIMC, Asociación para la Investigación de Medios de Comunicación. [7] Guzmán-Luna, J., Torres, I. D., & Alvarez, J. F. (2017). Propuesta de un generador de aplicaciones educativas basadas en televisión digital usando arquitectura de cómputo en la nube. Revista Colombiana de Tecnologías de Avanzada (RCTA), 2(24). [8] GY/T 201-2004. (2004). Specification for data broadcasting in digital television system. China. [9] HbbTV Association. (2018). HbbTV 2.0.2 Specification. sl: ETSI, 2018. TS 102 796, V1. 9 [10] Martínez-Martínez, L. and Martínez-Espinosa, L. (2016). News Reports on TV, Twitter and the Active Audience. M.J. Abásolo et al. (Eds.): Applications and Usability of Interactive TV, jAUTI 2015/CTVDI 2015, CCIS 605, 121-133. [11] Paredes, D. (2013). Alertas Tempranas: Contexto de la Televisión Digital Interactiva (TVDI). Anales de JAUTI 2013, II Jornadas Iberoamericanas de Difusión y Capacitación sobre Aplicaciones y Usabilidad de la Televisión Digital Interactiva, Córdoba, España, 268-271. [12] Ramírez, J., Paredes, D., Pérez, N. (2015). Usabilidad del diseño gráfico en los sistemas de alertas tempranas. VI International Conference on Interactive Digital TV. Anales de JAUTI 2015, IV Iberoamerican Conference on Applications and Usability of Interactive TV, Palma de Mallorca, España, 85-98. [13] Silva, T., Abreu, J., Antunes, M., Almeida, P., Silva, V., & Santinha, G. (2016). + TV4E: Interactive Television as a support to push information about social services to the elderly. Procedia Computer Science, 100, 580-585. [14] Sotelo, R., Joskowicz, J., & Rondán, N. (2018). An integrated broadcast-broadband system that merges ISDB-T with HbbTV 2.0. IEEE Transactions on Broadcasting, 64(3), 709-720. SISTEMA DE GESTIÓN DE LA DOCUMENTACIÓN EN LOS LABORATORIOS AICA+. ESTUDIO DE CASO DE MICROSERVICIOS, DEVOPS Y GESTIÓN DE PROYECTOS Pedro Velázquez Borrero2, Carlos Ramón López Paz1,2, Katerine Escalera Fariñas1,2, Ana Lilian Infante Abreu2 1Universidad Tecnológica de La Habana “José Antonio Echeverría”, Cujae, La Habana, Cuba 2Empresa Laboratorios Farmacéuticos AICA, BioCubaFarma, La Habana, Cuba 1e-mail: carlosr@ceis.cujae.edu.cu RESUMEN El presente trabajo tiene como objetivo describir la solución desarrollada como parte de la estrategia de transformación digital que se está llevando a cabo en los Laboratorios AICA+ del grupo empresarial BioCubaFarma. Esta solución, en su concepción, se integra con los sistemas empresariales ya presentes en la organización que están desarrollados en diversas tecnologías y provienen de diferentes proveedores por marco regulatorio del sector. Además, se recogen las principales experiencias en la adopción de prácticas para la integración continua y el despliegue automático (DevOps) como sistemas de trabajo que se han adoptado en el contexto de desarrollo e implantación de los sistemas en esta empresa. PALABRAS CLAVES: transformación digital, informatización, Aica, Biocubafarma, Devops. COMPUTERIZATION OF THE DOCUMENTATION MANAGEMENT PROCESS IN THE AICA+ LABORATORIES. EXPERIENCES IN THE DEVELOPMENT OF MICROSERVICES, DEVOPS AND OTHER ASSOCIATED TECHNOLOGIES ABSTRACT The objective of this paper is to describe the solution developed as part of the digital transformation strategy that is being carried out in the AICA+ Laboratories of the BioCubaFarma business group. This solution, in its conception, is integrated with the business systems already present in the organization that are developed in various technologies and come from different providers by regulatory framework of the sector. In addition, the main experiences in the adoption of practices for continuous integration and automatic deployment (DevOps) as work systems that have been adopted in the context of development and implementation of systems in this company are collected. KEY WORDS: digital transformation, computerization, aica, biocubafarma, devops 1. INTRODUCCIÓN En las organizaciones cubanas hay evidencia de un impacto cada vez mayor de la penetración de las TIC en su ecosistema y la modificación de los sistemas de trabajo para alinearse a las plataformas tecnológicas. Por tanto, es crítico para la dirección de una entidad contar con una estrategia a corto y largo plazo, que involucre recursos materiales y humanos, para la adopción de estas plataformas, y así contribuir al cumplimiento de los PKI de acuerdo a los objetivos trazados. La adopción de tecnologías es un proceso complejo, no exento de riesgos, cuya base se encuentra en casos de éxito anteriores y experiencia en dominios de negocio o tecnológicos similares [1, 2]. En la Universidad Tecnológica de la Habana Jose Antonio Echeverría existe, y como parte de la línea Ingeniería, Gestión de Software y Sistemas de información, un grupo de consultoría TI que aplica las Ciencias del Diseño a problemas empresariales para brindar soluciones en un contexto real, documentar los factores que habilitan o inhiben la adopción de tecnologías y generar un repositorio de evidencias con guías y buenas prácticas en el uso de estas tecnologías, a partir de la experiencia individual de cada observador durante la intervención en un escenario de desarrollo e implantación de sistemas. Múltiples evaluaciones e intervenciones se han desarrollado [3, 4, 5] que documentan iniciativas similares dentro del grupo. Como parte de los estudios realizados se pueden mencionar las Soluciones BPM utilizando la herramienta Apia BPMS [4], las Soluciones de Integración de Aplicaciones con tecnologías de Bus de Servicios Empresariales (ESB, por sus siglas en inglés) [5] y la exploración de tecnologías de microservicios y microfrontend [3]. Los sistemas Web permiten mejorar la comunicación en la empresa tanto interna como externamente, dando lugar al concepto de empresa 2.0, término sugerido por Andrew McAfee de la Universidad de Harvard en 2006 [6]. Puede ser definido como la utilización de plataformas de software social emergentes dentro de las empresas, o entre empresas, sus socios y clientes. Para su desarrollo, existen una multitud de opciones, las cuales se aprecian en los trends de lenguajes de programación [7, 8, 9] y frameworks [10, 11, 12]. En todos los casos, se aprecia la presencia de JavaScript como una opción importante a considerar, debido a su uso prácticamente obligatorio para programar la interacción usuario-navegador, al desarrollo de NodeJS y a los resultados de encuestas que lo posicionan como una herramienta de primer nivel [13]. Algunas de estas tendencias se pueden apreciar en la siguiente figura. Fig 1. Tendencias del uso de tecnologías Actualmente, muchas empresas se han visto obligadas a adaptarse a la cultura DevOps para mejorar su productividad. Incluso algunas startups nacen con esta metodología bien afianzada [14]. La implementación de la metodología DevOps facilita la colaboración entre los distintos profesionales de una organización. Además, provee un entorno que permite el uso de herramientas para trabajar en conjunto. Un reciente estudio lanzado por CA Technologies y Coleman Parkes Research afirma que el 84% de las organizaciones está invirtiendo recursos en formación e investigación para adaptarse a la transformación digital y a DevOps referencia [14]. Asimismo, revela que cualquier empresa que se adapte al enfoque DevOps será más competitiva. Sin embargo, informa que solo el 36% de los encuestados se considera un usuario avanzado en DevOps. A partir de un análisis sobre las ventajas de la adopción de esta metodología, se decidió incorporarla al marco de intervención y documentar los hallazgos obtenidos por los observadores para que esta experiencia pueda ser utilizada por otros especialistas que quieran incorporarla a su trabajo. Se define como marco de intervención un estudio de caso en el contexto de la adopción de tecnologías. Es un método de investigación observacional y fundamentalmente cualitativo, basado en evidencias donde el proceso de generación analítica permite la generalización del conocimiento tecnológico o la replicación o transferencia de los hallazgos en contextos análogos. Los hallazgos en este dominio de consultoría se definen en términos de facilitar la adopción de las tecnologías objeto de evaluación. Además, podrían estar estructuradas como artefactos de las Ciencias del Diseño del tipo guideline donde el cliente recibiría del consultor una estructura en la recomendación del tipo “Suggestion regarding behavior if a particular situation (if X do Y)” y fundamentada en una cadena de evidencias. El caso es un caso de estudio simple y embebido, ya que se tomaran como unidades de análisis las tecnologías presentes en el desarrollo de la solución. El calendario de ejecución es junio 2021 – febrero 2022. Las preguntas del caso son: ¿Qué elementos de configuración son necesarios en los repositorios para habilitar un proceso DevOps en el desarrollo de soluciones empresariales con las tecnologías NextJs y NestJs? ¿Por qué NextJs constituye una evolución de React? 2. DESARROLLO DEL SISTEMA Concepción inicial La primera versión de la solución se desarrolló entre los meses de junio y octubre del 2021, utilizando las tecnologías React y NestJs. Estuvo basada en la documentación proporcionada por los expertos del negocio, la cual describe los procedimientos que rigen la actividad de la empresa. Tenía 3 hitos principales: automatizar la gestión del ciclo de vida de los documentos, controlar la relación entre los documentos y los trabajadores que pueden estampar su firma digital para otorgar validez a esa documentación, y generar un repositorio de evidencias y buenas prácticas en el uso de las tecnologías utilizadas. Los detalles de estas evidencias se muestran en la sección de anexos. En la siguiente figura se ilustra la arquitectura de esta versión. Fig 2: Arquitectura inicial del sistema Desde la perspectiva de desarrollo, el reto principal fue la adopción de la metodología DevOps para automatizar las complejidades asociadas al despliegue del sistema en la infraestructura de la empresa. Para ello, se utilizó Gitlab como solución de control de versiones, desarrollo colaborativo y DevOps. Se crearon máquinas virtuales en las que se configuró el gitlab-runner para desplegar las aplicaciones en desarrollo a partir de las actualizaciones que recibían los proyectos en el repo de Gitlab. Algunas de estas especificidades organizativas se muestran en la sección de anexos. También se incorporó Docker para garantizar la homogeneidad en el entorno de ejecución tanto en el ambiente de desarrollo como en el de producción y porque el gitlab-runner tiene elementos de integración con Docker, cual permite que como parte de la configuración CI/CD se construya la imagen de la aplicación y se ejecute una instancia de esta imagen, todo esto sin intervención manual. Resalta la integración con sistemas empresariales y soluciones desarrollados por otros especialistas del proyecto para estandarizar la gestión de la información. Para llevar el control de la relación entre los trabajadores y los documentos que pueden firmar, fue necesario consumir información de una capa de servicio REST que se está desarrollando para el sistema de recursos humanos de la empresa, en lo adelante Api SIGERH. Para el manejo de la documentación en formato digital, y tomando como base la experiencia del grupo de trabajo en otros proyectos, se hizo una integración con una instancia de MinIO, una plataforma de almacenamiento de objetos compatible con el protocolo S3 de Amazon, con un alto rendimiento en la lectura/escritura de archivos. Algunos de los prototipos funcionales, las principales evidencias recolectadas se aprecias en la sección de los anexos. Nueva concepción La segunda versión este sistema constituyó un reto mayor por la incorporación de nuevos elementos computacionales y una redefinición del dominio de aplicación por parte de los clientes. En un encuentro realizado a principios de noviembre 2021 para validar la solución desarrollada, se obtuvieron resultados parciales y se llegaron a acuerdos entre el equipo de desarrollo y los expertos de documentación para orientar el futuro de la solución. Esta iteración estaría guiada por la descripción del proceso de tramitar una solicitud de creación, modificación o derogación de un documento. A partir de su uso, se identificaron otros requisitos como obtener el plan de modificación de los documentos durante los próximos 3 años, tener información sobre el estado de implantación del sistema, la gestión de nomencladores y tener la flexibilidad de poder implementar documentos en paralelo. En el plano tecnológico, se incorporó el uso del Identity Access Manager (IAM) WSO2 Identity Server, en lo adelante IS, como solución de Single Sign On (SSO) en la empresa que se integra con el LDAP existente en la empresa, con lo cual todas las aplicaciones desarrolladas deben ser configuradas en esta herramienta para obtener los token correspondientes, configurar los grupos y los usuarios que pertenecerán a estos grupos. En la sección de anexos se ilustran la configuración de estos elementos. Agrega en los anexos figuras representativas sobre esto del IS. También se incorporó la herramienta WSO2 Api Manager, en lo adelante AM, para tener un control centralizado de las Api y controlar su acceso, ya que este sistema se integra con el IS, lo que permite que el token que genera el IS pueda ser validado por el AM. El hecho de tener un solo punto de entrada a todos los servicios propició que los especialistas de redes pudieran realizar los cambios pertinentes en la intranet para que las api no puedan ser consumidas desde una subred que no sea la de administración, y para cada subred se creó un enlace en el firewall para que sea el único punto posible de acceso al AM, consolidando así cuestiones importantes de seguridad. La siguiente figura ilustra la arquitectura de esta versión Fig 3. Arquitectura de la versión actual Se crearon dos entornos de despliegue, uno de prueba y otro de producción. Para ello, se crearon dos clientes en el IS y el AM. En el caso del AM, por la integración mencionada anteriormente, se pudo exponer la Api en la misma url ya que como parte del procesamiento del token, es capaz de diferenciar los clientes asociados a cada entorno e internamente redirigir la petición a la Api correspondiente. En la configuración del CI/CD se crearon dos configuraciones que se activan en dependencia de la rama que se haya modificado. En este aspecto, se utiliza la rama máster, la cual está protegida y solo se puede actualizar a través de un Merge Request, y la rama develop donde se irán subiendo las nuevas funcionalidades para que los usuarios las validen y, una vez hecho esto y comprobado la estabilidad, se pasa a la rama máster. Para el despliegue de los frontends, tanto en el entorno de desarrollo como en el de producción, se utilizó Nginx como proxy reverso, con el objetivo de replicar las experiencias en la configuración de las políticas de acceso en la red, actuar como balanceador de carga y añadir una cache. Para dar respuesta a estos cambios, se hizo un cambio en la tecnología utilizada en la solución. Se decidió utilizar NextJS porque se aprovechan las lecciones aprendidas en el desarrollo de la primera versión y de otros proyectos del grupo de desarrollo, resuelve algunos problemas encontrados durante el desarrollo con React y permite una integración fácil con cualquier sistema que soporte los protocolos OIDC, OATH y SAML, ya que viene con algunos default para los proveedores de identidad más utilizados y da la posibilidad de configurar de forma relativamente sencilla una integración con cualquier proveedor. Esto último fue lo que se hizo, ya que la integración con el IS no está entre los proveedores para los que ya existe una configuración por defecto. En el caso del backend, no fue necesario realizar un cambio de esta naturaleza, ya que la tecnología ofrece capacidades para el desarrollo de cualquier tipo de solución, con una arquitectura que promueve la reutilización y la facilidad de mantenimiento. El único punto bajo fue el tratamiento de las vistas materializadas. Durante el desarrollo de esta versión, se hizo necesario el trabajo con el carnet de identidad de los usuarios. Esto supuso un reto, ya que este dato no está contenido en la información que se obtiene del IS, y no existe un servicio que actúe como enlace de ambos sistemas. Debido a que el trabajo con este dato también es un requisito en otros sistemas en desarrollo, el área de desarrollo implementó un servicio que, a partir del nombre de usuario en el dominio, verifica la existencia de este dato en el IS, y si ya está, hace la consulta al Api SIGERH; en caso contrario, expone una funcionalidad para insertar este dato, aunque la interfaz de usuario es proporcionada por cada sistema. Algunos vistas de esta versión del sistema se muestran en la sección de anexos agrupadas por cada una de los módulos de la versión actual del sistema: entorno para la visualización y descarga de los documentos, gestionar plan de documentación, auditoria, estadística. Resultados alcanzados Se puso a disposición de los clientes una herramienta para acceder a la documentación de la empresa, gestionar su ciclo de vida y ofrecer métricas a los expertos del área de calidad y directivos de la empresa sobre su uso. Actualmente el sistema está en la etapa de implantación en todas las cinco UEB de la empresa, y continúan las pruebas en el entorno de desarrollo para seguir agregando funcionalidades. Beneficios y grado de aplicación El sistema impacta en el funcionamiento de todos los procesos de la empresa, ya que cada trabajador debe regirse por lo establecido en la documentación correspondiente para realizar sus operaciones y, en este sentido, el sistema permite que los flujos para crear, modificar o derogar estos documentos sean mejor coordinados por cada uno de los actores que intervienen (documentadores del sistema de gestión de la calidad y documentadores por las 14 áreas de procesos de la empresa). Además, permite ahorrar cuantiosos recursos en la compra de papel, el cual es importado ya que la empresa maneja un volumen de miles de documentos que están involucrados en cientos de trámites de modificación por plan sin contar las modificaciones extraplan que son necesarias por exigencias de auditorías externas de entidades regulatorias nacionales (CECMED, Centro Estatal para el Control de Medicamentos) como internacionales (Entidades regulatorias de control de medicamentos de cada país o región). Actualmente se encuentra en proceso de implantación en todas las UEB de la empresa y forma parte de los servicios de transformación digital que se diseñan para empresas análogas del sector de BioCubaFarma. En este sentido, los procesos de transferencias tecnológica mediante estudios de casos que analicen los procesos de desarrollo y adopción de Tecnologías de la Información están en correspondencia con los acuerdos del Consejo Nacional de Innovación de la Presidencia de la República de Cuba que indican a BioCubaFarma transferir prácticas organizativas y tecnológicas tanto en el interior del sector como para otros sectores económicos de Cuba. 3. CONCLUSIONES 1. Se pudo constatar una evolución de la solución implementada con el uso de tecnologías de microservicio y la configuración de un entorno tecnológico y organizativo para el despliegue automático y la integración continua de los ambientes de desarrollo y producción. 2. Se comprobaron las fortalezas de las tecnologías utilizadas para llevar a cabo la transformación digital en una organización en función de obtener una solución funcional, desplegada y sometida a la evaluación constante por parte de los clientes. 3. Se recopilaron evidencias sobre las complejidades asociadas a todo el proceso de configuración y puesta a punto de los conceptos DevOp lo que permite replicar estas estrategias tecnológicas en otros dominios consultores. 4. Existe retroalimentación del proceso de implantación y de las mejoras en la coordinación del proceso de gestión de la documentación a través de los avales obtenidos con el uso del sistema. 4. RECONOCIMIENTOS Los autores desean agradecer a la Dirección de Informática por el apoyo en la gestión de la infraestructura y en la coordinación de los encuentros con los clientes, a la Dirección de Documentación y la Dirección de Medición, Análisis y Mejora por su cooperación en el desarrollo de la solución, y a la Dirección de Desarrollo por las continuas revisiones y retroalimentación de cada entregable. 5. REFERENCIAS 1. J. Luftman, «Assessing business-IT alignment maturity,» Comunications of the Asociation for Information Systems 2. J. L. T. B. R.P., «Enablers and Inhibitors of Business-IT Alignment,» Comunications of the Asociation for Information Systems. 3. A. G. Alonso, «EVALUACIÓN DE TECNOLOGÍAS DE MICROSERVICIOS Y MICROFRONTEND: ESTUDIO DE CASO EN EL CONTEXTO DE DESARROLLO DE UN SISTEMA DE CONSULTORÍA TI». 4. H. P. José A. López, Informatización de un flujo de asesoría para el desarrollo de soluciones de gestión de proceso de negocio con la tecnología APIA-BPM. 5. J.C. Zaldívar, Diseño de un flujo genérico de servicios de datos para el desarrollo de soluciones de integración con Bus de Servicios Empresariales. 6. D. L. J. Paula Luna Huertas, «La Web 2.0 en el Entorno Empresarial: Resultados Derivados de un Estudio Empírico Efectuado entre Universitarios,» Anales de Estudios Económicos y Empresariales. 7. D. Yang, «Fullstack Academy,» [En línea]. Available: https://www.fullstackacademy.com/blog/nine-best-programming-languages-to-learn. 8. L. Pavetti, «BairesDev,» [En línea]. Available: https://www.bairesdev.com/blog/best- programming-languages-web-development/. 9. @iliawebdev, «Codementor,» [En línea]. Available: https://www.codementor.io/@iliawebdev/top-programming-languages-for-web-development-in- 2021-1hzczfuoei. 10. Jumpgrowth, «Jumpgrowth,» [En línea]. Available: https://jumpgrowth.com/top-10-web- development-frameworks. 11. SamSolutions, «SamSolutions,» [En línea]. Available: https://www.sam- solutions.com/blog/web-development-frameworks. 12. J. Gallager, «CarrerKarma,» [En línea]. Available: https://careerkarma.com/blog/top-web- frameworks-2021/ 13. Stackoverflow, «Stackoverflow,» [En línea]. Available: https://insights.stackoverflow.com/survey/2021 14. Z. G. Group, «ZemsaniaGlobalGroup,» [En línea]. Available: https://zemsaniaglobalgroup.com/ventajas-de-aplicar-devops-en-las-empresas 15. Jumpgrowth, «Jumpgrowth,» [En línea]. Available: https://jumpgrowth.com/top-10-web- development-frameworks/. sobre los autores Se incluirá con una extensión no mayor de un párrafo, información sobre cada autor, donde sea declarada institución y labor que desempeña, categoría docente y categoría científica, membresía en organizaciones profesionales, etc. MODELO DE ESTUDIO FRASEOGRÁFICO DIGITAL: HALLAZGOS PRELIMINARES DE UN ESTUDIO DE CASO DE EVALUACIÓN DE TECNOLOGÍAS DIGITALES Andrés Novoa Aedo1, Carlos Ramón López Paz1,2, Yurelkys Palacio Piñeiro Piñeiro3 1Universidad Tecnológica de La Habana “José Antonio Echeverría”, Cujae, La Habana, Cuba 2Empresa Laboratorios Farmacéuticos AICA, BioCubaFarma, La Habana, Cuba 3Instituto de Literatura y Lingüística “José Antonio Portuondo Valdor”, ILL, CITMA, La Habana, Cuba 1e-mail: carlosr@ceis.cujae.edu.cu RESUMEN El presente trabajo describe un modelo de un estudio fraseográficos digital que conceptualiza un sistema de trabajo para la gestión de proyectos fraseográficos en el sistema Lextoolf. La fraseografía es una disciplina de la lingüística que estudia el tratamiento e inclusión de las unidades fraseológicas en los diccionarios. Durante el periodo 2021/2022 se desarrolló un refinamiento, validación e implantación controlada en un ambiente académico de Lextoolf. La naturaleza técnica de las tareas desempeñadas constituye la base de evidencias para el análisis de un estudio de caso exploratorio que ofrece hallazgos acerca de los tipos y complejidades de incidencias capturadas en el proceso de refinamiento y validación de Lextoolf. También permitirá la comparación entre el desarrollo de proyectos de Interfaz de Programación de Aplicaciones con tecnologías tanto REST como GraphQL y revelará qué aspectos distinguen su implantación en un ambiente local y un ambiente DevOp en una infraestructura virtual. PALABRAS CLAVES: estudio fraseográfico, estudio de caso, REST, GraphQL, DevOp. DIGITAL PHRASEOGRAPHY STUDY MODEL: PRELIMINARY ANALYSIS OF THE EVIDENCE COLLECTED FOR A CASE STUDY OF THE ASSESSMENT OF DIGITAL TECHNOLOGIES ABSTRACT The present work describes a model of a digital phraseographic study that conceptualizes a work system for the management of phraseographic projects in the Lextoolf system. Phraseography is a discipline of linguistics that studies the treatment and inclusion of phraseological units in dictionaries. During the 2021/2022 period, a refinement, validation and controlled implementation was developed in an academic environment of Lextoolf. The technical nature of the tasks performed constitutes the evidence base for the analysis of an exploratory case study that will offer findings about the types and complexities of incidents captured in the refinement and validation process of Lextoolf. It will also allow the comparison between the development of Application Programming Interface projects with both REST and GraphQL technologies and will reveal what aspects distinguish their implementation in a local environment and a DevOp environment in a virtual infrastructure. KEY WORDS: phraseographic study, case study, REST, GraphQL, DevOp. 1. INTRODUCCIÓN Las unidades fraseológicas (UF) o fraseologismos son distintos tipos de combinaciones fijas de palabras, que se denominan locuciones, colocaciones, refranes, fórmulas, entre otros tipos. De acuerdo con su estructura están formadas por más de dos palabras gráficas como los sintagmas (locuciones y colocaciones) y pueden llegar a constituir oraciones (refranes). Estas combinaciones se repiten de generación en generación sin cambios en su estructura ni en su significado. En este último aspecto, el significado de una UF se relaciona con la idiomaticidad que explica que su significado no se forma por la combinación de los significados individuales de las palabras que lo integran. Por ejemplo: No poner una significa “no acertar en lo que se hace o se dice” y este significado no se deduce de los significados individuales de cada uno de los elementos que la componen (adverbio no + el verbo poner + el determinante una). En la locución no disparar un chícharo (‘no trabajar nada una persona o no hacerlo tan intensamente como debiera’) se puede conocer el significado de las palabras no, disparar y chícharo; sin embargo, el significado que tiene la combinación no corresponde al significado de esos elementos. En cuanto a su estructura, las UF pueden ser combinaciones de categorías gramaticales de palabras (sustantivo + preposición + sustantivo, verbo + preposición + complemento directo, etc.). También pueden ser un sintagma: tipo de combinación de palabras que tiene un núcleo semántico (las preposiciones y conjunciones que están presentes en los sintagmas no tienen significado propio como si lo tienen los sustantivos, los verbos, etc.). Además, las UF pueden ser oraciones como conjunto de sintagmas. La investigación fraseográfica es un tipo de investigación lingüística que se ocupa de la confección de diccionarios fraseológicos (práctica) y del estudio de las UF en los distintos tipos de diccionarios (teórica). Es decir, existen tres dominios en este tipo de investigación: (1) confeccionar diccionarios de fraseologismos, (2) caracterizar los aspectos semánticos y gramaticales (dimensión fraseológica) y (3) describir la inclusión de las UF en los diccionarios (la información lexicográfica de las UF) El modelo de estudio fraseográfico digital se diseña bajo el principio de operacionalizar las investigaciones fraseográficas focalizadas en su dominio 3 aunque, en menor medida, se abordan aspectos en la dimensión 2 y se dejan las bases para enfrentar la dimensión 1. Como modelo de negocio digital se desmarca de las contribuciones específicas de la lingüística de corpus y las iniciativas computacionales que, en diferentes idiomas, se focalizan en los estudios para su extracción automática como un tipo de contribución en el campo de la Lingüística Computacional [1-3]. Esta operacionalización no se dirige en esta dirección sino se centra en conceptualizar un sistema de trabajo que, con tecnologías digitales y en el dominio de la informática empresarial, facilite y acompañe al investigador en todo procesamiento y gestión de las UF en el contexto de un proyecto fraseográfico [4]. Este sistema de trabajo digital se concibe para que sea integrable armónicamente con las restantes herramientas ofimáticas para el procesamiento de texto (diferentes herramientas que visualizan PDF, imágenes, etc.). El objetivo no es sustituirlas, sino conformar en un ecosistema digital de herramientas de uso y apoyo a la gestión de los proyectos fraseográficos en un entorno ágil y que facilite la cooperación de los investigadores cubanos e internacionales. Esta conceptualización como solución en Tecnologías de la Información (TI) se materializa en el sistema Lextoolf que como prueba de concepto se ha refinado y analizado en otros acercamientos informatizados tanto a la gestión de estudios fraseográficos [5] como a los estudios lexicográficos [6]. La concepción y desarrollo de este modelo de negocio digital se ubica en el dominio de las humanidades digitales y se aborda por el grupo de investigación en Consultoría TI y aplicaciones de las Ciencias del Diseño de la Facultad de Ingeniería Informática de la Cujae como un contexto disponible de las ciencias sociales (como sector de la sociedad) y revelador de las complejidades en el tratamiento de las dimensiones tecnológicas, organizacionales y regulatorias que intervienen en los procesos de adopción de las tecnologías digitales en múltiples sectores que podrían estar involucrados en una iniciativa de transformación digital (TD). Este proceso de estudio de las tecnologías digitales se concibe como parte de la aplicación del Marco Metodológico de Consultoría TI (MMCTI) [7]. Por tanto, la aplicación de MMCTI en el periodo 2021/2022 implica que las tareas relacionadas con el desarrollo, refinamiento, validación e implantación controlada en un ambiente académico de Lextoolf son el medio para evaluar un grupo de tecnologías digitales que podrían estar presentes en una iniciativa TD. La forma de ejecutar esta evaluación según se define en MMCTI es a través del método de estudio de caso. En este sentido, la naturaleza de estas tareas y sus resultados alcanzados a lo largo de la ejecución de este proyecto de desarrollo de sistemas con elementos de implantación constituyen la base de evidencias del estudio de caso diseñado. El estudio de caso es un método de investigación observacional y fundamentalmente cualitativo, basado en evidencias donde el proceso de generación analítica —una vez diseñados y ejecutados los casos— permitirán la generalización del conocimiento tecnológico generado en el contexto real o la replicación de los hallazgos a otros contextos análogos al estudiado [8]. En función de la utilidad y calidad de los hallazgos del estudio de caso, estos se formalizan como artefactos de las Ciencias del Diseño fundamentalmente en la forma guideline donde el cliente recibiría del consultor una estructura en la recomendación del tipo Suggestion regarding behavior in a particular situation (if in situation X do Y)” según define Offermann [9] basados en los clásicos artefactos de Hevner [10] y fundamentada con una cadena de evidencias triangulada por múltiples observadores. El estudio de caso bajo el enfoque de MMCTI se emplea para el estudio a profundidad de contextos tecnológicos que resultan muy apropiado cuando no se puede tener el control sobre el fenómeno observado o este control es muy difícil de realizar por investigador e especialistas TI de un sector determinado. En este estudio de caso en cuestión, los fenómenos observables en su contexto real son los aspectos que dificultan a facilitan la selección, asimilación y uso de las tecnologías digitales involucradas en el desarrollo, refinamiento e implantación de Lextoolf. El estudio de caso como medio de llevar a cabo otros procesos de evaluación de tecnologías también se utiliza en dominios como la adopción del paradigma de programación Orientado a Objeto [13], proceso de desarrollo de software en entornos globales [14], comparación de metodologías [15] y escenarios DevOp [16]. Los siguientes apartados proponen el diseño y las proposiciones teóricas del estudio de caso Tech_Lextoolf. Además, se describen las evidencias recolectadas como resultado de desempeñar las tareas de desarrollo, refinamiento e implantación controlada del sistema Lextoolf. Como último apartado se mostrarán los hallazgos preliminares en tres direcciones de análisis: (1) la comparación de API REST como GraphQL, (2) la diversidad y complejidad de incidencias identificadas durante el proceso de implantación, validación y mejoras de Lextoolf y (3) los aspectos organizacionales y tecnológicos que distinguen la implantación de Lextoolf en un ambiente local y un ambiente DevOp en una infraestructura virtual. 2. PROPOSICIONES TEÓRICAS Dado el rápido y amplio crecimiento de las tecnologías digitales, las empresas se encuentran bajo la presión de organizar la gestión de las operaciones vinculadas con sus servicios digitales, reducir sus costos de operación y mantenimiento para focalizar los esfuerzos e incorporar soluciones informáticas generadoras de valor y alineada a los objetivos estratégicos. Por lo tanto, es común que opten por implementar el proceso de gestión de incidencias como área de proceso que en dominio de ITSM (por las iniciales en inglés Gestión de Servicios en Tecnologías de la Información). Estas prácticas de gestión del servicio alcanzan muchos subdominios donde uno de estos es la gestión de incidencias que puede ser analizada en todas aquellas incidencias que los clientes del negocio identifican asociado tanto a los sistemas que operan regularmente, nuevos servicios que podrían necesitar y, por tanto, solicitar como incidencias propiamente en los procesos de implantación de nuevas soluciones informáticas. Todas estas prácticas de gestión proveen a las estructuras informáticas de las organizaciones de mecanismos para la toma de acciones que permitan rápidamente diagnosticar las incidencias, devolver el servicio a su normalidad y así garantizar la continuidad del servicio. Todo ello con la ayuda de tecnologías digitales especializadas que promuevan la eficacia y eficiencia del proceso. Dentro del ámbito de la tecnología de interfaz de programación de aplicaciones (API), GraphQL, desde el año 2015 con el lanzamiento de su código libre, ha sido cada vez más adoptado por las organizaciones [11] debido a las ventajas en rendimiento y usabilidad. La principal razón es que, a diferencia de REST donde se devuelven todos los datos de una petición, las consultas GraphQL se pueden definir como una carga útil de solicitud que contiene una o más operaciones. Esto permite obtener solo los datos necesarios de una solicitud, lo que resulta en una reducción considerable del tamaño de los paquetes de respuesta, reduciendo a su vez la carga de trabajo. Sin embargo, a pesar de las ventajas en la concepción de ambos enfoques, las organizaciones se resisten a su incorporación por su emergencia. Algunas empresas consultoras desarrollan radares de tecnologías disponibles en línea como la herramienta en línea (https://techradar.digia.online/) como la empresa finlandesa Digia evaluada en estudio de casos descritos en [12]. Otras consultoras explican esta resistencia desde modelos de adopción como la herramienta HTC de Gartner (por las iniciales en inglés: Technology Hype Cycle [13]. DevOp es un nuevo concepto que cierra la brecha entre el desarrollo y las operaciones en las operaciones de negocio soportados por tecnologías digitales como REST, GraphQL entre tantos otras utilizadas para el desarrollo de soluciones informáticas. En este sentido, promueve la colaboración entre los equipos de desarrollo (diseñadores, desarrolladores, probadores, etc.) con las organizaciones, creando equipos adicionales que son responsables de desarrollar, administrar y apoyar el rendimiento de los sistemas del lado del cliente. Por definición, el enfoque DevOp conecta los equipos de desarrollo (DEVelopment) y los usuarios del sistema (OPeration), lo que les permite colaborar de manera eficiente asegurando la disponibilidad de los servicios de negocio que podría ser configurado con múltiples soluciones informáticas que tienen de base en su construcción tecnologías digitales como REST y GraphQL. Sin embargo, debido a la naturaleza emergente y dual de DevOp, surgen varios desafíos tanto en la industria como en la academia en el proceso de adoptarlo en los contextos específicos y disponibles. En resumen, las proposiciones de este estudio de caso se insertan en la integración de tres dimensiones habilitadoras de la transformación digital: la necesidad siempre latente de evaluar una tecnología en cuestión (1), la relevancia de entender el impacto de una acción de mejora en la gestión y continuidad del servicio en un dominio y sector organizacional específicos (2) y el enfoque DevOp como mecanismo asegurador tanto de la propia disponibilidad de las tecnologías de desarrollo del servicio como el servicio ya convertido en una operación de negocio disponible con mayor agilidad en una infraestructura digital (3). En la Tabla 1 se observa un resumen de los principales estudios seleccionados por cada una de las dimensiones de análisis abordadas. Tabla 1: Resumen de las proposiciones teóricas Resumen de las proposiciones teóricas Origen Referencias Diversidad y complejidad de las incidencias y mejoras a implementar durante un proceso de implantación y validación de sistemas PC y LG [14-16] Aspectos a comparar en los enfoques tecnológicos API REST & GRAPHQL PC y LG [11, 17-19] Aspectos a observar en la transición de un ambiente de despliegue local & virtual CD/CI PC [20, 21] Leyenda: LG: Literatura gris como un tipo de fuente de información socializadas en los medios empresariales [22]. PC: Publicaciones científicas revisada por pares 3. DISEÑO DE CASO TECH_LEXTOOLF La conceptualización del tópico objeto de estudio para la determinación del contexto del caso es, en la práctica, la disponibilidad del tópico en cuestión en su escenario real. En este estudio de caso el tópico objeto de estudio es el propio proyecto de validación, refinamiento e implantación controlada en un dominio académico de Lextoolf. Por tanto, el contexto del estudio caso es el proyecto con ese alcance. En lo que respecta a las tecnologías digitales: Vue.js, NestJS, GraphQL, MongoDB, Passport.js, Git, Mantis Bug Tracker y Docker son las unidades de análisis (en total 8). Esta decisión de diseño en el estudio de caso está en correspondencia con [23] donde se plantea que muchos casos en la ingeniería de software son seleccionados en base a la disponibilidad. Sin embargo, puede ser difícil de antemano saber si un caso será típico, revelador, o modelo. Por ejemplo, muchos proyectos de software sobrepasan su presupuesto y calendario, pero esto es difícil predecirlo al inicio del Proyecto. Si un investigador está intentando estudiar proactivamente un proyecto, en vez de retrospectivamente, no puede saber al comienzo del proyecto, y del estudio de caso de ese proyecto, si este terminará dentro del presupuesto y en tiempo. Por lo tanto, para algunos fenómenos de interés puede ser muy difícil seleccionar de antemano casos que sean extremos, o de lo contrario que sean típicos. En este estudio de caso particular y basado en lo anterior, la estrategia de recolección de evidencias reconstruye en el período de tiempo analizado, tanto el repositorio de proyecto de Lextoolf, como toda la “pila” de tecnologías digitales utilizadas durante la ejecución del proyecto. En resumen, las pautas del diseño del estudio de caso son las siguientes: Contexto del caso y unidades de análisis: el proyecto de refinamiento, validación e implantación controlada de Lextoolf es el contexto del caso. Las unidades de análisis son las siguientes tecnologías: Vue.js, NestJS, GraphQL, MongoDB, Passport.js, Git, Mantis Bug Tracker y Docker. Clasificación del estudio de caso: caso único y exploratorio donde se intervienen las diferentes unidades de análisis objeto de estudio durante el periodo del mes de diciembre 2021 hasta el mes de noviembre 2022 Estrategia de recolección de evidencias: observación directa y participante al proyecto en Gitlab de la infraestructura virtual donde está desplegado Lextool. Estas observaciones se realizan siguiendo el protocolo de “Pensando en Voz Alta” [24] que analiza las particularidades y los aspectos invariantes de las tecnologías digitales involucradas y sus niveles de complejidad. Esta estrategia es coherente con las buenas prácticas en el diseño de estudios de caso [25, 26]. Preguntas del caso: ¿Cómo influyen las tecnologías digitales asimiladas en el proyecto en la resolución de las incidencias y las mejoras implementadas en el proceso de refinamiento y validación de Lextoolf? ¿Por qué es relevante? ¿Por qué es significativo la utilización de GraphQL sobre REST en determinados dominios de desarrollo de Interfaces de programación de Aplicaciones? ¿Cómo determina la organización del proyecto en un entorno local para su despliegue en un entorno virtual bajo un esquema de DevOp? Estrategia de análisis: basarse en el seguimiento de las proposiciones teóricas bajo una técnica de análisis que se fundamenta en la construcción de explicaciones —Explanation Building [8]. En este tipo de análisis se buscan explicaciones subyacentes y se identifican patrones basados en relaciones causa- efecto entre la cadena de evidencias recolectadas desde cada una de las unidades de análisis del estudio de caso. 4. EVIDENCIAS El contexto del sistema Lextoolf como modelo de negocio digital consiste en la definición de estudios fraseológicos conformados por diccionarios que serán objetos de análisis en la investigación de los lexicógrafos. De cada diccionario se extraen las unidades fraseológicas, donde la entrada es la palabra o frase que los identifica dentro de una letra y los elementos son los artículos lexicográficos que conforman cada entrada. De cada UF se completan una serie de características que describen diferentes comportamientos del elemento en la lingüística. En la Fig.1 se muestra el modelo de dominio que representa el contexto de sistema y sus relaciones que los demás conceptos. Figura 1: Modelo de dominio Los tipos de descriptores que se muestran en la Fig. 1, son cada una de las características de los elementos y los descriptores son los valores concretos que toma el elemento, por ejemplo, el tipo de descriptor “Dominio Conceptual” puede tomar valor de sin dominio conceptual, antropónimo, filónimo, somatismo, zoomorfismo, topónimo, no aplica, y no descrito. Estos 2 últimos descriptores son agregables a todos los tipos de descriptores. Algunos tipos de descriptores pueden tomar múltiples valores para indicar que el elemento cumple con varias características de un mismo tipo. Todos los tipos de descriptores son agrupados en diversos grupos de descriptores generales como: descripción general, ordenación y lematización, información de uso, definición de UF, ejemplificación de UF e información paradigmática. Entre las principales funcionalidades implementadas en el sistema Lextoolf se encuentran la extracción de cada elemento que conforma una entrada del diccionario, así como, los diferentes tipos de descriptores modificables de cada elemento según su clasificación. Además, en este proceso de extracción se extraen partes de diccionarios digitales en archivos PDF donde se evidencia visualmente y ponen en contexto cada una de las entradas, Fig. 2. Figura 2: Extracción de contexto En la Fig. 3 se observa la capacidad del sistema de establecer la configuración de usuarios con rol de colaborador. Luego, de haber seleccionado el estudio y el diccionario, se selecciona el colaborador al cuál se le aplicará la configuración, seguido, se indican las letras y descriptores que el usuario tendrá permiso de modificar el contenido. Solo las pestañas de descriptores de la Fig. 2 que coincidan con los descriptores seleccionados serán visibles por el usuario en concreto. Figura 3: Configuración de usuario. El usuario se encarga de recopilar información relacionada a cada uno de los descriptores, que son: “Descripción General” donde se indica el tipo de UF, estructura de la UF y el dominio conceptual del elemento, “Ordenación y Lematización” que agrupa la ordenación de la UF, la estructura formal, criterios de lematización, contorno argumental y tipos, formato y tipografía de las variantes. En “Información de uso” se extrae la anotación del lexicógrafo junto con la posición, formato y tipografía de la gramática, de la transición semántica, de la diatópíca, diafásica, diastrástica, diatécnica, pragmática y de la frecuencia. “Definición de la UF” se detalla la definición y contorno definicional, a su vez de cada uno se indica el tipo, esquema argumental y relación entre definido y definidor para la definición y tipo, posición y formato para el contorno definicional. “Ejemplificación de la UF” aborda la anotación del lexicógrafo y tipos, formato y función del ejemplo fraseológico. Por último, “Información paradigmática” describe tipos de relaciones paradigmáticas, forma de presentación y posición, Fig. 4. Figura 4: Descriptores de los elementos extraídos En la Fig. 5, se muestra la tabla para personalizar reportes según las necesidades del usuario en el momento. El usuario es capaz de seleccionar las columnas de los descriptores que desea tener en el reporte, así como, es capaz de filtrar por las diferentes opciones disponibles. La tabla resultante puede ser exportada en un documento Excel. Figura 5: Reporte personalizado y exportado a Excel En la Fig. 6 se observa el diagrama de despliegue del sistema Lextoolf en servidores privados, mostrado las relaciones entre contenedores y las características de cada uno. Figura 6: Diagrama de despliegue En el despliegue se utiliza la herramienta Docker para la creación de imágenes virtuales y contenedores que encapsulan todos los proyectos y servicios del sistema Para acceder al sistema, los usuarios se conectan al contenedor que ejecuta el proyecto frontend (Lextoolf-frontend). Este contenedor a su vez se conecta con el contenedor del proyecto backend (Lextoolf-backend) para extraer y realizar operaciones con los datos almacenados en los servicios de base de datos (MongoDB) y nube de almacenamiento (MinIO). Ambos servicios se ejecutan en contenedores independientes comunicándose con el backend a través de una conexión TCP/IP. 5. HALLAZGOS PRELIMINARES Gestión de incidencias Tras haber implementado un proceso de gestión de incidencias durante el proceso de implantación en el desarrollo del sistema Lextoolf se logró una mayor organización y reducción del impacto de las incidencias mediante la resolución oportuna, principalmente debido a la clasificación y priorización de incidencias, y permitió la identificación proactiva de modificaciones y mejoras beneficiosas del sistema. En la Tabla 2 y Tabla 3 se muestran estadísticas de las incidencias ocurridas durante el mejoramiento y corrección de incidencias del sistema Lextoolf agrupas por gravedad y prioridad respectivamente. Tabla 2: Incidencias por gravedad Por gravedad abiertas resueltas cerradas total proporción de resueltas proporción funcionalidad 0 5 0 5 100.0% 27.8% trivial 0 1 0 1 100.0% 5.6% texto 0 1 0 1 100.0% 5.6% ajuste 0 3 0 3 100.0% 16.7% menor 0 4 0 4 100.0% 22.2% mayor 0 2 0 2 100.0% 11.1% fallo 0 1 0 1 100.0% 5.6% bloqueo 0 1 0 1 100.0% 5.6% Tabla 3: Incidencias por prioridad Por prioridad abiertas resueltas cerradas total proporción de resueltas proporción baja 0 5 0 5 100.0% 27.8% normal 0 11 0 11 100.0% 61.1% alta 0 2 0 2 100.0% 11.1% Comparación de APIs Según las investigaciones revisadas y la experiencia adquirida en el refinamiento y mejoras del sistema se concluye que el aspecto más notable que difiere entre GraphQL y REST es el tamaño de los paquetes devueltos producto de las solicitudes hechas por el cliente. Los paquetes de GraphQL resultan ser un 99% menos pesado que los paquetes de REST. Esto se debe principalmente a la capacidad de GraphQL de indicar los campos exactos que se desea devolver en la solicitud. Por otro lado, en términos de rendimiento ambas tecnologías son muy similares por lo que, en este aspecto, no existe un “claro ganador”. En la Tabla 4 se muestra un resumen de otros aspectos que los diferencian. Tabla 4: Comparación entre REST y GraphQL REST GraphQL Documentación ampliamente expandida Fácil de aprender Uso de códigos de estatus HTTP Esfuerzo significativo para documentar Lenguaje de protocolo fuertemente tipado Exportador de esquemas Requiere un tiempo sustancial de aprendizaje Herramientas y ecosistemas poco desarrollados La búsqueda de información y soluciones de REST se encuentra con mayor facilidad que con GraphQL, debido a la mayor adopción de la primera tecnología, que es más notables con problemas muy específicos. Los métodos HTTP que usa REST resultan ser auto explicativos y de rápida familiarización con el lenguaje. Esto hace de REST una tecnología fácil de aprender. Pero también requiere un mayor esfuerzo, con respecto a GraphQL, para documentar todas las funcionalidades que posea la API asociada a cada uno de los métodos establecidos. Por otro lado, GraphQL es capaz de generar todos los esquemas de los objetos utilizados y de esta manera documentar todas las propiedades, con sus tipos de datos correspondientes, y operaciones de los mismos. Sin embargo, el diseño de estos esquemas requiere un conocimiento del dominio y tiempo de aprendizaje. Y al ser una tecnología relativamente nueva, las herramientas de pruebas de api existentes carecen de un soporte total para GraphQL. DevOp DevOp como enfoque tecnológico carece de una metodología y terminología unificada, conlleva ciertos retos y problemas, principalmente enfocados en la organización, procesos y conocimientos del entorno operativo del negocio, ya que por la parte de los desarrolladores solo se evidencia la dificultad inherente en la asimilación de las herramientas digitales. Por otro lado, también retribuye en gran medida a la calidad de los servicios ofrecidos por el sistema mejorando la visibilidad del usuario sobre los cambios y mejoras continúas implementadas por el equipo de desarrollo. Como resultado de migrar de un sistema local a un sistema con Docker, se concluye que, como herramienta para la implementación de contenedores, no presenta dificultades organizacionales ni de desarrollo en su uso y configuración. En cambio, facilita de manera significativa la capacidad de compartir los proyectos y servicios entre equipos de operaciones y entornos de producción. Lo cual elimina el problema común que el sistema solo pueda ser ejecutado solo en el entorno de desarrollo. Reuniones con especialistas de la empresa AICA agilizaron la adopción de esta tecnología y permitieron el enfoque en puntos clave como la revisión de la compatibilidad de paquetes, la instalación de la herramienta Docker y la descarga de imágenes de servicios de terceros como MinIO y MongoDB. CONCLUSIONES En este trabajo se realizó un estudio de caso en el dominio de la lexicografía digital con el sistema Lextoolf para la evaluación e investigación de 3 temáticas: (1) la gestión de incidencias en un proceso de implantación, (2) el despliegue de un sistema en un entorno DevOp y (3) una comparación entre 2 tecnologías API, GraphQL y REST. Los hallazgos y evidencias recolectadas de este trabajo poseen 2 dimensiones de utilidad: (1) el desarrollo de un sistema completamente funcional para la gestión de unidades fraseológicas en el contexto de la lexicografía digital y (2) una base de recomendaciones y hallazgos del caso que sirven de guías para la adopción de nuevas tecnologías. REFERENCIAS 1. Serrano, R.M. and W. Wellbrock, Interpreting Phraseological Units in Supply Chain Contracts: A Corpus-Based Study of German and English Collocations. International Journal of Communication and Linguistic Studies, 2022. 20(2): p. 61-84. 2. Corpas Pastor, G., Interpreting Tomorrow? How to Build a Computer-Assisted Glossary of Phraseological Units in (Almost) No Time, in 4th International Conference on Computational and Corpus-Based Phraseology, Europhras 2022, G. Corpas Pastor and R. Mitkov, Editors. 2022, Springer Science and Business Media Deutschland GmbH. p. 62-77. 3. Milani, A., V. Franzoni, and G. Biondi, Parsing Tools for Italian Phraseological Units, in 21st International Conference on Computational Science and Its Applications, ICCSA 2021, O. Gervasi, et al., Editors. 2021, Springer Science and Business Media Deutschland GmbH. p. 427- 435. 4. Cuadrado-Rey, A., Base de datos de UF del español de Argentina: propuesta de traducción al alemán. Universidad de Alicante. 5. Arelis González García, M.E.B.Y., EVALUACIÓN DE TECNOLOGÍAS NESTJS y VUE.JS: ESTUDIO DE CASO EN EL CONTEXTO DE LA GESTIÓN DE LAS UNIDADES FRASEOLÓGICAS., in Línea de trabajo de Grupo de Ciencias del Diseño de la Línea de Ingeniería, Gestión de Software y Sistemas de Información de la Facultad de Ingeniería Informática de la Universidad Tecnológica de la Habana. 2021, Universidad Tecnológica de La Habana José Antonio Echeverría Facultad de Ingeniería Informática: CUJAE. 6. Alvaro Escobar Borrego, A.D., LEXTOOL 1.0 ASISTENTE WEB PARA EL DESARROLLO DE PROYECTOS LEXICOGRÁFICOS, in línea de trabajo de Grupo de Ciencias del Diseño de la Línea de Ingeniería, Gestión de Software y Sistemas de Información de la Facultad de Ingeniería Informática de la Universidad Tecnológica de la Habana. Junio, 2019, Universidad Tecnológica de La Habana José Antonio Echeverría Cujae. 7. Pérez, F.M., et al., Conceptualising it consulting services: An approach from it-business alignment models and design sciences. Journal of Theoretical and Applied Information Technology, 2018. 96(16): p. 5363-5384. 8. Yin, R.K., Case Study Research and Applications: Design and Methods. Sixth Edition ed. 2018, Thousand Oaks, California 91320: SAGE Publications, Inc. 9. Offermann, P., et al. Artifact types in information systems design science - A literature review. in Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics). 2010. 10. Hevner, A.R., et al., Design science in information systems research. MIS Quarterly: Management Information Systems, 2004. 28(1): p. 75-105. 11. Vadlamani, S.L., et al. Can GraphQL Replace REST? A Study of Their Efficiency and Viability. in 8th IEEE/ACM International Workshop on Software Engineering Research and Industrial Practice, SER and IP 2021. 2021. Institute of Electrical and Electronics Engineers Inc. 12. Raatikainen, M., et al., State of the Practice in Application Programming Interfaces (APIs): A Case Study, in 15th European Conference on Software Architecture, ECSA 2021, S. Biffl, et al., Editors. 2021, Springer Science and Business Media Deutschland GmbH. p. 191-206. 13. Kondo, Y., K. Asatani, and I. Sakata. Evaluating Emerging Technologies on the Gartner Hype Cycle by Network Analysis : A Display Technology Case Study. in PICMET 2022 - Portland International Conference on Management of Engineering and Technology: Technology Management and Leadership in Digital Transformation - Looking Ahead to Post-COVID Era, Proceedings. 2022. Institute of Electrical and Electronics Engineers Inc. 14. Chen, Z., et al. Towards intelligent incident management: why we need it and how we make it. in Proceedings of the 28th ACM Joint Meeting on European Software Engineering Conference and Symposium on the Foundations of Software Engineering. 2020. 15. Palilingan, V.R. and J.R. Batmetan. Incident management in academic information system using ITIL framework. in IOP Conference Series: Materials Science and Engineering. 2018. IOP Publishing. 16. Aguiar, J., et al., An overlapless incident management maturity model for multi-framework assessment (ITIL, COBIT, CMMI-SVC). An overlapless incident management maturity model for multi-framework assessment (ITIL, COBIT, CMMI-SVC), 2018: p. 137-163. 17. Brito, G., T. Mombach, and M.T. Valente. Migrating to GraphQL: A Practical Assessment. in 26th IEEE International Conference on Software Analysis, Evolution, and Reengineering, SANER 2019. 2019. Institute of Electrical and Electronics Engineers Inc. 18. Brito, G. and M.T. Valente. REST vs GraphQL: A controlled experiment. in 17th IEEE International Conference on Software Architecture, ICSA 2020. 2020. Institute of Electrical and Electronics Engineers Inc. 19. Seabra, M., M.F. Nazário, and G. Pinto. REST or GraphQL? A performance comparative study. in 13th Brazilian Symposium on Software Components, Architectures, and Reuse, SBCARS 2019, part of the Brazilian Conference on Software: Theory and Practice, CBSoft 2019. 2019. Association for Computing Machinery. 20. Leite, L., et al., A survey of DevOps concepts and challenges. ACM Computing Surveys (CSUR), 2019. 52(6): p. 1-35. 21. Arvanitou, E.M., et al., Applying and Researching DevOps: A Tertiary Study. IEEE Access, 2022. 10: p. 61585-61600. 22. Kitchenham, B.A., L. Madeyski, and D. Budgen, How Should Software Engineering Secondary Studies Include Grey Material. IEEE Transactions on Software Engineering, 2022. 23. Runeson, P., et al., Case Study Research in Software Engineering: Guidelines and Examples. Case Study Research in Software Engineering: Guidelines and Examples. 2012: John Wiley and Sons. 24. Genero, M., J.A. Cruz, and M.G. Piattini, Métodos de investigación en ingeniería del software, R.-M. Editorial, Editor. 2014: Madrid, España. 25. Dubé, L. and G. Paré, Rigor in information systems positivist case research: Current practices, trends, and recommendations. MIS Quarterly: Management Information Systems, 2003. 27(4): p. 597-635. 26. Elsahn, Z., et al. Are rigor and transparency enough? Review and future directions for case studies in technology and innovation Management. in R and D Management. 2020. Blackwell Publishing Ltd. APACHE GUACAMOLE, UNA PROPUESTA PARA LA MIGRACIÓN A SOFTWARE LIBRE Y EL TELETRABAJO APACHE GUACAMOLE, A PROPOSAL FOR MIGRATION TO FREE SOFTWARE AND REMOTE WORK Redeis Alonso Labrada1, Arsenio Mesa Álvarez2, Yurisdan López Villa3 1 ETECSA, Cuba, redeis.alonso@etecsa.cu 2 ETECSA, Cuba, arsenio.mesa@etecsa.cu 3 ETECSA, Cuba, yurisdan.lopez@etecsa.cu RESUMEN: Desde hace varios años la Empresa de Telecomunicaciones de Cuba (ETECSA) ha estado desa- rrollando un proceso de migración a Software Libre (SL). Numerosos obstáculos, objetivos y subjetivos, se han tenido que sortear en todo este tiempo, para avanzar en la migración. El desarrollo de las aplicaciones y las re - des informáticas ofrece nuevas formas de enfrentar esta complicada tarea. A los Servidores de aplicaciones y la virtualización se suman los sistemas WEB que hacen posible la conexión segura a diferentes Sistemas Operati- vos (SO). Apache Guacamole es uno de estos nuevos sistemas que proporciona acceso a diferentes SO y apli - caciones. En este trabajo se estudió, probó y puso en funcionamiento el servicio Guacamole para la ejecución de aplicaciones que solo se ejecutan en SO Windows. La utilización de este servicio permite la eliminación de varios SOs Windows en la red de los usuarios, ya que es posible acceder a ellos utilizando el protocolo https. Esta característica convierte al guacamole, además, en una propuesta alternativa para implementar el Teletra- bajo de una manera segura. Palabras Clave: Software libre, migración, servicios, usuarios, aplicaciones, teletrabajo. ABSTRACT: For several years, the Cuban Telecommunications Company (ETECSA) has been developing a migration process to Free Software (SL). Numerous obstacles, objective and subjective, have had to be overco - me in order to advance in migration. The development of computer applications and networks offers new ways of tackling this complicated task. Application Servers and virtualization, WEB systems are added to ensure secure- ly connections to differents Operating Systems (OS). Apache Guacamole is one of these new systems that pro- vides access to different OS and applications. The Guacamole service was studied, tested and put into operation for the execution of applications that only run on Windows OS. The use of this service allows the elimination of several Windows OSs in our network and it is possible to access them using the https protocol. This characteris- tic also makes guacamole an alternative proposal to implement Telework in a safe way. KeyWords: Free Software, migration, services, users, applications, telecommuting. “Informática 2022: Juntos por la transformación digital” “APACHE GUACAMOLE, UNA PROPUESTA PARA LA MIGRACIÓN A SOFTWARE LIBRE Y EL TELETRABAJO” 1. INTRODUCCIÓN La Empresa de Telecomunicaciones de Cuba ETE- CSA, es una organización cubana comprometida con la Revolución y las tareas que respaldan la de- fensa del país mediante el grado creciente de la in- vulnerabilidad de su Sistema de Telecomunicacio- nes. Brinda servicios de telecomunicaciones, basa- do en los estándares mundiales, soportados en tec- nologías de avanzada. La División Territorial ETECSA Cienfuegos, posee un Departamento encargado de la Tecnología de la Información, que además de gestionar el proceso de Facturación, brinda servicios de soporte técnico a más de 500 computadoras con sus aplicaciones, los periféricos asociados, así como a sus redes y al hardware de las mismas. Nuestro país se está enfocando hacia la soberanía tecnológica y la migración a Software Libre, y nues- tra empresa no está ajena a ese proceso. En el año 2019 el departamento de Tecnología de la Informa- ción tuvo dentro de sus objetivos migrar a Software Libre todas las estaciones de los departamentos de “Economía”, “Recursos Humanos” y “Logística y Servicios”. Todo ello conlleva migrar aplicaciones y servicios a sistemas multiplataformas que garanticen la opera- tividad y no afecten la productividad de los usua- rios. En nuestra empresa contamos con una gran cantidad de aplicaciones propietarias que no pue- den ser migradas a corto o mediano plazo, por tal motivo se hace engorroso el proceso de migración. Todo lo anterior representa la situación problemáti- ca de esta investigación, de ahí que se enuncie el siguiente Problema de investigación: ¿Cómo estandarizar el acceso a las aplicaciones y servicios de red que no pueden ser migrados a So- ftware Libre, garantizando la disponibilidad de los recursos locales y la seguridad informática? En correspondencia con el problema se plantea el objetivo general de la investigación: Implementar una propuesta para el acceso a las aplicaciones de windows y servicios de la empresa, garantizando la seguridad y disponibilidad desde varios escenarios. 2. CONTENIDO Metodología Para el desarrollo de esta investigación se utilizan varios métodos científicos que la guían y facilitan, ellos son: -Teóricos  Analítico-Sintético: Permite estudiar de modo general el tema planteado para luego descomponerlo e interiorizar cada aspecto estudiado sintetizando lo esencial en función de lo investigado. Se utiliza en la investigación para instruirse acerca de cómo realizar la implementación de un sistema capaz de virtualizar servicios en servidores WEB y/o aplicaciones de escritorio que mediante protocolos seguros funcionen tanto en sistemas operativos Windows como Linux. Luego de ello idear el software a desarrollar, sus partes, arquitectura y sus requerimientos funcionales.  Histórico-Lógico: El objetivo principal de este método es estudiar y analizar el marco histórico (funcionamiento en años precedentes) y estado del arte (de forma nacional e internacional) de las características del tema de la investigación (personas que desarrollan este rol en empresas). Se utiliza para estar al tanto cuáles son los softwares existentes a nivel mundial, así como dentro de la empresa que puedan tener relación con la virtualización de servicios informáticos y su despliegue a través de servidores web para que de esta forma sirva lo estudiado como punto de partida para el desarrollo. - Empíricos  Observación: El método de la observación es considerado el instrumento universal de la investigación y consiste en la percepción di- recta del objeto de la realidad. Es un recono- cimiento de la realidad objetiva a través de la obtención de datos cuya fuente no se limita a los datos fácticos, sino que estarán también los datos tendenciales y los datos teóricos que son interpretados desde la cultura y des- de las concepciones del autor de esta investi- gación. “APACHE GUACAMOLE, UNA PROPUESTA PARA LA MIGRACIÓN A SOFTWARE LIBRE Y EL TELETRABAJO”  Este método es uno de los que mejores re- sultados brinda pues se constata en el esce- nario real de los eventos todo lo referente a la utilización y manejo del software desarro- llado y el conocimiento práctico que tienen los usuarios de la empresa del sistema, una vez que ya van interactuando con el mismo. Técnica de recopilación de información  Encuesta: Con la utilización de este método se adquiere información de manera anónima y online (se desarrolló una encuesta web), posibilitando a cada usuario brindar sus con- sideraciones sobre aspectos importantes del software Apache Guacamole, sus caracterís- ticas, eficiencia, eficacia y bondades de su despliegue en la División Territorial de ETE- CSA Cienfuegos. Esta técnica es de vital im- portancia porque entre otras cosas va a evi- denciar la percepción y criterio de los usua- rios de la calidad del servicio brindado por los especialistas de TI. 2.1 Desarrollo Lamentablemente la situación existente debido a la pandemia mundial del COVID-19 (SARS-CoV-2) ha obligado a muchas pequeñas y medianas organiza- ciones a sufrir situaciones tensas con los recursos humanos. Muchas de ellas no están preparadas para poder mantener a toda su fuerza laboral acti- va. El “trabajo a distancia” o el “teletrabajo” pueden revertir esa situación siempre que la actividad lo permita y estén creadas las condiciones para ello. Nuestro país ha demostrado tener un robusto siste- ma de salud, pero la pandemia del COVID-19 va más allá de eso por las diferentes formas de conta- gio y complicaciones que puede traer para la vida de los infectados. Por tal motivo el Ministerio de Salud Pública en nuestro país nos hace un llamado al necesario distanciamiento social, pero las empre- sas como ETECSA que prestan servicios a nuestro pueblo, tienen que mantener su misión social ante cualquier situación. Para minimizar los riesgos de contagio, dentro de las medidas dictadas por la dirección de la empresa estuvo la implementación del Teletrabajo y el Tra- bajo a Distancia al personal que según su trabajo y las condiciones del mismo lo permitan. En este trabajo, se define como instalar un acceso remoto seguro y centralizado para poder utilizar las aplicaciones y servicios de la empresa que no pue- den ser migrados a entornos multiplataformas, ade- más que continuar con la actividad empresarial en los escenarios posibles, basándonos en recursos de Software Libre y multiplataformas. ¿Qué es Apache Guacamole? Apache Guacamole es una herramienta de código abierto soportada por la Fundación Apache. Se basa en ofrecer un acceso remoto centralizado, bajo unas credenciales únicas, para acceder a los equipos de la organización empleando los protoco- los más comunes (RDP, VNC, SSH y Telnet). La aplicación servidor (guacd) es la que se encarga de la autenticación a los equipos y precisa de la ins- talación en infraestructura propia o acogerse a un servicio de terceros y estar accesible desde la parte cliente. Este cliente permite que simplemente mediante un navegador que soporte HTML5 y Javascript, se po- drá conectar desde cualquier punto con acceso a la red de la empresa. Lo que permite poder emplear para el acceso, además de PC y Laptops, las table- tas y teléfonos móviles. Su gestión de usuarios cen- tralizada garantiza resolver los accesos particulares de cada uno y registrar sus operaciones mantenien- do un fichero de registro. 2.2 Características principales  Cliente web creado en HTML5 para usar el navegador sin necesidad de instalar ningu- na aplicación ni plugin al mismo.  Libre y de código abierto.  Almacén de las conexiones preferidas con los datos.  Soporte de varios protocolos como VNC, RDP y SSH.  API pública y bien documentada que permi- te la integración con otros sistemas.  Acceder a las computadoras desde cual- quier lugar, conectado a la red.  Permite copiar y pegar ficheros de forma re- mota y transferir ficheros.  Admite impresión remota y/o local. 2.2.1 Componentes de Guacamole: El servicio Apache Guacamole no es una aplicación web compacta, se compone de diferentes partes. Se trata de una aplicación cliente/servidor. El servi- dor (“guacd”) contiene todos los componentes nati- vos del lado del servidor requeridos por Guacamole para conectarse a escritorios remotos; el cliente (aplicación web, “guacamole”) contiene todos los componentes Java y JavaScript de Guacamole “APACHE GUACAMOLE, UNA PROPUESTA PARA LA MIGRACIÓN A SOFTWARE LIBRE Y EL TELETRABAJO” (guacamole, guacamole-common, guacamole-ext y guacamole-common-js). Estos componentes con- forman la aplicación web que servirá al cliente HT- ML5 el Guacamole a los usuarios, que se conectan a su servidor. En un entorno de alta disponibilidad, se pueden separar dichos componentes en diferen- tes servidores para balancear las cargas de trabajo. La implementación y arquitectura de Guacamole, pueden verse en la siguiente figura: Fig 1. Arquitectura del sistema Apache Guacamole. El protocolo Guacamole como protocolo de interac- ción y visualización remota, implementa un super- conjunto de los protocolos de escritorio remoto exis- tentes. Agregar soporte para un protocolo de escri- torio remoto en particular (como RDP) a Guacamole implica escribir una capa intermedia que "traduce" entre el protocolo de escritorio remoto y el protocolo Guacamole. La implementación de dicha traducción no es dife- rente a la implementación de cualquier cliente nati- vo, excepto que esta implementación en particular se representa en una pantalla remota en lugar de una local. La capa intermedia que maneja esta tra- ducción es guacd. GUACD guacd es el corazón de Guacamole, que carga di- námicamente el soporte para protocolos de escrito- rio remoto (llamados "complementos de cliente") y los conecta a escritorios remotos según las instruc- ciones recibidas de la aplicación web. guacd es un proceso demonio que se instala junto con Guaca- mole y se ejecuta en segundo plano, escuchando las conexiones TCP desde la aplicación web. guacd tampoco comprende ningún protocolo de escritorio remoto específico, sino que implementa lo suficien- te del protocolo Guacamole para determinar qué soporte de protocolo debe cargarse y qué argumen- tos deben pasarse. Una vez que se carga un com- plemento de cliente, se ejecuta independientemente de guacd y tiene el control total de la comunicación entre él y la aplicación web hasta que el comple- mento de cliente finaliza. LA APLICACIÓN WEB La parte de Guacamole con la que un usuario real- mente interactúa es la aplicación web. Se basa en guacd e implementa nada más que una interfaz web elegante y una capa de autenticación. Puerta de enlace de escritorio remoto El alcance del proyecto se expandió de un cliente VNC adecuado a una puerta de enlace de escritorio remoto HTML5 de alto rendimiento y una API gene- ral. En su estado actual, Guacamole se puede utili- zar como una puerta de enlace central para acce- der a cualquier número de máquinas que ejecutan diferentes servidores de escritorio remoto. Propor- ciona autenticación extensible y, en caso de que necesite algo más especializado, una API general para acceso remoto basado en HTML5. En la arquitectura que emplearemos, se distingue la conexión entre el cliente (remoto o interno) median- te el navegador wed (Ej: Firefox) utilizando protoco- lo HTTPS y la parte de conexión a los equipos, a través de los protocolos RDP, VNC, SSH, etc. Los clientes remotos son transportados mediante una VPN al destino final, como se muestra en la si- guiente figura: ¿Por qué usar Apache Guacamole? Es una aplicación web cuya comunicación es única- mente a través de HTTPS. Guacamole le permite acceder a sus máquinas desde cualquier lugar don- de esté disponible la red de la empresa sin violar la política de seguridad y sin requerir la instalación de clientes especiales. Facilita el proceso de migración a entornos multipla- taformas. Actualmente se utiliza para la ejecución de aplicaciones nativas de Windows, donde se im- posibilita la ejecución de las mismas sobre sistemas operativos libres. Aumenta la independencia y la operatividad de la provincia en la actividad de Tele- trabajo, permitiendo el acceso a un mayor número de aplicaciones. “APACHE GUACAMOLE, UNA PROPUESTA PARA LA MIGRACIÓN A SOFTWARE LIBRE Y EL TELETRABAJO” Ejemplos: - Utilización de Microsoft Access para la aplicación de Neumáticos del taller de transporte, garantizan- do el acceso de múltiples usuarios desde diferentes escenarios. - Acceso al SIPREC, aplicación que no está autori- zada al acceso por la VPN de la empresa. - Ejecución de la aplicación de Banca Remota, eli- minando la necesidad del acceso de los usuarios a través del protocolo rdesktop desde la red corporati- va. Actualmente el sistema está siendo utilizado por va- rios especialistas (más de 30); dentro de los que se encuentran, entre otros:  Soporte TI, para teletrabajo: utiliza dos MV (Win10 y Linux Debian 10) para dar soporte a las estaciones Windows y Linux.  Facturación, para teletrabajo: utiliza una MV (Win10)  Centro de Atención Telefónica, para utilizar aplicaciones Win: utiliza una MV (Win10)  Contabilidad y Finanzas, para teletrabajo y utilizar aplicaciones Win dentro de la em- presa: MV (Win 10; Win Serv 2012, Win Serv 2008 y Win XP) 3. CONCLUSIONES  Se garantiza el acceso desde cualquier equipo de la empresa, empleando para ello sólo un na- vegador compatible con HTML5.  Se puede acceder a través la red VPN (Red Pri- vada Virtual) de la empresa hasta el servicio Guacamole.  Se evita exponer puertos críticos directamente a la red corporativa, específicamente los de RDP - Remote Desktop Protocol- (TCP/3389), SSH - Secure SHell- (TCP/22), VNC - Virtual Network Computer- (TCP/5901) y Telnet (TCP/23).  Se empleó una solución Open Source, cumplien- do con las orientaciones de la VPTI.  Se utilizan un protocolo considerado “seguro” (HTTPS) para el acceso desde cualquier punto de la red.  Es posible ejecutar las aplicaciones de Windows disminuyendo las vulnerabilidades en la red.  Se utilizan más eficientemente los recursos dis- ponibles al compartir una misma MV para dife- rentes aplicaciones y diferentes usuarios.  Se logra un control centralizado y personalizado de los usuarios y las aplicaciones a las que cada uno de ellos tiene permitido el acceso. 4. REFERENCIAS BIBLIOGRÁFICAS Todas las referencias deben citarse en el texto. Las referencias deben estar identificadas en el texto en- tre corchetes (paréntesis cuadrados) y se colocarán en un listado numerado, según el orden de apari- ción. Las referencias deben escribirse de acuerdo con los siguientes ejemplos: artículo de revista [1], libro [2], tesis [3], reporte [4], memoria de congreso [5] y documento normativo [6]. Por ejemplo: 1. González Rey, G. y S. A. Marrero Osorio: "Reingeniería de la geometría desconocida de en- granajes cónicos con dientes rectos y curvilíneos", Ingeniería Mecánica, Vol.11, No.3, pp. 13 - 20, Ciu- dad de La Habana, 2008. 2. Arzola, J.: Selección de propuestas, Ed. Científico Técnica, Ciudad de La Habana, 1989. 3. Pereda, I.: "Residuos sólidos mineros de la extracción del níquel como estimulantes para la producción de biogás", Tesis de doctorado, Instituto Superior Politécnico José Antonio Echeverría, Ciu- dad de La Habana, 2007. 4. Lewicki, D. G. and A. D. Sane: Three-Dimen- sional Gear Crack Propagation Studies, National Aeronautics and Space Administration, TR: NASA TM-1998-208827, Washington, DC, Dec. 1998. 5. Umezawa, K.; H. Houjoh and S. Mat- sumura: "The Influence of Flank Deviations on the Vibration of a Helical Gear Pair Transmitting Light Load, International Power Transmission and Gear- ing Conference, American Society of Mechanical Engineers, DE-Vol. 43-2, pp. 681-688, 1992. 6. ANSI/AGMA ISO 17485-A08: Bevel Gears -- ISO System of Accuracy, American Gear Manufac- turers Association (AGMA), Alexandria, Virginia, USA, 2008. 5. SÍNTESIS CURRICULARES DE LOS AUTORES Se requiere que el autor principal incluya una síntesis curricular en esta sección, con un máximo de 200 palabras. Puede contener el lugar y fecha de nacimiento, un resumen de los niveles educacionales alcanzados, grados obtenidos (campo, institución, ciudad o país, años desde que lo obtuvo). Adicionalmente puede incluir un listado de las experiencias y líneas de trabajo, mencionar su actual relación laboral e información de publicaciones previas realizadas. También pueden incluirse trabajos de investigaciones actuales, membresía en organizaciones nacionales e internacionales y premios obtenidos. Debe incluirse la dirección postal y electrónica del autor que permita contactos posteriores. Si se adiciona una fotografía, el texto debe estar escrito a su alrededor, y la fotografía será ubicada en la parte superior izquierda de la biografía. No se requiere, pero de manera opcional los demás autores también pueden incluir sus síntesis curriculares en esta sección con un máximo de 200 palabras para cada autor. 1 IMPLEMENTACIÓN DE PLUGIN PARA GENERAR REPORTES ESTADÍSTICOS CONSOLIDADOS EN MOODLE Hansel Eric Megret Reyes¹, Miriam Roll Hechavarría², Indira Ordoñez Reyes³ ¹Estudiante Cujae, ²Profesor Cujae, ³Profesor Cujae ¹hmegret@ceis.cujae.edu.cu, ²mroll@ceis.cujae.edu.cu, ³e-mail iordonez@tesla.cujae.edu.cu. RESUMEN Moodle como entorno de aprendizaje dinámico es empleado en el proceso enseñanza aprendizaje de la Universidad Tecnológica de la Habana “José Antonio Echeverría”, para el desarrollo de los cursos de formación a distancia, permitiendo la interacción entre docentes y alumnos. La información de la navegación en los cursos es almacenada en las tablas de la base de datos de la plataforma, y se ofrece en los reportes estadísticos del curso. La dirección docente de la universidad solicita informes generales del uso de la plataforma a nivel de carreras, año, facultad, universidad, Moodle no ofrece información consolidada por las categorías antes mencionadas, este procesamiento estadístico se realiza de forma manual apoyado con el Excel por lo que es considerado moroso e ineficiente. El trabajo tiene como objetivo general el desarrollo de un complemento (plugin) que genere reportes estadísticos consolidados del uso docente de la plataforma en la universidad. El plugin va a trabajar con los datos a nivel de curso, categorías y subcategoría docente generando informes ya sea de manera gráfica como en tablas. Se utilizaron en la investigación métodos teóricos y empíricos, se analizaron soluciones anteriores para captar las experiencias de desarrolladores y buenas prácticas de diseño. Esta información estadística favorece la toma de decisiones en el uso de esta plataforma de aprendizaje en la Cujae. PALABRAS CLAVES: plataforma de aprendizaje, Moodle, reportes estadísticos, plugin o complemento estadístico. IMPLEMENTATION OF PLUGIN TO GENERATE CONSOLIDATED STATISTICAL REPORTS IN MOODLE ABSTRACT Moodle as a dynamic learning environment is used in the teaching-learning process of the Technological University of Havana "José Antonio Echeverria", for the development of distance training courses, allowing interaction between teachers and students. The navigation information in the courses is stored in the platform's database tables, and is offered in the statistical reports of the course. The teaching direction of the university requests general reports on the use of the platform at the level of careers, year, faculty, university, Moodle does not offer consolidated information by the aforementioned categories, this statistical processing is done manually, supported by Excel, so which is considered delinquent and inefficient. The general objective of the work is the development of a plugin that generates consolidated statistical reports on the teaching use of the platform at the university. The plugin will work with the data at the level of the course, categories and teaching subcategories, generating reports either graphically or in tables. Theoretical and empirical methods were used in the research, previous solutions were analyzed to capture the experiences of developers and good design practices. This statistical information favors decision-making in the use of this learning platform at Cujae. KEY WORDS: learning platform, Moodle, statistical reports, plugin or statistical complement. 1 1. INTRODUCCIÓN En medio de la pandemia de la Covid-19 se hizo necesaria la búsqueda de estrategias para no detener el proceso de enseñanza-aprendizaje que se lleva a cabo en las universidades. Ante la situación epidemiológica, las Tecnologías de la Información y las Comunicaciones (TIC), han jugado un rol importante en la virtualización del proceso educacional. La Plataforma de Teleformación Cujae hace años viene siendo una plataforma amigable que ha permitido hacer llegar diversos cursos hacia cada individuo de la Universidad, tanto profesores como estudiantes, proporcionando así la educación a distancia como modalidad para la enseñanza. La estadística es la ciencia formal, que estudia el análisis, recolección e interpretación de datos de una muestra representativa, ya sea para ayudar en la toma de decisiones o para explicar condiciones regulares o irregulares de algún fenómeno o estudio aplicado [1]. Moodle hace uso de estadísticas actualmente, para un mejor manejo y estudio de la información, extraída tanto de las actividades como de los cursos. El Centro de Referencia para la Educación de Avanzada (CREA) que pertenece al Universidad Tecnológica de La Habana José Antonio Echeverría (Cujae), administra el uso de la plataforma de Teleformación Moodle Cujae, gestiona toda la información referente a los cursos y actividades. Se le solicita a dicha administración a partir de las estadísticas que brinda Moodle, reportes consolidados de cursos y actividades. A pesar de que el Moodle genera algunos reportes estadísticos del uso de los cursos docentes, no satisface las necesidades de información de la dirección docente metodológica relacionadas con el uso docente de la plataforma a partir de las diferentes categorías y subcategorías dígase carrera, departamento, facultad por parte de la dirección docente metodológica, la información es registrada en un fichero Excel sin protección, encontrándose centralizada en una sola PC local, dificultando su actualización por no encontrarse distribuida de forma tal que los demás auditores puedan acceder a ella. La utilización de Microsoft Excel como herramienta fundamental de trabajo no garantiza la gestión eficiente y acertada de la información, provocando incongruencias en los datos, así como errores humanos al duplicar la información para el análisis a partir de su utilización en carreras, departamentos, facultades, universidad por lo que hay que procesar de forma manual está información con el apoyo de otras herramientas como el Excel para poder darle solución a esta problemática, siendo esta una dificultad. La profundización de esta problemática, motivó el intercambio con Vicerrectora docente (VRD), Vicedecanos docentes (VDD) que ratificaron la importancia de esta información para encauzar el trabajo del claustro con las diferentes herramientas que ofrece esta plataforma y en el intercambio con la administradora de la plataforma se precisaron las necesidades que forman parte del banco de problemas del CREA. Se investigó acerca del uso de extensiones o complementos (plugin) en Moodle relacionados con el uso de estadísticas, revisiones bibliográficas en artículos y trabajos investigativos donde se extraen antecedentes relacionados con el problema que se investiga, se encuentra el análisis de la implementación de un módulo desarrollado en la Pontificia Universidad Católica del Ecuador (PUCE), el cual maneja la información sobre el uso de la plataforma “PUCEMoodle”, en la universidad de Ciencias Médicas de Santiago de Cuba durante el curso 2016-2017, como proyecto candidato está un módulo o complemento nombrado “interactivity”, desarrollado y utilizado en la Universidad de Holguín, para la gestión de la información de interactividad en los cursos de la plataforma, está diseñado con el fin de flexibilizar el trabajo de los usuarios para conocer el estado de los cursos. A partir del manual de usuario del software se asume que el sistema aporta al trabajo el uso de mecanismos de exportación y representación de la información de manera consolidada. Aún no se 2 evidencian propuestas que puedan implementarse para dar solución a la problemática planteada. Partiendo de la situación problemática antes mencionada se definió como problema de investigación: ¿Cómo generar la visualización de reportes estadísticos consolidados relacionados con el uso docente de la plataforma de Moodle en la Universidad Tecnológica de La Habana José Antonio Echeverría? Siendo el objetivo de la investigación el desarrollo de un complemento (plug-in) o extensión compatible con el sistema huésped-objetivo (Moodle), que genere reportes estadísticos consolidados relacionados con el uso docente en la plataforma Moodle en la Universidad Tecnológica de la Habana José Antonio Echeverría. Se determinó el desarrollo de un complemento debido a que aporta a la Plataforma beneficios de añadir nuevas funcionalidades y características adicionales (para el caso a tratar se adicionan nuevos reportes), el cual interactúa con la aplicación principal (Moodle) por medio de una API, configura y perfecciona su funcionamiento y permite que los desarrolladores externos colaboren con la aplicación principal extendiendo sus funciones [2]. 2. INFORMES ESTADÍSTICOS EN LA PLATAFORMA MOODLE Moodle proporciona al profesor la posibilidad de llevar un seguimiento completo de la actividad del estudiante en el curso. Se accede a esta información desde: la lista de Participantes, los Informes de actividad de un usuario y los Informes del curso. El primero está en el bloque Navegación y los otros dos en el bloque Administración. Además de ofrecer información sobre la actividad que ha llevado el estudiante en el curso, las veces que ha accedido a un Recurso o Actividad, proporcionando un mayor conocimiento sobre el trabajo del estudiante en el curso. Los resultados de las actividades en el curso se grafican a través de los histogramas de frecuencia o gráficos de barra y gráficos de líneas poligonales [3]. 3. TECNOLOGÍAS UTILIZADAS Complementos o plugin Los plugin son pequeños programas complementarios que amplían las funciones de aplicaciones web y programas de escritorio. Por norma general, cuando instalamos un plugin, el software en cuestión adquiere una nueva función. La mayoría de los usuarios conoce los plugin por los navegadores web. El uso de los plugin es posible gracias a las interfaces de programación estandarizada, más conocidas por su nombre en inglés, Application Programming Interfaces (API). Las API unifican la transmisión de datos entre diferentes partes de programas al acceder a bibliotecas de uso compartido. De forma simplificada, un plugin usa determinados elementos del programa principal sin modificar su código fuente [2]. El plugin tiene como finalidad principal aportar funciones adicionales a aplicaciones web o programas informáticos. Como la propia definición de plugin indica, estos solo amplían programas ya existentes, por lo que no puede funcionar por sí solo, sino en combinación con un programa principal [4]. Hoy en día, existen plugins para prácticamente cualquier ámbito de software y tipo de programa tales como plugin de audio, gráficos y de vídeo, sociales, para entornos de desarrollo integrados: los plugin (IDE), Algunos IDE, CMS (sistemas de gestión de contenidos). Lenguaje de programación Según las especificaciones del sistema (Moodle donde se instala la propuesta), el lenguaje de programación que se utilizará para implementar la solución propuesta será PHP, debido a que Moodle como aplicación web se encuentra desarrollado sobre dicho lenguaje, es multiplataforma, de "Código Abierto" e interpretado de alto nivel. Se ejecuta en el lado del servidor, lo que permite que el código se procesado en éste y no en los ordenadores de los usuarios, garantizando así la seguridad del código fuente. Cuenta con capacidad de conexión con la mayoría de los motores de Base de Datos que se utilizan en la actualidad, destacando su conectividad con MySQL y PostgreSQL. Puede expandir su potencial utilizando una enorme cantidad de módulos y extensiones. Posee una extensa documentación en su página 3 oficial, encontrándose todas las funciones del sistema explicadas y ejemplificadas en un único archivo de ayuda. Es libre, por lo que se presenta como una alternativa de fácil acceso para todos. Permite aplicar técnicas de programación orientada a objetos. Tiene una biblioteca nativa de funciones sumamente amplia e incluida. Incluye manejo de excepciones [5]. Sistema Gestor de Base de Datos Un Sistema Gestor de Base de Datos (SGBD), es una plataforma de software que almacena los datos que se le introducen, debiendo garantizar su disponibilidad, seguridad, integridad, recuperación, integración y sincronización de las bases de datos. Además, la minimización de la redundancia [6]. Se seleccionó al software muy popular basado en PHP conocido como phpmyAdmin para la administración de la Base de Datos MySQL de Moodle, por ser Open Source y actual gestor en la entidad, tiene una alta velocidad para realizar operaciones, lo que hace uno de los gestores de mejor rendimiento. Chart js Chart js es un plugin JavaScript simple, flexible y muy completo para los diseñadores gráficos y desarrolladores que desean incrustar gráficas en las páginas Webs. Es una de las formas más elegantes según el autor, hasta la fecha de incorporar este tipo de elementos gráficos. No requiere JQuery. El plugin dispone de muchos parámetros y opciones para poder ser configurado [7]. UML: El Lenguaje Unificado de Modelado (en sus siglas en inglés, Unified Modeling Language), es un lenguaje gráfico para visualizar, especificar, construir y documentar un sistema de software. Es el más conocido y utilizado en la actualidad, está respaldado por el OMG (Object Management Group). Ofrece un estándar para describir un "plano" del sistema (modelo), cuenta con varios tipos de diagramas de las entidades representadas e incluye aspectos conceptuales y concretos como procesos de negocios, funciones del sistema, expresiones de lenguajes de programación, esquemas de bases de datos y componentes de software reutilizables [8]. 4. REQUISITOS GENERALES DE LA PLATAFORMA Los sistemas de Teleformación más completos, tipo campus virtual, necesitan una estructura organizativa compleja que reproduzca parcialmente la estructura de los centros docentes presenciales; para lograrlo, el sistema de Moodle agrupará a los elementos participantes en una estructura jerárquica que se divide en: Categoría: agrupación de varios cursos lleva a la definición de una categoría. Una categoría funciona como una carrera universitaria, una especialización o la capacitación del personal de un departamento de una empresa. Es la forma de agrupar cursos que tributen a un objetivo común. El curso es la unidad mínima donde se agrupan los elementos del proceso de enseñanza-aprendizaje. En el sistema de Teleformación Moodle se definen un conjunto de roles que los usuarios pueden desempeñar cuando se registran. Estos roles pueden llevarse a cabo por una persona o un conjunto de ellas. Una persona desempeñando un rol determinado, realiza el papel de actor del sistema. En este caso específico el único actor que realizará una interacción con este sistema será aquel que posea el rol de Administrador. 4 Fig. 1 Diagrama de Casos de uso del sistema Tablas esenciales de la base de datos de la plataforma. Las tablas esenciales presentes en la Base de Datos que intervienen son: mdl_course_categories: se almacenan todas las categorías docentes de Moodle por ejemplo Facultad, Pregrado, Año. mdl_course: tabla que almacena todo lo referente a los cursos que se imparten en la plataforma. mdl_user: almacena todos los usuarios que interactúan tanto en los cursos como en la plataforma Módulos de Actividades mdl_assign: tabla que almacena las tareas las cuales comprenden un espacio para que los estudiantes envíen documentos o breves textos. Facilita la organización para calificar y retroalimentar a los estudiantes mdl_choice: tabla que almacena las consultas la cual nos permite recabar la opinión del grupo (profesores/as y alumnos/as) sobre un tema, planteando una sencilla pregunta y ofreciendo unas pocas respuestas entre las que los/as participantes deben optar. mdl_quiz: tabla que almacena los cuestionarios que se aplican tanto a profesores como estudiantes. mdl_feedback: tabla que almacena las encuestas aplicadas a los usuarios, a partir de preguntas prefabricadas. mdl_survey: tabla que almacena las encuestas predefinidas que proporciona una serie de instrumentos ya construidos, que se han mostrado útiles para evaluar y estimular el aprendizaje en entornos en línea. mdl_forum: tabla que almacena los foros donde los docentes y alumnos intercambian ideas al publicar comentarios. mdl_glossary: tabla que almacena los glosarios los cuales permiten a los participantes crear y mantener una lista de definiciones, similar a un diccionario. mdl_lesson: tabla que almacena las lecciones donde el docente presenta el contenido de una forma flexible que permite al estudiante evaluar lo aprendido y reforzar los temas en los cuales tiene alguna duda. mdl_worshop: tabla que almacena los talleres los cuales, además de poder configurarse para definir una tarea y recibir los envíos de los estudiantes, éstos puedan evaluar en una segunda fase el trabajo de sus compañeros. 5 mdl_wiki: tabla que almacena wiki, es una colección de documentos web escritos en forma colaborativa. Sirve como base para mantener comunicación constante con los integrantes de un grupo de estudio. Requisitos Funcionales •Extraer los valores que necesita el usuario de la base de datos de Moodle. •Consolidar los datos extraídos de los Cursos por Categoría y Subcategoría. •Visualizar totales de Cursos por Categoría y Subcategoría. •Graficar la información. Requisitos no Funcionales La interfaz externa posee un lenguaje claro y orientado al usuario, además de usar colores adecuados y agradables. El diseño de la interfaz posibilita una visualización y navegación óptima siendo además sugerente e intuitivo. Para utilizar el sistema es necesario poseer conocimientos elementales de computación y sobre el entorno Web en sentido general. El sistema podrá ser usado por cualquier persona que disponga del rol “administrador”. El tiempo de respuesta es relativamente rápido, es decir que el sistema será capaz de procesar y mostrar la información lo más rápido posible. El sistema permite el mantenimiento de la integridad de los datos, la información será consistente y debidamente validada. Actor del sistema Administrador: Es el único usuario con las credenciales necesarias para poder ver los reportes estadísticos. Moodle: Sistema externo, del cual se extrae la información relacionada con los cursos entre oros tipos de datos para poder mostrar los reportes Tabla 1. Actores del sistema Actor del sistema Descripción Administrador Es el único usuario con las credenciales necesarias para poder ver los reportes estadísticos. Moodle Sistema externo, del cual se extrae la información relacionada con los cursos entre oros tipos de datos para poder mostrar los reportes Actor del sistema Descripción Administrador Es el único usuario con las credenciales necesarias para poder ver los reportes estadísticos. Moodle Sistema externo, del cual se extrae la información relacionada con los cursos entre oros tipos de datos para poder mostrar los reportes Arquitectura de Moodle Moodle se presenta como una aplicación web de naturaleza pedagógica. Se trata de una LMS para compartir conocimiento utilizándolo como una potente herramienta para el aprendizaje a través de internet. On line. Moodle como toda LMS, Learning Management System, Sistema de Gestión del Aprendizaje, presenta a nivel técnico una arquitectura basada en 3 pilares fundamentales [9]. 6 1) Base de datos: Por regla general MySQL o MaríaDB. Recoge los datos de usuarios, cursos, calificaciones, etc, y mediante consultas se articulan los contenidos que son visualizados. 2) Moodledata: Almacena, por razones de seguridad, de manera encriptada, todos los archivos y documentos que se incorporan a la LMS y que tienen una naturaleza pedagógica. Imágenes, PDF, Scorms, etc. También almacena, por razones de optimización, cadenas de literales de idiomas y la memoria caché. 3) HTML, htdocs: Nos referimos a los archivos físicos que forman parte de la estructura material de Moodle y que son los que podemos ver en nuestro browser, al acceder a la aplicación. Cuando vamos a un curso, generamos un informe, participamos en un foro, etc. La gran mayoría son archivos PHP, aunque también encontramos entre otros HTML, JS, CSS, XML, ordenados en carpetas. Estos archivos son los que vemos cuando navegamos. Por ejemplo mod/chat/view.php. Si abrimos el archivo config.php de nuestra instalación de Moodle, en la raíz principal, podremos entenderlo perfectamente [9]. Aunque todos estos tres elementos están interrelacionados, en nuestro desarrollo haremos uso específico del tercer espacio. Lo que vamos a llamar los archivos html. ¿Cómo se organiza Moodle? Recordamos que esta solución libre tiene una filosofía modular. Esto quiere decir que Moodle está formado por extensiones o plugins. Un plugin se puede incorporar y desligarse de manera sencilla, sin que afecte al funcionamiento convencional del aplicativo. Cuando instalamos un entorno Moodle, ya incorpora unas extensiones por defecto. Chat, foros, tipos de preguntas, bloques, métodos de autenticación, temas y estilos, formatos de cursos, etc. De esta forma podemos ver dos ambientes bien diferenciados. Core y Extensiones, estás últimas pueden, como decimos, instalarse y desinstalarse sin que esto tenga impacto con nuestro Moodle [9]. Es totalmente desaconsejable manipular archivos que formen parte del Core Moodle. En su caso haremos personalización en estas diferentes extensiones, o sobrescribiremos el Core refactorizando el theme (tema), pero dejando intacto en todo caso el Core. En Administración del Sitio. Extensiones, podemos comprobar que tenemos instalado en nuestro Moodle [9]. Las diferentes extensiones están ordenadas en sus correspondientes carpetas. Por ejemplo, estilos y colores dentro de la carpeta /theme. Los bloques en la carpeta /blocks. Los formatos de curso en /course/format, etc. [9]. 5. DESCRIPCIÓN DE PROPUESTA DE SOLUCIÓN Y PRUEBAS DE SOFTWARE Arquitectura del sistema Una parte fundamental de la arquitectura de software es la relación entre los diferentes componentes de las estructuras, lo que permite que las diversas visiones que se tienen del sistema se complementen adecuadamente [10]. Para ser posible la correcta instalación y desinstalación de un complemento (plugin), es preciso respetar una precisa arquitectura en los archivos y su identificación. Quizás sea buena idea acceder a la carpeta html/report de una instalación Moodle y comprobar cómo se encuentran estructurados otras extensiones y utilizarlos como modelo para el desarrollo del nuestro, o bien podríamos descargarnos un plugin tipo report desde la Comunidad [9]. Requisitos Específicos Funciones Por tipo de usuario: Con el Sistema estará interactuando usuarios que tengan la capacidad o permisos para acceder a las herramientas que provee en complemento [11]. Jerarquía Funcional: La funcionalidad del complemento ha de estar dirigida por el sistema principal, dicho complemento no ha de funcionar por sí solo, el sistema Core (Moodle) le provee acceso tanto a datos como de otras funciones [11]. Requisitos de rendimiento y atributos 7 •El complemento en desarrollo, ha de necesitar o requerir acceso al repositorio de datos, del cual va a leer y generar la información requerida. •Los usuarios que tendrán las capacidades para trabajar en el complemento son aquellos que tengan el tipo de capacidad de lectura, el arquetipo estándar como valor predeterminado de rol [12]. •Lenguaje PHP:Según las especificaciones del sistema (Moodle donde se instala la propuesta), el lenguaje de programación que se utilizará para implementar la solución propuesta será PHP, debido a que Moodle como aplicación web se encuentra desarrollado sobre dicho lenguaje, es multiplataforma, de "Código Abierto" e interpretado de alto nivel [5]. •Seguridad: Los plugin en sí no implican un riesgo. No obstante, sobre todo en el caso de empresas que estén valorando usar plugin en sus servicios en línea, red corporativa o página web, es muy recomendable realizar un análisis de riesgos exhaustivo de la infraestructura informática y los servidores existentes [13]. •Gestor de BD: Se ejecuta en el lado del servidor, lo que permite que el código sea procesado en éste y no en los ordenadores de los usuarios, garantizando así la seguridad del código fuente. Cuenta con capacidad de conexión con la mayoría de los motores de Base de Datos que se utilizan en la actualidad, destacando su conectividad con MySQL y PostgreSQL [6]. •Mantenibilidad: Puede expandir su potencial utilizando una enorme cantidad de módulos y extensiones, código legible y fácil para dar mantenimiento. •Nombre del componente ((Frankenstyle)) Nos referimos a la convención de nomenclatura que se utiliza para identificar de forma única un complemento de Moodle según el tipo de complemento y su nombre. Se utilizan en todo el código de Moodle [14]. •Es preciso respetar una precisa arquitectura en los archivos y su identificación [14]. Estilos y patrones arquitectónicos Patrón Arquitectura en capas: La arquitectura en capas consta en dividir la aplicación en capas, con la intención de que cada capa tenga un rol muy definido, como podría ser, una capa de presentación (UI), una capa de reglas de negocio (servicios) y una capa de acceso a datos (DAO), sin embargo, este estilo arquitectónico no define cuantas capas debe de tener la aplicación, sino más bien, se centra en la separación de la aplicación en capas (Aplica el principio Separación de preocupaciones) [9]. Fig. 2 Arquitectura N-capas Patrón arquitectónico Microkernel 8 El estilo arquitectónico de Microkernel o también conocido como arquitectura de Plug-in, permite crear aplicaciones extensibles, mediante la cual es posible agregar nueva funcionalidad mediante la adición de pequeños plugin que extienden la funcionalidad inicial del sistema [10]. En una arquitectura de Microkernel las aplicaciones se dividen en dos tipos de componentes, en sistema Core (o sistema central) y los plugin (o módulos), el sistema Core contiene los elementos mínimos para hacer que la aplicación funcione y cumpla el propósito para el cual fue diseñada, por otra parte, los módulos o plugin con componentes periféricos que se añaden o instalan al componente Core para extender su funcionalidad. En este sentido, solo puede haber un componente Core y muchos Plugin. Para permitir la construcción de plugin, el sistema Core debe de proporcionar un API o una definición la cual el plugin debe de implementar, de esta forma tenemos el sistema Core y el API que provee para que los desarrolladores creen los plugin. El API es una serie de clases o interfaces que deben ser implementadas por el Plug-in, las cuales serán analizadas por el sistema Core al momento de la instalación [10]. El API en realidad es un componente independiente del sistema Core (Moodle), el cual contiene solamente las clases e interfaces que deberán conocer tanto el sistema Core como los Plugin. Por lo general hay una interface o clase abstracta llamada Plugin la cual debe de implementar una clase del componente Plugin, la cual servirá como punto de entrada para el sistema Core, la cual le dará toda la información del Plugin al sistema Core [10]. Fig. 3 Patrón arquitectónico Microkernel Patrón de diseño de comportamiento Template Method El patrón de diseño templete centra su funcionalidad en la reutilización de código y se utiliza para implementar algoritmos que realizan los mismos pasos para llegar a una solución. Esto se logra implementando clases bases que definan un comportamiento predeterminado. Usualmente es creado un método para cada paso del algoritmo a implementar, de los cuales algunos serán implementados y otros permanecerán abstractos hasta su ejecución por parte de las subclases [15]. 9 Fig. 4 Diagrama Template Method •Client: Es el componente que acciona la ejecución del templete. •AbstractTemplete: Clase abstracta con una serie de operaciones que definen los pasos para llevar a cabo la ejecución del algoritmo. La clase tiene el método templeteMethod que ejecuta en orden los métodos step1, step2, step3. •Implementation: Clase que representa un temple concreto, para lo cual deberá de heredar de AbstractTemplete e implementar los métodos de ésta. Diagrama de Clases del Análisis Los Diagramas de Clases del Análisis constituyen una vista estática de las clases que conforman el Modelo del Análisis y las asociaciones entre las mismas. Representan las relaciones entre los actores y el sistema. Se componen de las clases interfaz, controladoras y entidades; que pueden ser la abstracción de una o varias clases o subsistemas del diseño del sistema [9]. Las clases de interfaz se utilizan para modelar la interrelación entre el sistema y sus actores, es decir, modelan las partes del sistema que dependen de sus actores, lo que implica que clarifiquen y reúnan los requisitos en los límites del sistema [16] Las clases controladoras representan la coordinación, secuencia, transacciones y control de objetos, se usan comúnmente para encapsular el control de un caso de uso en concreto [16]. Las clases entidades permiten modelar información que es a menudo persistente en el tiempo y que posee una larga vida [15]. A continuación, se representa en la figura 5 y 6 los diagramas de análisis de los casos de uso presentados: 10 Fig. 5. Diagrama de clases de análisis del CU Listar y graficar Totales de cursos por categorías docente. Estructura de la base de datos La plataforma de Teleformación Moodle una vez instalada genera una base de datos con 299 tablas y codificación UTF8. Los módulos tienen una tabla principal con su mismo nombre, que contiene sus instancias y donde se encuentran: su identificador, el identificador del curso al que la instancia pertenece (course), el nombre completo de la instancia (name) y otros datos importantes para el funcionamiento de la plataforma. La estructura modular de Moodle es la razón por la cual la información de la base de datos no está almacenada en un único lugar. El Modelo de Datos de la presente investigación permite la descripción de los elementos que intervienen en la solución del problema y la forma en que se relacionan entre sí. A continuación, se construye el modelo de datos a partir de las principales clases entidades a utilizar en la solución: Fig. 6 Modelo de Datos El Diagrama de Despliegue muestra la disposición física de los distintos nodos que componen el sistema y el reparto de los componentes sobre dichos nodos, los cuales representan los objetos físicos con recursos computacionales. Las conexiones establecidas son asociaciones de comunicación entre los no y se etiquetan con un estereotipo que identifica el protocolo de comunicación o la red utilizada, permitiendo comprender la arquitectura de un sistema [15]. 11 Fig. 7: Diagrama de Despliegue del módulo Reportes Generales. El diagrama de despliegue se compone por los nodos necesarios para acceder a la plataforma Moodle. Se muestra un servidor web Apache donde se instalará la aplicación, el cual estará conectado a un servidor de base de datos PostgreSQL o MySQL (de acuerdo a la preferencia del administrador del sistema), mediante el protocolo ADO (del inglés ActiveX Data Objects). El usuario que acceda a la plataforma necesita de una estación de trabajo Cliente que se conectará al servidor web a través del protocolo HTTP7. Prueba de Software El método de prueba escogido para aplicarse a este sistema fue el de caja negra, pues permite controlar los datos de entrada y de salida del sistema para detectar errores de interfaz o errores de comportamiento en la aplicación. Permiten obtener un conjunto de condiciones de entrada que ejerciten completamente todos los requisitos funcionales de un programa, se ignora la estructura de control y se concentra en los requisitos funcionales del sistema. Con el objetivo de comprobar el correcto funcionamiento de algunas de las principales funcionalidades del sistema se diseñó y ejecutó el caso de prueba asociado al caso de uso del sistema, se escogió la funcionalidad de Mostrar Cantidad de Cursos por Categoría Tabla 2 Diseño de caso de prueba Caso de Prueba Escenario Descripción Resultados Esperados Resultados Reales Mostrar cantidad de cursos por categoría Escoger la categoría que desea ver la cantidad de cursos Al usuario se le muestra todos los cursos que existen en esa categoría El sistema debe mostrar los cursos existentes por categoría El sistema muestra los cursos por carrera Caso de Prueba Escenario Descripción Resultados Esperados Resultados Reales Mostrar cantidad de cursos por categoría Escoger la categoría que desea ver la cantidad de cursos Al usuario se le muestra todos los cursos que existen en esa categoría El sistema debe mostrar los cursos existentes por categoría El sistema muestra los cursos por carrera 6. CONCLUSIONES 12 − El estudio de los informes estadísticos de la plataforma Moodle y de la necesidad del área docente en la universidad Tecnológica de la Habana José Antonio Echeverría, de obtener informes consolidados para su valoración a nivel de carrera, facultad y universidad corroboran la necesidad de la investigación. − La caracterización y revisión del estado del arte de permitió afirmar que las soluciones que existen actualmente, de alguna manera tributan a la investigación, pero no resuelven la problemática planteada, expresándose la necesidad del desarrollo de la propuesta. − Las tecnologías y herramientas seleccionadas facilitaron el cumplimiento de los objetivos planteados alcanzándose una solución adaptable a las necesidades de su desarrollo y empleo. Con un diseño de interfaz de usuario agradable. − Los resultados de las pruebas realizadas al sistema ratifican la funcionalidad y pertinencia de la propuesta. REFERENCIAS [1] GOOGLE SITES. Definición de Estadística s.d. [ref. de 11 de junio 2002][en línea]. Disponible en Web: https://sites.google.com/site/estadisticacienciaformal/definicion [2] ICONOS Digitalguide [Online]. Available: https://www.ionos.es/digitalguide/servidores/know- how/que-es-un-plugin/#c286477 [3] MOODLE M. "Reporte Vista General del Curso." from https://docs.moodle.org/all/es/Reporte_de_vista_general_del_curso. [4] ICONOS Digitalguide [Online].Available: https://www.ionos.es/digitalguide/know-how/que-es-un- plugin/#c286475 [5] THE PHP GROUP. Manual de php. [En línea] [Citado el: 9 de 5 de 2022.] http://www.php.net [6] C.J DATE. Introducción a los Sistemas de Bases de Datos. La Habana: Félix Valera, 2003. [7] AGUILAR, J. (2008-2022). "Desarrollo Web con PrestaShop, WordPress, PHP, JavaScript, jQuery y Ajax." from https://www.jose-aguilar.com/blog/chartjs/. [8] CRAIG, LARMAN. UML y Patrones Introducción al análisis y diseño orientado a objetos. La Habana : Felix Varela, 2004. [9] MOODLE, M. "Arquitectura de una extensión Plugin Faq." from https://docs.moodle.org/all/es/Plugins_FAQ#3._Arquitectura_de_una_extensi.C3.B3n. [10] GIL, S. V. H. "Representación de la arquitectura de software usando UML shurtado_repres-uml.pdf (arqut. Software UML).PDF>." Universidad Icesi-I2T. [11] Guia standard ieee830. [12] API, M. A. "Access API Moodle." from https://docs.moodle.org/dev/Access_API. [13] S.L.U., I. e. I. C. (2022). DigitalGuide IONOS Que es un plugin. [14] BLANCARTE, O. "Introducción a la arquitectura de software-un enfoque práctico." 2020 [15] HERNÁNDEZ, A. C. F. E. R. (junio de 2013). Módulo para generar información relacionada con los usuarios y cursos en la plataforma Moodle 2.3.x. FACULTAD 4 Universidad de las Ciencias Informáticas. [16] IONOS Digitalguide [Online].Available: https://www.ionos.es/digitalguide/servidores/know- how/que-es-un-plugin/#c286478 Sobre los autores. Hansel Eric Megret Reyes¹, estudiante de 4. Año de la carrera de Ingeniería Informática, Miriam Roll Hechavarría², profesora de la carrera Ing. Inf. Cujae., Lic. En Educación, Dra. En Pedagogía, Prof. Titular, Indira Ordoñez Reyes³, Ing. Informática. MSc. Informática. SISTEMA DE GESTIÓN DE LA CANTERA JOVEN DE LA CUJAE Laura Méndez del Pino1, Pavel Pérez González2, Perla Beatriz Fernández Oliva3, Marta Dunia Delgado Dapena4, Alejandro Miguel Güemes Esperon5 1, 2, 3, 4, 5 Universidad Tecnológica de La Habana “José Antonio Echeverría”, Dirección, Calle 114 # 11901 / Ciclovía y Rotonda, Marianao, La Habana, 1 lmendez@ceis.cujae.edu.cu, 2 pperez@ceis.cujae.edu.cu, 3 perla@ceis.cujae.edu.cu, 4 marta@ceis.cujae.edu.cu, 5 aguemes@tesla.cujae.edu.cu RESUMEN En el área de Recursos Humanos de la Universidad Tecnológica de la Habana “José Antonio Echeverría”, se pretende desarrollar una aplicación web para gestionar la Cantera Joven. Actualmente dicha gestión de procesos se realiza de forma manual por lo que se dificulta el análisis de la información relacionada con los estudiantes, futuros graduados y egresados. Además de la planificación, el seguimiento y la evaluación de los procesos de formación y familiarización de los jóvenes y su participación en las tareas que le son asignadas. Se hace necesario el desarrollo de una herramienta automatizada para gestionar y controlar estos procesos, que favorezca la colaboración entre las diferentes áreas de la universidad que participan en el proceso y los jóvenes en formación. En este artículo se presenta una propuesta de estudio para la implementación de software capaz de gestionar la Cantera Joven, alcanzando así una formación de calidad, mejorando las actitudes y aptitudes de los jóvenes. Además, se propone el despliegue del sistema, capaz de automatizar el proceso de formación de la cantera en su totalidad. Con esto se aumentaría notablemente la eficiencia a la hora de ejecutar las principales fases de la formación desde que es un estudiante hasta que culmine su adiestramiento laboral, eliminando todos los obstáculos presentes en dichas operaciones. Palabras claves: Formación Cantera, Familiarización, Formación Complementaria, Recursos Humanos. MANAGEMENT SYSTEM OF THE CUJAE YOUNG QUARRY ABSTRACT In the area of Human Resources of the Universidad Tecnológica de La Habana "José Antonio Echeverría", it is intended to develop a web application to manage the Young Quarry. Currently, said process management is carried out manually, which makes it difficult to analyze the information related to students, future graduates, and graduates. In addition to the planning, monitoring and evaluation of the training and familiarization processes of young people and their participation in the tasks assigned to them. It is necessary to develop an automated tool to manage and control these processes, which favors collaboration between the different areas of the university that participate in the process and the young people in training. The proposal presents a software capable of managing the Young Quarry, thus achieving quality training, improving the attitudes and skills of young people. In addition, the deployment of the system, capable of automating the entire quarry formation process, is proposed. This would notably increase the efficiency when executing the main phases of training from when they are a student until they finish their job training, eliminating all the obstacles present in said operations. Keywords: Youth Training, Familiarization, Complementary Training, Human Resources. 1. Introducción Muchas de las gestiones que se realizan actualmente en la Universidad Tecnológica de La Habana, “José Antonio Echeverría”, CUJAE aún no están informatizadas, siendo la gestión de la Cantera Joven parte de estas acciones. Dicho proceso es manejado por el área de Recursos Humanos de la CUJAE. Esta gestión consta de tres procesos en la formación de un joven. El primero es durante su vida como estudiante que se integra tempranamente a la cantera y se le realiza un Plan de Formación de Cantera. Luego se encuentra el proceso de Familiarización y Pre ubicación Laboral. Durante el último año de carrera universitaria al posible graduado se le realiza el proceso de Pre ubicación laboral, para ello se hace una primera distribución a las áreas de la Universidad y se le organizan la Actividad de la Jornada de Familiarización. Una vez graduado se incorpora a la institución y a partir de ahí pasa por un proceso de Formación Complementaria, donde el graduado se formará laboralmente en la entidad y lo dotará de habilidades en el ámbito laboral para su futuro profesional. Hasta la fecha estos procesos se han realizado de forma manual agrupando toda la información de los jóvenes en sus distintas etapas en documentos. Esto provoca trabas al momento de conciliar los planes e imposibilita que los jóvenes organicen sus propias tareas, dificultando la toma de decisiones y complicando la evaluación de las tareas. Por lo antes planteado surge la necesidad de gestionar de forma automatizada el proceso de gestión de la Cantera Joven de la Cujae. En este trabajo se propone un sistema que gestion los planes de Formación de la Cantera, de Familiarización y de Formación Complementaria de los jóvenes. 2. REGULACIONES PARA EL TRABAJO CON LA CANTERA JOVEN Según el ARTÍCULO 6. de la RESOLUCIÓN No.29 /19 del Ministerio de Educación Superior “La Comisión de Ubicación Laboral de la Facultad tiene la responsabilidad de realizar el proceso de ubicación laboral a los estudiantes de carreras universitarias y a los estudiantes de los programas de formación del nivel de educación superior de ciclo corto.” y según el ARTÍCULO 9.1. “La Comisión de Ubicación Laboral de cada Universidad es la responsable con el cumplimiento del plan de distribución de graduados y del plan de ubicación para los graduados de los programas de formación del nivel superior de ciclo corto, emitidos por el Ministerio de Trabajo y Seguridad Social.” [1] Cuando un grupo de futuros graduados son ubicados para realizar su Formación Complementaria en una entidad, se les realiza el proceso Familiarización. Este es un momento importante en la formación del graduado universitario que repercutirá en su desempeño y la relación con la entidad. Esta etapa es aquella donde se prepara al estudiante en su último año antes de graduarse y se le va familiarizando con la entidad en la que será vinculado. Consiste en orientar, ubicar y supervisar su desarrollo durante esta etapa terminal de sus estudios con la finalidad de lograr una mejor adaptación a su nuevo puesto e integrarlo a su futuro medio en donde se desarrollará como profesional. Así este puede conocer cómo funciona la entidad laboral y el área donde pertenece. En el caso particular de la universidad el trabajo con la cantera joven comienza desde que están en los primeros años de la carrera en lo que se conforma la cantera, de esta cantera se seleccionan los estudiantes que al graduarse forman parte de los graduados asignados a la universidad. Desde ese momento inicial a los estudiantes se les crea un aval para reflejar su compromiso y cumplimiento con la entidad. Además de realizársele un Plan de Formación para prepararlos con anterioridad en su recorrido como estudiante. Este es el Proceso de Familiarización. Posterior al Proceso de Familiarización se realiza el Proceso de Formación Complementaria que comienza una vez que el graduado se incorpora a la institución, la cual le otorgó una plaza de adiestrado al terminar sus estudios. Esta institución le asignará uno o varios tutores los cuales serán los responsables de guiar al recién graduado en todo su periodo de formación complementaria. Estos tutores elaboran junto al graduado un Plan de Formación Complementaria, el cual está dividido por etapas, donde se agrupan las tareas que debe cumplir el graduado para su formación como profesional. La Formación Complementaría de los recién graduados está regulada por el decreto Ley número 116 Capacitación y Superación de los Trabajadores, en el Código del Trabajo se plantea “…el empleador posibilita al recién graduado su adaptación laboral, la preparación complementaria para desarrollar los conocimientos adquiridos y las habilidades prácticas, que le permitan desempeñar el cargo que ocupa o el que pasará a ocupar. La duración de la preparación es determinada por el empleador, en dependencia de la complejidad del trabajo y los conocimientos del trabajador. El Reglamento de este Código regula los procedimientos y términos para el cumplimiento de lo establecido en este artículo.”[2] 3. GESTIÓN DE LA CANTERA JOVEN DE LA CUJAE En la CUJAE se siguen estos mismos procesos. Fundamentalmente al estudiante que ingresa a la Cantera Joven de la Universidad se le gestiona su aval y se le realiza el Proceso de Formación que consta de planificar, ejecutar y evaluar el denominado Plan de Formación de Cantera Joven. El proceso de familiarización comienza cuando al área de recursos humanos de la CUJAE se asigna una cifra de graduados. El listado que envía el Ministerio de Trabajo y Seguridad Social (MTSS) puede contener especialidades de las que se estudian en la propia CUJAE, incluyendo los estudiantes ya pertenecientes a la cantera, así como especialidades de otras Universidades o escuelas de técnicos y obreros calificados de todo el país y la cantidad de graduados de estas especialidades. Durante el último año de carrera del estudiante se realiza el proceso de Pre ubicación laboral, para ello se realiza una primera distribución a las áreas de la Universidad y se luego se planifican las actividades de la Jornada de Familiarización de los posibles graduados. Durante la ejecución de esta Jornada de Familiarización se toma asistencia a cada actividad emitiendo una evaluación final de cada estudiante que es enviada a su centro de estudio. El Proceso de Formación Complementaria inicia una vez que el graduado haya culminado la familiarización con la institución. En algunos casos pueden incorporarse graduados que no hayan realizado la familiarización en la institución. La Dirección de Recursos Humanos es la responsable de solicitar a los graduados de nivel superior que no son de la CUJAE su aval para el ingreso a la universidad, siendo un requisito primario la entrega del mismo para la realización de su Formación Complementaria. Posterior a la entrega, el Jefe de Área le asignará uno o varios tutores al graduado. Una vez que el graduado tenga al menos un tutor asignado se comenzará el diseño de su Plan de Formación Complementaria. Dicho plan cuenta con un grupo de etapas y estas a su vez con varias tareas las cuales el graduado deberá cumplir a lo largo de su período de formación complementaria. Al finalizar cada etapa se elaborará una evaluación cualitativa del desempeño del graduado y al llegar a la última de estas se evaluará el plan de formación complementaria basándose en un resumen de la formación del graduado y se emite el criterio de satisfactorio o no satisfactorio. En la actualidad no existe un sistema para llevar a cabo estos procesos y esa información se encuentra dispersa. La información sobre el trabajo que se realiza la tienen las facultades y las otras áreas involucradas, entre estas se mandan un documento Excel, esto dificulta la capacidad de generar una colaboración y comunicación efectiva entre los roles que intervienen en el desarrollo de las actividades relacionadas con estos procesos. Cada vez que se actualiza la información en el excel debe ser circulado entre los involucrados para que conserven la última versión de la información, pero esto en reiteradas ocasiones no funciona. En la Fig.1 se muestra el diagrama de casos de uso del negocio, donde se puede apreciar los actores involucrados y los casos de uso con los que se relaciona para lograr la familiarización y formación de los jóvenes. Figura 1: Diagrama de Casos de Uso del Negocio 4. TECNOLOGÍAS A UTILIZAR EN LA SOLUCIÓN En el campo del Desarrollo Web se pueden hacer dos grupos de tecnologías utilizadas: [3]  Tecnologías FrontEnd: Son aquellas que se utilizan en el lado Cliente, las que se utilizan en los diferentes dispositivos que se utilizan para conectarse con el servidor a través de internet.  Tecnologías BackEnd: Son aquellas que se utilizan en el lado Servidor, las que utiliza el Servidor para gestionar las diferentes peticiones de información que le llegan y para gestionar las bases de datos alojadas en los mismos. La información una vez tratada le es devuelta al dispositivo para que sea visualizada en el dispositivo a través de las tecnologías FrontEnd. Tecnologías FrontEnd Vuejs: Es un Framework Javascript, que brinda un conjunto de herramientas y funciones que permiten desarrollar páginas web de una manera más cómoda, entre sus principales características se encuentran: [4]  Un framework progresivo. Se puede incluir las partes que se necesitan además de la librería core y luego incluir otras librerías como si fueran módulos separados. Esto permite añadir funcionalidad a medida que se necesite. El core principal de VueJS está formado por una librería encargada de renderizar vistas en el navegador.  Un ecosistema muy variado que cubre todo lo necesario. VueJS tiene a su alrededor una serie de herramientas que ayudan a conseguir que el desarrollador sepa en todo momento qué está haciendo y cómo lo está haciendo.  Todo el código de un componente se encuentra en un único fichero. Los componentes guardan todo lo necesario en ficheros con extensión.vue. Estos ficheros contienen de manera ordenada todo el HTML, el CSS y el JavaScript necesario. Tecnologías Backend Django: Es uno de los marcos de desarrollo web más utilizados para desarrollar aplicaciones Python. A diferencia de otros, el marco python de full-stack de uso gratuito y de código abierto incluye una gran cantidad de características integradas en lugar de ofrecerlas como bibliotecas individuales. [5] Aspectos destacados de Django:  Soporte de autenticación  Migraciones de esquemas de base de datos  Mapeador objeto-relacional (ORM)  Soporte para servidores web  Motor de plantillas.  Enrutamiento de URL.  Librerías listas para usar: A continuación, se describen librerías del framework Django que fueron de gran utilidad para el desarrollo de la solución: Django-REST-Framework: funciona junto con Django web framework para crear API web. No se puede construir una API web solo con Django Rest Framework. Se agrega al proyecto después de que se haya instalado y configurado Django. La conclusión más importante es que Django crea sitios web que contienen páginas web, mientras que Django REST Framework crea API web que son una colección de puntos finales de URL que contienen verbos HTTP disponibles que devuelven JSON. django-cors-headers: CORS ofrece la seguridad que se utiliza para proteger al usuario de sitios web maliciosos. En este caso, la protección consiste en permitir que solo dominios específicos realicen solicitudes CORS. Por lo tanto, los servidores BackEnd requieren la configuración adecuada para aceptar tales solicitudes. django-notifications: Esta librería en el sistema se utiliza para notificar a los usuarios y proporcionan actualizaciones sobre la actividad de estos. Proporcionó una gerencia de estas notificaciones como parte de la lógica empresarial y permitió acciones típicas por ejemplo para filtrar y marcar como leído. Esta librería se modificó específicamente para ser trabajada con una API Rest creando serializadores. Es de suma importancia esta librería puesto que es necesario notificar cuando se realicen ciertas acciones. django-q: Esta es una buena alternativa para incorporar colas de tareas para tareas más simples. Lo que sucede es que la vista de Django responde inmediatamente a la solicitud, Django Q guarda las tareas (solo una referencia) y luego Django Q ejecuta la tarea. Además, delas tareas asíncronas, Django Q tiene la capacidad de programar una tarea. Otra característica interesante de Django Q es la integración de administración, se crea un superusuario para el proyecto Django, inicia la sesión en admin y encontrará todas sus tareas y horarios. Gestor de Base de Datos PostgreSQL: es un potente sistema de base de datos relacional de objetos de código abierto que utiliza y amplía el lenguaje SQL combinado con muchas características que almacenan y escalan de forma segura las cargas de trabajo de datos más complicadas. PostgreSQL viene con muchas características destinadas a ayudar a los desarrolladores a crear aplicaciones, administradores para proteger la integridad de los datos y crear entornos tolerantes a fallos, y ayudarlo a administrar sus datos sin importar cuán grande o pequeño sea el conjunto de datos. Además de ser gratuito y de código abierto, PostgreSQL es altamente extensible. Por ejemplo, puede definir sus propios tipos de datos, crear funciones personalizadas.[6] 5. GESTIÓN DE LA CANTERA JOVEN DE LA CUJAE El sistema a desarrollar automatiza todo el proceso de gestión de la cantera, desde la formación como estudiante perteneciendo a la cantera, su ubicación laboral en el centro su familiarización y su formación complementaria en la universidad. En el diagrama de casos de uso del sistema en la Fig.2 se podrán observar los actores del sistema y sus casos de usos asociados. Figura 2: Diagrama de casos de uso del sistema A partir del estudio se identificaron varios requisitos funcionales con los que debe contar el sistema como se muestra a continuación en la siguiente tabla: Tabla 1: Descripción de los Requisitos Requisito Descripción Interesado Incorporar estudiantes a la cantera joven de la universidad. Consiste en seleccionar el o los estudiantes desde el directorio, para esto el directorio debe proveer una interfaz donde obtener los datos de los estudiantes Jefe de Área Registrar y actualizar los avales de los estudiantes Consiste en registrar y mantener actualizados los avales de los estudiantes que están en la cantera. Jefe de Área Registra los avales de los recién graduados externos Consiste en registrar la mayor cantidad de información que se tenga del aval de los recién graduados externos. En caso de no existir el aval se deberá registrar un resumen de su trayectoria Director de Recursos Humanos como estudiante. Permitir la elaboración de Planes de Formación Cantera Consiste en elaborar un plan de formación al estudiante en la cantera, este plan se compondrá de etapas y tareas. Jefe de Área Permitir la elaboración de Planes de Familiarización Consiste en elaborar un plan de familiarización, este plan se compondrá de una sola etapa y tareas, pero las tareas también se pueden componer de otras tareas en un área específica. Para poner en vigencia el plan deberá ser aprobado por el Vicerrector Primero. Director de Recursos Humanos Permitir la elaboración de Planes de Formación Complementaria Consiste en elaborar un plan de formación complementaria para el tutorado, este plan se compondrá de etapas y tareas. Para poner en vigencia el plan deberá ser aprobado por el Jefe de Área Tutor Registrar posible graduado externo Consiste en obtener los datos de los posibles graduados que pasaran la familiarización en la universidad, para ello el directorio de la universidad deberá proveer una interfaz para este fin Director de Recursos Humanos Permitir elaborar la Ubicación Laboral Adelantada Consiste en pre ubicar o cambiar de área a los posibles graduados durante su familiarización con la universidad. La misma deberá ser revisada por el Vicerrector Primero al ser solicitada, tener en cuenta que también puede ser rechazada o aprobada. Director de Recursos Humanos Evaluar asistencia en el Plan de Familiarización. Cosiste en pasar asistencia en la actividad del Plan de Familiarización el día que se realiza Jefe de Área Permitir evaluar al posible graduado en su periodo de evaluación. Consiste en emitir un resumen y una evaluación cualitativa del posible graduado en su periodo de familiarización, auxiliándose de la asistencia a las actividades Jefe de Área Registrar recién graduado Consiste en registrar los nuevos graduados al sistema, para esto el directorio debe brindar una interfaz donde obtener los datos. Director de Recursos Humanos. Asignar tutores a graduado Consiste en asignar tutores al graduado, los tutores que se asignan son solamente los del área en la que se encuentra el recién graduado, en caso de requerir tutores de otra área deberá realizar una solicitud a otra área y en caso de ser aceptada se le asignará un tutor. Jefe de Área Solicitar la asignación de tutores de áreas externas al graduado. Consiste en solicitar un tutor al área externa a la que no pertenece el graduado Jefe de Área Permitir la Planificación de subtareas a los jóvenes Consiste en permitir al recién graduado y estudiante planificar tareas para llevar una formación más planificada. Joven Declarar cumplimiento de tareas Consiste en declarar como cumplidas las tareas de la formación permitiendo a los tutores revisarlas. Joven Evaluar las tareas, etapas y plan de formación de los tutorados Consiste en evaluar los pilares de la formación del joven, al evaluar una etapa o plan se emite una nota cualitativa y en caso del plan se adiciona un resumen del desempeño. Tutor Elaborar prórrogas del Plan de Formación Complementaria. Al evaluarse el Plan de Formación Complementaria si el jefe de área aprobó la solicitud de prórroga, se le realizara un nuevo Plan de Formación Complementaria el cual cuenta con etapas extras para extender su periodo de formación. Tutor Elaborar solicitudes de movimiento de personal. En el instante que se emite la evaluación del Plan de Formación Complementaria el tutor emite una solicitud de movimiento la cual será revisada por el jefe de área y director de recursos humanos, las solicitudes de movimiento pueden ser alta, baja o prorroga Tutor Elaborar resumen del adiestramiento del recién graduado. En el instante que se emite la evaluación del Plan de Formación Complementaria el tutor emite un resumen del desempeño del graduado Tutor Configurar Sistema Consiste en permitir la configuración del sistema cambiando determinadas variables que afecten su comportamiento Director de Recursos Humanos Para estos requisitos se diseñó el Diagrama de Entidad Relación que modela la base de datos del sistema como se muestra en la siguiente Fig. 3: Figura 3: Diagrama Entidad-Relación 6. CONCLUSIONES Para la universidad es de gran interés realizar una buena formación de su cantera en sus diferentes etapas en el centro: ya sea como estudiante, realizando su formación; como posible graduado ubicado laboralmente en la CUJAE, realizando su Jornada de Familiarización; o como ya graduado adiestrándose laboralmente. El estudio del estado actual del tema demostró la necesidad de contar con un sistema capaz de realizar la gestión de dichos procesos en la CUJAE para contribuir al desarrollo informático de la universidad. Además de obtener un sistema adaptable a estos procesos que se llevan a cabo en cada área para el éxito de la gestión de la formación de los jóvenes. REFERENCIAS 1. LOIDI, D.J.R.S., RESOLUCIÓN No.29 /19, M.d.E. Superior, Editor. 2019, Departamento Jurídico, Ministerio de Educación Superior: Constitución de la República de Cuba. 2. HERNÁNDEZ, J.E.L., SECCIÓN SEXTA Capacitación y superación de los trabajadores, A.N.D.P. POPULAR, Editor. 2013: Edición de la Gaceta Oficial Extraordinaria No. 29, de 17 de junio de 2013. 3. Ribas, J. Tecnologías FrontEnd y BackEnd en el Desarrollo Web. 2017; Available from: https://dissenyproducte.blogspot.com/2017/10/tecnologias-frontend-y-backend-en-el.html. 4. Geek, E. VueJS, el framework JavaScript que te hace la vida más fácil. November 18, 2021; Available from: https://ifgeekthen.nttdata.com/es/vuejs-el-framework-javascript-que-te-hace-la- vida-mas-facil. 5. Lima, A. ¿Por qué Django Framework es mejor para el desarrollo web? . Available from: https://es.acervolima.com/por-que-django-framework-es-mejor-para-el-desarrollo-web/. 6. Team, P. About. 2022 [cited 2022 Mayo 30]; Available from: https://www.postgresql.org/about/. SOPORTE AUTOMATIZADO PARA LA ACTIVIDAD DE RELACIONES INSTITUCIONALES EN LA CUJAE AUTOMATED SUPPORT FOR THE ACTIVITY OF INSTITUTIONAL RELATIONS AT CUJAE Martha Dunia Delgado Dapena 1, Alejandro Miguel Güemes Esperón 2, Julio Andrés Varona de la Paz 3, Jorge Luis Bolaños 4 1, 2 Universidad Tecnológica de La Habana “José Antonio Echevarría” CUJAE, calle 114 No. 11901 entre Ciclovía y Rotonda, Marianao, La Habana, Cuba. 3 Dirección de Tecnologías y Sistemas, Ministerio del Interior, La Habana, Cuba. 4 Universidad de Ciencias Informáticas UCI, Carretera a San Antonio de los Baños Km 2½, Rpto. Torrens, La Habana, Cuba. 1 aguemes@tesla.cujae.edu.cu, 2 marta@ceis.cujae.edu.cu, 3 jveronadelapaz@gmail.com, 4 jlbolanos@uci.cu RESUMEN El Sistema de Gestión de gobierno basado en la Ciencia y la Innovación, impulsado por la máxima dirección del Gobierno en el país apuesta por una robusta relación Gobierno-Universidad-Empresa, lo que hace necesario la creación de capacidades para la innovación en todos los ámbitos de la vida social y económica del país. La generación de resultados de Ciencia y Tecnología a ciclo cerrado, exige cambios tanto en la integración de los procesos de la Universidad, como en las relaciones con los diferentes actores económicos en el escenario nacional e internacional. Se necesita transformar los procesos de la Universidad y trabajar en el desarrollo de capacidades de innovación que permitan articular las alianzas en función de lograr mejores resultados con vistas a la comercialización, exportación e introducción de los resultados de la Ciencia. Esto no es posible si no se produce una transformación en la gestión de las relaciones universidad-empresa a lo interno de la propia universidad, que pasa por lograr niveles de informatización de la actividad de relaciones institucionales que permita ampliar la participación activa de la comunidad universitaria y sus diferentes actores internos en este proceso. En este trabajo se presenta una propuesta de informatización de las diferentes actividades que dan soporte a este proceso en la CUJAE. PALABRAS CLAVES: transformación digital, relaciones institucionales, universidad-empresa. ABSTRACT The Government Management System based on Science and Innovation, promoted by the highest management of the Government in the country, is committed to a robust Government-University-Company relationship, which makes it necessary to create capacities for innovation in all areas of the social and economic life of the country. The generation of Science and Technology results in a closed cycle requires changes both in the integration of the University's processes, and in the relationships with the different economic actors on the national and international stage. It is necessary to transform the processes of the University and work on the development of innovation capacities that allow the articulation of alliances in order to achieve better results with a view to the commercialization, export and introduction of the results of Science. This is not possible if there is not a transformation in the management of university-company relations within the university itself, which involves achieving levels of computerization of the activity of institutional relations that allows expanding the active participation of the university community. and its different internal actors in this process. This paper presents a proposal for the computerization of the different activities that support this process at CUJAE. KEY WORDS: digital transformation, institutional relations, university-business. 1. INTRODUCCIÓN A partir de la demanda de la máxima dirección del país sobre el papel que deben jugar las universidades en el Sistema de Gestión de gobierno basado en la Ciencia y la Innovación, teniendo como pilar la relación Gobierno-Universidad-Empresa se hace necesario la creación de capacidades para la innovación en todos los ámbitos de la vida social y económica del país. En el artículo: ¿Por qué necesitamos un sistema de gestión del Gobierno basado en ciencia e innovación?, de Miguel Díaz-Canel Bermúdez, Presidente de la República de Cuba y Primer Secretario del PCC, se expresa: “Es observable una insuficiente efectividad en las conexiones entre las universidades y las entidades de ciencia, tecnología e innovación (ECTI) con los sectores productivos de bienes y servicios y los territorios, y ello limita el impacto del conocimiento, la ciencia y la innovación en el cumplimiento de los objetivos del Plan Nacional de Desarrollo Económico y Social hasta el 2030 (PNDES 2030) y más allá.” (DÍAZ-CANEL, 2020). La CUJAE tiene un reconocimiento nacional en la búsqueda de soluciones que integran las diferentes ramas de las ciencias técnicas para responder a las demandas de los sectores productivos y de servicios. Muestra de esto lo constituye los encargos dados a la Universidad, a través de indicaciones directas del Presidente de la República en las últimas visitas gubernamentales. La generación de resultados de Ciencia y Técnica a ciclo cerrado, con impacto directo en las exportaciones, exige cambios tanto en la integración de todos los procesos de la Universidad, como en las relaciones con los diferentes actores económicos en el escenario nacional e internacional. Se necesita de soluciones informáticas que den soporte a la actividad de relaciones institucionales de la universidad bajo un enfoque sustentado en: mayor integración de los actores y áreas de la Universidad que participan en este proceso, mayor agilidad en la comunicación con los actores económicos que deseen establecer relaciones de colaboración con la Universidad y mayor participación de los miembros de la comunidad universitaria en la construcción y consolidación de las relaciones institucionales. La producción actual del conocimiento demanda de aplicar y conectar la innovación y el desarrollo tecnológico en función de la sociedad (LASTRES, H. M. & CASSIOLATO, J. E., 2007). Las universidades juegan un papel fundamental en las redes de colaboración e intercambio existentes entre los diferentes sectores de una sociedad, dado su papel de proveedor de soluciones innovadoras (PINTO, H. & GUERREIRO, A., 2018). La interacción de la universidad con el tejido empresarial, le permite desplegar nuevos canales de colaboración, actualizar políticas y estrategias de ciencia e innovación, diseñar procesos específicos más orientados a la difusión e introducción de los resultados de la investigación científica en otros escenarios y también favorecer la llamada valorización del conocimiento (NUNES, A. M. & MACHADO, M. B., 2018). El modelo de universidad que durante las últimas décadas se ha venido construyendo en muchos países, incorpora de manera importante la generación, difusión y aplicación de conocimientos, lo que constituye parte de su “tercera misión” que sumada a las tradicionales de docencia e investigación, ha favorecido el despliegue de un conjunto amplio de actividades que vinculan a la universidad con la sociedad (ROMERO, M., 2020; GOMARA, T., TOLEDO & C., GONZÁLEZ, S., 2021). En este escenario se identifica el siguiente problema de investigación: ¿Cómo informatizar la actividad de relaciones institucionales en la CUJAE? En este trabajo se presenta una propuesta para informatizar algunas de las actividades vinculadas al proceso de relaciones institucionales de la CUJAE, en esta primera etapa se incluye un sistema para la gestión de solicitudes de colaboración, un sistema para la gestión de solicitudes de acciones específicas de colaboración y varios sistemas para gestión de solicitudes en las actividades de aseguramiento relacionadas con la ejecución de acciones específicas de colaboración. 2. DESARROLLO Antecedentes En el 2015 la Universidad conceptualizó la recuperación de su infraestructura constructiva y tecnológica a través el Proyecto CUJAE, en los primeros dos años el proyecto dedicó sus mayores esfuerzo en la rehabilitación constructiva de edificaciones y ya a partir del 2017 se comenzó a incentivar la participación del sector empresarial en el campus con el objetivo de incorporar a la formación de los profesionales un grupo de tecnologías orientadas a la solución de problemas en el sector productivo y de servicios en el país. Se fortalecieron en esta etapa las alianzas de la Universidad con el MINEM y la UNE, el MININT, el INRH, el MINCOM y la empresa ETECSA, entre otros. El reconocimiento nacional de la CUJAE en la búsqueda de soluciones que integran las diferentes ramas de las ciencias técnicas, como respuesta a las demandas de los sectores productivos y de servicios, se muestra a través de los encargos, 37 indicaciones, dados a la Universidad, a través de indicaciones directas del Presidente de la República en las últimas visitas gubernamentales. Las solicitudes principales están encaminadas a dar respuesta a problemáticas en los sectores estratégicos de energía, agua, construcciones, alimentos, industria y TIC. En los últimos cinco años se han consolidado las alianzas con la UNE, ETECSA y el INRH y se han desarrollado nuevas alianzas con AZCUBA, GELECT, Agua y Saneamiento, MITRANS, GESIME, CORREOS DE CUBA, GEGAN, GENPIL, propiciando acciones concretas con sus empresas, además de un vínculo pertinente y efectivo con la Cámara de Comercio para lograr encadenamientos y facilitar la exportación. En el caso donde la Universidad acciona con el sector empresarial es de obligatoria presencia de la empresa de interfaz CETA S.A., que es la entidad autorizada para establecer relaciones contractuales a nombre de la CUJAE (CETA, 2022). La Sociedad de Interfaz CETA S.A. tiene como objeto la gestión de proyectos de investigación, desarrollo e innovación comercializables; la transferencia de tecnología, la realización de consultorías y asesorías asociadas a los proyectos y comercialización de otros intangibles, con la participación de profesores, investigadores, estudiantes y especialistas de diferentes instituciones, logrando ser sostenible (CETA, 2022). En CETA S.A. los clientes pueden encontrar la oportunidad de ejecutar proyectos que integren a las Universidades, Entidades de Ciencia, Tecnología e Innovación y al Sector productivo y de servicios, logrando acceder a recursos humanos altamente calificados y comprometidos con la ciencia y la innovación. Una gestión integral que aplica modelos de integración y colaboración, promoviendo la gestión del cambio en las organizaciones que propicien de forma sostenible, el aumento de la eficiencia y la productividad. La misión de CETA S.A. es gestionar proyectos de I+D+i comercializables, transferir tecnologías, realizar consultorías y asesorías y comercializar productos y otros intangibles de la investigación y los servicios académicos, como Interfaz entre las universidades y ECTI con el sector productivo y de servicios; tanto en el ámbito nacional como internacional, con participación de profesores, personal de apoyo, investigadores, estudiantes, técnicos y especialistas de diferentes instituciones, logrando ser sostenible (CETA, 2022). El desarrollo y fortalecimiento de estas alianzas plantea a la Universidad el reto de construir nuevas relaciones con los actores económicos en el país y consolidar las ya existentes, de forma tal que se logre contribuir a la solución de problemas en los diferentes sectores de la economía y que se ponga los resultados de la ciencia y la tecnología en función del desarrollo económico y social. Para ello es necesario contar con herramientas automatizadas que permitan gestionar de forma eficaz las solicitudes de colaboración, así como las acciones específicas que se ejecutan en el marco de la colaboración. La CUJAE tiene una gestión por procesos, en la cual las Relaciones Institucionales constituyen un proceso estratégico. En la actualidad toda la gestión de la colaboración se realiza a través de correo electrónico con los actores económicos y a lo interno de la universidad, lo que no permite avanzar en niveles de eficiencia de esta actividad pues en ella participan muchas áreas de la Universidad, no siempre logrando la integración adecuada en el manejo de la información y una respuesta ágil en cada uno de los pasos de esta gestión. Se ha definido como principios que en este proceso de informatización se debe tener en cuenta los siguientes: Las soluciones deben cumplir las políticas de informatización de la Universidad (CUJAE, 2021) y ser transferidas al área de soporte informático, las soluciones deben permitir que se conozcan los estados de las solicitudes en todo momento por los involucrados en el proceso, se debe informatizar de forma que pueda impactar en la gestión de os servicios de la Universidad involucrados en la colaboración y se debe brindar la posibilidad de participación a todos los miembros de la comunidad universitaria en la actividad de colaboración. Para desarrollar este proceso de informatización se trabajó en un equipo de proyecto con especialistas de las facultades de Ingeniería Industrial e Ingeniería Informática, coordinados por la oficina de la Vicerrectora Primera. Como primer paso se realizó una descripción del proceso de Relaciones Institucionales y su modelación en BPMN, así como las relaciones con el resto de los procesos de la Universidad. Además, se decidió utilizar el sistema Gerente de Equipo Informático Gratuito (GLPI, por sus siglas en francés) (GLPI, 2022) para desarrollar las soluciones informáticas para la gestión de solicitudes de colaboración y la gestión de solicitudes de acciones específicas, como primera etapa de informatización de la actividad de relaciones institucionales. Esta tecnología ya ha sido utilizada en la CUJAE para la atención a solicitudes en el proceso de informatización, por lo que se decidió extender su uso al proceso de relaciones institucionales. Gestión de solicitudes en la CUJAE a través del sistema GLPI Con el objetivo de lograr la implementación de un nuevo módulo para la gestión de solicitudes en la plataforma GLPI, se han establecido principios a tener en cuenta, durante su desarrollo, de forma tal que se establezca un procedimiento que pueda ser extendido a la gestión de solicitudes en otros procesos de la Universidad. Estos principios son: 1. Las solicitudes del proceso en cuestión deben tener visibilidad sobre toda la gestión particular de los servicios de apoyo que se soliciten. 2. Los jefes de área que están a cargo de los servicios de apoyo deben poder darles seguimiento a las solicitudes en una única vista, independientemente del proceso de la Universidad que lo haya solicitado. 3. El solicitante de cada proceso especifico no debe tener la visión de lo que ocurre con los procesos de apoyo a menos que se le solicite alguna información a través del gestor del proceso específico. A partir de la definición de estos principios se propone un procedimiento para configurar la plataforma GLPI para establecer un módulo de gestión de solicitudes para cualquier otro proceso de la Universidad. En una primera etapa, se deberán diseñar los formularios correspondientes a las solicitudes que se les dará seguimiento en ese proceso e incluir en ese diseño los servicios de apoyo que pudieran ser necesarios para esa solicitud. En la segunda etapa del procedimiento, se debe proceder a configurar la plataforma GLPI para adaptarse al proceso en cuestión. En esta etapa se establecen los roles (perfiles) que intervendrán en el proceso, que roles son los encargados de realizar las validaciones de las solicitudes, realizar los seguimientos y cerrar las solicitudes una vez finalizadas. También se deben establecer el flujo que se debe seguir para la atención de las solicitudes. En la tercera etapa se establecen los nuevos servicios. Esto se refiere a servicios que no se encontraban establecidos en el sistema hasta ese momento. Para estos nuevos servicios se deberá crear el formulario correspondiente y se deberá configurar la plataforma para agregar el nuevo servicio, desde los roles necesarios para manejar las solicitudes correspondientes hasta el flujo de control de la solicitud. En el caso de que sea necesario modificar algún proceso existente, los formularios, categorías, roles y demás configuraciones en la herramienta, deberán ser ajustadas según se corresponda. A continuación, la Fig. 1 muestra las actividades a seguir para realizar este procedimiento. Durante el desarrollo de los formularios, estos pueden ser creados en un servidor local con una copia de GLPI. Una vez desarrollados los formularios pueden ser exportados del servidor local e importados en el servidor principal. El formulario se exporta como un fichero .json que contiene toda la información necesaria del mismo, facilitando de forma rápida y ágil su carga en el sistema oficial del GLPI que se encuentra en los servidores de la CUJAE. Figura 1: Procedimiento a seguir para establecer un nuevo proceso en GLPI. Soluciones informáticas a la gestión de solicitudes en el proceso de Relaciones Institucionales Se realizaron inicialmente dos sistemas de gestión de las solicitudes: el primero para la interacción con los actores económicos y el segundo para la gestión de las solicitudes de acciones de colaboración hacia lo interno de la Universidad. Los requisitos incluidos en estos sistemas se muestran en Fig. 2 y Fig. 3 respectivamente. Figura 2: Diagrama de Casos de Uso del Sistema para el proceso de solicitar colaboración con la CUJAE. Como se puede apreciar en la Fig. 3, las actividades de colaboración pueden requerir el aseguramiento de determinados servicios que se ofrecen desde diferentes áreas de la Universidad y que aseguran la ejecución exitosa de las acciones específicas de colaboración. Entre estos servicios pueden estar: alimentación, transportación, uso de locales, materiales y recursos, etc. Esta relación entre el proceso de Relaciones Institucionales y los procesos de apoyo de la Universidad fue visto como una oportunidad para dejar informatizada la gestión de solicitudes a estos procesos, por lo que se decidió implementar con GLPI una solución informática para cada uno de estos servicios. De esta forma se implementaron 8 sistemas de gestión de solicitudes más, ellos son: Alimentación, Transporte, Hospedaje, Cobertura informativa, Aseguramiento material, Facilidades temporales, Limpieza y jardinería, Actos y reuniones (Ver Fig. 4). Figura 3: Diagrama general de casos de uso del sistema para dar seguimiento y soporte a las relaciones institucionales. En la Fig. 4 se muestra el sitio de soporte para la gestión de solicitudes de servicios en la universidad. De esta forma se ofrece a cada trabajador de la Universidad la posibilidad de participar en el proceso de gestión de las relaciones institucionales, ya que pueden acceder al sitio de soporte y solicitar colaboración de cualquier actor económico con la Universidad y podrá estar pendiente de los diferentes estados de esta solicitud hasta su aprobación final. Por otra parte, los miembros del consejo universitario podrán solicitar servicios para asegurar el proceso de relaciones institucionales y de igual forma dar seguimiento a su solicitud. Esto permitirá ganar en agilidad y pronta respuesta a las solicitudes de colaboración tanto de los colaboradores externos como de los propios miembros de la comunidad universitaria. Figura 4: Sistemas desarrollados para solicitar colaboración con la CUJAE, dar soporte y seguimiento a las relaciones institucionales. 3. CONCLUSIONES La propuesta presentada partió de la necesidad de ofrecer una solución informática que mejore la eficiencia del proceso estratégico Relaciones Institucionales de la CUJAE. Se realizó un estudio del flujo de trabajo de dicho proceso en la actualidad, los actores que intervienen y la relación entre estos, las diferentes soluciones disponibles en el mercado y las directivas vigentes en materia de tecnología informática de la CUJAE. A través de la asimilación del software GLPI se logró la implementación del sistema de control de las solicitudes de acciones específicas y las solicitudes de los servicios de apoyo asociados a las mismas. El sistema desarrollado facilita la interacción con los clientes y el seguimiento por parte de los roles participantes en la Universidad. Se logró desplegar la solución propuesta en el área de soporte técnico de la universidad lo que posibilita una mayor visibilidad de la CUJAE y los resultados alcanzados a partir del vínculo Universidad-Empresa. Además, se diseñó un procedimiento que permite abordar la configuración del GLPI para otros procesos de la universidad. REFERENCIAS DÍAZ-CANEL BERMÚDEZ, M., & NÚÑEZ JOVER, J. (2020). Gestión gubernamental y ciencia cubana en el enfrentamiento a la COVID-19. Anales de la Academia de Ciencias de Cuba, 10(2), e881. Recuperado de http://www.revistaccuba.cu/index.php/revacc/article/view/881 LASTRES, H. M. & CASSIOLATO, J. E. (2007). Innovación, información y conocimientos: la importancia de distinguir el modo de la moda. In A. Gallina, J. Capecchi, J. Núñez y L. F. Montalvo Arriete (Eds.). Innovaciones creativas y desarrollo humano, 101–117. Recuperado de https://rucforsk.ruc.dk/ws/portalfiles/portal/4339590/Innovaciones_creativas.pdf PINTO, H. & GUERREIRO, A. (2018). Resilience, Innovation, and Knowledge Transfer: Conceptual Considerations and Future Research Directions. In H. Almeida & B. Sequeira (Eds.). The Role of Knowledge Transfer in Open Innovation (pp. 281–299). doi: 10.4018/978-1-5225-5849-1.ch014 NUNES, A. M. & MACHADO, M. B. (2018). Enseñanza superior y sociedad: un estudio exploratorio sobre prácticas de la tercera misión en la Universidad Estadual de Campinas (Unicamp). Journal of Management Innovation, 13(4), 94–104. doi:10.4067/S0718-27242018000400094 ROMERO, M. (2020). Transferencia de resultados de la investigación científica universitaria a través de las incubadoras de empresas. Retos de la Dirección, 14(1), 234-261, 2020. GOMARA, T., TOLEDO & C., GONZÁLEZ, S. (2021). La investigación científica en la formación del estudiante universitario mediante el vínculo universidad -empresa. Revista Universidad y Sociedad, 13(2), 383-388. Epub 02 de abril de 2021. Recuperado en 15 de diciembre de 2021, de http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2218-36202021000200383&lng=es&tlng=es. CETA (2022). CETA S.A. https://www.tecnoceta.com/es/. CUJAE (2021). Directivas de Informatización del Proyecto CUJAE. Universidad Tecnológica de La Habana "José Antonio Echeverria", CUJAE. GLPI. (2022). GLPI-project. https://glpi-project.org/. Sobre los autores MARTHA DUNIA DELGADO DAPENA, Vicerrectora Primera en la Universidad Tecnológica de La Habana "José Antonio Echeverría", CUJAE; donde ha estado trabajando desde 1995. Obtuvo su Doctorado en Ciencias Técnicas en Cuba y es Profesora Titular desde 2006. Ha participado en proyectos de investigación relacionados con calidad y pruebas de software, ingeniería de requisitos e ingeniería de software basada en búsquedas. Ha publicado artículos y participado en eventos en temas de Ingeniería de Software y en la utilización de Inteligencia Artificial para resolver problemas en esta área. ALEJANDRO MIGUEL GÜEMES ESPERÓN, profesor de la Facultad de Ingeniería Informática en la Universidad Tecnológica de La Habana "José Antonio Echeverría", CUJAE; donde ha estado trabajando desde 2020. Obtuvo su título de Ingeniero Informático en la CUJAE en el año 2020 y en diciembre de 2021 el de Máster en informática aplicada. Ha participado en proyectos de investigación relacionados con calidad y pruebas de software, ingeniería de requisitos e ingeniería de software basada en búsquedas. Ha publicado artículos y participado en eventos nacionales e internacionales en temas de Ingeniería de Software, abordando la temática de Automatización de pruebas de software. Actualmente es estudiante de doctorado en informática, desarrollando su investigación en el campo de las pruebas de aplicaciones IoT en entornos inteligentes. JULIO ANDRÉS VARONA DE LA PAZ, Ingeniero informático graduado en la CUJAE en el año 2021. Actualmente se desempaña como especialista en la Dirección de Tecnologías y Sistemas del Ministerio del Interior de la República de Cuba. JORGE LUIS BOLAÑOS, Ingeniero informático graduado en la CUJAE en el año 2021. Actualmente se desempaña como especialista en la Universidad de Ciencias Informáticas, UCI. GUATINÍ: UN PROYECTO PARA FOMENTAR EL CONOCIMIENTO DE LA FAUNA CUBANA EN LAS NUEVAS GENERACIONES. QUIRÓPTEROS. Juan-Carlos Sepúlveda-Peña1; Yurisleidy Hernández-Moya2; Manuel Borrego-Venero3; Gilberto Socorro-Llanes4; Luis-Miguel González-Ramos5; Joel Monzón6 . 1CUJAE (La Habana, Cuba), 2 UCI (La Habana, Cuba),3 Refugio de Fauna Sureste del Inglés (Mayabeque, Cuba),4 Refugio de Fauna Sureste del Inglés (Mayabeque, Cuba),5 Delegación CITMA Nueva Paz” (Mayabeque, Cuba),6 CUJAE (La Habana, Cuba). * Autor para correspondencia: jcarlos@ceis.cujae.edu.cu, jcarlosas@gmail.com RESUMEN Los murciélagos en Cuba forman el mayor grupo de mamíferos no solamente por el número de especies que presentan, sino por las grandes cantidades de individuos de sus poblaciones. Es también el grupo de mamíferos más diverso desde el punto de vista Ecológico. En Cuba existen 26 especies de murciélagos. Algunas de estas especies de murciélagos cubanos son vulnerables al impacto de la actividad humana estando una de ellas en peligro crítico de extinción. En Cuba, las principales amenazas que enfrentan los murciélagos están dadas por el exterminio, debido al mal manejo de programas de control de los murciélagos y la perdida de hábitat. A esto se suma el desconocimiento y rencor de ciudadanos que ven afectados sus inmuebles y destruyen colonias enteras de murciélagos benéficos. El desconocimiento y la ignorancia son elementos que siempre se han sumado a las amenazas hacia los murciélagos. Es muy común que las personas sientan temor y rechazo hacia los murciélagos y estas respuestas son consecuencia directa de la desinformación y la gran cantidad de mitos que giran alrededor de estos particulares animales. Parte de la desinformación se refleja en la idea de que todos los murciélagos son hematófagos, lo que trae a su vez como consecuencia que cualquier especie sea perseguida y eliminada por creer que constituyen una amenaza para los seres humanos. Revertir esta situación va más allá de las leyes y acciones de las autoridades competentes, es necesaria una educación medioambiental desde las edades tempranas. Se necesita que los individuos y las colectividades se identifiquen con el entorno que los rodea y adquieran los conocimientos, los valores, los comportamientos y las habilidades para participar responsable y eficazmente en la prevención y la solución de los problemas ambientales. En la actualidad niños y jóvenes hacen un gran uso de los teléfonos móviles, tabletas y computadoras principalmente para jugar; en su mayoría estos juegos solo entretienen y no educan, y en algunos casos se pudiera decir que enajenan. ¿Por qué no aprovechar estas tecnologías con el objetivo de incentivar desde edades tempranas el conocimiento y el amor por la flora y la fauna? El proyecto Guatiní tiene como objetivo desarrollar juegos y aplicaciones multimedia que 1 Ph.D. Universidad Tecnológica de la Habana “José Antonio Echeverría” (La Habana, Cuba). jcarlos@ceis.cujae.edu.cu. https://orcid.org/0000-0002-8145-4527 2 Universidad de Ciencias Informáticas” (La Habana, Cuba). ymoya@uci.cu, https://orcid.org/0000-0002-3873-6641 3 Refugio de Fauna Sureste del Inglés (Mayabeque, Cuba). mborrego@ua.ffauna.co.cu, https://orcid.org/0000-0001- 5230-3650 4 Refugio de Fauna Sureste del Inglés (Mayabeque, Cuba). gsocorrollanes@gmail.com, https://orcid.org/0000-0002- 3183-4919 5 Delegación CITMA Nueva Paz” (Mayabeque, Cuba). luism@np.apppmy.cu, https://orcid.org/0000-0002-8244-4777 6 Universidad Tecnológica de la Habana “José Antonio Echeverría” (La Habana, Cuba). permitan divulgar la información científica acumulada sobre la fauna cubana y educar así principalmente a las nuevas generaciones en el cuidado del medio ambiente. Abstract Bats in Cuba form the largest group of mammals and not only by the number of species that they represent, but also because of the large numbers of individuals. It is also the most diverse group of mammals from an ecological point of view. In Cuba there are 26 species of bats. Some of these Cuban bat species are vulnerable to the impact of human activity, one of them being in critical danger of extinction. In Cuba, the main threats faced by bats are caused by extermination, due to poor management of bat control programs and loss of habitat. To this is added the ignorance and resentment of citizens who see their properties affected and destroy entire colonies of beneficial bats. It is very common for people to feel fear and rejection towards bats and these responses are a direct consequence of misinformation and the large number of myths that revolve around these particular animals. Part of the misinformation is reflected in the idea that all bats are blood-sucking, which in turn results in any species being hunted down and eliminated for believing that they constitute a threat to human beings. Reversing this situation goes beyond the laws and actions of the competent authorities, an environmental education is necessary from an early age. Individuals and communities are required to identify with their surroundings and acquire the knowledge, values, behaviors and skills to participate responsibly and effectively in the prevention and solution of environmental problems. Currently children and young people make great use of mobile phones, tablets and computers mainly to play; Most of these games only entertain and do not educate, and in some cases it could be said that they alienate. Why not take advantage of these technologies in order to encourage knowledge and love for flora and fauna from an early age? The Guatiní project aims to develop games and multimedia applications that allow the dissemination of accumulated scientific information on Cuban fauna and thus mainly educate new generations in caring for the environment. Keywords: ecology; education; cuban bat, environmental; mobile INTRODUCCIÓN Los murciélagos son especies de mamíferos muy interesantes y únicos en su comportamiento. Desafortunadamente, también son de los que menos se han comprendido, siendo hoy una de las especies de animales más vilipendiadas del mundo. Como consecuencia existen una serie de mitos sobre la vida de los murciélagos creando temor y miedo que ponen en riesgo su conservación. Estos temores son infundados ya que los murciélagos en su mayoría no son dañinos. Muy raramente atacan a los humanos o se acercan a estos. En Cuba, las principales amenazas que enfrentan los murciélagos pueden clasificarse en 3 categorías[1]: 1) El exterminio, debido al mal manejo de programas de control de los murciélagos, o al rencor de ciudadanos que se ven afectados en sus inmuebles y destruyen colonias enteras de murciélagos benéficos. 2) El disturbio, ocasionado por humanos que perjudican a los murciélagos en sus cavernas y refugios durante la crianza o descanso, en muchas ocasiones causando la muerte de individuos. 3) La pérdida de hábitat o destrucción de los bosques se ha convertido en una gran amenaza para la conservación de los murciélagos. La pérdida de bosques destruye los hogares y las fuentes de comida de los murciélagos que tienen importancia ecológica y económica. Los murciélagos comúnmente y cada vez más sufren la destrucción y afectación de individuos y poblaciones, así como de sus hábitats naturales, cuya consecuencia final es la perdida de especies y por ende de los servicios ecosistémicos que ellos prestan en los bosques y otros hábitats[1]. A su vez, la pérdida de servicios ecosistémicos y la carencia de regeneración en bosques, pueden llevar al deterioro y pérdida de especies vegetales[1]. El desconocimiento y la ignorancia son elementos que siempre se han sumado a las amenazas hacia los murciélagos. Es muy común que las personas sientan temor y rechazo hacia los murciélagos y estas respuestas son consecuencia directa de la desinformación y la gran cantidad de mitos que giran alrededor de estos particulares animales. Parte de la desinformación se refleja en la idea de que todos los murciélagos son hematófagos (se alimentan de sangre), lo que trae a su vez como consecuencia que cualquier especie sea perseguida y eliminada por creer que constituyen una amenaza para los seres humanos. Acciones de este tipo ponen en riesgo la sobrevivencia de estos importantes servidores ecológicos.[1]. Los murciélagos constituyen el 75% de los mamíferos cubanos (autóctonos) con base terrestre, pero la literatura sobre los mismos refleja un nivel de conocimiento inferior al alcanzado para el resto de nuestros mamíferos[2]. Por lo anterior es prioritario desarrollar programas educativos dirigidos a una gran variedad de grupos, como los funcionarios públicos, administradores de áreas protegidas, espeleólogos, turistas, escuelas y al público en general, con la finalidad de difundir su importancia en las comunidades que se encuentran y evitar que se les ataque por miedo o falta de conocimiento. Es importante establecer en sus hábitats programas de vigilancia y elaborar planes de gestión para sus refugios, así como iniciar programas de educación para explicar la importancia de las cuevas, minas y otros sitios ocupados por los murciélagos, sobre todo en los lugares que presentan alta diversidad. Para el desarrollo de las actividades, la capacitación del personal juega un papel importantísimo, por lo que el desarrollo de cursos, seminarios y talleres en función de preparar al equipo de trabajo que realizará la manipulación de los murciélagos, es una de las tareas de esencial prioridad, tratando de contar para esto con el material docente que permita o facilite las actividades cognitivas y de aprendizaje. En una investigación realizada por los autores en 12 librerías y 3 bibliotecas de la capital se pudo constatar la poca disponibilidad de libros relacionados con este grupo de animales y su protección. El presente trabajo está concebido para intentar suplir esta necesidad. En el caso de las multimedia y juegos didácticos, se encontraron 6 aplicaciones, algo antiguas, en la Biblioteca Nacional de Cuba, de las cuales ninguna era compatible con los sistemas operativos modernos. Durante la investigación acerca de las multimedia existentes, se encontraron solo 2 aplicaciones desarrolladas por la empresa CITMATEL, sobre la fauna cubana, que únicamente están disponibles para ordenadores con sistema operativo Windows. Adicionalmente existe un sistema de multimedia y juegos instructivos denominados Guatiní desarrollado por la facultad de informática de la CUJAE en colaboración con la UH, el MINED y la empresa de Flora y Fauna para divulgar el conocimiento sobre las aves endémicas de Cuba. Por otro lado, los dispositivos móviles se han convertido en protagonistas de la vida diaria de las personas. En el caso del teléfono móvil, su crecimiento a finales de la primera década del siglo XXI, lo había convertido en el medio de comunicación más extendido del mundo superando a la prensa escrita, la televisión e internet [3]. La presencia social de estos dispositivos móviles es diversa, incluyendo contextos de educación y formación, y la explotación de sus funcionalidades y prestaciones técnicas con fines didácticos ha dado lugar al surgimiento de una nueva modalidad educativa: el Mobile Learning o Aprendizaje Móvil [3]. Los videojuegos han logrado ocupar un importante lugar en la vida de los niños y adolescentes. El juego electrónico en los más diversos formatos (ordenador, consolas, telefonía móvil, etc.) alcanza cuotas de consumo muy elevadas. Al mundo de los videojuegos acceden los niños pequeños, los adolescentes, los jóvenes, pero también los adultos. La familia juega delante de la pantalla a través de consolas que han acercado el juego al hogar. Este fenómeno hace que sea cada vez más difícil dejar de lado el análisis de los usos educativos de los juegos [4]. Es por estas razones que los autores del presente artículo decidieron aprovechar las prestaciones y fortaleza de los ordenadores y dispositivos móviles para dar soporte a aplicaciones multimedia y juegos educativos que ayuden en la educación medioambiental, específicamente con lo relacionado al conocimiento de los murciélagos. Según [5], para el desarrollo de actividades de Educación Ambiental se han definido una serie de tipos de juegos, entre los que se cuentan: juegos de presentación, juegos de simulación, juegos ambientales y juegos de conocimientos del entorno y de sensibilización. El proyecto Guatiní se centró en el desarrollo de este último tipo de juego, además del desarrollo de una multimedia que fuera posible ejecutarla en diferentes plataformas de hardware como PC, Tabletas y Smartphone, e igualmente en diferentes plataformas de software tales como Windows, Linux y Android. La mayor amenaza que enfrenta la biodiversidad en la actualidad es la pérdida de hábitat. Los murciélagos no escapan a esta amenaza y como consecuencia algunos se encuentran dentro de la lista roja de la UICN. En Cuba se registran 26 especies de murciélagos que presentan entre sí grandes diferencias de tamaño, color, y formas[6, 7]. En los murciélagos cubanos pueden distinguirse seis modalidades o patrones de alimentación: ● Polen, 3 especies ● Néctar, 1 especie ● Frutas, 2 especies ● Peces, 1 especie ● Insectos y pequeños vertebrados (1 especie) ● Exclusivamente insectos (18 especies) Tales comportamientos alimentarios implican que determinadas especies de murciélagos puedan constituirse en Agentes polinizadores y dispersores de semillas; otras, en controladoras de las poblaciones de insectos lo cual es de suma importancia.[7] Varias de las especies de murciélagos cubanos son vulnerables al impacto de la actividad humana. Una especie se encuentra en peligro crítico de extinción pues solo queda una colonia de la misma confinada a una cueva de la Península de Guanahacabibes. En la actualidad el conocimiento sobre esta familia de mamíferos se concentra en libros impresos de reducida tirada. A ellos sólo se puede acceder a través de las bibliotecas públicas del país, además de las universidades. Con la aparición de las Tecnologías de la Comunicación y la Informatización (TIC) se hace posible que este conocimiento llegue a una mayor cantidad de personas. En la facultad de Ingeniería Informática de la Universidad Tecnológica de la Habana (CUJAE) se tiene experiencia de trabajos previos realizados específicamente para la promoción cultural de las aves endémicas[8-10], alguno de los cuales han devenido en premios provinciales de innovación tecnológica, con lo cual a partir de esa experiencia y en colaboración con otras entidades como Flora y Fauna, CubaBat, la división CITMA de Nueva Paz, entre otros se decidió realizar un trabajo similar para los quirópteros cubanos. En Cuba, al igual que en muchas partes del mundo, el desarrollo humano ha ido en detrimento de los hábitats de especies animales [11] y vegetales, muchas de ellas con un endemismo local [12]. En la población cubana en general no hay una conciencia de este problema, a pesar de la divulgación que se realiza mediante los medios de difusión masiva. Sin embargo, esto no es suficiente. Para llevar este conocimiento y problemática a las nuevas generaciones es imprescindible hacer uso también de las TIC, las cuales son herramienta de gran ayuda dada la utilidad y utilización que hacen los jóvenes de ellas. En la actualidad niños y jóvenes hacen un gran uso de los teléfonos móviles, tabletas y computadoras principalmente para jugar; juegos que en su mayoría solo entretienen y no educan, y en algunos casos se pudiera decir que enajenan. Por tanto también es un problema el uso indiscriminado que hacen los jóvenes de estas tecnologías sin un fin productivo o educativo; y en algunos casos hasta nocivos para la salud [13] [14]. En la literatura ya se reportan adicciones a este tipo de juegos [13] [14] que no les aporta nada como individuos. ¿Por qué no aprovechar entonces estas tecnologías con el objetivo de incentivar desde edades tempranas el amor por la flora y la fauna?; y contribuir de esta forma a la formación integral de los estudiantes desde el nivel primario de enseñanza hasta el nivel universitario e incluso postgraduado. En [8-10] los autores describen la efectividad que lograron en el aprendizaje, por parte de un grupo de estudiantes de primaria, de información relativa a las aves endémicas de Cuba a partir del uso de Multimedia y Juegos didácticos ejecutados sobre Teléfonos móviles, Tabletas o PCs. MATERIALES Y MÉTODOS: Se hizo un estudio, por parte de los autores, de las aplicaciones para dispositivos móviles existentes a nivel nacional e internacional y solamente se encontraron aplicaciones con información de faunas foráneas, y muy escasa sobre las de Cuba. Sin embargo, la comunidad antes mencionada, inquietada por una misma necesidad sentida: crear recursos informáticos para la promoción cultural de las especies de murciélagos cubanos solicita de la CUJAE su apoyo para lograr este propósito. Esta necesidad sentida queda diagnosticada mediante los métodos que siguen: Observación participativa, con participación activa. Entrevista informal. Análisis documental. Estudio de literatura científica. A partir del estudio realizado se determinó como problema la Insuficiente divulgación de la información científica acumulada sobre los murciélagos cubanos, por dificultades para masificar dicha información por las vías clásicas (recursos impresos) y como campo de actuación la promoción cultural medioambiental en los niveles de enseñanza primario y universitario. Resultados esperados. Dada la experiencia acumulada por los autores en problemática similares [8-10] se decidió realizar acciones encaminadas a obtener los siguientes resultados: ● Desarrollar contenido digital (multimedia, CD, DVD, etc.) para divulgar el conocimiento sobre los murciélagos de Cuba, sus hábitats, conductas, hábitos alimentarios etc. ● Migrar los contenidos digitales para un ambiente de Android, de forma que pueda ser utilizados desde un teléfono celular o Tablet con ese sistema operativo, lo cual incluye a los futuros dispositivos decodificadores de la TV digital terrestre (“Cajitas”), que serán distribuidos en Cuba. Esta migración contribuirá a la masificación de los conocimientos incluidos en la multimedia. Entre los resultados esperados se tienen como objetivo promover el conocimiento sobre los murciélagos de Cuba y su protección. Estos resultados podrán ser utilizados por cualquier institución docente con fines educativos. También podrán ser utilizados por cualquier otra institución sin ánimos de lucro cuyo objetivo sean el cuidado ambiental, la ecología o la impartición de conocimientos sobre la fauna cubana. Para el desarrollo de este trabajo se partirá de la plataforma ya realizada por parte del proyecto guatiní [8-10]. Resultados y discusión: Como resultado del proyecto se desarrolló una multimedia sobre los Murciélagos de Cuba junto a un juego instructivo, con características similares a un trabajo anterior sobre aves endémicas desarrollado por los autores [8-10]. La multimedia para Android fue suministrada a los especialistas de flora y fauna del refugio de flora y fauna “Sureste del Inglés”, para elevar la capacitación de dichos especialistas en el reconocimiento de dichos mamíferos y en la mejor forma de actuar para lograr su protección. Descripción de la Multimedia desarrollada. La primera versión de la multimedia desarrollada tiene entre sus limitaciones un reducido número de fotografías, videos y audios de los quirópteros debido a las dificultades presentadas para la recolección de estos, y por no contar los autores con todos los medios necesarios para su recolección. En la multimedia se pueden hacer búsquedas por el nombre común, o por su nombre científico. Una vez seleccionada la especie, se le muestra al usuario un texto que contiene el nombre común, su nombre científico y una breve descripción de dicha especie de murciélago, incluyendo aspectos relacionados con la reproducción, nivel de abundancia, alimentación y hábitat típicos de dicha especie y su distribución en el archipiélago cubano. Para incluir un conjunto de especies de murciélagos a la multimedia solo se necesita completar la base de datos con los datos de las especies en concreto que se desean incluir. Esto da la flexibilidad de poder crear una multimedia personalizada para un conjunto de especies en específico sin necesidad de realizar modificaciones al software. Lo anterior permite, por ejemplo, crear una multimedia personalizada con los murciélagos de un área específica ya sea esta de un área protegida, una provincia, municipio, etc. Figura 1. Imágenes de la multimedia. Los juegos desarrollados utilizan la misma base de datos que la multimedia, lo cual permite que quien no tenga conocimiento sobre dichas especies de murciélagos, antes de jugar pueda consultar la multimedia. Lo anterior también facilita la personalización del juego a un conjunto específico de animales, como se mencionó para el caso de la multimedia. En general se pretende que a partir de determinada información el usuario sea capaz de identificar la especie de murciélago. En la Figura 2, se muestra una pantalla del juego donde a partir del nombre común el jugador debe identificar la especie de murciélago a partir de su imagen. Existen otros niveles del juego donde la identificación debe realizarse a partir del nombre científico. Otra variante del Juego consiste en mostrar el nombre científico y que el jugador reconozca la especie. Conclusiones Como se demostró en [8-10] para las aves endémicas, la multimedia actual puede servir como una vía alternativa en la educación medioambiental y en el aprendizaje por parte de las nuevas generaciones de las características de la flora y fauna, en este caso específicamente para los murciélagos de Cuba. Bajo el principio de que se cuida lo que se ama y solo puede amarse lo que se conoce, incentivar el conocimiento de sobre la flora y fauna desde los primeros años de vida es un paso en el cuidado y preservación medioambiental. También es significativo destacar que los juegos pueden servir no solo para entretener, sino también para educar, y que las TICs pueden ser utilizadas con éxito en el cuidado del medio ambiente al instruir a las nuevas generaciones y las no tan nuevas, sobre la flora y la fauna y su cuidado. LOS SERES HUMANOS SOMOS LA ESPECIE DOMINANTE EN ESTE PLANETA; Y POR TANTO TENEMOS LA OBLIGACIÓN Y LA RESPONSABILIDAD DE VELAR POR LA SOBREVIVENCIA DEL RESTO DE LAS ESPECIES QUE LO HABITAN. Reconocimientos Los autores desean agradecer a las siguientes personas e instituciones que aunque no participaron directamente en la elaboración de este artículo, si han contribuido enorme y desinteresadamente con el proyecto “Guatiní”, para ellos nuestro agradecimiento: Luis Miguel González, Jesús Sepúlveda, Noel Rodríguez, Rogelio Horta, Emilio Rodríguez, a la Dirección de Extensión Universitaria de la CUJAE y a los directivos de Refugio de Fauna “Sureste del Inglés” enclavado en Nueva Paz, provincia de Mayabeque. Referencias 1. Monzón_González, J., M. Donnelly_Toronto, and H. Fernández_Ramos, MANUAL PRÁCTICO PARA LA IDENTIFICACIÓN DE LOS MURCIÉLAGOS DE CUBA. 2017, La Habana, Cuba: Fundación Antonio Núñez Jiménez. 2. Taboada, G.S., Los murciélagos de Cuba1979, La Habana Cuba.: Editora de la Academia de Ciencias de Cuba. 3. Brazuelo, F. and M.L. Cacheiro, Estudio de adaptabilidad para dispositivos móviles en plataformas MOOC., 2015, RED. Revista de Educación a Distancia: España. 4. Salvat, B.G., Certezas e interrogantes acerca del uso de los videojuegos para el aprendizaje,. Revista Internacional de Comunicación Audiovisual, Publicidad y Literatura, 2009. 1(7): p. 251-264. 5. Lukin, J.G., Actividades y recursos para la educación ambiental en Educación Infantil, 2014, Universidad de La Rioja. 6. Silva Taboada, G., Orígenes, evolución y extinción de los mamíferos de Cuba. . 2010. 7. https://www.ecured.cu/. Murcielagos Cubanos. 2020 [cited 2020 1/1/2020]; Available from: https://www.ecured.cu/Murciélagos_cubanos. 8. Sepúlveda-Peña, J.C., et al., Guatiní. Un proyecto extensionista para fomentar el conocimiento de la avifauna cubana en las nuevas generaciones a través de las TICs. , in IV Congreso Internacional de Ingeniería informática y Sistemas de Información en el marco de la 19 Convención Científica de Ingeniería y Arquitectura2018: Palacio de las convenciones. La Habana Cuba. 26 al 30 de Noviembre de 2018. 9. Sepúlveda-Peña, J.C., et al., Guatiní. Un proyecto extensionista para fomentar el conocimiento de la avifauna cubana en las nuevas generaciones a través de las TICs. , in 6to. Simposio Nacional de administración, manejo y uso sostenible de los recursos naturales.2018: Playa Giron, Matanzas, Cuba. Noviembre 2018. 10. Sepúlveda-Peña, J.C., et al., Guatiní: Un proyecto para fomentar el conocimiento de la avifauna cubana en las nuevas generaciones. Ciencia y Agricultura, 2019. 16(1): p. 17-30. 11. Aguilar_Mujica, S., et al., Cuba, 2009, BirdLife International: Quito, Ecuador. p. 157-164. 12. Estrada_Betancourt, J.L., Varias aves cubanas sufren peligro de extinción, in Periódico Juventud Rebelde 2007, Periódico Juventud Rebelde: Habana Cuba. 13. E. A. Vandewater, V.J.R., E. A. Wartella, X. Huang, J. H. Lee, and M.-s. Shim, , Digital childhood: electronic media and technology use among infants, toddlers, and preschoolers, 2007, Pediatrics. p. 1006-1015. 14. Gailey, C.W., Mediated Messages: Gender, Class, and Cosmos in Home Video Games,, 1993, The Journal of Popular Culture. p. 81-98. Sobre los autores: Juan Carlos Sepúlveda Peña: Doctor en ciencias técnicas, Profesor Titular de la facultad de Ingeniería Informática de la Universidad Tecnológica de la Habana y Vice decano de Investigación y Postgrado de dicha Facultad, responsable del proyecto extensionista “Guatiní”. Yurisleidy Hernández Moya. Ingeniera en Ciencias Informáticas. Profesor Asistente. Centro Nacional de Educación a Distancia. Universidad de las Ciencias Informáticas. Manuel Borrego: Responsable del área protegida: Refugio de fauna Sureste del Inglés. Colaborador del proyecto “Guatiní”. Gilberto Socorro: Especialista de Flora y Fauna. Colaborador del proyecto “Guatiní”. Luis Miguel González: Dirección CITMA de Nueva Paz. Joel Monzón: Miembro del grupo CubaBat. DESAFÍOS DE LAS PRUEBAS DE APLICACIONES IoT EN ENTORNOS INTELIGENTES CHALLENGES OF TESTING IoT APPLICATIONS IN SMART ENVIRONMENTS Alejandro Miguel Güemes Esperón 1, Martha Dunia Delgado Dapena 2 1, 2 Universidad Tecnológica de La Habana “José Antonio Echevarría” CUJAE, calle 114 No. 11901 entre Ciclovía y Rotonda, Marianao, La Habana, Cuba. 1 aguemes@tesla.cujae.edu.cu, 2 marta@ceis.cujae.edu.cu RESUMEN La sociedad actual y en espacial la Universidad, como fuente de conocimiento innovador, debe y tiene la necesidad de desarrollarse constantemente y de asimilar e implantar las nuevas tecnologías y tendencias que permitan su evolución hacia un nuevo concepto de ciudad inteligente (Smart City) y de universidad inteligente (Smart University). Introducir la concepción de Smart City y Smart University en Cuba significa transitar hacia un nuevo modelo de sociedad y de universidad, que permitirá desarrollar la formación de profesionales, la generación de ciencia e innovación y su impacto en el desarrollo social. Las tecnologías de la informática y las comunicaciones constituyen el elemento principal en el desarrollo de un entorno inteligente. Permiten dotar de inteligencia a todos sus ámbitos y generar servicios que proporcionen una mejor calidad de vida a los miembros de la comunidad y una mayor sostenibilidad de los procesos. En la actualidad no solo los ordenadores, dispositivos móviles, sensores, redes de interconexión y visores dan soporte a los entornos inteligentes, sino que se introducen nuevos conceptos y paradigmas socio-tecnológicos como internet de las cosas (IoT, Internet of Things). En este trabajo se presenta un conjunto de limitaciones, desafíos y particularidades de las pruebas de este tipo de aplicaciones a partir de un estudio inicial de la bibliografía. Además, se propone una estrategia de pruebas y se analizan varias herramientas que tributan a la automatización de las pruebas. PALABRAS CLAVES: pruebas de software, pruebas IoT, Ciudad Inteligente, Universidad Inteligente. ABSTRACT Today's society and especially the University, as a source of innovative knowledge, must and has the need to constantly develop and assimilate and implement new technologies and trends that allow its evolution towards a new concept of smart city (Smart City) and smart university. Introducing the concept of Smart City and Smart University in Cuba means moving towards a new model of society and university, which will allow developing the training of professionals, the generation of science and innovation and its impact on social development. Information technology and communications constitute the main element in the development of an intelligent environment. They make it possible to provide intelligence to all its areas and generate services that provide a better quality of life for the members of the community and greater sustainability of the processes. At present, not only computers, mobile devices, sensors, interconnection networks and viewers support intelligent environments, but new socio-technological concepts and paradigms are being introduced, such as the Internet of Things (IoT, Internet of Things). This paper presents a set of limitations, challenges and peculiarities of testing this type of applications based on an initial study of the literature. In addition, a testing strategy is proposed and several tools that contribute to the automation of tests are analyzed. KEY WORDS: software tests, IoT tests, Smart City, Smart University. 1. INTRODUCCIÓN Dentro de la concepción de Smart City (Ver Fig. 1) se establecen niveles: comunicación, monitorización, negocio o análisis de datos y aplicación [1,2]. La calidad de estas aplicaciones está marcada por la prueba de diferentes escenarios de aplicación con bancos de pruebas que se han socializado [3,4]. En la actualidad no solo los ordenadores, dispositivos móviles, sensores, redes de interconexión y visores dan soporte, sino que se introducen nuevos conceptos y paradigmas socio-tecnológicos como internet de las cosas (IoT, Internet of Things) [1,2]. El objetivo de este trabajo es identificar limitaciones, desafíos y particularidades de las pruebas de este tipo de aplicaciones a partir de un estudio inicial de la bibliografía [1-39]. Figura 1. Arquitectura de una Ciudad Inteligente genérica [1]. 2. DESARROLLO Pruebas de software en entornos inteligentes Las aplicaciones IoT se centran en la interconexión digital de objetos cotidianos con Internet. La arquitectura IoT tiene que cumplir ciertos requerimientos para que esta tecnología sea viable. Debe permitir que la tecnología sea distribuida, donde los objetos puedan interactuar entre ellos, escalable, flexible, robusta, eficiente y segura. En la Fig. 2 se muestra el modelo de arquitectura 7 capas. Esta arquitectura describe la estructura de una solución de IoT, lo que incluye los aspectos físicos (las cosas) y los aspectos virtuales (como los servicios y los protocolos de comunicación). Adoptar una arquitectura con múltiples niveles permite concentrarse en mejorar su comprensión acerca de cómo todos los aspectos más importantes de la arquitectura funcionan antes de que se integre dentro de la aplicación IoT. Este enfoque modular ayuda a gestionar la complejidad de este tipo de soluciones [7]. Figura 2. Arquitectura IoT 7 capas. La diferencia entre probar un software tradicional y una aplicación IoT en un entorno inteligente se basa en que las tradicionales toman su entrada de usuario a través de dispositivos periféricos, y algunos dispositivos que se pueden tocar, pero en IoT muchos dispositivos inteligentes están recibiendo su entrada de otros dispositivos inteligentes como sensores que recogen las métricas y envían los valores al software para analizar estos datos [9, 10]. Por tanto, probar estas aplicaciones a gran escala suele ser difícil, ya que involucran grandes cantidades de datos generados y no se ha encontrado estándares o buenas prácticas en la literatura sobre estrategias de prueba que se ajusten mejor a este tipo de aplicaciones. La prueba de sistemas inteligentes requiere un marco de prueba automatizado debido a la cantidad de dispositivos IoT y el procesamiento de datos provenientes de fuentes diversas, lo que refuerza el carácter combinatorio de estas [4, 9, 11, 18, 19]. Dentro del proceso de prueba la etapa más costosa es el diseño de los casos de pruebas [6]. Lo que hace necesario automatizar su generación utilizando criterios que permitan la reducción de la suite de pruebas y la elevación de sus niveles de efectividad. En las pruebas de software se han empleado diferentes técnicas para diseñar y reducir la suite de pruebas, que podrían ser adecuadas a las condiciones particulares de las aplicaciones de entornos inteligentes [4-6]. Desafíos y limitaciones de las pruebas de aplicaciones IoT Durante la revisión bibliográfica inicial [1-39] se pudo conocer que: • Los aspectos de seguridad y privacidad de las soluciones de IoT se discuten ampliamente en la bibliografía consultada y se proponen muchos enfoques alternativos, sin embargo, siguen siendo, junto a las pruebas, el principal desafío de las soluciones IoT. • El número de artículos que están dedicados a métodos de prueba especializados personalizados para las especificaciones de IoT, es relativamente bajo. • La interoperabilidad de los dispositivos, los protocolos y un gran número de sus posibles combinaciones para probar deberán estar respaldados por una investigación más extensa. • La interoperabilidad de los dispositivos de IoT debe abordarse más en los trabajos científicos. Aquí, se consideran dos corrientes como perspectiva: (1) métodos específicos de IoT para pruebas de integración y (2) métodos de cómo combinar conjuntos eficientes de variantes de dispositivos y partes de infraestructura y versiones, con respecto a la heterogeneidad de las soluciones de IoT y, a veces, incluso a la imposibilidad de actualizar a una versión más reciente del firmware o software del dispositivo. • No se cuenta con una estrategia de prueba general para aplicaciones IoT. Para proyectos de software, muchas pautas sobre cómo determinar la intensidad de las pruebas parte de las particulares del sistema bajo prueba y cómo elegir las mejores técnicas de prueba que existan. Lo mismo se tendrá que tener en cuenta para los proyectos de IoT, respetando todas las especificaciones de las infraestructuras de IoT. • Otra área que vale la pena explorar es el desarrollo de técnicas de diseño de prueba específicas para la prueba de soluciones IoT bajo una conexión de red limitada y restricciones técnicas relacionadas. A medida que la dependencia de los usuarios de Internet y los servicios de IoT crece continuamente, esta área también se vuelve más relevante. • En el área de modelado del sistema bajo prueba, se deberá desarrollar y verificar modelos adecuados para la generación semiautomatizada o automatizada de casos de prueba en el proceso de prueba basado en modelos prácticos. A diferencia de los sistemas de software clásicos, estos modelos también incluirán capas físicas y de protocolo, ya que son mucho más heterogéneas en el caso de las soluciones de IoT. • No hay un patrón definido de estrategias de prueba a seguir por los desarrolladores para el desarrollo de pruebas. • Las técnicas de verificación formal y las pruebas basadas en modelos para aplicaciones IoT y Smart Cities, en general sufren un problema de explosión de estado. • Las aplicaciones IoT involucran una variedad de dispositivos finales distribuidos y multi-escalables. • La naturaleza colaborativa de los sistemas IoT conectados a través de Internet aumenta la heterogeneidad de los datos, por lo que deben ser procesados para una correcta toma de decisiones en un entorno en tiempo real. • Los sistemas de IoT distribuidos de forma remota crean bucles para las violaciones de datos, por lo tanto, abren nuevos desafíos para la seguridad y escalabilidad del sistema. Estrategia de pruebas de aplicaciones IoT A partir del estudio de la bibliografía realizado se propone una estrategia de pruebas de aplicaciones IoT, que incluye: Pruebas de integración: Este tipo de prueba garantiza una interacción estable del software IoT con dispositivos inteligentes. El objetivo de las pruebas de integración es garantizar que los módulos individuales funcionen como se espera después de combinarlos con otros módulos. Muchas organizaciones utilizan pruebas unitarias combinadas o pruebas de flujo de trabajo funcional de un extremo a otro que se utilizan para las pruebas de integración. Pruebas de seguridad: Asegura que el software IoT recopile, analice y procese datos correctamente, sin filtraciones a través de todos los dispositivos, redes y sistemas inteligentes. Es una parte integral de las pruebas que garantiza que el software y las aplicaciones web estén libres de lagunas, vulnerabilidades, amenazas, riesgos que puedan causar una gran pérdida a la empresa/organización, y verifique si sus datos y recursos están protegidos de posibles intrusos. Pruebas de usabilidad: Ayudan a escuchar a los clientes con cuidado, identificando los puntos más vulnerables del flujo de trabajo de la aplicación. Consisten en seleccionar a un grupo de usuarios de una aplicación y solicitarles que lleven a cabo las tareas para las cuales fue diseñada, en tanto el equipo de diseño, desarrollo y otros involucrados toman nota de la interacción, particularmente de los errores y dificultades con las que se encuentren los usuarios. Pruebas de rendimiento: A través de escenarios de prueba de carga, estrés e Internet, se puede simular y probar productos de IoT para aumentar la productividad, la estabilidad de la carga y hacer que el código se ejecute sin problemas dentro de ecosistemas de IoT inusuales. Es una técnica de prueba de software no funcional que determina cómo la estabilidad, la velocidad, la escalabilidad y la capacidad de respuesta de una aplicación se mantiene bajo una determinada carga de trabajo. Pruebas de confiabilidad, compatibilidad y escalabilidad: Estos tipos de pruebas ayudan a construir los entornos de IoT correctos, optimización e implementación de nuevas funciones. La compatibilidad se encarga de la interacción fluida y sin errores entre el software de IoT y diferentes dispositivos inteligentes, plataformas, capas de red y sistemas operativos. La escalabilidad es la prueba de cualquier software o aplicación para verificar su capacidad de soportar y escalar de acuerdo con el número de usuarios que acceden a ella en un momento particular/específico. Herramientas de pruebas de software Existen herramientas para la realización de pruebas. En su gran mayoría son privadas, muy costosas y se necesitan conocimientos de programación para su ejecución. A continuación se muestran algunas de estas herramientas. Parasoft Virtualize [40]: Brinda a los usuarios un control total sobre su entorno de prueba al eliminar los obstáculos, como dependencias no disponibles / inestables o acceso a costosos 11 laboratorios de prueba de terceros. Los usuarios pueden incluso usar Parasoft Virtualize para permitir que las pruebas comiencen antes de que se implemente una dependencia de servicio. Los usuarios pueden crear servicios virtuales ligeros tanto a través del escritorio rico en funciones como de la interfaz web intuitiva que permite incluso a los usuarios novatos crear simulaciones a partir de definiciones de servicios y tráfico registrado. SOAtest [40]: La solución de prueba de API SOAtest de Parasoft es ampliamente reconocida. Con herramientas visuales de arrastrar y soltar, los usuarios pueden crear los escenarios de prueba más complejos sin tener que escribir una sola línea de código. Con su generador de pruebas SMART API plugin para Chrome, SOAtest monitorea la actividad en su interfaz de usuario web a partir de pruebas manuales o exploratorias y convierte las llamadas API entre bastidores en escenarios de prueba API significativos. Para llevar más allá de la simple grabación y reproducción, SOAtest aprovecha la inteligencia artificial y el aprendizaje automático para comprender lo que hacen las llamadas a la API y luego crea un escenario de prueba de API significativo que es reutilizable, dinámico e impactante. Los resultados de las pruebas proporcionan tareas significativas y procesables en SOAtest, sistema de informes rico y dinámico que puede tomar la forma de un informe PDF simple a un documento HTML dinámico multinivel que describe qué pruebas se ejecutaron, cuál era el estado y a qué requisitos estaban asociados, lo que permite que múltiples partes interesadas comprendan el estado de sus aplicaciones críticas. JMeter [41]: Es una herramienta de prueba de código abierto, desarrollada por Apache Software Foundation. Es una aplicación Java pura, que se puede utilizar para medir el rendimiento de aplicaciones, diferentes servicios de software y productos tanto en recursos estáticos como dinámicos. Inicialmente, JMeter fue diseñado para probar aplicaciones web, pero más tarde, se ha expandido para probar otras funciones como pruebas funcionales, pruebas de rendimiento, pruebas de regresión, pruebas de estrés, servidor de bases de datos probado en base a varias tecnologías. SoapUI [42]: Es una herramienta desarrollada en Java, utilizada para pruebas de aplicaciones con arquitectura SOA o REST. Soporta múltiples protocolos como SOAP, REST, HTTP, JMS y JDBC. La herramienta cuenta con una versión de código abierto y otra versión paga desarrollada por la compañía SmartBear. Habilita las pruebas funcionales de API automatizadas, esenciales para los proyectos de prueba de IoT, ya que la mayor parte del intercambio de datos dentro de un sistema de IoT se realiza a través de API. Es una aplicación muy completa, con muchas funcionalidades, con lo cual puede llegar a ser un poco complicada de utilizar para la función que se requiere en cada momento. Acunetix [43]: Esta aplicación ejecuta una serie de pruebas de seguridad, totalmente configurables por el usuario, para identificar las vulnerabilidades tanto en la programación de la página web como en la configuración del servidor, detecta técnicas de hacking como pueden ser ataques de ejecución de código y de autentificación. Una vez concluido este proceso, la versión genera una serie de informes, especificando los fallos detectados en el análisis de la página web. Estos informes se mostrarán en la pantalla en forma de gráfica. Habilita el análisis de vulnerabilidades de las interfaces de usuario web de IoT y las API REST. 3. CONCLUSIONES Con el desarrollo de las aplicaciones informáticas y la aparición de entornos inteligentes, las pruebas de software ocupan a diferentes autores y especialistas expertos en el tema. A través del estudio de la bibliografía se logró identificar limitaciones y desafíos de las pruebas de software en entornos inteligentes, lo que permitió diseñar la estrategia de pruebas propuesta en este trabajo. Además, se pudo conocer que existen herramientas que brindan soporte al proceso de pruebas y contribuyen a su automatización parcial o total, lo que permite agilizar el proceso de desarrollo de aplicaciones en estos entornos y garantizar una calidad adecuada. REFERENCIAS [1] F. MACIÁ, J. V. BERNÁ, J. M. SÁNCHEZ, I. LORENZO, A. FUSTER. Smart University: hacia una universidad más abierta. Marcombo, España, 2017, Isbn 9786076228142. [2] F. MACIÁ, J. V. BERNÁ, J. M. SÁNCHEZ, I. LORENZO. Modelling and Implementing Smart Universities: An IT Conceptual Framework. Sustainability. 2021; 13(6):3397. https://doi.org/10.3390/su13063397. [3] T. V. PHAM. Proposed Smart University Model as a Sustainable Living Lab for University Digital Transformation. 5th International Conference on Green Technology and Sustainable Development (GTSD), 2020, pp. 472-479, doi: 10.1109/GTSD50082.2020.9303086. [4] J. VOAS, R. KUHN AND P. LAPLANTE. Testing IoT Systems. IEEE Symposium on Service-Oriented System Engineering (SOSE), 2018, pp. 48-52, doi: 10.1109/SOSE.2018.00015. [5] B. HAYAT, M. KHALID. IoT Testing-as-a-Service: A New Dimension of Automation. (IJACSA) International Journal of Advanced Computer Science and Applications,Vol. 10, No. 5, Pág. 364. Universidad de Lahore, Campus Chenab, Gujrat, Pakistán, 2019. [6] B. AHMED, M. BURES, K. FRAJTAK AND T. CERNY. Aspects of Quality in Internet of Things (IoT) Solutions: A Systematic Mapping Study. IEEE Access, 1–1, 2019, doi:10.1109/access.2019.2893493. [7] IBM. Internet of Things Architectures: A Comparative Study - Scientific Figure on ResearchGate. Available from: https://www.researchgate.net/figure/Analyze-of-IBM-IoT-Architecture_fig5_340962806 [accessed 6 Jul, 2022]. [8] UIT, Unión Internacional de Telecomunicaciones. “Y.2066: Requisitos comunes de la Internet de las cosas”. https://www.itu.int/rec/T-REC-Y.2066-201406-I/es (2014d) [accessed 6 Jul, 2022]. [9] L. QUIJANO-SÁNCHEZ; I. CANTADOR; M.E. CORTÉS-CEDIEL; O. GIL. Recommender systems for smart cities. Inf. Syst. 2020, 92, 101545. [10] S. FISSI; A. ROMOLINI; E. GORI; M. CONTRI. The path toward a sustainable green university: The case of the University of Florence. J. Clean. Prod. 2021, 279, 123655. [11] B. BRAEM, S. LATRE, P. LEROUX, P. DEMEESTER, T. COENEN AND P. BALLON. Designing a smart city playground: Real-time air quality measurements and visualization in the City of Things testbed. IEEE International Smart Cities Conference (ISC2), 2016, pp. 1-2, doi: 10.1109/ISC2.2016.7580871. [12] A. HARRIS, J. STOVALL AND M. SARTIPI. MLK Smart Corridor: An Urban Testbed for Smart City Applications. IEEE International Conference on Big Data (Big Data), 2019, pp. 3506-3511, doi: 10.1109/BigData47090.2019.9006382. [13] J. FINK. Digital City Testbed Center: Using campuses as smart city testbeds in the binational Cascadia region. IEEE International Conference on Smart Computing (SMARTCOMP), 2020, pp. 362-367, doi: 10.1109/SMARTCOMP50058.2020.00078. [14] A. MORRISSETT AND S. ABDELWAHED. A Physical Testbed for Smart City Research. IEEE/ACS 15th International Conference on Computer Systems and Applications (AICCSA), 2018, pp. 1-2, doi: 10.1109/AICCSA.2018.8612899. [15] M. SVÍTEK, R. DOSTÁL, S. KOZHEVNIKOV Y T. JANČA. Smart City 5. 0 Testbed in Prague. Smart City Symposium Prague (SCSP) , 2020, págs. 1-6, doi: 10.1109 / SCSP49987. 2020.9133997. [16] S. POPERESHNYAK, O. SUPRUN, O. SUPRUN Y T. WIECKOWSKI. Características de prueba de aplicaciones de IoT basadas en la red de modelado, XIV-th International Conference on Perspective Technologies and Methods in MEMS Design (MEMSTECH) , Lviv, Ucrania, 2018, págs. 127-131, doi: 10.1109 / MEMSTECH.2018.8365717. [17] BABUR HAYAT MALIK 1 , MYDA KHALID. IoT Testing-as-a-Service: A New Dimension of Automation. ( IJACSA) International Journal of Advanced Computer Science and Applications,Vol. 10, No. 5, Pág. 364. Universidad de Lahore, Campus Chenab, Gujrat, Pakistán, 2019. [18] B. AHMED, M. BURES, K. FRAJTAK & T. CERNY. Aspects of Quality in Internet of Things (IoT) Solutions: A Systematic Mapping Study. IEEE Access, 1–1, 2019, doi:10.1109/access.2019.2893493 [19] P. FRAGA-LAMAS; M. CELAYA-ECHARRI; P. LOPEZ-ITURRI; L. CASTELO AND L. AZPILICUETA. Design and Experimental Validation of a LoRaWAN Fog Computing Based Architecture for IoT Enabled Smart Campus Applications. Sensors 2019, 19, 3287. [20] J. HWANG, A. AZIZ, N. SUNG, A. AHMAD, F. LE GALL AND J. SONG. AUTOCON-IoT: Automated and Scalable Online Conformance Testing for IoT Applications. In IEEE Access, vol. 8, pp. 43111-43121, 2020, doi: 10.1109/ACCESS.2020.2976718. [21] AK GOMEZ Y S. BAJAJ. Challenges of Testing Complex Internet of Things (IoT) Devices and Systems. 11th International Conference on Knowledge and Systems Engineering (KSE) , 2019, págs. 1-4, doi: 10.1109 / KSE. 2019.8919324. [22] G. MURAD, A. BADARNEH, A. QUSEF AND F. ALMASALHA. Software Testing Techniques in IoT. 8th International Conference on Computer Science and Information Technology (CSIT), 2018, pp. 17- 21, doi: 10.1109/CSIT.2018.8486149. [23] M. KRICHEN. Improving Formal Verification and Testing Techniques for Internet of Things and Smart Cities. Mobile Netw Appl , 2019, https://doi.org/10.1007/s11036-019-01369-6 [24] IEEE. ISO/IEC/IEEE 29119-2, Software and systems engineering - Software testing - Part 2: Test processes. Ed. New York, USA: ISO/IEC/IEEE, 2013. [25] IEEE. ISO/IEC/IEEE 29119-1, Software and systems engineering - Software testing, in Part 1: Concepts and definitions, ed. New York, USA: IEEE, 2013. [26] A. MORI. Anomaly Analyses to Guide Software Testing Activity. IEEE 13th International Conference on Software Testing, Validation and Verification (ICST), 2020, pp. 427-429, doi: 10.1109/ICST46399.2020.00055. [27] L. F. CAPRETZ, P. WAYCHAL, J. JIA, D. VARONA AND Y. LIZAMA. Studies on the Software Testing Profession. IEEE/ACM 41st International Conference on Software Engineering: Companion Proceedings (ICSE-Companion), 2019, pp. 262-263, doi: 10.1109/ICSE-Companion.2019.00105. [28] L. CAVAMURA. Operational Profile and Software Testing: Aligning User Interest and Test Strategy. 12th IEEE Conference on Software Testing, Validation and Verification (ICST), 2019, pp. 492-494, doi: 10.1109/ICST.2019.00062. [29] E. ENOIU, G. TUKSEFERI AND R. FELDT. Towards a Model of Testers' Cognitive Processes: Software Testing as a Problem Solving Approach. IEEE 20th International Conference on Software Quality, Reliability and Security Companion (QRS-C), 2020, pp. 272-279, doi: 10.1109/QRS- C51114.2020.00053. [30] K.J. VALLE, P. DELGADO, I. MEDINA Y J. MAGALLANES. Software Testing: Cost Reduction in Industry 4.0. IEEE / ACM 2019 14th International Workshop on Automation of Software Test (AST) , 2019, págs.69-70, doi: 10.1109 / AST.2019.00018. [31] S. ASHRITHA, T. PADMASHREE. Machine Learning for Automation Software Testing Challenges, Use Cases Advantages & Disadvantages. In International Journal of Science and Research Technology. 5(9), 1301-1307, 2020. [32] M. KHARI, A. SINHA, E. HERRERRA, R. G. CRESPO. On the Use of Meta-Heuristic Algorithms for Automated Test Suite Generation in Software Testing. Toward Humanoid Robots: The Role of Fuzzy Sets: A Handbook on Theory and Applications, 149-197, 2021. [33] D. B. MISHRA, A. A. ACHARYA. Test case generation and optimization for critical path testing using genetic algorithm. In Soft computing for problem solving. 67-80. Springer, Singapore, 2019. [34] A. PANDEY, S. BANERJEE. Test Suite Optimization Using Chaotic Firefly Algorithm in Software Testing. In Research Anthology Recent Trends, Tools, and Implications of Computer Programming (pp. 722-739). IGI Global, 2021. [35] B. C SILVA, G. CARVALHO, A. SAMPAIO . CPN simulation-based test case generation from controlled natural-language requirements. Science of Computer Programming, 181, 111-139, 2019. [36] J. M. ZHANG, M. HARMAN, L. MA, Y. LIU . Machine learning testing: Survey, landscapes and horizons. IEEE Transactions on Software Engineering, 2020. [37] E. SERNA, R. MARTÍNEZ, P. TAMAYO, I. U. DE ENVIGADO. Una revisión a la realidad de la automatización de las pruebas del software. Computación y Sistemas, 23(1), 169-183. 2019. [38] E. SERNA M., R. MARTÍNEZ M., P. A. TAMAYO O. Un modelo para determinar la madurez de la automatización de las pruebas del software como área de investigación y desarrollo, Computación y Sistemas, vol. 21, pp. 337-352, 2017. [39] R. KHAN, M. AMJAD, A. K. SRIVASTAVA. Optimization of Automatic Test Case Generation with Cuckoo Search and Genetic Algorithm Approaches. Singapore, 2018, pp. 413-423. [40] PARASOFT. Available from: https://www.parasoft.com [accessed 6 Jul, 2022]. [41] A. S. FOUNDATION. Available from: https://www.jmeter.apache.org [accessed 6 Jul, 2022]. [42] SMARTBEAR. Available from: https://www.soapui.org [accessed 6 Jul, 2022]. [43] ACUNETIX. Available from: https://www.acunetix.com [accessed 6 Jul, 2022]. Sobre los autores ALEJANDRO MIGUEL GÜEMES ESPERÓN, profesor de la Facultad de Ingeniería Informática en la Universidad Tecnológica de La Habana "José Antonio Echeverría", CUJAE; donde ha estado trabajando desde 2020. Obtuvo su título de Ingeniero Informático en la CUJAE en el año 2020 y en diciembre de 2021 el de Máster en informática aplicada. Ha participado en proyectos de investigación relacionados con calidad y pruebas de software, ingeniería de requisitos e ingeniería de software basada en búsquedas. Ha publicado artículos y participado en eventos nacionales e internacionales en temas de Ingeniería de Software, abordando la temática de Automatización de pruebas de software. Actualmente es estudiante de doctorado en informática, desarrollando su investigación en el campo de las pruebas de aplicaciones IoT en entornos inteligentes. MARTHA DUNIA DELGADO DAPENA, Vicerrectora Primera en la Universidad Tecnológica de La Habana "José Antonio Echeverría", CUJAE; donde ha estado trabajando desde 1995. Obtuvo su Doctorado en Ciencias Técnicas en Cuba y es Profesora Titular desde 2006. Ha participado en proyectos de investigación relacionados con calidad y pruebas de software, ingeniería de requisitos e ingeniería de software basada en búsquedas. Ha publicado artículos y participado en eventos en temas de Ingeniería de Software y en la utilización de Inteligencia Artificial para resolver problemas en esta área. Método de evaluación de la satisfacción de los estudiantes de posgrado empleando el modelo 2- tuplas Method of evaluating graduate student satisfaction using the 2-tuple model Yoisbel Tabares León 1*, Universidad de las Ciencias Informáticas. Carretera San Antonio de los Baños 1 km ½. La Lisa. La Habana. yoisbel@uci.cu Yeleny Zulueta Véliz 2, Universidad de las Ciencias Informáticas. Carretera San Antonio de los Baños 1 km ½. La Lisa. La Habana. yeleny@uci.cu Yadira Beatriz Reyes García 3, Universidad de las Ciencias Informáticas. Carretera San Antonio de los Baños 1 km ½. La Lisa. La Habana. yreyesg@uci.cu RESUMEN El presente trabajo se analiza el enfoque de educación a distancia utilizado por las instituciones educacionales para minimizar los efectos de la COVID-19. La satisfacción del estudiante en posgrado depende en gran medida de los contenidos impartidos, incluyendo tanto la riqueza de este como la regularidad de las actualizaciones y la interacción con el docente. En este estudio se analizan los patrones de satisfacción de los cursos en la modalidad a distancia empleando el modelo 2-tuplas en la Escuela de Verano 2020 de la Universidad de las Ciencias Informáticas. Se aplicaron los métodos científicos análisis–sintético, modelación y recopilación de información mediante la encuesta, se diseña el proceso de evaluación en la herramienta Flintstones permitiendo exponer los resultados de la aplicación del modelo en el curso Computación con Palabras para la Toma de Decisiones. PALABRAS CLAVES: 2-tuplas lingüística, criterio de satisfacción, evaluación de la satisfacción. INTRODUCCIÓN En la década de los setenta del siglo XX surge la “Educación a Distancia” lo que responde a un nuevo enfoque dentro de las necesidades sociales, como modalidad revolucionaria en el sistema educacional (Alfonso, 2003). Aunque pueden encontrarse en la literatura diferentes conceptos para EaD, varios autores: (Fuentes y Pujals, 2006), ((Heedy y Uribe, 2008), y (García, 2017) coinciden en que su esencia radica en la combinación de educación y tecnologías de la comunicación guiada por el docente. La satisfacción del usuario es uno de los criterios para medir la calidad de los cursos en la modalidad a distancia (Castañeda, 2007). Que depende en gran medida de lo valioso de los contenidos impartidos, que incluye tanto la riqueza de este como la regularidad de las actualizaciones. Se mide en función de la oportunidad, la exactitud, la pertinencia y el formato de la información. La satisfacción está influida más por la calidad del curso que por el tipo de tecnología utilizada para impartir las instrucciones (Dirección de Educación de Posgrado 2020). En Cuba la Junta de Acreditación Nacional (JAN) tiene patrones para medir la calidad a nivel de instituciones y programas de doctorado, maestrías y especialidad, sin embargo, no existe un patrón para los cursos y entrenamientos (JAN 2014). En la modalidad a distancia, el problema es mayor pues no hay patrón aprobado a ningún nivel. Desde el año 2020 con la aparición del COVID-19, en las instituciones universitarias cubanas se opta por este tipo de modalidad para continuar con la superación de los trabajadores, incrementando el cumplimiento de los indicadores de los objetivos por el Ministerio de Educación Superior (MES) en cuanto a cantidad de posgrados a impartir y recibir. Para fortalecer la formación integral de los profesionales, las universidades establecen una serie de programas y servicios posgraduados, los cuales se rigen por indicadores para medir la satisfacción en los estudiantes. Los indicadores no sólo deben basarse en el programa de la asignatura sino considerar el proceso y los resultados, de este modo el instrumento debe reflejar la verdad sobre los cursos impartidos. En la Universidad de las Ciencias Informáticas (UCI) la Dirección de Educación y Posgrado, guía metodológicamente la gestión de los cursos que se imparten para la superación de los trabajadores, se nutre de los cursos realizados por los profesionales que se encuentran en las seis Facultades, los 13 Centros Productivos y cuatro Centros de Estudios. Se dividen en las Escuelas Internacionales de Verano e Invierno, Aniversario de la UCI, la de Posgrado de Mayo, así como las de Superación Profesional que se imparten durante todo el año. El control de la calidad de los cursos desarrollados se realizó a través de una encuesta de satisfacción aplicada a los estudiantes (Dirección de Educación de Posgrado, 2020). El instrumento evaluó en la escala de Likert del uno al cinco, la satisfacción de los cursistas con los siguientes aspectos: la guía de estudios, cumplimiento de los objetivos, labor desempeñada por los profesores, dominio del contenido por parte de los profesores, orientación, interacción y retroalimentación, criterios de evaluación utilizados, exigencia de los profesores en las evaluaciones, carga de trabajo asignada para desarrollar el curso, canales de comunicación (foros, chats, correo...), bibliografía recomendada, variedad de recursos utilizados, calidad de los recursos empleados, cumplimiento de las expectativas, satisfacción con el curso. (Zadeh, 1975) introdujo el concepto de variable lingüística como "una variable cuyos valores no son números, sino palabras o frases en un lenguaje natural o artificial". Un valor lingüístico es menos preciso que un número, pero está más cerca de los procesos cognitivos humanos utilizados con éxito para resolver problemas que tratan de la incertidumbre. Un enfoque común para modelar la información lingüística es el enfoque lingüístico difuso que utiliza la teoría de conjuntos difusos para gestionar la incertidumbre y modelar la información lingüística utilizando el concepto de variable lingüística (Sánchez 2008) y (Ruiz, Santamaria y Andrade 2021). El objetivo de la presente investigación es desarrollar un método que contribuya a evaluar la calidad de los cursos a distancia desde la perspectiva de la satisfacción del estudiante para obtener resultados interpretables. Esta técnica permite unificar los criterios en situaciones de incertidumbre o ambigüedades, ayudando así a la toma de decisiones. Para comprobar la validez del procedimiento se utilizó una base de base de datos de 18 cursos impartidos en la Escuela de Verano del 2020 UCI. Los resultados obtenidos durante la aplicación de la técnica 2-tuplas lingüística y los obtenidos por la plataforma Moodle, fueron comparados con los resultados obtenidos de los criterios dados por los expertos. MÉTODOS COMPUTACIONAL De los 418 expertos que evaluaron los 18 cursos impartidos en la Escuela de Verano 2020, UCI con experiencia de recibir los cursos en la plataforma Moodle, con la información sobre calidad de la guía de estudio, cumplimiento de los objetivos, labor desempeñada por los profesores, dominio del contenido por parte de los profesores orientación, interacción y retroalimentación brindada por los profesores, criterios de evaluación utilizados, exigencia de los profesores en las evaluaciones, carga de trabajo asignada para desarrollar el curso, canales de comunicación, bibliografía recomendada, variedad de recursos de aprendizaje calidad de los recursos de aprendizaje, cumplimiento de las expectativas, satisfacción con el curso. Los expertos emitieron sus criterios sobre qué evaluación dan a los cursos. Los resultados obtenidos fueron utilizados como patrón de comparación con los resultados obtenidos de aplicar el método 2-tuplas lingüística. Proceso de evaluación de la satisfacción de los cursos de posgrado a distancia La EaD es el complemento idóneo de la enseñanza presencial (Sánchez, 2008), procedimiento de medicación entre educandos y profesores en el desarrollo del proceso enseñanza-aprendizaje utilizando racionalmente las TIC con el objetivo que el conocimiento resulte más eficaz y eficiente de apropiarse. Para medir la calidad a nivel de instituciones y programas de doctorado, maestrías y especialidades, el MES (2014), concibe la integración de la pertinencia social y la excelencia académica, se evidencian al someterse a procesos de autoevaluación o evaluación externa organizados por la Junta de Acreditación Nacional (JAN). La JAN (2018 )es el órgano que certifica la calidad de las carreras universitarias, los programas de posgrado académico e Instituciones de la Educación Superior mediante un patrón de calidad. Se entiende por calidad la conjunción de la excelencia académica y la pertinencia social dada por los fines del desarrollo del proyecto histórico, sociocultural y económico cubano expresadas en variables e indicadores. Se definen los respectivos patrones de calidad en los sistemas de evaluación y acreditación correspondientes a las diversas formas organizativas de la educación de posgrado. Los estándares y criterios de evaluación se expresan mediante variables e indicadores. La satisfacción es muy sutil, vale la pena recordar que la satisfacción es parte de la calidad, pues no puede hablarse de calidad sin que exista. Para la satisfacción estudiantil, se trata en consecuencia de la percepción emocional y del conocimiento del estudiante frente a las características del curso que le permite lograr sus objetivos, intereses y expectativas y a la vez solucionar sus necesidades y encontrar respuesta a sus preguntas. Para logar una homogeneidad se utilizan un conjunto de 14 atributos a evaluar. Método de evaluación de la satisfacción de los cursos de posgrado a distancia en la UCI El estudio de la calidad de los cursos se basa en una encuesta de satisfacción en línea que completa el estudiante una vez concluido el curso y en la que valoran los aspectos que se ilustran en el epígrafe anterior. Lo cual permitió detectar limitación en los cursos tales como:  No existe un patrón para los cursos y entrenamientos a distancia.  El control de la calidad se evalúa mediante una escala de Likert del 1 al 5.  Baja interpretabilidad de los resultados. Además de estas variables el método no tiene en cuenta la incertidumbre y la ambigüedad de los evaluadores entorno a los cursos pues la satisfacción depende en gran medida del estado de ánimo en que se encuentre el evaluador en el momento de emitirla. De ahí que, al utilizar valores numéricos para la valoración de las variables, en el método puede producirse una toma de decisión errada. Figura 1 Esquema de las etapas del procedimiento propuesto Para estructurar el método de evaluación, ajustamos un proceso de toma de decisión ampliamente aplicado para resolver problemas de evaluación en el marco lingüístico (Martínez, Rodriguez y Herrera 2015). Etapa 1: Definición del marco de trabajo. Construye un modelo que defina un marco que establezca la estructura del problema, las preferencias, la incertidumbre, etc. Definición de los que participarán como expertos en el proceso de evaluación de la satisfacción de los cursos de posgrado a distancia. La muestra incluyó 312 estudiantes que representan el 79,19% de la población, por lo que puede considerarse representativa. Se trata de la mayor muestra lograda en el contexto de las escuelas de posgrado de la UCI. Se identifican a los evaluadores como el conjunto, tal que n. Se define los indicadores como el conjunto, los cuales se tendrán en cuenta durante la valoración de las características en el proceso de evaluación de la satisfacción de los cursos de posgrado a distancia. ● Calidad de la guía de estudio, cumplimiento de los objetivos, labor desempeñada por los profesores, dominio del contenido por parte de los profesores, orientación, interacción y retroalimentación brindada por los profesores, criterios de evaluación utilizados, exigencia de los profesores en las evaluaciones, carga de trabajo asignada para desarrollar el curso, canales de comunicación, bibliografía recomendada, variedad de recursos de aprendizaje, calidad de los recursos de aprendizaje, cumplimiento de las expectativas, satisfacción con el curso. El marco de valoración de los atributos se basa en términos lingüísticos que se pueden diagramar de acuerdo a las características que representa cada indicador sobre la satisfacción de los cursos de posgrado a distancia (ver Figura 2). Los criterios del gráfico de la figura 2 sirven para decidir el nivel de satisfacción de los cursos de posgrado a distancia impartidos en la UCI. Mientras más cerca esté el área de los criterios valorados por los encuestados del centro del gráfico, más alto será el nivel de satisfacción y mientras más lejos del centro, será más bajo el nivel de satisfacción. Figura 2 Criterios para evaluación de la satisfacción de los cursos Etapa 2: Selección del conjunto de términos lingüísticos (CTL) y sus semánticas. Se define el CTL como el conjunto, para que los evaluadores a través de ellos puedan expresar con facilidad su percepción y conocimientos sobre las características y el entorno en que esta inserido el proyecto. Para que una fuente de información (expertos) pueda expresar con facilidad su información y/o conocimiento es necesario que se disponga de un conjunto apropiado de descriptores lingüísticos. Un aspecto muy importante de este conjunto es el número de etiquetas lingüísticas disponible para expresar la información, denominado la granularidad de la incertidumbre (Crêspo et al. 2018). En esta investigación, se considera un conjunto de cinco términos lingüísticos = {muy insatisfecho (MI); insatisfecho (I); satisfecho (S); muy satisfecho (MS); extremadamente satisfecho (ES)} de los cuales se considera apropiado para la valoración de las variables propuestas. Aplicando estos conceptos al conjunto de etiquetas lingüísticas definidos anteriormente, se obtiene una definición semántica como se muestra en la figura 3. Figura 3 Conjunto de cinco términos lingüísticas uniformemente distribuidos A partir de la figura 3 se establece la siguiente función de pertenencia triangular asociada a cada elemento del conjunto S. S0= (0, 0, 0.25); S1= (0, 0.25, 0.5); S2= (0.25, 0.5, 0.75); S3= (0.5, 0.75, 1); S4= (0.75, 1, 1) Se define el vector de utilidades para expresar las preferencias de los evaluadores sobre los cursos. Donde representa la preferencia del evaluador sobre el criterio (ver Tabla 1). Tabla 1 : Preferencias de los evaluadores Criterios Expertos e1 … en c1 … . . . . . . . . cp … Etapa 3: Recopilación de preferencias. Obtiene las preferencias proporcionadas por los alumnos para cada curso en línea según los atributos de satisfacción. Para la recogida de las preferencias se elaboró un conjunto de preguntas cerradas para cada criterio de evaluación definidos en las que se le solicita al experto que emita su valoración utilizando la escala CTL mencionada anteriormente (ver Figura 3). Al emitir sus preferencias, los expertos deben tener en cuenta los indicadores propuestos para cada criterio de evaluación (ver Tabla 5). Etapa 4: Agregación. La agregación tiene como objetivo fusionar la información recogida en la encuesta y presenta los resultados en un procedimiento paso a paso. En cada paso se obtienen resultados relevantes que pueden utilizarse para apoyar las decisiones. Transformación de las preferencias de los expertos a 2-tuplas lingüísticas El modelo de representación lingüístico 2-tuplas se basa en el concepto de traslación simbólica (Martínez y Herrera 2012)En este modelo, la información lingüística se representa mediante un par de valores (si, a) denominados 2-tuplas, siendo si un término lingüístico, y un número que representa la traslación simbólica. Este modelo de representación lingüística de la información es soportado por un modelo computacional basado en las funciones de transformación ∆ y ∆-1, que transforman valores numéricos en 2-tuplas y viceversa sin pérdida de información (Felix-Benjamín et al. 2015). Tomando a s = {s0; …; sg} como un conjunto de términos lingüísticos y β∈ [0, g] un valor en el intervalo de granularidad de S. La translación simbólica de un término lingüístico si es un número valorado en el intervalo [-0.5, 0.5) que representa la “diferencia de información” entre una cantidad de información expresada por el valor β∈ [0, g] obtenido en una operación simbólica y el valor entero más próximo i∈[0,g] que indica el índice de la etiqueta lingüística (si ) más cercana (Renté, González y Delgado 2019). Si β∈[0, g] es un valor obtenido de una operación simbólica, la 2-tuplas que expresa la información equivalente a β se obtiene como: Donde: round es el operador usual de redondeo, si es la etiqueta con índice más cercano a β y α es el valor de la traslación simbólica. Se debe tener en cuenta que ∆ es biyectiva y ∆-1: es definida por ∆-1 (si, α) = i+α = β El resultado de una operación de agregación debe de ser consistente con la representación de los valores de entrada, lo que significa que el resultado de la agregación de 2-tuplas debe ser una 2-tuplas. Se transforman todas las preferencias de los evaluadores a un término lingüístico 2-Tuplas. Considerándose que todos los criterios son emitidos sobre un mismo conjunto de etiquetas lingüísticas, la transformación de las preferencias se realiza de forma directa, asumiendo que la traslación simbólica del valor otorgado es igual a cero (Crêspo et al. 2018). De esa manera, la 2-tuplas lingüísticas de si queda como (si, 0), como se muestra en la tabla 2. Tabla 2 Conversión de las preferencias a 2-tuplas lingüísticas Preferencias lingüísticas Transformación a 2-tuplas lingüísticas MI (MI, 0) I (I, 0) S (S, 0) MS (MS, 0) ES (ES, 0) Como resultado de este paso se obtiene una tabla con todas las preferencias de los evaluadores transformadas a 2-Tuplas lingüísticas (ver Tabla 3). Tabla 3 Preferencias de los evaluadores en 2-tuplas lingüísticas Criterios Expertos e1 … en c1 … . . . . . . . . cp … Agregación según el modelo lingüístico 2-tuplas Se simplifica la información de las preferencias lingüísticas, obteniendo valoraciones colectivas de cada variable que exprese la información de las preferencias unificadas en 2-tuplas lingüística, y de esta forma, facilitar el análisis y la toma de decisiones sobre los cursos de posgrado. La agregación se realiza utilizando el operador de media aritmética. Como resultado del proceso de agregación se obtiene una tabla con los valores colectivos de cada criterio de evaluación (ver Tabla 4). Tabla 4 Valores colectivos para cada criterio de evaluación Criterios Expertos Valor colectivo por criterio e1 … … . . … en Y1 c1 . . . . . . . . . cp Yp Etapa 5: Explotación. Proporciona la importancia práctica de los resultados obtenidos en el paso anterior. A partir de los valores colectivos para cada criterio de evaluación obtenidos en los pasos de la agregación, se procede a su diagramación y análisis utilizando el diagrama radial (ver Figura 2) y finalmente la toma de decisiones. Para la representación gráfica que facilita el análisis de los resultados, se puede igualar las 2-tuplas lingüística obtenidos en la etapa de la agregación a un número correspondiente en el intervalo de 0 a 1, resultando en: criterios ascendentes: MI=0; I=0,25; S=0,5; MS=0,75; ES=1 y criterios descendentes: ES=1; MS=0,75; S=0,5; I=0,25; MI=0. Tomando en cuenta las etiquetas lingüísticas y sus respectivas translaciones de cada par 2-tuplas, se estima el radio de cada criterio en el diagrama radial (ver Figura4). Figura 4 Ejemplo de los valores obtenidos a partir de cada criterio RESULTADOS Y DISCUSIÓN Para hacer un análisis de la validez de la propuesta 2-tuplas lingüística, entre el método de Moodle se compararon, el cual sirvió como patrón. Se tomó de una base de datos de 18 cursos impartidos en la Escuela de Verano del 2020 UCI y, a partir de los valores colectivos para cada criterio de evaluación obtenidos en los pasos de la agregación, se realizaron los diagramas radiales para cada curso. Los diagramas se normalizaron y se logró una escala estandarizada para cada uno con criterios independientes. Esto permitió calcular las áreas de cada uno de ellos y establecer el coeficiente de equivalencia, para obtener el área normalizada de cada proyecto. A partir de los resultados obtenidos se determinó la desviación que tenía cada método respecto al criterio de expertos, la cual se muestra en la tabla 5. Tabla 5 Resultados obtenidos por la propuesta lingüística 2-tuplas respecto a las obtenidas por el método tradicional No Cursos Método tradicional Método 2-tuplas 1 Computación con Palabras para la Toma de Decisiones 4,95 ES 2 Métodos de evaluación de criterio de expertos 4,95 ES 3 Algoritmización con Scratch 4,94 ES 4 Ingeniería de requisitos 4,92 ES 5 Introducción a la Bioinformática 4,9 ES 6 Educación mediática y competencias digitales 4,87 ES 7 An introduction to academic writing in English 4,83 ES 8 Posicionamiento Web 4,83 ES 9 Introducción al Enfoque del Marco Lógico 4,82 ES 10 Introducción a postgreSQL 4,8 ES 11 Gestión del conocimiento en la red 4,8 ES 12 Introducción a la criptografía y sus aplicaciones 4,8 ES 13 Introducción a la evaluación de la usabilidad 4,78 ES 14 Fundamentos de la Ciberseguridad 4,78 ES 15 Distribución cubana de GNU/Linux Nova Escritorio 6.0 4,77 ES 16 Gestión de redes y servicios telemáticos 4,73 ES 17 Introducción a las redes neuronales artificiales 4,49 MS Comparando los dos procedimientos el método basado en operadores de agregación tradicionales proporciona un número difuso como resultado, por lo que podría considerarse preciso, pero el resultado es difícil de entender. Por lo tanto, produce pérdida de información y falta de precisión en los resultados. Para obtener un resultado interpretable, es necesario aplicar un proceso de aproximación, pero esto implica pérdida de información y falta de precisión en sus resultados. Debido a la falta de precisión y a la pérdida de información en los procesos de cálculo del método anterior, el modelo lingüístico 2-tuplas con el fin de proporcionar un modelado lingüístico que represente la información lingüística discreta como un dominio continuo para evitar la pérdida de información, permite a los expertos utilizar la evaluación lingüística basada en su experiencia y conocimientos. Pueden expresar sus juicios de manera más realista y precisa. Los resultados finales son más razonables, confiables y más cercanos al modelo común de comunicación de las personas. La principal ventaja es que es posible evaluar situaciones de incertidumbre, con la información lingüística proporcionada. De esta manera, le da una solución más completa del problema de evaluación de la satisfacción, porque considera diferentes criterios emitidos por diferentes expertos. CONCLUSIONES El análisis de los referentes teóricos relacionados al proceso de evaluación de la satisfacción en estudiantes de posgrado a distancia y los métodos para calcular, permitió conocer las tendencias actuales de evaluación de la satisfacción. La caracterización del contexto actual en la educación posgraduada a distancia sobre la organización eh impartición de los cursos, permitió una alineación con los componentes de la propuesta de solución. El desarrollo de un método de trabajo, con sus etapas y actividades contribuye a la viabilidad en la gestión de la evaluación de la satisfacción en los cursos de posgrado a distancia. La aplicación de los métodos de validación, Delphi, Comparación de los métodos y Técnica de Iadov, así como el método de control triangulación metodológica para evaluar los resultados, permitieron comprobar su aplicabilidad en entornos reales, el nivel de correlación entre los procesos de formación e investigación y el buen nivel de satisfacción presentado por los usuarios. La aplicación de una herramienta informática de apoyo a la gestión de la evaluación, permite contribuir a la centralización, organización y disponibilidad de la información generada, haciéndola perdurar en el tiempo y permitiendo adaptarse a otros entornos. REFERENCIAS ALFONSO, I., 2003. La educación a distancia. ACIMED, vol. 11, no. 1, pp. 3-4. ISSN 1024-9435. CASTAÑEDA, M.M., 2007. La calidad de la educación a distancia en ambientes virtuales. , vol. 7, no. núm. 6, pp. 14. ISSN 1665-6180. CRÊSPO, J., VERDECIA, P., PÉREZ, I. y PORRO, N., 2018. Propuesta lingüística 2-Tuplas para la selección del tipo de metodología de desarrollo de software. , DIRECCIÓN DE EDUCACIÓN DE POSGRADO, 2020. Escuela Internacional de Verano a Distancia 2020. Informe Final. septiembre 2020. S.l.: s.n. FELIX-BENJAMÍN, G., CALERO-MUELA, C., ESQUIVEL, R. y BELLO-PÉREZ, R., 2015. Implementation of computing with words in evaluating training program. DYNA, vol. 82, no. 193, pp. 39-48. ISSN 2346-2183, 0012-7353. DOI 10.15446/dyna.v82n193.44553. FUENTES, C.A. y PUJALS, D.P.S., 2006. MODELO DE COMUNICACIÓN PARA LA ENSEÑANZA A DISTANCIA EN INTERNET. España: Universidad Autónoma de Barcelona. GARCÍA ARETIO, L., 2017. Educación a distancia y virtual: calidad, disrupción, aprendizajes adaptativo y móvil. RIED. Revista Iberoamericana de Educación a Distancia, vol. 20, no. 2, pp. 9. ISSN 1390-3306, 1138-2783. DOI 10.5944/ried.20.2.18737. HEEDY, C. y URIBE, M., 2008. La educación a distancia: sus características y necesidad en la educación actual. , pp. 21. JAN, 2018. Reglamento del Sistema de Evaluación y Acreditación de la Educación Superior. 13 julio 2018. S.l.: s.n. 150/18. JAN, J. de A.N., 2014. Sistema de Evaluación y Acreditación de Instituciones de Educación Superior (SEA-IES). [en línea]. S.l.: Disponible en: https://instituciones.sld.cu/cedas/files/2016/06/4.pdf. MARTI´NEZ, L. y HERRERA, F., 2012. An overview on the 2-tuple linguistic model for computing with words in decision making: Extensions, applications and challenges. Information Sciences, vol. 207, pp. 1-18. ISSN 00200255. DOI 10.1016/j.ins.2012.04.025. MARTÍNEZ, L., RODRIGUEZ, R.M. y HERRERA, F., 2015. The 2-tuple Linguistic Model [en línea]. Cham: Springer International Publishing. [Consulta: 28 mayo 2021]. ISBN 978-3-319-24712-0. Disponible en: http://link.springer.com/10.1007/978-3-319-24714-4. RUIZ, M., SANTAMARIA, D. y ANDRADE, E., 2021. Análisis jurídico comparativo del derecho de las personas de atención prioritaria, basada en conjuntos de números de 2-tuplas. Universidad y Sociedad, vol. 13, no. S1, pp. 227-237. ISSN 2218-3620. SÁNCHEZ, R., 2008. Metodología para el diseño conceptual de almacenes de datos. [en línea], [Consulta: 28 octubre 2017]. Disponible en: https://riunet.upv.es/handle/10251/2506 ZADEH, L.A., 1975. The Concept of a Linguistic Variable and its Application to Approximate Reasoning. Journal of Information Science, pp. 199. sobre los autores Yoisbel Tabares León profesor instructor de la Universidad de las Ciencias Informáticas, Yeleny Zulueta Véliz profesora titular y doctora de la Universidad de las Ciencias Informáticas y Yadira Beatriz Reyes García profesora asistente y máster de la Universidad de las Ciencias Informáticas. REVISIONES FINALES Antes de enviar su artículo le recomendamos hacer las siguientes revisiones finales: 1. Revise la secuencia de los encabezados. 2. Revise la numeración de las referencias, las ecuaciones, las tablas y las figuras. 3. Revise las citas en el texto de las referencias, figuras, tablas y ecuaciones. ANÁLISIS DISCRIMINANTE EN LA IDENTIFICACIÓN DEL DISPOSITIVO DE CAPTURA DE IMÁGENES DIGITALES Francisco Cruz-Ávila1, Ana Laura Quintanar-Reséndiz2, Omar Jiménez-Ramírez1, Luis Niño-de-Rivera-y-Oyarzabal1 y Rubén Vázquez-Medina2,* 1Instituto Politécnico Nacional, Escuela Superior de Ingeniería Mecánica y Eléctrica Unidad Culhuacan, Av. Santa Ana 1000, Col. San Francisco Culhuacan, Coyoacán, CDMX, 04430, México. 2Instituto Politécnico Nacional, Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada Unidad Querétaro, Cerro Blanco 141, Col. Colinas del Cimatario, 76090, Querétaro, México. *Autor de correspondencia, e-mail: ruvazquez@ipn.mx RESUMEN Se han propuesto diferentes soluciones para abordar el problema de la identificación del dispositivo de captura de las imágenes digitales. Sin embargo, sigue siendo un reto ofrecer alternativas que reduzcan el tiempo de procesamiento en la identificación del dispositivo de captura y la reducción del número de imágenes utilizadas para construir la huella digital de la fuente de captura. Para resolver el problema mencionado, en este trabajo se propone un algoritmo que identifica el dispositivo de origen de una imagen digital a partir del cálculo de la huella digital de los dispositivos de captura candidatos y del ruido intrínseco dentro de una imagen digital en disputa. En el algoritmo propuesto se realiza un análisis discriminante de los ruidos intrínsecos de una imagen para contrastarlos por distancia de Mahalanobis con las huellas digitales de los dispositivos de captura candidatos. La cualidad más importante del algoritmo propuesto es que reduce a sólo una el número de imágenes digitales necesarias para calcular la huella del dispositivo de captura y pretende reducir el tiempo de procesamiento en el proceso de identificación ya que trabaja con recortes de imágenes y no utiliza imágenes digitales completas. Los resultados obtenidos para un caso de estudio se comparan satisfactoriamente con otras alternativas desarrolladas a partir de la divergencia de Kullback-Leibler. PALABRAS CLAVES: Ruido intrínseco en imágenes, huella digital en dispositivos de captura, análisis discriminante, distancia de Mahalanobis, comparación estadística de ruido intrínseco. DISCRIMINANT ANALYSIS IN DIGITAL IMAGE CAPTURE DEVICE IDENTIFICATION ABSTRACT Different solutions have been proposed to address the problem of identifying the capture device of digital images. However, it is still a challenge to offer alternatives that reduce the processing time in the capture device identification and the images number reduction used to build the capture source fingerprint. In order to solve the mentioned problem, it is proposed an algorithm that identifies the source device of a digital image from the calculation of the fingerprint of the candidate capture devices and the intrinsic noise inside a digital disputed image. The proposed algorithm applies a discriminant analysis of the image intrinsic noises to contrast them by Mahalanobis distance with the fingerprints of the candidate capture devices. The most important quality of the proposed algorithm is that it reduces to only one the digital images number required to calculate the capture device fingerprint and aims to reduce the processing time in the identification process because it works with image clippings and does not use complete digital images. The results obtained for a case study are successfully compared with other alternatives developed from the Kullback-Leibler divergence. KEY WORDS: Image intrinsic noise, capture device fingerprint, discriminant analysis, Mahalanobis distance, statistical comparison of intrinsic noise. 1. INTRODUCCIÓN Los dispositivos de telefonía celular son dispositivos inteligentes de comunicación personal que en la actualidad pueden considerarse los principales generadores de imágenes digitales, ya que ellos cuentan con al menos un dispositivo de captura o cámara fotográfica digital. Debido a que el marco legal mexicano lo permite, en la mayoría de los casos, las imágenes digitales producidas por estos dispositivos pueden usarse como material probatorio en un juicio penal, civil, médico o administrativo. Al igual que en el caso de balística, cundo se tiene una imagen en análisis lo primero que se busca saber es que dispositivo la capturó y en consecuencia que individuo realizó tal acción. Por estas circunstancias, el análisis forense multimedia puede tomar relevancia en cuanto a la adquisición de los indicios relevantes que permitan establecer las relaciones imagen-dispositivo y dispositivo-individuo. Una forma trivial de identificar los dispositivos de captura puede ser usando los metadatos de la imagen digital. Sin embargo, esta información puede ser modificada o borrada impidiendo la identificación efectiva [1]. Por otro lado, para la identificación de un dispositivo de captura también es posible emplear la PRNU (Photo Response Non-Uniformity) que se encuentran en las imágenes analizadas, la cual contiene intrínsecamente indicios que permitan hace una identificación unívoca de los dispositivos. Debido a que la PRNU es una señal intrínseca que un dispositivo de captura registra en una imagen digital al momento que la conforma, se considera un elemento útil en la identificación unívoca del dispositivo de captura. Según los trabajos publicados en 2009 por Fridrich [2] y Goljan et al. [3], son cinco las principales propiedades de la PRNU: • Dimensionalidad. Significa que la PRNU es finita y de apariencia aleatoria que depende de la información del sensor del dispositivo de captura. • Universalidad. Significa que todos los dispositivos de captura generan la PRNU, y de las imágenes digitales se puede extraer. • Generalidad. Significa que la PRNU se encuentra en todas las imágenes digitales excepto de aquellas en color negro. Su existencia es independientemente del mecanismo óptico, configuración del dispositivo de captura y contenido de la escena. • Permanente. Significa que la PRNU generada por un dispositivo de captura no cambia en el tiempo y se mantiene para una amplia gama de condiciones ambientales (temperatura y humedad). • Robustez. Significa que la PRNU se mantiene en esencia a pesar de procesamientos típicos como compresión con pérdidas, filtrado y corrección gamma, entre otros. La PRNU puede considerarse que es una componente del ruido del patrón del sensor (SPN: Sensor Pattern Noise), el cual se asocia con las imperfecciones del sensor del dispositivo de captura y causa la variación de la sensibilidad de los píxeles de la imagen digital que dicho dispositivo produce. Debido a estas cinco propiedades, la PRNU se usa para definir la huella digital de los dispositivos de captura contenida en las imágenes digitales. La PRNU es un atributo bien conocido que se usó por primera vez por Lukas et al. [4]. De igual forma, Goljan et al. desarrollaron un algoritmo efectivo para extraer la PRNU de una imagen digital con la finalidad de identificar dispositivos de captura [3]. Por otro lado, Cooper en 2013 realizó aplicó un mecanismo de selección de aquellos pixeles con mayor intensidad de la PRNU y con ellos hacer el proceso de discriminación para la identificación de dispositivos de captura [5]. De igual manera, Saito et al. en 2017 propusieron un método para reducir los falsos positivos cuando se identifica el dispositivo de captura agrupando pixeles a través de un modelo de cálculo probabilístico [6]. También en 2017, Balamurugan et al. propusieron un método de identificación del dispositivo de captura basado en la extracción de la PRNU en tres etapas: filtrado, estimación y mejora [7]. Por otra parte, Mehrish et al. en 2018 estimaron la PRNU a partir de información probabilística contenida en videos de WhatsApp utilizando un filtro de segundo orden [8]. De igual forma, Long et al. en 2019 propusieron un método para medir la similitud de las PRNU para identificar un dispositivo de captura [9]. También en 2019, Zhao et al. presentaron un clasificador que considera la textura de las imágenes digitales para identificar su dispositivo de captura, buscando distinguir entre dispositivos del mismo modelo [10]. Hablando de la extracción de la PRNU, uno de los métodos más populares es el desarrollado en Goljan et al. [3]. Ese método consta esencialmente de dos etapas de filtrado: denoising (devuelve el ruido con todos sus componentes separándola de la imagen sin ruido) y Wiener (del ruido de la primera etapa de filtrado elimina los componentes de ruido aditivo). Así, a partir del uso de las PRNU contenidas en las imágenes digitales, en este trabajo se propone un método estadístico que, basado en el análisis discriminante por medio de la distancia de Mahalanobis, identifica el dispositivo de captura de una imagen digital. El método propuesto se desarrolló en Python, hace una distinción entre los siguientes dos objetos cuando se evaluó para el mismo caso de estudio presentado por Quintanar-Reséndiz et al. en 2021 [11]. • Huella digital del dispositivo de captura. Se construye utilizando el ruido aditivo y el ruido multiplicativo de una imagen digital de referencia. En este caso es una matriz de 2×n, donde n es el número de pixeles considerados en el análisis. A esta matriz se le llama matriz de discriminación. • Ruido intrínseco de la imagen digital. Se extrae del ruido aditivo y el ruido multiplicativo en la imagen digital en disputa y tiene el mismo aspecto matricial que la huella digital anterior. Este trabajo está organizado como se indica a continuación. La sección de Algoritmo Propuesto describe la extracción de la PRNU de una imagen digital, la estimación de las componentes de ruido multiplicativo y aditivo para la obtención de la huella digital de la imagen en disputa y los dispositivos de captura analizados. También explica cómo se aplica la distancia de Mahalanobis. En la sección de Caso de Estudio se especifican las características de las imágenes en disputa y los dispositivos de captura analizados. En la sección de Resultados se presentan las tablas de discriminación obtenidas para el caso de estudio definido, así como una comparación del método propuesto con otras alternativas de solución. Finalmente, se presentan las conclusiones. 2. ALGORITMO PROPUESTO 2.1 Cálculo de la PRNU. El algoritmo para la identificación del dispositivo de captura de imágenes digitales se desarrolló en Python debido a que es un lenguaje de programación de libre acceso y se aplica de acuerdo con el diagrama de bloques de la Fig. 1. Figura 1. Diagrama de bloques del algoritmo propuesto. Para describir el algoritmo propuesto se tiene como premisa que el modelo de ruido utilizado para la extracción de la PRNU se muestra en la Ec. (1). Nótese que este modelo de ruido incluye la componente multiplicativa y aditiva del ruido que existe en una imagen digital. 𝑖(𝑥, 𝑦) = 𝑖0(𝑥, 𝑦) + 𝑟𝑚(𝑥, 𝑦)𝑖0(𝑥, 𝑦) + 𝑟𝑎(𝑥, 𝑦) (1) donde i es la intensidad de píxel en las coordenadas (x, y) de una imagen digital, io es la intensidad de píxel asociada a las coordenadas (x, y) en la imagen sin ruido, rm es la componente multiplicativa del ruido y ra es la componente aditiva del ruido en la imagen, en la coordenada (x, y). Así, para obtener i(x,y) se lee la imagen en modo flotante desde Python, considerando recortes de tamaño 150×150 pixeles a partir del centro de la imagen digital. De este modo x y y están definidos en (1, 150). Además, esto se realiza únicamente de la capa verde de la imagen, asumiendo que contiene información suficiente del ruido en la imagen digital. Enseguida, de acuerdo con la Ec. (2) se aplica un filtro de Denoising por wavelet llamado BayesShrink para recuperar io [12]. 𝑓𝑑[𝑖(𝑥, 𝑦)] = 𝑖0(𝑥, 𝑦) (2) donde fd [i] es la función de Denoising aplicado a i. El filtrado wavelet descompone una imagen en forma de series de coeficientes, de modo que, aquellos con un valor bajo tienen una influencia importante del ruido. Mientras que, los coeficientes con valores altos representan de mejor manera la información de interés en la imagen. Así, los filtros wavelet de Denoising, incluyendo un umbral específico, cambian por cero aquellos coeficientes con mayor influencia del ruido; esto elimina el ruido de la imagen. En particular, BayesShrink es una transformada wavelet por umbral, la cual crea subbandas de frecuencia y para cada una de ellas define umbrales óptimos. Esto tiene como resultado una mejor eliminación del nivel de ruido comparado con otras transformadas similares. Una lectura recomendable para este tema se encuentra en el trabajo de Fei Xiaoa y Yungang Zhang de 2011, el cual compara métodos de umbral de varias wavelets de Denoising y concluye que los métodos del tipo BayesShrink y Feature-Adaptive Shrink son los que generan un menor error cuadrático medio (MSE: Mean Square Error), o dicho de otra manera generan mayor relación señal a ruido (PSNR: Peak Signal-to-Noise Ratio) [13]. Para aplicar la transformada BayesShrink en este trabajo usamos la librería Skimage disponible en Python de acuerdo con la siguiente sintaxis: Denoisewavelet(wavelet=BayesShrink) (3) De este modo, de la Ec. (1) se obtienen las Ecs. (4) y (5) para el ruido residual de la imagen digital, donde sus dos componentes son considerados: multiplicativa y aditiva. 𝑟(𝑥, 𝑦, 𝑖0) = 𝑖(𝑥, 𝑦) − 𝑖0(𝑥, 𝑦) = 𝑖(𝑥, 𝑦) − 𝑓𝑑[𝑖(𝑥, 𝑦)] (4) 𝑟(𝑥, 𝑦, 𝑖0) = 𝑟𝑚(𝑥, 𝑦)𝑖0(𝑥, 𝑦) + 𝑟𝑎(𝑥, 𝑦) (5) Ahora, si se define a la PRNU como la componente de ruido multiplicativo afectando a la io, se tiene que la PRNU se puede obtener aplicando un filtrado de Wiener de acuerdo con la Ec. (6) [14]. 𝑓𝑤[𝑟(𝑥, 𝑦, 𝑖0)] = 𝑟𝑚(𝑥, 𝑦)𝑖0(𝑥, 𝑦) = 𝑃𝑅𝑁𝑈 (6) Así, la PRNU se puede obtener a través del código disponible en Python para un filtro de Wiener, de acuerdo con la siguiente sintaxis a través de la librería scipy.signal.wiener disponible en Python de la versión SciPy 1.9.1. PRNU=Wiener(r(x, y, io), mysize=None, noise=None) (7) donde mysize es la longitud de la ventana del filtro Wiener (parámetro opcional) y noise es la potencia de ruido (parámetro opcional), cuando no hay valor, se usa el promedio de la varianza local de la entrada. Luego, para obtener la componente multiplicativa del ruido, de acuerdo con la Ec. (8) se aplica una función logaritmo a la Ec. (6) para tener la suma de dos funciones. Por lo que, es posible desagregar los sumandos con un filtrado como se expresa a continuación. 𝑙𝑛(𝑓𝑤[𝑟(𝑥, 𝑦, 𝑖0)]) = 𝑙𝑛(𝑟𝑚(𝑥, 𝑦)𝑖0(𝑥, 𝑦)) (8) Aplicando el antilogaritmo se tiene la Ec. (9). 𝐴𝑛𝑡𝑖𝑙𝑜𝑔(ln(𝑟𝑚(𝑥, 𝑦))) = 𝐴𝑛𝑡𝑖𝑙𝑜𝑔(ln(𝑖0(𝑥, 𝑦)) − ln(𝑓𝑤[𝑟(𝑥, 𝑦, 𝑖0)])) (9) De este modo, la componente multiplicativa del ruido queda definida por la Ec. (10). 𝑟𝑚(𝑥, 𝑦) = 𝑒 (ln(𝑖0(𝑥,𝑦))−ln(𝑓𝑤[𝑟(𝑥,𝑦,𝑖0)])) (10) La Ec. (10) se puede codificar a partir de la siguiente sintaxis en Python, esto asumiendo que el cálculo de la exponencial se hace a través del uso de la librería math. Rmult=np.exp((np.log(np.abs(im_bayes_2)))-np.log(np.abs(PRNU))) (11) Finalmente, a partir de la Ecs. (5) y (10), la componente aditiva del ruido en la imagen digital se puede calcular de acuerdo con la Ec. (12). 𝑟𝑎(𝑥, 𝑦) = 𝑟(𝑥, 𝑦, 𝑖0) − 𝑟𝑚(𝑥, 𝑦)𝑖0(𝑥, 𝑦) (12) De igual forma que para rm, la ra se obtiene aplicando la siguiente sintaxis en Python. ra=(original_2-im_bayes_2)-PRNU (13) El cálculo de ra se realiza a partir de las Ecs. 4, 5 y 6, donde la variable “original_2” es la matriz que representa la imagen de entrada, “im_bayes_2” es la matriz que representa la imagen filtrada después de aplicar el filtro de Denoising por medio de la Transformada Wavelet BayesShrink y la PRNU está dada por la Ec. 7. 2.2 Huella digital de un dispositivo de captura A partir de las componentes aditiva y multiplicativa del ruido, en las imágenes digitales de referencia se genera la huella digital del dispositivo de captura, en este caso una cámara fotográfica. Esta huella digital resulta ser una matriz bidimensional que incluye a ra y rm, y se utiliza para realizar el análisis discriminante entre ella y el ruido intrínseco de la imagen digital en disputa, que también es una matriz bidimensional, la cual también se conforma por ra y rm extraídos como se indica en la sección anterior. En el análisis discriminante se implementa la distancia de Mahalanobis como se describe en la siguiente Sección. 2.3 Cálculo de la distancia de Mahalanobis La distancia de Mahalanobis es una medida introducida en 1936 por Prasanta Chandra Mahalanobis quien fue un científico en estadística aplicada. Su utilidad radica en que determina la similitud entre dos variables aleatorias multidimensionales a través de la distancia entre un punto y una distribución. Se diferencia de la distancia euclídea porque esta considera la correlación existente entre variables aleatorias. Desde un punto de vista formal, para un conjunto de elementos X, se define a la distancia como cualquier función binaria d(a,b) de X en R que verifique las siguientes condiciones : • No negatividad 𝑑(𝑎, 𝑏) > 0 (14) • Simetría 𝑑(𝑎, 𝑏) = 𝑑(𝑏, 𝑎) (15) • Desigualdad triangular 𝑑(𝑎, 𝑏) ≤ 𝑑(𝑎, 𝑐) + 𝑑(𝑐, 𝑏) (16) La distancia de Mahalanobis no solo ofrece una medida de distancia entre dos variables, sino que también mide la correlación lineal entre las dos variables basándose en la covarianza. De esta manera, el resultado no solo es una medida de la distancia respecto al centroide, sino que adicionalmente ofrece información acerca de la correlación respecto a la distribución del resto de los puntos. El cuadrado de esta distancia se calcula de acuerdo con Ec. (17). 𝛿𝑀 2 (𝐴, 𝐵) = (𝐴 − 𝐵)𝑇 ∑ (𝐴 − 𝐵)−1 (17) donde ∑−1 es la matriz de covarianza entre A y B. Así, utilizando cdist de la librería scipy.signal.wiener disponible en Python de la versión SciPy 1.9.1 en la URL https://docs.scipy.org/doc/scipy/reference/generated/scipy.spatial.distance.cdist.html, esta distancia se estima de acuerdo a la siguiente expresión: cdist(A, B,'mahalanobis') (17) donde A se usa para los componentes de ruido en las imágenes de referencia de las cámaras fotográficas disponibles y B se usa para los componentes de ruido de las imágenes en disputa. 3. CASO DE ESTUDIO El caso de estudio incluye las 10 cámaras fotográficas mostradas en la Tabla 1, cuyas imágenes digitales se tomaron de la base de datos de Dresden, base de datos de acceso abierto y administrada por el Institute of Systems Architecture de la Faculty of Computer Science en Alemania. Es importante resaltar que en la base de datos de Dresden se tienen grupos de imágenes digitales clasificadas de acuerdo con la marca y modelo de la cámara con la que fueron capturadas. Nótese que en este caso de estudio todas las cámaras fotográficas son diferentes a excepción de la cámara Canon Ixus 70, de la cual se incluyen dos cámaras de la misma marca y modelo (CI70 y CI72). Para cada cámara fotográfica se estima su huella digital a partir de las componentes multiplicativa y aditiva del ruido extraído de la imagen digital de referencia que, en todos los casos, es una imagen unitono. Se asume que todas las imágenes unitono fueron tomadas bajo condiciones controladas, es decir, la iluminación y la superficie de captura son uniformes, así como la distancia de la cámara a la superficie de captura es la misma. La Fig. 1 muestra algunos ejemplos de las imágenes unitono obtenidas para algunas de las cámaras fotográficas de la Tabla 1. Por otro lado, de cada cámara fotográfica se tomaron 10 imágenes digitales unitono, consideradas en disputa (100 imágenes digitales en disputa en total), para las cuales se desea confirmar su cámara fotográfica de origen. Para ello, de cada imagen en disputa se extrae las componentes multiplicativa y aditiva del ruido en una imagen para contrastarla por medio de la distancia de Mahalanobis con las componentes multiplicativa y aditiva de las imágenes digitales de referencia. Así, se determina que la cámara fotográfica de origen de la imagen en disputa es aquella que resulte con el valor más pequeño de la distancia de Mahalanobis. Tabla.1 Cámaras fotográficas identificadas con clave única para cada una de ellas. CLAVE MODELO DE CÁMARA CE50 Casio EXZ-150 CI55 Canon Ixus 55 CI70_1 Canon Ixus 70 (1) CI70_2 Canon Ixus 70 (2) NS71 Nikon Coolpix S710 OM10 Olympus µ1050SW PD59 Praktica DCZ 5.9 RO73 Rollei RCP-7325XS SL74 Samsung L74wide SN15 Samsung NV15 Figura 1. Ejemplos de imágenes digitales unitono que pueden utilizarse como imágenes de referencia o en disputa tomadas de la base de datos de Dresden. El método propuesto de identificación de la cámara fuente de una imagen digital, tal como se ha descrito anteriormente, se basa en el cálculo de dos tipos de ruido, el ruido multiplicativo y el aditivo de la imagen de referencia como de una imagen en disputa. Una vez que se tienen estas dos matrices se aplica el algoritmo de distancia de Mahalanobis. Las imágenes tienen un tamaño aproximado de 3072×2304 pixeles y el método propone recortarlas a un tamaño de 150×150 pixeles utilizando únicamente la capa verde. Esto permite mejorar el tiempo de procesamiento y reduce la demanda de memoria en el equipo con el que se procesa cada imagen. Se usa la capa verde debido a que se asumen que contiene información suficiente para el proceso de discriminación. Con la finalidad de generar resultados confiables, por cada cámara fotográfica se consideran 10 huellas digitales, cada huella digital obtenida a partir solo de una imagen digital de referencia unitono. 4. RESULTADOS Después de aplicar el método propuesto con las variables e imágenes descritas arriba, en la Tabla 2 se muestran los resultados obtenidos. En la primera columna se tienen los modelos de las cámaras fotográficas seleccionadas, los cuales se identifican a través de sus claves. Se han tomado las imágenes de la 41 a la 50 de cada cámara fotográfica como imágenes en disputa, la primera fila de la tabla muestra el nombre de cada una. A partir de la segunda fila se tienen los resultados de las comparaciones realizadas para las imágenes en disputa del dispositivo de captura definido en la misma fila. Por ejemplo, en la segunda fila se han comparado las imágenes NS71_41 a la NS71_50 y buscando la distancia mínima de Mahalanobis los resultados arrojaron que 7 de las imágenes en disputa analizadas fueron asociadas con el dispositivo NS71, que es realmente el dispositivo con el que fueron capturadas las 10 imágenes en disputa de esa ronda y solo para 3 imágenes en disputa el método se equivoca. De esta misma forma, se tiene que para la ronda de las imágenes de la cámara CI55, el método asocia correctamente a 6 de las 10 imágenes en disputa y para el caso de la cámara OM10 el método logra asociar correctamente a las 10 imágenes en disputa con su dispositivo de captura. Tabla.2 Ejemplos de una ronda en disputa y discriminación IM/CAM 41 42 43 44 45 46 47 48 49 50 NS71 OM10 NS71 NS71 PD59 NS71 SL74 NS71 NS71 NS71 NS71 CI55 SL74 NS71 CI55 CI55 CI55 CI55 CI55 SL74 SN15 CI55 OM10 OM10 OM10 OM10 OM10 OM10 OM10 OM10 SL74 OM10 OM10 CE50 CE50 CE50 CE50 CE50 CE50 CE50 CE50 CE50 CE50 CE50 RO73 RO73 RO73 RO73 RO73 RO73 RO73 RO73 RO73 RO73 RO73 PD59 PD59 PD59 PD59 PD59 PD59 PD59 PD59 PD59 PD59 PD59 CI70 CI70 CI70 CI70 CI70 CI70 CI70 CI70 CI70 CI70 CI70 CI72 CI72 CI72 CI72 CI72 CI72 CI72 CI72 CI72 CI70 CI72 SL74 SL74 SL74 SL74 SL74 SL74 SL74 SN15 SL74 NS71 SL74 SN15 CI70 SN15 CI70 SN15 SN15 SN15 SN15 SN15 SN15 SN15 En la Tabla 3 se muestra el resumen de los resultados obtenidos representados con porcentajes para estimar la eficiencia del método propuesto, la cual fue del 87%. Esta eficiencia se calcula al obtener el promedio de los porcentajes obtenidos en la diagonal para cada caso. Tabla.3. Tabla resumen de resultados IM/CAM NS71 CI55 OM10 CE50 RO73 PD59 CI70 CI72 SL74 SN15 NS71 70% 0% 10% 0% 0% 10% 0% 0% 10% 0% CI55 10% 60% 0% 0% 0% 0% 0% 0% 20% 10% OM10 0% 0% 90% 0% 0% 0% 0% 0% 10% 0% CE50 0% 0% 0% 100% 0% 0% 0% 0% 0% 0% RO73 0% 0% 0% 0% 100% 0% 0% 0% 0% 0% PD59 0% 0% 0% 0% 0% 100% 0% 0% 0% 0% CI70 0% 0% 0% 0% 0% 0% 100% 0% 0% 0% CI72 0% 0% 0% 0% 0% 0% 10% 90% 0% 0% SL74 10% 0% 0% 0% 0% 0% 0% 0% 80% 10% SN15 0% 0% 0% 0% 0% 0% 20% 0% 0% 80% El método propuesto en este trabajo se puede comparar en términos de eficiencia directamente con los trabajos realizados por otros investigadores, como el realizado en 2021 por Quintanar-Reséndiz et al. [11], que utiliza la divergencia de Kullback-Leibler (KLD) y en donde se tomaron 8 dispositivos de captura de la misma base de datos (Dresden) considerada en este trabajo. De los 10 dispositivos de captura utilizados aquí en el caso de estudio, 8 de ellos coinciden con los mismos dispositivos utilizados por Quintanar- Reséndiz et al., así que se puede realizar una comparación de resultados, esta comparación se encuentra en la Tabla 4. Tabla 4. Tabla resumen de resultados CAM METODO PROPUESTO MÉTODO KLD CE50 100 100 CI55 60 100 CI70_1 100 95 CI70_2 90 99.82 NS71 70 100 OM10 90 100 PD50 100 100 RO73 100 100 PROM EFIC 88.75 99.35 De acuerdo con Quintanar-Reséndiz et al. el método desarrollado a través de KLD utiliza 30 imágenes de referencia para obtener la huella digital de la cámara fotográfica de origen, extraída de recortes de 500×500 pixeles en comparación con el método propuesto. En este trabajo este solo se utiliza una imagen en disputa por dispositivo de captura y, además, para extraer la huella digital tampoco utiliza la imagen en tamaño completo, reduce aún más el área de extracción, siendo esta de 150×150 pixeles. Por lo tanto, el método propuesto logra identificar el dispositivo de captura de una imagen en disputa en menor tiempo y sin requerir un gran número de imágenes de referencia. 5. CONCLUSIONES Los métodos de identificación de cámara, escritos hasta ahora, se basan en la PRNU como un elemento especial para esta tarea, se ha comentado que el PRNU es un ruido que es estocástico, inevitable, universal, permanente y robusto y que al poseer todas estas características lo hacen único para realizar una identificación. Sin embargo, también hay trabajos que lo utilizan para otras tareas como la identificación de imágenes falsificadas o manipuladas. De acuerdo con la descripción matemática del ruido de una imagen, los ruidos multiplicativo y aditivo tienen información de la imagen que les permite usarse para la identificación de la cámara fuente, por lo tanto, el método propuesto toma como base este hecho. La eficiencia del método propuesto es del 87% de acuerdo con el caso de estudio aplicado, que toma en cuenta una sola imagen de referencia para el cálculo de la huella digital de las cámaras fotográficas analizadas y realiza un recorte de 150×150 pixeles del centro la imagen en tamaño original, esto para evitar la degradación por los bordes de la imagen que pudiera afectar los cálculos involucrados en el método. El filtro de Denoising utilizado en el método es el llamado BayesShrink, el cual arrojó un buen desempeño en otros trabajos realizados. Debido a que el método propuesto se procesó en una PC convencional con capacidades medias, se pudo definir que un recorte máximo de 150×150 pixeles era el área óptima para que el procesamiento no llevara mucho tiempo y no hubiera desborde de memoria. Como trabajos futuros se considera utilizar mayor número de imágenes de referencia para construir la huella digital del dispositivo de captura como se ha hecho en otros trabajos que tienen mayor porcentaje de eficiencia. Por otro lado, de acuerdo con otros trabajos de identificación de cámara fuente, que mencionan el buen desempeño del filtro de Denoising de Mihcak, sería relevante investigar cómo funciona es filtro y en su caso aplicarlo a través del método desarrollado. Este trabajo deja como principal contribución el hecho de utilizar los ruidos multiplicativo y aditivo como huella digital de la cámara origen en lugar de la PRNU, que ha sido muy utilizada en muchos otros trabajos con diferentes métodos se extracción. RECONOCIMIENTOS Los autores agradecen al Instituto Politécnico Nacional (IPN-México) por el soporte financiero bajo los proyectos SIP–20220531 (R. Vázquez–Medina) y SIP–20220572 (O. Jiménez-Ramírez). F. Cruz-Ávila reconoce al Instituto Politécnico Nacional por la beca de estudios otorgada bajo el número de boleta: A. L. Quintanar Reséndiz agradece al CONACYT por la beca otorgada para estudios de posgrado (CVU: 746317) y al Instituto Politécnico Nacional por el apoyo financiero recibido a través del Proyecto de Desarrollo Tecnológico o Innovación para alumnos del IPN 2019-2020 autorizado por la Secretaría de Investigación y Posgrado. REFERENCIAS 1. Sandoval, A. L., Arenas, D. M., García, L. J., & Hernández-Castro, J. (2015). Analysis of errors in exif metadata on mobile devices. Multimedia Tools and Applications, 74, 4735-4763. doi: https://doi.org/10.1007/s11042-013-1837-6. 2. Fridrich, J. (2009). Digital image forensics. IEEE Signal Processing Magazine, 26(2), 26-37. doi: https://doi.org/10.1109/MSP.2008.931078. 3. Goljan, M., Fridrich, J., & Filler, T. (2009). Large scale test of sensor fingerprint camera identification. Proceedings Media Forensics and Security, 7254, 170 -181. doi: https://doi.org/10.1117/12.805701. 4. Lukas, J., Fridrich, J., & Goljan, M. (2006). Digital camera identification from sensor pattern noise. IEEE Transactions on Information Forensics and Security, 1(2), 205-214. doi: https://doi.org/10.1109/TIFS.2006.873602. 5. Cooper, A. J. (2013). Improved photo response non-uniformity (PRNU) based source camera identification. Forensic Science International, 226(1-3), 132-141. doi: https://doi.org/10.1016/j.forsciint.2012.12.018. 6. Saito, S., Tomioka, Y., & Kitazawa, H. (2017). A theoretical framework for estimating false acceptance rate of PRNU-based camera identification. IEEE Transactions on Information Forensics and Security, 12(9), 2026-2035. doi: https://doi.org/10.1109/TIFS.2017.2692683. 7. Balamurugan, B., Maghilnan, S., & Kumar, M. R. (2017). Source camera identification using SPN with PRNU estimation and enhancement. 2017 International Conference on Intelligent Computing and Control (I2C2), 1-6. doi: https://doi.org/10.1109/I2C2.2017.8321801. 8. Mehrish, A., Subramanyam, A. V., & Emmanuel, S. (2018). Robust PRNU estimation from probabilistic raw measurements. Signal Processing: Image Communication, 66, 30-41. doi: https://doi.org/10.1016/j.image.2018.04.013. 9. Long, M., Peng, F., & Zhu, Y. (2019). Identifying natural images and computer-generated graphics based on binary similarity measures of PRNU. Multimedia Tools and Applications, 78, 489-506. doi: https://doi.org/10.1007/s11042-017-5101-3. 10. Zhao, Y., Zheng, N., Qiao, T., & Xu, M. (2019). Source camera identification via low dimensional PRNU features. Multimedia Tools and Applications, 78, 8247-8269. doi: https://doi.org/10.1007/s11042-018-6809-4. 11. Quintanar-Reséndiz, A. L., Rodríguez-Santos, F., Pichardo-Méndez, J. L., Delgado-Gutiérrez, G., Jiménez Ramírez, O., & Vázquez-Medina, R. (2021). Capture device identification from digital images using Kullback-Leibler divergence. Multimedia Tools and Applications, 80(13), 19513– 19538. doi: https://doi.org/10.1007/s11042-021-10653-1. 12. Gupta, Payal and Amit Garg. “Image Denoising Using Bayes Shrink Method Based On Wavelet Transform.” International Journal of Electronic and Electrical Engineering. Vol 8 (1) (2015) 33- 40, International Research Publication House. 13. Fei Xiao, Yungang Zhang, A Comparative Study on Thresholding Methods in Wavelet-based Image Denoising, Procedia Engineering, Volume 15, (2011) 3998-4003, ISSN 1877-7058, https://doi.org/10.1016/j.proeng.2011.08.749. 14. Jingdong Chen, J. Benesty, Yiteng Huang and S. Doclo, "New insights into the noise reduction Wiener filter," in IEEE Transactions on Audio, Speech, and Language Processing, vol. 14, no. 4, pp. 1218-1234, July 2006, doi: 10.1109/TSA.2005.860851. SOBRE LOS AUTORES Francisco Cruz Avila. Es ingeniero en Comunicaciones y Electrónica (1998) por la Escuela Superior de Ingeniería Mecánica y Eléctrica (ESIME) Unidad Culhuacan. Ingeniero en administración y mantenimiento de PBX Nortel en la empresa Teledinámica (1998—1999). Ingeniero de Optimización de Radio Frecuencia en la empresa Telcel (1999—2010). Actualmente se desempeña como Ingeniero en Diseño y optimización de Radiofrecuencia en la empresa proveedora de tecnología en telefonía celular Ericsson (2010—a la fecha). Sus áreas de interés son las nuevas tecnologías en la telefonía móvil inalámbrica, el estudio del procesamiento de señales y sus diferentes aplicaciones, así como la automatización de tareas y procesos a través de los diferentes sistemas en desarrollo. Ana Laura Quintanar Reséndiz. Es Ingeniera en Sistemas Computacionales (2013) por el Instituto Tecnológico Superior de Huichapan (ITESHU). Es Maestra en Tecnología Avanzada (2018) por el Centro de Ciencia Aplicada y Tecnología Avanzada (CICATA) Unidad Querétaro del Instituto Politécnico Nacional (IPN). Actualmente cursa el cuarto año del Doctorado en Tecnología Avanzada en el CICATA Querétaro con la investigación titulada “Clasificador estadístico en la identificación de la fuente de captura de imágenes digitales”. Sus áreas de interés son el análisis forense de imágenes digitales, el procesamiento de imágenes digitales, el reconocimiento de patrones, la forensia digital, la identificación de fuentes de captura de imágenes digitales y la detección pasiva de manipulación de imágenes digitales. Omar Jiménez Ramírez. Es Ingeniero en Comunicaciones y Electrónica (1992) por la Escuela Superior de Ingeniería Mecánica y Eléctrica (ESIME) Unidad Zacatenco en Instituto Politécnico Nacional (IPN- México). Es Maestro en Ciencias de Ingeniería en Microelectrónica Ingeniería (2003) y Doctor en Comunicaciones y Electrónica (2007) por ESIME Unidad Culhuacan. Actualmente se desempeña como investigador en el IPN y, desde 2009 es un profesor invitado para el programa de Maestría en Ciencias de Ingeniería en Sistemas Energéticos y desde el 2016 en el Doctorado en Energía. Sus áreas de interés son sistemas de control con retardo de tiempo, control lineal, análisis de sistemas dinámicos y control óptimo. Luis Niño-de-Rivera-y-Oyarzabal. Es Ingeniero en Comunicaciones y Electrónica (1970) por la Escuela Superior de Ingeniería Mecánica y Eléctrica (ESIME) Unidad Zacatenco en Instituto Politécnico Nacional (IPN-México). Tiene estudios de Maestría en Ingeniería Eléctrica (1970) por la ESIME Zacatenco y Doctorado en Ciencias por la Universidad Autónoma Metropolitana (UAM) Unidad Iztapalapa (1999). Tiene tres diplomados, uno en Arte y Cultura en la Postmodernidad (2006), Historia de la Filosofía (2004) e Historia del Arte (2003), todos por la Universidad Iberoamericana. Actualmente se desempeña como investigador en ESIME Culhuacan del IPN. Sus áreas de interés son el procesamiento de señales, la visión artificial, análisis transcorneal y los biosensores. Rubén Vázquez Medina. Es Ingeniero en Electrónica (1988) por Universidad Autónoma Metropolitana (UAM) Unidad Iztapalapa. Maestro en Ciencias (1993) por el Centro de Investigación y Estudios Avanzados en IPN. En 2008, obtuvo el doctorado en UAM-Iztapalapa. Actualmente se desempeña como investigador en el IPN. Su interés las áreas son: fenómenos relacionados a la transferencia de energía, sistemas bioinspirados, sistemas no lineales, seguridad información y criptografía no convencional. Programa General V Congreso Internacional de Ingeniería Civil 1 Programa General V Congreso Internacional de Ingeniería Civil PROGRAMA PRELIMINAR GENERAL 5 CIIC Horario 28-11 29-11 30-11 1-Dec 2-Dec 9:00-9:10 acreditación APERTURA 5 CIIC. SESIÓN TÉCNICA MATERIALES Y TECNOLOGÍAS DE LA CONSTRUCCION TALLER INGENIERÍA DE VIENTO, REDUCCIÓN DE RIESGOS Y DESASTRES SESIÓN TÉCNICA INGENIERIA VIAL Y GEOTECNIA 9:10-9:30 Conferencia Magistral Inaugural: "American Concrete Institute – An International Technical Organization" Profesor: Antonio Nanni, Conferencia Magistral: "El sistema de edificios residenciales de ferrocemento, SERF, al mortero armado prefabricado SERMAP" Profesor: Hugo Rafael Wainshtok Rivas, Conferencia magistral "Comparison between High Intensity Wind Effects on Transmission Lines and Synoptic Wind Based on Various International Codes " - Prof.Ashraff El Damatty, Universidad de Western Ontario (Canadá) Conferencia Magistral 9:30-11:30 Apertura 2do Encuentro Regional del uso de los PRF y FRCM en la construcción PONENCIAS PONENCIAS PONENCIAS Conferencia:” “El desarrollo de las construcciones: el cambio del acero como refuerzo del hormigón por los PRF".. Prof. Hugo Wainshtok Rivas Conferencia :" Field Applications of FRP Reinforcement for Concrete Structures" Conf: Prof. Antonio Nanni, University of Miami Ponencias 11:30-13:30 SESIÓN TÉCNICA ESTRUCTURAS Y CONSERVACION PANEL DESARROLLO LOCAL PARA LAS CONSTRUCCIONES PONENCIAS PONENCIAS CIERRE DEL CONGRESO 13:30-15:00 Almuerzo Almuerzo Almuerzo Almuerzo 14:00-16:30 TALLER DE GEOCIENCIAS 15:30- 17:30 Brindis de bienvenida πlares Construcciones.SRL PROGRAMA TÉCNICO V CONGRESO INTERNACIONAL DE INGENIERÍA CIVIL EN CUBA Día: 29 DE NOVIEMBRE Presidente Sesión: Dr. C Isel del Carmen Díaz Sala: 9 Actividad: 2DO ENCUENTRO REGIONAL DEL USO DE LOS PRF Y FRCM EN LA CONSTRUCCIÓN Horario Código 9:00-9:10 Inauguración del Congreso, presentación de conferencista. 9:10-9:35 CONFERENCIA MAGISTRAL. Título: "American Concrete Institute – An international Technical Organization" Profesor: Antonio Nanni, University of Miami, Dept. of Civil and Architectural Engineering, Florida (USA) 9:35-9:55 CONFERENCIA Título: “El desarrollo de las construcciones: el cambio del acero como refuerzo del hormigón por los PRF". Profesor: Hugo Rafael Waishtok Rivas, Universidad Tecnológica José Antonio Echeverría, La Habana (CUBA) 9:55-10:15 CONFERENCIA Título: "Field Applications of FRP Reinforcement for Concrete Structures" Profesor: Antonio Nanni, University of Miami, Dept. of Civil and Architectural Engineering, Florida (USA) 10:15-10:25 RECESO 10:25-10:35 5CIIC36 Improving durability of FRP-concrete bond. Autor: Rajan Sen (USA) 10:35-10:45 5CIIC73 Ferrocement applied on water and sanitation. Autor: Sávio Nunes Bonifácio (BRASIL) 10:45-10:55 5CIIC61 Barras FRP de basalto: construccion de estructuras de hormigón armado de larga duración libres de corrosión. Autores: Álvaro Ruiz Emparanza, Francisco De Caso, Antonio Nanni (USA) 10:55-11:05 Obras construidas en quinta roo, con polímeros reforzados con fibras por la empresa We Care. Autor: Omar Sauri (MÉXICO) 11:05-11:15 5CIIC62 Resistencia al fuego de vigas de hormigón armado con barras de PRFV. Autores: Isel del Carmen Díaz Pérez, Rafael Larrúa Quevedo, Hugo R. Wainshtok Rivas (CUBA) 11:15-11:25 5CIIC35 Desempeño ante carga de sismo de un edificio de hormigón armado reforzado mediante tejidos de PRFV. Autor: Omar Zamora Díaz-Comas (CUBA) 11:25-11:35 5CIIC43 De la piscinas ferrocemento al mortero armado gunitado, MAG. Autores: Hugo Wainshtok Rivas, Gabriel Martínez Licea, Isel del Carmen Díaz (CUBA) 11:35-11:45 DEBATE Y CIERRE DE SESIÓN Día: 29 DE NOVIEMBRE Presidente Sesión: Dr. C Odalys Álvarez Rodríguez Sala: 9 Actividad: SESIÓN DE ESTRUCTURAS Y CONSERVACIÓN Horario Código 11:45-11:55 5CIIC19 Análisis del comportamiento de la mampostería de bloques de hormigón a compresión con el empleo de técnicas de modelación numérica. Autores: Orlando Rodolfo Reyes Viñas, Nelson Fundora Sautié, Janet Otmara Martínez Cid (CUBA) 11:55-12:05 5CIIC77 SHOWCRETE para el diseño de elementos estructurales aislados de hormigón armado. SHOWCRETE v11.0.3 Autores: Pedro Juan Piedrahita Pérez, Javier del Sol Pérez (CUBA) 12:05-12:15 5CIIC07 Influencia del ángulo de dilatancia en las curvas tensión deformación a compresión del hormigón con empleo del modelo de daño plástico. Autores: Alejandro Socorro Álvarez, Nelson Fundora Sautié, Janet Otmara Martínez Cid (CUBA) 12:15-12:25 5CIIC18 Evaluación sísmica de estructuras de hormigón armando. Autores: Yordy Mieles Bravo, Stalin Alcívar Moreira (ECUADOR) 12:25-12:35 5CIIC78 Influencia de la interacción dinámica suelo estructura en el criterio de columna fuerte-viga débil de una edificación mixta de 12 niveles Autores: José Alejandro Sariol Pérez, Nelson Fundora Sautié, Janet Otmara Martínez Cid (CUBA) 12:35-12:45 DEBATE 12:45-12:55 5CIIC27 Ciencia de datos para el análisis y anticipación de necesidades en asentamientos urbanos. Autores: Fernando Cos-Gayón López, Ángel Martín Furones, Mirian Janeth Guillen Vivas (ESPAÑA) 12:55-13:05 5CIIC30 El Paraninfo de la Universidad Laboral de Cheste: análisis de las patologías. Autores: José R. Albiol-Ibáñez, Luis V. García-Ballester, Raúl Martínez Luch (ESPAÑA) 13:05-13:15 5CIIC02 Acciones para reparar y mantener los sistemas constructivos utilizados en los asentamientos del municipio Camagüey. Autores: María de los Ángeles Arnaiz Ramos, Riselda Guzmán Méndez, Roberto Peláez Loredo (CUBA) 13:15-13:25 5CIIC17 Aplicación de herramientas de la confiabilidad operacional en la evaluación de edificios. Autores: Liyen Pérez Quiñones, Marietta Llanes Pérez, Alejandro López Llanusa (CUBA) 13:25-13:35 5CIIC76 Software cubano para el diseño y conservación de las estructuras de madera LEAL-PML v1.0.1. Autores: Pedro Juan Piedrahita Pérez, Leonardo Calderón Tamayo, Manuel Menéndez Alfonso (CUBA) 13:35-13:45 5CIIC41 Estudios de diagnóstico y propuestas para tratamientos. Sistemas hidrosanitarios y pluviales de inmuebles en la HABANA. Autores: José Ifrain Osa Bernal, Carlos Sánchez Colina (CUBA) 13:45-13:55 DEBATE Y CIERRE DE SESIÓN Día: 30 DE NOVIEMBRE Presidente Sesión: Dr. C Marietta Llanes Pérez Sala: 9 Actividad: SESIÓN TÉCNICA MATERIALES Y TECNOLOGÍAS Horario Código 9:00-9:10 Apertura de sesión, presentación de conferencista. 9:10-9:40 5CIIC49 CONFERENCIA MAGISTRAL. Título: "El sistema de edificios residenciales de ferrocemento, SERF, al mortero armado prefabricado SERMAP". Profesor: Hugo Rafael Waishtok Rivas, Universidad Tecnológica José Antonio Echeverría, La Habana (CUBA) 9:40-9:50 5CIIC20 Experiencias en el diseño de dosificaciones de morteros para el sistema SERMAP. Autores: René A. Puig Martínez, Joel Bayle Yong, Giovany Alemán Carmenate, Luis E. González Martínez (CUBA) 9:50-10:00 5CIIC74 Análisis de la permeabilidad de hormigones fabricados con agregados reciclados. Autores: Byron Baque Campozano, Rene Antonio Puig Martinez, Manuel Octavio Cordero Garces, Dennis Augusto Cobos Lucio (ECUADOR) 10:00-10:10 5CIIC75 El criterio de durabilidad de hormigones fabricados con residuos de la construcción y demolición por clasificación de sólidos. Autores: Byron Baque Campozano, Rene Antonio Puig Martinez, Glider Nunilo Parrales Cantos, Carlos José Zavala Vázques (ECUADOR) 10:10-10:20 5CIIC05 Comportamiento de las condiciones de vulnerabilidad de una muestra de edificaciones en la habana para diferentes niveles de agresividad. Autores: Delilah Díaz Fernández, Marietta Llanes Pérez, Rafael Valdés González (CUBA) 10:20-10:30 5CIIC45 Uso de arena y agua de mar en la construcción de hormigón. Estado del arte. Autores: David León González, Joel Baile Yong, Giovany Alemán Carmenate (CUBA) 10:30-10:40 DEBATE Y CIERRE DE SESIÓN 10:40-11:00 RECESO PANEL DESARROLLO LOCAL PARA LAS CONSTRUCCIONES 11:00-12-00 PANELISTAS 12:00-13:00 DEBATE 13:00-13:30 RELATORÍA Día: 1 DE DICIEMBRE Presidente Sesión: Dr. C Vivian Elena Parnás Sala: 4 Actividad: TALLER DE INGENIERÍA DE VIENTOS, REDUCCIÓN DE RIESGOS DE DESASTRES Horario Código 9:00-9:10 Apertura del taller presentación de conferencista. 9:10-9:55 CONFERENCIA MAGISTRAL. Título: "Comparison between High Intensity Wind Effects on Transmission Lines and Synoptic Wind Based on Various International Codes" Profesor: Ashraff El Damatty, Universidad de Western Ontario (CANADÁ) 9:55-10:15 5CIIC12 Elementos para la determinación de las cargas de viento en estructuras en Cuba. Autores: Vivian Elena Parnás, Patricia Martín Rodríguez, Ingrid Fernández Lorenzo, Alejandro López Llanusa, Katia Luis García, Bruno Clavelo Elena (CUBA) 10:15-10:25 5CIIC22 Análisis comparativo de la respuesta estructural de una edificación empleando la norma cubana de viento y la propuesta para su actualización. Autores: Kelvin Barban Lara, Leandra Orlandi González, Alejandro Miguel Guerra González, Mirell German Piloto Torres, Alina Beatriz Silva González (CUBA) 10:25-10:35 5CIIC13 Experimental simulation of thunderstorm profiles in a traditional boundary layer wind tunnel Autores: Camila Aldereguía Sánchez, Anna Bagnara, Giuseppe Piccardo, Federica Tubino (ITALIA) 10:35-10:45 5CIIC58 Extensive large-scale experimental characterization of downburst winds Autores: Federico Canepa, Massimiliano Burlando, Horia Hangan, Djordje Romanic (ITALIA) 10:45-10:55 5CIIC48 Downburst wind field simulation using an analytical model and a metaheuristic global optimization technique. Autores: Andi Xhelaj, Massimiliano Burlando (ITALIA) 10:55-11:10 5CIIC46 Computational fluid dynamics simulations of experimentally produced thunderstorm downburst winds. Autores: Josip Žužul, Alessio Ricci, Massimiliano Burlando (ITALIA) 11:10-11:30 DEBATE 11:30-12:00 MAGISTRAL LECTURE "Increasing risks of concurrent and sequential hydroclimatic hazards: characterizing the nonstationarity, uncertainties and impacts" Profesor: Mohammad Reza Najafi, Universidad de Western Ontario (CANADÁ) 12:00-12:10 5CIIC42 Validación del modelo en cfd de una nave ante cargas de viento con análisis estacionário. Autores: Rigoberto Morales Hernández, Manuel Alejandro Amador Núñez, Ingrid Fernández Lorenzo, Vivian Beatriz Elena Parnás (CUBA) 12:10-12:20 5CIIC15 El rebase del oleaje en el malecón de la habana durante la ocurrencia de los huracanes Wilma 2005 e Irma 2017 aplicando el modelo delft 3d. Autor: Luis F. Córdova López (CUBA) 12:20-12:30 5CIIC01 Modelos numéricos del malecón de la habana para modelación de eventos hidrometeorológicos extremos. Autores: Emilio Ricardo Escartín Sauleda, Héctor Manuel Fernández Núñez, Javier Ballote Álvarez, Héctor Abel Fernández Hernández (CUBA) 12:30-12:40 5CIIC50 Gestión para la reducción de riesgos ambientales de la presa Yatera y su impacto en los ecosistemas Autor: Arquímedes Caballero Simonó (CUBA) 12:40-12:50 5CIIC72 Los riesgos en la conservación de pavimentos flexibles en zona sísmica. Autores: Rita Delia Safonts González, Eduardo Beira Fontaine, Javier González Brugal (CUBA) 12:50-13:00 5CIIC69 Evaluación de la demanda sísmica de edificios VHICOA en Santiago de Cuba. Autores: David Almenarez Labañino, Javier Sánchez Arce, Yamila Concepción Socarrás Cordoví, Nelson Saint-Félix López (CUBA) 13:00-13:10 5CIIC68 “Desastres vs desarrollo”, apuntes de una propuesta metodológica para los procesos formativos universitários. Autores: Ingrid N. Vidaud Quintana, Irina Pérez Prada, Yordenis Bayard Isaac (CUBA) 13:10-13:30 DEBATE Y CIERRE DE SESIÓN Día: 1 DE DICIEMBRE Presidente Sesión: Dr. C Orlando Carraz Hernández Sala: HOTEL PALCO Actividad: SESIÓN GEOCIENCIAS Horario Código 2:30-2:45 Apertura de la sesión técnica 2:45-3:00 5CIIC14 Método Risk para evaluar la vulnerabilidad de acuíferos kársticos. Su aplicación en cuencas de pinar del río, Cuba. Autores: Ernesto Solis Morales, Rosa María Valcarce Ortega (CUBA) 3:00-3:15 5CIIC38 Aplicación de parámetros geoeléctricos en el estudio de la vulnerabilidad a la contaminación de las aguas subterráneas. Autores: Rosa María Valcarce Ortega, Willy Roberto Rodríguez Miranda, Zaida Jorge Díaz (CUBA) 3:15-3:30 5CIIC04 Estudio de la variación espacio-temporal de los ecosistemas relacionados con el agua en la república de cuba: primeros resultados. Autores:Willy Roberto Rodríguez Miranda, Javier Ballote Álvarez, Héctor Manuel Fernández Núñez, Ernesto Solís Morales (CUBA) 3:30-3:45 5CIIC03 Modelo predictivo arqueológico para la localización de nuevos sitios arqueológicos en Baracoa. Autores: Arianny Hernández Lima, Javier Ballote Alvarez, Orlando R. Carraz Hernández (CUBA) 3:45-4:00 RECESO 4:00-4:15 5CIIC40 Integración del procesamiento estadístico multivariado y métodos convencionales en la interpretación de registros geofísicos de pozo. Autores: Liana Ordaz Sánchez, Lázaro Richard Pita Pérez, Dailene Coello Interián (CUBA) 4:15-4:30 5CIIC59 Uso de la tomografía eléctrica en la evaluación integral de estructuras de hormigón armado. Autores: Roxana Díaz Cepero, Javier Ballote Álvarez, Orlando Román Carraz Hernández (CUBA) 4:30-4:45 5CIIC11 Evaluación de las estructuras de hormigón armado mediante tomografía ultrasónica. Autores: Javier Ballote Alvarez, Orlando R. Carraz Hernández, Iván J. Gómez Matías, Alejandro Fernández Domínguez (CUBA) 4:45-5:00 DEBATE Y CIERRE DE SESIÓN Día: 2 DE DICIEMBRE Presidente Sesión: Dr. C Willian Cobelo Cristiá Sala: 9 Actividad: SESIÓN TÉCNICA DE VIALES, GEOTECNIA Y CIMENTACIONES Horario Código 9:00-9:10 Apertura de la sesión técnica 9:10-9:20 5CIIC34 Propiedades volumétricas y mecánicas de mezclas asfálticas en caliente con árido reciclados tipo hormigón. Autores: Debora Acosta Alvarez, Jessika Morales Fournier, Anadelys Alonso Aenlle, Antonio José Tenza-Abril (CUBA) 9:20-9:30 5CIIC60 Comportamiento de una mezcla de concreto asfáltico cuando se sustituye parcialmente el agregado pétreo por escoria de alto horno. Autores: Hugo Alexander Rondón-Quintana, Juan Carlos Ruge-Cárdenas, Fredy Alberto Reyes- Lizcano (COLOMBIA) 9:30-9:40 5CIIC65 Evaluación de residuos de polvo de vidrio reciclado para el mejoramiento de subrasante arcillosas de carretera. Autores: Eduardo Beira Fontaine, Pedro Manuel Cabrera Castro, Hernán Castellanos Gonzalez (CUBA) 9:40-9:50 5CIIC71 Dosificación de áridos en mezcla asfáltica modificada con vidrio reciclado. Autores: Aurora Duharte Gonzáles, Hernán Castellanos González, Hilda González Fernández (CUBA) 9:50-10:00 DEBATE 10:00-10:10 5CIIC52 El equipamiento en las carreteras principales y su necesaria presencia y función para la seguridad y la comodidad vial. Autores: Eduardo Eutiquio Díaz García, Denny Augusto Cobos Lucio; Julio Cesar Pino Tarragó (ECUADOR) 10:10-10:20 5CIIC55 Comentarios de situaciones que atentan contra el mejor desempeño de la seguridad, funcionabilidad, economía y comodidad de un tramo de vía o de una red vial. Autores: Eduardo Eutiquio Díaz García, Denny Augusto Cobos Lucio; Lucy Elizabeth Solorzano Villegas (ECUADOR) 10:20-10:30 5CIIC56 Resultado del índice seguridad – confort, ISC en el tramo de carretera principal redon del puerto Cayo- San José de la provincia de Manabí, Ecuador. Autores: Eduardo Eutiquio Díaz García, Luis Alfonso Moreno Ponce; Mercedes Marcela Pincay Pilay (ECUADOR) 10:30-10:40 5CIIC57 Los accidentes del tránsito en ecuador asociados al factor humano, educación vial, el vehículo y la vía. Autores: Eduardo Eutiquio Díaz García, Dunia lisbet Dominguez Galvez, Miguel Perfecto Terán García (ECUADOR) 10:40-10:50 5CIIC53 Espacios de estacionamiento. Análisis diagnóstico en el mercado San Vicente de la provincia Manabí. Autores: Eduardo Eutiquio Díaz García, Maria lorena Ponces Vinces, Martha Johanna Alvarez Alvarez; Glider Nunilo Parrales Cantos (ECUADOR) 10:50-11:00 5CIIC31 Análisis de la calidad de la circulación vehicular y peatonal en la intersección de 114 y Boyeros. Autores: Reynier Moll Martínez, Alfredo Javier Heredia Mons (CUBA) 11:00-11:10 5CIIC51 Revisión del sistema de drenaje de una obra vial con ayuda de la aplicación informática HY-8. Autores: Caridad Lourdes Hernández Valenzuela, Gerardo Jiménez Sáenz (CUBA) 11:10-11:20 DEBATE 11:20-11:40 RECESO 11:40-11:50 5CIIC39 Relación entre la permeablidad y la intensidad de lluvia en el comportamiento del factor de seguridad de los taludes en presas de tierra. Autores: Isaida Flores Berenguer, Yoermes González Haramboure, Jenny García Tristá (CUBA) 11:50-12:00 5CIIC28 Influencia de la interacción suelo-estructura en edificación de baja altura. Autores: Aldo Fernández Limés, Willian D. Cobelo Cristiá (CUBA) 12:00-12:10 5CIIC37 Evaluación estructural de un puente en la ruta Spondylus del Ecuador. Autores: Jose Luis Benavides Osorio, Jaime Marcelo Díaz Iza, Luis Tinerfe Hernández Rodríguez, Edgar David Mora Martínez (ECUADOR) 12:10-12:20 5CIIC67 Determinación de la interacción dinámica suelo-estructura para obtener la respuesta dinámica de las estructuras a través de un modelo simplificado. Autor: Francisco Calderín Mestre (CUBA) 12:20-12:30 DEBATE 12:30-13:00 CIERRE DEL CONGRESO Día: 29- 2 DICIEMBRE Actividad: EXPOSICIÓN DE PÓSTER Sala: 9 EXPOSICIÓN DE PÓSTER 5CIIC10 Estudios de peligro, vulnerabilidad y riesgos en obras viales. Autores: Oleida María Simón Brito, Elva Juana Calvo Llanes, Yudanis de las Mercedes González Álvarez, Joham Manuel Quintana Simón (CUBA) 5CIIC21 Comparación de soluciones estructurales de anclajes para torre atirantada sobre cubierta. Autores: Gerardo Pérez Martínez, Roberto de la C. Llerena, Alejandro Miguel Guerra Paz, Kelvin Barban Lara, Leandra Orlandi González (CUBA) 5CIIC23 Simulación de la capa límite atmosférica mediante CFD. Autores: Rigoberto Morales Hernández, Ingrid Fernández Lorenzo (CUBA) 5CIIC26 Métodos estáticos equivalentes para el análisis dinámico de edificios altos bajo cargas de viento en Cuba. Autores: Amaya Ballate Delgado, Dora Robert López, Patricia Martín Rodríguez, Ingrid Fernández Lorenzo (CUBA) 5CIIC32 Fenómenos naturales a los que se exponen las torres de telecomunicaciones en Cuba. Autores: Elvia Teresa Castro Figueredo, Eduardo Álvarez Deulofeu (CUBA) 5CIIC44 Proyecto de nave para túnel de viento en Cuba. Autores: Ginet Ma. Guerrero Porras, Alejandro López Llanusa, Vivian Elena Parnás (CUBA) 5CIIC47 Diagnóstico del sistema de tratamiento de residuales de la empresa agroindustrial azucarera “30 de noviembre”. Autores: Roxana Aymeé Luis Winograd, Robier Hernández Barbosa, Pablo Enrique Cárdenas Quiñones (CUBA) 5CIIC64 Estudio analítico experimental de torre atirantada con tensiones variables en cables en Santa Cruz del Norte. Autores: Bruno Clavelo, Roberto Llerena, Patricia Martín, Vivian Elena Parnás (CUBA) 5CIIC66 Colapso progresivo en torres de transmisión eléctrica debido a vientos huracanados. Autores: Alejandro Hernández Hernández, Gerardo Pérez Martínez, Patricia Martín Rodríguez, Vivian Elena Parnás (CUBA) 5CIIC70 Evaluación de riesgos en edificios de viviendas. Autores: Roseli García Mesa, Alejandro López Llanusa (CUBA) 5CIIC08 Impactos de la asignatura optativa hidráulica virtual. Autores: Tania Herrera Achón, Yanna Almanza Sánchez, Indira Ordoñez (CUBA) 5CIIC09 Evaluación de las filtraciones de agua en el centro de negocios de la zona especial de desarrollo Mariel con termografía infrarroja. Autor: Rodolfo Rafael León Barrueto (CUBA) 5CIIC33 Contribución del desarrollo sostenible en la formación de los profesionales de Ingeniería Civil. Autores: Bernardo Omar González Morales, Armando Juan Velázquez Rangel, Manuel de Jesús Rodríguez Quintero (CUBA) 5CIIC25 Producción de muros de viviendas aligerados de bloques de hormigón con LC3 y EPS. Autores: Leisa Santana Rodríguez, Meylin Amador Hernández (CUBA) 5CIIC24 Estimación de las pérdidas diferidas en vigas pretensadas de sección compuesta. Autores: Ruben Reyes Cardonas, Juan José Hernández Santana (CUBA) 5CIIC16 Influencia de los aditivos de ceniza de bagazo de caña y escoria de alto horno en suelo. Autores: Aldo Fernández Limés, Luis E. González Martínez, Isaida Flores Berenguer, Cecilia Gil Payne, Jenny García Tristá, Anadelys Alonso Aenlle, Willian D. Cobelo Cristiá (CUBA) 5CIIC29 Influencia de la interacción suelo-estructura en edificio sometido a carga de viento. Autores: Aldo Fernández Limés, Ingrid Fernández Lorenzo, Willian D. Cobelo Cristiá (CUBA) 5CIIC54 Propuesta y aplicación de una tarea técnica en el proyecto integrador de saberes, 5to semestre. Carrera Ingeniería Civil, malla nueva. UNESUM. Autores: Eduardo Eutiquio Díaz García, Jaime Adrian Peralta Delgado, Francisco Segundo Ponce Reyes (ECUADOR) 5CIIC63 Estudio del fenómeno de interacción suelo-estructura. Autores: Aldo Fernández Limés, Ingrid Fernández Lorenzo, Willian D. Cobelo Cristiá (CUBA) MEMORIAS CIIC 2022 MODELOS NUMÉRICOS DEL MALECÓN DE LA HABANA PARA MODELACIÓN DE EVENTOS HIDROMETEOROLÓGICOS EXTREMOS Emilio Ricardo Escartín Sauleda1, Héctor Manuel Fernández Núñez2, Javier Ballote Álvarez3, Héctor Abel Fernández Hernández4 1,2,3,4 Dpto. de Geociencias, Fac. Ing. Civil, Cujae, Calle 114, No. 11901, e/ Ciclovía y Rotonda, Marianao, La Habana, Cuba. 1e-mail: escartin@civil.cujae.edu.cu, 2e-mail: hector@civil.cujae.edu.cu, 3e-mail: jballote@civil.cujae.edu.cu, 4e-mail: hafernandezh9706@gmail.com RESUMEN Entre las consecuencias más nocivas de los cambios climáticos se encuentran la elevación del nivel del mar y la creciente severidad de los eventos hidrometeorológicos extremos. En la ciudad de La Habana, son particularmente frecuentes las penetraciones del mar y las inundaciones en las áreas aledañas al Malecón, las que provocan severas pérdidas. Para prevenir y reducir los impactos negativos de los fenómenos hidrometeorológicos extremos, en el marco de los estudios hidrológicos e hidráulicos, es frecuente la realización de simulaciones en computadora, basadas en modelos matemáticos, los cuales para su funcionamiento requieren la utilización de modelos numéricos del medio físico que reflejen, con la calidad requerida, los accidentes naturales y la infraestructura construida en el territorio que se desea estudiar. En el presente trabajo se presenta el proceso de creación de los modelos batimétrico del sector marino frente al Malecón habanero a partir de datos de profundidades, y por primera vez, del modelo de la superficie del sector emergido con una alta calidad, fundamentalmente a partir de datos de un levantamiento de LiDAR y otros datos disponibles, ambos modelos con una resolución espacial elevada y con un nivel de detalle de los accidentes naturales y construidos, que los hacen adecuados para las simulaciones de eventos hidrometeorológicos extremos. PALABRAS CLAVES: modelo digital batimétrico, modelo digital de superficie, datos de LiDAR, simulaciones hidrológicas e hidráulicas. NUMERICAL MODELS OF HAVANA MALECON FOR MODELING EXTREME HYDROMETEOROLOGICAL EVENTS ABSTRACT Among the most harmful effects of climatic changes are the rising of sea level, and the growing severity of extreme hydrometeorological events. In Havana city, are particularly frequent sea water surges, high tides, and coastal floods in areas near Malecon, which cause severe damages. To prevent and reduce the negative impacts of extreme hydrometeorological phenomena, in the framework of hydrological and hydraulic studies, is frequent to carry out computer simulations, based on mathematical models, which require the use of accurate numerical models of physical environment, reflecting, with proper quality, the natural features, and the built infrastructure in the territory under study. In the present work, it is shown the creation process of digital bathymetric model of marine sector in front of Havana Malecon, on the basis of depth data, and for the first time, the digital surface model of emerged sector with a high quality, mainly from LiDAR survey data, and other available data, both models with high spatial resolution and a detailed level of natural and built features, which make them suitable for simulating extreme hydrometeorological events. KEY WORDS: digital bathymetric model, digital surface model, LiDAR data, hydrological and hydraulic simulations. Introducción Entre las consecuencias más evidentes y nocivas de los cambios climáticos se encuentran la elevación del nivel del mar y la creciente severidad de los eventos hidrometeorológicos extremos. En la ciudad de La Habana, son particularmente frecuentes las penetraciones del mar y las inundaciones en las áreas aledañas al Malecón, las que provocan severas pérdidas. En la actualidad, para prevenir y reducir los impactos negativos de estos fenómenos hidrometeorológicos extremos, en el marco de los estudios hidrológicos e hidráulicos, es posible la realización de simulaciones en computadora, basadas en modelos matemáticos bien establecidos [1, 2], entre los que se pueden mencionar el SWMM (Storm Water Management Model) de la EPA (Environment Protection Agency) de los Estados Unidos y el IBER desarrollado por el Centro de Estudios Hidrográficos del Centro de Estudios y Experimentación (CEDEX) del Ministerio de Obras Públicas de España, los cuales para su funcionamiento requieren la utilización de modelos numéricos del medio físico que reflejen, con la calidad requerida, los accidentes naturales y la infraestructura construida en el territorio que se desea estudiar [3]. Con el propósito de realizar simulaciones numéricas de este tipo, orientadas a la protección del Malecón y la zona costera aledaña de la ciudad de La Habana, el Centro de Investigaciones Hidráulicas (CIH) de la Universidad Tecnológica de La Habana (Cujae), solicitó al Grupo Empresarial GeoCuba, bajo la contratación de la Unidad Empresarial de Base (UEB) Malecón de la Empresa ESIHO, del Instituto Nacional de Recursos Hidráulicos (INRH), la construcción de un Modelo Digital de la Superficie (MDS) parcial de la ciudad de La Habana, con resolución espacial y precisión en sus detalles tales que pudiera ser utilizado de manera confiable en simulaciones hidrológicas e hidráulicas de eventos hidrometeorológicos extremos. Como resultado de esta solicitud, el Grupo Empresarial GeoCuba realizó un levantamiento de LiDAR, complementado con datos topográficos y modelos de datos espaciales (vectoriales y raster) que condujeron a la entrega de un MDS raster con resolución espacial de 0.0000014 grados (unos 0.143 m para la latitud de 23o). A pesar de que la resolución espacial del modelo construido por GeoCuba es adecuada formalmente para el propósito que se persigue, luego de las primeras validaciones del modelo presentado, los autores de este trabajo pudieron comprobar que el modelo no refleja con exactitud muchos de los accidentes del relieve natural, ni los obstáculos del ambiente construido en el área de interés, por lo que la precisión en sus detalles no resulta aceptable para su utilización en las simulaciones planificadas [4]. Entre los defectos que presenta el modelo de GeoCuba, y que lo hacen inservible para su uso en las simulaciones hidrológicas e hidráulicas, se pueden mencionar los siguientes [4]: - El apreciable desnivel de la terraza marina, de unos 10 m, que separa el nivel de la Ave. Malecón, del nivel del Hotel Nacional no se manifiesta en el MDS, aunque sí está presente en los datos de LiDAR. - El perfil longitudinal a lo largo de la Ave. Malecón, a la altura del Parque Maceo, por encima del paso peatonal que cruza por debajo de la vía, y que comunica el parque con la acera norte aledaña al muro del Malecón, manifiesta que la elevación de la Ave. Malecón está exagerada, con una altitud máxima extrema de casi el doble de la altitud verdadera de la calle, que se constata en los datos de LiDAR. - La elección de un modelo de datos híbrido para el MDS, que incluye sectores del modelo basados en una malla de triangular irregular (TIN), impide representar, por ejemplo, las superficies “suaves” de las calles, como ocurre, por ejemplo, en perfiles longitudinales por las calles y avenidas (figura 1), donde se aprecian marcadas irregularidades y obstáculos en la vía, que son inexistentes en la realidad; lo mismo ocurre en el perfil desde la salida del túnel de la bahía de La Habana (por el tubo que procede de la Habana del Este), hacia el acceso a la calle Zulueta, pues muestra un macizo sólido en el lugar donde en la realidad hay un túnel o canal inclinado. - Igualmente, el modelo TIN con baja resolución es poco adecuado para la representación de accidentes locales de formas redondeadas, tales como estatuas y fuentes. Por eso en la misma figura 1 se aprecia la total ausencia del parque infantil, la fuente, la estatua y el anfiteatro del Parque Maceo, los cuales sí se expresan en la figura 2. Figura 1. Perfil longitudinal por la senda norte de la Ave. Malecón, entre Belascoaín y Gervasio, con irregularidades derivadas del uso de un modelo de datos TIN con relativamente baja resolución. Se nota también la ausencia de detalles en la zona del Parque Maceo. En contraposición, en la figura 2 se puede apreciar en un modelo puramente raster con la resolución adecuada, el perfil sobre el mismo tramo de vía de la figura 1, pero con una terminación evidentemente más regular. También en la figura 2 se puede advertir la presencia de los accidentes locales y sus detalles en el Parque Maceo: el parque infantil, la fuente, el pedestal de la estatua de Maceo y el anfiteatro junto a la calle Belascoaín. Figura 2. El mismo perfil de la figura 1, con menos irregularidades, derivadas del uso de un modelo raster con una resolución adecuada. Se nota también la presencia de detalles en la zona del Parque Maceo: el parque infantil, la fuente, la estatua de Maceo y el anfiteatro. En la figura 3 se ven con lujo de detalles los accidentes locales presentes en el Parque Maceo, resultado del uso de un modelo puramente raster con una alta resolución espacial, obtenido a partir de los datos de LiDAR. También se observan detalles que deben ser eliminados del modelo, como son los puentes de entrada y salida al parqueo elevado del Hospital Hnos. Ameijeira y el puente del edificio sobre la calle Márquez González en la esquina con la calle Ánimas. Figura 3. Detalles de los accidentes locales presentes en las proximidades del Hospital Hermanos Ameijeira y el Parque Maceo, resultado del uso de un modelo puramente raster, con alta resolución espacial, obtenido a partir de los datos del levantamiento de LiDAR. Estos defectos mencionados, y otros presentes en el MDS entregado por GeoCuba, y la necesidad aun insatisfecha entonces, de disponer de un modelo de la ciudad para la simulación de eventos hidrometeorológicos extremos, obligaron a desechar este modelo y condicionaron la solicitud del CIH y la contratación de la UEB Malecón de la ESIHO, INRH para la participación del Departamento de Geociencias de la Facultad de Ing. Civil de la Cujae en la confección de un nuevo MDS, que cumpliera con los requisitos de resolución espacial y precisión en los detalles, con cierto nivel de urgencia, trabajos estos que fueron acompañados del sistemático seguimiento del proceso de elaboración por parte del CIH y la ESIHO. Problema La falta de un modelo digital batimétrico y un modelo digital de superficie (MDS) del sector emergido de la ciudad de La Habana, que sean consistentes entre sí, y que tengan la calidad requerida, vista como resolución espacial adecuada y detalles de los ambientes natural y construido, impide la realización de simulaciones hidrológicas e hidráulicas en los estudios de enfrentamiento a los fenómenos de inundaciones y penetraciones del mar en el sector costero de la ciudad de La Habana, ante eventos hidrometeorológicos extremos. Objetivos del trabajo 1. Construir un modelo digital batimétrico, correspondiente al sector marino frente a la línea del Malecón Habanero, hasta una distancia de la línea de costa de entre unos 4.250 km en el límite oeste y 1.750 km en el límite este de la zona de interés, con una resolución espacial de 5 m (unos 0.0000489 grados para la latitud 23o) o mejor, en el que se expresen los accidentes naturales relevantes. 2. Construir un modelo digital de superficie (MDS) del sector emergido de la ciudad, aledaño al Malecón, con una resolución espacial de 0.5 m (unos 0.00000489 grados para la latitud 23o) o mejor, en el que se expresen todos los accidentes naturales y arquitectónicos relevantes. Ubicación del área de interés El Malecón Habanero se encuentra sobre la línea costera de la ciudad de La Habana, y comprende parte de los territorios de los municipios Plaza de la Revolución, Centro Habana y Habana Vieja, con una longitud total de unos 8 km, aproximadamente. El área de interés comprende la parte de la ciudad aledaña al Malecón, incluida la Bahía de La Habana, y sus límites exteriores corresponden aproximadamente a un polígono rectangular, cuyos vértices se encuentran en las siguientes coordenadas (tabla 1). Tabla 1. Coordenadas de los vértices del rectángulo exterior que limita el área de interés. Vértice Lon/Lat (WGS84) X, Y (LCC, NAD27, Cuba Norte) Suroeste -82o 25’12.8378’’ W, 23o 06’ 31.3344’’ N 354507.353, 365087.092 Sureste -82o 19’ 10.9153’’ W, 23o 06’ 34.3786’’ N 364751.094, 364993.903 Nordeste -82o 19’ 10.2724’’ W, 23o 10’ 20.2663’’ N 364806.891, 371318.482 Noroeste -82o 25’ 13.8554’’ W, 23o 10’ 20.2671’’ N 354572.423, 371946.847 Datos utilizados Para dar cumplimiento a los objetivos de este trabajo, se utilizaron datos de LiDAR de un levantamiento que fue realizado por el Grupo Empresarial GeoCuba. Según datos que aparecen en el reporte de GeoCuba, el levantamiento de LiDAR fue realizado con un Vehículo Aéreo No Tripulado (VANT) modelo Mavic 2Pro, con una autonomía de vuelo de 20 minutos. El receptor GNSS a bordo de la aeronave opera en el sistema de referencia WGS84 y logra una precisión de los fotocentros de 5 a 10 m. La altitud media de vuelo del levantamiento fue de 230 m, cubriendo un área de 8.775 km2 para un total de 4,753 imágenes del área de interés, logrando una resolución espacial de las imágenes de la ortofoto asociada al levantamiento de 5.36 cm/píxel. La secuencia de imágenes se obtuvo con una cámara Hasselblad de 20Mp. Se utilizaron datos obtenidos del citado levantamiento y que fueron procesados preliminarmente por el Grupo Empresarial GeoCuba, entre los que se encuentran la ortofoto del sector de interés, las nubes de puntos de los levantamientos de LiDAR y batimétrico, archivos shapefile de las calles, manzanas y edificios, del sector de interés y otros que eventualmente fueron utilizados como apoyo para alcanzar los objetivos del trabajo. Calidad de los datos disponibles A pesar de que los datos utilizados cumplen formalmente con los requisitos exigidos para dar cumplimiento a los objetivos del trabajo (resolución espacial de la ortofoto de 6 cm, nube de datos de LiDAR con unos 511 millones de puntos útiles, lo que conduce a una densidad de 43.438 puntos/m2 o un espaciamiento medio entre puntos de 0.1517 m), la calidad de los datos no resultó la más apropiada, porque en primer lugar, el espaciamiento de los puntos de la nube no es regular sobre toda el área de interés; y en segundo lugar, en los datos de LiDAR se pueden constatar una serie de defectos, entre los que se mencionan los siguientes, más relevantes: 1. La ortofoto y los datos de LiDAR no cubren toda el área de interés. Es especialmente notoria la ausencia de datos en los alrededores de la embajada de los Estados Unidos de América, que, por estar frente al Malecón, constituye una zona de interés para este trabajo. GeoCuba completó la ortofoto con un “parche” en la zona de la mencionada embajada de los Estados Unidos, pero el parche tiene una resolución menor que los 6 cm del producto final, y los empates resultan muy evidentes y groseros. Además, la ortofoto, propiamente, no es un dato demasiado importante para este trabajo, a diferencia de los datos del levantamiento de LiDAR, que son indispensables, pero están completamente ausentes en este sector. 2. La ortofoto presentada no coincide con el levantamiento de datos de LiDAR. Esto se puede constatar en numerosos sectores, donde en la nube de puntos de LiDAR aparecen claramente marcados numerosos vehículos estacionados, que no aparecen en la ortofoto, lo cual reduce la calidad de los datos, porque dificulta los procesos de limpieza e interpolación de los datos. Lo contrario también ocurre; es decir, en la ortofoto aparecen vehículos que no aparecen reflejados en la nube de puntos de LiDAR, aunque esta última situación no interfiere en la interpolación de los datos de manera negativa y notoria. 3. En la nube de puntos de LiDAR aparecen numerosos puntos con valores de elevación atípicos (outlyers), que se alejan de la tendencia general. En particular resultan nocivos los puntos con valores de elevación negativos en el sector terrestre, que se van completamente fuera de las tendencias presentes en los datos, especialmente en las zonas que cubren las calles, donde los valores extremadamente bajos interfieren desfavorablemente en la interpolación para la creación de las mallas regulares del relieve. Esta situación se hace evidente en la parte sur del parche que cubre la zona de la embajada de los Estados Unidos de América. 4. Los datos de LiDAR son el resultado de un proceso de adquisición de las reflexiones de haces de luz coherente. Este tipo de levantamiento de reflexiones (o “ecos”) tiene ciertas particularidades comunes a otros levantamientos, como son los sísmicos, los de radar y de georradar, que se usan frecuentemente en Geofísica. Este tipo de levantamiento requiere que se haga un proceso cuidadoso de diseño y proyección de los trabajos de campo. El propósito de este diseño y proyección de la ejecución del levantamiento en el campo, es asegurar el cumplimiento de los requisitos impuestos por el Teorema del Muestreo, reducir en la mayor medida posible fenómenos como la aparición de secuencias de reflexiones múltiples, “lazos” en las secuencias de reflexiones, repeticiones espurias en los empalmes del proceso de adquisición, o la aparición de las llamadas “huellas” (footprints) del sistema de observación en los datos. Las nubes de LiDAR proporcionadas por GeoCuba sufren de defectos de los tipos mencionados, que hacen suponer la falta de un diseño de adquisición adecuado. 5. Luego de la clasificación automática de los puntos de la nube de LiDAR, en “ruido” (low, high noise), “terreno” (ground), “vegetación” (low, medium, high vegetation) y “edificios” (buildings), quedan numerosos puntos incorrectamente clasificados, que contribuyen negativamente a la calidad de las interpolaciones. Estos puntos incorrectamente clasificados tienen que ser “limpiados” manualmente, lo cual conlleva a un gasto adicional de tiempo y esfuerzo. Ejemplos e ilustraciones de estos tipos de fenómenos desfavorables en los datos originales de LiDAR son apreciables en varios sectores del levantamiento [4]. La existencia de los errores detectados en la nube de puntos de LiDAR condicionó la elección de la metodología de trabajo utilizada. Metodología general de los trabajos realizados No existen referencias anteriores de utilización de levantamientos de LiDAR en Cuba, lo que obligó a escoger de forma cuidadosa los pasos que se siguieron. Para dar cumplimiento a los objetivos de este trabajo se realizaron las siguientes tareas: 1. Revisar y evaluar la calidad y coherencia de todos los datos y la información suministrados por el Grupo Empresarial GeoCuba. 2. Hacer una investigación bibliográfica para identificar el estado del arte en la actualidad, y escoger enfoques y vías para la realización del trabajo. 3. Identificar los datos disponibles que pudieran ser utilizados para dar cumplimiento a los objetivos de este trabajo, con base en los enfoques de trabajo escogidos. 4. Someter los datos al procesamiento, comenzando siempre por la “limpieza” y eliminación de los puntos con valores atípicos y errores evidentes en datos, desviados de la tendencia general. 5. Clasificar los datos de las nubes de LiDAR, principalmente en las categorías “ruidos” (bajos y altos), “terreno”, “vegetación” (baja, media y alta), y “edificios”, tanto automática como manualmente. Los resultados de estas clasificaciones de los datos se compararon sistemáticamente con la ortofoto, constatándose que no siempre era posible la identificación automática adecuada de las diferentes categorías de cobertura. En todos los casos, las clasificaciones fueron acompañadas de ciclos de “limpieza” y/o “reclasificación” de los puntos con valores atípicos. 6. Sectorizar los datos, considerando de manera independiente los datos de LiDAR ya clasificados, correspondientes a diferentes sectores, y continuar la limpieza adecuada de los datos correspondientes a estos diferentes sectores. 7. Interpolar los datos por sectores y según la clasificación adecuada, evitando la mezcla de datos de diferentes sectores y categorías de clasificación. En las interpolaciones se utilizó siempre la mediana estadística, para reducir en la mayor medida posible los valores extremos que eventualmente quedaran en los datos. En no pocas ocasiones fue necesario reiterar pasos de “limpieza” y “reclasificación” de los datos, seguidos de nuevas interpolaciones, hasta conseguir resultados adecuados en el modelo. Procesamiento particular de la batimetría Se constató que los datos originales de batimetría con los que se trabajó, estaban organizados espacialmente de dos maneras diferentes. En la zona más alejada de la línea de costa, los puntos de datos aparecen organizados según un patrón espacial regular, relativamente poco denso, orientados de norte a sur, con un intervalo entre puntos de unos 10 m. En la zona más cercana a la línea de costa los puntos aparecen desorganizados, según un patrón espacial irregular, con un espaciamiento promedio menor que 10 m entre puntos. En la zona de transición entre el patrón regular y la distribución irregular de puntos, los datos originales manifestaban una enorme dispersión, con valores atípicos por encima y por debajo de los valores de la tendencia normal del relieve del fondo. El procesamiento particular de los datos de batimetría consistió en la organización de los datos de la zona con distribución regular y la “limpieza” de los valores atípicos, a partir de la extracción de los datos en 96 “franjas” de 100 m de ancho, perpendiculares a la costa. Los puntos de cada “franja” fueron sometidos a una “limpieza” a partir de la representación gráfica de la franja en elevación, y la consiguiente limpieza y/o rectificación de los puntos con valores atípicos identificados. Luego de la limpieza y rectificación de los datos de batimetría de las 96 franjas en que fueron divididos los datos, se procedió a la reunificación de los datos y a la interpolación, a partir del cálculo de la mediana del conjunto de datos en sectores de 20 x 20 m, con una resolución espacial de la malla resultante de 1 m. Para conseguir eliminar las fluctuaciones remanentes que quedaron en la malla regular, resultantes del proceso de interpolación en la zona cercana a la línea de costa, donde los puntos de datos tenían una distribución irregular, se decidió someter dicha malla regular a un proceso de filtración 2D, con un filtro pasa bajas rectangular de 5 filas x 11 columnas de puntos, orientado de manera que las 11 columnas se mantuvieran más o menos perpendiculares a la línea de costa (SE-NO) y las 5 filas se mantuvieran más o menos paralelas a la línea de costa (SO-NE). Este proceso de filtración dio como resultado una malla regular final suavizada, con resolución espacial de 0.5 m. Los modelos batimétricos se extienden en la dirección N-S, desde el litoral, hasta la latitud 23o 10’ 10” Norte, (equivalente a unos 3200m desde la costa a la altura del Parque Maceo) y en la dirección E-W, desde la desembocadura del río Almendares, hasta la playa El Chivo, en La Habana del Este (equivalente a unos 6500m). Procesamiento particular de los datos terrestres del levantamiento de LiDAR El procesamiento de los datos de LiDAR (datos terrestres) fue el más complicado de todos los involucrados en la confección de los modelos objetivos de este trabajo. La investigación bibliográfica arrojó un grupo de trabajos importantes e interesantes, que sirvieron de guía para alcanzar los objetivos. Entre los trabajos consultados se destacan [5], [6], [7], [8], si bien la calidad de los datos de LiDAR disponibles no permitieron la aplicación directa de las propuestas. Como fue expuesto más arriba en el apartado Metodología general de los trabajos realizados, la limpieza y eliminación de los puntos con valores atípicos y errores evidentes en datos constituyó un pilar en la obtención de los resultados alcanzados. Para conseguir inicialmente la representación del relieve general de la zona de interés, se construyó un polígono en un archivo shapefile con el trazado de todas las calles de la ciudad. Paralelamente se clasificó de manera automática la nube inicial de puntos de LiDAR para identificar los puntos que caen en la categoría “terreno” (ground). La extracción de los datos clasificados como “terreno” (ground) y su asociación con el trazado de las calles permitió construir una malla básica regular general, con el relieve de la ciudad por las calles. La validación reiterada de la calidad de esta malla regular (y de todas las mallas que fueron calculadas), permitió ir eliminando los errores residuales que iban quedando en los datos. Para los sectores con dificultades particulares en los datos de LiDAR, como en el caso de los accesos a los túneles de la bahía de La Habana, de 5ta. Avenida y de la calle Línea, hubo que realizar interpolaciones restringidas a los sectores del espacio más cercanos a los citados accidentes. Esto permitió interpolar mallas regulares para las vías de entrada y salida de los citados túneles, de manera individual e independiente, así como para sus accesos laterales. Casos especiales lo constituyen los pasos por debajo de otras vías, como ocurre en cuatro puntos del túnel de la bahía de La Habana (dos a la salida del túnel, hacia la Ave. del Puerto en sentido oeste, otro a la salida del túnel, en sentido sur, hacia la calle Zulueta y otro a la entrada del túnel, procedente del este, por la Ave. del Puerto). Es interesante destacar cómo el procedimiento de selección de los datos empleado consigue niveles de detalle en estos accidentes, tales como el respeto de las pendientes y los peraltes de las vías. Otros casos especiales son el paso peatonal por debajo de la Avenida Malecón, entre el Parque Maceo y la acera norte, contigua al muro así como el canal bajo la Ave. Malecón a la altura de la calle 16 en el Vedado. Estos túneles fueron “excavados” uno por uno sobre la malla regular, y aparecen en el modelo como “canales” a cielo abierto, por los que puede circular el agua libremente. Las mallas detalladas obtenidas por sectores espaciales limitados para estos accidentes fueron superpuestas a la malla general de las calles. Además de identificar la clase “terreno” (ground), la clasificación de la nube de puntos de LiDAR se hizo también para las clases “ruido” (bajo y alto), “vegetación” (baja, media y alta) y “edificaciones” (building). Es importante destacar que la clasificación de la clase “vegetación” resultó sumamente imprecisa, pues al validar los resultados de estas clasificaciones a partir de la ortofoto, se constata que existen muchos errores (falsos positivos y negativos) en dicha clase. Este resultado hace que se concluya que, para eliminar totalmente la vegetación del modelo final, es necesario aplicar algún otro procedimiento de clasificación, que para que fuera aplicado en este trabajo no se dispuso de tiempo suficiente, como puede ser la segmentación de una imagen (puede ser la misma ortofoto), en la que se identifiquen las áreas con cobertura vegetal. De todas maneras, este procedimiento, combinado con datos de LiDAR no permite representar con precisión la superficie del terreno, pues una vez eliminada la vegetación (sea baja, media o alta) de los datos de LiDAR, en esas áreas solamente queda la ausencia de datos de elevación. Para la construcción del terreno sobre las manzanas (sin considerar los edificios) se construyó el archivo shapefile de polígonos resultantes de una operación espacial de diferencia. Asociando a esta diferencia los datos de “terreno” de LiDAR correspondientes, se construyó la malla del terreno sobre las manzanas, sin considerar los edificios. Otros elementos a considerar en el modelo son las edificaciones. En la ciudad las edificaciones se concentran, en general, en manzanas. Las manzanas quedan trazadas a partir del mismo archivo de polígono shapefile con el trazado de las calles. Y en el interior de las manzanas se consideraron las edificaciones a partir de su shapefile de polígonos de las plantas de las edificaciones con sus correspondientes elevaciones. Estos polígonos de edificaciones fueron transformados en una malla regular con la resolución exigida de 0.5 m o mejor. Es importante destacar que, en el modelo final, es indiferente representar las alturas verdaderas de los edificios; más bien, es suficiente el esbozo de sus muros hasta una altura adecuada, los que constituyen obstáculos para la circulación del agua, y por el contrario, los pasillos interiores de las edificaciones, por donde puede circular el agua. Un procesamiento también particular lo exigió la modelación de la malla para la acera norte que se extiende por las avenidas Malecón y del Puerto, y para el muro del Malecón. En estos casos se empleó también la sectorización espacial de los datos de LiDAR clasificados como “terreno” sobre los shapefiles de la acera del Malecón y del muro del Malecón y la interpolación de los datos de LiDAR correspondientes a estos sectores limpios y separados. Finalmente, la construcción de la malla definitiva del sector emergido se obtuvo mediante la superposición de un grupo de mallas parciales, todas con resolución 0.5 m o mejor. La lista de las mallas parciales que componen el modelo final es la siguiente, consideradas de manera lógica, de abajo hacia arriba: - Malla del relieve por las calles (malla inferior); - Mallas del relieve para los accidentes particulares (acera norte de las avenidas Malecón y del Puerto, muro del Malecón, túneles de la bahía de La Habana, de 5ta. Avenida, de la calle Línea y del Parque Maceo, canal de la ensenada de la calle 16 en el Vedado); - Malla con el relieve de las manzanas (sin considerar los edificios); - Malla con la elevación de los edificios (malla superior). Software y equipamiento utilizados en el trabajo En la resolución de la tarea planteada en este trabajo fueron utilizados los siguientes programas informáticos: - AutoCAD Map 3D 2012. Para la limpieza de datos de batimetría y para la construcción y edición de archivos de entidades vectoriales .DWG y .DXF. - Global Mapper 22.1. Para el manejo de los datos, transformación de coordenadas, transformación de formatos de archivos; limpieza y clasificación de las nubes de puntos de LiDAR, sectorización espacial de los datos a partir de los archivos shapefile, interpolación y superposición de las mallas parciales y confección de las mallas finales de este trabajo. - Surfer 20.1. Para la interpolación y la filtración de la malla regular de la batimetría, algunas pruebas de interpolación intermedias y el retoque de algunas mallas intermedias. - MatLab R2015a. Para construir los detalles de los “canales” excavados en los túneles y construir superficies “suaves” del relieve a lo largo de algunas calles interpoladas. Se emplearon esencialmente 4 computadoras Acer Veriton con procesadores QuadCore Intel Core i7-4790, con 8 Gb de RAM y tarjeta de video NVIDIA GeForce GTX 650 (2 GB VRAM) del Laboratorio de Investigaciones y Posgrado del Departamento de Geociencias, así como eventualmente las computadoras y laptops particulares de los especialistas que trabajaron en el proyecto. Consideraciones y resultados finales Los especialistas participantes tuvieron que elaborar una metodología para la construcción de los modelos a partir de los datos disponibles, a pesar de que su calidad no es considerada como óptima. A pesar de las dificultades encontradas, con el trabajo realizado se obtuvieron modelos que superan en calidad a los modelos previos entregados por GeoCuba, por lo que se puede afirmar que se alcanzaron los objetivos planteados inicialmente, pues los modelos finales fueron construidos de manera que cumplen con los requisitos planteados, en términos de resolución espacial y precisión en los detalles de los accidentes locales, para simulaciones hidrológicas e hidráulicas en la zona de la ciudad de La Habana, aledaña al Malecón Habanero. Como resultado del trabajo realizado, se presentaron los siguientes materiales fundamentales: - Imagen Satelital de La Habana, con resolución espacial de 25cm, que abarca el litoral habanero, desde el oeste del río Almendares, hasta el poblado de Cojímar, al este de la Bahía de La Habana. - Malla de Batimetría Final, con resolución espacial 1m. - Malla de Batimetría Final, con resolución espacial 0.5m. - Redefinición de la línea de costa, teniendo en cuenta los arrecifes, tal como se aprecian en la ortofoto original y las imágenes satelitales. - Modelo Digital de la Superficie (MDS) SIN Detalle, con resolución espacial de 0.25m. Este modelo no considera los muros y otros detalles entre las edificaciones. - Modelo Digital de la Superficie (MDS) CON Detalle, con resolución espacial de 0.25m. Este modelo sí considera los muros y otros detalles entre las edificaciones. - Modelo Digital de la Superficie (MDS) SIN Detalle + Batimetría, con resolución espacial de 0.25m. - Modelo Digital de la Superficie (MDS) CON Detalle + Batimetría, con resolución espacial de 0.25m. Todos los materiales presentados están referidos al Sistema de Coordenadas Cuba Norte, en la proyección Cónica Conforme de Lambert, con el Datum NAD27. Los resultados alcanzados muestran que resulta inadecuado el uso exclusivo de datos de LiDAR para la construcción de los modelos que se exigen del sector emergido, debido a que los datos de LiDAR son muy abundantes y detallados, pero los modelos para simulaciones hidrológicas e hidráulicas exigen otro grado de detalle. Por ejemplo, los vehículos, la vegetación media y alta, las marquesinas de los edificios, los puentes y otros obstáculos, como las luminarias, los postes y los tendidos eléctricos, que se interponen y ocultan la superficie del terreno, y que deben ser eliminados del modelo por ser superfluos para simulaciones hidráulicas, aparecen profusamente en los datos de LiDAR, y cuando son eliminados de la nube de puntos, dejan espacios vacíos (con ausencia de datos), lo cual también interfiere desfavorablemente en los procesos de interpolación. Otro factor desfavorable en la modelación a partir de los datos de LiDAR exclusivamente es la inevitable rugosidad que aparece en las superficies, que en el modelo deberían aparecer lisas (por ejemplo, las calles, las aceras, los techos de las edificaciones). Este efecto de rugosidad se puede reducir con el uso combinado de datos de LiDAR junto con datos de levantamientos topográficos clásicos. Durante el trabajo desarrollado, al combinar datos de diferentes fuentes (batimetría, LiDAR, levantamiento topográfico, archivos vectoriales shapefile), aun cuando todos fueran suministrados por GeoCuba, se presentaron discrepancias en las coordenadas planas, que debieron ser reducidas a partir de correcciones estimadas e introducidas “experimentalmente”, para conciliar las posiciones en el plano, tomando siempre como referencia la ortofoto de La Habana con resolución espacial de 6 cm. La ausencia de datos en los alrededores de la embajada de los Estados Unidos de América, y la necesidad de completar el modelo de superficie en esa área, provocó que el equipo de especialistas participantes tuviera que realizar un esfuerzo adicional para completar los datos de forma consistente con el resto del área de interés, aun cuando se reconoce que en esa área los resultados pueden ser de menos calidad que el resto del modelo. Al representar el muro del Malecón, una entidad indispensable en el modelo por su protagonismo en los casos de penetraciones del mar, se constató que a pesar de que las dimensiones del muro exceden la resolución espacial de 0.5 m exigida para el modelo, las diversas orientaciones de su trazado en planta impiden que se exprese como una entidad continua en toda su extensión en una malla con resolución espacial de 0.5 m. Por esa razón, los autores decidieron crear la malla del muro con una resolución espacial de 0.2 m, la cual asegura la continuidad del muro en todo su trazado. Esta alta resolución de la malla del muro condiciona la posibilidad de mejorar la resolución espacial de todo el modelo de superficie para el sector emergido, a 0.25 m Finalmente, el tiempo disponible para la realización de este trabajo está en contradicción con el detalle exigido para los modelos. Es por eso que aun cuando se realiza una entrega formal final de los resultados, los autores consideran que se debe mantener una estrecha coordinación con los clientes para la corrección de errores e imperfecciones que se vayan descubriendo, y realizar los acondicionamientos eventualmente necesarios en los modelos, a medida que se empleen en las simulaciones hidrológicas e hidráulicas posteriores. Las figuras 4 a 8 muestran algunas representaciones gráficas de los resultados finales. Figura 4. Imagen satelital de la ciudad con resolución espacial de 25cm, compatible con la ortofoto y modelo batimétrico del sector de interés. Figura 5. Modelos combinados finales de batimetría y de superficie del sector emergido de La Habana. Figura 6. Perfil del modelo combinado de superficie y batimetría, a lo largo de la calle Belascoaín, desde la calle Ánimas, hasta el mar, a unos 150 m de la costa y unos 10 m de profundidad. Observe en el perfil la expresión del muro del Malecón (exagerada en la vertical). Observe también en la imagen en planta del MDS, la expresión de los detalles del relieve en el Parque Maceo y del canal del paso peatonal, abierto, bajo la Avenida Malecón. Figura 7. Representación gráfica en 3D del modelo de la superficie, combinado con la batimetría, en una vista oblicua de sur a norte de los alrededores del Parque Maceo. Observe la manera en que se expresan el pedestal de la estatua de Maceo y el canal que corresponde al túnel bajo la Avenida Malecón. Figura 8. Representación gráfica en 3D del modelo de la superficie tapizado con la ortofoto y combinado con la batimetría, en una vista oblicua de noreste a suroeste, de las cercanías del Parque Maceo. REFERENCIAS 1. NOVAK, Pavel; GUINOT, Vincent; JEFFREY, Alan; REEVE, Dominic E. Hydraulic Modelling - An Introduction. Principles, Methods and Applications. 1st Edition. CRC Press. 2010. 602 pp. ISBN 978-041- 925-020-3 2. LYATKHER, Victor M.; PROUDOVSKY, Alexander M. Hydraulic Modeling. John Wiley & Sons, Inc. 2016. 608 pp. ISBN 978-1-118-94619-0 3. MEESUK, Vorawit; VOJINOVIC, Zoran; MYNETT, Arthur E.; ABDULLAH, Ahmad F. Urban flood modelling combining top-view LiDAR data with ground-view SfM observations. Advances in Water Resources. 2014. 46 pp. DOI: http://dx.doi.org/10.1016/j.advwatres.2014.11.008 4. ESCARTÍN, Emilio R.; FERNÁNDEZ, Héctor M.; BALLOTE, Javier; FERNÁNDEZ, Héctor A. “Informe Técnico sobre el cumplimiento de la Tarea ‘Modelos Numéricos del Malecón de La Habana’”. Departamento de Geociencias. Facultad de Ingeniería Civil, Cujae. La Habana. Sep. 2021. 22 pp. 5. ZHANG, Wuming; QI, Jianbo; WAN, Peng; WANG, Hongtao; XIE, Donghui; WANG, Xiaoyan; YAN, Guangjian. “An Easy-to-Use Airborne LiDAR Data Filtering Method Based on Cloth Simulation” Remote Sensing, 2016, vol. 8, núm. 501, pp. 1 - 22. 6. SEVGEN, Sibel Canaz; KARSLI, Fevzi. “Automatic Ground Extraction for Urban Areas from Airborne Lidar Data” Turkish Journal of Engineering, 2020, vol. 4, núm. 3, pp. 113 – 122. 7. CHEN, Ziyue; GAO, Bingbo; DEVEREUX, Bernard. “State-of-the-Art: DTM Generation Using Airborne LIDAR Data”. Sensors, 2017, vol. 17, núm. 150, pp. 1 – 24. 8. SLOVIN, Noah B. “Using Digital Elevation Models Derived from Airborne LiDAR and other Remote Sensing Data to Model Channel Networks and Estimate Fluvial Geomorphological Metrics”. Directora: Dr. Christine Hatch. Tesis de Maestría, University of Massachusetts Amherst, 2015. Sobre los autores Emilio Ricardo Escartín Sauleda. Docente del Dpto. de Geociencias, Facultad de Ing. Civil, Universidad Tecnológica de La Habana, Cujae. Ingeniero Geofísico. Profesor Titular. Doctor en Ciencias Geológicas. Miembro Fundador de la Sociedad Cubana de Geología. Héctor Manuel Fernández Núñez. Docente del Dpto. de Geociencias, Facultad de Ing. Civil, Universidad Tecnológica de La Habana, Cujae. Ingeniero Geofísico. Profesor Titular. Doctor en Ciencias Técnicas. Miembro de la Sociedad Cubana de Geología. Javier Ballote Álvarez. Docente del Dpto. de Geociencias, Facultad de Ing. Civil, Universidad Tecnológica de La Habana, Cujae. Ingeniero Geofísico. Instructor. Miembro de la Sociedad Cubana de Geología. Héctor Abel Fernández Hernández. Docente del Dpto. de Geociencias, Facultad de Ing. Civil, Universidad Tecnológica de La Habana, Cujae. Ingeniero Geofísico. Instructor. Miembro de la Sociedad Cubana de Geología. ACCIONES PARA REPARAR Y MANTENER LOS SISTEMAS CONSTRUCTIVOS UTILIZADOS EN LOS ASENTAMIENTOS DEL MUNICIPIO CAMAGUEY MSc. María de los Ángeles Arnaiz Ramos1, Dra. C. Riselda Guzmán Méndez2, Ing.Roberto Pelaez Loredo3 1 Universidad de Camagüey Ignacio Agramonte Loynaz, Cuba, maria.arnaiz@reduc.edu.cu. 2Universidad de Camagüey Ignacio Agramonte Loynaz, Cuba, riselda.guzman@reduc.edu.cu, 3Universidad de Camagüey Ignacio Agramonte Loynaz, Cuba, roberto.pelaez@reduc.edu.cu. RESUMEN En el presente trabajo se propone un plan de conservación para los Sistemas Constructivos utilizados en los asentamientos poblacionales del municipio de Camagüey. El estudio parte de la necesidad existente del mejoramiento en el estado técnico de las viviendas emplazadas en los asentamientos poblacionales: Julio Antonio Mella, Los Coquitos, Victoria de Girón, La Mascota y el Micro de Villa Mariana, para los que se propusieron acciones para su conservación. Se hizo una revisión de investigaciones que abordan los sistemas constructivos más utilizados en el municipio de Camagüey, para luego realizar un levantamiento en las empresas que diseñaron los proyectos que aplican dichos sistemas constructivos. Posteriormente se realizó un estudio de campo para el cual se diseñó una ficha técnica para facilitar la recogida de información pertinente. Con estos datos se realizó el diagnóstico del estado técnico actual de las obras edificadas para con ello determinar las posibles causas que pudiesen generar los existentes deterioros en el estado de dichas edificaciones. Mediante las observaciones tomadas en el lugar y el diagnóstico creado se obtuvo el plan de acciones para la conservación de las obras en asentamientos humanos del municipio de Camagüey que utilizan sistemas constructivos. PALABRAS CLAVES: asentamiento; conservación; deterioros; sistemas constructivos, soluciones. ACTIONS TO REPAIR AND MAINTAIN CONSTRUCTION SYSTEMS USED IN THE MUNICIPALITY OF CAMAGUEY. ABSTRACT In the present work a conservation plan for the Constructive Systems used in the settlements of the municipality of Camagüey is proposed. The study starts from the existing need for improvement in the technical condition of the houses located in the population settlements: Julio Antonio Mella, Los Coquitos, Victoria de Girón, La Mascota and the Micro of Villa Mariana, for which actions were proposed for their conservation. A review was made of the research that addresses the construction systems most used in the municipality of Camagüey, to then conduct a survey of the companies that designed the projects that apply these construction systems. Subsequently, a field study was carried out for which a technical sheet was designed to facilitate the collection of pertinent information. With these data, the diagnosis of the current technical state of the built works was made to determine the possible causes that could generate the existing deterioration in the state of said buildings. Through the observations made in the place and the diagnosis created, the plan of actions for the conservation of the works in human settlements of the municipality of Camagüey that use constructive systems was obtained. KEY WORDS: Settlements; conservation; deteriorations; constructive systems; solve INTRODUCCIÓN Se entiende por sistema constructivo al conjunto de elementos y unidades de un edificio que forman una organización funcional con una misión constructiva común, sea ésta de sostén (estructura), de definición y protección de espacios habitables (cerramientos), de obtener confort (acondicionamiento), o de expresión de imagen y aspecto (decoración). Estos son creados mediante el diseño y la producción de componentes elaborados en serie mediante procesos de repetición, modularidad, integración, normalización y optimización realizados en una fábrica fuera de su ubicación final y tras una fase de montaje simple y preciso lograr el producto deseado. Todos los elementos de estos sistemas deben estar diseñados y ejecutados para cumplir una determinada función constructiva de entre las que se encuentran la integridad, la habitabilidad, la estética y la sostenibilidad. Así los distintos elementos constructivos, según su situación, deberán cumplir una o varias de estas funciones, es decir; un equilibrio de consumo de materiales y de energía en su diseño y ejecución, una facilidad de mantenimiento a lo largo de su vida útil, y una posibilidad de recuperación o reciclado al final de la misma. En Cuba resulta necesaria y factible su aplicación por la rapidez de la ejecución, que amortigua en un menor plazo la carencia que existe de viviendas. A pesar de que fue necesario dedicar una cuantiosa cantidad de recursos a la construcción de instalaciones agrícolas, fabriles e industriales, los volúmenes de construcción de viviendas experimentaron un notable aumento año tras año naciendo así los nuevos asentamientos humanos actuales, definiéndose estos como el sitio en que se produce el establecimiento de un grupo de individuos o una comunidad. En dichos asentamientos se utilizan los sistemas constructivos prefabricados, los cuales son mayormente usados en el sector de la vivienda, estos fueron importados de otros países ya que el país no contaba con la tecnología avanzada para la creación de los mismos; sin embargo, actualmente existen sistemas de prefabricación que se han creado en el territorio como el Girón, el Sandino, el Gran Panel VI (GP VI), IMS, E-14, SP-72 y el GPH. La conservación comprende todos los procesos de cuidar un lugar, así como su significación cultural. Incluye mantenimiento, restauración, reconstrucción, adaptación, preservación. Sin embargo, nunca se les han dado solución a los problemas existentes en los sistemas constructivos debido al deterioro de los mismo o a los errores en el diseño o montaje, por lo que uno de los motivos principales de la presente investigación es la existencia de insuficiente conocimiento de las causas que generan los deterioros más comunes en el estado técnico de las obras en los asentamientos humanos del municipio de Camagüey y por lo que es necesario un plan de conservación para los mismos. Con el objetivo de proponer acciones para la conservación de los sistemas constructivos utilizados en los asentamientos humanos del municipio de Camagüey, a través de una ficha técnica con la solución a los deterioros existentes. Para la realización de la investigación se emplearon diversos métodos teóricos, tales como: análisis- síntesis, inducción-deducción, modelación y el enfoque de sistema. Los mismos fueron útiles para diagnosticar el estado técnico actual de obras edificadas y determinar las causas que generan los deterioros en el estado técnico de los edificios construidos en los asentamientos. Estos métodos permitieron realizar un levantamiento en las empresas de diseño de Camagüey, de los proyectos elaborados que aplican los sistemas constructivos. También fue de utilidad el análisis documental, donde se abordaron las consideraciones teóricas de los sistemas constructivos más utilizados en los asentamientos, permitió revisar diferentes criterios que existen en la literatura especializada sobre los conceptos y procesos que se abordan. Sobre la base de estos fundamentos se proponen acciones para la conservación de los sistemas constructivos utilizados en los asentamientos poblacionales del municipio de Camagüey, a través de una ficha técnica. I. DESARROLLO En el municipio Camagüey han surgido varios asentamientos como una necesidad ante el crecimiento poblacional, para el presente trabajo de diploma se seleccionaron los siguientes: Los Coquitos, El Micro de Villa Mariana, La Mascota, Victoria de Girón y Julio Antonio Mella. Para su construcción fueron empleados diferentes sistemas constructivos que dieron solución, de una manera rápida y segura, a la necesidad de viviendas de la provincia, todos ellos derivados de cuatro sistemas que son el sistema Sandino, Gran Panel de Holguín (GPH), Gran Panel VI y FORSA. Al estudio de los sistemas constructivos se han dedicado diferentes investigadores, los cuales abordan las principales problemáticas de los sistemas constructivos utilizados en Camagüey, también existen investigaciones en la que se aborda la conservación de las viviendas en el centro histórico de la ciudad, pudiéndose entender por conservación a la defensa, protección, subsistencia y custodia, también a la acción y efecto de conservar-mantener en buen estado, guardar cuidadosamente, no perder. Una aproximación científica a la patología de las edificaciones y su rehabilitación exige el estudio de las lesiones más frecuentes, considerando como lesiones las manifestaciones exteriores del deterioro o desperfecto de las construcciones. Los estudios sobre patología necesitan un enfoque totalizador, no basta con estudiar los fenómenos relacionados con los estados de ruina o los aspectos de seguridad ante un posible colapso estructural más o menos inminente; todavía resultara un enfoque restringido si se incluyera los defectos de ejecución y deterioros de materiales. Un enfoque general exige estudiar, además, los problemas del deterioro ligados al acondicionamiento ambiental, las instalaciones y el equipamiento de las edificaciones. Esto nos lleva al análisis de los estados anormales de los edificios, considerando como tales, las anomalías debidas al uso y envejecimiento, los errores presentes en la concepción y desarrollo del proyecto, las consecuencias de los defectos de ejecución, las transformaciones o modificaciones provocadas por incidentes o actuaciones constructivas posteriores, e incluso los defectos en las terminaciones. En cada edificio lo que se pretende es tomar una decisión respecto a los niveles de daños, aventurar un juicio sobre la causa posible y proponer soluciones para subsanar las deficiencias observadas. Las características extraídas de la documentación revisada en las empresas sobre los sistemas constructivos utilizados en los asentamientos poblacionales del municipio de Camagüey distinguen su tipología, así como las variantes de cada uno de ellos. Las partes más deterioradas de las edificaciones son los elementos horizontales, específicamente las cubiertas, los sistemas de impermeabilización asociados y entrepisos, las causas más recurrentes de las alteraciones son: por errores o deficiencias en el proyecto, ejecuciones incorrectas o deficientes, materiales inapropiados o defectuosos, incorrecto uso o explotación de la construcción y el que más han afectado los cambios ambientales y la falta de mantenimiento. Uno de las causas principales de los deterioros observados es la humedad que es la presencia indeseada de agua en estado líquido en zonas, épocas y periodos variables (en estado gaseoso no puede hablarse propiamente sobre humedad, en cambio cuando se condensa es un líquido y queda incluida en esta definición).Al ser este el mayor causante de los deterioros observados se decidió hacer una investigación más profunda acerca de esta. La aparición de humedad conlleva a cuadros patológicos como: 1. Ambientes nocivos para la salud. 2. Disgregaciones, disociaciones y descomposiciones físicas, químicas biológicas sobre los materiales en que aparece. 3. Efectos antiestéticos o desagradables a los sentidos: olores, abombamientos, manchas, cambios de textura y color. Pero con frecuencia las humedades son el origen de otras lesiones constructivas, incluso más graves, que pueden llegar a cobrar tanta importancia por el riesgo que comportan, que ocultan la que fue la verdadera causa (casos de humedades mal reparadas, desprendimientos, etc.). La humedad en la construcción causa diversas patologías en las viviendas, provocando una disminución del confort hidrotérmico a la vez que puede comprometer el estado material de la vivienda, y hasta afectar la salud de las personas que la habitan. Esta humedad se convierte en un problema al momento que aparece de forma indeseada y en proporciones superiores a las aceptables. Las humedades en general presentan diferentes clasificaciones dependiendo de diversos criterios: ✓ Según el origen del agua: lluvia, terreno, averías de redes, vapor de agua ambiental. ✓ Según el elemento constructivo al que afectan: humedades en cubiertas, en fachadas, en muros o soleras enterrados, en cerramientos de planta baja, en sótanos, etc. ✓ Según el mecanismo que da origen a la penetración del agua en los materiales: presión hidrostática, succión capilar, difusión de vapor, condensación, etc. ✓ Según la causa que produjo el estado patológico: mala ejecución, mal diseño, avería o accidentes, deterioro o envejecimiento de los materiales, cambio de usos. La identificación de las lesiones más frecuentes en los sistemas constructivos utilizados en los asentamientos poblacionales del municipio Camagüey permitió tomar una decisión respecto a los niveles de daños y la causa para proponer soluciones. Luego de la investigación realizada se pudo llegar a la conclusión de que el 100% de edificios que se evaluaron no presentan daños estructurales significativos, aunque su total no tiene asociado un régimen de reparación ni mantenimiento, lo cual trae como consecuencia que se realicen ocasionalmente acciones individuales sin asistencia técnica, con un alto por ciento de resultados inadecuados y, por consiguiente, poco perdurables. A su vez uno de los mayores aciertos del estudio fue identificar la estrecha relación existente entre el estado técnico-constructivo determinado para cada inmueble y el nivel de daño generado, lo cual permite seleccionar y proponer las acciones constructivas que se deben llevar a cabo para la reparación de cada edificio. Debido a que los desperfectos en todos los edificios presentan causas semejantes e igual tratamiento se darán las soluciones generales y no especificando por cada uno de los edificios. En la investigación se señalan cada uno de los deterioros y se proponen soluciones a todos los deterioros, donde se analiza para cada solución: - El procedimiento de reparación. - Las recomendaciones - Herramientas y medios de protección - Materiales - Mano de obra Las acciones constructivas aportadas en cada caso y planificadas permiten la reparación de cada edificio, lo que lo hace más perdurable en el tiempo. Con esta información se elaboraron unas fichas donde se señalan - Sistema constructivo. - Urbanización - Identificación del deterioro. - Posibles causas. - Soluciones. En los anexos se muestran algunos ejemplos de estas fichas II. Conclusiones En el estudio realizado se pudo apreciar las principales características de los sistemas constructivos que luego fueron modificados para ser utilizados en los asentamientos poblacionales de nuestro municipio, permitiendo confeccionar un resumen de las peculiaridades de cada modificación usada en cada uno de los sistemas originales. Los edificios no presentan daños estructurales significativos, Los principales desperfectos son provocados por la humedad. Las principales causas de las lesiones y desperfectos se producen por errores o deficiencias en el proyecto, ejecuciones incorrectas o deficientes, materiales inapropiados o defectuosos, incorrecto uso o explotación de la construcción o cambios ambientales. Las acciones constructivas aportadas y planificadas en cada caso permiten la conservación de cada edificio, lo que lo hace más perdurable en el tiempo. III. REFERENCIAS 1. Acosta, J. C. (2016). Catálogo para la caracterización de las lesiones, causas y soluciones técnicas para disminuir las humedades en el Centro Histórico de la Ciudad de Camagüey. Trabajo de grado, Ingeniería Civil, Universidad de Camagüey, Camagüey, Cuba. 2. Álvarez, O. (s.f.). Monografía Patología, Diagnóstico y Rehabilitación de Edificaciones [formato electrónico]. La Habana: CUJAE. 3. Pérez, L. (1995). Humedad en las construcciones. (1a.ed.). Ciudad de La Habana, Cuba: ISPJAE. 4. Tejera, P. (s.f.). Patología de las Edificaciones [formato electrónico]. [s.l.]: [s.n.]. 5. Tejera, P. y Álvarez, O. (2010). Conservación de Edificaciones [formato electrónico]. [s.l.]: [s.n.]. Anexos: Fichas Técnicas Ficha técnica 1 Ficha técnica 2 MODELO PREDICTIVO ARQUEOLÓGICO PARA LA LOCALIZACIÓN DE NUEVOS SITIOS ARQUEOLÓGICOS EN BARACOA, CUBA. Arianny Hernández Lima1, Javier Ballote Alvarez2, Orlando R. Carraz Hernández3 1,2,3Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE). e-mail: ariannyhernandezlima@gmail.com,, javiab93@gmail.com, orlando@civil.cujae.edu.cu RESUMEN El municipio Baracoa cuenta actualmente con 141 sitios arqueológico identificados y un gran potencial para descubrir nuevos sitios, pues a pesar de que Baracoa, es el primer asentamiento colonial en Cuba y uno de los sitios donde existió una amplia población indígena, ha sido poco estudiado por campañas arqueológicas. El objetivo es identificar los sectores más favorables para la búsqueda de asentamientos aborígenes en el municipio Baracoa a partir de información geoespacial. En el proyecto se realiza un análisis de las variables ambientales estudiadas a partir de la investigación histórica y el análisis estadístico, estas variables son: localización de los sitios arqueológicos conocidos, elevación, pendiente, geología, distancia a fuentes de agua superficiales y distancia a la línea de costa. Con la aplicación de criterios de selección booleana y álgebra de mapas en un sistema de información geográfica (SIG) se obtuvo como resultado un modelo predictivo arqueológico (MPA). Se representan aquellas zonas donde sean válidas la mayor cantidad de variables, y por lo tanto serán las zonas más propicias para encontrar nuevos sitios. El índice de ganancia del modelo es de 76%, con lo cual se asegura una alta probabilidad de encontrar nuevos sitios arqueológicos en las zonas propuestas. PALABRAS CLAVES: Modelo Predictivo Arqueológico (MPA), Sistema de Información Geográfico (SIG), Baracoa, Arqueología. ARCHAEOLOGICAL PREDICTIVE MODEL FOR LOCATION OF NEW ARCHAEOLOGICAL SITES IN BARACOA, CUBA. ABSTRACT Baracoa currently has 141 identified archaeological sites and great potential to discover new sites, because despite the fact that Baracoa is the first colonial settlement in Cuba and one of the sites where there was a large indigenous population, it has been little studied by archaeological campaigns. The objective is to identify the most favorable sectors for the search for aboriginal settlements in the Baracoa municipality based on geospatial information. In the project, an analysis of the environmental variables studied from historical research and statistical analysis is carried out, these variables are: location of known archaeological sites, elevation, slope, geology, distance to surface water sources and distance to the coastline. With the application of Boolean selection criteria and map algebra in a geographic information system (GIS), an archaeological predictive model (APM) was obtained as a result. Those areas where the greatest number of variables are valid are represented, and therefore they will be the most propitious areas to find new sites. The gain rate of the model is 76%, which ensures a high probability of finding new archaeological sites in the proposed areas. KEY WORDS: Archeological Predictive Model (APM), Geographical Information System (GIS), Baracoa, Archeology,). INTRODUCCIÓN Convencionalmente, para la ubicación de nuevos sitios arqueológicos en áreas rurales, la investigación arqueológica basa su análisis en la información histórica y su relación con las características naturales y culturales, que en muchas ocasiones se evalúa de manera cualitativa. En este sentido, en las últimas décadas el desarrollo de medios informáticos y de los sistemas de información geográfica (SIG), han permitido el desarrollo y análisis de grandes volúmenes de información georreferenciada digitalizada [1]. Entre las metodologías más avanzadas de aplicación de análisis espacial mediante SIG se encuentran los Modelados Predictivos, como una aportación novedosa donde la combinación de variables del medio físico con la información arqueológica, permite identificar patrones de correlación espacial. Kholer y Parker [2] definen los modelos predictivos arqueológicos (MPA o APM por sus siglas en inglés: Archaeological Predictive Model) como “una técnica que predice como mínimo la localización de sitios arqueológicos en una región, basada en el patrón observado en una muestra o en asunciones acerca del conocimiento humano”. La base conceptual de los MPA es que los seres humanos habitan y usan algunos territorios más intensamente que otros debido a razones objetivas y cuantificables. Teniendo en cuenta estas razones, es posible evaluar el potencial de ocupación humana de un territorio concreto en el pasado. En la elaboración de los MPA se emplean fundamentalmente variables de carácter medioambiental. Se supone que existen variables ambientales del territorio que inciden de forma destacada en la elección de determinados lugares para su uso y aprovechamiento por parte de los seres humanos [3]. Breve caracterización del municipio Baracoa El municipio Baracoa se encuentra situada en el extremo noreste de la provincia de Guantánamo, a una distancia de 154 km de la capital provincial, enclavada en las terrazas marinas de Baracoa y rodeada por una zona montañosa (macizo montañoso Nipe-Sagua- Baracoa). Limita al noreste con el océano Atlántico, al suroeste con el macizo montañoso Nipe-Sagua-Baracoa, al oeste con el río Duaba y al este con el asentamiento humano de Guamá (figura 1) [4]. Figura 1. Ubicación geográfica de Baracoa (imagen obtenida mediante SASPlanet). El municipio cuenta actualmente con 141 sitios arqueológicos identificados, y gran potencial para descubrir nuevos sitios El objetivo es identificar los sectores más favorables para la búsqueda de asentamientos aborígenes en el municipio Baracoa, a partir de información geoespacial. MATERIALES Y MÉTODOS Se emplean para la identificación de características de los asentamientos aborígenes, en Baracoa: • Información de los diferentes sitios arqueológicos identificados en la provincia Guantánamo, proveída por la Oficina del Historiador de la Ciudad de Baracoa. Se cuenta con 306 lugares arqueológicas en la provincia, de las cuales 141 pertenecen al municipio Baracoa. • Mapa geológico de la República de Cuba 1:100 000 del Instituto de Geología y Palentología (IGP, 2010). • Modelo digital de elevación (MDE), el cual se obtiene mediante Shuttle Radar Topography Mission (SRTM), en https://earthexplorer.usgs.gov/ donde se produce uno de los más completos y de alta elevación de la Tierra. • Imágenes satelitales del área de estudio, las cuales se adquieren en https://earthexplorer.usgs.gov/. Earth Explorer es la conexión cliente/servidor que proporciona el acceso al Servicio Geológico de Estados Unidos (U.S. Geological Survey, USGS). Tanto en el pre-procesamiento como en el procesamiento y para la representación de los resultados se trabaja con el programa informático QGIS versión 3.16. Es un programa de código libre para plataformas GNU/Linux, Unix, Mac OS y Microsoft Windows. Consta de un conjunto de herramientas con las cuales se pueden crear datos, mapas, modelos, aplicaciones y consultar datos geoespaciales [5]. Procedimiento de trabajo para el diseño del modelo predictivo arqueológico Para el diseño del modelo predictivo arqueológico (MPA) se elabora una base de datos con la ubicación geográfica de los sitios arqueológicos conocidos y la representación de las variables ambientales que se relacionan con los asentamientos aborígenes. Se establecen los factores de inclusión y exclusión en cada variable, considerando la información extraída del análisis bibliográfico, y la relación entre características ambientales y sitios arqueológicos conocidos, mediante análisis estadístico. El diseño del MPA se efectúa mediante el álgebra de mapas, con la suma de los factores considerados de inclusión y exclusión, el cual se valida mediante el índice de ganancia de Kvamme (figura 2). Figura 2. Representación del procedimiento de trabajo para el diseño del modelo predictivo arqueológico. Creación de la base de datos El MPA tiene como objetivo predecir áreas en las que es probable que se encuentren sitios arqueológicos. Estos modelos identifican zonas dentro de las cuales se pueden encontrar sitios de interés arqueológicos y no a encontrar los sitios en sí [6]. La premisa con el modelado de sitios arqueológicos es que los pueblos indígenas estaban estrechamente vinculados a su entorno natural y cultural, era un factor determinante en sus asentamientos. Para la confección del MPA de la región de Baracoa, se examinaron las variables utilizadas en la bibliografía nacional e internacional, y se adaptaron al contexto del área de estudio, relacionándolas con los sitios arqueológicos ya conocidos (tabla 1). Tabla 1. Variables independientes del medio físico para el MPA. Variables primarias Variables derivadas Geología Litología Altimetría (MDE) Elevación Pendiente Hidrología Distancia a fuente de agua superficial Distancia a la costa Análisis de factores de inclusión y exclusión Se analizaron los siguientes factores: A. Sitios arqueológicos conocidos En la figura 3 se representa la ubicación de los sitios arqueológicos sobre el municipio Baracoa y se aprecia su distribución a lo largo de toda la costa y la filiación cultural presente: agroalfarero, preagroalfarero y protoagrícola. Figura 3. Ubicación geográfica de los sitios arqueológicos existentes en Baracoa [7] (imagen satelital obtenida en https://earthexplorer.usgs.gov/). B. Geología En el área de estudio se encuentran rocas máficas como gabros, dioritas, ultramáficas como dunitas, harzburgitas, whrelitas, y tectonitas donde se incluyen serpentinitas harzburgíticas y harzburgitas. También se aprecian conglomerados, tobas, calizas, areniscas, margas, limos, calizas arcillosas y arcillas. Debido a la diversidad litológica que existe en el área, se considera una variable a tener en cuenta (figura 4). En los sitios arqueológicos conocidos predominan los agroalfareros, por lo cual la presencia de arcilla es un factor inclusivo, como materia prima para la fabricación de objetos de cerámica [8]. Figura 4. Mapa geológico de Baracoa (IGP, 2010). C. Elevación Mediante el MDE se obtiene una medida de las elevaciones en metros del municipio Baracoa (figura 5). Se conoce que los asentamientos aborígenes predominaban en zonas llanas, con pocas elevaciones. Figura 5. Modelo digital de elevación de Baracoa (se obtiene en https://earthexplorer.usgs.gov/). D. Pendiente La herramienta pendiente permite obtener un mapa con las pendientes en grados, derivado del MDE (figura 6). Según Ortiz [8], los asentamientos aborígenes predominaban en las terrazas marinas, pero también se debe considerar el grado de las pendientes. Las construcciones y forma de vida de estos pobladores permiten descartar pendientes abruptas. Figura 6. Mapa de pendientes de Baracoa a partir del MDE obtenido en https://earthexplorer.usgs.gov/) E. Distancia a fuente de agua superficial Se tiene la hidrología del área de estudio a partir del MDE, mediante la herramienta: densidad de líneas, se calcula la densidad de los ríos y arroyos, como entidades lineales (figura 7). Según Ríos-Hernández [9] los aborígenes cubanos se establecieron en zonas costeras y cercanas a fuentes de abastecimiento de agua dulce y en las inmediaciones de los ríos y lagunas, por lo tanto, se emplea un radio de búsqueda de 1000 m como estimación de distancia válida entre las fuentes de agua dulce y los poblados aborígenes. Figura 7. Hidrología de Baracoa, obtenida en MDE (https://earthexplorer.usgs.gov/). F. Distancia a la costa En la ubicación de sitios arqueológicos conocidos en el área de estudio (figura 3) se observa una distribución predominante en áreas cercanas a la costa, por lo cual se considera una variable inclusiva dentro del modelo predictivo. Con la herramienta distancia al eje más próximo (puntos), se obtiene un archivo con la distancia que existe entre cada sitio arqueológico conocido y la línea de costa extraída. RESULTADOS Se decidió emplear el método del vecino más cercano para los sitios arqueológicos. Este método brinda información sobre la interacción entre eventos a escala local. El índice del vecino más cercano (NNI, Nearest-Neighbor Index) se define mediante la ecuación siguiente: 𝑁𝑁𝐼 = 𝑁𝑁𝑂𝐷/𝑁𝑁𝐸𝐷 (1) Donde: NNOD es distancia observada del vecino más cercano (Nearest Neighbor Observed Distance) y constituye la distancia promedio entre n eventos. NNED es la distancia esperada del vecino más cercano (Nearest Neighbour Expected Distance), se basa en una distribución completamente aleatoria. Un valor de NNI<1, se debe a que NNOD1 significa que NNOD>NNED, entonces los eventos están dispersos. El valor obtenido del índice NNI es 0,33. Como este valor es menor que uno, muestra que existe una autocorrelación espacial positiva en la distribución, es decir, existe una distribución agrupada. El NNED se obtiene con un valor de 1545 m, el cual se emplea para calcular estimación de la densidad de núcleo (KDE), mediante la aplicación de un mapa de calor. Esto representa áreas donde, por el efecto de la autocorrelación positiva, aumenta la probabilidad de encontrar nuevos sitios, por lo tanto, en la clasificación booleana se le otorga valor uno a las áreas que abarca el KDE que se obtiene y valor cero al resto del municipio (figura 8a). Para la Geología se le otorga en el ráster valor uno a las formaciones y depósitos con contenido de arcillas y donde se localizan sitios arqueológicos ya conocidos como los depósitos de limos arcillosos, limos gruesos, depósitos aluviales, palustres, y las formaciones Jaimanitas, Río Maya, Baracoa, Cabo Cruz, Cabacú, Sierra de Capiro, San Luis y Santo Domingo. Se le confiere valor cero a variables exclusivas como formaciones compuestas por calizas duras, los cúmulos máficos y ultramáficos, serpentinitas las cuales no favorecen a la agricultura (figura 8b). Con el análisis estadístico que se realiza al mapa de elevaciones se determinan que estos valores oscilan entre 0 y 402,65 m, con una media de 63,21 m, pero con un valor alto de desviación estándar, lo cual indica que los datos están muy dispersos alrededor de la media. En la clasificación booleana se propone valor uno a las áreas con elevaciones menores a 50 m y valor cero a las zonas con elevaciones mayores a 50 m (figura 8c). Para las pendientes se muestra un intervalo entre 0⁰ hasta 36⁰, con un valor medio de 7,48⁰, pero con una desviación estándar pequeña, lo que se puede interpretar como la presencia de datos agrupados. Existe un mayor número de sitios sobre pendientes menores de 5⁰, por lo tanto, en el ráster se le confiere valor uno a las pendientes menores de 5⁰ y se le otorga valor cero a las pendientes mayores de 5⁰ (figura 8d). Mediante la información hidrológica del municipio Baracoa se obtiene un ráster con una clasificación booleana, donde el valor uno representa áreas alrededor de los ríos y arroyos con mayor probabilidad de encontrarse restos arqueológicos y el valor cero zonas con menor probabilidad (figura 8e). Cuando se halla la distancia a la costa se aprecia una mayor cantidad de puntos hasta los 5 km, por lo que este valor se considera como radio para realizar un buffer que abarca las zonas con mayor probabilidad de encontrar restos arqueológicos. En el ráster se considera el área que cubre el buffer con valor uno y al resto se le otorga valor cero (figura 8f). Figura 8. Mapas booleanos: a) KDE de sitios arqueológicos, b) Geología, c) Elevación, d) Pendiente, e) densidad de línea, f) Distancia a la línea de costa. Diseño del modelo predictivo arqueológico En la construcción del MPA se realiza la suma de los factores de inclusión y exclusión establecidos, mediante el álgebra de mapas, que permite combinar capas ráster diferentes. La combinación se realiza de acuerdo a la ecuación siguiente: 𝑀𝑃𝐴 = 𝐾 + 𝐺 + 𝐸 + 𝑃 + 𝐻 + 𝐷 (2) Donde: K es el resultado del KDE de los sitios arqueológicos. G es la geología. E es elevación P es la pendiente. H es densidad de líneas aplicada a la hidrología. D es la distancia a la línea de costa. MPA es el modelo predictivo arqueológico obtenido. Se obtiene un ráster formado por la suma de cada variable donde se encuentran valores desde cero a seis. El cero representa el área donde no se encuentran factores inclusivos, y seis, donde están presentes todos los factores inclusivos. Las áreas con presencia de 0 a 2 variables se clasifican como zonas con una probabilidad baja para hallar nuevos sitios arqueológicos en Baracoa, de 3 a 4, probabilidad media y de 5 a 6, alta probabilidad (figura 9). Figura 9. Modelo predictivo arqueológico en el municipio Baracoa. Para conocer el grado de relación que existe entre cada variable ambiental considerada para el MPA se desarrolla una matriz de correlación. En esta matriz se aprecian muy bajos valores de correlación entre cada una de las variables, lo cual demuestra la independencia de las variables utilizadas. La mayor correlación (0,7) se obtiene entre la distancia a la costa y la elevación, característico de las terrazas marinas. El resto de las variables presentan una correlación menor que 0,41 (tabla 3). Tabla 3. Matriz de correlación de las variables ambientales Geología Elevación Pendiente Densidad Distancia a la costa Geología 1 0,16 0,09 -0,41 0,08 Elevación 0,16 1 0,38 -0,10 0,70 Pendiente 0,09 0,04 1 -0,11 0,39 Densidad -0,41 -0,1 -0,11 1 -0,05 Distancia a la costa 0,08 0,7 0,39 -0,05 1 La precisión predictiva de cualquier modelo debe verificarse para validar su eficacia. La formulación del modelo predictivo no garantiza la precisión de sus predicciones [10]. La precisión del MPA se mide principalmente en términos de su capacidad para clasificar correctamente tanto ubicaciones de sitios conocidos como sitios no conocidos. Una representación completa de la precisión del modelo incluye tanto el porcentaje de sitios correctamente identificados como el porcentaje de no sitios correctamente identificados [11]. La validez del modelo predictivo se obtiene mediante el índice de ganancia de Kvamme [12]: 𝐺𝑎𝑛𝑎𝑛𝑐𝑖𝑎 = 1 − (% á𝑟𝑒𝑎 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜 ∙ % 𝑑𝑒𝑙 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑠𝑖𝑡𝑖𝑜𝑠 𝑑𝑒𝑛𝑡𝑟𝑜 𝑑𝑒𝑙 á𝑟𝑒𝑎 𝑑𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜) Se confirma una ganancia del 76 % para este modelo, lo cual indica que el modelo tiene una buena capacidad para predecir el 76 % de los sitios. CONCLUSIONES Mediante el análisis de variables ambientales relacionadas con los sitios arqueológicos conocidos, se pudieron identificar rasgos característicos de los asentamientos aborígenes en el municipio Baracoa. El Modelo Predictivo Arqueológico elaborado para el municipio Baracoa, se considera válido para ubicar las áreas más favorables para la localización de nuevos sitios arqueológicos. Este modelo, susceptible de ser mejorado, puede utilizarse en la proyección de los métodos geofísicos en la prospección de nuevos sitios. REFERENCIAS BIBLIOGRÁFICAS 1. ALVAREZ, A. P.: ZELASCO, J.: MARTIN, H. y LINARES, S., 2013. Desarrollo de un Sistema de Información Geográfica para la gestión municipal mediante software libre. Resultados preliminares. En: II Congreso Nacional de Tecnologías de la Información Geográfica y II Jornadas de Sistemas de Información Geográfica. Los Polvorines, Argentina. 2. KOHLER, T. A. Y PARKER, S.C., 1986. Predictive models for archaeological resource location. En: Schiffer, M. B., eds. Advances in Archaeological Method and Theory. 9, 397-452, New York. 3. FERNÁNDEZ, S., 2009. Bases conceptuales y metodológicas de los modelos predictivos en Arqueología. En: eds. MAPA: Modelo Andaluz de Predicción Arqueológica. 8-32. 4. MENÉNDEZ-CUESTA, I. y M.Y. GARCÍA-CHAVEZ, M., 2005. Baracoa, la primera Villa. Instituto de Planificación Física (IPF). Disponible en: https://docslib.org/doc/6098986/baracoa-la- primera-villa 5. SÁNCHEZ, P., 2012. Manual operativo para la utilización del sistema de información geográfica Quantum GIS 1.8. 6. TILTON, J.C., DOUGLAS C.; PRIEBE, C.; SUSSMAN, D. y CHEN, L., 2012. Refinement of a Method for Identifying Probable Archaeological Sites from Remotely Sensed Data. Baltimore, Maryland, EE.UU. 7. HARTMANN, A., 2021. Sitios arqueológicos conocidos. Oficina del Historiador de la Ciudad de Baracoa. 8. ORTIZ, F. 1923. Los últimos descubrimientos arqueológicos en Cuba. Cuba Arqueológica. 1, 35- 49. 9. RÍOS-HERNÁNDEZ, A. 2018. Medios y tecnologías de los aborígenes cubanos para su subsistencia. Revista Ingenería Agrícola. 8(3). 10. NSANZIYERA, A.R., HASSAN; OUJAA, AICHA AND MUBEA, KENNETH., 2018. GIS and Remote-Sensing Application in Archaeological Site Mapping in the Awsard Area (Morocco). Geosciences. 8(207), 21. 11. CAMPBELL, J. 2007. "Archaeological predictive model of Southwestern Kansas". Tesis en opción al grado de Máster (inédita), Universidad de Kansas, Kansas. Disponible en: http://hdl.handle.net/1808/29614 12. KVAMME, K.L. 1988. Development and Testing of Quantitative Models. En: SEBASTIAN, J.A.L., eds. Quantifying the Present and Predicting the Past: Theory, Method, and Application of Archaeological Predictive Modeling. Denver, CO, USA: 325-428 ESTUDIO DE LA VARIACIÓN ESPACIO-TEMPORAL DE LOS ECOSISTEMAS RELACIONADOS CON EL AGUA EN LA REPÚBLICA DE CUBA: PRIMEROS RESULTADOS Willy Roberto Rodríguez Miranda1, Javier Ballote Álvarez1, Héctor Manuel Fernández Núñez1, Ernesto Solís Morales1 1Departamento de Geociencias, Universidad Tecnológica de La Habana “José Antonio Echeverría, Cujae. Calle 114, No. 11901 entre Ciclo Vía y Rotonda, Marianao, La Habana, Cuba. 1e-mail: willy@civil.cujae.edu.cu, jballote@civil.cujae.edu.cu, hector@civil.cujae.edu.cu, esmorales@civil.cujae.edu.cu RESUMEN Actualmente las técnicas de teledetección y minería de datos son empleadas para la solución de múltiples tareas en las Geociencias así como en otras esferas. En Cuba aún no ocupan el lugar que podrían tener y particularmente sus aplicaciones en estudios relacionados con los recursos hídricos son muy escasas. El empleo de estas herramientas en las investigaciones del Instituto Nacional de Recursos Hidráulicos podría aportar resultados económicos, técnicos y sociales de alto impacto a nivel nacional. En esta ocasión se presentan los primeros resultados asociados a un proyecto sectorial, en ejecución, entre el Departamento de Geociencias de la Cujae y el Instituto Nacional de Recursos Hidráulicos que pretende dar respuesta al indicador 6.6.1, de los Objetivos de Desarrollo Sostenible, de la Agenda 2030 para el Desarrollo Sostenible. Estos resultados, incluyen una monografía que presenta el desarrollo histórico y actual de las técnicas de teledetección durante el estudio de la variación espacio-temporal de los ecosistemas relacionados con el agua, una base de datos de más de dos terabytes con las escenas de las imágenes Landsat en el período 2000-2021 y un análisis de la variación espacio-temporal de los cuerpos de agua en un sector del territorio nacional. PALABRAS CLAVES: Geociencias, ecosistemas relacionados con el agua, teledetección, minería de datos, procesamiento digital de imágenes. STUDY OF SPACE-TEMPORAL VARIATION OF ECOSYSTEMS RELATED TO WATER IN THE REPUBLIC OF CUBA: FIRST RESULTS ABSTRACT The solution of multiple tasks in Geosciences as well as in other spheres remote sensing and data mining techniques are used. In Cuba, they still do not occupy the place they could have and particularly their applications in studies related to water resources are very scarce. The use of these tools in the investigations of the National Institute of Hydraulic Resources could provide high-impact economic, technical and social results at the national level. On this occasion, the first results associated with a sectorial project, in execution, between the Department of Geosciences of CUJAE and the National Institute of Hydraulic Resources that intends to respond to indicator 6.6.1, of the Sustainable Development Goals, of the 2030 Agenda for Sustainable Development. These results include: a monograph with the historical and current development of remote sensing techniques during the study of the space-time variation of ecosystems related to water, a database of more than two terabytes with the scenes of the images Landsat in the period 2000-2021 and an analysis of the space-time variation of water bodies in a sector of the national territory. KEY WORDS: Geosciences, water-related ecosystems, remote sensing, data mining, digital image processing. 1. INTRODUCCIÓN El buen funcionamiento de los ecosistemas relacionados con el agua y la gestión adecuada de los recursos hídricos son factores que contribuyen al logro de los 17 Objetivos de Desarrollo Sostenible (ODS). Sin embargo, un problema que dificulta considerablemente la protección y el restablecimiento eficaces de esos ecosistemas es que su gestión suele centrarse en el suministro de agua para usos exclusivamente humanos y productivos, sin considerar adecuadamente la integridad de sus funciones ecológicas y la diversidad biológica de las especies que los habitan. Consecuencia de ello ha sido el sacrificio de formas de vidas lacustres y fluviales, lo que en última instancia también puede llevar a la destrucción de los ecosistemas necesarios para sustentar esos usos. En ningún ámbito es tan aguda la crisis de la diversidad biológica como en los ecosistemas de agua dulce [1]. Los humedales desaparecen al triple de velocidad que los bosques: se estima que en los últimos 300 años se ha perdido el 87 % de todos los humedales del planeta, y más del 50 % desde 1900 [2]. Las amenazas que se ciernen sobre los ecosistemas relacionados con el agua (alteración del flujo, pérdida de conectividad, contaminación, degradación y pérdida de hábitat, y sobreexplotación de las especies) son el resultado de la actividad humana en los sectores de la agricultura, la generación de energía, la urbanización, la industria, la minería, la gestión de las inundaciones y el suministro de agua para uso doméstico. Los encargados de la adopción de decisiones deberían valerse de toda la información disponible para comprender mejor las amenazas que gravitan sobre esos ecosistemas y aplicar las medidas adecuadas para mitigarlas. El indicador 6.6.1 de los ODS sigue de cerca los cambios que se producen en diversos tipos de ecosistemas relacionados con el agua a fin de informar a las instancias decisoras sobre la forma de protegerlos y restablecerlos (ODS 6.6) para que puedan seguir beneficiando a las personas y al planeta. Los datos del indicador tienen por objeto apoyar todos los procesos de adopción de decisiones que puedan incidir en la cantidad, la calidad y, en última instancia, la salud ecológica del agua dulce de lagos, embalses, humedales, manglares, ríos y aguas subterráneas [3]. La Agenda 2030 es un proceso conducido por los países y propio de los países, que coloca sobre los países la responsabilidad de vigilar y reportar datos sobre todos los indicadores de los ODS. Se aplica un enfoque progresivo de vigilancia, lo cual significa que los países pueden utilizar datos derivados tanto globalmente como nacionalmente para informar sobre el indicador 6.6.1. Los datos globales tienen que ser reconocidos y validados nacionalmente para cumplir con la intención de la Agenda 2030. Los países deben aspirar a informar sobre todos los aspectos del indicador 6.6.1, para lo cual deben disponer de acceso a los datos y de capacidades para su procesamiento. Algunos países pueden tener capacidades para alcanzar este propósito, y otros países pueden no tener todos los datos disponibles. Los datos disponibles globalmente serán compartidos con las oficinas nacionales de estadística y otras autoridades relevantes para su validación a nivel de país, para asegurar que los ecosistemas relacionados con el agua estén representados con exactitud. Debido a que estos datos globales son derivados de observaciones satelitales de la Tierra, algunos países pueden poseer y dar retorno a sus propias observaciones, aun de mayor resolución y exactitud, que en ese caso deben ser utilizados [3]. El indicador 6.6.1 estudia los cambios en la extensión de los ecosistemas relacionados con el agua a lo largo del tiempo, a partir de una línea base seleccionada para 2001-2005. Se generan los datos anualmente y se toma un período de cinco años posterior para la validación y comparación [3]. Atendiendo a la participación de Cuba en la Agenda 2030 y la necesidad de cumplir sus compromisos relacionados con los ODS y, en particular, con lo planteado en el indicador 6.6.1, se aprueba el Proyecto Sectorial “Aplicaciones de la teledetección al estudio de la variación espacio-temporal de los ecosistemas relacionados con el agua en Cuba”, que se ejecuta entre el Departamento de Geociencias de la CUJAE y el Instituto Nacional de Recursos Hidráulicos (INRH). Este proyecto se plantea dar respuesta al indicador 6.6.1 y realizar el inventario de los ecosistemas nacionales relacionados con el agua, así como estudiar sus transformaciones espaciales y temporales utilizando las posibilidades de la teledetección y la minería de datos que, aunque han sido utilizadas con relativa frecuencia en las Geociencias, en el caso particular de las investigaciones hidrogeológicas son muy escasas [3]. La utilización de las técnicas de teledetección en investigaciones hidrogeológicas no es nueva y, por el contrario, han sido utilizadas con bastante frecuencia en el contexto internacional. Para el análisis de la información procedente de los sistemas satelitales es usual el empleo de técnicas de procesamiento de imágenes, así como el uso cada vez más frecuente de las posibilidades de la minería de datos asociada a la manipulación de grandes volúmenes de datos [4]. Existe un apreciable número de publicaciones que presentan los resultados de la teledetección y las tecnologías afines para dar solución a problemáticas relacionadas con los recursos hídricos en el ámbito internacional. Aunque en Cuba no es común su empleo, existen algunos ejemplos que muestran resultados aceptables [4]. En esta oportunidad se presenta el resultado preliminar de evaluar la aplicación de la teledetección durante el estudio de la variación espacio-temporal de los cuerpos de agua superficial en el sector sur oriental de la República de Cuba utilizando imágenes Landsat. 2. DESARROLLO En esta oportunidad se presentan tres resultados parciales de la ejecución del proyecto sectorial entre el Departamento de Geociencias, Cujae y el INRH. Monografía En el caso de Cuba, aunque existe un amplio informe presentado ante la ONU [5] relacionado con el estado del cumplimiento de los ODS, el primero según el propio documento, los aspectos vinculados con el indicador 6.6.1 son escasos y solo aparece lo siguiente, tomado textualmente del mismo: “En el año 2019 se elaboró una metodología para la extensión de los ecosistemas relacionados con el agua a lo largo del tiempo (meta 6.6) y, durante 2020, de conjunto con la Cátedra de Geofísica de la Facultad de Ingeniería Civil de la Universidad Tecnológica de La Habana «José Antonio Echeverría» (Cujae), se trabajó en el desarrollo de un paquete de herramientas para la implementación de dicha metodología a partir de 2021, con el apoyo del Programa de Naciones Unidas para el Medio Ambiente (PNUMA)” [3]. La monografía confeccionada constituye uno de los primeros resultados del referido proyecto sectorial y es producto de un amplio análisis bibliográfico sobre el empleo de las técnicas de la teledetección en el estudio de los ecosistemas relacionados con el agua en el contexto internacional y en el territorio nacional. Esta monografía se presenta en cuatro capítulos [3]: ▪ Cartografía de la variación espacio-temporal de los ríos, lagos y embalses. ▪ Cartografía de la variación espacio-temporal de los humedales y manglares. ▪ Cartografía de la variación espacio-temporal de turbidez, la salinidad y el estado trófico de los lagos. ▪ Aplicaciones de la teledetección a investigaciones del agua subterránea. BD de imágenes satelitales El uso de la teledetección, aunque ha sido amplio y con numerosos aportes, aún presenta severas limitaciones en aquellos países con escasos recursos tanto materiales como humanos para su utilización. Las observaciones desde el espacio permiten estudiar numerosos aspectos relacionados con los ecosistemas relacionados con el agua entre los que se encuentran la cartografía de las variaciones espaciales, los cambios temporales en la forma y en las variables relacionadas con el ciclo hidrogeológico. Para ello se han utilizado una amplia variedad de satélites, entre ellos la constelación de satélites Landsat constituye una fuente de datos muy valiosa. Desde el año 1972 llevan tomando imágenes de la Tierra de forma ininterrumpida con una periodicidad de 16 días y una resolución espacial de 30 metros, unido a su amplia cobertura global y las facilidades de descarga gratuita de los datos, lo hacen ideal para la cartografía espacio-temporal de los ecosistemas relacionados con el agua. Así queda recogido en la metodología de seguimiento del indicador 6.6.1 de los ODS, donde los trabajos que sirven de base para el cálculo del cambio en la extensión de los ecosistemas relacionados con el agua a través del tiempo emplean como base para su análisis las imágenes Landsat [6]. Atendiendo a lo antes planteado, se hizo un estudio de los principales sitios web que ofrecen la descarga de imágenes Landsat y se seleccionó el sitio Earth Explorer (https://earthexplorer.usgs.gov/) correspondiente al Servicio Geológico de los Estados Unidos (USGS), por ser el sitio oficial de la entidad administradora de los satélites y no tener restricciones para la descarga de información desde Cuba [6]. No se aplicó ningún criterio restrictivo como el filtrado por nubes en la selección de las imágenes para que las opciones de búsqueda del sitio no se viesen limitadas por el filtro. La selección se realizó manual, pues la mayoría de las escenas cubren una amplia zona de mar, y en ocasiones las nubes se concentran solo en dichas áreas y no en Tierra, con lo cual el filtro por nubes elimina estas escenas cuando realmente resultan útiles [6]. Al tener el Landsat una resolución temporal de 16 días, hay meses donde se tiene la misma escena en dos ocasiones, puesto que el satélite tomó muestras en los primeros 14 días del mes y luego a los 16 días, por lo que se tienen dos imágenes de la misma escena, en un mismo mes. En estos casos, se escogió la que menor nubosidad presentara [6]. Caso de estudio La extracción de los cuerpos de agua se fundamenta en la poca reflectancia del agua en el infrarrojo en comparación con otras coberturas, y en base a esto han sido desarrollados un grupo de métodos que permiten, con mayor o menor precisión, extraer los cuerpos de agua existentes sobre la superficie del planeta. Las posibilidades de identificar y extraer los cuerpos superficiales de agua a partir de imágenes satelitales depende de lo que se conoce como “firma espectral”, la que se obtiene a partir del valor de la reflectancia en función de la longitud de onda para cada una de las bandas presentes en el sensor. Este concepto incluye sus variaciones temporales, variaciones de las condiciones meteorológicas y de iluminación. Diversos estudios han permitido definir las firmas espectrales para los principales tipos de cobertura que pueden aparecer sobre la superficie de la Tierra [7]. Los cuerpos de agua poseen una dinámica propia que varía en el espacio y el tiempo, ocasionando influencias en otros ecosistemas naturales y en las comunidades humanas. Las variaciones que experimentan los ecosistemas relacionados con el agua pueden deberse a causas naturales o antropogénicas, provocando impactos demoledores en la vida del planeta. Una vía por excelencia para estudiar y realizar el seguimiento de estas variaciones lo representan, sin dudas, las técnicas de teledetección. El conocimiento acumulado por más de 50 años permite disponer de información valiosa que permite, no solo cartografiar las variaciones experimentadas por los cuerpos superficiales de agua, sino que, incluso, es posible estimar importantes propiedades relacionadas con los recursos hídricos y de esta manera establecer políticas acertadas para mitigar los impactos negativos ocasionados a estos ecosistemas. Para el estudio de la variación espacio temporal de los lagos, ríos y embalses, según lo que plantea [8] el procedimiento a seguir es el siguiente: ▪ Definir un período de referencia, en este caso se tomó como tal el quinquenio 2000-2004. ▪ Se toma el promedio de las observaciones anuales durante el período de referencia y se tiene la “línea base” correspondiente para los lagos y ríos. ▪ Se toma otro período de observaciones de cinco años y se promedia de manera similar al de referencia. ▪ Se calcula la variación porcentual del período objeto de estudio con relación al período de referencia. Para ello se utiliza la siguiente expresión: Sea β el promedio de la extensión nacional en el período de referencia (2000 a 2004). Sea γ el promedio de la extensión nacional de cualquier quinquenio posterior. Variación porcentual de la extensión = ((β-γ))/β × 100 ▪ Se define la variación porcentual, que permite conocer el sentido de cambio del sistema, según: Valores positivos indican un aumento de la extensión Valores negativos indican una disminución de la extensión Estos cambios en la extensión deben ser evaluados con cierta prudencia, pues representan cambios nacionales en la extensión de los ecosistemas y por lo tanto es necesario realizar análisis locales para tomar decisiones acertadas a niveles regionales, a escalas de cuencas y sub-cuencas. En el ejemplo que se presenta se incluyó, durante el procesamiento digital de imágenes, el siguiente grupo de operaciones utilizando fundamentalmente el software libre QGIS [9]: ▪ Eliminar bandeamiento en el caso del Landsat_7 (gdal_fillnodata) ▪ Aplicar la máscara de nubes y sombras (Cloud Masking) ▪ Aplicación de la corrección atmosférica en los casos necesarios (Dark Object Subtraction) ▪ Extracción de los cuerpos de agua superficial utilizando la combinación de varios índices desarrollados por diferentes investigadores (MNDWI, AWEI) ▪ Utilización de algoritmos de minería de datos ▪ Empleo del modelo digital de elevaciones (MDE) para corregir los cursos de los ríos 3. RESULTADOS Monografía Es el resultado de una amplia y profunda investigación bibliográfica que abarcó el análisis de más de 500 publicaciones científicas de alto nivel, impacto y reconocimiento entre la comunidad científica dedicada al empleo de las imágenes satelitales en el estudio de los recursos hídricos. En la misma se presenta el estado actual de la temática a nivel internacional y en Cuba, y se muestran aplicaciones del uso de la teledetección para la cartografía de la variabilidad espacio temporal de los ecosistemas relacionados con el agua. Se resumen también los principales sistemas de observación de la Tierra que han sido utilizados en estos estudios y se presentan ejemplos de aplicación en cada uno de los aspectos relacionados con estas investigaciones. En cierta medida, la monografía contribuye a llenar un vacío en la disponibilidad de bibliografía en idioma español que resuma aspectos esenciales en esta temática. Tiene valor no solo desde el punto de vista científico, sino también docente y será empleada en los cursos de pregrado y postgrado relacionados con el empleo de la teledetección en las investigaciones hidrogeológicas. Fue entregada con su ISBN 978-959- 261-616-5 en el mes de julio de 2022. Estructura de la BD Para la confección de la BD de imágenes satelitales se parte de la distribución del territorio nacional en 16 escenas Landsat (Figura 1) donde cada una abarca un área de 32 400 km2 [5]. Figura 1. Escenas de la plataforma satelital Landsat en las que se encuentra dividido el territorio nacional. Tomado de [5]. A su vez, para una mayor organización de la base de datos y para facilitar el proceso de descarga, las escenas fueron agrupadas por regiones. La tabla 1 muestra las escenas contenidas en cada región. Tabla 1: Listado de las escenas de Landsat en que se encuentra dividida la base de datos. Tomado de [5]. Región Escenas Occidente 17/44 17/45 16/44 16/45 15/44 15/45 Centro 14/44 14/45 13/44 13/45 13/46 Oriente 12/45 12/46 11/45 11/46 10/46 Se incluyen un total de 3447 imágenes del territorio nacional. De ellas 1410 (741Gb) corresponden a la región Occidental, 1034 (572 Gb) a la región Central y 1003 (512 Gb) para la región Oriental La base de datos está organizada por regiones, quinquenios y años (Figura 2). Figura 2. Estructura de la base datos. Ejemplo de la ubicación de las escenas del año 2018 de la región occidental de Cuba. Tomado de [5]. La BD incluye todas las imágenes necesarias para realizar el análisis de la variación espacio-temporal de los ecosistemas relacionados con el agua en el territorio cubano. Esta base de datos representa una herramienta importante, no solo para el estudio que aborda este proyecto sectorial, sino que además, puede ser utilizada en múltiples investigaciones dentro del territorio nacional y hasta donde se conoce, representa la primera sistematización de todas las imágenes Landsat en el período 2000-2021 que se confecciona en el país. Representa un volumen considerable de información con alrededor de 2 Terabytes y su resguardo impone serias complicaciones para cualquier entidad nacional, motivada por las conocidas limitaciones que existen en las mismas. La necesidad de disponer de esta BD en nuestro país está relacionada con las limitaciones tecnológicas y asociadas al bloqueo del gobierno estadounidense contra Cuba que impide, a los especialistas cubanos, trabajar con las posibilidades innegables que brinda la nube de internet. En estos momentos, todas las imágenes que componen la BD, se encuentran almacenadas en varias computadoras del Laboratorio de Geociencias y su traslado hacía el INRH representa la posibilidad de contar con otro respaldo de la BD que permita su utilización por los especialistas de este organismo nacional [5]. Cartografía de los cuerpos de agua superficiales en la zona oriental de Cuba El análisis de la variación espacio-temporal de los cuerpos superficiales de agua en el sur de la región oriental, después de aplicar los procedimientos previstos, ofreció los siguientes resultados (Tabla 2) Tabla 2: Variación espacio-temporal de los cuerpos de agua en el sur de la región oriental para el período analizado. Tomado de [9]. ID Línea Base VT_2010 VT_2015 VT_2021 Cuerpo de agua 0 0.16074 40.0896 -3.5834 -26.5398 1 1.91358 27.4292 50.9453 -236.5629 Embalse Cautillo 2 1.71918 14.4592 -36.8443 0.8481 Embalse Faustino Pérez 3 0.40158 5.8718 30.0762 47.1089 4 6.3576 -31.7950 9.6263 47.0838 Embalse Jaibo 5 4.59054 6.5796 -16.1628 -69.3918 Embalse La Yaya 6 0.1683 40.6417 -62.0321 -29.4118 7 0.84528 -24.8935 73.7010 1.4055 Embalse Parada 8 0.70614 -4.6393 2.4981 5.3021 Bahía Cabañas 9 0.33642 67.3622 43.8202 48.9032 Humedal (Bahía Gtmo) 10 0.2124 -22.4576 37.7119 20.3390 Humedal (Bahía Gtmo) 11 0.21186 -13.8488 29.0569 25.2336 Bahía de Guantánamo 12 4.29984 -0.5944 0.2637 0.6405 Gran Laguna Baconao 13 6.57432 -0.3587 15.1243 29.8407 Salina 14 4.78224 56.4137 -83.9995 83.7587 Humedal(??) 15 1.61622 35.1264 57.4006 -45.3948 Embalse Gilbert 16 3.75732 -45.4680 66.7769 17.5290 Gota Blanca 17 17.65656 -40.4039 65.8637 -11.4464 Embalse Protesta de Baragua 18 10.6686 20.2969 36.2072 -17.5131 Embalse Carlos M. de Céspedes 19 4.38156 -4.9626 13.4623 21.3294 Salina 20 1.16604 6.2211 26.3662 26.1346 Salina 21 0.12825 -12.2807 13.6842 12.9825 22 0.337275 -13.6758 72.5150 66.1107 Embalse Charco Mono 23 0.3051 37.7581 -44.2478 29.2035 Salina 24 0.387 -1.3953 14.8837 55.1163 Se muestra la variación espacio-temporal para el caso de embalse Protesta de Baragua en el período analizado (Figura 3). En las figuras 4 y 5 se muestran los resultados de la cartografía de los cuerpos de agua superficial en el sur de la región oriental del territorio nacional. 4. CONCLUSIONES Se cuenta con una monografía actualizada que resume el desarrollo histórico y las tendencias actuales en la utilización de las imágenes satelitales para el estudio de la variación espacio-temporal de los ecosistemas relacionados con el agua que representa un documento de consulta importante para los especialistas relacionados con la temática. Fue confeccionada una BD que permite disponer de las imágenes satelitales Landsat en el período 2000- 2021 que puede ser utilizada, no solo por los especialistas de las instituciones vinculadas con el proyecto sectorial, sino también por otros especialistas de diferentes perfiles en el territorio nacional. Se dispone de una evaluación preliminar de la variación de los ecosistemas relacionados con el agua en el territorio nacional con resultados similares a los presentados para el ejemplo mostrado en esta ocasión Figura 3: Variación espacio-temporal del embalse Protesta de Baragua en el período analizado. Tomado de [9]. 5. RECONOCIMIENTOS Aunque este trabajo es presentado por solo cuatro autores se debe reconocer la participación de los siguientes profesores del Departamento de Geociencias, que también forman parte de estos resultados. Dr. Ing. Emilio Ricardo Escartin Sauleda, Dra. Ing. Rosa Ma. Valcarce Ortega, Ing. Antonio Santibáñez Rodríguez, así como al grupo de estudiantes de Ingeniería Geofísica que realizaron su trabajo de culminación de estudios en el curso 2021-2022 relacionados con la temática. Se hace extensivo también al grupo de estudiantes de Geofísica 4to y 3ro que participaron en las tareas relacionadas con la BD. Figura 4. Cartografía de cuerpos de agua superficiales en el sur de la región oriental del territorio nacional de Cuba. Tomado de [9]. Figura 5. Cartografía de las corrientes superficiales en el sur de la región oriental del territorio nacional de Cuba. Tomado de [9]. 6. REFERENCIAS 1. ALBERT, J., DESTOUNI, G., DUKE-SYLVESTER, S.M., MAGURRAN, A.E., OBERDORFF, TH., REIS, R.E., WINEMILLER, K.O., and RIPPLE, W.J. Scientists’ warning to humanity on freshwater biodiversity crisis. Ambio. Perspective. Kungl. Vetenskaps Akademien. Royal Swedish Academy of Sciences. 2020. 10 pp. Disponible en: https://doi.org/10.1007/s13280-020-01318-8>. 2. GARDNER, R.C., and FINLAYSON, C. Ramsar Convention on Wetlands. (October 5, 2018). Global Wetland Outlook: State of the World’s Wetlands and their Services to People. Gland, Switzerland: Ramsar Convention Secretariat. 2018. 88 pp. Disponible en: https://ssrn.com/abstract=3261606>. 3. Rodríguez, W., Escartin, E., Fernández, H. y Valcarce, R. Estado actual del empleo de la teledetección para el estudio de los ecosistemas relacionados con el agua. La Habana. Departamento de Geociencias, Universidad Tecnológica de La Habana "José Antonio Echeverría", 2022. ISBN: 978-959- 261-616-5. 4. Rodríguez, W. Proyecto Sectorial: Aplicaciones de la teledetección al estudio de la variación espacio-temporal de los ecosistemas relacionados con el agua en Cuba. Departamento de Geociencias, Universidad Tecnológica de La Habana "José Antonio Echeverría". La Habana, Cuba. 2021. 5. Grupo Nacional para la Implementación de la Agenda 2030. “I Informe Nacional Voluntario, Cuba 2021”. Empresa de Artes Gráficas “Federico Engels”. Facultad de Economía, Universidad de La Habana. 2021. 123 pp. 6. Ballote, J., Santibáñez, A. y Solís, E. “Informe técnico: Confección de la BD de imágenes satelitales. Período 2000-2021”. Departamento de Geociencias, Universidad Tecnológica de La Habana "José Antonio Echeverría". La Habana, Cuba. 2022. 9 pp. 7. Huang, Ch., Chen, Y., Zhang, S., Wu, J. Detecting, extracting and monitoring surface water from space using optical sensors — a review. American Geophysical Union. [ref. de 15 de julio 2022]. Disponible en Web: https://doi.org/10.1029/2018RG000598>. 8. ONU-Agua. Cálculo del cambio en la extensión de los ecosistemas relacionados con el agua con el paso del tiempo: Metodología de seguimiento del indicador 6.6.1 de los Objetivos de Desarrollo Sostenible [en línea]. PNUMA. [ref. de 10 de julio 2022]. Disponible en Web: https://wesr.unep.org.projects>. 9. Guerra Jardines, M. “Aplicaciones de la teledetección en el estudio de las variaciones espacio- temporales de los cuerpos de agua superficial. Caso de estudio: región suroriental de Cuba”. Tutor: Willy Rodríguez. Trabajo de Diploma, Universidad Tecnológica de La Habana "José Antonio Echeverría", La Habana, 2022. sobre los autores Willy R. Rodríguez Miranda. Doctor en Ciencias Técnicas y Profesor Titular del Departamento de Geociencias de la Universidad Tecnológica de La Habana “José Antonio Echeverría”. Miembro de la Sociedad Cubana de Geología, La Sociedad Cubana de Matemáticas, la Sociedad Cubana de Reconocimiento de Patrones y la Unión Nacional de Arquitectos e Ingenieros de la Construcción de Cuba. Jefe del Proyecto Sectorial “Aplicaciones de la teledetección al estudio de la variación espacio-temporal de los ecosistemas relacionados con el agua en Cuba”. Javier Ballote Álvarez. Profesor Instructor del Departamento de Geociencias de la Universidad Tecnológica de La Habana “José Antonio Echeverría”. Miembro de la Sociedad Cubana de Geología. Participa en el Proyecto Sectorial “Aplicaciones de la teledetección al estudio de la variación espacio- temporal de los ecosistemas relacionados con el agua en Cuba”. Héctor Manuel Fernández Núñez. Profesor Titular del Departamento de Geociencias de la Universidad Tecnológica de La Habana “José Antonio Echeverría”. Miembro de la Sociedad Cubana de Geología. Participa en el Proyecto Sectorial “Aplicaciones de la teledetección al estudio de la variación espacio- temporal de los ecosistemas relacionados con el agua en Cuba”. Ernesto Solís Morales. Profesor Instructor del Departamento de Geociencias de la Universidad Tecnológica de La Habana “José Antonio Echeverría”. Miembro de la Sociedad Cubana de Geología. Participa en el Proyecto Sectorial “Aplicaciones de la teledetección al estudio de la variación espacio- temporal de los ecosistemas relacionados con el agua en Cuba”. COMPORTAMIENTO DE VULNERABILIDAD DE EDIFICACIONES DE HORMIGÓN SEGÚN NIVELES DE AGRESIVIDAD Ing. Delilah Díaz Fernández 1, Dra. Ing. Marietta Llanes Pérez 2, Ing. Rafael Valdés González3 1Especialista MICONS, Ave. Independencia, Plaza de la Revolución. La Habana, Teléfono (53) 7870 delilah@micons.cu 2Profesora Universidad Tecnológica de La Habana CUJAE, Calle 114 No. 11901 entre 119 y 127 Marianao. La Habana, Teléfono (53) 72663829 marietta@civil.cujae.edu.cu, mariettallanes67@gmail.com , RESUMEN En este trabajo se realiza un estudio de vulnerabilidad para edificaciones cercanas al litoral de La Habana a partir de resultados de estudios de diagnóstico y patología de las estructuras, realizados por la Empresa Nacional de Investigaciones Aplicadas (ENIA). Esta investigación se rige según los requisitos técnicos de las normas de hormigón NC 345:2011 [1], NC 967:2013 [2] y NC 1340:2020 [3]. Esta última establece la durabilidad por desempeño para diferentes niveles de agresividad atmosférica y química a que puede estar sometido el hormigón. Se llevaron a cabo un grupo de análisis estadísticos encaminados a establecer la correlación de las variables escogidas en la muestra (Porosidad efectiva, Resistencia a la penetración del agua, Coeficiente de absorción capilar y Sorptividad). Dada la escasez de información se procedió a diseñar una fórmula matemática que permita estimar los valores de sorptividad presentes en estas estructuras a fin de determinar un parámetro más que caracterice la predisposición o susceptibilidad de las estructuras a determinados tipos de deterioros. Se trabajó con una serie de ensayos realizados en “Investigación de la absorción capilar de hormigones con áridos calizos cubanos” realizado por el Dr. Juan José Howland y Ana Rosa Martín Acosta [4] y se pudo apreciar que los valores de porosidad efectiva y sorptividad en la inmensa mayoría de la muestra estudiada no cumplen con lo especificado en la norma NC 1340:2020. Quedando así definida una condición de susceptibilidad con causa fundamental en los errores cometidos en la etapa de diseño y ejecución de la obra. PALABRAS CLAVES: durabilidad por desempeño del hormigón, porosidad efectiva, sorptividad, absorción capilar. BEHAVIOR OF VULNERABILITY OF CONCRETE BUILDINGS ACCORDING TO LEVELS OF AGGRESSIVENESS ABSTRACT In this work, a vulnerability study is carried out for buildings near the coast of Havana based on the results of diagnostic and pathology studies of the structures, carried out by the National Applied Research Company (ENIA. This research is governed by the technical requirements of the concrete standards NC 345: 2011[1], NC 967:2013 [2] y NC 1340:2020 [3]. The latter establishes the principle of durability by performance for different levels of atmospheric and chemical aggressiveness to which concrete maybe subjected. A group of statistical analyzes were carried out aimed at establishing the correlation of the variables chosen in the sample (effective porosity, resistance to water penetration, capillary absorption coefficient and sorptivity). Given the scarcity of information, a mathematical formula was designed to allow estimating the sorptivity values present in these structures in order to determine one more parameter that characterizes the predisposition or susceptibility of the structures to certain types of deterioration. Working with a series of tests carried out in "Investigation of the capillary absorption of concrete with Cuban limestone aggregates" carried out by Dr. Juan José Howland and Ana Rosa Martín Acosta [4]. After analyzing these results, it could be seen that the effective porosity and sorptivity values in the vast majority of the sample studied do not comply with what is specified in the NC 1340:2020 standard. Thus being defined a condition of susceptibility with a fundamental cause in the errors committed in the design and execution stage of the work. KEY WORDS: concrete performance durability, effective porosity, sorptivity, capillaries absorption 1. INTRODUCCIÓN La durabilidad del hormigón es una propiedad sujeta a muchas variables de la cual depende la calidad final de la obra y en gran medida su rentabilidad. El incumplimiento de las pautas establecidas por la norma vigente y violaciones de proyecto durante el proceso de ejecución son los principales agravantes de la calidad en la terminación de estas construcciones, propiciando que la incidencia de la contaminación del medio ambiente y del aerosol marino ataquen con más severidad a estas estructuras [5]. La porosidad influye considerablemente en la durabilidad y calidad del hormigón, al evaporarse parte del agua utilizada en la mezcla durante el proceso de fraguado se crean cavidades hasta el interior del elemento estructural siendo un mecanismo de trasporte para agentes contaminantes. El nivel de porosidad depende en gran medida de la relación agua-cemento de la mezcla, de las características de los áridos utilizados y su graduación, de la compactación, del proceso de fraguado y curado del elemento en cuestión. La velocidad de absorción del agua por parte del hormigón (sorptividad) además de medir los valores de absorción capilar (cantidad de agua que absorbe el hormigón) también mide la velocidad con que el hormigón absorbe el líquido respecto al tiempo. En la sorptividad influye la morfología de los poros, dentro de ésta se encuentran la tortuosidad, la continuidad relativa y la variación de los diámetros capilares [6]. El 100% de nuestro territorio nacional está potencialmente expuesto a riesgos tanto climatológicos como medioambientales en mayor o menor medida, a consecuencia de ser una isla y de tener una configuración geográfica estrecha y alargada. En esta investigación solo se han abordado los riesgos vinculados al medioambiente. Cuba tiene 232 zonas pobladas situadas en 5 kilómetros de costa y a una altura inferior a los 5 metros sobre el nivel del mar. De estas 63 se consideran asentamientos urbanos y 169 rurales. De 32 ciudades importantes con poblaciones superiores a los 20.000 habitantes, 13 se consideran ciudades costeras, incluyendo La Habana y Santiago de Cuba [7]. Esta esta investigación se hace necesario determinar el comportamiento de las condiciones de vulnerabilidad de las edificaciones de hormigón en la línea costera de La Habana a partir de conocer la porosidad efectiva y la velocidad de absorción capilar en estudios realizados anteriormente a dichas edificaciones y se llega a estimar la sorptividad mediante métodos estadísticos para saldar el vacío de información que ha dejado la no realización de este ensayo en los estudios previamente realizados, todo lo cual aportará elementos para predecir el comportamiento del avance del deterioro. De lo anterior se plantea como hipótesis que, si se establece una correlación entre la porosidad efectiva y la velocidad de absorción capilar de los hormigones que componen las edificaciones existentes en la línea costera de la Habana, a través de un análisis estadístico y una ecuación matemática establecida para ello, es posible determinar el nivel de vulnerabilidad con un nivel de confianza aceptable. La utilización de los ensayos realizados por una entidad competente y con gestión de calidad certificada ENIA, con la utilización de herramientas matemáticas probadas y avaladas, le brinda rigor científico técnico a los resultados que se obtienen. Se hizo énfasis en las edificaciones que se encontraban más cercanas a la línea costera, por el gran valor patrimonial que poseen éstas, incluso siendo muchas de ellas utilizadas como viviendas. Estas edificaciones por su situación geográfica sufren de lesiones y grandes deterioros que aumentan el costo de mantenimiento y disminuyen su vida útil [8]. Los ataques más frecuentes que pueden afectar la durabilidad del hormigón armado son los ataques por iones cloruro el cual es más frecuente en edificaciones cercanas al mar [9], las emisiones de agentes contaminantes producto de actividades industriales y generadoras de energía, los ataques biológicos, reacción árido-álcali, en las investigaciones sobre este ya que por lo general se asume que los áridos del hormigón son inertes pero en la actualidad se sabe que una buena parte de los áridos, en especial los de origen calizo, presentan en su interface con la pasta de cemento una interface química en la que se crea ciertas sustancias nocivas para el hormigón, la carbonatación del hormigón por la acción de las emisiones de carbono es una de las lesiones más frecuentes en las estructuras y razón por la que ocurre la corrosión del acero de refuerzo. En la actualidad se han logrado grandes avances para mitigar la acción de estos agentes agresivos y aumentar la vida útil de las estructuras, el método de protección más utilizado es el que brinda el recubrimiento de hormigón al acero de refuerzo (protección primaria), otro método es el uso de revestimientos a base de resinas y acrílicos los cuales forman una película cortando la continuidad entre los poros impidiendo el paso de estos agentes contaminantes y llegar a corroer el acero de refuerzo y otros métodos como la protección de las barras de acero mediante pilas galvánicas entre otras (protección secundaria). Los resultados de este trabajo permitirán en una segunda etapa de investigación determinar un tipo de protección secundaria que impida el paso de los agentes contaminantes a partir de conocer realmente el estado de vulnerabilidad de las edificaciones cercanas al litoral asociados a la porosidad efectiva y sorptividad. Por lo general estos métodos de protección y reparación son costosos por lo que se requiere que las estructuras por su propia protección primaria sean capaces de ser durables ante estos tipos de ataques químicos y físicos, se han realizado varios métodos para predecir el tiempo de vida útil del hormigón, el modelo de Bazant´s, el modelo de Model y otros más tratan de predecir el tiempo de vida servicio de las barras de acero [10]. En Cuba, generalmente se proyecta para una vida útil de 50 años, para lo cual de acuerdo al nivel de agresividad a la que va a ser sometida la estructura y la importancia tanto económica como social de la misma se regulan los parámetros de espesor de recubrimiento, relación agua-cemento, contenido mínimo de cemento, entre otras [3]. 2. MÉTODOS Y MATERIALES Situación en el litoral costero de La Habana La costa norte de La Habana posee uno de los medios más agresivos de Cuba, donde sus edificaciones muy susceptibles a la aparición de patologías que afectan su durabilidad. Dentro de la zona del litoral costero se encuentran edificaciones con un importante valor patrimonial, económico y social donde destaca El Centro Histórico de La Habana. El estado técnico constructivo de estas viviendas en general se encuentra en pésimas condiciones: el 44,3 % tienen fallas estructurales de techo; el 42,0% grietas o desplomes en las paredes; el 24,1% hundimientos de piso; el 51,4 % filtraciones en el techo o entrepiso; el 37,8 %filtraciones en las paredes; y el 19,8 % otras afectaciones [11]. Toda la zona del litoral norte de La Habana es la más crítica en Cuba ya que esta está constituida en su mayoría de zonas no apantalladas de la ciudad y que carecen de árboles de gran altura que impidan el impacto directo de los iones cloruro a las estructuras y aparejado a esto se suma la falta de mantenimiento, la cual incrementa los efectos del impacto del ambiente agresivo costero de La Habana. Las Patologías observadas en la muestra estudiada son la aparición de grietas y fisuras en elementos estructurales, desprendimiento del recubrimiento de hormigón quedando en varias ocasiones el refuerzo expuesto, manchas de humedad y eflorescencias, corrosión de los aceros de refuerzo y derrumbes parciales de vigas y losas. Resultados de ensayos realizados a la estructura Con el fin de estimar el comportamiento de la velocidad de absorción a partir de la porosidad efectiva se realizó un análisis estadístico con la meta de correlacionar estas propiedades y obtener una herramienta matemática validada para un nivel de confianza predefinido que sirva de sustento al análisis. En la tabla 1 se muestra un ejemplo de los datos registrados de ensayos realizados por la ENIA a 20 edificios de La Habana entre los que se cuentan Polo de viviendas Ciudad Libertad, Fábrica de chocolate Gerardo Abreu, Empresa de productos inyectables LABIOFAM, Hotel Catedral, Edificio de viviendas de 25 y N, Museo de la Revolución, Nueva sede del OSDE Agrícola, Escuela de Música ISA, Hotel Comodoro, La Cabaña, Escuela de Energía y Minas, entre otros. Los resultados evidencian que no se realizaron ensayos de sorptividad, los cuales se estimarán a través de métodos estadísticos. Tabla 1. Muestra de datos de porosidad efectiva, resistencia a la penetración del agua y coeficiente de absorción capilar. Ejemplo de datos registrados en un edificio Nombre de la edificación Dirección Elemento Resistencia a la penetración del agua (m)(s/m2) Coeficiente de absorción capilar(k)(kg/m2.S1/2) Porosidad efectiva (ξ)(%) Sorptividad (m .s 1 /2) Empresa de productos inyectables LABIOFAM KM 8 1/2 Ave. Boyeros. Boyeros Losa 1 38688400 0,025860 16 No existe Losa 2 104885850 0,014193 15 No existe Losa 3 94228622 0,011532 11 No existe Losa 4 34041189 0,025307 15 No existe Losa 5 61884444 0,023643 19 No existe Losa 6 47906174 0,018605 13 No existe Al registrarse los datos de los 20 edificios estudiados se pudo observar elevados valores de porosidad efectiva, en algunos casos casi dos veces por encima del valor máximo normado (10 % según NC1340:2020) pueden evidenciar el estado técnico de estas estructuras. El coeficiente de absorción capilar da una idea de que las relaciones agua-cemento de los elementos testeados en muchas ocasiones no fueron las más optimas por su elevado valor. Comportamiento de las condiciones de vulnerabilidad de la muestra seleccionada Se tomó una muestra de 20 edificaciones cerca del litoral costero de La Habana de las cuales se tomaron los datos de resistencia a la absorción del agua, coeficiente de absorción capilar y porosidad efectiva con el fin de evaluar el estado del hormigón utilizado en las mismas. Estas forman parte del informe técnico de los estudios de diagnóstico realizados por la ENIA. Para analizar el nivel de vulnerabilidad de la muestra estudiada se empleó un análisis estadístico para determinar la correlación existente de los datos recogidos. Para ello se realizó un análisis de correlación bi-variada para dos variables aleatorias continuas, utilizando el coeficiente de correlación de Pearson o el coeficiente de Spearman según el tipo de distribución normal o no de los valores. En este caso se aplicaron las pruebas de normalidad (Kolmogorov-Smirnov y Shapiro-Wilk). Ambos test resultaron significativos (valor p de significación estadística < 0,05), por lo que se rechaza la hipótesis de normalidad. Las variables de resistencia a la penetración del agua, coeficiente de absorción capilar y porosidad efectiva no siguen una distribución normal, por lo que para medir la correlación entre las variables aleatorias continuas se empleó el coeficiente de Spearman [12] [13] [14] [15]. Como resultado a partir de estudio estadístico se conoce que existe correlación entre la resistencia a la penetración del agua y el coeficiente de absorción capilar (p=0,000). Por lo que cuando aumenta la resistencia a la penetración del agua disminuye el coeficiente de absorción capilar, esto se explica ya que al utilizar un hormigón menos poroso disminuye la permeabilidad del mismo. (Fig.1). En cambio, quedó demostrado que no existe correlación entre la porosidad efectiva y la resistencia a la penetración del agua (p=0,164) (Fig.2) [16]. Fig. 1. Diagrama de dispersión entre la penetración del agua y el coeficiente de absorción capilar. Fig. 2. Diagrama de dispersión entre la porosidad efectiva y la resistencia a la penetración del agua. El análisis estadístico entre la porosidad efectiva y el coeficiente de absorción capilar, arrojó que existe correlación entra ambas variables (p=0,000), por lo que cuando aumenta la porosidad aumenta el coeficiente de absorción capilar (0,751) (Fig. 3). Fig. 3. Diagrama de dispersión entre la porosidad efectiva y el coeficiente de absorción capilar Análisis estadístico para la determinación del nivel de vulnerabilidad y predicción del comportamiento Para lograr una predicción de los valores de sorptividad que tendría la muestra estudiada se procedió a tomar una muestra más pequeña proveniente de una investigación realizada por el Dr. Juan José Howland Albear titulada “Investigación de la absorción capilar de hormigones con áridos calizos cubanos” [5] Con los resultados obtenidos en este trabajo se procedió a modelar una ecuación matemática. Tabla 2. Muestra obtenida de “Investigación de la absorción capilar de hormigones con áridos calizos cubanos” Código K (k g /m 2.s 1 /2) m (s /m 2) P o ro s id a d Efectiva Sorptividad (m .s 1 /2) A/C D -0 .4 6 ,5 6. 1 0 - 3 1 ,0 8. 1 0 8 6 ,9 6 9 ,7 3. 1 0 -5 0,4 D -0 .4 5 9 ,4 2. 1 0 - 3 8 ,4 3 .1 0 7 8 ,5 7 1 ,1 0. 1 0 -4 0,45 D -0 .5 1 ,3 4. 1 0 - 2 6 ,1 4. 1 0 7 1 0 ,3 0 1 ,2 9. 1 0 -4 0,5 D -0 .6 1 ,9 0 .1 0 - 2 5 ,5 3. 1 0 7 1 4 ,0 0 1 ,3 6. 1 0 -4 0,6 D V -0 .4 5 ,0 3. 1 0 - 3 1 ,3 3. 1 0 8 5 ,6 0 8 ,6 9 .1 0 -5 0,4 D V -0 .4 5 7 ,3 2. 1 0 - 3 9 ,3 6. 1 0 7 6 ,9 9 1 ,0 4. 1 0 -4 0,45 D V -0 .5 1 ,0 2 .1 0 - 2 7 ,0 9. 1 0 7 8 ,5 7 1 ,1 9 .1 0 -4 0,5 D V -0 .6 1 ,7 9 .1 0 - 2 4 ,6 1. 1 0 7 1 2 ,0 2 1 ,4 7. 1 0 -4 0,6 Al proceder a comprobar el nivel de correlación de la muestra escogida se verifica estadísticamente que cumple con los parámetros de normalidad, que incluye medidas de tendencia central, variabilidad y de forma, con particular interés en el estandarizado de skewness y el estandarizado de kurtosis, por lo que al obtenerse valores dentro del rango de 2 y -2 se considera que es una distribución normal. En todos los casos el nivel de confianza es del 95% por lo que existe correlación entre el par de variables continuas. Estimación de los valores de sorptividad de la muestra seleccionada Luego de probar que existe una correlación entre estas variables y que responden a una distribución normal se procede al diseño de la ecuación. Para ello se determina el error estimado y se hace un análisis de variabilidad. Los resultados muestran un modelo múltiple de regresión linear que describe la relación entre la sorptividad y tres variables independientes. La ecuación obtenida es la siguiente donde k es el coeficiente de absorción capilar y m la resistencia a la penetración del agua: Sorptividad = 0,000147524 + 0,00513271*k - 3,86589E-13*m - 0,00000622717*Porosidad La estadística R-cuadrado indica que el modelo explica el 100 % de la variabilidad de la propiedad sorptividad con un error del 0 %. La estadística Durbin-Watson es utilizada para contrastar si existe dependencia entre los residuos, a un nivel de significación del 5 %P=0,1293es mayor que 0,05 por lo que se acepta la hipótesis nula de independencia de los residuos. De los análisis realizados se concluye que: De la muestra estudiada se puede observar la fuerza y la dirección de la relación lineal y proporcionalidad de estas variables estadísticas. Existe una correlación entre la resistencia a la penetración del agua y el coeficiente de absorción capilar inversamente proporcional, es decir cuando aumenta la resistencia a la penetración del agua disminuye el coeficiente de absorción capilar. Esto se explica ya que al utilizar un hormigón menos poroso disminuye la permeabilidad del mismo. En cuanto a la porosidad efectiva y el coeficiente de absorción capilar presentan una correlación directamente proporcional lo cual tiene sentido ya que al utilizar un hormigón más poroso aumenta su permeabilidad. De su gráfico de dispersión se puede saber que estas dos variables poseen una relación lineal fuerte debido a que la nube de puntos es estrecha y alargada. La ecuación obtenida posee un error de estimación del 0 % y cumple con la hipótesis nula de independencia de residuos lo que indica que puede ser utilizada en la investigación. 3. RESULTADOS Los resultados corresponden a los valores de soprtividad correspondientes a la muestra seleccionada obtenidos mediante métodos matemáticos. Con estos resultados junto con las demás propiedades se podrá caracterizar el grado de vulnerabilidad de estas edificaciones según las normas establecidas. Resultados de sorptividad Se procede a estimar los valores de sorptividad de la muestra recogida con la ayuda de la ecuación de regresión múltiple obtenida anteriormente para los 20 edificios, tal como se muestra en la tabla 3 en la que se presentan los resultados de algunos de los 20 edificios estudiados a modo de ejemplo. Tabla 3. Valores de sorptividad obtenidos Nombre de la edificación Dirección Elemento Sorptividad (m .s 1 /2) Polo de viviendas Ciudad Libertad Calle 120 y 118. Comunidad Militar Ciudad Libertad. Playa Losa de entrepiso 1 0,000227988 Losa de entrepiso 2 6,07733E-05 Losa de entrepiso 3 0,000217493 Losa de entrepiso 4 0,000210255 Losa de entrepiso 5 0,000200114 Losa de entrepiso 6 0,000184825 Losa de entrepiso 7 0,000196704 Losa de entrepiso 8 0,000266336 Losa de entrepiso 9 0,000254337 Losa de entrepiso 10 0,00015265 Losa de entrepiso 11 0,000178491 Losa de entrepiso 12 0,000183132 Losa de entrepiso 13 0,000265239 Losa de entrepiso 14 0,00021395 Losa de entrepiso 15 0,000127656 Losa de entrepiso 16 0,00011964 Fábrica de chocolate Gerardo Abreu Vía blanca y Serrano. El Cerro Losa de entrepiso 1 Losa de entrepiso 2 0,000228083 Losa de entrepiso 3 0,000260838 Losa de entrepiso 4 0,000211626 Losa de entrepiso 5 0,000184937 Losa de entrepiso 6 0,000213745 Losa de entrepiso 7 0,000183102 Losa de entrepiso 8 0,000232801 Losa de entrepiso 9 0,000230779 Viga invertida 1 0,000169458 Edificio de ventanilla única Aduana Control km 3 1/2 Ave Boyeros. Boyeros Viga invertida 2 0,000186874 Viga invertida 3 0,000205083 Losa de cubierta 0,000216074 Columna 1 0,000226527 Columna 2 0,000204564 Viga 1 0,000238135 Viga 2 0,000261498 Viga 3 0,000267565 Losa 0,000186958 Columna 3 0,000232766 Viga 4 0,000176474 Polo de viviendas Ciudad Libertad Calle 120 y 9na. Playa Losa de cimiento 1 0,000120836 Losa de cimiento 2 0,00016645 Losa de cimiento 3 0,00018959 Losa de cimiento 4 0,000216068 Losa de cimiento 5 0,000198274 Losa de cimiento 6 0,00021117 Losa de entrepiso 1 -9,74747E-05 Columna 2 0,000149376 Columna 3 0,000232891 Fig. 4. Gráfico de dispersión. En el caso específico analizado se obtuvieron los siguientes resultados: - De las 131 muestras estudiadas de sorptividad 17 no cumplen con lo establecido en la norma la cual estipula para los niveles de agresividad presentes en las cercanías del litoral costero un máximo de 5 x 10-5 m/s1/2. - En cuanto a la porosidad efectiva de las 148 muestras estudiadas solo 8 cumplen el valor normado que representa el 10 %. 4. CONCLUSIONES En cuanto a la porosidad efectiva y el coeficiente de absorción capilar presentan una correlación directamente proporcional lo cual tiene sentido ya que al utilizar un hormigón más poroso aumenta su permeabilidad. De la muestra escogida solo el 7,4 % cumplen con los valores establecidos en la Norma Cubana NC1340:2020 mientras que el 78 % cumplen con los valores límites de sorptividad. Lo que indica que la porosidad efectiva es el factor más relevante a la hora de estudiar la vulnerabilidad de estas edificaciones. En este sentido dada la correlación entre la porosidad efectiva y el coeficiente de absorción capilar se intuye que la principal causa del deterioro de estas edificaciones proviene de errores en el diseño y vertido de la mezcla, un proceso de compactación y curado del hormigón deficiente junto con la elevada agresividad del ambiente donde se sitúan. Se pudo predecir los valores de sorptividad de la muestra obtenida gracias a un análisis de regresión múltiple el cual arrojó un error de estimación del 0 %. REFERENCIAS 1. NC-345, N.C. (2011). "HORMIGÓN ENDURECIDO — DETERMINACIÓN DE LA ABSORCIÓN DE AGUA POR CAPILARIDAD." 2. NC-967, N.C. (2013). "HORMIGÓN HIDRÁULICO — DETERMINACIÓN DE LA VELOCIDAD DE ABSORCIÓN DE AGUA (SORPTIVIDAD)." 3. NC 1340. NC (2020). "HORMIGÓN HIDRÁULICO. ESPECIFICACIONES." 4. HOWLAND ALBEAR, Juan José., MARTÍN ACOSTA, Ana Rosa. "Estudio de la absorción capilar y la sorptividad de hormigones con áridos calizos cubanos." Materiales de Construcción, 2013, Vol. 63, 312, 515-527. ISSN: 1988-3226 5. HOWLAND ALBEAR, Juan José. H., et al. "Investigación de la Velocidad de Absorción de Agua de Hormigones con Áridos Calizos Cubanos, según los Requerimientos de la Norma Norteamericana ASTM C1585-04.". 2012. 6. ORTEGA FERNÁNDEZ, Francisco. ALONSO, Guillermo; VIGIL BERROCAL, Miguel Ángel; ANDRÉS VIZÁN, Sara "Caracterización del ambiente para el proyecto de estructuras.". 2019, (Málaga). Disponible en Web: http://dspace.aeipro.com/xmlui/handle/ 7. HOWLAND ALBEAR, Juan José, CASTAÑEDA VALDES, Abel; CORVO PEREZ, Francisco; MARTÍN ACOSTA, Ana Rosa. "El ambiente agresivo costero de La Habana y su impacto sobre las estructuras de Hormigón Armado." Revista CENIC Ciencias Químicas, Vol. 46, pp. 1-8, 2015. 8. AGUIRRE A. M., MEJIA GUTIERREZ, R. "Durabilidad del hormigón armado expuesto a condiciones agresivas", Materiales de Construcción, 2013, Vol. 63, 309, 7-38, ISSN: 1988-3226 9. VALCARCE, María Beatriz, VAZQUEZ, Marcela Vivian. "Corrosión de estructuras de hormigón armado emplazadas en ambiente marino”, Nexos, 2017, ISSN: 0328-5030. 10. SURESH Balla.; BISHWAJIT Bhattacharjee, "Reinforcement corrosion in concrete structures and service life predictions", 9th International Symposium on Advance Sciencia and Technology in Experimental Mechanics, Volume: Paper no 108, November 2014. 11. OCHOA ALOMA, Alina "Desafío de una utopía. Una estrategia integral para la gestión de la salvaguarda de La Habana Vieja". Libros impreso. Edición 2. Ed. Ediciones Boloña: Oficina del Historiador de la Ciudad de La Habana, 2022. 12. MONGOMERY, Douglas C. Diseño y análisis de experimentos. México: Editorial Iberoamérica. 1991. ISBN 968-7270-60-8. 13. CANAVOS, George C. Probabilidad y estadística, aplicaciones y métodos. Virginia Commonwealth University. México: Editorial Iberoamérica, 1998. 87pp. ISBN 968-451-856-0. 14. WAPOLE, Ronal E. Probabilidad y estadísticas para ingenieros. México: Editorial Iberoamérica, 1999. ISBN 970-17-0264-6. 15. BAIRD, D. C. Experimentación, una introducción a la teoría de mediciones y al diseño de experimentos. México: Editorial Iberoamérica, 1991. ISBN 968-880-223-9. 16. Programa de computación Stargraphics. PROYECTO DE INVESTIGACIÓN: NECESIDAD DE LA INNOVACIÓN EDUCATIVA COMO ESTRATEGIA DEL VÍNCULO UNIVERSIDAD- EMPRESA. Dr. C. Manuel Pedroso Martínez 1, Ing. Anni Marien Cabrera Romeu2 Ing. Sarah Enríquez Guerra. 3 1Universidad de Matanzas. manuel.perdroso@umcc.cu, 2Universidad de Matanzas. anni.marien@umcc.cu, 3Universidad de Matanzas. sarah.enriquez@umcc.cu RESUMEN La verdadera competitividad y perfeccionamiento de las empresas se consigue con mejoras en la productividad, que pasa por la investigación desarrolladora, la transferencia de tecnologías a los procesos de producción, gestión y distribución de los bienes y servicios y esencialmente por la formación continua de los recursos humanos. Constituye, por tanto, una tarea primordial para las instituciones de estudios superiores y centros productivos fomentar las relaciones a través de proyectos de investigaciones en conjunto, la realización de prácticas laborales de los estudiantes en sus entidades, firmas de convenios de colaboración, conferencias especializadas, foros, seminarios, entre otros. En este sentido, se define como objetivo de la presente investigación, analizar la importancia que tiene el vínculo Universidad-Empresa en la generación de procesos de desarrollo económico en la provincia Matanzas. Se reflexiona sobre la necesidad de establecer una estrategia de desarrollo territorial, dentro de la que debe enmarcarse una auténtica política de formación y evolución del componente educativo en los aspectos más significativos de las Ciencias Empresariales. El objeto de estudio es la carrera de Ingeniería Civil de la Universidad de Matanzas. PALABRAS CLAVES: Ingeniería Civil, proyecto de investigación y vínculo universidad-empresa. EXPERIENCES IN EDUCATIONAL INNOVATION AS A STRATEGY OF THE UNIVERSITY-BUSINESS LINK. SUMMARY The true competitiveness and improvement of companies is achieved with improvements in productivity, which goes through developing research, the transfer of technologies to the processes of production, management and distribution of goods and services and essentially through the continuous training of resources. humans. It is, therefore, a primary task for higher education institutions and production centers to foster relationships through joint research projects, work placements for students in their entities, signing of collaboration agreements, specialized conferences, forums, seminars, among others. In this sense, it is defined as the objective of this research, to analyze the importance of the University-Enterprise link in the generation of economic development processes in the Matanzas province. It reflects on the need to establish a territorial development strategy, within which an authentic policy of training and evolution of the educational component in the most significant aspects of Business Sciences must be framed. The object of study is the Civil Engineering degree at the University of Matanzas. KEYWORDS: Civil Engineering, researchproject and university-university link. INTRODUCCIÓN Cuba tiene un firme compromiso con el desarrollo sostenible e inclusivo, y para ello intenta movilizar las palancas del conocimiento, la ciencia, la tecnología y la innovación. El país ha hecho un sostenido esfuerzo por fomentar la educación, en particular la educación superior, y cuenta con capacidades científicas y tecnológicas no desestimables. Sin embargo, el conocimiento dista aún de convertirse plenamente en la fuerza social transformadora que permita impulsar el cumplimiento del Plan Nacional de Desarrollo Económico y Social hasta 2030. Aún existe conocimiento utilizable no utilizado. La respuesta es avanzar hacia un socialismo cada vez más respaldado por el conocimiento [1]. La actividad de investigación e innovación en la educación superior y su vinculación al entorno económico y social es un tema recurrente a nivel internacional y regional. En ello influyen directamente la contribución de los procesos sustantivos universitarios, su integración a la formación y docencia universitarias y la creación de una ciudadanía global en torno a los Objetivos de Desarrollo Sostenible [2]. Aprovechar el aporte de la academia, incrementar el impacto de las universidades, impactar en el desarrollo local aportando conocimientos y lograr encadenamiento productivo son algunas de las líneas de trabajo que desde diferentes ministerios se están desarrollando con mucha fuerza y que obedecen a la política del país. El papel de nuestras universidades en el desarrollo económico del país es muy importante y se le está dando alta prioridad en el plan de la economía para el 2020. Cuando se habla del vínculo universidad- empresa, se habla del vínculo del conocimiento en función del desarrollo de la sociedad, teniendo en cuenta los Objetivos de Desarrollo Sostenible planteados por el país hasta 2030. En ello, las universidades se deben enfocar en el empeño de incrementar el impacto de la academia en los sectores estratégicos para el desarrollo económico y social. Hay prioridades en el plan de la economía 2020: una de ellas es aprovechar el aporte de la academia, el potencial científico y el vínculo universidad-empresa [3]. Una de las normas jurídicas que sustentan esta política y que parte de la Constitución de la República es el Decreto 363, que norma lo relativo a los parques científicos tecnológicos. Este decreto está concebido para crear nuevas formas organizativas que incentiven la aplicación de los resultados de la ciencia. En este momento se crean variantes para implementar el decreto, a saber: crear empresas de ciencia y tecnología en la Universidad Central de Las Villas (UCLV) y la Universidad de Ciencias Informáticas (UCI). Estas empresas son de capital 100% cubano y se seleccionaron estas universidades porque tenían infraestructuras creadas. Hoy se habla de crear parques científicos tecnológicos en la UCI y se elabora actualmente un expediente para la creación de uno de estos parques en la Universidad de Matanzas (UM). El país en su totalidad está en función de que todos los procesos universitarios tributen a esos sectores estratégicos [3]. Con el fin de cumplir con la compleja tarea de hacer productivo el conocimiento y la educación, se analiza detalladamente el proceso de formación de la carrera Ingeniería Civil desde la integración con el sector empresarial en la provincia Matanzas, dejando ver el estrecho vínculo que ha logrado la Facultad de Ciencias Técnicas/Departamento de Construcciones con diversas entidades empresariales que responden al sector de la construcción en el territorio. El objetivo de la ponencia es describir la necesidad de un Proyecto de Investigación: Experiencias y necesidades en la Innovación Educativa como estrategia del Vínculo Universidad-Empresa. METODOLOGÍA Se realizó un estudio descriptivo de las necesidades de un Proyecto de Investigación, así como de las estrategias del Vínculo Universidad-Empresa. Las unidades de estudios facilitaron las indagaciones empíricas se concentraron intencionalmente en el sector de la construcción. Se estudiaron 17 organismos del territorio matancero. En correspondencia se aplicaron métodos de la investigación de nivel teórico, entre ellos estuvieron el histórico-lógico, el analítico-sintético y el inductivo-deductivo que permitieron el estudio, análisis y determinación de los antecedentes fundamentales y la transformación necesaria relación entre la teoría y la práctica. El método de nivel empírico aplicado fue la encuesta, el análisis de consulta a expertos, talleres de trabajo, observación participativa, trabajos con el sector empresarial, reuniones territoriales, visitas a las empresas y las tendencias internacionales y documentos. RESULTADOS Y DISCUSIÓN Las universidades cubanas tanto en pregrado como en posgrado tienen concebido una importante participación en la construcción de un Sistema de Innovación en el país [4] por lo que se requiere trabajar en la formación de profesionales de perfil amplio, siendo responsabilidad de las entidades educativas de todos los niveles la creación de proyectos de investigación en los cuales los estudiantes apliquen los conocimientos recibidos y por lo tanto satisfagan las demandas de la sociedad. Los nuevos actores económicos en este sector son el Trabajo por Cuenta Propia (TCP), las Cooperativas No Agropecuarias (CNA) y las Micro-pequeñas y Medianas Empresas (MIPYMES), encargados de impulsar el desarrollo de la economía nacional y enrumbar al país hacia un socialismo próspero y sostenible. Teniendo en cuenta lo establecido en el Decreto Ley 49 las MIPYMES son unidades económicas con personalidad jurídica, que poseen dimensiones y características propias, y que tienen como objeto desarrollar la producción de bienes y la prestación de servicios que satisfagan necesidades de la sociedad. Como actor con personalidad jurídica, responde con patrimonio a sus obligaciones fiscales, crediticias, laborales, medioambientales, contractuales y cualquier otra que se derive del ordenamiento jurídico vigente. Las MIPYMES de propiedad privada podrán ser constituidas por las personas naturales residentes permanentemente en Cuba, mayores de 18 años. Quedan imposibilitados de ser socios de una MIPYME los que a sean socios de otra, y aquellos que se desempeñen como cuadro o funcionario del Estado o del Gobierno u ocupan cargos electivos con carácter profesional en un órgano estatal. Entre tanto, las Micro- pequeñas y Medianas Empresas de propiedad estatal estará constituidas por personas jurídicas aprobadas por el Ministerio de Economía y Planificación, mientras que las de propiedad mixta podrán formarse por personas jurídicas de diferentes tipos de propiedad [5]. Muchos son los autores que dirigen sus investigaciones hacia el estudio del desarrollo social y económico, su evolución y comportamiento en los diferentes escenarios en los que, de manera muy particular, nuestro país se ha visto inmerso. Algunos se enfocan en estudiar la gestión humana de empresas para el desarrollo [6], otros en analizar la influencia del capital social en los procesos de desarrollo local [7], y otros muchos en hacer ver la importancia del componente Desarrollo Educativo como clave en la evolución del desarrollo socio-económico a diferentes escalas [8-11]. Para analizar la evolución del sector empresarial en el desarrollo socio-económico de la provincia Matanzas, se utilizó una matriz de datos, de la cual se realizó una descomposición por dimensiones y áreas temáticas. Fueron estudiados cinco años en el período 2015-2020, definiéndose un total de 78 indicadores explicativos de aspectos específicos y de tipo socio-económico. Como resultado de la aplicación del método de componentes principales se obtuvieron las características subyacentes en el desarrollo socio-económico de la provincia, las que a su vez fueron utilizadas para la jerarquización en cada una de las dimensiones y para explicar la evolución de los sectores priorizados en el período estudiado. Los principales componentes identificados fueron: • Dimensión económica y espacial • Dimensión demográfica y laboral • Dimensión social Lo realmente importante en esta identificación de dimensiones, es diferenciar entre distintos niveles de desarrollo y los componentes que más están incidiendo en ello para poder brindar una contribución a la toma de decisiones por parte de los sectores empresariales implicados. Especialmente significativo fue, que el primer componente del análisis global, constituyó una síntesis del potencial económico productivo e inversionista, la concentración del desarrollo turístico y urbano, así como la capacidad de atracción y la orientación social del desarrollo. En base a los resultados de la investigación empírica y considerando los rasgos distintivos del modelo de desarrollo socio-económico en la provincia, así como los grupos de instrumentos que ofrecen las políticas empresariales, es posible realizar algunas recomendaciones para contribuir a fomentar el desarrollo más equilibrado y mejor articulado en toda la región matancera; ellas son:  Desarrollar una política de especialización de determinadas actividades económicas en la cabecera provincial  Establecer una política de canalización de desarrollo hacia los centros regionales funcionales más importantes de la provincia  Atenuar los desequilibrios mediante una mayor dotación de infraestructuras y mantenimiento de las existentes  Potenciar los estudios y proyectos de desarrollo local y rural, conjuntamente con acciones concretas en el orden económico y productivo  Incrementar vínculos entre la Universidad y los sectores priorizados, así como concederle una prioridad especial a la ejecución de investigaciones multidisciplinarias sobre este aspecto Sin dudas, uno de los principales retos del desarrollo socio-económico cubano, en perspectiva, es la disminución de la aun visible desarticulación entre el espacio de formación profesional y los sectores productivos regionales. En ello, la provincia de Matanzas ha trabajado de manera coordinada, ampliando el aprovechamiento del aporte profesional, el potencial científico y el vínculo universidad-empresa, cuyo equilibrio se ha incrementado en el período investigado. En este sentido la Universidad de Matanzas ha dejado ver su fortalecimiento de nexos con el sector empresarial, aspecto que responde directamente al objetivo definido en el presente estudio. La educación y la Universidad juegan un papel primordial, pues como demuestra Becerra [8]: “…un componente clave en la evolución del desarrollo socio-económico a escala territorial constituye el Desarrollo Educativo. Éste a su vez, repercute significativamente sobre los demás componentes.” Sin embargo, los estudios latinoamericanos son muy escasos en tal sentido, con la excepción de Cuba que ha desarrollado un modelo propio de integración de las Universidades como centros de innovación regional y local en las respectivas regiones en que se ubican las instituciones educativas. La Universidad de Matanzas es un ejemplo a esta afirmación. El Presidente de los Consejos de Estado y de Ministro de la República de Cuba, en su visita a la Universidad de Matanzas en abril de 2019, expresó: “Esta tendrá que ser una ciudad de los saberes, no para la élite, sino para resolver los problemas de la sociedad” [12]. Nada más cercano a las palabras del mandatario que los nexos creados entre la casa de altos estudios y el sector empresarial perteneciente a toda la provincia. La carrera Ingeniería Civil, en su afán de alcanzar resultados satisfactorios en los modos de actuación profesional de sus egresados, ha mantenido en el período analizado un vínculo estrecho y activo con uno de los sectores priorizados de la región: el sector de la construcción (Tabla 1). Respecto al análisis de las tendencias a nivel internacional en la enseñanza de la Ingeniería Civil, se realizó un profundo estudio y análisis comparativo por parte de los autores del presente estudio, según la información disponible en las páginas Web de decenas de universidades, seleccionando entre ellas varias de las primeras en el ranking internacional, las acreditadas en la formación de ingenieros civiles, y otras universidades reconocidas en América Latina y el resto del mundo [13, 14, 8, 9]. En apretada síntesis estas tendencias se resumen, entre otros aspectos educativos de marcada significancia, por la potenciación de la relación Universidad–Empresa/Comunidad a través de proyectos (investigaciones aplicadas, innovación y/o extensión universitaria) y por el desarrollo creciente de la infraestructura universitaria mediante la creación de parques científicos tecnológicos. Para la identificación de los posibles escenarios nacionales e internacionales que están vigentes durante la formación de ingenieros civiles en la UM, se analizan las demandas de los sectores estratégicos de la producción en función de las condiciones actuales y futuras en el país. El estudio de estas demandas deja ver a los autores de la presente investigación el grado de conformidad expresado por dichos sectores respecto al encargo social y pertinencia del profesional que egresa, avalado por numerosos conocimientos y cualidades, en los que destaca la formación y capacitación empresarial. En este sentido cabe destacar el papel que juega la disciplina Ciencias Empresariales en la formación de los estudiantes de Ingeniería Civil en la UM, la que cubre un total de 80 horas/clases y se imparte en el segundo año académico de la carrera. Con la misma se procura la formación empresarial desde las bases teóricas imprescindibles que garanticen el dominio de temas de contabilidad, costo, finanzas, dirección integrada de proyecto, dirección empresarial y otros, sirviendo de base para el adiestramiento del egresado una vez concluido el ciclo de pregrado y futura superación posgraduada en esta disciplina. En su proceso evaluativo se miden entre otros, los siguientes conocimientos [15]:  Fundamentos de la Dirección Empresarial y de Proyectos. Conceptos básicos de la dirección empresarial y de proyecto. Contenido y alcance de la dirección empresarial y de proyectos. Enfoque sistémico. Sistema de dirección empresarial y de dirección por proyecto. La realidad cubana y el papel del ingeniero en la economía. Reglamento del proceso inversionista, funciones de los diferentes actores del proceso. Fases del proceso inversionista, principales acciones a desarrollar en ellas. Formas de acometer proyecto. Principios y procedimientos fundamentales de la Dirección de proyecto  Las operaciones económicas en la empresa. La planificación y contratación económica. Presupuesto. Análisis del cumplimiento del plan a través de indicadores de eficacia y eficiencia. El papel del contrato en la dirección empresarial y sus implicaciones. Fuentes de financiamiento. Análisis económico y financiero. El control interno. Sistema de control interno. Evaluación de riesgos  Planificación y Programación. Conceptos. Estructura de desagregación de proyectos. Planificación de recursos materiales, equipos, mano de obra y tiempo de duración de las actividades. Programación del plazo, características de los métodos de programación empleados. Programación del costo, diferentes tipos de estimados, sistema presupuestario vigente  Preparación técnica para la ejecución. Organización de Obras. Concepto. Organización de los trabajos principales de excavación, hormigonados y montajes. Determinación de las necesidades de facilidades temporales, su dimensionamiento y ubicación en el área de la obra. Proyecto de seguridad y salud, contenido, reglamentación vigente, medidas de protección individual y colectivas  Apoyo informático para la dirección de proyecto. Herramientas computacionales para la planificación y programación de proyectos. Su empleo. La formación empresarial que hoy se garantiza en la carrera Ingeniería Civil de la UM, se concibe de manera general como la principal herramienta que permitirá a estos profesionales de la construcción, asumir la concepción integral del desarrollo definida por el modelo socio-económico cubano a concretar y alcanzar en los territorios, municipios y localidades de toda la provincia. Tabla 1_Convenios firmados por la dirección de la carrera Ingeniería Civil (Departamento de Construcciones), la Facultad de Ciencias Técnicas (FCT) de la Universidad de Matanzas y entidades empresariales del territorio. Nº Entidad Empresarial Fecha de Firma Fecha de Caducidad 1 Empresa de Investigaciones para la Construcción de Matanzas (ENIA Matanzas) 7-12-20 7-12-25 2 Empresa de Investigaciones de Proyectos e Ingenierías (EIPI Matanzas-Unidad Docente) 14-10-20 14-10-23 3 AZCUBA 16-10-19 16-10-22 4 UNIÓN Nacional de Arquitectos e Ingenieros de Cuba (UNAICC) 17-5-2019 17-5-2022 5 Empresa de Materiales de la Construcción 14-12-2018 14-12-21 6 Centro Provincial de Vialidad Matanzas 14-3-18 15-3-21 7 Empresa Provincial de Mantenimiento y Construcción de Matanzas 11-1-16 8 Empresa de Construcción y Montaje de Matanzas (ECMM-Unidad Docente) 15-4-19 15-4-22 9 EMPAI (Marco) 22-12-20 22-12-23 10 ECMOT Empresa de Construcción y Montaje de Obras del Turismo 14-2-20 14-2-23 11 ARCOS (Marco) (Unidad Docente) 17-11-20 17-11-23 12 Departamento Provincial de Planificación Física (Marco) 22-11-20 22-11-23 13 ENPA 21-10-20 21-10-23 14 TCP 1-6-21 1-7-26 15 EMPIFAR 1-6-21 1-7-26 16 Acueductos y Alcantarilla de Matanzas (AGUAS Varadero) 24-6-21 24-6-26 Se logra firmar posterior a estas fechas, un convenio macro con la cadena Gran Caribe al que pertenece el Meliá Internacional de Varadero, con esta institución ya se cuenta un proyecto de Investigación titulado: Gestión Sostenible para el Mantenimiento Constructivo de instalaciones hoteleras. Este importante proyecto cuenta con 5 grandes líneas que resuelven los problemas de la instalación hotelera área Construcción, económica, turismo, educación y un área agrícola. Para la confección del proyecto de investigación se realizaron diversas acciones entre las que se encuentran: análisis de necesidades y prioridades de trabajo de las entidades involucradas en las investigaciones del sector empresarial y la universidad, identificación de modo de actuación al cual responderían las investigaciones (en este caso investigación e innovación en el sector de las construcciones), identificación de las relaciones entre currículo con el objetivo de identificación de conocimientos habilidades y valores principales a dominar acorde al modo de actuación profesional, valores principales a dominar (dignidad, honestidad y responsabilidad), análisis de criterios tenidos en cuenta para una futura evaluación de efectos/impactos de los proyectos de investigación. Se hizo necesario el análisis de los criterios pues la investigación debe tener aplicación en la institución, los resultados de la investigación deben tener impactos (efectos) en el entorno social y productivo, se debe socializar los resultados en el entorno social y productivo y se debe reconocer los premios a los investigadores. Con estos variados convenios se deja ver que el conocimiento constituye el bien más preciado en aras de implementar rutinas productivas con mayor eficiencia y responder a las exigencias que demanda el sector empresarial, lo cual se convierte en motivo principal para abrir las puertas a nuevos convenios y alianzas en el mercado. Incrementar el vínculo de estas entidades empresariales con la FCT/ Departamento de Construcciones, posibilita un perfeccionamiento en el desarrollo de campos vinculados a la producción de materiales para la construcción, la rehabilitación moderada de los sistemas de acueducto de la provincia, conservación y mantenimiento del patrimonio matancero, diseños estructurales óptimos y novedosos, entre otros. Pero en base a las experiencias desarrolladas es posible identificar un conjunto de limitaciones a las que se ha enfrentado el vínculo Universidad-Empresa, las cuales es necesario superar con vistas a lograr una mayor contribución al desarrollo socio-económico de la provincia. Las experiencias recogidas dejan ver que las empresas no siempre valoran en su justa dimensión las oportunidades y potencialidades que ofrece la UM con sus graduados en Ingeniería Civil, no siempre realizan un adecuado aprovechamiento del equipamiento técnico disponible y no viabilizan, en ocasiones, el acceso a la información por parte de profesores y estudiantes del Departamento de Construcciones. A su vez, la Universidad no siempre explota en su justa dimensión las oportunidades que brinda el entorno empresarial para desarrollar con los estudiantes situaciones problémicas en base a experiencias prácticas reales, no siempre orienta sus prioridades de superación a las demandas locales y no explora todas las oportunidades que brinda el sector empresarial para obtener fondos conducentes al desarrollo de proyectos empresariales. CONCLUSIONES 1. Al término de la investigación se concluye que los factores limitativos del desarrollo del tejido empresarial en la provincia de Matanzas están muy relacionados con el componente Desarrollo Educativo. 2. La experiencia de la UM específicamente la carrera de Ingeniería Civil, muestra avances notables en tal sentido; sin embargo, es necesario continuar fortaleciendo y profundizando el vínculo Universidad-Empresa, a partir de los resultados derivados de los análisis efectuados en la presente investigación, como la vía más segura para ofrecer soluciones a los problemas de la producción y los servicios propios de la provincia. REFERENCIAS BIBLIOGRÁFICAS [1] DÍAZ-CANEL BERMÚDEZ M. Presidente de la República de Cuba. La Habana, Cuba. Gestión de Gobierno basada en ciencia e innovación: avances y desafío. Vol. 12, No. 2 (2022). HYPERLINK "https://orcid.org/0000-0002-2651-4953" https://orcid.org/0000-0002-2651-4953 [2] MESA, M. C. (2020). Vínculo Universidad-Empresa. Memorias de clausura del XII Congreso Internacional de Educación Superior Universidad 2020. Ministerio de Educación Superior (MES). La Habana, Cuba. [3] ALONSO, A. (2020). Una mirada al vínculo universidad-empresa. Memorias del taller Gestión Universidad Empresa. XII Congreso Internacional de Educación Superior Universidad 2020. Ministerio de Educación Superior (MES). La Habana, Cuba. [4] BERNABÉ, S. (2010). El rol de las universidades en el desarrollo científico tecnológico. Santiago de Chile: Centro Universitario de desarrollo. [5] DECRETO LEY 49 de 2021. De las actividades a realizar por las micro, pequeñas y medianas empresas, cooperativas no agropecuarias y trabajadores por cuenta propia. Gaceta Oficial de la República de Cuba. 23 de julio de 2021. No 94. [6] PARDO, E. & Díaz-Villamizar, O. (2014). Desarrollo del talento humano como factor clave para el desarrollo organizacional, una visión desde los líderes de gestión humana en empresas de Cuba. Suma de Negocios. 5 (11):39-48, 2014. Recuperado de: https://doi.org/10.1016/S2215- 910X(14)70018-7.[Links] [7] MIRANDA, T.; VELA, D.J.; SUSET. A.; MACHADO. H. & BLANCO. G. (2020). Influencia del capital social en los procesos de desarrollo local de dos municipios de la provincia Matanzas. Forrajes vol.43 no.1. Universidad de Matanzas, Cuba. [8] BECERRA, F. A. (2009). El vínculo universidad-empresa y su papel en el desarrollo regional y local. Universidad & Sociedad, ISSN: 2218-3620. Universidad de Cienfuegos “Carlos Rafael Rodríguez”. Recuperado de: http://www.ucf.edu.cu [9] BENÍTEZ, M. (2013). Acciones en la mejora de la relación Universidad-Empresa para la transferencia de tecnologías agropecuarias. Estudio de caso Universidad de Pinar del Río-Empresa Pecuaria Punta de Palma. Universidad de Pinar del Río “Hermanos Saíz Monte de Oca”, Cuba. [10] HAZ-GÓMEZ, F. E. (2016). El capital social y la Universidad. Estudio sobre la influencia de la Universidad en la construcción del capital social de los jóvenes. Tesis Doctoral. España: Universidad de la Coruña. [Links] [11] PEDROSO, M.; TARIFA, L.; ARTOLA, M. L. & RODRÍGUEZ, L. B. (2020). La integración Universidad-Empresa. Prioridad para el desarrollo de estos tiempos. Universidad de Matanzas, Cuba. [12] PERIÓDICO TRABAJADORES. Díaz-Canel en Universidad de Matanzas: Una ciudad de los saberes. Publicado el 29 abril, 2019 • 21:44 por Redacción Digital. Recuperado de: http://www.trabajadores.cu/20190429/diaz-canel-en-universidad-de-matanzas-una-ciudad-de- los-saberes/ [13] MEDELLÍN, E. (1994). Evaluación de la gestión tecnológica desde la perspectiva Universitaria. Memorias del Seminario Internacional “Impacto de los Programas de Postgrado en Planificación, Gestión y Estudios Sociales de la Ciencia y de la Tecnología en el Contexto Internacional”, Universidad del Zulia, facultad Experimental de Ciencias, Maracaibo. [14] CORTÉS, M.; ALONSO, E. & RESTREPO, H. (2004). Sobre el saber y el hacer en la formación de Ingenieros. Un estudio de caso. En: IXCONGRESO NACIONAL DE INGENIERÍA, Chapingo (México). [15] MES (2018). Plan de Estudio “E”. Carrera Ingeniería Civil. La Habana, Cuba. ANEXO Firma del convenio entre la Universidad de Matanzas y la Empresa de Investigaciones de Proyectos e Ingenierías (EIPI Matanzas-Unidad Docente) Firma del convenio entre la Universidad de Matanzas y la Empresa Provincial de Mantenimiento y Construcción. Firma del convenio entre la Universidad de Matanzas y la Empresa de Construcción y Montaje de Matanzas (ECMM- Unidad Docente). INFLUENCIA DEL ÁNGULO DE DILATANCIA EN LAS CURVAS TENSIÓN DEFORMACIÓN A COMPRESIÓN DEL HORMIGÓN CON EMPLEO DEL MODELO DE DAÑO PLÁSTICO Ing. Alejandro Socorro Alvarez1, Dr. Ing Nelson Fundora Sautié2, Dra. Ing. Janet Otmara Martínez Cid 3 1-Ingeniero Civil, Profesor de la Universidad Tecnológica de La Habana, alejandsocalv@civil.cujae.edu.cu 2-Ingeniero Civil, Profesor Auxiliar de la Universidad Tecnológica de La Habana, nelsonfs@civil.cujae.edu.cu 3-Ingeniera Civil, Profesora Titular de la Universidad Tecnológica de La Habana, jcid@civil.cujae.edu.cu RESUMEN El Modelo de Daño Plástico (MDP) considera la degradación del hormigón con el paso del tiempo. El mismo fundamenta su formulación en la mecánica de sólidos, particularmente en la teoría de la plasticidad y en la teoría de daño continuo. El ajuste de este modelo constitutivo requiere de la introducción del ángulo de dilatancia (Ψ) sobre el que no existe un consenso con relación al valor a considerar en la modelación. En esta investigación se presenta un estudio sobre la influencia del ángulo de dilatancia en el comportamiento de la curva de tensión-deformación del hormigón en probetas cilíndricas con el empleo del Modelo de Daño Plástico a partir de un modelo matemático computacional desarrollado en el programa Abaqus, calibrado y validado con los resultados experimentales reportados en [1]. Se emplean valores del ángulo de dilatancia de 15º, 30º y 38º y resistencias a compresión del hormigón de 20, 25, 30 y 35 MPa. Se demuestra la influencia significativa del ángulo de dilatancia como parámetro del modelo de daño plástico en las tensiones, deformaciones, variables de daño y gráficos de tensión vs deformación del hormigón. PALABRAS CLAVES: Modelo de daño Plástico, Dilatancia, Modelo matemático computacional, Abaqus, Probetas de hormigón INFLUENCE OF THE DILATANCE ANGLE ON THE COMPRESSION STRESS-DEFORMATION CURVES OF CONCRETE USING THE PLASTIC DAMAGE MODEL ABSTRACT The Plastic Damage Model (MDP) considers the degradation of concrete over time. He bases his formulation on the mechanics of solids, particularly on the theory of plasticity and on the theory of continuous damage. The adjustment of this constitutive model requires the introduction of the dilatancy angle (Ψ) on which there is no consensus regarding the value to be considered in the modeling. This research presents a study on the influence of the dilatancy angle on the behavior of the stress-strain curve of concrete in cylindrical specimens with the use of the Plastic Damage Model from a computational mathematical model developed in the Abaqus program, calibrated and validated with the experimental results reported in [1]. Dilation angle values of 15º, 30º and 38º and concrete compressive strengths of 20, 25, 30 and 35 MPa are used. The significant influence of the dilatancy angle as a parameter of the plastic damage model on the stresses, strains, damage variables and graphs of stress vs. strain of concrete is demonstrated. KEY WORDS: Plastic damage model, Dilatance, Computational mathematical model, Abaqus, Concrete specimens. 1. INTRODUCCIÓN Los modelos constitutivos de los materiales son parte esencial del estudio del comportamiento de las estructuras, de ahí la importancia de disponer de aquellos que garanticen una respuesta lo más cercana a la real. Las curvas de comportamiento de los materiales se han obtenido, tradicionalmente, mediante ensayos de laboratorio. El desarrollo actual de las técnicas numéricas y de modelación computacional permiten representar diversas condiciones de estos ensayos sin que se incurran en gastos económicos importantes, además de profundizar en el análisis del comportamiento del material, aspecto que se dificulta en la realización de los ensayos. Este desarrollo de las técnicas numéricas ha permitido establecer modelos constitutivos que consideren la degradación del hormigón con el paso del tiempo como es el Modelo de Daño Plástico (MDP) (Concrete Damaged Plasticity Model) implementado en varios programas de simulación numérica como es el caso de Abaqus. El Modelo de Daño Plástico (MDP) como modelo descriptivo del comportamiento del hormigón ha sido empleado por numerosos autores [2-6]. Uno de los parámetros necesarios para ajustar el MDP es el ángulo de dilatancia. El mismo está asociado al cambio de volumen inelástico que experimenta el sólido y el valor que se debe asignar a dicho parámetro en términos de modelación matemática, según diferentes autores, puede variar en el rango de entre 15° y 45°. [2, 5, 7-13]. En el presente trabajo se analizan los resultados de iteraciones evaluando el comportamiento del hormigón al realizarse variaciones del ángulo de dilatancia tomando el artículo publicado por [1] con sus ensayos a compresión de probetas cilíndricas como base para la calibración y validación del modelo utilizando el programa ABAQUS/CAE Versión 6.14 como herramienta computacional. Fue elaborado un modelo con probetas cilíndricas de 300 mm de altura y 150 mm de diámetro, y los modelos constitutivos reportados en los ensayos experimentales realizados por [1] , el mallado empleado en el software fue de C3D8 y la técnica de mallado empleada fue la de barrido, con una densidad de malla reducida en la zona del núcleo, debido a que los valores más significativos para el estudio se obtuvieron en las zonas externas de las probetas. 2. DESARROLLO A continuación, se detalla el proceso de modelación computacional de una probeta de hormigón sometida a compresión. Se describen la geometría, material, mallado, condiciones de contacto, borde y la carga aplicada. Se presenta además el proceso de calibración numérica, cuyo objetivo es definir el tipo de elemento, la densidad de malla a emplear, y la validación del modelo. En este proceso fueron empleados como patrón de comparación los resultados experimentales reportados por [1]. Ensayos experimentales realizados por [1] Para la realización de los ensayos propuestos por [1] fue empleado el procedimiento reportado en la norma ASTM C39 (American Society for Testing and Materials). El objetivo del mismo es obtener los valores experimentales del comportamiento mecánico a compresión del hormigón mediante la aplicación de esfuerzos uniaxiales a probetas cilíndricas con un diámetro de 15cm y una altura de 30cm (Fig. 1). Figura 1: Probeta cilíndrica ensayada. Fuente: [1] Fueron realizados varios ensayos a un total de 10 probetas. En la tabla 1 se reportan los resultados de resistencia a compresión de las 5 probetas correspondientes al ensayo ASTM C39. Estos resultados fueron los seleccionados para el proceso de calibración y validación del modelo numérico. Tabla 1: Resultados obtenidos para las probetas de hormigón. Característica No. de la probeta 1 2 4 5 8 Peso(kg) 12,6 12,6 12,6 12,9 12,8 Densidad(kg/m3) 2,423 2,423 2,392 2,416 2,427 Altura(mm) 299 297,8 300,5 299,8 300,8 Diámetro 148,8 149,1 149,4 150,6 149,4 Área (mm2) 17390 17460 17530 17813 17530 Edad (días) 28 28 28 28 28 Carga (kN) 549,3 532,8 603 653,3 631 Resistencia Real (MPa) 31,59 30,51 34,4 36,68 36 Modelo numérico Geometría El modelo está conformado por dos partes: la placa sobre la que se aplica la carga, modelada como un elemento discreto rígido (indeformable) y una probeta de hormigón cilíndrica de 150 mm diámetro y 300 mm como altura (Fig. 2). Figura 2: Geometría del modelo Fuente: Elaboración propia. Material Para la modelación del material fue utilizado el Modelo de Daño Plástico mediante el empleo de la formulación propuesta por [14]. En la implementación de este modelo constitutivo se define la densidad, el comportamiento elástico del material y el rango inelástico en compresión y tracción. En las tablas 2 y 3 se presentan las características del hormigón reportadas por [1] en sus ensayos experimentales y los coeficientes del modelo de daño plástico respectivamente. Para el modelo fueron adoptados, salvo el ángulo de dilatancia, los valores por defecto que brinda el programa. Tabla 2: Propiedades del hormigón consideradas en el modelo. Módulo de Young 25742 MPa Coeficiente de Poisson 0,18 Esfuerzo máximo 30 MPa Densidad 2423 kg/cm3 Tabla 3: Parámetros de daño correspondientes al Modelo de Daño Plástico ψ ϵ 𝜎𝑏0 𝜎𝑐0⁄ Kc μ 38° 0,1 1,16 0,67 0 Donde: ϵ : Excentricidad del flujo potencial, este parámetro define la tasa de cambio de la aproximación del flujo potencial a su asíntota [15]. 𝜎𝑏0 𝜎𝑐0⁄ : Parámetro que describe la relación entre el rendimiento fuerza en estado biaxial y uniaxial [15]. Parámetro Kc: Es la relación de la segunda invariante de esfuerzos en el meridiano a tensión contra el meridiano a compresión. Este parámetro adopta valores de 0,5 a 1 [15]. Parámetro de viscosidad (μ): parámetro cuya función es facilitar el proceso de modelos numéricos, que regulan el componente ecuaciones a través del estudio de viscoplasticidad [15]. En las figuras 3 y 4 se muestran las curvas que definen el comportamiento inelástico en compresión y tracción respectivamente según la metodología propuesta por [14] Figura 3: Comportamiento inelástico en compresión. Fuente: Elaboración propia. Figura 4: Comportamiento inelástico en tracción. Fuente: Elaboración propia. Condiciones de borde y cargas Para la definición de las condiciones de borde se restringen los tres grados de libertad correspondientes a los desplazamientos, simulando el ensayo experimental. Fue aplicada una carga puntual sobre la plancha indeformable de 600kN (Fig. 5). Figura 5: Condiciones de borde y carga aplicada al modelo. Fuente: Elaboración propia. CALIBRACIÓN MATEMÁTICA La calibración matemática del modelo tiene como objetivo determinar la técnica de mallado a emplear, el tipo de elemento asociado a dicha técnica y la densidad de malla. Como patrón de comparación se emplean los resultados experimentales correspondientes a la probeta 1 obtenidos por [1]. En el modelo se genera una malla de densidad variable aumentando la misma hacia los extremos de la probeta, donde suele fallar el espécimen (Fig. 6). Para identificar la densidad de malla variable se reporta de forma consecutiva el tamaño del elemento de la zona central, zona de transición y la zona más densa respectivamente. Figura 6: Densidad de malla variable empleada Fuente: Elaboración propia. Selección de la técnica de mallado a emplear Producto de la geometría del modelo pueden aplicarse las tres técnicas de mallado referidas previamente, por lo que se fija una densidad de malla, un tipo de elemento correspondiente. Como patrón de comparación fue tomada la carga de rotura de la probeta (Tabla 4). Tabla 4: Selección de la técnica de mallado a emplear. Técnica de mallado Tipo de elemento Tamaño de los elementos (mm) Cantidad de elementos Carga de rotura (kN) Ensayo Modelo Error relativo (%) Estructurado C3D8 30-20-5 2368 549,30 437,11 20,42 Barrido C3D6 30-20-5 3042 549,30 517,74 5,74 Libre C3D4 30-20-5 34110 549,30 444,93 19,00 Los resultados muestran que la técnica de mallado que mejor se ajusta a los valores experimentales es la de barrido. Con esta técnica se determinará el tipo de elemento y la densidad de malla a utilizar en el modelo. Selección del tipo de elemento y la densidad de malla Para la selección del tipo de elemento se fija la densidad de malla y se varía el tipo de elemento. En la tabla 5 y la figura 7 se presentan los resultados obtenidos. Tabla 5: Selección del tipo de elemento. Técnica de mallado Tipo de elemento Tamaño de los elementos (mm) Cantidad de elementos Carga de rotura (kN) Error relativo (%) Ensayo Modelo Barrido C3D8 30-20-5 3042 549,30 517,74 5,74 C3D8-R 493,97 10,12 C3D8-H 513,30 6,55 C3D8-I 495,99 9,70 C3D6 34110 515,27 6,19 C3D6-H 515,27 6,19 Figura 7: Errores relativos de los tipos de elementos seleccionados. Fuente: Elaboración propia. Los resultados muestran que para el tipo de elemento C3D8 se alcanzan el menor error relativo por lo que se selecciona la técnica de barrido con tipo de elemento C3D8 para el estudio de densidad de malla. Son propuestas 4 densidades de malla mostradas en la figura 8. En la tabla 6 y la figura 9 se reportan los resultados de este estudio. Figura 8: Densidades de malla empleadas. Fuente: Elaboración propia. Tabla 6: Selección de la densidad de malla. Técnica de mallado Tipo de elemento Tamaño de los elementos (mm) Cantidad de elementos Carga de rotura (kN) Error relativo (%) Ensayo Modelo Barrido C3D8 30-20-5 3042 549,30 517,74 5,74 20-10-5 4225 515,95 6,07 10-5-5 21390 520,47 5,25 7-4-3 63140 518,57 5,59 Figura 9: Errores relativos de las densidades de malla consideradas. Fuente: Elaboración propia. Los resultados muestran que los errores relativos de las densidades de malla seleccionadas poseen diferencias inferiores al 2% entre estas. Los mejores resultados se alcanzan para la malla 10-5-5, 10 mm en el núcleo central, 5mm en la zona de transición y 5mm en la zona externa. Con esta densidad de malla se lleva a cabo el proceso de validación. Validación del modelo Para la validación del modelo, se evalúa la carga de rotura obtenida al modelar otra de las probetas reportadas en la tabla 2.1 y determinar si con sus nuevas propiedades el error relativo se mantiene en el entorno del obtenido en el proceso de calibración. Para el proceso de validación fue seleccionada la probeta 4. En la tabla 7 se reportan las características del hormigón empleado. Los resultados obtenidos se presentan en la tabla 8. Tabla 7: Características del hormigón empleado en la validación. Módulo de Young 27805 MPa Coeficiente de Poisson 0,18 Esfuerzo máximo 35 MPa Densidad 2392 kg/cm3 Tabla 8: Validación del modelo con la probeta 4. Técnica de mallado Tipo de elemento Tamaño de los elementos (mm) Carga de rotura (kN) Error relativo (%) Ensayo Modelo Barrido C3D8 10-5-5 603,00 590,00 2,16 Análisis de resultados Para el análisis de la influencia del ángulo de dilatancia en el comportamiento del hormigón se escogieron 3 valores característicos 15º, 30º y 38º basando la elección de los mismos en las consideraciones de diferentes autores [3, 4, 8, 9, 16]. Para la determinación de las tensiones máximas principales, desplazamientos verticales, variables de daño tanto en tracción como en compresión y en las curvas de tensión deformación se realiza el análisis con resistencias a compresión del hormigón de 20, 25, 30 y 35 MPa. Tensiones principales S33 En las corridas de los modelos se aprecia el aumento del ángulo de dilatancia modifica la distribución de tensiones principales verticales en los modelos de 25, 30 y 35MPa. En el núcleo de la probeta se producen incrementos de tensiones de 27 a 31MPa, de 32 a 35MPa y de 38 a 43MPa para las probetas de 25, 30 y 35 MPa respectivamente. En el caso de 20MPa, en todos los casos las tensiones en el núcleo se encuentran alrededor de los 23MPa. En las caras externas de las probetas sucede lo contrario, en todos los casos el aumento del ángulo de dilatancia provoca una disminución de las tensiones y modifica la distribución de estas en el perímetro de las probetas. Desplazamientos Las distribuciones de los desplazamientos verticales obtenidos en las probetas correspondientes a las resistencias a compresión estudiadas para los ángulos de dilatancia propuestos presentan junto con el incremento del ángulo de dilatancia un aumento significativo del acortamiento de las probetas. Tomando como referencia la dilatancia de 15º, los valores reportados para 30º y 38º se duplican. El mayor acortamiento se produce para la dilatancia de 30º en las cuatro resistencias a compresión consideradas. Variables de daño El daño en el material está referido al cambio de su microestructura, que conlleva al deterioro de las propiedades mecánicas que se reflejan en macrofisuras. En el caso del hormigón sometido a compresión uniaxial el trabajo de las fuerzas externas es transformado en energía producto de las tensiones elásticas y plásticas, además de generar energía de disipación y de propagación de daño [5]. Se aprecia que tanto en compresión como en tracción el daño experimentado por las probetas se incrementa en la medida que aumenta el ángulo de dilatancia. Este resultado se corresponde con el comportamiento tanto de tensiones como de desplazamientos que experimentan un incremento notable. El incremento de estas variables muestra entonces un aumento de las tensiones y deformaciones inelásticas producto la modificación en el ángulo de dilatancia. Las zonas de daño en compresión se reportan en el núcleo, donde se reportan las mayores tensiones principales de la probeta y en tracción en el perímetro de esta donde se generan los estados de fisuración de la misma. Este aspecto se corresponde con la forma de fallo que caracteriza a las probetas sometidas a compresión uniaxial. El caso de la dilatancia de 30º se aprecia que la zona dañada en el perímetro es mayor que para 15º y 38º, aspecto que es consistente con los resultados previos de tensiones y desplazamientos. Curvas de tensión vs deformación En las figuras 10 a 13 se presentan las curvas de tensión vs deformación obtenidas para los tres ángulos de dilatancia estudiados. Figura 10: Curvas de tensión vs deformación para el hormigón de 20 MPa correspondientes a los ángulos de dilatancia estudiados. Fuente: Elaboración propia. Figura 11: Curvas de tensión vs deformación para el hormigón de 25 MPa correspondientes a los ángulos de dilatancia estudiados. Fuente: Elaboración propia. Figura 12: Curvas de tensión vs deformación para el hormigón de 30 MPa correspondientes a los ángulos de dilatancia estudiados. Fuente: Elaboración propia. Figura 13: Curvas de tensión vs deformación para el hormigón de 35 MPa correspondientes a los ángulos de dilatancia estudiados. Fuente: Elaboración propia. El gráfico presentado muestra que las tensiones no alcanzan valores de resistencia a compresión correspondientes pues el modelo de daño plástico incorpora curvas de comportamiento con el daño del material implícito por lo cual es lógico que su resistencia se vea afectada al considerar el daño en dichas curvas. Los valores de tensiones reportados son obtenidos en un nodo ubicado en el centro de la cara superior de la probeta. En todos los casos los valores máximos se alcanzan para un ángulo de dilatancia de 15º. En la tabla 9 se presentan las resistencias a compresión (f´c) alcanzadas para cada uno de los casos analizados. En la figura 14 se reportan los errores relativos producto de la consideración del daño en el material. Tabla.9: Valores de resistencia a compresión (f´c) alcanzados. f´c (MPa) Ángulo de dilatancia (°) 15 30 38 20 14,9 13,5 12,4 25 18,6 17,8 16,0 30 23,3 21,2 20,1 35 26,7 24,5 22,9 Figura 14: Errores relativos producto de la consideración del Modelo de Daño Plástico. Se aprecia en el gráfico que la consideración del modelo de daño plástico implica reducciones de entre un 25% y 38% con relación a la resistencia a compresión del hormigón sin daño en función del valor de ángulo de dilatancia que se emplee. Para una misma resistencia a compresión, el incremento del ángulo de dilatancia provoca una reducción en la resistencia a compresión que puede superar el 12%. En el caso de las deformaciones que experimenta la probeta, el aumento del ángulo de dilatancia conlleva al incremento de las deformaciones, reportándose los mayores valores para 30º. En el caso de la probeta con resistencia de 35MPa, las deformaciones máximas se alcanzan para 38º de dilatancia. Para resistencias de 20, 25 y 30MPa las tensiones máximas alcanzadas corresponden a deformaciones por el orden de 0,002, deformación para la máxima tensión en compresión de hormigón sin daño. Para el caso de los 35MPa este valor de tensión máxima se alcanza para valores de deformaciones por el orden de 0,003. Lo anterior demuestra la modificación que sufre la curva de comportamiento del material cuando se introducen los parámetros de daño. Esto puede constituir un acercamiento en el estudio del comportamiento de elementos de hormigón con niveles considerables de deterioro. 3. CONCLUSIONES La realización de este trabajo permitió obtener el modelo numérico de una probeta cilíndrica de hormigón calibrado y validado. A partir del análisis de la influencia del ángulo de dilatancia en las curvas de comportamiento a compresión del hormigón, se tienen las siguientes conclusiones. • Para las resistencias a compresión de 25, 30 y 35MPa se producen incrementos de tensiones en el núcleo de la probeta con el aumento del ángulo de dilatancia. Para 20MPa los valores de tensiones se mantienen estables. • Tomando como referencia la dilatancia de 15º, los valores de acortamiento de las probetas reportados para 30º y 38º se duplican. Los mayores acortamientos se producen para 30º. • El daño experimentado por el hormigón de las probetas tanto en compresión como en tracción, se incrementa en la medida que aumenta el ángulo de dilatancia. • Se aprecia en el gráfico que la consideración del modelo de daño plástico implica reducciones de entre 25% y 38% con relación a la resistencia a compresión del hormigón sin daño en función del valor de ángulo de dilatancia que se emplee. • El aumento del ángulo de dilatancia conlleva al incremento de las deformaciones que experimentan las probetas. REFERENCIAS 1. Arredondo;, L.A.L., et al., Determinación del comportamiento mecánico del Hormigón fc´30 mediante métodos experimentales y numéricos (MEF). EISSN 2542-3401 Universidad, Ciencia y Tecnología Vol. 23, Nº 92 Junio 2019 2019: p. (pp. 64-73). 2. Altaee;, M.J., et al., Employment of damage plasticity constitutive model for concrete members subjected to high strain-rate. 2020: p. 15. 3. Cid;, J.O.M., et al., Computational Modeling of Beam-Column Joint with Wedge Effect. 2020: p. 12. 4. Kmiecik;, P. and M. Kamínski, Modelling of reinforced concrete structures and composite structures with concrete strength degradation taken into consideration. Archives of civil and mechanical engineering, 2011. Vol. XI(No. 3): p. 14. 5. Li;, B.-b., et al., Damage plasticity model for passively confined concrete. MATEC Web of Conferences, 2019. 6. S.V.Chaudhari; and M.A.Chakrabarti, Modeling of concrete for nonlinear analysis Using Finite Element Code ABAQUS. International Journal of Computer Applications, 2012. 44(7): p. 5. 7. Silva;, L.M.e., A.L. Christoforo;, and R.C. Carvalho, Calibration of Concrete Damaged Plasticity Model parameters for shear walls. Revista Materia, 2021. 26: p. 26. 8. Sümer;, Y. and M. Aktaş, Defining parameters for concrete damage plasticity model. Challenge journal of structural mechanics, 2015: p. 7. 9. Bezerra;, L.M., et al., Truss-type shear connector for composite steel-concrete beams. Construction and Building Materials, 2018. 167: p. 11. 10. Sakbana;, A. and M. Mashreib, Finite Element Analysis of CFRP- Reinforced Concrete Beams. Revista Ingeniería de Construcción RIC, 2020: p. 22. 11. Mousavi;, R., M.D. Champiri;, and a.K. J.Willam, Efficiency of damage-plasticity models in capturing compaction-expansion transition of concrete under different compression loading conditions. VII European Congress on Computational Methods in Applied Sciences and Engineering, 2016: p. 12. 12. Wang, J., et al., Experimental and numerical investigation of mortar and ITZ parameters in meso-scale models of concrete. Theoretical and Applied Fracture Mechanics, 2020. Theoretical and Applied Fracture Mechanics 109 (2020) 102722: p. 16. 13. López, F.M.H., Procedimiento para el diseño por fatiga de pavimentos de hormigón simple para carreteras en Cuba., 2016, Universidad Central “Marta Abreu” de Las Villas. . 14. Alfarah, B., F. López-Almansa, and S. Oller, New methodology for calculating damage variables evolution in Plastic Damage Model for RC structures. Engineering Structures, 2017(132): p. 70-86. 15. Dassault, S., Abaqus 2016: Analysis User’s Guide, Volume III: Materials. Dassault Systemes. 2015. 16. S.Oller, Fractura mecánica. Un enfoque global. Primera ed2001: CIMNE Barcelona. 290. IMPACTOS DE LA ASIGNATURA OPTATIVA HIDRÁULICA VIRTUAL Tania Herrera Achón1, Yanna Almanza Sánchez 2, Indira Ordoñez Reyes3 1Profesora Auxiliar Universidad Tecnológica de La Habana, 2Ingeniera Hidráulica Empresa de Construcción Integral de Mayabeque (ECIM), Mayabeque, Cuba, 3MsC. Ing. Universidad Tecnológica de La Habana 1e-mail:tanherreraa@gmail.com; 2e-mail:yanna@ecim.co.cu; 3e-mail: iordonez@crea.cujae.edu.cu RESUMEN La asignatura optativa Hidráulica virtual, tiene carácter práctico y vínculo con el ejercicio de la profesión. Las actividades que se presentan, se basan en la interacción con los instrumentos del laboratorio virtual MultiLab Virtual, para la simulación de procesos hidráulicos. Se logra obtener un registro de cuánto se ha usado, con la posibilidad de determinar en qué aspectos se debe dar mayor acompañamiento, para la asimilación de conceptos estudiados en Introducción a la Ingeniería Hidráulica. Se presenta en el trabajo los resultados del diagnóstico realizado al inicio y al final de la optativa, empleando como medio para la evaluación del conocimiento el diagnóstico pedagógico. Se evalúa el nivel de impacto de la asignatura, mediante la aplicación de un método de análisis DAFO, basado en una encuesta aplicada a los estudiantes. PALABRAS CLAVE: análisis DAFO, asignatura optativa, diagnóstico pedagógico, laboratorio virtual, MultiLab Virtual. IMPACTS ON THE OPTIONAL VIRTUAL HYDRAULICS SUBJECT ABSTRACT The optional Virtual Hydraulics course is practical and linked to the practice of the profession. The activities presented are based on the interaction with the instruments of the virtual laboratory MultiLab Virtual, for the simulation of hydraulic processes. It is possible to obtain a record of how much has been used, with the possibility of determining in which aspects more support should be given, for the assimilation of concepts studied in Introduction to Hydraulic Engineering. The results of the diagnosis made at the beginning and at the end of the elective are presented in the work, using pedagogical diagnosis as a means of evaluating knowledge. The impact level of the subject is evaluated, by applying a SWOT analysis method, based on a survey applied to students. KEYWORDS: optional subject, pedagogical diagnosis, SWOT analysis, Virtual MultiLab, virtual laboratory. INTRODUCCION Las asignaturas optativas son aquellas que se incluyen en el plan de estudio y de entre las cuales el estudiante selecciona una cantidad determinada para cursar en forma obligatoria. Los contenidos de estas asignaturas tienen como propósito ampliar y actualizar a los estudiantes sobre temas científicos relacionados con la profesión. Al comenzar el segundo semestre de 1er año en la carrera de Ingeniería Hidráulica en la (Universidad Tecnológica de La Habana), los estudiantes se enfrentan por primera vez a las asignaturas optativas. Según la Resolución Ministerial 02/2018 del Ministerio de Educación Superior MES, las asignaturas optativas se matricularán por el estudiante de acuerdo con las características de la modalidad de estudio y donde es obligado aprobarla una vez matriculada. Además, para la evaluación del aprendizaje de las asignaturas optativas, se aplicarán las mismas regulaciones dictadas para todas las asignaturas de la carrera y que aparecen en los artículos de dicha resolución, (del artículo 79 al 82). Los estudiantes de la carrera de Ingeniería Hidráulica a partir de segundo año tienen dentro del currículo prácticas de laboratorios virtuales, en la asignatura Mecánica de los Fluidos, después de un análisis realizado por el Grupo de trabajo de investigación de los Laboratorios virtuales, del Centro de Investigaciones Hidráulicas (CIH) de la CUJAE y con el objetivo de motivarlos, se decidió diseñar un curso optativo que su objetivo general es: familiarizar a los estudiantes de primer año de la carrera de Ingeniería Hidráulica con los laboratorios virtuales. Desde su creación, el laboratorio virtual ha sido definido de varias formas, entre ellas podemos citar el concepto de la Reunión de Expertos sobre Laboratorios Virtuales [1], [2], [3], donde lo definen como una herramienta multimedia de incalculable valor científico y pedagógico. Puede ejecutarse en cualquier lugar sin más instalación que una computadora y su precio es mucho menor que cualquier opción real. A partir de una primera experiencia, que se basó en reproducir en una computadora los resultados obtenidos de la ejecución de una práctica de laboratorio con adquisición electrónica de la información, surge en el año 2001, en Cuba, en la enseñanza de las Ciencias Técnicas la primera aplicación virtual para la especialidad de Mecánica de los Fluidos. Actualmente se ha ido perfeccionando y ampliando esa primera aplicación que se reconoce dentro y fuera del país como MultiLab Virtual1, hoy en su versión 6, como resultado del proyecto de investigación: “Concepción, desarrollo, empleo y evaluación de procesos virtuales como tecnología educativa” de la Universidad Tecnológica de La Habana José Antonio Echeverría (Cujae). En el proyecto de investigación, la problemática existente respecto a la necesidad de desarrollar laboratorios virtuales para apoyar la formación de los estudiantes de Ingeniería y la de sistematizar la producción de los mismos, se constituyó en una de las tareas dirigida a la modelación de este proceso. DESARROLLO Para la producción de prácticas virtuales, se definen las componentes que guían el modo de actuación del proceso que se modela virtualmente [4], ellas son: - Los modelos matemáticos para la simulación que generan las respuestas del proceso. - El diseño pedagógico que define las acciones necesarias para lograr los objetivos trazados en cada proceso y la elaboración de los componentes didácticos. - El diseño gráfico del proceso, los instrumentos, el diseño de interfaz y los accesorios necesarios. 1 MultiLab Virtual: laboratorio virtual que contiene 34 prácticas virtuales. Es una herramienta realizada con el apoyo de la modelación matemática, así como de paquetes de software para la programación de aplicaciones, el diseño gráfico, la edición de videos y sonidos. - El diseño informático que une armónicamente, a través de la programación de las funcionalidades, las tres componentes anteriores logrando que las respuestas del proceso simulen con gran realismo el proceso real. Los laboratorios virtuales hacen uso de los elementos que brinda la tecnología y que se sabe son el motor fundamental en la actualidad para mover a los jóvenes a realizar nuevas actividades prácticas que contribuyen a ampliar su aprendizaje, basados en la interacción de la parte teórica con la parte práctica y el interés propio del estudiante, solución de ejercicios, por lo cual se hace necesario e indispensable buscar una nueva metodología que encamine al estudiante hacia el autoaprendizaje de esta área de manera segura y entretenida, como forma de suplir las dificultades que se presenten, accediendo a la tecnología como fuente esencial de experimentación e investigación, así mismo proveer a los estudiantes una serie de actividades y procedimientos en las cuales los laboratorios virtuales son la herramienta básica, para el reconocimiento de los insumos, su proceso, hasta llegar a la evaluación del mismo. El uso de los laboratorios virtuales, se convierte en una herramienta novedosa, lúdica, útil y segura cuando se va a llevar a cabo una práctica que compromete en cierta medida la integridad física de quienes la realizan, permiten una experimentación directa y lograrán dar solución a todas aquellas inquietudes que en un aula, con sólo tiza y pizarra, no se puede lograr, se pueden constituir en el eje central o fundamental dentro de unos procesos de los cuales se espera, sean la base para conseguir aprendizajes significativos desde la propia experiencia, donde el docente se perfilará como un asesor, cuya función será dar respuesta a las inquietudes que el ejercicio práctico no logre aclarar. Partiendo de los problemas que se han identificado, se debe mirar al respecto y de la misma manera las facilidades que brindan los laboratorios virtuales para superarlos, teniendo en cuenta las ventajas propuestas en el artículo “Clasificación de Laboratorios Virtuales de Química y Propuesta de Evaluación Heurística” [5] de la Universidad Tecnológica Nacional de Buenos Aires, Argentina, resulta significativo lo expuesto al respecto por los autores Lorandi et al [6], quienes coinciden en las siguientes ventajas de los laboratorios virtuales: - Trabajar en un ambiente de enseñanza e investigación protegido y seguro. - Realizar con los estudiantes un trabajo tanto individual como grupal y colaborativo. - Ofrecer a las estudiantes prácticas que, por su costo no tendrían acceso en todas las instituciones. - Poder reproducir los experimentos un número elevado de veces. - Extender el concepto de laboratorio al aula de clase a través del uso de una computadora e inclusive al domicilio de cada estudiante. - El auto – contenido, o sea, la opción que tiene el estudiante de realizar diversas consultas teóricas para ser aplicadas luego en la práctica virtual. - Que se puedan ver las imágenes de manera bidimensional y tridimensional, anexo al sonido, hace del aprendizaje un proceso interactivo. - Posibilidad de incluir diferentes ejercicios en cada una de las prácticas. PASOS EJECUTADOS DURANTE LA IMPARTICIÓN DE LA ASIGNATURA OPTATIVA Diagnóstico de los conocimientos adquiridos en la asignatura Introducción a la Ingeniería Hidráulica para poder realizar las prácticas seleccionadas del MultiLab Virtual. Se realizó un estudio sobre los resultados alcanzados a través de la impartición de la asignatura optativa, el cual estuvo conformado por dos aristas fundamentales: primero el nivel de conocimiento alcanzado por los estudiantes en el semestre anterior y el grado de comprensión en los estudiantes de los temas tratados, esto mediante la interpretación de resultados ofrecidos por un diagnóstico al inicio del curso y otro en la etapa final del mismo. El segundo aspecto a tratar estuvo guiado a evaluar el nivel de impacto del curso en los estudiantes, mediante la aplicación de un método de análisis DAFO basados en una encuesta realizada a los estudiantes. Para el procesamiento de los datos obtenidos y valoración de ambos diagnósticos de forma unísona, se realizó un estudio aplicando prueba estadística paramétrica o no paramétrica. Los aspectos anteriores posibilitaron conocer si el diseño metodológico del curso optativo y su modo de impartición responden o no a su objetivo fundamental. Señalando las pautas a seguir y los aspectos a reforzar para el perfeccionamiento del programa de la asignatura, siempre que el mismo contribuya a la formación de profesionales, graduados en nuestro centro con la calidad requerida. En la tabla 1, se representa los temas abordados en la asignatura optativa. Tabla 1. Plan temático de la asignatura optativa Temas de la asignatura optativa: “Hidráulica virtual” Fondo de tiempo según formas organizativas del proceso docente (48h): I. Medición de caudales Clases Presenciales (CP): 32 Clases no Presenciales (CNP):16 II. Medición de la rasante piezométrica III. Medición de presiones y subpresiones IV. Medición de niveles Los temas propuestos responden al capítulo 7 del libro de texto de Introducción a la Ingeniería Hidráulica y Ambiental de manera tal que sirvan como complemento para afianzar los conocimientos adquiridos. Adjuntado a los mismos, se brinda a los estudiantes un conjunto de materiales que solidifiquen el tema a tratar. EL DIAGNÓSTICO PEDAGÓGICO COMO UN MEDIO PARA LA EVALUACIÓN DEL CONOCIMIENTO Al hacer referencia al diagnóstico pedagógico2 tenemos en cuenta que este posee diferentes contextos de aplicación de acuerdo con los objetivos que se planteen, de allí que se definan tres niveles en los que puede funcionar, a saber: institucional, grupal e individual. En cada uno de estos contextos el diagnóstico toma estructuras diferentes a partir de los objetivos para los cuales se realiza y la utilización de las variables, dimensiones e indicadores que se determinen. En ese contexto cobra relevancia la publicación de obras que participan en este campo, destacándose las aportaciones de Granados [7] y Marí [8]. Un aspecto importante a tener en cuenta en este sentido es que entre ellos existe una relación de interdependencia constructiva, en orden ascendente, desde los cimientos (contexto individual), transitando por la base (contexto grupal), hasta llegar a la cima (contexto institucional). Permite acercarnos a la realidad educativa con el fin de analizarla, evaluarla y pronosticar su posible cambio. Otros autores afirman que el diagnóstico es la etapa inicial de un proceso crítico: consiste en recolectar, clasificar, analizar y hacer un informe final de un sistema con el fin de conocer objetivamente los antecedentes y la situación actual de una institución, instancia, programa o proyecto. Para elaborar un diagnóstico es necesario considerar los diversos aspectos del sistema (contexto, insumos, acciones, resultados), a fin de establecer las relaciones causales o funcionales entre sus elementos. El diagnóstico pedagógico cuenta con una etapa de caracterización en la que se determina, con un enfoque psico-pedagógico, el estado pedagógico real que poseen todos los componentes del objeto 2 Diagnóstico pedagógico: proceso con carácter instrumental, científico e integral, que permite realizar un estudio previo y sistemático, a través de la recopilación de información, del estado real y potencial del sujeto y de todos aquellos elementos que puedan influir de manera directa o indirecta en los resultados que aspiramos, teniendo una dinámica de evaluación – intervención – evaluación, para poder transformar, fortalecer, formar, desarrollar y educar desde un estado inicial hacia algo potencial, atendiendo a la diversidad y apoyándose en diversos métodos y técnicas. caracterizado. Las conclusiones que se alcanzan en esta etapa tienen carácter sustantivo en tanto constituyen un resultado, alcanzado mediante la realización de actividades con un objetivo determinado y que en la dinámica del proceso conforman el punto de partida para la ejecución de las etapas siguientes. Esta es la razón por la cual el diagnóstico es visto no solo como proceso, sino también como resultado. Este posee tres momentos perfectamente distinguibles: un primer momento en el que se efectúa la caracterización en el contexto individual con el objetivo de identificar el nivel alcanzado en las esferas intelectual, cognitiva y socio afectiva, un segundo momento en el que se efectúa la caracterización en el contexto grupal, con el objetivo de lograr un mínimo de homogeneidad para que el grupo avance como tal a partir de la precisión del desnivel existente para trazar estrategias con base común mínima y poder dar atención diferenciada bajo el enfoque de diversidad y un tercer momento en el que se efectúa la caracterización en el contexto institucional, con el objetivo de generalizar la caracterización de la institución con fines de pronóstico y elaboración de estrategias de intervención. Tabulación e interpretación de los resultados obtenidos con la asignatura optativa Hidráulica virtual mediante la aplicación de los diagnósticos pedagógicos La asignatura optativa Hidráulica Virtual se encuentra cursando su primer año de aplicación, con la misma, se pretende promover la formación de profesionales de perfil amplio3, razón por la cual se hacía necesario una evaluación del estado pedagógico de los estudiantes para conocer sus fortalezas y debilidades con respecto a los conocimientos académicos ya adquiridos y sobre esta base trabajar elementos claves en los temas orientados y que el profesor conozca dónde están las carencias en cada tema, con el fin de que el estudiante visualice, profundice y fortalezca los elementos básicos que conforman la base de un Ingeniero Hidráulico. Basados en esta necesidad se aplicó un diagnóstico de entrada, donde los temas tratados respondían, a los saberes ya impartidos a los estudiantes durante el primer semestre del año académico en la asignatura Introducción a la Ingeniería Hidráulica y Ambiental específicamente al tema VI correspondiente a Principios de Hidráulica. Se elabora un diagnóstico de entrada con tres preguntas. La primera de once incisos con sólo dos opciones de respuesta en cada uno, Verdadero (V) o Falso (F). La segunda tiene cinco incisos, donde el estudiante debe completar los espacios en blanco. La tercera tiene tres opciones de posibles respuestas, que se deben marcar con una (X). Los estudiantes se califican empleando las categorías de Excelente (E), Bien (B), Regular (R) y Mal (M), además se tiene en cuenta los que no respondieron el diagnóstico. Cada categoría expresa el grado de calidad alcanzado por el estudiante en el cumplimiento de los objetivos. El total de los estudiantes evaluados es 54, que representa el 64,3% con respecto a 84 estudiantes, siendo el total de la matrícula de Ingeniería Hidráulica en el curso académico (2018-2019). La categoría (B) representa el 42,6% del total de evaluados, la categoría (R) representa el 53,7% del total de evaluados y la categoría (M) representa el 3,7% del total de evaluados. En la figura 1, se muestra la tabulación de los resultados obtenidos. 3 Perfil amplio tiene como cualidad esencial la profunda formación básica. Se trata de preparar con solidez al profesional en los aspectos que están en la base de toda su actuación profesional, lo que asegura el dominio de los modos de actuación con la amplitud requerida. Esta formación básica posibilita la permanente actualización del graduado, tan necesaria en un mundo donde el conocimiento se transforma rápidamente, lo que garantiza su pertinencia sobre la base de un adecuado sistema de formación continua; y brinda mayores posibilidades de desempeño en diferentes esferas de actuación de la profesión. Documentación Base del plan E. Figura 1. Resultados del diagnóstico de entrada A través de los valores obtenidos se puede determinar que las principales dificultades en los estudiantes son: las funciones exactas de equipos de medición y para qué fin se utilizan; unidades de medidas y su sistema de convención; diferenciar los términos de presión absoluto y presión relativa; entendimiento detallado de las ecuaciones gobernantes del movimiento de fluido, puntualmente a la ecuación de Bernoulli y la ecuación de Continuidad. Atendiendo a un contexto individual se conoció el grado de recepción del material académico de cada uno de los estudiantes que participaron en el mismo. Como contexto grupal se obtuvo que se dominan en un estado aceptable los temas tratados, pero no se evidencia un dominio íntegro del mismo, lo cual permitió una alerta a la necesidad de prescribir estos puntos de debilidad y realizar una labor posterior con los estudiantes, utilizando variantes metodológicas que les permitan acoger de manera más sólida los aspectos de la asignatura en los que muestran dificultad. Analizando entonces el contexto institucional se determinó que el trabajo alcanzado por el colectivo de la asignatura, garantiza una estructura didáctica que favorece la educación desde el aprendizaje de los contenidos, destacando el papel del profesor en la formación del estudiante y su desarrollo integral. En la etapa final de la asignatura optativa se aplicó un diagnóstico de salida, dirigido a evaluar el grado de aceptación del material aportado a los estudiantes. Mediante el cual se pudo reflejar si el mismo venció los objetivos para el cual fue diseñado. Está integrado por dos preguntas, la primera con cuatro incisos, donde el estudiante tiene que mencionar varios instrumentos de medición y la segunda es de redacción a partir de elementos integradores de contenido. La categoría (B) representa el 60% del total de evaluados, la categoría (R) representa el 24% del total de evaluados, la categoría (M) representa el 6% del total de evaluados y los estudiantes sin responder representan el 10%. En la figura 2, se muestra la tabulación de los resultados obtenidos. Para la calificación del mismo, se utilizó el mismo esquema de categorías del diagnóstico de entrada. Figura 2. Resultados del diagnóstico de salida Al evaluar un total de 50 participantes, se refleja que no participó en su totalidad los matriculados en el curso, pero aun así la muestra tomada es representativa del total siendo esta un 59,5% de la matrícula general. Estudiando los valores alcanzados se pudo constatar que: Atendiendo a un contexto individual se conoció el grado de asimilación del material académico de cada uno de los estudiantes que participaron en el mismo. Considerando el contexto grupal, se visualiza que el conjunto logró poseer un nivel medio de aceptación en provecho de los contenidos promovidos, al obtenerse resultados positivos de un 84% de los participantes. Lo cual refleja que, en parte, el curso cumplió su quehacer, sin dejar de concebir que se puede trabajar para mejorar los números obtenidos. Partiendo del resultado anterior se adquiere que el marco institucional debe realizar un análisis del curso, al encontrarse este en una etapa de prueba, por lo cual se hace necesario y es tarea de primer orden, continuar con el mejoramiento de su programa y de las herramientas docentes-metodológicas que lo avalan, logrando así una explotación óptima del mismo, en vísperas a un ascenso continuo del conocimiento. Para el procesamiento de los datos obtenidos y valoración de ambos diagnósticos de forma unísona se realizó un análisis basado en el método matemático Antes y Después donde se aplicaron dos pruebas para conocer el comportamiento de dicha variable [9]. De esta manera a partir de un análisis cuantitativo detallado se pudo realizar un estudio cualitativo. 1ro. Prueba paramétrica de comparación de medias con la cual se valora si se puede afirmar que existen diferencias entre el antes y el después con las mediciones obtenidas para un nivel de significación porcentual. 2do. Prueba no paramétrica de Wilcoxon en la cual se valora si se puede afirmar que existen diferencias entre el antes y el después con las mediciones obtenidas para un nivel de significación del 10%. Como respuestas a ambas pruebas se obtuvo que no se encuentran diferencias entre las varianzas por lo tanto la prueba no se rechaza. Lo que permite realizar una valoración sobre la base del contexto en que estas se desenvuelven lo cual permite resaltar la interdisciplinaridad existente entre la asignatura Introducción a la Ingeniería Hidráulica y Ambiental del primer semestre del curso y el optativo objeto de estudio Hidráulica Virtual. De igual forma evaluando la relación entre ambos diagnósticos, vemos que uno y otro estaban guiados por un mismo hilo conductor del cual se obtiene los siguientes resultados: - Contribuyó a conocer las bases estratégicas y modos de operación para obtener un programa de calidad, que contribuya a optimar la formación profesional de los estudiantes desde los primeros años de la carrera. - Se obtuvieron valores que reafirmaron a nuestra institución como un pilar en la rama académica, con un alto grado de compromiso en la formación de sus graduados. - Se visualizó la necesidad de fomentar el perfeccionamiento continuo de los programas académicos, como una vía para responder a la de promoción de carreras de perfil amplio. EVALUACIÓN DEL CURSO OPTATIVO HIDRÁULICA VIRTUAL EN LA CARRERA INGENIERÍA HIDRÁULICA UTILIZANDO EL MÉTODO DE ANÁLISIS DAFO El análisis DAFO o FODA, se trata de una metodología de estudio que sirve para analizar los puntos fuertes y débiles, así como las amenazas y fortalezas de un proyecto o institución. Estos elementos de análisis pueden ser internos y externos. Con este análisis somos capaces de crear un plan de acción que sea efectivo. Para entender cómo analizar cada factor, hay que tener en cuenta que dentro de la visión interna están las fortalezas y debilidades y en la visión externa están las oportunidades y amenazas [10]. - Análisis estratégico interno: consiste en una evaluación del curso, orientada a identificar sus fortalezas y debilidades, lo que permite definir el posicionamiento como: Fortalezas (F): todas las capacidades positivas y ventajas que te diferencian; Debilidades (D): aquellos factores que hacen que el curso esté en una posición desfavorable, aquí se pueden incluir puntos de mejora. - Análisis estratégico externo: está dado por el estudio de los rivales y del entorno, para identificar lo que se proyecta hacia la organización de forma oportunidades y amenazas, por tanto, se identifica como: Oportunidades (O): cualquier factor positivo, no tenido en cuenta en el curso y que puede ser aprovechado; Amenazas (A): situaciones negativas que provienen del entorno externo y que afectan al curso. La utilidad de la Matriz DAFO radica en diseñar las estrategias para utilizar las fortalezas de forma tal, que la organización pueda aprovechar las oportunidades, enfrentar las amenazas y superar las debilidades. De un buen análisis DAFO, surge toda una gama de planes de acción estratégicos y proyectos para lograr el éxito. Genera un diagnóstico de la situación institucional a la vez que permite el desarrollo de tácticas para mejorar esta situación. La herramienta DAFO, proviene del análisis empresarial, pero, como se observa, puede ser de gran utilidad en el contexto educativo. Las variables de estudio en el curso optativo Hidráulica Virtual pueden extrapolarse, por analogía, a los parámetros del análisis estratégico FODA y proporcionan un sólido marco para mejorar, mantener y aumentar la pertinencia y calidad de la enseñanza del curso optativo. Análisis DAFO del curso optativo hidráulica virtual impartido a los estudiantes de primer año de la carrera de ingeniería hidráulica Las herramientas de mejora constituyen un mecanismo efectivo y rápido para diagnosticar el estado en que se encuentra el desempeño de una organización, pudiendo determinar la estrategia a seguir en cuanto a las acciones de mejora y correctivas. La incorporación de la técnica DAFO a la formación docente pretende que los profesores valoren las problemáticas específicas de sus centros, contextos, culturas escolares en relación con los proyectos de trabajo, en este caso de la asignatura optativa, Hidráulica virtual. Objetivo: identificar y concretar en un gráfico o una tabla resumen, la evaluación de los puntos fuertes y débiles del curso optativo impartido, con las amenazas y oportunidades externas. Área de aplicación: curso optativo de Hidráulica virtual. Estudiantes participantes: 43 Metodología para la elaboración de la matriz DAFO La matriz DAFO representa el balance de fuerzas con el cual trabajará el sistema organizativo en el período que se proyecta, tiene como entradas por una parte los resultados del análisis interno y por otra parte los resultados del análisis externo. Permitiendo relacionar el ambiente interno con el externo [11]. Es necesario considerar para la confección de la Matriz DAFO los pasos siguientes: - Planificación del tiempo para realizar el análisis con profundidad. - Disposición de los datos e información necesaria para el análisis. - Reunión preliminar con los estudiantes para explicar el procedimiento a seguir. - Cada integrante identificó lo que consideraba como fortalezas, amenazas, debilidades y oportunidades para el curso. - Toma de decisiones (consolidar los puntos fuertes y minimizar los puntos débiles). Los resultados adquiridos con la identificación del proceso fueron 7 fortalezas, 2 debilidades, 1 amenazas y 6 oportunidades. Los resultados de los análisis internos y externos (Análisis DAFO) se muestran en la tabla 2 [12]. Tabla 2. Análisis interno y externo Fortalezas Debilidades 1- El curso ha contribuido a una mejor aceptación de temas ya abordaos en clases y aporta las bases para el entendimiento de otros a tratar en futuras asignaturas. 2- Buen curso optativo, clases didácticas, interesantes. 3- Se utiliza la tecnología para hacer programas que midan en tiempo real. Se trabajó con el laboratorio virtual MultiLab Virtual como medio de enseñanza-aprendizaje. 4- Se ha ampliado los conocimientos, se aprendió a medir las presiones con diferentes instrumentos. 5- Posibilidad de ver de otra manera la hidráulica virtualmente. 6- El curso ha ayudado a comprender el trabajo que pudieran realizar los ingenieros hidráulicos una vez graduados, a través del mundo virtual, y el conocimiento de la Hidráulica virtualmente. 7- Se profundizó más en la asignatura de Introducción a la Ingeniería Hidráulica y Ambiental. 1- No se hace hincapié en los detalles, no se sabía que era importante aprenderse los instrumentos de medición y sus aplicaciones. 2- Que el laboratorio real funcione. Oportunidades Amenazas 1- Hacer una versión Androide de la aplicación. 2- Se sugiere incluir proyectos que involucren al estudiante más allá de los temas de la clase, si así se desea. 3- Se propone seguir perfeccionando el programa para un mejor funcionamiento. 4- Continuar impartiendo el curso optativo. 5- Se recomienda que se le incluya un poco más de experimentos y prácticas virtuales para ampliar más los conocimientos. 6- Se sugiere que todas las asignaturas debían impartirse como el curso optativo, que gire alrededor de la profesión. 1- La cantidad de estudiantes matriculados en el curso, que fue por encima de treinta, atentando con el desarrollo del proceso docente educativo. Para el llenado de las casillas de cada cuadrante de la matriz DAFO se utiliza una misma pregunta que se repetirá tantas veces como sea necesaria, y del impacto que se obtenga se asignará la puntuación que se corresponda, siempre primando las consideraciones y las opiniones de los participantes. Para el cuadrante I. FA (Fortaleza-Amenaza) ¿Me permite esta Fortaleza atenuar o resistir esta Amenaza? Para el cuadrante II. FO (Fortaleza- Oportunidad) ¿Me permite esta Fortaleza aprovechar esta Oportunidad? Para el cuadrante III.DO (Debilidad-Oportunidad) ¿Me impide esta Debilidad aprovechar esta Oportunidad? Para el cuadrante IV. DA (Debilidad-Amenaza) ¿Me impide esta Debilidad atenuar o resistir esta Amenaza? Para evaluar el impacto se le proporcionaron valores numéricos como se muestran a continuación: - Si se considera el impacto muy fuerte se evalúa con 3 puntos. - Si se considera el impacto fuerte se evalúa con 2 puntos. - Si se considera el impacto moderado se evalúa con 1 puntos. - Si se considera no significativo entonces no se otorga punto alguno. El esquema de la Matriz DAFO, se puede observar en la tabla 3 [12]. Tabla 3: Representación de la matriz DAFO Oportunidades Subtotal Amenaza Subtotal Total O1 O2 O3 O4 O5 O6 A1 Fortalezas F1 2 3 3 3 3 1 15 1 1 16 F2 3 3 3 3 3 1 16 0 0 16 F3 3 2 1 3 3 1 13 0 0 13 F4 2 3 3 3 3 1 15 0 0 15 F5 3 3 3 3 3 1 16 0 0 16 F6 1 3 3 3 2 1 13 0 0 13 F7 1 2 2 3 3 1 12 0 0 12 Subtotal 15 19 18 21 20 7 100 1 1 101 Debilidades D1 0 0 0 1 0 0 1 0 0 1 D2 0 3 0 2 0 0 5 0 0 5 Subtotal 0 3 0 3 0 0 6 0 0 6 Total 15 22 18 24 20 7 106 1 1 107 En la relación porcentual de los resultados cuantitativos de la matriz, se identifica que las FO representan el 93,46%, así como las DO representan el 5,61% y las FA representan el 0,93%, las DA no tienen un valor representativo. Tras la elaboración del presente análisis, se puede desprender todo un estudio dirigido a la evaluación de la asignatura optativa. Valorar sus problemáticas específicas, conocer sus potencialidades y analizar sus desventajas, para de esta manera proponer soluciones que optimicen su calidad. Se pudo determinar que atendiendo a que las fortalezas de las que dispone son tan transcendentales que las debilidades casi no tienen peso; evidentemente las mismas no se pueden obviar, ya que promover los aspectos negativos contribuye al perfeccionamiento de la enseñanza. Entre las principales fortalezas vale destacar la contribución de la asignatura optativa a una mejor aceptación de temas abordados en clases y la aportación las bases para el entendimiento de otros en futuras asignaturas, mediante la posibilidad de trabajar con un programa que permite la virtualización de procesos hidráulicos. Por otra parte, la amenaza, a pesar de ser importante puede ser mejorada con las oportunidades que se presentan. En cuanto a las debilidades controlables internas se comprende que se puede podría trabajar desde las primeras etapas del curso para que el estudiante disponga de más información sobre los instrumentos de medición en la hidráulica, pero considerando que se trata de los primeros niveles de la carrera, no se hace inminente presentar de manera muy abarcadora el tema desde el primer semestre, sin que esto signifique dejar de mencionarlos, ya que así el curso estaría cumpliendo con la tarea de resaltar de manera visual y detallada lo referido a la instrumentación para parámetros hidráulicos CONCLUSIONES Para evaluar las conclusiones del curso se midieron dos aspectos fundametales: los resultados obtenidos con la impartición de los diagnósticos pedagógicos y los aportados por el Método de Análisis DAFO. La coalición de ambos resultados dieron a conocer que: 1. Se hace necesario fomentar en los estudiantes la motivacion por la carrera, desde la primera etapa del curso. 2. El estudiante al iniciar el segundo semestre académico posee conocimientos sobre la hidraúlica y sus contenidos fundamentales, gracias a la impartición de la asignatura Introducción a la Ingenieria Hidraúlica y Ambiental, pero existe una zona de carencias en lo referente a la instrumentacion y medición. 3. Con la utilizacion del MultiLab Virtual, se pueden crear toda una gama de prácticas y habilidades con la que el estudiante puede visualizar las contenidos recibidos. 4. El curso optativo ha sido acogido por los estudiantes de manera positiva, demostrando interés por los temas tratados. REFERENCIAS [1] UNESCO. (2000). "Informe de la Reunión de Expertos sobre Laboratorios Virtuales". Instituto Internacional de Física Teórica y Aplicada (IITAP), París, disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000119102_spa. en septiembre 2015 [2] SANZ A. y MARTÍNEZ J. (2005). "El uso de los laboratorios virtuales en la asignatura Bioquímica como alternativa para la aplicación de las tecnologías de la información y la comunicación", Tecnología Química, vol.25, no.1, pp. 5 - 17, ISSN 0041-8420, Univesridad de Oriente, Cuba [3] ROSADO L. y HERREROS J. (2009). "Nuevas aportaciones didácticas de los laboratorios virtuales y remotos en la enseñanza de la Física", Recent Research Developments in Learning Technologies, V International Conference on Multimedia and ICT in Education, Lisboa, Portugal. [4] GÓMEZ M. y LEÓN A. (2010). "Un modelo e instalación virtual para prácticas de laboratorio. Evaluación virtual de una bomba como caso de estudio", Memorias del 7mo. Congreso Universidad 2010, Ministerio de Educación Superior, ISBN 978-959-16-1558-9, La Habana, Cuba. [5] CATALDI Z., CHIARENZA D., DOMINIGHINI C. y LAGE F. (2011). "Clasificación de laboratorios virtuales de química y propuesta de evaluación heurística", XIII Workshop de Investigadores en Ciencias de la Computación, pp. 884-888, ISBN 978-950-673-892-1, Red de Universidades con Carreras en Informática (RedUNCI), Argentina. [6] LORANDI M., HERMIDA S., HERNÁNDEZ S. y GUEVARA D. (2011). "Los Laboratorios Virtuales y Laboratorios Remotos en la Enseñanza de la Ingeniería", Revista Internacional de Educación en Ingeniería, vol.4, no.1, ISSN 1940-1116, Academia Journals, USA. [7] GRANADOS P. (2003). "Diagnóstico Pedagógico (Aprendizajes Básicos, Factores Cognitivos y Motivación)", Editorial Dykinson, ISBN 84-9772-024-5, 1ra ed, vol.1, España. [8] MARÍ R. (2006). "Diagnóstico Pedagógico. Un modelo para la intervención psicopedagógica", Editorial Ariel, S. A, ISBN 84-344-2663-4, 2da ed, España. [9] MILLER I., FREUND J. y JOHNSON R. (1992). "Probabilidades y Estadística para Ingenieros", Editorial Prentice-Hall Hispanoamericana, S.A., ISBN 966-6708-30-8, 4ta ed, vol.1 y 2, México. [10] LASO E. (2018). "El Trabajo por Proyectos (PEPT): análisis DAFO en busca de su mejor implantación", Tesis de Maestría, Facultad de Educación, Universidad de Cantabria, España. [11] NARANJO M. y HIDALGO P. (2016). "Aplicación de la matriz DAFO en la dirección de equipos de beisbol", Olimpia, vol.13, no.40, pp. 27 - 35, ISSN 1817-9088, Facultad de Cultura Física de la Universidad de Granma, Cuba. [12] SÁNCHEZ Y. (2019). "Hidráulica Virtual como asignatura optativa para los estudiantes de la carrera de Ingeniería Hidráulica", Tesis de Pregrado, Centro de Investigaciones Hidráulicas (CIH), Universidad Tecnológica de La Habana “José Antonio Echeverría”, Cujae, La Habana. Conflicto de intereses: Los autores declaran que no existen conflictos de intereses. Contribución de los autores Tania Herrera Achón https://orcid.org/0000-0003-1483-9221 Participó en el diseño de la investigación, análisis de los resultados. Realizó contribuciones en la interpretación de los datos, y en la revisión. Indira Ordoñez Reyes https://orcid.org/0000-0002-1093-5606 Realizó contribuciones en la interpretación de los datos. Participó en la búsqueda de información, las referencias bibliográficas, en la revisión y la redacción final. Yanna Sánchez Almanza https://orcid.org/0000-0002-9780-4077 Realizó contribuciones en la interpretación de los datos. Participó en el diseño de la investigación y análisis de los resultados. EVALUACIÓN DE LAS FILTRACIONES DE AGUA EN EL CENTRO DE NEGOCIOS DE LA ZONA ESPECIAL DE DESARROLLO MARIEL CON TERMOGRAFÍA INFRARROJA Rodolfo Rafael León Barrueto Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE, La Habana, Cuba. E-mail: fcrleon@civil.cujae.edu.cu, rodolfoleon658@gmail.com RESUMEN Se realizó un estudio para evaluar las filtraciones de agua en el Centro de Negocios de la Zona Especial de Desarrollo Mariel, con el empleo de la termografía infrarroja desde plataformas terrestres y aéreas, donde se evidenciaron las notables lesiones de humedad por filtración y estancamiento del agua de lluvia dentro del sistema de estructura de paneles Royal Building de encofrado perdido y se comprobó que los problemas de humedad generalizada e infiltración de agua afectan toda la estructura de la edificación y dañan la imagen externa del edificio. Como parte del estudio se formularon posibles acciones constructivas de rehabilitación de la obra, priorizando la necesidad de realizar ensayos de laboratorio y campo, para valorar la resistencia y durabilidad del hormigón humedecido en los moldes de PVC, y las afectaciones del acero de refuerzo. PALABRAS CLAVES: Termografía infrarroja, Filtración de agua, Humedad, Rehabilitación, Royal. EVALUATION OF WATER SEEPAGE IN THE BUSINESS CENTER OF THE MARIEL SPECIAL DEVELOPMENT ZONE WITH INFRARED THERMOGRAPHY ABSTRACT A study was carried out to evaluate the water leaks in the Business Center of the Mariel Special Development Zone with the use of infrared thermography from terrestrial and aerial platforms, where the notable lesions of humidity due to leaks and stagnation of water from rain within the Royal Building panel structure system of lost formwork and it was found that the problems of generalized humidity and water infiltration affect the entire structure of the building and seriously damage the external image of the building. As part of the study, possible constructive actions for the rehabilitation of the work were formulated, prioritizing the need to carry out laboratory and field tests to assess the resistance and durability of the concrete moistened in the PVC molds and the effects on the reinforcing steel. KEY WORDS: Infrared thermography, Water filtration, Humidity, Rehabilitation, Royal. 1. INTRODUCCIÓN La Zona Especial de Desarrollo del Mariel es uno de los territorios del país donde se están aplicando novedosas tecnologías de construcción y sistemas constructivos, uno de los cuales es el Royal Building [1]. Este sistema ha tomado auge en los últimos años en Cuba, debido a la rápida amortización de la inversión y al ahorro de gastos indirectos [2,3]. Surgió en Canadá en el año 1971, pero con el paso del tiempo se ha ido diseminando por todo el mundo. De acuerdo con el fabricante y estudios realizados en Cuba, el sistema Royal Building de encofrado perdido, conformado por paneles de plástico con hormigón vertido y acero de refuerzo, protege contra el intemperismo, así como el encofrado de PVC funciona como protección secundaria para el refuerzo estructural de los elementos del sistema, ante la acción de los iones cloruros, provenientes del aerosol marino. (Figura 1) [1,2,3]. Figura. 1: Fotos de paneles y conectores empleados en el sistema Royal Building (Fuente: referencia bibliográfica [1]). Así mismo en [2] se señala que el Royal Building System ha sido diseñado para cumplir con las más estrictas demandas de exposición severa a los rayos del sol, al calor y al frío y ha eliminado los problemas tales como descascaramiento, alabeo y decoloración, así como que sus componentes han sido probados a la exposición ultravioleta en un clima caliente y húmedo, con aire salado y altos niveles ultravioleta como el de la Florida, USA. [2]. En este contexto, la Empresa de Construcción y Montaje del Mariel también ha empleado el sistema Royal Building, ejemplo significativo de lo cual es el Centro de Negocios de la Zona Especial de Desarrollo, conocido como “Pelicano”. (Figura 2) [4]. Figura. 2: Foto del Centro de Negocios de la Zona Especial de Desarrollo Mariel “Pelícano” (Fuente: referencia bibliográfica [4]). El edificio se desarrolla en dos bloques principales conectados entre sí y articulados por una pequeña plaza central que da acceso a todos los servicios públicos, a las oficinas y que a su vez es el acceso al parqueo semisoterrado. Cuenta con cuatro niveles, siendo el último un nivel técnico [4]. La tecnología constructiva de la obra consiste en un sistema porticado de vigas de 0.30 x 0.50 metros prefabricadas y columnas de 0.4 x 0.4 metros, con luces de 5.40 metros por los ejes numéricos y de 5.40 y 7.20 metros, combinados por el eje de letras. Los cierres de fachada, así como las columnas y muros de contención son fabricados con el Sistema Royal, consistente en paneles de PVC con refuerzos de acero y fundidos interiormente con hormigón de 30 MPa [5]. Los muros del sistema Royal para cierres de fachadas son de 100 mm., de espesor, mientras que los muros de contención son dobles con la misma dimensión. En las columnas se utilizaron paneles de 64 mm de espesor. (Figura 3) [5]. Figura 3. Tecnología constructiva Sistema Royal, empleada en la edificación [5]. De acuerdo con la tarea de proyección elaborada por el Cliente, “desde su puesta en explotación en marzo de 2016, la edificación presentó afectaciones de entrada de agua a la misma, originado fundamentalmente por problemas de diseño y problemas de ejecución” [5]. Precisamente el objetivo de la solicitud del servicio científico-técnico consistió; en valorar el comportamiento de las filtraciones a través de la estructura de paneles Royal, mediante la ejecución de una investigación termográfica, que permitiera identificar las zonas o puntos donde se originen estas filtraciones y proponer posibles soluciones de rehabilitación [5]. Por lo que a solicitud del Cliente de la inversión se realizó un estudio termográfico en las aéreas exteriores e interiores de la edificación como método de diagnóstico, para investigar los daños causados por la presencia de agua en todas sus manifestaciones, fundamentalmente las provenientes del exterior por filtraciones, capilaridad y evaporación, así como los escapes de agua por defectos en las instalaciones o mal uso de las mismas [5]. Al mismo tiempo, durante el estudio se valoraron los daños generados por deficiencias o fallos durante el proceso de ejecución de las obras, principalmente las zonas húmedas, las juntas frías que se forman en la unión de los antepechos y los faldones, las oquedades en los paneles de PVC, el agua en el interior de los muros, en la cubierta de la edificación, la degradación de las estructuras de hormigón por carbonatación y la corrosión de armaduras [4]. Igualmente, se evaluaron las posibles zonas de concentración de humedad y el comportamiento de las líneas de filtración en las áreas donde se observó esta irregularidad en cada uno de los objetos de obra examinados y se formularon las posibles soluciones para su rehabilitación [4,6]. A continuación, se exponen los métodos y equipos utilizados en la investigación, así como la descripción de los trabajos y resultados de la investigación. 2. MÉTODOS Y EQUIPOS Se utilizaron los métodos y tecnologías de la termografía infrarroja para el estudio de las humedades e infiltraciones de agua, el procesamiento digital de las imágenes termográficas y a color de los diferentes objetos de investigación de la obra, así como para delimitar las principales zonas de humedad de la obra y las líneas de infiltración de agua [4,6,7,8]. Para la realización de los trabajos termográficos se consultaron las normas internacionales ISO 18434-1: 2008, ISO 18436-1:2004, ISO 18436-7:2008, ISO 9712:2005, así como las normas ASTM; E1934-99 A (2010), D4788-03(2013), E1862-97(2010), C1153-10, E1897-97(2010), E-1933-99 a (2010) y la C1060- 11 a [4]. Se emplearon dos (2) cámaras termográficas TP–8 de procedencia china, que trabajan en las bandas espectrales del infrarrojo-térmico (8–14 µm), con una sensibilidad térmica de ≤ 0,08ºC a 30 ºC. [4] y una cámara termográfica Zenmuse XT, con una red de plano focal de 640 x 512 pixeles, sensibilidad térmica de 0.05 K, y longitud de onda 7,5 a 13,5 µm, emplazada en el dron multi rotor del tipo Matrice 210, conjuntamente con una cámara a color Zenmuse Z-30. Figura 4 [4]. Figura 4: Equipamiento utilizado en la investigación termográfica realizada en el Pelicano [4.6]. Así como la cámara fotográfica japonesa NIKON–D 300 para la toma de las imágenes fotográficas a color y el registrador de datos del tipo Logger 177 – H1 de la firma Testo, para la determinación de la temperatura ambiente y la humedad relativa en el interior y exterior de la Obra y la temperatura y humedad de superficie con el empleo de sondas de contacto. Figura 4 [4]. Además, para el procesamiento digital de las imágenes térmicas se utilizó el software “Guide Ir Analiser versión 1,6 del 2010”, suministrado por el fabricante de la cámara termográfica TP– 8 [4], y el programa FLIR Tools, para el procesamiento de las imágenes termográficas tomadas con el dron [4]. Las mediciones de las distancias para la ubicación de las lesiones detectadas, y el ajuste de las imágenes termográficas, se realizaron con un distanciómetro laser del tipo DISTO y una cinta métrica. Los equipos e instrumentos empleados en el estudio, estaban debidamente calibrados y garantizaron la calidad del servicio, de acuerdo con las exigencias técnicas y normas establecidas para la realización de estos trabajos. [4,6]. Descripción de los trabajos La investigación termográfica desde el suelo y alturas dominantes se realizó durante los meses de noviembre – diciembre 2019 y enero-febrero del 2020, aprovechando los días secos y lluviosos, a diferentes horas del día y la tarde-noche, bajo determinadas condiciones ambientales (temperatura ambiente, humedad relativa, velocidad y dirección del viento, temperatura y humedad de superficie, nubosidad y precipitaciones) y variables de toma termográfica (emisividad, ángulo de toma, hora y fecha, distancia hasta el objeto de investigación y características de su superficie). Buscando los mayores contrastes térmicos entre las zonas frías (húmedas) y calientes (secas), fundamentalmente en las horas de 10:00 -14:00, y 17:00 – 20:00 horas, para lo cual se determinaron los patrones termográficos de buen estado técnico y de las lesiones de las instalaciones [4]. En el levantamiento termográfico y a color de los niveles; 17.40, 12.60, 8.40, 4.20, 0.00 y el nivel -4.20 de la edificación se incluyeron; el sistema porticado de vigas y columnas exteriores e interiores, las fachadas con sus cierres, las columnas y muros de contención (exterior e interior), fabricados con el sistema Royal y conformados por paneles de PVC, hormigonados interiormente, las cubiertas, los techos de entrepisos, la carpintería de aluminio y los sistemas técnicos de la obra [4]. Como parte de la investigación se realizó además el levantamiento termográfico de una edificación en buen estado técnico, un tanque de agua construido con el mismo sistema Royal. En la instalación se determinaron los patrones de buen estado técnico de cada una de las estructuras que se investigaron en el Centro de Negocios Pelícano, estos resultados se extrapolaron y sirvieron como punto de partida para la determinación de patrones similares en la obra el Pelícano [4]. También se realizó un levantamiento aerofotográfico con dron (Vehículo aéreo no tripulado del tipo multicóptero), en los espectros; visible, e infrarrojo térmico, de todas las fachadas exteriores de los dos bloques que conforman las edificaciones del Pelícano, así como las cubiertas, incluyendo además el tanque de agua tomado como patrón, en las horas de mayor contraste térmico entre las zonas frías y calientes (12:00- 16:00) horas [4]. Asimismo, se ejecutó un análisis detallado de las afectaciones existentes, de las intervenciones realizadas y su efectividad, así como se formularon las posibles soluciones a los problemas presentes, dentro y fuera de las instalaciones [4,6]. Resultados De la investigación termográfica realizada a las cubiertas, fachadas y niveles de la edificación se evidencio y comprobó, que en las cubiertas y pretiles existen diferencias de temperatura promedio, entre las zonas calientes y secas, y las zonas frías y húmedas del orden de los 20 C – 50 C y que sobresalen múltiples zonas de concentración de humedad e infiltración de agua, por la pérdida de impermeabilidad, acumulación de agua, presencia de manchas y sales, abombamientos y mal estado de sellados y juntas. Todo lo cual revela lesiones graves – muy graves en los sistemas de impermeabilización de las cubiertas del Centro de Negocios “Pelícano”. Figuras 5-7 [4,6]. Figura 5: Imagen a color tomada con el dron, de la terraza conformada por lozas en el nivel 8.40. Note señalado con flechas y áreas de color rojo, los puntos, líneas y áreas de filtración de agua de lluvia por el pretil y la cubierta. Observe además las grietas, fisuras, oquedades, descascaramientos y costuras de los solapes horizontales (juntas horizontales) por donde también se infiltra al interior de los moldes de PVC el agua de lluvia [4]. Figuras 6 y 7: Imágenes a color y termográfica No. 3253, tomadas el 28 de noviembre de 2019 a las 12.57 horas, de la zona de la terraza nivel 8.40, colindante al local ventanilla única, la cubierta conformada por lozas. Temperatura ambiente 31.6 0C. Note en la imagen a color las manchas claras y oscuras y el depósito de sales de color blanco, que denotan problemas de impermeabilización de la cubierta. Vea además en la imagen termográfica las áreas de mayor concentración de humedad de color negro, magenta, con temperaturas de 28,5-30,7 0C y las de menor concentración de color azuloso, note además las zonas calientes y secas de color verde y amarillo rojizo, con temperaturas de 34,0-37,8 0C [4]. Además, se evidencio en el estudio que existe un flujo de circulación e infiltración de agua que se desplaza a través de las paredes, muros, pisos y entrepisos del sistema Royal, con patrones de radiación térmica y color que muestran la fuerte fluencia de agua fundamentalmente desde la cubierta y pretiles de las terrazas y se confirmó que el flujo de circulación e infiltración de agua se desplaza de nivel en nivel, fundamentalmente a través de las paredes y muros del sistema Royal, entrepisos, tejas de cinc galvanizado, vigas de acero y hormigón, falso techos y pisos. Figuras 8-14 [4,6]. Así mismo se comprobó que existe un nivel apreciable de agua empozada en los moldes de paredes y columnas del sistema Royal, acumulado desde la propia construcción y entrega de la obra y alimentado fundamentalmente con el agua de lluvia que se infiltra a través de la cubierta de la edificación, las juntas horizontales y verticales de las fachadas y la interface; pared, muro, carpintería de aluminio y que la presencia de agua empozada y circulante en el interior de los moldes plásticos del sistema Royal se manifiesta con la pérdida de coloración, deformación y la presencia de manchas de humedad, pátinas de diferentes coloraciones, procesos de carbonatación, oxidación y pudrición de los moldes de PVC [4,5,6]. Por lo que los graves problemas de humedad generalizada e infiltración de agua de lluvia contaminada con iones cloruro, sulfatos y compuestos de azufre, por la elevada agresividad corrosiva en la zona del Mariel, han originado importantes lesiones de oxidación–corrosión, en las vigas de acero y las tejas de zinc galvanizado, con manchas de humedad, eflorescencia, erosiones y perdidas de la sección transversal generalizadas en todos los niveles de la edificación [4,6]. Estas lesiones de manchas de humedad, eflorescencia, erosiones y agrietamientos generalizados en todos los niveles de la edificación se manifiestan también en las vigas de hormigón [4,6]. Igualmente se pudo constatar en la investigación termografía realizada que existen graves lesiones en la carpintería de aluminio por mala colocación y soluciones de rehabilitación desacertadas, por falta de estanquedad, mal estado de sellado y juntas, corrosión y pudrición de elementos metálicos [4,6]. Figura 8: Imagen a color tomada con el dron, de una fachada de la edificación. Observe las áreas en las cuales se realizó el muestreo termográfico, para saber el comportamiento térmico de la fachada. Note además encerrada en figuras de color rojo las áreas de contrastes de colores más significativas, que muestran las juntas que se forman en la unión de los antepechos y los faldones, y zonas de las oquedades en los paneles de PVC con agua empozada. Estas áreas en las imágenes termograficas se aprecian de colores negro-magenta, frías y húmedas y temperaturas de superficie bajas con relación a la temperatura ambiente en el orden de los 6-12 0C [4]. Figuras 9: Imagen térmica No. 1 tomada el 28 de febrero 2020 a las 10:51. Temperatura ambiente 30,1 0C. Observe en la imagen como las áreas más frías y húmedas, con colores negro-magenta y temperaturas de 19,5-22,1 grados predominan prácticamente en toda la imagen, principalmente en la parte superior del ultimo nivel de la edificación [4]. En la imagen térmica No. 1 tomada con dron se aprecia también como los contrastes térmicos de la superficie húmeda de la fachada con relación a la temperatura ambientes son del orden de los 8 0C – 11 0C, lo que denota la fuerte infiltración de agua a través de los pretiles por todo el interior de la fachada, así como hacia el interior de la edificación, asimismo se pone de manifiesto que el flujo de agua a través de los paneles Royal es de arriba hacia abajo. El mismo problema de infiltración de agua se observa en las imágenes de las figuras 10–13 [4]. De igual forma el agua de lluvia que rueda desde los pretiles y niveles superiores en forma de escorrentía superficial también penetra por capilaridad en las grietas, oquedades y fisuras existentes en los paneles de PVC. Toda esta agua de lluvia satura la parte exterior de muros y fachadas del edificio, se infiltra en el hormigón armado de los paneles plásticos y se desplaza por gravedad y/o capilaridad al interior de los locales del edificio, buscando las zonas más bajas, recorriendo un determinado camino para aparecer goteando en el interior de los muros y paredes de la edificación [4,6,7]. Figuras 10 y 11: Imágenes a color y térmica No. 3679 tomadas el 30 de enero a las 12:08. Temperatura ambiente 30,4 0C. Observe en la imagen térmica las áreas más frías y húmedas, con colores negro-magenta y temperaturas de 21,4-21,8 grados, que predominan prácticamente en toda la imagen, principalmente en la parte superior izquierda. Figuras:12 y 13. Imágenes a color y termográfica tomadas el 30 de enero a las 12:39. Temperatura ambiente 30,4 0C. Observe en la imagen las áreas más frías y húmedas, con colores negro-magenta y temperaturas de 18,1-18,4 grados, que predominan en la imagen, principalmente en la parte superior. Note las zonas más calientes en las uniones de los tableros Royal con las ventanas, con temperatura de 19,6 0C y contraste máximo de 1,5 0C, con las zonas húmedas, lo que indica falta de estanquedad y zona de filtración de agua al interior de los locales. Vea además una zona caliente de 19,3 grados y de posible infiltración de agua, en la junta entre los dos bloques de la edificación [4,6]. Posibles soluciones para la rehabilitación de la edificación. Las dos medidas más importantes para eliminar las causas que originan la presencia permanente de la humedad en el exterior e interior de la edificación consisten en extraer el agua empozada en la edificación, fundamentalmente en la cubierta y zonas más afectadas de las fachadas, entrepisos y locales donde se manifiestan los indicios de pérdida de coloración, deformación y la presencia de manchas de humedad, pátinas de diferentes coloraciones, procesos de carbonatación, oxidación y pudrición de los moldes de PVC, y restablecer los sistemas de impermeabilización de las cubiertas y fachadas, teniendo en cuenta criterios de costo-beneficio [4,6,7]. Así mismo las posibles soluciones que se pueden aplicar a las fachadas y muros exteriores de la edificación, se agrupan en cuatro tipos principales; soluciones para hidrofugar el hormigón armado de los paneles de PVC, soluciones para sellar las oquedades, fisuras y grietas de los moldes de PVC, soluciones para recubrir los muros y fachadas exteriores del edificio y soluciones para la reparación y/o mejoramiento de las barreras que impiden el contacto directo y la penetración del agua de lluvia al interior de la edificación, fundamentalmente por los vierte aguas y por la carpintería de aluminio, en los muros y fachadas exteriores del edificio [4,6,7]. Se recomienda en todos los casos licitar con los productores-suministradores, los sistemas a emplear, teniendo en cuenta los aspectos señalados en el informe [6,8]. Así como criterios de costo-beneficio y durabilidad de las soluciones presentadas. [6,7]. Por otro lado, es importante señalar que los trabajos de inyección de resinas hidrofugantes e impermeables no deben comenzar, hasta tanto no se tenga claro si hay corrosión o no en la armadura de refuerzo de los paneles de PVC, porque de haber corrosión los trabajos del sellado serán infructuosos y no darán los resultados esperados [6,7]. Para recubrir los muros y fachadas exteriores del edificio es necesario emplear morteros, cuyas propiedades esenciales consistan en hidrofugar la superficie externa de los paneles de PVC, que permitan que el agua empozada y la humedad salgan al exterior de los paneles en forma de vapor de agua, e impermeabilizar, de manera que actúen como barreras contra la penetración del agua de lluvia, la humedad, los iones cloruros y sulfatos al interior de los moldes de PVC [6,7]. Las soluciones a utilizar en el interior del edificio tienen como objetivo principal secar y sanear el hormigón armado de muros y paredes interiores de paneles de PVC del sistema Royal, mediante la extracción del vapor de agua, así como eliminar la humedad de condensación existente en los entrepisos y falso techos de cada uno de los niveles del edificio, teniendo en cuenta que en un ambiente seco no es posible la presencia de la humedad [6.7]. La idea consiste en emplear productos y sistemas hidrofugantes, para extraer del interior de los moldes plásticos la humedad en forma de vapor de agua y no utilizar soluciones ni sistemas impermeabilizantes, para ocultar la presencia del agua que gotea, o que se manifiesta como humedad de condensación. Así mismo hay que eliminar los problemas de carbonatación, oxidación y corrosión de vigas, columnas, carpintería de aluminio y bandejas de zinc galvanizado de cada uno de los niveles que conforman la edificación [4,6,7,8]. Esta humedad se aprecia en las estructuras, como manchas de formas y extensiones variables, de coloraciones negruzcas, grises verdosos, moho, pudrición de los paneles de PVC, como sales de carbonatación, oxidación y corrosión, de cada uno de los elementos que componen el sistema. Figura 16 [4,6]. Figura: 14. Fotos a color tomadas en el interior de la edificación que evidencian la pérdida de coloración y la presencia de manchas de humedad, procesos de carbonatación, manifestación de sales y la degradación de los paneles plásticos por el agua empozada, así como las lesiones severas en los elementos metálicos por la presencia de humedad y sales que evidencian el movimiento del agua infiltrada del nivel superior y la fachada. Observe la degradación del hormigón con presencia de sales y manchas de humedad, así como el grado avanzado de oxidación y corrosión en el cuerpo de las vigas [4,6,7,8]. Para eliminar los problemas de carbonatación, oxidación y corrosión de vigas, columnas, carpintería de aluminio y bandejas de zinc galvanizado, de cada uno de los niveles que conforman la edificación, es necesario emplear tratamientos especiales, fundamentalmente las soluciones de protección propuestas en [8]. Es necesario puntualizar que la información sobre el estado del hormigón armado dentro de los paneles Royal de muros y fachadas es fundamental para formular las posibles acciones constructivas de rehabilitación del edificio, por lo que es preciso realizar ensayos de laboratorio y campo, para valorar la resistencia y durabilidad del hormigón humedecido en los moldes de PVC, y en el cual todo parece indicar que ocurren en estos momentos procesos de carbonatación y corrosión con posible afectación del acero de refuerzo [6,7,8]. 3. CONCLUSIONES Se recomienda que los resultados obtenidos en la investigación termográfica deben estar en manos de las entidades vinculadas directamente con las labores y acciones de inversión y de rehabilitación de la obra “Pelícano”, la Empresa Constructora Militar – Proyecto de Desarrollo Integral del Mariel (ECM-PRODIM), con el propósito de alargar su durabilidad y tiempo de vida útil [6]. Así como elaborar y poner en vigor un plan de seguimiento con inspecciones periódicas y controles continuados, a la efectividad de los tratamientos y trabajos de rehabilitación a realizar, mantener la vigilancia y el registro en una base de datos de las irregularidades y alteraciones detectados en cada uno de los elementos que conforman estos sistemas, y de las soluciones y correcciones aplicadas, priorizando el sistema de drenaje de aguas, las humedades y la infiltración de agua de lluvia por las cubiertas, pretiles y fachadas de la edificación [6]. Además, por la importancia y novedad del trabajo se sugiere aplicarlo y generalizarlo en las obras donde se use el sistema constructivo Royal Building. REFERENCIAS 1. HERNÁNDEZ, Manuel Alejandro. “Implementación del sistema constructivo Royal Building System para la construcción de obras en la región especial de desarrollo del Mariel”. Tesis de pregrado, Instituto Superior Politécnico José Antonio Echeverría, La Habana, Cuba. 2016. 2. ROYAL CONSTRUCTION PANAMA, S.A. Royal Building System. [en línea]. [ref. de 10 de marzo 2020]. Disponible en Web: http://www. Royal Building System.com/Royal Construction 3. Puig Martínez, R., Hubert Morales C., Castañeda Valdés. Protección secundaria que brinda el encofrado de PVC al hormigón armado del sistema ROYAL. Onceno Coloquio de materiales y tecnologías de la construcción. Convención Científica Internacional 2017. Universidad Central “Marta Abreu” de Las Villas. Cuba. pp. 1-19. 4. León Barrueto, R. Tamayo Sierra, A., “Investigaciones termográficas en el Mariel para valorar el comportamiento de las filtraciones en el Centro de Negocios “Pelícano”. GEOCUBA IC, La Habana, Cuba. 2020. pp. 1-182. 5. Moreira Suarez. D., “Tarea de proyección para aplicación de la termografía como método de diagnóstico, para determinar afectaciones existentes en el centro de negocios Pelícano. ECM-DIP”. 2017. Pág. 1-11. 6. León Barrueto, R., Informe II. Formulación de las soluciones de rehabilitación en el “Centro de Negocios Pelícano”. GEOCUBA IC, La Habana, Cuba. 2020. pp. 1-38. 7. Tejera Garófago, P., Álvarez Rodríguez O., “Conservación de edificaciones. Parte 1”. Editorial Universitaria Félix Varela. La Habana. 2013. Pág. 1-338. 8. Castañeda Valdés, A. “Estudio de la agresividad Corrosiva en la zona de desarrollo integral del Mariel, brindando las soluciones necesarias para la eliminación o disminución del efecto del medio al proyecto en cuestión. Etapa 04: Definición de los niveles de agresividad corrosiva en la zona. Criterios para la selección de los materiales metálicos a emplear y sus medios de protección. Informe Final’’. Departamento de Protección de Materiales. Dirección de Medio Ambiente. CNIC. Código del servicio: 25/10. 2012. Pág. 1- 42. sobre los autores Rodolfo Rafael León Barrueto, ingeniero aerofoto geodesta, graduado en la antigua Unión Soviética en 1979, Profesor Titular contratado en la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Doctor en Ciencias Técnicas e Investigador Titular, especialista de la Dirección de Tecnología e Innovación del CITMA, y Profesional de Alto Nivel de la Unión Nacional de Arquitectos e Ingenieros de la Construcción (UNAICC). ESTUDIOS DE PELIGRO, VULNERABILIDAD Y RIESGOS EN OBRAS VIALES Dra. Oleida María Simón Brito1, MSc. Elva Juana Calvo Llanes2, Ing. Yudanis de las Mercedes González Álvarez3, Ing. Joham Manuel Quintana Simón4 1Universidad Central ¨Marta Abreu¨ de las Villas, Carretera a Camajuaní Km 51/2, 2EMPROY VC, Carretera a Camajuaní, 3 Universidad Central ¨Marta Abreu¨ de las Villas, Carretera a Camajuaní Km 51/2, 4Delegación provincial CITMA VC, Calle Marta Abreu esq. Juan Bruno Zayas, Santa Clara. 1e-mail:olesimon@uclv.edu.cu RESUMEN Los desastres naturales es un tema que cada vez adquiere mayor relevancia, porque sus efectos generan pérdidas humanas, económicas y ambientales, debido en gran medida a la escasa cultura de prevención existente. En Cuba, a partir del año 2005, el Consejo de Defensa Nacional, para la preparación, organización y planificación del país para situaciones de desastres responsabilizó al Ministerio de Ciencias, Tecnología y Medioambiente (CITMA), con la realización de estudios de peligro, vulnerabilidad y riesgo, así como del impacto ambiental de las situaciones de desastres, con el empleo del potencial científico del país. Con estos fines, se elaboraron Guías con un carácter normativo metodológico para, a partir del objetivo propuesto, orientar el procedimiento, el contenido y los aspectos más significativos para la realización de estos estudios, aplicable a la escala del territorio, pero en las mismas no se incluyeron las obras viales. El presente trabajo, propone una Guía, para orientar a los especialistas, inversionistas, proyectistas, y otras entidades competentes en la realización de estudios de peligro, vulnerabilidad y riesgos para situaciones de desastres en obras viales. La Guía propuesta se valida mediante el criterio de especialistas y su aplicación práctica en la carretera de Manicaragua a Topes de Collantes ubicada en el macizo montañoso de Guamuhaya. La gestión de riesgos, prevención y atención de desastres que se impulsa en esta investigación, orienta hacia un aseguramiento del desarrollo sostenible, a través de fortalecer la capacidad de resistencia de las carreteras ante los efectos provocados por fenómenos naturales o antrópicos. PALABRAS CLAVES: riesgo, amenaza, vulnerabilidad, desastre, carretera. STUDIES OF DANGER, VULNERABILITY AND RISKS IN ROAD ABSTRACT Natural disasters is an issue that is becoming more and more relevant, because its effects generate human, economic and environmental losses, due largely to the scarce culture of existing prevention. In Cuba, starting in 2005, the National Defense Council, for the preparation, organization and planning of the country for disaster situations, made the Ministry of Science, Technology and Environment (CITMA) responsible for carrying out studies of danger, vulnerability and risk, as well as the environmental impact of disaster situations, with the use of the scientific potential of the country. For these purposes, Guides were prepared with a methodological normative character, based on the proposed objective, to guide the procedure, the content and the most significant aspects for carrying out these studies, applicable to the scale of the territory, but in them they do not road works were included. This work proposes a Guide to guide specialists, investors, planners, and other competent entities in carrying out hazard, vulnerability, and risk studies for disaster situations in road works. The proposed Guide is validated through the criteria of specialists and its practical application on the highway from Manicaragua to Topes de Collantes located in the Guamuhaya mountain range. The risk management, prevention and attention to disasters that is promoted in this research, orients towards an assurance of sustainable development, through strengthening the resistance capacity of roads against the effects caused by natural or anthropic phenomena. KEY WORDS: risk, threat, vulnerability, disaster, highway. 1. INTRODUCCIÓN La evaluación de riesgos de desastres es todo un proceso mediante el cual se somete a juicio lógico, socio-económico y práctico el resultado de los análisis de riesgos de desastres. Incluye el balance valorativo de los riesgos analizados en relación con los beneficios potenciales, así como el juicio científico frente a otros factores y criterios, de modo que resulta una comparación entre el riesgo analizado y los criterios de aceptación del mismo. El riesgo es el producto de la interacción del peligro y la vulnerabilidad y sus resultados determinan la identificación y evaluación de los daños o pérdidas tanto económicas, físicas, sociales y/o ambientales en determinados sectores de la sociedad. Teniendo en cuenta que la magnitud del peligro de los eventos naturales en la mayoría de los casos es incontrolable, la disminución del riesgo, en la práctica, depende de la reducción de la vulnerabilidad, para lo cual es preciso un trabajo multilateral y sistemático que abarque varias ramas de la economía y los órganos de dirección del gobierno en las diferentes instancias. Cuba ha acumulado una amplia experiencia en el enfrentamiento a fenómenos meteorológicos severos, reconocida internacionalmente por la eficiencia en la preservación de las vidas humanas.Entre los efectos de los peligros naturales que más afectan al país están los asociados a los huracanes tropicales y a los sistemas frontales que producen las inundaciones por lluvias intensas, las inundaciones por penetraciones del mar y las afectaciones por fuertes vientos, la frecuencia de ocurrencia de estos eventos en los últimos tiempos, la necesidad de continuar preservando la vida humana, disminuir las pérdidas económicas y optimizar al máximo los medios con que se cuenta, han hecho que la dirección del país profundice en las estrategias que permitan minimizar sustancialmente todos los efectos negativos de estos fenómenos [1]. En Cuba, se introduce el estudio de riesgos de desastres, para la toma de decisiones de proyecto o para la elaboración de los Planes de medidas para casos de catástrofes a través del proceso de compatibilización de las inversiones y los controles a los objetivos económicos respectivamente, siendo el Estado Mayor Nacional de la Defensa Civil la entidad reconocida para la acreditación a entidades que lo soliciten. Estos estudios, constituyen hoy un instrumento de gran aplicación en diferentes ramas de la economía con una tendencia ascendente. A partir del año 2005, el Consejo de Defensa Nacional, para la preparación, organización y planificación del país para situaciones de desastres responsabilizó al Ministerio de Ciencias, Tecnología y Medioambiente, (CITMA) con la realización de estudios de peligro, vulnerabilidad y riesgo, así como del impacto ambiental de las situaciones de desastres, con el empleo del potencial científico del país. En este año se elaboró una Guía para la realización de los Estudios de Riesgo para situaciones de desastres, la cual tiene un carácter normativo metodológico para, a partir del objetivo o alcance propuesto, orientar el procedimiento, el contenido y los aspectos más significativos, aplicable a la escala del territorio que incluye la urbana [2] y además se elaboraron otras Guías por el Grupo de estudios de desastres [3] de la Facultad de Arquitectura del Instituto Superior Politécnico José Antonio Echeverría (ISPJAE), en particular para la escala territorial, urbana, la arquitectónica y los objetivos económicos. Ambas constituyen la base fundamental de los estudios para la reducción de desastres en Cuba. No obstante, las Guías existentes no orientan a los especialistas, inversionistas, proyectistas y otras entidades competentes en la realización de los estudios de riesgo para situaciones de desastres en obras viales. 2. DESARROLLO La Guía para la realización de estudios de peligro, vulnerabilidad y riesgo para situaciones de desastres en obras viales que se propone, surge por la necesidad de contar con un documento que oriente a las entidades que realizan estos estudios, a los especialistas, inversionistas, proyectistas directores de las entidades económicas a los diferentes niveles, jefes de gobierno y de los órganos de Defensa Civil encargados del proceso de compatibilización de las inversiones y de la elaboración y control de los Planes de Reducción de Desastres y que puedan tomar las decisiones correctas. Se realiza un análisis de las amenazas, vulnerabilidad y riesgo que pueden afectar las carreteras y de acuerdo al resultado de ello se hace un plan de medidas de mitigación de impactos [4]. La Guía que se propone, establece para la realización de estos estudios, los siguientes pasos: Diagnóstico, Evaluación de las amenazas o peligros, Evaluación de vulnerabilidad y Evaluación de riesgo. En los siguientes apartados se analizan cada uno de los pasos. Diagnóstico Debe realizarse un diagnóstico de la carretera objeto de estudio, para conocer sus características geométricas, estado actual de los diferentes objetos que la componen, todo lo cual quedara plasmado en un informe. En la Tabla 1 se presenta la información a obtener con el diagnóstico. Tabla 1: Información a obtener con el diagnóstico. TEMA INFORMACIÓN Ubicación de la carretera Tipo de suelos, uso del suelo. Hidrología Cuencas, acueductos, obras de drenajes. Geología Estabilidad de taludes de corte, estabilidad de taludes de relleno, mapas de fallas geológicas. Tipo de sección construida Terraplén o relleno, corte en balcón, corte en trinchera, puente. Identificación de zonas que han sido afectadas por distintos peligros, indicando fechas aproximadas de ocurrencia. Inundaciones, lluvias intensas, deslizamientos, sismos, estructuras (puentes, bóveda, tuberías Evaluación de los peligros o amenazas Este análisis consiste en identificar las amenazas naturales y antrópicas que podrían darse en un espacio y en un período de tiempo determinados, con suficiente magnitud para producir daños físicos, económicos y ambientales en las carreteras. Para ello será necesario saber qué tipos de amenazas puedan existir en la zona en que se localice la carretera. Los parámetros que se consideraron en este trabajo para el análisis de las amenazas son las siguientes: I. Análisis del historial de las amenazas. II. Análisis de los estudios de pronóstico de amenazas. III. Grado de recurrencia de las amenazas. IV. Amenazas a considerar en los proyectos de carreteras. I. Análisis del historial de las amenazas. Comprende la elaboración de un mapa que identifique las amenazas que podrían afectar la zona en la que se localiza la carretera, el cual puede realizarse durante la visita de campo, que generalmente, se lleva a cabo en la etapa de diagnóstico, con el fin de incorporar el conocimiento local de la población. Se debe de aprovechar la información escrita existente: Mapa o plano de la carretera para identificar las amenazas naturales y antrópicas, Grado de ocurrencia de las amenazas, Identificar las zonas de riesgo actuales, por la presencia de amenazas y factores de vulnerabilidad, Identificación de zonas que han sido afectadas por distintos peligros. II. Análisis de estudios de pronóstico de amenazas. Recolectar información básica sobre el terreno donde se ubicará el proyecto, así como de su entorno inmediato, en cuanto a: Mapa sobre las principales amenazas identificadas en el análisis y estimación de riesgo a nivel municipal, Mapas de amenaza sísmica, deslizamientos, inundaciones y otros, Planes de ordenamiento territorial, planes de gestión, estudios de microlocalización, Estudios de uso del suelo y similares, Inventarios históricos de desastres, información sobre incidentes, pronósticos meteorológicos, etc., Mapas cartográficos y fotografías aéreas o satelitales que permitan la ubicación de la carretera, así como una visión muy general de las curvas de nivel, la estructura del suelo y subsuelo, la hidrografía y la vegetación e Información sobre temperatura, vientos, pluviosidad, humedad y otros. III. Grado de recurrencia de las amenazas. La probabilidad de ocurrencia de una amenaza depende de su período de retorno, el cual es el tiempo esperado o tiempo medio entre dos sucesos improbables y con posibles efectos catastróficos. La frecuencia se define de acuerdo con el período de recurrencia de cada una de las amenazas identificadas, el cual puede estimarse con base en información histórica o en estudios de prospectiva. La intensidad se define como el grado de impacto de una amenaza específica. IV. Amenazas a considerar en los proyectos de carreteras. Dentro de las amenazas a considerar que en su mayoría son naturales, es importante mencionar que también existen por la influencia del ser humano, que muchas veces actúan de forma inconsciente. Dichas amenazas naturales y antrópicas se describen a continuación: • Inundaciones Las fuertes lluvias en un período relativamente corto. La persistencia de precipitaciones que rápidamente provocan aumentos considerables en el nivel de los ríos y torrentes hasta causar el desbordamiento, el represamiento de un río por derrumbes que obstruyen la cuenca originados por fuertes lluvias. La repentina destrucción de una presa, por causas naturales, humanas o ambas. La expansión de un lago o laguna por fuertes o continuas precipitaciones o por represamiento del desagüe. El ascenso del nivel del mar causado por fenómenos meteorológicos como temporales, tormentas, marejadas En la época lluviosa, la cantidad de agua precipitada provoca la saturación de los suelos y un ascenso en su nivel freático por lo cual, si se produce una cantidad adicional de precipitaciones se generará un desbordamiento y la consiguiente inundación. • Vientos Estos pueden ser producidos por depresión tropical, tormenta tropical o huracanes en dependencia de la velocidad de los mismos. • Deslizamientos Estos se producen debido a la interacción de los procesos naturales y la acción del hombre sobre la tierra. En el territorio nacional, estos se dan en diferentes zonas, principalmente en las áreas de montañas con taludes altos o en terraplenes altos (en mayor porcentaje en barrancos y en menos porcentajes en laderas).Por la manifestación de fuerzas naturales (actividad sísmica) provocando la inestabilidad de barrancos y laderas a través del agrietamiento del suelo agregando a este proceso geológico las intensas precipitaciones pluviales, haciendo mucho más inestables estos terrenos. A partir de ese momento comienza la relación del hombre con las fuerzas naturales, acciones que inician con la deforestación hasta la mala canalización de las aguas. Características de identificación de los deslizamientos: Hay evidencia de deslizamientos cuando: Agrietamientos del terreno: Grietas o fracturas muy anchas (indicador del desplazamiento de la masa del terreno), Si hay árboles, éstos muestran una inclinación anormal. (no poseen verticalidad), Cambio en coloración de agua clara a café de las correntadas de agua que descienden de las partes altas, Corrientes de agua cargadas con lodo y fragmentos sólidos, Desprendimientos de pequeñas cantidades de suelos o rocas, Hundimiento del suelo. • Penetraciones del mar Los mayores daños durante los huracanes se deben a las inundaciones de las zonas costeras y a la destrucción causada por los vientos y olas demasiadas fuertes. El mar en ocasiones es el elemento más devastador. En un huracán el aire viaja a gran velocidad por grandes distancias arrastrando agua de la superficie y dando origen a grandes olas que pueden alcanzar los 15 metros de altura. • Sismos Hay que determinar las zonas sometidas a peligrosidad sísmica para analizar las carreteras que se encuentran en ella y las afectaciones que pueden tener. • Peligros de origen tecnológico Se debe identificar las amenazas o peligros en aquellas zonas que puedan estar sometidas a riesgos de origen tecnológico ya sea por la existencia de objetivos con riesgo de accidente mayor o por el trasiego de productos peligrosos en las carreteras. En la Tabla 2 se plasman los elementos necesarios para el análisis de las amenazas. Tabla 2: Elementos necesarios para el análisis de las amenazas. AMENAZAS ELEMENTOS NECESARIOS Inundaciones • Tabla con los últimos eventos que han afectado el territorio. • Intensidad de las lluvias y lámina promedio acumulada en 24 horas. • Estudios anteriores realizados en el territorio. • Registro histórico con su cartografía. • Estudio d e l a hidrología. (cálculo de las cuencas hidrológicas). • Mapificación e n escala adecuada del e scurrimiento. • Posibles avenidas. estado de las obras de drenaje. • Mapa o plano a escala adecuada del área de inundación para las diferentes categorías. de intensas lluvias (o diferentes probabilidades). Altura de la inundación. • Velocidad y dirección de las corrientes. • Definición de las cuencas y áreas de drenaje. • Identificación de los cauces que atraviesan la carretera (Identificar desbordes, riesgos de desborde o erosión etc.). • Mapa o información de la cobertura vegetal. • Mapa y/o información de uso de suelo. • Mapa de viales (principales carreteras o líneas férreas) expuestas en zona de peligro de inundación. Vientos • Tabla de los últimos eventos que han afectado el territorio. • Tipo de evento. • Fecha de última ocurrencia. • Viento máximo sostenido en Km/h Presión mínima en Hpa. • Tabla de Valores máximos promedio de las velocidades de los vientos en (km./h) y sus direcciones predominantes en % del total. • Tiempo de duración de los vientos fuertes. • El análisis histórico que permita contar con una visión general de la incidencia del viento, lo cual permitirá realizar un mapeo general del área que afecta este factor. • El análisis de la velocidad del viento para determinar la inclinación que deben tener los taludes o las laderas por las que la carretera se conduce, para evitar posibles remolinos en secciones tipo trincheras. • El análisis de la duración del viento fuerte, el cual proporcionará un parámetro para el diseño de obras de protección. La incidencia prolongada del viento podría afectar la conservación del talud o ladera. Deslizamientos Causas naturales • Composición del suelo y subsuelo. • Orientación de las fracturas o grietas en la tierra. • Cantidad de lluvia en el área. • Erosión del suelo. • Actividad sísmica. Causas humanas • Deforestación de laderas y barrancos. • Banqueos (cortes para abrir canteras, construcción de carreteras). • Canalización de aguas de lluvia (drenajes). Penetraciones del mar • Tabla de eventos que han provocado afectaciones. • Tipo de evento al que estuvieron asociadas. • Altura del agua de mar que penetró (metros en 24 h). • Altura de la ola máxima. • Batimetría de los 50 metros cercanos al litoral en zonas de inundación. Sismos • Estimación de la peligrosidad sísmica a que está sometido el territorio. • Parámetros del efecto sísmico máximo potencial. • Microzonación sísmica. • Características físico geográficas. • Condiciones hidrogeológicas. • Caracterización geomorfológica. • Condiciones ingeniero geológicas. • Cálculo de los incrementos de la intensidad sísmica y/o determinación del factor de amplificación del terreno en el sitio que se estudia dentro del territorio. Peligros de origen tecnológico • Información de los peligros de origen tecnológico que se hayan identificado, ya sea por la existencia de objetivos con riesgo de accidente mayor o por el trasiego de productos peligrosos por la red de comunicaciones, precisando en cada caso. • Causas de cada uno de esos peligros y eventos asociados • Zona afectada por el evento, qué magnitud y tiempo de permanencia de la situación peligrosa. • Eventos similares ocurridos con anterioridad. • Áreas pobladas y cantidad de personas que pueden verse afectadas para cada categoría de los peligros identificados • Parámetros de magnitud, intensidad y frecuencia para cada peligro tecnológico. • Período del año de mayor incidencia. Evaluación de la vulnerabilidad El Estado Mayor Nacional de la Defensa Civil ha orientado una Guía para la Realización de Estudios de Riesgos por Desastres [2], que resulta un importante fundamento para el análisis de la Vulnerabilidad. Sin embargo, hasta el momento de su consulta, en ella sólo se reconocen los tipos de vulnerabilidad estructural, no estructural y funcional asociadas a los peligros de origen natural y tecnológicos [2] a escala arquitectónica y urbana. De ahí que, de acuerdo con los objetivos trazados en la Tesis de Maestría, la autora toma en consideración no sólo aquellas vulnerabilidades que responden de manera directa a la ocurrencia de los elementos peligrosos seleccionados: estructural, no estructural, funcional, sino los elementos asociados a problemas de exposición, fragilidad y resiliencia a que se encuentran sometidas las carreteras ante una amenaza. A continuación se analizan cada una de las vulnerabilidades consideradas por los autores del presente trabajo: - Análisis de vulnerabilidad estructural Consiste en determinar la capacidad de resistencia de las carreteras ante cualquier amenaza o peligro Se analiza que la mayoría de las carreteras en Cuba se encuentran en estado regular y con poco mantenimiento por lo que su estructura (pavimento, puentes y obras de fábricas) pueden ser afectadas. Para realizar este análisis se necesita: • Información de los efectos destructivos ocasionados por peligros ocurridos con anterioridad. • Mapa, plano o información a escala adecuada de las zonas que quedaran afectadas por los fuertes vientos, inundación en zonas bajas, las penetraciones del mar y otras que definan cuales son las zonas más afectadas. • Realizar análisis de la estructura de la carretera teniendo en cuenta: Pavimento, obras de fábricas y puentes. • Efecto de inundaciones en zonas bajas por intensas lluvias, penetraciones del mar, o aguas abajo de ríos y presas. • En el caso de zonas sísmicas se identificarán las zonas más peligrosas. - Análisis de vulnerabilidad no estructural Esta vulnerabilidad se encuentra encaminada al estudio de la parte no estructural de la carretera como son los taludes, drenaje etc. Para realizar este análisis se necesita: • Estudio de la afectación de la infraestructura en las zonas más dañadas, • Análisis de los taludes (pendiente, geología), • Análisis de todas las obras de drenaje (obras de fábricas, puentes, cunetas y otras obras de drenaje existentes en la zona), - Análisis de vulnerabilidad funcional. La vulnerabilidad funcional no es más que la funcionabilidad de la carretera después de ser afectada por una amenaza o peligro. Aquí es necesario analizar si en algún momento la misma se puede afectar e impedir el tránsito a través de ella, si puede quedar zonas incomunicadas etc. - Análisis de vulnerabilidad por exposición. La exposición de las carreteras está estrechamente relacionada con su microlocalización. Los niveles existentes de exposición se determinan a través de hechos históricos y recientes, en observaciones, en conocimiento local y técnico, en la investigación existente. La exposición se puede calificar de la siguiente manera: • X= Nula o exposición insignificante ahora y/ o en el futuro. • 1= Baja exposición ahora y/ o en el futuro. • 2= Mediana exposición ahora y/ o en el futuro. • 3= Alta exposición ahora y/ o en el futuro. Seguidamente de la evaluación de la exposición, se procede a evaluar la sensibilidad (ver Tabla 3), la cual se define como el grado en que un sistema se ve afectado, ya sea adversa o benéficamente, por estímulos relacionados con el clima. Tabla 3: Escala de sensibilidad [5]. NIVEL DE SENSIBILIDAD DESCRIPCIÓN DEL NIVEL DE SENSIBILIDAD PARA LA INFRAESTRUCTURA 3 Alta Daño permanente o extensivo que requiere grandes reparaciones. 2 Media Daños a la infraestructura generalizada y la interrupción del servicio que requiere reparaciones moderadas. Daños parciales en la infraestructura local. 1 Baja Interrupción localizada del servicio en la infraestructura. No hay daño permanente. Requiere algún trabajo de restauración menor. 0 Insignificante Sin interrupciones de servicios o daños en la infraestructura. A través de la combinación de las calificaciones de exposición y sensibilidad, es posible identificar si la carretera es vulnerable a las variables climáticas, y en qué medida. Las vías que tienen una alta exposición y sensibilidad tendrán una mayor vulnerabilidad a las variables climáticas, que aquellos con una baja exposición y una baja sensibilidad. La matriz de vulnerabilidad mostrada en la tabla 4 proporciona un ejemplo de cómo la exposición y la sensibilidad pueden ser utilizadas para determinar el nivel general de vulnerabilidad. Tabla 4: Matriz de Vulnerabilidad [5]. EXPOSICIÓN SENSIBILIDAD BAJA MEDIA ALTA Alta 4 (Media) 5 (Alta) 6 (Extrema) Media 3 (Baja) 4 (Media) 5 (Alta) Baja 2 (Muy baja) 3 (Baja) 4 (Media) Para cuantificar el nivel de la vulnerabilidad se utilizarán las siguientes categorías: • Vulnerabilidad extrema: La carretera es extremadamente vulnerable, se requerirá adaptación inmediata y/o mitigación para evitar pérdidas. • Vulnerabilidad alta: La carretera es altamente vulnerable, se requerirá adaptación inmediata y/o mitigación para evitar pérdidas. • Vulnerabilidad media: La carretera es moderadamente vulnerable, será necesario adaptación y/o mitigación para evitar pérdidas. • Vulnerabilidad baja: La carretera es menos vulnerable, sería beneficioso adaptación y/o mitigación. • Vulnerabilidad muy baja: La carretera no es vulnerable, es muy poco probable que sea necesaria la adaptación y/o mitigación. - Vulnerabilidad por fragilidad. La fragilidad de la carretera a sufrir daños está estrechamente vinculada con vulnerabilidad física de las carreteras; es decir, con las deficiencias de las carreteras en poseer estructuras físicas para absorber los efectos de las amenazas: frente al riesgo de sismo, por ejemplo, la fragilidad física se traduce en la ausencia de estructuras sismoresistentes en las carreteras. Taludes de corte y relleno: Los taludes de corte y relleno han demostrado ser los puntos más vulnerables de la infraestructura vial. Estos puntos están expuestos a deslizamientos, a socavación y a erosión por ríos y malos manejos de aguas superficiales y subterráneas. La evaluación de la amenaza al deslizamiento tiene la dificultad de no presentar períodos de retorno claros dado principalmente a que son ocasionados por múltiples variables, por ejemplo: sismo, lluvia, viento, etc. Por lo que se limita a evaluar la susceptibilidad, ejemplo: pendiente, geología y su magnitud ejemplo: volumen, velocidad. Consideraciones a tener en cuenta para los taludes y el drenaje: • Tener en cuenta según las características del suelo del talud la pendiente del mismo. • El objeto del drenaje en las carreteras, es en primer término, reducir al máximo posible la cantidad de agua que de una y otra forma llega al mismo, y en segundo término dar salida rápida al agua que llegue a la carretera. • Para que una carretera tenga buen drenaje debe evitarse que el agua circule en cantidades excesivas por la misma destruyendo el pavimento y originando la formación de baches, así como también que el agua que debe escurrir por las cunetas se estanque y reblandezca el terraplén originando pérdidas de estabilidad de las mismas con sus consiguientes asentamientos perjudiciales. Debe evitarse también que los cortes, formados por materiales de mala calidad, se saturen de agua con peligro de derrumbes o deslizamientos según el tipo de material del corte, y debe evitarse además, que el agua subterránea sature la subrasante con su consiguiente peligro. Las obras de drenaje menor pueden ser: alcantarillas, cunetas, cajas, tragantes, subdrenajes, disipadores de energía, contra cunetas. Obras de drenaje mayor: Las obras de drenaje mayor requieren de conocimientos y estudios especiales, entre ellas se pueden mencionar los puentes. Aunque los estudios estructurales de estas obras son diferentes para cada una, la primera etapa de selección e integración de datos preliminares es común. Pasos a desnivel: Consideraciones a tener en cuenta en los pasos a desnivel: • Mantener en constante mantenimiento los drenajes de la superestructura. • Tener un chequeo temporal del estado actual de los elementos estructurales como son las vigas, columnas, vigas de amarre, estribos, terraplenes, etc. • Si es un paso a desnivel muy antiguo se recomienda hacer ensayos no destructivos como son: chequeo del estado actual de las barras longitudinales y transversales, resistencia actual del concreto etc. Terraplén: Consideraciones a tener en cuenta en los terraplenes: • En las laderas, se analizará el talud de acuerdo a las características del suelo para tener en cuenta la pendiente y tomar las medidas adecuadas. • El material que haya sido aflojado deber ser recompactado simultáneamente con el material de terraplén colocado a la misma elevación. • Cuando los terraplenes deban de construirse adyacentes a, o sobre carreteras existentes, los taludes de dichas carreteras deben ser escarificados hasta una profundidad no menor de 15 centímetros construyéndose en capas sucesivas hasta el nivel de carretera existente. • Los terraplenes de roca deben construirse normalmente en capas sucesivas de 45 centímetros, o menos de espesor, y extenderse a todo el ancho de la sección típica. • Cada capa debe construirse en tal forma que los vacíos entre las rocas grandes, se llenen con rocas pequeñas y fragmentos de la misma. • Los terraplenes de tierra deben ser construidos en capas sucesivas, a todo lo ancho de la sección típica, y en longitudes tales que sea posible el riego de agua y compactación. - Vulnerabilidad por falta de resiliencia. La falta de resiliencia de la carretera está estrechamente vinculada con el mantenimiento y recuperación de la infraestructura, la organización social para las emergencias, y la capacitación e investigación. Se tendrá en cuenta la capacidad de adaptación de las obras de fábricas referidas a las intensas lluvias además de realizar un análisis de rutas alternativas para en caso de interrupciones se le pueda dar uso a la carretera. Evaluación de riesgo La evaluación del riesgo se realiza de acuerdo con lo establecido en NC ISO 31000 vigente, tal y como se muestra en la tabla 5. Tabla 5: Evaluación de Riesgos Riesgo (1) Impacto potencial (2) Controles y medidas existentes para la reducción del riesgo (3) Categoría de la ocurrencia (4) Categoría de la severidad (5) Nivel de riesgo (6) Nivel de detección (7) Nivel de prioridad (8) Durante la evaluación de los riesgos se hace necesario evaluar cualitativamente las ocurrencias a partir de la descripción de la frecuencia, como se aprecia en la tabla 6. Tabla 6: Categoría de ocurrencia del riesgo CATEGORÍA DE OCURRENCIA DESCRIPCIÓN DE LA FRECUENCIA 5 Casi seguro Se espera que ocurra en la mayoría de las circunstancias. 4 Probable Probablemente ocurrirá en la mayoría de las circunstancias. 3 Moderada Debería ocurrir en algunas circunstancias. 2 Poco probable Pudiera ocurrir en algunas circunstancias. 1 Raramente Pudiera ocurrir solamente en circunstancias excepcionales. Para evaluar cualitativamente la severidad, se establece la categoría en función de las consecuencias (tabla 7). Tabla 7: Evaluación cualitativa de la severidad. CATEGORÍA DE SEVERIDAD DESCRIPCIÓN DE LAS CONSECUENCIAS 1 Insignificante El desempeño operacional del objeto/carretera/red vial no sería materialmente afectado. No se vería afectado el funcionamiento de la carretera . Los intereses de las partes interesadas no serían afectadas. La percepción pública de la red vial permanecería intacta. 2 Baja Ligeras inconveniencias/dificultades en el desempeño del objeto/carretera/red vial. Algunas funciones del objeto/carretera/red vial estarían comprometidas pero no afectarían la capacidad para su funcionamiento. La recuperación de las consecuencias pudiera gestionarse rápidamente sin necesidad de desviar recursos de actividades claves La percepción pública de la red vial se alteraría ligeramente. 3 Media El desempeño operacional del objeto/carretera/red vial estaría comprometida por lo que se requeriría la revisión de los planes para afrontar las dificultades experimentadas. El objeto/carretera/red vial experimentaría dificultades para cumplir con su funcionamiento, los cuales pudieran poner en peligro algunos intereses de las partes interesadas. La recuperación seria gradual y requeriría planes detallados, necesitando recursos de otras actividades clásicas. Habría una considerable reacción pública adversa con relación al funcionamiento del objeto/carretera/red vial. 4 Muy alta El desempeño operacional del objeto/carretera/red vial seria severamente afectado y sería incapaz de cumplir con su funcionamiento. El objeto/carretera/red vial no sería capaz de cumplir con su funcionamiento eficazmente. La recuperación de las consecuencias sería muy complicada y y tomaría mucho tiempo. La reacción pública seria grandes alteraciones. 5 Extrema El desempeño operacional del objeto/carretera/red vial colapsaría y dejaría de funcionar. El objeto/carretera/red vial estaría tan severamente afectado que no sería capaz de cumplir con su funcionamiento. La recuperación del objeto/carretera/red vial conllevaría a una cuantiosa inversión ante las grandes pérdidas. Grandes repercusiones de la reacción pública. De esta forma teniendo en cuenta la categoría de ocurrencia del riesgo y la evaluación cualitativa de la severidad, se evalúa el nivel del riesgo (tabla 8) y el nivel de detección (tabla 9). Tabla 8: Evaluación del nivel de riesgo [5]. NIVEL DE RIESGO OCURRENCIA SEVERIDAD Extrema Muy alta Media Baja Insignificante Casi seguro Severo Severo Muy alto Alto Significativo Probable Severo Muy alto Alto Significativo Moderado Moderada Muy alto Alto Significativo Moderado Bajo Poco probable Alto Significativo Moderado Bajo Trivial Raramente Significativo Moderado Bajo Trivial Trivial Tabla 9: Evaluación del Nivel de Detección [5]. NIVEL DE DETECCIÓN PROBABILIDAD DE DETECCIÓN 5 Incierto Los controles existentes no detectan el problema o no existe control. 4 Bajo Poca posibilidad de que sea detectado el problema con suficiente antelación. 3 Moderado En ocasiones se detecta el problema con suficiente antelación. 2 Alto Alta probabilidad de ser detectado con suficiente antelación. 1 Casi cierto Generalmente siempre se detecta el problema con antelación suficiente. Durante la evaluación del riesgo, una vez identificados, analizados y evaluados los mismos, se procede a establecer un plan de acciones para la mitigación para lo cual es necesario identificar las posibles medidas para la reducción del riesgo según la vulnerabilidad: I. Identificación de medidas de reducción de riesgo por exposición. Es muy importante conocer el grado de vulnerabilidad a la que están sujetos los elementos estructurales de la carretera, para ello se deben de conocer las estrategias para las amenazas específicas. ✓ Estrategias para amenazas específicas. Primero se deben determinar los fenómenos, si los hay, que imponen una mayor amenaza y luego se deben preparar evaluaciones de los mismos. Tradicionalmente, los planificadores se basaron en información existente, ya que evaluar los riesgos era económicamente muy costoso y consumía mucho tiempo como para poder formar parte de un estudio de planificación de desarrollo, se deben llevar a cabo estas evaluaciones e introducir medidas de mitigación de riesgos en el contexto de un estudio de desarrollo sostenible integrado. Dentro de estas estrategias a incorporar es muy importante mencionar a que tipos de amenazas son vulnerables los elementos estructurales de las carreteras, dependiendo de la zona de ubicación a la que se encuentra, se recomienda consultar mapas de diferentes tipos de riesgos a los que se podría ser vulnerable. I. Identificación de las medidas de reducción de riesgo por fragilidad. Conociendo ya los elementos estructurales de la carretera que son vulnerables a una amenaza, se deben conocer los desastres ocasionados por las mismas, para tomar las medidas de mitigación adecuadas. II. Identificación de las medidas de reducción de riesgo por resiliencia. En la etapa de preparación es importante tener un mantenimiento constante para reducir la vulnerabilidad y aumentar la capacidad de respuesta (resiliencia) de la carretera. III. Identificación de medidas de reducción de riesgos estructurales y no estructurales. En los últimos años han comenzado a emplearse las medidas denominadas no estructurales, estas, a diferencia de las estructurales, no actúan sobre la carretera en sí, alterando sus características, sino que modifican la susceptibilidad de la zona frente a los daños. Las medidas estructurales comunes para la reducción de riesgos de desastres incluyen las represas, los diques para evitar inundaciones, las barreras contra las olas oceánicas y las construcciones antisísmicas. En la tabla 10 se presenta un registro que constituye el resumen de todo el proceder al contener los resultados del trabajo desarrollado para cada riesgo y cómo se tomarán las medidas correspondientes en cada caso y su seguimiento con todos los elementos requeridos, por lo que a su vez es el Plan de Acción. Tabla 10: Tratamiento de los riesgos o plan de acción para la mitigación. Riesgos Estrategias Actividades Fecha de terminació n planificada Respons able Fecha de terminació n real Recursos Tipo de impacto Comentarios (1) (2) (3) (4) (5) (6) (7) (8) (9) En la tabla 11 se presentan las diferentes medidas a tomar en dependencia del impacto. Tabla 11: Medidas de mitigación. IMPACTOS MEDIDAS DE MITIGACIÓN Inundaciones. Revisión de la capacidad de las obras de fábricas y puentes para determinar si su diámetro es adecuado para evacuar las máximas avenidas ocurridas en el área estudiada. En caso de no cumplir sustituir las obras de fábricas y tomar las medidas adecuadas en los puentes. Limpieza de los cauces y cunetas para evitar obstrucciones. Fuertes Vientos. Garantizar que las pendientes de los taludes y laderas sean las adecuadas de acuerdo al tipo de suelo. Analizar la vegetación cercana a la vía para evitar que caigan ramas que podrían obstaculizar las cunetas, cajas de agua, tuberías, etc. provocando que se obstruyan las mismas y ocurran inundaciones en las cuencas. Lluvias intensas Prevenir la erosión de los taludes utilizando cunetas interceptoras y canalizando las aguas con salidas revestidas hacia las cunetas. Garantizar que los taludes estén protegidos con vegetal para prevenir erosión en los mismos. Siempre que sea posible darle salida lateral al agua de las cunetas para evitar volúmenes que provoquen inundaciones en la vía. En caso de terraplenes altos esas salidas deben ser diseñadas de acuerdo a las características del lugar. En el caso de cortes mayores de 6m se deben considerar bermas Deslizamientos Construcción de gaviones, escolleras de piedras sueltas, y muros de escollera (según NC 856:2011). Control y protección de cárcavas. Reducción del ángulo de inclinación de los taludes en los trazados de las vías de montañas (según norma 822:2010). Reforestación para incrementar la resistencia del suelo gracias a las raíces. Protección con mallas de acero, revestimiento con bloques machihembrado y revestimiento con piedras (según NC 856:2011). Penetraciones del mar Se deben construir obras de protección , tales como: muros, escolleras, rompeolas mar adentro, espigones, diques, para prevenir la erosión de las costas. Plantación de arrecifes artificiales. Se deben utilizar protecciones laterales con materiales adecuados Cambio del trazado en planta y perfil de aquellos lugares que sean más afectados siempre que la topografía del lugar lo permita. Utilizar barreras de manglar. Obras de fábricas capaces de evacuar la mayor cantidad de agua. Incendios forestales Realizar los estudios y análisis que permitan la disminución de las causas que inciden directamente en la ocurrencia de este tipo de siniestros. Identificar y mapificar por el Grupo de Evaluación de Riesgo de Desastre Provincial (CITMA) las áreas de mayor incidencia de incendios asociados a las vías de comunicación (carreteras), para fortalecer la vigilancia y señalización. Reforestar las zonas quemadas. Origen tecnológico Tener identificados los escenarios de peligros tecnológicos . Peligros de incendio. Peligro de fuga de gas tóxico. Peligro de explosión . Informe de los estudios de riesgos Los estudios de riesgo deben presentarse a modo de informe donde se contemple una parte textual y una parte gráfica. La Guía propuesta, para su validación, fue sometida al Criterio de expertos y aplicada en la carretera de Manicaragua a Topes de Collantes en el tramo de Jibacoa a la Felicidad, los expertos validaron su rigor científico, calidad técnica y fiabilidad de los resultados y de la aplicación práctica se obtuvieron los resultados esperados para la prevención y mitigación de daños ante posibles desastres, constatando que la misma puede ser generalizada y transferible a otras carreteras. 3. CONCLUSIONES 1. Las medidas de mitigación aumentan la capacidad de respuesta de la carretera, reduciendo el desastre, pero su eficacia es medida en función de los costos necesarios para reducir la vulnerabilidad. 2. La omisión del análisis de riesgo en la planificación de la infraestructura vial, podría repetir un ciclo costoso de destrucción y reconstrucción. El planteamiento para mitigación de desastres y vulnerabilidad debe incorporarse en los planes de reducción y desastres. 3. Las carreteras y toda la estructura vial deben contar con sus respectivas medidas de mitigación desde el momento que son planificadas, porque integrarle posteriormente estructuras adicionales para reducir su vulnerabilidad es costoso. 4. La Guía elaborada para la realización de los estudios de peligro, vulnerabilidad y riesgo para situaciones de desastres en obras viales, fue valorada positivamente por los especialistas y su aplicación práctica en un caso de estudio dio resultados muy positivos de acuerdo al objetivo para el cual se elabora. 4. REFERENCIAS 1. BATISTA SILVA, J. L (2010): “Peligro vulnerabilidad y riesgos en Cuba”. Revista Bimestre Cubana. Vol CVII. Enero –junio. Época III, No. 32, pp.35-53, (ISSN 1012–9561), Cuba. 2. EMNDC. (2005): Guía para la realización de Estudios de Riesgo para situaciones de desastres. Cuba. 3. GREDES (2004): Grupo de Estudios de Desastres (GREDES) de la Facultad de Arquitectura del ISPJAE. 4. DEFENSA CIVIL. (2005): Guía para la realización de Estudios de Riesgo para situaciones de desastres. Estado Mayor de la Defensa Civil. (2005). Cuba. 5. ASOCIACIÓN MUNDIAL DE CARRETERAS (PIARC) (2015): Marco internacional para la adaptación de la infraestructura de carreteras ante el cambio climático. Sobre los Autores: 1. Oleida María Simón Brito. Universidad Central ¨Marta Abreu¨ de Las Villas. Jefe de Colectivo Interdisciplinario de Topografía y Vías de Comunicación. Profesora Titular. Ingeniera Aerofotogeodesta. Master en Ciencias de la Educación Superior. Doctora en Ciencias Pedagógicas. 2. Elva Juana Calvo Llanes. Empresa de Proyecto Villa Clara. Jefe de Departamento. Ingeniera Civil. Master en Ciencias Técnicas. 3. Yudanis de las Mercedes González Álvarez. Universidad Central ¨Marta Abreu¨ de Las Villas. Ingeniera Civil. Estudiante de Maestría. 4. Joham Manuel Quintana Simón. Delegación provincial CITMA VC. Jefe de Departamento de políticas ambientales. Ingeniero Industrial. Estudiante de Maestría. 1 EVALUACIÓN DE LAS ESTRUCTURAS DE HORMIGÓN ARMADO MEDIANTE TOMOGRAFÍA ULTRASÓNICA Javier Ballote Alvarez1, Orlando R. Carraz Hernández2, Iván J. Gómez Matías3, Alejandro Fernández Domínguez4, 1 Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE). Calle 114 % Ciclovía y Rotonda, Marianao, La Habana; jballote@civil.cujae.edu.cu;2 Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE). Calle 114 % Ciclovía y Rotonda, Marianao, La Habana; orlando@civil.cujae.edu.cu; 3 Sin filiación.4 Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE). Calle 114 % Ciclovía y Rotonda, Marianao, La Habana; afernandezd@civil.cujae.edu.cu; RESUMEN La tomografía ultrasónica en los últimos años ha tenido un gran avance como ensayo no destructivo (END) para el diagnóstico de las patologías de las obras civiles, pues permite obtener una imagen del medio con un gran poder resolutivo que responde a las heterogeneidades o discontinuidades del material. En la presente investigación se realizó una tomografía ultrasónica en un caso de estudio utilizando un equipo convencional de velocidad del pulso ultrasónico (VPU), en vez de un tomógrafo ultrasónico. Se realizaron 15 mediciones en tres lados de una viga empleando distintas configuraciones de tiros directos y semi-directos, y mediante la solución de un problema inverso lineal se obtuvo una imagen con la distribución de lentitudes (inverso de la velocidad). Para la solución del problema inverso de la tomografía ultrasónica se utilizó un algoritmo diseñado en MATLAB, capaz de tratar un problema inverso lineal discreto general, a partir de los datos del sistema de observación a través del método general de descomposición en valores singulares (SVD). El caso de estudio consistió en una viga, que previamente había sido sometida a cargas, mediante el diseño del sistema de observación y la inversión tomográfica se identificaron zonas de altos valores de lentitudes (velocidades disminuidas) correspondientes a zonas de fallas y se identificaron los aceros de cerco por los valores bajos de lentitudes (velocidades aumentadas). La calidad del sistema fue evaluada de alta con un error de 6,27%. PALABRAS CLAVES: Método de ultrasonido, patologías del hormigón armado, problema inverso, tomografía ultrasónica EVALUATION OF REINFORCED CONCRETE STRUCTURES USING ULTRASONIC TOMOGRAPHY ABSTRACT Ultrasonic tomography in recent years has had a great advance as a non-destructive test (NDT) for the diagnosis of the pathologies of civil works, since it allows to obtain an image of the environment with a great resolving power that responds to the heterogeneities or discontinuities of the material. In the present research, an ultrasonic tomography was performed in a case study using conventional ultrasonic pulse velocity (UPV) equipment, instead of an ultrasonic tomograph. 15 measurements were made on three sides of a beam using different configurations of direct and semi-direct shots, and by solving a linear inverse problem an image was obtained with the distribution of slowness (inverse of velocity). For the solution of the inverse problem of ultrasonic tomography, an algorithm designed in MATLAB was used, capable of treating a general discrete linear inverse problem, from the data of the observation system through the general method of Singular Value Decomposition (SVD). The case study consisted of a beam, which had previously been subjected to loads, through the design of the observation system and the tomographic inversion, areas of high values of slowness (decreased speeds) corresponding to fault zones were identified and the fence steels were identified by the low values of slowness (increased speeds). The quality of the system was evaluated high with an error of 6,27%. KEYWORDS: Ultrasound method, ultrasonic tomography, reinforced concrete pathologies, inverse problem 1. INTRODUCCIÓN La velocidad de pulso ultrasónico (VPU) es un ensayo no destructivo (END) que se emplea desde mediados del siglo XX en estudios de estructuras de hormigón. La VPU se estima según la expresión 1, y es el tiempo (t) dado en µs que emplea un impulso ultrasónico con frecuencia entre 20 y 150 kHz en recorrer una distancia de (L) metros entre un transductor emisor Tx y un transductor receptor Rx, ambos acoplados al hormigón según (1). , (m/s) (1) El pulso emitido por el transductor se deforma a medida que se propaga por el hormigón, como resultado de las interacciones con las heterogeneidades del medio, surgiendo así un sistema complejo de ondas elásticas que incluye ondas longitudinales y transversales fundamentalmente. Este valor del pulso (longitudinal o transversal) depende de las propiedades mecánicas del hormigón, principalmente sus constantes elásticas y la resistencia mecánica. Por esta razón a partir de los cambios en velocidad se pueden inferir los cambios en la masa de hormigón. Así una región de baja compactación, grietas o defectos le corresponde un valor bajo de velocidad. Por tanto, el valor de la velocidad del pulso puede ser utilizado como criterio de calidad del hormigón [1]. Estos elementos posibilitan que la VPU sea empleada en la determinación de grietas, fisuras y la estimación de la profundidad de éstas en el hormigón armado como resultado de los esfuerzos provocados por fenómenos térmicos y de retracción, que no traen peligro estructural, pero comprometen la estanqueidad y desempeño de las estructuras como edificaciones, túneles y presas. Estas patologías pueden provenir de la falta de capacidad de la estructura en absorber tensiones, sea por subestimación de los esfuerzos durante el dimensionamiento o por la disminución de la resistencia del material [2, 3, 4, 5]. La detección oportuna de estos defectos puede evitar el rápido deterioro y prolongar la vida útil de las estructuras [2, 6]. La determinación de las oquedades o huecos es otro de elementos que puede ser estudiado con la VPU. Según BSI – 1881 [7], la presencia de huecos dentro del hormigón armado provoca la obstrucción de la trayectoria de propagación de la onda incidente, moviéndose por la matriz y no por la oquedad, resultando en una propagación de la onda más prolongada. Este efecto puede utilizarse para localizar defectos de más de 100 mm de diámetro o profundidad, ya que los defectos menores no suelen tener efectos significativos en el tiempo de propagación. [8, 9, 10, 11, 12]. En el campo de los ultrasonidos, un avance significativo ha sido la tomografía ultrasónica. Esta técnica se refiere a la obtención de una imagen de una sección transversal de una estructura que ha sido reconstruida a partir de datos de transmisión o de reflexión producidos al hacer incidir sobre ella, desde varias direcciones, la emisión de una fuente de iluminación [13]. En este caso, la fuente de energía para “iluminar” el objeto desde diferentes direcciones son las ondas ultrasónicas. La tomografía ultrasónica, tiene una amplia aplicación en la medicina nuclear y en radioastronomía, pero a partir del final del siglo XX ha comenzado a utilizarse en la ingeniería civil por su gran poder resolutivo [14, 15]. El uso de imágenes ultrasónicas para evaluar la calidad y estado técnico de las estructuras de hormigón armado mediante la identificación de heterogeneidades, defectos o grietas es una solución novedosa para el diagnóstico de las patologías de las obras civiles [16]. La tomografía ultrasónica presenta gran capacidad para localizar y caracterizar defectos en el hormigón, zonas de humedad, inclusiones involuntarias de materiales extraños, daños generados por heladas o por incendios. Para el desarrollo del método de ultrasonido en su variante de tomografía, no necesariamente es necesario la compra de equipos multi-transductores como tomógrafos ultrasónicos. Si bien, estos posibilitan una mayor rapidez en la toma y procesamiento de los datos, existen procedimientos matemáticos que convencionalmente son utilizados en la geofísica para la solución del problema inverso que pueden adaptarse al caso ultrasónico. En Cuba, las normas vigentes que rigen la realización de este END se concentran fundamentalmente en la determinación del pulso ultrasónico como índice para determinar parámetros físico-mecánicos del hormigón armado, sin embargo, no se abordan las potencialidades que brinda este método para la obtención de una imagen 2D o 3D del medio basado en el comportamiento de las ondas ultrasónicas. En este artículo se propone un sistema de observación para la medición de la velocidad del pulso ultrasónico que permita realizar una evaluación integral de las estructuras de hormigón armado, se diseña un sistema de adquisición que permita evaluar integralmente las estructuras de hormigón armado y se evalúa el grado de deterioro de un caso de estudio a partir del método de ultrasonido. 2. MATERIALES Y MÉTODOS 2.1. Sistema de observación y toma de datos La variante de tomografía propuesta consiste en medir la velocidad del pulso ultrasónico con un equipo convencional utilizando distintas configuraciones, principalmente las de tiro directo y tiro semidirecto (excitación directa y semidirecta). En este caso, si se aplica la teoría de los problemas inversos conocida en la ingeniería geofísica, puede estimarse el modelo de partida de los datos. Esto ha sido probado con éxito para el caso de la tomografía sísmica por Blanco [17]. Las semejanzas entre ambas tomografías, símica y ultrasónica, hacen posible que pueda aplicarse el procedimiento planteado por la autora para la tomografía ultrasónica. Para evaluar el poder resolutivo del método de ultrasonido en su variante de tomografía se realizaron mediciones en un caso de estudio. Se trata de una viga de hormigón armado que se encuentra en el Centro de Estudios de Construcción y Arquitectura Tropical (CECAT) de la Universidad Tecnológica de la Habana José Antonio Echeverría (CUJAE). La viga presenta 5 m de longitud y 0,40 m de ancho, aunque las mediciones solo se realizaron en el tercio central de la misma (figura 1). Los aceros de refuerzo tienen un diámetro de 12 mm y se encuentran distribuidos según se muestra en la figura 1. Figura 1: Plano de la viga de estudio (en color rojo los perfiles donde se realizaron las mediciones de ultrasonido). Sección de estudio de la viga Las mediciones se realizaron con el equipo Pundit Lab de fabricación suiza perteneciente al CECAT. El Pundit Lab consta de dos transductores, uno transmisor Tx y otro receptor Rx, que operan a una frecuencia de 54 kHz, una unidad central y su fuente de alimentación. Los valores obtenidos por el equipo corresponden a los tiempos de propagación de la onda por el medio. Para realizar las mediciones se escogió el tercio central de la viga porque es donde se observan las mayores muestras de deterioro. Esto se debe a que la viga, anteriormente, había sido sometida a diferentes pruebas de carga para medir su capacidad soportante. Los perfiles trazados son transversales a la viga y se encuentran separados entre sí a una distancia de 60 cm. Los perfiles I y III, se encuentran cada uno a 40 cm de los ganchos de izaje (figura 1). La viga presenta una sección de 25 x 40 cm, y tiene el inconveniente que por uno de sus lados se encuentra apoyada en el piso, por lo que no se pueden realizar mediciones en esa cara. Atendiendo a esto y a las características del procedimiento de Blanco [17], el cual necesita discretizar el medio, se definió un sistema de observación que cumpliera con las premisas establecidas y tuviera en cuenta esa limitante. Primero se estableció un sistema de referencia, que permitiese la introducción de los datos de forma correcta. En el mismo, el eje de coordenadas (0,0) se corresponde con el borde inferior izquierdo y las coordenadas (25,40) con el borde superior derecho. El medio quedó discretizado en 25 celdas rectangulares de 5 x 8 cm. Se definieron 15 tiros (mediciones), cinco tiros directos ubicando los Tx en la cara A de la viga y los Rx en la cara B, separados cada uno de ellos a 8 cm (figura 2). Figura 2: Sistema de observación planteado para la toma de los datos en una sección de la viga (caras A y B). Para los tiros semidirectos, se ubicaron los Tx en el lado superior de la viga separado a 5 cm y los Rx para L1 se ubicaron en la cara A y para L2 en la cara B. Tanto los transductores Tx como Rx se fueron moviendo de manera que los rayos inclinados pasaran por la diagonal principal de las celdas. Para el acoplamiento entre los transductores y el hormigón, se utilizó grasa gruesa de preservo. 2.2. Procesamiento de los datos. La teoría de los problemas inversos puede aplicarse a muchas ramas de la ingeniería y de la ciencia. Un problema inverso es una estructura general que se usa para convertir las mediciones observadas en información acerca de un sistema u objeto físico. Es aquel problema en el que los valores de algunos parámetros de un modelo deben ser obtenidos a partir de los datos observados. La interpretación geofísica tiene sus fundamentos matemáticos en la teoría de los problemas inversos, ya que los valores de los parámetros de un modelo geofísico deben ser obtenidos a partir de los datos observados [17]. En el ámbito científico, frecuentemente se desea relacionar los parámetros físicos que caracterizan un modelo m, con observaciones recolectadas que componen algún conjunto de datos d, de manera que se puede especificar mediante la expresión 2, una función G, que relacione m y d: (2) Esto se conoce como problema directo, y consiste en encontrar d datos, dado un operador G y un modelo m. En el problema inverso (3), consiste en buscar los parámetros de un modelo m, dados un operador inverso G y unos datos observados d. (3) En el caso de la tomografía, se está ante un problema inverso, pues se tiene un conjunto de datos observados y es necesario obtener los parámetros del modelo. Para la solución del problema se utilizó el script confeccionado por Blanco [17] en lenguaje de programación MATLAB®. La elección del lenguaje por parte de la autora se basó esencialmente en la disponibilidad de un numeroso repertorio de funciones predefinidas, que convierten la tarea de desarrollar un algoritmo en “armar” una secuencia de bloques. En la inversión de la matriz de datos intervienen varios procesos intermedios, como la descomposición de valores singulares y el cálculo de la inversa generalizada. A partir de estos procedimientos se obtiene un conjunto de resultados intermedios cuyo análisis posibilita la interpretación de la calidad y estabilidad del modelo que se espera obtener. El algoritmo sigue los siguientes pasos: 1. Entrada de los datos 2. Discretización del medio 3. Análisis de la trayectoria de los rayos 4. Cálculo del arreglo de distancias desde la fuente hasta el receptor a lo largo de la trayectoria del rayo 5. Construcción de la matriz G 6. Obtener gráficos del sistema de observación y de la iluminación del medio 7. Descomposición de la matriz G en valores singulares 8. Inversión de la matriz y resolución del problema inverso 2.3. Resultados 2.3.1 Obtención de los gráficos del sistema de observación y de la iluminación del medio. El modelo del tiempo de propagación a lo largo de la trayectoria de un rayo (4), entre la fuente y el receptor, es una integral de línea a lo largo de la trayectoria del rayo (en segundos). 𝑡 = ∫ s(𝐱) 𝑙 𝑑l , (4) Donde: 𝑠(𝐱) = 1⁄𝑣(𝐱) es la “lentitud” (s/m) a lo largo de la trayectoria del rayo, 𝑙, distancia en metros entre los puntos de la fuente y el receptor. Se utilizan lentitudes en vez de velocidades, para linealizar el problema tratado. Se tomó como tiempo de fondo (que se traduce en velocidad de fondo) los tiempos promedios de todas las mediciones realizadas en los tres perfiles, este valor se sustrajo a cada una de las mediciones, con el objetivo de poder evaluar en cada tiro los contrastes de lentitudes. Esto es debido a que las velocidades disminuidas (mayores tiempos), el algoritmo las considera como velocidades negativas, matemáticamente es acertado, pero físicamente imposible. Por esto, utilizar un valor de fondo y trabajar con las contribuciones de lentitudes permite asumir valores positivos y negativos. La representación gráfica de las trayectorias recorridas por cada uno de los rayos se muestra en la figura 3 a). De acuerdo con el sistema de adquisición planteado, la viga es atravesada por 15 rayos en cada uno de los perfiles. Cinco rayos de forma horizontal y diez son rayos inclinados. De estos últimos, cinco corresponden a un tiro semidirecto (L1) y los cinco restantes a otro tiro semidirecto (L2). Las líneas con diferentes colores representan las trayectorias seguidas por los rayos, donde en cada extremo de éstos se ubican una fuente y un receptor. Por otro lado, las líneas discontinuas corresponden a los límites de las celdas como resultado de la discretización del medio. Este gráfico representa cómo los rayos están atravesando el medio; es decir, cómo es explorado el medio con el sistema de observación planteado, con el cual, a pesar de las limitaciones para medir por un lado de la viga, se asegura que al menos un rayo atraviese la celda. Esto se puede apreciar más claramente en el gráfico de iluminación (figura 3 b), el cual es un complemento del sistema de observación y es el resultado de calcular la longitud de los rayos que atraviesan la celda, por tanto, dependen del sistema de referencia utilizado. Figura 3: a) Gráfico del sistema de observación de los perfiles I, II y III. b) Gráfico de iluminación del medio con el sistema de observación planteado para los perfiles I, II y III. La iluminación se encuentra en la escala del 5 a 25, que corresponde a la suma de las longitudes de los rayos que pasan por cada celda. Los gráficos muestran que todas las celdas no son iluminadas de manera homogénea; es decir, que el sistema de observación no está explorando todo el medio de la misma manera, provocando que la iluminación sea mejor en algunas zonas que en otras. Según la escala de tonos, la zona mejor iluminada es la que se muestra en blanco, pues una mayor cantidad de rayos la atraviesan. Por su parte, la zona peor iluminada se observa de color negro, y se encuentra en el tercio inferior de la viga, esto se debe a que solo la atraviesan los rayos horizontales del tiro directo. Es necesario tener en cuenta que el medio no está siendo explorado de manera regular, y que en la zona pobremente iluminada puede haber pérdida de información, por tanto, un débil muestreo del objeto de interés en la exploración tomográfica. 2.3.2. Obtención del gráfico de matriz G y de los valores singulares Para una mejor observación del sistema resulta conveniente obtener el gráfico de la matriz G, para observar el diseño del sistema y la distribución de rayos dentro de éste. El gráfico de la matriz (figura 4), ilustra la estructura de la matriz del sistema de observación de cada perfil. Se aprecia que la matriz es dispersa, pues tiene muchos elementos iguales a cero (color azul), en verde se distinguen los elementos de los rayos horizontales y en rojo los elementos que corresponden a las distancias de los rayos inclinados. Esta distribución evidencia que se diseñó un sistema con rayos que van en las direcciones horizontal e inclinada. Figura 4: Gráfico de la matriz G del sistema de observación de los perfiles I, II y III. El método de Descomposición en Valores Singulares (SVD) descompone cualquier matriz G en el producto de tres matrices utilizando la función svd de MATLAB, según (5). G=U∙S∙ VT (5) Las matrices U y V son matrices formadas por autovectores unitarios, mientras que la matriz S es una matriz diagonal formada por los denominados valores singulares. Los valores singulares de la matriz G (figura 5), varían entre 26 y 1, con lo cual el número de condición es 26. El número de condición se utiliza para evaluar cuantitativamente la estabilidad de la solución. Se dice que un proceso es estable si pequeños cambios en los datos conducen a pequeños cambios en los resultados. Análogamente, un proceso se dice que es inestable cuando pequeños cambios en los datos producen cambios bruscos enormes en los resultados. Los problemas inversos suelen ser inestables, donde la inestabilidad absoluta corresponde a un número de condición igual a infinito, mientras que la estabilidad absoluta corresponde a un número de condición igual a 1. Mientras mayor sea el número de condición, menos estable será la solución del problema inverso. Figura 5: Gráfico de los valores singulares de los perfiles I, II y III. Después de realizada la descomposición en valores singulares, el siguiente paso para la resolución del problema inverso es la inversión de la matriz G. La descomposición SVD puede ser usada para calcular una inversa generalizada de G, que se denota por G†, llamada también pseudoinversa de Moore –Penrose. Una vez determinada la pseudoinversa G†, se puede obtener el modelo estimado del medio m† de norma ℓ2 mínima (6). m† = G†d (6) La aplicación de estas técnicas de descomposición e inversión permiten encontrar una solución aproximada útil mediante la búsqueda de un modelo m particular que minimice en alguna medida el desajuste entre los datos observados y los datos calculados Gm. La solución de mínimos cuadrados o solución de norma ℓ2 es de especial interés, tanto porque es muy flexible a los análisis y a la intuición geométrica, como porque resulta ser estadísticamente la solución más verosímil si los errores en los datos tienen una distribución normal [18]. 2.3.3. Gráficos de la matriz de resolución de los modelos (Rm) La matriz de resolución de los modelos (figura 6a) es una matriz simétrica que constituye una medida de la capacidad de un sistema para recuperar el modelo original. En el caso más favorable, la matriz de resolución debería ser una matriz identidad y la resolución sería perfecta; sin embargo, en los problemas con rango deficiente, no es una matriz identidad, pero aun así es una matriz simétrica que describe cómo la solución inversa generalizada “deforma” el modelo original. Las celdas (1,1) y (1,5) correspondientes a los extremos superiores del modelo tienen valores cercanos a la unidad, por lo cual, en estas celdas se puede recuperar el modelo original con mayor calidad, aunque esta información en ocasiones no es muy útil porque el objeto de interés usualmente no se encuentra en las esquinas. En la matriz diagonal reorganizada de la matriz de resolución del modelo (Figura 6b) se puede identificar con mejor claridad la distribución espacial de las celdas del modelo y su valor correspondiente de resolución. Figura 6: a) Gráfico de la matriz de resolución de los modelos de los perfiles I, II y III. b) Gráfico de la diagonal reorganizada de la matriz de resolución de los modelos de los perfiles I, II y III. En la Figura 6 b) se observa cómo después de los bordes superiores del modelo, los lugares donde mejor se puede recuperar el modelo original son en los bordes superiores correspondientes al tope de la viga y en los laterales, pues presentan valores mayores a 0,6. Por el contrario, al tercio inferior de la viga le corresponden los valores más pequeños de la matriz diagonal (menores de 0,4), por lo que los correspondientes parámetros del modelo serán resueltos pobremente en esta área. No obstante, según Blanco [17], esto no significa que la resolución no es la mejor, es suficiente para que el sistema de observación planteado recupere los parámetros del modelo. En la práctica, la matriz de resolución de los modelos es usada para examinar los elementos de la diagonal principal de Rm. Los elementos de la diagonal que son cercanos a uno corresponden a parámetros para los que es posible proclamar una buena resolución. Por el contrario, si algunos de los elementos de la diagonal principal son pequeños, entonces los correspondientes parámetros del modelo serán resueltos pobremente. 2.3.4. Obtención de la matriz de los parámetros del modelo Una vez obtenida la matriz inversa generalizada, es posible resolver el problema inverso de mínimos cuadrados o de norma ℓ2 mínima, obteniéndose un vector de parámetros del modelo 𝐦†, cuyos elementos deben ser reorganizados en una matriz para el caso 2D o un bloque para el caso 3D. En la figura 7 se muestran los resultados de la inversión de los datos del caso de estudio. En color azul (figura 7a) los valores más bajos de lentitudes (velocidades aumentadas) con respecto a las tomadas como lentitud de fondo. Este comportamiento en los laterales de la viga puede deberse a la ubicación del cerco (separados a 30 cm), que coincide con el trazado de los perfiles (espaciados a 60 cm) y que no se evidencia en la parte superior por la presencia de las grietas. La VPU de los aceros, según Buitrago [19] es aproximadamente 5920 m/s, superior a la velocidad del hormigón, por esto se puede localizar fácilmente el cerco en los otros dos perfiles (figuras 7b y 7c), no siendo posible hacerlo para los aceros longitudinales que se encuentran perpendiculares al perfil. Figura 7: Matriz de los parámetros del modelo obtenido con la norma ℓ2 mínima (mínimos cuadrados) de los perfiles I, II y III. En el extremo superior de la viga, a pesar de que en este sector es donde se ubican los aceros longitudinales y cercos, se muestra un comportamiento completamente diferente a lo observado en los laterales, se observa un aumento en las lentitudes (velocidades disminuidas), que corresponde con lo esperado en zonas porosas, con grietas y fracturas. Durante las mediciones se identificaron varias grietas sobre la superficie de la viga (Figura 8). Figura 8: Grietas de la sección de estudio de la viga. La localización de los aceros inferiores en la base de la viga (celdas inferiores), resultan menos confiables por la pobre iluminación que presentan, aunque en el caso de los perfiles I y II, las celdas de los extremos muestran una iluminación media y presentan valores elevados de lentitud (velocidades disminuidas). Una posible causa pueda ser el pobre acoplamiento de los transductores, pues los puntos de medición se ubicaban justo entre el piso y la base de la viga. En el centro de los tres perfiles se destaca la celda con mayor valor de lentitud observado (menores velocidades). Esta celda, a diferencia de las inferiores, muestra una alta iluminación (figura 9), esto significa que una mayor cantidad de rayos la atraviesan y que la estimación resulta más confiable, por lo que puede decirse con mayor seguridad que se trata de una zona con un alto grado de agrietamiento o porosidad. Figura 9: Matriz de los parámetros del modelo obtenido con la norma ℓ2 mínima (mínimos cuadrados) para los tres perfiles (Elaboración propia). A pesar de que se pueden estimar las áreas con menores valores de la velocidad de pulso ultrasónico, no es posible diferenciar las zonas de fracturas de las zonas con mayor porosidad, debido a que el comportamiento es muy similar. Al comparar los tres perfiles, se puede decir que el perfil III presenta las mayores muestras de deterioro, al presentar los valores más elevados de lentitudes (velocidades disminuidas) en comparación con los perfiles I y II. La sección de la viga que se encuentra en mejor estado, es la correspondiente al perfil I. Si se evalúa la viga mediante tiros directos, la velocidad del pulso ultrasónico promedio de la estructura sería de 3225 m/s, con lo cual pudiese clasificarse como de alta calidad según la RED DURAR de CyTED [19]. La ventaja de la tomografía con respecto al análisis convencional que se realiza para estimar la VPU en ingeniería civil, es que la primera ofrece mayores posibilidades en el campo de la defectología, caracterizar zonas con mayor grado de agrietamiento. En la figura 10 se observa el gráfico de los parámetros del modelo estimado en curvas de nivel que representan valores iguales de lentitudes en el plano. Los menores valores se encuentran representados con el color azul (velocidades aumentadas), que corresponden con la ubicación del cerco y, en el caso de la zona inferior de la viga se mantiene la mayor incertidumbre por ser las celdas con la iluminación más pobre. Además, con la ayuda de las curvas de nivel se logra dibujar mejor la zona de afectación por agrietamiento o de alta porosidad al centro de la viga. Figura 10: Gráfico en curvas de nivel de los parámetros del modelo estimado de los perfiles I, II y III. Para trabajos futuros se propone trazar dos nuevos perfiles transversales, procurando que estos no coincidan con el cerco de aceros para poder evaluar con mejor calidad la estructura y evaluar también la influencia del mismo en las mediciones. Si fuese posible medir en todas las caras de la viga el sistema de observación propuesto sería el que se muestra en la figura 11. Figura 11: Sistema de observación propuesto para medir por cuatro caras de una viga o columna. Este sistema de observación estaría compuesto por 10 tiros directos (5 horizontales y 5 verticales) y 18 tiros semidirectos (9 rayos inclinados para L1 y 9 para L2), de esta forma se garantiza que cada celda sea explorada por 4 rayos (figura 12a), de igual forma se puede observar una alta iluminación en toda la sección (figura 12b), disminuyendo el error durante la inversión de los datos. Figura 12: Sistema de observación propuesto para medir en las cuatro caras de una viga o columna a) Trazado de los rayos b) Iluminación de la viga. Otra consideración a tener en cuenta es, siempre que sea posible, discretizar el medio en celdas cuadradas. El caso de estudio, si en vez de discretizar el medio en celdas de 5 x 8 cm para obtener un modelo de 5 filas y 5 columnas, se hubiese discretizado en celdas de 5 x 5 cm para obtener un modelo 8 filas con 5 columnas. De esta forma, se hubiese obtenido una menor área para cada celda, es decir la partición espacial sería menor, y el resultado sería una imagen con mejor iluminación del modelo. Para el caso de estudio, con el sistema de observación se tienen 15 rayos y 25 celdas, de ellas 9 celdas son iluminadas por 3 rayos, eso equivale a un 36%, sin embargo, con la propuesta de celdas 5 x 5cm, serían 24 rayos y 40 celdas para un total de 24 celdas iluminadas por 3 rayos (60%). 2.3.5 Evaluación de la calidad del modelo. Para evaluar la calidad del modelo, Blanco [17] propone pruebas estadísticas basadas en la distribución de 𝜒2, pues proporcionan una comprensión clara de la naturaleza íntima de las soluciones de mínimos cuadrados, y su análisis describe la propagación de los errores en los datos hacia los parámetros del modelo en el método de mínimos cuadrados. El caso de estudio, al ser un problema de rango deficiente no es posible realizar las pruebas estadísticas basadas en la distribución 𝜒2 porque si la cantidad de datos observados (m) es menor que la cantidad de parámetros del modelo que se necesita encontrar (n), el resultado de calcular 𝜈 = 𝑚 − 𝑛 grados de libertad es negativo. Entonces la probabilidad de obtener un valor de 𝜒2 tan grande o mayor que el valor observado, no sería posible obtenerlo. Atendiendo a esto, se consideró evaluar la calidad del modelo obtenido, evaluando el sistema de observación planteado. Para ello, se realizó la tarea directa a un modelo de velocidades conocidas empleando el mismo sistema de observación que se utilizó en el caso de estudio. El modelo escogido fue el de ¨tablero de damas¨ (checkerboard) (Figura 13). Esta prueba de resolución comúnmente realizada en los estudios de tomografía consiste en utilizar un modelo de prueba compuesto por perturbaciones positivas y negativas alternas que imitan a un tablero de damas [18]. En la práctica no es necesario que sean negativas y positivas, basta con que sean velocidades diferentes y siga el patrón del tablero de damas. Con los tiempos calculados tcal a partir del modelo de velocidades del tablero de damas, se realizó la tarea inversa, para estimar que tan bien el sistema de observación recupera los parámetros del modelo. La figura 13 a y b muestra las velocidades reales y las velocidades estimadas por la inversión. Al comparar ambas, se puede distinguir como el sistema de observación logra recuperar las velocidades del modelo en la parte superior de la viga, siendo la zona inferior de la viga, el área más pobremente iluminada, donde no se logra recuperar el modelo. Para estimar el nivel de error del sistema en la recuperación del modelo (figura 13 c), se calculó mediante la ecuación (7): (7) La figura 13 c) muestra los porcientos de error para cada celda del modelo. Los porcientos negativos indican que los valores en la inversión fueron subestimados. A medida que se acerca a la base de la viga, los resultados son menos confiables, porque el nivel de los errores aumenta. En la fila de la base del modelo, las celdas de los extremos tienen poco error, pero las tres celdas centrales tienen una gran incertidumbre. El error medio del sistema es de 6,27%, con lo que se puede afirmar que la calidad del modelo obtenido mediante la inversión es buena. Figura 13: Modelo de velocidades del tablero de damas a) Velocidades del modelo (reales) b) Velocidades obtenidas por la inversión, c) Nivel de error para cada celda del sistema de observación planteado. 3. CONCLUSIONES El algoritmo desarrollado por Blanco [17] en el programa informático MATLAB junto con el diseño adecuado de un sistema de observación permiten realizar la inversión de la tomografía ultrasónica con un mayor poder resolutivo y menor ambigüedad que las mediciones del pulso ultrasónico convencionales. En este sentido, la viga de hormigón armado que se empleó como caso de estudio presenta una calidad alta según la velocidad del pulso ultrasónico (3225 m/s) y mediante la resolución del problema inverso lineal de la tomografía ultrasónica se obtuvieron tres imágenes 2D que permitieron identificar las zonas de altas velocidades del pulso ultrasónico correspondientes a los cercos de los aceros, y las zonas de bajas velocidades que caracterizan a las áreas afectadas por agrietamiento o alta porosidad. La calidad del modelo puede considerarse aceptable (el error medio obtenido fue de 6,27%), pero debe ser mejorado utilizando un sistema de observación con celdas de 5 x 5 cm, o sea, 24 rayos y 40 celdas para un total de 24 celdas iluminadas por 3 rayos. 4. AGRADECIMIENTOS Los autores agradecen al Dr. Emilio Escartín Sauleda del Departamento de Geociencias por sus oportunas observaciones y al Ing. Geovany Alemán Carmenate por la asistencia técnica. 5. REFERENCIAS BIBLIOGRÁFICAS [1] Norma Cubana NC: 231. Determinación, interpretación y aplicación de la velocidad del pulso ultrasónico en el hormigón. Oficina Nacional de Normalización, 2002. [2] AGGELIS, D.; KORDATOS, E.; SOULIOTI, D., MATIKAS, T. (2010). “Combined use of thermography and ultrasound for the characterization of subsurface cracks in concrete”. Construction and Building Materials, V. 24, n. 10:1888-1897, 2010. [3] SILVA, L., HELENE, P. “Análise de estruturas de concreto com problemas de resistência e fissuração”. In S. P. E. I. ISAIA, Geraldo C. Concreto: Ciência e Tecnologia. 1Edição, São Paulo: Editora IBRACON (Brasil), pp. 1124-1174, 2011. [4] ROCHA, J. H., POVOAS, Y. V. “A termografia infravermelha como um ensaio não destrutivo para a inspeção de pontes de concreto armado: Revisão do estado da arte”. Revista ALCONPAT, V.7, No. 3, p.200-2014. DOI: http://dx.doi.org/10.21041/ra.v7i3.223 [5] SILVA, M.; ROCHA, J.; MONTEIRO, E.; PÓVOAS, Y.; KOHLMAN, E. “Evaluación del ensayo de ultrasonido para la estimación de la profundidad de fisuras en concreto”. Revista Alconplat, V. 9, n. 1, pp.79-92, 2018. http://dx.doi.org/10.21041/ra.v9i1.289 [6] POSSANI, D., LYRA, D.; CONTE, F.; & MORÁIS, D. “Ondas ultrassônicas: teoria e aplicações industriais em ensaios não-destrutivos”. R. Bras. Fís. Tecnol. Apl., Ponta Grossa, V. 4, n. 1, p. 16-33, mai./jun. 2017. https://10.3895/rfta.v4n1.5073 [7] BSI 1881. “Part 203: Recommendations for measurement of velocity of ultrasonic pulses in concrete”. British Standards Institution, 1986. [8] ADAMATI, D; LORENZI, A.; SILVA, L. “Analysis of reinforced concrete structures through the ultrasonic pulse velocity: technological parameters involved”. Revista IBRACON Estructuras e Materiais. V. 10, n. 2. 2017. http://dx.doi.org/10.1590/S1983-41952017000200006 [9] ZIELIŃSKA, M.; RUCKA, M. “Non-Destructive Assessment of Masonry Pillars using Ultrasonic Tomography”. Materials, 11(12), 1-16, 2018. https://doi.org/10.3390/ma11122543 [10] ANDI, M.; G. R. YOHANES. "Experimental study of crack depth measurement of concrete with ultrasonic pulse velocity (UPV)". IOP Conference Series: Materials Science and Engineering. V. 673. n. 1. IOP Publishing, 2019. [11] CLIMENT, M. Á., MIRÓ, M., CARBAJO, J., POVEDA, P., DE VERA, G.; RAMIS, J. “Use of non-linear ultrasonic techniques to detect cracks due to steel corrosion in reinforced concrete structures”. Materials, V. 12, n.5, 813. 2019. [12] GARG, S.; MISRA, S. “Efficiency of NDT techniques to detect voids in grouted post-tensioned concrete ducts”. Nondestructive Testing and Evaluation, V.36, n.4, 366-387. 2020. doi: https://doi.org/10.1080/10589759.2020.1758100 [13] GISBERT CLIMENT, V. “Implementación de un sistema de adquisición para tomografía ultrasónica”. Trabajo de fin de grado presentado para la obtención del Título de Graduado en Ingeniería de Tecnologías y Servicios de Telecomunicación. Universitat Politècnica de València, 2017. [14] LLUVERAS, D. “Evaluación de materiales cementicios utilizando tomografía ultrasónica en transmisión”. (Doctorado), Escuela Técnica Superior de Ingenieros Industriales. España. 2017. https://doi.org/10.20868/UPM.thesis.47671 [15] SANDERSON, TRISTAN; FREESEMAN, K.; LIU., K. "Concrete Bridge Deck Overlay Assessment using Ultrasonic Tomography." Case Studies in Construction Materials (2022): e00878.https://doi.org/10.1016/j.cscm.2022.e00878 [16] SCHABOWICZ, K. “Non-Destructive Testing of Materials in Civil Engineering”. Materials. 2019, 12, 3237; doi:10.3390/ma12193237 [17] BLANCO, C. “Análisis y resolución del problema inverso lineal discreto. Caso de estudio de la Tomografía Sísmica 2D”. Tesis para optar por el grado de Ingeniero Geofísico, Instituto Superior Politécnico “José Antonio Echeverría”, La Habana. 2015. Disponible en: http://tesis.cujae.edu.cu:8080/xmlui/handle/123456789/4896 [18] ASTER, R.; BORCHERS, B.; THURBER C. “Parameter Estimation and Inverse Problems”. Elsevier Academic Press Publications 2011. Book. ISBN: 0-12-065604-3 [19] BUITRAGO, B.; IRAUIQUIN, I.; MENDOZA, J. “Ultrasonic velocity attenuation in carbon stell specimens”. Revista Técnica de la Facultad de Ingeniería Universidad de Zulia, Venezuela, 2004, v. 27, n.1, pp. 20-25. ISSN 0254-0770. [20] DURAR. “Manual de inspección, evaluación y diagnóstico de corrosión en estructuras de hormigón armado”. CYTED. Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo. Río de Janeiro. 1997. Sobre los autores 1Ingeniero Geofísico. Profesor Instructor. Departamento de Geociencias. 2Ingeniero Geofísico. Doctor en Ciencias Técnicas. Profesor Auxiliar. Departamento de Geociencias. 3Ingeniero Geofísico. 4Ingeniero Civil, Máster en Ciencias. Profesor Asistente. Departamento de Construcciones y Viales ELEMENTOS PARA LA DETERMINACIÓN DE LAS CARGAS DE VIENTO EN ESTRUCTURAS EN CUBA Vivian Elena Parnás1, Patricia Martín Rodríguez2, Ingrid Fernández Lorenzo3, Alejandro López Llanusa4, Katia Luis García5, Bruno Clavelo Elena6 1-6 Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE, La Habana, Cuba 1e-mail: vivian@civil.cujae.edu.cu RESUMEN El estudio de la determinación de la carga de viento sobre las edificaciones es de gran importancia debido a la ocurrencia de fuertes vientos en el territorio de Cuba que ocasionan daños en las construcciones. El presente trabajo muestra los resultados de investigaciones que contribuyen a el perfeccionamiento en la determinación de la carga de viento para el cálculo de las estructuras. La investigación se desarrolló a través de la modelación numérica computacional, análisis experimental a escala reducida y real y métodos estadísticos de valores extremos. Los resultados obtenidos consisten en la actualización de las velocidades básicas de diseño y perfiles verticales de velocidad de viento; la actualización de los parámetros de la turbulencia del viento; propuesta de coeficientes aerodinámicos para paneles fotovoltaicos, elementos de torres reticuladas y antenas de comunicación; la actualización de los métodos dinámicos para el cálculo de estructuras y la calibración de modelos mediante técnicas experimentales modales (OMA). Se logran incorporar las más modernas técnicas a nivel internacional al estudio de la acción del viento en las construcciones, estos avances obtenidos se incorporan a la norma cubana de viento y ya han sido implantados en los nuevos diseños de parques fotovoltaicos, torres reticuladas y edificios altos que se construyen en el país, contribuyendo de esta manera a la reducción de la vulnerabilidad estructural. PALABRAS CLAVES: Carga de viento, estructuras, aerodinámica, diseño estructural, vulnerabilidad ELEMENTS FOR THE DETERMINATION OF WIND LOADS IN STRUCTURES IN CUBA ABSTRACT The study of the determination of the wind load on buildings is of great importance due to the occurrence of strong winds in the territory of Cuba that cause damage to buildings. The present shows the results of the investigations that I work to improve in the determination of the wind load for the calculation of the structures. The research was developed through computational numerical modeling, experimental analysis at a reduced and real scale and statistical methods of extreme values. The results obtained consistently in the update of the basic design speeds and vertical profiles of wind speed; updating the wind turbulence parameters; proposal of aerodynamic coefficients for photovoltaic panels, elements of reticulated towers and communication antennas; updating the dynamic methods for the calculation of structures and the calibration of models using modal experimental techniques (OMA). The most modern international techniques were acquired and applied to the study of the action of the wind on constructions. Significant results have been incorporated into the Cuban Wind Code and have already been implemented in the new designs of photovoltaic parks, latticed towers and tall buildings that are built in the country contributing to reduce vulnerability of structures. KEY WORDS: Wind load, structures, aerodynamics, structural design, vulnerability 1. INTRODUCCIÓN En Cuba, el estudio de la determinación de la carga de viento sobre las edificaciones es de gran importancia debido al paso frecuente de huracanes. Reportes internacionales establecen que entre el 70 y el 80% de las pérdidas económicas mundiales por desastres naturales están asociadas al efecto de los vientos extremos. Por esta razón en aras de garantizar una mayor seguridad en la estabilidad de las construcciones, la Ingeniería Civil se ha enfocado en el estudio de las características del viento y su interacción con el entorno construido. La norma cubana NC 285-2003, Carga de Viento. Método de Cálculo, es el documento regulatorio para el cálculo y revisión de estructuras frente a la acción de esta carga ecológica. La norma está basada en estudios realizados en la década del 80 del siglo pasado y desde el año 2003 no se realiza ninguna actualización. A partir de estudios realizados desde hace varios años por el grupo de Aerodinámica de las Construcciones del Centro de Estudios de la Construcción y Arquitectura Tropical (CECAT), de la Facultad de Ingeniería Civil de la CUJAE, se ha detectado que la norma presenta algunas divergencias y limitaciones con relación a las referencias y estudios internacionales. El efecto del viento sobre las estructuras fue conceptualizado por Davenport [1] a partir del establecimiento de la “Cadena de Efectos del Viento”, esta cadena define la estructura para la obtención de la carga de viento a partir de la combinación y consecución interrelacionada de los efectos del viento climático local, que debe ser descrito en términos estadísticos; la exposición del viento local, que es influenciada por la rugosidad del terreno y la topografía; las características aerodinámicas de la forma de la estructura y el posible incremento de la carga debido a la vibraciones resonantes inducidas por el viento, definida como una medida de la respuesta dinámica de la edificación. En la caracterización del viento climático juega un papel fundamental la determinación de los valores de las velocidades básicas a partir de estudios estadísticos. Los valores propuestos de velocidades básicas en la norma cubana de viento NC-285:2003 fueron obtenidos mediante el método probabilístico de valores extremos, reconocido como “Serie de máximos” [2,3]. Este método no considera las condiciones climáticas cubanas que presenta un clima donde los máximos provienen de más de un tipo de fenómeno atmosférico, en estos casos la bibliografía internacional [4,5] recomienda una partición de los datos de viento de acuerdo con el tipo de mecanismo meteorológico que los origina. La consideración de la rugosidad y la influencia del terreno se tiene en cuenta en la determinación de las cargas de viento a partir de considerar un coeficiente de altura que describe la variación del perfil vertical de velocidades medias según diferentes tipos de terreno y un coeficiente de ráfaga que tiene en cuenta las características de la turbulencia atmosférica para diferentes alturas de las edificaciones y variaciones de la rugosidad del terreno. La revisión de la bibliografía internacional [6] y los estudios comparativos [7] sobre los perfiles verticales de velocidades medias permitieron identificar que obras con fachadas expuestas al mar y otras fachadas debían analizarse a partir de terrenos donde se presenta una transición entre el área urbana y el mar y según la vigente norma presentaban una misma clasificación de terreno, lo que despertó el interés en la profundización del estudio del coeficiente de altura. En cuanto a la turbulencia atmosférica, según estudios internacionales [8] desarrollados a partir de mediciones de las características de la turbulencia durante el paso de huracanes, se ha podido detectar que parámetros como la escala de la turbulencia y la intensidad, sobre todo la intensidad de turbulencia, son mayores con relación a las zonas de no prevalencia de vientos huracanados. En la norma de viento NC285:2003 el efecto de la turbulencia es tenido en cuenta a través del coeficiente de ráfaga, que solo depende de la altura máxima de la edificación. Sin embargo, los valores de intensidad que fueron obtenidos a partir de los coeficientes de ráfaga establecidos en la norma son muy bajos y sin correspondencia con los estudios experimentales realizados internacionalmente bajo condiciones huracanadas [9]. La consideración de las características aerodinámicas de las edificaciones se tiene en cuenta a partir de coeficientes aerodinámicos, los cuáles son denominados coeficientes de forma en la norma NC-285:2003. Se identificó que tanto la norma cubana NC-285 como las internacionales consultadas (AIJ:2004 (Japón), Eurocódigo EN1991-1-4:2004 (EU), Internacional ISO-4354, CNR-DT207, (Italia)) no presentan elementos para la definición de los coeficientes aerodinámicos de estructuras como los paneles fotovoltaicos, las antenas VHF que se colocan en las torres de telecomunicaciones y los doble angulares de perfiles a 60 grados que se emplean para la conformación de las columnas de las torres de telecomunicaciones. El estudio sobre los efectos dinámicos inducidos por el viento en estructuras puede abordarse a partir de estudios analíticos o experimentales. En Cuba, el método de análisis para la consideración de la componente dinámica del viento en las estructuras se incorporó a las normas cubanas de viento a partir del año 1983. El método fue adoptado a partir de los estudios realizados en la antigua Unión Soviética; sin embargo, no se corresponde con los métodos propuestos en el resto de las normas y estudios de investigaciones internacionales. El método propuesto en la NC-285:2003 presenta limitaciones ya que varios parámetros, como el factor de aceleración reducida, no quedan claramente definidos, además no se ha podido identificar los fundamentos teóricos del método con los principios y conceptos definidos en la Ingeniería de Viento. A partir del estudio de las referencias internacionales y del estudio comparativo [10 -12] de las normas de acción del viento sobre las estructuras y de las normas específicas para torres de telecomunicaciones se identificó el método Factor de Efecto de Ráfaga como el método más aplicado internacionalmente para el análisis de las torres autosoportadas y de los edificios altos. En cuanto a los estudios experimentales se identificó en la bibliografía internacional [13] que existen métodos como el Análisis Modal Operacional (OMA, siglas en inglés) que permiten a partir de las mediciones obtener parámetros dinámicos tales como: las frecuencias naturales, razones de amortiguamiento y formas modales de la estructura que son comparados con los obtenidos en los modelos de elementos finitos para verificar las simplificaciones que se realizan en los modelos computacionales. El desarrollo de estas técnicas experimentales permite una mejor evaluación de las características dinámicas, las cuales son determinantes en la consideración de los efectos dinámicos del viento sobre las estructuras. El OMA es una técnica poco conocida y aplicada en Cuba, de variada aplicación en investigaciones internacionales en las últimas décadas, aunque es de señalar que en el mundo las torres de telecomunicaciones han sido escasamente abordadas con esta técnica en particular. A partir de las limitaciones encontradas en la norma cubana de viento NC-285:2003 con respecto a los estudios desarrollados internacionalmente, este trabajo presenta como objetivo describir las principales investigaciones desarrolladas por el grupo de Aerodinámica de las Construcciones de la Cujae que presentan aportes en cada uno de las componentes para la determinación de la carga de viento sobre las estructuras. Las investigaciones estuvieron encaminadas a: la actualización de las velocidades básicas de diseño y perfiles verticales de velocidad de viento; la actualización de los parámetros de la turbulencia del viento; propuesta de coeficientes aerodinámicos para paneles fotovoltaicos, elementos de torres reticuladas y antenas de comunicación; la actualización de los métodos dinámicos para el cálculo de estructuras y la calibración de modelos mediante técnicas experimentales modales (OMA). 2. MÉTODOS 2.1 Métodos estadísticos y teóricos – analíticos Para la determinación de las velocidades básicas se aplicó el método probabilístico de tormentas independientes (MIS, por sus siglas en inglés) con diferenciación de los orígenes de los eventos extremos [2,3]. El MIS pertenece a los métodos de excedencia y permite suprimir las deficiencias de los métodos de máximos con relación a los climas mixtos como el cubano. Las velocidades de las estaciones meteorológicas fueron corregidas teniendo en cuenta el efecto de la rugosidad del terreno. Para esta corrección, los valores de longitud de rugosidad de las estaciones fueron obtenidos aplicando dos métodos: el Clasificaciones, de Davenport y el método Morfométrico a partir del cálculo del Índice de Vegetación de Diferencia Normalizada (NDVI, por sus siglas en inglés). Para desarrollar ambos métodos fue empleada la Teledetección espacial para adquirir las imágenes de la superficie terrestre [14]. En la caracterización de los perfiles verticales de velocidades medias, se profundizó en el estudio del coeficiente de altura de varias normas [7], para lo cual se escogieron la AIJ:2004 (Japón), CNS (China) y el Eurocódigo EN1991-1-4:2004 (EU) ya que presentan el mismo intervalo de promediación de la velocidad básica del viento que la norma cubana NC-285:2003 correspondiente a 10 min. En cuanto a la consideración de la turbulencia atmosférica en la determinación de la carga de viento se aplicaron métodos analíticos a partir del estudio del estado del arte y considerando las particularidades del clima de Cuba para zonas de huracanes. Se propusieron modificaciones al coeficiente de ráfaga a partir de la incorporación de una expresión para calcular la intensidad de turbulencia, en función de los tipos de terrenos [9]. A partir del diagnóstico se propuso incorporar a la norma NC285:2003 formulaciones para los parámetros de la turbulencia (espectro de turbulencia, intensidad de turbulencia y escala de la turbulencia) que son tenidos en cuenta en los métodos de análisis estáticos equivalentes frente a la acción del viento que se emplean en estructuras como los edificios altos y las torres autosoportadas metálicas de telecomunicaciones. Las formulaciones que se propusieron con este fin [9] tuvieron en cuenta el estudio de regímenes de vientos extremos similares a los cubanos. Además, se desarrolló una metodología para la simulación sintética de funciones de turbulencia [9], que contempla las formulaciones anteriores definidas para los análisis estáticos equivalentes e incorpora, la función cruzada de densidad espectral de potencia, esta metodología es utilizada para realizar análisis dinámicos en el dominio del tiempo sobre estructuras. Se identificaron dos grupos de métodos fundamentales para la realización del análisis dinámico bajo carga de viento de edificios altos, torres atirantadas y torres autosoportadas de telecomunicaciones: métodos estáticos equivalentes y métodos dinámicos completos [7,10-12, 15-17]. El método estático equivalente más aplicado internacionalmente y por tanto, el seleccionado para la actualización de la norma NC-285, fue el método Factor de Efecto de Ráfaga para el análisis de edificios altos y torres autosoportadas y el método Patrones de Carga para el análisis de torres atirantadas. Estos métodos fueron comparados con el método dinámico completo de dominio en el tiempo en el análisis de torres autosoportadas y atirantadas [15, 16]. 2.2 Métodos computacionales y numéricos La simulación de series de tiempo mediante el método numérico de MonteCarlo fue aplicada para generar las funciones sintéticas de fuerzas de viento turbulentas utilizadas para la aplicación del método dinámico en el dominio del tiempo [9, 15, 16], ver figura 1. La metodología [9] desarrollada fue implementada en el programa matemático MATLAB. Figura. 1 Ejemplo de Generación de las funciones de velocidad de viento Los métodos computacionales aplicados fueron el método de elementos finitos a través de la utilización del software SAP-2000 para la modelación de las torres autosoportadas y atirantadas de telecomunicaciones. Estos modelos fueron usados para la determinación de las características dinámicas (ver figura 2), así como la aplicación de las fuerzas de viento tanto estáticas como dinámicas para la obtención de las fuerzas interiores y desplazamientos sobre las torres. Figura. 2 Frecuencias y formas modales de un modelo computacional de una torre autosoportada Otro método de simulación numérica aplicado para la obtención de coeficientes aerodinámicos de una sección compuesta por dos angulares de alas iguales empleado en la construcción de torres de telecomunicaciones fue el Computational Fluid Dynamics (CFD) (ver figura 3). Se utilizó el software de código abierto Open FOAM orientado a la simulación de problemas de flujo con el empleo del método de volúmenes finitos [18]. En los modelos numéricos se emplearon simulaciones RANS, 2D a escala reducida con el empleo de un mallado no estructurado, implementando el algoritmo PISO. 2.3 Métodos experimentales Fueron realizados estudios experimentales tanto a modelos a escala reducida en túnel de viento como mediciones experimentales en estructuras a escala real. Los modelos a escala reducida ensayados en túnel de viento fueron desarrollados para la determinación de los coeficientes aerodinámicos de parques de paneles fotovoltaicos [19], antenas VHF colocadas sobre torres de telecomunicaciones [20] y para la calibración del modelo computacional desarrollado en CFD de la sección de angular doble [18, 21]. Los túneles de viento utilizados para los ensayos fueron el túnel del laboratorio IMFIA perteneciente a la Universidad de la República (UDELAR, Uruguay) y el túnel del Laboratorio de Aerodinámica perteneciente a la Universidad Federal de Río Grande del Sur (UFRGS, Brasil). La figura 3 muestra imágenes de los modelos a escala reducida ensayados en los túneles. Los ensayos experimentales a escala real fueron aplicados a una torre autosoportada de telecomunicaciones con el objetivo de realizar la calibración del modelo computacional a partir de aplicar la técnica de Análisis Modal Operacional (OMA) [22, 23]. Los instrumentos utilizados fueron acelerómetros y straing gage. Dentro de las técnicas que se emplean en el OMA para procesar señales se utilizó el método del subespacio estocástico, siendo el más empleado a nivel internacional. Además, se desarrolla una metodología para el estudio de sensibilidad en la colocación de sensores en torres autosoportadas utilizando como criterio los valores de AutoMAC. La figura 4 muestra imágenes de la distribución de los sensores sobre la torre, así como los instrumentos utilizados para la medición. a) b) c) Figura. 3 Imágenes de modelos a escala reducida ensayados en túnel de viento, a) sección de perfil doble de angular, b) modelo seccional de torre con antenas VHF, c) panel de parque fotovoltaico a) b) c) d) Figura. 4 Diseño de instrumentación empleado en la torre Cumbre. a) Distribución de sensores b) foto de la torre objeto de estudio, c) Fijación del acelerómetro en el tope de la torre, d) Ubicación de los strain gauges en las columnas 3. RESULTADOS Y DISCUSIÓN 3.1 Actualización de las velocidades básicas de diseño, perfiles verticales de velocidad de viento y parámetros de la turbulencia atmosférica para Cuba Los valores de velocidades básicas fueron actualizados en 16 estaciones en Cuba a partir de la aplicación del Método MIS. Los resultados permitieron dividir el país en 4 regiones para los estudios de velocidades básicas como se muestra en la figura 5, esta nueva división difiere de lo propuesto en la actual norma cubana NC-285:2003. Los valores de velocidades básicas fueron corregidos por exposición en función de las características de las estaciones meteorológicas. Se puede citar como ejemplo, las diferencias encontradas, para un período de retorno de 50 años, en la estación de Cabo de San Antonio, donde el valor de presión básica establecido de la Zona I es 1,3 kN/m2 por la actual norma, que responde a una velocidad básica aproximada de 45m/s, que supera en más del 20% al valor de calculado por el método MIS en esta investigación que se puede ver en el mapa de la figura 5 de 36 m/s. Figura. 5 Mapa de regiones de las velocidades básicas en Cuba Los resultados en cuanto al estudio comparativo de los perfiles verticales de velocidades medias permitieron concluir que las principales carencias de la actual norma NC-285:2003 se relacionan con la insuficiente descripción de las áreas cercanas a la costa, o terrenos donde existen lagos y vegetación despreciable (ver figura 6). Por lo tanto, se propusieron cuatro categorías de terreno para sustituir las actuales que recogen de una forma más precisa el efecto del viento en estas zonas abiertas y expuestas. Las categorías superiores de las restantes normas, dadas las características de las zonas urbanas de Cuba, sin una alta densidad como otras ciudades mundiales no fueron incluidas pues no responden al panorama constructivo nacional. Figura. 6 Estudio comparativo de perfiles verticales de la velocidad media La actualización de los parámetros de la turbulencia estuvo dada por la propuesta de nuevos valores de coeficientes de ráfaga a partir de la formulación existente en la bibliografía internacional y teniendo en cuenta las características de las zonas de huracanes. Como ejemplo comparativo para tipo de terreno abierto y a 10 m de altura, el valor del coeficiente de ráfaga de la norma actual es de 1,18 y basado en los estudios nuevos es 2,42. La figura 7 muestra un esquema de la metodología desarrollada para la generación de series de velocidades de viento sintéticas considerando la turbulencia atmosférica para la realización de análisis dinámicos [9]. Figura. 7 Esquema de la metodología para la generación de series de velocidades de viento sintética 3.2 Propuesta de nuevos coeficientes aerodinámicos La figura 8 muestra el esquema de los valores de coeficientes aerodinámicos (coeficientes de forma) para diferentes direcciones de viento y teniendo en cuenta dos inclinaciones del panel 15 y 23 grados [19]. Estos valores son considerados valores picos de coeficientes de forma pues ya presentan incluido en los resultados los efectos de la turbulencia atmosférica. Figura. 8 Valores picos de los coeficientes de forma para las direcciones de viento 0°, 45°, 135° y 180° La tabla 1 muestra los valores de los coeficientes de aerodinámicos (coeficientes de arrastre) para un módulo de torre de telecomunicaciones, las antenas VHF y el módulo con las antenas colocadas [20]. Para tener en cuenta el efecto de las antenas se debe multiplicar el coeficiente de arrastre de la antena independiente por un factor de interferencia (fa), los valores de los factores de interferencia obtenidos se muestran en la tabla 2. Tabla 1. Coeficientes de arrastre antena VHF y tramo de torre Tipo de ensayo Ca 0° 45° IT 1 IT 2 IT 1 IT 2 1) Módulo de torre independiente (Cat) 2,13 2,36 2,53 2,67 2) Antena VHF independiente (Caa) 1,76 1,87 1,37 1,47 3) Módulo de torre con antenas VHF (Cata) 2.74 2.98 3.18 3.37 Tabla 2. Factores de interferencia para las antenas VHF Dirección 𝑓𝑎 IT1 IT2 0 0,99 0,96 45 1,38 1,34 Con relación a los estudios de los coeficientes aerodinámicos de la sección de angular doble obtenidos del ensayo en túnel de viento y de la aplicación de CFD se obtuvieron diferencias menores al 5% [18, 21]. 3.3 Actualización de métodos dinámicos para carga de viento Los estudios de la comparación entre métodos dinámicos en el dominio del tiempo y métodos estáticos equivalentes para torres autosoportadas y atirantadas fueron aplicados en dos modelos típicos de torres en Cuba y considerando su ubicación en dos regiones de Cuba que presentan diferentes valores de velocidades básicas (Cabo de San Antonio y Playa Girón). Los resultados mostraron los mayores valores de fuerzas interiores y desplazamientos obtenidos de la aplicación del método estático equivalente para las torres autosportadas (ver figura 9). En las torres atirantadas el método estático equivalente presentó los mayores valores de fuerzas y desplazamientos en la región donde los valores de velocidades básicas fueron altos (Cabo de San Antonio), sin embargo, en la región donde las velocidades fueron menores (Playa Girón) no hubo un método predominante para las fuerzas interiores y en los desplazamientos el método dinámico es el que predomina a partir de los 80 m de altura y las máximas diferencias ocurren en el tope y alcanzan los 25 cm. Se decide validar la inclusión en la norma NC-285 de los métodos estáticos equivalentes Factor de Efecto de Ráfagas y Patrones de Carga para el análisis de las torres autosoportadas y atirantadas respectivamente. Figura. 9 Ejemplo de resultados de estudio comparativo entre métodos en torre autosoportada Los resultados de los estudios comparativos entre el método estático equivalente propuesto por la NC- 285:2003 y el método estático equivalente Factor de Efecto de Ráfaga permiten validar la inclusión de este último en la nueva propuesta de NC-285. A modo de ejemplo se realizó el cálculo en un edificio alto de hormigón armado de 100 de altura, en la figura 10 se observa que los mayores valores de reacciones totales en la base y desplazamientos se obtienen para la nueva propuesta, donde se tiene en cuenta la combinación de los tres efectos sobre la edificación: longitudinal, transversal y torsional. Además, fueron aplicados los procedimientos para la determinación de las aceleraciones inducidas por el viento actuantes y permisibles los cuáles no se encuentran en la actual NC-285:2003. La tabla 3 muestra que los mayores valores de aceleraciones actuantes se obtuvieron para la componente transversal de la respuesta y son menores que los permisibles. Figura. 10 Desplazamientos máximos según las normas en el edificio 0.00 50.00 100.00 150.00 0.000 0.050 0.100 0.150 A lt u ra d el e d if ic io ( m ) Desplazamiento (m) Desplazamientos máximos NC-285:2003 NC propuesta Tabla 3. Valores de las aceleraciones calculadas y permisibles. Aceleraciones máximas calculadas (cm/s2) aceleraciones permisibles (cm/s2) longitudinal 0,72 6,99 transversal 1,60 7,19 torsional 0,03 5,68 3.4 Calibración de modelos mediante técnica experimental OMA El estudio del análisis experimental de la torre autosoportada permitió la obtención de las frecuencias naturales, formas modales y razones de amortiguamiento de la torre a partir de las señales procesadas y de la aplicación de la técnica OMA, ver figura 11. Figura. 11 Formas modales identificadas de los acelerómetros y de los strain gauges, frecuencias naturales y razones de amortiguamiento (ξ). Los resultados experimentales fueron comparados con las características dinámicas obtenidas en tres modelos de elementos finitos [23]. Los tres modelos se diferenciaron en la forma de unión de los elementos de manera que fueron: modelo 1, unión entre elementos continuos, modelo 2, unión entre elementos todo articulado y modelo 3, con columnas continuas y elementos restantes articulados; siendo este último el que arrojó un mejor ajuste a los valores experimentales. Las formas modales mostraron un ajuste mínimo de 95 % y la mayor diferencia entre frecuencias naturales fue de 4,7 %. Este estudio permitió validar los parámetros de las modelaciones de torres autosoportadas empleadas hasta el momento en el grupo de investigación y de los cuales no existía un estudio de correspondencia con la experimentación. 4. CONCLUSIONES A partir de los resultados alcanzados se concluye que estos estudios tributan al perfeccionamiento y actualización de la norma vigente en el país para el cálculo de estructuras frente a la acción del viento, la NC285. Las investigaciones contribuyen a la disminución de la vulnerabilidad estructural de distintos tipos de obras, al incidir en una mejor aproximación del valor de la carga de viento de diseño y profundizar en el comportamiento estructural de varias tipologías que hasta el momento no tenían un respaldo normativo en el país, como, por ejemplo: las torres de telecomunicaciones autosoportadas y atirantadas y los paneles solares. Las investigaciones desarrolladas ya han sido introducidas en los nuevos diseños de parques fotovoltaicos que se desarrollan, en los modelos que se construyen de torres reticuladas actuales y en la revisión de los modelos existentes para evaluar la capacidad de respuesta de estas estructuras ante los efectos de vientos extremos y en varios edificios altos que se erigen en la capital del país en estos momentos. REFERENCIAS [1] Davenport, A. G. (1961) The application of statistical concepts to the wind loading. Proc. Institution of Civil Engineers, 19, 449-472 [2] Fernández Lorenzo, I. and V.B. Elena Parnás, Análisis de métodos de vientos extremos para calcular las velocidades básicas. Revista Cubana de Ingeniería, 2016. 7(2): p. 15-25. [3] Luis García, K., I. Fernández Lorenzo, and V. Elena Parnás, Aplicación de métodos de extremos para determinar las velocidades básicas del viento. Revista de Arquitectura e Ingeniería, 2017. 11(1): p. 11 [4] Choi, E. C. C. (1999). Extreme wind characteristics over Singapore- An area in the equatorial belt. Journal of Wind Engineering & Industrial Aerodynamics, 83, 61-69. doi:doi: 10.1016/S0167- 6105(99)00061-6 [5] Kruger, A. C., Retief, J. V., & Goliger, A. M. (2013). Strong winds in South Africa: Part 1 Application of estimation methods. Journal of the South African Institution of Civil Engineering, 55(2), 29-45. [6] Kwon, d. K. & Kareem, A. (2013) Comparative study of major international wind codes and standards for wind effects on tall buildings. Engineering Structures, 51, 23-35. [7] Meza Chávez, J.E, Martín Rodríguez, Patricia; Fernández Lorenzo, Ingrid; Fundora, Tamara. Cálculo de la fuerza estática del viento del proyecto de edificación 1ra y D, en la Habana, in 19 Convención Científica de Ingeniería y Arquitectura. 2018, Universidad Tecnológica de la Habana, José Antonio Echeverría (CUJAE): La Habana, Cuba. [8] Li, L., Kareem, A., Xiao, Y., Song, L., Zhou, C., 2015. A comparative study of field measurements of the turbulence characteristics of typhoon and hurricane winds. J. Wind Eng. Ind. Aerodyn. 140, 49–66. [9] Fernández Lorenzo, I. and V.B. Elena Parnás, Elementos para la simulación numérica de series temporales de velocidad de viento Revista ingeniería de construcción, 2017. 32(2): p. 83-90. [10] Martín, P., I. Fernández, and V.E. Parnás, Estudio comparativo de normas para el análisis dinámico de una torre autosoportada bajo carga de viento. Informes de la Construcción, 2019. 70(552): p. e274. [11] Silva Gonzalez, A.B., A. Ballate Delgado, and P. Martín Rodríguez, Análisis de la respuesta estructural de una edificación de acero bajo carga de viento aplicando métodos estáticos equivalentes. Revista de Arquitectura e Ingeniería, 2020. 14(3). [12] Martín, P. and A.E. Damatty, Comparison of the Canadian standard and other standards for wind loading on self-supporting telecommunication towers. Canadian Journal of Civil Engineering, 2021. 48(8): p. 993-1003 [13] E. Reynders, K. Maes, G. Lombaert and G. De Roeck, Uncertainty quantification in operational modal analysis with stochastic subspace identification: validation and applications, Mechanical Systems and Signal Processing 66 (2016) 13–30. [14] Aldereguía Sánchez, C., Ballote Álvarez, Javier; Fernández Lorenzo, Ingrid; Elena Parnás, Vivian B., Comparación de métodos para determinar la longitud de rugosidad in X Convención Científica Internacional de la Universidad de Matanzas, CIUM’2021. 2021, Universidad de Matanzas: Matanzas, Cuba. [15] Fernández Lorenzo, I., et al., Dynamic analysis of self-supported tower under hurricane wind conditions. Journal of Wind Engineering and Industrial Aerodynamics, 2020. 197: p. 104078. [16] Fernández Lorenzo, I., et al., Comparison of Dynamic Analysis Methods in a Cable-Stayed Tower Under Extreme Wind Loads in Cuba. Journal of the International Association for Shell and Spatial Structures, 2019. 60(3): p. 210-220. [17] García Miranda, J.A., et al., Análisis de nuevos proyectos de edificios altos bajo carga de viento en La Habana. 2019: II Convención Científica Internacional “II CCI UCLV 2019”. [18] Sautié, N., et al., Determinación de los coeficientes de arrastre y sustentación en un perfil angular de alas iguales con el empleo de simulación numérica. Ingeniería y Desarrollo, 2020. 38(1): p. 66-84. [19] López Llanusa, A., V.B. Parnás, and J. Cataldo, Wind tunnel experiments on ground-mounted photovoltaic solar panels. Revista Ingeniería de Construcción, 2019. 34: p. 15-24. [20] Martín, P., et al., Coeficientes de arrastre de torres reticuladas con antenas VHF mediante ensayo en túnel de viento. Revista Técnica, 2019. 42(3): p. 118. [21] Sautié, N., et al., Coeficientes de forma en sección compuesta con ensayos en túnel de viento. Ingeniería Hidráulica y Ambiental, 2020. 41(1): p. 85-99. [22] Luis García, K., et al., Mediciones a escala real de torre autosoportada empleando acelerómetros y strain gauges. Ingeniería y Desarrollo, 2020. 38(1): p. 259-278. [23] Luis, K., et al., Operational modal analysis of a self-supporting antenna mast. Journal of Wind Engineering and Industrial Aerodynamics, 2021. 209: p. 104490. EXPERIMENTAL SIMULATION OF THUNDERSTORM PROFILES IN A TRADITIONAL BOUNDARY LAYER WIND TUNNEL Camila Aldereguía Sánchez1, Anna Bagnara2, Giuseppe Piccardo3, Federica Tubino4 1,3,4Department of Civil, Chemical and Environmental Engineering, University of Genoa, Genoa, Italy. 2 NOVA Fluid Mechanics Ltd, London, United Kingdom. 1e-mail: camila.aldereguasanchez@edu.unige.it ABSTRACT Thunderstorms have different features in comparison with synoptic events, including a typical nose-shaped mean wind speed profile and non-stationary characteristics in time intervals of 10 minutes to 1 hour. Wind tunnel testing is a practical and cost-effective way to assess wind effects on civil engineering structures The simulation of thunderstorms in traditional wind tunnels requires suitable devices in order to replicate their peculiar characteristics. Disregarding the non-stationary characteristics of thunderstorm outflows, this paper aims to study the possibility of adopting a passive device such as a specially-designed grid in order to reproduce the nose-shaped mean wind speed profile. A widely adopted model of the mean wind velocity profile from the literature is employed as a target profile for the verification of the experimental findings, while, based on an extensive literature search, the target longitudinal turbulence intensity is assumed to have a constant variation with height. The results obtained show a good agreement between the measured and target mean wind speed profiles and the obtained turbulence intensity was considered acceptable in comparison with full scale-measurements, indicating that the proposed device offers a practical and cost-effective solution to simulate the main characteristics of a thunderstorm event in a traditional boundary layer wind tunnel. KEY WORDS: boundary layer wind tunnel, downburst, experimental simulation, mean wind profile, passive devices, thunderstorm. 1. INTRODUCTION Thunderstorm (TS) are a weather phenomenon characterized by an intense form of convection that in some cases would produce a downburst. Fujita [1] defined the downburst as the downdraft that impacts over Earth’s surface and produces intense radial outflows and ring vortices. Differently from synoptic events, the radial outflows exhibit a non-stationary speed in time intervals of 10 minutes to 1 hour and a nose-shaped variation with height. In particular, the maximum wind velocities (nose) tend to occur at heights around 50 m to 100 m based on a review of the available full scale measurements [2], however there are uncertainties on the parameters that govern the height of the nose. In some areas of the globe, wind speeds due to thunderstorms have been found to be comparable in magnitude to those of strong synoptic events, leading to the collapse of many structures around the world, especially low height structures such as transmission towers, harbor cranes, warehouses, signboards, and canopies, which are currently being designed for standard synoptic events. The effect of thunderstorm downbursts on civil engineering structures have been a concern for wind and structural engineers for several years and has become a focus of several investigations and studies around the world with the ultimate goal of codifying methodologies that would allow designers to safely design against these events. Although the key focus of the main studies has been on small scale structure, tall buildings can be susceptible to these events both in terms of overall loading and cladding pressures and are the focus of this research. Thunderstorm downbursts are very localized in space and have a short duration in time, for these reasons a limited amount of measurements are available. Several researchers have investigated the properties of downbursts and the load induced on structures to design wind-safer and cost-efficient structures, mainly based on data recorded by wind monitoring networks. Despite the effort in the study of these phenomena, a compressive analytical model for thunderstorms outflows and their loading on structures similar to those available for synoptic events [3] is still not available. In areas where thunderstorms dominate the wind climate, the approach that wind and structural engineers adopt to include these events in structural design of buildings is to associate mixed climate design wind speeds, where both synoptic and thunderstorm events are analyzed together, with standard boundary layer wind speed profiles. In the case of tall buildings, this methodology is most likely conservative, since assuming a typical logarithmic mean wind profile could provide an overestimate of wind actions with respect to downburst profiles, characterized by a maximum velocity close to the ground [4]. Analytical models for downbursts have been developed through analysis of field measurements, laboratory tests and numerical simulations. Oseguera and Bowles [5] introduced the first analytical three-dimensional model of downbursts that matched full scale measurements. Vicroy [6] developed an empirical model for obtaining the vertical profile of the wind velocity also based on field measurements, which is considered as an improvement of Oseguera and Bowles model. One of the most cited models in the literature is the empirical model proposed by Wood and Kwok [7] from wind tunnel experiments. More recently, some models have been developed from Computational Fluid Dynamics (CFD) simulations [8, 9]. The key parameters in the vertical profile representation are the height of the nose and the maximum velocity at this height. A literature review from several researchers [2, 10, 11] indicates that the maximum horizontal velocity appears in the interval 50-100 meters above ground level. In terms of turbulence intensities, a consolidated model is not available due to the lack of multi-point full scale measurements for these phenomena. The intensity of the longitudinal turbulence component, which would drive the loading on a tall building, has been shown to vary in time and with height [11-13]. Romanic et al. [14] employed an analytical model considering a constant turbulence intensity profile, coincident with its mean value. Wind tunnel testing is an effective tool to investigate wind loads on tall buildings [15, 16]. Traditional wind tunnels commonly simulate atmospheric boundary layer (ABL) wind profiles. However, in areas where the wind climate is dominated by the presence of thunderstorms, the experimental simulation of their outflows in a wind tunnel can be an important task in order to accurately assess their effects on structures, which would otherwise be established via standard ABL profiles. The most widespread laboratory test aimed to reproduce downburst is the impinging wall jet, in which a jet impinges on a flat surface to create a wall radial outflow and a vortex ring, using equipment built for this specific purpose [3, 16, 17]. These types of facilities are expensive and essentially research center, so regular civil projects do not have an easy access to them. Therefore, a more practical and cost-effective approach takes great interest in order to reproduce thunderstorm outflow conditions in traditional wind tunnels, based on the modification of the horizontal flow. Investigations have been developed with the aim of redirecting the flow using active grids such as a multi-blade flow system [16-18]. This type of devices allows to simulate both the nose-shaped profile, and some non-stationary characteristics of the thunderstorm downburst. The objective of this paper is to investigate the possibility to reproduce the wind speed profile of thunderstorm downburst in a traditional boundary layer wind tunnel using passive devices. For this purpose, a specially-designed grid was used in addition to traditional devices in order to replicate thunderstorm mean wind speed and turbulent profile avoiding hence active devices. The temporal evolution of thunderstorm was not analyzed, the profile was considered steady and corresponds to the assumed worst evolutionary of the event with respect to the structure. This study represents the first stage of a research project aimed at comparing wind loads and cladding pressures generated on tall buildings of heights in the range of 100m to 300m, by synoptic and thunderstorm phenomena of the same strength. The main aim of this future work is then to answer the question: “in a mixed climate area, where design wind speeds from synoptic and thunderstorm events are comparable, is the current procedure suitable or the specialized analysis of thunderstorm events would benefit/change the design of tall buildings?” The target profiles employed and the considerations for their selection are presented in Section 2. Section 3 describes the experimental setup carried out for the wind tunnel test. The results and main observations during the tests are discusses in Section 4. Finally, the conclusions of the work are given in Section 5. 2. THUNDERSTORM MEAN WIND PROFILES AND TURBULENCE INTENSITY Among the models proposed in literature, the ones that are widely adopted are Vicroy [6] and Wood & Kwok [7] . Vicroy [6] developed a model for estimating the variation of the horizontal wind speed with height based on measurements of several microburst events. The empirical model is an axisymmetric, steady-state model that uses shaping functions to satisfy the mass continuity equation and simulate boundary layer effects. These shaping functions yield the following equation for the horizontal velocity component 𝑢 (only inclusive of the mean wind speed): 𝑢 (𝑧, 𝑟) = 𝜆𝑟 2 {𝑒𝑥𝑝 [𝑐1 ( 𝑧 𝑧𝑚 )] − 𝑒𝑥𝑝 [𝑐2 ( 𝑧 𝑧𝑚 )]} ∙ 𝑒𝑥𝑝 [ 2−( 𝑟2 𝑟𝑚 2 ) 𝛼 2𝛼 ] (1) where 𝑟 is the radial distance from the center of the downburst, 𝑧 is the height above the ground, 𝑟𝑚 and 𝑧𝑚 are the radius and altitude of the maximum horizontal wind velocity respectively, 𝛼 = 2, 𝑐1 = −0.15, 𝑐2 = −3.2175, 𝜆 is a scale factor defined as follows: 𝜆 = 2𝑢𝑚𝑎𝑥 𝑟𝑚 [ 1 𝑒1/(2𝛼)[𝑒𝑐1−𝑒𝑐2] ] (2) being 𝑢𝑚𝑎𝑥 the maximum horizontal velocity. The vertical profile of the mean wind speed at a radius where the maximum velocity appears (𝑟 = 𝑟𝑚) is given by: 𝑢(𝑧) = 1,22𝑢𝑚𝑎𝑥 {𝑒 [𝑐1( 𝑧 𝑧𝑚 )] − 𝑒 [𝑐2( 𝑧 𝑧𝑚 )] } (3) The vertical profile in Eq. 3 depends on two parameters: the maximum velocity 𝑢𝑚𝑎𝑥 and the height where it occurs 𝑧𝑚. Wood and Kwok [7] proposed an empirical expression to predict the downburst wind velocity profile, calibrated by laboratory tests and Computational Fluid Dynamics (CFD) simulations. After some experiments varying the distance from the jet, Eq. 4 was proposed to fit the experimental data: 𝑢(𝑧) = 1.55 ( 𝑧 𝛿 ) 1/6 [1 − erf (0.7 ∙ 𝑧 𝛿 )] ∙ 𝑢𝑚𝑎𝑥 (4) where 𝛿 is the height where the velocity is the half of the maximum velocity (𝛿 = 6𝑧𝑚, has been adopted in Solari [19]), erf is the error function and 𝑢𝑚𝑎𝑥 is the maximum horizontal velocity. This model depends on two variables: the maximum velocity 𝑢𝑚𝑎𝑥 and the height 𝛿 = 6𝑧𝑚 where the velocity is the half of the maximum velocity (or the height 𝑧𝑚 of the nose due to the relation between these parameters). Fig. 1 shows a comparison between Vicroy (Eq. 3) and Wood & Kwok (Eq. 4) models, for the mean wind velocity profile normalized with respect to the maximum velocity (Fig. 1a) and normalized with respect to the velocity at a reference height of 10 meters (Fig. 1b), using zm = 50 m. a) b) Figure 1: Vertical profile of the mean wind speed (𝑧𝑚 = 50 𝑚) normalized a) with respect to the maximum velocity, b) with respect to the velocity at 10 m reference height. Fig. 1 shows a significant difference between the two profiles. When the maximum velocityis assumed to be the same for both analytical models (Fig. 1a), the match between the two profiles is relatively good, however values at heights below the nose are much lower for Vicroy model. When the profiles are normalized with respect to the velocity at 10 m height (Fig. 1b), which is a standard reference height in technical evaluations, the maximum velocity of Vicroy model is almost double that of Wood & Kwok model. Abd-Elaal et al. [9] observed that the vertical profile of the horizontal mean wind speed for the Vicroy model has a remarkable differences with radar observations by Hjelmfelt [2], and with the experimental and numerical simulation results for downburst wind by Wood et al. [10], Kim and Hangan [20], Sengupta and Sarkar [21]. The agreement between Wood & Kwok model and the available full-scale data is overall significantly better than that of the Vicroy model, thus, the Wood & Kwok model is adopted as reference profile in the present study. In terms of the turbulence properties of the thunderstorm downburst winds, very little is available in the literature [22]. Most of the available information relates to the longitudinal component of turbulence intensity, while for the lateral and vertical component less data is provided [23, 24]. More recent studies [11, 23] employed a directional decomposition to separate the longitudinal turbulence from the lateral one, and it has been shown that for both decomposition (classical and directional) the values of the longitudinal component are similar. Solari et al. [13] examined the anemometric data recorded in the ports of the Northern Tyrrhenian Sea with the aim of studying thunderstorm properties such as longitudinal turbulence intensity, and they provided mean values for each anemometer in the ports, which range from 7%to 17 % with a mean value of 12% for all of them. Canepa et al. [11] analyzed multi-point LiDAR data measured in the Livorno and Genova ports and extracted mean wind velocity and turbulence intensity profiles for 10 thunderstorms using both decomposition approaches. The authors studied the time-dependent variation along the height of the longitudinal and lateral turbulence intensity. For most thunderstorms, it was observed that the maximum mean value of the turbulence intensity (both components) appears below the nose, and then it decreases above following different trends depending on the thunderstorm analyzed. However, in most cases it is observed to increase again above 180 m. For each analyzed event, the mean values of the two components of the turbulence intensity were in the range of 5%-12 %. These low values may be related to the proximity of the wind network to the sea. An extensive literature research on this topic has concluded that currently well-defined model for the vertical profile of the turbulence intensity is not available [11, 22]. Therefore, it is common to assume the turbulence intensity to have a constant profile of value coincident with its mean value [13, 14, 22]. Wind loading on structures is strictly related to the turbulence harmonic content, provided by its Power Spectral Density (PSD) function. Literature is consistent in affirming that the PSD of the reduced turbulent fluctuation of thunderstorms has similar properties to the classical PSD of synoptic events [13, 24, 25] . Solari et al. [13] examined the PSD for thunderstorm plotting the slope of the curve (𝑛−5/3) related to the inertial sub-range of synoptic events and confirmed that the PSD of both events have similar qualitative properties. 3. EXPERIMENTAL SETUP The experimental tests aimed at simulating, in a traditional boundary layer wind tunnel, the nose-like feature of the mean velocity vertical profile. The first step was to define a target profile of the mean wind velocity and longitudinal turbulence intensity. As discussed in Section 2, the target velocity profile for this study was based on Wood & Kwok model. Two levels that could be realistic and significant for tall buildings were considered for the full-scale height of the nose: 𝑧𝑚 =50 m and 100 m, due to the uncertainty of this parameter. A typical scale, for tall buildings test, of 1:400 was considered, for which the height in the wind tunnel is 125 mm and 250 mm for 𝑧𝑚 =50 m and 100 m, respectively. Based on the literature review, a turbulence intensity equal to 10 % is assumed for the target profile as a realistic value at the current state of knowledge of the phenomenon. The final target profiles, in terms of mean velocity and turbulence intensity considered for the test, are shown in Fig. 2, where the mean wind velocity profile was normalized with respect to the velocity at the reference height 𝑧𝑟𝑒𝑓 = 10 m. a) b) c) Figure 2: Target profiles a) mean wind velocity (𝑧𝑚 = 50 𝑚), b) mean wind velocity (𝑧𝑚 = 100 𝑚), c) turbulence intensity. All the tests were carried out at the “Giovanni Solari” Wind Tunnel (WT) facility at the University of Genoa, which is a closed-circuit traditional boundary layer wind tunnel (Fig. 3). The boundary layer test section is rectangular, 1.70 m wide, 1.35 m high and 8.80 m long. The controllable wind speed range of the wind tunnel is 0.2 m/s - 32 m/s. Figure 3: “Giovanni Solari” Boundary Layer Wind Tunnel at the University of Genoa. Traditional turbulent boundary layers are generally set up using an arrangement of roughness elements, distributed over the floor of the wind tunnel, and 2-dimensional elements located at the inlet of the test section (Fig. 4a). In order to reproduce the nose-shaped profile of a thunderstorm, a partial grid (TH grid) has been specifically designed. The TH grid is composed by different rectangular modules spanning the full width of the wind tunnel and including square opening of different dimensions. Two of these modules have small square openings and the other two have large square openings corresponding to porosities of approximately 40% and 50%, respectively. The partial grid is installed 4 m downstream of the inlet section and covers two thirds of the wind tunnel test section, as shown in Fig. 4b. a) b) Figure 4: Devices used to reproduce thunderstorms vertical profile a) traditional devices and b) new device to reproduce the nose-shaped mean wind speed profile of a downburst. Fence Spires Panels of cubes TH grid L Inlet The characteristic of the wind profile generated by the chosen set up were measured via a Cobra probe placed at the center of the turntable of the test section. Wind speed time histories were acquired in terms of u-, v- and –w components for a number of key locations along the height of the wind tunnel. From the measured time histories, mean wind speed and turbulence intensity profiles were derived. Several arrangements of roughness elements, 2 dimensional elements and TH grids were tested in order to derive the best match to the target wind properties. 4. RESULTS During the tests, some relevant conclusions were reached regarding the influence of each device on the profiles. It was observed that in order to replicate the nose shape of the mean wind speed profile both roughness elements and the partial TH grid were required. Different vertical arrangements of the TH grid modules were tested but they did not provide significant changes to the shape of the mean wind profile. In order to increase the nose height, it was necessary to remove one module (with the small square openings) from the top of the grid. The turbulence level was match via the introduction of a fence at the entrance of the test chamber. Figure 5 shows the configuration adopted for a nose height 𝑧𝑚 = 50 m (Fig. 5a) and the comparison between target and measured profiles at the center of the turntable (Fig. 5b), with the addition of appropriate confidence intervals (10%) with respect to the target profiles. For this configuration, the TH grid was made by 4 modules (2 small and 2 large square openings). a) b) Figure 5: 𝑧𝑚 = 50 𝑚, a) Configuration, b) Comparison between target and measured profiles. Fig. 5b shows that the measured velocity fit well the target mean wind velocity profile. In terms of turbulence intensity, the difference between the target and experimental values up to 120 m is within the 10% confidence line, while a minor increase of turbulence intensity is observed at the top of the profile. However, the behavior is consistent with the turbulence intensity profile provided by Canepa et al. [11] in the time instant when the nose-shaped mean velocity profile occurs (i.e., during the velocity ramp-up and peak stages of thunderstorm outflows). Fig. 6 shows the configuration adopted for a nose height 𝑧𝑚 = 100 m (Fig. 6a) and the comparison between target and measured profiles at the center of the turntable (Fig. 6b). In this case, the TH grid was made by 3 modules. a) b) Figure 6: 𝑧𝑚 = 100 𝑚, a) Configuration, b) Comparison between target and measured profiles. From Fig. 6b a good fit between the measured mean wind velocity and turbulence profiles and the target ones can be observed. The TH grid is installed relatively close to the test section where measurements of wind pressures on tall building models would be taken. This proximity could potentially cause the profile to be unstable or in other words to vary within the turntable leading to potentially inaccurate measurements. Therefore, additional measurements of the wind profile were conducted to verify the uniformity and symmetry of the flow within the turntable. Time histories of wind velocity were measured at 4 locations over the turntable as shown in Fig. 7a. Fig. 7b shows the comparison between the measured profiles (𝑧𝑚 = 50 m) for the different positions of the instrument. A good agreement between the measured points for the different locations can be observed in Fig. 7b confirming the stability of the mean wind speed and turbulence intensity profiles over the turntable. Uniformity of the profile was checked and verified also for the configuration with nose height 𝑧𝑚 = 100 m. a) b) Figure 7: a) Cobra probe coordinates tested over the turntable, b) Comparison between the measured profiles (𝑧𝑚 = 50 𝑚) Table 1 summarizes the values of the horizontal mean wind speed and turbulence intensity measured for the longitudinal u, lateral v, and vertical w turbulence component respectively at nose height, at the center of the turntable. Table 1: Mean wind speed and turbulence intensity at the height of the nose Height of the nose (m) Mean velocity (m/s) Turbulence intensity (%) u Iu Iv Iw 50 13 9 6 6 100 13 10 7 7 It is observed that the lateral and vertical components of the turbulence intensity are lower than the longitudinal component, which is consistent with the results presented by Canepa et al. [11], but in the present case the differences are greater. Also, Tubino and Solari [24] reported decreasing values of the standard deviation for the lateral and vertical turbulence components. Finally, a good agreement between the PSD of the recorded turbulence and the most widely adopted models [26] was verified, confirming that also the harmonic content of turbulence is in line with literature models (Fig. 8). a) b) Figure 8: Matching between the measured and theoretical PSD of the reduced turbulent fluctuation, a) 𝑧𝑚 = 50 𝑚, b) 𝑧𝑚 = 100 𝑚. 5. CONCLUSIONS This paper provides a description and analysis of a series of experiments performed in the “Giovanni Solari” Boundary Layer Wind Tunnel at the University of Genoa in order to reproduce thunderstorm mean wind velocity and turbulence intensity profiles at model scales typically used for tall building testing. The target profile by Wood and Kwok model was adopted, considering two levels of nose height: 50 m and 100 m. A target turbulence intensity of 10% was adopted based on a review of available measured wind data in the open literature. In addition to standard devices, a specific grid-like device was designed in order to reproduce the nose-shape of the mean wind speed profile. The resulting measurements were found to fit well the target profiles for two profile configurations. The wind tunnel set ups for the two target profiles were relatively similar differing only by the number of modules adopted for the grid. The turbulence intensity profiles obtained can be considered as acceptable based on the available full-scale measurements in the open literature [11, 13], but future research of this parameter is certainly required. These results demonstrate that the nose shape of the mean wind velocity profile can be generated in a traditional wind tunnel using a passive modular grid, which is a relatively simple and cost-effective way to simulate wind characteristics for wind tunnel testing on tall structures. Clearly the adopted set up is unable to reproduce the non-stationarity feature of thunderstorms, that could be important if a detailed assessment of the thunderstorm loading on a structure should be required. This study has also highlighted that, further investigations on turbulence properties is also required. In particular, referring to thunderstorms measured mainly in ports areas, a very low turbulence intensity has been simulated. However, it would be interesting to simulate higher turbulence levels that could be representative of thunderstorms measured in urban areas (whose measures are however still missing in the literature). In conclusion, the proposed device offers a practical solution for the experimental simulation of nose-shaped profiles in order to evaluate thunderstorm-induced wind loads on structures. Also, it provided a more feasible approach with respect to more sophisticated solutions for commercial projects due to its simplicity and low-cost. References 1. FUJITA, T., ''The downburst: Microburst and macroburst'', SMRP Res. 1985. 2. HJELMFELT, M.R., ''Structure and life cycle of microburst outflows observed in Colorado''. Journal of Applied Meteorology and Climatology, 1988, vol 27, núm. 8, pp. 900-927. 3. SOLARI, G., ''Thunderstorm Downbursts and Wind Loading of Structures: Progress and Prospect''. Frontiers in Built Environment, 2020. 4. SOLARI, G., BURLANDO, M. and REPETTO, M.P., ''Detection, simulation, modelling and loading of thunderstorm outfows to design wind- safer and cost-efficient structures''. Journal of Wind Engineering & Industrial Aerodynamics, 2020, vol 200. 5. OSEGUERA, R.M. and BOWLES, R.L., ''A simple, analytic 3-dimensional downburst model based on boundary layer stagnation flow'', NASA, Editor. Hampton, Virginia, 1988. 6. VICROY, D.D., ''Assessment of microburst models for downdraft estimation''. Journal of Aircraft, 1992, vol 29, núm 6, pp. 1043-1048. 7. WOOD, G. and KWOK, K. ''An empirically derived estimate for the mean velocity profile of a thunderstorm downburst''. In Proceedings of the 7th Australian Wind Engineering Society Workshop, Auckland, 1998. 8. LI, C., et al., ''A revised empirical model and CFD simulations for 3D axisymmetric steady-state flows of downbursts and impinging jets''. Journal of Wind Engineering Industrial Aerodynamics, 2012, vol 102, pp. 48-60. 9. ABD-ELAAL, E.-S., MILLS, J.E., and MA, X., ''An analytical model for simulating steady state flows of downburst''. Journal of Wind Engineering and Industrial Aerodynamics, 2013, vol 115, pp. 53-64. 10. WOOD, G.S., et al., ''Physical and numerical modelling of thunderstorm downbursts''. Journal of Wind Engineering and Industrial Aerodynamics, 2001, vol 89, núm 6, pp. 535-552. 11. CANEPA, F., BURLANDO, M., and SOLARI, G., ''Vertical profile characteristics of thunderstorm outflows''. Journal of Wind Engineering & Industrial Aerodynamics, 2020, vol 206. 12. DURAÑONA, V., STERLING, M., and BAKER, C.J., ''An analysis of extreme non-synoptic winds''. Journal of Wind Engineering & Industrial Aerodynamics, 2007, vol 95, pp. 1007-1027. 13. SOLARI, G., et al., ''Characteristics of thunderstorms relevant to the wind loading of structures''. Wind and Structures, 2015, vol 20, núm 6, pp. 763-791. 14. ROMANIC, D., PARVU, D., and HANGAN, H.. ''Downburst reconstruction using physical simulation and analytical model with application to urban environments''. In International Conference on Urban Physics, Quito-Gálapos, Ecuador, 2016. 15. ZHANG, Y., SARKAR, P., and HU, H., ''An experimental study on wind loads acting on a high-rise building model induced by microburst- like winds''. Journal of Fluids and Structures, 2014, vol 50, pp. 547-564. 16. LE, V. and CARACOGLIA, L., ''Generation and characterization of a non-stationary flow field in a small-scale wind tunnel using a multi-blade flow device''. Journal of Wind Engineering & Industrial Aerodynamics, 2019, vol 186, pp. 1-16. 17. BUTLER, K. and KAREEM, A. ''Physical and numerical modeling of downburst generated gust fronts''. In Proceedings of the 12th International Conference on Wind Engineering, Cairns, Australia. 2007. 18. ABOUTABIKH, M., et al., ''Designing a blade-system to generate downburst outflows at boundary layer wind tunnel''. Journal of Wind Engineering & Industrial Aerodynamics, 2019, vol 186, pp. 23. 19. SOLARI, G., “Thunderstorm response spectrum technique: Theory and applications”. Engineering Structures, 2016, vol 108, pp. 28-46 20. KIM, J. and HANGAN, H., ''Numerical simulations of impinging jets with application to downbursts''. Journal of Wind Engineering and Industrial Aerodynamics, 2007, vol 95, núm 4, pp. 279-298. 21. SENGUPTA, A. and SARKAR, P.P., ''Experimental measurement and numerical simulation of an impinging jet with application to thunderstorm microburst winds''. Journal of Wind Engineering and Industrial Aerodynamics, 2008, vol 96, núm 3, pp. 345-365. 22. LE, T.-H. and CARACOGLIA, L., ''Computer-based model for the transient dynamics of a tall building during digitally simulated Andrews AFB thunderstorm''. Computers and Structures, 2017, vol 193, pp. 44-72. 23. ZHANG, S., et al., "Directional decomposition and properties of thunderstorm outflows". Journal of Wind Engineering & Industrial Aerodynamics, 2019, vol 189, pp. 71-90. 24. TUBINO, F. and SOLARI G., "Time varying mean extraction for stationary and nonstationay winds". Journal of Wind Engineering & Industrial Aerodynamics, 2020, vol 203. 25. RONCALLO, L. and SOLARI G., "An evolutionary power spectral density model of thunderstorm outflows consistent with real-scale time- history records". Journal of Wind Engineering & Industrial Aerodynamics, 2020, vol 203. 26. CNR-DT. Guidelines on Actions and Effects of Wind on Structures. CNR-DT 207/2008. National Research Council of Italy. Roma. Italy. 2010. About the authors Camila Aldereguía Sánchez, Assistant Professor at Technological University of Havana José A. Echeverría (CUJAE), PhD student at University of Genoa. Anna Bagnara, Technical Director at NOVA Fluid Mechanics Ltd, United Kingdom. Giuseppe Piccardo, Full Professor of Structural Mechanics at University of Genoa. Federica Tubino, Associate Professor of Structural Mechanics at University of Genoa. MÉTODO RISK PARA EVALUAR LA VULNERABILIDAD DE ACUÍFEROS KÁRSTICOS. SU APLICACIÓN EN CUENCAS DE PINAR DEL RÍO, CUBA Ernesto Solis Morales1, Rosa María Valcarce Ortega2 Universidad Tecnológica de la Habana "José Antonio Echeverría" (CUJAE)., La Habana, Cuba. E-mail: solismoralesernesto@gmail.com, rosy@civil.cujae.edu.cu RESUMEN Las cuencas hidrogeológicas Cuyaguateje (PI) y Costera Sur de Pinar del Río (PII), constituyen las principales fuentes de abasto de agua subterránea a la provincia de Pinar del Río, por lo que es necesario realizar estudios para evitar su contaminación. La presente investigación se dirigió a evaluar la vulnerabilidad intrínseca a la contaminación de las aguas subterráneas de ambas cuencas empleando por vez primera en el área de estudio el método de superposición de índices ponderados RISK. Como resultado de la aplicación de estos métodos se evidenció que el 43,6% del área presenta vulnerabilidad alta o muy alta, las zonas de alta vulnerabilidad se localizan fundamentalmente al norte de la cuenca PII, asociadas a los principales acuíferos desarrollados en la Formación Paso Real. Las zonas de muy alta vulnerabilidad se concentran en la cuenca PI, perteneciente a la Península de Guanahacabibes, asociadas a la Formación Vedado. Se demostró la elevada susceptibilidad a la contaminación de las aguas subterráneas que presentan estas cuencas, y la necesidad de continuar desarrollando estas investigaciones a escalas más detalladas para apoyar el desarrollo de estrategias orientadas a la adecuada planificación territorial y uso responsable del suelo, contribuyendo a la protección de este recurso vital. PALABRAS CLAVES: Vulnerabilidad intrínseca. Método RISK. Agua subterránea. RISK METHOD TO ASSESS THE VULNERABILITY OF KARST AQUIFERS. ITS APPLICATION IN THE BASINS OF PINAR DEL RIO, CUBA ABSTRACT The hydrogeological basins Cuyaguateje (PI) and southern coastal Pinar del Río (PII), constitute the main sources of groundwater supply to the Pinar del Río province, so it is necessary to carry out studies to avoid contamination. The present investigation was aimed at evaluating the intrinsic vulnerability to contamination of groundwater in both basins using for the first time the RISK weighted index superimposition methods. As a result of the application of these methods, it was evidenced that 43, 6% of the area presents high or very high vulnerability. They are located fundamentally to the north of the PII basin, associated with the main aquifers developed in the Paso Real Formation. The areas of very high vulnerability are concentrated in the PI basin, belonging to the Guanahacabibes Peninsula, associated with the Vedado Formation. The high susceptibility to contamination of groundwater in these basins was demonstrated, and the need to continue developing this research at more detailed scales to support the development of strategies aimed at adequate territorial planning and responsible land use, to guarantee the protection of this vital resource. KEY WORDS: Intrinsic vulnerability, RISK Method, Groundwater. 1. INTRODUCCIÓN El desarrollo de la actividad social y económica a nivel mundial depende en gran medida de las aguas subterráneas, las que constituyen el 97% del volumen total de agua dulce potencialmente disponible en la Tierra [1]. El informe sobre el desarrollo de los recursos hídricos de las Naciones Unidas correspondiente al año 2018 reporta que, al menos el 50% de la población mundial se abastece de la explotación de los recursos hídricos subterráneos [2]. Es incuestionable que representan un recurso indispensable para la vida y su protección, debe ser tarea principal en todos los países. Las fuentes de contaminación fundamentales del agua subterránea son provocadas por la actividad humana. Las más importantes se relacionan con prácticas agrícolas inadecuadas como pueden ser el uso indiscriminado de fertilizantes químicos y pesticidas sobre suelos muy permeables y acuíferos libres, el manejo incorrecto de residuos de la producción industrial, fallas en el almacenamiento o transporte de sustancias tóxicas y la infiltración al acuífero de aguas residuales domésticas. Los acuíferos cársticos abastecen alrededor del 25% de la población mundial, pero tienen características muy particulares que ocasionan su mayor exposición a contaminantes. La urbanización, la industria y las actividades agropecuarias que vierten sus residuales sólidos y líquidos en la superficie del carst, son grandes amenazas de contaminación para estos acuíferos. Es por ello que, desde los años 60’s del pasado siglo y desde diversas disciplinas, surgen conceptos, metodologías y enfoques para evaluar la vulnerabilidad a la contaminación del agua subterránea en ambientes cársticos [3]. Para Cuba, en su carácter de país insular con escaso desarrollo de la red fluvial, el agua constituye el principal desafío ambiental para garantizar su desarrollo económico sostenible, su seguridad alimentaria y ambiental [4]. Especial importancia presentan las aguas subterráneas para el abasto a la población y a las actividades socio económicas, al representar el 33% de los recursos hidráulicos disponibles. Estos recursos están distribuidos en 165 cuencas hidrogeológicas de las cuales 151 son cuencas cársticas y fisuradas [5]. Las cuencas hidrogeológicas Cuyaguateje (PI) y Costera Sur de Pinar del Río (PII), constituyen las principales fuentes de abasto de agua subterránea a la provincia de Pinar del Río. Los horizontes acuíferos de mayor interés están presentes en las calizas fosilíferas, muy carstificadas, de la formación Vedado y, en menor grado, de la formación Jaimanitas, así como en los depósitos terrígeno-carbonatados de la formación Paso Real. Además de estos complejos acuíferos, en la región se definen otros de importancia secundaria desarrollados en las fisuras y grietas de los depósitos del Cretácico y del Paleógeno. En esta zona se ubican importantes asentamientos poblacionales siendo el más importante la ciudad de Pinar del Río, capital de la provincia del mismo nombre. También existe una importante actividad agrícola que requiere de estos recursos hidráulicos para su desarrollo. La Estrategia Ambiental 2016/2020 de la provincia Pinar del Río identifica como uno de los principales problemas ambientales las dificultades con el manejo, disponibilidad y calidad del agua. Declara que persisten problemas de contaminación que provocan el deterioro de la calidad ambiental del aire, los suelos y el agua, y los peligros de contaminación que representan el insuficiente tratamiento de residuales líquidos y desechos sólidos producidos por la actividad industrial, agropecuaria y doméstica [6]. Debido a la importancia de estas cuencas diferentes investigadores han realizado en ellas estudios geológicos, geofísicos, hidrogeológicos y ambientales (García et al. [7]), (González et al. [8]) y (García et al., [9]). No obstante, aún es insuficiente el grado de estudio sobre la vulnerabilidad a la contaminación de sus aguas subterráneas. 2. MATERIALES Y MÉTODOS El término vulnerabilidad del agua subterránea a la contaminación fue introducido en la década del 60 del pasado siglo [10] y posteriormente se han sucedido numerosas definiciones. Una de las definiciones más acertada es la planteada por Zwahlen [11], quien establece que la vulnerabilidad de un acuífero está dada por las características naturales inherentes al sistema en conjunto, las cuales determinan la susceptibilidad a la contaminación por actividades antrópicas y la potencial pérdida de calidad del agua subterránea. La protección de las captaciones de abastecimiento urbano en acuíferos cársticos es una necesidad imperiosa en países en los que éstos tienen un papel importante en el abastecimiento de gran parte de la población, sin embargo, con mucha frecuencia, las medidas de protección de estos acuíferos se deciden sin suficiente conocimiento hidrogeológico y por ello tienen un efecto limitado, por lo que no es raro que se produzca la contaminación del agua subterránea. Para remediar esta situación se han desarrollado diferentes métodos para determinar la vulnerabilidad de los acuíferos cársticos, donde existen cuatro modelos para evaluar la vulnerabilidad natural de los acuíferos [12]: modelos de simulación, modelos estadísticos, modelos hidrogeológicos y modelos paramétricos o de superposición de índices ponderados. Katyal et al. [13] hacen un análisis crítico de las tendencias en el empleo de estos modelos. Concluye que los métodos de superposición de índices ponderados son los más empleados, tanto a escala regional como local, por su elevado poder resolutivo en diferentes situaciones hidrogeológicas unido a su relativamente fácil implementación. Los métodos de superposición de índices ponderados se basan en la combinación de diferentes parámetros. Cada parámetro se divide en clases o rangos a los que se asigna determinada puntuación, y también a cada parámetro se asigna un factor de ponderación para cuantificar su influencia en la vulnerabilidad del acuífero. Para un método que emplea n parámetros P y n factores de ponderación fP, el índice de vulnerabilidad iV se calcula como [12]: Este índice (iV) se divide en rangos y se clasifica en baja, media, alta, muy alta y extrema vulnerabilidad. En general, la denominación de estos métodos corresponde al acrónimo formado con los nombres de los parámetros que emplean. El primer método desarrollado especialmente para evaluar la vulnerabilidad de acuíferos kársticos fue EPIK [14], que emplea como parámetros: presencia de Epikarst, capacidad Protectora del suelo y otros materiales de cobertura, condiciones de Infiltración y desarrollo de la red Kárstica subterránea. Este método ha sido el origen de otros desarrollados posteriormente también para evaluar la vulnerabilidad en acuíferos kársticos [15]; [16]. El método RISK es un método multicriterio de rangos ponderados que permite evaluar la vulnerabilidad intrínseca de los acuíferos cársticos. Es una modificación de los métodos EPIK y RISKE [16]. Debe su nombre al acrónimo formado con los parámetros que emplea: Roca del acuífero, condiciones de Infiltración, Suelo y cubierta protectora, Karstificación. Proporciona una asignación de 5 clases de vulnerabilidad. A cada parámetro se asigna un factor de ponderación que refleja su importancia relativa en la evaluación de la vulnerabilidad y se divide en diferentes clases. En la Tabla 1 se resume la definición de cada parámetro empleado por el método. Después de clasificados los criterios se obtiene un índice global de vulnerabilidad mediante la expresión (2). El índice RISK obtenido se reclasifica en 5 clases, como se muestra en la Tabla. 2. Tabla 1. Definición de cada criterio según el método RISK [16]. Criterios Definición R Roca del acuífero, refleja la naturaleza de las formaciones geológicas y su fracturación. Este parámetro tiene una gran influencia en el tipo de circulación subterránea y, por lo tanto, en la velocidad de transferencia de un contaminante en el acuífero. Se clasifica en cinco clases y se le asigna una puntuación entre 0 y 4 puntos, de menos a más vulnerable. I Condiciones de infiltración. Toma en cuenta la pendiente topográfica (a mayor pendiente topográfica predomina la escorrentía sobre la infiltración) y la presencia de formas cársticas superficiales que favorecen la infiltración directa. Considera también la presencia de fallas tectónicas como elementos que incrementan la permeabilidad de las rocas y la infiltración potencial de los fluidos. Se clasifica en cinco clases y se le asigna una puntuación entre 0 y 4 puntos, de menos a más vulnerable. S Suelo y cubierta protectora. Las formaciones que cubren las rocas del acuífero tienen un papel esencial en relación con su vulnerabilidad. El criterio S depende del espesor del suelo, su textura (guijarros, matriz, etc.), su composición (arcillas, limos, arenas). Se clasifica en cuatro clases y se le asigna una puntuación entre 1 y 4 puntos, de menos a más vulnerable. K Karstificación. Evalúa el desarrollo de la red cárstica subterránea. En las zonas de pérdida el índice K elegido es 4 porque se considera que los flujos superficiales infiltran fácilmente en una red kárstica muy desarrollada. Se clasifica en 5 cinco clases y se le asigna una puntuación entre 0 y 4 puntos, de menos a más vulnerable. Tabla 2. Reclasificación del índice de vulnerabilidad por el método RISK [16]. Rangos Puntuación Vulnerabilidad 0 – 0,79 0 Muy baja. Presencia de capas protectoras en las que el flujo vertical es insignificante. 0,8 – 1,59 1 Baja. Solo vulnerable a contaminantes conservativos cuando son descargados en forma amplia y continua durante largos períodos de tiempo. 1,6 – 2,39 2 Moderada. Vulnerable a algunos contaminantes solo cuando son continuamente descargados o lixiviados. 2,4 – 3,19 3 Alta. Vulnerable a muchos contaminantes excepto a los que son fuertemente absorbidos o fácilmente transformados en muchos escenarios de contaminación 3,2 – 4,0 4 Muy alta. Vulnerable a la mayoría de los contaminantes con impacto rápido en muchos escenarios de contaminación. En Cuba, en los últimos años, se han incrementado los estudios de vulnerabilidad intrínseca a la contaminación de los acuíferos cársticos, ya que sus aguas subterráneas se encuentran fundamentalmente en estos tipos de acuíferos, de ahí la importancia de estas investigaciones. Para estudiar la vulnerabilidad natural del acuífero norte de la provincia de Ciego de Ávila, se empleó el método DRASTIC, obteniéndose que el 87,9 % del acuífero se valora de alta y muy alta vulnerabilidad. Estos resultados han sido una herramienta en el proceso de toma de decisiones concernientes a la protección y el manejo de los recursos hídricos y en los planes de ordenamiento ambiental territorial en el área estudiada [17]. Jiménez-Reyes [18] y Valcarce y Jiménez [19] desarrollaron estudios de la vulnerabilidad de los acuíferos en el noroeste de la provincia Villa Clara. Para la evaluación de la vulnerabilidad utilizaron la metodología PATHS, obteniendo un mapa de vulnerabilidad que, combinado con el inventario y cartografía de los focos contaminantes, permitió lograr un mapa de riesgo de contaminación de las aguas subterráneas. Las zonas de mayor riesgo coinciden con los distritos urbanos donde existe elevada densidad de población, donde se requieren los mayores consumos de agua subterránea y donde se depositan grandes cantidades de residuos domésticos e industriales. Las cuencas hidrogeológicas Cuyaguateje (PI) y Costera Sur de Pinar del Río (PII) se encuentran situadas al sur de la zona occidental de Cuba, se extiende desde la península de Guanahacabibes hasta la parte occidental de la provincia de Artemisa. Su borde septentrional está representado por el litoral norte de la referida península y la cordillera de Guaniguanico, mientras que hacia el sur limita con las aguas del mar Caribe (Figura 1). Figura 1. Ubicación geográfica del área de estudio. Las formaciones geológicas (Figura 2) se caracterizan por presentar sedimentos que abarcan desde el Jurásico hasta el Cuaternario reciente y están formadas en su mayoría por rocas carbonatadas donde existe un marcado desarrollo kárstico, fundamentalmente en las formaciones Vedado, Paso Real y Jaimanitas. En las formaciones del Cuaternario reciente predominan los sedimentos areno-arcillosos y los depósitos palustres. Los horizontes acuíferos de mayor interés están presentes en las calizas fosilíferas, muy carstificadas, de la formación Vedado y, en menor grado, de la formación Jaimanitas, así como en los depósitos terrígeno- carbonatados de la formación Paso Real. La provincia de Pinar del Río está marcada por las subregiones geomorfológicas Llanura de Guanahacabibes y Llanura Sur de Pinar del Río, las cuales poseen un relieve relativamente llano con pocas alturas. En esta zona se ubican importantes asentamientos poblacionales siendo el más importante la ciudad de Pinar del Río, capital de la provincia del mismo nombre. También existe una importante actividad agrícola que requiere de estos recursos hidráulicos para su desarrollo. Figura 2 .Mapa geológico de la región de estudio. Modificado de IGP [20]. 3. RESULTADOS Y DISCUSIÓN Los mapas temáticos de los criterios R, I, S y K se presentan en la Figura 3. En estos mapas se evidencia en el área el predominio de moderada y alta vulnerabilidad a la contaminación de las aguas subterráneas, a excepción del mapa del criterio K donde predomina la baja vulnerabilidad. El criterio R refleja alta vulnerabilidad en la parte norte de ambas cuencas y muy alta vulnerabilidad hacia la parte más occidental de la cuenca Costera Sur de Pinar del Río, ello se debe a la presencia de rocas cársticas y fracturadas de las formaciones geológicas Guane, Güines, Paso Real, Cocodrilo, Vedado, Jaimanitas. Hacia el norte de la cuenca Cuyaguateje la vulnerabilidad del acuífero es baja debido a la presencia de rocas muy arcillosas pertenecientes a los depósitos palustres. El criterio I presenta una alta vulnerabilidad en toda la zona de estudio, y en las zonas donde existen fallas tectónicas y donde los flujos de aguas superficiales pierden su continuidad presenta la mayor vulnerabilidad. En casi toda la zona de estudio el criterio S presenta moderada y alta vulnerabilidad, expresión de la textura, pedregosidad y espesor de los suelos presentes. Hacia la región occidental de la cuenca Cuyaguateje el criterio K exhibe muy alta susceptibilidad a la contaminación de las aguas subterráneas debido al intenso desarrollo cárstico de las rocas que componen la formación geológica Vedado. También es elevada la vulnerabilidad de la cuenca Costera Sur de Pinar del Río en su porción más septentrional, asociado a las rocas de las fromaciones geológicas Paso Real, Güines y Guane. Figura 3. Mapas de los criterios R, I, S, K, pertenecientes a las cuencas Cuyaguateje y Costera Sur de Pinar del Río. Escala 1:100 000. Luego de obtener cada uno de los mapas de lso criterios del método RISK se confeccióno el mapa final de vulnerabilidad a la contamincación de las aguas suberráneas (Figura 4). De las cinco categorías que establece la metodología, en la región de estudio solo se presentan cuatro, al no identificarse zonas con muy baja vulnerabilidad. Además, las zonas clasificadas de baja vulnerabilidad solo representan el 1.3 % de la región y corresponden a zonas de grandes espesores de suelos y arcillas de baja permeabilidad, pertenecientes principalmente a un sector de la Fm. Guevara, asociadas a rocas que no presentan ningún desarrollo cárstico. Es decir, en las cuencas estudiadas existe un predominio de zonas de vulnerabilidad moderada (55,1%), y de zonas de alta y muy alta vulnerabilidad (43,6%) Las zonas clasificadas de vulnerabilidad moderada corresponden a áreas con presencia de formaciones arcillosas, muy poco desarrollo del carso, poco espesor de suelo, donde existe un predominio de zonas llanas. En esta área se describen la mayoría de los Depósitos biogénicos, palustres, formaciones como: Camacho, Loma Candela, Capdevila, Sigüanea, Güane. Las zonas clasificadas de alta vulnerabilidad representan un 29,9 % del área total y en ella se manifiestan rocas calizas carstificadas, bajos espesores de suelos, pendientes topográficas de bajas a medias, en algunos sectores formas negativas del relieve y presencia de fallas tectónicas. En esta área se encuentran ubicadas las principales formaciones acuíferas de la cuenca P-II (Costera Sur de Pinar del Río), desarrolladas en las formaciones geológicas Paso Real y Güines. Por último, se evidencia que las zonas con muy alta vulnerabilidad constituyen el 13,7 % de la región de estudio, desarrollada mayormente en la Península de Guanahacabibes, región donde existe un gran desarrollo del carso, gran presencia de dolinas y lapies (lo que facilita la infiltración directa de potenciales contaminantes), zonas de pendientes bajas y desprovistas de cobertura. En esta región se desarrollan formaciones acuíferas de gran importancia asociadas a la formación Vedado, constituyendo la cuenca hidrogeológica P-I (Cuyaguateje). Figura 4. Mapa de vulnerabilidad a la contaminación de las aguas subterráneas obtenido por el método RISK en las cuencas Cuyaguateje y Costera Sur de Pinar del Río. Escala 1:100 000. Los resultados obtenidos en esta investigación se corresponden también con anteriores estudios de vulnerabilidad a la contaminación de estas cuencas [9]. En esa investigación los autores cuantificaron la vulnerabilidad a partir de la conductividad eléctrica de las capas superficiales y concluyeron que la susceptibilidad a la contaminación de las aguas subterráneas es muy alta en el extremo occidental de la cuenca Cuyaguateje, donde se describen las calizas carstificadas de la Formación Vedado, y que predomina la vulnerabilidad moderada para el acuífero desarrollado en las calizas miocénicas de la Formación Paso Real presentes en la cuenca Costera Sur de Pinar del Río. 4. CONCLUSIONES Se desarrolló el mapa de vulnerabilidad intrínseca de las cuencas hidrogeológicas Cuyaguateje y Costera Sur de la Provincia de Pinar del Río mediante el método de índices ponderados RISK, lo que permite evaluar la susceptibilidad a la contaminación de sus aguas subterráneas por la migración de potenciales contaminantes depositados en su superficie. A partir de la aplicación del método RISK se determinaron 4 zonas fundamentales: las zonas de moderada vulnerabilidad, que alcanzan el 55,1% de la región estudiada, y las zonas de alta y muy alta vulnerabilidad, las cuales representan el 44,6%, Estos resultados evidencian la necesidad de protección de estas cuencas y la aplicación de políticas correctas de protección para este importante recurso. REFERENCIAS 1. USGS. El ciclo del agua. United States Geological Survey, USA, 2015. Disponible en: http://water.usgs.gov/edu/watercyclespanish.html#global Consultado el 15 de junio de 2020. 2. WWDR. Informe Mundial de las Naciones Unidas sobre el Desarrollo de los Recursos Hídricos. Soluciones basadas en la naturaleza para la gestión del agua. Cifras y datos. UNESCO. 2018. 3. AGUILAR-DUARTE, Y.; BAUTISTA, F.; MENDOZA, M.E. y DELGADO, C.. 2013: Vulnerabilidad y riesgo de contaminación de acuíferos kársticos. Tropical and Subtropical Agroecosystems, vol. 16, p. 243 - 263. 4. DÍAZ, J. A. El agua en Cuba: un desafío a la sostenibilidad. Ingeniería Hidráulica y Ambiental, v.34, n. 2, pág. 46-59, 2018. 5. GARCÍA, J. Y GUTIÉRREZ J. La gestión de cuencas hidrográficas en Cuba. La Habana: Editorial Instituto Nacional de Recursos Hidráulicos, 95 p, 2015. 6. DELEGACION TERRITORIAL DEL MINISTERIO DE CIENCIA, TECNOLOGÍA Y MEDIO AMBIENTE EN PINAR DEL RÍO, CITMA. Estrategia Ambiental de la Provincia de Pinar del Río 2016 -2020. Ministerio de Ciencia, Tecnología y Medio Ambiente. Cuba, 31 p., 2016. 7. GARCÍA, N., GONZÁLEZ, N. y PILAR, S. Vulnerabilidad a la contaminación de las aguas subterráneas en la cuenca Guamá: sector sur falla Pinar. IX CONGRESO CUBANO DE GEOLOGÍA: Taller sobre Aguas subterráneas y Contaminación, 2011, p. 19. 8. GONZÁLEZ, N.A., PELÁEZ, R. y SOBRINO-HERNÁNDEZ, E.. 2013: Características geológicas, hidrogeológicas y ambientales del sistema acuífero carbonatado sur en el occidente de Cuba: sector Los Palacios - Candelaria. X Congreso Cubano de Geología: Hidrogeología e Ingeniería Geológica, p. 17. 9. GARCÍA, J.A., SACASAS-LEÓN, C. y DÍAZ-DEULOFEU, A.. 2018: Vulnerabilidad a la contaminación en horizontes acuíferos del sur de Cuba occidental. INGENIERÍA HIDRÁULICA Y AMBIENTAL, vol. XXXIX, p. 73-83. 10. MARGAT, J. Vulnerabilité des nappes d eau souterraine a la pollution. Francia: Editorial BRGM, 68 p., 1968. 11. ZWAHLEN, F. Vulnerability and risk mapping for the protection of carbonate (karst) aquifers, scope, goal, results. European Commission. COST Action 620. Belgium, 297 p, 2003. Disponible en: http://www.bgr.bund.de/EN/Themen/Wasser/Projekte/abgeschlossen/F+E/Cost620/cost60_fb_02 _pdf.pdf?__blob=publicationFile&v=1 Consultado el 22 de marzo de 2015. 12. VARGAS QUINTERO, M.S. Propuesta metodológica para la evaluación de la vulnerabilidad intrínseca de los acuíferos a la contaminación. Ministerio de Ambiente, Bogotá, 45 p.,2010. 13. KATYAL, D., TOMER, T., JOSHI, V. Recent trends in groundwater vulnerability assessment techniques: A review. International Journal of Applied Research, v. 3, n. 5, pág. 646-655, 2017. 14. DÖRFLIGER, N.,JEANNIN, P., ZWAHLEN, F. Water vulnerability assessment in karst environments: a new method of defining protection areas using a multi-attribute approach and GIS tools (EPIK method). Environmental Geology, v. 39, n. 2, pág. 165-176, 1999. 15. VÍAS, J.M., ANDREO, B., PERLES, M.J., CARRASCO, F., VADILLO, I., JIMÉNEZ, P. Preliminary proposal of a method for contamination vulnerability mapping in carbonate aquifers. En: CARRASCO, F., DURÁN, J.J., ANDREO, B (Coordinadores) Karst and Environment. Málaga. España, pág. 371-390, 2002. Disponible en:https://www.researchgate.net/publication/285021857_Preliminary_proposal_of_a_method_fo r_vulnerability_mapping_in_carbonate_aquifers Consultado el 15 de junio de 2020. 16. DÖRFLIGER, N., JAUFFRET, D. & LOUBIER, S. Cartographie de la vulnérabilité des aquifères karstiques en Franche-Comté. BRGM/RP-53576-FR., 140 p., 2004. 17. VIDAL OLIVERA, V.M.G.-A.R.J.P., Y.; VALDÉS GONZÁLEZ, L. A.; CASTRO CARRILLO, M.; RODRÍGUEZ RAMOS, D.. 2015: "Vulnerabilidad a la contaminación 58 del acuífero norte de la provincia Ciego de Ávila". Ingeniería hidráulica y ambiental, vol. XXXVI, p. 12. 18. JIMÉNEZ-REYES, R. 2011: "Estudio de la vulnerabilidad natural de acuíferos de la región acuífera noroeste de Villa Clara". IX CONGRESO CUBANO DE GEOLOGÍA, p. 7. 19. VALCARCE, R.M. y JIMENEZ, R.. 2016: Vulnerabilidad y riesgo de contaminación de la Cuenca Dolores-Sagua la Chica, Cuba. INGENIERÍA HIDRÁULICA Y AMBIENTAL, vol. XXXVII, p. 3-14. 20. INSTITUTO DE GEOLOGÍA Y PALEONTOLOGÍA, IGP. Mapa Geológico de la República de Cuba a escala 1:100 000. La Habana, Servicio Geológico de Cuba, 2016. sobre los autores Ernesto Solis Morales, Ingeniero Geofísico, graduado en 2020. Profesor Instructor del Departamento de Geociencias de la Universidad Tecnológica de la Habana “José Antonio Echeverría”, CUJAE. Rosa María Valcarce Ortega, Ingeniera Geofísica graduada en 1982, Doctora en Ciencias Técnicas, Profesora Titular del Departamento de Geociencias de la Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE. Miembro de la Sociedad Cubana de Geología. EL REBASE DEL OLEAJE EN EL MALECÓN DE LA HABANA DURANTE LA OCURRENCIA DE LOS HURACANES WILMA 2005 E IRMA 2017 APLICANDO EL MODELO DELFT 3D. Dr. Ing. Luis F. Córdova López.1 Centro de Investigaciones Hidráulicas. CUJAE. cordovalopez1962@gmail.com: RESUMEN Cuba por su condición de isla y la posición geográfica en la que se encuentra está expuesta a fenómenos meteorológicos extremos, principalmente huracanes. La compleja situación debido a las inundaciones que se presentan en el litoral costero de La Habana es bien conocida por sus habitantes, la cual se ve agravada por los efectos del Cambio Climático. En este trabajo se calibran, establecen y aplican de forma acoplado por primera vez en Cuba los modelos Delft 3D-Flow y Delft 3D-Wave. A partir de los resultados de los procesos de calibración y validación se realiza una modelación de los campos de oleaje y elevación del nivel del mar en la zona del malecón de La Habana para los huracanes Wilma 2005 e Irma 2017. Como resultado de la investigación se obtienen los caudales de rebase promedio del oleaje sobre el muro del malecón, así como los volúmenes de inundación para los diferentes tramos en que se ha dividido todo el litoral. Se definen los tramos más críticos. Estos resultados permitirán una evaluación más precisa de los niveles de inundación y un diseño más eficaz de las obras de protección costera y las de drenaje.. PALABRAS CLAVES: modelación matemática, rebase del oleaje, Delft 3D. THE WAVE OVERTOPPING ON THE HAVANA SEAWALL DURING THE OCCURRENCE OF HURRICANES WILMA 2005 AND IRMA 2017 APPLYING THE DELFT 3D MODEL. ABSTRACT Due to its status as an island and its geographical position, Cuba is exposed to extreme weather events, mainly hurricanes. The complex situation due to the floods that occur on the coast of Havana is well known by its inhabitants, which is aggravated by the effects of Climate Change. In this work, the Delft 3D-Flow and Delft 3D-Wave models are calibrated, established and applied in a coupled way for the first time in Cuba. Based on the results of the calibration and validation processes, a modeling of the wave fields and sea level rise is carried out in the area of the Havana boardwalk for hurricanes Wilma 2005 and Irma 2017. As a result of the investigation, obtain the average overflow flows of the waves on the wall of the malecon, as well as the volumes of flooding for the different sections into which the entire coastline has been divided. The most critical sections are defined. These results will allow a more accurate assessment of flood levels and a more effective design of coastal protection and drainage works.. KEY WORDS: mathematical modeling, wave overtopping, Delft 3D. INTRODUCCIÓN Cuba por su posición geográfica a la entrada del golfo de México, limitando al Norte con el océano Atlántico y al Sur con el mar Caribe, anualmente en el período del 1ro de junio al 30 de noviembre se ve amenazado por los efectos de tormentas tropicales y huracanes. Estos fenómenos meteorológicos vienen acompañados de fuertes vientos, intensas lluvias y fuertes marejadas que traen como consecuencias condiciones muy desfavorables, entre las que se encuentran: penetraciones del mar, inundaciones y gran elevación del nivel del mar, causando grandes daños a la población y a la economía. La Habana es la capital de la República de Cuba, su urbe más grande, el principal puerto, su centro económico-cultural y su principal polo turístico. El Malecón, símbolo de la cultura de la ciudad. Comprende una amplia avenida de seis carriles y un larguísimo muro que se extiende sobre toda la costa norte de la capital cubana a lo largo de ocho kilómetros se ve afectado por las penetraciones del mar durante los fenómenos meteorológicos extremos como los frentes fríos y huracanes que a zotan a la isla. Provocando grandes pérdidas a la economía de la capital, así como a los habitantes que residen en las zonas cercanas. Constituye una necesidad urgente ante el cambio climático, dar solución a esta amenaza. Se propuso la tarea de valorar la factibilidad de una variante de protección contra las inundaciones del Malecón al grupo de Ingeniería de Costas del Centro de Investigaciones Hidráulicas (CIH), de la Universidad Tecnológica de la Habana “José Antonio Echeverría” (CUJAE). 1, 2,3 La modelación numérica ha evolucionado satisfactoriamente, siendo capaz de procesar información de numerosas variables meteorológicas, ofrecer pronósticos de gran precisión, así como el estudio de costas, estructuras de protección y las inundaciones. 4, 5,6 Objetivo general. Evaluar el comportamiento del rebase promedio del oleaje sobre el muro de defensa costera actual generado por los huracanes Wilma 2005 e Irma 2017, fenómenos que generaron fuertes inundaciones en la zona del Malecón de La Habana. DESARROLLO Simulación de los campos de oleaje y de niveles del mar en la zona del malecón mediante el acoplado de los modelos Delft3D- FLOW y Delft3D-WAVE (Swan). En la figura 1 se muestra el proceso de simulación de los huracanes, la simulación se realizó mediante mallas de cómputos anidadas (ver figura 2), se comenzó en la malla con definición de 5 km, luego se pasó a la malla con definición de 1 km a través del anidado el nivel del mar, la altura de ola significativa, el período pico, la dirección del oleaje, las tensiones de radiación, la longitud de la rugosidad, etc. Por último, se simuló para el Malecón ambos modelos acoplados. El período de simulación de los huracanes fue del 16/10/2005 al 27/10/2005 en el caso del huracán Wilma 2005, y del 8/09/2017 al 11/09/2017 para el huracán Irma 2017. Figura 1. Esquema del proceso de simulación de los huracanes. Figura 2. Dominios de cómputos empleados. Análisis de las variables de clima marítimo para el huracán Irma 2017. Para la simulación del huracán Irma se seleccionó tres direcciones a estudiar (noreste, norte y noroeste) porque el huracán tuvo una dirección de traslación de este a noroeste. Al llegar a Matanzas se desvió al norte, pero aún sus vientos tenían una dirección noroeste cerca de la zona de estudio, esto se debe al sentido del giro de los vientos en un huracán. Por cada dirección se situó diez boyas para medir la altura de ola significativa, el período pico y la dirección del oleaje. El último punto de observación coincide con uno de los puntos de observación situados delante de la obra de protección costera (muro del malecón). (Ver figura 3) Figura 3. Puntos de observación y ángulos. En las figuras 4, 5 y 6 se muestra las variables meteorológicas registradas en los puntos de observación en la dirección noreste. Se tomó el rango del 2017/9/9/06:00 porque durante el día 8 las alturas de olas eran de pocos centímetros, en la zona de estudio aún no se observan la influencia del huracán por su lejanía. Figura 4. Altura de ola significativa en la dirección noreste En la figura 4 se observa que las alturas de olas van disminuyendo a medida que se acercan a la costa, esto se produce por la fricción que genera el fondo. Este efecto se nota más en la boya 4 que está ubicada a una profundidad de 3,28 m delante de la costa, donde el efecto del fondo provoca que la ola no tenga una altura similar a las del resto de boyas. De esta dirección podemos concluir que las olas viajan con mucha energía hasta llegar a pocos metros de la costa donde se ven frenadas por el fondo. Figura 5. Período pico en la dirección noreste. En la figura 5 se observa una reducción del período del oleaje debido a el fenómeno denominado asomeramiento, ocurre una reducción de la longitud de onda por el efecto de la reducción de la profundidad en el perfil submarino, y por tanto en el período del oleaje. Figura 6. Dirección del noreste del oleaje. Para entender la figura 6 primero se debe observar la figura 3 que muestra la posición de las boyas y los ángulos náuticos. En esta dirección se ve en el gráfico que los ángulos van disminuyendo y acercándose a 0°, esto significa que el oleaje va cambiando su dirección del noreste al norte. Posteriormente los ángulos cambian al cuarto cuadrante (valores de ángulos entre 270° y 360°), esto indican que las olas ahora llegan del noroeste. Se observa también un desfase en el tiempo en cada boya, esto se debe a que las boyas que están más cerca del huracán reciben información primero, pero todas registran la misma dirección del oleaje. En las otras direcciones el comportamiento es similar a la anterior. Análisis de las variables de clima marítimo para el huracán Wilma 2005. Empleando los modelos Delft3D Flow y Wave se realiza la modelación del huracán Wilma 2005 en los dominios 5 km, 1 km y 200 m. Se colocan 25 boyas virtuales, estas ilustran en las figura 7. Figura 7. Ubicación de las boyas virtuales en los dominios 5 km, 1 km y 200 m. En la figura 8 se muestran los gráficos resultantes de la modelación para las boyas virtuales en los dominios 5 km, 1 km y 200 m. Como se puede apreciar la máxima altura significativa de ola se encuentra registrada en la boya 1, esta con un valor de 12,00 m, hasta llegar a un mínimo de 7,40 m en la boya 25, la más cercana a la línea de costa de las expuestas en esta figura. En la figura 6 se muestran los gráficos resultantes de la modelación para las boyas virtuales en el dominio Malecón, se puede apreciar como las máximas alturas de ola en las primeras 5 boyas que se grafican, en un rango de 8,50 a 6,90 m. Figura 8. Gráficos resultantes obtenidos para las boyas virtuales en los dominios 5km, 1km y 200 m. Figura 9. Gráficos resultantes obtenidos para las boyas virtuales en el dominio Malecón. Estudio del rebase promedio del oleaje y volúmenes de inundación para el malecón de La Habana. Estudio del rebase promedio del oleaje y volúmenes de inundación para el huracán Wilma 2005. Tomando como referencia la división en tramos del malecón de la habana propuesta por el grupo de expertos multidisciplinario establecido por el Gobierno de la Ciudad, la Academia de Ciencias de Cuba y la Defensa Civil en 1993, se colocan 14 boyas virtuales en los tramos 2,3,4 y 5 del malecón, todas en profundidades entre 2 y 4 m. Estas se ilustran a continuación en la figura 10, y sus características se muestran en la tabla 1. Figura 10. Ubicación de boyas virtuales para el cálculo del rebase. Tabla 1. Características de los tramos empleados en el cálculo del rebase. Tramo Sub tramo Altura del muro(m) Longitud (m) Tramo Sub tramo Altura del muro(m) Longitud (m) 2 1 3,10 250 3 1 4,30 1000 2 3,35 250 2 4,00 1000 3 3,60 500 4 1 4,16 250 4 3,75 250 2 4,33 250 5 3,80 250 3 3,97 750 6 4,10 250 5 1 3,97 500 7 4,43 250 2 3,94 500 En la figura 11 se aprecian los resultados que se obtienen de la modelación, estos dispuestos según la mayor altura de ola significativa que se registra en cada tramo, y en relación, el periodo medio y nivel del mar correspondiente. Como se aprecia la mayor altura de ola frente al malecón llega hasta los 4,00 m en el tramo 2, esto debido a la orientación de la costa que posee dicho tramo, el cual está orientado hacia la dirección noroeste, perpendicular al frente de olas, al igual que el tramo 5 que consecuentemente registra las segundas mayores alturas de ola, con un valor de 3,49 m. El tramo 3 y parte del 2, presentan su línea de costa más orientados hacia el norte, por lo cual el oleaje con dirección desde el noroeste sufre reducción de su energía por el fenómeno de refracción, resultando en menores alturas de olas. El periodo medio oscila desde los 8,1 segundos en el tramo 3 parte 2 hasta los 11,3 segundos en tramo 4. Los niveles del mar se muestran con similitud en los tramos 2, 4 y 5 con un valor máximo de 0,60 m mientras que los tramos 3 parte 1 y 2 se manifiesta un valor menor de 0,41 m. Como se puede apreciar los tamos 2 y 5 que contienen los mayores registros de nivel del mar, coincidentemente registran las mayores alturas de ola significativas, esto en parte debido a que el aumento del nivel del mar contribuye en un aumento de la energía de la ola, ya que esta recibe un incremento en la altura de la columna de agua donde se manifiesta. Figura 11. Resultados por para los tramos dispuestos. Cálculo del rebase promedio para el huracán Wilma 2005 Partiendo de los datos de los tramos (tabla 1), y los resultados para los tramos de mayor altura de ola significativa, período medio y nivel del mar (figura 8) se calcula el rebase promedio aplicando la siguiente fórmula: (1) dónde : a=0.008; b= -2.05; h*=parámetro de impulsividad; Rc=: borde libre de la estructura(m) y q= sobrepaso específico (m3/sm) En la figura 12, se muestran los resultados de rebase promedio según el caudal específico por tramos y subtramos. Se aprecia como el tramo de mayor gasto específico es el tramo 2, que comprende desde calle 12 hasta calle J. Los gastos máximos en este tramo oscilan desde los 280 l/sm en el subtramo 2.7, localizado en la extrema derecha de este tramo hasta 667 l/sm en el tramo 2.1 localizado desde calle 12 hasta calle 8. En el tramo 3 se puede apreciar como el subtramo 3.1 dobla el registro máximo del subtramo 3.2 de 61 l/sm, esto debido a la inclinación en dirección norte que se desarrolla en este tramo, siendo más agresiva para el subtramo 3.2 que inicia en calle 19 hasta el inicio del parque Antonio Maceo. En el tramo 5 que culmina justo en la calle Paseo del Prado se registra un máximo de 240 l/sm de manera similar para los dos subtramos que lo comprenden. En la figura 13, el aumento de la altura significativa de la ola contribuye en un aumento del caudal de rebase, pero a su vez su efecto se ve reducido en función de la altura del muro sobre la cual incide. En la figura 14 se aprecia la conexión que existe entre altura de ola significativa, el caudal específico y la altura del muro. Como se observa, los caudales específicos van variando en función de la altura de muro y la altura de la ola frente a este. Un claro ejemplo de esto se manifiesta en el tramo 2.1, que contiene la menor altura de muro (3,10 m) y a la vez la mayor altura de ola (4,08 m), como resultado registra el mayor caudal especifico de la simulación. De igual forma, pero de manera opuesta, se aprecia en el tramo 3.2, este posee una altura de muro relativamente alta de 4,00 m y una altura de ola de 1,80 m (la menor de todos los tramos), como resultado se obtiene el menor caudal especifico de la modelación, 62,65 l/sm. Figura 12. Caudales específicos resultantes para cada subtramo Figura 13. Relación caudal especifico, altura máxima de la ola y altura de muro. Se obtiene que el volumen total de rebase promedio para el huracán Wilma 2005 es de 54,71 hm³ en la zona del malecón. Además, se aprecia como el tramo de mayor volumen de rebase es el tramo 2, con un volumen de rebase de 34,32 hm³, representa un 62,7 % del total de rebase que ocurre, a pesar de que su extensión de 2,00 km, que solo representa un 32% de la longitud total. De forma opuesta el menor rebase se manifiesta en el tramo 4, con una extensión de 1,25 km registra un volumen de rebase de 4,95 hm³, el cual representa un 9% del total que rebasa y un 14,4 % de lo que se rebasa en el tramo 2. Figura 14. Relación entre volumen de rebase y volumen especifico. Estudio del rebase promedio del oleaje y volúmenes de inundación para el huracán Irma 2017. Figura 15. Tramos de estudio del Malecón habanero En la figura 15, se representan los tramos y las boyas ubicadas en cada uno. En el tramo 2 se colocó dos boyas por la extensión del mismo. En el tramo 3, dos boyas ubicadas cada una en un subtramo por el cambio de orientación que toma el muro. En el tramo 4, la boya 5, La Boya 6 está ubicada en el tramo. En las figuras 16, 17 y 18Los gráficos 4, 5 y 6 representan la altura de ola significativa, el período medio y el nivel del mar registrado en las seis boyas. Figura 16. Altura de ola significativa registrada en las seis boyas La diferencia que se observa en el gráfico entre las boyas 3 y 4 se debe al cambio de dirección de la línea de costa. La Boya 5 registró las menores alturas de olas de todos los tramos. En la última boya (boya 6) que se encuentra en el tramo 5 se incrementa la altura de la ola al igual que en el tramo 2, esto sucede porque ambos tramos están perpendiculares a las olas que llegan de la dirección noroeste. Figura 17. Período medio registrado en las seis boyas Figura 18. Nivel del mar registrado por las seis boyas Cálculo del rebase originado por el huracán Irma 2017 En la figura se muestran los valores del gasto de rebase específico (m³/s/m) para el tramo 2. Figura 19. Gasto específico de rebase del tramo 2 Figura 20.Gráfico 8 Gastos específicos máximos de rebase En la figura 20 se muestra los gastos específicos máximos de rebase. Se observa que el tramo 2, en los subtramos 1 y 2 tiene los mayores gastos máximos de rebase con 1,276 y 1,042 m³/s/m; es decir que en la hora de mayor altura de ola está rebasando el muro una cantidad importante de agua por segundo en un metro, en el último subtramo, donde el gasto de rebase es de 0,518 m³/s/m. En los tramos 3 y 4 va disminuyendo el rebase. En el tramo 4 cuando las alturas son de 4,16 y 4,33 m los gastos de rebase son los más bajos de todos los subtramos con 0,344 y 0,309 m³/s/m respectivamente, pero en el último subtramo la altura baja a 3,97 m y se aprecia un incremento del rebase de 0,391 m³/s/m. En el tramo 5 vuelve a incrementarse a valores de 0,557 y 0,567 m³/s/m porque la orientación de la costa coincide con la dirección del tramo 2 (noroeste) que presenta las mayores alturas de olas significativas. Y las cotas del muro son de 3,97 y 3,94 m respectivamente. En la figura 21se muestra el volumen total por subtramos, Figura 21. Volumen total del rebase por subtramos CONCLUSIONES Para el huracán Wilma. La orientación de la costa que presentan los tramos en que se divide el malecón repercute de forma directa en las alturas de olas que se generan frente a este, lo cual influye en la magnitud del caudal específico que rebasa. La orientación noroeste en la que se sitúa el tramo 2 condiciona que este reciba las mayores alturas de ola, estas con valores de 4 m y además manifieste el mayor caudal específico de rebase (667 l/sm), dando como resultado el mayor volumen de rebase de todos los tramos, este de 34,32 hm³, el cual representa un 62,7 % del total de rebase que ocurre. La inclinación norte en la cual se sitúa el tramo 3 contribuye en una reducción de la magnitud del oleaje incidente, el cual repercute en una disminución del caudal especifico que rebasa, siendo este el menor de todos los tramos con un valor de 62,65 l/sm. El volumen total de rebase promedio para el huracán Wilma 2005 es de 54,71 hm³. El tramo más crítico es el número 2, debido a su orientación perpendicular al noroeste, recibiendo las mayores alturas de ola. El tramo 3 es el que presenta los menores rebases por su orientación al norte, el oleaje sufre reducción de su energía por el fenómeno de refracción, con un valor de 62,65 l/s/m. Para el huracán Irma 2017. La simulación arrojó alturas de olas en el Malecón que oscilan 3,82 y 5,57 m de altura. Las mayores olas se observaron en los tramos 2 y 5 cuya orientación es al noroeste. El volumen total de rebase promedio para el huracán Irma 2017 es de 246,43 hm³. El tramo 2 es el que mayor volumen de rebase tuvo con 144,09 hm3. Esto se debe a que posee varios subtramos con una cota del muro inferior a 4 m, en los subtramos 6 y 7 con cotas por encima el rebase fue de 9,16 hm3. El tramo 3 tiene los mayores volúmenes de rebase por subtramos de 33,10 y 27,90 hm3 debido a que estos miden 1 km. Esta longitud los convierte en los subtramos más largos del muro y eso provoca mayor sobrepaso del mar. Es el segundo tramo con más volumen de rebase. El tramo 4 posee volúmenes de rebase de 30,36 hm3, este es el volumen mínimo del muro. El tramo 5 es el tercer tramo con mayor volumen de rebase de 40,98 hm3, aquí intervienen los mismos factores que afectan al tramo 2. El orden de los tramos con mayor volumen de rebase es el siguiente: tramo 2 con 144,09 hm3; Tramo 3 con 61 hm3; Tramo 5 con 40,98 hm3;Tramo 4 con 30,36 hm3. BIBLIOGRAFÍA 1. CÓRDOVA LÓPEZ Luis, “Malecón Tradicional de La Habana. Parte I: Análisis de las causas de la inundación costera”, Ingeniería Hidráulica y Ambiental, Vol. 41 Núm. 3, p. 25-39, 1815-591X, (2020), Grupo II, SciELO. 2. CÓRDOVA LÓPEZ Luis, Y. Fernández González, “Alternativas contra inundaciones costeras en el malecón tradicional de La Habana, Cuba”, Ingeniería Hidráulica y Ambiental, Vol. 42 Núm. 1, p 27-41, 1815-591X, (2021), Grupo II, SciELO. 3. CÓRDOVA LÓPEZ Luis, M. Buccino4, R. Torres Hugues,” Malecón Tradicional de La Habana. Parte II: Alternativas de muro vertical contra el rebase”, Ingeniería Hidráulica y Ambiental, Vol. 41 Núm. 3, p. 40-54, 1815-591X, (2020), Grupo II, SciELO. 4. CÓRDOVA LÓPEZ Luis, BUCCINO Mariano, TORRES HUGUES Ronnie, “Malecón Tradicional de La Habana. Parte III: Combinación de muros y bermas contra el rebase”. Ingeniería Hidráulica y Ambiental, Vol. 41 Núm. 3, p. 55-67, 1815-591X, (2020), Grupo II, SciELO. 5. CÓRDOVA LÓPEZ Luis, BUCCINO Mariano, “Malecón Tradicional de La Habana. Parte IV: Estudio de rompeolas para reducir el rebase promedio del oleaje”. Ingeniería Hidráulica y Ambiental, Vol. 41 Núm. 3, p. 68-82, 1815-591X, (2020), Grupo II, SciELO. 6. Córdova López Luis, FERNÁNDEZ GONZÁLEZ Yailin, “Alternativas contra inundaciones costeras en el malecón tradicional de La Habana, Cuba”, Ingeniería Hidráulica y Ambiental, Vol. 42 Núm. 1, p 27- 41, 1815-591X, (2021), Grupo II, SciELO. sobre los autores El autor es profesor titular de la Facultad de Ingeniería Civil de la Universidad Tecnológica de La Habana, Jefe del grupo de investigación de Ingeniería Costera y Marítima del Centro de Investigaciones Hidráulicas. 1 INFLUENCIA DE LOS ADITIVOS DE CENIZA DE BAGAZO DE CAÑA Y ESCORIA DE ALTO HORNO EN SUELO Aldo Fernández Limés1, Luis E. González Martínez 2, Isaida Flores Berenguer3, Cecilia Gil Payne4, Jenny García Tristá5, Anadelys Alonso Aenlle6 Willian D. Cobelo Cristiá7 1Ingeniero civil, Universidad Tecnológica de la Habana ``José A. Echeverría´´, Facultad de Ingeniería Civil, Calle 114 #11901, e/ Rotonda y Ciclovía, Marianao La Habana Cuba, afernandezl@civil.cujae.edu.cu 2Ingeniero civil, Universidad Tecnológica de la Habana ``José A. Echeverría´´, Facultad de Ingeniería Civil, Calle 114 #11901, e/ Rotonda y Ciclovía, Marianao La Habana Cuba, leglez@civil.cujae.edu.cu 3Ingeniera civil, Máster en ciencias técnicas, Universidad Tecnológica de la Habana ``José A. Echeverría´´, Facultad de Ingeniería Civil, Calle 114 #11901, e/ Rotonda y Ciclovía, Marianao La Habana Cuba, isaidafb@civil.cujae.edu.cu 4Ingeniera civil, Máster en ciencias técnicas, Universidad Tecnológica de la Habana ``José A. Echeverría´´, Facultad de Ingeniería Civil, Calle 114 #11901, e/ Rotonda y Ciclovía, Marianao La Habana Cuba, cgil@civil.cujae.edu.cu 5Ingeniera civil, Doctora en ciencias técnicas, Universidad Tecnológica de la Habana ``José A. Echeverría´´, Facultad de Ingeniería Civil, Calle 114 #11901, e/ Rotonda y Ciclovía, Marianao La Habana Cuba, jenny@civil.cujae.edu.cu 6Ingeniera civil, Doctora en ciencias técnicas, Universidad Tecnológica de la Habana ``José A. Echeverría´´, Facultad de Ingeniería Civil, Calle 114 #11901, e/ Rotonda y Ciclovía, Marianao La Habana Cuba, anadelys@civil.cujae.edu.cu 7Ingeniero civil, Doctor en ciencias técnicas, Universidad Tecnológica de la Habana ``José A. Echeverría´´, Facultad de Ingeniería Civil, Calle 114 #11901, e/ Rotonda y Ciclovía, Marianao La Habana Cuba, wcobelo@civil.cujae.edu.cu RESUMEN En subrasantes, bases, subbases y vías no pavimentadas en muchas ocasiones los suelos locales no reúnen los requisitos de calidad necesarios y se debe recurrir a la utilización de materiales de lugares más lejanos para su construcción, una alternativa a este problema es recurrir a técnicas como la estabilización de suelos con aditivos de materiales u otros suelos. Entre las alternativas para la estabilización con aditivos están la ceniza de bagazo de caña y la escoria alto horno que se obtiene de las fundiciones de acero. Esta investigación tiene como objetivo evaluar cómo se modifican las propiedades de un suelo estabilizado con escorias de alto horno y cenizas de bagazo de caña. La escoria es añadida en valores de 25 y 35% del peso total de la muestra y la ceniza en 10 y 30%, los resultados de las combinaciones se comparan con las propiedades del material de suelo sin estabilizar. Los resultados demuestran que el empleo de cenizas en la estabilización de suelos no es beneficioso para incrementar la capacidad portante de los suelos y lo hace vulnerable a la permeabilidad, mientras que la escoria si resulta beneficiosa incrementado los valores de peso específico seco máximo, de CBR y brindándole mayor estabilidad ante la ascensión capilar. PALABRAS CLAVES: Escoria de alto horno, ceniza de bagazo de caña, estabilización de suelos, peso específico seco máximo, valores de CBR INFLUENCE OF CANE BAGASSE ASH ADDITIVES AND BLAST-FURNACE SLAG ON SOIL ABSTRACT In subgrade, bases, subbases and unpaved roads, on many occasions the local soils do not meet the necessary quality requirements and materials from more distant places must be used for their construction. An alternative to this problem is to resort to techniques such as soil stabilization with additives of other materials or soils. Among the alternatives for stabilization with additives are cane bagasse ash and blast furnace slag obtained from 2 steel foundries. This research objective is to evaluate the properties of soil stabilized with blast furnace slag and cane bagasse ashes. The slag is added in 25 and 35% values and the ash in 10 and 30%, combinations results of are compared with the properties of the unstabilized soil material. The results show that the use of ash in soil stabilization is not beneficial to increase the bearing capacity of the soil and makes it vulnerable to permeability, while the slag is beneficial by increasing the values of maximum dry specific weight of CBR. and providing greater stability against capillary ascension. KEY WORDS: Blast furnace slag, cane bagasse ash, soil stabilization, maximum dry unit weight, CBR values. 1. INTRODUCCIÓN El funcionamiento a largo plazo de cualquier proyecto de construcción depende de la calidad de los suelos subyacentes. Los suelos inestables pueden crear problemas significativos en las estructuras y pavimentos. Con el diseño y técnicas de construcción apropiados, el tratamiento con determinado aditivo transforma químicamente los suelos inestables en materiales utilizables. Se le llama estabilización de un suelo al proceso mediante el cual se someten los suelos naturales a cierta manipulación o tratamiento de modo que podamos aprovechar sus mejores cualidades, obteniéndose uno firme y estable, capaz de soportar los efectos del tránsito y las condiciones de clima más graves. [1] La estabilización se fundamenta en el mejoramiento de las propiedades del suelo, como son la estabilidad volumétrica, resistencia, permeabilidad, compresibilidad y durabilidad siendo éstas las más relevantes al momento de realizar algún tipo de estabilización a través de procedimientos mecánicos e incorporación de productos químicos, naturales o sintéticos. Al elegir algún tipo de producto para mejorar las características del suelo los estudios se concentran en verificar si mejora alguna de estas propiedades, esto significa no solo llegar a un estado del suelo con suficiente resistencia a la acción destructora y deformante de las cargas, sino también asegurar la permanencia de ese estado a través del tiempo. [2] [3]. Si un suelo tiene buena capacidad de soporte, resistente a los esfuerzos de corte, y si su comportamiento estructural no cambia significativamente frente a variaciones de humedad, se dice que es un suelo estable. Para lograr una estabilización con éxito deben realizarse ensayos de laboratorio tales como: granulometría, límites de plasticidad, peso específico, compactación, CBR (California bearing ratio: índice de soporte de California), absorción capilar y consolidación; sobre las muestras más representativas del suelo natural para poder determinar las propiedades ingenieriles tanto del material natural como del material estabilizado. Estos ensayos incluyen el estudio del material con diferente proporción de material estabilizador para determinar una composición adecuada de la mezcla y poder evaluar la efectividad de la estabilización. Se ha desarrollado muchos trabajos [4-11] para utilizar el bagazo de caña como estabilizador de suelos, obteniéndose diversos resultados, ya que funciona bien para retener agua. En el trabajo de Anupam, Kumar [12] quienes compararon la estabilización de suelos arcillosos utilizando diversos desechos agrícolas como cenizas volantes (FA), cenizas de cáscara de arroz (RHA), cenizas de bagazo (BA) y cenizas de paja de arroz (RSA) sin ningún otro tipo de aglomerante para mejorar la capacidad de carga del suelo. Las propiedades que se probaron fueron el límite de contracción, las características de compactación y el CBR. Se observaron mejoras marcadas en los límites de contracción para el suelo mezclado con FA, BA, RHA y RSA, ésta fue más pronunciada para un 30% de mezcla de RHA. Además, llegaron a la conclusión de que los cuatro desechos industriales provocaban un aumento en el contenido óptimo de humedad y una disminución de la densidad seca máxima del suelo estabilizado y del valor de CBR. La adición de escoria de siderurgia incrementa el peso específico seco máximo y el CBR y mejora el resto de las propiedades [13-18]. Esto se debe a la buena adherencia entre los dos materiales. La composición química de la escoria empleada, está formada por dióxido de silicio (SiO2), y oxido de calcio (CaO), que son materiales estabilizantes. Estos elementos reaccionan ante la presencia de agua, generando una reacción expansiva debido a la hidratación, lo que ocasiona la mejora del suelo [19] 3 Con esta investigación se persigue obtener un uso práctico a los residuos sólidos que no se pueden biodegradar rápidamente de la industria del acero lo que constituye un problema medioambiental. Para ello se lleva a cabo un estudio experimental donde las variables independientes son la mezcla de suelo natural-escoria (75% y 25% respectivamente) y la mezcla de suelo natural-escoria (65% y 35% respectivamente), mientras que las variables dependientes son la humedad natural, el peso específico, la distribución granulométrica, el peso específico máximo, la capilaridad y el valor de relación de soporte de California (CBR). También se evalúan las propiedades del suelo estabilizado con cenizas de paja de la caña. La ceniza es añadida en 10% y 30% y los resultados de las combinaciones se comparan con las propiedades del material sin estabilizar. 2. DESCRIPCIÓN DE MATERIALES Caracterización del suelo natural El suelo fue analizado en condiciones remoldeadas, la humedad del suelo natural [20] fue de 1.18% y se garantizó una diferencia entre las dos muestras analizadas menor del 2%. El límite líquido del suelo natural es de 31.90, el límite plástico que se obtiene para la muestra de suelo natural analizado fue de 27.62, el índice de plasticidad es de 4,29, por tanto el suelo posee poca plasticidad [21] Un índice de plasticidad bajo, significa que un pequeño incremento en el contenido de humedad del suelo, lo transforma de semisólido a la condición de líquido, es decir resulta muy sensible a los cambios de humedad. El peso específico relativo a las partículas sólidas del suelo (𝐺𝑠) natural fue determinado por la NC-19 [22] y dio como resultado que 𝐺𝑠 = 2.69. La granulometría se hizo siguiendo el procedimiento de la NC-20 [23] En la figura 1 se muestra el promedio del porciento pasado por cada tamiz de tres muestras estudiadas para determinar la granulometría promedio del suelo natural. Figura 1: Distribución granulométrica del suelo natural Del análisis granulométrico mostrado en la figura 1 se observa que hay un 37.5% de grava, 61.2% de arena y 1.3% de finos por lo que se considera que el suelo es arenoso con presencia de grava A partir de los ensayos realizados se puede clasificar al suelo siguiendo la metodología de la NC-59 [24] Los resultados obtenidos para dicho suelo se reflejan a continuación: Al analizar la clasificación del suelo natural mediante el método de Sistema Unificado de Clasificación de Suelos (SUCS), lo primero que se analiza es la determinación del porciento pasado por el tamiz 200, al ser este menor que el 50%, se trata de un suelo de grano grueso. El porcentaje pasado por el tamiz No 4 (arena) es mayor que 0.00 10.00 20.00 30.00 40.00 50.00 60.00 70.00 80.00 90.00 100.00 0.010.1110100 P as ad o d el t o ta l (% ) Abertura (mm) Suelo Natural 4 el porcentaje retenido en el tamiz No 4 (grava), el suelo es tipo arenoso. Al presentar un porciento de grava superior al 35%, ser el coeficiente de curvatura de 1.18 y el coeficiente de uniformidad de 11, el suelo se clasifica según sus especificaciones como una arena bien graduada con grava. Para la clasificación del suelo mediante el método ASHTOO [25] se divide el suelo en dos categorías, materiales granulares y materiales de tipo arcilla y limo, el suelo natural estudiado al tener un porciento de material pasado por el tamiz Nº 200 menor del 35% se encuentra en la categoría de material granular. Al ser el porciento pasado por el tamiz Nº 10 menor de 50%, el pasado por el Nº 40 menor de 30%, el pasado por el tamiz Nº 200 menor del 15% y tener un índice de plasticidad inferior a 6, el suelo se clasifica en su nomenclatura como A-2-4(5) (grava y arena limosa) Para determinar la humedad óptima del suelo se realizó un ensayo de Proctor Modificado [26] con 5 puntos de humedad aumentando en cada uno un 4% de agua con respecto al peso de la muestra inicial que era de 11,224 kg. Los resultados de este ensayo se muestran en la figura 2 y los valores de peso específico seco máximo y humedad óptima aparecen en la tabla 2. Figura 2: Curva de compactación por método Proctor Modificado para el suelo natural Caracterización de la escoria La escoria de acería de horno de arco eléctrico se obtuvo de la siderúrgica “José Martí” (Antillana de Acero), por sus características la escoria debe ser ensayada cómo árido. En la figura 3 se muestran los valores de peso específico para 9 muestras de escoria Figura 3: Peso específico corriente de la escoria 1.20, 21.14 6.23, 22.15 8.70, 21.14 12.64, 19.48 13.76, 19.21 18.50 19.00 19.50 20.00 20.50 21.00 21.50 22.00 22.50 0.00 2.00 4.00 6.00 8.00 10.00 12.00 14.00 16.00 P es o e sp ec íf ic o s ec o m áx im o (k N /m 3 ) Humedad (%) 5 Son evidentes los altos valores de peso específico que posee la escoria debido a sus altos valores de densidad. Estos datos dan indicios de que las estabilizaciones de suelo natural en combinación con escorias presentarán una mejor compactación debido a que existirá mayor masa en el mismo valor de volumen de suelo. En la figura 4 se presentan los valores de porciento pasado por el tamiz 200. Figura 4: Porciento de escoria que pasa el tamiz No. 200 Como se puede observar en la figura 4 hay una baja presencia de material fino, lo que demuestra que la escoria presenta características adecuadas para ser utilizada como árido en estabilizaciones de suelo, aun siendo estos mayores que los áridos naturales. Caracterización de la ceniza. Para caracterizar la ceniza se efectuaron los ensayos de humedad, granulometría y el peso específico relativo a las partículas sólidas. Como resultado se obtuvo que la humedad de la ceniza es de 3%, con un peso específico relativo a las partículas sólidas de 2,53g/cm3. En la figura 5 se muestra la distribución granulométrica de la ceniza. Figura 5: Distribución granulométrica de la ceniza Del gráfico de la figura 5 se observa que la ceniza es un material fino ya que el 83% de las partículas pasan por el tamiz No. 4 (4,75mm). Es de esperar que la combinación de ambos materiales propicie un equilibrio en la distribución del tamaño de las partículas. 3. RESULTADOS Y DISCUSIÓN 0 10 20 30 40 50 60 70 80 90 100 0.010.1110100 P as ad o d el t o ta l (% ) Abertura (mm) 6 Luego de analizados los materiales se procede a realizar el ensayo con las mezclas de suelo-ceniza y suelo- escoria, con el objetivo de determinar cual dosificación resulta más favorable para estabilizar e incrementar la capacidad portante del suelo, se emplearon las siguientes combinaciones: 1- 90% suelo natural y 10% de ceniza. 2- 70% suelo natural y 30% de ceniza. 3- 75% suelo natural y 25% de escoria. 4- 65% suelo natural y 35% de escoria. Inicialmente se evaluó el peso específico relativo a las partículas sólidas de todas las mezclas de suelo-aditivo, los resultados se muestran en la figura 6. Figura 6: Peso específico relativo a las partículas sólidas En la figura 6 se aprecia como la incorporación de ceniza disminuye en un 5% el peso específico relativo a los sólidos, mientras que la incorporación de la escoria lo incrementa en 1 y 6% para las muestras con 25 y 35% de escoria respectivamente. Aparentemente, el efecto de la incorporación de aditivos al suelo no tiene un efecto considerable en el peso específico relativo a los sólidos, pero hay que considerar que estos oscilan normalmente en valores de 2,6 a 2,9, por tanto su adición si tiene una implicación considerable para ambos tipos de aditivos. En la figura 7 se muestran las curvas de distribución granulométricas de las muestras de suelo y suelo-aditivo Figura 7: Distribución granulométrica de las dosificaciones 2.69 2.57 2.56 2.74 2.85 2.40 2.50 2.60 2.70 2.80 2.90 Suelo natural Ceniza 10% Ceniza 30% Escoria 25% Escoria 35% G s (g /c m 3 ) Dosificaciones 0 10 20 30 40 50 60 70 80 90 100 0.010.1110100 P as ad o d e l t o ta l ( % ) Abertura (mm) Ceniza 10% Ceniza 30% Suelo Natural Escoria 25% Escoria 35% 7 La uniformidad que se alcanza con las dosificaciones fue medida a través del coeficiente de uniformidad (𝐶𝑢) que está definido por (1) 𝐶𝑢 = 𝐷60 𝐷10 (1) Donde 𝐷60, diámetro de la curva correspondiente al 60% de finos y 𝐷10 diámetro de la curva correspondiente al 10% de finos. En la tabla 1 se resumen los valores de 𝐶𝑢 obtenidos: Tabla 1. Coeficiente de uniformidad Tipo de suelo 𝑫𝟏𝟎 𝑫𝟔𝟎 𝑪𝒖 Suelo natural 0,85 9 11 Ceniza 10% 0,08 5 63 Ceniza 30% 0,15 3,5 23 Escoria 25% 3,5 3,5 1 Escoria 35% 3,5 0,5 0,14 La incorporación de ceniza le brinda al suelo una mejor graduación al suelo (𝐶𝑢 > 6), principalmente en la mezcla con 10% de ceniza, esto se debe a que la ceniza es un material mucho más fino que el suelo natural que es granular y es capaz de llenar los vacíos. La incorporación de escoria, incrementa la cantidad de granos gruesos, dándole al suelo una granulometría más uniforme (𝐶𝑢 < 4). La capilaridad es el fenómeno debido a la tensión superficial que confiere a los fluidos la capacidad de ascender por pequeños canales o canículas capilares formadas por orificios intersticiales del suelo, permitiendo así comprobar la resistencia del suelo. En este trabajo se evaluaron 3 muestras de cada dosificación y luego se promediaron para obtener un valor preciso, en la figura 8 se muestran los resultados obtenidos para la muestra de suelo natural y para las muestras con aditivos. 8 Figura 8. Absorción capilar de las dosificaciones En la figura 8, es evidente que a mayor incorporación de ceniza aumenta la capilaridad del suelo. En el caso de la adición de 10% de cenizas ocurre que para los primeros 5 minutos la ascensión capilar es inferior a la del suelo natural, esto se debe a que durante ese tiempo el agua está cubriendo los espacios que existen entre el suelo y la ceniza y no incrementa la saturación. Este fenómeno se revierte a partir de 15 minutos, llegando a la saturación y a la pérdida de estabilidad del material; lo que se pone de manifiesto en la ausencia de valor de ascensión capilar para 60 minutos, debido a que la muestra se deshizo. En el caso de la adición del 30% de cenizas se observa desde un inicio que comienza a saturarse la combinación de suelo, con valores superiores a los otros ensayados, manteniendo incluso la estabilidad. Las muestras de suelo-ceniza estudiadas comenzaron a fallar a partir de los 45 minutos de iniciado el ensayo, observándose que la que más estable se mantuvo fue la mezcla suelo-ceniza con 30%, que incluso llegó a la altura de ascensión capilar máxima. Mientras que la incorporación de la escoria, disminuye considerablemente la capilaridad en los primeros momentos y le da mayor estabilidad al suelo, llegando a no fallar incluso cuando se alcanzó la altura de ascensión capilar máxima de la muestra con 35% de escoria, esto demuestra que los enlaces que se forman con la adición de escoria son más fuertes. De los resultados obtenidos se puede decir que la incorporación de ceniza no es favorable para la estabilidad ante la ascensión capilar de los suelos, mientras que la escoria si lo es. En la figura 9 se muestran las curvas de compactación para todas las muestras de suelo-aditivo estudiadas en este trabajo. 0 1 2 3 4 5 6 7 8 9 1 2 5 15 30 60 2h 3h 5h 24h A lt u ra ( cm ) Tiempo (min) suelo natural suelo-escoria 25% suelo-escoria 35% suelo-ceniza10% suelo-ceniza30% 9 a) 10% de ceniza b) 30% de ceniza c) 25% de escoria d) 35% de escoria Humedad (%) Figura 9: Curvas de compactación por método Proctor Modificado para las distintas dosificaciones Los resultados de peso específico seco máximo y humedad óptima obtenidos de las figuras 2 y 9 se resumen en la tabla 2 para una mejor interpretación. Tabla 2: Peso específico seco máximo de las mezclas suelo-aditivo Tipo de suelo 𝜸𝒅 𝒎á𝒙 (kN/m3) 𝝎ó𝒑𝒕 (%) Diferencia (%) Suelo Natural 21,8 5,5 - 10% de Ceniza 20,7 6,8 5,05 30% de Ceniza 20,5 11 5,96 25% de Escoria 23,1 5,8 5,63 35% de Escoria 23,7 6 8,02 Los resultados muestran que la incorporación de aditivos no modifica considerablemente la compactación máxima del suelo, destacándose que en el caso de la ceniza disminuye y necesita una cantidad de agua superior para alcanzarla porque tiene mayor contenido de finos. Ante la imposibilidad de realizar el ensayo de CBR se utilizará una expresión empírica de las muchas que existen en la bibliografía. La que más se adecua a este trabajo por los parámetros que emplea es la propuesta por Katte, Mfoyet [27] que según su propio estudio tiene un error del 3% con respecto al CBR medido en laboratorio, es la que se muestra en (2). 𝐶𝐵𝑅 = −61.082 + 60.233 ∙ 𝛾𝑑 𝑚á𝑥 − 2.462 ∙ 𝜔ó𝑝𝑡 (2) 17.00 17.50 18.00 18.50 19.00 19.50 20.00 20.50 21.00 0 2 4 6 8 10 12 14 16 18 20 15.00 16.00 17.00 18.00 19.00 20.00 21.00 0 2 4 6 8 10 12 14 16 18 20 22 24 26 20.00 21.00 22.00 23.00 24.00 0 2 4 6 8 10 12 14 21.00 21.50 22.00 22.50 23.00 23.50 24.00 24.50 0 2 4 6 8 10 12 14 P es o e sp ec íf ic o s ec o m áx im o ( k N /m 3 ) 10 Donde 𝛾𝑑 𝑚á𝑥 es el peso específico seco máximo en g/cm 3 y 𝜔ó𝑝𝑡 es la humedad óptima en %, ambos parámetros obtenidos del ensayo de Próctor Modificado en este caso, los resultados obtenidos por la aplicación de esta expresión y usando la información brindada en la tabla 2 se muestran en la tabla 3. Tabla 3: Valores de CBR Tipo de suelo CBR Suelo Natural 56,68 10% de Ceniza 46,86 30% de Ceniza 35,31 25% de Escoria 63,78 35% de Escoria 66,90 Los resultados muestran que el uso de la ceniza de bagazo de caña como aditivo no es favorable pues el valor de CBR decrece entre más ceniza se incorpore, llegando a decrecer en un 38% para la muestra con 30% de ceniza, esto se debe a que la ceniza posee peso un específico menor al del suelo natural. Mientras que la incorporación de escoria si es favorable, con incrementos del 11 y el 15% del valor de CBR para las muestras con 25% y 35% de escoria respectivamente. Desde un punto de vista económico resulta más favorable la muestra con 25% de escoria con respecto a la de 35%, debido a que en esta última el incremento no es tan considerable en términos relativos. 4. CONCLUSIONES Los resultados de este trabajo confirman que la adición de aditivos a los suelos modifica sus propiedades físico- mecánicas. La adición de ceniza no resulta favorable de manera general para ninguna de las dos dosificaciones empleadas, debido a que aumenta la absorción capilar de los suelos y esto conlleva a un colapso más rápido de las muestras, disminuye el peso específico seco máximo y también el valor de CBR, por tanto, afecta la capacidad portante del suelo con respecto a las muestras de suelo natural sin mezclar con aditivos, sólo aportó al suelo natural una distribución granulométrica más graduada. En el caso de la adición de escoria los resultados mostraron un comportamiento completamente diferente, dotando al suelo de una considerable mayor resistencia a la capilaridad. También resultó beneficiado el valor de peso específico seco máximo, y de forma considerable el de CBR con incrementos de un 11 y 15% del valor de CBR para las muestras con 25% y 35% de escoria respectivamente, dotando al suelo de una mayor capacidad portante. BIBLIOGRAFÍA 1. Ñañez, E.A.C., E.D.R. Lafitte, and S.P.M. Pérez, Métodos de estabilización de suelos arcillosos para mejorar el cbr con fines de pavimentación: Una revisión literaria. Suelos Ecuatoriales, 2021. 51(1y2): p. 77-92. 2. Sandoval, C.H.H., J.C.G. Cristancho, and Ó.E.P. Naranjo, Caracterización de un suelo arcilloso tratado con hidróxido de calcio. Facultad de Ingeniería, 2012. 21(32): p. 21-40. 3. Angulo Roldan, D. and H.F. Rojas Escajadillo, Ensayo de fiabilidad con aditivo PROES para la estabilización del suelo en el AA. HH. El Milagro, 2016. 2016. 4. Athira, T. and T.J.I.J.o.E.R. Sini, Effect of bagasse ash on strength characteristics and index properties of kaolinite clay. International Journal of Engineering Research Technology, 2019. 8(6): p. 1273-1275. 5. Buddhdev, B.G. and M. Chauhan. Experimental Studies on Utilization of Blast Furnace Slag for Cohesionless Soil. in Proceedings of the Indian Geotechnical Conference 2019. 2021. Springer. 6. Carlina, M., Y. Apriyanti, and F. Fahriani. The Effect of Addition of Bagasse Ash and Eggshell Powder on CBR Value of Clay Soil. in IOP Conference Series: Earth and Environmental Science. 2021. IOP Publishing. 7. Meena, P., J. Sharma, and B. Acharya. Effect of Ground Granulated Blast Furnace Slag and Fly Ash on 11 Geotechnical Properties of Expansive Soil. in Proceedings of the Indian Geotechnical Conference 2019. 2021. Springer. 8. Sas, W., et al., Geotechnical and Environmental Assessment of Blast Furnace Slag for Engineering Applications. Materials, 2021. 14(20): p. 6029. 9. Dang, L.C., H. Khabbaz, and B.-J. Ni, Improving engineering characteristics of expansive soils using industry waste as a sustainable application for reuse of bagasse ash. Transportation Geotechnics, 2021. 31: p. 100637. 10. Hidalgo, F., et al. Stabilization of clayey soil for subgrade using rice husk ash (RHA) and sugarcane bagasse ash (SCBA). in IOP Conference Series: Materials science and engineering. 2020. IOP Publishing. 11. Dang, L. and H. Khabbaz, Assessment of the geotechnical and microstructural characteristics of lime stabilised expansive soil with bagasse ash. GeoEdmonton, 2018. 12. Anupam, A.K., P. Kumar, and G. Ransinchung, Use of various agricultural and industrial waste materials in road construction. Procedia-Social Behavioral Sciences, 2013. 104: p. 264-273. 13. Akinbinu, V.A., et al., Utilization of calcium rich mine wastes and bone ash for the improvement of California Bearing Ratio (CBR) of soft soil. International Journal of Mining Geo-Engineering, 2022. 56(2): p. 115-123. 14. Abdila, S.R., et al., Potential of soil stabilization using ground granulated blast furnace slag (GGBFS) and fly ash via geopolymerization method: A Review. Materials, 2022. 15(1): p. 375. 15. Wattez, T., et al., Interactions between alkali-activated ground granulated blastfurnace slag and organic matter in soil stabilization/solidification. Transportation Geotechnics, 2021. 26: p. 100412. 16. Thomas, A., R. Tripathi, and L. Yadu, A laboratory investigation of soil stabilization using enzyme and alkali-activated ground granulated blast-furnace slag. Arabian Journal for Science Engineering, 2018. 43(10): p. 5193-5202. 17. He, J., et al., Shear strength of stabilized clay treated with soda residue and ground granulated blast furnace slag. Journal of Materials in Civil Engineering, 2019. 31(3): p. 06018029. 18. He, J., et al., Strength properties of dredged soil at high water content treated with soda residue, carbide slag, and ground granulated blast furnace slag. ConstructionBuilding Materials, 2020. 242: p. 118126. 19. García, M.Á.O., S.B.C. Pabón, and L.M.J. Sicachá, Mejoramiento de subrasantes de tipo arcilloso mediante la adición de escoria de acero. Revista de Investigación Desarrollo e Innovación: RIDI, 2020. 11(1): p. 185-196. 20. NC-67, Geotecnia. Determinacion del contenido de humedad de los suelos y rocas en el laboratorio. 2000, Oficina Nacional de Normalización (NC): Ciudad de La Habana. p. 22. 21. NC-58, Geotecnia. Determinacion del limite liquido, limite plastico e indice de plasticidad de los suelos. 2000, Oficina Nacional de Normalización (NC): Ciudad de La Habana. p. 22. 22. NC-19, Geotecnia. Determinacion del peso especifico de los suelos. 1999, Oficina Nacional de Normalización (NC): Ciudad de La Habana. p. 22. 23. NC-20, Geotecnia. Determinacion de la granulometria de los suelos. 1999, Oficina Nacional de Normalización (NC): Ciudad de La Habana. p. 22. 24. NC-59, Geotecnia. Clasificacion geotecnica de los suelos. 2000, Oficina Nacional de Normalización (NC): Ciudad de La Habana. p. 22. 25. Das, B.M. and N. Sivakugan, Principles of Foundation Engineering. 9th ed. 2019, 20 Channel Center Street, Boston, MA 02210, USA: Cengage Learning, Inc. 884. 26. ASTM, Geotecnia. Método de ensayo para la determinación de las características de compactación del suelo en el laboratorio, in D. 1998: EE.UU. 27. Katte, V.Y., et al., Correlation of California bearing ratio (CBR) value with soil properties of road subgrade soil. Geotechnical Geological Engineering, 2019. 37(1): p. 217-234. APLICACIÓN DE HERRAMIENTAS DE LA CONFIABILIDAD OPERACIONAL EN LA EVALUACIÓN DE EDIFICIOS Liyen Pérez Quiñones1, Marietta Llanes Pérez2, Alejandro López Llanusa3 123Universidad Tecnológica de La Habana “José Antonio Echeverría”, Calle 114, #11901, e/ Ciclovía y Rotonda, Marianao. La Habana. Cuba 1liyenpq@civil.cujae.edu.cu RESUMEN Como parte de la investigación sobre el empleo de herramientas de la Confiabilidad operacional para la evaluación técnica constructiva de edificios y después de realizar la primera iteración en el ajuste del Análisis de criticidad, la Técnica de Pareto y el Método de los impactos, fue necesario estudiar la viabilidad de aplicación en el patrimonio construido. Para el empleo de estas herramientas se identificaron los sistemas componentes de los edificios a evaluar y se realizó el levantamiento de los deterioros a través de inspecciones organolépticas a cada uno de los elementos constituyentes. Estos métodos ajustados fueron aplicados al sistema, estructural, no estructural e hidrosanitario de los pabellones Manuel Valle, José Antonio Echeverría y Rubén Martínez Villena del Hospital Dr. Salvador Allende. Una vez aplicadas estas herramientas, se realizó la caracterización de cada una por tipo de sistemas en los edificios, de lo que resultó, que el Análisis de criticidad se ajusta mejor al sistema estructural, el Método de los impactos al sistema no estructural y la Técnica de Pareto al sistema hidrosanitario. PALABRAS CLAVES: aplicación, Análisis de criticidad, Técnica de Pareto, Método de los impactos, caracterización APPLICATION OF OPERATIONAL RELIABILITY TOOLS IN THE ASSESSMENT OF BUILDINGS ABSTRACT As part of the research on the use of operational reliability tools for the construction technical evaluation of buildings and after carrying out the first iteration in the adjustment of the Análisis de criticidad, the Técnica de Pareto and the Método de los impactos, it was necessary to study the feasibility of application in built heritage. For the use of these tools, the component systems of the buildings to be evaluated were identified and the deterioration was surveyed through organoleptic inspections of each of the constituent elements. These adjusted methods were applied to the structural, non-structural and hydrosanitary system of the Manuel Valle, José Antonio Echeverría and Rubén Martínez Villena pavilions of the Hospital Dr. Salvador Allende. Once these tools were applied, the characterization of each one by type of system in the buildings was carried out, from which it turned out that the Análisis de criticidad is better adjusted to the structural system, the Método de los impactos to the non-structural system and the Técnica de Pareto to the hydrosanitary system. KEY WORDS: application, Criticality analysis, Pareto technique, Impact method, characterization 1. INTRODUCCIÓN La Confiabilidad operacional, como proceso de mejora continua, no ha sido utilizada para la evaluación del patrimonio construido, a pesar de incorporar en forma sistemática, avanzadas herramientas de diagnóstico, metodologías de análisis y nuevas tecnologías, para optimizar la gestión, planeación, ejecución y control del mantenimiento [1]. Estas herramientas resultan muy útiles para determinar el estado más o menos crítico de cualquier sistema, incluso pueden ser aplicadas a elementos tan simples como se requiera [2] [3]. El Análisis de criticidad, la Técnica de Pareto y el Método de los impactos son herramientas de la Confiabilidad operacional que se proponen para la evaluación técnica del patrimonio construido [4] [5]. Estas son aplicables para determinar el nivel de criticidad que presenta cada deterioro detectado en la edificación, indicador que es cuantificable y por tanto, establece jerarquía en las lesiones, lo que permite el análisis de cada sistema a partir de la frecuencia, el impacto y la detectabilidad de los deterioros. El estudio se realiza en el hospital Clínico Quirúrgico ‘’Dr. Salvador Allende’’, conocido por Quinta La Covadonga. Este conjunto hospitalario fue construido por inmigrantes españoles para la población de mayores recursos económicos. Las edificaciones datan de finales del siglo XIX y principios del XX, y aunque no todas sus construcciones iniciales llegaron al día de hoy, algunas fueron reconstruidas antes de 1930 [6]. El hospital se caracteriza por estar formado por pabellones, que generalmente se diferencian dependiendo de las funciones que en ellos se realiza, aunque existe uniformidad arquitectónica y constructiva en todo el conjunto, y los pabellones son considerados de valor patrimonial. El tiempo de explotación que presenta el hospital, unido a otros factores, ha provocado afectaciones en el estado técnico constructivo en unos pabellones más que en otros, trayendo consigo el deterioro de elementos estructurales, no estructurales y redes hidrosanitarias, así como también la afectación funcional de muchos locales. En este trabajo se realizará la evaluación técnica constructiva de tres edificios con similares características y estado constructivo, los pabellones “Manuel Valle”, “José Antonio Echeverría” y “Rubén Martínez Villena”. Para la aplicación de las herramientas ajustadas de la Confiabilidad operacional, se analizaron los sistemas componentes de los edificios de forma individual. 2. IDENTIFICACIÓN Y CARACTERIZACIÓN DE LOS SISTEMAS COMPONENTES Sistema estructural El sistema constructivo existente en los tres pabellones, es el sistema tradicional, con muros de carga de ladrillos, un portal aporticado con columnas de hormigón armado, y losa de cubierta del mismo material. Ningún elemento estructural se encuentra oculto. El sistema estructural se ha dividido en subsistemas para la mejor comprensión y manejo de la información, estos son: cimentación, losas de cubierta, vigas, muros de carga, columnas y escaleras. El sótano no se analizará por estar restringidas ciertas áreas para su reconocimiento. Se desconoce el tipo de cimentación existente en los pabellones, pero su evaluación se realizará teniendo en cuenta el comportamiento de la superestructura. En los tres pabellones la cubierta está resuelta con losas planas de hormigón armado con barras de acero, trabajando en una dirección (ver Figura 1). Las vigas están conformadas por dos perfiles I de acero que soportan ladrillos hasta la unión con la losa de cubierta en todo el borde de la edificación y poseen un peralto de 0,50 m. Los muros de carga fueron construidos con ladrillos cerámicos colocados a citarón. Los edificios cuentan con dos tipos de columnas, circulares con un diámetro de 0,47 m y cuadradas de 0,53 m de lado, en ambos casos, de hormigón armado con barras de acero y con 5,10 m de altura como se muestra en la Figura 2, ubicadas en los portales rodeando cada edificación. Existe diversidad de escaleras entre los pabellones, pero solo se analizarán las que proporcionan el acceso a la cubierta y a la entrada principal en la planta baja de estos. El edificio Rubén Martínez Villena posee una escalera de barco de metal y los pabellones Manuel Valle y José Antonio Echeverría escaleras de caracol de hormigón armado que permiten el acceso a la cubierta tal como se muestra en la Figura 3. Figura 1. Losa de hormigón armado Figura 2. Columnas Figura 3. Escalera de caracol Sistema no estructural El sistema de impermeabilización en los tres edificios está constituido por mantas asfálticas colocadas sobre el sistema de enrajonado y soladura, sistema original de los pabellones. En el caso del pabellón José A. Echeverría, la protección del impermeable es con láminas de aluminio y en el Manuel Valle y Rubén Martínez Villena la manta está protegida con gránulos minerales. La carpintería está resuelta con madera y vidrio, tanto la interior como la exterior de puertas y ventanas en los tres pabellones. Los tabiques están construidos con ladrillos alicatados y recubiertos con yeso, y en las zonas intervenidas con repello fino. El acabado está constituido por varias capas de pintura base agua. Además, existen enchapes en las partes bajas y en zonas húmedas de muros y tabiques, generalmente aparece la cerámica como solución para este tipo de terminación. En las soluciones de pisos de los pabellones todavía existen mosaicos originales de la época de construcción y en áreas intervenidas se recurrió a las losas de porcelanato y mármol para la terminación de los pisos. Figura 4. Manta asfáltica con gránulos Figura 5. Carpintería Figura 6. Pisos de porcelanato Sistema hidrosanitario El hospital cuenta con cisternas encargadas de la reserva para el abastecimiento de agua de todas las áreas, el bombeo se realiza de forma centralizada, por lo que los pabellones no cuentan con sistema de bombeo, solo con tuberías de impulsión para el llenado de los tanques elevados. Estos depósitos de compensación se encuentran en las cubiertas de los pabellones para garantizar el suministro por gravedad (Figura 7). En los tres pabellones el sistema de distribución se encuentra sobre la cubierta para alimentar las columnas descendentes. Los materiales varían desde acero galvanizado hasta polímeros, empleados indistintamente en los sistemas de abastecimiento. Las áreas húmedas de los pabellones están constituidas por baños y un pantry. Dentro de los baños existen, lavamanos sobre encimera, vertederos, inodoros (Figura 8) y pocetas para duchas. Los pabellones Rubén Martínez Villena y Manuel Valle cuentan con fregadero en los pantrys. El sistema de evacuación de las aguas, de lluvia y de desbordamiento de los tanques elevados, es a través de bajantes pluviales como se muestra en la Figura 9, que se conectan al alcantarillado pluvial del hospital para los tres casos de estudio. Figura 7. Distribuidor y tanques elevados Figura 8. Inodoro integral Figura 9. Bajantes pluviales 3. LEVANTAMIENTO DE DETERIOROS EN LOS PABELLONES El levantamiento de deterioros se realizó a partir de inspecciones organolépticas y sobre la base de la consulta a bibliografía especializada en la temática. Estas inspecciones se realizaron de forma reiterada en cada una de las cubiertas, fachadas y locales objetos de evaluación. Se utilizaron durante las revisiones sencillos instrumentos de medición y se plasmó en las fotografías tomadas, las condiciones en que se encontraban los elementos inspeccionados. Para simplificar la recogida y procesamiento de datos, se creó un código identificativo para los deterioros de cada sistema a evaluar. En los tres pabellones se observaron similares deterioros en los sistemas inspeccionados, para un total de 125 lesiones, 37 identificadas en el Pabellón Manuel Valle, en el Pabellón José Antonio Echeverría 48 y se registraron 40 lesiones en el Pabellón Rubén Martínez Villena. Estas se presentan en la Tabla 1, organizadas por sistemas y pabellones. Los códigos generados están conformados por la letra inicial del elemento o sistema a evaluar y el número de identificación del deterioro como se muestra a continuación. Tabla 1. Deterioros identificados por sistemas en cada edificio S is te m a s Deterioros C ó d ig o Pabellones M a n u el V a ll e J o sé A . E ch ev er rí a R u b én M a rt ín ez V il le n a S is te m a e st r u ct u ra l Grietas verticales y transversales C-01 x x Eflorescencias C-02 x Pérdida del recubrimiento y exposición del acero de refuerzo C-03 x Abofamientos L-01 x Manchas de humedad L-02 x x Filtraciones L-03 x Pérdida del recubrimiento y exposición del acero de refuerzo L-04 x Grietas y fisuras V-01 x Abofamientos M-01 x Repicado en muro M-02 x Manchas de humedad M-03 x x x Filtraciones M-04 x Eflorescencia M-05 x x Grieta vertical M-06 x Vida vegetal M-07 x Pérdida del recubrimiento y exposición del acero de refuerzo E-01 x x Manchas de humedad E-02 x Objeto metálico incorporado a la escalera sin razón aparente E-03 x Grietas y fisuras E-04 x Ausencia de escalón E-05 x Ausencia de baranda E-06 x S is te m a n o e st r u ct u ra l Presencia de humedades, moho y encharcamiento SI-01 x x Presencia de vegetación SI-02 x x x Deficiente adherencia en los bordes de la manta asfáltica SI-04 x x x Embolsamiento de agua y/o aire SI-05 x Deficiencia en los encuentros con elementos verticales SI-06 x x x Acumulación de desechos, materiales y escombros sobre la manta asfáltica SI-18 x x x Presencia de objetos punzantes sobre la manta asfáltica SI-20 x x Pliegues en la manta asfáltica SI-21 x x x Grietas en manta asfáltica SI-22 x x Desprendimiento de juntas de mortero SI-23 x x Pérdida, desprendimiento, rotura o erosión de las losas de barro SI-24 x x x Presencia de vegetación en juntas entre losas de barro SI-25 x x Abofamientos o desconchados T-03 x x x Manchas de humedad T-04 x x x Crecimiento de vegetación T-05 x Manchas en revestimientos cerámicos T-10 x x x Pérdida, rotura o desprendimiento de revestimientos cerámicos T-11 x x x Descascarillado de madera CP-01 x x Rotura del vidrio CP-04 x x Ausencia de cerradura CP-05 x Losas desprendidas, despuntadas, rajadas y/o rayadas P-04 x x Manchas en losas P-06 x x x S is te m a h id ro sa n it a ri o Tanques sin tapa IH-01 x Desbordamientos de depósitos de agua IH-02 x x Tanques mal tapados IH-03 x Fugas entre tuberías y accesorios IH-05 x Ducha con salidero IH-06 x x Ducha sin brazo y cabezal IH-07 x x x Grifo con salidero IH-08 x x x Ausencia de grifo IH-09 x x x Tuberías mal apoyadas IH-10 x x Tuberías pandeadas IH-11 x Caudal deficiente IH-12 x Accesorios averiados IH-13 x Ausencia de rejillas en vertederos, pocetas y pisos IS-01 x x x Ausencia de latiguillo IS-02 x x x Inodoro sin herrajes IS-03 x Inodoro sin tanque IS-04 x Ausencia de inodoro IS-05 x Fallo de juntas y uniones IS-06 x x Tragantes obstruidos IS-08 x Envejecimiento de tuberías IS-09 x x Ausencia de lavamanos IS-10 x Rotura en tuberías IS-12 x Bajantes sin globos protectores IP-01 x x x Obstrucción de bajantes IP-02 x x x Diámetros insuficientes de bajantes IP-03 x Fallo de junta en red de evacuación pluvial IP-04 x x 4. APLICACIÓN DE LAS HERRAMIENTAS AJUSTADAS En el estudio se decidió aplicar las tres herramientas a cada uno de los sistemas componentes de los edificios seleccionados, con el objetivo de determinar qué método resulta más efectivo para la aplicación en cada tipo de sistema. A continuación se muestran los resultados obtenidos con cada uno de los métodos en el total de sistemas analizados. Análisis de criticidad En la aplicación de la herramienta Análisis de criticidad, se determinaron los índices de frecuencia, impacto y detectabilidad para determinar el índice de criticidad. Como resultado de este análisis se tuvo que el deterioro de mayor criticidad, del total analizados en los tres pabellones, fue el IH-02 (Figura 10) con un índice de criticidad igual a ocho. La jerarquización de los deterioros por sistemas analizados dio como resultados que en el edificio Manuel Valle los deterioros que se destacan por su índice de criticidad fueron “Manchas de humedad” en muros y escaleras, E-03 “Objeto metálico incorporado a la escalera sin razón aparente”. Es válido destacar que aunque resultan los deterioros de mayor índice de criticidad dentro del sistema estructural de este pabellón, su valor es cuatro, por lo que en ninguno de estos casos se acerca al valor máximo de este índice. Los deterioros con mayores índices de criticidad en el sistema no estructural e hidrosanitario en este edificio fueron P-04 (Figura 11), IS-06 “Fallo de juntas y uniones” e IS-12 (Figura 12) en la red sanitaria e IP-01 “Bajantes sin globos protectores” en la red pluvial. Además se realizó el análisis, dentro de este método por la matriz patrón para cada pabellón, con lo cual se determinaron los niveles de criticidad de los deterioros identificados en cada edificio (ver Figuras 13, 14 y 15). La evaluación en el Pabellón Manuel Valle a través de la herramienta análisis de criticidad, arrojó, que tres de los deterioros presentan alta criticidad, lo que representa el 8,1%. Estos deterioros fueron identificados en el sistema no estructural e hidrosanitario, específicamente en los pisos y en la instalación sanitaria. El estado de deterioro de las losas de piso, conllevó a esta clasificación de la lesión “Losas desprendidas, despuntadas, rajadas y/o rayadas”, identificada como P-04. Las lesiones IS-06 “Fallo de juntas y uniones” e IS-12 “Rotura en tuberías” fueron clasificadas de alto nivel de criticidad, fundamentalmente, por el impacto que genera su existencia en el edificio. En las celdas correspondientes a media criticidad se localizaron 13 deterioros, para un 35,1%; y presentan baja criticidad 21 de los deterioros identificados, lo que constituye el 56,8%. El Pabellón José Antonio Echeverría, con el mayor número de deterioros de los tres edificios, presentó el 6,3% de lesiones con alta criticidad, correspondiéndose este valor a las lesiones L-02 “Manchas de humedad” en la losa estructural, IH-05 “Fugas entre tuberías y accesorios” en la instalación hidráulica e IS- 06 “Fallo de juntas y uniones” de la red sanitaria. Otros 17 deterioros se posicionaron en las celdas de nivel medio de criticidad y 28, obtuvieron clasificación de baja criticidad. Solo una lesión con alto nivel de criticidad se identificó en el Pabellón Rubén Martínez Villena, P-04 “Losas desprendidas, despuntadas, rajadas y/o rayadas”, perteneciente al subsistema pisos. Como media criticidad, aparecen 13 deterioros y 26 se clasifican con bajo nivel de criticidad. Figura 10. Desbordamiento de depósitos de agua Figura 11. Losas desprendidas, despuntadas, rajadas y/o rayadas Figura 12. Rotura en tuberías Matriz de criticidad Índice de Impacto 1 2 3 Índice de Frecuencia 3 C-01; L-01; E-01; CP-01; IP-01; IP-02 P-04 2 M-01; M-02; E-03; SI-06; SI-24; T-03; T- 10; IS-01; IS-02; IS-09 M-03; E-02; T-04; T-11; IH-13 IS-06; IS-12 1 SI-02; SI-04; SI-18, SI-21; SI-22; SI-23; P-06; IH-07; IH-09; IS-04; IS-08 IH-06; IH-08 Niveles de criticidad A= 3 (8.1%) M= 13 (35.1%) B= 21 (56.8%) Figura 13. Matriz de criticidad del Pabellón Manuel Valle Matriz de criticidad Índice de Impacto 1 2 3 Índice de Frecuencia 3 V-01; CP-01; P-06; IP-01 L-02 2 C-01; M-06; E-01; E-04; E-06; SI- 21; SI-22; T-03; T-10; IS-01; IS-02; IS-09; IP-02 C-02; L-03; M-04; M- 05; E-05; SI-01; T-04; T-11; IH-02; IH-06 1 SI-02; SI-04; SI-05; SI-06; SI-18; SI- 20; SI-23; SI-24; SI-25; IH-01; IH- 07; IH-09; IH-10; IS-03; IP-04 M-03; CP-04; IH-08 IH-05; IS- 06 Niveles de criticidad A= 3 (6.3%) M= 17 (35.4%) B= 28 (58.3%) Figura 14. Matriz de criticidad del Pabellón José A. Echeverría Matriz de criticidad Índice de Impacto 1 2 3 Índice de Frecuencia 3 C-03; CP-05; IP-01 P-04 2 L-04; M-07; SI-06; SI-20; SI-24; T-03; IH-10; IH-12; IS-01; IS-02 L-02; M-03; M-05; T-04 1 SI-02; SI-04; SI-18; SI-21; SI-25; T-05; T-10; P-06; IH-03; IH-07; IH-09; IH-11; IS-05; IS-10; IP-02; IP-04 SI-01; T-11; CP- 04; IH-02; IH-08; IP-03 Niveles de criticidad A= 1 (2.5%) M= 13 (32.5%) B= 26 (65%) Figura 15. Matriz de criticidad del Pabellón Rubén Martínez Villena Técnica de Pareto En la aplicación de la herramienta se realizó el análisis por la frecuencia de ocurrencia de los deterioros identificados y por el impacto que ellos generan en el edificio, por lo que se obtienen dos clasificaciones para una misma lesión y se tomó como criterio seleccionar la categoría de mayor criticidad. Se debe puntualizar que esta herramienta arroja tres categorías A, B y C, pero para el análisis y comparación con el resto de herramientas se propone homologar la categoría A al nivel Alto de criticidad (A), B al nivel medio de criticidad (M) y C al nivel bajo de criticidad (B). En el Pabellón Manuel Valle, los ocho deterioros identificados en el sistema estructural presentan alto nivel de criticidad según la técnica de Pareto, lo que representa el 100%. Más del 67% de los deterioros identificados en el sistema no estructural de este edificio, clasificaron como alta criticidad y en el caso del sistema hidrosanitario, 9 de los 14 deterioros existentes, presentan clasificación alta criticidad. Los resultados arrojados, para el Pabellón José Antonio Echeverría, a través de esta herramienta, fueron: 11 deterioros con alta criticidad en el sistema estructural, deterioros del sistema no estructural con clasificación alta criticidad, 13, y en el sistema hidrosanitario 10 de los 16 deterioros identificados presentaron criticidad alta. En el Pabellón Rubén Martínez Villena, los porcientos de deterioros clasificados con alta criticidad a partir del análisis de la técnica de Pareto también resultan elevados, comportándose de la siguiente forma: en el sistema estructural 83% de los deterioros, en el sistema no estructural se obtuvo el 72% y en el sistema hidrosanitario 81% del total identificados. Método de los impactos Con el análisis de los parámetros técnicos, económicos y funcionales del método de los impactos, fueron pocos los deterioros que obtuvieron la clasificación de alta criticidad, predominando aquellos clasificados con el nivel medio. En el pabellón Manuel Valle, seis de los deterioros identificados en el sistema estructural, obtuvieron media criticidad de un total de ocho, mientras que en el sistema no estructural nueve se clasificaron en esta categoría y seis con baja criticidad. Media criticidad también obtuvo 12 de los 14 deterioros identificados en el sistema hidrosanitario. En el sistema estructural del Pabellón José Antonio Echeverría, la clasificación estuvo distribuida de la siguiente forma: cuatro deterioros con alta criticidad, ocho con media criticidad y cuatro con baja criticidad. En el sistema no estructural 11 de las 19 lesiones, clasificaron con media criticidad y ocho con baja criticidad. Mientras que en el sistema hidrosanitario, predominó la clasificación de media criticidad en 12 de los 16 deterioros identificados y el resto se mantuvo con baja criticidad. En el Pabellón Rubén Martínez Villena ningún deterioro fue clasificado con alta criticidad a partir del análisis con este método. Media criticidad obtuvo cinco deterioros del sistema estructural de los seis identificados, 13 de los 18 encontrados en el sistema no estructural y en el hidrosanitario nueve de un total de 16 deterioros también se clasificaron en esta categoría. El resto de los deterioros encontrados en el edificio tienen baja criticidad. Después de realizar el análisis aplicando las tres herramientas se construyó la Tabla 2 para determinar la disparidad entre los métodos, lo que ofrece una visión sobre la factibilidad de los métodos comparando entre ellos. Tabla 2. Niveles de criticidad de los deterioros a partir de cada método aplicado Pabellón Manuel Valle Pabellón José A. Echeverría Pabellón Rubén Martínez Villena D et er io ro s (C ó d ig o ) A n á li si s d e cr it ic id a d T éc n ic a d e P a re to M ét o d o d e lo s im p a ct o s D et er io ro s (C ó d ig o ) A n á li si s d e cr it ic id a d T éc n ic a d e P a re to M ét o d o d e lo s im p a ct o s D et er io ro s (C ó d ig o ) A n á li si s d e cr it ic id a d T éc n ic a d e P a re to M ét o d o d e lo s im p a ct o s C-01 M A B C-01 B A A C-03 M A M L-01 M A M C-02 M A M L-02 M A M M-01 B A M L-02 A A M L-04 B A M M-02 B A M L-03 M A A M-03 M A M M-03 M A M V-01 M A B M-05 M A M E-01 M A M M-03 M A M M-07 B B B E-02 M A M M-04 M A M SI-01 M A M E-03 B A B M-05 M A M SI-02 B M M SI-02 B B M M-06 B A A SI-04 B A M SI-04 B A M E-01 B A M SI-06 B A M SI-06 B A M E-04 B M A SI-18 B A B SI-18 B A B E-05 M A M SI-20 B A B SI-21 B A M E-06 B M M SI-21 B A M SI-22 B A A SI-01 M A M SI-24 B A M SI-23 B A B SI-02 B M M SI-25 B B M SI-24 B A M SI-04 B A M T-03 B A M T-03 B M M SI-05 B A B T-04 M A M T-04 M A M SI-06 B A M T-05 B M B T-10 B M B SI-18 B A B T-10 B M B T-11 M A M SI-20 B M B T-11 M A M CP-01 M M B SI-21 B A M CP-04 M A M P-04 A A M SI-22 B A A CP-05 M A M P-06 B B B SI-23 B A B P-04 A A M IH-06 M A M SI-24 B A M P-06 B M B IH-07 B M M SI-25 B B M IH-02 M A M IH-08 M A M T-03 B A M IH-03 B A B IH-09 B M M T-04 M A M IH-07 B A M IH-13 M A M T-10 B M B IH-08 M A M IS-01 B M B T-11 M A M IH-09 B A M IS-02 B M M CP-01 M M B IH-10 B A B IS-04 B M M CP-04 M A M IH-11 B M B IS-06 A A M P-06 M M B IH-12 B A M IS-08 B A M IH-01 B B B IS-01 B M B IS-09 B A M IH-02 M A M IS-02 B M M IS-12 A A M IH-05 A A M IS-05 B A B IP-01 M A B IH-06 M A M IS-10 B A B IP-02 M A M IH-07 B A M IP-01 M A B IH-08 M A M IP-02 B A M IH-09 B M M IP-03 M A M IH-10 B B B IP-04 B A M IS-01 B M B IS-02 B M M IS-03 B M M IS-06 A A M IS-09 B A M IP-01 M A B IP-02 B A M IP-04 B A M 5. CARACTERIZACIÓN DE LAS HERRAMIENTAS AJUSTADAS Durante la aplicación de las herramientas, se identificaron aspectos no positivos que interferían o complejizaban el análisis en determinados sistemas del edificio, por lo que se realizó la caracterización de cada uno de los métodos desde la aplicación a los sistemas estudiados. Esta caracterización se realizó sobre la base del análisis de los resultados obtenidos y la realidad de los deterioros identificada en las inspecciones; además, se realizó una encuesta a los estudiantes que estuvieron a cargo de la aplicación de las herramientas en cada tipo de sistema, como investigación para su Trabajo de Diploma dirigidos por la autora, ya que no existen especialistas que hayan empleado estas herramientas para la evaluación de edificios. Para dicha caracterización se diseñó un muestreo no probabilístico, a partir del juicio del responsable de la investigación. Variables Facilidad de comprensión Nivel de conocimiento para la aplicación Nivel de incompatibilidad con los datos Dificultad para la categorización de los datos Nivel de complejidad en la aplicación Nivel de laboriosidad en el procesamiento de los datos Limitaciones en los resultados de las herramientas Facilidad para interpretar los resultados Irrelevancia de los resultados El análisis para determinar cuál de las herramientas aplicadas es la más viable, se realiza a través de la media aritmética, para determinar el promedio en los valores de conveniencia. Las escalas se enmarcaron entre 0 y 10, desde lo más fácil y simple a lo más difícil y complejo, por tanto, a medida que la media aritmética de las variables disminuya su valor, resultará más conveniente para el sistema analizado, en cambio, será menos conveniente en la medida que aumenta su valor. A partir del análisis de la conveniencia de aplicación de las herramientas ajustadas se pudo concluir que para el sistema estructural, el Análisis de criticidad es el método más conveniente con media aritmética de 4,8 (ver Figura 16), pues para la estudiante resultó más fácil para entender, con menor dificultad para la categorización de los datos, con menores limitaciones en el resultado y mayor facilidad para su interpretación, con respecto a las otras herramientas. Figura 16. Gráfico de conveniencia para el sistema estructural El Método de los Impactos resultó ser la herramienta más conveniente para el sistema no estructural con una media aritmética de 3,33, a consideración del estudiante a cargo de este sistema (ver Figura 17). Fue el método de mayor facilidad de comprensión, el que requiere menos preparación previa a su aplicación, poca incompatibilidad con los datos tomados en las inspecciones, menor nivel de complejidad, menos laborioso, el que más alcance ofrece en sus resultados, siendo estos, fáciles de interpretar. Figura 17. Gráfico de conveniencia para el sistema no estructural La herramienta más conveniente para el sistema hidrosanitario resultó ser la Técnica de Pareto con una media de 4,3, pues según el estudiante, al procesar los datos, este método contó con mayor facilidad de comprensión, requirió menos preparación previa a su aplicación, poca incompatibilidad con los datos tomados en las inspecciones, menor nivel de complejidad, menos laborioso, más alcance ofrece en sus resultados, siendo estos fáciles de interpretar el gráfico se muestra en la Figura 18. Figura 18. Gráfico de conveniencia para el sistema hidrosanitario Por otra parte se realizó el análisis comparativo de los resultados de aplicación de las herramientas, que para el sistema estructural, el mayor porciento de coincidencia, lo tuvieron el Análisis de criticidad y el Método de los impactos, lo que llevó a la decisión de seleccionar el Análisis de criticidad que permite la jerarquización y la clasificación por niveles de criticidad, además de los resultados de la encuesta realizada a la estudiante encargada de este sistema. En el sistema no estructural, las herramientas Análisis de criticidad y el Método de los impactos, también resultaron los de mayor porcentaje de coincidencia. En este caso se decidió por el Método de los impactos, pues resulta menos trabajoso y válido para este tipo de sistema, además de los criterios evaluados en la encuesta al estudiante sobre las herramientas. Las herramientas que contaron con mayor porciento de coincidencia en el sistema hidrosanitario fueron el Análisis de criticidad y el Método de los impactos, pero se considera pertinente la Técnica de Pareto, a partir de la aplicación, los criterios otorgados por el estudiante encuestado y las características de las lesiones en este sistema, que para la mayoría, la frecuencia de ocurrencia puede ser determinada por conteo; además, según esta técnica los deterioros con categoría A (alta criticidad) representan alrededor del 20% de las causas que provocan el 80% de los mayores impactos. 6. CONCLUSIONES Las herramientas aplicadas para la evaluación de los sistemas componentes de edificios resultan de gran valor para la toma de decisiones. Estas analizan parámetros, no solo de índole constructivo, sino funcionales, económicos, sanitarios y medioambientales, no obstante, por ser la primera vez que se emplean en este sector, se considera oportuno continuar el estudio en el ajuste, de forma que garantice la mayor precisión posible en los resultados. Sobre los autores Ing. Liyen Pérez Quiñones, Universidad Tecnológica de La Habana, Cujae. Profesora Asistente. Dra. C.T. Ing. Marietta Llanes Pérez, Universidad Tecnológica de La Habana, Cujae. Jefa de Carrera de Ingeniería Civil. Profesora Titular. Dr. C.T. Ing. Alejandro López Llanusa, Universidad Tecnológica de La Habana, Cujae. Vice- Decano Facultad de Ingeniería Civil. Profesor Auxiliar. Miembro del Comité de Normas de estructuras metálicas y Miembro del Comité de Normas de carga de viento REFERENCIAS 1. GARCÍA PALENCIA, Oliverio. "Diagnóstico estratégico de Confiabilidad Humana del personal de una planta de generación eléctrica". VII Congreso 102 Mundial de mantenimiento y gestión de activos. León, Guanajuato. 2015. 2. MARTTINEZ NIÑO, José Leonardo. "Análisis de criticidad aplicado a sistemas productivos en la industria". Notas Técnicas de Prevención, Instituto Nacional de Seguridad e Higiene en el Trabajo, ASME. 2018. 3. OROPESA MÁRQUEZ, Yovany; ÁLVAREZ AMOR, Yuneysis. "El análisis de criticidad como herramienta para disminuir las fallas en los activos". CubaMan, Nota Técnica 361. 2018. 4. PÉREZ QUIÑONES, Liyen; LLANES PÉREZ, Marietta. "Propuesta de metodología para la evalución constructiva de edificios". Ciencia y construcción, 2021, vol. 2, núm. 3, pp. 52-63. 5. PÉREZ QUIÑONES, Liyen; LLANES PÉREZ, Marietta. "Propuesta de herramientas de la Confiabilidad Operacional al diagnóstico de edificios". Ciencia y Construcción, 2021, vol. 2, núm. 4, pp. 94-105. 6. ZARDOYA LAUREDO, María Victoria; OTROS. "Las Quintas de salud de los inmigrantes españoles (1884-1930): una nueva arquitectura hospitalaria para La Habana". Temas Americanistas, 2016, núm. 37, pp. 171-194. EVALUACIÓN SÍSMICA DE ESTRUCTURAS DE HORMIGÓN ARMANDO Yordy Mieles Bravo1 Stalin Alcívar Moreira2, (1) Universidad Técnica de Manabí, Portoviejo-Ecuador, yordy.mieles@utm.edu.ec. (2) Universidad Técnica de Manabí, Portoviejo-Ecuador, william.alcivar@utm.edu.ec. RESUMEN Existen diversos métodos para evaluar estructuras, algunos de los cuales son subjetivos y sus resultados tienen alta incertidumbre. Por otra parte, utilizar programas comerciales especializados, si bien son más exactos, constituyen una “caja negra” y no se palpa el proceso que lleva al diagnóstico. Los métodos descritos en la norma japonesa “Standard For Evaluation Of Existing Reinforced Concrete Buildings”, han demostrado ser confiables en vista de la respuesta ante sismos de los edificios evaluados y reforzados con dicho método. La evaluación se centra en un Índice Sísmico de la estructura denominado 𝐼𝑠, que expresa la respuesta elástica equivalente de acuerdo a las características de la edificación, la resistencia y la ductilidad de la estructura. El índice de demanda sísmica de la estructura es 𝐼𝑠𝑜 y toma en consideración el uso de la estructura, las características del suelo y la sismicidad en la zona de emplazamiento de la estructura. Al comparar 𝐼𝑠 e 𝐼𝑠𝑜 se obtiene la capacidad versus la demanda de estructura. Finalmente se proponen criterios para la “tropicalización” del método de acuerdo a la Norma Ecuatoriana de la Construcción, lo cual es llevado a la práctica en un caso de estudio de un edificio de hormigón armado, adaptando el método a la realidad ecuatoriana y se refuerza proponiendo dos métodos indicados en la misma norma japonesa. PALABRAS CLAVES: evaluación de estructuras, Norma Japonesa, Norma Ecuatoriana de la Construcción, sismo de Ecuador de 7,8 Mw del 16 de abril de 2016. SEISMIC EVALUATION OF REINFORCED CONCRETE STRUCTURES ABSTRACT There are several methods to evaluate structures, some of which are subjective and their results have high uncertainty. On the other hand, using specialized commercial programs, although they are more accurate, constitute a "black box" and the process that leads to diagnosis is not palpable. The methods described in the Japanese norm "Standard For Evaluation Of Existing Reinforced Concrete Buildings" have proven to be reliable in view of the response to earthquakes of the buildings evaluated and reinforced with said method. The evaluation focuses on a Seismic Index of the structure called 𝐼𝑠 which expresses the equivalent elastic response according to the characteristics of the building, the resistance and the ductility of the structure. The seismic demand index of the structure is 𝐼𝑠𝑜 and takes into account the use of the structure, the characteristics of the soil and the seismicity in the area where the structure is located. By comparing 𝐼𝑠 and 𝐼𝑠𝑜, the capacity versus the structure demand is obtained. Finally, criteria are proposed for the "tropicalization" of the method according to the Ecuadorian Construction Standard, which is put into practice in a case study of a reinforced concrete building, adapting the method to the Ecuadorian reality and reinforcing proposing two methods indicated in the same Japanese standard. KEY WORDS: evaluation of structures, Japanese Standard, Ecuadorian Construction Standard, Ecuador earthquake of 7.8 Mw of April 16, 2016 1. INTRODUCCIÓN Luego de seis años del sismo de Ecuador del 16 de abril de 2016 (16A) de magnitud 7,8=Mw, que afectó en mayor escala a las provincias de Manabí y Esmeraldas, aún quedan muchas estructuras sin evaluar y como segunda instancia reforzar si es necesario. Muchos edificios presentan daño visible y cuando se presente un nuevo sismo de importancia van a tener un daño acumulado, por lo que se hace necesario crear conciencia del peligro. Luego del sismo del 16A, las zonas afectadas tuvieron la necesidad de ser evaluadas para precautelar la seguridad de las personas, brigadas de voluntarios de organismos nacionales e internacionales y universidades revisaron las zonas en un primer diagnóstico que catalogaba a priori los edificios. Después personal contratado por el Ministerio de Vivienda emprendió una campaña para evaluar edificios con una semaforización que daba tres niveles que indicaban si ameritaba ocupar, reforzar o demoler lo cual también fue visual. En una siguiente etapa, los propietarios de los edificios contrataron la evaluación y reforzamiento de estructuras, que tenían daño visible, pero no todos los edificios han sido evaluados y muchos evaluados tampoco los han reforzado. A causa de sismo del 16A, colapsó o se demolieron después más de 2500 edificios en Portoviejo [1], otro importante número indefinido de edificaciones es necesario evaluarlos y reforzarlos. Se presenta por lo tanto en este trabajo un primer nivel de evaluación de edificios de hormigón armado con el método de evaluación de la Norma de la Japan Building Disanter Prevention Association (JBDPA) [2-4] como una alternativa sencilla y segura que ha demostrado efectividad luego que edificios evaluados y reforzados en tuvieron un buen desempeño durante el gran terremoto de Japón del 11 de marzo de 2011 de magnitud Mw = 9,1 [5]. Es necesario adaptar ciertos parámetros como la demanda sísmica lo cual es llamado en el lenguaje estructural con el término coloquial “tropicalización” y adaptar a los parámetros que indica la Norma Ecuatoriana de la Construcción [6, 7]. 2. PRIMER NIVEL DE EVALUACIÓN La Norma Ecuatoriana de la Construcción (NEC-15) en la sección de “Riesgo sísmico, evaluación y reforzamiento de estructuras” presenta tres niveles de evaluación de una edificación, que van desde el Nivel BS1 de investigación al Nivel BS3 [8] de investigación. Para el nivel BS1 recomienda un sencillo método basado en el FEMA 154 pero aclara que tiene una alta incertidumbre al ser una inspección cualitativa de los posibles problemas de los sistemas estructurales que soporta el edificio. Para le nivel BS2 sugiere usar como herramienta de investigación se puede revisar los listados de deficiencias estructurales listadas en ASCE 31 (FEMA 310). Para el nivel BS3, remite a la sección 4 de la misma norma donde menciona a la norma ASCE 41 que se apoya en la pre-norma FEMA 356 con recomendaciones de FEMA 440 para análisis no-lineal estático. Al ser análisis estático no lineal requiere cálculos muy complejos los cuales se realizan con ayuda de software especializados, los cual representa el peligro de ser mal utilizado conduciendo a resultados inadecuados. Si un edificio se encuentra en condiciones estables y se desea conocer su capacidad resistente se tienen varios métodos para ello. Si la capacidad resistente no es la adecuada existen diversas técnicas de reforzar un edificio. La JBPA tiene tres niveles de evaluación respaldado por datos analíticos y experimentales [9]. El método busca el Índice Sísmico 𝐼𝑠 que es un coeficiente que tiene en cuenta la resistencia y la ductilidad de la estructura para compararla con el índice de demanda sísmica 𝐼𝑠𝑜 que expresa la demanda sísmica de la zona y características del suelo donde se ubica la estructura; luego 𝐼𝑠 ≥ 𝐼𝑠𝑜. En el primer nivel de evaluación, se supone que las vigas son suficientemente rígidas y solo las columnas ceden o colapsan [9]. Índice sísmico Como se mencionó el 𝐼𝑠 ≥ 𝐼𝑠𝑜 donde 𝐼𝑠 es el Índice Sísmico de la Estructura para cada piso y dirección horizontal que se obtiene como: 𝐼𝑠 = 𝐸𝑂 𝑆𝐷 𝑇 (1) Donde 𝐸𝑂 es el índice sísmico básico de la estructura por piso y para cada dirección horizontal, 𝑆𝐷 es el índice de irregularidad igual a 1 si el edificio es regular en planta y elevación y 𝑇 el índice de tiempo del edificio, que vale 1 si el edificio es nuevo. Para el primer nivel de evaluación se toma el mayor valor de 𝐸𝑂 de las ecuaciones 1 y 2: 𝐸𝑂 = 𝑛+1 𝑛+𝑖 (𝐶𝑤 + 𝛼1𝐶𝑐) 𝐹𝑊 (2) 𝐸𝑂 = 𝑛+1 𝑛+𝑖 (𝐶𝑆𝐶 + 𝛼2𝐶𝑊 + 𝛼3𝐶𝐶) 𝐹𝑆𝐶 (3) Donde 𝑛 es la cantidad de pisos que toma en cuenta la amplificación de las fuerzas sísmicas a lo largo de la altura del edificio; 𝑖 es el número de piso referido; 𝐶𝑤 es el índice de fuerzas de muros; 𝐶𝐶 índice de fuerza en columna; 𝐶𝑆𝐶 índice de fuerza en columna extremadamente corta; 𝛼1 es el factor de resistencia efectiva de las columnas en la máxima deformación de los muros y puede ser 0,7 o 1 si 𝐶𝑤 = 0; 𝛼2 es el factor de resistencia efectiva de las paredes en la máxima deformación de las columnas y se puede tomar 0,7; 𝛼3 es el factor de resistencia efectiva de las columnas en la máxima deformación de las columnas muy cortas e igual a 0,5; 𝐹𝑤 o 𝐹𝐶𝑆 índice de ductilidad en muros o columnas cuyos valores se presentan en la tabla 1. Por otra parte, el Índice de Demanda Sísmica 𝐼𝑆𝑂 para un edificio de hormigón armado se obtiene como: 𝐼𝑆𝑂 = 𝐸𝑆 𝑍 𝐺 𝑈 (4) Donde 𝐸𝑆 es el Índice de Demanda Sísmica Básico y es un valor estándar que se toma como 𝐸𝑆 = 0,8 para el primer procedimiento y 𝐸𝑆 = 0,6 para el segundo y tercer procedimiento [10]. 𝐸𝑆 ha sido obtenido de forma empírica observando el daño hecho por los terremotos en Japón y otros países. El coeficiente G es el Índice de Suelo que toma en cuenta los efectos de la amplificación del suelo superficial, condiciones geológicas y la interacción suelo-estructura. U es un índice de uso de la edificación y explica el uso que tendrá el edificio vale 1 para edificios normales y 1,17 para edificios que se usarán luego de un terremoto. La figura 1 presenta un diagrama de flujo del método. Figura 1: Diagrama de flujo de la evaluación en primer nivel [11]. 3. EVALUACIÓN SÍSMICA DE UN EDIFICIO DE LA UNIVERSIDAD TÉCNICA DE MANABÍ – ECUADOR. El edifico de la Facultad de Ciencias Básicas de la Universidad Técnica de Manabí, es una construcción de hormigón armado de cuatro losas; hay tres bloques adosados y son prácticamente una réplica, con excepción del central que además tiene una escalera apoyada en sus pisos, pero con la misma geometría de luces y columnas. Para aplicar el método de la norma japonesa se toma el bloque 3 que es similar al 1, (ver figura 2). Figura 1. Vista en planta de los bloques de la Facultad de Ciencias Básicas. El bloque 3 se estima tiene una carga muerta de 14 kN/m2 y de acuerdo a los datos levantados del edificio, el hormigón se asume una resistencia mínima a la compresión de 21 MPa. El acero de las columnas tiene un límite de fluencia de 420 MPa. Figura 2. Edificio en estudio y vista en planta del bloque 3. Índice de demanda sísmica Adaptando valores de la NEC-15 para el cálculo de la demanda sísmica 𝐸𝑆=0,8; 𝑍=0,5; 𝐺(𝐹𝑎)=1,12; 𝑈(𝐼)=1,3 se obtiene 𝐼𝑆𝑂 = 𝐸𝑆 𝑍 𝐺 𝑈= 0,58 que es el índice de demanda sísmica para la estructura. El índice de zona 𝑍 (Tabla 1 de la NEC-SE-DS), para el índice de suelo 𝐺 se adoptó el Coeficiente de amplificación 𝐹𝑎 (Tabla 3 de la NEC-SE-DS) y el índice de suelo 𝑈 en la NEC-15 será el índice de suelo 𝐼 (Tabla 6 de la NEC-SE-DS). Índice Sísmico en Sentido Y Para la evaluación del edificio de la Facultad de Ciencias Básicas, se muestra un resumen en el sentido paralelo al eje Y por ser el más débil, la figura 4 muestra la configuración en elevación de los pórticos mostrados, donde se notan varias columnas cortas: Figura 3. Pórticos para el análisis en el sentido Y. La tabla 1 muestra las áreas aportantes, cargas de piso y las fuerzas que soporta las columnas por piso para la carga muerta de 14 kN/m2, estimadas por la geometría de losa y distribución de paredes. Tabla 1. Cargas verticales de columnas por piso. Para categorizar los miembros verticales se obtuvo la relación hO/D, relación que da a conocer la categoría de dicho miembro, si es menor que 2 se lo categoriza como columna extremadamente corta y si es mayor que 2 se lo categoriza como columna. También ayudará a conocer la resistencia al esfuerzo de corte de dicho elemento. Los índices de fuerza C mostrados en la tabla 2, se han obtenido usando las áreas seccionales de las paredes y las columnas por medio de las ecuaciones 5, 6 y 7. 𝐶𝑤 = 𝜏𝑤1⋅𝐴𝑤1+𝜏𝑤2⋅𝐴𝑤2+𝜏𝑤3⋅𝐴𝑤3 𝛴𝑊 ⋅ 𝛽𝑐 (5) 𝐶𝐶 = 𝜏𝑐1⋅𝐴𝑐1+𝜏𝑐2⋅𝐴𝑐1 𝛴𝑊 ⋅ 𝛽𝑐 (6) Marco Piso Área soportando (m 2 ) Carga del piso N=A w (kN) Fuerza Soporta N (kN) 4 305,6 3 611,2 2 916,9 1 1222,5 4 536,1 3 1072,1 2 1608,2 1 2144,3 4 400,6 3 801,2 2 1201,8 1 1602,4 MARCO 1 25,90 305,62 MARCO 2 45,43 536,07 MARCO 3 33,95 400,61 𝐶𝑆𝐶 = 𝜏𝑠𝑐⋅𝐴𝑠𝑐 𝛴𝑊 ⋅ 𝛽𝑐 (7) Además, es necesario obtener el factor βc que depende de la resistencia del concreto de la estructura indicados en las ecuaciones 8 y 9 𝛽𝑐 = 𝑓𝑐 ′ 20 𝑝𝑎𝑟𝑎 𝑓𝑐 ′ ≤ 20 𝑀𝑃𝑎 (8) 𝛽𝑐 = √ 𝑓𝑐 ′ 20 𝑝𝑎𝑟𝑎 𝑓𝑐 ′ > 20 𝑀𝑃𝑎 (9) 𝛽𝑐 = 1,02 Tabla 2. Índice de fuerza C. La tabla 3 es un resumen de los resultados de aplicar las ecuaciones 1, 2, 3 y 4 para el Índice sísmico básico de la estructura 𝐸𝑂 y el índice sísmico de la estructura. Tabla 3. Índice sísmico básico e índice sísmico de la estructura. Piso Categoría de miembro C F E0 E0 DE PISO SD T Is 4 0,625 MURO 0,000 1 0,000 0,464 1,000 0,800 0,371 COLUMNA 0,742 1 0,464 COLUMNA CORTA 0,000 0,8 0,000 3 0,714 MURO 0,000 1 0,000 0,265 1,000 0,800 0,212 COLUMNA 0,371 1 0,265 COLUMNA CORTA 0,000 0,8 0,000 2 0,833 MURO 0,000 1 0,000 0,206 1,000 0,800 0,165 COLUMNA 0,247 1 0,206 COLUMNA CORTA 0,000 0,8 0,000 1 1,000 MURO 0,000 1 0,000 0,166 1,000 0,800 0,133 COLUMNA 0,043 1 0,043 COLUMNA CORTA 0,186 0,8 0,166 La figura 5 muestra el índice de sísmico y el índice de demanda sísmico, que indica que la demanda sísmica es mayor que el índice básico de la estructura o índice sísmico, resultado que corrobora otros análisis hechos al edificio mediante otros métodos, y además las afectaciones que resultó del sismo del 16 de abril de 2016, por lo que, de acuerdo al método de evaluación, es necesario el reforzamiento estructural del edificio. Para el reforzamiento se elige la incorporación de muros estructurales, estratégicamente ubicados. PISO COLUMNA CATEGORIA DE MIEMBRO C (ÍNDICE DE FUERZA) C (ÍNDICE DE FUERZA) B1 (MARCO 1) COLUMNA 1 300000 0,247 B2 (MARCO 2) COLUMNA 1 300000 0,247 B3 (MARCO 3) COLUMNA 1 300000 0,247 B1 (MARCO 1) COLUMNA 1 300000 0,124 B2 (MARCO 2) COLUMNA 1 300000 0,124 B3 (MARCO 3) COLUMNA 1 300000 0,124 B1 (MARCO 1) COLUMNA 1 300000 0,082 B2 (MARCO 2) COLUMNA 1 300000 0,082 B3 (MARCO 3) COLUMNA 1 300000 0,082 B1 (MARCO 1) COLUMNA 0,7 300000 0,043 0,043 B2 (MARCO 2) COLUMNA CORTA 1,5 300000 0,093 B3 (MARCO 3) COLUMNA CORTA 1,5 300000 0,093 2 3 4 0,742 0,371 0,247 0,186 1 𝑐 𝑐 ∅ = 𝒏 + 𝟏 𝒏 + 𝒊 Figura 4. Comparación del índice sísmico y el índice de demanda 4. REFORZAMIENTO PROPUESTO Se realizará el reforzamiento mediante muros de concreto, método que es propuesto por la JBDPA, la cual consiste en calcular el número de muros necesarios y se lo hace mediante la relación entre la fuerza que necesita la estructura y la fuerza del muro, al finalizar se recalcula la fuerza total del edificio con el refuerzo propuesto comprobando que sea mayor que la fuerza que requiere tener dicho edificio. Estos valores se muestran resumidos en la tabla 4 y 5. Tabla 4. Fuerza y número necesario de muros. Piso ΔIs= Iso-Is Peso del piso Wi (kN) ΔQu= Δis * Wi (F=1) (kN) ΔQui/Quw Número de muros necesarios Fuerza total de los muros (kN) 4 to piso 0,211 3726,912 787,215 0,203 1,000 3873,347 3 er piso 0,370 7453,824 2760,149 0,713 1,000 3873,347 2 do piso 0,417 11180,736 4667,210 1,205 2,000 7746,695 1 er piso 0,450 14907,648 6704,963 1,731 2,000 7746,695 Tabla 5. Fuerza de piso (kN). Piso Fuerza de todas las columnas Numero de columnas de linderos (kN) Fuerza de columnas de linderos (kN) Fuerza de columnas (kN) Fuerza total de los muros (kN) Fuerza del piso (kN) Fuerza necesaria Iso*Wi (kN) 4 to piso 9222,256 2 614,817 8607,439 3873,347 12481 2171 3 er piso 9222,256 2 614,817 8607,439 3873,347 12481 4341 2 do piso 9222,256 3 922,226 8300,030 7746,695 16047 6512 1 er piso 9222,256 3 922,226 8300,030 7746,695 16047 8682 Se proponen 2 muros de concreto para el piso 1 y 2 y un muro de concreto para el piso 3 y 4 (ver tabla 4), y que se muestran esquemáticamente en la figura 7, para el sentido Y de la edificación en estudio, lo cual incrementa la fuerza de piso a un nivel suficiente para compensar la fuerza necesaria, mostrado gráficamente por medio de la figura 6. Figura 5. Comparación del índice sísmico y el índice de demanda luego del reforzamiento con muros La ubicación de los reforzamientos mediante muros de corte de concreto se muestra en la figura 7, donde se aprecia que el reforzamiento propuesto incluye muros de corte en los marcos de los ejes 1 y 3. Figura 6. Ubicación de los reforzamientos mediante de muros corte de concreto 5. CONCLUSIONES El método de evaluación, en su primer nivel de revisión, fue aplicado al bloque 3 del edificio de la Facultad Ciencias Básicas de la Universidad Técnica de Manabí, teniendo como resultado que la edificación necesita ser reforzada. Posterior al sismo el edificio sufrió daños y fue evaluado por los métodos que recomienda la NEC 2015 con ayuda de software especializados, dando como resultados que el edificio necesita ser reforzado. El método JBDPA-2005 es sencillo y posible aplicar con la inclusión o cambio de parámetros propios a Ecuador y que requieren adaptarse a la realidad del país tal como es el caso del índice de zona, 𝑍; el coeficiente de amplificación de suelo, 𝐹𝑎, que para la norma japonesa es el índice de suelo 𝐺 y el Índice de Importancia, 𝐼, que en la norma JBDPA-2005 es el índice de uso, 𝑈. REFERENCIAS [1] (2017). Estudio de la microzonificación sísmica de Portoviejo. [2] (2017). Standard for Seismic Evaluation of Existing Reinforced Concrete Buildings. [3] (2017). Guidelines for Seismic Retrofit of Existing Reinforced Concrete Buildings. [4] (2017). Technical Manual for Seismic Evaluation and Seismic Retrofit of Existing Reinforced Concrete Buildings. [5] S. Sugano, "Evaluación de la capacidad sísmica de edificos existentes," in Programa Mejoramiento y Difusión de la tecnología para la construcción sismo-resistentes en Latinoamerica, Japón, 2017. [6] Norma Ecuatoriana de la Construcción, MIDUVI, 2015. [7] Norma Ecuatoriana de la Construcción, MIDUVI, 2015. [8] NEC-SE-RE-2015, Ministerio_de_Desarrollo_Urbano_y_Vivienda, Ed. Riesgo Sísmico, Evaluación, Rehabilitación de Estructuras, primera ed. (Norma Ecuatoriana de la Construcción). Quito-Ecuador, 2015. [9] Y. Ishiyama, "Ingeneiría sísmica y códigos del mundo," in Programa Mejoramiento y Difusión de la tecnología para la construcción sismo-resistentes en Latinoamerica, Japón, 2017. [10] Standard for Seismic Evaluaction of Existing Reinforced Concrete Buildings J. B. D. P. Association, 2005. [11] Y. Ishiyama, "Introducción a la ingeneiría sísmica y códigos del mundo," in Programa Mejoramiento y Difusión de la tecnología para la construcción sismo-resistentes en Latinoamerica, 2017. sobre los autores Yordy Mieles Bravo es Ingeniero Civil graduado en la Universidad Técnica de Manabí en el 2001. Magister en Ciencias de la Ingeniería, Mención Estructuras, por la Universidad Técnica de Manabí en 2008. Diplomado en Tecnología para la Construcción Sismo-resistente en el Building Research Institute de Japón (2017). Doctor en Ciencias Técnicas en la Universidad Tecnológica de la Habana en 2022. Trabajó desde el 2001 hasta el 2010 en el extinto Centro de Rehabilitación de Manabí (CRM), luego Secretaría Nacional del Agua en el diseño de la parte estructural de obras hidráulicas. Se ha desempeñado también como consultor privado en el área de estructuras. Previo a dedicarse a la docencia trabajó también en la construcción de varias obras. Actualmente es Profesor del área de estructuras de la carrera de Ingeniería Civil de la Universidad Técnica de Manabí desde el 2013. Es coordinador de la Maestría en Estructuras y profesor de cursos de posgrado de la misma universidad. En 9 años de docencia universitaria ha dirigido 42 trabajos de titulación y 3 tesis de maestría. Es autor 16 artículos en revistas especializadas y ha sido ponente en 9 eventos internacionales. Al presente trabaja en experimentación e investigación para el diseño de nudos mixtos o híbridos en vigas de hormigón armado y coordina el laboratorio de estructuras de la UTM Stalin Alcívar Moreira es Ingeniero Civil graduado en la Universidad Técnica de Manabí en 2012, Magíster en Ingeniería Estructural y Geotécnica en la P. Universidad Católica de Chile, 2014. Diplomado en Tecnología para la Construcción Sismo-resistente en el Building Research Institute de Japón, 2017. Diplomado en Evaluación de Escenarios para la Reducción de Riesgo de Desastres de Origen Natural por la P. Universidad Católica de Chile, 2019. Profesor Auxiliar tiempo completo del departamento de Construcciones Civiles de la Facultad de Ciencias Matemáticas, Físicas y Químicas de la Universidad Técnica de Manabí. Asignaturas impartidas como docente: Ingeniería Sísmica, Hormigón Armado III, Hormigón Armado I, Estructuras Metálicas y Hormigón Pretensado. Especializado en análisis y diseño de estructuras sismo resistentes. ANÁLISIS DEL COMPORTAMIENTO DE LA MAMPOSTERÍA DE BLOQUES DE HORMIGÓN A COMPRESIÓN CON EL EMPLEO DE TÉCNICAS DE MODELACIÓN NUMÉRICA Orlando Rodolfo Reyes Viñas1, Nelson Fundora Sautié2, Janet Otmara Martínez Cid3 1,2,3Universidad Tecnológica de La Habana José Antonio Echeverría (CUJAE), Calle 114 e/ Rotonda y Ciclovía. 1e-mail: oreyesv@civil.cujae.edu.cu 2e-mail: nelsonfs@civil.cujae.edu.cu 3e-mail: jcid@civil.cujae.edu.cu RESUMEN La mampostería de bloques de hormigón constituye una de las tipologías constructivas más utilizadas en el país en la actualidad. La propiedad fundamental de los muros de bloques de hormigón es la resistencia a compresión, la cual es evaluada mediante ensayos experimentales a compresión en prismas o con el empleo de formulaciones empíricas presentes en las normativas. La utilización de la simulación numérica, calibrada a través de ensayos experimentales, constituye una vía económicamente superior para el estudio del comportamiento de los prismas de mampostería. En el presente trabajo se presentan modelos numéricos, desarrollados en el programa Abaqus, que posibilitan la obtención de la resistencia a compresión en prismas de tres bloques de altura. Para la calibración y validación del modelo numérico se utilizaron los resultados experimentales obtenidos por Oliveira (2014). Los resultados obtenidos mostraron valores numéricos de resistencia a compresión con diferencias inferiores al 10% con respecto a los valores experimentales, evidenciando la adecuada validación del modelo. A partir de este modelo se realizó una comparación entre dos tipos de disposición del mortero: parcial y completo. Se comprobó que los modelos de prismas con mortero parcial analizados tuvieron las menores resistencias a compresión, así como los mayores desplazamientos verticales y laterales. PALABRAS CLAVES: calibración, comportamiento, prismas de mampostería, simulación numérica, Abaqus. COMPRESSIVE BEHAVIOR ANALYSIS OF CONCRETE BLOCK MASONRY USING NUMERICAL TECHNICS ABSTRACT In present, concrete block masonry is one of the most widely used construction typologies in the country. Compressive strength is the main property of concrete blocks walls, which is evaluated by performing experimental compression tests on masonry prisms and by empirical formulations presents in standards. The use of numerical simulation, calibrated through the results of minimal experimental tests, is an economically superior way to carry out the study of masonry prisms behavior. In this work, numerical models are created with the use of the Abaqus software, which allow obtaining the compressive strength, using three-block prisms. Experimental results obtained by Oliveira (2014) in his work, was used to calibration and validation of numerical model. The results obtained showed numerical values of resistance to compression and deformation with differences less than 10% respect to the experimentally values, demonstrating the adequate model validation. From this model, a comparison was made between two types of mortar bedding: full and face shell bedding. It was found that the prism models with face shell bedding analyzed had the lowest compressive strengths, as well as the highest vertical and lateral displacements. KEY WORDS: calibration, behavior, masonry prisms, numerical simulation, Abaqus. 1. INTRODUCCIÓN La estructura de mampostería está definida, como una construcción compuesta por unidades o piezas naturales o moldeadas, suficientemente pequeñas para que puedan ser manipuladas por una persona y adheridas mediante conglomerantes o elementos de agarre mecánico [2], que posteriormente formarán parte de la estructura resistente [3-9]. En la actualidad la mampostería es ampliamente utilizada en la construcción. Las versatilidades que brinda este sistema en cuanto a rapidez de ejecución, resistencia y durabilidad lo convierten en una técnica muy atractiva para la construcción de gran variedad de edificaciones [10]. En Cuba la estructura de mampostería basada en muros de carga, constituye la tipología de construcción más utilizada, no solo en el presente, sino también en obras de carácter patrimonial. Se han llegado a construir edificios de hasta seis niveles con paredes de bloques como muros de carga [11]. Como elemento estructural se observa su uso en muros de carga, columnas e incluso como tímpanos [12, 13]. El tipo de unidad más difundida es el bloque hueco de hormigón, el cual usualmente presenta gran variabilidad en cuanto a sus características geométricas y propiedades físico-mecánicas. La propiedad más importante de la mampostería, como elemento estructural, es la resistencia a compresión [14]. Esta puede ser medida a partir de ensayos experimentales, siendo el prisma de mampostería el espécimen más empleado [15]. No obstante, diversas normas establecen expresiones para estimar la resistencia de la mampostería a partir de las propiedades de sus materiales constituyentes [3, 5, 16, 17]. Actualmente es común utilizar una cantidad mínima de ensayos a compresión uniaxial para implementar modelos numéricos con el fin de estudiar detalladamente el comportamiento de los materiales involucrados en la mampostería, así como el comportamiento en la interface de estos [18-20]. Los ensayos experimentales se utilizan para calibrar y validar el modelo numérico [21]. Posteriormente, con un modelo calibrado y validado, se puede realizar un estudio paramétrico del comportamiento, variando características como, por ejemplo, el espesor de la junta de mortero, el espesor de las paredes del bloque, las propiedades físico-mecánicas de los materiales constituyentes, entre otros [22]. Los modelos numéricos validados a partir de ensayos experimentales permiten predecir el mecanismo de fallo del prisma. Usualmente estos modelos están basados en el Método de Elementos Finitos y pueden tener diversos modelos constitutivos asociados a los materiales utilizados. Particularmente en este trabajo, como modelo constitutivo del hormigón, se emplea el Modelo de Daño Plástico. Este modelo fundamenta su formulación en la mecánica de sólidos, particularmente en la teoría de la plasticidad y en la teoría de daño continuo, y emplea como medio, para resolver el problema estructural, el Método de Elementos Finitos [23-25]. La construcción con mampostería varía ampliamente en el mundo. En ciertos países es práctica común la utilización de mortero parcial [26] (Figura 1a). Algunos investigadores utilizan en sus ensayos experimentales este tipo de disposición del mortero para la construcción de los prismas [1, 20], sin embargo, en Cuba está reglamentado la colocación de mortero en toda el área neta del bloque [5] (Figura 1b). En este trabajo se evalúa la influencia del tipo de disposición del mortero en la resistencia a compresión del prisma y en su comportamiento tenso-deformacional. Para ello se obtiene un modelo calibrado y validado a partir de los resultados experimentales obtenidos por Oliveira (2014). a) Mortero parcial b) Mortero completo Figura 1. Variantes de disposición del mortero en el prisma. 2. DESARROLLO En el presente trabajo se realizó un modelo numérico con el empleo del programa Abaqus, con la finalidad de reproducir el ensayo experimental a compresión uniaxial realizado por [1] en prismas de bloques huecos de hormigón. Como parte de la modelación fueron definidas la geometría, materiales, condiciones de borde, mallado del dominio y carga aplicada. El objetivo de la modelación es determinar la resistencia a compresión de la mampostería y los estados tenso-deformacionales del prisma. La resistencia del bloque empleada fue de 8.68 𝑀𝑃𝑎, mientras que la de los morteros A1 y A2 fue de 5.89 y 2.99 𝑀𝑃𝑎, respectivamente, acorde con los resultados experimentales de [1]. Para el proceso de calibración fue creado un modelo considerando el empleo del mortero A2, mientras que, para la validación, el mortero empleado fue el A1. Geometría El modelo numérico del prisma está compuesto por tres partes: bloque, mortero y plancha. Esta última fue modelada en la parte superior del prisma, como un sólido indeformable, sobre la cual se aplica el sistema de cargas. El objetivo fundamental de la plancha es reproducir con mayor precisión las condiciones del ensayo realizado por [1]. El área neta nominal para el bloque modelado es 27144 𝑚𝑚2, y el área bruta 54600 𝑚𝑚2. La altura total del prisma es de 590 𝑚𝑚 y el ancho de 140 𝑚𝑚, siendo la relación de esbeltez (ℎ/𝑡) igual a 4.21. Las dimensiones de cada una de las partes que conforman el modelo se pueden observar en la Figura 2. Bloque Mortero Plancha Figura 2. Dimensiones de las partes constituyentes del modelo. Modelo constitutivo El modelo constitutivo utilizado para caracterizar los materiales en el programa es el Modelo de Daño Plástico del Hormigón (MDP). Este modelo ha sido ampliamente utilizado por investigadores para el estudio del comportamiento de la mampostería a compresión, básicamente por ser un modelo que caracteriza eficazmente a los materiales frágiles y su modo de falla es de grietas por tracción y aplastamiento por compresión [19, 20, 27-37]. Según [25] este modelo es una adaptación del modelo Drucker-Prager, utilizado también para reproducir el comportamiento mecánico de materiales frágiles. Abaqus tiene incorporado el MDP y para implementarlo son necesarios tres componentes: curva de comportamiento a compresión uniaxial, curva de comportamiento a tracción uniaxial y coeficientes de daño. Los parámetros del Modelo de Daño Plástico definidos en Abaqus, para el bloque y el mortero, en este trabajo, se presentan en la Tabla 1. Los valores fueron seleccionados a partir de la consulta de investigaciones similares [19, 20, 27-37]. Tabla 1. Parámetros del CDP definidos en Abaqus. Elemento Ángulo de dilatancia (𝝍) [°] Factor de forma (𝑲𝒄) Excentricidad (𝒆) 𝒇𝒃𝟎 /𝒇𝒄𝟎 Parámetro de viscosidad (𝝁) Bloque 36 0.667 0 1.16 10-6 Mortero 36 0.667 0 1.16 10-6 Además de los parámetros del MDP, en Abaqus es necesario definir la densidad del material, el módulo de elasticidad y el coeficiente de Poisson. La densidad del hormigón de los bloques y del mortero definidas en el modelo fue de 2353 𝑘𝑔/𝑚3 y 2400 𝑘𝑔/𝑚3, respectivamente [38]. El módulo de elasticidad empleado se define en los siguientes acápites. En el caso del coeficiente de Poisson, [39] refieren un valor de 0.21 para hormigones de bajo grado, mientras que [38] plantean un rango entre 0.15 y 0.20. En este trabajo se adoptó el valor de 0.20 para ambos, bloque y mortero. Comportamiento a compresión uniaxial En este trabajo se utilizan las expresiones propuestas por [40] para la obtención de las curvas de tensión- deformación a compresión del bloque y los morteros A1 y A2 (Figura 3, Figura 4 y Figura 5, respectivamente). Se utilizaron como resistencia del bloque y los morteros, los valores característicos reportados por [1]. Los parámetros utilizados para la confección de las curvas se pueden apreciar en la Tabla 2. Tabla 2. Parámetros utilizados para obtener las curvas tensión-deformación a compresión. Parámetro Bloque Mortero A1 Mortero A2 𝑓𝐵𝑀 (𝑀𝑃𝑎) 8.68 5.89 2.99 𝜀𝑝𝑚 (‰) 2.31 1.84 2.20 𝐸𝑐𝑚(𝑀𝑃𝑎) 12210 11390 6800 𝐸𝑝𝑚(𝑀𝑃𝑎) 3757.58 3201.09 1359.09 𝛼𝑎 2.76 3.00 3.00 𝛼𝑑 4.00 2.00 2.00 Figura 3. Curva de comportamiento a compresión del bloque. Figura 4. Curva de comportamiento a compresión del mortero A1. Figura 5. Curva de comportamiento a compresión del mortero A2. 0.00 1.00 2.00 3.00 4.00 5.00 6.00 7.00 8.00 9.00 10.00 0 .0 0 0 0 0 .0 0 0 5 0 .0 0 1 0 0 .0 0 1 5 0 .0 0 2 0 0 .0 0 2 5 0 .0 0 3 0 0 .0 0 3 5 0 .0 0 4 0 0 .0 0 4 5 0 .0 0 5 0 0 .0 0 5 5 0 .0 0 6 0 0 .0 0 6 5 0 .0 0 7 0 0 .0 0 7 5 T en si ó n d e co m p re si ó n ( M P a ) Deformación GRÁFICO TOTAL PARTE INELÁSTICA 0.00 1.00 2.00 3.00 4.00 5.00 6.00 7.00 0 .0 0 0 0 0 .0 0 0 5 0 .0 0 1 0 0 .0 0 1 5 0 .0 0 2 0 0 .0 0 2 5 0 .0 0 3 0 0 .0 0 3 5 0 .0 0 4 0 0 .0 0 4 5 0 .0 0 5 0 0 .0 0 5 5 0 .0 0 6 0 T en si ó n d e co m p re si ó n ( M P a ) Deformación GRÁFICO TOTAL PARTE INELÁSTICA 0.00 0.50 1.00 1.50 2.00 2.50 3.00 3.50 0 .0 0 0 0 0 .0 0 0 5 0 .0 0 1 0 0 .0 0 1 5 0 .0 0 2 0 0 .0 0 2 5 0 .0 0 3 0 0 .0 0 3 5 0 .0 0 4 0 0 .0 0 4 5 0 .0 0 5 0 0 .0 0 5 5 0 .0 0 6 0 0 .0 0 6 5 0 .0 0 7 0 T en si ó n d e co m p re si ó n ( M P a ) Deformación GRÁFICO TOTAL PARTE INELÁSTICA Comportamiento a tracción uniaxial De forma análoga a la definición del comportamiento a compresión, se utilizan las expresiones de [40] para definir las curvas tensión-deformación de los (Figura 6, Figura 7 y Figura 8). La resistencia a compresión del prisma que se empleó para calcular la resistencia a tracción (expresión 15), corresponde con la resistencia característica del bloque y mortero, reportada por [1] en sus ensayos. Los parámetros utilizados para la confección de las curvas se pueden apreciar en la Tabla 3. Tabla 3. Parámetros utilizados para obtener las curvas tensión-deformación a tracción. Parámetro Bloque Mortero A1 Mortero A2 𝑓𝑡𝐵𝑀 (𝑀𝑃𝑎) 2.06 1.70 1.21 𝜀𝑡,𝑝𝑚 (‰) 0.0960 0.0866 0.072 𝛼𝑡 1.32 0.90 0.46 Figura 6. Curva de comportamiento a tracción del bloque. Figura 7. Curva de comportamiento a tracción del mortero A1. 0.00 0.50 1.00 1.50 2.00 2.50 0 .0 0 0 0 0 0 .0 0 0 0 5 0 .0 0 0 1 0 0 .0 0 0 1 5 0 .0 0 0 2 0 0 .0 0 0 2 5 0 .0 0 0 3 0 T en si ó n d e tr a cc ió n ( M P a ) Deformación GRÁFICO TOTAL PARTE INELÁSTICA 0.00 0.20 0.40 0.60 0.80 1.00 1.20 1.40 1.60 1.80 0 .0 0 0 0 0 0 .0 0 0 0 5 0 .0 0 0 1 0 0 .0 0 0 1 5 0 .0 0 0 2 0 0 .0 0 0 2 5 0 .0 0 0 3 0 T en si ó n d e tr a cc ió n ( M P a ) Deformación GRÁFICO TOTAL PARTE INELÁSTICA Figura 8. Curva de comportamiento a tracción del mortero A2. Condiciones de borde y carga aplicada Para definir la interacción entre los elementos constituyentes del prisma fue utilizado el módulo de interacciones de Abaqus. De forma general, se precisaron dos interacciones: interacción bloque-mortero e interacción plancha-bloque. Estas fueron definidas a partir de restricciones de tipo “Tie” (Figura 9a). Para la definición de las condiciones de borde se restringen, en la base del prisma, los tres grados de libertad correspondientes a los desplazamientos, simulando el ensayo experimental. Se aplicó una carga distribuida en la superficie superior de la plancha hasta provocar el fallo (Figura 9b). (a) Superficies de contacto que definen la interacción tipo “Tie”. (b) Carga y condiciones de borde aplicadas. Figura 9. Interacciones, condiciones de borde y carga definidos en el modelo. Calibración matemática El objetivo de la calibración matemática del modelo radica en la determinación de los tres parámetros óptimos asociados al mallado que se emplearán: técnica de mallado, tipo de elemento finito y densidad de malla. Como patrón de comparación fueron empleados en este proceso los resultados experimentales de [1] de los prismas construidos con mortero A2. Técnica de mallado y tipo de elemento finito El tipo de elemento adoptado en el modelo del presente trabajo fue el C3D8 puesto que discretiza la geometría con el empleo de menor cantidad de elementos. Este tipo de elemento es el más utilizado por las investigaciones consultadas [19, 20, 27-37]. 0.00 0.20 0.40 0.60 0.80 1.00 1.20 1.40 0 .0 0 0 0 0 0 .0 0 0 0 5 0 .0 0 0 1 0 0 .0 0 0 1 5 0 .0 0 0 2 0 0 .0 0 0 2 5 T en si ó n d e tr a cc ió n ( M P a ) Deformación GRÁFICO TOTAL PARTE INELÁSTICA Densidad de malla Una vez determinado el tipo de elemento a emplear, el último factor a definir, referente al mallado, es la densidad de malla. Para determinar la densidad de malla óptima, se establecen seis densidades de malla, de acuerdo a las dimensiones de los elementos C3D8 empleados para el bloque y el mortero, y se realizan corridas analizando el error relativo de la resistencia a compresión bruta del modelo con respecto a la de los resultados experimentales. Las densidades de mallas propuestas, así como la cantidad de elementos que se generan se presentan en la Tabla 4. Los resultados reportados son graficados en la Figura 10. Tabla 4. Selección de la densidad de malla óptima. Dimensiones del elemento finito [𝒎𝒎] Cantidad de elementos Tensión bruta (modelo) [𝑴𝑷𝒂] Error relativo (%) No. Bloque Mortero Bloque (individual) Mortero (individual) Prisma 1 26 10 294 282 1446 3.81 0.03 2 22 10 432 282 1860 3.76 1.50 3 20 10 510 282 2094 3.74 2.02 4 18 10 616 282 2412 3.72 2.50 5 17 10 1320 282 4524 3.69 3.34 Figura 10. Resistencia a compresión bruta del prisma en función de las dimensiones de los elementos. La diferencia de la tensión bruta obtenida por la densidad de malla No.4 y la obtenida por la No.5 es de 0.03 MPa, lo que representa un 0.8% (Figura 10). Por tanto, continuar incrementando la densidad de malla a partir de la malla No.4, incrementa el costo computacional obteniéndose resultados muy similares. Esto se puede apreciar en la Tabla 4 donde, para la malla No.5, la cantidad de elementos generados en el prisma es casi el doble que los que se generan con la malla No.4. Por tales razones, se escoge la No.4 como densidad de malla para los restantes modelos del presente trabajo. Validación del modelo Para la validación del modelo matemático se utilizó el valor de resistencia característica (𝑓𝑝𝑘) obtenida por [1] a partir de los ensayos de los prismas de bloques completos de hormigón con el mortero A1. En la Tabla 5 se muestran los resultados del proceso de validación. Tabla 5. Validación del modelo. Tipo de elemento Densidad de malla (tamaño máximo) [𝒎𝒎] 𝒇𝒑𝒌(𝑴𝑷𝒂) Error relativo (%) Bloque Mortero Modelo Experimental C3D8 18 10 4.08 4.44 8.01 En la tabla anterior se aprecia que el error relativo entre los resultados experimentales y los del modelo matemático es inferior al 10%, por lo tanto, se considera que el modelo está calibrado y validado. En la Figura 11 se aprecia la similitud del comportamiento mecánico de ambos prismas, el ensayado por [1] y el desarrollado a través del modelo numérico. Se evidencia en el modelo numérico la acumulación de tensiones en las zonas de discontinuidad del mortero parcial, lo cual da lugar a las grietas que se observan en los resultados experimentales. a) Ensayo de Oliveira (2014) b) Resultados del modelo numérico en Abaqus. Figura 11. Validación del modelo numérico. 3. RESULTADOS Se analizan tres variantes de resistencias del bloque: 5, 7 y 12 𝑀𝑃𝑎. Las resistencias de 5 y 7 𝑀𝑃𝑎 corresponden con los bloques tipo I y II establecidos por [41] para muros de carga. Por otra parte, la resistencia de 12 𝑀𝑃𝑎 constituye un valor promedio entre las resistencias mínimas de bloques recomendadas por [4, 6-8, 42, 43]. Los valores correspondientes al módulo de elasticidad a compresión y deformación pico a compresión del bloque, 𝐸𝑐𝑚 y 𝜀𝑝𝑚 respectivamente, son estimados a partir de las expresiones 1 y 2 reportadas por [38] y [40] respectivamente. 𝐸𝑐𝑚 = 4700√𝑓𝑏𝑙 ′ (1) 𝜀𝑝𝑚 = [(1.028 − 0.108√1.32𝑓𝑏𝑙 ′4 ) √1.32𝑓𝑏𝑙 ′4 ] ∗ 10−3 (2) En estas expresiones 𝑓𝑏𝑙 ′ corresponde a la resistencia a compresión del bloque. Para la resistencia del mortero, se define el valor mínimo establecido por [5] de 5.2 𝑀𝑃𝑎. En el caso de los parámetros del Modelo de Daño Plástico, a definir en Abaqus, se mantienen los valores presentados en la Tabla 1. En la siguiente tabla se muestran los resultados para los cuatro modelos estudiados. Tabla 6. Resistencia del prisma con mortero parcial y con mortero completo. Tipo de mortero Resistencia del bloque (𝑴𝑷𝒂) Resistencia del mortero (𝑴𝑷𝒂) Resistencia del prisma (𝑴𝑷𝒂) Diferencia (%) Parcial 5 5.2 2.33 4.9 Completo 2.45 Parcial 7 3.12 7.1 Completo 3.36 Parcial 12 4.95 9.7 Completo 5.48 A partir de los resultados reportados en la tabla anterior, se aprecia que la resistencia del prisma obtenida para el mortero completo, es mayor que para el mortero parcial, para los tres tipos de bloques definidos. La diferencia en las resistencias obtenidas para los bloques de 5, 7 y 12 𝑀𝑃𝑎 es de 4.9, 7.1 y 9.7 %, evidenciándose un incremento de la diferencia entre la resistencia del prisma de mortero completo y de mortero parcial al aumentar la resistencia del bloque. La comparación entre el comportamiento de los prismas con mortero parcial y completo conlleva a resultados similares en cuanto a la distribución tenso-deformacional, independientemente de la resistencia del bloque, variando, fundamentalmente, los valores numéricos. Por tal razón, se presenta la comparación del comportamiento tenso-deformacional de los prismas con bloques de 5 𝑀𝑃𝑎. Figura 12. Comportamiento tenso-deformacional de los prismas con mortero parcial y completo (Bloque de 5 𝑀𝑃𝑎). Al analizar los desplazamientos (𝑈), en la Figura 12 se evidencia que, en el caso de los correspondientes al eje 𝑋 (𝑈1), el prisma con mortero parcial muestra sus mayores valores en las esquinas del bloque intermedio; mientras que, en el prisma con mortero completo, el mayor desplazamiento está distribuido uniformemente en la cara correspondiente al ancho del bloque central. Por otra parte, los mayores desplazamientos en el eje 𝑌 (𝑈2), se aprecian en el punto central de la cara lateral de ambos morteros, para el prisma con mortero parcial; sin embargo, en el caso del prisma con mortero completo, los mayores desplazamientos se ubican en el bloque intermedio. Para el caso del desplazamiento vertical (𝑈3), se aprecia que el prisma con mortero completo tiene menor desplazamiento que el prisma con mortero parcial. En resumen, el prisma con mortero parcial presenta mayores desplazamientos laterales y vertical que el prisma con mortero completo. En el caso del análisis tensional, se aprecia que las mayores tensiones 𝑆11 (eje 𝑋) se ubican en las esquinas y centro del mortero y en los puntos de discontinuidad del mismo, para el prisma con mortero parcial; no obstante, en el caso del prisma con mortero completo se localizan distribuidas de forma uniforme en la cara correspondiente al ancho del bloque intermedio. Las tensiones 𝑆22 (eje 𝑌) tienen un comportamiento similar a las anteriores, ubicándose las mayores tensiones en los puntos de discontinuidad del mortero y en la interfaz bloque mortero, para el prisma con mortero parcial. Por otro lado, para el prisma con mortero completo, las mayores tensiones se ubican en las caras laterales del bloque intermedio. En el eje 𝑍 (𝑆33), existen diferencias en las zonas donde se acumulan las tensiones para cada tipo de mortero empleado. Para el mortero parcial las mayores tensiones de tracción se localizan en los puntos de discontinuidad del mortero ubicados en el espesor del prisma, evidenciando el tipo de fallo común para este tipo de mortero [1, 20]. Las mayores tensiones de compresión en 𝑍 para el mortero parcial y completo se aprecian en las esquinas del bloque superior e inferior. La Figura 13 muestra el estado tensional de las partes constituyentes de los prismas con mortero parcial y completo. Se verifica que la discontinuidad del mortero induce en el bloque acumulación de tensiones en los nervios, lo cual genera las grietas observadas en el ensayo de [1] (Figura 11a). Caso contrario al prisma con mortero completo, donde se aprecia una distribución de tensiones uniforme en el mortero y en el bloque. Se aprecia, además, que tanto el mortero como el bloque del prisma con mortero parcial, presentan mayores tensiones que en el caso del prisma con mortero completo, las cuales se localizan en los puntos de discontinuidad del mortero. Figura 13. Estado tensional de las partes constituyentes de los prismas con mortero parcial y completo (bloque intermedio). 4. CONCLUSIONES La realización de este trabajo permitió obtener el modelo numérico de un prisma de bloques de hormigón con mortero parcial, calibrado y validado a partir de los resultados experimentales de Oliveira (2014). A partir de este modelo se obtuvo el modelo del prisma con mortero completo. La comparación de los modelos de prismas con mortero parcial y completo permite arribar a las siguientes conclusiones: ▪ Los prismas con mortero completo presentan mayor resistencia a compresión que los prismas con mortero parcial, aumentando la diferencia entre ambos a medida que aumenta la resistencia del bloque. ▪ Los prismas con mortero parcial presentan mayores desplazamientos, tanto vertical como laterales, que los prismas con mortero completo. ▪ El empleo del mortero parcial induce la acumulación de tensiones en los nervios del bloque, lo que genera grietas a lo largo de los puntos de discontinuidad del mortero. ▪ El mortero y el bloque de los prismas con mortero completo presentan una distribución de tensiones generalmente uniforme. REFERENCIAS 1. Oliveira, L.M.F.d., Estudo teórico e experimental do comportamento das interfaces verticais de paredes interconectadas de alvenaria estrutural. 2014, Universidade de Sao Paulo: Sao Carlos. 2. Martínez, M., et al., Assessing the compressive behavior of dry-stacked concrete masonry with experimentally informed numerical models. ASCE. Journal of Structural Engineering, 2018. 144(7). 3. AS-3700, Masonry structures. 2017: Australia. 4. IBC, International Building Code. 2018, International Code Council (ICC). 5. NC-774, Código de buenas prácticas para obras de mampostería (EN 1996-1: 2005, MOD). 2012: Cuba. 6. NTP-E.070, Albañilería. 2006: Perú. 7. RNC-MP-001, Norma mínima de diseño y construcción de mampostería. 2017: Nicaragua. 8. NEC-SE-MP, Norma Ecuatoriana de la Construcción. 2014: Ecuador. 9. Pons-Gascón, W.F. and Eduardo Rafael-Álvarez Deulofeu, Diseño estructural sismorresistente de edificios de viviendas de mampostería reforzada para su construcción en las ciudades de Bayamo y Guantánamo. Ciencia en su PC, 2018. 1(1). 10. Hendry, A.W., B.P.Sinha, and S.R.Davies, Design of masonry structures. Third ed. 2004, Taylor & Francis e-Library: E & FN SPON. 11. Ruiz Alejo, L., Estructuras de Hormigón y Mampostería. Primera ed. 2013, Cuba. 12. Piedrahita, P.J., L.R. Alejo, and J.O.M. Cid, Structural Design of a Reinforced Masonry Shear Wall. Ciencia & Futuro, 2018. 8(2): p. 33-51. 13. Robazza, B.R., et al., Out-of-Plane Behavior of Slender Reinforced Masonry Shear Walls under In-Plane Loading: Experimental Investigation. Journal of Structural Engineering. ASCE, 2018. 144(3). 14. Mohamad, G., P.B. Lourenco, and H.M. Roman, Study of the compressive strength of concrete block prisms – stack and running bond. IBRACON Structures and Materials Journal, 2011. 4(3): p. 347-358. 15. ASTM-C1314-14, Standard Test Method for Compressive Strength of Masonry Prisms. 2016: Estados Unidos. 16. EN-1996-1-1, Eurocode 6 - Design of masonry structures - Part 1-1: General rules for reinforced and unreinforced masonry structures. 2005. 17. NSR-10, Reglamento colombiano de construcción sismo resistente, in Título D - Mampostería Estructural. 2010: Colombia. 18. Abdulla, K.F., L.S. Cunningham, and M. Gillie, Simulating masonry wall behaviour using a simplified micro-model approach. Engineering Structures, 2017. 151. 19. Mohamad, A.-B.A.E. and Z. Chen, Experimental and Numerical Analysis of the Compressive and Shear Behavior for a New Type of Self-Insulating Concrete Masonry System. Applied Sciences, 2016. 20. Santos, C.F.R., et al., Numerical and experimental evaluation of masonry prisms by finite element method. Revista IBRACON de Estructuras e Materiais, 2017. 10(2). 21. Krishnaraj, L., et al., Numerical and experimental investigation on mechanical and thermal behaviour of brick masonry: An efficient consumption of ultrafine fly ash. Construction and Building Materials, 2020. 253. 22. Dönmez, D., Study on test set-ups for determining the failure characterisation in masonry components. Engineering and Computational Mechanics, 2022. 175(1): p. 14-28. 23. Oller, S., Fractura mecánica. Un enfoque global. 2001, Barcelona. España: Centro Internacional de Métodos Numéricos en Ingeniería (CINME). 24. Martínez, J., Estudio del comportamiento estructural de la unión viga-columna con efecto cuña del sistema de múltiple aplicación en Cuba (SMAC) con el empleo de técnicas de modelación numérica. 2017, Universidad Tecnológica de La Habana José Antoni Echeverría: La Habana. 25. Kmiecik, P. and M. Kaminski, Modeling of reinforced concrete structures and composite structures with concrete strength degradation taken into consideration. Archives of Civil and Mechanical Engineering, 2011. 11: p. 624-636. 26. Sarhat, S.R. and E.G. Sherwood, The prediction of compressive strength of ungrouted hollow concrete block masonry. Construction and Building Materials, 2014. 58: p. 111-121. 27. Bolhassani, M., et al., Simplified micro modeling of partially grouted masonry assemblages. Construction and Building Materials, 2015. 83. 28. Thamboo, J.A. and M. Dhanasekar, Nonlinear finite element modelling of high bond thin-layer mortared concrete masonry. Masonry Research and Innovation, 2016. 1(1). 29. Bosro, M.Z.M., et al., Computational Study of Mortarless Masonry Block System Under Uniaxial Compression Load. International Journal of Integrated Engineering, 2018. 10(8): p. 74- 79. 30. Bhosale, S.D. and A.K. Desai, Simulation of Masonry Wall using Concrete Damage Plasticity Model. International Journal of Innovative Technology and Exploring Engineering (IJITEE), 2019. 8(9S3). 31. Hernoune, H., et al., Strengthening of masonry walls with CFRP composite: experiments and numerical modeling. Journal of Silicate Based and Composite Materials, 2019. 72(1). 32. Ma, H., QiMa, and P. Gaire, Development and mechanical evaluation of a new interlocking earth masonry block. Advances in Structural Engineering, 2019. 33. Pratap, A., et al., Failure Mechanisms along with Constitutive Behavior and Damage in Concrete Bricks and Infilled Frames, in 7th International Congress on Computational Mechanics and Simulation. 2019: India. 34. Abasi, A., et al., Influence of prism geometry on the compressive strength of concrete masonry. Construction and Building Materials, 2020. 35. Rodovalho, F.d.S., M.R.S. Corrêa, and J.M. Neto, Thermomechanical simulation of prisms with concrete blocks in a fire situation. Revista Materia, 2020. 8(1). 36. Zahra, T., J. Thamboo, and M. Asad, Compressive Strength and Deformation Characteristics of Concrete Block Masonry made with Different Mortars, Blocks and Mortar Beddings Types. Journal of Building Engineering, 2021. 38. 37. Renuka, S.M. and I.P.M. Sanjith, Strengthening of Damaged Masonry Walls Using Engineered Cementitious Composites: Experimental and Numerical Analysis. Advances in Civil Engineering, 2022. 38. Hernández Santana, J.J. and J.A. Hernández Caneiro, Hormigón Estructural. Diseño por Estados Límites. . Vol. 1. 2010. 39. McCormac, J. and R. Brown, Diseño de concreto reforzado. 2011. 40. Guo, Z., Principles of Reinforced Concrete. 2014, Estados Unidos: Butterworth-Heinemann. Elsevier. 41. NC-247, Bloques huecos de hormigón. Especificaciones. 2010: Cuba. 42. ASTM-C55, Standard specification for concrete brick. 2001: Estados Unidos. 43. CIRSOC-501, Reglamento argentino de estructuras de mampostería. 2007: Argentina. EXPERIENCIAS EN EL DISEÑO DE DOSIFICACIONES DE MORTEROS PARA EL SISTEMA SERMAP René A. Puig Martínez1, Joel Bayle Yong2, Giovany Alemán Carmenate3, Luis E. González Martínez4 1,2,3,4Universidad Tecnológica de La Habana “José Antonio Echeverría”, 1e-mail: rpuig200453@gmail.com y rpuig@civil.cujae.edu.cu RESUMEN Como parte de un proyecto nacional de ciencia y tecnología, se realizan en el CECAT investigaciones dirigidas al desarrollo de la construcción de viviendas con pocos recursos, optimizando el empleo de los recursos materiales y la maquinaria tradicional de obra. El sistema constructivo SERMAP da solución a ese cometido, caracterizándose por el empleo de losas y paneles prefabricados de poco espesor, ejecutados mediante una máquina extendedora deslizante. Al ser elementos de poco espesor, en su fabricación no puede ser empleado el hormigón tradicional, debiendo ser sustituido éste por un mortero estructural. Precisamente la investigación muestra los resultados obtenidos en el diseño de dosificaciones para el mortero, evaluando propiedades en estado fresco y endurecido. Entre las primeras, la laborabilidad y la facilidad con que el mortero drena durante el movimiento de la máquina extendedora; y entre las segundas, la densidad, la velocidad del pulso ultrasónico y la resistencia a compresión. Como resultados, se logra el diseño de una dosificación de mortero que cumple con todas las especificaciones y logra reducir el consumo de cemento por metro cúbico de mortero en relación con la dosificación anteriormente empleada. PALABRAS CLAVES: mortero estructural, dosificación, resistencia a compresión. EXPERIENCES IN THE DESIGN OF MORTAR DOSAGES FOR THE SERMAP SYSTEM ABSTRACT As part of a national science and technology project, research is carried out at CECAT aimed at developing housing construction with few resources, optimizing the use of material resources and traditional construction machinery. The SERMAP construction system provides a solution to this task, characterized by the use of thin prefabricated slabs and panels, executed by means of a sliding paver machine. As they are thin elements, traditional concrete cannot be used in their manufacture, and must be replaced by a structural mortar. Precisely the investigation shows the results obtained in the design of dosages for the mortar, evaluating properties in fresh and hardened state. Among the first, the workability and the ease with which the mortar drains during the movement of the spreading machine; and among the latter, the density, the speed of the ultrasonic pulse and the compressive strength. As a result, the design of a mortar dosage that meets all the specifications and manages to reduce the consumption of cement per cubic meter of mortar in relation to the previously used dosage is achieved. KEY WORDS: structural mortar, dosage, compressive strength. 1. INTRODUCCIÓN Como parte de un proyecto nacional de ciencia y tecnología de la República de Cuba, desde el año 2020 se viene desarrollando en el Centro de Estudios para la Construcción y Arquitectura Tropical (CECAT) de la Universidad Tecnológica de La Habana “José Antonio Echeverría”, un sistema constructivo formado principalmente por losas y paneles ligeros prefabricados de mortero estructural. Las cualidades principales de las losas y paneles que forman parte del sistema, radican en la baja masa lineal (entre XX y XX kg/m); el poco espesor, tanto de la losa como de los nervios que conforman la canal (unos 25 mm en la losa); y el empleo de una máquina extendedora de molde deslizante para su construcción [1]. Ya con este sistema se han construido viviendas, tanto en Cuba como en diferentes partes del mundo, ejemplo de las cuales se pueden apreciar en las fotos de la figura 1. En todos los casos, el refuerzo estructural de las losas y paneles se ha concebido con mallas metálicas y barras de acero. El nuevo proyecto sin embargo, concibe emplear a modo de refuerzo mallas y barras de polímeros reforzados con fibras, con ventajas que radican en la disminución del peso de los elementos prefabricados y el incremento de las propiedades de durabilidad. Figura 1: Fotos de edificaciones construidas con el sistema SERMAP [2]. El hecho de que las losas y paneles del sistema tengan pequeño espesor y que el mortero estructural empleado para su fabricación requiera cumplir determinadas propiedades mecánicas, de durabilidad y de laborabilidad, implican que en el proyecto se dedique especial atención al diseño de sus dosificaciones, más teniendo en cuenta las limitaciones de materia prima, fundamentalmente en tipos de áridos y aditivos fluidificantes. El objetivo de esta ponencia radica por tanto en exponer las experiencias obtenidas en el diseño de las dosificaciones de mortero estructural para los elementos prefabricados del sistema SERMAP, con las materias primas disponibles y los requerimientos de diseño. 2. MATERIALES Y MÉTODOS Los morteros son mezclas plásticas aglomerantes, resultado de combinar arena y agua con uno o dos materiales cementantes, que pueden ser cemento portland, combinaciones de cemento portland con cal o mezclas de cemento portland y cemento de albañilería [3,4]. El mortero no solo cumple con la función de unir piezas, sino que también puede aportar propiedades estructurales, una de las cuales es la resistencia a compresión, lo que le permite resistir cargas de diferentes tipos. También, una vez aplicado en obra, el mortero debe actuar como unión resistente. Así, cuando el mortero soporta cargas altas se requiere una alta resistencia a la compresión [3,5,6]. Algunos autores también conciben la posibilidad de emplear en los morteros, a modo de adición no activa, algunos tipos de materiales finamente molidos. Entre estos materiales pueden ser empleados materiales cerámicos y de hormigón provenientes de residuos de la construcción y demolición [7,8]; residuos industriales como las escorias provenientes del proceso de producción del acero [9,10]; residuos agrícolas de diferente tipo, como las fibras de coco [11]; partículas de plásticos trituradas [12-13]. En cada caso, los morteros adquieren propiedades particulares, que pueden estar relacionadas con su resistencia, laborabilidad, permeabilidad, etc. En el libro “Manual práctico de albañilería” [14], se encuentra una de las clasificaciones más claras y sencillas de los morteros empleados en obras de construcción. Según esta obra, los morteros pueden clasificarse atendiendo a su concepción, en morteros diseñados (cuando su dosificación se hace de acuerdo a los estándares elegidos por el fabricante) o morteros prescriptos (cuando la dosificación se hace por recetas preestablecidas); por el tipo de aglomerante empleado, en morteros de cemento portland, morteros de cal o cal puzolana, morteros bastardos (cuando el aglomerante es cemento portland con determinada proporción de cal) y otros; pero la principal clasificación a los efectos de esta ponencia es de acuerdo a su empleo en la construcción, en que los divide en morteros de albañilería, morteros estructurales y morteros de restauración. Con esta última clasificación coinciden diferentes autores [3,6]. Igualmente existe coincidencia en la composición y papel de los morteros estructurales [3,5,6,7,9,14]. Resumiendo el criterio de los autores, de manera generalizada los morteros estructurales están compuestos por una mezcla perfectamente dosificada de cemento portland como aglomerante, arena y agua. La arena predominante es natural o proveniente de la trituración de la roca, aunque no se excluye la presencia como adición de otras materias primas [3,9,12]. Por su papel en la construcción, existe coincidencia en que los morteros estructurales se emplean en la ejecución de juntas entre prefabricados; en la reparación de elementos estructurales de hormigón armado; en la fabricación de elementos de ferrocemento; en la realización de elementos prefabricados de pequeño espesor, en los que no pueda ser empleado el hormigón; y otros similares [3,5,9,14]. Precisamente, la presente ponencia se refiere al empleo de morteros estructurales en la construcción de elementos prefabricados de poco espesor. Las propiedades a cumplir por los morteros estructurales no coinciden exactamente con las propiedades de los restantes morteros. En estado fresco, una de las principales propiedades a cumplir por los morteros de albañilería es la fluidez medida en la mesa de sacudidas [14], debiendo variar según la normativa cubana entre 185 y 195 mm; sin embargo, en el caso de los morteros estructurales, puede variar en rangos más amplios. En estos últimos los morteros pueden ser de consistencia seca (menos de 160 mm de escurrimiento en la mesa de sacudidas), de consistencia plástica (entre 160 y 220 mm) y de consistencia fluida (más de 220 mm). En los morteros estructurales, en gran medida, la consistencia debe ser reflejo de la tecnología disponible para la compactación del mortero, menos fluido en la misma medida que mayor sea la energía de compactación disponible. También importante tener en cuenta, que la fluidez de los morteros, al igual que ocurre con los hormigones, depende mucho de la relación agua/cemento. Otra propiedad que deben recoger los morteros estructurales en estado fresco, que también difiere en los morteros de albañilería, es la retención de agua. En los morteros estructurales la retención de agua siempre debe ser mayor que el 85%; sin embargo, en los morteros de albañilería varía entre 90% y 98%. En estado endurecido tampoco coinciden las propiedades entre los diferentes tipos de morteros. Mientras que la principal propiedad en estado endurecido de los morteros de albañilería es la adherencia, en el caso de los morteros estructurales es la resistencia a compresión [3,5,14]. Se coincide que en el caso de reparación de elementos de hormigón armado, la resistencia a compresión de un mortero estructural debe ser similar a la del hormigón en cuestión [6,14]; en el caso del ferrocemento y la construcción de elementos prefabricados de poco espesor, la resistencia a compresión del mortero la define el diseño estructural [14]. En ambos casos, vuelve a jugar un papel principal la relación agua/cemento. En el caso del mortero estructural a emplear en las losas y paneles del sistema SERMAP, la máxima resistencia característica a compresión exigida es de 30 MPa, permitiendo 25 MPa. La fluidez puede ser seca si el mortero se coloca con la máquina extendedora, cuyo vibrador garantiza elevada energía de compactación; y puede ser plástica cuando se coloca de forma manual, ya que es una posible tecnología cuando no se tiene la máquina extendedora. Se exige por los proyectistas, en todos los casos, una relación agua/cemento en peso de 0,45. Las materias primas empleadas en la investigación fueron: ❑ Cemento portland P-35, que es el más adecuado para los morteros estructurales. ❑ Arena de la cantera “La Victoria”, cernida por el tamiz de 4,75 mm, elemento importante este último debido a que en los ensayos previos se pudo apreciar que partículas con tamaño superior a esta magnitud, provocan arrastre de la mezcla cuando pasa la máquina extendedora. ❑ Aditivo superfluidificante Dynamon SRC-20, condicionando su empleo a los valores de fluidez alcanzados durante la ejecución de mezclas de prueba. Toda la materia prima empleada cumple las especificaciones normadas para los morteros estructurales. Las dosificaciones empleadas en la investigación se seleccionaron por el procedimiento prescriptivo o de recetas, teniendo en cuenta las recomendaciones normadas [14] y la dosificación inicialmente propuesta para el mortero en los inicios de su concepción. Según estas, la proporción en que se mezcla la materia prima varía en correspondencia con la resistencia característica a compresión y la granulometría de la arena utilizada. Para resistencia característica a compresión entre 25 MPa y 45 MPa, y arena pasada por el tamiz de 4,75 mm, la dosificación volumétrica recomendada oscila alrededor una parte de cemento portland y dos partes y media de arena. A nivel de mezclas de prueba en el laboratorio, para lograr mayor exactitud, las dosificaciones deben ser gravimétricas, proporcionando los materiales teniendo en cuenta las recomendaciones normadas para las dosificaciones volumétricas. Inicialmente no se prevé el empleo del aditivo fluidificante, condicionando su utilización si al medir la fluidez de las mezclas de prueba, se aprecia que el mortero no resulta laborable para la tecnología de máquina extendedora. Como variable independiente de la investigación se selecciona la proporción de arena respecto al peso de cemento, con un rango de variación de 0,5 partes, un nivel mínimo de 2,5 partes de arena (dosificación empleada originalmente en el sistema), un nivel máximo de 3,5 partes de este material y un nivel medio de 3 partes. Esto conlleva al empleo de las tres dosificaciones que se muestran en la tabla 1, cada una de las cuales cumplen las recomendaciones normadas y se diferencian sólo en el consumo de cemento y arena por metro cúbico de mortero. Sin embargo, se mantiene constante la relación agua/cemento en peso. Se planifica inicialmente que, con cada una de estas dosificaciones, se preparen cuatro amasadas. Tabla 1: Dosificaciones iniciales empleadas en la investigación. Dosificación Materiales para 1 m3 de mortero, kg Proporción en peso Cemento Arena Agua Cemento Arena Agua 1 580 1440 260 1 2,5 0,45 2 520 1572 236 1 3 0,45 3 470 1650 213 1 3,5 0,45 Como variables dependientes o rendimiento, se mide en estado fresco la consistencia en la mesa de sacudidas, y además, de forma cualitativa, se aprecia visualmente la carencia o no de pasta; y en estado endurecido, la resistencia a compresión, la densidad y la velocidad del pulso ultrasónico. El objetivo de medir la consistencia es comprobar si, desde el punto de vista de su laborabilidad, la mezcla de mortero puede ser colocada sin dificultades por la máquina extendedora. Primero, a cada amasada se le determina la fluidez en la mesa de sacudidas y se cualifica visualmente la carencia o no de pasta; y después, se hace una comprobación práctica del comportamiento de la mezcla con la máquina extendedora. Si se aprecia que la mezcla de mortero está mayormente libre de grumos y oquedades, y esta drena sin dificultades durante el desplazamiento de la máquina extendedora, no arrastrando mortero y dejando la superficie de los elementos sin irregularidades, se considera como satisfactoria la consistencia, anotando el valor de fluidez que garantiza ello. Para medir las propiedades en estado endurecido, para cada amasada se confeccionan dos juegos de tres briquetas cada uno, lo que incluye las réplicas, cumpliendo con lo establecido en la norma cubana NC 173. Previo a la determinación de la resistencia a compresión, a cada especimen se le determina la densidad y la velocidad del pulso ultrasónico. Posteriormente, con el aditamento establecido en la norma, se determina la resistencia a compresión. En el procesamiento estadístico de los resultados se aplican los procedimientos previstos en la norma cubana NC 192, adecuados a morteros. 3. RESULTADOS Y DISCUSIÓN 3.1 Consistencia de las dosificaciones y comportamiento en la máquina extendedora Con cada dosificación se prepararon cuatro amasadas, siendo los resultados de consistencia obtenidos en la mesa de sacudidas, presencia de grumos y oquedades, y en el comportamiento de la mezcla de mortero en la máquina extendedora, los que se muestran en la tabla 2. Tabla 2: Resultados de la medición de la consistencia en las amasadas de las tres dosificaciones. Dosificación Amasadas Diámetro en la mesa de sacudidas, mm Carencia de pasta Comportamiento en la máquina extendedora Individual Promedio de la amasada Sí No 1 Original 1.1 178 177 X No arrastra 1.2 173 X No arrastra 1.3 180 X No arrastra 1.4 178 X No arrastra 2 2.1 154 158 X Arrastra poca mezcla 2.2 162 X No arrastra 2.3 160 X No arrastra 2.4 158 X Arrastra muy poca mezcla 3 3.1 135 133 X Arrastra bastante mezcla 3.2 132 X Arrastra mezcla 3.3 128 X - 3.4 137 X - Puede apreciarse que la fluidez del mortero disminuye en la misma medida que se incrementa la proporción de arena, observándose además carencia de pasta en la dosificación con mayor proporción de arena, con abundantes grumos y oquedades. En las dosificaciones 1 y 2, que presentan menor proporción de arena, no se aprecia visualmente carencia de finos. Este comportamiento se corresponde con lo recogido en la literatura especializada [3,5], y demuestra que para que el mortero sea laborable, la proporción en peso de arena no debe superar en tres veces la del cemento. Esto se confirma al evaluar el comportamiento de los morteros en la máquina extendedora. El mortero de la dosificación 1, que posee 2,5 partes en peso de arena por peso de cemento, drena sin dificultades bajo la maquina extendedora; el correspondiente a la dosificación 2, se comporta de manera similar, aunque arrastrando pequeñas porciones de mezcla; sin embargo, el de la dosificación 3, que es el menos rico en cemento, no drena satisfactoriamente durante el movimiento de la máquina, arrastrando bastante mezcla. Con este último, al observar que la laborabilidad de la mezcla no es compatible con la tecnología de máquina extendedora, sólo se realizaron dos ensayos. En esta parte de la investigación, se concluye que para que sea satisfactoria la laborabilidad del mortero para el funcionamiento de la máquina extendedora, el diámetro de la huella en la mesa no debe ser menor de unos 150 mm, lo que se puede lograr, para una relación agua/cemento en peso de 0,45, con una proporción de 2,5 a 3 partes en peso de arena que pase por el tamiz de 4,75 mm por parte de cemento. 3.2 Densidad en estado endurecido La densidad en estado endurecido puede dar medida de la presencia de oquedades o poros en el mortero. A medida que se incrementa la densidad dentro de los rangos establecidos, la porosidad del mortero endurecido debe ser menor. La densidad del mortero en estado endurecido se determina dividiendo la masa de la probeta en estado seco entre el volumen que ocupa cuando se sumerge en agua, en estado saturado. El volumen de la probeta se calcula por la expresión 1. VProb = mSat - mSum ρ Agua , m3 (1) Siendo: ❑ mSat : Masa de la probeta saturada y sin humedad superficial, kg. ❑ mSum : Masa de la probeta sumergida, kg. ❑ ΡAgua : Densidad del agua, kg/m3. Recordar que con cada amasada se prepararon dos juegos de tres briquetas cada uno, por lo que en cada amasada se miden seis valores de densidad, determinando el promedio por amasada, y posteriormente el promedio por dosificación. Los resultados se pueden apreciar en la tabla 3. Lo primero a destacar es la uniformidad existente en los valores de densidad internamente en cada dosificación. En las tres dosificaciones, el recorrido de los valores de densidad no supera los 20 kg/m3, que respecto a los promedios de cada dosificación sólo representan el 0,8%. Ello es indicador estadístico de la rigurosidad con que se efectuaron los ensayos. En segundo lugar, se aprecia un incremento del valor promedio de densidad en la dosificación 2 respecto a la dosificación 1 (incremento del 0,5%); y una disminución de la dosificación 3 respecto a las dosificaciones 1 y 2 (disminución del 1% respecto a la dosificación 2 y del 0,5% respecto a la dosificación 1). Lo lógico sería pensar una disminución de la densidad en estado endurecido a medida que disminuye la proporción de cemento en la dosificación, como ocurre en la dosificación 3 respecto a las otras dos. Pero sin embargo, entre las dosificaciones 1 y 2 no ocurre así, debiendo buscar la explicación en el mejor acomodamiento que se logra entre las partículas en la dosificación 2. La dosificación 3 está caracterizada por la carencia de pasta de cemento y la presencia de mayor cantidad de poros que en las otras dos. Aunque la normativa no recoge especificaciones referidas a la densidad de los morteros, los valores obtenidos, ligeramente menores que en los hormigones, son lógicos al no existir partículas de áridos gruesos. Debe tenerse en cuenta además, que precisamente las dos dosificaciones con valores promedio mayores, se corresponden con las que mejor comportamiento tuvieron ante la tecnología de colocación con la máquina extendedora. 3.3 Velocidad del pulso ultrasónico Similar al proceder seguido para la determinación de la densidad, para determinar los valores de velocidad del pulso ultrasónico se cuenta con seis briquetas en cada una de las cuatro amasadas de las tres dosificaciones, lo que permite incrementar la confiabilidad en los resultados. A cada briqueta se le hicieron tres mediciones, determinando el promedio individual. Tabla 3: Resultados de la medición de la densidad Amasadas Densidad, kg/m3 Dosificación 1 (1:2,5:0,45) Dosificación 2 (1:3:0,45) Dosificación 3 (1:3,5:0,45) Densidad individual Densidad promedio Densidad individual Densidad promedio Densidad individual Densidad promedio 1 2340 2333 2350 2342 2330 2320 2320 2340 2320 2330 2350 2320 2340 2340 2320 2330 2330 2310 2340 2340 2320 2 2330 2328 2350 2345 2320 2315 2330 2350 2310 2320 2340 2310 2340 2350 2320 2330 2340 2320 2320 2340 2310 3 2330 2332 2350 2343 2320 2322 2320 2330 2330 2340 2350 2330 2330 2340 2310 2340 2350 2320 2330 2340 2320 4 2340 2330 2340 2343 2330 2316 2330 2340 2310 2330 2350 2310 2330 2340 2320 2320 2340 2310 2330 2350 2320 Promedio por dosificación 2331 2343 2318 Los resultados obtenidos en las mediciones de la velocidad del pulso ultrasónico pueden ser apreciados en la tabla 4 para cada una de las dosificaciones. El análisis de estos resultados permite llegar a conclusiones importantes. En primer lugar, cuando se consulta la red DURAR del CYTED [15], se puede apreciar que en todos los casos la velocidad del pulso ultrasónico supera los 4000 m/s, lo que según este manual caracteriza a mezclas durables. Cuando además se evalúan los promedios individuales y los promedios por amasadas dentro de cada dosificación, se aprecia la no existencia de diferencias significativas dentro de los valores de velocidad del pulso ultrasónico, lo que habla favorablemente de la calidad de los procedimientos experimentales. En la dosificación 1, el recorrido de la velocidad del pulso ultrasónico promedio por amasada es de tan sólo 76 m/s, lo que representa el 1,6% respecto a la velocidad media; en la dosificación 2 es aún menor con 63 m/s, lo que representa el 1,4%; y en la dosificación 3 el recorrido es el menor, de 22 m/s, lo que representa el 0,5%. El comportamiento de una dosificación a otra se corresponde con lo esperado. En la misma medida que la proporción de pasta de cemento se incrementa en la mezcla, es mayor la velocidad de la onda ultrasónica, lo que es reflejo de menor proporción de poros. En este sentido, la mayor calidad se alcanza en la dosificación 1 y la menor en la dosificación 3, comportamiento muy similar al obtenido al medir la densidad en estado endurecido. Tabla 4: Resultados de la medición de la velocidad del pulso ultrasónico Amasadas Velocidad del pulso ultrasónico, m/s Dosificación 1 (1:2,5:0,45) Dosificación 2 (1:3:0,45) Dosificación 3 (1:3,5:0,45) Promedio individual Promedio por amasada Promedio individual Promedio por amasada Promedio individual Promedio por amasada 1 4697 4675 4585 4595 4463 4480 4669 4585 4478 4660 4602 4473 4663 4593 4502 4688 4605 4487 4675 4598 4477 2 4594 4613 4624 4638 4510 4502 4651 4642 4503 4585 4642 4496 4632 4643 4492 4605 4640 4498 4612 4638 4512 3 4585 4606 4549 4575 4504 4493 4585 4520 4474 4615 4585 4483 4625 4594 4489 4610 4602 4508 4618 4598 4498 4 4602 4599 4620 4610 4479 4491 4594 4604 4486 4585 4598 4487 4598 4612 4492 4612 4608 4498 4604 4618 4503 Promedio por dosificación 4623 4604 4491 3.4 Resistencia a compresión Junto a la laborabilidad en estado fresco, resulta la resistencia a compresión la propiedad determinante al decidir la dosificación a emplear en la fabricación de los elementos prefabricados del sistema SERMAP. Como ya fue expuesto anteriormente, por criterios de diseño el mortero estructural utilizado en las losas y paneles debe cumplir con una resistencia característica a compresión entre 25 MPa y 30 MPa. De cada amasada se preparan seis briquetas, que una vez sometidas a flexión originan doce semibriquetas para los ensayos de resistencia a compresión. O sea, de cada amasada se tienen doce resultados de resistencia a compresión, suficientemente grande para garantizar la confiabilidad de los resultados. Los resultados que se muestran a continuación reflejan el comportamiento de esta propiedad en cada una de las tres dosificaciones. La tabla 5 muestra los resultados de resistencia a compresión a 28 días para la dosificación 1 (1:2,5:0,45). Tabla 5: Resultados de resistencia a compresión a 28 días para la dosificación 1 (1:2,5:0,45) Amasada Promedio por briqueta, MPa Promedio por amasada, MPa Recorrido de la amasada, MPa Media del lote, MPa Recorrido medio del lote, MPa Coeficiente de variación interna, % Desviación típica del lote, MPa Resistencia característica real del lote, MPa 1 44,93 45,61 1,65 44,22 2,23 3,47 3,21 39,92 45,33 46,58 45,40 45,82 45,60 2 44,23 45,24 2,16 45,11 46,39 45,26 44,93 45,55 3 40,21 41,65 2,93 41,59 43,14 41,10 41,63 42,20 4 43,62 44,38 2,16 43,75 45,78 44,01 44,75 44,37 El coeficiente de variación interna del ensayo muestra la relación entre la desviación típica interna del ensayo y la resistencia media a compresión del lote. Un valor entre 3% y 4% califica como bueno para mezclas de prueba en el laboratorio, lo que es reflejo de muy buenos procederes de laboratorio. La desviación típica del lote brinda criterios de uniformidad entre las amasadas. Una desviación típica del lote entre 2,8 MPa y 3,4 MPa, se considera muy bueno a los efectos del control de calidad, siendo este el caso. Puede apreciarse además en la tabla 5, que como resultados del ensayo, la resistencia característica real obtenida en la dosificación 1 es de 39,92 MPa, demasiado alta según los criterios de diseño (entre 25 MPa y 30 MPa), lo que significa que en esta dosificación el consumo de cemento es excesivo, y por criterios de resistencia a compresión no debe seleccionarse. En la tabla 6 se muestran los resultados de resistencia a compresión obtenidos producto de la rotura de las briquetas en la dosificación 2 (1:3:0,45). En este caso, el coeficiente de variación interna del ensayo fue de 3,71, poco mayor que el de la dosificación 1, y que también califica como bueno para mezclas de prueba en el laboratorio, lo que es reflejo de buenos procederes de laboratorio. Tabla 6: Resultados de resistencia a compresión a 28 días para la dosificación 2 (1:3:0,45) Amasada Promedio por briqueta, MPa Promedio por amasada, MPa Recorrido de la amasada, MPa Media del lote, MPa Recorrido medio del lote, MPa Coeficiente de variación interna, % Desviación típica del lote, MPa Resistencia característica real del lote, MPa 1 32,34 33,83 2,60 33,93 1,84 3,71 0,66 32,85 34,21 34,94 34,77 32,88 33,81 2 31,63 33,55 3,03 34,35 34,66 32,74 33,53 34,36 3 34,59 34,89 0,65 34,83 35,24 35,12 34,88 34,67 4 32,87 33,45 1,08 33,54 33,95 33,00 33,47 33,89 Sin embargo, la desviación típica del lote en este caso fue mucho menor, de tan sólo 0,66 MPa, considerándose excelente tanto en el control de calidad a nivel de campo como en la ejecución de mezclas de prueba en el laboratorio. Ello refleja la habilidad que se fue alcanzando por los laboratoristas en la realización de las mezclas de mortero para la máquina extendedora y en la realización de los ensayos de resistencia a compresión. Pero sin dudas, el resultado más relevante es el obtenido con la resistencia característica real, en este caso de 32,85 MPa, mucho menor que el valor obtenido en la dosificación 1 (39,92 MPa). La resistencia característica real obtenida en esta dosificación 2 resulta compatible con el criterio de diseño (resistencia característica entre 25 MPa y 30 MPa), lo que significa que comparada con la dosificación 1, es factible disminuir en la mezcla 60 kg de cemento por metro cúbico de mortero, cumpliendo los requisitos técnicos de diseño. A este resultado hay que agregar los ya obtenidos en relación con la laborabilidad, el comportamiento ante la máquina extendedora y restantes propiedades físicas y de durabilidad ya determinadas, lo que la hace hasta esta parte de la investigación, como la de mejores propiedades. No obstante haberse apreciado ya que la mezcla 3 no cumplía los requisitos de laborabilidad exigidos por la máquina extendedora, se decide efectuar los ensayos de resistencia a compresión, reflejándose los resultados en la tabla 7. Tabla 6: Resultados de resistencia a compresión a 28 días para la dosificación 2 (1:3:0,45) Amasada Promedio por briqueta, MPa Promedio por amasada, MPa Recorrido de la amasada, MPa Media del lote, MPa Recorrido medio del lote, MPa Coeficiente de variación interna, % Desviación típica del lote, MPa Resistencia característica real del lote, MPa 1 31,26 30,17 2,31 29,16 2,57 14,89 0,69 28,03 30,34 30,22 29,78 28,95 30,46 2 30,45 29,03 2,24 29,2 29,32 28,46 28,55 28,21 3 30,32 28,68 2,84 27,48 27,96 28,33 29,44 28,52 4 29,21 28,78 2,87 29,46 28,33 27,45 30,32 27,88 Aunque esta dosificación ha sido rechazada a priori, resaltar en los resultados el elevado coeficiente de variación interna del ensayo y la resist4ncia característica real obtenida, de tan solo 28,03 MPa, menor que los 30 MPa exigidos. 4. CONCLUSIONES La investigación realizada demuestra que una dosificación en peso por metro cúbico de mortero de 520 kg de cemento, 1572 kg de arena, en este caso procedente de la cantera “La Victoria”, y 236 kg de agua (proporciones en peso de 1:3:0,45), satisface los requerimientos tecnológicos y de diseño para la fabricación de las losas y paneles del sistema SERMAP. En relación con la proporción en peso de 1:2,5:0,45, logra reducir el consumo de cemento por metro cúbico de mortero. Se descarta la dosificación en peso de 1:3,5:0,45, ya que esta no satisface los requerimientos de laborabilidad de la máquina extendedora ni cumple las especificaciones técnicas de diseño. Además de ser laborable, extenderse sin dificultades durante el desplazamiento de la máquina, cumplir con la resistencia a compresión especificada, clasifica como una mezcla durable. Especificar que la arena, para ser empleada, no debe tener partículas de tamaño superior a 4,75 mm, debido al poco espesor de las piezas. A modo de recomendaciones, se deben seguir las investigaciones con el empleo de otros materiales y aplicando la misma metodología. REFERENCIAS 1. WAINSHTOCK RIVAS, Hugo et al. “Catálogo del sistema SERMAP”, Centro de Estudios para la Construcción y Arquitectura Tropical, Cujae. La Habana, 2022. 58 pp. 2. WAINSHTOCK RIVAS, Hugo et al. “Video promocional del sistema SERMAP”, Centro de Estudios para la Construcción y Arquitectura Tropical, Cujae. La Habana, 2021. 17 pp. 3. CASTRO SANTOS, Casandra Semiramis et al. “Propiedades físicas y mecánicas del mortero con alta resistencia a compresión”. Academia Journal, 2021, Vol. 13, No. 10, pp. 504-509. 4. RAINI, Imane et al. “Performance evaluation of cement mortar containing construction and demolition waste as supplementary cement materials”. Ceramics-Silikáty, 2022, Vol. 66, No. 4, pp. 407-418. 5. PATIÑO MURILLO, Julián Alberto et al. “Estudio del comportamiento de muestras de mortero natural sometidas a esfuerzos de compresión”. Revista Lámpsakos, 2018, No. 20, pp. 22-28. 6. CONSUEGRA LEÓN, Liset; TORRES FUENTES, Magalys. “Propuesta de mortero para ser utilizado en la reparación y rehabilitación de estructuras”. Revista de Arquitectura e Ingeniería, 2012, Vol. 6, No. 1, pp. 1-9. 7. GARCÍA MORA, Raymundo et al. “Estudio de mortero experimental fabricado con polvo producto de trituración y cemento portland compuesto”. Revista de Ingeniería Civil, 2018, Vol. 2, No, 6, pp. 13-18. 8. LE, T.; REMOND G., S.; LE, S.; GARCÍA DÍAZ, E. “Fresh behavior of mortar based on recycled sand – Influence of moisture condition”, Journal of Construction and Building Materials, 2016, Vol. 1, No. 106, pp. 35-42. 9. MAYOR HERNÁNDEZ, N. et al. “Uso de la escoria de horno de arco eléctrico (EHAE) como agregado fino para la producción de mortero estructural”, presentado en el Encuentro Internacional de Educación en Ingeniería, Pontificia Universidad Javeriana, Cali, Colombia, 2021. 10. RASHAD ALAA, M. “Behavuir of slag aggregate in mortar and concrete – A comprehensive overview”, Journal of Building Engineering, 2022, Vol. 53, 104536. 11. JOUVE LOOR, Angie Dayana; ANDRADE LASTRA, Orlando Andrés; ARECHE GARCÍA, Javier Nicolás. “Mortero con incorporación de fibra de coco y cerámica para acabados interiores de edificaciones”. Revista Polo del Conocimiento, 2021, Vol. 6. No. 4, pp. 315-336. 12. CUÉTARA RICARDO, Joaquín Raúl; URANGA RODRÍGUEZ, Dayron; BELLO MIRANDA, Maykel Alfredo. “Influencia de las partículas trituradas de PET en la permeabilidad de los morteros estructurales. Revista Ciencia y Construcción, 2022, Vol. 3, No. 2, pp. 57-67. 13. OJEDA, Juan Pablo; MERCANTE, Irma Teresa; FAJARDO, Nicolás Horacio. “Ensayos mecánicos sobre morteros con agregados de plástico reciclado dosificados según modelo de conductividad térmica”. Revista Internacional de Contaminación Ambiental, 2022, Vol. 36, No. 2, pp. 465-474. 14. ÁLVAREZ CABRERA, Jorge Luis. “Manual práctico de albañilería”. La Habana, Editorial Obras, 2013. 118 pp. ISBN 978-959-247-093-4. 15. PROGRAMA IBEROAMERICANO DE CIENCIA Y TECNOLOGÍA PARA EL DESARROLLO (CYTED). “Manual de inspección, evaluación y diagnóstico de corrosión en estructuras de hormigón armado”. Río de Janeiro, CYTED, 1997. 208 pp. Sobre los autores René A. Puig Martínez, Universidad Tecnológica de La Habana “José Antonio Echeverría”, CECAT, Ingeniero Constructor, Doctor en Ciencias, Profesor Titular, profesor de Tecnología y Materiales de Construcción. Joel Bayle Yong, Universidad Tecnológica de La Habana “José Antonio Echeverría”, CECAT, Ingeniero Civil, técnico del laboratorio de Materiales de Construcción. Giovany Alemán Carmenate, Universidad Tecnológica de La Habana “José Antonio Echeverría”, CECAT, Ingeniero Civil, profesor de Materiales de Construcción, Instructor. Luis E. González Martínez, Universidad Tecnológica de La Habana “José Antonio Echeverría”, CECAT, Ingeniero Civil, técnico del laboratorio de Materiales de Construcción. COMPARACIÓN DE SOLUCIONES ESTRUCTURALES DE ANCLAJES PARA TORRE ATIRANTADA SOBRE CUBIERTA Gerardo Pérez Martínez1, Roberto de la C. Llerena2, Alejandro Miguel Guerra Paz3, Kelvin Barban Lara4, Leandra Orlandi González5 1,2,3,4,5 Facultad de Ingeniería Civil. Universidad Tecnológica de La Habana “José Antonio Echeverría” (Cujae). Calle 114 No 11901 entre 119 y 127, Marianao, La Habana, Cuba. 1e-mail: gperezm@civil. Cujae.edu.cu 2e-mail: rllerenat@ civil.cujae.edu.cu 3e-mail: alejandguegonz@civil.cujae.edu.cu 4e-mail: kelvinbarlar@civil.cujae.edu.cu 5e-mail: leandraorlgonz@civil.cujae.edu.cu RESUMEN Las torres atirantadas son un ejemplo de estructuras donde la acción del viento tiene una marcada influencia en el comportamiento estructural de cada uno de los elementos que la componen. Por su ubicación geográfica, Cuba se ve fuertemente afectada por los fenómenos atmosféricos, por lo que es fundamental la correcta evaluación de la carga de viento sobre las torres. El presente trabajo tiene como objetivo la revisión estructural de una torre arriostrada que se instalará en la cubierta de la central termoeléctrica Máximo Gómez, en la Provincia de Artemisa. Se realizó un estudio comparativo entre dos propuestas de estructuras de transición de acero para anclar la torre y sus cables a la armadura de acero que soporta el techo de la planta termoeléctrica. Los parámetros que se tuvieron en cuenta para la comparación fueron el aprovechamiento de la capacidad resistente de los elementos, la cantidad de materiales utilizados y el nivel de dificultad de poder acometer cada una de las soluciones, garantizando la constructibilidad del proyecto. PALABRAS CLAVES: torre atirantada, viento, estructura de transición. COMPARISON OF STRUCTURAL SOLUTIONS OF ANCHORAGES FOR GUYED MAST ON THE ROOF ABSTRACT Guyed mast are an example of structures where the action of the wind has a marked influence on the structural behavior of each of the elements that compose it. Due to its geographical location, Cuba is strongly affected by atmospheric phenomena, which is why the correct evaluation of the wind load on the towers is essential. The objective of this work is the structural review of a guyed mast that will be installed on the roof of the Máximo Gómez thermoelectric plant, in the Province of Artemisa. A comparative study between two proposals for steel transition structures was carried out to anchor the tower and its cables to the steel truss that support the roof of the thermoelectric plant. The parameters taken into account for the comparison were the use of the resistant capacity of the elements, the amount of materials used and the level of difficulty of being able to undertake each of the solutions, guaranteeing the constructability of the project. KEY WORDS: guyed mast, wind, transition structure. 1. INTRODUCCIÓN Las torres atirantadas de celosía son estructuras de gran complejidad debido a la presencia de cables para garantizar su estabilidad, los cuales le confieren al conjunto un comportamiento caracterizado por la no linealidad geométrica producto de la variación de la rigidez de los mismos a los desplazamientos horizontales de la estructura frente a cargas de viento. La mayor parte de la no linealidad de estas estructuras proviene de la relación no lineal que existe entre la fuerza y el desplazamiento de los cables inclinados al actuar la carga de viento [1]. Algunos artículos han sido publicados basándose en el estudio de la no linealidad de los cables. Madugula [2] propone dos enfoques para analizar el comportamiento de los cables: bajo un comportamiento estático y para un comportamiento dinámico de los mismos, mientras que autores como Shi, H. y H. Salim [3] plantean que cuando la torre atirantada experimenta grandes deformaciones la rigidez global cambia significativamente y la respuesta se vuelve muy diferente a la de una torre sin grandes deformaciones, los cables se comportan de una forma altamente no lineal y la respuesta es muy difícil de predecir usando la teoría lineal del cable. La norma que rige el cálculo de la carga de viento sobre las edificaciones en Cuba es la es la NC-285:2003 [4], que se encuentra en un proceso de actualización por el comité de normalización NC-285:2022. La versión actualizada plantea el cálculo de las acciones del viento mediante el método de Patrones de Carga, que es el empleado en esta investigación. Estudios recientes relacionados con torres atirantadas están encaminados a la aplicación de modelos de elementos finitos para el análisis de torres atirantadas frente a la acción del viento, teniendo en cuenta la no linealidad geométrica y considerando los cables como elementos de perfil catenaria [2], por lo tanto en este trabajo se emplea la modelación computacional teniendo en cuenta estos aspectos. Estudios realizados por Elena y Fernández [1] en la comparación del análisis estructural de torres atirantadas en condiciones de comportamiento lineal y no lineal de los cables bajo la acción de cargas extremas evidencia que se subestiman los esfuerzos a los que está sometida la estructura si no se realiza un análisis no lineal geométrico. De modo que el análisis tomará en cuenta el comportamiento no lineal de la estructura. Esta investigación parte de una solicitud de servicio científico–técnico realizada por la empresa RadioCuba, para la revisión estructural de una torre atirantada que soportará un radar que formará parte del servicio de Guardafronteras de Cuba. La torre será instalada sobre la cubierta de la termoeléctrica Máximo Gómez, sitio con alta proximidad al mar y en la provincia de Artemisa, territorio con alto peligro de ocurrencia de vientos extremos debido a huracanes. En el trabajo se presentan además dos propuestas metálicas de estructura de transición para el anclaje de la torre y sus cables a las armaduras metálicas que soportan la cubierta de la nave de la termoeléctrica. Los objetivos que persigue son comprobar la capacidad resistente de la torre ante las cargas a las que se podría enfrentar en su vida útil y comparar las soluciones de anclaje propuestas en el trabajo. 2. DESARROLLO Características del objeto de estudio El objeto de estudio es una torre atirantada ubicada sobre la cubierta de la Termoeléctrica Máximo Gómez en el Mariel. Por cuestiones técnicas la torre debe de estar ubicada a 4 m del borde de la nave y alineada con la batería de chimeneas que colinda con la nave (Fig. 1, Fig. 2 y Fig. 3), lo que complejiza su anclaje a la estructura. La nave posee una altura de 27 m, una longitud de 259 m con intercolumnios cada 6 m, la cubierta está formada por losas casetonadas apoyadas sobre armaduras metálicas que salvan una luz de 39m. Figura 1: Replanteo de la torre. Dimensiones en metros Figura 2: Vista en planta de la posición de la torre Figura 3: Vista frontal de la posición de la torre La estructura del fuste fue modelada empleando el software de análisis estructural SAP 2000 en su versión 23, como una armadura espacial tridimensional, teniendo en cuenta cada uno de sus elementos: columna, diagonales, tranques y dos niveles de vientos que tributan a los anclajes ubicados en la cubierta de la nave. El mástil tiene una altura de 18,6 m y su sección transversal es triangular equilátero de ancho 0,30 m. Las columnas que conforman las aristas son de sección transversal tubular maciza con un diámetro de 30 mm, mientras que las diagonales y los tranques son de 16 mm. Los elementos del mástil son de acero A-36, con tensión de fluencia 250 MPa y con una tensión de rotura de 400 MPa. Los cables de acero son de 12 mm de diámetro con una tensión de fluencia de 1600 MPa y una tensión de rotura de 2000 MPa. En la Tabla 1 y en la Fig. 4 se definen las características y disposición de los cables. Tabla 1: Datos de los cables para la construcción del modelo Nivel Ángulo con la torre (grados) Diámetro (mm) Carga de rotura (kN) 1 46 12 226,2 2 27 12 226,2 Figura 4: Modelo de torre. Dimensiones en milímetros Los elementos que componen la armadura espacial (columnas, diagonales y tranques) fueron modelados como elementos barras (Fig. 5). Las columnas se consideraron continuas desde la base del fuste hasta el tope garantizando la transmisión de las solicitaciones; el resto de los vínculos se consideraron articulados. Tranques y diagonales Tubulares macizos de 16 mm. Columnas Tubulares macizas de 30 mm. Figura 5: Esquema de elementos componentes Las condiciones de apoyo de la estructura están dadas por la unión del fuste a la estructura de transición y la unión de los cables mediante los anclajes. Ambos tipos de uniones fueron consideradas como articulaciones espaciales. Cargas Sobre la torre fueron consideradas las acciones de tesado inicial en los cables (como el 10% del valor de la carga de rotura mínima dada por el fabricante según el diámetro y calidad del cable), el viento (para los que se tomaron en cuenta los datos generales mostrados en la Tabla 2), el peso propio, así como el peso y el efecto del viento sobre un radar ubicado en el tope de la torre (el cual se asignó como una carga aplicada en el último tramo como cargas puntuales en los tres nodos 0,51 kN). Para la determinación de las combinaciones a emplear se utilizó la NC 450 [5] trabajando finalmente con 0,9Cp + 1,4Cv y 1,2Cp + 1,4Cv (Cp: Carga Permanente y Cv: Carga de Viento). El viento sobre el mástil y los cables fue calculado empleando estudios previos para actualizar la norma cubana de viento [6-10] y las direcciones de viento estudiadas fueron 0º, 60º y 90º, así como por la monografía de estudios preliminares para modificar la norma de viento en Cuba. La acción dinámica del viento sobre la estructura fue tomada en cuenta empleando el método estático equivalente de los patrones de carga “Patch Load”, donde las cargas asignadas sobre la estructura se dividen en dos componentes: una carga media de viento que se aplica sobre el fuste y los cables de la torre y un grupo de patrones de carga de valor variable que se asignan sobre los cables y secciones del fuste. La Fig. 6 muestra el perfil de carga de viento distribuida sobre las columnas de la torre a partir de los primeros metros de esta, para la altura inicial de la misma la carga de viento no es nula, debido a que se encuentra sobre la altura de 27m del tope de la nave. Tabla 2: Datos generales que se tomaron en cuenta para el cálculo de las acciones del viento. Velocidad Básica de Viento (10 minutos) para la región de Mariel Velocidad equivalente 218 Km/h que responde a un Huracán categoría 4. un Huracán categoría 4. Topografía del lugar: Sitio Expuesto Período de recurrencia: 50 años. Zona Geográfica Zona I Tipo de terreno: Categoría I: que responde a la siguiente descripción: Terreno de mar o costa. Terreno expuesto al mar abierto. Figura 6: Perfil de carga de viento distribuida sobre las columnas Análisis estructural Para la revisión estructural de los elementos metálicos que conforman la torre se emplearon las especificaciones del AISC 360-10 [11]. La torre resiste las solicitaciones impuestas por las cargas de viento, calculadas a partir de la actualización (aún no publicada) de la norma cubana de viento NC285. A partir de este análisis se procede al diseño de los elementos de sujeción de la base de la torre y sus anclajes a la cubierta existente. Con relación a las fuerzas interiores, se apreció que todos los elementos se encuentran trabajando con una relación demanda-capacidad inferior a 0,35. Los cables se encuentran trabajando a 12,72kN lo que representa el 10% de su carga de rotura, cumpliéndose la recomendación de trabajar por debajo del 60% de la carga de rotura por márgenes de seguridad. La Tabla 3 muestra las reacciones en la base de la torre y en los anclajes, resultantes de las diferentes combinaciones de carga para las cuales se debe realizar el diseño de la solución de la base y los anclajes, y la Fig. 7 los desplazamientos de la torre. Tabla 3: Reacciones en la base de la torre y en los anclajes. Posición de la reacción Combinación de carga Fx (kN) Fy (kN) Fz (kN) Fuste 1.2Cp+1.4Cv 0,326 0,594 119,604(compresión) Anclajes 0,9Cp+1,4CV 0.25 33.13 46,81 (tracción) En la figura 7 se muestran los desplazamientos en la torre 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 0.048 0.050 0.052 0.054 0.056 0.058 A lt u ra d e la t o rr e (m ) Carga de viento sobre las columnas (kN/m) 0º 45º 90º Figura 7: Desplazamientos en el tope de la torre Se presentan dos propuestas metálicas de estructura de transición para el anclaje de la torre y sus cables a las armaduras metálicas que soportan la cubierta de la nave de la termoeléctrica. Variante 1 Como solución para soporte del fuste se dispondrán dos perfiles W 200 x 35.9 con una separación entre alas de 10 cm, sobre estos perfiles se dispondrá una placa base de 10 mm de espesor y de dimensiones 750 x 750 mm, sobre esta placa base se apoyará el fuste de la torre. Los cables estarán anclados a placas bases de 750 x 750 mm, los cuales se apoyarán sobre pedestales de hormigón armado. Esta primera parte de la solución es común para ambas variantes. La primera variante de solución para anclar la torre a la estructura principal de la nave se propone la anterior estructura de transición, la cual estará compuesta de perfiles angulares que se soldarán a las armaduras penetrando el casetón de la cubierta. Estos a la vez tendrán una plancha soldada en el tope (Fig. 8). El mástil se apoyará sobre una plancha metálica que será soldada sobre dos vigas, las cuales se apoyarán sobre la plancha que está encima de los perfiles angulares (Fig. 9). Para los anclajes de los cables se empleará una solución similar se soldarán perfiles angulares a las armaduras y estos tendrán una plancha soldada en el tope y sobre esta la oreja (Fig. 10). 0 2 4 6 8 10 12 14 16 18 20 0 0.005 0.01 0.015 0.02 0.025 0.03 0.035 0.04 A lt u ra ( m ) Desplazamientos (m) Figura 8: Estructura de transición del mástil Figura 9: Apoyo del mástil Figura 10: Anclaje de los cables Variante 2 Como segunda variante solución para anclar la torre a la estructura principal de la nave se propone igualmente una nueva estructura de transición, la cual estará compuesta por pernos que penetran el casetón de la cubierta y se agarran a unas piezas de acero que se abrazan al cordón superior de las armaduras (Fig 11. a, Fig. b y Fig. c). En el caso del mástil, al igual que en la primera propuesta, se apoyará sobre una plancha metálica que será soldada sobre dos vigas, las cuales se apoyarán sobre la plancha que estará sujeta a los pernos que atraviesan la cubierta para enganchar con las piezas que se abrazan a la armadura (Fig. 12). Mientras que los anclajes de los cables apoyan directamente sobre una plancha soldada en la tope sujetada por los pernos antes descritos (Fig. 13). De modo que, en todos los casos, la placa base estará vinculada al cordón superior de la cercha a través de cuatro pernos, estos en su parte inferior están atornillados a una pieza acoplada al cordón superior de la cercha. Figura 12: Vigas soporte del fuste b) Figura 11: Piezas de acero que se abrazan al cordón superior de las armaduras a) c) Figura 13: Vigas soporte de anclajes Comparación de variantes Para comparar las dos variantes propuestas en este trabajo se tomaron como referencia tres importantes aspectos dentro de un proyecto de ingeniería civil: el nivel de aprovechamiento de la capacidad resistente de los elementos que componen cada una de las variantes, estableciendo como criterio la relación demanda/capacidad de los mismos; la cantidad de materiales empleados, ya que esto repercute directamente en el costo de producción de cada una de las soluciones presentadas; y el nivel de dificultad de poder acometer cada una de las soluciones, garantizando la contractibilidad del proyecto. Aprovechamiento de la capacidad resistentes de los elementos Para el diseño de los elementos estructurales metálicos de ambas soluciones se emplearon las especificaciones del AISC 360-10 [11]. En el caso de la primera variante, la falla por rotura de los elementos verticales que transmiten las cargas a la cercha es la condición de trabajo más crítica, con una resistencia de hasta 113kN. En la segunda variante, la falla crítica es la falla por flexión local de los patines de las piezas de unión a la cercha, con una resistencia máxima de 140kN. De modo que en ambas variantes de solución los elementos trabajan entre un 30 y un 40 % de su capacidad máxima resistente, siendo superior el aprovechamiento de los elementos en la primera propuesta. Cantidad de materiales Dado que la diferencia entre las dos variantes propuestas radica en los elementos conectores con la cercha, se centró la comparación de este aspecto en esta parte. Para el caso de la primera variante se requiere de cuatro perfiles de alas iguales L127x127x15,9 de 20m y tres L102x102x12,7 de 15m; lo que hace un total de 35m; además de 4,48m de cordón de soldadura en un total de 28 uniones. En la segunda variante se requiere de 10 piezas de acero para amarrarse al cordón superior de la cercha, con un total de 8,80m; además de 20 pernos. De modo que la segunda variante es la más económica de las dos presentadas en cuanto a a cantidad de materiales. Aspecto constructivo Inicialmente es necesario abrir los agujeros en la cubierta para poder anclar la estructura de transición a la estructura principal de la nave. Los agujeros en las losas casetonadas se realizarán en las ubicaciones cuidando de no perforar los nervios de las losas. Se empleará una grúa para el levantamiento o colocación de los perfiles metálicos en su posición. Para la primera variante se comienza por izar y colocar, con la ayuda de tornillos de montaje, los elementos verticales que soportan el mástil y los anclajes. Estos elementos serán soldados en el sitio a la cercha, lo que complejiza su proceso por la altura a la que se debe de realizar la soldadura. Posterior a esto se colocarán las vigas y las placas base sobre las que se apoya el mástil y se realizarán las soldaduras entre los elementos para garantizar la rigidez de la estructura. Por último, se procede a sellar los agujeros que se realizaron en la losa de cubierta, para esto primero se aplica un mortero de consistencia seca y posterior a esto se realiza la impermeabilización por medio de manta asfáltica. En el caso de la segunda variante, se perforarán solo los agujeros para pasar los pernos por el casetonado, dejando unas vainas colocadas con anticipación. Luego se ajustan dichos pernos a las piezas de conexión con la armadura de la nave, los que deben ser previamente izados, sin grandes complicaciones debido al poco peso y tamaño de dichas estructuras. Por último, se sellan los agujeros de la cubierta. De manera general, se puede apreciar que el proceso constructivo de la variante dos es más viable que el de la primera propuesta. Principalmente por el empleo de la soldadura y por el peso de los elementos de unión a izar. 3. CONCLUSIONES La revisión estructural de la torre demostró que la misma puede soportar sin problemas las cargas que deberá enfrentar en su vida útil, incluida las condiciones extremas de viento. Se presentaron dos propuestas de transición para el apoyo del mástil y los anclajes, formadas ambas de acero A36 y diseñadas según las especificaciones del AISC para soportar las cargas, transmitiéndolas de manera efectiva a la estructura principal de la nave. Estas soluciones de anclaje fueron comparadas tomando en cuenta el aprovechamiento de la capacidad resistente de los elementos que las conforman, la cantidad de materiales empleados en cada una y las dificultades constructivas que requieren, resultando la segunda variante como la más adecuada, la cual se presentó como respuesta a la solicitud de servicio científico – técnico. Esta investigación posee un marcado impacto tomando en cuenta una valoración económica y su aporte social. En primer lugar, constituye una aplicación del nuevo proyecto de norma en proceso de revisión NC- 285:2022 con métodos más actualizados que los que presenta la norma cubana actual NC-285:2003 [4], para el análisis de torres atirantadas, lo que permite un mejor acercamiento al comportamiento de la carga de viento (acción ecológica de indispensable análisis, particularmente en este tipo de estructura con una marcada no linealidad geométrica). En segunda instancia, ya que pone en práctica la política que establece el vínculo Universidad-Empresa en el país, donde el cliente para el que se realiza la propuesta de solución del anclaje de la torre a la nave es RadioCuba, la cual será la entidad encargada de realizar el montaje de la misma. REFERENCIAS 1. PARNÁS, Vivian Elena; LORENZO, Ingrid Fernández. "No linealidad geométrica en torres atirantadas," Revista Cubana de Ingeniería, 2011, vol. 2, núm. 3, pp. 37-44. 2. MADUGULA, Murty KS. "Dynamic response of lattice towers and guyed masts". Virginia, USA: ed. ASCE Publications, 2001. ISBN 0784475113. 3. SHI, H; SALIM, H. "Geometric nonlinear static and dynamic analysis of guyed towers using fully nonlinear element formulations.," Engineering Structures, 2015, vol. 99, pp. 492-501. 4. NC 285. 2003. Carga de viento-Método de cálculo. Oficina Nacional de Normalización. La Habana, Cuba. 5. NC 450. 2006. Edificaciones. Factores de Carga o ponderación-Combinaciones. Oficina Nacional de Normalización. La Habana, Cuba. 6. GARCÍA, Katia Luis. "Análisis estadístico de velocidades de viento para el cálculo de estructuras". Tutoras, Vivian Elena Parnás and Ingrid Fernández Lorenzo. Tesis de maestria, Universidad Tecnológica de La Habana "José Antonio Echeverría", La Habana, 2017. 7. FERNÁNDEZ, Ingrid. "Comparación de métodos de análisis dinámico en una torre atirantada sometida a cargas de viento extremas en Cuba.," Revista de la Asociación Internacional de Conchas y Estructuras Espaciales, 2019, vol. 60. 8. ISMAIL, Ayman M; HASSNIEN, Sherif HM. "Non-Linear Dynamic Analysis of Guyed Towers to Wind Loading," IOSR J. Mech. Civ. Eng. e-ISSN, vol. 15, núm. 1, pp. 21-29. 9. MESHMESHA, J.B; HUSSAM, M.; KENNEDY, K.S. "Static and dynamic analysis of guyed steel lattice towers," Structural Engineering and Mechanics, 2019, vol. 69, núm. 5, pp. 567-577. 10. ELENA, Vivian; MARTÍN, Patricia; LUIS, Katia. "Análisis topológico de los cables en un modelo de torre atirantada," Obras y proyectos, 2019, núm. 26, pp. 65-73. 11. AISC 360-10. 2011. Steel Construction Manual. SOBRE LOS AUTORES Gerardo Pérez Martínez: Ingeniero Civil, Universidad Tecnológica de la Habana “José Antonio Echeverría” (CUJAE). Roberto de la C. Llerena: Ingeniero Civil, Universidad Tecnológica de la Habana “José Antonio Echeverría” (CUJAE). Kelvin Barban Lara: Estudiante de 5to año de Ingeniería Civil de la Universidad Tecnológica de la Habana “José Antonio Echeverría” (CUJAE), alumno ayudante. Leandra Orlandi González: Estudiante de 5to año de Ingeniería Civil de la Universidad Tecnológica de la Habana “José Antonio Echeverría” (CUJAE), alumno ayudante. Alejandro Miguel Guerra González: Estudiante de 5to año de Ingeniería Civil de la Universidad Tecnológica de la Habana “José Antonio Echeverría” (CUJAE), alumno ayudante. ANÁLISIS COMPARATIVO DE LA RESPUESTA ESTRUCTURAL DE UNA EDIFICACIÓN EMPLEANDO LA NORMA CUBANA DE VIENTO Y LA PROPUESTA PARA SU ACTUALIZACIÓN Kelvin Barban Lara1, Leandra Orlandi González2, Alejandro Miguel Guerra González3, Mirell German Piloto Torres4, Alina Beatriz Silva González5 1,2,3,4 Facultad de Ingeniería Civil. Universidad Tecnológica de La Habana “José Antonio Echeverría” Cujae. Calle 114 No 11901 entre 119 y 127, Marianao, La Habana, Cuba. 5 Compañía Contratista de Obras para la Aviación, Ave. Van Troi y Final, Plaza “Fernando Álvarez”, Boyeros; La Habana, Cuba 1e-mail: kelvinbarlar@civil.cujae.edu.cu 2e-mail: leandraorlgonz@civil.cujae.edu.cu 3e-mail: alejandguegonz@civil.cujae.edu.cu 4e-mail: mirellgpilotor@ civil.cujae.edu.cu 5e-mail: alina@ccoa.avianet.cu RESUMEN En los últimos años la respuesta estructural de los edificios ante vientos extremos ha sido objeto de estudio de varios investigadores. Cuba, al estar ubicada geográficamente en una zona tropical, está expuesta a la ocurrencia de eventos meteorológicos con mucha frecuencia, de ahí la importancia que presenta el estudio de la acción del viento en el diseño de las edificaciones. El objetivo de este estudio es analizar la respuesta estructural de un edificio comercial perteneciente al grupo empresarial Aerovaradero, con base en el cálculo de la carga de viento utilizando la NC 285:2003 y la nueva propuesta de norma que se encuentra en proceso de actualización por el comité de normalización Los resultados obtenidos luego del análisis de la respuesta estructural de la edificación demostraron que se obtienen mayores valores en las solicitaciones y deformaciones empleando la nueva propuesta de norma, reafirmando así la necesidad de actualización de la norma cubana de viento. PALABRAS CLAVES: carga de viento, norma cubana de viento, análisis estructural COMPARATIVE ANALYSIS OF THE STRUCTURAL RESPONSE OF A BUILDING USING THE CUBAN WIND STANDARD AND THE PROPOSAL FOR ITS UPDATE ABSTRACT In recent years, the structural response of buildings to extreme winds has been the subject of study by several researchers. Cuba, being geographically located in a tropical zone, is exposed to the occurrence of meteorological events very frequently, hence the importance of studying the influence of the wind on the design of buildings. The objective of this study is to analyze the structural response of a comercial building belonging to Aerovaradero business group, based on the calculation of the wind load using NC 285:2003 and the new standard proposal that is in the process of beign update by part of the standardization committee. The results obtained after the analysis of the structural response of the building showed that higher values are obtained for the forces and deformations using the new proposed standard, thus reaffirming the need to update the Cuban wind standard. KEY WORDS: wind load, cuban wind code, structural analysis 1. INTRODUCCIÓN Cuba está situada en una zona geográfica cuyas condiciones climatológicas propician la formación de ciclones tropicales. Estos eventos rigen el análisis y diseño de las edificaciones, de ahí la importancia de estos estudios en el desarrollo de los proyectos actuales y futuros. La norma que rige el cálculo de la carga de viento sobre las edificaciones en Cuba es la NC-285:2003 [1]. Esta norma plantea el cálculo de la componente estática de la carga de viento a partir de la multiplicación de la presión básica del viento por una serie de coeficientes que tienen en cuenta tanto parámetros meteorológicos, como parámetros asociados a las características de la edificación. Estudios realizados en la última década por García,2017 [2] y Fernández [3] demuestran divergencias con respecto a lo planteado en la norma cubana vigente, y reflejan la necesidad de revisar y actualizar algunos de sus parámetros como son la velocidad básica del viento [2, 3], el coeficiente de ráfaga [4-6] y el coeficiente de altura [7-12]. El objetivo de este trabajo es realizar una comparación de la respuesta estructural de una edificación de estructura de acero sometida a viento extremo, empleando los parámetros de la norma vigente y los parámetros modificados planteados en la nueva propuesta de norma. 2. DESARROLLO Características de la edificación El objeto de estudio es una edificación perteneciente al grupo empresarial Aerovaradero, que será una inmobiliaria destinada a la renta de oficinas de agencias de viajes. Se encontrará ubicada a la izquierda de la entrada principal de la Terminal 3 del Aeropuerto Internacional “José Martí” de la Habana, municipio Boyeros y ocupará un área en el terreno de 2668 m2 (Fig. 1). Figura 1. Edificio de oficinas Aerovaradero. El análisis estructural de la edificación se realizó utilizando como herramienta el programa de análisis y diseño ETABS Ultimate 18.1.0 siguiendo el proceso de las invariantes de la modelación: geometría, condiciones de borde, material y cargas actuantes. La estructura estará compuesta por pórticos metálicos en ambos sentidos, con columnas y vigas laminadas en caliente de sección W. Los pórticos principales tendrán tres luces, dos de 9 m y una intermedia de 5,5 m, mientras que los secundarios estarán formados por 5 intercolumnios de 7,5 m. La súper-estructura contará con 3 niveles y tendrá una altura total de 11,9 m. La altura entre los niveles de piso terminado será de 4,5 m en los dos primeros niveles y 3,6m en el tercer nivel. Cuenta además, con un pretil perimetral de 1 m de altura. La Tabla 1 muestra un resumen de las secciones trasversales de sus principales elementos estructurales. Tabla 1: Secciones trasversales de los elementos principales que conforman la estructura Elemento estructural Dimensiones de los elementos estructurales Losa 109 mm Vigas Principales W530x210x109, W410x180x75 Secundarias W 360x200x79 Viguetas W310x65x52 Columnas W310x310x143 El sistema de piso será rígido en el plano horizontal garantizándose que las losas distribuyan las fuerzas laterales de forma tal, que todas las columnas de un piso tengan las mismas deflexiones. Las conexiones entre las vigas y las columnas, tanto en los pórticos principales como en los secundarios serán continuas, suministrando la resistencia necesaria de la estructura ante las acciones horizontales. La unión columna- cimiento se consideró empotrada. Los entrepisos y la cubierta se realizarán con el sistema losa-acero (steel deck), con espesor de 109mm y resistencia característica del hormigón de 25 MPa. El refuerzo de la losa de hormigón lo constituirá una plancha grecada de alta adherencia, la que llevará además un refuerzo por retracción y temperatura consistente en una malla de acero de 6mm de diámetro. Los muros exteriores serán de bloques de 150 mm de espesor y la panelería interior será ligera. Las cargas consideradas en el estudio fueron las cargas permanentes según la NC-283:2003 [13], la carga de uso según la NC-284:2003 [14] y la carga de viento que fue calculada por dos vías: la primera según los establecido en la NC 285:2003 [1] y la segunda por la nueva propuesta de norma. Las cargas permanentes consideradas fueron el peso de los elementos estructurales, el relleno-piso y la tabiquería. El valor de carga de uso tomado fue el correspondiente a edificaciones de oficinas y comercios. Las combinaciones de cargas utilizadas fueron las establecidas en la norma cubana NC-450:2006 [15]. En todos los casos se refieren al diseño del estado límite último de resistencia y estabilidad de los elementos estructurales. Las combinaciones generales para el análisis de las edificaciones objeto de estudio son las siguientes: 1.4 G 1.2 G + 1.6 Q + 0.5 Qc 1.2 G + 0.5 Q + 1.6 Qc 1.2 G + 1.4 W + 0.5 Q + 0.5 Qc En las expresiones anteriores G es la carga permanente, Q es la carga de uso, Qc la carga de uso de cubierta y W la carga de viento. Cálculo de la carga de viento mediante NC-285:2003 [1] Según la NC 285:2003 [1], la carga de viento debe ser considerada en toda estructura no soterrada, suponiendo que el viento actúa horizontalmente y en cualquier dirección, fundamentalmente las direcciones principales de la estructura (0, 90, 180, 270) (Fig. 1). Figura 1: Direcciones de viento analizadas sobre la edificación. La NC-285:2003 [1] considera dos componentes para el cálculo de la carga de viento, una estática y otra dinámica. En el caso de estudio planteado solo se toma en cuenta la componente estática, la que es obtenida a partir de la multiplicación de una presión básica (q10) por los determinados factores que consideran parámetros meteorológicos y la forma que incide el viento sobre la estructura (1). 𝑞𝑟 = 𝑞10 ∗ 𝐶𝑡 ∗ 𝐶ℎ ∗ 𝐶𝑟 ∗ 𝐶𝑠 ∗ 𝐶𝑟𝑎 ∗ 𝐶𝑓 [𝑘𝑁/𝑚²] (1) Donde 𝑞10 es la presión básica del viento ( kN m2⁄ ) , 𝐶𝑡 es el coeficiente de recurrencia, 𝐶𝑠 es el coeficiente de sitio, 𝐶ℎ es el coeficiente de altura, 𝐶𝑟 es el coeficiente de ráfaga, 𝐶𝑟𝑎es el coeficiente de reducción de área y 𝐶𝑓 es el coeficiente de forma. La presión básica q10 se obtiene a partir de la velocidad característica del viento para un periodo básico de recurrencia a una altura de 10 m sobre el terreno y tomando en cuenta la ubicación geográfica del edificio (Zona 1), por tanto, el valor de presión básica es de 1,3 kN/m2. El coeficiente de recurrencia es igual a 1 para un período de retorno de 50 años, tomado de la Tabla 1 de la NC 285:2003 [1]. El coeficiente de sitio se establece en la Tabla 2 de la NC 285:2003 [1], la obra estudiada se encuentra en un sitio de exposición normal, teniendo un valor igual a 1. El coeficiente de altura es variable en función de la altura de la edificación dependiendo del tipo de terreno (tipo A) y se obtuvo mediante la Tabla 4 de la NC 285:2003 [1]. El coeficiente de reducción de área se obtiene de la figura 4 de la NC 285:2003 [1], tomando en cuenta que es una edificación con una altura menor de 30 m y una dimensión máxima de 45,3 m, resultando un valor de 0,74. El coeficiente de ráfaga considera la naturaleza fluctuante del viento y su interacción con la edificación, toma en cuenta el tipo de terreno y la altura total del edificio, se obtuvo mediante la Tabla 6 de la NC 285:2003 [1], con un valor de 1,16. El coeficiente de forma para superficies frente al viento es +0.8 (presión), para las laterales y para superficies detrás del viento -0.5 (succión), al igual que en la cubierta plana. Se consideraron los escalonamientos producto de la geometría en planta y en elevación del caso de estudio. Cálculo de la carga de viento actuante aplicando la Propuesta de norma. La propuesta de norma para determinar la fuerza del viento sobre la estructura ofrece dos vías: la primera calculando las fuerzas de viento usando coeficientes de fuerzas y la segunda calculando las fuerzas a partir de las presiones superficiales usando coeficientes de presión, siendo esta última la empleada en el estudio (2) 𝐹𝑣𝑒(𝑍𝑒) = 𝐶𝐷 ∗ 𝑞𝑝(𝑍𝑒) ∗ 𝐶𝑝𝑒 [𝑘𝑁/𝑚²] (2) Nota: Solo se considera la fuerza externa a la estructura. Donde 𝐶𝐷 es el coeficiente dinámico que se considera igual a 1 de forma conservadora, 𝑞𝑝(𝑍𝑒)es la presión pico para la altura de referencia (𝑘𝑁/𝑚²) y 𝐶𝑝𝑒 el coeficiente de presión para presión externa. La presión pico para la altura de referencia (3) relaciona la presión básica con coeficientes que toman en cuenta factores meteorológicos. 𝑞𝑝(𝑍𝑒) = 𝑞10 ∗ 𝐶𝑡 ∗ 𝐶ℎ ∗ 𝐶𝑟 (3) Donde 𝑞10 es la presión básica del viento (𝑘𝑁/𝑚²), 𝐶𝑡 es el coeficiente de recurrencia, 𝐶ℎ es el coeficiente de altura, 𝐶𝑟es el coeficiente de ráfaga y 𝑧𝑒 es la altura de referencia, La presión básica está definida para un intervalo promedio de 10 min y un periodo de retorno de 50 años, tomando en cuenta la ubicación geográfica de la obra que en el caso objeto de estudio pertenece a la región 2. Estudios desarrollados a nivel nacional e internacional por Fernández [4] y por Vickery [5] en el Caribe corroboran la Tabla 2.2 de la propuesta de norma que define una presión básica mínima de 0,66 𝑘𝑁/𝑚²en esta región. La altura de referencia en la pared a barlovento de la edificación depende de la relación h/b, siendo h la mayor altura y b el ancho de la edificación. En la obra estudiada para las direcciones 0º y 180º se tiene h=15,45 m y b = 23,5 m; en las direcciones 90º y 270º se tiene h = 15,45 m y b = 45,35 m por tanto, en las cuatro direcciones se cumple que h  b, de ahí que se considere el perfil de la carga de viento uniforme en toda la altura. El coeficiente de recurrencia (Ct) se toma en cuenta un periodo de retorno 50 años por tanto Ct = 1. (Tabla 2.3 Propuesta de norma). El coeficiente de altura (Ch) varían en función de la altura de la edificación y la categoría del tipo de terreno (categoría III). 𝐶ℎ = (𝐶𝑒 (𝑍) 𝐶𝑜 (𝑍) ) 2 (4) donde: 𝐶𝑒(𝑧) es el coeficiente de exposición, que define la variación del perfil vertical de la velocidad del viento en función de la altura según las categorías de terreno. En la Tabla 2.4 de la propuesta de norma se define la categoría del terreno en función de su rugosidad. En este caso es 111, por tanto: 𝑍𝑏 = 5 𝑚 , 𝑍𝐺 = 350 𝑚 , 𝛼 = 0,15 𝑚 y 𝑍 = 15,45 𝑚 (4.1) 𝑍𝑏 < 𝑍 < 𝑍𝐺 ∴ 𝐶𝑒 (𝑍) = 1,7 ( 𝑍 𝑍𝐺 ) 𝛼 (4.1) 𝐶𝑒 (𝑍) = 1,065 𝐶𝑜(𝑍): es el coeficiente de topografía, que refleja el cambio que se produce en la velocidad media del viento cuando este pasa en ángulo recto sobre crestas o colinas. En el caso objeto de estudio 𝐶𝑜 (𝑍) = 1 por presentar un ángulo de inclinación (𝜃𝑠 ) de 0˚ (terreno llano). Definido cada uno de los coeficientes y sustituyendo en la ecuación (4) se obtiene 𝐶ℎ = 1,134 El coeficiente de ráfaga , se determina mediante la ecuación (5) 𝐶𝑟 = 1 + 2𝑔𝐼𝑧 (5) Donde 𝑔 es el factor pico de la velocidad del viento y toma valor de 3,5, 𝐼(𝑧) es la intensidad de turbulencia que se determina para la altura mayor del edificio (5.1) 𝐼𝑧 = 𝐼𝑟𝑧 ∗ 𝐶𝑜𝐼 (5.1) Donde 𝐼𝑟𝑧 es la intensidad de turbulencia a la altura total del edificio (15,45 m) y para un terreno categoria III: 𝑍𝑏 < 𝑍 < 𝑍𝐺 ∴ 𝐼𝑟𝑧 = 0,1 ( 𝑍ℎ 𝑍𝑔 ) −𝛼−0,05 (5.1.1) 𝐼𝑟𝑧 = 0,19 𝐶𝑜𝐼: es el coeficiente de topografía para la intensidad de turbulencia definido por la ecuación 5.1.2: 𝐶𝑜𝐼 = 𝐶𝐼 𝐶𝑜 (5.1.2) La edificacion objeto de estudio se encuentra sobre terreno llano por tanto, 𝐶𝑜𝐼 = 1 Definidos todos los coeficientes se obtiene un valor de Cr=2.33 Con la presión básica y los coeficientes definidos se obtiene una presión pico (𝑞𝑝(𝑍𝑒)) igual a 1,74 𝑘𝑁/𝑚². El coeficiente de presión para presión externa (𝐶𝑝𝑒) es un factor aerodinámico que es regido por la geometría de la estructura, estos coeficientes están dados para áreas entre 1 m2 y 10 m2. En el caso de la estructura analizada se emplean los coeficientes globales (𝐶𝑝𝑒 10) que son los usados en el diseño de las cargas de viento generales de la estructura resistente de la edificación. A partir de lo definido en la Figura 3.6 de la propuesta de norma, se obtiene la distribución por zonas de los coeficientes de presión en las paredes verticales del edificio, para las cuatro direcciones de viento analizadas. Análisis de resultados Se comparó la respuesta estructural de la edificación objeto de estudio a partir del empleo de la NC- 285:2003 [1] y la nueva propuesta de norma. Se analizaron los valores de las solicitaciones en columnas y los desplazamientos totales de la edificación. La columna más cargada en el primer nivel (Fig. 2) para ambas normas se obtuvo para la combinación 1,2G+1,4W+0,5Q+0,5Qc en la dirección del viento 900. Figura 2: Columna más cargada en el primer nivel El mayor valor de fuerza axial (Fig.3) se obtuvo por la NC-285:2003 [1] con un valor de 1497,7 kN. La diferencia con respecto a la nueva propuesta de norma fue de 2,7%. Figura 3: Fuerzas axiales en columnas (kN) El mayor valor cortante (Fig.4) se obtuvo por la nueva propuesta de norma con un valor de 109,1 kN. La diferencia con respecto a la NC-285:2003 [1] fue de 21,7%. 1497.7 1457.1 0 200 400 600 800 1000 1200 1400 1600 1800 Fu er za a xi al ( kN ) NC-285:2003 Nueva propuesta de norma Figura 4: Fuerza cortante en columnas (kN) El mayor valor de momento (Fig.5) se obtuvo por la nueva propuesta de norma con un valor de 268,8 kN*m. La diferencia con respecto a la NC-285:2003 [1] fue de 24,4%. Figura 5: Momento en columnas (kN*m) La Fig. 6 muestra los desplazamientos en toda la altura de la edificación obtenidos al emplear la NC- 285:2003 [1] y la nueva propuesta de norma. El cálculo se realizó con las combinaciones características, obteniéndose los mayores valores para la combinación de cargas G+Q+W. Como se observa en la gráfica, los mayores valores de desplazamientos correspondieron a la nueva propuesta. Como desplazamiento permisible se consideró H/500 correspondiente a un valor de 0,031 m. Los desplazamientos obtenidos empleando la NC 285:2003 [1] cumplen con los desplazamientos permisibles, mientras que los de la nueva propuesta de norma no cumplen con este criterio. La diferencia en porciento entre la NC 285:2003 [1] y la nueva propuesta de norma en el tope de la edificación es de 31,7 %. 85.4 109.1 0 20 40 60 80 100 120 C o rt an te ( kN ) NC-285:2003 Nueva propuesta de norma 203.3 268.8 0 50 100 150 200 250 300 M o m en to ( kN *m ) NC-285:2003 Nueva propuesta de norma Figura 6: Valores máximos de desplazamientos (m) 3. CONCLUSIONES: En la comparación de los parámetros de viento vigentes en la NC 285:2003 [1] y en la nueva propuesta de norma se concluyó que el valor de la presión básica de viento que da la norma vigente es un 50% mayor al valor de la nueva propuesta de norma, esta última validada por estudios realizados por Fernández [4] y Vickery [5]. A su vez, el coeficiente de ráfaga obtenido en la NC 285:2003 [1] es mayor un 50% que el de la nueva propuesta de norma, el cual responde a conceptos de ingeniería de viento y es utilizado en la mayoría de las normas internacionales de viento. La comparación de la respuesta estructural de la edificación objeto de estudio entre la NC 285:2003 [1] y la nueva propuesta de norma de viento arrojaron los siguientes resultados: Los mayores valores de fuerza axial en las columnas fueron obtenidos empleando la NC-285:2003 [1] con una diferencia con respecto a la nueva propuesta de norma de 2,7%, mientras que los mayores valores de cortante y momento flector se obtuvieron empleando la nueva propuesta de norma. La diferencia en los valores de cortante fue de 21,7 % y la de momento flector fue de 24,4 %. Los desplazamientos máximos en la edificación se obtuvieron para la nueva propuesta de norma. La edificación calculada empleando la NC-285:2003 [1] cumple con el valor de desplazamiento admisible H/500 mientras que con la nueva propuesta de norma no cumple. RECONOCIMIENTOS Los autores desean agradecer al Departamento de Estructuras, Facultad de Ingeniería Civil, Universidad Tecnológica de la Habana “José Antonio Echeverría” (CUJAE) por la ayuda prestada para la realización de este artículo. 0 5 10 15 20 0 0.01 0.02 0.03 0.04 0.05 A lt u ra ( m ) Desplazamientos (m) NC-283:2003 Nueva propuesta de norma REFERENCIAS 1. Oficina Nacional de Normalización. Carga de viento-Método de cálculo. NC 285. La Habana, Cuba. 2003. 2. GARCÍA, Katia Luis. "Análisis estadístico de velocidades de viento para el cálculo de estructuras". Tutoras, Vivian Elena Parnás and Ingrid Fernández Lorenzo. Tesis de maestria, Universidad Tecnológica de La Habana "José Antonio Echeverría", La Habana, 2017. 3. LORENZO, Ingrid Fernández. "Análisis dinámico de torres reticuladas de telecomunicaciones bajo carga de viento extremo". Tesis de doctorado, Universidad Tecnológica de La Habana "José Antonio Echeverría", La Habana, 2017. 4. LORENZO, Ingrid Fernández, "Utilización del Método de Tormentas Independientes para el cálculo de las velocidades básicas de viento de Cuba," in 11º Simposio Internacional de Estructuras, Geotecnia y Materiales de la Construcción, ed. Universidad Central "Marta Abreu" de las villas, 2017. 5. VICKERY, Peter J., "Design Wind Speeds in the Caribbean," in Advances Hurricane Engineering, ed, 2012. 6. LI, Lixiao; KAREEM, Ahsan; XIAO, Yiqing; SONG, Lili; ZHOU, Chaoying, "A comparative study of field measurements of the turbulence characteristics of typhoon and hurricane winds," Journal of Wind Engineering and Industrial Aerodynamics, 2015, vol. 140, pp. 49-66. 7. CAO, Shuyang; TAMURA, Yukio; KIKUCHI, Naoshi; SAITO, Mamoru; NAKAYAMA, Ikuo; MATSUZAKI, Yutaka, "A case study of gust factor of a strong typhoon," Journal of Wind Engineering and Industrial Aerodynamics, 2015, vol. 138, pp. 52-60. 8. KWON, Dae Kun; KAREEM, Ahsan, "Comparative study of major international wind codes and standards for wind effects on tall buildings," Engineering Structures, 2013, vol. 51, pp. 23-35. 9. EN. Eurocode 1: Actions on structures-General actions EN1991. 1-4-Wind actions. 2004. 10. SHU, Z. R; LI, Q. S; HE, YC; CHAN, Pai Wai, "Gust factors for tropical cyclone, monsoon and thunderstorm winds," Journal of Wind Engineering and Industrial Aerodynamics, 2015, vol. 142, pp. 1-14. 11. China National Standard (CNS). Load Code for the Design of Building Structures. GB 50009. 2012. 12. AIJ. RLB Recommendations for Loads on Buildings. Structural Standards Committee. Architectural Institute of Japan. 2004. 13. Oficina Nacional de Normalización. Densidad de materiales naturales, artificiales y de elementos de construcción como cargas de diseño. Cargas permanentes. NC 283. La Habana, Cuba. 2003. 14. Oficina Nacional de Normalización. Edificaciones. Cargas de uso. NC 284. La Habana, Cuba. 2003. 15. Oficina Nacional de Normalización. Edificaciones. Factores de Carga o ponderación-Combinaciones. NC 450. La Habana, Cuba. 2006. SOBRE LOS AUTORES Kelvin Barban Lara: Estudiante de 5to año de Ingeniería Civil de la Universidad Tecnológica de la Habana “José Antonio Echeverría” (CUJAE), alumno ayudante. Leandra Orlandi González: Estudiante de 5to año de Ingeniería Civil de la Universidad Tecnológica de la Habana “José Antonio Echeverría” (CUJAE), alumno ayudante. Alejandro Miguel Guerra González: Estudiante de 5to año de Ingeniería Civil de la Universidad Tecnológica de la Habana “José Antonio Echeverría” (CUJAE), alumno ayudante. Mirell German Piloto Torres: Estudiante de 5to año de Ingeniería Civil de la Universidad Tecnológica de la Habana “José Antonio Echeverría” (CUJAE), alumno ayudante. Alina Silva González: Ingeniera Civil, Profesora Instructora, Especialista A en proyectos, CCOA. SIMULACIÓN DE LA CAPA LÍMITE ATMOSFÉRICA MEDIANTE CFD Rigoberto Morales Hernández1, Ingrid Fernández Lorenzo2 1,2Facultad de Ingeniería Civil, Departamento de Estructuras. Universidad Tecnológica de La Habana “José Antonio Echeverría” (Cujae). Calle 114 No 11901 entre 119 y 127, Marianao, La Habana, Cuba. 1e-mail: rigobermorher@civil.cujae.edu.cu 2e-mail: ingridfl@civil.cujae.edu.cu RESUMEN La necesidad del país de transformar la matriz energética, potenciando las fuentes renovables de energía, convierten a los paneles solares en estructuras de interés para el estudio de la ingeniería de viento. Al estar ubicados gran parte de ellos directamente sobre el terreno, se encuentran inmersos en las capas más bajas de la capa límite atmosférica, lo que implica la incidencia de vientos con altos niveles de turbulencia. La correcta modelación de esta capa límite es un paso fundamental para el estudio de coeficientes de presión en los paneles solares que permitan dar soluciones estructurales más eficientes. El objetivo de este trabajo es recrear las características de la capa limite atmosférica obtenidas en un estudio previo en túnel de viento, utilizando para ello la Dinámica Computacional de Fluidos. Se empleó el software ANSYS Fluent, mediante un análisis estacionario con el modelo de turbulencia k-ε realizable. Se logró recrear adecuadamente el perfil de velocidad media del viento. El perfil de intensidad de turbulencia se debe introducir a partir de datos experimentales, ya que las ecuaciones recomendadas en la literatura subestiman la energía cinética turbulenta y, por tanto, la intensidad de turbulencia. PALABRAS CLAVES: capa límite atmosférica, Dinámica Computacional de Fluidos (CFD), turbulencia, validación, perfil de velocidad del viento. ATMOSPHERIC BOUNDARY LAYER SIMULATION WITH CFD ABSTRACT The need of the country to transform the energy matrix, promoting renewable energy sources, make solar panels structures of interest for the study of wind engineering. As most of them are located directly on the ground, they are immersed in the lowest layers of the atmospheric boundary layer, which implies the incidence of winds with high levels of turbulence. The correct modeling of this boundary layer is a fundamental step for the study of pressure coefficients in solar panels that allow more efficient structural solutions. The objective of this work is to recreate the characteristics of the atmospheric boundary layer obtained in a previous wind tunnel study, using Computational Fluid Dynamics. The ANSYS Fluent software was used, through a stationary analysis with the realizable k-ε turbulence model. It was possible to adequately recreate the average wind speed profile. The turbulence intensity profile must be entered from experimental data, since the equations recommended in the literature underestimate the turbulent kinetic energy and, therefore, the turbulence intensity. KEY WORDS: atmospheric boundary layer, Computational Fluid Dynamic (CFD), turbulence, validation, wind speed profile. 1. INTRODUCCIÓN Debido a la necesidad de lograr una mayor racionalidad en el empleo de combustibles fósiles, además de lograr una generación energética amigable con el medio ambiente, el país se ha propuesto transformar la matriz energética, proyectándose para el 2030 la generación del 37 % de la energía mediante fuentes renovables. El 12 % de estas pertenece a paneles solares, realzando la necesidad de lograr diseños estructurales eficientes, tanto de paneles individuales como de parques fotovoltaicos. Para esto, es preciso estimar correctamente las cargas que actúan sobre los paneles, principalmente la carga de viento. Al ser los paneles estructuras bajas, suelen estar ubicados en la subcapa rugosa dentro de la capa límite atmosférica. Esto implica que están sometidos a vientos con menores velocidades, pero altos niveles de turbulencia, lo que complejiza tanto la recreación de los mismos en condiciones de laboratorio como los análisis mediante métodos numéricos. El método más extendido para realizar este tipo de estudios es el ensayo en túnel de viento de capa límite. Estos, aunque precisos, son costosos e implican otros inconvenientes como la necesidad de realizar correcciones debido a la variación de la temperatura, la escala geométrica de los modelos y los métodos de simulación de la rugosidad del terreno. En los últimos años se ha generalizado el uso de la computación, mediante la Dinámica Computacional de Fluidos (CFD, por sus siglas en inglés), como alternativa al túnel de viento, aunque sin sustituirlo completamente. Esta técnica se basa en la resolución de las ecuaciones de Navier-Stokes dentro de un dominio computacional en el cual está inmersa la estructura analizada. Para la resolución de la turbulencia existen diversos modelos, siendo los más comunes los basados en las ecuaciones de Navier-Stokes promediadas por Reynolds (RANS) y la Simulación de Grandes Remolinos (LES, todas las siglas en inglés). En la simulación de paneles solares no existe consenso acerca de que modelo es preferible adoptar para el análisis, encontrándose dentro de la literatura examinada [1-5] la utilización de diversidad de modelos. La elección de estos pudiera estar influenciada por diferentes parámetros como la capacidad de cómputo, la localización del panel (aislado, montado en una cubierta inclinada, grupo de paneles) y el tipo de análisis a realizar (transitorio, estacionario). Agarwal et al. [1] utilizan el modelo k-ε RNG en el análisis de los coeficientes de presión de paneles solares montados en el techo de una nave industrial tipo diente de sierra, obteniendo resultados acordes a lo esperado. Shademan y Naghib-Lahouti [2]simulan un panel aislado con diferentes ángulos de inclinación mediante LES. Sus resultados fueron validados mediante un estudio experimental y mostraron un buen ajuste. Wang et al. [3], examinan las características del flujo alrededor de un grupo de paneles solares montados en un techo plano. Emplean el modelo LES, recreando además el arreglo de espiras y bloques de rugosidad de un ensayo similar en túnel de viento. Chowdhury et al. [4] adoptan el modelo k- ε estándar en el estudio del flujo sobre módulos fotovoltaicos instalados en superficies inclinadas. Reina y De Stefano [5] evalúan la carga de viento en un grupo de paneles con seguimiento solar montados en tierra. El modelo k-ω SST fue empleado, reportando una buena descripción de la capa límite atmosférica. Abohela et al. [6] recomiendan el modelado de la turbulencia mediante k-ε realizable cuando se trata de estructuras aisladas. Este modelo también es el recomendado en el manual de usuario del software de simulación de fluidos ANSYS Fluent [7] ya que presenta mayor eficiencia y precisión que modelos similares de la familia k-ε. Como paso indispensable para realizar un correcto análisis de las presiones que pueda ocasionar el viento sobre cualquier estructura baja, ya sea mediante túnel de viento o CFD, se debe prestar especial atención a la representación de la capa límite. Con ese propósito Llanusa et al. [8] recrean en túnel de viento las condiciones de la capa límite necesarias para el posterior estudio experimental de las presiones sobre paneles solares. El presente trabajo toma como base los resultados obtenidos en este artículo para simular la capa límite mediante CFD, en aras de realizar estudios posteriores sobre paneles solares empleando esta misma técnica. 2. MATERIALES Y METODOS Llanusa et al. [8] estudian un terreno abierto, en correspondencia con las condiciones de los paneles en parques fotovoltaicos. La formación de las características de la rugosidad la logran mediante la utilización de bloques de rugosidad, barreras dentadas y espiras de Standen. Para la determinación de la capa límite se realizaron mediciones en 29 puntos en la vertical, estando la mayor cantidad de puntos a alturas cercanas a la superficie del terreno. El tiempo de muestreo fue de 65 segundos, con una frecuencia de muestreo de 1000 Hz. Las condiciones de este ensayo fueron replicadas mediante la Simulación Computacional de Fluidos (CFD), utilizando el software ANSYS Fluent 2021 R2. Aunque la simulación se llevó a cabo sin considerar estructuras, dado que este estudio sirve de base para la posterior simulación de un panel solar, se tuvieron en cuenta las dimensiones de dicho panel en la creación del dominio. Además, se siguieron las recomendaciones que dan autores internacionales [9, 10] sobre las dimensiones mínimas para evitar interacciones del flujo con los bordes del dominio que puedan influenciar los resultados. La figura 1 muestra las dimensiones del panel a escala 1:10, estando todos los valores en milímetros. En la figura 2 se observa el dominio resultante en planta y elevación, donde H es la altura del panel, 222 mm en este caso. Esto resulta en unas dimensiones totales del dominio de 5,618 m de largo, 4,062 m de ancho y 1,998 m de altura. Figura 1: Dimensiones del panel solar. Llanusa [12]. Figura 2: Dominio en planta (a) y elevación (b). Las condiciones de borde impuestas al dominio fueron: velocity-inlet a la entrada del flujo, pressure-outlet a la salida, symmetry en las paredes laterales. En la parte inferior se utilizó una pared con función estándar. En la parte superior del dominio se fijaron los valores de entrada de la velocidad, la energía cinética turbulenta y la tasa de disipación de la turbulencia. Según Blocken et al. [11], esto permite mantener estable el comportamiento del flujo a lo largo del dominio, ya que otras condiciones de borde como symmetry o slip-wall pueden causar gradientes en el sentido de la corriente. Se utilizó un mallado estructurado, con tamaño máximo de celdas de 0,04 m, para un total de 714000 celdas. Este tipo de mallado permite disminuir la capacidad de computo necesaria para realizar los cálculos, en comparación con otros métodos que emplean celdas tetraédricas o poliédricas. El principal inconveniente es la dificultad de adaptarlo a geometrías complejas, pero al realizarse el análisis del dominio sin tener en cuenta estructuras, esto no genera afectaciones. Para definir las dimensiones de las celdas se tuvo en cuenta que estas fueran lo suficientemente pequeñas para lograr una buena discretización de los resultados, a la vez que no excedieran las capacidades de procesamiento disponibles. La densidad del aire (𝜌), así como su viscosidad cinemática (𝜐) se corresponden con los utilizados por LLanusa [12], dados para una temperatura de 25°C, con valores de 1,205 kg/m3 y 1,500·10-5 m2/s respectivamente. Dado que el software solo admite la viscosidad en términos de viscosidad dinámica (µ), esta se calculó mediante (1), obteniéndose la cantidad de 1,808·10-5 kg/m·s. µ = 𝜌 · 𝜐 (1) Para describir el perfil del viento se utilizó la ecuación logarítmica (2), tal como proponen Llanusa et al. [8] en su estudio. 𝑈(𝑧) = 𝑢∗ k ln ( 𝑧 𝑧0 ) (2) Donde 𝑈(𝑧) es la velocidad media del viento a la altura z, 𝑢∗ es la velocidad de fricción, k es la constante de Von Kármán, 𝑧 es la altura de cálculo y 𝑧0 la longitud de rugosidad. La velocidad de fricción 𝑢∗ toma un valor de 1.10 m/s, el cual fue extrapolado a partir de los datos experimentales obtenidos en el túnel de viento. La constante k es igual a 0,4. Se utilizó una longitud de rugosidad (𝑧0) de 0,006 m, valor correspondiente a una escala geométrica de 1:10. En el estudio en el túnel de viento este parámetro fue obtenido a partir de la relación entre dos puntos consecutivos del perfil de velocidad y realizando luego un ajuste lineal. El software ANSYS Fluent no permite introducir esta longitud directamente. En cambio, cuando se utiliza la función de borde estándar, el software emplea una medida equivalente denominada altura de rugosidad de grano de arena (𝑘𝑠), la cual se define en (3). 𝑘𝑠 = 9,793·𝑧0 𝐶𝑠 (3) Donde 9,793 es una constante empírica para superficies regulares y 𝐶𝑠 es la constante de rugosidad que tiene en cuenta el tipo de rugosidad, pudiendo estar su valor en el intervalo de 0 a 1. No obstante, debido a la falta de indicaciones más específicas, generalmente se utiliza el valor por defecto de 0,5 [7, 11]. Para estas condiciones, 𝑘𝑠 adopta un valor de 0,1175 m. Inicialmente se realizaron simulaciones empleando los modelos k-ε estándar, k-ε realizable y k-ω SST. En todos los casos se llegaron a resultados similares, no existiendo diferencias apreciables ni en los perfiles obtenidos ni en el tiempo de cómputo. Finalmente, las componentes turbulentas del viento se contemplaron en la simulación utilizando el modelo k-ε realizable, ya que es recomendable [6, 7]. La familia k-ε resuelve la turbulencia mediante dos términos adicionales a las ecuaciones de Navier-Stokes: la energía cinética turbulenta (𝑘) y la tasa de disipación de la turbulencia (𝜀). Para introducir dichas variables en el modelo numérico se utilizaron los perfiles iniciales de estos términos, según (4) y (5) respectivamente, tal como proponen Blocken et al. [11]. 𝑘(𝑧) = 𝑢∗ 2 √𝐶µ (4) 𝜀 (𝑧) = 𝑢∗ 3 k·𝑧 (5) Donde 𝑢∗ es la velocidad de fricción utilizada previamente. 𝐶µ es el coeficiente de viscosidad turbulenta que, en el caso del modelo k-épsilon realizable, es variable y depende principalmente de la densidad del fluido (𝜌) y de la viscosidad de turbulencia efectiva (µ𝑡). Los datos de este coeficiente fueron extraídos del programa, siendo casi constantes en altura con valores cercanos a 0,09. Para transformar estas componentes de la turbulencia en intensidad de turbulencia (𝐼) se utilizó (6). 𝐼(𝑧) = √2 3 𝑘 𝑈(𝑧) · 100 (6) La resolución numérica se llevó a cabo realizando un análisis estacionario, implícito, de doble precisión, ecuaciones de momento, presión, k y de ε de segundo orden, y algoritmo de emparejamiento de presión- velocidad mediante el método semi-implícito para ecuaciones de presión vinculadas (SIMPLE, por sus siglas en inglés). 3. RESULTADOS En la figura 3 se muestran el perfil de velocidad obtenido en la simulación a la entrada del dominio y los datos extraídos del artículo de Llanusa et al. [8]. El perfil arroja un muy buen ajuste a los datos experimentales. La figura 4 compara los datos de la intensidad de turbulencia entre el túnel de viento y la simulación. Por debajo de 0.1 m existe una buena correspondencia de los resultados. A partir de esta altura, los valores obtenidos en la simulación son inferiores a los del ensayo experimental. Estos últimos muestran cierta dispersión, por lo que se introdujo la línea de tendencia que podría ajustarse a los datos. No obstante, este perfil sigue presentando una mayor intensidad de turbulencia que el simulado. Figura 3: Perfiles de velocidad media a la entrada del dominio. Figura 4: Perfiles de intensidad de turbulencia a la entrada del dominio. 0.000 0.100 0.200 0.300 0.400 0.500 0.600 0.700 0.800 0 5 10 15 20 A lt u ra ( m ) Velocidad (m/s) Perfil de Velocidad Simulación Artículo 0.000 0.100 0.200 0.300 0.400 0.500 0.600 0.700 0.800 0.00 5.00 10.00 15.00 20.00 25.00 30.00 A lt u ra ( m ) Iturb (%) Intensidad de turbulencia Simulación Artículo Tendencia (Artículo) En la tabla 1 se compararon las intensidades de turbulencia en tres puntos: 0.080 m y 0.222 m, que corresponden con las alturas inferior y superior del panel, y 0.500 m, altura que utilizan Llanusa et al. para comparar sus resultados con los de otros autores. Todas las distancias y, por tanto, los resultados obtenidos se corresponden con una escala geométrica de 1:10. Tabla 1: Intensidad de turbulencia Altura (m) Túnel Simulación Diferencia (%) 0.080 23.80 23.43 1.56 0.222 20.40 16.93 17.01 0.500 17.80 13.55 23.87 A partir de estos datos se evidencia que la simulación subestima la intensidad de turbulencia con respecto al túnel de viento, esto puede deberse a limitaciones propias del modelo turbulencia, ya que otros autores [13, 14] han reportado valores de k menores a los esperados al utilizar modelos RANS. Estas diferencias pudieran influir en los posteriores resultados de los coeficientes de presiones, por lo que se debe profundizar en este aspecto. Para la altura de 0,5 m, la cual corresponde a 5 m a escala completa, Llanusa et al. [8] aclaran que existen discrepancias entre los resultados del túnel y las mediciones a escala real. Esto lo atribuyen a las características de los terrenos en que se realizan las mediciones y al tipo de fenómeno atmosférico registrado. No obstante, los valores de 𝐼 oscilan entre 18,8 y 23,0 %. En la propuesta de actualización de la norma cubana, se plantea una ecuación que para esta altura y un terreno tipo III, proporciona un valor de 17,98 %, muy cercano al resultado del túnel de viento. Otro de los resultados comprobados en este estudio fue que se lograran mantener las características del viento a través del dominio. En las figuras 5 y 6 se muestran los perfiles de velocidad y turbulencia respectivamente, tomados en diferentes ubicaciones: el centro del dominio, a la entrada y a la salida del flujo. Aunque los perfiles muestran variaciones (especialmente a menores alturas) en general estas son pequeñas, lográndose a partir de los 250 mm aproximadamente un comportamiento estable del viento en la longitud. Una alternativa diferente al uso de la formulación (4), cuando se disponen de los datos, es utilizar los valores empíricos para crear el perfil de k. A partir de la línea de tendencia de los datos experimentales de la intensidad de turbulencia se puede deducir la ecuación que la describe (7) y, utilizando (6), transformar esta en energía cinética turbulenta e introducir este perfil en el modelo numérico 𝐼(𝑧) = 15, 105 · 𝑧 −0.170 (7) Con esto se logran recrear en la entrada del flujo los niveles de turbulencia del túnel de viento. No obstante, utilizando esta ecuación se observa alguna variación de los perfiles de turbulencia a través del dominio (figura 7). Esto puede deberse a que se ajustó la generación de la turbulencia (𝑘), pero no la disipación de la misma (𝜀). Figura 5: Perfiles de velocidad en el dominio. Figura 6: Perfiles de intensidad de turbulencia en el dominio. 0.000 0.250 0.500 0.750 1.000 1.250 1.500 1.750 2.000 2.250 0 5 10 15 20 A lt u ra ( m ) Velocidad (m/s) Perfiles de Velocidad Inicio Centro Final 0.000 0.250 0.500 0.750 1.000 1.250 1.500 1.750 2.000 2.250 0 5 10 15 20 25 30 A lt u ra ( m ) Iturb (%) Intensidad de turbulencia Inicio Centro Final Figura 7: Perfiles de intensidad de turbulencia utilizando (7). 4. CONCLUSIONES En este trabajo se determinaron las características que debe cumplir un modelo de Dinámica Computacional de Fluidos (CFD) que replique correctamente la capa límite atmosférica del ensayo en túnel de viento empleado para obtener coeficientes de presiones sobre paneles solares sobre el terreno. Para esto se utilizaron datos de un estudio previo de túnel de viento en el que los autores modelan la capa límite empleando el método de rugosidad, barreras y dispositivos de mezcla. A partir de los resultados obtenidos se determinó que mediante la ecuación de k que propone la bibliografía se subestima la intensidad de turbulencia con respecto a los resultados experimentales. Empleando los datos del túnel de viento para modelar los perfiles de velocidad y energía cinética turbulenta se logra una apropiada representación de la capa límite a la entrada del dominio, aunque presenta variación en la longitud. REFERENCIAS [1] AGARWAL, A; IRTAZA; H; SHAHAB, K. "Aerodynamic Wind Pressure on Solar PV Arrays Mounted on Industrial Pitched Roof Building," in International Conference on Recent Advances in Engineering & Science (ICRAES-2020), 2020: Innovations in Engineering & Science. [2] SHADEMAN, M; NAGHIB-LAHOUTI, A. "Effects of aspect ratio and inclination angle on aerodynamic loads of a flat plate," Advances in Aerodynamics, 2020, vol. 2, no. 14. [3] WANG, J et al. "LES study of wind pressure and flow characteristics of flat-roof-mounted solar arrays," Journal of Wind Engineering and Industrial Aerodynamics, 2020, vol. 198. [4] CHOWDHURY, M. G et al. "Experimentally validated CFD simulations predicting wind effects on photovoltaic modules mounted on inclined surfaces," Sustainable Energy Technologies and Assessments, 2018, vol. 30, pp. 201-208. [5] REINA, G. P; DE STEFANO, G. "Computational evaluation of wind loads on sun-tracking ground- mounted photovoltaic panel arrays," Journal of Wind Engineering and Industrial Aerodynamics, 2017, vol. 170, pp. 283-293. 0.000 0.250 0.500 0.750 1.000 1.250 1.500 1.750 2.000 2.250 0 5 10 15 20 25 30 A lt u ra ( m ) Iturb (%) Intensidad de turbulencia Inicio Centro Final [6] ABOHELA, I; HAMZA, N; DUDEK, S. "Validating CFD Simulation Results: Wind flow around a surface mounted cube in a turbulent channel flow," presented at the Conference, Opportunities, Limits & Needs Towards an environmentally responsible architecture, Lima, Perú, 2012. [7] ANSYS, "ANSYS Fluent User's Guide," 2020. [8] LÓPEZ LLANUSA, A; ELENA PARNÁS, V. B; CATALDO OTTIERI, J. "Modelación de capa límite atmosférica para estudios de paneles solares en túnel de viento," Ingeniería Hidráulica y Ambiental, 2017, vol. 38, pp. 52-64. [9] SINGH, J; ROY, A. K. "Effects of roof slope and wind direction on wind pressure distribution on the roof of a square plan pyramidal low‑rise building using CFD simulation," International Journal of Advanced Structural Engineering, 2019, vol. 11, pp. 231–254. [10] REVUZ, J; HARGREAVES, D. M; OWEN, J. S. "On the domain size for the steady-state CFD modelling of a tall building," Wind and Structures, 2012, vol. 15, no. 4, pp. 313-329. [11] BLOCKEN, B; STATHOPOULOS, T; CARMELIET, J. "CFD simulation of the atmospheric boundary layer: wall function problems," Atmospheric Environment, 2007, vol. 41, pp. 238–252. [12] LÓPEZ LLANUSA, A. "Determinación de coeficientes de presión para paneles fotovoltaicos dentro de un parque bajo la acción del viento," Tesis doctoral, Universidad Tecnológica de La Habana, José Antonio Echeverría (CUJAE), La Habana, 2017. [13] TADIE FOGAING, M. B. et al. "Performance of Turbulence Models in Simulating Wind Loads on Photovoltaics Modules," Energies, 2019, vol. 12. [14] ROY, C. J. "Bluff-Body Flow Simulations using Hybrid RANS/LES," presented at the 33rd AIAA Fluid Dynamics Conference and Exhibit, Orlando, Florida, USA, 23-26 June 2003, 2003. ESTIMACIÓN DE LAS PÉRDIDAS DIFERIDAS EN VIGAS PRETENSADAS DE SECCIÓN COMPUESTA Ing. Ruben Reyes Cardonas1, Dr. Ing. Juan José Hernández Santana2 1ECM, Villa Clara, Cuba. rubenrc98@nauta.cu 2Facultad de Construcciones, UCLV, Cuba. jjhernandez@uclv.cu RESUMEN La estimación de las pérdidas ha sido objeto de múltiples estudios debido a su importancia para el correcto funcionamiento del elemento. En versiones recientes la American Association of State Highway and Transportation Officials’ AASHTO LRFD Bridge Design Specifications ha adoptado un método más refinado y con una base teórica más rigurosa para la estimación de las pérdidas de pretensado. En este trabajo se detalla el procedimiento para la estimación de las pérdidas diferidas en vigas compuestas de hormigón pretensado según dichas especificaciones, con los objetivos de hacerlo más asequible para los proyectistas, de lograr una mayor precisión en su aplicación práctica y de promover su uso en Cuba. Se aclaran los nuevos conceptos introducidos y se explican los mecanismos fundamentales en cuales se basa. Se detalla el procedimiento a seguir; así como se ofrecen recomendaciones prácticas que ayudan al proyectista durante el cálculo. Finalmente, se exponen comparaciones de este método con el propuesto por la actual norma cubana; demostrando la superioridad, en cuanto a precisión, del primero. PALABRAS CLAVES: pérdidas diferidas, fluencia, retracción, relajación del acero, colocación de la losa. LONG-TERM LOSSES ESTIMATION IN PRESTRESSED COMPOSITE GRIDER ABSTRACT The prestress loss estimation has been object of multiple studies due to its importance for the correct operation of the element. In recent versions the American Association of State Highway and Transportation Officials’ AASHTO LRFD Bridge Design Specifications has adopted a more refined method and with a more rigorous theoretical base for the losses estimation. In this work is detailed the procedure for the long- term losses estimation in prestressed composite grider according to those specifications with the objectives of making it more affordable for the planners, to make it more accurately applied in practice and to introduce its use in Cuba. New concepts introduced are clarified and the fundamental mechanics on which the method relies are explained. The workflow is detailed and practical recommendations are offered which help to the planners during the design process. Finally, are shown comparisons among this method and the proposed by the Cuban specifications, demonstrating that the first one is more accurate. KEYWORDS: long-term losses, creep, shrinkage, strand relaxation, deck placement. 1. INTRODUCCIÓN La correcta estimación de las pérdidas de pre-esfuerzo es esencial para un apropiado diseño de elementos pretensados. Una infraestimación de las pérdidas afecta el comportamiento del elemento ante las fisuras lo que repercute en la durabilidad del mismo debido a la corrosión. Sobreestimarlas puede resultar en excesivas deformaciones o en el uso de elevadas cantidades de acero. El tratamiento de las pérdidas en las secciones compuestas tiene particularidades que hacen recomendable establecer procedimientos diferentes y más complejos que para secciones simples. La naturaleza de las secciones compuestas hace que el análisis teórico de la retracción diferencial entre los hormigones de diferentes edades que la componen, sea uno de los aspectos a tener en cuenta en las comprobaciones que se desarrollan dentro de la etapa elástica, pues se ha demostrado que el efecto de la retracción diferencial no influye en la capacidad del elemento compuesto frente en el agotamiento, pero sí en la etapa inicial de servicio, en ocasiones de manera significativa. Los efectos producidos por la retracción y el flujo plástico en la viga pretensada se desarrollan en el tiempo y están marcados por etapas cualitativamente diferentes: la transferencia de la fuerza pretensada (𝑡𝑖), la colocación de la losa “in situ” (𝑡𝑑), la aplicación de las cargas permanentes sobrepuestas (𝑡𝑚 ) y la etapa final de trabajo de la viga (𝑡𝑓) donde está constituida la sección compuesta. La actual norma cubana de diseño de estructuras de hormigón [1] utiliza el procedimiento recomendado por el PCI [2] el cual es más conservador. 2. CARACTERÍSTICAS DE LA SECCIÓN Las propiedades de la sección bruta pueden ser usadas como reemplazo de las propiedades de la sección neta con un mínimo de error, cuando la cuantía de acero es relativamente pequeña respecto a la de hormigón [3] . A pesar de que su uso introduce un error técnico en la estimación de las pérdidas, este se considera insignificante desde el punto de vista ingenieril. Además, el error generado por esta simplificación es generalmente conservador ya que las propiedades de la sección bruta infra estiman la verdadera rigidez de la sección. Para el desarrollo de este método se consideran dos secciones transversales, correspondientes a las etapas de la vida del elemento, la sección no compuesta , utilizada en el intervalo de tiempo comprendido entre la transferencia y la colocación de la losa “in situ” (en lo adelante se identificará con el subíndice “1”) y la sección compuesta utilizada en el intervalo de tiempo comprendido entre la colocación de la losa “in situ” y la etapa final de trabajo de la viga (en lo adelante se identificará con el subíndice “2”). Por otra parte, las propiedades a utilizar, son el área de la sección (𝐴𝑐) , la inercia ( 𝐼 ), la posición del centroide respecto a la fibra inferior ( 𝑒𝑜 ) y en el caso del refuerzo el área de acero (𝐴𝑝𝑠 ). 3. METODOLOGÍA PARA LA ESTIMACIÓN DE LAS PÉRDIDAS Al elemento trabajar como compuesto los efectos producidos por la retracción y el flujo plástico en la losa obviamente afecta a la viga pretensada provocando un decrecimiento de la fuerza de pretensado. Para tomar en cuenta este efecto la AASTHO [4] define como las pérdidas diferidas totales la suma de todos estos efectos. ∆𝑓𝐿𝑇 = ∆𝑓𝐶𝑅 + ∆𝑓𝑆𝐻 + ∆𝑓𝑅𝐸1 + ∆𝑓𝑆𝐷 + ∆𝑓𝐶𝐷 + ∆𝑓𝑅𝐸2 + ∆𝑓𝑆𝑆 (1) Donde: ∆𝑓𝑆𝐻 pérdida por retracción en la viga prefabricada entre el tiempo de la transferencia y la colocación de la losa “in situ” ∆𝑓𝐶𝑅 pérdida por fluencia en la viga prefabricada entre el tiempo de la transferencia y la colocación de la losa “in situ” ∆𝑓𝑅𝐸1 pérdida por relajación del acero entre el tiempo de la transferencia y la colocación de la losa “in situ” ∆𝑓𝑆𝐷 pérdida por retracción en la viga prefabricada entre el tiempo de colocación de la losa “in situ” y el final. ∆𝑓𝐶𝐷 pérdida por fluencia en la sección compuesta entre el tiempo de colocación de la losa “in situ” y el final. ∆𝑓𝑅𝐸2 pérdida por relajación del acero entre el tiempo de colocación de la losa “in situ” y el final. ∆𝑓𝑆𝑆 pérdida por retracción en la losa “in situ” entre el tiempo de colocación de la losa y el final. Varios manuales [5], [6] recomiendan utilizar un valor de 20000 días ( un poco más de 50 años) para evaluar la etapa final de trabajo de la viga, esta es una consideración muy lógica ya que la mayoría de las estructuras de hormigón pretensado se diseñan para esa vida útil. Pérdida por retracción en la viga prefabricada entre el tiempo de la transferencia y la colocación de la losa “in situ” La retracción es la reducción de volumen del hormigón debido a la hidratación del cemento y la pérdida de agua. Elementos lineales como vigas y columnas se acortan significativamente debido a la retracción, cuyo resultado es un igual acortamiento del tendón y una pérdida de la fuerza de pretensado. En vigas postesadas donde la transferencia se produce varios días posteriores a la fabricación de la pieza las pérdidas por retracción se reducen. ∆𝑓𝑆𝐻 = 𝜀𝑠ℎ𝑑. 𝐸𝑠 . 𝐾𝑖𝑑 (2) Donde: 𝜀𝑠ℎ𝑑 deformación por retracción para el tiempo transcurrido entre 𝑡𝑖 y 𝑡𝑑 𝜀𝑠ℎ𝑑 = 𝑘𝑠𝑘ℎ𝑠𝑘𝑓𝑘𝑡𝑑(𝑡𝑑, 𝑡𝑖). 0,48. 10 −3 (3) 𝑘𝑠 = 1,45 − 5,117 𝑉 𝑆 ≥ 1 (4) factor que considera la relación volumen/superficie (V/S) para la viga prefabricada 𝑘ℎ𝑠 = 2 − 0.014𝐻𝑅 (5) factor que considera la humedad relativa (HR) 𝑘𝑓 = 34,5 6,9+𝑓𝑐𝑖 ′ (6) factor que considera la resistencia del hormigón de la viga prefabricada en la transferencia (𝑓𝑐𝑖 ′ ) 𝑘𝑡𝑑(𝑡𝑑, 𝑡𝑖) = 𝑡𝑑−𝑡𝑖 61−0,58𝑓𝑐𝑖 ′ +𝑡𝑑−𝑡𝑖 (7) factor que considera el tiempo transcurrido 𝐾𝑖𝑑 coeficiente de sección transformada para el tiempo transcurrido entre 𝑡𝑖 y 𝑡𝑑. Este coeficiente representa la oposición que ofrece el acero de pretensado a la fluencia y a la retracción del hormigón. La diferencia en el comportamiento en el tiempo y en la respuesta elástica de estos materiales conlleva a una redistribución interna de esfuerzos. Para ello se asume que la deformación del acero y del hormigón es la misma y que esta ocurre de manera uniforme en la sección. Para su formulación definitiva la AASTHO [4] consideró que el módulo de elasticidad del hormigón debe asumirse como el estimado para la transferencia (𝐸𝑐𝑖 ′ ) y que el coeficiente de fluencia para determinar el módulo de elasticidad efectivo debe suponerse como el que se desarrolla en la etapa final del elemento. Para vigas comunes este valor oscila entre 0,8 y 0,9. 𝐾𝑖𝑑 = 1 1+ 𝐸𝑝 𝐸𝑐𝑖 ′ . 𝐴𝑝𝑠 𝐴𝑐1 (1+ 𝐴𝑐1.𝑒𝑜1 2 𝐼1 )(1+0.7𝜓(𝑡𝑓,𝑡𝑖)) (8) 𝜓(𝑡𝑓 , 𝑡𝑖) coeficiente de fluencia para la viga prefabricada para el tiempo transcurrido entre 𝑡𝑖 y 𝑡𝑓: 𝜓(𝑡𝑓 , 𝑡𝑖) = 1,9. 𝑘𝑠𝑘ℎ𝑐𝑘𝑓𝑘𝑡𝑑(𝑡𝑓 , 𝑡𝑖)𝑡𝑖 −0,118 (9) 𝑘ℎ𝑐 = 1,56 − 0.008𝐻𝑅 factor que considera la humedad relativa (HR) (10) 𝑘𝑡𝑑(𝑡𝑓 , 𝑡𝑖) = 𝑡𝑓−𝑡𝑖 61−0,58𝑓𝑐𝑖 ′ +𝑡𝑓−𝑡𝑖 (11) Pérdidas por flujo plástico en la viga prefabricada entre el tiempo de la transferencia y la colocación de la losa “in situ” El flujo plástico es la continuada deformación del hormigón bajo cargas sostenidas. La pérdida debido al flujo plástico del hormigón puede ser asumido a ser proporcional al esfuerzo de compresión neto permanente en el hormigón al nivel del refuerzo. ∆𝑓𝐶𝑅 = 𝐸𝑝 𝐸𝑐𝑖 ′ 𝑓𝑐𝑝𝑔𝜓(𝑡𝑑, 𝑡𝑖)𝐾𝑖𝑑 (12) Donde: 𝑓 𝑐𝑔𝑝 tensión normal en el hormigón, debida a la acción de la fuerza de pretensado transferida 𝑃𝑜 y a la carga actuante en la transferencia, evaluada para la sección bruta de hormigón y a nivel del centroide de la armadura pretensada. 𝑓𝑐𝑝𝑔 = 𝑃𝑜𝑒𝑜1 2 𝐼1 + 𝑃𝑜 𝐴𝑐1 − 𝑀𝑜 𝑒𝑜1 𝐼1 (13) 𝜓(𝑡𝑑 , 𝑡𝑖) = 1,9. 𝑘𝑠𝑘ℎ𝑐𝑘𝑓𝑘𝑡𝑑(𝑡𝑑, 𝑡𝑖)𝑡𝑖 −0,118 (14) Pérdidas por relajación del acero entre el tiempo de la transferencia y la colocación de la losa “in situ” La relajación de los tendones complica el cálculo de las pérdidas. La medición de las pérdidas debido a la relajación cambia a medida que el nivel de esfuerzo del acero cambia. A causa de que el nivel de esfuerzo del acero está cambiando constantemente a lo largo de la vida de la estructura, particularmente en elementos pretesados, la medición de las pérdidas debido a la relajación cambia constantemente también. ∆𝑓𝑅𝐸1 = [ 𝑓𝑝𝑖 𝐾𝐿 . log(24 𝑡) log(24 𝑡𝑖) ( 𝑓𝑝𝑖 𝑓𝑝𝑦 − 0,55)] [1 − 3(∆𝑓𝐶𝑅+∆𝑓𝑆𝐻) 𝑓𝑝𝑖 ] 𝐾𝑖𝑑 (15) Donde: 𝑡 tiempo transcurrido entre el tesado y la colocación de la losa expresado en días. 𝐾𝐿 factor que toma en cuenta el tipo de acero para aceros de baja relajación se considera un valor de 45 y de 10 para otros tipos de acero, a menos que uno más preciso sea dado por el fabricante. 𝑓𝑝𝑖 la tensión una vez ocurrida las pérdidas instantáneas. 𝑓𝑝𝑦 la tensión de fluencia del acero pretensado. En la ecuación (15) puede observarse 2 términos el primero representa la relajación intrínseca del acero sin tomar en cuenta el acortamiento del tendón debido a la fluencia y a la retracción del hormigón; mientras el segundo si lo considera. Esta fórmula es ampliamente usada en los aceros más comunes de la industria del pretensado, aunque para ciertos tipos de acero los fabricantes imponen sus propios valores. De manera conservadora puede considerarse [1 − 3(∆𝑓𝐶𝑅+∆𝑓𝑆𝐻) 𝑓𝑝𝑖 ] = 0,67 , 𝑡𝑖 = 0,75 𝑑í𝑎𝑠, 𝑡 = 120 𝑑í𝑎𝑠 y 𝐾𝑖𝑑 = 0.8 , logrando así la ecuación (16) la cuál es menos trabajosa. ∆𝑓𝑅𝐸1 = 1.5∗𝑓𝑝𝑖 𝐾𝐿 . ( 𝑓𝑝𝑖 𝑓𝑝𝑦 − 0,55) (16) Pérdidas por retracción en la viga prefabricada entre el tiempo de colocación de la losa “in situ” y el final. La deformación por retracción en este período de tiempo es simplemente la diferencia entre la retracción final y la que sucede en el momento antes de ser colocada la losa. ∆𝑓𝑆𝐷 = (𝜀𝑠ℎ𝑓 − 𝜀𝑠ℎ𝑑)𝐸𝑠𝐾𝑑𝑓 (17) Donde: 𝜀𝑠ℎ𝑓 deformación por retracción de la viga prefabricada para el tiempo final 𝜀𝑠ℎ𝑓 = 𝑘𝑠𝑘ℎ𝑠𝑘𝑓𝑘𝑡𝑑(𝑡𝑓 , 𝑡𝑖). 0,48. 10 −3 (18) 𝐾𝑑𝑓 coeficiente de sección transformada para el tiempo transcurrido entre 𝑡𝑑 y 𝑡𝑓. Representa el mismo efecto que 𝐾𝑖𝑑 y se toman las mismas consideraciones explicadas anteriormente, solo que esta está derivada de la sección compuesta . 𝐾𝑑𝑓 = 1 1+ 𝐸𝑝 𝐸𝑐𝑖 ′ . 𝐴𝑝𝑠 𝐴𝑐2 (1+ 𝐴𝑐2.𝑒𝑜2 2 𝐼2 )(1+0.7𝜓(𝑡𝑓,𝑡𝑖)) (19) Pérdidas por flujo plástico en la sección compuesta entre el tiempo de colocación de la losa “in situ” y el final. Hay dos causas de la fluencia durante este intervalo de tiempo. Primeramente, habrá continuado la fluencia debido a las cargas aplicadas inicialmente: pretensado y peso propio. En la mayoría de los casos, esta fluencia será de comprensión en la parte inferior de la viga, la cual continuará reduciendo el esfuerzo del tendón. La segunda causa será la fluencia debido a la adición de carga permanente en la parte superior de la viga. Esta fluencia será de tracción incrementando la tensión del tendón. El método de la AASTHO también incluye la aplicación de las pérdidas de pretensado en el primer intervalo como una fuerza de tensión y contando la tracción por fluencia asociada con las pérdidas de pretensado. [7] Δ𝑓𝐶𝐷 = 𝐸𝑝 𝐸𝑐𝑖 ′ 𝑓𝑐𝑝𝑔[𝜓(𝑡𝑓 , 𝑡𝑖) − 𝜓(𝑡𝑑 , 𝑡𝑖)]𝐾𝑑𝑓 + 𝐸𝑝 𝐸𝑐 ′ Δ𝑓𝑐𝑑𝜓(𝑡𝑓 , 𝑡𝑑)𝐾𝑑𝑓 (20) El segundo término de la ecuación (20) generalmente es negativo mientras que el primero siempre es positivo. Esto es producto a que 𝑓𝑐𝑝𝑔 genera un esfuerzo de comprensión mientras que Δ𝑓𝑐𝑑 usualmente provoca incrementos de los esfuerzos de tracción. ∆𝑓𝑐𝑑 tensión normal en el hormigón evaluada para la sección compuesta y a nivel del centroide de la armadura pretensada, debida a todas las cargas permanentes sobrepuestas aplicadas al elemento una vez que se ha transferido el pretensado, excepto la carga que origina el momento 𝑀𝑜. Para la determinación de Δ𝑓𝑐𝑑 se procede a reducir la fuerza de pretensado por las pérdidas diferidas ocurridas antes de la colocación de la losa “in situ”: ∆𝑓𝑝𝑖𝑑 = ∆𝑓𝐶𝑅 + ∆𝑓𝑆𝐻 + ∆𝑓𝑅𝐸1 (21) Entonces: ∆𝑓𝑐𝑑 = − [ ∆𝑓𝑝𝑖𝑑∙𝐴𝑝𝑠∙𝑒𝑜1 2 𝐼1 + ∆𝑓𝑝𝑖𝑑∙𝐴𝑝𝑠 𝐴𝑐1 ] − [(𝑀𝑑) 𝑒𝑜1 𝐼1 + 𝑀𝑎𝑎 𝑒𝑜2 𝐼2 ] (22) 𝑀𝑑 momento de servicio producto a la actuación de la carga muerta del hormigón colocado (peso de la losa “in situ”). 𝑀𝑎𝑎 momento de servicio provocado solo por la carga de larga duración. 𝜓(𝑡𝑓 , 𝑡𝑑) coeficiente de fluencia para la sección compuesta para para el tiempo transcurrido entre 𝑡𝑑 y 𝑡𝑓 𝜓(𝑡𝑓 , 𝑡𝑑) = 1,9. 𝑘𝑠𝑘ℎ𝑐𝑘𝑓𝑘𝑡𝑑(𝑡𝑓 , 𝑡𝑑)𝑡𝑑 −0,118 (23) 𝑘𝑓 = 34,5 6,9+𝑓𝑐 ′ (24) factor que considera la resistencia del hormigón de la viga prefabricada en la etapa de servicio (𝑓𝑐 ′ ) 𝑘𝑡𝑑(𝑡𝑓 , 𝑡𝑑) = 𝑡𝑓−𝑡𝑑 61−0,58𝑓𝑐 ′+𝑡𝑓−𝑡𝑑 (25) Pérdidas por relajación del acero entre el tiempo de colocación de la losa “in situ” y el final. Investigaciones indican que alrededor de la mitad de las pérdidas debido a la relajación del acero ocurren antes de la colocación de la losa; es por esto que, las pérdidas después de colocada la losa son iguales a las anteriores: ∆𝑓𝑅𝐸2 = ∆𝑓𝑅𝐸1 (26) Pérdidas por retracción en la losa “in situ” entre el tiempo de colocación de la losa y el final. A partir del momento en que la losa es hormigonada comienzan a aparecer una serie de fenómenos producto a los procesos de fraguado y endurecimiento del nuevo hormigón. En las figuras 1 y 2 puede apreciarse como cuando la losa de hormigón se retrae después de haberse establecido el comportamiento del elemento como compuesto la parte superior de la viga controla la retracción. De esta manera la losa genera una fuerza de compresión en la cabeza de la viga y la viga genera una de tracción de igual magnitud en la losa. Esto resulta en la viga deflactándose más hacia abajo y en el desarrollo de tensiones en la parte inferior de la viga.[7] Figura 1. Efecto de la retracción diferencial en la deflexión de la viga Figura 2. Equilibrio de esfuerzos debido a la retracción diferencial. Para condiciones típicas, donde la losa está por encima del eje neutro de la sección compuesta y el centroide del acero por debajo del eje neutro en la sección crítica, la retracción de la losa incrementa la fuerza de pretensado causando un esfuerzo de tracción en la cara inferior de la viga, por lo que es considerado su efecto como una “ganancia”. Esta ganancia es determinada por: Δ𝑓𝑆𝑆 = 𝐸𝑝 𝐸𝑐 ′ Δ𝑓𝑐𝑑𝑓𝐾𝑑𝑓[1 + 0.7𝜓(𝑡𝑓 , 𝑡𝑑)] (27) Donde: Δ𝑓𝑐𝑑𝑓 tensión normal diferencial en el hormigón, debida al efecto de la retracción en la losa “in situ”, evaluada para la sección compuesta de hormigón y a nivel del centroide de la armadura pretensada. Δ𝑓𝑐𝑑𝑓 = 𝜀𝑑𝑑𝑓𝐴𝑑𝐸𝑐𝑑 [1+0.7𝜓𝑑(𝑡𝑓,𝑡𝑑)] ( 1 𝐴𝑐2 − 𝑒𝑜2𝑒𝑜𝑑 𝐼2 ) (28) El primer término de la ecuación (27) representa la fuerza efectiva debido a la retracción de la losa aplicada a la sección compuesta en el centroide de la losa “in situ” 𝜀𝑑𝑑𝑓 deformación por retracción de la losa “in situ” para el tiempo transcurrido entre 𝑡𝑑 y 𝑡𝑓 𝜀𝑑𝑑𝑓 = 𝑘𝑠𝑘ℎ𝑠𝑘𝑓𝑑𝑘𝑡𝑑(𝑡𝑓 , 𝑡𝑑). 0,48. 10 −3 (29) 𝑘𝑠 = 1,45 − 5,117 𝑉 𝑆 ≥ 1 (30) factor que considera la relación volumen/superficie para la losa “in situ” 𝑘𝑓𝑑 = 34,5 6.9+0,8𝑓𝑐𝑑 ′ (31) factor que considera la resistencia del hormigón de la losa “in situ” en el momento de aplicación de las cargas (0,8𝑓𝑐𝑑 ′ ) 𝑘𝑡𝑑(𝑡𝑓 , 𝑡𝑑) = 𝑡𝑓−𝑡𝑑 61−0,58∙0,8𝑓𝑐𝑑 ′ +𝑡𝑓−𝑡𝑑 (32) 𝐴𝑑, 𝑓𝑐𝑑 ′ , 𝐸𝑐𝑑 , 𝑒𝑜𝑑 área, resistencia del hormigón, módulo de deformación y distancia entre el centroide de la losa “in situ” y el centroide de la sección prefabricada. 𝜓𝑑(𝑡𝑓 , 𝑡𝑑) coeficiente de fluencia para la losa para el tiempo transcurrido entre 𝑡𝑑 y 𝑡𝑓 . Se considera que la deformación por fluencia en la losa comienza en el día 1. 𝜓𝑑(𝑡𝑓 , 𝑡𝑑) = 1,9. 𝑘𝑠𝑘ℎ𝑐𝑘𝑓𝑑𝑘𝑡𝑑(𝑡𝑓 , 𝑡𝑑)1 −0.118 (33) En la figura 3 se esquematiza la variación del esfuerzo del acero a lo largo del tiempo y la influencia de cada pérdida en la misma. Se han incluido las pérdidas instantáneas, aunque no son el propósito de este trabajo, para una mejor comprensión. Figura 3. Variación del esfuerzo del acero respecto al tiempo. De manera simplificada la AASTHO [4] propone la siguiente expresión para la estimación de las pérdidas diferidas tomando en cuenta las pérdidas antes de la colocación de la losa y las producidas después de ser colocada : ∆𝑓𝐿𝑇 = 10 𝑓𝑝𝑖𝐴𝑝𝑠 𝐴𝑐 𝛾ℎ𝛾𝑠𝑡 + 83𝛾ℎ𝛾𝑠𝑡 + ∆𝑓𝑅𝐸 (34) Donde: 𝛾ℎ = 1.7 − 0.01𝐻𝑅 factor que considera la humedad relativa (35) 𝛾𝑠𝑡 = 34,5 6,9+𝑓𝑐 ′ factor que considera la resistencia del hormigón de la viga prefabricada (36) ∆𝑓𝑅𝐸 = 16,5𝑀𝑃𝑎 para aceros de baja relajación. ∆𝑓𝑅𝐸 = 68.95𝑀𝑃𝑎 para aceros aliviados de tensiones. El primer término representa el efecto de la fluencia (∆𝑓𝐶𝑅 + ∆𝑓𝐶𝐷) , el segundo el de la retracción (∆𝑓𝑆𝐻 + ∆𝑓𝑆𝐷) mientras que el tercero estima la relajación del acero (∆𝑓𝑅𝐸1 + ∆𝑓𝑅𝐸2). Este método resulta muy conservador comparado con el método detallado y con pruebas de laboratorio. Estos valores pueden ser usados como un “número gordo” para darle la idea al proyectista de cuan bien estimó las pérdidas. Figura 4. Comparación entre las pérdidas medidas y las estimadas por diferentes métodos. En la figura 4 se muestra los resultados de un estudio realizado por [8] , donde se comparan las estimaciones con mediciones reales, evidenciándose que el método refinado de la AASTHO es el de mejores predicciones de las pérdidas. A criterio de Jayaseelan [9] este resultado es insuficientemente atractivo para hacer que los diseñadores dejen de usar los métodos aproximados debido a que usar un método de análisis más preciso puede significar solamente un cambio de uno cada 3 cables. Sin embargo, la tendencia mundial hacia la optimización estructural conduce al uso de métodos más cercanos a la realidad. Además, con el avance de la computación la mayoría de los proyectistas cuentan con una herramienta que les faciliten los cálculos, por tanto, es ampliamente justificado el uso de este método en el proceso de diseño de piezas pretensadas de sección compuesta en Cuba. En el trabajo de diploma desarrollado por [10] se propone una plantilla programada en PTC MathCad Prime 7.0.0.0 con el objetivo de facilitar el proceso de cálculo. Figura 5. Plantilla: “Hormigón Pretensado. Pérdidas Secciones Compuestas.” 4. CONCLUSIONES El método de la AASTHO para determinar las pérdidas de pretensado en secciones compuesta posee una base teórica más desarrollada y rigurosa que métodos anteriores, lo que conlleva a una mayor precisión en cuanto a la idealización del problema. El gran número de variables y la no claridad de algunos de sus términos provoca que a los proyectistas les desmotive el uso del mismo. En este trabajo quedan aclarados los conceptos fundamentales para el desarrollo del método lo que permite una mejor comprensión del mismo y el desarrollo de habilidades por parte de los proyectistas. REFERENCIAS 1. NC:207, “Requisitos generales para el diseño y construcción de estructuras de hormigón.,” 2019. 2. PCI, PCI design handbook: Precast and prestressed concrete, 7th ed. Precast/Prestressed Concrete Institute, 2010. 3. Swartz, B. et al. “AASHTO LRFD Bridge Design Specifications provisions for loss of prestress.,” PCI Journal, 2012, vol. 57, no. 4. 4. AASHTO, AASHTO LRFD bridge design specifications, 8th ed. American Association of State Highway and Transportation Officials, Washington, DC, 2017. 5. NCHRP, “NCHRP Report:907.AttachmentB,” 2018. 6. PCI, PCI Bridge Design Manual, 3rd ed., 2014. 7. ACI:423, “Guide to Estimating Prestress Loss ACI 423.10R-16,” 2016. 8. Garber, D. B. et al, “Prestress loss calculations: Another perspective,” PCI Journal, 2016, vol. 61, no. 3, pp. 68–85. 9. Jayaseelan H.; Russell, B. W. “Reducing cambers and prestress losses by including fully tensioned top prestressing strands and mild reinforcing steel.,” PCI Journal, 2019, vol. 64, no. 3, pp. 29–46 10. Reyes Cardonas, Ruben “Manual de diseño a fuerzas cortantes de vigas de hormigón pretensado.”, Universidad Central “Marta Abreu” de Las Villas, 2021. PRODUCCIÓN DE MUROS DE VIVIENDAS ALIGERADOS DE BLOQUES DE HORMIGÓN CON LC3 Y EPS Arq. Leisa Santana Rodríguez1, MSc. Arq. Meylin Amador Hernández2 1Empresa de Construcción y Montaje de Villa Clara, Carretera a Planta Mecánica y Circunvalación Norte, Zona Industrial, Santa Clara, 2Universidad Central Marta Abreu de Las Villas, Carretera de Camajuaní km 5,5, Santa Clara 1leisasr@nauta.cu RESUMEN La presente investigación tiene como objetivo la propuesta de nuevas tecnologías y materiales en la producción de muros de viviendas utilizando bloques de hormigón aligerado producidos con cemento LC3 y poliestireno expandido como sustitución del árido. Se demuestra la superioridad de su empleo en comparación con los muros de bloques tradicionales fabricados a base de Cemento Portland 350 y con los fabricados utilizando como sustitución del cemento tradicional el cemento de bajo carbono. Para ello la investigación se apoya en el Análisis de Ciclo de Vida y cálculo de los indicadores de eco-eficiencia, articulando diferentes herramientas analíticas y metodológicas para obtener dichos indicadores y el comportamiento ambiental de las diferentes variantes de muros de bloque de hormigón analizadas. La unidad funcional fue 1m2 de muro de bloque de hormigón y los indicadores de eco-eficiencia fueron obtenidos de acuerdo a la norma ISO 14045. Los resultados obtenidos hicieron posible demostrar que la construcción de muros de bloques de hormigón aligerados con la utilización de LC3 y EPS permite una mejora en los indicadores de eco-eficiencia, disminuyendo los impactos ambientales y aumentando la eficiencia y economía en la construcción. PALABRAS CLAVES: Muros de bloques de hormigón, LC3, poliestireno expandido, Análisis de Ciclo de Vida, eco-eficiencia PRODUCTION OF UNLOADED WALLS OF HOUSINGS OF BLOCKS OF CONCRETE WITH LC3 AND EPS ABSTRACT The objective of this research is to propose new technologies and materials in the production of residential walls using lightweight concrete blocks produced with LC3 cement and expanded polystyrene as a substitute for aggregate. The superiority of its use is demonstrated in comparison with traditional block walls made from Portland Cement 350 and with those made using low-carbon cement as a substitute for traditional cement. For this, the research rely on Life Cycle Analysis and calculation of eco- efficiency indicators, articulating different analytical and methodological tools to obtain said indicators and the environmental behavior of the different variants of concrete block walls analyzed. The functional unit was 1m2 of concrete block wall and the eco-efficiency indicators were obtained according to the ISO 14045 standard. The results obtained made it possible to demonstrate that the construction of lightened concrete block walls with the use of LC3 and EPS allows an improvement in eco-efficiency indicators, reducing environmental impacts and increasing efficiency and economy in construction. KEY WORDS: Walls of concrete blocks, LC3, expanded polystyrene, Analyze the cycle´s life, eco- efficiency. 1. INTRODUCCIÓN La industria de la construcción civil ejerce un impacto significativo sobre la economía de una nación y, por tanto, pequeñas alteraciones en las diversas fases del proceso constructivo pueden promover, además de cambios importantes en la eficiencia ambiental y reducción de los gastos operacionales de una obra, un mayor incentivo en la inversión del sector. Es por ello que, la elección de materiales de construcción presenta un importante campo de la ingeniería ambientalmente responsable [1]. En la actualidad los muros basados en la tecnología de obras de fábrica (bloques de hormigón) son de vital importancia a nivel global, ya que son económicos y versátiles, adaptables y relativamente fáciles de usar. Sin embargo, los materiales convencionales que se utilizan para la elaboración de muros de bloque impactan al ambiente de una manera severa y en muchos casos irreversible. En Cuba la comunidad científica ha venido avanzando en el estudio y producción de cemento de bajo carbono (CBC) de denominación LC3, así como la incorporación de materiales alternativos de baja contaminación ambiental como el polietileno expandido (EPS) o poliespuma. Los materiales (LC3 y EPS) se han venido convirtiendo en una alternativa más económica para la producción de bloques de hormigón aligerados. Ello abre amplias posibilidades para la industria de los materiales de la construcción, ya que constituye una alternativa de los bloques tradicionales utilizados en la actualidad, los cuales podrían llegar a cubrir la amplia demanda de este tipo de material en los próximos años con un menor daño ambiental y un menor costo económico. Es posible el uso del cemento LC3 en elementos prefabricados de hormigón con adecuadas propiedades fisco-mecánicas, así como también bloques de concreto con perlas de poliestireno que permiten una mayor rapidez en la construcción, menor costo de transporte y acarreos en obra, Por tanto, es de urgente necesidad diversificar y descentralizar la producción de materiales de la construcción, así como crear nuevas tecnologías o retomar el uso de tecnologías tradicionales utilizando materiales locales con el fin de reducir el consumo de energía que se genera en sus producciones, incrementar las ventas a la población, lograr diseños eficientes y reciclar y reutilizar los recursos con los que se cuentan para obtener materiales más eco-eficientes. La necesidad de avanzar en el desarrollo de la producción de materiales de la construcción, la urgencia de dar respuesta al déficit habitacional acumulado en el país, abaratar costos, incrementar la competitividad y reforzar la política en materia de desarrollo sostenible constituyen un incentivo para elaborar un estudio valorativo de la construcción de muros de una vivienda construida con bloques de hormigón aligerados producidos con cemento LC3 y EPS mediante un estudio de eco-eficiencia con enfoque de ciclo de vida. 2. ANÁLISIS DEL PROCEDIMIENTO METODOLÓGICO. DESCRIPCIÓN DE LOS MATERIALES Y TECNOLOGÍAS PROPUESTOS Se propone la evaluación de bloques huecos de hormigón utilizando cemento LC3 -50 como sustituto del cemento portland, y bloques de poliestireno expandido como árido en la materia prima de producción, tomando como caso base los bloques huecos producidos con cemento P-35, contando con un análisis de cada una de las etapas de esta evaluación, así como las características técnicas e inventarios de las materias primas empleadas en la producción. Para ello se emplea la metodología análisis del ciclo de vida, que permite un estudio desarrollado de los aspectos ambientales y los impactos potenciales a lo largo del ciclo de vida de un producto o de una actividad [6]. Procedimiento metodológico aplicado a la investigación El procedimiento diseñado para la investigación fue desarrollado por [7] aplicándolo al caso de estudio para la evaluación de los muros de viviendas siguiendo el plan experimental: − Selección y procesamiento de la materia prima para la producción de muros de viviendas utilizando bloques de hormigón aligerado producidos con cemento LC3-50 y tecnología ercolith. − Caracterización de las materias primas. − Fabricación de los muros de bloques huecos de hormigón y realización de ensayos a los bloques de hormigón aligerados, para los cuales se empleó la NC 247:2010. − Ensayo de dimensiones. − Resistencia a la compresión a los 7 y a los 28 días. − Ensayo de absorción. − Evaluación del ciclo de vida de la producción de muros de bloques de hormigón a cada muestra para determinar el impacto provocado en las categorías seleccionadas. − Evaluación de los impactos ambientales y cálculo de los indicadores de eco-eficiencia. − Valoración e interpretación de los resultados obtenidos. Selección y caracterización de las materias primas para la construcción de muros de viviendas Para el estudio de los muros producidos con bloques de hormigón aligerados en la investigación se emplearon los resultados obtenidos por [1], [7], [8] en la evaluación de los bloques de hormigón empleando el cemento LC3-50 y la tecnología ercolith en su producción. Los resultados de estas investigaciones tienen en cuenta cada una de las materias primas, sus características y propiedades, así como su fuente de procedencia para la producción de los bloques. El procedimiento de fabricación de los bloques se basa en la NC 247, 2010: “Bloques huecos de hormigón. Especificaciones”. En el caso de estudio, se emplean dos tipos de bloques de hormigón: los bloques tipo I (bloque de hormigón tradicional de dimensiones 0.40 x 0.20 x 0.20 m) y los bloques tipo II (figura 2). En la investigación se utilizan tres bloques diferentes según los tipos de cemento empleado en su producción: Bloque P-35, Bloque LC3 y Bloque ercolith. Figura 2. Planos teóricos de las aristas del bloque tipo II. Dosificación y medición de los materiales componentes de la mezcla para la producción de bloques de hormigón utilizando cemento LC3-50 Según los datos brindados por la investigación de [9] el diseño de las mezclas de hormigón para bloques que se usó en el caso de la serie fabricada con bloques de P-35 es el utilizado normalmente en los talleres de producción de materiales y que se encuentra certificada por la ENIA UIC: Cienfuegos. Para la segunda serie se utilizó la misma dosificación, pero sustituyendo el cemento Portland P-35 por un 50% de cemento LC3. A continuación, en la tabla 1 se muestran las dosificaciones utilizadas para la producción de los bloques. Tabla 1. Cemento, arena del Canal y granito de Santiago Ramírez (10-5 mm). Tipo Dosificaciones materiales para bloques ercolith Cemento (kg) Arena (kg) Granito (5-10) kg Agua (l) Masa total (kg) Bloques P-35 1.25 3.75 5 1 57.5 Bloques LC3-50 1.25 3.75 5 1.3 52.8 Dosificación y medición de los materiales componentes de la mezcla para la producción de bloques ercolith Según datos brindados por [8] el hormigón empleado se obtiene mezclando cemento, perlitas de poliestireno expandido (EPS), aditivo químico y agua. Para la producción de bloques se emplean perlitas de poliestireno producidas de forma industrial y se aprovechan además las provocadas por el desperdicio del material en obras. Para este estudio se utilizó como referencia la densidad media de 400 kg/m3 establecida para hormigones con tecnología ercolith. A partir de estos datos se obtuvo el peso en kg que tendrían los bloques ercolith. En la tabla 3 se muestra la dosificación del material a emplear en la producción de bloques livianos con EPS de ercolith. Tabla 3. Dosificación de materiales para la producción de bloques ercolith. Dosificaciones materiales para bloques ercolith Cemento (kg) EPS (kg) ercoFlex (kg) ercopor (kg) PP-fibers (kg) Agua (L) Forming oil (kg) ercolith ILC (kg) Masa total (kg) Bloque hueco ercolith 10.61 0.55 0.07 0.02 0.04 5.68 0.02 1.26 18.1 Ensayos realizados a los bloques huecos de hormigón Los ensayos a los bloques se realizaron según lo que establece la NC 247: 2010 [10]. Para el estudio se realiza una selección de muestras aleatorias de cada una de las series de los bloques que se fabricaron, luego se realizan los ensayos de dimensiones, compresión y de absorción, cumpliendo todos con las exigencias de la norma. Ensayo de dimensiones: El ensayo se realiza para verificar las dimensiones de los bloques según lo establecido en la NC 247-2010 [10]. Para el criterio de conformidad de las dimensiones de los bloques se promedian los resultados de las mediciones obtenidas y se evalúan con los valores que establece la NC 247-2010[10]. Para la realización de este ensayo se utiliza una cinta métrica con valor de división de 1 mm. Ensayo de resistencia a compresión: El ensayo de resistencia a compresión en los bloques se efectúa a los 7 y 28 días. A partir de los resultados de este ensayo se puede proceder al cálculo de la resistencia a la compresión del muro de bloque de hormigón. Ensayo de absorción: El ensayo de absorción se realiza con el objetivo de establecer la capacidad de los bloques para absorber una determinada cantidad de agua. Los resultados de este ensayo representan el grado de compacidad y porosidad que presentan los bloques. Caracterización del sistema constructivo empleado La investigación se desarrolla en un proyecto de vivienda concebido como objeto social para la Empresa de Construcción y Montaje de Villa Clara (UEB No.2 Arquitectura y Vivienda). La obra consiste en viviendas unifamiliares ubicada en la zona de Puerto Escondido, municipio de Sagua la Grande. La estructura de la misma se basa en muros de bloques de hormigón y ladrillo. El caso de estudio comprende dos sistemas constructivos diferentes: 1. El primer sistema constructivo se concibe a partir de un sistema de muros de cargas utilizando bloques de hormigón tipo I 2. El segundo sistema comprende el empleo de bloques ercolith tipo II con un sistema estructural de muros aligerados reforzados con acero. Figura 3. Representación 3D del sistema constructivo muros de carga utilizando bloques de hormigón tipo I. Figura 4. Representación 3D del sistema constructivo de bloques ercolith tipo II con un sistema estructural de muros aligerados reforzados con acero. Conformación de los inventarios Para la conformación de los inventarios, los resultados obtenidos en los balances de materiales y energía son adaptados a la Unidad Funcional (1m2 de muro de bloque de hormigón) producido con diferentes tipos de bloques. En esta etapa de procesamiento de datos se toman como referencia los resultados de la evaluación realizada por [7] a los bloques huecos de hormigón producidos con cemento de bajo carbono. Esta investigación nos muestra en detalle cómo influyen el uso de diferentes tipos de cementos en el proceso de producción de los bloques huecos de hormigón. La tabla 4 muestra los valores ambientales según cada tipo de bloque evaluados en 5 categorías de impactos durante su ciclo de vida. Tabla 4. Comparación de los perfiles ambientales expresados en porcentaje de los bloques huecos de hormigón (Recipe punto medio). En la tabla anterior se relacionan, además, los índices de contaminación ambiental producido durante el proceso de producción de los bloques ercolith. La evaluación del muro de bloques comprende todo el proceso constructivo del mismo teniéndose en cuenta las características de cada uno de los materiales que se emplean para la etapa de construcción y en el proceso de terminación del muro. La tabla 5 muestra la relación de los materiales empleados en la construcción de un 1m2 de muro construido con piezas de bloques de hormigón producidos con cemento P-35 y cemento LC3-50 y la relación de los materiales empleados en la terminación de este. Tabla 5. Cantidad de materiales asociados a 1 m2 de muro de bloques P-35 y bloques LC3-50. Para 1 m2 de muro Consumo de materiales Actividades Cemento (kg) Arena (m3) Cal (kg) Bloques (u) Dosificación Colocación de bloques 6,25 0,018 3,6 13 1:4:1 Salpicado 0,425 0,009 1:2 Resano 2,93 0,022 1,73 1:4:1 Fino 1,91 0.0065 1,12 1:4:1 La tabla 6 muestra las dosificaciones de los materiales empleados durante la construcción de 1m2 de muro con bloques ercolith. Dadas las características de terminación que tienen la superficie de los bloques ercolith no se hace necesario emplear otro sistema o material para dar terminación a la superficie de los muros. La tecnología realiza la fundición de cilindros de hormigón reforzados con 2 aceros como cierre del muro. Tabla 6. Cantidad de materiales asociados a 1 m2 de muro de bloques ercolith. Para 1 m2 de muro Consumo de materiales Actividades Cemento (kg) Arena (m3) Árido Grueso (m3) Acero (kg/m) Bloques (u) Dosificación Colocación de bloques 4 Hormigonado cilindro unión 7,85 0,01 0,03 1,12 1:2:3 Categoría de impacto Unidad Bloque LC3-50 Bloque P-35 Bloque ercolith Cambio Climático kg CO2 eq 0.5390 0.8173 0.15065 Material Particulado kg PM2.5 eq 0.0023 0.0036 0.0006 Acidificación de la tierra kg SO2 eq 0.0078 0.0122 0.0019 Escasez de recursos fósiles kg oil eq 0.0903 0.1217 0.0280 Consumo de aguas m3 0.0063 0.0071 0.0018 Inventario para Obtención de los indicadores de Valor Para desarrollar el Análisis de eco-eficiencia se recopiló información económica relacionada con el proceso de producción de los bloques empleados en el estudio y el proceso constructivo de un muro. Para ello se tuvo en cuenta los precios actualizados obtenidos por la Empresa de Construcción y Montaje de Villa Clara, según las nuevas normativas de ordenamiento monetario que se comenzó a implementar en Cuba en el 2021. Los precios de la mano de obra fueron obtenidos a partir de la base de datos actualizada del PRECONS. Como resultado se obtuvo el costo total generado para la construcción de las distintas variantes de 1m2 de muro, donde se incluye materias primas, mano de obra y terminaciones. El resultado fue: para 1m2 de muro de bloque de hormigón P-35 un costo de producción de 145.33 cup, para el caso de muros de bloque con LC3 un costo de 141.33 cup y utilizando la tecnología ercolith para un metro cuadrado de muro, se obtuvo un valor de producción de 70.38 cup. 3. Resultados de la evaluación de impactos ambientales y eco-eficiencia de la tecnología propuesta En la investigación se emplea el enfoque de puntos intermedios, donde la incertidumbre de los datos es baja, es decir, los resultados son más fiables y precisos, por lo tanto, este método facilita el análisis de los resultados obtenidos en dependencia de los objetivos trazados y el cálculo de los indicadores de eco- eficiencia. Previo a ello, se realizaron todos los ensayos correspondientes, incluidos dentro del proceso metodológico (ensayo de dimensiones, resistencia y absorción) a partir de NC 247: 2010 [10], estableciéndose la fabricación de los bloques huecos de hormigón en el taller de Aguada, siendo ejecutado el mismo por personal del centro. Alcance del estudio o límites del sistema El alcance del presente estudio se ha definido de acuerdo a su objetivo principal, por esta razón, el enfoque seleccionado es de la cuna a la puerta ya que se concluye cuando el muro ya está construido en obra y comienza con la producción de sus elementos componentes. La unidad funcional de este estudio es la producción de 1m2 de muro de bloque hueco de hormigón, considerando diferentes tipos de bloques de hormigón para su elaboración. Resultados del Análisis de Ciclo de Vida Los muros construidos se evalúan en 8 categorías intermedias de la metodología Recipe. A partir de ello se elaboran los perfiles ambientales para cada uno, siendo los muros construidos con bloques ercolith los que poseen el menor impacto en todas las categorías de las intermedias. La evaluación del impacto con el método midpoint permite obtener entonces estos indicadores de acuerdo a las sustancias de referencias, continuación se ofrecen en la tabla 7 los valores obtenidos. Tabla 7. Resultados de los indicadores evaluados para 1m2 de muro evaluado según los bloques empleados para su construcción en diferentes categorías de impacto. Categoría de impacto Unidad Muro de bloques ercolith (1 m2) Muro de bloques LC3-50 (1 m2) Muro de bloques P-35 (1 m2) Calentamiento global kg CO2 eq 13.301 15.820 19.295 Formación de ozono (Salud humana) kg NOx eq 0.051 0.072 0.085 Formación de partículas finas kg PM2.5 eq 0.049 0.069 0.085 Formación de ozono (Ecosistemas terrestres) kg NOx eq 0.051 0.072 0.085 Acidificación terrestre kg SO2 eq 0.164 0.234 0.289 Eco-toxicicdad terrestre kg 1,4-DCB 6.855 10.003 10.015 Escasez de recursos minerales kg Cu eq 0.296 0.465 0.512 Escasez de recursos fósiles kg oil eq 2.389 2.451 2.842 Consumo de agua m3 0.190 0.221 0.231 En las 9 categorías de impacto estudiadas los muros de bloques producidos con tecnología ercolith y cemento LC3-50 presentan un mejor comportamiento ambiental. Destacándose la baja acidificación terrestre, la disminución en las emisiones de material particulado durante el proceso de construcción del muro y el bajo consumo de recursos minerales empleados en la producción de los bloques huecos de hormigón con tecnología ercolith, disminuyéndose así las afectaciones a la salud humana y a los ecosistemas provocadas por la industria de la construcción. El uso de cemento P-35 para la producción de bloques huecos de hormigón por su parte, causa un mayor daño a la salud humana y al eco-sistema debido al proceso de producción de este cemento. Cálculo de los indicadores de Eco-eficiencia El cálculo de los indicadores de eco-eficiencia tiene relevancia para la toma de decisiones pues se relacionan indicadores de costo y de impacto ambiental. Se decide calcular los indicadores de eco- eficiencia para aquellas categorías que tienen una contribución al impacto ambiental con un orden de magnitud considerable y que muestran mayor variación entre los tipos de cemento considerados el estudio, estas son: calentamiento global, formación de ozono en la salud humana, formación de ozono en los eco-sistemas terrestres, formación de partículas finas, acidificación terrestre, eco-toxicidad terrestre, escasez de recursos minerales, escasez de recursos fósiles y consumo de agua Utilizando la ecuación (1) para cada tipo de indicador se obtienen los indicadores de eficiencia para cada uno de los muros de bloques estudiados. (1) Figura 3. Representación de los indicadores de eco-eficiencia. En la figura 3 se observa que existe una mejora de la eco-eficiencia de los muros construidos con bloques ercolith en todos los indicadores calculados, debido a una disminución simultánea de los costos de producción del material y de los impactos ambientales en cada una de las categorías de impacto. El uso del cemento LC3-50 para la producción de bloques ercolith, así como, el uso de perlitas de EPS muestra los mejores resultados. En el caso de la diminución de la cantidad de combustibles fósiles la disminución del costo de producción total compensa los resultados que se obtienen para el indicador de impacto ambiental de forma tal que se logra el incremento de la eco-eficiencia aun cuando la cantidad de combustible usada en los procesos de producción de cemento disminuyen. 4. CONCLUSIONES GENERALES Ante el déficit en el fondo habitacional, el excesivo aumento de los precios de las materias primas y la acelerada contaminación del medio ambiente resulta indispensable la introducción en las construcciones cubanas de los eco-materiales (materiales de construcción económicos y ecológicos). Al realizar el estudio valorativo entre los materiales y tecnologías tradicionales y los propuestos en este estudio se evidencia como con la utilización de la tecnología ercolith para muros se obtienen mejoras en todos los indicadores analizados. La utilización de esta tecnología constituye un ahorro económico importante y una forma eficiente de proteger el medio ambiente. RECONOCIMIENTOS Los autores desean agradecer a la Universidad Central Martha Abreu de la Villas y la Empresa de Construcción y Montaje de Villa Clara. REFERENCIAS 1. SERRANO GONZÁLEZ, Dany Joan, “Evaluación del comportamiento ambiental y la ecoeficiencia de bloque huecos de hormigón producidos con cemento bajo carbono (LC3) y poliestireno expandido (EPS).,”Universidad Central Martha Abreu de Las Villas, 2020. 2. REUS, Patricia, BLANCAFORT, Jaume, Ecoeficiencia en la arquitectura. 2010. 3. GONZÁLEZ MASA, Fernando, “Análisis del ciclo de vida de materiales de construcción convencionales y alternativos,” 2012. 4. VICENTE CRUZ, Yannic, “Evaluación de eco-eficiencia en la cadena productiva de una vivienda producida con cemento cubano de bajo carbono,” Universidad Central" Marta Abreu" de las Villas, 2014. 5. BARTUMEU RODRÍGUEZ, Dayan, “Eco-eficiencia en la cadena productiva de una vivienda Tipología III: cemento tradicional versus cemento de bajo carbono. Estudio de caso en Santo Domingo,” Universidad Central "Marta Abreu" de las Villas, 2015. 6. ALEGRE CORTASA, Elizabeth, et al. “Análisis y comparativa del ciclo de vida de diferentes soluciones constructivas,” 2017. 7. AMADOR HERNANDEZ, Meylin, “Análisis de eco-eficiencia de bloques de hormigón producidos con cemento de bajo carbono (LC3) con enfoque de ciclo de vida,” Universidad Central Matha Abreu de Las Villas, 2020. 8. AMADOR HERNANDEZ, Meylin, “Evaluación del comportamiento ambiental y la ecoeficiencia de bloques huecos de hormigón producidos con cemento bajo carbono (LC3) y poliestireno expandido (EPS).” 2021. 9. PERNÚS SANTIAGO, María Chabely, “La utilización de cementos LC3 en la producción local de materiales de construcción en Cienfuegos,” Universidad Central “Marta Abreu” de las Villas, 2019. 10. NC: 247, “Bloques huecos de hormigón. Especificaciones,” 2010. 11. MIELKE, I. and SEYFATH, K. “Ercolith, an innovative light-weight construction material,” 2021, no. June, pp.1–2 12. ONEI, “Anuario Estadístico de Cuba,” 2020. MÉTODOS ESTÁTICOS EQUIVALENTES PARA EL ANÁLISIS DINÁMICO DE EDIFICIOS ALTOS BAJO CARGAS DE VIENTO EN CUBA Amaya Ballate Delgado1, Dora Robert López2, Patricia Martín Rodríguez 3, Ingrid Fernández Lorenzo4 1, 2, 3, 4 Facultad de Ingeniería Civil, Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE), Calle 114 No. 11901 entre Ciclovía y Rotonda, Marianao, La Habana, Cuba, apartado Postal 19390, url:http://cujae.edu.cu. 1amayaballated@civil.cujae.edu.cu, 2dorarol@tesla.cujae.edu.cu, 3patriciamr@civil.cujae.edu.cu, 4ingridfl@civil.cujae.edu.cu: RESUMEN Los diseños actuales de edificios altos se caracterizan por un creciente aumento en la altura, una mayor esbeltez y el uso de materiales ligeros por lo que estas estructuras presentan gran susceptibilidad ante las acciones dinámicas de la carga de viento. El método factor de efecto de ráfaga (FER) se emplea en varias normas internacionales para la determinación de la respuesta dinámica de edificios altos bajo carga de viento, este método difiere de la metodología empleada por la norma de viento cubana vigente (NC 285:2003). En este trabajo se compara la norma cubana vigente NC-285:2003 con la propuesta de actualización según los parámetros del viento, el método estático equivalente utilizado, los valores del cortante en la base y los desplazamientos máximos considerando como objetos de estudio dos edificios de 100 y 152 metros de altura. Además, se presenta un procedimiento de cálculo de las aceleraciones actuantes y los criterios de aceleraciones límites permisibles. Los resultados en los edificios objeto de estudio muestran que la aceleración máxima transversal rige el estado de servicio para los estudios de confort. Los valores de desplazamientos máximos son mayores para la nueva propuesta de la norma solo en la dirección de viento que proviene directamente del mar. PALABRAS CLAVES: edificaciones altas, componente dinámica, cargas de viento, aceleraciones actuantes, método estático equivalente. EQUIVALENT STATIC METHODS FOR DYNAMIC ANALYSIS OF TALL BUILDINGS UNDER WIND LOADS IN CUBA ABSTRACT Current designs of tall buildings are characterized by a gradual increase in height, greater slenderness and the use of lightweight materials, so they are highly susceptible to the dynamic actions of wind load. The gust effect factor (FER) method is used in several international standards for the determination of the dynamic response of tall buildings under wind load, this method differs from the methodology used by the current Cuban wind standard (NC 285:2003). This paper compares the current Cuban standard NC- 285:2003 with the proposed update according to the wind parameters, the equivalent static method used, the values of base shear and maximum displacements considering as objects of study two buildings of 100 and 152 meters high. In addition, a calculation procedure of the acting accelerations and the permissible limit acceleration criteria are presented. The results for the buildings under study show that the maximum across wind acceleration governs the serviceability state for the comfort studies and the maximum displacement values are higher for the new proposed standard only in the wind direction coming directly from the sea. KEY WORDS: tall buildings, dynamic component, wind loadings, acting accelerations, the equivalent static method. 1. INTRODUCCIÓN La necesidad de una correcta evaluación de las cargas de viento sobre edificios altos ha motivado el estudio de las tendencias internacionales en la determinación de su respuesta bajo la acción del viento, donde se ha identificado la importancia de la actualización de la norma cubana de viento vigente [1]. En Cuba, el método de análisis para la consideración de la componente dinámica del viento en las estructuras se incorporó a la norma de viento a partir del año 1983 [1-3]. El método se adoptó a partir de los estudios realizados por Llanes Burón [4-6] y el método que propone la norma rusa de cargas en estructuras [7]. El método propuesto en la NC-285:2003 presenta limitaciones ya que varios parámetros, como el factor de aceleración reducida, no quedan claramente definidos, no se han podido identificar los fundamentos teóricos con los principios y conceptos definidos en la Ingeniería de Viento y no se corresponde con los métodos propuestos en el resto de las normas internacionales [8-13]. A partir del estudio de las referencias internacionales y la comparación de las normas de acción del viento sobre las estructuras se identificó el método factor de efecto de ráfaga como el más aplicado internacionalmente para el análisis de los edificios altos; además, el método FER incluye la consideración de las tres componentes: longitudinal, transversal y torsional. Los estudios comparativos entre normas internacionales [14, 15] desarrollados en Cuba han utilizado las características de las velocidades básicas y de turbulencia de los vientos del país para la aplicación de diferentes variantes del método FER según las normativas: europea [9], internacional [10], india [13] y japonesa [8]. Los resultados de estos trabajos mostraron que, a pesar de las diferencias entre los métodos en las normas estudiadas, y que no se conoce el basamento teórico de la NC vigente, en la mayoría de los casos los valores de desplazamientos y fuerzas interiores fueron similares. Además, se identificó la necesidad de evaluar la influencia de las componentes transversales y torsionales en la respuesta frente al viento de los edificios altos. Otro de los chequeos para tener en cuenta en el análisis de los edificios altos es el efecto de las oscilaciones y aceleraciones inducidas por el viento en los humanos. La norma cubana de viento vigente NC-285:2003 no contiene ningún procedimiento para la determinación de las aceleraciones inducidas por el viento ni los valores permisibles en edificaciones altas para chequear el estado límite de servicio. Además, el método propuesto en la NC 285:2003 para la consideración de los efectos dinámicos de la carga no es compatible con las formulaciones reconocidas internacionalmente para calcular las aceleraciones, que están basadas en el método FER. Se han realizado estudios [16, 17] donde se determinaron las aceleraciones máximas longitudinales, transversales y torsionales mediante una metodología propuesta a partir de la revisión e interpretación de las normativas internacionales de acción del viento sobre las estructuras. Los resultados de estos estudios mostraron que los mayores valores se obtuvieron para la aceleración en la componente transversal. El presente trabajo tiene como objetivo describir los fundamentos y las metodologías propuestas para la actualización de la norma cubana de viento NC 285:2003 en cuanto a la determinación de las fuerzas de viento y aceleraciones inducidas en edificios altos. Los resultados comparativos entre la norma cubana vigente y las metodologías propuestas se aplican en dos edificios altos de 100 y 152 m de altura de hormigón armado. 2. METODOLOGÍA 2.1. Determinación de las fuerzas de viento La norma cubana vigente NC 285:2003 considera la determinación de las fuerzas de viento en sentido longitudinal de la carga a partir de la consideración de dos componentes: estática y dinámica (ver tabla 1), las que deben ser calculadas de forma independiente y luego se suman según la ecuación (1). Tabla 1: Componentes para el cálculo de las cargas de viento según NC285:2003. Componente estática Componente dinámica 𝑄 = 𝑞10 · 𝐶𝑡 · 𝐶𝑠 · 𝐶ℎ · 𝐶𝑟 · 𝐶𝑟𝑎 · 𝐶𝑓 · [𝐴] 𝑄 𝑛 = 𝑀𝑗 · 𝐶 𝐷 · 𝐶𝐶𝐸 · 𝑁𝑗𝑖 𝑄 (kN): fuerza del viento. 𝑞10 (𝑘𝑁 𝑚 2⁄ ): presión básica del viento. 𝐶𝑡: coeficiente de recurrencia. 𝐶ℎ: coeficiente de altura. 𝐶𝑟: coeficiente de ráfaga. 𝐶𝑟𝑎: coeficiente de reducción de área. 𝐶𝑓: coeficiente de forma. 𝐴𝑛𝑒𝑡𝑎 (𝑚 2): área tributaria. 𝑀𝑗: “j” ésima masa concentrada del tramo (kg). 𝐶𝐷: es el coeficiente dinámico del modo “i” ésimo. 𝐶𝐶𝐸: coeficiente que tiene en cuenta la correlación espacial de las pulsaciones según la altura y fachada del edificio. 𝑁𝑗𝑖 : aceleración reducida de la “j” ésima masa (m/s2) 𝑋𝑣 ∗ = 𝛾𝑠 𝑋 𝐸 + [∑ 𝑋𝑖=1 𝐷𝑆 1 ) 2]1/2 (1) Donde 𝑋𝑣 ∗ es el valor de la solicitación (momento flector, fuerza cortante, fuerza axial y otras) de cálculo total debido al efecto de las cargas de viento; 𝑋𝐸 es el valor de la solicitación debido a la componente estática de la carga de viento; 𝑋𝐷 representa el valor de la solicitación debido a la componente dinámica de la carga de viento, S el número de modos de oscilaciones que se tienen en cuenta en el cálculo y 𝛾𝑠 es el coeficiente de mayoración de la carga (1,4). En la actualización de la norma NC-285 se propone una sola ecuación, ver ecuación (2), que incluye tanto los efectos estáticos como los dinámicos; estos últimos se consideran a partir de un coeficiente denominado coeficiente dinámico. 𝐹𝑉(𝑧𝑒) = 𝑞𝑝(𝑧𝑒) · 𝐶𝑓 · 𝐶𝐷 · 𝐴 = 𝑞10 · 𝐶𝑡 · 𝐶ℎ · 𝐶𝑟 · 𝐶𝑓 · 𝐶𝐷 · 𝐴 (2) Donde 𝐹𝑉 (𝑁) es la fuerza de viento, 𝑞𝑝(𝑧𝑒) (𝑁 𝑚2⁄ ) es la presión pico, 𝐶𝑓 es el coeficiente de fuerza, 𝐶𝐷 es el coeficiente dinámico. 𝐴 (𝑚2) en dependencia del tipo de estructura es el área tributaria, 𝑞10 (𝑁 𝑚 2⁄ ) es la presión básica del viento, 𝐶ℎ, 𝐶𝑡 𝑦 𝐶𝑟 son el coeficiente de altura, el coeficiente de recurrencia y el coeficiente de ráfaga respectivamente, 𝑧𝑒 es la altura de referencia. La presión básica del viento es uno de los aspectos que se modifican también con relación al código vigente. Estudios realizados [18, 19] sobre las velocidades básicas del viento en Cuba han propuesto nuevas estimaciones de estos valores. La velocidad básica para La Habana, que pertenece a la región 2 en la nueva distribución, es de 33 m/s en un intervalo de promediación de 10 minutos, mientras que para esta zona en la NC 285:2003 es de 45,6 m/s que responde a unas presiones básicas de 0,66 y 1,3 kN/m2 respectivamente. El coeficiente de altura es otro parámetro que se propone modificar en la norma. Se adoptó su formulación a partir del análisis de las normas de viento más importantes del mundo teniendo en cuenta el estudio realizado por Kwon and Kareem [20]. En cuanto a las categorías de terreno, los estudios actualizados proponen una mayor discretización de las rugosidades en comparación con la NC 285:2003 y quedarán más detalladas las categorías de terreno, en especial una mejor caracterización del terreno llano cercano a la costa marina. El coeficiente de ráfaga también se propuso modificar de un formato tabulado que presenta la norma vigente a la colocación de una expresión que parte de estudios realizados desde la década del sesenta por Davenport [21]. El coeficiente dinámico 𝐶𝐷, en función de las características de la estructura deberá calcularse para sus tres componentes: longitudinal, transversal y torsional. El 𝐶𝐷𝐿 y 𝐺𝐿, coeficiente en sentido longitudinal y el factor de efecto de ráfaga longitudinal, se calcula a partir de lo planteado en la ecuación (3) y (4) respectivamente; los parámetros se presentan en la actualización de la norma NC-285: 𝐶𝐷𝐿 = 𝐺𝐿 1+7𝐼(𝑍𝐷) (3) 𝐺𝐿 = 1 + 2𝐼(𝑍𝐷)√𝑔𝐿𝐵 2𝐵𝐿 2 + 𝑔𝐿𝑅2𝑅𝐿 2 (4) Donde 𝐺𝐿 es el factor de efecto de ráfaga longitudinal; 𝑍𝐷 la altura de referencia para el cálculo dinámico (𝑍𝐷 = 0,6 h para estructuras verticales); 𝐼(𝑍𝐷) es la intensidad de turbulencia calculada a la altura de referencia 𝑍𝐷; 𝑔𝐿𝐵es el factor de pico para la componente de fondo, puede equipararse a 𝑔= 3,5; 𝑔𝐿𝑅es el factor pico para la componente resonante; 𝐵𝐿 el factor de la respuesta de fondo, que toma en cuenta la correlación parcial de las presiones actuando sobre la estructura y 𝑅𝐿 es el factor de respuesta resonante longitudinal, sus expresiones se presentan en la actualización de la norma NC-285. Las componentes transversal y torsional se tienen en cuenta si se cumple la ecuación (5): ℎ √𝑏𝑑 ≥ 3 (5) La fuerza estática equivalente en el sentido transversal de ser requerida se calcula a través de la siguiente ecuación (6). 𝑓𝑇(𝑧) = 3𝑞𝑝(ℎ)𝐶𝑇𝐴 ( 𝑧 ℎ ) 𝑘 𝐶𝐷𝑇 (6) Donde 𝐶𝑇 es el coeficiente de fuerza aerodinámica (asociado al momento de vuelco fluctuante); 𝐶𝐷𝑇 es el coeficiente dinámico transversal; 𝑞𝑝(ℎ) es la presión pico de viento, cuya expresión se presentan en la actualización de la norma NC-285. El momento estático equivalente en la estructura en sentido torsional se calcula mediante la ecuación (7). 𝑓𝑀(𝑍) = 1,8𝑞(ℎ)𝐶𝑀𝐴𝑏 ( 𝑧 ℎ ) 𝑘 𝐶𝐷𝑀 (7) Donde 𝑞(ℎ) es la presión pico de viento calculada a la altura máxima; 𝐶𝑀 es el coeficiente de fuerza aerodinámica (asociado al momento de vuelco fluctuante); 𝐴 (𝑚2) es el área proyectada a la altura z; 𝐶𝐷𝑀 es el coeficiente dinámico torsional; 𝐶𝑀 es el coeficiente de fuerza aerodinámica, cuya expresión se presentan en la actualización de la norma NC-285. Las tres acciones (longitudinal, transversal y torsional) deben ser combinadas para un análisis de las edificaciones frente al viento, así como los efectos asociados (desplazamientos, rotaciones, tensiones, aceleraciones, entre otros) como se muestra en la tabla 2. Tabla 2: Reglas de combinación para efectos y acciones. Combinación Efecto/Acción longitudinal Efecto/Acción transversal Efecto/Acción torsional 1 𝐿 0,4𝑇 0,4𝑀 2 𝐿 (0,4 + 0,6 𝐺𝐿 ) 𝑇 𝛾𝑇𝑀𝑀 3 𝐿 (0,4 + 0,6 𝐺𝐿 ) 𝛾𝑇𝑀𝑇 𝑀 Los símbolos de la tabla tienen los siguientes significados: 𝐿, 𝑇, 𝑀: indican, dependiendo de las circunstancias, los efectos (desplazamientos, rotaciones, tensiones, aceleraciones) o acciones longitudinales, transversales o torsional respectivamente. 𝐺𝐿: es el factor de efecto de ráfaga longitudinal. 𝛾𝑇𝑀: es un coeficiente adimensional para la combinación de los efectos o acciones transversales y torsionales que se encuentra tabulado en la nueva propuesta. 2.2. Procedimiento de cálculo de las aceleraciones Las ecuaciones (8)-(17) muestran las fórmulas para calcular las aceleraciones pico en un punto z, así como los factores pico y desviaciones estándar de la aceleración para cada una de las componentes. Las normas internacionales y estudios más actuales recomiendan el uso de periodos de retorno de un año para el análisis de los estudios de servicio en la determinación de las aceleraciones. Por tanto, 𝑈1 se refiere a la velocidad media a 10 m de altura, sobre un terreno llano y abierto para un periodo de retorno de 1 año. La metodología que se propone está basada en la norma japonesa [8]. No se especifica directamente que no deban ser calculadas las tres componentes de las aceleraciones, por lo que se realiza en este trabajo el análisis de las tres respuestas frente al viento. La aceleración pico longitudinal se calcula mediante la ecuación (8) y sus parámetros se presentan tabulados en la actualización de la norma NC-285: 𝑎𝑝𝐿(𝑧) = 𝑔𝑎𝐿𝜎𝑎𝐿 (8) Donde 𝑔𝑎𝐿 es el factor pico en sentido longitudinal y 𝜎𝑎𝐿; ecuación (9) es la desviación estándar de la aceleración en el sentido longitudinal a una altura (z); 𝑛𝐿 es la frecuencia fundamental en el sentido longitudinal (en Hz) y 𝑇 es el intervalo de promediación de la velocidad media del viento, 𝑇 = 600 𝑠. 𝜎𝑎𝐿 = 𝜌𝑈𝑚1 2 (𝑍𝐷) 𝑏ℎ 𝑚𝐿 𝐶𝑓𝐼(𝑍𝐷)𝑅𝐿𝐾𝐿𝜙𝐿(𝑧) (9) Donde 𝜌 (𝑘𝑔/𝑚3) es la densidad del aire asumida como 1,205; 𝑈𝑚1(𝑍𝐷) es velocidad media calculada a la altura de referencia para un periodo de retorno de 1 año (m/s); 𝑚𝐿 la masa generalizada para el primer modo longitudinal; 𝐶𝑓 es el coeficiente de forma; 𝑅𝐿 es el factor de respuesta resonante en sentido longitudinal para un periodo de retorno de 1 año; 𝐾𝐿 es un coeficiente adimensional y 𝜙𝐿(𝑧) representa la forma del primer modo longitudinal. La aceleración pico transversal se calcula mediante la ecuación (10): 𝑎𝑝𝑇(𝑧) = 𝑔𝑇𝜎𝑎𝑇 (10) Donde 𝑔𝑇 es el factor pico en sentido transversal, ecuación (11) y 𝜎𝑎𝑇 , ecuación (12) es la desviación estándar de la aceleración en el sentido transversal a una altura (z). 𝑔𝑇 = √2ln (𝑛𝑇𝑇) + 0,5772 √2ln (𝑛𝑇𝑇) ≥ 3 (11) 𝑛𝑇 es la frecuencia natural de vibración del primer modo de oscilación en el sentido transversal. 𝜎𝑎𝑇 = 0,5𝜌𝑈𝑚1 2 (ℎ)𝑏ℎ 𝑚𝑇 𝐶𝑇𝑅𝑇𝜙𝑇(ℎ)𝜙𝑇(𝑧) (12) Donde 𝑈𝑚1(ℎ) es la velocidad media calculada a la altura máxima de la edificación para un periodo de retorno de 1 año (m/s); 𝐶𝑇 es el coeficiente de fuerza aerodinámica en el sentido transversal; 𝑚𝑇 es la masa generalizada de la edificación en el sentido transversal (kg) y 𝜙𝑇(ℎ) y 𝜙𝑇(𝑧) son las formas del primer modo transversal evaluadas a la altura máxima de la edificación y a la altura (z) donde se requiera conocer la aceleración respectivamente. La masa generalizada en sentido transversal responde a la ecuación (13) donde 𝑚𝑖 es la masa estructural por unidad de longitud (kg/m) y 𝜙𝑖 el valor del desplazamiento modal en cada piso del primer modo de oscilación en la dirección transversal, normalizados con respecto a su valor máximo. 𝑚𝑖 = ∫ 𝑚(𝑠) 𝑙 0 𝜙𝑖 2(𝑠)𝑑𝑠 (13) La aceleración pico torsional se calcula mediante la ecuación (14): 𝑎𝑝𝑀(𝑧) = 𝑔𝑀𝜎𝑎𝑀 (14) Donde 𝑔𝑀 es el factor pico en sentido transversal, ecuación (15) y 𝜎𝑎𝑀, ecuación (16) es la desviación estándar de la aceleración en el sentido transversal a una altura (z). 𝑔𝑀 = √2ln (𝑛𝑀𝑇) + 0,5772 √2ln (𝑛𝑀𝑇) ≥ 3 (15) 𝑛𝑀 es la frecuencia natural de vibración del primer modo de oscilación en el sentido torsional. 𝜎𝑎𝑀 = 0,3𝜌𝑈𝑚1 2 (ℎ)𝑏 2ℎ 𝐼𝑀 𝐶𝑀𝑅𝑀𝜙𝑀(ℎ)𝜙𝑀(𝑧) (16) Donde 𝐶𝑀 es el coeficiente de fuerza aerodinámica en el sentido torsional; 𝐼𝑀 es el momento polar de inercia (de masa) generalizado (kg·m2) y 𝜙𝑀(ℎ) y 𝜙𝑀(𝑧) son las formas del primer modo torsional evaluadas a la altura máxima de la edificación y a la altura (z) donde se requiera conocer la aceleración respectivamente. El momento polar de inercia se tiene en cuenta mediante la ecuación (17), donde 𝐼(𝑠) es el momento de inercia (de masa) (flector o polar) de la estructura por unidad de longitud. 𝑙 es la altura de la estructura (o del elemento estructural). 𝐼𝑖 = ∫ 𝐼(𝑠)𝜙𝑖 2(𝑠)𝑑𝑠 𝑙 0 (17) 2.2.1. Valores límites permisibles de las aceleraciones Para los valores límites de las aceleraciones se propuso adoptar el procedimiento de la norma de viento italiana [22]. Según esta norma, para garantizar los criterios de servicio de las edificaciones, cada valor de aceleración pico en el sentido longitudinal y transversal en el centro de giro, 𝑎𝑝𝐿 y 𝑎𝑝𝑇, no deben exceder los valores límites dados por la ecuación (18). 𝑎𝑙𝑖𝑚 = { 𝑎0 (𝑛0) 0.56 𝑎0 0,5𝑎0𝑛0 para 𝑛0 < 1𝐻𝑧 para 1𝐻𝑧 ≤ 𝑛0 ≤ 2𝐻𝑧 (18) para 𝑛0 ≥ 2𝐻𝑧 Donde 𝑎0 es el valor de referencia límite de la aceleración: 𝑎0 = 6 𝑐𝑚/𝑠 2 para edificios de oficina, 𝑎0 = 4 𝑐𝑚/𝑠2 para edificios de apartamentos; 𝑛0 es la frecuencia dominante en Hz, según 𝑛0 = 𝑓𝐿 para la aceleración en el sentido longitudinal 𝑎𝐷𝑚𝑎𝑥 , 𝑛0 = 𝑓𝑇 para la aceleración en el sentido transversal 𝑎𝑇. 𝑓𝐿 y 𝑓𝑇 son las primeras frecuencias (fundamentales) en los sentidos longitudinal y transversal, respectivamente. 2.3. Descripción de la edificación objeto de estudio Los edificios analizados (1 y 2) son de hormigón armado y tienen una altura de 100 m y 152 m respectivamente. La estructura del primer caso de análisis está formada por columnas perimetrales y vigas de hormigón armado, las losas de entrepiso son de hormigón postesado y el núcleo central es de tímpanos continuos armados in situ. Detalles de la estructura se muestran en la Fig. 1. La estructura del segundo edificio consiste en losas de entrepisos de hormigón armado in situ sin vigas, apoyadas directamente sobre columnas que serán hormigonadas in situ. La estabilidad horizontal está asegurada por dos sistemas de tímpanos que componen los pozos de ascensores y escaleras ubicadas en los extremos laterales de cada piso. La transición de las cargas verticales se garantiza con columnas de hormigón armado que descienden hasta los cimientos. La relación de amortiguamiento total utilizada para el análisis es de 0,0125; este valor se encuentra en el rango propuesto por las normativas [9, 10]. Los valores de frecuencias naturales de traslación para el primer modo de oscilación en cada uno de los ejes y las frecuencias torsionales de las edificaciones se muestran en la tabla 3. Los valores de frecuencias fueron extraídos de un modelo en ETABS luego de realizado el análisis modal. En los modelos los entrepisos se consideraron rígidos a través de la definición de diafragmas. a) Edificio objeto de estudio 1. b) Edificio objeto de estudio 2. Figura 1: Ejes de referencia, dimensiones y direcciones de viento analizadas de los edificios. Tabla 3: Valores de periodos y frecuencias de las edificaciones. Edificio Objetivo Tipo de Modo y dirección Periodo (seg.) Frecuencia (Hz.) 1 1er Flector (y) 2,85 0,35 1er Flector (x) 2,71 0,37 Torsor 1,87 0,53 2 1er Flector (y) 3,91 0,26 1er Flector (x) 2,68 0,37 Torsor 1,42 0,71 Las cargas consideradas para el análisis de los casos de estudio fueron: cargas permanentes, cargas de uso y las cargas de viento de acuerdo con las normativas [23, 24]. En la tabla 4 se presentan los valores de los principales coeficientes utilizados para el cálculo de las componentes estática y dinámica según la NC 285:2003 y en la tabla 5 los valores de los coeficientes considerados para el cálculo de las fuerzas de viento longitudinales según la nueva propuesta de norma de viento. Las fuerzas de viento se calcularon para dos direcciones de viento teniendo en cuenta las características de las edificaciones y los tipos de terreno en los que se encuentran. En la nueva propuesta de la NC-285 se expone el método para calcular las cargas estáticas equivalentes en los sentidos transversal y torsional debidas a la turbulencia lateral generada por el viento en dicho sentido. Según el epígrafe 2.1 para el edificio 1 no es necesario calcular las componentes transversales y torsionales, teniendo en cuenta sus características geométricas; mientras que según la ecuación No. 10, para el edificio 2 es necesario el análisis de las componentes trasversal y torsional. La tabla 6 muestra las condiciones establecidas por la norma para el cálculo de dichas componentes. La tabla 7 muestra los valores de los parámetros para el cálculo de los coeficientes dinámicos transversales y torsionales en el edificio 2 que permiten calcular las fuerzas estáticas equivalentes de estas componentes. Tabla 4: Resumen de parámetros para el cálculo de las fuerzas de viento según la NC 285:2003. Parámetros Edificio 1 Edificio 2 Dirección 0° Dirección 90° Dirección 0° Dirección 90° Componente estática q10 (𝑘𝑁 𝑚2⁄ ) 1,3 1,3 Tipo terreno A B CT 1 1 Cr 1,05 1,07 Ch (h máx) 2,09 2,15 Componente dinámica ɣ 1,4 1,4 1,4 1,4 CCE 0,416 0,422 0,385 0,688 E 1 0,109 0,104 0,094506 0,138 CDin1 1,8 1,77 1,8 1,9 Tabla 5: Resumen de parámetros para el cálculo de las fuerzas de viento según la nueva propuesta de NC 285. Casos de Estudio Edificio 1 Edificio 2 Parámetros Componente longitudinal Componente longitudinal Dirección 0˚ Dirección 90˚ Dirección 0˚ Dirección 90˚ q10 (𝑘𝑁 𝑚2⁄ ) 0,66 0,66 Categoría de terreno III (abierto) I (mar) IV (urbano) Cr 1,899 1,771 2,04 Ch (h máx) 1,98 2,57 1,87 Ct 1 1 𝑍𝐷 (m) 60 91,2 𝑈𝑚(𝑍𝐷) (m/s) 43,06 50,75 40,76 𝐼(𝑍𝐷) 0,142 0,118 0,15 𝐿𝑣(𝑍𝐷) 160,37 189,96 185,79 𝑛𝐿 (Hz) 0,351 0,369 0,373 0,256 𝜉𝐿 0,01 0,0125 𝐵𝐿 0,76 0,77 0,73 0,797 𝐸𝐿 0,095 0,092 0,080 0,103 𝑘 1 1 1,50 𝐾 1 1 1,135 𝑆 0,20 0,24 0,092 0,24 𝑟 0,056 0,067 0,033 0,098 𝑅𝐿 1,01 1,07 0,54 1,04 𝜐𝐿 (Hz) 0,28 0,30 0,22 0,20 𝑔𝐿𝐵 3,5 3,5 𝑔𝐿𝑅 3,38 3,40 3,31 3,29 𝐺𝐿 2,23 2,07 1,93 2,32 𝑪𝑫𝑳 1,119 1,134 0,947 1,134 Tabla 6: Condiciones para el cálculo de las componentes transversales y torsionales de viento según la propuesta nueva de la NC-285. Condición Resultados para el edificio 2 ℎ √𝑏𝑑 ≥ 3 4,51 >3 ℎ √𝑏𝑑 ≤ 6 4,51 <6 0,2 ≤ 𝑑 𝑏 ≤ 5 0,2<0,39 < 5 𝑈𝑚(ℎ) 𝑛𝑇𝑀√𝑏𝑑 ≤ 10 5,23 < 10 (con nT)) 1,9< 10 (con nM) Tabla 7: Resumen de parámetros para el cálculo de los coeficientes dinámicos transversales y torsionales en el edificio 2. Parámetros Componente transversal Parámetros Componente torsional 0˚ 90˚ 0˚ 90˚ 𝑈𝑚(ℎ) (m/s) 45,15 𝑛𝑀 0,707 𝐶ℎ(ℎ) 1,87 U𝑀 ∗ 1,897 𝐼ℎ 0,131 𝐽𝑀 0,313 0,016 𝑞(ℎ) (kN/m 2) 2,37 𝛽𝑀 1,049 2,570 𝑛𝑇 (Hz) 0,256 0,373 𝐸𝑀 0,007 0,009 𝜉𝑇 0,125 𝑅𝑀 0,84 0,77 𝑚 1 𝑔𝑀 3,64 𝑘1 0,85 𝐺𝑀 4,76 4,60 𝛽1 0,37 0,69 𝑪𝑫𝑴 2,40 2,48 𝑛𝑠1 0,095 0,084 𝐸𝑇 0,084 0,054 𝑅𝑇 2,61 2,09 𝑔𝑇 3,35 3,47 𝐺𝑇 9,37 8,03 𝑪𝑫𝑻 4,88 4,19 En el análisis comparativo para la obtención de los desplazamientos se emplea la combinación CP+CV+CU+CUc donde CP es la carga permanente, CU es la carga de uso, CUC es la carga de uso de cubierta y Cv la carga de viento. La carga de viento incluye la componente longitudinal de la fuerza del viento. 3. RESULTADOS Y DISCUSIÓN En la tabla 8 se muestran las fuerzas resultantes en la base para la componente longitudinal del viento. Los resultados comparativos se muestran para las dos direcciones de viento analizadas. Estos valores, para la dirección 0° (Y) en el primer caso de estudio, son muy cercanos entre las normas analizadas con una diferencia del 3 %; el mayor valor de cortante en la base en ese caso se observa para la norma vigente. Para el segundo caso de estudio los valores en la dirección 0° (Y) presentan una diferencia de 17%; en este caso también se aprecia la mayor fuerza resultante en la base para la norma vigente. Las mayores diferencias se encuentran en la dirección de 90° (X) para ambos edificios; son de un 24 % para el edificio 1, donde el mayor resultado se presenta para la nueva propuesta y de un 21 % para el edificio 2 donde el mayor resultado se presenta para la norma vigente. En las diferencias de los resultados tiene gran influencia la consideración de los tipos de terreno. Mientras en la NC 285:2003 se considera terreno tipo A para edificaciones cercanas al mar, los estudios actualizados definen cuatro categorías de terreno, dentro de las que se encuentra la categoría I que tiene en cuenta de forma directa la dirección proveniente del mar, en este caso 90˚. En la segunda edificación, según la NC 285:2003, la categoría de terreno es B para zonas urbanas, mientras que en la nueva propuesta esta se corresponde con la categoría de terreno IV donde los parámetros no difieren considerablemente entre una propuesta y otra. Tabla 8: Valores máximos de fuerzas resultantes en la base en la componente longitudinal (kN). Casos de Estudio Edificio 1 Edificio 2 0° (Fy) 90° (Fx) 0° (Fx) 90° (Fy) NC 285:2003 12332,82 11743,73 22918,62 10706,45 NC propuesta 12001,32 15385,71 18164,76 8923,92 La tabla 9 muestra para el edificio 2 las fuerzas resultantes en la base para las componentes transversal y torsional del viento determinadas por la propuesta de actualización de la norma vigente de viento. Tabla 9: Valores máximos de fuerzas resultantes en la base en las componentes transversal y torsional el Edificio 2. Transversal (kN) Torsional (kN·m) 0° (Fy) 90° (Fx) 0° (Mf) 90° (Mf) 8821,96 9212,69 48094,41 48575,86 En las Fig. 2 y Fig. 3 se observan para la combinación CP+CV+CU+CUc los valores de desplazamientos máximos para la componente longitudinal en los edificios 1 y 2 respectivamente. En el edificio 1 los desplazamientos son superiores para la nueva propuesta en la dirección que corresponde al terreno tipo mar (dirección 90°) en un 17%; para la dirección de viento 0° los mayores valores los presenta la norma cubana de viento vigente con un incremento del 10%. Para el edificio 2 en las direcciones de 0° y 90° las diferencias son de 22% y 27% respectivamente. Se destaca que los valores de desplazamiento se encuentran dentro del rango permisible pues cumplen con el criterio de desplazamiento H/500 según [25]. Figura 2: Desplazamientos máximos según las normas en el edificio 1 analizado (elaboración propia). 0.00 200.00 0.000 0.050 0.100 0.150 A lt u ra d e l e d if ic io ( m ) Desplazamiento (m) Desplazamientos áximos, dirección (0°) NC-285:2003 0.00 200.00 0.000 0.020 0.040 0.060 0.080 A lt u ra d e l e d if ic io ( m ) Desplazamiento (m) Desplazamientos máximos, dirección (90°) NC-285:2003 Figura 3: Desplazamientos máximos según las normas en el edificio 2 analizado (elaboración propia). Los valores de las aceleraciones pico para cada una de las componentes en las edificaciones se muestran en la tabla 16 para los edificios 1 y 2 y la dirección de 90º para el edificio 1 y 0º para el edificio 2, pues es donde ocurren los mayores valores. Las aceleraciones permisibles fueron obtenidas a partir de la ecuación (23), donde 𝑎0 es 4 𝑐𝑚/𝑠 2, se evidencia que los valores de aceleraciones calculados no superan los límites aceptados. Tabla 10: Valores de aceleraciones pico y permisibles de las edificaciones. 4. CONCLUSIONES En la nueva propuesta las acciones estáticas equivalentes longitudinales que simulan el efecto dinámico que induce el viento sobre la estructura se tienen en cuenta mediante la aplicación del coeficiente dinámico 𝐶𝐷𝐿. Este coeficiente es un parámetro adimensional que modifica las acciones aerodinámicas picos teniendo en cuenta la correlación parcial de la acción del viento y la amplificación de la carga resonante. A diferencia de la NC 285:2003 este coeficiente dinámico integra los factores resonante y no resonante que tienen en cuenta las características espectrales de la velocidad de viento. Las fuerzas resultantes en la base y los desplazamientos para el edificio 1 muestran las mayores diferencias entre las normas en la dirección de 90° correspondiente a la dirección del mar donde los parámetros que determinan el perfil vertical de la velocidad del viento se desvían significativamente con respecto a los del terreno tipo A de la NC 285: 2003. Las fuerzas resultantes en la base y los desplazamientos para el edificio 2 fueron mayores cuando se aplica la norma cubana vigente NC-285:2003. Futuros estudios deben considerar otras tipologías de edificios altos para comparar los resultados entre ambas normas, además debe incluirse las comparaciones en cuanto al diseño estructural de los elementos resistentes a cargas laterales. Los resultados muestran que los mayores valores de aceleraciones corresponden a la aceleración transversal y por tanto es la que rige el diseño de servicio para la edificación estudiada. Todas las aceleraciones pico calculadas resultaron menores que las máximas permisibles. 5. REFERENCIAS BIBLIOGRÁFICAS 0 20 40 60 80 100 120 140 160 0 0.02 0.04 0.06 0.08 0.1 A lt u ra d e l E d if ic io ( m ) Desplazamiento (m) Desplazamientos máximos, dirección (0°) NC-285:2003 0 200 0 0.05 0.1 A lt u ra d e l E d if ic io ( m ) Desplazamiento (m) Desplazamientos máximos, dirección (90°) NC-285:2003 Componentes en la dirección X (90˚) Edificio 1 Componentes en la dirección Y (0˚) Edificio 2 Longitudinal Transversal Torsional Longitudinal Transversal Torsional h cálculo= 100 m; 𝑍𝐷= 60 m h cálculo= 152 m; 𝑍𝐷= 91,2 m 𝑚 = 13603720 kg; 𝐼𝑀 = 3679500000 kg·m 2 𝑚 = 19013770 kg; 𝐼𝑀 = 5211905035 kg·m 2 𝑈𝑚1(𝑍𝐷)= 16,92 m/s 𝑈𝑚1(ℎ) = 17,62 m/s 𝑈𝑚1(𝑍𝐷)=14,82 m/s 𝑈𝑚1(ℎ) =16,42 m/s 𝒂𝒑𝑳= 0,88 cm/s2 𝒂𝒑𝑻 = 1,83 cm/s2 𝒂𝒑𝑴 = 0,04 rad/s2 𝒂𝒑𝑳=0,45 cm/s 2 𝒂𝒑𝑻 =1,70 cm/s2 𝒂𝒑𝑴 =0,012 rad/s2 Aceleraciones permisibles (cm/s2) 6,99 7,19 5,68 8,58 6,95 4,86 1. NC-285, Carga de viento. Método de cálculo. 2003 Oficina Nacional de Normalización: La Habana, Cuba. 2. NC53-41:1983, Cargas de Viento. Método de cálculo. 1983. 3. NC53-41:1990, Elaboración de proyectos de construcción. Cargas de viento. Método de cálculo. 1990. 4. Llanes Burón, C., Algoritmo para determinar las componentes dinámicas de las cargas de viento en edificios. Ingeniería Estructural 1988. IX(2): p. 113-120. 5. Llanes Burón, C., Algunos criterios sobre el diseño de edificios altos. Ingeniería Civil (ISPJAE), 1984(2): p. 1-10. 6. Llanes Burón, C., Algunos métodos de análisis utilizados en edificios. Elementos paneles, tímpanos y pórticos interconectados. Ingeniería Civil (ISPJAE), 1984. 6: p. 24-30. 7. SNiP2.01.07-85, Loads and effects. 2001, State Building Committee of USSR (Gosstroi of USSR): Moscow. 8. AIJ, RLB Recommendations for loads on buildings. Structural Standards Committee. Architectural Institute of Japan. 2004: Tokyo, Japan. 9. EN1991-1-4, Eurocode 1: Actions on structures — General actions — Part 1-4: Wind actions. 2004. 10. ISO-4354, Wind action on structures. International Organization for Standardization,. 2009: Switzerland. 11. NBCC, National Research Council of Canada, National Building Code of Canada,Volume 2. 2010. 12. AS/NZS1170.2, Australian/New Zeland Standart: Structural Design actions, Part 2: Wind Actions. 2011. 13. IS:875-(Part-3), Wind Loads on Buildings and Structures - Proposed draft & Commentary. Document No: IITK GSDMA-Wind 02-V 50. IWC, Indian Wind Code. 2012: India. 14. López Litvinovich, A., P. Martín Rodríguez, and A.E. Castañeda Hevia, Respuesta Torsional de edificaciones bajo cargas de viento. Revista Arquitectura e Ingeniería, 2018. 12(1): p. 1. 15. García Miranda, J.A., et al., Análisis de nuevos proyectos de edificios altos bajo carga de viento en La Habana. 2019: II Convención Científica Internacional “II CCI UCLV 2019”. 16. Ballate Delgado, A., I. Fernández Lorenzo, and P. Martín Rodríguez, Cálculo de las aceleraciones inducidas por el viento en edificios altos en Cuba. Revista Ciencia y Construcción, 2021. 2(2): p. 23-32. 17. Ballate Delgado, A., I. Fernández Lorenzo, and P. Martín Rodríguez, Aceleraciones inducidas por el viento en edificios altos. 2021, VII Taller Internacional de Ingenierías: X Convención Científica Internacional de la Universidad de Matanzas, CIUM’2021. 18. Fernández Lorenzo, I. and V.B. Elena Parnás, Análisis de métodos de vientos extremos para calcular las velocidades básicas. Revista Cubana de Ingeniería, 2016. 7(2): p. 15-25. 19. García, K.L. and V.E. Parnás, Análisis estadístico de velocidades de viento para el cálculo de estructuras. 2017. 20. Kwon, D.K. and A. Kareem, Comparative study of major international wind codes and standards for wind effects on tall buildings. Engineering Structures, 2013. 51(0): p. 23-35. 21. Davenport, A.G. Note on the distribution of the largest value of a random function with application to wind loading. in Proceedings Institution Civil Engineers. 1964. London. 22. CNR-DT207, Guide for the assessment of wind actions and effects on structures. National Research Council of Italy, Roma 2008. 23. NC-283, Densidad de materiales naturales, artificiales y de elementos de construccion como carga de diseño. 2003, Oficina Nacional de Normalización: La Habana, Cuba. 24. NC-284, Edificacones. Cargas de uso. 2003, Oficina Nacional de Normalización: La Habana, Cuba. 25. Longarini, N., et al., Structural improvements for tall buildings under wind loads: comparative study. Shock and Vibration, 2017. 2017. CIENCIA DE DATOS PARA EL ANÁLISIS Y ANTICIPACIÓN DE NECESIDADES EN ASENTAMIENTOS URBANOS Fernando Cos-Gayón López1, Ángel Martín Furones2, Mirian Janeth Guillen Vivas 1Phd. Arquitecto, Profesor Titular Universitat Politécnica de València, España, fcosgay@csa.upv 2Phd. Ingeniero en Cartografía y Geomática, Profesor Titular Universitat Politécnica de València, España, amartin@cfg.upv.es 3Profesora investigadora de la Universidad San Gregorio de Portoviejo, Ecuador. mirianguillen5@gmail.com RESUMEN La evolución del mercado inmobiliario impacta severamente en la economía de las regiones, suponiendo una importante contribución al PIB y al empleo. Asimismo, se trata de un sector con gran trasversalidad, que afecta a otros sectores, como el terciario y el industrial. Por ello, es de vital importancia conseguir un método de monitoreo que permita anticipar comportamientos anómalos, sobre todo en el caso de desequilibrios acusados de la oferta y la demanda. El análisis propuesto de monitorización utilizando ciencia de datos permite mejorar la capacidad de diagnóstico, así como la posibilidad de establecer una predicción basada en algoritmos basados en la experiencia pasada, por la combinación de indicadores seleccionados en función de la correlación con el objetivo final buscado. En la Cátedra Observatorio de la Vivienda de la Universitat Politècnica de València se está trabajando desde hace años en la vigilancia de la evolución de la relación entre oferta y demanda inmobiliaria de la ciudad de Valencia y su área metropolitana, mediante el seguimiento de indicadores transversales con alta correlación, permitiendo anticipar escenarios de tensión de precio de la vivienda. En este trabajo se presenta la metodología empleada, con aplicación al caso, estableciendo un modelo robusto exportable a otras ciudades con datos abiertos disponibles, analizando la evolución de esta predicción durante los convulsos tiempos que estamos viviendo, con graves alteraciones en las series históricas de los indicadores utilizados. La implementación de esta metodología permite, en función de los datos disponibles, detectar necesidades potenciales de los asentamientos urbanos antes de que se manifiesten. Asimismo, se muestran los resultados e informes históricos que contextualizan la información aportada. PALABRAS CLAVES: Ciencia de datos, Inmobiliario, Vivienda, Urbanismo, Predicción. DATA SCIENCE FOR THE ANALYSIS AND ANTICIPATION OF NEEDS IN URBAN SETTLEMENTS ABSTRACT The evolution of the real estate market has a severe impact on the economy of the regions, making a significant contribution to GDP and employment. Likewise, it is a sector with great transversality, which affects other sectors, such as the tertiary and industrial sectors. For this reason, it is of vital importance to obtain a monitoring method that allows us to anticipate anomalous behavior, especially in the case of marked imbalances between supply and demand. The proposed monitoring analysis using data science allows to improve the diagnostic capacity, as well as the possibility of establishing a prediction based on algorithms based on past experience, by the combination of selected indicators based on the correlation with the final objective sought. The Housing Observatory Chair of the Polytechnic University of Valencia has been working for years on the evolution of the relationship between real estate supply and demand in the city of Valencia and its metropolitan area, by monitoring 47 highly correlated indicators, allowing to anticipate scenarios of housing price stress. This paper presents the methodology used, establishing a robust model that can be exported to other cities with available open data, analyzing the evolution of this prediction during the turbulent times we are experiencing, with serious changes in the historical series of the indicators used. The implementation of this methodology allows, based on the available data, to detect potential needs before they manifest themselves. Likewise, the results and historical reports that contextualize the information provided are shown. KEY WORDS: Data Science, Big Data, Real Estate, Housing, Urbanism, Prediction. INTRODUCCIÓN Dentro de los objetivos para el desarrollo sostenible, la sostenibilidad de las ciudades toma una relevancia determinante, y conseguir un urbanismo que se ajuste a las necesidades reales de la población, desde la eficiencia, sostenibilidad y ahorro energético es fundamental. Se trata de conseguir reducir las zonas vulnerables por razones socioeconómicas y que pueden condicionar el desarrollo del urbanismo de la ciudad. Históricamente, el análisis de datos para configurar un planteamiento de necesidades urbanísticas siendo respetuosos con el medio ambiente, se ha ido incorporando a las diferentes legislaciones estatales o regionales [1]. La cuestión es que la evolución de la cantidad de datos disponibles, así como la ciencia de datos para analizarlo, suponen la oportunidad de un cambio de paradigma [2] al acceder a datos en línea, dependiendo de la calidad y actualización que de estos realice la entidad responsable, sea estatal, regional, municipal, de distrito o de barrio. La posibilidad de intuir cómo se comporta demográfica y socialmente la población en un sector urbano abre unas posibilidades extraordinarias para anticipar necesidades y actuaciones. Así, por ejemplo, el análisis de evolución de datos de asistencia pediátrica podrá determinar las futuras necesidades en enseñanza primaria que deberá habilitarse en un barrio concreto. Siguiendo este criterio, la evolución de indicadores relativos al tráfico, ubicación de terminales de telefonía móvil, uso de trasporte públicos, bicicletas, patines o motocicletas de alquiler municipal, etc., permiten observar movimiento y fluctuaciones en el comportamiento ciudadano [3]. Llevado al estudio de la evolución de la demanda interesada en un producto inmobiliario, es objeto de análisis encontrar aquellos indicadores que tengan relación con un parámetro (indicador objetivo) inmobiliario, como es el precio de la vivienda de obra nueva. Ello dará una idea de qué zonas están mostrando más actividad, debido al tráfico en su entorno o la afluencia en determinadas paradas de transporte público, por ejemplo. A estos efectos, se puede apreciar lo que se argumenta con esta imagen de la ciudad de Valencia, con la evolución del tráfico, que recoge el inicio del confinamiento de la pandemia por Covid-19, hasta el 4T2021 [Fig. 1] Fig. 1.- Aumento de tráfico en la Ciudad de Valencia entre el cuarto trimestre de 2019 y el cuarto trimestre del 2021. (Ayuntamiento de Valencia y Cátedra Observatorio Vivienda UPV, 2022) Como se aprecia, las zonas con valores anaranjados indican una mayor evolución en intensidad del tráfico, que corresponden a accesos a la ciudad, mientras que en el interior el incremento ha sido considerablemente menor. Ello manifiesta una variación en el comportamiento, que se explica por la irrupción del teletrabajo y la menor ocupación del sistema viario interior de la ciudad. Tras un análisis detallado, se observa que dichos lugares suponen enlaces entre las vías rápidas más importantes de la ciudad. Es decir, que el tráfico comienza a quedarse en las afueras de la ciudad, lo que, correlacionado con el uso del transporte público y de movilidad personal explican esta evolución. Lo que se plantea es una generalización del máximo número de indicadores que permitan tener una idea lo más completa posible del comportamiento de la demanda, y su interés por determinadas zonas y tipologías de inmuebles. El análisis propuesto de monitorización utilizando ciencia de datos permite mejorar la capacidad de diagnóstico, así como la posibilidad de establecer una predicción basada en algoritmos basados en la experiencia pasada. La Cátedra Observatorio de la Vivienda de la Universitat Politècnica de València está analizando desde hace años la evolución de la relación entre oferta y demanda inmobiliaria de la ciudad de Valencia y su área metropolitana, mediante el seguimiento de más de 40 indicadores, seleccionando los de más alta correlación con el precio de la vivienda, permitiendo anticipar escenarios de tensión. En este trabajo se presenta la metodología empleada, estableciendo un modelo robusto exportable a otras ciudades con datos abiertos disponibles, analizando la evolución de esta predicción desde 2005 hasta la fecha, con graves alteraciones en las series históricas de los indicadores utilizados que ayudan a “aprender” a los modelos. Asimismo, se muestran los resultados e informes históricos que contextualizan la información aportada, todo ello disponible en informes trimestrales en www.observa.upv.es, así como el visor interactivo on line “VIVO”, con los datos de la oferta segmentada y homogeneizada, con datos de ratio de esfuerzo relacionados [4]. ANÁLISIS DE LA OFERTA Para poder correlacionar con los indicadores de referencia, será preciso ajustar adecuadamente el indicador objetivo, que será el precio de la vivienda. Para ello, se hace un exhaustivo estudio de mercado de la zona de estudio, que en el caso que nos ocupa supone una población superior a los 2,500.000 habitantes, enfocado a la obtención de datos sobre el precio/m2ccc de viviendas de obra nueva para los diferentes barrios/zonas pertenecientes a la ciudad de Valencia, el área metropolitana (Horta Nord, Horta Oest y Horta Sud) y el municipio de Sagunto. Es importante destacar que a partir de los datos obtenidos, se segmentan y homogeneizan los diferentes testigos (nos referimos a las viviendas utilizadas para calcular las medias luego de segmentar y homogeneizar por tipologías) para evitar distorsiones al comparar promociones y viviendas con características muy diferentes. El proceso de segmentación y homogeneización se realiza según tipología, de las viviendas existentes en el mercado a la venta; sin tener en cuenta VPO, áticos, pisos en Planta Baja o ponderando la superficie de terrazas mayores a 15 m2 [5]. Asimismo, se reitera la idea de que el valor de mercado de los testigos varía según el municipio y barrio en el que se encuentra la promoción inmobiliaria, por lo cual es importante tener en cuenta los distintos factores que repercuten a escala de distrito o municipio. La evolución de los precios de ventas muestran, en sí mismo, una evolución del interés de la demanda por una determinada zona. Lo que plantea este trabajo es el modo de relacionar esta evolución con otros indicadores transversales que, en su conjunto, permitan anticipar escenarios futuros que pudieran llegar a provocar migración intraurbana, desplazamiento ciudadano por razón de renta o gentrificación, lo que generaría áreas vulnerables. La información resultante se presenta en gráficas que recogen la evolución histórica y su localización en la trama urbana (Figuras 6 y 7). Fig. 2.- Precio unitario medio (€/m2cc-metro cuadrado construido con elementos comunes-) de obra nueva por trimestre en la ciudad de Valencia, las comarcas que pertenecen al área metropolitana y el municipio de Sagunto del Camp de Morvedre, considerando los distritos para la ciudad y Sagunto, y los municipios para las Comarcas. (Cátedra Observatorio Vivienda UPV, 2022). Fig. 3.- Mapas de la ciudad de Valencia con rangos de precios/m2ccc por Distritos 1er trimestre 2022 y 2º trimestre 2022. (Cátedra Observatorio Vivienda UPV, 2022) ANALISIS DE LA DEMANDA Con el indicador objetivo establecido, se analizará su evolución histórica comparado con otros indicadores. Aquí surge la primera complicación, pues no existe ese dato “real” publicado. Lo que aparece en las publicaciones de Ministerios, Registros de Propiedad o empresas de Tasación no son rigurosos, por cuanto no se han segmentado y ni homogeneizado, dando resultados individuales irreales. Por ello, en los siguientes análisis se discrimina el momento en el que desde el equipo de investigación de la Cátedra Observatorio de la Vivienda UPV comenzó su seria histórica. Se establece una periodicidad trimestral de modo que, una vez fijado este dato principal de referencia, se procede a seleccionar los indicadores transversales, relacionados o no con el sector inmobiliario, y con escala espacial (nivel nacional, regional, provincial y de ciudad). El objetivo principal en esa selección es buscar indicadores con una correlación alta con el precio de la vivienda nueva (que será indicador objetivo). Esto se hace considerando que los indicadores pueden presentar una mayor correlación desplazándolos temporalmente [6], y se ha evaluado si las variaciones de un indicador desplazado uno, dos, tres... trimestres hacia adelante tienen una mayor correlación y, por lo tanto, una mayor capacidad de predicción respecto al precio de la vivienda. Esto es muy importante desde el punto de vista predictivo ya que se necesitan indicadores con una correlación elevada; si se usan indicadores con una correlación baja la predicción no es posible con garantías de precisión y, en escenarios de correlación muy baja, los modelos simplemente tienden a repetir el último valor de la serie del indicador objetivo ya que son incapaces de predecir nada mejor. De esta manera, de los 40 indicadores seleccionados, se han utilizado 17 para la predicción, con una correlación media (considerando el desplazamiento explicado) de 0.84, mientras que la correlación de estos mismos indicadores sin desplazamiento temporal es del 0.68. Trabajar siguiendo esta metodología no solo aumenta la correlación y, por tanto, la capacidad predictiva de los modelos, sino que estará evitando la extrapolación de muchos de los indicadores, aspecto muy delicado en cualquier proyecto predictivo. Los 17 indicadores usados son, en concreto: 1. Afiliaciones a la seguridad social 2. Número de contratos en construcción 3. Deuda pública 4. Euribor 5. IBEX35 6. Necesidad de financiación 7. Número de hipotecas 8. Operaciones AENA 9. Número de parados 10. Población activa 11. Población 12. Precio de las hipotecas 13. Prima de riesgo 14. Salarios 15. Transacciones inmobiliarias 16. Visados de obra 17. Visados de obra nueva. Para algunos de los indicadores que es necesario extrapolar (ya que su mayor correlación con el indicador objetivo está por debajo de los 4 trimestres), se encuentra que el valor extrapolado y el valor actualizado (real) puede llegar a ser muy diferente; además, los modelos que construimos son extremadamente sensibles a las variaciones en los indicadores. Para solucionar esto se ha decidido usar los indicadores siempre con un desplazamiento mínimo de 4 trimestres para que la predicción que realizamos no se base en ninguna extrapolación de los indicadores sino en los valores reales observados. Esto hace que algunos indicadores se usen con un desplazamiento que no corresponde a su mayor correlación con el precio de la vivienda; pero a pesar de ello, la correlación media pasa de 0.84 como decíamos anteriormente a 0.8, es decir, no se presenta una pérdida de correlación significativa y se gana una mejor definición de los modelos de predicción ya que siempre se van a basar en datos observados, no en extrapolaciones. Únicamente en 2 indicadores se ha seguido manteniendo la extrapolación ya que su valor extrapolado y el actualizado son muy cercanos, en concreto se trata del indicador de población y de necesidad de financiación, indicadores bastante lineales y suaves, que presentan una buena extrapolación y una gran disminución de correlación si los desplazamos. Para la extrapolación se ha trabajado con la técnica Support Vector Regression (SVR) con función núcleo Radial Basis Function (RBF), donde los hiperparámetros se han ajustado a cada indicador de manera que la curva SVR esté por debajo del 10% en Error Medio Cuadrático respecto a los valores reales de los datos del conjunto entrenamiento [7]. Es posible que el resto de indicadores que no se estén usando en la predicción presenten una correlación no lineal con el objetivo y, por tanto, deban ser usados en la elaboración de los modelos de predicción. Para comprobar este punto se ha realizó el test de Spearman [8] sobre el resto de indicadores y no se ha encontrado ninguno con una correlación superior a 0.6. Determinación del modelo de predicción Como se explica en el informe del tercer trimestre del 2020 de la Cátedra Observatorio de la Vivienda UPV [9], el modelo que mejor se ajusta al problema de predicción del precio de la vivienda nueva con los indicadores que se están estimando es el de Support Vector Regression (SVR), por lo que se ha usado también para la predicción propuesta. La idea es realizar una predicción doble: Por un lado, se tienen los datos del actual Ministerio de Transportes, Movilidad y Agenda Urbana sobre el valor tasado por metro cuadrado de la vivienda libre con antigüedad menor de 5 años, valor que ha servido para construir el histórico y los modelos de predicción [10] y, desde el tercer trimestre del 2019, se dispone del valor de la vivienda de nueva construcción en la ciudad de Valencia a partir del trabajo efectuado en el Observatorio de la Vivienda UPV; este valor se ha calculado, como se ha mencionado, mediante un proceso de segmentación y homogeneización según la tipología de la vivienda sin tener en cuenta VPO, áticos, pisos en planta baja o con terrazas mayores de 15 m2. Se aprecia que estos dos valores, Ministerio y Observatorio de la Vivienda UPV, pueden ser diferentes, incluso en su variación inter-trimestral, ya que el valor del ministerio es una media a cinco años, mientras que el valor obtenido desde el observatorio de la vivienda representa el valor “actual” de la vivienda de nueva construcción. Así, se han realizado dos predicciones, la que proporcionaría el modelo entrenado únicamente con los datos del Ministerio y la que proporcionaría el modelo entrenado con los datos del Ministerio sustituyendo los últimos valores con los obtenidos desde el Observatorio de la Vivienda calculando el modelo ponderando, además, estos últimos valores con mayor peso. El resultado de esta doble predicción se puede ver en la Figura 2. Para interpretar correctamente esta predicción hay que tener en cuenta que el error obtenido en la predicción del precio del ministerio es de 5.5% y el error obtenido en la predicción del precio obtenido en el observatorio del 2.1%. Sirve este ejemplo para analizar si es coherente este análisis o, por el contrario, algún indicador está comportándose de manera anómala. Dada la situación actual en la que se encuentra el mercado inmobiliario español, no están saliendo al mercado nuevas promociones al ritmo marcado antes de la pandemia por COVID-19 (debido en gran medida por el aumento de costes de construcción) por lo que las que ya había se van terminando y lo que va quedando puede tender a una subida de precios, esto se puede ver claramente en la Figura 3. Fig. 5.- Precio por metro cuadrado obtenido del Ministerio de Transportes, Movilidad y Agenda Urbana y del Observatorio de la Vivienda, así como el número de viviendas segmentadas sobre las que se ha calculado el valor del Observatorio de la Vivienda (Cátedra Observatorio Vivienda UPV, 2022). Para interpretar correctamente esta predicción hay que tener en cuenta que el error obtenido en la predicción del precio del Ministerio es de ±3.9% y el error obtenido en la predicción del precio obtenido en el Observatorio de la Vivienda UPV del ± 2.7%. Es decir, que el modelo que se está utilizando por el método Fig. 4.- Predicción a partir de los datos del Ministerio y de los datos del Ministerio completados con los datos del Observatorio de la Vivienda (Cátedra Observatorio Vivienda UPV, 2022). de predicción por indicadores de alta correlación de la UPV es un 30% más exacto que el aplicado por el Ministerio. Desde el Observatorio de la Vivienda se ha constatado, no obstante, que este indicador (número de viviendas segmentadas) es, actualmente, el que más está determinando el precio de la vivienda. Este indicador no se tiene en cuenta en los modelos de predicción construidos ya que no disponemos de un histórico del mismo, por lo que podemos hacer una segunda predicción usando únicamente el precio de la vivienda como indicador para la predicción. Para esta nueva predicción se usa la técnica Support Vector Regression (SVR) con función núcleo Radial Basis Function (RBF), donde los hiperparámetros se han ajustado de manera que la curva SVR está por debajo del 7% en Error Medio Cuadrático respecto a los valores reales de los datos del conjunto entrenamiento, Figura 4. En este caso, la predicción para los siguientes cuatro trimestres sería la que se puede ver en la Figura 5. Fig. 6.- Precio por metro cuadrado observado desde el primer trimestre del 2005 hasta el segundo del 2021. En rojo la predicción del precio por metro cuadrado para los siguientes 4 trimestres (Cátedra Observatorio Vivienda UPV, 2022). Fig. 7.- Predicción a partir de los datos del Ministerio y de los datos del Ministerio completados con los datos del Observatorio de la Vivienda (Cátedra Observatorio Vivienda UPV, 2022). Si la situación en los siguientes trimestres se mantiene como hasta ahora, es decir, la oferta de vivienda nueva va disminuyendo progresivamente, la realidad se acercará más a la predicción de la Figura 4, en cambio, si nuevas viviendas de construcción se van incorporando al mercado gracias a nuevas promociones, la realidad se ajustará más a la predicción que se presenta en la Figura 2. El caso analizado anticipa un escenario de aumentos de precios en la vivienda, con una oferta que supera con mucho a la demanda, lo que unido a la escasez de producto, lleva a esa tensión en los precios. En el detalle de barrios y ciudades se puede analizar cada emplazamiento para detectar en qué fase inmobiliaria está. Asimismo, se puede percibir una tendencia que debe monitorizarse para evitar la creación de espacios urbanos vulnerables por la tensión de los precios, con potencial gentrificación y desplazamiento de los actuales residentes por otros de mayor renta o alquileres turísticos. CONCLUSIONES La utilización de la ciencia de datos aplicada a los asentamientos urbanos permiten la anticipación a escenarios futuros de demanda, constatando que la calidad de su aproximación a la realidad; cuando esta llega, es decir, cuando se tiene el dato oficial del trimestre una vez vencido, se ha demostrado la predicción realizada con el modelo presentado como un 30% más exacta que la del Ministerio de Transportes, Movilidad y Agenda Urbana del Gobierno de España. Se ha observado que la correlación aumenta si algunos indicadores se trasponen unos trimestres respecto al marco temporal estudiado, siendo su impacto relevante en este caso. Esto es ciertamente interesante, pues algunos indicadores que aparentemente no correlacionan, sí lo hacen con esa trasposición, lo que aumenta la exactitud del modelo. Asimismo, se considera estratégico obtener indicadores con la máxima actualización posible, en línea y abiertos, para poder integrarlos en el modelo predictivo. La utilización de ciencia de datos ahorra tiempos en la toma de decisiones, permitiendo ajustar de manera más precisas las actuaciones necesarias en los asentamiento urbanos. Como se muestra en el caso estudiado, la tensión en los precios puede provocar migraciones intraurbanas por razón de rentas, creando áreas de alta vulnerabilidad por el efecto de gentrificación. RECONOCIMIENTOS Los autores desean agradecer a los investigadores y alumnos de la Cátedra Observatorio de la Vivienda de la Universitat Politécnica, y muy especialmente a las empresas y entidades que forman el Patronato de la misma, por su constante apoyo y aliento. REFERENCIAS 1. BASSOLS COMA, Martín. “La planificación urbanística y su contribución al desarrollo urbanístico sostenible”. Derecho del Medio Ambiente y Administración Local, Fundación Democracia y Gobierno Local, 2004, pp. 677-709. ISBN: 84-609-8956-9. 2. GRANDE NÚÑEZ, Carlos. “Diseño de Datos: del Big-Data al Urbanismo”, Directora TFG Mª Eugenia Rosado. Escuela Técnica Superior de Madrid, 2019. 3. SCHMARZO, Bill. “Big Data: El poder de los datos”. Madrid, Anaya Multimedia, 2014. ISBN: 978- 84415-3576-3. 4. WEB CÁTEDRA OBSERVATORIO VIVIENDA UPV. 2022. [ref. de 10 de agosto 2022]. Disponible en http://www.observa.upv.es 5. CÁTEDRA OBSERVATORIO DE LA VIVIENDA UPV. “Sector Inmobiliario 2T2022, Valencia, España”, (2022), pp. 19. [ref. de 10 de agosto 2022]. Disponible en https://observa.webs.upv.es/contenidos/informe-1-trimestre-2022/ 6. CÁTEDRA OBSERVATORIO DE LA VIVIENDA UPV. “Sector Inmobiliario 4T2019, Valencia, España”, (2020), pp. 7. [ref. de 10 de agosto 2022]. Disponible en https://observa.webs.upv.es/contenidos/informe-4-trimestre-2019/ 7. CHIA-NAN, K.; CHENG-MING, L. “Short-term load forecasting using SVR (support vector regression)-based radial basis function neural network with dual extended Kalman filter “. 2013, Energy vol. 49, pp. 413-422. 8. ARTUSI, R; VERDERIO, P; MARUBINI, E. “Bravais-Pearson and Spearman correlation coefficients: meaning, test of hypothesis and confidence interval”, 2002. The International Journal of Biological Markers, Vol. 17 no. 2, pp. 148-151. 9. CÁTEDRA OBSERVATORIO DE LA VIVIENDA UPV. “Sector Inmobiliario 3T2020, Valencia, España”, (2020), pp. 5-8. [ref. de 10 de agosto 2022]. Disponible en https://observa.webs.upv.es/contenidos/informe-3-trimestre-2020/ 10. MINISTERIO DE TRANSPORTES, MOVILIDAD Y AGENDA URBANA. [ref. de 10 de agosto 2022]. Disponible en https://www.fomento.gob.es/be2/?nivel=2&orden=35000000. Sobre los autores Fernando Cos-Gayón López Ph.D. Arquitecto e Ingeniero de Edificación por la UPV. Profesor titular del Departamento de Construcciones Arquitectónicas, en la actualidad es el director de la Escuela Técnica Superior de Ingeniería de Edificación de la Universitat Politècnica de València -UPV- (España). Investigador integrado en el Centro de Investigación de Tecnología de la Edificación, es director de la Cátedra Observatorio de la Vivienda y de la Cátedra Bertolín, ambas de la UPV. Ha sido director territorial de Levante de empresas inmobiliarias nacionales e internacionales cotizadas en el IBEX 35, y mantiene la actividad profesional, con realización de proyectos arquitectónicos, dirección de Edificación y Marketing digital inmobiliario. Ángel Martín Furones Ph.D. Licenciado en Geodesia y Cartografía por la Universitat Politècnica de València -UPV- (España). Actualmente es el director del Departamento de Ingeniería cartográfica, geodesia y fotogrametría de la UPV. Es científico senior y profesor titular del Departamento de Ingeniería Cartográfica, Geodesia y Fotogrametría de la UPV. Sus principales áreas de investigación están dedicadas a GNSS, Geodesia Física, Big Data y Machine Learning aplicado a Geociencias. Mirian Guillén Vivas Profesora a tiempo completo en la Universidad San Gregorio de Portoviejo, Ecuador. Arquitecta por la Universidad Católica de Santiago de Guayaquil, Ecuador. Máster en Edificación por la Universidad Politécnica de Valencia, España. Actualmente es Coordinadora de la Maestría en Ordenación del Territorio con mención en Planificación Territorial Sostenible y Gobernanza en la USGP. Se desenvuelve profesionalmente en el diseño y ejecución de proyectos arquitectónicos y urbanos. 1 INFLUENCIA DE LA INTERACCIÓN SUELO-ESTRUCTURA EN EDIFICACIÓN DE BAJA ALTURA Aldo Fernández Limés1, Willian D. Cobelo Cristiá2 1Ingeniero civil, Universidad Tecnológica de la Habana ``José A. Echeverría´´, Facultad de Ingeniería Civil, Calle 114 #11901, e/ Rotonda y Ciclovía, Marianao La Habana Cuba, afernandezl@civil.cujae.edu.cu 2Ingeniero civil, Doctor en ciencias técnicas, Universidad Tecnológica de la Habana ``José A. Echeverría´´, Facultad de Ingeniería Civil, Calle 114 #11901, e/ Rotonda y Ciclovía, Marianao La Habana Cuba, wcobelo@civil.cujae.edu.cu RESUMEN Los estudios de comportamiento estructural mediante modelación computacional frecuentemente desprecian la interacción suelo estructura (ISE) considerando a los apoyos empotrados, esta simplificación puede inducir imprecisiones en la respuesta estructural y subestimación o sobrestimación de las fuerzas interiores que se generan en los elementos de soporte vertical y horizontal, lo que puede conducir a errores en el diseño. Este trabajo analiza la influencia de la ISE en la respuesta estructural de una edificación de baja altura. La consideración de la ISE se analizó a través de modelos numéricos continuos y la no consideración de la ISE, mediante el enfoque tradicional de apoyos empotrados, con el objetivo de obtener la variación de las fuerzas interiores de los elementos estructurales. Fue necesaria la generación de elementos de interfase para simular el contacto entre la losa y el suelo en el modelo con interacción. Se determinó que la ISE provoca que se redistribuyan las fuerzas interiores de los elementos estructurales incrementando sus valores en unos casos y disminuyendo en otros. Por tanto, su efecto debe ser considerado en el diseño de edificaciones bajas sobre suelos deformables con cimientos superficiales. PALABRAS CLAVES: Interacción suelo-estructura (ISE), modelación computacional, suelo compresible INFLUENCE OF SOIL STRUCTURE INTERACTION AT LOW RISE BUILDING ABSTRACT Structural behavior studies using computational modeling frequently disregard the soil-structure interaction (SSI) considering fixed supports, this simplification can lead to inaccuracies in the structural response and underestimation or overestimation of internal forces, which can lead to design errors. This work analyzes SSI`s influence over the structural response of a low-rise building. SSI consideration was analyzed through continuous numerical methods and the non-consideration through fixed supports, in order to obtain the variation of the internal forces of the structural elements. The generation of interface elements was necessary to simulate the contact between the slab and the ground in the model with interaction. It was determined that the SSI has causes the internal forces of the structural elements to be redistributed, increasing their values in some cases and decreasing in others. Therefore, its effect must be considered in the design of low-rise buildings on deformable soils with shallow foundations. KEY WORDS: Soil-structure interaction (SSI), computational modelling, soft soil. 2 1. INTRODUCCIÓN La interacción suelo estructura (ISE) es un fenómeno muy complejo y heterogéneo debido a la diversidad de causas que la generan, es por ello que no existe una definición única del problema. Según Kausel [1] la ISE se refiere al fenómeno estático o dinámico que ocurre entre una estructura rígida y el suelo bajo ella y para Garg y Hora [2] la ISE es sólo un fenómeno interdisciplinario que envuelve a la ingeniería estructural y geotécnica. La ISE es aquella parte de la ingeniería que estudia las deformaciones del terreno de cimentación cuando estas se ven afectadas por la presencia y rigidez de la propia estructura. Esta puede ser en condiciones, dinámicas[3] o estáticas[4]. Para dar solución a los problemas de ISE es necesario hacer simulaciones matemáticas que modelen el comportamiento más aproximado a la realidad del suelo a partir de seleccionar correctamente los modelos constitutivos. Según González-Cueto, Herrera Suárez [5] los modelos constitutivos son expresiones matemáticas que expresan la relación esfuerzo deformacional de un material. Todos los aspectos que influyen en la respuesta mecánica del suelo bajo condiciones determinadas de cargas no es posible tenerlas en cuenta, por lo tanto, se necesitan idealizaciones, tanto del material como de las condiciones de carga, para simplificar la expresión matemática. Estas idealizaciones incorporan las principales propiedades del material, excluyéndose los aspectos considerados de menor importancia. Estos modelos deben estar en función del tipo de análisis que se desee hacer (estático o dinámico) [2]. La búsqueda de modelos de comportamiento para describir la ISE se ha desarrollado básicamente en dos vertientes, los modelos discretos que tienen su base en la hipótesis de Winkler en donde el suelo se sustituye por resortes con una rigidez determinada y los continuos donde el suelo es modelado de forma íntegra[6], siendo esta idealización más cercana al comportamiento real, pero requieren de un mayor costo computacional, debido a que en su solución es necesario el empleo de métodos numéricos. Los estudios de ISE se han realizado para todo tipo de estructuras, incluyendo edificaciones de gran altura también se han desarrollado estudios para torres de aerogeneradores, telecomunicaciones o de transmisión eléctrica[7], en este trabajo se evaluará la influencia que tiene la interacción suelo-estructura en las fuerzas interiores de los elementos estructurales y desplazamientos verticales de una edificación pequeña. Los parámetros que influyen en el comportamiento de la ISE son: la rigidez del suelo cuantificada a través de la velocidad de la onda cortante en análisis dinámicos, el módulo de elasticidad del hormigón utilizado en la cimentación además del tipo [8] y forma de aplicación de las cargas [9]. Se ha comprobado que la ISE modifica: la respuesta estructural de las edificaciones, generando cambios en los periodos de oscilación [10, 11], en el amortiguamiento de las cimentaciones [12] y en los desplazamientos [13], además provoca redistribución de las fuerzas interiores de los elementos estructurales [9, 14]. 2. DESCRIPCIÓN DE LA EDIFICACIÓN La edificación objeto de estudio es una edificación de dos niveles que ocupa un área de 195m2 aproximadamente, con sistema constructivo mixto compuesto por muros de carga y losas apoyadas sobre columnas directamente, en la figura 1 se muestra una imagen del modelo computacional de la misma. Los muros son de bloques de 15cm y las columnas y losas de hormigón armado con 35MPa de resistencia a compresión. Las secciones de las columnas son de 25x25cm y 25x40cm y el espesor de las losas de 30cm y las uniones entre los elementos estructurales es continua, en la figura 1 se muestra la edificación. 3 Figura 1: Modelo numérico de la edificación objeto de estudio Para esta edificación solo se consideró la influencia de las cargas gravitatorias debido a la presencia de muros de cargas que toman las cargas laterales generadas por la fuerza del viento. La carga de uso fue de 2 kN/m2 para las habitaciones y 1 kN/m2 para la cubierta, como cargas permanentes se tiene valores que oscilan entre 1,3 y 8,4 kN/m2 porque hay presencia de jardineras en el entrepiso de la edificación. La interacción suelo estructura bajo cargas estáticas usualmente se desprecia porque en muchas ocasiones la magnitud de las cargas no contribuye a generar compatibilidad de deformaciones entre el suelo y la estructura, sin embargo, también existen casos donde su efecto es considerable por lo que es de gran importancia evaluar cada caso individualmente [15] La edificación se encuentra sobre un estrato de suelo firme, más abajo se encuentra un estrato de un suelo muy deformable y luego un suelo arcilloso, las propiedades y parámetros resistentes de los estratos de suelos que sirven de soporte se resumen en la tabla 1 Tabla 1: Propiedades de los suelos Estrato Espesor (m) Peso específico (𝒌𝑵 𝒎𝟑⁄ ) Módulo elástico (E), kPa Cohesión (C), kPa Ángulo de fricción (∅) Coeficiente de Poisson I 0-1,8 18,4 49000 0 35 0,25 II 1,8-3,6 14 1000 10 0 0,45 III 3,6-25 16 25000 50 3 0,35 Para modelar el suelo empleando el método de los elementos finitos es necesario proveer al modelo de características tenso-deformacionales representadas a través de los modelos constitutivos que tengan en cuenta el comportamiento elasto-plástico del suelo. Estos modelos deben estar en función del tipo de análisis que se desee hacer (estático o dinámico) [2]. Se han desarrollado una serie de modelos de comportamiento elastoplásticos teniendo en cuenta los distintos criterios de falla, el más empleado para describir los problemas de ISE es el de Mohr-Coulomb. Este modelo está definido por un comportamiento elastoplástico, es considerado como una aproximación de primer orden al comportamiento no lineal del suelo, que relaciona la ley de Hooke y la forma generalizada de falla de Mohr-Coulomb, en la que se puede simular el comportamiento de suelos granulares sueltos o finos normalmente consolidados en dos etapas (un modelo elástico y luego plástico). Este modelo ignora los efectos del esfuerzo principal intermedio. Además, muestra predicciones conservadoras de la resistencia cortante del suelo y no es conveniente su uso en aplicaciones tridimensionales debido a la presencia 4 de esquinas en la superficie de fluencia lo cual afecta la convergencia de los modelos [16]; sin embargo, a pesar de esto es uno de los más empleados en estos casos. Este modelo por su relativa simplicidad y su carácter general es uno de los más empleados en los problemas de ISE en general [17, 18] y es el seleccionado para describir el comportamiento del suelo en este trabajo. 3. CONDICIONES DE APOYO En este estudio se evaluará la influencia que tiene la interacción suelo-estructura en las fuerzas interiores de la edificación, para ello se modelará una variante donde el edificio se encuentre empotrado y otra donde el efecto de la interacción sea tenido en cuenta a través de un modelo numérico continuo (donde el suelo y la edificación son modelados en un solo paso). En este tipo de modelos es necesario definir la geometría de la cimentación que inicialmente será una losa de 15cm de espesor, en el contacto de la losa con el suelo de apoyo se crean elementos de interfase. Los elementos de interfaz permiten los desplazamientos diferenciales entre los pares de nodos (deslizando y separando), de esta manera es que se incorpora el efecto de interacción. Uno de los modelos se desliza mientras el otro se separa. [19], esto se usa para simular la interacción entre el suelo y el cimiento. En este caso la generación de los elementos de interfase separa los nodos que estaban conectados en una posición y crea un elemento nuevo entre el suelo y la losa. La modelación se hace por etapas constructivas en la inicial en donde aún no hay interacción por solo considerarse al suelo en su estado natural, la interfase no es necesaria y se deben asignar vínculos rígidos a los nodos que quedan separados debido a la interfase para evitar errores en el análisis, ya en la etapa de interacción este vínculo debe ser removido. El material de la interfase está regido por la rigidez de los elementos adyacentes a través de los módulos de rigidez normal (1) y tangencial (2). La interfaz de la losa fue estimada automáticamente por la herramienta computacional usando las propiedades de los elementos adyacentes (suelo y cimiento) 𝐾𝑛 = 𝐸𝑜𝑒𝑑,𝑖 𝑡𝑣 ⁄ (1) 𝐾𝑡 = 𝐺𝑖 𝑡𝑣 ⁄ (2) Donde: 𝑅: Coeficiente de reducción de rigidez (de 0,7 a 1 para el contacto arcilla-hormigón), en este caso asumió un valor de 0,8 𝐶𝑖, 𝐺𝑖 y 𝐸𝑜𝑒𝑑,𝑖 cohesión, módulo cortante y módulo edométrico reducidos (3-5). 𝑡𝑣: Espesor virtual de la interfase, generalmente tiene un valor entre 0,01 y 0,1, cuanto mayor sea la diferencia de rigidez entre suelo y estructura, menor es el valor, en este caso como la diferencia entre el suelo y el hormigón es significativa se selecciona el valor de 0,01 𝐶𝑖 = 𝑅 ∙ 𝐶𝑠𝑢𝑒𝑙𝑜 (3) 𝐺𝑖 = 𝑅 ∙ 𝐺𝑠𝑢𝑒𝑙𝑜 (4) 𝐸𝑜𝑒𝑑,𝑖 = 2 ∙ 𝐺𝑖(1 − 𝑣𝑖) (1 − 2𝑣𝑖) (5) 𝑣𝑖 : Coeficiente de Poisson de la interfase, vale 0,45 para la interfase, se emplea este valor para simular el comportamiento friccional no compresible y evitar errores numéricos. En el modelo con interacción, se generan valores de asentamiento diferenciales en algunas zonas que producen valores de distorsiones angulares que superan las exigencias establecidas para el diseño, por esta razón se decide colocar pilotes helicoidales de acero con 4,85m de longitud bajo la losa de cimentación para analizar cómo influyen en la ISE. Estos pilotes rigidizan la losa y para simular el efecto de interacción se incorporan elementos de interfase al igual que en la losa. Se les asigna la capacidad de carga en punta del pilote que es desarrollada por la hélice (de 300mm de diámetro), con un valor de 150kN para cada pilote, se colocaron 58 pilotes de sección tubular de acero con diámetro exterior igual a 73mm. Fueron dispuestos en las zonas de concentración de tensiones que es donde 5 aparecen los mayores desplazamientos en el modelo donde solo existe la losa como solución de cimentación, en la figura 3 se muestra el modelo con pilotes bajo la losa. Por simplicidad se transforman los pilotes helicoidales a pilotes de sección circular maciza equivalente con 20cm de diámetro, en la figura 3 se muestra el modelo con los pilotes ya incorporados. Figura 2: Modelo de losa con pilotes 4. RESULTADOS Y DISCUSIÓN Para determinar la influencia que tienen la interacción suelo-estructura en la respuesta estructural de la edificación es necesario establecer las variables que serán consideradas en la evaluación, estas son: Fuerzas interiores La fuerza axial fue evaluada en la base de dos columnas ubicadas en distintos puntos de la base de la edificación, en la figura 4 se muestran los resultados obtenidos para el modelo con losa de cimentación solamente. Figura 3: Fuerza axial en columnas De los resultados obtenidos es evidente que la interacción redistribuye las cargas en la estructura, provocando un incremento de la carga en un caso (columna de esquina) y disminuyéndola en otro (columna centrada) con diferencias del 72% para la columna de esquina y 27% para la columna del centro. Por tanto, el efecto de la interacción suelo- estructura en la fuerza axial de las columnas es significativo. 19.1 353 69.7 277 0 50 100 150 200 250 300 350 400 Esquina Centro F u er za a x ia l. k N Ubicación de columnas Sin ISE Con ISE 6 Los momentos flectores en las losas de entrepiso y la cubierta fueron evaluados, los resultados se muestran en la figura 5. Figura 4: Momentos flectores en losas Los resultados muestran que los valores de momentos disminuyen cuando se considera la interacción suelo estructura en un 70% para la losa de entrepiso y 95% para la de cubierta, por lo que la no consideración de la interacción da un enfoque más conservador en este caso. La fuerza cortante en las losas fue evaluada para comprobar el efecto que tiene la interacción en esta solicitación, en la figura 6 se muestran los resultados obtenidos Figura 5: Fuerza cortante en losas Si bien en términos absolutos las diferencias no son significativas, en términos relativos las diferencias son grandes, del orden del 20% para el entrepiso y del 54% para la cubierta, por lo que, en condiciones de carga más desfavorables despreciar la interacción conllevaría a resultados erróneos. 25.2 7.9 14.85 4.06 0 5 10 15 20 25 30 Entrepiso Cubierta M o m n to f le ct o r k N m /m Losa Sin ISE Con ISE 6 4 7.58 2.59 0 1 2 3 4 5 6 7 8 Entrepiso Cubierta C o rt an te k N /m Losa Sin ISE Con ISE 7 Asentamiento Se verifica si la incorporación de pilotes disminuye los asentamientos en la cimentación, se toma como referencia al valor máximo que se encuentra en la zona central de la edificación, en la figura 7 se muestran los resultados obtenidos. a) Losa sin pilotes b) Losa con pilotes Figura 6: Asentamientos en la cimentación En la figura se observa que el asentamiento para el modelo sin pilotes es de 16,91mm, mientras que para el modelo con pilotes es de 10,25 mm, entonces se comprueba que la incorporación de pilotes en el modelo de la edificación y cumplen su función como reductores de asentamientos, reduciéndose estos en un 40%. 5. CONCLUSIONES Los resultados obtenidos muestran que la interacción suelo-estructura influye de manera significativa en la respuesta estructural de la edificación. Tanto en las columnas, como en las losas la redistribución de tensiones que provoca la interacción con el suelo de soporte modifica los valores de fuerzas interiores en los distintos elementos, esto demuestra la importancia de modelar el efecto de interacción en el análisis de estructuras apoyadas sobre estratos deformables. La incorporación de pilotes tiene un efecto favorable en la reducción de asentamientos disminuyendo estos en un 40%. Por tanto, la interacción suelo estructura debe considerarse en el análisis de edificaciones pequeñas sobre suelos blandos, despreciar esto podría conllevar a errores en el diseño de los elementos estructurales. BIBLIOGRAFÍA 1. Kausel, E., Early history of soil–structure interaction. Soil Dynamics and Earthquake Engineering, 2010. 30(9): p. 822-832. 2. Garg, V. and M. Hora, A review on interaction behaviour of structure-foundation-soil system. system, 2012. 2(6). 3. Cavalieri, F., et al., Dynamic soil-structure interaction models for fragility characterisation of buildings with shallow foundations. Soil Dynamics and Earthquake Engineering, 2020. 132: p. 106004. 4. Zani, G., et al., Three-dimensional modelling of a multi-span masonry arch bridge: Influence of soil compressibility on the structural response under vertical static loads. Engineering Structures, 2020. 221: p. 110998. 8 5. González-Cueto, O., et al., Análisis de los modelos constitutivos empleados para simular la compactación del suelo mediante el método de elementos finitos. Revista Ciencias Técnicas Agropecuarias, 2013. 22(3): p. 75-80. 6. Shirkhanghah, B. and H. Eimani Kalehsar, The effect of soil–structure interaction on the along-wind response of high-rise buildings. Proceedings of the Institution of Civil Engineers-Structures and Buildings, 2020: p. 1-15. 7. Chen, J., Soil-Structure Interaction Effects on Wind-induced Vibration of Transmission Tower Line System. EJDE, 2016. 21: p. 12. 8. Halabian, A.M., et al., Reliability analysis of wind response of flexibly supported tall structures. 2003. 12(1): p. 1-20. 9. Dixit, S., S.P. Vedula, and S. Kakaraparthi, Soil-Structure Interaction Analysis of a Raft Foundation Supporting RC Chimney. Geohazards, 2020: p. 259-282. 10. Shah, H.J. and A.K. Desai, Dynamic Analysis of Innovative Hybrid Wind Mill Tower with Soil Structure Interaction. International Journal of Engineering and Technology, 2018. 10(5). 11. Krathe, V. and A.M. Kaynia, Implementation of a non‐linear foundation model for soil‐structure interaction analysis of offshore wind turbines in FAST. Wind Energy, 2017. 20(4): p. 695-712. 12. Galsworthy, J.K. and M.H.E. Naggar, Effect of foundation flexibility on the across- wind response of reinforced concrete chimneys with free-standing liners. Canadian geotechnical journal, 2000. 37(3): p. 676-688. 13. Zhou, Z., et al., Influence of soil‐structure interaction on performance of a super tall building using a new eddy‐current tuned mass damper. The Structural Design of Tall Special Buildings, 2018. 27(14): p. e1501. 14. Venanzi, I., D. Salciarini, and C. Tamagnini, The effect of soil–foundation–structure interaction on the wind-induced response of tall buildings. Engineering structures, 2014. 79: p. 117-130. 15. Castro Pilco, C.F. and G.E. Pérez Martínez, Análisis de la interacción suelo-estructura estática para una edificación regular de hormigón armado y 3 tipos de suelos. 2020, Universidad politécnica salesiana sede Quito: Quito, Ecuador. p. 191. 16. Vintimilla Avila, C. and E. Avila Redrovan, Análisis de modelos constitutivos para representar el comportamiento de los suelos del sector las orquideas de la Ciudad de Cuenca. 2016. 17. Scarfone, R., M. Morigi, and R. Conti, Assessment of dynamic soil-structure interaction effects for tall buildings: A 3D numerical approach. Soil Dynamics and Earthquake Engineering, 2020. 128: p. 105864. 18. de Silva, F., Influence of soil-structure interaction on the site-specific seismic demand to masonry towers. Soil Dynamics and Earthquake Engineering, 2020. 131: p. 106023. 19. M. Eid, A.H., T. Sorour, Y. Zaghloul, M. Ezzat, Numerical Analysis of Large Diameter Bored Pile Installed in Multi Layered Soil: A Case Study of Damietta Port New Grain Silos Project 2018: p. 9. 1 INFLUENCIA DE LA INTERACCIÓN SUELO-ESTRUCTURA EN EDIFICIO SOMETIDO A CARGA DE VIENTO Aldo Fernández Limés1, Ingrid Fernández Lorenzo2, Willian D. Cobelo Cristiá3 1, 2, 3 Facultad de Ingeniería Civil, Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE), Calle 114 No. 11901 entre Ciclovía y Rotonda, Marianao, La Habana, Cuba, apartado Postal 19390, url:http://cujae.edu.cu. 1e-mail: afernandezl@civil.cujae.edu.cu 2e-mail: ingridfl@civil.cujae.edu.cu 3e-mail: wcobelo@civil.cujae.edu.cu RESUMEN Es práctica habitual despreciar el efecto de la interacción suelo estructura (ISE) idealizando a los apoyos de las estructuras como empotrados. Esta simplificación puede inducir imprecisiones en la respuesta estructural y subestimación o sobrestimación de las fuerzas interiores y desplazamientos, lo que puede provocar errores en el diseño. Este trabajo analiza la influencia de la ISE en la respuesta estructural de una edificación de 50m de altura sometida a carga dinámica de viento. La consideración de la ISE se analizó a través de métodos numéricos continuos sobre estratos de suelos compresibles homogéneos y la no consideración a través de apoyos empotrados, con el objetivo de obtener la variación de las frecuencias de oscilación, desplazamientos horizontales y fuerzas interiores de los elementos estructurales, entre los modelos con y sin ISE. Para considerar la ISE se incorporaron elementos de interfase entre el suelo y la cimentación. Los resultados muestran que la ISE tiene un efecto considerable en el aumento de los desplazamientos laterales, en la disminución de la frecuencia de oscilación para todos los modos analizados y en la variación de las fuerzas interiores en la estructura, por tanto, su análisis es necesario cuando se proyectan edificaciones sobre suelos blandos. PALABRAS CLAVES: Carga de viento, interacción suelo-estructura (ISE), modelación computacional, suelo compresible INFLUENCE OF SOIL STRUCTURE INTERACTION AT A BUILDING UNDER WIND LOAD ABSTRACT It is common practice to disregard the effect of soil-structure interaction (SSI) idealizing the structure`s supports as fixed, this simplification can lead to inaccuracies in the structural response and underestimation or overestimation of internal forces and displacements, which can cause errors in design. This work analyzes the influence of the SSI on the structural response of a 50m-high building subjected to dynamic wind load. SSI was analyzed through continuous numerical methods on homogeneous compressible soil strata and non-consideration through fixed supports, with the aim to obtain oscillation frequencies variation, horizontal displacements and internal forces from structural elements, between the models with and without SSI, to consider SSI, interface elements between the ground and the foundation were incorporated. The results show that SSI has a considerable effect on the increase of the lateral displacements, on the decrease of the oscillation frequency for all the analyzed modes and on structure`s internal forces variation, therefore, its analysis is necessary. when buildings are projected on soft soils. KEY WORDS: Wind load, soil-structure interaction (SSI), computational modelling, soft soil. 2 1. INTRODUCCIÓN Es usual en la proyección de edificios por los ingenieros asumir que las estructuras tienen su base empotrada y por tanto se desprecia la interacción suelo-estructura (ISE) pero este criterio solo puede ser válido cuando estas descansan sobre estratos de suelos duros o rocosos. Cuando esto no sucede, las rotaciones y desplazamientos en la cimentación generadas por las deformaciones del suelo traen consigo un cambio en las condiciones de apoyo de la estructura, generando una redistribución no prevista de las tensiones e incrementos en las deformaciones. Además, la deformabilidad del suelo cambia el comportamiento dinámico de las edificaciones, principalmente el periodo [1], lo que puede provocar errores en los diseños. La interacción entre la estructura de cimentación y el suelo consistirá en encontrar un sistema de reacciones que aplicadas simultáneamente a la estructura de cimentación y a la masa del suelo produzcan la misma configuración de desplazamientos diferenciales entre los dos elementos. Para dar solución a los problemas de ISE por métodos continuos es necesario hacer simulaciones matemáticas que modelen el comportamiento más aproximado a la realidad del suelo a partir de seleccionar correctamente los modelos constitutivos. Los modelos constitutivos son expresiones matemáticas que expresan la relación esfuerzo-deformación de un material. Todos los aspectos que influyen en la respuesta mecánica del suelo bajo condiciones determinadas de cargas no son posible tenerlos en cuenta, por lo tanto, se necesitan idealizaciones, tanto del material como de las condiciones de carga, para simplificar la expresión matemática. Estas idealizaciones incorporan las principales propiedades del material, excluyéndose los aspectos considerados de menor importancia. Estos modelos deben estar en función del tipo de análisis que se desee hacer (estático o dinámico) [2]. La búsqueda de modelos de comportamiento para describir la ISE se ha desarrollado básicamente en dos vertientes, los modelos discretos que tienen su base en la hipótesis de Winkler en donde el suelo se sustituye por resortes con una rigidez determinada y los continuos donde el suelo es modelado de forma íntegra [3] junto con la estructura, siendo esta idealización más cercana al comportamiento real, pero requieren de un mayor costo computacional debido a que en su solución es necesario el empleo de métodos numéricos. Los estudios de ISE se han realizado para todo tipo de estructuras, incluyendo edificaciones de gran altura también se han desarrollado estudios para torres de aerogeneradores, telecomunicaciones o de transmisión eléctrica [4]. Los parámetros que influyen en el comportamiento de la ISE son: la rigidez del suelo que puede ser cuantificada a través de la velocidad de la onda cortante, el módulo de elasticidad del hormigón utilizado en la cimentación [5] además del tipo y forma de aplicación de las cargas [6]. Se ha comprobado que la ISE modifica: la respuesta estructural de las edificaciones, generando cambios en los periodos de oscilación [7, 8], en el amortiguamiento de las cimentaciones [9], en los desplazamientos [10], además provoca redistribución de las fuerzas interiores de los elementos estructurales [6, 11] y la cimentación. En relación a la influencia que tiene el viento sobre la interacción suelo estructura Galsworthy y Naggar [9] plantean que para bajas velocidades de viento, el efecto de la flexibilidad de la cimentación tiende a disminuir el valor máximo de la deflexión. También Zhou, Wei [10] demostraron cómo la interacción incrementa el desplazamiento horizontal de una edificación cuando actúa la carga de viento debido a que el período de la estructura aumentó después de considerar la ISE y el viento es una carga dominante para largos períodos, lo que hace el sistema se vuelva menos rígido permitiendo mayores desplazamientos. La influencia de la interacción suelo estructura (ISE) puede ser en condiciones estáticas, lo cual es tratado por la interacción suelo-estructura estática, o puede ser en condiciones dinámicas, dando lugar a la interacción suelo- estructura dinámica. En la interfase de la estructura de cimentación y el suelo se originan desplazamientos debido a las cargas que transmite la cimentación, esto conlleva a la generación de desplazamientos totales y diferenciales. Como las fuentes de excitaciones del caso analizado en este trabajo son estáticas, el tipo de ISE que se aborda es estático. En este trabajo se evaluará la influencia que tiene la interacción suelo-estructura en las fuerzas interiores desplazamientos horizontales y modos de oscilación de un edificio cuando actúa la carga de viento. Para ello se 3 modelará numéricamente una edificación y se le asignarán cargas gravitatorias y de viento con enfoque estático equivalente. Para evaluar el efecto de la ISE se analizará a la edificación con apoyos empotrados (sin interacción) y luego con un modelo continuo integral donde el suelo deformable y el edificio se modelarán en un solo paso. 2. DESCRIPCIÓN DE LA EDIFICACIÓN La edificación objeto de estudio tiene 50 metros de altura, consta de 14 niveles y ocupa un área en planta de 870m2 aproximadamente, con sistema constructivo compuesto por losas apoyadas sobre columnas directamente y tímpanos. El tímpano se encuentra ubicado en la zona central de la edificación y tiene 35cm de espesor, las columnas disminuyen sus secciones con el aumento de los niveles, para optimizar y las losas son de 30cm de espesor. En todos los elementos el material empleado es hormigón armado con 35MPa de resistencia a compresión. Para la modelación de los edificios se empleó un programa con base en el método de los elementos finitos. Las columnas fueron asignadas como elementos ``beam´´ y losas y tímpanos como elementos ``plate´´ discretizados con mallas del tipo híbrida con un ancho máximo de 80cm. Las uniones entre los distintos elementos estructurales son continuas, en la figura 1 se muestra el modelo numérico de la edificación. Una vez definidas las características geométricas de la edificación se procedió a realizar un análisis de no linealidad para determinar para verificar si tiene influencia la no linealidad geométrica en la respuesta de la edificación. El procedimiento seleccionado para ello fue seleccionar una variable de control, en este caso los desplazamientos verticales en una de las losas y comparar sus valores cuando se les asigna comportamiento lineal y no lineal. El método iterativo empleado en el análisis no lineal fue el de Newton-Ramphson con un criterio de convergencia de desplazamientos del 0,1%, los resultados mostraron que los desplazamientos no cambian para un caso u otro, por tanto, se puede asumir el modelo de comportamiento lineal geométrico. Figura 1: Modelo numérico de la edificación objeto de estudio Aunque la interacción suelo estructura bajo cargas estáticas usualmente se desprecia porque en muchas ocasiones la magnitud de las cargas no contribuye a generar compatibilidad de deformaciones entre el suelo y la estructura, existen casos donde su efecto es considerable por lo que es de gran importancia evaluar cada caso individualmente [12] 4 Se consideraron cargas de uso con un valor de 1,5 kN/m2 para las habitaciones y 1 kN/m2 para la cubierta, la carga permanente en los entrepisos tiene un valor de 2 kN/m2. La carga de viento fue distribuida horizontal y linealmente sobre los entrepisos. Carga de viento La carga de viento fue analizada para una sola dirección considerando que se encuentra en una zona expuesta al mar abierto en la región Occidental de Cuba. Para el alcance de este trabajo solo se tuvo en cuenta a la componente longitudinal del viento. La fuerza del viento a aplicar sobre una edificación de acuerdo al método “Factor de Efecto de Ráfaga” se obtiene de la ecuación 1 [13] 𝐹𝑉(𝑧𝑒) = 𝑞𝑝(𝑧𝑒) · 𝐶𝑓 · 𝐶𝐷 · 𝐴 = 𝑞10 · 𝐶𝑡 · 𝐶ℎ · 𝐶𝑟 · 𝐶𝑓 · 𝐶𝐷 · 𝐴 (1) Donde 𝐶𝐷 es la componente dinámica que puede ser longitudinal, transversal o torsional, se tienen en cuenta si la frecuencia de oscilación del modo principal de la edificación es mayor a 1Hz, para el alcance de este trabajo solo se considera la componente longitudinal que está definida por la ecuación 2: 𝐶𝐷𝐿 = 𝐺𝐿 1 + 7𝐼(𝑍𝐷) (2) En las ecuaciones (1-2) 𝑞10 es la componente media presión básica del viento con un valor de 0,66kN/m 2, 𝐶ℎ es el coeficiente de altura, 𝐶𝑡 es el coeficiente de recurrencia que es 1 para un período de retorno de 50 años, 𝐶𝑟 el coeficiente de ráfaga y 𝐶𝑓 el coeficiente de forma(0,8 a barlovento, -0,5 a sotavento, -0,6 en los laterales y -0,8 en la cubierta) y 𝐴𝑟𝑒𝑓 área de referencia o área tributaria. En la componente dinámica 𝐶0 es el coeficiente de topografía (igual a 1 para terrenos llanos), 𝐼(𝑧𝑒) intensidad de turbulencia para la altura de referencia (60% de la altura de la edificación), 𝐵𝐿 factor no resonante, 𝑅𝐿 , factor resonante, 𝑔𝐿𝐵 = 𝑔 = 3,5 factor pico para la componente no resonante o de fondo, 𝑘𝑝 factor pico para la componente resonante y 𝜐𝐿 es la frecuencia esperada. La frecuencia de oscilación empleada para calcular la carga de viento fue la obtenida en el modelo empotrado con un valor de 1,16Hz Suelo El análisis de la variable suelo en la ISE es evaluada a través de la incorporación de estratos homogéneos de suelos uno con consistencia blanda y el otro con consistencia media, para poder evaluar su comportamiento para distintos grados de rigidez. La selección del suelo se realizó a través de los datos brindado en Das y Sivakugan [14] donde se correlaciona la rigidez de los suelos con otras propiedades. En la tabla 1 se resumen las propiedades de los suelos seleccionados para soportar al edificio y representar la ISE. 5 Tabla 1: Propiedades de los suelos Consisten cia Suelo Índice plástic o (𝑰𝑷) Índi ce líqui do (𝑰𝑳) Índic e de poros (𝒆𝟎) Coeficie nte de Poisson (𝝂) Módulo elástico E (kPa) Módulo cortant e G (kPa) Cohesió n C (kPa) Ángul o de fricció n 𝝓(º) Peso específic o seco 𝜸𝒇 (kN/m3) Blanda Limo marino 13 (media ) 0,63 1,05 0,35 5127 1899 13 10 14,5 Media Arcilla marina eluvial 26 (muy plástic a) 0,38 0,95 0,35 12219 4526 37 14 15,8 La velocidad de la onda cortante (𝑉𝑠) es uno de los principales parámetros empleados para describir la influencia de la rigidez del suelo en la ISE [5], entonces se determina a partir de los datos de la tabla 1 su valor para cada tipo de suelo y así poder emplear este parámetro como referencia. Normalmente este parámetro se puede obtener a través del ensayo de penetración estándar (SPT, por sus siglas en inglés) o estallando una pequeña carga explosiva a una profundidad determinada en el suelo y luego midiendo la velocidad de la onda con un sismógrafo. Pero también es posible obtenerlo a partir de correlaciones con otros parámetros del suelo como el módulo cortante (máximo) para pequeñas deformaciones[15] a través de la ecuación 3: 𝑉𝑠 2 = 𝐺0 𝜌 (3) Donde, 𝐺0 módulo cortante máximo, también puede escribirse como 𝐺𝑚á𝑥 , 𝑉𝑠 la velocidad de la onda cortante y 𝜌 densidad del suelo (𝜌 = 𝛾 𝑔⁄ ) donde 𝑔 es la aceleración de caída libre (9.81m/seg2). Para correlacionar el módulo cortante máximo con el módulo cortante ordinario (G) se debe conocer para que valor de deformación se obtuvo, entre mayor sea la deformación menor será el valor de G, en la figura 2 se muestra su comportamiento. Figura 2: Correlación entre modulo cortante y deformaciones [16] Para valores muy pequeños de deformación (< 0,001%) el suelo tendrá un comportamiento elástico, para valores pequeños (0,001~0,1%) la rigidez se vuelve sensible a la magnitud de la deformación y ocurre una gran 6 reducción de rigidez con el aumento de las deformaciones, para valores mayores de deformación (> 0,1%) domina el comportamiento plástico y la rigidez deja de ser sensible a las deformaciones del suelo y se aproxima a valores mínimos mientras el material se aproxima a la falla [17]. Como se analizará al suelo en su rango elástico, entonces las deformaciones que predominan son menores a 0,001% , en este rango la correlación de 𝐺 𝐺0⁄ = 1 [15, 18]. Los resultados obtenidos se resumen en la tabla 2 Tabla 2. Valores de Vs Consistencia Suelo Peso específico (kN/m3) 𝝆 Vs (m/s) Blanda Limo marino 14,5 1,48 36 Media Arcilla marina eluvial 15,8 1,61 53 La velocidad de la onda (Vs) obtenida para el limo y la arena corresponde a suelos tipo E porque la velocidad de la onda cortante es menor a 180 m/s, según NC-46 [19]. En el caso de la arcilla la velocidad de la onda cortante es menor a 180m/s también, pero clasifica como suelo tipo F4, porque se trata de un estrato homogéneo con un espesor mayor a 36m [19]. Para la determinación de la capacidad de carga de los pilotes se hace necesario estimar el valor de la cohesión no drenada (𝐶𝑢) que puede ser correlacionada con los valores de índice líquido de los suelos a través de la ecuación 4, expresión empírica propuesta por Shimobe y Spagnoli [20] 𝐶𝑢 = 98 ∙ 𝑆𝑡 ∙ 𝑒𝑥𝑝 [𝑙𝑛 ( 0,475 𝐼𝐿 + 0,5012(1 − 𝐼𝐿) ) 0,19⁄ ] (4) Donde 𝑆𝑡 = 𝑞𝑢 𝑖𝑛𝑎𝑙𝑡𝑒𝑟𝑎𝑑𝑎 𝑞𝑢 𝑟𝑒𝑚𝑜𝑙𝑑𝑒𝑎𝑑𝑎 , es el coeficiente de sensibilidad, el valor de este coeficiente está en función del tipo de suelo [14] en la tabla 3 se resumen los resultados obtenidos Tabla 3: Valor de la cohesión no drenada Consistencia Suelo Índice líquido (𝑰𝑳) 𝑺𝒕 Cohesión no drenada (𝑪𝒖) Blanda Limo marino 0,63 8 46 Media Arcilla marina eluvial 0,38 5 69 Para modelar el suelo empleando el método de los elementos finitos es necesario proveer al modelo de características tenso-deformacionales representadas a través de los modelos constitutivos que tengan en cuenta el comportamiento elasto-plástico del suelo. Estos modelos deben estar en función del tipo de análisis que se desee hacer (estático o dinámico) [2]. Se han desarrollado una serie de modelos de comportamiento elastoplásticos teniendo en cuenta los distintos criterios de falla, el más empleado para describir los problemas de ISE es el de Mohr-Coulomb. Este modelo está definido por un comportamiento elastoplástico, es considerado como una aproximación de primer orden al comportamiento no lineal del suelo, que relaciona la ley de Hooke y la forma generalizada de falla de Mohr-Coulomb, en la que se puede simular el comportamiento de suelos granulares sueltos o finos normalmente consolidados en dos etapas (un modelo elástico y luego plástico). Este modelo ignora los efectos del esfuerzo principal intermedio. El modelo no representa el comportamiento 7 elastoplástico progresivo, únicamente involucra dos elementos generales: la elasticidad perfecta y la plasticidad asociada al desarrollo de deformaciones plásticas o irreversibles. El criterio de fluencia de Mohr- Coulomb es exacto dentro de los límites del rango de presión de confinamiento, obtenido del ensayo triaxial, pero cuando el rango aumenta, la exactitud disminuye. Sin embargo, este criterio es usado frecuentemente por ser fácil de usar y presenta resultados precisos en el rango de presión de confinamiento general. Este modelo por su relativa simplicidad y su carácter general es uno de los más empleados en general en los problemas de ISE en general [21, 22] y es el seleccionado para describir el comportamiento del suelo en este trabajo. 3. CONDICIONES DE APOYO En este estudio se evalúa la influencia que tiene la interacción suelo-estructura en las fuerzas interiores de la edificación, para ello se modelará una variante donde el edificio se encuentre empotrado y otra donde el efecto de la interacción sea tenido en cuenta a través de un modelo numérico integral (donde el suelo y la edificación son modelados en un solo paso) Para modelar el efecto de la ISE es necesario diseñar las cimentaciones que se encargarán de transmitir la carga de la edificación al suelo. Por las dimensiones y cargas de las edificaciones objeto de estudio de este trabajo y los bajos parámetros deformacionales que se tienen, las soluciones de cimientos superficiales aislados o corridos son poco viables. Entonces, las soluciones de cimentación disponibles son las losas de cimentación y/o las losas combinadas con pilotes. Si la losa no provee una adecuada capacidad de carga, entonces la adición de pilotes es requerida para incrementar el factor de seguridad contra el fallo. En el caso que la losa sea capaz de proveer suficiente capacidad de carga entonces la posible adición de pilotes tendría como objetivo disminuir los asentamientos a un valor admisible. Los métodos de diseño tradicionales de cimentaciones profundas asignan la capacidad de carga axial a los pilotes solamente[23], despreciando el aporte de la losa, este es un enfoque muy conservador. En las últimas décadas se ha estudiado este fenómeno y se ha llegado a la conclusión de que el aporte de la losa es significativo, lo que redunda en diseños más económicos[24-26]. Una cimentación de losas combinadas con pilotes (PR, por sus siglas en inglés) consiste en tres elementos: el suelo, la losa y los pilotes. Una carga externa aplicada (Q) es equilibrada en una parte con la presión de contacto que se genera entre la losa y el suelo (𝑄𝑢𝑟) y en otra parte por la generada entre el grupo de pilotes y el suelo (𝑄𝐺). para determinar la parte de la carga que es tomada por los pilotes, de Sanctis y Mandolini [25] proponen emplear el siguiente coeficiente (5): 𝛼𝑃𝑅 = 𝑄𝐺 𝑄 (5) Si 𝛼𝑃𝑅 = 0, significa que la cimentación es superficial, sin pilotes (losa sin pilotes, UR, por sus siglas en inglés), mientras que el caso donde 𝛼𝑃𝑅 = 1, representa el grupo de pilotes con una losa separada de la superficie (G) por lo que no hay contribución de esta a la capacidad de carga de la cimentación. Las cimentaciones de losas combinadas con pilotes (PR) cubren el rango de 0 < 𝛼𝑃𝑅 < 1 La capacidad de carga de una losa de cimentación (𝛼𝑃𝑅 = 0) es evaluada a través de la ecuación 6 que es la empleada para determinar la capacidad de carga en cimientos superficiales en general. 𝑄𝑈𝑅,𝑢𝑙𝑡 = ( 𝐵𝑟 2 ∙ 𝛾 ∙ 𝑁𝛾 ∙ 𝑠𝛾 ∙ 𝑖𝛾 ∙ 𝑑𝛾 ∙ 𝑔𝛾 + 𝑐 ∙ 𝑁𝑐 ∙ 𝑠𝑐 ∙ 𝑖𝑐 ∙ 𝑑𝑐 ∙ 𝑔𝑐 + 𝑞 ∙ 𝑁𝑞 ∙ 𝑠𝑞 ∙ 𝑖𝑞 ∙ 𝑑𝑞 ∙ 𝑔𝑞)𝐴 (6) 8 Donde 𝐵𝑟 es el ancho de la losa, A, el área de losa, los coeficientes 𝑁 son los de capacidad de carga, 𝑆 los de forma, 𝑖 de inclinación de la carga, 𝑔 inclinación el terreno, 𝑑 el de profundidad, 𝑐 la cohesión del suelo, 𝑞 la presión efectiva en el fondo de la losa y 𝛾 el peso específico del suelo. La losa de cimentación tiene unas dimensiones de en planta de 32x32m y un espesor de 1,5m, fue revisada empleando el método de estados límites para ambos modelos, en el caso del modelo de suelo con consistencia blanda, no se cumplió la capacidad de carga y fue necesario la introducción de 81 pilotes para incrementar la capacidad de carga de la cimentación. Para el modelo de suelo con consistencia media la losa sí es capaz de resistir por capacidad de carga, pero se decide mantener el mismo diseño que el caso anterior para no incorporar más variables al estudio. En la figura 3 se muestra el diseño final de la cimentación para ambos modelos de ISE. Figura 3: Cimentación de los modelos con ISE En el modelo integral es necesario definir la geometría de la cimentación que en este caso será una losa de 150cm de espesor, en el contacto de la losa con el suelo que le rodea se crean elementos de interfase. Los elementos de interfase están compuestos por una capa de resortes que permiten los desplazamientos diferenciales entre los pares de nodos (deslizando y separando). Uno de los modelos se desliza mientras el otro se separa. [27], esto se usa para simular la interacción entre el suelo y los elementos estructurales. Para el caso de la losa la generación de la interfase fue estimada automáticamente desde las propiedades de los elementos adyacentes. En este caso la generación de los elementos de interfase separa los nodos que estaban conectados en una posición y crea un elemento nuevo entre el suelo y la losa. Para la primera etapa en donde no hay interacción y la interfase no es necesaria se deben asignar vínculos rígidos a los nodos que quedan separados por la interfase para evitar errores en el análisis, ya en la etapa de interacción este vínculo debe ser removido. El material de la interfase está regido por la rigidez de los elementos adyacentes a través de los módulos de rigidez normal (7) y tangencial (8) 𝐾𝑛 = 𝐸𝑜𝑒𝑑,𝑖 𝑡𝑣 ⁄ (7) 𝐾𝑡 = 𝐺𝑖 𝑡𝑣 ⁄ (8) 𝐶𝑖, 𝐺𝑖 y 𝐸𝑜𝑒𝑑,𝑖 cohesión, módulo cortante y módulo edométrico reducidos (9-11). 𝑡𝑣: Espesor virtual de la interfase, generalmente tiene un valor entre 0,01 y 0,1, cuanto mayor sea la diferencia de rigidez entre suelo y estructura, menor es el valor, en este caso como la diferencia entre el suelo y el hormigón es significativa se selecciona el valor de 0,01 𝐶𝑖 = 𝑅 ∙ 𝐶𝑠𝑢𝑒𝑙𝑜 (9) 𝐺𝑖 = 𝑅 ∙ 𝐺𝑠𝑢𝑒𝑙𝑜 (10) 9 𝐸𝑜𝑒𝑑,𝑖 = 2 ∙ 𝐺𝑖(1 − 𝑣𝑖) (1 − 2𝑣𝑖) (11) Donde 𝑣𝑖 : Coeficiente de Poisson de la interfase, vale 0,45 para la interfase, se emplea este valor para simular el comportamiento friccional no compresible y evitar errores numéricos. 𝑅: Coeficiente de reducción de rigidez (de 0,7 a 1 para el contacto arcilla-hormigón), en este caso asumió un valor de 0,8 Para modelar la masa de suelo se debe garantizar que el modelo tenga un tamaño que permita que las tensiones desarrolladas en la masa de suelo queden completamente dentro de los límites de este, en este caso se comprobó que para un valor igual a tres veces la altura de la edificación (150m) en todos los lados de la masa de suelos es que se alcanza esta condición, en la figura 4 se muestra la configuración final del modelo utilizado para analizar la ISE. Figura 4: Modelo numérico integral para ISE 4. RESULTADOS Y DISCUSIÓN La influencia de la ISE en los desplazamientos horizontales máximos de la edificación, que ocurren en el último nivel producto de la carga de viento se muestra en la figura 5 para modelos con y sin ISE. Figura 5:Desplazamientos horizontales máximos 6.13 88.88 212.86 0 50 100 150 200 250 Sin interacción Vs=53 m/s Vs=36 m/s D es p la za m ie n to h o ri zo n ta l ( m m ) Suelo 10 En los análisis de ISE el suelo y la superestructura funcionan como una única estructura, por lo que una disminución en la rigidez de uno de los dos influye en el otro es por esto que los desplazamientos horizontales son proporcionales a la disminución de rigidez del suelo. Esto tiene una influencia significativa en las frecuencias de oscilación. Para determinar el impacto de la ISE en las frecuencias de oscilación también se evaluó esta variable, en la figura 6 se muestran los valores obtenidos de los cuatro primeros modos. Figura 6: Frecuencias de oscilación Los resultados muestran que cuando no se considera la ISE la estructura posee modos mayores a 1 Hz, pero cuando se tiene en cuenta la ISE este valor disminuye considerablemente (de 2 a 4 veces) volviendo a la estructura vulnerable a fenómenos dinámicos. La razón de esta diferencia tan grande se debe a que en los modelos con ISE la estructura está sobre estratos de suelos muy deformables con una profundidad de 150m y con valores de módulo elástico bajo y constante, lo que en la práctica es poco probable que suceda, aun así, este efecto se debe considerar para problemas reales. El hecho de que los modelos con ISE tienen frecuencias menores a 1 Hz en más de un modo tiene como implicación que para los modelos con ISE la determinación de la fuerza de viento no puede ser calculada por métodos estáticos equivalentes, sino por métodos de dominio del tiempo. Un incremento en los desplazamientos horizontales y la disminución de las frecuencias de oscilación influyen directamente en la forma en que se distribuyen las fuerzas interiores en la superestructura. Las fuerzas interiores fueron evaluadas estableciendo elementos estructurales de referencia que tuvieran la misma ubicación en cada modelo y solo para cargas gravitatorias, en la figura 7 se muestran los valores de fuerza axial para columnas ubicadas en una de las esquinas del modelo y en la figura 8 para una de las columnas interiores, este análisis se hizo para todos los niveles de la edificación con el objetivo de determinar cómo varía su comportamiento con el incremento de altura 0 1 2 3 4 5 6 7 1 2 3 4 5 6 7 8 9 10 Sin ISE 1.2 1.5 1.6 4.6 5.3 5.7 6.0 6.1 6.5 6.7 Vs=53 m/s 0.4 0.4 1.4 1.4 2.6 2.8 3.1 3.6 3.9 4.1 Vs=36 m/s 0.3 0.3 0.9 1.4 2.3 2.5 2.8 3.3 3.7 4.0 Fr ec u en ci a ( H z) Modos 11 Figura 7: Fuerza axial en columna de esquina Figura 8: Fuerza axial en columna interior De los resultados obtenidos en las figuras 7 y 8 se aprecia que la interacción suelo-estructura tiene una influencia significativa en las columnas de esquina, con diferencias de hasta un 55%. En el caso de las columnas interiores, no tiene gran influencia el efecto de la interacción en el modelo de suelo con Vs=53 m/s que es el más rígido de los dos tipos de suelos, mientras que para el suelo con Vs=36m/s las diferencias si son significativas. El efecto de la fuerza cortante también fue evaluado en las mismas columnas, los resultados obtenidos se muestran en las figuras 9 y 10 0 2 4 6 8 10 12 14 0 1000 2000 3000 4000 5000 N iv el es Fuerza axial (kN) Sin ISE Vs=36 m/s Vs=53 m/s 0 2 4 6 8 10 12 14 0 1000 2000 3000 4000 5000 6000 N iv el es Fuerza axial (kN) Sin ISE Vs=36 m/s Vs=53 m/s 12 Figura 9: Fuerza cortante en columna de esquina Figura 10: Fuerza cortante en columna interior Los resultados de influencia de la ISE en la fuerza cortante de las columnas muestran una influencia más evidente para las columnas de esquina con una diferencia significativa entre el modelo sin ISE y los modelos con interacción con diferencias de alrededor del 60%, sin embargo, para las columnas intermedias la diferencia es solo significativa para el caso del suelo con Vs=53m/s. De los resultados obtenidos en fuerzas interiores en columnas se demuestra que la ISE tiene una influencia significativa en los valores de fuerzas interiores siendo más sensibles las columnas que se encuentren en la esquina de este edificio 0 2 4 6 8 10 12 14 0 20 40 60 80 100 120 N iv el es Fuerza cortante (kN) Sin ISE Vs=36 m/s Vs=53 m/s 0 2 4 6 8 10 12 14 0 50 100 150 200 250 300 N iv el es Fuerza cortante (kN) Sin ISE Vs=36 m/s Vs=53 m/s 13 Las fuerzas interiores también fueron evaluadas en los tímpanos, las fuerzas membranales se seleccionaron para cuantificar la influencia de la ISE en estos elementos, en las figuras 11 y 12 se muestran los resultados obtenidos para todos los niveles del edificio en las direcciones X e Y del sistema de referencia mostrado en la figura 4. Figura 11: Fuerza membranal en la dirección de X Figura 12: Fuerza membranal en la dirección de Y La influencia de la ISE en las fuerzas membranales desarrolladas en el tímpano es significativa, para los dos modelos que representan ISE los valores fueron similares tanto en un sentido como en otro, pero hubo diferencias que llegan a ser del 50% en algunos niveles. La flexión en la losa de la cimentación fue evaluada sólo para los modelos con ISE, en la figura 13 se muestran los resultados obtenidos 0 2 4 6 8 10 12 14 0 200 400 600 800 1000 1200 1400 N iv el es Fuerza membranal (kN/m) Sin ISE Vs=36 m/s Vs=53 m/s 0 2 4 6 8 10 12 14 0 50 100 150 200 250 300 350 400 N iv el es Fuerza membranal (kN/m) Sin ISE Vs=36 m/s Vs=53 m/s 14 Figura 13: Momentos flectores en la losa de cimentación Los resultados muestran que las diferencias entre los momentos flectores de la los cuando se considera la ISE para las dos distintas flexibilidades de suelo no son significativos al igual que sucedió en el análisis de las fuerzas membranales en el tímpano Los resultados de fuerzas interiores muestran que la consideración de la ISE provoca redistribución de tensiones los elementos estructurales en la edificación, donde hay elementos que pueden estar sometidos a mayores solicitaciones y otros a menores, según sea el caso. 5. CONCLUSIONES Los resultados obtenidos muestran que la interacción suelo-estructura influye de manera significativa en la respuesta estructural de la edificación. El aumento de los desplazamientos con la disminución de rigidez del suelo hace que disminuyan los valores de frecuencia de oscilación cuando es considerada la ISE. Tanto en las columnas, como en los tímpanos la redistribución de tensiones provocados por este efecto cambia los valores de fuerzas interiores en los elementos tipos barras, incrementándose en unos casos y disminuyendo en otros, pero en el caso de los elementos estructurales superficiales las diferencias de solicitaciones entre los modelos con ISE no fueron significativos, pero en comparación con el modelo empotrado si fueron considerables. Esto demuestra que cada estructura y elemento que la componga debe ser analizada de forma individual y no es posible generalizar un criterio único acerca del posible comportamiento que pueda tener determinado elemento cuando está sometido a ISE. Por tanto, la interacción suelo estructura debe considerarse en el análisis de edificaciones sobre suelo blando siempre, despreciar esto podría conllevar a errores en el diseño de los elementos estructurales. BIBLIOGRAFÍA 1. Veletsos, A. and J. Meek, Dynamic behavior of building foundation systems. Earthquake Engineering & Structural Dynamics, 1974. 3: p. 121-138. 2. Garg, V. and M. Hora, A review on interaction behaviour of structure-foundation-soil system. system, 2012. 2(6). 3. Shirkhanghah, B. and H. Eimani Kalehsar, The effect of soil–structure interaction on the along-wind response of high-rise buildings. Proceedings of the Institution of Civil Engineers-Structures and Buildings, 2020: p. 1-15. 4. Chen, J., Soil-Structure Interaction Effects on Wind-induced Vibration of Transmission Tower Line System. EJDE, 2016. 21: p. 12. 5. Halabian, A.M., et al., Reliability analysis of wind response of flexibly supported tall structures. 2003. 12(1): p. 1-20. 0 5000 10000 15000 20000 Mx My Mx, 17991 My, 13243 Mx, 16823 My, 13458 M o m en to ( kN m /m ) Dirección Vs=36 m/s Vs=53 m/s 15 6. Dixit, S., S.P. Vedula, and S. Kakaraparthi, Soil-Structure Interaction Analysis of a Raft Foundation Supporting RC Chimney. Geohazards, 2020: p. 259-282. 7. Shah, H.J. and A.K. Desai, Dynamic Analysis of Innovative Hybrid Wind Mill Tower with Soil Structure Interaction. International Journal of Engineering and Technology, 2018. 10(5). 8. Krathe, V. and A.M. Kaynia, Implementation of a non‐linear foundation model for soil‐structure interaction analysis of offshore wind turbines in FAST. Wind Energy, 2017. 20(4): p. 695-712. 9. Galsworthy, J.K. and M.H.E. Naggar, Effect of foundation flexibility on the across-wind response of reinforced concrete chimneys with free-standing liners. Canadian geotechnical journal, 2000. 37(3): p. 676-688. 10. Zhou, Z., et al., Influence of soil‐structure interaction on performance of a super tall building using a new eddy‐current tuned mass damper. The Structural Design of Tall Special Buildings, 2018. 27(14): p. e1501. 11. Venanzi, I., D. Salciarini, and C. Tamagnini, The effect of soil–foundation–structure interaction on the wind-induced response of tall buildings. Engineering structures, 2014. 79: p. 117-130. 12. Castro Pilco, C.F. and G.E. Pérez Martínez, Análisis de la interacción suelo-estructura estática para una edificación regular de hormigón armado y 3 tipos de suelos. 2020, Universidad politécnica salesiana sede Quito: Quito, Ecuador. p. 191. 13. Ballate Delgado, A., I. Fernández Lorenzo, and P. Martín Rodríguez, Aceleraciones inducidas por el viento en edificios altos, in VII Taller Internacional de Ingenierías: X Convención Científica Internacional de la Universidad de Matanzas. 2021. 14. Das, B.M. and N. Sivakugan, Principles of Foundation Engineering. 9th ed. 2019, 20 Channel Center Street, Boston, MA 02210, USA: Cengage Learning, Inc. 884. 15. Zurita, C.C., E.O. Shelley, and M.F. Guzmán, Medición de velocidad de onda cortante en suelos del ex lago de Texcoco, in XXVIII Reunión nacional de ingeniería geotécnica. 2018: Mérida, Yucatán. 16. Gingery, J.R. and A. Elgamal, Shear stress-strain curves based on the G/Gmax logic: A procedure for strength compatibility, in IACGE 2013: Challenges and Recent Advances in Geotechnical and Seismic Research and Practices. 2013. p. 721-729. 17. Matthews, M., V. Hope, and C. Clayton, The use of surface waves in the determination of ground stiffness profiles. Proceedings of the Institution of Civil Engineers-Geotechnical Engineering, 1996. 119(2): p. 84-95. 18. Tenesaca, P.G., et al. Análisis de velocidades de ondas de corte y periodos de vibración del suelo. Parroquia jubones. Ciudad de machala. in Conference Proceedings UTMACH. 2017. 19. NC-46, Construcciones sismorresistentes — requisitos básicos para el diseño y construcción. 2017: La Habana. Cuba. 20. Shimobe, S. and G. Spagnoli, Relationships between undrained shear strength, liquidity index, and water content ratio of clays. Bulletin of Engineering Geology the Environment, 2020. 79(9): p. 4817- 4828. 21. Scarfone, R., M. Morigi, and R. Conti, Assessment of dynamic soil-structure interaction effects for tall buildings: A 3D numerical approach. Soil Dynamics and Earthquake Engineering, 2020. 128: p. 105864. 22. de Silva, F., Influence of soil-structure interaction on the site-specific seismic demand to masonry towers. Soil Dynamics and Earthquake Engineering, 2020. 131: p. 106023. 23. AASHTO, LRFD bridge design specifications 2020. 24. Long, P.D., Footings with settlement-reducing piles in non-cohesive soil. 1993. 25. de Sanctis, L. and A. Mandolini, Bearing capacity of piled rafts on soft clay soils. Journal of Geotechnical Geoenvironmental Engineering, 2006. 132(12): p. 1600-1610. 26. Mandolini, A., R. Di Laora, and Y. Mascarucci, Rational design of piled raft. Procedia Engineering, 2013. 57: p. 45-52. 27. M. Eid, A.H., T. Sorour, Y. Zaghloul, M. Ezzat, Numerical Analysis of Large Diameter Bored Pile Installed in Multi Layered Soil: A Case Study of Damietta Port New Grain Silos Project 2018: p. 9. 16 SOBRE LOS AUTORES Aldo Fernández Limés, ingeniero civil y profesor instructor de la Universidad Tecnológica de la Habana ``José A. Echeverría´´, Facultad de Ingeniería Civil. Willian Daniel Cobelo Cristiá, ingeniero civil, Doctor en ciencias técnicas y profesor titular de la Universidad Tecnológica de la Habana ``José A. Echeverría´´, Facultad de Ingeniería Civil. Ingrid Fernández Lorenzo, ingeniera civil, Doctora en ciencias técnicas y profesor auxiliar de la Universidad Tecnológica de la Habana ``José A. Echeverría´´, Facultad de Ingeniería Civil. EL PARANINFO DE LA UNIVERSIDAD LABORAL DE CHESTE: ANÁLISIS DE LAS PATOLOGÍAS José R. Albiol-Ibáñez1, Luis V. García-Ballester2, Raúl Martínez Luch3 1,2Universitat Politècnica de València, Camino de Vera S/N 46022 Valencia-España, 3Profesional Liberal- España 1e-mail: joalib1@csa.upv.es RESUMEN La conservación del patrimonio es una tarea compleja y en muchos casos costosa de realizar. Cuando se trata de la conservación del patrimonio del siglo XX y en especial de la arquitectura del movimiento moderno, la tarea parece más compleja ya que la sociedad apenas reconoce o valora los bienes culturales creados como patrimonio a conservar. El objetivo prioritario debe ser frenar su progresiva degradación, revirtiendo las más graves agresiones a las que fue sometido, al mismo tiempo que se revitaliza el uso de tan valiosas y singulares instalaciones mediante la implantación de nuevos usos. La Universidad Laboral de Cheste es un ejemplo de esta necesidad, siendo de especial importancia la actuación sobre el Paraninfo o Aula Magna que presenta riesgos derivados del abandono y obsolescencia funcional y tipológica, debido a que actualmente se encuentra cerrado y en desuso. Tanto por su concepción formal y estética como por las técnicas constructivas empleadas en su construcción (uso de hormigón postesado), es imprescindible la realización de estudios previos que permitan identificar los problemas de conservación que presenta y poder hacer una propuesta de intervención. PALABRAS CLAVES: Siglo XX, Movimiento Moderno, Paraninfo, Universidad del Trabajo, Estudio Previo ABSTRACT Heritage conservation is a complex task and in many cases expensive to perform. When it comes to the conservation of 20th century heritage and especially the architecture of the modern movement, the task seems more complex as society hardly recognizes or values the cultural goods created as heritage to be preserved. The priority objective must be to stop its progressive degradation, reversing the most serious aggressions to which it subjected, while revitalizing the use of such valuable and unique facilities through the implementation of new uses. The Universidad Laboral de Cheste is an example of this need, being of special importance the action on the Paraninfo or Aula Magna that presents risks derived from abandonment and functional and typological obsolescence, due to the fact that it is currently closed and in disuse. Both because of its formal and aesthetic conception and because of the construction techniques used in its construction (use of post-stressed concrete), it is essential to carry out previous studies that allow the identification of the conservation problems it presents and to be able to make an intervention proposal. KEY WORDS: Twentieth century, Modern Movement, Paraninfo, Labor University, Previous Study 1. INTRODUCCIÓN Es un hecho que la conservación del patrimonio es una tarea compleja y en muchos casos costosa de realizar, pero cuando se habla de conservación del patrimonio del siglo XX y en especial de la arquitectura del movimiento moderno, la tarea parece más compleja. Así el MeCD (Ministerio de Cultura y Deporte, 2018a) señala: […] En relación a su conservación, el patrimonio cultural del siglo XX es especialmente vulnerable, por: La diversidad de materiales, técnicas y soportes que lo constituye. Las características innovadoras de muchos de los sistemas y materiales utilizados en su producción. La falta de acuerdo en la definición de criterios y en el conocimiento de técnicas de intervención, tanto a nivel general, como para cada uno de sus ámbitos específicos. El desconocimiento social de su valor patrimonial. De forma generalizada, la sociedad apenas reconoce o valora como patrimonio a preservar, los bienes culturales creados en el siglo XX; posición que se corresponde con la carencia de interés en la preservación de gran parte de este patrimonio que mantienen las administraciones públicas. Dentro de las actuaciones del MeCD en materia de patrimonio cultural, se realizó el catálogo inicial de Patrimonio del Siglo XXi (DOCOMOMO Ibérico, 2013-2014) siendo la Universidad Laboral de Cheste uno de los edificios catalogados. Si se haces la pregunta de cuál es la situación actual, la respuesta se refleja claramente en el apartado de Informe de Riesgos del MeCD (Ministerio de Cultura y Deporte, 2018a): […]Por esta situación de vulnerabilidad, junto con la inexistencia de una caracterización, inequívoca y rigurosa, de su carácter patrimonial, los bienes culturales producidos en el siglo XX están expuestos a riesgos derivados de: El abandono o la destrucción. La obsolescencia funcional y tipológica, producida por la transformación o la desaparición de los medios sociales, productivos y tecnológicos por y para los que fueron creados. La realización de modificaciones irreversibles, derivadas de la falta de adecuación de los tratamientos utilizados en su conservación. Los falsos históricos que alteran el conocimiento genuino que puede transmitir este patrimonio.” Pero que esta situación no parece ser un fenómeno aislado de España sino que una parte importante del patrimonio arquitectónico europeo de los años 60-70 -de sensibilidad brutalista- está siendo transformado, sustituido o abandonado sin demasiado revuelo (De Graaf, 2013), (Hitz, 2017), (#SOSBRUTALISM, 2017) El objetivo prioritario debe ser detener su progresiva degradación, revirtiendo aquellas agresiones más graves de las que ha sido objeto, a la vez que revitalizar el aprovechamiento de tan valiosas y singulares instalaciones mediante la implementación de nuevos usos (Bravo Bravo, 2017) Las Universidades Laborales fueron un proyecto educativo desarrollado en España durante prácticamente 26 años (1955-1981). Se crearon con objeto de impartir enseñanza a la población trabajadora. En su desarrollo podemos establecer tres períodos: Consolidación (1955-1962), Expansión (1962-1978) y Extinción (1979-1981), período en el que sus edificios y cometidos fueron absorbidos por el Ministerio de Educación y Ciencia, y posteriormente por las Consejerías con competencias en educación. Aunque la redacción de los proyectos se realizó en el plazo de escasos meses o fueron elaborados o modificados durante la propia ejecución de las obras, junto con el hecho de que muchos de los conjuntos fueran ejecutados en tiempos absolutamente récord o se abrieran cuando aún sus obras no habían finalizado–y esto fue una constante a lo largo de las tres décadas que su construcción ocupó ii (Robles Cardona, 2014a)-, este no sería el origen, en la mayoría de los casos de las patologías de los edificios, sino la falta de mantenimiento adecuado, incluso del propio abandono de los conjuntos. En 1963 se decide ubicar en la provincia de Valencia una Universidad Laboral y para ello se barajaron diferentes ubicaciones (Meliana, El Saler, La Pobla de Vallbona, Burjassot) siendo la escogida finalmente la de El Saler en Valencia. En 1965 se designa como proyectista Fernando Moreno Barberá, considerado como arquitecto de la tercera generación del Movimiento Moderno español. (Piñón, 2006). Su obra se caracteriza la profusión y calidad de su arquitectura docente, la búsqueda constante de la precisión constructiva, de la eficacia funcional y de una planificación general tendente a evitar cualquier sensación de masificación. Seguidor de Mies van der Rohe y de Le Corbusier, podemos reconocer en su obra el uso del hormigón armado, el funcionalismo de sus edificios o el uso de los brise soleil (retículas de nervios y lamas para la protección solar) en muchos de sus edificios, convirtiéndolos en símbolo del conjunto y en identidad de su obra, imprimiéndole un carácter personal que lo haría uno de los arquitectos españoles de la corriente brutalista. Debido a las características del terreno ubicado en el Saler y a su escasa capacidad para acoger el programa de edificios, redactado en 1967 por un grupo de expertos, se decidió -durante la fase de subasta de las obras- buscar un nuevo emplazamiento que fue un terreno con una superficie de 156 ha, ubicado en el paraje denominado “La Loma”, término municipal de Cheste. Este cambio de emplazamiento dio lugar a cambios importantes tanto en la ordenación de los edificios que componían el centro como en la disposición de éstos al tener que adaptarse a un terreno en desnivel, lo que supuso una serie de ventajas a la hora de disponer los edificios, adaptándose a las curvas de nivel de la ladera. En primer término, se encuentran el Paraninfo (1) y la zona administrativa (2). A un nivel superior se sitúa la zona de servicios (3). En el siguiente nivel se asienta la zona docente (4). A continuación, las dos grandes piscinas descubiertas (5). En el último nivel, en la cima de la loma, se encuentran la zona residencial (6) y las instalaciones deportivas (7). En la zona oeste, se encuentra un oratorio (8). (Figuras 1 y 2) La construcción se inició en el mes de febrero de 1968, finalizándose las obras en junio de 1969. Las obras se iniciaron sobre el proyecto redactado para El Saler (ABC, 1967). Los aparejadores fueron Enrique Llopis Pastor, Ulises Henche Montero y Arcadio Andreu Peyró y la adjudicataria de la obra fue Agroman, Empresa Constructora, S.A. Dentro de este conjunto, cabe destacar el Paraninfo o Aula Magna que presenta riesgos derivados por abandono y obsolescencia funcional y tipológica, debido a que en la actualidad se encuentra cerrado y en desuso. Tanto por concepción formal y estética, como por las técnicas constructivas utilizadas en su construcción (utilización del hormigón postensado, estructura y paramentos de hormigón visto), resulta imprescindible realizar estudios previos que permitan identificar los problemas de conservación que presenta y poder hacer una propuesta de intervención. El paraninfo o aula magna de la Universidad Laboral de Cheste es el edificio más emblemático de todo el complejo, como reconocía el propio arquitecto. La ubicación dentro del complejo en la cota inferior del solar, a la entrada del centro y diferenciado del resto de los edificios, unido al conjunto estructural que conforma el volumen del edificio, le confieren una singularidad que le hace destacar tanto en su entorno cercano como en el conjunto (Imágenes 2 y 3) Figura 1: Plano topográfico del proyecto. Figura 2: Vista aérea. ⑤ ③ ② ① ⑥ ④ ⑤   ② ① ⑥ ③   ④ Figura 3: Vista aérea actual. En primer plano el Paraninfo Se diseñó para albergar un aforo 5234 espectadores, (alumnos y profesores), erigiéndose en su momento como uno de los de mayor capacidad del mundo y como el más grande de Europa. El uso para el que se pensó era para la celebración de los actos multitudinarios que agrupasen al conjunto de la comunidad, tales como la inauguración y clausura del curso, actuaciones teatrales o musicales, proyecciones cinematográficas o misas. El Paraninfo está caracterizado por su estructura portante vista (Figura 3), inspirada en el Proyecto para los Soviets de Moscú Jeanneret y Le Corbusier y en Salón de Actos de la Universidad de Caracas de Carlos Ruiz de Villabuena, consistente en unas potentes costillas de hormigón, con estudiadas texturas creadas por los encofrados. En la parte del edificio junto a la escena del salón de actos se ejecutó con un mínimo acondicionamiento un auditorio al aire libre, ya previsto en el proyecto inicial del Saler, capaz para diez mil espectadores, lo que permitía realizar actos en los que participasen personas ajenas al Centro. Entre ambos elementos se construyó un tornavoz que aparte de su función acústica cumple la función de elemento integrador. Figura 4: Fachada Sur original. Figura 5: Fachada Sur actual. Figura 6: Fachada Norte original. En primer plano el tornavoz. (Moreno Barberá, 1970) Figura 7: Tornavoz Estado original (Moreno Barberá, 1970) En el edificio original, en su fachada sur, la estructura estaba exenta de cerramientos, excepto en la última planta en la que se mostraba el cerramiento de la caja de espectadores. Posteriormente, se realizó el cerramiento de las restantes plantas (Figuras 4 y 5). En el resto de las fachadas, la idea de masividad preside el proyecto, si bien en la fachada norte esta idea se altera anteponiendo el tornavoz (Figuras 6 y 7). El edificio se distribuye en tres zonas ordenadas a lo largo del eje de acceso (Figura 8): la zona de circulaciones y servicios ; el patio de butacas, con dos niveles .; y el escenario, con sus espacios anejos (almacenes, vestuarios y camerinos), dispuestos de forma simétrica . Originalmente se proyectó y construyó según los mismos principios de austeridad que regía todo el proyecto, por lo que se cerró únicamente la caja habitable interior, permaneciendo al exterior todas las circulaciones, horizontales y verticales, así como el vestíbulo desde el que se accede al patio de butacas y desde el que arrancan las escaleras que conducen al nivel superior, al anfiteatro. Posteriormente se realizó una intervención el objeto de crear espacios cerrados tanto a nivel de vestíbulos como de circulaciones, que desvirtuaron el edificio. Figura 8: Plantas del paraninfo (Archivo CTAV) Elaboración propia 2.- ESTRUCTURA El hormigón arquitectónico es el principal protagonista del paraninfo, de tal forma que es el que configura la estructura portante de grandes vigas como los contundentes cerramientos laterales, en donde el despiece en tablillas de los encofrados formando un damero, proporciona una textura de gran calidad expresiva. ① ② ③ ① ② ③ Imagen 9: Pórticos principales. Alzado proyecto y estado actual. Imagen 10: Pantalla y pórticos laterales. Alzado de proyecto y estado actual. La estructura principal se dispone a partir de diez pórticos/costillares de hormigón armado de más de 57 m de luz (Figura 9). En las fachadas laterales se dispone de una pantalla de hormigón desde cota cero hasta la cara inferior del costillar. Embrochalado a estos se realizaron nueve pórticos de luz variable para arriostrar la estructura y servir de sustentación a la cubierta (Figura 10). El anfiteatro y la galería intermedia son, a su vez, soportados en ménsula por una estructura independiente de la principal, también de hormigón (Figuras 11 y 12). El escenario se resuelve como un cubo macizo de muros de hormigón armado. Las áreas de servicio anexas a este edificio se resuelven con una estructura de hormigón armado, cerramientos de ladrillo y en la cara sur, se resuelve utilizando unos brisoleis (Figuras 13 y 14). El tornavoz se resuelve con voladizo ejecutado a partir de dos grandes vigas en V que permite soportar una plementería en forma escalonada. La cubierta del edificio se resuelve como una cubierta plana no ventilada no pisable. Figura 11: Costillar, anfiteatro y galería intermedia. Figura 12: Plano del armado del anfiteatro y galería intermedia. Figura 13: En primer plano el tornavoz y en segundo plano la caja escenario. Estado actual. Figura 14: Brisoleils y vista lateral del tornavoz. Estado actual. 3.- ESTADO ACTUAL Y PATOLOGÍA Actualmente el edificio se encuentra cerrado y en desuso debido a la presencia de asbestos y al poco mantenimiento que ha tenido. Con posterioridad a su ejecución se realizó el cerramiento de la zona de circulación (Imagen 15), alterando la imagen del edificio. Este cerramiento, alero tanto la percepción visual interior como la desde este hacia el exterior (Imágenes 15 y 16). Imagen 15: Estado actual (derch.) y estado original (izq) (DOCOMO Ibérico). Imagen 16: Espacio actual planta acceso (derch.) y primera (Izq.) (DOCOMO Ibérico). En la inspección realizada, se han detectado las patologías siguientes (Figura 18): Corrosión de armaduras por humedad de escorrentía y de riego, añadido a recubrimientos mínimos de las armaduras ①. Desprendimiento y estallido del hormigón de recubrimiento por corrosión armadura, en muro cerramiento y pilares de fachadas este y oeste, y faldón vertical del tornavoz ② Humedad por capilaridad y riego en la fachada oeste y edificio este de servicios ③ Corrosión  Humedad  Musgos-Vegetación  Grietas  Decoloración  Figura 18: Mapeo de las patologías detectadas. Figura 19: derch, izq: Patologías 1 - 2. Vegetación y humedad en la cubierta del aula magna y edificios de servicios ④ Figura 21. Suciedad y chorretones en paramentos verticales por escorrentía, polución y lavado diferencial ⑤ Figura 21. Fisuración por falta de junta de dilatación en la fábrica de ladrillo del cerramiento original de la fachada principal⑥ Figura 23. Fisura en el faldón extremo del tornavoz por insuficiente armadura ⑦ Figura 22. Fisura por movimiento cimentación en fachadas este y oeste ⑧ Figura 23. Decoloraciones por absorción de agua del encofrado en escalera exterior de acceso y pilares  Figuras 24 y 25. ①② ①② Figura 20: Patologías 1 - 2. Figura 21: Patologías 3, 4 y 5. Figura 22: Patologías 5 y 7. Figura 23: Patologías 6 y 8. Figura 24: Patología 9 Figura 25: Patología 9 ⑤ ④ ③ ⑤ ⑦ ①② ⑥ ⑧   4.- PROPUESTA DE INTERVENCIÓN Además de intervenir en las lesiones exteriores se deberá realizar también una adecuación normativa y un estudio exhaustivo del estado del interior. Corrosión de las Armaduras: Sanear el hormigón en todo el entorno de la armadura que esté afectada. Eliminar el óxido mediante erosión mecánica para posteriormente aplicarle un producto pasivante. Reforzar las barras si su pérdida de sección es >1% y sustituir si ésta es > 75%. Aplicar un mortero de reparación que recubra la zona saneada y una protección anticarbonatación. Presencia de Humedad en los Muros de Hormigón y Cerramientos: Emplear electroósmosis activa e inalámbrica. Cambiar sistema de riego Suciedad (Chorretones/Salissures) Limpiar fachadas con chorro de agua a presión para desincrustar la suciedad de la pared. Añadir un detergente antimoho. Cubierta Retirar el antiguo sistema de impermeabilización y proceder una nueva impermeabilización o doblar la impermeabilización existente, tras limpieza de los líquenes y mohos. En ambos casos con un sistema compatible con el resto de cubierta no reparada. Grietas en la obra de fábrica Se procederá a su reparación retirando los ladrillos rotos y los perimetrales a la grieta generando espacio suficiente para la ejecución de una nueva junta. Grieta en el extremo del voladizo Grieta en el extremo del voladizo La intervención en este caso consiste en anclar el voladizo, reforzar el armado existente y reparar la grieta con mortero de reparación previa limpieza de la misma. Se deberá apuntalar la estructura para garantizar su estabilidad durante los trabajos. Fisura por movimiento cimentación Estabilizar el movimiento. Se procederá al sellado de la junta, previa limpieza de la misma, con mortero de reparación CONCLUSIONES Se debe proceder a la demolición del cerramiento de las plantas acceso y primera para de este modo restituir las características del proyecto original. La causa básica de las corrosiones existentes son el escaso recubrimiento y la carbonatación de la superficie, por lo que se debe proceder a un estudio detallado para aportar una solución duradera. Para la conservación y mantenimiento del edificio, es imprescindible la implementación de nuevos usos. Figura 7 Estado actual. Imagen 8 Estado original, deseable tras la intervención. RECONOCIMIENTOS Al equipo de dirección del Complejo Educativo de Cheste por autorizar el acceso a las instalaciones, al Colegio Territorial de Arquitectos de Valencia por permitir la consulta del archivo de Moreno Barberá y a Loto Fernández, Valeska Higuera, David Morocho y Natalia Vazquez de la Torre por ceder sus fotos del Paraninfo. REFERENCIAS 1. Jordá Such, C. (2005) Universidad Laboral de Cheste 1967-1969, Colegio de Arquitectos de Almería, Almería. 2. ABC. (1967). Información sobre el cambio de emplazamiento. Obtenido de abc.es/nav/Navigate.exe/hemeroteca/madrid/abc/1967/11/22/071 3. Bravo Bravo, J. (2017). Cheste: puerta de entrada al sistema de las Universidades Laborales. Asimetrías(Número especial), 185-200. 4. Cecheste. (s.f.). Recuperado el 2018, de http://cecheste.com/composicion-actual/ 5. De Graaf, R. (2013). Publick works. Architecture by Civil Servants. Recuperado el 2018, de oma.eu/lectures/public-works 6. DOCOMOMO Ibérico. (2013-2014). Plan Nacional de Conservación del Patrimonio Cultural del Siglo XX. Recuperado el 20 de Diciembre de 2018, de 7. Ministerio de Cultura y Deporte - Gobierno de España. (2018). Identificación de riesgos. Recuperado el 20 de Diciembre de 2018, de http://www.culturaydeporte.gob.es/planes- nacionales/planes-nacionales/conservacion-patrimonio-cultural-sigloxx/identificacion- riesgos.html 8. Ministerio de Fomento. (s.f.). Fototeca Digital. Recuperado el 19 de 12 de 2018, de https://fototeca.cnig.es/ 9. Moreno Barberá, F. (1970). Centro de Universidades Laborales Jesús Romero, Cheste, Valencia. Revista Arquitectura, Año 12(142), 17-24. 10. Piñón, H. (2006). Boceto de una generación. En J. Blat Pizarro (Ed.), Farnado Moreno Barberá (Catálogo de la exposición) (págs. 14-15). Valencia: CTAV. 11. Robles Cardona, M. (2014a). La Arquitectura de las Universidades Laborales Españolas (1946-1978) Tomo I. Barcelona: Universitat Politècnica de Barcelona. José R. Albiol-Ibáñez Vice Decano de Relaciones Internacionales Cátedras de Empresa, Emprendimiento y Empleo de la ETS de Ingeniería de Edificación UPV. Director EXCO. Investigador en el Departamento de Construcciones Arquitectónicas; Universitat Politècnica de València, Camino de Vera, s/n, 46022 Valencia, España. Profesor Contratado Doctor, Ingeniero de Materiales, Arquitecto técnico, Master en Ingeniería del Hormigón. Doctor en Ingeniería de la Construcción y Gestión ambiental por la UPV. Dr.h.C. Odessa State Academy of Civil Engineering & Architecture. E-mail: joalib1@csa.upv.es Luis V. García-Ballester Investigador en el Departamento de Construcciones Arquitectónicas; Universitat Politècnica de València; Camino de Vera, s/n, 46022 Valencia, España. Profesor Titular de Universidad, Ingeniero de Materiales, Arquitecto técnico, Doctor en Ingeniería de la Construcción y Gestión ambiental por la UPV. E-mail: lvgarcia@csa.upv.es Raúl Martínez Luch Arquitecto Técnico. Ejercicio libre de la profesión. ANÁLISIS DE LA CALIDAD DE LA CIRCULACIÓN VEHICULAR Y PEATONAL EN LA INTERSECCIÓN DE 114 Y BOYEROS Dr. Ing. Reynier Moll Martínez 1, Ing. Alfredo Javier Heredia Mons 2 1 Facultad de Ingeniería Civil. CUJAE, 2 Profesor Titular. Departamento de Construcciones y Viales - CECAT. Facultad de Ingeniería Civil. CUJAE. Ave 114 e/ Ciclovía y Rotonda # 11901, Marianao, La Habana. Cuba. 2e-mail: reymoll@civil.cujae.edu.cu RESUMEN En Cuba, aunque los volúmenes de circulación vehicular se pueden considerar que no son elevados, en ocasiones se experimentan dificultades asociadas a ciclos semafóricos inadecuados, incorrecta organización del tránsito, incrementos de los volúmenes de tránsito en zonas específicas y conductas inadecuadas de conductores y peatones. El objetivo de este trabajo es estudiar los indicadores de calidad de la circulación vehicular y peatonal en la intersección de la avenida Rancho Boyeros y Calle 114 (entronque CUJAE), analizar su variación respecto a los años 2015 y 2020, años en los que se efectuaron estudios similares, y proponer medidas correctivas de ser necesario. Desde el punto de vista práctico se utilizó el software profesional Trafficware Synchro para la simulación y evaluar probables propuestas. Como resultado de la investigación, se propone un nuevo ciclo semafórico y orden de las fases para mejorar los niveles de servicios y el grado de utilización de la capacidad de cada acceso y la intersección en su conjunto. PALABRAS CLAVES: capacidad, nivel de servicio, volúmenes de tránsito, ciclo semafórico. ANALYSIS OF THE QUALITY OF VEHICULAR AND PEDESTRIAN CIRCULATION AT THE INTERSECTION OF 114TH STREET AND BOYEROS AVENUE ABSTRACT In Cuba, although vehicular traffic volumes can be considered not high, difficulties are sometimes experienced associated with inadequate traffic light cycles, incorrect organization of traffic, increases in traffic volumes in specific areas, and inappropriate behavior by drivers and pedestrians. The objective of this work is to study the quality indicators of vehicular and pedestrian circulation at the intersection of Rancho Boyeros Avenue and 114th street, analyze their variation with respect to the years 2015 and 2020, years in which similar studies were carried out, and propose corrective measures if necessary. The professional software Trafficware Synchro was used for the simulation and to evaluate probable proposals. As a result of the investigation, a new traffic light cycle and order of the phases are proposed that improve the levels of services and the degree of utilization of the capacity of each access and intersection. KEY WORDS: capacity, service level, traffic volume, traffic light cycle. 1. INTRODUCCIÓN La congestión vehicular es el fenómeno que más afecta e influye de manera negativa en la calidad de la circulación. Sus efectos negativos dirigidos no solo a la pérdida del recurso tiempo sino también al aumento de la contaminación por las emisiones de dióxido de carbono y el desgaste de vehículos y carreteras están afectando la forma en la que se desarrollan las dinámicas citadinas actuales. Las instituciones relacionadas con la movilidad vehicular, ponen todo su esfuerzo para mitigar estos efectos negativos. La Habana, es la provincia de Cuba con la mayor red de intersecciones semaforizadas. Aunque no existen estudios recientes que lo demuestren, algunas de ellas muestran signos de congestión en horarios específicos del día, que se corresponden con las horas de máxima demanda. Tal es el caso de la intersección semaforizada de la calle 114 y avenida Rancho Boyeros (entronque CUJAE) donde se han podido observar una deficiente operación por el acceso de la calle 114, de ahí que se haya realizado un estudio para identificar cuál o cuáles serían los factores que podrían estar incidiendo. 2. CARACTERIZACIÓN DE LA ZONA OBJETO DE ESTUDIO La intersección de la calle 114 y la avenida Rancho Boyeros se ubica en el municipio de Boyeros. La avenida Rancho Boyeros interconecta con los municipios Plaza de la Revolución, Cerro y Boyeros. Por su parte, la calle 114 se extiende desde el municipio de Marianao hasta Boyeros (entronque CUJAE). La intersección cuenta con un paso a nivel con una línea de ferrocarril, actualmente activa, con la calle 114 a pocos metros de la Facultad de Ingeniería Eléctrica de la CUJAE. Posee pasos peatonales semaforizados por los cuatro (4) accesos que funciona con las mismas tres (3) fases semafóricas de los vehículos. Además, en las inmediaciones están ubicadas dos (2) paradas de ómnibus por los accesos de Boyeros que son los que influyen de forma más directa en la circulación. También está la presencia de un paso a nivel de ferrocarril. Figura 1. Imagen satelital de la intersección calle 114 y avenida Rancho Boyeros. Fuente: Google Maps. Características de los accesos CUJAE y Costa – Costa. El acceso desde de la CUJAE consta de dos (2) carriles de circulación, uno por sentido, ampliándose a tres (3) después de cruzar el paso de nivel hasta la zona de seguridad de pare del semáforo; siendo dos (2) para circular hacia la avenida Costa – Costa y uno (1) para girar a la izquierda hacia Capdevilla. Por su parte, el acceso por la avenida Costa – Costa desde el puente de Calabazar hacia la CUJAE tiene tres (3) carriles en las inmediaciones de la intersección y se mantiene hasta la zona de seguridad de pare del semáforo. (figura 2). Figura 2. Vista de los accesos por la calle 114. Acceso CUJAE (izquierda); acceso Costa – Costa (derecha). Características de los accesos por la avenida Rancho Boyeros. La avenida Rancho Boyeros consta de seis (6) carriles, tres (3) por cada sentido de circulación con un separador central. A diferencia de los accesos por 114, los de la avenida Rancho Boyeros (figura 3), tanto el del aeropuerto como el de Capdevilla tienen características similares; teniendo tres (3) carriles cada uno, donde los carriles externos son exclusivos para la circulación de ómnibus, bicicletas y motos. Figura 3. Vista de los accesos por la avenida Rancho Boyeros. Acceso Aeropuerto (izquierda); acceso Capdevilla (derecha). Por los cuatro (4) accesos el ancho medio de los carriles es de 3,00 m, la rasante está a nivel y no está permitido el estacionamiento de vehículos. Los giros de derecha están canalizados mediante isletas. 3. CARACTERÍSTICAS DE LA SEMAFORIZACIÓN La intersección consta de tres fases semafóricas para vehículos, donde cada una de ellas funcionan a su vez para peatones, estando semaforizado el cruce peatonal. Los movimientos que incluyen cada una de las fases es como se muestra en las figuras 4, 5 y 6. Figura 4. Esquema de la fase 1 con los movimientos: Recto desde CUJAE hacia Costa – Costa e izquierda desde CUJAE hacia Capdevilla. Figura 5. Esquema de la fase 2 con los movimientos: Recto desde Costa - Costa hacia CUJAE e izquierda desde CUJAE hacia aeropuerto. Figura 6. Esquema de la fase 3 con los movimientos: Recto desde Capdevilla hacia aeropuerto y recto desde aeropuerto hacia Capdevilla. Tabla 1. Distribución de los tiempos de semáforos por cada acceso. Características de la semaforización Accesos CUJAE Costa - Costa Capdevilla y Aeropuerto Movimientos Recto e izquierda Recto e izquierda Recto Tiempo de ciclo (s) 98 Tiempo de verde (s) 32 30 24 Todo rojo (s) 1 1 1 Tiempo de amarillo (s) 3 3 3 Fase peatonal (s) NO NO Derecha con luz roja Las derechas están canalizadas 4. AFORO DE LOS VOLÚMENES DE TRÁNSITO Y PEATONES Para el estudio se tuvieron en cuenta tres aforos vehiculares correspondientes a: Julio 2015, Marzo 2020 y Junio 2022. También se poseen aforos de peatones de 2020 y 2022. Los estudios se realizaron en el periodo horario de 7:00am a 10:00am en intervalos de 30 minutos. Los resultados de estos estudios se muestran en las figuras 7, 8, 9 y 10. Figura 7. Gráficas con los volúmenes en autos equivalentes en los años 2015, 2020 y 2022 en el eje vehicular 114 y Costa – Costa. A la izquierda el acceso CUJAE hacia Costa – Costa y a la derecha el acceso Costa - Costa hacia CUJAE. En el acceso CUJAE hacia Costa – Costa el mayor volumen de vehículos se registró en el año 2015 para todos los intervalos de tiempo. En el año 2020 se alcanza el máximo volumen horario de 9:00 am a 9:30 am, y después ese valor decrece. En el año 2022 el mayor volumen registrado se obtiene en las horas tempranas de 7:30 am a 8:00 am y luego la tendencia es al decrecimiento. Por el acceso Costa - Costa hacia CUJAE, en 2015 se registra el mayor volumen en el intervalo horario de 7:30 am - 8:00 am, mientras que en el 2020 esto ocurre de 8:00 am - 8:30 am y finalmente en 2022 los mayores volúmenes se contabilizan de 9:30 am - 10:00 am. Figura 8. Gráficas con los volúmenes en autos equivalentes en los años 2015, 2020 y 2022 por la avenida Rancho Boyeros. Acceso desde Aeropuerto hacia Capdevilla (izquierda) y acceso desde Capdevilla hacia Aeropuerto (derecha). En el acceso desde Aeropuerto hacia Capdevilla los mayores volúmenes se registraron en el año 2015 para todos los intervalos horarios. Por su parte, desde Capdevilla hacia Aeropuerto, sucede prácticamente igual que en la otra dirección, con la excepción del intervalo horario de 9:00 am a 9:30 am que el 2020 tiene el mayor volumen. Realizando ya el análisis a nivel de intersección, en el año 2015 es donde fue registrado el mayor volumen de vehículos por intervalo horario en comparación con el año 2020 y 2022. El máximo volumen fue registrado en los horarios 7:30 am a 8:00 am, 9:00 am a 9:30 am y 8:00 am a 8:30 am en los años 2015, 2020 y 2022, respectivamente. (figura 9) Figura 9. Gráfica que muestra los volúmenes en autos equivalentes de la intersección de avenida Rancho Boyeros y Calle 114 en 2015, 2020 y 2022. Se contaba con estudio de peatones de los años 2020 y 2022. En 2020 el volumen máximo de peatones que circulan en la intersección ocurre en el intervalo horario de 8:30 am a 9:30 am y en 2022 de 7:30 am a 8:30 am. Entre los dos años se puede apreciar que en el año 2020 fue el que tuvo un mayor volumen de circulación de peatones con 1078, mientras que en el año 2022 se registraron 968 peatones. Figura 10. Gráfica que muestra los volúmenes de peatones en la intersección en los años 2020 y 2022. 5. DETERMINACIÓN DE LA HORA DE MÁXIMA DEMANDA VEHICULAR (HORA PICO – HP). La hora pico se determinó por cada uno de los accesos por año y para toda la intersección, sumando dos intervalos consecutivos de 30 minutos. Los resultados por intervalos para cada acceso se muestran en la tabla 2 y sombreado en amarillo, aparece la celda con el mayor volumen asociado a un intervalo de una hora que sería la hora pico. Tabla 2. Total de autos equivalentes (AE) por intervalo de una hora por años en cada acceso (sombreados los mayores volúmenes/horarios). Intervalo horario (am) Acceso CUJAE hacia Costa - Costa Acceso Costa - Costa hacia CUJAE Acceso desde Aeropuerto hacia Capdevilla Acceso desde Capdevilla hacia Aeropuerto 2015 2020 2022 2015 2020 2022 2015 2020 2022 2015 2020 2022 7:00-8:00 557 133 385 801 358 679 1193 492 702 992 253 578 7:30-8:30 554 183 462 764 445 856 1297 741 839 1086 455 809 8:00-9:00 488 298 415 629 602 833 1078 943 810 1187 706 847 8:30-9:30 502 428 401 668 663 815 966 916 713 1160 1008 831 9:00-10:00 544 416 374 669 706 758 986 876 804 1092 908 803 En la intersección coincide la HP en los años 2015 y 2022, siendo de 7:30 am a 8:30 am, mientras que en el 2020 fue de 8:30 am a 9:30 am (tabla 3). Tabla 3. Total de autos equivalentes (AE) por intervalo de una hora por años en la intersección. Intervalo horario Años del estudio 2015 2020 2022 7:00 am - 8:00 am 3542 1236 2342 7:30 am - 8:30 am 3700 1823 2965 8:00 am - 9:00 am 3381 2548 2904 8:30 am - 9:30 am 3296 3002 2760 9:00 am - 10:00 am 3290 2905 2739 También se determinó la HP por acceso y los tres años estudiados (tabla 4). Como resultado se obtuvo que para un mismo acceso no existe una única HP. Dentro de un mismo año, ocurre similar; es decir, todos los accesos no tienen la misma HP. La mayor homogeneidad ocurre en el 2022, donde la HP en tres de los cuatro accesos y la intersección es de 7:30 am a 8:30 am. Tabla 4. Hora Pico tabulada por accesos y años. Acceso Años del estudio 2015 2020 2022 Desde CUJAE 7:00 am -8:00 am 8:30 am-9:30 am 7:30 am-8:30 am Desde Costa - Costa 7:00 am -8:00 am 9:00 am-10:00 am 7:30 am-8:30 am Desde Aeropuerto 7:30 am-8:30 am 8:00 am-9:00 am 7:30 am-8:30 am Desde Capdevilla 8:00 am-9:00 am 8:30 am-9:30 am 8:00 am-9:00 am INTERSECCIÓN 7:30 am-8:30 am 8:30 am-9:30 am 7:30 am-8:30 am 6. ANÁLISIS DE LA SITUACIÓN EXISTENTE Y PROPUESTA DE SOLUCIONES. Se evalúa la calidad de servicio de la intersección por cada uno de sus accesos y de ella en su conjunto, a partir del análisis de la capacidad y el nivel de servicio de los años estudiados. Para ello se empleó el software Trafficware Synchro que permite simular las condiciones de operación en intersecciones semaforizadas a partir de los datos geométricos de ellas y de los flujos de vehículos y peatones. Estudio de las condiciones de operación en 2015, 2020 y 2022. Se muestra a continuación el modelo simulado con el comportamiento del tráfico vehicular y peatonal en el cada año (figura 11). Figura 11. Modelo simulado en Trafficware Synchro con el aforo vehicular correspondiente a cada año: 2015 (superior izquierda), 2020 (superior (derecha) y 2022 (imagen inferior). Como resultado de la modelación de las condiciones de operación, se obtuvieron las relaciones volumen/capacidad y niveles de servicio (NS) por movimientos (tabla 5) y por accesos (tabla 6). Tabla 5. Resultados tabulados con indicadores de la calidad de la circulación en 2015, 2020 y 2022. Indicadores Accesos CUJAE Costa - Costa Aeropuerto Capdevilla Izq hacia Capdevilla Recto hacia Costa - Costa Izq hacia aeropuerto Recto hacia CUJAE Recto hacia Capdevilla Recto hacia aeropuerto v/c 2015 1,00 0,98 0,61 0,91 0,87 0,70 2020 0,38 0,62 0,84 0,85 0,64 0,88 2022 0,33 0,55 1,20 0,83 0,58 0,55 NS 2015 F E D D C C 2020 C C D D C C 2022 C C F D C C A partir de los resultados se pueden realizar algunas valoraciones. ✓ De los tres años estudiados, los movimientos del acceso Costa- Costa muestra en dos de ellos (2020 y 2022) los NS más desfavorables respecto al resto. 2015 2020 2022 ✓ Los resultados indican que el carril del movimiento de izquierda por el acceso Costa – Costa hacia el Aeropuerto en 2022 y del acceso CUJAE hacia Capdevilla en 2015 funcionan por encima de su capacidad (v/c = 1,20 y 1,00 respectivamente). Esto indica que hay congestión. ✓ El NS más desfavorable para el acceso CUJAE en sus dos movimientos fue en 2015, teniendo el mismo NS en 2020 y 2022. La relación volumen - capacidad (v/c) decrece. ✓ Los movimientos por ambos accesos de Boyeros mantienen el mismo nivel de servicio durante los tres años estudiados, incluso con cambios en la relación v/c. ✓ Analizando la correspondencia entre el nivel de servicio y la relación volumen - capacidad, lo más llamativo es que en 2015 el movimiento de izquierda desde Costa – Costa hacia aeropuerto tiene una relación v/c = 0,61; que es inferior a la de los movimientos que se producen por Boyeros (0,87 y 0,70); sin embargo, el nivel de servicio es más desfavorable, “D” y “C” respectivamente. Tabla 6. Nivel de servicio por acceso según el aforo correspondiente a los años 2015, 2020 y 2022. Accesos Nivel de Servicio 2015 2020 2022 CUJAE F C C Costa - Costa D D F Capdevilla C C C Aeropuerto C C C Si se analiza cada acceso integralmente, obsérvese que los del eje vial de la avenida Rancho Boyeros tienen buen nivel de servicio (C) en todos los años. Por su parte, el acceso CUJAE mejora en 2020 y 2022 (NS: C), respecto al 2015 (NS: F), lo que tiene su explicación ya que en el primer año de estudio se registraron los mayores aforos horarios. Por el acceso Costa – Costa, la situación es a la inversa, es decir, tenía un NS favorable (NS: D) y pasó a uno deficiente (F) que indica congestión. La intersección tiene un nivel de servicio “D”, que es adecuado y con un grado de utilización de la capacidad evaluado de “C”. existiendo correspondencia. Propuesta de rediseño de la semaforización actual y fases existentes. Con los volúmenes aforados se calculó un nuevo tiempo de ciclo empleando el Método de Webster, obteniéndose un tiempo de ciclo óptimo de 52 seg, un tiempo de verde efectiva total de 38 seg, siendo de 13, 8 y 17 seg para las fases 1, 2 y 3 respectivamente. Tabla 7. Reporte de la simulación en Trafficware Synchro de la propuesta de nuevo ciclo semafórico. Lane Group EBL EBT EBR WBL WBT WBR NBL NBT NBR SBL SBT SBR Lane Configurations Traffic Volume (vph) 105 358 0 358 499 0 0 839 0 0 809 0 Future Volume (vph) 105 358 0 358 499 0 0 839 0 0 809 0 Ideal Flow (vphpl) 1800 1800 1800 1800 1800 1800 1800 1800 1800 1800 1800 1800 Lane Width (m) 3.0 3.0 3.0 3.0 3.0 3.0 3.0 3.0 3.0 3.0 3.0 3.0 Lane Util. Factor 1.00 0.95 1.00 1.00 0.95 1.00 1.00 0.91 1.00 1.00 0.91 1.00 Frt Flt Protected 0.950 0.950 Satd. Flow (prot) 1438 2850 0 1425 2776 0 0 4298 0 0 4183 0 Flt Permitted 0.950 0.950 Satd. Flow (perm) 1438 2850 0 1425 2776 0 0 4298 0 0 4183 0 Right Turn on Red No No No No Satd. Flow (RTOR) Link Speed (k/h) 40 40 50 50 Link Distance (m) 295.7 293.0 377.0 414.1 Travel Time (s) 26.6 26.4 27.1 29.8 Peak Hour Factor 0.91 0.91 0.92 0.91 0.90 0.92 0.92 0.94 0.92 0.92 0.97 0.92 Heavy Vehicles (%) 11% 12% 2% 12% 15% 2% 2% 4% 2% 2% 7% 2% Bus Blockages (#/hr) 0 0 0 0 0 0 0 19 0 0 18 0 Adj. Flow (vph) 115 393 0 393 554 0 0 893 0 0 834 0 Shared Lane Traffic (%) Lane Group Flow (vph) 115 393 0 393 554 0 0 893 0 0 834 0 Enter Blocked Intersection No No No No No No No No No No No No Lane Alignment Left Left Right Left Left Right Left Left Right Left Left Right Median Width(m) 3.0 3.0 0.0 0.0 Link Offset(m) 0.0 0.0 0.0 0.0 Crosswalk Width(m) 4.8 4.8 4.8 4.8 Two way Left Turn Lane Headway Factor 1.17 1.17 1.17 1.17 1.17 1.17 1.17 1.21 1.17 1.17 1.21 1.17 Turning Speed (k/h) 25 15 25 15 25 15 25 15 Turn Type Split NA Split NA NA NA Protected Phases 4 4 8 8 2 2 Permitted Phases Minimum Split (s) 13.0 13.0 22.0 22.0 17.0 17.0 Total Split (s) 13.0 13.0 22.0 22.0 17.0 17.0 Total Split (%) 25.0% 25.0% 42.3% 42.3% 32.7% 32.7% Maximum Green (s) 8.0 8.0 17.0 17.0 13.0 13.0 Yellow Time (s) 3.0 3.0 3.0 3.0 3.0 3.0 All-Red Time (s) 2.0 2.0 2.0 2.0 1.0 1.0 Lost Time Adjust (s) -1.0 -1.0 -1.0 -1.0 0.0 0.0 Total Lost Time (s) 4.0 4.0 4.0 4.0 4.0 4.0 Lead/Lag Lead-Lag Optimize? Walk Time (s) 5.0 5.0 5.0 5.0 5.0 5.0 Flash Dont Walk (s) 11.0 11.0 11.0 11.0 11.0 11.0 Pedestrian Calls (#/hr) 0 0 0 0 0 0 Act Effct Green (s) 9.0 9.0 18.0 18.0 13.0 13.0 Actuated g/C Ratio 0.17 0.17 0.35 0.35 0.25 0.25 v/c Ratio 0.46 0.80 0.80 0.58 0.83 0.80 Lane Group EBL EBT EBR WBL WBT WBR NBL NBT NBR SBL SBT SBR Lane Configurations Traffic Volume (vph) 105 358 0 358 499 0 0 839 0 0 809 0 Future Volume (vph) 105 358 0 358 499 0 0 839 0 0 809 0 Ideal Flow (vphpl) 1800 1800 1800 1800 1800 1800 1800 1800 1800 1800 1800 1800 Lane Width (m) 3.0 3.0 3.0 3.0 3.0 3.0 3.0 3.0 3.0 3.0 3.0 3.0 Lane Util. Factor 1.00 0.95 1.00 1.00 0.95 1.00 1.00 0.91 1.00 1.00 0.91 1.00 Frt Flt Protected 0.950 0.950 Satd. Flow (prot) 1438 2850 0 1425 2776 0 0 4298 0 0 4183 0 Flt Permitted 0.950 0.950 Satd. Flow (perm) 1438 2850 0 1425 2776 0 0 4298 0 0 4183 0 Right Turn on Red No No No No Satd. Flow (RTOR) Link Speed (k/h) 40 40 50 50 Link Distance (m) 295.7 293.0 377.0 414.1 Tr vel Time (s) 26.6 26.4 27. 29. Peak Hour Factor 0.91 0.91 .92 .91 0.90 0.92 0.92 0.94 0.92 0.92 0.97 0.92 Heavy Vehicles (%) 11% 12% 2% 12% 15% 2% 2% 4% 2% 2% 7% 2% Bus Blockages (#/hr) 0 0 0 0 0 0 0 19 0 0 18 0 Adj. Flow (vph) 115 393 0 393 554 0 0 893 0 0 834 0 Shared Lane Traffic (%) Lane Group Flow (vph) 115 393 0 393 554 0 0 893 0 0 834 0 Enter Blocked Intersection No No No No No No No No No No No No Lane Alignment Left Left Right Left Left Right Left Left Right Left Left Right Median Width(m) 3.0 3.0 0.0 0.0 Link Offset(m) 0.0 0.0 0.0 0.0 Crosswalk Width(m) 4.8 4.8 4.8 4.8 Two way Left Turn Lane Headway Factor 1.17 1.17 1.17 1.17 1.17 1.17 1.17 1.21 1.17 1.17 1.21 1.17 Turning Speed (k/h) 25 15 25 15 25 15 25 15 Turn Type Split NA Split NA NA NA Protected Phases 4 4 8 8 2 2 Permitted Phases Minimum Split (s) 13.0 13.0 22.0 22.0 17.0 17.0 Total Split (s) 13.0 13.0 22.0 22.0 17.0 17.0 Total Split (%) 25.0% 25.0% 42.3% 42.3% 32.7% 32.7% Maximum Green (s) 8.0 8.0 17.0 17.0 13.0 13.0 Yellow Time (s) 3.0 3.0 3.0 3.0 3.0 3.0 All-Red Time (s) 2.0 2.0 2.0 2.0 1.0 1.0 Lost Time Adjust (s) -1.0 -1.0 -1.0 -1.0 0.0 0.0 Total Lost Time (s) 4.0 4.0 4.0 4.0 4.0 4.0 Lead/Lag Lead-Lag Optimize? Walk Time (s) 5.0 5.0 5.0 5.0 5.0 5.0 Flash Dont Walk (s) 11.0 11.0 11.0 11.0 11.0 11.0 Pedestrian Calls (#/hr) 0 0 0 0 0 0 Act Effct Green (s) 9.0 9.0 18.0 18.0 13.0 13.0 Actuated g/C Ratio 0.17 0.17 0.35 0.35 0.25 0.25 v/c Ratio 0.46 0.80 0.80 0.58 0.83 0.80 Queue Delay 0.0 0.0 0.0 0.0 0.0 0.0 Total Delay 26.3 35.6 30.8 16.8 27.3 25.8 LOS C D C B C C Approach Delay 33.5 22.6 27.3 25.8 Approach LOS C C C C Stops (vph) 92 308 289 385 722 697 Fuel Used(l) 10 38 31 38 64 63 CO Emissions (g/hr) 191 698 578 700 1188 1181 NOx Emissions (g/hr) 37 135 112 135 229 228 VOC Emissions (g/hr) 44 161 133 161 274 272 Dilemma Vehicles (#) 0 0 0 0 0 0 Intersection Summary Area Type: Other Cycle Length: 52 Actuated Cycle Length: 52 Natural Cycle: 55 Maximum v/c Ratio: 0.83 Intersection Capacity Utilization 58.5% ICU Level of Service B Splits and Phases: 2: Avenida Rancho Boyeros & Calle 114 Analysis Period (min) 15 Control Type: Pretimed Lane Group EBL EBT EBR WBL WBT WBR NBL NBT NBR SBL SBT SBR Control Delay 26.3 35.6 30.8 16.8 27.3 25.8 Offset: 0 (0%), Referenced to phase 2:NBSB, Start of Green Intersection Signal Delay: 26.5 Intersection LOS: C Queue Delay 0.0 0.0 0.0 0.0 0.0 0.0 Total Delay 26.3 35.6 30.8 16.8 27.3 25.8 LOS C D C B C C Approach Delay 33.5 22.6 27.3 25.8 Approach LOS C C C C Stops (vph) 92 308 289 385 722 697 F l Used(l) 1 38 31 38 64 63 CO Emissions (g/hr) 191 698 57 700 1188 1181 N x Emissions (g/hr) 37 135 112 135 229 228 VOC Emissions (g/hr) 44 161 133 161 274 272 Dilemma Vehicles (#) 0 0 0 0 0 0 Intersection Summary Area Type: Other Cycle Length: 52 Actuated Cycle Length: 52 Natural Cycle: 55 Maximum v/c Ratio: 0.83 Intersection Capacity Utilization 58.5% ICU Level of Service B Splits and Phases: 2: Avenida Rancho Boyeros & Calle 114 Analysis Period (min) 15 Control Type: Pretimed Lane Group EBL EBT EBR WBL WBT WBR NBL NBT NBR SBL SBT SBR Control Delay 26.3 35.6 30.8 16.8 27.3 25.8 Offset: 0 (0%), Referenced to phase 2:NBSB, Start of Green Intersection Signal Delay: 26.5 Intersection LOS: C Como resultado, respecto a las condiciones actuales, se mejora el nivel de servicio del acceso Costa – Costa, que pasa de “F” a “C”, manteniendo los otros tres accesos el nivel de servicio actual que es “C”. La intersección pasa de NS: D a “C”, y el grado de utilización de la capacidad (ICU, de sus siglas en inglés) cambia de “D” a “B” representando ambos una mejora. 7. CONCLUSIONES De acuerdo a los resultados obtenidos y a partir de las consideraciones que se fueron planteando al estudiar cada situación, se puede concluir lo siguiente: ✓ La intersección se encuentra funcionando a un nivel que todavía no es crítico, pero muestra síntomas de inestabilidad lo que puede provocar maniobras erráticas o indebidas que afectan la seguridad vial. ✓ Los niveles de servicios y el grado de utilización de la capacidad en la intersección pueden ser mejorados al cambiar el tiempo de ciclo que actualmente está operando por el que se realiza en este estudio. ✓ Se propone ampliar a cuatro (4) carriles la vía de dos (2) carriles, que se encuentra antes del cruce de la vía de ferrocarril, desde el acceso CUJAE por calle 114, debido al estrangulamiento que se provoca actualmente a la circulación, que ocasiona una interrupción al flujo vehicular en momentos específicos. BIBLIOGRAFÍA 1. Asamblea Nacional del Poder Popular, Ley No.109. 2010. 2. Bestard, A., Evaluación de efectividad de medidas para la circulación en intersecciones de La Habana, Departamento de Ingeniería Vial, Facultad de Ingeniería Civil. 2015, Instituto Superior Politécnico “José Antonio Echeverría”. La Habana, Cuba. 3. Cal y Mayor Reyes Spindola, R. y Cardenas Grisales, J., Ingeniería de Tránsito: Fundamentos y aplicaciones. 2010, La Habana. Editorial Félix Varela. 4. Calatayud, A., et al, Congestión urbana en América Latina y el Caribe: características, costos y mitigación. 2021, Banco Interamericano de Desarrollo (BID) - División de Transporte. p. 153. 5. Calatayud, A., et al, COVID-19 y movilidad urbana: más congestión en el horizonte cercano, moviliblog. 2020, Banco Interamericano de Desarrollo (BID). 6. Cueva, J.B., Síntesis de intersecciones, señalización y semáforos. Análisis de medidas para reducir la congestión. 2012, Universidad de Cuenca. 7. Inocencio, G., Medidas de organización del tránsito en Marianao, Departamento de Ingeniería Vial, Facultad de Ingeniería Civil. 2013, Instituto Superior Politécnico “José Antonio Echeverría”. La Habana, Cuba. 8. León, M., La movilidad durante COVID-19 en América Latina y Caribe: riesgos, realidades y oportunidades (Parte I y II), moviliblog. 2020, Banco Interamericano de Desarrollo (BID). 9. Loyola, Y., Análisis de la circulación en las arterias urbanas, Departamento de Ingeniería Vial, Facultad de Ingeniería Civil. 2007, Instituto Superior Politécnico “José Antonio Echeverría”. La Habana, Cuba. 10. Mesa, E., Análisis de la seguridad y la circulación en arterias urbanas, Departamento de Ingeniería Vial, Facultad de Ingeniería Civil. 2009, Instituto Superior Politécnico “José Antonio Echeverría”. La Habana, Cuba. 11. Miranda, M., Medidas de gestión del tránsito en un tramo de la arteria Santa Catalina, Departamento de Ingeniería Vial, Facultad de Ingeniería Civil. 2010, Instituto Superior Politécnico “José Antonio Echeverría”. La Habana, Cuba. 12. Richard, P., Análisis de la circulación en la intersección semaforizada de Ave 51 y calle 114, Departamento de Ingeniería Vial. 2004, Instituto Superior Politécnico “José Antonio Echeverría”. La Habana, Cuba. 13. Ruiz, M. Consideraciones para el diseño de intersecciones a nivel. 2007; http://www.monografias.com/trabajos-pdf4/consideraciones-diseno-intersecciones- nivel/consideraciones-diseno-intersecciones-nivel.shtml. 14. Sablón, Y., Análisis de la efectividad de cadenas sincronizadas de semáforos, Departamento de Ingeniería Vial, Facultad de Ingeniería Civil. 2013, Instituto Superior Politécnico “José Antonio Echeverría”. La Habana, Cuba. 15. Transportation Research Board, Highway Capacity Manual. 2010: United State of America. sobre los autores Reynier Moll Martínez. Doctor en Ciencias Técnica en 2017. Especialista en infraestructura vial e ingeniería de tránsito. Es Profesor Titular de la Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE) desde 2019. Posee más de una decena de publicaciones de artículos científicos en revistas de impacto, monografías y participación en eventos. Tutor de 29 tesis de graduación y dos tesis de Maestría. Miembro del Comité de expertos de la Junta de Acreditación Nacional (JAN) de Cuba para los procesos de acreditación de la carrera de Ingeniería Civil y programas de Maestría afines. Alfredo Javier Heredia Mons, ingeniero recién graduado en Julio de 2022 por la Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE). FENÓMENOS NATURALES A LOS QUE SE EXPONEN LAS TORRES DE TELECOMUNICACIONES EN CUBA. Elvia Teresa Castro Figueredo1, DrC. Eduardo Álvarez Deulofeu2 1 Departamento de Proyecto Región Oriental. División de Proyecto y Ejecución de Obras. Empresa de telecomunicaciones de Cuba (ETECSA). Granma, Cuba. Dirección postal: Cisnero #6 entre Mariano Corrona y Ramirez, Rpto: El Cristo, Bayamo, Granma. e-mail: elvia.castro@etecsa.cu. 2 Facultad de Construcciones, Universidad de Oriente. Santiago de Cuba, Cuba. e-mail: ealvarez@uo.edu.cu RESUMEN Las telecomunicaciones y la informatización es un sector de desarrollo estratégico para la nación, razón por la que es imprescindible que la infraestructura que se conciba para su desarrollo sea perdurable y resistente a los embates e inclemencias de la naturaleza, ya sean meteorológicos o telúricos. En este trabajo se hace un análisis de los fenómenos naturales que afectan y que pueden afectar las torres de comunicaciones en el país. Se recopilaron datos relacionados con la cantidad de torres instaladas y las dañadas por ciclones, así como las colocadas en la zona de mayor sismicidad del país. Llegándose a la conclusión que son los ciclones los eventos que más han golpeado a estas estructuras y que la ocurrencia de un sismo de alta magnitud es el peligro natural más inminente después de los ciclones al que se exponen. Este trabajo da pie a investigaciones posteriores relacionadas con el estudio del comportamiento de las torres ante los posibles efectos sísmicos que se generen en el territorio. PALABRAS CLAVES: fenómenos naturales, torres de telecomunicaciones, peligros naturales. NATURAL PHENOMENA TO WHICH TELECOMMUNICATION TOWERS ARE EXPOSED IN CUBA. ABSTRACT Telecommunications and computerization is a strategic development sector for the nation. Reason why it is essential that the infrastructure that is conceived for its development is durable and resistant to the onslaught and inclemency of nature, whether meteorological or telluric. In this work an analysis is made of the natural phenomena to see and that can affect the communication towers in the country. Data were collected related to the number of towers installed and those damaged by cyclones, as well as those placed in the area with the highest seismicity in the country. Reaching the conclusion that cyclones are the events that have hit these structures the most and that the occurrence of a high-magnitude earthquake is the most eminent natural hazard after the cyclones to which they are exposed. This work gives rise to further research related to the study of the behavior of the towers before the possible seismic effects that are generated in the territory. KEY WORDS: natural phenomena, telecommunications towers, natural hazards. 1. INTRODUCCIÓN En la concepción del modelo económico, político y social de Cuba, se concibe a las telecomunicaciones y la informatización como un sector de desarrollo estratégico para la nación. Razón por la que es imprescindible que la infraestructura que se conciba para su desarrollo sea perdurable y resistente a los embates e inclemencias de la naturaleza, ya sean meteorológicos o telúricos. Dentro de las infraestructuras de las telecomunicaciones las torres son de gran importancia, debido a que estas son las portantes de las antenas encargadas de transmisión de las ondas. En los sistemas de comunicaciones internacional y nacional suelen utilizarse fundamentalmente dos tipos de torres como infraestructura para el soporte de las antenas de comunicaciones: las torres autosoportadas o autoestables y las arriostradas o atirantadas. Las fallas en este tipo de estructuras resultan frecuentes en condiciones severas de trabajo debido a fuertes cargas de viento, pero, no solo se ven afectadas por estos fenómenos, también pueden ser afectadas por sismos, fallas estructurales en edificaciones, entre otros daños que pueden ser ocasionados por fenómenos naturales o por el hombre. El objetivo principal de esta investigación es exponer los fenómenos naturales que han dañado y que pueden dañar estas estructuras en el territorio nacional. Para lograr el objetivo propuesto se realizó una búsqueda bibliográfica para identificar los fenómenos naturales que han dañado a las torres de telecomunicaciones en el territorio nacional y la existencia de otros que puedan representar un peligro para la seguridad de estas. 2. RESULTADOS Los desastres naturales son acontecimientos recurrentes a lo largo de la historia. A nivel mundial, estos eventos causan un gran número de pérdidas humanas y materiales; sin embargo, sólo a partir de los últimos 20 o 30 años han sido objeto de particular atención, por los altos porcentajes de desastres naturales que han venido ocurriendo hasta el momento. Cuba no ha estado exenta de estos hechos, los cuales antes del triunfo revolucionario ocasionaban una enorme cantidad de pérdidas humanas y materiales, provocado por la falta de preparación que existía al respecto en la población en aquellos momentos. Los daños por desastres naturales en la isla han ido disminuyendo con el paso del tiempo (…), gracias a la capacidad de respuesta que hoy muestra la isla ante los ciclones tropicales y otros desastres naturales. [1] Ante la ocurrencia de un sismo, huracán u otro desastre natural los sistemas de telecomunicaciones pueden presentar inconvenientes como: colapso total o parcial de la infraestructura de las centrales telefónicas y estaciones repetidoras de telefonía móvil y fija. La caída o inclinación de torres de control de telecomunicaciones. Daños en la infraestructura de torres y antena. Caída de postes de las redes de planta externa; entre otras. Las comunicaciones durante las situaciones de desastre son vitales para la población, mantenerse informados y localizables en estos casos es primordial; por lo que el restablecimiento lo más rápido posible de las comunicaciones después de una catástrofe, garantiza la salva guardia de una mayor cantidad de vidas humanas. Los sistemas de comunicaciones internacionales y nacionales utilizan como infraestructura para el soporte de las antenas de comunicaciones, torres metálicas reticuladas o torres de celosías, las que pueden ser autosoportadas o atirantadas y de distintas alturas y secciones. Estas estructuras suelen ser elementos esbeltos y ligeros con un diseño condicionado fundamentalmente por las cargas ecológicas. [2] En Cuba hasta el año 2020 se encontraban instaladas a lo largo y ancho del país aproximadamente 1925 torres de comunicación, de distintas alturas, modelos y nacionalidades, como son las TAS, MOYANO, AUX-42 (torres autosoportadas), las GNC y las AT (torres atirantadas), entre otras. La mayoría de estas torres se encuentran sobre terreno, generalmente altos y expuestos como colinas o montañas y el resto sobre cubiertas de edificios. La isla es un territorio acechado por huracanes, desde 1996 hasta 2006 los organismos ciclónicos han doblegado 33 torres de telecomunicaciones [2], dejando sin televisión, radio o teléfonos móviles a millones de personas y causando pérdidas cuantiosas; siendo la principal vulnerabilidad de las torres de telecomunicaciones la carga de viento, especialmente en el caso de ciclones (Figura 1). Figura 1. Torres caídas ante el paso de un huracán. Fuente: [2] El número de torres afectadas por fenómenos meteorológicos ha disminuido considerablemente en la última década (13), en comparación con la década anterior. No se conoce la razón exacta de esta disminución, la misma puede estar relacionada con la disminución de los eventos de este tipo que afectaron al territorio nacional en ese período o con las características y condiciones de las torres existentes en el momento del paso de estos. En la tabla 1 se muestran los fenómenos meteorológicos que han ocurrido en los últimos 10 años y las cantidades de torres dañas por estos. Tabla 1. Fenómenos meteorológicos ocurrido en los últimos 10 años en Cuba y torres dañas por estos. (Fuente: El autor, 2022) Años Huracanes Torres Afectadas Provincias 2010 Tres tormentas afectaron a Cuba, sin daños materiales. 2011 No hubo afectaciones de organismos ciclónicos 2012 Sandy 4 Santiago de Cuba 2 Holguín 1 Guantánamo Hasta el 2015 No hubo afectaciones de organismos ciclónicos 2016 Mattehew 0 2017 Irma 2 Villa Clara 4 Ciego de Ávila 2018 Michel 0 2019 No hubo afectaciones de organismos ciclónicos 2020 Laura 0 Eta 0 Total de torres dañadas 13 Aunque la parte central y occidental del país han sido históricamente las más afectadas por estos eventos hidrometeorológicos, se puede observar que los daños en las torres en los últimos años han ocurrido mayormente en las provincias orientales y en menor medida en las provincias centrales y occidentales. Cuba además de ser acechado constantemente por huracanes, posee zonas con distintos grados de sismicidad, destacándose la región oriental del país la que está considerada la de mayor peligro sísmico por su cercanía al límite de la placa de Norteamérica y la microplaca de Gonave. La sismicidad de esta región presenta una característica significativa que hace compleja su evaluación en algunas áreas; ello está dado en el hecho de que se manifiestan dos tipos de sismos: de entre placas y de interior de placa. Significando, que en todas partes de la región no existe el mismo nivel de potencialidad sísmica, y se destaca en el primer tipo de sismicidad la parte suroriental, por la frecuencia de ocurrencia de terremotos y por los altos valores de magnitud e intensidad alcanzados históricamente. [3] Solo en el año 2018 la red de estaciones sismológicas cubana registró 2 575 eventos con magnitudes hasta 5.9; en el año 2019 se detectaron 2 986 eventos con magnitudes hasta 4, y en el primer semestre de 2020, año muy activo, se registraron 2 925 eventos, con magnitudes hasta de 7.7, concentrándose el mayor número en esta porción del territorio nacional (Figura 2) [4] Figura 2. Sismos registrados durante los años 2018, 2019 y primer semestre de 2020 (CENAIS 2019, 2020a, 2020b). Fuente: [4] En la zona de mayor sismicidad del territorio nacional (Granma, Santiago de Cuba y Guantánamo) se encuentran instaladas un total de 314 torres entre atirantadas y auntosoportadas, esto sin tener en cuenta los demás sistemas de soporte de antenas, como son los Trípodes o los Monopolos. (Tabla 2). Tabla 2. Torres instaladas en la zona de mayor sismicidad de Cuba. (Fuente: El autor, 2022) Provincias Tipo de torres Total Atirantadas Autosoportadas Granma 107 15 122 Santiago de Cuba 93 22 115 Guantánamo 57 20 77 Total de torres en zona de mayor sismicidad 314 Aunque en el país no existe una evidencia o registro de daños causados a las torres por ocurrencia de sismos de alta magnitud, no significa que ante la ocurrencia de un fenómeno de esta índole no sean afectadas; además, conociendo los daños que estos producen a la economía, las comunicaciones y la sociedad, es necesario que la evaluación del comportamiento de estas estructuras, se realice no solo para las cargas de vientos extremos presentes, sino también para las cargas sísmicas, siendo de especial importancia para la región sur oriental del país. Las Ing. Patricia Martín Rodríguez y Vivian Elena Parnás motivadas por el aumento de la actividad sísmica en la zona sur oriental del país en el 2010 y el desconocimiento del comportamiento estructural de las torres nacionales antes estos esfuerzos, realizan en el 2012 el estudio de análisis sísmico de dos modelos cubanos de torres autosoportadas de telecomunicaciones (Modelo Versalles y Modelo Najasa). En esa investigación las autoras comparan los valores de las fuerzas interiores en los elementos estructurales de torres autosoportadas con la aplicación del método de análisis modal planteado en la Norma Cubana de Sismo (NC-46:1999) y el método de análisis dinámico lineal de superposición modal time history; con la que se resuelve la incertidumbre del desconocimiento del comportamiento de los modelos cubanos de torres autosoportadas instaladas en el país. [5] En Cuba, además de los modelos cubanos de torres se emplean disímiles modelos que son importadas como son las TAS, MOYANO, AUX-42 (torres autosoportadas), las GNC y las AT (torres atirantadas), entre otras. No existí registro de estudios del comportamiento sismorresistente de los modelos de torres extranjeras presentes en la isla, razón por lo que se hace necesario evaluar el comportamiento de estas ante los efectos de la fuerza sísmica existente, para su empleo efectivo sobre todo en la región de mayor peligrosidad sísmica. 3. DISCUSIÓN DE LOS RESULTADOS Las torres afectadas por ciclones en Cuba en los últimos 10 años representan menos del 1 % (0.68%) del total de instaladas en el país. Grafico 1. Grafico 1: Torres afectadas por ciclones en los últimos 10 años en Cuba. La cantidad de torres atirantadas y autosoportadas instaladas en la zona de mayor sismicidad del país representa el 16 % (16.31%) de las instalada. Grafico 2. Grafico 2: Torres colocadas en la zona de mayor sismicidad de Cuba. El por ciento de torres afectadas por ciclones en los últimos 10 años en el país es bajo, lo que no significa que los perjuicios a la sociedad y a la economía sean menores. Tal es así, que la afectación a una torre de soporte de una Radio Base cuya cobertura servicia a 10 700 móviles, representaría una pérdida económica diaria para la empresa de Telecomunicaciones de Cuba (ETECSA) estimada aproximadamente en 1830 USD y 11723.33 CUP, sin tener en cuenta los gastos para su reposición que ascenderían aproximadamente unos 50 000 USD. El por ciento de torres atirantadas y autosoportadas instaladas en la zona de mayor sismicidad del territorio nacional no es despreciable, por lo que las pérdidas económicas y las afectaciones a la población en caso de un desastre de esta naturaleza serán superior a las provocadas por los ciclones. Razón que justifica la necesidad de conocer el comportamiento sismoresistentes de estas estructuras para las fuerzas sísmicas presentes en el país y sobre todo en la zona de mayor sismicidad del mismo. 4. CONCLUSIONES Las evidencias demuestran que los daños por fenómenos naturales que han sufrido las torres de telecomunicaciones en Cuba están relacionados con el paso de ciclones por el territorio. Siendo el porciento de torres afectadas por estos eventos en los últimos 10 años muy bajo (0.68 %) en relación con las instaladas. La ocurrencia de un sismo de gran magnitud es el peligro natural más inminente después de los ciclones a los que están expuestas las torres de telecomunicaciones en Cuba. Siendo la zona de la región sur oriental del país la más propensa a la ocurrencia de estos fenómenos. La cantidad de torres atirantadas y autosoportadas instaladas en la región sur oriental del país representa más del 15 % de las existentes en la isla (16.3 %), porciento nada despreciable. La presencia de torres importadas en el país y el desconocimiento de su comportamiento estructural sismoresistente antes las condiciones de propias del territorio, obliga al estudio de las mismas. RECONOCIMIENTOS Los autores desean agradecer por la gestión y resección de los datos de las torres instaladas y dañadas a la Ing. Orlinda, al Ing. Héctor M. Castillo Rojas, al Ing. Humberto Hervella Mateos y al MsC. David Fiffe Londres. REFERENCIAS 1. JASIEL FÉLIX FERREIRO CONCEPCIÓN. "La estadística y los desastres naturales en cuba”. Revista Caribeña de Ciencias Sociales, noviembre 2016, En Línea: http://www.eumed.net/rev/caribe/2016/11/estadistica.html. 2. VIVIAN ELENA PARNÁS. "Fallas estructurales en torres reticuladas para telecomunicaciones". Revista científica de Arquitectura y Urbanismo, 2008, Vol.29, No 2-3, pp. 57, Ciudad de La Habana, 3. CHUY-RODRÍGUEZ, T. J., DESPAIGNE-LONGCHAMP, G., & GONZÁLEZ-SIMÓN, L. "Peligrosidad sísmica de la región de Santiago de Cuba". Revista Minería y Geología, 2001, Vol. 18, No 2, pp. 6. 4. ITURRALDE-VINENT, M. A., & ARANGO-ARIAS, E. D. (). "Ciudades de Cuba en alerta sísmica". Revista Minería y Geología, 2020, Vol. 36, No 4, pp. 366-376. 5. PATRICIA MARTÍN RODRÍGUEZ AND VIVIAN ELENA PARNÁS. "Análisis sísmico de modelos cubanos de torres autosoportadas de telecomunicaciones". Revista Cubana de Ingeniería, 2012, Vol. 3, No 3, pp. 25-34. Sobre los autores Elvia Teresa Castro Figueredo nacida en Bayamo el 23 de enero de 1991. Graduada de Ingeniería Civil en la Universidad de Oriente en el año 2014. Cursa la Maestría Ingeniería Civil en Zona Sísmica en la Universidad de Oriente. Ocupa el cargo de Esp. A en Obras de Arq. en la empresa de Telecomunicaciones de Cuba desde el 2016 hasta la actualidad. Participo en el IV Evento Nacional ‘’Producciones más limpias’’ en el año 2018 celebrado en Cienfuegos, en el III Taller internación de Jóvenes Profesionales en el año 2019 celebrado en Santiago de Cuba y en la II Convención Científica Internacional UCLV 2019 celebrada en la ciudad de Santa Clara. Miembro de la Unión Nacional de Arquitectos e ingeniero de la construcción de Cuba desde octubre del 2014. Eduardo Álvarez Deulofeu: Doctor en Ciencia, Profesor titular de pregrado y posgrado de la facultad de Construcciones de la Universidad de Oriente. Miembro de la Unión Nacional de Arquitectos e ingeniero de la construcción de Cuba. CONTRIBUCIÓN DEL DESARROLLO SOSTENIBLE EN LA FORMACIÓN DE LOS PROFESIONALES DE INGENIERÍA CIVIL Bernardo Omar González Morales1, Armando Juan Velázquez Rangel2, Manuel de Jesús Rodríguez Quintero3 1Universidad Central Marta Abreu de Las Villas, Carretera de Camajuaní Km5½ .Santa Clara. Villa Clara. Cuba, 2Universidad Central Marta Abreu de Las Villas, Carretera de Camajuaní Km5½. Santa Clara. Villa Clara. Cuba, 3Universidad Central Marta Abreu de Las Villas, Carretera de Camajuaní Km5½. Santa Clara. Villa Clara. Cuba. 1e-mail: bernardogm@uclv.edu.cu2e-mail: velazquez@uclv.edu.cu, 3e-mail: mquintero@uclv.cu RESUMEN La educación para la sostenibilidad es un movimiento internacional de pensamiento y acción que promueve el respeto y cuidado de las personas – incluidas las generaciones presentes y futuras, de la diversidad, del medio ambiente y de los recursos del planeta. En el presente trabajo se propone un sistema de actividades orientadas hacia la preparación teórico - metodológico de los tutores que atiende la Práctica Laboral en Obra en la carrera de Ingeniería Civil de la Facultad de Construcciones de la Universidad Central “Marta Abreu” de Las Villas, en la Empresa Constructora de Obras para el Turismo Cayo Santa María, a partir del Desarrollo Sostenible y los problemas locales para potenciar su incorporación al proceso de enseñanza aprendizaje. Para el cumplimiento de los objetivos se utilizaron métodos de nivel teórico y empírico que permitieron diagnosticar estado actual del problema. En la investigación se analizó como el sistema de actividades docentes propuestas en la investigación contribuyó al desarrollo profesional de los tutores en las obras, esto mejoró su preparación en el tratamiento a la componente desarrollo sostenible y los problemas locales, estas acciones favorecieron un aprendizaje desarrollador en los futuros ingenieros. PALABRAS CLAVES: Desarrollo sostenible, educación, proceso de enseñanza aprendizaje, práctica laboral. CONTRIBUTION OF SUSTAINABLE DEVELOPMENT IN THE TRAINING OF CIVIL ENGINEERING PROFESSIONAL Education for sustainability is an international movement of thought and action that promotes respect and care for people – including present and future generations, for diversity, for the environment and for the planet's resources. In the present work, a system of activities oriented towards the theoretical - methodological preparation of the tutors who attend the Labor Practice in Construction in the Civil Engineering career of the Faculty of Constructions of the Central University "Marta Abreu" of Las Villas, is proposed. in the Cayo Santa María Tourism Works Construction Company, based on Sustainable Development and local problems to promote their incorporation into the teaching-learning process. For the fulfillment of the objectives, theoretical and empirical methods were used that allowed diagnosing the current state of the problem. In the research, it was analyzed how the system of teaching activities proposed in the research contributed to the professional development of the tutors in the works, this improved their preparation in the treatment of the sustainable development component and local problems, these actions favored a developer learning in future engineers. KEY WORDS: Sustainable development, education, teaching-learning process, labor practice. 1. INTRODUCCIÓN En los objetivos y fines de la Educación Ambiental definidos en las reuniones de Estocolmo en 1972 y Belgrado en 1975, así como la renovación del artículo 27 de la Constitución de la República, después de la cumbre de la Tierra celebrada en Río de Janeiro en 1992 queda claro la necesidad de incorporar con mayor alcance la dimensión ambiental al Proceso de Enseñanza Aprendizaje (PEA), como vía para contribuir al Desarrollo Sostenible desde la propia formación de los educandos. El Desarrollo Sostenible se asume como un proceso de elevación sostenida y equitativa de la calidad de vida de las personas, mediante el cual se procura el crecimiento económico y mejoramiento social, en una combinación armónica con la protección del medio ambiente, de modo que se satisfagan las necesidades de las actuales generaciones sin poner en riesgo la de las futuras. [1] Analizar e incorporar el Desarrollo Sostenible desde la Educación Superior, significa asumir una perspectiva más crítica, analítica y participativa, donde el sujeto tenga una posición activa frente al conocimiento y sea capaz de generar cambios en la vida actual sin comprometer las condiciones de las generaciones futuras. En el septuagésimo período de sesiones de la Asamblea General de Naciones Unidas celebrada en septiembre del 2015 se aprueba el documento final titulado “Transformar nuestro mundo: la Agenda 2030 para el Desarrollo Sostenible”, en la que se establece 17 objetivos y 169 metas que estimularán durante los próximos 15 años acciones para beneficio de la humanidad y el planeta. [2] La agenda instituye entre sus objetivos el número cuatro relacionado con la educación: Garantizar una educación inclusiva, equitativa y de calidad y promover oportunidades de aprendizaje durante toda la vida para todos. Propone entre sus metas la de garantizar que todos los alumnos adquieran los conocimientos teóricos y prácticos necesarios para promover el desarrollo sostenible, entre otras cosas mediante la educación para el desarrollo sostenible y la adopción de estilos de vida sostenibles, los derecho humanos, la igualdad entre los géneros, la promoción de una cultura de paz y no violencia, la ciudadanía mundial y la valoración de la diversidad cultural y de la contribución de la cultura al desarrollo sostenible, entre otros medios. La Asamblea General de las Naciones Unidas promulgó el Decenio de la Educación para el Desarrollo Sostenible, reclamando el valor de una educación de corte sostenible e inclusivo en todas las etapas educativas, incluida la universitaria, de forma que el paradigma de la sostenibilidad se hiciera palpable en aspectos relativos a la gestión, la docencia y la investigación, para ofrecer una formación superior de excelencia y comprometida con los conflictos socioambientales [3]. De este modo, la universidad constituye un escenario privilegiado en el que diseñar propuestas pedagógicas con las que implementar una Educación para el Desarrollo Sostenible, teniendo en cuenta que el alumnado que se encuentra en formación ocupará en el futuro puestos profesionales en diferentes escenarios laborales, constituyendo un motor de cambio para responder a los nuevos desafíos ambientales. [4] La Sede Universitaria Cayo Santa María ubicada en la cayería norte de la provincia de Villa Clara, Cuba recibe en la etapa de febrero a mayo los estudiantes de cuarto año de Ingeniería Civil, que permanecen en la instalación de lunes a viernes, donde reciben la docencia correspondiente al Plan de Estudio del año de martes a viernes por las mañanas y por las tardes de lunes a jueves las prácticas laborales en obra, en la construcción de los proyectos hoteleros que ejecuta la Empresa Constructora de Obra para el Turismo Cayo Santa María y Asociación Económica Internacional Bouygues Batiment Internacional, con la tutoría de los especialistas de la empresa que trabajan en la ejecución de los proyectos. La preparación de los tutores, así como su accionar en la actividad que dirigen reviste una especial significación en estos momentos, adquiriendo ésta un carácter permanente para la organización y desarrollo de procesos pedagógicos que contribuyan a lograr la formación integral del individuo en su vínculo con el entorno, por el efecto multiplicador que ejerce el personal docente que es inevitable, no solo por la magnitud del universo de influencias que abarca (alumnos, familia y comunidad), sino, por la trascendencia de su labor dado el alto nivel profesional que caracteriza el desempeño de sus funciones y que constituyen los pilares básicos dentro de la educación cubana. El colectivo pedagógico debe tener la preparación necesaria para transformar las condiciones en que se desarrolla el proceso educativo si fuese preciso y buscar los métodos, procedimientos y estilos de trabajo que se correspondan con las particularidades de los grupos y alumnos que atiende, para así poner todos los recursos en función del desarrollo de sus educandos. Los conflictos ecológicos constituyen uno de los fenómenos de mayor trascendencia para la humanidad. [5]. Ante esta situación, resulta prioritario continuar reorientando el actual programa hacia la inclusión de la educación ambiental, desde la perspectiva del Desarrollo Sostenible, en la enseñanza de la ingeniería en su formación laboral, a partir de los resultados científicos y experiencias acumuladas, así como a la formación continuada de los tutores para el fortalecimiento del vínculo universidad – empresa y la comunidad. En las manos de los profesores y tutores está la vía para elevar y mantener actualizado el nivel profesional de los futuros ingenieros, acorde a los principios de la revolución y la política educacional y ambiental cubana. Es incuestionable entonces la necesidad de potenciar la preparación de los recursos humanos mediante el trabajo metodológico con los tutores de la Práctica Laboral en Obra de la carrera de Ingeniería Civil de la facultad de Construcciones de la Universidad Central “Marta Abreu” de Las Villas que se desarrolla en el escenario de la empresa. La preparación sistemática de los tutores de la Práctica Laboral en Obra es una necesidad objetiva y permanente encaminada a garantizar en los mismos un nivel de conocimientos filosóficos, pedagógicos y científicos que se corresponda con el desarrollo alcanzado por la sociedad. Por tal motivo la presente investigación tiene como objetivo: proponer un sistema de actividades orientadas hacia la preparación teórico - metodológico de los tutores que atiende la Práctica Laboral en Obra en la carrera de Ingeniería Civil de la Facultad de Construcciones de la “Universidad Central Marta Abreu” de Las Villas en la Empresa Constructora de Obras para el Turismo, a partir del Desarrollo Sostenible y los problemas locales para potenciar su incorporación al proceso de enseñanza aprendizaje. 2. DESARROLLO Metodología La metodología es un conjunto de procedimientos aplicados a cualquier ciencia [6]. Las disímiles metodologías que se utilizan en la investigación educativa, facilitan el marco de referencia, la justificación lógica para examinar los principios y procedimientos por los que se formulan, responde y evalúan los problemas de investigación. La presente investigación, se concibe desde una metodología mixta, donde se combinan técnicas de recogida de datos, tanto cualitativas como cuantitativas, que permiten explorar y diagnosticar la situación de la problemática existente, para llegar a la toma de decisiones. Para el análisis de los resultados, de igual manera se utilizan elementos cualitativos y cuantitativos, a partir de análisis sencillos, que permiten interpretar la realidad, de acuerdo con los significados para las personas implicadas, a partir de la recogida de puntos de vista mediante las técnicas utilizadas. Todo esto permite afirmar que realizamos una investigación integral, de carácter no experimental. La investigación se desarrolló en la carrera Ingeniería Civil en la Facultad de Construcciones de la Universidad Central “Marta Abreu” de Las Villas. La población objeto de investigación es equivalente al total de tutores que atiende el componente Laboral Investigativo en la Sede Universitaria Cayo Santa María de la carrera Ingeniería Civil en la Facultad de Construcciones de la Universidad Central “Marta Abreu” de Las Villas y al claustro de profesores del departamento. En la selección de la muestra se utilizó un muestreo no probabilístico intencional, que corresponde a cincuentas especialistas de la empresa que fungen como tutores y ochos profesores del departamento. Como métodos y técnicas de la investigación se utilizaron: analítico-sintético, inductivo-deductivo, Histórico-lógico, análisis de documentos, observación, entrevista y encuesta, después de aplicados estos instrumentos expresan los resultados del diagnóstico de necesidades. La insuficiente preparación metodológica que presentan los tutores, limita la vinculación de los temas de la guía de La Práctica Laboral en Obra con las diferentes asignaturas del Plan de Estudio , teniendo en cuenta los aspectos señalados y la inserción de la tecnología educativa, que permita la derivación al tutor, de estrategias de trabajo para la dirección del proceso de la práctica, mediante el montaje de diferentes actividades docentes, la incorporación al proceso de enseñanza - aprendizaje el componente Desarrollo Sostenible. Modelar, por el conductor del taller, la inclusión de procedimientos generales de carácter intelectual que desde el aprendizaje de la dirección pedagógica (tomado en este caso como contenido) y sometido el directivo a rol del tutor, cuando enseña a estos, los procedimientos al dirigir el proceso mediante sus actividades. La elaboración de un sistema de actividades puede contribuir a mejorar la preparación de los tutores en la incorporación del componente Desarrollo Sostenible en la Práctica Laboral en Obra. Como se puede apreciar, estas acciones pueden ser realizadas como parte de las actividades de aprendizaje de la dirección del proceso de enseñanza - aprendizaje, que le permitan aplicar los diferentes contenidos, objeto de estudio de la guía del componente, a actividades concretas como son: Análisis de un protocolo de la guía. Elaboración de un plan de trabajo. Elaboración de un ejemplo de un informe de la práctica. 3. RESULTADOS Y DISCUCIÓN El tutor desempeña un papel esencial en la formación laboral del estudiante y tiene la responsabilidad de integrar el sistema de influencias educativas presentes en los distintos ámbitos de su desarrollo personal. Para ello, debe poseer una preparación pedagógica que le permita identificar las necesidades educativas de los estudiantes, realizar las acciones personalizadas que correspondan y valorar la efectividad de las mismas. La Educación Superior posee varias formas de trabajo docente-metodológico, como se puede apreciar en el sistema de preparación del tutor se emplean tres modalidades básicas, entre ellas están: las Reuniones Metodológicas, Clases Metodológica y los Talleres Metodológicos, todas se acompañan de la auto preparación, del método de la observación, del análisis de documentos y análisis del proceso y del producto de la actividad, elaborada por los autores para apoyar a un aprendizaje desarrollador en el componente Desarrollo Sostenible en la Práctica Laboral en Obra. La planificación de acciones teórico-metodológicas a realizar durante la actividad, está conformada por diferentes temáticas a desarrollar en las preparaciones metodológicas. Están distribuidas de la siguiente forma: Actividad #1 / Reunión Metodológica 1: introducción. Regularidades en la preparación de los tutores de la Práctica laboral en Obra en las diferentes visitas para enfrentar una correcta Educación para el Desarrollo Sostenible, al considerar los problemas locales. Actividad #2 / Clase Metodológica 1: Análisis metodológico del tema 1. “El proyecto y sus características” Actividad #3 / Taller 1. Exigencias metodológicas para el aprendizaje desarrollador. Actividad #4 / Clase Metodológica 2. Análisis Metodológico del tema 2 “Replanteos, cimentaciones y estructuras del proyecto”. Actividad #5 / Clase Metodológica 3. Análisis Metodológico del tema 3“Terminaciones”. Actividad #6/ Taller 2. Ahorro y uso sostenible de los recursos. Actividad #7/ Reunión Metodológica 2. Evaluación del sistema de preparación. 4. SISTEMA DE ACTIVIDADES 4.1 Actividad #1 / Reunión Metodológica 1: introducción. Regularidades en la preparación de los tutores en la Práctica Laboral en Obra en las diferentes visitas para enfrentar una correcta Educación para el Desarrollo Sostenible, al considerar los problemas locales. 4.1.2 Objetivos. Analizar las regularidades detectadas en las visitas de control a la práctica a los tutores que repercuten en la Educación para el Desarrollo Sostenible, considerando los problemas locales, para proponer acciones que propicien un ingeniero competente. Motivar a los tutores en la Práctica Labora en Obra su capacidad reflexiva que les permita la elaboración de actividades en el tratamiento al tema Desarrollo Sostenible, considerando los problemas locales, para la formación de una cultura laboral. 4.1.3 Medios. Registros de regularidades de las diferentes visitas realizadas a las obras, informes de la práctica, diario de obra, técnica lluvia de ideas. 4.1.4 Métodos. Conversación Heurística. 4.1.5 Metodología. Por conteo del uno al cinco se formarán cuatro equipos a los que se les entregan tarjetas de trabajo. Equipo 1. Regularidades de las visitas de control a las obras. Realizar un análisis de las mismas. Exponen cómo se manifiestan en su obra. Equipo 2. Regularidades de las visitas de control a los informes de la práctica. Realizar un análisis de las mismas .Exponen cómo se manifiestan en su obra. Equipo 3. Regularidades de las visitas de control al plan de trabajo. Realizar un análisis de los mismos. Exponen cómo se manifiestan en su obra. Equipo 4. Regularidades de las visitas de control al diario de obra. Realizar un análisis de los mismos. Exponen cómo se manifiestan en su obra. Cada equipo expondrá sus criterios, el resto de los docentes fungirá de oponente, el facilitador hará precisiones en la medida que sea necesario. Luego mediante lluvia de ideas se propondrán acciones que den respuesta a las regularidades detectadas. Se les orienta para el próximo encuentro estudiar los documentos siguientes: guía de la práctica, orientaciones metodológicas, memoria descriptiva del proyecto, con relación al tema 1. “El proyecto y sus características”. Profundizar en el tratamiento que se ofrece al tema Desarrollo Sostenible y el sistema de actividades del plan de trabajo que se plantea para los alumnos en la guía y las orientaciones que aparecen de este tema, en la guía. 4.1.6 Evaluación. Participación en la actividad y calidad de los planteamientos a partir del criterio del especialista y el resto de los tutores. 4.2 Actividad #2 / Clase Metodológica 1. Análisis metodológico del tema 1. “El proyecto y sus características”. 4.2.1 Objetivo. Valorar los objetivos y contenidos que se contemplan en el tema uno de la guía de la Práctica Laboral en Obra sobre el Desarrollo Sostenible, para la formación de una cultura general integral. 4.2.2 Medios. Guía de la práctica, orientaciones metodológicas, diario de obra, memoria descriptiva del proyecto. 4.2.3 Método. Elaboración Conjunta. 4.2.4 Metodología. Se forman cuatro equipos a los que se les entregan tarjetas de trabajo con las actividades siguientes: Equipo 1. Analiza las orientaciones metodológicas y la guía específicamente el tema 1 “El proyecto y sus características”, para determinar si los contenido que aparece en las orientaciones del tema es aplicable tal como aparece en el proyecto o se modifica. Proponen el sistema de evaluación del tema a partir de los objetivos del mismo. El equipo realiza un informe de su decisión. Equipo 2. Analizan las orientaciones metodológicas de la Práctica Laboral en Obra. Determina el sistema de tareas docentes que se tienen en cuenta para el desarrollo del tema incluyendo el Desarrollo Sostenible considerando los problemas locales. El jefe del equipo expone el trabajo realizado. Equipo 3. Analizan la guía de la práctica. Argumentan sí la guía contempla el componente Desarrollo Sostenible para un aprendizaje desarrollador. Proponen ejercicios donde se apliquen elementos del Desarrollo Sostenible, relacionados con la vida de los proyectos y considerando los problemas locales. Equipo 4. Analizarán los proyectos. 1. ¿Consideran ustedes que los mismos permiten una preparación integral del estudiante para su vida futura? 2. ¿La propia estructura del proyecto permite emplearlo como medio de enseñanza en la práctica? Argumente. 3. ¿Las actividades propuestas en el plan de trabajo son suficientes y transitan por los niveles de desempeño del conocimiento? Sugieren algunas actividades teniendo en cuenta la misma metodología que se propone en el proyecto, que permitan ser utilizados durante la práctica para resolver algunos problemas locales. En la medida que cada equipo exponga su trabajo, el resto se ve de oponente. El facilitador va realizando las precisiones pertinentes. 4.2.5 Evaluación. Participación. 4.3 Actividad # 3. Taller 1: Exigencias metodológicas para el aprendizaje desarrollador. 4.3.1 Objetivo. Valorar las exigencias a tener en cuenta en el orden metodológico a partir del artículo de Pilar Rico “Hacia un Aprendizaje Desarrollador” para poner en práctica el tratamiento de este aprendizaje en el componente Desarrollo Sostenible. [7] 4.3.2 Medios. Bibliografía: “Hacia un Aprendizaje Desarrollador” de Pilar Rico, memoria descriptiva del proyecto y la guía de la práctica. 4.3.3 Método. Elaboración Conjunta. 4.3.4 Metodología. Mediante lluvias de ideas el facilitador llevará a los participantes a realizar valoraciones y proponer acciones que permitan al tutor apropiarse de los conocimientos y habilidades del componente Desarrollo Sostenible de forma desarrolladora para que lo pueda aplicar en la práctica a los estudiantes. ¿Coinciden ustedes con las exigencias metodológicas propuestas por Pilar Rico en su artículo Hacia un Aprendizaje Desarrollador? Argumente. ¿Se trabajan sistemáticamente estas exigencias por las estructuras de dirección con los tutores? ¿Tienen en cuenta los tutores estas exigencias metodológicas en la preparación del plan de trabajo y en el informe? Mencione cuáles son las principales regularidades detectadas en este aspecto. El facilitador realiza precisiones en la medida que se realicen las preguntas. Se les orienta para el próximo encuentro estudiar los documentos siguientes: guía de la práctica, orientaciones metodológicas, memoria descriptiva del proyecto, con relación al tema 2 “Replanteos y cimentaciones del proyecto”. Hacer énfasis en cómo se trata el contenido en la guía y el sistema de actividades en el plan de trabajo. Ver otros proyectos turísticos. 4.3.5 Evaluación. Participación en el Taller. 4.4 Actividad #4 / Clase Metodológica 2. Análisis Metodológico del tema 2 “Replanteos, cimentaciones y estructuras del proyecto”. 4.4.1 Objetivo. Valorar los objetivos y contenidos que se contemplan en el tema 2 “Replanteos, cimentaciones y estructuras del proyecto” a partir de sus implicaciones en el Desarrollo Sostenible mediante el análisis crítico y reflexivo de la memoria descriptiva del proyecto; para el logro de un aprendizaje desarrollador. 4.4.2 Medios. Guía de la práctica, orientaciones metodológicas, diario de obra, memoria descriptiva del proyecto, planos del proyecto. 4.4.3 Método. Elaboración Conjunta. 4.4.4 Metodología. La actividad se realiza en una sesión de preparación metodológica dirigida por el investigador. A cada equipo se le entrega una hoja donde deben resumir la actividad que se les orienta. Equipo 1. Analizar la propuesta de las orientaciones metodológicas sobre la proyección del tema. Análisis del sistema de actividades que aparece en la guía de la práctica. El jefe del equipo realiza un resumen con la participación de los integrantes del mismo. Equipo 2.Análisis de las actividades de la memoria descriptiva del proyecto que se pueden realizar a partir de las implicaciones en el Desarrollo Sostenible. Se valora las conclusiones del equipo. Equipo 3. Proponer algunas acciones para las fichas de no conformidad de las actividades del proyecto donde se pueda evaluar la Educación para un Desarrollo Sostenible. El jefe del equipo expone, los demás apoyan. Equipo 4. Proponer un sistema de tareas docentes que se aplica durante el desarrollo del tema. Proponer un sistema de evaluación para el desarrollo del tema en la práctica. Se les orienta para el próximo encuentro el estudio por equipos de la licencia ambiental emitida por el CITMA, regulaciones y memoria descriptiva que aparecen en las obras, referente al tema. 4.5 Actividad #5 / Clase Metodológica 3. Análisis Metodológico del tema 3“Terminaciones”. 4.5.1 Objetivo. Valorar los objetivos y contenidos que se contemplan en el tema 3 “Terminaciones” a partir de sus implicaciones en el Desarrollo Sostenible mediante el análisis crítico y reflexivo de la memoria descriptiva del proyecto; para el logro de un aprendizaje para toda la vida. 4.5.2 Medios. Guía de la práctica, orientaciones metodológicas, diario de obra, memoria descriptiva del proyecto, planos del proyecto. 4.5.3 Método. Elaboración Conjunta. 4.5.4 Metodología. La actividad se realiza en una sesión de preparación metodológica dirigida por el investigador. A cada equipo se le entrega una hoja donde deben resumir la actividad que se les orienta. Equipo 1. Analizar la propuesta de las orientaciones metodológicas sobre la proyección del tema. Análisis del sistema de actividades que aparece en la guía de la práctica. El jefe del equipo realiza un resumen con la participación de los integrantes del mismo. Equipo 2. Análisis de las actividades de la memoria descriptiva del proyecto que se pueden realizar a partir de las implicaciones en el Desarrollo Sostenible. Se valora las conclusiones del equipo. Equipo 3. Proponer algunas acciones para las fichas de no conformidad de las actividades del proyecto donde se pueda evaluar la Educación para un Desarrollo Sostenible. El jefe del equipo expone, los demás apoyan. Equipo 4. Proponer un sistema de tareas docentes que se aplica durante el desarrollo del tema. Proponer un sistema de evaluación para el desarrollo del tema en la práctica. Se les orienta para el próximo encuentro el estudio por equipos de la licencia ambiental emitida por el CITMA, regulaciones y memoria descriptiva que aparecen en las obras, referente al tema. 4.6 Actividad #6/ Taller 2. Ahorro y uso sostenible de los recursos. 4.6.1 Objetivo. Profundizar en el conocimiento de las experiencias de avanzada (nacionales e internacionales) relacionadas con el desarrollo de una actitud consciente en el uso racional de la energía y los recursos así como su contribución a la protección del medio ambiente y las vías más apropiadas para lograrlo. 4.6.2 Medios. Documento lineamientos, licencia ambiental y regulaciones establecidas para el proyecto. 4.6.3 Método. Elaboración conjunta. 4.6.4 Metodología. Se forman tres equipos a los que se les entregan tarjetas de trabajo con las actividades siguientes: Equipo 1. Analizan los Lineamientos, la licencia ambiental sistema de acciones para la implementación en las obras turísticas. ¿Se aplica la licencia ambiental realmente como está establecido en los proyectos turísticos? ¿Qué hace usted como tutor en la práctica para lograr los objetivos que se plantean en el mismo y su vinculación con la guía? Los demás intervienen como oponentes. Equipo 2. Valoran bibliografía previamente orientada sobre fuentes de energía renovables y su vinculación con el medio ambiente, considerando problemas locales. El resto de los equipos opinan y evalúan. Equipo 3. Valoran la bibliografía sobre fuentes de energía no renovables y su vinculación con el medio ambiente, considerando problemas locales. En la medida que cada equipo exponga su trabajo, el resto sirve de oponente El facilitador realiza las precisiones pertinentes. 4.6.5 Evaluación. Participación en el taller. 4.7 Actividad #7/ Reunión Metodológica 2. Evaluación del sistema de preparación. 4.7.1 Objetivo. Comprobar el nivel de preparación de los tutores de la Práctica Laboral en Obra, en el componente Desarrollo Sostenible, considerando los problemas locales, para la formación laboral del futuro ingeniero. 4.7.2 Medios. Cuestionario 4.7.3 Método. Trabajo independiente. 4.7.4 Metodología. Mediante un examen, para todos los tutores de la muestra. ¿Consideras que la preparación recibida durante este curso te sirve para enfrentar el proceso de Educación para el Desarrollo Sostenible en la Práctica laboral en obra de la carrera de Ingeniería Civil? De lo aprendido en las diferentes sesiones de preparación ¿qué pondrás en marcha a nivel de la práctica? ¿Qué habrías hecho diferente para lograr este objetivo? ¿Te gustaría participar en otras sesiones de preparación similares a estas? ¿Por qué? 4.7.5 Evaluación. Evaluación Escrita. 5. CONCLUSIONES El sistema de actividades teórica metodológico propuesto contribuye a la formación profesional integral de los tutores de la Práctica Laboral en Obra, con una visión interdisciplinaria y una educación comprometida con las necesidades actuales del desarrollo sostenible del país en la carrera de Ingeniería Civil, al potencializar su incorporación en el proceso de enseñanza aprendizaje de las actividades de la guía de la práctica laboral que se desarrolla en los proyectos turísticos que se ejecutan en Cayo Santa María, favoreciendo un aprendizaje desarrollador en los futuros ingenieros. RECONOCIMIENTOS Los autores desean agradecer a la dirección de la Empresa de Obras para el Turismo Cayo Santa María y ALMEST por su contribución en la investigación realizada. REFERENCIAS 1. SOLER DEL SOL, A. Ley No. 81Ley de Medio Ambiente. La Habana : Ediciones ONBC, 2013. 2. COMICIÓN PARA AMÉRICA LATINA Y EL CARIBE, (CEPAL). Agenda 2030 y los objetivos del desrrollo – sostenible. Disponible en Web:http://www.cepal/es/ suscripciones /agenda 2030 y los objetivos de desarrollo - sostenible pdf. [En línea] 2019. [Citado el: de 10 de 2021.] 3. MURGA-MENOYO, M.A., La formación de la ciudadanía en el marco de la Agenda 2030 y la justicia ambiental, https://doi.org/10.15366/riejs2018.7.1.002, Revista Internacional de Educación para la Justicia Social, 7(1), 37-52 (2018) 4. ALCALÁ DEL OLMO-FERNÁNDEZ, M. RODRÍGUEZ-JIMÉNEZ, C. SANTOS-VILLALBA, M. GÓMEZ-GARCÍA. G. Educar para el desarrollo sostenible en el contexto universitario: un análisis bibliométrico, Formación Universitaria. Vol. 14(3), 85-94 (2021) http://dx.doi.org/10.4067/S0718- 50062021000300085 5. ALCALÁ DEL OLMO-FERNÁNDEZ, M. RODRÍGUEZ-JIMÉNEZ, C. SANTOS-VILLALBA, M GÓMEZ-GARCÍA, G. Educar para el desarrollo sostenible en el contexto universitario: un análisis bibliométrico, Formación Universitaria. Vol. 14(3), 85-94 (2021) http://dx.doi.org/10.4067/S0718- 50062021000300085. 6. ROSETAL, M. LUDIN, R. Diccionario filosófico. La Habana: Política, 1981. 7. RISCO MONTEROR, Pilar. Hacia un aprendizaje desarrollador. La Habana: Editorial Pueblo y Educación, 2002. Sobre los autores Bernardo Omar González Morales. Universidad Central Marta Abreu de Las Villas, Facultad de Construcciones, Departamento de Ingeniería Civil, Profesor y director de la Sede Universitaria Cayo Santa María, Profesor Auxiliar, Master en Ciencia, Armando Juan Velázquez Rangel, Universidad Central Marta Abreu de Las Villas, Facultad de Construcciones, Departamento de Ingeniería Civil, Profesor y Jefe de Departamento , Profesor Titular, Doctor en Ciencia, Manuel de Jesús Rodríguez Quintero, Universidad Central Marta Abreu de Las Villas, Facultad de Humanidades, Departamento de Marxismo - Historia, Profesor, Profesor Auxiliar, Master en Ciencia. PROPIEDADES VOLUMÉTRICAS Y MECÁNICAS DE MEZCLAS ASFÁLTICAS EN CALIENTE CON ÁRIDO RECICLADOS TIPO HORMIGÓN Debora Acosta Alvarez 1, Jessika Morales Fournier2, Anadelys Alonso Aenlle 3, Antonio José Tenza-Abril 4 1,2,3 Universidad Tecnológica de la Habana “José Antonio Echeverría”, 11500 Cuba 4 Universidad de Alicante, Campus de Sant Vicent del Raspeig. Apartat 99, E-03080 España 1 dacostaa@civil.cujae.edu.cu 2 jmoralesf@civil.cujae.edu.cu 3 anadelys@civil.cujae.edu.cu 4 ajt.abril@ua.es RESUMEN Los áridos reciclados (AR) de residuos de construcción y demolición (RCD) constituyen una alternativa técnicamente viable para la fabricación de mezclas asfáltica en caliente (MAC). El objetivo principal de este trabajo es evaluar las propiedades de las mezclas asfálticas en caliente fabricadas con diferentes porcentajes de AR (0%, 20%, 40%, 60%, 80%) y asfalto (4.0%, 4.5%, 5.0%). Las mezclas asfálticas densas se fabricaron con un tamaño agregado máximo de 25mm, sustituyendo parcialmente la fracción de árido natural entre 5mm y 13mm. Los especímenes Marshall fueron fabricados para determinar las propiedades principales de las MAC, en términos de densidad, porcentaje de vacíos, estabilidad, deformación. A partir de estos resultados se halló el contenido óptimo de cada mezcla, para el cual se midieron los parámetros de resistencia al agua, módulo de rigidez y deformación permanente. Los resultados corroboran el potencial de utilización de los RCD como AR en mezclas asfálticas en caliente, contribuyendo así a un importante beneficio medioambiental y económico. PALABRAS CLAVES: áridos reciclados (AR), residuos de construcción y demolición (RCD), mezclas asfálticas en caliente (MAC). VOLUMETRIC AND MECHANICAL PROPERTIES OF HOT ASPHALT MIXTURES WITH RECYCLED CONCRETE AGGREGATE ABSTRACT Recycled Aggregates (RA) from construction and demolition waste (CDW) are a technically viable alternative to manufacture of asphalt concrete (AC). The main objective of this work is to evaluate the properties of hot asphalt mixtures that have been manufactured with different RA percentage (0%, 20%, 40% 60%, 80%) and asphalt (4.0%, 4.5%, 5.0%). Dense asphalt mixtures were manufactured with a maximum aggregate size of 25 mm; partially replacing the natural aggregate fraction measured between 5mm and 13 mm. Marshall specimens were manufactured to determine the main properties of the AC in terms of density, voids, stability and deformation. Additionally, was determined the optimum asphalt content, which were measured the water resistance, the stiffness modulus and permanent deformation. The results corroborate the potential for using these sources of CDW as a RA in asphalt concrete, thereby contributing an important environmental and economic benefit. KEYWORDS: recycled aggregates (RA); construction and demolition waste (CDW); hot asphalt mixtures. 1. INTRODUCCIÓN En la actualidad debido a la constante evolución en la construcción, se producen toneladas de residuos sólidos como consecuencia de demoliciones, remodelaciones y nuevas construcciones que generan residuos sin una adecuada disposición final; los cuales provocan una alta contaminación ambiental, además del uso indiscriminado de los recursos naturales no renovables. Con el propósito de preservar el medio ambiente, conservar los recursos naturales, reducir los costos y aprovechar racionalmente la energía, varios países son gestores del reciclado y reutilización de los Residuos de Construcción y Demolición (RCD) [1, 2]. La construcción de carreteras es una de las actividades más realizadas en la ingeniería civil, la cual tiene un consumo importante de recursos naturales; específicamente en la fabricación de mezclas asfálticas donde se emplean grandes cantidades de áridos. Estos mayormente proceden de la explotación de canteras provocando graves efectos medioambientales, así como importantes gastos económicos y energéticos. Como consecuencia de este hecho, se crean nuevas técnicas en las que los residuos de la construcción son utilizados como sustitutos de los agregados naturales [3-7]. Con esta operación se obtienen grandes ventajas del empleo del RCD como reemplazo parcial o total del agregado natural ya que las carreteras además de convertirse en un área potencial para la reutilización de residuos también favorecen a la reducción de los impactos medioambientales asociados a la explotación de canteras, transporte de áridos y acumulación en vertederos. El uso de los RCD ha sido ampliamente estudiado en la fabricación de mezclas asfálticas en caliente así como su influencia en las mismas [8-15]. Estudios realizados por Paranavithana, S y A. Mohajerani [11], Pérez et al. [9] y Mills-Beale and You [16] demuestran que la densidad de las mezclas con áridos reciclados (AR) provenientes de RCD disminuyen debido al mortero adherido a su superficie producto de la trituración y machaqueo de los RCD. La eficacia del AR es muy variable, al igual que su composición, dependiendo de la fuente de obtención, del propio proceso de fabricación e incluso de las características de los áridos originales [14, 17]. Debido a lo planteado anteriormente, las propiedades de las mezclas asfálticas con AR también van a variar en función del AR utilizado. Autores como Sarrag et al. [18] y M. Arabani [19] han encontrado que con la incorporación de áridos reciclados a las mezclas, la estabilidad de la mismas aumenta, mientras que Acosta et al. [14] y Pérez et al. [20] demostraron que estas pueden disminuir. Así mismo Saeed Fatemi [21] fabrica mezclas con AR donde la resistencia a tracción indirecta tanto en seco como tras inmersión presenta una disminución en comparación con mezclas convencionales, sucediéndole lo contrario a Pérez [20]. Otros autores que han investigado la utilización de los RCD en las mezclas como Fabiana et al [22], Der- Hsien Shen y Du [23] han llegado a resultados donde aumenta el módulo de rigidez con la incorporación de AR, en contraposición con lo planteado por Paranavithana [11]. Un criterio muy generalizado entre los autores que investigan la temática es que con la utilización de AR en mezclas asfálticas el contenido óptimo de asfalto (COA) de las mismas presenta un aumento [9, 11, 13, 16, 23]. La presencia del mortero [24, 25], más poroso y menos denso que el árido natural original, parece ser el responsable de la pérdida de calidad del AR [9, 11, 20]. Son muchos los razonamientos y resultados disímiles a los que investigadores han arribado, por lo cual este trabajo tiene como objetivo el análisis de las propiedades de las mezclas asfálticas en caliente con AR para las condiciones de Cuba. Se analizan propiedades como densidad, porcentaje de huecos, estabilidad, deformación, sensibilidad al agua, módulo de rigidez y deformación permanente para mezclas con sustitución parcial de AR en un 20%, 40%, 60% y 80% en la fracción 5-13mm, así como la determinación de sus respectivos COA. 2. MATERIALES Y MÉTODOS. 2.1. Materiales a utilizar. Para el desarrollo de los diseños de mezclas se emplearon cuatro fracciones de árido natural (AN) de origen calizo (<0.074mm, 0-5mm, 5-13mm, 13-25mm) y Árido Reciclado (AR) (Figura 1), proveniente de la demolición y trituración de desechos de hormigón en masa, ambos suministrados por Holcim Morteros S.A. El proveedor certifica los siguientes porcentajes de impurezas presentes en los AR: arcillas < 5%, partículas ligeras < 1%, asfalto < 1%, otras impurezas < 1%. Fig. 1. a) y b) Árido Reciclado procedente de demolición y utilizado en este estudio; c) detalle del árido reciclado. En la Tabla 1 se muestran densidades aparentes y la absorción después de 24 horas de los AN y AR utilizados para la fabricación de MAC obtenidos según la norma española UNE EN 1097-6 [26], los valores que se muestran son el promedio después de la realización de 3 ensayos. Se muestran además los valores del coeficiente de los Ángeles para los áridos gruesos obtenido mediante la UNE EN 1097-2 [27], índice de partículas planas y alargadas según la UNE EN 933-3 [28], y su equivalente de arena según la UNE EN 933 -8 [29]. Tabla 1. Propiedades de áridos utilizados para el diseño de mezclas. Propiedades AN AR 13-25mm 5-13mm 0-5mm <0.074mm 5-13mm Peso específico corriente (kg/m3) 2 699 2 669 2 691 2 640 2 372 Absorción a las 24 horas (%) 0.704 1.099 1.952 --- 4.487 Coeficiente de los Ángeles (%) 21.82 24.69 --- --- 30.00 Índice de partículas planas y alargadas (%) 9.10 4.48 ---- ---- 3.20 Equivalente de arena (%) --- --- 72.07 --- --- En la tabla 1 se observa que el AR presenta menor peso específico y mayor absorción que el AN debido al mortero adherido a las partículas de árido natural que posee menor densidad y provoca un descenso en la densidad del AR [30]. Se aprecia además un coeficiente de desgaste de los Ángeles para los AR superior al de los áridos naturales, esto se atribuye al mortero adherido al árido reciclado que al ser sometido a la carga abrasiva se fragmenta fácilmente y hace que su desgaste sea mayor [17]. En la Tabla 2 se muestran las propiedades del asfalto utilizado y la normativa de referencia para la realización de cada uno de los ensayos. Además, se incluye una columna con los requerimientos del asfalto para comprobar que estaba dentro de los límites establecidos en las normas españolas UNE EN 12591 [31]. Tabla 2. Propiedades del asfalto utilizado en el diseño de las mezclas. Parámetro Norma Valores Límites establecidos en la UNE EN 12 591 Penetración (1/10mm) UNE EN 1426 52.28 50 – 70 Punto de Ablandamiento (oC). UNE EN 1427 52 46-54 El asfalto utilizado en el presente trabajo se clasifica como BC50/70 de acuerdo al Pliego de Prescripciones Técnicas Españolas (PG-3) [32]. Tal y como se indica en la tabla 2, los valores de las propiedades analizadas cumplen con los índices de calidad. 2.1.1 Diseños de mezclas. Para la realización de esta investigación se confeccionaron cinco mezclas densas de tamaño máximo 25mm siguiendo el Método Marshall que se establece en la NC 261 [33]. Mezcla 1 (0% AR): Mezcla convencional sin RCD. Mezcla 2 (20% AR): Mezcla con sustitución de un 20% de RCD de la fracción 5-13mm. Mezcla 3 (40% AR): Mezcla con sustitución de un 40% de RCD de la fracción 5-13mm. Mezcla 4 (60% AR): Mezcla con sustitución de un 60% de RCD de la fracción 5-13mm. Mezcla 5 (80% AR): Mezcla con sustitución de un 80% de RCD de la fracción 5-13mm. Todas las mezclas fueron fabricadas para 4.0%, 4.5% y 5.0% de asfalto. Luego de establecer el contenido óptimo de asfalto (COA) de cada una de las mezclas se realizaron ensayos de resistencia al agua, deformación permanente y módulo de rigidez a 25°. En la Tabla 3 se han incluido las proporciones de cada una de las fracciones empleadas en cada una de las mezclas. Taba 3. Combinación de áridos para la fabricación de los HAC. Proporción de materiales (%) 0% AR 20% AR 40% AR 60% AR 80% AR <0.074mm 10 10 10 10 10 0-5mm 35 35 35 35 35 5-13mm 30 24 18 12 6 13-25mm 25 25 25 25 25 AR (5-13mm) 0 6 12 18 24 En la Figura 2 se muestra la granulometría de las mezclas diseñadas, la cual es continua y corresponde a una mezcla densa tamaño máximo 25mm, cumple con las especificaciones propuestas por la NC 253 [34]. Fig. 2. Granulometría de las cinco mezclas y los valores máximos y mínimos establecidos en la NC 253. En la Figura 3 se muestra la difracción de rayos X (DRX) del AR utilizado para las mezclas de HAC. Para identificar las fases mineralógicas del árido reciclado usado en las mezclas, este fue reducido de tamaño (<63mm) usando un molino de bolas modelo Retsch PM 100. Las fases mineralógicas fueron determinadas por difracción de rayos X (DRX) usando un difractómetro Bruker D8- Advance. Para el análisis se utilizó una aceleración de voltaje de 40 Kv, una corriente de 40 mA y un barrido angular de 4º a 60º. Las fases mineralógicas de las muestras se cuantificaron mediante Rietveld usando el software PANalytical Highscore Plus 4.6. y están recogidos en la Figura 3. Se aprecia que el principal componente de los residuos es la calcita con un 84.2%, mineral formado por carbonato cálcico (CaCO3), compuesto primario de los hormigones cuyos áridos naturales son de origen calizo. Otro mineral presente es la dolomita con un 14.9%, que es un mineral propio de áridos de origen calizo. Fig. 3. Difractograma del AR. Además, en la figura 3 se evidencia contenido de cemento Portland con un 0.9% de Portlandita lo cual muestra la existencia de hidróxido de calcio libre, propio de hormigones sin carbonatar. Se nota además que la muestra del residuo analizado tiene una composición química homogénea y que no presentan ningún tipo de contaminante. Además, la composición química en forma de óxidos del AR se obtuvo mediante Fluorescencia de Rayos X utilizando un espectrómetro secuencial. La Tabla 4 muestra la composición química del árido reciclado utilizado, donde se puede apreciar que el compuesto químico predominante es el calcio, elemento mayoritario tanto en el árido calizo como en la pasta de cemento que envuelve el AR. Tabla 4. Composición química del residuo. Na2O MgO Al2O3 SiO2 P2O5 SO3 Cl K2O CaO TiO2 Fe2O3 SrO BaO Composición química (%) 0,19 1,94 1,42 6,25 0,07 0,63 0,10 0,14 49,42 0,19 1,33 0,04 0,09 Además, la muestra de AR se examinó con microscopio electrónico de barrido (SEM) (Figura 4) utilizando un equipo Hitachi S3000N. Para hacer el análisis morfológico se obtuvieron pequeños fragmentos del árido y se secaron en estufa a 60ºC con la finalidad de no alterar la muestra. Una vez secos se metalizaron (capa de 30 nm) con Au-Pd en atmósfera de Argón para incrementar la calidad de las imágenes. Fig. 4. Microscopía electrónica de barrido (SEM) del AR adquiridas a x50 magnificaciones donde se observa (a la izquierda) el contacto entre el árido natural y el mortero adherido, (en el centro) la morfología de los áridos AR y (a la derecha) las fisuras del árido reciclado. 2.2. Metodología Experimental. 2.2.1 Método Marshall. Para el análisis de las propiedades de las mezclas se siguió el método Marshall establecido en la NC 261 [33], donde se compactaron los especímenes a 75 golpes por cada cara. Se confeccionan 6 probetas: tres para el ensayo de estabilidad y deformación, y tres probetas para el ensayo de densidad y huecos en mezcla y áridos para cada porcentaje de asfalto. Seguidamente se estableció el contendido óptimo de asfalto siguiendo las especificaciones propuestas en términos de huecos en la mezcla, en el Pliego de Prescripciones Técnicas Españolas (PG-3) [32]. 2.2.2 Resistencia al agua. Para el análisis de la resistencia al agua de las mezclas asfálticas se confeccionaron un conjunto de seis probetas cilíndricas compactadas a 50 golpes por cada cara cada una, el cual se dividió en dos subconjuntos de tres probetas. Un subconjunto se mantuvo en seco a 25°C durante 4 horas, mientras el otro se saturó y se mantuvo en agua a 60°C durante 24 horas y luego a 25°C durante 4 horas. Después del acondicionamiento, se determinó la resistencia a la tracción indirecta de cada uno de los subconjuntos, de acuerdo con lo establecido en la Norma EN 12697-23 [35]. A continuación, se determinó la razón entre la resistencia a la tracción indirecta del subconjunto acondicionado en agua y la del subconjunto acondicionado en seco que se expresa en valor porcentual (ITSR). 2.2.3 Módulo de Rigidez Como parte de las propiedades de las mezclas también se estudió el módulo de rigidez para el COA de cada una de las mezclas a 25ºC. El ensayo se realizó según el Anexo C de la UNE-EN 12697-26 [36] (según el ensayo de tracción indirecta sobre probetas cilíndricas). Para determinar el módulo de rigidez, los especímenes fueron acondicionados en una cámara, a temperatura controlada, 24 horas antes de realizar el ensayo. Las mezclas fueron compactadas con 75 golpes por cada cara. Una vez acondicionadas a la temperatura de ensayo, se aplicaron cinco pulsos de prueba a lo largo del diámetro vertical de cada espécimen Marshall cilíndrico. La carga tuvo un tiempo de subida de 124 ms y un período de repetición de 3s equivalente a una frecuencia de 0.,33 Hz. La carga máxima aplicada fue seleccionada para producir una deformación horizontal máxima del 0.005% del diámetro de la muestra. El procedimiento de prueba se repitió en un diámetro perpendicular. Se asumió un coeficiente de Poisson de 0.35. La rigidez promedio de los cinco pulsos de prueba de los dos diámetros probados se registró como el módulo de rigidez de la muestra de HAC. 2.2.4 Deformación Permanente. Para el análisis de la deformación permanente se siguió lo establecido en la UNE-EN 12697-22 [37] y se confeccionaron las probetas según las UNE-EN 12697-33 [38]. La mezcla bituminosa se compactó mediante compactador de placa mediante energía controlada en un molde rectangular de 260 × 300mm y una profundidad de 60mm. Para la realización del ensayo, la muestra se acondicionó durante 16 horas a una temperatura de 60ºC, luego se puso la máquina en funcionamiento manteniendo una presión del neumático de 600+-30kPa. Se midió la profundidad del surco una vez que la probeta fue sometida a 10 000 ciclos a una carga de 714±10 N. La deformación permanente final fue determinada como el valor promedio de los valores del porcentaje de la profundidad de la rodera (Pi), según indica la norma de ensayo [37], y de acuerdo con la Ecuación 1. 𝑃𝑖 = 100 ∗∑ ( 𝑚𝑖𝑗−𝑚𝑜𝑗 15∗h ) 15 𝑗=1 (1) 𝑃𝑖: Porcentaje de la profundidad de la rodera (%) 𝑚𝑖𝑗: Deformación local, en milímetros (mm) 𝑚𝑜𝑗: Medida inicial en la ubicación j h: Espesor de la probeta (mm) 2.2.5 Análisis estadístico. Para determinar estadísticamente la influencia significativa de los distintos porcentajes de áridos reciclado y de asfalto en los parámetros de las mezclas se utilizó el análisis unidireccional y bidireccional de la varianza (ANOVA). Las variables independientes fueron: densidad, huecos en la mezcla y áridos, estabilidad, deformación, tracción indirecta en seco y húmedo, módulo de rigidez y deformación permanente. El estudio fue llevado a cabo con un nivel de significancia del 5%. La resistencia al agua, el módulo de rigidez y la deformación permanente se midieron para el COA de cada una de las mezclas. 3. RESULTADOS Y DISCUSIÓN. 3.1. Análisis Marshall Fig. 5. Densidad aparente media de mezclas bituminosas fabricadas con distintos porcentajes de AR y distinto porcentaje de asfalto. Las barras de error representan la desviación estándar. Como se puede apreciar en la Figura 5, las densidades de las mezclas disminuyen a medida que aumenta el porcentaje de AR, lo que ocurre debido al menor peso específico (Tabla 1) que presentan los áridos reciclados en comparación con los áridos naturales. Este mismo comportamiento fue observado en otras investigaciones [9, 11, 16, 20]. El análisis ANOVA realizado mostró que el porcentaje de árido reciclado tiene influencia significativa en la densidad de las mezclas (p Value=0.0023) mientras el porcentaje de asfalto no presenta influencia significativa (p Value=0.156). Fig. 6. Huecos en el árido mineral determinado en las mezclas bituminosas fabricadas con distintos porcentajes de AR y distinto porcentaje de asfalto. Las barras de error representan la desviación estándar. Tanto los huecos en los áridos como los huecos en la mezcla aumentan con la incorporación de AR a las mismas, como se puede observar en la Figura 6 y Figura 7, respectivamente. Esta variación se debe a la alta porosidad de los áridos reciclados [9, 11]. El análisis ANOVA realizado mostró que el porcentaje de árido reciclado tiene una influencia significativa en los huecos en áridos (p Value=0.015) mientras el porcentaje de asfalto no presenta influencia significativa (p Value=0.282). Fig. 7. Huecos en las mezclas bituminosas fabricadas con distintos porcentajes de AR y distinto porcentaje de asfalto. Las barras de error representan la desviación estándar. Como se mencionó anteriormente se puede observar en la Figura 7 que a medida que el porcentaje de árido reciclado aumenta, los huecos en la mezcla presentan un comportamiento ascendente esto sucede debido a que el árido reciclado es más poroso y presentan una elevada absorción lo que provoca que exista una menor cantidad de asfalto para recubrir los áridos y por ende los huecos aumentan a medida que aumenta el porcentaje de AR, así mismo a medida que aumentan los contenidos de asfalto los huecos en la mezcla disminuyen debido a que este ocupa el volumen de aire del conjunto de la mezcla [39]. El análisis ANOVA realizado mostró que el porcentaje de árido reciclado tiene una influencia significativa en los huecos en la mezcla (p Value=0.0117) así como porcentaje de asfalto (p Value=0.00024). Fig. 8. Estabilidad Marshall de las mezclas bituminosas fabricadas con distintos porcentajes de AR y distinto porcentaje de asfalto. Las barras de error representan la desviación estándar. En la Figura 8 se observa que el comportamiento de las estabilidades Marshall es diferente para cada uno de los porcentajes de asfalto. Para un 4% de asfalto se mantienen estables mientras que para un 4.5% y 5.0% se aprecia cómo aumenta con el incremento de AR. De manera general se nota el aumento de las estabilidades con el aumento del contenido de AR, comportamiento que se ratifica en investigaciones realizadas por Nabil I. Al-Sarrag [18] y Marabini [19]. Se evidencia además que, a medida que aumenta el porcentaje de asfalto, las estabilidades de las mezclas disminuyen debido a la flexibilidad que le confiere este a las mismas. El análisis ANOVA realizado mostró que el porcentaje de árido reciclado no tiene una influencia significativa en la estabilidad de la mezcla (p Value=0.062) mientras el porcentaje de asfalto si tiene influencia significativa en la misma (p Value=0.0054). Fig. 9. Deformación de las mezclas bituminosas fabricadas con distintos porcentajes de AR y distintos porcentajes de asfalto. Las barras de error representan la desviación estándar. En la Figura 9 se puede detallar que la deformación disminuye con el aumento del contenido de AR, lo que se debe al cemento adherido en los AR y su propiedad autocementante que hace que las mezclas se vuelvan menos deformable, al igual que sucede en investigaciones realizadas por M. Arabini [19] y Pérez et al.[20]. Así mismo se nota el aumento de las deformaciones con el contenido de asfalto debido a que la mezcla se vuelve más elástica. El análisis ANOVA realizado mostró que el porcentaje de árido reciclado tiene una influencia significativa en la deformación de la mezcla (p Value= 0.00812) así como el porcentaje de asfalto (p Value= 0.0013). Luego de analizar los resultados de los huecos en la mezcla y en los áridos, las estabilidades y deformaciones de cada una de ellas, se determinó el contenido óptimo de asfalto (COA) siguiendo el método Marshall [33] y las especificaciones propuestas en el PG-3 [32]. Fig. 10. Contenido óptimo de asfalto para cada mezcla. En la Figura 10 se observa cómo con el aumento del contenido de AR aumenta el COA, esto es debido al alto porcentaje de absorción que presentan los AR, producto de la alta porosidad del mortero de cemento adherido al mismo [9, 13, 20, 23]. Se puede apreciar que hasta el 40% de sustitución el aumento de este es menor en comparación con los porcentajes de 60% y 80%. a) b) c) d) e) Fig. 11. Parámetros Marshall para COA. a) Densidad de las mezclas b) Huecos en la mezcla c) Huecos en los áridos d) Estabilidad de las mezclas e) Deformación de las mezclas. En la Figura 11 se muestran los resultados de los parámetros Marshall obtenidos para los COA de cada una de las mezclas, se puede observar que tanto los huecos en la mezcla (Figura 11b) como los huecos en áridos (Figura 11c) aumentan con el contenido de AR y esto es debido a la reducción que presentan están mezclas en la densidad (Figura 11a) producto del AR más poroso que el árido natural como se había explicado anteriormente. Se aprecia, además que la estabilidad (Figura 11d) aumenta con el contenido de AR producto como se mencionó anteriormente de las propiedades autocementantes del AR. Así mismo se observa el aumento de las deformaciones (Figura 11e) lo cual se debe al mortero presente en la superficie del AR que dificulta la correcta adherencia entre este y el asfalto [17], lo que provoca una deficiente absorción de las cargas y por ende un aumento en las deformaciones. 3.2. Resistencia al agua. Fig. 12. Susceptibilidad al agua de las mezclas con el contenido óptimo de betún y diferentes porcentajes de AR medida mediante la resistencia a tracción indirecta. Las barras de error representan la desviación estándar. En la Figura 12 se aprecia un aumento de la resistencia conservada (ITSR - Indirect Tensile Strength Ratio), cumpliendo con las especificaciones técnicas establecidas en el Pliego de Prescripciones Técnicas Generales para Obras de Carreteras y Puentes (PG-3) [32], igualmente esto sucede en estudios realizados por Shen, y Meizhu Chen [23, 40]. El aumento de la ITSR se debe a que con la adición de AR se observa una disminución en la resistencia a la tracción indirecta en seco, la presencia de cemento es la causa de este proceso debido a que el mismo provoca una pérdida de adhesividad entre el AR y el asfalto. Sin embargo, la resistencia tras inmersión aumenta con el contenido de AR hasta un 40% de sustitución lo que es causado producto del contacto con el agua que activa sus propiedades autocementantes y propicia que no se vea afectada la adherencia entre ambos materiales [41], para un 60% y 80% de sustitución la tracción tras inmersión disminuye llegando a ser menor que la de la mezcla sin AR, esto se debe a la inestabilidad que presentan estas mezclas provocado por la fractura del AR en el proceso de mezclado y compactación [17]. El análisis ANOVA realizado mostró que el porcentaje de árido reciclado tiene una influencia significativa en la resistencia a la tracción indirecta de la mezcla en seco (p Value= 0.0457) así como en la resistencia a la tracción indirecta tras inmersión (p Value= 3.23075E-14). 3.3. Módulo de rigidez. Se conoce que para 25ºC el módulo de rigidez de las mezclas se encuentra entre 2500MPa y 8000MPa [39], además en las normas de secciones de firmes de la Comunidad Valenciana [42] se plantea que estos módulos deben encontrase ente 3500MPa y 9500MPa. Como se observa en la Figura 12, este primer criterio se cumple para todas las mezclas, mientras que el segundo solo se cumple para las mezclas con 0%, 20% y 40% de sustitución de AR. En la Figura 13, junto con la disminución del módulo Marshall mostrado en la Figura 11e, se hace patente que a medida que aumenta el porcentaje de AR en las mezclas el módulo de rigidez de las mismas disminuye, como sucede en investigaciones realizadas por algunos autores [11, 16]. Eso mismo sucede a medida que aumenta el número de ciclos de carga como es de esperarse [43], exceptuando las mezclas con 0% y 60% donde para el tercer y cuarto ciclo de carga el módulo aumenta y luego vuelve a disminuir. Fig. 13. Módulo de rigidez a 25ºC de las mezclas con el contenido óptimo de betún y diferentes porcentajes de AR. El análisis ANOVA realizado mostró que el porcentaje de árido reciclado tiene una influencia significativa en el módulo de rigidez de la mezcla (p Value= 9.4088E-8). 3.4. Deformación permanente. Los resultados obtenidos (Figura 14 y Figura 15) indican que la elevada proporción de caras de fractura del AR observadas con el SEM (Figura 4b) mejora en algunos casos la resistencia de las mezclas frente a la deformación permanente como se nota para las mezclas con 20% y 40% de AR, así sucede en investigaciones realizadas por Pérez [44, 45]. Por otro lado, la inestabilidad de las mezclas fabricadas con un 60% y 80% de AR, hace que la profundidad de la rodera aumente así mismo le sucede a Mills [16], sobrepasando el límite establecido de 5mm en el PG-3 [32]. El análisis ANOVA realizado mostró que el porcentaje de árido reciclado tiene una influencia significativa en el módulo de rigidez de la mezcla (p Value= 0.00487). Fig. 14. Pendiente de la deformación permanente de las mezclas con el contenido óptimo de betún y diferentes porcentajes de AR. Fig. 15. Profundidad de la rodera registrada según el número de ciclos de las mezclas con el contenido óptimo de betún y diferentes porcentaje de AR. 4. CONCLUSIONES. En el presente trabajo se evaluaron las mezclas de hormigón asfáltico en caliente fabricadas con árido reciclado proveniente de residuos de demolición. Se realizó la sustitución de un 20%, 40%, 60% y 80% de la fracción 5-13mm, analizando las propiedades de cada mezcla con respecto a una mezcla fabricada completamente con árido natural. A partir de los resultados obtenidos se pueden llegar a las siguientes conclusiones: ▪ A medida que aumenta el porcentaje de áridos reciclados en las mezclas asfálticas aumentan propiedades volumétricas como los huecos en las mezclas y en los áridos, así mismo disminuyen las densidades. ▪ A medida que aumenta el porcentaje de áridos reciclados en las mezclas asfálticas la demanda de betún es mayor. ▪ El comportamiento de las mezclas ante cargas de compresión y la resistencia al agua se ven favorecidos con la incorporación de áridos reciclados. ▪ La resistencia a las deformaciones permanentes de las mezclas con áridos reciclados cumple con las especificaciones hasta un 40% de sustitución. ▪ El análisis ANOVA realizado mostró que el porcentaje de árido reciclado presenta influencia significativa en todos los parámetros de las mezclas excepto en la estabilidad de las mismas. ▪ Hasta un 40 % de sustitución de AR por AN las mezclas presentan un buen comportamiento y es factible su utilización. 5. REFERENCIAS BIBLIOGRÁFICAS. 1. R. TAHA; A. AL-RAWAS; AL-JABARI; A.AL-HARTHY; H.HASSAN;S.AL-ORAIMI. An overview of waste materials recycling in the Sultante of Oman. Resources, Conservation and Recycling, 2004. 41: p. 293-306. 2. V.W.Y. TAM;C.M. TAM. A review on the viable technology for construction waste recycling Resources, Conservation and Recycling, 2006. 47: p. 209-221. 3. J.R. TORRES. Estudio del uso de materiales reciclados en firmes de carreteras, Universidad de Cantabria, 2013. 4. J.D.B. CASTELLÓ. Características de los residuos. Aprovechamiento de residuos. in Jornadas sobre Geotecnia Medioambiental. 2006. Sevilla, España. 5. R.B. MALLICK; M.J. RADZICKI; M. ZAUMANIS;R. FRANK. Use of system dymanics for proper conservation and recycling of aggregates for sustinable road construction. Resources, Conservation and Recycling, 2014. 86: p. 61-73. 6. E.V. RAMONICH; M. BARRA; L.M. LASALLE; F.J.S. CANALS; I.V. LÓPEZ; J.R. PERICOT; T. ANDREU;A. BALMACEDA. Aportación de árido Reciclado Mixto con predominio de hormigón para la sutitución de parte del árido fino en la fabricación de mezclas bituminosas. in VII Jornada Nacional. 2012. 7. J.R. ARENAL. Aridos Reciclados industriales: Aplicación en el sector construcción. in XV Cursos de Medio Ambiente de Suances. Reciclaje y Sostenibilidad en el sector de la Construcción. 2010. 8. I. PÉREZ;A.M. RODRÍGUEZ. Moisture damage resistance of hot-mix asphalt made with recycled concrete aggregates and crumb rubber. Jounal of Cleaner Production, 2017. 165: p. 405-414. 9. M.T. IGANCIO PÉREZ PÉREZ, JUAN GALLEGO MEDINA, JAVIER TAIBO POSE. Mechanical properties of hot mix asphalt made with recycled aggregates from reclaimed construction and demolition debris. Materiales de Construcción, 2007. 57(285): p. 17-29. 10. M. MUNIZ; F. QUIÑONES; A.M. GÓMEZ; M.V. RIBEIRO;P.R. FARIAS. Influence of asphalt rubber on the crushing of recycled aggregates used in dense HMA. Proceeding of Asphalt Rubber, 2012. 11. S. PARANAVITHANA;A. MOHAJERANI. Effects of recycled concrete aggregates on properties of asphalt concrete. Resources, Conservation and Recycling, 2006. 48: p. 1-12. 12. H.S. DO; P.H. MUN;R.S. KEUN. A study on engineering characteristics of asphalt concrete using filler with recycled waste lime. Waste Management, 2008. 28: p. 191-199. 13. Y.D. WONG; D.D. SUN;D. LAI. Value-added utilisation of recycled concrete in hot-mix asphalt. Waste Management, 2007. 27: p. 294-301. 14. D. ACOSTA; A. ALONSO;A.J. TENZA. Laboratory evaluation of hot asphalt concrete properties with cuban recycled concrete aggregates. Sustainability, 2018. 10(8). 15. D. ACOSTA; R. MOLL;G. González. Influencia de la utilización del RCD como árido en mezclas asfálticas en caliente. Revista de Arquitectura e Ingeniería de Matanzas, 2017. 1. 16. J. MILLS-BEALE;Z. YOU. The mechanical properties of asphalt mixtures with Recycled Concrete Aggregates. Construction and Building Materials, 2010. 24: p. 230-235. 17. A.M.R. PASADÍN. Sensibilidad al agua y propiedades mecánicas de mezclas bituminosas en caliente fabricadas con áridos reciclados de residuos de contrucción y demolición., Universidad de Coruña, 2013. 18. N.I.A.-. SARRAG; H.K.A. AL-BAITI; S.E.S. AL-MALIKY;S.S. ALWAN. Use of Recycling Building Demolition waste As Coarse Aggregate in Hot Mix Asphalt. Tikrit Journal of Engineering Sciences, 2014. 21: p. 63-76. 19. M. ARABANI;A.R. AZARHOOSH. The effect of recycled concrete aggregate and steel slag on the dynamic properties of asphalt mixtures. Construction and Building Materials, 2012. 35: p. 1- 7. 20. I. PÉREZ; A.M. RODRIGUEZ;J. GALLEGO. Hot mix asphalt using C&D waste as coarse aggregates. Materials and Design, 2012. 36: p. 840-846. 21. S. FATEMI;R. IMANINASAB. Performance evaluation of recycled asphalt mixtures by construction and demolition waste materials. Construction and Building Materials, 2016. 120: p. 450-456. 22. F.D. CONCEICAO; R.D. SANTOS; K.L. VASCONCELOS;L. BERNUCCI. Laboratory evaluation of recycled construcion and demolition waste for pavements. Construction and Building Materials, 2011. 25: p. 2972-2979. 23. D.-H. SHEN;J.-C. DU. Application of gray Relational Analysis to Evaluate HMA with Reclaimed Building Materials. Journal of Materials in Civil Engineering, 2005. 17: p. 400-406. 24. G. BIANCHINI; E. MARROCCHINO; R. TASSINARI;C. VACCARO. Recycling of construction and demolition waste materials: a chemical- mineralogical appraisal. Waste Management, 2005. 25: p. 149-159. 25. M.C. IMBACHIYA; E. MARROCCHINO;A. KOILOURIS. Chemical-mineralogical characterisation of coarse recycled concrete aggregate. Waste Management, 2007. 27: p. 2018- 208. 26. A.E.D.N.Y. CERTIFICACIÓN. UNE EN 1097-6/A1. Ensayos para determinar las propiedades mecánicas y físicas de los áridos. Parte 6: Determinación de la densidad de las partículas y la absorción de agua., 2001 27. A.E.D.C.Y. NORMALIZACIÓN. UNE EN 1097-2. Ensayos para determinar las propiedaes físicas y mecánicas de los áridos. Parte 2: Métdos para la determinación de la resitencia a la fragmentación, 2007 28. A.E.D.C.Y. NORMALIZACIÓN. UNE EN 933-3. Ensayos para determinar las propiedades gemétricas de los áridos. Parte 3: Determinación de la forma de las partículas. Índice de lajas, 1997 29. A.E.D.N.Y. CERTIFICACIÓN. UNE EN 933-8. Ensayos para determinar las propiedades geométricas de los áridos. Evaluación de los finos. Ensayo equivalente de arena, 2000 30. M.S. DE JUAN;P.A. GUTIÉRREZ. Study on the influence of attached mortar content on the properties of recycled concrete aggregate. Construction and Building Materials, 2009. 23(2): p. 872-877. 31. A.E.D.N.Y. CERTIFICACIÓN. UNE EN 12591. Betunes y ligantes bituminosos. Especificaciones de betunes para pavimentación, 2000 32. PG-3 Artículo 542. Pliego de Prescripciones Técnicas Generales para Obras de Carreteras y puentes 2015 33. O.N.D. NORMALIZACIÓN. NC 261. Determinación del contenido óptimo de asfalto empleando el equipo Marshall, 2005 34. O.N.D. NORMALIZACIÓN. NC 253. Carreteras. Materiales bituminosos. Hormigón asfáltico caliente. Especificaciones, 2005 35. A.E.D.N.Y. CERTIFICACIÓN. UNE-EN-12697-12. Método de ensayo para mezclas bituminosas en caliente. Determinación de la sensibilidad al agua de las probetas de mezcla bituminosa., 2006 36. UNE. UNE-EN 12697-26. Mezclas bituminosas. Métodos de ensayo para mezclas bituminosas en caliente. Parte 26: Rigidez, 2006 37. A.E.D.N.Y. CERTIFICACIÓN. UNE EN 12697-22. Mezclas bituminosas. Método de ensayo para mezclas bituminosas en caliente. Ensayo de rodadura, 2008 38. A.E.D.N.Y. CERTIFICACIÓN. UNE EN 12697-33. Mezclas bituminosas. Métodos de ensayo para mezclas bituminosas en caliente. Elaboración de probetas con compactador de placa, 2007 39. MONTERO, M., Dosificación de mezclas bituminosas. Ensayo Tipo, in Mezclas bituminosas: dosificación, fabricación, puesta en obra y control de calidad. Nueva Orden Circular 24/2008. 2010. p. 1-105. 40. M. CHEN; J. LIN;S. WU. Potential of recycled fine aggregates powder as filler in asphalt mixture. Construction and Building Materials, 2011. 25: p. 3901-3914. 41. C.S. POON;D. CHAN. Feasible use of recycled concrete aggregates and crushed clay brick as unbound road sub-base. Construction and Building Materials 20, 2006. 20(8): p. 578-585. 42. D.G.D.O.P.C. VALENCIANA. 152. Norma de Secciones de firmes de la Comunidad Valenciana, 2009 43. A.M. RODRIGUEZ;I. PÉREZ. Fatigue performance of bituminous mixture made with recycled concrete aggregates and waste tire rubber. Construction and Building Materials, 2017. 157: p. 26-33. 44. I. PÉREZ; M. TOLEDANO; J. GALLEGO;J. TAIBO. Propiedades mecánicas de mezclas bituminosas en caliente fabricadas con áridos reciclados de residuos de construcción y demolición. Materiales de construcción, 2007. 57(285): p. 17-29. 45. I. PÉREZ;A.M. RODRÍGUEZ. Durabilidad de las mezclas con RCD. in XXVIII Semana de la Carretera. 2010. Santiago de Compostela: Asociación Española de la Carretera. 1 DESEMPEÑO ANTE CARGA DE SISMO DE UN EDIFICIO DE HORMIGÓN ARMADO REFORZADO MEDIANTE TEJIDOS DE PRFV Omar Zamora Díaz-Comas1 1Universidad Tecnológica de la Habana José Antonio Echeverría (CUJAE), Calle 114 #11901 entre Ciclovía y Rotonda, Marianao 1e-mail: omar@civil.cujae.edu.cu RESUMEN En el presente trabajo se analiza la influencia del reforzamiento mediante tejidos de polímeros reforzados con fibra de vidrio (PRFV) en el desempeño ante carga de sismo de una edificación de pórticos de hormigón armado, a partir de la implementación del método estático no lineal. Se emplea el programa computacional ETABS V18.1. Se analizan dos tipos de modelos de la edificación objeto de estudio: el modelo de la estructura sin ningún reforzamiento y el modelo de la estructura reforzada mediante tejidos de PRFV. Se reportan y establecen diferencias, para los dos modelos realizados, de los valores de desplazamientos en el tope de la edificación, cortante basal, cortante y desplazamiento de fluencia, punto y nivel de desempeño y valores de cortante basal y desplazamiento en el tope correspondiente a la formación de rótulas plásticas en vigas, columnas y la aparición del primer elemento colapsado. Se concluye que el reforzamiento mediante el empleo de tejidos de PRFV modifica de manera favorable el desempeño de la edificación, ya que se incrementa la capacidad ante carga de sismo, se retrasa la formación del mecanismo de colapso y se mejora el nivel de desempeño con relación a la estructura sin reforzamiento. PALABRAS CLAVES: análisis sísmico, hormigón armado, nivel de desempeño, polímeros reforzados con fibras, rótulas plásticas. EARTHQUAKES LOAD PERFORMANCE OF A REINFORCED CONCRETE BUILDING STRENGTHENED BY GFRP FABRICS ABSTRACT The current work analyzes the influence of strengthening by implementation of glass fiber reinforced polymers (GFRP) to evaluate the seismic load performance of a building with reinforced concrete frames using a non-linear static method. By use of the computational program ETABS V18.1, two types of building models are created and analyzed; one model without any strengthening and the other reinforced with GFRP. Differences between the values of the displacement from the top of the building, basal shear and yield displacement, performance point and level as well as basal shear displacement values at the top corresponding to the formation of plastic hinges in beams, columns and the appearance of the first collapsed element are reported and established for both models. It is concluded that the strengthening by the implementation of GFRP favorably modified the performance of the building, since the capacity to withstand earthquakes increased, the formation of the collapsed mechanism is delayed and the level of performance is improved in relation to the building model without strengthening. KEY WORDS: seismic analysis, reinforced concrete, performance level, fibers reinforced polymers, plastic hinges. 1. INTRODUCCIÓN La mayoría de los reglamentos actuales de diseño sísmico, tienen como objetivo lograr estructuras con adecuados niveles de integridad y resistencia que eviten fallas con pérdidas materiales y humanas durante un sismo de gran intensidad. Desafortunadamente, la imposibilidad de conocer con precisión el nivel de 2 daño esperado hace que aun cuando estas estructuras se comporten aparentemente bien ante sismos intensos, algunas de ellas requieran de algún nivel de rehabilitación [1]. Los nuevos procedimientos de diseño sísmico por desempeño en desarrollo de interés en el diseño de estructuras nuevas y en el reforzamiento de edificaciones existentes, no sólo están encaminados a predecir de una manera más clara el comportamiento, sino también a controlarlo, ante las diferentes intensidades sísmicas según sean las necesidades de diseño. El mal desempeño sísmico de estructuras sismorresistentes durante eventos sísmicos recientes ha puesto en evidencia que la confiabilidad del diseño sísmico no solo era menor que la que se esperaba, sino que presenta grandes inconsistencias entre edificaciones que tienen un mismo sistema estructural, lo cual ha enfatizado la necesidad de replantear las metodologías actuales de diseño sísmico [2]. Es así que, como parte de este replanteamiento, se ha resaltado la importancia de complementar la fase numérica del diseño sísmico con una fase conceptual y de implementación basadas en el control de la respuesta dinámica de las estructuras sismorresistentes [3]. La filosofía de diseño por desempeño se ha constituido dentro de este contexto como la alternativa más viable para el planteamiento de metodologías de diseño sísmico que den lugar a estructuras que satisfagan las cada vez más complejas necesidades de las sociedades modernas. Una gran ventaja del diseño por desempeño o la evaluación estructural basada en el desempeño, es la acertada estimación de la demanda en términos de la rigidez, resistencia y ductilidad de la estructura. A partir de dicha estimación, es posible diseñar una edificación para que se comporte bajo ciertos niveles de desempeño para los cuales fue diseñada [4]. Utilizando las técnicas disponibles para evaluar el desempeño sísmico de una estructura existente, se puede determinar de una manera más confiable su vulnerabilidad frente a una determinada demanda sísmica. Adicionalmente, los costos asociados a la rehabilitación estructural, pueden disminuirse apreciablemente, frente a los requeridos a partir de la utilización de las metodologías aproximadas incluidas en los códigos de diseño [5]. En el caso de las edificaciones existentes, los métodos que tradicionalmente han prevalecido para reforzar elementos de hormigón armado ante la presencia de carga de sismo han sido el recrecido de secciones de hormigón armado y el adosado exterior de planchas metálicas [6, 7]. Estas técnicas, si bien en muchas ocasiones suelen ser efectivas, presentan algunos inconvenientes como la generación de mayor peso propio sobre las edificaciones, posibilidad latente de corrosión del acero de refuerzo y sobre todo una gran dificultad constructiva para lograr la requerida continuidad entre los elementos que conforman las uniones de la estructura. La aplicación de los materiales compuestos de polímeros reforzados con fibras (PRF) en forma de tejidos, dentro de las estrategias que brindan los métodos de rehabilitación sísmica para edificaciones de hormigón armado, han mostrado ser una alternativa a las técnicas tradicionales de reforzamiento, ya que permiten mejorar el desempeño sísmico global de la estructura de una edificación [8]. Diferentes investigaciones [9- 11] han evidenciado que el reforzamiento con materiales de PRF ante carga de sismo, puede ser usado para mitigar con eficiencia mecanismos de fallo frágil y para incrementar la capacidad de rotación inelástica de elementos estructurales, lo que conlleva a un aumento de la capacidad de disipación de energía de la estructura, todo ello, sin modificar prácticamente la rigidez y la masa de la edificación. El presente trabajo tiene como objetivo determinar la influencia del reforzamiento mediante tejidos de polímeros reforzados con fibra de vidrio (PRFV) en el desempeño ante carga de sismo de una edificación de pórticos de hormigón armado, a partir de la obtención de las curvas de capacidad, del nivel de desempeño y de la formación y el comportamiento de las rótulas plásticas. 2. CONFINAMIENTO DEL HORMIGÓN MEDIANTE TEJIDOS DE PRF EN LA ZONA DE FORMACIÓN DE LA RÓTULA PLÁSTICA Ante la presencia de carga de sismo, la envoltura completa mediante tejidos de polímeros reforzados con fibras (PRF) en los elementos estructurales de hormigón armado, provoca un confinamiento en el hormigón 3 que permite alcanzar capacidades de rotación inelástica superiores a la alcanzada en la región de formación de las rótulas plásticas [12, 13]. La curvatura de diseño (∅𝐷) para secciones de hormigón armado confinadas con tejidos de PRF, en la región de formación de las rótulas plásticas, se determina empleando la ecuación (1). ∅𝐷 = 𝜃𝑝 𝐿𝑝 + ∅𝑦,𝑃𝑅𝐹 ≤ ∅𝑢,𝑃𝑅𝐹 (1) En la ecuación anterior (Ecuación 1), 𝜃𝑝 es la demanda de rotación plástica; ∅𝑢,𝑃𝑅𝐹 es la curvatura asociada a la capacidad última de la sección confinada con tejidos de PRF; 𝐿𝑝 es la longitud de la rótula plástica y ∅𝑦,𝑃𝑅𝐹 es la curvatura de la sección confinada mediante tejidos de PRF con el acero de refuerzo trabajando a su tensión de fluencia, la cual se determina mediante la ecuación (2). ∅𝑦,𝑃𝑅𝐹 = 𝜀𝑦 𝑑−𝑐𝑦,𝑃𝑅𝐹 (2) En la expresión anterior (Ecuación 2), 𝜀𝑦 y 𝑐𝑦,𝑃𝑅𝐹 son la deformación de fluencia del acero de refuerzo y la profundidad de la línea neutra respecto a dicha deformación para el hormigón confinado con PRF respectivamente, y 𝑑 es el peralto efectivo de la sección transversal. La curvatura asociada a la capacidad última de la sección confinada con tejidos de PRF se calcula empleando la ecuación (3). ∅𝑢,𝑃𝑅𝐹 = 𝜀𝑐𝑐𝑢 𝑐𝑢,𝑃𝑅𝐹 (3) En la ecuación anterior (Ecuación 3), 𝜀𝑐𝑐𝑢 y 𝑐𝑢,𝑃𝑅𝐹 son la máxima deformación en compresión y la profundidad de la línea neutra en la etapa de agotamiento de la sección, para el hormigón confinado con PRF. Para determinar los parámetros que dependen del confinamiento del hormigón con tejidos de PRF, se empleó en esta investigación el modelo tensión–deformación del hormigón confinado con PRF propuesto por Lam y Teng [14], cuya curva de comportamiento se muestra en la Figura 1. Figura 1. Modelo tensión-deformación del hormigón confinado con PRF [14]. Analíticamente, el modelo anterior [14] responde a las ecuaciones (4)-(6) respectivamente. 𝑓𝑐 = { 𝐸𝑐𝜀𝑐 − (𝐸𝑐−𝐸2) 2 4𝑓𝑐 ′ 𝜀𝑐 2 0 ≤ 𝜀𝑐 ≤ 𝜀𝑡 ′ 𝑓𝑐 ′ + 𝐸2𝜀𝑐 𝜀𝑡 ′ ≤ 𝜀𝑐 ≤ 𝜀𝑐𝑐𝑢 (4) 𝐸2 = 𝑓𝑐𝑐 ′ −𝑓𝑐 ′ 𝜀𝑐𝑐𝑢 (5) 4 𝜀𝑡 ′ = 2𝑓𝑐 ′ 𝐸𝑐−𝐸2 (6) 3. DESCRIPCIÓN DE LA EDIFICACIÓN El edificio objeto de estudio, constituye un pabellón de urgencias de operaciones y cirugía, que pertenece a un centro hospitalario ubicado en el municipio de Santiago de Cuba, en la provincia que lleva el mismo nombre dentro de la región oriental de Cuba. El pabellón cuenta con cinco niveles de altura, de 3 m cada nivel, para un total de 15 m. Todas las plantas son típicas en cuanto a la distribución y dimensiones de los locales, a excepción de la cubierta. Su sistema estructural está conformado por pórticos de hormigón armado, compuestos por columnas de 60 x 60 cm y vigas de 40 x 60 cm. Los sistemas de entrepisos y la cubierta están compuestos por losas de hormigón armado de 15 cm de espesor. La edificación la conforman 18 módulos en cada planta, dispuestos de manera regular y distribuidos de la siguiente forma: 6 módulos de 5,75 m x 4,85 m, 6 módulos de 5,75 m x 2,45 m y 6 módulos de 5,75 m x 6,20 m respectivamente, lo que lo convierte en un edificio más largo que ancho, presentando una distancia total en el sentido longitudinal de 34,5 m, mientras que en el sentido transversal presenta una distancia total de 13,5 m. La estructura del edificio no presenta irregularidades ni en planta ni en elevación. En la Figura 2 se representa la planta típica y una vista tridimensional de la edificación objeto de estudio. Figura 2. Planta y vista tridimensional del edificio. 4. DESCRIPCIÓN DE LA MODELACIÓN DEL EDIFICIO Para modelar la estructura de la edificación objeto de estudio, fue empleado el programa de modelación computacional ETABS (versión 18.1), que está basado en el método de elementos finitos. Las losas de entrepiso y de cubierta fueron modeladas como elementos tipo “shell – thin” y se les asignó la propiedad de diafragma rígido. Las vigas y columnas fueron modeladas como elementos tipo “frame”. Las columnas presentan un total de 16 barras de 25 mm de diámetro distribuidas de manera uniforme alrededor de todo el perímetro de la sección y como acero de refuerzo transversal, presentan cercos de 13 mm de diámetro espaciados a 200 mm. Las vigas exhiben como acero de refuerzo superior 6 barras de 25 mm de diámetro y como acero de refuerzo inferior 5 barras de 25 mm de diámetro. El acero de refuerzo transversal de las vigas se compone de cercos de 13 mm de diámetro espaciados a 150 mm. Todas las losas, vigas y columnas se definieron de hormigón armado hormigonado in situ con una resistencia característica a compresión de 𝑓𝑐 ′ = 21 𝑀𝑃𝑎, un peso específico de 𝛾 = 24 𝑘𝑁/𝑚3, un módulo de deformación longitudinal 𝐸 = 21538,11 𝑀𝑃𝑎 y un coeficiente de Poisson 𝜇 = 0,2. El acero de refuerzo presente en los elementos de hormigón armado tiene un valor de tensión de fluencia de 𝑓𝑦 = 300 𝑀𝑃𝑎, un peso específico de 𝛾 = 78,50 𝑘𝑁/𝑚3 y un módulo de elasticidad 𝐸 = 200000 𝑀𝑃𝑎. 5 Las uniones columna-columna y viga-columna se consideran continuas en toda la extensión del edificio. Las bases de las columnas se consideraron empotradas a la cimentación y los paños de losas presentan continuidad en todos sus apoyos. Para la asignación de las cargas permanentes se empleó la norma NC 283: 2003 [15]. Además del peso propio de los elementos, se asignó una carga total permanente de 4,45 kN/m2 en las losas de entrepiso, y un valor total de carga permanente de 2 kN/m2 en la losa de cubierta. Para la asignación de las cargas de uso se empleó la norma NC 284: 2003 [16]. Se consideraron las cargas relacionadas a zonas de dormitorios, salones de operaciones, salas de visita, locales de consulta médica, laboratorios y pasillos. A la cubierta se le asignó un valor de carga de uso de 2 kN/m2. Para el cálculo de la carga sísmica se empleó la norma NC 46: 2017 [17]. El cálculo de dicha carga se realizó mediante el Método Estático Equivalente, ya que la norma [17] plantea que puede aplicarse en estructuras sin ninguna irregularidad en planta o elevación y que no excedan 50 m de altura sobre la base. El edificio se encuentra ubicado en el municipio Santiago de Cuba, correspondiente con la zona sísmica 5 según la clasificación de la NC 46: 2017 [17]. La edificación se ha clasificado como obra esencial con nivel de protección sísmica E. El tipo de sismo de diseño constituye un sismo severo. La clasificación del sitio constituye un suelo tipo C. La Tabla 1 muestra los parámetros del sitio donde se encuentra ubicada la obra. Tabla 1. Parámetros para la construcción del espectro de diseño sísmico. Donde 𝑆𝑆 es la ordenada espectral de periodo corto; 𝑆1 la ordenada espectral con periodo de 1s y 𝑇𝐿 el periodo de transición del periodo largo. Para determinar el nivel de diseño se debe emplear un factor de escalado Kd, que en este caso resulta igual a 0,80. Las ordenadas espectrales (𝑆𝑎) se determinaron según el valor del periodo de vibración de la estructura (𝑇) a partir de las expresiones contenidas en la NC 46: 2017 [17]. Una vez establecidas dichas ordenadas (𝑆𝑎), se muestra en la Figura 3, la construcción del espectro de diseño de aceleraciones horizontales y verticales. Figura 3. Espectro de diseño de aceleraciones horizontales y verticales. Provincia Municipio So(g) Ss(g) S1(g) TL(s) Zona Santiago de Cuba Santiago de Cuba 0,513 1,035 0,428 6 5 6 El periodo propio de la estructura (T) se determinó mediante el programa ETABS (versión 18.1), considerando la totalidad de las cargas permanentes y el 25 % de las cargas de uso. Para el edificio analizado, el periodo en la dirección “x” fue de 0,564 s y en la dirección “y” de 0,552 s respectivamente. Las combinaciones de carga empleadas en la modelación del edificio que tienen en cuenta el efecto de la carga de sismo, fueron extraídas de la norma NC 46: 2017 [17], mientras que las combinaciones de carga que no tienen en cuenta el efecto de la carga sísmica fueron extraídas de la norma NC 450: 2006 [18]. 5. RESULTADOS Y DISCUSIÓN Comportamiento de las rótulas plásticas del edificio y su reforzamiento mediante tejidos de PRFV El documento ASCE/SEI 41 [19], define los niveles de daño alcanzados en las estructuras ante carga de sismo a través de tres niveles de desempeño: Ocupación Inmediata (IO), Seguridad de Vida (LS) y Prevención de Colapso (CP), los cuales a su vez van a estar limitados mediante los valores de rotación plástica (𝜃𝑝) que presenten los elementos estructurales en la zona de formación de las rótulas plásticas para un determinado nivel de demanda sísmica. En la Figura 4 se muestra el esquema que representa la curva de comportamiento idealizada de una articulación plástica, junto con los límites de rotación plástica de cada uno de los niveles de desempeño mencionados anteriormente. Figura 4. Curva de comportamiento idealizada de una rótula plástica [19]. En la Figura 5 se muestra, para el punto de desempeño de la edificación y para ambas direcciones de análisis de actuación de la carga de sismo, el nivel de daño alcanzado en las rótulas plásticas, a partir de las demandas de rotación plástica que exceden los valores límites que sirven como criterios de aceptación de los niveles de desempeño establecidos en el documento ASCE/SEI 41 [19]. Figura 5. Niveles de daño alcanzados en las rótulas plásticas para el punto de desempeño. En la Figura 5 se puede ver que, en ambas direcciones de análisis de actuación de la carga de sismo, más del 95 % de las rótulas presentan una demanda de rotación plástica inferior al límite establecido para el nivel de desempeño de Ocupación Inmediata (IO), que de acuerdo al documento ASCE/SEI 41 [19], 7 constituye el nivel de desempeño requerido para las edificaciones clasificadas como obras esenciales; sin embargo, se puede observar también en dicha figura (Figura 5), como en la dirección de análisis “x”, el 3,8 % de las rótulas, y en la dirección de análisis “y” el 3,0 % de las rótulas, exhiben una demanda de rotación plástica superior al límite señalado para el nivel de desempeño de Ocupación Inmediata (IO), lo que las coloca con un comportamiento en el nivel de desempeño de Seguridad de Vida (LS). A partir del resultado anterior, se obtuvo un total de 32 columnas en la edificación que se comportan con un nivel de desempeño de Seguridad de Vida (LS) ante carga de sismo. En este sentido, con vistas a mejorar el nivel de desempeño de la edificación objeto de estudio, se procede a realizar el diseño del reforzamiento que confina el hormigón en la zona de formación de las rótulas plásticas de dichas columnas, empleando en este caso tejidos de polímeros reforzados con fibra de vidrio (PRFV) con las siguientes propiedades mecánicas: resistencia última a tracción 𝑓𝑓𝑢 ∗ = 2560 𝑀𝑃𝑎, módulo de elasticidad 𝐸𝑓 = 80700 𝑀𝑃𝑎 y deformación última a tracción 𝜀𝑓𝑢 ∗ = 0,0317. La Tabla 2 muestra los resultados del diseño del reforzamiento mediante el confinamiento con tejidos de PRFV, en las columnas de hormigón armado de la edificación objeto de estudio que presentaron los mayores valores de demanda de rotación plástica (𝜃𝑝). Tabla 2. Resultados del diseño del reforzamiento con PRFV en las columnas con mayores valores de demanda de rotación plástica. Dirección de análisis No. de capas de PRFV 𝜽𝒑 sin PRFV (rad) ∅𝑫,𝑷𝑹𝑭𝑽 (rad/m) ∅𝒖,𝑷𝑹𝑭𝑽 (rad/m) 𝜽𝒑 con PRFV (rad) X 5 capas 0,0036 0,0103 0,0701 0,0062 Y 5 capas 0,0069 0,0158 0,0701 0,0095 Curvas de capacidad de la edificación sin reforzamiento y de la edificación reforzada con PRFV El procedimiento a seguir para la implementación del análisis estático no lineal consiste en obtener la curva de capacidad de la estructura graficando los valores de cortante basal y de desplazamiento en el tope de la edificación. Inicialmente la estructura sin rótulas es expuesta a cargas laterales monotónicas, hasta que algunos elementos alcancen su límite elástico. Las cargas se van incrementando y se aplican a la estructura modificada, que contempla la reducción de resistencia producida, hasta provocar el colapso de la misma. Cada valor de cortante basal y desplazamiento en el tope correspondiente, definen un punto de la curva; por tanto, para conformar la curva se debe repetir este proceso en varias ocasiones. En la Figura 6 se muestran las curvas de capacidad de la edificación sin reforzamiento y de la edificación reforzada con tejidos de PRFV, en las dos direcciones de análisis de actuación de la carga de sismo. a) b) Figura 6. Curvas de capacidad de la edificación sin reforzar y reforzada con PRFV. a) Dirección de análisis “x”. b) Dirección de análisis “y”. 8 En la figura anterior (Figura 6) se puede ver el incremento de capacidad, en términos de resistencia y de desplazamiento ante carga de sismo, de la edificación objeto de estudio cuando se encuentra reforzada mediante tejidos de PRFV con relación a la estructura sin reforzamiento. En este sentido, la diferencia obtenida con relación a los máximos cortantes basales, en la dirección de análisis “x” es de 64,8 %, mientras que en la dirección de análisis “y” es de 44,8 %. De la misma forma, la diferencia obtenida con relación a los máximos desplazamientos en el tope de la edificación, en la dirección de análisis “x” es de 99,5 %, mientras que en la dirección de análisis “y” es de 63,2 %. La Tabla 3, muestra un resumen de los principales resultados obtenidos en las curvas de capacidad derivadas del análisis estático no lineal para la edificación sin reforzamiento y para la edificación reforzada con PRFV en ambas direcciones de análisis de actuación de la carga de sismo. Tabla 3. Resultados de las curvas de capacidad de la edificación sin reforzar y reforzada con PRFV. Dirección de análisis Modelo de la edificación Dtope último (Du) (mm) Vbase último (kN) Dtope de fluencia (Dy) (mm) Vbase de fluencia (kN) Ductilidad (Du/Dy) X No reforzada 237,78 17511,29 63,38 6585,17 3,75 Reforzada con PRFV 474,40 28855,27 50,78 5361,20 9,34 Y No reforzada 210,66 15218,35 59,14 6097,84 3,56 Reforzada con PRFV 343,78 22034,62 50,24 5286,57 6,84 A partir de los resultados mostrados en la Tabla 3 se puede observar que, la edificación reforzada con tejidos de PRFV ingresa más temprano en el rango no lineal de su comportamiento, con respecto a la edificación sin reforzar, ya que los valores de desplazamiento en el tope y de cortante basal de fluencia de la edificación reforzada con PRFV resultan menores que los obtenidos en el análisis de la edificación sin reforzamiento. Otro aspecto importante a resaltar en los resultados de la Tabla 3 es como la edificación reforzada mediante tejidos de PRFV presenta, de manera significativa, una mayor ductilidad por desplazamiento ( 𝐷𝑢 𝐷𝑦 ⁄ ), con relación a la edificación sin reforzamiento. La diferencia de ductilidad por desplazamiento obtenida en la dirección de análisis “x” es de 149,07 %, mientras que en la dirección de análisis “y” es de 92,13 %. Nivel de desempeño de la edificación sin reforzamiento y de la edificación reforzada con PRFV El nivel de desempeño de una estructura describe un estado límite de daño discreto. Para determinar el nivel de desempeño de la edificación objeto de estudio se estimó el punto de desempeño sobre las curvas de capacidad en ambas direcciones de análisis de actuación de la carga de sismo. Para la obtención del punto de desempeño, se empleó el método del Coeficiente de Desplazamiento que aparece en el código ASCE/SEI 41 [19], y que consiste en modificar la respuesta de un sistema equivalente de un grado de libertad mediante una serie de factores para estimar un desplazamiento máximo global, el cual se conoce como desplazamiento objetivo. Mediante la aplicación de este método, se obtiene una representación bilineal de la curva de capacidad y a través de la misma, se determinan los valores de cortante basal de fluencia y de desplazamiento de fluencia de la edificación ante carga de sismo. Según establece el documento del Comité VISION 2000 [20], a partir de los valores de desplazamiento de fluencia y de desplazamiento máximo de la estructura, se puede sectorizar la curva de capacidad, donde a cada sector le corresponde un nivel de desempeño establecido en la NC 46: 2017 [17]. En este sentido, la zona de desplazamiento elástico de la estructura se relaciona con un nivel de desempeño de Ocupación Inmediata, mientras que la zona de desplazamiento inelástico de la estructura, se divide en cuatro sectores, correspondiente a porcentajes de 30 %, 30 %, 20 % y 20 %, a los que se asocian los siguientes niveles de desempeño: Operativo, Seguridad de Vida, Prevención de Colapso y Colapso respectivamente. 9 En las Figuras 7 y 8 se muestran, para ambas direcciones de análisis de actuación de la carga de sismo, las curvas de capacidad sectorizadas de la edificación sin reforzamiento y de la edificación reforzada mediante tejidos de PRFV respectivamente, donde además se identifican los puntos de desempeño y los puntos de fluencia efectiva. a) b) Figura 7. Sectorización de las curvas de capacidad en la dirección de análisis “x”. a) Edificación sin reforzamiento. b) Edificación reforzada con PRFV. a) b) Figura 8. Sectorización de las curvas de capacidad en la dirección de análisis “y”. a) Edificación sin reforzamiento. b) Edificación reforzada con PRFV. En las dos figuras anteriores (Figuras 7 y 8) se puede ver cómo, a partir de la ubicación del punto de desempeño en las curvas de capacidad, el nivel de desempeño que presenta la edificación sin reforzamiento es de Seguridad de Vida, mientras que el nivel de desempeño que presenta la edificación reforzada mediante tejidos de PRFV es el nivel Operativo. A partir de estos resultados, se demuestra que el reforzamiento mediante tejidos de PRFV mejora el desempeño ante carga de sismo de la edificación objeto de estudio, ya que de un nivel de desempeño de Seguridad de Vida en la estructura sin reforzamiento, se pasa a un nivel de desempeño Operativo una vez que la edificación está reforzada con PRFV y además, en este caso, hace que la edificación se desempeñe ante carga de sismo en el nivel exigido para edificaciones clasificadas como obras esenciales según lo establecido en la NC 46: 2017 [17]. Formación y comportamiento de las rótulas plásticas de la edificación sin reforzamiento y de la edificación reforzada con PRFV En la Figura 9 se muestra, para la edificación sin reforzamiento y para la edificación reforzada con tejidos de PRFV, la cantidad de rótulas plásticas que para el punto de desempeño resultaron presentar valores de demandas de rotación plástica (𝜃𝑝) superiores a los valores límites que sirven como criterio de aceptación para el cumplimiento del nivel de desempeño de Ocupación Inmediata (IO), a partir de lo establecido en el documento ASCE/SEI 41 [19]. 10 Figura 9. Rótulas plásticas que sobrepasan los valores límites para el nivel de Ocupación Inmediata (IO). En la figura anterior (Figura 9), se puede observar la influencia que tuvo el reforzamiento con tejidos de PRFV en los valores obtenidos de demandas de rotación plástica (𝜃𝑝) para el punto de desempeño de la edificación, ya que en ningún elemento de la estructura reforzada con PRFV se presentó un valor de rotación plástica que sobrepase los valores límites establecidos para el cumplimiento del nivel de desempeño de Ocupación Inmediata (IO), que además constituye, según el documento ASCE/SEI 41 [19], el nivel de desempeño requerido para edificaciones clasificadas como obras esenciales. En la Tabla 4, se expone el valor de cortante basal y de desplazamiento en el tope de la edificación, para los cuales se desarrolla la primera rótula plástica en vigas y columnas de hormigón armado, correspondiente a los modelos realizados de la edificación sin reforzamiento y de la edificación reforzada con PRFV. Tabla 4. Aparición de la primera rótula plástica en vigas y columnas para la edificación sin reforzamiento y para la edificación reforzada con PRFV. Dirección de análisis Modelo de la edificación Elemento Desplazamiento (mm) Vbase (kN) X No reforzada Viga 34,22 3555,63 Columna 80,26 7780,89 Reforzada con PRFV Viga 33,85 3574,26 Columna 133,24 12417,34 Y No reforzada Viga 27,90 2876,84 Columna 61,69 6008,12 Reforzada con PRFV Viga 27,68 2912,86 Columna 101,23 9519,86 Con los resultados mostrados en la Tabla 4, se puede ver como no se aprecian diferencias significativas entre los valores de cortante basal y desplazamiento en el tope correspondiente a la aparición de la primera rótula plástica en las vigas de hormigón armado, tanto para la edificación sin reforzamiento como para la edificación reforzada con PRFV; sin embargo, se puede observar como en la edificación reforzada con PRFV, la aparición de la primera rótula plástica en las columnas de hormigón armado se da para valores de desplazamiento en el tope y cortante basal superiores a los obtenidos en la edificación sin reforzamiento, lo que se traduce en una mejora del desempeño de la estructura reforzada con PRFV, ya que permite, con relación a la edificación sin reforzamiento, retrasar el proceso de formación de las rótulas plásticas en las columnas y con ello mejorar el mecanismo de colapso, debido a la importancia que reviste el posible fallo en una columna de hormigón armado ante la presencia de carga de sismo. Finalmente, se muestra en la Tabla 5, para la edificación sin reforzamiento y para la edificación reforzada con tejidos de PRFV, el valor de cortante basal y desplazamiento en el tope correspondiente al primer elemento estructural que presenta un colapso o fallo con peligro para la vida de las personas. 11 Tabla 5. Aparición del primer elemento colapsado para la edificación sin reforzamiento y para la edificación reforzada con PRFV. Dirección de análisis Modelo de la edificación Elemento que colapsa Desplazamiento (mm) Vbase (kN) X No reforzada Columna 216,29 16590,07 Reforzada con PRFV Columna 443,35 27609,54 Y No reforzada Columna 182,55 14015,12 Reforzada con PRFV Columna 314,53 21146,61 En la tabla anterior (Tabla 5), se puede observar como en la edificación reforzada con PRFV, la aparición del primer elemento estructural colapsado, se da para valores de desplazamiento en el tope y cortante basal muy superiores a los obtenidos en la edificación sin reforzamiento, lo que ratifica un retraso en el mecanismo de colapso y por lo tanto un desempeño mucho más favorable desde el punto de vista del fallo ante carga de sismo. También es importante señalar que, en todos los casos, el primer elemento que colapsa es una columna de hormigón armado, lo que resalta aún más la importancia del sistema de reforzamiento aplicado en el mecanismo de colapso de la edificación objeto de estudio. 6. CONCLUSIONES Los resultados obtenidos en esta investigación demuestran que el reforzamiento mediante el empleo de tejidos de PRFV en una edificación de pórticos de hormigón armado modifica de manera favorable su desempeño ante carga de sismo. Esto se evidencia en la mejora de la capacidad de la edificación reforzada con PRFV en términos de resistencia y de ductilidad, ya que se obtuvieron, con relación a la estructura sin reforzamiento, incrementos significativos de cortante basal y de desplazamiento en el tope de la edificación. De igual manera, con el reforzamiento mediante tejidos de PRFV, se mejoró el nivel de desempeño de la edificación objeto de estudio, ya que se pasó del nivel de Seguridad de Vida en la estructura sin reforzamiento, al nivel Operativo en la edificación reforzada con PRFV. De la misma forma, también se pudo comprobar que el reforzamiento mediante tejidos de PRFV, permitió mejorar el mecanismo de colapso ante carga de sismo de la edificación, ya que, con relación a la estructura sin reforzamiento, se retrasa, tanto la formación de rótulas plásticas en las columnas, como la aparición del primer elemento estructural colapsado. 7. REFERENCIAS BIBLIOGRÁFICAS 1- ISMAIL, A. “Nonlinear static analysis of a retrofitted reinforced concrete building”. Engineering Structures, 2014, vol 10, núm. 1, pp. 100 - 107. 2- GOLGHATE, K., V. BARADIYA, and A. SHARMA. “Pushover analysis of 4 storey’s reinforced concrete building”. International Journal of Latest Trends in Engineering and Technology, 2013, vol 2, núm. 3, pp. 80 - 84. 3- ALHADDAD, M.S., et al. “Seismic performance of RC buildings with Beam-Column joints upgraded using FRP laminates”. Journal of King Saud University-Engineering Sciences, 2021, vol 33, núm. 6, pp. 386 - 395. 4- ZAMEERUDDIN, M. and K.K. SANGLE. “Review on Recent developments in the performance- based seismic design of reinforced concrete structures”. Structures, 2016, vol 6, pp. 119 - 133. 5- KISSI, B., et al. “Influence of zone type on performance of retrofitted Reinforced Concrete buildings by using Pushover Analysis”. Materials Today: Proceedings, 2018, vol 5, núm. 1, pp. 22 - 29. 6- MOSTOFINEJAD, D. and M. HAJRASOULIHA. “3D beam–column corner joints retrofitted with X- shaped FRP sheets attached via the EBROG technique”. Engineering Structures, 2019, vol 183, pp. 987 - 998. 12 7- BAJI, H., A. ESLAMI, and H.R. RONAGH. “Development of a nonlinear FE modelling approach for FRP-strengthened RC beam-column connections”. Structures. 2015, vol 3, pp. 272 - 281. 8- MA, C., D. WANG, and Z. WANG. “Seismic retrofitting of full-scale RC interior beam-column-slab subassemblies with CFRP wraps”. Composite Structures, 2017, vol 159, pp. 397 - 409. 9- PAMPANIN, S., D. BOLOGNINI, and A. PAVESE. “Performance-based seismic retrofit strategy for existing reinforced concrete frame systems using fiber-reinforced polymer composites”. Journal of Composites for Construction, 2007, vol 11, núm. 2, pp. 211 - 226. 10- DI LUDOVICO, M., et al. “Seismic strengthening of an under‐designed RC structure with FRP”. Earthquake Engineering & Structural Dynamics, 2008, vol 37, núm. 1, pp. 141 - 162. 11- BALSAMO, A., et al. “Seismic behavior of a full-scale RC frame repaired using CFRP laminates”. Engineering Structures, 2005, vol 27, núm. 5, pp. 769 - 780. 12- PANTELIDES, C.P., Y. OKAHASHI, and L. REAVELEY. “Seismic rehabilitation of reinforced concrete frame interior beam-column joints with FRP composites”. Journal of Composites for Construction, 2008, vol 12, núm. 4, pp. 435 - 445. 13- REALFONZO, R., A. NAPOLI, and J.G.R. PINILLA. “Cyclic behavior of RC beam-column joints strengthened with FRP systems”. Construction and Building Materials, 2014, vol 54, pp. 282 - 297. 14- LAM, L. and J.G. TENG. “Design-oriented stress–strain model for FRP-confined concrete”. Construction and Building Materials, 2003, vol 17, núm. 6-7, pp. 471 - 489. 15- NC 283. Densidad de materiales naturales, artificiales y de elementos de construcción como carga de diseño. Oficina Nacional de Normalización. Vedado, La Habana. Cuba. pp. 11. 2003. 16- NC 284. Edificaciones. Cargas de uso. Oficina Nacional de Normalización. Vedado, La Habana. Cuba. pp. 12. 2003. 17- NC 46. Construcciones sismorresistentes. Requisitos básicos para el diseño y construcción. Oficina Nacional de Normalización. Vedado, La Habana. Cuba. pp. 107. 2017. 18- NC 450. Edificaciones. Factores de carga o ponderación. Combinaciones. Oficina Nacional de Normalización. Vedado, La Habana. Cuba. pp. 9. 2006. 19- ASCE/SEI 41. Seismic Evaluation and Retrofit of Existing Buildings. American Society of Civil Engineers. United States of America. pp. 623. 2017. 20- SEAOC. Vision 2000. Report on performance based seismic engineering of buildings. Structural Engineers Association of California, Sacramento, California. United States of America. 1995. SOBRE EL AUTOR Omar Zamora Díaz-Comas. Ingeniero Civil. Máster en Ciencias. Profesor Asistente de la Facultad de Ingeniería Civil en la Universidad Tecnológica de la Habana José Antonio Echeverría. Imparte asignaturas relacionadas con el Diseño de Hormigón Estructural y Mampostería. Pertenece al grupo de Investigación de Hormigón y Mortero armado con Polímeros Reforzados con Fibras (PRF), perteneciente al Centro de Estudios de Construcción y Arquitectura Tropical (CECAT). Forma parte del subcomité dentro del Comité Técnico de Normalización NC/CTN 38 que elaboró la propuesta de Norma Cubana “Edificaciones y Obras Civiles — Diseño y Construcción de Componentes de Hormigón Armado Reforzado con PRF — Requisitos”. Pertenece a la Unión Nacional de Arquitectos e Ingenieros Civiles de Cuba (UNAICC). IMPROVING DURABILITY OF FRP-CONCRETE BOND Rajan Sen Department of Civil & Environmental Engineering University of South Florida Tampa, FL USA sen@usf.edu ABSTRACT Externally bonded fiber reinforced polymer composites (FRP) are widely used for repair and strengthening concrete structures. Depending on geographic location, the adhesive bond line may be subjected to a combination of disparate environmental loads comprising moisture from humidity, rainfall, immersion, or sea water; alkaline solutions from concrete pore water, ultra-violet radiation from sunlight, diurnal / seasonal temperature change and freeze/thaw cycles. Since shear stresses transfer load effects to FRP, integrity of the FRP-concrete bond is critical for ensuring long term repair effectiveness. Research has proven that the FRP-concrete bond deteriorates most rapidly in wet environments because of moisture absorption at the bond line. In infrastructure use, epoxies are typically used as adhesives, but since their individual chemical compositions differ, so does their durability under outdoor exposure. This paper highlights research findings that inform owners how to select FRP systems that are best suited for hot, humid conditions that typify coastal regions in the tropics. Procedures and practices that can further enhance durability are also addressed. KEY WORDS: Epoxy, Durability, Infrastructure, Concrete, Bond PALABRAS CLAVE: Epoxi, Durabilidad, Infraestructura, Concreto, Bond INTRODUCTION Epoxy adhesives are commonly used for strengthening and retrofitting concrete infrastructure using fiber reinforced polymers (FRP). Since bond deterioration can be the result of chemical reactions at the concrete-epoxy interface, outcomes from different FRP systems with differing chemical formulations cannot be the same. The goal of this paper is to provide guidance on factors that should be considered for selecting epoxies used in FRP strengthening systems that can enhance durability particularly in hot, humid, coastal environments. The durability of FRP has been the subject of continuing research extending over 50 years. Initial studies focused on applications in the aerospace sector; later attention shifted to infrastructure. The performance requirements for these two sectors are not the same and therefore materials and fabrication procedures are very different. Fabrication methods in the aerospace sector have reached a level of sophistication and reliability that have led composites to increasingly replace aluminum alloys in aircraft construction. In contrast, there has been no comparable progress in the infrastructure sector primarily because of reliance on wet lay-up systems and ambient-cure epoxies. Since this practice is unlikely to change, the prognosis for dramatic progress in the near future is small. BACKGROUND More than 35 years ago Schmidt and Bell [1] observed: “The three major reasons why the full potential of structural adhesive joints has yet to be approached…are, first, the durability of adhesive joints is poor in wet environments; secondly a successful non-destructive testing method of the bonded joints does not exist; and thirdly, most of the structural adhesives currently used require elevated curing temperatures”. These remarks were in the context of metal-adhesive joints but those familiar with infrastructure related durability research on externally bonded FRP will recognize the contemporaneousness of these observations. This is borne out in recent state- of-the-art reviews [2-4]. Not surprisingly codes are silent on the expected design life of FRP repairs. Only the UK Highways Agency has ventured an opinion. They proposed a 30-year life in an interim note, quoted in Karbhari & Abanilla [5]. In an era of reliability-based load and resistance factor design, this lack of a target design life is quite extraordinary. It stems in part from an incomplete understanding of the chemical composition of concrete and the lack of field data that can be used for calibrating predictive models. In the absence of field data, recourse has been made to laboratory testing in which results from short term accelerated testing are extrapolated to predict expected service life. To ensure repeatability, laboratory tests are conducted on perfect specimens under constant conditions. But since outdoor repairs are exposed to changing conditions and site conditions not always favorable for perfect repairs, the accuracy and validity of such data are questionable. An inherent weakness of these studies is also the underlying assumption that the failure mode from accelerated testing and field exposure remain the same [6]. Research has, however, provided improved recognition of environments that are detrimental for FRP-concrete bond. It therefore makes sense to focus on identifying limitations of resin systems, originally formulated for use in temperate climates, for hot weather applications. By recognizing the shortfalls, it will be possible to select systems that can make repairs more durable in aggressive environments. OBJECTIVES Given the unquestioned value of externally bonded FRP in infrastructure applications, this paper focuses on providing practical guidance on measures that owners can take to select material systems for optimizing the performance of the repair. The measures proposed are based on findings from important research studies conducted in the US over the past 10-15 years. Since the studies were federally funded complete details are available online. In the interests of simplicity, relevant information from the studies is presented in the form of questions and answers. Since carbon is most widely used, only CFRP findings are addressed. Specifically, the following questions are answered: 1. Which environments are most detrimental for epoxy bond? 2. Why does bond deteriorate? 3. What does field data tell us? 4. What is the best strategy for achieving optimal performance? DURABILITY RESEARCH Which environments are most detrimental for epoxy bond? Numerous durability studies that have been reviewed in state-of-the-art papers already referenced. Among these, the most comprehensive was NCHRP 12-73 [7]. The goal of NCHRP 12-73 was to develop design guidelines for CFRP durability. The study was sponsored by the American Association of State Highway and Transportation Officials (AASHTO) in cooperation with the Federal Highway Administration and conducted by the National Cooperative Highway Research Program (NCHRP). It was administered by the Transportation Research Board of the National Academies. In the study, five different CFRP systems identified by the letters A-E were evaluated. Systems A-C are commercially available. D and E were variations of the commercially available system B using custom formulated, two-component epoxies. The five systems were evaluated for one or more of the following exposures: • Elevated temperature water immersion • Different levels of relative humidity • Intermittent wet / dry exposure • Cyclic and sustained loading • Ultraviolet radiation • Alkaline or chloride solution • Real time tidal • Real time solar The scale and scope of the study can be readily recognized by reference to Table 1 that summarizes the test matrix of the research program. Over 1600 specimens were tested in the study that was split between two universities. Table 1 Summary of exposure conditions in NCHRP12-73 Project [7] Exposure Temperature o C Time Number of Specimens Submerged 30 1 week, 2 weeks 1 month, 3 months 6 months, 12 months 18 months 210 40 210 50 210 60 300 RH – 100% 20 As above except first test was after 2 weeks 105 60 105 RH – 75% 20 As above 105 Wet-dry cycling 2 days submerged 5 days dry 20 2, 4, 6, 11.5 months 90 Chloride solution 5% by weight 50 12 15 Alkali solution pH 11.5 50 12 15 Sustained load 50 6 15 UV + 2 weeks submerged/dry 50 20 12 15 Fatigue / repeated 20 N /A 45 Tidal-outdoor Ambient 12, 18 45 Solar – outdoor Ambient 18 30 Pressure hygrothermal 60 7, 10 and 14 days 45 Control – dry 20 28 days 60 Findings Water has for long been recognized as adversely affecting bond. This was further confirmed by NCHRP 12-73; of the exposures listed in Table 1, submerged exposure in water was identified as the most detrimental. Instead of developing durability guidelines, the study led to recommendations for screening FRP materials and systems. Exposures were classified as ‘Wet’ or ‘Air’. Wet environments simulated conditions in a repaired bridge beam that is regularly wetted for extended periods as a result for example low clearance over water. Air reflects conditions where a repaired structure is intermittently exposed to water or precipitation that leaves sufficient drying time between exposures. As a result, water cannot accumulate at the bond line. Wet exposure required specimens to be submerged at 60oC for 60 days; Air required the same 60 day exposure but to 100% RH and 60oC temperature. These recommendations were subsequently incorporated with minor changes in ACI’s accelerated testing protocol, ACI 440.9R-15 [8]. Wet exposure is significantly more severe than Air because there is nearly three orders of magnitude difference in available water per cubic meter between water vapor in the air and under submerged conditions. Thus, a repair exposed to a submerged condition was far more susceptible to water absorption and resulting deterioration than one exposed to air. Table 2 NCHRP 12-73 Proposed durability strength reduction factors CFRP System Wet Environment Dry Environment A Uni-directional carbon fiber fabric impregnated with a two-component epoxy resin that was 100% solid 0.5 0.7 B Epoxy primer, epoxy putty, epoxy saturant, uni- directional carbon fiber 0.65 0.85 weave, and top protective coat C Uni-directional pultruded carbon fiber reinforced polymer laminate and epoxy putty 0.0 0.55 NCHRP 12-73 concluded that epoxies used today were adequate for dry applications. They did not recommend the use of CFRP bonded repairs in wet environments where they were subjected to sustained loading. They proposed strength reduction factors for the three commercially available systems A-C that are summarized in Table 2 for Wet and Air environments. Reductions were smaller for dry exposure. Since CFRP laminates were found to perform poorly in a wet environment, the proposed capacity reduction factor was zero. Simply stated it implies that laminates should not be used for submerged applications. Why does bond deteriorate? The microstructure of epoxies consists of a network of nano pores that allow moisture transport and storage just as in concrete [9]. Equilibrium moisture uptake depends on the polarity of the resin and can be as much as 7% by weight, Soles and Yee [10]. Moisture absorption results in softening of the epoxy (plasticization), and a lowering of its glass transition temperature, Tg. Swelling induced by moisture absorption introduces internal stresses that affect the fiber-matrix interface bond leading to cracking and separation of fibers. Water absorbed into the epoxy at its interface with a concrete substrate reduces its mechanical interlock capacity thereby weakening its bond. Moreover, since the coefficient of thermal expansion of concrete and epoxy differ by an order of magnitude, the effect of this mis-match can be important if the bond line is thick. What does field data tell us? Deterioration of the CFRP-concrete bond is primarily dependent on the performance of the epoxy resin because of changes to its physical and mechanical properties from exposure. Published data [11] from long term outdoor exposure tests and from laboratory studies have highlighted the variable performance of different epoxies and CFRP systems (Fig. 1). It may be seen from Fig. 1 that after five years of outdoor exposure, the flexural strength of the two epoxies was not the same. Epoxy A regained some strength after initial loss. Epoxy B did not. It is this reversal that cannot be replicated in laboratory studies that are conducted under constant conditions. More details may be found in Sen [4]. What is the best strategy for achieving optimal performance? The difference in the performance of epoxies exposed to identical environments highlighted in Fig. 1 was also observed by NCHRP 12-73 [7] as evidenced by the differing capacity reduction factors summarized in Table 2. Even the same epoxy can lead to different outcomes depending on how it was cured. Wright [12] remarked “…water absorption may differ by a factor of ten between different resin types and by a factor of three for a single resin having different curing formulations.” This observation was from aerospace research but it does not overstate the importance of selecting the correct CFRP material and curing regime for the particular service environment of the repair. Installation and surface preparation dictate the extent of voids that can develop. Voids allow moisture to accumulate and can therefore be problematic. Since ambient cure resins typically have limited pot life under hot conditions it can affect how well the carbon fabric can be saturated on site for wet lay-up systems. This is a critical parameter that can affect long term performance of a repair. Figure 1 Epoxy degradation in coastal, sub-tropical climate (adapted from Demers et al. [11]). EPOXY SELECTION Under high temperature exposure, the physical state of epoxies change from glassy to rubbery depending on its glass transition temperature, Tg. Most common ambient cure epoxies have glass transition temperature around ~50oC to 80oC [13]. Since Tg represents a temperature range, German specifications recommend selecting epoxy systems that are not exposed to temperatures within 10oC of Tg, Borchert and Zilch [14]. It would appear logical to use ambient temperature for deciding Tg in selecting a suitable epoxy. Unfortunately, surface temperature can differ significantly from the ambient temperature depending on the emissivity of the surface and the extent of direct exposure to sunlight. Researchers at IIT Bombay, Bairagi and Dubak [15], monitored the concrete roof temperature of the civil engineering building and the ambient air from 6:15 am and 6:30 pm on a summer day. Whereas the maximum ambient temperature for that period was 32oC, the concrete surface temperature was 63oC, more than 30oC higher. They remarked that in hot climates it was not unusual for temperatures to reach between 40oC and 47oC; the corresponding concrete surface temperatures could then reach magnitudes between 80oC and 90oC. In another study conducted in Florida in August, Ross [16] monitored the spatial temperature distribution of a masonry wall. The north facing wall was not exposed to direct sunlight. Nonetheless, the temperature on the CFRP surface was 5.5oC higher than the ambient temperature over the eight day duration of the monitoring. The disparity in temperatures was much lower than the IIT Bombay study; nonetheless, careful attention should be paid to the glass transition temperature of the epoxy resin in hot weather applications to make sure it is not exceeded under service conditions. Solar radiation Damage caused by ultraviolet radiation is well known and can lead to surface cracking of the resin. In the NCHRP 12-73 study, the performance of epoxies under identical UV exposure was not the same. System B showed higher loss in comparison to System A. UV performance of the resin selected and maintenance requirements need to be considered in deciding the system that is selected. Pot life Ambient cure systems have limited pot lives especially in hot weather where it can range from 30-60 minutes. As a result it may be very difficult to wet out a fabric or apply a second layer within the available time. This inability to wet the fabric adequately results in air pockets and voids that can adversely affect bond. NCHRP 12-73 study found that durability was poorer when epoxy coverage used was 80% of the recommended amount. They also observed that durable performance was affected by the primer coating applied to the concrete. The extent of voids that develop depends on the application and environmental conditions. Walker [17] reported that in marine applications voids can exceed 5-8% by volume and in difficult conditions, e.g. overhead, it can exceed 10%. This void volume makes the bond line more porous since it provides a space where water can accumulate. Its subsequent chemical reactions with epoxy will accelerate bond degradation. Construction Specifications in NCHRP 609 [18] NCHRP Report 609 [18] provides guidance on how FRP material should be stored, handled, mixed, applied and cured for optimal performance. Its intent was to identify thresholds for parameters such as surface roughness, out-of-flatness that can adversely affect long term performance. Table 3 summarize some of its findings and key recommendations. They were based on tests on beam specimens and the literature. Table 3 Summary of key installation related findings, NCHRP 609 [18] No Category Finding Basis 1 Surface Roughness Minimal impact – results for CSP-1 (smooth) and CSP-3 (recommended) were found to be comparable 26 beam and 10 double bond shear specimens 2 Surface-Out-of-Flatness Out-of-flatness of 1/16th over a 12 in length appropriate threshold for valleys and depressions 16 beam tests 3 Surface Voids Voids and bug holes reduce contact area. Fill voids with a diameter larger than ½ in or depth greater than 1/8 in. 20 beams NCHRP test showed that ¼ in void depth was OK and ½ in diameter conservative 4 Surface Cracks Surface cuts of up to 1/8 in had no effect. Epoxy injections for crack widths between 0.01 in and 1/32 in for crack spacing of 1.5 20 beams in. 5 Environmental Conditions during installation Surface moisture measured by moisture meter should be below 4.3% RH between 52% and 65% Temperature between 10o and 32oC Literature review One of the surprising findings was that surface roughness was not as important. Bond was just as good when the surface was smooth compared to a surface that had been sand blasted. Unevenness over a given length had more influence on bond behavior. For the range studied, peaks had less influence than valleys and depressions deeper than 1.59 mm (1/16th inch) over a 300 mm (12 in) length could reduce bond. Optimal humidity was found to be between 52% and 65%. Complete details may be found in the final report. Detailing Moisture retention is the primary cause of bond deterioration. On vertical surfaces, water can drain off readily so bond is less likely to be affected. This was found to be true in field measurement of bond on a masonry wall that had been repaired more than 20 years ago. Bond was found to be excellent, Al Azzawi et al. [19]. The importance of drainage is recognized by the masonry industry. Mortar joints in masonry walls are routinely provided with concave or V joints to prevent water from accumulating at these locations and reducing service life. In elements that are horizontal such as beams, drainage should be such that water cannot accumulate. It is not the custom in the US, unlike the UK, to provide waterproofing membranes in bridge decks. Expansion joints pose a perennial maintenance problem for highway authorities and can be a source of water reaching the bond line. Research should be undertaken to identify practical detailing measures that could be combined with CFRP repairs to minimize the ingress of moisture. Silanes and similar hydrophobic materials have been evaluated in research projects but performance has been mixed. In any event, they can be costly and may have unintended consequences. A tailor made engineering solution, e.g. providing a slope may be cheaper and longer lasting. CONCLUSIONS Material selection and application protocol can influence the long term durability of CFRP-concrete bond. In hot climates, there can be wide disparity between ambient and surface temperatures. Because of this, particular attention must be paid to select the right epoxy so that its glass transition range is at least 10oC higher than the maximum anticipated service surface temperature. UV protection characteristics of the epoxy system and maintenance requirements should also be considered in making this decision. FRP installation in hot climates poses problems because of the limited pot life of ambient cure epoxies. In this circumstance, saturating a fabric with resin on-site may be difficult. Research has shown that the primer coating on the concrete surface and the application of the recommended amount of epoxy can lead to better performance by minimizing void volume. Finally, repairs need to be detailed where possible to prevent water from accumulating at the bond line. Gravity based solutions, e.g. slopes, may provide cheaper and more effective solutions if they can be implemented. More research is needed to produce standard details. REFERENCES 1. SCHMIDT, R., BELL, J. Epoxy adhesives to metals. Chapter in Advances in Polymer Science, Editor: K. Dušek, Vol .75, pp 33-71, 1986. 2. SEN, R. “Advances in the application of FRP for repairing corrosion damage”, Progress in Structural Engineering and Materials, Vol. 5, No. 2, pp. 99-113, 2003. 3. MYERS, J.J. (2007). “Durability of external fiber-reinforced polymer strengthening systems”, Durability of composites for civil structural applications (Editor V M Karbhari), Woodhead Publishing Limited, Cambridge, UK, 247-283. 4. SEN, R. Developments in the durability of FRP-concrete bond, Construction and Building Materials, Vol. 78, 112-125, 2015. 5. KARBHARI, V., ABANILLA, M. Design factors, reliability, and durability prediction of wet layup carbon/epoxy used in external strengthening, Composites Part B: Engineering, Vol. 38, Issue 1, 10-23, 2007. 6. SEN, R. “Durability of advanced composites in a marine environment”. International Journal of Materials and Products Technology, Vol. 19, No. 1-2, pp.118-129, 2003. 7. DOLAN, C., TANNER, J., MUKAI, D., HAMILTON, H. and DOUGLAS, E. Research report for evaluating the durability of bonded CFRP repair/strengthening of concrete beams: technical data and discussion supporting the draft final report of NCHRP Project 12-73, 2009. 8. ACI 440.9R-15. Guide to accelerated conditioning protocols for durability assessment of internal and external fiber reinforced polymer (FRP) reinforcement, ACI, Farmington Hills, MI, 2015. 9. AL-AZZAWI, M., MULLINS, G., SEN, R. (2019). “Role of porosity in durability of CFRP-Concrete bond”. ACI Structural Journal, Vol.116, No. 6, pp. 75-87. 10. SOLES, Christopher L., YEE, Albert F. "A discussion of the molecular mechanisms of moisture transport in epoxy resins." Journal of Polymer Science Part B: Polymer Physics 38, no. 5 (2000): 792-802. 11. DEMERS, M., LABOSSIERE, P., NISHIZAKI, I., SARSANIUC, B., NEALE, K.W. “Durability of CFRP sheets under natural climatic conditions”. CDCC-07 Durability and field applications of fibre reinforced polymer (FRP) composites for construction, pp. 151-158, 2007. 12. WRIGHT, W.W. The effect of diffusion of water into epoxy resins and their carbon fibre reinforced composites. Composites, 14(3):201-205, 1981. 13. BANK, L. Composites for construction,Wiley and Soncs, Inc. New Jersey, 2006. 14. BORCHERT, K., ZILCH, K. “Durability, strength and creep of epoxy resins for bonding FRP to concrete under environmental and loading conditions”. CDCC-07 Durability and field applications of fibre reinforced polymer (FRP) composites for construction, pp. 219-226, 2007. 15. BAIRAGI, N., DUBAL, N. Effects of thermal cycles on concrete, International Journal of Structures, 16(1):23- 37, 1996. 16. ROSS, J. Evaluating CFRP-Masonry bond using thermal imaging”. MSCE Thesis submitted to Department of Civil and Environmental Engineering, University of South Florida, Tampa FL 2013. 17. WALKER, L. Aerospace grade composite technology for infrastructure by L. Walker, Paper 17B, Cobrae Conference 2007, University of Stuttgart, Stuttgart, Germany, 2007. 18. MIRIMIRAN, A., SHAHAWY, M., NANNI, A., KARBHARI, V., YALIM. B., KALAYCI, A. (2008). “Recommended construction specifications and process control manual for repair and retrofit of concrete structures using bonded FRP composites”. NCHRP Report 609, National Cooperative Highway Research Program (NCHRP), Transportation Research Board, Washington, DC, 2008. 19. AL-AZZAWI, M., HOPKINS, P., ROSS, J., MULLINS, G., SEN, R. (2018). “CFRP-CMU bond after 20 years outdoor exposure”. ACI Structural Journal, Vol. 115, No. 4, pp.971-983, 2016. ABOUT THE AUTHOR Rajan Sen PhD PE is ACI/ASCE Fellow and Professor Emeritus at the University of South Florida. He served as Jefferson Science Fellow at the US Department of State, Washington DC and as a Distinguished Faculty Fellow at the Office of Naval Research, Bethesda, MD. He is currently in ACI 440 and on the Editorial Board of ASCE Journal of Composites. A past member of TRB AFF80 and RILEM FRP committees, he chaired FRPRCS 11 and was on Advisory Board of the FRP Institute, India. Prior to USF, he worked on the development of the Limit State Bridge Code at the Bridges Engineering Standards Division in UK’s Highways Agency, London, UK. 1 EVALUACIÓN ESTRUCTURAL DE UN PUENTE EN LA RUTA SPONDYLUS DEL ECUADOR Jose Luis Benavides Osorio1, Jaime Marcelo Díaz Iza2, Luis Tinerfe Hernández Rodríguez3, Edgar David Mora Martínez4 1,2,3,4 Escuela Politécnica Nacional, Facultad de Ingeniería Civil y Ambiental, Quito, Ecuador 1e-mail: pelucho19899@hotmail.com, 2e-mail: : mchelo-2710@hotmail.com, 3e-mail: luis.hernandezr@epn.edu.ec, 4e-mail: edgar.mora@epn.edu.ec RESUMEN En este proyecto se aplica la metodología para puentes existentes “Load and Resistance Factor Raiting” (LRFR) del Manual de Evaluación de Puentes publicado por la AASHTO, con la finalidad de adaptarla a las condiciones impuestas por la normativa ecuatoriana vial. El puente es de hormigón armado y está localizado en Ruta del Spondylus al Sureste de Pedernales, en Ecuador. Fue construido en 1986 donde existían otras cargas vehiculares y normas de construcción. Mediante una inspección visual se detectó un grado de deterioro aceptable en su estructura, de esta manera se califica cualitativamente su condición. Para la verificación, se realizó el cálculo de las solicitaciones a la que estarán sujetos los distintos miembros, estructurales, considerando sus diferentes efectos estáticos y dinámicos. El cálculo de la resistencia real consideró la verificación de las vigas, losas y diafragmas de la superestructura y pilas y estribos de la subestructura. Se elaboró un modelo analítico en el software CSI Bridge, donde se determinaron los efectos de carga de diseño, además del periodo fundamental y el comportamiento que tendrá ante un evento sísmico. Finalmente se determinan los índices de capacidad “RF” en las secciones que se esperaba que actúen las mayores solicitaciones de las posibles combinaciones de cargas vigentes en la normativa ecuatoriana. Se llega a la conclusión que los elementos de la superestructura presentan un mayor grado de afectación y en su gran mayoría tienen falla a flexión, por lo que deben reforzarse. Las pilas tipo muro tienen la mayor capacidad nominal y pueden resistir cualquier combinación de carga en la actualidad, mientras que los estribos necesitan una intervención debido a que su capacidad nominal está por debajo de lo que debe resistir PALABRAS CLAVES: Evaluación Estructural, Puentes, Índice de Capacidad. STRUCTURAL EVALUATION OF A BRIDGE ON THE SPONDYLUS ROUTE OF ECUADOR ABSTRACT In this project, the methodology for existing bridges "Load and Resistance Factor Rating" (LRFR) of the Bridge Evaluation Manual published by AASHTO is applied, in order to adapt it to the conditions imposed by Ecuadorian road regulations. The bridge is made of reinforced concrete and is located on Route of Spondylus to the southeast of Pedernales, in Ecuador. It was built in 1986 where other vehicle loads and construction regulations existed. Through a visual inspection, an acceptable degree of deterioration was detected in its structure, in this way its condition is qualitatively qualified. For the verification, the calculation of the solicitations to which the different structural members will be subject was carried out, considering their different static and dynamic effects. The calculation of the real resistance considered the verification of the girders, slabs and diaphragms of the superstructure and piers and abutments of the substructure. An analytical model was developed in the CSI Bridge software, where the design load effects were determined, in addition to the fundamental period and the behavior it will have in the face of a seismic event. Finally, the "RF" capacity indices are determined in the sections that were expected to act on the greatest solicitations of the possible combinations of loads in force in the Ecuadorian regulations. It is concluded that the elements of the superstructure present a greater degree of affectation and the great majority have bending failure, so they must be reinforced. Wall-type piers have the highest nominal 2 capacity and can resist any combination of loads at present, while abutments need intervention because their nominal capacity is below what they must resist. KEY WORDS: Structural Evaluation, Bridge, Rating Factor. 1. INTRODUCCIÓN Actualmente el sistema de red vial de un país es vital para el desarrollo económico social, haciendo posible el comercio entre regiones con una adecuada conectividad, razón por la cual es importante la creación de nuevas carreteras y puentes, así como también de la evaluación, rehabilitación de los ya existentes en la red vial. Un gran porcentaje de puentes existentes que conforman las redes viales en el Ecuador fueron diseñados con normas que a la fecha son obsoletas, tomando en cuenta principalmente los parámetros técnicos y cargas definidas, por lo tanto, es necesario conocer las circunstancias y la metodología con los cuales estas estructuras fueron diseñadas. Por eso se requiere que todos los países tengan normativas de carga para puentes y así cumplir con los estándares federales. Las clasificaciones de carga se realizan para determinar la capacidad de carga viva segura de un puente, considerando las condiciones existentes del mismo. Con base en las clasificaciones de carga, el puente se evalúa para la publicación de carga o el refuerzo. [1] Es habitual en la práctica que muchos puentes existentes, no cumplan con los requerimientos de una norma de diseño actual, sin embargo, mantienen las condiciones de servicio, con niveles de confiabilidad aceptables. Al encontrarse la estructura en servicio, se cuenta con herramientas que permiten disminuir las incertidumbres de las variables del cálculo y facilitar su evaluación estructural [2] El colapso de la red vial ante un desastre natural genera graves efectos socioeconómicos al país, siendo los puentes un elemento primordial de las redes viales. Por eso se tiene como objetivo la evaluación del Puente localizado en Ruta del Spondylus y sobre el Río Mocora, de gran relevancia para la movilidad y conectividad entre los poblados de Jama y Pedernales, por ser la única vía de conexión entre ellos. Para realizar el diagnóstico técnico de los puentes que tienen 30 años o más en funcionamiento es imprescindible conocer sus antecedentes históricos, conocer la integridad de la estructura, lo cual proporcionará información de su funcionamiento. Sin lo anterior, el diagnóstico y repotenciación no tendrá la confianza adecuada siendo posible el colapso de la estructura debido a las fallas de avance ante un desastre natural, así también como el deterioro del tiempo de la estructura. [3] En la evaluación del puente es importante el análisis de capacidades de carga de los diferentes elementos que conforman el mismo, la inspección visual con la información obtenida permitirá tener un diagnóstico de la situación actual y se estimará la seguridad actual de la estructura del puente y a definir límites de servicio de carga viva para su buen funcionamiento. [1]. Por eso, inicialmente, todos estos criterios se consideraron en base a una inspección visual de toda la estructura del puente. En este proyecto técnico se analiza la estructura del puente que consta de una longitud total de 39,2 m, constituido de 3 tableros continuos de los cuales los tableros extremos tienen una longitud de 10,4 m, y el del medio de 18,4 m. En la superestructura hay 4 vigas de hormigón armado de 10,4 m de longitud en los dos tramos extremos y 4 vigas de hormigón armado de longitud 18,4m en la parte central. Las pilas están formadas por dos muros de hormigón armado en la parte central, con unas dimensiones de 8,30 m de ancho, 0,50 m de espesor y una altura de 12,10 m. En las partes externas están los estribos de hormigón armado. La construcción finalizó en el año 1986 con filosofías diferentes a la propuesta por los códigos actuales, cuyas especificaciones originales, tanto en construcción, como diseño, no consideraban la magnitud de los posibles peligros actuales, por lo que los métodos de fiabilidad estructural descritos por el Ministerio de transporte y obras públicas (MTOP) y Norma ecuatoriana de vialidad (NEVI) [4], sugieren la utilización de los métodos de análisis de capacidad de carga propuestos por la AASHTO en “The manual for bridge evaluation” [5]. Los elementos estructurales del puente están construidos de hormigón de resistencia 𝐟′𝐜 = 𝟐𝟏 𝐌𝐏𝐚 y de acero de refuerzo 𝐟𝐲 = 𝟒𝟐𝟎 𝐌𝐏𝐚 3 La superestructura tiene una calzada formada de dos carriles cada uno de 4,25 m. dos veredas peatonales de 0,75 m cada una incluyendo las barandas y una canal de agua a cada lado, sumando en total un ancho de 10 m. La subestructura está compuesta por estribos abiertos y pilas tipo muro, con vigas cabezal “L” con trabas sísmicas. En la Figura 1 se muestra una vista en elevación frontal del puente Figura 1: Vista en elevación frontal del puente En el primer proceso de evaluación, se analizará por capacidad con cargas y especificaciones de diseño aplicadas al puente en su condición actual, evaluando la vulnerabilidad de la estructura. En el segundo procedimiento de evaluación, si el puente no aprueba el nivel de evaluación de carga de diseño, el proceso permitirá establecer la necesidad de restricciones de peso vehicular o de reforzamiento. [5] Cada vez es más importante el parque de puentes y estructuras ya construidas que es necesario mantener y evaluar su estado con el paso del tiempo, o tras haber sufrido alguna situación accidental, como puede ser un sismo. Hay diversas técnicas para ello y en esta comunicación la técnica de observabilidad que combina dos enfoques: uno simbólico y uno numérico, los que se podrían aplicar a la evaluación de puentes. [6] Se empleará un sistema racional y flexible de evaluación, así como la verificación de la estabilidad estructural del puente frente a todas las situaciones en que se encuentre inmerso, basándose en el tipo de puente a construir, tipo de vehículo (camión de diseño MTOP), carga peatonal, carga en bordillos, sismo, viento, entre otras. En cuanto al cálculo sísmico se planteó un análisis no lineal con seis grados de libertad laterales, previniendo el colapso del puente ante la posibilidad de sismos de gran intensidad, estableciendo elevados niveles de fiabilidad, seguridad y estabilidad. Para esto se basó en la filosofía de diseño de la AASHTO [7] y la norma ecuatoriana de la construcción, “Peligro sísmico, diseño sismo-resistente” [8]. Las patologías estructurales en los puentes se presentan de acuerdo con el grado de incidencia e intensidad que pueden provocar ciertos factores como: condiciones climáticas, sísmicas o problemas de uso de suelo, además de la incidencia del uso propio del puente y su antigüedad, por lo tanto, es necesario de un mantenimiento preventivo y correctivo, con la finalidad de conservar su buen estado y funcionamiento. Presentando a continuación un listado de las patologías más comunes existentes en puentes. • Grietas y fisuras • Deterioro del hormigón • Cimentaciones socavadas • Muros y estribos con deslizamientos • Fallos en los apoyos 2. DISCUSIÓN Y RESULTADOS 4 Métodos de Análisis de Capacidad de Carga El análisis de capacidad de carga tiene como objetivo el evaluar la capacidad de los distintos elementos portantes que conforman la estructura ante el paso de carga vehicular. Se aplica el análisis de capacidad de carga en el puente cuando este ha variado sus propiedades físicas y condiciones iniciales de los elementos estructurales del puente, estas variaciones son producidas por el deterioro del material de los elementos, por el uso al tráfico vehicular, factores naturales, ampliaciones y rehabilitaciones en la superestructura, cambio en las especificaciones en las normativas de diseño y servicio; la evaluación se realiza a partir del estado actual, condiciones de tráfico vehicular del puente, para obtener estos parámetros se debe realizar inspecciones de campo. [5] El “MBE”, propone tres métodos de evaluación desarrollados en relación a metodologías de diseño de puentes publicadas por la AASHTO. Estos se mencionan a continuación: • Método por Capacidad de Esfuerzos Admisibles (ASR, Allowable Stress Rating). • Método de Capacidad de Factores de Carga (LFR, Load Factor Rating). • Método de Capacidad por Factores de Resistencia y Carga (LRFR, Load and Resistance Factor Rating) Factor de Capacidad (RF) Es un coeficiente especifico de cada elemento de la superestructura que determina la capacidad de resistir una carga específica, el conjunto de los valores de factor de capacidad obtenidos de cada miembro proporciona una base para determinar la carga vehicular máxima, el reforzamiento de elementos del puente si es necesario y establecer medidas para precautelar la estabilidad y seguridad del puente. [5] Los valores específicos de factor de carga se obtienen a partir de la utilización de la ecuación general de capacidad de carga (1). En el cálculo las variables, factores de carga y resistencia empleados cambian de acuerdo al enfoque y metodología en el análisis de capacidad de carga, buscando intervalos de seguridad más adecuados en términos de la fiabilidad del puente. [5] En general los valores calculados de factor de carga están alrededor del número 1, entonces, si el factor de capacidad es menor que 1 “La estructura no cumple los niveles requeridos de seguridad y requiere acciones correctivas”, si el factor de capacidad es mayor o igual a 1 “El nivel de seguridad de la estructura es satisfactorio”. [5] Para el método LRFR, la capacidad de carga se obtiene a partir la ecuación general de capacidad de cargas y cada conexión sometidos a un efecto de fuerza (axial, flexión o cortante), en el método se contempla la utilización de cada uno de los estados límites y el efecto de carga mínima de corte, axial o flexión que determina el factor de evolución para el control. 𝑅𝐹 = 𝐶 − (𝛾𝐷𝐶)(𝐷𝐶 ) − (𝛾𝐷𝑊)(𝐷𝑊) ± (𝛾𝑃)(𝑃) (𝛾𝐿𝐿) (𝐿𝐿 + 𝐼𝑀) (1) Para los estados de límite de resistencia: 𝐶 = 𝜑𝐶 · 𝜑𝑆 · 𝜑 · 𝑅𝑛 (2) Aplicando el límite inferior: 𝜑𝐶 · 𝜑𝑆 ≥ 0.85 (3) Para los Estados Límite de Servicio: 𝐶 = 𝑓𝑅 (4) En las expresión anteriores 𝑅𝐹 se corresponde con el factor de capacidad, 𝐶 con la capacidad nominal del miembro, 𝑓𝑅 es el esfuerzo admisible especificado en el código LRFD, 𝑅𝑛es la resistencia nominal del miembro, 𝐷𝑐 es el efecto de carga muerta debido al peso propio de los elementos estructurales y no estructurales, 𝐷𝑤es el efecto de carga muerta debido a la superficie de rodamiento e instalaciones para 5 servicios públicos, 𝑃 es las cargas permanentes que no sean cargas muertas, o sea, sobreimpuestas, 𝐿𝐿 es la sobre carga vehicular, 𝐼𝑀 es el incremento por carga vehicular dinámica, γdc es el factor LRFD de carga para componentes estructurales y accesorios, γDW es el factor LRFD de carga para superficie de desgaste y utilitarios, γP es el factor LRFD de carga para cargas permanentes distintas a cargas muertas, 𝜑𝐶 es el factor de condición, 𝜑𝑆 es el factor de sistema y 𝜑 = factor LRFD de resistencia Cargas de Evaluación En la evaluación general de puentes se utiliza las cargas permanentes y de tránsito vehicular para el análisis, no tomando en cuenta las cargas de origen extremo como inundaciones, esto por la baja probabilidad de ocurrencia y la alta magnitud de la fuerza generada, así también se descarta fuerzas secundarias como viento y dilatación del hormigón, la necesidad de inclusión de estas fuerzas en el análisis debe ser justificado. Cargas Permanentes Son cargas que actúan sobre la estructura indefinidamente e invariable durante la vida útil del mismo, se toma como carga permanente a cargas derivadas del peso propio de los elementos de la superestructura, carpeta asfáltica, aceras, barandales y elementos de servicio público (iluminarias, alcantarillado, agua potable). Las cargas permanentes se clasifican en: • Carga Muerta de los miembros estructurales y accesorios no estructurales (DC) • Carga Muerta de las superficies de rodadura e instalaciones para servicios públicos (DW) Cargas Transitorias Son cargas que su acción varia en magnitud y posición durante la vida útil del puente y se clasifican en: • Fuerza de Frenado de Vehículos (BR) • Fuerza de Colisión de Vehículos (CT) • Incremento por Carga Vehicular Dinámica (IM) • Sobrecarga Vehicular (LL) • Sobrecarga Viva (LS) • Sobrecarga Peatonal (PL) • Asentamientos (SE) • Sismo (EQ) • Carga Hidráulica y Presión del Flujo de Agua (WA) • Fluencia Lenta (CR) En el análisis de capacidad de carga de un puente, las cargas transitorias de consideración son sobrecargas vehiculares y la carga dinámica que produce la circulación vehicular. En los manuales de diseño distintos tipos de sobrecarga vehicular, esta dependerá del método y el nivel de evaluación. Cargas Viva de Evaluación La especificación para carga viva empleada en la metodología de evaluación por capacidad es el camión estándar HS-MTOP y un carril de diseño. Para puentes con tráfico pesado el MTOP sugiere la utilización del camión HS-MTOP, esto debido a la evolución del parque automotor. Cargas de Camión de Diseño HS-MTOP Consiste en un camión tractor con semirremolque de tres ejes, mostrado en la Figura 2, donde la separación de los ejes del tractor es 4,30 metros y la separación con el eje del remolque se considera variable, ya que este parámetro cambia según los camiones actuales, teniendo una separación mínima de 4,30 metros y una máxima de 9 metros. La carga en el eje delantero es igual a 49 kN y en cada eje trasero es igual a 196 kN. 6 El mismo que corresponde a un incremento aproximado del 37,8% del camión de diseño de la AASHTO HS-20-44. [4] Figura 2: Camión de Diseño HS-MTOP Procesos de Análisis de la Metodología LRFR En el flujograma de la Figura 3 se describe la metodología LRFR que implementa una estructura de niveles de evaluación de capacidades de carga. Figura 3: Diagrama de Flujo de Metodología LRFR 7 La evaluación de momentos por carga a flexión y esfuerzos cortantes que actúan sobre el puente se realizó basándose en la norma AASHTO LRFD 2017 [7] y el respectivo armado de sus elementos estructurales que lo conforman. La información recopilada consiste en planos estructurales del año 1986 suministrados por el MTOP. Descripción, modelación y análisis estructural del puente analizado Para la revisión de los elementos de la superestructura se tomó en cuenta el tablero, las vigas principales (Viga “T”), diafragmas y la losa en voladizo del puente, considerando que existen 2 carriles de tránsito vehicular con una separación de 4,25 m entre sus ejes. Para cada uno de los elementos estructurales se toma en cuenta su agrietamiento respectivo. Para el caso de la subestructura se evaluaron los elementos de la pila tipo muro (2 miembros) y los estribos abiertos de sección rectangular, de igual manera realizó el cálculo de los cabezales de apoyo tipo “L”. El análisis de los elementos tipo pila se realizó en el sentido transversal, mientras que el análisis de los estribos en el sentido longitudinal, debido a que el MBE recomienda realizar el análisis en el sentido donde la estabilidad de la estructura se encuentra comprometida. De igual manera, se consideró el agrietamiento en los elementos portantes. Debido a la importancia de la estructura es necesario realizar una investigación más completa del puente, para lo cual se realizó un análisis que considere el aporte de los modos de vibración secundarios en el puente, este análisis lo brinda el método elástico multimodal. Se consideró una estructura con 16 grados de libertad (GDL), condensándola a una matriz de rigidez K en los 6 GDL laterales, que son los mismos que interesan para el análisis de estabilidad. Los resultados incluyen las fuerzas sísmicas para pilas y estribos tal como se observa en la Figura 4. Figura 4: Representación de Fuerzas presentes en cada GDL El modelo estructural se muestra en la Figura 5 se realizó con el software CSI Bridge con el fin de establecer el comportamiento del puente en sus diferentes estados de carga aplicados para su evaluación. De esta manera, se obtienen las fuerzas cortantes y momentos a flexión en la superestructura. Además, se realizó un análisis modal, el cual permite conocer el periodo fundamental de la estructura. 8 Figura 5. Modelo estructural de puente sobre el río Mocora El periodo obtenido con ese Software tiene un valor de 0,0571 (s), el cual se asemeja al periodo calculado mediante el análisis multimodal, en donde se tomó en cuenta los grados de libertad transversales dando un valor de 0,0625 (s) lo que significa que este tipo de estructuras debido a la configuración de sus pilas tienen periodos muy bajos. En la Figura 6 se muestra el comportamiento de la estructura. Figura 6: Forma modal de la estructura. Comprobación de Diseño entre Planos Estructurales del MTOP y el Diseño Calculado Se presentan cuadros comparativos mostrándose los resultados obtenidos para cada uno de los miembros estructurales en análisis, empleándose la metodología de Diseño de la Norma AASHTO LRFD 2017 [7] y obteniéndose las solicitaciones a las que se encuentra sometida la estructura debido a la acción de cargas estáticas y dinámicas propias y ajenas al puente, en comparación con la capacidad resistente de acuerdo a la configuración y geometría de las secciones armadas, según los planos estructurales que se poseen. • Comparación de Momentos Últimos y de Esfuerzos Cortantes Si la capacidad resistente del elemento estructural es inferior a la solicitud actuante a la que se encuentra sometido el miembro estructural, es necesario realizar una intervención del mismo ya que este no es capaz de soportar las cargas de diseño. En la Tabla 1 y Tabla 2 se puede observar la comparación de dichos valores tanto para momentos como para esfuerzos cortantes respectivamente. En las mismas, NC! significa que no cumple la condición, mientras que OK! es que se cumple. 9 Tabla 1: Comparación de momentos últimos resistentes y momentos últimos actuantes Tabla 2: Comparación de esfuerzos cortantes resistentes y esfuerzos cortantes actuantes El análisis por capacidad de carga se realizó mediante el método LRFR debido a que en la actualidad es la metodología más completa y mayormente solicitada por las autoridades como especificación de diseño. El manual para evaluación de puentes (MBE) expone que “para puentes de hormigón armado, la evaluación por capacidad de carga se va a realizar por el Estado Límite de Resistencia I [5]. Este recomienda que, si el factor de capacidad es menor a 1, el puente debe ser intervenido ya sea reforzando a la estructura o restringiendo el tráfico vehicular, con esta consideración se analiza los factores de capacidad tanto para momentos como para esfuerzos cortantes la superestructura. Todos estos valores se pueden observar en la Tabla 3 y la Tabla 4. Tabla 3. Factor de capacidad de carga para el Estado Límite de Resistencia I para vigas exteriores e interiores (izquierda-derecha) por momento flexionante AASHTO PLANOS AASHTO PLANOS TABLERO DE 18,4 [m] Actúa Resiste Actúa Resiste LOSA 62,04 39,06 NC! 51,29 30,25 NC! VIGA PRINCIPAL INTERIOR 4335,01 3221,05 NC! - - - VIGA PRINCIPAL EXTERIOR 4356,72 3221,28 NC! - - - DIAFRAGMA INTERIOR 130,1 297,13 OK! 94,4 290,36 OK! DIAFRAGMA DE APOYO 129,97 237,65 OK! 94,4 230,89 OK! LOSA EN VOLADIZO 17,00 31,18 OK! TABLERO DE 10,4 [m] Actúa Resiste Actúa Resiste LOSA 62,04 39,06 NC! 51,29 30,25 NC! VIGA PRINCIPAL INTERIOR 1551,72 1149,61 NC! - - - VIGA PRINCIPAL EXTERIOR 1231,06 1149,61 NC! - - - DIAFRAGMA INTERIOR 129,00 132,28 NC! 93.49 127.76 OK! DIAFRAGMA DE APOYO 128,35 80,58 OK! 93.06 76.04 NC! LOSA EN VOLADIZO 17,00 31,18 OK! SUBESTRUCTURA Actúa Resiste Actúa Resiste PILA 13687,9 25957,26 OK! - - - ESTRIBO 1354,93 676,54 OK! - - - Mu (+) Mu (-) [ kN . m ] [ kN . m ] ELEMENTO ESTRUCTURAL AASHTO PLANOS Vu Vr [ kN ] [ kN ] TABLERO DE 18,4 [m] Actúa Resiste VIGA PRINCIPAL INTERIOR 997,59 1193,9 OK! VIGA PRINCIPAL EXTERIOR 973,39 1193,9 OK! DIAFRAGMA INTERIOR 193,44 563,23 OK! DIAFRAGMA DE APOYO 219,96 454,06 OK! TABLERO DE 10,4 [m] Actúa Resiste VIGA PRINCIPAL INTERIOR 704,44 939,78 OK! VIGA PRINCIPAL EXTERIOR 683,95 939,78 OK! DIAFRAGMA INTERIOR 232,16 293,72 OK! DIAFRAGMA DE APOYO 256,7 70,12 OK! SUBESTRUCTURA Actúa Resiste PILA 3364,44 4914,53 OK! ESTRIBO 187,34 592,25 OK! ELEMENTO ESTRUCTURAL 10 Tabla 4. Factor de capacidad de carga para el Estado Límite de Resistencia I para vigas exteriores e interiores (Izquierda-Derecha) por fuerza cortante M DC M DW M LL+IM Carga Nominal RF OPERACIÓN RF INVENTARIO M DC M DW M LL+IM Carga Nominal RF OPERACIÓN RF INVENTARIO m m kN.m kN.m kN.m kN.m - - kN.m kN.m kN.m kN.m - - 0 0 -7.8743 1.0456 244.6168 1277.34 2.46 1.90 9.8853 -1.0456 128.895 1277.34 4.66 3.59 2.6 2.6 170.1349 22.298 468.7156 1277.34 1.01 0.78 177.8168 24.3375 495.3924 1277.34 0.94 0.72 2.6 2.6 170.1215 22.3685 469.7648 1277.34 1.00 0.77 177.8301 24.2671 494.3319 1277.34 0.94 0.72 5.2 5.2 233.23 30.5298 582.5356 1277.34 0.72 0.56 237.0877 31.1384 528.6547 1277.34 0.79 0.61 5.2 5.2 233.5246 30.6083 583.4036 1277.34 0.72 0.56 236.7931 31.0598 527.6508 1277.34 0.79 0.61 7.7375 7.7375 172.5969 21.9297 473.6113 1277.34 0.99 0.77 168.9103 23.9371 504.2642 1277.34 0.93 0.72 7.7375 7.7375 172.9807 21.966 473.5703 1277.34 0.99 0.76 168.5264 23.9008 503.9678 1277.34 0.93 0.72 13.1000 2.700 431.135 45.7616 777.1177 3579.2 1.76 1.36 422.4021 47.9484 767.8549 3579.2 1.78 1.38 13.1000 2.700 430.9731 45.7741 774.06 3579.2 1.76 1.36 422.564 47.9358 767.5053 3579.2 1.79 1.38 15.6750 5.275 715.1295 77.3867 1249.138 3579.2 0.91 0.71 728.0871 79.0719 1139.621 3579.2 0.99 0.77 15.6750 5.275 713.5082 77.3519 1248.731 3579.2 0.92 0.71 729.7083 79.1066 1138.317 3579.2 0.99 0.77 18.2857 7.886 856.1607 92.3401 1450.915 3579.2 0.71 0.55 877.8457 96.0917 1350.153 3579.2 0.75 0.58 18.2857 7.886 855.3639 92.1862 1448.53 3579.2 0.71 0.55 878.6425 96.2456 1352.858 3579.2 0.75 0.58 20.9142 10.514 855.3668 92.1865 1448.484 3579.2 0.71 0.55 878.6452 96.2459 1352.775 3579.2 0.75 0.58 20.9142 10.514 856.1635 92.3404 1450.862 3579.2 0.71 0.55 877.8485 96.092 1350.093 3579.2 0.75 0.58 23.5249 13.125 713.5153 77.3527 1248.578 3579.2 0.92 0.71 729.7152 79.1074 1138.088 3579.2 0.99 0.77 23.5249 13.125 715.1366 77.3875 1248.987 3579.2 0.91 0.71 728.094 79.0726 1139.405 3579.2 0.99 0.77 26.1000 15.700 430.9788 45.7747 773.8145 3579.2 1.77 1.36 422.5697 47.9365 767.2347 3579.2 1.79 1.38 26.1000 15.700 431.1408 45.7622 776.8747 3579.2 1.76 1.36 422.4077 47.949 767.589 3579.2 1.79 1.38 31.4625 2.663 172.9807 21.966 473.8415 1277.34 0.99 0.76 168.5264 23.9008 504.292 1277.34 0.93 0.72 31.4625 2.663 172.5969 21.9297 473.8805 1277.34 0.99 0.76 168.9103 23.9371 504.5815 1277.34 0.93 0.72 34 5.2 233.5246 30.6083 583.7287 1277.34 0.72 0.56 236.7931 31.0598 528.0104 1277.34 0.79 0.61 34 5.2 233.23 30.5297 582.8851 1277.34 0.72 0.56 237.0877 31.1384 528.9998 1277.34 0.79 0.61 36.6 7.8 170.1215 22.3685 469.9223 1277.34 1.00 0.77 177.8301 24.2671 494.52 1277.34 0.94 0.72 36.6 7.8 170.1349 22.298 468.8744 1277.34 1.00 0.78 177.8167 24.3375 495.578 1277.34 0.94 0.72 39.2 10.4 -7.8743 1.0456 244.6866 1277.34 2.46 1.90 9.8853 -1.0456 128.8818 1277.34 4.66 3.59 EVALUACIÓN DE CAPACIDAD DE CARGA A MOMENTO VIGAS EXTERIORES VIGAS INTERIORES Girder Distance Layout Line Distance PUENTE Tablero 1 Tablero 2 Tablero 3 11 3. CONCLUSIONES Los elementos de la superestructura como vigas y diafragmas presentan un mayor grado de afectación, debido a las patologías presentes como: exposición del acero al ambiente, pequeñas fisuras, agrietamientos, y desprendimiento de hormigón en ciertas zonas. La evaluación de la capacidad de carga se obtuvo mediante el índice de calificación “RF” planteado por el MBE, este permite conocer la condición real del puente, de esta manera se obtuvo resultados de “RF” debido a momentos menores a 1 y debido a corte mayores a 1 en cada elemento de la superestructura. Los resultados obtenidos por el método LRFR para el Estado Limite de Resistencia I indican que los elementos de la superestructura en su gran mayoría tienen falla de momentos a flexión, por lo que el acero principal en los mismos es insuficiente para las cargas actuales. De igual manera, se verifica que cumple la capacidad por resistencia a corte, V DC V DW V LL+IM Carga Nominal RF OPERACIÓN RF INVENTARIO V DC V DW V LL+IM Carga Nominal RF OPERACIÓN RF INVENTARIO m m kN kN kN kN - - kN kN kN kN - - 0 0 -90.719 -9.827 -315.501 1044.2 1.35 1.04 -85.33 -12.161 8.851 1044.2 48.32 37.27 2.6 2.6 -46.525 -6.468 -239.926 1044.2 1.91 1.48 -43.534 -7.417 40.405 1044.2 11.40 8.80 2.6 2.6 -45.914 -4.758 -204.403 1044.2 2.26 1.74 -44.145 -5.076 65.551 1044.2 7.05 5.44 5.2 5.2 -2.005 -1.324 -138.384 1044.2 3.58 2.76 -2.064 -0.406 118.888 1044.2 4.17 3.21 5.2 5.2 3.592 1.812 -96.751 1044.2 5.10 3.93 5.21 0.46 100.354 1044.2 4.91 3.79 7.7375 7.7375 45.679 5.133 -63.956 1044.2 7.21 5.56 47.046 5.048 165.179 1044.2 2.79 2.15 7.7375 7.7375 45.585 6.779 -45.943 1044.2 10.01 7.72 47.139 7.357 200.142 1044.2 2.29 1.77 13.1000 2.700 -136.944 -15.582 -310.347 1326.55 1.69 1.30 -143.354 -16.812 38.733 1326.55 13.37 10.31 13.1000 2.700 -137.142 -13.97 -287.072 1326.55 1.83 1.41 -143.156 -14.411 59.512 1326.55 8.74 6.74 15.6750 5.275 -85.809 -10.696 -242.926 1326.55 2.32 1.79 -91.899 -9.66 101.698 1326.55 5.50 4.25 15.6750 5.275 -85.687 -9.047 -222.801 1326.55 2.53 1.95 -92.021 -7.296 134.598 1326.55 4.17 3.22 18.2857 7.886 -27.308 -3.455 -181.829 1326.55 3.35 2.59 -25.056 -4.738 97.692 1326.55 6.25 4.82 18.2857 7.886 -26.759 -1.726 -161.448 1326.55 3.79 2.92 -25.606 -2.371 120.255 1326.55 5.09 3.93 20.9142 10.514 26.756 1.725 -122.999 1326.55 4.97 3.84 25.604 2.371 172.76 1326.55 3.54 2.73 20.9142 10.514 27.306 3.454 -105.079 1326.55 5.80 4.48 25.054 4.738 204.016 1326.55 2.99 2.31 23.5249 13.125 85.685 9.047 -76.473 1326.55 7.38 5.69 92.019 7.295 194.845 1326.55 2.88 2.22 23.5249 13.125 85.807 10.696 -61.481 1326.55 9.16 7.06 91.897 9.66 217.517 1326.55 2.57 1.98 26.1000 15.700 137.141 13.97 -42.806 1326.55 12.25 9.45 143.155 14.411 271.039 1326.55 1.92 1.48 26.1000 15.700 136.943 15.582 -33.246 1326.55 15.74 12.14 143.353 16.811 300.406 1326.55 1.72 1.33 31.4625 2.663 -45.585 -6.779 -182.775 1044.2 2.52 1.94 -47.139 -7.357 53.533 1044.2 8.56 6.60 31.4625 2.663 -45.679 -5.133 -155.897 1044.2 2.96 2.28 -47.046 -5.048 78.581 1044.2 5.86 4.52 34 5.2 -3.592 -1.812 -108.977 1044.2 4.53 3.49 -5.21 -0.46 127.614 1044.2 3.86 2.98 34 5.2 2.005 1.324 -80.136 1044.2 6.17 4.76 2.064 0.406 102.637 1044.2 4.83 3.72 36.6 7.8 45.914 4.758 -54.553 1044.2 8.46 6.52 44.145 5.076 175.89 1044.2 2.63 2.03 36.6 7.8 46.525 6.468 -42.759 1044.2 10.74 8.29 43.534 7.417 214.522 1044.2 2.15 1.66 39.2 10.4 90.719 9.827 -33.995 1044.2 12.53 9.66 85.33 12.161 299.631 1044.2 1.43 1.10 EVALUACIÓN DE CAPACIDAD DE CARGA A FUERZA CORTANTE VIGAS EXTERIORES Girder Distance Layout Line Distance PUENTE Tablero 2 Tablero 3 VIGAS INTERIORES Tablero 1 12 La gran mayoría de los elementos de la superestructura tienen una deficiente capacidad nominal según se muestra en la tabla 1, lo cual podría repercutir en el correcto funcionamiento del puente para los vehículos pesados actuales, razón por la cual se debería plantear una intervención para el reforzamiento o fiscalización a dichos elementos. En cuanto a la subestructura el comportamiento del puente en sí es muy favorable en lo que se refiere a las pilas y son los miembros estructurales que tienen la mayor capacidad nominal, esto se debe a que la configuración tipo muro le brinda al puente una mayor estabilidad y una capacidad suficiente para poder resistir cualquier tipo de carga a lo largo de su vida útil, debido a que sus valores de capacidad nominal son muy altos. Sin embargo, los estribos necesitan una intervención debido a que su capacidad nominal está por debajo de lo que debe resistir. REFERENCIAS 1. BOWMAN, M. D., Chou, R. Review of Load Rating and Posting Procedures and Requirements. Joint Transportation Research Program, Indiana Department of Transportation and Purdue University, West Lafayette. 2017. 2. MACHÍN, Valentina; SIMA, Fernando. Evaluación de estructuras de puentes existentes con metodologías basadas en Confiabilidad. Conference: First International bridge conference - Chile - Future Challenges: Design, Construction and Maintenance. 2017 . 3. MUÑOZ, Edgar; DAZA, Rubén; Salazar, Felipe. Metodología de evaluación estructural de puente metálicos por técnicas de fiabilidad estructural. Revista Ingeniería De Construcción, Volumen 17 N°1, Páginas 44-52. 2012. 4. NEVI. Especificaciones Generales para la Construcción de Caminos y Puentes (Vol. III). Quito. Ecuador. 2013. 5. AASHTO. The Manual for Bridge Evaluation 3rd Edition (MBE). Washington DC. USA. 2018 6. LOZANO, José Antonio, et al. EVALUACIÓN ESTRUCTURAL DE PUENTES EXISTENTES. TÉCNICAS DE OBSERVABILIDAD Second International bridge congress – Chile: Design, construction and maintenance. 2017 7. AASHTO LRFD. Bridge Design Specifications, American Association of State Highway and Transportation Officials. Washington DC. USA. 2017. 8. NEC-SE-DS. Norma Ecuatoriana de la Construcción, Peligro Sísmico. Diseño sismo resistente. Quito. Ecuador. 2022. SOBRE LOS AUTORES José Benavides y Marcelo Díaz son Ingenieros Civiles graduados en 2020 en la Escuela Politécnica Nacional (EPN) de Quito, Ecuador. Luis Hernández es Profesor Titular de la Facultad de Ingeniería Civil y Ambiental y Director del Centro de Investigación de la Vivienda de la EPN, Ingeniero Civil graduado en 1984 en la Universidad de Camagüey y Doctor en Ciencias Técnicas graduado en 2004 en la Universidad Tecnológica de la Habana. Edgar Mora es Profesor Titular de la Facultad de Ingeniería Civil y Ambiental de la EPN, Ingeniero Civil graduado en 2012 en Pontifica Universidad Católica del Ecuador y Master en Estructuras graduado en 2016 en la EPN. APLICACIÓN DE PARÁMETROS GEOELÉCTRICOS EN EL ESTUDIO DE LA VULNERABILIDAD A LA CONTAMINACIÓN DE LAS AGUAS SUBTERRÁNEAS Rosa María Valcarce Ortega1, Willy Roberto Rodríguez Miranda1, Zaida Jorge Díaz2 1 Departamento de Geociencias, Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE, Calle 114, No. 11901 entre Ciclo Vía y Rotonda, Marianao, La Habana, Cuba. 1e-mail: rosy@civil.cujae.edu.cu 2 Sin filiación RESUMEN Las aguas subterráneas abastecen al menos al 50% de la población mundial. En Cuba representan el 33% de los recursos hídricos disponibles, sin embargo, estos recursos se encuentran amenazados por la sobreexplotación y la degradación que sufren debido al impacto de actividades antrópicas. En el presente artículo se evalúa la vulnerabilidad a la contaminación del acuífero Arenas Algaba, potencial fuente de abasto a la ciudad de Trinidad, Cuba, a partir de la cartografía de la conductancia longitudinal de la zona no saturada. El mapa obtenido permite identificar zonas desde muy baja vulnerabilidad, con valores de conductancia longitudinal mayores de 0,3 Siemens, hasta zonas de muy alta vulnerabilidad con valores de conductancia longitudinal menores de 0,06 Siemens. El desarrollo de estos mapas contribuye a la planificación responsable del uso del suelo y a establecer estrategias para la protección de las aguas subterráneas. PALABRAS CLAVES: agua subterránea, vulnerabilidad, conductancia longitudinal, método AVI. APPLICATION OF GEOELECTRIC PARAMETERS IN THE STUDY OF VULNERABILITY TO GROUNDWATER POLLUTION ABSTRACT Groundwater supplies at least 50% of the world population. In Cuba they represent 33% of the available water resources, however, these resources are threatened by overexploitation and the degradation they suffer due to the impact of anthropic activities. This article evaluates the vulnerability to contamination of the Arenas Algaba aquifer, a potential source of supply to Trinidad City, Cuba, based on the longitudinal conductance of the unsaturated zone. The map obtained allows to identify areas of very low vulnerability, with longitudinal conductance values greater than 0,3 Siemens, to areas of very high vulnerability, with longitudinal conductance values less than 0,06 Siemens. KEY WORDS: groundwater, vulnerability, longitudinal conductance, AVI method. 1. INTRODUCCIÓN Las aguas subterráneas son un elemento esencial del ciclo hidrológico y una de las principales fuentes para satisfacer las necesidades de abasto a la población y del desarrollo de las actividades socio económicas. Se estima que las aguas subterráneas abastecen de agua potable, al menos, al 50% de la población mundial, y representan el 43% de toda el agua utilizada para el riego [1]. El 20% de los acuíferos mundiales está siendo sobreexplotado, lo que en muchos casos ya tiene graves consecuencias, como el hundimiento de los suelos y la intrusión salina. Otra problemática, no menos importante, es el deterioro creciente de la calidad del agua con impactos perjudiciales en la salud humana y en los ecosistemas, debido al vertido de aguas residuales industriales y domésticas que se liberan al medio ambiente sin ningún tratamiento previo. La situación descrita necesita de investigaciones que aporten la información suficiente para implementar acertadas políticas dirigidas a la protección de las aguas subterráneas. En tal sentido, el desarrollo de métodos para evaluar la vulnerabilidad a la contaminación de los acuíferos cobra cada vez mayor importancia a nivel mundial [2], [3], [4], [5]. Según Díaz [6], “la combinación de los factores naturales y antrópicos que inciden en los recursos hídricos de Cuba, así como el agravamiento de sus impactos como consecuencia del cambio climático, ponen de manifiesto que el tema agua es un elemento determinante en el modelo cubano de sostenibilidad”. Como factores naturales identifica el carácter insular del país, la disposición y estructura del relieve, la extensión del carso, el predominio de ríos de pequeña longitud y cuencas hidrográficas de poca extensión, así como la ubicación de los principales acuíferos en las zonas costeras con la amenaza permanente de la intrusión salina. En Cuba, los recursos hídricos disponibles se estiman en 13 650 millones de m3, de los cuales el 33% (4 490 millones de m3) proviene de fuentes subterráneas, evidenciando la importancia de este recurso para el desarrollo socio económico del país [7]. Por otro lado, el bajo índice de recursos hidráulicos disponibles por habitante al año para todos los usos (1 200 m3/habitante/año) ubican a Cuba en la categoría de países con elevada intensidad en la presión sobre sus recursos hídricos, con situación de escasez [6]. García y Gutiérrez [7] señalan que, el insuficiente número de alcantarillado en comunidades, ciudades y pueblos, la existencia de industrias sin el tratamiento adecuado de sus residuales, provocan en Cuba que el caudal y la carga contaminante de las aguas residuales que ingresa a las aguas terrestres comprometen su uso. A lo anterior se unen los incrementos de los niveles de sales solubles de las aguas subterráneas por la intrusión salina presente en importantes acuíferos cársticos costeros. Por todo lo anterior, los estudios de vulnerabilidad a la contaminación de las aguas subterráneas adquieren en Cuba cada vez mayor relevancia. Son varios los investigadores que han elaborado mapas de vulnerabilidad a la contaminación de los principales acuíferos cubanos, lo que se demuestra en los resultados publicados por Valcarce y Jiménez [8], Blanco et al. [9], Vázquez et al. [10], Suárez et al. [11], entre otros. Actualmente, el Proyecto Nacional “Elaboración del Mapa Hidrogeológico de Cuba a Escala 1: 100 000” planifica incluir la cartografía de la vulnerabilidad intrínseca de las formaciones acuíferas. La ciudad de Trinidad, ubicada en la provincia de Sancti Spíritus, Cuba, demanda volúmenes de agua potable cada vez mayores para satisfacer las necesidades de su población y de su acelerado desarrollo turístico. Sin embargo, las fuentes de abasto de agua a la ciudad de Trinidad se encuentran deprimidas y amenazadas por la intrusión salina, lo que obliga a buscar nuevas fuentes que garanticen el gasto requerido para el correcto desarrollo socio económico en los próximos años. Es por ello que se han desarrollado diferentes investigaciones hidrogeológicas en búsqueda de soluciones que permitan ampliar las fuentes de abasto, y en este sentido San Román [12], y Jiménez y Rodríguez [13], demuestran que el acuífero ubicado en los sedimentos aluviales próximos al poblado Algaba, puede proporcionar el volumen de agua que demanda la ciudad de Trinidad. Se requiere evaluar la vulnerabilidad de este acuífero aluvial ante el impacto de actividades antrópicas que puedan degradar la calidad de sus aguas. A partir de estos antecedentes se plantea como objetivo de esta investigación evaluar la vulnerabilidad intrínseca a la contaminación de las aguas subterráneas del acuífero aluvial Arenas Algaba, empleando la conductancia eléctrica longitudinal (S) de las formaciones geológicas no saturadas. 2. MATERIALES Y MÉTODOS El término “vulnerabilidad del agua subterránea a la contaminación” apareció por vez primera en la década del 60 del pasado siglo, refiriéndose a la mayor o menor protección a las aguas subterráneas que ofrece el medio físico contra las actividades antrópicas susceptibles de contaminar [14]. Desde entonces se han sucedido numerosas definiciones que aparecen resumidas en los trabajos de Aguilar et al. [15], donde se recogen definiciones de diferentes investigadores, pero, en esencia, todas hacen referencia a los procesos de atenuación natural que pueden estar presentes en la zona no saturada, y a las características del medio físico que pueden facilitar la migración de los contaminantes hasta alcanzar el agua subterránea. Partiendo de estos supuestos se han desarrollado y aplicado diferentes métodos para evaluar la vulnerabilidad intrínseca a la contaminación de los acuíferos. Cada método tiene sus ventajas y desventajas, y ninguno puede ser considerado el mejor para todas las situaciones, el uso de unos u otros depende de la información disponible y de las características hidrogeológicas del área de estudio. Debido a restricciones en la calidad y disponibilidad de los datos necesarios para aplicar métodos determinísticos y estadísticos que permitan formular matemáticamente el proceso, la mayor parte de las estrategias de evaluación de la vulnerabilidad están basadas en Métodos Paramétricos de Rangos Ponderados, Los Métodos Paramétricos de Rangos Ponderados se basan en la selección de parámetros representativos para evaluar la vulnerabilidad del agua subterránea en cada celda o polígono en que se subdivide el área de estudio. Cada uno de estos parámetros tiene un rango de variación que se divide en intervalos jerárquicos discretos y a cada intervalo se asigna un valor que refleja el grado de sensibilidad del acuífero a la contaminación. A cada parámetro se asigna también un factor de peso que expresa su importancia en el análisis. Para obtener el valor numérico final que refleja la vulnerabilidad de cada celda o polígono en el área de estudio, se suman los rangos de cada parámetro multiplicados por el peso asignado. Algunos de los Métodos Paramétricos de Rangos Ponderados más empleados a nivel internacional son DRASTIC, GOD, AVI, SINTACS, EPIK, RISK, PaPRIKa, COP, LEPT, GALDIT, según refieren las investigaciones de Aguilar et al. [15], Oroji [16], y Zhang et al. [4]. El método AVI (Aquifer Vulnerabilty Index) desarrollado por Stempvoort et al. [17], está basado en dos parámetros fundamentales: espesor de cada capa que sobreyace al acuífero, y conductividad hidráulica de cada una de estas capas. A partir de estos parámetros se realiza el cálculo de la resistencia hidráulica de la zona no saturada según: donde: C: resistencia hidráulica de la zona no saturada, expresada en días (d). di : espesor de cada capa que sobreyace al acuífero, expresado en metros (m). Ki : conductividad hidráulica de cada capa que sobreyace al acuífero, expresada en m/d. El cálculo de C, o el logaritmo de C, es usado para generar mapas de resistencia hidráulica de la zona no saturada. Este parámetro se subdivide en rangos y a cada rango se asigna una clase de vulnerabilidad intrínseca a la contaminación del agua subterránea, ya sea extremadamente alta, alta, moderada, baja o extremadamente baja. La determinación de la conductividad hidráulica de cada una de las capas que sobreyacen al acuífero es un parámetro de difícil determinación lo que dificulta la aplicación de este método. En cortes intergranulares la resistencia hidráulica es función del contenido de arcilla (a mayor arcillosidad mayor resistencia hidráulica) y esta influye decisivamente en la resistividad eléctrica de los sedimentos granulares (a mayor arcillosidad menor resistencia eléctrica), por lo que Kalinski et al. [18] proponen como alternativa sustituir la resistencia hidráulica por la resistencia eléctrica, la que puede determinarse de forma relativamente fácil aplicando métodos de prospección geoeléctrica. En esencia, proponen el cálculo del segundo parámetro de Dar Zarrouk, o sea, de la conductancia eléctrica longitudinal unitaria, de forma que la vulnerabilidad total se puede calcular a partir de la suma de la conductancia longitudinal de cada una de las capas suprayacentes al acuífero. Entonces, la conductancia elécrica longitudinal de la zona no saturada se calcula como: donde: S: conductancia eléctrica longitudinal expresada en Siemens (S). hi: espesor de cada capa que se encuentra desde la superficie (Z=0) hasta el nivel freático (Z=WT) expresada en metros. ρi: resistividad eléctrica de las capas que se encuentran entre la superficie y el nivel freático (ohm-m). En la literatura se reportan importantes estudios de vulnerabilidad de los acuíferos empleando la conductancia longitudinal de la zona no saturada, demostrando la eficiencia del método [19], [20], [21], [22], [23], [5]. En Cuba se reportan las investigaciones de García et al [24] quienes evaluaron la vulnerabilidad a la contaminación de los horizontes acuíferos del sur de la provincia Pinar del Río, basándose en la conductancia eléctrica longitudinal de las capas superficiales, a partir de los indicadores deducidos por Kalinski. El acuífero Arenas Algaba se encuentra ubicado en la vertiente sur del macizo montañoso Guamuhaya, en el valle del río Agabama, a 2 km al este de la localidad de Condado y 28 km al noreste de la ciudad de Trinidad (Figura 1). La composición geológica de la región se presenta en la Figura 2, destacándose que las principales formaciones geológicas en el área de estudio son [25]: Formación Condado (P23 – P31 cd): Compuesta por areniscas, limolitas y conglomerados polimícticos, margas y calizas biodetríticas. Es la formación que bordea y contiene a los sedimentos aluviales que forman el reservorio en el área estudiada. Predomina en el área y contacta con los sedimentos aluviales a través de la argilita que constituye el sello del acuífero. Depósitos Aluviales (Q2 al): Compuestos por limos, limos arenosos, arcillas arenosas con intercalaciones de gravas. Constituyen el reservorio acuífero propiamente dicho. Se presentan también de forma irregular y frecuente en la parte superior del corte. Figura 1. Ubicación del área de estudio. Figura 2. Mapa geológico del área de estudio. Modificado de IGP [25]. La tomografía eléctrica es una variante de los métodos de prospección geoeléctrica que permite cartografiar la resistividad eléctrica del corte geológico empleando gran número de electrodos, separados a igual distancia unos de otros. El procesamiento e interpretación de estas mediciones brinda una sección bidimensional (distancia – profundidad) con la distribución de la resistividad eléctrica real del corte geológico. Trabajos anteriores en el área de estudio permitieron disponer de siete perfiles de tomografía eléctrica que utilizaron la configuración Wenner – Schlumberger, con abertura entre electrodos de 5 m, distancia entre puntos de medición 50 m y distancia entre perfiles 150 m. La longitud de los perfiles estuvo entre 1 839 m y 2 069 m. La profundidad de investigación alcanzada fue de 50 m [12], [13]. A partir de estos perfiles de tomografía eléctrica, la vulnerabilidad del acuífero aluvial Arenas Algaba fue evaluada a través del parámetro geoeléctrico conductancia longitudinal. Teniendo en cuenta que en la zona no saturada del acuífero bajo estudio la variabilidad de la resistividad eléctrica es función de la arcillosidad de las formaciones geológicas presentes, es posible afirmar que a mayor arcillosidad, menor resistividad eléctrica, mayor conductancia longitudinal y mayor resistencia hidráulica. Esto permite caracterizar la conductividad hidráulica de la zona no saturada y cartografiar la vulnerabilidad natural del acuífero a la migración vertical de contaminantes [18], [26], [5]. Según Jiménez y Rodríguez [13] en esta área los materiales aluviales gruesos y permeables presentan valores de resistividad eléctrica mayores de 100 ohm-m, los sedimentos areno – arcillosos tienen resistividad eléctrica entre 40 y 100 ohm-m, mientras que los sedimentos de granulometría más fina y las arenas muy arcillosas presentan valores de resistividad eléctrica que oscilan entre 18 y 40 ohm-m, presentándose la arcilla y la argilita con resistividad eléctrica menor de 18 ohm-m. El nivel freático se encuentra aproximadamente a seis metros de profundidad. En la presente investigación fue analizada estadísticamente la variabilidad de los valores de resistividad eléctrica de la zona no saturada, y fue calculada su conductancia longitudinal a lo largo de cada perfil de tomografía eléctrica hasta una profundidad de 6 metros, según la Ecuación 2. Finalmente se estableció la relación entre los rangos de variación de la conductancia longitudinal de la zona no saturada y las clases de vulnerabilidad del acuífero. 3. RESULTADOS Y DISCUSIÓN El análisis estadístico de los valores de resistividad eléctrica de la zona no saturada muestran una variación entre 4 y 400 ohm-m, con media 80 ohm-m y desviación típica igual a 83 ohm-m. La Figura 3 presenta cómo se distribuyen estos valores. Se aprecia que el 43% de los valores obtenidos son menores que 40 ohm-m, reflejando la presencia de sedimentos muy arcillosos en la zona no saturada. A partir del comportamiento de la resistencia eléctrica y la conductancia longitudinal, y atendiendo a su correlación con el grado de arcillosidad y principales litologías presentes en la zona no saturada, se establecieron las clases de vulnerabilidad del acuífero según se expresa en la Tabla 1. Figura 3. Distribución de los valores de resistividad eléctrica de la zona no saturada. Tabla 1. Relación entre la conductancia longitudinal de la zona no saturada y las clases de vulnerabilidad del acuífero. Conductancia longitudinal (S) Clase de vulnerabilidad menores de 0,06 Muy Alta 0,2 a 0,06 Alta 0,3 a 0,2 Baja mayores de 0,3 Muy Baja La Figura 4 muestra el mapa de conductancia longitudinal de la zona no saturada, que fue elaborado interpolando por el método Kriggin los valores de conductancia longitudinal calculados para cada punto de medición. La Figura 5 presenta el mapa de vulnerabilidad obtenido al transformar los rangos de conductancia longitudinal en clases de vulnerabilidad, según los criterios establecidos en la Tabla 1. En la Figura 4 se evidencia que en la zona oeste predominan altos valores de conductancia longitudinal, reflejando la elevada arcillosidad de estas litologías. Ello indica que las capas que sobreyacen al acuífero en este sector brindan una alta protección a las aguas subterráneas, pues la alta arcillosidad que presentan impone alta resistencia hidráulica a los contaminantes que pudieran migrar verticalmente desde la superficie hasta alcanzar el manto freático. Figura 4. Mapa de conductancia longitudinal de la zona no saturada Figura 5. Mapa de vulnerabilidad intrínseca del acuífero. En la zona central y este del área estudiada predominan valores más bajos de conductancia longitudinal, característicos de sedimentos aluviales de granos más gruesos y mayor permeabilidad, así como de areniscas y conglomerados polimícticos de la Formación Condado, que ofrecen baja resistencia hidráulica al paso de los fluidos. Se aprecian también en estas zonas algunos sectores con incrementos en los valores de conductancia eléctrica longitudinal, debido a la alternancia de las areniscas con los depósitos aluviales arcillosos de la localidad de Algaba. El análisis anterior se corrobora en la Figura 5, que muestra el mapa de vulnerabilidad intrínseca del acuífero. Las zonas central y este del área estudiada son vulnerables a la mayoría de los contaminantes, los que llegarán rápidamente al acuífero, excepto los que puedan ser fuertemente absorbidos o fácilmente transformados. Las zonas ubicadas hacia el sector oeste, solo serán vulnerables a contaminantes conservativos cuando sean descargados de forma difusa y durante largos períodos de tiempo. 4. CONCLUSIONES El estudio de la capacidad protectora de la zona no saturada del acuífero aluvial Arenas Algaba, a partir de la relación entre el parámetro conductancia eléctrica longitudinal y resistencia hidráulica, permitió evaluar las áreas más susceptibles a la contaminación de las aguas subterráneas, identificando sectores de muy alta, alta, baja y muy baja vulnerabilidad. El mapa de vulnerabilidad obtenido constituye una herramienta de gran ayuda en la elaboración de planes de manejo del acuífero y de ordenación del territorio. El método puede ser aplicado a otros acuíferos cubanos donde sea posible asociar los bajos valores de resistividad eléctrica a incrementos de la arcillosidad de las formaciones geológicas en la zona no saturada. Se recomienda el desarrollo de investigaciones dirigidas a introducir el parámetro geoeléctrico conductancia longitudinal para caracterizar las capas protectoras en los métodos paramétricos de rangos ponderados como DRASTIC, GOD, SINTACS, EPIK, RISK, PaPRIKa, COP y LEPT. RECONOCIMIENTOS Los autores desean agradecer a los especialistas de la Empresa de Recursos Hidráulicos de Villa Clara y Sancti Spíritus, especialmente al Ing, Ernesto Rodríguez Cruz, por facilitar la información necesaria para el desarrollo de esta investigación. REFERENCIAS 1. WWDR. 2018: Informe Mundial de las Naciones Unidas sobre el Desarrollo de los Recursos Hídricos. Soluciones basadas en la naturaleza para la gestión del agua. Cifras y datos. 2018 [en línea], enero 2018. Consulta 10 febrero 2020. Disponible en: www.unesco.org/warer/wwap 2. ABDULLAH T.; ALI, S.; AL ANSARI,N.; KNUTSSON, S. 2016: Groundwater vulnerabiity using DRASTIC and COP models: Case study of Halabja Saidsadiq basin, Iraq. Engineering 8(1): 741-760. 3. LUOMA, S.; OKKONEN, J.; KORKKA, K. 2017: Comparison of the AVI, modified SINTACS and GALDIT vulnerability methods under future climate – change scenarios for a shallow low – ling coastal aquifer in southern Finland. Hydrogeology Journal 25 (2): 203–222. 4. ZHANG, Y.; WEISSMANN, G.; FOGG, G.; LU, B.; SUN, H.; ZHENG, CH. 2018: Assessment of groundwater susceptibility to non point soured contaminants using three-dimensional transient indexes. International Journal of Environmental Research and Public Health [en línea], 15 (1177), junio 2018. Consulta: 10 febrero 2020. Disponible en: www.mdpi.com/journal/ijerph 5. OBIORA , D. AND IBUOT, J. 2019: Geophysical assessment of aquifer vulnerability and management: a case study of University of Nigeria, Nsukka, Enugu State. Applied Water Science [en línea], 2020 (1029), diciembre 2019. Consulta: 22 marzo 2020. Disponible en: https://doi.org/10.10.1007/s13201-019-1113-7 6. DÍAZ, J. A. 2018: El agua en Cuba: un desafío a la sostenibilidad. Ingeniería Hidráulica y Ambiental 34(2): 46-59. 7. GARCIA, J. Y GUTIÉRREZ J. 2015: La gestión de cuencas hidrográficas en Cuba. Instituto Nacional de Recursos Hidráulicos, La Habana, 95 p. 8. VALCARCE, R.M. Y JIMÉNEZ, R. 2016: Vulnerabilidad y riesgo de contaminación de la cuenca Dolores-Sagua La Chica, Cuba. Ingeniería Hidráulica y Ambiental 38(3): 30-40. 9. BLANCO, E.; BROWN, E.; MÁRQUEZ, R. 2018: Vulnerabilidad a la intrusión salina y la contaminación en la cuenca sur de Ciego de Ávila. Ingeniería Hidráulica y Ambiental 34(1): 43-57. 10. VÁZQUEZ, B.; FARFÁN, H.; GUANCHE, C. 2019: Evaluación de la vulnerabilidad y el riesgo de contaminación de las aguas subterráneas del acuífero cársico Vento, La Habana, Cuba. Informin [en línea], 11(1), diciembre 2019. Consulta: 16 febrero 2010. Disponible en: http://www.infomin.co.cu 11. SUÁREZ, O.; FUENTES, D.; VALCARCE, R. M.; VEGA, M.; RODRÍGUEZ, W. 2019: Aplicación de la metodología RISK modificada para evaluar la vulnerabilidad natural de la cuenca Almendares- Vento. VIII Convención Cubana de Ciencias de la Tierra, GEOCIENCIAS´2019. Memorias [CD-ROM], La Habana, Cuba, 1--5 de abril. 12. SAN ROMÁN, N. 2019: Evaluación de acuíferos aluviales para el abasto mediante la integración de un complejo de métodos de estudio. Caso: Arenas Algaba. José Peñate Fleites (Tutor). Tesis de Maestría. Universidad de Pinar de Río “Hermanos Saíz Montes de Oca”. 93p. 13. JIMÉNEZ, R. Y RODRÍGUEZ, E. 2013: Geofísica aplicada a la búsqueda de agua subterránea en depósitos aluviales. Caso de estudio Arenas Algaba. V Convención Cubana de Ciencias de la Tierra, GEOCIENCIAS´2013. Memorias [CD-ROM], La Habana, Cuba, 1--5 de abril. 14. MARGAT, J. 1968: Vulnerabilité des nappes d´eau souterraines á la pollution. Bases de la cartoigraphie. BRGM No. 68. SLG 198 HYD. Orléans. 15. AGUILAR, Y.; BAUTISTA, F.; MENDOZA, M.; DELGADO, C. 2013: Vulnerabilidad y riesgo de contaminación de acuíferos kársticos. Troplical an Subtropical Agroecosystems 16(2013): 243-263 16. OROJI, B. 2018: Groundwater vulnerability assessment using GIS-based DRASTIC and GOD in the Asadabad plain. Journal of Materials and Environmental Sciences 9(6): 1809-1816 17. STEMPVOORT, D. V.; EWERT, L. WASSENAAR, L. 1993: Aquifer Vulnerability Index: A GIS – compatible Method for groundwater vulnerability mapping. Canadian Water Resources Journal 18(1), junio 2013. Consulta: 16 febrero 2018. Disponible en: https://doi.org/10.4296/cwrj1801025 18. KALINSKI, R. J.; KELLY, W. E. ; Bogardi, I.; Pesti, G. 1993: Electrical resistivity measurements to estimate travel times through unsaturated ground water protective layers. Journal of Applied Geophysics 30(3): 161-173. 19. de OLIVEIRA, A.; FONSECA, R.; BIRELLI, C.; BLANCO, R. 2018: Application of longitudinal conductance in the estimation of the natural vulnerability of the Guarani Aquifer System in the Sao Paulo State. Geociencias 37(4), diciembre 2018. Consulta: 16 febrero 2020. Disponible en: www.revistageociencias.com.br/geociencias-arquivos/37/volume37_4.html 20. CHUKWUMA, E.; ORAKWE, L.; ANIZOBA, D.; AMAEFULE, D.; ODOH, C.; NZEDIEGWN, C.; 2015: Geo-electric groundwater vulnerability assessment of overburden aquifers at Awka in Anambra State, south-eastern Nigeria. European Journal of Biotechnology and Bioscience [en línea], 3 (1), enero 2015. Consulta: 16 febrero 2020. Disponible en: www.biosciencejournals.com 21. SENDROS, A. 2016: Aplicación de parámetros geoeléctricos en el estudio de las aguas subterráneas (Cuenca de Valls Tarragona). Albert Casas Ponsatí (Tutor). Tesis Doctoral. Universidad de Barcelona, 240 p. 22. MOSURO, G.; OMOSANYA, K.; BAYEWA, O.; LANIYAN, T: 2017: Assessment of groundwater vulnerability to leachete infitration using electrical resistivity method. Applied Water Science 2017(7): 2195-2207. 23. AWETO, K. AND OHWOGHERE, O. 2018: Assessment of aquifer pollution vulnerability index at Oke-lla, south-western Nigeria using vertical electrical soundings. Journal of Geography, Environmental and Earth Science International 16 (2): 1–11. 24. GARCÍA, J.A.; SACASAS, C.; DÍAZ, A. 2018: Vulnerabilidad a la contaminación en horizontes acuíferos del sur de Cuba occidental. Ingeniería Hidráulica y Ambiental 34(1): 73-83. 25. INSTITUTO DE GEOLOGÍA Y PALEONTOLOGÍA (IGP). 2016: Mapa geológico de la República de Cuba. La Habana: Servicio Geológico de Cuba. 26. KIRSH, R.; SENGPIEL, K-P.; VOSS, W. 2003: The use of electrical conductivity mapping in the definition of an aquifer vulnerability index. Near Surface Geophysics 1(2): 3-20. sobre los autores Rosa María Valcarce Ortega, Ingeniera Geofísica graduada en 1982, Doctora en Ciencias Técnicas, Profesora Titular del Departamento de Geociencias de la Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE. Miembro de la Sociedad Cubana de Geología. Willy Roberto Rodríguez Miranda, Ingeniero Geofísico graduado en 1981, Doctor en Ciencias Técnicas, Profesor Titular del Departamento de Geociencias de la Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE. Miembro de la Sociedad Cubana de Geología. Zaida Jorge Díaz, Ingeniera Geofísica graduada en 2019. 1 RELACIÓN ENTRE LA PERMEABLIDAD Y LA INTENSIDAD DE LLUVIA EN EL COMPORTAMIENTO DEL FACTOR DE SEGURIDAD DE LOS TALUDES EN PRESAS DE TIERRA MSc. Ing. Isaida Flores Berenguer 1, Dr. Ing. Yoermes González Haramboure 2, Dra. Ing. Jenny García Tristá 3 1-3 Universidad Tecnológica de la Habana ¨José Antonio Echeverría¨, dirección: Calle 114, # 11901, e/ Ciclovía y Rotonda, Marianao. CP 11500. La Habana. Cuba 1e-mail: isaidafb@civil.cujae.edu.cu RESUMEN Esta investigación muestra la relación entre la intensidad de lluvia y la permeabilidad de los suelos en la variación del factor de seguridad de los taludes aguas abajo en presas de tierra. Para ello se modela una presa de 30 metros de altura de cortina, conformada con 6 suelos arcillosos y prisma de drenaje, sometida a tres intensidades de lluvia: mayor, menor e igual que la permeabilidad. Se consideran las curvas características y de conductividad hidráulica obtenidas mediante el programa GeoStudio (2018), mismo programa donde se modelaron las variantes sometidas a flujo transitorio, empleando el método de Morgenstern-Price para la obtención del factor de seguridad del talud aguas abajo. El resultado fundamental obtenido muestra que, existe una relación directa entre cantidad de lluvia infiltrada y el factor de seguridad. PALABRAS CLAVES: intensidad de lluvia, permeabilidad, presas de tierra, suelos parcialmente saturados, estabilidad de taludes. RELATIONSHIP BETWEEN PERMEABILITY AND RAINFALL INTENSITY IN THE BEHAVIOR OF THE SAFETY FACTOR OF SLOPES IN EARTH DAM ABSTRACT This research shows the relationship between rainfall intensity and soil permeability in the variation of the safety factor of downstream slopes in earthen dams. For this, a 30-meter-high curtain dam is modeled, made up of 6 clayey soils and a drainage prism, subjected to three rainfall intensities: higher, lower and equal to permeability. The characteristic and hydraulic conductivity curves obtained through GeoStudio (2018) itself are considered, the same program where the variants subjected to transitory flow were modeled, using the Morgenstern-Price method to obtain the safety factor of the slope downstream. The fundamental result obtained shows that there is a direct relationship between the intensity of the rain and the factor of safety. KEY WORDS: rainfall intensity, permeability, earth dams, partially saturated soils, slope stability. 1. INTRODUCCIÓN En el campo de la geotecnia, la estabilidad de taludes es uno de los problemas típicos, para su estudio, se refieren fundamentalmente a las presas de tierra. En Cuba, se consideran como las causas más frecuentes de fallas por estabilidad de taludes en presas de tierra a las precipitaciones. Para describir el comportamiento de los suelos en estas condiciones, es necesario considerarlos en su estado parcialmente saturado. Las presas de tierra son obras de ingeniería construidas para almacenar y distribuir las reservas de agua con el objetivo de obtener beneficios económicos y sociales. Se han utilizado desde la antigüedad fundamentalmente 2 para beneficiar la agricultura, suplir las necesidades de la población y evitar las crecidas por inundaciones de los ríos. Los suelos que componen las cortinas de las presas de tierra, se someten a procesos constructivos diversos para lograr una adecuada compactación. Según Tristá, [1] los suelos compactados, debido a su naturaleza, son suelos no saturados. La estructura trifásica que compone a los suelos no saturados se muestra en la figura 1. Figura 1: Componentes del suelo parcialmente saturado [2] referenciado por Mendoza [3]. En el suelo con determinado grado de saturación (inferior al 100%), se requiere cierta fuerza para reducir el contenido de agua del mismo, este efecto se puede explicar mediante la succión. Para relacionar la succión y la humedad de equilibrio presente en los suelos se obtiene de la curva característica, que puede ser caracterizada a partir de las trayectorias típicas en secado o humedecimiento entre las que aparece el fenómeno de la histéresis. La obtención de las succiones en el laboratorio puede realizarse mediante diversos métodos que se dividen en directos e indirectos dependiendo del equipo que se emplee. Así como el intervalo de medida de las succiones y el contenido de humedad presente [1]. Sin embargo, el empleo de estos métodos requiere equipo especializado y los ensayos resultan costosos y demorados. Por todo ello, han surgido modelos matemáticos de estimación de la curva característica, que son una alternativa viable empleados usualmente cuando no se cuenta con datos experimentales que relacionen la succión con el contenido de agua. Se contabilizaron los fallos en presas de tierra en Cuba, luego de realizar visitas a las empresas de aprovechamiento hidráulico de todas las provincias del país durante el año 2016, identificando un total de 52 casos. En base a estos estudios, el orden actual de ocurrencia de las causas más comunes de falla en presas de tierra en Cuba, difiriendo ligeramente con respecto al resto del mundo es: el deslizamiento de los taludes, el rebase de la cortina, el sifonamiento, las pérdidas por filtraciones y el agrietamiento. Se considera que una falla es un movimiento, fractura o mal funcionamiento de alguna parte de la presa, de manera que ésta ya no cumple con su objetivo principal de diseño, que es la retención del embalse [4]. El incremento en el contenido de agua en los suelos que conforman los taludes genera reducciones en el esfuerzo efectivo y en la resistencia al corte, lo que conduce a un incremento de la vulnerabilidad de los taludes a los deslizamientos [5]–[7]. Cuando ocurren fuertes lluvias que afectan a los taludes, las propiedades hidráulicas de los suelos y los patrones de precipitaciones controlan el comportamiento de la infiltración del agua. La conductividad hidráulica saturada del suelo limita el rango de infiltración de las precipitaciones, mientras, la intensidad y duración de la lluvia controla la cantidad de esta que puede infiltrarse en el suelo [8]. Esta infiltración de las precipitaciones, aumenta las presiones de poros debido al agua, reduciendo la resistencia al corte de los suelos y afectando la estabilidad de los taludes [9]–[11]. En los análisis de flujo transitorio, a diferencia del flujo establecido, se presentan cargas hidráulicas variables. Esta variación de cargas ocurre debido a los cambios en las condiciones de frontera que asocia la variación de los niveles de agua en el tiempo. Para diversas aplicaciones, la ley de Darcy [12] se generaliza a problemas de flujo transitorio considerando la conductividad hidráulica como una función de la succión del suelo a partir de la relación propuesta a partir de despreciar la succión osmótica y considerar que la carga total en un suelo no saturado es la sumatoria de las cargas de la succión mátrica y la carga de posición , una vez que se sustituye la ecuación de la ley de conservación de la materia y asumiendo una densidad del agua constante, se obtiene la ecuación 1 [13], [14]. (1) 3 Donde: : Funciones de conductividad hidráulica. : Carga de succión. : Término que surge por la presencia de la carga de elevación. : Función de capacidad específica de humedad. La ecuación proporciona los campos de succión en el espacio y el tiempo si se definen condiciones de frontera e iniciales adecuadas [14]. Para emplear esta ecuación es necesario contar con la curva característica y la función de conductividad hidráulica del suelo. Esta ecuación es una función altamente no lineal, por lo que su solución analítica solo puede conseguirse si se reduce su no linealidad, imponiendo ciertas restricciones que idealicen, entre otras, las propiedades físicas y mecánicas del suelo infiltrado por el agua. Cualquiera de sus formas modificadas, ha sido la base para el desarrollo de la mayoría de los modelos numéricos del cálculo de infiltración en medios porosos no saturados. A partir de un estudio desarrollado [4] se detectaron 20 casos de fallas por estabilidad de taludes reportadas en presas de tierra en Cuba, contabilizados hasta 2016. De ellas, la falla del talud aguas abajo ocurrió después de período de intensas lluvias en las presas La Ruda, La Cidra, Las Nieves, El Salto, Alacranes, Lebrije, Nipe, Carlos Manuel de Céspedes, Del Medio Las Nuevas y Amistad Cubano-Búlgara. Se plantea que las precipitaciones estacionales son la causa de la mayoría de las fallas de taludes y estas fallas se deben principalmente a la pérdida de succión mátrica de los suelos por la infiltración del agua de lluvia. El estudio mostró que el pie del talud es más afectado por la infiltración y que si la pendiente es más inclinada se reduce el efecto desfavorable de las precipitaciones. Además, demuestran que, cuanto mayor es la intensidad de la lluvia, mayor es la tasa de infiltración en el suelo, por lo tanto, menor es el FS [15]. Se discuten los resultados de su investigación sobre la influencia de la intensidad y duración de la lluvia en la distribución de la succión asociada a la estabilidad. Analizan un modelo de pendiente infinita con diversos tipos de suelos, teniendo en cuenta varias intensidades y duración de lluvias, demostrando que la duración crítica de la lluvia se rige por tres factores principales: la permeabilidad saturada del suelo, la ubicación geográfica y la profundidad del plano de deslizamiento. Concluyen que el suelo con alta permeabilidad saturada tiene un valor de entrada de aire muy bajo y una curva característica muy pronunciada mientras que, para el suelo con baja permeabilidad saturada como las arcillas, la reducción de la succión está limitada por la baja tasa de infiltración, que se rige por la permeabilidad saturada del suelo. Tanto la intensidad como la duración de la lluvia afectan significativamente la distribución de succión en suelos con permeabilidad saturada intermedia. Para los taludes conformados con suelos de alta permeabilidad saturada como las arenas, las fallas ocurren a poca profundidad y con un tiempo de duración crítica de un día, mientras que se requirieron 30 días de lluvia para un talud conformado con suelo de baja permeabilidad saturada, como las arcillas. Para suelos con una permeabilidad saturada intermedia, la duración crítica de la lluvia varía con el patrón de la misma [16]. Se plantea que la mayoría de las fallas de los taludes están estrechamente relacionadas con el patrón de infiltración de la lluvia, no con la lluvia en sí. Por lo que ratifican que las propiedades hidráulicas tienen una influencia significativa en la estabilidad de los taludes [17]. Se propone que los taludes con buena permeabilidad ( ) podrían verse más afectadas por lluvias intensas pues el factor de seguridad en esos casos se reduce al mínimo más bajo en eventos de alta intensidad de lluvias con menor duración. Mientras, la estabilidad de los taludes con drenaje deficiente ( ) se ve más afectada por eventos de baja intensidad de lluvia con largos períodos de duración [18]. Los taludes que permanecen estables durante muchos años pueden presentar deslizamientos cuando ocurre un período de lluvia extraordinaria pues en este fenómeno intervienen no sólo las características litológicas, geométricas y mecánicas del talud, sino también el régimen de lluvia-evaporación-infiltración del sitio [19]. Con el aumento de la duración de la lluvia, el factor de seguridad basado en el mecanismo de falla rotacional solo disminuye levemente, en contraste con la disminución del factor de seguridad basado en el mecanismo de falla traslacional. Por lo tanto, si se produce un deslizamiento rotacional profundo debido a la infiltración de lluvia, el talud puede estar al borde de la falla antes de la infiltración de la lluvia. De manera similar, si un talud 4 no saturado tiene un gran margen de seguridad antes de la infiltración de la lluvia, es muy probable que la falla traslacional sea el modo de falla gobernante del talud bajo la infiltración de la lluvia [20]. Con el estudio del efecto de la lluvia en dos presas en Corea, asociadas a problemas de filtración que suelen presentarse durante la temporada de monzones en esa área, se estimaron la permeabilidad de cada caso de estudio. Demostrando que, la consideración de cualquier efecto de la lluvia en el comportamiento de filtración de las presas de tierra es muy importante y que la filtración máxima que alcanzaban los suelos durante los días de lluvia eran del mismo orden que la permeabilidad establecida [21]. Se realizó un estudio fundamentado en el análisis de los efectos del cambio climático y las alteraciones de los patrones de lluvias en la estabilidad de los taludes de la presa Zengwen en Corea. Para ello, fijaron eventos de lluvia de uno, dos y tres días que mostraron las tendencias más significativas en comparación con eventos de lluvia de cinco y siete días. Sus resultados fundamentales establecen que la intensidad de las lluvias en el área de estudio mostró una tendencia creciente entre 1990 y 2016, por lo que estiman que, hasta 2100, si la cantidad de lluvia por hora continúa aumentando a razón de 0,1 mm por año, la cantidad de filtración aumentará y como resultado, el tiempo de ocurrencia de la inestabilidad de taludes durante periodos lluviosos disminuirá de 20 horas a 13 horas, y la reducción en el FS aumentará de 32% a 41%. Además, los resultados del análisis de intensidad de lluvia mostraron que después de 2050, la precipitación máxima de un día completará el valor umbral para eventos extremos de larga duración en el sitio de estudio. Esto muestra que, bajo los efectos del cambio climático, los eventos de lluvia en el área de captación de la presa Zengwen experimentarán tendencias extremas [22]. Otros autores [23]–[26] basados en análisis estadísticos, buscaron determinar la duración de la lluvia que más influye sobre los deslizamientos y el umbral a partir del cual la probabilidad de ocurrencia de un deslizamiento es alta. De aquí, concluyeron que la lluvia de 15 días de duración, anterior a un deslizamiento es la que más podría influir sobre él, aunque presentara una baja frecuencia. La inestabilidad de taludes asociada con el aumento de la tasa de infiltración de lluvia que causa la reducción de la resistencia al corte y la pérdida de succión por lo que tiende a producirse la falla. Para ello, consideran cinco eventos de lluvia actuando sobre un mismo talud, modelado empleando elementos finitos. Los principales resultados arrojaron que el mínimo factor de seguridad se alcanzó para los 5 días de lluvia y concluyen que, la infiltración causa el proceso de cambio histerético en la presión intersticial positiva que provoca una disminución del factor de seguridad y un aumento de la deformación [27]. A partir de todos estos estudios se aprecia que no existe un consenso sobre la relación entre la intensidad de la lluvia, la permeabilidad del suelo y la reducción del factor de seguridad de los taludes. Por lo tanto, el objetivo de este trabajo es realizar un análisis de este fenómeno en presas de tierra de 30 metros de altura de cortina, homogéneas, en operación, conformadas con suelos arcillosos parcialmente saturados. Para ello, se estudian tres relaciones de cantidad de lluvia infiltrada y permeabilidad del suelo, para 4 días de duración de la lluvia sobre el talud aguas abajo. 2. MATERIALES Y MÉTODOS En Cuba hay 239 presas construidas, de ellas, 157 son homogéneas, lo que representa el 65,7%. Se considera que las presas son grandes, si presentan una altura de cortina superior a 15 metros o cuentan con alturas de cortina entre tres y 15 metros, pero contienen un volumen de agua superior a tres millones de metros cúbicos. De las presas construidas en Cuba, siguiendo el criterio planteado previamente, hasta 15 metros de altura, se han construido 62 presas, lo que representa el 39,5%; entre 15 y 30 metros de altura hay 66 presas, para el 42 % y con alturas superiores a 30 metros se cuentan 10 presas, para un 6,4%; el 12,1% restante son las presas con alturas inferiores a 15 metros que no cumplen el criterio de capacidad planteado. Para definir las dimensiones del prisma de drenaje, en los casos necesarios, se revisaron las dimensiones de los prismas del libro Embalses Cubanos [28], para establecer relaciones entre la altura de la cortina y la altura del prisma en las presas registradas, así como la inclinación de los mismos. A partir de este criterio, se establece la geometría mostrada en la figura 2. 5 Figura 2: Sección transversal de la presa de tierra analizada. Una vez presentada la geometría del modelo, es necesario definir los parámetros físicos y mecánicos de los materiales que conformarán la cortina de la presa, mostrados en la tabla 1. Tabla 1: Propiedades físicas y mecánicas de los suelos que conforman la cortina. No. Peso específico (kN/m3) Cohesión (kPa) Fricción (°) Permeabilidad (m/s) LL % Grava % Arena % Limo % Arcilla Clasificación (SUCS) 1 18,3 30,9 13,5 1,5E-07 57 7 23 34 35 CL 2 18,8 56,8 13,4 1,1E-07 47 9 32 26 34 CH 3 18,9 18,6 13,2 6,6E-08 38 1 40 29 30 CH 4 19,2 42,1 15,4 8,7E-08 60 9 21 35 35 CL 5 18,0 43,7 13,2 1,2E-06 48 4 40 37 19 CH 6 18,1 22,0 15,0 6,9E-06 48 2 40 23 35 CH Las curvas granulométricas de los suelos componentes de la cortina se muestran en la figura 3: Figura 3: Curvas granulométricas de los suelos de la cortina. Las características geotécnicas del material de drenaje se muestran en la tabla 2. 6 Tabla 2: Características del material del drenaje para la modelación. Características del material Drenaje Peso específico húmedo (γf) (kN/m3 ) 21 Ángulo de fricción interna (ϕ) (°) 35 Cohesión (c) (kPa) 0 Permeabilidad saturada (k) (m/s) 0,001 Módulo de elasticidad (E) (kPa) 18000 Índice de compresibilidad volumétrica (mv) 5,55E-05 Coeficiente de Poisson (μ) 0.27 Las curvas características y de conductividad hidráulica se obtuvieron empleando el programa GeoStudio 2018, teniendo en cuenta los datos de granulometría y considerando un valor de entrada de aire de 0,4. Para el análisis de la relación entre la cantidad de lluvia infiltrada y la permeabilidad y su efecto en la estabilidad de los taludes, se considera un tiempo de duración de la lluvia de 4 días y la relación de intensidades (considerada lluvia infiltrada) mostrada en la tabla 3. Tabla 3: Relación de cantidad de lluvia infiltrada y permeabilidad de cada suelo. Suelo I = P I > 0,5P I < 2P 1 1,50E-07 7,50E-08 3,00E-07 2 1,10E-07 5,50E-08 2,20E-07 3 6,60E-08 3,30E-08 1,32E-07 4 8,70E-08 4,35E-08 1,74E-07 5 1,20E-06 6,00E-07 2,40E-06 6 6,90E-06 3,45E-06 1,38E-05 3. MODELACIÓN Y ANÁLISIS Para obtener la variación de factor de seguridad en las presas de tierra de 30 metros de altura, considera el efecto de la lluvia sobre el talud aguas abajo, se incluyen todas las características expuestas previamente en el proceso de modelación de la filtración transitoria. El resultado obtenido en la modelación, empleando el programa GeoStudio (2018) se muestra en la figura 5. Figura 5: Resultado de la modelación computacional para el caso de estudio presentado, considerando uno de los suelos. 7 El comportamiento del factor de seguridad en función del tiempo para todos los casos analizados se muestra en la figura 6 considerando intervalos de 12 horas hasta culminar los 4 días de análisis. Figura 6: Factor de seguridad obtenido en el análisis. En la figura 6 se aprecia, un decrecimiento del FS del talud aguas abajo a medida que se incrementan los días de lluvia. Es apreciable, además, que el comportamiento difiere en función de la intensidad de lluvia considerada. Para todos los suelos estudiados, el FS decrece más rápido si se incrementa la intensidad de la lluvia actuante. Gráficamente, esta variación es muy apreciable, sobre todo para aquellos suelos que presentan valores de FS inferiores a 1, lo que implica que se produce la falla del talud. Tras lo cual, el FS se mantiene con valores similares. Luego, se analiza el decrecimiento del FS entre el día 0 y el día 4 para los seis suelos estudiados, para analizar el efecto de la lluvia acumulada en ese período de tiempo, como se muestra en la figura 7. Figura 7: Comportamiento del FS para los suelos estudiados bajo las tres intensidades de lluvia. En la figura 7 se observa que el comportamiento del FS es consecuente para las tres intensidades analizadas, obteniéndose para los suelos 1, 3, 5 y 6 el fallo, teniendo en cuenta que el factor de seguridad llega a valores inferiores a 1, para la intensidad igual a la permeabilidad. Mientras, para la intensidad igual a 1,5 veces la 8 permeabilidad se presentan fallos en los suelos 1, 3, 4, 5 y 6. Por otro lado, cuando la intensidad es la mitad de la permeabilidad, el fallo solo se produce en el suelo 6, el cual posee el mayor valor de permeabilidad. El suelo 2 no falla para ninguno de los casos analizados, el cual, aunque no posee la permeabilidad más baja, sí cuenta con el mayor valor de cohesión de todos los suelos considerados en el análisis. 4. CONCLUSIONES Se analiza la influencia de la intensidad de lluvia (a partir de valores definidos de cantidad de lluvia infiltrada) y su relación con la permeabilidad del suelo en la estabilidad del talud aguas abajo en presas de 30 metros de altura de cortina. Para ello se consideran 6 suelos parcialmente saturados y se modela una filtración transitoria. Para todos los casos analizados, tras 4 días de lluvia, se observa un decrecimiento del FS, el cual resulta más marcado cuando la intensidad de la lluvia es igual o mayor que la permeabilidad del suelo. En 4 de los 6 suelos estudiados, se alcanzan FS de fallo (inferiores a 1) antes de concluir los 4 días de lluvia analizada, lo que representa el 67% de los suelos estudiados, si las intensidades presentan valores iguales a la permeabilidad de los mismos. Mientras que, si la intensidad de lluvia es mayor que la permeabilidad, el fallo se produce en 5 de los 6 suelos, lo que representa el 83% del total de suelos estudiados. El efecto de las precipitaciones es más marcado cuando mayor es la permeabilidad del suelo componente de la cortina de la presa, sin embargo, resulta notable que las restantes propiedades físicas y mecánicas de los suelos no pueden desvincularse del efecto de las precipitaciones en la estabilidad de taludes en presas de tierra. REFERENCIAS [1] J. G. Tristá, “Estudio del comportamiento tenso-deformacional de suelos parcialmente saturados en Cuba,” Universidad Central “Marta Abreu” de las Villas; Instituto Superior Politécnico ¨José Antonio Echeverría¨, 2015. [2] V. Yoshimi and J. O. Osterberg, “Compression of partially saturated cohesive soils,” in J. of Soil Mech. And Div., 1963, p. 89. doi: SM4:1-24. ASCE. [3] J. A. Mendoza, “Influencia de las propiedades no saturadas del suelo en los análisis numéricos de flujo de agua y estabilidad de taludes,” Universidad Nacional Autónoma de México, 2018. [Online]. Available: http://journal.stainkudus.ac.id/index.php/equilibrium/article/view/1268/1127%0Ahttp://publicacoes.car diol.br/portal/ijcs/portugues/2018/v3103/pdf/3103009.pdf%0Ahttp://www.scielo.org.co/scielo.php?scri pt=sci_arttext&pid=S0121-75772018000200067&lng=en&tlng= [4] Y. G. Haramboure and O. Guedes, Fallas de presas de materiales locales : una actualización de casos históricos. 2020. [5] M. Ahmadi-adli, N. Huvaj, and N. K. Toker, “Rainfall-triggered landslides in an unsaturated soil: A laboratory flume study,” Env. Earth Sci., vol. 76, p. 735, 2017. [6] R. C. Sidle and T. A. Bogaard, “Dynamic earth system and ecological controls of rainfall-initiated landslides,” Earth Sci. Rev., vol. 159, pp. 275–291, 2016. [7] J. Kim, Y. Kim, S. Jeong, and M. Hong, “Rainfall-induced landslides by deficit field matric suction in unsaturated soil slopes,” Env. Earth Sci., vol. 76, p. 808, 2017. [8] H.-F. Yeh, J. Wang, K.-L. Shen, and C.-H. Lee, “Rainfall characteristics for anisotropic conductivity 9 of unsaturated soil slopes,” Env. Earth Sci., vol. 73, pp. 8669–8681, 2015. [9] T. A. Bogaard and R. Greco, “Landslide hydrology: From hydrology to pore pressure,” Wiley Interdiscip. Rev., vol. 3, pp. 439–459, 2016. [10] S. E. Cho, “Prediction of shallow landslide by surficial stability analysis considering rainfall infiltration,” Eng. Geol., vol. 231, pp. 126–138, 2017. [11] Y. Wu, F. Miao, L. Li, Y. Xie, and B. Chang, “Time-varying reliability analysis of Huangtupo Riverside No. 2 landslide in the Three Gorges Reservoir based on water-soil coupling,” Eng. Geol., vol. 226, pp. 267–276, 2017. [12] H. Darcy, “Histoire Des Foundataines Publique de Dijon.” 1856. [13] E. Buckingham, “Studies of The Movement of Soil Moisture,” U.S.D.A. Bur. of Soils, Bulletin No. 38., 1907. [14] L. A. Richards, “Capillary Conduction of Liquids Through Porous Medium,” J. Phys., vol. 1, 1931. [15] B. B. K. Huat, F. H. J. Ali, and T. H. Low, “Water infiltration characteristics of unsaturated soil slope and its effect on suction and stability,” Geotech. Geol. Eng., vol. 24, no. 5, pp. 1293–1306, 2006, doi: 10.1007/s10706-005-1881-8. [16] N. Gofar and L. M. Lee, “Extreme rainfall characteristics for surface slope stability in the Malaysian Peninsular,” Georisk, vol. 2, no. 2, pp. 65–78, 2008, doi: 10.1080/17499510802072991. [17] R. H. Chen, H. P. Chen, and H. B. Zhung, “Simulation of a slope failure induced by rainfall infiltration,” Enviromental Geol., vol. 58, pp. 943–952, 2009. [18] A. Rahimi, H. Rahardjo, and E. C. Leong, “Effect oh hydraulic properties of soil on rainfall-induced slope failure,” Eng. Geol., vol. 114, pp. 135–143, 2010, doi: https://doi.org10.1016/.enggeo.2010.04.010. [19] R. S. Mora and E. Rojas, “Efecto de la saturación en el deslizamiento de talud en la comunidad San Juan de Grijalva, Chiapas,” Ing. Investig. y Tecnol., vol. 13, pp. 55–68, 2012, [Online]. Available: http://www.redalyc.org/articulo.oa?id=40423210006%0ACómo [20] W. Huang, E. C. Leong, and H. Rahardjo, “Simplified stability analysis of unsaturated soil slopes under rainfall,” in 7th International Conference on Unsaturated Soils, 2018, no. August, p. 7. [21] J. W. Lee, J. Kim, and G. C. Kang, “Seepage Behavior of Earth Dams Considering Rainfall Effects,” Adv. Civ. Eng., vol. 2018, 2018, doi: 10.1155/2018/8727126. [22] H.-F. Yeh and Y.-J. Tsai, “Effect of Variations in Long-Duration Rainfall,” Water, vol. 10, no. 479, 2018, doi: 10.3390/w10040479. [23] G. Guidicini, “Tentative correlation rainfall and landslides in a humid tropical enviroment,” Bull. Int. Assoc. Eng. Geol., vol. 16, pp. 13–20, 1977. [24] P. Canuti, “Correlation between rainfalls and landslides,” vol. 32, pp. 49–53, 1985. [25] F. Ceccarini, “Modello per la previsione delle oscilliazioni di falda in funzione dei parametria climatici,” vol. 12, pp. 161–173, 1981. 10 [26] P. Lumb, “Slope failures in Hong Kong,” Eng. Geol. Hydrogeol., vol. 8, no. 1, pp. 3–20, 1975, doi: https://doi.org/10.1144/GSL.QEG.1975.008.01.02. [27] K. U. J. Khan, C. ming Wang, M. W. J. Khan, Z. Liang, S. Li, and B. long Li, “Influence of rainfall infiltration on the stability of unsaturated coal gangue accumulated slope,” J. Mt. Sci., vol. 18, no. 6, pp. 1696–1709, 2021, doi: 10.1007/s11629-020-6567-4. [28] C. de Autores, Embalses Cubanos. La Habana, Cuba, 1988. SOBRE LOS AUTORES La MSc. Ing. Isaida Flores Berenguer se desempeña como profesora asistente en la Universidad Tecnológica de la Habana ¨José Antonio Echeverría¨, en el Departamento de Estructuras de la Facultad de Ingeniería Civil, dedicándose al estudio de la Mecánica de Suelos, Cimentaciones y la aplicación de los suelos parcialmente saturados, así como el estudio de la estabilidad de taludes en presas de tierra. El Dr. Ing. Yoermes Gonzalez Haramboure se desempeña como profesor Titular en la Universidad Tecnológica de la Habana ¨José Antonio Echeverría¨ y director del Centro de Investigaciones Hidráulicas (CIH). Vinculado al estudio de la Mecánica de Suelos, cimentaciones y presas de tierra bajo diversas condiciones. La Dra. Ing. Jenny García Tristá se desempeña como profesora Titular en la Universidad Tecnológica de la Habana ¨José Antonio Echeverría¨, en el Departamento de Estructuras de la Facultad de Ingeniería Civil, ha dedicado gran parte de su carrera al estudio de la Mecánica de Suelos y cimentaciones, en los últimos años ha venido implementando la investigación sobre los suelos parcialmente saturados en Cuba. INTEGRACIÓN DEL PROCESAMIENTO ESTADÍSTICO MULTIVARIADO Y MÉTODOS CONVENCIONALES EN LA INTERPRETACIÓN DE REGISTROS GEOFÍSICOS DE POZO Liana Ordaz Sánchez1, Lázaro Richard Pita Pérez2, Dailene Coello Interián3 1 Departamento de Geociencias, Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE, Calle 114, No. 11901 entre Ciclo Vía y Rotonda, Marianao, La Habana, Cuba. e-mail: lianaordsan@civil.cujae.edu.cu 2 Instituto de Ciencias Básicas, Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE, Calle 114, No. 11901 entre Ciclo Vía y Rotonda, Marianao, La Habana, Cuba. e-mail: richardpita085@gmail.com 3 Departamento de Geofísica, Instituto de Geología y Paleontología, Vía Blanca, No. 1002 entre Línea del Ferrocarril y Carretera Central, San Miguel del Padrón, La Habana, Cuba. e-mail: dailene@igp.minem.cu RESUMEN La interpretación de los registros geofísicos requiere información de núcleos de pozo, ripios de perforación y otras evidencias que aporten los datos necesarios para realizar la evaluación petrofísica con la menor incertidumbre posible. La presente investigación expone un procedimiento para interpretar los registros geofísicos de pozo en condiciones de escasa información geológica. Para cumplimentar la tarea se aplicaron de forma integrada técnicas de procesamiento estadístico multivariado y modelos convencionales de interpretación de registros geofísicos de pozo. Fue posible obtener la división en electrofacies y electrocapas del corte geológico, evaluar la resistividad del agua de formación, determinar el volumen de arcilla de las rocas atravesadas por el pozo, así como su porosidad total y efectiva. Se estimó también la saturación de agua y petróleo y, finalmente, se evaluaron los espesores efectivos del intervalo colector. PALABRAS CLAVES: petrofísica, estadística multivariada, métodos geofísicos de pozo. INTEGRATION OF MULTIVARIATE STATISTICAL PROCESSING AND CONVENTIONAL METHODS IN THE INTERPRETATION OF GEOPHYSICAL WELL LOGS ABSTRACT The interpretation of geophysical logs requires information from well cores, drilling debris and other evidence that provides the necessary information to carry out the petrophysical evaluation with the least possible uncertainty. The present investigation exposes a procedure to interpret geophysical well logs in conditions of scarce geological information. To complete the task, multivariate statistical processing techniques and conventional interpretation models of geophysical well logs were applied in an integrated manner. It was possible to obtain the division into electrofacies and electrolayers of the geological section, evaluate the resistivity of the formation water, determine the clay volume of the rocks crossed by the well, as well as its total and effective porosity. Oil and water saturation was also estimated and, finally, the effective thicknesses of the collector interval were evaluated. KEY WORDS: petrophysics, multivariate statistics, well geophysical methods, 1. INTRODUCCIÓN Para los especialistas petrofísicos, la ausencia de un grupo importante de información como descripciones de núcleos y ripios de perforación, análisis de laboratorio y otros ensayos de pozo complementarios durante el proceso de interpretación de registros geofísicos de pozos, constituye un problema con el que deben lidiar de forma cotidiana. Esta situación es común en pozos en los que por su antigüedad no se conserva la información, y en tales casos, la integración de herramientas estadísticas de procesamiento multivariado y la aplicación de modelos de evaluación de las propiedades petrofísicas posibilita disminuir la incertidumbre en la interpretación de los registros geofísicos de pozo. El presente trabajo tiene como objetivo general demostrar el poder resolutivo de la integración de las técnicas de procesamiento estadístico multivariado y modelos convencionales de interpretación de registros geofísicos de pozo para evaluar las características geológicas y propiedades petrofísicas de formaciones gasopetrolíferas en condiciones de escasa información geológica. El procedimiento desarrollado fue aplicado en un pozo del yacimiento Majaguillar, localizado a 14 km al noreste del puerto de Cárdenas y a 19.5 km al noroeste del poblado Martí, en cayo Corojal Chiquito, rodeado de la ciénaga de Bibanasí, en la provincia de Matanzas [1]. Este yacimiento se encuentra emplazado en el Cinturón Plegado del Norte de Cuba, por lo que posee una geología muy compleja que se manifiesta en los cabalgamientos de enormes mantos de rocas ígneas sobre sedimentos de diversa naturaleza, en un medio geológico caracterizado por la presencia de contactos tectónicos abruptos, rampas de despegue, fallas de desplazamiento por el rumbo, que son la evidencia de un régimen compresivo acaecido entre el Cretácico Superior al Eoceno Medio [2]. Según los datos arrojados por perforaciones, se conocen en profundidad mantos tectónicos que conjugan rocas de las Unidades Tectono-estratigráficas (UTE) Placetas y Camajuaní, que abarcan los plays más relevantes en el país. Por dichas características; la importante cantidad de manifestaciones superficiales y las características estructurales reveladas por la sísmica, favorables por su similitud con el área Varadero (principal yacimiento productor actualmente), Majaguillar es un yacimiento perspectivo para la prospección de hidrocarburos [2]. Majaguillar es parte de la transición entre las UTEs Placetas y Camajuaní, entonces, en dependencia del lugar y profundidad donde se ubique el pozo, se encontrará solo Placetas o pasará a Camajuaní (Figura 1). Por ello es posible encontrar en el área plays de tipo Veloz/Veloz y Jaguita/ Margarita-Sagua, relativos a las UTE Placetas y Camajuaní respectivamente, ambos con petróleos de la familia I de crudos cubanos. Las principales trampas del área, se sabe, están asociadas con la zona frontal de los mantos plegados y cabalgados del margen continental norteamericano. [3] Figura 1: Distribución espacial de las UTE del margen continental en el área 2. MATERIALES Y MÉTODOS A continuación se muestran los registros geofísicos de pozo interpretados (Tabla 1). Tabla 1: Relación de registros utilizados y sus respectivas variables y unidades de medida. Método Registro geofísico Variable medida Unidad de medida Radioactivos Gamma Natural Integral (SGR) Radiactividad natural integral (U +Th + K) API Gamma Natural Computado (CGR) Radiactividad natural integral (Th + K) API Contenido de potasio (POTA) Contenido de potasio V/V, % Contenido de torio (THOR) Contenido de torio PPM Contenido de uranio (URAN) Contenido de uranio PPM Efecto Fotoeléctrico (PEF) Efecto Fotoeléctrico B/E (bernios/electrón) Densidad (RHOB) Densidad g/cm 3 Porosidad Neutrónica (NPHI) Porosidad Neutrónica V/V, % Eléctricos Resistividad de corriente enfocada profunda (LLD) Resistividad eléctrica Ohm-m Resistividad de corriente enfocada somera (LLS) Resistividad eléctrica Ohm-m El procedimiento aplicado fue el siguiente: a) Control de la calidad de los registros. b) Identificación de los intervalos de sellos y colectores a partir del análisis cualitativo de los registros geofísicos de pozo disponibles. c) Digitalización de los registros geofísicos de pozo. d) Análisis exploratorio de datos: confección de histogramas y cálculo de estadígrafos fundamentales a cada una de las variables medidas (media, moda, dispersión, varianza). Separación de electrofacies considerando la respuesta petrofísica de cada tipo de roca [4]. e) Normalización de cada una de las variables medidas con los registros geofísicos de pozo. f) Aplicación del Análisis de Componentes Principales sobre el sistema de atributos disponible. g) Aplicación de la técnica de clasificación estadística no supervisada k – medias. h) Construcción de gráficos cruzados (crossplots) de NPHI vs RHOB y RHOB vs PEF. i) Construcción del gráfico de Pickett y del perfil de resistividad aparente para evaluar la resistividad del agua de formación (Rw) y el coeficiente de cementación de las rocas (m) [5]. j) Cálculo del volumen de arcilla de las rocas atravesadas según [6]: • El registro gamma natural computado y aplicando los modelos lineal, no lineal y el modelo de Steaber. • Combinando los registros de porosidad neutrónica y densidad. • Empleando registros de resistividad eléctrica. Se consideró la mejor estimación de la arcillosidad al valor mínimo obtenido para cada capa, como recomienda la literatura especializada [6]. k) Evaluación de la porosidad total a partir de los registros neutrónico y de densidad [6], [7]. l) Evaluación de la porosidad efectiva haciendo la corrección a la porosidad total por contenido de arcilla [6], [7]. m) Cálculo de la saturación de agua y de petróleo empleando los modelos de Archie, Simandoux y Doble Agua [6]. n) Evaluación de la permeabilidad a partir del modelo de Lucia y Jennnings para rocas carbonatadas [5], [8], [9], [10] y modelos tradicionales para arenas limpias. o) Evaluación de los espesores efectivos del intervalo colector empleando el análisis de sensibilidad y métodos gráficos. [6] 3. RESULTADOS Y DISCUSIÓN El análisis exploratorio de los datos permitió identificar el predominio de litologías carbonatadas en el corte, y un segundo grupo de rocas con menor prevalencia cuyos valores de PEF responden a areniscas y arcillas. El análisis de componentes principales y k-medias permitió identificar cinco grupos litológicos fundamentales, uno de ellos asociado a las arcillas, otro a las areniscas y tres de ellos caracterizados por rocas carbonatadas con diferente grado de arcillosidad. Los gráficos de propiedades cruzadas corroboran los resultados del análisis estadístico (Figuras 2 y 3) Figura 2. Gráfico de propiedades cruzadas para una distribución de cinco grupos de densidad contra porosidad neutrónica. Figura 3. Gráfico de propiedades cruzadas de Densidad vs. Pef. La Tabla 2 muestra los resultados de la división del pozo en electrofacies a partir de la interpretación de los resultados del análisis exploratorio, el análisis estadístico multivariado y los gráficos de propiedades cruzadas. Tabla 2: División del pozo en electrofacies. Paquete Electrofaciess No. Electrofacies Tope (m) Base (m) A (Reservorio) Principal: calizas. Secundaria: dolomitas. I 1700 1700,53 II 1700,66 1710,06 III 1710,19 1729,11 IV 1729,25 1747,11 B (Sello) Principal: areniscas. Secundarias: arcillas I 1747,24 1767,1 II 1767,23 1783,11 III 1783,24 1788,67 IV 1788,8 1793,56 C (Reservorio) Principal: calizas. Secundaria:dolomitas. I 1793,7 1819,1 II 1819,24 1844,78 D (Sello) Principal: arcillas. Secundarias: areniscas I 1844,91 1854,04 II 1854,17 1858,94 III 1859,07 1874,55 IV 1874,69 1886,6 V 1886,73 1890,04 VI 1890,17 1897,71 VII 1897,85 1904,86 VIII 1904,99 1905,65 IX 1905,79 1928,28 X 1948,42 1941,39 XI 1941,52 1943,11 XII 1943,24 1956,08 XIII 1956,21 1963,88 XIV 1964,02 1967,72 XV 1967,85 1977,78 XVI 1977,91 1982,01 XVII 1982,15 1985,06 XVIII 1985,19 1995,78 XIX 1995,91 1999,09 XX 1999,22 2005,7 E (Reservorio) Principal: calizas. Secundaria: dolomitas. I 2005,83 2020 II 2020,13 2060,09 III 2100,06 2160,01 IV 2160,14 2550 La resistividad del agua de formación (Rw) resultó ser igual a 1,61 ohm-m y el coeficiente de cementación igual a 1,75, o sea, menor que 2, reflejando el predominio de colectores fracturados. Las propiedades colectoras a partir de la aplicación de los modelos ya mencionados fueron estimadas satisfactoriamente. En la Tabla 3 se pueden visualizar parte de estos resultados. Tabla 3: Valores característicos para los espesores de reservorio. Paquetes Tope (m) Base (m) Espesor (m) Tope del reserv. (m) Base del reserv. (m) Espesor del resov. (m) Porosidad para el reserv. (V/V) Saturación para el reserv. (V/V) Relación entre el espesor del reserv. y el total A 1700 1747 .110 47.110 1712. 440 1713.37 0 0.930 0.892 0.250 0.020 B 1747.24 1793 .56 46.32 1766.3 1767.1 0.8 0.084 0.647 0.017 1769.74 1771.07 1.33 0.085 0.747 0.029 1772.79 1775.3 2.51 0.088 0.715 0.054 1775.7 1778.87 3.17 0.092 0.629 0.068 1779.27 1779.67 0.4 0.09 0.670 0.009 1781.39 1782.31 0.92 0.082 0.586 0.02 1785.95 1788.27 1.32 0.094 0.452 0.028 1793.43 1793.56 0.13 0.087 0.895 0.003 C 1793.7 1844 .78 51.08 1793.7 1795.81 2.11 0.106 0.203 0.041 1803.22 1804.15 0.93 0.094 0.135 0.018 1805.34 1806 0.66 0.087 0.123 0.013 1807.86 1816.59 8.73 8.119 0.097 0.171 Según los resultados obtenidos las mayores concentraciones de arcilla se ubican entre los 1840 a 2000 m de profundidad, así como entre 1740 y 1794 m, constituyendo capas sellos. También se evidencia que los paquetes carbonatados, a pesar de que tienen un bajo contenido de arcilla, poseen una porosidad efectiva reducida, lo que afecta su capacidad como reservorio. Estos se ubican entre los 1700 y 1747 m, 1793 y 1745 y 2006 y 2250 m. Los mayores valores de saturación de petróleo se encuentran asociados a las facies areno-arcillosas, ubicadas en el paquete D, asociado a los elevados valores de porosidad registrados, a pesar de haberse utilizado un modelo de evaluación de la saturación de agua para litologías arcillosas. Fuera de este rango las mayores saturaciones se corresponden con los paquetes carbonatados A, C y E. En la Tabla 4 se resumen los parámetros de corte, obtenidos a partir de métodos gráficos, que resultaron más coherentes con la litología presunta. En función de los parámetros de corte se determinó el espesor efectivo dentro de cada intervalo colector y fueron calculados los valores promedios de porosidad y saturación como se muestra en la Tabla 5. Tabla 4: Parámetros de corte Parámetro Valor de corte Saturación de agua 52,5% Volumen de arcilla 20% Porosidad efectiva 5% Tabla 5: Valores característicos para los espesores efectivos. Paquetes Topes (m) Base (m) Espesor (m) Espesor efectivo o neto (m) Relación entre espesor efectivo y total Porosidad para el espesor efectivo (V/V) Saturación de agua para espesor efectivo (V/V) A 1700 1747.11 47.11 0.53 0.011 0.092 0.230 C 1793.7 1844.78 51.08 1.58 0.031 0.103 0.151 0.93 0.018 0.094 0.135 0.66 0.013 0.087 0.123 8.73 0.171 0.119 0.097 E 2005.83 2250 244.17 0.13 0.001 0.081 0.228 0.13 0.001 0.113 0.245 0.27 0.001 0.099 0.2033 Del análisis realizado a partir de los parámetros de corte y la determinación de los espesores efectivos se puede concluir que las mejores electrofacies que pueden producir hidrocarburos son: A-III, C-I y E-IV. 4. CONCLUSIONES La integración de técnicas de la estadística multivariada y los modelos de interpretación de registros geofísicos de pozo, permitió realizar la evaluación petrofísica en un pozo del yacimiento Majaguillar, realizar la división del corte geológico así como obtener el volumen de arcilla, la resistividad del agua de formación, porosidad total y efectiva, permeabilidad, saturación de agua, saturación de petróleo y definir los espesores efectivos del reservorio. Las técnicas utilizadas no suplen la necesidad de contar con los datos que brindan los núcleos de perforación y otros ensayos de laboratorio. Sin embargo, permiten en condiciones de escasa información geológica reducir la incertidumbre durante la interpretación de registros geofísicos de pozos. La aplicación eficiente, de la estadística multivariada como apoyo a la interpretación, depende de forma ineludible de la experiencia del investigador, el conocimiento de la geología de la región, así como su respuesta ante los campos físicos. RECONOCIMIENTOS Los autores desean agradecer a los ingenieros y profesores Dr, C. Olga Castro Castiñeira, Dr.C. Rosa María Valcarce Ortega y Dr. C.Osvaldo Rodríguez Morán, por facilitar la información necesaria para el desarrollo de esta investigación y por la asesoría brindada en todo momento. REFERENCIAS 1. LINARES CALA, E., GARCÍA DELGADO, D. E., DELGADO LÓPEZ, O., LÓPEZ RIVERA, J. G., STRAZHEVICH, V. 2011: Yacimientos y manifestaciones de hidrocarburos de la República de Cuba. Centro de Investigación del Petróleo, La Habana, 480p. 2. PÉREZ PEÑA, M. V., CRUZ TOLEDO, R., PROL BETANCOURT, J. L., JIMÉNEZ DE LA FUENTE, L. 2016: Integración del análisis geomorfológico con métodos geofísicos para la exploración de hidrocarburos en el sector Majaguillar-Corralillo, Cuba. Minería y Geología 32(3). 3. DELGADO LÓPEZ, O., LÓPEZ RIVERA J. G., PASCUAL FERNÁNDEZ O., LÓPEZ QUINTERO, J. O., DOMÍNGUEZ SARDIÑAS, Z: 2013. Sistemas petroleros y plays complementarios en la región Habana-Corralillo. Implicaciones para la exploración petrolera. Anuario de la Sociedad Cubana de Geología (1): 1-12, octubre 2013. 4. ALONSO HERNÁNDEZ, H. 1978: Petrofísica. Editorial Científico-Técnica, La Habana, 333p. 5.AGUILERA, R. 2004: Integration of geology, petrophysics, and reservoir engineering for characterization of carbonate reservoirs through Picket plots. American Association of Petroleum Geologists Bulletin 88(4): 433-446, abril 2004. Disponible en https://www.aapg.org 6. CASTRO CASTIÑEIRA, O. 2017: Evaluación petrofísica de formaciones gasopetrolíferas cubanas. Centro Nacional de Información Geológica, La Habana, 224 p. 7. RUIZ IBARRA, J., KOBR, M. 1989: Métodos Geofísicos de Pozo I. Editorial ISPAJAE, La Habana, 417p. 8. LUCIA, J. 2007: Carbonate Reservoir Characterization: An Integrated Approach. Springer Berlin, Heidelberg, 336 p. 9. REYES PAREDES, O., CASTRO CASTIÑEIRA, O., RODRÍGUEZ LOECHES, J., MORALES ECHEVARRÍA, C. 2011: Clasificación del medio poroso y cálculo de la permeabilidad utilizando registros geofísicos de pozos. IV Convención Cubana de Ciencias de la Tierra, GEOCIENCIAS´2011. Memorias [CD-ROM], La Habana, Cuba, 4-8 de abril. 10. PÉREZ PACHECO, G. 2011: Influencia de parámetros petrofísicos en la determinación indirecta de la permeabilidad absoluta en rocas de yacimientos petroleros. Manuel Juan Villamar Vigueras (Tutor). Tesis en opción al título de Ingeniero Petrolero. Universidad Nacional Autónoma de México, 119 p. Sobre los autores Liana Ordaz Sánchez, Ingeniera Geofísica graduada en 2022. Desarrolla su período de adiestramiento en el Departamento de Geociencias de la Universidad Tecnológica de La Habana, CUJAE. Miembro de la Sociedad Cubana de Geología. Lázaro Richard Pita Pérez, Ingeniero Geofísico graduado en 2022. Desarrolla su período de adiestramiento en el Instituto de Ciencias Básicas de la Universidad Tecnológica de La Habana, CUJAE. Miembro de la Sociedad Cubana de Geología. Dailene Coello Interián, Ingeniera Geofísica graduada en 2022. Desarrolla su período de adiestramiento en el Departamento de Geofísica del Instituto de Geología y Paleontología del MINEM. Miembro de la Sociedad Cubana de Geología. DIAGNÓSTICOS EN SISTEMAS HIDROSANITARIOS DE INMUEBLES EN LA HABANA 2012-2022 Ing. José Ifrain Osa Bernal1, Ing. Carlos Enrique Sánchez Colina2 1 Vendedor-Comprador ACOREC-HELVEX, Telf.: 72041518 Cel.: 52124182, Email: cuhelvex@enet.cu; 2Ingeniero de proyecto TEMPO CONSTRUCTIONS, +509 39399638, e-mail: carsanco@hotmail.es RESUMEN El presente trabajo tiene como objetivo motivar en las condiciones actuales los estudios de diagnóstico y propuestas de tratamiento para los Sistemas Hidrosanitarios de los Inmuebles (SIHSINM) , teniendo como aspecto novedoso en sus recomendaciones, la necesidad de estos tipos de estudio con un enfoque multidisciplinario, donde se proponen la intervención de profesionales relacionados con el manejo de un agua segura, ahorro en su consumo, los efectos a la salud humana, así como el mantenimiento y durabilidad de estos sistemas en los inmuebles, donde su objeto social, depende en gran medida de su correcto funcionamiento , para de esta forma brindar datos para el posible monitoreo del Síndrome de Edifico Enfermo (SEE) aspecto de vital importancia en la actualidad, donde se presentan pandemias como es el caso COVID-19, Cólera, Legionella etc., virosis donde para mitigar sus efectos negativos, los SIHSINM deberán funcionar en óptimas condiciones. Por su importancia, en la ponencia se expondrán resultados de trabajos de campo recientes realizados en inmuebles de La Habana, los que han sido identificados como Casos de Estudio. Para una mayor exactitud de los reportes se han utilizado instrumentos de última generación, los que han permitido una mayor exactitud de los resultados de los estudios. PALABRAS CLAVE: Diagnóstico, Lesiones, Tratamientos, Sistemas Hidrosanitarios y Pluviales en Inmuebles (SIHSINM), Síndrome de Edificio Enfermo (SEE) DIAGNOSTICS IN HYDROSANITARY SYSTEMS OF BUILDINGS IN HAVANA 2012-2022 ABSTRACT The objective of this work is to motivate diagnostic studies and treatment proposals for Hydrosanitary Systems of Buildings (SIHSINM) under current conditions, having as a novel aspect in its recommendations, the need for these types of studies with a multidisciplinary approach, where the intervention of professionals related to the management of safe water, savings in its consumption, the effects on human health, as well as the maintenance and durability of these systems in buildings, where its corporate purpose depends largely of its correct operation, in order to provide data for the possible monitoring of the Sick Building Syndrome (SES), an aspect of vital importance today, where pandemics such as COVID-19, Cholera, Legionella, etc., virosis occur. where to mitigate its negative effects, the SIHSINM must function in optimal conditions. Due to its importance, the presentation will present the results of recent fieldwork carried out in buildings in Havana, which have been identified as Study Cases. For a greater accuracy of the reports, ultimate generation instruments have been used, which have allowed a greater accuracy of the results of the studies. KEYWORDS: Diagnosis, Treatments, Hydrosanitary and Pluvial Systems in Buildings (SIHSINM), Sick Building Syndrome (SEE) INTRODUCCIÓN A grandes rasgos, los beneficios que puede acarrear la detención del proceso de deterioro de estos sistemas hidráulicos y sanitarios de los edificios, solamente por concepto de fugas pueden ser: • Económicos: Al valorar desde la calidad del agua, el consumo energético y la reducción de gastos en reparaciones e inversiones capitales. • Sociales: Los ocupantes de estos edificios reciben una mejora sustancial en sus condiciones de vida y de trabajo. • Técnicos; Los sistemas funcionan más eficientemente, tienen menor cantidad de fallas y requieren de menores reparaciones mayores. • Ecológicos; Se reduce la extracción de agua en las fuentes de abasto. En el trabajo cotidiano de diagnósticos de los (SIHSINM), se han realizado observaciones visuales y mediciones con instrumentos y equipos especializados para la captura de datos que formarán parte de la evaluación. La ventaja que nos da el poder registrar estas informaciones de forma digital es que nos permite analizar la evolución en el tiempo de las lesiones. A la vez se logra el diseño de un protocolo de trabajo técnico que permitirá la homogeneidad de las evaluaciones y sus resultados para un trabajo a escala nacional. Los resultados de las investigaciones que se presentan tienen como objetivo principal, motivar los estudios de diagnóstico y propuestas de tratamiento para los sistemas hidráulicos y sanitarios en las condiciones actuales. En este caso, teniendo como aspecto novedoso en sus recomendaciones, la necesidad de un enfoque multidisciplinario. Se propone la intervención de profesionales de diferentes disciplinas relacionadas con el manejo de un agua segura, ahorro en su consumo y los efectos a la salud humana. También incentivar a optimizar su mantenimiento y así garantizar durabilidad de estos sistemas en los inmuebles cuyo objeto social depende en gran medida de su correcto funcionamiento. De esta manera también se pueden brindar datos para el posible monitoreo del Síndrome de Edifico Enfermo (SEE) cuando ya se ha demostrado en estudios recientes internacionales que un SIHSIM funcionando sin eficiencia, tiene la relación con la proliferación de enfermedades infectocontagiosas, Ej, COVID-19, COLERA, DENGUE, etc. Por su importancia, en la ponencia se expondrán resultados de trabajos recientes realizados en inmuebles de La Habana, los que han sido identificados como “Casos de Estudio”. En todos estos casos se han utilizado instrumentos de primera generación, lo que ha permitido en primer lugar la evaluación cuantitativa precisa de los parámetros necesarios para la apreciación de los problemas físico-químicos y mecánicos que producen las lesiones de los sistemas hidráulicos y sanitarios de los edificios. Las mediciones cuantitativas son superiores en precisión a las tradicionales evaluaciones cualitativas que se realizan subjetivamente de acuerdo a la apreciación de los especialistas y de sus experiencias personales. Así los resultados de los trabajos de campo tienen como principal conclusión la situación a tiempo real del caso de estudio. Estas evaluaciones cuando se realizan de forma oportuna ayudan a: • Prevención de los de derrumbes por las lesiones que provocan las humedades en las estructuras. • Determinación de las tecnologías adecuadas para la solución de los problemas. • Evaluación cuantitativa de las acciones correctivas y su presupuesto. • Ejecución de los proyectos para inversiones o reparaciones. Como metodología para los diagnósticos se utilizó el Diagrama de Flujo que aparece en la Fig 1. Se tomaron como base para elaborar esta ponencia todas las evaluaciones realizadas desde el año 2012 donde se aplicó esta metodología de trabajo con estos tipos de instrumentos de medición y equipos tecnológicos. Los diagnósticos que suman 132 casos de estudio sirvieron de base para crear nuestro propio método de evaluaciones de lesiones y medición de parámetros físicos, químicos, mecánicos y cognitivos. Los cuatro casos que fueron seleccionados entre todos los estudiados por ser los más representativos para hacer la generalización del método, se clasificaron en 5 grupos de Inmuebles según sus funciones: 1. Edificios Socio Administrativos. 2. Establecimientos Comerciales. 3. Establecimientos turísticos. 4. Establecimientos de Salud. 5. Edificaciones de vivienda. Es de destacar que la principal referencia que hemos tenido en todos estos años de trabajos de campo es la búsqueda bibliográfica que realizamos de la obra escrita del Ing, Manuel Babé Ruano [1] Fig.1 Diagrama de flujo: Estudio de Diagnóstico y propuesta de tratamiento en Sistemas Hidrosanitarios de los Inmuebles (SIHSINM) DISEÑO DE LA PLATAFORMA INVESTIGATIVA GENERAL PARA CADA CASO DE ESTUDIO. EVALUACIÓN DE LAS LESIONES E INTERVENCIONES NEGATIVAS. Se presenta la evaluación de las lesiones e intervenciones negativas como resultado final de las investigaciones realizadas en el terreno. • Cantidad Total de Casos de Estudio: Periodo 2012-2022: 132 • Objeto: Inmuebles ubicados en la provincia La Habana • Casos de Estudios seleccionados a partir de su representatividad: 4 • Clasificación según funciones de los Inmuebles: ✓ Edificio Socio Administrativo: 1 ✓ Establecimientos turísticos: 1 ✓ Establecimientos de Salud: 1 ✓ Edificaciones de vivienda: 1 EVALUACIÓN PORCENTUAL DE LOS RESULTADOS. Tabla No1 • El 25 % de los casos de estudio, han cambiado las funciones para los que fueron diseñados. • El 50% de los casos de estudio se encuentran en estado técnico Bueno y 50% Regular Lesiones: Cantidad total: 9 • En el 100% de los casos de estudio aparecen lesiones de fuga de agua en los sistemas de tubería hidráulica, sanitaria y pluvial, lo que provoca señales de humedad y moho en la estructura civil. • En el 50% de los casos de estudio presentan malos olores por mal funcionamiento de la ventilación sanitaria. • En el 50% de los casos de estudio aparecen ruidos en el sistema de tuberías hidráulicas y equipos de bombeo por golpe de ariete y cavitación respectivamente. • En el 25% de los casos de estudio existe mal funcionamiento de la fosa séptica, presencia de roedores e insectos por vertimiento de aguas negras. Intervenciones negativas por errores humanos: Cantidad total: 35. • En el 100 % de los casos de estudio no se encontraron evidencias de ejecución de pruebas hidráulicas y actas de trabajos ocultos. • En el 75% de los casos de estudio se instalaron tuberías de diferentes materiales en el sistema hidráulico. • En el 100% de los casos de estudio la instalación de los tanques de cubierta y kit de montaje es deficiente. • En el 100% de los casos de estudio existen problemas de estanqueidad en tragantes de piso y de vertederos por deficiente sellado de las juntas. • En el 75% de los casos de estudio existen problemas de estanqueidad en la descarga de los muebles sanitarios a piso y pared por deficiente sellado de las juntas. TABLAS RESÚMENES DE LOS TRABAJOS DE CAMPO REALIZADOS A LOS CASOS DE ESTUDIO. *SEE: Síndrome del Edificio Enfermo TABLA No. 1 DESCRIPCIÓN DE LOS CASOS DE ESTUDIO Y RIESGO DE SEE* 1 CASOS DE ESTUDIO No.1 No.2 No.3 No.4 1.1 OBJETO SOCIAL ORIGINAL CASA DE VIVIENDA DE LUJO EDIFICIO DE APARTAMENTOS HOTEL EDIFICIO DE OFICINAS 1.2 OBJETO SOCIAL ACTUAL CLINICA ESTOMATOLÓGICA EDIFICIO DE APARTAMENTOS HOTEL EDIFICIO DE OFICINAS 1.3 TIPO DE CONSTRUCCIÓN ESTRUCTURA DE HORMIGÓN ESTRUCTURA DE HORMIGÓN ESTRUCTURA DE HORMIGÓN ESTRUCTURA DE HORMIGÓN 1.4 CANTIDAD DE PISOS 2 4 11 4 1.5 ESTADO CONSTRUCTIVO BUENO REGULAR BUENO REGULAR 1.6 FECHA DE CONSTRUCCIÓN 1920-30 1940-50 1955-59 1940-50 1.7 FECHA DE REPARACIÓN 2000 REPARACIONES PUNTUALES 2019 REPARACIONES PUNTUALES 2 SINTOMAS DE SEE* NO SI NO SI 2.1 MOHOS SI SI SI SI 2.2 MALOS OLORES SI SI 2.3 RUIDOS DEL SHS SI SI 2.4 INSECTOS, ROEDORES Y OTROS SI 3 INTERVENCIONES NEGATIVAS SI SI SI 3.1 MAL TRABAJO EN SISTEMA HIDRÁULICO SI SI SI SI 3.2 MATERIALES HIDRÁULICOS DE MALA CALIDAD SI SI SI 3.3 INSTALACIÓN DE TANQUES INCORRECTA SI SI SI SI 3.4 MAL TRABAJO EN EL SISTEMA FECAL SI SI SI SI 3.5 MAL SELLAJE DE TRAGANTES DE PISO Y VERTEDEROS SI SI SI SI 3.6 MAL SELLAJE DE DESCARGAS DE APARATOS SANITARIOS SI SI SI TABLA No.2 LESIONES OBSERVADAS EN LOS CASOS DE ESTUDIO No. LESIONES DE LOS SISTEMAS HIDROSANITARIOS LESIONES VISIBLES EN CASOS DE ESTUDIO 1,2,3 Y 4 ÓXIDO Y REACCION ES QUÍMICAS HONGOS O MUSGOS EFLORESCEN CIA O DAÑOS DEL REPELLO O PINTURA CAMBIO DE COLOR EN PAREDES REVOQUES PINTURAS GOTEO O HUMEDA D DEL CIELO RASO FALTA DE CAUDA L O PRESIÓ N 1 LESIONES DEL SISTEMA HIDRÁULICO 1.1 SALIDEROS JUNTAS DE ACCESORIOS 1,2,4 2,4 2,4 2,4 1,2 4 1.2 ROTURA POR SOBREPRESIÓN 1 1.3 ROTURA POR SENECTUD 2,4 2,4 2,4 2,4 2,4 1.4 ROTURA POR CORROSIÓN 2,4 2,4 2,4 2,4 2,4 1.5 ROTURAS EN LOS TANQUES 4 4 4 4 4 1.6 CALCIFICACIÓN DEL SISTEMA 2,3,4 2 LESIONES DEL SISTEMA SANITARIO O PLUVIAL 2.1 PERDIDAS EN JUNTAS 2,4 1,2,3,4 2,3,4 1,2,3,4 2,4 2.2 ROTURA POR AGRESIÓN DIRECTA 2,4 1,2,4 1,2,4 1,2,4 2,4 2.3 ROTURA POR PRODUCTOS CORROSIVOS 2,4 2 2 2 2 2.4 UNIÓN DE LOS HERRAJES Y APARATOS SANITARIOS 2,4 2,4 2,4 2,4 1,2 2.5 FILTRACIÓN EN TRAGANTES 2 1.2 2,4 2,4 2,4 2.6 CAPILARIDAD EN MUROS 1,2,4 1,2,4 1,2,4 1,2,4 2.7 ROTURAS EN LOS SISTEMAS HIDROSANITARIOS SOTERRADOS 2,4 2,4 2,4 2,4 2,4 2.8 FILTRACIÓN JUNTAS PISO PARED 2,4 2,4 2,4 2,4 2,4 Nota: En la visita al inmueble afectado se deben registrar todos los detalles de las instalaciones hidráulicas y sanitarias existentes en la planilla de Inspección. Como es habitual existe una gran variedad de modificaciones debidas a las intervenciones humanas. PROPUESTA DE TRATAMIENTOS A LOS SISTEMAS HIDRÁULICOS Y SANITARIOS DE LOS INMUEBLES El principal objetivo de todo diagnostico técnico a los sistemas ingenieros de los inmuebles, es determinar, prevenir y dar seguimiento a la evolución de lesiones, planificar acciones de mantenimiento, restauración, conservación o reparación. De ahí que este tipo de tarea por lo general pudiera formar parte de los sistemas de mantenimiento predictivo. Una vez realizados los diagnósticos que sirvieron de base a esta investigación, los autores proponen como posibles tratamientos los siguientes: • Consolidar las buenas prácticas en la aplicación y cumplimiento del paquete de normas cubanas (NC) y regulaciones de la construcción relacionadas con los sistemas hidráulicos, sanitarios y pluviales aprobadas por la Oficina Nacional de Normalización de Cuba (O.N.N.). • Implementación de protocolos para servicios de Diagnósticos técnicos de los sistemas hidráulicos y sanitarios de los inmuebles a realizar por personal especializado con un enfoque multidisciplinario donde se evalúe la incidencia de sus lesiones en el resto de los indicadores físicos del inmueble y la salud humana. [Revista Selección de artículos, No 10, 1989, CIC, MICONS] • Integración, articulación y generalización de protocolos de servicios para Diagnostico técnico de los sistemas hidráulicos y sanitarios de los inmuebles para que sean contratados por grupo de organizaciones estatales (Intendencias municipales, empresas constructoras) y no estatales (MIPYMES) vinculados a la construcción. • Aplicación de materiales y sistemas constructivos en los sistemas hidráulicos y sanitarios de los inmuebles que estén avalados por Sistemas de Gestión de la Calidad extranjeros y nacionales. INSTRUMENTOS USADOS EN LOS DIAGNÓSTICOS Fig. 2 Ing. Carlos Sánchez realizando mediciones con Geófono electrónico marca SEWERIN modelo AQUAPHONE en uno de los Casos de Estudio Fig. 3 Cámara termo gráfica infrarroja marca FLIR modelo C2 CONCLUSIONES Y RECOMENDACIONES En los diagnósticos realizados se demuestra que la mayor incidencia en el ineficiente funcionamiento de los sistemas hidráulicos y sanitarios de los inmuebles se provoca por intervenciones negativas debido a errores humanos. Cantidad Total en los 4 Casos de estudio seleccionados: 35. Lo que incide en que se aceleren las lesiones propias del sistema. Cantidad Total en los 4 Casos de estudio seleccionados: 9 En las entrevistas a especialistas y a partir de los trabajos de campo realizados se demuestra que no existe un protocolo de servicio para Diagnostico Técnico de sistemas hidráulicos y sanitarios de los inmuebles similar al que se propone en esta investigación, aplicable a la infraestructura de inmuebles estatales y no estatales de La Habana. En los diagnósticos realizados se demuestra que las lesiones e intervenciones negativas diagnosticadas a los sistemas hidráulicos y sanitarios de los inmuebles evaluados pueden tributar a enfermedades contagiosas producidas por el mal manejo del agua en los inmuebles y por consiguiente al Síndrome del Edificio Enfermo (SEE). Por su importancia se recomienda la socialización a organizaciones estatales y nos estatales vinculadas a la actividad constructiva en La Habana, de los resultados obtenidos en el proyecto de investigación que motivo la realización de esta ponencia. Por su importancia se recomienda la incorporación al programa de estudio en la etapa de pregrado de la carrera de ingeniería hidráulica en Cuba, la asignatura Patología de la Construcción que tenga entre sus temas las técnicas de diagnósticos a los sistemas hidráulicos y sanitarios de los inmuebles. Se recomienda crear un grupo consultor con posibilidades para coordinar estos tipos de estudio, lo que permitirá integrar estudios que se están realizando de forma dispersa en La Habana. Lo anterior podría servir de herramienta de trabajo para la toma de decisión en los diferentes niveles de gobernación en el país. Se recomienda presentar los resultados de este proyecto investigativo al Consejo Nacional de Innovación de la República de Cuba. RECONOCIMIENTOS Los autores desean reconocer la colaboración del ing. Informático Eduardo Sánchez, el que diseñó la versión digital para sistema androide de la Planilla de Inspección utilizada en los Estudios de Diagnósticos de los sistemas hidráulicos y sanitarios de los inmuebles, la que formara parte del protocolo de servicio para este tipo de estudio en proceso de diseño por los autores de esta ponencia. Por su importancia y actualidad tecnológica se recomienda su presentación al Parque Tecnológico de La Habana, para su posterior evaluación por esa organización. GLOSARIO Lesiones en los SIHSINM: Fenómenos que se ponen de manifiesto que pueden estos sistemas que pueden provocar otras lesiones en la estructura de los edificios o en la salud de los seres humanos. Problemas: Son producidos por errores humanos en el diseño, montaje, mala selección de materiales y equipos para el uso en intervenciones constructivas en edificaciones. Síndrome del Edificio Enfermo (SEE): Es el nombre que se le da al conjunto de síntomas diversos que presentan, predominantemente los individuos en estos edificios y que no van en general acompañados de ninguna lesión orgánica o signo físico, originado por la contaminación del aire que circula por las instalaciones. Se considera un edificio enfermo cuando más del 20% de los ocupantes han presentado algún síntoma. BIBLIOGRAFÍA [1] Babé Ruano, Manuel, (1986).Mantenimiento y Reconstrucción de edificios, facultad de arquitectura. Editorial CUJAE. [2] Barcelo Pérez,Carlos et,al. Evaluación sanitaria de factores de riesgo físicos en viviendas Petro Casas bajo cambio de cubierta. [3] Rev. Cubana Hig Epidemiología; Abr 2015,vol 53,No1,p.0-0 ISSN 1561-3003 [4] Rev. Selección de Artículos, No 10, 1989, CIC, MICONS] [5] Chávez Vega, J. A., & Álvarez Rodríguez, O. (2005). Metodología para el diagnóstico y restauración de edificaciones. [6] Cobas Jerez, L. (2018). ACTUALIZACIÓN DE LA RESOLUCIÓN No 655/2009 DEL MICONS. [7] CONUEE. (2014). Guía para realizar diagnósticos energéticos y evaluar medidas de ahorro en equipos de bombeo de agua de organismos operadores de agua potable. [8] COVENIN 187 (R). Norma Venezolana. Colores, símbolos y dimensiones de señales de seguridad. [9] Cruz Díaz, Msc. Ing. J. O. (s. f.). Manual de Normas y Procedimientos para el Mantenimiento Electromecánico de Equipos en Instalaciones de Acueductos y Alcantarillados. [10] Ibermutuamr, Corporación Múltiple. (s. f.). Señalización. Identificación de tuberías para fluidos. [11] Instituto Costarriquense de Electricidad. (s. f.). Buenas prácticas de eficiencia energética para Sistema de Bombeo Industrial. [12] J. W. J. de Wekker V. (2004). Sistema de Bombeo. Características y Dimensionamiento. [13] Pérez Franco, D. (1975). Sistemas para El Abastecimiento del Agua de los Edificios Altos. [14] NC 176. Sistemas de Abastos en edificaciones. Requisitos de diseño, (2002). [15] NC 220-4. Edificaciones—Requisito de diseño para la eficiencia energética—Parte 4: Sistemas y equipamiento de suministro de agua., (2019). [16] NOM-004. Eficiencia energética de bombas y conjunto motor bomba, agua limpia, (2008). SOBRE LOS AUTORES Ing. José Ifraín de la Osa Bernal graduado de Ingeneria Riego y Drenaje (ISCAH) 1984, Ingeniería Hidráulica (CUJAE) 1991. Centros de Trabajos y cargos: Jefe de Inversiones Empresa Cítricos de Ceiba, Especialista en Direcciones de Construcciones Hidráulicas del MICONS y Proyecto, Organismo Central, Especialista Principal Dirección de Ingenieria GEAAL, Subdirector técnico Hospital Hermanos Ameijeiras, profesor adjunto carrera Ingenieria Hidráulica, CUJAE,(2013-2022) Ing. Civil Carlos Enrique Sánchez Colina Técnico Medio en Hidrotecnia Instituto Tecnológico de la Construcción (ITCJM) 1976, CUJAE 1988, Acueducto de Ciudad de La Habana hasta el año 1979. Desde 1988 ya como ingeniero Especialista “A” en Hidroeconomía entre otras tareas Subdirector provincial de Mantenimiento y Rehabilitación del acueducto por la Tecnología ZMA de la extinta RDA. Trabajos en exterior: Obras de la industria biofarmacéutica en; VietNam (1997-1998), Tanzania (2011- 2014), Obras de Acueducto en Haití,(2021-h/la fecha) VALIDACIÓN DEL MODELO EN CFD DE UNA NAVE ANTE CARGAS DE VIENTO CON ANÁLISIS ESTACIONARIO Rigoberto Morales Hernández1, Manuel Alejandro Amador Núñez2, Ingrid Fernández Lorenzo3 Vivian Beatriz Elena Parnás4 1,2,3,4Facultad de Ingeniería Civil, Departamento de Estructuras. Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE). Calle 114 No 11901 entre 119 y 127, Marianao, La Habana, Cuba. 1e-mail: rigobermorher@civil.cujae.edu.cu 2e-mail: malejandroan@civil.cujae.edu.cu 3e-mail: ingridfl@civil.cujae.edu.cu 4e-mail: vivian@civil.cujae.edu.cu RESUMEN A pesar de no ser las estructuras sometidas a las mayores cargas de viento, las estructuras bajas representan la tipología más común en el mundo, por lo que estimar correctamente su interacción con el viento es de suma importancia. Para determinar los coeficientes de presión sobre este tipo de estructuras existen diferentes métodos, siendo el más novedoso la utilización de la Dinámica Computacional de Fluidos (CFD, por sus siglas en inglés). Aunque presenta múltiples ventajas, un inconveniente de este procedimiento es la necesidad de validación mediante datos reales. Este trabajo se realizó con el objetivo de validar el modelo de CFD de una nave, utilizando para ello resultados experimentales extraídos de un ensayo de túnel de viento llevado a cabo por autores internacionales. La simulación se efectuó con el software ANSYS Fluent, empleando el modelo de turbulencia k-ε realizable, mediante un análisis estacionario. Los resultados mostraron un buen ajuste, sobre todo en la zona de la cubierta y paredes laterales, donde se encontraron diferencias entre los coeficientes de presiones menores al 10%. Los datos experimentales y los simulados fueron comparados con lo propuesto por el Eurocódigo, obteniéndose un comportamiento similar para todas las zonas de la cubierta excepto las esquinas a barlovento, donde la norma es más conservadora. PALABRAS CLAVES: análisis estacionario, coeficientes de presión, dinámica computacional de fluidos (CFD), estructuras bajas, validación. VALIDATION OF THE CFD MODEL OF A LOW-RISE BUILDING UNDER WIND LOADS WITH STEADY ANALYSIS ABSTRACT Despite not being the structures subjected to the highest wind loads, low-rise buildings represent the more common typology in the world, so estimate accurately its interaction with the wind is extremely important. For determinate the pressure coefficients on this kind of structure there are different methods, being the newest the utilization of the Computational Fluid Dynamics (CFD). Although it has multiple advantages, a drawback of this procedure is the need for validation trough real data. This work was carried out with the objective of validate the computational fluid dynamics (CFD) model of a low-rise building, using for that the experimental data extracted from the boundary layer wind tunnel test executed by international authors. For the simulation was used the ANSYS Fluent software, employing the realizable k-ε turbulence model and a steady analysis. The results show a good fit, especially in the areas of the roof and side walls, where the existing differences between pressure coefficients are less than 10%. The experimental and simulated data were compared with the proposed by the Eurocode, obtaining a behavior similar for all the roof zones except the windward corners, where the code is conservative. KEY WORDS: steady analysis, pressure coefficients, computational fluid dynamics (CFD), low-rise buildings, validation. 1. INTRODUCCIÓN Las estructuras bajas son de las tipologías constructivas más comunes y en las que se registra un mayor índice de fallos ante las acciones de vientos extremos. Esta razón motiva la profundización en el estudio de las cargas de viento para el correcto diseño de estas estructuras, fundamentalmente el análisis de los coeficientes aerodinámicos debido a las discrepancias encontradas en el abordaje de estos parámetros en las diferentes normas [1]. Para la determinación de los coeficientes normados se utilizan generalmente estudios en túneles de viento, aunque con el auge de la computación ha ganado preponderancia la utilización de la dinámica computacional de fluidos (CFD, por sus siglas en inglés) CFD es una herramienta de gran utilidad para el desarrollo de la ingeniería de viento. Entre las ventajas de su utilización se encuentran la capacidad de producir gran cantidad y variedad de datos del comportamiento del flujo de aire, la facilidad de realizar simulaciones en geometrías de gran complejidad, así como su menor costo económico con respecto a otras técnicas de análisis del viento como son los túneles de viento y las mediciones en estructuras reales. A pesar de las múltiples ventajas, también existen desventajas como son el estar limitada por la capacidad computacional y la dificultad de caracterizar matemáticamente los procesos turbulentos que ocurren en la interacción del viento con las estructuras, especialmente en flujos con altos niveles de intensidad de turbulencia. Esto se debe a que los análisis en CFD se basan en la resolución numérica de las ecuaciones de Navier-Stokes, las cuales son ecuaciones de derivadas parciales tridimensionales, no lineales y dependientes del tiempo. Estas ecuaciones no describen explícitamente la turbulencia del flujo, por lo que se han creado diferentes enfoques para resolver este problema. Entre los más comunes se encuentran la simulación numérica directa (DNS), la simulación de grandes remolinos (LES) y las ecuaciones de Navier-Stokes promediadas por Reynolds (RANS) (todas las siglas en inglés). Aunque teóricamente con la Simulación Numérica Directa se obtienen los resultados más cercanos a la realidad, en la práctica solo se pueden resolver mediante este método modelos sumamente simplificados y con bajos números de Reynolds. Esto se debe a la gran potencia de cálculo necesaria para simular el comportamiento del flujo utilizando este enfoque, por lo que no es comúnmente empleado. Mediante la simulación de grandes remolinos los vórtices de mayor tamaño son calculados directamente mientras que a los pequeños se le aplican simplificaciones. Esto provoca que el método dependa en gran medida del tamaño del mallado, requiriendo una malla más pequeña y, en consecuencia, más tiempo de cálculo que los modelos RANS [2]. No obstante, los modelos LES permiten simular flujos inestables adecuadamente por lo que son más recomendables cuando se realizan análisis transitorios. Según Irtaza et al. [3] con el modelo k-ε estándar se pueden llegar a sobrevalorar los coeficientes de presiones hasta en un 25 %, especialmente en la zona de la pared a barlovento, mientras que con otros modelos RANS como k-ε realizable y k-ε RNG la diferencia con resultados experimentales es de entre el 10 % y el 15 %. La principal ventaja de este tipo de modelos radica en su menor demanda de capacidad de cómputo, siendo cerca del 5 % de lo requerido por un modelo LES, así como la posibilidad de realizar tanto análisis estacionarios como transitorios ya que los modelos LES al estar basados en el cálculo del promedio espacial de las ecuaciones del flujo son dependientes del tiempo, por lo que no proporcionan soluciones adecuadas mediante análisis estacionarios. Si bien se pueden lograr resultados muy precisos utilizando la simulación numérica, para aceptar como correctos los resultados de una simulación de CFD es necesario realizar la validación del modelo, utilizando para ello datos experimentales. Generalmente para la obtención de estos datos se utilizan ensayos de túnel de viento. Diversos autores [4,5,6] han utilizado esta técnica para calibrar modelos de CFD, obteniendo variados resultados dependiendo principalmente del modelo de descripción de turbulencia utilizado. Králik et al. [5] utilizando la simulación de remolinos con desprendimiento retardado (DDES, por sus siglas en inglés) alcanzaron una diferencia con respecto al túnel de viento del 20,1 %, mientras que con la simulación de escala adaptable (SAS, por sus siglas en inglés) la disparidad fue del 24,8 %. En este caso el análisis fue de tipo transitorio. Por su parte, Amaya-Gallardo et al. [4] logran obtener coeficientes de presión de similar magnitud al modelo en escala real de una estructura cúbica, utilizando el modelo de turbulencia k-ε standard mediante un análisis estacionario. Fernández-Cabán y Masters [7] realizaron una serie de estudios sobre una estructura baja utilizando un túnel de viento de capa límite. Para ello ensayaron diferentes combinaciones de intensidad de turbulencia, rugosidad del terreno y ángulo de ataque del viento sobre un modelo a escala de una nave. El objetivo de este trabajo es validar el modelo numérico de una estructura baja tipo nave mediante análisis estacionario, empleando para ello los datos experimentales obtenidos por Fernández-Cabán y Masters [7] en su estudio. Los coeficientes de presiones adquiridos por ambos métodos (túnel de viento, CFD) y ponderados en área fueron comparados con los propuestos por el Eurocódigo [8], ya que esta es una de las normas que mejor refleja la formación de la burbuja de separación y otros fenómenos presentes en este tipo de estructuras [1]. 2. CARACTERÍSTICAS DEL MODELO COMPUTACIONAL El modelo computacional desarrollado recrea el utilizado por Fernández-Cabán y Masters [7] en su artículo. Estos autores ensayaron un modelo de una nave en un túnel de viento de capa límite, utilizando elementos de rugosidad variables para obtener diferentes intensidades de turbulencia. Para simular las características de este experimento mediante el software ANSYS [9], se tuvieron en cuenta propiedades del modelo computacional como el dominio, mallado y definición matemática del viento, las cuales se describen a continuación. De los diferentes casos que consideran estos autores, se seleccionó el que presenta una intensidad de turbulencia del 21,1% y un ángulo de incidencia del viento paralelo a la cresta de la edificación. Se escogió este caso para realizar el estudio de validación ya que estos niveles de intensidad de turbulencia son semejantes a los que se pretenden estudiar en simulaciones posteriores, por lo que es necesario comprobar que con un análisis estacionario y las características del modelo utilizadas se puede replicar correctamente un flujo con intensidades de turbulencia similares. Dominio y mallado La estructura analizada es una nave con cubierta a dos aguas y un ángulo de inclinación de la misma menor a 5°, por lo que se considera un techo plano. Para realizar ensayos de túnel de viento es necesario desarrollar modelos a pequeñas escalas debido a la imposibilidad económica y técnica de tener un ambiente controlado de dimensiones suficientemente grandes para estudiar edificios. El uso de CFD no tiene esta dificultad, por lo que la simulación de este modelo se realizó a escala real, con dimensiones de 9,2 m de ancho, 14 m de largo y 4 m de altura de muros. El dominio computacional en el que se encuentra inmerso el modelo se tomó como se muestra en la figura 1, siendo la altura de la estructura (H) igual a 4 m. Con estas dimensiones del dominio se obtuvo una relación de bloqueo del 1,4 %. Esto asegura que se cumpla con lo recomendado [10] de un mínimo de un 5 % para que no existan interacciones entre las paredes del dominio y la estructura que puedan causar variaciones indeseadas en el comportamiento del flujo. Figura 1: Dimensiones del dominio computacional en elevación (a) y en planta (b). Se utilizó un mallado estructurado, formado por celdas hexaédricas y compuesto por múltiples capas, donde el tamaño máximo de los elementos disminuye a medida que se encuentran más cercanos a la estructura. Para la capa más externa, donde se encuentra la zona del dominio más alejada de la estructura, el tamaño máximo de las celdas fue de 2,1 m; mientras que en la capa directamente en contacto con la estructura, el tamaño de los elementos fue de 0,2 m. El número total de elementos fue de 3,3 millones aproximadamente. Caracterización matemática del viento Para modelar el flujo del viento en el ANSYS Fluent se utilizan las formulaciones especificadas por Fernández-Cabán y Masters [7], con lo que se garantiza una mayor similitud entre el ensayo de túnel de viento y la simulación. Las características del viento replicadas en el modelo numérico fueron el perfil vertical de velocidad (1) y la intensidad de la turbulencia, esta última a partir de la energía cinética turbulenta (2). Los coeficientes de presión (5) también fueron calculados de manera semejante a dicho artículo. El perfil de velocidad del viento toma una forma logarítmica, descrita por (1), donde 𝑈 es la velocidad del viento, 𝑢∗ es la velocidad de fricción, 𝑘 es la constante de Von Kármán, 𝑧 es la altura de cálculo, 𝑧𝐷 es la altura del plano de cero desplazamientos y 𝑧0 la longitud de rugosidad. 𝑈(𝑧) = 𝑢∗ 𝑘 ln ( 𝑧 − 𝑧𝐷 𝑧0 ) (1) 𝑘 se asumió como 0,4, 𝑧0 tiene un valor de 0,114 m según los autores del ensayo, 𝑧𝐷 (0,416 m) fue calculada como un porciento de la altura de los elementos de rugosidad utilizados en el túnel de viento y 𝑢∗ fue despejada de la ecuación del perfil, dando como resultado 2,7 m/s. La figura 2 muestra los perfiles de viento logarítmico (1) y experimental extraído del estudio de Fernández-Cabán y Masters. La velocidad del viento fue normalizada a partir de la velocidad de referencia (Uref = 38,26 m/s) tomada a una altura de 33,4 m. La elevación fue normalizada según la altura del modelo (H = 4 m). Debido a que se observa cierta discrepancia entre estos perfiles, se decidió ajustar los datos empíricos mediante una curva que diera una descripción más acertada del comportamiento de la velocidad del viento. El perfil introducido en la simulación fue definido según esta curva de ajuste al inicio del dominio computacional, en la entrada del flujo. Figura 2: Perfil de velocidades del viento. La energía cinética turbulenta (𝑘) fue definida según (2) y la tasa de disipación turbulenta (𝜀) según (3). Estas ecuaciones son recomendadas [11] cuando se utilizan modelos de turbulencia RANS. 𝐶µ es una constante empírica con valor 0,09. La intensidad de turbulencia se calculó en la entrada del modelo utilizando (4). 𝑘(𝑧) = 𝑢∗ 2 √𝐶µ (2) 𝜀(𝑧) = 𝑢∗ 3 k·𝑧 (3) 𝐼(𝑧) = √2 3 𝑘 𝑈(𝑧) · 100 (4) El perfil de turbulencia obtenido se muestra en la figura 3, junto a los datos del ensayo en túnel de viento. Dada la poca correspondencia entre ambos perfiles de turbulencia, se optó por seguir un procedimiento semejante al de la velocidad del viento, utilizando la ecuación de la curva de ajuste para introducir la turbulencia en el modelo numérico. 0 1 2 3 4 5 6 7 8 9 0.2 0.4 0.6 0.8 1.0 1.2 z/ H U/Uref Perfil de Velocidad Túnel Ecuación Ajuste Figura 3: Perfil de intensidad de turbulencia. El experimento en el túnel de viento se realizó para un tiempo de 300 s y una frecuencia de muestreo de 625 Hz. Debido a que realizar una simulación con estas características demanda la utilización de grandes recursos computacionales, los cuales no se encuentran en las computadoras personales si no en clústers, se decidió utilizar un flujo estacionario. Aunque los resultados obtenidos con este tipo de análisis son simplificados, pueden llegar a alcanzar una precisión lo suficientemente cercana a la realidad con un costo computacional mucho menor, siendo su uso en este tipo de problemas avalado por diversos estudios [4]. La comparación con los resultados del artículo se realizó mediante los coeficientes de presiones 𝐶𝑝. Estos se calcularon por la ecuación (5) donde 𝑃 es la presión del viento sobre la estructura, 𝑃0 es la presión de referencia, 𝜌 es la densidad del aire y 𝑈𝐻 es la velocidad media del flujo a la altura de la edificación. 𝐶𝑝 = 𝑃 − 𝑃0 0,5𝜌𝑈𝐻 2 (5) El valor de 𝑃0 (11,30 Pa) se tomó directamente del software para una altura de referencia de 33,4 m. Esta es la altura correspondiente a escala real de la utilizada en el túnel de viento, la cual fue de 1670 mm al estar en ese caso el modelo a escala 1:20. La densidad del aire, se asumió como 1,205 kg/m3 para una temperatura de 25°C. Para 𝑈𝐻 se obtuvo un valor de 20,18 m/s, tomado a la entrada del dominio. El modelo utilizado para caracterizar la turbulencia fue el k-ε realizable. Fue escogido este modelo ya que según Abohela et al. [12] es preferible cuando se analizan estructuras aisladas, además de que es utilizado por otros autores [13] en estudios similares. En la figura 4 se muestran las líneas de flujo, donde se puede observar que el viento en su interacción con la estructura se comporta según lo previsto por los modelos teóricos, destacándose la formación de la burbuja de separación en la zona de la cubierta más cercana a barlovento, así como la presencia de vórtices en las paredes de barlovento y sotavento 0.0 1.0 2.0 3.0 4.0 5.0 6.0 7.0 8.0 9.0 0 5 10 15 20 25 z/ H Iturb (%) Perfil de Turbulencia Túnel Ecuación Ajuste Figura 4: Líneas de flujo alrededor de la estructura en planta (a) y elevación (b). La resolución numérica se llevó a cabo realizando un análisis estacionario, implícito, de doble precisión, ecuaciones de momento, de k y de ε de segundo orden, interpolación de la presión estándar y algoritmo de emparejamiento de presión-velocidad mediante el método semi-implícito para ecuaciones de presión vinculadas (SIMPLE, por sus siglas en inglés). En aras de comparar los resultados de ambos estudios (CFD y túnel de viento) con los coeficientes propuestos por el Eurocódigo, se realizó una ponderación en área según la ecuación (6), donde Cf es el coeficiente ponderado de cada área, Cp el coeficiente de presión medio y Ai es el área tributaria de cada valor de presión. 𝐶𝑓 = ∑ 𝐶𝑝 𝑛 𝑖 ∗ 𝐴𝑖 ∑ 𝐴𝑖 𝑛 𝑖 (6) Este procedimiento se realizó tanto para las presiones simuladas como las experimentales, utilizando en ambos casos las áreas tributarias que propone el Eurocódigo. Las dimensiones y distribución de estas superficies se muestran en la figura 5 y están en dependencia del valor e, el cual se determina como el menor valor entre la dimensión transversal al viento (b) y dos veces la altura total de la edificación (2h). Figura 5: Distribución de área de ponderación según el Eurocódigo. a) b) 3. RESULTADOS La figura 6a muestra los coeficientes de presiones obtenidos mediante la simulación en CFD, mientras que en la 6b se observan los resultados alcanzados por Fernández-Cabán y Masters [7] en el túnel de viento. En ambos casos se advierte un comportamiento similar, existiendo presiones en la pared a barlovento con los valores máximos en el centro de la pared. En el borde de la cubierta más cercano a barlovento se encuentra una pequeña franja donde se ubican las mayores succiones, las cuales van disminuyendo gradualmente hasta cerca de la mitad de la longitud de la nave. A partir de este punto el valor de los coeficientes de presión se mantiene constante hasta el final de la cubierta. La pared a sotavento presenta succiones en toda su superficie. La distribución de las presiones es simétrica con respecto al eje central de la nave, siendo este el comportamiento esperado al no existir ningún obstáculo en el terreno que pueda modificar el comportamiento del flujo y al ser la propia geometría de la nave simétrica. En la cubierta y paredes laterales se advierte gran concordancia entre ambos estudios, siendo la diferencia entre ellos menor que el 10 % en estas superficies. Las desigualdades más notables se encuentran en la pared a barlovento, donde se obtienen valores mayores en la simulación. Aunque porcentualmente las discordancias pueden llegar a ser significativas (alcanzando un valor del 33,3 % en la pared a sotavento), en términos de valor absoluto la diferencia es mucho menos evidente, siendo para esta misma zona de solo 0,10. Esto se comprueba en la figura 7, donde se comparan los valores de seis curvas de presión tomadas del ensayo físico y las curvas correspondientes con el ensayo numérico. Las curvas 1, 2 y 3 están ubicadas en la pared a barlovento, correspondiéndose con las regiones en rojo, naranja y amarillo y con valores de coeficientes de presión de 0,4, 0,2 y 0 respectivamente. La curva 4 se sitúa cerca del borde a barlovento de la cubierta, en color azul y valor de -1 y la 5 hacia el centro de la cubierta, en color verde con valor de -0,2. La curva 6 se localiza cerca del centro de la pared a sotavento y se corresponde con un coeficiente de -0,23. Las curvas obtenidas en la simulación realizada presentan una distribución similar, siendo la principal variación en los valores de los coeficientes. Figura 6: Coeficientes de presión simulado (a) y en túnel de viento (b) (Fernández-Cabán y Masters 2018). a) Figura 7: Comparación de coeficientes de presión. Los resultados de la ponderación de los coeficientes de presiones en área se exponen en la figura 8. En esta se puede apreciar que los valores obtenidos mediante CFD, túnel de viento y la normativa muestran un comportamiento similar excepto en la zona F, donde la norma presenta un valor más conservador. Esto podía deberse a que mientras en los ensayos, tanto físicos como numéricos, solamente se analizó el viento incidiendo perpendicularmente a la edificación, en el Eurocódigo se tuvo en cuenta una variación del ángulo de incidencia de ± 45º, lo que afecta especialmente las zonas de las esquinas a barlovento de la cubierta. Figura 8: Coeficientes ponderados en área. 1 2 3 4 5 6 Simulación 0.47 0.30 0.01 -0.97 -0.22 -0.23 Túnel de Viento 0.40 0.20 0.00 -1.00 -0.20 -0.23 -1.20 -1.00 -0.80 -0.60 -0.40 -0.20 0.00 0.20 0.40 0.60 Cp Coeficientes de Presión (Cp) F G H I Simulación -1.14 -1.23 -0.54 -0.2 Túnel de viento -1.25 -1.15 -0.67 -0.23 Norma -1.8 -1.2 -0.7 -0.2 -2.0 -1.8 -1.6 -1.4 -1.2 -1.0 -0.8 -0.6 -0.4 -0.2 0.0 Cp, media Coeficientes de presión ponderados en área Los resultados más cercanos a los de la norma fueron los obtenidos en el túnel para las zonas F y H, mientras que en G e I la simulación se aproxima más. Obviando la zona F, las mayores diferencias entre la norma y la simulación fueron de un 22.8 % para la zona H, mientras que entre la norma y el ensayo físico las discrepancias máximas estuvieron dadas para la zona I con un valor del 13.0 %. 4. CONCLUSIONES A partir de los datos obtenidos por Fernández-Cabán y Masters [7] se realizó la validación de un modelo computacional, realizando una simulación en CFD con un análisis estacionario del flujo. El modelo de descripción de la turbulencia empleado fue el k-ε realizable. Con la utilización de este tipo de análisis, así como las características antes descritas de mallado, dominio computacional, descripción matemática del viento y modelo de turbulencia, se logró replicar adecuadamente el comportamiento del flujo del aire alrededor de una estructura baja tipo nave. Con la utilización de las formulaciones propuestas en la bibliografía consultada [7,11] no se logra una correcta descripción de las características del viento, especialmente la turbulencia. Es recomendable la utilización de datos empíricos cuando se disponga de ellos para conformar los perfiles de velocidad del viento e intensidad de turbulencia a introducir en el modelo numérico. Las mayores discrepancias entre los resultados de la simulación y el túnel de viento se encontraron en las paredes a barlovento y sotavento. En la cubierta y paredes laterales se logró un buen ajuste, siendo la máxima diferencia entre coeficientes de presión de 0,02, lo que representa menos de un 10 %. Al realizar la ponderación de los coeficientes en área y comparar con lo propuesto por el Eurocódigo se obtuvo que los resultados tanto de la simulación como del túnel de viento y la norma son semejantes en la mayoría de las zonas. Para la región F el Eurocódigo presenta un valor más conservador que el obtenidos mediante los otros métodos, lo que se puede deberse principalmente a la dirección de incidencia del viento que se asume en esta normativa. A pesar de las diferencias percibidas, los resultados de la simulación están en concordancia con los estudios de validación realizados por autores internacionales [3,5], especialmente en la región de la cubierta. Esto evidencia que es posible utilizar un análisis estacionario para simular correctamente el flujo de aire en estructuras bajas ya que se obtienen resultados suficientemente cercanos a los ensayos experimentales sin la necesidad de las grandes demandas computacionales que implica un análisis transitorio. REFERENCIAS 1. AMADOR, M. A; FERNÁNDEZ LORENZO, I; LÓPEZ LLANUSA, A; ELENA PARNÁS V. B. "Estudio comparativo de coeficientes de presión normativos y experimentales en cubiertas de naves industriales", Ingeniería y Desarrollo, 2021, vol. 39, no. 2, ISSN 2145-9371, Universidad del Norte, Colombia. 2. KIM, R-W; LEE, I-B; YEO, U-H; LEE, S-Y. “Estimating the wind pressure coefficient for single-span greenhouses using an large eddy simulation turbulence model”, Biosystems Engineering, 2019, vol. 188, pp. 114 – 135, ISSN 1537-5110, United Kingdom. 3. IRTAZA, H; BEALE, R. G; GODLEY, M. H. R; JAMEEL, A. “Comparison of wind pressure measurements on Silsoe experimental building from full-scale observation, wind-tunnel experiments and various CFD techniques”, International Journal of Engineering, Science and Technology, 2013, vol. 5, no. 1, pp. 28-41, ISSN 0975-5462, India. 4. AMAYA-GALLARDO, E; POZOS-ESTRADA, A; GÓMEZ-MARTÍNEZ, R. “Simulación experimental y numérica para la obtención de coeficientes de presión sobre un cubo: Estudio comparativo”, XX Congreso Nacional de Ingeniería Estructural, 2016, ISSN 20007-2011, Yucatán, México. 5. KRÁLIK, J; KONEČNÁB, L; LAVRINČÍKOVÁA, D. “Experimental Validation of Computer Fluid Dynamics Simulation aimed on Pressure Distribution on Gable Roof of Low-rise Building”, Procedia Engineering, 2017, vol. 190, pp. 377 – 384, ISSN 1877-7058, United Kingdom. 6. CHOWDHURY, M. G; GOOSSENS, D; GOVERDE, H; CATTHOOR, F. "Experimentally validated CFD simulations predicting wind effects on photovoltaic modules mounted on inclined surfaces," Sustainable Energy Technologies and Assessments, 2018, vol. 30, pp. 201-208. 7. FERNÁNDEZ-CABÁN, P. L; MASTERS, F. J. “Effects of freestream turbulence on the pressure acting on a low-rise building roof in the separated flow region”, Frontiers in Built Environment, 2018, vol. 4, no. 17, ISSN 2297-3362, Switzerland. 8. EN1991-1-4. “Eurocode 1: Actions on structures — General actions — Part 1-4: Wind actions”, European Committee for Standardization (Eurocode), 2004, Europe. 9. ANSYS. 2018, ANSYS, Inc., Relase 19.2, USA. 10. HOLMES J. D. Wind loading of structures. New York: Taylor & Francis e-Library, 2007. ISBN 0- 203-34234-8. 11. BLOCKEN, B; STATHOPOULOS, T; CARMELIET, J. "CFD simulation of the atmospheric boundary layer: wall function problems," Atmospheric Environment, 2007, vol. 41, pp. 238–252. 12. ABOHELA, I; HAMZA, N; DUDEK S. “Validating CFD Simulation Results: Wind flow around a surface mounted cube in a turbulent channel flow”, Conference, Opportunities, Limits & Needs Towards an environmentally responsible architecture, 2012, Lima, Perú. 13. SINGH J. AND ROY A. K. “Effects of roof slope and wind direction on wind pressure distribution on the roof of a square plan pyramidal low-rise building using CFD simulation”, International Journal of Advanced Structural Engineering, 2019, vol. 11, no. 2, pp. 231 – 254, ISSN 2008-6695, Iran. DE LA PISCINAS FERROCEMENTO AL MORTERO ARMADO GUNITADO, MAG Dr. Hugo Wainshtok Rivas1, Ing. Gabriel Martínez Licea2, Dra. Isel del Carmen Díaz3 1Profesor Emérito Universidad Tecnológica de La Habana, e-mail hugorwr@gmail.com , hugow@tersla.cujae.edu.cu; 2Adiestrado, Universidad Tecnológica de La Habana, e-mail gamarlic2709@gmail.com; 3Profesor Titular, Universidad Tecnológica de La Habana, email iseldiaz77@gmail.com RESUMEN En 1985 se construyó en Cuba la primera piscina de Ferrocemento, en el lugar conocido como Playa Jibacoa, cerca de Santa Cruz del Norte, actual provincia de Mayabeque, y a partir de entonces más de 40 piscinas de diferentes tipos y tamaños se construyeron en Cuba con esta tecnología hasta la década del 90, el hecho de que no se produjera la tela de mallas de acero en Cuba y de que la importación de esta cesara, la construcción de piscinas de ferrocemento se paralizó en el país desde 1993. En el 2002, se proyectó y construyó en el actual Hotel Royaltón, en las playas de Varadero, provincia de Matanzas, una nueva piscina, la que por problemas técnicos no se realizó con telas de mallas de acero, sino utilizando por primera vez en el mundo, telas de mallas de Polímero Reforzado con Fibras de Vidrio PRFV. El trabajo trata del resurgimiento de la construcción de piscinas, ahora bajo el nombre de Mortero Armado Gunitado (MAG), utilizando barras y telas de mallas de acero y también barras y telas de mallas de Polímero Reforzado con Fibras de Vidrio (PRFV) y Basalto (PRFB). PALABRAS CLAVES: piscinas, ferrocemento, PRF, gunite, telas de mallas. FROM FERROCEMENT SWIMMING POOLS TO GUNITED REINFORCED MORTAR, MAG ABSTRACT In 1985, the first Ferrocement pool was built in Cuba, in a place known as Playa Jibacoa, near Santa Cruz del Norte, current province of Mayabeque, and since then more than 40 pools of different types and sizes have been built in Cuba with this technology until the 1990s, the fact that steel mesh fabric was not produced in Cuba and that its importation ceased, the construction of ferrocement pools was paralyzed in the country since 1993. In 2002, a new swimming pool was projected and built in the current Hotel Royaltón, on the beaches of Varadero, province of Matanzas, which due to technical problems was not made with steel mesh fabrics, but instead used, for the first time in the world, mesh fabrics, GFRP, Glass Fiber Reinforced Polymer Meshes. The work deals with the resurgence of the construction of swimming pools, now under the name of Gunite Reinforced Mortar (MAG), using bars and mesh fabrics of steel and also bars and mesh fabrics of Glass Fiber Reinforced Polymer (GFRP) and Basalt. (BFRP) KEY WORDS: pools, ferrocement, FRP, gunit, steel-mesh 1. INTRODUCCIÓN El uso del ferrocemento, definido como una lámina delgada de mortero hidráulico reforzado con telas de mallas de alambre de pequeño diámetro, distribuidas en toda la sección transversal del elemento Fig.1 patentado por Josep Monier en 1848, bajo el nombre de Ferciment y desarrollado por el ing. Arq. italiano Pier Luigi Nervi en la década del 40 del pasado siglo, fue utilizado para la construcción de piscinas por primera vez por el Profesor Ing. Lafael Petroni del llamado grupo de Sao Carlos de la Universidad de igual nombre en Brasil , al que también pertenecía entre otros el ing. Joao Bento de Hanai [1]. En el Primer Simposio Internacional del Ferrocemento efectuado en Bérgamo, Italia, en honor al centenario de Nervi [2], al que asistió el autor de este trabajo, fue presentado por Petroni, la experiencia brasileña en la construcción de piscinas utilizando el Ferrocemento, este hecho marcó el interés del autor , el que hasta ese momento había utilizado el Ferrocemento en la construcción de barcos de pesca, sobre lo cual versó su presentación en el evento y comenzaba a utilizarlo en la construcción de viviendas y obras esculturales. La primera piscina, bajo la dirección del que suscribe, se realizó como ya se mencionó en el centro turístico de Jibacoa, provincia de Mayabeque, Cuba, la que se diseñó semisoterrada y con las paredes prefabricadas, hay que señalar que después de casi 40 años todavía está en explotación. Fig. 2 Fig. 1: Sección del Ferrocemento: espesor de 2 a 5 cm Fig. 2: Piscina de Jibacoa A partir de ese momento, bajo la dirección del autor decenas de piscinas, de diferentes formas, prefabicadas o no, soterradas, semisoterradas o sobre el terreno, se construyeron en Cuba, sobresaliendo entre ellas, una piscina olímpica y la mayor construida en ese momento en el mundo de Ferrocemento, de 2000 m2 de espejo de agua en la ya mencionada playa de Varadero, entre los hoteles Punta Arenas y Paradiso (actualmente llamado Punta Hicacos) Fig. 3. Esta última se diseñó para ser construida utilizando un equipo de lanzamiento del mortero a presión, conocido como gunitaje (gun it), y un encofrado de madera de 30 m de longitud, que se desplazaría según avanzara la obra. Fig. 4. Por problemas técnicos el mortero tuvo que ser colocado a mano, lo que no impidió que la piscina fuera un hito de ese tipo de obra no solo en Cuba sino en América latina y por qué no en el mundo [2]. Fig. 3: Piscina hotel Punta Arenas-Paradiso Fig. 4: Encofrado de madera de la piscina 2. EL USO DE LOS PRF EN LAS PISCINAS. Los materiales compuestos En los últimos años, la lucha contra la corrosión del acero, la mayor causa de destrucción de obras de hormigón armado, obligó a cambiar el modo de tratar eliminar este flagelo y en lugar de utilizar y profundizar en los métodos que limitaban o retrasaban la corrosión, se estableció que lo mejor era buscar materiales que no fueran atacados por la corrosión, de ahí surgieron los materiales compuestos, especialmente los Polímeros Reforzados con Fibras, PRF. Estos materiales están formados por fibras, usualmente de Carbono, PRFC, Basalto (PRFB), Aramida (PRFA) o Vidrio PRFV, que proporcionan la resistencia y resinas, epóxicas, vinílicas, poliéster, que protegen y agrupan a las fibras [3], dando a los elementos compuestos forma de barras, mallas, perfiles entre otras, Fig 5. a) b) Fig.5: Polímeros reforzados con fibras. a) Barras de PRFV. b) telas de mallas de PRFB Estos materiales, además de no oxidarse, eran más resistentes a la tracción que el acero, pesaban entre 4 y 6 veces menos y además eran antimagnéticos y no trasmitían la electricidad ni el calor. Otra de sus ventajas era que podían construirse prácticamente de cualquier diámetro y en forma de tela de mallas, por lo que eran apropiados para ser utilizados en sustitución del refuerzo de acero utilizado tanto en el hormigón como en el ferrocemento, que, por ser una lámina de pequeño espesor, entre 2 y 5 cm, obligaba a diámetros muy pequeños en el refuerzo de 0,8 a 1,3 mm. Además, el pequeño recubrimiento del refuerzo en estas secciones generalmente de 3 a 6 mm, era la causa fundamental de su destrucción a pesar de no tener lugar el agrietamiento que facilita la corrosión del acero, por lo que los PRF son el material ideal para sustituir el refuerzo de acero [4]. Los PRF utilizados en las piscinas. Dos parámetros fundamentales rigen el diseño del Ferrocemento utilizado en las piscinas para garantizar su impermeabilidad y resistencia, la superficie específica S, que es la relación entre la superficie del refuerzo en contacto con el mortero y la unidad de volumen del mismo, y el factor de volumen, Vf, relación entre el volumen del refuerzo por unidad de volumen del mortero. En dependencia del valor alcanzado por estos parámetros puede asegurarse que se cumplen las características físico-mecánicas de este material, a saber: resistencia, impermeabilidad, homogeneidad y elasticidad, factores que permiten su aplicación en obras de paredes delgadas y cualquier forma, especialmente donde la impermeabilidad sea fundamental como los depósitos de líquidos, piscinas, barcos, etc. Al igual que con barras y telas de mallas de alambres de acero como refuerzo se lograban cumplimentar estos parámetros en el Ferrocemento, ahora pueden lograrse también en láminas de pequeño espesor de mortero utilizando como refuerzo las barras y telas de mallas de pequeño diámetro de PRF. Dado que el primero debía su nombre al acero, que conformaba su refuerzo, y ahora este es de PRF, generalizaremos el nombre de estos elementos a Mortero Armado y lo diferenciamos si se utiliza refuerzo de acero (antiguo Ferrocemento) o con PRF. 3. EL MAG EN LAS PISCINAS Antecedentes El desarrollo tecnológico de la construcción, va enfocado a una mayor economía en las obras, tanto por el uso de materiales de mayores prestaciones, como por la mayor rapidez en la construcción y mayor durabilidad de las mismas. Estos aspectos se logran hoy en día en la construcción de piscinas con un mortero de altas prestaciones, su colocación mediante equipos de proyección Gun-it y la utilización como refuerzo de los PRF. Si en 1994 para la construcción de la piscina del hotel Pasacaballos en Cienfuegos Fig. 6, se colocó el mortero mediante equipos de proyección, y en el 2002 en la piscina del hotel Royaltón Fig.7 se utilizaron como refuerzo los PRFV, no fue hasta este 2022, que se utilizó el MAG (Mortero Armado con PRF y Gunitado) en la construcción de piscinas en el mundo. En este resultado tuvo mucho que ver la empresa We Care, radicada en Cancún, estado de Quintana Roo. Fig. 6: Piscina hotel Pasacaballos, Cienfuegos Fig.7: Piscina Hotel Royaltón, Varadero Piscina experimental En el año 2021, el Lic. Ernesto Ogando, director de la empresa We Care, a través de un ingeniero que había estudiado en la Universidad Tecnológica de La Habana CUJAE, y realizado su trabajo final de curso en el tema de diseño de una piscina de Ferrocemento, localizó en Cuba al autor y dado su idea para la fabricación de piscinas y su disposición de aplicar nuevas tecnologías con este propósito, suscitó el interés de éste. De ese encuentro surgió la idea de construir de forma experimental en Cancún, México, una primera piscina, que sirviera como prototipo y ayudara a la formación del personal de la empresa We Care, hasta ese momento dedicada a la construcción de obras de hormigón armado, entre ellas piscinas, en el uso del Ferrocemento. Hay que señalar que, en Cuba, no se habían construido piscinas de Ferrocemento en los últimos 20 años, y que el autor llevaba 7 años estudiando los PRF para su uso en las construcciones, ya que vislumbraba que este nuevo tipo de refuerzo sería de gran utilidad para Cuba, dado su condición de país tropical con un agresivo medio ambiente, lo que ocasionaba por la corrosión del acero una baja durabilidad en las construcciones. De igual forma consideraba que el uso de las ya conocidas barras y telas de mallas de PRF eran el refuerzo ideal para las piscinas. Ya existía en Cuba el conocimiento y alguna experiencia en el uso de las barras y telas de mallas de PRF en la construcción y reparación de algunas obras y su uso en piscinas con notables resultados, por lo que la posibilidad de hacer una piscina experimental con MAG, le resultó inapreciable. Así en el 2021, la empresa We Care, comenzó la construcción de la primera piscina de Ferrocemento en México, como preparación y paso previo a construir una piscina utilizando como refuerzo los PRF. Hay que señalar que dado la epidemia de la COVID 19, la orientación para la construcción no se pudo realizar de forma presencial y se realizó mediante las nuevas TIC. Después de varios meses de tropiezos e incertidumbre, se concluyó de forma exitosa esa piscina, llamada The Village, Fig. 8. Fig. 8: Piscina The Village, Cancún, México Primera piscina de MAG a nivel mundial con refuerzo de PRF A finales de 2021, después de disponer de los materiales necesarios, barras de PRFV y telas de mallas de PRFB, importadas directamente de la fábrica de Materiales Compuestos de Yaroslavl, Rusia, We Care comenzó la construcción de las piscinas los Cenotes, primeras a construir en el mundo utilizando como refuerzo los PRF, conocidas por ese nombre por su ubicación y forma de gruta de piedra. Las piscinas de pequeña dimensión y forma casi circular, se construyeron con una parte de la pared integrada en un muro de piedra existente y la otra utilizando un molde de madera, que se apoyaba en contrafuertes de Mortero Armado reforzado con PRF, prefabricados previamente y que sirvieron de soporte para el refuerzo de PRF en la pared y el ya mencionado molde de madera Fig. 9 La inexperiencia inicial del jefe de la obra y los obreros, lo que era de esperarse, hizo que se presentaran algunas dificultades en la preparación del refuerzo de PRF y durante la colocación del mortero mediante quipos de lanzado a presión, que dadas las ventajas de este tipo de construcción pudieron ser resueltas a pie de obra sin detrimento de la calidad final de la piscina. La construcción de las 3 piscinas, similares en dimensiones y todas construidas sobre el terreno, fue totalmente exitosa, lográndose todos los objetivos previstos en piscinas turísticas, en este caso para un complejo de hoteles y la complacencia total del cliente. a) b) Fig. 9- Piscina Los Cenotes. a) En construcción. b) Terminada 4. CONCLUSIONES Los resultados económicos y estéticos logrados en las primeras piscinas construidas en México utilizando el MAG, resultaron realmente alentadores. La piscina de Ferrocemento, denominada The Village, resultó un 40 % más económica en el costo total con reducciones considerables en el uso del cemento y en el tiempo de ejecución. La prueba de agua a los 5 días de terminada, mostró una total impermeabilidad y resistencia, garantizándose una durabilidad igual o superior a las de hormigón armado Las piscinas de los Cenotes construida totalmente con PRF, demostró la misma facilidad de construcción y resultados finales en cuanto impermeabilidad y resistencia, así como similar disminución en el costo total. Sin embargo, el utilizar como refuerzo los PRF, que no se oxidan, garantiza al menos 2 a 3 veces mayor durabilidad que las construidas con acero. REFERENCIAS [1] WAINSHTOK Hugo, Ferrocemento. Diseño y Construcción, 4ta Edición ed. Riobamba Ecuador, 2010, pp. 351 ISBN 978-994-203-302-4. [2] NAAMAN Antoine, Ferrocement and Laminated Cementitious Composites Ann Arbor Michigan, 2000, pp. 372 ISBN 0-9674939-0-0. [3] A. Nanni, A. D. Luca, and H. J. Zadeh, Reinforced Concrete with FRP Bars. USA, 2014, p. 406 ISBN 9780367864996. [4] H. R. Wainshtok R, J. A. Hernández C., and I. Díaz P., Calidad y Durabilidad de las Construcciones. El Uso de los PRF como como Refuerzo del Hormigón Armado y el Ferrocemento. Cuba, 2017, pp. 206 ISBN 978-959-261505-2. PROYECTO DE NAVE PARA TÚNEL DE VIENTO EN CUBA. Arq. Ginet Ma. Guerrero Porras 1, Dr. Ing. Alejandro López Llanusa 2, Dr. Ing. Vivian Elena Parnás 3 1Universidad Tecnológica de La Habana ¨José Antonio Echeverría¨, Calle 114, #11901, e/ Ciclovía y Rotonda, Marianao, La Habana, Cuba, 2 Universidad Tecnológica de La Habana ¨José Antonio Echeverría¨, Calle 114, #11901, e/ Ciclovía y Rotonda, Marianao, La Habana, Cuba, 3 Universidad Tecnológica de La Habana ¨José Antonio Echeverría¨, Calle 114, #11901, e/ Ciclovía y Rotonda, Marianao, La Habana, Cuba. 1e-mail: ginet@arquitectura.cujae.edu.cu RESUMEN Potenciar el aprovechamiento del viento en Cuba con un enfoque multidisciplinario y científico, es de primordial importancia para la sociedad contemporánea. Este constituye un recurso de alto valor, por lo que su manejo eficiente puede contribuir a mejorar la calidad de vida de la población y mitigar daños económicos y sociales. La ingeniería de viento, en las últimas décadas, ha logrado un buen desarrollo a nivel internacional y dentro de ella, el campo experimental adquiere enorme importancia. Una de las herramientas más poderosas empleadas son los túneles de viento. Estos permiten a través de modelos a escala y la simulación del viento, estudiar la interacción entre ellos. Los modelos pueden ser tanto de espacios construidos por el hombre, como de la naturaleza. Los fuertes vientos que de manera sistemática azotan el territorio nacional, han impulsado el desarrollo de programas y estrategias que hoy muestran excelentes resultados en cuanto a los estudios de peligro, vulnerabilidad y riesgo (PVR). Sin embargo, aun la rama experimental no posee un desarrollo adecuado al Cuba no contar con un túnel de viento de capa límite atmosférica (CLA). De construirse uno, sería el primero de su tipo en la región del Caribe. La Universidad Tecnológica de La Habana, ¨José Antonio Echeverría¨, Cujae, ha trabajado la idea de construir un túnel de viento de capa límite atmosférica que permita implementar estudios de tal magnitud en Cuba. Este trabajo fundamenta la necesidad de disponer de esta herramienta y se expone el proyecto más presentado para su construcción. PALABRAS CLAVES: Túnel de viento de capa límite atmosférica, túnel de viento, viento. WAREHOUSE PROJECT FOR WIND TUNNEL IN CUBA. ABSTRACT Promoting the use of the wind in Cuba with a multidisciplinary and scientific approach is of paramount importance for contemporary society. This constitutes a high-value resource, so its efficient management can contribute to improving the quality of life of the population and mitigate economic and social damage. Wind engineering, in recent decades, has achieved a good development at the international level and within it, the experimental field acquires enormous importance. One of the most powerful tools used are wind tunnels. These allow, through scale models and wind simulation, to study the interaction between them. The models can be of both man-made spaces and nature. The strong winds that systematically hit the national territory have driven the development of programs and strategies that today show excellent results in terms of hazard, vulnerability and risk (PVR) studies. However, even the experimental branch does not have an adequate development since Cuba does not have an atmospheric boundary layer wind tunnel. If one is built, it would be the first of its kind in the Caribbean region. The Technological University of Havana, ¨José Antonio Echeverría¨, Cujae, has worked on the idea of building an atmospheric boundary layer wind tunnel that allows the implementation of studies of such magnitude in Cuba. This work bases the need to have this tool and the most presented project for its construction is exposed KEY WORDS: Atmospheric boundary layer wind tunnel, wind, wind tunnel. 1. INTRCUCCIÓN Potenciar el aprovechamiento del recurso viento en Cuba con un enfoque multidisciplinario y científico, es de primordial importancia para la sociedad contemporánea. Con ello se contribuiría a mejorar la calidad de vida de la población y se mitigarían daños económicos y sociales en el país donde, por ser un archipiélago ubicado en el trópico, el viento adquiere características especiales de intensidad y frecuencia. Por esto se hace necesaria una gestión eficiente del recurso viento con el apoyo de diferentes tecnologías implementadas en varios sectores del conocimiento. Los fuertes vientos que de manera sistemática azotan el territorio nacional, han llevado a que Cuba posea un importante resultado en materia de estudios de peligro, vulnerabilidad y riesgo (PVR) ante los efectos del viento en toda la región. A su vez, demanda un desarrollo tecnológico y científico en el país para implementar medidas que permitan la mitigación de los efectos del cambio climático y el cuidado del medio ambiente construido. En los últimos años la voluntad del país, plasmada en su agenda 2030 y en las acciones para aumentar la matriz energética con energías renovables y sostenibles, ha impactado en la realidad haciéndose más evidente la necesidad de estudios que relacionen, entre otros, el efecto del viento. La Universidad constituye un factor clave en el desarrollo social a partir de la formación de profesionales tanto científica como técnicamente. En el campo de las investigaciones relacionadas con el viento, la Universidad Tecnológica de La Habana, ¨José Antonio Echeverría¨, Cujae; ha tenido un papel importante con los trabajos de académicos de varias especialidades que abordaron los estudios de este fenómeno en las diferentes esferas de actuación. En este sentido se destacan varios trabajos relacionados al estudio de las presiones de viento en Cuba [1], al efecto del viento en las construcciones y la norma de viento [2]. Se cuenta también con investigaciones sobre el potencial eólico para su aprovechamiento energético con sistemas renovables de energía [3]. Por otra parte, se destacan trabajos relacionados con el confort en la ciudad compacta [4] y estudios a escala arquitectónica y gestión de riesgos de desastre [5] El trabajo de investigación fomenta el empleo de la experimentación, la cual está considerada como práctica básica en el desarrollo científico. Si bien actualmente se disponen de modelo matemáticos y computacionales para el estudio de diversos fenómenos, el campo físico experimental continúa siendo en la actualidad fuente de validación de los mismos. Desde el punto de vista educacional, la experimentación permite la interacción multidisciplinaria e integral, priorizando la conformación de equipos de profesores y estudiantes de todas las facultades y centros. En el campo de la ingeniería de viento una de las tecnologías más utilizadas a nivel internacional, es la experimental en túnel de viento. Esta herramienta tecnológica permite a través de modelos a escala, reproducir el viento en el espacio construido o natural, por lo que su aplicación vincula casi todos los espacios de actuación del hombre con la naturaleza y de ahí su valor como herramienta con beneficios multidisciplinarios. De forma general los estudios a desarrollar en el túnel de viento pueden catalogarse de acuerdo a su finalidad en tres tipos: estudios de carácter didáctico, estudios de investigación y desarrollo y estudios de aplicación y servicio a la comunidad. En las últimas décadas se han realizado estudios en túnel de viento que tributan a investigaciones con aplicación en la industria y en la construcción nacional. Estas se han llevado a cabo a través de colaboraciones internacionales que tienen como base trabajos de doctorado de profesionales cubanos y que aprovechan las herramientas existentes en otras universidades. Tal es el caso del estudio de coeficientes de arrastre generados por la presencia de antenas en torres de telecomunicaciones [6] (Ver Figura 1), el estudio del efecto del viento sobre paneles fotovoltaicos [7] (Ver Figura 2), y el estudio de coeficientes de presión en secciones de perfiles de acero de la construcción [8] (Ver Figura 3). Estas acciones han permitido la formación de profesionales, en este campo, que hoy asesoran a las empresas constructoras del país. Figura 1: Ensayo de coeficientes arrastre en torres de telecomunicaciones con presencia de antenas. Figura 2: Ensayo de coeficientes de presión sobre paneles solares. Figura 3: Ensayo de coeficientes de presión sobre secciones de perfiles. Cuba no cuenta aún con un túnel de viento de capa límite, por lo que de construirse uno, sería el primero de su tipo. Con él se darían respuestas a necesidades de todo el territorio nacional e incluso, pudiera extenderse su servicio a la región del Caribe, que tampoco cuenta con una herramienta como esta. Es por ello que desde hace varias décadas la Universidad Tecnológica de La Habana, ¨José Antonio Echeverría¨, Cujae, ha trabajado la idea de la construcción de un túnel de viento de capa límite que permitiera implementar estudios de este tipo en Cuba. El túnel propuesto ha sido elaborado con la asistencia de la Universidad de la República de Uruguay mediante un convenio de cooperación con la Agencia Uruguaya para la Colaboración Internacional (AUCI). En este trabajo se fundamenta la necesidad de disponer de esta herramienta y se expone el anteproyecto presentado para su construcción dentro del campo universitario CUJAE. 2.MATERIALES Y MÉTODOS La inexistencia de modelos matemáticos apropiados para estudiar y conocer la interacción del viento con las estructuras naturales o construidas por el hombre, y el costo de implementación para estudios a escala real, ha llevado a la realización de estudios experimentales a través de la simulación física del viento y de modelos a escala con la precisión y adecuación propias de un laboratorio. Una de las técnicas más empleadas a nivel mundial para estos casos de estudio son la prueba de modelos en túneles de viento, especialmente en los capaces de reproducir la capa límite atmosférica (CLA). Esto responde a que la mayor parte de las estructuras sometidas a ensayos se encuentran dentro de la capa rugosa, donde incide de manera especial el efecto de la turbulencia generada por el intercambio de la energía entre el viento y el terreno en los coeficientes de presión [9]. Dentro de las temáticas a desarrollar en el túnel de viento de CLA se encuentran: el efecto del viento sobre edificaciones, la determinación de presiones sobre superficies, los efectos dinámicos en estructuras, la ventilación natural a escala arquitectónica, la difusión de contaminantes en la atmósfera, los efecto de la topografía y de la rugosidad de la superficie terrestre sobre el flujo de aire, los estudios de potencial eólico en el terreno, el confort de personas en los espacios urbanos, la aerodinámica aplicada al deporte y el diseño de sistemas destinados a la protección de espacios de usos agrícolas. El empleo de esta herramienta para la concepción de edificaciones se basa en la necesidad de diseños resistentes y a la vez económicos, donde las soluciones volumétricas potencien una óptima ventilación natural y a su vez mitiguen los efectos dañinos de fuertes vientos. Muchos arquitectos y urbanistas se interesan por estudios en modelos a diferentes escalas para lograr obtener tanto las condiciones de confort peatonal en torno a espacios públicos y emplazamientos de determinadas construcciones en la ciudad, como el comportamiento del flujo de aire en los espacios interiores de las edificaciones logrando una eficiencia en materia energética, con el propósito de alcanzar certificaciones de sostenibilidad (LEED, BREEAM, CASBEE). Por otra parte, los ensayos en túnel de viento permiten estudiar el potencial eólico para la generación de energía, estimar las cargas de viento sobre estructuras, sistemas de parasoles externos, así como en fachadas solares de doble acristalamiento de gran volumen. 2.1 Características del túnel de capa límite atmosférica (CLA). Atendiendo el tipo de objeto de estudio se utiliza un túnel de viento con una configuración y dimensión determinada. Los equipos a utilizar varían por dichos aspectos, pero el funcionamiento básicamente se reduce a dos tipos de túneles de viento: de circuito abierto y de circuito cerrado. El túnel de circuito cerrado consiste en un tubo completamente cerrado, valga la redundancia, con un sistema de propulsión encargado de recircular el aire en su interior hasta lograr las condiciones deseadas para la prueba en la cámara de ensayo. En esta se genera una corriente de aire con velocidad controlada producto de los difusores, cuya función es uniformar la corriente de aire. Por ser un túnel de circuito cerrado, es necesario forzar a la corriente a realizar giros, pero de manera ordenada, sin elevar más allá de lo razonable la pérdida de carga ni introducir perturbaciones en la corriente (Ver Figura 4). Figura 4: Esquema de un túnel de viento cerrado. En el caso de un túnel de viento de circuito abierto, (Ver Figura 5) el flujo de aire que circula por su interior describe una trayectoria recta; penetra desde el exterior a través de la sección de entrada que suele albergar la zona de acondicionamiento de flujo, llega al cono de contracción donde pierde presión, gana velocidad y entra posteriormente en la cámara de ensayo. Luego, circula a través del difusor y la sección del propulsor, para regresar finalmente al exterior mediante la sección de salida [10]. Este tipo de túnel puede ser diseñado por medio de succión, donde el aire es aspirado por un ventilador colocado después de la cámara de prueba; o por inyección de aire, donde este es soplado por un ventilador axial hacia la cámara de pruebas y la campana de salida. En ambos casos se presentan turbulencias que son controladas por la colocación de laminadores de flujo [11]. El túnel de viento que se propone construir es de CLA tipo abierto y por succión (Ver Figura 5). A pesar de que como desventaja necesitan una mayor potencia del motor, siendo un poco más ruidosos, este tipo de túnel requiere un menor costo de inversión comparado con los de tipo cerrado, donde la necesidad de materiales es mayor y demanda la incorporación de un intercambiador de calor. Esto último se debe a que la totalidad de la potencia eléctrica suministrada al motor se convierte en calor, que a su vez es transmitido al aire llegando a incrementar su temperatura. En condiciones de operación con la temperatura media de Cuba esto implicaría la necesidad de un sistema de refrigeración adicional. Figura 5: Esquema de la propuesta a construir de túnel de viento abierto. El diseño del túnel estuvo condicionado por los requerimientos que se debían cumplir para satisfacer los ensayos a realizar. Estos fueron las escalas geométricas de los modelos, la relación de bloqueo, velocidad del flujo en el túnel y, la intensidad de turbulencia, que a su vez determinan las dimensiones generales del túnel, la dimensión de la mesa de trabajo y la capacidad del motor-ventilador. Como resultante el túnel de viento propuesto consta con requerimientos dimensionales que establecen que la longitud total de este no deberá exceder los 50 m y que la zona de trabajo deberá contar con iluminación cenital. Esta última zona requiere un ancho de 3.2 m, un ancho variable entre 2.1 m y 2.6 m; y una longitud comprendida entre 20 m y 24 m. Por otro lado, las paredes deben permitir la visualización de los ensayos mediante paños de vidrio o acrílico situados convenientemente. En el caso de las mesas de ensayo, serán de 3 metros de diámetro, se ubicarán a la entrada y a la salida del flujo; y deben ser giratorias 360 grados con una estructura independiente a la del túnel. De igual manera, para el diseño, fue necesario tener en cuenta requerimientos de flujo donde se determina que la velocidad nominal en la zona de ensayo será de 45m/s y que el sistema motor-ventilador contará con una potencia nominal del orden de 620 kW, con una velocidad de giro nominal de 750 rpm. Se contará, además, con un enderezador de flujo de tubos hexagonales, conocido como Honeycomb, de 25 mm de lado; y seguido a esta, tres mallas que permitan alcanzar cierta intensidad de turbulencia en la entrada a la zona de trabajo, de menos de 1% y una no uniformidad inferior al 4.5%. 2.2 Proyecto de nave para túnel de viento. La Universidad Tecnológica de La Habana “José Antonio Echeverría”, Cujae, es catalogada como el centro rector de las ciencias técnicas en Cuba. En esta se han consolidado alrededor de 14 centros de estudio e investigación que ratifican el prestigio de la Universidad a nivel nacional. Entre ellos se destacan el Centro de Referencia para la Educación Avanzada (CREA), Centro de Estudios de Tecnologías Energéticas Renovables (CETER) y Centro de Estudios de Construcción y Arquitectura Tropical (CECAT). Asociado a este último, desde hace varios años, se ha ideado la posibilidad de construcción de un túnel de viento de CLA. Si bien la ejecución de esta herramienta constituye un avance a nivel nacional, poder desarrollarla en el campus universitario, permite elevar significativamente el potencial de investigación y experimentación en la ingeniería y arquitectura. Su colocación se concibe en una posición estratégica entre tres centros de investigación de la Cujae: Centro de Investigaciones Hidráulicas (CIH), Complejo de Investigaciones Tecnológicas Integradas (CITI) y Centro Multipropósito (Ver Figura 6), que a su vez se conectan por un espacio público central donde, con carácter de plaza, los estudiantes puedan realizar ferias científicas o actividades afines a los centros de investigación. Contará además con buena visibilidad, pues es un espacio altamente transitado por su cercanía al comedor de estudiantes y a uno de los accesos a la residencia estudiantil. De este modo se genera una gran área del conocimiento, donde de manera práctica serán desarrolladas diferentes ramas de la ingeniería. Figura 6: Propuesta de emplazamiento del proyecto de Túnel de viento. El diseño de la edificación responde a la refuncionalización de una nave destinada al almacenamiento de recursos. Su estructura se compone por 12 pórticos de acero espaciados a 6 m, con alturas mínimas y máximas de 4 m y 7.80 m respectivamente, generando una cubierta a dos aguas. (Ver Figura 7 a y b). Su dimensiones generales, de 24 m x 72 m, permiten el mayor aprovechamiento de la nave existente para el desarrollo de los espacios donde se realizarán las actividades fundamentales de gestión de proyecto, confección de maquetas, ensayo en túnel de viento y análisis de resultados. a b Figura 7: Vista de la nave del Túnel de Viento. a) Nave actual. b) Proyecto. La nave contará, por cada fachada, con un punto de acceso para un total de cuatro: principal (A), de trabajadores (B) y de abastecimiento (C) y de servicio (D). La entrada principal a la edificación se asocia con la vía de acceso vehicular a la universidad. Como resultado de la topografía existente, esta cuenta con una escalinata que en su diseño se integra a una rampa (Ver Figura 9 a), que evita barreras arquitectónicas. En el caso del acceso a trabajadores tendría lugar por la fachada Norte, debido a que es la más cercana a las instalaciones docentes y del CECAT, donde gran parte de los trabajadores e investigadores desarrollan actividades. Esta se vincula a un pequeño parqueo de ciclos y autos, diseñado con pavimento de juntas verdes (Ver Figura 9 b). Respetando y aprovechando la preexistencia de grandes vanos por las fachadas más cortas, pero de mayor puntal, se llevaría a cabo la entrada del túnel de viento (fachada Este) y el abastecimiento de materiales para la confección de maquetas (fachada Oeste), tributando directamente al área de almacén. Figura 8: Accesos a la Nave. A) Principal. B) De trabajadores. C) De abastecimiento. D) De servicio. a b Figura 9: Elementos significativos de los accesos. a) Escalera integrada a una rampa. b) Parqueo de ciclos y autos. El proyecto se divide en tres áreas: protocolo, investigación y ensayos. La primera se ubica en un volumen existente, de geometría rectangular con 144 m2, adosado a la estructura principal de la nave. Consta de un vestíbulo con visuales al área de ensayos y posibilidades de funcionar como galería donde se expongan maquetas o resultados de investigación. Como espacio principal de esta área se encuentra el salón de reuniones con capacidad mínima de 12 personas, y como secundarios el pantry y servicio sanitario, orientados hacia el Sur (Ver Figura 10). Figura 10: Distribución en planta del proyecto de nave para el túnel de viento. Área de protocolo. El área de investigación, de 460 m2 aproximadamente, cuenta con locales distribuidos en dos niveles para aprovechar el puntal de 7.80m en la zona central de la nave. En planta baja se encuentra un lobby de doble puntal, con acceso al área de ensayos, un servicio sanitario de dos cabinas y un taller para la confección de maquetas que serán sometidas a ensayos en el túnel de viento (Ver Figura 10). Este taller se comunica con el almacén y el área de ensayos, lo cual garantiza un flujo adecuado en el proceso productivo. En un segundo nivel, accediendo por una escalera desde el vestíbulo, se hallan los servicios sanitarios como continuidad vertical de las instalaciones y dos oficinas con visuales hacia el túnel de viento. Estas están catalogadas, una como dirección y otra como laboratorio, que tiene capacidad para mínimo 8 puestos de trabajo, un pequeño salón de reuniones y un pantry para los trabajadores. Además, se decide ahuecar la volumetría aprovechando el espacio resultante de la pendiente de la cubierta, para la realización de una terraza colindante con el laboratorio. Esta permite, además de brindar un espacio de calidad a los investigadores, facilitar el acceso a la cubierta para la ejecución de inspecciones y acciones de mantenimiento (Ver Figura 11). Figura 11: Distribución en planta del proyecto de nave para el túnel de viento. Área de investigación. El espacio destinado a la colocación del túnel de viento o área de ensayos es la mayor, ocupando 1 440 m2 lo cual responde a las dimensiones y requerimientos del equipamiento (Ver Figura 12). Está conformado por un único local de geometría rectangular (60m x 24m) donde el túnel se centra, pues debe existir simetría en el espacio para no alterar el flujo de aire. Figura 12: Distribución en planta del proyecto de nave para el túnel de viento. Área de ensayos. Por la disposición de la nave, una de las cubiertas se encuentra totalmente orientada hacia el Sur. Esto constituye una oportunidad, de conjunto con la pendiente existente, para la colocación de paneles fotovoltaicos en toda su extensión (Ver Figura 13), alternados con tejas traslúcidas que potencian la iluminación natural del área de ensayos de manera cenital, atendiendo a los requerimientos dimensionales planteados con anterioridad (Ver Figura 14). Se concibe, además, dentro del diseño de la instalación, un cuarto técnico donde se podrán colocar baterías que almacenen la energía captada. Con ella se pretende satisfacer parte del consumo energético del inmueble. Así, el proyecto de nave para la colocación del túnel de viento cumplirá con requisitos de sustentabilidad a tono con la voluntad del país, en cuanto a la realización de acciones para aumentar la matriz energética con energías renovables y sostenibles. De igual manera el proyecto tiene cabida para la implementación a mediano plazo de la domótica, automatizando procesos para lograr una mayor eficiencia energética; y la recolección de aguas pluviales, gracias a su propia estructura con cubiertas a dos aguas, para la reutilización en la descarga de los servicios sanitarios y el riego de las áreas verdes exteriores. Figura 13: Colocación de paneles solares en la cubierta Sur de la nave. Figura 14: Empleo de tejas traslúcidas en el área de ensayo. 2.3 Principales beneficios. Teniendo en cuenta las capacidades que pueden generarse a partir de la existencia del túnel de viento en Cuba, específicamente en la Universidad, se valora un gran impacto y beneficio para muchos sectores del país y no solo para el Ministerio de Educación Superior (MES). En el caso de este, se elevarían las capacidades didácticas e investigativas tanto de estudiantes como profesionales de la materia y se ampliarían los servicios científico-técnicos, esta vez en la rama de la ingeniería de viento, a los diferentes sectores beneficiarios a nivel nacional e incluso en la región del Caribe. Uno de los principales beneficiarios sería el sector de la construcción, en particular el Ministerio de la Construcción (MICONS) y sus empresas de proyecto, las cuales podrían perfeccionar los diseños de edificaciones y del entorno urbano; así como a partir de los estudios, establecer regulaciones en el sector. Esta herramienta tiene como parte de sus mayores empleos, como complemento a los análisis de PVR, los estudios de las construcciones frente a la acción del viento que incluyen obras industriales, turísticas, puentes y torres de transmisión eléctrica o de telecomunicaciones, tributando directamente a la Defensa Civil y a los Ministerios del Transporte (MITRANS), del Turismo (MINTUR) y de las Comunicaciones (MINCOM). De igual manera, el túnel de viento impactaría positivamente en el Ministerio de Energía y Minas (MINEM) a través de los estudios para la valoración del potencial eólico. A escala urbana permitiría realizar estudios de confort peatonal y efectos de vecindad por nuevas inserciones edilicias en ambientes construidos de interés para el Instituto Nacional de Ordenamiento Territorial y Urbanismo (OTU). Para entidades como el Instituto de Meteorología (INSMET), Agencia del Medio Ambiente (AMA) y el Ministerio de Ciencia, Tecnología y Medio Ambiente de Cuba (CITMA), encargados de dirigir la política ambiental, el túnel de viento facilitaría estudios sobre la calidad del aire y el PVR ante la acción de fuertes vientos. Con estos se posibilita el establecimiento de nuevas políticas con basamento científico para disminuir la dispersión de contaminantes vía aérea en el territorio nacional. Esto también es aplicable al Ministerio de la Agricultura (MINAGRI) pero desde el punto de vista de los daños que pueden provocar a los cultivos la incidencia de fuertes viento y el comportamiento de la dispersión de plagas vía aérea. Por último, contar con este equipo ofrece al Ministerio de Industrias (MINDUS) y al Instituto Nacional de Deporte y Recreación (INDER), la posibilidad de perfeccionar los diseños mecánicos y rendimiento de atletas mediante la determinación de presiones, sobre equipos de ciclismo, atletismo y patinaje, respectivamente. 3. CONCLUSIONES El túnel de viento de capa límite atmosférica es una herramienta con una amplia gama de aplicaciones en la actualidad. La no existencia de modelos matemáticos apropiados para estudiar y conocer la interacción del viento con las estructuras naturales o construidas por el hombre, y el costo de implementación para estudios a escala real, ha llevado a la realización de estudios experimentales a través de la simulación física del viento y de modelos a escala con la precisión y adecuación propias de un laboratorio. Cuba no cuenta con un túnel de viento de CLA, por lo que este sería el primer túnel de su tipo y daría respuesta a las necesidades de todo el territorio nacional con un carácter científico experimental. Con la existencia de la herramienta se elevaría significativamente el potencial de investigación y experimentación de la Universidad, por lo que se propone la ejecución de este proyecto dentro del campus universitario. El diseño del proyecto del túnel de viento tiene como premisa el aprovechamiento de estructuras existentes mediante su refuncionalización. La ubicación estratégica en la nave destinada actualmente al almacenamiento de recursos, además de mejorar la calidad del entorno en el que se emplaza, genera un gran área del conocimiento. Sus dimensiones satisfacen las necesidades de un equipo de esta envergadura y permiten un mayor aprovechamiento de la nave existente para el desarrollo de espacios donde se realizarán actividades como la gestión, confección, ensayo y análisis de resultados. La construcción de un túnel de viento de capa límite atmosférica constituye la aplicación de la innovación en el campo de la ingeniería de viento a nivel nacional, en correspondencia con los ejes estratégicos plasmados en el Plan Nacional de desarrollo económico y social hasta 2030. 4. REFERENCIAS BIBLIOGRÁFICAS [1] P. Hernández, “Presiones de viento para el cálculo de estructuras en Cuba”, Revista de Ingeniería Civil, vol. 16, 1965 [2] R. Blanco y C. Llanes, “Es la Norma Cubana NC 285:2003, pertinente para las Cargas de Viento que se desarrollan en la actualidad”, Revista de Arquitectura e Ingeniería, vol. 5(1), pp 1-7, 2011. [3] C. Moreno y J.A. Medrano, “Análisis sobre la influencia de la turbulencia en la producción energética de las turbinas eólicas”, Revista Ingeniería Energética, vol. 40, pp. 53-62, 2019. [4] A. Alfonso, G. Díaz y A.M. de la Peña, La ciudad compacta: arquitectura y microclima. 3ra Edición, 2009. [5] O. Coca, “Protección ante el viento de techos de asbesto cemento en viviendas”, Revista Arquitectura y Urbanismo, vol. XLII, pp. 96-104, 2021. [6] P. Martín, V. Elena, A. Loredo-Souza and E. Camaño, “Experimental study of the effects of dish antennas on the wind loading of telecommunication towers”. Journal of Wind Engineering and Industrial Aerodynamics, vol. 149, p 40-47, 2016. [7] A. López, V. Elena y J. Cataldo, “Experimentos en túnel de viento sobre paneles fotovoltaicos montados en el suelo”, Revista Ingeniería de Construcción, vol. 34, pp. 15-24, 2019. [8] N. Fundora, E. Camaño, A. Loredo and V. Elena, “Coeficientes de forma en sección compuesta con ensayos en túnel de viento”, Revista Ingeniería Hidráulica y Ambiental, vol. 41, pp. 85-99, 2020. [9] A. López, V. Elena y J. Cataldo, “Modelación de capa límite atmosférica para estudios de paneles solares en túnel de viento”, Revista Ingeniería Hidráulica y Ambiental, vol. 38, pp. 52-64, 2017. [10] A.M. Mejías, “Diseño y análisis computacional para túnel de viento de baja velocidad”. Universidad Carlos III de Madrid Escuela Politécnica Superior, 2012. [11] M.B.O García, “Diseño y construcción de un túnel de viento para la calibración de anemómetros en el Inamhi”. Universidad Tecnológica Equinoccial, 2012. USO DE ARENA Y AGUA DE MAR EN LA CONSTRUCCIÓN DE HORMIGÓN. ESTADO DEL ARTE Ing. David León González1, Ing. Joel Baile Yong2, Ing. Giovany Alemán Carmenate3 2 Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE) Calle 114 e/ Ciclo vía y Rotonda, 3 CUJAE. Calle 114 e/ Ciclo vía y Rotonda e-mail: 1ddleong79@gmail.com, 2joelba@civil.cujae.edu.cu, 3giovany@civil.cujae.edu.cu RESUMEN El consumo de enormes cantidades de arena de río y agua dulce en la producción de hormigón se ha convertido en el mundo en una de las principales preocupaciones medioambientales. Los recursos hídricos han ido disminuyendo aceleradamente, las cuencas superficiales y subterráneas se agotan, y contradictoriamente a ello, se necesita cada vez más su empleo en múltiples sectores de la sociedad, como el abastecimiento a la población, la industria, la agricultura y la construcción. Algo similar ocurre con los áridos, además de la afectación medio ambiental que su extracción provoca, se van agotando las canteras, cada vez más alejadas de los centros de producción de hormigón. Desde finales del siglo XX e inicios del XXI, con el empleo de las barras y mallas de polímeros reforzados con fibras como refuerzo del hormigón, se vienen desarrollando a nivel mundial investigaciones dirigidas a evaluar la factibilidad del empleo del agua y arena de mar en la elaboración del hormigón como una alternativa viable de solución a estos problemas. El presente trabajo sintetiza de forma práctica los principales resultados de los estudios existentes sobre los efectos del uso de arena de mar y/o agua de mar como materias primas del hormigón sobre las propiedades del hormigón resultante, incluida laborabilidad, resistencia a corto y largo plazo y durabilidad. PALABRAS CLAVES: arena de mar, agua de mar, arena de mar hormigón de agua de mar/agua de mar hormigón de arena de mar (SSC), cloruro USE OF SAND AND SEA WATER IN CONCRETE CONSTRUCTION. STATE OF THE ART. ABSTRACT The consumption of huge amounts of river sand and fresh water in the production of concrete has become one of the world's main environmental concerns. Water resources have been declining rapidly, surface and groundwater basins are depleted, and contradictorily, their use is increasingly needed in multiple sectors of society, such as supplying the population, industry, agriculture and construction. Something similar occurs with aggregates, in addition to the environmental impact that their extraction causes, the quarries are running out, increasingly further away from the concrete production centers. Since the end of the 20th century and the beginning of the 21st, with the use of fiber-reinforced polymer bars and meshes as concrete reinforcement, research has been carried out worldwide aimed at evaluating the feasibility of using water and sea sand in the concrete production as a viable alternative solution to these problems. The present work synthesizes in a practical way the main results of the existing studies on the effects of the use of sea sand and/or seawater as concrete raw materials on the properties of the resulting concrete, including workability, short-term and long-term resistance. and durability. KEY WORDS: sea-sand, seawater, sea-sand seawater concrete/seawater sea sand concrete (SSC), chloride 1. INTRODUCCIÓN A nivel mundial, la industria de la construcción utiliza 2000 millones de metros cúbicos de agua dulce al año en la producción de hormigones, valor estimado en un 12% del agua dulce disponible. De forma similar, esta industria consume más de 40 000 millones de toneladas de áridos provenientes de canteras o yacimientos cada año [1]. Cuba no está exenta de esta situación y en la actualidad toma mayor fuerza, pues se encuentra inmersa en un permanente y fuerte proceso inversionista de obras industriales, turísticas y sociales, que requieren del empleo de grandes volúmenes de agua dulce y áridos para la fabricación del hormigón armado. Tanto el agua como los áridos empleados en el hormigón, son materiales cada vez más deficitarios. La extracción de arena de río como árido fino impacta negativamente en los ecosistemas fluviales; por otro lado, las fuentes superficiales y subterráneas de agua dulce disminuyen de forma exponencial debido a las consecuencias del ya reconocido cambio climático. Si hasta hace algunos años, emplear agua y arena de mar para la producción del hormigón armado estaba totalmente vetado debido a la corrosión de las armaduras de acero y el deterioro en general que este fenómeno provoca en el hormigón, con la aparición a principios del siglo XX de las barras y mallas de polímeros reforzados con fibras, pasó a ser una factibilidad muy prometedora. Comúnmente existía la creencia que el uso de agua de mar no era adecuado para la fabricación del hormigón estructural, sin embargo, Kaushik, et al. [2] encontraron una serie de estructuras a lo largo de las costas del sur de California y la Florida, todas construidas con hormigón de agua de mar las cuales se pueden considerar como una evidencia intuitiva del posible uso de agua de mar en la mezcla de hormigón. Las primeras experiencias en el uso de arena de mar desalinizada como árido fino en el hormigón se reportan en la década de 1960, en el Reino Unido. Ya en 1973, la arena de mar desalinizada también se convirtió en una de las principales fuentes de áridos finos en la producción de hormigón en Japón. De igual forma, desde la década de 1990, debido a la escasez y al aumento del precio de la arena de río en la China continental, muchas zonas costeras comenzaron a utilizar mares desalinizados como áridos finos en hormigón para edificios y proyectos de infraestructura civil [1]. En el año 2016 se lleva a cabo un proyecto de investigación y desarrollo (SEACON) entre la Universidad de Miami (UM), el Politecnico di Milano (POLIMI) y la compañía Buzzi Unicem, entre otras prestigiosas organizaciones, bajo la dirección del reconocido investigador en ingeniería civil Antonio Nanni, dirigido fundamentalmente el uso del agua de mar, áridos contaminados con sal y refuerzo no corrosivo, en la elaboración de hormigones. El informe comprobó la viabilidad de producir hormigones seguros al mezclarlos con agua de mar y áridos con altos niveles de cloruro. La primera demostración de su investigación con la construcción de una alcantarilla abierta en Italia durante la última semana de noviembre de 2016, a lo largo de la autopista A1, cerca de la ciudad de Piacenza [3]. La segunda demostración fue la construcción del puente Halls River de cinco tramos en Homosassa Springs, Florida en el 2018 [4]. Como estado insular, Cuba es un país rodeado de mares. Muchas de las obras turísticas, de infraestructura, industriales e incluso viviendas, se construyen en la costa o lugares cercanos a ella, siendo posible acceder al agua y arena de mar para la producción del hormigón, sin entrar en contradicciones con las regulaciones medio ambientales. Las razones antes expuestas conducen a pensar en el empleo de agua y/o arena de mar en la producción del hormigón armado con barras de polímeros reforzados con fibras, siendo la primera vez que se acomete en el país este tipo de estudio. De tener resultados satisfactorios, representaría un ahorro considerable del agua dulce tan necesaria en otros campos de la sociedad y una alternativa al empleo de arena triturada para la construcción, lo cual constituye una opción más económica para el desarrollo de las construcciones futuras. El presente trabajo propone recopilar y organizar información que se encuentra en la bibliografía internacional con el objetivo de identificar las principales propiedades de los hormigones elaborados con agua y/o arena de mar con vistas a sentar pautas para futuras investigaciones y su empleo en el país. 2. CARACTERÍSTICAS DE LOS MATERIALES Arena de mar La arena de mar generalmente utilizada en las construcciones es dragada de los puertos, esta es lavada y procesada para eliminar el contenido de iones de cloruro o las impurezas que afectan las propiedades de la mezcla. Tras el dragado del material, la arena está totalmente saturada, siendo su contenido de sal directamente proporcional al contenido de humedad. En el caso de la arena no lavada, el contenido típico de humedad es del 10% y contendrá un 0,3% de cloruro de sodio (NaCl), el cual puede afectar la mezcla [5]. Por lo general las arenas utilizadas en los estudios son extraídas de lugares cercanos a la zona de experimentación, caracterizadas por la presencia en su composición de óxido de silicio (SiO2), calcita (CaCO3), óxido de sodio (Na2O) y arcilla [5 -13]. Agua de mar El agua de mar contiene hasta 35 000 ppm (partes por millón) de sales disueltas, siendo el cloruro de sodio (NaCl) la sal predominante, la cual constituye alrededor del 88 % del peso de las sales. Su valor de pH varía entre 7,4 y 8,4 [14]. La literatura técnica consultada evidencia que la sal en el agua de mar no tiene efectos negativos significativos sobre las características del hormigón endurecido y, cuando se presentan problemas de durabilidad, se relacionan principalmente con la corrosión del acero de refuerzo, más que con el efecto sobre las propiedades del hormigón [15-18]. Sin embargo, no todas las aguas marinas son iguales, su salinidad varía según el mar, la zona y la profundidad. En líneas generales, se puede afirmar que el agua de mar tiene una concentración de sales comprendida entre 35 y 45 gramos por litro (g/L) [19]. Para poder apreciar la diferencia de salinidad existente en los mares, en la Tabla 1 se detalla la concentración media de sales estimada en varios de ellos. Tabla 1: Contenido de sal en los mares [19] Lugares Cantidad de sal en g/L Mar Rojo 42-46 Golfo Pérsico 40-44 Mar Mediterráneo 36-39 Mar Caribe 34-38 Océanos Índico 33-37 Océano Pacífico 33-36 Océano Atlántico 33-36 Es importante resaltar que el agua de mar no es simplemente una solución de sales y gases disueltos, sino que los organismos vivos del mar también ejercen una influencia sobre la composición de las aguas. Por ejemplo, los moluscos y los crustáceos extraen el calcio del agua marina para crear sus conchas y cuerpos, y las esponjas y algunos tipos de algas marinas eliminan el yodo del mar. [19] 3. PROPIEDADES MECÁNICAS DE HORMIGONES ELABORADOS CON AGUA Y/o ARENA DE MAR Si bien algunos estudios han examinado el efecto del uso de agua y arena de mar en las propiedades mecánicas del hormigón, la mayoría de las investigaciones existentes se han centrado en el efecto de utilizar agua o arena de mar en el hormigón. Resistencia a compresión Las investigaciones realizadas hasta la fecha reflejan que los hormigones amasados con agua de mar tienen mayores resistencias a la compresión, tracción, flexión y adherencia, que los hormigones amasados con agua dulce a edades tempranas entre 7 y 14 días, reportándose una disminución de la resistencia con el paso del tiempo [13, 14, 16-18]. Estudios realizados por Wegian [14] muestran que el hormigón mezclado y curado con agua de mar mejora la resistencia a la compresión, evidenciando un aumento a los 7 y 14 días de 3–10 % y 1–4 % respectivamente, atribuye la menor resistencia del hormigón con agua de mar entre 28 y 90 días a una posible cristalización de la sal. Islam et al. [21] muestran que los hormigones fabricados con agua de mar y curados en un entorno de agua de mar refieren una pérdida de resistencia de alrededor del 10 % en comparación con el hormigón similar elaborado y curado con agua corriente. Concluyeron que los primeros aumentos de resistencia se debían básicamente al bloqueo de los poros por los productos de hidratación y que el deterioro de la resistencia podía deberse a la disolución de los compuestos ricos en cal y la formación de compuestos expansivos como consecuencia del ataque de cloruros y sulfatos del agua de mar. Por otro lado, Mohammed et al. [23] atribuyen como razones probables de ganancia de resistencia en edades tempranas de exposición (28 días a 5 años), la hidratación continua del cemento en el hormigón y la deposición de etringita y sal de Friedel en los vacíos en el hormigón causados por el sulfato difundido y cloruro. Igualmente se observa que de los 10 a 20 años, no ocurre reducción significativa de la resistencia, fenómeno que atribuyen a la mejora de las microestructuras en la región externa de los especímenes causada por la deposición de etringita, así como la sal de Friedel. En una investigación similar Hernández Pérez de Guereñu [15] concluye que el incremento de la resistencia del hormigón con agua de mar a edades tempranas puede deberse al hecho de que agua marina produce un endurecido acelerado, obteniéndose valores de resistencia más elevados. Según refieren Hamada et al. [17] como resultado de sus estudios, la mezcla de hormigón con agua de mar mejora la resistencia a la compresión hasta 91 días en comparación con la mezcla elaborada con agua del grifo y concluyen que la ganancia de resistencia del hormigón hasta 365 días no está influenciado por el tipo de agua de mezcla. De manera similar y de forma paralela, se han venido desarrollando estudios dirigidos a evaluar la influencia del uso de la arena de mar en la elaboración de hormigones. La mayoría de los investigadores han estado de acuerdo en que la resistencia a la compresión a temprana edad del hormigón con arena de mar es ligeramente superior a la del hormigón ordinario [5-7], aunque algunos estudios han llegado a conclusiones diferentes. Limeira et al. [5,6], llevan a cabo un estudio de hormigones elaborados con arena de mar dragada (DMS). Los resultados mostraron que al reemplazar el árido fino de arena de piedra caliza triturada (FA1 0/4 mm) por arena de mar dragada (DMS), disminuye la densidad del hormigón, lo cual atribuyen al hecho que el material DMS es más fino que FA1. El hormigón con DMS-C usando 35% de arena, en sustitución de FA1 (CC35%) obtuvo valores de porosidad de un 8,5%, inferior al hormigón patrón. Concluyen, además, que la sustitución mejora la resistencia a la compresión de los hormigones fabricados con ella. Sin embargo, Wegian [14], como resultado de su investigación, afirman que la influencia de los áridos finos en la resistencia a la compresión no es significativa cuando el volumen de pasta permanece constante y la arena está libre de polvo. En el experimento se detectó que luego de 7 días de curado húmedo, los hormigones CB50% (50% de DMS-B en sustitución de FA1) y CC50% (50% de DMS-C en sustitución de FA1) lograron resultados similares al hormigón de referencia. La adición de hasta un 50% de DMS en sustitución de FA1 mejora la compactación de las mezclas, debido a un relleno del esqueleto granular por el material más fino. No obstante, después de 28 días de curado, todos los hormigones fabricados con incorporación paulatina de DMS (del 25% al 50%) superaban los resultados del hormigón de referencia (RC). La evolución de la resistencia a la compresión en el periodo de 7 a 28 días reveló que los hormigones elaborados con el 25% y 35% de DMS-B y DMS-C presentaron un alto incremento en resistencia a la compresión, probablemente debido al agua adsorbida en la superficie del material DMS y la mayor cantidad de aditivo utilizada. De 7 a 28 días la mayor tasa de ganancia fue de 34% obtenida por el hormigón CC25%. Se observó, además, un aumento del módulo del 5% del hormigón de CC50% en sustitución de FA1 con respecto al RC, seguido de CB50%, CC35% y CB35%. También se apreció que el módulo del hormigón depende del volumen relativo y la rigidez del árido grueso, así como que la influencia de los áridos finos en edades tempranas del hormigón está íntimamente relacionada con la textura y forma de los áridos finos. El contenido de conchas marinas en la arena de mar y su influencia en la elaboración del hormigón también ha sido motivo de estudio de investigadores. Las investigaciones [7, 24-27] han demostrado que casi no tiene efecto sobre la resistencia a la compresión a los 28 días del hormigón elaborado con arena de mar. Sin embargo, se informó una pérdida significativa de resistencia a la compresión cuando el 50% del árido fino (arena) se reemplaza con partículas de concha marina [25]. El efecto del contenido de conchas en la arena del mar sobre la resistencia a la compresión del hormigón a diferentes edades ha sido estudiado intensamente por Leng et al. [24]. Por otro lado, Yang et al [25] afirman que el módulo de elasticidad del hormigón disminuye con el aumento del contenido de conchas marinas, ya que el módulo de elasticidad de estas es menor que el módulo de elasticidad del árido fino. El estudio permitió observar una reducción de aproximadamente un 10 % cuando se sustituyó el árido fino por un 20 % de contenido de conchas en el hormigón. Además, debido a la menor resistencia a la fractura de las partículas de concha, la arena que contiene más partículas de concha tiene una resistencia al cortante ligeramente menor [26]. Porosidad y absorción Según algunas investigaciones realizadas [16,17] el uso de agua de mar en la mezcla, aumenta ligeramente la densidad y disminuye la porosidad y capacidad de absorción del hormigón. Hamada and Sagawa [17], demostraron que la resistencia a la compresión del hormigón molido-granulado babosa de alto horno (GGBS) mezclado con el agua de mar, en el intervalo de 365 días reduce su porosidad, en comparación con el elaborado con agua de grifo bajo cualquier tipo de curado. Según los autores, los resultados posiblemente se deben al proceso acelerado de la hidratación del hormigón mezclado con agua de mar, lo que densifica la estructura de poros y reduce el volumen de poros del hormigón. Sin embargo, estos resultados no pueden ser considerados concluyentes, Hernández Pérez de Guereñu [15] afirma que los hormigones fabricados con agua de mar alcanzan una capacidad de absorción superior a los hormigones fabricados con agua dulce, lo cual atribuye al hecho de que tanto el inhibidor como los cloruros utilizados en el agua de mar aceleran el fraguado, produciendo una mayor porosidad en la pasta de cemento hidratada a lo largo del tiempo. Por otro lado, los estudios realizados hasta la fecha [5, 6, 9, 28] demuestran que el uso de arena de mar dragada (DMS) en la mezcla de hormigón en sustitución de arena natural mantiene o reduce los poros accesibles, la absorción y la profundidad de penetración del agua bajo presión, razón que atribuyen a la finura del material DMS con respecto a la arena natural. Así mismo, en los estudios realizados por Safi et al. [8], al evaluar la evolución de la porosidad y absorción de agua se evidencia que cuando se emplean conchas marinas trituradas como árido fino, la porosidad aumenta para las mezclas estudiadas. 4. DURABILIDAD DE HORMIGONES ELABORADOS CON AGUA Y/o ARENA DE MAR Para el hormigón elaborado con agua y/o arena de mar, la principal preocupación de durabilidad ha sido el contenido máximo permisible de iones cloruros (Cl) y la carbonatación del hormigón. Los estudios realizados hasta la fecha confirman que el agua de mar no afecta el proceso de carbonatación [29,30] y la fijación de los iones cloruro [31]. Un estudio realizado por Hernández Pérez de Guereñu [15] con especímenes de vigas de hormigón elaborado y curado con agua de mar, mostró baja penetración de cloruros en el interior de los especímenes, lo cual atribuye al hecho de que el contenido de cloruros del agua de curado es muy similar al porcentaje que tiene el agua marina empleado en la mezcla. La durabilidad del hormigón con arena de mar ha sido más estudiada (9, 30-32]. En un ambiente marino, se ha encontrado que el coeficiente de difusión de cloruros desde el ambiente exterior al hormigón con arena de mar, aumenta con el aumento de la relación agua/cemento [31]. Huiguang, et al. [31], demostraron que los hormigones que contiene arena de mar natural y desalada, son más resistente a la penetración de iones cloruros en comparación con el hormigón hecho con arena de río. La razón de ello, a decir de sus autores, radica en que la arena de mar natural o desalada tiene relativamente menor contenido de arcilla en comparación con la arena de río. Las partículas de arcilla adheridas a la superficie reducen la adherencia entre el cemento y el árido y en consecuencia, la permeabilidad del hormigón se ve afectada. Cao et al. [32] demostraron que la profundidad de carbonatación aumenta a medida que aumenta el tiempo y la resistencia del hormigón disminuye, concluyendo que el desarrollo de la profundidad de carbonatación del hormigón con arena de mar sigue el mismo comportamiento que el hormigón de arena de río. Sin embargo, Liu et al. [9] obtuvieron resultados contrarios, mostrando que la carbonatación del hormigón con arena de mar podría reducirse en un 20- 50% debido a los iones cloruros introducidos por la arena de mar en la mezcla. En cuanto al contenido de conchas marinas en la arena de mar, Yang et al. [7] señalan que las partículas de conchas reducen la permeabilidad del hormigón y no tienen una influencia negativa en la carbonatación. 5. CORROSIÓN DEL REFUERZO La cantidad inicial de cloruro debido al uso de agua y/o arena de mar en el hormigón puede causar el inicio de la corrosión de las barras de acero cuando su concentración está por encima de un umbral establecido, aproximadamente en el orden 3,35 kg/m3. Este proceso se ve favorecido, además, por el aumento de la carbonatación del hormigón, la cual puede provocar un aumento de la concentración de iones cloruro libres en la mezcla [33]. Para estudiar la corrosión del acero en hormigones elaborados con agua de mar, Mohammed et al. [23] llevan a cabo un estudio mediante el cual expusieron especímenes experimentales a un ambiente de marea durante 15 años. Pasado ese tiempo pudieron concluir que la corrosión comenzó una vez que la concentración de cloruros sobre la barra de acero alcanza o supera el nivel umbral de cloruro, observándose que el uso de agua de mar en lugar de agua dulce conllevó a un mayor número de pozos de corrosión y mayores profundidades en las barras de acero. Sin embargo, los resultados de Otsuki et al. [30,35] mostraron que la influencia del agua de mar en la mezcla sobre la corrosión del acero era insignificante, demostrando que después de 20 años de exposición, no se observó ninguna diferencia obvia en las profundidades de corrosión del acero entre el hormigón con agua de mar y el hormigón de agua dulce. También descubrió que la influencia negativa de los iones cloruros contenidos en el agua de mezcla disminuía con la edad 92. Igualmente, Xiao et al. [1] refiere, que Dempsey (1959) en sus investigaciones encontró que el acero en un hormigón denso elaborado con agua de mar experimentaba una corrosión insignificante. Para el hormigón con arena de mar, Liu et al [9] llevan a cabo una investigación sometiendo durante un año de servicio los especímenes estudiados a un ambiente marino. Transcurrido ese tiempo y después de rociar el indicador pudo apreciarse que toda la sección transversal de los mismos permaneció roja, lo que indicó que no se había producido carbonatación dentro del hormigón, sin embargo, no había rojo en la superficie, lo que revelaba que se había producido carbonatación en la superficie. A partir de estos resultados los autores concluyen que cuando se emplea arena de mar en el hormigón, los iones cloruro introducidos por la DMS pueden tener algunos efectos beneficiosos sobre la resistencia a la carbonatación de los hormigones y consecuentemente contribuyen a disminuir la corrosión del refuerzo. Por otro lado, Dias et al. [36] llevaron a cabo pruebas de corrosión acelerada, cambiando el contenido de iones cloruros en la arena de mar, y mostraron que la corrosión del refuerzo de acero se volvió significativa cuando la concentración de iones cloruros libres en la arena del mar alcanzó el 0,3%. 6. EMPLEO DE ADITIVOS Y/ADICIONES EN HORMIGONES ELABORADOS CON AGUA Y/o ARENA DE MAR Estudios más recientes han estado dirigidos a evaluar las propiedades del hormigón con agua y arena de mar [12, 13, 35, 37-41]. Los mismos han demostrado que el uso combinado de agua de mar y arena de mar sin lavar, con sustituciones como cemento molido granulado babosa de alto horno (GGBS), cenizas volantes (FA) y/o humo de sílice (SF) y la incorporación de nitrato de calcio (CN) aceleran la hidratación del aglutinante y las puzolanas, aumentando no solo la resistencia inicial sino también la resistencia a largo plazo del hormigón. Montanari el al. [41], demostraron que el hormigón mezclado con agua de mar probablemente tenga concentraciones más altas de OH y álcalis. Estos resultados muestran además, que el uso de cenizas volantes en la mezcla trae consigo una reducción del pH (entre 0,06 y 0,1 unidades) con respecto a la mezcla elaborada solo con agua de mar, obteniéndose valores más cercanos a los alcanzados en el hormigón convencional (Fig. 1). Figura 1: Evolución del pH en el hormigón [41] Otsuki, Min [35], analizaron muestras con diferentes proporciones de aglutinantes: BFS (escoria de alto horno) y FA (cenizas volantes) en sustitución del cemento portland ordinario (OPC). Como resultados de la investigación encontraron que la tasa de penetración de iones de cloruro del hormigón mezclado con agua de mar con BFS y FA fue menor que la de mezclado con agua del grifo debido al aumento del contenido inicial de cloruro en el agua de mar (Fig. 2 y 3) Figura 2: Tasa de penetración de cloruro en el concreto para diferentes proporciones de reemplazo de BFC [35] Figura 3: Tasa de penetración de cloruro en el concreto para diferentes proporciones de reemplazo de FA [35] 7. SOSTENIBILIDAD DEL HORMIGÓN ELABORADOS CON AGUA Y/o ARENA DE MAR Con el paso de los años y el aumento de la población mundial las demandas de infraestrustura son cada vez mayores. Es por ello que satisfacer las mismas desde la industria de la construcción debe lograrse de manera sostenible para garantizar la longevidad de los recursos naturales. Dada la demanda de hormigón y las restricciones estipuladas, la arena y el agua dulce se consideran en los últimos años las dos materias primas más valiosas del siglo XXI [42]. La arena y la grava se suponen los materiales más extraídos del mundo. La gran demanda de arena ha llevado a prácticas ilegales de extracción incumpliendo las políticas ambientales [43]. Asimismo, según reporte de las Naciones Unidas (2019), Dhondy et al [44], indican que más del 40% de la población mundial enfrenta escasez de agua dulce. Es por ello que el uso de agua y/o arena de mar como alternativa en la construcción puede ayudar potencialmente a mejorar la calidad de vida en todo el mundo, al tiempo que proporciona una forma sostenible de mantener las fuentes de agua dulce para las generaciones futuras. Los polímeros reforzados con fibras (PRF), material compuesto que comienza a usarse en la construcción desde la década de 1960 [45] constituyen una alternativa viable para la implementación de arena y/o agua de mar en el hormigón, ya que proporcionan una durabilidad inherente a los proyectos de infraestructura. El refuerzo de PRF es un material de construcción ideal, que no se corroe por lo que permite reducir los recubrimientos y consecuentemente reducir las dimensiones de los elementos estructurales y con ello la cantidad de hormigón requerida. Además, el PRF es relativamente compatible con el alto contenido de cloruro presente en el hormigón con arena y/o agua de mar, por lo que la infraestructura marina construida con estos materiales no necesita ajustarse a límites estrictos de concentración crítica de cloruro [44]. El hormigón elaborado con arena y agua de mar en condiciones marinas puede proporcionar estructuras que pueden adaptarse a los cambios en el nivel del mar y las condiciones de exposición marina. 8. CONCLUSIONES El análisis de las fuentes bibliográficas consultadas sobre el uso de arena de mar y/o agua de mar como materia prima para el hormigón en reemplazo de la arena de río y el agua dulce permite arribar a las siguientes conclusiones: • No existe un criterio único en cuanto a los efectos del empleo del agua y/o arena de mar en la fabricación del hormigón, evidenciándose contradicciones en las conclusiones expuestas por varios de los investigadores, lo cual puede atribuirse a la diferencia de composición de los materiales según su lugar de origen. • Todos los estudios han demostrado que el hormigón elaborado con agua y/o arena de mar tiene una elevada resistencia a la compresión en un periodo de 7 días probablemente debido al rico contenido de cloruro, y a los 28 días llega a ser similar o a disminuir en un rango entre 5 -10 % en comparación con el hormigón ordinario. • Se necesitan más investigaciones en esta temática que permitan establecer criterios concluyentes relacionados con el empleo del agua y la arena de mar en los hormigones. REFERENCIAS 1. Xiao, J., Qiang, Ch., Nanni, A. and Zhang, K. Use of sea-sand and seawater in concrete construction: Current status and future opportunities. Construction and Building Materials 155 (2017) 1101–1111. 2. Kaushik, S., S.J.C. Islam, and C. Composites, Suitability of sea water for mixing structural concrete exposed to a marine environment. Cem. Concr. Comp. 17 (3) (1995). p. 177-185. 3. Concreto mezclado con agua de mar y reforzado con barras GFRP. Nueva frontera de la sostenibilidad. 2021. https://aritrec.blog/2021/02/05/concreto-mezclado-con-agua-de-mar-y-reforzado-con- barras-gfrp-nueva-frontera-de-la-sostenibilidad/ 4. Rossini, M., Cadenazzi, T., Nolan, S., & Nanni, A. (2018, June). SEACON and resilient FRP- RC/PC solutions: The halls river bridge. In Conference on Italian Concrete Days (pp. 165-180). 5. Springer, Cham. J. Limeira, L. Agulló, M. Etxeberria, Dredged marine sand as a new source for construction materials, Mater. D. Constr. 62 (305) (2012) 7–24. 6. Limeira, J., Agullo, L., & Etxeberria, M. (2010). Dredged marine sand in concrete: An experimental section of a harbor pavement. Construction and Building Materials, 24(6), 863- 870. 7. Yang, E.I., Yi, S.T., Leem, Y.M. Effect of oyster shell substituted for fine aggregate on concrete characteristics: Part I. Fundamental properties, Cem. Concr. Res. 35 (11) (2005) 2175–2182. 8. Safi, B., Saidi, M., Daoui, A., Bellal, A., Mechekak, A. and Toumi, K. The use of seashells as a fine aggregate (by sand substitution) in self-compacting mortar (SCM), Constr. Build. Mater. 78 (2015) 430–438 9. Liu, W., Cui, H.Z., Dong, Z.J., Xing, F., Zhang, H.C. Tommy Y. Lo, Carbonation of concrete made with dredged marine sand and its effect on chloride binding, Constr. Build. Mater. 120 (2016) 1–9. 10. Sarker, S. and M.I. Hasan. Salinity removal and feasibility study on sea sand in geopolymer concrete. in 4th International Conference on Civil Engineering and Architecture, Chittagong, Bangladesh. 2018. 11. Dong, Z., Wu, G., Zhao, X. L., Zhu, H., & Lian, J. L. (2020). The durability of seawater sea-sand concrete beams reinforced with metal bars or non-metal bars in the ocean environment. Advances in Structural Engineering, 23(2), 334-347. 12. Li, T., Liu, X., Zhang, Y., Yang, H., Zhi, Z., Liu, L., & Li, W. (2020). Preparation of sea water sea sand high performance concrete (SHPC) and serving performance study in marine environment. Construction and Building Materials, 254, 119114. 13. Niu, D., Su, L., Luo, Y., Huang, D., & Luo, D. (2020). Experimental study on mechanical properties and durability of basalt fiber reinforced coral aggregate concrete. Construction and Building Materials, 237, 117628. 14. Wegian, F.M. Effect of seawater for mixing and curing on structural concrete, IES J. Part A Civ. Struct. Eng. 3 (4) (2010) 235–243. 15. Hernández Pérez de Guereñu, A. (2015). Análisis de la efectividad del inhibidor en hormigones (convencional y reciclado) fabricados con agua de mar (Master's thesis, Universitat Politècnica de Catalunya). 16. M. Etxeberria, J.M. Fernandez, J. Limeira, Secondary aggregates and seawater employment for sustainable concrete dyke blocks production: case study, Constr. Build. Mater. 113 (2016) 586– 595. 17. Hamada, H., Y. Sagawa, and D. Yamamoto. Influence of seawater mixing and curing on strength characteristics and porosity of ground granulated blast-furnace slag concrete. in IOP Conference Series: Materials Science and Engineering. 2017. IOP Publishing. 18. Vilchez Becerra, J.L., Evaluación de las propiedades físicas y mecánicas del concreto usando agua de mar. 2020. 19. Las Sales del mar: ¿son todas los mares igual de salados? 2019. https://aedyr.com/sales-mar-son- todos-mares-igual-salados/ 20. Erniati, M. W. T., Djamaluddin, R., & Sampebulu, V. Compressive strength and slump flow of self-compacting concrete uses fresh water and sea water, ARPN J. Eng. Appl. Sci. 10 (6) (2015) 2373–2377. 21. Islam, M. M., Islam, M. S., Al-Amin, M., & Islam, M. M. (2012). Suitability of sea water on curing and compressive strength of structural concrete. Journal of Civil Engineering (IEB), 40(1), 37-45. 22. Erniati, M.W. Tjaronge, Zulharnah, U.R. Irfan, Porosity, pore size and compressive strength of self-compacting concrete using sea water, Procedia Eng. 125 (2015) 832–837. 23. Mohammed, T. U., Hamada, H., & Yamaji, T. (2004). Performance of seawater-mixed concrete in the tidal environment. Cement and concrete research, 34(4), 593-601. 24. F.G. Leng, W. Ding, Y.X. Zhou, Y.N. Zhou, X.K. Ji, J. Wang, Technical characteristics of ‘Technical code for application of sea sand concrete’, Qual. Civ. Eng. Constr. 29 (1) (2011) 12– 16. 25. Yang, E. I., Kim, M. Y., Park, H. G., & Yi, S. T. (2010). Effect of partial replacement of sand with dry oyster shell on the long-term performance of concrete. Construction and building materials, 24(5), 758-765. 26. Richardson, A. E., & Fuller, T. (2013). Sea shells used as partial aggregate replacement in concrete. Structural Survey 31 (5) 347–354. 27. Li, N. H., Qu, Y. R., He, W. Q., & Chen, H. (2005). Studies on engineering properties of sand with shell. Yantu Gongcheng Xuebao(Chin. J. Geotech. Eng.), 27(6), 632-637 28. He, X., Zhou, J., Wang, Z., & Zhang, L. (2020). Study on mechanics and water transport characteristics of sea-sand concrete based on the volume analysis of each solid composition. Construction and Building Materials, 257, 119591. 29. Nagata, T., Otsuki, N., Nishida, T., & Ohara, H. (2013). Experimental study on carbonation phenomena and corrosion behavior of steel bar in concrete mixed with seawater, Cement Science and Concrete Technology, 67(1). 495–500. 30. Otsuki, N., Hamada, H., Takeda, N., Imamoto, K. I., Yamaji, T., Habuchi, T., & Nishida, T. (2014). Technical Committee on the use of sea water in concrete. Technical Committee Reports, 22. 31. Huiguang, Y., Yan, L., Henglin, L., & Quan, G. (2011). Durability of sea-sand containing concrete: Effects of chloride ion penetration. Mining science and technology (China), 21(1), 123-127 32. Cao, W. Q., Su, Q., Zhao, T. J., & Ba, G. Z. (2010, November). Experiments research on the durability of concrete made of sea sand. In Proceedings of the 19th National Conference of Structural Engineering (Vol. 2). 33. Dhondy, T., Remennikov, A., & Shiekh, M. N. (2019). Benefits of using sea sand and seawater in concrete: a comprehensive review. Australian Journal of Structural Engineering, 20(4), 280- 289. 34. Kaushik, S., S.J.C. Islam, and C. Composites, Suitability of sea water for mixing structural concrete exposed to a marine environment. Cem. Concr. Comp 1995. 17(3): p. 177-185. 35. Otsuki, N., Min, A. K., Nagata, T., & Yi, C. (2016). Durability of seawater mixed concrete with different replacement ratio of BFS (Blast Furnace Slag) and FA (Fly Ash). Journal of Civil Engineering and Architecture, 10(5), 568-580. 36. Dias, W. P. S., Seneviratne, G. A. P. S. N., & Nanayakkara, S. M. A. (2008). Offshore sand for reinforced concrete. Construction and Building Materials, 22(7), 1377-1384. 37. Teng, J. G., Xiang, Y., Yu, T., & Fang, Z. (2019). Development and mechanical behaviour of ultra-high-performance seawater sea-sand concrete. Advances in Structural Engineering, 22(14), 3100-3120. 38. Li, P., Li, W., Yu, T., Qu, F., & Tam, V. W. (2020). Investigation on early-age hydration, mechanical properties and microstructure of seawater sea sand cement mortar. Construction and Building Materials, 249, 118776 39. Guo, M., et al., Characterization of the mechanical properties of eco-friendly concrete made with untreated sea sand and seawater based on statistical analysis. 2020. 234: p. 117339. 40. Katano, K., Takeda, N., Ishizeki, Y., & Iriya, K. (2013, August). Properties and application of concrete made with sea water and un-washed sea sand. In Proceedings of Third International conference on Sustainable Construction Materials and Technologies. 41. Montanari, L., P. Suraneni, M. Tsui-Chang, M. Khatibmasjedi, U. Ebead, J. Weiss, and A. Nanni. 2019. “Hydration, pore solution, and porosity of cementitious pastes made with seawater.” J. Mater. Civ. Eng. 31 (8): 04019154. https://doi.org/10.1061/(ASCE)MT.1943- 5533.0002818. 42. R.S., 2017. “Why There Is a Shortage of Sand.” [Online]. https://www.economist.com/the- economist-explains/2017/04/24/why-there-is-a-shortage-of-sand?fsrc=gnews 43. Beiser, V. 2015. “The Deadly Global War for Sand.” [Online]. https://www.wired.com/2015/03/illegal-sand-mining/ 44. Dhondy, T., A. Remennikov, and N. M. Shiekh. 2018. Investigating the Use of Sea Sand and Seawater in Concrete, Australasian Structural Engineering Conference, Adelaide, Australia: Engineers Australia. 45. ACI-440.1R., Building Code Requirements for Structural Concrete Reinforced with Glass Fiber- Reinforced Polymer (GFRP) Bars. 2019, American Concrete Institute.: Farmington Hills. EUA. COMPUTATIONAL FLUID DYNAMICS SIMULATIONS OF THUNDERSTORM DOWNBURST WINDS Josip Žužul 1, Alessio Ricci 2,3, Massimiliano Burlando 1 1Department of Civil, Chemical and Environmental Engineering, University of Genoa, via Montallegro 1, Genoa, Italy, josip.zuzul@edu.unige.it – masimilano.burlando@unige.it 2 Department of Civil Engineering, KU Leuven, Kasteelpark Arenberg 40 - Bus 2447, 3001, Leuven, Belgium, alessio.ricci@kuleuven.be 3 Department of the Built Environment, Eindhoven University of Technology, P.O. Box 513, 5600, The Netherlands, a.ricci@tue.nl ABSTRACT Thunderstorms are mesoscale non-synoptic wind events with potentially devastating implications for the integrity of low and mid-rise structures. The outflows of a thunderstorm commonly referred to as downbursts are characterized by a vertical impingement of cold air from the cloud base to the surface of the Earth followed by a divergent radial outflow dominated by the primary ring vortex responsible for severe winds. This study aims at investigating the physical characteristics of downburst winds from the perspective of wind loading of structures. Two downburst scenarios were considered: (Case 1) an isolated downburst wind, and (Case 2) a downburst immersed in an approaching atmospheric boundary layer (ABL) wind. For that purpose, the experimental campaigns previously performed in WindEEE Dome were recreated by means of Computational Fluid Dynamics (CFD) simulations. Both Case 1 and Case 2 were successfully validated with high-quality experimental tests in terms of vertical profiles of radial velocity. Although all three used CFD approaches (URANS, SAS and LES) showed decent levels of accuracy, LES demonstrated its superiority over the former two in terms of obtaining physically most meaningful representation of complex downburst flow conditions. KEY WORDS: Thunderstorm outflows, Downbursts, CFD simulations, WindEEE laboratory experiments, ABL- downburst wind interaction. 1. INTRODUCTION Severe non-synoptic wind events with thunderstorm-related origin (downbursts and tornados) are known for their potential to cause significant damage to low-rise structures (Fujita, 1981). In that regard, the most recent ASCE 7-22 standards have been updated to account for tornado-resistant design, while the Eurocode is going in the same direction (Ricciardelli, 2022). A similar approach for downbursts is however still not found in the majority of standards (Stathopoulos and Alrawashdeh, 2020), implying that further investigations on downbursts are still required. In the most simplified case, the physical characteristics of a downburst are defined solely by the vertical impingement of cold air from the storm that produces the primary ring vortex due to the Kelvin-Helmholtz instability aloft causing strong diverging winds close to the surface (Hjelmfelt, 1988). However, a realistic downburst could not simply be considered an isolated system, but would rather include the additional contribution of the atmospheric boundary layer (ABL) winds in which it is commonly immersed. This contribution of ABL winds causes the downburst flow field to deflect from the theoretically symmetric one found in isolated thunderstorms, which therefore requires a comparative study of flow field behavior between these two scenarios in the perspective of identifying the worst conditions in terms of wind loading of structures. Therefore, these two downburst scenarios were selected for the investigation of flow characteristics: (i) an isolated downburst wind, and (ii) a downburst immersed in an approaching ABL wind. The study presented herein was carried out within the framework of the Project “THUNDERR – Detection, simulation, modelling and loading of thunderstorm outflows to design wind-safer and cost-efficient structures” (THUNDERR, 2017; Solari et al., 2020) and it focused particularly on the reconstruction of the experimental tests by means of Computational Fluid Dynamics (CFD) technique. Experimental tests were performed at the WindEEE Dome, a specialized facility able to reconstruct downbursts at reduced scales (Hangan et al., 2017). Several CFD approaches were utilized in this study: (i) unsteady Reynolds-Averaged Navier-Stokes (URANS), (ii) Scale-Adaptive Simulations (SAS), and (iii) Large-Eddy Simulations (LES). The usage of multiple CFD approaches also promoted the possibility to formulate best-practice guidelines on the application of the CFD technique for the simulation of downburst winds. The paper is organized as follows: Section 2 provides the scenarios of baseline experimental campaigns (isolated downburst, and downburst immersed in an approaching ABL) that were used to perform the numerical studies. Section 3 covers the overview of numerical settings to conduct the CFD studies. Section 4 presents the comparison of CFD results with experiments and provides the downburst flow field. Finally, Section 5 summarizes the results and presents future work perspectives. 2. EXPERIMENTAL TESTS The experimental campaigns of both isolated thunderstorm downburst and a downburst immersed in an ABL wind were conducted at the WindEEE Dome (Hangan et al., 2017). The WindEEE Dome is a hexagonal-shaped closed-circuit facility that recreates downbursts through the jet impingement from the nozzle at the chamber center, while it generates the ABL- like winds utilizing 60 fans placed across one sidewall of the chamber (Figure 1). In case of the isolated downburst (Case 1), the vertical inflow jet velocity wjet of 9 m/s was released through the inflow nozzle of 3.2 m diameter (D). Following the jet release, the primary vortex (PV) was formed and the near-surface flow features representative of the full-scale downbursts were recreated. The jet was released in the chamber for 4 seconds, while the total duration of the experiment was of about 10 seconds. The experimental campaign utilized a set of Cobra probes placed on a measurement rake to record the radial velocity time histories. The measurement rake was placed at various radial R/D locations (distanced from the chamber center). Experiments were repeated 20 times to obtain a greater degree of statistical significance. To recreate the complex interaction between two wind types (Case 2), the experimental tests were performed in two phases. Firstly, the ABL-like wind was developed across the chamber for 24 seconds, by making use of the frictional effects induced by the almost fully smooth surface instead of using the roughness elements and vortex generators. Next, the downburst was introduced through the vertical jet impingement from the nozzle (wjet of 12 m/s) in the same way as for the isolated downburst. The experimental campaign utilized two sets of Cobra probes to record the velocity time histories: (i) probes pointing in the direction of the ABL inlet, and (ii) probes pointing towards the chamber center to record the downburst-related radial velocities. Cobra probes were mounted on a measurement rake placed across various azimuthal locations α (with respect to the approaching ABL) and radial R/D locations (distanced from the chamber center). The experiments were repeated 10 times to obtain a better statistical representation of the phenomenon. The schematic of the experimental tests and measurement positions is provided in Figure 2. In the case of an isolated downburst, only the azimuthal position α of 0° was considered due to the assumed flow axisymmetry. Figure 1. Schematic of the WindEEE Dome: (a) front view and (b) top view of the testing chamber. Figure 2. Schematic of the experimental tests at the WindEEE Dome for the case of a downburst immersed in an approaching ABL wind (Case 2): (a) azimuthal measurement positions, and (b) locations of the measurement rakes along azimuthal positions. 3. CFD SIMULATIONS Case 1: isolated downburst wind CFD simulations of an isolated downburst wind were performed on a computational grid representing half of the WindEEE Dome chamber, by imposing the symmetry constraint on the domain and save computational resources. The no- slip condition was imposed at the wall boundaries while zero-static gauge pressure was defined at the outlet. The near-wall flow was modeled using the Spalding wall functions for smooth surfaces. Second-order discretization schemes were used for the equations and the PISO algorithm solver was adopted to couple pressure and velocity fields. The computational grid counted 16.5 million hexahedral cells. Three approaches were used: URANS, SAS, and LES. The URANS (and SAS) employed the k-ω SST turbulence model, while the LES utilized the sub-grid scale turbulence model based on the dynamic calculation of Smagorinsky constant through Lagrangian averaging (Meneveau et al., 1996). The inflow turbulence for LES simulations was synthesized by adopting the anisotropic turbulent spot method by Kröger and Kornev (2018). Simulations were carried out in two different phases: (i) with the fixed mean vertical inflow velocity of 9 m/s at the inflow, and (ii) with the zero-inflow velocity (i.e. keeping the inflow through the nozzle closed) that would allow modeling the gradual dissipation of the phenomenon. Case 2: downburst immersed in an ABL wind To conduct accurate simulations of the downburst immersed in an ABL-like wind, the appropriate approach ABL profile was characterized at the inlet of the computational domain representing the WindEEE Dome testing chamber. The constructed structured grid was made of 33 million cells representing the entire WindEEE Dome testing chamber (Figure 3). The analogous domain and grid configuration (just half of it) was used for the isolated downburst scenario. CFD simulations (URANS, SAS, and LES) were performed in complete accordance with the experimental tests: (i) ABL-like flow development and initialization in the domain, and (ii) downburst release from the nozzle inlet with the average vertical jet velocity (wjet) of 12 m/s in addition to the background ABL-like wind. Similarly to the isolated downburst case, the k-ω SST turbulence model was used for the URANS and SAS, while the dynamic model with Lagrangian averaging was used to account for the sub-grid scale turbulence in LES simulations. LES inflow turbulence at both ABL and downburst inflow faces was generated using the turbulent inflow generator proposed by Poletto et al. (2013). Wall functions for the atmospheric flows were used at the bottom surface, while the Spalding wall functions were used at other wall surfaces. Other settings are similar to the ones already introduced for the isolated downburst case: zero-static gauge pressure at the outlet, the second-order discretization schemes were used for the equations and the PISO algorithm-based solver was used to couple pressure and velocity fields. Figure 3. Computational domain with indications of boundary conditions for the Case 2 (a), and corresponding computational grid (b). 4. RESULTS Case 1: isolated downburst wind CFD and experimental results are compared in terms of vertical profiles of radial velocity (u) at the selected radial position, i.e. in the vicinity of the maximum radial velocity occurrence (R/D = 1.2). The comparison is presented in Figure 4 for the various non-dimensional time steps τ, defined as τ = wjet·t/D. The velocity u was normalized with the maximum radial velocity observed in LES simulations Umax, while the height z was normalized with the height Zmax where the Umax was recorded. The measured data is indicated by black dots (ensemble mean across all repetitions) with two-sided error bars of the experimental variability (i.e. maximum and minimum occurrence in the time history). The CFD simulations generally show acceptable accuracy by falling within the error bars of experimental repetitions throughout most of the selected time steps. However, URANS and SAS tend to overestimate (τ = 4.725, τ = 6.975) and underestimate (τ = 5.2875, τ = 5.85) the velocity profile during the primary vortex passage, with respect to both experiments and LES. Although all three used CFD approaches showed a decent accuracy, the LES simulations show superior behavior by consistently representing the physical behavior of the experimental downburst. Figure 4. Comparison of measured data and simulated vertical profiles of radial velocity at R/D = 1.2 for a set of non- dimensional time steps (τ). Case 2: downburst immersed in an ABL wind Figure 5 presents the comparison of measured and simulated vertical profiles (URANS, SAS, and LES cases) of radial velocity (u) at the rear side (α = 180°) at R/D = 1.4, and for the selected set of τ. This particular location was selected based on the Umax being registered in its vicinity in LES simulations. Additionally, the profiles associated with the isolated jet were also presented to allow for the interpretation of differences arising from the presence of the ABL-like winds. In general, the measured and simulated profiles show a very good agreement across all positions of Cobra probes, and across all selected time instances τ. The vertical profiles at α = 180° generally show a less pronounced nose due to higher values observed at upper levels with respect to profiles at α = 0° (not presented here), which are caused by the higher level ABL winds. Although URANS and SAS gave promising results for a general understanding of the flow, they tend to overestimate the first radial velocity peak associated with the PV passage at various azimuthal locations, albeit their vertical profiles showed a good match with the experiments. Conversely, LES simulations showed consistent superior performance with respect to the URANS and SAS and are considered a favorable CFD approach for solving downburst flows. Figure 5. Comparison of measured and simulated vertical profiles of radial velocity for α = 180° at R/D = 1.4, at a selected set of non-dimensional time steps (τ). 5. CONCLUSIONS AND PERSPECTIVES The study presented in this paper was conducted within the framework of the Project “THUNDERR – Detection, simulation, modelling and loading of thunderstorm outflows to design wind-safer and cost-efficient structures” (THUNDERR, 2017; Solari et al., 2020) and it focused on the numerical reconstruction of reduced scale experimental tests previously performed in the WindEEE Dome. In particular, two reduced-scale downburst scenarios were recreated through the application of the CFD technique: (i) an isolated downburst wind (Case 1), and (ii) a downburst immersed in an approach ABL wind (Case 2). Both experimental campaigns were recreated by using URANS, SAS, and LES approaches, and the numerical results were compared with the experimental data in terms of vertical profiles of radial velocity at radial locations (R/D) in the proximity to the position of strongest winds for several non-dimensional time steps τ. The comparison with the experimental data demonstrated that all three employed CFD approaches provide a reasonable degree of accuracy for both analyzed scenarios in terms of a trend of vertical profiles. However, the URANS and SAS approaches were found to lack consistency in adequately describing the primary vortex passage commonly resulting in an overestimation and underestimation of the associated radial velocity. Conversely, LES showed a consistent trend and accuracy in predicting the strongest winds in complex flow conditions. Compared to the Case 1 which showed the axisymmetric flow behavior, the scenario of a downburst immersed in an ABL wind demonstrated emphasized flow asymmetry. All three employed CFD approaches on average showed similar acceptable behavior as in the case of an isolated downburst, while the LES once again demonstrated superior behavior compared to the URANS and SAS with a consistently high degree of accuracy in predicting wind velocities regardless of the azimuthal location. In the perspective of importance of downburst winds for structural safety in mid-latitude regions, the future work developments will be directed towards the CFD reconstruction of full-scale downburst events instead of focusing on reduced-scale experimental ones. Therefore, the selected full-scale downburst event recorded in a complex urban environment will be reconstructed to firstly validate the applicability of the impinging jet model, and finally to obtain its full-field flow features and its characteristics at larger scales. Acknowledgments The authors acknowledge the support of the Italian supercomputing center CINECA for providing access to their HPC facilities needed to carry out the work presented in this paper. J. Žužul and M. Burlando acknowledge the support of the European Research Council (ERC) under the European Union’s Horizon 2020 research and innovation program (grant agreement no. 741273) for the project THUNDERR – Detection, simulation, modelling and loading of thunderstorm outflows to design wind-safer and cost-efficient structures – funded with an Advanced Grant 2016. The authors are deeply grateful to Prof. Giovanni Solari for his essential contributions to the conceptualization and supervision of this research. Alessio Ricci is a senior postdoctoral fellow of the Research Foundation – Flanders (FWO) (project number: 1256822N) and its financial support is gratefully acknowledged. References 1. FUJITA, T. T. “Tornadoes and Downbursts in the Context of Generalized Planetary Scales”. Journal of the Atmospheric Sciences,1981, 38 (8), pp. 1511–1534. 2. RICCIARDELLI, F. “Towards the Second Generation Eurocodes: the role of research in the updating of wind loading codes”. Keynote lecture of the In-Vento 2022: 16th Conference of the Italian Association for Wind Engineering, 4 –7 September 2022, Milano, Italy. 3. STATHOPOULOS, T.; ALRAWASHDEH, H. “Wind loads on buildings: A code of practice perspective”. Journal of Wind Engineering and Industrial Aerodynamics, 2020, 206, p. 104338. 4. HJELMFELT, M. Structure and Life Cycle of Microburst Outflows Observed in Colorado. Journal of Applied Meteorology, 1988, 27, pp. 900–927. 5. THUNDERR, 2017. URL: http://www.thunderr.eu. Accessed: September 28, 2022. 6. SOLARI, G.; BURLANDO, M.; REPETTO, M. P. “Detection, simulation, modelling and loading of thunderstorm outflows to design wind-safer and cost-efficient structures”. Journal of Wind Engineering and Industrial Aerodynamics, , 2020, 200, pp. 104–142. 7. HANGAN, H.; REFAN, M.; JUBAYER, C.; ROMANIC, D.; PARVU, D.; LoTufo, J., COSTACHE, A. “Novel techniques in wind engineering”. Journal of Wind Engineering and Industrial Aerodynamics, 2017, 171, pp. 12–33. 8. MENEVEAU, C.; LUND, T.; CABOT, W. “A Lagrangian dynamic subgrid-scale model of turbulence”. Journal of Fluid Mechanics, 1996, 319, pp. 353–385. 9. KRÖGER, H., KORNEV, N. “Generation of divergence free synthetic inflow turbulence with arbitrary anisotropy”. Computers and Fluids, 2018, 165, pp. 78–88. 10. POLETTO R.; CRAFT T.; REVELL A. “A new divergence free synthetic eddy method for the reproduction of inlet flow conditions for LES flow”. Turbulence and combustion, 2013, 91 (3), 519-539. About the authors Josip Žužul is a postdoctoral researcher at the Department of Civil, Chemical and Environmental Engineering of the University of Genoa (Italy). Josip has recently graduated at the Wind Science and Engineering Curriculum on Computational Fluid Dynamics (CFD) simulations of extreme downburst winds and is an expert in numerical methods and Computational Wind Engineering. Alessio Ricci is a senior postdoctoral researcher at the KU Leuven (Belgium) and Eindhoven University of Technology (the Netherlands). Alessio is an expert in several fields of Wind Engineering and has an extensive knowledge and experience on experimental technique (wind-tunnel testings), full-scale measurements, and CFD simulations. His expertise are complex flows in urban and port areas. Massimiliano Burlando is an associate professor at the Department of Civil, Chemical and Environmental Engineering of the University of Genoa (Italy). Massimiliano is an expert in atmospheric sciences and atmospheric physics with an exhaustive experience in reduced-scale experimental tests, full-scale measurements of synoptic and non-synoptic winds, and numerical simulations (CFD simulations and atmospheric models like WRF and cloud models). DIAGNOSTICO DEL SISTEMA DE TRATAMIENTO DE RESIDUALES DE LA EMPRESA AGROINDUSTRIAL AZUCARERA “30 DE NOVIEMBRE”. Roxana Aymeé Luis Winograd1, Robier Hernández Barbosa2 , Pablo Enrique Cárdenas Quiñones3 1Universidad politécnica José Antonio Echeverría (CUJAE), 2 Empresa metal mecánica FAME, 3 Empresa Agroindustrial azucarera “30 de Noviembre” 1e-mail:roxluis87@gmail.com 2e-mail:robierh2021@gmail.com RESUMEN La sociedad y el medio ambiente deben estar en un equilibrio para poder alcanzar el desarrollo sostenible, pero con el desarrollo de la sociedad, donde la industrialización, forma parte indisoluble del proceso, el equilibrio no siempre se mantiene, y generalmente ese desequilibrio que se genera tiene efectos negativos sobre el medio natural. Los principales problemas ambientales que se generan están dados por la contaminación del aire, el suelo y fundamentalmente el recurso agua. La Empresa Agroindustrial Azucarera (EAA) “30 de Noviembre”, ubicada en el Consejo Popular Taco-Taco, municipio San Cristóbal, provincia Artemisa es considerada una de las entidades grandes contaminantes del municipio. Esta entidad realiza el muestreo de sus residuales todos los años los cuales siempre arrojan parámetros fuera de la norma establecida, pero nunca se ha realizado el diagnóstico del sistema de tratamiento. En este trabajo aplicando los diferentes método y técnicas de investigación, se caracterizó los residuales de la entidad y se diagnosticó su sistema de tratamiento, arrojando como resultados que los residuales no cumplen con la NC: 27-2012, y el sistema de tratamiento no es funcional, por lo se realizó un plan de medidas para el mejoramiento del sistema actual. PALABRAS CLAVES: residuales, sistema de tratamiento. DIAGNOSIS OF DE WASTE TREATMENT SYSTEM OF THE COMPANY “30 DE NOVIEMBRE” ABSTRACT The society and the environment must be in balance in order to achieve sustainable development, but with the development of the society, where industrialization, form an indissoluble part of the process, the equilibrium is not always maintains, and generally, the imbalance that is generated has negative effects on the natural environment. The main environmental problems that are generated are given by the pollution of air, soil, and fundamentally the resource water. The Company Agro-industrial Sugar (EAA) “November 30”, located in the Popular Advice Taco-Taco, municipality San Cristóbal, province Artemisa is considered one of the entities large contaminants in the municipality. This entity performs the sampling of their waste every year, which always offer parameters outside of the established norm, but has never made the diagnosis of the treatment system. In this work by applying different method and research techniques, we characterized the residual of the entity, with its system of treatment, shedding as results that the residuals do not comply with the NC: 27-2012, and the treatment system is not functional, so we made a plan of measures for the improvement of the current system. KEY WORDS: residual, treatment system. 1. INTRODUCCION El agua es elemento fundamental para el surgimiento de la vida en nuestro planeta, sin ella cualquier tipo de vida le fuera imposible alcanzar el desarrollo que hoy presentan. Constituye parte integrante de todos los tejidos animales y vegetales, siendo necesaria para el proceso de las funciones orgánicas, e indispensable para el uso de los seres humanos que proporcionan un mayor bienestar, tanto para la salud, la alimentación, como para la industria y el esparcimiento. Este preciado líquido se encuentra en la naturaleza en diversas formas constituyendo parte del ciclo hidrológico, los procesos que forman parte de este ciclo tienen sus funciones dentro del gran ecosistema. La sociedad y el medio ambiente deben estar en un equilibrio para poder alcanzar el desarrollo sostenible, pero con el desarrollo de la sociedad, donde la industrialización, forma parte indisoluble del proceso, el equilibrio no siempre se mantiene, y generalmente ese desequilibrio que se genera tiene efectos negativos sobre el medio natural. Los principales problemas ambientales que se generan están dados por la contaminación del aire, el suelo y fundamentalmente el recurso agua. El planeta tierra presenta 1,380 millones de km3 de agua. Si se lograra separar de la fase sólida y poner en el espacio, se formaría una esfera de 2,400 km de diámetro, que aparenta ser demasiado, sin embargo, sería más pequeña que muchos de los cuerpos de hielo que se encuentran en el sistema solar. Los gobiernos de algunos países, principalmente de los más desarrollados, se han dado a la tarea de investigar y llevar a cabo distintos tipos de tratamientos de agua para reducir los dañinos efectos que la contaminación ha ocasionado a este recurso. La definición exacta de agua residual es compleja, ya que está en función de las características que se den en cada población o industria, dependiendo además del sistema de recogida que se emplee. A pesar de ello, se ha definido como aquella que procede del empleo de un agua natural o de la red en un uso determinado. Las aguas residuales, además de patógenos, contienen otras muchas sustancias contaminantes. Éstas pueden ser procedentes de zonas residenciales o similares, infiltraciones y aportaciones incontroladas, aguas pluviales o aguas de complejos hospitalarios e industriales [1]. En el pasado la mayor parte de las masas contaminadas de aguas residuales no tienen ningún tipo de tratamiento, simplemente se descargan en lagos, ríos o mares dejando que los sistemas naturales se encarguen. Sin embargo, debido a la alta agresividad de algunos contaminantes, la degradación de los desechos de forma natural no es suficiente para que el agua recobre las características necesarias para satisfacer cada vez más las crecientes necesidades del hombre; debido a que los desechos son cada vez mayores y su composición química es más compleja. En la industria, las aguas residuales presentan una gran cantidad de contaminantes que tienen una acción muy compleja sobre el medio ambiente, afectando el desarrollo natural de los ecosistemas por el cambio de condiciones tales como la toxicidad, olor, color, entre otras. Estas aguas están siendo tradicionalmente tratadas por métodos convencionales, sin embargo, la efectividad de estos procesos se ve seriamente limitada en los últimos años, debido a la disminución de la disponibilidad de agua fresca, y al aumento de la demanda tanto humana como industrial, lo cual significa mayores caudales de agua residual a tratar [2].El tratamiento de estas aguas tiene por objetivo disminuir la cantidad de agentes contaminantes en las masas de agua dependiendo no sólo del tipo de contaminantes presentes en ellas, sino considerando el uso que se le dará nuevamente una vez que el agua haya cumplido con el tratamiento adecuado. En la Empresa Agroindustrial Azucarera (EAA) “30 de Noviembre”, ubicada en el Consejo Popular Taco-Taco, municipio San Cristóbal, se han llevado a cabo varios estudios sobre el uso del agua . Donde se analizó el consumo del agua como uno de los problemas que golpea seriamente a la industria azucarera durante las últimas zafras, influyendo de manera negativa en la producción de azúcar. Pero continúa sin solución la problemática de la ineficiencia del sistema de tratamiento de residuales de la industria. Lo que está provocando la contaminación de las aguas superficiales y subterráneas de la zona. Problema de investigación: ¿Cómo disminuir la contaminación ambiental provocada por los residuales de la EAA “30 de Noviembre”? Objetivo general: Proponer un sistema de acciones para el tratamiento de agua residual EAA “30 de Noviembre”. Novedad e importancia del tema El tema de la contaminación ambiental ha tomado en los últimos tiempo mayor fuerza, los gobiernos del mundo han unido fuerzas para decretas acciones referentes a la disminución de los agentes contaminantes, y protección de los recursos naturales, dentro de los cuales sobresale el recurso agua por la importancia que este genera. En Cuba son muchas las acciones encaminadas en la protección de este vital recurso y de su aprovechamiento óptimo. En el EAA “30 de Noviembre”, todos los años muestrea los residuales pero nunca se ha realizado un diagnóstico sobre las causas que están originando el no cumplimiento de la NC: 27-2012, por lo que este trabajo es de suma importancia, pues presenta como objetivo general proponer acciones para el mejoramiento del sistema de tratamiento existente y con ello alcanzar que los residuales cumplan con la normativas de vertimiento de las aguas residuales. 2. REFERENTES TEORICOS El agua es uno de los principales constituyentes de la materia viva y del medio en que vivimos. Sus propiedades físicas son notablemente diferentes a las de otras sustancias, de manera tal que determinan la naturaleza de los mundos biológicos y físicos. Se puede encontrar a en los tres estados: líquido, sólido y gaseoso, lo cual provoca que esté ampliamente distribuida en la naturaleza. En el estado líquido constituye los lagos, océanos y corrientes del mundo; cubriendo aproximadamente ¾ de la superficie terrestre, también en plantas, animales, rocas y minerales [3 y 4]. Muchas de sus propiedades físicas son anormales en comparación con los de otros líquidos, y como este es el único líquido extremadamente abundante en la naturaleza, es de gran importancia en todos los órdenes de la vida. A las temperaturas ordinarias, el agua es un líquido transparente e incoloro. El agua pura es también inodora, es incapaz de enmascarar la presencia de la más mínima cantidad de impurezas. En comparación con otros líquidos, el agua tiene un punto de fusión de 0 oC y ebullición 100oC [3]. Clasificaciones de las aguas residuales Las aguas residuales son aguas con impurezas procedentes de vertidos de diferentes orígenes, domésticos e industriales, principalmente. De esta forma, tenemos que las aguas residuales pueden contener elementos contaminantes originados en desechos urbanos o industriales. Debido a esto estas aguas se pueden clasificar en: Agua municipales, Aguas grises y Aguas Industriales Las aguas residuales industriales son aquellas procedentes de cualquier actividad o negocio en cuyo proceso de producción, transformación o manipulación se utilice el agua. Son variables en cuanto a caudal y composición [3 y 5]. Éstas son más contaminadas que las aguas residuales urbanas, con una carga más difícil de eliminar. Sus vertimientos pueden encontrarse en determinadas horas del día o incluso únicamente en determinadas épocas de año, dependiendo del tipo de producción y del proceso industrial. Su alta carga, unida a la enorme variabilidad que presentan, hace que los tratamientos de las aguas residuales industriales sean complicados, siendo preciso un estudio específico para cada caso, ya que presentan gran variedad y cantidad de productos, los cuales están en concordancia con la actividad que se realiza (alimentación, química, petroquímica, agrícola, forestal, minerales y metalúrgicas, etcétera). Parámetros que miden la calidad de las aguas residuales El Índice de Calidad de Agua Residual (ICAR) designa a un conjunto agregado o ponderado de parámetros [6] o indicadores [7], con el fin de ser utilizado como una herramienta útil para poder evaluar la afectación provocada por los diferentes contaminantes que acompañan al agua, para determinar la calidad delas aguas residuales se deben tener en cuenta los parámetros, físicos, químicos y biológicos. Dentro de los parámetros físicos podemos encontrar la Conductividad eléctrica o específica, Color, pH, Turbiedad, Sólidos Totales, Sólidos Sedimentables, Temperatura y olor [8]. Mientras que dentro de los químicos se analizan la Acides, Alcalinidad, Demanda bioquímica de oxígeno (DBO5), Demanda química de oxígeno (DQO), Fosforo, Grasas, Nitrógenos, Oxígenos disueltos, Sulfuros y Metano [8]. Los ingenieros sanitarios y ambientales deben su conocimiento a las características biológicas de las aguas residuales, específicamente de los microorganismos que intervienen en los tratamientos biológicos, patógenos y los utilizados como indicadores de contaminación. Dentro de los que se encuentran Bacterias, Hongos, Algas, Virus, Protozoos, Organismos Patógenos, Helmenitos, Coliflores totales y Escherichia-coli [9]. Sistemas de tratamiento de aguas residuales Las aguas residuales se constituyen de dos componentes: líquido y sólido. Básicamente existen dos formas generales de tratar las aguas residuales; una de ellas consiste en dejar que las aguas residuales se asienten en el fondo de los estanques, permitiendo que el material sólido se deposite en el fondo. Después se trata la corriente superior de residuos con sustancias químicas para reducir el número de contaminantes dañinos presentes. El segundo método, más común, consiste en utilizar la población bacteriana para degradar la materia orgánica. Este método es conocido como tratamiento de lodos activados y requiere el abastecimiento de oxígeno a los microbios de las aguas residuales para realzar su metabolismo [10]. El tratamiento de aguas residuales es necesario para prevenir la contaminación ambiental y del agua, así como para la protección de la salud de la población. En Latinoamérica, cada región tiene sus propias necesidades correspondientes a métodos y tipos de tratamientos particulares, así como cierto número de opciones tradicionales. La más común es la planta de tratamiento de aguas residuales [10]. Marco legislativo En Cuba existen disposiciones que regulan la conservación, la protección, mejoramiento y trasformación del medio ambiente, así como el uso racional de los recursos naturales que van por diferentes rangos desde leyes hasta normas técnicas. La Norma Cubana NC 27:2012, ha sido elaborada por el Comité Técnico de Normalización NC/CTN 3 de Gestión ambiental, integrado por representantes de varias entidades incluyendo al Ministerio de Ciencia, Tecnología y Medio Ambiente. La norma es un instrumento legal para garantizar la calidad de las aguas terrestres mediante la regulación de las descargas de residuales a éstas, lo que a su vez servirá de base para la elaboración de estrategias de saneamiento. Ella ayudará a la protección de las fuentes de abasto a la población, los cursos naturales de las aguas, las aguas subterráneas y las obras e instalaciones hidráulicas, La norma sobre el vertimiento de aguas residuales es el elemento clave para la aplicación por los organismos correspondientes, de multas, impuestos por contaminación de los cuerpos receptores y utilización o aprovechamiento de bienes del dominio público de la nación, como lo son las aguas terrestres, así como de los servicios comunales de alcantarillado y tratamiento de aguas residuales. Los aspectos relativos a las aguas residuales se evaluarán de acuerdo con lo regulado en la NC: 27: 2012. 3. MATERIALES Y METODOS Ubicación geográfica El coloso azucarero se encuentra ubicado geográficamente en el poblado de la Finca La Conchita, Comunidad Taco-Taco, municipio San Cristóbal de la provincia Artemisa. Hacia el norte del ingenio a una distancia de 3 km esta la autopista nacional Habana-Pinar, 2 km en dirección este del arroyo la Guácimas, de la comunidad de López Peña 3km para oeste el de esta y a 15 km del litoral costero sur. En la Figura 1, se observa la imagen satelital de la EAA 30 de Noviembre. Figura 1. Imágenes Satelital del 30 de Noviembre. Métodos utilizados Para realizar la investigación se siguió un enfoque dialéctico materialista, utilizando se para ello diferentes métodos y técnicas dentro de los que se destacan: ➢ Métodos teóricos Histórico-Lógico: Se utilizó para la búsqueda de la bibliografía, documentos y antecedentes de investigación atendiendo al objetivo de investigar y la fundamentación teórica de la investigación. Análisis-Síntesis: Posibilitó realizar el estudio de la bibliografía consultada. Concretar los aspectos teóricos para la investigación. Interpretar resultados obtenidos. A través de este método se pudo llegar a la fundamentación teórica del problema y formulaciones que explican la conducta del objeto de investigación. Inducción-Deducción: Se utilizó en la revisión de bibliografía, en la sistematización de conceptos fundamentales a partir de la deducción de lo particular a lo global, teniendo en cuenta lo particular, para arribar a conclusiones y elaborar generalizaciones que son la base complementaria de toda inferencia deductiva válida. ➢ Métodos empíricos Análisis Documental: Este método permitió la revisión y compilación de los resultados de los estudios de suelos realizados en el área de estudio, que constituyeron en muchos casos fuente de información para la realización del trabajo. Revisión de mapas suelos, mapas de uso. ➢ Métodos estadísticos-matemáticos Se empleó para el análisis de los datos, utilizándose la estadística descriptiva. Procedimientos para la caracterización de los residuales Las corrientes de aguas residuales de cualquier presentan gran variabilidad en su caudal y composición a lo largo de un día, una semana, un mes o una estación del año, haciendo difícil la obtención de la muestra de toda la corriente, con valor y la calidad del agua, dado el alto costo de los análisis de laboratorio siendo este aspecto de gran importancia. Las condiciones diversas y sus diferentes objetivos, determinan la imposibilidad de establecer un procedimiento único y la aplicación universal para esta actividad por lo que los técnicos responsables de esta tarea deberán dominar los principios teóricos de la labor y desarrollar la habilidad práctica para garantizar los resultado calificables, para el logro de esto el muestreo debe realizarse por un equipo automático con sensores de análisis de parámetros que determinen el cambio repentino de la muestra tomada [9]. Según publicaciones de la [10] que generalizan de forma objetiva los muestreos, identificar y cuantificar las características de un agua para la proyección de un sistema de tratamiento, tener en cuenta los indicadores importantes para la evaluación del tratamiento si es eficiente o no, controlando la carga contaminante vertida en un cuerpo receptor que nos dará a conocer el progreso o retroceso de las contaminaciones ambientales, resulta determinante las concentraciones mínimas, medias y máximas determinando el tipo de muestra. Tomas de muestras (Compuestas) En la investigación fue necesario la toma de muestras compuestas proporcional al caudal con el objetivo de tener un muestreo lo mas característico posible de los residuales generados por la entidad, al combinar los volúmenes individuales la muestra final sería de 2-3 L. Su formulación sería la que se representa en la Formula 1. )1...(........................................ * * nQm VtotalQt Vmuestra= Dónde : Vmuestra es volumen de la muestra que se toma, Qt es el caudal a la hora de tomar la muestra, Vtotal es el volumen final de la muestra compuesta, Qm es caudal promedio durante el periodo de muestreo y n es el número de muestras simples tomadas. Calculo de caudal Existen diferentes métodos para obtener los resultados del cálculo de un caudal determinado (Volumétrico, Vertedores, De Sección-Velocidad, De Pendiente- Sección y Trazadores de Colorantes), dadas las características de cada lugar y la disponibilidad de recursos, lo más actual son los medidores de caudal electrónicos con sensores detectores expuestos al flujo pidiendo ser dañado por este .Para la correcta selección del dispositivo de medición hay que tener en cuenta factores como el tipo de aplicación abierta o cerrada, los intervalos de caudal, características, los constituyentes del fluido, la presencia requerida, las pérdidas de la carga, la necesidad de instalación y la facilidad de mantenimiento [8]. El método Volumétrico, consiste en la medición directa del caudal en un recipiente de volumen conocido cuyo tiempo de llenado se mide y se controla por la relación que se expresa en la Formula 2. )2.(.................................................. T Vl Q = Donde, Q es el caudal (L/s), V es Volumen del recipiente (L) y T es el tiempo de llenado(s) Análisis del laboratorio Las aguas residuales son sometidas análisis de laboratorio con el propósito de determinar sus características (físicas, químicas y biológicas), la variabilidad y la composición del caudal en el transcurso del día, semana, mes o estación del año haciendo difícil la obtención de una muestra representativa de toda la corriente de esta manera se concluyen análisis de alto valor, por su alto costo las pruebas de laboratorio son de gran importancia, las condiciones en que se realizan los muestreos y sus diferentes objetivos determinan la imposibilidad de establecer un procedimiento único de aplicación universal en esta actividad, los responsables de la tarea deben tener un dominio sobre los principios teóricos y desarrollo practico de los cuales se basa esta actividad necesaria para la obtención de resultados confiables [9]. Los objetivos del muestreo de las aguas residuales son identificar y cuantificar las características de las aguas con el interés de llevar a la proyección de un sistema de tratamiento, cuantificar los indicadores para evaluar si el sistema de tratamiento es eficiente en la eliminación de contaminantes llevando el control de la carga contaminante vertida en un cuerpo receptor [11]. Determinación de la carga contaminante. La carga contaminante se determina por la fórmula 3 )3........(..................................................*QCCr = donde꞉ Cr es la carga contaminante en término de DBO5, DQO, grasas, solidos, etc. C es la concentración del parámetro que se evalúa y Q es el caudal de aguas residual 4. RESULTADOS Toma de muestra Las muestras fueron recolectadas en un periodo de ocho horas seguidas, con un intervalo entre muestras de una hora, por lo que se utilizaron ocho muestras puntuales, para realizar una muestra compuesta, los 300mL finales fueron seleccionados teniendo en cuenta la relación con el caudal determinado en cada uno de los muestreos. En la Tabla 1 se pueden observar los caudales determinados en cada una de las muestras y la porción utilizada para realizar la muestra compuesta. Tabla 1. Relación del caudal con la porción seleccionada para la muestra compuesta Muestras Entrada al Sistema Salida del Sistema. Caudal (L/s) Porción de selección(L) Caudal (L/s) Porción de selección M-1 1.25 38 0.27 34 M-2 1.60 41 0.31 42 M-3 1.00 34 0.29 39 M-4 1.25 38 0.29 39 M-5 0.83 32 0.27 34 M-6 1.60 41 0.28 38 M-7 1.25 38 0.30 40 M-8 1.25 38 0.27 34 MEC1 300 MSC1 300 Fuente: Resultado de la Investigación. 4.2 Análisis de laboratorio Una vez realizado el muestreo, las muestras fueron enviada a los laboratorios de la ENAS, entidad rectora y calificada para determinar los parámetros establecidos en la NC: 27-2012, las cuales arrojaron como resultados los que se aprecian en la tabla 2. Tabla 2. Muestras de los análisis de residual de la entrada del sistema de tratamiento en la EAA Fuente: Resultado de la Investigación. Análisis de los parámetros En la gráfica 1 se muestra el residual del central en la zafra 2020-2021, mantuvo valores de pH que oscilan entre 3.7 – 4.0 en la entrada del sistema y en la salida valores de 3.8 a 5.1, lo que indica que el pH es sumamente ácido y no cumple con la normativa, afectando el balance químico y ecológico del cuerpo receptor. Gráfica 1. Comportamiento de los análisis realizados al sistema de residuales de la EEA Fuente: Resultado de la Investigación Parámetros V.I.:OD:0.80mg/l L.M.A C.R. NC:27-2012 [12] Salidas del Sistema 2020 Entradas al Sistema 2020 pH (U) 6-9 4,76 5,01 3,83 3,98 3.9 3.7 C E ( S/cm) 1500 2330 3475 3210 3060 2310 10 19 T(°C) 40 29,7 29,7 26 20,20 26 26.20 M F -- _ DBO5 (Mg/L) 40 4540 1856 1446 1088 5848 4489 DQO(Mg/L) 90 7558 4128 3214 2418 9748 7482 SS (Ml/L) 1 248 6,6 2,16 125 8.8 144 CT (NMP/100mL) 1000 1,6x108 23x103 23x103 1,7x103 1.7x10^6 >1.7x10^8 CTT NMP/100mL) 200 9,2x107 7,8x104 1,3x103 4,9x102 7.9x105 1.6x10^8 Pt (Mg/L) 5 5,00 2,88 6,48 11,5 70.8 136 O^2 (Mg/L) 4 0 0 0 0 0 0 A y G (MG/L) 5 9.30 0,16 0 1,1x10- 2 8.28 Los valores altos de conductividad eléctrica de los residuales de EAA oscilando entre 2330 – 3210 mS/cm en la salía del sistema y en la estrada del sistema están entre 1019 – 3060 mS/cm, esto ocurre debido al elevado contenido de dales disueltas. Gráfica 2.Comportamiento de los análisis realizados al sistema de residuales de la EEA Fuente: Resultado de la Investigación La temperatura se encuentra dentro de los parámetros, porque en el momento de la toma de las muestras no se contaba con un termómetro, por lo que se trasladarlas al laboratorio entrando en contacto con el aire acondicionado mantiene los parámetros según las límites máximos admisibles en la entrada 20-26,20°C y la salida del sistema 26-29,7°C, influyendo con los procesos químicos y biológicos de las aguas superficiales La Materias Flotantes tampoco es un parámetro que se pueda hacer referencia como positivo, aunque los análisis de laboratorio indican que cumplen con la norma, en el anexo 2, se puede observan la realidad en el sistema. Es la gráfica 3 se puede observar el comportamiento de DBO5, parámetro que no cumple con la normativa vigente, en la entrada con valores oscilan entre los 1088-5848 Mg/L y en la salida se presentan en un rango de 1446-4540 Mg/L, lo cual prueba que los microorganismos no están proliferando, los valores altos de este parámetro provocan un decrecimiento del oxígeno disuelto en el agua Gráfica 3.Comportamiento de los análisis realizados al sistema de residuales de la EEA Fuente: Resultado de la Investigación La gráfica 4 nos muestra que los valores de DQO, están muy por encima de la norma, promediando en la entrada con valores 2418-9488 y la salida 3214-7558 mg/l. Gráfica 4.Comportamiento de los análisis realizados al sistema de residuales de la EEA Fuente: Resultado de la Investigación. El contenido de SS, es de gran importancia de igual forma los valores muestreados están muy por encima de la norma, como se muestra en el gráfico 5, los valores que exceden los LMPP en la entrada del sistema los valores varían entre 8,8-144mL/L y en la salida del sistema entre los 2,16-248mL/L. Los valores de coliformes totales, se encuentran muy por encima de la normativa aunque disminuyen en gradualmente desde la entrada del sistema a la salida del sistema, en la gráfica 6 se puede observar el comportamiento de este parámetro. Gráfica 5.Comportamiento de los análisis realizados al sistema de residuales de la EEA Fuente: Resultado de la Investigación Gráfica 6.Comportamiento de los análisis realizados al sistema de residuales de la EEA Fuente: Resultado de la Investigación Los valores de CTT, se pueden encontrar en la Gráfica 7, estos valores se encuentran muy por encima a lo establecido oscilando en un rango de valores en la entrada del sistema de 7.9x1051.6x10^8NMP/100mL y en la salida del sistema de 1,3x103 - 9,2x107 NMP/100mL. Gráfica 7. Comportamiento de los análisis realizados al sistema de residuales de la EEA Fuente: Resultado de la Investigación En la gráfica 8 se observa el alto contenido de fosfato en las aguas residuales de la entrada con valores que oscilan entre los 13.6-11,5mg/L y en la salida del sistemas con valores están comprendidos entre 88- 6,48 mg/L. Gráfica 8.Comportamiento de los análisis realizados al sistema de residuales de la EEA Fuente: Resultado de la Investigación En la gráfica 9, se muestran los valores de O2 muestreados en el sistema, los cuales tanto en la entrada como en la salida del sistema presentan valores de 0. Gráfica 9.Comportamiento de los análisis realizados al sistema de residuales de la EEA Fuente: Resultado de la Investigación Los aceites y las grasas son otros de los parámetros que se analizan según la norma, en la gráfica 10, podemos observar los valores de este parámetro, los cuales nos indican el mal funcionamiento de las diferentes trampas de grasas existentes en el sistema, en el anexo 2 se puede evidenciar la presencia de estos elementos en las lagunas y el efluente final. Gráfica 10.Comportamiento de los análisis realizados al sistema de residuales de la EEA Fuente: Resultado de la Investigación 4.3 Determinación de la carga contaminante Se realizó el cálculo de la carga contaminante arrojando valores muy alto, de vertimiento de contaminante al efluente, se asumió que el vertimiento de los residuales seria en un turno de trabajo de 8 horas teniendo en cuenta las características de las últimas zafras, aunque es de destacar que hay días de producción continua de más de 8 horas lo que provoca un aumento significativo de este parámetro. Tabla 3. Cálculo de la carga contaminante Términos Parámetro a evaluar(C) Caudal (Q) L/s Carga contaminante (Cr) Tiempo (h) Carga Total DBO5(salida) 4 540 0.29 1316.6 8 10532.8 1 856 0.29 538.24 8 4305.92 1 446 0.29 419.34 8 3354.72 Fuente: Resultado de la Investigación Estado actual del sistema El sistema pre eliminar de la EAA actual ha venido presentando disimiles situaciones negativas en sus procesos. Sistema de alcantarillado de la fábrica: Deterioro en el tramo de la Casa de Caldera y la Refinería provocando desbordes, manteniendo un estado de humedad y suciedad en todo el primer piso, destacando más el área de las Pesas de azúcar, centrifuga y pasillo o espacio de la casa de caldera y planta eléctrica, el estrechamiento de la zanja en el área de cimentación de pre evaporación, planta de cal por donde se incorpora a la zanja principal con los residuos de los molinos, más los ya existentes por las pérdidas de condensado contaminados. Pre tratamiento: El sistema de zanja de este tratamiento está prácticamente en derrumbe y presenta constantes infiltraciones en todas las etapas, por el transcurso del tiempo y el desgaste del agua, las malas condiciones y la disfuncionalidad de las rejillas de desbaste dificultan la remoción de los gruesos, de los desarmadores y desengrasadores no cumplen con su función específica por la falta evidente de mantenimiento, las filtración y derrame de los derivados de hidrocarburos de manera directa haciendo referencia al área de Energía (calderas).Mala ubicación y un mal funcionamiento de los desarenadores y trampas de grasas, además de no cumplir con las planificaciones de los mantenimientos, el canal conductor del agua residual hacia las lagunas se encuentra tupido desde su inicio hasta el primer registro provocando los desborde contaminando gran parte de este ecosistema, ocurriendo lo mismo en el segundo registro ya que se encuentra en derrumbe total, el contenido de agua residual varia a medida que avanza por los registros por lo citado anteriormente. Entre el 8vo y el 9no registro hay una infiltración del pluvial en conjunto con el mal estado del último registro mencionado, el vertedero de la laguna está en derrumbe casi en su totalidad. Destinó final: El sistema como ya se ha explicado anteriormente está constituido por dos lagunas, el paso de la laguna anaeróbica hacia la facultativa, está previsto por tres conductos, de los cuales solo funcionan dos, las cuales presentan deterioros paulatinos, por la falta de mantenimiento. El Instituto de Recurso Hidráulicos le debe inyectar agua subterránea a estas lagunas para disminuir la carga contaminante cosa que no está funcionando, el dragado es ineficientes por la cantidad de residuos sólidos y lodo que deja dentro de las lagunas dejando constancia del mal trabajo que se desempeña en estas, estas tienen gran cantidad de lodo en el fondo, nata y espuma por las concentraciones elevadas de detergente en el agua, resultando perjudicial para la depuración y desplazamiento del fango a la superficie y manchas de diferentes colores en su superficie debido a la acumulación de grasas, indicando el principio del desarrollo de los organismos no deseados. En la salida de la última laguna se percibe gran cantidad de sólidos en suspensión, erosión, Infiltración y Crecimiento de plantas leñosas en los taludes de las lagunas. Deterioro de las cubiertas de las lagunas, mal estado de los medidores de caudal. Presencia de incestos, aves acuáticas, larvas y desarrollo de olores en distintas partes de la instalación. Propuestas de acciones de mejoramiento Debido a que las muestras tomadas no cumplen con las normativas y teniendo en cuenta el estado actual del sistema de tratamiento de residuales, se puede afirmar que el sistema de tratamiento de la EAA no funciona en su totalidad. Por lo que se propone un grupo de medidas para su mejoramiento que ayudaran a disminuir la carga contaminante entre un 40 y el 60 %. Tabla 4 Propuestas de acciones de mejoramiento Acción Objetivos Responsables Ejecutan Fecha Reconstrucción de los vertedor Determinar el caudal generado en la entidad Dirección de Calidad, Grupo técnico ZETI 30 de marzo -1 de octubre del 2022 Limpieza de los registros Eliminar la vegetación, la acumulación de desechos sólidos Técnico del Área de la Dirección de Calidad Trabajadores de miscelánea 1-15 de diciembre del 2021 Mantenimiento de las trampas de grasas Para un correcto funcionamiento Jefes de Áreas donde este las trampas Trabajadores del Área y Miscelánea 29 de noviembre-15 de diciembre del 2021 Extracción de los sólidos arenosos materia inerte y la orgánica en los Desarenadores Para un correcto funcionamiento Técnico del Área de la Dirección de Calidad Trabajadores de miscelánea 1-15 de diciembre del 2021 Ejecutar un programa de mantenimiento, higiene y seguridad de las Lagunas Estabilizadoras Funcionamiento favorable de los cuerpos receptores y del medio ambiente a su entorno Dirección de la EAA, de Calidad, de Mantenimiento Especialistas de cada área 29 de noviembre-15 de diciembre del 2021 Fuente: Resultado de la Investigación 5. CONCLUSIONES Se ratifica que la EAA “30 de Noviembre”, es una de las entidades contaminantes del territorio ya que los residuales que generan no cumplen con la NC: 27:2012, todos los parámetros analizados se encuentran fuera de los límites admisibles referidos en la normativa y vierte una carga contaminante muy superior a la norma establecida, por lo que se puede decir que el sistema de tratamiento de la entidad no es funcional y tiene que estar sujeto a un plan de mantenimiento para lograr la funcionalidad del mismo. 6. REFERENCIAS 1. OSORIO ROBLES, Francisco, TORRES ROJOS, Juan Carlos, y SÁNCHEZ BAS, Mercedes. Tratamiento de aguas para la eliminación de microorganismos y agentes contaminantes. Aplicación de procesos industriales a la reutilización de aguas residuales. Editorial Díaz de Santos, sf. 187pp. ISBN 978-847-978-903-9. 2. MUÑOZ CRUZ, Amilcar. (2008).Caracterización y tratamiento de aguas residuales. Tesis de grado en ingeniería industrial. Universidad autónoma del estado de hidalgo, México. 3. TERRY BERRO, Carmen, GUTIERREZ DIAZ, Joaquin, ABO BALANZA, Mario. Manejo de las aguas residuales en la gestión ambiental. Editorial CIGEA, 2010. 121pp. ISBN 978-959-287-023-9 4. DESPAIGNE PEREZ, Reinier Luis. Propuesta de rehabilitación de la planta de tratamiento de agua residual de la universidad Marta Abreu de las Villas. Tesis de grado de ingeniería hidráulica, Universidad Central Marta Abreu de las Villas, Cuba.2016 5. HERNÁNDEZ, Arturo. Manual de depuración Uralita. España, Thompson Learning.2000 6. NOM-001-SEMARNAT-2021. Límites permisibles de contaminantes en las descargas de aguas residuales en cuerpos receptores propiedad de la nación. Mexico. 7. COACALLA-CASTILLO, Carlos Enrique, PAREJA CABRERA, Julio, SUAREZ ORELLANA, Arturo Nicanor. “Indicadores de gestión en el manejo integral de residuos sólidos de la municipalidad de Aymaraes”.Instituto de Información Científica y Tecnológica. Volumen 22,num 3, 2020 8. METCALF & EDDY: Ingeniería de las aguas residual. Tratamiento, vertimiento y reutilización, 3ª. Ed. Madrid. España. 9. CLESCERi, L.S., A. E. GREENBERG y A.D. Eaton editors: Standard Methods for the Examination of Water and Wastewater [libro en CD ROM]. 20th ed. Baltimore, USA: American Public Health Association (APHA), American Water Work Association (AWWA), Water Environment Federation (WEF), 1999. 10. CABEZAS SANCHEZ, David. Diagnóstico del estado actual de la planta de tratamiento de aguas residuales domesticas (PTARD) del aeropuerto el Edén de Armenia título en opción de administrador ambiental, Universidad Autónomo de Ciencias básicas, Santiago de Cali, 2013 11. WHO World Healt Organization. Guidelines for the Safe Use of Wastewater, Excreta and Greywater, 4vol, 3ª.ed, France, 2006. 12. NORMA CUBANA NC: 27: 2012,Vertimiento de aguas residuales a las aguas terrestres y al alcantarillado — especificaciones., 2.edición, octubre 2012 DOWNBURST WIND FIELD SIMULATION USING AN ANALYTICAL MODEL AND A METAHEURISTIC GLOBAL OPTIMIZATION TECHNIQUE Andi Xhelaj1, Massimiliano Burlando2 1,2Department of Civil, Chemical and Environmental Engineering, University of Genoa, Genoa, Italy. 1e-mail: andi.xhelaj@edu.unige.it ABSTRACT Severe diverging thunderstorm outflows, known also as downbursts, can produce surface winds that can potentially threaten civil structures. This damaging wind system occurs in many parts of the world and their knowledge is therefore relevant for structural safety and design wind speed evaluation. Nevertheless, there is not a shared model for downbursts outflows and their actions on structures in codes and standard for civil engineering, yet. This work deals with downburst wind field simulation/reconstruction by means of an analytical model, developed previously by the authors. The model is coupled with a global metaheuristic optimization algorithm called Teaching Learning Based Optimization to evaluate downbursts kinematic and geometrical parameters. The analytical model simulates the horizontal mean wind velocity originated form a travelling downburst. The horizontal wind velocity is expressed as a vector sum of three wind components: the stationary radial velocity generated from an impinging jet over a flat surface, the downdraft translating velocity, which corresponds to the parent cloud motion, and the boundary layer background wind field at the surface where the downburst is embedded. The optimization problem coupled with the analytical model is used to simulate a real severe downburst event that took place in the port area of La Spezia (Italy) on 11 April 2012. The result of the optimization process allows to extract the downburst main parameters – e.g., downdraft diameter, touch-down position, translating downdraft speed and direction, intensity and decay period - in order to determine the physical structure and dimensions of these events. KEY WORDS: Downburst analytical model, metaheuristic optimization algorithm, single-objective optimization, teaching-learning-based optimization, downburst geometric and kinematical parameters. 1. INTRODUCTION The study of thunderstorm downburst winds and their actions and effects on structures has been a dominant topic of the research in wind engineering over the last forty years [1]. Thunderstorms are non-stationary phenomena at the mesoscale, which occur in convective conditions with velocity profiles substantially different from those that are typical of the atmospheric boundary layer (ABL). Design wind velocities with mean return periods greater than 10-20 years are often associated with such phenomena [2]. Between the 1970’s and 1980’s Fujita made key contributions to the understanding of thunderstorms and their scales [3], showing that when the downdraft reaches the ground surface, it produces an intense radial outflow and ring vortices. Fujita called all these air movements “downburst” and divided these phenomena into “macroburst” and “microburst” depending on whether the outflow diameter is greater or smaller than 4 km, respectively [3]. Design wind speed and severe wind damage are often due to thunderstorm outflows, and they have a focal role in structural safety [1]. However, this matter is still affected by huge uncertainties and a shared model of downburst outflows and their actions on structures like the one formulated by Davenport [4] for synoptic cyclones is not available yet. The complexity of thunderstorms makes difficult to establish physically realistic and simple models of these phenomena. Downbursts have a short life cycle, and their small size enables a limited amount of data to be available. Downburst associated loads on structures, depend on a variety of parameters such as the diameter of the downdraft, the relative position between the center of the downburst and the structure, the translation velocity of the parent storm cell and so on. These aspects make the assessment of downburst wind loads very complex and require formulating simplified analytical or empirical models of this phenomenon able to capture their main features. This study is focused on the simulation/reconstruction of the outflow wind field produced by a severe downburst event that took place in the port area of La Spezia (Italy) on 11 April 2012. The simulation of this downburst event is carried out using an analytical model developed by the authors [5] coupled with a global optimization metaheuristic algorithm called Teaching-Learning-Based Optimization (TLBO) [6]. The analytical model can simulate the space-time evolution of the bi- dimensional moving average wind speed and direction produced during a downburst event at a generic height z above the ground level. The combined wind velocity experienced at a point where a downburst passes, is assumed to be the vector summation of three velocity fields, namely the radial impinging jet velocity due to a stationary downburst, the translation velocity of the storm cell and the low-level ABL wind velocity where the downburst winds near the surface are embedded [7]. It is worth noting that the storm motion induces downdraft translation / advection with respect to the ground, while the downburst wind, near the surface, can be perturbed by the presence of the low-level environmental winds. The model, which is composed of 11 parameters that describe the kinematics of the downburst outflow wind, can provide simulations of the time histories of the slowly varying mean wind speed and direction at each point of the computational domain, which can be compared with the anemometric measurements recorded during the passage of real downbursts. Based on the comparison of simulated and measured time series, it is possible to define an optimization problem that aims at finding the model’s parameters which minimize the relative error (i.e., objective function) between the times series. This process is a single- objective, nonlinear and bound-constrained optimization problem. The optimization problem is then solved by the TLBO algorithm which was developed by [6] and constitutes a broad class of metaheuristic algorithms. The word “metaheuristic” was coined by Glover [8], and it is referred to higher-level procedure or heuristic designed to find, generate, or select a heuristic that may provide a sufficiently good solution to an optimization problem [9]. Optimization algorithms that employ metaheuristic methods constitute a modern approach in the scientific method of optimization. Most of the metaheuristic algorithms are based on a metaphor of some natural or man-made process. The TLBO algorithm is used here for global search optimization since it has a stochastic nature and is population based (e.g., it works with a predefined number of solutions defined by the user). Refer to [10] for a detailed explanation of the algorithm. This paper is organized into 5 Sections. After this introductory notes, Section 2 describe the full-scale measurements dataset used in the current study. Section 3 illustrates the optimization algorithm implementation. Section 4 presents the main results of this study. Section 5 summarizes the main conclusions and discuss prospects opened by this research. 2. FULL SCALE MEASUREMENTS The full-scale data used in this paper originates from the two European Projects “Wind and Ports” (WP, 2009-2011) [11] and “Wind, Ports and Sea” (WPS, 2013-2015) [12]. Both projects were carried out by the Giovanni Solari Wind Engineering and Structural Dynamics (GS-Windyn) Research Group of the Department of Civil, Chemical and Environmental Engineering (DICCA) of the University of Genova in cooperation with the harbor authorities of Genoa, Savona, La Spezia, Livorno and Bastia. One of the main objectives of these projects was to establish a statistical database on the various wind conditions in the Ligurian and Tyrrhenian Sea. In total, 28 ultrasonic anemometers (bi-axial and three-axial) have been installed across all ports. The sampling rate of the anemometers is 10 Hz (excluding the anemometers in Bastia, which have sampling rate of 2 Hz) and the anemometers have an accuracy of 0.01 m/s for wind speed and 1° for wind direction. Depending on the harbor, the elevation of the anemometers ranges from 10 to 75 m Above the Ground Level (AGL). In the present work, a severe thunderstorm downburst event detected by the anemometer in the port area of La Spezia on 11 April 2012 is considered. Fig. 1a depicts the location of the anemometer within the port area of La Spezia, whereas Fig. 1b reports the instantaneous and moving average time histories of the recorded wind speed and direction due to the La Spezia downburst. The moving average wind speed and direction is evaluated considering a moving average window of 30 s [13] and is reported here because the analytical model described in this paper can only describe the moving average wind velocity. The instantaneous peak wind velocity associated with the La Spezia downburst was 𝑉𝑚𝑎𝑥 = 32.2 m/s at 10 m Above the Ground Level (AGL). The moving average wind speed, which for simplicity will henceforward be called 𝑉(𝑡), and the moving average wind direction, 𝛼(𝑡), are retrieved according to the directional decomposition rule for thunderstorm outflows provided by [14]. The severe downburst event considered in this document was generated from a thunderstorm cell embedded in a deep convective system known as squall line. This convective system on 11 April 2012 approached the port area of La Spezia at about 07:55 UTC. A brief meteorological analysis and the description of the weather scenarios of the thunderstorms occurred in La Spezia on 11 April 2012 is given in [5]. Figure 1: (a) Geographic position of the anemometer in the port of La Spezia (Italy). (b) La Spezia measurements from 07:25 UTC to 08:25 UTC on 11 April 2012. Top: instantaneous and moving average wind speed; bottom: instantaneous and moving average wind direction. 3. OPTIMIZATION ALGORITHM IMPLEMENTATION The object of this analysis is to estimate the most appropriate value of the different field parameters that are capable to describe the La Spezia downburst (Fig. 1b). An exhaustive description of the analytical model can be found in [5]. Table 1 provides a summary of the parameters on which the analytical model depends and the range of their variation which is useful in defining the domain of the optimization problem. The estimation of these parameters is performed using global metaheuristic optimization algorithm called Teaching Learning Based Optimization. For a detailed explanation of the algorithm refer to [10]. The simulation domain considered in the current work is a square grid of 20 × 20 km2 with an equal grid space in both direction of 25 m. The simulated anemometer that records the passage of the downburst is placed at the center of the simulation domain. Table 1: Analytical model’s parameters: description and lower and upper bound of their variability Model parameters Range of variation 1 Maximum radial velocity 𝑉𝑟,𝑚𝑎𝑥 (𝑚/𝑠) 0 𝑡𝑜 40 2 Downdraft radius 𝑅 (𝑚) 200 𝑡𝑜 2000 3 Dimensionless radial distance from downburst center at which 𝑉𝑟,𝑚𝑎𝑥 occurs: 𝜌 = 𝑅𝑚𝑎𝑥 𝑅 (−) 1.6 𝑡𝑜 2. 6 4 Period of linear intensification 𝑇𝑚𝑎𝑥 (min) 2 𝑡𝑜 15 5 Duration of the downburst event 𝑇𝑒𝑛𝑑 (min) 15 𝑡𝑜 45 6 x-component touchdown location (at 𝑡 = 0) 𝑥𝐶0 (𝑚) −10000 𝑡𝑜 10000 7 y-component touchdown location (at 𝑡 = 0) 𝑦𝐶0 (𝑚) −10000 𝑡𝑜 10000 8 Downburst translational velocity 𝑉𝑡 (𝑚/𝑠) 0 𝑡𝑜 40 9 Downburst translational direction 𝛼𝑡 (deg ) 0 𝑡𝑜 359.9 10 Low-level ABL wind speed 𝑉𝑏 (𝑚/𝑠) 0 𝑡𝑜 40 11 Low-level ABL wind direction 𝛼𝑏 (deg ) 0 𝑡𝑜 359.9 Let 𝑿 = {𝑋𝑖}𝑖=1 11 = {𝑉𝑟,𝑚𝑎𝑥 , 𝑅, 𝜌, 𝑇𝑚𝑎𝑥 , 𝑇𝑓 , 𝑥𝐶0, 𝑦𝐶0, 𝑉𝑡 , 𝛼𝑡 , 𝑉𝑏 , 𝛼𝑏} be the vector which encapsulates the parameters of the model. The chosen objective function corresponds to the minimization of the relative error between the observed and the simulated slowly varying mean wind speed and direction. The relative error (RE) is used here for combining the wind speed error and the wind direction error. The RE, which is also the objective function, is given by: 𝐹(𝑿) = 𝐹𝑊𝑆(𝑿) + 𝐹𝑊𝐷(𝑿) (1) where 𝐹𝑊𝑆(𝑿) is the relative error between the magnitude of the simulated wind speed 𝑉𝑆(𝑡; 𝑿) at time 𝑡 and the recorded wind speed 𝑉(𝑡) at time 𝑡. 𝐹𝑊𝐷(𝑿) is the relative error between the simulated wind direction 𝛼𝑆(𝑡; 𝑿) at time 𝑡 and the recorded wind direction 𝛼(𝑡) at time 𝑡. While is relatively easy to evaluate 𝐹𝑊𝑆(𝑿), the same does not hold for 𝐹𝑊𝐷(𝑿) since the wind direction is a circular variable. Therefore, to evaluate 𝐹𝑊𝐷(𝑿) some concepts of circular statistics have to be applied. Let 𝑽𝑆(𝑿) = {𝑉𝑆1 𝑉𝑆2 … 𝑉𝑆𝑁} be the set of the simulated wind speed data evaluated at the origin of the simulation domain in ∆𝑡 = 1 h and let 𝑽 = {𝑉1 𝑉2 … 𝑉𝑁} be the set of the recorded moving average wind speed data in ∆𝑡 = 1 h relative to the La Spezia downburst. 𝑁 is the total sample of simulated wind speed data present in 1 h. Since the simulation time step in this work is ∆𝑡𝑆 = 1 s, then 𝑁 = 3600 samples. The Relative Error between the simulated and the observed wind speed data is given by: 𝐹𝑊𝑆(𝑿) = ∑ (𝑉𝑆𝑖(𝑿) − 𝑉𝑖) 𝑁 𝑖=1 ∑ 𝑉𝑖 2𝑁 𝑖=1 2 (2) To evaluate the Relative Wind Direction Error 𝐹𝑊𝐷(𝑿), let 𝜶𝑆(𝑿) = {𝛼𝑆1 𝛼𝑆2 … 𝛼𝑆𝑁} be the set of the simulated wind direction data evaluated at the origin of the simulation domain in ∆𝑡 = 1 h and let 𝜶 = {𝛼1 𝛼2 … 𝛼𝑁} be the set of the recorded moving average wind direction data in ∆𝑡 = 1 h relative to the La Spezia downburst. According to the theory of circular statistics, it is possible to show that the Relative Error between the simulated and the observed wind direction is given by: 𝐹𝑊𝐷(𝑿) = 2 𝑁 ∙ ∑{1 − 𝑐𝑜𝑠(𝛼𝑂𝑖 − 𝛼𝑂𝑖(𝑿))} 𝑁 𝑖=1 (3) After the definition of the objective function the decision variable parameters are found by solving the following minimization problem: 𝑀𝑖𝑛𝑛𝑖𝑚𝑖𝑧𝑒 𝐹(𝑿), 𝑋 = {𝑋1, 𝑋2, … , 𝑋𝐷} ∈ Ω ⊆ ℝ 𝐷 𝑠𝑢𝑏𝑗𝑒𝑐𝑡𝑒𝑑 𝑡𝑜 𝑋𝑑 𝐿𝐵 ≤ 𝑋𝑑 ≤ 𝑋𝑑 𝑈𝐵 𝑑 = 1,2, … , 𝐷 = 11 (4) Equation (4) represents a single-objective, nonlinear and bound constrained optimization problem. The minimization problem has 𝐷 = 11 number of decision variable parameters and each parameter has its variable bounds which ultimately define the search space Ω ⊆ ℝ𝐷 where the minimization must be performed (refer to Table 1). The solution of the optimization problem allows to estimate the model parameters 𝑿. The knowledge of these parameters ultimately allows to reconstruct the bi-dimensional moving average wind field at the height of the anemometer and therefore to come up with the simulated time history of the slowly varying mean wind speed and direction for the downburst that occur in La Spezia on 11 April 2012. 4. SIMULATION RESULTS Table 2 shows the value of the parameters that produced the best overall solution using TLBO algorithm for the la Spezia downburst. The values of these parameters allow to reconstruct the downburst time-space evolution through the analytical model. These values are coherent with the values currently found in the literature [15]. Table 2: Parameters estimation of the La Spezia Downburst 11 April 2012 using the TLBO algorithm. 𝑥𝐶0 (𝑚) 𝑦𝐶0 (𝑚) 𝑅 (𝑚) 𝜌 (−) 𝑉𝑟,𝑚𝑎𝑥 (𝑚/𝑠) 𝑇𝑚𝑎𝑥 (min) 𝑇𝑒𝑛𝑑 (min) 𝑉𝑡 (𝑚/𝑠) 𝛼𝑡 (deg ) 𝑉𝑏 (𝑚/𝑠) 𝛼𝑏 (deg ) -1135.60 -2884.44 650.00 2.48 17.12 8.00 40.00 4.00 180.00 3.83 137.45 Fig. 2 shows the time history of the overall best simulation results (i.e., the one that produce the lowest objective function), in terms of the moving average wind speed (Fig 2a) and direction (Fig 2b) compared to the recorded data. The figure shows in a qualitative way the goodness of fit between simulations and full-scale measurements. The simulated mean wind speed follows the recorded wind speed, despite a slight overestimation of the duration of the main peak. The simulated mean wind direction follows with minor detachment the observed wind direction during the ramp up interval (i.e., from 1500 to 2300 s). After this interval, from 1800 to 3000 s, the analytical model simulates the observed direction slightly worse than before. The reason of this discrepancy could be the complex orography of the La Spezia site which can substantially perturb the downburst outflow. The value of the objective function for this case is 𝐹(𝑿) = 0.3597, where a value of 0 indicates a prefect match between simulated and recorded data. The slowly varying downburst mean wind field is reconstructed at the height of the anemometer where the original downburst signal was recorded (the height of the anemometer/station is 10 m). Fig. 3a capture the downburst phenomenon at the time of its maximum intensification, which for the current case is 8 minutes after touchdown (refer to Table 2), while Fig 3b shows the downburst during its decay phase, 4 minutes after the maximum intensification. Figure 2: Time history simulation of La Spezia downburst, 11 April 2012, using the TLBO algorithm. Comparison between simulated and recorded moving average wind speed (a) and direction (b). Figure 3: Wind field simulation of the La Spezia downburst, 11 April 2012, using the TLBO algorithm. (a) Downburst reconstruction at simulation time = 8 minutes; (b) Downburst reconstruction at simulation time = 12 minutes. The red dot indicates the position of the station/anemometer and coincides with the origin of the simulation domain. The blue dashed line indicates the downburst path. 5. CONCLUSION AND PERSPECTIVES This paper proposes a procedure for the simulation/reconstruction of downburst wind field using an analytical model [5] and a metaheuristic optimization algorithm. The proposed metaheuristic algorithm is the Teaching Learning Based Optimization [6, 10]. A space time reconstruction of a downburst that occurred in La Spezia on 11 April 2012 is carried out by coupling the analytical model with the TLBO algorithm. The result of the simulation/ reconstruction and the comparison with the full- scale data confirm the ability of the proposed procedure to match up to a good extend the wind time series. In perspective, as the TLBO algorithm turned out to be fast-performing and accurate enough for its application as an optimization technique to the downburst model proposed in [5], this result paves the way to the application of the model in two different ways. On the one hand, a wide catalogue of downburst events, and related parameters, will be obtained and the statistical analysis of these parameters will enable to perform long term Monte Carlo simulation on downburst events to create, for each parameter, the associated extreme value distribution. These distributions will be used by engineers in the design process for the correct evaluation of downburst wind loading on structures. For example, it will be possible to express the maximum downburst wind velocity as a function of the mean return period, which is a key issue of structural safety and sustainability. On the other hand, the authors will continue studying the uncertainties related to the parameters found using the TLBO algorithm considering different downburst cases. Since the algorithm is stochastic, it is possible to perform a large number of independent runs of a single downburst event and study the variability of the 11 parameters related to the analytical model from a statistical point of view. Acknowledgments. This research is funded by the European Research Council (ERC) under the European Union’s Horizon 2020 Research and Innovation Program (Grant agreement No. 741273) for the project THUNDERR – Detection, simulation, modelling and loading of thunderstorm outflows to design wind-safer and cost-efficient structures – supported by an Advanced Grant 2016. The data used for this research was recorded by the monitoring network set up as part of the European Projects Winds and Ports (grant No. B87E09000000007) and Wind, Ports and Sea (grant No. B82F13000100005), funded by the European Territorial Cooperation Objective, Cross-border program Italy-France Maritime 2007-2013. The authors are deeply grateful to Prof. Giovanni Solari for his essential contribution to the conceptualization of this research. References 1. LETCHFORD, C.W., MANS, C., CHAY, M.T., '' Thunderstorms – their importance in wind engineering (a case for the next generation wind tunnel)''. J. Wind Eng. Ind. Aerodyn., 2012, 90, 1415-1433. 2. SOLARI, G., '' Emerging issues and new frameworks for wind loading on structures in mixed climates ''. Wind Struct., 2014, 19, 295-320. 3. FUJITA, T., ''The downburst: Microburst and macroburst''. SMRP Res. 1985. 4. DAVENPORT, A.G., '' The application of statistical concepts to the wind loading of structures ''. P. I. Civ. Eng., 1961, 19, 449-472. 5. XHELAJ, A., BURLADNO, M., SOLARI,G., '' A general-purpose analytical model for reconstructing the thunderstorm outflows of travelling downbursts immersed in ABL flows ''. J Wind Eng. Ind. Aerodyn. 2020, 207 104373. 6. RAO, R.V., SAVSANI, V.J., VAKHARIA, D.P., '' Teaching–learning-based optimization: a novel method for constrained mechanical design optimization problems ''. Comput. Aided Des., 2011, 43(3), pp. 303–315. 7. BURLANDO, M., '' Downburst outflow reconstruction by wind profile measurements ''. In: Proceedings of the 15th International Conference on Wind Engineering. September 1-6 Beijing, 2019, China, p. A092704. 8. GLOVER, F., M., '' Future paths for integer programming and links to artificial intelligence ''. Computers and Operations Research, 1986, 13, 533-549. 9. BIANCHI, L., DORIGO, M., GAMBARDELLA, L.M., GUTJAHR, W.J.,''A survey on metaheuristics for stochastic combinatorial optimization ''. Natural Computing, 2009, 8 (2): 239-287. 10. XHELAJ, A., BURLANDO, M., ''Application of metaheuristic optimization algorithms to evaluate the geometric and kinematic parameters of downbursts''. J Advances in Engineering Software, 2022, 173(12):103203. 11. SOLARI, G., REPETTO, M.P., BURLANDO, M., DE GAETANO, P., PIZZO, M., TIZZI, M., PARODI, M, '' The wind forecast for safety and management of port areas ''. J. Wind Eng. Ind. Aerodyn., 2012, 104-106, 266-277. 12. REPETTO, M.P., BURLANDO, M., SOLARI, G., DE GAETANO, P., PIZZO, M., '' Integrated tools for improving the resilience of seaports under extreme wind events''. Sustain Cities Soc., 2017, 32, 277-294. 13. SOLARI, G., et al., ''Characteristics of thunderstorms relevant to the wind loading of structures''. Wind and Structures, 2015, vol 20, núm 6, pp. 763-791.14. 14. ZHANG, S., SOLARI, G., BURLANDO, M., YANG, Q., '' Directional decomposition and properties of thunderstorm outflows''. J. Wind Eng. Ind. Aerodyn., 2019, 189, 71-90. 15. HJELMFELT, M.R., ''Structure and life cycle of microburst outflows observed in Colorado''. Journal of Applied Meteorology and Climatology, 1988, vol 27, núm. 8, pp. 900-927. About the authors Andi Xhelaj, Post Doc at University of Genoa. Massimiliano Burlando, Associate Professor of Atmospheric Physics at University of Genoa. DEL SISTEMA DE EDIFICIOS RESIDENCIALES DE FERROCEMENTO, SERF, AL MORTERO ARMADO PREFABRICADO SERMAP. Ing. Gabriel Martínez Licea1, Dr. Ing. Hugo Rafael Wainshtok Rivas2, Dra. Ing. Isel del Carmen Díaz Pérez3, Dra. Ing. Marietta Llanes Pérez4, Dr. Ing Sergio Alfredo Marrero Osorio5 1 Adiestrado, Universidad Tecnológica de La Habana, e-mail gamarlic2709@gmail.com, 2 Profesor Emérito Universidad Tecnológica de La Habana, e-mail hugorwr@gmail.com, hugow@tersla.cujae.edu.cu, 3 Profesora Titular, Universidad Tecnológica de La Habana, email iseldiaz77@gmail.com, 4 Profesora Titular, Universidad Tecnológica de La Habana, email marietta@civil.cujae.edu.cu, 5 Profesor Titular, Universidad Tecnológica de La Habana, email smarrero@mecanica.cujae.edu.cu RESUMEN El Sistema de Edificios Residenciales de Mortero Armado Prefabricado, SERMAP, es un sistema constructivo prefabricado, conformado por elementos acanalados de pequeño espesor, cuyo refuerzo puede estar constituido por barras y mallas de alambres de acero, lo que se conoce como ferrocemento, y también puede estar formado por barras y retículas o cercos de Polímeros Reforzados con Fibras de Vidrio (PRFV). Tiene sus antecedentes históricos en el Sistema de Edificios Residenciales de Ferrocemento, SERF, desarrollado a finales del siglo XX en Cuba, con el que se han obtenido resultados importantes a través de la experiencia constructiva en el país y en Centro América en los últimos 30 años, y que actualmente se continúa desarrollando en la zona de Quintana Roo, México. El estudio de la variante con PRFV se encuentra en un nivel que permite concluir que el sistema SERMAP cumple con los requisitos necesarios para construir viviendas sociales PALABRAS CLAVES: Sistema prefabricado, ferrocemento, PRFV, FROM THE FERROCEMENT RESIDENTIAL BUILDING SYSTEM, SERF, TO THE PRECAST REINFORCED MORTAR SERMAP ABSTRACT The Precast Reinforced Mortar Building System, SERMAP, is a prefabricated construction system, made up of small-thickness elements and canal cross section, whose reinforcement can be formed by bars and steel wire mesh, known as ferrocement, and can be formed also by bars and grids or fences of Polymers Reinforced with Glass Fibers (PRFV). It has its historical background in the Ferrocement Residential Building System, SERF, developed at the end of the 20th century in Cuba, with which important results have been obtained through the construction experience in the country and in Central America in the last 30 years, and which is currently being developed in the area of Quintana Roo, Mexico. The study of the GFRP variant is at a level that allows concluding that the SERMAP system meets the necessary requirements to build social housing KEY WORDS: Precast system, ferrocement, GFRP 1. INTRODUCCIÓN El ferrocemento tradicional, patentado por Josep Monier en el año 1848 y desarrollado por el Arq Ing italiano Pier Luigi Nervi, puede definirse como un material compuesto de mortero y mallas de alambres de acero como refuerzo principal. La distribución y la densidad del acero en la masa de mortero le ofrecen características particulares que permiten la conformación de elementos de pequeño espesor. Esto se debe al mayor control de la fisuración del mortero, lo que garantiza un material estanco e impermeable y de adecuada durabilidad para ser empleado en distintas esferas, entre las que se incluye la vivienda [1]. El ferrocemento ha sido estudiado y utilizado en la construcción de viviendas sociales en distintas partes del mundo, sobre todo en nuestra región América Latina y el Caribe. Esto se debe a su menor costo en relación a los sistemas convencionales de construcción más utilizados en la zona, así como sus indicadores técnicos estructurales comparables al hormigón armado y su resistencia ante las cargas horizontales que generan los eventos climatológicos y sismos [2-5]. En Cuba se inició la construcción de viviendas de ferrocemento en el año 1986, en la provincia de Santiago de Cuba. Las experiencias positivas incentivaron el desarrollo en este sentido, extendiéndose su uso en las provincias de Guantánamo, Camagüey, La Habana y Pinar del Río. En el año 1994 se inicia una segunda etapa en el desarrollo de viviendas de ferrocemento con el estudio y creación del Sistema de Edificios Residenciales de Ferrocemento (SERF), un sistema concebido para conformar todos sus elementos de forma prefabricada. Este fue desarrollado en el Centro de Estudios de Construcción y Arquitectura Tropical (CECAT) de la Universidad Tecnológica de la Habana (CUJAE) por un equipo encabezado por el Arq Emilio Escobar Loret de Mola y el Dr Ing Hugo Rafael Wainshtok Rivas. Al mismo tiempo en esta segunda etapa, el Dr Ing Sergio Marrero diseñó y dirigió la construcción una tecnología semi - mecanizada basada en un equipo vibrocompactador que permitió aumentar la rapidez y eficiencia de la producción de los elementos del sistema [6]. Posterior a esta segunda etapa, se redujo el número de nuevas viviendas con el sistema SERF, debido en lo fundamental a que no se logró montar una línea de producción de mallas de alambres de acero en el país, y en este tiempo cesó su importación. El archipiélago cubano se ubica en la zona del Caribe, clasificada en la máxima categoría de agresividad y, además, la forma alargada y estrecha de la isla provoca que la gran mayoría de los asentamientos se encuentren cercanos al mar. Esta condición, unida al relativo pequeño espesor de los elementos del sistema, afectaría seriamente la durabilidad de la mayoría de las viviendas, si no se emplea la malla de acero galvanizada. No obstante, con el desarrollo y comercialización de las barras y retículas de polímeros reforzados con fibras (PRF), surge una variante de refuerzo que puede sustituir la armadura de acero y con ello eliminar el fenómeno de la corrosión. Los polímeros reforzados con fibras (PRF) son materiales compuestos por una resina que protege a las fibras embebidas en el interior de la matriz. Estos pueden producirse en distintas formas, pero su uso más extendido en la construcción es en forma de barras y retículas para ser empleadas como refuerzo del hormigón .Desde el inicio de su comercialización en el mundo, en la década del 1990, hasta la actualidad, su empleo en la construcción ha ido en incremento debido a las ventajas que presenta el material en comparación al acero: mayor resistencia a la corrosión, mayor resistencia a la tracción, menor peso, lo que facilita la transportación y el trabajo del obrero en la ejecución, permitiendo disminuir tiempos y costos totales; y su comportamiento antimagnético al ser un material que no conduce la corriente [7]. Con relación al precio de estos elementos se menciona que la tendencia anual se dirige a equipararse con el del acero. Por otra parte, tiene debilidades que no pueden ser ignoradas y que constituyen el motivo principal por el cual los especialistas no estiman que este material pueda sustituir completamente al acero en el estado actual: principalmente por no presentar ductilidad, su bajo módulo de elasticidad o menor rigidez, su menor resistencia a esfuerzos cortantes y su menor resistencia ante las altas temperaturas [7]. Ante el panorama actual, un equipo multidisciplinario de ingenieros e investigadores de la CUJAE comenzó el estudio del Sistema de Edificios Residenciales de Mortero Armado Prefabricado (SERMAP). Este sistema comprende actualmente la variante de refuerzo con mallas y barras de acero, SERMAP acero o SERF, y la variante de refuerzo con barras de Polímeros Reforzados con Fibras de Vidrio (PRFV). El objetivo del trabajo es presentar las características del sistema SERMAP, las experiencias constructivas y sus principales ventajas y desventajas. 2. SISTEMA SERMAPacero O SERF Características de los elementos del sistema. Los elementos prefabricados que componen el sistema SERMAP son: los paneles para entrepisos y cubiertas, vigas de cerramento y de zapata, paredes de carga, paredes divisorias y antepechos de ventanas. Los paneles para cubiertas, paredes y entrepisos son elementos prefabricados de sección tipo canal (Figura. 1 y 2) de ancho entre 400 y 500mm y espesor de 25 a 35 mm, con nervios de 80, 120 y 160 mm, de mortero de calidad superior a 30MPa. La variante SERMAP acero o SERF comprende un refuerzo interior formado por barras y cercos de acero, con una o varias capas de tela de malla cuadrada galvanizada con alambres calibre 17 a19 (1,32 -06) mm @ 25mm [1] (Figura 3) a) b) Figura 1: a) losa de cubierta SERMAP. b) Vista 3d panel SERMAP. a) b) c) Figura 2: Secciones de paneles SERMAP para a) entrepisos b) cubiertas y c) paredes. Figura 3: Refuerzo del panel SERMAP acero: barras y cercos de acero, tela de mallas de acero galvanizadas. Los paneles para entrepisos y cubiertas están diseñados para trabajar simplemente apoyados, pudiendo empotrarse o generarse una continuidad, en uno o sus dos extremos si fuera necesario. Estos se apoyan directamente sobre el cerramento, respetando la longitud mínima de apoyo en ambos extremos. Se podrán emplear dos tipos de paneles de cerramento: los que serán usadas en paredes exteriores (Figura 4) y los que se utilizarán en paredes interiores (Figura 5). a) b) Figura 4: Paneles de cerramento en paredes exteriores. a) Sección transversal b) Elemento colocado a) b) Figura 5: Paneles de cerramento en paredes interiores. a) Sección transversal b) Elemento colocado Estos elementos también podrán ser utilizados como vigas zapatas para las paredes del sistema (Figura 6). Figura 6. Viga de cerramento para exteriores. Por su tamaño y ligereza en comparación con los elementos tradicionales de hormigón armado, la instalación de los paneles del sistema puede realizarse manualmente y sólo se requiere de equipo para la elevación del mismo en edificaciones de 2 o más niveles. Elaboración de los paneles El equipo principal que se emplea para conformar los elementos del sistema es una máquina vibro compactadora deslizante sobre un molde fijo (Figura 7). Este consta de una pequeña tolva dentro de la cual se ubica un vibrador de inmersión suspendido por resortes y accionado externamente por un excitador centrífugo. Hasta la fecha, el movimiento de la máquina se ha realizado mediante un cabrestante accionado manualmente, lo cual constituye un proceso semi-mecanizado cuya producción es de aproximadamente 1m de panel por minuto [6]. Figura 7: Máquina vibro-compactadora deslizante. Experiencias constructivas en Cuba En Cuba, La primera experiencia positiva, utilizando los paneles del sistema, fue en el año 1986 con la construcción de 42 viviendas de una y dos plantas a orillas de la desembocadura del río Baconao en Santiago de Cuba, para las familias de un poblado de pescadores (Figura 8). Esta primera comunidad rural de ferrocemento del país se construyó en tres meses, y posteriormente en 1988 se construyó el pueblo de Minas 1 en Cienfuegos (Figura 9). Estas se conservan en buen estado técnico a pesar de los efectos de un medio ambiente agresivo y de las acciones climatológicas y sísmicas [1]. Figura 8: Vivienda SERF pueblo Baconao, Santiago de Cuba. Figura 9: Viviendas SERF pueblo de Minas 1, Cienfuegos. Hasta el presente en Cuba se han empleado los elementos del sistema SERMAP acero o SERF para construir más de 400 viviendas de una, dos y tres plantas, localizadas en los territorios de seis provincias y varias comunidades (Figura 10). a) b) c) d) Figura 10: Viviendas SERF construidas en a) 114 Marianao La Habana b), San José de las Lajas, La Habana c) San Luis, Santiago de Cuba y d) Pinar del Río Experiencias constructivas en la región. En el año 1991 se organizó la transferencia tecnológica del sistema SERF de Cuba a Nicaragua. En un inicio existía desconfianza de los ingenieros locales sobre el comportamiento del sistema ante los sismos y por ello se construyeron pocas viviendas en esta etapa, no obstante, la experiencia positiva extraída de estas mismas viviendas ante la ocurrencia de este fenómeno natural (Figura 11) incentivó la construcción con el sistema SERF en años posteriores. Durante esa etapa, el sistema también se empleó en El Salvador (Figura 12). Figura 11: Vivienda familiar en Nicaragua Figura 12. Promoción de ventas de paneles SERF en El Salvador. Ante las catástrofes y desastres naturales que ocurren en la región, el sistema SERF constituye una respuesta rápida y eficiente para la construcción de módulos habitables de emergencia. Un primer módulo puede ampliarse posteriormente, ya que con el sistema es posible la construcción de viviendas progresivas. En Haití se vivió esta experiencia después del formidable terremoto ocurrido en el año 2010 (Figura 13). Figura 13. Viviendas SERF construidas en Haití. Las experiencias internacionales del uso del sistema SERF son múltiples en Centroamérica y el Caribe. En la actualidad, la dirección apunta hacia México, específicamente Quintana Roo, donde radica la empresa We Care. Los indicadores técnicos – económicos, y las ventajas del sistema SERMAP llamaron la atención de los especialistas de la empresa, y decidieron contratar la tecnología para competir en el mercado contra otros sistemas constructivos utilizados en México. A inicios de este año, 2022, con la asesoría del Dr Ing Sergio Marrero, construyeron una planta para producir los elementos del sistema, incluyendo la máquina vibro-compactadora descrita anteriormente. Desde entonces se está llevando a cabo la producción de los distintos tipos de paneles del sistema (Figura 14). a) b) c) d) Figura 14. a) Paneles de peralto 160mm, b) armado del refuerzo, c) montaje de los paneles de pared, d) fijación de los paneles de pared. El trabajo en conjunto con la empresa We Care está potenciando el desarrollo del sistema SERMAP en esta nueva etapa. La concepción de una vivienda social de alto estándar está ahora al alcance, ya que la empresa también produce la terminación necesaria para completar la vivienda y así entregar una obra llave en mano con una calidad excelente en un tiempo reducido y con costos moderados. Otra de las ventajas, en la esfera técnica, es que en la zona de Quintana Roo se comercializan las barras de pequeño diámetro (4 – 8mm) de alta calidad grado 60: Fy=600MPa, lo cual favorece al sistema SERMAP ya que estos son los diámetros de barras utilizados en el refuerzo de los elementos. 3. SISTEMA SERMAP – PRFV Características del refuerzo La variante SERMAP – PRFV consiste en el empleo de barras y cercos o retículas tridimensionales de PRFV para conformar la armadura de refuerzo de los elementos del sistema (Figura 15). a) b) Figura 15. a) Refuerzo con barras y cercos de PRFV b) Retícula tridimensional de PRFV Las características del refuerzo empleado en el estudio y análisis de los paneles se corresponden con las propiedades designadas por la fábrica rusa Yaroslavl, proveedora de los PRFV que se utilizaron para la conformación de los primeros paneles de este tipo en el CECAT en el año 2020 (Figura 16). a) b) c) Figura 16. a) Refuerzo de los paneles b) Montaje de la armadura en los moldes c) Conformación de los paneles con la máquina vibro – compactadora. En esta primera experiencia se utilizó la retícula tridimensional de PRFV como armadura de refuerzo, en conjunto con las barras rectas de mayor diámetro del mismo material que se unen al extremo inferior de los nervios de la retícula. La rapidez y facilidad en el montaje de la armadura en el molde constituyó un aspecto destacable en comparación con su homólogo con refuerzo de acero. Otra variante de refuerzo es la combinación de los cercos de acero con las barras rectas de PRFV. En esta se aprovecha la ventaja de la ductilidad del acero para conformar los dobleces del cerco, así como su mayor resistencia a cortante, además de las capacidades portantes a tracción y durabilidad de las barras de PRFV. Criterios estructurales - funcionales Después de construidos los paneles prototipos se llevaron a cabo los ensayos a flexión en el laboratorio del CECAT. Entre los resultados obtenidos se destaca, en primer lugar, la buena resistencia a cortante de los elementos en comparación con los cálculos teóricos realizados según la normativa del American Concrete Institute ACI 440 2015 [8], un aspecto positivo ya que este constituye un punto clave en el análisis de los paneles de entrepiso y cubierta reforzados con barras de PRFV. Un segundo resultado importante es que se comprueba que el criterio que rige el diseño de los elementos es la deformación, tal como se estimó a través de los cálculos y en correspondencia con lo expresado en la literatura [7, 9]. A través de los cálculos teóricos se obtiene que, para las cargas normadas para una vivienda, los paneles de entrepiso y cubierta pueden cubrir luces típicas de 3.2m y 3.6m, y en función de las uniones o consideraciones en los apoyos, estas pueden ser incluso mayores de 4 m. La losa conformada por los paneles puede considerarse como un único elemento, ya que las cargas se transmiten a través del efecto llave de cortante que se logra por la forma de las juntas entre los elementos adyacentes [10]. También se analizó el estado límite por vibraciones y los resultados teóricos obtenidos permitieron concluir que por lo general no debe haber problema en este sentido. Pese a la casi nula ductilidad de las barras de PRFV, y por lo tanto, a su poca capacidad de absorción de energía ante cargas sísmicas, no hay limitaciones con respecto a la zona de emplazamiento en Cuba ya que, en las viviendas multifamiliares de hasta cuatro plantas y 10,8m de altura, las cargas gravitatorias serán las que probablemente generen la combinación crítica de solicitaciones actuantes en las uniones, debido en lo fundamental al poco peso de los elementos del sistema [11]. Los paneles de pared, adecuadamente diseñados y conectados entre sí, resistirán las cargas de viento y de sismo que con mayor probabilidad ocurrirán en Cuba durante la etapa de vida de la estructura [12, 13]. A partir del estudio realizado, se conformó un ábaco mediante el cual el proyectista podrá realizar el diseño estructural de los paneles de entrepiso y cubierta. Otros aspectos podrán ser revisados en el catálogo del sistema elaborado en este año. El sistema SERMAP, únicamente reforzado con barras de PRFV no presenta los requerimientos para una vivienda sismorresistente, por lo cual su uso está limitado en zonas con riesgo sísmico de alta magnitud; para estos casos la variante de refuerzo con acero (SERF) e incluso con refuerzo híbrido, acero y PRFV, presenta grandes ventajas [12-15]. La debilidad principal del sistema es el pequeño diámetro de las barras de PRFV y el recubrimiento de mortero insuficiente para proteger el refuerzo en una situación de incendio [16], lo cual obliga a tomar medidas especiales de protección en edificios de viviendas. Otro de los aspectos que se ha criticado desde el punto de vista arquitectónico, es el insuficiente aislamiento térmico y acústico, por lo que deben ser tenidos en cuenta. No obstante las debilidades mencionadas, el punto de vista innovador de analizar el sistema SERMAP no solo como un sistema estructural, si no como un sistema completo con paneles de terminaciones incluidos, invita a revalorar los parámetros de los fenómenos mencionados anteriormente debido a la resistencia a las altas temperaturas que pueden ofrecer estos elementos y a su capacidad de aislamiento acústico y térmico. Impacto ambiental y economía Del pequeño espesor de los elementos del sistema SERMAP, se deduce el ahorro considerable de materiales en comparación con otros sistemas de viviendas. El ahorro de hormigón con respecto al sistema convencional con muros de bloques y losa maciza es aproximadamente del 60% [17]. La producción de hormigón está entre los tres procesos que mayor impacto ambiental genera, de aquí la importancia de reducir el consumo al mínimo indispensable. El impacto del sistema SERMAP reforzado con PRFV durante el ciclo de vida de la estructura se obtuvo a través de los indicadores de demanda de energía acumulada, influencia en el calentamiento global por los gases emitidos y el valor que cuantifica la carga ambiental, Ecopoint. A partir del análisis realizado se demuestra que el sistema SERMAP es una alternativa para la construcción de viviendas que genera menor impacto ambiental que los sistemas constructivos más utilizados en Cuba y es, por lo tanto, un sistema más ecológico. En zonas de muy alta agresividad, el daño ocasionado al medio ambiente puede reducirse a un valor inferior a la mitad si se emplea este sistema [17]. En otro sentido, las barras de PRFV aún tienen un elevado costo de importación en comparación directa con el acero que se produce en Cuba. No obstante, el sistema SERMAP tiene un costo de ciclo de vida inferior al sistema tradicional con bloques de hormigón y losa maciza de hormigón armado con acero, debido en lo fundamental a la reducción del volumen de hormigón con respecto al sistema convencional y al ahorro por mantenimientos y reparaciones por corrosión durante su vida útil [18]. 4. CONCLUSIONES El sistema SERMAP cumple con los requisitos de resistencia, funcionalidad, durabilidad y sostenibilidad para ser empleado como solución para construir viviendas sociales. Su flexibilidad y complemento con las tecnologías de terminaciones permite construir viviendas desde bajo hasta alto estándar. Existe amplia experiencia constructiva del sistema SERF, tanto en Cuba como en el resto de la región, que evidencian su durabilidad y su resistencia ante los desastres naturales, sobre todo su buen comportamiento ante los sismos lo cual teóricamente también está comprobado. Aún no se ha construido una vivienda prototipo completa (paredes, entrepiso, cubierta) con el sistema SERMAP con la variante de refuerzo que consta de barras y cercos o retículas de PRFV, no obstante, los estudios y las investigaciones están en un nivel avanzado y ya el catálogo con las precisiones para el diseño y construcción está elaborado. RECONOCIMIENTOS En conjunto con los autores, este proyecto ha sido desarrollado por un equipo de trabajo de mayor amplitud y se reconoce que sin el esfuerzo y dedicación de cada uno no hubiese sido posible llegar a los resultados alcanzados: Dr. Ing Rene Antonio Puig Martínez, Dr. Ing Nelson Fundora Sautié, Msc Orlando Reyes Viña, Msc Liyen Pérez Quiñonez, Ing Geovanny Alemán Carmenate, Ing Josué Baile Yong, Ing Luis Enrique González Martínez, Ing Amanda Martínez García, Ing Darean Miranda García. Reconocer además a la facultad de Automática y Mecánica de la CUJAE por su aporte al desarrollo del proyecto. REFERENCIAS [1] WAINSHTOK Hugo, Ferrocemento. Diseño y Construcción, 4ta Edición ed. Riobamba Ecuador, 2010, pp. 351 ISBN 978-994-203-302-4. [2] BARRIENTOS Carla Alejandra, "Diseño en ferrocemento de un edificio destinado a vivienda social.," Director: Hernán Arnés. Tesis de Grado, Universidad Austral de Chile, 2004. [3] MECOTT Sildia, "Vvienda bioclimática con paneles modulares de ferrocemento y materiales aislantes alternativos para la ciudad OAXACA, OAX," Director: Felipe de Jesús Cano, Instituto Politécnico Nacional, Oaxaca, 2007. [4] MALPICA Paula Rocío, "Análisis de factibilidad técnica y económica de viviendas sismoresistentes en ferrocemento," Director: Luis Enrique Gil. Tesis de maestría, Universidad Nacional de Colombia, Bogotá, 2017. [5] CARAGUAY Bolivar Eduardo, "Losas prefabricadas de entrepiso y cubierta para viviendas de interés social, utilizando la técnica del ferrocemento y la prefabricación modular.," Director: Bolivar Hernán Maza, Universidad Técnica Particular de Loja, Loja Ecuador, 2018. [6] MARRERO Sergio, LLANES Carlos, and WAINSHTOK Hugo, "Tecnología de prefabricado flexible y resistente a desastres.," presented at the Convención Científica de Ingeniería y Arquitectura, La Habana, 2006. [7] WAINSHTOK Hugo, HERNÁNDEZ Caneiro, and DÍAZ Isel del Carmen, Calidad y Durabilidad de las Construcciones. El Uso de los PRF como como Refuerzo del Hormigón Armado y el Ferrocemento. Cuba, 2017, pp. 206 ISBN 978-959-261505-2. [8] ACI-440.1R. "Guide for the Design and Construction of Structural Concrete Reinforced with Fiber-Reinforced Polymer (FRP) Bars", ed. Farmington Hill EUA: American Concrete Institute (ACI), 2015. [9] NANNI Antonio, DE LUCA Antonio, and JAWAHERI Hany, Reinforced Concrete with FRP Bars. USA, 2014, p. 406 ISBN 9780367864996. [10] MARRERO Sergio and QUIÑONES Liyen, "Joint Simulation With Shear Key And Wedge Effect For Lightweight Precast Slabs," Revista Ciencia y Construcción, vol. 2, no. 4, 2021. [11] DÍAZ AGUIAR Frank, "“Diseño de unión entrepiso-pared ante carga sísmica para el Sistema de Edificios Residenciales”," Directores: Isel del Carmen Díaz y David León. Trabajo de Diploma, Universidad Tecnológica de La Habana José Antonio Echeverría CUJAE, 2022. [12] FUENTES BOUZO Yenma, "Evaluación del Sistema de Edificaciones Residenciales de Ferrocemento (SERF) ante cargas de viento y sismo," Director: Hugo Wainshtok Rivas; Trabajo de Diploma, Instituto Superior Politécnico José Antonio Echeverría CUJAE, La Habana, 2010. [13] PÉREZ GAREZÁLEZ Ernesto, KAIREH YOUSSOUF Awaleh, and DÍAZ VEGA Xiomara, "Edificio multifamiliar antisísmico de 3 niveles de ferrocemento," Aporte Santiaguino, vol. 11, no. 2, 2018. [14] MARTÍNEZ Jorge Julio, "“Estudio de la influencia de la cuantía de refuerzo híbrido de acero y PRFV en la ductilidad de vigas de hormigón armado con el empleo de técnicas de modelación numérica”," Directores: Felix Michel Hernández e Isel del Carmen Díaz; Tesis de Maestría, Universidad Tecnológica de La Habana "Jose Antonio Echeverría" (CUJAE), 2020. [15] BEDOYA Daniel and ÁLVAREZ David, "Comportamiento de viviendas de ferrocemento bajo cargas cíclicas," Revista Ingenierías Universidad de Medellín, vol. 8, no. 15, 2009. [16] DÍAZ Isel del Carmen, "Determinación de la degradación de las resistencias a momento flector y cortante en vigas de hormigón armado con barras de polímeros reforzados con fibras en situación de incendio," Directores: Hugo Wainshtok y Rafael Larrúa; Tesis de Doctorado, Universidad Tecnológica de La Habana José Antonio Echeverría CUJAE, La Habana, 2021. [17] MARTÍNEZ Gabriel, WAINSHTOK Hugo, DÍAZ Isel del Carmen, and MARRERO Sergio, "Impacto Ambiental Del Sistema SERMAP – PRFV Y Su Comparación Con Otros Sistemas De Viviendas," Revista Ciencia y Construcción, vol. 3 no. 1 p. 13, 2022. [18] MARTÍNEZ Gabriel, WAINSHTOK Hugo, DÍAZ Isel del Carmen, and MARRERO Sergio, "Impacto medioambiental y costo del ciclo de vida del sistema SERMAP – PRFV.," in Conciencia ante la Agenda 2030, Matanzas, 2022. GESTIÓN PARA LA REDUCCIÓN DE RIESGOS AMBIENTALES DE LA PRESA YATERAS Y SU IMPACTO EN LOS ECOSISTEMAS Arquimedes Caballero Simonó 1, Maryoris Assef Rodriguez 2, Mayelin González Trujillo3 1y2Empresa de Investigaciones y Proyectos Hidráulicos Santiago de Cuba UEB Guantánamo, Agramontés No. 955. Esq. Emilo Giro. Guantánamo, 3Universidad de Oriente. Facultad de Construcciones. 1arquimedes@gtm.giat.cu RESUMEN Este trabajo se realiza en la presa Yateras, donde el estudio de impacto ambiental consiste en determinar el área de influencia directa de los impactos, para el análisis se tuvieron en cuenta los lími t es físicos- geográficos obtenidos en el Certificado de Microlocalización, que comprende el espacio físico de emplazamiento de los diferentes objetos de obra del proyecto; donde los componentes ambientales son afectados por la construcción y funcionamiento del embalse (ubicación de los terrenos para préstamos, localización de las facilidades temporales, área de inundación en la cuenca y cultivos). Además, se estableció un espacio ambientalmente lógico que permitió analizar la interacción e interdependencia entre l os componentes ambientales y sociales con las acciones del proyecto. Se consideró además, desde el punto de vista hidrológico el curso y caudal de agua del río Yateras, hasta su desembocadura como factor determinante por su importancia ecológica; este constituye un ecosistema frágil de necesaria protección. Su vulnerabilidad radica cuando no lleguen a él, los flujos de caudales necesarios (caudal ecológico) que favorece la alimentación y el hábitat de las especies, donde incidirán el incremento de la interfase agua salada–agua dulce, y los aportes en la sedimentación. El medio socioeconómico y cultural, se ha definido por las afectaciones a los centros poblados que por su jurisdicción territorial y relación socioeconómica actual se convierten en posibles localidades de interacción positiva y/o negativa. PALABRAS CLAVES: cuenca hidrográfica, ecosistema, riesgo ecológico, impacto ambiental, vulnerabilidad. MANAGEMENT FOR THE REDUCTION OF ENVIRONMENTAL RISKS OF THE YATERAS DAM AND ITS IMPACT ON ECOSYSTEMS ABSTRACT This work is carried out in the Yateras dam, where the environmental impact study consists of determining the area of direct influence of the impacts, for the analysis the physical-geographical limits obtained in the Microlocation Certificate were taken into account, which includes the space physical location of the different construction objects of the project; where the environmental components are affected by the construction and operation of the reservoir (location of land for loans, location of temporary facilities, flooding area in the basin and crops). In addition, an environmentally logical space was established that made it possible to analyze the interaction and interdependence between the environmental and social components with the actions of the project. It was also considered, from the hydrological point of view, the course and flow of water of the Yateras River, up to its mouth as a determining factor for its ecological importance; This constitutes a fragile ecosystem that needs protection. Its vulnerability lies when the necessary flows (ecological flow) that favor the feeding and habitat of the species do not reach it, where the increase in the saltwater-freshwater interface and the contributions to sedimentation will affect it. The socioeconomic and cultural environment has been defined by the effects on populated centers that, due to their territorial jurisdiction and current socioeconomic relationship, become possible locations of positive and/or negative interaction. KEY WORDS: ecological risk, ecosystems, environmental impact, hydrographic basin, vulnerability. 1. INTRODUCCIÓN En nuestro país se han construido obras hidráulicas con el fin de conducir, almacenar, proteger y dar servicios para elevar la producción y obtener beneficios económicos y sociales, sin embargo en ocasiones no se tienen toda la percepción del riesgo en prevenir los perjuicios que pudieran estar ocasionado al ambiente físico, biótico, social del entorno de los mismos [1]. Debido a la generación de impactos ambientales negativos que provocan los Proyectos Hidráulicos [2], se hace imprescindible que todos los factores que intervienen en este proceso, consideren la variable ambiental desde la concepción de la idea de un proyecto hasta la operación y mantenimiento, a fin de que estos impactos sean controlados para obtener un desarrollo sostenido del ecosistema donde se ubican estas obras. (Es más fácil y más barato prevenir la degradación del medio ambiente que tratar de repararlas) [3], [4]. De aquí, que este trabajo, tiene como aporte la propuesta de un nuevo estudio de impacto ambiental, con un carácter integrador que permita la reducción de los riesgos ambientales debido a la construcción de la Presa Yateras en los ecosistemas que pertenecen a la cuenca hidrográfica tributaria. Con el mismo, se pretende presentar una investigación que muestre un conjunto de medidas preventivas e integradoras que posibilitare la reducción del riesgo medio ambiental, provocado por la construcción de esta presa en el área tributaria de su cuenca hidrográfica. Centrando en la Conceptualización del Modelo Económico y Social Cubano de Desarrollo Socialista, los Lineamientos de la Política Económica y Social del Partido Comunista de Cuba y la Revolución para el período (2021-2026) y sus ejes estratégicos, sustentado en la Agenda 2030, en el objetivo referido al Plan del Estado para el Enfrentamiento al Cambio Climático (Tarea Vida). 2. CARACTERÍSTICAS DEL ÁREA DE ESTUDIO Ubicación El área objeto de estudio se ubica en la región Oriental de la República de Cuba, provincia Guantánamo, municipio Manuel Tames. Limita al Norte con el asentamiento Vega Grande y al Sur con el poblado Ciro Frías, por el Este con Sierra de Caujerí y por el Oeste con la Sierra Maquey (ver figura 1). El cierre se localiza a unos 30 km de la Ciudad de Guantánamo y a 13 Km del asentamiento Manuel Tames. El eje de la presa se encuentra aproximadamente a unos 1500 m del poblado Ciro Frías. Fig.1. Ubicación de la Ob ra. Principales características físico geográficas del área en estudio Geología El área donde se construirá el embalse Yateras (ver figura 2), desde el punto de vista geológico, pertenece a la región Centro-Oriental de Cuba, la cual se extiende desde Camagüey hasta Guantánamo, siendo sus límites: por el Oeste, la falla geológica Camagüey, en la provincia de igual nombre, por el Este con la punta de Maisí; esta región se caracteriza por estar dividida en bloques que estructuralmente pueden ser tratados como bloques. Fig.2. Esquema de microlocalización para la construcción de la presa Yateras. La presa embalsará 86,0 hm3 y entregará 73,0 hm3 anual en la obra de salida hacia el río Yateras. El área embalsada hasta el Nivel de Agua Máximo (N.A.M) es de 749,76 ha, incluyendo la franja de protección es de 928,30 ha y si se añaden las zonas aguas abajo del cierre y los préstamos, la superficie estudiada alcanza los 1678.06 ha. Litología y tipos de rocas Formación Maquey (mq): formada por alternancia de areniscas, limonitas y arcillas calcáreas de colorgris y margas de color blanco o crema que contienen inter-calaciones de espesores variables de calizas biodetríticas, areniscas y gravelitas de colores blanco. Formación Yateras (yt): compuesta por alternancia de calizas detríticas, biodetríticas y biógenas de granos finos a gruesos, con estratificación fina a gruesa o masiva, dura de porosidad variable, a veces se presentan aporcelanadas que frecuentemente contienen lepidocytina. La coloración por lo general es blanca, crema o rosácea. Su edad es Oligoceno inferior al Mioceno inferior (parte baja). Es la segunda formación por su extensión y ocupa la parte Noroeste. Geomorfología Según la regionalización del relieve cubano que aparece en el Nuevo Atlas Nacional de Cuba [5] elemplazamieto del embalse la presa forma parte de la región Alturas del N E de Cuba Oriental, Meseta del Guaso-Los Montes del complejo orográfico Sagua Baracoa. El relieve es ondulado, por donde corre como arteria principal de la red hidrográfica el río Yateras que forma un valle extenso y abierto con amplias terrazas a diferentes niveles, en ambos márgenes, limitadas por elevaciones con cotas máximas de 300m. Se caracteriza por: llanura acumulativa y erosiva acumulativa, de mediana al titud, plana y ligeramente ondulada la quecoincide con el cauce, plano de inundación (ver figura 3). Montañas pequeñas tectónicas litológicas erosivas de bloque monoclinal, con cimas aplanadas, carsificadas. Alturas tectónicas estructurales de horsty bloquen cadena monoclinales carsificad as. Fig. 3. Foto que muestra la geomorfología de la zona. Características técnicas de la presa De acuerdo con la Regulación de Proyectos No. 001/91 “Categorías de las Obras Hidrotécnicas y probabilidad de los gastos máximos” y en correspondencia con el diseño propuesto, según las normas y regulaciones vigentes, que comprende una presa de materiales locales se clasifica como Categoría III-A. El diseño de la cortina se basa en una sección heterogénea de núcleo de arcilla, 2,0 km de longitud y 45,0 m de altura, con una capa de filtros de 1 m de espesor y 2 m de espaldones a ambos lados, uno con gravas y cantos rodados de caliza y el otro con rajón. Para cortar las filtraciones por la base de la presa, se construirá un dentellón hasta la capa impermeable: capa 4 y capa 3, proponiéndose la protección del talud, entre la corona y la berma en cota 119,7 msnm aguas arriba, que coincide con la cota de la ataguía y una en la cota 107,0 m aguas abajo que favorece la estabilidad de la obra, con cota de corona 144,0 m, ancho de 6 m más un parapeto de 1,20 m. Además, tendrá un Nivel de Aguas Normales (NAN) de 139,0 msnm, Nivel de Aguas Máximas (NAM) de 140,0 msnm, Nivel de Volumen Muerto (NVM) con 120,64 msnm. Abarcará un área de embalse por NAN 6,25 k m2 para un volumen total de embalse de 86,0 hm3, de ellos útiles 65,0 hm3 y volumen muerto 15,0 hm3, lo antes expuesto garantizará una entrega de 73,0 hm3/anual. Tipos de suelos Suelo Pardo con Carbonato: Son los suelos predominantes en el área, teniendo en cuenta el tipo de roca formadora de los mismos, que es la caliza en sus formas suave y dura; dentro de este tipo encontramos suelos con características dísimiles (ver figura 4). En zonas con pendientes más inestables (ondulados o alomadas) presentan elevada gravillosidad y pedregosidad, incluso rocosidad en algunos casos (factores que limitan su empleo agrícola, sobre todo la mecanización y el riego). Son suelos de bajo contenido de materia orgánica, son pocos profundos. Por suposición topográfica y características texturales, son proclives a erosionarse; no obstante, algunas de sus características negativas, pueden tener uso agrícola en la producción de maíz, frijoles, caña y pastos. También se pueden encuentran en el area de estudio, lo que en menor proporción, los suelos Aluvial y Esqueléticos (ver figura 5) Fig. 4. Ejemplo de suelo pardo mullido con carbonato Fig. 5. Gráfico que muestra la distribución de los tipos de suelos. Hidrografía La cuenca del río Yateras se encuentra ubicada en la vertiente Sur, al Este de la ciudad de Guantánamo, en la provincia del mismo nombre. Limita al Norte con la cuenca del río Toa, al Sur con la del Mar Caribe, al Este con la del río Sabana la mar y al Oeste con la del río Hondo. La delimitación de la cuenca está origina da en lo fundamental por varias cadenas montañosas que forman una especie de cinturón a su alrededor, donde pueden encontrarse alturas como las siguientes: por el Este la sierra de Caujerí (640 msnm); por el Oeste la sierra del Maquey (360 msnm) y la meseta del Guaso (810 msnm); y por el Norte la sierra de Falcón. Clima El clima en el área que ocupa el objeto de obra se clasifica según Köppen como clima Tropical de Sabana (AW). Las condiciones climáticas que se presentan poseen características zonales, o sea, se relacionan con la topografía y la vegetación. En esta región se dan los más notables contrastes pluviométricos del clima cubano, teniéndose en la vertiente de barlovento, en las elevaciones del macizo montañoso Sagua– Moa–Baracoa, precipitaciones anuales que superan frecuentemente los 3000 mm, mientras que en las de sotavento, llegan a menudo, a ser inferiores a los 600 mm, en la franja más próxima a la costa de la zona litoral de Maisí–Guantánamo. Tectónica El área de estudio su evolución comienza en el Eoceno Superior está en marcada en una estructura superpuesta, dentro de la fase sub-plata fórmica, dividida en forma de bloques, es un área poligonal irregular, asimétrica en el perfil con mayor profundidad hacia la parte Septentrional, marcada por movimientos de ascensos y descensos que han ocurrido en diferentes épocas, influyendo en la forma de las redes fluviales actuales con cause que se alinean hacia (arroyo Caña), debido a la intensa y profunda erosión que se nota en el cauce de los ríos y depresiones actuales se interrumpen bajo la incidencia de la las fallas y movimientos recientes del (Rio Yateras), limitando hacia el Sur por la Falla longitudinales profundas asociada a la fosa de Bartlett, los que ha determinado en la conformación litológica, geomorfología morfología actual de la región. Sismología En esta región de estudio se encuentra en Zona Sísmica (2-A) Riesgo Sísmico Moderado, Los valores de la aceleración horizontal máxima del terreno para el cálculo serán de 0,15g (147,0cm/s2). Se presentan dos formas de génesis de sismos: la “de entre placas” y de “interior de placas”. Por lo que se considera este territorio como uno de los de mayor peligrosidad sísmica del país, prevaleciendo en esta región la de (entre placa), por ser la que está relacionada con la Falla transcurrente Bartlett-Caiman (Zona Oriental) frontera de dos placas litosfericas que pasa por el Sur de la región oriental considerada como la mayor peligrosidad sísmica en el país con 22 de los 28 sismos ocurrido en Cuba con intensidad igual o superior a (VII grados MSK–EMS). Caracterización de la biota Las características de la vegetación y recursos forestales de estas formaciones se describen a continuación: Bosques siempre verde micrófilo costero y subcostero: se localiza hacia la parte Norte del área de estudio, desarrollado por la influencia de los vientos marítimos, sobre suelos esqueléticos, donde las montañas altas evitan el acceso de los vientos húmedos del Noreste y causan un clima seco local. Está compuesto por gran cantidad de árboles y arbustos xerofíticos, generalmente con espinas u hojas espinoso dentadas. Son abundantes las especies de las familias de las leguminosas y los agaves. El estrato arbóreo tiene entre 5 y 12 m de altura, con una cobertura variable. Matorral xeromorfo costero y subcostero: se localiza hacia el Noroeste del área en estudio; se presenta en calizas costeras sobre suelos esqueléticos. Recibe la influencia directa de los vientos marítimos, que actúan como factor secante. Se caracteriza por ser un bosque arbustoso, xeromorfo, esclerófilo y generalmente semideciduo con dos estratos: el arbóreo, que alcanza una altura de 5 a 8 m y es bastante abierto. El estrato arbustivo es a veces denso y alcanza de 1 a 1,5 m. Vegetación acuática o riparia: se desarrolla dentro de los cursos de agua dulce, en este caso, de los ríos Yateras y San Andrés y los arroyos y cañadas que tributan a estos. Las especies observadas en las orillas son: Gynerium sagitattatum, Arundo donax, Cyperus longus (Ver figura 6). Vegetación secundaria: constituye los restos de bosques y matorrales muy deteriorados por la acción antrópica, pero que aún conservan elementos florísticos importantes. Vegetación secundaria (bosques, matorrales y comunidades herbáceas secundarias): constituye los retos de bosques y matorrales muy deteriorados por la acción antrópica, pero que aún conservan elementos florísticos importantes. Forman parte de ella, las comunidades herbáceas secundarias (ruderales y segetaleso arvense) y la vegetación de la faja del río (ver figura 7). Vegetación cultural (cultivos con focos de pastos): en esta categoría se agrupan los diferentes cultivos, ya sea con focos de pastos o vegetación secundaria). Se localizan generalmente en las zonas llanas, sobre suelos pardos con carbonatos y aluviales. Fig. 6. Ejemplo de vegetación Matorral xeromorfo costero y subcostero. Fig. 7. Ejemplo de vegetación en la franja hidrorreguladora del río Yateras. Fauna Los grupos faunísticos están representados en dependencia de las formaciones vegetales existentes, por tanto, como resultado de la degradación en la vegetación original, importantes poblaciones de vertebrados e invertebrados se han visto afectados, trayendo como consecuencia que la fauna actual sea poco diversa, aunque abundante; los principales grupos representados en el área son: moluscos terrestres y acuáticos, insectos, arácnidos, anfibios, peces, reptiles, aves y mamíferos. 3. AFECTACIONES A LOS ECOSISTEMAS NATURAL Y SOCIAL DE LA ZONA Afectaciones a la vegetación El estado de conservación de la vegetación presenta deterioro, producto a la degradación de la vegetación original y el paso de dos eventos meteorológicos de gran magnitud en el espacio geográfico objeto de estudio. El huracán Matthew y el huracán Irma, este último en el área de estudio, ocasionó daños significativos en la vegetación. Fueron devastadas importantes poblaciones de especies de las diferentes formaciones vegetales y en consecuencia el estado de conservación es bajo. En la trayectoria realizada sólo se reportó una especie endémica regional (granadillo). En el uso actual de la Tierra Las áreas en su generalidad están dedicadas fundamentalmente a la producción ganadera, con importantes extensiones de pastos naturales, en alto grado infectadas con marabú, se debe destacar que las principales afectaciones se corresponden con los suelos idóneos para la siembra de pastos naturales (Leucaena y hierba de Guineas), áreas de cultivos varios, entregas de tierras en usufructos, cultivos temporales como (yuca, boniato, maíz). Afectaciones sociales Como resultado de la ejecución de la obra, se producen afectaciones enmarcadas dentro del Consejo Popular Las Delicias, que según el Anuario Estadístico Provincial, cuenta con una población de 1 033 habitantes, de ellos 542 son hombres y 491 mujeres. En el área afectada residen un total de 238 habitantes, de ellos, 31 son niños que representan el 13% y 207 adultos para un 87% del total de la población. Asentamientos afectados Teniendo en cuenta el área de emplazamiento de la presa y sus objetos de obra, se afecta la población residente en los asentamientos siguientes: El Corojo, Corojito, El Tejar, Rebollar, La Línea y Las Delicias. Afectaciones a viviendas Las afectaciones a las viviendas ocurren, por encontrarse situadas en el área de inundación del embalse (el vaso), así como en zonas donde se van a construir obras auxiliares, (dique de toma, aliviadero, etc) y los movimientos de tierras; también por quedar aisladas e incomunicadas. Según la Dirección Municipal de la Vivienda del Municipio Manuel Tames, el fondo habitacional en el área en estudio, está conformado por 95 viviendas de diferentes tipologías constructivas, encontrándose deficiente el 56% del total de viviendas, en mal estado constructivo 37%, y en buen estado constructivo solo el 7%. En el Consejo Popular existen las infraestructuras sociales siguientes: dos Escuelas Primarias, una Estación Hidrométrica, una Bodega Mixta, Oficina de la Unidad Agropecuaria MININT, un CEPO de inseminación y un microordeño, ambos pertenecientes a la Granja No 8. De la UEB Ganadera. Actualmente los caminos de acceso para los diferentes objetos de obras a construir, están siendo rehabilitados lo que facilitan los trabajos investigativos, previos a la ejecución. Es el caso de los siguientes tramos: -Tramo de 6 km desde el asentamiento Las Delicias hasta la comunidad de Ciro Frías, el que forma parte de la principal vía de comunicación entre este último y el poblado de Manuel Tames. -Tramo de 3 km desde la comunidad de Ciro Frías hasta la comunidad El Corojo. -Tramo de 2 km desde la comunidad El Corojo hasta la comunidad Las Delicias. 4. ÁREA DE IMPACTO SOBRE LOS FACTORES DEL MEDIO AMBIENTAL Definición del área de impactos directos del Proyecto En la determinación del área de influencia directa de los impactos, se tuvieron en cuenta los límites físicos geográficos definidos en el Certificado de Microlocalización aprobado, comprende el espacio físico de emplazamiento de los diferentes objetos de obra del proyecto; donde los componentes ambientales son afectados por la construcción y funcionamiento del embalse (ubicación de los terrenos para préstamos, localización de las facilidades temporales, área de inundación en la cuenca y cultivos) (ver figura 8). Fig. 8. Ubicación del área de influencia. Posibles impactos directos, indirectos y residuales, efectos positivos y negativos, afectaciones reversibles e irreversibles Durante la etapa de acondicionamiento, se generarán un total de 14 impactos negativos, 4 Severos, que representa el 28,5% y 10 Moderados, que representan el 71,4%. Durante la etapa de construcción de la presa, se generan un total de 94 impactos de ellos 90 negativos, 21 de carácter Crítico (22,3%), 35 Severos, que representa el 37,2%, 35 Moderados, que representan el 37,2% y 3 Compatibles, que representan el 3,1%; además se cuantifican 4 de carácter positivo que representan el 4,2%. Durante la etapa de puesta en marcha, se generarán un total de 53 impactos de ellos 33 negativos, 12 de carácter Crítico para un 22,6%, 21 Severos, que representan el 39,6%, 19 Moderados, que representan el 35,8% y 1 Compatible, que representa el 1,8%; 20 de carácter positivo que representan el 37,7%. Los componentes del medio más afectados por el proyecto, por orden jerárquico son los siguientes: En la etapa de construcción: Etapa de funcionamiento o puesta en marcha: Suelo Hidrología Hidrología Vegetación Fauna Fauna Vegetación Población Principales impactos negativos Pérdida del valor agrícola del suelo. Pérdida de suelo por erosión. Disminución de la agroproductividad del suelo. Aumento del proceso de salinización de áreas aguas abajo del embalse. Variación de la calidad de las aguas en los parámetros físico-químicos y bacteriológicos. Elevación de los niveles de agua normales del río Yateras aguas arriba del cierre. Incremento de la interfase agua salada-agua dulce en el río Yateras en período poco lluvioso. Pérdida de la vegetación (pastos, vegetación acuática, secundaria (3 267 árboles de porte alto de ellos 438 frutales y 2 829 forestales). Disminución de ejemplares de Brya ebenus (granadillo) por hectáreas. Cambios en la distribución espacial de las especies de mangle en el tramo inferior del río. Muerte por impacto directo (anélidos, artrópodos, anfibios, reptiles y aves. Los impactos residuales de este corresponden a: Pérdida del valor agrícola del suelo. Surgimiento de un microclima en el área del embalse, específicamente con las variables: temperatura, humedad y precipitaciones. Alteración de las propiedades físico mecánicas de las formaciones Maquey y Río. Alteración de las propiedades físico–químicas y biológicas del suelo. 5. PLAN DE PREVENCIÓN DE IMPACTOS NEGATIVOS Medidas previstas para atenuar o eliminar los efectos adversos Reforestar 380 posturas de Brya ebenus (granadillo) en los alrededores del embalse una vez concluida su construcción. Prohibir la formación de montículos con alturas mayores de 5 m y 15º de pendientes en el área bajo proyecto y durante el movimiento de tierra para disminuir los arrastres de partículas del suelo. Reforestar la faja hidrorreguladora con 130 000 posturas de especies típicas del lugar. Reforestar con 400 ejemplares de especies frutales y 800 maderables típicas del lugar al finalizar la extracción en las áreas de préstamos que queden fuera del vaso del embalse. Realizar estudios de riesgos para situaciones de desastres antes de la puesta en marcha de la obra, para compatibilizar con los intereses de la Defensa Civil Territorial. Presupuesto económico para este fin. Valoración económica La valoración económica de la investigación se realizó mediante el análisis costo-beneficio. Los impactos positivos generarán beneficios ambientales, los que generalmente se traducen en oportunidades económicas directas o indirectas sobre la población y la economía. Resumen general del costo-beneficio Resumen de los costos Resumen de los beneficios 1 425 540,53 y 13 425,69 44 955 754,56 CUP y 71 920,0 CUC El análisis costo–beneficio demuestra la viabilidad ambiental de la construcción del embalse, validando la factibilidad de la ejecución del proyecto. 6. CONCLUSIONES El área afectada alcanza una superficie total de 749,76 ha. Las mayores afectaciones se producen en áreas dedicadas a la ganadería del sector estatal pertenecientes a la Granja No 8. UEB Ganadera Ciro Frías y Unidad Agropecuaria MININT, seguida de los Cultivos Varios. En la estructura actual de la tenencia de la tierra, prevalece el sector estatal (60%) sobre las demás formas de propiedad el privado (23%) y usufructuario (17%). Según las características agroproductivas de los suelos presentes, se afectan en el área del proyecto: 175,29 ha de categoría I, 70,35 de la II, 334,39 perteneciente a la III y 169,73 de la IV. El fondo habitacional a relocalizar de los asentamientos: El Corojo, Corojito, El Tejar, Rebollar, La Línea y Las Delicias asciende a un total de 95 viviendas, de ellas el 56% presenta un mal estado técnico constructivo, el 36% regular y solo el 7% en buen estado Las infraestructuras sociales a reubicar son: dos escuelas primarias, una bodega mixta. Se afectan un total de 11 km de caminos de acceso en buen estado técnico. El tendido eléctrico tiene una valoración de 3 km de afectación. 7. RECOMENDACIONES Con anterioridad al llenado del embalse, debe eliminarse la vegetación y otros obstáculos que puedan afectar la posterior calidad del agua, así como la actividad pesquera. Además, se recogerán y trasladarán los materiales recuperables, y los que no lo sean se extraerán del área. Teniendo en cuenta las características físicas de los suelos, en el área donde se construirá el embalse, así como la topografía existente, es importante el establecimiento de una franja de protección de 100 m todo el perímetro del mismo, formada por árboles para evitar, que el área este desprovista de vegetación y de esta forma proteger el suelo contra la erosión, disminuyendo así los arrastres de materiales que provocarían asolvamiento y, por tanto, la disminución de la vida útil de la obra. 8. BIBLIOGRAFÍA (1) ÁLVAREZ, L. “La estabilidad de cortinas de presas de tierra mediante la solución de los estados tenso-deformacionales y la aplicación de la teoría de seguridad”. Tesis de doctorado, Universidad Central Marta Abreu, Las Villas, Santa Clara, Cuba, 1998. (2) ÁLVAREZ, M. y ÁLVAREZ, L. “Catálogo de las patologías del Embalse Palmarito. Orígenes, causas y recomendaciones para la intervención”. Empresa de Investigaciones y Proyectos Hidráulicos Santa Clara, Villa Clara, Cuba, 2013. (3) ÁLVAREZ, M.; ÁLVAREZ, L.; AZORÍN, R. y HERNANDÉZ, A. “La estabilidad de taludes, experiencias en su análisis y solución en la ingeniería”. En memorias del evento CUBAGUAS 2015, Palacio de las Convenciones, La Habana, Cuba, 2015. (4) AMERICAN INSTITUTE OF STEEL CONSTRUCTION AISC. “Manual of Steel Construction”. United States of America, 1994. (5) ACEVEDO, M. G. “Regionalización Geomorfológica”. En: Nuevo Atlas Nacional de Cuba. Academia de Ciencias de Cuba La Habana. Cuba. 1989. 1 REVISIÓN DEL SISTEMA DE DRENAJE DE UNA OBRA VIAL CON AYUDA DE LA APLICACIÓN INFORMÁTICA HY-8 Caridad Lourdes Hernández Valenzuela1, Gerardo Jiménez Sáenz2 1Universidad Tecnológica de la Habana José Antonio Echeverría (CUJAE), Calle 114 #11901 entre Ciclo vía y Rotonda, Marianao 1e-mail: lourdeshv@civil.cujae.edu.cu 2e-mail: gjimenez@civil.cujae.edu.cu RESUMEN La vida útil de una vía está ligada al funcionamiento del sistema de drenaje, encargado de recolectar, encauzar y disponer las aguas pluviales, evitando daños a la vía y al entorno. El grado de protección que debe brindar el sistema de drenaje depende de la importancia económica y social de la vía, por lo que existe una relación entre la categoría de la vía y la probabilidad de ocurrencia de las avenidas que puedan poner en riesgo la circulación vehicular. La rehabilitación del tramo Underdawn-Naranjito de la vía férrea Habana-Guanajay, concibe el paso de la vía de categoría II a categoría I, lo que supone un aumento en los caudales a evacuar. Actualmente es apreciable el deterioro causado por las aguas superficiales lo que hace necesario evaluar el desempeño del sistema de drenaje para las condiciones actuales y futuras. La modelación del comportamiento hidráulico de las alcantarillas es un proceso complejo donde intervienen múltiples variables, la aplicación informática HY-8 permitió conocer el desempeño de las obras de fábrica para diferentes condiciones de trabajo. Los resultados revelan que sólo tres obras de fábrica de las 9 analizadas son capaces de evacuar los caudales de diseño, sin producir daños a la explanación PALABRAS CLAVES: Drenaje, alcantarilla, comportamiento hidráulico de las alcantarillas. REVIEW OF THE DRAINAGE SYSTEM OF A ROAD WORK WITH THE HELP OF THE HY-8 COMPUTER APPLICATION ABSTRACT The useful life of a road is bound to the operation of the drainage system, in charge of gathering, to channel and to prepare the pluvial waters, avoiding damages to the road and the environment. The protection grade that should offer the drainage system depends on the economic and social importance of the road, for what a relationship exists among the category of the road and the probability of occurrence of the avenues that can put in risk the vehicular circulation. The rehabilitation of the tract Underdawn-Naranjito of the railroad Havana-Guanajay, conceives the step of the road of category II to category I, what supposes an increase in the flows to evacuate. At the moment it is appreciable the deterioration caused by the superficial waters that makes necessary to evaluate the acting of the drainage system for the current and future conditions. The hydraulic performance of culverts is a complex process where multiple variables intervene, the computer application HY-8 allowed to know the acting of the culverts works for different conditions. The results reveal that three culverts of nine are able to evacuate the design flows, without producing damages to the embankment. KEY WORDS: Drainage, culvert, hydraulic performance of culverts. 2 1. INTRODUCCIÓN La vida útil de las obras viales depende en gran medida del funcionamiento del sistema de drenaje, encargado de encauzar las aguas que tributan las cuencas aportantes hacia los cauces naturales o artificiales previstos al efecto. Su función es preservar la vía, el entorno natural y construido, garantizar la continuidad y seguridad de la circulación vehicular durante los eventos meteorológicos que provocan elevadas precipitaciones. El sistema de drenaje superficial está compuesto fundamentalmente por dos elementos: canales y obras de fábrica, garantizando el drenaje longitudinal y transversal respectivamente. Existen múltiples factores que pueden alterar el funcionamiento del sistema de drenaje. Los cambios en el entorno provocados por la acción del hombre o la naturaleza, el deterioro de los elementos componentes por envejecimiento, falta de mantenimiento o actividades inapropiadas dentro de la faja de emplazamiento de la vía, son algunas de las causas posibles. La red ferroviaria nacional es un elemento vital para la economía del país, su rehabilitación y modernización implica enfrentar disímiles retos, entre los que se encuentra el restablecimiento de los sistemas de drenaje de las vías a reconstruir. Con este objetivo hay que considerar la longevidad de las líneas ferroviarias y los cambios que se han producido en las cuencas aportantes relacionados con el uso de los suelos y las características hidrológicas de cada región. La línea Habana-Guanajay, es una doble vía férrea que, dada su importancia económica, fue incluida en el proyecto de rehabilitación de la red ferroviaria nacional. Según la NC 249:2003 ¨Transporte ferroviario. Vías férreas. Clasificación de vías férreas Anexo 1¨, se encuentra entre las vías de categoría II, debiendo pasar a categoría I una vez reconstruida. El presente trabajo centra su análisis en el tramo comprendido entre Underdawn y la estación de Naranjito, en la Habana. Esta parte de la vía no ha sido intervenida aún, la interferencia con redes técnicas y vías urbanas la hacen muy compleja. El estudio realizado parte del Proyecto Ejecutivo para la reparación capital de la línea Habana-Guanajay, con alcance al tramo comprendido entre las estaciones Martí y Naranjito, en la Habana, elaborado en el 2009 por la Empresa de Proyectos de Obras de Transporte (EPOT) a solicitud de la Unión de Ferrocarriles de Cuba (UFC) [1]. A partir del estudio de la documentación técnica y de la inspección visual de la vía, se pudo caracterizar su estado actual, el deterioro de sus elementos y en particular los daños ocasionados por las aguas superficiales. Lo anterior condujo al análisis del sistema de drenaje y a la determinación de los caudales hidrológicos que debía ser capaz de evacuar. El objetivo principal de este trabajo es conocer el comportamiento hidráulico de las obras de fábrica existentes en la vía y evaluar si son capaces de evacuar los caudales hidrológicos previstos según la categoría de la vía actual y futura. 2. CARACTERISTICAS DE LAS CUENCAS Y SU RELACIÓN CON EL TRAZADO DE LA VÍA. La vía atraviesa dos cuencas: la del río Luyanó que vierte sus aguas a la bahía de la Habana y la del río Orengo que es un afluente del río Almendares. La divisoria de las aguas que delimita ambas cuencas coincide con el trazado de la calzada de 10 de octubre. La Figura 1 muestra ambos ríos y sus cuencas. 3 Figura 1: Cuencas de los ríos Orengo y Luyanó. Las investigaciones hidráulicas y geotécnicas, realizadas por la Dirección de Investigaciones Aplicadas de la EPOT en junio del 2009, concluyeron que las condiciones geológicas de la explanación se caracterizan por ser homogéneas e integrada por la formación Capdevila. Litológicamente está constituida por areniscas, limonitas, arcillas, gravelitas, calcarenitas, margas, calizas, grauvacas y conglomerados. Sus depósitos están bien estratificados sobre la formación Apolo, formada por secuencia rítmica de estratos finos a laminares. La litología existente tiene dificultad con el drenaje de las aguas superficiales, que se agrava en las zonas bajas o en corte. Para facilitar el estudio se establecieron tres subtramos, comprendidos desde Underdown (km 2.1) hasta la estación Naranjito (km 6.8) y se adicionó un cuarto tramo no incluido en el proyecto. La Figura 2 muestra la imagen satelital de la vía, destacándose los cuatro subtramos en que fue dividida para su análisis. Figura 2: Representación del tramo de vía comprendido entre Underdown y la estación Almendares. Imagen obtenida con Google Earth Pro La intersección de la vía férrea con Calzada de 10 de octubre, conocida como estación Café Colón, es el punto más alto del perfil con una cota de 48.72 m, a partir de aquí la rasante de la vía desciende hacia ambos extremos: de manera suave hacia Naranjito, con un desnivel de 8.05 m en 1.42 km y abruptamente hacia Underdown con un desnivel de 36.74 m en una longitud de 2.58 km. Por lo que los dos primeros subtramos drenan hacia el río Luyanó y los dos últimos al Almendares. Primer subtramo: Underdown – Concepción Subtramos - Underdown-Concepción. - Concepción-Café Colón. - Café Colón-Naranjito. - Naranjito-Almendares. 4 La vía férrea presenta una sección transversal a media ladera, encontrándose la banda izquierda aguas arriba, por lo que el drenaje pluvial se evacua a través de la cuneta izquierda hacia un cauce natural. La vía atraviesa una zona urbana con manzanas regulares bien distribuidas, intersectando las calles Pocitos, Tejar, Dolores y Concepción, lo que origina 3 cruceros y un paso peatonal. Estas calles están pavimentadas, sus pendientes longitudinales son pronunciadas y actúan como cauces que vierten al drenaje longitudinal de la vía. La Figura 3 muestra de forma esquemática la planta y el perfil de la vía férrea. En las calles Pocitos, Tejar y Dolores existen alcantarillas de una hilera de tubos de hormigón de 0.46 m de diámetro para permitir el paso del agua que fluye por la cuneta izquierda de la vía férrea. No posee drenaje transversal. Las obras de fábrica se enumeraron en el sentido creciente del estacionado, aunque el agua corre en sentido contrario. Las obras de fábrica y sus caudales hidrológicos se muestran en la Tabla 1. Figura 3: Detalle de la planta y el perfil del primer subtramo. Tomado de [1] Segundo subtramo: Concepción-Café Colón. El tramo se caracteriza por ser una zona mayormente rural, con pendientes variables desde suaves a muy fuertes. La vía bordea una elevación conocida como ¨Loma del 5to Distrito¨, atraviesa Avenida Porvenir con un paso elevado y termina en el crucero de la Estación Café Colón. En este trayecto se encuentran secciones transversales a media ladera, en terraplén y en corte, en ese orden siguiendo el estacionado. En los últimos 300 m aproximadamente están urbanizadas las áreas a ambos lados de la vía, pero las calles no vierten a la línea. (Figura 4). Existen 4 alcantarillas para el drenaje transversal de la vía. Las obras de fábrica y sus caudales hidrológicos se muestran en la Tabla 1. 5 Figura 4 Representación del segundo subtramo, imagen obtenida con Google Earth Pro Tercer subtramo: Café Colón-Naranjito. La vía en esta zona se caracteriza por circundar zonas residenciales, la sección transversal se encuentra en terraplén, las pendientes son variables de suaves a medias y predomina la alineación horizontal recta. Cuenta con dos obras de fábricas transversales. (Figura 5). Figura 5 Representación del tercer subtramo Imagen obtenida con Google Earth Pro Cuarto subtramo: Naranjito-Almendares. Este tramo fue rehabilitado desde Almendares hasta el crucero de Vento, quedando pendiente un segmento entre Vento y Naranjito, en el que la alineación horizontal es recta y la pendiente es moderada en dirección a Almendares, no posee obras de drenaje transversal. 3. EVALUACIÓN DEL FUNCIONAMIENTO DE LAS ALCANTARILLAS. La evaluación del comportamiento hidráulico de las alcantarillas debe tener en cuenta la observancia de un conjunto de factores que son determinantes para su buen funcionamiento. En primer lugar, la obra de fábrica debe ser capaz de evacuar el caudal hidrológico que corresponda según la categoría de la vía. En ello intervienen características como la forma, dimensiones y material de que están construidas, la pendiente del conducto y el tipo de entrada que posee. Estos elementos determinan el caudal hidráulico, o sea, el caudal que es capaz de evacuar sin sufrir daños [2]. En segundo lugar, hay que considerar la altura que alcanza el agua a la entrada de la alcantarilla(HW), la que no debe rebasar cierto límite impuesto por razones de seguridad. No es recomendable que la obra de fábrica trabaje a sección llena, ni que el agua alcance niveles que comprometan la superestructura de la vía, por lo que se recomienda emplear el 75% de la capacidad del conducto. En el caso del ferrocarril se fija que el nivel 6 de aguas máximas(NAM), se encuentre 50 cm por debajo de la subrasante, con lo que se protege el terraplén de la acción erosiva del agua [3]. Por último, la velocidad del flujo dentro del conducto debe mantenerse en un rango tal que no erosione las paredes ni se produzca sedimentación. La velocidad máxima depende del material del conducto, para el hormigón es de 3 a 5 m/s y la velocidad mínima aceptada es de 0.25 m/s. A la salida la velocidad del flujo debe limitarse, en función del tipo de suelo, para que no se produzcan procesos de socavación, según el tipo de suelo se acepta como velocidad admisible 1.8 m/s [2]. Aplicación informática HY-8 Para la determinación del comportamiento hidráulico de las alcantarillas se empleó el modelo hidráulico HY8, desarrollado por el Departamento de Transporte de la Administración Federal de Carreteras de Estados Unidos (Federal Highway Administration), FHWA por sus siglas en inglés. Se apoya en la publicación de Diseño Hidráulico de Alcantarillas para Autopistas, tercera edición en el cual se describen todos los métodos empleados en el programa [5]. La información que aporta HY-8 incluye el tipo de flujo, según la definición del servicio Geológico de los Estados Unidos (U.S. Geological Survey), USGS por sus siglas en inglés. Este ha definido 18 tipos de flujo diferentes, partiendo del estudio de tres elementos: sumergencia de la entrada y la salida de la alcantarilla, régimen de flujo dentro del conducto y valor del tirante aguas abajo de la obra de fábrica. El tipo de flujo en la alcantarilla puede variar cuando varía el caudal que esta evacua, lo mismo sucede con la ubicación de la sección de control, por lo que ambas características se asocian al caudal para el que se determinaron [5]. Los datos requeridos incluyen información concerniente al rango de caudales a analizar, características del canal de salida, de la alcantarilla y su emplazamiento, así como de la vía. Los resultados se muestran en forma de tablas y gráficos, donde aparecen los parámetros que caracterizan el comportamiento hidráulico de la alcantarilla para cada valor de caudal analizado. Los gráficos incluyen una vista frontal y una lateral de la obra de fábrica [4] La Figura 6 muestra el corte longitudinal de una alcantarilla, de ella se puede apreciar: TW: Profundidad medida desde la invertida de la salida de la alcantarilla a la superficie del agua(m). HW: Profundidad medida desde la invertida de la entrada de la alcantarilla a la superficie del agua(m). S0: Pendiente longitudinal del fondo (%). D: Abertura del conducto(m). L: Longitud del conducto(m). Los tirantes aguas arriba (HW) y aguas abajo de la obra de fábrica(TW), aparecerán para cada valor de caudal, en el rango de trabajo seleccionado, así como el comportamiento del flujo en el conducto y en el canal salida [6]. 7 Figura 6 Corte longitudinal de una alcantarilla. Las tablas recogen toda la información gráfica e incluyen otros datos de interés como las velocidades y los perfiles de flujo. 4. RESULTADOS OBTENIDOS CON LA APLICACIÓN DEL HY-8 Las cuencas analizadas son inferiores a 50 km2 y las corrientes son intermitentes, por lo que el caudal de diseño se determinó con el empleo del método racional. Se tomaron períodos de retorno de 50 y 100 años, correspondientes a vías de categoría 2 y 1 respectivamente. Los datos principales empleados en el análisis aparecen en la Tabla 1. Características de las obras de fábrica (O.F.) del tramo de estudio. Esta incluye la ubicación en el trazado, forma y dimensiones de la sección transversal, así como los caudales hidrológicos para probabilidad del 1% y del 2%. Todas las alcantarillas son de hormigón, por lo que el coeficiente de rugosidad empleado es el mismo, para cada caso se introdujo cantidad, longitud y pendiente del conducto. Las alcantarillas constan de una sola hilera, excepto la obra de fábrica 9 compuesta por 2 hileras de tubos. Tabla 1: Características de las obras de fábrica del tramo en estudio. Subtramo O.F Ubicación Forma O.F. Tamaño O.F. Q1% (m3/s) Q2% (m3/s) 1 1 Pq. 30+54,50 Circular 0.46 m 15.41 13.10 2 Pq. 31+65.93 Circular 0.46 m 12.51 10.63 3 Pq. 32+83.48 Circular 0.46 m 9.39 7.98 2 4 Pq. 36+54.80 Cuadrada 3m x3m 3.39 2.88 5 Pq. 38+80.00 Cuadrada 1m x1m 1.06 0.90 6 Pq. 40+26.80 Rectangular 1m x0.7m 7.92 6.73 7 Pq. 46+65.80 Cuadrada 2m x2m 3.88 3.30 3 8 Pq. 58+96.10 Cuadrada 2m x2m 16.67 14.17 9 Pq. 61+92.06 Circular 2(0.60 m) 6.84 5.81 Para el caso de estudio, por tratarse de la revisión de las obras de fábrica existentes, todos los datos permanecen constantes excepto el caudal, por lo que se trabajó con un rango de caudales. Se fijó como caudal máximo el correspondiente a la probabilidad del 1% y como caudal de diseño el correspondiente al 2% de 8 probabilidad. Análisis realizado para período de retorno de 50 años. El análisis se realizó atendiendo a la división en subtramos Primer subtramo Los resultados obtenidos para las tres obras de fábrica analizadas aparecen en la Tabla 2 Resultados del primer subtramo. Estos indican que: El caudal hidráulico(QH) es muy inferior al caudal de diseño para una probabilidad del 2 % (Q2%). La elevación del agua a la entrada de la alcantarilla(HW), supera el nivel de aguas máximas admisible (NAM) y a la rasante de la vía, ocurriendo el desbordamiento para caudales inferiores a los de diseño. La altura del agua por encima de la rasante alcanza los valores mostrados en la columna Desbordamiento de la Tabla 2. La velocidad del flujo dentro del conducto se encuentra dentro del rango admisible para el hormigón en los tres casos. La velocidad a la salida de la alcantarilla número 1 alcanza un valor de 2.13 m/s superior a 1.8 m/s que es el valor máximo admisible para el suelo existente, en el resto la velocidad se encuentra en el rango admisible. Tabla 2 Resultados del primer subtramo O.F Caudal de diseño Q2% (m3/s) Caudal hidráulico QH (m3/s) Velocidad Salida (m/s) Desbor- damiento (m) NAM (m) HW para Q2% (m) TW para Q2% (m) Tipo de Flujo 1 13.10 0.26 2.13 0.89 13.80 14.69 1.56 4-FFf 2 10.63 0.22 0.85 1.62 15.70 17.32 2.30 4-FFf 3 7.98 0.29 0.79 1.22 17.65 18.87 2.05 4-FFf Las tres obras de fábrica presentan tipo de flujo 4-FFf, lo que implica que trabajan con control a la salida, la altura del agua tanto a la entrada (HW), como a la salida de la alcantarilla (TW) supera al diámetro de la tubería (entrada y salida sumergidas) y el conducto trabaja a sección llena en toda su longitud, como se ilustra en la Figura 7. Figura 7. Esquema de alcantarilla trabajando con flujo tipo 4-FFf , tomado de [1] Estos resultados son coherentes con lo observado en el lugar donde con frecuencia ocurren inundaciones y el agua fluye sobre la vía férrea provocando severos daños a la infraestructura y a la superestructura. Resultados en el segundo subtramo. La Tabla 3 resume los resultados del segundo subtramo para Q2%. Estos muestran que, de las 4 alcantarillas en análisis, es la número 6 la que presenta el peor desempeño. 9 Esta obra de fábrica debe evacuar un caudal de 6.73 m3/s, para este gasto el caudal hidráulico es de 1.92 m3/s y el máximo caudal que puede evacuar la alcantarilla sin que se sobrepase la subrasante de la vía es de 1.46 m3/s. La velocidad del flujo a la salida (2.36 m/s) es superior a la admisible (1.8 m/s) y la elevación del agua a la entrada de la alcantarilla (29.54 m) supera la cota admisible para la protección del terraplén (28.62 m), por lo que no cumple ninguna de las tres condiciones. El flujo es tipo 4-FFf por lo que coincide con las obras de fábrica 1, 2 y 3. (Figura 3) Por el contrario, en las obras de fábrica número 4, 5 y 7 el caudal hidráulico supera al caudal de diseño. La velocidad en el conducto es adecuada y a la salida es inferior a la permisible. La altura del agua a la entrada de la alcantarilla para el caudal de diseño no supera la cota admisible para la protección del terraplén (NAM), por lo que cumplen las tres condiciones. Ver Tabla 3 Tabla 3. Resultados del segundo subtramo O.F. Caudal de diseño Q2% (m3/s) Caudal hidráulico Qh (m3/s) Velocidad de Salida (m/s) Nivel de agua Entrada HW (m) NAM (m) TW para Qd (m) Tipo de Flujo 4 2.88 2.88 1.4 17.54 22.4 16.83 1-S2n 5 0.9 0.9 1.04 26.15 26.26 25.69 1-S2n 6 6.73 1.92 2.36 29.54 28.62 28.68 4-FFf 7 3.3 3.3 1.29 34.73 38.55 33.92 1-S2n El tipo de flujo es 1-S2n por lo que tienen control a la entrada. La altura del agua a la entrada y a la salida de la alcantarilla es inferior a la altura del conducto, por lo que este trabaja como un canal. La figura 8 muestra este tipo de flujo Figura 8. Esquema de alcantarilla trabajando con flujo tipo 1-S2n , tomado de [1] Resultados del tercer subtramo. En este subtramo existen dos obras de fábrica transversales, cuyos resultados se muestran en la Tabla 4. En ambos casos el caudal hidráulico es inferior al caudal de diseño. La velocidad a la salida es superior a la admisible (1.8 m/s) y la altura del agua, a la entrada de la alcantarilla para el caudal de diseño, supera la cota establecida para la protección del terraplén, por lo que no cumplen ninguna de las tres condiciones. 10 Tabla 4. Resultados del tercer subtramo O.F. Caudal de diseño Q2% (m3/s) Caudal hidráulico Qh (m3/s) Velocidad de Salida (m/s) Nivel de agua Entrada HW (m) NAM (m) Nivel de agua Salida TW (m) Tipo de Flujo 8 14.17 8.75 3.99 45.35 44.50 0.58 5-S2n 9 5.81 1.51 2.54 44.11 43.23 0.67 5-JS1f La obra de fábrica 8 presenta tipo de flujo 5-S2n, lo que implica control a la entrada.La entrada es sumergida y a la salida de la alcantarilla el tirante es inferior a la altura del conducto, alcanzando el valor normal. En el conducto el flujo trabaja a superficie libre, como se ilustra en la figura 9. Figura 9. Esquema de alcantarilla trabajando con flujo tipo 5S2n. , tomado de [5] La alcantarilla 9 presenta tipo de flujo 5-JS1f, por lo que el control es a la entrada, el tirante aguas arriba y aguas abajo supera la altura del conducto, produciéndose un salto hidráulico en su interior. Figura 10 Figura 10. Esquema de alcantarilla trabajando con flujo tipo 5JS1f. , tomado de [5] La evaluación realizada a las alcantarillas partiendo del caudal de diseño correspondiente a un período de retorno de 50 años, demostró que sólo 3 obras de fábrica (4, 5 y 7) pueden evacuar el gasto de diseño sin sufrir daños ni afectar al terraplén. Esto hace que la vía no sea capaz de mantenerse abierta a la circulación de los trenes en caso de que las precipitaciones hagan que se alcance el caudal de diseño para categoría II. 11 Revisión para periodo de retorno de 100 años. Corresponde verificar cual es el comportamiento hidráulico de las obras de fábrica 4,5 y 7 para el caudal de diseño correspondiente a las vías de categoría I, o sea, para un período de retorno de 100 años y probabilidad del 1%. Los resultados obtenidos aparecen en la Tabla 5. Tabla 5. Resultados de las alcantarillas 4,5 y 7 para Q1% O.F. Caudal de diseño Q1% (m3/s) Caudal hidráulico Qh (m3/s) Velocidad de Salida (m/s) Nivel de agua Entrada HW (m) NAM (m) TW para Qd (m) Tipo de Flujo 4 3.39 52.51 1.49 17.62 22.4 16.86 1-S2n 5 1.06 2.08 1.09 26.24 26.26 25.73 1-S2n 7 3.88 23.66 1.36 34.85 38.55 33.96 1-S2n Alcantarilla 4 El caudal hidrológico para el 1% de probabilidad es 3.39 m3/s, para este caudal el agua a la entrada de la alcantarilla alcanza la cota 17.62 m inferior a 22.40 m que es la máxima admisible. La velocidad del flujo al final del conducto es 3.3 m/s inferior a 5 m/s que es la velocidad máxima para el hormigón y en el canal de salida 1.49 m/s inferior a 1.8 m/s. Alcantarilla 5 El caudal hidrológico para el 1% de probabilidad es 1.06 m3/s, para este caudal el agua a la entrada de la alcantarilla alcanza la cota 26.24 m inferior a 26.26 m que es la máxima admisible. La velocidad del flujo al final del conducto es 2.46 m/s inferior a 5 m/s que es la velocidad máxima para el hormigón y en el canal de salida 1.09 m/s inferior a 1.8 m/s. Alcantarilla 7 El caudal hidrológico para el 1% de probabilidad es 3.88 m3/s, para este caudal el agua a la entrada de la alcantarilla alcanza la cota 34.85 m inferior a 38.55 m que es la máxima admisible. La velocidad del flujo al final del conducto es 3.29 m/s inferior a 5 m/s que es la velocidad máxima para el hormigón y en el canal de salida 1.36 m/s inferior a 1.8 m/s. Las tres obras de fábrica son capaces de evacuar el gasto correspondiente al periodo de retorno de 100 años y trabajan con tipo de flujo 1-S2n (Figura 8). En la obra de fábrica 5 la elevación el agua a la entrada(HW) y el NAM practicamente se igualan, por lo que será preciso diseñar medidas de protección del talud para evitar daños al terraplen. Los caudales en m3/s que pueden evacuar las alcantarillas 4, 5 y 7 sin sobrepasar la subrasante de la vía son 52.71, 2.08 y 23.66 respectivamente. Los tres casos superan el caudal de diseño (Q1%), pero en particular la 4 y la 7 presentan un desempeño muy superior al requerido para los caudales hidrológicos estimados, por lo que debe evaluarse la existencia de flujo base y emplear otro método para la estimación del caudal de diseño, que se ajuste a esta condición. 12 5. CONCLUSIONES La rehabilitación de vías férreas existentes en el país, requiere la correcta evaluación de sus sistemas de drenaje. Pronosticar el comportamiento hidráulico de las alcantarillas es un proceso complejo en el que intervienen múltiples variables. La aplicación HY-8 concebida para el diseño de alcantarillas en carreteras permite un acercamiento a la solución de este problema de manera sencilla, siempre que se tengan en cuenta las características propias de las obras ferroviarias, por lo que es una herramienta que puede contribuir a valorar correctamente su funcionamiento. Se aplicó a un caso de estudio y se deja abierto para nuevos análisis y para su incorporación a las asignaturas afines. REFERENCIAS 1. Colectivo de autores. Proyecto Técnico Ejecutivo: Reparación Capital de la Línea Guanajay, Subtramo de Doble vía, Km.2.1 –Km.3.6, Nudo Habana, (2009). Empresa de Proyectos de Obras de Transporte. 2. González Fernández, Hilda. Suárez Reytor, Alfonso Enrique Hidráulica para ingenieros civiles (2010) Universidad de Oriente, Santiago de Cuba. 3. Flores Alfonso, Mario. Curso de diseño de vías férreas. Empresa de Proyectos de Obras de Transporte (2018) La Habana. 4. HY-8 Culvert Hydraulic Analysis Program v.7.7 User´s Manual, (2021) https://www.fhwa.dot.gov/engineering/hydraulics/software/hy8/ 5. D. Schall, James; Thompson, Philip L; M. Zerges, Roger T. Kilgore, Steve; L. Morris, Johnny. Hydraulic design of highway culverts Third Edition, Report No. FHWA-HIF-12-026 HDS 5, (2012). 6. Marbello Pérez, R.(2005).Manual de prácticas de laboratorio de hidráulica.(online)Universidad Nacional de Colombia Sede Medellín Facultad de Minas Escuela de Geociencias y Medio Ambiente https://repositorio.unal.edu.co/handle/unal/21725. SOBRE LOS AUTORES Caridad Lourdes Hernández Valenzuela. Ingeniera Civil. Master en ciencias y Profesora asistente del Departamento de Construcciones de la Facultad de Ingeniería Civil en la Universidad Tecnológica de la Habana José Antonio Echeverría. Pertenece al grupo de Investigación Pavimentos, perteneciente al Centro de Estudios de Construcción y Arquitectura Tropical (CECAT). Gerardo Jimenez Sáenz. Ingeniero civil. Doctor en ciencias y Profesor titular del Departamento de Construcciones de la Facultad de Ingeniería Civil en la Universidad Tecnológica de la Habana José Antonio Echeverría. Pertenece al grupo de Investigación Pavimentos, perteneciente al Centro de Estudios de Construcción y Arquitectura Tropical (CECAT). EL EQUIPAMIENTO EN LAS CARRETERAS PRINCIPALES Y SU NECESARIA PRESENCIA Y FUNCIÓN PARA LA SEGURIDAD Y LA COMODIDAD VIAL Ing. Eduardo Eutiquio Díaz García, PhD1, Ing. Denny Augusto Cobos Lucio MgSc2, Ing. Julio Cesar Pino Tarragó, PhD3 1Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador, 2Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador, 3Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador 1e-mail: eduardo.díaz@unesum.edu.ec 2e-mail: denny.cobos@unesum.edu.ec 3e-mail: julio,pino@unesum.edu.ec RESUMEN El trabajo trata la importancia del equipamiento de las carreteras, se presentan algunas fotos y diagramas ilustrando las acciones que se pueden advertir con antelación a los automovilistas en una Red de Carreteras Principales. La señalización vial se refiere a los dispositivos de control, advertencia, regulación e información que se colocan de manera vertical, en los laterales de la vía o elevadas u horizontal en forma de marcas pintadas o pegadas sobre el pavimento de la vía. Las señales del tránsito y los paneles de información durante el recorrido en un tramo de carretera tienen como objetivo informar de una manera oportuna, rápida, clara e inequívoca sobre lo que el usuario puede o debe hacer en cada momento para su mejor movilidad, seguridad y comodidad, siendo imprescindible asegurar la correcta visibilidad de las mismas. Si las señales no se ven lo suficientemente o están deterioradas se presentan serias dificultades para su legibilidad y aún más para su comprensibilidad y pueden ser la causa principal de lamentables accidentes del tránsito. PALABRAS CLAVES: tránsito, señalización vial, carreteras, seguridad. THE EQUIPMENT ON THE MAIN ROADS AND THEIR NECESSARY PRESENCE AND FUNCTION FOR ROAD SAFETY AND COMFORT ABSTRACT The work deals with the importance of road equipment, some photos and diagrams are presented illustrating the actions that can be warned in advance to motorists in a Main Road Network Road marking refers to control, warning, regulation and information devices that are placed vertically, on the sides of the road or elevated or horizontal in the form of marks painted or pasted on the road pavement. Traffic signs and information panels during the journey on a section of road are intended to inform in a timely, fast, clear and unambiguous way about what the user can or should do at all times for their better mobility, safety and comfort, being essential to ensure correct visibility of them. If the signs are not visible enough or are damaged, they present serious difficulties for their readability and even more for their understandability and can be the main cause of unfortunate traffic accidents. KEY WORDS: traffic, road signs, highways, security. 1. INTRODUCCIÓN Por lo general las normas de diseño que se aplican son aquellas ultimas perfeccionadas y actualizadas, tomando como punto de referencia los trabajos e investigaciones más avanzadas en las técnicas de proyección de carreteras; sin descuidar que no se deben implantar estas por decreto en un momento determinado sin tener presente el desarrollo e idiosincrasia de la sociedad y los recursos económicos que el país puede invertir en las obras de proyecto vial. Se evitarán en los proyectos los puntos en que las características geométricas obliguen a disminuir bruscamente la velocidad, facilitando que las variaciones de velocidad necesarias se produzcan mediante cambios progresivos de los parámetros geométricos y con ayuda de la señalización vial. En cada país y Ecuador no es la excepción, las normas y documentos regulatorios del trazado geométrico de las carreteras están muy bien identificadas y por lo general siempre se exige al Equipo de Proyecto que deben ser respetadas y cumplidas. Las señales del tránsito advierten el peligro con anticipación a los usuarios de las vías. por lo que es recomendable realizar estudios y la inspección técnica sistemática para tomar decisiones a tiempo y poder 2. CATEGORÍAS FUNDAMENTALES: VARIABLES. Comodidad Vial. Determinada por la lisura del pavimento la cual también influye en la seguridad de los automovilistas y tiene un impacto considerable en el período de vida útil de pavimento, el consumo de combustible de los vehículos y sus costos de operación. Seguridad Vial. Sin demeritar otros factores que influyen en la seguridad vial, debe siempre tenerse en cuenta el coeficiente de fricción, el tipo de textura superficial y las irregularidades, teniendo en cuenta que siempre debe tratarse de lograr el mejor contacto neumático - pavimento, durante todo el recorrido del automovilista por un tramo de carretera. Velocidad de circulación. Determinada por el deseo, la necesidad y experiencia de los conductores, teniendo en cuenta las características geométricas de la vía, del tránsito, los dispositivos de señalización vial, el clima y las condiciones del propio vehículo que conduce. Señalización vial. Se refiere a los dispositivos de control, advertencia, regulación e información que se colocan de manera vertical, en los laterales o elevadas sobre la vía y las señales horizontales en forma de marcas pintadas o pegadas sobre el pavimento. 3. LA SEÑALIZACIÓN VERTICAL DE CARRETERAS. Las señales verticales del tránsito tienen como objetivo informar de una manera rápida, clara e inequívoca sobre lo que el usuario de la vía puede o debe hacer en cada momento para su mejor movilidad y seguridad, siendo imprescindible la visibilidad de las mismas. Si las señales no se ven lo suficientemente, los conductores tienen serias dificultades para su legibilidad y aún más para su comprensibilidad. Si la señal vertical pierde visibilidad, se acorta en tiempo y distancia el proceso de percepción del conductor hasta límites peligrosos, que puede conducir a infracciones, maniobras erráticas precipitadas y la puesta en riesgo de la seguridad vial; además de la insuficiencia de la información que realmente se puede llegar a transmitir. Desde el punto de vista funcional, las señales verticales se clasifican según el Código de Circulación Vial en Ecuador como: ➢ Señales de reglamentación: Indican las leyes y reglamentos de tránsito, son por lo general rectangulares con el lado más largo en el sentido vertical, con fondo blanco, orla y letras negras, y el símbolo es de color negro. ➢ Señales de Prevención: Indican condiciones adyacentes a una calle o carretera, que son potencialmente peligrosas para el funcionamiento del tránsito. Tiene forma de rombo y su color es amarillo. Fotografía 1: Señales viales en una amplia intersección entre carreteras principales ➢ Señales de Información: Indican rutas, destinos, direcciones, servicios, puntos de interés, informaciones geográficas, culturales y otras que se consideren importantes. Tienen forma rectangular y su color de fondo es verde Existen una gran variedad de documentos que establecen el número de señales verticales de acuerdo al país, entre los cuales se pueden mencionar, como aparece a continuación varios ejemplos, con la cantidad de señales y categorías que en su debido tiempo se establecieron. ONU 1968: 6 categorías y 217 Señales…. Bolivia 1977: 7 categorías y 181 Señales, OEA 1991: 7 categorías y 285 Señales… Chile 2001: 6 categorías y 320 Señales… EE.UU. 2003: 11 categorías y 806 Señales… España 2003: 7 categorías y 557 Señales…. GMLP. 2004: 7 categorías y 181 Señales… Colombia 2004: 6 categorías y 314 Señales…. Bolivia 2007: 5 categorías y 231 Señales. Estos datos dan una idea de las categorías y cantidades de señales verticales que existen en diversos países y de que no existe una señalización vertical uniforme en cuanto a número y categoría. Por ejemplo, en Europa las señales verticales son comprensibles y por lo general, no contienen texto, para que los habitantes se habitúen solamente a indicaciones mediante símbolos. Esto es así debido a los diferentes idiomas que existen en Europa y el resto del mundo. Es una solución muy convincente que se debería tener en cuenta, en caso que se estableciera un nuevo manual en otros países. Caso contrario ocurre en los Estados Unidos donde por lo general, utilizan un número reducido de señales, la mayor parte son carteles en los que aparece un texto con la respectiva indicación ejemplo: La prohibición de giro hacia la izquierda se indica en una señal con el texto “No LEFT TURN”. En este caso, como todos sus habitantes hablan o pueden interpretar mensajes cortos en inglés y los turistas generalmente también, no es ningún problema que las indicaciones del tráfico sean con texto en inglés, pues no motivan un alarmante caos entre los conductores. En general esta práctica no es posible aplicarla en otros países. 4. VELOCIDADES ADECUADAS PARA LA SEGURIDAD Y LA COMODIDAD DE LOS AUTOMOVILISTAS. Al diseñar una carretera, es preciso decidir para qué velocidad se dimensionan sus elementos geométricos. Un diseño basado en una velocidad solo rebasado, por el 1% de los conductores daría lugar a unos excesivos costos de construcción; pero otro basado en la velocidad media (50%) puede resultar inseguro para los conductores más rápidos y, por tanto, tener unos costos de operación mucho más elevados. Es, por tanto, preciso establecer un compromiso que, en la mayoría de las reglamentaciones, está constituido por la velocidad que solo es superada por el 15% de los vehículos. La utilización de este valor en el diseño proporciona unos parámetros dinámicos adecuados en lo relativo a la obtención de una circulación cómoda y, generalmente, aceptables en lo relativo a la seguridad de la circulación de los vehículos más rápidos. Una gran parte de los accidentes con víctimas, sobre todo las mortales, está relacionada con una velocidad inadecuada, derivada de una estimación incorrecta de la velocidad a que la carretera puede ser recorrida con seguridad. Para esa velocidad influye de manera decisiva la limitación que representan las curvas horizontales, donde la mayoría de los conductores experimentan dificultades para controlar su vehículo si el coeficiente de fricción transversal está por debajo de los valores considerados en el diseño. En cuanto a una visibilidad insuficiente, la mayoría de los conductores no suelen moderar por ella su velocidad, aceptando un riesgo mayor que, en ciertos casos, puede resultar excesivo y muy peligroso. Esta situación requiere dos tipos de actuaciones por parte de la administración vial: ✓ Por un lado, acciones dirigidas a reducir el número de infracciones en lo relativo a los límites de velocidad, que no solo necesitan de una eficaz acción represiva, si no de una credibilidad del riesgo asumido en cada caso concreto. ✓ Por otro lado, disponer de un mayor margen de seguridad en la infraestructura vial, que permita, dado un eventual rebasamiento de los límites de velocidad que no resulte en un lamentable accidente y que, en caso de ocurrir este, tenga consecuencias menores. Rebasar la velocidad permitida puede ser sancionado con una multa o con la retirada del permiso de conducir, pero no con la muerte. ✓ Para velocidades de circulación elevadas se agrava más el problema si la carretera no tiene la necesaria señalización vertical, y carece en muchos sectores de protecciones laterales. Todo lo anterior atenta contra la seguridad y la comodidad de los automovilistas; siendo la situación más crítica cuando circulan en condiciones de lluvia o neblina, pues la textura superficial del pavimento no propicia el mejor contacto neumático – pavimento a altas velocidades de circulación. 5. MANTENIMIENTO DE LAS SEÑALES VERTICALES. Las señales verticales no tienen un tiempo establecido de duración, pero en los manuales de instalación de los dispositivos o reglamentos técnicos, por lo general se encuentra establecido cuando las señales deben ser atendidas. El objetivo del mantenimiento o conservación es procurar que las señales y los elementos estén siempre limpios, visibles, situados correctamente y en la posición adecuada, que sean entendibles para facilitar las maniobras que realicen los conductores y se deben eliminar aquellos avisos o retirar paneles comerciales que distraigan la atención a los conductores. Según el país se puede encontrar diferentes procedimientos de mantenimiento establecidos de acuerdo a sus normas, unos realizan la evaluación y el diagnostico de las señales en un tramo de carretera, para que con los resultados obtenidos puedan darles el debido mantenimiento, otros simplemente realizan lo establecido en los manuales de los dispositivos de carreteras y en otros países tienen actividades que realizan al inicio de la obra, con la colocación de los dispositivos nuevos de señalización y después este aspecto queda desatendido y olvidado. 6. LA SEÑALIZACIÓN VARIABLE EN LAS LLAMADAS CARRETERAS INTELIGENTES. Este tipo de señalización a nivel mundial se presenta como la más novedosa tendencia de nuestro tiempo dado los beneficios que aportan al desarrollo técnico, social y económico de los diferentes países. Una de los aspectos más sobresalientes en el tema es que en las carreteras ya existentes y en explotación se les incorpora una serie de equipos de alta tecnología para mantener informado a los conductores de vehículos de todo cuanto pueda ocurrir a lo largo del recorrido, en tiempo real, de manera que ningún evento los pueda sorprender. Fotografía 2: Tipo de Panel de Control de la velocidad en una carretera principal No se debe hablar de carreteras inteligentes sin mencionar los “automóviles inteligentes” a los que se les han habilitado toda una serie de modificaciones para que los conductores puedan tener a mano toda una serie de herramientas que les permitan viajar con mayor seguridad y se sientan más confiados. Hay que destacar que esta tecnología novedosa se está llevando a cabo fundamentalmente en países más desarrollados de acuerdo a sus posibilidades económicas. Así tenemos como ejemplo La solución tecnológica propuesta por SAICO para una Estación Meteorológica basada en el producto RO.S.A. (Road Surface Analyzer), de la firma finlandesa Vaisasla líder mundial en sistemas meteorológicos de carreteras. . Principales características de la Estación RO.S.A: − C.P.U. para la adquisición, procesamiento y transmisión de datos. − Sensor de temperatura y humedad del aire con carcasa anti radiación. − Conjunto de medidas de velocidad y dirección del viento. − Sensor de visibilidad y tiempo actual. − Detector de precipitación. − Sensor de estado de la superficie de la calzada. − Sensor de la presión atmosférica. − Sensor de radiación solar global. El sistema RO.S.A basa su análisis sobre el estado de la superficie en mediciones meteorológicas y de la calzada, así como en los algoritmos diseñados a partir del conocimiento y experiencias científicos sobre los fenómenos físicos y químicos que se producen en la superficie de la carretera. El siguiente cuadro ilustra las mediciones meteorológicas y de la superficie de la carretera en las que se basa el análisis. R.O.S.A.- ANALIZADOR DE LA SUPERFICIE EN LAS CARRETERAS. Mediciones de la superficie Mediciones Meteorológicas de la carretera. Avisos Análisis estado de la carretera Cálculos - Temperatura del aire. - Humedad relativa. - Punto de formación de rocío. - Velocidad del viento. - Lluvia (si/no). - Intensidad de la lluvia. - Precipitación acumulada. - Presión atmosférica. - Temperatura de la superficie - Temperatura del suelo - Conductividad eléctrica. -Temperatura suplementaria del suelo. - Seco. - Húmedo. - Mojado. - Mojado y Prod. Químicos. - Escarcha. - Nieve. - Hielo. - Productos químicos - Aviso de hielo. - Aviso de escarcha. - Conductividad eléctrica - Aviso de lluvia - Espesor de agua/humedad. - Productos descongelantes. - Temp. de congelación. La Red de Estaciones Meteorológicas de Carreteras supone el paso previo y necesario para la modelación en el centro de control de la preparación de mapas térmicos, es decir, la predicción de la temperatura de la calzada en las carreteras cubiertas por la red de estaciones y la optimación de las rutas de distribución de productos anticongelantes, de otros productos y mercancías de emergencia, así la precisa y oportuna entrega en la cantidad y calidad de los mismos. 7. ¿LAS CARRETERAS INTELIGENTES SERÁN SEGURAS Y CÓMODAS AL CIENTO POR CIENTO? La tecnología aporta información y un conductor bien informado es un conductor mucho más seguro. Al conductor se le da información previa al viaje a través de Internet, teletexto, teléfono, radio durante el recorrido, en tiempo real, sobre las condiciones del tráfico y sus incidencias mediante paneles de mensajes variables. Si ocurre un accidente a 10 kilómetros antes del itinerario, no se va a encontrar nada por sorpresa. En España las carreteras que están equipadas con estos medios son casi inteligentes, pero las carreteras solo podrán ser seguras al 99 %. Si hay una curva y el conductor respeta la velocidad especificad, no habrá problemas. La carretera sólo es culpable cuando hay defectos del trazado, fallos de señalización, de lo contrario “La Carretera podrá ser segura al 99%”. 8. PROTECCIONES LATERALES EN LAS CARRETERAS. Los accidentes del tránsito suponen un drama humano por la cantidad de vidas que se pierden cada año en ellas. Además del daño social y moral que ocasionan los accidentes del tránsito, también se puede hablar de inmensas pérdidas económicas para un país. Por ejemplo, se puede citar en España en el año 1994 el número de víctimas mortales en las carreteras ascendió a 4 082, seiscientos cincuenta y tres menos que en 1993. Las pérdidas para el país alcanzaron los 111518 millones de pesetas. También al año en España se invierten unos 100 millones de euros en la colocación y rehabilitación de las protecciones laterales en las carreteras, mediante barreras y otros elementos de amortiguación principalmente en las intersecciones a nivel y a diferentes niveles. Los costos de los accidentes del tránsito representan aproximadamente unos 10000 millones de euros, es decir, en la protección lateral se invierte solo el 1 % del costo de los accidentes. La cifra es elocuente por sí misma y con una alta rentabilidad y relación costo beneficio. En algunos estudios se consideran que el 40% de los accidentes del tránsito en las carreteras se podrían evitar o mitigar sus daños invirtiendo en estas soluciones para garantizar una protección lateral adecuada durante el recorrido. 9. ILUMINACIÓN DE LAS CARRETERAS. La iluminación artificial de las carreteras es uno de los elementos que influye también en buena medida en la seguridad vial, especialmente si la capacidad de las vías permite un mayor reparto horario de las intensidades del tráfico, incrementándose la circulación nocturna. La falta de iluminación de algunos tramos de carreteras es en gran parte, la causante de los índices de peligrosidad de estas, pudiéndose afirmar por algunos autores que: la probabilidad de causa en que la carretera sea implicada en un accidente con víctimas se multiplica por 2.43 durante la noche cuando la iluminación vial es totalmente insuficiente. Está claro que en las carreteras donde la intensidad horaria nocturna crezca por encima de las diurnas, la instalación del alumbrado público es uno de los factores a tener en cuenta a la hora de llevar a cabo una eficaz gestión de la carretera. REFERENCIAS BIBLIOGRÁFICAS. 1. ANITA, I y otros. (2006) La influencia del estado de la carretera sobre la comodidad de la circulación vial. Informe VII 957 Instituto Nacional Sueco de Vialidad y Transporte. Suecia 2. DÍAZ E.E. (1999) Equipos y procedimientos sustentables para la inspección técnica de carreteras atendiendo a criterios de seguridad y comodidad del tránsito. Tesis Doctoral. Facultad de Ingeniería Civil, ISPJAE. 3. GARCÍA, A. (2008) El apagón de la señalización vertical de carreteras. Tribuna abierta. Revista Rutas. Madrid España. 4. INSTITUTO MEXICANO DEL TRANSPORTE, IMT. (1998) Algunas recomendaciones internacionales para mejorar la seguridad vial en las carreteras. Nota No, 39. Ciudad de México. 5. LACLETA, A. (1994). Conclusiones de las II Jornadas sobre las características superficiales de los pavimentos. Revista Rutas, No. 41. Madrid, España. 6. GARCÍA, A. (2008). El apagón de la señalización vertical de carreteras. Tribuna abierta. Revista Rutas. Madrid España. 7. RECOMENDACIONES E INSTRUCCIONES TÉCNICAS DE CARRETERAS. MTOP, Ecuador. 8. ROCCI, S. (1992). Velocidades inadecuadas. Tribuna abierta. Revista Rutas. Madrid, España. 9. SEÑALES VERTICALES DEL TRÁNSITO. Código de Circulación y Vialidad. Ecuador. 10. SISTEMA SAICO. (2005). Nueva tecnología para estaciones meteorológicas de carreteras. ROSA (Road Surface Analyser ) . Finlandia. 11. XV Pre Congreso Argentino de Vialidad y Tránsito. Resultado de artículo técnico. Boizan, P.E. Buenos Aires, Argentina. sobre los autores: Ing. Eduardo Eutiquio Díaz García, PhD1 (♱) PhD en Ciencias, Anteriormente Docente de la Carrera de Ingeniería Civil, Facultad Ciencias Técnicas, Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador. Ing. Denny Augusto Cobos Lucio MgSc2 Magister en Construcción de Obras Viales, Docente Titular de la Carrera de Ingeniería Civil, Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador. Ing. Julio Cesar Pino Tarragó, PhD3 PhD en Ciencias, Carrera de Ingeniería Civil, Docente Principal II de la Carrera de Ingeniería Civil, Facultad Ciencias Técnicas, Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador. ESPACIOS DE ESTACIONAMIENTO. ANÁLISIS DIAGNOSTICO EN EL MERCADO SAN VICENTE DE LA PROVINCIA MANABÍ Ing. Eduardo Eutiquio Díaz García, PhD1, Martha Johanna Alvarez Alvarez 2 , Glider Nunilo Parrales Cantos3 1Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador, 2Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador, 3Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador 1e-mail: eduardo.díaz@unesum.edu.ec 2e-mail: martha.alvarez@unesum.edu.ec 3e-mail: glider.parrales@unesum.edu.ec RESUMEN En los centros de comercio, producción, educacionales, deportivos, etc. se necesitan espacios donde los usuarios puedan estacionar sus vehículos con comodidad y seguridad sin que generen o reciban afectaciones del tránsito que circula por las vías públicas. Este trabajo trata un caso actual real en el espacio de estacionamiento del mercado San Vicente, centro - norte, Manabí con poca área disponible, donde se utiliza una solución mixta para clientes y trabajadores del centro, generando en la mayoría del tiempo poca rotación de los rectángulos de estacionamiento para los clientes. En este trabajo se propone la ubicación de tres lotes de estacionamiento separados entre sí, de acuerdo a las necesidades de los tipos de usuarios que acuden al mercado. PALABRAS CLAVES: estacionamiento, rotación, rectángulo, pasillo, vehículo PARKING SPACES. DIAGNOSTIC ANALYSIS IN SAN VICENTE MARKET, MANABÍ PROVINCE ABSTRACT In the centers of commerce, production, education, sports, etc. spaces are needed where users can park their vehicles comfortably and safely without generating or receiving damage due to traffic traveling on public roads. This work deals with the current case of the parking of the San Vicente market, with little available area, where a mixed parking lot is used for clients and workers of the center, generating in most of the time little rotation of the parking rectangles for the clients. In this paper we propose the location of three separate parking lots according to the needs of the types of users that come to the market. KEYWORDS: parking, rotation, rectangle, aisle, vehicle. 1. INTRODUCCIÓN 1.1 Espacios para estacionar. Generalidades El área de estacionamientos fuera de la vía pública se puede considerar como un medio para facilitar la circulación, pues la eliminación de esos vehículos de la vía favorece el movimiento de los demás. Si se sitúan los estacionamientos al azar, sin estudios previos del caso es posible que no resuelvan ningún problema y al contrario, pueden crear otros no previstos a la circulación del tránsito. En general las operaciones de tránsito que tienen lugar en un estacionamiento son: 1. Entrada del vehículo 2. Circulación interna por los pasillos de circulación 3. Colocar el vehículo en el rectángulo de estacionamiento 4. Tiempo de estacionamientos según necesidades 5. Retiro del vehículo del rectángulo de estacionamiento 6. Circulación interna por los pasillos de circulación 7. Salida del vehículo Los factores principales a estudiar para ubicar acertadamente una terminal de estacionamiento son los siguientes: 1-. Lugares donde la demanda de estacionamiento excede el espacio disponible 2. Situación y ubicación de los generadores individuales de estacionamiento 3. Tipos más frecuentes de vehículos que estacionarán. 3. Distancia que están dispuestos a caminar los que estacionan sus vehículos 4. Ubicación, entrada y salida de la terminal proyectada con respecto a las vías existentes 5. Horas del día en que tienen lugar las actividades que motivan el estacionamiento en la zona considerada y determinar la hora pico en que suelen necesitar estacionar una mayor cantidad de vehículos. 6. Uso del suelo, áreas verdes, redes técnicas, instalaciones, etc. y cultura de la zona 7. Terrenos que se pueden adquirir, arrendar o usar a un costo razonable para construir y explotar la terminal. 1.2. Elementos de las terminales de estacionamiento El área de una terminal de estacionamiento consta de las siguientes partes: 1. Entradas y salidas de la terminal separadas, que comunican a la misma con la vía pública 2. El espacio abierto cerca de la entrada y salida donde se detienen los vehículos antes de estacionar o retirarse a la vía pública. 3. Los pasillos de circulación, preferentemente con circulación contraria a las agujas del reloj, para los vehículos que utilizarán el estacionamiento. 4. Los espacios para estacionar (rectángulos de estacionamiento). En ellos termina la operación de estacionar el vehículo y comienza la de retiro para abandonar la terminal de estacionamiento. 5. Velar por el acceso prioritario y más cercano a los rectángulos de estacionamiento para que los vehículos ocupados por personas minusválidas puedan estacionar sin mayores dificultades. Esto se logra mediante señales verticales y marcas sobre el pavimento. 6. Elementos de señalización vertical, marcas y pintura sobre el pavimento y contenes para la guía y control de la circulación. 7. Instalaciones de redes técnicas soterradas o aéreas. 8. Áreas verdes, césped y árboles frondosos para la belleza, higiene ambiental y proveer sombra a los vehículos estacionados y sus ocupantes. (No derribando árboles frondosos y respetando lo más posible el medio ambiente). 9. Áreas techadas si fueran necesarias. 10. Garitas o barras giratorias móviles para el control y chequeo de los vehículos a la entrada y salida del estacionamiento 11. Otras facilidades e instalaciones constructivas necesarias para la seguridad y comodidad de los conductores y ocupantes de los vehículos según el caso. 1.3. Otros datos de interés Generalmente, cada caso debe ser estudiado para llegar al mejor diseño y balance del espacio disponible en cuanto a que: en horas pico cada vehículo que llega al estacionamiento pueda en el menor tiempo posible entrar al pasillo de circulación y ubicarse correctamente en el rectángulo de estacionamiento más cercano de acuerdo a su conveniencia. En dependencia de las dimensiones del Vehículo de Diseño, del ángulo de estacionamiento y de las holguras laterales de sobre largo y sobre ancho del vehículo así quedarán definidos los límites y dimensiones del rectángulo de estacionamiento y del número de estos factibles a ubicar en cada zona o espacio libre del estacionamiento que se proyecta. 1.4. Oferta y demanda en los espacios de estacionamiento Se entiende por oferta los espacios disponibles de un estacionamiento tanto en la calle como fuera de ella, en zonas específicas. Para cuantificar la oferta se lleva a cabo un inventario de los espacios disponibles, cercanos al lugar de interés, de las restricciones existentes donde por alguna razón no es posible o está prohibido estacionar. Se entiende por demanda el detalle de la información lograda y acabada en donde se estacionan o prefieren estacionarse los usuarios de las vías. Representa la cantidad necesaria de espacios para estacionar, o el número de vehículos que se cuantifica se desean estacionar con cierta duración o para un objetivo específico. 1.5. Dimensiones del rectángulo de estacionamiento Para calcular el largo y el ancho de un rectángulo de estacionamiento se emplean márgenes laterales, u holguras, que deben quedar entre los vehículos estacionados y entre el espacio del largo limitado por el rectángulo de estacionamiento. Cuando el estacionamiento es de entrada por uno de los extremos, el valor de la holgura longitudinal debe estar entre 0,40 y 0,60 m por ambos lados del vehículo y en este caso no se da holgura adicional en longitud al rectángulo. El largo de un rectángulo de estacionamiento se calcula aplicando: LR = L sen α + A cos α Siendo: LR: Longitud del rectángulo de estacionamiento, medido perpendicular a la dirección del pasillo de circulación L: Longitud del vehículo de diseño y la holgura en longitud si fuera necesaria. A: Ancho del vehículo de diseño, considerando siempre la holgura lateral en ancho, necesaria [por ambos lados del vehiculo. El ancho del rectángulo de estacionamiento se mide sobre la dirección de la línea que define la longitud del lote de los vehículos estacionados y se calcula mediante: AR = A / sen α Los rectángulos de estacionamiento se delimitan con marcas de pintura sobre el pavimento de 0,10 a 0,15 m de ancho, más frecuentes pintados de color blanco, amarillo o naranja. En casos especiales de urbanizaciones o por belleza pueden delimitarse con adoquines, baldosas de colores, hormigón de color, bandas plásticas u otros productos según las iniciativas, recursos y las necesidades específicas del lugar y del espacio de estacionamiento teniendo en cuenta los recursos disponibles, sin descuidar los trabajos sistemáticos periódicos para la conservación de las señales del tránsito, la pintura y marcas sobre el pavimento. 1.6. Dimensiones de los pasillos de circulación en el estacionamiento Los pasillos de circulación deben ser lo suficientemente anchos para que no restrinjan el movimiento de los vehículos. Se recomienda que siempre debe haber una distancia mínima libre de 0.90 m entre los vehículos que transitan por esos pasillos y los que están estacionados o circulando. Se recomienda por tanto un ancho mínimo de pasillo de circulación P = A + 1,80 para la circulación en un solo sentido y de P = 2A + 2,70 cuando la circulación es en dos sentidos, siendo A el ancho en metros del vehículo de diseño. 2. PROBLEMÁTICA El proyecto de estacionamiento mencionado se presenta en el Cantón San Vicente ubicado en el centro - norte de la Provincia de Manabí, donde se localiza el mercado de San Vicente, situado en la zona sur – oeste de dicho cantón sobre la vía San Isidro con coordenadas Sur 0°35’29.45’’, Oeste 80°24’16.84’’ y con 16 metros de elevación sobre el NMM. Este estacionamiento exclusivo para compradores y/o consumidores del mercado San Vicente tiene unas dimensiones de 32,86 metros de largo y 44,30 metros de ancho. Ilustración 1: Mercado San Vicente, Provincia Manabí Fuente: Google Earth El problema principal de este estacionamiento es que no separa el área total de estacionamiento para trabajadores y usuarios que estacionan por poco tiempo, cuando realizan sus compras. Se propone con este trabajo localizar tres lotes separados de estacionamiento: el primero que sea exclusivo para los consumidores que lleguen al mercado a realizar sus compras, el segundo ubicado en la parte exterior, de uso múltiple, es decir para el personal que trabaja en el mercado y personas que visiten el mismo y un tercer lote para la carga y descarga de mercadería. Para lograr una mejor solución en la planeación. Operación y diseño de los rectángulos de estacionamiento se realizaron visitas de recorrido en la zona, entrevistas a usuarios y trabajadores del centro, se analizó la problemática existente, los problemas actuales y ¿cómo? se utiliza el área total para estacionar de forma “mixta”. 3. DISCUSIÓN DEL RESULTADO DIAGNOSTICO Se decidió realizar este trabajo pues se observó poca oferta de espacios de estacionamiento para los consumidores con una demanda superior a las posibilidades reales existentes. Para mitigar esta situación, se recomendó que el estacionamiento sea de uso exclusivo solo para clientes que visitan dicho mercado y que en su parte posterior se disponga la zona de carga y descarga de los productos, para así mitigar la afluencia de vehículos ajenos al centro, evitándose así la molestia que estos pueden causar durante el horario laboral. Esta solución permitirá un funcionamiento adecuado, seguro y cómodo para el estacionamiento. Sin embargo, se debe tener en cuenta que el crecimiento de la demanda y la reducción en la rotación de los rectángulos de estacionamiento pueden experimentar que aun con estas medidas y los esfuerzos en el diseño no se logre la solución definitiva del problema en las horas pico cuando la demanda es mayor y la oferta de rectángulos de estacionamiento puedan resultar insuficientes. Lo anterior comentado sumado a la dificultad económica y la restricción física que representa la ampliación de las partes de estacionamiento, obliga a tomar medidas tendientes a controlar la demanda para mejorar el uso y la rotación, de los rectángulos de estacionamiento, sin tener que recurrir al aumento del área total utilizada como espacio de estacionamiento 4. CONCLUSIONES 1, Se propone una solución que permite optimizar el uso del espacio del estacionamiento exclusivo para compradores sin sacrificar funcionalidad, revisando la distribución y sin aumentar la rotación de los rectángulos de estacionamiento. 2. Con esta una nueva distribución de los espacios de estacionamiento y estableciendo horarios adecuados se puede lograr una oferta mayor del número de rectángulos de estacionamiento, una forma más organizada y se separada de uso del espacio de estacionamiento de compras para los usuarios y de los empleados que realizan acciones de trabajo. 5. RECOMENDACIONES Se recomienda que esta solución se tome en cuenta para beneficiar a las personas que utilizan el mercado, tanto como clientes o trabajadores y de esta forma exista una mayor atracción de consumidores. Con la alternativa propuesta se logra dar un servicio adecuado y que los usuarios que visiten dicho mercado cuenten con un espacio más seguro y cómodo para estacionar. REFERENCIAS: 1. DÍAZ, E (2019). Estacionamientos. Guía de estudio. Asignatura: Proyecto de Obras Viales, 9 no Semestre. Carrera de Ingeniería Civil, UNESUM, noviembre 2018 - marzo 2019, Jipijapa. 2. BURITICA, J. C., & Rodríguez, L. E. (31 de Agosto de 2016). Estudio de capacidad y nivel de servicio de estacionamientos. Obtenido de VITELA Repositorio Institucional: http://vitela.javerianacali.edu.co/handle/11522/7868 3. CEDEÑO, S. J. (2019). Trabajos de campo en el lugar. Entrevistas personales a los usuarios y trabajadores del área de estacionamiento, Cantón San Vicente, Manabí. . 4. INEC, N. (2016). Norma Técnica Ecuatoriana. En C. Caicedo T, E. Quezada, & E. Jaramillo, Accesibilidad de las personas al medio físico. Estacionamientos (págs. 2-8). Quito. sobre los autores: Ing. Eduardo Eutiquio Díaz García, PhD1 (♱) PhD en Ciencias, Anteriormente Docente de la Carrera de Ingeniería Civil, Facultad Ciencias Técnicas, Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador. Martha Johanna Alvarez Alvarez 2 Magister en Riego y Drenaje, Actualmente docente Titular y Coordinadora de la Carrera de Ingeniería Civil, Facultad Ciencias Técnicas, Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador. Glider Nunilo Parrales Cantos3 Master en Administración Ambiental, Actualmente docente Titular de la Carrera de Ingeniería Civil, Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador. PROPUESTA Y APLICACIÓN DE UNA TAREA TÉCNICA EN EL PROYECTO INTEGRADOR DE SABERES, 5 TO SEMESTRE. CARRERA INGENIERÍA CIVIL, MALLA NUEVA. UNESUM. Ing. Eduardo Eutiquio Díaz García, PhD1, Ing. Jaime Adrián Peralta Delgado MgSc2, Ing. Francisco Segundo Ponce Reyes MgSC3 1Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador, 2Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador, 3Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador 1e-mail: eduardo.díaz@unesum.edu.ec 2e-mail: jaime.peralta@unesum.edu.ec 3e-mail: francisco.ponce@unesum.edu.ec RESUMEN En la nueva malla de la Carrera Ingeniería Civil de la UNESUM se imparten en el 5to semestre seis asignaturas relacionadas con la especialidad Ingeniería Vial y se declara un Proyecto Integrador de Saberes (PIS). Es la primera vez que la carrera transita por esta experiencia, donde se imparten conocimientos en tres nuevas asignaturas: Ingeniería de Transito, Diseño y Evaluación de Vías Urbanas y Rurales e Informe Técnico En este trabajo se exponen las etapas y tareas que fueron abordadas para desarrollar con calidad las actividades teóricas y prácticas, lo cual se evidencia por los resultados de enseñanza aprendizaje y el desarrollo de habilidades demostradas por los estudiantes en las diferentes etapas del proceso académico durante y después de finalizado el semestre. PALABRAS CLAVES: tránsito, vías urbanas, ingeniería civil. PROPOSAL AND APPLICATION OF A TECHNICAL TASK IN THE INTEGRATING KNOWLEDGE PROJECT, 5 TO SEMESTER. CIVIL ENGINEERING CAREER, NEW MALLA. UNESUM. ABSTRACT In the new network of the Civil Engineering Career of UNESUM, six subjects related to the specialty Road Engineering are taught in the 5th semester and a Knowledge Integrating Project (PIS) is declared. It is the first time that the career passes through this experience, where knowledge is imparted in three new subjects: Traffic Engineering, Design and Evaluation of Urban and Rural Roads and Technical Report In this work the stages and tasks that were approached to develop Theoretical and practical activities with quality, which is evidenced by the teaching-learning results and the development of skills demonstrated by the students in the different stages of the academic process during and after the end of the semester. KEY WORDS: traffic, urban roads, civil engineering. 1. INTRODUCCION. En la nueva malla de la Carrera Ingeniería Civil, UNESUM se imparten en el 5 to semestre seis asignaturas: Geología. Mecánica de Suelos. Diseño y Evaluación de Vías Urbanas y Rurales. Diseño y Organización de Obras Viales. Ingeniería de Transito e Informe Técnico. Todas relacionadas con el perfil de la Especialidad Ingeniería Vial, concebidas y ubicadas en la nueva malla como la última oportunidad en que los estudiantes conocerán y aplicarán en un Proyecto Integrador de Saberes, PIS, temas de la Especialidad Vial. Es la primera vez que la carrera transita por esta experiencia, donde se imparten conocimientos en tres nuevas asignaturas: Ingeniería de Transito, Diseño y Evaluación de Vías Urbanas y Rurales e Informe Técnico y se desarrolla en el semestre un Proyecto Integrador de Saberes (PIS) con el título: Diseño y evaluación de vías rurales y urbanas en el sector urbano y rural, asignado a la asignatura Diseño y Evaluación de Vías Urbanas y Rurales. Fue necesario emprender y poner en práctica una serie de ideas que hicieran posible cumplir con el PIS, considerando el objetivo de “lograr la mayor integralidad horizontal posible entre las asignaturas que se imparten en el 5 to semestre de la carrera de Ingeniería Civil”, considerando un Estudio de Caso Real con tareas posibles a resolver en cada una de las asignaturas y en el PIS, teniendo en cuenta la base documental, los recursos humanos, materiales y el tiempo de trabajo efectivo programado en el semestre. 2. PREMISAS INICIALES PARA CONCEBIR LA TAREA TÉCNICA. Conocer la nueva malla, asignaturas, encadenamiento vertical, su interrelación horizontal y vertical en la Especialidad de la Ingeniería Vial. Elaborar los sílabos de nuevas asignaturas: Ingeniería de Transito, Diseño y Evaluación de Vías Urbanas y Rurales e Informe Técnico, teniendo en cuenta los objetivos del Proyecto Integrador de Saberes. Preparar e impartir a los docentes y alumnos una Conferencia Introductoria al Proyecto Integrador de Saberes. Realizar antes del inicio del semestre al menos 2 reuniones de trabajo con los docentes designados por asignatura. Orientar la dinámica de cada asignatura hacia el Proyecto Integrador de Saberes y las posibles tareas a programar y ejecutar. Considerar y alertar sobre la ubicación del Proyecto Integrador de Saberes en la malla nueva, previendo la dificultad relacionada con materias afines en la Especialidad Ingeniería Vial que aún no conocen los estudiantes. Ejemplo: la asignatura Pavimentos. Elaborar, aplicar y procesar los datos de una Encuesta a los estudiantes al finalizar el semestre. Falta de las cartas topográficas impresas a diferentes escalas y de otros medios Carencia de suficientes equipos de Topografía y del espacio y todo el equipamiento necesario para los ensayos en el Laboratorio de Mecánica de Suelos. Duración del tiempo de enseñanza aprendizaje en el semestre (semestre corto). Tener en cuenta los criterios, la forma y enfoque de los trabajos y ¿cómo? se han considerado y desarrollado por los docentes y estudiantes los casos de Proyecto. Integrador de Saberes en los semestres anteriores a este donde se propone comenzar sobre la base de tener bien definida y elaborada y aprobada una buena Tarea Técnica. 3. TAREA TECNICA. TRABAJOS REALIZADOS EN EL PROYECTO INTEGRADOR DE SABERES. Realizar recorridos iniciales de campo por las vías urbanas y suburbanas de Jipijapa. Decidir como objetivo principal a resolver el Caso Estudio Avenida Alejo Lascano y sus intersecciones a nivel (7) desde la Calle Ricaurte hasta la Calle Febres Cordero en una longitud de 649,92 m. Decidir y armar los grupos de trabajo de estudiantes en cada paralelo, 3 en 5to semestre A1 y 4 en 5to semestre A2. Se exigió que estos no estuvieran integrados por más de 4 estudiantes. Elaborar documento técnico para realizar el levantamiento topográfico con cinta en el Caso Estudio de la intersección a nivel. Realizar trabajos de campo relacionados con el tránsito en cada acceso y en el área principal de maniobra de la intersección a nivel, para: Realizar el conteo clasificado del tránsito, determinar la intensidad de transito horaria, la velocidad promedio km/h y el tiempo promedio de recorrido, minutos. Utilizar factores de equivalencia para expresar la intensidad en autos /hora. Determinar la intensidad futura del tránsito al cabo de 15 años Determinar en el área de maniobra de la intersección para el transito actual y futuro el número de conflictos del tránsito: cruces, convergencia y divergencia. Revisar la solución actual de revuelta de contén en la intersección para el vehículo de diseño auto. Elaborar la maqueta de la intersección diseñada, a Escala 1: 100, con exhibición y sustentación de la solución en la Casa Abierta celebrada el jueves 7 y el viernes 15 de febrero de 2019. Chequeos parciales del trabajo durante la elaboración del Proyecto Integrador de Saberes y de la entrega su Informe Final. Elaborar y sustentar trabajos referenciales relacionados con los temas siguientes: Educación vial, Seguridad vial, Auditorias Viales, Características Superficiales del Pavimento, Equipos de medición de Alto Rendimiento y La Asociación de los Congresos Mundiales de Carreteras AIPCR, PIARC. Elaborar, aplicar y procesar los resultados de una encuesta aplicada a los estudiantes. 4. ENCUESTA APLICADA A LOS ESTUDIANTES. UNESUM, Carrera de Ingeniería Civil. 5to semestre A1 y A2. nov – mar 2019 ENCUESTA En una escala de 0 a 10 puntos califique cada uno de los ITEM relacionados con la asignatura Diseño y Evaluación de Vías Comunicación y el Proyecto Integrador de Saberes Diseño y Evaluación de Vías (PIS) en el sector urbano y rural. 1. Se impartieron los conocimientos de la asignatura y del PIS con motivación, profesionalidad, calidad, citando ejemplos y mostrando esquemas, gráficos y tablas claros y comprensibles _______ 2. Se pudieron aplicar en la práctica real y en el PIS los conocimientos adquiridos en las materias afines.______ 3. La intersección a nivel en la vía Caso Estudio es real y los análisis de Diseño Geométrico y de Ingeniería de Tránsito realizados los considero de importancia, útiles y necesarios como futuro Ingeniero Civil.______ 4. El lugar donde se realizaron los trabajos de medición, revisión de la intersección a nivel y propuesta de diseño al cabo de 15 años en el PIS es importante_____ accesible____ seguro____ adecuado____ de interés ____ con posibles beneficios para la comunidad____ y amerita continuar aportando con esta experiencia y aplicar estos trabajos en otras vías______ 5. Apliqué en la maqueta de la intersección a nivel los conocimientos adquiridos_____ y sentí orgullo al poder mostrar y sustentar la solución en la Casa Abierta al contestar las preguntas de los visitantes_______ 6. Alcancé a tiempo los conocimientos de las materias afines para resolver las etapas y entregas parciales durante la solución del PIS______ 7. Conocí al inicio del semestre como intervendría cada asignatura en el PISy cuál era el objetivo principal a resolver en cada materia ______ 8. De los temas tratados en la asignatura Diseño y Evaluación de Vías de Comunicación y en el PIS ¿Cuál de ellos le motivó y le interesó más? _____________________________________________________ 9. Le gustaría continuar avanzando y profundizando estudios_____ y trabajos y soluciones en ese Tema______ 10. Cite por orden de importancia, preferencia, necesidad personal y para la comunidad 3 TEMAS TRATADOS en el PIS en el cual desearía UD. continuar estudiando y trabajando antes de su trabajo de titulación. Tema 1. ___________________________________________________ Tema 2.. __________________________________________________ Tema 3.. ___________________________________________________ 5. CONCLUSIONES: 1. La s tareas docentes realizadas antes y durante el semestre garantizaron la entrega en tiempo, forma y con calidad de todas las actividades concebidas en la Tarea Técnica del Proyecto Integrador de Saberes. 2. Los estudiantes respondieron de forma positiva, desarrollaron y entregaron con responsabilidad, motivación y calidad las actividades consideradas en la Tarea Técnica del Proyecto Integrador de Saberes y en las de asignaturas afines. 3. La vía Caso Estudio: Avenida Alejo Lascano es una de las arterias principales en la trama vial urbana de Jipijapa. 4. En cada una de las preguntas formuladas en la Encuesta se alcanzó una respuesta positiva mayor del 87 %, lo que indica que se alcanzó un buen resultado al aplicar la Tarea Técnica y esta forma de trabajo. Se aplicó la encuesta a todos los estudiantes en Paralelo del 5to, de forma individual y aislados. 5. Se advirtió, se hizo señalamientos y recomendaciones a los estudiantes que realizarían sus trabajos en la vía sin cierre del tránsito y no ocurrieron hechos lamentables en accidentes del transito 6. Este trabajo es inédito, resultó novedoso y puesto en práctica en la Carrera Ingeniería Civil UNESUM. Se fundamentó en los conocimientos y experiencias alcanzados por el docente, Autor Principal de este trabajo, en situaciones anteriores, mediante el estudio de casos, presentados en el Programa de Estudio y Sílabos de asignaturas de la Especialidad Ingeniería Vial en la Carrera Ingeniería Civil, ISPJAE, La Habana. Cuba, 1985 - 2010. 6. RECOMENDACIÓNES: 1. Antes del inicio de un Proyecto Integrador de saberes se debe elaborar una buena Tarea Técnica para destacar todas las tareas a realizar, programar en tiempo sus etapas, chequeos y control durante la realización del mismo. 2. Continuar aplicando y perfeccionando en semestres sucesivos las partes concebidas y puestas en práctica en esta Tarea Técnica, del Proyecto Integrador de Saberes, de las asignaturas afines. 3. Perfeccionar la forma de concebir para aplicar durante el semestre una Tarea Técnica para la realización de los Proyectos Integradores de saberes en la carrera Ingeniería civil, UNESUM 4. Facilitar la información, el intercambio y debate del contenido de este trabajo en reuniones conjuntas con los docentes de la Carrera Ingeniería Civil, UNESUM. sobre los autores: Ing. Eduardo Eutiquio Díaz García, PhD1 (♱) PhD en Ciencias, Anteriormente Docente de la Carrera de Ingeniería Civil, Facultad Ciencias Técnicas, Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador. Ing. Jaime Adrián Peralta Delgado MgSc2 Master en Gestión Ambiental con mención en la evaluación del impacto ambiental, Docente de la Carrera de Ingeniería Civil, Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador. Ing. Francisco Segundo Ponce Reyes MgSC3 Master en Gerencia Educativa, Facultad Ciencias Técnicas, Docente de la Carrera de Ingeniería Civil, Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador. COMENTARIOS DE SITUACIONES QUE ATENTAN CONTRA EL MEJOR DESEMPEÑO DE LA SEGURIDAD, FUNCIONABILIDAD, ECONOMÍA Y COMODIDAD DE UN TRAMO DE VÍA O DE UNA RED VIAL. Ing. Eduardo Eutiquio Díaz García, PhDI, Ing. Denny Augusto Cobos Lucio MgScII, Ing. Lucy Elizabeth Solorzano Villegas MgSCIII 1Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador, 2Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador, 3Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador 1e-mail: eduardo.díaz@unesum.edu.ec 2e-mail: denny.cobos@unesum.edu.ec 3e-mail: lucy.solorzano@unesum.edu.ec RESUMEN El propósito del mejor acabado y desempeño de un tramo o de una Red Vial es la de alcanzar durante la puesta en servicio de las obras la garantía de su funcionamiento, seguro y cómodo para los diferentes tipos de usuarios que la utilizan, considerando en su momento las razones económicas que soportan las decisiones tomadas; pero sin descuidar los beneficios y costos que estas puedan generar a lo largo de la vida útil de la puesta en servicio de la vía. Se comentan en este trabajo tres situaciones en diferentes etapas y contextos: diseño, construcción y explotación de la vía y donde en uno de ellos las tareas ejecutadas han motivado un ‘’efecto dominó’’ con la presencia de fallas posteriores que atentan contra la seguridad, comodidad y un mayor uso de los recursos, con efectos económicos negativos con el paso del tiempo. PALABRAS CLAVES: red vial, seguridad, recursos. COMMENTS ON SITUATIONS THAT ATTEMPT AGAINST THE BEST PERFORMANCE OF SAFETY, FUNCTIONABILITY, ECONOMY AND COMFORT OF A SECTION OF ROAD OR OF A ROAD NETWORK. Abstract The purpose of the best finish and performance of a section or of a Road Network is to achieve during the commissioning of the works the guarantee of its operation, safe and comfortable for the different types of users who use it, considering at the time the economic reasons that support the decisions made; but without neglecting the benefits and costs that these can generate throughout the useful life of the commissioning of the track. Three situations in different stages and contexts are discussed in this work: design, construction and operation of the road and where in one of them the tasks carried out have caused a '' domino effect '' with the presence of subsequent failures that threaten safety, comfort and greater use of resources, with negative economic effects over time KEY WORDS: road network, safety, resources. 1. INTRODUCCIÓN La señalización vial. se refiere a los dispositivos de control, advertencia, regulación e información que se colocan de manera vertical, en los laterales o elevadas, y horizontal en forma de marcas pintadas o pegadas sobre el pavimento de la carretera Las señales verticales del tránsito tienen como objetivo informar de una manera rápida, clara e inequívoca sobre lo que el usuario de la vía puede o debe hacer en cada momento para su mejor movilidad y seguridad, siendo imprescindible la visibilidad de las mismas. Si las señales no existen ante un peligro inminente, no se ven lo suficientemente o están deterioradas los conductores tienen serias dificultades para su legibilidad y aún más para su comprensibilidad y pueden ser la causa principal de lamentables accidentes del tránsito. Por lo general los proyectistas de las carreteras cuentan con documentaciones técnicas y el mejor deseo para aplicar en el proyecto las normativas de diseño geométrico, que tengan en cuenta el trazado en planta, en perfil y el ancho de la sección transversal, incluyendo ancho de los carriles y paseo o espaldón, de manera tal que se satisfagan para el usuario las expectativas de seguridad, comodidad y funcionabilidad de la vía. Para ello se evitarán los puntos en que las características geométricas obliguen a disminuir bruscamente la velocidad, facilitándose que las variaciones de velocidad necesarias se produzcan mediante cambios progresivos de los parámetros geométricos y con ayuda de la señalización vial. En cada país y Ecuador no es la excepción, las normas y documentos regulatorios del trazado geométrico de las carreteras están muy bien identificadas (15) y por lo general siempre se exige al Equipo de Proyecto que deben ser respetadas y cumplidas en un tramo de carretera en particular, por lo tanto, el análisis de esos documentos no forma parte del contenido de este trabajo. 2. IMPORTANCIA DE LA SEÑALIZACIÓN VERTICAL EN LAS CARRETERAS PRINCIPALES. Las señales verticales del tránsito tienen como objetivo informar de una manera rápida, clara e inequívoca sobre lo que el usuario de la vía puede o debe hacer en cada momento para su mejor movilidad y seguridad, siendo imprescindible la visibilidad de las mismas. Si las señales no se ven lo suficientemente, los conductores tienen serias dificultades para su legibilidad y aún más para su comprensibilidad. Si la señal vertical pierde visibilidad, se acorta en tiempo y distancia el proceso de percepción del conductor hasta límites peligrosos, que puede conducir a infracciones, maniobras precipitadas y la puesta en riesgo de la seguridad vial; además de la insuficiencia de la información que realmente se puede llegar a transmitir. En Europa las señales verticales son comprensibles y no contienen texto, para que los habitantes se habitúen solamente a indicaciones mediante símbolos, esto ocurre por los distintos idiomas que existen en Europa y el resto del mundo. Es una solución muy convincente que se debería tener en cuenta, en caso que se estableciera un nuevo manual en otros países. Caso contrario sucede en los Estados Unidos ahí utilizan únicamente un número reducido, la mayor parte son carteles en los que aparece un texto con la respectiva indicación. Por ejemplo, la prohibición de giro hacia la izquierda se indica en un cartel con el texto “No LEFT TURN” Desde el punto de vista en que todos sus habitantes hablan o pueden interpretar mensajes cortos en inglés y los turistas generalmente también, no es ningún problema que las indicaciones del tráfico sean con texto, pues no motivan caos entre los conductores. En general esta práctica no es posible utilizarla en otros países. 3. MANEJO DE LA SEÑALIZACIÓN VIAL PARA VELOCIDADES MÁXIMAS ADECUADAS DE LOS AUTOMOVILISTAS EN LAS CARRETERAS. Una gran parte de los accidentes con víctimas, sobre todo las mortales, está relacionada con una velocidad inadecuada, derivada de una estimación incorrecta de la velocidad a que la carretera puede ser recorrida con seguridad. En esta velocidad influye de manera decisiva la limitación que representan las curvas circulares, donde la mayoría de los conductores experimentan dificultades para controlar su vehículo si el coeficiente de fricción transversal está por debajo de los valores considerados en el diseño y peor aún si el valor de la super elevación sobrepasa los el valor habitual seguido en el recorrido anterior de la carretera, es decir, se incumple el requisito de uniformidad en el trazado geométrico de la vía. En situaciones de una visibilidad, pavimento liso, exceso del valor de super elevación, señalización insuficiente, etc, la mayoría de los conductores no suelen moderar con acierto su velocidad, aceptando un riesgo mayor que, en ciertos casos, puede resultar excesivo. 4. CASOS DE ESTUDIO. COMENTARIOS Caso Estudio 1. Conocido como “el caso de la curva de la muerte” Foto 1. Alerta de velocidad (sin límite) al inicio del tramo Caso Estudio 1. Esta situación requiere dos tipos de actuaciones por parte de la administración vial: 1. Por un lado, acciones dirigidas a reducir el número de infracciones en lo relativo a los límites de velocidad, que no solo necesitan de una eficaz acción represiva, sino de una credibilidad del riesgo asumido en cada caso concreto. Aunque esta situación amerita la inversión para rectificar el trazado y ampliar la sección transversal en el tramo de carretera presentado. 2. Por otro lado, disponer de un mayor margen de seguridad en la infraestructura vial, que permita que un eventual rebasamiento de los límites de velocidad no resulte en un accidente y que, caso de ocurrir este, tenga consecuencias menores. Rebasar la velocidad permitida puede ser sancionado con una multa o con la retirada del permiso de conducir, pero no con la muerte. Es una tarea necesaria pero que requiere una importante inversión, por lo que no se puede hacer al ritmo que se desea. En la situación actual, parece prudente que algunas cuestiones relacionadas con la seguridad de la circulación, como la señalización de las curvas y la visibilidad necesaria para la detención ante un obstáculo imprevisto, no tenga en cuenta la limitación genérica de la velocidad en ningún caso, y la limitación específica solo en casos muy justificados, en que se pueda asegurar que será creída y por tanto, respetada por los automovilistas. Durante los estudios realizados de velocidad instantánea en varios tramos de vías principales en la Provincia de Manabí, se chequearon altos valores de velocidad lo cual como resultado dan un valor promedio de las velocidades de 86.1 Km/h y de 90.2 Km/h para el percentil 85, o sea la velocidad de operación segura de los automovilistas. Como se aprecia son velocidades elevadas y por otro lado para agravar más el problema la carretera no tiene la necesaria señalización vertical, y carece en muchos sectores de protecciones laterales lo cual atenta contra la seguridad y la comodidad de los automovilistas; siendo la situación más crítica cuando circulan en condiciones de lluvia o neblina, pues la textura superficial del pavimento no propicia el mejor contacto neumático – pavimento a altas velocidades de circulación. Foto 2. Complemento de la señalización vertical y horizontal Caso Estudio 2. Colocar malla de geo textil sobre una losa de pavimento rígido. fisurado y sobre este la carpeta asfáltica Foto 3. Efecto dominó. Deterioros sucesivos en un tramo de carretera Se comenta en este caso la situación que se presentó durante diferentes etapas y contextos donde las tareas ejecutadas en la pavimentación de un tramo de carretera motivó a lo largo del tiempo un ‘’efecto dominó’’ con la presencia de fallas posteriores que comprometieron y afectaron en parte la seguridad y la comodidad vial, con el uso de recursos y algunas pérdidas económicas al poco tiempo de cumplirse el plazo como terminada la pavimentación y antes de prestar el servicio completo al tránsito a lo largo de la vida útil y puesta en servicio de la obra. Caso estudio 3. Pavimentar con carpeta asfáltica o tratamiento superficial a los tramos, o una parte de la Red de Caminos Vecinales de 3er orden. El propósito del mejor acabado y desempeño de un tramo o de una Red Vial es la de alcanzar durante la puesta en servicio de las obras la garantía de su funcionamiento, seguro y cómodo para los diferentes tipos de usuarios que la utilizan, considerando en su momento las razones económicas que soportan las decisiones de mejoras tomadas; pero sin descuidar la razón de ser de las inversiones viales en cuanto a los beneficios a la comunidad, teniendo en cuenta como puedan afectar esas mejoras a la seguridad y comodidad de los automovilistas y otros usuarios como transeúntes, vecinos cercanos y además importante destacar los costos de operación que estas puedan generar a lo largo de la vida útil de su puesta en servicio y en caso extremo si las decisiones de mejoras no contemplan la integridad y las condiciones geométrica y física del tramo de vía o de la Red Vial que se intenta mejorar. Foto 4. Características del trazado y de la sección transversal de la vía que pueden atentar contra la seguridad y la comodidad después de pavimentar. Ejemplos negativos de este Caso Estudio 3 pueden resultar algunos tramos carreteras de carreteras rurales de 3er Orden propuestos a pavimentar que después de ejecutados los trabajos invita\en o generen el posible aumento en la velocidad de circulación de los automovilistas sin considerar que los elementos geométricos de la vía , tanto en sección transversal como en trazado horizontal no están acorde con las características que brindan para la circulación las características estructural y superficial del pavimento, los laterales de la vía, la distancia mínima de visibilidad. señalización vial y otros aspectos que aseguran desarrollar una mayor velocidad de circulación para esas nuevas condiciones de la vía. REFERENCIAS BIBLIOGRÁFICAS. 1. Anita, I y otros. (2006). La influencia del estado de la carretera sobre la comodidad de la circulación vial. Informe VII 957 Instituto Nacional Sueco de Vialidad y Transporte. Suecia 2. Díaz Eduardo. (1999). Equipos y procedimientos sustentables para la inspección técnica de carreteras atendiendo a criterios de seguridad y comodidad del tránsito. Tesis Doctoral. Facultad de Ingeniería Civil, ISPJAE. 3. Diaz Eduardo y Cobos Denny. Recorridos de campo por tramos de vías de la Red de 3er Orden en la; Provincia de Manabí. 4. García, A. (2008). El apagón de la señalización vertical de carreteras. Tribuna abierta. Revista Rutas. Madrid España. 5. Instituto Mexicano del Transporte, IMT. (1998). Algunas recomendaciones internacionales para mejorar la seguridad vial en las carreteras. Nota No, 39. Ciudad de México. 6. Recomendaciones e Instrucciones Técnicas de Carreteras. MTOP, Ecuador. 7. Rocci, S. (1992). Velocidades inadecuadas. Tribuna abierta. Revista Rutas. Madrid, España. 8. Señales Verticales del Tránsito. Código de Circulación y Vialidad. Ecuador. sobre los autores: Ing. Eduardo Eutiquio Díaz García, PhD1 (♱) PhD en Ciencias, Anteriormente Docente de la Carrera de Ingeniería Civil, Facultad Ciencias Técnicas, Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador. Ing. Denny Augusto Cobos Lucio MgSc2 Magister en Construcción de Obras Viales, Docente Titular de la Carrera de Ingeniería Civil, Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador. Ing. Lucy Elizabeth Solorzano Villegas MgSCIII Magister en Construcción de Obras Viales, Facultad Ciencias Técnicas, Docente de la Carrera de Ingeniería Civil, Universidad Estatal del Sur de Manabí RESULTADO DEL ÍNDICE SEGURIDAD – CONFORT, ISC EN EL TRAMO DE CARRETERA PRINCIPAL REDONDEL PUERTO CAYO- SAN JOSÉ DE LA PROVINCIA DE MANABÍ, ECUADOR. Ing. Eduardo Eutiquio Díaz García, PhD1, Mg Sc. Ing. Luis Alfonso Moreno Ponce, Mg Sc2, Ing. Mercedes Marcela Pincay Pilay Mg Sc3. 1Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador, 2Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador, 3Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador 1e-mail: eduardo.díaz@unesum.edu.ec 2e-mail: luis.moreno@unesum.edu.ec 3e-mail: mrcela.pincay@unesum.edu.ec RESUMEN: El tramo de carretera Redondel Puerto Cayo - San José, abscisa 2+ 400 – 17+000, pertenece a la ruta del Spondylus; siendo esta la principal vía turística del país pues en su recorrido une las playas de las costas del Pacífico las cuales promueven el turismo nacional e internacional siendo generadores del tránsito vehicular y por tanto es motivo de riesgo de accidente del tránsito. Se presentan en el trabajo las consideraciones y factores que identifican las características superficiales de los pavimentos flexibles de carreteras. En el Caso Estudio se informa de todas las mediciones realizadas para determinar el Índice Seguridad - Confort del tramo de carretera y recomendar a tiempo los trabajos de rehabilitación en aras de que a los automovilistas se le asegure las mejores condiciones de funcionamiento de la vía. PALABRAS CLAVES: vía, pavimento flexible, carretera. RESULT OF THE SAFETY - COMFORT INDEX, ISC IN THE ROAD SECTION OF THE MAIN ROAD ROUND OF THE PUERTO CAYO - SAN JOSÉ IN THE PROVINCE OF MANABÍ, ECUADOR ABSTRACT The Redondel Puerto Cayo - San José road section, abscissa 2+ 400 - 17 + 000, belongs to the Spondylus route; This being the main tourist route in the country because in its route it joins the beaches of the Pacific coasts which promote national and international tourism, being generators of vehicular traffic and therefore is a reason for the risk of traffic accident. The considerations and factors that identify the surface characteristics of flexible road pavements are presented in the work. The Case Study reports all the measurements carried out to determine the Safety - Comfort Index of the road section and to recommend rehabilitation work on time so that motorists are assured of the best operating conditions on the road. KEY WORDS: track, flexible pavement, highway. 1. INTRODUCCIÓN. El tramo de carretera Redondel Puerto Cayo- San José, abscisa 2+ 400 – 17+000, pertenece a la ruta del Spondylus; siendo esta la principal vía turística del país pues en su recorrido une las playas de las costas del Pacífico las cuales promueven el turismo nacional e internacional siendo generadores del tránsito vehicular y por tanto es motivo de riesgo de accidentes del tránsito. El estado técnico de la vía y especialmente el de la capa de rodadura influye notablemente en la seguridad vial pues dependiendo de las condiciones de la superficie del pavimento será mejor o peor el contacto neumático/pavimento, fenómeno que tiene mayor importancia en la época de invierno por ocasionar la capa de rodadura mayor riesgo de accidente debido al posible patinaje del vehículo. En el Ecuador, los accidentes del tránsito se encuentran entre las primeras causas de muerte. El promedio anual en el país es de 21147 accidentes del tránsito con un saldo de 1205 fallecidos, como promedio anual en el último período de 5 años. No es tradición en la Provincia de Manabí analizar este fenómeno y si con el tiempo se descuida su estudio podrán aumentar los riesgos por accidentes de tránsito debidos a las condiciones inadecuadas de la capa de rodadura. El tramo de carretera “Redondel de Puerto Cayo – San José abscisa (2+400 – 17+000)” Ruta del Spondylus. Una forma de detectar a tiempo en las carreteras los riesgos de la circulación vial es realizando periódicamente las inspecciones técnicas de estas, considerando siempre su importancia y diciendo a priori que los estudios, su frecuencia y los recursos que se inviertan darán mayores en la medida que la importancia de la carretera para la economía Nacional sea mayor. 2. ANTECEDENTES La finalidad de las buenas cualidades superficiales de los pavimentos de carreteras es la de mejorar la eficiencia de la circulación vial y que en esta se pueda mantener una velocidad adecuada, segura, cómoda y razonablemente económica. La utilización de las técnicas de medición de las características superficiales del pavimento se remonta a los años 1930 cuando apareció en Francia una moto con sidecar equipada con un neumático adicional para medir el coeficiente de fricción entre este y el pavimento mojado. En la actualidad son muchos los países e instituciones de carreteras que emplean mayormente equipos modernos para la inspección sistemática de tramos de carreteras y sistema viales, aunque muchos de ellos comenzaron los trabajos con técnicas y equipos de medición muy sencillos y baratos. Para medir las características superficiales en cuanto al coeficiente de fricción, la textura superficial y la lisura del pavimento existen en la actualidad múltiples y variados equipos, siendo necesario identificar y asociar siempre el resultado de la medición con el equipo que lo origina. Para tratar de lograr una “armonización” entre los resultados alcanzados por diferentes equipos y teniendo en cuenta la amplia variedad de estos para medir el coeficiente de fricción neumático-pavimento y la regularidad superficial, o sea la lisura del pavimento, se desarrollaron los Experimentos Internacionales IRI Brasil (1986) y USA (1997) e IFI en Bélgica y España (1992) por auspicio del Comité Técnico No.1 Características Superficiales de Pavimentos de la Asociación del Congreso Mundial de Carretera (PIARC). Las obras de mantenimiento, conservación y rehabilitación constituyen las actividades principales en la vigilancia del Nivel de Servicio requerido de las carreteras para cumplir con las condiciones de seguridad y comodidad de los automovilistas. 3. TEXTURA SUPERFICIAL DEL PAVIMENTO. La textura del pavimento es un parámetro fundamental para la seguridad y la comodidad de los usuarios, necesario para la conservación de las carreteras. La textura influye directamente en la capacidad del pavimento para evacuar el agua en la interface neumático-pavimento y de forma indirecta en el valor del coeficiente de fricción del pavimento, que tiene gran importancia para la adecuada adherencia entre el neumático y el pavimento. Durante el Congreso Mundial de la AIPCR (Asociación Mundial de la Carretera) celebrado en Bruselas en 1987 se definieron tres tipos de textura: micro textura, macro textura y mega textura. 4. COMODIDAD VIAL. RELACIÓN DEL IRI CON LA VELOCIDAD Y ÉL TRÁNSITO PROMEDIO ANUAL. En muchos países de Europa, de América del Norte, del Sur y Centrales como España, Suecia, Canadá, Estados Unidos, Chile, El Salvador y otros, la medición de la regularidad superficial de los pavimentos, para efectos de control de calidad y recepción de los proyectos de la infraestructura vial es actualmente realizada a través del Índice de Rugosidad Internacional IRI, el cual se determina con base en lo indicado en la especificación AASHTO PP37 - 02 “Standard Practice for Quantifying Roughness of Pavements”. La escala IRI, las característ-icas del pavimento la carretera y de la velocidad de circulación esperada se aprecian a continuación, así como el diagrama que representa la escala IRI en función del Tránsito Diario Promedio Anual, TDPA. Tabla 1: Diagrama del Índice de Rugosidad Internacional IRI en función del TDPA. Hoy en día se utilizan equipos novedosos que pueden desplazarse a velocidades superiores a los 80 Km/hora, provistos con cámaras láser y que además de medir la rugosidad superficial del pavimento pueden evaluar: la profundidad de roderas, la macro textura, radios de curvatura, fisuraciones, etc. A continuación, se muestra en la foto uno de esos equipos de alto rendimiento. Foto 1: Equipo móvil de alto rendimiento para medir la textura superficial 5. MODELO CUBANO ÍNDICE SEGURIDAD – CONFORT, ISC. Es un índice global que trata de caracterizar en conjunto la seguridad y la comodidad de los automovilistas, según sea el valor de la velocidad de circulación en Km/h. Se establece una escala de 2 a 10 puntos para calificar el ISC en un tramo de carretera y a medida que el resultado de ISC es mayor, será mejor la seguridad y la comodidad vial. . El Modelo ISC fue aplicado en su etapa inicial en Cuba durante el peritaje de un lamentable accidente del tránsito ocurrido en 1996. Con los equipos de medición desarrollados en el Departamento de Ingeniería Vial del ISPJAE se concibió este Índice global para evaluar la seguridad y la comodidad de los tramos de Carreteras de Interés Nacional en Cuba, teniendo en cuenta las características de la velocidad de circulación de la corriente de tránsito y de la señalización vial; así como los principales factores influyentes del pavimento: coeficiente de fricción, textura y la regularidad superficial. El ISC se determina resolviendo un polinomio lineal de tres términos de la forma: ISC = 0.45 E + 0.40 D + 0.15 G donde: E: Resulta la velocidad de circulación, determinada con el Percentil 85 en un estudio de velocidad instantánea, V en Km/h. D: Atiende las características superficiales del pavimento, mediante los resultados del coeficiente de resistencia al deslizamiento; CFD, la altura promedio de la macrotextura HA en mm y la inspección visual detallada de la superficie, t. G: Considera la regularidad superficial del pavimento mediante el Índice de Rugosidad Internacional IRI en m/Km. Tabla 2: Calificación del ISC según la velocidad de circulación, km/h En el procedimiento ISC el parámetro G fue mejorado con posterioridad para considerar el parámetro internacional IRI como medida de la comodidad, donde según intervalos de velocidad establecidos se calcula G de la manera siguiente: G = a + b (IRI) Para cada intervalo de velocidad aparece la expresión para el cálculo de G. Intervalos de Velocidad Coeficiente a Coeficiente b Ecuación Mayor de 100 Km./h 22.00 - 6.667 G = -6.667 (IRI) + 22.00 80 Km./h - 100 Km./h 14.25 - 1.750 G = -1.750 (IRI) + 14.25 60 Km./h- 79 Km./h 28.70 - 2.670 G = -2.670 (IRI) + 28.70 Menor de 60 Km./h 50.00 - 4.000 G = -4.000(IRI) + 50.00 6. ÍNDICE SEGURIDAD – CONFORT. CASO ESTUDIO, RESULTADOS Datos: • Velocidad de Operación = 90 Km /h • CFD = 0.31. • La = 59.63 cm. • HA = 0.42 mm. • IRI = 3.0 m/Km. • t = 7, considera el tipo de textura superficial ISC = 0.45 E + 0.40 D + 0.15 G E = -0.20V+22.0 D = 0.5 l + 0.3 c+ 0.2 t c = 60 CFD - 13.60 c = 5.00 D = 4.29 G = - 1.750 (IRI) + 14.25 G = 9.00 ISC = 0.4 5 E + 0.40 D + 0.15 G ISC = 0.45 (4.00) + 0.40 (4.29) + 0.15 (9.00) Velocidad Km./h Calificación del Índice Seguridad – Confort, ISC. Crítico Mal Regular Bien Excelente 100 2.00 2.01 – 3.10 3.11 – 4.01 4.02 – 5.40 5.41 – 6.40 90 2.90 2.91 – 3.96 3.97 – 4.84 4.85 – 6.69 6.70 – 7.30 85 3.35 3.36 -4.41 4.42 – 5.29 5.30 – 6.64 6.65 – 7.75 80 3.80 3.81 – 5.06 5.07 – 5.85 5.86 – 7.09 7.10 -8.20 75 4.25 4.26 – 5.35 5.36 – 6.12 6.13 – 7.65 7.66 – 8.65 70 4.70 4.71 – 5.80 5.81 – 6.57 6.58 – 8.10 8.11 – 9.10 65 5.15 5.16 – 6.25 6.26 – 7.02 7.03 – 8.55 8.56 – 10.00 ISC = 4.87 Categoría de calificación: REGULAR, en el límite superior y según el método ISC Se recomienda: REGULAR: Requiere el tramo inspeccionado un mantenimiento rutinario y probablemente un refuerzo asfáltico en la superficie con la aplicación de espesores de acuerdo a la intensidad de tránsito. Circulación medianamente cómoda, existen irregularidades en el perfil longitudinal y el acabado del pavimento originadas por juntas defectuosas, reparaciones mal terminadas y deformaciones localizadas, que sin imponer restricciones a la velocidad afectan a la comodidad y en condiciones específicas a la seguridad al conducir, motivadas por las posibles demoras. IRI, 3 – 7 m/Km. 7. CONCLUSIONES. 1. La velocidad del percentil 85 en cada uno de los tres estudios de velocidad instantánea resultó muy próxima o ligeramente superior a los 90 Km / h. Estos resultados generan ciertos riesgos a los automovilistas si mantienen esas velocidades en condiciones de pavimento mojado. 2. En todo el tramo de carretera prácticamente no existen señales verticales de advertencia por peligros que indiquen el límite máximo de velocidad y de pavimento resbaladizo para velocidades superiores a los 80 Km/h. 3. El resultado del Índice Seguridad – Confort, para todo el tramo de carretera es de ISC = 4.87, alcanzando una calificación REGULAR, lo cual no debe ser aceptado con tranquilidad por los peligros de los riesgos de accidentes que esto pueda ocasionar. REFERENCIAS: 1. AASHTO PP – 37 – 02 Standard Practice for Quantifying Roughness of Pavements, 2002. 2. Achutegui, F. y otros, La medida de la Resistencia al deslizamiento y de la textura superficial de los pavimentos. Panorámica internacional, Revista Carreteras, II Época, Madrid, España 1996. 3. Díaz Eduardo. E. (1999). Equipos y procedimientos sustentables para la inspección técnica de carreteras atendiendo a criterios de seguridad y comodidad del tránsito. Tesis Doctoral. Facultad de Ingeniería Civil, ISPJAE. 4. Díaz Eduardo. E. y otros. (1996). Desarrollo y puesta en práctica del Modelo cubano Índice Seguridad Confort para la inspección y técnica de carreteras. Facultad de ingeniería Civil, ISPJAE. 5- Instituto Mexicano del Transporte, IMT. (1998). Algunas recomendaciones internacionales para mejorar la seguridad vial en las carreteras. Nota No, 39. Ciudad de México. 6. Laboratorio Central de Puentes y Caminos de Francia, LCPC. (1985). Comodidad y seguridad de la circulación relacionada con los pavimentos resbaladizos y la regularidad de la superficie del pavimento. Tarea de Investigación 02. París, Francia. 7. Moles, A.R. (2008). Mejoras del Modelo cubano Índice de Seguridad Confort para las carreteras de Interés Nacional de la República de Cuba. Tesis de Maestría. Facultad de Ingeniería Civil, ISPJAE. 8. PIARC. Experimento Internacional IRI. (1998-2004). Para la armonización del resultado de medición con diferentes equipos. Documentos varios. Comité C.1 del PIARC, Características Superficiales. París, Francia. 9. Recomendaciones e Instrucciones Técnicas de Carreteras. MTOP, Ecuador. 10. Rocci, S. (1992). Velocidades inadecuadas. Tribuna abierta. Revista Rutas. Madrid, España. sobre los autores: Ing. Eduardo Eutiquio Díaz García, PhD1 (♱) PhD en Ciencias, Anteriormente Docente de la Carrera de Ingeniería Civil, Facultad Ciencias Técnicas, Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador. Mg Sc. Ing. Luis Alfonso Moreno Ponce, Mg Sc2 Magister en Construcción de Obras Viales, Docente de la Carrera de Ingeniería Civil, Decano de la Facultad Ciencias Técnicas, Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador. Ing. Mercedes Marcela Pincay Pilay Mg Sc3 Master en Comunicación y Marketing, Facultad Ciencias Técnicas, Docente de la Carrera de Ingeniería Civil, Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador. LOS ACCIDENTES DEL TRÁNSITO EN ECUADOR ASOCIADOS AL FACTOR HUMANO, EDUCACIÓN VIAL, EL VEHÍCULO Y LA VÍA. Ing. Eduardo Eutiquio Díaz García, PhD1, Mg Sc. Ing. Dunia lisbet Dominguez Galvez, Mg Sc2, Ing. Miguel Perfecto Terán García Mg.Sc3. 1Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador, 2Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador, 3Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador 1e-mail: eduardo.díaz@unesum.edu.ec 2e-mail: dunia.dominguez@unesum.edu.ec 3e-mail: miguel.teran@unesum.edu.ec RESUMEN: Las estadísticas de los accidentes del tránsito en Ecuador reportan el acontecimiento y sus consecuencias según como califique el especialista encargado la causa principal que lo motiva; pero en la mayoría de los casos no es una sola. En cuestiones de Plan de Medidas, Plan o Programas de Seguridad Vial se necesita atender objetivos globales y no causas individuales específicas. Ecuador ocupa en el mundo uno de los primeros lugares en las cifras anual de accidentes del tránsito y en América Latina se reporta en los alrededores del cuarto lugar. En este trabajo se da a conocer el resultado de fallecidos por accidente del tránsito asociado a causas globales: el factor humano, educación vial, vehículo y vía en el país, durante el periodo enero a marzo de 2016 y pone de manifiesto la importancia y necesidad en los trabajos para atender y fortalecer la seguridad vial. PALABRAS CLAVES: Accidentes, índices, Educación Vial, Seguridad Vial. THE ACCIDENTS OF TRANSIT IN ECUADOR ASSOCIATED TO THE HUMAN FACTOR, ROAD EDUCATION, THE VEHICLE AND THE ROAD. ABSTRACT: The statistics of traffic accidents in Ecuador report the event and its consequences according to how the specialist in charge qualifies the main cause that motivates it; but in most cases it is not one. In matters of Plan of Measures, Plan or Programs of Road Safety it is necessary to meet global objectives and not specific individual causes. Ecuador occupies in the world one of the first places in the annual figures of traffic accidents and in Latin America it is reported around the fourth place. In this work, the result of deaths due to traffic accidents associated with global causes is reported: the human factor, road, vehicle and road education in the country, during the period January to March 2016 and highlights the importance and necessity in the works to attend and strengthen road safety. KEY WORDS: Accidents, indexes, Road Safety Education, Road Safety. 1. INTRODUCCION Son muchos los factores que influyen en la seguridad y la comodidad de los automovilistas que circulan por un tramo de carretera. Por lo general en los países las normas de diseño que se aplican son debidas a perfeccionamientos y ajustes, tomando como punto de referencia aquellas de países más avanzados; sin descuidar que no se deben implantar estas por decreto en un momento determinado sin tener presente el desarrollo técnico y los recursos económicos que el país puede invertir para conciliar las necesidades con los recursos que se puedan utilizar. Los proyectistas de las carreteras cuentan con documentos técnicos y el mejor deseo para aplicar en el proyecto las normativas de diseño geométrico más actualizadas y acabadas, que tengan en cuenta el trazado en planta, perfil y el tipo de la sección transversal, incluyendo ancho de los carriles y espaldón, de manera tal que se satisfagan para los diferentes grupos de usuarios las expectativas de seguridad, comodidad y funcionabilidad de la vía. 2. LA PROBLEMÁTICA DE LA SEGURIDAD, DEL TRÁNSITO Y LA OBRA VIAL. Son muchos los efectos y factores aislados o combinados a lo largo de un trazado vial que pueden ser ejemplificados y agrupados, tales como: a. Diversidad de usuarios que utilizan la vía b. Diversidad de diferentes tipos de vehículos en la vía c. Carga de trabajo durante el recorrido según el trazado vial, tiempo de viaje, tipos de intersecciones, características de las corrientes vehiculares, estado del pavimento, estado del tiempo, falta o deficiente señalización vial, falta o excesivo control de agentes policiales, etc. d. Complejidad en el comportamiento de los automovilistas: tipo de viaje, gustos, experiencia, edad, horas del día, etc. e. Otros asociados a la propia vía, el tránsito y agentes climáticos. Importante es entonces destacar que: “No se debe descuidar la presencia de uno o más factores cuando ocurre un accidente del tránsito.” Son variados y actuando en conjunto los factores que influyen en la seguridad, la comodidad y la fluidez de los automovilistas que circulan por un tramo de vía. . En la actualidad son muchas los tramos de vías en la Red de la Provincia de Manabí y Ecuador que no cuentan con adecuadas condiciones en su trazado geométrico ni con una capa de rodadura, señalización vial, y otros factores ajenos al logro de un tránsito seguro cómodo - fluido que garantice los requisitos mínimos de la circulación vial durante todo el trazado y recorrido del automovilista. 3. CAUSAS PRINCIPALES DE FALLECIDOS POR ACCIDENTE DEL TRANSITO EN ECUADOR. ENERO A MARZO 2016. En el año 2000, más de 1.2 millones de personas murieron en el mundo como consecuencia de accidentes del tránsito, lo que hace de ésta la novena causa de muerte. Se prevé que en el año 2020 ésta cifra prácticamente se haya duplicado. En muchos países de América Latina, incluido Ecuador, los accidentes de tránsito se encuentran entre las primeras causas de muerte. Ecuador ocupa en el mundo uno de los primeros lugares en las cifras anual de accidentes del tránsito y en América Latina se reporta en los alrededores del cuarto lugar. A continuación, se presentan algunos ejemplos a nivel nacional en Ecuador según INEC. 4. INDICES GLOBALES DE ACCIDENTES DEL TRANSITO EN ECUADOR, CONSIDERANDO EL FACTOR HUMANO, LA EDUCACION VIAL, EL VEHICULO Y LA VIA Por iniciativa de los autores de este trabajo, se dan a conocer por primera vez para el país, el resultado de Índices Globales de accidentes del tránsito durante el periodo enero - marzo de 2016, considerando que estos índices promuevan el alcance de logra un mejor entendimiento en la ocurrencia de estos lamentables hechos y que algunas medidas oportunas puedan ser consideradas en un futuro próximo. A continuación, informa el valor Índice Global en % alcanzado para el periodo analizado teniendo en cuenta el reporte de accidentes de la Tabla1. EFECTO A TENER EN CUENTA INDICE GLOBAL Factor humano 94, 3 % Educación Vial 42, 3 % El vehículo 15, 3 % La vía 27, 2 % Tabla 1. Causas probables de accidentes con fallecidos enero - marzo, 2016 5. CONCLUSIONES: 1. Es posible lograr en el país índices más bajos en la ocurrencia anual de accidentes del tránsito encaminando las acciones hacia: la Educación Vial, divulgación, atención sistemática, integración de grupos multidisciplinarios de investigación y exigencias a cumplir a partir del análisis integral de las causas que motivan los accidentes del tránsito. 2. Se necesitan declarar Programas de Educación Vial y de Seguridad Vial considerando metas anuales posibles a alcanzar en cuanto a la posible y lógica meta en la disminución de los accidentes del tránsito, el número anual de fallecidos, pérdidas materiales y lesionados, sin descuidar los recursos humanos y materiales con que se cuenta para alcanzar este propósito. 3. Lo que se expresa en las conclusiones 1 y 2 se ha podido llevar a cabo con éxito en otros países que han encaminado sus esfuerzos con el fin de atender la problemática de la Educación y la Seguridad Vial y aplican, como Sistema, Auditorias Viales en las diferentes etapas: diseño, construcción y explotación de una obra vial. 6. RECOMENDACION: Tener en cuenta los resultados que se aportan en este trabajo para continuar perfeccionando y mejorando las acciones y sistemas en el país en aras de alcanzar mejores índices en los Programas de Seguridad vial en los próximos años. REFERENCIA: Reporte anual de Índices de Accidentes del Tránsito en Ecuador, según INEC 2016. sobre los autores: Ing. Eduardo Eutiquio Díaz García, PhD1 (♱) PhD en Ciencias, Anteriormente Docente de la Carrera de Ingeniería Civil, Facultad Ciencias Técnicas, Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador. Mg Sc. Ing. Dunia lisbet Dominguez Galvez, Mg Sc. Magister en Educación, Docente de la Carrera de Ingeniería Civil, Facultad Ciencias Técnicas, Universidad Estatal del Sur de Manabí. Jipijapa-Manabí-Ecuador. Ing. Miguel Perfecto Terán García Mg.Sc. Magister en Urbanización, Facultad Ciencias Técnicas, Docente de la Carrera de Ingeniería Civil, Universidad Estatal del Sur de Manabí. Jipijapa-Manabí-Ecuador. EXTENSIVE LARGE-SCALE EXPERIMENTAL CHARACTERIZATION OF DOWNBURST WINDS Federico Canepa1,*, Massimiliano Burlando1, Horia Hangan2,3, Djordje Romanic4 1Department of Civil, Chemical and Environmental Engineering, Polytechnic School, University of Genoa, Italy 2Wind Engineering, Energy and Environment (WindEEE) Research Institute, Western University, Canada 3Faculty of Engineering and Applied Science, Ontario Tech University, Canada 4Department of Atmospheric and Oceanic Sciences, McGill University, Canada *e-mail: federico.canepa@edu.unige.it ABSTRACT Meso-scale thunderstorms govern the severe wind climate of mid-latitude areas of Europe and many other parts of the world, particularly in the view of potentially dramatic impacts of climate change on our planet. The consequence of their actions on the natural and built environment are often catastrophic and fatal. This has led the wind engineering community to move its focus to the physical understanding of such phenomenon and, in civil engineering terms, to its effects on structures. From these premises, the project THUNDERR, developed at the University of Genoa (PI late Prof. Giovanni Solari), was awarded by the European Research Council (ERC) with an Advanced Grant 2016 to produce outcomes that can be transferred to design and standards to make structures wind-safer and cost-efficient. This paper describes the large experimental campaign carried out in the framework of this project at the WindEEE Dome, a large-scale wind simulator at Western University, in Canada. Here, a detailed picture of the dynamic behavior and spatiotemporal evolution of the downburst system formed by the non-linear superposition of different contributions, is obtained, and fulfills what cannot be retrieved from classical anemometric recording in nature. This represents the first link in the chain that takes from the understanding of the phenomenon to structural applications and implementation in design codes, as provided by THUNDERR. KEY WORDS: THUNDERR Project, thunderstorm outflows, downburst, WindEEE Dome, impinging jet flow. 1. Introduction The new long-term forecast models developed by atmospheric physicists and meteorologists are everything but optimistic in terms of intensification and frequency of occurrence of extreme events. Mass media production is nowadays often invaded by sad news of natural disasters and construction/infrastructure collapses related to natural hazards. Past events have repeatedly highlighted their potential impact in terms of economic losses, casualties and overall disruption (i.e., indirect loss). The in-depth analysis of risk-related aspects is of crucial importance. Many projects have emerged in the recent years with a dual approach towards loss-driven design and mitigation strategies and risk quantification (see, for instance, ERIES1 [1]). The wind is the most destructive natural phenomenon – over 70% of causalities due to natural hazards are caused by the wind [2, 3]. The wind climate at mid-latitudes in Europe and many other parts of the world is dominated by extra-tropical cyclones at the synoptic scale and thunderstorm outflows at the mesoscale. Whereas the former are well and widely known in the literature [4], thunderstorms are complex and still mostly unknown phenomena. Recent studies on climate change 1 https://eries.eu activity have predicted an increasing intensification of thunderstorms [5–7] with potentially catastrophic consequences on the natural and built environment. Following these considerations, a completely new study stream on downburst winds has developed across the wind engineering community in the last few decades in order to characterize their occurrence and quantify their importance in terms of actions and effects on the society, environment and constructions [8]. The novelty in the investigation of thunderstorm winds, i.e., downbursts, lies in their unique spatiotemporal characteristics. Downbursts develop as cold descending currents of air (downdraft) from thunderstorm clouds (cumulonimbus). The vertical downward current has been proven to be crucial mainly for take-off and landing stages of flights, whereas the radially diverging wind that originates from the downdraft impingement on the ground can cause serious consequences on structures [9–11]. Downbursts are very localized phenomena both in space and in time: the strongest and dangerous outflows develop over only few kilometers on the horizontal, with 4 km being the extension that separates micro-bursts from macro-bursts according to Fujita [9, 10]; the wind speed and direction during the occurrence of the event can change drastically in very short time intervals of the order of tens of minutes [11–13]. These aspects make the recording of downbursts in nature by means of classically available anemometric instruments still very challenging and thus very limited in comparison to stationary synoptic winds [14]. Indeed, despite the punctual high-frequency-rate measurements of the phenomenon may capture well the time evolution of the recorded phenomenon, its spatial reconstruction is hardly retrievable in full-scale. This is even more restrictive in the view of understanding the physical interactions that form the final downburst system. Downbursts occur indeed embedded into the background Atmospheric Boundary Layer (ABL) wind and the horizontal outflow at the ground senses the effect of the upper-level storm motion. A decisive help in this sense comes from experimental simulations of the phenomenon in ad-hoc laboratories. In this context, the shortcomings above find answer in the extensive experimental campaign performed recently at the WindEEE Dome, at Western University in Canada, that will be the main focus of the present paper. The integration with advanced CFD simulations and analytical techniques will allow to achieve a refined model of the downburst wind field to be transferred to newly developed structural models for thunderstorm winds. The physical characterization of the phenomenon shall always be the first crucial step towards the development of wind loading techniques of structures, tailored to the characteristics of the class of events considered. This is even more striking in the light of the significant differences between stationary Gaussian extra-tropical depressions and non-stationary non- Gaussian thunderstorms. A large number of studies in the literature deals with the separation of different wind events and assessment of maximum velocity distribution for each class of event. However, these distributions are eventually combined into one mixed distribution of the maximum wind velocity, from which a design wind velocity is obtained and put into calculation models typical of extra-tropical cyclones [15]. This approach leads to distort the reality and to force the use of concepts and rules definitely outside their correct application domain [16]. The Project THUNDERR [17], briefly described in Section 2, settles into this panorama and aims at implementing a codified design model based on the conjunction of the two contributions above that indeed form the two main sub-categories of the project itself: I) Thunderstorms and II) Structures. Section 3 describes the activity carried out at the WindEEE Dome and the main qualitative outcomes of the post-processing of the huge amount of experimental data. The reader is invited to refer to the papers recently published in the literature on this topic for a further and deeper understanding. Section 4 outlines the main conclusions and future prospects. 2. The ERC THUNDERR Project The Project THUNDERR: “Detection, simulation, modelling and loading of thunderstorm outflows to design wind-safer and cost-efficient structures”2, is funded by the European Research Council (ERC) with an Advanced Grant 2016 to Prof. 2 www.thunderr.eu Giovanni Solari of the University of Genoa. The project aims at tackling the unknowns related to downburst winds and at creating regulatory schemes and models to share with both the atmospheric physics and civil engineering scientific communities. The first objective concerns the thunderstorm as a physical phenomenon. It aims at formulating a unitary and interdisciplinary model of downbursts with a dual purpose of achieving frontier knowledge for atmospheric sciences and a basis for realistic and simple wind engineering assessments of thunderstorm outflow actions on structures. This is pursued by strengthening the large wind monitoring network installed in the main ports of the Northern Tyrrhenian Sea withing the European projects “Wind and Ports” [18] and “Wind, Ports and Sea” [19] by new state-of-the-art instruments, conducting large-scale laboratory tests in the WindEEE Dome3 at Western University, Canada, performing CFD simulations in collaboration with the Technical University Eindhoven4, The Netherland, calibrating the results obtained by means of field measurements, studying the weather scenarios in which thunderstorms occur in collaboration with the European Severe Storm Laboratory5. Analytical techniques will provide decisive help in collecting and modelling the whole of this information. The second objective relates to the thunderstorm loading and response of structures. Towers and lighting poles have been equipped with anemometers, accelerometers, and strain-gauges. This will provide simultaneous measures of the outflow field and structural response to evaluate equivalent static loading through different techniques: time-domain analysis, response spectrum technique and evolutionary spectral method. An Independent Wind Loading technique will be developed to produce a novel set of partial and combination factors for thunderstorms. The project[17] has been centered around the Giovanni Solari Wind Engineering and Structural Dynamics (GS-WinDyn) research group at the University of Genoa (Italy)6. The present paper deals only with the first objective of the program— that is, the experimental characterization of the downburst wind at the WindEEE Dome. 3. Experimental campaign at the WindEEE Dome The study aims to quantitatively investigate the spatiotemporal evolution and interplay between the individual flow components that form the final downburst outflow DB (e.g., background winds and isolated downburst). The WindEEE Dome has the unique capability of reproducing the three main components of the downburst system – (i) isolated downburst in the form of an impinging jet, (ii) background Atmospheric Boundary Layer (ABL) flow, (iii) thunderstorm cloud translation – independently and simultaneously at large geometric scales. The WindEEE Dome and case studies The Wind Engineering Energy and Environmental (WindEEE) Dome is an innovative wind testing chamber part of the Western University, Canada [20]. It contains an inner chamber (Figure 1c) of hexagonal shape with equivalent diameter of 25 m and height H = 3.8 m. WindEEE is the first wind simulator worldwide capable of creating extreme wind events at large geometric scales and Reynolds numbers, 𝑅𝑒. WindEEE generates an isolated downdraft as a large-scale impinging jet (IJ) (Figure 1b) using 6 fans located in an upper chamber (Figure 1a) that is connected to the main testing chamber (Figure 1c) through a bell mouth at the ceiling level. The opening of the bell mouth louvers forms an impinging jet that travels downwards into the testing chamber and diverges radially as a wall jet upon impingement on the floor. The diameter of the nozzle is 𝐷 = 3.2 m. The inclusion of the background ABL winds is achieved by running a matrix of 4 × 15 fans placed in one of the six peripheral walls of the hexagonal testing chamber. The effect of the storm translation is replicated by mechanically imposing an inclination of the impinging jet axis of 30° with respect to the vertical (Figure 2). This inclination is within the range of angles observed by Fujita [9] in full-scale observations of microbursts. 3 www.windeee.ca 4 www.urbanphysics.net 5 www.eswd.eu 6 www.gs-windyn.it Figure 1. WindEEE Dome and downburst-like flow formation. (a) upper chamber; (b) Three-dimensional schematic of downburst (after [9]); (c) testing chamber with schematic of the downburst-like IJ. Figure from [21]. Figure 2 schematically shows 4 investigated cases of experimentally produced downburst-like flows: (1) vertical impinging jet that creates a radially symmetric outflow; (2) same as the case (1) with the inclusion of ABL-like winds; (3) inclined impinging jet (asymmetric elliptical outflow) without ABL-like winds; and (4) same as the case (3) with the inclusion of ABL-like winds. Figure 2. Downburst-like configurations (1–4) that were tested at the WindEEE Dome (side view). Here, Wjet and 𝑉𝐵 are the jet centreline velocity and characteristic ABL wind velocity, respectively, 𝐷 is the jet diameter, 𝑥0 is the touchdown location of the jet axis, and 𝜃 is the jet-axis inclination. Experiment 3D setup Velocity measurements were performed using Cobra probes at a sampling frequency of 2500 Hz. For a given azimuth angle with respect to the direction of ABL winds, a total of 8 to 10 probes (depending on the case) were installed along a vertical stiff mast in the height range between z = 0.04 and 0.90 m from the floor. The height locations in the result section will be normalized to zmax = 0.1 m, that represents the elevation of maximum wind speed for case (1). All Cobra probes pointed towards the jet impingement zone to record the radial component of the outflow. The mast was then displaced at 7 azimuthal locations, from 𝛼 = 0° to 180° (0° corresponds to the direction of the incoming ABL flow) with incremental steps of ∆𝛼 = 30°. Because of the symmetry, the results can be mirrored to the other half of the azimuthal domain, i.e., 𝛼 = 180° to 360°. At each 𝛼, 10 radial positions were tested in the range between r/D = 0.2 and 2.0, where r/D = 0 corresponds to the geometric position of jet touchdown. Here, the radial increment was ∆r/D = 0.2. Each experiment with the Cobra probes’ mast located at the specific measurement location (𝛼, r/D) was repeated 10 to 20 times to study the deterministic mean part of the velocity signals and inspect the variability of the repetitions. The characteristic jet and ABL velocities used in the experiments are reported in Table 1, along with details on the geometric setup. The above velocities were measured respectively at the bell mouth section and 3 m downstream of the 60-fan wall at a height of 0.25 m. Table 1 also shows the additional horizontal velocity (Vt) that arises from the inclination of the jet axis (cases (3) and (4)) and that falls in the range of translation velocities of the parent thunderstorm observed in nature. Figure 3. (a) Top and (b) side views of measurement locations, 𝛼 and 𝑟/𝐷 are the azimuthal and radial locations of Cobra probes, respectively. Also, (b) shows the positive direction of the wind speed components (u,v,w). Figure from [21, 22]. Table 1. Experiment setup: Case name (Case); Jet diameter (D); Jet velocity (Wjet); Reynolds number (Re); ABL velocity (VB); Equivalent translation velocity (Vt); Azimuthal locations (𝛼); Radial locations (𝑟/𝐷); Experimental repetitions (Reps). Case D [m] Wjet [m s-1] Re  106 VB [m s-1] Vt [m s-1] 𝛼 [°] 𝑟/𝐷 Reps 1 3.2 8.9 – 16.4 1.92–3.55 \ \ 90 0.2:0.2:2.0 20 2 3.2 12.4 2.68 2.5 – 3.9 \ 0:30:180 0.2:0.2:2.0 10 3 3.2 12.4 2.68 \ 6.2 0:30:180 0.2:0.2:2.0 10 4 3.2 11.8 2.55 3.9 5.9 0:30:180 0.2:0.2:2.0 10 The large Reynolds numbers involved in the experiments allow to consider the flow in “fully-turbulent” regime [23] and thus to extend the results to real downburst occurrences. Furthermore, the ABL boundary layer thickness (gradient height) and the height of the PV core, which is assumed to be representative of the size of downburst outflow, have the same geometric scaling between full-scale and WindEEE Dome, i.e., O(~103). For a more comprehensive description of downburst generation at the WindEEE Dome, Cobra probe setup inside the chamber, and data analysis technique, the reader is referred to the article by Canepa et al. [21]. Main outcomes of the research The main features of the isolated vertical downburst dynamics (case (1)) are depicted in Figure 4. Upon the jet exiting from the bell mouth, physically corresponding to the full-scale situation of downdraft released from the thunderstorm cloud (scenario 5), the flow widens in radial direction due to entrainment of ambient air (scenario 4) while travelling towards the ground. Vortical structures form due to the instability between the faster (also denser and colder in nature) column of downward air towards the ground and the calm (also lighter and warmer in nature) surrounding environment. The largest and most intense among these structures is the so-called primary vortex (PV) that, after the jet impingement on the ground, leads the horizontal outflow (scenario 1 to 3) and is the main contributor to the maximum horizontal wind speeds that are indeed observed at the boundary between the vortex lower end and the ground (scenario 2), in the full-scale range between approximately 50 to 150 m [13]. This scenario gives rise to the well-known nose-like shape velocity vertical profile, that profoundly differs from the logarithmic-like profile observed during larger-scale extra-tropical cyclones [13, 14, 16, 22, 24]. Figure 4. Flow visualization with smoke of a vertical IJ experiment (case (1)) at the WindEEE Dome. Scenarios (1) to (5) identify the main features of the outflow dynamics. Figure from [13]. Figure 5 shows the radial wind speed component as recorded at two different measurement positions in the flow field for case (1). Three different segments can be clearly distinguished and correspond to three distinct periods in the downburst outflows observed in real events [25, 14]: “PV”, “plateau”, and “dissipation” segments respectively corresponding to passage of the PV (peak wind speed), steady-state outflow with fairly-constant mean velocity over time, and phenomenon dissipation. Figure 5. (a) 20 repetitions showing the radial wind speed component (colored lines) for case (1) measured at the position (r/D = 1.2, z/zmax = 0.4) and their ensemble mean (black line). (b) Same as (a) but for the position (r/D = 1.8, z/zmax = 2.7). Figure from [21]. The maximum horizontal wind speed Vmax for case (1) are observed around r/D = 1.0, in agreement with other experiments in the literature [26, 27]. For radial positions away from the downdraft region (approximately r/D > 1.0), a secondary counter- rotating vortex (SV) is observed to form due to the air pushed outwards by the PV expansion and consequent detachment- reattachment of the boundary layer at the ground due to surface roughness. In this situation the maximum velocities develop at the boundary between PV and SV and are mainly directed upwards. This scenario is clear both qualitatively by looking at flow visualizations in Figure 6c,d and quantitatively by observing the onset of positive vertical wind speeds at the front of the PV right before its passage over the Cobra probe (scenario 1 in Figure 4) and also along the vertical profile (Figure 6e,f) during the PV segment. Figure 6g shows a sudden drop of the height of maximum radial speed z(Vmax) concurrently with the passage of the PV, for the reasons mentioned above. Figure 6. The SV that forms in front of the PV: (a) time series (black line) of the radial velocity at the position (r/D = 1.6, z/zmax = 1.0) and its moving average (orange line); (b) Zoom-in on the time interval between SV and PV with reported radial velocity (black line) and vertical velocities (colored lines) at all the instrumented heights and r/D = 1.6. (c) flow visualization of a downburst outflow a few seconds after touchdown; (d) Zoom-in on the frontal zone (red rectangle in (c)) with the indication of the PV and SV; (e,f) Vertical profiles of normalized vertical wind speed at the peak and plateau segments, respectively. (g) Time evolution of height of maximum wind speed (black and red lines) superposed with wind speed time series (orange line). Figure from [28]. Data of case (1) are publicly available [29] and can be further reused under Creative Commons license CC0 for metadata and CC-BY for data to widen the investigation. The radial symmetry of the outflow in case (1) is significantly breached in the other three cases tested (2 to 4). The superposition of vertical IJ and ABL-like flow (case 2) unexpectedly generates maximum horizontal wind speeds at the interface between counter directed downburst outflow and ABL, as shown in Figure 7a,b. This may be explained as schematically outlined in Figure 7g: due to the same relative circulation (i.e., same vorticity sign) between the two flows at their interface, the radially-outgoing downburst PV entrains the counter-directed ABL-like wind and, as a result, rotational speed of PV and the horizontal flow underneath its structure intensify. In case (4), not shown here, where the ABL flow is supplemented to the inclined IJ, the structure of the PV at the front with the ABL flow is weakened by the particular experimental setup (downdraft tilted towards same direction of outgoing ABL). For this reason, the outflow assumes a typical elliptical-like shape with intensification of the flow in the rear region and weakening at the interface DB-ABL [9]. At the same time instant, the position of the PV and overall outflow changes accordingly to the azimuth measurement location in the flow field (see Figure 3a), namely to the mutual interaction between DB and ABL and to the elliptical shape caused by the jet tilt at the ground. To summarize, the PV is compressed at the front between DB and ABL, elongated in the region subjected to jet inclination and where the two flows have same direction, and with very similar structure at the boundary between the two regions. Figure 7. Case (2): (a-c) Horizontal view of wind speed field at z/zmax = 1.0 at the “PV” (a,b) and “plateau” (c) segments; (d-f) Vertical view of wind speed field at the same time instant and  = 0° (d), 90° (e), 180° (f) (for reference see Figure 3a); (g) Schematic of DB-ABL interaction for case (2). Figure from [22]. Turbulence intensity, not shown here, exhibits its maxima around r/D = 1.4–1.6, namely radially further from the touchdown position compared to the velocity maxima. Contrary to the usual hypothesis adopted in the literature of stationary turbulence intensity, its time series shows a peak few instant before that associated to the maximum wind speed. 4. Conclusions and future prospects The very large experimental campaign performed at the WindEEE Dome and described in this paper, forms along with complementary on-going CFD simulations [30, 31], analytical approaches [32, 33], and full-scale measurements with state- of-the-art instrumentation [13, 34], the objective (I) Thunderstorms of the Project THUNDERR (Section 2). The results shown in Section 3 represent a decisive step towards the physical and comprehensive characterization of downburst winds. The advanced properties of the WindEEE Dome laboratory allowed to investigate in detail the downburst flow field and its physical properties in time and 3D space coordinates at large geometric and kinematic scales, and thus Re, as it was never achieved before experimentally. For the first time, the interaction between the three main flow components (downburst wind, background ABL flow, storm translation) forming the final anemometric downburst recording has been described and quantified, thanks to the capability of the WindEEE Dome to reproduce independently and simultaneously the three contributions. We have therefore proved the non-linearity of the superposition between these contributions, and hence of the common over-simplistic assumptions adopted in the literature. The joint effort among the techniques mentioned above to physically characterize the phenomenon will soon give important outcomes in the form of a downburst field model, able to include all the diversity and singularities inherent in the downburst occurrences in nature. In turn, its integration with a structural model (objective (II) Structures of the Project THUNDERR, [35–38]) will allow to characterize the downburst loading and effects on structures and implement a model to update the civil engineering design codes for thunderstorm wind actions. Acknowledgments The authors are deeply grateful to late Prof. Giovanni Solari for his invaluable contributions to the conceptualization and supervision of this research. This research is funded by the European Research Council (ERC) under the European Union’s Horizon 2020 Research and Innovation Program (Grant agreement No. 741273) for the project THUNDERR – Detection, simulation, modelling and loading of thunderstorm outflows to design wind-safer and cost-efficient structures – awarded with an Advanced Grant 2016. The support of the Canada Foundation for Innovation (CFI) WindEEE Dome Grant (No. X2281B38) is also acknowledged. References. 1. Repetto MP, Burlando M, Piccardo G (2022) Shared infrastructures for wind engineering: the European project ERIES. In: Proc. Of The 17th Conference on Wind Engineering (IN-VENTO 2022). Milan, Italy 2. Ulbrich U, Leckebusch GC, Donat M (2008) Windstorms, the Most Costly Natural Hazard in Europe. Natural Disasters and Adaptation to Climate Change 109–120. https://doi.org/10.1017/CBO9780511845710.015 3. Tamura Y, Cao S (2012) International Group for Wind-Related Disaster Risk Reduction (IG-WRDRR). Journal of Wind Engineering and Industrial Aerodynamics 104–106:3–11. https://doi.org/10.1016/j.jweia.2012.02.016 4. Bjerknes J, Solberg H (1922) Life Cycle of Cyclones and the Polar Front Theory of Atmospheric Circulation. Geophysisks Publikationer 3:3–18 5. Trapp RJ, Diffenbaugh NS, Brooks HE, et al (2007) Changes in severe thunderstorm environment frequency during the 21st century caused by anthropogenically enhanced global radiative forcing. Proceedings of the National Academy of Sciences 104:19719–19723. https://doi.org/10.1073/pnas.0705494104 6. Allen JT (2018) Climate Change and Severe Thunderstorms. In: Oxford Research Encyclopedia of Climate Science. Oxford University Press 7. Rädler AT, Groenemeijer PH, Faust E, et al (2019) Frequency of severe thunderstorms across Europe expected to increase in the 21st century due to rising instability. npj Clim Atmos Sci 2:30. https://doi.org/10.1038/s41612-019- 0083-7 8. Solari G (2019) Wind Science and Engineering: Origins, Developments, Fundamentals and Advancements. Springer International Publishing 9. Fujita TT (1985) The Downburst - Microburst and Macroburst - Report of Projects NIMROD and JAWS 10. Fujita TT (1990) Downburst: meteorological features and wind field characteristics. Journal of Wind Engineering and Industrial Aerodynamics 36:75–86 11. Hjelmfelt MR (1988) Structure and Life Cycle of Microburst Outflows Observed in Colorado. Journal of Applied Meteorology 27:900–927 12. Solari G, Burlando M, De Gaetano P, Repetto MP (2015) Characteristics of thunderstorms relevant to the wind loading of structures. Wind and Structures 20:763–791. https://doi.org/10.12989/WAS.2015.20.6.763 13. Canepa F, Burlando M, Solari G (2020) Vertical profile characteristics of thunderstorm outflows. Journal of Wind Engineering and Industrial Aerodynamics 206:104332. https://doi.org/10.1016/j.jweia.2020.104332 14. Burlando M, Zhang S, Solari G (2018) Monitoring, cataloguing, and weather scenarios of thunderstorm outflows in the northern Mediterranean. Nat Hazards Earth Syst Sci 18:2309–2330. https://doi.org/10.5194/nhess-18-2309-2018 15. Davenport AG (1961) The application of statistical concepts to the wind loading of structures. Proceedings of the Institution of Civil Engineers 19:449–472. https://doi.org/10.1680/iicep.1961.11304 16. Solari G (2014) Emerging issues and new frameworks for wind loading on structures in mixed climates. Wind and Structures 19:295–320. https://doi.org/10.12989/WAS.2014.19.3.295 17. Solari G, Burlando M, Repetto MP (2020) Detection, simulation, modelling and loading of thunderstorm outflows to design wind-safer and cost-efficient structures. Journal of Wind Engineering and Industrial Aerodynamics 200:104142. https://doi.org/10.1016/j.jweia.2020.104142 18. Solari G, Repetto MP, Burlando M, et al (2012) The wind forecast for safety management of port areas. Journal of Wind Engineering and Industrial Aerodynamics 104–106:266–277. https://doi.org/10.1016/j.jweia.2012.03.029 19. Repetto MP, Burlando M, Solari G, et al (2018) A web-based GIS platform for the safe management and risk assessment of complex structural and infrastructural systems exposed to wind. Advances in Engineering Software 117:29–45. https://doi.org/10.1016/j.advengsoft.2017.03.002 20. Hangan H, Refan M, Jubayer C, et al (2017) Novel techniques in wind engineering. Journal of Wind Engineering and Industrial Aerodynamics 171:12–33. https://doi.org/10.1016/j.jweia.2017.09.010 21. Canepa F, Burlando M, Romanic D, et al (2022) Downburst-like experimental impinging jet measurements at the WindEEE Dome. Nature Sci Data. https://doi.org/10.1038/s41597-022-01342-1 22. Canepa F, Burlando M, Hangan H, Romanic D (2022) Experimental Investigation of the Near-Surface Flow Dynamics in Downburst-like Impinging Jets Immersed in ABL-like Winds. Atmosphere 13:28. https://doi.org/10.3390/atmos13040621 23. Xu Z, Hangan H (2008) Scale, boundary and inlet condition effects on impinging jets. Journal of Wind Engineering and Industrial Aerodynamics 96:2383–2402. https://doi.org/10.1016/j.jweia.2008.04.002 24. Romanic D, Ballestracci A, Canepa F, et al (2020) Aerodynamic coefficients and pressure distribution on two circular cylinders with free end immersed in experimentally produced downburst-like outflows. Advances in Structural Engineering 136943322095876. https://doi.org/10.1177/1369433220958763 25. Burlando M, Romanić D, Solari G, et al (2017) Field Data Analysis and Weather Scenario of a Downburst Event in Livorno, Italy, on 1 October 2012. Mon Wea Rev 145:3507–3527. https://doi.org/10.1175/MWR-D-17-0018.1 26. Kim J, Hangan H (2007) Numerical simulations of impinging jets with application to downbursts. Journal of Wind Engineering and Industrial Aerodynamics 95:279–298. https://doi.org/10.1016/j.jweia.2006.07.002 27. Junayed C, Jubayer C, Parvu D, et al (2019) Flow field dynamics of large-scale experimentally produced downburst flows. Journal of Wind Engineering and Industrial Aerodynamics 188:61–79. https://doi.org/10.1016/j.jweia.2019.02.008 28. Canepa F Experimental investigation of the near-surface flow dynamics in downburst-like impinging jets. Environmental Fluid Mechanics 34 29. Canepa F, Burlando M, Romanic D, et al (2021) Downburst-like experimental measurements of two vertical-axis impinging jets at the WindEEE Dome 30. Žužul J, Ricci A, Burlando M (2022) LES simulations of a downburst immersed in an ABL-like wind. In: Proc. Of The 8th European-African Conference on Wind Engineering (8EACWE 2022). Bucharest, Romania 31. Žužul J, Ricci A, Burlando M (2022) LES simulations of an experimentally-produced inclined downburst: implications of a storm motion. In: Proc. Of The 17th Conference on Wind Engineering (IN-VENTO 2022). Milan, Italy 32. Xhelaj A, Burlando M, Solari G (2020) A general-purpose analytical model for reconstructing the thunderstorm outflows of travelling downbursts immersed in ABL flows. Journal of Wind Engineering and Industrial Aerodynamics 207:104373. https://doi.org/10.1016/j.jweia.2020.104373 33. Xhelaj A, Burlando M (2022) Application of metaheuristic optimization algorithms to evaluate the geometric and kinematic parameters of downbursts. Advances in Engineering Software 173:103203. https://doi.org/10.1016/j.advengsoft.2022.103203 34. Burlando M, Romanic D, Boni G, et al (2020) Investigation of the Weather Conditions During the Collapse of the Morandi Bridge in Genoa on 14 August 2018 Using Field Observations and WRF Model. Atmosphere 11:724. https://doi.org/10.3390/atmos11070724 35. Brusco S, Buresti G, Piccardo G (2022) Thunderstorm-induced mean wind velocities and accelerations through the continuous wavelet transform. Journal of Wind Engineering 13 36. Brusco S, Lerzo V, Solari G (2019) Directional response of structures to thunderstorm outflows. Meccanica 54:1281–1306. https://doi.org/10.1007/s11012-019-00986-5 37. Roncallo L, Solari G (2020) An evolutionary power spectral density model of thunderstorm outflows consistent with real-scale time-history records. Journal of Wind Engineering and Industrial Aerodynamics 203:104204. https://doi.org/10.1016/j.jweia.2020.104204 38. Roncallo L, Solari G, Muscolino G, Tubino F (2022) Maximum dynamic response of linear elastic SDOF systems based on an evolutionary spectral model for thunderstorm outflows. Journal of Wind Engineering and Industrial Aerodynamics 224:104978. https://doi.org/10.1016/j.jweia.2022.104978 USO DE LA TOMOGRAFÍA ELÉCTRICA EN LA EVALUACIÓN INTEGRAL DE ESTRUCTURAS DE HORMIGÓN ARMADO Roxana Díaz Cepero 1, Javier Ballote Álvarez 2, Orlando Román Carraz Hernández3 1 Ing. geofísica. Departamento de Diseño e Ingeniería. Empresa Nacional de Investigaciones Aplicadas, Email: roxydcepero@gmail.com, 2 Ing. geofísico. Departamento de Geociencias. Universidad Tecnológica de La Habana «J. A Echeverría», La Habana, Cuba. Email: jballote@civil.cujae.edu.cu, 3Ing. geofísico. Doctor en Ciencias Técnicas. Departamento de Geociencias. Universidad Tecnológica de La Habana «J. A. Echeverría», La Habana, Cuba. Email: orlando@civil.cujae.edu.cu. RESUMEN La Tomografía Eléctrica es un método no destructivo que presenta varias aplicaciones en el ámbito de la ingeniería civil para la evaluación del estado técnico de estructuras de hormigón armado afectadas por la corrosión, humedad, agrietamiento, además de localizar las barras de refuerzo. En esta investigación se abordan las características esenciales que hacen útil la aplicación de la TE en este tipo de estructuras y se presentan las diferentes respuestas de la resistividad eléctrica que brinda la tomografía eléctrica ante diversas patologías. En este sentido, se analizó como caso de estudio, un sector del muro del malecón habanero que se encuentra afectado por la corrosión. A través del programa informático Res2DMod, se confeccionaron modelos sencillos y modelos aproximados de la sección del muro del malecón a estudiar, se definieron las posibles patologías presentes para apreciar si estas se distinguen en la señal de la tomografía eléctrica con los parámetros de adquisición definidos. De los modelos confeccionados, se precisó que, para ejecutar un levantamiento de detalle, los parámetros de adquisición a utilizar son: cuatro ristras de 24 electrodos de base plana cada uno, separados 0.30m uno de otro, con los dispositivos Wenner, Wenner – Schlumberger y Gradiente Múltiple, para ello se proponen dos variantes de adquisición de datos, una de tres perfiles longitudinales y cuatro transversales y la otra de mayor costo económico con un levantamiento 3D. PALABRAS CLAVES: Tomografía eléctrica, hormigón armado, ensayo no destructivo, malecón USE OF ELECTRICAL TOMOGRAPHY IN THE COMPREHENSIVE ASSESSMENT OF REINFORCED CONCRETE STRUCTURES ABSTRACT Electrical Tomography is a non-destructive method that has several applications in the field of civil engineering for the evaluation of the technical condition of reinforced concrete structures affected by corrosion, humidity, cracking, in addition to locating reinforcement bars. In this research, the essential characteristics that make the application of ET useful in this type of structures are addressed and the different responses of the electrical resistivity that electrical tomography provides in the face of various pathologies are presented. In this sense, a sector of the Havana boardwalk wall that is affected by corrosion was analyzed as a case study. Through the Res2DMod computer program, simple models and approximate models of the section of the wall of the boardwalk to be studied were made, the possible pathologies present were defined to appreciate if they are distinguished in the electrical tomography signal with the defined acquisition parameters. From the models made, it was specified that, to execute a detailed survey, the acquisition parameters to be used are: four strings of 24 flat-based electrodes each, separated 0.30m from each other, with the Wenner, Wenner – Schlumberger devices and Multiple Gradient, for this two variants of data acquisition are proposed, one with three longitudinal and four transversal profiles and the other with a higher economic cost with a 3D survey. KEYWORDS: Electrical Tomography, reinforced concrete, non-destructive test, boardwalk 1. INTRODUCCIÓN El hormigón ha sido uno de los materiales más utilizados en la construcción a lo largo de la historia, es el resultado de la mezcla de cemento con arena, grava y agua. La unión de este material con una armadura o barra de acero da lugar al denominado hormigón armado [1]. Esta técnica constructiva comenzó a utilizarse en el siglo XIX, es ideal en la construcción de edificios de todo tipo, también se utiliza para construir puentes, túneles y obras industriales. La mayor ventaja de esta técnica es que las barras de acero resisten las tracciones y el hormigón las compresiones [2]. El hormigón, como cualquier otro material, está expuesto a sufrir acciones físicas como pueden ser: cambios térmicos o higrométricos, abrasión o cavitación provocada por el agua, desgaste producido por rozamiento con sólidos, impactos, incendios, explosiones, sismos, huracanes, sobrecargas estáticas o dinámicas, que pueden reducir de una forma notable su integridad. También el hormigón va a estar en contacto con ambientes que pueden ser agresivos desde el punto de vista químico como pueden ser: ataque por sulfatos, cloruros, carbonatos y otros iones, ataque por ácidos, ataque por aceites, grasas, combustibles, líquidos alimenticios, reacción árido-álcalis, reacción en áridos con sulfuros susceptibles de oxidarse. Otro factor que afecta las obras de hormigón armado es la corrosión, especialmente en aquellas que están situadas en las proximidades del mar, en atmósferas industriales salinas, en contacto con terrenos ricos en cloruros o en lugares húmedos con atmósferas agresivas [3]. Según Castañeda [4] y Muñoz y Menoza [5], esta patología, debido a la localización geográfica y a las condiciones climáticas de Cuba, constituye una de las más frecuentes en las estructuras cubanas y afecta considerablemente su durabilidad. Uno de los síntomas que más luz puede dar sobre el tipo de lesión que sufre una estructura de hormigón armado es la fisuración. La fisuración se produce siempre que la tensión, generalmente de tracción, a la que se encuentra sometido el material sobrepasa su resistencia límite, esta puede estar ocasionada por diferentes causas, unas de ellas son: contenido de agua en el hormigón, alta dosificación de cemento, los ciclos de humedad y sequedad debidos a la lluvia y al sol dan lugar a contracciones y expansiones que pueden originar tracciones que causen la fisuración, los movimientos de la estructura debidos a asientos diferenciales o a la existencia de suelos expansivos produce fisuras muy características en el hormigón, los excesos de cargas, bien estáticas o dinámicas, la corrosión de las armaduras en el hormigón armado[3]. La actual infraestructura de hormigón en todo el mundo occidental data de mediados de los años 50. A medida que aumentan las tasas de deterioro de esta infraestructura, la presión sobre la comunidad científica en forma de evaluación estructural, reparaciones y reacondicionamiento es significativa. Por lo tanto, el desarrollo de nuevos métodos de prueba para una evaluación más rápida y confiable del estado de las estructuras de hormigón es fundamental [6] Se necesitan técnicas que proporcionen información sobre la ubicación de las armaduras, el grado de fisuración en el hormigón armado, la distribución de cloruros en la matriz, los gradientes de humedad en el hormigón, el estado de corrosión y la profundidad de recubrimiento [3]. Los métodos de prueba para el hormigón se pueden dividir en ensayos destructivos (ED) y no destructivos (END). Los métodos destructivos suelen ser mecánicos y se utilizan para evaluar la resistencia del hormigón. Ejemplos de métodos destructivos son extracción y rotura de probetas testigo de hormigón, toma de muestras y armaduras y dentro de los no destructivos el ensayo esclerométrico o Índice de Rebote, los ensayos ultrasónicos, medidas del potencial de corrosión, entre otros [7]. Según ACI [8] también se aplican otros ensayos no destructivos (END) como es el caso de los corrosímetros, la resistividad eléctrica, la termografía infrarroja, los métodos radioactivos y el georradar. Para la detección del grado de afectación del hormigón se utilizan un conjunto de técnicas y procedimientos para disminuir la ambigüedad de la tarea inversa. En la práctica, resulta difícil tener el equipamiento de todas estas técnicas, por lo que en muchas investigaciones se habla de un conjunto racional de métodos que disminuya los costos, pero que sean eficientes para la detección de los aceros y la evaluación de las estructuras de hormigón armado. Las modalidades eléctricas tienen un gran potencial en END de hormigón. Muchos factores diferentes afectan la conductividad eléctrica del hormigón. La conductividad eléctrica depende, por ejemplo, del contenido de humedad [9],[10]; carbonatación [11], cloruros y sulfatos [12] y agrietamiento [13]. En el hormigón armado las barras de refuerzo también producen contraste con respecto a la impedancia eléctrica. Además, la corrosión de la barra de refuerzo afecta la impedancia eléctrica entre una barra de refuerzo y el hormigón. En la mayoría de los casos, la variación espacial de la conductividad eléctrica del hormigón no se tiene en cuenta en las modalidades eléctricas. Sin embargo, la mayoría de las propiedades de hormigón varían espacialmente. Por ejemplo, la superficie del hormigón a menudo está seca y carbonatada; ambos factores dan como resultado una baja conductividad eléctrica en la superficie. Por otro lado, los cloruros a veces aumentan la conductividad eléctrica en las proximidades de la superficie del hormigón. Además, las fibras pueden estar distribuidas de forma desigual ([14]; [15]; [16]). La Tomografía Eléctrica (TE) es un método no destructivo idóneo para la localización de barras de refuerzo, la detección de grietas y oquedades, y la estimación de propiedades físicas - químicas del hormigón distribuidas de manera no homogénea que llevan contraste con respecto a la conductividad eléctrica (humedad, carbonatación, cloruros), pues con el análisis de las imágenes de resistividad eléctrica se pueden detectar [17]. El archipiélago cubano presenta clima cálido tropical estacionalmente húmedo, con influencia marítima, estas características producen un deterioro inmenso y anticipado de las estructuras de hormigón armado debido a la corrosión del acero de refuerzo, lo que constituye actualmente un problema social de la ciencia y la tecnología. Como parte del Plan del Estado cubano para el enfrentamiento al Cambio Climático (Tarea Vida), se planteó comenzar en el 2020 la rehabilitación del muro del malecón habanero para evitar las reiteradas inundaciones costeras. El muro del malecón, ubicado en la misma línea de costa, es afectado de forma constante por el mar y por los aerosoles marinos, factores que disparan el proceso de corrosión de los aceros de refuerzo en su interior. Para ello, es necesario identificar los tipos de daños causados por la corrosión y las zonas más afectadas de manera rápida y no destructiva, de forma tal que se racionalicen los recursos materiales y humanos de esta millonaria inversión. Este artículo propone como objetivo caracterizar la respuesta de la tomografía eléctrica en la evaluación del estado técnico de las estructuras de hormigón armado y su aplicación en el estudio de un sector del muro del malecón habanero que está comprendido entre las calles B y C. Los métodos eléctricos se utilizan ampliamente en ensayos no destructivos de hormigón para identificar defectos en la armadura tales como pérdida de adherencia, fracturas, pérdida de ductilidad y pérdida de sección y corrosión ([18]; [19]; [20]). Quizás el primer estudio en TE del hormigón sea el de [15] que fue seguido por [14] [16]. Estos estudios indican que los métodos de tomografía eléctrica pueden ofrecer una alternativa económica para las modalidades existentes en las pruebas no destructivas y producir reconstrucciones que son fáciles de interpretar. La resistividad eléctrica es una propiedad del material independiente de la geometría que describe la resistencia eléctrica de un material y está esencialmente relacionada con la penetrabilidad de los fluidos y el movimiento de iones a través de materiales porosos como el hormigón [21]. En los últimos años, ha habido un aumento en el número de estudios destinados a evaluar la idoneidad del uso de la resistividad eléctrica del hormigón para evaluar indirectamente la actividad de corrosión y, por lo tanto, predecir la vida útil de las estructuras de hormigón armado [22]; [23]; [24]. Estos estudios han demostrado que la resistividad eléctrica tiene el potencial de convertirse en un indicador rápido de durabilidad del hormigón para aplicaciones de laboratorio y de campo. Por ejemplo, la resistividad eléctrica (o su inversa, conductividad) se ha utilizado para determinar las tasas de corrosión en el hormigón [25]; [26] y tiene el potencial para evaluar la carbonatación y el ingreso de cloruro [27]. Otros estudios han demostrado que la tasa de corrosión es inversamente proporcional a la resistividad del hormigón o directamente proporcional a su conductividad eléctrica [9]. No existen reglas generalmente aceptadas para relacionar la resistividad del hormigón con la velocidad de corrosión. El vínculo entre las dos debe establecerse para cada hormigón de forma individual debido a los variables componentes iónicos dentro de cada hormigón [24]. La resistividad eléctrica del hormigón disminuye casi linealmente con el aumento de la relación agua / cemento para un contenido de cemento dado [28] y, por lo tanto, la resistividad eléctrica puede ser un diagnóstico de la resistencia a la compresión. La corriente eléctrica se conduce a través del hormigón húmedo mediante iones (mecanismo electrolítico). Para demostrar la viabilidad de la tomografía eléctrica como ensayo no destructivo para localizar barras de refuerzo o materiales conductores se realizaron varios estudios ([17]; [29]) dando como resultado la alta resolución de este método debido al fuerte contraste que existe entre la resistividad del hormigón y los diferentes objetos empotrados en las muestras. En el control de entrada de agua en muestras de hormigón que presentan parte de sus paredes internas dañadas se demostró la disminución progresiva de la resistividad eléctrica en las zonas con poros ocupados por agua o humedad además del flujo preferencial del agua por las zonas dañadas ([30]; [31]). La resistividad eléctrica del hormigón puede ser medida en tres situaciones distintas y de dos formas diferentes: en probetas durante el tiempo de curado del hormigón para estimar a partir de las correlaciones existentes, la resistencia a la compresión que tendrá dicho hormigón una vez seco [32], en núcleos extraídos de las estructuras como parte de un ensayo destructivo o in situ, sobre la estructura. Las dos primeras se realizan con un dispositivo tetraelectródico tipo Wenner de escasos centímetros de separación con el objetivo de hallar un valor promedio de resistividad eléctrica que permita caracterizar al hormigón, sin embargo, las mediciones in situ, posibilitan el empleo de la TE y mayores ventajas en la evaluación del estado técnico de las estructuras. En Cuba, solo se tiene información de estudios donde se han aplicado las dos primeras variantes de medición [32]; [33]; [34] aunque no se descarta que algunas empresas de proyectos e investigaciones, cumpliendo alguna tarea técnica, hayan aplicado TE sobre estructuras o losas de hormigón armado. 2. MATERIALES Y MÉTODOS La resistividad eléctrica (ρ) es la propiedad del material que cuantifica la oposición del mismo al paso de la corriente eléctrica. Cuando se hace pasar una corriente eléctrica por el interior del hormigón, ésta es conducida por los iones disueltos en la red de poros interconectada [35]. La determinación de la resistividad eléctrica del hormigón puede realizarse de diferentes maneras, de acuerdo con las condiciones del ensayo (laboratorio o in-situ) y de las condiciones de la probeta. La resistividad puede ser medida mediante el uso de una corriente alterna (CA) o directa (CD). El uso de esta última en elementos de hormigón genera la polarización del electrolito y la formación de oxígeno e hidrógeno en los electrodos [36]. La variante más empleada para medir la resistividad eléctrica del hormigón es la de cuatro puntas o de Wenner, conocida de los estudios en suelos. Se hace circular una pequeña corriente alterna entre los dos electrodos más externos de los cuatro que a igual distancia están en contacto con la superficie del hormigón. Luego se mide la diferencia de potencial obtenida entre los electrodos internos. La resistividad es determinada mediante la siguiente ecuación: (1) Donde: ρ = resistividad eléctrica [ohm-cm], α= separación de los electrodos [cm], U= potencial entre los electrodos internos [V], I= intensidad de la corriente aplicada [A]. La segunda variante es la de dos pines o electrodos. Está basada en hacer pasar una corriente entre dos electrodos colocados sobre la superficie del hormigón, midiendo el potencial entre ellos. Esta técnica es muy simple, pero con grandes limitaciones, ya que las mediciones están bajo la influencia del hormigón en las proximidades del electrodo. La tomografía eléctrica es otra variante para determinar las variaciones espaciales de la resistividad eléctrica. Es un método de prospección geofísica cuyo objetivo es obtener la distribución de la resistividad eléctrica del medio, tanto lateralmente como en profundidad. Consiste en introducir en el medio una corriente eléctrica de intensidad conocida, a través de unos electrodos de corriente (A, B) colocados de forma equidistante a lo largo de un perfil. A partir de la intensidad de esta corriente y de la diferencia de potencial registrada por los electrodos de potencial (M, N), el instrumento proporciona el valor de la resistividad aparente en puntos situados en el perfil de observación y a distintas profundidades (pseudoperfiles de resistividad aparente). Posteriormente, se realiza la inversión numérica de la resistividad aparente mediante programas informáticos para obtener la distribución de la resistividad eléctrica real. Además de los estudios a lo largo de un perfil (2D), también se pueden realizar estudios 3D, en cuyo caso las observaciones se realizan en perfiles paralelos equidistantes, definiendo una cuadrícula [37]. Estos últimos sólo se emplean en casos muy específicos, pues implican un gran número de mediciones. A diferencia de los métodos convencionales la tomografía eléctrica realiza todas las medidas de forma totalmente automatizada, es decir, sin necesidad de mover manualmente ningún electrodo. Ello se debe a que se trabaja con un gran número de electrodos en el terreno (dispuestos a igual distancia), y por otro a que el dispositivo de medición se encarga de realizar automáticamente toda la secuencia de medidas preestablecida, formando para ello y según las especificaciones predefinidas, las combinaciones posibles de cuatro electrodos. De esta forma se irá obteniendo la variación de resistividad eléctrica del medio tanto en profundidad como lateralmente [38]. Los diferentes tipos de dispositivos empleados en el método geoeléctrico se diferencian entre sí por la distancia relativa entre electrodos, y la posición de los electrodos de corriente respecto a los de potencial [39]. Los dispositivos geoeléctricos o arreglos más comunes empleados para la tomografía eléctrica son: Wenner, Wenner – Schlumberger, Dipolo – Dipolo, Polo –Polo, Polo – Dipolo y Multigradiente. El reto mayor en las mediciones de TE en hormigones surge de los problemas de contacto entre los electrodos y la superficie de hormigón. Los electrodos húmedos pueden proporcionar un buen contacto con el hormigón, pero el contacto no es estable con respeto al tiempo en el que el electrólito de los electrodos es absorbido por la muestra o la sección de hormigón. Además, la absorción excesiva del electrólito puede crear rutas de contacto entre electrodos cercanos. Los problemas de absorción pueden evitarse usando gel, sin embargo, el gel podría tener un contacto ligeramente peor que el de electrodos húmedos, especialmente, con el hormigón muy seco [6]. Los electrodos convencionales que se emplean en la mayoría de los levantamientos de tomografía eléctrica requieren que los electrodos se introduzcan en el medio que se desee estudiar. Sin embargo, en el caso de los ensayos no destructivos no son funcionales este tipo de electrodos por lo que se ha creado la alternativa de emplear otros tipos de electrodos para que esta técnica sea no invasiva. Athanasiou y otros investigadores [40] realizaron un estudio con el fin de examinar si los electrodos de base plana responden de manera similar a los electrodos convencionales. Se llevaron a cabo mediciones comparativas en varios entornos, como suelo, hormigón, pavimento, piedra caliza, midiendo primero con electrodos convencionales y luego siguiendo el mismo perfil, con electrodos de base plana, obteniendo resultados satisfactorios con los electrodos de base plana, demostrando su alta eficiencia en estudios que requieran de métodos no invasivos. Los electrodos de base plana consisten en una base de cobre plana cuadrada (dimensiones: 7 cm × 7 cm, espesor de 1 cm), que se coloca en la superficie del área de levantamiento y un delgado segmento cilíndrico de cobre (de 1 cm de diámetro) (de 7 cm de largo) unido a la parte de base plana para facilitar las conexiones de los cables [40]. Pruebas recientes con lodo de bentonita demostraron ser igualmente eficaces. En algunos casos, [41], demostraron que los electrodos de base plana se pueden omitir por completo insertando el cable de contacto directamente en los electrodos de tipo plastilina de bentonita. El malecón habanero Los malecones son estructuras que buscan resguardar un puerto o la costa de los embates de las olas. Se construyen como mecanismo defensivo ante el avance del agua y por lo general, es un rompeolas, un dique que se introduce en el mar. El malecón de La Habana, en Cuba, es la avenida marítima más famosa del país. Esta avenida que dispone de seis carriles y está protegida por un muro, con una longitud de ocho kilómetros, en la zona norte de la capital cubana. El malecón habanero empezó a erigirse en 1901, con los años se extendió hasta alcanzar su fisonomía actual; su construcción fue dividida en 6 sectores y tomó alrededor de 60 años [42]. Esta estructura, por su ubicación, ha sido abatido por los constantes avatares meteorológicos; los aerosoles marinos y debido a la falta de constancia en su mantenimiento, provocaron el resquebrajamiento de algunas franjas del muro y aceras. De todo el malecón habanero se eligió la zona entre las calles B y C para ser estudiada por ser el sector que presenta mayor información documental y visual sobre la ubicación de los aceros. Según las fotografías y la inspección visual, existen tres niveles de aceros que se extienden longitudinalmente; un primer nivel, con tres aceros a 20 cm de profundidad; el segundo nivel, con dos aceros a 60 cm de profundidad y el tercer nivel, a alrededor de un metro de profundidad, ubicado al mismo de la acera. Por otra parte, por cada nivel horizontal, están ubicados otros aceros perpendiculares a estos, los cuales se encuentran espaciados entre ellos a 40 cm. Igual, en el segundo nivel horizontal, están ubicados aceros perpendiculares a 40 cm de espaciamiento entre ellos e intercalados con los primeros. Por último, en el tercer nivel horizontal existen aceros perpendiculares, pero se desconoce el distanciamiento entre cada uno (Figura 1). Figura 1: .Aceros corroídos que se pueden detectar a simple vista en el sector de estudio [45]. Atendiendo a las clasificaciones de [43] las causas de la corrosión en esta estructura de hormigón armado son la presencia de una cantidad suficiente de cloruros, tanto porque se añadieron durante el amasado, como porque han penetrado desde el exterior; así como la carbonatación, pues en la época en que se construyó el muro del malecón habanero, se utilizaba arena de mar en las mezclas para construcciones, incidiendo grandes cantidades de estas partículas a la armadura. Durante la inspección visual se detectó que esta obra presenta una corrosión generalizada o uniforme y hay zonas donde no existe la capa de hormigón, quedando expuesto el acero; se pueden definir zonas de corrosión localizada. 3. RESULTADOS Para observar el comportamiento de la resistividad eléctrica aparente, y comprobar el poder resolutivo de la TE en la localización e identificación de distintas lesiones presentes en el hormigón armado, se confeccionaron varios modelos sencillos a partir del programa informático RES2DMOD y se obtuvo pseudosecciones de resistividad aparente, es decir, los valores que se deben obtener en las muestras de hormigón al realizar las mediciones de TE. Los valores de resistividad eléctrica utilizados fueron identificados durante la investigación bibliográfica. Las pseudosecciones de resistividad aparente dan una imagen muy aproximada de la distribución de resistividades en el medio. Sin embargo, la imagen que proporcionan está distorsionada por lo que se hace necesario realizar la inversión con el programa RES2DINV para lograr una correcta interpretación del medio, donde a partir de la pseudosección de resistividades aparentes, se obtiene un modelo del medio con los valores de resistividades eléctricas reales. Durante la investigación se realizaron varios modelos, pero en este trabajo solo se muestran los más representativos. Modelo 1. Se modela un acero de resistividad 7.2 x 10^-7 Ω*m embebido en un hormigón sano de resistividad eléctrica 300 Ω*m. La TE se diseñó de manera que cortase perpendicularmente al acero. Figura 2: Modelo 1 Pseudosecciones de resistividad aparente (izquierda), perfil de resistividad eléctrica real obtenido con la inversión (derecha). Distancia entre electrodos de 0.30m. En el dispositivo Wenner para los tres espaciamientos (0.10, 0.20 y 0.30), se denotan valores bajos de resistividades en los laterales de la ubicación del acero. El dispositivo Wenner-Schlumberger muestra una mayor sensibilidad que el Wenner, tanto a los cambios verticales como horizontales, por eso, se logra vislumbrar el acero con una separación entre electrodos de 0.30 (Figura 2). Modelo 2: Se modelan dos cuadrantes de hormigón, a la izquierda el hormigón sano (300 Ω*m) y a la derecha el hormigón húmedo (100 Ω*m). En cada uno de ellos hay un acero embebido con cierto grado de corrosión que ha provocado la delaminación. En la modelo esta delaminación se representa con vacíos (1000 Ω*m) alrededor de los aceros. Se pueden detectar los dos tipos de hormigón con los arreglos Wenner y Wenner- Schlumberger y sus respectivos aceros. Los valores de resistividad eléctrica que se muestran después de la inversión solo coinciden con los del modelo teórico en el caso de los hormigones, no siendo así para los aceros. En el modelo obtenido con el dispositivo Dipolo - Dipolo con espaciamiento 0.10 m (Figura 3) se distingue en el lugar del acero embebido en el hormigón sano una zona de alta resistividad eléctrica, lo que se interpreta como la zona de vacío o delaminación alrededor del acero. Además, se puede distinguir el acero en el hormigón húmedo. Figura 3: Modelo 2 Pseudosecciones de resistividad aparente (izquierda), perfil de resistividad eléctrica real obtenido con la inversión (derecha). Distancia entre electrodos de 0.10m. Modelo 3 Se modelan dos capas de hormigón. La primera muy porosa con resistividad eléctrica de 500 Ω*m con un acero embebido rodeado de vacíos producto de la delaminación, la segunda capa es de hormigón sano (300 Ω*m) con un acero embebido (7.2 x 10^-7 Ω*m). Figura 4: Modelo 3 Pseudosecciones de resistividad aparente (izquierda), perfil de resistividad eléctrica real obtenido con la inversión (derecha).Distancia entre electrodos de 0.20m. Para el modelo 7 los mejores resultados se obtuvieron con la separación 0.20 m (Figura 4) tanto con el arreglo Wenner como con el Wenner – Schlumberger ya que se puede identificar la primera capa resistiva con el hormigón embebido rodeado de zonas de alta resistividad que corresponden a los vacíos producidos por la delaminación. Además, se identifica la segunda capa con una resistividad eléctrica que corresponde con lo planteado en el modelo teórico con su acero de refuerzo. 4. DISCUSIÓN DE LOS RESULTADOS Para un análisis más realista del malecón habanero, se planteó un modelo que atiende mejor la distribución de los aceros en el sector de estudio. Se variaron las propiedades eléctricas del hormigón y de los aceros, así como los parámetros de adquisición. Para el modelo del caso de estudio se plantearon tres capas de hormigón: la primera de hormigón poroso pues es la capa más expuesta a los agentes agresivos con una resistividad eléctrica de 400 Ω*m donde se encuentra un acero embebido con un grado de corrosión despreciable. Luego la segunda capa es un hormigón húmedo con 100 Ω*m de resistividad, teniendo 90 % de riesgo de corrosión el acero empotrado [44], mientras que la tercera capa de hormigón húmedo también, con una resistividad de 40 Ω*m debido a que es la capa del muro que mayor contacto tendrá con el agua del mar por las salpicaduras de las olas, lo que conlleva a que el acero presente en esta capa tenga una corrosión severa. Figura 5: Modelo 4 Pseudosecciones de resistividad aparente (izquierda), perfil de resistividad eléctrica real obtenido con la inversión (derecha). Distancia entre electrodos de 0.20m para Wenner – Schlumberger y Wenner y 0.30 para Wenner En el modelo 4 se logran identificar las tres capas de hormigón con los arreglos Wenner y Wenner Schlumberger con separación entre electrodos 0.20 y 0.30m, pero el que mejor se asemeja con el modelo teórico es el obtenido con el arreglo Wenner con separación entre electrodos 0.20 metros, ya que además de ubicar las tres capas de hormigón se logra identificar el acero de la primera y la segunda capa (Figura 5). El segundo modelo del malecón habanero (Figura 6) se realizó muy similar al elaborado por [45] (Figura 7), pero en su caso, utilizando el Georradar GPR. Esto se realizó con el objetivo de comparar ambos resultados y disminuir la ambigüedad que pueda existir durante la interpretación de los datos. El modelo cuenta con dos capas de hormigón, la primera es de un hormigón muy poroso y fracturado con tres aceros embebidos uno de ellos muy corroído y se representa rodeado de vacíos que indican el proceso de delaminación. La segunda capa de hormigón sano con presencia de dos aceros uno de ellos muy corroído al igual que el de la primera capa. Figura 6: Modelo 5 Pseudosecciones de resistividad aparente (izquierda), perfil de resistividad eléctrica real obtenido con la inversión (derecha). Distancia entre electrodos de 0.10m. En este caso se modeló con un espaciamiento entre electrodos de 0.10 metros (Figura 6) y se puede detectar que con el dispositivo Wenner se logran distinguir los aceros con una zona de bajas resistividades y en el caso del acero corroído de la primera capa se aprecia alrededor de este, pequeñas áreas de alta resistividad eléctrica que representa los vacíos producto de la delaminación. También se pueden diferenciar las dos capas de hormigón coincidiendo con los valores de resistividad eléctrica que le fueron asignados en el modelo teórico. En la Figura 7se observa a través del radargrama resultante, que con esa frecuencia se detectan los aceros, siendo el de mayor amplitud el acero sin corroer, mientras que el acero con una capa de óxido presenta una hipérbola “borrosa”, respuesta típica en aceros con una temprana corrosión; mientras que en la zona donde está ubicado el acero totalmente corroído, los reflectores se definen con nitidez y se detecta un cambio en la polaridad de la amplitud, lo que demuestra la presencia de aire alrededor de este acero. En el centro del radargrama hay una línea horizontal que define el contraste existente entre los dos tipos de hormigones, la cual enmascara la señal de los aceros del segundo nivel [45]. Figura 7: Realizado con una frecuencia de 700 MHz 500 scan/m y 512 muestras. Ambos con ganancia 10 [45]. La tomografía eléctrica y el georradar en conjunto son una poderosa combinación como ensayo no destructivo (END), pues con ellos se logran detectar las dos capas de los diferentes hormigones, además, tanto en la tomografía como en el GPR se pueden distinguir el acero con alto grado de corrosión en el primer nivel. Con el georradar se logra ubicar con mayor exactitud la ubicación de los aceros, no siendo tan precisa con la tomografía; de ahí la importancia del empleo de métodos geofísicos combinados para disminuir la ambigüedad en la interpretación de los datos. Luego de llevarse a cabo la modelación computacional de varios escenarios en el sector de estudio, se propone realizar un levantamiento de tomografía eléctrica haciendo uso del Terrameter LS2 de la compañía ABEM empleando 4 ristras de 24 electrodos cada una y colocando cada electrodo sobre el perfil separados a 0.30 metros. Se proponen las configuraciones de electrodos Wenner, Wenner – Schlumberger y el Gradiente Múltiple. Este último arreglo no fue posible modelarlo, pues se requería de una licencia para ser usado por el programa Res2DMOD, pero durante la investigación bibliográfica se pudo identificar sus ventajas. Teniendo en cuenta que en este trabajo se propone la tomografía eléctrica como un ensayo no destructivo (END) se hace necesario la elaboración de electrodos de cobre de base plana para realizar el levantamiento, para mejorar el contacto eléctrico hay que asegurarse que el muro se encuentre húmedo o de lo contrario humedecerlo un poco antes de comenzar. Además, se debe raspar con una espátula el lugar antes de colocar los electrodos para eliminar la capa de sales altamente conductoras. Se proponen dos variantes de adquisición. La primera variante incluye tres perfiles longitudinales (color rojo), que se deben trazar, uno en la cara interior del muro (lado de la acera), a 0.50m de la acera (P1), otro sobre el muro, a 0.25 m del borde interior (P2), un perfil (P3) a 1,50 m del borde en la cara exterior del muro (lado del mar). Los cuatro perfiles transversales (color azul) (P4, P5, P6, P7) se deben trazar separados 25 m uno de otro, de forma tal que se asegure cortar los aceros longitudinales de forma perpendicular, pero procurando no medir encima de los estribos para que no haya apantallamiento. Los perfiles transversales, en cuanto a su longitud, comenzarán en la acera y terminarán en la base del muro (hacia el mar) (Figura 8). Los electrodos de base plana en las caras verticales del muro deben fijarse bien con cinta adhesiva. La ventaja de esta variante es que presenta una mayor caracterización de los estribos en el lado exterior del muro y el estudio de la base del mismo. Se propone utilizar la técnica roll-along para la adquisición de datos de la variante 1, alcanzando una longitud de 100 m. Figura 8: Variante I: Tres perfiles longitudinales (rojo) y perfil transversales (azul). La segunda variante, de mayor costo económico pero mayor poder resolutivo, sería un levantamiento 3D para un reconocimiento de detalle de todo el sector comprendido entre las calles B y C del malecón habanero, con una distancia entre líneas o perfiles de 0.40 metros (Figura 9). Figura 9: Variante II: levantamiento 3D. 5. CONCLUSIONES Todo lo antes expuesto resalta la capacidad que tiene el empleo de la tomografía eléctrica como END para evaluar el estado técnico de estructuras de hormigón armado; por tal motivo los autores de este trabajo proponen a las empresas del sector de la construcción del país el empleo de esta técnica no invasiva en la ejecución de sus proyectos, además de llevar a cabo las mediciones de tomografía eléctrica en el sector de estudio del malecón habanero con una de las variantes de adquisición propuestas y emplear como método complementario el georradar ya que ha quedado demostrada la utilidad y eficiencia de ambos métodos para diferenciar las zonas de hormigón armado con desarrollo de corrosión de las zonas de humedad y otras patologías. REFERENCIAS 1. ROJAS, G. 2008. Evaluación de estructuras de concreto por corrosión. Tecnología en Marcha. 21, 69 - 78. 2. PARDO, M. 2020. Hormigón Armado [en línea]. Disponible en: https://marcelopardo.com/hormigon- armado/ 3. FERNÁNDEZ, M. 1994. Patología y Terapéutica del Hormigón Armado. 3ra Edición. 2019. 4. CASTAÑEDA, A. 2013. “Estudio de la corrosión atmosférica del acero de refuerzo embebido en el hormigón armado en La Habana”. Tesis en opción al grado de Tesis en opción al grado de Doctor en Ciencias Técnicas (inédita), Universidad Tecnólogica de La Habana "José A. Echeverría". 5. MUÑOZ, F. y C.J. MENOZA. 2013. “La durabilidad en las estructuras de concreto reforzado desde la perspectiva de la norma española para estructuras de concreto”. Concreto y cemento. Investigación y desarrollo. vol. 4, p. 63-86. 6. KARHUNEN, K. 2013. "Electrical Resistance Tomography Imaging of Concrete". Tesis en opción al grado de (inédita), University of Eastern Finland Department of Applied Physics. 7. PORTO, J. 2005. Manual de patologías en estructuras de hormigón armado [en línea]. Disponible en: https://ruc.udc.es/ 8. ACI Commite 228. 2013. Report on nondestructive test methods for evaluation of concrete in structures [en línea]. Disponible en: https://www.concrete.org 9. HUNKELER, F. 1997. Monitoring of repaired reinforced concrete structures by means of resistivity measurements. Materials Science Forum (Switzerland). 247:, 93–106. 10. MCCARTER, W.J. y S. GARVIN. 1989. Dependence of electrical impedance of cement-based materials on their moisture condition. Journal of Physics D: Applied Physics. 22, 11. HUNKELER, F. 2005. Corrosion in Reinforced Concrete Structures. 1-45. 12. SALEEM, M., M. SHAMEEM, S.E. HUSSAIN y M. MASLEHUDDIN. 1996. Effect of moisture, chloride and sulphate contamination on the electrical resistivity of Portland cement concrete. Construction and Building Materials. 10(3), 209–214. 13. PELED, A., J.M. TORRENTS, T.O. MASON, S.P. SHAH y E.J. GARBOCZI. 2001. Electrical Impedance Spectra to Monitor Damage during Tensile Loading of Cement Composites. ACI Materials Journal. 98(4), 313–322. 14. BUETTNER, M., A. RAMIREZ y W. DAILY, 1996. Electrical resistance tomography for imaging concrete structures. San Diego, CA (United States), 20–23 Feb 1996. 15. DAILY, W., A. RAMIREZ, A. BINLEY y S. HENRY-POULTER, 1994. Electrical resistance tomography of concrete structures. Lisbon (Portugal), 24– 27 Mar 1994. . 16. HOU, T. y J.P. LYNCH, 2006. Tomographic imaging of crack damage in cementitious structural components. Taipei, Taiwan, October 12–13, 2006. 17. SEPPÄNEN, A., K. KARHUNEN, A. LEHIKOINEN, J.P. KAIPIO y P.J.M. MONTEIRO. 2008. Electrical resistance tomography imaging of concrete. Concrete Repair, Rehabilitation and Retrofitting II. 18. MCCARTER, W.J. y R. BROUSSEAU. 1990. Ac response of hardened cement paste. 19. MONTEIRO, P.J.M., F. MORRISON y W. FRANGOS. 1998. Nondestructive measurement of corrosion state of reinforcing steel in concrete. ACI Materials Journal. 95(6). 20. POLDER, R.B. 2001. Test methods for on site measurement of resistivity of concrete—a RILEM TC- 154 technical recommendation. Construction and Building Materials. 15, 125–131. 21. MARTA, K.-K. y W. JEZIERSKI. 2005. Evaluation of Concrete Resistance to Chloride Ion Penetration by Means of Electrical Resistivity Monitoring. Journal of Engineering Management. V. 11, No. 2, 109-114. 22. ANDRADE, C. y J.A. GONZALEZ. 1998. Relation between Concrete Resistivity and Corrosion Rate of Reinforcements in Carbonated Mortar Made with Several Cement Types. Cement and Concrete Research. V. 18, 687-698. 23. SENGUL, O. y O.E. GJØRV. 2008. Electrical Resistivity Measurements for Quality Control during Concrete Construction. ACI Materials Journal. V. 105, No. 6, Nov.-Dec. 2008, 541-547. . 24. SILVA, B.J., S. JALALI y R.M. FERREIRA, 2006. Estimating Electrical Resistivity Based on Early Age Measurements. Madrid, Spain. 25. ALONSO, C., C. ANDRADE y J.A. GONZÁLEZ. 1988. Relation between Resistivity and Corrosion Rate of Reinforcements in Carbonated Mortar Made with Several Cement Types. Cement and Concrete Research. V. 18, No. 5, 687-698. 26. MILLARD, S.G., M.H. GHASSEMI, J.H. BUNGEY y M.I. JAFAR, 1990. Assessing the Electrical Resistivity of Concrete Structures for Corrosion Durability Studies. London, UK. 27. MORAY, D.N., M.R. JONES, K. SIVAKUMAR y T.A. HARRISON. 2008. Sensitivity of Electrode Contact Solutions and Contact Pressure in Assessing Electrical Resistivity of Concrete. Materials and Structures. V. 41,, 621-632. 28. NEVILLE, A.M. 1998. Properties of concrete. 4ta Edición. 29. SEPPÄNEN, A., K. KARHUNEN, A. LEHIKOINEN, J.P. KAIPIO y P.J.M. MONTEIRO. 2009. Locating reinforcing bars in concrete with Electrical Resistance Tomography. Concrete Repair, Rehabilitation and Retrofitting II. 30. RYMARCZYK, T., G. KŁOSOWSKI y E. KOZŁOWSKI. 2018. A Non-Destructive System Based on Electrical Tomography and Machine Learning to Analyze the Moisture of Buildings. Sensors. 18. 31. SURYANTO, B., D. SARAIREH, J. KIM, W.J. MCCARTER, G. STARRS y H.M. TAHA. 2017. Imaging water ingress into concrete using electrical resistance tomography Heriot-Watt University, School of Energy, Geoscience, Infrastructure and Society. Edinburgh, EH14 4AS. 32. CASTILLO, A., J.R. MARTÍNEZ y N.E. DÍAZ. 2018. La resistividad eléctrica como herramienta para el control de la calidad del hormigón. Revista de Arquitectura e Ingeniería. Vol.12 No. 3 33. RIVERÓN, R. 2010. "Algunas consideraciones sobre la resistividad eléctrica en modelos y probetas". Tesis en opción al grado de (inédita). 34. SÁNCHEZ, H. 2017. "Evaluación de la permeabilidad al aire en especímenes de hormigón elaborado con cemento de bajo carbono". Tesis en opción al grado de (inédita), Universidad Central Marta Abreu de Las Villas. 35. ANDRADE, C. y R.D. ANDREA. 2011. La resistividad eléctrica como parámetro de control del hormigón y de su durabilidad. Revista ALCONPAT. Vol. 1 (2) 90-98. 36. LIZARAZO, J.M. 2006. "Desarrollo de un modelo de redes neuronales para predecir la resistencia a la compresión y la resistividad eléctrica del concreto". Tesis en opción al grado de Tesis de grado para optar por el título de Magister en Estructuras (inédita), Universidad Nacional de Colombia. 37. PRO, C. 2021. Tomografía Eléctrica: fundamentos y aplicaciones Cuadernos de Metodología: Centro Universitario de Mérida. 38. SERRANO, J. 2003. Tema 3: "Tomografía Eléctrica" [en línea]. Disponible en: https://upcommmons.upc.edu/ 39. MOLINA, W.L. 2006. "COMPARACIÓN DE LOS MÉTODOS 1-D Y 2-D DE RESISTIVIDAD ELÉCTRICA POR MEDIO DE SONDEOS TIPO WENNER, DIPOLO- DIPOLO Y WENNER-SCHLUMBERGER CON LA UTILIZACIÓN DE LOS PROGRAMAS DCINV, RES2DMOD Y RES2DIN". Tesis en opción al grado de (inédita), UNIVERSIDAD SIMÓN BOLÍVAR Sartenejas, Venezuela. 40. ATHANASIOU, E.N., P.I. TSOURLOS, G.N. VARGEMEZIS, C.B. PAPAZACHOS y G.N. TSOKAS. 2007. Non-destructive DC resistivity surveying using flat-base electrode. European Association of Geoscientists & Engineers, Near Surface Geophysics. 5, 263-272. 41. TSOURLOS P.I. y TSOKAS G. 2011. Non-destructive Electrical Resistivity Tomography Survey at the South Walls of the Acropolis of Athens. Archaeological Prospection. 18, 173–186. 42. BIANCHI, C. 2016. Historia de la construcción del Malecón de La Habana [en línea]. Disponible en: www.norfipc.com/cuba/historia/-construcción-malecón-habana.php [Consulta en: 10 de diciembre]. 43. ANDRADE, C. y S. FELIU. 1989. Manual inspección de obras dañadas por corrosión de armaduras. ACOR Artes Graficas S. A. 10. 44. GUERRERO, J., V. MONTOYA y F. RODRÍGUEZ. 2016. Identificación y evaluación del riesgo de la corrosión en estructuras de concreto armado en plantas industriales sometidas a un ambiente ácido. Ciencia a ciertas. 46. 45. HERNÁNDEZ, E.A. 2020. "El Georrdar en la evaluación no destructiva de estructuras de hormigón armado afectadas por la corrosión. Propuesta para un sector del muro del malecón habanero". Tesis en opción al grado de Trabajo presentado en opción al título de Ingeniero Geofísico (inédita), UNIVERSIDAD TECNOLÓGICA DE LA HABANA “José Antonio Echeverría” La Habana, septiembre 2020 COMPORTAMIENTO DE UNA MEZCLA DE CONCRETO ASFÁLTICO CUANDO SE SUSTITUYE PARCIALMENTE EL AGREGADO PÉTREO POR ESCORIA DE ALTO HORNO Hugo Alexander Rondón-Quintana1, Juan Carlos Ruge-Cárdenas2, Fredy Alberto Reyes-Lizcano3 1Facultad del Medio Ambiente y Recursos Naturales, Universidad Distrital Francisco José de Caldas, Carrera 5 Este 15-82, sede El Vivero, Bogotá D.C., Colombia; 2Facultad de Ingeniería, Universidad Militar Nueva Granada, Carrera 11 101-80, Bogotá D.C., Colombia; 3Facultad de Ingeniería, Pontifica Universidad Javeriana, Carrera 7 No. 40-62, Bogotá D.C., Colombia 1e-mail: harondonq@udistrital.edu.co RESUMEN En el presente estudio, inicialmente se ejecutó una fase experimental que buscó evaluar el efecto que causa sustituir las fracciones gruesa y fina de agregados pétreos naturales (NGA) por una escoria de alto horno (BFS), sobre la resistencia mecánica bajo carga monotónica de una mezcla de concreto asfáltico. De esta fase se concluyó que el mejor comportamiento se obtiene cuando se sustituye la fracción fina. Por tal motivo, las siguientes fases experimentales evaluaron las propiedades mecánicas de la mezcla cuando se sustituye la fracción fina del NGA por BFS. Fueron realizados ensayos de tracción indirecta, módulo resiliente y deformación permanente. También se evaluó la resistencia al daño por humedad. Sobre el filler del NGA y la BFS fueron realizados ensayos de difractometría de rayos X (DRX) y fluorescencia de rayos X (FRX), así como visualizaciones con microscopio electrónico de barrido (MEB). Como conclusión general se obtuvo, que el mejor comportamiento lo experimenta la mezcla que sustituye las partículas más finas del agregado pétreo del NGA por BFS (tamaño igual e inferior a 0.075 mm o filler). No se recomienda sustituir la fracción gruesa, ya que generó un incremento notable de los vacíos en la mezcla, necesidad de aumentar el contenido de asfalto y disminuyó la resistencia mecánica bajo carga monotónica. PALABRAS CLAVES: escoria de alto horno, mezcla asfáltica, resistencia bajo carga monotónica y cíclica, resistencia al daño por humedad. ABSTRACT In the present study, an experimental phase was initially carried out in order to evaluate the effect caused by substituting the coarse and fine fractions of natural aggregates (NGA) by a blast furnace slag (BFS), on the mechanical resistance under monotonic load of a hot-mix asphalt. From this initial phase it was concluded that the best behavior is obtained when the fine fraction is replaced. For this reason, the following experimental phases evaluated the mechanical properties of the mixture when the fine fraction of NGA is replaced by BFS. Indirect tension, resilient modulus and permanent deformation tests were carried out. Resistance to moisture damage was also evaluated. X-ray diffractometry (XRD) and X-ray fluorescence (XRF) tests were performed on the NGA and BFS filler, as well as scanning electron microscope (SEM) visualization. As a general conclusion, it was obtained that the best behavior is undergo by the mixture that replaces the finest particles of the NGA aggregate with BFS (size equal to and less than 0.075 mm or filler). Substituting the coarse fraction is not recommended, since it generated a notable increase in voids in the mixture, the need to increase the asphalt content, and decreased mechanical strength under monotonic load. KEY WORDS: blast furnace slag, asphalt mix, strength under monotonic and cyclic loading, resistance to moisture damage. 1. INTRODUCCIÓN Las escorias pueden ser clasificadas en tres categorías: las ferrosas como las escorias de alto horno, las no ferrosas y las que se producen por incineración (Shen y Forssberg, 2003). De acuerdo con Das et al. (2007) las escorias de alto horno (BFS) son materiales inorgánicos cuya composición típica es: sílice (30- 35%), óxido de calcio (28-35%), óxido de magnesio (1-6%), y Al2O3/Fe2O3 18-25%. En la Tabla 1 se presenta la composición química reportada por Byers et al. (2004) y Leon et al. (2009). Este material se forma cuando el mineral de hierro, coque y un fundente (ya sea de piedra caliza o dolomita) se funden juntos en un alto horno. Cuando el proceso de fundición metalúrgico se completa, la cal en el flujo se ha combinado químicamente con los aluminatos y silicatos de la ceniza de mineral y el coque, formando la escoria de alto horno (FHWA, 2008; Marriaga y Claisse, 2011). De acuerdo con la NSA (2016), las escorias al salir de los altos hornos son enfriadas lentamente al aire libre (ACBFS, Air-Cooled Blast Furnace Slag) o rápidamente aplicándoles chorros de agua fría (escorias expandidas). Las primeras son utilizadas principalmente en la construcción como agregado pétreo (concreto y materiales de relleno, entre otros), mientras las segundas son más utilizadas en la producción de cemento. Asimismo, las escorias expandidas, debido a su mayor porosidad y reducido peso en comparación con las ACBFS (Van Oss, 2013), son utilizadas en la fabricación de concretos y mampuestos ligeros. Tabla 1: Composición química de escorias de alto horno. Componente Emery (1982) Jones (1982) León et al. (2009) CaO [%] 36-45 40 43.3 SiO2 [%] 33-42 36.8 25.5 Al2O3 [%] 10-16 16 17 P [%] - - 2.3 MgO [%] 3-16 5.4 1.45 Na2O [%] - - 1.4 S [%] 1-3 0.4 1 FeO [%] 0.3-0.2 0.2 - Fe [%] - - 0.5 Fe2O3 [%] - - 0.71 MnO [%] 0.2-1.5 0.5 - TiO2 [%] - 0.3 - K2O [%] - 0.4 0.14 De acuerdo con Okumura (1993), Proctor et al. (2000) y Airey et al. (2004), la producción anual de escoria de alto horno en USA, Japón y Reino Unido es de 13, 24.3 y 4 millones de toneladas, respectivamente. Según Proctor et al. (2000), y Das et al. (2007), por cada tonelada de hierro producido se genera una cantidad de escoria de alto horno entre 220-370 kg y 340-421 kg, respectivamente. El método convencional de eliminar escorias es transportándolas y depositándolas en escombreras. Lo anterior genera un problema ambiental, ya que ocupan espacios dentro de los rellenos sanitarios, desperdiciando un material que puede ser reutilizado. De acuerdo con Nouvion et al. (2009), al utilizar escorias de alto horno se podría i) reducir el uso de agregados pétreos naturales, evitando adicionalmente la liberación de contaminantes en el aire, el agua y el suelo durante el procesamiento de dichos materiales, ii) disminuir el consumo de energía durante el proceso de extracción de agregados naturales. Las BFS han sido utilizadas ampliamente en el mundo desde hace más de un siglo. Algunos usos han sido como fertilizantes (Geiseler, 1996), en la construcción de carreteras (Houben et al., 2010), en la recuperación de suelos y en la preparación de materiales tales como vidrio de cerámica, gel de sílice, ladrillos, entre otros (Das et al., 2007). Sin embargo, tal vez su mayor uso es en la producción de cemento (Shi, 2004; Das et al., 2007; Abu-Eishah et al., 2012; Sorlini et al., 2012), ya que este tipo de escoria (Das et al., 2007): i) contiene poco hierro, alto contenido de óxido de calcio y composición similar al clinker, ii) es un material que puede ser utilizado de forma segura junto con el clinker y el yeso, iii) debido al bajo contenido de hierro que contienen pueden ser usadas con seguridad en la producción de cemento, iv) ayudan a desarrollar en el cemento propiedades tales como bajo calor de hidratación, buena resistencia a largo plazo y a los ácidos, v) permiten hacer ahorros a las industrias del cemento. Adicional a lo anterior, Shi (2004) menciona, que las BFS exhiben propiedades cementantes. Con respecto al uso de BFS en proyectos de construcción, existen pocas preocupaciones ambientales, ya que los metales y componentes en dichas escorias están fuertemente adheridos a su matriz y no lixivian fácilmente. Con respecto a la utilización de BFS en la producción de mezclas asfálticas muy pocos estudios han sido realizados en comparación con los otros usos reportados con anterioridad. Airey et al. (2004) reportan, que al triturarse estos materiales producen un agregado con una textura superficial rugosa de alta porosidad que resulta en buenas características adhesivas con ligantes bituminosos. Sin embargo, estas propiedades contribuyen a necesitar mayores cantidades de bitumen para producir una mezcla asfáltica (Airey et al., 2004; FHWA, 2008). De acuerdo con FHWA (2008) esta mayor demanda de asfalto se encuentra por encima del 3% con respecto al óptimo cuando se emplean agregados convencionales, resultando en un incremento en el costo. A pesar de lo anterior, este mayor costo se podría compensar con el mayor rendimiento (volumen por masa) de BFS como agregado debido al menor peso unitario de la mezcla. Algunas conclusiones obtenidas por la FHWA (2008) son: i) las capas de rodadura que utilizan BFS como agregados pétreos demuestran una buena resistencia a la fricción (debido a su forma angular generan un alto ángulo de fricción, entre 40° y 45°; Van Oss, 2013), buena resistencia al fenómeno de stripping, y alta estabilidad. Sin embargo, la resistencia al impacto no es muy alta y el material puede descomponerse en condiciones de tráfico pesado. Por lo anterior, estos materiales como agregados son más adecuados para aplicaciones de superficie de tratamiento de pavimentos de tráfico bajo. ii) La variabilidad en el proceso de producción de hierro puede dar lugar a una falta de consistencia en las propiedades físicas (gradación, gravedad específica, absorción y angulosidad). iii) Aunque la resistencia al desgaste por abrasión de las escorias de alto horno en la máquina de Los Ángeles no es particularmente favorable (ya que los bordes afilados se rompen), el rendimiento de campo ha sido satisfactoria. Por tal razón, este ensayo ha sido eliminado de algunas especificaciones estándar para caracterizar escorias de alto horno. iv) Tienen buena afinidad con el asfalto, lo que ayuda a desarrollar una buena adherencia. v) Por ser un material poroso en comparación con agregados convencionales, puede ser necesario un tiempo de secado más largo en plantas de producción de mezclas asfálticas. Un estado del conocimiento sobre el uso de escorias de alto horno en mezclas asfálticas puede ser consultado en Rondón-Quintana et al. (2018). Existen otros tipos de escorias que no deben ser confundidas con las de altos hornos. Tal vez unas de las más estudiadas sean la de acero (SS, por sus siglas en inglés). En comparación con las escorias BFS, las SS han sido más estudiadas y utilizadas. Lo anterior es debido tal vez a que las SS son más densas y resistentes a la abrasión y a cargas mecánicas que las BFS (Airey et al., 2004). Adicionalmente, las SS han demostrado ser un buen reemplazo de agregados convencionales en la fabricación de mezclas asfálticas (Xue et al., 2006; Asi et al., 2007; Wu et al., 2007; Kök y Kuloğlu, 2008; Ahmedzadea y Sengoz, 2009; Pasetto y Baldo, 2010, 2011; Ameri y Behnood, 2012; Sorlini et al., 2012; Chen et al., 2014; Wen et al., 2014; Oluwasola et al., 2015). Sin embargo, las BFS son volumétricamente más estables, ya que las SS contienen óxidos de calcio y magnesio que reaccionan con el agua produciendo expansión (Airey et al., 2004; Wang et al., 2010). Algunas investigaciones en el mundo se han ejecutado, con el fin de evaluar el uso de BFS en la producción de mezclas asfálticas. Sin embargo, la discusión sobre el tema aún no ha finalizado. Las escorias son materiales altamente heterogéneos (formas y tamaños de partículas, composición química, textura, gravedad específica, resistencia al desgaste y porosidad, entre otros), que desarrollan características y propiedades complejas (Akbarnejad et al., 2014; Rondón-Quintana et al. 2019). Para dar un ejemplo, en la Figura 1 se presentan los dos tipos de partículas que predominan en la BFS, que se empleó en el presente estudio. Las partículas de la imagen izquierda son las que se presentan en mayor cantidad dentro del BFS (aproximadamente un 75% con respecto a la masa), su coloración superficial es negra brillante, y cuando se trituran, internamente desarrollan coloración grisácea. Adicionalmente presentan una consistencia rígida, dura y masa similar a la de agregados pétreos naturales (NGA), a pesar que son mucho más porosas (p.e., en promedio, partículas de BFS y NGA de 1” de diámetro presentan en promedio masas de 32 y 35 g, respectivamente). Por el contrario, las partículas de la imagen derecha son fáciles de desgastar por abrasión (incluso con las manos), son livianas, presentan coloración verde claro y flotan en el agua (en promedio cada partícula de 1” de diámetro presenta una masa aproximada de 9 g). Figura 1: Partículas de escoria (tamaño entre ¾” y 1” de diámetro). En el presente estudio se intenta ayudar a que se profundice en la discusión de cómo utilizar las BFS como sustitutos de NGA en la fabricación de mezclas asfálticas. Para tal fin, inicialmente se realizó una fase de caracterización de los materiales granulares (BFS y NGA), para luego continuar con la fabricación de mezclas asfálticas sustituyendo parcialmente NGA por BFS. Se evaluó la resistencia bajo carga monotónica (ensayo Marshall – AASHTO T 245 y tracción indirecta – AASHTO T 283) de mezclas donde se sustituyó solamente la fracción gruesa del NGA por BFS (Figura 2, imagen izquierda), y en otras, la fracción fina (Figura 2, imagen derecha). Estas fases fueron ejecutadas con el fin de escoger la mezcla que experimenta mejor comportamiento bajo carga monotónica, y sobre ésta medir propiedades bajo carga cíclica (módulo resiliente - ASTM D7369 y resistencia a la deformación permanente – EN 12697-2000) y daño por humedad (AASHTO T 283). Como ligante para la fabricación de las mezclas se utilizó cemento asfáltico CA 60-70, y como granulometría de referencia, la del concreto asfáltico MDC- 19 (INVIAS, 2013), debido a que son el asfalto y el tipo de mezcla más utilizados en Colombia para la conformación de capas asfálticas. Figura 2: Partículas de escoria (gruesos y finos). 2. METODOLOGÍA Caracterización de materiales En las Tablas 2 y 3 se presentan los valores obtenidos de los ensayos de caracterización ejecutados al agregado pétreo natural (NGA) y al asfalto CA 60-70, respectivamente. Estos materiales cumplen con los requisitos mínimos de calidad que exigen las especificaciones INVIAS (2013) para la fabricación de mezclas de concreto asfáltico. La escoria BFS utilizada fue del tipo ACBFS (gruesa y fina), procedente de la empresa Acerías Paz del Río (Nobsa – Boyacá, Colombia). Sobre este material se hicieron los mismos ensayos que se especifican para NGA y los resultados se presentan en la Tabla 4. Adicionalmente para compactar la muestra para obtener el CBR (AASHTO T 193) se realizó previamente el ensayo Proctor (AASHTO T 180), obteniendo un peso unitario seco máximo de 16 kN/m3 y contenido óptimo de agua de 6% (la granulometría utilizada para este ensayo y el de CBR fue la de una subbase tipo SBG-38 de acuerdo a INVIAS, 2013). Tabla 2: Caracterización del agregado pétreo. Ensayo Método Resultado Gravedad específica agregado de 1”/adsorción AASHTO T 84-00 AASHTO T 85-91 2.51/1.65% Gravedad específica agregado de 1/2”/adsorción 2.48/1.71% Gravedad específica arenas y finos/adsorción 2.50/1.5% Equivalente de arena AASHTO T 176 – 02 76% Caras fracturadas a una cara ASTM D 5821-01 87% Límites líquido y plástico ASTM D 4318-00 0% Índice de alargamiento NLT 354-91 9.5% Índice de aplanamiento NLT 354-91 9.5% Ataque en sulfato de magnesio ASTM C 88-99a 12.9% Límites líquido y plástico ASTM D 4318-00 0% Micro-Deval AASHTO T327-05 22.3% 10% de finos (resistencia en seco) DNER-ME 096-98 115 kN 10% de finos (relación húmedo/seco) 83% Resistencia en Máquina de los Ángeles AASHTO T 96 – 02 24.6% Tabla 3: Características generales del CA 60-70. Ensayo Método Unidad Requisito Valor Mínimo Máximo Ensayos sobre el CA original Penetración (25°C, 100 g, 5 s) ASTM D-5 0.1 mm 60 60 62.5 Índice de penetración NLT 181/88 - -1.2 +0.6 -0.7 Punto de ablandamiento ASTM D-36-95 ° C 48 54 52.5 Viscosidad absoluta (60°C) ASTM D-4402 Poises 1500 - 1750 Gravedad específica AASHTO T 228-04 - - - 1.012 Viscosidad a 135° C AASHTO T-316 Pa-s - - 0.36 Ductilidad (25°C, 5cm/min) ASTM D-113 cm 100 - >105 Ensayos sobre el residuo del CA luego del RTFOT Pérdida de masa ASTM D-2872 % - 0.8 0.47 Penetración (25°C, 100 g, 5 s), en porcentaje de la penetración original ASTM D-5 % 50 - 72 Incremento en el punto de ablandamiento ASTM D-36-95 ° C - 9 5 Tabla 4: Caracterización de la escoria BFS. Ensayo Método Valor Gravedad específica/absorción (¾”) AASHTO T 84-00 AASHTO T 85-91 1.81/3.75% Gravedad específica/absorción (3/8”) 1.97/3.33% Gravedad específica/absorción (No. 4) 2.11/2.73% Gravedad específica/absorción (No. 40) 2.26/2.65% Gravedad específica/absorción (No. 80) 2.36/2.25% Gravedad específica/absorción (No. 200) 2.45/1.95% Resistencia en la máquina de Los Ángeles, 500 AASHTO T 96 – 02 49.2 revoluciones Micro-Deval AASHTO T327-05 29.2 10% de finos DNER-ME 096-98 123 kN Caras fracturadas: 1 cara ASTM D 5821-01 92 Caras fracturadas: 2 caras 88 Partículas planas y alargadas 1% Contenido de impurezas UNE 14613 : 2000 0 Índice de plasticidad ASTM D 4318-00 No plástico Índice de aplanamiento NLT 354-91 5.62% Índice de alargamiento 10.62% CBR (al 100% de densidad seca máxima y cuatro días de inmersión en agua) AASHTO T 193-99 95.68% Se observa en la Tabla 4, que al disminuir el tamaño de las partículas de BFS, incrementa la gravedad específica y disminuye la absorción. Lo anterior es debido tal vez, a que durante el proceso de fracturación mecánica ejecutado sobre las partículas gruesas para obtener las finas, éstas últimas pierden parte de su porosidad. Con base en los resultados de desgaste en Micro-Deval y 10% de finos se reporta, que las BFS presenta una buena resistencia al desgaste por abrasión por fricción entre partículas y al fracturamiento bajo carga monotónica, respectivamente. Sin embargo, tal como se reporta en la literatura de referencia, las BFS son materiales que experimentan baja resistencia al desgaste por abrasión por impacto en la máquina de Los Ángeles. Asimismo, se observa, que dicho material presenta partículas con formas ideales (redondeadas con caras angulares y fracturadas con muy poco contenido de partículas alargadas y aplanadas) para desarrollar un buen esqueleto granular que ayude en procesos de compactación de mezclas asfálticas, así como a resistir cargas estáticas, dinámicas o de impacto. Las partículas finas no presentan contenido de arcilla, materia orgánica o de polvo que generen disminución de adherencia entre el agregado pétreo y el asfalto, y disminución de resistencia y durabilidad de la mezcla por exceso de finos o contaminantes. El CBR reportado es alto indicando, en conjunto con los resultados anteriormente descritos, que las BFS pueden ser utilizadas como agregado pétreo para la conformación de bases y subbases granulares de pavimentos. Una mayor descripción de los resultados de caracterización de esta BFS puede ser consultados en Rondón-Quintana et al. (2018a, 2018b) y Ruiz et al. (2020). Caracterización mineralógica, química y microestructura del filler Con el fin de entender con mayor claridad, los resultados obtenidos, fue necesario ejecutar sobre la fracción que pasa el tamiz No. 200 de la BFS, ensayos de análisis basado en difractometría de rayos X (DRX) y fluorescencia de rayos X (FRX). Asimismo, fue necesario ejecutar visualizaciones con microscopio electrónico de barrido (MEB) sobre las partículas de NGA y BFS. La descripción detallada de ejecución de los ensayos puede ser consultada en Zhang et al. (2003). En la Tabla 5 se presenta la composición mineralógica de la muestra de BFS analizada. Se observa, que el mineral predominante es el cuarzo (sílice - SiO2). Este resultado es coherente con el reportado en el ensayo FRX (Tabla 6) en donde el componente químico predominante es la sílice (SiO2). Se concluye adicionalmente, que la BFS analizada está compuesta predominantemente por sílice, óxido de calcio (CaO) y óxido de aluminio (86.76%). Tabla 5: Porcentajes de minerales en la muestra BFS (ensayo DRX). Mineral %, en masa Cuarzo 58.9 Cristobalita 18.1 Boehmita 12.8 Calcita 4.8 Natrolita 5.3 Tabla 6: Resultados de FRX para la muestra analizada de BFS. Elemento y/o compuesto químico % en peso de la muestra SiO2 52.03 CaO 20.83 Al2O3 13.90 Fe2O3 6.52 MnO 2.26 TiO2 0.98 K2O 0.86 MgO 0.82 Na2O 0.65 SO3 0.48 Ba 0.21 Cr 0.12 Cl 0.08 P2O5 0.06 Ce 0.05 Zr 0.05 Sr 0.04 Cu 0.02 La preparación de las muestras de BFS y NGA para la prueba MEB fue realizada mediante una primera selección de diferentes partículas, con el fin de obtener un resultado estadísticamente confiable. Para el caso de las BFS, las partículas escogidas fueron 5 de coloración verde, 3 de coloración negra, y 1 de coloración blanca (este último era escaso en la población analizada por lo que se seleccionó una única muestra). Las partículas de NGA fueron escogidas en siete grupos, las cuales presentaban características litológicas diferentes y no poseían características compartidas de tamaño, color y/o esfericidad. En la Tabla 7 se presenta la porosidad y la magnitud promedio de las gargantas porales (longitud del diámetro de los poros) medidas en las muestras. Se observa, que las partículas de BFS analizadas desarrollan mayor porosidad y abertura de poros que las de NGA, lo que hace que las primeras absorban mayor cantidad de asfalto. Adicionalmente, la relación entre el tamaño de las partículas de BFS y la absorción de asfalto debe ser directamente proporcional, ya que la mayor porosidad y garganta poral reportada en los ensayos generará un agregado pétreo grueso con menor gravedad específica, mayor absorción (tal como se reporta en la Tabla 4) y probabilidad de fracturarse bajo una carga mecánica. Tabla 7: Valores de las porosidades calculadas. Tipo de partícula Porosidad (%) Garganta poral (µm) NGA G1 0.6 6.0 G2 20.8 27.1 G3 13.9 10.4 G4 6.5 36.4 G5 2.3 11.0 G6 0.98 7.9 G7 0.86 7.8 BFS Verde 63 82.6 Negra 9 27.5 Blanca 50 30.3 Resistencia bajo carga monotónica de mezclas asfálticas Luego de realizar los ensayos a los materiales, se fabricaron cinco briquetas (compactadas a 75 golpes por cara) para porcentajes de asfalto de 4.5%, 5.0%, 5.5% y 6.0%, empleando la granulometría que se presenta en la Tabla 8 y utilizando como agregado pétreo, material natural (NGA). La temperatura de compactación y de mezcla en el laboratorio de las muestras fue de 140° C y 150° C, respectivamente. Estos valores fueron obtenidos con base en el criterio establecido por la especificación ASTM D6925, en donde la viscosidad requerida para obtener las temperaturas de fabricación y de compactación de mezclas asfálticas en caliente del tipo denso son de 85±15 SSF (170 cP) y 140±15 SSF (280 cP), respectivamente. Sobre estas muestras (mezclas asfálticas de referencia, BFS/NGA=0%), se ejecutó el ensayo Marshall (AASHTO T 245). Este ensayo fue ejecutado adicionalmente, sobre muestras fabricadas con porcentajes de asfalto de 5.0%, 5.5%, 6.0% y 6.5% y empleando BFS de la siguiente forma: 1. Sustitución (con respecto a la masa de los agregados) de la fracción gruesa. a. BFS/NGA=12.5%. Se sustituyó el tamiz de ½”. b. BFS/NGA=21%. Se sustituyeron los tamices ½” y 3/8”. c. BFS/NGA=43%. Se sustituyeron los tamices ½”, 3/8” y No. 4. 2. Sustitución (con respecto a la masa de los agregados) de la fracción fina. a. BFS/NGA=12.5%. Se sustituyó el fondo y el tamiz No. 200. b. BFS/NGA=19.5%. Se sustituyó el fondo y los tamices No. 80 y No. 200. c. BFS/NGA=31%. Se sustituyeron los tamices No. 40, No. 80 y No. 200. d. BFS/NGA=37.5%. Se sustituyó el fondo y los tamices No. 40, No. 80 y No. 200. Tabla 8: Granulometría mezcla tipo MDC-19 (INVIAS, 2013). TAMIZ TAMIZ [mm] % PASA % RETENIDO 3/4" 19.0 100.0 0.0 1/2" 12.5 87.5 12.5 3/8" 9.5 79.0 8.5 4 4.75 57.0 22.0 10 2.0 37.0 20.0 40 0.43 19.5 17.5 80 0.18 12.5 7.0 200 0.075 6.0 6.5 FONDO - 0.0 6.0 Sobre la mezcla asfáltica de referencia (BFS/NGA=0%) y aquella con sustitución de NGA por BFS que desarrolló mejor comportamiento en el ensayo Marshall, se ejecutaron ensayos de tracción indirecta (AASHTO T 283). Tres muestras de cada mezcla fueron ensayadas bajo condición seca (D) y las otras tres en condición húmeda (W), con porcentajes de vacíos oscilando entre 7±1% como lo recomienda la especificación AASHTO T 283. Con los resultados del ensayo se calculó la resistencia al daño por humedad TSR mediante la relación W/D. Caracterización dinámica de mezclas Sobre la mezcla asfáltica de referencia (BFS/NGA=0%) y aquella con sustitución de NGA por BFS que desarrolló mejor comportamiento en el ensayo Marshall se ejecutaron ensayos de i) módulo resiliente (ASTM D 4123 – 82) bajo tres temperaturas (10, 20 y 30°C) y frecuencias de carga (2.5, 5.0 y 10.0 Hz) utilizando un equipo Nottingham Asphalt Tester (NAT), ii) resistencia a la deformación permanente bajo carga repetida bajo un esfuerzo de 100 kPa, temperatura de ensayo de 40° C y 3600 ciclos de carga siguiendo el procedimiento normalizado por EN 12697-22 (CEN, 2005). 3. RESULTADOS Y ANÁLISIS Resistencia bajo carga monotónica En la Figura 3 se reportan los resultados del ensayo Marshall ejecutado sobre la mezcla asfáltica de referencia (BFS/NGA=0%) y las mezclas donde se sustituyó parte de la fracción gruesa del NGA por BFS. En términos generales se observa que: 1. Al sustituir la fracción gruesa del NGA por BFS incrementan los vacíos en la mezcla, y estos incrementos son mayores cuando aumenta el contenido de BFS. Lo anterior es debido a la alta porosidad y absorción que presentan las partículas gruesas de la BFS. 2. Para alcanzar una resistencia bajo carga monotónica (expresada a través de la relación entre la estabilidad - S y el flujo – F) similar con respecto a la de referencia (BFS/NGA=0%), las mezclas fabricadas mediante la sustitución de NGA por BFS deben ser fabricadas con un 0.5% más de asfalto, generando un incremento en el costo. 3. A pesar del incremento en el contenido de asfalto de 0.5%, las mezclas que emplean BFS aún experimentan altos contenido de vacíos (superiores a 8.5%). 4. No existe una tendencia clara del efecto de la sustitución de NGA por BFS en la relación S/F. Figura 3: Ensayo Marshall. Reemplazo de la fracción gruesa de NGA por BFS. Para el caso de las mezclas donde se sustituyó la fracción fina del NGA por BFS, los resultados se presentan en la Figura 4. En términos generales se observa que: 1. Al igual que en la fracción gruesa, al sustituir la fracción fina del NGA por BFS incrementan los vacíos en la mezcla, y estos incrementos son mayores cuando aumenta el contenido de BFS. Sin embargo, los contenidos de vacíos que desarrollan las mezclas fabricadas con agregados finos de BFS son menores en comparación a aquellas fabricadas con la fracción gruesa, debido tal vez a que éstas últimas son más porosas y adsorben mayor cantidad de asfalto (presentan mayor absorción). 2. Cuando se sustituyen las partículas más finas de NGA por BFS en proporciones BFS/NGA=12.5% y 19.5%, la magnitud de la relación S/F es similar a la máxima alcanzada por la mezcla de referencia BFS/NGA=0% (contenido de asfalto de 5%). Lo anterior se logra, a pesar que la mezcla con BFS presenta mayor contenido de vacíos (aproximadamente entre 3% y 4% superior, respectivamente). Si se incrementa el contenido de asfalto en 0.25% y 0.5% (contenidos de asfalto de 5.25% y 5.5%), la resistencia bajo carga monotónica incrementa en 9.7% (320 N/mm) y 22.1% (726.3 N/mm), respectivamente, cuando se sustituye la fracción fina de la NGA en una proporción de BFS/NGA=12.5%. Para el caso de sustitución en una proporción de BFS/NGA=19.5% este incremento es de 8.9% (292.5 N/mm) y 15.2% (498.4 N/mm), respectivamente. 3. En síntesis, el mejor comportamiento de sustitución de NGA por BFS se alcanza cuando se sustituyen las partículas con tamaño igual o inferior a 0.075 mm (denominado filler, Cheng et al., 2016; Bastidas et al. 2021). Por lo anterior, y teniendo en cuenta los resultados presentados en las Figuras 3 y 4 se escogieron, para la realización de los ensayos de tracción indirecta y caracterización dinámica, las mezclas que sustituyen la fracción fina de la NGA por BFS en proporciones de BFS/NGA=12.5% (filler) y 19.5%. Asimismo, se escoge un contenido de asfalto para ambas mezclas de 5.25% (no se escogió un contenido de asfalto más alto con el fin de no elevar ostensiblemente el costo de la mezcla). Para comparar, la mezcla de referencia (BFS/NGA=0%) en estos ensayos será aquella fabricada con un contenido de asfalto de 5%. Figura 4: Ensayo Marshall. Reemplazo de la fracción fina de NGA por BFS. En la Tabla 9 se presentan los resultados del ensayo de tracción indirecta. Se observa, que las mezclas BFS/NGA=12.5% y 19.5% (CA=5.25%) desarrollan mayor resistencia a tracción indirecta (bajo condición seca y húmeda) y al daño por humedad (mayor TSR) con respecto a la de referencia (BFS/NGA=0%, CA=5%). Tabla 9: Ensayo de tracción indirecta. Mezcla Vacíos en la mezcla [%] Método Condición de la muestra TSR (W/S) [%] Seca - S [kPa] Sumergida - W [kPa] MDC-19 (BFS/NGA=0%) 7.2 AASHTO T 283-03 3184 2388 75.0% MDC-19 (BFS/NGA=12.5%) 7.3 3301 2657 80.5% MDC-19 (BFS/NGA=19.5%) 6.9 3220 2492 77.4% Módulo resiliente y deformación permanente Los resultados de los ensayos de módulo resiliente se presentan en la Figura 5. Se observa, que las mezclas BFS/NGA=12.5% y 19.5% tienden a experimentar mayor rigidez bajo carga cíclica que la de referencia BFS/NGA=0%. La mayor rigidez la desarrolla la mezcla que sustituye la fracción fina de NGA en una proporción de BFS/NGA=12.5% (partículas con tamaño igual o inferior a 0.075 mm). Esta mezcla experimenta en promedio una rigidez superior, con respecto a la de referencia, de 24, 25 y 75% para temperaturas de ensayo de 10, 20 y 30° C, respectivamente. Para el caso de la mezcla BFS/NGA=19.5% este incremento promedio en rigidez varía en 16, 3 y 31%, respectivamente. Los resultados de deformación permanente se presentan en la Figura 6. Se observa, que la mayor resistencia a la deformación permanente bajo carga cíclica la experimenta la mezcla que sustituye la fracción fina de NGA en una proporción de BFS/NGA=12.5%. Este resultado es coherente con aquellos obtenidos en la Figura 5 para el caso del módulo resiliente. Sin embargo, para el caso de la mezcla BFS/NGA=19.5% la acumulación de la deformación permanente es similar con respecto a la de referencia. Figura 5: Módulo resiliente mezcla MDC-19. a) 10° C, b) 20° C, c) 30° C. Figura 6. Deformación permanente. 4. DISCUSIÓN El mejor comportamiento lo experimenta la mezcla que sustituye el filler de NGA por BFS. El filler de BFS se compone principalmente de SiO2, CaO y Al2O3. El SiO2 y el Al2O3 son compuestos puzolánicos, los cuales en tamaños de partículas muy finas pueden desarrollar propiedades auto-cementantes (no necesitan ser activadas con agua o cal) (Misra et al. 2005). Esta propiedad puzolánica puede incrementar la resistencia al daño por humedad de mezclas asfálticas (Nassar et al. 2016). Asimismo, estos dos materiales pueden mejorar la adhesión superficial asfalto-agregado y la cohesión interna del asfalto (Modarres y Rahmanzadeh, 2014). De acuerdo con Anderson y Goetz (1973), Muniandy et al. (2013), Modarres y Rahmanzadeh (2014), el CaO es una composición alcalina que contribuye a aumentar la adhesión agregado-asfalto, y mejora la resistencia de las mezclas al daño por humedad y stripping. Muniandy et al. (2013) reporta, que el SiO2 es un material de alta dureza y resistencia mecánica, y el Al2O3 puede mejorar la adherencia entre el agregado y el asfalto, incrementando la resistencia de las mezclas al ahuellamiento. Es decir, la tendencia del uso de BFS como filler es proveer mayor cohesión (asociado principalmente a la resistencia a la fractura, Veytskin et al. 2015 y al corte, Liao y Chen, 2011) y adhesión (asociado a la capacidad de permanecer unidos el ligante y el agregado pétreo, Dan et al., 2014), cuando se mezcla con el asfalto, generando un mastic (Tenza-Abril et al. 2015) que ayuda a incrementar la rigidez de la mezcla asfáltica. Sin embargo, para poder aseverar con mayor argumentación esta posición se debe ejecutar a futuro otra fase experimental, ya que el comportamiento de este mastic es dependiente de las propiedades físicas, geométricas, mineralógicas y químicas del filler (Cheng et al. 2016), y esta dependencia no es lo suficientemente clara aún en el presente estudio. Adicionalmente, el filler o el mastic influyen de manera directa sobre la compactabilidad y trabajabilidad de las mezclas, su rigidez, resistencia a fractura, a las deformaciones permanentes, al envejecimiento, al daño por humedad (Davis y Castorena, 2015., Kuity y Das, 2015, Modarres y Rahmanzadeh, 2014, Nassar et al. 2016), y también influye en la respuesta reológica (Yiqio et al. 2012). Es importante resaltar, que en la literatura consultada no se reportan estudios donde se evalúe el efecto del uso de BFS como filler sobre las propiedades del mastic. 5. CONCLUSIONES Con base en los resultados obtenidos se puede concluir: La mayor resistencia bajo carga monotónica, cíclica y al daño por humedad, la desarrolla la mezcla que sustituye el filler de NGA por BFS. Lo anterior tal vez es debido a que el asfalto que se adhiere al filler (compuesto por BFS) genera un mastic con mejores propiedades de cohesión y adherencia, en comparación a aquel filler compuesto por NGA. Para obtener estas mayores resistencias, se debe aumentar en tan solo 0.25% el contenido de asfalto en la mezcla, logrando un incremento en la relación S/F de 320 N/mm y en la resistencia a tracción indirecta seca y húmeda de 117 y 269 kPa, respectivamente, con respecto a la mezcla de referencia (sin sustitución de filler por BFS). Asimismo, se alcanza un aumento del módulo resiliente de 24, 25 y 75% para temperaturas de ensayo de 10, 20 y 30° C, lo que redunda en un incremento en la resistencia a la deformación permanente. Entre mayor sea el tamaño de las partículas que se sustituyan de NGA por BFS: i) la mezcla incrementa en vacíos con aire, ii) hay necesidad de incrementar el contenido de asfalto (incluso en el caso de las más gruesas sin generar mejoras en la resistencia de la mezcla), iii) disminuye la resistencia mecánica bajo carga monotónica. Lo anterior debido a que entre mayor sea el tamaño de las partículas de la BFS, mayor es su porosidad y adsorción. Adicionalmente, en comparación con las NGA, la fracción gruesa de las BFS desarrolla mayor porosidad, menor resistencia al desgaste por abrasión y por impacto, lo que genera un agregado pétreo más propenso al fracturamiento. REFERENCIAS ABU-EISHAH, S.I.; EL-DIEB, A.S.; BEDIR, M.S. “Performance of concrete mixtures made with electric arc furnace (EAF) steel slag aggregate produced in the Arabian Gulf region.” Construction and Building Materials, 2012, vol 34, pp. 249–256. AHMEDZADE, P.; SENGOZ, B. “Evaluation of steel slag coarse aggregate in hot mix asphalt concrete.” Journal of Hazardous Materials, 2009, vol 165, pp. 300–305. AIREY, G.D.; COLLOP, A.C.; THOM, N.H. “Mechanical performance of asphalt mixtures incorporating slag and glass secondary aggregates.” Proceedings of the 8th Conference on Asphalt Pavements for Southern Africa (CAPSA'04), 2004. AKBARNEJAD, S.; HOUBEN, L.J.M.; MOLENAAR, A.A.A. “Application of aging methods to evaluate the long-term performance of road bases containing blast furnace slag materials.” Road Materials and Pavement Design, 2014, vol 15, núm. 3, pp. 488-506. AMERI, M.; BEHNOOD, A. “Laboratory studies to investigate the properties of CIR mixes containing steel slag as a substitute for virgin aggregates.” Construction and Building Materials, 2012, vol 26, pp. 475–480. ANDERSON, D.A.; GOETZ, W.H. “Mechanical behavior and reinforcement of mineral filler-asphalt mixtures.” Proc Assoc Asphalt Pav Technol., 1973, vol 42, pp. 37–66. ASI, I.M.; QASRAWI, H.Y.; SHALABI, F.I. “Use of steel slag aggregate in asphalt concrete mixes.” Canadian Journal of Civil Engineering, 2007, vol 34, pp. 902–911. BASTIDAS, J., RONDÓN-QUINTANA, H.A.; MUNIZ DE FARIAS, M. “Behavior of asphalt mastics containing different materials as Filler.” Canadian Journal of Civil Engineering, 2021, vol 48, pp. 347– 355. BYERS, C.C., SALEH, M.F.; PIDWERBESKY, B.D. “Evaluation of melter slag as a base course material.” International Journal of Pavement Engineering, 2004, vol 5, núm. 4, pp. 193-199. CHEN, S.-H.; LIN, J.-D.; HUANG, D.; HUNG, C.-T. “Performance of replacing traditional natural aggregates in dense grade asphalt concrete with basic oxygen furnace slag.” Advanced Characterization of Asphalt and Concrete Materials GSP, ASCE, 2014, pp. 107-114. CHENG, Y.; TAO, J.; JIAO, Y.; TAN, G.; GUO, Q.; WANG, S.; NI, P. “Influence of the properties of filler on high and medium temperature performances of asphalt mastic.” Construction and Building Materials, 2016, vol 118, pp. 268–275. DAN, L.; CHUANFENG, Z.; YONG, Q.; HENG, B.; KEYAO, L.; JUNFEI, H. “Analysing the effects of the mesoscopic characteristics of mineral powder fillers on the cohesive strength of asphalt mortars at low temperatures.” Construction and Building Materials, 2014, vol 65, pp. 330–337. DAS, B.; PRAKASH, S.; REDDY, P.S.R.; MISRA, V.N. “An overview of utilization of slag and sludge from steel industries.” Resources, Conservation and Recycling, 2007, vol 50, pp. 40-57. DAVIS, C.; CASTORENA, C. “Implications of physico–chemical interactions in asphalt mastics on asphalt microstructure.” Construction and Building Materials, 2015, vol 94, pp. 83–89. EMERY, J. J. “Slag Utilization in pavement construction”. Extending aggregate resources: a symposium sponsored by ASTM Committee D-4 on Road and Paving Materials, Orlando, USA, 1982. FHWA - Federal Highway Administration Research and Technology. Coordinating, Developing, and Delivering Highway Transportation Innovations. “User Guidelines for Waste and Byproduct Materials in Pavement Construction”. Report Publication Number: FHWA-RD-97-148, 2008. GEISELER, J. “Use of steelworks slag in Europe.” Waste Management, 1996, vol 16, núm. (1-3), pp. 59- 63. HOUBEN, L.J.M.; AKBARNEJAD, S.; MOLENAAR, A.A.A. “Performance of pavements with blast furnace base courses.” GeoShanghai 2010 International Conference, Paving Materials and Pavement Analysis, Geotechnical Special Publication No. 203, 2010, pp. 476-483. INSTITUTO NACIONAL DE VÍAS – INVIAS. Especificaciones Generales de Construcción de Carreteras. Bogotá D.C., Colombia, 2013. JONES, D.E. “Application of Steel Plant By-Products to Roadworks”. Proceedings — Conference of the Australian Road Research Board, v 11, 11th ARRB Conference, 1982. KÖK, B.V.; KULOĞLU, N. “Effects of steel slag usage as agreggate on indirect tensile and creep modulus of hot mix asphalt.” G. U. Journal of Sience, 2008, vol 21, núm. 3, pp. 97-103. KUITY, A.; DAS, A. “Homogeneity of filler distribution within asphalt mix – A microscopic study.” Construction and Building Materials, 2015, vol 95, pp. 497–505. LEÓN, N.A.; ROJAS, N.R.; SUÁREZ, B.U.; BUSTAMANTE, O. “Experimental evaluation of silicon - calcareous units from blast furnace slag and hydraulic lime for masonry.” Dyna, 2009, vol 76, núm. 160, pp. 247-254. LIAO, M.C.; CHEN, J.S. “Zero Shear Viscosity of Bitumen-Filler Mastics.” Journal of Materials in Civil Engineering, 2011, vol 23, núm. 12, pp. 1672–1680. MARRIAGA, J.L.; CLAISSE, P. “The influence of the blast furnace slag replacement on chloride penetration in concrete.” Ingeniería e Investigación, 2011, vol 31, núm. 2, pp. 38-47. MISRA, A.; BISWAS, D.; UPADHYAYA, S. “Physico-mechanical behavior of selfcementing class C fly ash–clay mixtures.” Fuel, 2005, vol 84, núm. 11, pp. 1410–22. MODARRES, A.; RAHMANZADEH, M. “Application of coal waste powder as filler in hot mix asphalt.” Construction and Building Materials, 2014, vol 66, pp. 476–483. MUNIANDY, R.; ABURKABA, E.; MAHDI, L. “Effect of mineral filler type and particle size on asphalt-filler mastic and stone mastic asphalt laboratory measured properties.” Australian Journal of Basic and Applied Sciences, 2013, vol 7, núm. 11, pp. 475-787. NASSAR, A.I.; MOHAMMEDB, M.K.; THOM, N.; PARRY, T. “Mechanical, durability and microstructure properties of Cold Asphalt Emulsion Mixtures with different types of filler.” Construction and Building Materials, 2016, vol 114, pp. 352–363. NOUVION, S.; JULLIEN A.; SOMMIER, M.; BASUYAU, V. “Environmental modeling of blast furnace slag aggregate production.” Road Materials and Pavement Design, 2009, vol 10, núm. 4, pp. 715- 745. NSA, National Slag Association. http://nationalslag.org/blast-furnace-slag, consulted in april of 2016. OKUMURA, H. “Recycling of iron-and steelmaking slags in Japan.” In: Proceedings of the 1st International Conference on Processing Materials for Properties, Sponsored by: TMS; MMIJ Publ by Minerals, Metals & Materials Soc (TMS), 1993, pp. 803-806. OLUWASOLA, E.A.; HAININ, M.R.; AZIZ, M.M.A. “Evaluation of asphalt mixtures incorporating electric arc furnace steel slag and copper mine tailings for road construction.” Transportation Geotechnics, 2015, vol 2, pp. 47–55. PASETTO, M.; BALDO, N. “Experimental evaluation of high performance base course and road base asphalt concrete with electric arc furnace steel slags.” Journal of Hazardous Materials, 2010, vol 181, pp. 938–948. PASETTO, M.; BALDO, N. “Mix design and performance analysis of asphalt concretes with electric arc furnace slag.” Construction and Building Materials, 2011, vol 25, pp. 3458–3468. PROCTOR, D.M.; FEHLING, K.A.; SHAY, E.C.; WITTENBORN, J.L.; AVENT, C.; BIGHAM, R.D.; CONNOLLY, M.; LEE, B.; SHEPKER, T.O.; ZAK, M.A. “Physical and chemical characteristics of blast furnace, basic oxygen furnace, and electric arc furnace steel industry slags.” Environmental Science and Technology, 2000, vol 34, núm. 8, pp. 1576–1582. RONDÓN-QUINTANA, H.A.; REYES, F.A.; MUNIZ DE FARIAS, M. “Uso de escorias de alto horno y acero en mezclas asfálticas: revisión.” Revista Ingenierías Universidad de Medellín, 2018, vol 17, núm. 33, pp. 71-97. RONDÓN-QUINTANA, H.A.; RUGE, J.C.; PATIÑO, D.; VACCA, H.; REYES, F.A.; MUNIZ DE FARIAS, M. “Blast furnace slag as a substitute for the fine fraction of aggregates in an asphalt mixture.” Journal of Materials in Civil Engineering, 2018a, vol 30, núm. 10, 04018244. RONDÓN-QUINTANA, H.A.; FERNÁNDEZ, W.D.; RUGE, J.C.; PATIÑO, D.; VACCA, H.; REYES, F.A. “Characterization of blast furnace slag for road projects.” Revista Ingeniería de Construcción RIC, 2018b, vol 33, núm. 1, pp. 83-92. RONDÓN-QUINTANA, H.A.; RUGE, J.C.; MUNIZ DE FARIAS, M. “Behavior of a hot mix asphalt containing blast furnace slag as aggregate: evaluation by mass and volume substitution.” Journal of Materials in Civil Engineering, 2019, vol 31, núm. 2, 04018364. RUIZ, J.F.; RONDÓN-QUINTANA, H.A; CHAVEZ, S. “Behavior of a warm mix asphalt containing a blast furnace slag.” International Journal of Civil Engineering, 2020, vol 18, pp. 325-334. SHEN, H.; FORSSBERG, E. “An overview of recovery of metals from slags.” Waste Management, 2003, vol 23, pp. 933-949. SHI, C. “Steel slag—Its production, processing, characteristics, and cementitious properties.” Journal of Materials in Civil Engineering, 2004, vol. 16, núm. 3, pp. 230-236. SORLINI, S.; SANZENI, A.; RONDI, L. “Reuse of steel slag in bituminous paving mixtures.” Journal of Hazardous Materials, 2012, vol 209–210, pp. 84-91. TENZA-ABRIL, A.J.; SAVAL, J.M.; CUENCA, A. “Using sewage-sludge ash as filler in bituminous mixes.” Journal of Materials in Civil Engineering, 2015, vol. 27, núm. 4, 04014141. VAN OSS, H. G. “Slag-Iron and Steel. U.S.” Geologycal Survey Minerals Yearbook, 2003, 69.1-69.7. VEYTSKIN, Y.; BOBKO, C.; CASTORENA, C.; KIM, R. “Nanoindentation investigation of asphalt binder and mastic cohesion.” Construction and Building Materials, 2015, vol 100, pp. 163–171. WANG, G.; WANG, Y.; GAO, Z. “Use of steel slag as a granular material: Volume expansion prediction and usability criteria.” Journal of Hazardous Materials, 2010, vol 184, pp. 555–560. WEN, H.; WU, E.; BHUSAL, S. “Evaluation of steel slag as hot mix asphalt aggregate.” Final report, Edw. C. Levy Co. and Nucor Steel Seattle, Inc., Seattle, WA, 2014. WU, S.; XUE, Y.; YE, Q.; CHEN, Y. “Utilization of steel slag as an aggregate for stone mastic asphalt (SMA) mixtures.” Building and Environmental, 2007, vol 42, pp. 2580–2585. XUE, Y.; WU, S.; HOU, H.; ZHA, J. “Experimental investigation of basic oxygen furnace slag used as aggregate in asphalt mixture.” Journal of Hazardous Materials, 2006, vol B138, pp. 261–268. YIQIU, T.; XIAOLIN, L.; JIANTAO, W. “Internal influence factors of asphalt-aggregate filler interactions based on rheological characteristics.” Journal of Materials in Civil Engineering, 2012, vol 24, núm. 12, pp. 1520-1528. ZHANG, G.; GERMAINE, J.; TORRENCE, M.; WHITTLE, A. “A simple sample-mounting method for random powder X-RAY diffraction.” Clays and clay mineral, 2003, vol 51, núm. 2, pp. 218-255. BARRAS FRP DE BASALTO: CONSTRUCCION DE ESTRUCTURAS DE HORMIGÓN ARMADO DE LARGA DURACIÓN LIBRES DE CORROSIÓN Alvaro Ruiz Emparanza1, Francisco De Caso2, Antonio Nanni2 1 Mafic USA, Shelby, North Carolina, USA, 2Univeristy of Miami, Dept. of Civil and Architectural Engineering, Florida USA 1e-mail: alvaro.ruiz@mafic.com RESUMEN El uso de barras de refuerzo de polímero reforzado con fibra, FRP (del inglés Fiber Reinforced Polymer), evita el deterioro acelerado que sufren las estructuras de hormigón armado debido a la corrosión de la armadura de acero. Las barras de refuerzo FRP están hechas de fibras alineadas longitudinalmente en una matriz de resina polimérica, siendo el vidrio E-CR el tipo de fibra predominante en la industria. Sin embargo, en la última década, el uso de fibra de basalto ha aumentado significativamente debido a las propiedades mecánicas mejoradas y al impacto ambiental reducido en comparación con el vidrio E-CR. Este documento detalla las principales propiedades que tienen las barras de FRP de basalto (BFRP), resume los estándares y especificaciones existentes para su uso en estructuras de hormigón armado, incluida la nueva especificación ASTM para fibras de basalto, y evalúa su uso a través de proyectos prácticos de construcción existentes. El objetivo de este artículo es crear un marco de referencia para presentar las herramientas necesarias para que los profesionales de la industria de la construcción utilicen barras de refuerzo BFRP en lugar de acero donde se necesite un refuerzo anticorrosivo para extender la vida útil de estructuras de hormigón. PALABRAS CLAVES: Basalto, BFRP, Construcción, Corrosión, Durabilidad, Hormigón, Sostenibilidad. BASALT FRP REBARS: BUILDING LONG-LASTING REINFORCED CONCRETE STRUCTURES FREE OF CORROSION ABSTRACT The use of fiber reinforced polymer (FRP) rebars avoid the accelerated deterioration that reinforced concrete structures suffer due to the corrosion of the steel reinforcement. FRP composite rebars are made of longitudinally aligned fibers embedded in a polymeric resin, being E-CR glass the predominant type of fiber in the FRP rebar industry. However, in the last decade the use of basalt fiber has increased significantly due to the enhanced mechanical properties and reduced environmental impact compared to E-CR glass. This paper lists the main properties that BFRP rebars have, summarizes the existing standards and specifications including the new ASTM specification for basalt fibers, and evaluates their use through existing practical construction projects. The aim of this article is to create a frame of reference to introduce the necessary tools for professionals in the construction industry to use BFRP rebars in lieu of steel where non-corrosive reinforcement is needed to extend the service life of the built infrastructure. KEY WORDS: Basalt, BFRP, Corrosion, Contruction, Concrete, Durability, Sustainability. 1. INTRODUCCIÓN Las barras de refuerzo de polímero reforzado con fibra (FRP) son una alternativa no corrosiva y duradera a las barras de acero tradicionales para el uso como refuerzo interno en estructuras de hormigón armado. Las barras de refuerzo FRP están hechas de fibras alineadas longitudinalmente en una matriz de resina fabricadas mediante un proceso llamado pultrusión. Las barras de refuerzo de FRP se han utilizado en estructuras de ingeniería civil durante más de tres décadas. La fibra de vidrio fue y sigue siendo el tipo de fibra más utilizado debido a su disponibilidad y bajo costo. Sin embargo, el interés en otras fibras como el basalto ha ido en aumento ya que sus propiedades mecánicas superan a las del vidrio [1,2] y la diferencia de costo es marginal. Con un suministro creciente de fibra de basalto en los EE. UU., su uso en barras de refuerzo de FRP se está volviendo económicamente factible [3]. Históricamente, las barras de refuerzo FRP se han utilizado con mayor frecuencia en la infraestructura de transporte que en edificios. La razón principal ha sido el interés de los Departamentos de Transporte de aumentar la vida útil y reducir el costo de mantenimiento de los puentes y otras estructuras viales. Por ejemplo, Al-Khafaji et al. [4] evaluó 11 puentes reforzados con FRP de vidrio (GFRP) después de estar en servicio durante 15 a 20 años y, de los cupones extraídos, casi no se observó degradación de GFRP a pesar de que las barras de refuerzo utilizadas en estos proyectos se fabricaron con vidrio E-Glass en lugar del vidrio E-CR que se utiliza actualmente, el cual es una evolución libre de boro más reciente para mejorar la resistencia a la corrosión. De hecho, si bien el vidrio E-glass es la fórmula de fibra de vidrio más utilizada en el mundo, contiene boro y flúor, dos compuestos que quedan atrapados en partículas liberadas a la atmósfera durante la fabricación, lo que provoca contaminación ambiental. Por el contrario, la fibra de vidrio E-CR no contiene boro ni flúor y tiene mejores propiedades mecánicas, mayor resistencia al calor, resistencia al agua y mayor resistencia superficial que la fibra de vidrio E-glass. La fibra de vidrio E-CR se produce bajo la norma ASTM D578 desde 2005. Últimamente, sin embargo, el uso de barras BFRP ha aumentado significativamente en edificios y otras obras comerciales después de los resultados positivos que ha mostrado el refuerzo de FRP en la infraestructura. Además de la durabilidad, una ventaja muy importante para los contratistas es el peso ligero del material (una cuarta parte del acero tradicional) que hace que el transporte, la manipulación y la instalación sean significativamente más fáciles y rentables. 2. PROPIEDADES DE LAS BARRAS BFRP Las barras FRP de basalto (BFRP) tienen una resistencia alta a tracción (más de tres veces mayor que el acero Grado 60 (420 MPa) para diámetros de barra equivalentes), son livianas (una cuarta parte del peso del acero), eléctricamente no conductoras y transparentes a los campos electromagnéticos. Sin embargo, la principal ventaja de estas barras compuestas es la alta resistencia a la corrosión, incluso cuando se exponen a entornos hostiles como zonas costeras donde niveles altos de cloruros debido a la presencia de agua marina [1, 5-7]. Como en el caso de las barras FRP de vidrio, carbono o aramida, las barras BFRP son elásticas lineales hasta la falla y no exhiben una meseta plástica como en el caso del acero dulce. En comparación con otros tipos de FRP, las barras de refuerzo BFRP se encuentran entre el vidrio y el carbono tanto en resistencia como en rigidez. En comparación con las barras de refuerzo FRP de vidrio E- CR, las barras BFRP tienen un módulo y una resistencia ligeramente superiores, y una mayor durabilidad [1,5]. El módulo elástico de una barra de BFRP es aproximadamente un tercio del del acero. La Tabla 1 resume las propiedades de las barras de refuerzo BFRP #5 (16 mm) que se ensayaron en la Universidad de Miami como parte del proceso de certificación del Departamento de Transporte de Florida (FDOT). Esta tabla presenta los valores medios o garantizados obtenidos experimentalmente siguiendo los diferentes métodos de ensayo ASTM, y se comparan con tres especificaciones de materiales existentes [8, 9 y 10]. Propiedad Método de ensayo Unidad Valor Especificaciones ASTM D7957 ICC-ES AC454 FDOT 932 Área ASTM D792 mm2 228 186-251 186-251 186-251 Contenido de fibra ASTM D2584 % 84  70  70  70 Carga máxima a tracción ASTM D7205 kN 286.8  130  144  130 Resistencia máxima a tracción (nominal) MPa 1441 n/a  104.9ksi n/a Modulo elástico (nominal) GPa 65.2  44.8  44.8  44.8 Elongación máxima % 2.21  1.1 n/a n/a Capacidad de adherencia ASTM D7913 MPa 9.95  7.6  7.6  7.6 Resistencia al corte transversal ASTM D7617 MPa 255  131  152  152 Resistencia al corte horizontal ASTM D4475 MPa 48.6 n/a  38  38 Resistencia a alcalinidad (con carga): retención de carga a tracción ASTM D7705- Procedure B % 92 n/a*  70  70 Temperatura de tránsito vítrea (DSC) ASTM E1356 °C 125  100  100  100 Grado de curado ASTM E2160 % 99  95 n/a  95 Absorción de humedad en 24h ASTM D570 % 0.07  0.25  0.25  0.25 Absorción de humedad hasta saturación % 0.40  1.0  1.0  1.0 *ASTM D7957 especifica el uso de ASTM D7705 - Procedimiento A (sin carga) como prueba de durabilidad. Se requiere una retención mínima del 80 % para que se acepte la barra de refuerzo de FRP. En general, como se observa en la Tabla 1, los valores físico-mecánicos obtenidos experimentalmente están significativamente por encima de los valores mínimos establecidos por las normas ASTM D7957, ICC-ES AC454 o FDOT 932 [8, 9 y 10] (explicadas en la sección 3). Hay dos razones para explicar estos hallazgos: (i) las fibras de basalto tienen mayor resistencia y rigidez que las fibras de vidrio E-CR que se utilizaron como referencia en el desarrollo de estas especificaciones de materiales; y (ii) el proceso de fabricación y los sistemas aglutinantes (es decir, resina, rellenos y aditivos) han mejorado considerablemente desde que se crearon estas especificaciones por primera vez, lo que ha dado lugar a barras de refuerzo de FRP con propiedades físico-mecánicas más altas. En la futura revisión de estas especificaciones, se espera que los requisitos mínimos se incrementen para reflejar el desempeño actual del material. 3. NORMAS Y ESPECIFICACIONES Para un uso seguro y eficiente de cualquier material de construcción, es fundamental que existan especificaciones del material y guías de diseño adecuadas. En el caso de las barras de refuerzo BFRP, se han logrado avances significativos para proporcionar un marco técnico y legal para su uso en estructuras de hormigón. Aunque los documentos existentes se crearon primero para las barras de refuerzo GFRP, la mayoría de ellos planean incluir o han incluido recientemente las barras BFRP. Especificaciones de materiales La primera especificación ASTM para la fibra de basalto se aprobó a principios de septiembre 2022, lográndose así un hito muy importante en el mundo de la fibra de basalto. El ASTM D8448-22 [11], Especificación Estándar de Fibras de Basalto, tiene como objetivo definir las especificaciones necesarias que la fibra de basalto debe tener para asegurar una calidad adecuada. Entre otras cosas, se definen los rangos aceptables en cuanto a la composición química del basalto, la nomenclatura de los productos de fibra de basalto, las propiedades físicas y mecánicas mínimas, etc. En cuanto a las barras, en EE.UU. existe la especificación ASTM D7957-17 [8] para barras GFRP. Esta especificación no cubre las barras BFRP debido a la falta de un ASTM para la fibra de basalto (equivalente al ASTM D578 para la fibra de vidrio [12]) cuando se desarrolló esta especificación para barras FRP en 2017. Ahora, ya con el ASTM D8448-22 aprobado, el subcomité ASTM D30.10 está terminando de desarrollar un documento ASTM nuevo para barras BFRP y GFRP de propiedades superiores a las especificadas en el ASTM D7957-17. Además de las especificaciones ASTM, ciertos estados de los EE.UU. tienen sus propias certificaciones de materiales, como es el caso de Florida: en la sección 932-3 de la Especificación del Departamento de Transporte de Florida [10] se definen los requisitos mínimos para el uso de las barras BFRP como refuerzo de hormigón en la infraestructura del estado de Florida. En el marco internacional, el ‘International Code Council – Evaluation Service (ICC-ES)’ ha publicado dos documentos de certificación: ICC-ES AC454 [9] e ICC-ES AC521 [13]. Ambos hacen referencia a las barras de refuerzo BFRP: el AC454 define las características fisio-mecánicas mínimas de las barras BFRP para su uso como refuerzo estructural en miembros de hormigón armado, mientras que el AC521 es el criterio de aceptación para el uso de barras de refuerzo BFRP como refuerzo no estructural. Códigos de diseño El primer código para el diseño de estructuras reforzadas con armadura FRP se aprobó a principios de septiembre de 2022, marcando un antes y un después en la industria de la construcción. Bajo el nombre ‘ACI 440.11-22 - Hormigón estructural reforzado con barras de polímero reforzado con fibra de vidrio (GFRP)’ [14], el código solo contempla el uso de barras GFRP. Sin embargo, dado que las propiedades mecánicas de las barras BFRP son generalmente superiores a las barras GFRP con vidrio E-CR, muchas instituciones promueven el uso de este documento para el diseño de estructuras de hormigón armado con armadura BFRP. Para las estructuras de transporte, existe la guía de diseño para estructuras de hormigón armado con barras FRP de AASHTO [15], la cual también está redactada solo para GFRP. Sin embargo, también podría usarse para el refuerzo de BFRP como se indica en el Volumen 4 del Manual de Estructuras del FDOT (2021) [16]. De hecho, este documento permite el uso de BFRP en el estado de Florida al prescribir los mismos criterios de diseño que para GFRP: “…el diseño de todos los miembros de hormigón que contengan barras de refuerzo de GFRP deberá estar de acuerdo con las especificaciones de la guía de diseño de puentes AASHTO LRFD para hormigón reforzado con GFRP. Para BFRP utilice los mismos criterios de diseño que para GFRP.” 4. IMPACTO MEDIOAMBIENTAL El acero es el material más utilizado como refuerzo interno de estructuras de hormigón. El componente principal en la producción de acero es el mineral de hierro. La minería y fabricación de acero requiere un alto consumo de energía, emitiendo en promedio 1,74 toneladas de CO2 por cada tonelada de acero producida en EE.UU. Esto hace que la producción de acero sea uno de los principales contribuyentes al calentamiento global [17]. Las fibras de basalto, sin embargo, están hechas únicamente de roca basáltica (sin productos químicos adicionales). El basalto es una roca orgánica inerte que es muy abundante en la tierra. Es reciclable y no combustible, por lo que no genera residuos durante la producción [18]. En comparación con el acero, la energía requerida durante la producción de fibra de basalto es significativamente menor: mientras que se necesitan en promedio 14 kWh/kg para producir acero en un horno eléctrico, la fibra de basalto requiere solo 5 kWh/kg, lo que reduce el consumo de energía en aproximadamente un 65% [18]. En el proceso de fabricación de las barras de refuerzo BFRP, las fibras de basalto se alinean en una matriz de resina termoestable, que suele ser resina de éster de vinilo o epoxi. Incluso si se tiene en cuenta que las barras de refuerzo BFRP están hechas de aproximadamente un 20 % de resina termoestable y un 80 % de fibra de basalto (de la masa total), siguen siendo un refuerzo interno para el hormigón respetuoso con el medio ambiente. Inman et al. [19] realizaron un estudio sobre la evaluación mecánica y ambiental de vigas de hormigón reforzadas con barras BFRP y barras de acero. Los resultados de la evaluación del ciclo de vida mostraron que las vigas reforzadas con barras BFRP obtuvieron significativamente mejor valoración en los dieciocho indicadores ambientales evaluados en el estudio (p. ej., agotamiento del ozono, acidificación y eutrofización), en comparación con las vigas reforzadas con barras de acero. En términos de potencial de calentamiento global, se observó que las emisiones de cambio climático se redujeron en un 62% cuando se usó refuerzo BFRP sobre acero convencional [19]. Esto convierte a BFRP en una solución ecológica para el refuerzo del hormigón. 5. BENEFICIOS DEL USO DE BARRAS BFRP PARA LOS CONTRATISTAS El uso en el refuerzo BFRP brinda múltiples beneficios a los contratistas debido a su peso ligero y resistencia a la corrosión. En esta sección se presentan algunas de las principales ventajas: - Transporte: El costo y el impacto ambiental del transporte de materiales a obra es considerablemente menor para el refuerzo BFRP que para el acero: siendo el peso de las barras corrugadas BFRP una cuarta parte del peso del acero, permite reducir los costos de transporte en aproximadamente un 60%. - Manipulación e instalación: La manipulación e instalación de barras de refuerzo BFRP es más rápida, más eficiente, más económica y, por lo tanto, más sostenible. La ligereza de la armadura BFRP en comparación con el acero permite el uso de maquinaria más liviana en obra (es decir, menos consumo de combustible) y una reducción de personal de trabajo. Además, la manipulación de las barras es más seguro para los trabajadores (menos dolores de espalda y lesiones). Esto equivale a una reducción en las emisiones y el costo. En la obra, las barras de refuerzo se pueden cortar fácilmente con una sierra normal si es necesario, y una vez cortadas, los extremos de las barras no necesitan un tratamiento especial como sería el caso de las barras de refuerzo de acero recubiertas de epoxi. - Construcción sostenible: el uso de armadura no corrosivos permite a los contratistas ofrecer a los clientes estructuras "verdes" y duraderas, lo que agrega un valor significativo al proyecto y evita posibles reclamos por deterioro durante la vida útil. 6. USO DE BARRAS BFRP EN LA CONSTRUCCION: PROYECTOS En Estados Unidos, Florida es uno de los estados que más utiliza el refuerzo de FRP en proyectos de infraestructura debido a los problemas de corrosión en sus extensas zonas costeras. Algunos de los proyectos en este estado incluyen: - Puente peatonal en la Universidad de Miami (2016): este puente de un vano de 70 pies de largo (21,3 m) fue construido en la Universidad de Miami y diseñado para una vida útil de más de 75 años sin costos anticipados de reparación debido a la corrosión. Fue construido completamente con refuerzo anticorrosivo. Se utilizaron barras de BFRP para reforzar el alma y el ala de las vigas doble-T prefabricadas. Otros elementos hormigonados in-situ como bordillos y cabezales de pilotes, también se reforzaron con estribos y barras rectas de BFRP. - I-dock en Miami, Florida (2019): Se utilizó refuerzo de BFRP para reforzar las losas prefabricadas del muelle que se construyó para reemplazar el que resultó dañado por el huracán Irma. No se usó acero en todo el proyecto. - Muros de contención del Túnel del Puerto de Miami (2014): En dos de los muros de contención del Túnel del Puerto de Miami se utilizó refuerzo de BFRP en lugar de acero según propuesta del contratista general, Bouygues Civil Works Florida, debido a su durabilidad y ligereza. Figura 1. Proyectos de infraestructura en Florida Las barras BFRP también están ganando mucho protagonismo en edificios. Algunos ejemplos del uso de barras BFRP en edificios son: - Torre Avocet en Bethesda, Maryland (2022): Esta es una estructura de hotel y oficina de 22 pisos que está coronado por una terraza en la azotea. El edificio cuenta con dos niveles de estacionamiento bajo rasante y cinco sobre rasante. Las losas de acabado fueron reforzadas con barras BFRP. - Bodega de vinos en Lake Ozark, Missouri (2023): Los cimientos de esta bodega de tres pisos y una superficie construida de 1,100 m2 fueron completamente reforzados con barras BFRP. Se prevé que la obra se finalice en junio 2023. - Residencia, tipo casa adosada en Miami, Florida (2021): Esta residencia de dos pisos, tiene una estructura de hormigón, y bloque, donde todos los elementos de hormigón están reforzados con armadura BFRP incluido los cimientos. Además, se adoptaron nuevas tecnologías de fabricación de estribos para la armadura. Figura 2. Uso de armadura BFRP en edificios 7. CONCLUSIONES El uso de la armadura BFRP está en auge y su uso está aumentando exponencialmente debido a sus beneficios en comparación con la armadura de acero tradicional. - Las barras de refuerzo de BFRP tienen un módulo de elasticidad, una resistencia y una durabilidad ligeramente superiores a las barras FRP hechas de vidrio E-CR. - En comparación con el acero tradicional de grado 60, las barras BFRP tienen una mayor resistencia a tracción (alrededor de tres veces mayor), tienen un peso menor (alrededor de una cuarta parte del acero), no son corrosivas y son sostenibles. Sin embargo, el módulo de elasticidad es un tercio del del acero. - Existen especificaciones de materiales y guías de diseño actualizadas para las barras de refuerzo BFRP, lo que hace que su uso sea seguro y eficiente. - Múltiples proyectos han utilizado BFRP como refuerzo principal o secundario con resultados positivos, incluyendo infraestructura y estructuras de edificios. REFERENCIAS [1] Ali, A. H., Mohamed, H. M., Benmokrane, B., ElSafty, A., & Chaallal, O. (2019). Durability performance and long-term prediction models of sand-coated basalt FRP bars. Composites Part B: Engineering, 157(August 2018), 248–258. https://doi.org/10.1016/j.compositesb.2018.08.065 [2] Kampmann, R., Telikapalli, S., Emparanza, A. R., Schmidt, A., & Dulebenets, M. A. (2021). Tensile Properties of Basalt Fiber-Reinforced Polymer Reinforcing Bars for Reinforcement of Concrete. ACI Materials Journal, 118(1). https://doi.org/10.14359/51729288 [3] Schmidt, A., Telikapalli, S., Ruiz Emparanza, A., Kampmann, R., & De Caso Y Basalo, F. (2019). Basalt FRP Production - Market Analysis and a State-Of-The-Art Report. FIB Symposium 2019; Innovations in Materials, Design and Structures. Krakow, Poland. [4] Al-Khafaji, A. F., Haluza, R. T., Benzecry, V., Myers, J. J., Bakis, C. E., & Nanni, A. (2021). Durability Assessment of 15-to 20-Year-Old GFRP Bars Extracted from Bridges in the US. II: GFRP Bar Assessment. Journal of Composites for Construction, 25(2), 4021008. [5] Dhand, V., Mittal, G., Rhee, K. Y., Park, S. J., & Hui, D. (2015). A short review on basalt fiber reinforced polymer composites. Composites Part B: Engineering, 73, 166–180. https://doi.org/10.1016/j.compositesb.2014.12.011 [6] Mohamed, O. A., Al Hawat, W., & Keshawarz, M. (2021). Durability and Mechanical Properties of Concrete Reinforced with Basalt Fiber-Reinforced Polymer (BFRP) Bars: Towards Sustainable Infrastructure. Polymers, 13(9), 1402. [7] Wu, G., Wang, X., Wu, Z., Dong, Z., & Xie, Q. (2015). Degradation of Basalt FRP Bars in Alkaline Environment. Science and Engineering of Composite Materials, 22(6), 649–657. [8] ASTM D7957-17 (2017), Standard Specification for Solid Round Glass Fiber Reinforced Polymer Bars for Concrete Reinforcement, ASTM International, West Conshohocken, PA, 2017. [9] AC454 (2020), “ICC-ES Acceptance Criteria for Fiber-Reinforced Polymer (FRP) Bars for Internal Reinforcement of Concrete Members”, AC454, ICC Evaluation Services, Inc., last revision December 2020. [10] Florida Department of Transportation Standard Specifications for Road and Bridge Construction, (January 2021), Standard Specification 932-3. [11] ASTM D8448-22, Standard Specification for Basalt Fiber Strands, ASTM International, West Conshohocken, PA, 2022. [12] ASTM D578 / D578M-18, Standard Specification for Glass Fiber Strands, ASTM International, West Conshohocken, PA, 2018. [13] AC521 (2020), “Fiber–reinforced Polymer (FRP) Bars and Meshes for Internal Reinforcement of Non-structural Concrete Members”, AC521, ICC Evaluation Services, Inc., last revision April 2021. [14]ACI 440.11-22 (2022), “Structural Concrete Reinforced with Glass Fiber-Reinforced Polymer (GFRP) Bars - Code and Commentary”, American Concrete Institute, Farmington Hills, MI. [15] AASHTO (2018), Design Guide Specifications for GFRP-Reinforced Concrete (2nd ed.). American Association of State Highway Officials. [16] Florida Department of Transportation Fiber Reinforced Polymer Guidelines (FRPG) Structures Manual Volume 4, January 2021. [17] Hasanbeigi, A., Arens, M., Cardenas, J. C. R., Price, L., & Triolo, R. (2016). Comparison of carbon dioxide emissions intensity of steel production in China, Germany, Mexico, and the United States. Resources, Conservation and Recycling, 113, 127–139. https://doi.org/10.1016/j.resconrec.2016.06.008 [18] De Fazio, P. (2011). Basalt fiber: from earth an ancient material for innovative and modern application. Energia, Ambiente e Innovazione, 3, 89–96. [19] Inman, M., Thorhallsson, E. R., & Azrague, K. (2017). A Mechanical and Environmental Assessment and Comparison of Basalt Fibre Reinforced Polymer (BFRP) Rebar and Steel Rebar in Concrete Beams. Energy Procedia, 111(March), 31–40. https://doi.org/10.1016/j.egypro.2017.03.005 RESISTENCIA AL FUEGO DE VIGAS DE HORMIGÓN ARMADO CON BARRAS DE PRFV Isel del Carmen Díaz Pérez1, Rafael Larrúa Quevedo 2, Hugo R. Wainshtok Rivas 3 1 Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE) Calle 114 e/ Ciclo vía y Rotonda, 2 Universidad de Camagüey “Ignacio Agramonte Loynaz” , 3 CUJAE. Calle 114 e/ Ciclo vía y Rotonda e-mail: 1iselcarmen@civil.cujae.edu.cu, 2hugow@tesla.cujae.edu.cu, 3hugow@tesla.cujae.edu.cu RESUMEN Los polímeros reforzados con fibras (PRF) son materiales que han ganado gran auge en los últimos años en la esfera de la construcción, particularmente como refuerzo del hormigón, debido a sus altas bondades como no corrosión y elevada resistencia a tracción, que lo hacen competitivo ante el refuerzo tradicional de acero. No obstante, su menor resistencia a las elevadas temperaturas ha sido limitante para su empleo como material de refuerzo en estructuras de hormigón, tomando en consideración que un incendio constituye una de las condiciones más severas a las que puede estar sometida una estructura en su vida útil. Cuando se emplean barras de PRF como armado del hormigón, los elementos estructurales sufren una degradación significativa de su resistencia si se compara con aquellos armados con acero, sin embargo, si se procuran valores de recubrimiento y anclajes adecuados, se pueden lograr tiempos de resistencia al fuego en las estructuras en correspondencia con aquellos requeridos, recogidos en la literatura especializada. En el presente trabajo se describen las propiedades físico-mecánicas y térmicas de las barras de PRF a elevadas temperaturas y se estudia mediante modelos analíticos el comportamiento a flexión y cortante de vigas de hormigón armado con barras de PRFV en situación de incendio. Finalmente, se presentan recomendaciones en cuanto el tiempo de resistencia al fuego de estos elementos. PALABRAS CLAVES: viga, hormigón armado, fuego, polímeros reforzados con fibras (PRF). FIRE RESISTANCE OF REINFORCED CONCRETE BEAMS WITH FRP BARS ABSTRACT Fiber-reinforced polymers (FRP) are materials that have gained great popularity in recent years in the field of construction, particularly as concrete reinforcement, due to its high benefits such as non-corrosion and high tensile strength, which make it competitive. compared to traditional steel reinforcement. However, its lower resistance to high temperatures has been limiting for its use as a reinforcement material in concrete structures, taking into consideration that a fire is one of the most severe conditions to which a structure can be subjected in its useful life. When FRP bars are used as concrete reinforcement, the structural elements suffer a significant degradation of their resistance when compared to those reinforced with steel, however, if adequate covering values and anchors are sought, resistance times can be achieved. fire in the structures in correspondence with those required, collected in the specialized literature. In this paper, the physical- mechanical and thermal properties of FRP bars at high temperatures are described, and the bending and shear behavior of reinforced concrete beams with FRP bars in a fire situation is studied by means of analytical models. Finally, recommendations are presented regarding the fire resistance time of these elements. KEY WORDS: beam, reinforced concrete, fire, fiber reinforced polymers (FRP). 1. INTRODUCCIÓN Los polímeros reforzados con fibras (PRF) son materiales compuestos que destacan por su elevada resistencia a tracción, así como su no corrosión, lo que hace que ofrezcan un gran potencial para ser usados como armadura en condiciones en las que el hormigón armado con acero aporta unas condiciones de servicio menos favorables. El empleo de barras de PRF como refuerzo en el hormigón incrementa el tiempo de servicio de las edificaciones en dos o tres veces, en comparación con aquellas que emplean armaduras metálicas, especialmente cuando actúan en un ambiente agresivo, en particular los que contienen sales, álcalis y ácidos [1]. Su mayor resistencia, combinada con propiedades tales como una mayor ligereza, durabilidad y posibilidad de explotación en condiciones complejas, así como sus ventajas económicas, amplifican el espectro de uso de los materiales compuestos [2]. No obstante, aspectos como su escasa ductilidad, su bajo módulo de elasticidad y la baja resistencia a las elevadas temperaturas, han sido limitantes para su empleo como material de refuerzo en estructuras de hormigón. La reducción en las propiedades de los PRF debido a las altas temperaturas depende principalmente de la composición específica y las propiedades de la matriz y las fibras de refuerzo [3] . Cuando la barra de PRF llega a una temperatura superior a la temperatura de transición vítrea (Tg), definida como la temperatura a partir de la cual las propiedades del compuesto dejan de permanecer estables, esta comienza a perder sus propiedades mecánicas [4]. La temperatura de transición del polímero varía en función del tipo de resina y el proceso de fabricación, por lo que es prácticamente imposible hacer generalizaciones con respecto a los rangos de temperatura seguros para los PRF actualmente disponibles para aplicaciones estructurales [5]. El ACI-440.1R [4] refiere para las resinas utilizadas en la mayoría de las barras de PRF que se emplean como refuerzo del hormigón, valores de temperatura de transición vítrea en el rango de 93 a 120°C. Una vez que se supera esta temperatura, la adherencia química entre la resina y la fibra se pierde, dando lugar a la formación de microfisuras en el elemento [6]. El tipo de fibra también influye en el desempeño frente al fuego de los elementos reforzados con PRF, experimentando reducciones significativamente diferentes en las propiedades mecánicas y de adherencia a temperaturas elevadas [7]. Las fibras de vidrio tienen una temperatura de servicio recomendada de aproximadamente 300ºC, más se mantienen resistentes y rígidas hasta aproximadamente los 600°C, mientras que las fibras de carbono pueden resistir fácilmente temperaturas por encima de 1000°C [6, 8] . En elementos de hormigón armado con PRF, la degradación que sufren las barras en resistencia y rigidez es menor a la que experimentan de manera individual, ya que el hormigón actúa como protector de las mismas, evitando que las llamas y el oxígeno lleguen a ellas [9]. Cuando los PRF están embebidos en una masa de hormigón y se exponen a temperaturas inferiores a 200 ºC, recuperan la mayor parte de sus propiedades mecánicas tras la exposición a temperaturas elevadas, y presentan una degradación insignificante [6]. 2. PROPIEDADES DE LOS POLÍMEROS REFORZADOS CON FIBRAS DE VIDRIO (PRFV) A ELEVADAS TEMPERATURAS Propiedades mecánicas El comportamiento de las barras de PRF a elevadas temperaturas, al igual que a temperatura ambiente, es casi lineal hasta la rotura, aunque se evidencia una caída en la resistencia y la rigidez de la barra [3, 10] (Fig. 1). Esta reducción en la resistencia a la tracción que experimentan las barras de PRFV con el incremento de la temperatura, es prácticamente lineal y mucho más brusca si se compara con la armadura de acero ordinaria (Fig. 2). Figura 1: Relación tensión-deformación de barras de PRFV para diferentes temperaturas [3] Figura 2: Variación de la resistencia a tracción en barras de refuerzo de acero, PRFC y PRFV [11] Investigaciones sobre el tema [12, 13], en base a los resultados experimentales de Blontrock (1999), presentan una expresión que permite determinar los valores de resistencia a la tracción final minorada de las barras de refuerzo de PRF debido a la temperatura: 𝑓𝑓𝑢𝑇 = 𝑘𝑓(𝜃) ∙ 𝑓𝑓𝑢20 (1) Siendo: 𝑓𝑓𝑢𝑇: resistencia a la tracción minorada de las barras de refuerzo PRF debido a la temperatura. 𝑓𝑓𝑢20: resistencia a la tracción a temperatura ambiente (20 ºC) de las barras de refuerzo PRF. 𝑘𝑓(𝜃): factor de reducción de la resistencia a la tracción de la barra de PRF para una temperatura (𝜃) bajo las condiciones de resistencia al fuego. Depende del tipo de fibra analizada y puede ser determinado en función de las temperaturas (Fig. 3). Para el caso dela fibra de vidrio podrá obtenerse mediante la expresión (2): 𝑘𝑓 = (1 − 0,0025𝑇) 𝑝𝑎𝑟𝑎 0 °𝐶 ≤ 𝑇 ≤ 400 °𝐶 (2a) 𝑘𝑓 = 0 𝑝𝑎𝑟𝑎 400 °𝐶 ≤ 𝑇 (2b) De igual manera, proponen valores de degradación del módulo de elasticidad de las barras de refuerzo PRF debido a las elevadas temperaturas, pudiendo obtenerse a partir de la siguiente ecuación: 𝐸𝑓𝑇 = 𝑘𝐸(𝜃) ∙ 𝐸𝑓20 (3) Donde: 𝐸𝑓20 y𝐸𝑓𝑇 son los módulos de elasticidad del PRF a temperatura ambiente (20 ºC) y a una temperatura dada T ºC, respectivamente. 𝑘𝐸(𝜃) representa el factor de reducción del módulo de elasticidad, variable en función de la temperatura según el tipo de fibra. Para el caso de los PRFV podrá calcularse según la expresión (4). 𝑘𝐸 = 1 𝑝𝑎𝑟𝑎 0 °𝐶 ≤ 𝑇 ≤ 100 °𝐶 (4a) 𝑘𝐸 = (1,25 − 0,0025T) 𝑝𝑎𝑟𝑎 100 °𝐶 ≤ 𝑇 ≤ 300 °𝐶 (4b) 𝑘𝐸 = (2,0 – 0,005T) 𝑝𝑎𝑟𝑎 300 °𝐶 ≤ 𝑇 ≤ 400 °𝐶 (4c) 𝑘𝐸 = 0 𝑝𝑎𝑟𝑎 400 °𝐶 ≤ 𝑇 (4d) Propiedades térmicas Como consecuencia del carácter anisotrópico del este material, el coeficiente de expansión térmica (CET) es diferente en la dirección longitudinal de la transversal y también mayor que la expansión térmica del hormigón endurecido [14]. Los polímeros reforzados con fibras tienen una expansión térmica en la dirección transversal mucho mayor que en la dirección longitudinal (Tabla 1). En particular, el CET longitudinal, controlado por fibras, es bajo, mientras que el CET transversal, controlado por la resina, es de 3 a 6 veces mayor al del hormigón. El efecto de la temperatura es mayor en las resinas que en las fibras, debido a que la resinas contienen grandes cantidades de carbono e hidrógeno, que son inflamables [15]. La diferencia entre el coeficiente transversal de expansión térmica de las barras de PRF y el hormigón puede causar grietas dentro del hormigón al aumentar la temperatura y, en última instancia, falla del recubrimiento del hormigón si la acción de confinamiento del hormigón es insuficiente [16]. Tabla 1: Coeficientes típicos de expansión térmica de las barras de refuerzo y el hormigón [4] Dirección CTE, (× 10-6/°C) Acero PRFV Hormigón Longitudinal, αL 11,7 6,0 a 10,0 7,2 a 10,8 Transversal, αT 11,7 21,0 a 23,0 7,2 a 10,8 La conductividad térmica de todos los polímeros es baja (Tabla 2), lo que significa que son buenos aislantes del calor. Estas propiedades favorables de los PRF se deben fundamentalmente a la baja densidad de la matriz de resina utilizada y la alta resistencia de las fibras incrustadas. Igualmente, la alta durabilidad de los PRF garantiza que estos tengan un comportamiento mucho más estable en términos de conductividad térmica [17]. Por otro lado, debido a las complejas reacciones químicas que tienen lugar en estos materiales a elevadas temperaturas, es extremadamente difícil determinar la variabilidad del calor específico con la temperatura [18], no obstante los valores reportados en las investigaciones superan aquellos alcanzados por el hormigón [15, 18] Tabla 2: Propiedades térmicas de los PRF [15] Propiedades Hormigón PRFV Conductividad térmica (W/mm K) 2,7 x 10-3 4,0 x 10-5 Calor específico (J/kg K) 722,8 1 310 Densidad (kg /mm3) 2,32 x 10-6 1,6 x 10-6 3. RESISTENCIA A MOMENTO FLECTOR DE VIGAS DE HORMIGÓN ARMADO CON PRF EN SITUACIÓN DE INCENDIO Cuando se emplean barras de PRF como refuerzo del hormigón debe tenerse en cuenta que, al ocurrir un incendio la temperatura disminuirá significativamente la resistencia a la tracción de la barra, y consecuentemente la resistencia a flexión del elemento, pudiendo además, cambiar el modo de falla de aplastamiento del hormigón a ruptura del PRF o ruptura del PRF acompañada de aplastamiento del hormigón [19]. El cálculo de la resistencia nominal a momento flector en un elemento de hormigón armado sometido a elevadas temperaturas puede realizarse, al igual que a temperatura ambiente, mediante las ecuaciones de equilibrio y compatibilidad, considerando la reducción que experimenta la resistencia de los materiales y/o de la sección transversal, debido a la exposición al fuego [19]. De esta forma el momento resistente de vigas en situación de incendio podrá determinarse en función del tipo de fallo y considerando la degradación en la resistencia de ambos materiales, empleando las ecuaciones (5) y (6). • Fallo por aplastamiento del hormigón (𝜌𝑓 > 𝜌𝑓𝑏) 𝑀𝑛𝜃 = ∑(𝑎𝑓𝑖𝑓𝑓𝑖,𝜃) (𝑑 − 𝛽1 ∙ 𝑐𝜃 2 ) (5) • Fallo por ruptura del refuerzo PRF (𝜌𝑓 ≤ 𝜌𝑓𝑏) 𝑀𝑛𝜃 = ∑(𝑎𝑓𝑖𝑓𝑓𝑢𝑖,𝜃) (𝑑 − 𝛽1𝑐𝑏𝜃 2 ) (6) Siendo: 𝑓𝑓𝑖𝜃 𝑦 𝑓𝑓𝑢𝑖,𝜃: Resistencias a tracción reducida de cada barra de refuerzo PRF a elevada temperatura Degradación de la resistencia a momento flector (𝜇) Con el objetivo de analizar analíticamente la degradación de la resistencia a momento flector, expresada mediante el coeficiente 𝜇 (ec. 7), se definieron los parámetros que en ella intervienen: resistencia a compresión del hormigón, dimensiones de la sección, recubrimiento y cuantía de refuerzo. Se construyeron gráficos de μ en función del tiempo de resistencia al fuego (TRF), para cada variable estudiada, en todo el rango de exposición al fuego considerado (Fig. 3). 𝜇 = 𝑀𝑛,𝜃 / 𝜙𝑀𝑛 (7) siendo: 𝑀𝑛,𝜃(𝑘𝑁 ∙ 𝑚): resistencia de diseño a momento flector de la sección transversal en situación de incendio, obtenida mediante las expresiones (5) y (6) 𝜙𝑀𝑛 (𝑘𝑁 ∙ 𝑚): resistencia de diseño a momento flector de la sección transversal a temperatura ambiente ( 250 x 400 mm; rn = 30 mm; Af = 3Ø16) ( 250 x 400 mm; fc ′ = 25MPa; Af = 3Ø16) 0 0.2 0.4 0.6 0.8 1 0 15 30 45 60 μ TRF (min) Resistencia a compresión 20MPa 30MPa 40MPa 0 0.2 0.4 0.6 0.8 1 1.2 0 15 30 45 60 μ TRF (min) 30mm" 40mm 50mm Recubrimiento (b = 250mm; rn = 30mm; fc ′ = 25MPa; Af = 3Ø16) (250 x 400mm; rn = 30mm; fc ′ = 25MPa) Figura 3: Gráficos de degradación del momento flector (μ) vs TRF Los gráficos muestran que el recubrimiento es el factor de mayor influencia en la resistencia, en correspondencia con las investigaciones realizadas hasta la fecha [15, 20-22], lo cual es totalmente justificado si se tiene en cuenta que mientras más alejadas estén las barras de las caras más calientes de la sección (inferior y laterales), menor será la degradación que estas sufren y consecuentemente, del momento resistente. De igual forma, puede apreciarse que un incremento en el área del refuerzo trae consigo una menor degradación del momento flector durante todo el tiempo de exposición al fuego y que no existen diferencias apreciables en la degradación del momento flector, al variar la resistencia a compresión del hormigón y peralto de la sección respectivamente, manteniendo el resto de los parámetros constantes. 4. RESISTENCIA A CORTANTE DE VIGAS DE HORMIGÓN ARMADO CON PRF A ELEVADAS TEMPERATURAS La resistencia nominal a cortante de una viga de hormigón armado con PRF a alta temperatura (𝑉𝑛𝜃) se puede calcular utilizando la ecuación propuesta por el Comité 440 del ACI [4] para el diseño a cortante en temperatura ambiente, considerando la degradación de las propiedades de ambos materiales (ec. 8). 𝑉𝑛𝜃 = (𝑉𝑐𝜃 + 𝑉𝑓𝜃) (8) La capacidad resistente a cortante proporcionada por el hormigón (𝑉𝑐𝜃) puede ser evaluada mediante las ecuaciones (9), considerando el ancho reducido de la sección de hormigón(𝑏𝑡) y su resistencia total (𝑓𝑐 ′) (método de la isoterma 500 ºC); mientras que la entregada por los estribos de PRF (𝑉𝑓𝜃), perpendiculares al eje del elemento, se determina mediante la expresión (10), tomando la resistencia a cortante reducida según la temperatura que estos alcanzan [23]. 𝑉𝑐𝜃 = (0,40𝑘𝑠𝜃)√𝑓𝑐′ ∙ 𝑏𝑡 ∙ 𝑑 (9) 𝑉𝑓𝜃 = 𝐴𝑓𝑣 ∙ 𝑓𝑓𝑣,𝜃 ∙ 𝑑 𝑠 (10) Siendo: 𝑘𝑠𝜃: profundidad relativa de la línea neutra de la sección fisurada a elevada temperatura 𝑏𝑡: ancho de la sección reducida a elevada temperatura 𝑓𝑓𝑣,𝜃: resistencia reducida del refuerzo PRF para el diseño a cortante a elevada temperatura 0 0.2 0.4 0.6 0.8 1 0 15 30 45 60 μ TRF (min) Peralto 25x30 25x40 25x50 0 0.2 0.4 0.6 0.8 1 0 15 30 45 60 μ TRF (min) Área de refuerzo 3Ø12 3Ø16 3Ø25 Degradación de la resistencia a cortante (ʋ) El análisis del comportamiento de la degradación de la resistencia a cortante, se lleva a cabo de manera similar al descrito para el momento flector. Para facilitar el estudio se construyeron gráficos de degradación de cortante (ec. 11), en función del tiempo de resistencia al fuego, para un rango de 0 a 60 minutos de exposición al fuego estándar ISO 834 (1990). ʋ = 𝑉𝑛,𝜃 / 𝜙𝑉𝑛 (11) Siendo: 𝑉𝑛,𝜃(𝑘𝑁): resistencia de diseño a cortante de la sección transversal en situación de incendio obtenida mediante las expresiones (8)- (10). 𝜙𝑉𝑛(𝑘𝑁): resistencia de diseño a cortante de la sección transversal a temperatura ambiente. Las variables consideradas para el análisis fueron el recubrimiento, ancho y peralto de la sección y cuantía de refuerzo transversal (Fig. 4). ( 250 x 400 mm; fc ′ = 25MPa; Af = 3Ø16; S = 200 mm) ( 250 x 400 mm; fc ′ = 25 MPa; rn = 40 mm; Af = 3Ø16) (b = 250 mm; fc ′ = 25MPa; rn = 40 mm; S = 200 mm) (h = 400 mm; fc ′ = 25MPa; rn = 40 mm; S = 200 mm) Figura 4: Gráficos de degradación del cortante (ʋ) vs TRF El análisis de los gráficos permite concluir que en la capacidad de corte en vigas armadas con PRFV a elevadas temperaturas, el recubrimiento es el parámetro de mayor influencia y en menor medida, el ancho de la sección transversal. De igual forma, se observa que independientemente del parámetro evaluado, la degradación a cortante de estas vigas comienza a ser evidente después de transcurrido aproximadamente 15 min de exposición al fuego. Al alcanzar los 60 min se observa que la resistencia a cortante de la mayoría de las vigas estudiadas, con recubrimientos superiores a 30mm, ha sufrido una degradación de aproximadamente el 80 % de su resistencia a temperatura ambiente. 0 0.2 0.4 0.6 0.8 1 0 15 30 45 60 ʋ TRF (min) 30mm 40mm 50mm Recubrimiento 0 0.2 0.4 0.6 0.8 1 1.2 0 15 30 45 60 ʋ TRF (min) 30x40 25x40 35x40 Ancho Cuantía transversal Peralto 5. TIEMPO DE RESISTENCIA AL FUEGO DE VIGAS DE HORMIGÓN ARMADO CON PRFV (TRF) El tiempo de resistencia al fuego de un elemento puede definirse tanto en función de la degradación que sufre en su capacidad resistente, como de la temperatura crítica de los materiales. La UNE-EN 1992-1-2 [23] y la ABNT-NBR-15200 [24] consideran para el desarrollo de los métodos propuestos para vigas convencionales de hormigón armado, una relación entre la solicitación actuante en incendio y a temperatura ambiente en el orden de 0,7. Tomando como referencia este criterio, común a ambos códigos, se estiman tiempos de resistencia al fuego para las vigas de hormigón armado con PRFV. Las configuraciones de armado y recubrimientos netos considerados, se presentan en la Tabla 3. En todos los casos se consideró el empleo de cercos de Ø 10 mm y una separación vertical de 25 mm entre barras longitudinales para el caso de la distribución de armado en dos camadas. El análisis se realizó en cumplimiento de los estados límite de resistencia a flexión y cortante, y tomando como referencia los tiempos requeridos de resistencia al fuego (TRRF, “tiempo mínimo que vigas, losas o columnas deben resistir cuando es sometido al incendio estándar”) de la norma brasileña NBR 14432. Tabla 3: Datos de las secciones de hormigón armado con PRFV analizadas Factores Niveles Ancho de la sección (mm) 250 300 350 Recubrimiento neto (mm) 30 40 50 Área de refuerzo en tracción (1 camada) [mm2] 2Ø12 [226,2] 4Ø12 [452,4] 3Ø25 [1472,6] Área de refuerzo en tracción (2 camadas) [mm2] 2 y 2 Ø12 [452,4] 4 y 4 Ø12 [904,8] 3 y 3 Ø25 [2945,2] Para el caso del momento flector se consideraron las curvas (cuantías), obtenidas en función del recubrimiento y ancho de la sección, que ofrecían los mayores y menores tiempos de resistencia para la condición fijada (Fig. 5- 7). Figura 5: Degradación de la resistencia a momento flector en viga de b = 250 mm, rn=30 mm Figura 6: Degradación de la resistencia a momento flector en viga de b = 250 mm, rn=50 mm 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 15 30 45 60 µ TRF (min) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 15 30 45 60 75 90 µ TRF (min) 2 Ø 12 3 Ø 25 2 Ø 12 3 Ø 25 Figura 7: Degradación de la resistencia a momento flector en viga de b= 350 mm, rn=30 mm En la Fig. 5 se observa que para la viga de 250 mm de ancho y 30 mm de recubrimiento solo se alcanzan los 30 min mínimos requeridos de resistencia al fuego al emplear como armado 3 Ø 25. Sin embargo, si se realiza un análisis similar para esta viga, considerando 50 mm de recubrimiento (Fig. 6), el tiempo de resistencia al fuego se incrementa, alcanzándose los 30 min para todas las combinaciones de armado y llegando a conseguirse tiempos de 45 min. Estos resultados confirman la importancia de proveer un mayor recubrimiento cuando se emplean barras de PRFV para lograr la resistencia deseada del elemento a las elevadas temperaturas. Igualmente, al comparar los resultados obtenidos del análisis de la viga de 250 mm de ancho y recubrimiento 30 mm (Fig. 5) con los de la viga de 350 mm de ancho e igual recubrimiento (Fig. 7), se observa un ligero aumento en los TRF con el incremento de la cuantía de refuerzo. En el caso del cortante resulta evidente como el incremento del recubrimiento conduce a mayores tiempos de resistencia al fuego, llegando a alcanzarse 60 min, tiempo mínimo exigido para edificaciones de más de 6 m de altura (Fig. 8) Figura 8: Degradación de la resistencia a cortante en viga de b= 350 mm Los resultados de este análisis, tanto para el momento flector como para el cortante, se resumen en las tablas 4 y 5, respectivamente. 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 15 30 45 60 µ TRF (min) 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 15 30 45 60 ʋ TRF (min) rn=30 mm rn=40 mm rn=50 mm 𝑏=350𝑚𝑚 2 Ø 12 3 Ø 25 Tabla 4: Tiempo de resistencia al fuego en vigas de hormigón armado con PRFV para garantizar la resistencia a momento flector Tiempo de resistencia al fuego (min) 𝒓𝒏(mm) 𝑨𝒇(mm 2) 𝒅𝒔 (mm) b (mm) 250 30 2Ø12 46 20 20 20 3Ø25 52,5 30 33 35 2 y 2 Ø12 83 25 25 25 3 y 3 Ø25 102,5 33 40 45 40 2Ø12 56 30 30 30 3Ø25 62,5 35 40 45 2 y 2 Ø12 93 33 35 38 3 y 3 Ø25 112,5 43 50 55 50 2Ø12 66 40 42 45 3Ø25 72,5 45 50 55 2 y 2 Ø12 103 43 45 50 3 y 3 Ø25 122,5 53 60 65 Tabla 5: Tiempo de resistencia al fuego en vigas de hormigón armado con PRFV para garantizar la resistencia a cortante Tiempo de resistencia al fuego (min) 𝒓𝒏 (mm) b (mm) 250 300 350 30 30 40 50 40 31 43 55 50 32 45 60 El análisis de los resultados obtenidos para las vigas estudiadas permite concluir que: • Cuando se emplean barras de PRFV de Ø12, con áreas de refuerzo inferiores a 9 cm2, en vigas con recubrimiento neto de 30 mm, independientemente de la geometría de la sección analizada, no se garantizan los tiempos mínimos de resistencia al fuego (30 min) establecidos en dicha normativa. Una menor área de refuerzo, unida a la degradación que sufre el material, conllevan a una disminución de la fuerza resistente que aporta el refuerzo. • Tomando en consideración la conclusión anterior, las vigas de ancho igual a 250 mm y 300 mm solo deben emplearse en estructuras cuyos TRRF no superen los 30 min (residencias, hospitales, oficinas y escuelas de hasta 6 m de altura) para garantizar ambos criterios resistentes (momento flector y cortante). Debe destacarse que, para las vigas de 300 mm de ancho, aun cuando disponiendo un recubrimiento mecánico de 122 mm se alcanzan los 60 min de TRF, los 50 mm de recubrimiento neto para el cerco no garantizan este tiempo para satisfacer el estado límite de cortante. • Solo es posible alcanzar TRF de 60 min, exigidos por dicha normativa para la mayoría de las edificaciones con alturas entre 6 m y 23 m, en vigas de 350 mm de ancho, con 50 mm de recubrimiento neto y una disposición del refuerzo que garantice un recubrimiento mecánico superior a 120 mm. 6. CONCLUSIONES Las vigas de hormigón armado con PRFV sometidas a elevadas temperaturas exhiben una mayor degradación del momento flector y el cortante en comparación a aquellas armadas con acero. El estudio realizado demuestra que la resistencia a compresión del hormigón y el peralto total de la sección no influyen de manera significativa en la degradación del momento flector y el cortante. En el caso del cortante, se demuestra, además, que la degradación es independiente de la cuantía de refuerzo transversal. A partir de la evaluación de la degradación de las resistencias a momento flector y cortante en situación de incendio, se concluye que no es posible en vigas de hormigón armado con PRFV sometidas a momento flector positivo, alcanzar un tiempo mínimo de resistencia al fuego de 30 min para todos los posibles recubrimientos y cuantías de acero. Para alcanzar TRF de 30 min deben emplearse vigas con recubrimientos iguales o superiores a los 40 mm; cuando se empleen recubrimientos de 30 mm deberá disponerse armadura con diámetros superiores a 12 mm. Además, es posible alcanzar TRF de 60 min si se emplean vigas de ancho 350 mm con recubrimientos iguales o superiores a 50 mm. REFERENCIAS 1. Younis, A., et al., STRENGTH, SHRINKAGE, AND PERMEABILITY PERFORMANCE OF SEAWATER CONCRETE. Structural Engineering and Construction Management, 2019: p. 7. 2. Wainshtok , H.R., J.A. Hernández ., and I. Díaz . Calidad y durabilidad de las Construcciones. El uso de los PRF como refuerzo del hormigón armado y el ferrocemento. . 2017, Valencia, España. 200. 3. Hamad, R.J., M.M. Johari, and R.H. Haddad, Mechanical properties and bond characteristics of different fiber reinforced polymer rebars at elevated temperatures. Construction and Building Materials, 2017. 142: p. 521-535. 4. ACI-440.1R., Building Code Requirements for Structural Concrete Reinforced with Glass Fiber- Reinforced Polymer (GFRP) Bars. 2019, American Concrete Institute.: Farmington Hills. EUA. 5. Bazli, M. and M. Abolfazli, Mechanical Properties of Fibre Reinforced Polymers under Elevated Temperatures: An Overview. Polymers, 2020. 12(11): p. 2600. 6. Najafabadi, E.P., et al., Experimental investigation and probabilistic models for residual mechanical properties of GFRP pultruded profiles exposed to elevated temperatures. Composite Structures, 2019. 211: p. 610-629. 7. Kodur, V.K., L.A. Bisby, and M. Green, Preliminary guidance for the design of FRP-strengthened concrete members exposed to fire. Journal of Fire Protection Engineering, 2007. 17(1): p. 5-26. 8. Yang, Y., et al., Study on tensile properties of CFRP plates under elevated temperature exposure. Materials, 2019. 12(12): p. 1995. 9. Özkal, F.M., et al., Mechanical properties and bond strength degradation of GFRP and steel rebars at elevated temperatures. Construction and Building Materials, 2018. 184: p. 45-57. 10. Ashrafi, H., et al., The effect of mechanical and thermal properties of FRP bars on their tensile performance under elevated temperatures. Construction and Building Materials, 2017. 157: p. 1001- 1010. 11. Wang, Y.C., P.M.H. Wong, and V.K.R. Kodur, Mechanical properties of fibre reinforced polymer reinforcing bars at elevated temperatures. 2003: p. 11. 12. Nadjai, A., D. Talamona, and F. Ali. Fire perfomance of concrete beams reinforced with FRP bars. in International Symposium on Bond Behaviour of FRP in Structures 2005. International Institute for FRP in Construction. 13. Rafi, M., A. Nadjai, and F. Alí, Finite Element Modeling of Carbon Fiber-Reniforced Polymer Reinforced Concrete Beams under Elevated Temperatures. ACI Structural Journal, 2008. Vol 105: p. 10. 14. Masmoudi, R., A. Zaidi, and P. Gérard, Transverse thermal expansion of FRP bars embedded in concrete. Journal of Composites for Construction, 2005. 9(5): p. 377-387. 15. Nasreen, K., Numerical Study of FRP Reinforced Concrete under Fire Exposure. International Journal of Innovative Research in Science, Engineering and Technology, 2016. Vol. 5(Issue 9): p. 10. 16. Bellakejal, H., et al., Behavior of FRP bars-reinforced concrete slabs under temperature and sustained load effects. Polymers, 2014. 6: p. 17. 17. Berardi, U. and N. Dembsey, Thermal and Fire Characteristics of FRP Composites for Architectural Applications. 2015: p. 14. 18. Bisby, L.A., Fire behaviour of fibre-reinforced polymer (FRP) reinforced or confined concrete, in Department of Civil Engineering. 2003, Queen’s University, Kingston, Ontario, Canada 19. Nigro, E., et al., Guidelines for flexural resistance of FRP reinforced concrete slabs and beams in fire. Composites: Part B, 2014. 58: p. 10. 20. Rosa, I.C., et al., Fire behaviour of concrete slab strips reinforced with sand-coated GFRP bars. Composite Structures, 2020. 244: p. 112270. 21. Petr, D., R. Iva, and K. Ondřej, Experimental Study of Concrete Beams Reinforced with GFRP Rebars Exposed to High Temperatures. Key Engineering Materials, 2019. 808: p. 177-182. 22. Chattopadhyay, S.R., R. ; Umamaheswari, N., Analytical investigation on flexural behavior of concrete beams reinforced with gfrp rebars. International Journal of Civil Engineering and Technology, 2018. 9: p. 1-8. 23. UNE-EN 1992-1-2, Proyecto de estructuras de hormigón, in Parte 1-2: Reglas generales. Proyecto de estructuras sometidas al fuego. 2011, AENOR. Asociación Española de Normalización y Certificación: Madrid. España. p. 101. 24. ABNT-NBR-15200, Projeto de estruturas de concreto em situação de incêndio, in ABNT/CB-02. 2012: Brasil. p. 54. 1 ESTUDIO DEL FENÓMENO DE INTERACCIÓN SUELO-ESTRUCTURA Aldo Fernández Limés1 Willian D. Cobelo Cristiá2 Ingrid Fernández Lorenzo3 1,2,3Facultad de Ingeniería Civil, Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE), Calle 114 No. 11901 entre Ciclovía y Rotonda, Marianao, La Habana, Cuba, apartado Postal 19390, url:http://cujae.edu.cu. 1e-mail: afernandezl@civil.cujae.edu.cu 2e-mail: wcobelo@civil.cujae.edu.cu 3e-mail: ingridfl@civil.cujae.edu.cu RESUMEN La interacción suelo estructura (ISE) es un fenómeno muy heterogéneo, que engloba dos ramas importantes de la ingeniería civil: la estructural y la geotécnica, las cuales son muy distintas entre sí en cuanto a principios y materiales. En este trabajo se analizan los conceptos, fenómenos y principios de análisis y solución asociados al fenómeno de la ISE. La ISE se puede dar en condiciones dinámicas y en condiciones estáticas, siendo la primera causada principalmente por la fuerza sísmica. La solución de problemas de ISE se puede realizar por dos métodos fundamentalmente, el método directo o continuo y el método de la subestructura. Para demostrar la influencia de la ISE en la respuesta estructural, se analizaron diferentes trabajos. Los resultados muestran que la ISE tiene un efecto considerable en el aumento de los desplazamientos laterales, en la disminución de la frecuencia de oscilación, en el incremento del amortiguamiento y en la variación de las fuerzas interiores en la estructura, por tanto, su análisis es necesario cuando se proyectan edificaciones sobre suelos blandos. PALABRAS CLAVES: Interacción suelo-estructura (ISE), suelos blandos, método directo, método de la subestructura INFLUENCE OF SOIL STRUCTURE INTERACTION AT A BUILDING UNDER WIND LOAD ABSTRACT Soil structure interaction (SSI) it´s a very heterogeneous phenomenon, which encompasses two important branches of civil engineering: structural and geotechnical, which are very different from each other in terms of principles and materials. In this paper, the concepts, phenomena and principles of analysis and solution associated with the SSI phenomenon are analyzed. SSI can occur under dynamic and static conditions, the former being mainly caused by seismic forces. SSI troubleshooting can be done by two fundamental methods, the direct or continuous method and the substructure method. To demonstrate the influence of SSI on the structural response, different works were analyzed. The results show that the SSI has a considerable effect on lateral displacements increase, on oscillation frequency decrease, in damping increase and in the variation of internal forces in structure, therefore, its analysis is necessary when buildings are projected on soft soils. KEY WORDS: Soil-structure interaction (SSI), soft soils, direct method, substructure method. 2 1. GENERALIDADES DE LA ISE Generalmente se asume que la estructura está apoyada de forma rígida en la base (figura 1), pero el suelo no es un apoyo rígido. Un modelo más realista es representar al modelo del edificio amortiguado o no y que pueda girar y desplazarse en diferentes direcciones. Figura 1: Modelo físico de estructura de un grado de libertad sin ISE [1] Los movimientos del terreno que no son influenciados por la presencia de las estructuras se conocen como movimientos de campo libre. Cuando la estructura está cimentada sobre roca sólida y ocurre una excitación sísmica, la rigidez de la roca restringe el movimiento y ocurre un comportamiento cercano al del campo libre. Las estructuras cimentadas sobre roca se considera que tienen su base empotrada. Por otro lado, si la misma estructura estuviera sobre un suelo más deformable o blando la respuesta es diferente. Esto se debe a la incapacidad de la cimentación para adaptarse a las deformaciones que ocurren en el suelo durante el movimiento de campo libre. También la respuesta dinámica de la estructura induce deformación en el suelo que la soporta. Este proceso en el cual la respuesta del suelo influye sobre el movimiento la estructura y la respuesta de la estructura sobre el movimiento del suelo, se conoce como interacción suelo-estructura (ISE). Modelo físico de la ISE J.P Wolf y P.Obernhuber [2] consideraron una aproximación que consiste en un sistema de un solo grado de libertad, una cimentación en forma de L sobre un suelo elástico y una estructura caracterizada por su masa (m), su rigidez (k) y un coeficiente amortiguamiento (c). Si el material que soporta la cimentación es rígido resultando en una estructura con apoyos empotrados, la frecuencia natural del sistema solo depende de la rigidez y la masa de la estructura, ecuación 1 𝜔0 = √ 𝑘 𝑚 (1) Y la razón de amortiguamiento histerético se muestra en la ecuación 2: 𝜉 = 𝑐 𝜔0 2𝑘 (2) Si el suelo de soporte es deformable, la cimentación puede entonces trasladarse y rotar. Las características de rigidez y amortiguamiento del suelo entonces pueden representarse como resortes y amortiguadores traslacionales y rotacionales como se muestra en la figura 2. 3 Figura 2: Modelo físico de la ISE [2] Donde 𝑘ℎ y 𝐶ℎ son coeficientes de rigidez y amortiguamiento durante el desplazamiento respectivamente y 𝑘𝑟 y 𝐶𝑟 son coeficientes de rigidez y amortiguamiento durante la rotación respectivamente. Los amortiguadores de la cimentación representan dos fuentes de amortiguamiento: el material causado por el comportamiento inelástico del suelo y el amortiguamiento geométrico que ocurre como fuerzas dinámicas en la estructura debido a la deformación del suelo por el cimiento. La magnitud del amortiguamiento material depende del nivel de deformación en el suelo; si la deformación es grande el amortiguamiento es considerable, pero si es bajo el amortiguamiento del material puede llegar a ser despreciable. Por otra parte, el amortiguamiento geométrico existe a bajas y altas deformaciones. Para cimentaciones típicas o convencionales el amortiguamiento geométrico es mucho más grande que el del material. El desplazamiento total (𝑢𝑡) de la estructura cuando hay ISE puede ser dividido en sus componentes como se muestra en la figura 3. Figura 3: Desplazamientos en la ISE [2] Donde 𝑢𝑏 es el desplazamiento permanente en la base rígida por la acción sísmica, 𝑢0 es el desplazamiento de la base (influye 𝑘ℎ), hθ es el desplazamiento por rotación de la base (efecto de péndulo) y 𝑢 el desplazamiento por distorsión de la estructura (respuesta estructural) Desplazamiento en la parte superior de la edificación 𝑢𝑡 = 𝑢𝑏 + 𝑢0 + hθ + u 4 Desplazamiento en la base de la edificación 𝑢𝑏 = 𝑢𝑏 + 𝑢0 En la práctica se tienen más formas de movimiento que solo una rotación y una traslación horizontal, se tiene 6 grados de libertad (desplazamiento vertical, 2 traslaciones horizontales, 2 rotaciones y la torsión). Todas estas formas de movimiento consumen energía y sirven para incrementar el amortiguamiento del sistema. Las rotaciones y desplazamientos en la cimentación generadas por las deformaciones del suelo traen consigo un cambio en las condiciones de apoyo de la estructura, generando una redistribución no prevista de las tensiones e incrementos en las deformaciones. Además, la deformabilidad del suelo cambia el comportamiento dinámico de las edificaciones, principalmente el periodo [3], lo que puede provocar errores en los diseños. La interacción entre la estructura de cimentación y el suelo consistirá en encontrar un sistema de reacciones que aplicadas simultáneamente a la estructura de cimentación y a la masa del suelo produzcan la misma configuración de desplazamientos diferenciales entre los dos elementos. Para el caso de una estructura pequeña sobre un suelo rígido la ISE tiene poca influencia, pero provoca cambios en la distribución de tensiones cuando el suelo es blando, por tanto el tamaño de la edificación no es condicionante para despreciar su efecto [4]. Para una estructura pesada sobre el suelo blando la ISE tiene mayor implicación. Para este caso la ISE tiende a incrementar el periodo natural y el amortiguamiento de la estructura [5]. 2. MÉTODOS DE SOLUCIÓN DE LA ISE • Análisis directo o continuo: Esta aproximación utiliza un modelo numérico como elementos finitos. Hay que definir una interfase para representar una respuesta acoplada. • Análisis indirecto o subestructura: Esta aproximación analiza la respuesta cinemática e inercial de forma separada, luego se adicionan para obtener la respuesta total del sistema. Es válido solo para sistemas lineales, para sistemas no lineales se debe hacer un sistema lineal equivalente. Para dar solución a los problemas de ISE por métodos continuos o directos es necesario hacer simulaciones matemáticas que modelen el comportamiento más aproximado a la realidad del suelo a partir de seleccionar correctamente los modelos constitutivos. Todos los aspectos que influyen en la respuesta mecánica del suelo bajo condiciones determinadas de cargas no son posibles tenerlos en cuenta, por lo tanto, se necesitan idealizaciones, tanto del material como de las condiciones de carga, para simplificar la expresión matemática. Estas idealizaciones incorporan las principales propiedades del material, excluyéndose los aspectos considerados de menor importancia. Estos modelos deben estar en función del tipo de análisis que se desee hacer (estático o dinámico) [6]. La búsqueda de modelos de comportamiento para describir la ISE se ha desarrollado básicamente en dos vertientes, los modelos discretos que tienen su base en la hipótesis de Winkler en donde el suelo se sustituye por resortes con una rigidez determinada y los continuos donde el suelo es modelado de forma íntegra [7] junto con la estructura, siendo esta idealización más cercana al comportamiento real, pero requieren de un mayor costo computacional debido a que en su solución es necesario el empleo de métodos numéricos. La influencia de la interacción suelo estructura (ISE) puede ser en condiciones estáticas, lo cual es tratado por la interacción suelo-estructura estática, o puede ser en condiciones dinámicas, dando lugar a la interacción suelo- estructura dinámica. En el análisis estático la ISE se realiza sin tener en cuenta la componente de amortiguamiento en el análisis de subestructura y se determinan los coeficientes de rigidez a través de métodos winklerianos. Cuando se hace un análisis directo en el contacto entre el suelo y la cimentación se deben generar elementos de interfase. En la interfase de la estructura de cimentación y el suelo se originan desplazamientos debido a las cargas que transmite la cimentación, esto conlleva a la generación de desplazamientos totales y diferenciales. 5 3. INFLUENCIA DE LA ISE EN LA RESPUESTA ESTRUCUTRAL Como se definió anteriormente la ISE puede darse en condiciones estáticas (ISEE), ésta se condiciona por cargas gravitacionales procedentes de la superestructura que inducen esfuerzos y deformaciones tanto en el suelo como en la estructura. Estos esfuerzos y deformaciones son función del tiempo por lo que la estructura sufrirá un reacomodo de la distribución de tensiones en sus elementos para acoplarse a los desplazamientos en el suelo de manera lenta, ocurre principalmente cuando los valores de las cargas son significativos y la estructura se encuentra sobre un suelo blando. El modelo matemático para describir la ISEE consiste principalmente en tomar en cuenta la rigidez de la estructura para determinar los asientos o desplazamientos del suelo de cimentación. Para desarrollar este modelo es importante establecer compatibilidad de deformaciones y desplazamientos entre la superestructura y la cimentación. La ISEE usualmente se desprecia porque en muchas ocasiones la magnitud de las cargas no contribuye a generar compatibilidad de deformaciones entre el suelo y la estructura, sin embargo, también existen casos donde su efecto es considerable por lo que es de gran importancia evaluar cada caso individualmente [8]. El fenómeno de la ISEE fue estudiado por Zani, et al. [9], en este trabajo se evalúa la respuesta estructural de un puente de mampostería sometido a carga estática, considerando la ISEE y sin considerarla (modelo A). Para el análisis de la ISEE se utilizaron dos modelos analíticos para simular el comportamiento del suelo y su interacción con la cimentación del puente, uno lineal, con seis grados de libertad (modelo B) y otro no lineal con cinco grados de libertad (modelo C). En la figura 4 se muestran algunos de los resultados obtenidos Figura 4: Influencia de la ISE en los desplazamientos [9] Los resultados de su trabajo evidencian que el valor de los desplazamientos es mayor cuando se tiene en cuenta el efecto de la ISEE (modelos B y C). Castro Pilco y Pérez Martínez [8] en un amplio estudio, evaluaron la influencia de la ISEE generada por carga sísmica con enfoque estático equivalente en las distintas variables del sistema. Los autores demostraron que la ISEE produce mayores modificaciones para suelos blandos e influye en el incremento de fuerzas interiores de los elementos estructurales, lo mismo sucede con las deformaciones, el acero de refuerzo alcanza la fluencia. En cuanto a la rigidez de la cimentación (aislada) se concluyó que es necesario tomar en cuenta la influencia de las 6 cadenas de cimentación (vigas entre pedestales de cimientos aislados), ya que actúan como resortes laterales lo cual provoca aumento de la rigidez lateral de la zapata y proporciona un resultado que se asemeja más a la realidad. Las fuerzas interiores también son afectadas por el efecto de la interacción suelo estructura, Gutierrez Martinez [10], en su trabajo analizó el efecto de la ISEE en un edificio mediante tres variantes diferentes y las comparó con los resultados para un apoyo rígido en la base (BR). En este trabajo se evalúo la influencia de la ISEE para edificios de distintas alturas (bajos, medianos y altos), las cargas evaluadas fueron solo las gravitatorias (uso y permanentes). La ISEE fue tenida en cuenta en dos variantes: a través de módulos de reacción en el primer caso, llamadas iteraciones 1 y 3 y utilizando método directo a través del programa de elementos finitos Midas GTS NX. Como se muestra en la figura 5 la fuerza axial varía según el método empleado. Figura 5: Fuerza axial en columnas de esquina [10] Los resultados obtenidos muestran que ocurre una redistribución de esfuerzos significativa siendo mayores las fuerzas de las columnas de esquina cuando se considera el efecto de la ISEE, lo que no sucede con el resto de las columnas donde no hubo un cambio significativo. Las vigas no fueron susceptibles a los efectos de la ISEE, también se aprecia una disminución de los asientos diferenciales. Es recomendable tener en cuenta los efectos de la ISEE cuando existen condiciones de suelo blando y cargas significativas actuando, despreciarla podría llevar a errores en el diseño porque la redistribución de esfuerzos genera solicitaciones mayores a las previstas en determinados elementos. La frecuencia es uno de los parámetros más susceptibles a los efectos de la interacción. Cuando se considera base rígida, los valores de frecuencias son mayores, pero al tener en cuenta los efectos de la ISED, mediante la consideración del amortiguamiento del suelo, las frecuencias modales de la estructura disminuyen. Shah y Desai [11] evaluaron el efecto que tiene la rigidez del suelo en el comportamiento modal de estructuras para aerogeneradores, en la figura 6, se muestran los resultados. 7 Figura 6. Frecuencia de torre con diferentes suelos[11] En la figura 6 se muestra cómo en la medida que disminuye la rigidez del suelo, los valores de frecuencia aumentan, pues el efecto de amortiguamiento es menor. La frecuencia de oscilación de la estructura y el amortiguamiento del suelo se encuentran relacionadas entre sí tal como se muestra en la figura 7 [12] Figura 7: Relación entre amortiguamiento y frecuencia modal [12] En la figura 7 se evidencia que el incremento del amortiguamiento rotacional genera un incremento en el valor de la frecuencia (disminución de los periodos) por tanto las estructuras son menos vulnerables a los efectos dinámicos cuando esto se tiene en cuenta. Las estructuras para los aerogeneradores son complejas y las implicaciones que puede tener la ISED en la respuesta estructural es significativa. En un estudio de aerogeneradores de sección tubular Huo, et al. [13] evaluaron el comportamiento de la ISED para diferentes simulaciones de eventos sísmicos y plantearon que la ISED depende de un gran número de factores como las características fundamentales de las ondas sísmicas y la frecuencia modal de la torre del aerogenerador en sí misma. El fenómeno de la ISED fue tenido en cuenta a través del empleo de coeficientes de rigidez y amortiguamiento. Se fundamenta también que se incrementan los desplazamientos, pero que no se generan modificaciones significativas en las fuerzas interiores y que se reduce la frecuencia natural de las turbinas del aerogenerador. Las modificaciones en las frecuencias de oscilación en la estructura analizada por Huo, et al. [13] cobran relevancia para los modos mayores. 8 A diferencia de la ISE con sismo, el análisis de esta, con carga de viento es más complejo en el sentido de que el movimiento no está confinado a una posición, sino está distribuido en la estructura sobre el suelo. Cuando una estructura tiene un gran número de grados de libertad, como un edificio de varios niveles, incluso el caso del sismo no es simple. Esto se debe al hecho de que la rigidez y el amortiguamiento atribuido a la masa de suelo bajo la cimentación son dependientes de la frecuencia y la combinación del sistema suelo-estructura, no posee modos normales clásicos. Más específicamente si la estructura tiene N grados de libertad y la cimentación tiene M grados de libertad, el problema envuelve la solución de M+N ecuaciones diferenciales ordinarias simultáneas y estas ecuaciones no pueden ser desacopladas usando la transformación ortogonal [14]. El efecto de la flexibilidad de la cimentación de una chimenea sobre la respuesta ante carga de viento fue estudiado por Galsworthy y Naggar [15] utilizando el método de la subestructura. La figura 8 muestra cómo el efecto de la flexibilidad de la cimentación (baja velocidad de onda del suelo) reduce el valor numérico del amortiguamiento aerodinámico. Figura 8: Amortiguamiento aerodinámico para cimentación profunda [15] En bajas velocidades de viento, el amortiguamiento positivo decrece con la flexibilidad de la cimentación. Como la velocidad del viento aumenta, el amortiguamiento aerodinámico asume un valor negativo, cerca de la zona de viento crítico. En esta región el efecto del viento tiende a disminuir el amortiguamiento aerodinámico. Para altas velocidades de viento, el amortiguamiento aerodinámico aumenta, asumiendo valores positivos nuevamente, mientras que el efecto de la flexibilidad de la cimentación tiende a disminuirlo. Para bajas velocidades de viento, el efecto de la flexibilidad de la cimentación tiende a disminuir el valor máximo de la deflexión. Esto puede ser atribuido a la reducción en la frecuencia natural, lo que puede llevar a condiciones de resonancia para bajas velocidades de viento. Sin embargo, para altas velocidades de viento, el efecto de la flexibilidad de la cimentación influye por dos razones: primero, la deflexión que hace a la masa generalizada aumentar; segundo el amortiguamiento aerodinámico negativo disminuye y el valor máximo de la deflexión de la membrana de la chimenea disminuye. La ISED por carga de viento también tiene un efecto sobre los valores de fuerzas interiores en la base de la estructura, en la figura 9 se muestra su efecto en los valores de momento y cortante. 9 Figura 9: Variación del momento flector y la fuerza cortante en la base con la ISED [15] La figura 9 muestra que los valores de momento flector en la base decrecieron en rangos de un 30-50% con respecto al modelo con base empotrada para una misma de velocidad de onda. El efecto de la flexibilidad de cimentación sobre la fuerza cortante en la base es similar al momento, pero en menor grado. En el trabajo de Halabian, et al. [16] una aproximación probabilística de tres variables es usada para tener en cuenta las incertidumbres que son: en la velocidad de onda cortante del suelo bajo la cimentación, la resistencia del hormigón y la velocidad del viento sobre las fuerzas base en un edificio con el objetivo de determinar la probabilidad de fallo, para considerar la ISED se empleó el método de la subestructura. La figura 10 muestra como el efecto de la flexibilidad de la cimentación tiende a aumentar el periodo del primer modo. Figura 10: Variación del periodo con la velocidad de la onda cortante del suelo[16] 10 También se evaluó la influencia que tiene el factor efecto de ráfaga calculado para diferentes rigideces del suelo caracterizado por la velocidad de onda como se muestra en la figura 11. Figura 11: Variación del factor efecto de ráfaga según el tipo de suelo [16, 17] Se observa que el factor efecto de ráfaga disminuye, para todos los valores del módulo de elasticidad del hormigón que fueron considerados en el estudio. Esto significa que el efecto de la flexibilidad de la cimentación tiende a aumentar la componente dinámica de la estructura. Para estimar la probabilidad de fallo enfocada en la ISE, un análisis de fiabilidad se llevó a cabo para varias velocidades de onda del suelo y diferentes resistencias a compresión del hormigón. Los resultados se muestran en la figura 12. Figura 12: Resultados de fiabilidad para diferentes resistencias del hormigón [16] 11 Se puede apreciar, cómo el índice de fiabilidad disminuye con la disminución de la rigidez del suelo (representado por la velocidad de onda). Este efecto es más pronunciado en para los menores valores de velocidad de onda. También la probabilidad de fallo aumenta con la disminución de la velocidad de onda. En el trabajo de Zhou, et al. [18] se presenta una metodología para simular el comportamiento de un dispositivo de amortiguamiento externo y su efecto en una edificación sometida a carga de viento teniendo en cuenta el efecto de la ISE en zonas de baja sismicidad. En este estudio se realizó un análisis probabilístico de fuerzas para estructuras altas. La aproximación de la subestructura en donde el suelo alrededor de la cimentación es modelado junto a la cimentación como funciones de velocidad de onda cortante del suelo, es usado para tener en cuenta la ISE eficientemente. Para los análisis del comportamiento de la carga de viento se consideraron registros de análisis de tiempo historia con dos ángulos de incidencia (80º y 270º) que eran los más desfavorables para dicha edificación. En este estudio se evaluó el efecto que tiene el periodo de retorno del viento en la ISED, en la aceleración con cargas de vientos con un corto periodo de retorno (1a 10 años) en comparación con las de un largo periodo de retorno (50 a 100 años). El promedio de las diferencias entre los casos con y sin ISE 112%, 88%, -11% y -12% para 1, 10 ,50 y 100 años de periodo de retorno respectivamente (los % positivos indican las respuestas con ISE que fueron mayores). En este trabajo también fueron evaluados los desplazamientos, la ISE tiene un importante efecto en el incremento de los desplazamientos los promedios de las diferencias relativas entre los casos con ISE y sin ISE son de aproximadamente 78%, 105%, 47% y 47% para 1, 10, 50 y 100 años respectivamente. El incremento de los desplazamientos cuando se considera la ISE se debe a que el período de la estructura aumentó después de considerar la ISE y el viento es una carga dominante para largos períodos, el sistema se vuelve menos rígido permitiendo mayores desplazamientos. Los desplazamientos horizontales de los diferentes pisos para los distintos periodos de retorno de carga de viento se muestran en la figura 13. Figura 13: Desplazamientos bajo carga de viento [18] En la figura 13 se evidencia que cuando la ISE no se considera, el desplazamiento muestra limitadas diferencias entre los dos ángulos de incidencia del viento estudiados para cortos periodos de retorno, donde las diferencias son significativas es en los casos con largos periodos de retorno. Cuando la ISE es considerada, los desplazamientos muestran diferencias para los dos ángulos de viento. 12 4. CONCLUSIONES Los estudios de ISE se han realizado para todo tipo de estructuras, incluyendo edificaciones de gran altura también se han desarrollado estudios para torres de aerogeneradores, telecomunicaciones o de transmisión eléctrica. Los parámetros que influyen en el comportamiento de la ISE son: la rigidez del suelo que puede ser cuantificada a través de la velocidad de la onda cortante, el módulo de elasticidad del hormigón utilizado en la cimentación además del tipo y forma de aplicación de las cargas. Se ha comprobado que la ISE modifica: la respuesta estructural de las edificaciones, generando cambios en los periodos de oscilación, en el amortiguamiento de las cimentaciones, en los desplazamientos, además provoca redistribución de las fuerzas interiores de los elementos estructurales y la cimentación. En relación a la influencia que tiene el viento sobre la interacción suelo estructura para bajas velocidades de viento, el efecto de la flexibilidad de la cimentación tiende a disminuir el valor máximo de la deflexión. También la ISE incrementa el desplazamiento horizontal de una edificación cuando actúa la carga de viento debido a que el período de la estructura aumentó después de considerar la ISE y el viento es una carga dominante para largos períodos, lo que hace el sistema se vuelva menos rígido permitiendo mayores desplazamientos. BIBLIOGRAFÍA 1. Kramer, S.L., Geotechnical earthquake engineering. Vol. 1. 1996: Prentice hall. 673. 2. J.P Wolf and P.Obernhuber, Non-linear soil structure interaction analysis using dynamic stiffness or flexibility of soil in the time domain. 1985. 3. Veletsos, A. and J. Meek, Dynamic behavior of building foundation systems. Earthquake Engineering & Structural Dynamics, 1974. 3: p. 121-138. 4. Limés, A.F. and W.D.C. Cristiá, Influencia de la interacción suelo-estructura en edificación de baja altura. Revista Ciencia y Construcción, 2022. 3(3): p. 34-41. 5. Fernández Limés, A., et al., Influencia de la interacción suelo-estructura en torre autosoportada sometida a carga dinámica de viento. Arquitectura e ingeniería, 2020. 14(3): p. 12. 6. Garg, V. and M. Hora, A review on interaction behaviour of structure-foundation-soil system. system, 2012. 2(6). 7. Shirkhanghah, B. and H. Eimani Kalehsar, The effect of soil–structure interaction on the along-wind response of high-rise buildings. Proceedings of the Institution of Civil Engineers-Structures and Buildings, 2020: p. 1-15. 8. Castro Pilco, C.F. and G.E. Pérez Martínez, Análisis de la interacción suelo-estructura estática para una edificación regular de hormigón armado y 3 tipos de suelos. 2020, Universidad politécnica salesiana sede Quito: Quito, Ecuador. p. 191. 9. Zani, G., et al., Three-dimensional modelling of a multi-span masonry arch bridge: Influence of soil compressibility on the structural response under vertical static loads. Engineering Structures, 2020. 221: p. 110998. 10. Gutierrez Martinez, L.F., Efectos de la interacción suelo estructura estática en los elementos mecánicos de las estructuras, in División de ciencias básicas e ingeniería. 2019, Universidad Autónoma de México: México D.F. p. 143. 11. Shah, H.J. and A.K. Desai, Dynamic Analysis of Innovative Hybrid Wind Mill Tower with Soil Structure Interaction. International Journal of Engineering and Technology, 2018. 10(5). 12. Krathe, V. and A.M. Kaynia, Implementation of a non‐linear foundation model for soil‐structure interaction analysis of offshore wind turbines in FAST. Wind Energy, 2017. 20(4): p. 695-712. 13. Huo, T., L. Tong, and Y. Zhang, Dynamic response analysis of wind turbine tubular towers under long- period ground motions with the consideration of soil-structure interaction. Advanced Steel Construction, 2018. 14(2): p. 227-250. 14. Lin, Y. and W.-F.J.J.o.E.M. Wu, Along-wind motion of building on compliant soil. 1984. 110(1): p. 1- 19. 15. Galsworthy, J.K. and M.H.E. Naggar, Effect of foundation flexibility on the across-wind response of reinforced concrete chimneys with free-standing liners. Canadian geotechnical journal, 2000. 37(3): p. 13 676-688. 16. Halabian, A.M., et al., Reliability analysis of wind response of flexibly supported tall structures. 2003. 12(1): p. 1-20. 17. Halabian, A.M., M. El Naggar, and B.J. Vickery, Reliability analysis of wind response of flexibly supported tall structures. The Structural Design of Tall Special Buildings, 2003. 12(1): p. 1-20. 18. Zhou, Z., et al., Influence of soil‐structure interaction on performance of a super tall building using a new eddy‐current tuned mass damper. The Structural Design of Tall Special Buildings, 2018. 27(14): p. e1501. SOBRE LOS AUTORES Aldo Fernández Limés, ingeniero civil y profesor instructor de la Universidad Tecnológica de la Habana ``José A. Echeverría´´, Facultad de Ingeniería Civil. Willian Daniel Cobelo Cristiá, ingeniero civil, Doctor en ciencias técnicas y profesor titular de la Universidad Tecnológica de la Habana ``José A. Echeverría´´, Facultad de Ingeniería Civil. Ingrid Fernández Lorenzo, ingeniera civil, Doctora en ciencias técnicas y profesora auxiliar de la Universidad Tecnológica de la Habana ``José A. Echeverría´´, Facultad de Ingeniería Civil. 1 ESTUDIO ANALÍTICO EXPERIMENTAL DE TORRE ATIRANTADA CON TENSIONES VARIABLES EN CABLES EN SANTA CRUZ DEL NORTE Bruno Clavelo1, Roberto Llerena2, Patricia Martín3, Vivian Elena Parnás4 1-4Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE, Calle 114 entre Ciclovía y Rotonda, 11901, Marianao, La Habana 1bclaveloe@civil.cujae.edu.cu RESUMEN Las torres atirantadas son parte vital de la infraestructura de telecomunicación en múltiples países. Por sus características, estas estructuras son particularmente susceptibles a cargas dinámicas, lo cual ha ocasionado varios colapsos en las últimas décadas debido a fuertes vientos. Estos fallos evidencian la necesidad de perfeccionar los modelos computacionales empleados para el diseño de estas estructuras. Este diseño se basa generalmente en modelos computacionales simplificados de la estructura, asumiendo características simplificadas de su geometría o valores constructivos de diseño, los cuales difieren de las características reales. En el presente trabajo se realiza una comparación entre las características modales y la respuesta estructural obtenidas para dos modelos computacionales de la misma torre. En el primer caso se emplea un modelo idealizado de la estructura, mientras que en el segundo caso se emplea un modelo actualizado a partir de un estudio de campo. Adicionalmente se verifica la validez de una red de sensores diseñada para técnicas de Análisis Modal Operacional. Los resultados obtenidos evidencian que los desplazamientos modales son el parámetro modal más sensible a las variaciones estructurales, mientras que el estudio comparativo entre el modelo inicial y el actualizado indican que no es necesario modificar la red de sensores propuesta. Finalmente, el estudio de la capacidad estructural de la torre bajo carga de viento demuestra que el modelo actualizado presenta mayores solicitaciones en tranques y diagonales para las cargas de viento analizadas, debido a su configuración inicial influenciada por el pretensado asimétrico de los cables. PALABRAS CLAVES: torres atirantadas, análisis dinámico, fuerza de tesado, carga de viento. EXPERIMENTAL ANALYTICAL STUDY OF GUYED MAST WITH VARIABLE CABLE TENSIONS IN SANTA CRUZ DEL NORTE ABSTRACT Guyed masts are a vital part of the telecommunications infrastructure in many countries. Due to their characteristics, these structures are particularly susceptible to dynamic loads, causing several collapses in recent decades due to strong winds. These failures evidence the need to improve the computational models used in the design of these structures. This design is generally based on simplified computational models of the structure, assuming simplified characteristics of its geometry or constructive design values, which differ from the real characteristics. In the present work, a comparison is made between the modal characteristics and the structural response obtained for two computational models of the same tower. In the first case, an idealized model of the structure is used, while in the second case, an updated model based on a field study is used. Additionally, the validity of a sensor network designed for Operational Modal Analysis techniques is verified. The results obtained show that the modal displacements are the modal parameter most sensitive to structural variations, while the comparative study between the initial model and the updated model indicates that it is not necessary to modify the proposed sensor network. Finally, the study of the structural capacity of the tower under wind load shows 2 that the updated model presents higher efforts on the braces and diagonals for the analyzed wind loads, due to its initial configuration influenced by the asymmetrical prestressing of the cables. KEYWORDS: guyed masts, dynamic analysis, prestress forces, wind loads. 1. INTRODUCCIÓN El desarrollo de las telecomunicaciones en las últimas décadas, ha despertado el interés por el estudio de las torres de celosías, ya que su forma constructiva permite gran resistencia con poco consumo de material y a través de su permeabilidad reduce las fuerzas provocadas por el viento sobre el conjunto. Las torres de celosía forman parte del sistema nacional de radiodifusión, del sistema de televisión y soportes de comunicaciones tanto civiles como militares, servicios de vital importancia para las comunidades. La pérdida de una torre, por lo tanto, tiene una importancia relevante para las comunicaciones, la seguridad nacional y un alto impacto social. Por estas razones, la evaluación de estas estructuras va más allá de un análisis técnico-económico. En los últimos años Cuba ha sufrido el paso de numerosos huracanes y otros fenómenos meteorológicos a gran escala, provocando la falla total o parcial de varias torres de telecomunicaciones. La necesidad de evitar las fallas de estas estructuras, por su importancia estratégica en el país, incluso para cargas de viento huracanado, ha motivado el estudio de su comportamiento estructural, así como de los factores presentes en las fallas que pudieron dar lugar a un aumento de la vulnerabilidad estructural. Varios estudios realizados en Cuba [1, 2] han demostrado que, dentro de las estructuras colapsadas, los mástiles atirantados representan aproximadamente 80% del total, lo que evidencia las incertidumbres aún latentes en su proceso de diseño y cálculo. Entre los principales factores que causan tales incertidumbres se encuentra la discrepancia entre la estructura real y los modelos numéricos utilizados para el diseño y el cálculo. Esta área ha sido un campo de creciente atención en las últimas décadas [3–5] lo cual ha conllevado al desarrollo y popularización de las técnicas para identificar la respuesta dinámica de estructuras y actualizar los modelos computacionales a partir de los parámetros modales identificados, generalmente frecuencias o períodos de oscilación, desplazamientos modales o razones de amortiguamiento modal. Tales procedimientos, como el Análisis Modal Operacional (OMA, por sus siglas en inglés), se basan en la estimación de dichos parámetros modales a partir de datos de vibración medidos mediante sensores (acelerómetros, galgas extensométricas) colocados en la estructura. Adicionalmente, el comportamiento dinámico de los modelos computacionales generalmente difiere de la respuesta real de la estructura. En el caso de las torres atirantadas, esta diferencia se ve agravada debido a su comportamiento no lineal, ya que pequeños cambios de masa, rigidez o amortiguamiento en la estructura pueden generar grandes variaciones en la respuesta dinámica del sistema. Estos cambios no son inusuales, ya que la cantidad total y la posición de las antenas instaladas en cada estación se modifican frecuentemente de acuerdo con las necesidades del plan nacional de radiodifusión, generando variaciones en la distribución de masas sobre la estructura. De forma similar, la tensión de los cables puede variar debido a la relajación de los cables con el paso del tiempo y al movimiento de la estructura. Además, los cables ocasionalmente pueden ser sujetos a una tensión excesiva durante el proceso de montaje, debido a la medición inadecuada de los valores de tensión especificados en el proyecto. En este trabajo se estudia la influencia de la geometría, la tensión de los cables y la distribución de masa en las características modales de una torre atirantada de 80 m de altura ubicada en Santa Cruz del Norte. Para ello, se realiza un estudio comparativo a partir de dos modelos de elementos finitos en el software SAP2000. El primer modelo es construido a partir de datos idealizados de la estructura, asumiendo las características geométricas y la tensión en los cables descritas en los planos constructivos, así como una distribución de antenas basada en un levantamiento realizado en el año 2008. El segundo modelo es construido a partir de un levantamiento realizado mediante un estudio de campo actualizado. Para el mismo se emplea la distribución actual de antenas en la estructura, las características geométricas obtenidas a partir de mediciones de campo, un estudio topográfico para determinar la posición de los anclajes respecto a la torre y la medición de las fuerzas de pretensión en los cables. Ambos modelos son usados para determinar la variación de las características modales de la estructura 3 (frecuencias de oscilación y formas modales) al emplear datos actualizados en la construcción del modelo. Adicionalmente se emplea el modelo idealizado de la estructura para diseñar una red de sensores orientada a la identificación de las características modales mediante el empleo de técnicas de Análisis Modal Operacional. La red de sensores obtenida es luego validada para el modelo actualizado de la estructura, empleando el Criterio de Garantía Modal [6]. Finalmente, se comparan la fuerza axial máxima y la relación demanda/capacidad en los elementos principales, obtenidas en ambos modelos para cargas de viento extremas. 2. DESCRIPCIÓN DE LA ESTRUCTURA La estructura seleccionada para el estudio es una torre atirantada modelo Babiney, ubicada en la región de Santa Cruz del Norte, Mayabeque, la cual se muestra en la Fig. 1. Esta estructura fue seleccionada atendiendo a varias características geométricas, espaciales y de geolocalización, así como su accesibilidad, con el objetivo de poder extrapolar los resultados obtenidos del estudio a la mayoría de las torres existentes en Cuba. La altura de la torre está limitada por la capacidad de los operarios de trasladar equipamiento a lo alto de esta durante las mediciones, por lo que se escogió una torre entre los 50 m y los 100 m de altura. Otros factores que se tuvieron en cuenta para la selección fueron la ubicación nivelada de los anclajes de los cables en el terreno, la presencia de antitorsores que permite estudiar su influencia en el procedimiento de identificación modal de la estructura y la ubicación espacial de la torre sobre una colina. a) b) Figura 1. (a) Vista general de la torre atirantada en Santa Cruz del Norte, (b) Apoyo de la base. Características generales de la estructura La torre seleccionada está compuesta por un fuste de 75.5 m de altura, sobre el cual se ubica un mástil tubular de 4.5 m de altura, para una altura total de 80 m. La rigidez lateral de la estructura está garantizada mediante 21 cables atirantados, orientados en 3 direcciones, espaciadas aproximadamente a 120º en planta. Los cables se encuentran distribuidos en 5 niveles por cada vértice, a razón de un cable por nivel, con excepción de los niveles 2 y 4 los que presentan dos cables debido a la presencia de sistemas antitorsores sobre el fuste de la estructura. Las características geométricas de la torre y los cables (según planos de construcción) se detallan en la figura 2. Todos los elementos del fuste están conformados por perfiles angulares de lados iguales y acero estructural ASTM A-36. Las columnas están conformadas por dos perfiles L750x80 mm, atornillados de forma continua entre sí mediante planchas de acero y formando un ángulo interior de 60º. El fuste se encuentra arriostrado mediante tranques horizontales espaciados cada un metro y diagonales cruzadas en cada cara, conformados en ambos casos por perfiles L500x50 mm. La sección transversal del fuste se encuentra a su vez rigidizada por tranques interiores conformados por perfiles L400x40 mm, como se observa en la figura 2. En el caso de los 4 cables, los cuatro primeros niveles presentan cables de acero trenzado 1x7+0 con diámetro φ=13 mm (carga de rotura Pu=162 kN), mientras que el último nivel de cables está conformado cables de acero trenzado 1x19+0 con diámetro φ =16 mm (carga de rotura Pu=235 kN). En todos los cables se utiliza acero estructural de alto límite elástico. Las propiedades de los materiales se muestran en la tabla 1 y se consideraron constantes para el estudio. Tabla 1. Características del acero estructural usado en la torre. Parámetro Elementos del mástil Cables Peso volumétrico [ρ] 76.97 kg/m3 76.97 kg/m3 Módulo elástico [E] 1.99 x 105 MPa 1.99 x 105 MPa Coeficiente de Poisson [ν] 0.3 0.3 Coeficiente térmico [α] 1.17 x 10-5 1.17 x 10-5 Tensión de fluencia [Fy] 250 MPa 1600 MPa Tensión de rotura [Fu] 400 MPa 2000 MPa Cargas Las cargas consideradas en el análisis son: a) el peso propio de los elementos, b) la carga de pretensado sobre los cables, c) el peso de las antenas, soportes para anemómetros y cuadros eléctricos sobre la estructura y d) las cargas por acción del viento sobre la estructura. El peso propio de otros elementos auxiliares, como escaleras y rejillas de soporte, no se consideran en los modelos de elementos finitos. Las masas de las antenas se asignan al modelo de elementos finitos en los nodos de intersección de las columnas y los tranques horizontales, con el fin de simplificar el análisis de la estructura. Para el modelo idealizado, la cantidad y posición de las antenas es determinada a partir de datos existentes de un estudio realizado en el año 2008; mientras que para el modelo actualizado se utiliza la información recogida durante el estudio de campo realizado en marzo del año 2022. Los datos de la masa y distribución de las antenas consideradas en cada modelo se muestran en la Tabla 2. Figura 2. Características geométricas de la torre ubicada en Santa Cruz del Norte, según planos constructivos. 5 El efecto del pretensado de los cables se tiene en cuenta en los modelos computacionales a partir de un análisis no lineal. La carga de pretensión en los cables es considerada como una fuerza objetivo (target force, en inglés) aplicada en el extremo del cable conectado a tierra. La carga de fuerza objetivo es un tipo especial de carga donde se impone iterativamente una deformación al cable en el punto especificado hasta que se logra la fuerza objetivo en el cable. A partir de este análisis iterativo no lineal es obtenido el estado inicial de equilibrio del modelo, el cual tiene en cuenta el peso propio de los elementos y la rigidización de la estructura producto de la fuerza aplicada en los cables. En el caso del modelo idealizado, la fuerza objetivo para cada cable, Ti se selecciona como 10% de la carga de ruptura del cable, especificado por los códigos de diseño[7]. En el caso del modelo actualizado, se determinó la fuerza actuante en cada cable a partir del promedio de 3 mediciones consecutivas. Las fuerzas de tesado usadas en cada modelo son mostradas en la Tabla 3. La notación empleada en la tabla para los cables tiene la forma 𝛼 − 𝛽. 𝛾, donde 𝛼 es el vértice sobre el cuál se encuentra el anclaje del cable a tierra, 𝛽 indica el número de anclaje y 𝛾 indica el nivel de anclaje del cable al fuste de la torre. La Fig. 3 ejemplifica la notación empleada para el vértice A. Tabla 2. Datos de las antenas en la torre. No. Tipo antena Altura [m] Peso [kg] Vértice Área [m2] Modelo idealizado (levantamiento 2008) 1 Parábola 17 9 A 1.54 2 Parábola 18 5.5 B 1.13 3 Antena FM 23.5 - 26.5 6 B-C -* 4 Panel eléctrico 31 - 32.5 38.7 A, B, C 0.72 5 Antena dipolo cerrado (4u) 36.5 - 41 5 A -* 6 Antena dipolo abierto (4u) 46 - 55 4.5 A -* 7 Antena UHF (2u) 60, 61 13.6 A, C 2.9 8 Antena dipolo banda III (2u) 63.5 - 66.5 25 A, B, C, D 0.6 9 Antena dipolo banda III (4u) 69.5 - 72.5 85 A-B, B-C 1.89 10 Paneles UHF (24u) 75.5 - 80 15.65 6 x 4 2.9 Peso total [kg] 890 Modelo actualizado (levantamiento marzo 2022) 1 Soporte de anemómetro 9 62 A-C 0.16 2 Antena direccional Yagi-Uda 11 2.3 C -* 3 Antena direccional Yagi-Uda 13 2.3 C -* 4 Antena direccional Yagi-Uda 13 1.7 B -* 5 Parábola (ϕ=90 cm) 15 18 C 0.64 6 Parábola (ϕ=90 cm) 16 18 B 0.64 7 Parábola (ϕ=120 cm) 20 18 A 1.13 8 Antena dipolo 23 5.3 A -* 9 Antena direccional Yagi-Uda 24.5 - 27.5 74 A 0.6 10 Antena VHF 25.5 2.5 B 0.8 11 Soporte anemómetro 29 62 A-C 0.16 12 Antena direccional Yagi-Uda UHF 32 7 C 0.65 13 Antena dipolo FM 36 13 B -* 14 Módulo simple paneles UHF (3u) 42 - 45 30 A, B, C 15 Antena dipolo (4u) 47 - 56.5 58 B -* 16 Antena tubular 51 8.1 A -* 17 Soporte anemómetro 56 62 A-C 0.16 18 Soporte anemómetro 57 62 A-C 0.16 19 Bahía modular 4 paneles UHF (2u) 59.5 - 61.5 84 A, B 1.2 20 Antena VHF 4 dipolos (4u) 63 - 66 160 A, B, C 0.43 21 Antena VHF 4 dipolos (1u) 67 - 70 56 A-B 0.20 22 Antena VHF 2 dipolos (3u) 70 - 73 148 A-B, B-C, C-D 0.32 23 Bahía modular 1 panel UHF (2u) 77 - 78 26 A-B, C-A 0.6 24 Bahía modular 1 panel UHF (3u) 78 - 79 39 A-B, B-C, C-D 0.9 6 25 Bahía modular 1 panel UHF (3u) 79 - 80 39 A-B, B-C, C-D 0.9 Peso total [kg] 1058 *: El área expuesta al viento fue considerada despreciable por ser inferior a 0.1 m2. Figura 3. Ejemplo de la notación empleada para la denominación de los cables a partir del vértice A. Tabla 3. Fuerzas de pretesado en los cables empleadas en los modelos idealizado (Fdis) y actualizado (Fprom). Cable Fuerza de diseño [kN] Fuerza medida [kN] Dif. [kN] Fdis F1 F2 F3 Fprom A-1.1 16.20 22.40 22.20 22.00 22.20 6.00 A-1.2 (a) 16.20 17.00 17.00 17.00 17.00 0.80 A-1.2 (b) 16.20 16.40 16.20 16.40 16.33 0.13 A-1.3 16.20 25.80 25.80 25.60 25.73 9.53 A-2.4(a) 16.20 18.40 18.40 18.40 18.40 2.20 A-2.4(b) 16.20 20.60 20.60 20.60 20.60 4.40 A-2.5 23.50 31.40 30.80 31.00 31.07 7.57 B-1.1 16.20 20.40 20.20 20.00 20.20 4.00 B-1.2 (a) 16.20 13.20 13.00 12.80 13.00 -3.20 B-1.2 (b) 16.20 10.00 10.20 10.00 10.07 -6.13 B-1.3 16.20 16.40 16.00 15.80 16.07 -0.13 B-2.4(a) 16.20 27.20 27.40 27.00 27.20 11.00 B-2.4(b) 16.20 22.00 22.40 22.60 22.33 6.13 B-2.5 23.50 27.00 27.80 27.40 27.40 3.90 C-1.1 16.20 16.00 16.00 16.00 16.00 -0.20 C-1.2 (a) 16.20 14.60 14.60 14.20 14.47 -1.73 C-1.2 (b) 16.20 18.80 18.60 18.60 18.67 2.47 C-1.3 16.20 15.20 14.60 15.00 14.93 -1.27 C-2.4(a) 16.20 20.20 20.20 20.20 20.20 4.00 C-2.4(b) 16.20 22.20 22.80 22.40 22.47 6.27 C-2.5 23.50 30.20 29.80 29.20 29.73 6.23 Carga de viento Para la determinación de la carga de viento se aplica el método de Patrones de Carga propuesto en la norma de diseño europea, el Eurocódigo [9]. El método Patrones de Carga utiliza una serie de tramos de carga estáticos 7 que son aplicados al fuste y usados para estimar la componente fluctuante. Los resultados de estas cargas por tramos, aplicadas individualmente sobre el fuste, se combinan y se suman a la componente media para obtener la respuesta dinámica de la estructura. Este método se conoce como Patch Load (Tramos de Carga) y es el que utilizan otras normas específicas de torres de telecomunicaciones como la norma británica [10] y la norma estadounidense [7]. El método fue introducido en el año 1981 y perfeccionado posteriormente a partir de las investigaciones realizadas por Davenport y Gerstoft [11] y Sparling [12]. La velocidad básica de viento utilizada fue de 33 m/s para un intervalo de promediación de 10 min, este valor es propuesto en la actualización de la norma de viento cubana NC-285. Para el análisis se consideraron tres direcciones principales de viento: 0˚, 60˚ y 90˚, las cuáles se muestran en la Fig. 4. Figura 4. Direcciones de viento empleadas en el análisis estructural bajo carga de viento. La carga de viento sobre los cables se consideró uniformemente distribuida, el valor se calculó teniendo en cuenta la velocidad básica y los coeficientes correspondientes a la mitad de la altura entre el anclaje del cable y su nivel de sujeción en el fuste. El coeficiente de forma para todos los cables se tomó según lo establecido por la NC- 285:2003 [8]. La fuerza se aplicó en el sentido de la dirección de viento, teniendo en cuenta el ángulo del vector viento con el cable, según el caso de análisis. La carga de viento sobre las antenas se calculó teniendo en cuenta la velocidad básica y los coeficientes de forma se determinaron según el tipo de antena a partir de los valores propuestos en los catálogos de los fabricantes. Combinaciones de carga Para el caso de las torres de telecomunicaciones, la combinación se establece a partir de la carga permanente y la carga de viento según la NC-450:2006 [13]. Las combinaciones utilizadas fueron: 0.9 CP+ 1.4 CV y 1.2 CP+ 1.4 CV. Donde CP: Carga Permanente, CV: Carga de viento extrema. Para el análisis de esta estructura la combinación de carga se definió en el programa como caso de análisis, debido al comportamiento no lineal de las torres atirantadas, que impide superponer los efectos de diferentes cargas. 3. MODELOS DE ELEMENTOS FINITOS En esta sección se describen los dos modelos de elementos finitos utilizados en el estudio comparativo realizado. Ambos modelos se construyeron en el software SAP2000 (versión 21). Este software fue seleccionado ya que permite utilizar elementos estructurales no lineales para modelar el comportamiento de los cables, así como módulos para realizar análisis no lineales, los cuales permiten tener en cuenta la variación de rigidez de la estructura producto del tesado de los cables. En ambos casos se emplearon elementos no lineales tipo  con 16 nodos para modelar los cables y elementos lineales tipo  para modelar las barras del fuste. Ambos modelos de elementos finitos cuentan con un total de 2910 elementos (+) y 1472 nodos. 8 Las conexiones entre los miembros del fuste se consideraron como articuladas en todos los casos excepto en el de las columnas y el mástil ubicado en el tope. Las columnas se modelaron de forma continua desde la base hasta el tope del fuste debido a que la conexión entre ellas se realiza mediante planchas a dos caras de forma rígida. En el caso del mástil tubular, se consideró continuo, debido a que está compuesto por un tubo de acero sólido macizo de 6 m de largo. Los apoyos en la base de las columnas se consideraron como empotramientos, restringiendo los 6 Grados de Libertad (GDL) en el espacio, en tanto la unión de los cables al fuste y a tierra se consideró articulada en ambos casos, debido a la incapacidad de los cables de tomar momento. Modelo idealizado El modelo idealizado se elaboró a partir de los datos especificados en los planos y esquemas constructivos de la torre. Se consideran las fuerzas de tesado en los cables especificadas por diseño 𝐹dis, las cuáles se muestran en la Tabla 3 y son simétricas respecto a los ejes globales  considerados. Respecto a la geometría de los cables, se consideró para este modelo que los anclajes a tierra de los 7 niveles de cables se encuentran todos al mismo nivel de la base del fuste, garantizando la disposición simétrica de la geometría de los cables. Las masas de antenas y elementos auxiliares asignadas al modelo fueron determinadas a partir de la información disponible producto de un levantamiento técnico realizado en el año 2008. El modelo de elementos finitos idealizado se muestra en la Fig. 5a. Modelo actualizado a partir de estudio de campo Para la actualización del modelo de elementos finitos se realizó un estudio de campo a partir del cual se obtuvieron las características reales de la estructura en el terreno. Se empleó una estación topográfica (Fig. 6a) para determinar el nivel de los anclajes a tierra de los cables con respecto a la base del fuste, así como la distancia entre estos y la base del fuste. Adicionalmente fue comprobada la verticalidad de la estructura. La fuerza de tesado en los cables fue medida en el terreno empleando un medidor de tensión DILLON Quick-Check (Fig. 6b). Para ello se realizaron un total de 3 lecturas en cada cable (Fig. 6c) y se determinó la fuerza actuante 𝐹prom a partir del promedio de los valores registrados. Los valores registrados en cada lectura y la fuerza promedio obtenida se muestran en la Tabla 3. Finalmente, se realizó un levantamiento actualizado de la cantidad, tipo y posición de antenas sobre la torre, con el objetivo de actualizar las masas de antenas sobre la estructura. Las antenas registradas en este estudio, así como su posición sobre la torre se muestran en la Tabla 2. Las mayores discrepancias encontradas en las características idealizadas de la torre y el levantamiento realizado consisten en la existencia de una cantidad de antenas notablemente superior, con un peso estimado promedio 18.89 % superior al considerado en el modelo idealizado y la asimetría tanto en la disposición geométrica de los anclajes como en la fuerza de tesado de los cables. Los modelos de elementos finitos obtenidos para el modelo idealizado y el modelo actualizado, así como las diferencias observadas en las cotas de nivel y la distancia de los anclajes a la base de la torre, se muestran en la Fig. 5. 9 a) b) Figura 5. (a) Modelo idealizado de elementos finitos en SAP2000 y (b) modelo actualizado de elementos finitos en SAP2000, a partir de estudio de campo. a) b) c) Figura 6. (a) Estación topográfica empleada para la obtención de las cotas de terreno, (b) medidor de tensión DILLON Quick-Check y (c) medición de la fuerza de tesado en los cables durante el levantamiento. 4. VARIACIÓN DE LAS CARACTERÍSTICAS MODALES A partir de los dos modelos de elementos finitos creados, se realizó un análisis modal en SAP2000 para determinar las frecuencias naturales y los desplazamientos modales correspondientes a los primeros 12 modos de la estructura. Para esto, se realizó primeramente un análisis no lineal en SAP2000 para determinar el estado de configuración inicial de la estructura sometida a las cargas de peso propio, las masas de antenas y el tesado de los cables. La matriz de rigidez modificada correspondiente al estado inicial de la estructura fue entonces empleada para la determinación de las características modales. El método empleado en el análisis modal fue el método de Eigenvectors, pues este permite la identificación de las frecuencias y modos de oscilación de la estructura independientemente de las cargas externas aplicadas. La Tabla 4 muestra las frecuencias naturales obtenidas para los dos modelos analizados. Se observa que las frecuencias obtenidas para el modelo actualizado no presentan grandes diferencias respecto al modelo idealizado, 10 con variaciones máximas del 6%. No obstante, el modelo idealizado presenta modos de oscilación flectores pares para los ejes ortogonales, es decir, presenta valores de frecuencias muy similares para los ejes  y , sin embargo, en el modelo actualizado los valores de las frecuencias en los modos flectores pares difieren ligeramente entre sí, debido a la asimetría de la posición de los anclajes y las tensiones de los cables. Este comportamiento también se observa al comparar los desplazamientos modales del modelo idealizado y el modelo actualizado. Para el modelo actualizado, el cuál presenta asimetría en las tensiones actuantes en los cables, los modos flectores no se encuentran predominantemente en los ejes ortogonales  y , sino que se manifiestan como una combinación de flexión alrededor de estos dos ejes, siendo uno de ellos ligeramente más predominante. En el caso de los modos torsores no se aprecia una diferencia notable en las formas modales obtenidas para ambos modelos. Este comportamiento se ilustra en la Figura 7, donde se muestran las formas modales obtenidas para los cuatro primeros modos flectores y el primer modo torsor. Tabla 4. Frecuencias naturales obtenidas para los modelos idealizado y actualizado de la torre atirantada. Modo Tipo Frecuencias naturales [Hz] 𝜖 [%] Modelo idealizado Modelo actualizado 1 BY-1 1.521 1.512 -0.59 2 BX-1 1.521 1.581 3.94 3 BY-2 2.612 2.602 -0.38 4 BX-2 2.614 2.706 3.52 5 BY-3 3.762 3.762 -0.00 6 BX-3 3.765 3.847 2.18 7 T-1 4.229 4.459 5.44 8 BY-4 5.623 5.896 4.86 9 BX-4 5.629 5.945 5.61 10 T-2 7.269 7.256 -0.18 11 BY-5 7.585 8.000 5.47 12 BX-5 7.593 8.048 5.99 BY-1 a) BX-1 b) BY-2 c) BX-2 d) T-1 e) 11 Red de sensores La ubicación de los sensores constituye un aspecto fundamental para el procesamiento de las señales y la identificación de los parámetros modales de la estructura mediante mediciones a escala real. Cuando los sensores son ubicados en puntos donde las formas modales de interés presentan desplazamientos modales nulos, las mediciones recogidas no aportan suficiente información para identificar de forma adecuada dichos modos [14]. Adicionalmente, una distribución inadecuada de los sensores puede resultar en la obtención de modos demasiado similares, como resultado de una limitada distribución espacial de los puntos medidos. Por ende, un estudio adecuado de las formas modales de interés es un componente esencial en selección de los Grados de Libertad (GDL) a medir y la ubicación espacial de los sensores. En el presente estudio se decidió implementar un diseño de sensores que permitiera la caracterización los primeros 12 modos globales de la estructura, los cuales incluyen los cinco primeros modos flectores en cada eje principal de flexión y los dos primeros modos torsores. Para el diseño de la red de sensores se emplearon las formas modales obtenidas para el modelo idealizado de la estructura. La validez de la red de sensores propuesta se evaluó mediante la matriz AutoMAC. Esta matriz se basa en el Criterio de Garantía Modal (MAC, por sus siglas en inglés), una herramienta ampliamente utilizada para la comparación cuantitativa de vectores modales [15–18]. Los valores MAC se obtienen mediante la ecuación (1), 𝑀𝐴𝐶(𝜙𝑖, ?̅?𝑗) = |(𝐿𝜙𝑖) 𝑇?̅?𝑗| 2 ‖𝐿𝜙𝑖‖2 2(?̅?𝑗)2 2 (1) donde el vector L selecciona el mismo GDL para las formas modales medidas ?̅?𝑗 y las formas modales estimadas o teóricas 𝜙𝑖 para establecer una comparación. Los valores MAC indican el grado de correspondencia entre las formas modales y están limitados entre 0 y 1, con 1 indicando formas modales totalmente correspondientes. La matriz AutoMAC es una matriz simétrica que correlaciona los modos estimados a partir de los GDL medidos a través de los sensores. Los valores de AutoMAC proporcionan una medida numérica de la idoneidad de la red de sensores propuesta: una correcta selección debe estar caracterizada por valores cercanos a la unidad en la diagonal y valores bajos fuera de la diagonal, indicando que los modos de interés pueden ser correctamente diferenciados. Generalmente, se estima que el diseño del sensor es adecuado cuando los valores fuera de la diagonal en la matriz AutoMAC son menores a 0.5 [19], sin embargo, al tratarse de una estructura con comportamiento no-lineal, se utilizó un valor límite de 0.2. La red final de sensores obtenida a partir del modelo idealizado fue validada empleando el modelo actualizado de la estructura. La red final de sensores y los máximos valores AutoMAC obtenidos para cada modelo se muestran en la Figura 8. Los máximos valores obtenidos fuera de la diagonal muestran que la red de sensores obtenida a partir del modelo idealizado es ligeramente menos adecuada para la identificación de las características dinámicas del modelo actualizado, pero estas diferencias no ameritan un rediseño de la red de sensores propuestas, puesto que no se excede el valor límite fijado de 0.2. f) g) h) i) j) Figura 7. Vista tridimensional (arriba) y superior (abajo) de los primeros 4 modos flectores y el primer modo torsor del modelo actualizado. 12 a) b) c) Figura 8. (a) Red de sensores para implementar técnicas de Análisis Modal Operacional, obtenida a partir del modelo idealizado de la estructura, (b) matriz AutoMAC obtenida para el modelo idealizado y (c) matriz AutoMAC obtenida para el modelo actualizado de la estructura. 5. RESPUESTA ESTRUCTURAL BAJO CARGA DE VIENTO Las fuerzas axiales de la torre estudiada fueron analizadas para ambos modelos considerados en el estudio, teniendo en cuenta las tres direcciones de carga de viento anteriormente mencionadas (0, 60 y 90), así como las dos combinaciones de carga previamente discutidas (0.9 CP+ 1.4 CV y 1.2 CP+ 1.4 CV). Para la revisión estructural de la torre bajo carga de viento se empleó igualmente el software SAP2000. Este programa contiene diferentes normas para la revisión de elementos metálicos, en este caso fue empleada la norma americana AISC- 16 [20]. Las solicitaciones consideradas para el estudio fueron la carga axial máxima por elemento estructural (columnas, tranques, diagonales y cables) y el comportamiento de la fuerza axial en función de la altura para las tres columnas de la torre. La figura 10 muestra los mayores valores de carga axial por elemento estructural de la torre para las tres direcciones de viento y las dos combinaciones de carga analizadas. La dirección de viento más desfavorable para todos los casos de análisis es la dirección cero grados, exceptuando los cables en el modelo idealizado donde el mayor valor de carga axial es producido por la dirección noventa grados. 13 a) b) c) d) Figura 10. Máximos valores de fuerza axial obtenidos en las (a) columnas, (b) tranques, (c) diagonales y (d) cables de la torre estudiada, para el modelo idealizado (negro) y el modelo actualizado (rojo) y para las combinaciones de carga 0.9CP+1.4CV (sólido) y 1.2CP+1.4CV (rayado). En ninguno de los dos modelos se aprecian diferencias marcadas en los máximos valores de fuerza axial obtenidos, respecto a las combinaciones de carga utilizadas. Las mayores diferencias en los valores máximos de carga axial entre el modelo idealizado y el modelo actualizado, se encuentran en las columnas para la dirección 0, obteniéndose valores hasta un 43% menores para el modelo actualizado. De forma similar ocurre en el caso de los cables en la dirección 90, con valores 36% menores en el caso del modelo actualizado. En el caso de las diagonales y los tranques, las mayores solicitaciones se obtienen para el modelo actualizado, mientras que en el caso de las columnas y los cables las fuerzas máximas se obtienen en el modelo idealizado. En la figura 11 se muestra la fuerza axial en función de la altura para las tres columnas que componen la estructura para la dirección cero grados. En las columnas de los vértices B y C el modelo idealizado posee mayores valores de carga axial, alcanzando diferencias porcentuales en las alturas bajas de la torre de alrededor de un 40% para el vértice B y alrededor de un 60% para el vértice C. En el vértice A el modelo actualizado presenta mayores valores de carga axial en las columnas con diferencias de alrededor de un 60% en las alturas bajas de la torre. -800 -700 -600 -500 -400 -300 -200 -100 0 Cero Grados Sesenta Grados Noventa Grados F u er za A x ia l (k N ) Columnas 0 20 40 60 80 100 120 Cero Grados Sesenta Grados Noventa Grados F u er za A x ia l (k N ) Tranques 0 5 10 15 20 Cero Grados Sesenta Grados Noventa Grados F u er za A x ia l (k N ) Diagonales 0 20 40 60 80 100 120 140 Cero Grados Sesenta Grados Noventa Grados F u er za A x ia l (k N ) Cables 14 a) b) c) Figura 11. Fuerza axial obtenida en las columnas del fuste para dirección de viento 0 en el modelo idealizado (negro) y el modelo actualizado (rojo) y para las combinaciones de carga 0.9CP+1.4CV (línea continua) y 1.2CP+1.4CV (línea discontinua). Las diferencias observadas en cuanto al comportamiento de ambos modelos ante la acción de la carga de viento puedes ser explicadas debido a la distribución asimétrica de las fuerzas de tesado en los cables de la estructura, los cuales están sujetos a cargas relativamente superiores en la dirección del vértice A. Como resultado, la posición inicial de equilibrio de la torre se encuentra desplazada en esa dirección, por lo que las columnas del vértice A están sometidas inicialmente a mayores compresiones. 6. CONCLUSIONES Los resultados obtenidos a partir del estudio comparativo entre los dos modelos de elementos finitos estudiados permiten arribar a las siguientes conclusiones: 1. No se observan grandes diferencias en las frecuencias naturales para el modelo actualizado, con diferencias máximas del 6% respecto al modelo idealizado; sin embargo, la consideración de tensiones asimétricas en los cables tiene una marcada influencia en los desplazamientos modales correspondientes a los modos flectores, causando que estos se inclinen respecto a los ejes geométricos de simetría. 2. Para el caso de la torre estudiada, la red de sensores propuesta a partir del modelo idealizado de la estructura puede ser utilizada exitosamente en el modelo actualizado de la estructura, pese a la variación de la masa de antenas y la tensión de tesado en los cables. No obstante, se observó una efectividad ligeramente menor en el caso del modelo actualizado, por lo que se recomienda prestar especial atención cuando se obtengan valores AutoMAC cercanos al límite de diseño establecido. 3. Las mayores solicitaciones en diagonales y tranques de la estructura se obtienen para el modelo actualizado, con valores entre 6% y 10% mayores respecto al modelo idealizado; mientras que en el caso de las columnas y cables el modelo idealizado arroja valores hasta un 72% mayores. 4. Las mayores fuerzas interiores en los elementos del fuste son obtenidas para la dirección de viento 0, mientras que la dirección de viento 90 demostró ser la más desfavorable en el caso de los cables. 0 10 20 30 40 50 60 70 80 -800 -600 -400 -200 0 A lt u ra ( m ) Fuerza Axial (kN) Fuerza Axial Columna A (0) 0 10 20 30 40 50 60 70 80 -800 -300 200 A lt u ra ( m ) Fuerza Axial (kN) Fuerza Axial Columna B (0) 0 10 20 30 40 50 60 70 80 -800 -600 -400 -200 0 A lt u ra ( m ) Fuerza Axial (kN) Fuerza Axial Columna C (0) 15 REFERENCIAS 1. ELENA PARNÁS, V.; FERNÁNDEZ LORENZO, I.; MARTÍN RODRÍGUEZ, P. Structural failure on telecommunication guyed mast under extreme winds. In Proceedings of the 14th International Conference on Wind Engineering. 14th International Conference on Wind Engineering. Porto Alegre, Brazil, 2015. 2. ELENA PARNÁS, V.; MARTÍN RODRÍGUEZ, P.; CASTAÑEDA HEVIA, A. E. Structural behavior of guyed mast with asymmetrical anchors. Journal of the Brazilian Society of Mechanical Sciences and Engineering. 2013-06-01, vol. 35, no. 2, p. 61–67. DOI: 10.1007/s40430-013-0003-4. 3. BALLABEN, J. S.; ROSALES, M. B.; SAMPAIO, R. Modal Features and Dynamic Behavior of a Nonlinear 3D Guyed Mast with Uncertain Guys Pretension. Mecánica Computacional. 2017-11-28, vol. 35, no. 21, p. 1203–1213. 4. EWINS, D. J. Model validation: Correlation for updating. Sadhana. 2000-06-01, vol. 25, no. 3, p. 221– 234. DOI: 10.1007/BF02703541. 5. REYNDERS, E. et al. Uncertainty quantification in operational modal analysis with stochastic subspace identification: Validation and applications. Mechanical Systems and Signal Processing. 2016-01-01, vol. 66–67, p. 13–30. DOI: 10.1016/j.ymssp.2015.04.018. 6. PASTOR, M.; BINDA, M.; HARČARIK, T. Modal Assurance Criterion. Procedia Engineering. 2012, vol. 48, p. 543–548. DOI: 10.1016/j.proeng.2012.09.551. 7. ANSI/TIA-222-G. Structural standards for Steel Antenna Towers and Antenna Supporting Structures. USA : Telecommunications Industry Association (TIA), 2006. 8. NC285. Carga de viento.-Método de Cálculo. La Habana, Cuba : Oficina Nacional de Normalización, 2003. 9. EN, B.; OTHERS. Eurocode 3: Design of Steel Structures–Part 3–1: Towers, Masts and Chimneys– Towers and Masts. BSI London, 2006. 10. BS 8100-4. Lattice towers and masts Part 4: Code of practice for loading of guyed mast. British Standards Institution London, 1995. 11. GERSTOFT, P.; DAVENPORT, A. A simplified method for dynamic analysis of a guyed mast. Journal of Wind Engineering and Industrial Aerodynamics. 1986, vol. 23, p. 487–499. 12. SPARLING, B.; SMITH, B.; DAVENPORT, A. Simplified dynamic analysis methods for guyed masts in turbulent winds. Journal of the International Association for Shell and Spatial Structures. 1996, vol. 37, no. 2, p. 89–106. 13. NC450. Edificaciones-Factores de Carga o Ponderación-Combinaciones. La Habana, Cuba : Oficina Nacional de Normalización, 2006. 14. RAINIERI, C.; FABBROCINO, G. Operational modal analysis of civil engineering structures. N. Y. Springer. Springer, New York, 2014. 143 p. 15. ALLEMANG, R. J. A Correlation Coefficient for Modal Vector Analysis. In Proc. 1st Int. Modal Analysis Conference. Schenectady, N.Y. (1 Union Ave., Schenectady 12308) : Union College, 1982 [cit. 2022-02-10], p. 110–116. URL . 16. MARWALA, T. Finite-element-model Updating Using Computational Intelligence Techniques: Applications to Structural Dynamics. London, United Kingdom : Springer Verlag London Ltd, 2010. 17. SIMOEN, E. Uncertainty Quantification in Finite Element Model Updating. 2013. . Leuven, Belgium. 268 p. URL . 16 18. HEYLEN, W.; LAMMENS, S.; SAS, P. Modal analysis theory and testing. Katholieke Universiteit Leuven Leuven, Belgium, 1997. 19. MAES, K. et al. Design of sensor networks for instantaneous inversion of modally reduced order models in structural dynamics. Mechanical Systems and Signal Processing. 2015-02, vol. 52–53, p. 628–644. DOI: 10.1016/j.ymssp.2014.07.018. 20. ANSI/AISC 360-16. Specification for Structural Steel Buildings. Chicago, Illinois, EEUU : American Institute of Steel Construction, 2016. EVALUACIÓN DE RESIDUOS DE POLVO DE VIDRIO RECICLADO PARA EL MEJORAMIENTO DE SUBRASANTE ARCILLOSAS DE CARRETERA. Eduardo Beira Fontaine1, Pedro Manuel Cabrera Castro2, Hernán Castellanos Gonzalez3 1 Universidad de Oriente, Ave Las Américas s/n y Casero. Santiago de Cuba. 2 Universidad de Oriente, Ave Las Américas s/n y Casero. Santiago de Cuba, 3 Universidad de Oriente, Ave Las Américas s/n y Casero. Santiago de Cuba 1efontain@uo.edu.cu, 2 pcabrera@uo.edu.cu, 3 hernancg@uo.edu.cu RESUMEN Se presenta en este trabajo los resultados obtenidos debido a la adición del vidrio reciclado molido a suelos arcillosos débiles de subrasantes de carretera, como alternativa para mejorar la respuesta mecánica de este tipo de suelo. Se realizaron ensayos de caracterización al suelo natural como límites de consistencia, granulometría, Proctor, CBR y resistencia al corte directo. Posteriormente se adicionó el vidrio molido en las proporciones de 4, 8 y 12 % en peso. Para estas combinaciones se realizaron ensayos Proctor, CBR y resistencia al corte directo para presiones verticales de 0.5, 1.0 y 1.5 kg/cm2. Los resultados obtenidos indican que la adición de vidrio molido reciclado, mejoran la resistencia a cortante del suelo, además de lograr con la adición de este residuo, hacer un aporte para la utilización de este material de desecho, evitando con ello, las afectaciones al medio ambiente. PALABRAS CLAVES: Estabilización de suelos, residuos de vidrio reciclado. EVALUATION OF RECYCLED GLASS WASTE TO IMPROVE DE BEHAVIOR OF CLAYED SUBGRADE FOR ROADS ABSTRACT The results obtained due to the addition of ground recycled glass to weak clayey soils of road subgrades are presented in this work, as an alternative to improve the mechanical response of this type of soil. Characterization tests were carried out on natural soil such as consistency limits, grand size distribution, Proctor, CBR and resistance to direct shear. Subsequently, the ground glass was added in the proportions of 4, 8 and 12% by weight. For these combinations, Proctor, CBR and direct shear strength tests were carried out for vertical pressures of 0.5, 1 and 1.5 kg/cm2. The results obtained indicate that the addition of recycled ground glass improves the shear resistance of the soil, in addition to achieving, with the addition of this residue, making a contribution to the use of this waste material, thereby avoiding damage to the environment. KEY WORDS: Soils stabilization, recycled glass waste, clayed subgrade road. 1. INTRODUCCIÓN: Las carreteras representan las principales infraestructuras de transporte que controlan el crecimiento de la economía, especialmente en los países en desarrollo. Los pavimentos flexibles pueden considerarse como uno de los elementos más importantes y común en la ingeniería de carreteras. La calidad del suelo que compone la subrasante de una carretera forma parte de los elementos que gobiernan el diseño de estas estructuras, con una importante influencia en el espesor total y, por consiguiente, del costo de construcción de este tipo de obra de ingeniería. A partir de esta consideración, resulta importante conseguir que la respuesta mecánica de la subrasante sea adecuada y esto en suelos arcillosos débiles por si solos, no es posible conseguirlo para grados de saturación elevados y es aquí donde la adición de otros materiales puede ser ventajoso. El empleo de los residuos de vidrio en el mejoramiento de las propiedades mecánicas del suelo ha sido un tema recurrente en las investigaciones a nivel internacional, en las cuales se ha demostrado la eficacia de este material con este fin. La utilización del mismo, además de convertirse en una alternativa para atenuar los efectos que puede provocar su vertimiento indiscriminado en el medio ambiente, también sería una opción para reducir los gastos económicos en la construcción. Esta situación ante descrita se convierte en una oportunidad que implicaría dos ventajas: a) Mejorar el comportamiento mecánico de suelos arcillosos débiles de subrasantes de carretera y con ello hacer las carreteras más duraderas y económicas. b) Dar utilidad a un desecho que afecta al medio ambiente. La revisión de la literatura que aborda esta temática indica que son varios los países que han realizado trabajos investigativos en este sentido, entre los que se pueden enumerar: Iraq/7/, India /1//6/, Estados Unidos/3/, Nueva Zelandia /2/, Bangladesh /8/, Serbia /5/, Pakistán /4/, entre otros. Los porcentajes de adición de residuos de vidrio en peso, empleados por los diferentes investigadores son variables, pero en general oscilan entre 10 y 50 %, aunque en algunos casos no supera el 5 %. En términos generales los resultados obtenidos reportan, disminución del límite líquido, incremento de la resistencia a cortante del suelo, incrementos del CBR y disminución del hinchamiento para diferentes porcentajes de adición de vidrio molido reciclado en peso. A partir de estos antecedentes, esta investigación presenta en este trabajo la influencia de la adición del vidrio reciclado molido, en proporciones de 4, 8 y 12 % en la resistencia a cortante del suelo arcilloso de carreteras. 2. MATERIALES Y MÉTODOS. Materiales Suelo El suelo empleado en esta investigación es arcilloso, clasificado según el sistema AASHTO como A-7-6 (7). El mismo conforma la subrasante de la carretera de El Caney en la Ciudad de Santiago de Cuba. El muestreo se realizó a un lado del Hospital Clínico quirúrgico Juan Bruno Zayas, en el tramo desbrozado para la ampliación de la carretera en estudio. Este suelo es predominante y por tanto, representativo para el estudio de la estabilización. Vidrio triturado El vidrio es material de desecho producto del molido de botellas de cristal rotas y envases de cristal importados disponible en los establecimientos de la Empresa de Recuperación de Materia Prima de Santiago de Cuba. Equipamiento utilizado. Los ensayos de laboratorio fueron realizados en el Laboratorio de Mecánica de Suelos de la Facultad de Construcciones de la Universidad de Oriente y en la Empresa Nacional de Investigaciones Aplicadas (ENIA), empresa certificada con el Sistema de Gestión de la Calidad y avalado por la norma ISO 9001:200, empleándose para la ejecución de los mismos, las normas cubanas vigentes. Métodos. Muestreo. Para la realización de la investigación se realizó la caracterización físico-mecánica del suelo en la subrasante objeto de estudio de la carretera de Santiago de Cuba a El Caney. Que permitió identificar el tipo de suelo presente y sus principales propiedades. Trabajos de laboratorio. Todos los ensayos de laboratorio físicos y mecánicos, fueron realizados siguiendo el procedimiento que establecen las Normas Cubanas (NC) vigentes. Las adiciones de vidrio molido reciclado empleadas fueron de 4, 8 y 12 % en peso del material, el cual se mezcló con paletas hasta conseguir una mezcla uniforme entre ambos materiales. Ensayos físicos. Al suelo natural se le realizaron ensayos de humedad, límites de plasticidad, ensayo de granulometría y ensayo de compactación tipo Proctor estándar. En el caso del suelo mezclado con vidrio molido reciclado se le realizó Proctor. Ensayos mecánicos. Ensayo de C.B.R. (California Bearing Ratio) bajo condición de penetración inmediata y penetración después de 4 días de inmersión. Durante la saturación de los especímenes, se llevó a cabo un control diario del comportamiento del hinchamiento de las muestras. La velocidad de aplicación del pistón durante la penetración de las muestras fue 1.27 mm/min; tomándose las lecturas de carga en el anillo dinamométrico, de acuerdo a los tiempos establecidos en la NC 54-150-1983. Para la obtención de este parámetro, se trabajó con la humedad optima correspondiente al ensayo Proctor en cada caso. Ensayo de corte directo, para presiones verticales de 0.5, 1.0 y 1.5 kg/cm2. En este caso las muestras fueron labradas a partir de probetas del ensayo Proctor, con el contenido de humedad óptima obtenido en este ensayo para cada porcentaje de vidrio molido reciclado añadido. Para cada esfuerzo vertical aplicado, fueron ensayadas tres muestras en la máquina de corte directo utilizando velocidad de corte de 1.2 mm por minuto y constante del anillo de 0.174 kg. El ensayo escogido fue con deformaciones controladas. Diseño de mezclas. Combinaciones. Los porcentajes de adición de vidrio reciclado molido osciló entre el 4, 8 y 12 % en peso. 3. RESULTADOS Y DISCUSIÓN. Propiedades físico-mecánicas del suelo natural. Granulometría y límites de consistencia. El porciento pasado por el TZ No 200 (0,074 mm) fue superior al 50 %, por lo que estamos tratando un suelo de grano fino, además se determinó que su fracción gruesa presenta mayor contenido de arena (29,5 %) que grava (9,7 %). En cuanto a los límites de consistencia se obtuvo que el límite liquido (LL) es de 46,5 %, el límite plástico (LP) de 23,1 %, y un índice de plasticidad (IP) de 23,4 %. Estos valores de plasticidad son indicativos de que el suelo presenta baja o media plasticidad. Con estos resultados obtenidos y unidos a los de la granulometría, podemos decir que el material clasifica, según NC 63: 2000, como un suelo A-7-6 (7) con un comportamiento general como subrasante de regular a malo; y según NC 59: 2000, como una arcilla poco plástica (CL) de calidad pobre como subrasante de carreteras. Resultados de compactación. Con este ensayo se obtuvo el peso específico seco máximo de trabajo del suelo de 16,3 kN/m3, así como la humedad óptima de 19 %. Ensayo de CBR. Los resultados de CBR se presentan en la figura 1. 4 3 0 0,5 1 1,5 2 2,5 3 3,5 4 4,5 CBR inmediato CBR inmersión In d ic e d e C B R ( % ) Suelo CBR del suelo natural seco y en inmersión CBR inmediato CBR inmersión Figura 1: Resultados del ensayo CBR al suelo natural para la condición de inmediato y saturado. Obsérvese que el índice de CBR obtenido es muy bajo, valor característico para este tipo de suelo. Corte directo. Los resultados del ensayo de corte directo indican que el suelo tiene parámetros de resistencia débiles es decir cohesión de 0.1 kg/cm2 y ángulo de fricción interna (φ) de 7 grados, indicativo de que, para valores de humedad en el rango de la humedad óptima, la resistencia al esfuerzo cortante es baja. Resultados de la granulometría del vidrio molido reciclado. Los resultados de la granulometría de dos muestras del vidrio molido reciclado empleados en la investigación, se muestra en la figura 2. Figura 2: Distribución granulométrica vidrio molido reciclado empleado. Obsérvese que el tamaño máximo del vidrio molido reciclado empleado es 4,76 mm, con bajas aportaciones por el tamiz 200 (0,074 mm). Resultados con adición de vidrio molido reciclado. Resultados de la prueba de compactación Proctor estándar. Los resultados obtenidos en el ensayo de compactación Proctor, se muestran en la figura 3. Figura 3: Resultados obtenidos del ensayo Proctor estándar al suelo de subrasante con adiciones de vidrio molido reciclado. En la figura 3 se ha colocado adicionalmente la curva del suelo natural con la intención de poder analizar los resultados con más información. Se puede observar que las adiciones de vidrio molido reciclado introducen una variación errática discreta de la densidad seca máxima, alcanzando valores que son menores que el mostrado por el suelo natural. En cuanto a la humedad, se produce una disminución en los valores de humedad optima, siendo la mayor diferencia en la adición correspondiente al 12 %. 3.3.2. Resultados de ensayos de corte directo. Los resultados promedios obtenidos en términos de deformaciones en este ensayo se muestran en la figura 4 y en la figura 5 las envolventes de falla. Figura 4: Gráfico de esfuerzo vs deformación acumulada de todas las muestras estudiadas. Los resultados obtenidos en la figura 4 y figura 5, señalan que el valor del ángulo de fricción interna decrece discretamente con la adición de vidrio molido reciclado, mientras que la cohesión sufre un pequeño aumento de su valor, según aumenta la adición. En términos de resistencia al esfuerzo cortante podríamos afirmar que este parámetro mejora discretamente, resultado es que coincide con algunas de las experiencias internacionales revisadas. Figura 5. Resultados del ensayo de corte directo. Resulta interesante destacar los resultados mostrados en la tabla 1, que responden a parámetros obtenidos en los ensayos de corte directo obtenido. Tabla 1: Variación de parámetros físicos del suelo ensayado en el corte directo. Vidrio molido reciclado (%) Índice de poros promedio Saturación promedio (%) Deformación vertical promedio (mm) 4 0.63 78.1 0.12 8 0.63 73.81 0.12 12 0.59 70.84 0.12 De acuerdo a los resultados mostrados en la tabla 1 se observa que no hay variaciones significativas del índice de poro, lo cual es coherente con los parámetros de compactación de trabajo y la energía utilizada. La saturación muestra una disminución según aumenta el contenido de vidrio molido reciclado aspecto este que deberá ser profundizado en trabajos posteriores. Resultados de CBR seco y con inmersión. Los resultados se muestran a continuación en la figura 6. 3 3 4 3 3 4 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 In d ic e d e C B R ( % ) CBR del suelo seco y en inmersión con adiciones de vidrio molido reciclado. 4% seco 8% seco 12% seco 4% saturado 8%saturado 12%saturado Figura 6: CBR inmersión con las adiciones de vidrio molido reciclado. Se puede apreciar en la figura anterior como los valores de CBR no sufren cambios, se mantienen muy semejantes a los CBR del suelo natural, esto puede ser un indicativo que los porcentajes de vidrio molido reciclado deben de ser incrementados para evaluar si produce incrementos en este importante parámetro. Evidentemente, hasta el punto alcanzado en esta investigación podemos afirmar que el desecho de vidrio molido reciclado puede ser utilizado en suelos de subrasantes arcillosas en los porcentajes estudiados, pues, si bien no consigue incrementos en el CBR, no produce disminución, mejora discretamente la resistencia al esfuerzo cortante y esta aportación daría espacio a la utilización del desecho de vidrio, que hoy en día no tiene destino final de aplicación. 4. CONCLUSIONES. 1. La adición de vidrio molido reciclado en las proporciones en peso de 4, 8 y 12 % al material arcilloso escogido, produce disminución en la densidad seca del suelo y a su vez diminución en la humedad óptima del suelo. Se observa además que dicha adición produce un discreto incremento de la resistencia a cortante del suelo, aunque se aprecia una pequeña disminución del ángulo de fricción interna. 2. La adición de este aditivo en las proporciones estudiadas no produce un incremento del índice de CBR para ensayo inmediato ni con 4 días de inmersión, lo cual puede ser indicativo de que se requiere incrementar el contenido de vidrio molido a añadir, cuestión este que será atendida en breve plazo en próximas investigaciones. 3. Para los resultados obtenidos hasta hoy en esta investigación, se puede concluir que la utilización del vidrio molido reciclado puede ser utilizado como aditivo en suelos arcillosos débiles de carreteras, pues si bien hasta el momento no se aprecian saltos importantes en la respuesta del suelo, no se genera disminución alguna de sus propiedades y su aplicación daría destino final a un residuo sin utilización, que afecta por demás a medio ambiente. 5. REFERENCIAS. 1. BENNY J R et all. Effect of Glass Powder on Engineering Properties of Clayey Soil. International Journal of Engineering Research & Technology (IJERT). Vol. 6. May 2017. ISSN: 2278-0181. India. 2. GREG A., SABINE W., DAVID A. The effect of adding recycled glass on the performance of basecourse aggregate. New Zeland Transport Agency Research Report 351. ISBN 978-0-478-33406-7. 2008. New Zeland. 3. LADOONA Rowden. Utilization of recycled and reclaimed materials in Illinois Highways Construction in 2012. Illinois Department of Transportation. 2013. Research Report No 164. USA. 4. MUHAMMAD S, MUHAMMAD T. MATEEULLAH A. Effects of Waste Glass Powder on the Geotechnical Properties of Loose Subsoils. Civil Engineering Journal. Vol. 4, No. 9, September 2018. Pakistan. 5. NEBOJŠA D., ZORAN B., VERKA P. “Waste glass as additive to clayey material in subgrade and embankment of road pavement”. Architecture and Civil Engineering Vol. 10, No 2, 2012, pp. 215 – 222. Serbia. 6. NIRMALA R and SHANMUGAPRIYA M. Feasibility Study on Enhancing the Properties of Subgrade Material using Waste Glass. International Journal of Chemical Sciences. Vol 15. 2017. India. 7. RIZGAR A. B., et all. Strength improvement of expansive soil by utilizing waste glass powder. Case Studies in Construction Materials. 2020. Irak. 8. SYED A. J., SUDIPTA C. Effects of Waste Glass Powder on Subgrade Soil Improvement. World Scientific News. EISSN 2392-2192. 2020. Bangledesh. 9. ZAID AbdulZahra Mahdi and NOOR S. Al-Hassnawi Assessment of subgrade soil improvement by waste glass powder. International Journal of Civil Engineering and Technology (IJCIET) Volume 9, Issue 10, October 2018, pp. 12–21. Irak. Sobre los autores. 1. Eduardo Beira Fontaine, Doctor en Ciencias Técnicas, Profesor Titular y principal de Geotecnia y Cimientos y Estructuras de Contención. Departamento de Ingeniería Civil. Facultad de Construcciones. Universidad de Oriente. 2. Pedro Manuel Cabrera Castro. Master en Ciencias. Profesor Auxiliar. Jefe de Departamento de Ingeniería Hidráulica. Facultad de Construcciones. Universidad de Oriente. 3. Hernán Castellanos González. Ingeniero Civil. Instructor. Departamento de Ingeniería Civil. Facultad de Construcciones. Universidad de Oriente. COLAPSO PROGRESIVO EN TORRES DE TRANSMISIÓN ELÉCTRICA DEBIDO A VIENTOS HURACANADOS Alejandro Hernández Hernández1, Gerardo Pérez Martínez2, Patricia Martín Rodríguez3, Vivian Elena Parnás4, 1Universidad de Matanzas, Autopista a Varadero km 3, Matanzas, Cuba; 2,3,4Universidad Tecnológica de La Habana José Antonio Echeverría CUJAE, Calle 114, No. 11901, e/119 y 129, Marianao, Ciudad de La Habana, Cuba. 1alejandro.hdez@umcc.cu, 2patriciamr@civil.cujae.edu.cu, 3vivian@civil.cujae.edu.cu, 4gperezm@civil.cujae.edu.cu RESUMEN Las torres de celosía, usadas como soporte de cables conductores aéreos en tramos de línea de alta tensión, son de gran relevancia para el desarrollo de un país y a su vez son estructuras vulnerables frente a fenómenos naturales como los huracanes. Cuba es un país anualmente azotado por ciclones, en el período de 1996 al 2017 fueron derribadas 523 torres por estos eventos meteorológicos, siendo el huracán Michelle de 2001 uno de los más severos en este aspecto. El colapso de estas estructuras es un fenómeno que lleva consigo elevadas pérdidas económicas y sociales, incluidas en ocasiones la pérdida de vidas humanas, por tanto, es imprescindible determinar su mecanismo de fallo para lograr diseños más eficientes y estructuralmente confiables. En este trabajo se identifica el mecanismo de fallo progresivo de la torre de transmisión eléctrica SS1 bajo las condiciones provocadas por el huracán Michelle en 2001, para lograrlo se implementó el método Alternative Path Load a través de un análisis estático no-lineal y se emplea como método para determinar la confiabilidad de la torre las curvas de fragilidad. Los resultados obtenidos son la determinación de los elementos que detonan el fallo, la progresión de este hacia otros elementos de la estructura hasta provocarse el fallo general y las curvas de fragilidad de la torre SS1. PALABRAS CLAVES: colapso progresivo, mecanismo de fallo, torres metálicas de celosía, curvas de fragilidad. PROGRESISIVE COLLAPSE IN ELECTRICAL TRANSMISSION TOWERS DUE TO HURRICANE ABSTRACT Lattice towers, used as support for aerial conductor cables in sections of high-voltage lines, are of great relevance for the development of a country and, in turn, are structures that are vulnerable to natural phenomena such as hurricanes. Cuba is a country hit annually by cyclones, in the period from 1996 to 2017, 523 towers were demolished by these meteorological events, with Hurricane Michelle in 2001 being one of the most severe in this regard. The collapse of these structures is a phenomenon that carries with it high economic and social losses, sometimes including the loss of human lives, therefore, it is essential to determine their failure mechanism to achieve more efficient and structurally reliable designs. In this work, the progressive failure mechanism of the SS1 electrical transmission tower under the conditions caused by Hurricane Michelle in 2001 is identified. To achieve this, the Alternative Path Load method was implemented through a non-linear static analysis and is used as method to determine the reliability of the tower brittleness curves. The results obtained are the determination of the elements that trigger the failure, its progression towards other elements of the structure until the general failure is caused, and the fragility curves of the SS1 tower. KEY WORDS: progressive collapse, failure mechanism, metal lattice towers, fragility curves. 1. INTRODUCCIÓN Hoy en día el desarrollo normal de la sociedad depende de la electricidad, esta debe ser conducida desde los puntos de generación hasta los lugares de consumo. Existen varios modos de realizar esta tarea y la opción más empleada para ello son las torres reticuladas metálicas. Resulta costoso y complejo el montaje y reparación de estas torres que componen las líneas de transmisión (LTE), debido a las grandes separaciones que existe entre ellas por las longitudes que abarcan, además de que se pueden encontrar en topografías muy diversas, así como por el evidente costo de los materiales que las componen. En Cuba los colapsos totales en este tipo de estructuras son numerosos, sobre todo vinculados al paso de huracanes por el territorio con importantes pérdidas económicas. Estas torres fallan comúnmente con un efecto dominó, es decir, el fallo inicial de una de las torres que componen la línea de transmisión, implica que se afectan las torres adyacentes a ella, dado por el vínculo entre torres que proporcionan los conductores. De esta manera el fallo de una torre implica usualmente el fallo de una línea de torres de considerable longitud. Los eventos meteorológicos que más afectan las torres de transmisión eléctrica son los huracanes. La figura 1 muestra algunas imágenes de fallos estructurales de las torres debido al paso de los huracanes por el territorio nacional. Figura 1. Fallos de torres de transmisión debido a los efectos de vientos extremos huracanados en Cuba. Predecir o al menos controlar el fallo en las torres que componen las líneas de transmisión eléctricas resulta en extremo complejo debido a las variables que intervienen en el mismo, entre ellas las cargas, sobre todo la carga de viento y el efecto que ella produce directamente en los elementos de las torres, los aisladores y los conductores, estos últimos elementos no lineales le introducen una marcada complejidad al problema. En la actualidad uno de los métodos más empleados para analizar el comportamiento de los fallos en las torres que componen las líneas de transmisión es el análisis de colapso progresivo. El colapso progresivo o mecanismo progresivo de falla se refiere al fallo de un elemento aislado que produce luego el fallo de otros elementos componentes de la estructura, llevando así al fallo total de la misma. El colapso progresivo de las estructuras usualmente lleva consigo elevadas pérdidas económicas y sociales, incluidas en ocasiones la pérdida de la vida de las personas y daños a su integridad física [1-3]. La investigación en este campo ha ido en aumento en los últimos años. Usualmente los análisis de fallos progresivos resultan complejos debido a que se deben realizar análisis dinámicos, análisis no lineales, incluidos en estos el comportamiento inelástico de los materiales, entre otros aspectos [4-6]. Debido a la complejidad y el alto costo de realizar estos análisis de forma experimental, es común la modelación numérica de estos problemas. Lo más frecuente es el empleo de algún software profesional [3, 7-17], como el ABAQUS o el SAP2000, aunque en algunos casos los autores prefieren utilizar sus propios códigos [18-20]. En todos estos estudios, es similar el uso del método de elementos finitos en los análisis realizados. Las estructuras deben tener una adecuada resistencia, rigidez y ductilidad, así como suficiente resistencia y rigidez local como para evitar el inicio y propagación del fallo, redundancia estructural para proporcionar una ruta alternativa a las cargas e interconexión entre los elementos estructurales y no estructurales para minimizar el efecto del fallo inicial [5]. Existen varios métodos para evaluar la ocurrencia del colapso progresivo en una estructura, clasificados en métodos indirectos y métodos directos. Entre los códigos y pautas de diseños se reconocen tres métodos principales: Atado de Miembros (fuerzas de vinculación) (método indirecto), Ruta de Carga Alternativa (Alternative Path Load – término en inglés) (APL) (método directo) y método de diseño de Elementos Claves (resistencia local) (método directo). Según Adam [21], algunos autores [22,23] reconocen un cuarto grupo recientemente, el de los métodos basados en el riesgo. Los métodos de Amarre de Miembros y APL consideran la falla local y trabajan en la redistribución de esfuerzos, mientras que el método de los Elementos Claves se enfoca en prevenir dicha falla local atendiendo la robustez de los elementos críticos que pueden detonar el colapso de la estructura [2, 3, 5, 21, 22, 24-26]. Actualmente el método más difundido para realizar este tipo de análisis es el Alternative Path Method (APM), el cual consiste básicamente en ir eliminando de forma progresiva en los modelos, los elementos que se consideran en fallo en los correspondientes estados de carga [7, 8]. Este método es aplicado en diferentes variantes, las tres vías principales son: eliminar físicamente el elemento; eliminar físicamente el elemento y colocar en los nudos que lo unían con otros elementos las fuerzas interiores a las que estaba sometido; o modificar las propiedades inerciales del elemento igualándolas a cero. Una ventaja de este método es que es independiente de la carga inicial, por lo que la solución es válida para cualquier tipo de peligro que origine la pérdida de un miembro, sin embargo, se ignora el daño de los elementos adyacentes de las columnas removidas bajo condiciones de explosión y este problema puede conducir a una predicción incorrecta del colapso progresivo [24]. De acuerdo con la importancia de la estructura, se adoptan análisis estáticos lineales, análisis estático no lineal, análisis dinámicos lineales y análisis dinámicos no lineales para realizar la evaluación del potencial de colapso progresivo. El análisis dinámico no lineal es el método más práctico, mientras que el análisis estático lineal es el más fácil de implementar [3]. Detalles sobre estos análisis se pueden encontrar en las referencias [2], [5] y [22]. Los procedimientos dinámicos no lineales conducen a resultados más precisos que los procedimientos estáticos, pero los procedimientos dinámicos no lineales son muy complicados y la evaluación o validación de los resultados puede llevar mucho tiempo. Por ello, algunas investigaciones internacionales han ido encaminadas a la determinación de procedimientos de análisis simplificado para el análisis de colapso progresivo de estructuras, así como la magnitud y variación de los factores de aumento de carga dinámicos y no lineales [25, 26]. En los estudios que analizan el colapso progresivo en torres reticuladas metálicas de transmisión eléctrica se muestran en su mayoría estructuras autosoportadas [3, 8, 14, 17, 20], y en menos casos torres atirantadas [18]. Estos estudios se dividen en dos grupos: los que analizan las torres de manera aislada [8-10, 14, 20], aunque siempre considerando los efectos de los cables sobre la estructura [27] ya que las propiedades dinámicas de los cables influyen significativamente en las frecuencias naturales y las relaciones de amortiguación de las torres [28], y los que analizan un tramo completo de una línea de transmisión [13, 29]. Lo más frecuente en las investigaciones consultadas es el análisis de la torre de manera aislada a la línea de la que forma parte. En los trabajos consultados es más frecuente considerar el comportamiento no lineal del material [3, 7-9, 11, 12, 14, 20], mientras que los autores que utilizan el comportamiento lineal [10, 29] obtienen resultados más conservadores. Las cargas son tenidas en cuenta tanto por su componente estática [7, 8, 14] como por su componente dinámica [3, 9, 15, 29]. En la bibliografía internacional numerosos son los trabajos que se basan en los colapsos reales de estructuras durante la ocurrencia de huracanes para el análisis de su mecanismo de fallo, lo cual conduce a diseños más eficientes. En este trabajo se identifica el mecanismo de fallo progresivo de la torre de transmisión eléctrica SS1 bajo condiciones de viento extremo provocadas por el huracán Michelle, uno de los que mayores daños ocasionó en estas estructuras en Cuba. Para lograrlo se implementó el denominado Alternative Path Method (APM) a través de un análisis estático no lineal usando como herramienta el programa computacional de análisis de estructuras SAP 2000. 2. DESARROLLO Metodología Recopilación de datos Para el estudio de los fallos de las torres de transmisión eléctrica se escogió como caso de estudio el Huracán Michelle del año 2001. Esta investigación toma como punto de partida la metodología aplicada para el análisis del fallo de torres de telecomunicaciones desarrollada por Elena [30]. Para el estudio de las torres falladas debido al huracán Michelle se realizó la caracterización de la situación de partida, para lo cual resulta esencial identificar las características de las tipologías estructurales y las condiciones del entorno en el que se produce el fallo, es por tanto necesaria la recopilación y el ordenamiento de los datos, los cuales fueron clasificados dentro de tres grupos: datos climatológicos, datos estructurales y datos geográficos. Datos climatológicos El huracán Michelle presentó categoría 4 en la escala de Saffir -Simpson, con vientos máximos sostenidos de 220 km/h medidos en un intervalo de promediación de 1 minuto. El huracán tocó tierra en la parte sur del territorio cubano y salió al mar como huracán categoría 1 con vientos máximos de 115 km/h. Como es conocido los huracanes son fenómenos atmosféricos que abarcan varios kilómetros y los vientos se van intensificando desde la periferia hasta el centro de circulación. Se estima que las torres más cercanas a la trayectoria del ojo de huracán Michelle ubicadas en la parte sur de la provincia de Villa Clara recibieron los valores máximos de los vientos huracanados con valores de velocidades alrededor de 200 km/h medida en intervalos de promediación de un minuto. Debido al paso de este huracán resultando afectadas 130 torres, principalmente de las líneas Matanzas - Cienfuegos y de la central termoeléctrica Antonio Guiteras (Matanzas) - Santa Clara. De estas 130 torres 73 son de doble circuito, de la tipología SS1, siendo la tipología más representativa de estas líneas de transmisión, por lo que son el objeto de análisis en este trabajo. Datos geográficos La caracterización del medio físico donde se ubican las torres es de vital importancia para realizar un adecuado análisis de vulnerabilidad de las estructuras. Las líneas de transmisión eléctrica se pueden encontrar en zonas urbanas, rurales, costeras y en sitios montañosos. En dependencia del lugar donde se encuentren ubicadas serán afectadas por factores externos que podrían presentar una amenaza para ellas. La mayoría de las torres afectadas por este huracán se encontraban ubicadas en un terreno llano y abierto. Datos estructurales La torre tipología SS1 es una torre de suspensión, de seis conductores y dos cables de guarda. Es una torre metálica de 39 metros de altura total y sección rectangular. Está compuesta de un tramo tronco piramidal desde la base hasta los 23 metros de altura, los 16 metros restantes, donde se encuentran los brazos, corresponde a una sección transversal constante, sin inclinación de las columnas. La figura 2 muestra las vistas frontal y lateral de la torre. La torre está compuesta en su totalidad de perfiles de sección angular y la misma forma parte de una línea de transmisión constituida por torres espaciadas a 450 metros entre sí. Los cables conductores (CW) y de guarda (GW) son de aluminio con un núcleo de acero, los primeros son de 25 mm de diámetro y los otros de 16 mm de diámetro. Los elementos de la torre están construidos con acero ASTM A-36 (250 MPa de tensión de fluencia y 400 MPa de tensión de rotura, 2·105 MPa de módulo de elasticidad y 76.9 kN/m de peso por metro lineal). (a) (b) (c) Figura 2. Vistas de la torre, (a) vista frontal (b) vista lateral, (c) Modelo 3D SAP2000 Descripción del modelo numérico de la torre de transmisión. El software SAP 2000 v20 fue empleado para la elaboración del modelo numérico, la torre fue modelada usando elementos tipo frame. Las columnas se consideraron unidas de modo rígido en toda su longitud, mientras el resto de los elementos se consideraron articulados. Las uniones a tierra de la torre se consideraron rígidas debido al sistema de fijación que presentan. Los efectos de los cables fueron considerados como cargas concentradas en los extremos de los brazos que los sostienen. Descripción de las cargas. Las cargas consideradas en el análisis fueron la carga de peso propio de la estructura, la carga de viento en la torre y el efecto de los cables en la torre, tanto su peso como la carga de viento, además del peso de los aisladores. El peso de los aisladores es de 0.12 kN, la carga muerta de los CW es 5.96 kN y de GW es 2.44 kN, estos valores fueron obtenidos teniendo en cuenta la densidad del aluminio, la sección transversal de los cables y la separación entre torres, y fueron considerados según lo que se estipula en el ASCE [31]. La presión del viento y por ende su velocidad fueron considerados en aumento progresivo, representando de este modo el acercamiento del huracán (Michelle 2001) a la torre, haciéndose cada vez más fuerte la intensidad de los vientos. Estos valores fueron obtenidos para un período de retorno de 50 años, velocidad media en 10 min y densidad del aire ρ = 1.22 kg/m3. La torre se consideró ubicada en un terreno abierto y se empleó un perfil de viento exponencial según refiere la propuesta de nueva norma cubana de viento, las alturas (z), áreas (A) y coeficientes de forma (Cf) usados en el análisis se muestran en la tabla 1. El análisis estático se realizó usando la ecuación 1 acorde a los estudios que se realizan para la actualización de la norma de viento en Cuba NC 285:2003 [32], basados en los estudios de [33-35]. 𝐹𝑒(𝑧) = 𝑞10𝐶ℎ𝐶𝑡𝐶𝑟𝐶𝑓𝐶𝑑𝐴 (1) Donde Fe(z) es la fuerza del viento en la altura z, q10 es la presión básica del viento, Ch el coeficiente de altura dado por la ecuación 2. 𝐶ℎ = (𝐶𝑒(𝑧)𝐶𝑜(𝑧)) 2 (2) Ce(z) es el coeficiente de exposición, que define el perfil de velocidad en función de las categorías del terreno. Ct es el coeficiente de recurrencia, asociado con el período de retorno, en este caso con valor 1, Cr es el coeficiente de ráfaga (determinado según la norma de viento cubana), Cf es el coeficiente de forma , determinado según la ASCE [31], CD es el coeficiente dinámico que en el caso de estudio tiene valor 1, ya que el período de oscilación de la torre es menor que 1 segundo. Los coeficientes de forma en la torre y los cables se obtuvieron según la ASCE usando la ecuación 3 𝐶𝑓 = 4.1 − 5.2𝜑 (3) Donde φ es la relación de solidez. Las direcciones de viento analizadas fueron perpendicular a la línea de transmisión (0°), paralela a la línea de transmisión (90°) y diagonal a la línea de transmisión (45°). Las fuerzas del viento en cada dirección fueron aplicadas para velocidades de viento incrementadas en intervalos progresivos de 3.9 m/s con el objetivo de determinar el mecanismo de fallo de la estructura. Las combinaciones de carga usadas en el análisis son 0.9 D + 1.4 W y 1.2 D + 1.4 W, siendo D: cargas permanentes y W: cargas de viento, acorde a la norma cubana [32]. Tabla 1. Alturas (H), áreas (A) y coeficiente de forma Cf usados para el cálculo de la carga de viento H(m) 𝐴(𝑚2) 𝐶𝑓 H(m) 𝐴(𝑚 2) 𝐶𝑓 39.00 0.59 2.796 24.00 0.507 2.979 38.00 0.437 3.134 23.00 0.566 3.022 37.00 0.284 3.472 21.85 1.137 3.047 36.00 0.437 3.134 19.55 1.145 3.076 35.00 0.284 3.472 17.25 1.154 3.103 34.00 0.709 3.317 14.95 1.163 3.128 32.00 0.507 2.979 12.65 1.171 3.152 31.00 0.354 3.317 10.35 1.254 3.116 30.00 0.507 2.979 8.05 1.264 3.137 29.00 0.354 3.317 5.75 1.275 3.157 28.00 0.709 3.317 3.45 1.285 3.175 26.00 0.507 2.979 1.15 0.946 2.766 25.00 0.354 3.317 Tabla 2. Carga de viento en los cables calculadas para 39 m/s. Tipo de cable 𝐻 (𝑚) 𝑉𝑟𝑒𝑓 (𝑚/𝑠) 𝑞10 (𝑘𝑁/𝑚2) 𝐶ℎ 𝐶𝑡 𝐶𝑟 𝐶𝑓 𝐴 (𝑚2) 𝐹 (𝑘𝑁) CW 23 39 0.93 1.28 1 2.1 1 11.25 28.15 CW 29 39 0.93 1.37 1 2.1 1 11.25 30.13 CW 35 39 0.93 1.45 1 2.1 1 11.25 31.89 GW 39 39 0.93 1.50 1 2.1 1 7.2 21.11 Descripción del método Para la implementación del método APL, una vez que algún elemento aparece en falla, al aplicar la carga de viento como se describe anteriormente, su aporte a la rigidez de la estructura fue modificada, su masa permanece en la estructura, pero todas las propiedades que aportan a la rigidez global pasan a ser cero. Los criterios para definir el fallo local de los elementos fueron: i) pérdida de estabilidad o pandeo de los elementos sometidos a compresión; ii) máxima capacidad a compresión si es menor que la capacidad por pandeo; y iii) la carga de rotura en elementos sometidos a tracción. Para estos criterios fue necesario chequear el índice ratio, que relaciona la demanda con la capacidad resistente de los distintos elementos estructurales. El análisis para la determinación de los elementos en fallo y el mecanismo de colapso de la estructura fue dividido en tres etapas. En la primera etapa los estados de carga no generaron ningún elemento en fallo, por tanto, se puedo incrementar el valor de la carga. En la segunda etapa el estado de carga generó elementos en falla, pero después de la modificación de la rigidez de estos elementos los esfuerzos se redistribuyeron sin que se generaran nuevos elementos en fallo. En la tercera etapa se generaron elementos en fallo y después de la modificación de la rigidez de estos elementos la redistribución de los efectos sí produjo otros elementos en falla, a los cuales se le aplicó el mismo procedimiento, hasta que se produjo el colapso de la torre. Análisis de la probabilidad de falla Una de las formas más usadas a nivel internacional en la determinación del funcionamiento no solo de estructuras sino también de otros tipos de sistemas son las curvas de fragilidad [36], las cuales representan la probabilidad de que la respuesta de un sistema ante determinadas solicitaciones excedan un estado límite; son una medida de la vulnerabilidad de una estructura ante determinada solicitación [37]. Existen varios métodos para la obtención de las curvas de fragilidad, entre ellos se destacan: los basados en observaciones de campo, en la opinión de expertos, los experimentales y los analíticos. Estos métodos difieren principalmente en la forma de obtención de la probabilidad asociada a cada estado de daño y en la entrada de los datos. Todos ellos coinciden en que ajustan una función de distribución lognormal Φ a los resultados obtenidos, para poder determinar las probabilidades de exceder o igualar un estado discreto de daño EDi para un cierto parámetro indicador de determinada solicitación PIS.             = mEDPIS i PIS PIS PISEDEDP i ln 1 )|( . . (4) Donde: βPIS.EDi representa la desviación estándar del logaritmo natural de PIS para un estado de daño EDi. PISm representa la media del logaritmo natural de PIS para un estado de daño EDi. Se definieron para este estudio la carga de viento sobre la torre como el parámetro indicador de la solicitación (PIS) que es la que produce las solicitaciones en los elementos estructurales, mientras que el índice ratio se estableció como el parámetro indicador del daño (PID), ya que es el que da la condición en la que están trabajando dichos elementos. Por su parte, los estados de daños se definieron por cinco rangos del ratio: sin daños, daños leves, daños moderados, daños severos y colapso. El procesamiento estadístico de los datos se realizó mediante el software computacional Statgraphics. Finalmente se conformaron las curvas de fragilidad de PID vs. PF (probabilidad de falla) ajustando las curvas de distribución lognormal acumulada definida en la ecuación 4, y donde cada una de las curvas representan uno de los estados de daño establecidos anteriormente, colocadas siempre de izquierda a derecha por el mismo orden en que se nombran en el texto. Resultados y discusión Basado en observaciones de campo de los fallos que se han producido en estructuras reales bajo la acción de vientos extremos, se analizó la carga axial y la capacidad de carga de elementos que con recurrencia son los que fallan en estas estructuras. Se analizaron las diagonales y columnas del nivel 1.15m (elementos del primer tramo a partir del terreno) y elementos de los niveles 23 m y 29 m (corresponden a los brazos que soportan los conductores de esos niveles). Todos los resultados que se muestran corresponden a la combinación de carga 1.2D+1.4W y la dirección del viento perpendicular a la línea de transmisión, que es la que produjo los efectos más desfavorables. Los resultados de los elementos del nivel 1.15 m no se muestran, pues en todos los casos se encuentran trabajando muy por debajo de su capacidad, lo que indica que no serán el detonante del mecanismo de falla. El primer estado del mecanismo de fallo corresponde a los intervalos de velocidad de 3.9 m/s a 19.5 m/s. En todos ellos el comportamiento es similar, no se apreciaron elementos en falla. Se apreció además cómo a medida que aumenta la carga, los elementos correspondientes al nivel 23 m, primer nivel de brazos, comenzaban a aumentar su tensión, pero sin alcanzar la capacidad máxima. Figura 3. Índice ratio de los elementos de la torre en el primer estado del mecanismo de fallo para las velocidades de viento de 3,9 m/s; 7,8 m/s; 11,7 m/s; 15,6 m/s y 19,5 m/s (a) (b) (c) (d) (e) Figura 4. Curvas de fragilidad del primer estado del mecanismo de fallo (a) velocidad 3.9 m/s; b) velocidad 7.8 m/s; c) velocidad 11.7 m/s; d) velocidad 15.6 m/s e) velocidad 19.5 m/s El segundo estado del mecanismo de fallo corresponde al valor de velocidad de 23.4 m/s. En este estado se observó que los elementos del nivel 23 m comenzaron a fallar por pérdida de estabilidad y los del nivel 29 m comenzaron a acercarse a esta condición, pero aún sin alcanzar su máxima capacidad. En esta condición se eliminó el aporte a la rigidez de los elementos en fallo, y se observó un reacomodo de los esfuerzos, que aumentaron la demanda de otros elementos los que se acercaron a su capacidad máxima portante sin fallar. Tabla 3. Fuerza axial e índice ratio de los elementos la velocidad 23.4 m/s Tipo de elemento Velocidad (m/s) 23.4 (sin reducción de la rigidez) 23.4 (con rigidez cero de elementos en fallo) Fuerza axial kN Ratio Fuerza axial N Ratio columna 23 m -150.69 0.304 -150.76 0.304 columna 29 m -73.27 0.172 -64.06 0.161 diagonal (1) 23 m En fallo En fallo diagonal (2) 23 m -47.88 0.776 -47.88 0.776 diagonal 29 m -16.31 1.07 En fallo (a) (b) Figura 5. a) velocidad 23.4 m/s (sin reducción de la rigidez); b) velocidad 23.4 m/s (con rigidez cero de elementos en fallo). (a) b) Figura 6 Curvas de fragilidad para el segundo estado del mecanismo de colapso a) velocidad 23.4 m/s (sin reducción de la rigidez); b) velocidad 23.4 m/s (con rigidez cero de elementos en fallo). La tercera etapa del mecanismo de fallo corresponde a una velocidad de 27.3 m/s. En este estado ocurre el colapso total de la estructura. Al aparecer elementos en fallo en el nivel 23 m (ver figura 7 a) y luego de ser modificadas sus propiedades, la redistribución de esfuerzos produjo el fallo de otros elementos en el nivel 23 m y 29 m y superior (ver figura 7 b y 7 c), que también fueron modificados y esto provocó a su vez el fallo de otros, lo cual se considera el punto de colapso de la torre. Tabla 4. Fuerza axial e índice ratio de los elementos en los modelos con velocidad 27.3 m/s Tipo de elemento Velocidad (m/s) 27.3 (sin reducción de la rigidez) 27.3 (con rigidez cero de los primeros elementos en fallo) 27.3 (con rigidez cero de los segundos elementos en fallo) Fuerza axial kN Ratio Fuerza axial kN Ratio Fuerza axial kN Ratio columna 23 m -197.67 0.528 -226.71 0.999 En fallo columna 29 m -82.15 0.197 -82.73 0.217 -86.95 0.998 diagonal (1) 23 m En fallo En fallo En fallo diagonal (2) 23 m -65.16 0.998 En fallo En fallo diagonal 29 m En fallo En fallo En fallo (a) (b) (c) Figura 7 (a) velocidad 27.3 m/s (sin reducción de la rigidez); (b) velocidad 27.3 m/s (con rigidez cero de los primeros elementos en fallo); (c) velocidad 27.3 m/s (con rigidez cero de los segundos elementos en fallo). (a) (b) (c) Figura 8 Curvas de fragilidad para el tercer estado del mecanismo de colapso (a) velocidad 27.3 m/s (sin reducción de la rigidez); (b) velocidad 27.3 m/s (con rigidez cero de los primeros elementos en fallo); (c) velocidad 27.3 m/s (con rigidez cero de los segundos elementos en fallo). A manera de validación se observa cómo el comportamiento del mecanismo de fallo analizado a partir de los modelos numéricos corresponde con las observaciones de los fallos reales en el terreno producto de eventos meteorológicos extremos. Figura 9. Imagen de un fallo real con comportamiento similar al observado en los modelos numéricos. 3. CONCLUSIONES El mecanismo de fallo de la tipología de torres SS1 es detonado por los elementos diagonales del nivel 23 m y este va siguiendo la ruta descrita hacia las columnas de ese mismo nivel y las columnas y diagonales del nivel 29 m, hasta que ocurre el colapso de la estructura para una velocidad de 27.3 m/s medida en un intervalo de 10 minutos. Los fallos observados en las estructuras reales de la tipología SS1 durante el paso del huracán Michelle en 2001 se corresponden con los resultados obtenidos de los modelos estructurales, demostrándose de este modo la necesidad de estudiar posibles modificaciones en el diseño que permitan aumentar la resistencia de estas estructuras y evitar así el fallo ocasionado por vientos huracanados. REFERENCIAS 1. El-Tawil, Sherif; Li, Honghao. “Progressive Collapse Research Current State and Future Needs” Advanced Materials Research, 2013, vol. 639-640. 2. Marjanishvili, S. “Progressive analysis procedure for progressive collapse” Journal of Performance of constructed facilities, 2004, vol. 79. 3. Gao, Shan; Wang, Sheliang. “Progressive Collapse Analysis of Latticed Telecommunication Towers under Wind Loads” Advances in Civil Engineering, 2018. 4. Mete A. Sozen; Charles H. Thornton, W. Gene Corley, Paul F. Mlakar Sr. “The Oklahoma City bombing: structure and mechanisms of the murrah building” Journal of Performance of Constructed Facilities, 1998. 5. Byfield, Michael; Mudalige, Wjesundara; Morison, Colin; Stoddart, Euan. “A review of progressive collapse research and regulations” Structures and Buildings, 2014, vol. 167. 6. R. S. Nair. “progressive collapse basics” Modern Steel Construction, 2004, vol.44. 7. Choi, Jeong-Hwan; Park, Hoy-Sang; Lee, Tae-Hyung. “Evaluation of Progressive Collapse of Transmission Tower” International Journal of Science, Engineering and Technology, 2016, vol. 10. 8. Dado, Rambabu. “Progressive collapse study of 220kv transmission line tower with different bracing patterns” International Journal of Scientific & Engineering Research, 2018, vol. 9. 9. Fu, Xing; Li, Hong-Nan; Li, Jiaxiang. “Wind-Resistance and Failure Analyses of a Lightning-Damaged Transmission Tower” Performance of Constructed Facilities, 2018, vol. 32. 10. Fu, Xing; Wang, Jia; Li, Hong-Nan, “Failure analysis of a transmission tower induced by wind loads” The 2018 Structures Congress, ed. Songdo Convensia, Incheon, Korea, 2018. 11. Tain, Li; Ma, Ruisheng; Wang, Wwnning; Wang, Lei. “Progressive Collapse Analysis of Power Transmission Tower Under Earthquake Excitation” The Open Civil Engineering Journal, 2013, vol. 7. 12. Wang, W.M.; Li, H.N.; Tian, L. “Progressive collapse analysis of transmission tower-line system under earthquake” Advanced Steel Construction 2013, vol. 9. 13. Zhang, Zhouqun; Li, Hongnan; Li, Gang; Wang, Wwnming; Tian, L1. “The Numerical Analysis of transmision Tower-Line System Wind-Induced Collapsed Performance” Matematical Problems in Engineering, 2013, vol. 2013. 14. G.H.Mahmoud; B.S.Tork; S.A.El-Beshlawy. “Structural Capacity and Failure Mechanisms of Transmission Towers under High Intensity Wind Loading” Journal of Mechanical and Civil Engineering, 2016, vol. 13. 15. Wang, F; Xu, Y; Qu, W. “Multi-scale failure analysis of transmission towers under downburst loading” International Journal of Structural Stability and Dynamics, 2018, vol. 18. 16. Hua-Dong Zheng, Jian Fan. “Analysis of the progressive collapse of space truss structures during earthquakes based on a physical theory hysteretic model” Thin-Walled Structures, 2018. 17. Asgarian, Behrouz; Dadras, Soheil; Zaghi, Arash; Mehr, Masoud. “Progressive collapse analysis of power transmisssion towers” Journal of Constructional Steel Research, 2016, vol. 123. 18. Hamada, A; Damatty, A EL. “Failure analysis of guyed transmission lines during F2 tornado event” Engineering Structures, 2015, vol. 85. 19. Hangan, Horia; Savory, Eric; Damatty, Ashraf El; Galsworthy, Jon; Miller, Craig. “Modeling and prediction of failure of transmission lines due to high intensity winds” in Structures Congress, ed. Universidade Federal Do Rio Grande Do Sul, 2013. 20. Fu, Li Tian; Xin Zhang; Xing. “Collapse Simulations of Communication Tower Subjected to Wind Loads Using Dynamic Explicit Method”, 2020. 21. Jose M. Adam, Fulvio Parisi, Juan Sagaseta, Xinzheng Lu. “Research and practice on progressive collapse and robustness of building structures in the 21st century”, Engineering Structures, 2018, vol. 173. 22. Arup. “Review of international research on structural robustness and disproportionate collapse” Department for Communities and Local Government, 2011. 23. “European Cooperation in the field of Scientific and Technical Research (COST). In: Robustness of structures – proceedings of the 1st workshop, COST Action TU0601. Switzerland: ETH Zurich” 2008. 24. Bagheripourasil, M; Mohammadi, Y. “Comparison between Alternative Load Path Method and a Direct Applying Blast Loading Method in Assessment of the Progressive Collapse” Journal of Rehabilitation in Civil Engineerieng, 2015. 25. Mckay, Aldo; Marchand, Kirk; Diaz, Manuel. “Alternate Path Method in Progressive Collapse Analysis. Variation of Dynamic and Nonlinear Load Increase Factors” Practice Periodical on Structural Design and Construction, 2012, vol. 17. 26. Naji, Arash; Irani, Fereidoon. “Progressive collapse analysis of steel frames, Simplified procedure and explicit expression for dynamic increase factor” International Journal of Steel Structures, 2012, vol. 12. 27. Harshini, CH; Sindhu, K. “A comparative study of wind analysis on 220KV transmission line tower in STAAD-Pro and E-Tabs” International Journal of Science and Research, 2018, vol. 7. 28. Lu C, Ou Y, Xing Ma, Mills Je. “Structural Analysis of Lattice Steel Transmission Towers: A Review”, Journal of Steel Structures & Construction, 2016. 29. Tian, Li; Ma, Prui-Sheng; Li, Hong. Nan; Wang, Yang. “Progressive collapse of power transmisssion tower line system under extremely strong earthquaque excitations” International Journal of Structural Stability and Dynamics, 2016, vol. 16. 30. Parnás, Vivian Elena; Lorenzo, Ingrid Fernández; Rodríguez, Patricia Martín. "Structural failure on telecommunication guyed mast under extreme winds” in 14th International Conference on Wind Engineering, ed. Porto Alegre, Brasil, 2015. 31. ASCE. “Guidelines for Electrical Transmission Line Structural Loading” in American Society of Civil Engineers, ed. New York, Estados Unidos, 1991, p. 204. 32. Oficina Nacional de Normalización. “Carga de viento. Método de cálculo. NC 285:2003” ed. Ciudad de La Habana, Cuba, 2003. 33. Aldereguía Sánchez, C., Ballote Álvarez, Javier; Fernández Lorenzo, Ingrid; Elena Parnás, Vivian B. “Comparación de métodos para determinar la longitud de rugosidad” in X Convención Científica Internacional De La Universidad De Matanzas, CIUM. 2021. Universidad de Matanzas: Matanzas, Cuba. 34. Fernández Lorenzo, I. et al. “Dynamic Analysis Of Self-Supported Tower Under Hurricane Wind Conditions. Journal of Wind Engineering And Industrial Aerodynamics” 2020. 35. Meza Chávez, J.E, Martín Rodríguez, Patricia; Fernández Lorenzo, Ingrid; Fundora, Tamara. “Cálculo De La Fuerza Estática Del Viento Del Proyecto De Edificación 1ra Y D, En La Habana” in 19 Convención Científica De Ingeniería Y Arquitectura. 2018, Universidad Tecnológica De La Habana, José Antonio Echeverría (CUJAE): La Habana, Cuba. 36. Nowak, Andrzej S. “System reliability models for bridge structures” Bulletin of the polish academy of sciences, 2004, vol. 52. 37. Yao, James T. P.; Kawamura, Hiroshi. “On structural reliability” Journal of Temporal Design in Architecture and the Environment, 2001, vol. 1. DETERMINACIÓN DE LA INTERACCIÓN DINÁMICA SUELO- ESTRUCTURA PARA OBTENER LA RESPUESTA DINÁMICA DE LAS ESTRUCTURAS A TRAVÉS DE UN MODELO SIMPLIFICADO Francisco Calderín Mestre1 1Departamento de Ingeniería Civil, Universidad de Oriente, Santiago de Cuba, Cuba, calderin@uo.edu.cu RESUMEN En este trabajo se realiza una revisión de los aspectos esenciales que caracterizan el fenómeno de la interacción dinámica suelo-estructura en la respuesta dinámica de las estructuras considerando que la cimentación esta soportada por un suelo suave permitiendo distinguir los aspectos esenciales de la solución del problema de la interacción inercial a través de un método simplificado a través de las formulaciones de las funciones de impedancia que permiten sustituir el efecto de la cimentación por un modelo simplificado que es comentado y criticado, así como el diseño cuando hay interacción adoptado por diferentes códigos. PALABRAS CLAVES: Interacción dinámica suelo- estructura, modelación numérica DETERMINATION OF THE SOIL–STRUCTURES DYNAMIC INTERACTION TO OBTAIN THE DYNAMIC RESPONSE OF THE STRUCTURES THROUGH A SIMPLIFIED MODEL ABSTRACT In the work is carried out a revision of the essential aspects that characterize the phenomenon of the soil- structure dynamic interaction in the dynamic response of the structures laid the foundation in soft soil leaving of their definition like problem and distinguishing the essential aspects of the inertial interaction solution is given to the problem of the inertial interaction, offers a simplified method of determining it, as well as formulations to determine the functions of impedance that allow to substitute a foundation for a model simplified lastly, are commented and it criticizes on as the design of the interaction it is approached in the different codes that have adopted it KEY WORDS: Soil-structure dynamic interaction, numerical modelling INTRODUCCIÓN La respuesta dinámica de las estructuras es un fenómeno sumamente complejo, que depende de un gran número de variables, tanto de las propiedades de estructura, como de la excitación a la que se encuentre sometida. A lo largo del tiempo se han desarrollado un gran número de metodologías y procedimientos de análisis con distintos grados de complejidad; desde la idealización de las estructuras como osciladores de un solo grado de libertad, hasta metodologías sumamente complejas de análisis con elementos finitos. El desarrollo de toda esta gama de metodologías ha permitido establecer un estado del arte en el cual se han identificado casos generales para los cuales los modelos sencillos y simplificados pueden ser una representación aceptable del fenómeno real, y para casos en los cuales es necesario utilizar modelos e hipótesis mucho más complejas. Sin embargo, un gran número de las metodologías ocupadas en la práctica, por más complejas que sean, no consideran la flexibilidad del sistema suelo-cimentación que sirve como sustento de la superestructura. Por lo regular, los ingenieros estructurales encargados de los análisis dinámicos de las edificaciones desconocen los conceptos teóricos en los cuáles se basa el comportamiento dinámico del suelo. Por otro lado, se puede encontrar a un gran número de ingenieros especialistas en el comportamiento dinámico del suelo, que desconocen a profundidad el comportamiento de las estructuras cuando son sometidas a este tipo de acciones. Como sucede en muchos temas “frontera” entre dos disciplinas, la influencia del comportamiento dinámico de los sistemas suelo-cimentación en la respuesta dinámica de la superestructura, suele recibir poca atención por parte de los analistas y diseñadores. A las modificaciones producidas tanto en el movimiento del terreno, como en la respuesta dinámica de la superestructura debida a la flexibilidad relativa del sistema suelo-cimentación, respecto a la rigidez del sistema, se le denomina interacción dinámica suelo-estructura. Aunque comúnmente se suele llamar a este fenómeno como interacción suelo- estructura exclusivamente, en realidad ésta es sólo la parte dinámica de la interacción, ya que la parte estática se refiere a los esfuerzos y deformaciones que se inducen, tanto en el suelo como en la estructura, debidas únicamente a las cargas gravitacionales. La importancia de la interacción dinámica suelo estructura en la respuesta estructural está definida por el contraste que existe entre la rigidez del sistema suelo- cimentación y la rigidez de la estructura, por lo que en estructuras rígidas el efecto será más pronunciado. 1- MATERIALES Y MÉTODOS INTERACCIÓN DINÁMICA SUELO ESTRUCTURA. Para poder entender la interacción dinámica suelo-estructura, se deben estudiar por lo menos tres disciplinas que influyen en el fenómeno. Por una parte, se deben conocer los conceptos básicos de la elasto- dinámica, que se refiere al comportamiento dinámico de medios elásticos continuos y se encarga del estudio y caracterización de la propagación de ondas. Por otra, es importante tener nociones de la dinámica de los suelos para entender cuáles son las propiedades del suelo que influyen en su comportamiento dinámico, y cómo se modifican cuando se someten ante cargas cíclicas. Finalmente, es necesario conocer la dinámica estructural, para identificar las implicaciones que tendrá el hecho de que los edificios no estén apoyados sobre una base infinitamente rígida. Para identificar los principales efectos que introduce el considerar que la base de las edificaciones es deformable, debemos primero analizar cualitativamente las diferencias fundamentales que tienen estos modelos, respecto a aquellos que consideran bases indeformables. Consideremos los movimientos que se producen en las diferentes partes de un sistema suelo-cimentación- estructura y las modificaciones que presenta en cada una de sus etapas. Consideremos dos estructuras desplantadas, una sobre un lecho rocoso (base indeformable) y otra sobre un suelo de rigidez relativamente baja (base deformable), tal y como se muestra en la Fig. 1. Fig.1 Respuesta dinámica de una edificación sobre roca y sobre un suelo blando [11] Queda claro que para el caso de la estructura con base indeformable, los movimientos en toda la cimentación son los mismos (puntos A y B), por lo que la excitación en la base de la estructura (punto B), está definida por el movimiento en la superficie (punto A). Además, esta excitación se considera que varía muy poco en todo el lecho rocoso. Recordemos que este movimiento queda definido por las características de la fuente sísmica (mecanismo de ruptura y magnitud del sismo) y por la atenuación del movimiento con la distancia. Dada esta excitación, la respuesta de la superestructura estará dada exclusivamente por las propiedades de la misma (masa, rigidez y amortiguamiento), así como por los desplazamientos que sean permitidos por su deformabilidad e inercia. Para describir la respuesta dinámica de la cimentación con base deformable, es necesario descomponer el problema en más partes. Para ello consideremos el esquema de la Fig. 2 Fig. 2. Diferencias del movimiento en distintos puntos de un sistema suelo-cimentación-estructura [11] El movimiento en el punto C corresponde al movimiento en el lecho rocoso definido anteriormente. La primera diferencia aparece, dado que el suelo que descansa sobre el lecho rocoso tendrá propiedades distintas a este, lo que se traduce en una variación del movimiento entre los puntos C, D y E, incluso en ausencia de la cimentación. Para el caso anterior (base indeformable), el movimiento en estos tres puntos sería el mismo. Esta variación en la mayoría de los casos se traduce en una amplificación del movimiento y un filtrado en el contenido de frecuencias del mismo; a estas modificaciones se les denomina “Efectos de sitio”. Posteriormente, cuando se introduce la cimentación, que es un elemento de rigidez mayor que el suelo, es claro que el campo de desplazamientos impuesto en el terreno libre, en ausencia de ésta, se verá modificado por la presencia de la misma. En general, esto produce una reducción en las amplitudes de los movimientos de alta frecuencia, e introduce una excitación rotacional en la base de la cimentación (punto O), ya que los puntos E y D no pueden moverse independientemente entre ellos. A las modificaciones del movimiento, debidas a la presencia de un elemento de mayor rigidez, suele denominarse “Interacción cinemática”, ya que en esta parte del fenómeno, solamente interviene la difracción de ondas producida por el contraste de rigideces entre el terreno y la cimentación. Si la estructura se somete a estas dos excitaciones de entrada (las traslaciones modificadas tanto por los efectos de sitio, como por la rigidez de la cimentación y las rotaciones producidas por el movimiento diferencial en los puntos (E y D), los movimientos que se experimentarán estarán compuestos por tres partes fundamentales. En primera instancia, los movimientos traslacionales que introduzcan las fuerzas de inercia de la superestructura en el sistema deformable suelo-cimentación. En segundo lugar, los desplazamientos debidos a los giros impuestos en el sistema deformable suelo- cimentación, por los momentos de volteo producto de las fuerzas de inercia de la superestructura. Estos dos movimientos corresponden a un movimiento de cuerpo rígido de la superestructura respecto al terreno. Finalmente, los desplazamientos permitidos por las propiedades y deformabilidad de la propia superestructura. A esta parte del problema, donde se consideran las deformaciones producidas por las fuerzas de inercia desarrolladas por la superestructura sobre el sistema suelo-cimentación, se le suele denominar “Interacción inercial”. En resumen, las principales diferencias entre los análisis de estructuras sobre base indeformable y sobre base deformable se esbozan en la Tabla 1. Incluso cuando los tres tipos de modificación son producto de la flexibilidad del suelo, en realidad se definen como parte de la interacción dinámica suelo-estructura, solamente las interacciones cinemática e inercial. De estas modificaciones, el “Efecto de sitio”, es el fenómeno del cuál se tiene un mayor conocimiento en el medio de la ingeniería, y el efecto que se introduce con mayor frecuencia en los análisis sísmicos, mediante el uso de los espectros de diseño reglamentarios y de los denominados espectros de sitio, que son cada vez más utilizados. Tabla 1 Diferencias entre las edificaciones con base indeformable y base deformable BASE DE SUELO INDEFORMABLE BASE DE SUELO DEFORMABLE No hay ninguna modificación del movimiento del terreno en los distintos puntos Existe una modificación del movimiento del terreno en los distintos puntos (Efecto de sitio) No existen desplazamientos relativos entre la cimentación y el terreno. Existe una modificación del movimiento de campo libre debido a la presencia de la cimentación. (Interacción cinemática) No existen componentes de movimiento de cuerpo rígido debido a la superestructura (Traslación y cabeceo) Existe un desplazamiento relativo de la cimentación respecto al terreno, producido por las fuerzas de inercia de la superestructura (Interacción Inercial) INTERACCIÓN CINEMÁTICA. La “Interacción cinemática” es el fenómeno que desde el punto de vista estructural es menos conocido y estudiado. En general se suele pensar, que el no considerar la “Interacción cinemática”, está del lado de la seguridad debido a la reducción del movimiento de altas frecuencias que produce, y a que la rotación de la cimentación introducida suele tener poca influencia en las aceleraciones y desplazamientos de la superestructura. Esta consideración es correcta para el caso de edificaciones robustas, con relaciones de esbeltez bajas y cimentaciones relativamente superficiales. Sin embargo, para el caso de estructuras altas con cimentaciones más profundas, el efecto del cabeceo puede introducir componentes de movimiento importantes, provocando que, si en el diseño que no tomase en cuenta la “Interacción cinemática”, se estaría del lado de la inseguridad. En general, la Interacción cinemática en términos de la modificación del movimiento, tiene una mayor influencia en las estructuras cimentadas sobre cajones de cimentación que en aquellas cimentadas sobre pilotes. Puede definirse la interacción de la cinemática también como el resultado de la presencia de elementos de la cimentación rígidos en el suelo que causan que los movimientos de la cimentación se desvíen de los movimientos del campo -libre lo que trae como resultado que se promedien los movimientos de la base. Este fenómenos puede describirse a través del uso de modelos simples utilizando para el análisis las funciones de transferencia, para las cimentaciones poco profundas en la superficie del suelo, se muestran para estas las formulaciones empleando las funciones del transferencia útiles, para proporcionar recomendaciones considerando cómo las funciones transferencia pueden usarse para modificar un espectro de respuesta de campo-libre o una historia en el tiempo del movimiento para estimar los movimientos de entrada adecuados para el uso en la práctica. INTERACCIÓN INERCIAL El alargamiento del periodo fundamental de la estructura y la modificación del amortiguamiento que produce la “Interacción inercial”, son las variaciones más comúnmente asociadas con la interacción dinámica suelo-estructura, y son las modificaciones que suelen incluirse en los códigos de diseño, y por lo tanto las que consideran por lo general, los ingenieros calculistas. Las estructuras con base deformable incrementan su periodo estructural debido a la flexibilización del sistema suelo-estructura, resultante de la flexibilidad de la base. Por otra parte, el amortiguamiento se modifica debido a dos fenómenos; el amortiguamiento histerético que aporta el suelo al sistema y la energía que se irradia en forma de ondas elásticas a través del suelo, debido al movimiento de la cimentación que produce perturbaciones en éste. Estas ondas interactúan con las ondas sísmicas incidentes, lo que puede producir aumentos o reducciones en el nivel de amortiguamiento, por lo cual los sistemas con base deformable, pueden tener incrementos (en la mayoría de los casos) o decrementos en el nivel de amortiguamiento respecto a los sistemas con base indeformable. Uno de los conceptos íntimamente ligados con la interacción inercial es el de las funciones de impedancia, que hace referencia a la rigidez dinámica del sistema suelo-cimentación, considerándola sin masa. Dado que la rigidez es la relación que existe entre la fuerza aplicada y el desplazamiento producido, la función de impedancia o rigidez dinámica, se refiere a la fuerza (o momento) dinámica necesaria para producir un desplazamiento (o rotación) unitario en la cimentación. Cómo este es un fenómeno dinámico que involucra la respuesta inercial del suelo, el valor de las funciones de impedancia, depende de la frecuencia de excitación DETERMINACIÓN DE LA FUNCIÓN DE IMPEDANCIA. En el pasado los efectos de interacción se tornaban en cuenta reemplazando al suelo por resortes y amortiguadores constantes, los cuales se calculaban para cimentaciones idealizadas como discos superficiales apoyados sobre suelo uniforme. Este criterio ha evolucionado notablemente. El estado actual del conocimiento permite analizar la interacción suelo-estructura de una forma más realista usando el concepto de rigideces dinámicas o funciones de impedancia. Efectivamente, las técnicas actuales sustituyen al suelo por resortes y amortiguadores (ver Fig. 3) dependientes de la frecuencia de excitación, teniendo en cuenta aspectos como la profundidad de desplante de la cimentación y el perfil estratigráfico del subsuelo, los cuales influyen significativamente en el fenómeno de interacción entre el suelo y la estructura. Fig. 3 Modelo de resorte elasto-plástico desacoplado para cimientos rígidos. La función de impedancia describe las características de rigidez y amortiguamiento de la interacción suelo - cimentación. Debe considerar la estratigrafía del suelo, la rigidez de la cimentación y su geometría y generalmente se calcula usando las propiedades lineales equivalentes apropiadas del suelo para la deformación de cortante dinámica “in situ” Las también llamadas funciones de rigidez del suelo se definen como la relación en estado estacionario entre la fuerza (momento) excitadora y el desplazamiento (rotación) resultante en la dirección de la fuerza, para una cimentación rígida carente de masa y excitada armónicamente. Estas funciones son de tipo complejo y dependientes de la frecuencia de excitación. Matemáticamente expresan la parte real, la rigidez e inercia del suelo y, la imaginaria, los amortiguamientos del material y geométrico del suelo. Físicamente representan los resortes y amortiguadores equivalentes del suelo de soporte. Usualmente, la rigidez dinámica suele expresarse mediante una función compleja dependiente de la frecuencia de excitación, de la forma: (5)  0 ( ) ( ) (1 2 )m m m mK K k i c i   = + + (1) donde m indica el modo de vibración de la cimentación, que puede ser de traslación o rotación; 0 mK es la rigidez estática mientras que km, y Cm son los coeficientes de impedancia dependientes de la frecuencia adimensional. El factor complejo )21( i+ intenta aislar el efecto del amortiguamiento material del suelo, en los coeficientes de rigidez y amortiguamiento. Por otra parte, si Km representa el resorte y Cm el amortiguador equivalente del suelo, la función de impedancia se define alternativamente mediante la expresión compleja  ( ) ( )m m mK K i C  = + (2) Igualando las partes real e imaginaria de las ecs. 1 y 2 se encuentran las relaciones entre el resorte y amortiguador con los coeficientes de impedancia, que resultan ser 0 (( ) 2 )m m m mK K k i c = − (3) ( 2 ) /om m m mC K c k  = + (4) El término mK , representa un resorte lineal que expresa tanto la rigidez como la inercia del suelo; la dependencia de la frecuencia se debe a la influencia que ésta tiene en la inercia, ya que la rigidez del suelo es esencialmente independiente de la frecuencia. En tanto que el término representa un amortiguador viscoso que expresa los amortiguamientos material y geométrico del suelo; el primero es prácticamente independiente de la frecuencia y se debe a comportamiento histerético, mientras que el segundo es dependiente de la frecuencia y se debe a la radiación de ondas El cálculo de funciones de impedancia implica la solución de un problema de valores de frontera mixto, utilizando la teoría de propagación de ondas. Los desplazamientos en la interfaz entre el suelo y la cimentación están prescritos por movimientos armónicos unitarios de esta última, mientras que los esfuerzos en la superficie del terreno son nulos. Las soluciones analíticas que se han publicado están orientadas principalmente a la obtención de las rigideces estáticas, pero no de los coeficientes de impedancia por lo que es necesario acudir a la aplicación de métodos numéricos. Tassoulas y Kausel [1] han desarrollado un eficiente método de elementos finitos para cimentaciones axisimétricas enterradas en depósitos de suelo estratificado horizontalmente. La principal ventaja de este método radica en el uso de hiperelementos que se sincretizan sólo en la dirección vertical, así como de fronteras transmisoras consistentes que reproducen rigurosamente el comportamiento físico del medio infinito. SOLUCIONES APROXIMADAS Para fines de diseño, los efectos de interacción suelen tenerse en cuenta sólo en el modo fundamental de vibración. Si la estructura real de varios grados de libertad responde en su condición de base rígida esencialmente como un oscilador elemental, el sistema suelo- estructura puede reemplazarse por un sistema equivalente representado como se muestra en la Fig. 4. Los parámetros T y del oscilador expresan el periodo fundamental y amortiguamiento asociado de la estructura supuesta con base indeformable. En tanto que M y H se interpretan como la masa y altura efectivas de la estructura, respectivamente; esto es, la masa que participa en el modo fundamental y la altura de la resultante de las fuerzas de inercia correspondientes. Fig. 4 Modelo de oscilador simplificado para el análisis de la interacción inercial sometido a una excitación lateral El uso de criterios aproximados para el periodo y amortiguamiento efectivos es muy útil en la estimación de los efectos de interacción conforme se especifica en reglamentos sísmicos. Despreciando la masa de la cimentación y su momento de inercia, así como el acoplamiento en las rigideces de traslación y rotación del suelo, se han derivado varias expresiones de aplicación práctica (Avilés y Pérez-Rocha [1]). Una solución que ha ganado aceptación por su sencillez y precisión establece las siguientes expresiones para el periodo y amortiguamiento del sistema (Avilés y Pérez-Rocha [1]) 2 1 )( ~ 222 rh TTTT ++= (5) 2 2 2 2 3 ~ 21 ~ 21 ~ ~       + +      + +      = T T T T T T r r rh h h    (6) 2 1 2       = h h K M T  (7) ( ) 2 1 2 2         + = r r K DHM T  (8) son los periodos naturales que tendría la estructura si fuera infinitamente rígida y su base sólo pudiera trasladarse o girar, respectivamente; además: h h h KT C ~   = (9) r r r KT C ~   = (10) Donde h y r son los coeficientes de amortiguamiento del suelo en los modos de traslación y rotación respectivamente. Con rigor, el periodo del sistema habría que calcularlo mediante iteraciones, ya que los resortes K, y Kr deberían ser evaluados para una excitación armónica de periodo. Sin embargo, una aproximación razonable se obtiene usando los valores de las rigideces estáticas, o aún mejor, los valores de las rigideces dinámicas correspondientes al periodo fundamental de la estructura con base rígida. El amortiguamiento del sistema se determina directamente una vez conocido su periodo efectivo. En la Fig.5 se muestra la razón de alargamiento del periodo y el factor de amortiguamiento de la cimentación para una estructura de un solo grado de libertad simple con una cimentación circular rígida en un semiespacio visco-elástico. Fig.5 Razón de alargamiento del periodo y el factor de amortiguamiento de la cimentación para una estructura de un solo grado de libertad simple con una cimentación circular rígida en un semiespacio visco- elástico ( = 0.4, m = 0.15). 2- RESULTADOS Y DISCUSIÓN CARACTERÍSTICAS ESPECÍFICAS DE LOS EDIFICIOS IMS DE 18 NIVELES. Son edificios de dieciocho niveles formados por pórticos de hormigón armado, cuya altura rebasa los 45 metros. Con una planta rectangular de cuatro por ocho módulos, o de cinco por cinco módulos. (Ver Fig. 6) Tienen sótano, planta baja libre y diecisiete niveles de vivienda. Número de niveles: Planta baja + diecisiete niveles de vivienda. Largo: 34,50 m. Ancho: 17,70 m. Ancho con voladizos: 19,65 m. Puntal típico (piso a piso): 2,70 m. Altura del nivel 0 a la azotea: 48,60 m. Altura del nivel 0 a cuarto de motores: 51,30 m. Área de plantas de viviendas: 8753,13 m2.Área libre en planta baja: 352,80 m2. Área de circulación: 1525,04 m2. Área de servicio (oficinas en planta baja y sótano): 668,24 m2. Área total: 11299,21m2. [9] Fig. 6: Planta y elevación de los edificios IMS. a) y b) IMS 18-1 y c) IMS 18-3 [6,10] El surtido de elementos del sistema está compuesto por un reducido número de estos que clasifican como elementos estructurales (cimiento aislado (plato-vaso); columnas de uno, dos y tres tramos; losas casetonadas; vigas de borde y tímpanos) y no estructurales Escaleras; paneles de fachada; parapetos y pretiles; paneles divisorios y cabinas sanitarias (Ver Fig. 7) CARACTERIZACIÓN DE LOS MATERIALES. Los elementos que conforman el sistema son de hormigón armado, prefabricados, especificándose en los planos una resistencia característica del hormigón de R´bk de 35.0MPa. Al acero de refuerzo, longitudinal, se le especifica una resistencia característica de Rak de 400.0 MPa, mientras para los cercos se especifica un acero de Rak igual a 240.0 MPa. Para los morteros de las juntas se fija una R´bk de 20.0MPa. El sistema utiliza la tecnología de postensado, colocándose en la junta viga losa dos cables de 4 Ø 7 mm de alto límite elástico con una fuerza promedio final de 169.4 kN. [6,10] Fig. 7 Dimensiones algunos de los elementos estructurales y su refuerzo. a), b) y c) Tímpano simple; d) Columna; e) y f) Unión columna losa El postensado se realiza cuando el hormigón de la junta alcanza al menos una resistencia R´bk de 20.0Mpa. Módulo de elasticidad del hormigón es Ebj=36916MPa Las cargas permanentes totales en entrepiso y cubierta fueron respectivamente de 5.21 kN/m2 y 5.53kN/m2 Tabla 2 Resumen de las cargas y los pesos de la estructura en cada nivel. IMS 18-1[2,3] Ni vel CP (KN) CTLD (KN) CTCD (KN) Peso (KN) Masa (KN/m/s2) 1 5534 169 339 5913 603 2 5793 169 339 6174 629 3 5329 169 339 5708 582 4 5329 169 339 5708 582 5 5329 169 339 5708 582 6 5329 169 339 5708 582 7 5329 169 339 5708 582 8 5329 169 339 5708 582 9 5329 169 339 5708 582 10 5329 169 339 5708 582 11 5329 169 339 5708 582 12 5329 169 339 5708 582 13 5329 169 339 5708 582 14 5329 169 339 5708 582 15 5329 169 339 5713 582 16 5329 169 339 5713 582 17 5643 169 339 6027 614 18 5405 667 0 5988 610 To tal 96978 3546 5758 104028 10604 Para el cálculo de las cargas temporales se tomo una sobrecarga de 1.5 KN/m2 (habitaciones de viviendas típicas; según (NC: 53-38-1985), se considera 0.5 KN/m2 como carga de larga duración y el resto (1.0 KN/m2) como carga de corta duración. (Ver tabla1). Para la fuerza sísmica se tomó un factor de escala de Fs = 0.736 CÁLCULO DE LAS PROPIEDADES DINÁMICAS DEL SUELO Fig. 8 Tensiones del estrato del suelo (Fuente: Elaboración propia). 1) Cálculo del Módulo de Cortante Máximo a bajas deformaciones: ( ) ( ) 2 2 973 0 5 326 0 1 e G ee  − = + . . * ` G01=256.5KN/m2 G02=3814 KN/m2 G03=14687KN/m2 2) Cálculo de las velocidades de la onda de corte: 01 37 08 1 G V m seg S p   = =    . / VS1=37.08m/seg VS2=45.98m/seg VS3=87.61m/seg 3) Cálculo de la velocidad de propagación promedio de la onda de corte: 1 2 0 226 1 2 H H H H Hi n V V V V Vs S S Si Sn = + + + + =.... . Luego se despeja y se obtiene: VS =76.99 m / seg 4) Cálculo del periodo fundamental del depósito de suelo. 4 0 904 1 H T seg s Vs = = . 5) Calculo del Peso Unitario promedio del depósito: 3 31 86 18 hi iSprom t m KN m hi   = = =  . / / 6) Determinación de la Densidad de Masa del depósito: 4 2 4 0 20 2 0 Sprom tseg m KNseg m g   = = =. / . / 7) Cálculo del Módulo de Corte Máximo a bajas tensiones de corte: 2 2 1185 /G V t m o s = = ANÁLISIS DE LA ISE MEDIANTE EL CÓDIGO MEXICANO NO.103-BIS TOMO II 2004. [9] ANÁLISIS ESTÁTICO Resumen de los datos del depósito de suelo:  = 2.00KNseg /m 2 G0 =11850KN /m2 VS = 76.99 m / seg TS1= 0.904 seg 𝐻𝑠 = 17.4 𝑚 𝜇 = 0.33 Resumen de los datos de la estructura: Peso total de la estructura (W0)=104024 KN Altura de la estructura = 48.6 m Desplazamiento de la estructura Δx (m)= 0.019023 Δy (m)= 0.002181 Periodo de la estructura (Te) =1.4seg V=16903.9KN Área de cimiento = 352.8m2 Tab. 3 Resumen de la distribución de la fuerza cortante del edificio sin tener en cuenta el efecto de ISE según NC 46: 2017 [5] (Fuente: Elaboración propia). Nivel Hi(m) Hi(m) W(ton) 𝑊𝑖∗ℎ𝑖𝑘 𝐶𝑣𝑖 Fi (ton) Vi (ton) 𝑀0 (ton) 1 2.7 2.7 591.3 2496.2 0.0020 3.33 1690.39 8.99 2 2.7 5.4 617.4 7120.9 0.0056 9.50 1687.06 51.28 3 2.7 8.1 570.8 11851.9 0.0094 15.81 1677.56 128.02 4 2.7 10.8 570.8 17986.6 0.0142 23.99 1661.76 259.06 5 2.7 13.5 570.8 24858.1 0.0196 33.15 1637.77 447.53 6 2.7 16.2 570.8 32380.3 0.0255 43.18 1604.62 699.55 7 2.7 18.9 570.8 40490.8 0.0319 54.00 1561.44 1020.55 8 2.7 21.6 570.8 49140.8 0.0388 65.53 1507.44 1415.52 9 2.7 24.3 570.8 58292.6 0.0460 77.74 1441.91 1889.03 10 2.7 27 570.8 67914.3 0.0536 90.57 1364.17 2445.37 11 2.7 29.7 570.8 77979.6 0.0615 103.99 1273.60 3088.57 12 2.7 32.4 570.8 88465.6 0.0698 117.98 1169.61 3822.43 13 2.7 35.1 570.8 99352.6 0.0784 132.49 1051.63 4650.57 14 2.7 37.8 570.8 110623.4 0.0873 147.53 919.14 5576.47 15 2.7 40.5 571.3 122369.7 0.0965 163.19 771.61 6609.20 16 2.7 43.2 571.3 134374.1 0.1060 179.20 608.42 7741.40 17 2.7 45.9 602.7 154785.3 0.1221 206.42 422.20 9474.63 18 2.7 48.6 598.8 167072.3 0.1318 222.80 222.80 10828.31 Σ 12675547 1.0000 1690.3 6015660 El cortante se distribuirá a lo alto del edificio de acuerdo con (NC 46: 2017) de la siguiente manera: *F C Vi vx B= ( ) kW hi iC vi kW hi i =  * * de donde 𝑘 = 0.75 + 0.5𝑇 = 1.45 ya que 0.52 5 T He s T Hs e . Como se utiliza el método estático, He se tomará como 0.7 de la altura total de la estructura. He = 0.7 (Ht) He = 0.7 (48.6) = 34.02 m Luego: 1.4 17.4 + =079<2.5 0.904 34.02       Hay Interacción Suelo – Estructura Cálculo de la Rigideces (Tab. A2 de No.103-BIS Tomo II 2004) 10 6 10 6 A R m R m x v = = = =. . 8GR R 2 5x x1 1 1 =079<2.5 2 2H 3 4s D D K x v R Hx s       = + + +          −       1010727 484K KN m x = . / Rigidez vertical (𝐾𝑣) 4 1 1 28 1 0 5 1 0 85 0 28 1 1 D GR R D D Hv v sK v Dv H Rv Rs v Hs          = + + + −        −      −    . . . . * 1611792 /K KN mx = Rigidez debido al giro (𝐾𝑟) Radio de rotación (𝑅𝑟) 3 4 16 22.81 3 r B L R m π = = ( ) 38 2 1 1 1 0 71 3 1 6 r r r s r s GR R D D K v H R H       = + + +      −       . * 867063269 8 /. r KN mK = Procedimiento para el cálculo del cortante Basal (𝑉𝑜 ̃ ) 𝑉𝑜 ̃ = 𝑎′𝑊0 − (𝑎′ − ?̃?′) A partir de la expresión anterior se obtiene el cortante basal donde: 𝑊𝑒 = 0.7𝑊0 Porque se está utilizando el método estático para el análisis 𝑊𝑒 = 0.7(104024𝐾𝑁) = 72816.8𝐾𝑁 Los valores de 𝑎′ y ?̃?′ se obtienen del siguiente análisis: En función del periodo dominante del sitio (𝑇𝑠) se obtendrán los siguientes factores: Como: 𝟎. 𝟓 < 𝑻𝒔 < 𝟏. 𝟓 𝐬𝐞𝐠 0.5 < 0.904 < 1.5 seg Coeficiente sísmico (c) 𝑐 = 0.28 + 0.92(𝑇𝑠 − 0.5) = 0.28 + 0.92(0.904 − 0.5)= 0.65 Periodo característicos de espectro de aceleraciones (y ) 𝑇𝑎 = 0.2 + 0.65(𝑇𝑠 − 0.5) = 0.2 + 0.65(0.904 − 0.5)= 0.46 seg 𝑇𝑏 = 1.35 seg Porque 𝑻𝒔 > 𝟏. 𝟏𝟐𝟓 𝐬𝐞𝐠 𝐾 = 2 − 𝑇𝑠= 1.096 Luego: Como: 𝟎. 𝟓 < 𝑻𝒔 < 𝟏. 𝟓𝟓 El coeficiente de aceleración del terreno (𝑎0) se calcula de la siguiente manera: 𝑎0 = 0.1 + 0.15 (𝑇𝑠 − 0.5) = 0.1 + 0.15 (0.904 − 0.5) = 0.16 Como: 𝑻 > 𝑻𝒃 𝟏. 𝟒 > 𝟏. 𝟑𝟓 Ordenada del espectro de aceleraciones (𝑎) 𝑎 = 𝛽𝑐𝑝 (Tb/T)= 0.604 Luego para realizar los análisis sísmicos: Factor de ductilidad (𝑄′) ( )( ) ( )( ) 2 2 1 1 096 1 1 096 1 35 1 4 1 . . . . b p K K T T= + − = + − = ( )1 1 3 86pQ Q K   = + − = . Factor de sobrerresistencia (R) Como 𝑇 > 𝑇𝑎 R = 2 (pág. 70 de la norma) [9] Por tanto: 0 078 a a Q R  = =  . * Como 𝑇 > 𝑇𝑎 𝑄, = 𝑄 = 4 (pág. 62 de la norma) ã 0 075 a Q R  = =  . * finalmente el cortante basal de la estructura teniendo en cuenta el efecto de la ISE es: ( )0 ã 7895 42.eV a W a W KN  = − − = Procedimiento para el cálculo del periodo efectivo del sistema suelo-estructura ( eT ). A partir de la siguiente expresión: e e X r T T T T= + +2 2 2 Donde: 2 0 538 x We T seg Kxg  = = . ( ) 2 2 0 66 e r r We H D T seg Kg  + = = . Finalmente 𝑇 ?̃? 1 64eT seg= . Cálculo del amortiguamiento efectivo del sistema suelo-estructura Coeficientes de amortiguamiento del suelo 83 77 10x x x C T K   −= = . * 104 17 10r r e r C T K   −= = . * Procedimiento para hallar los valores de amortiguamiento de la cimentación (𝐶𝑥 y 𝐶𝑟) (Tab. A2 de No.103-BIS Tomo II 2004) [9] Para 𝐶𝑥: 0 956 2 r s s R H   = = . 0 62m x s WR V  = = . 2 4 5 x e T   = = . 0.64<1xxs s    = = por tanto: ( ) 2 0 65 0 02 1 1 2 xs x xs c    = = − − . . Para 𝐶𝑟: ( )( )2 1 1 2 1 38 2 r p s R v v H  = − − =* . 1 33r p s WR v  = = . 1 04>1r rp p    = = . por tanto: 2 2 0 3 1 19 1 r r r c   = = + . . Finalmente el amortiguamiento efectivo es: 3 2 2 2 2 0 03 1 2 1 2 e x x r r e e x e r T T T T T T             = + + =      + +      . Calculo de los desplazamientos de la estructura con interacción: ( )0 0 0 i i i r V M X X h D V K   = = + +    Momento de volteo en la base de la cimentación (𝑀0): 0 601565 i i M F h KN= = * 18 7895 42 601565 0 019023 48 6 2 0 025 16903 9 86706326 8   = + + =    . . ( . ) . . . xX m 18 0 026 y X m= . Tab. 4 Resumen de la distribución de la fuerza cortante del edificio considerando el efecto de ISE según la norma mexicana (Fuente: Elaboración propia). Niv el Hi( m) hik(m) W(ton) 1ton =10KN 𝑊𝑖∗ℎ𝑖𝑘 𝐶𝑣𝑖 Fi(ton) 1ton =10KN Vi (ton) 1ton =10KN 1 2.7 4.22 591.3 2496.2 0.0020 1.55 789.54 2 5.4 11.53 617.4 7120.9 0.0056 4.44 787.99 3 8.1 20.76 570.8 11851.9 0.0094 7.38 783.55 4 10.8 31.51 570.8 17986.6 0.0142 11.2 776.17 5 13.5 43.54 570.8 24858.1 0.0196 15.48 764.97 6 16.2 56.73 570.8 32380.3 0.0255 20.17 749.8 7 18.9 70.93 570.8 40490.8 0.0319 25.22 729.31 8 21.6 86.09 570.8 49140.8 0.0388 30.61 704.09 9 24.3 102.12 570.8 58292.6 0.0460 36.31 673.48 10 27 118.98 570.8 67914.3 0.0536 42.30 637.17 11 29.7 136.61 570.8 77979.6 0.0615 48.57 594.87 12 32.4 154.98 570.8 88465.6 0.0698 55.10 546.30 13 35.1 174.05 570.8 99352.6 0.0784 61.89 491.19 14 37.8 193.80 570.8 110623.4 0.0873 68.91 429.93 15 40.5 214.19 571.3 122369.7 0.0965 76.22 360.40 16 43.2 235.20 571.3 134374.1 0.1060 83.70 284.18 17 45.9 256.81 602.7 154785.3 0.1221 96.41 200.48 18 48.. 6 270.11 598.8 167072.3 0.1318 104.07 104.07 Σ 12675547 1.0000 789.54 Tab. 5. Resumen de los parámetros de control de la estructura (Fuente: Elaboración propia). Nomas Período (seg) Cortante Basal. (kN) Desplazamientos (m) x y Sin ISE 1.40 16903 .9 0.019 0 .021 Con ISE N.Mex 1.64 7895 .42 0.025 0.026 Esta Tabla 5 permite visualizar los efectos de la interacción suelo estructura que se resumen en la conclusión uno CONCLUSIONES Se puede concluir que: 1- Se ha comprobado que las propiedades del subsuelo afectan la respuesta sísmica de una estructura de tres formas distintas: influenciando las características y el contenido de frecuencias del terremoto en el “campo libre”, modificándolas según el tipo y forma de la cimentación, y alterando el periodo fundamental y el amortiguamiento efectivo de la estructura. El primer efecto se incorpora en el diseño usando espectros o coeficientes sísmicos con formas distintas para diferentes suelos (en particular roca, suelos promedios y depósitos profundos de suelo blando). El segundo lleva a la consideración de efectos torsionales mediante excentricidades accidentales, pero debería resultar también en una disminución de las aceleraciones horizontales para edificios con losas de cimentación rígidas y de grandes dimensiones o para cimentaciones profundas. El tercero se toma en cuenta calculando el periodo y amortiguamiento efectivo de la estructura incluyendo la flexibilidad de la cimentación. 2- La interacción suelo estructura (ISE) permite determinar simultáneamente el comportamiento del suelo de fundación con la edificación frente a eventos sísmicos, demostrando que ante tal escenario el suelo coadyuva a una mejor distribución de esfuerzos en todos los elementos estructurales de la edificación, mediante la disipación de cierto porcentaje de energía inducida por un sismo. 3- La NC 46:2017 al no considerar los efectos de ISE arroja valores de cortante cuantitativamente mayores que el código empleado en esta investigación que si tienen en cuenta dicho efecto. (NTC No.103- BIS Tomo II 2004) AGRADECIMIENTOS Un agradecimiento especial al ing Yusnel Vega Dávila y al ing. Yoander R Cudina Rodríguez, así como al MSc. Ismael R. Diéguez Cruz por sus aportes al trabajo y atinadas sugerencias técnicas. REFERENCIAS 1. Avilés J y Pérez-Rocha L, “Site effects and soil-structure interaction in the ValIey of Mexico”, Soil Dynamics and Earthquake Engineering, Vol. 17, p. 1998. 2. Comité Estatal de Normalización NC 283 2003: Densidad de materiales naturales, artificiales y de elementos de construcción como carga de diseño, ICS 91.08, 1 Edición, 2003. 3. Comité Estatal de Normalización NC 284 2003: Edificaciones. Cargas de uso, ICS 91.08 1 Edición, septiembre del 2003. 4. Comité Estatal de Normalización NC 450 2006: Edificaciones-Factores de cargas o ponderación- Combinaciones. ICS: 91.080.40; 91.080.99 1. Edición Octubre 2006. 5. Construcciones sismorresistentes. Requisitos básicos para el diseño y construcción. NC 46:2017. 4. (2017). Edición Cuban National Bureau of Standards. 6. Diéguez Cruz, Rolando: Evaluación de la vulnerabilidad sísmica estructural en edificios IMS del Centro Urbano Sierra Maestra de Santiago de Cuba. Tesis de Maestría en Hábitat y Medio Ambiente en Zonas Sísmicas. Febrero 2011. 7. Informe Ingeniero Geológico. Proyecto Técnico Ejecutivo. Edificios Altos IMS No 3, 4 y 5. Ave. Victoriano Garzón. ENIA. Santiago de Cuba.1984. 8. Medina, S., Luis, Rodríguez, G., Rolando, “Sistemas Constructivos Utilizados en Cuba” Facultad de Ingeniería Civil, ISPJAE.1986. 9. Normas técnicas complementarias sobre criterios y acciones para el diseño estructural de las edificaciones (NTCDS-RCDF). Gaceta Oficial del Distrito Federal Órgano del Gobierno del Distrito Federal 6 de octubre de 2004. Tomo II No.103 – BIS. 10. Vega Dávila, Yusnell R; Cudina Rodríguez, Yoander R. Estudio de la vulnerabilidad sísmica estructural del edificio IMS-18-I Trabajo de Diploma, Julio 2007. 11. Wolf, J. P., Dynamic Soil-Structure Interaction, Prentice-Hall. Englewood Cliffs, NJ. 466p. 1985. 1 “DESASTRES VS DESARROLLO”, APUNTES DE UNA PROPUESTA METODOLÓGICA PARA LOS PROCESOS FORMATIVOS UNIVERSITARIOS Ingrid N. Vidaud Quintana 1, Irina Pérez Prada 2, Yordenis Bayard Isaac 3 1 Departamento de Ingeniería Civil. Facultad de Construcciones. Universidad de Oriente. ingrid@uo.edu.cu 2 Departamento de Ingeniería Civil. Facultad de Construcciones. Universidad de Oriente. irinapp@uo.edu.cu 3 Estudiante 5to año Ingeniería Civil. Universidad de Oriente. RESUMEN Comprender a los desastres considerando la importancia del fenómeno natural, pero también la de la vulnerabilidad que presenta el entorno, permite visualizar que la probabilidad de que estos ocurran depende no sólo de factores de la naturaleza, sino de factores sociales, económicos, políticos, y culturales; muy relacionados con el hombre en un momento determinado, que hacen de su entorno más o menos vulnerable. En este contexto se presenta en esta investigación una propuesta de asignatura electiva centralizada para la Universidad de Oriente; en la que el estudiante se pertrecha de las esencias en la relación Desastre – Desarrollo; y la implicación y responsabilidad que como ser humano desempeña en la mitigación y prevención de los desastres, desde cualquiera que sea su futura profesión. La novedad científica se soporta en que la propuesta se erige sobre la base de los vacíos cognoscitivos frente al tratamiento de los desastres y los modos de actuar profesionales y ciudadanos. PALABRAS CLAVES: desastres, gestión de riesgos, riesgos de desastres. ABSTRACT Understanding disasters considering the importance of the natural phenomenon, but also that of the vulnerability presented by the environment, makes it possible to visualize that the probability of their occurrence depends not only on natural factors, but also on social, economic, political, cultural and environmental factors. closely related to man at a given time, which makes their environment more or less vulnerable. In this context, a proposal for a centralized elective subject for the University of Oriente is presented in this research; in which the student equips himself with the essences in the Disaster- Development relationship; and the implication and responsibility that as a human being he carries out in the mitigation and prevention of disasters, regardless of his future profession. The scientific novelty is supported by the fact that the proposal is based on the cognitive gaps in the treatment of disasters and the professional and citizen ways of acting. KEY WORDS: disasters, risk management, disaster risks INTRODUCCIÓN Uno de los impactos más notables del cambio climático a nivel global es el aumento de la frecuencia e intensidad de los desastres naturales [1], eventos potencialmente mortíferos y destructores. La catástrofe de Haití, y el paso del huracán Sandy (Figura 1) por varios países, evidenciaron, por ejemplo, una vez más, cómo las emergencias pasivas conllevan inexorablemente a la ocurrencia de catástrofes con dimensiones incalculables en el ámbito medioambiental, físico, social, económico y psicosocial de comunidades, pueblos y países” [1]. Entendida la gestión de riesgos de desastres como “la reducción efectiva de los niveles de vulnerabilidad y las áreas de riesgos en las comunidades para lograr una disminución potencial de los niveles de morbimortalidad asociados a las situaciones de emergencias y desastres” [2], se reconoce una preocupación internacional hacia estas estrategias. 2 Puerto Príncipe. Terremoto de Haití en enero 2010. Santiago de Cuba. Huracán Sandy en octubre 2012. Figura 1. Imágenes de eventos desastrosos en la región del Caribe. Una dificultad esencial y muy generalizada, es el escaso dominio de la planificación de actividades programáticas (no puede reducirse a una simple campaña) relacionadas con la administración integral del desastre (Figura 2). Cuba, por su condición insular, situada en una zona tropical del planeta, sufre casi todos los años, al menos el embate de uno de ellos: los huracanes, además de que también por su ubicación geográfica, se encuentra ubicada en una zona sismogeneradora importante, la región suroriental del país, la que “se considera como la de mayor peligro sísmico del territorio nacional” [3] (Figura 3). Desde 1959, el gobierno revolucionario diseñó un sistema para la prevención y reducción de daños ocasionados por estos eventos, que ha demostrado ser eficaz. Muchos son los avances en materia de prevención y mitigación de desastres que exhibe Cuba con su Sistema de Defensa Civil, lo que es reconocido por muchos países” [3]. Aunque todavía subsisten determinados vacíos cognoscitivos en la gestión de los riesgos, en Cuba hoy se ofrece especial atención y prioridad a la organización, planificación y principalmente la capacitación contextualizada de las comunidades a lo largo y ancho del país; lo que se aprecia al consultar la Directiva No. 1 del Presidente del Consejo de Defensa Nacional para la reducción de desastres [4]. Figura 2. Ciclo para el manejo y administración integral del desastre. 3 Terremoto de 1932 en Santiago de Cuba (M=6.75) Baracoa tras paso huracán Irma en 2017. Figura 3. Efectos de terremotos y huracanes en Cuba. Se aspira a una cultura de desastres en que la formación profesional puede desempeñar un importante rol; misma en que “se incluyan los fundamentos básicos de preparación, prevención y mitigación, así como elementos de actuación en caso de emergencias ante la amenaza u ocurrencia de fenómenos naturales” [5]. Se dirige la atención entonces a las universidades y en específico a la Universidad de Oriente. En este sentido, y sobre la base de reiteradas demandas estudiantiles y propuestas (a raíz de procesos de evaluación institucional y acreditación de carreras), la Dirección de Formación del Profesional en la Universidad de Oriente se traza la meta en el curso 2017-2018, de centralizar un grupo de asignaturas electivas; de forma tal de crear un banco de asignaturas que fueran atractivas para los estudiantes de todas las carreras y años. Es en este contexto que en el Departamento de Ingeniería Civil surge la idea de una asignatura vinculada a la Teoría de los Desastres y la respuesta que en estas situaciones excepcionales deben enfrentar los futuros profesionales graduados de esta institución. La idea resultó acogida por la dirección universitaria dado en que su principal motivación se ubica en percibir a los desastres observando la importancia del fenómeno, pero también la de la vulnerabilidad que presenta el entorno, sobre la base de la relación Desastre-Desarrollo (Figura 4). El problema de investigación se ubica en la limitada apreciación del rol ciudadano frente a los desastres en los estudiantes de la Universidad de Oriente; hecho que reduce sus potencialidades para actuar en la reducción de los riesgos, como profesional y como ciudadano. Tomando estos aspectos como referente se concentra entonces el objeto de la investigación en la gestión para la reducción de los riesgos de desastres desde los procesos formativos en las universidades. Definiéndose como objetivo general: Elaborar la documentación metodológica de la asignatura electiva centralizada “Desastres vs Desarrollo” en la Universidad de Oriente. En este orden se ubica como campo de acción de la investigación a la propuesta metodológica de la asignatura electiva centralizada “Desastres vs Desarrollo” en la Universidad de Oriente. Los principales métodos de investigación utilizados son: Análisis y Síntesis, Histórico – Lógico, Inducción – Deducción, e Hipotético – Deductivo. Como técnicas de investigación científica igualmente se emplearon: Técnicas para la recogida de la información, como es el caso de la Entrevista y la Encuesta; así como Técnicas para el procesamiento de la información, como es el caso de la Revisión bibliográfica y el Análisis documental. • Los desastres retardan los programas de desarrollo destruyendo años de iniciativas de desarrollo. • Los programas de desarrollo pueden aumentar la susceptibilidad de áreas de desastre. • Los programas de desarrollo pueden ser diseñados para disminuir la susceptibilidad a los desastres y sus consecuencias negativas. • La reconstrucción después de un desastre otorga oportunidades importantes para iniciar programas de desarrollo. 4 Figura 4. Temas que emergen del análisis de la relación Desastre - Desarrollo. 1. GESTIÓN PARA LA REDUCCIÓN DE RIESGOS DE DESASTRES Y RESILIENCIA COMUNITARIA. Se impone una conceptualización del término desastre, al cual se le afilian disímiles denominaciones; pero que en todas puede reconocerse a una “(…) interrupción severa del funcionamiento de una comunidad causada por un peligro, de origen natural o inducido por la actividad del hombre, ocasionando pérdidas de vidas humanas, considerables pérdidas de bienes materiales, daños a los medios de producción, al ambiente y a los bienes culturales. La comunidad afectada no puede dar una respuesta adecuada con sus propios medios a los efectos del desastre, siendo necesaria la ayuda externa ya sea a nivel nacional y/o internacional” [6]. En el caso de los naturales se trata de eventos que pueden ser desencadenados por peligros naturales entre los que figuran: terremotos, maremotos, intensas lluvias, huracanes, deslizamientos, aluviones, sequía, entre otros. A partir de la década de los años noventa, se reconoce que, en la mayoría de los casos, los desastres son predecibles y, por tanto, ya no son entendibles como “tan naturales”. Es cierto que se producen por la incidencia de fenómenos o amenazas puramente de la naturaleza; sin embargo, con frecuencia, la acción del hombre está en el origen de estas catástrofes y, en todo caso, un fenómeno natural adverso, por sí solo, no siempre tiene por qué terminar en desastre. “Para que un fenómeno natural sea peligroso para las personas, requiere ciertas condiciones de la vida humana en su entorno, como asentamientos humanos mal ubicados, ambiente deteriorado, hacinamiento, escasez de recursos económicos, inadecuada educación, descuido de las autoridades, desorganización, entre otros. Todos estos elementos configuran una población altamente vulnerable” [7]. Es importante entonces referir en la Figura 5 la expresión con que se define al riesgo: Figura 5. Probabilidad de ocurrencia de un desastre. Definición de Riesgo total. 5 El riesgo de desastre es entonces el resultado de la interrelación dinámica entre los riesgos creados por la mano humana o por la naturaleza, y las condiciones de vulnerabilidad de una población. En otras palabras, el hombre no puede incidir en la Amenaza (variable no manipulable); sin embargo, sí puede hacerlo en la Vulnerabilidad y la Exposición (variables manipulables). De su acertado accionar entonces que se desencadene un desastre. Quienes se encuentran expuestos al riesgo de desastres no deben ser víctimas pasivas, dependientes e impotentes porque eso eleva las posibilidades de ser dañado y multiplica su vulnerabilidad. Deben ser agentes activos de su propio desarrollo, capaces de reducir los riesgos y, en caso de que se materialicen en catástrofes, ser capaces de afrontar las crisis, recuperarse, y continuar con sus proyectos de vida. Es precisamente en este marco que aparecen los términos: gestión de riesgos y resiliencia comunitaria. Trabajar antes, durante y después de que ocurra el evento, en pos de reducir sus impactos negativos; es lo que se reconoce entre la comunidad de especialistas como gestión de riesgos. Para entender cómo puede reducirse el riesgo de desastres deben considerarse las capacidades, medios, habilidades y recursos con que cuentan cada uno de los miembros de cada comunidad, organización o institución, que puedan reducir el nivel de riesgo o contribuir a afrontar sus efectos. Es un proceso en el que además juegan un rol protagónico la defensa civil, los gobiernos, directivos nacionales a varios niveles; así como otras instituciones civiles, que incluso a nivel internacional pueden contribuir a eliminar riesgos evitables, y disponer medios de prevención en el caso de riesgos inevitables. La Gestión de Riesgos se reconoce entonces entre la comunidad de especialistas como un enfoque estructurado para manejar la incertidumbre relativa a una o varias amenazas, a través de una secuencia de actividades humanas que incluyen evaluación de los riesgos, estrategias de desarrollo para manejarlo y mitigación del riesgo utilizando recursos gerenciales. La participación ciudadana es aquella que en estos casos hace posible la movilización de la voluntad y recursos de los actores sociales alrededor de la reivindicación de sus derechos. Consiste en intervenir activamente en las decisiones y acciones relacionadas con la planificación, la actuación y la evaluación de las actividades. En Cuba existe un sistema legal muy bien establecido frente al manejo de las situaciones excepcionales, como suelen ser los desastres. El principal exponente de este marco se ubica en la DIRECTIVA No. 1. 2010 [6]. Entre sus principales presupuestos se ubican a diferentes niveles: la participación ciudadana antes, durante y después del evento, y el fortalecimiento de capacidades personales y colectivas; en que sobresalen los programas educativos, especialmente en las universidades. Puede advertirse que la relación entre educación y reducción del riesgo de desastres; si bien puede profundizarse en mayor medida; hoy es un enfoque hasta cierto punto priorizado en las políticas educativas en América Latina y el Caribe, reflejado en el número y características de las ofertas educativas vigentes. Se trata entonces de una política estatal e institucional que se encuentra impregnada a nivel global de la cultura educativa de los países; como una preocupación latente que aún evidencia brechas por transitar. Si bien es cierto que cada día se demanda mayor integración en este sentido; se establece como una necesidad por el hecho de que debe contarse con una población informada y educada en reducción de riesgos de desastres. Si bien es cierto que no existe en Cuba una carrera propiamente para atender la ciencia de la Desastrología; son temas de actualidad que se atienden desde diversas disciplinas en planes de estudio de muchas carreras adscritas al Ministerio de Educación Superior (MES) y de Salud Pública (MINSAP). Desde hace tres cursos ya se estudia en la Universidad Tecnológica de La Habana (UTH) la carrera de Ingeniero Geofísico; especialista que se encarga del estudio de la geodinámica del planeta y con ello de los desastres de origen natural. 6 2. FORMACIÓN DEL PROFESIONAL Y DISEÑO CURRICULAR EN LA EDUCACIÓN SUPERIOR CUBANA. El proceso de formación del profesional se refiere a aquellos estudios y aprendizajes para la inserción, reinserción y actualización laboral, cuyo objetivo principal es aumentar y adecuar el conocimiento y habilidades de los actuales y futuros trabajadores a lo largo de toda la vida. Es el proceso mediante el cual se contribuye a formar las cualidades de la personalidad del sujeto que se desempeñará como profesional durante la solución de los problemas que se presentan en su esfera laboral con un profundo sentido innovador. En Cuba, y según P. Horruitiner el proceso de formación de los profesionales “(…) es el proceso sustantivo que se desarrolla en las universidades con el objetivo de preparar integralmente al estudiante en una determinada carrera universitaria, y abarca tanto los estudios de pregrado, como de posgrado” [8]. El diseño curricular, como proceso de organización y planificación de la formación de profesionales, tiene su propia dinámica que responde a sus leyes internas y a las condiciones socio-culturales del medio. El cual no se debe identificar con el proceso de formación del profesional. El currículo optativo/electivo parte de la motivación de los estudiantes, del reconocimiento de sus necesidades personales y de sus proyecciones futuras. De manera que al insertar la asignatura en el currículo optativo/electivo se cumple con una de las propuestas de la Educación Superior, referido a la flexibilidad, que comprende el grado de opcionalidad de los estudiantes. La carrera es el proceso docente que, en su desarrollo, garantiza la formación del profesional. El diseño de la carrera es el proceso de planificación y organización que concibe cómo debe ser el proceso de formación del profesional; este se apoya en otro al cual sirve, que es el proceso profesional. En esta dinámica se configuran las dos leyes del diseño curricular: La primera ley vincula el proceso profesional, considerado como sistema con el medio y se expresa mediante la relación problema, objeto, objetivo. La segunda ley establece los nexos internos del proceso y que se formula mediante la relación entre el objetivo, el contenido del proceso y sus métodos. La conjunción permanente, dialéctica, del todo con las partes, de la expresión totalizadora de la profesión, con cada una de sus esencias científicas y tecnológicas, lleva a establecer en el diseño, aquellas asignaturas que estudian la profesión como un todo (ejercicio de la profesión) y aquellas que solo estudian un aspecto (básicos específicos). Esa dialéctica del todo y la parte, de la profesión y sus campos de acción, con carácter de ley, es la esencia del diseño curricular y su correspondiente estructura. Estas dos leyes, de naturaleza dialéctica, caracterizan esencialmente el diseño curricular. La primera, que determina la subordinación del proceso de formación al proceso profesional y que determina la estructura de carreras, y la segunda que establece la relación entre la profesión y las demás ciencias que le sirven de base que determina la estructura interna de cada carrera. El VI Congreso del Partido Comunista de Cuba celebrado en abril de 2011, aprobó los Lineamientos de la Política Económica y Social del Partido y la Revolución. En ellos se declara, entre otros aspectos, dar continuidad al perfeccionamiento de la educación (Lineamiento 143); elevar el rigor y efectividad del proceso docente educativo para incrementar la eficiencia del ciclo escolar (Lineamiento 151); y actualizar los programas de formación e investigación en las universidades en función del desarrollo económico y social del país y de las nuevas tecnologías (Lineamiento 152). El contenido de estos lineamientos exigió entonces a la Educación Superior realizar una revisión profunda de los programas de formación y desarrollo de los profesionales cubanos. 7 3. DIAGNÓSTICO PARA LA IMPLEMENTACIÓN DE LA ASIGNATURA ELECTIVA CENTRALIZADA “DESASTRES VS DESARROLLO” EN LA UNIVERSIDAD DE ORIENTE. Un diagnóstico preliminar desarrollado para esta investigación se dirige a la encuesta de 60 estudiantes de esta universidad. Se hace importante destacar que el 94% de los estudiantes encuestados reconocen a la asignatura electiva centralizada como importante en su proceso de formación. De la misma manera en que los estudiantes encuestados visualizan entre los temas más necesarios y atractivos a: el tratamiento de los desastres, medio ambiente y cambio climático, los idiomas, y el arte, cultura y tradiciones. Si bien en el tema de los desastres, los estudiantes se muestran motivados; también asienten en que desconocen los supuestos teóricos que fundamentan las teorías de gestión de riesgos actuales; hecho que los coloca en desventaja frente a otros profesionales. En este mismo orden se profundiza en un diagnóstico detallado en que se entrevistan a 11 profesores; todos dirigentes del Proceso de Formación de Profesionales en la Facultad de Construcciones y la Universidad de Oriente. El 100% de los especialistas entrevistados coincide en la relevancia de la asignatura electiva centralizada en la institución y entre los aspectos que se reconocen como principales ventajas se ubica el fortalecimiento de la cultura integral y la motivación. Los profesores refieren entre las principales condicionantes de la asignatura electiva centralizada que surge por varios aspectos: • Facilitar el acceso al conocimiento de la cultura general de los estudiantes universitarios; afines o no a su profesión. • Para satisfacer necesidades e intereses profesionales y personales. • Para complementar su formación a partir de sus necesidades. • Para aproximar los contenidos al entorno universitario y su realidad; y así contribuir a la flexibilidad del plan. • Por la necesidad de familiarizar a los estudiantes con el desarrollo científico – técnico del país y la región. • Para elevar las competencias profesionales, la cultura y los valores humanistas. Se reconocen asimismo entre las principales ventajas de la asignatura electiva centralizada a: • Diversificación de la cultura y el conocimiento. • Elevación de la motivación por la carrera, la profesión y la autosuperación responsable y constante. • Propicia el protagonismo de los estudiantes frente a la decisión de completar su proceso formativo a partir de sus necesidades e intereses. • Fomento del trabajo en equipo con otros profesionales. • Posibilita una mayor flexibilidad en el plan de estudio. • Atempera el proceso formativo con los adelantos científico – técnicos de su época. • Posibilidades de integración con otros CES y los OACE del territorio, el estudiante se extiende potencialmente hacia el territorio; fuera de los predios universitarios. • Diversificación y fortalecimiento de la calidad del claustro universitario. • Propicia una mayor organización, divulgación, elección y control de la electiva en la Universidad de Oriente. • Planificación centralizada 1 vez cada 15 días para todos por igual. Con este análisis solo resta realizar la propuesta de asignatura para Desastres vs desarrollo. 8 4. CONCEPCIÓN METODOLÓGICA DE LA ASIGNATURA ELECTIVA DESASTRES VS DESARROLLO. Sobre la base de la investigación realizada se llega entonces al planteamiento de la propuesta metodológica de la asignatura electiva centralizada Desastres vs Desarrollo. Las principales fuentes utilizadas para llegar al aporte fundamental de la investigación se ubican en: - el complemento aportado por el diagnóstico de la investigación, - la revisión de las normativas fundamentales tanto para el trabajo metodológico como para la gestión de riesgos de desastres a nivel internacional y en Cuba, - las precisiones normativas para la asignatura electiva centralizada en la Universidad de Oriente por parte de la Vicerrectoría Docente (VRD). En resumen, la propuesta obtenida debe regirse por las siguientes premisas: • El 60% de las actividades docentes se realizarán fuera de los locales docentes de la universidad, en instalaciones vinculadas con el tema de los desastres, su investigación y estrategias de respuesta: CENAIS, CITMA, instalaciones del EMNDC, u otras. • El claustro que imparte la asignatura se conformará de un colectivo de profesores que garanticen la necesaria interdisciplinariedad: profesores a tiempo completo y a tiempo parcial; aunque siempre se establece un profesor principal de preferencia a tiempo completo. • En principio se elaborará un programa analítico resumido (Anexo IV), con la intención de colgarse en la página web de la VRD de la Universidad de Oriente, con el propósito fundamental de contar con los aspectos metodológicos de interés de los estudiantes para su selección; siempre que sean atractivos e interesantes. Este documento inicial solo dispondrá de dos cuartillas y contará con imágenes u otras informaciones gráficas adicionales. • Con un fondo de tiempo total de 32 horas (según indicaciones de la VRD), se fortalecerán las actividades práctico – investigativas de los estudiantes: seminarios y talleres. • El sistema de evaluación se conformará en todos los casos (según indicaciones de la VRD) de evaluaciones sistemáticas en actividades prácticas; así como la entrega y discusión de un Trabajo de Curso en que se fortalezca igualmente la actividad científico investigativa. Se parte en este análisis de que el Objetivo General de la asignatura se ubica en formar y desarrollar en los futuros profesionales actitudes de búsqueda e interés por la actualización científico – técnica en su profesión, potenciando la responsabilidad ante la ocurrencia de desastres y contribuyendo a elevar su competencia profesional en torno a la mitigación de su impacto adverso desde sus modos de actuación; haciendo particular énfasis en el desencadenado por el sismo y los huracanes, con el dominio de los fundamentos de la Ingeniería de Desastres. Contemplándose de este modo los conocimientos abordados como sistema que abarca: Naturaleza y conceptualización del desastre. Vínculo del desastre con factores físicos, socio – culturales, institucionales y económicos. Factores vinculados al origen de los desastres. Causas que le disparan. Tipos de desastres. Clasificación. Dimensión temporal, espacial y demográfica de los desastres. Conceptos de amenaza, vulnerabilidad y riesgo. Papel de la intervención humana en el desencadenamiento del desastre. Relación Desastre – Desarrollo. Ciclo para el Manejo y la Administración integral del riesgo de desastres. Etapas componentes. Papel de los profesionales para reducir el riesgo del desencadenamiento de desastres. Papel de los profesionales en el restablecimiento del entorno dañado. Ley Nacional de la Defensa Civil. Políticas y normas estatales e institucionales para el manejo de desastres. Organización del país para el manejo de desastres. Tipos de impactos de los desastres geológicos e hidrometeorológicos. Rol ciudadano y profesional en la evaluación de impactos de desastres. Se precisa entonces el desarrollo de habilidades estructuradas mayormente en torno a la identificación, el reconocimiento, la valoración, la explicación, entre otras como: 9 Identificar los factores propios de la naturaleza del entorno vinculados al desencadenamiento de desastres. Comprender la conceptualización básica en torno a los desastres. Explicar las particularidades de los tipos de desastres y el fundamento teórico de la visión integral en su manejo. Explicar la articulación de la relación Desastres – Desarrollo con el Medio Ambiente y la sostenibilidad. Identificar el rol de la sociedad en la gestión del riesgo, a partir del reconocimiento de determinadas vulnerabilidades. Conocer el funcionamiento y organización de la parte legal del proceso de manejo y administración de desastres a nivel estatal e institucional. Delimitar la responsabilidad fundamental de las entidades con mayor participación en el manejo del desastre. Reconocer los diferentes impactos al medio ambiente que pueden provocar los desastres, con énfasis en los hidromeorológicos y geológicos. Establecer la responsabilidad ciudadana y profesional en la evaluación de impactos de desastres. Este sistema de conocimientos debe propiciar la formación de valores profesionales y humanos en los estudiantes tales como: responsabilidad ciudadana y profesional, identidad profesional, compromiso social y profesional, amor a la profesión, sensibilidad humana, interés por la superación y actualización en las ramas del saber vinculadas a su profesión. CONCLUSIONES La población mundial afectada por los desastres cada año va en aumento; hecho que se manifiesta con mayor crudeza en países en desarrollo, y con eventos como: sismos, tsunamis, inundaciones, deslaves, erupciones volcánicas, accidentes y guerras. Una de las maneras más efectivas de trabajar en la reducción de los riesgos de desastres se ubica en los programas educativos a todos los niveles de la sociedad. En ello juegan un importante rol las universidades, los centros de investigación, la Defensa Civil a nivel local, nacional y regional, y los organismos internacionales acreditados y organizaciones humanitarias. El papel de la educación en Cuba como instrumento de cambio y transformación de la sociedad, resulta fundamental en la gestión de riesgo de desastre para lograr que la población adquiera conocimientos, hábitos, actitudes, comportamientos y destrezas; no solo frente al manejo de las amenazas y reducción de vulnerabilidades; sino también en el dominio eficaz de la participación ciudadana en situaciones excepcionales. El diagnóstico realizado en la Universidad de Oriente arroja una importante alternativa de estos contenidos como parte de la asignatura Electiva Centralizada; cuyo encargo fundamental se ubica en la formación de aptitudes frente a la reducción de riesgos y la participación ciudadana en caso de desastres. RECONOCIMIENTOS Los autores desean agradecer a la Dirección del Departamento de Formación del Profesional de la Vice Rectoría Docente de la Universidad de Oriente por la valiosa colaboración en el desarrollo de esta investigación, fundamentalmente en el diagnóstico realizado. REFERENCIAS 1. FRÓMETA Z., VIDAUD I., GUASCH F., Centro Virtual de Capacitación para la Gestión Estratégica de los Riesgos de Desastres, 9no. Congreso Internacional de Educación Superior UNIVERSIDAD 2014, La Habana, Cuba, 2014. 2. OPS-OMS. Hacia un mundo más seguro frente a os desastres naturales. La trayectoria de América Latina y el Caribe. Costa Rica. Oficina Regional para América Latina y el Caribe. OPS, 1994. 11p 10 3. CHUY, T. Sismos perceptibles, Peligro y Vulnerabilidad sísmica en Cuba. Editorial Academia. La Habana. Cuba, 2000. 4. CDN, Directiva No. 1 del Presidente del Consejo de Densa Nacional, La Habana, Cuba, 2010. 5. CHUY T., et. al., Terremotos y comunidad: Una vinculación imprescindible, V Conferencia Internacional de Riesgos Geológicos, Ingeniería Sísmica y de Desastres, Santiago de Cuba, Cuba, 2014. 6. DINAPRE/UEER, Manual básico para la estimación del riesgo, Lima, Perú, 2006. 7. UN-HABITAT, Gestión comunitaria de riesgos, Lima, Perú, 2002. 8. HORRUITINER P., La Universidad Cubana: el modelo de formación, Editorial Félix Varela, La Habana, Cuba, 2010. SOBRE LOS AUTORES Vidaud Quintana I. N. Con el grado científico de Doctora en Ciencias Pedagógicas desde el año 2004, se desempeña desde 2006 como Coordinadora de la Carrera de Ingeniería Civil. Graduada de Ingeniería Civil en la Universidad de Oriente (1994) y Profesora Titular de la Disciplina de Tecnología del Departamento de Ingeniería Civil en la Facultad de Construcciones en la Universidad de Oriente. Es miembro del claustro del programa de Doctorado Patrimonio Cultural y de la maestría Hábitat y medioambiente en zonas sísmicas (Certificada). Asimismo, es miembro del comité académico del programa de Doctorado Construcciones e Hidráulica en Zonas Sísmicas y del programa de maestría Ingeniería Civil en Zonas Sísmicas (acreditada de excelencia, 2020). Pérez Prada I. Graduada de la Licenciatura en Educación Construcción en 1993. Se desempeña como Profesor Auxiliar de la Carrera Licenciatura en Educación Construcción en la Facultad de Construcciones de la Universidad de Oriente. Bayard Isaac Y. Estudiante de la carrera de Ingeniería Civil de la Facultad de Construcciones de la Universidad de Oriente. Ha participado en eventos científico estudiantiles y Forum Estudiantiles con excelentes resultados, formando parte del Grupo Científico Estudiantil Medio ambiente, Ingeniería sísmica y Gestión estratégica de riesgos de desastres. EVALUACIÓN DE LA DEMANDA SÍSMICA DE EDIFICIOS VHICOA EN SANTIAGO DE CUBA MSc. David Almenarez Labañino1, Ing. Javier Sánchez Arce2, Dr.C. Yamila Concepción Socarrás Cordoví3, MSc. Nelson Saint-Félix López4 1CDR-MTT-CTC-UNAICC, Universidad de Oriente, 2PCC-CDR-MTT-CTC-UNAICC, Centro Nacional de Investigaciones Sismológicas, 3FMC-CDR-MTT-CTC-UNAICC, Universidad de Oriente, 4CDR- MTT-CTC-UNAICC, Universidad de Oriente 1e-mail: dubaliere@uo.edu.cu 2e-mail: javier.sanchez@cenais.cu 3e-mail: ysocarrascordovi@gmail.com 4e-mail: nelsonsaint@uo.edu.cu RESUMEN El fondo habitacional de la ciudad de Santiago de Cuba, en octubre de 2012 con el paso del huracán Sandy, se vio considerablemente agravado. A partir de esta problemática se recibe la donación del sistema metálico apernado Venezuelan Heavy Industries C.A (VHICOA) para viviendas sociales adecuándolo estructuralmente a la zona de mayor peligro sísmico de Cuba. El sistema estructural entramado está conformado por pórticos de arriostramientos excéntricos de tipo X para dos niveles. A pesar de las adecuaciones concebidas al proyecto típico para ser emplazados por toda la ciudad, teniendo en cuenta la actualización de las normativas sismorresistentes: nacionales y foráneas, los edificios de tecnología VHICOA construidos a partir del proyecto técnico-ejecutivo evidencian incertidumbres que atentan contra un adecuado comportamiento estructural ante la carga dinámica de sismo. Por lo anterior, el objetivo de la presente investigación se enmarca en evaluar la demanda sísmica de las edificaciones del sistema tecnológico VHICOA, emplazadas en su mayoría en suelo tipo D, a través de un análisis lineal para futuras toma de decisiones de rehabilitación. Las incertidumbres en el comportamiento estructural, así como el incumplimiento de parámetros globales sismorresistentes y la insuficiente resistencia sísmica del sistema conllevan a clasificar al proyecto técnico-ejecutivo como de vulnerabilidad alta ante la carga de sismo. PALABRAS CLAVES: análisis lineal, comportamiento estructural, demanda sísmica, edificios de tecnología VHICOA, pórticos de arriostramientos excéntricos. SEISMIC DEMAND´S ANALYSIS OF VHICOA BUILDINGS IN SANTIAGO OF CUBA ABSTRACT City of Santiago de Cuba´s housing fund, in October 2012 with passage of Hurricane Sandy, was considerably aggravated. In consecuence the donation of bolted metal system Venezuelan Heavy Industries CA (VHICOA) for social housing is received, structurally adapting it to seismic danger greatest area in Cuba. The structural system is framework made up of X-type Eccentric Bracing Frames (EBF) for two levels. Despite adaptations conceived to the typical project to be located of throughout the city, taking into account the seismic-resistant regulations´ updates: national and foreign, the VHICOA technology buildings built from the technical-executive project show uncertainties that threaten a adequate structural behavior against earthquake load. Therefore, research´s objective is to evaluate the buildings´ seismic demand of the VHICOA technological system, located mostly on type D soil, through a linear analysis for future rehabilitation´s decision-making. The uncertainties about of structural behavior, as well as non-compliance with global earthquake-resistant parameters and the insufficient seismic resistance of structural system, lead to classifying the technical-executive project as highly vulnerable to the earthquake load. KEY WORDS: linear analysis, structural behavior, seismic demand, VHICOA technology buildings, Eccentric Bracing Frames (EBF). 1. INTRODUCCIÓN Concebir edificios de acero económicos y que además permitan la disipación de energía adicional ante la excitación sísmica, en países en vías de desarrollo, resulta primordial debido a la poca disponibilidad de uso de aisladores o disipadores de energía [1]. Ante esta limitación económica, la experiencia obtenida de sismos pasados, la subsecuente evolución de la filosofía de diseño sismorresistente a partir de 1988 [2] de conjunto con los conceptos de desempeño [2][3], el estudio y calificación de un grupo de conexiones (soldadas y apernadas) [4][5] tras el inadecuado comportamiento ante las demandas y capacidades sísmicas evidenciado en el terremoto de Northridge USA (1994) [2][4][6][7], ha permitido desarrollar sistemas estructurales sismorresistentes de acero (en lo adelante esquemas fusibles estructurales pasivos), así como conexiones que pueden ser diseñadas y construidas sin verificación teórica y/o analítica [5]. Las normativas internacionales (Uniform Building Code UBC 1997/ 2003, Norma de Construcción Sismorresistente Española NCSE-2002, Comisión Venezolana de Normas Industriales Covenin 1756-98, Australian/ New Zealand Standards NZS 1170.0:2002, Reglamento de Construcciones para el Distrito Federal RCDF-04, Canadian Standards Design Code CAN/CSA-06, American Society of Civil Engineers ASCE-7-05, International Building Code IBC-2006, American Institute of Steel Construction ANSI/AISC 2016, EC8-2003, Bulding Code of Japan BCJ-06, Canada National of Buldings Code CNBC-05) para el diseño y construcción sismorresistentes admiten explícitamente la incursión de las estructuras dentro del rango de comportamiento no lineal. Ante la dificultad que ello supone de realizar este análisis en el proceso de cálculo, se permite la aplicación del análisis elástico o lineal, con fuerzas sísmicas reducidas mediante factores de reducción de respuesta (Factor R). Esta reducción por ductilidad ha sido ampliamente aceptada [8], dado que las estructuras calculadas bajo esta condición han mostrado como generalidad un buen desempeño ante la ocurrencia de eventos sísmicos de mediana y gran magnitud durante las dos décadas pasadas. Sin embargo, Vielma, Lobo y Rivero [1] aseguran que su determinación ha estado supeditada al criterio de expertos, análisis estadístico o a juicio del proyectista, mientras Montaña [4] considera que diseñar mediante combinaciones de carga, en zonas de mediana o alta sismicidad, lleva a edificaciones de acero inseguras, lo que conduciría a un grado de confiabilidad estructural totalmente incierto. El sistema metálico apernado Venezuelan Heavy Industries C.A (VHICOA) está presente en la ciudad de Santiago de Cuba a partir de la afectaciones del 51 % del fondo habitacional [9] con el paso del huracán Sandy. Consta de un total de 42 edificios de sistema estructural entramado de vigas y columnas, de 5 niveles en su totalidad. Los edificios VHICOA construidos a partir de la modificación del proyecto típico [10][11], emplean pórticos de arriostramientos excéntricos de tipo X para dos niveles [3] en ambas direcciones ortogonales como configuración de esquema fusible estructural pasivo. Se distribuyen en un 69,05 % y 30,95 % en los Distritos No.1 y No.4 de la ciudad [12][13]. El alcance de la presente investigación se limita al estudio de los edificios VHICOA construidos a partir del proyecto técnico- ejecutivo [14], los que representan más del 95% de la población. Se circunscribe además en este caso el análisis para suelo tipo D por dos razones: la primera debido a que es el de menor capacidad portante presente en el municipio de Santiago de Cuba, y la segunda es donde prevalecen el emplazamiento de estos edificios. A partir de la revisión del proyecto modificado VHICOA (proyecto técnico-ejecutivo), se observa una inadecuada concepción de diseño referidas a la escaza presencia de riostras en la dirección que las columnas aportan menor rigidez, a partir de su disposición. Se evidencia incumplimiento de algunas limitaciones normativas internacionales [2][3][15][16] para lograr un comportamiento dúctil en el link (enlace o eslabón) referidas a la no presencia de arriostramiento para controlar el posible pandeo lateral torsional, el excesivo pandeo local de las alas para los niveles 4 y 5, y la no presencia de conexiones rígidas de las riostras (arriostres o contraventeos). Las conexiones rígidas presentes de vigas-columnas de momento de placa de extremo extendida atornilladas mediante 4 pernos sin rigidizar (4E) carecen de una concepción de conexión precalificada, referidas a las limitaciones de dimensionamiento de vigas y columnas [5][15][16]. Las limitaciones antes expuestas concluyen que no se puede concebir fallas dúctiles en el esquema fusible estructural empleado si los elementos componentes no son dúctiles. Ello trae consigo una serie de incertidumbres que pudieran verse comprometido el comportamiento estructural sismorresistente de los edificios VHICOA en su mayoría. Almenarez et al. [17] aplican el Método de Scarlat para evaluar la vulnerabilidad sísmica de forma preliminar de los edificios VHICOA. De la muestra estudiada se concluye que los edificios construidos a partir del proyecto técnico-ejecutivo denotan insuficiente resistencia sísmica. Además todas las edificaciones diagnosticadas muestran patrones similares de daños por pisos y líneas de apartamentos. Aparecen afectados por uno u otros daños patológicos, los elementos estructurales, muros, cubierta y entrepisos [17][18]. Aunque las lesiones observadas no comprometen el comportamiento estructural de los edificios VHICOA, es conveniente atender estos daños por la Dirección Provincial de Vivienda, debido a la presencia de estos daños en un período de explotación no mayor a los 10 años, los que sí pudieran verse comprometidos a mediano y/o largo plazo. La evaluación del comportamiento estructural sísmico permite contrarrestar las incertidumbres, limitaciones e incongruencias existentes para definir la demanda sísmica y la capacidad, asegurando que la estructura responda en forma estable y con adecuada capacidad de disipación de energía. Para determinar esta demanda y capacidad se utilizan procedimientos lineales y procedimientos no lineales respectivamente, los cuales se pueden aplicar considerando un modelo estático o dinámico. Es así que el objetivo de la presente investigación es evaluar la demanda sísmica de las edificaciones del sistema tecnológico VHICOA para viviendas sociales emplazadas en suelo tipo D en la ciudad de Santiago de Cuba, que permita la toma de decisiones para la rehabilitación estructural sismorresistente. 2. MATERIALES Y MÉTODOS Comportamiento estructural sismorresistente de estructuras de acero El concepto de factor de reducción de respuesta se basa en la premisa de que un sistema estructural bien detallado es capaz de sostener grandes deformaciones sin llegar a colapsar [19]. Al aplicar en el proyecto de estructuras sismorresistentes factores de reducción mayores que la unidad, el proyectista acepta una simplificación importante: (1) las herramientas de cálculo lineal permiten obtener unas cuantificaciones razonables de la respuesta real de la estructura, y (2) el aceptar un comportamiento significativamente no lineal, se espera que ocurra un daño global importante en la estructura. Las versiones de reglamentos internacionales [3][20][21][22] ante los análisis lineales aceptados consideran adicionalmente de manera directa la influencia inherente de la sobrerresistencia en los esquemas fusibles estructurales de acero [2][19][22]. En los reglamentos de diseño, las reducciones en fuerzas producidas por la disipación de energía histerética se obtienen al permitir la respuesta de una estructura en un rango no lineal [23][24][25], utilizando métodos de análisis lineales a partir de factores de reducción [26][27]: Factor de Sobrerresistencia (ΩO), Factor de Modificación de Respuesta (R) y Factor de Amplificación de Desplazamiento (Cd). Experiencias pasadas y estudios realizados sobre el comportamiento de estructuras bajo demanda sísmica han mostrado que el factor de sobrerresistencia juega un rol muy importante en la prevención de colapso de las estructuras [1][2][8][19][23]. Éste busca incluir en el diseño sísmico la resistencia adicional que tiene la estructura producto de la redistribución de esfuerzos internos (redundancia), endurecimiento por deformación del acero, sobredimensionamiento de elementos, entre otros. El factor de reducción de las fuerzas sísmicas, con el cual se pasa del espectro elástico al espectro inelástico, es función de la ductilidad, sobrerresistencia y redundancia del sistema estructural; que no se definen de forma explícita en los códigos de diseño, lo que puede ocasionar que se subestime la acción sísmica por una selección inadecuada del factor de reducción, provocando el incremento de los daños estructurales [4][8]. Tapia y Tena [20] proponen ecuaciones para obtener factores más realistas de reducción por ductilidad y sobrerresistencia en edificios de acero, partiendo de que en todos los casos, no necesariamente se obtiene resultados congruentes con las premisas de diseño. Estudios precedentes [20][23] muestran que estructuras diseñadas bajo la hipótesis de un comportamiento dúctil presentaron mecanismos de colapso mixtos, con reservas de sobrerresistencia diferentes a las supuestas en su diseño. En la Norma Cubana NC 46:2017 [24] el factor de reducción de las fuerzas sísmicas se cuantifica a través del Factor Genérico de Reducción de Respuesta Sísmica (R), que depende de las características del sistema estructural y expresa la máxima reducción por ductilidad que puede ser alcanzada. Los valores de este coeficiente han sido obtenidos de la experiencia internacional [22]. Aun así, la NC 46:2017 ofrece ambigüedad respecto a las estructuras de acero, no así con las estructuras de hormigón. Ello trae como consecuencia que la capacidad portante de diseño de la estructura a partir de la demanda de diseño, pudiera no corresponderse con la necesaria para garantizar el desempeño dúctil de las edificaciones ante la ocurrencia de sismos de mediana y gran magnitud. Para desarrollar la presente investigación se emplea el Análisis Modal Simplificado para el Método del Espectro de Respuesta (análisis lineal dinámico), utilizando la Combinación Cuadrática Completa (CQC) como fórmula de superposición. Se resuelve el problema de los valores propios por el Método de los Vectores de Ritz, considerándose en el análisis los 9 primeros modos de oscilación del caso de estudio. Se adopta un nivel de protección sísmica (NPS): D, correspondiente a la zona 5 y obra ordinaria lo que establece se chequee para un sismo básico de diseño considerando un suelo tipo D [24]. Se modela el edificio caso de estudio en el software ETABS v.18 teniendo en cuenta las invariantes de la modelación mecánica y el proyecto técnico-ejecutivo VHICOA [14] (ver figura 1). Figura 1: Modelo tridimensional edificio de vivienda social VHICOA. La planta del edificio modificado VHICOA (proyecto técnico-ejecutivo) está conformada por 4 viviendas de 3 habitaciones cada una en cada nivel y una caja de escaleras. El edificio carece de una estética combinada a la necesaria solución estructural de los arriostres excéntricos, que le deben aportar rigidez y ductilidad al conjunto, características esenciales de este tipo de esquema fusible estructural pasivo. Caracterización estructural El sistema estructural se concibe mediante un entramado; empleando una gran cantidad de elementos horizontales y verticales para distribuir y equilibrar las cargas presentes en la edificación. Estos elementos de vigas, columnas, contraventeos y cimientos forman una edificación de 13,15 m de altura total, distribuido en 5 niveles de 2,62 m de puntal. Dichos elementos estructurales están conformados por acero laminado en caliente ASTM-A36 y se unen entre ellos mediante pernos HSB A325 y, para las riostras mediante soldadura de arco in situ empleando electrodo E7013 (R-13) [14]. La solución de entrepiso y cubierta es una losa de hormigón armado con refuerzo mínimo, de 100 mm de espesor sobre el sistema steel-deck (tipo losa-cero) de calibre 22 (figura 2a), constituyendo un encofrado perdido. Esta interactúa como diafragma rígido al encontrarse intrínsecamente colaborante. El proyecto original consiste en un sistema entramado de pórticos resistente a momento, siguiendo el principio de columna fuerte-viga débil. Para las condiciones de Santiago de Cuba, fueron incorporados al proyecto típico los arriostres excéntricos en ambas direcciones de tipo X para 2 niveles [3], para que cumpliera con los criterios sismorresistentes (figura 2b), conformados por 2UPN140x60x7/10, laminados de acuerdo a las normativas de secciones europeas. Estos se unen a la estructura de pórticos por medio de planchas de acero (cartabones) concibiendo una excentricidad de 500 mm (figura 2c). a) Refuerzo en losa de entrepiso steel-deck b) Arriostramiento excéntrico en ambos ejes globales c) Detalle del link en arriostres excéntricos Figura 2: Edificios de sistema VHICOA para viviendas sociales [14]. Las secciones empleadas en los elementos estructurales se enuncian en la tabla 1 a continuación. Las columnas se empalman mediante soldadura de taller a una altura de 6,20 m con electrodo E7013 (R-13), a excepción de las cuatro columnas de esquinas que están conformadas por una sola sección de tipo W310x86. Las vigas principales, con rigidizadores (atiezadores) para evitar el pandeo local del alma en la sección transversal, se ubican donde se concentran los valores de esfuerzo cortante. Se emplean vigas secundarias conectadas a la estructura principal mediante el uso de conexiones de corte, para no aportar giros que ocasionen torsión a las vigas principales donde se apoyan. La distancia medida de eje a eje de columnas oscila entre 5,75 m y 6,20 m, dando una longitud total de 17,70 m en la dirección transversal del edificio (Dirección X), y en la dirección longitudinal (Dirección Y) sus intercolumnios posee dos luces 5,95 m y una de 6,45 m, originando una distancia total de 18,35 m. Tabla 1: Secciones laminadas de elementos estructurales Elementos estructurales Sección laminada en caliente ASTM-A36 (mm) Columnas W310x86 W310x79 Vigas principales (1 y 2 nivel) W360x51 Vigas principales (3 y 4 nivel) W360x45 Viga principal (cubierta) W310x28 Vigas secundarias W310x21 Riostras 2UPN140x60x7/10 Atendiendo a los requisitos de durabilidad se emplea hormigón de resistencia f´c de 25 MPa en elementos de losa, cimentaciones y muros de bloque de cerámica de 100 mm de espesor, mientras para los restantes elementos divisorios se emplea panelería ligera del sistema PLYCEM. La marca de acero de refuerzo mínimo empleado en las losas de entrepiso y cubierta corresponde a G-40 que presenta el escalón de fluencia y presenta comportamiento adecuado para zona de alto riesgo sísmico [28]. 3. RESULTADOS Y DISCUSIÓN Teniendo en cuenta el cortante basal VB definido en el reglamento sismorresistente (ecuaciones 1-3) [24], se incorporan al espectro construido los factores g y R mediante el Factor de Escala FS (ecuación 4). A criterio del autor se asume un Factor Modificador de Respuesta R de un valor igual a 3 de forma conservadora. Se obtiene un FS igual a 3.27. ssB WCV = (1) ( ) sB W R TSa V = (2) ( ) ( )sB mg R TSa V = (3) R g Fs = (4) Donde Sa(T) corresponde con la demanda sísmica de diseño para estructura con período T, R es el factor de reducción por ductilidad y WS es el peso sísmico de la edificación . Las estructuras son diseñadas para soportar los efectos de las acciones a que pueden ser sometidas en las distintas etapas de su vida útil [29][30], con cierto grado de seguridad. Para garantizar este grado de seguridad, se definen 7 combinaciones de carga (ecuaciones 5-11) a partir de [31] y una siguiente combinación para considerar el peso sísmico (ecuación 12) [24]: Combinación 1: ( ) ( ) ( )cQQGPP 5.06.12.1 +++ (5) Combinación 2: ( ) ( ) ( ) ( ) ( )zyxc EEEQQGPP 3.03.02.02.1 ++++++ (6) Combinación 3: ( ) ( ) ( ) ( ) ( )zyxc EEEQQGPP 3.03.02.02.1 ++++++ (7) Combinación 4: ( ) ( ) ( ) ( ) ( )zyxc EEEQQGPP ++++++ 3.03.02.02.1 (8) Combinación 5: ( ) ( ) ( ) ( )zyx EEEGPP 3.03.09.0 −+++ (9) Combinación 6: ( ) ( ) ( ) ( )zyx EEEGPP 3.03.09.0 −+++ (10) Combinación 7: ( ) ( ) ( ) ( )zyx EEEGPP −+++ 3.03.09.0 (11) Combinación Ws: ( ) ( )cQQGPP +++ 25.0 (12) Los valores característicos de la estructura que resultan del análisis modal son los períodos de vibración y las formas propias de vibración. Son propios de la estructura y dependen únicamente de su configuración, rigidez y masa. La tabla 2 muestra los 9 modos de formas propias que se emplean para el análisis del edificio VHICOA, de manera que se asegure la masa participativa superior al 90 % en ambas direcciones ortogonales de la edificación. Se logra a partir del modo 5, asegurando que la respuesta del sistema es representativa y validando posteriores resultados en el análisis. Tabla 2: Participación de las masas por cada modo Case Mode UX UY UZ SumUX SumUY SumUZ Modal 1 0,8349 0 0 0,8349 0 0 Modal 2 0 0,8176 0 0,8349 0,8176 0 Modal 3 0 0,0006 0 0,8349 0,8181 0 Modal 4 0,1231 0 0 0,958 0,8181 0 Modal 5 0 0,1347 0 0,958 0,9528 0 Modal 6 0 0,0001 0 0,958 0,9529 0 Modal 7 0,02 0 0 0,978 0,9529 0 Modal 8 0,0185 0 0 0,9965 0,9529 0 Modal 9 0 0,0221 0 0,9965 0,975 0 Se constata que no existe acoplamiento entre formas propias de oscilación en las direcciones ortogonales. Para valores significativos de las razones masas participativas en una dirección, le corresponden valores muy pequeños en la dirección perpendicular respectivamente (ver tabla 3). Se concluye que no existe transmisión de energía de un modo hacia el otro. Se demuestra que de ambos períodos fundamentales que presenta la edificación, el mayor período ocurre en la dirección menos rígida (dirección transversal). Tabla 3: Períodos, factores de dirección y frecuencias por cada modo de vibración. Mode Period (sec) UX UY UZ RZ Frequency (cyc/sec) 1 0,515 1 0 0 0 1,941 2 0,391 0 0,999 0 0,001 2,556 3 0,299 0 0,001 0 0,999 3,339 4 0,175 1 0 0 0 5,71 5 0,129 0 0,999 0 0,001 7,726 6 0,101 0 0,001 0 0,999 9,938 7 0,097 1 0 0 0 10,313 8 0,074 1 0 0 0 13,501 9 0,07 0 0,998 0 0,002 14,285 De acuerdo a [24], el sistema estructural tecnológico VHICOA clasifica como E3 (pórticos de acero arriostrados de tipo A con riostras excéntricas). En consecuencia el período empírico de vibración Ta estará determinado por la ecuación 13. ( )4 3 nTa hCT = (13) El coeficiente CT adquiere el valor de 0.049 y hn, correspondiente a la altura total del edificio: 13,15 m. Se obtiene como período de vibración empírico Ta aplicando la ecuación 13 descrita anteriormente el valor de 0.338 segundos para ambas direcciones ortogonales. Se compara el período mayor de vibración de la estructura (correspondiente con la dirección X) con 1,4(Ta), de dicha verificación resulta que 0,4732 es menor que 0,515. Se concluye que el chequeo del período fundamental de la estructura no cumple. Esto denota que la edificación carece de suficiente rigidez en la dirección transversal para las nuevas exigencias de [24]. La ecuación 13 descrita en [24] (a modo comparativo) no coincide con la especificada para las mismas características estructurales de la edificación con la NC precedente [32], ni con [22]. Se concluye que [24] es una normativa más estricta para este tipo de esquema fusible estructural pasivo de acero. La tabla 4 muestra otros criterios a tener en cuenta para el análisis descrito de la edificación VHICOA. Tabla 4: Peso sísmico, demanda sísmica de diseño, coeficiente sísmico y cortante basal de la edificación VHICOA para suelo tipo D. Parámetro Nomenclatura Dirección X Dirección Y Valor u/m Valor u/m Demanda sísmica de diseño Sa(T) 0,683 seg. 0,683 seg. Coeficiente sísmico CS 0,228 adim. 0,228 adim. Peso sísmico total del edificio WS 8816,0524 kN Cortante basal de cedencia VB 2007,42 kN 2007,42 kN Coeficiente k 1,00 adim. 1,00 adim. Otro parámetro global a chequear es el coeficiente sísmico al límite de cedencia CS (ecuación 14), debido a que en los edificios donde no se cumplen los valores mínimos y máximos de CS (ecuación 15-16) no existe una buena relación entre el peso de la estructura y el cortante que se produce en la base de la misma como resultado de la respuesta dinámica del sistema estructural (ver tabla 5) [24]. ( ) R TS C as = (14) Valores mínimos: 044.0sC si 01.0DSS (15) Valores máximos: TR S C Ds 1 si LTT  (16) Tabla 5: Coeficiente sísmico al límite de cedencia (Cs). COEFICIENTE SÍSMICO AL LIMITE DE CEDENCIA (Cs) Suelo D Parámetros Nomenclatura Dirección X Dirección Y Período fundamental de vibración T 0,515 0,391 Demanda sísmica de diseño Sa(T) 0,683 0,683 Factor de reducción R 3 3 Coeficiente sísmico CS 0,23 0,23 Aceleración para períodos cortos SS 1,035 1,035 Ordenada espectral para período corto SDS 0,683 0,683 Coeficiente sísmico mínimo Cs.Mín. 0,030 0,030 Revisión de la condición mínima Cumple Cumple Parámetros Nomenclatura Dirección X Dirección Y Período de transición TL 6 6 Aceleración para período largo S1 0,428 0,428 Ordenada espectral para período largo SD1 0,454 0,454 Coeficiente sísmico máximo Cs.Máx. 0,294 0.387 Revisión de la condición máxima Cumple Cumple La [24] no establece evaluar el desplazamiento en el tope de la edificación, no así para el chequeo de las derivas (desplazamientos por niveles). Para estimar la máxima deriva inelástica admisible por especificación se tuvo en cuenta el Factor de Amplificación de Desplazamiento Post-elástico ( 4=dC ). Los resultados muestran que para todos los casos las derivas no exceden al desplazamiento máximo permisible (ver ecuación 17). Los resultados indican que para estos tipos de edificaciones (E3) en [24] no existe una correspondencia entre el límite del período (1,4Ta) y los desplazamientos permisibles, puesto que el primer parámetro global no cumple. Es bien conocido la relación directa existente entre los períodos de ambas direcciones ortogonales y las derivas correspondientes. Además es necesario mantener presente que los desplazamientos deben estar muy limitados debido a la poca rigidez que ofrece el acero en comparación con los pórticos dúctiles de hormigón armado [8].   mm C cp d U 72.152.1 =          (17) La figura 3 muestra los desplazamientos inelásticos por niveles de puntos seleccionados en la esquina de la edificación de los diferentes niveles teniendo en cuenta el comportamiento diafragmático de las losas de entrepiso y de cubierta, considerando el efecto del sismo en las dos direcciones horizontales y la dirección perpendicular. Para ello se consideran las combinaciones de carga (ecuaciones 6-8). Los mayores desplazamientos por pisos se evidencian en la dirección transversal, dirección que hasta ahora se ha podido constatar como la dirección menos rígida. Se evidencia una diferencia promedio entre la dirección longitudinal respecto a la dirección transversal del 23 % aproximadamente. Figura 3: Derivas inelásticas obtenidas para suelo tipo D en edificios VHICOA de Santiago de Cuba. Los edificios tecnológicos VHICOA no cumplen los nuevos requerimientos sismorresistente según [24], a partir del chequeo de los parámetros globales de la estructura. Se cumplen los parámetros globales de la edificación, a excepción del período de vibración. Se comprueban los elementos portantes para verificar la resistencia de cada uno de ellos, lo que garantice comprobar que ninguno de ellos sobrepase su capacidad resistente. Se chequean teniendo en cuenta [21], teniendo como resultados que no resisten 211 elementos estructurales, los que se concentran en columnas, arriostres y vigas secundarias (ver figura 4), los que incide negativamente en la resistencia de los edificios para estos tipos de suelos. Figura 4: Chequeo de resistencia de los elementos estructurales para suelos tipo D. Ante el chequeo de los elementos estructurales, las columnas de acuerdo a [3] no son capaces de ante las cargas axiales que se encuentran solicitadas garantizar la tensión axial de fluencia, teniendo en cuenta el radio de tensión para desarrollar una alta o moderada ductilidad (Ca). Este término descrito en la tabla D1.1: Límite para miembros dúctiles [3] se ha incorporado en los análisis para el diseño y/o chequeo de miembros dúctiles desde el año 2010. El análisis lineal empleado, luego de constatar la pertinencia y validez del modelo estructural, arroja que los edificios VHICOA emplazados en suelo D no cumplen con los requerimientos de diseño sismorresistente que exige el código actual cubano [24]. Además, la continua actualización de [3] y [21] señala la insuficiente resistencia de los elementos estructurales referidos principalmente a las columnas. Se señala que los edificios VHICOA se hacen vulnerables y podrían dañarse ante la posible excitación sísmica. 4. CONCLUSIONES El comportamiento estructural sismorresistente de edificios de acero no sólo se circunscriben a las características del material, sino además de la correcta selección del Factor R, la adecuada concepción del esquema fusible estructural pasivo y la previsión adecuada (calificada) de las uniones vigas-columnas. Los edificios VHICOA emplazados en la ciudad de Santiago de Cuba conforme al proyecto técnico- ejecutivo es un sistema estructural entramado de acero, que clasifica como pórtico con arriostramiento excéntrico (E3), esquema de fusible estructural pasivo empleado en ambas direcciones ortogonales. La vulnerabilidad sísmica que evidencia el proyecto técnico-constructivo de los edificios VHICOA para la ciudad de Santiago de Cuba, demuestran que es necesario un estudio profundo del comportamiento estructural sismorresistente mediante una evaluación de capacidad, como etapa imprescindible en el proceso de rehabilitación, que permita establecer estrategias. RECONOCIMIENTOS Los autores desean agradecer al claustro del programa de maestría Ingeniería Civil en Zonas Sísmicas Mención: Obras Estructurales de la Facultad de Construcciones de la Universidad de Oriente (FCO-UO), a los profesores Ing. Mague Silvio Pérez Socarrás, Dra.C Nuria Nápoles Sayous y Dra.C Yoima Chaterlan Durruthy, al Centro Nacional de Investigaciones Sismológicas (CENAIS), a la Unión Nacional de Arquitectos e Ingenieros de la Construcción de Cuba - Santiago de Cuba (UNAICC) y a la Empresa de Proyectos e Ingeniería No.15 Santiago de Cuba (EMPROY 15). REFERENCIAS [1] Márquez, E., Lobo-Q, W. y Vielma, J. C. 2015, Estructuras de acero. Comportamiento de edificios de acero con diagonales concéntricas y excéntricas. [2] Crisafulli, F. J. 2018, Diseño sismorresistente de construcciones de acero, 5ta edición, Universidad Nacional de Cuyo, Mendoza, Argentina. [3] ANSI/AISC 341-16, Seismic Provisions for Structural Steel Buildings, American Institute of Steel Construction (AISC), Chicago, Illinois, USA, 2016. [4] Montaña, M. Á. 2010, Análisis “Push-Over” de edificios con pórticos de acero en Bogotá, Tesis de Máster, Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos, Universidad Politécnica de Cataluña, Barcelona, España. [5] ANSI/AISC 358-16, Prequalified Connections for Special and Intermediate Steel Moment Frames for Seismic Applications, American Institute of Steel Construction (AISC), Chicago, Illinois, USA, 2016. [6] Beltrán, J. F. y Herrera, R. sf., Usos del acero: Innovaciones en el diseño sísmico de estructuras de acero, Revista Actualidad, pp. 32-37. [7] Tena, A. (2004), Enseñanzas principales durante sismos recientes, ponencia presentada en Seminario Anual Riesgo Terremoto y Huracán, ERN-Hannover Re, septiembre de 2004. [8] Morejón, G. 2018, Factor de reducción de las fuerzas sísmicas en edificios de pórticos de hormigón armado en Cuba, Tesis Doctoral, Universidad Tecnológica de La Habana (CUJAE), La Habana, Cuba. [9] Bustamante, V. y Lezcano, Y. 2013, `Después de Sandy. Ciudad que retoña´, para Bohemia [en línea], 11 marzo 2013, consultado: en abril de 2021, http://www.bohemia.cu/2013/03/12/encuba/En-Cuba- Ciudad-que-retoña [10] Socarrás, Y. C., Vidal, A. y Cantillo. J. (2014). Revisión estructural de un proyecto típico de tecnología VHICOA, que se implementará en una zona de alto riesgo sísmico en Cuba, ponencia presentada al V Convención Internacional de Ciencias Técnicas, Universidad de Oriente, Santiago de Cuba, ISBN 978-959-207-529-0. [11] Socarrás, Y. C., Álvarez, E. y Fernández-Rubio, J. (2016), Análisis de variantes de arriostramientos en edificios de tecnología VHICOA, ponencia presentada al VI Conferencia Internacional de Peligrosidad, Riesgo Geológico e Ingeniería Sísmica y Desastres, Universidad de Oriente, Santiago de Cuba, ISBN: 978-959-207-562-7. [12] Dirección Provincial de la Vivienda (DPV) 2020, Levantamiento de edificaciones municipio Santiago de Cuba, Sub dirección Técnico-Productiva, Santiago de Cuba. [13] Arner, E. y Vaz C. 2016, Tecnologías industrializadas con carácter apropiado para la reconstrucción post-desastre de viviendas: caso Santiago de Cuba, Revista Arquitectura y Urbanismo, Vol. XXXVII, No. 3, septiembre- diciembre, pp. 66-84, ISSN 1815-5898. [14] Empresa de Proyectos No. 15 (EMPROY 15) 2020, Proyecto técnico ejecutivo edificio estructura metálica. VHICOA, Archivos Técnicos, Santiago de Cuba. [15] Fuentes, S. 2018, Consideraciones acerca del diseño sismorresistente de edificios de acero en Cuba, Revista Ciencia en su PC, No. 4, octubre-diciembre, pp. 11-26. [16] Fuentes, S. 2018, Procedimiento para el diseño sismorresistente de edificaciones de acero, Tesis de Maestría, Universidad de Oriente, Cuba. [17] Almenarez, D., Socarrás, Y., Saint-Félix, N. y Enamorado, C. (2021), Estimación preliminar de la vulnerabilidad sísmica de edificaciones de tecnología VHICOA en Santiago de Cuba, ponencia presentada al II Convención Internacional Ciencia y Conciencia, diciembre de 2021, p. 295, Santiago de Cuba, Cuba. ISBN 978-959-207-688-4. [en línea] https://ediciones.uo.edu.cu/index.php/e1/catalog/book/memorias_convencion_cc [18] Arquitecto de la Comunidad 2021, Archivos Dictamen Técnico Estructural, Santiago de Cuba. [19] Vielma, J. C., Barbat A. H. y Oller, S. 2006, Factores de reducción de respuesta. Estado del arte y estudio comparativo entre códigos, Revista internacional de Ingeniería de Estructuras, Vol. 11, No.1, pp. 79-104 [20] Tapia, E y Tena, A. 2011, Factores de ductilidad y sobrerresistencia en marcos de acero con contraventeo Chevrón, Revista de Ingeniería Sísmica, No. 84, pp. 47-68. [21] ANSI/AISC 360-16, Specification for Structural Steel Buildings, American Institute of Steel Construction (AISC), Chicago, Illinois, USA, 2016. [22] ASCE/SEI 7-2016, Minimum Design Loads and Associated Criteria for Buildings and Other Structures, American Society of Civil Engineers (ASCE), Reston, Virginia, 2016. [23] Tapia, E. y Tena, A. 2010, Observaciones sobre criterios de diseño sísmico de edificios con marcos de acero, Revista Internacional de Ingeniería de Estructuras, No. 15 N.- 2. [24] NC 46:2017, Construcciones sismorresistentes. Requisitos básicos para el diseño y construcción, Comité Estatal de Normalización, La Habana, 2017. [25] Ferrera, H. C., Candebat, D. y González, L. 2018, Comportamiento estructural ante acciones sísmicas de una nave industrial de acero en Santiago de Cuba, Revista Ciencia en su PC, No. 4, octubre- diciembre, 2018, pp. 1-10. [26] Eurocode 8:2003, Design of structures for earthquake resistance. Part 1: general rules, seismic actions and rules for buildings, Comité Europeo de Normalización CEN, Draft No. 5, Doc CEN/T250/SC8/N317, CEN, Brussels, 2003. [27] CPE INEN-NEC-SE-AC 26-5:2015, Estructuras de Acero, (comp.) Cap. 5 en Código de Práctica Ecuatoriano, Quito–Ecuador, 2015. [28] Frómeta, Z. P. 2009, Caracterización y evaluación de los aceros de refuerzo producidos por ACINOX Las Tunas para su empleo en zona sísmica, Tesis Doctoral, Instituto Superior Politécnico “José Antonio Echeverría”, La Habana, 2009. [29] NC 283:2003, Densidad de materiales naturales, artificiales y de elementos de construcción como carga de diseño, Comité Estatal de Normalización, La Habana, 2003. [30] NC 284:2003, Edificaciones. Cargas de uso, Comité Estatal de Normalización, La Habana, 2003. [31] NC 450:2006, Edificaciones—Factores de carga o ponderación—Combinaciones, Comité Estatal de Normalización-, La Habana, 2006. [32] NC 46:1999, Construcciones sismorresistentes. Requisitos básicos para el diseño y construcción, Comité Estatal de Normalización, La Habana, 1999. Sobre los autores 1Graduado de Ingeniero Civil en la Universidad de Oriente en 2017, y justo en el mismo año ingresa a la Unión Nacional de Arquitectos e Ingenieros de la Construcción de Cuba (UNAICC). Actualmente se desempeña como profesor instructor en la disciplina de Estructura del Departamento de Ingeniería Civil de la Facultad de Construcciones e investigador del Programa Sectorial Desarrollo de Investigaciones Sismológicas Aplicadas en la República de Cuba (DISA). Alcanza el título de máster en ciencias técnicas en julio de 2022. 2Graduado de Ingeniero Civil en la Universidad de Oriente en 2016. Sus inicios lo desempeñó en la Empresa Constructora del Ministerio del Interior de la República de Cuba (MININT). Actualmente ejerce como especialista para la Ciencia, la Tecnología y el Medio Ambiente del Centro Nacional de Investigaciones Sismológicas (CENAIS), y en dicha institución participa en varios proyectos. Colabora con la disciplina de Estructura del Departamento de Ingeniería Civil de la Facultad de Construcciones de la Universidad de Oriente como profesor a tiempo parcial con la categoría de instructor. Miembro de la Unión Nacional de Arquitectos e Ingenieros de la Construcción de Cuba (UNAICC), en donde es el representante de jóvenes de la Sociedad de Ingeniería Civil de Santiago de Cuba. EVALUACIÓN DE RIESGOS EN EDIFICIOS DE VIVIENDAS Roseli García Mesa1, Alejandro López Llanusa2 1Centro de Ingeniería Genética y Biotecnología, Cuba, 2Universidad Tecnológica de La Habana, Cuba 1e-mail: roseli.garcia@cigb.edu.cu 2Universidad Tecnológica de La Habana José Antonio Echeverría (CUJAE). Profesor auxiliar. Departamento de Estructuras, Facultad de Ingeniería Civil. La Habana, Cuba. 2e-mail: alo@civil.cujae.edu.cu RESUMEN La gestión de riesgos ha sido pensada fundamentalmente para reducir vulnerabilidades que afectan las actividades de las entidades y población en general, por lo tanto, es importante una correcta identificación, análisis y manejo de estos para contribuir al logro de los objetivos trazados. Sin embargo, este procedimiento tiene limitaciones que le impiden garantizar una seguridad absoluta. Como resultado, la gestión de riesgos sólo puede proporcionar una seguridad razonable. Lo que ha llevado a las distintas organizaciones a perfeccionar los procedimientos, técnicas y herramientas de control. En Cuba, el proceso de evaluación de riesgos, se encuentra normado por resoluciones emitidas por diferentes órganos del Estado. Esta separación en las orientaciones ha originado situaciones que atentan contra la calidad del proceso de evaluación de riesgos y su posterior control, tanto en las áreas administrativas como en las entidades. El trabajo realizado se fundamenta en referentes nacionales e internacionales que se aplican a lo largo de la vida de un proceso inversionista, específicamente en una edificación, cuya construcción se detuvo hace casi 30 años. Describe las principales amenazas que posee el inmueble en su estado actual. El principal resultado es la identificación y estimación cualitativa de los riesgos, lo cual constituye la base para el tratamiento de los mismos, durante la preparación del proceso inversionista que restaurará la funcionalidad y destino de dicho asentamiento. PALABRAS CLAVES: evaluación de riesgos, proceso inversionista. RISK MANAGEMENT IN RESIDENTIAL BUILDINGS ABSTRACT Risk management has been designed fundamentally to reduce vulnerabilities that affect the activities of entities and general population, therefore, a correct identification, analysis and management of these is important to contribute to the achievement of the objectives set. However, this procedure has limitations that prevent it from guaranteeing absolute security. As a result, risk management can only provide reasonable security. What has led the different organizations to improve the procedures, techniques and control tools. In Cuba, the risk assessment process is regulated by resolutions issued by different State bodies. This separation in the guidelines has led to situations that undermine the quality of the risk assessment process and its subsequent control, both in the administrative areas and in the entities. The work carried out is based on national and international references that are applied throughout the investment process life, specifically in a building, whose construction stopped almost 30 years ago. Describe the main threats that the property has in its current state. The main result is the identification and qualitative estimation of the risks, which constitutes the basis for their treatment, through the preparation of the investment process that will restore the functionality and destiny of the settlement. KEY WORDS: risk management, investment process. 1. Introducción El fenómeno de la prefabricación se abre camino en Cuba debido a la gran demanda de viviendas y edificaciones de carácter social que existía en el país después del triunfo revolucionario de 1959. El gobierno revolucionario se dio a la tarea de transformar la Isla tomando medidas estratégicas como la nacionalización de industrias y empresas, incluyendo el mueble arquitectónico que albergaba sus funciones, así se rescataron parte de las edificaciones existentes en el país en ese entonces. Pero aún quedaban los aspectos relacionados con la salud, la educación, el completamiento del tema industria, otros de carácter social, y no por ser el último es menos importante: el tema habitacional. Para ese entonces, la técnica idónea y además la que estaba al alcance era la prefabricación, que utiliza el hormigón como principal material de construcción. Las premisas eran la necesidad de construir en el tiempo posible y la gran extensión a cubrir. Cuba inició desde 1959 una labor dirigida a eliminar las causas de fondo que crean los riesgos de desastres en la sociedad, al desarrollarse un proceso revolucionario con un carácter eminentemente social. Este ha estado encaminado a elevar la calidad de vida y protección de la población cubana, mediante una distribución más equitativa de los recursos, el ejercicio del derecho a la educación, a la salud, a la cultura, al trabajo, a la seguridad social, el desarrollo científico técnico y la creación de capacidades científicas, todo lo cual ha repercutido en la mejora de las condiciones de vida y la eliminación de la pobreza extrema. Al inicio de la década de los 60 del siglo pasado, se vislumbra una estrategia de reducción de desastres y la conformación de un sistema de defensa civil, en el que la población, el conocimiento y la adecuada coordinación y cooperación entre todos sus componentes han constituido y constituyen sus principales fortalezas. Dicha estrategia ha estado en un continuo desarrollo y perfeccionamiento considerando las nuevas exigencias, logros e insuficiencias del desarrollo económico y social, los avances en la materia y los compromisos establecidos a partir de los acuerdos internacionales para la reducción de los desastres. Se desarrollaron y generalizaron sistemas constructivos prefabricados para obras escolares, totalmente producidos y diseñados en Cuba (Sistema Girón), obras sociales (SAE, SMAC), obras industriales y obras agropecuarias, para viviendas (SANDINO, SIMPLEX, GRAN BLOQUE, Sistema LH, Moldes deslizantes), además sistemas constructivos asimilados mediante la transferencia de tecnología (IMS, GRAN PANEL) para viviendas. Después de la caída del muro de Berlín fue muy difícil para la Revolución cubana sobrevivir, preservando los logros sociales alcanzados. Las relaciones comerciales establecidas y desarrolladas durante cuatro décadas con los países de Europa del Este se vieron cortadas de repente y Cuba no tenía mercados donde comprar ni vender sus productos. La escasez de muchos recursos esenciales tales como la energía y los alimentos impusieron la necesidad de detener o posponer algunos programas sociales e incluso económicos. En este marco económico social se detuvo la construcción del Complejo de Viviendas de Estudio. En la figura no. 1 se aprecia la composición actual del estado constructivo de las edificaciones del conjunto. Figura 1. Estado constructivo actual del complejo de viviendas. El complejo de viviendas está compuesto por 24 edificaciones, con sistemas constructivos diversos (IMS, SP-79, tradicional), algunos inmuebles fueron terminados y actualmente están en proceso de explotación, en un menor porciento se sitúan aquellas edificaciones que se paralizaron en la fase estructural y el resto se mantienen a nivel de cimentación. La propia evolución demográfica del país ha evidenciado la necesidad de reiniciar aquellos proyectos que fueron interrumpidos. El comportamiento que adopta la población circundante, en espacios que no fueron ocupados, constituye una amenaza al resto del conjunto. Para ello se efectúan estudios de diagnóstico de cada uno de los elementos, estimaciones técnico económicas y gestión de fuentes de financiamiento, avalados a su vez por entidades certificadas. Se pretende identificar a través de un estudio de peligro, vulnerabilidad y riesgo las premisas de proyecto para la reanudación de la inversión, evaluando cualitativamente los riesgos teniendo en cuenta el estado actual de la instalación. 2. Desarrollo Macro y microlocalización El objeto de obra se ubica en el Reparto Cubanacán, municipio Playa, el cual que abarca un área de 36,8 km2, que representa el 8,95% de la extensión de la provincia; población total 179 866 habitantes para una densidad de 5011,26Hab/km2. Altitud media 30m sobre el nivel del mar. Limita con los municipios de Marianao, La Lisa, Plaza de la Revolución y parte del Cerro. El edificio limita al frente con el Centro de Ingeniería Genética y Biotecnología y Avenida 31, por el lateral derecho saliendo con la calle 158, por el lateral izquierdo saliendo con las oficinas de la Importadora Heber Biotec y por el fondo con los edificios IMS de 14 y 18 pisos de altura. Características constructivas El sistema IMS variante PVYC (Planta de Viviendas Yugoslava en Cuba) se introdujo a finales de la década del 70, destinándose a la producción de elementos que conforman edificios de viviendas de 5 1 8, 12, y 18 plantas [1]. La estructura portante está compuesta por un sistema de esqueleto, formado por columnas y losas casetonadas postensionadas, las vigas se crean cuando se hormigonan las juntas entre los elementos horizontales (losa-losa 1 losa-viga de borde) que conforman el diafragma horizontal y son las encargadas de resistir las fuerzas gravitacionales transmitiéndolas a los elementos verticales y estos a su vez a la cimentación. La figura No. 2 hace referencia a la posición del objeto estudio y su relación con la comunidad. Figura No. 2 Microlocalización del conjunto. Con el fin de reducir los desplazamientos horizontales producto de la acción de cargas horizontales (sismo), se disponen tímpanos o diafragmas en determinados módulos de la retícula aporticada, lo más simétricos posibles para evitar excentricidades por torsión, estos tienen continuidad vertical desde la cimentación hasta el último nivel y se disponen en la planta en igual cantidad en los dos sentidos de la edificación. La fuerza sísmica es resistida por los elementos que conforman los entrepisos y cubiertas transmitiéndola a los elementos verticales/ absorbiendo los tímpanos el 83 % de esta solicitación y los pórticos sólo absorben el 17 %. Daño Estructural El nivel de terminación en las uniones y fijación de elementos verticales no garantizó la hermeticidad y protección de algunos aceros, provocando corrosión y pérdida de sección por lo que varias piezas de hormigón, fundamentalmente muros y tímpanos, se desplomaran sobre secciones de losa. El riesgo es medio, ya que el edificio no cuenta con un sistema de protección que evite la entrada de personas a sus predios. En este aspecto es donde más debe incidir la preparación del proyecto técnico ejecutivo. En la figura no. 3 se aprecia el estado de las juntas entre la losa de entrepiso y muros estructurales, la exposición. Figura no. 3 Juntas estructurales sin recubrimiento, aceros expuestos y corroídos, pérdida de aplomo. Inundaciones por intensas lluvias Las cuencas hidráulicas que tributan aguas a la zona, cuentan con un correcto sistema de drenaje pluvial, además, no existen ríos, playas ni embalses relativamente cerca de los mismos. La cota promedio de las calles son de aproximadamente 25,00m sobre el nivel medio del mar. El riesgo es Bajo. No obstante, el sótano del edificio presenta rasgos de acumulación de agua, que bien debe estudiarse su fuente de origen para evitar daños a las futuras instalaciones que se ubicarán en ese nivel. Fuertes Vientos Según la norma de viento NC 283:2003 y en función de la relación entre altura y dimensiones en planta, la edificación es baja, sin embargo, debido al nivel de sujeción de tímpanos, paneles de fachada y secciones de escalera, el riesgo es Alto, especialmente con las personas que puedan encontrarse cerca de los límites de la edificación. Sismos El estudio realizado a edificaciones construidas con el Sistema IMS [1], arroja como aspectos conducentes a vulnerabilidad sísmica estructural: Columnas que se diseñan para resistir solamente carga axial, y no se dotan de reserva para absorber la solicitación producida por el sismo; aunque cumplen al ser revisadas a flexo-compresión y a esfuerzo cortante. Empalme de las columnas que se realiza en las zonas de mayor momento. Tímpanos que trabajan a esfuerzos de flexo compresión que no tienen la suficiente capacidad resistente para soportar la acción sísmica. El despiezo del acero de refuerzo que no cumple con los requisitos estipulados para zonas de alto riesgo sísmico, según la normativa actual de la ingeniería. La figura no. 4 evidencia el riesgo sísmico potencial de la estructura, debido a la falta de monolitismo de las losas de entrepiso y grietas en los nervios. En el caso estudio y teniendo en cuenta el estado entre las uniones entre elementos el riesgo es Alto. Figura no. 4 Falta de monolitismo en uniones entre elementos. Riesgos Ambientales Al ser Cuba una isla, estrecha en toda su extensión, permite el tránsito de iones de todo tipo es muy alto de norte a sur. El grado de exposición a la corrosión, según la distancia a la línea de costa es media. Su ubicación con respecto a arterias vehiculares la hace vulnerable a los carbonatos, sumando el efecto de la inadecuada protección de aceros y elementos en general. En la figura no. 5 se observa la acumulación de desechos sólidos, amontonados durante años. El riesgo ambiental de esta edificación es Alto. Figura no. 5 Acumulación de escombros en el sótano de la edificación. Tormentas eléctricas En este sentido los daños pueden ocasionar lesiones a los seres vivos, daños físicos, fallos de los sistemas eléctricos y electrónicos. Se analizan factores de restricciones físicas, aislamiento, advertencia, equipotencialización del suelo y apantallamiento espacial por lo que el riesgo ante este tipo de fenómeno es Alto. Proveniente de la propia instalación y de los objetos que la rodean. La figura no. 6 evidencia la falta de aterramiento, incrementada por el hecho de que es la edificación que más sobresale. Figura no. 6 Barras de acero sin aterramiento físico. Riesgos Tecnológicos La edificación forma parte de un complejo biotecnológico de grandes dimensiones. Su cercanía con este centro, con arterias a vías de tránsito y con el trazado de redes eléctricas hacen que el peligro a sufrir daños sea Alto. Se muestra en la figura no. 7 la relación de la edificación con arterias principales, redes eléctricas. Figura no. 7 Cercanía del inmueble con vías de acceso principal y un centro de alta tecnología. Riesgos Sanitarios, epizootias, epifitias Las condiciones actuales del edificio promueven la acumulación de desechos, la aparición de vegetación y otros elementos que se han depositado en sus alrededores o directamente en el sótano, lo cual va fomentando el crecimiento de plantas y arbustos, propicia albergue a vectores y el deterioro de muros y columnas que están con contacto con elementos que tributan a la aparición de pátinas negras por humedad y eflorescencia de sales. En este sentido el riesgo es Alto. Riesgo Social En las últimas décadas, se ha originado un fenómeno social asociado a las construcciones que ha detenido se ejecución y que no cuentan con un sistema de vigilancia particular, la bibliografía lo reconoce como la “Teoría de la ventana rota”. La tesis de la ventana rota abarca ideas que fueron elaboradas de manera más amplia en la formulación clásica y contemporánea de la teoría de la desorganización social. La premisa básica es que los signos visuales de abandono en las comunidades, tales como las altas tasas de desocupación de viviendas, paredes cubiertas por grafiti, y las banquetas sucias, pueden generar actitudes antisociales adicionales, así como desorden físico y social que podrían conducir a altos niveles de criminalidad. Este tipo de desorden desincentiva la participación comunitaria y provee un espacio público y privado desregulado, en el que pueden florecer actividades delictivas [2]. Por los daños que ha sufrido el inmueble, los actos de indisciplina social que han tenido lugar en el mismo y por las consecuencias económicas que se derivan de las dos anteriores, el Riesgo Social es Alto. Las causas físicas que condujeron al estado actual de la edificación: • Deterioro natural y envejecimiento: Este es un fenómeno natural. Los materiales utilizados en la construcción tienen cierta vida para que permanezcan en condiciones funcionales, después de lo cual las partes cederán y el edificio se desviará gradualmente hacia una condición ruinosa. • Mantenimiento inadecuado o nulo: El mantenimiento inadecuado o nulo, incluido el deterioro o el retraso en la reparación, es la principal causa del deterioro del edificio. • Interrupción de la ejecución física y abandono del proceso inversionista, donde no se garantizó la protección de los elementos colocados en obra y sumado a la falta de mantenimiento dieron paso la proliferación de acciones de vandalismo e indisciplina social. • Agresividad ambiental: El ambiente agresivo como el fuerte viento salado que prevalece en la costa, la atmósfera contaminada con humo y productos químicos agresivos, gases, etc. que ingresan a la estructura a través de las grietas y pases, aceleraran la corrosión de aceros y cambios en la composición química de los elementos pétreos. Impacto económico de los estudios de riesgos asociados al edificio. La necesidad de elevar el fondo habitacional en el país es un llamado de la Máxima Dirección, a pesar del esfuerzo mancomunado de entidades y organismos, no se ha logrado sufragar la deuda social que ello encierra. En la última década el Centro Estudio, ha encaminado su trabajo a la preparación y reapertura de inversiones que garantizarán devolver objetivamente el sentido del Complejo de Viviendas Biotecnológico. 1. Estudios ingeniero geológicos, ejecutados por la Empresa de Investigaciones Aplicadas, con los cuales se pudo corroborar la tesis de que el inmueble mantenía los valores estructurales necesarios para garantizar la seguridad y continuar el proceso constructivo. 2. Proyecto técnico ejecutivo, donde se diseñó y elaboró la documentación técnica que guiaría los trabajos de construcción. 3. Conciliación de materiales de demanda nacional, con la cual se especificaron las características de estos recursos, con vistas a garantizar la calidad de los trabajos a ejecutar, así como las entidades constructoras certificadas. 4. Obtención de permisos y licencias con organismos rectores que validaron la calidad de la documentación técnica asociada al proyecto. Luego de estimaciones obtenidas de entidades constructoras, el costo unitario de cada apartamento rondará los 566 448,93 pesos. Partiendo de la base que se entregarán 21 apartamentos de viviendas, con sótano y 6 niveles sobre el nivel de terreno, los pisos 5 y 6 conformarán viviendas dúplex. Dichos valores han dado un salto cuantitativo en el marco del Reordenamiento Monetario, donde los precios de un renglón variante en el Precons II del 2005 era, como promedio, 100 veces más barato a lo que se refiere en el Anexo II de la actual Resolución 38/2021 del Ministerio de Finanzas y Precios. Impacto político-social de la investigación La caracterización de estos riesgos, amenazas y la probabilidad de su ocurrencia aplican la metodología que establece el Decreto-Ley del Sistema de Medidas de Defensa Civil (Decreto-Ley No. 170), así como las normas técnicas para estructuras. Tal proceder incide en la concientización de directivos y autoridades relacionados con el proceso inversionista que se reinicia, aportando una mayor seguridad a las personas que estarán directamente relacionadas a los trabajos de construcción, a los futuros habitantes del inmueble y su funcionamiento cotidiano, una vez que se comience la explotación del mismo. Acciones previstas para reducir el nivel de vulnerabilidad. En la Conferencia Mundial sobre Reducción de Desastres Naturales, que tuvo lugar el en Yokohama, Japón, se aprobó el Programa de Actuación del Decenio Internacional para la Reducción de los Desastres Naturales. De acuerdo con éste, dentro de los objetivos mencionados se encuentran: • Fortalecer y desarrollar los recursos humanos y la capacidad logística institucional para controlar los desastres, aumentando la movilización constante de recursos, por medio de la formulación de proyectos (de colaboración técnica), de la participación de agencias de Naciones Unidas, organizaciones no gubernamentales y el sector privado (empresas mixtas, asociaciones extranjeras autorizadas dentro del país y otras). • Elaborar un plan nacional para la reducción de desastres, que incluye la continuidad y desarrollo del Programa Técnico-Científico de Defensa Civil (programa de investigación multidisciplinar para la reducción de desastres), el perfeccionamiento del Plan de Medidas ante Desastres (planes y respuestas de emergencia a diferentes niveles) y el perfeccionamiento y la ampliación a otros riesgos de los programas de educación y capacitación. • Adoptar y desarrollar políticas y mecanismos de control y ejecución, que garanticen la incorporación de medidas de prevención y alivio en el proceso de desarrollo e inversiones en planificación del crecimiento y las inversiones. • Reforzar y desarrollar el Centro de Documentación y Referencia de la Defensa Civil a nivel nacional, por medio de la colaboración internacional, particularmente de las oficinas de Naciones Unidas y las relaciones con otras instituciones regionales e internacionales. • Elaborar un amplio programa de experiencias científicas, dirigido a continuar con la coordinación intersectorial y el desarrollo de objetivos multidisciplinares para el control de desastres, así como a permitir el intercambio de experiencias con la comunidad científica internacional. • Lograr la incorporación del país a los sistemas de alerta a nivel mundial y regional, así como fortalecer y desarrollar los sistemas de vigilancia, alerta y alarma rápida, para fenómenos epidemiológicos, sísmicos y meteorológicos. 3. CONCLUSIONES • Este análisis de riesgos sirvió de base para trazar la estrategia de trabajo dentro de la ingeniería básica y preparación de la inversión. • A pesar del estado constructivo de la edificación, aún posee un alto valor potencial, en cuanto al número de familias que serán beneficiadas, sin embargo, para asegurar su funcionamiento como vivienda, se debe hacer una evaluación estructural, acorde a las normas de viento y sismo vigentes. • Cuando se incide sobre una vulnerabilidad y se modifica alguna de sus variables, puede generar una nueva amenaza, por lo que su análisis debe ser dinámico y no estático. • En nuestro país la principal fuente de deterioro de las edificaciones recae en la falta de mantenimiento, la agresividad del ambiente, los eventos meteorológicos y las intervenciones antropológicas no autorizadas. • La vulnerabilidad en edificaciones tiene un carácter multilateral, todos los factores que inciden en su ecosistema, pueden ser una fuente de amenaza, debido a ello, es preciso que, para la evaluación y mitigación de los riesgos, se convoquen equipos multidisciplinarios que sean capaces de darle un carácter sistémico a la solución y ponderación de peligros potenciales. • El plan de mitigación de desastres parte de la premisa del grado de protección que se quiera aplicar al objeto de estudio, de tal manera que se optimicen los recursos materiales y económicos para su aplicación. • La concientización de la población y su conocimiento acerca de las políticas de buenas prácticas, para la reducción de desastres y amenazas es objetivo fundamental de la Alta Dirección del Estado. RECONOCIMIENTOS Notable la labor que desarrolla el claustro de profesores de la Facultad de Ingeniería Civil, en su empeño de sensibilizar a todos los actores que participan en el proceso inversionista, acerca de la importancia de la gestión de riesgos, en especial, al Doctor en Ciencias Ingeniero Alejandro López Llanusa. REFERENCIAS 1. Diéguez, I. Evaluación de la vulnerabilidad sísmica estructural en edificios IMS del centro urbano Sierra maestra de Santiago de Cuba, 2011. 2. 2. Fuentes Flores, César M.. El impacto de las viviendas deshabitadas en el incremento de delitos (robo a casa habitación y homicidios) en Ciudad Juárez, Chihuahua, 2010 BIBLIOGRAFÍA CONSULTADA Sánchez et al. Guía para la reducción de la vulnerabilidad de los edificios frente a las inundaciones (1986). Sullivan, L. H. (1896). The tall office building artistically considered. Lippincott's Magazine (57), 403- 409. Thomas, K. L. (2007). Material Matters. Architecture and Material Practice. Abingdon: Routledge. Yau, Y. (2012). Normas, sentido de comunidad y colectivismo comunal en un contexto de edificios en altura. Revista INVI, 27(76), 17-72 FEMA, Student Manual for Nonstructural Earthquake Mitigation for Hospitals and Other Health Care Facilities. [Curso ofrecido por Emergency Management Institute, Emmitsburg, Maryland, USA,1988.] Pan American Health Organization (PAHO), Disaster Mitigation Guidelines for Hospitals and Other Health Care Facilities in the Caribbean. Washington, D.C., 1992. Hacia un Mundo más Seguro Frente a los Desastres Naturales - La Trayectoria de América Latina y el Caribe (Pan American Health Organization (PAHO) / Organización Panamericana de la Salud (OPS), 1994, 112 p.) NC 285 Carga de viento. Método de cálculo, 2003. Directiva no. 1 del Vicepresidente del Consejo de Defensa Nacional para la planificación, organización, y preparación del país para las situaciones de desastres, Sobre los autores La Ing: Roseli García Mesa se graduó de ingeniera civil en la Universidad Tecnológica de La Habana, Cuba en el 2012. Posteriormente inició trabajos relacionados a las estructuras hidrotécnicas. Actualmente es Inversionista en el Centro de Ingeniería Genética y Biotecnología. Es miembro de la UNAICC, y forma parte del ejecutivo provincial de la Sociedad de Ingeniería Civil El DrC. Alejandro López Llanusa se graduó en la Universidad Tecnológica de La Habana, Cuba en el 2009. Actualmente se mantiene impartiendo clases en dicha Universidad como Vice Decano en la Facultad de Ingeniería Civil. 1 DOSIFICACIÓN DE ÁRIDOS EN MEZCLA ASFÁLTICA MODIFICADA CON VIDRIO RECICLADO Aurora Duharte Gonzáles 1, Hernán Castellanos González2, Hilda González Fernández3 1 Universidad de Oriente, Avenida de Las Américas No. 101 entre Calle L y E, Reparto Ampliación de Terraza 2Universidad de Oriente, 3Universidad de Oriente 1e-mail: aurora@uo.edu.cu, hernancg@uo.edu.cu, hglez@uo.edu.cu RESUMEN Cada vez más naciones están dirigiendo su atención a la posibilidad de utilizar materiales reciclados en el sector de la construcción, llegando esta tendencia a la ingeniería de pavimentación de carreteras, donde el uso de material secundario o reciclado en lugar de los “agregados primarios o virgen” está ayudando a aliviar la carga ambiental y a mejorar la conservación de las canteras de materiales pétreos. La industria de la construcción trata constantemente de encontrar tecnologías que mejoren la calidad de los pavimentos y al mismo tiempo aumenten la eficiencia en los trabajos de construcción, mantenimiento y rehabilitación de estos. Mejorar las prestaciones de una mezcla asfáltica implica optimizar los materiales que la componen y su dosificación. Precisamente este trabajo tiene como objetivo proponer combinaciones granulométricas para el diseño de mezclas asfálticas en caliente modificadas con vidrio. Para ello se realizó una amplia revisión bibliográfica que permitió fundamentar teóricamente los aspectos referentes a las mezclas asfálticas, tanto las convencionales como las modificadas. Fue necesario, además, realizar la caracterización de los materiales disponibles, árido grueso y fino proveniente de la cantera El Mucaral, el vidrio reciclado proveniente de la Empresa de materia prima en Santiago de Cuba y el asfalto proveniente de la refinería Lázaro Peña. Teniendo en cuenta la conformidad de los materiales ensayados se pudo obtener granulometrías correspondientes a una mezcla asfáltica semidensa según NC 253-2005, utilizando un 9, 12 y 15 % de vidrio molido como fracción fina. PALABRAS CLAVES: mezclas asfálticas, granulometría, vidrio reciclado. DOSAGE OF AGGREGATES FOR MIX ASPHALT MODIFIED WITH RECYCLED GLASS ABSTRACT More and more nations are turning their attention to the possibility of using recycled materials in the construction sector, with this trend reaching highway paving engineering, where the use of secondary or recycled material instead of “primary or virgin aggregates” is helping to alleviate the environmental burden and improve the conservation of stone quarries. The construction industry is constantly trying to find technologies that improve the quality of pavements and at the same time increase the efficiency of construction, maintenance and rehabilitation works. Improving the performance of an asphalt mixture implies optimizing the materials that make it up and their dosage. Precisely in this work, granulometric combinations are proposed for the design of glass-modified hot asphalt mixtures. To this end, an extensive bibliographic review is carried out that allowed theoretically substantiating the aspects related to asphalt mixtures, both conventional and modified. It was also necessary to characterize the available materials, coarse and fine aggregate from the El Mucaral quarry, recycled glass from the raw material company in Santiago de Cuba, and asphalt from the Lázaro Peña refinery. Taking into account the conformity of the tested materials, it was possible to obtain granulometries corresponding to a semi-dense mixture according to NC 253-2005, using 9, 12 and 15% of ground glass as a fine fraction. KEY WORDS: asphalt mixtures, granulometry, recycled glass. 2 1. INTRODUCCIÓN La inversión en infraestructuras resulta indispensable para el desarrollo económico y social de un país, ya que eleva la competitividad de la economía al satisfacer las condiciones básicas para el avance de las actividades productivas. La infraestructura vial de Cuba está formada en su mayoría por pavimentos flexibles compuestos en su superficie por una capa bituminosa generalmente de mezclas asfálticas. Sin embargo, estas obras han sufrido inconvenientes y fallas, debido además del tránsito a la inclemencia del medio ambiente donde la influencia del clima, el agua y la radiación solar, degradan dicha capa de forma mecánica y química, los cuales han generado una disminución considerable en su efectividad y durabilidad, lo que ha llevado a buscar, por parte de los especialistas en el tema, nuevas alternativas para los materiales componentes que mejoren sus propiedades y capacidad de respuesta mecánica y dinámica, permitiendo así, optimizar el estado de los viales. Agrietamiento en bloque Ahuellamiento Desprendimiento de agregados Fig. 1. Deterioro en pavimentos flexibles. Fuente: Autor. El presupuesto necesario para las actividades relacionadas con los viales, así como los problemas ambientales que de él se derivan, justifican la búsqueda de nuevas técnicas que permitan reducir costos y protejan el medio ambiente. En este contexto, el reciclado, como medio de racionalizar los recursos, se convierte en una necesidad ya que se sustenta en altos beneficios técnicos, económicos, energéticos y ambientales para la construcción y rehabilitación de carreteras. Estamos en un período en el que uno de los objetivos principales es reducir la contaminación del medio ambiente y cada vez aumentan los proyectos de reciclaje, tratamiento y reutilización de desechos. Desde hace ya varios años, además de continuarse con el uso de las mezclas asfálticas, convencionales o tradicionales, han hecho su aparición nuevos tipos de mezclas asfálticas, con el objetivo de mejorar algunas de sus propiedades, en este caso agregando agentes modificadores. Las mezclas asfálticas modificadas son el producto de la disolución o incorporación de un aditivo modificador (polímero o no polímero), que son sustancias estables en el tiempo y a cambios de temperatura. Un ejemplo de estos modificadores es el vidrio, material que tiene diversas aplicaciones, y en muchos países se emplea como aditivo en las mezclas asfálticas que se suele denominar Glassphalt, las cuales pueden mejorar su estabilidad y disminuir la absorción de asfalto, obtener mejores resultados en cuanto a durabilidad en comparación con las mezclas asfálticas convencionales. Por otro lado, el reciclaje de vidrio contribuye directamente al ahorro energético, ya que disminuye la temperatura de fusión y, consecuentemente, se reducen las emisiones de CO2 a la atmósfera disminuyendo así, la cantidad de materias primas que se emplean en su fabricación. La recuperación del vidrio debe su paternidad a Alemania y Suiza, aunque fueron los daneses los primeros en poner en práctica esta actividad en el año 1962. [1] 3 Globalmente se reciclan aproximadamente 80000 toneladas de vidrio y se tiran 920000 toneladas. El reciclaje de vidrio ahorra un 20% de la contaminación atmosférica y un 50% de la contaminación de las aguas. Por cada tonelada de vidrio reciclado se ahorra una energía equivalente a 136 litros de petróleo. Una cantidad de 3.000 botellas recicladas equivale a la reducción de 1.000 kilogramos de basuras. [2] Debido a que el vidrio es sumamente inerte, su velocidad de degradación es excesivamente lenta, se considera que no es un material ni biodegradable, ni químicamente degradable. Ni los microorganismos, el oxígeno o los ácidos reaccionan con el vidrio. Solamente el agua, después de periodos de tiempo extremadamente largos (millones de años), degradará el vidrio. El vidrio se puede reciclar de manera indefinida, dado que no pierde ninguna de sus cualidades a lo largo de los sucesivos procesos, a diferencia de otros materiales que van experimentando una cierta degradación. Fig. 2. Vertedero de vidrio reciclado. Fuente:https://www.alamy.es.https://conservatuplaneta.com/2011/11/. La tarea de recuperar los residuos en Cuba, está a cargo de La Unión de Empresas de Recuperación de Materias Primas (UERMP). Esta organización tiene entidades en todas las provincias del país. La Habana, Capital de la República de Cuba, ciudad con poco más de 2 millones de habitantes, que posee una amplia infraestructura hospitalaria y de salud, una gran red hotelera, de centros turísticos y recreativos; genera anualmente una gran cantidad de residuos, y muy especialmente, residuos de envases de vidrio. En Santiago de Cuba se estima un volumen anual entre 1130,00 ton y 1700,00 ton de vidrio, provenientes de envases como: botellas de cerveza, licores, frascos de medicamentos, etc., que van a parar a vertederos muchas veces fuera de control según datos relevados por el CITMA (Ministerio de Ciencia Tecnología y Medio Ambiente). [3] Atendiendo a estas consideraciones se define como objetivo general de la investigación: Proponer dosificación de áridos utilizando el vidrio reciclado para el diseño de mezcla asfáltica en caliente a partir de la caracterización de los materiales componentes. 2. MÉTODO Después de una extensa búsqueda bibliográfica se pudo constatar, que las mezclas asfálticas reciben diferentes denominaciones en función de su apariencia, constitución y puesta en obra. Según el tipo de ligante utilizado se clasifican en mezclas asfálticas en frio (utilizan el Asfaltos Líquidos y Emulsiones) y mezclas asfálticas en caliente (utilizan Cemento Asfáltico y cemento asfálticos modificados). La mezcla en caliente a diferencia de la mezcla en frío resulta más homogénea debido al proceso de calentamiento donde también se elimina el polvo de los áridos y a su correcta dosificación en el proceso de producción en planta, de ahí que se aplica en la construcción de las capas de base y de superficie de los pavimentos flexibles y por tanto su utilización está más generalizada. 4 Existen en el mundo, de acuerdo a la experiencia de cada país, una amplia gama de mezclas asfálticas que han sido normadas y cada una de las cuales posee un campo de aplicación, siendo la granulometría la característica principal que las distinguen y de acuerdo con esta, se denominan en: abierta, semidensas y densas. Para lograr la distribución granulométrica requerida para los distintos tipos de mezclas asfálticas es necesario mezclar los áridos en proporciones determinadas, generalmente mezclando de 2 a 4 tamaños de áridos diferentes, formados por áridos grueso, fino y filler, y en este caso de mezcla modificada, al esqueleto mineral se le adiciona el vidrio molido. Para todos los tipos de mezclas asfálticas consideradas, los áridos deberán cumplir los siguientes requisitos generales (NC:759-2010): [4] • Los áridos gruesos (conjunto de áridos que queda retenido en el tamiz # 4), procederán de la trituración y clasificación de piedra de cantera o de grava natural, los áridos finos (conjunto de áridos que pasan el tamiz # 4), serán arenas procedentes de la trituración de la roca (polvo de piedra) o una mezcla de éste con arena natural. Se aproximarán a la forma cúbica, tendrán aristas definidas y superficie rugosa, estarán limpios, poseerán adecuada afinidad con el asfalto, serán resistentes, de uniformidad razonable y estarán exentos de arcilla u otras materias extrañas. • El filler de aportación (material que pasa el tamiz # 200), se compondrá de partículas muy finas de caliza dura con más del 70% de CaCO3, u otro material mineral aprobado de naturaleza no plástica. En general los áridos usados en mezclas asfálticas deben ser: antideslizantes, poseer una alta resistencia al desgaste, ser resistentes al agrietamiento y resistentes a las deformaciones, granulometría y forma adecuada, etc. Para la selección de un agregado en una obra de pavimentación además de la calidad, se aplican otros criterios que incluyen el costo y la disponibilidad del agregado. El vidrio molido y cribado se puede emplear como parte del árido fino en mezclas asfálticas con tamaños inferiores a 4,75 mm. Se han obtenido buenos resultados incorporando entre un 8 % y un 15 % de vidrio molido en capa de rodadura, ya que, con porcentajes superiores, pueden experimentar deterioros debido a pérdidas del ligante. Los tamaños superiores entre 9.5 y 15.3 mm se pueden emplear como material granular en capa de base. Se debe tener en cuenta que el peso específico suele estar entre un 10 y 15 % inferior al de los áridos convencionales lo que debe tenerse en cuenta a la hora de dosificar el betún. [5] 3. RESULTADOS Se elaboró un programa experimental compuesto por 2 etapas: 1. Selección de los materiales. 2. Caracterización de los materiales: áridos y vidrio triturado. 5 Fig. 3. Programa experimental para la dosificación de áridos en el diseño de mezcla asfáltica modificada con vidrio reciclado. Selección de áridos. En la selección de los áridos se tuvo en cuenta su disponibilidad en las canteras de la zona, el tipo de mezcla a diseñar considerando el tipo de tráfico, granulometría y el lugar de colocación en la estructura de pavimento. Todos los áridos fueron obtenidos de la cantera El Mucaral y el vidrio reciclado de la Empresa de materia prima (EMP) de Santiago de Cuba. Árido grueso: Grava 19,1mm (3/4¨) y Granito 9,52mm (3/8¨) Árido fino (Polvo de piedra): (Fracción 5 - 0.15 mm) y vidrio reciclado. Ensayos de laboratorios y caracterización de los materiales Para su adecuado reciclaje, el vidrio fue separado y clasificado según su tipo que por lo común está asociado a su color, en este caso se utilizó las botellas transparentes, luego el material ajeno fue separado como las tapas metálicas y etiquetas y finalmente se pasó al machaqueo o trituración del material. Los resultados de los ensayos realizados a los áridos y vidrio triturado reciclado, que permitieron considerarlos conformes para la pavimentación de carreteras, se muestran en las tablas 1, 2, 3, 4, 5 y 6. Tabla 1. Resultados de los ensayos del árido fino. 6 Tabla 2. Resultados de los ensayos del árido grueso (3/8¨) Ensayos Resultados Unidad Método de ensayo Especificación Rodadura Intermedia Peso específico corriente 2.65 * g/cm3 NC 186 - 2002 ≥ 2.50 ≥ 2.50 Peso Específico Saturado 2.67* g/cm3 NC 186 - 2002 -- -- Peso Específico Aparente 2.71* g/cm3 NC 186 - 2002 -- -- Absorción 2.21* % NC 186 - 2002 0.8≥ - ≤ 2.0 0.8≥ - ≤2.5 Peso Volumétrico Suelto 1521* Kg/m3 NC 181 - 2002 -- -- Peso Volumétrico Compactado 1341* Kg/m3 NC 181 - 2002 -- -- Tamiz 200 2.48* % NC 179 - 2002 ≤ 4 ≤ 4 Módulo de finura 5.80* adim NC 251 - 2013 - - Tamaño Máximo 3/8 - - Contenido de Arcilla 0 % NC 179 - 2002 - - Partículas Planas Y Alargadas 6.52* % < 10 < 15 Evaluación: Se usa la NC 759:2010 Áridos para mezcla asfálticas. Requisitos. (*) conforme (**) No conforme La fracción cumple con las especificaciones en los ensayos realizados, clasifica como CONFORME Tabla 3. Resultados de los ensayos del árido grueso (3/4¨) Ensayos Resultados Unidad Método de ensayo Especificación Rodadura Intermedia Peso específico corriente 2.69* g/cm3 NC 186 - 2002 ≥ 2.50 ≥ 2.50 Peso Específico Saturado 2.70* g/cm3 NC 186 - 2002 -- -- Peso Específico Aparente 2.73* g/cm3 NC 186 - 2002 -- -- Absorción 0.41* % NC 186 - 2002 0.8≥ - ≤ 2.0 0.8≥ - ≤2.5 Peso Volumétrico Suelto 1512* Kg/m3 NC 181 - 2002 -- -- Ensayos Resultados Unidad Método de ensayo Especificación Rodadura Intermedia Peso específico corriente 2.69* g/cm3 NC 186 - 2002 ≥2.50 ≥2.50 Peso Específico Saturado 2.7* g/cm3 NC 186 - 2002 -- -- Peso Específico Aparente 2.72* g/cm3 NC 186 - 2002 -- -- Absorción 1.50* % NC 186 - 2002 0.8≥ - ≤ 2.0 0.8≥- ≤2.5 Peso Volumétrico Suelto 1571* Kg/m3 NC 181 - 2002 -- -- Peso Volumétrico Compactado 1708* Kg/m3 NC 181 - 2002 -- -- Tamiz 200 12.65* % NC 179 - 2002 ≤ 4 ≤ 4 Módulo de finura 4.20* adim NC 251 - 2013 - - Tamaño Máximo No. 4* - - Impureza Orgánica 0* # de Placa NC 185 - 2002 - - Evaluación: Se usa la NC 759:2010 Áridos para mezcla asfálticas. Requisitos. (*) conforme (**) No conforme La fracción cumple con las especificaciones en los ensayos realizados, clasifica como CONFORME 7 Peso Volumétrico Compactado 1336* Kg/m3 NC 181 - 2002 -- -- Tamiz 200 0.62* % NC 179 - 2002 ≤ 4 ≤ 4 Módulo de finura 5.80* adim NC 251 - 2013 - - Tamaño Máximo 3/4 - - Impureza Orgánica 0* # de Placa NC 185 - 2002 - - Partículas Planas Y Alargadas 10.66* % < 10 < 15 Evaluación: Se utiliza la NC 759:2010 Áridos para mezcla asfálticas. Requisitos. (*) conforme (**) No conforme. La fracción cumple con las especificaciones en los ensayos realizados, clasifica como CONFORME Tabla 4. Resultados de los ensayos del vidrio triturado. Ensayos Resultados Unidad Método de ensayo Especificación Rodadura Intermedia Peso específico corriente 2.52* g/cm3 NC 186 - 2002 ≥ 2.50 ≥ 2.50 Peso Específico Saturado 2.25* g/cm3 NC 186 - 2002 -- -- Peso Específico Aparente 2.53* g/cm3 NC 186 - 2002 -- -- Absorción 0.1* % NC 186 - 2002 ≤ 3 ≤ 3 Peso Volumétrico Suelto 1479* Kg/m3 NC 181 - 2002 -- -- Peso Volumétrico Compactado 1662* Kg/m3 NC 181 - 2002 -- -- % Vacío 23.33* NC 177 - 2002 -- -- Tamiz 200 2.47* % NC 179 - 2002 ≤ 4 ≤ 4 Módulo de finura 5.80* adim NC 251 - 2013 - - Tamaño Máximo 4.76* - - Impureza Orgánica 0* # de Placa NC 185 - 2002 - - Partículas Planas Y Alargadas 10.66* % < 10 < 15 Evaluación: Se utiliza la NC 759:2010 Áridos para mezcla asfálticas. Requisitos. (*) Conforme (**) No conforme. La fracción cumple con las especificaciones en los ensayos realizados clasifica como CONFORME Se puede observar en las tablas anteriores que tanto la fracción gruesa como la fina cumplen con todos los requisitos normados, clasificando como conforme, teniendo en cuenta que estos áridos son los que se encuentran disponibles para la rama de la construcción de carreteras, lo cual permitió continuar el proceso Análisis granulométrico de los agregados pétreos Después de realizar los ensayos de granulometría se pudo observar que los agregados, cumplen con los rangos de los requisitos granulométricos establecidos en la tabla 1 y 2 de NC 759: 2010, en este caso se corresponden con la No 6 (3/4”), la No 11 (3/8”) y No15 (polvo de piedra y vidrio triturado). Tabla 5. Granulometría de los áridos seleccionados % Pasado 8 Tamiz Mucaral Mucaral Mucaral EMP Granulometría Especificación NC 759:2010 plgs. mm. Grava (3/4) Granito (3/8) Polvo de piedra Polvo de vidrio No 6 No11 No15 No15 1” 25,4 100 100 100 100 100 100 100 100 ¾” 19,1 100 100 100 100 90-100 100 100 100 ½” 12,7 55 100 100 100 20-55 100 100 100 3/8” 9,52 13 100 100 100 0-15 85-100 100 100 No. 4 4,76 1 16 100 100 0-5 10-30 95-100 95-100 No. 8 2,38 1 8 87 100 - 0-10 70-100 70-100 No. 10 2,00 1 5 68 92 - - - - No. 16 1,19 - 1 58 74 - 0-5 40-80 40-80 No. 30 0,59 - 1 42 64 - - 20-65 20-65 No. 40 0.42 - 1 34 55 - - - - No. 50 0,297 - - 27 29 - - 7-40 7-40 No. 80 0,177 - - 18 17 - - - - No. 100 0,149 - - 14 10 - - 0-20 0-20 No. 200 0,074 - - 10 6 - - 0-10 0-10 Mezcla de áridos Una vez caracterizados los materiales se combinaron los áridos, utilizando el método de tanteo, proponiendo un 8, 12 y 15 % del vidrio triturado incorporado por sustitución del árido fino. Estas combinaciones se muestran en la tabla 6. Tabla 6. Propuesta de combinación de áridos con vidrio molido. Áridos Combinaciones de áridos 1 2 3 Grava ¾” 30 % 30 % 30 % Granito 3/8” 25 % 25 % 25 % Polvo de piedra 36 % 33 % 30 % Vidrio molido 9 % 12 % 15 % En las tablas 7, 8 y 9 se puede observar el resultado granulométrico de estas combinaciones que se corresponden en todos los casos con la granulometría de la mezcla semidensa (SD) No 9, según la tabla No 11 de la NC 253 – 2005. [6] 9 Tabla 7. Combinación 1 de áridos con 9% de vidrio triturado Combinación de Áridos con los tamices del Instituto del Asfalto Cantera Mucaral Mucaral Mucaral EMP Total Especificación Nº 9 SD Tamiz % Grava % Granito % Polvo % Vidrio Tamaño máximo 19,1 plgs. mm. 30% 25% 36% 9% 100% Mín. Máx. V. Media 1” 25,4 100 100 100 100 100 100 100 100 ¾” 19,1 100 100 100 100 10o 100 100 100 ½” 12,7 55 100 100 100 87 80 95 87,5 3/8” 9,52 13 100 100 100 74 70 85 77,5 No. 4 4,76 1 16 100 100 49 45 60 52,5 No. 10 2,00 1 5 68 92 34 27 42 34,5 No. 40 0,42 1 34 64 18 12 21 16,5 No. 80 0,177 18 17 6 6 13 9,5 No. 200 0,074 10 6 4 4 8 6,0 Fig. 4. Granulometría combinada con 9 % de vidrio triturado. 10 Tabla 8. Combinación 2 de áridos con 12 % de vidrio triturado Combinación de Áridos con los tamices del Instituto del Asfalto Cantera Mucaral Mucaral Mucaral EMP Total Especificación Nº 9 SD Tamiz % Grava % Granito % Polvo % Vidrio Tamaño máximo 19,1 plgs. mm. 30% 25% 33% 12% 100% Mín. Máx. V. Media 1” 25,4 100 100 100 100 100 100 100 100 ¾” 19,1 100 100 100 100 100 100 100 100 ½” 12,7 55 100 100 100 87 80 95 87,5 3/8” 9,52 13 100 100 100 74 70 85 77,5 No. 4 4,76 1 16 100 100 49 45 60 52,5 No. 10 2,00 1 5 68 92 35 27 42 34,5 No. 40 0,42 1 34 64 19 12 21 16,5 No. 80 0,177 18 17 8 6 13 9,5 No. 200 0,074 10 6 4 4 8 6,0 Fig. 5. Granulometría combinada con 12 % de vidrio triturado. 11 Tabla 9. Combinación 3 de áridos con 15 % de vidrio triturado Combinación de Áridos con los tamices del Instituto del Asfalto Cantera Mucaral Mucaral Mucaral EMP Total Especificación Nº 9 SD Tamiz % Grava % Granito % Polvo % Vidrio Tamaño máximo 19,1 plgs. mm. 30% 25% 30% 15% 100% Mín. Máx. V. Media 1” 25,4 100 100 100 100 100 100 100 100 ¾” 19,1 100 100 100 100 100 100 100 100 ½” 12,7 55 100 100 100 87 80 95 87,5 3/8” 9,52 13 100 100 100 74 70 85 77,5 No. 4 4,76 1 16 100 100 49 45 60 52,5 No. 10 2,00 1 5 68 92 36 27 42 34,5 No. 40 0,42 1 34 64 20 12 21 16,5 No. 80 0,177 18 17 8 6 13 9,5 No. 200 0,074 10 6 4 4 8 6,0 Fig. 6. Granulometría combinada con 15 % de vidrio triturado. En los gráficos de las figuras 4, 5 y 6, se puede observar, que para las tres combinaciones el porciento pasado por el tamiz 200 estuvo coincidiendo con el límite inferior de la especificación de la granulometría, lo cual se debe al poco aporte de fino de los materiales utilizados. Por tanto, es importante destacar que en este caso se trituró el vidrio por falta de un molino que pudiera realizar esta operación influyendo en esta situación. No obstante, se obtuvo el tamaño máximo que recomienda la bibliografía de 4,76 mm. 12 Se pudiera plantear entonces, que si se realizara la operación de molienda del vidrio, el porciento de filler aumentaría en la granulometría lo cual permitiría diseñar mezclas densas y mejorar la estabilidad de la misma. 4. CONCLUSIONES 1. En el momento de la investigación se disponía para la dosificación granulométrica de la mezcla asfáltica modificada con vidrio reciclado con áridos de la cantera El Mucaral y vidrio reciclado obtenido de la Empresa de Recuperación de Materia Prima de Santiago de Cuba. 2. Se caracterizaron los materiales pétreos y el vidrio reciclado realizando los ensayos correspondientes según la NC 759:2010, donde se obtuvo como resultado que clasifican como conformes al cumplir con los requisitos establecidos. 3. Se propusieron tres combinaciones granulométricas sustituyendo porciento de árido fino por un 9, 12 y 15 % de vidrio triturado, obteniendo granulometrías correspondientes a una mezcla semidensa. 4. La utilización del vidrio triturado en las mezclas asfálticas mejora su estabilidad y disminuye la absorción de asfalto, además, se pueden obtener mejores resultados en cuanto a durabilidad. 5. Los resultados de este trabajo se ponen a disposición de la Empresa constructora de viales No 24 y de la ENIA en Santiago de Cuba, para utilizarlo en su entidad. REFERENCIAS 1. Varios autores (2012). “Construction and demolition waste guide - recycling and re-use across the supply chain”. Australian Government. Department of Sustainability,Environment, Water, Population and Communities 2. J.C.Nicholls. ``the use of crushed glass in macadam for roadbase layers´´.TRL unpublished Project report IP 12/00. Estados Unidos. (en línea) Consultado Abril 2017. Disponible en: http://www.recycled-pvb.eu/ 3. Abreu, J, E. El reciclaje del vidrio. Universidad de La Habana. Cuba. 2015. (en línea) Consultado marzo 2017. Disponible en: http://www.ecovidrio.es 4. NC:759-2010. ÁRIDOS PARA MEZCLAS ASFÁLTICAS — REQUISITOS 5. Hildebrandt Grouppe. Uso del vidrio en la construcción y en la arquitectura. Reviste Hildebrandt. Santiago de Chile. Chile. 2016. (en línea) Consultado Abril 2017. Disponible en: contacto@hildebrandt.cl 6. NC 253-2005. Carreteras. Materiales Bituminosos. Hormigón Asfaltico Caliente. Especificaciones. SOBRE LOS AUTORES Aurora Duharte González. Ingeniera Civil, Máster en Carreteras y Puentes. Profesora auxiliar. Jefa de Departamento de Ingeniería Civil, Facultad de Construcciones. Universidad de Oriente. Presidenta de la sección de base Ingeniería Civil de la Universidad de Oriente en la UNAICC. 13 Hilda González Fernández, Ingeniera Civil, Máster en Carreteras y Puentes. Profesora auxiliar, Jefa de la disciplina de viales en el departamento de Ingeniería Civil de la Universidad de Oriente, miembro de UNAICC. Hernán Castellanos González. Ingeniero Civil, Profesor instructor del departamento de Ingeniería Civil de la Universidad de Oriente. 1 LOS RIESGOS EN LA CONSERVACIÓN DE PAVIMENTOS FLEXIBLES EN ZONA SÍSMICA Rita Delia Safonts González1, Eduardo Beira Fontaine 2, Javier González Brugal3 1Universidad de Oriente, Avenida de las Américas N0 101 / calle L y e Ampliación de terraza. 2Universidad de Oriente, Avenida de las Américas N0 101 / calle L y e Ampliación de terraza. 1ritadelia@uo.edu.cu, 2fontaine@uo.edu.cu 3 CPV@stgo.transnet.cu RESUMEN La evaluación de riesgo para la conservación de pavimentos flexibles en un tramo de carretera aplicando matrices de evaluación de conflicto e impacto ambiental, apoyados en la Planificación Ambiental permite proponer consideraciones para mitigar el impacto ante el cambio climático que provocan actividades y procesos los cuales causan un impacto en el medio que se aseveran en zona sísmica y costera, ese es el objetivo de esta investigación.Lo que se evidencia como defectos o daños en las estructuras de pavimento flexible puede estar en función del comportamiento por espesores insuficientes u otros factores en base a parámetros económicos y técnicos. Se impone la definición de variables a analizar en cuanto a tráfico y operación, antrópicas ambientales y técnico – constructivas incluyendo en el estudio variables antrópicas y ambientales en función de las condiciones de Cuba. Proponer un plan de acción para el enfrentamiento, al cambio climático permite que usuarios y constructores apliquen adecuados comportamientos y acciones para la protección del medio, ya que la vulnerabilidad de objetos de obras de un proyecto puede ser amenazada por impactos ambientales sobre la infraestructura y sobre el medio natural, a lo que llamamos patrimonio construido. En el caso de la carretera Granma se destacan riesgos por la incidencia del cambio en clima están presentes por su ubicación geográfica que además aceleran el proceso de envejecimiento de la estructura de los pavimentos flexibles y la acelerada aparición de deterioros. PALABRAS CLAVE: pavimento flexible, carreteras, riesgos, zona sísmica. THE RISKS IN THE CONSERVATION OF FLEXIBLE PAVEMENTS IN A SEISMIC ZONE The risk assessment for the conservation of flexible pavements in a section of road applying conflict and environmental impact assessment matrices, supported by Environmental Planning, allows proposing considerations to mitigate the impact of climate change caused by activities and processes which cause a impact on the environment that are asserted in seismic and coastal zones, that is the objective of this investigation. What is evidenced as defects or damage in flexible pavement structures may be a function of behavior due to insufficient thickness or other factors based on economic and technical parameters. The definition of variables to be analyzed in terms of traffic and operation, anthropogenic, environmental and technical-constructive variables is imposed, including in the study anthropogenic and environmental variables based on the conditions in Cuba. Proposing an action plan to confront climate change allows users and builders to apply adequate behaviors and actions for the protection of the environment, since the vulnerability of objects of works of a project can be threatened by environmental impacts on the infrastructure and on the natural environment, what we call built heritage. In the case of the Granma highway, risks due to the incidence of climate change are present due to its geographical location, which also accelerate the aging process of the flexible pavement structure and the accelerated appearance of deterioration. KEYWORDS: flexible pavement, roads, risks, seismic zone. 2 Introducción La gestión del riesgo en la infraestructura vial es ineludible para la vida de los pavimentos, ya que estos garantizan la movilidad con confort y seguridad del tránsito de cargas y pasajeros. Gestionar el riesgo para el desarrollo de una sociedad sostenible, contribuye en el análisis y evaluación de procesos, apoyados en normas como la ISO 31000:2009, así lo plantea Escorial 2010. La proyección del aumento de la temperatura global, hasta el 2050, ha traído cambios de temperatura anticipados a los períodos de la vida en el planeta, (www. IPCC, 2001) y según IPCC 2019 los efectos del cambio climático serán perores en el futuro. El CC es un fenómeno que evidencia los efectos de variables climáticas como temperaturas y humedad por la elevación del nivel del mar y el incremento de las lluvias intensas en el comportamiento de las capas asfálticas del pavimento flexible, según (Palma y Castillo, 2012). Los daños y patologías que presentan los pavimentos inciden en aspectos como la tasa de accidentalidad, consumo de energía asociado a la operación del tránsito, el uso de materiales y equipos de construcción, además de provocar un impacto ambiental negativo al no controlar los procesos de vertidos y residuos producto de acciones de conservación. El aumento de gases de efecto invernadero, incremento de las temperaturas y del nivel del mar entre otros permiten reconocer la potencialidad de la amenaza o peligro que representa el cambio climático para la región de Centroamérica, según (PNUD, 2013). Entre los riesgos que inciden en la vida de los pavimentos flexibles se encuentran los antrópicos sujetos a procesos de construcción o naturales como sismos, huracanes, intensas lluvias u otros fenómenos provocados por el cambio climático, (CEPAL 2018.), datos no siempre tenidos en cuenta en proyectos carreteros para la conservación de pavimentos sostenibles, (Agenda 2030: Objetivos del desarrollo sostenible). La vulnerabilidad en pavimentos puede ser medioambiental, física, social y económica de las comunidades con el fin de garantizar la resiliencia ante el evento producido según Climate Change 2014 Synthesis Report y (CEPAL, 2005), se fundamenta en variables para la evaluación de riesgos en los estudios de PVR. Cuba posee experiencias para la resiliencia ante el CC, apoyados en el accionar del Sistema Defensa Civil, según (OXFAN, 2010). Actualmente la principal amenaza en las zonas costeras cubanas es la elevación gradual del nivel medio del mar, a 27 centímetros para el año 2050 y 85 a fines de este siglo, según (Pérez et, al, 2015) observando como principal peligro para Cuba actual y futuro la penetración del mar por el aumento de la altura del oleaje que provocan los huracanes, (Pérez y Milanés 2020), lo que se dirige y controla desde el Plan de estado para el enfrentamiento al Cambio Climático, Tarea Vida, (CITMA, 2017). Las carreteras constituyen un eje estratégico ante la resiliencia o capacidad de recuperarse un sitio, (Domínguez y Ibrahimbegovic, 2013), como parte del sistema ante desastres, así que evaluar la vulnerabilidad y riesgo permite considerar decisiones sostenibles como uso y reciclaje de pavimentos flexibles, (Sultán y Guo, 2017). Los materiales pueden ser resilientes en función de la estructura, según los autores (Marrero, Castañeda y Howland, 2019, considerar la incidencia de aerosoles marinos en estructuras metálicas de carreteras puede afectar la composición de materiales, aumentando la corrosión en elementos metálicos. Este criterio se puede considerarse en el caso de los pavimentos flexibles ya que también la salinidad puede influir en el desempeño de la estructura de carreteras. Teniendo en cuenta el incremento del deterioro de los pavimentos en carreteras de Cuba, cuando se presenta una densidad de 157 km de vías pavimentadas por km² de superficie, se puede considerar que los deterioros y fallos estructurales que evidencian el envejecimiento de los pavimentos flexibles pueden estar dados por diferentes variables: ambientales, antrópicas, técnicas–constructivas y de tráfico y operación, no solo las causas están en el diseño. 3 La carretera Granma en Santiago de Cuba, es un vial que mantiene importancia por la unión de la provincia Santiago de Cuba con la provincia Granma además del impacto socioeconómico que reviste al estar emplazada en la zona costera que bordea la Sierra Maestra, zona afectada por la falla sísmica Bartlett-Caimán donde se reportan terremotos fuertes, Chuy, 1999. En la zona hoy se construyen alternativas sostenibles de desarrollo de energía que aseguren la vida de actual y futura de territorio y fue esta vía objeto de rehabilitación en el periodo 2013-2014. Tramo 1 Rio Grande Granjita –Rio Grande Uvero Fig. 1: Fotos de deterioros en pavimentos de la carretera Granma. Santiago de Cuba. Fuente: CPV, 2016-2019. Las fotos que se exponen en la fig.1, muestran deterioros en la carretera significando tramos como Santiago- Caletón ó tramo 1; deslizamientos de taludes sobre la calzada y perdida del borde de la vía en Rio Grande; se observan grietas en el pavimento en Uvero y en el tramo Granjita –Rio Grande se muestran baches y disgregación del pavimento, en otros tramos el drenaje es insuficiente. Papayo (Bacheo) Peladero (Desvío) Brujas (HH rígido) Macho (Escombreo) Fig.2: Fotos de trabajos de conservación realizadas en los pavimentos de la carretera Granma. Santiago de Cuba. Fuente: CPV, 2016-2019. Las fotos que se exponen en la fig.1, muestran deterioros en la carretera significando tramos como Santiago- Caletón ó tramo 1; deslizamientos de taludes sobre la calzada y perdida del borde de la vía en Rio Grande; se observan grietas en el pavimento en Uvero y en el tramo Granjita –Rio Grande se muestran baches y disgregación del pavimento, en otros tramos el drenaje es insuficiente. Para la solución de estos defectos que se conjugan con vulnerabilidades como deslizamientos de taludes y penetraciones del mar, la salinidad del ambiente además de las altas temperaturas se ejecutan trabajos de conservación en pavimentos flexibles con diferentes soluciones y materiales. 4 Entre las soluciones a los daños y deterioros que aparecen en tramos de la vía se muestran baches por sapo en el Papayo, solución con pavimento rígido en el desvió del puente Peladero; en la Brujas se construyó un tramo del vial con pavimento rígido y se muestra en el Macho acciones de escombreo para abrir paso en la carretera, luego de las penetraciones del mar. 2. Materiales y métodos Se realiza revisión bibliográfica de herramientas metodológicas permiten evaluar riesgo e impacto ambiental y proponer medidas de adaptación y mitigación desde la fase de proyecto, estableciendo el monitoreo de acciones futuras. En el trabajo se evalúan los riesgos basados en matrices de conflictos con análisis de objetivos fundamentales y objetivos de medio en el proceso de conservación de pavimentos flexibles para mitigación del efecto del cambio climático en carreteras. La investigación se apoya en matriz peligro-probabilidad–consecuencias–riesgo en carreteras, para evaluar riesgos apoyados en la matriz de conservación de carreteras, Safonts y Aladro 2014, la cuantificación de ("entradas" como energía, materias primas, agua) y emisiones ("salidas" al aire, agua y suelo), permite proponer acciones de mitigación ante el efecto al cambio climático en los pavimentos flexibles teniendo en cuenta los riesgos en zonas sísmicas. 3. Resultados Las patologías más recurrentes en los pavimentos de carreteras suelen ser agrietamientos, baches a causa de las lluvias por encharcamientos o insuficiente drenaje en la vía, en el trabajo se obtuvo la matriz (material – energía –residuos) teniendo en cuenta el Manual Centroamericano para Conservación de pavimentos según el PIARC, que aparece en la tabla 1. La tabla 1, permite evaluar cómo se utilizan los recursos para el proceso de conservación de pavimentos flexibles. Para cada proceso se analizan distintas actividades, considerando los materiales, la energía y los residuos como se indican por letras: A: Tóxicos B. No tóxicos: C: Eléctrica D: Combustible E: Mineral F: Animal G: Vegetal H: Residuos líquidos I: Gases J: Polvo. Tabla 1: Matriz materiales – energía – residuos en los procesos de la conservación de pavimentos flexibles. Fuente: Safonts 2010. Procesos Materiales Energía Residuos sólidos Residuos Líquidos (H) Residuos gaseosos A B C D E F G I J 1 X X X X 2 X X X X X x x 3 X X X X X X X 4 X X X X X X 5 X X X X X X X X 6 X X X X X 7 X x X X X X X 8 X X X X X X 9 X X X X X X X X X 5 Leyenda de los procesos: 1) Conservación de las zonas de dominio público. (Mecanizado o Manual). 2) Conservación del drenaje longitudinal. 3) Conservación de superficies pavimentadas. 4) Conservación de sectores pavimentados. 5) Conservación de superficies no pavimentadas. Reconstrucción mecanizada. 6) Obtención y utilización de recursos naturales. 7) Mantenimiento ligero de puentes. 8) Mantenimiento a la jardinería y las áreas verdes. 9) Periodo de explotación del vial. la definición de variables a analizar en cuanto a tráfico y operación, antrópicas ambientales y técnico – constructivas incluyendo en el estudio variables antrópicas y ambientales en función de las condiciones de Cuba. Proponer un plan de acción para el enfrentamiento, al cambio climático permite que usuarios y constructores apliquen adecuados comportamientos y acciones para la protección del medio, ya que la vulnerabilidad de objetos de obras de un proyecto puede ser amenazada por impactos ambientales sobre la infraestructura y sobre el medio natural, Los proyectos deben contener la concepción de los trabajos preliminares, con atención a las obras inducidas de forma que se evalúe el impacto del uso de los recursos materiales y las nuevas tecnologías. Fig.3. Afectaciones de objetivos fundamentales por inundaciones costeras en carreteras. Fuente: Safonts, et, al, 2020. Diplomado Cambio Climático, 2019. CEMZOC. Facultad de Construcciones. Universidad de Oriente. Cuba. Minimizar las afectaciones por conservación de pavimentos flexibles en carreteras costeras Sociales Económicas Estructurale s Ecológicas Incomunicación de población. Inseguridad vial. Percepción de riesgo. Tránsito local- turístico. Compra de materiales. Preparación. Afectación puentes y OF. Ejecución del presupuesto de rehabilitar. Empleo de combustible. Vertimient por demolición . Socavación de talúdes. Pérdida de ancho de calzada. Facilidades temporales. Áreas Protegidas. Deslizamiento de talúdes en zona sísmica. Funcionales Albergamiento Ubicación y tiro desde canteras de préstamo. Ubicación de plantas móviles para la elaboración de HAC. OBJETIVOS FUNDAMENTALES 6 Considerar entradas y salidas a partir de las actividades que tributan a los objetivos fundamentales, ver la fig.3., se muestran afectaciones que se deben minimizar en la conservación de pavimentos flexibles en carreteras costeras, que además se encuentran en zonas sísmicas. La evaluación se apoya en metodologías para evaluar el valor del riesgo, con la matriz peligro-probabilidad –consecuencias –riesgo en carreteras ver fig. 5 y tabla 2. Fig. 5: Matriz peligro en función de las consecuencias y la probabilidad Tabla.2: Matriz peligro-probabilidad–consecuencias–riesgo en conservación de pavimentos flexibles en carreteras Peligro Probabilidad Consecuencias Riesgo 1 No señalización de tramos afectados en la vía. Moderado Muy alta Accidentes de tránsito 2 Cierre de la carretera. Casi Seguro Mediana Afectación de tiempo de viaje 3 Instabilidad de taludes. Moderado Baja Deslizamientos 4 Desprotección de faja de la vía. Probable Mediana Socavación en faja 5 Vertimientos de residuos a cuerpos de agua y suelo. Casi seguro Extremas Sedimentación 6 Destrucción de elementos de la vía, calzada, OF y puentes. Casiseguro Muy alta Falloestructural 7 Daño al medio ambiente, agua, suelo, atmósfera, aire. Moderado Extrema Emanaciones y vertimientos La matriz peligro-probabilidad –consecuencias –riesgo en pavimentos flexibles de carreteras, evidencia los riesgos altos y muy alto, a partir del impacto que provocan 5, 6 y 7, debido a que provocan fallo estructural por la penetración de agua a elementos de la vía como cunetas y subrasante. 7 Fig.4 Acciones preventivas para la protección del medio natural y construido. Safonts G, R, D; y colectivo autores. Diplomado CC–Universidad de Oriente. Cuba. 2020. Las acciones a desarrollar se encuentran en la capacitación, la conservación y la planificación. Los riesgos por objetivos de medio en la vida de los pavimentos flexibles de las carreteras se manifiestan producto de vertimientos de residuos sólidos y líquidos, la emisión de ruidos y gases a la atmósfera, que provocan la contaminación de agua, suelo, aire y del paisaje, se establecen normas que no siempre se cumplen. Consideraciones para la conservación de pavimentos flexibles: Carretera Granma en Santiago de Cuba. • Los problemas de envejecimiento de los pavimentos en carreteras se acrecientan con el cambio climático más en zonas sísmicas incidiendo variables ambientales, antrópicas, técnicas–constructivas y de tráfico y operación. Es recomendable realizar el análisis de riesgo para identificar las vulnerabilidades en los procesos en que se encuentren realizando los trabajos, de conservación de pavimentos. • La evaluación del riesgo para la conservación de pavimentos flexibles en carreteras ubicadas en zonas sísmicas es potencial y permite que se identifiquen procesos que afectan el ambiente para proponer medidas de mitigación, como son evitar vertimientos inadecuados a acuíferos de sustancias como hormigones, asfaltos y materiales residuos de demoliciones. Los deslizamientos de tierras y socavaciones afectan el tránsito y el estado de la calzada e inciden en el fallo del pavimento flexible con mayor posibilidad. • La identificación de los aspectos e impactos ambientales permiten gestionar y prever la ocurrencia de eventos naturales extremos, ya sea sismos o ciclones, intensas lluvias, con medidas constructivas de protección para minimizar los efectos del cambio climático, así como efectos sociales que impactan en la movilidad de la población, para lograr la sostenibilidad, toda vez que los deterioros afectan la circulación, por lo que su estudio puede ser relevante para planificar la conservación de los pavimentos flexibles. Capacitar decisores y población. Aplicar tecnologías reúso y reciclado de materiales. Agilizar rehabilitación pavimento. Prioridad al transporte. Trasladar hacia zona segura los materiales. Ordenamiento territorial y ambiental. Acciones de conservación de la carretera. Eficiente balance de recursos. combustibles. Señalizar áreas de rehabilitación. Acciones protección de los objetivos de medio Capacitar los constructores en la percepción del riesgo. Cumplir la (DL 327 y Ley 212. Actualizar planes de medidas de desastre y presupuesto. Actualizar los planes de manejo de productos químicos. Rehabilitación de los tramos afectados. Construcción de muros de contención. Reparar OF y puentes afectados. 8 Conclusiones 1. Fundamentar con enfoque sistémico y sinérgico la sostenibilidad de los procesos para el manejo de la conservación de pavimentos flexibles lo que contribuye al manejo de energía, materiales que se mueve para garantizar los trabajos de conservación. 2. La caracterización de los principales daños tanto en la subrasante como en la superestructura de los pavimentos flexibles en carreteras tiene antecedentes en procesos de construcción, y se repiten varias veces si no se toman medidas en la reconstrucción y rehabilitación donde planificar hacia el reciclaje y el reúso garantizan la sostenibilidad. 3. Un plan de acción siempre es un mecanismo de control que las empresas e inversionistas pueden aplicar en la gestión con énfasis en las labores de conservación de pavimentos flexibles ya que en la carretera caso de estudio han adoptado medidas hormigón hidráulico a pesar de su costo inicial, puede valorarse en función de la solución, el costo-beneficio. REFERENCIAS 1. IPCC, 2020. Intergovernmental Panel on Climate Change. Time to Choose, por Alisa Singer — www.environmentalgraphiti.org, 2019. Copia electrónica del Resumen para responsables de políticas del sitio web del IPCC: www.ipcc.ch,ISBN 978-92-9169-351-1. 2. PCC, 2019. Grupo Intergubernamental de Expertos sobre el Cambio Climático. Informe especial del IPCC sobre los impactos del calentamiento global de 1,5 °C. Colectivo de autores. web del IPCC: www.ipcc.ch, ISBN 978-92-9169-351-1 3. Galbán, R. L., 2014. Procedimiento para la gestión y reducción de riesgos geológicos en la provincia Santiago de Cuba Tesis presentada en opción al Grado Científico de Cuba. Doctor en Ciencias Geológicas, Moa, Holguín, Cuba. 4. Ortiz. Ripoll, J., 2005. Relación entre los principios del desarrollo sostenible y la construcción y conservación de carreteras. Revista Ingeniería Viaria y Ambiental. Apartado de medioambiente. Sección de publicaciones: Conservación de carreteras y seguridad vial. Recoletos, Conferencias y Formación, Madrid 9 y10 de febrero. 5. Pérez. M, O., y colectivo de autores. 2015. Estudios de Peligro, Vulnerabilidad y Riesgos de Inundaciones por Penetración del Mar (PVR), Santiago de Cuba. Santiago de Cuba. 6. Pérez M. O., Milanés, B. C.,2020. Social perception of coastal risk in the face of hurricanes in the southeastern region of Cuba Multidisciplinary Study Center of Coastal Zones (CEMZOC), Universidad de Oriente, Las Americas Avenue s/n, CP 90400, Santiago de Cuba, Cuba y Department of Civil and Environmental, GeMarc and GESSA Research Groups, Universidad de la Costa, Barranquilla, Colombia. Oceanand Coastal Management 184 (2020) 105010. Journal Homepage: http://www.elsevier.com/locate/ocecoaman. 7. Safonts, R. D., Aladro. L., 2010. Planificación de un sistema de gestión ambiental en la construcción y conservación de obras viales. Revista Ciencia en su PC, núm. 2, abril-junio, 2014, pp. 56-67 centro de información y gestión Tecnológica de Santiago de Cuba Santiago de Cuba, Cuba. 8. Agenda 2030: Objetivos del desarrollo sostenible. 9. BID, 2008. Indicadores de Riesgo de Desastre y de Gestión de Riesgos Programa para América Latina y el Caribe Informe Resumido - Segunda Edición. Banco Interamericano de Desarrollo, marzoMarrero, Á. R., Castañeda, A., Howland, A. J., 2019. Estudio sobre protección de materiales de construcción expuestos al clima tropical costero de Cuba”. Revista Anales de la Academia de Ciencias de Cuba. Premio de la Academia de Ciencias de Cuba. 10. Cardona, O. D., 2008. Indicadores de Riesgo de Desastre y de Gestión de Riesgos Programa para América Latina y el Caribe Informe Resumido - Segunda Edición Cataloging-in-Publication data provided by the Inter-American Development Bank Felipe Herrera Library 2nd ed. (Series of economic and sector studies; INE-08-002) ISBN: 9789584402196. 9 11. Domínguez N., Ibrahimbegovic, A., 2013. Propuesta de un programa de mejoramiento de resiliencia para una ciudad tipo en la Península de Yucatán. Fecha de recepción: 24 de junio de 2013 - Fecha de aprobación: 27 de noviembre de 2013 Revista Ingeniería 17-3 (2013) 223-232). 12. Informe especial del IPCC sobre los impactos del calentamiento global de 1,5 °C. Colectivo de autores. web del IPCC: www.ipcc.ch, ISBN 978-92-9169-351-1. SOBRE LOS AUTORES Primer Autor (Rita Delia Safonts González): Pertenece a la Universidad de Oriente, profesora auxiliar, Máster en carreteras y puentes, pertenece a la UNAICC. Segundo Autor (Eduardo Beira Fontaine): Profesor de la Universidad de Oriente, Doctor en ciencias técnicas y Especialista en geotecnia, pertenece a la UNAICC. Tercer autor) Javier González Brugal): Especialista del Centro Provincial de Vialidad en Santiago de Cuba, Máter en carreteras y puentes, pertenece a la UNAICC. FERROCEMENT APPLIED ON WATER AND SANITATION Sávio Nunes Bonifácio 1Brasilian Ferrocement Society (SBF) – President, savionunesbonifacio61@gmail.com RESUMEN El uso de ferrocemento en unidades del água y saneamiento tuvo su mayor aplicación identificada en el estado de Minas Gerais de Brasil. La estructura hecha por FRP híbrido con esqueleto de acero soldadas constituye el refuerzo de los tanques cilíndricos. Desde 1993, estos tanques fueron dispuestas para servir a las comunidades en forma de Estaciones de Tratamiento del Agua Potable (ETA) y Estaciones de Tratamiento de Aguas Residuales (ETE). Un estudio de factibilidad financiera realizado comparando los costos de las unidades sobre ferrocemento y hormigón armado en un caudal de 12 y 24 L/s y comprobó el ahorro del 50% al 60%, expuesto en el documento. Una ETA tiene un concepto hidráulico clásico compuesto por cámara de mezcla rápida, floculación, sedimentación y filtración. Desde 1998 se desarrollaron plantas de tratamiento de aguas residuales con reactor UASB con volumen hasta 400 m³ para caudales hasta 30 L/s con eficiencias del 80% de remoción de carga orgánica. La construcción se muestra paso a paso en el estudio. Finalmente, se muestra un proyecto futuro de un colector de agua de lluvia de ferrocemento en forma de paraboloides hiperbólicos conectados a un techo de un tanque para reservar esta preciosa agua. El servicio de abastecimiento de agua y tratamiento de aguas servidas en los pueblos y municipios menores puede asumir el ferrocemento como un material prometedor. PALABRAS CLAVES: Ferrocemento, Tratamiento del Agua, Tratamiento de Aguas Residuales, análisis estructural. ABSTRACT The use of ferrocement on water and sanitation units had its higher application on Minas Gerais State of Brazil. The structure made by FRP together welded steel fabrics constituent the reinforced of cylindrical tanks. Since 1993 these tanks were arranged to serve communities in form of Potable Water Treatment Plants (ETA in Portuguese) and Wastewater Treatment Plants (ETE in Portuguese). A financial feasibility study carried out comparing the costs of units on ferrocement and reinforced concrete in a flow rate of 12 and 24 L/s and proved the saving from 50% to 60%, showed in the paper. An ETA have a classic hydraulic concept composed by flash mixing camera, flocculation, sedimentation and filtration. Since 1998 were developed wastewater treatment plants with a reactor UASB with volume until 400 m³ for flow up around to 30 L/s with efficient of 80% of removal of organic load. The construction is showed step to step on the paper. Finally, is showed a future project of a ferrocement rain water collector in form of hyperbolic paraboloids connect into a roof of a tank to reserve this precious water. The water supply service and sewage treatment on smaller villages and municipalities can take on ferrocement a promising material. KEY WORDS: Ferrocement, Potable Water Treatment Plant, Wastewater Treatment Plant, Structural Analysis. 1. INTRODUTION This paper would like to contribute showing the experience of application of structures on ferrocement in the Company of Water and Sanitation of the State Minas Gerais – Brazil during three decades building hundreds of water treatment plants, wastewater treatment plants and water tanks with low costs and at all regions of the state [1]. The structure can be made by FRP or metal wire or both, mixing a welded metal wire and a tiny FRP web (see FIG. 1). The use of a metal wire in the middle and two layers on both sides it will higher the tractive module within minimum volume factor [2]. In these tanks the FRP have the advantage that the water doesn’t corrosion. The geometry of all ferrocement tanks is cylindrical or hemispheres. Where FRP tiny mesh could be used with simplicity and to attended the ferrocement parameters of superficial specific. Included the project the tubes that connecting between all tanks are on PVC coated by ferrocement, whose protect the plastic for sun UV radiation and the PVC protect the cement for the gases of water in treatment. The valves used were normal in iron or plastic with compatible diameter. Figure 1 A typical ferrocement section using welded steel fabrics and FRP mesh fabrics Source: Adapted from WAINSTOK RIVAS; HERNANDEZ CARNEIRO; DIAS PÉREZ, 2018 [2]. p.154. The State Minas Gerais is known a hilly landscape who’s the difficulty it’s perfect for ferrocement treatment plants. That have different levels one to flocculation and decanter and other to filters and filtered water tank bellowed by a pump house to elevate the treated water to the necessary ground height to distribute to the city or village. The same image you can mind for the wastewater treatment plant. The sewage net is project on gravity force in its end is on the low level near the river area. In this point a wastewater pump house to elevate to another place where be save to constructed the WWTP. Whose will Include a UASB reactor in modules with capacity 250 m³ or 400 m³ followed by rock filter and finally a surface flow like a third phase of treatment. A special attention with the protection of the inside surface of wastewater treatment plants cover [3]. Above the water line are formed gases like hydrogen sulfide who’s reacting highly and deeply with the cement and the iron making a powder of the structure. The solution is separate the gases from the structure by a polymer. Some materials were be testing like PRVF applied inside under face cover (Hight difficult process) and modified polyurethane applied with airless and other products will be testing. 2. FINANCIAL FEASIBILITY STUDY OF POTABLE WATER TREATMENT PLANT A financial feasibility study carried out by Bonifácio, Sidney, Silva and Moreira (2018) [4], achieve the results showing a saving from 50% to 60% on the costs of potable water treatment plant on ferrocement comparative with reinforced concrete with a mean flow rate of 12 and 24 L/s (see FIGs. 2 and 3), sufficient to serve a population of 6,000 and 12,000 inhabitants, respectively. skeleton reinforcement (Welded steel fabrics) FRP mesh fabrics surface of the section surface of the section Typical Ferrocement Section Figure 2 Water Treatment Plant in Ferrocement (flow = 12,0L/s) Pingo d’Água-MG, 1993. Figure 3 Water Treatment Plant in Ferrocement (flow = 24 L/S) Guimarânia-MG, 2017. In Minas Gerais, Brazil, the first Potable Water treatment Plant (ETA acronyms in Portuguese) using ferrocement as constructive material dates from 1993 [5]. An ETA have a hydraulic concept on classical type (see FIG. 4), described below: Flash mixing – A cylindrical unit where can the raw water arrives divided by a flat vertical septum with a triangular weir that promote a measure of the inflow and a waterfall for the flash mixing. The coagulant/ flocculant aluminum sulfate or ferric chloride is injected at this point. Eventually it is necessary addiction of lime to adjust the incoming water. Flocculation – Hydraulic flocculation was used composed by cylindrical chambers interconnected with conductors terminated in 90-degree elbows which put up the water. The water moves from a chamber to another through passages located at the button of chamber that return the water making a continually mixing. Sedimentation – A cylindrical shaped with a depth 1.50 m only. The flocculated water is introduced into a center cylindrical chamber with circular holes which distributed to entire tank. The decanted water is collected through around all border circumference of the sedimentation tank. Filtration – They are four cylindrical units on ferrocement arranged in parallel which operate as a self-washed system. To washer one filter use the water filtered by the three remaining units. Their filtering bed is double-type consisting of anthracite layer coal installed over a sand layer which goes over a gravel layer. There are only two valves in each filter, one inlet and other wash water valve. Figure 4 First conception of ETA on ferrocement. Costs for construction processes The comparation of use ferrocement structures and reinforced concrete (see FIG. 5) in the manufacture of a ETA with flow rate of 12 and 24 L/s will show for analysis and critical comparison. Figure 5 Comparation a Potable Water Treatment Plant in reinforced concrete and in ferrocement Two budgets based on values of inputs and services generating the data described in table 1, below: Flash mixing Flocculator Decanter Filter Table 1 - Service Description and Costs Service Description ETA 12 L/s ETA 24 L/s Ferrocement (US$) Reinforced Concrete (US$) Ferrocement (US$) Reinforced Concrete (US$) Earth Moving 561,11 2.954,74 1.121,87 3.115,55 Foundations and Structure (1) 37.824,45 47.202,97 47.411,89 66.482,84 Settlements 2.558,32 19.063,89 3.841,83 18.225,96 Miscellaneous Services (2) 26.535,58 21.512,08 31.602,17 56.081,29 Materials (3) 7.289,06 61.903,55 10.749,95 97.181,79 TOTAL (4) 74.768,52 152.637,24 94.727,71 241.087,43 Source: BONIFÁCIO; SIDNEY; SILVA; MOREIRA, 2018 [4]. (1) In the foundation item, it was considered a direct foundation in both projects. (2) The building elements such as electricity, water and sewage, landline, cell phone, internet, office supplies and surveillance company during the execution period were considered within the miscellaneous services item. (3) In the item "materials" are considered the elements such pipes and connections. (4) The workforce was considered within each specific item because it deals with basic items of construction of the structures. Is possible to verify that the use of ferrocement structure it is possible to obtain a saving of 50% to 60% in the value when compared to the use of reinforced concrete. 3. WASTEWATER TREATMENT PLANT At Minas Gerais Brazil, since 1998, UASB reactors have been built for Wastewater Treatment Plant (ETE, acronym in Portuguese), in modules for flow rates of up to 30 L/s with efficiency of 80% of removal of the organic load BOD [6]. The anaerobic reactors of 400 m³, built in ferrocement, are in cylindrical form with 4.60 meters of external height and 10.00 meters of internal diameter. The walls have a thickness that varies from 3 to 8 cm. The structural analyses are showed on Figures 6 and 7. The steps of construction are carefully explained on Figures 8 to 15, below. Figure 6 UASB Reactor - Typical Cross Section (2018) [7]. Figure 7 UASB reactor – Circumferential Membrane Force Nθ (2018) [7]. Figure 8 Execution of the reinforcement of botton slab on ferrocement (2021). Figure 9 Execution of the reinforcement for ferrocement (2021). Figure 10 Application of mortar on the inner side of the wall (2021) Figure 11 Application of the second layer of mortar on the external side of the wall (2021). Figure 12 Cement curing water (2021) Figure 13 Working inside the reactor tank (2021). Figure 14 Application of FRP in the gas chamber (2022). Figure 15 Installation of guardrails and access ladder to the reactor UASB (2022). The internal surfaces received a crystallizing and waterproof cementitious mineral coating to protect surfaces in contact with wastewater. For the covering slab in contact with gases from anaerobic digestion, coatings were researched: high thickness with polyurea systems and polyurea / polyurethane hybrids; or based on polymeric silicate and for the ETE on this study, was chosen vinyl ester resin reinforced with fiberglass applied to the ferrocement substrate. The construction cost of each UASB reactor in ferrocement for the ETE was US $ 126,765 in 2020 [6]. 4. FUTURE PROJECTS – A FERROCEMENT RAIN WATER COLLECTOR A project to building a rain water collector in ferrocement supported by the cover of an underground tank. The tank cover has a cone form and the roof slab is a combination by two hyperbolic paraboloids, “hypar” (see FIGs 16 and 17). The connect between the roof with the cone and the real behavior are being studied. Figure 16 Computer view of the ferrocement rain water collector [8]. Figure 17 Study of structural analisys of the ferrocement rain water collector [8]. The roof slab hypar has a plane area of 144 m² and the water tank, including the cone, had the volume around 120 m³. It will support annually a family that consume water until 10 m³ / month. Under hypar shelter is observed a homeostatic effect toward a relatively equilibrium of temperature. 5. CONCLUSION The largest deficits in developing countries of potable water supply services and sewage treatment persist in municipalities with smaller populations. According to the Brazilian Institute of Geography and Statistics - IBGE, in municipalities with a population of less than 20 thousand inhabitants, about 44% of the Total, located in urban and rural areas, are excluded from water supply services and 70% from collection of sewage. Ferrocement is therefore a promising building material for sanitation managements as it is an appropriate technology for the construction of different sanitation units, like Sand Filters and other tanks. The efficiency of the applicability of these solutions can also be emphasized that the use of ferrocement technology promote the diffusion of information (how to construct) in a democratic way, thus contributing, to overcome difficulties of poor populations in the construction of Potable Water Treatment Plants – ETA, Wastewater Treatment Plants and Water Tanks, an equation to solve a social and environmental issues. REFERENCES [1] BONIFÁCIO, Sávio Nunes. The revolutionary use of ferrocement in the construction of water tanks, water and sewage treatment plants in the state of Minas Gerais, Brazil. In: 10th International symposium on ferrocement and thin reinforced cement composites. La Habana, Cuba: IFS; Sociedad de Ingenieria Civil; UNAICC, 2012. [2] WAINSTOK RIVAS, Hugo; HERNANDEZ CARNEIRO, Julio A.; DIAS PÉREZ, Isel del Carmen. Calidad Y durabilidad de las constucciones. – El uso de los PRF com refuerzo del hormigón armado y el ferrocmento. La Habana, Cuba: CUJAE; Universidad Politécnica de Valencia, 2018(?). [3] COMPANHIA DE SANEAMENTO DE MINAS GERAIS - COPASA. Norma Técnica T.186 - Ferrocimento para Obras de Saneamento. Belo Horizonte: COPASA, 2016. [4] BONIFÁCIO, Sávio Nunes; SIDNEY, Eugênio Luiz; SILVA, Fernando de Oliveira; MOREIRA, Caio Augusto Ribeiro. Financial feasibility study on construction of water treatment plant with ferrocement structure and other. In: 12th International symposium on ferrocement and thin cement composites. Belo Horizonte: IFS, 2018. [5] VIANNA, Marcos Rocha; BONIFÁCIO, Sávio Nunes; Bloom consultoria Ltda. Potable water treatment plants using ferrocement as constructive material: Hydraulic conception aspects. In: 12th International symposium on ferrocement and thin cement composites. Belo Horizonte: IFS, 2018. [6] BONIFACIO, Sávio Nunes; QUINTÃO, Cristiano Martins; CARDOSO, Frieda Keifer. Building, fallen down and recovery of tanks of ferrocement in sewage treatment plants. In: 13th international symposium on ferrocement and thin fiber reinforced inorganic matrices. Lyon, France, 2021. [7] Departamento de Engenharia de Estruturas da UFMG. Relatório de consultoria técnica – Análise e dimensionamento da estructura do reator UASB em ferrocimento. Belo Horizonte: COPASA – Companhia de Saneamento de Minas Gerais, 2018. [8] FRANCO, Marcelo Lobato; BONIFÁCIO, Sávio Nunes. Estudo estrutural do coletor de água de chuva em ferrocimento. Vitória-ES: Edição dos Autores, 2020. About the author Sávio Nunes BONIFÁCIO Mr. Sávio is a Civil Engineer from FUMEC (1984) and quickly started working on Water and Sanitation Company of Minas Gerais – COPASA MG. He studied Ferrocement in Federal University of Ceará with Professor Alexandre Diógenes (1990). In COPASA he developed with all colleagues, especially with Professor Marcos Rocha Vianna, the project of Potable Water Treatment Plants and Wastewater Treatment Plants and Water Tanks volume of 150 m³ (since 1993). He retired from COPASA after 35 years and today is consultant of ferrocement structures and general manager. ANÁLISIS DE LA PERMEABILIDAD DE HORMIGONES FABRICADOS CON AGREGADOS RECICLADOS Byron Baque Campozano1, Rene Antonio Puig Martinez2, Manuel Octavio Cordero Garces3, Dennis Augusto Cobos Lucio4 1Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador, 2 Universidad Tecnológica de la Habana, CUJAE, La Habana-Cuba, 3Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador, 4Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador 1e-mail: bayron.baque@unesum.edu.ec 2e-mail: rpuig2002453@gmail.com 3e-mail: manuel.cordero@unesum.edu.ec 4e-mail: denny.cobos@unesum.edu.ec RESUMEN El presente trabajo es un estudio de revisión sobre los mecanismos difusivos que permiten la permeabilidad de los agentes agresivos en hormigones fabricados con agregados reciclados y el efecto de esta. Mediante un enfoque metodológico mixto, combinando el método bibliográfico y el método deductivo se seleccionaron aquellos documentos que informasen sobre la relación entre la permeabilidad y las reacciones álcali-sílice al interior del hormigón. También se precisan los efectos sobre las propiedades mecánicas y la durabilidad mediante la incidencia en la permeabilidad del uso de áridos reciclados en la formulación de hormigones. Se destaca que, aunque la reutilización de áridos reciclados es una tendencia aceptada por su positivo impacto ambiental y económico es necesario tener un conocimiento más profundo de las potencialidades y limitaciones antes de ser incorporados a las mezclas, evitando que comprometan la durabilidad de la estructura a largo plazo. PALABRAS CLAVES: permeabilidad, hormigones reciclados, agentes agresivos. ANALYSIS OF THE PERMEABILITY OFMADE WITH CONCRETES RECYCLED AGGREGATES ABSTRACT The present work is a review study on the diffusive mechanisms that allow the permeability of aggressive agents in concretes made with recycled aggregates and its effect. Using a mixed methodological approach, combining the bibliographic method and the deductive method, those documents that reported on the relationship between permeability and alkali-silica reactions inside concrete were selected. The effects on mechanical properties and durability are also specified through the impact on the permeability of the use of recycled aggregates in the formulation of concrete. It is highlighted that although the reuse of recycled aggregates is an accepted trend due to its positive environmental and economic impact, it is necessary to have a deeper knowledge of the potentialities and limitations before being incorporated into the mixtures, avoiding that they compromise the long-term durability of the structure. KEY WORDS: permeability, recycled concrete, aggressive agents. 1. INTRODUCCIÓN Históricamente, el hormigón se ha posicionado por ser capaz de garantizar apropiadas características tanto tecnológicas como resistencias mecánicas, estructuras que soportan eficientemente las cargas de servicio para advertidas en su diseño. No obstante, se reportan en las mismas afectaciones relacionadas con su desempeño ante el medio ambiente circundante. Esto ha motivado estudios específicos sobre los factores incidentes en deterioro del hormigón y mitigar su incidencia sobre estructuras ya construidas (Fu et al., 2020; Pourbehi y van Zijl, 2019). Diversos autores han asociado el proceso de deterioro del hormigón con la acción de una combinación de agentes agresivos físico-químico fundamentalmente, aunque también mecánicos e incluso biológicos. Los agentes físicos comprenden aquellos asociados al medioambiente (congelación-deshielo, cargas ambientales no previstas, etc.). Entre los agentes químicos son más complejos siendo los fundamentales las reacciones por sulfatos, nitritos, ácidos, agua de mar y cloruros (Fernandes et al., 2017; Bonic et al., 2015). El objetivo del presente trabajo es la realización de estudio de revisión de tipo descriptivo sobre la permeabilidad ante los agentes agresivos en hormigones con agregados reciclados. 2. MATERIALES Y MÉTODOS Para la localización de los documentos bibliográficos se utilizaron varias fuentes documentales. Se realizó una búsqueda bibliográfica utilizando los descriptores: permeabilidad, hormigones reciclados, agentes agresivos. Los registros referenciados en la bibliografía son el resultado de una selección según relevancia y pertinencia en la temática según el objetivo trazado. Mediante un enfoque metodológico mixto, combinando el método bibliográfico y el método deductivo se seleccionaron aquellos documentos que informasen sobre la permeabilidad ante los agentes agresivos en hormigones con agregados reciclados. 2.1. DURABILIDAD ANTE AGENTES AGRESIVOS EN HORMIGONES. Varios reportes fundamentan la incidencia directa de los agentes agresivos sobre la baja durabilidad en los hormigones. En todos los casos, ya sean estos externos o internos, el grado de deterioro dependerá principalmente de la calidad del hormigón (Guerra et al., 2019). Al respecto, las causas internas son de gran relevancia producto que forman parte de los cambios físico- químicos que experimenta el hormigón en su curado: la reacción álcali-agregado, los cambios de volumen debidos a diferencias entre las propiedades térmicas del agregado y de la pasta de cemento y sobre todo la permeabilidad del concreto; este factor determina en gran medida la vulnerabilidad del concreto ante los agentes externos y por ello un concreto durable debe ser relativamente impermeable (Albear et al., 2019). Hay dos importantes reacciones que pueden provocar la degradación del hormigón por efecto expansivos y a la vez contribuyen a la permeabilidad: las reacciones sulfáticas internas y las reacciones álcali-árido; estas últimas engloban tres tipos: las reacciones álcali-carbonato, las reacciones álcali-sílice y las reacciones álcali-silicato (Barreto et al., 2009). En hormigones con árido de origen natural, pétreos, los efectos sobre las propiedades debido a las reacciones álcali- sílice inciden principalmente en la disminución de propiedades mecánicas, como la capacidad de flexión y tracción, la reducción del módulo de elasticidad y menor proporción la resistencia a compresión, razón por la que han tomado el lugar relevante en cuanto a efecto agresivo. Estas de forma estructural, causan aumento de volumen generando una fisuración superficial, incluso visible, facilitando la fácil agresión de agentes externos, potenciando la corrosión de los aceros internos (Campos et al., 2010). Por otro lado, aunque los áridos reciclados se han usado en múltiples aplicaciones, cuando se requieren en aplicaciones exigentes, como hormigones estructurales, es necesario tener un conocimiento más profundo de las potencialidades y limitaciones antes de ser incorporados a las mezclas. Cuando se incorporan áridos reciclados en hormigones deben evaluarse cuidadosamente los efectos sobre las características principales, incluso sobre los métodos convencionales de evaluación de las reacciones álcali-sílice (Acosta, 2012). Aspectos como la granulometría, determinado por la tecnológica de procesamiento de los residuos constructivos, así como el origen y constitución de los desechos procesados, determina las formas y texturas del árido reciclado, influenciando directamente en la resistencia mecánica, la trabajabilidad y el consumo de cemento en los hormigones con áridos reciclados (Guerrero et al., 2018). Diferentes autores han constatado que la presencia de mortero adherido es la principal causa de la disminución de la resistencia mecánica y que para hormigones no deben usarse residuos de hormigones con valores de resistencia a compresión inferiores a 25 MPa (Sabalsagaray et al., 2018). La diferencia entre la resistencia a compresión entre el uso de reciclados y pétreo, aumenta con el aumento de la clase de resistencia del hormigón. Sin embargo, garantizando una curva granulométrica de los áridos implicados y la trabajabilidad del hormigón fresco, la resistencia del hormigón con árido reciclado comparada con la del hormigón con árido pétreo viene presentando valores satisfactorios (Santosa y de Britob, 2018). De la misma forma que la resistencia a la compresión, la densidad y el módulo de elasticidad también son relativamente más bajos en comparación con hormigones de árido natural. Además, para una relación w/c dada, la permeabilidad, la tasa de carbonatación y el riesgo de corrosión de la armadura aumenta (Liang et al., 2019). La resistencia es un criterio necesario, pero no es el único que debe tenerse en cuenta para la validación del comportamiento de un hormigón. Son de importancia para la durabilidad del hormigón los líquidos y gases que lo penetran, siendo los más comunes el agua, los iones agresivos o puros, el oxígeno y el dióxido de carbono. La durabilidad del hormigón depende en gran medida de la facilidad con que estos entren y se propaguen a través del hormigón. Aunque a la vista parezca monolítico, el hormigón es a nivel micro totalmente esponjoso y cuantificar esta característica se llama comúnmente permeabilidad del hormigón. 2.2. PERMEABILIDAD ANTE LOS AGENTES AGRESIVOS DE HORMIGONES FABRICADOS CON AGREGADOS RECICLADOS Si se desea precisar sobre las propiedades más importantes asociadas al transporte de fluidos en el hormigón, estas son: la difusividad iónica, la porosidad y la permeabilidad. La permeabilidad es la principal preocupación al comprometer de la durabilidad, generándose el surgimiento y agravamiento de fenómenos de deterioro como la carbonatación, el ataque por cloruros y el desarrollo de reacciones álcali-sílice, que agudizaría nuevamente la misma, y así cíclicamente la exposición al exterior se potenciaría aceleradamente (Kapoor et al., 2019). La permeabilidad, como fenómeno químico-físico, está directamente asociada a la cantidad de migración de agua u otras disoluciones por los poros del material en un determinado tiempo, principalmente en el proceso de fraguado, donde están incidiendo la hidratación de la pasta, el calor de hidratación y evaporación del agua de mezcla. También contribuyen desde el punto de vista energético a la existencia de perfiles térmicos, así como la formación de cavidades y grietas debido a la contracción plástica durante el enfriamiento (Jiang y Cheng, 2020). La permeabilidad está estrechamente ligada las reacciones álcali-sílice. Actualmente estás reacciones se describen en términos de dos modelos distintos: el modelo topo-químico y el modelo de disolución- precipitación. Para ambos modelos el coeficiente de permeabilidad se considera la característica difusiva del material. En el modelo topo-químico la reacción se desarrolla solo en la superficie de los áridos reactivos, no existiendo un traslado de especies reactivas del árido para la solución (Esposito y Hendrick, 2019). En el modelo de disolución-precipitación la reacción se desarrolla en forma de solución intersticial después del cambio al estado iónico de las diversas especies reactivas (Sousa, 2016). Con independencia del modelo, la expansión del gel formado por el desarrollo de la reacción álcali-sílice provoca la degradación del hormigón a través de diversos efectos mecánicos tanto para el material como para la estructura. Normalmente, la degradación por este efecto del hormigón puede tardar algún tiempo en manifestarse. No obstante, la sospecha de su existencia se confirma con la aparición de fisuras, exudaciones, eflorescencias, descamaciones y expansión de la estructura. Cuando estos aspectos son visibles, puede concluirse que la impermeabilidad está comprometida y la durabilidad se ha acortado (Champiri et al., 2016) Cuando se implementan adiciones de árido reciclado en el hormigón, se reporta un aumento de varios factores negativos que afectan la durabilidad entre estos la permeabilidad, por otro lado, el resultado puede ser también afectado positivamente por las características de la matriz cementante que se forme (Shin et al., 2017). 3. RESULTADOS Y DISCUCIÓN Se aprecian reportes coincidentes por autores que señalan que la presencia de mortero adherido es la principal causa de la disminución de la resistencia mecánica y que para formular hormigones no deben usarse residuos de hormigones con valores de resistencia a compresión inferiores a las proyectadas. Además, es reglamentario siempre garantizar estudios de comportamiento cuando se requiere una responsabilidad estructural y se utilizan áridos reciclados. En el orden micro, técnicamente, aunque no exista un método generalmente aceptado para caracterizar la morfología de los poros en el hormigón y a la vez relacionarla con la durabilidad, las investigaciones y las buenas prácticas indican que el coeficiente de permeabilidad del hormigón es una excelente medida de su resistencia al ingreso de medios agresivos en estado gaseoso o líquido y constituye un indicador de la durabilidad potencial de un hormigón. En síntesis, la permeabilidad se evidencia como fenómeno determinante ligado a la dinámica de las reacciones álcali- sílice, las cuales aunque inciden principalmente en la disminución de propiedades mecánicas (capacidad de flexión y tracción, reducción del módulo de elasticidad, leve disminución de la resistencia a compresión), su mayor efecto negativo es la expansión volumétrica, generadora de fisuras en las estructuras, incluso visibles, que resultan vías de fácil acceso a agentes agresivos, sobre todo la corrosión del acero estructural. Debe observarse que la implementación de sustituciones por árido reciclado en el hormigón tiende afectar la durabilidad al incidir directamente por la naturaleza del mortero adherido en los áridos reciclados en el coeficiente de permeabilidad de la mezcla. Una vía para atenuar este efecto negativo es el ajuste de mezcla, específicamente la relación agua/cemento. 4. CONCLUSIONES Las propiedades más importantes asociadas al transporte de fluidos en el hormigón, estas son: la difusividad iónica, la porosidad y la permeabilidad. Aunque la permeabilidad aumenta con la incorporación del árido reciclado en el hormigón afectándose la durabilidad, se control depende también de las características de la matriz cementante. Aunque los áridos reciclados se han usado en múltiples aplicaciones, cuando se requieren en aplicaciones exigentes, como hormigones estructurales, es necesario tener un conocimiento más profundo de las potencialidades y limitaciones antes de ser incorporados a las mezclas. En cualquier caso, este nuevo contexto técnico implica que el sector de la ingeniería civil, tanto la rama de la investigación y como la docencia, asimilen y mejoren los requerimientos teóricos-prácticos para el uso de estos materiales reciclados alternativos a través de recomendaciones de buenas prácticas, intercambio de experiencias exitosas o desarrollo de documentación técnica a nivel reglamentario. REFERENCIAS 1. Acosta Collell, I. (2012). Calibración y puesta en marcha de una nueva máquina de ensayo para hormigón afectado por la reacción álcali-árido (Bachelor'sthesis, UniversitatPolitècnica de Catalunya). 2. Albear, J. J. H., Valdés, A. C., Águila, R. M., & Clemente, C. V. (2019). Requirimientostecnólogicos para construir estructuras de hormigón armado altamente resistentes al ambiente agresivo costero de Cuba. Revista CENIC Ciencias Químicas, 50(1), 010-021. 3. Barreto Santos, M., de Brito, J., & Santos Silva, A. (2009). Métodos de evaluación de las reacciones álcali-sílice en hormigones con áridos reciclados. Revista ingeniería de construcción, 24(2), 141-152. 4. Bonić, Z., Ćurčić, G. T., Davidović, N., &Savić, J. (2015). Damage of concrete and reinforcement of reinforced- concrete foundations caused by environmental effects. Procediaengineering, 117, 411-418. 5. Campos, A., LOPEZ, C., & Aguado, A. (2010). Análisis meso-mecánico del hormigón bajo la acción de procesos expansivos internos. XXVII Encuentro del Grupo Español de Fractura/12ª Jornadas de Fractura de SPM. Porto, Portugal, 283-288. 6. Champiri, M. D., Sajjadi, S., Mousavizadegan, S. H., &Moodi, F. (2016). Assessing distress cause and estimating evaluation index for marine concrete structures. Am. J. Civ. Eng. Arch, 4(4), 142-152. 7. Esposito, R., &Hendriks, M. A. N. (2019). Literature review of modelling approaches for ASR in concrete: a new perspective. European Journal of Environmental and Civil Engineering, 23(11), 1311-1331. 8. Fernandes, B., Gil, A. M., Bolina, F. L., &Tutikian, B. F. (2017). Microstructure of concrete subjected to elevated temperatures: physico-chemical changes and analysis techniques. Revista IBRACON de Estruturas e Materiais, 10(4), 838-863. 9. Fu, C., Ye, H., Jin, N., & Huang, Y. (2020). Chloride Penetration in Reinforced Concrete Beams under Combined Sustained Loading and Drying–Wetting Cycles. Journal of Materials in Civil Engineering, 32(4), 04020025. 10. Guerra, J. C., Alber, J. J. H., & Valdes, A. C. (2019). Importancia del estudio del desempeño por durabilidad del puente del rio Chone, provincia de Manabí, Ecuador. Revista Cubana de Ingeniería, 9(1), 57-66. 11. Guerrero Vilches, I., Rodríguez Jerónimo, G., & Rodríguez Montero, J. (2018, March). Valorización como árido reciclado mixto de un residuo de construcción y demolición en la confección de hormigones autocompactantes durables en terrenos con yesos. In HAC 2018. V Congreso Iberoamericano de hormigón autocompactable y hormigones especiales (pp. 579- 588). Editorial UniversitatPolitècnica de València. 12. Jiang, C., & Cheng, X. (2020). Recycling of waste ceramic foams as fine aggregates in pervious concrete. RSC Advances, 10(4), 2364-2367 13. Liang, C., Ma, H., Pan, Y., Ma, Z., Duan, Z., & He, Z. (2019). Chloride permeability and the caused steel corrosion in the concrete with carbonated recycled aggregate. Construction and Building Materials, 218, 506-518. 14. Kapoor, K., Dar, F. A., & Rather, D. A. (2019). Properties of Permeable Concrete Made by Recycled Aggregates. In Sustainable Engineering (pp. 359-365). Springer, Singapore. 15. Pourbehi, M. S., & van Zijl, G. P. (2019). Analysis of combined action of seismic loads and alkali-silica reaction in concrete dams considering the key chemical-physical-mechanical factors and fluid-structure interaction. EngineeringStructures, 195, 263-273. 16. Sabalsagaray Curuchet, B., BoianiCasella, A., &Rodriguez de Sensale, G. (2018, March). Empleo de residuos de industria cementera y arrocera en micro-hormigón para paneles de viviendas de interés social en Uruguay. In HAC 2018. V Congreso Iberoamericano de hormigón autocompactable y hormigones especiales (pp. 301- 310). Editorial UniversitatPolitècnica de València. 17. Santosa, M. B., & de Britob, J. (2018). Susceptibilidade dos agregados reciclados no desenvolvimento da reacção álcalis-sílica: o que pode mudar?.Revista de Engenharia, (55), 36-46. 18. Shin, K. J., Bae, W., Choi, S. W., Son, M. W., & Lee, K. M. (2017). Parameters influencing water permeability coefficient of cracked concrete specimens. Construction and Building Materials, 151, 907-915. 19. Sousa, S. P. A. (2016). Análise do comportamentoestrutural de barragensafetadas por expansões do betão. Aplicação à barragem de Fagilde (Doctoral disser Sobre los autores: Ing. Byron Patricio Baque Campozano. Ingeniero civil por la Universidad Laica Eloy Alfaro de Manabí (ULEAM). Master en Gerencia Educativa por la Universidad Estatal del Sur de Manabí (UNESUM). Actualmente profesor titular de la carrera de ingeniería civil de la UNESUM. Cursa los estudios doctorales en la Universidad Tegnologica de la Habana” José Antonio Hechaverria”. Ing. Rene Antonio Puig Martínez. DrC. Doctor en Ciencias Técnicas e Ingeniero Constructor, Universidad Tecnológica de La Habana “José Antonio Echeverría”, La Habana. Ing. Manuel Octavio Cordero. Ingeniero civil por la Universidad Técnica de Manabí (UTM). Máster en construcción de obras viales por la UTM. Actualmente docente titular de la carrera de ingeniería civil de la Universidad Estatal del Sur de Manabí. Ing. Dennis Augusto Cobos. Ingeniero civil por la Universidad Técnica de Manabí (UTM). Máster en construcción de obras viales por la UTM. Actualmente docente titular de la carrera de ingeniería civil de la Universidad Estatal del Sur de Manabí. EL CRITERIO DE DURABILIDAD DE HORMIGONES FABRICADOS CON RESIDUOS DE LA CONSTRUCCIÓN Y DEMOLICIÓN POR CLASIFICACIÓN DE SÓLIDOS Byron Baque Campozano1, Rene Antonio Puig Martinez2, Glider Nunilo Parrales Cantos 3, Carlos José Zavala Vázques 4 1Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador, 2 Universidad Tecnológica de la Habana, CUJAE, La Habana-Cuba, 3Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador, 4Universidad Estatal del Sur de Manabí, Jipijapa-Manabí-Ecuador 1e-mail: bayron.baque@unesum.edu.ec 2e-mail: rpuig2002453@gmail.com 3e-mail: glider.parrales@unesum.edu.ec 4e-mail: carlos.zavala@unesum.edu.ec RESUMEN La recuperación y reciclado de hormigones es parte imprescindible para conseguir y compatibilizar el desarrollo constructivo- económico de la sociedad con la preservación del medio ambiente. En el presente trabajo se describe el proceso de reciclaje de hormigones y los principales factores que pueden afectar la durabilidad en los elementos elaborados con hormigones reciclados, señalándose como significativos el porciento de sustitución de los áridos, la relación agua/cemento y la cantidad de mortero adherido en los áridos reciclado. Mediante un enfoque mixto que complementa el método deductivo con el método bibliográfico mediante el manejo de una amplia fuente de bibliografía, se hace un análisis de los factores principales que condicionan la durabilidad de hormigones fabricados con residuos de la construcción y demolición por clasificación de sólidos. De los factores determinantes, tanto la permeabilidad como la porosidad pueden ser limitadas por un meticuloso tratamiento de los residuos del hormigón reciclado al lograrse una alta depuración de fracciones no útiles. Se ha encontrado como límite máximo de sustitución de áridos reciclados hasta el 20% del árido natural, señalándose por varios autores que superarlo produce afectaciones significativas comprometiendo la resistencia. En su mayoría, los autores aconsejan que los procesos de reutilización deben siempre ser acompañados de procesos de comprobación. PALABRAS CLAVES: hormigón reciclado, criterio de durabilidad, áridos reciclados. THE DURABILITY CRITERIA OF MANUFACTURED WITH CONSTRUCTION AND DEMOLITION SOLIDS CLASSIFICATION ABSTRACT The recovery and recycling of concrete is an essential part to achieve and reconcile the constructive- economic development of society with the preservation of the environment. The present work describes the concrete recycling process and the main factors that can affect the durability of the elements made with recycled concrete, indicating the percentage of substitution of aggregates, the water/cement ratio and the amount of mortar as significant adhered to recycled aggregates. Through a mixed approach that complements the deductive method with the bibliographic method by handling a wide source of bibliography, an analysis is made of the main factors that determine the durability of concretes manufactured with construction and demolition waste by solids classification. Of the determining factors, both permeability and porosity can be limited by a meticulous treatment of recycled concrete residues to achieve a high purification of non-useful fractions. Up to 20% of the natural aggregate has been found as the maximum substitution limit for recycled aggregates, indicating by several authors that exceeding it produces significant effects, compromising resistance. For the most part, the authors advise that reuse processes should always be accompanied by verification processes. KEY WORDS: recycled concrete, durability criteria, recycled aggregates. 1. INTRODUCCIÓN El hormigón es el material por elección para la construcción de una gran variedad de estructuras en el mundo pues su gran durabilidad, versatilidad y la alta resistencia, fruto de la unión del árido con una matriz cementosa, que le confiere gran importancia y aplicabilidad. Su producción anual promedia los 10 km3 (Reynosa et al., 2017). Los especialistas estiman que por la demanda constructiva mundial la cifra tenga una tendencia a crecer y de la misma forma la huella ecológica debido a los altos costos medioambientales también se profundice. Dentro de los impactos más nocivos se destacan no solo la generación de desechos constructivos por renovación, sino además, la enorme cantidad de energía consumida, la emisión de gases a la atmósfera, y la explotación de canteras para la obtención de áridos y materias primas necesarias para la producción de los hormigones. Todo lo anterior demanda la búsqueda de alternativas que resulten más económicas y sustentables (Miller et al., 2018). Aunque las estructuras de hormigón no pueden ser desmontadas para ser reutilizadas, si pueden ser demolidas y recicladas. La forma más general del reciclaje de hormigón está relacionada con la gestión y tratamiento de los áridos; debido a su empleo en la construcción que abarca desde la creación de hormigón prefabricado, el empleo en morteros, aglomerantes asfalticos, hasta la construcción de carreteras y vías férreas. Según estudios el 20% de los áridos naturales usados actualmente podrían técnicamente ser reemplazados por áridos reciclados productos de desechos y residuos de construcción (Gebremichael et al., 2019). El presente trabajo tiene como objetivo una revisión de tipo descriptivo sobre los factores que determinan el criterio de durabilidad en hormigones fabricados con residuos de la construcción y demolición por clasificación de sólidos. 2. MATERIALES Y MÉTODOS La actual investigación hace uso de las siguientes fuentes de información: artículos científicos en revistas indexadas, trabajos de grado publicados en repositorios académicos nacionales e internacionales; y manuales y libros electrónicos. Mediante un enfoque mixto que complementa el método deductivo con el método bibliográfico mediante el manejo de una amplia fuente de bibliografía, se profundizar en las tecnologías existentes en el proceso de reciclaje de hormigones y los principales factores que pueden afectar la durabilidad en los elementos elaborados con hormigones reciclados. 2.1. CLASIFICACIÓN DE RESIDUOS DE LA CONSTRUCCIÓN Y LA DEMOLICIÓN Los residuos de la construcción y las demoliciones, como su nombre indica, provienen obras de construcción, demolición y restauración de edificios e infraestructuras civiles. Estos pueden clasificarse según su peligrosidad en: inertes, no representan un peligro ni experimentan transformaciones físico- químicas que conduzcan a ello; especiales, aquellos que representan peligro para la salud y el medioambiente, generando un impacto negativo, normalmente los residuos de la construcción en este clasificación están relacionado a infraestructuras industriales que impliquen esa peligrosidad, como radioactividad y reactividad química implícita; y banales, aquellos que por volumen y composición se asemejan a los residuos domésticos (Abarca, 2017; Silgado et al., 2018) El único tipo de árido reciclado que puede ser admisible para hormigón estructural es el “árido reciclado de hormigón”, facilitando una mayor resistencia de la nueva interface que se creará entre la nueva pasta de cemento y los áridos reciclados, esto siempre que se impongan valores limites para las impurezas, reduciéndose los efectos negativos sobre la resistencia y durabilidad (Abreu, 2018). El proceso de obtención de los áridos reciclados de hormigones normalmente implica estos tres tipos de tratamientos: el pre-tratamiento, que tiene por objeto mejorar la manejabilidad disminuyendo el volumen de aquellos elementos de grandes dimensiones antes de entrar en el proceso de reciclado. Para ello se utiliza un demoledor, o un martillo vibrante, siendo eficaz en la retirada de las barras de acero corrugado del hormigón; seguido el tratamiento primario, el cual consiste en un pre-cribado mediante una trituración, casi siempre empleando una machacadora de mandíbulas cuyo producto es cribado, eliminándose un material de rechazo constituido por tierras y partículas finas (Lauritzeny Hahn, 2016). Finalmente un tratamiento segundario, el cual consta de dos etapas: tiraje, donde se depuran elementos ajenos al hormigón y molida, por medio de molino de impacto para obtener un árido reciclado con granulometría continua y número de caras adecuadas. Después del molino de impacto, es necesario disponer un segundo electroimán para eliminar el acero liberado en el fraccionamiento. Finalmente se dispone de una criba con uno o varios tamices donde los residuos son separados en medidas que van desde arena hasta grava gruesa (Gámez-García et al., 2017). En este sentido, los áridos reciclados procedentes de hormigón presentan cierta heterogeneidad en sus propiedades, debido principalmente a las distintas características de los hormigones que llegan a la planta de reciclado, a los sistemas de trituración empleados y a la presencia de impurezas. La forma de los áridos reciclados está determinada en gran medida por el equipo de machaqueo. Los molinos de impactos proporcionan forma cúbica al árido, pero la experiencia ha demostrado que el hormigón tiende a romper en bloques pequeños, generando partículas planas y alargadas (Goméz, 2013). En general, la calidad del árido reciclado está claramente influida por la fracción utilizada, no siendo deseable el uso de fracciones finas (disminuyen la densidad, aumentan la absorción, presentan impurezas como partículas ligeras y terrones de arcilla, así como un mayor contenido de cloruros y de sulfatos) (Sandoval et al., 2014). 2.2. CRITERIO DE DURABILIDAD DE HORMIGONES FABRICADOS CON RESIDUOS DE LA CONSTRUCCIÓN Y DEMOLICIÓN POR CLASIFICACIÓN DE SÓLIDOS La durabilidad del hormigón comprende su comportamiento y el de los elementos metálicos en su interior frente a acciones mecánicas, ambientales y químicas. De esta forma al momento diseñar una mezcla de hormigón debe analizarse el tipo de ambiente circundante, validándose que sea resistente a los efectos químicos agresivos que puedan inducir una posterior corrosión. Esta complejidad multicriteria la ha condicionado que incluso hoy, la durabilidad de los hormigones reciclado es un campo poco estudiado y los resultados que se presentan resultan dispersos. (Bañon y Varona, 2012; Beltrán, 2017). Los principales factores que determinan la durabilidad en un hormigón son la porosidad, la permeabilidad, la capacidad de absorción, la resistividad eléctrica, la carbonatación, entre otros. De ellos la porosidad y la permeabilidad se consideran condicionantes sobre los demás. (Serna et al., 2018) Respecto a la porosidad en el hormigón (áridos, cemento hidratado en forma de pasta y aire), esta tiene en cuenta los vacíos presentes, que pueden llegar a representar entre el 8 % - 25 % del volumen total, incidiendo directamente en la capacidad de transferencia de materia, dependiendo de la distribución del tamaño de los poros, así como de su conectividad (Juela et al., 2018). En su relación con las propiedades mecánicas, la variación de la porosidad capilar de la pasta afecta directamente la resistencia mecánica y el coeficiente de permeabilidad al agua. A medida que la porosidad se reduce, la resistencia se incrementa, como consecuencia del incremento a nivel microscópico de las fuerzas de unión, debido esto a la disminución en el tamaño y conectividad de los poros (Villagrán et al., 2019). La durabilidad en los elementos elaborados con hormigones reciclados, se ve afectada en dependencia del porciento de sustitución de los áridos, la relación agua/cemento y de la cantidad de mortero adherido en los áridos; incrementando factores como la porosidad, haciendo más vulnerables las mezclas (Cabrera et al., 2017). El otro factor determinante es la permeabilidad, que se refiere a la cantidad de migración de agua u otras sustancias liquidas por los poros del material en un determinado tiempo, condicionando durante el proceso de fraguado la composición de la porosidad; durante la hidratación de la pasta, el calor de hidratación y evaporación del agua de mezcla; desde el punto de vista energético, los perfiles térmicos del hormigón, así como la formación de cavidades y grietas debido a la contracción plástica en el concreto en su enfriamiento (Jiang y Cheng, 2020). De los dos factores, la mayoría de los procesos de degradación del hormigón dependen más de la permeabilidad, siendo el coeficiente de permeabilidad la característica difusiva del material (Kapoor et al., 2019). La incorporación del árido reciclado en el hormigón representa un aumento de varios factores que afectan la durabilidad entre estos la permeabilidad, aunque el resultado final depende también de las características de la nueva matriz cementante. Beltrán (2017) señala que la sustitución del 20% del árido natural, por áridos reciclados, produce afectaciones despreciables, desde el punto de vista estructural de los hormigones producidos con estas dosificaciones, sin embargo, la resistencia va disminuyendo a medida que se incrementa el porciento de sustitución. Se aprecian afectaciones considerables en hormigones donde son sustituidos al 100% los áridos naturales por los reciclados. 2.3. VENTAJAS Y DESVENTAJAS REPORTADAS DEL USO DE HORMIGONES RECICLADOS Varios autores (Kulakowsky et al., 2012; Xia et al., 2020) han documentado las ventajas de la reutilización del hormigón reciclado, señalando que minimiza los residuos no tratados que solían acumularse, incluso puede ser utilizado en áreas cercanas a la demolición, fomentando la disminución de los costos de transporte de áridos y el efecto ambiental de la actividad extractiva. Además, el costo de enviar residuos a los sitios de disposición final muchas veces puede ser superior al costo de procesamiento de los residuos para su reutilización por un reciclador local. Por otro lado la reutilización demanda un estudio de caracterización del árido reciclado elaborado en el proceso de trituración. Deben considerarse además la existencia de una alta generación de polvo, ruidos y vibraciones producidas en las operaciones de tamizado y machaqueo, los cuales tendrán impactos directos sobre la salud humana y el medio ambiente. Finalmente, el hormigón resultante con árido recuperado experimentará variación en las propiedades producto de las características de los áridos reciclados empleados, razón por la cual su uso debe estar precedido a estudios de comportamiento estructural que lo avale (Han et al., 2018; Han et al., 2019). 3. RESULTADOS Y DISCUSIÓN El gran volumen de publicaciones e investigaciones internacionales evidencia que el tema tratado tiene una alta relevancia tecnológica. En el contexto de Ecuador, el tratamiento de la temática recién empieza a ser abordado a niveles de tesis de grado y se indexan escasos trabajos científicos, no obstante las experiencias internacionales publicadas sirven de guía para la implementación de buenas prácticas y requerimientos tecnológicos óptimos para el aprovechamiento de hormigones mediante su reciclaje y reutilización. Respecto a los áridos reciclados procedentes de hormigones demolidos, se evidencia una heterogeneidad en sus propiedades constitutivas asociada a la naturaleza misma del proceso de reciclaje del hormigón, donde llegan residuos de diferentes obras, con diferentes características constitutivas. Incluso sobre esa heterogeneidad de origen actúa el sistema de trituración empleado y la capacidad de separación de impurezas del sistema de clasificación. De una serie de factores que inciden sobre la durabilidad (porosidad, permeabilidad, capacidad de absorción, resistividad eléctrica, carbonatación, entre otros), se deben considerar principales la porosidad y la permeabilidad, pues estas condiciones a su vez los restantes, al facilitar a su vez los procesos de interacción del medio externo con el interior del hormigón, proceso siempre negativo si se parte de la base teórica de que el hormigón óptimo es impermeable. En la práctica la porosidad puede llegar a representar entre el 8 - 25 % del volumen total, lo cual implica en el margen alto una gran difusividad de intersticios y vías de penetración de medio externo. Por otro lado, la permeabilidad es sin duda el factor decisivo en la reducción del acceso de agentes agresivos dentro del hormigón condicionando los otros factores y por ende la durabilidad. En síntesis, tanto la permeabilidad como la porosidad pueden ser limitadas por un meticuloso tratamiento de los residuos del hormigón reciclado al lograrse una alta depuración de fracciones no útiles, es decir, la tecnológica de reciclado es decisiva en la durabilidad de los hormigones con áridos reciclados. 4. CONCLUSIONES La recuperación y reciclado de hormigones es parte imprescindible para conseguir y compatibilizar el desarrollo constructivo-económico de la sociedad con la preservación del medio ambiente. Está sobre todo enfoque tiene una naturaleza comercial, orientada a buscar beneficios técnico-económicos viables; y estos solo pueden fundamentarse teniendo en cuenta la situación y las condiciones locales como la cercanía y cantidad de agregados naturales disponibles. A través del reciclaje se obtienen nuevos áridos que pueden ser reutilizados en hormigón, rellenos de canteras, ladrillos, gravas para jardines, bases y sub-bases de pavimentos para carreteras entre otros usos. Aunque para hormigones solo el árido de hormigón reciclado debe ser empleado. La durabilidad en los elementos elaborados con hormigones reciclados, se ve afectada en dependencia del porciento de sustitución de los áridos, la relación agua/cemento y la cantidad de mortero adherido en los áridos reciclado (calidad de la tecnología de tratamiento); incrementando factores como la porosidad. La sustitución del 20% del árido natural, por áridos reciclados, produce afectaciones despreciables, desde el punto de vista estructural. Un porcentaje superior compromete la resistencia. REFERENCIAS 1. Abarca-Guerrero, L. (2017). Nivel de importancia de las causas de generación de residuos en la construcción en Costa Rica. Revista Tecnología en Marcha, 30(4), 130-137. 2. Abreu Báez, E. M. (2018). Evaluación de la durabilidad de especímenes de hormigón con áridos reciclados encapsulados. Carbonatación y Porosidad (Doctoral dissertation, Universidad Central “Marta Abreu” de Las Villas. Facultad de Construcciones. Departamento de Ingeniería Civil.). 3. Bañón, L., & Varona Moya, F. D. B. (2012). Hormigón Armado y Pretensado. Presentaciones (curso 2011-2012). a. Estructuras de Hormigón Armado y Pretensado. 4. Beltrán Alverdi, B. (2017). Estudio de la durabilidad del hormigón elaborado con áridos reciclados encapsulados (Doctoral dissertation, Universidad Central" Marta Abreu" de Las Villas. Facultad de Construcciones. Departamento de Ingeniería Civil.). 5. Cabrera-Covarrubias, F. G., Gómez-Soberón, J. M., Almaral-Sánchez, J. L., Arredondo-Rea, S. P., Gómez-Soberón, a. M. C., &Mendivil-Escalante, J. M. (2017). Propiedades en estado fresco de morteros con árido reciclado de hormigón y efecto de la relación c/a. Ingeniería y Desarrollo, 35(1), 198-218. 6. Han, A. L., Setiawan, H., & Hajek, P. (2019, June). Laboratory Concrete Specimens Waste, a Case Study on Life Cycle Assessment. In IOP Conference Series: Earth and Environmental Science (Vol. 290, No. 1, p. 012015). IOP Publishing. 7. Han, D., Yang, Y., Ying, C., Sierens, Z., Fan, H., & Li, J. (2018). Efficient recycling and reuse of waste concrete on a construction site. AciSpecialPublications, 38-1. 8. Gámez-García, D. C., Saldaña-Márquez, H., Gómez-Soberón, J. M., & Corral-Higuera, R. (2017). Estudio de factibilidad y caracterización de áridos para hormigón estructural. Ingeniería y Desarrollo, 35(2), 283-304. 9. Gebremichael, N. N., Karein, S. M. M., Karakouzian, M., &Jadidi, K. (2019). Investigation of setting time and compressive strength of ready-mixed concrete blended with returned fresh concrete. Construction and BuildingMaterials, 197, 428-435. 10. Gómez, L. M. T. (2013). Propiedades Mecánicas de los Agregados Ante Variaciones Climaticas: Reporte de caso en Bucaramanga. Prospectiva, 11(1), 31-39. 11. Jiang, C., & Cheng, X. (2020). Recycling of waste ceramic foams as fine aggregates in pervious concrete. RSC Advances, 10(4), 2364-2367. 12. Juela, D., Bermeo, J., &Alvarez, D. (2020). Resistencia a la compresión y resistividad eléctrica de hormigones elaborados con materiales cementicios suplementarios y agregados reciclados. Revista Ingeniería De Obras Civiles, 10(1), 32-44. 13. Kapoor, K., Dar, F. A., &Rather, D. A. (2019). Properties of Permeable Concrete Made by Recycled Aggregates. In Sustainable Engineering (pp. 359-365). Springer, Singapore. 14. Kulakowski, M., Guerreiro, M., & González, M. (2012). Viabilidad de utilización de aditivo estabilizador de hidratación (AEH) para el reciclaje del hormigón en estado fresco: Estudio de caso en el sur de Brasil. Revista de la Construcción, 11(3), 99-111. 15. Lauritzen, E. K., & Hahn, N. J. (2016). Producción de residuos de construcción y reciclaje. Boletín CF+ S, (2). 16. Miller, S. A., Horvath, A., & Monteiro, P. J. (2018). Impacts of booming concrete production on water resources worldwide. NatureSustainability, 1(1), 69-76. 17. Sandoval, C. H. H., Aranda-López, J. E., & Prieto-Hernández, J. A. (2014). Caracterización de mezclas semidensas con agregados de la región de Tunja. Revista Facultad de Ingeniería, 23(36), 39-51. 18. Serna Ros, P., Martí Vargas, J. R., & Llano Torre, A. (2018, March). HAC 2018. V congreso iberoamericano de hormigón autocompactante y hormigones especiales. In Colección Congreso. Editorial UniversitatPolitècnica de València. 19. Silgado, S. S. S., Molina, J. D. A., Mahecha, L., & Calderón, L. (2018). Diagnóstico y propuestas para la gestión de los residuos de construcción y demolición en la ciudad de Ibagué (Colombia). Gestión y Ambiente, 21(1), 9- 21. 20. Villagrán-Zaccardi, Y. A., Pico-Cortés, C. M., &Zega, C. J. (2019, September). Incidencia del Árido Reciclado sobre la Durabilidad del Hormigón Armado frente a la Corrosión. In Congreso CONPAT 2019, Tuxtla Gutiérrez, Chiapas. 21. Xia, B., Ding, T., & Xiao, J. (2020). Life cycle assessment of concrete structures with reuse and recycling strategies: A novel framework and case study. Waste Management, 105, 268- 278. Sobre los autores: Ing. Byron Patricio Baque Campozano. Ingeniero civil por la Universidad Laica Eloy Alfaro de Manabí(ULEAM). Master en Gerencia Educativa por la Universidad Estatal del Sur de Manabí (UNESUM). Actualmente profesor titular de la carrera de ingeniería civil de la UNESUM. Cursa los estudios doctorales en la Universidad Tegnologica de la Habana” José Antonio Hechaverria”. Ing. Rene Antonio Puig Martínez. DrC. Doctor en Ciencias Técnicas e Ingeniero Constructor, Universidad Tecnológica de La Habana “José Antonio Echeverría”, La Habana. Ing. Glider Nunilo Parrales Cantos. Ingeniero civil por la Universidad de Guayaquil (UG). Máster en administración ambiental la UG. Actualmente docente titular de la carrera de ingeniería civil de la Universidad Estatal del Sur de Manabí. Ing.Carlos José Zavala Vázques. Ingeniero civil por la Universidad Técnica de Manabí (UTM). Máster en construcción de obras viales por la UTM. Actualmente docente de la carrera de ingeniería civil de la Universidad Estatal del Sur de Manabí. . SOFTWARE CUBANO PARA EL DISEÑO Y CONSERVACIÓN DE LAS ESTRUCTURAS DE MADERA. LEAL-PML v1.0.1 MSc. Ing. Pedro Juan Piedrahita Pérez1, Ing. Leonardo Calderón Tamayo2, Ing. Manuel Menéndez Alfonso3. 1Empresa de Investigaciones y Proyectos Hidráulicos de la Habana EIPHH, Calle Virtudes No 680, esquina Belascoain, Centro Habana, La Habana, Cuba. 2Pyme πlares Construcciones. SRL, Calle 58b No 4531ª e/ 45 y 47, Playa, La Habana, Cuba, 3Kantox, Carrer Marina 16-18, Torre Mapfre planta 22, Barcelona, España. 1e-mail: piedracivil@gmail.com, 2e-mail: leocalderontamayo@gmail.com, 3e-mail: manuelmenendezalfonso@gmail.com RESUMEN El software rinde homenaje al Dr. Eusebio Leal Spengle, desarrollado a fin de lograr cálculos más precisos en el diseño de elementos estructurales aislados de madera, así como brindar información para la conservación del patrimonio construido en madera. Además, brindar un catálogo de las diferentes especies maderables cubanas y del mundo. Se brinda información anatómica de la madera, las diferentes alteraciones que se producen en el crecimiento de la madera y las degradaciones que se producen cuando la madera se encuentra en servicio. Se muestra diferentes técnicas de intervención para la restauración y reparación de elementos maderables cuando presentan degradaciones o fallos estructurales. Permite realizar el diseño de elementos estructurales de madera con una sencilla interfaz de usuario que resuelve problemas complejos de diseño estructural. El ingeniero civil puede diseñar por la norma cubana vigente para elementos sometidos a Flexión, Cortante, Compresión paralela, Compresión perpendicular, Compresión inclinada, Flexo compresión y Flexo tracción. También tiene la opción de diseñar por la norma europea vigente para elementos sometidos a Tracción paralela, Tracción perpendicular, Compresión paralela, Compresión perpendicular, Compresión inclinada, Flexo compresión, Flexo tracción, Flexión, Cortante y Torsión. Además, comprobar la estabilidad a compresión, estabilidad a flexo compresión, estabilidad lateral torsional a flexión y estabilidad lateral torsional a flexo compresión. Brinda un gran catálogo de las diferentes especies maderables cubanas y del mundo, recogidas y clasificadas en la durante una investigación exhaustiva bibliográfica. PALABRAS CLAVES: diseño estructural, degradaciones, técnicas de intervención, catálogo, madera. CUBAN SOFTWARE FOR THE DESIGN AND CONSERVATION OF WOODEN STRUCTURES. LEAL-PML v1.0.1 ABSTRACT The software pays tribute to Dr. Eusebio Leal Spengle, developed in order to achieve more precise calculations in the design of isolated wooden structural elements, as well as provide information for the conservation of the heritage built in wood. In addition, provide a catalog of the different Cuban and world timber species. Anatomical information on the wood, the different alterations that occur in the growth of the wood and the degradations that occur when the wood is in service are provided. Different intervention techniques are shown for the restoration and repair of timber elements when they present degradation or structural failures. It allows the design of wooden structural elements with a simple user interface that solves complex structural design problems. The civil engineer can design according to the current Cuban standard for elements subjected to Flexion, Shear, Parallel Compression, Perpendicular Compression, Inclined Compression, Flexo Compression and Flexo Traction. You also have the option of designing according to the current European standard for elements subjected to parallel tension, perpendicular tension, parallel compression, perpendicular compression, inclined compression, bending compression, bending tension, bending, shear and torsion. In addition, check the compression stability, flexo-compression stability, lateral torsional stability at flexion and lateral torsional stability at flexo-compression. It offers a great catalog of the different Cuban and world timber species, collected and classified during an exhaustive bibliographical investigation. KEY WORDS: structural design, degradations, intervention techniques, catalog, wood. INTRODUCCIÓN LEAL-PML es una herramienta práctica para complementar el diseño estructural de elementos de madera, también para brindar técnicas de intervención a partir de daños, lesiones y patologías encontradas en las estructuras de madera. Además, ofrecer un gran catálogo de las diferentes especies maderables cubanas y del mundo logrando mayor efectividad en los diseños. El usuario que la utiliza debe claramente entender los supuestos básicos de la aplicación y la información producida por esta debe ser revisada por un técnico cualificado y con experiencia, que deberá verificar independientemente los resultados y tomar la responsabilidad profesional de la información que se utiliza. La versión actual solo esta disponible en idioma español, en próximas versiones se propone incorporar el cambio de idioma a inglés. La versión actual de la aplicación incluye los siguientes módulos: ✓ Información ✓ Anatomía. ✓ Diseño (Diseño de elementos estructurales de madera sometidos a diferentes Estados Límites mediante la Norma Cubana y la Norma Europea). ✓ Alteraciones y degradación. ✓ Técnicas de intervención. ✓ Diseño de reforzamiento en vigas. ✓ Catálogo. ✓ Bibliografía. Los módulos tienen diferentes formas de trabajar con ello y todos presentan una interfaz de usuario muy sencilla y amiga que hace muy fácil la interacción de los usuarios con la aplicación. Los módulos de Diseño y de Diseño de reforzamiento en vigas funcionan a partir de la introducción de las solicitaciones de diseño, por lo que se deberá contar con un software auxiliar para la obtención de las solicitaciones u obtener estas de forma manual. Para los módulos restantes, por si solos ellos muestran toda la información que necesita el usuario para la utilización de los mismos y además esta información le será de gran utilidad para la realización de informes y trabajos de conservación o restauración de estructuras de madera. DESARROLLO Al ejecutar la aplicación aparecerá la ventana que se muestra a continuación en la figura 2. Figura 2: Ventana inicial del software. Frases del Dr. Eusebio Leal Spengle. En esta ventana siempre se mostrarán diferentes frases de nuestro Gran Historiador de La Habana Eusebio Leal Spengler, relacionadas con la conservación de edificaciones. El nombre de este software, así como esta funcionalidad es un homenaje que los autores humildemente le hacen a esta gran personalidad que realizó un gran aporte y una incansable labor durante toda su vida encaminada hacia la conservación del Patrimonio Cultural e Histórico de La Habana y de Cuba, y con ello incentivó y apoyó la necesidad de la Conservación de las edificaciones. Información En el primer modulo se brinda el objetivo principal del software, registros legales, información de los autores y colaboradores. Además, es donde el usuario podrá adquirir la licencia legal e información del tiempo de vencimiento de dicha licencia. Figura 1: Ventana de información del software. Anatomía En este módulo se muestra un contenido básico de la Anatomía de la madera para que los usuarios conozcan más acerca de este material y estén más familiarizado con él durante su diseño. Concepto básico de la madera, composición anatómica y componentes del tronco de un árbol. Figura 3: Módulo informativo sobre la composición anatómica de la madera. DISEÑO En este módulo se realiza el Diseño de elementos estructurales de madera aislados sometidos a diferentes Estados Límites mediante diferentes normativas. También puede ser utilizado para la revisión o comprobación de elementos estructurales de madera. La aplicación utiliza dos métodos de cálculo, el primero es el método basado en la norma NC 53-179 ``Estructuras de madera. Método de cálculo´´ y el segundo es basado en la Norma Europea UNE-EN 1995-1-1:2006. En la figura 4, se muestra las normas por la cual el usuario tiene la opción de seleccionar la normativa de diseño: Figura 4: Módulo de diseño. Seleccionar la normativa a emplear para el diseño. Datos preliminares En cualquiera de las normas de diseño es importante que el usuario tenga conocimiento de las consideraciones preliminares para el diseño de estructuras de madera. Tipo de especie maderable: Permite conocer las propiedades físicas y mecánicas para el diseño o comprobación del elemento estructural. En el catálogo que brinda el software podemos encontrar estos datos. En caso de no conocer la especie maderable, se les permite a los usuarios diseñar o revisar con cualquier valor de resistencia características. Algo muy ventajoso en estos módulos de diseño, es que es posible diseñar o revisar a través de las metodologías de cálculo empleadas por las normas propuestas, para cualquier especie maderable de Cuba o las diferentes clases resistentes de la norma europea. Humedad superficial y temperatura ambiente: Con estos valores obtenidos en estudios de diagnósticos, el usuario conoce que factor de reducción de humedad y tipo de clase de servicio corresponden emplear para el diseño de la estructura. Cargas aplicadas a la estructura: Variación de la resistencia de la madera por efecto de la duración de la carga y por el tipo de carga al cual esta sometido el elemento. Obtención de los valores de resistencia: Es importante tener conocimiento de donde se obtuvo los valores para así saber que factor de Ɣm aplicar en el caso de la norma cubana. Para el caso de la norma europea el factor Ɣm depende del tipo de madera, madera aserrada, madera laminada, etc. Geometría de la sección: Las secciones propuestas son la rectangular, cuadrada y circular. Solicitación actuante: Se debe tener bien analizado de que forma trabaja el elemento de estudio, obteniendo la solicitación actuante sobre el elemento que se desea diseñar o revisar. Una vez el usuario tenga todos los datos preliminares puede seleccionar la norma por la cual realizara el diseño o revisión de la estructura. Norma Cubana NC 53-179: 1988 Estados Limites disponibles para el diseño, figura 5: ✓ Flexión ✓ Flexo compresión ✓ Cortante ✓ Compresión axial paralela ✓ Compresión axial perpendicular ✓ Compresión inclinada ✓ Tracción Figura 5: Módulos de diseño por la normativa cubana NC 53-179: 1988. En esta ventana se muestran siete submódulos, cada uno llevará a una ventana principal según sea al caso, en donde se ingresan todos los datos preliminares que se exigen para el diseño. Una vez definidos todos los datos se podrá dar clic sobre el botón “Evaluar”, si faltan datos o si estos son erróneos, en este último caso se marcarán de color rojo. Al presionar el botón “Evaluar” aparecerá ventanas secundarias en las que se irán mostrando los resultados obtenidos, los resultados finales del diseño aparecerán siempre en la última ventana. Ver ejemplo de diseño a flexión en la figura 6. Figura 6: Ejemplo de evaluación de diseño de un elemento trabajando a flexión. Norma Europea UNE-EN 1995-1-1:2006 Estados Limites disponibles para el diseño: ✓ Tracción paralela ✓ Tracción perpendicular ✓ Compresión axial paralela ✓ Compresión axial perpendicular ✓ Compresión inclinada ✓ Flexión ✓ Flexocompresión ✓ Flexotracción ✓ Cortante ✓ Torsión ✓ Estabilidad a compresión ✓ Estabilidad a flexo compresión ✓ Estabilidad lateral torsional a flexión ✓ Estabilidad lateral torsional a flexo compresión Tener la posibilidad de realizar los diseños estructurales con esta normativa es una gran ventaja, que ofrece mayor seguridad estructural debido a que se pueden realizar la comprobación de Estados Límites que no están contemplados en la norma cubana y suelen presentarse con mucha frecuencia, además de poder realizar los cálculos estructurales con mayor precisión en estos casos y esta normativa es mucho más actualizada. En cada uno de los submódulos que posee este módulo, o sea, Flexión, Tracción, etc. Se muestran diferentes opciones para emplear o cargar en el diseño, las propiedades de las especies maderables de Cuba y a nivel internacional de diferentes países, categorías y tipologías de madera, presentes en el catálogo de maderas de la aplicación, las cuales están disponibles para calcular con cualquiera de las normativas. Ver ejemplo de diseño a cortante en la figura 7. Figura 7: Ejemplo de evaluación de diseño de un elemento trabajando a cortante. Alteraciones y degradación En este módulo se muestran diferentes daños que ocurren en la madera como material, debido a alteraciones durante su crecimiento y a causas de origen biótico. Los usuarios pueden conocer más a fondo algunas de las causas de los daños en las estructuras de madera. Ver figura 8. Figura 8: Módulo de alteraciones y degradaciones que aparecen en la madera. Alteraciones de crecimiento como son las Acebolladuras o colainas, Atronaduras, Bolsas de resina, Corazón partido, estrellado o abierto, Doble albura, Entrecorteza o entrecasco, Excentricidad de corazón, Fendas, Fibra diagonal, Fibra entrelazada o repelo, Fibra torcida, Lupias y verrugas, Madera de reacción, Mermas, Nudos y las Patas de gallo o cuadranuras. Se explicas conceptos para las degradaciones de origen bióticos, como son la pudrición y desfibramiento de la madera. Posibles causas, sus consecuencias y los diferentes ensayos no destructivos que se deben realizar. TECNICAS DE INTERVENCIÓN En este módulo se brinda diferentes técnicas de intervención para la reparación o restauración de estructuras de madera. Las técnicas de intervención son diversos procedimientos para la reparación de varios daños o lesiones que pueden afectar las construcciones de madera. Aquí se muestran las técnicas encaminadas a poder resolver las lesiones más comunes presentes en este tipo de estructuras. Ver figura 9. ✓ Zona de fogonadura ✓ Base pie derecho ✓ Grietas transversales en viga ✓ Sellado de grietas y orificios ✓ Reconstrucción de arista superior en viga ✓ Tratamientos de protección a la madera Figura 9: Módulo sobre las diferentes técnicas de intervención. En cada técnica de intervención se describe con imágenes y croquis la solución y se brinda la secuencia ejecutiva. En la Zona de fogonadura la aplicación muestra la posibilidad de realizar una Reconstrucción o Sustitución parcial y Empalme. Sellado de grietas y orificios, mediante tres procedimientos: con masilla para madera o palos de relleno, relleno de grietas con pegamento y aserrín y sellado de grietas con resina epoxi. Tratamientos de protección a la madera como: tratamiento a los elementos de madera para eliminar la contaminación por los agentes xilófagos y tratamiento contra las termitas subterráneas. Diseño de reforzamiento en vigas Este es un módulo de cálculo o diseño estructural. El funcionamiento y la interfaz es muy similar al de Diseño. Aquí la aplicación ofrece una metodología de cálculo ya implementada y automatizada para determinar el refuerzo necesario en la zona de fogonadura con diferentes tipos de barras de refuerzo. En las opciones de los tipos de refuerzo a emplear se muestran: ✓ Acero corrugado ✓ Acero de carpintería (barras lisas) ✓ Con adherencia mejorada (barras de fibras de vidrio, fibras de carbono,) Figura 10: Datos de entrada en el módulo de diseño de reforzamiento en vigas. Catálogo En este módulo la aplicación pone a disposición del usuario un gran catálogo de diferentes tipos de madera y de especies maderables de Cuba y a nivel internacional, en el cual se muestran todas sus propiedades físicas y mecánicas, país de origen, clase resistente y nombre de la especie en español e inglés. En las maderas de origen cubano se muestran según la norma cubana NC-53 179:1988 y una serie de especies maderables recopiladas de diversas bibliografías. Figura 11: Especies cubanas La norma cubana NC-53 179:1988 agrupa solo por tres clasificaciones en dependencia de la densidad de la especie, blanda, media y dura. Esto limita mucho a los especialistas y puede falsear resultados, ya que existen mucha variedad de espécimen maderables dentro de cada grupo. Y no todas las maderas blandas, por ejemplo, tienen el mismo valor de resistencia característica. En la recopilación de datos de las especies cubanas se muestran más de 60 ejemplares. Por lo que es de gran ventaja para el usuario esta información. Figura 12: Catálogo de las especies cubanas. Según la normativa europea UNE 338: 2006, se pueden clasificar las especies maderables en cuatro tipos de madera: ✓ Madera aserrada (Coníferas y Chopos) ✓ Madera aserrada (Frondosas) ✓ Madera laminada encolada (Homogénea) ✓ Madera laminada encolada (Combinada) Figura 13: Catálogo de la norma europea por sus diferentes clasificaciones. En la parte superior de los catálogos la aplicación cuenta con diferentes filtros por cada parámetro de las tablas lo que constituye una herramienta muy fuerte de búsqueda para el usuario. En estos filtros está disponible las búsquedas múltiples y se pueden realizar por texto o por letras, realmente resulta muy fácil y hace más sencillo el trabajo con el catálogo. CONCLUSIONES El Software LEAL-PML al ser desarrollado por ingenieros cubanos constituye una creación nacional, siendo el único software cubano actual en realizar estos diseños y brindar información para la conservación de las estructuras de maderas, lo que permite eliminar los conflictos asociados a las restricciones operativas. Permite realizar los cálculos estructurales empleando las Metodologías de Diseño por la Norma Cubana NC 53-179:1988 y la Norma Europea UNE 338:2006, tomando las especies maderables cubanas o especies maderables internacionales. Brinda información de la anatomía de la Madera, técnicas de intervención para la restauración, alteraciones en el crecimiento del árbol y las degradaciones que presenta una vez en servicio la Madera, siendo muy útil para todos los especialistas que trabajen en temas relacionas con la conservación de las estructuras de madera. El módulo de diseño de reforzamiento de vigas tiene gran valor ya que es una de las técnicas de intervención que más se emplea en la restauración de los extremos de vigas (zona de fogonadura). Con la capacidad de diseñar empleando diferentes tipos de refuerzos, entre ellos barras de fibra de vidrio, de carbón y de acero. Una de las principales limitaciones que tienen los softwares que realizan diseños de estructuras de madera en el mundo es que no presentan un catálogo de las especies maderables. LEAL-PML brinda un catálogo internacional en el cual se logra realizar una correlación de las clases resistentes con especies maderables y además presenta un avanzado sistema de búsqueda mediante filtros. RECONOCIMIENTOS Los autores desean agradecer a los que colaboraron con la recopilación de datos e información para la elaboración del software, Dra. Ing. Odalys Álvarez Rodríguez, decana de la facultad de Ingeniería Civil y a la Ing. Dainelys Guerra Bouza, especialista del grupo de Diagnostico de la Oficina del Historiador de la Ciudad. BIBLIOGRAFÍA CONSULTADA 1. UNE-EN 1995-1-1. Proyecto de estructuras de madera. Parte 1-1: Reglas generales y reglas para edificación, 2006. 2. S. I. R. A A Koshcheev , V Aleksiievets3 and B V Labudin "Local deformation and strength characteristics of S-shaped reinforcement in wood," (in Ingles), IOP Conf. Series: Materials Science and Engineering, vol. 896, p. 12, 2020. 3. M. C. A I Osofero, G Benedetti and A N Ede, "Use of natural resins in repairing damaged timber beams – An experimental investigation," (in Ingles), IOP Conf. Series: Materials Science and Engineering vol. 640, p. 11, 2019. 4. R. C. R. Alina Cuza Pérez, Hildelisa Saralegui Boza, "Madera que fuerón usadas en la construcción de edificaciones coloniales del Centro Histórico de la Habana Vieja, Cuba," Anales del Museo de Ámerica, vol. 13, p. 17, 2005. 5. J. J. E. Álvarez, "Rehabilitación de Forjados mediante Sistemas de Reforzamiento de Vigas de Madera en la Zona de Apoyo. Caso de estudio: Forjados Planos de Madera del Paseo del Prado en Cienfuegos.," Ingeniero Civil, Facultad de construcciones departamento de ingeniería civil, Universidad Central “Marta Abreu” de Las Villas, 2014. 6. I. M. C. B. G. y. C. d. Autores, Manual de Reparación y Mantenimiento de Edificaciones del Centro Historico de La Habana. 2002, p. 374. 7. D. F. T. Cañón, "Diseño de estructuras en madera según la NSR10," Ingeniero Civil, FACULTAD DE INGENIERÍA CIVIL, UNIVERSIDAD SANTO TOMAS, 2016. 8. NC 53-179. Proyectos de Construcción. ESTRUCTURAS DE MADERA. Métodos de cálculo, 1988. 9. D. R. A. Á. Dr. Ing. Miguel Esteban Herrero, Dr. Arq. Ing. Francisco Arriaga Martitegui, Guillermo Íñiguez González, Dr. Ing. Ignacio Bobadilla Maldonado, "Estado Actual De La Investigación Sobre Madera Estructural En España," (in Español), Informes de la Construcción, vol. 59, 506, 15-27, p. 13, 2007. 10. D. J. M. G.-D. Dr. Pedro P. Henry-Torriente, Dr. Carlos Juan Sosa-Suárez E Ing. Alberto Ibáñez-Drake, "Riesgo de cambio dimensional y valores de humedad recomendados para la madera utilizada en la construcción en cuba," (in Español), Revista Forestal Baracoa, vol. 29 (2), p. 10, 2010. 11. I. A. I. D. Dr. Pedro Pablo Henry Torriente, Téc. María Victoria García Mantilla E Ing. Celia Guerra Rivero, "Principales características físico-mecánicas de la madera de cinco especies forestales de la cordillera de guaniguanico," (in Español), Revista Forestal Baracoa, vol. 27 (1), p. 12, 2008. 12. O. L. Z. Enrique Gómez de la Peña; Alfonso Cobo Escamilla; Rafael Lozano Díez, "Estudio comparativo entre valores característicos experimentales y normativos de madera aserrada de pino silvestre," (in Español), Anales de Edificación, vol. Vol. 3, Nº2, 39-48, p. 10, 2017. 13. I. M. J. M. García-Andrade, "Clasificación de Madera Estructural de gran escuadría de Pinus Sylvestris L. Mediante Métodos no Destructivos," Doctor en Ciencias Técnicas, Departamento de Construcción y Vías Rurales, Universidad Politécnica de Madrid. Escuela Técnica Superior de Ingenieros de Montes, España, 2013. 14. J. D. Gutiérrez, "Recomendaciones para el mantenimiento preventivo y la reparación de entrepisos y cubiertas de madera. Caso de estudio: viviendas de la Habana Vieja.," Ingeniero, Facultad de Ingeniería Civil, CUJAE, Ciudad de La Habana, Cuba, 2002. 15. D. P. P. H. T. Y. T. M. V. G. M. Ing. Alberto Ibáñez Drake, "Estudio de las Propiedades Físico-Mecánicas de Cinco Especies Maderables del Macizo Montañoso Sagua-Nipe-Baracoa," (in Español), Revista Forestal Baracoa, vol. 26 (1), p. 9, 2007. 16. N. L.-P. Inmaculada Martínez-Péreza, Mª de las Nieves González-Garcíaa & Alfonso Cobo-Escamillab, "Comportamiento mecánico de piezas de madera de pino silvestre de pequeña escuadría sometidas a compresión longitudinal a las fibras," (in Español), Anales de Edificación, vol. Vol. 4, Nº 1, 47-55, p. 9, 2018. 17. W. J. León H., "Anatomía de la madera de 17 especies de la familia Malpighiaceae Juss," (in Español), BOTÁNICA. Acta Científica Venezolana, vol. 57 (2): 49-58, p. 11, 2006. 18. J. R. S. C. M.I. Carrillo Gómez, D. Raya González, "Structural analysis of wood beams by non-destructive methods in restoration works of the cathedral of morelia, Mexico," (in Ingles), The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XLII-2/W15, p. 8, 2019. 19. D. A. F. A. Martitegui, Intervención en Estructuras de Madera. 2002, p. 256. 20. S. I. R. Mater. Sci. Eng. A A Koshcheev , V Aleksiievets and B V Labudin "Local deformation and strength characteristics of S-shaped reinforcement in wood," (in Ingles), IOP Conf. Series: Materials Science and Engineering, vol. 896, p. 12, 2020. 21. D. W.-J. Mater. Sci. Eng. Tomasz Żmijewki "Timber - Material of the Future - Examples of Small Wooden Architectural Structures," (in Ingles), IOP Conf. Series: Materials Science and Engineering, vol. 245, p. 10, 2017. 22. D. A. E. M. Méndez, "Las resinas epoxidicas y las técnicas actuales de restauración de edificios de madera," (in Español), Revista de Edificación, vol. 17, p. 4, 1994. 23. M. J. M. P. Menéndez, "El bambú, una alternativa sostenible en la solución de la vivienda social," (in Español), Ciencia en su PC, vol. 1, p. 12, 2008. SHOWCRETE PARA EL DISEÑO DE ELEMENTOS ESTRUCTURALES AISLADOS DE HORMIGÓN ARMADO. Showcrete v11.0.3 MSc. Ing. Pedro Juan Piedrahita Pérez1, Ing. Javier del Sol Pérez2 1Empresa de Investigaciones y Proyectos Hidráulicos de la Habana EIPHH, Calle Virtudes No 680, esquina Belascoain, Centro Habana, La Habana, Cuba. 2Pyme πlares Construcciones. SRL, Calle 58b No 4531ª e/ 45 y 47, Playa, La Habana, Cuba. 1e-mail: piedracivil@gmail.com, 2e-mail: jdelsol@gmail.com RESUMEN Showcrete es un software que constituye una herramienta práctica para complementar el diseño estructural de elementos aislados de hormigón armado, con el objetivo de lograr mayor efectividad en los diseños. Showcrete es un software que permite realizar el diseño de elementos estructurales de hormigón armado con una sencilla interfaz de usuario que resuelve problemas complejos de diseño estructural. Con Showcrete el ingeniero civil puede diseñar vigas, columnas, tensores, muros de contención, losas, pilotes, cimientos aislados, cimientos combinados, registros y depósitos de una forma muy fácil, rápida y eficaz, realizando diseños racionales que cumplen con las normativas del código ACI 318-08 (American Concrete Institute) y la norma NC 207:2020 ´´Requisitos generales para el diseño y construcción de estructuras de hormigón´´ y realizar la exportación de planos hacia AutoCAD incluyendo cuadros de acero y de hormigón. Showcrete se encuentra conectado directamente con los modelos de SAP2000 y ETABS, a través de la utilización del API de los programas CSI, permitiendo garantizar la precisión de los resultados y la eficiencia de trabajo para el diseño de cimentaciones aisladas, muros de contención y diseño de pilotes. También se encuentra conectado directamente con Autodesk Revit permitiendo realizar la exportación de familias parametrizadas de los elementos diseñados con Showcrete. PALABRAS CLAVES: Showcrete, diseño estructural, hormigón armado,planos. ABSTRACT Showcrete is a software wich constitute a practice tool for supplementing the structural design of isolated elements of reforced concrete, with the objetive to acomplish higher effective in the designings. Showcrete allows to do the designing of structural elements of reforced concrete with an user interface very simple that solves complex problems of structural design. With Showcrete the civil ingeneer can design beams, columns, tensors, contention walls, slabs, pilots, isolated foundations, combine foundations, deposit like cistern and other, in a very easy way, fast and efficient, doing rational designing wich its according with the standars of ACI code ACI 318-08 (American Concrete Institute) and the Cuban standar NC 207:2020 ´´General requeriments for the design y constrution of concrete structures´´, the civil ingeneer can export drawings to AutoCAD including Steel table y concrete table. Showcrete is directly connecty with SAP2000 and ETABS models, throws the usage of API of CSI softwares, it’s allowing to warrant the precisión of results and the efficient of the work for the designing of isolated foundations, contention walls and pilots. Besides Showcrete is directly connecty with Autodesk Revit allowing to do the exportation of parametric families of the designed elements with Showcrete. KEY WORDS: Showcrete, structural design, reforced concrete, drawings. 1 INTRODUCCIÓN Showcrete es un software que constituye una herramienta práctica para complementar el diseño estructural de elementos aislados de hormigón armado, con el objetivo de lograr mayor efectividad en los diseños. Figura 1 Ventana principal Este software cuenta con 11 módulos independientes que permiten al ingeniero civil desarrollar el cálculo de elementos aislados de hormigón armado, la última versión permite realizar el cálculo de: - Refuerzo longitudinal de elementos solicitados a flexión, flexotracción y flexocompresión. - Refuerzo transversal de elementos solicitados a cortante. - Flecha (deformación) y abertura de fisuras en elementos solicitados a flexión. - Dimensionamiento y refuerzo de cimientos superficiales aislados. - Dimensionamiento y refuerzo de cimientos combinados. - Diseño geotécnico y cálculo de solicitaciones de muros de contención en voladizo y muros de contención de gravedad. - Diseño geotécnico y estructural de registros y depósitos. - Generación de planos en formato dxf (AutoCAD) de muro de contención en voladizo y de gravedad que incluye - n cuadros de acero y resumen (cuadro de hormigón). - Plugin SAP2000-ShowCrete y ETABS-Showcrete: Vínculo directo entre los softwares SAP2000 - Showcrete y ETABS - Showcrete para el diseño de muros de contención en voladizo y de gravedad. Este plugin realiza la modelación automática de la pantalla del muro con todas las cargas generadas en Showcrete por cada estado de carga, ofreciendo la posibilidad de seleccionar las dimensiones del mallado de elementos finitos y la incorporación de otras cargas de diferentes naturalezas para ser consideradas en el diseño. De esta forma se logra la automatización del diseño. - Diseño de losas mediante el Método de Diseño Directo (MDD). - Plugin SAP2000-Showcrete y ETABS-Showcrete: Vínculo directo entre los softwares SAP2000 - Showcrete y ETABS - Showcrete para el diseño de cimientos aislados y pilotes aislados. - Generación de planos en formato dxf (AutoCAD) de cimientos superficiales aislados que incluyen cuadros de acero y resumen (cuadro de hormigón). También se incluye la opción de la aplicación de los Requisitos de Diseño Sismorresistente según el ACI 318:2011. - Dimensionamiento y refuerzo de pilotes aislados. - Generación de planos en formato dxf (AutoCAD) de cimientos combinados que incluyen cuadros de acero y resumen (cuadro de hormigón). También se incluye la opción de la aplicación de los Requisitos de Diseño Sismorresistente según el ACI 318:2011. Los módulos de Cimiento superficial aislado, Muro de contención y Pilote aislado se encuentran conectados directamente con los modelos de SAP2000 y ETABS, a través de la utilización del API de los programas CSI, permitiendo garantizar la precisión de los resultados y la eficiencia de trabajo para el diseño de cimentaciones aisladas y diseño de pilotes. Figura 1 Extensión de plugins El programa funciona a partir de la introducción de las solicitaciones de diseño, para los módulos 1 al 6 y 9, por lo que se deberá contar con un software auxiliar para la obtención de las solicitaciones u obtener estas de forma manual. Para los módulos restantes 7 y 8, por si solos, ellos calculan las solicitaciones y sus correspondientes diagramas de fuerzas interiores. 2 DESARROLLO 2.1 – Cálculo de elementos solicitados a flexión En esta sección el programa calcula el área de acero necesaria a compresión y tracción para una sección específica del elemento analizado, para ello se deberá definir el momento flector de diseño en dicha sección además de sus dimensiones y las características de los materiales a utilizar. En los resultados se mostrarán las áreas de acero calculadas para la zona comprimida y la zona traccionada de la sección por separado, las áreas de acero reales en función del diámetro y la cantidad de barras a utilizar además de otros datos que pudieran resultar de interés. El programa le da la opción de ver los resultados, los cuales incluye todos los datos iniciales que introdujo en el mismo y datos del proceso de cálculo (forma de la sección, dominio de trabajo, profundidad de la línea neutra). 2.2 - Cálculo Elementos solicitados a flexocompresión y flexotracción En esta sección la aplicación calcula el área de acero necesaria a compresión y tracción para una sección específica del elemento analizado, para ello se deberá definir el momento flector y la carga axial de diseño en dicha sección además de sus dimensiones y de las características de los materiales a utilizar, se definirá también si las solicitaciones actuantes (momento flector y fuerza axial) fueron obtenidas a partir de un análisis lineal o no lineal (de segundo orden), lo que significa que si las solicitaciones dadas tienen en cuenta o no el efecto de la posible pérdida de estabilidad del elemento, en el caso de que las solicitaciones dadas se hayan obtenido a partir de un análisis lineal será necesaria la introducción de la longitud de pandeo del elemento Este calcula el área de acero longitudinal en elementos solicitados a flexocompresión o flexotracción, permitiendo analizar de manera simultánea hasta 999 combinaciones de cargas. El programa le da la opción de ver los resultados, los cuales incluye todos los datos iniciales que introdujo en el mismo y datos del proceso de cálculo (forma de la sección, dominio de trabajo, profundidad de la línea neutra). 2.3 - Cálculo de Elementos solicitados a cortante En esta sección el programa calcula el espaciamiento de los estribos para una sección específica del elemento analizado, se deberá definir previamente el cortante de diseño en dicha sección además de sus dimensiones y de las características de los materiales a utilizar, se definirá también el diámetro de las barras a utilizar en los estribos y la cantidad de patas en el sentido que se analiza. En los resultados se mostrará el espaciamiento calculado, el espaciamiento mínimo requerido además de otros datos que pudieran resultar de interés. El espaciamiento calculado corresponde a estribos perpendiculares al eje del elemento. 2.4 - Cálculo de Deformación (flecha) en elementos solicitados a flexión En esta sección la aplicación calcula las flechas instantáneas y diferidas a lo largo del tiempo para elementos que trabajan a flexión sometidos a cargas uniformemente distribuidas, se deberán definir previamente los momentos flectores asociados a las cargas de corta y larga duración en la sección crítica según las condiciones de apoyo del elemento, las dimensiones de la sección y las características de los materiales utilizados. En el cálculo de la flecha total se tienen en cuenta los efectos de la fluencia del acero, la relajación del acero en el tiempo, la pérdida de rigidez en la sección transversal producto de la fisuración en la misma, el envejecimiento de los materiales y el aporte del acero a la rigidez de la sección transversal. 2.5 - Cálculo de Abertura de fisuras en elementos solicitados a flexión En esta sección el programa calcula la abertura de fisuras máxima más probable en elementos solicitados a flexión. Se proponen dos modelos para el cálculo, el modelo de Frosch y el modelo de Gergely - Lutz, los autores recomiendan a los proyectistas cubanos el uso de la expresión de Frosch para el cálculo de abertura de fisuras. 2.6 - Cálculo de Cimiento superficial aislado, diseño geotécnico y estructural En esta sección el programa calcula el dimensionamiento y refuerzo para cimentaciones superficiales aisladas. Se deberá definir en la primera ventana los datos de entrada para el diseño geotécnico y estructural, el programa ofrece la posibilidad de calcular su carga soportante mediante las ecuaciones propuestas por Brinch-Hansen o Meyerhof. Se tiene en cuenta los requisitos sismorresistentes en el detallado estructural del cimiento o para la generación de los planos en caso de que así se requiera por el usuario. De existir el nivel freático en la zona se deberán definir parámetros adicionales. Para obtener los parámetros característicos de los suelos, al no tenerlos de antemano del estudio del suelo en cuestión, el programa le brinda una tabla de diferentes tipos de suelos con las propiedades necesarias para poder realizar el diseño con eficiencia. Con los plugins dedsarrollados para SAP2000 y ETABS, a través de la selección de los apoyos en los modelos SAP2000 y ETABS, es posible importar automáticamente las reacciones de apoyo generadas para la estructura modelada en SAP2000 y ETABS para cualquier combinación de acciones o también estados de carga independientes. Se pueden analizar de manera simultánea hasta 9999 combinaciones de carga para los cimientos aislados y hasta 999 combinaciones de carga para los pilotes aislados, favoreciendo así la automatización del diseño de cimentaciones. En los resultados se mostrará una tabla con las dimensiones calculadas para cada una de las combinaciones por cada criterio de diseño. Para el caso del dimensionamiento de la base: capacidad de carga, vuelco y deslizamiento, y para el dimensionamiento del peralto del plato: punzonamiento, cortante y flexión. En esta ventana además de las dimensiones calculadas de cada una de las combinaciones, el programa le brinda la posibilidad de saber cuál criterio predominó en el proceso de cálculo. En la última ventana aparecerá una tabla resumen de dimensiones y refuerzo, en donde se indicarán las combinaciones que rigieron el diseño en cada caso, el dimensionamiento calculado podrá ser modificado en esta misma ventana y el refuerzo asociado al nuevo dimensionamiento se modificará automáticamente. Para una mayor organización este programa le permite extraer una memoria descriptica de todo el proceso de cálculo y este módulo le puede generar los planos del cimiento en cuestión, ajustando con anterioridad cuestiones generales de dibujo (opciones de escalado de dibujo, inclusión o no del sello de nivelación); el refuerzo inferior o superior del plato, este último en caso de que sea necesario; el refuerzo longitudinal y transversal del pedestal. Al ejecutar esas series de parámetros puede exportar al formato dxf los planos, deberá tener instalado el programa AutoCAD para poder visualizar el plano. La generación del plano incluye la revisión de las disposiciones constructivas, requerimientos de detallado estructural, espaciamientos máximos, cuantías mínimas y distancias libres entre las barras. También incluye la realización de los cuadros de acero y de hormigón. El programa revisa automáticamente los aspectos anteriormente mencionados y constantemente controla que los parámetros establecidos para la generación estén dentro de los parámetros normados. 2.7 - Cálculo de Muro de contención de tierra, diseño geotécnico y estructural El programa comprueba la estabilidad al vuelco, deslizamiento y capacidad de carga para un muro de contención de tierra previamente dimensionado. El predimensionamiento de la geometría del muro es determinado según los requisitos de predimensionamiento que se ofrecen en el libro "Principios de Ingeniería de Cimentaciones" del autor Braja M. Das. Se consultaron además los libros "Muros de Contención y Muros de Sótano" del autor José Calavera Ruíz y "Hormigón Estructural. Diseño por Estados Límites" de los autores J. A. Hernández Caneiro y J. J. Hernández Santana. La capacidad soportante del suelo debajo de la base del muro es calculada mediante las ecuaciones de Brinch-Hansen o Meyerhof. Para la comprobación por capacidad de carga se utiliza el método de los lados efectivos. El cálculo de los empujes laterales del terreno se realiza mediante las expresiones de presiones activas y pasivas de Rankine, cuando se tiene suelo inclinado en el trasdós, se utilizan las expresiones de presiones activas de Rankine modificado. Para el cálculo de los empujes producto de las sobrecargas se utilizaron las expresiones que aparecen en el libro "Muros de Contención y Muros de Sótano", las cuales, según se explica en la bibliografía citada, se basan en la Teoría de la Elasticidad. El cálculo de los empujes sísmicos se realiza según se propone en la norma cubana de sismo, NC 46: 1999 "Construcciones sismo resistentes. Requisitos básicos para el diseño y construcción", además se puede utilizar un método alternativo propuesto por la norma española NCS-94. La versión actual de la aplicación realiza el diseño geotécnico y estructural del muro, y ofrece la posibilidad de generación del plano incluyendo la revisión de las disposiciones constructivas, requerimientos de detallado estructural, espaciamientos máximos, cuantías mínimas y distancias libres entre las barras. También incluye la realización de los cuadros de acero y de hormigón. El Showcrete ofrece la posibilidad de ser necesario o en caso de que el muro lo requiera se podrá escoger opcionalmente una sobrecarga en dependencia de la ubicación con respecto al muro de contención y el tipo de carga. Se podrá encontrar con línea paralela a la coronación, uniformemente distribuida y banda paralela a la coronación. El programa considera el efecto del nivel freático en los empujes laterales y su influencia en el cálculo de la capacidad de carga. Al correr el programa se podrá conocer los diferentes diagramas de solicitaciones, la resultante de los empujes y el diseño geotécnico. 2.8 - Cálculo de Solicitaciones en losas por el método de diseño directo (MDD) El Método de diseño directo (MDD), es un método semiempírico para el cálculo de solicitaciones en losas que trabajan en dos direcciones. Se fundamenta en la selección de coeficientes que permiten distribuir el momento estático entre las franjas de columna e intermedias en las que puede ser virtualmente dividido cada panel de losa. El MDD solo considera cargas uniformemente distribuidas. Las limitaciones del método son verificadas por el software, el usuario no tiene que realizar estas comprobaciones, aunque son expuestas para que el usuario tenga en cuenta el campo de validez que tiene el MDD, así como sus ventajas. El predimensionamiento del peralto de las losas se realiza en base a criterios de deformación. El programa se encarga de realizar el cálculo de las solicitaciones de una losa con parámetros especificados por el usuario. 2.9 - Cálculo de Pilote aislado, diseño geotécnico y estructural El programa realiza el diseño geotécnico y estructural de pilotes embebidos en suelos con comportamiento friccional, cohesivo y rocoso. El programa incluye la posibilidad de generación del plano incluyendo la revisión de las disposiciones constructivas, requerimientos de detallado estructural, espaciamientos máximos, cuantías mínimas y distancias libres entre las barras El diseño geotécnico de pilotes tiene en cuenta el cálculo de la capacidad de carga en punta, la capacidad de carga por fricción lateral y la capacidad ante cargas laterales, esta última consiste en la determinación de la longitud del pilote debido a la acción de momento flector y cortante en la cabeza del pilote. Calcula el asentamiento elástico total para pilotes, el cual tiene en cuenta el asentamiento elástico, el asentamiento causado por la carga en punta y el asentamiento causado por la carga trasmitida a lo largo del pilote (resistencia friccional). La aplicación determina el valor de la deflexión o desplazamiento lateral debido a la acción de momento y cortante en la cabeza del pilote. La capacidad de carga en punta, en fricción lateral y la capacidad de carga en pilotes cargados lateralmente puede ser determinada mediante cualquiera de los métodos anteriormente mencionados. Showcrete tiene incorporado una gran cantidad de métodos de diseños de pilotes, apreciándose el incremento de la seguridad y la confiabilidad en el diseño de pilotes al implementar una gran cantidad de métodos, tal como se muestra a continuación: La capacidad de carga en punta en suelos puede ser determinada mediante cualquiera de los siguientes métodos: Suelos con comportamiento friccional 1. Método de Meyerhof, 1976 2. Método de Vesic, 1977 3. Método de Janbu, 1976 4. Método de Coyle y Castello, 1971 Suelos con comportamiento cohesivo 1. Método de Meyerhof, 1976 2. Método de Vesic, 1977 3. Método de Janbu, 1976 Suelos con comportamiento rocoso 1. Método de Goodman, 1980 2. Método de Teng, 1962 3. Método de Coates, 1967 4. Método de Argema, 1992 5. Método de Zhang y Einstein, 1998 La capacidad de carga por fricción lateral en suelos puede ser determinada mediante cualquiera de los siguientes métodos: Suelos con comportamiento friccional 1. Método General (Varios autores) 2. Método de Coyle y Castello, 1981 Suelos con comportamiento cohesivo 1. Método 𝛼 (Kulhawy y Jackson), 1989 2. Método 𝛼 (Randy y Murphy), 1985 3. Método 𝜆 (Vijayvergiya y Focht), 1972 Suelos con comportamiento rocoso 1. Método de Rosenberg y Jorneaux, 1976 2. Método de Horvath, 1978 3. Método de Horvath y Kenney, 1979 4. Método de Meigh y Wolski, 1979 5. Método de Rowe y Armitage, 1987 6. Método de Zhang y Einstein, 1998 La capacidad de carga en pilotes cargados lateralmente puede ser determinada mediante cualquiera de los siguientes métodos: 1. Método de Meyerhof, 1995 2. Metodo de Brooms, 1965 El programa permite realizar el diseño del pilote por todos los métodos que sean seleccionados por el usuario, y ofrece tres variantes que el usuario puede seleccionar a conveniencia: ✓ Obtener el resultado más conservador ✓ Obtener el resultado menos conservador ✓ Obtener el promedio Tabla 1 Métodos de diseño implementados en Showcrete 2.10 Diseño de registros y depósitos incluyendo generación de planos El programa realiza el diseño geotécnico y estructural de registros y depósitos. El programa incluye la posibilidad de generación del plano incluyendo la revisión de las disposiciones constructivas, requerimientos de detallado estructural, espaciamientos máximos, cuantías mínimas y distancias libres entre las barras. Incluye la posibilidad del cálculo de la flotabilidad y todos los estados límites para el diseño geotécnico incluyendo asentamientos. Figura 2 Dimensionamiento de depósitos Figura 3 Dimensionamiento de tapas de depósitos Figura 4 Generación del refuerzo Figura 5 Planos de dimensiones Figura 5 Planos de refuerzo VALORACIÓN ECONOMICA Y APORTE SOCIAL Este software se aplicó en el proyecto técnico ejecutivo de la Caseta para celdas de 13,8 kV para alimentar la Terminal 1 del Aeropuerto Internacional José Martí, la estructura de la caseta fue modelada en el SAP2000 para obtener las solicitaciones Se realizó una comparación entre los resultados obtenidos en las columnas y vigas con el software SAP2000, y además y se realizó una comparación con los cálculos manuales en la deformación de la losa de cubierta. Los resultados se muestran en las figuras siguientes. Figura 1 Diseño de vigas y columnas Los cimientos se calcularon mediante el ROBOT 2012 y el CYPE 2012 y con los resultados se realizó un estudio comparativo. El cálculo se realizó para la combinación más desfavorable (0,9D + 1,4W), en la cual se obtuvieron las siguientes solicitaciones. N = 22,26 kN, Mx = 10,99 kNm, Vx = 6,78 kN, My = 4,65 kNm, Vy = 5,46 kN En las siguientes figuras se muestra un resumen de la comparación de estos resultados. Tabla 2 Resumen 1 cimiento Tabla 3 Resumen 12 cimientos En la última imagen se muestran las diferencias en peso de acero y volumen de hormigón con respecto a los softwares con los que se realizó la comparación, observándose que la diferencia en cuanto al consumo de materiales es apreciable. A continuación, se muestra una tabla comparativa donde se muestran los presupuestos para cada variante calculada, donde se puede apreciar la valoración económica. Tabla 4. Valoración económica Obra : 05503 Variantes de Cimientos Costos Directos en Moneda Nacional Costos Directos en CUC Costo Total Materiales Mano de Obra Equipos Materiales Equipos Variante 1. Cimientos Cype $1.945,24 $346,68 $446,71 $134,35 $984,54 $32,97 Totales Listado Cantidades: $1.945,24 $346,68 $446,71 $134,35 $984,54 $32,97 Variante 2.Cimientos Robot $1.508,86 $276,57 $385,56 $64,16 $767,52 $15,06 Totales Listado Cantidades: $1.508,86 $276,57 $385,56 $64,16 $767,52 $15,06 Variante 3. Cimientos Showcrete $1.227,40 $219,28 $339,47 $85,48 $562,37 $20,80 Totales Listado Cantidades: $1.227,40 $219,28 $339,47 $85,48 $562,37 $20,80 También se realizó una comparación en cuanto al diseño de muros de contención con el CYPECAD y en la siguiente tabla se muestra un resumen de la comparación de estos resultados: En la siguiente tabla se muestran las diferencias en cuanto a volumen de hormigón con respecto al CYPECAD, observándose nuevamente que la diferencia en cuanto al consumo de materiales es apreciable. Tabla 5. Comparación en cuanto al diseño de muros de contención CONCLUSIONES Como aporte económico y social se puede mencionar que con la utilización de este software se pueden producir ahorros en los consumos de materiales en los proyectos estructurales, que posteriormente se convierten en proyectos ejecutivos favoreciendo la eficiencia económica de nuestra sociedad. Como aporte científico - técnico e investigativo se puede mencionar que fue utilizado para el diseño de cimentaciones y elementos estructurales en diferentes trabajos de diploma (tesis) presentados a partir del año 2015 en adelante, en la facultad de Ingeniería Civil de la CUJAE. También su empleo puede citarse en trabajos como: − Herramienta de ayuda a los profesores para la revisión de las tareas en la asignatura de Hormigón Estructural I y II. − Empleo por parte de estudiantes y profesores en las asignaturas Hormigón Estructural I y II, Proyecto Integrador 4 y Cimentaciones. − Desarrollo de varios trabajos de diploma. Actualmente Showcrete está siendo utilizado en los diseños y proyectos estructurales de las siguientes entidades estatales donde la mayoría de ellas, son empresas de proyectos. Se cuenta con varios avales otorgados por las diferentes entidades que evidencian su empleo en diversos proyectos en cada una de ellas, firmados y acuñados por diferentes especialistas estructurales, mostrando así el valor científico - técnico y la aplicabilidad que tiene Showcrete. Entre las entidades se encuentran: - INEL (Empresa de Ingeniería y proyectos de la Electricidad) - CUJAE (Instituto Superior Politécnico José Antonio Echeverría) - CCOA (Compañía Contratista de obras para la Aviación) - ECODIC (Empresa de Consultoría, Diseño e Ingeniería Constructiva) - EIPHH (Empresa de Investigaciones y Proyectos Hidráulicos de la Habana) - ENPA (Empresa Nacional de Proyectos de la Agricultura) - EMPROY 2 (Empresa de Proyectos de Arquitectura e Ingeniería) - EPROB (Empresa de Proyectos de Arquitectura e Ingeniería de la Habana) - ACINOX INGENIERÍA (Empresa de Servicios Integrales de Ingeniería y Construcción) - EMPIFAR (Empresa de Proyectos de las FAR) - RESTAURA (Empresa de Restauración del Patrimonio) Una de las principales limitaciones que tienen los softwares que realizan análisis y diseño de estructuras es que ninguno de los softwares antes mencionados realiza el diseño de pilotes y ninguno de los softwares antes mencionados realiza los planos con las normativas de dibujo cubanas. En el Showcrete se encuentra implementado todas estas ventajas y prestaciones. RECONOCIMIENTOS Los autores desean agradecer a todos los profesores de la CUJAE y todos los ingenieros que de una forma u otra nos han ayudado a la implementación del software y a la divulgación del mismo. BIBLIOGRAFIA Normas ➢ ACI-318: “Requisitos de reglamento para concreto estructural” 2005, 2008, 2011. ➢ NC-283: „‟ Carga permanente‟‟.2003 ➢ NC-284: „‟ Carga de uso‟‟.2003 ➢ NC-285: „‟ Carga de viento‟‟.2003 Libros Hernández, Dr. Ing. Julio.A. ´´Hormigón estructural. Diseño por Estados Límites´´. Ruiz , Dr. Ing. Leonardo. ´´Estructuras de Hormigón de Armado´´. INFLUENCIA DE LA INTERACCIÓN DINAMICA SUELO ESTRUCTURA EN EL CRITERIO DE COLUMNA FUERTE-VIGA DÉBIL DE UNA EDIFICACIÓN MIXTA DE 12 NIVELES José Alejandro Sariol Pérez1, Nelson Fundora Sautié2 Janet Otmara Martínez Cid3 1,2,3Universidad Tecnológica de La Habana José Antonio Echeverría (CUJAE), Calle 114 e/ Rotonda y Ciclovía. 1e-mail: josealesarper@civil.cujae.edu.cu 2e-mail: nelsonfs@civil.cujae.edu.cu 3e-mail: jcid@civil.cujae.edu.cu RESUMEN El criterio de diseño sismorresistente de columna fuerte – viga débil constituye uno los requisitos que se exigen por los códigos de diseño en la concepción de pórticos especiales resistentes a momento para su empleo en zonas de alto peligro sísmico. Este tipo de comportamiento estructural en las edificaciones permite que la disipación de energía, producto de la formación de articulaciones plásticas, se concentre en las vigas garantizando una respuesta dúctil de las edificaciones. Las normativas actuales establecen relaciones mínimas entre los momentos resistentes de las columnas y vigas que convergen en los nudos, en los cuales las columnas deben resistir un 20% más que las vigas [1, 2]. Otras normativas internacionales [3-5] disponen que esta sobrerresistencia sea de entre un 30% y un 40%. La incorporación de la Interacción Dinámica Suelo Estructura (IDSE) a los modelos de análisis incrementa los desplazamientos y derivas en las estructuras, especialmente en estructuras altas y flexibles. Este hecho puede traer consigo una modificación en la relación de resistencia antes mencionada debido a los giros adicionales que se generan en las secciones. En la presente investigación se analiza el cumplimiento del criterio de columna fuerte – viga débil en una edificación de 12 niveles con tipología mixta emplazada en una zona de alto peligro sísmico, a la que se le incorpora la IDSE mediante las formulaciones de A.E. Sargsian. Se concluye que la incorporación de la IDSE produce la pérdida de este criterio de diseño sismorresistente. PALABRAS CLAVES: columna fuerte – viga débil, articulación plástica, disipación de energía. INFLUENCE OF THE DYNAMIC SOIL STRUCTURE INTERACTION (DSSI) ON THE STRONG COLUMN - WEAK BEAM CRITERION OF A 12 STORY DUAL BUILDING. ABSTRACT The strong column - weak beam earthquake resistant design criterion is one of the requirements demanded by the design codes in the design of special moment-resistant frames for use in areas of high seismic hazard. This type of structural behavior in buildings allows the dissipation of energy due to the formation of plastic hinge, to be concentrated in the beams, guaranteeing a ductile response in buildings. Current regulations establish minimum column-to-beam resistance moment, in which the columns must resist 20% more than beams [1, 2]. Other international regulations [3-5] state that this overstrength is between 30% and 40%. The incorporation of the Dynamic Soil Structure Interaction (DSSI) to the analysis models increases the displacements and drifts in the structures, especially in tall and flexible buildings. This fact can bring about a modification in the aforementioned resistance relationship due to the additional twists that are generated in the sections. In the present investigation, compliance with the strong column - weak beam criterion is analyzed in a 12-story building with a mixed typology located in an area of high seismic hazard, to which the DSSI is incorporated through the formulations of A.E. Sargsian. It is concluded that the incorporation of the DSSI produces the loss of this seismic design criterion. KEY WORDS: strong column – weak beam, plastic hinge, energy dissipation. 1. INTRODUCCIÓN Para edificaciones que se analizan dentro del rango inelástico de su comportamiento se puede decir que su resistencia máxima se alcanza cuando se generan la cantidad necesaria y en la posición correcta, de rótulas plásticas en los elementos portantes [6]. Llegado ese nivel de plastificación la estructura pasaría a ser un mecanismo y el equilibrio estático no sería posible. Todo esto es válido, si en el transcurso de la plastificación no se generan otros tipos de fallos frágiles que precipiten el colapso de la estructura. Las rótulas plásticas se generan en secciones dúctiles al alcanzarse la fluencia por flexión. Las intersecciones de elementos estructurales, como el caso de la unión entre vigas y columnas, constituyen regiones donde la elevada concentración de esfuerzos tiende a generar zonas de plastificación. Lograr edificaciones donde se generen estas articulaciones plásticas en los lugares correctos es objetivo de diseño necesario ante sismos. De esta forma se logra disipar eficientemente parte de la energía introducida por estos fenómenos naturales mediante deformaciones plásticas en los elementos. La capacidad resistente real de las secciones individuales de la estructura ante los posibles modos de falla, define el mecanismo de colapso que se desarrolla. Incluso en elementos de hormigón armado diseñados para incursionar en el rango de comportamiento inelástico, fallos como el de cortante evitan que este se alcance. Los elementos portantes verticales poseen una mayor importancia dentro del sistema estructural de las edificaciones, debido a que sobre ellos tributan los efectos de cargas verticales y horizontales y su fallo puede provocar con mayor facilidad el colapso de elementos adyacentes [6]. Atendiendo a esto, un comportamiento estructural más eficiente ante sismos es aquel donde la disipación de energía a través de las deformaciones plásticas se desarrolla de manera predominante en los elementos horizontales como las vigas. Una de las formas de garantizar que se produzca este tipo de comportamiento inelástico es mediante el principio de diseño de columna fuerte – viga débil. Normas [1, 2] establecen para el cumplimiento de este principio una relación de resistencia a momento, entre las columnas y las vigas que convergen a un nudo, igual a 1,2 o superior. Se define entre los tres criterios fundamentales para el diseño de pórticos especiales resistentes a momento: evitar el fallo por cortante, colocar un refuerzo detallado en la sección y diseñar bajo el criterio de columna fuerte-viga débil [7]. Investigaciones demuestran que a pesar de emplear el coeficiente 1,2 de sobrerresistencia, las articulaciones plásticas tienden a aparecer primero en las columnas que en las vigas para edificaciones de 5, 10 y 15 niveles, aunque dichas estructuras presentan una amplia disipación de energía con la formación de rótulas plásticas [8]. Para evaluar el orden y lugar de aparición de las rótulas plásticas uno de los métodos de análisis a emplear es el Pushover. Este es un método de plasticidad concentrada en los extremos de los elementos, que es donde se considera se generen las mayores solicitaciones. El comportamiento plástico de la sección es incorporado al modelo mediante un gráfico de momento - rotación característico para estructuras de hormigón [9]. El Pushover consiste en la aplicación monotónicamente creciente de una matriz vertical de carga estática, hasta alcanzar un desplazamiento objetivo en el tope de la estructura. En el caso de esta investigación la matriz de carga se obtiene mediante el Método Estático Equivalente (MEE) contenido en la norma cubana de sismos [1]. Distintos autores demuestran que la consideración de la interacción dinámica suelo-estructura (IDSE) ocasiona variaciones desfavorables en la respuesta de las edificaciones a sismos, respecto a modelos donde se considera la base empotrada [10-13]. Se ha demostrado que con la inclusión de la IDSE en el modelo se altera el mecanismo de colapso de la estructura a partir del aumento de parámetros como la deriva, generándose modos de falla no deseables y la pérdida del criterio de columna fuerte – viga débil con la aparición de rótulas plásticas en las columnas antes que en las vigas [6]. Otra investigación concluye que se pierde dicho criterio de diseño en los elementos verticales del primer nivel para edificaciones de 6, 8 y 12 niveles al incluir la interacción suelo – estructura en los modelos de análisis [14]. 2. DESARROLLO El objeto social de la estructura de esta investigación se supone que es la construcción de edificios multifamiliares en el municipio de Santiago de Cuba en la provincia homónima en Cuba. Esta región es la de mayor peligro sísmico del país. La edificación que se analiza dispone de 12 niveles con una altura total de 32,7 m. La planta es cuadrada con una distribución simétrica de los elementos portantes. La planta está conformada por losas cuadradas de 7,20 m de lado, con una abertura central para los elevadores de 4,0 m x 4,0 m. La estructura vertical es a base de pórticos y tímpanos y no presenta irregularidades en planta ni en elevación. Geometría de los elementos El sistema resistente a cargas laterales presenta las columnas con una sección transversal de 65 cm x 65 cm. También está conformado por los tímpanos con un espesor de 30 cm y longitudes de 8,0 m para los exteriores y de 4,0 m para los del núcleo interior. Los mismos son continuos en toda la altura de la edificación. Por otro lado, el sistema portante horizontal presenta vigas con sección de 40 cm x 60 cm y losas de cubierta y entrepiso de 20 cm de espesor funcionando como diafragmas rígidos. La cimentación está conformada por una losa cuadrada de 33,3 m de lado y 1m de espesor para los modelos donde se incluye la IDSE. Para sistemas sometidos a cargas laterales se penaliza la inercia bruta de los elementos como se resume en la Tabla 1. De esta manera se tiene en cuenta la incertidumbre en el cálculo de los desplazamientos laterales [2]. La Figura 1 muestra una vista tridimensional de la estructura y su vista en planta. Tabla 1: Rigideces equivalentes de los elementos. Elemento Rigidez efectiva Columnas 0,7𝐼𝑔 Vigas 0,35𝐼𝑔 Muros 0,7𝐼𝑔 Losas 0,25𝐼𝑔 Figura 1: Modelo tridimensional y planta de la edificación. Materiales empleados Todos los elementos son de hormigón armado “in-situ”. La resistencia característica a los 28 días es 𝑓𝑐 ′ = 35 𝑀𝑃𝑎, con un peso específico de 24 𝑘𝑁/𝑚3, un módulo de elasticidad secante 𝐸 = 4700√𝑓𝑐′ = 27805 𝑀𝑃𝑎 y un coeficiente de Poisson 𝜈 = 0,17. El acero de refuerzo empleado posee una resistencia de fluencia 𝑓𝑦 = 300 𝑀𝑃𝑎 y un módulo de elasticidad 𝐸 = 2 ∗ 10 5 𝑀𝑃𝑎. Condiciones de borde Las losas son continuas sobre vigas en sus cuatro bordes. Las uniones columna-columna y viga-columna son consideradas continuas. Se modelan las balsas de cimentación sobre resortes con una rigidez acorde al suelo y la cimentación utilizada para la variante apoyada elásticamente. En la otra variante la estructura es empotrada. Cargas permanentes y de uso En las normas cubanas NC-283 y NC-284 se recogen las densidades de los materiales para la determinación de las cargas permanentes sobre la estructura y las cargas de uso respectivamente. En la Tabla 2 se resumen los valores de las cargas consideradas [15, 16]. Carga sísmica Como se mencionó, las edificaciones se consideran emplazadas en el municipio Santiago de Cuba que clasifica como zona 5, de peligro sísmico muy alto, según la norma cubana de sismos [1]. El cálculo de la carga sísmica se realiza mediante el Método Estático Equivalente (MEE) debido a la regularidad de las estructuras. Los procedimientos para la determinación de esta carga son similares tanto para base empotrada como para cuando se considera IDSE. Las ordenadas espectrales (𝑆𝑎) para la formación del espectro de diseño (Fig. 2) se determinan según las expresiones (7)-(10). 𝑆𝑎(𝑇) = 0.683 (0,4 + 0,6 𝑇 0.133 ) 𝑝𝑎𝑟𝑎 𝑇 ≤ 0,133 𝑠 (7) 𝑆𝑎(𝑇) = 0.683 𝑝𝑎𝑟𝑎 0,133 𝑠 ≤ 𝑇 ≤ 0,665 𝑠 (8) 𝑆𝑎(𝑇) = 0.454 𝑇 𝑝𝑎𝑟𝑎 0,665 𝑠 ≤ 𝑇 ≤ 6 𝑠 (9) 𝑆𝑎(𝑇) = 2.724 𝑇2 𝑝𝑎𝑟𝑎 𝑇 > 6 𝑠 (10) Tabla 2: Cargas de uso en la edificación Carga P (kN/m2) Carga Q (kN/m2) Entrepiso 3,3 1,5 Cubierta 1,87 2,0 Finalmente, las cargas sísmicas aplicadas en los centros de masa de cada nivel y el cortante basal que las mismas generan, para cada una de las variantes analizadas, son los que quedan recogidos en la Tabla 3. Implementación de la IDSE Para la incorporación de la interacción dinámica suelo-estructura se calculan los valores de rigideces equivalentes del suelo de apoyo según las expresiones de A.E. Sargsian [17]. La Tabla 4 resume estos valores. Tabla 3: Cortante basal y fuerza sísmica por piso. Nivel Empotrado IDSE V𝑏𝑥,𝑦 (𝑘𝑁) F𝑥,𝑦 (𝑘𝑁) V𝑏𝑥,𝑦 (𝑘𝑁) F𝑥,𝑦 (𝑘𝑁) 12 12152 1755,34 11061 1626,74 11 1856,38 1714,09 10 1660,71 1527,29 9 1468,52 1344,57 8 1280,12 1166,30 7 1095,89 992,87 6 916,29 824,83 5 741,97 662,85 4 573,74 507,84 3 412,82 361,10 2 261,14 224,69 1 128,89 107,92 Tabla 4: Rigideces equivalentes del suelo. Suelo Rigideces equivalentes del suelo Kx = Ky (kN/m) Kz (kN/m) Kφx = Kφy (kNm) Kψz (kNm) D 946797 864140 140821104 148566850 Figura 2: Espectro de demanda del sismo de diseño. Diseño estructural Uno de los elementos de mayor importancia para la evaluación del criterio de columna fuerte – viga débil en estructuras de hormigón armado es el acero de refuerzo en la sección. Este garantiza junto a la sección de hormigón que se alcancen las resistencias requeridas para cumplir con las relaciones de resistencia establecidas entre las vigas y las columnas. En la Tabla 5 se recoge el área de acero colocada. Con este armado se logra una relación de resistencia entre vigas y columnas de 1.3 aproximadamente por lo que se satisface el requisito de que sea igual o superior a 1.2. 3. RESULTADOS Derivas de piso En estructuras sometidas a cargas laterales, como el caso de los sismos, desplazamientos excesivos por piso pueden producir problemas en la respuesta estructural. El hecho de que esto ocurra puede estar asociado a la rigidez o a la presencia de irregularidades que produzcan problemas dinámicos, lo cual influye en el grado de ductilidad de la edificación. La diferencia entre el movimiento de un piso y otro, conocida como deriva de piso, genera grandes esfuerzos en los elementos de soporte vertical como columnas y muros, pudiéndose producir el mecanismo de colapso de piso débil. La Figura 3 muestra las derivas obtenidas del análisis para ambas condiciones de apoyo con la combinación 𝐺 + 𝑄 + 𝑆𝑣 + 𝑆ℎ𝑥 donde: 𝐺 – Carga permanente 𝑄 – Carga de uso 𝑆𝑣 – Carga sísmica vertical, considerada como una fracción de la carga permanente según la norma [1]. 𝑆ℎ𝑥 – Carga sísmica horizontal determinada por el MEE. Tabla 5: Área de acero colocada en las secciones. Tipo de elemento Área (𝑚𝑚2) Vigas 4109 Columnas 16300 Figura 3: Derivas de piso. 0.03… 0.074% 0.101% 0.121% 0.135% 0.145% 0.150% 0.151% 0.150% 0.146% 0.142% 0.136% 0.061% 0.093% 0.114% 0.131% 0.142% 0.149% 0.153% 0.153% 0.151% 0.147% 0.143% 0.137% 0 1 2 3 4 5 6 7 8 9 10 11 12 13 0.000% 0.060% 0.120% 0.180% N iv el Deriva como fracción de la altura del nivel (%) Base empotrada Con IDSE Según la (NC-46 2017) la deriva admisible para edificaciones en general, con clasificación de ordinaria, es de 2% de la altura del piso en que se analiza, valor que no es superado en ninguno de los casos. Con la inclusión de la IDSE la deriva por piso es superior, teniendo variaciones significativas en los niveles inferiores lo cual se justifica por la flexibilidad de la base. La mayor variación ocurre en el primer nivel con un aumento del 62,6% de la deriva para el modelo con IDSE respecto al que se considera empotrado. Curvas de capacidad Con el uso del método de análisis estático no lineal (Pushover) se obtienen gráficos de cortante basal contra desplazamiento en el tope de la edificación. Este gráfico es conocido como curva de capacidad y refleja de cierta manera el grado de ductilidad de la estructura con la evaluación del punto de fluencia en la curva. La Figura 4 muestra la curva de capacidad obtenida para la edificación. En la figura se aprecia que con la inclusión de la IDSE hay una gran disminución de la rigidez de la estructura reflejada en la menor pendiente en la curva de capacidad de la edificación. Dicha disminución se traduce en mayores desplazamientos por piso para menores valores de cortante basal, los cuales influyen negativamente en el comportamiento estructural deseado de la edificación ante sismos. Formación de rótulas plásticas y mecanismo de colapso. La configuración y orden de aparición de las rótulas plásticas que generan el mecanismo de colapso en las estructuras es un aspecto difícil de determinar con exactitud. Por tal motivo, y debido a la necesidad de evitar que se produzca un mecanismo de piso blando, se asumirá la ocurrencia de este fenómeno como el criterio de falla en las estructuras. Para la estructura con base empotrada las primeras ocho rótulas plásticas se generan en vigas entre los niveles 8 y 11 para un punto de la curva de capacidad donde el desplazamiento en el tope de la estructura es de 183 mm y el cortante basal de 34 337 kN. Evaluando el comportamiento de la estructura con base flexible para un desplazamiento similar en el tope, 187 mm específicamente, se observa que la aparición de la primera rótula plástica es en la base de una de las columnas del primer nivel. Este hecho evidencia la pérdida del criterio de columna fuerte – viga débil para la estructura analizada con IDSE (Fig. 5). Analizando ahora la progresión de la formación de rótulas plásticas, para un cortante basal de aproximadamente 53 000 kN, en la figura 6 se aprecian igualmente diferencias notables entre ambos casos de apoyos. Para la estructura empotrada se han generado casi la totalidad de las articulaciones plásticas en vigas (86 de 96 posibles); mientras que para la estructura analizada con IDSE se ha generado la totalidad de las articulaciones plásticas en vigas, pero alrededor de un tercio de las rótulas posibles en columnas (33 de 120). Esta es otra prueba de la pérdida del criterio de columna fuerte – viga débil. 0 50000 100000 150000 200000 0 500 1000 1500 C o rt an te b as al ( kN ) Desplazamiento en el tope (mm) Con IDSE Base empotrada Figura 4: Curvas de capacidad de las estructuras. (a) (b) Figura 5: Aparición de las primeras rótulas plásticas en las estructuras de 12 niveles: (a) Base empotrada, (b) Con IDSE. (a) Figura 6: Progresión de la aparición de rótulas plásticas en las estructuras de 12 niveles: (a) Base empotrada, (b) IDSE. (b) En la estructura no se genera el mecanismo de piso débil pero se manifiesta un daño extendido en los elementos verticales de soporte lo que evidencia la pérdida del criterio de columna fuerte-viga débil. La incorporación de la IDSE provoca que la primera rótula plástica se genere para un cortante basal 62% menor que para el modelo de base empotrada y en una posición más desfavorable para el comportamiento estructural de la edificación ante sismos. Una situación similar se produce para el avance de la plastificación de las secciones con la aparición de numerosas articulaciones plásticas en los externos de numerosas columnas. Es conocido el peligro que conlleva la entrada en rango inelástico de los elementos verticales, pues estos están sometidos a elevadas cargas axiales, acción que aumenta con la altura de la edificación. Otro resultado que se puede asociar al orden de aparición y progresión de rótulas plásticas es la menor pendiente de la curva de capacidad en la estructura de base flexible. El mayor número de articulaciones en columnas, elementos que aportan significativamente a la rigidez global de la estructura, afecta negativamente la capacidad deformacional de la edificación. 4. CONCLUSIONES Con los resultados obtenidos se aprecia una variación negativa en el mecanismo de colapso para el modelo que considera la base flexible. El orden de aparición y progresión de la plastificación de las secciones indica que se pierde el principio de diseño sismorresistente de columna fuerte – viga débil en dicho modelo. Este hecho se produce incluso cuando la relación de resistencia a momento entre columnas y vigas fue impuesta para un valor de 1,3. Dicho valor es superior al establecido por las normativas [1, 2] y se encuentra en el entorno de lo estipulado por otras normativas internacionales. De esta manera se demuestra que, al incluir la IDSE en los modelos de análisis, incluso cumpliendo con lo establecido en las normativas, no es suficiente para mantener un comportamiento estructural bajo el principio de columna fuerte – viga débil. REFERENCIAS 1. NC-46, Construcciones sismorresistentes. Requisitos básicos para el diseño y la construcción. 2017, Oficina Nacional de Normalización: La Habana, Cuba. 2. ACI, Building Code Requirements for Structural Concrete and Commentary, in American Concrete Institute: Farmington Hills, MI, USA. 2019. 3. NZS, Concrete Structures Standard. Part 1: The design of concrete structure; Part 2: Commentary (Incorporating Amendment No. 1, 2 and 3). 2017, New Zealand Standards: New Zealand. 4. Eurocode-8, Design of structures for earthquake resistance-Part 1: General rules, seismic actions and rules for buildings., in Brussels: European Committee for Standardization. 2009, European Committee for Standardization: Brussels. 5. IS-456, Plain and Reinforced Concrete–Code of Practice. 2007, Bureau of Indian Standard. 6. Corratgé Yzaguirre, Z., et al., Influencia de la interacción suelo-estructura en los mecanismos de colapso de un edificio de hormigón armado. Revista Ciencia y Construcción, 2020b. 1(3): p. 32- 43. 7. Moehle, J.P., J.D. Hooper, and C.D. Lubke, Seismic design of reinforced concrete special moment frames. US Department of Commerce, 2008. 8. García Núñez, M.A., Estudio sobre la efectividad del factor de sobre-resistencia del criterio columna fuerte-viga débil en el diseño sísmico de pórticos de hormigón mediante el análisis dinámico no lineal. 2018, Universitat Politècnica de Catalunya. 9. NIST, Guidelines for Nonlinear Structural Analysis for Design of Buildings Part IIb – Reinforced Concrete Moment Frames 2017c, ATC Redwood City, CA, USA. 10. Behnamfar, F. and M. Banizadeh, Effects of soil–structure interaction on distribution of seismic vulnerability in RC structures. Soil Dynamics and Earthquake Engineering, 2016. 80: p. 73-86. 11. Poffan, C. and M. José, Estudio del fenómeno de interacción dinamica de suelo-estructura y su influencia en la demanda sísmica estructural. 2017. 12. Kontoni, D.-P.N. and A.A. Farghaly, Seismic response of adjacent unequal buildings subjected to double pounding considering soil-structure interaction. Computation, 2018. 6(1): p. 10. 13. Corratgé Yzaguirre, Z., Influencia de la Interacción Dinámica Suelo -Estructura en el Mecanismo de Colapso y Nivel de Desempeño de una Edificación de 10 Niveles de Hormigón Armado con Tipología Mixta, in Departamento de Estructuras. 2020, Universidad Tecnológica de La Habana José Antonio Echeverría CUJAE: La Habana, Cuba. 14. Fernández Sola, L.R. and I.I. León García, Diferencias en los mecanismos de colapso de edificios de acero sobre base rígida y base flexible. 2008. 15. NC-283, Densidad de materiales naturales, artificiales y de elementos de construcción como carga de diseño (NC 283: 2003). 2003, Oficina Nacional de Normalización La Habana, Cuba. 16. Constantinou, M., et al., Desempeño de aislador FPT8833/12-12/8-5 en el análisis sísmico del Centro de Investigaciones y de Post Grado de la UFA-ESPE. Revista Internacional de Ingeniería de Estructuras, 2018. 21(1). 17. Villarreal Castro, G., Interacción sísmica suelo-estructura en edificaciones con plateas de cimentación. 2017: Trujillo: Editora & Imprenta Gráfica Norte SRL. Programa General III Congreso de Educación y Extensión Universitaria CEEU 2022 PROGRAMA TÉCNICO V CONGRESO DE EDUCACIÓN Y EXTENSIÓN UNIVERSITARIA (CEEU 2022) Día: 30/11/2022 Sala: 4 Actividades: Conferencia central Horario Código Título 9:00- 10:00 CEEU CONF: La Universidad Técnica de Manabí: logros y retos para el posicionamiento nacional e internacional Dr. Santiago Quiroz Fernández Rector de la Universidad Técnica de Manabí, Ecuador Día: 30/11/2022 Sala: 13 Presidente Sesión: Dr. C. Janette Santos Baranda. Directora del Centro de Referencia para la Educación de Avanzada (CREA) de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE y Presidente del Comité Organizador del CEEU 2022. Actividades: Acto inaugural e intervención especial Horario Código Título 10:10- 10:40 CEEU ACTO INAUGURAL CEEU 2022 CEEU Intervención especial: Retos de la educación superior cubana para las carreras de ciencias técnicas Dr. C. Anaisa Hernández González Vicerrectora de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE, Cuba 10:40- 11:10 CEEU Conferencia magistral: Transformaciones al currículo universitario desde la concepción socioformativa Dr. Sergio Tobón. Centro Universitario de Ciencia e innovación para la formación y el emprendimiento (CIFE), Colombia Día: 30/11/2022 Sala: 13 Presidente Sesión: Dr. C. Manuel de la Rúa Batistapau. Director del Instituto de Ciencias Básicas de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE y Vicepresidente del Comité Organizador del CEEU 2022. Actividad: Taller: Retos curriculares e impactos de la formación del arquitecto y el ingeniero hacia la conferencia mundial de la UNESCO y la Agenda de Desarrollo 2030. Horario Código Título 11:20- 12:20 CEEU 01 Relación universidad-empresa vista desde el modelo basado en trabajo en las carreras de ciencias técnicas Anaisa Hernández González, Cuba CEEU 02 Perfil de competencias del ingeniero industrial en el plan de estudios E Lamay Rosa Montero, Gilberto Juan Machado Burguera, Cuba CEEU 04 Reconfiguración del currículo de ingeniería a partir de enfoques alternativos como el buen vivir y la ingeniería comprometida Sandra Milena Bonilla Cely, Alexei Ochoa-Duarte, Colombia CEEU 06 Metodología para el rediseño curricular en carreras de ingeniería Jesús Heraclio Zúñiga Cueva, Elizabeth Enriqueta Vidal Duarte, Arasay Padrón Alvarez, Perú y Cuba CEEU 07 Modelo de rediseño curricular para la formación hibrida por competencias Percy Oscar Huertas Niquen, Elizabeth Enriqueta Vidal Duarte, Arasay Padrón Alvarez, Perú y Cuba CEEU 10 Gestión del centro de idiomas en el perfeccionamiento del inglés en la Cujae Laura María Barreiro Pérez, María del Carmen Batista González, Caridad María Cazañas Marisy, Cuba CEEU 11 El modo de actuación del ingeniero y su papel durante el ciclo básico de formación profesional Manuel de la Rúa Batista Pau, María Isabel Pino, Cuba Debate de las ponencias Día: 30/11/2022 Sala: 13 Presidente Sesión: Dr. C. Ana Teresa Molina Álvarez. Presidente de la Comisión de Grados científicos de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Actividades: Conferencia y Mesa redonda: Experiencias y resultados en la formación integral del arquitecto e ingeniero, desde una perspectiva didáctica innovadora, inclusiva, creativa y equitativa para el desarrollo sostenible (I). Horario Código Título 12:30- 1:00 CEEU Conferencia: Oportunidades de aprendizaje. Nuevos paradigmas docentes. Dra. María José Pizarro Juanas. Universidad Europea de Madrid, España 1:00- 1:30 Mesa redonda: Didáctica para la innovación tecnológica en la formación de ingenieros CEEU 05 Competencias para la innovación en estudiantes de ingeniería industrial César Augusto Palma-Alvarado, Ana Teresa Molina Álvarez, El Salvador y Cuba CEEU 13 Didáctica para la innovación tecnológica. Aproximación a la enseñanza de la ingeniería Ana Teresa Molina Álvarez, César Augusto Palma Alvarado, Cuba y El Salvador CEEU 24 Competencias digitales en la educación superior. Estudio de caso Christian Karlos Moscoso Caro, Eva Aida Ponce Vega, Arasay Padrón Alvarez, Benilde del Carmen Alva Castillo, Perú y Cuba CEEU 41 La formación de las competencias interculturales en estudiantes universitarios en El Salvador Nelson A. Quintanilla Juárez, Maritza Ruiz de Campos, El Salvador Debate de las ponencias Día: 1/12/2022 Sala: 13 Presidente Sesión: Dr. C. Gilda Vega Cruz. Metodóloga de la Dirección de Formación de Pregrado (DFP) de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Actividad: Taller: Experiencias y resultados en la formación integral del arquitecto e ingeniero, desde una perspectiva didáctica innovadora, inclusiva, creativa y equitativa para el desarrollo sostenible (II) Horario Código Título del trabajo Autores País CEEU 08 La asignatura Introducción a la Física como una acción propedéutica en el curso 21-22 Gilda Vega Cruz, Mar Denise Oliva Pereda, Cuba CEEU 09 Influencia del marco común europeo de referencia para las lenguas en la evaluación de idioma inglés en la educación superior cubana Odalys de las Mercedes Morales Chacón, Cuba CEEU 12 La formación profesional en jóvenes y adolescentes. Caso de estudio: carrera de Ingeniería Eléctrica Ernesto Alberto Alvarez, Randy Becerra Rodríguez, Amanda Bárbara Bello Colomer, Orestes Gabriel Osorio Rodríguez, Cuba CEEU 14 La empatía como valor formativo en la Ingeniería Biomédica en el contexto de la biorehabilitación 9:00- 10:00 Dunia Teresa González Cárdenas, Yanexy San Martín, Cuba CEEU 16 Experiencias en la enseñanza del Diseño Arquitectónico, desde la integración, la extensión y la pertinencia social Martha María Rubio Tamayo, Cuba CEEU 32 Contribución del desarrollo sostenible en la formación de los profesionales de ingeniería civil Bernardo Omar González Morales, Armando Juan Velázquez Rangel, Manuel de Jesús Rodríguez Quintero, Cuba CEEU 42 La asimilación del cálculo integral y las aplicaciones desde la teoría de Galperin para el ingeniero civil Teresa de Jesús Carrasco Jiménez, Orlando Pérez Torranzo, Genoveva Marivel del Valle García, Camilo Boris Armas Velasco, Cuba Debate de las ponencias Día: 1/12/2022 Sala: 13 Presidente Sesión: Dr. C. Teresa de Jesús Carrasco Jiménez. Profesora Titular del Centro de Estudios Matemáticos (CEMAT) del Instituto de Ciencias Básicas (ICB) de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Actividad: Conferencia y Taller: Integración de las TIC en los procesos formativos y entornos comunitarios en función del desarrollo sostenible y del mejoramiento de la calidad de vida de las personas, las comunidades y las sociedades. (I) Horario Código Título del trabajo Autores País 10:10- 10:40 Conferencia: Los retos de la formación tecnopedagógica en la sociedad actual. Dr. Cristóbal Torres Fernández. Universidad de Sevilla. (España) 10:40- 11:10 CEEU 18 El uso de dispositivos móviles en el proceso de enseñanza aprendizaje Eldo Yoel Flores del Castillo, Aimé María Mencía Pentón, Ana Claudia Flores Molina, Caridad Portal Valdivia, Cuba CEEU 19 Integración interdisciplinaria de las tecnologías digitales en los procesos de aprendizaje para la formación de ingenieros informáticos Jorge Félix Valiente Márquez, Leopoldo Fernando Perera Cumerma, Raquel Bermúdez Morris, Ariel Rodríguez Gómez, Cuba CEEU 20 Metodología integradora de las TIC al proceso de enseñanza – aprendizaje del judo en la Cujae Maikel Barrera Balbuena, Narmí Pedroso Jiménez, Cuba CEEU 38 Uso del Excel y otros recursos del teléfono móvil en la asignatura Métodos Numéricos de Ingeniería Química Tito Díaz Bravo, Mayra Luciana Cordovés Macías y Eduardo García Noa Debate de las ponencias Día: 1/12/2022 Sala: 13 Presidente Sesión: Dr. C. Arasay Padrón Alvarez. Coordinadora del Doctorado en Ciencias de la Educación de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Actividades: Panel. Integración de las TIC en los procesos formativos y entornos comunitarios en función del desarrollo sostenible y del mejoramiento de la calidad de vida de las personas, las comunidades y las sociedades. (II) Horario Código Título 11:20- 12:20 Panel: Experiencias en la formación de ingenieros en entornos virtuales de enseñanza-aprendizaje (CEEU 15, 17, 21, 22 y 40) CEEU 15 Experiencias para la formación de ingenieros desde la orientación educativa en el proceso de enseñanza-aprendizaje Norma González Ruda, Ibette Alfonso Pérez, Raquel Bermúdez Morris, Cuba y Bolivia CEEU 17 Experiencias para propiciar el aprendizaje formativo en la modalidad a distancia del pregrado y posgrado Raquel Bermúdez Morris, Lorenzo Miguel Pérez Martín, Cuba CEEU 21 La formación online del ingeniero civil. Resultados con alumnos ayudantes Arasay Padrón Alvarez, Naysuní Sarabaza Hernández, Liuris Castilla Rodríguez, Cristóbal Torres Fernández, Cuba y España CEEU 22 Objeto virtual de aprendizaje como sistema de ayudas para las prácticas virtuales de “Redes de tuberías” en la carrera Ingeniería Hidráulica de la Cujae Indira Ordoñez Reyes, Brian Yllobre Madruga, Maray Garrido Monagas, Modesto Gómez Crespo, Cuba CEEU 40 Algunas experiencias en la formación de ingenieros mediante un entorno virtual de enseñanza-aprendizaje Janette Santos Baranda, Cuba Debate de las ponencias Día: 1/12/2022 Sala: 13 Presidente Sesión: Dr. C. Juan José Llovera González. Metodólogo de la Dirección de Investigaciones y Postgrado del Instituto de Ciencias Básicas (ICB) de la de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Actividades: Panel y Taller. Investigación, innovación, emprendimiento y responsabilidad social en la formación profesional de arquitectos e ingenieros, como promotores del desarrollo local, social y humano. Horario Código Título 12:30- 1:00 Panel: La evaluación a distancia de la calidad de las maestrías (CEEU 35, 36 y 37) CEEU 35 Evaluación del impacto social de la Maestría “Las Tecnologías en los Procesos Educativos” Raquel Bermúdez Morris, Lorenzo Miguel Pérez Martín, Cuba CEEU 36 Evaluación estudiantil de los cursos de la Maestría “Las Tecnologías en los Procesos Educativos” Lorenzo Miguel Pérez Martín, Raquel Bermúdez Morris, Cuba CEEU 37 La evaluación a distancia de la calidad del posgrado. Experiencia del programa de Maestría “Las Tecnologías en los Procesos Educativos” de la Cujae Camilo Boris Armas Velasco, Eddy Rodríguez Díaz, Lorenzo Miguel Pérez Martín, Cuba 1:00- 1:30 CEEU 03 Diseño de programa de capacitación para el desarrollo del rol profesional en cargos de la actividad de Tecnologías de la Información en la Empresa de Telecomunicaciones de Cuba S.A Raiza María Guevara Salvia, Cuba CEEU 33 Interdisciplinariedad científica en la gestión de la información científica- tecnológica Jorge Félix Valiente Márquez, Ariel Rodríguez Gómez, Mirta de la Caridad Quesada Pollero, Leopoldo Fernando Perera Cumerma, Raquel Bermúdez Morris, Cuba CEEU 34 El proceso de formación de doctores: un desafío emocional intenso Berta Margarita González Rivero, Cuba Debate de las ponencias Día: 2/12/2022 Sala: 13 Presidente Sesión: Dr. C. Diego de los Ángeles Fernández Cabrera. Vicerrector de Extensión Universitaria de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Actividades: Conferencia y Taller. El proyecto sociocultural, la cultura patrimonial universitaria y las cátedras honoríficas y científicas como ejes de la gestión extensionista en función de la formación de valores (I). Horario Código Título 9:00- 9:30 CEEU Conferencia: Estrategias pedagógicas de apropiación del patrimonio cultural para la promoción, desarrollo y emprendimiento de comunidades de borde de ciudad MSc. Flor Adriana Pedraza Pacheco. Universidad Católica de Colombia CEEU 23 Acercamiento a la visión ambiental en las universidades cubanas Naira Paisan Moreira Martha del Carmen Mesa Valenciano, Cuba CEEU 26 Integración de los actores universitarios por la extensión universitaria. Trabajo sociocultural comunitario en la transformación de comunidades vulnerables Denise Hernández Delgado, Francely Lamadrid Delgado, Leonardo Pacheco 9:30- 10:00 Sierra, Lic. Emilio Jesús Viamonte Fernández, Cuba CEEU 27 La extensión universitaria y su impacto en la formación del profesional. Docencia, investigación, cultura y sociedad Denise Hernández Delgado, Francely Lamadrid Delgado, Leonardo Pacheco Sierra, Lic. Emilio Jesús Viamonte Fernández, Cuba CEEU 31 La revista Patria: expresión de difusión de la educación martiana del Seminario martiano y su Asociación David Hernández Duany, Cuba CEEU 39 El Salón de los mártires: tributo a los mártires en la Universidad de La Habana Yohandi Ramón Pérez Soto, Cuba Debate de las ponencias Día: 2/12/2022 Sala: 13 Presidente Sesión: Dr. C. Diego de los Ángeles Fernández Cabrera. Vicerrector de Extensión Universitaria de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Actividades: Panel y Conferencia. El proyecto sociocultural, la cultura patrimonial universitaria y las cátedras honoríficas y científicas como ejes de la gestión extensionista en función de la formación de valores (II). Horario Código Título 10:10- 10:40 Panel: La extensión universitaria en la formación integral de los ingenieros y arquitectos (CEEU 28, 29 y 30) CEEU 28 Patrimonio cultural universitario. Gestión del conocimiento en la comunidad Cujae Ada Esther Portero Ricol, Ricardo Machado Jardo Cuba CEEU 29 El arte en la extensión universitaria; una visión integral en el proceso docente educativo para ingenieros y arquitectos de la Cujae Isabel Fernández López Cuba CEEU 30 La cátedra científica dentro del proceso extensionista y la formación integral del estudiante Rubén Herrera Rodríguez, Rolando Serra Toledo, Nancy de la C. Enrich Justiz Cuba 10:40- 11-10 Conferencia: Enseñando el proceso de redacción a estudiantes de ingeniería: un enfoque a conferencias. Elizabeth Vidal. Universidad Nacional de San Agustín de Arequipa, Perú Día: 2/12/2022 Sala: 13 Presidente Sesión: Dr. C. Yolanda de Jesús O’Farril Dinza. Directora de Investigaciones y Posgrado del Instituto de Ciencias Básicas (ICB) de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Actividades: Conferencias magistrales y Clausura del Congreso Horario Código Título 11:20- 11:50 CEEU Conferencia magistral: Educando en la virtualidad: los MOOCs y los NOOCs como herramientas didácticas en el aula Dra. Isabel María Gómez Trigueros. Universidad de Alicante, España 12:00- 12:30 CEEU Conferencia magistral: Blockchain, más allá de las criptomonedas Dr. C. Luis Ramiro Piñeiro Díaz e Ing. Alexi Massó Muñoz Universidad de La Habana, Cuba 12:30- 1:00 CLAUSURA DEL V CONGRESO DE EDUCACIÓN Y EXTENSIÓN UNIVERSITARIA (CEEU 2022) MEMORIAS CEEU 2022 RELACIÓN UNIVERSIDAD-EMPRESA VISTA DESDE EL MODELO BASADO EN TRABAJO EN LAS CARRERAS DE CIENCIAS TÉCNICAS Anaisa Hernández González Universidad Tecnológica de la Habana José Antonio Echeverría CUJAE Calle 114 # 11901 / Ciclovía y Rotonda, Marianao, La Habana, Cuba anaisa@ceis.cujae.edu.cu RESUMEN En la solución a los problemas que enfrenta la sociedad contemporánea, todos los actores de manera coordinada necesitan participar. A las universidades se les demanda una mayor integración con el tejido empresarial en la formación de profesionales. Desarrollar el proceso docente educativo en los dos escenarios (universidad y empresa), combinando la formación teórica y práctica, puede contribuir a este fin. Con el propósito de llevar a un estado superior la relación universidad-empresa, a partir de las experiencias nacionales e internacionales, en este trabajo se profundiza en el modelo basado en trabajo (formación dual) para su implementación en las carreras y programas de ciclo corto que se estudian en la CUJAE. Se abordan las particularidades del modelo, los beneficios para la entidad laboral, la universidad y los estudiantes y problemas que en la literatura se identifican se han producido en su implementación. Tomando como referencia estos resultados, se realiza una propuesta para su desarrollo en la universidad. PALABRAS CLAVES: Relación Universidad-Empresa, Modelo basado en trabajo GUIDELINES FOR PREPARING ARTICLES FOR THE XX SCIENTIFIC CONVENTION ON ENGINEERING AND ARCHITECTURE ABSTRACT In the solution to the problems that contemporary society faces, all actors need to participate in a coordinated manner. Universities are required to have greater integration with the business fabric in the training of professionals. Developing the educational teaching process in both scenarios (university and company), combining theoretical and practical training, can contribute to this end. With the purpose of taking the university-business relationship to a higher state, based on national and international experiences, this work deepens the work-based model (dual training) for its implementation in careers and short-cycle programs. that are studied at CUJAE. The particularities of the model are addressed, the benefits for the labor entity, the university and the students and problems that are identified in the literature that have occurred in its implementation. Taking these results as a reference, a proposal is made for its development in the university. KEY WORDS: University-Enterprise Relationship, Dual Education. 1. INTRODUCCIÓN Existe un reconocimiento internacional del papel de las universidades como líderes en la creación de conocimiento a través de sus procesos sustantivos: el proceso de formación que prepara a los estudiantes para el entorno laboral, el proceso de investigación que incentiva la generación de este nuevo conocimiento, y el proceso de extensión universitaria que promueve la colaboración entre la universidad, la empresa, el estado, la sociedad y el medio ambiente. Por lo tanto, se demanda de ella la solución a los problemas y, por ende, la transferencia de conocimientos a empresas, al estado y a las comunidades como uno de los principales retos o desafíos de la organización académica. Dicho en otras palabras, las universidades tienen una responsabilidad social explícita en la Declaración Mundial sobre la Educación Superior (ES) en el siglo XXI en 1998, en 2009 en la Declaración de la Conferencia Mundial y en la meta 4.7 de la Agenda 2030 de la Organización de Naciones Unidas: Declaración Mundial sobre la ES en el siglo XXI. UNESCO 1998. Artículo bb: «La ES debe reforzar sus funciones de servicio a la sociedad, y más concretamente sus actividades, encaminadas a erradicar la pobreza, la intolerancia, la violencia, el analfabetismo, el hambre, el deterioro del medio ambiente y las enfermedades, principalmente mediante el planteamiento interdisciplinario y transdisciplinario para analizar los problemas y las cuestiones planteadas» [1]. Declaración de la Conferencia Mundial de ES. UNESCO 2009. Artículo 1.3: «Las IES a través de sus funciones de docencia, investigación y extensión, desarrolladas en contextos de autonomía institucional y libertad académica, deberían incrementar su mirada interdisciplinaria y promover el pensamiento crítico y la ciudadanía activa, lo cual constituye el logro del desarrollo sustentable, la paz, el bienestar y el desarrollo, y los derechos humanos, incluyendo la equidad de género» [2]. Agenda 2030 de la ONU. Meta 4.7: «Para el 2030, se debe asegurar que todos los alumnos adquieran los conocimientos teóricos y prácticos necesarios para promover el desarrollo sostenible, mediante la educación para el desarrollo sostenible y los estilos de vida sostenibles, los derechos humanos, la igualdad de género, la promoción de la cultura de paz y no violencia, la ciudadanía mundial y la valoración de la diversidad cultural y la contribución de la cultura del desarrollo sostenible» [3]. Desde los primeros años de la Revolución ha existido una preocupación y ocupación por llevar a la acción el postulado martiano del estudio y el trabajo, asumiendo como principio rector de la educación superior cubana la educación en el trabajo. En varias intervenciones del líder de la Revolución Cubana hizo alusión a este tema. En particular, el 12 de noviembre de 1971 en su visita a Chile, resaltaba que la educación debe ser la combinación del centro de trabajo y el centro de estudios y que hay que combinar la fábrica con las universidades y las universidades con las fábricas. La relación universidad-empresa es un proceso integral que articula las funciones sustantivas de docencia, investigación, extensión de la cultura y los servicios de las Instituciones de Educación Superior (IES), para su integración eficaz y eficiente con el entorno socioeconómico, mediante el desarrollo de acciones y proyectos de beneficio mutuo que contribuyen a su posicionamiento y reconocimiento social. Es un medio para promover el avance científico y lograr objetivos que beneficien a toda la sociedad, siendo rentable para ambas partes ya que apoya la mejora y la innovación en la industria y ayuda a garantizar la relevancia industrial de la investigación académica [4]. Es una relación que genera nuevos productos, procesos y conocimiento; que los impulsa a mejorar la investigación y el desarrollo y produce progreso tecnológico y permite el desarrollo de un sistema de innovación eficaz [5]. Entre los gremios y la academia, en ocasiones, existen distancias que no permiten una relación de confianza entre las partes; por lo que constituye un reto establecer un diálogo franco que lleve a la universidad a ajustarse al marco de las necesidades del mundo empresarial y la empresa comprendiendo los compromisos, pero a la vez las ventajas de ser socialmente responsables. La educación moderna debe ser altamente flexible en relación a las necesidades individuales de los estudiantes y los requerimientos del mercado laboral [6]. Las IES generan modelos educativos que buscan dar respuesta a las demandas de la sociedad, para ello se identifica la necesidad de conjuntar esfuerzos que apremien desarrollar un modelo educativo enfocado a un perfil de egreso que sea lo suficientemente flexible para adaptarse a las necesidades o cambios de la sociedad actual [7]. La Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE, es el centro rector de las carreras de ciencias técnicas en Cuba. En ella se estudian doce carreras de Ingeniería, la carrera de Arquitectura y Urbanismo y cinco programas de ciclo corto. En las distintas generaciones de planes de estudio ha sido práctica usual tener una disciplina principal integradora en la que se definen horas de práctica laboral (en la actualidad como mínimo el 15% del total de horas del programa o carrera), en las que se realizan actividades académicas que mayoritariamente implican relaciones de los estudiantes con el tejido empresarial. El sistema de educación dual es aquel que combina la formación teórica en la academia y la formación práctica en la empresa [8]. La autora coincide con [9] en que, aunque la formación dual y la práctica laboral trascienden en dos espacios (la academia y la entidad productiva/servicios), la estructura del modelo es otro porque en el modelo dual la empresa adquiere una dimensión particular como fuente de instrucción ya que el aprendiz pasa más tiempo en ella que en la academia, se reconoce académicamente lo que la empresa le enseña al aprendiz, la empresa se incorpora como un actor que asume la sistematización práctica de los contenidos aprendidos mediante el trabajo y el currículo académico se adapta a las necesidades de la empresa. Por otra parte, recientemente entró en vigor la Resolución No. 202/2019 que establece las responsabilidades de las entidades en la formación y desarrollo de la fuerza de trabajo calificada en el nivel superior [10]. Igualmente existen otras regulaciones del Ministro de Educación Superior que norman el desarrollo del proceso docente educativo. A partir de un análisis de las particularidades y experiencias del modelo basado en trabajo (formación dual) y del contexto legislativo que rige actualmente la educación superior en el país; se proponen algunas buenas prácticas que son aplicables a las carreras de ciencias técnicas y aspectos normativos que se consideran deben adecuarse. 2. DESARROLLO Formación dual El sistema de aprendizaje dual tiene sus orígenes en el gremio de los artesanos alemanes de la Edad media, basados en la idea de “aprender haciendo” bajo la supervisión de un maestro [Morales 2014]. En la literatura se definen de varias formas: aprendizaje en el lugar de trabajo, desarrollo de la educación en el lugar de trabajo, aprendizaje experimental o experiencial, aprender haciendo, educación/formación dual y educación/formación/modelo basado en el trabajo. Términos que no son exactamente lo mismo, pero que coinciden en el reconocimiento de dos escenarios educativos, la escuela y el entorno laboral, y tres actores: la universidad, la entidad laboral y los estudiantes. En este trabajo se asume como “… el proceso de formación que se realiza en una institución, encargada de trasmitir conocimientos y la base teórica de la profesión, y una empresa o lugar de trabajo donde se tiene la posibilidad de aplicar la teoría en función de solucionar los problemas de la práctica; así como de adquirir experiencia relacionada con la profesión” [11]. Por lo tanto, en esta formación es tan importante la academia, con los profesores que en ella trasmiten estos conocimientos, como el entorno laboral y los especialistas que trabajan en la producción y los servicios, que pueden trasmitir sus experiencias y conocimientos; contribuyendo juntos a la formación de habilidades (Figura 1). Figura 1 Modelo basado en trabajo. Fuente: Elaboración propia. Es un sistema que no tiene un modelo de referencia único debido a que está integrado en el entorno de funcionamiento y en el que el lado determinante en la interacción entre los actores determina el modelo de funcionamiento [13]. Los beneficios para las universidades, los estudiantes y las entidades laborales, han sido reportadas en la literatura por muchos países (Tabla 1), también hay ventajas socioeconómicas, sociopolíticas y educativas (Figura 2) [8, 12, 14-17]. Tabla 1 Beneficios de la educación en lugar de trabajo y en la institución educativa. Fuente: Elaboración propia. Actor Beneficios Estudiantes Adquieren experiencia temprana con respecto a un trabajo profesional. Aumenta la calidad en la formación profesional mediante el acceso de los estudiantes a los recursos tecnológicos, la formación de competencias blandas y la posibilidad de aprender haciendo y el contacto contacto con personal experto. Crece el interés por el aprendizaje y la motivación por el trabajo. Seguridad de empleo una vez graduados. Promedio de calificaciones más altas. Empresa Posibilidad de participación directa en la formación de jóvenes para el empleo. Mayor participación en el proceso de selección de estudiantes para su empresa. Facilidades fiscales ofrecidas a las empresas a partir de los gastos en que incurren para la organización de la formación profesional dual. Posibilidad de que en una clase converjan estudiantes de diferentes especialidades. Permite satisfacer su demanda de fuerza de trabajo bien formada. Perfeccionamiento de sus procesos por medio del aporte de los conocimientos y la innovación que proviene de la academia. Universidad Estudiantes más motivados. Cooperación activa y regular con las empresas favoreciendo la transferencia tecnológica, la actualización tecnológica de los profesores y el perfeccionamiento de los planes de estudio incorporado las necesidades y realidades del mercado laboral. Mayor nivel de conciencia social, reconocimiento y mayor interés. Incrementa el número de personas interesadas en la formación profesional. Figura 2 Beneficios de la educación dual. Fuente: Elaboración propia a partir de los aportes de [14]. En los países donde se ha implantado este modelo, se han producido cambios en las organizaciones del proceso docente educativo (Figura 3). La base de estos cambios ha sido el trabajo modular, por ejemplo, primero el módulo básico en la academia y después alternar el módulo teórico en la academia con el práctico en la empresa. Otro de los impactos ha estado asociado con la evaluación de los resultados del aprendizaje siguiendo indicadores reales de la formación profesional, confirmados en las condiciones de producción. Figura 3 Experiencias internacionales en cuanto a la alternancia academia-entidad laboral. Fuente: Elaboración propia. El camino de la concreción de este tipo de formación ha tenido sus piedras, que han producido efectos no deseados, pero no reconocerlos puede contribuir a que otras experiencias transiten con éxito. Entre los problemas se destacan [9, 15-16, 18-19]: Planes y programas implementados parcialmente, por lo que los estudiantes solo adquieren las habilidades que proporciona la institución. Las empresas no quieren o no pueden crear los puestos de trabajo específicos y talleres de formación para los estudiantes. Encasillamiento de los estudiantes en una labor que no les permite la formación completa prevista en el plan de estudio. No se dispone de los recursos humanos necesarios para atender a los estudiantes. Poca motivación de los especialistas de la producción en categorizarse por el poco reconocimiento hacia las actividades docentes en algunos escenarios productivos/ de servicios. Retribución. Evaluación: no periódica, centrada en la asistencia y no en el desempeño de las habilidades, evalúan personas sin categoría o formación docente y no hay claridad de los propósitos, criterios y estándares que guíen qué y cómo evaluar. Desarrollo débil de los fundamentos teóricos y metodológicos. Falta de marco legal. Inadecuada participación de las empresas en los procesos formativos. No se logra una formación homogénea en una misma especialidad. El desarrollo de la precarización (pérdida de la calidad) en la inserción laboral. La implementación del sistema dual en las universidades se basa en fortalecer el bloque de prácticas, involucrar especialistas, aplicar tecnologías de enseñanza innovadoras, aumentar la conciencia profesional de los estudiantes e involucrarlos en la solución de tareas científicas y prácticas [20]. Modelo basado en el trabajo para carreras de ciencias técnicas Las causas que han llevado a las instituciones de educación (sobre todo europeas) a optar por la educación dual han sido [13-14, 21-23]: Reducir desempleo juvenil. Graduados sin trabajo porque lo que estudiaron no es demandando por las empresas. Empresas buscan jóvenes con experiencia, pero la educación académica no les da la necesaria. Disminuir costo de la educación para las instituciones educativas. Pocos profesores universitarios con habilidades laborales actualizadas. En la formación académica se adquieren pocas habilidades blandas (de liderazgo, de cooperación. ..). Brecha entre la teoría y la práctica. Facilitar la transición de la escuela al trabajo. Satisfacer las necesidades de personal cualificado en el mercado laboral. ¿Estas serían las causas que llevarían a las IES cubanas a optar por este modelo?. La consideración de esta autora es que no, la motivación principal es mejorar la calidad del graduado, prepararlo para el empleo de su vínculo con ese entorno y con las tareas profesionales que en él se realizan, y facilitar la transferencia y generación de conocimientos entre estos dos espacios. En la educación superior cubana indiscutiblemente es un caso de éxito la experiencia de ciencias médicas en la aplicación del modelo basado en trabajo. Es el principio rector y la forma fundamental de organización del proceso docente educativo en las carreras de ciencias médicas [18]. La forma organizativa, los escenarios educativos de los cuales se desarrolla, la característica del objeto de trabajo del área de salud qué es el hombre y sus y la salud; es un escenario que facilita este modelo. Sin embargo, para las carreras de ciencias técnicas este proceso es más complejo su diseño y su implementación por cuánto los profesionales que se gradúan de las carreras ingeniería y arquitectura y los programas de ciclo corto, puede desempeñarse en muchos lugares, una universidad, un centro investigación, una entidad donde se producen bienes o servicios. Sí existen experiencia que nuestra propia universidad en la carrera de ingeniería química, por ejemplo, donde se realizaron actividades de este tipo. Con resultados positivos que se están tomando en consideración y también se identifican problemas similares a los que en la literatura se reportan. En las regulaciones vigentes para la Educación Superior en Cuba, que establecen las pautas para el trabajo docente educativo, hay facilitadores y barreras para la aplicación de este modelo. En las bases conceptuales desde sus primeros artículos queda claro que el proceso de formación de profesionales se concreta en una sólida formación científico técnica humanista y de altos valores ideológicos, políticos, éticos y estéticos para que los estudiantes puedan desempeñarse exitosamente en los diversos sectores de la economía y de la sociedad en general; sobre la base dos ideas rectoras, la primera la unidad entre educación y la intrusión y la segunda el vínculo del estudio con el trabajo que consiste en asegurar desde el currículo el dominio de los modelos actuación del profesional ya sea a través de un vínculo laboral estable durante la carrera o a partir de un modelo de formación desde el trabajo. Aunque se regulan las formas organizativas fundamentales del trabajo en la educación superior, entre ellas no aparece explícitamente el modelo basado en el trabajo como sí aparece por ejemplo en regulaciones del sistema de salud, sí existe la posibilidad de que los decanos de la facultades carreras o jefe de departamento de la facultad multicarrera puedan definir nuevas formas. Sin embargo, cuando se define cual es la infraestructura de la institución educación superior para desarrollar el proceso de formación del profesional se menciona la sede central, a los centros universitarios municipales y a las filiales; no contemplando a las entidades laborales como escenario docente. Como consecuencia tampoco se reconoce el trabajo metodológico que se puede hacer en estos entornos y obliga a la categorización docente del tutor de la empresa para poder ejercer como tal. Al valorar las experiencias internacionales y el contexto nacional y de la CUJAE, son varias las debilidades (D), amenazas (A), fortalezas (F) y oportunidades (O) que pueden reconocerse y deben tomarse en consideración para seguir por este camino. En la Figura 4 se presenta una matriz DAFO con las que se consideran de mayor relevancia. Figura 4 Matriz DAFO. Fuente: Elaboración propia. Buenas prácticas a tomar en consideración En la literatura se reconocen varios elementos que pueden ser claves para el éxito del modelo [9, 16-17, 24-26], que hemos agrupado en asociados con: el entendimiento de las partes, entidad laboral, universidad, estudiante y gestión (Figura 5). Figura 5 Elementos asociados al éxito. Fuente: Elaboración propia. La adopción de este modelo debe implicar cambios en el plan del proceso docente y la planificación y organización del curso académico. En la CUJAE en estos momentos, tanto en las carreras como en los programas de ciclo corto, se analiza cómo llevar a vías de éxito un proceso de formación que implique el modelo basado en trabajo. La experiencia indica que para que sea exitoso, se debe tener un conjunto de condiciones en cuanto a las relaciones contractuales con las entidades laborales, a la atención que se brinde a los estudiantes en ese entorno laboral por parte de los especialista con experticia y la adecuación del año-carrera para que las asignaturas que reciba realmente estén vinculadas con la labor que debe desempeñar y, a su vez, tributen al modelo del profesional sin descuidar la solución al problema de la empresa. Para asumir este reto, se propone la ejecución de las etapas descritas en la Figura 6, la primera de ellas ya ha sido cumplimentada. Figura 6 Etapas para adoptar el modelo basado en trabajo. Fuente: Elaboración propia. A corto plazo, es necesario acometer varias tareas. Por ejemplo, definir los tipos de educación en el trabajo, los objetivos a alcanzar, la proporción del tiempo de estudio, actividades a realizar y habilidades, objetivos educativos y conocimientos a alcanzar en cada uno, los resultados de aprendizaje y guías de evaluación estandarizada. También se requiere elaborar materiales didácticos para estudiantes, tutores de la empresa y tutores de la academia donde quede claro el rol que jugará cada uno de ellos. Posiblemente algunos elementos podrán estandarizarse para toda la universidad y otros serán específicos. Hay que fortalecer el bloque de prácticas laborales, uno de los logros del Plan de estudio E, pero requieren de un nuevo pensamiento para adaptarlo a las nuevas características. Es imprescindible aplicar tecnologías de enseñanza innovadoras que incluyan la solución de problemas profesionales durante la formación teórica, los estudiantes cada vez más desde la teoría tiene ver y resolver problemas profesional similares a los que se dan en los entornos reales. Existen algunas asignaturas que no han logrado incorporar métodos y tecnologías innovadoras y esto hay que proponérselo y hacerlo para que el estudiante sienta que el tiempo está en la institución académica es un tiempo provechoso y que puede ser complementado de mejor manera con el tiempo que va a estar en la entidad laboral. Para evaluar el impacto en la relación universidad-empresa, en particular, en el proceso de formación de profesionales, que tiene optar por este modelo; en [26] se han definido 30 criterios de calidad y sus correspondientes indicadores de medición que evalúan la responsabilidad compartida, de la institución educativa y del empleador (Figura 7). Estos criterios son el resultado de ApprenticeshipQ, proyecto que define procedimientos para una formación dual de calidad en organizaciones educativas y empresas. Estos criterios son esencialmente aplicables al contexto de las ciencias técnicas en Cuba, aunque requieren su adecuación en cuanto a denominación e indicadores. Figura 7 Criterios de calidad de la formación dual. Fuente: Elaboración propia a partir de los descrito en [26]. La alternancia que consideramos adecuada para las carreras que se estudian en la universidad se sugiere sea diferente en dependencia del año de estudio. En los dos primeros años el proceso debe ocurrir fundamentalmente en la universidad partiendo de que la mayoría de las materias que reciben son básicas y básicas específicas. En estos años, sobre todo en 2do, debe existir un período corto donde el proyecto se desarrolle en el entorno laboral. En los dos últimos años es mayor la cantidad de horas que estarán en el escenario de la empresa, pero no es posible “normar” una alternancia única para todas las carreras pues son profesionales con características y necesidades específicas. Por ejemplo, posiblemente en Ingeniería Eléctrica sea posible alternar días dentro de una misma semana y en Ingeniería Química la alternancia necesita ser de semanas. Por eso, en estos momentos se evalúa como pasar a un nivel superior en la implantación de este sistema. 3. CONCLUSIONES La experiencia internacional sugiere que se debe trabajar en la identificación de las ventajas para las partes que implica este modelo, pues ayuda a incrementar el compromiso. También en la normativa en la normativa, que sustente determinados aspectos que exigen algunas de las acciones a realizar, y la preparación de los académicos y los profesionales de la empresa para asumir este reto. Sobre la base del análisis de las investigaciones científicas, las condiciones organizativas y regulatorias, las particularidades de las carreras de ciencias técnicas y las experiencias para este grupo de carreras y programas en cuanto a la relación universidad-empresa en el proceso de formación del profesional; es necesario definir los referentes teóricos y metodológicos que sirvan de base y los elementos regulatorios que aseguran su implementación efectiva. En las carreras y programas de ciclo corto que se estudian en la CUJAE es posible y necesario llegar a un estadío superior en la relación universidad-empresa, y puede ser el modelo basado en trabajo una de las vías para alcanzarlo. En el contexto del fortalecimiento de esta relación, la adopción de este modelo está llamada a ser una de las transformaciones necesarias en la práctica pedagógica. 4. REFERENCIAS 1. UNESCO. Declaración Mundial sobre la Educación Superior en el siglo XXI. México : Universidad Nacional Autónoma de México, 1998. 2. UNESCO. Conferencia Mundial de la Educación Superior 2009. Las nuevas dinámicas de la Educación Superior y de la investigación para el cambio social y el desarrollo. PAIDEIA XXI. 2011, Vol. 1, 2, págs. 179-189. 3. ONU. Objetivos de Desarrollo Sostenible: Objetivo 4. [En línea] 2015. https://eee.un.org/sustainabledevepolment/es/education. 4. LISBOA ENKE, Ernani José Fortunato. Critical success factors in university-industry collaboration: a bibliometric analysis. Research, Society and Development. 2021, Vol. 10, 13. 5. FERRARINI, Celso. University-industry antecedents for innovation activities-. an analysis of the alumni role. Revista Brasilera de Gestación y Desarrollo Regionl G&DR. 2020, Vol. 16, 2, págs. 220- 240. 6. PANINA, Tatyana. Potencial de innovación en las instituciones de educación y formación profesional como base para la formación profesional de alta calidad. Revista Dilemas Contempraneos: Educación, Política y Valores. 2019, Vol. 6, Edición especial de mayo. 7. LÓPEZ PÉREZ, Elba. Modelo educativo y calidad de la educación en instituciones de educación superior: transformación necesaria y posible. R CEMYSevista electrónica sobre educación media y superior. 2021, Vol. 8, 16. 8. BOICHESVSKA, Ilona y VERENIUK, Liusmyla. Dual education: application of germany´s positive experience in ukrainian reality. Estudios en Educación Comparada. 2020, Vol. 39, 1, págs. 4- 13. 9. ESPINOZA FREIRE, Eudaldo Enrique. La formación dual en Ecuador, retos y desafíos para la educación superior y la empresa. Revista Universidad y Sociedad. 2020, Vol. 12, 3, págs. 304-311. 10. MES. Resolución No. 202/2019 Reglamento de la responsabilidad de las entidades en la formación y desarrollo de la fuerza de trabajo calificada en el nivel superior. Gaceta Oficial de la República de Cuba. 2020, Vol. CXVIII, 10 Ordinaria, págs. 295-310. 11. MORALES RAMÍREZ, María Ascensión. Sistema de aprendizaje dual: ¿una respuesta a la empleabilidad de los jóvenes? Revista Latinoamericana de Derecho Social. 2014, Vols. 87-110, 19. 12. CARVAJAL, Ramiro. Estrategia para contribuir a la implementación de la formación dual de los profesionales de ciencias empresariales en las pequeñas y medianas empresas de la Provincia de Tunguruhua, Ecuador. Formación Universitaria. 2017, Vol. 10, 5, págs. 29-40. 13. LECHACHENKO, Taras. Analysis of foreing experience of implementation on the dual form of education and accesibility of its implementation in Ukraine. Technology audit and production reseves. 2019, Vol. 47, 3/2, págs. 31-38. 14. PAGATSNIK, Monika. Dual education: the win-win model of collaboration between universities and industry. JEP. 2018, Vol. 4, 3, págs. 145-152. 15. DIDURH, Lyubov. Experience of preparation of competitive specialist in the conditions of the implementation of dual education in high education institution. Periodyk Naukowy Akademil Polonijnej. 2019, Vol. 33, 2, págs. 129-135. 16. MORENO GENE, Josep. El contrato para la formación dual universitaria: una primera aproximación a la espera de su mprescindible desarrollo reglamentario. e-Revista Internacional de la Protección Social. 2021, Vol. VI, 1. 17. SASTRE, Esteban. Orientación profesional y formación dual. Hacia un modelo integrado para el empleo juvenil. Empresa Familiar. Fundación Bankia para la formación dual. 2018, Vol. 19, 12. 18. GUTIÉRREZ RUFÍN, Maislete. Evaluación de la educación en el trabajo del pregrado de medicina. Revista Cubana de Medicina Militar. 2018, Vol. 47, 4. 19. BERAZA GARMENDIA, José María y AZKUE IRIGOYEN, Itziar. Diseño de un itinerario de formación dual: universidad-empresa en GADE. Journal of Management and Business Education. 2018, Vol. 1, 1, págs. 53-68. 20. TASTANBEKOVA, Nursaule. Development of professional skills i the context of Higher School Dual Education. JET International Journal: Emerging Technology in Learning. 2021, Vol. 16, 10, págs. 179-193. 21. PIRLOG, Romana. The necessity of dual education systems for Romanian automative industry. Case study: the German dual vocational training. MATEC Web Conference. 2017, Vol. 112, artículo 0815. 22. ECHEVERRÍA SAMANES, Benito. Transferencia del sisema de formación dual en España. Revista de Investigación Educativa. 2016, Vol. 34, 2, págs. 295-314. 23. BARROSO HURTADO, Domingo. Formación profesional dual: evolución de red de actores en Twitter. Educación XXI. 2021, Vol. 24, 2, págs. 209-230. 24. JUANES GIRAUD, Blas Yoel y RODRÍGUEZ HERNÁNDEZ, Cinthya. La formación dual, elementos de análisis para la implementación en una universidad ecuatoriana. Revista Conrado. 2020, Vol. 16, 74, págs. 354-363. 25. ESPINOZA FREIRE, Eudaldo Enrique. Papel del tutor en la formación docente. Revista de Ciencias Sociales. 2019, Vol. 25, 3, págs. 230-241. 26. CAMILLERI, Anthony. Formación dual de calidad: Un manual para las instituciones educativas. s.l. : ApprenticeshipQ, 2020. Sobre los autores Anaisa Hernández González, Profesora Titular, Doctora en Ciencias Técnicas, Ingeniera en Sistemas Automatizados de Dirección, Máster en Informática Aplicada a la Ingeniería y la Arquitectura. 1 PERFIL DE COMPETENCIAS DEL INGENIERO INDUSTRIAL EN EL PLAN DE ESTUDIOS E Primer Autor: Lamay Rosa Montero Rojas1, Segundo Autor: Gilberto Juan Machado Burguera2 1Profesora Auxiliar, Ms.C Docencia Universitaria, Calle B # 63 e/ 1ra y 2da, Reparto Virginia, Santa Clara, 2 Profesor Auxiliar, Ms.C en Control Automático, Calle B # 63 e/ 1ra y 2da, Reparto Virginia, Santa Clara. 1e-mail: lamayrmr@uclv.edu.cu RESUMEN Es de esperar que relacionado con la Educación Superior en Cuba, se originen un grupo de necesarias transformaciones que le posibilitará enfrentar de manera exitosa, las nuevas misiones y retos que impondrá el desarrollo del país. En este sentido el proceso docente educativo deberá ser desarrollado sobre bases científicas y ser concebido, con enfoque sistémico, todos los aspectos que permitan organizar, planificar, ejecutar y controlar dicho proceso. La investigación propuesta tuvo como objetivo general diseñar el perfil de competencia del egresado de esta carrera con las exigencias del Plan de Estudios “E” para el Curso por Encuentro. Se emplearon en el estudio herramientas, métodos y técnicas necesarias para identificar las necesidades, valorarlas y dar soluciones idóneas a los problemas existentes, pretendiéndose sistematizar los procesos de perfeccionamiento de manera que contribuyan al desarrollo de competencias profesionales desde el currículo por objetivos, para lo cual, como principal resultado se logró el perfil de competencias para el egresado de la carrera de Ingeniería Industrial, lo cual permitirá alcanzar la eficiencia y eficacia en el proceso docente educativo y la potenciación de las competencias necesarias que debe adquirir el estudiante durante su pregrado que le permitirán ser un mejor profesional una vez graduados. El resultado obtenido tributa al trabajo de tesis doctoral de la autora principal y al proyecto Introducción de Nuevas Metodologías de Enseñanza y Aprendizaje en la carrera de Ingeniería en Automática, que responde al programa Educación Superior y Desarrollo Sostenible. PALABRAS CLAVES: competencias, eficiencia, eficacia, proceso docente educativo, enfoque sistémico ENGINEER COMPETENCE PROFILE INDUSTRIAL IN THE E STUDY PLAN “E” ABSTRACT It is expected that related to Higher Education in Cuba, a group of necessary transformations will originate that will enable it to successfully face the new missions and challenges that the development of the country will impose. In this sense, the educational teaching process must be developed on scientific bases and be conceived, with a systemic approach, all the aspects that allow organizing, planning, executing and controlling said process. The proposed research had the general objective of designing the competence profile of the graduate of this career with the demands of the Study Plan "E" for the Course by Meeting. Tools, methods and techniques necessary to identify needs, assess them and provide suitable solutions to existing problems were used in the study, with the aim of systematizing improvement processes in a way that contributes to the development of professional skills from the curriculum by objectives, for which , as the main result, the profile of competencies for the graduate of the Industrial Engineering career was achieved, which will allow achieving efficiency and effectiveness in the 2 educational teaching process and the enhancement of the necessary competencies that the student must acquire during his undergraduate course. They will allow you to be a better professional once you graduate. The result obtained pays tribute to the doctoral thesis work of the main author and to the project Introduction of New Teaching and Learning Methodologies in the Automation Engineering career, which responds to the Higher Education and Sustainable Development program. KEY WORDS: competencies, efficiency, effectiveness, educational teaching process, systemic approach 1. INTRODUCCIÓN El principio de idoneidad demostrada rige el proceso de determinación de los trabajadores que permanecen en la entidad laboral y los disponibles, para cada perfil de cargo que se defina. Es por ello que diseñar las competencias, constituye una de las bases en la que se sustenta el Sistema de Gestión de Recursos Humanos (S.G.R.H). En esa misma medida en el Curso por Encuentro (CPE) se quiere lograr un ingeniero industrial capaz de tomar decisiones que sean autóctonas, eficientes y eficaces, en correspondencia con los requerimientos del Plan de Estudio “E”. Se ha comprobado en diferentes estudios realizados sobre el desarrollo laboral de los egresados en los últimos años y de los que están en la fase de culminación de estudios, pero que a su vez son trabajadores, que se observan irregularidades, las cuales evidencian dificultades relacionadas con las habilidades práctico profesionales y el grado de independencia e iniciativa para abordar tareas propias de la profesión, teniendo en cuenta las exigencias existentes, tanto en el entorno territorial, como a escala nacional y mundial, en cuanto al comportamiento de las competencias profesionales de los graduados universitarios de la carrera de Ingeniería Industrial y además de que es necesario que en el período formativo se haga énfasis en las habilidades de la profesión, el trabajo en equipo y la toma de decisiones, se pone de manifiesto entonces la contradicción existente entre la formación que reciben los profesionales de esta carrera y el desempeño de los mismos, constituyendo ello la situación problemática de la presente investigación. La necesidad de un perfil de competencia que se adapte a las exigencias del egresado en el entorno actual, en la modalidad semipresencial, es de vital importancia si queremos lograr un profesional con un sólido desarrollo político desde los fundamentos de la Ideología de la Revolución Cubana; dotados de una amplia cultura científica, ética, jurídica, humanista, económica y medio ambiental; comprometidos y preparados para defender la Patria socialista y las causas justas de la humanidad con argumentos propios, y competentes para el desempeño profesional y el ejercicio de una ciudadanía virtuosa lo que les permitirá contribuir, de forma creadora, a encontrar solución a los problemas de la práctica. De ahí que el objetivo general del presente trabajo sea: diseñar el perfil de competencia del egresado de la carrera de Ingeniería Industrial que responda al modelo del profesional que se plantea para el Curso por Encuentro, en el Plan de Estudios “E”. El documento inicia con una breve reseña sobre la universidad cubana, se describen las consideraciones generales de los estudios con los graduados concluida en el curso 2013-2014 que constituyen el punto de partida para los resultados que aquí se presentan. Igualmente se describen los conceptos básicos de las competencias y la aplicación de una encuesta a estudiantes de 3ro, 4to, 5to y 6to año, en el segundo semestre del curso escolar 2018-2019 de los Centros Universitarios Municipales de Sagua la Grande y Caibarién y la Sede Central (90 estudiantes). La encuesta se diseñó con base en [Torres, F & Abud, I., 2011], quienes proponen, a partir del método SICU (Sistema Integrado de Categorías Universales), 46 competencias específicas del ingeniero industrial y se realizó con el objetivo de conocer las percepciones de los estudiantes respecto a las competencias que consideran han alcanzado a partir de la formación que están recibiendo. Como resultado se presenta el diseño del perfil de competencias para el egresado de la carrera en el Curso Por Encuentro (CPE). Finalmente se reportan las conclusiones y se brindan las recomendaciones. 3 2. BREVE RESEÑA SOBRE LA UNIVERSIDAD CUBANA Los recintos universitarios en sus inicios eran instituciones de élite y acaparaban en sí prácticamente todo el conocimiento científico de la época y, aun así, los egresados generalmente no poseían la preparación elemental para enfrentarse a la vida profesional. Hoy día la situación es diferente en todo el mundo y por supuesto, Cuba no es la excepción. Las transformaciones universitarias en la isla comienzan al triunfo de la revolución pues antes de ese momento histórico se contaba con sólo tres universidades y alrededor de 15 000 estudiantes en total, predominando en la enseñanza, como se conoce, el escolasticismo, la enseñanza repetitiva, memorística y sobre todo alejada de la realidad económica y social del país. En el año 1962 con su primera reforma, la universidad cubana asumió rasgos distintivos, que desde ese momento comenzaron a darle el prestigio internacional que hoy posee, entre ellos: la gratuidad de la enseñanza, su compromiso con el desarrollo del país, su vocación científica, tecnológica y humanista, tanto en su concepción como en su desempeño, formación en carreras de perfil amplio, sobre la base de la unidad entre la instrucción y la educación y la vinculación del estudio con el trabajo, y su empeño por darle una formación integral de los estudiantes. A partir de ese período se suceden las transformaciones, por ejemplo, al inicio de los años setenta comenzaron los cursos para trabajadores y ya para los años 1976 – 77 existía como mínimo una institución de enseñanza superior en diez de las catorce provincias. Para 1979 se instituyó la Educación a Distancia y en el lapso de los ochenta, exactamente en el curso 86 – 87, la matrícula de estudiantes en Cuba llega a la cifra de 310 000. En la década del 90 y debido a la recesión económica propiciada por el período especial, las matrículas en las universidades cubanas disminuyeron considerablemente a tiempo de que la educación posgraduada aumentó, cuestión ésta que influyó considerablemente en la elevación de la calidad del profesional activo y en la preparación de los docentes para enfrentar las nuevas etapas y retos que se avecinaban tras la gradual recuperación de la economía y por ende de las matrículas a los centros de educación superior, [Benítez, F et. al., 2007, p. 46]. Como otro paso de desarrollo de la universidad cubana actual, surgen las Sedes Universitarias Municipales en el año 2002, tras el llamado del compañero Fidel Castro de que la educación superior se enrolara de una vez y por todas en el calor de la batalla de ideas que libra el pueblo cubano, actualmente llamados Centros Universitarios Municipales (CUM). Todos los éxitos alcanzados por la universidad cubana en estos años demuestran que está cumpliendo (y cada día con más eficacia) con su misión que se puede representar tal como se muestra en la figura 1, [Horruitiner, Pedro, 2014]. Figura 1: Misión de la educación superior En nuestro país se llevan a cabo, además, investigaciones por parte del Ministerio de Educación Superior y la red de Centros de investigaciones de la Educación Superior, entre los que se destacan el Centro para el Estudio y Perfeccionamiento de la Educación Superior (CEPES), y el Centro de Estudio y de la 4 Educación Superior Manuel F. Gran, que miden la calidad del graduado universitario, específicamente en su desempeño laboral, aspecto relacionado directamente con las competencias profesionales. Estas investigaciones tienen el objetivo de buscar elementos que sirvan para el perfeccionamiento continuo a que se somete el proceso de formación de profesionales, basado en la necesidad de la búsqueda constante y objetiva de cambios dirigidos al incremento de la calidad y al logro de la excelencia académica acorde a los requerimientos de un entorno dinámico, [Iñigo, Enrique, 2000]. Consideraciones generales de los estudios con los graduados concluido en el 2013-2014 Se han realizado siete estudios que siguen las últimas 30 graduaciones en los períodos de 1980 (diagnóstico inicial), 1981-1985, 1986-1990, 1991-1995, 1996-2000, 2002-2005 y 2006-2012. El estudio de estas últimas graduaciones concluyó en el 2013-2014 y, como los anteriores, centró su interés en graduados empleados en los organismos, empresas y entidades más representativos y con mayores perspectivas para el desarrollo del país, con no menos de un año de trabajo y un máximo de entre cinco y seis. Se destaca además, que en cada período se realizaron: consultas a documentos y estudios sobre las características y tendencias de la formación y el mundo del trabajo internacionalmente y en Cuba; entrevistas a las direcciones centrales de 25 organismos y organizaciones de la Administración Central del Estado; entrevistas a directivos y profesionales de experiencia en aproximadamente 200 empresas seleccionadas por las universidades de cada territorio y cuestionarios a graduados y sus jefes inmediatos, que representaron algo más del 5 % de los graduados de cada período (empleados en las empresas y entidades antes referidas, de 3.500 a casi 5.000 cuestionarios), con una adecuada distribución proporcional por IES, año de graduación, grupos de carreras y sectores de empleo. En relación con los resultados específicos alcanzados en el estudio de los graduados, [Iñigo, E. et al., 2017], debe destacarse que en las distintas fases de la reproducción de los profesionales se observó un mejoramiento sistemático de la formación recibida por los egresados y se evidencia cierta tendencia creciente del nivel de exigencia de las condiciones de adaptación y utilización implicando ello una vocación hacia mayores niveles de exigencia en la ejecución del trabajo de los graduados, lo que se constituye en un importante reto y estímulo para el desarrollo de la formación de profesionales en el futuro inmediato, dado además por el aumento del peso relativo de los problemas de la preparación en la efectividad del desenvolvimiento laboral de los egresados, así como, se requiere de un uso extensivo, reiterado y periódico de los procedimientos que resulten necesarios para garantizar la instrumentación sistemática que posibilite a su vez la adecuación del procedimiento y sus instrumentos a los intereses y las características de cada etapa. Resultando necesario entonces, consolidar un paradigma educativo productivo, creativo e innovador, que privilegie, entre otros aspectos, el vínculo con los nuevos enfoques, el desarrollo de la producción y de los servicios, y la preparación profesional de los docentes y para ello se requiere, por tanto, un profundo análisis de las concepciones y condiciones en las que se ejecuta el proceso docente-educativo para lograr un cambio efectivo y se precisa, además, incrementar y modernizar la base material para el desarrollo del proceso docente educativo, en el cual, además del desarrollo de nuevas inversiones imprescindibles, se destaquen el aprovechamiento de relaciones de colaboración más estrechas con la investigación y la actividad posgraduada, tanto nacional como internacional, y el rescate, fortalecimiento y formalización de los vínculos e intercambios con el sector empresarial. Tomando como punto de partida los resultados referidos anteriormente, donde una de sus aristas centró la atención en aspectos de la formación de dicho profesional, es que se decide realizar este trabajo. 3. PLANTEAMIENTO DEL PROBLEMA 5 Propuesta de competencias a formar en los estudiantes de la carrera de Ingeniería Industrial en la modalidad semipresencial. Hacia un concepto complejo de las competencias Después de haber repasado los conceptos descritos por importantes autores que han estudiado el tema, se trabaja con el concepto de competencias enunciado por [Tobón, Sergio, 2005]. La definición que propone el autor, y que se ha debatido con expertos en diversos seminarios, publicaciones y congresos, es que las competencias son procesos complejos de desempeño con idoneidad en un determinado contexto, con responsabilidad. A continuación, se clarifican los términos de esta definición. 1. Procesos: son acciones que se llevan a cabo con un determinado fin, tienen un inicio y un final identificable, implican la articulación de diferentes elementos y recursos para poder alcanzar el fin propuesto. Con respecto a las competencias, esto significa que éstas no son estáticas, sino dinámicas, y tienen unos determinados fines, aquellos que busque la persona en concordancia con las demandas o requerimientos del contexto. 2. Complejos: lo complejo se refiere a lo multidimensional y a la evolución (orden-desorden reorganización). Las competencias son procesos complejos porque implican la articulación en tejido de diversas dimensiones humanas y porque su puesta en acción implica muchas veces el afrontamiento de la incertidumbre. 3. Desempeño: se refiere a la actuación de la realidad, que se observa en la realización de actividades o en el análisis y resolución de problemas, implicando la articulación de la dimensión cognoscitiva, con la dimensión latitudinal y la dimensión del hacer. 4. Idoneidad: se refiere a realizar las actividades o resolver los problemas cumpliendo con indicadores o criterios de eficacia, eficiencia, efectividad, pertinencia y apropiación establecidos para el efecto. Esta es una característica esencial en las competencias, y marca de forma muy importante sus diferencias con otros conceptos tales como capacidad (en su estructura no está presente la idoneidad). 5. Contexto: constituyen todo el campo disciplinar, social y cultural, como también ambiental, que rodean, significan e influyen una determinada situación. Las competencias se ponen en acción en un determinado contexto, y este puede ser educativo, social, laboral o científico, entre otros. 6. Responsabilidad: se refiere a analizar antes de actuar las consecuencias de los propios actos, respondiendo por las consecuencias de ellos una vez se ha actuado, buscando corregir lo más pronto posible los errores. En las competencias, toda actuación es un ejercicio ético, en tanto siempre es necesario prever las consecuencias del desempeño, revisar cómo se ha actuado y corregir las actuaciones, lo cual incluye reparar posibles perjuicios a otras personas o a sí mismo. El principio en las competencias es entonces que no puede haber idoneidad sin responsabilidad personal y social. Clases de competencias En concordancia con lo anterior, el propio autor refiere que hay dos clases generales de competencias: competencias específicas y competencias genéricas. Las competencias genéricas se refieren a las competencias que son comunes a una rama profesional (salud, ingeniería, educación) o a todas las profesiones. Finalmente, las competencias específicas, a diferencia de las anteriores, son propias de cada profesión y le dan identidad a una ocupación (en este sentido, hablamos de las competencias específicas del profesional en educación física, del profesional en ingeniería industrial o del profesional en psicología). En cada clase de competencias, hay a su vez tres subclases, de acuerdo con el grado de amplitud de la competencia: competencias y unidades de competencia. Las primeras tienen un carácter global, son muy amplias y se relacionan con toda un área de desempeño. En cambio, las segundas, son concretas y se refieren a actividades generales mediante las cuales se pone en acción toda competencia. De esta manera, tenemos entonces la siguiente clasificación: competencias específicas (competencias específicas y unidades de competencia específica); competencias genéricas (competencias genéricas y unidades de competencia genérica) y competencias básicas (competencias básicas y unidades de competencia básica). 6 Cambios en la docencia a partir del enfoque de competencias La formación basada en competencias está en el centro de una serie de cambios y transformaciones en la educación, en este caso particular debemos formarlas desde un currículo por objetivos. A continuación, se describen algunos de estos cambios, con el fin de comprender mejor las dimensiones de este enfoque. 1. Del énfasis en conocimientos conceptuales y factuales al enfoque en el desempeño integral ante actividades y problemas. Esto implica trascender el espacio del conocimiento teórico como centro del quehacer educativo y colocar la mirada en el desempeño humano integral que implica la articulación del conocer con el plano del hacer y el ser. 2. Del conocimiento a la sociedad del conocimiento. Esto implica que la educación debe contextualizar el saber en lo local, lo regional y lo internacional, preparando a los docentes, estudiantes y administrativos para ir más allá de la simple asimilación de conocimientos y pasar a una dinámica de búsqueda, selección, comprensión, sistematización, crítica, creación, aplicación y transferencia. 3. De la enseñanza al aprendizaje. El enfoque de formación basado en competencias implica que el aprendizaje comienza a ser el centro de la educación, más que la enseñanza. Esto significa que en vez de centrarnos en cómo dar una clase y preparar los recursos didácticos para ello, ahora el reto es establecer con qué aprendizajes vienen los estudiantes, cuáles son sus expectativas, que han aprendido y que no han aprendido, cuáles son sus estilos de aprendizaje y cómo pueden involucrarse de forma activa en su propio aprendizaje. A partir de ello se debe orientar la docencia, en un currículo por objetivos, con metas, evaluación y estrategias didácticas. Lo anterior se corresponde con el enfoque de crédito, en el cual se debe planificar no solo la enseñanza presencial sino también el tiempo de trabajo autónomo de los estudiantes. He ahí que puede apreciarse entonces un cambio en la enseñanza; cambio que no es hacer más práctico el saber, o integrar la teoría con la práctica, u orientar la educación hacia la empleabilidad. La formación con base en competencias desde un currículo por objetivos es mucho más que eso. Pretende orientar la formación de los seres humanos hacia el desempeño idóneo en los diversos contextos culturales y sociales, y esto requiere hacer del estudiante un protagonista de su vida y de su proceso de aprendizaje, a partir del desarrollo y fortalecimiento de sus habilidades cognoscitivas y metacognitivas, la capacidad de actuación y el conocimiento y regulación de sus procesos afectivos y motivacionales. Propuesta del perfil de competencias para el egresado de la carrera de Ingeniería Industrial en la modalidad semipresencial La excelencia académica integra la calidad de los recursos humanos, en particular, del claustro y de los estudiantes; el aprovechamiento óptimo de la base material; y la adecuada gestión pedagógica y didáctica. La pertinencia es el concepto que caracteriza las relaciones que se establecen entre la universidad y su entorno, y se manifiesta cuando realmente ésta responde a los intereses y a las necesidades de su sociedad, no solo para hacer lo que se le solicita, sino también para cumplir su función preventiva, de anticipación global, que permita a la educación superior desempeñar un papel activo en el seno de la sociedad, ayudándola a diseñar el futuro y a ser dueña de su destino.1 La constante preocupación por la formación de alta calidad de los estudiantes universitarios pasa por revisar las competencias (o los conocimientos, habilidades, actitudes y valores) que deben alcanzar al finalizar sus estudios. Resulta conveniente, por tanto, conocer las percepciones de los estudiantes respecto 1 “Universidad innovadora por un desarrollo humano sostenible: mirando al 2030”. Conferencia inaugural, 10mo Congreso Internacional de Educación Superior Universidad´2016. Rodolfo Alarcón Ortiz, Ministro de Educación Superior. 7 de las competencias que consideran ha alcanzado a partir de la formación que están recibiendo, aun cuando se formen a partir de un currículo por objetivos. Aunque no existe unanimidad respecto del uso de las competencias en la educación superior, especialmente debido a que puede considerarse un concepto polisémico y que es considerado por algunos como útil y válido, mientras que para otros es considerado como una instrumentalización de la educación superior, se reconoce en este trabajo su avance y su creciente utilización en los procesos curriculares. Distintas organizaciones han propuesto listados de competencias para la ingeniería, pero este estudio se basó en las competencias propuestas para el ingeniero industrial según el método SICU, el cual ofrece 45 competencias específicas, clasificadas en 9 competencias genéricas, [Tirado, L.J. et al., 2011]. Por lo tanto, la propuesta se centra en presentar el perfil de competencias del egresado de esta modalidad como resultado de las encuestas aplicadas con el fin de conocer las percepciones de los estudiantes de Ingeniería Industrial, modalidad semipresencial, que estudian la carrera en la Universidad Central “Marta Abreu” de Las Villas, en lo referente al grado que ellos consideran que han apropiado o desarrollado cada una de las 45 competencias SICU. Los resultados de este estudio permiten identificar además las áreas en las cuales los estudiantes perciben que tienen mayor debilidad en su formación, para así tener más información en la toma de decisiones relacionadas con el ajuste curricular que pueda ser necesario al interior de las disciplinas, así como para realizar ajustes de tipo pedagógico y didáctico orientados a elevar la calidad de la educación que se ofrece. En virtud de lo anterior se recurrió a la aplicación de una encuesta a estudiantes de 3ro, 4to, 5to y 6to año, en el segundo semestre del curso escolar 2018-2019 (90 estudiantes). La encuesta se diseñó con base en [Torres, F & Abud, I., 2011], quienes proponen, a partir del método SICU, 46 competencias específicas del ingeniero industrial y se realizó con el objetivo de conocer las percepciones de los estudiantes respecto a las competencias que consideran han alcanzado a partir de la formación que están recibiendo. Antes de aplicar la encuesta, se realizó una prueba piloto con 30 estudiantes de los diferentes años mencionados anteriormente para identificar el grado de comprensión de las preguntas y a partir de esto volver a redactar algunas competencias de manera que resultaran más claras para los encuestados. Se agregaron en la competencia 14 (aplicar conocimientos que posibiliten la gestión estratégica, comercial y el cambio organizacional, aplicar conocimientos de procesos tecnológicos e informática empresarial, aplicar conocimientos relacionados con la ingeniería de métodos y el estudio de tiempos de trabajo, aplicar conocimientos que posibiliten la modelación matemática y simulación de los sistemas y procesos, en el análisis y predicción de las consecuencias de diferentes modos de operar los mismos, aplicar conocimientos que posibiliten la toma de decisiones y aplicar conocimientos de logística y distribución en planta), por sugerencia de los estudiantes que participaron en la prueba piloto. Para cada una de las 38 competencias, el encuestado tenía un abanico de opciones del 1 al 5, siendo “1” muy bajo grado de la habilidad indicada en la pregunta, y “5” alto grado de desarrollo de la habilidad a la que se refería cada pregunta. Para la elaboración del perfil que se propone se toma como referencia el propuesto por [Cuesta, Armando, 2009]. Se realiza una modificación en consecuencia con lo planteado anteriormente. Perfil de competencias del egresado de la carrera de Ingeniería Industrial en la modalidad semipresencial El perfil de competencias diseñado como resultado de lo planteado anteriormente se muestra en la tabla 1. Tabla 1: Diseño del perfil de competencias del egresado de la carrera de Ingeniería Industrial Denominación: Ingeniero Industrial egresado de la modalidad semipresencial 8 Esfera de actuación profesional: En la carrera de Ingeniería Industrial se preparan profesionales integrales comprometidos con la Revolución, cuya función es la de analizar, diseñar, operar, mejorar y dirigir procesos de producción y servicios en toda la cadena de aprovisionamiento-transportación- producción-venta-servicios de posventa, con el objetivo de lograr eficiencia, eficacia y competitividad; mediante el análisis de las relaciones que se presentan entre los recursos humanos, financieros, materiales, energéticos, equipamiento, información y ambiente, con un enfoque integrador y humanista, donde prevalecen criterios que sustentan los altos intereses del país. Competencias genéricas Competencias específicas Investigar, generar y gestionar información y datos 1. Investigar y organizar información y datos 2. Diseñar y liderar experimentos e investigaciones 3. Interpretar, analizar, integrar y evaluar información y datos Analizar, plantear y solucionar problemas reales en ingeniería 4. Identificar y entender problemas y necesidades reales del cliente o del mercado 5. Analizar problemas y sistemas complejos (análisis y abstracción) 6. Pensar en forma lógica, conceptual, deductiva y crítica 7. Modelar y simular sistemas y realidades complejas 8. Crear, innovar (creatividad) 9. Decidir (tomar decisiones) 10. Pensar con enfoque multidisciplinario, interdisciplinario, y sistémico Diseñar sistemas para resolver necesidades 11. Diseñar/desarrollar de modo interdisciplinar sistemas y productos complejos. 12. Medir y evaluar procesos, productos y sistemas Competencias complementarias 13. Dominar un área de especialidad 14. Aplicar: ▪ matemáticas, física, química y otras materias asociadas a la ingeniería. tecnologías, técnicas y herramientas modernas de ingeniería ▪ conocimientos de calidad, ergonomía, recursos humanos y seguridad industrial. ▪ conocimientos de ciencias sociales y humanidades. ▪ conocimientos de ingeniería económica ▪ conocimientos de producción y de marketing de productos. ▪ conocimientos que posibiliten la gestión estratégica, comercial y el cambio organizacional ▪ conocimientos de procesos tecnológicos e informática empresarial - conocimientos relacionados con la ingeniería de métodos y el estudio de tiempos de trabajo ▪ conocimientos que posibiliten la modelación matemática y simulación de los sistemas y procesos, en el análisis y predicción de las consecuencias de diferentes modos de operar los mismos ▪ conocimientos que posibiliten la toma de decisiones ▪ conocimientos de logística y distribución en planta 9 ▪ conocimientos de materiales y sus aplicaciones ▪ conocimientos de leyes en ingeniería 15. Identificar, evaluar y controlar el riesgo en ingeniería 16. Planear, organizar, dirigir y controlar personal, procesos, proyectos, empresas 17. Asesorar, consultar, auditar y evaluar procesos, sistemas y empresas 18. Capacitar, educar, formar y enseñar Comunicarse efectivamente 19. Comunicarse efectivamente en forma oral, gráfica y por escrito 20. Comunicarse en otro idioma, en forma oral, gráfica y por escrito 21. Planear, liderar y practicar debates sobre temas actuales Relacionarse y trabajar en equipo 22. Trabajar en equipos y entornos internacionales 23. Liderar o dirigir personas, actividades, proyectos y empresas 24. Planear, llevar a cabo y liderar negociaciones 25. Escuchar a los demás activamente y mostrarse con empatía 26. Relacionarse adecuadamente con personas y entidades 27. Afrontar adecuadamente la crítica y el conflicto Fomentar el desarrollo propio y mejora continua 28. Comprometerse a aprender por cuenta propia y a lo largo de toda la vida 29. Comprometerse con la autocrítica y con la auto-evaluación, para mejorar 30. Comprometerse con la disciplina 31. Mostrarse con autoestima y seguridad en sí mismo 32. Mostrarse con iniciativa y espíritu emprendedor. 33. Adaptarse al cambio Comprometerse con la ética y la responsabilidad profesional, legal, social y medioambiental. 34. Comprometerse con la ética profesional, social y legal 35. Comprometerse con el medioambiente y el desarrollo sostenible 36. Comprometerse con la calidad y la seguridad industrial 37. Concientizarse de los problemas contemporáneos Valorar la diversidad social, artística y cultural 38. Respetar la diversidad social, artística y cultural y fomentar la solidaridad Requisitos o exigencias del egresado Formación mínima necesaria: Egresado de la carrera Ingeniería Industrial, modalidad semipresencial. Experiencia previa: Haber promovido todas las asignaturas contenidas en el Plan de Estudios “E” Conocimientos específicos: El ingeniero industrial tiene una visión integral en la gestión de los procesos y en el diseño, análisis y optimización de los sistemas empresariales y por ello tiene los campos de acción siguientes: ▪ Aumento de la eficiencia y eficacia de los factores básicos de la producción y los servicios. ▪ Gestión, análisis y diseño del trabajo de los recursos humanos en los procesos de producción y 10 servicios en su relación con los medios de trabajo, la energía, la información y el medio ambiente, dentro de un ambiente laboral que promueva condiciones seguras, mejoramiento continuo e incremento de la productividad del trabajo, mediante la utilización de los principios, métodos y técnicas de la ingeniería del factor humano. ▪ Desarrollo de sistemas de gestión de salarios y programas de evaluación del trabajo. ▪ Diseño, operación y mejora de sistemas de planificación y control de la producción. ▪ Implementación de sistemas para la distribución física de productos y servicios. ▪ Distribución en planta para lograr la mejor combinación del transporte, el manejo y protección de materiales y los costos. ▪ Diseño, optimización de cadenas y redes de suministro nacionales, regionales e internacionales, de bienes o servicios, con localización óptima de plantas y centros de distribución, análisis, modelación, almacenamiento y distribución, gestión de inventarios, transporte y servicio al cliente, incluyendo la logística inversa y su implicación medioambientales. ▪ Creación, incremento, control y movimiento de las reservas materiales puestas en función de las situaciones excepcionales. ▪ Gestión del desarrollo de las organizaciones y del surgimiento de nuevos negocios y proyectos con eficacia y eficiencia. ▪ Evaluación financiera y económica de la factibilidad de proyectos. ▪ Desarrollo de sistemas de control de gestión para la planificación financiera y el análisis de los costos. ▪ Optimización de recursos y reducción de costos. ▪ Gestión de la calidad para la obtención de procesos y productos dentro de un medio ambiente saludable, no contaminante y seguro para el trabajador y la comunidad. ▪ Gestión de procesos de cambio a todo nivel en las organizaciones, teniendo en cuenta el capital humano. ▪ Evaluación y gestión para el cambio tecnológico y la innovación, y para contribuir a la productividad y la competitividad de las organizaciones. ▪ Diseño de sistemas de información en el ámbito empresarial. ▪ Gestión de la producción y la tecnología con una visión global de los aspectos legales. ▪ Desarrollo de iniciativas y otras acciones con el fin de contrarrestar los efectos negativos que, en la esfera productiva y de los servicios, ejerce el bloqueo económico, comercial y financiero ejercido contra nuestro país. Requisitos físicos 1 2 3 4 1.- Tener buena presencia X Requisitos de personalidad 1 2 3 4 1.- Comunicativo X 2.- Seguro de sí X 3.- Dinámico X 4.- Competente X 5.- Controlado X 6.- Respetuoso X 11 7.- Sincero X 8.- Diplomático X 9.- Convincente X 10.- Colaborativo X 1.- No exigidos 2.- Bajos 3.- Medios 4.- Altos Habilidades  Analizar la solución a los problemas generales del desarrollo científico-técnico-tecnológico desde un enfoque socio-humanístico a partir de las demandas de la Tercera Revolución Industrial.  Examinar los procesos con un enfoque cultural, social, político, económico, ambiental y tecnológico, sustentando en la primacía de los intereses sociales y nacionales sobre los particulares y con actuaciones éticas y morales propias de un ingeniero industrial comprometido con su Patria.  Aplicar en su práctica profesional el cumplimiento riguroso de las legislaciones, normas y códigos de conducta demostrando capacidades para la comunicación oral y escrita.  Interpretar y aplicar las técnicas y tecnologías más adecuadas en las condiciones cubanas que contribuyan a alcanzar las eficiencia, eficacia y competitividad de la organización, así como el desarrollo sostenible, especialmente en los ahorros energéticos y en la preservación de ecosistemas.  Diseñar soluciones con rigor científico que demuestren sus capacidades de razonamiento y creatividad.  Diagnosticar las situaciones existentes y los posibles escenarios futuros de realización con el rigor metodológico que las investigaciones de su campo de acción requieren.  Gestionar y operar los procesos en organizaciones de la producción y los servicios en toda la cadena de aprovisionamiento-transportación-venta-servicios de posventa con un enfoque integrador y sistémico.  Obtener y valorar la información científica y técnica necesaria en los idiomas de español e inglés apoyándose en la utilización de los recursos informáticos que generan sistemáticamente.  Alcanzar con la auto superación y el trabajo en grupo, el desarrollo profesional acorde con las exigencias de la sociedad.  Resolver las tareas de la defensa que se vinculan con la profesión y como ciudadano, contribuyendo al fortalecimiento defensivo del país. Cultura organizacional Expectativas del comportamiento Su comportamiento tiene que estar acorde con todas las normas de disciplina, y actuaciones éticas y morales propias de un ingeniero industrial. Tiene que ser consecuente y cumplir rigurosamente con todas las regulaciones legales, normas y códigos de conducta vigentes. Realizado por: __________________________ Firma: __________ Fecha: ___________ Revisado por: ___________________________ Firma: __________ Fecha: ___________ Aprobado por: __________________________ Firma: ___________ Fecha: ___________ 12 4. CONCLUSIONES Con la aplicación de la propuesta realizada, se podrá obtener un cambio cualitativo en la formación, en cuanto a realizar las actividades o resolver los problemas cumpliendo con indicadores o criterios de eficacia, eficiencia, efectividad, pertinencia y apropiación, establecidos para el efecto, lo cual significa idoneidad. La formación con base en competencias desde un currículo por objetivos orienta la formación de los seres humanos hacia el desempeño idóneo en los diversos contextos culturales y sociales, lo cual requiere hacer del estudiante un protagonista de su vida y de su proceso de aprendizaje, a partir del desarrollo y fortalecimiento de sus habilidades cognoscitivas y metacognitivas, la capacidad de actuación y el conocimiento y regulación de sus procesos afectivos y motivacionales. Generalizar la propuesta realizada en los siguientes cursos escolares para la valoración de su efectividad en el proceso formativo por años de estudio, del ingeniero industrial en la modalidad semipresencial. RECONOCIMIENTOS Los autores desean agradecer a todos los estudiantes que participaron en la experiencia llevada a cabo, a los tutores y al colectivo de profesores de la disciplina Proyecto de Ingeniería Industrial de las diferentes sedes donde se encuentra la carrera de Ingeniería Industrial, y en especial a las Dra.C. María Sotolongo Sánchez y Melva García Martínez, por las sugerencias y recomendaciones brindadas durante la aplicación de la experiencia, al Dr. C José R. Abreu García, Jefe Proyecto Introducción de Nuevas Metodologías de Enseñanza y Aprendizaje en la carrera de Ingeniería en Automática por su ayuda incondicional y al Departamento de Ingeniería Industrial, de la Facultad de Ingeniería Mecánica e Industrial, de la Universidad Central “Marta Abreu” de Las Villas, por apoyarnos en todo momento. REFERENCIAS 1. TORRES, F. & ABUD, I. Análisis mediante las categorías universales de las competencias exigidas al ingeniero industrial por los organismos internacionales de acreditación. Recuperado septiembre 2011, de http://www.ypc.edu/evetil/xiicuieet/comunicaciones/din/comunicacions/176.pdf, pp.1-12 2. BENÍTEZ, F. et al. La universalización de la educación superior cubana y sus impactos en el desarrollo local. (pp. 46-60). Cátedra de Cultura científica “Félix Varela”. Universidad de La Habana. Cuba. Diciembre, 2007. ISBN: 978-959-16-0649-5. 3. HORRUITINER, Pedro. La universidad cubana: el modelo de formación. Editorial: Editorial Universitaria. 2014. Colaborador: Ministerio de Educación Superior. 4. IÑIGO, Enrique. La formación de profesionales: una perspectiva desde el mundo del trabajo. Tesis en opción al grado científico de Doctor en Ciencias Pedagógicas. Ciudad de la Habana, 2000. 5. IÑIGO, E. et al. El desempeño profesional de graduados universitarios en Cuba: un estudio sistemático. InterCambios. Vol. 4 n0 2 (2017). ISSN: 2301-0118. 6. TOBÓN, Sergio. Formación basada en competencias: Pensamiento complejo, diseño curricular y didáctica. Bogotá, DC: ECOE EDICIONES, 2005. 7. TIRADO, L.J. et al. Competencias profesionales: una estrategia para el desempeño exitoso de los ingenieros industriales. Recuperado en septiembre 2011, de http://redalyc.uaemex.mx/pdf/430/43004010.pdf, pp. 1-6 8. CUESTA, Armando. Tecnología de Gestión de Recursos Humanos, Tercera Edición, 2009. Tomo II, p. 291 ESTUDIO DE LOS PROGRAMAS DE CAPACITACIÓN PARA EL DESARROLLO DEL ROL PROFESIONAL EN CARGOS DE LA ACTIVIDAD DE TECNOLOGÍAS DE LA INFORMACIÓN EN LA EMPRESA DE TELECOMUNICACIONES DE CUBA S.A Raiza María Guevara Salvia1 1 División Territorial ETECSA Isla de la Juventud*, Municipio Isla de Juventud raiza.guevara@etecsa.cu RESUMEN El presente trabajo pretende realizar el análisis del perfil del cargo de dos de los roles profesionales (Especialista A en Ciencias Informáticas que atiende las funciones de Administrador de Red y Desarrollador de Software) de la actividad de Tecnología de la Información, y su interrelación con las de la gestión del Capital Humano: Formación y Desarrollo y la Evaluación del Desempeño. Los principales métodos y técnicas utilizadas fueron: Método Dialéctico-Materialista: metodología más general del conocimiento, que permite establecer las relaciones y nexos entre las categorías científicas. En el desarrollo de la investigación se utilizaron métodos teóricos y empíricos. Los resultados que se obtuvieron están en relación con el logro de los objetivos: general y específicos siendo éstos, lograr evaluar los roles profesionales definidos por el área rectora de la Actividad de Soporte: Tecnologías de la Información así como demostrar el impacto con la Capacitación y Formación. PALABRAS CLAVES: programa de capacitación, rol profesional, capital humano, gestión por competencias. PROGRAM DESIGN FOR THE DEVELOPMENT OF THE PROFESSIONAL ROLE IN POSITIONS OF THE INFORMATION TECHNOLOGY ACTIVITY IN THE TELECOMMUNICATIONS COMPANY OF CUBA S.A ABSTRACT The present work intends to carry out the analysis of the profile of the position of two of the professional roles (Computer Security Specialist) of the Information Technology support activity, and its interrelation with those of the management of Human Capital: Training and Development and the Performance evaluation. The main methods and techniques used are: Dialectical-Materialist Method: more general methodology of knowledge, which allows establishing relationships and links between scientific categories. Theoretical and empirical methods were used in the development of the research. The results that were obtained are in relation to the achievement of the objectives: general and specific, being these, to be able to evaluate the professional roles defined by the governing area of the Support Activity: Information Technologies as well as to demonstrate the impact with the Training and Training. KEY WORDS: Training program, professional role, skills management. 1. INTRODUCCIÓN El capital humano es el factor clave para que una empresa tenga éxito. Las personas son el recurso más importante y básico de la empresa. Los empleados son los que desarrollan día a día el trabajo en la organización haciendo que ésta crezca y evolucione. Los socios y colaboradores son necesarios para que la compañía cumpla con sus exigentes objetivos. Desde esta perspectiva y observando el vertiginoso crecimiento de las telecomunicaciones, se hace cada vez más imperiosa la necesidad de ser más competentes y tener alineado al recurso humano a la misión y visión de la empresa. En este sentido la Dirección Central de Capital Humano de la Empresa de Telecomunicaciones de ETECSA S.A, elaboró un Plan Estratégico que abarca el período 2020-2024 alineado con el Plan de Negocios. En el mismo se introdujeron nuevos términos para la gestión del Capital Humano los que transitan por la tríada: Atraer, Motivar y Retener el talento humano para el logro de los objetivos empresariales y la adaptación a los cambios que constantemente se vienen produciendo en el entorno en el que la misma funciona. La empresa se estructura por varios procesos o actividades y en 3 niveles, y el presente trabajo se posicionará sobre la actividad de Tecnologías de la Información en el nivel 3, donde se encuentran las Divisiones Territoriales. Este trabajo serviría para la alineación y engranaje de los aspectos en la gestión del Capital Humano que son manejados hoy en el mundo organizacional cubano y específicamente en nuestra Empresa (actividades y subactividades, perfiles de cargo definidos desde los roles profesionales) en una relación estrecha con el Plan de Capacitación y la Evaluación del desempeño una vez finalizado el período. Es problema: ante los cambios que supone el funcionamiento de un negocio digital en nuestro sector, los trabajadores de la actividad de soporte de Tecnologías de la Información en nuestra División, no cuentan con un Programa de Capacitación que les permita desarrollar, según su perfil y competencias laborales, sus roles profesionales lo cual limita el desarrollo de sus capacidades así como los resultados empresariales. Es objetivo central de este trabajo, realizar un estudio de los programas de capacitación para el desarrollo del rol profesional en cargos de la actividad de tecnologías de la información en la Empresa de Telecomunicaciones de Cuba S.A, con el fin de diseñar un programa de capacitación que permita enfocar hacia el estado deseado de las competencias según el perfil y el rol profesional, al personal de las Tecnologías de la Información en la División Territorial. 2. DESARROLLO Métodos Los principales métodos y técnicas utilizadas son: Método Dialéctico-Materialista: metodología más general del conocimiento, que permite establecer las relaciones y nexos entre las categorías científicas. En el desarrollo de la investigación se utilizaron métodos teóricos y empíricos. Entre los métodos teóricos se desarrolló: el análisis y síntesis de la información obtenida a partir de la revisión de literatura y documentación especializada, así como de la experiencia de especialistas consultados. Como métodos empíricos se utilizaron las encuestas, entrevistas, observación directa, análisis documental, criterio de expertos y reportes de trabajo para la recopilación de la información, entre otros. También se utilizaron métodos estadísticos para el análisis de datos y validación de resultados. Resultados Nuestro objeto de estudio fue el Departamento de Tecnologías de la Información perteneciente a la División Territorial del Municipio Especial Isla de la Juventud (DTIJ). Dicho Departamento cuenta en su plantilla con 13 trabajadores entre directivos, especialistas y técnicos centrándonos en el Especialista A en Ciencias Informáticas con las funciones de Desarrollador de Software y Administrador de la Red, cargo que existe en todas las Divisiones Territoriales del país, y en el caso de la DTIJ lo desempeña el mismo trabajador. El tiempo promedio de permanencia en la entidad es de más 10 años lo que ratifica su sentido de pertenencia, su compromiso con la actividad y con la empresa, su responsabilidad ante el trabajo y para con la actividad, las cuales serían fundamentalmente sus principales valores compartidos. Con una edad promedio de 45 años. A la vez este tiempo de permanencia y su edad promedio nos habla de experiencia en la actividad y de la institucionalización de patrones o estilo de trabajo que han sido efectivos dándole cumplimiento a sus objetivos de trabajo a lo largo de todo este tiempo. Igualmente nos dice que transcurrieron por un proceso de selección del personal en el que no estaban definidas: competencias, perfiles y roles profesionales, lo que hace diferencias entre lo que se aprueba hoy a un nivel estratégico desde la Dirección Central y lo que tenemos hoy en la División Territorial. En la aplicación de las técnicas para el diagnóstico de las necesidades de formación se levantaron los datos siguientes:  La técnica de Revisión Documental arrojó que aunque la Misión, Funciones y Responsabilidades TI Nivel I se encuentran visibles en el portal institucional, las del nivel territorial se encuentran en proceso de actualización. Se tiene identificado en el documento de Caracterización, sus Debilidades, Fortalezas, Oportunidades y Amenazas sin interrelacionar las mismas y llegar a un Problema Estratégico y de ahí las salidas. El modelo de Evaluación del Desempeño del período Enero a Diciembre de 2021, cierra con la categoría de Muy Bien, desarrollándose desde las competencias laborales definidas siendo enunciadas como Fortalezas y/o Debilidades teniendo las mismas su salida en el modelo de Diagnóstico de Necesidades de Capacitación ambas especialidades (Seguridad Informática y Administrador de la Red) ha contado y cuenta con preparaciones territoriales y nacionales como elemento a destacar se encuentra que el mismo no se observan acciones orientadas a la visión de negocio digital.  La técnica de la Entrevista al Especialista, resultó que posee conocimientos sobre la Misión, Funciones y Responsabilidades del Departamento para con las áreas de la División. Posee conocimiento sobre sus objetivos de trabajo, los cuales discute con su superior. Sobre los roles profesionales, no conocen como tal, aunque sí refieren cuáles son sus funciones dentro del equipo así como las responsabilidades ante determinadas situaciones. Reconoce de manera general, la implementación de cada subsistema de la Gestión de los Recursos Humanos en su desempeño, sintiendo como en desventaja y por los cambios que está teniendo el entorno, la Capacitación.  La técnica del Criterio de Expertos, desde la problemática planteada: Razones o motivos que más influyen en que el especialista no trabaje hoy desde los roles profesionales arrojó los datos que se muestran en la tabla siguiente: Tabla 1: Resultados de la técnica Criterio de Expertos No. Expertos Causas E 1 E 2 E 3 E 4 E 5 E 6 Rj Vn Vn /Vt C (%) Prioridad 1 Indefinidos roles profesionales para las DTs. 1 1 1 1 1 1 6 0 1 100 1 2 Incipiente segmentación del Capital Humano 2 2 6 6 6 6 28 2 0,33 67 2 3 Sobrecarga de tareas para el mismo grupo de trabajo en el mismo tiempo 4 4 2 2 2 2 16 2 0,33 67 3 4 Cambios en la estructura organizativa 5 5 5 5 3 3 26 2 0,33 67 4 5 Baja incidencia del área rectora 6 6 4 4 4 4 28 2 0,33 67 5 6 Insuficiente la gestión por competencias en la Empresa. 7 7 3 7 5 7 36 2 0,33 67 6 7 Insuficiente preparación del grupo de trabajo responsable. 3 3 7 3 7 5 28 1 0,50 50 7 Resumiendo que para un Rj menor: No.1 Causa más importante, es que los roles profesionales para las Divisiones Territoriales no se encuentran definidas. El Rj mayor: No. 6 Causa menos importante, Insuficiente la gestión por competencias en la Empresa, y para un C≥60% para Rj, se observa buen consenso en todas las causas excepto en la No. 7 (Insuficiente preparación del grupo de trabajo responsable.)  Los resultados de la técnica anterior se utilizan en el Diagrama de Ishikawa Ponderado, quedando como se muestra a continuación: Figura 1: Diagrama Ishikawa Ponderado Según el autor Dr C. Armando Cuesta Santos en su libro Tecnología de Gestión de Recursos Humanos (2010), en lo referido al ciclo de formación, lograr técnicamente la determinación de las necesidades de Desalineación en el desempeño de los especialistas de las TI e impacto en los resultados empresariales Incipiente segmentación del Capital Humano Indefinidos roles profesionales para las DTs. 1 Grupo de Trabajo Cambio Estructura organizativa Baja incidencia del área rectora 2 3 4 Pendiente total aprobación actividades y subactividades Pendiente definición posiciones críticas Insuficiente Preparación Convergencia de tareas prioritarias Reordenamiento de funciones Cambios en las necesidades del cliente Cambios entorno Competitivida d formación (Marrero, 2002; Dolan, et al., 2003; Fleitas, 2003), de manera que esa formación resulte a la vez que continua, coherente. Y además, en la necesaria Gestión de Recursos Humanos estratégica, es imprescindible en ese “Diagnóstico” ser consecuentes con la estrategia empresarial. Es de suma importancia llegar a determinar cómo la formación tributa a la estrategia empresarial y cómo lo hace de manera eficaz. En particular la información que brinda la evaluación del desempeño, si fue bien diseñada como sistema y refleja las competencias laborales, tiene una notable importancia en la determinación de las “brechas” entre competencias laborales existentes (en la persona) y las competencias laborales requeridas (por el cargo). De ahí que los resultados en la evaluación del desempeño fueran los siguientes: Para el rol actual y para un rol recién definidas sus competencias Figura 2: Gráfico para la determinación de brechas en las competencias actuales Observándose brechas en las competencias actuales: - Arquitectura y Gestión de Red… 8% (92%) - Conocimientos de Programación…35% (65%) - Trabajo bajo tensión… 13% (87%) Las cuales se repiten abajo, ya sea como competencia o como elemento dentro de ésta: - Gestión de Redes TI…11% (79%) - Trabajo bajo tensión… 14% (86%) - Trabajo en equipo….20% (80%) Figura 3: Gráfico para la determinación de brechas en las competencias recién definidas para este cargo. En el rol de Desarrollador de Software, las competencias muestran las brechas sigueintes: Figura 4. Gráfico para la determinación de brechas en las competencias para este perfil Las competencias en este rol se mantienen y se actualizan. Se observan brechas en las competencias siguientes: - Programación …. 22% (78%) - Gestores de Bases de Dato A…37% (63%) - Sistemas Operativos Desarrollo SW…..36% (64%) - Metodología de Desarrollo Sofware … 45% (55%) - Idioma Extranjero… 22% (78%) - Conocimientos organizacional Empresa… 21% (79%) - Trabajo bajo tensión…14% (86%) - Trabajo en equipo…18% (82%)  En la revisión de los planes de capacitación nacional desde el 2020 hasta la fecha, se muestran los resultados siguientes: Para un total de 18 acciones, tuvo y tendrá incidencia este especialista en 4 acciones para un 22% de participación lo que denota una baja participación presencial en las mismas. 3. CONCLUSIONES 1. Existen diferencias entre el estado real y deseado de cada competencia según el rol del que se trate. 2. La capacitación aún no logra cerrar estas brechas, manteniendo acciones que se repiten cada año y sin la actualización o incorporación de otras según la visión de negocio digital donde esta actividad juega un papel importante. 3. Se observa una distancia entre el perfil por competencias y la formación, que indiscutiblemente repercutirá en la evaluación del desempeño en el período. 4. Se necesita diseñar un programa de capacitación que vaya encaminado a resolver tales distancias entre las competencias y que tenga en cuenta además el cumplimiento de los objetivos empresariales de esta área y su impacto en la misión de la Empresa como negocio digital. 4. REFERENCIAS o Cuesta, A (2022) Tecnología de Gestión de Recursos Humanos. La Habana, Ed. Universitaria ´´Félix Varela y CITMATEL. o https://repository.eafit.edu.co/bitstream/handle/10784/13861/Daniela_AgudeloPerez_2019 .pdf?sequence=2&isAllowed=y o https://www.liferay.com/es/resources/l/digital-business o https://www.expansion.com/blogs/sociedad-empresa-digital/2016/01/25/la-direccion-del- negocio-digital.html o https://www.kyoceradocumentsolutions.es/es/smarter-workspaces/business- challenges/procesos/es-el-digital-business-la-clave-del-exito.html o https://economipedia.com/definiciones/cadena-de-valor.html o https://www.redalyc.org/pdf/993/99318788001.pdf o https://asiet.lat/actualidad/opinion/la-transformacion-del-capital-humano-en-etecsa- garante-de-la-transformacion-digital/ RECONOCIMIENTOS Como autora deseo agradecer a mi tutor el profesor Dr C. Armando Cuesta Santos quien siempre con su arte como profesor me inculca su sed infinita en la investigación de la ciencia social. Sobre la autora Raiza María Guevara Salvia. Especialista B en Gestión de Recursos Humanos en la División Territorial de ETECSA en el Municipio Especial Isla de la Juventud atendiendo los procesos de Capacitación y Selección del personal. Instructora interna de la Empresa perteneciendo a las Cátedras Nacionales de Dirección Empresarial y Pedagogía. RECONFIGURACIÓN DEL CURRÍCULO DE INGENIERÍA A PARTIR DE ENFOQUES ALTERNATIVOS COMO EL BUEN VIVIR Y LA INGENIERÍA COMPROMETIDA Sandra Milena Bonilla Cely 1 , Alexei Ochoa-Duarte 2 1 Universidad Tecnológica de Pereira, sandra.bonilla@utp.edu.co, 2 Universidad Nacional de Colombia, agochoad@unal.edu.co RESUMEN El papel de la ingeniería en la nuestra sociedad ha sido muy importante con aportes en distintas épocas y diferentes áreas como la astronomía, química, sistemas, industria militar, petróleos, entre otros; sin embargo, los procesos educativos alrededor de esta disciplina están soportados en un discurso económico desarrollista, propio del sistema hegemónico predominante, que permea las prácticas ingenieriles y las hace útiles al mismo sistema reproduciendo prácticas y contenidos que se mantienen estáticos y alejados de las realidades de cada país. Como respuesta a esta situación, en América Latina, han surgido posturas emergentes y alternativas que contemplan otras visiones de mundo como es el caso del Buen Vivir y enfoques como la Ingeniería Comprometida que se convierten en iniciativas innovadoras para entender y analizar el papel de la educación en ingeniería a partir de un currículo que configure las transformaciones sociales requeridas en oposición al paradigma predominante. En este contexto surge la pregunta: ¿Cómo reconfigurar el currículo de ingeniería a partir de enfoques alternativos como el Buen Vivir y la Ingeniería Comprometida? Para poder transformar las actuales condiciones y ayudar a la toma de mejores decisiones en el sistema educativo, tomando en cuenta los cambios de paradigmas, las tendencias y las necesidades actuales y futuras; es fundamental identificar y realizar un análisis de estas iniciativas para posteriormente abordar una propuesta de diseño curricular que permita reconfigurar las prácticas actuales de ingeniería como respuesta a la necesidad de contar con un currículo alternativo acorde a las necesidades y cambios socioeconómicos y culturales, propios de la actual sociedad, con una mirada que contemple otras visiones de mundo y prácticas de ingeniería con enfoque social. En este sentido, este documento hace un aporte de tipo exploratorio y descriptivo sobre la temática, con un enfoque cualitativo, a partir de la revisión bibliográfica existente, para proponer como posible resultado un primer acercamiento con una mirada alternativa al currículo de ingeniería como aporte a la educación y formas de enseñar y entender esta profesión para transitar hacia el Buen Vivir y las Ingenierías Comprometidas. PALABRAS CLAVES: Ingeniería Comprometida, Buen Vivir, Currículo, Educación, Hegemónico RECONFIGURATION OF THE ENGINEERING CURRICULUM BASED ON ALTERNATIVE APPROACHES SUCH AS BUEN VIVIR AND ENGAGED ENGINEERING. ABSTRACT The role of engineering in our society has been very important with contributions in different periods and different areas such as astronomy, chemistry, systems, military industry, oil, among others; however, the educational processes around this discipline are supported by a developmentalist economic discourse, typical of the predominant hegemonic system, which permeates the engineering practices and makes them useful to the same system reproducing practices and contents that remain static and far from the realities of each country. In response to this situation, in Latin America, emerging and alternative positions have arisen that contemplate other world visions, as is the case of Buen Vivir and approaches such as Engaged Engineering, which become innovative initiatives to understand and analyze the role of engineering education based on a curriculum that configures the required social transformations in opposition to the predominant paradigm. In this context the question arises: How to reconfigure the engineering curriculum from alternative approaches such as Buen Vivir and Engaged Engineering? In order to transform the current conditions and help to make better decisions in the educational system, taking into account the changes in paradigms, trends and current and future needs, it is essential to identify and analyze these initiatives to subsequently address a proposal for curriculum design to reconfigure the current engineering practices in response to the need for an alternative curriculum according to the needs and socioeconomic and cultural changes of today's society, with a view that contemplates other worldviews and engineering practices with a social approach. In this sense, this document makes an exploratory and descriptive contribution on the subject, with a qualitative approach, based on the existing literature review, to propose as a possible result a first approach with an alternative look at the engineering curriculum as a contribution to education and ways of teaching and understanding this profession to move towards Buen Vivir and Engaged Engineering. KEY WORDS: Engaged Engineering, Buen Vivir, Curriculum, Education, Education, Hegemonic 1. INTRODUCCIÓN A mediados del siglo XX, empiezan a surgir investigaciones alrededor de la educación y formación en ingeniería dada su reconocida importancia desde la época primitiva hasta la actualidad, reconociendo la necesidad de establecer modelos propios para la formación de ingenieros alejados de los establecidos en las ciencias básicas y que se adaptaran de la mejor manera posible a los cambios económicos y sociales que se venían dando debido al crecimiento de las ingenierías [1]. Sin embargo, el papel de la ingeniería en la sociedad con aportes evidenciados en diferentes disciplinas sigue siendo soportado en un discurso económico desarrollista basado netamente en la distribución de la riqueza permeando los procesos educativos a través de los tiempos con prácticas ingenieriles útiles al mismo sistema para lo cual se plantean alternativas y visiones de mundo con nuevos conceptos de hombre y sociedad [2]. Adicionalmente, desde la teoría curricular crítica que afirma que el currículum es una construcción social y como tal, subsidiaria del contexto histórico, los intereses políticos, las jerarquías y la estratificación social, así como de los instrumentos de control y presión ejercidos por distintos grupos [3], se vienen analizando propuestas de cambio para los currículos de ingeniería como una oportunidad para reconfigurar las prácticas y revisar el papel de la ingeniería en las actuales condiciones de nuestra sociedad. En este sentido, un primer enfoque para ubicarnos en la propuesta es el Buen vivir, como alternativa al desarrollo, el cual encuentra su razón de ser en los principios de la reciprocidad y el mutualismo de las formas de vida existentes, la pluralidad, el equilibrio y el movimiento cíclico de la vida misma [4]. Este concepto, está en constante construcción y se nutre de diversas corrientes. La corriente indigenista, también conocida como pachamamista, culturalista o irreductible, centrada en la autodeterminación de los pueblos, la conservación de su identidad y su propia espiritualidad. La corriente socialista, también llamada ecomarxista o estatista, donde la equidad social tiene un papel relevante, es un proceso revolucionario orientado a mejorar la equidad, con la transformación de los sistemas socioeconómicos, desde una perspectiva post-capitalista que otorga un papel relevante a los Estados en la implementación del Buen Vivir, y, por último, la corriente pos-desarrollista, también conocida como ecologista o new age en la que el cuidado de la naturaleza es el centro de atención, es una crítica al desarrollo y se acerca a los movimientos sociales latinoamericanos que proponen el Buen Vivir como una utopía en construcción, al tiempo que asocian el desarrollo como una forma de dominación, por eso propone la implementación de procesos sociales locales y participativos, orientados a una transformación socio-ecológica, en la construcción de una sociedad biocéntrica y sus planteamientos se asocian al paradigma pos- desarrollista[5]. Complementario a estas visiones de mundo, reconocemos el enfoque de ingeniería comprometida propuesto por Kleba [6], quien gesta este enfoque a partir de sus reflexiones con respecto al papel tradicional de la ingeniería vinculado netamente a la industria y desconociendo el papel social de la misma. Adicionalmente, este enfoque se reconoce como un concepto paraguas que involucra una gran diversidad de enfoques: entre los que se encuentran: la ingeniería humanitaria, la ingeniería de la paz, los ingenieros para el cambio, la ingeniería popular, la ingeniería para la justicia social y la ingeniería azul. De esta manera, para contribuir con la propuesta de reconfiguración del currículo de ingeniería bajo enfoques innovadores y alternativos, se plantea este aporte para el análisis y aporte a la formación en ingeniería, trazando, identificando lo que pueden ser las aproximaciones de una estructura curricular deseada desde el concepto del Buen Vivir y las Ingenierías Comprometidas. De esta forma, el presente artículo se divide en tres secciones posteriores, la primera sobre identificación y descripción de los enfoques alternativos, la segunda, conformada por el análisis y la discusión alrededor de la necesidad de transformación de los currículos, y finalmente, se presentan una serie de conclusiones e ideas como abre bocas para seguir construyendo prácticas educativas en ingeniería que contemplen otras posibilidades de mundo para un Buen Vivir. 2. IDENTIFICACIÓN Y DESCRIPCIÓN DE BUEN VIVIR E INGENIERÍAS COMPROMETIDAS Buen Vivir La noción de desarrollo se encuentra muy arraigada en la sociedad actual. No obstante. algunos autores como Tortosa [7] argumentan que lo que se ha conseguido es un mal-desarrollo, cuyas características principales son la patriarcalidad, la heteronormalidad, la desigualdad socioeconómica, la colonialidad del poder, del saber y del ser y el deterioro a la naturaleza [8]. Estas implicaciones del maldesarrollo, han originado críticas a la noción de desarrollo [9]. [10]entre las cuales se encuentran el decrecimiento, originado en Europa [11] y la concepción del Buen Vivir, originada en Latinoamérica [12]. En cuanto al Buen Vivir, entendido como alternativa al desarrollo, no es un concepto único ni acabado, está en permanente movimiento (construcción) y se nutre de varias vertientes [5] [13]. La corriente indigenista, también conocida como pachamamista, culturalista o irreductible, centrada en la autodeterminación de los pueblos, la conservación de su identidad y su propia espiritualidad. Es trabajada por indígenas e intelectuales indigenistas latinoamericanos y rechaza la noción de desarrollo por considerarla una forma más de colonialidad. Propone recuperar la armonía de los pueblos originarios de América e impulsar la reconstrucción de la identidad con un cambio civilizatorio, potencializando conceptos como plurinacionalidad y autodeterminación y respondiendo a una concepción premoderna del mundo. Por su parte, la corriente socialista, también llamada ecomarxista o estatista, donde la equidad social tiene un papel relevante, es un proceso revolucionario orientado a mejorar la equidad, con la transformación de los sistemas socioeconómicos, desde una perspectiva post-capitalista que otorga un papel relevante a los Estados en la implementación del Buen Vivir, y, por último, la corriente pos- desarrollista, también conocida como ecologista o new age en la que el cuidado de la naturaleza es el centro de atención, es una crítica al desarrollo y se acerca a los movimientos sociales latinoamericanos que proponen el Buen Vivir como una utopía en construcción, al tiempo que asocian el desarrollo como una forma de dominación, por eso propone la implementación de procesos sociales locales y participativos, orientados a una transformación socio-ecológica, en la construcción de una sociedad biocéntrica y sus planteamientos se asocian al paradigma pos-desarrollista [5]. El Buen Vivir, nacido en las entrañas latinoamericanas como una formulación anticapitalista, emerge de su ancestralidad, con epistemologías y cosmovisiones contemporáneas vitales para enfrentar los principios de la modernidad capitalista. Es una propuesta viable para superar la dependencia y se convierte en un desafío para frenar la omnipotencia de los mercados en la economía neoliberal globalizada. La historia de opresión cultural, de exclusión humana, de saqueo y depredación ambiental, expresa el desequilibrio de poder entre el Buen Vivir y la sociedad globalizada, pero estas mismas contradicciones harán posible un tránsito hacia nuevos mundos, cuando se logren conciliar las posiciones encontradas con un diálogo fluido, franco y libre de apasionamientos, como señala Arturo Escobar, que constituye entonces un camino en construcción al cual estamos invitados e invitadas a aportar y recorrer [9]. Ingenierías Comprometidas En los últimos tiempos, buscando alternativas a la crisis civilizatoria, la disciplina de la ingeniería ha ampliado su práctica hacia actividades relacionadas al ―desarrollo‖, como una función emergente en la frontera, a nivel epistémico y metodológico [14] [15]. No obstante, surgen críticas ante el direccionamiento de la relación Ingeniería-Social hacia el desarrollo, no atendiendo los efectos históricos de esa visión de mundo [16] [17]. Como primer enfoque, desde los años 90, alrededor del mundo, se crean capítulos de la organización Ingenieros Sin Fronteras, buscando desde diversas perspectivas integrar la ingeniería con la sociedad. Esta organización nace inspirada en la organización Médicos Sin Fronteras, cuyo rol principal ha sido la asistencia humanitaria. De la misma forma, otras organizaciones internacionales han incorporado a su trabajo esta perspectiva, enfocada a la solución de las principales necesidades de la sociedad y en especial de comunidades marginales, tal es el caso de la organización estadounidense Engineers for Change E4C (Ingeniería para el cambio). E4C ha realizado un mapeo del estado de la Ingeniería para el Desarrollo Global, en diversas geografías tales como Australia [18]; Estados Unidos y Canadá [19] y América Latina [20]. El interés despertado por la praxis de la ingeniería en conjunto con la sociedad ha generado diversos ejercicios de revisión de programas de educación en ingeniería que abordan estos elementos. En particular se destaca el trabajo realizado por Smith, Tran, y Compston [21], quienes han enfocado su labor hacia la comprensión de este andamiaje institucional y pedagógico en Australia. A esta perspectiva de la ingeniería, en la literatura académica, se le ha dado diversos nombres por reunir los diversos abordajes inmersos en ella, delimitando sus elementos comunes y también sus diferencias teóricas, conceptuales, metodológicas y prácticas. Se le ha denominado, en el Norte Global, Ingeniería de acción humanitaria y desarrollo [21] ; Ingeniería socialmente comprometida [22]; Ingeniería Activista [23], Ingeniería para el desarrollo global [18] [19] [20], entre muchas otras. A nivel Latinoamericano se le ha llamado Ingeniería Comprometida [16], como un espacio plural de praxis. Para este texto, se apropian algunos conceptos de las Ingenierías Comprometidas [24] [25] [26] [27], considerando los abordajes plurales a la hora de la relación ingeniería y sectores sociales marginados. El concepto de Ingeniería Comprometida puede ser definido como un nuevo papel de la ingeniería para el cambio social, explicado ―en iniciativas plurales dentro de las escuelas de ingeniería, acciones de desarrollo inclusivo, lineamientos educativos, organizaciones sin fines de lucro, empresas sociales y redes de tecnología social, entre otras‖ [16]. Este concepto sombrilla busca ser diverso e integra diferentes enfoques y una gran variedad de prácticas, metodologías y concepciones hacia la promoción de la ciencia y la tecnología, que benefician a las poblaciones más amplias en línea con el programa STS Engaged [28]. Lo anterior busca superar los fundamentos éticos de la ingeniería tradicional y las relaciones con la naturaleza y la sociedad, a través del tiempo [29]. Reflexionando desde la propia ingeniería y consultando otras áreas del conocimiento, se crearon conceptos como Ingeniería Humanitaria [30] , Ingeniería para la Construcción de la Paz [16] [31] e Ingeniería Popular [32], que algunos autores agrupan bajo el concepto paraguas, como se dijo anteriormente, de Ingeniería Comprometida, visiones enmarcadas en nuevas prácticas, enfoques y concepciones que superan los fundamentos éticos de la ingeniería tradicional y sus relaciones con la naturaleza y la sociedad [29]. 3. EL CURRÍCULO DE INGENIERÍA Y SU NECESIDAD DE RECONFIGURACIÓN Adicionalmente y complementando las referencias de esas nuevas visiones de mundo con enfoque alternativo en contraposición al sistema hegemónico descritas anteriormente; se encuentran posturas relevantes como los aportes de Amartya Sen, Premio Nobel de economía quien plantea una visión distinta al no concebir el desarrollo como un medio para el crecimiento económico, la industrialización, o algún otro objetivo, sino como un fin en sí mismo definido como expansión de la libertad humana mediante la capacidad para llevar la vida que cada uno tenga razones de elegir y adicionalmente dando importancia al ser humano y a la educación que aumenta las capacidades de vivir una vida valiosa [33]. Tomando esa importancia que el premio nobel da a la educación en ese contexto alternativo, son complementarias a los importantes aportes que nos ha brindado Paulo Freire citado por Melendez [34] , quien destaca la necesidad de una educación que no esté fundamentada de manera convencional en una mera transmisión y acumulación de conocimientos, sino en un pensamiento crítico que dialogue y establezca conexiones con la realidad social. Este enfoque propende a establecer una educación que se convierta en el canal de diálogo entre educadores, educandos y su comunidad, generando vínculos y un compromiso de largo plazo con el cual buscar e implementar soluciones a los complejos problemas sociales, especialmente, los problemas del subdesarrollo, internalizados por largo tiempo en la realidad política, económica y social latinoamericana [34]. Adicionalmente a las prácticas pedagógicas que son fundamentales en el contexto de la educación, se tiene que el Currículo es un elemento esencial que permite llevar a cabo esas prácticas pedagógicas. En ese sentido partiendo de los fines de la educación descritos en la ley 115 de 1994 que define lo que se espera del sistema educativo se establece el concepto de currículo en el artículo 76 de la siguiente manera : ― Currículo es el conjunto de criterios, planes de estudio, programas, metodologías y procesos que contribuyen a la formación integral y a la construcción de la identidad cultural nacional, regional y local, incluyendo también los recursos humanos, académicos y físicos para poner en práctica las políticas y llevar a cabo el proyecto educativo institucional‖. Este concepto es polisémico y tiene en su descripción muchos elementos que ponen de manifiesto los fines de la educación y es muy integral. Otro concepto planteado por G . Ianfranceso después de revisar diversas definiciones de currículo es: ― Un conjunto de principios: antropológicos, axiológicos, formativos, metodológicos, psicopedagógicos, epistemológicos, administrativos, sociológicos y evolutivos, que inspiran los propósitos de formación integral de los educandos a través de un PEI que responda a las necesidades de la comunidad‖ [35]. En documentos de trabajo de UNESCO 2014, se realiza un análisis de un currículo para el siglo XXI, en este documento se menciona el Informe Delors, el cual postuló desde hace bastante tiempo la vigencia de los pilares de la educación del siglo XXI, donde se destaca la centralidad del aprender a aprender desde el punto de vista cognitivo y el aprender a vivir juntos desde el punto de vista social. Pero dicho Informe también enfatiza la necesidad de considerar esos pilares como un bloque unitario y no como inmersiones disociadas en las estrategias educativas y las propuestas curriculares. No es conveniente desarrollar competencias cognitivas desligadas de valores ético-sociales que orientan la construcción de sociedades más justas [36]. Para los autores de este artículo es importante analizar el contexto para definir lo que se enseña y quienes lo enseñan buscando un equilibrio entre identidades, saberes y valores locales y universales. Finalmente definen el currículo como el producto de un proceso orientado a definir cuáles son los conocimientos indispensables, las capacidades esenciales y los valores más importantes que la escuela tiene que privilegiar y cuáles son en efecto los aprendizajes fundamentales que es necesario asegurar a fin que las nuevas generaciones estén efectivamente preparados a vivir en la sociedad que aspira construir [36]. A partir de prácticas pedagógicas con enfoque crítico se desprende la propuesta de una perspectiva expuesta por Abraham Magenzo [3], quien propone repensar el currículo para transformar la educación incorporando una Perspectiva Controversial lo que significa para este autor que los diseños curriculares académicos-tecnicistas-conductistas-instrumentales deben ser cambiados y aproximarse a concepciones curriculares sustentadas en la teoría curricular crítica, enmarcando su propuesta controversial en el escenario de todas las disciplinas y el requerimiento de docentes con mentalidad controversial y crítica. En palabras del Autor la definición de currículo: ―El currículum es una construcción social y como tal, subsidiaria del contexto histórico, los intereses políticos, las jerarquías y la estratificación social, así como de los instrumentos de control y presión ejercidos por distintos grupos. Proponer integrar un enfoque controversial al currículo significa, en primer lugar, transitar desde un currículum elaborado, preferentemente sobre la base de verdades homogeneizantes hacia uno en donde caben los conocimientos emergentes, diversos y heterogéneos. En segundo lugar, se trata de superar la disociación existente entre los contenidos curriculares y la significación que estos tienen para los estudiantes. En tercer lugar, se trata de orientar y propender hacia que el currículo refuerce la formación de sujetos críticos y cuestionadores, capaces de gestionar el conocimiento de manera dialogante; alejándose de esta forma, de un currículum centrado en la racionalidad instrumental, en los medios más que en los fines y que reproduce las inequidades sociales y culturales‖ [3] 4. DISCUSIÓN E IDEAS FINALES La discusión crítica y reflexiva frente al diseño de un currículo alternativo que contemple nuevas visiones de mundo responde a las siguientes preguntas: ¿Cuáles son los fines de la educación? (paradigma), ¿Cómo enseñar (prácticas pedagógicas), ¿Qué enseñar? (contenidos, habilidades), ¿Para quienes? (Estudiantes, comunidad). Frente a los fines de la educación en ingeniería para las nuevas visiones de mundo, como el Buen vivir, estaría soportada en las siguientes características que abarcan un nuevo concepto de hombre y sociedad: A. Una educación basada en la autodeterminación de los pueblos, la conservación de su identidad y su propia espiritualidad. B. Una educación que tenga en cuenta el concepto del Buen Vivir bajo la corriente socialista que busca la transformación social y económica teniendo como base fundamental la justicia social y la equidad. C. Una educación que contemple los conceptos de la corriente ecológica del Buen Vivir que buscan el equilibrio del ser humano con la naturaleza, la armonía, el respeto a la dignidad humana y la mejor calidad de vida de los ciudadanos y comunidades. En consecuencia, reconocemos que la educación actual requiere de transformaciones sustanciales para romper con algunos paradigmas predominantes que no han dado cabida a otras visiones del mundo; esas otras posibilidades existentes contemplan el desarrollo humano como la idea de bienestar social, ambiental, político e ideológico, alineado hacia la humanización restando importancia a la materialización como fin último de las necesidades de las personas dentro de un mundo cada vez más interrelacionado y más sensible a las demandas sociales como los proponen las ingenierías comprometidas. Frente a las prácticas pedagógicas En este sentido, apoyados en las ideas de Paulo Freire frente a las prácticas pedagógicas de la enseñanza nos identificamos con los siguientes postulados según Verdeja [37]: Enseñar no es transferir conocimiento, ni dar forma a un cuerpo indeciso, sino crear las posibilidades de su producción o de su construcción, enseñar exige respetar los saberes, la identidad y la autonomía de los educandos y discutir con ellos la razón de sus saberes. Enseñar exige saber escuchar y respetar la lectura del mundo de los educandos, porque es la manera correcta de intentar entender el mundo de una forma más crítica, lo contrario es antidemocrático. · Enseñar exige conocer que somos seres condicionados, pero no determinados: la concientización no es sino el esfuerzo crítico de conocimiento de los obstáculos que dificultan la tarea histórica de cambiar el mundo. Enseñar exige la convicción de que el cambio es posible: no somos solo objetos de la Historia, sino también sujetos, el futuro es problemático, pero inexorable. · Enseñar exige comprender que la educación es una forma de intervención en el mundo, reconocer que la educación es ideológica. Educar exige querer bien a los educandos, porque este trabajo se realiza con personas, lo que demanda un alto nivel de capacitación científica y de responsabilidad ética. En este sentido, es necesario transformar las pedagogías de corte transmisionista, conductista de tipo lineal que limita la participación, se basa en estímulo respuesta - esfuerzo, el trabajo individual y la competitividad castrando así la generación de ideas y pensamiento crítico. En contraposición a esta realidad actual, se debe fomentar las pedagogías y metodologías didácticas diversas, modernas que apunten a la participación de todos de acuerdo a sus capacidades , respetando sus estilos o forma de aprendizaje y promoviendo sobre todo capacidades sociales con espíritu de conciencia social que reconozca las problemáticas sociales sin generar rechazos a ningún ser humano por las brechas y diferencias existentes entre unos y otros, Así mismo; Aumentar y visibilizar las experiencias y ejemplos reales de aplicaciones de ingeniería hacia el beneficio de las comunidades en entornos sociales diversos, sensibilizando a los estudiantes, profesores y administrativos de los impactos que desde otro punto de vista se pueden dar para contribuir realmente a la sociedad, con experiencias y vivencias reales de acercamiento a las comunidades. Permanecer o entrar en contacto con la sociedad olvidada, necesitada, la sociedad despojada del dinero que tiene grandes riquezas en valores, en cultura, en medio ambiente, hasta dónde podemos llegar sin invadirlos y sin imponernos, solo dando una mano desde la ciencia y la técnica como verdadera contribución de seres humanos iguales, con los mismos derechos y amantes todos de un mismo país que es de todos y para todos. Frente a los contenidos y habilidades Una propuesta frente a los contenidos de los currículos estarían construidos frente al contexto histórico, político ético y social que contemplen las múltiples dimensiones del ser humano y la sostenibilidad ambiental. Con contenidos en torno a la construcción de sociedades democráticas y participativas garantes de derechos donde se priorice el respeto a la diversidad en otredad y sobre todo un currículo que mantenga al estudiante en contacto con la realidad, la vida, las problemáticas y la actuación frente a estas realidades. Frente a los y las estudiantes Finalmente, el pretender una transformación en la educación, sin pensar en el sujeto al que va dirigidos todos estos esfuerzos como es el estudiante, no sería posible dado su gran importancia como protagonista principal en todos los procesos educativos. Se debe partir entonces que para el éxito de la pretendida transformación bajo una visión del mundo distinta y alternativa, se debe tener en cuenta el contexto histórico y social donde se desenvuelve el estudiante que afecta de manera significativa la forma como él mismo percibe la educación, el valor que se le da a ésta de acuerdo al medio en que se desenvuelve y el poder transformador que se requiere para direccionar de acuerdo a su contexto. Los y las estudiantes logran alcanzar metas claras en coherencia con la calidad de vida que tengan en mente y las condiciones que han tenido que vivir. Adicionalmente las instituciones a las que pertenecen los estudiantes darán la estructura mental a los estudiantes acorde con la filosofía o directrices de la institución. El pensamiento crítico del estudiante se ve moldeado por la institución a la que asiste, como afirma Girox: :‖escuelas son lugares públicos donde los estudiantes aprenden los conocimientos y las habilidades necesarias para vivir en una auténtica democracia‖ [38] . En este sentido, es necesario reconocer la realidad del estudiante como primer paso para plantear transformaciones en la educación. Es por esto, que la construcción del conocimiento parte de la buena relación estudiante – docente aquí es importante contar con buenos procesos de comunicación y diálogo con el estudiante, este sería un segundo paso importante para poder lograr las transformaciones. Posteriormente , al entender las realidades y visiones del estudiante y entrar en diálogo con el mismo, se puede iniciar un proceso de apropiación del conocimiento que debe iniciar por apropiarse de sus propias vidas, reconocerse como alguien con sueños y expectativas útil a la sociedad y transformador de realidades. De esta manera se logra trazar el objetivo de la enseñanza en ingeniería como práctica emancipadora con las características dadas frente a los fines de la educación con nuevo enfoque desde el buen vivir. 5. CONCLUSIONES La ingeniería comprometida presenta una gran diversidad de enfoques y temáticas posibles lo cual permite evidenciar que la ingeniería, a través de instituciones, grupos e individuos, ha propuesto y promovido otras formas de vivir la profesión, de manera que se favorece la construcción de alternativas frente a la lógica dominante, pasando a estar mucho más orientada y enfocada desde y hacia las comunidades. La búsqueda de un Buen Vivir, como concepto sintético que involucra corrientes indigenistas, socialistas y ambientalistas [13]. Su relación con la naturaleza, la interdependencia social y la satisfacción personal [39] podrían ser un horizonte que guíe las acciones de las personas que ejercen la ingeniería del futuro en América Latina. Adicionalmente, es importante sumar esfuerzos para la construcción y reconfiguración de currículos por medio de investigaciones teóricas y prácticas que sean acordes con las nuevas necesidades y visiones del mundo que han surgido en diversas geografías y especialmente en Latinoamérica como el enfoque del Buen vivir y las Ingenierías Comprometidas para nutrir las ideas actuales de cambio que inspiran a lograr transformaciones sociales, económicas políticas, ambientales y sobretodo académicas y pedagógicas que vinculan la educación y el papel de la ingeniería con el futuro de las sociedades. REFERENCIAS 1. TORRES, A. P. (2019). ―¿Qué es la Educación en Ingeniería?‖ Revista científica, 2019, Vol 35 ,pp. 156-157. 2.NARANJO PIZZANO Gabriel. ― Enseñanza de la Ingeniería‖. Lámpsakos, 2019, núm 21,pp. 8-11. 3. MAGENDZO, A . ―Repensar el currículo desde la perspectiva controversial‖. Ruta Maestra Editorial, 2016, núm 15, pp. 19-24. 4. WEBER, S. M.; TASCÓN, M. A. (2020). "Pachamama—La Universidad del ‗Buen Vivir‘: A First Nations Sustainability University in Latin America". En ―Universities as Living Labs for Sustainable Development‖, 2020. Springer, Cham. pp. 849-862 5. HIDALGO-CAPITÁN, A. L.; CUBILLO-GUEVARA, A. P. ―Deconstrucción y genealogía del ―buen vivir‖ latinoamericano. El (trino) ―buen vivir‖ y sus diversos manantiales intelectuales‖. International Development Policy | Revue internationale de politique de développement [en línea], 9 | 2017. Disponible en Web: http://journals.openedition.org/poldev/2517 DOI: https://doi.org/10.4000/poldev.2517. 6. KLEBA, J. ―Engenharia engajada – Desafios de ensino e extensão‖. Revista Tecnologia e Sociedade, 2017, vol 13, núm, 27, pp. 170–187. https://doi.org/10.3895/rts.v13n27.4905. 7. TORTOSA, J. M. Maldesarrollo y Mal Vivir: Pobreza y Violencia a Escala Mundial. Quito: Ediciones Abya-Yala. 2011, 406 pp. ISBN 978-9978-22-974-3. 8. QUIJANO, A. ―Colonialidad del poder y clasificación social‖. Journal of World Systems Research. 2000, vol 1, núm 2, pp. 342-386. 9. ESCOBAR, A. ―Degrowth, postdevelopment, and transitions: a preliminary conversation‖. Sustain Sci. 2015, núm 10, pp. 451–462. https://doi-org.ezproxy.unal.edu.co/10.1007/s11625-015-0297-5. 10. KOTHARI, A.; DEMARIA, F.; ACOSTA, A. (2014). ―Buen Vivir, Degrowth and Ecological Swaraj: Alternatives to sustainable development and the Green Economy‖. Development. 2014, núm 57, pp. 362– 375. https://doi-org.ezproxy.unal.edu.co/10.1057/dev.2015.24. 11. LATOUCHE, S. Le Pari de la décroissance. París: Fayard. 2006, 302 pp. ISBN 978-2213629148. 12. MERINO, R. ―An alternative to ‗alternative development‘?: Buen vivir and human development in Andean countries‖. Oxford Development Studies. 2016, vol 44, núm 3, pp. 271-286, DOI: 10.1080/13600818.2016.1144733. 13. HIDALGO CAPITÁN, A. L.; CUBILLO GUEVARA, A. P. ―Una propuesta para la construcción de un transdesarrollo global . Los Objetivos del Buen Vivir‖. Revista Para Una Nueva Civilización [en línea], 2019. Disponible en Web: https://www.15-15-15.org/webzine/2019/04/13/una-propuesta-para-la- construccion-de-un-transdesarrollo-global-los-objetivos-del-buen-vivir/. 14. ROBBINS, P. T.; CROW, B. ―Engineering and development: interrogating concepts and practices‖. Journal of International Development, 2007, vol 19, núm 1, pp. 75–82. https://doi.org/10.1002/jid.1349. 15. ROBBINS, P.; WIELD, D.; WILSON, G. ―Engineering for Development as Borderland Activity‖. Engineering Studies, 2020, vol 12, núm 1, pp. 58–78. https://doi.org/10.1080/19378629.2019.1699931. 16. KLEBA, J.; REINA-ROZO, J. D. ―Fostering peace engineering and rethinking development: A Latin American view‖. Technological Forecasting and Social Change. 2021, vol 167, 120711 https://doi.org/10.1016/j.techfore.2021.120711. 17. ESCOBAR, A. Sentipensar con la tierra: nuevas lecturas sobre desarrollo, territorio y diferencia. Medellín: Universidad Autónoma Latinoamericana UNAULA. 2014, 189 pp. ISBN 978-958-8869-14-8 18. KEOGH, R.; BURLESON, G. State of Engineering for Global Development Australia and New Zealand. [en línea] 2019. Disponible en Web: https://www.engineeringforchange.org/wp- content/uploads/2020/04/State-of-EGD-Australia-and-New-Zealand-Graphic.pdf 19. PEIFFER, E.; COOK, A.; Y BURLESON, G. State of Engineering for Global Development United States and Canada. [en línea] 2019. Disponible en Web: https://www.engineeringforchange.org/wp- content/uploads/2019/10/State-of-EGD-North-America-Full-Report-Google-Docs.pdf 20. ROJAS, C.; BURLESON, G.; MACHADO, M. State of Engineering for Global Development Latin America. [en línea] 2020. Disponible en Web: https://www.engineeringforchange.org/wp- content/uploads/2020/12/Graphic-State-of-EGD-Latin-America-ENG-October-2020-2.1.pdf 21. SMITH, J.; TRAN, A. L. H.; COMPSTON, P. ―Review of humanitarian action and development engineering education programmes‖. European Journal of Engineering Education, 2020, vol 45, núm 2, pp. 1–24. https://doi.org/10.1080/03043797.2019.1623179. 22. LITCHFIELD, K.; JAVERNICK-WILL, A. ――I Am an Engineer AND‖: A Mixed Methods Study of Socially Engaged Engineers‖. Journal of Engineering Education, 2015, vol 104, núm 4, pp. 393–416. https://doi.org/10.1002/jee.20102. 23. KARWAT, D. M. A.; EAGLE, W. E.; WOOLDRIDGE, M. S.; PRINCEN, T. E. ―Activist Engineering: Changing Engineering Practice By Deploying Praxis‖. Science and Engineering Ethics, 2014, vol 21, núm 1, pp. 227–239. https://doi.org/10.1007/s11948-014-9525-0. 24. KLEBA, J.B.; CRUZ, C.C. ―Building engaged engineering in curriculum - a review of Brazilian and Australian cases‖. En ASEE Virtual Annual Conference Content Access, Virtual Online, 2020. [en línea] 2020. Disponible en Web: https://peer.asee.org/34240 25. SALCEDO, C.; VEGA, M. DE J.; REINA-ROZO, J. D. ―Redes de colaboración y formación para el fomento de la ingeniería comprometida: Reflexiones hacia futuros posibles‖. International Journal of Engineering, Social Justice, and Peace, 2021, vol 8, núm 1, pp. 111–132. https://doi.org/10.24908/ijesjp.v8i1.14285. 26. OCHOA-DUARTE, A.; REINA-ROZO, J. D. ―Ingeniería comprometida: una revisión preliminar de prácticas universitarias en ingeniería y sociedad en Colombia‖. Trilogía Ciencia Tecnología Sociedad, 2022, vol 14, núm 27, e2247. https://doi.org/10.22430/21457778.2247 27. KLEBA, J. B.; CRUZ, C. C. ―Empowerment, Emancipation and Engaged Engineering‖. International Journal of Engineering, Social Justice, and Peace, 2021, vol 8, núm 2, pp. 28-49. https://doi.org/10.24908/ijesjp.v8i2.14380 28. SISMONDO, S. Science and technology Studies and an Engaged Program. En: Hackett, Edward J., Amsterdamska, Olga, Lynch, Michael y Wajcman, Judy (eds). The Handbook of Science and Technology Studies. (3 ed.), 2008. Cambridge (MA): MIT Press, p. 13-31. 29. CATALANO, G. D. Engineering Ethics: Peace, Justice and the Earth. En: Synthesis Lectures on Engineering, Technology and Society (vol 1), pp. 1-80. Perth: Morgan y Claypool Publishers. https://doi.org/10.2200/S00039ED1V01Y200606ETS001 30. REINA-ROZO, J.; LEÓN, L. Ingeniería Humanitaria desde/ para el Sur global. En: M. B. Albornoz, J. Jiménez y J. Rojas (eds.), Ingeniería, innovación y tecnología social, 2017. Bogotá: Universidad Nacional de Colombia - FLACSO. 31. REINA-ROZO, J. D. ―Ingeniería para la construcción de paz: Una reflexión preliminar para procesos tecno-científicos de resiliencia territorial‖. OPERA, 2020, núm 27(Junio), pp. 141–162. https://doi.org/10.18601/16578651.n27.07. 32. FRAGA, L.; ALVEAR, C.; CRUZ, C. C. ―Na trilha da contra-hegemonia da engenharia no Brasil : da Engenharia e Desenvolvimento Social à Engenharia Popular‖. Revista Iberoamericana de Ciencia, Tecnología y Sociedad, 2020, vol 15, núm 43, pp. 209–232. 33. CÓRDOBA, R. C. ―Desarrollo humano y capacidades. Aplicaciones de la teoría de las capacidades de Amartya Sen a la educación‖. Revista española de pedagogía, 2006, pp. 365-380. 34. MELENDEZ ROJAS R. E. ―Vinculaciones entre el socio-constructivismo y el plan de estudios del Centro Nacional de Educación Helen Keller de Costa Rica‖ Dissertare Revista De Investigación En Ciencias Sociales, 2020, Vol 5(1), pp. 1-24 35. IAFRANCESCO G. ―Currículo y plan de estudios‖. Coop. Editorial Magisterio, 2004. 36.AMADIO, M, OPERTTI, R, y J.C. TEDESCO. ―Un currículo para el siglo XXI: Desafíos, tensiones y cuestiones abiertas‖. Investigación y Prospectiva en Educación UNESCO, París.,2014, Documentos de Trabajo ERF, No. 9.pp.1 37.VERDEJA MUÑIZ, M. ―Ideas centrales del pensamiento pedagógico político de Paulo Freire: dimensiones de análisis‖. Revista Fuentes, 2018, núm 20 (1). 38. GIROUX, G. (1997). ―La pratique sociale de l'éthique‖ . Les Editions Fides. 1997,Vol. 34 39. HIDALGO-CAPITÁN, A.; GARCÍA-ÁLVAREZ, S.; CUBILLO-GUEVARA, A.; MEDINA- CARRANCO, N. ―Los Objetivos del Buen Vivir. Una propuesta alternativa a los Objetivos de Desarrollo Sostenible‖. Revista Iberoamericana de Estudios del Desarrollo, 2019, vol 8, núm 1, pp 6-57. Sobre los autores Sandra Milena Bonilla Cely: Ingeniera Industrial, magister en Ingeniería industrial, estudiante de maestría en Educación. Docente de Universidad Tecnológica de Pereira y Universidad Nacional Abierta y a Distancia UNAD. Integrante del grupo de investigación Sigcienty. Ha sido docente investigadora, en temas como gestión de conocimiento y organizaciones; gestión humana y pedagogía, actualmente interesada en investigación social sobre el currículo e ingeniería comprometida. Líder en creación de semilleros y evaluador en eventos de semilleros de investigación así como proyectos de investigación de pregrado y posgrado. Alexei Ochoa-Duarte: Ingeniero mecatrónico, magíster en Ingeniería de Sistemas y Computación y candidato a doctor en Ingeniería - Industria y Organizaciones en la Universidad Nacional de Colombia. Becario asistente docente en programación de computadores y tutor de la asignatura electiva Cátedra Ingenio, Ciencia, Tecnología y Sociedad. Integrante del Grupo de Investigación en Tecnologías e Innovación para el Desarrollo Comunitario (GITIDC). Ha trabajado con comunidades rurales y urbanas en agroecología, tecnologías libres, educación popular; con el objetivo de poner en diálogo diferentes saberes para la transformación de la sociedad COMPETENCIAS PARA LA INNOVACIÓN EN ESTUDIANTES DE INGENIERÍA INDUSTRIAL César Augusto Palma-Alvarado1 Ana Teresa Molina Álvarez2 1 Universidad Don Bosco, El Salvador 2 Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE, Calle 114 # 11901 / Ciclovía y Rotonda, Marianao, La Habana, Cuba cesar.palma@udb.edu.sv; anatere@ind.cujae.edu.cu RESUMEN La importancia de las competencias para desarrollar la innovación no tiene discusión, sin embargo, en los diseños curriculares de ingeniería es difícil encontrar aplicaciones prácticas que ayuden a los estudiantes a ser innovadores por completo. A continuación, se presenta un artículo en el cual se busca justificar una investigación para diagnosticar cómo se sustenta la formación de competencias para la innovación en los estudiantes de ingeniería industrial de la Universidad Don Bosco de El Salvador. Se abordan fundamentos teóricos acerca de las competencias y de la innovación, así también un estado de la cuestión con investigaciones de diversos autores quienes presentan modelos de innovación. Se finaliza con el desarrollo de las denominadas subcompetencias para la innovación obtenidas del perfil profesional del ingeniero industrial de la Universidad Don Bosco, lo cual da la apertura para futuras investigaciones. COMPETENCES FOR INNOVATION IN INDUSTRIAL ENGINEERING STUDENTS ABSTRACT The importance of competencies to develop innovation is not disputed, however, in engineering curriculum designs it is difficult to find practical applications that help students to be completely innovative. Below there is an article that seeks to justify an investigation to diagnose how the formation of competencies for innovation is supported in industrial engineering students at Universidad Don Bosco of El Salvador. Theoretical foundations about competences and innovation are addressed, as well as a state of the art with research by various authors who present innovation models. It ends with the development of the so-called sub-competences for innovation obtained from the professional profile of Universidad Don Bosco´s industrial engineer, which gives the opening for future research. PALABRAS CLAVE Innovación, competencias blandas, ingeniería industrial KEYS CODES Innovation, soft skills, industrial engineering 1. INTRODUCCIÓN Ahora es usual encontrar propuestas curriculares para las diversas ingenierías que se enfocan en la conformación de competencias en las áreas básicas, seguido de competencias técnicas propias de cada especialidad las cuales se conocen como “competencias duras”, referidas éstas a las capacidades para ejecutar un trabajo en particular [1]. Además, es aceptado que los procesos de formación deben acompañarse de las denominadas “competencias blandas”, término abordado por la citada autora Cimatti, al referirse a las competencias que no están directamente relacionadas a tareas específicas. Ejemplos de estas competencias son: trabajo en equipo, resolución de problemas, buena comunicación oral y escrita, innovación, gestión del tiempo y liderazgo [2]. Se tiene el caso de Inglaterra con el tratamiento del perfil que se necesita para el ingeniero del siglo XXI [3], concurriendo ello en dos vías: una, es el dominio técnico y la aplicación práctica y dos, el dominio social como la comunicación y el trabajo en equipo, por los cuales se respalda la necesidad que los ingenieros sean formados en las llamadas “competencias blandas”. Sin embargo, no es común encontrar en los planes curriculares de dichas especialidades técnicas, las vías para la formación de competencias blandas. Las Instituciones de Educación Superior (IES) de perfil tecnológico tienen como propósito la formación de ingenieros para que, de la mano de la ciencia, sean innovadores y brinden soluciones a los problemas de su ámbito de acción. Resulta obvio que el conocimiento matemático y el razonamiento lógico ayudan a formular modelos aplicables a diversos contextos [4]. Es por lo que el reto fundamental para dichas instituciones es cómo formar a esos ingenieros en ambientes propicios para el aprendizaje. La ingeniería y la innovación van de la mano; ambas se complementan en la práctica profesional del ingeniero. A través de la historia reciente, la innovación y la ingeniería han mantenido un papel protagónico en las revoluciones industriales y en el siglo XXI en la llamada “cuarta revolución industrial” o industria 4.0; en todas ellas la ingeniería ha sabido evolucionar, diversificarse y adaptarse en ambientes técnicos y tecnológicos cambiantes aportando variedad de soluciones, tanto en productos como en servicios [5]. De acuerdo con varios autores “…el tema de la innovación viene convirtiéndose en un asunto sustancial para las empresas y por eso para las universidades” [6], constituyendo un binomio universidad-empresa que puede llevar a lograr beneficios en los ámbitos empresariales y educativos. No debe perderse de vista que los egresados de ingeniería se convierten en sujetos clave para operativizar estas acciones de innovación de las empresas y, en la medida que ellos se encuentren mejor preparados en las competencias asociadas a la innovación, aportarán mayores beneficios a las organizaciones en las que se encuentren laborando. Han existido diversas propuestas para que la formación en las denominadas “competencias transversales” en los estudiantes universitarios sean incluidas en los currículos; un ejemplo de esto lo constituye el Proyecto Tuning América Latina, el cual ha generado 27 competencias, entre ellas se pueden mencionar las siguientes: capacidad para organizar y planificar el tiempo, capacidad de comunicación oral y escrita, capacidad creativa, capacidad de trabajo en equipo, habilidad para trabajar en contextos internacionales, habilidad para trabajar en forma autónoma, capacidad para formular y gestionar proyectos, compromiso social [7]. De acuerdo con ese proyecto las competencias identificadas van más allá de las potencialidades de una disciplina, por lo que, su formación, deberá promoverse desde todos los programas de estudio. Para Jiménez las competencias transversales “…son aquellas que mayormente contribuyen a formar personas autónomas, capaces de tomar decisiones personales y profesionales, basadas en visiones sistémicas al momento de emitir juicios de valor” [8]. En este punto, acerca de las competencias transversales, se reconoce que, por lo general, los docentes de las ingenierías no son expertos en Pedagogía, sino en áreas técnicas especializadas, por lo cual el tratamiento de estas competencias transversales se genera de una manera espontánea y empírica, sin seguir la rigurosidad de una metodología diseñada para un desarrollo apropiado. Una manera efectiva de abordar las competencias en innovación desde los planes de estudio es por medio de su formación y desarrollo de manera transversal. No se puede negar que, para obtener un egresado competente, es fundamental el acompañamiento del docente a lo largo de su formación ingenieril. Siendo de esa manera, que se genera lo que se puede llamar como la “transferencia” de competencias técnicas o duras del docente hacía el estudiante; además, se tiene el desarrollo de competencias blandas, que, para su configuración, en concreto para las competencias en innovación, entra en acción el rol del docente como mediador en el proceso de enseñanza-aprendizaje y, es ese rol el que puede hacer la diferencia en el perfil del egresado. Se está hablando, entonces, acerca de las competencias de innovación cuya conformación tiene fuentes multidisciplinarias que hacen complejo su estudio, desde su origen, formación, desarrollo y muestras de comportamientos de la competencia lograda. Todos hablan de la necesidad de formar esas competencias, sin embargo, no es fácil encontrar metodologías o estrategias para que puedan ser utilizadas por el docente para enriquecer su rol mediador. No se puede soslayar la perspectiva del estudiante actual, que piensa y se comporta muy diferente al estudiante de años pasados; como lo menciona Parra “…se manifiesta polifacético y con capacidades para la ubicuidad (puede hacer varias cosas al mismo tiempo), sin que se limiten sus capacidades…” [9]. Esto obliga al diseño de metodologías de enseñanza flexibles a las nuevas características de los estudiantes. Un indicador del nivel de innovación de un país lo constituye la producción de patentes. En el caso de El Salvador ésta es muy baja lo que evidencia un bajo nivel en innovación. Esto lleva a pensar, por un lado, que el país es consumidor de tecnología generada en otros países, lo cual es un problema macro de nación y, por otro lado, a la innovación no se le da tratamiento en su justa dimensión desde la formación universitaria, que sería un problema micro de interés para futuras investigaciones. De la presente investigación se pueden derivar aspectos relevantes para el programa de Ingeniería Industrial de la Universidad Don Bosco como son: el tratamiento o no de las competencias en innovación, la existencia de estrategias de los docentes para la formación de dichas competencias a lo largo de la carrera, la disposición de herramientas didácticas destinadas a potenciar dicha formación, la receptividad de los estudiantes ante los esfuerzos en la formación de competencias en innovación. De las anteriores formulaciones se pueden proponer elementos de investigación como los siguientes: Planteamiento del Problema de Investigación ¿Cómo sustentar la formación de competencias para la innovación en estudiantes de la carrera de Ingeniería Industrial de la Universidad Don Bosco? Objetivo General Proponer las bases teóricas y metodológicas que sustenten los procesos de formación de competencias para la innovación en estudiantes de Ingeniería Industrial en la UDB. Preguntas de Investigación ¿Cuáles son los referentes teóricos que permiten conceptualizar las competencias para la innovación en estudiantes de Ingeniería Industrial? ¿Cuál es la situación actual de la formación, desde el proceso de enseñanza-aprendizaje, de las competencias para la innovación en estudiantes de Ingeniería Industrial en la UDB? ¿Qué bases teóricas y metodológicas sustentan el proceso de enseñanza-aprendizaje de las competencias para la innovación en estudiantes de Ingeniería Industrial en la UDB? 2. JUSTIFICACIÓN Lo que espera la sociedad de todo egresado de una Institución de Educación Superior es que sea una persona que aporte proactivamente a la solución de problemas dentro de su ámbito de especialización con un pensamiento que acoja diversas alternativas para encontrar la más conveniente. De acuerdo con Ovallos, la sociedad “…demanda la necesidad de formar estudiantes capaces de aprender a aprender, innovar, generar productos y respuestas eficaces” [10]. Para que esto se cumpla los programas de estudio necesitan de condiciones que propicien aprendizajes contextualizados al nuevo perfil de los estudiantes, además de dotar a los docentes de metodologías de enseñanza que se ajusten a estas nuevas características. Aquellos estudiantes insertados después como profesionales en el mundo productivo deben demostrar capacidad para innovar. Para Vila las personas que participen en sus lugares de trabajo en actividades relacionadas a la innovación son aquellas que han desarrollado competencias específicas durante sus estudios [11]. De acuerdo con lo descubierto por Pérez-Peñalver en una revisión de la literatura generada alrededor del tema de innovación, se reconoce que los empleados son sus impulsores cruciales [12]; además, se admite que ella es una determinante clave para la competitividad de las empresas, lo cual indica que las empresas que cuenten con personas innovadoras tendrán una ventaja competitiva sostenible. En la referida revisión se encontró que varios académicos han observado que el comportamiento innovador individual se ha subestimado durante mucho tiempo y, por tanto, hay necesidad de más investigaciones. Lo citado anteriormente respalda la preocupación por enfocarse en las competencias en innovación en los estudiantes de Ingeniería Industrial. De acuerdo con lo citado con anterioridad, las competencias en innovación son fundamentales para todo ingeniero y aún más para el ingeniero industrial, quien es llamado a brindar respuestas innovadoras a los problemas de una creciente demanda en un mundo globalizado. A pesar de las demandas del mundo laboral, de acuerdo con Muñoz-La Rivera “…no se ha estudiado ampliamente la visión desde los entornos formativos, respecto a la formación de estas competencias en los estudiantes universitarios de ingeniería” [13]. Para El Salvador también aplica esta afirmación al no encontrar evidencias de un tratamiento curricular y didáctico estructurado para la formación de competencias en innovación. Para proponer cambios en la manera de desarrollar competencias para la innovación es necesario profundizar en el conocimiento de cómo se hacen las cosas en este momento, de cómo los docentes contemplan la innovación, de cómo los estudiantes aprenden y ponen en práctica lo que aprenden, de cómo los planes de estudio dan tratamiento a la innovación. Al nivel salvadoreño no se han encontrado investigaciones que se dediquen a las competencias en innovación en Ingeniería Industrial, por lo tanto, esta investigación tiene la expectativa de brindar aportes al desarrollo de las referidas competencias para los nuevos ingenieros industriales y para que se tomen en cuenta en los futuros diseños curriculares. 3. DESARROLLO Es necesario iniciar con los conceptos de competencia y de innovación en el sentido amplio hasta llegar a lo que se puede entender por “competencias para la innovación. Fundamentos teóricos En cuanto a lo que se entiende por “competencia” se tienen los aportes de varios autores como es el caso de Villa y Poblete [14] para quienes una competencia “supone la integración de una serie de elementos (conocimientos, técnicas, actitudes, procedimientos, valores) que una persona pone en juego en una situación problemática concreta demostrando que es capaz de resolverla”. De acuerdo con Keinänen [15] “una competencia está formada por un conjunto de capacidades y éstas, a su vez, están formadas por varias habilidades, todas ellas requeridas para un desempeño profesional más complejo”. Para Marín-García et., 2013 una competencia está formada por varias capacidades, y éstas a su vez, por un conjunto de habilidades, las cuales son puestas en práctica durante la vida profesional [16]. Respecto a las habilidades, Petrovski las define como: “…el dominio de un complejo sistema de acciones psiquicas y prácticas necesarias para una regulación racional de la actividad con la ayuda de los conocimientos y hábitos que la persona posee” [17]. Lo cual significa que para que una persona demuestre habilidad en la realización de una tarea deberá hacer uso de los conocimientos y experiencias previas que posea acerca de esa tarea y darle solución de acuerdo a lo que sabe hacer. De acuerdo con lo que estos investigadores plantean, la competencia se revela de forma integrada por los componentes cognitivo, actitudinal y procedimental, es una movilización y una combinación efectiva de recursos con que cuenta la persona dentro de situaciones que demandan respuestas concretas, es decir que la competencia deberá evidenciarse en un producto (tangible o intangible) o en un proceso útil. No se puede ignorar que para la formación de las competencias interactuan además de las instituciones educativas, otros elementos como la sociedad en general, el sector empresarial, la familia y la persona [18]; lo que indica que la formación de las competencias es un proceso complejo que demanda procesos de intervención complejos. De acuerdo con Díaz y Guambi en el año de 1934 Schumpeter definió la innovación como “…la introducción en el mercado de un nuevo producto o proceso, capaz de aportar algún elemento diferenciador, la apertura de un nuevo mercado o el descubrimiento de una nueva fuente de materias primas o productos intermedios” [19]. Como puede notarse en esta definición se toma en cuenta la competitividad empresarial como fuente de búsqueda de la innovación, lo cual es aplicable hasta nuestros días. Se deberá tomar en cuenta que esa competitividad empresarial se origina en cada uno de sus empleados [20], debido a que ellos son los impulsores de los esfuerzos en innovación. De acuerdo con varios investigadores [21] [22], la innovación comienza con generar ideas y termina con implementarlas. Otra definición de innovación es la presentada por Marín-García quienes después de una amplia revisión bibliográfica indican que: “La definición de innovación es un concepto maduro sobre el que los investigadores han llegado a un consenso. Se puede considerar innovación al proceso que permite la introducción de un nuevo producto o servicio, métodos de producción, aperturas de nuevos mercados, cambios de proveedores, modelos de negocio o modelos de gestión que son percibidos por la organización como novedosos en la búsqueda de mejoras. desempeño por o dentro de la organización” [23]. Como puede observarse, esta definición tiene como base la demanda de necesidades y competitividad, conceptos que son ampliamente aplicados en la vida profesional del ingeniero industrial. Un referente actual para las actividades de innovación es el Manual de Oslo, en donde se encuentra un concepto de innovación que ha ido ajustándose a lo largo de sus cuatro ediciones. Para su última edición del año 2018, la definición de innovación es la siguiente: “…un producto o proceso nuevo o mejorado (o una combinación de ambos) que difiere significativamente de los productos o procesos anteriores de la unidad y que se ha puesto a disposición de los usuarios potenciales (producto) o puesto en uso por la unidad” [24]. Esta definición involucra varias categorías de innovación como son: innovación de productos, innovación de procesos e innovación en mercados. Cada una de estas áreas son de total competencia del ingeniero industrial. Las innovaciones de productos se refieren a bienes o a servicios tanto nuevos como mejorados. Las innovaciones de procesos implican cambios en los métodos de producción o en la generación de servicios. También la definición incluye al usuario por ser éste a quien se le ofrecen nuevas alternativas de solución a sus necesidades. En el referido Manual de Oslo [25] se reconoce que la subjetividad es lo que hace a la innovación compleja en su origen, aunque su aplicación posee componentes objetivos y comparables en la novedad y la utilidad de la innovación. En cuanto a la subjetividad de la innovación, se está hablando de aspectos de la personalidad, cognitivos, motivacionales, estilos de aprendizaje que cada persona le imprime al sujeto innovado. Estos procesos caben en lo que se da por llamar “diferencias individuales” [26], las cuales deberán tomarse en cuenta durante los procesos de formación de la persona. De ahí la importancia de incluir las diferencias individuales en las didácticas orientadas al desarrollo de las competencias para la innovación, ya que se trata de procesos singulares e irrepetibles. Es oportuno mencionar lo que indica Díaz y Guambi en cuanto a que la innovación es parte del mundo empresarial, el cual está a la búsqueda de elementos diferenciadores que le procuren ventajas competitivas en los mercados [27]. Otro concepto que se encuentra en la misma línea es el expuesto por Varela, como se citó en Ampuero et al., en cuanto a que la innovación es el proceso que integra conceptos, ideas, modelos y prototipos para ofrecerlos a los clientes en un mercado [28]. Los referidos autores agregan que se deben reunir determinados requisitos para la generación de la innovación como lo son: un conocimiento del mercado, poseer una mentalidad práctica y aplicar un enfoque empresarial. Estos últimos elementos son de relevancia para el ingeniero industrial, tanto en su formación como en lo que se espera de él en el mundo empresarial. En este punto es relevante mencionar lo que indica Bouwen: “…la innovación es una redefinición del problema en su esencia” [29]. Es importante acotar que el ingeniero industrial genera un impacto social al ser un generador e implementador de alternativas de solución a diversos problemas que pueden abarcar desde lo social hasta lo empresarial y, no necesariamente, en empresas grandes sino también en micro, pequeñas o medianas empresas. Es ilustrativo lo que se encuentra en el Plan de Estudio 2017- 2021 de Ingeniería Industrial [30] en lo referente a las competencias sociales que debe tener todo graduado: “Comprende los roles y responsabilidades de un profesional de la Ingeniería en la sociedad, especialmente el rol de proteger a la población y el interés público” y, “comprender el impacto que la Ingeniería tiene sobre las aspiraciones de la sociedad, en los ámbitos ambiental, económico, social, de salud, de seguridad, legal y cultural, de las incertidumbres en la predicción de tales impactos y los conceptos de desarrollo sostenible y la gestión ambiental” [30]. Ahora bien, la capacidad para innovar forma parte de las llamadas “competencias profesionales” en las cuales confluyen varios elementos de acuerdo con lo presentado por Delors en el compendio “La educación encierra un tesoro” preparado para la UNESCO en 1997, como se encuentra en Molina [31]. En este último documento se abordan cuatro cualidades que son consideradas básicas para dichas competencias. Esas cualidades son: aprender a conocer, aprender a hacer, aprender a ser y aprender a convivir. Aprender a conocer abarca el desarrollo de habilidades cognoscitivas; aprender a hacer comprende las habilidades de naturaleza práctica; aprender a ser se refiere a los valores de la persona y aprender a convivir comprende las maneras de comportarse de la persona con su entorno social. En la revisión de literatura que trata el tema de la innovación es frecuente encontrar el uso de los conceptos de innovación y de creatividad como sinónimos o una aplicación indistinta de ambos conceptos, lo cual genera cierta confusión. A continuación, se presentan las posiciones de diversos autores. Académicos como Cerinšec y Dolinšek están de acuerdo en definir a la creatividad como el proceso y capacidad mental de generar nuevas ideas, aunque no tengan una aplicabilidad concreta [32]. En cambio, otros autores apoyan la idea que la creatividad es el proceso de generación de ideas creativas y la innovación es la implementación exitosa de esas ideas [33], lo cual lleva a varios académicos a apoyar que la creatividad es la base de la innovación [34] [35] [36]; sin embargo, habrá que acotar que toda innovación requerirá de creatividad, pero la creatividad no llevaría necesariamente a una innovación [37]. De acuerdo con la revisión de literatura, la innovación es un concepto amplio [38] [39] que abarca la generación de nuevas ideas, o sea la creatividad, así como a la implementación o aplicación de esas ideas [40] [41]. Otro autor que esta en esa linea es Baer quien plantea que la creatividad no es solamente la generación de ideas sino tambien que estas ideas sean novedosas y de utilidad [42]. Para los investigadores Marín-García et al., la innovación es la introducción de una novedad que puede ser una idea, un método, un dispositivo, una invención o un proceso, o la mejora de algo ya existente que debe ser útil a las personas u organizaciones como valor agregado para satisfacer sus necesidades [43]. Para otros académicos [44] la creatividad y la innovación son parte de las competencias transversales que permiten transformar además del contexto, a los mismos estudiantes, debido a que la creatividad les permite la generación de nuevas ideas y la innovación les habilita para tomar una idea concreta y aplicarla con éxito. Asimismo, en cuanto a la aplicabilidad más conveniente de los conceptos de creatividad y de innovación en la Ingeniería Industrial se puede hablar de un proceso de innovación que conduzca a productos o servicios de utilidad, mediante un adecuado proceso creativo, entendiendo que la creatividad es parte del proceso de innovación; esto último es apoyado por Anderson et al, [45]. Ese proceso creativo debe quedar sustentado en el grado de conocimiento que se posea. A partir de ese conocimiento pueden surgir ideas creativas que deriven en acciones de innovación que puedan materializarse en un producto o servicio. A este nivel es oportuno definir qué se debe entender por “competencias para la innovación”. Sobre la base de una amplia revisión de literatura especializada, los autores Pérez-Peñalver et al., las definen como: “… la habilidad para crear, introducir, adaptar y/o aplicar novedades beneficiosas en cualquier nivel de la organización” [46]. Los autores del presente artículo consideran que una definición apropiada de competencias para la innovación que abarque aquellos elementos representativos de la Ingeniería Industrial podría ser la siguiente: “…es la capacidad del profesional de desarrollar soluciones creativas, económicas, funcionales y sustentables a cualquier problemática que requiera de la transformación de un producto, proceso o fenómeno, con vistas a la mejora de su calidad, eficiencia y competitividad, incluyendo la transferencia de tecnología a un nuevo contexto”. Además de esos indicadores, para que se evidencien esas competencias es conveniente contar con ciertos factores de contexto como los siguientes: a) que la universidad viva una cultura de innovación, b) poseer infraestructura tecnológica orientada a la innovación, c) aplicación de herramientas didácticas orientadas a la innovación y d) apertura de las empresas a los proyectos estudiantiles. En esta línea se encuentran autores como Banda [47] quien sostiene que la interacción entre personas e instituciones es fundamental para el proceso innovador llegándolo a llamar “ecosistema de innovación” y Díaz y Guambi [48] quienes sostienen que: “.. la innovación, tan valorada en el sector empresarial, no puede llevarse a cabo por sí sola”. Esa misma necesidad de interrelación se encuentra en el Manual de Oslo [49] pero bajo el nombre de sistema de innovación. Ahora bien, es importante enfatizar acerca de la necesidad de las universidades de fortalecer la didáctica para la innovación, que involucre la selección de adecuados contenidos, métodos de enseñanza y medios de enseñanza que fomenten la innovación, además de sistemas de evaluación de los aprendizajes que permitan evidenciar los avances de los estudiantes. Estado de la Cuestión En una revisión bibliográfica acerca de investigaciones que abordan las competencias de innovación se tiene la publicación de Jiménez con la investigación del desarrollo de las competencias transversales de creatividad, innovación y solución de problemas en estudiantes de ingeniería del Instituto Politécnico Nacional de México [50]; especificamene para la competencia de innovación se identifican las siguientes subcompetencias asociadas: creatividad, espíritu emprendedor, toma de decisiones, capacidad de transferencia a otros contextos, liderazgo y negociación. A partir del modelo educativo de la institución, se propone un modelo para el desarrollo de las competencias transversales de creatividad, innovación y solución de problemas. Dicho modelo contempla el trabajo interdisciplinario de los docentes tomando en cuenta que en ellos recae la responsabilidad de formar a los futuros profesionales para que se desempeñen con éxito en el campo laboral, lo cual coincide con la pretensión de la presente investigación, es decir, contribuir, desde el proceso de enseñanza-aprendizaje a la formación de competencias para la innovación. De acuerdo con la investigación de Muñoz-La Rivera et al., quienes identificaron, mediante una revisión de literatura, desde el año 2000 al 2021, las características de innovación de los ingenieros para enfrentar la revolución industrial 4.0 y los Objetivos de Desarrollo Sostenible [51], proponen un modelo para la construcción de las competencias de innovación. Para ello, identifican veinte atributos del innovador: adaptable y flexible, buscador de alternativas múltiples, experimentador, integrador de conocimientos, con conocimiento profundo, curioso por hacer y aprender, comunicador, responsable, persistente, apasionado, colaborador e integrador, creativo, arriesgado, visionario, desafiante, líder y gestor de equipo, implementador, analítico, con inteligencia de negocios y centrado en el usuario. Plantean los autores que, para la formación de estas características para la innovación se deben tomar en cuenta las competencias blandas y las competencias tecnológicas. Las veinte características de innovación son agrupadas en cuatro categorías de habilidades: 1) técnicas o prácticas, 2) interpersonales o sociales, 3) de razonamiento, y 4) de gestión o negocios. Todas ellas conforman el modelo. Finalmente, los autores recomiendan retomar estos elementos para los rediseños curriculares. Por medio de una investigación-acción en los años 2017 y 2018, el equipo de investigadores liderado por Sologuren trabajó en el diseño y aplicación de un modelo de aprendizaje activo en el curso “Introducción a la Ingeniería” del plan común de ingeniería y ciencias, para fortalecer las competencias genéricas [52]. En específico, el estudio partió de tres pilares: a) innovación en metodologías docentes, b) desarrollo y seguimiento de las competencias genéricas de innovación y comunicación, y c) reflexión pedagógica en los equipos docentes. Como parte de los resultados se diseñaron y aplicaron una serie de estrategias y recursos de aprendizaje activo, para lo cual se contó con el trabajo colaborativo de los docentes de ingenería y de ciencias. De acuerdo a los resultados de la encuesta administrada a más de 800 estudiantes de nuevo ingreso del año 2018 los resultados fueron satisfactorios al constatar una buena aceptación por parte del estudiantado. Desde la perspectiva de los docentes, se constató la importancia de hacer uso de espacios para la reflexión de las prácticas docentes y de esa manera estimular el análisis y transformación de un macro y micro currículo. Buscando profundizar en cómo medir las competencias en innovación en estudiantes universitarios el equipo de investigadores de Keinänen desarrolló un modelo de cinco dimensiones [53]. Aplicaron el instrumento de medición a una muestra de 495 estudiantes pertenecientes a cuatro universidades finlandesas de ciencias aplicadas. Las cinco dimensiones son: resolución creativa de problemas, pensamiento sistémico, orientación a la meta, trabajo en equipo y trabajo en red. Para estas dimensiones se construyeron 25 enunciados distribuidos de la siguiente manera: 7 para la dimensión resolución creativa de problemas, 6 para el pensamiento sistémico, 6 para la orientación a la meta, 3 para el trabajo en equipo y 3 para el trabajo en red. Con esto se construyó un cuestionario para que los estudiantes se lo aplicaran como autoevaluación. Un instrumento para la medición de las competencias en innovación en estudiantes universitarios es presentado en Watts et al. [54] cuya base es el Modelo de Construcción de Competencias de Innovación basado en Penttilä (2011; 2012) conformado por tres aspectos: individual, interpersonal y trabajo en red. Para la construcción del instrumento se convocó la participación de gerentes de recursos humanos y académicos experimentados en evaluación. Después del proceso de depuración, el instrumento quedó conformado por 25 enunciados distribuidos de la siguiente manera: 12 enunciados para la dimensión individual, 8 para la categoría interpersonal y 5 para el trabajo en redes. En el año 2009, Jeffrey Dyer de la Universidad Brigham Young, junto con Hal Gregersen y Clayton Christensen de la la Escuela de Negocios de Harvard publican los resultados de su investigación “El ADN del Innovador”, para conocer cómo los emprendedores innovadores se diferencian de los ejecutivos tradicionales. El estudio revela cinco habilidades que distinguen a las personas más creativas e innovadoras: asociar, por medio de la asociación se conectar preguntas, ideas o problemas que aparentemente no guardan relaciones; el cuestionamiento, aquí se trata de hacer las preguntas correctas que desafíen el status quo; la observación, es buscar pequeños detalles de manera cuidadosa y coherente en las actividades de los clientes, proveedores y empresas, para obtener información sobre nuevas formas de hacer las cosas; la experimentación, se trata de explorar el mundo y vivir nuevas experiencias; y por último, las redes, en donde se crean redes con diversas personas tanto en su origen como en perspectivas diferentes [55]. Posicionamiento Crítico El papel de la innovación como competencia transversal es de indiscutible importancia para la formación de los ingenieros industriales quienes estarían en mayor disponibilidad de aportar a un engranaje social y empresarial altamente competitivo con base a sus diversos ámbitos de acción. En parte, esto es respaldado por Tito y Serrano [56] al mencionar los siguiente: “Es importante que desde las universidades se prepare a los estudiantes en habilidades blandas para que éstos egresen con herramientas que agreguen una ventaja diferenciadora que les permita competir en el mercado laboral, conseguir buenos empleos, obtener buenas remuneraciones, y en general mantener un elevado sentido de bienestar consigo mismo y en distintos ámbitos de su vida”. Al nivel internacional se habla desde hace varios años de la necesidad de realizar cambios en la educación de la ingeniería, que no se continúe practicando un enfoque primordialmente técnico, sino que se dé cabida a las competencias transversales como la innovación, comunicación, gestión del tiempo, ética, entre otras, que son el complemento en el perfil de egreso del profesional que necesitan las organizaciones y la sociedad en general. Acerca de esto, es muy representativo lo que señalan Vélez et al.: “La formación basada en las ciencias de la ingeniería y en los cursos propios de una especialidad es un modelo limitado para la formación del ingeniero del siglo XXI; no confiere al egresado las actitudes y habilidades que el actual escenario mundial exige en la práctica de la ingeniería. El profesional se enfrenta a un contexto laboral caracterizado por la alta competitividad y regido por la innovación” [57]. A pesar de que el Plan de Estudio 2017 de Ingeniería Industrial de la Universidad Don Bosco(UDB) es declarado bajo el enfoque basado en competencias (EBC), no se tienen evidencias documentales del grado de incidencia en la formación y desarrollo de las competencias para la innovación en sus estudiantes y egresados, ni se explican estrategias concretas de carácter didáctico encaminadas a la formación de dichas competencias. Al nivel salvadoreño, existen todavía planes de estudio muy tradicionalistas, en los cuales predominan procesos de enseñanza-aprendizaje que no contribuyen a la formación de competencias para la innovación. Asimismo, los docentes carecen de estrategias para la formación de estas competencias. Por una parte, las universidades no complementan la formación de los docentes en ingeniería con apropiadas prácticas pedagógicas y, por otra parte, algunos docentes en ingeniería se mantienen limitados a sus saberes técnicos, dejando relegada, por falta de conocimiento, la formación de competencias para la innovación. Es por todo ello, que esta investigación reviste una importancia única para fortalecer las prácticas dentro del proceso de enseñanza-aprendizaje de la Ingeniería Industrial en cuanto a las competencias de innovación se refiere. Selección de subcompetencias para la innovación Para seleccionar las subcompetencias para la innovación que se utilizarán en la presente investigación se tomó como punto de partida el perfil profesional del ingeniero industrial de la UDB, el cual reza de la siguiente manera: “El ingeniero industrial graduado de la Universidad Don Bosco, es el profesional que diseña, implementa, administra, mejora, y optimiza los sistemas productivos de bienes y/o servicios gestionando los recursos humanos, tecnológicos y financieros. Además, el ingeniero industrial de la Universidad Don Bosco, se integra al trabajo de equipos multidisciplinarios, actualizándose permanentemente y desenvolviéndose con actitud emprendedora, mostrando valores éticos en su relación con las personas y con el medio ambiente, con vocación de servicio a la sociedad a partir del carisma salesiano, contribuyendo al progreso social y económico del país.” [58]. De acuerdo con la revisión a los modelos de competencias para la innovación citados en el estado de la cuestión, los cuales se presentan en manera consolidada y comparativa por autor en la Tabla 1, se procedió a identificar aquellos elementos para la innovación que se encontrasen reflejados en perfil profesional del ingeniero industrial de la Universidad Don Bosco. Estos elementos o subcompetencias identificadas son: creatividad, actitud emprendedora, liderazgo, valores éticos, trabajo en equipo y trabajo en red. Para el anterior trabajo se ha tomado en cuenta la investigación de Onwuegbuzie [59] en la cual presentan los pasos para la generación de una propuesta y validación de rúbrica de evaluación de competencias. El primer paso que estos investigadores proponen consiste en conceptualizar el constructo de interés que para esta investigación son los seis mencionados antes: creatividad, actitud emprendedora, liderazgo, valores éticos, trabajo en equipo y trabajo en red. La vinculación de cada uno de estas subcompetencias con el perfil profesional del ingeniero industrial se muestra en la Fig. 1. A pesar de los diferentes esfuerzos por acotar apropiadamente los elementos que conforman la competencia de innovación, como puede verse a manera de ejemplo en la Tabla 1, se evidencia la diversidad de criterios para tal fin. De acuerdo con autores como Watts et al. y su equipo en la mayoría de casos, la adquisición de conocimientos, habilidades y actitudes se infiere, pero no se evalúan adecuadamente; lo cual es una expresión de la problemática generalizada en los contextos univesitarios en cuanto a la exigencia de desarrollar la competencia para la innovación en los estudiantes, pero no se muestran de manera concreta aquellos elementos que la conforman ni cómo desarrollarlos [60]. El segundo paso de acuerdo con la investigación de Onwuegbuzie y su equipo [61] consiste en identificar y describir los comportamientos que subyacen al constructo, lo cual se ha trabajado en la Tabla 2. Por supuesto que las manifestaciones de estas subcompetencias no necesariamente se presentan de manera secuencial, sino que se dan dentro de una interacción compleja para que tributen a la innovación. Como sucede con otras competencias, la competencia para la innovación esta conformada de varias subcompetencias, y cada una de éstas conformada por varias habilidades que en su conjunto definen adecuadamente un desempeño. Para cada una de las seis subcompetencias identificadas en el perfil profesional del ingeniero industrial de la Universidad Don Bosco se proponen ciertas habilidades. A manera de ejemplo, como puede verse en la Tabla 2, para la subcompetencia creatividad, las siguientes habilidades que debe mostrar la persona para contribuir a la innovación son: generación de ideas originales, diseño de soluciones a problemas y proponer mejoras en productos o servicios. De similar manera se explican las subcompetencias liderazgo, valores éticos, actitud emprendedora, trabajo en equipo y trabajo en red. Tabla 1: Elementos que caracterizan a la innovación según diferentes autores Figura 1: Extracción de las subcompetencias para la innovación a partir del perfil profesional del ingeniero industrial de la Universidad Don Bosco Tabla 2: Propuesta de habilidades que conforman las subcompetencias para la innovación en estudiantes de Ingeniería Industrial Conclusiones A manera de conclusión se puede resaltar que el desarrollo de las competencias para la innovación es un asunto complejo pero necesario para la formación del estudiante y futuro profesional en ingeniería industrial. Se evidencia que existen diversos esfuerzos para conformar aquellos elementos que alimenten a la innovación; a pesar de ello no se tiene una manera concensuada de hacerlo. La propuesta de habilidades que conforman las subcompetencias para la innovación en estudiantes de Ingeniería Industrial en base al perfil profesional del graduado de ingeniería industrial de la Universidad Don Bosco es un ejemplo de lo que puede llegarse a trabajar para ir unificando los criterios que sirvan para el trabajo curricular a nivel universitario, lo anteror abre las puertas a futuras investigaciones. REFERENCIAS 1. CIMATTI, BARBARA. “Definition, development, assessment of soft skills and their role for the quality of organizations and enterprises”. International Journal for Quality Research, 2016, vol 10, núm.1, pp.97- 130. Obtendido de http://www.scielo.org.mx/pdf/ride/v9n18/2007-7467-ride-9-18-768.pdf 2. NERI, Juan; HERNANDEZ, Claudia. “Los jóvenes universitarios de ingeniería y su percepción sobre las competencias blandas”. Revista Iberoaméricana para la Investigación y el Desarrollo Educativo, 2019, vol 9, núm. 18. Obtenido de http://www.scielo.org.mx/pdf/ride/v9n18/2007-7467-ride-9-18-768.pdf 3. VÉLEZ, JUAN MANUEL; BENJUMEA, PEDRO NEL; CASTRO, KAREM JOHANNA; RIOS, DIANA CAROLINA. “Estrategia de Innovación en Educación en Ingeniería”. Universidad Nacional de Colombia, 2017. Obtenido de https://alejandria-d.unal.edu.co/xmlui/handle/123456789/67 4. PARRA, JOSÉ; AMARILES, MAURICIO; CASTRO, CARLOS. “Aprendizaje basado en problemas en el camino a la innovación en ingeniería”. Revista Ingenierías USBMed, 2016, vol 7, núm. 2, pp. 96-103. Obtenido de https://dialnet.unirioja.es/servlet/articulo?codigo=6007713 5. GARCÍA-PEÑALVO, FRANCISCO; SARASA, ANTONIO; SIERRA, JOSÉ. “Innovando en los procesos de ingeniería. Ingeniería como medio de innovación”. Revista VAEP RITA, 2014, pp.26-28. Obtenido de https://gredos.usal.es/bitstream/handle/10366/123349/GRIAL_GarciaPenalvo_VAEP- RITA_2014_V2_N1_A5.pdf?sequence=1&isAllowed=y 6. PARRA, JOSÉ; AMARILES, MAURICIO; CASTRO, CARLOS. “Aprendizaje basado en problemas en el camino a la innovación en ingeniería”. Revista Ingenierías USBMed, 2016, vol 7, núm. 2, pp. 96-103. Obtenido de https://dialnet.unirioja.es/servlet/articulo?codigo=6007713 7. JIMÉNEZ, YASMIN. “¿Cómo desarrollar competencias de creatividad e innovación en la educación superior? Caso: carreras de ingeniería del Instituto Politécnico Nacional”. Revista Iberoaméricana para la Investigación yel Desarrollo Educativo, vol 9, núm. 18, pp. 356-376. Obtendido de http://www.scielo.org.mx/scielo.php?pid=S2007-74672019000100356&script=sci_abstract 8. JIMÉNEZ, YASMIN. “¿Cómo desarrollar competencias de creatividad e innovación en la educación superior? Caso: carreras de ingeniería del Instituto Politécnico Nacional”. Revista Iberoaméricana para la Investigación yel Desarrollo Educativo, vol 9, núm. 18, pp. 356-376.Obtenido de http://www.scielo.org.mx/scielo.php?pid=S2007-74672019000100356&script=sci_abstract 9. PARRA, JOSÉ; AMARILES, MAURICIO; CASTRO, CARLOS. “Aprendizaje basado en problemas en el camino a la innovación en ingeniería”. Revista Ingenierías USBMed, 2016, vol 7, núm. 2, pp. 96-103. Obtenido de https://dialnet.unirioja.es/servlet/articulo?codigo=6007713 10. OVALLOS, DAVID; MALDONADO, DOYREG; DE LA HOZ, SANDRA. “Creatividad, innovación y emprendimiento en la formación de ingenieros en Colombia. Un estudio prospectivo”. Revista de Educación en Ingenieria, 2015, vol 10, núm. 19, pp. 90-104. Otenido de 11. VILA, L.; PEREZ, P.; MORILLAS, F. “Higher education and the development of competencies for innovation in the workplace”. Management Decision, 2012, vol 50, núm. 9, pp. 1637-1648. 12. PÉREZ-PEÑALVER, MARÍA; AZNAR-MAS, LOURDES; MONTERO-FLETA, BEGOÑA. “Identification And Classification of Behavioural Indicators to AssessInnovation Competence”. Journal of Industrial Engineering and Management, 2018, vol 11, núm. 1, pp. 87-115. Obtenido de https://www.jiem.org/index.php/jiem/article/view/2552/841 13. MUÑOZ-LA RIVERA, F., HERMOSILLA, P., DELGADILLO, J., & ECHEVERRÍA, D. “Propuesta de construcción de competencias de innovación en la formación de ingenieros en el contexto de la industria 4.0 y los objetivos de desarrollo sostenible (ODS)”. Formación universitaria, 2021,vol 14, núm. 2, pp. 75- 84. Obtenido de doi:http://dx.doi.org/10.4067/S0718-50062021000200075 14. VILLA, A;POBLETE, M. “Evaluación de competencias genéricas: principios, oportunidades y limitaciones”. Revista de pedagogía,2011, vol 32, núm. 1, pp. 147-170. Obtenido de https://dialnet.unirioja.es/servlet/articulo?codigo=3601062 15. KEINÄNEN, M.; URSIN, J.; NISSINEN, K. “How to measure students’ innovation competences in higher education: Evaluation of an assessment tool in authentic learning environments”. Education + training. 2018, vol 61, núm. 1, pp. 17-30. Obtenido de doi:https://doi.org/10.1016/j.stueduc.2018.05.007 16. MARÍN-GARCÍA, J., PÉREZ-PEÑALVER, M., & WATTS, F. “How to assess innovation competence in services: The case of university students”. Dirección y Organización, 2013, vol 50, pp. 48-62. Obtenido de https://revistadyo.es/DyO/index.php/dyo/article/view/43 17. PETROVSKI, A. Psicología general. La Habana: Editorial Pueblo y Educación, 1981. 18. TOBÓN, S. Formación basada en competencias. Pensamiento complejo, diseño curricular y didáctica. 2006 19. DÍAZ, G.; GUAMBI, D. “La innovación: baluarte fundamental para las organizaciones”. INNOVA Research Journal, 2018, vol 3, núm. 10.0, pp. 212-229. Obtenido de https://dialnet.unirioja.es/descarga/articulo/6792584.pdf 20. ANDERSON, N., POTOČNIK, K., & ZHOU, J. “Innovation and Creativity in Organizations: A State- of-the-ScienceReview, Prospective Commentary, and Guiding Framework.”. Journal of Management, 2014, vol 40, núm. 5, pp.1297-1333. Obtenido de https://doi.org/10.1177/014920631452 21. MARIN-GARCIA, J.; ARAGONÉS BELTRAN, P.; MELÓN, G. “Intra-rater and inter-rater consistency of pair wise comparison in evaluating the innovation competency for university students”. Working Papers on Operations Management, 2014, vol 5, núm. 2, pp. 24-46. Obtenido de http://dx.doi.org/10.4995/wpom.v5i2.3220 22. PERELLO-MARIN, M; MARIN-GARCIA, J.; MARCOS-CUEVAS, J. “Towards a path dependence approach to study management innovation”. Management decision, 2016, pp. 1037-1046. Obtenido de doi:10 1l08/MD·08·2012·0605 23. MARÍN-GARCÍA, J., PÉREZ-PEÑALVER, M., & WATTS, F. “How to assess innovation competence in services: The case of university students”. Dirección y Organización, 2013, vol 50, pp. 48-62. Obtenido de https://revistadyo.es/DyO/index.php/dyo/article/view/43 24. ORGANIZACIÓN PARA LA COOPERACIÓN Y EL DESARROLLO ECONÓMICO [OECD]. Oslo Manual 2018: Guidelines for Collecting, Reporting and Using Data on Innovation. París/Luxembourg: Eurostat, 2018. 241 pp. ISBN 978-92-64-30460-4. 25. ORGANIZACIÓN PARA LA COOPERACIÓN Y EL DESARROLLO ECONÓMICO [OECD]. Oslo Manual 2018: Guidelines for Collecting, Reporting and Using Data on Innovation. París/Luxembourg: Eurostat, 2018. 241 pp. ISBN 978-92-64-30460-4 26. MARTÍNEZ, N. “Las diferencias individuales y el aprendizaje”. Diálogos, 2015, pp. 41-47. Obtenido de http://www.redicces.org.sv/jspui/bitstream/10972/2057/1/4.%20Las%20diferencias%20individuales%20y %20el%20aprendizaje.pdf 27. DÍAZ, G.; GUAMBI, D. “La innovación: baluarte fundamental para las organizaciones”. INNOVA Research Journal, 2018, vol 3, núm. 10.0, pp. 212-229. Obtenido de https://dialnet.unirioja.es/descarga/articulo/6792584.pdf 28. AMPUERO, F.; RAMOS, V.; SALGADO, F. “ “Competencias de innovación en entornos virtuales de aprendizaje basados en gestión del conocimiento”. Estudios de La Gestión: Revista Internacional de administración, 2020, núm. 7, pp. 222-250. Obtenido de https://doi.org/10.32719/25506641.2020.7.9 29. BOUWEN, R. “Developing relational practices for knowledge intensive organizational contexts. Career”. Development International, 2001, vol 6, núm. 7, pp. 361-369. Obtenido de https://doi.org/10.1108/EUM0000000006057 30. UNIVERSIDAD DON BOSCO. Plan de Estudio de Ingeniería Industrial 2017-2021 . Soyapango, El Salvador, 2016. 31. MOLINA, A.” La Competencia Profesional en el Ingeniero del Nuevo Milenio”. Revista Facultad de Ingeniería,, 2000, vol 8, pp. 65-71. Obtenido de https://www.redalyc.org/pdf/114/11400808.pdf 32. CERINŠEK, G.; DOLINŠEK, S. “Identifying employees’ innovation competency in organisations”. International Journal of Innovation and Learning, 2009, vol 6, núm. 2, pp. 164-177. Obtenido de https://doi.org/10.1504/IJIL.2009.022811 33. ANDERSON, N., POTOČNIK, K., & ZHOU, J. “Innovation and Creativity in Organizations: A State- of-the-ScienceReview, Prospective Commentary, and Guiding Framework.”. Journal of Management, 2014, vol 40, núm. 5, pp.1297-1333. Obtenido de https://doi.org/10.1177/0149206314527128 34. JANSSEN, O. “Job demands, perceptions of effort‐ reward fairness and innovative work behaviour.”. Journal of Occupational and Organizational Psychology, 2004, vol 73, pp. 287-302. https://doi.org/10.1348/096317900167038 35. NG, T.; FELDMAN, D.“A meta-analysis of the relationships of age and tenure withinnovation-related behaviour”. Journal of Occupational and Organizational Psychology, 2013, vol 86, pp. 585-616. Obtenido de https://doi.org/10.1111/joop.12031 36. NG, T.; FELDMAN, D. “ Age and innovation-related behaviour: The joint moderating effects ofsupervisor undermining and proactive personality”. Journal of Organizational Behaviour, 2013, vol 34, pp. 583-606. Obtenido de https://doi.org/10.1002/job.1802 37. PÉREZ-PEÑALVER, MARÍA; AZNAR-MAS, LOURDES; MONTERO-FLETA, BEGOÑA. “Identification And Classification of Behavioural Indicators to AssessInnovation Competence”. Journal of Industrial Engineering and Management, 2018, vol 11, núm. 1, pp. 87-115. Obtenido de https://www.jiem.org/index.php/jiem/article/view/2552/841 38. ANDERSON, N., POTOČNIK, K., & ZHOU, J. “Innovation and Creativity in Organizations: A State- of-the-ScienceReview, Prospective Commentary, and Guiding Framework.”. Journal of Management, 2014, vol 40, núm. 5, pp.1297-1333. Obtenido de https://doi.org/10.1177/0149206314527128 39. PATTERSON, F.; KERRIN, M.; GATTO-ROISSARD, G.; “Characteristics and behaviours of innovative people inorganisations “. NESTA, 2009. Obtenido de https://www.researchgate.net/publication/242102530_Characteristics_Behaviours_of_Innovative_People _in_Organisations 40. CARMELI, A.; MEITAR, R.; WEISBERG, J. “Self‐ leadership skills and innovative behaviour at work. International”. Journal of Manpower, 2004, vol 27, núm. 1, pp. 75-90. Obtenido de https://doi.org/10.1108/01437720610652853 41. JANSSEN, O. “Job demands, perceptions of effort‐ reward fairness and innovative work behaviour.”. Journal of Occupational and Organizational Psychology, 2004, vol 73, pp. 287-302. Obtenido de https://doi.org/10.1348/096317900167038 42. BAER, M. “Putting Creativity to Work: The Implementation of Creative Ideas in Organizations”. Academy of Management Journal, 2012, vol 55, núm. 5, pp. 1102-1119. Obtenido de https://doi.org/10.5465/amj.2009.0470 43. MARÍN-GARCÍA, JUAN; ANDREU, ANDRÉS; ATARES-HUERTA, LORENA; ANZAR-MASS, LOURDES; GARÍA-CARBONELL, AMPARO; GONZÁLEZ-LADRÓN-DE-GUEVARA, FERRNANDO; MONTERO, BEGOÑA; PERÉZ-PEÑALVER, M.; WATTS, FRANCES. “Proposal of a Framework for Innovation Competencies Development and Assessment (FINCODA)”. Working Papers on Operations Management, 2016, vol 7, núm. 2,pp. 119-126. Obtenido de https://polipapers.upv.es/index.php/WPOM/article/view/6472/6616 44 . ARIAS, C.; GIRALDO, D.,; ANAYA, L. “Competencia creatividad e innovación: conceptualización y abordaje en la educación”. Katharsis, 2013, vol 15, pp. 195-213. Obtenido de http://revistas.iue.edu.co/index.php/katharsis/article/view/245/0 45. ANDERSON, N., POTOČNIK, K., & ZHOU, J. “Innovation and Creativity in Organizations: A State- of-the-ScienceReview, Prospective Commentary, and Guiding Framework.”. Journal of Management, 2014, vol 40, núm. 5, pp.1297-1333. Obtenido de https://doi.org/10.1177/0149206314527128 46. PÉREZ-PEÑALVER, MARÍA; AZNAR-MAS, LOURDES; MONTERO-FLETA, BEGOÑA. “Identification And Classification of Behavioural Indicators to AssessInnovation Competence”. Journal of Industrial Engineering and Management, 2018, vol 11, núm. 1, pp. 87-115. Obtenido de https://www.jiem.org/index.php/jiem/article/view/2552/841 47. BANDA, H. “Innovación en la universidad: una visión sistemática”. VISUS-Revista Politécnica de desarrollo en innovación, 2017, vol 1, núm. 1, pp. 9-15. Obtenido de https://www.academia.edu/35883971/Innovacion_en_la_Universidad_Una_Vision_Sistemica 48. DÍAZ, G.; GUAMBI, D. “La innovación: baluarte fundamental para las organizaciones”. INNOVA Research Journal, 2018, vol 3, núm. 10.0, pp. 212-229. Obtenido de https://dialnet.unirioja.es/descarga/articulo/6792584.pdf 49. ORGANIZACIÓN PARA LA COOPERACIÓN Y EL DESARROLLO ECONÓMICO [OECD]. Oslo Manual 2018: Guidelines for Collecting, Reporting and Using Data on Innovation. París/Luxembourg: Eurostat, 2018. 241 pp. ISBN 978-92-64-30460-4. 50. JIMÉNEZ, YASMIN. “¿Cómo desarrollar competencias de creatividad e innovación en la educación superior? Caso: carreras de ingeniería del Instituto Politécnico Nacional”. Revista Iberoaméricana para la Investigación yel Desarrollo Educativo, vol 9, núm. 18, pp. 356-376. Obtenido de http://www.scielo.org.mx/scielo.php?pid=S2007-74672019000100356&script=sci_abstract 51. MUÑOZ-LA RIVERA, F., HERMOSILLA, P., DELGADILLO, J., & ECHEVERRÍA, D. “Propuesta de construcción de competencias de innovación en la formación de ingenieros en el contexto de la industria 4.0 y los objetivos de desarrollo sostenible (ODS)”. Formación universitaria, 2021,vol 14, núm. 2, pp. 75- 84. Obtenido de http://dx.doi.org/10.4067/S0718-50062021000200075 52. SOLOGUREN, E., NÚÑEZ, C., & GONZÁLEZ, M. “La implementación de metodologías activas de enseñanza-aprendizaje en educación superior para el desarrollo de las competencias genéricas de innovación y comunicación en los primeros años de Ingeniería”. Cuaderno de Pedagogía Universitaria, 2019, vol 16, núm.32, pp. 19-34. Obtenido de https://dialnet.unirioja.es/servlet/articulo?codigo=7006585 53. KEINÄNEN, M.; URSIN, J.; NISSINEN, K. “How to measure students’ innovation competences in higher education: Evaluation of an assessment tool in authentic learning environments”. Education + training. 2018, vol 61, núm. 1, pp. 17-30. Obtenido de https://doi.org/10.1016/j.stueduc.2018.05.007 54. WATTS, F.; MARIN-GARCIA, J.; GARCÍA, AMPARO; AZNAR-MAS, LOURDES. “ Validation of a rubric to assess innovation”. Working Papers on Operations Management, 2012, vol. 3, núm. 1, pp. 61-70. Obtenido de https://doi.org/10.4995/wpom.v3i1.1159 55. DYER, J.; GREGERSEN, H.; CHRISTENSEN, C. M. “The Innovator’s DNA”, 2009. Obtenido de https://hbr.org/2009/12/the-innovators-dna 56. TITO, M., & SERRANO, B. “ Desarrollo de soft skills una alternativa a la escasez de talento humano.”. INNOVA Research Journal, 2016, vol 1, núm. 12, pp. 59-76. Obtenido de https://dialnet.unirioja.es/servlet/articulo?codigo=5920579 57. VÉLEZ, JUAN MANUEL; BENJUMEA, PEDRO NEL; CASTRO, KAREM JOHANNA; RIOS, DIANA CAROLINA. “Estrategia de Innovación en Educación en Ingeniería”. Universidad Nacional de Colombia, 2017. Obtenido de https://alejandria-d.unal.edu.co/xmlui/handle/123456789/67 58. UNIVERSIDAD DON BOSCO. “Plan de Estudio de Ingeniería Industrial 2017-2021”.2016. . Soyapango, El Salvador 59. ONWUEGBUZIE, A. J., BUSTAMANTE, R., & NELSON, J. “Mixed Research as a Tool for Developing Quantitative Instruments”. Journal of Mixed Methods Research, 2010, vol 4, núm. 1, pp. 56- 78. Obtenido de https://www.researchgate.net/publication/249830882_Mixed_Research_as_a_Tool_for_Developing_Qua ntitative_Instruments 60. WATTS, F.; MARIN-GARCIA, J.; GARCÍA, AMPARO; AZNAR-MAS, LOURDES. “ Validation of a rubric to assess innovation”. Working Papers on Operations Management, 2012, vol. 3, núm. 1, pp. 61- 70. Obtenido de https://doi.org/10.4995/wpom.v3i1.1159 61. ONWUEGBUZIE, A. J., BUSTAMANTE, R., & NELSON, J. “Mixed Research as a Tool for Developing Quantitative Instruments”. Journal of Mixed Methods Research, 2010, vol 4, núm. 1, pp. 56- 78. Obtenido de https://www.researchgate.net/publication/249830882_Mixed_Research_as_a_Tool_for_Developing_Qua ntitative_Instruments LA ASIGNATURA INTRODUCCION A LA FISICA COMO UNA ACCION PROPEDEUTICA EN EL CURSO 21-22 Gilda Vega Cruz1, Mar Denise Oliva Pereda2 1, 2 Universidad Tecnológica de La Habana José Antonio Echeverría Cujae. Calle 114 No. 11901 e/ Ciclovía y Rotonda, Marianao, La Habana, Cuba 1gilda@tesla.cujae.edu.cu RESUMEN El comienzo del curso 21-22 en la Universidad Tecnológica de La Habana, “José A. Echeverría”, Cujae, en noviembre de 2021 después de la periodo más agresivo de la pandemia Covid-19 se diseñó en la modalidad a distancia. Para esta apertura del curso se tuvo en cuenta que los estudiantes de nuevo ingreso habían estado prácticamente dos años sin estudiar por lo que se planificó un primer periodo con carácter estratégico que persiguió a través de asignaturas electivas incluidas en el plan de estudio reforzar sobre todo el desarrollo de habilidades para el estudio. Una de esas asignaturas fue Introducción a la Física. En este caso se diseñó un proceso de enseñanza-aprendizaje en el que se concibió tanto como un repaso de los contenidos básicos esenciales que fueron objeto de estudio en el nivel medio como en la elaboración de tareas de aprendizaje que hicieran énfasis en el tratamiento sistemático de las magnitudes físicas y sus unidades, el desarrollo de habilidades en las operaciones con vectores, la descripción cinemática y dinámica del movimiento mecánico y sus leyes fundamentales, las operaciones básicas con magnitudes vectoriales, y la aplicación de las funciones trigonométricas básicas. El objetivo del presente trabajo es mostrar las características esenciales del curso diseñado con la inclusión de nuevos recursos didácticos y los resultados comparativos entre las asignaturas de Introducción a la Física y la Física I en el curso 21-22 PALABRAS CLAVES: Introducción a la física, propedéutica, modalidad a distancia, recursos didácticos THE SUBJECT INTRODUCTION TO PHYSICS AS A PROPAEDEUTIC ACTION IN THE COURSE 21-22 ABSTRACT The beginning of the 21-22 academic year at the Technological University of Havana, "José A. Echeverría", Cujae, in November 2021 after the most aggressive period of the Covid-19 pandemic, was designed in the distance modality. For this opening of the course, it was taken into account that the new students had spent practically two years without studying, so a first period was planned with a strategic nature that was pursued through elective subjects included in the study plan, to reinforce, above all, the development of study skills, being one of these subjects Introduction to Physics. In this case, a teaching- learning process was designed in which it was conceived both as a review of the essential basic contents that were the object of study at the secondary level and in the development of learning tasks that emphasized the systematic treatment of physical magnitudes and their units, the development of skills in operations with vectors, the kinematic and dynamic description of mechanical movement and its fundamental laws, the basic operations with vector magnitudes, and the application of basic trigonometric functions. The objective of the present work is to show the essential characteristics of the course designed with the inclusion of new didactic resources and the comparative results between the subjects of Introduction to Physics and Physics I in the course 21-22 KEY WORDS: Introduction to physics, propaedeutics, distance modality, didactic resources 1.INTRODUCCION Antecedentes A partir de la situación mundial y nacional generada por la Covid-19, fue concebida la impartición de la asignatura Introducción a la Física al 1er año de la carrera Ingeniería en Automática para el curso 2021- 2022 con carácter propedéutico. La asignatura fue impartida por la profesora principal de Física I con el apoyo de 8 Alumnos Ayudantes. Una asignatura similar había sido diseñada e impartida, en el Plan de Estudio D, también como una preparación a la Física I. cuando los resultados de los estudiantes de 1er año no eran satisfactorios. Esta asignatura incluyó el fortalecimiento de los contenidos básicos adquiridos en la enseñanza precedente y la reafirmación de un correcto desarrollo de los procedimientos para el análisis y estudio de los procesos en la Física. Esto conllevó a una mejor capacidad de aplicar los conocimientos adquiridos en aras de lograr la sistematización y automatización de dichos procedimientos para cualquier tipo de proceso físico. Una mirada a los resultados posteriores en la Física I, luego de cursada la Introducción a la Física, revelaron una mejoría notable en el aumento de la calidad de las notas así como la disminución de estudiantes en la tercera convocatoria y desaprobados [1]. En el curso 21-22 la asignatura Introducción a la Física, con carácter electivo, se ha convertido en una opción efectiva para la recapitulación y preparación de los estudiantes de nuevo ingreso en la integración a la universidad después de la situación creada por la pandemia, en la que estos estudiantes no tuvieron condiciones normales de estudio, en la búsqueda de un mejor desempeño en la Física I. El objetivo principal de la asignatura es suplir las necesidades intrínsecas de estos estudiantes, teniendo en cuenta factores como el largo periodo de tiempo sin prácticamente, asociación ninguna a actividades docentes y la nueva dinámica de enseñanza a distancia asumida por la universidad. Los retos, generados por la propia situación ya expuesta, llevan a repensar los recursos didácticos a utilizar en el proceso de enseñanza- aprendizaje con el objetivo de sistematizar y automatizar el desarrollo de procedimientos con los conocimientos aplicados, aun dada a distancia. El objetivo del presente trabajo es mostrar las características esenciales del curso diseñado con la inclusión de nuevos recursos didácticos y los resultados comparativos entre las asignaturas de Introducción a la Física y la Física I en el curso 21-22 2. DESARROLLO Mientras que la Introducción a la Física en el plan D fue concebida en la modalidad presencial con un sistema de clases impartidas por Alumnos ayudantes y la profesora principal, en la presente experiencia la asignatura fue modelada como educación a distancia. Para ello se crearon actividades para cada tema y orientaciones pertinentes, que incluyeron animaciones en modo teleclase como material complementario en los contenidos necesarios donde año tras año más problemáticas han tenido los estudiantes en su proceder. Estructura de la asignatura Introducción a la Física en el curso 2021-2022 en la modalidad a distancia Para el estudio de la asignatura se diseñaron 11 actividades según se presenta en la Tabla # 1 Tabla # 1 Distribución de actividades docentes por tema y sus objetivos Tema Actividades Objetivo La física y la naturaleza. Como triunfar en el estudio de la física 1 El libro de Física y como usarlo. Magnitudes físicas. Análisis dimensional y cifras significativas Describir la naturaleza de la física teórica y el uso de modelos idealizados apara representar sistemas físicos. Utilizar los sistemas de unidades que se emplean para especificar cantidades físicas y analizar los aspectos metodológicos del libro de texto que te ayudaran a estudiar física con mayor interés y eficiencia. Vectores 2 Vectores. Propiedades. Suma y Resta de Vectores Caracterizar a las magnitudes vectoriales, describiendo sus propiedades y el álgebra vectorial que necesitaremos para describir y analizar cantidades físicas 3 Productos vectoriales Cinemática de la partícula 4 Movimiento Rectilíneo Uniformemente Variado (MRUV) Describir analítica y gráficamente del movimiento de los cuerpo que viajan en línea recta, usando vectores para caracterizar cuantitativamente las magnitudes físicas que lo ecuaciones sencillas para describir el movimiento rectilíneo en el caso especial en que la aceleración es constante MRUV. Análisis analítico y gráfico del movimiento vertical. Caída libre Describir analítica y gráficamente del movimiento de los cuerpos que viajan en un movimiento vertical con aceleración constante incluyendo el movimiento de caída libre Movimiento curvilíneo. Movimiento circular uniforme Caracterizar cualitativa y cuantitativamente el movimiento circular destacando las características fundamentales de la velocidad y la aceleración en este caso particular. Establecer el comportamiento del movimiento circular uniforme. Movimiento parabólico Caracterizar el Movimiento de proyectiles bajo la acción del campo gravitatorio homogéneo como una superposición de dos movimientos rectilíneos. Utilizando las ecuaciones generales del MRUV y su procedimiento de aplicación, las operaciones vectoriales estudiadas y la trigonometría para la obtención de las ecuaciones del movimiento. Describirlo como un caso particular de movimiento parabólico Dinámica de la partícula Método dinámico para la solución de problemas I. Cuerpo libre. Caracterizar cualitativa y cuantitativamente el movimiento de traslación de un cuerpo bajo la acción de fuerzas constantes aplicando las leyes de Newton y el método dinámico de análisis Método dinámico para la solución de problemas II. Procedimiento Método dinámico para la solución de problemas III. Dinámica del movimiento circular Seminario integrador Recursos didácticos En la asignatura se utilizaron los siguientes recursos utilizados : Libro de texto Animaciones o videos para los principales procedimientos incluidos en el contenido Guía de estudio para cada actividad En el curso se utilizó la edición 13 del libro de Sears Zemansky [2] que no se había utilizado antes en Automática lo que conllevó una nueva selección de problemas y en correspondencia un trabajo metodológico para la elaboración de las guías de estudio La estudiante de 2do año de ingeniería en automática, autora del presente trabajo, aportó dos ideas a partir de sus propias experiencias, primero como cursante de la Física I en una modalidad a distancia [3] y posteriormente como alumna ayudante de la misma asignatura en una modalidad híbrida a sus propios compañeros de año [4] . Estas ideas fueron esenciales para perfeccionar las orientaciones para el estudio en la asignatura Introducción a la Física. La primera de estas ideas fue incorporar en las tareas que debían realizar y entregar los estudiantes y a través de las cuales serían evaluados, tareas individuales y tareas colectivas. Las colectivas debían ser elaboradas y analizadas, por todos los miembros del equipo por la vía que entendiera cada equipo y el jefe del equipo debía entregar el resultado del análisis grupal. Luego al final de cada actividad de cada estudiante recibió 2 notas, una individual y otra de su equipo. A continuación se presenta el trabajo por equipo orientado en la Actividad # 7 Realicen la evaluación al final del mismo, La segunda idea que tuvo mucho impacto fue la elaboración de vídeos. Con la idea original de la Alumna Ayudante, que se responsabilizó de la parte técnica de su elaboración, la profesora principal de la asignatura selecciono los procedimientos que debían ser "animados" mediante vídeos y asesoró y controló el contenido que en vídeo tendría la presentación del problema seleccionado en cada caso. Elaboración de los Videos La profesora principal de la asignatura identificó como fundamentales los siguientes procedimientos:  Para el producto vectorial de dos vectores  Para el movimiento rectilíneo uniformemente variado  Para el movimiento parabólico  Para la aplicación de las Leyes de Newton Se diseñaron entonces cuatro videos en forma de teleclase, como soporte digital para el autoestudio de cada uno de los contenidos identificados. La duración de los mismos va desde los cuatro hasta los cuasi ocho minutos. Los videos están elaborados a partir de ejemplos tipo de cada tema, todos extraídos del libro. Los problemas son resueltos y animados mientras se escucha la voz grabada de la profesora principal de la asignatura explicando el procedimiento en cada caso. Todo ello incorporado sincrónica y coherentemente con las siguientes herramientas. 1.Power Point (para la creación de las animaciones) [5 ] 2.BandiCam (para capturar la animación en modo video) [6 ] 3.InShot (para integrar los audios y el video en un mismo material) [7] Producto Vectorial: Operación de vectores fundamental e indispensable por su amplio empleo posterior en el tratamiento de magnitudes en la disciplina Física y otras disciplinas. En este caso, como ejemplo tipo, se seleccionó el cálculo del torque ejercido sobre una tuerca con una llave inglesa para aflojarla. El cálculo de su magnitud se presenta en la (Figura 1a). Además, como parte del procedimiento, se desarrolla el método de la regla de la mano derecha para establecer la dirección y el sentido del torque (Figura 1b). Con ello se concluye que un producto vectorial posee magnitud, y la vez, dirección y sentido. Movimiento Rectilíneo Uniformemente Variado (MRUV): Se muestra el procedimiento para el estudio de cualquier otro tipo de movimiento, puesto que no importa qué tan compleja pueda llegar a ser su trayectoria, siempre será posible analizarlo a través de la superposición de los movimientos rectilíneos correspondientes a sus trayectos rectos. El procedimiento se inicia con el establecimiento del sistema de referencia (Figura 2.a), paso indispensable que regirá los signos de las magnitudes a analizar. De los datos extraídos del problema se conformarán, a partir de las ecuaciones generales del movimiento, las ecuaciones particulares (Figura 2.b), llamadas así porque describirán específicamente las características del movimiento en cuestión. Bastará aplicar este procedimiento para hallar las incógnitas necesarias de una forma simple y perfectamente sistemática. Para el análisis gráfico del movimiento se sugiere colocar los gráfico de posición, rapidez y aceleración, uno debajo del otro y en ese orden (Figura 2.c) para aprovechar la mejor visualización posible de sus valores en cada instante de tiempo y así poder compararlos. Movimiento Parabólico: muestra como el movimiento parabólico se estudia a través de la superposición de dos movimientos (Figura 3a): uno rectilíneo uniformemente variado en el eje vertical y otro rectilíneo uniforme en el eje horizontal con sus respectivas características (Figura 3b y Figura 3c). Por ende, la solución del problema consistirá en la aplicación de los procedimientos aprendidos con anterioridad, correspondientes a cada uno de los movimientos planteados Leyes de Newton: El ejemplo seleccionado sugiere un cuerpo sobre un plano inclinado con un ángulo de inclinación θ y empujado por una fuerza aplicada horizontalmente. Así como para cada procedimiento, resulta de vital importancia asumir correctamente un sistema de referencia, teniendo en cuenta el sentido del movimiento y la identificación de todas las fuerzas ejercidas sobre el cuerpo. Una vez descompuestas las fuerzas en sus componentes de cada eje que así lo requieran y, señalado precisamente la posición del ángulo de inclinación, se ha completado el Diagrama de Cuerpo Libre (Figura 4a). Luego se procede a la aplicación de la Segunda Ley de Newton para cada eje coordenado (Figura 4b) y será posible hallar cualquier incógnita. Emplear los videos animados como material complementario para la orientación del aprendizaje resulta un método más ameno, próximo y eficiente para cumplir los principales objetivos propuestos. Los videos elaborados se encuentran montados en el espacio de la nube de la Facultad de enseñanza con acceso de los estudiantes .de Ingeniería en Automática y Biomédica correspondiente a la asignatura Introducción a la Física. Aunque de los cuatro, dos poseen un peso entre los 60 y los 100MB, y los restantes, entre los 100 y 150MB, su acceso es gratuito, al igual que su descarga desde la plataforma. Guía de estudio Se elaboraron guías de estudio para las 11 actividades La estructura de las guías es similar aunque dependiendo del tema aparecían más elemento teóricos siempre dirigidos al libro de texto, en todas las actividades aparecieron: Titulo Objetivo Indicaciones para el estudio incluyendo las tareas de aprendizaje Tareas que deben entregarse En los Anexos·# 1 y·# 2 se presentan dos ejemplos de guía de estudio En el Anexo #1 se muestra la guía de la Actividad # 1 en la que se propicia que los estudiantes " aprendan" a trabajar con el libro de texto, e identifiquen todos sus beneficios. Como se observa desde esta Actividad # 1 aparecen las tareas individuales y por equipo. En el Anexo #2 se muestra como incorporar en las indicaciones la orientación para el uso de los videos elaborado en el estudio independiente. de la Actividad es que incorporen procedimientos y por tanto vídeos estos aparecen en las indicaciones a estudiar en el orden que se requiera. Anexo # 2 Comparación de los resultados docentes de Introducción a la Física y Física I Los resultados docentes obtenidos en el curso 21-22 en las asignaturas Introducción a la Física y Física I se presentan en la tabla #2 Tabla # 2 . Resultados docentes de las asignaturas Introducción a la Física y Física I del mismo curso Grupo Introducción a la Física Física I Mat Pres Aprob 5 4 3 2 Mat Pres Aprob. 5 4 3 2 A-11 27 25 25 15 8 2 2 27 25 25 7 8 10 2 A-12 32 32 31 6 15 10 33 31 27 2 6 19 6 A-13 33 31 31 6 11 14 2 33 30 30 14 10 6 3 A-14 31 31 31 11 8 12 31 30 30 16 9 5 1 Total 123 119 118 38 42 38 4 124 116 112 39 33 30 12 Durante el 2do periodo (Física I) 3 estudiantes no continuaron el curso por diferentes motivos por lo que aparecen desaprobados. De la tabla se observa que el 96.5% de los estudiantes que terminaron la Física I aprobaron y el 62% obtuvieron calificaciones de 4 y 5.lo cual habla de resultados favorables en la asignatura. 3. CONCLUSIONES 1.El trabajo realizado en el montaje de la asignatura Introducción a la Física demuestra que, con pocos recursos, es posible crear materiales ingeniosos, didácticos, diferentes, agradables e interactivos para enriquecer el aprendizaje de los estudiantes. 2.La inclusión del análisis colectivo de problemas prácticos fortalece el aprendizaje individual y desarrolla habilidades relacionadas con la defensa de ideas para establecer estrategias de búsqueda para la solución de los mismos 3.La participación de los Alumnos Ayudantes de la asignatura en esta labor de metodológica educación ha significado para su propio crecimiento personal así como el compromiso con la formación de nuevos profesionales. 4..El trabajo con énfasis en los procedimientos como objetivo elemental perseguido en la asignatura Introducción a la Física, resultan perfectamente aplicable en otras disciplinas a cualquier nivel. REFERENCIAS 1.VEGA CRUZ, Gilda. FERRAT ZALDO, Ángel. "Relación entre la Matemática y la Física como una vía de integración de los estudiantes de ingeniería". De Ingeniería. Congresos CLABES. Recuperado a partir de https://revistas.utp.ac.pa/index.php/clabes/article/view/1373. 2.FREEDMAN R.A., YOUNG H.D... Sears Zemansky. Física Universitaria. 13 Ed. México: Pearson; 2013 3.VEGA CRUZ, Gilda. "Una experiencia para el proceso de enseñanza-aprendizaje de la Física en tiempos de covid-19 ".Referencia Pedagógica, 2021, vol. 2, núm. 2, pp. 287-302 4.VEGA CRUZ, Gilda, LIMONTA PEDRO Yariel. . "La Nube, un medio para el proceso de enseñanza- aprendizaje de la física en tiempos de pandemia". La Habana: ISBN: 978-959-261-605-9, 2021. 299 pp. ISBN 978-959-261-281-5. 5.Russell J Craig, Joel H Amernic. PowerPoint presentation technology and the dynamics of teaching. Innovative higher education 31 (3), 147-160, 2006. 6.Bandicam (S. F.). Graba desde cualquier dispositivo de vídeo como Webcam, IPTV, Smartphone, PS/Xbox. Recuperado de https://www.bandicam.com/es/ 7. InShot(2019). Ecured. Recuperado de https://www.ecured.cu/Editor_de_Video_y_Foto_M%C3%BAsica Anexo # 1 Actividad ·# 1 La física y la naturaleza. Como triunfar en el estudio de la física Objetivo de las Actividades # 1 Es describir la naturaleza de la física teórica y el uso de modelos idealizados para representar sistemas físicos. Utilizar los sistemas de unidades que se emplean para especificar cantidades físicas y analizar la forma y se analizar los aspectos metodológicos del libro de texto que te ayudaran a estudiar física con mayor interés y eficiencia. Tarea # 1 ¿Cómo conocer el libro de Física y sus beneficios? Indicaciones para conocer el libro de texto Física Universitaria 13ª edición de los autores Sears Zemansky y Young y Freedman El libro de texto que les entregamos ofrece una introducción amplia y rigurosa aunque relativamente informal y accesible a la física basada en el cálculo. Presenta una estructura que contribuye a dos objetivos: desarrollar en el estudiante una intuición física y hacerlos hábiles para resolver problemas sobre todo de la vida real. Para eso les estamos orientando como primera tarea, familiarizarse con el libro y sus beneficios. Con las siguientes tareas: Estudiar en la introducción del libro los siguientes epígrafes: Desarrollo de habilidades en la que se incluyen el uso de las es1rategjas para resolver problemas indican a los estudiantes como enfocar tipos específicos de problemas Desarrollo de confianza cada problema practico tiene una dificultad moderada e incluye varios conceptos que incluso pueden ser de capítulos anteriores. El libro entrega sugerencias que pueden servir de guía para la solución del nuevo problema.´ Física en la vida diaria Cómo triunfar en física si se Intenta de verdad en el que presenta algunos elementos importantísimos: : Preparación para este curso  Aprender a aprender  Trabajar con otros (trabajo en equipo)  Las clases y los apuntes Exámenes Características claves de Física univer1itaria Después de haber estudiado los materiales indicados haga un resumen para ver si estás preparado para estudiar la Física respondiéndote a ti mismo las siguientes interrogantes: 1. ¿Soy capaz de utilizar los conceptos matemáticos fundamentales de algebra, geómetras y trigonometría? Si la respuesta es No, planifique un estudio complementario de esos temas para el estudio de la Física es imprescindible 2. ¿Estudio física el tiempo necesario? ¿lo voy a hacer diariamente? Distribuye tus horas de estudio a lo largo de la semana y busca siempre el mejor momento cada día y sistematízalo… RESPÉTALO 3. Planifica tu tiempo de estudio teniendo en cuenta los dos de entrega de las actividades siempre terminando cada actividad el día antes de la entrega. DISTRIBUYE TU TIEMPO. 4. Busca en la casa un lugar tranquilo en el que te puedas concentrar Tarea # 2 a) Responda a la pregunta 1.5 y diga con cuantas cifras significativas expresa estos resultados. Compare sus resultados con los resultados de sus compañeros de equipo. b) Realice los ejercicios 1.10, 1.12, 1.14, 1.17 (explique su razonamiento) De la Actividad # 1 debes entregar las preguntas de la tarea #1 y de la tarea #2 la respuesta a la pregunta 1.5 y los ejercicios 1.10, 1.12, 1.14, 1.17 Por equipo la respuesta a la pregunta 1.5 Individual las preguntas de la tarea #1 y los ejercicios 1.10, 1.12, 1.14, 1.17 Anexo # 2 Actividad # 7. Movimiento parabólico Objetivo: Caracterizar el Movimiento de proyectiles bajo la acción del campo gravitatorio homogéneo como una superposición de dos movimientos rectilíneos. Utilizando las ecuaciones generales del MRUV y su procedimiento de aplicación, las operaciones vectoriales estudiadas y la trigonometría para la obtención de las ecuaciones del movimiento. Describirlo como un caso particular de movimiento parabólico. Introducción Se le llama movimiento parabólico a aquel movimiento que realiza un cuerpo que describe una trayectoria parabólica y que se produce siempre que el cuerpo tenga una velocidad inicial que forme un Angulo con la aceleración. Por eso lo mismo describe este tipo de movimiento una pelota de futbol golpeada por el pie de un jugador que un electrón cuando entra en un campo eléctrico. En este curso vamos a estudiar el caso más sencillo el de un proyectil que así se llama a un cuerpo que recibe una velocidad inicial y luego sigue una trayectoria determinada completamente por los efectos de la aceleración gravitacional y La resistencia del aire. Una pelota bateada, un balón de fútbol lanzado, un paquete que se deja caer desde un avión y una bala disparada por un rifle son proyectiles. El estudio de este movimiento se complica cuando queremos hacerlo “aprendiéndonos de memoria “ expresiones como por ejemplo tiempo de vuelo, altura máxima y otras sin darnos cuenta que estos dependen de las condiciones del vuelo. Por eso sugerimos estudiarlo como la superposición de dos movimientos rectilíneos, uno en el eje X con velocidad constante y otro en el eje Y con aceleración constante dirigido hacia abajo con valor g como dos movimientos independientes. Note entonces que el movimiento en el eje Y coincide con el movimiento en caída libre o vertical que vimos en la otra actividad. En ambos ejes podrá entonces aplicarse el procedimiento que hemos venido aplicando hasta ahora. Tarea# 1 a) Estudie los ejemplos 3.6 y 3.9 y vuélvalo a resolver utilizando el procedimiento aplicado para el MRUV y un sistema de coordenadas XY donde el eje Y positivo este dirigido hacia abajo. Escriba por separado las ecuaciones para ambos ejes. EJE X EJE Y b) Estudia los ejemplos 3.7 y 3.8. c) Resuelve el siguiente problema: lanza la pelota del ejemplo 3.7 hacia arriba con una velocidad de 29.6 m/s y determina la altura que alcanza la pelota. Compara los resultados obtenidos con el inciso a) del ejemplo 3.7 y explica ambos resultados. En el Complementario de la Actividad # 7 se resuelve un problema real aplicando el procedimiento explicado. Después de estudiar el ejemplo deben continuar con estas orientaciones. El resto de los gráficos deben elaborarlos ustedes Tarea # 2 DEBATE EN EL EQUIPO EL PROBLEMA PRÁCTICO Lanzamiento hacia arriba de un plano inclinado pág. 95. Solo el inciso a Realicen la evaluación al final del mismo, Tarea # 3 Resolver los problemas 3.10, 3.16, 3.17, 3.18, 3.21, 3.23, 3.52 (en este problema hay un error y lo correcto es componente horizontal es de 15.0 m/s horizontal hacia el este)., 3.56, 3.63, 3.65, 3.61 De la Actividad # 7 debe entregarse: 1. Por equipo, la Tarea # 2 2. Individual los gráficos del complemento de la Actividad complementaria # 7 y la Tarea # 3 INFLUENCIA DEL MARCO COMÚN EUROPEO DE REFERENCIA PARA LAS LENGUAS EN LA EVALUACIÓN DE IDIOMA INGLÉS EN LA EDUCACIÓN SUPERIOR CUBANA Odalys de las Mercedes Morales Chacón Universidad Tecnológica de La Habana José Antonio Echeverría CUJAE Calle 114 # 11901/Rotonda y Ciclovia Marianao, La Habana, Cuba odalysmoraleschacon@gmail.com RESUMEN La política de perfeccionamiento de la formación en idioma inglés introducida por el Ministerio de Educación Superior (MES) en 2015 ha estado estrechamente relacionada con el impacto global del Marco Común Europeo de Referencia para las Lenguas (MCERL). Desde su divulgación inicial en 2001, su influencia y sus renovadoras perspectivas se han abierto camino allende el contexto europeo, marcando de manera notable la evaluación del idioma inglés en las universidades cubanas; lo cual ha representado no solo significativas ventajas, sino también importantes desafíos. Así pues, este artículo se propone abordar la influencia del MCERL en la evaluación del idioma inglés en la educación superior cubana. Es posible aseverar que la influencia del MCERL en la evaluación del idioma inglés en la educación superior cubana representa la transformación radical de los enfoques empleados anteriormente para la evaluación del idioma inglés y un gran salto de avance en la formación en el idioma extranjero de los estudiantes universitarios, al aportar un sistema de certificación ajustado al contexto cubano que permite no solo definir el nivel de dominio del idioma inglés, sino también certificar de manera válida y confiable a los estudiantes en las universidades cubanas en correspondencia con los estándares internaciones actuales. PALABRAS CLAVE: Marco Común Europeo de Referencia para las Lenguas (MCERL), influencia, evaluación, idioma inglés, educación superior cubana THE INFLUENCE OF THE COMMON EUROPEAN FRAMEWORK OF REFERENCE FOR LANGUAGES ON THE ASSESSMENT OF THE ENGLISH LANGUAGE IN CUBAN HIGHER EDUCATION ABSTRACT The language policy to improve the students’ English instruction introduced by the Ministry of higher education (MES) in 2015 has been closely related to the global impact of the Common European Framework of Reference for Languages (CEFR). Since its first publication in 2001, its influence and fresh perspectives have found their way beyond the European context, defining the assessment of the English language in Cuban universities, which has represented not only significant advantages but major challenges as well. Thus, this paper aims at addressing the influence of the CEFR on the assessment of the English language in Cuban higher education. It is possible to assure that the influence of the CEFR on the assessment of the English language in Cuban higher education represents the radical transformation of the approaches that had been used for the assessment of the English language, and a big leap ahead in the university students´ English instruction by providing a certification system adjusted to the Cuban context, not only to indicate the English proficiency level but also to validly and reliably certify students in Cuban universities according to current international standards. KEY WORDS: Common European Framework of Reference for Languages (CEFR), influence, assessment, English language, Cuban higher education INTRODUCCIÓN Valorando la pertinencia y jerarquía que supone a nivel mundial el dominio del idioma inglés en el perfil profesional de los graduados universitarios, el Ministerio de Educación Superior (MES) introdujo en 2015 la política de idioma orientada a perfeccionar y fortalecer la enseñanza, el aprendizaje y la evaluación de idioma inglés en coherencia con los estándares internacionales. Según pauta la resolución 165/19 del MES del 12 de septiembre de 2019, la política de perfeccionamiento de la formación en idioma inglés establece la incorporación en los planes de estudios de todas las carreras la aprobación del dominio del nivel intermedio del idioma inglés equivalente al B1 como requisito de graduación para los estudiantes de los cursos diurnos siguiendo la estructuración por niveles creada para la educación superior cubana a partir del Marco Común Europeo de Referencia para las Lenguas (MCERL) [1]. En este sentido, en el 2017 se estableció el proyecto Cuban Language Assessment Network ( abreviado CLAN)- - ejecutado por un grupo de profesores de inglés provenientes de todas las universidades cubanas y asesorado por la profesora Claudia Harsch, experta en evaluación y directora del Centro de Idiomas de las Universidades de Bremen—con el objetivo de “desarrollar un sistema de enseñanza y certificación de inglés para que los centros de idiomas de la educación superior en Cuba puedan certificar a los estudiantes de manera confiable y válida” [2]. Con este fin, se asumieron los principios del MCERL, en tanto que “el MCERL proporciona un punto de referencia" [3]. Los resultados muestran que el MCERL ha tenido un gran impacto en la enseñanza de idiomas, especialmente en el campo de la planificación y el diseño de planes y programas de estudio. [Sin embargo], el impacto del MCERL no se limita únicamente a la enseñanza y el aprendizaje de idiomas, su influencia se ha extendido también al ámbito de la evaluación [4]. Notablemente, la influencia del MCERL-- elemento distintivo del diseño y la puesta en práctica de la nueva política de la formación en idioma inglés en la educación superior cubana -- ha conducido a radicales y necesarias transformaciones, permeando de manera sobresaliente la evaluación del idioma inglés en las universidades cubanas. Así pues, este artículo presenta como objetivo abordar la influencia del MCERL en la evaluación del idioma inglés en la educación superior cubana. 1. EL MARCO COMÚN EUROPEO DE REFERENCIA PARA LAS LENGUAS (MCERL): PERTINENCIA Y CONTEXTUALIZACIÓN EN CUBA Por alcanzado consenso, el MCERL constituye hoy día un referente ineludible y el símbolo reconocido a nivel internacional para definir las competencias comunicativas de un usuario/ aprendiz de un idioma— lo cual es posible actualmente en más de 40 idiomas. Uno de los objetivos del MCERL es ayudar a las partes interesadas en el campo de la enseñanza de lenguas [3] a describir los niveles de competencia requeridos por estándares, evaluaciones y exámenes existentes para facilitar las comparaciones entre diferentes sistemas de calificación [5]. El MCERL sugiere también claramente la planificación a partir de las necesidades comunicativas de la vida real de los estudiantes con la subsiguiente alineación entre el currículo, la enseñanza y la evaluación [6]; a la vez que abre las puertas para su adaptación y aplicación en situaciones concretas. Los niveles de referencia representan el atributo más difundido del MCERL. Como se conoce, el Marco delimita seis niveles de competencia que especifican los usuarios/aprendices de una lengua: usuarios básicos (A1/A2), usuarios independientes (B1/B2) y usuarios competentes (C1/C2). En defensa de un enfoque basado en la co-construcción de significados, el MCERL sorprende al presentar cuatro nuevas formas de comunicación: comprensión, interacción, producción y mediación. Expresado con las palabras de Peña, “los criterios establecidos por el MCERL para la valoración de las competencias lingüísticas implican una metamorfosis de la didáctica actual, pues opta por un enfoque orientado a la interacción en escenarios comunicativos cotidianos” [7]. Como parte del proceso de renovación del MCERL, se publica en 2018 la versión revisada: “Common European Framework of Reference for Languages: Learning, teaching and assessment- Companion Volume with New Descriptors” (CEFR/CV por sus siglas en inglés) seguida en 2020 por la versión definitiva, la cual actualiza y amplia los descriptores ilustrativos, agrega nuevos descriptores a las escalas del 2001, introduce un conjunto de nuevas escalas y un nuevo nivel pre- A1, añade escalas para las competencias plurilingüe y pluricultural, ofrece una definición ampliada del término mediación para la cual proporciona 24 escalas ilustrativas, reemplaza la escala de fonología del 2001 por tres nuevas escalas y formula descriptores con un enfoque inclusivo en cuanto a género y modalidad [8]. La publicación ampliada sugiere además una escala con niveles adicionales entre A2 (Plataforma) y B1 (Umbral)—A2+--, entre B1 (Umbral) y B2 (Avanzado)—B1+--, así como entre B2 (avanzado) y C1 (Dominio operativo eficaz)—B2+. Lo cual resulta conveniente en escenarios de evaluación; por ejemplo, en el contexto cubano. Sin embargo, desde las primeras etapas de la proyección de la política de perfeccionamiento de idioma inglés y la adopción del MCERL se puntualizó la prioridad absoluta de establecer un marco viable para el contexto cubano, mediado por la necesidad de crear un sistema de certificación autóctono. De ahí que se perfile preponderantemente la contextualización del MCERL en Cuba derivada de la versión revisada, ampliada, esclarecida y actualizada de 2018. Como muestra la Figura 1, el marco cubano exhibe una escala de tres niveles que definen los niveles de competencia o dominio del idioma inglés en la educación superior cubana. Figura 1. Niveles de competencia comunicativa en idioma inglés para la educación superior cubana. Elaboración de la autora. El Marco cubano de inglés supone la implementación de un sistema coherente de enseñanza y evaluación fundamentado en los principios del MCERL que favorezca el logro del nivel de competencia comunicativa en inglés de los estudiantes en el examen de certificación establecido como requisito de egreso en la educación superior cubana. 2. LA INFLUENCIA DEL MCERL EN EL EXAMEN DE CERTIFICACIÓN PARA LA EDUCACIÓN SUPERIOR CUBANA Como se señaló inicialmente, el grupo CLAN tuvo como propósito central el diseño de un examen de certificación válido y confiable “basado en el MCERL y al mismo tiempo contextualizado a la realidad y necesidades del contexto cubano” [8]. En tal sentido, dos documentos rectores elaborados para la certificación de inglés en la educación superior cubana lo constituyen las especificaciones del examen y las escalas de calificación de las habilidades de expresión oral y expresión escrita, en los cuales el MCERL desempeñó un papel protagónico. 2.1 Especificaciones del examen de certificación cubano El MCERL/VC aportó los fundamentos básicos durante la elaboración de las especificaciones para la delimitación de los aspectos a evaluar en el examen de certificación para la educación superior cubana, las cuales abarcan un total de 53 descriptores para las habilidades de comprensión auditiva, comprensión de lectura, expresión oral y expresión escrita en correspondencia con los descriptores ilustrativos de las escalas de los niveles A2 y B1/MCERL a partir de la determinación del MES de sustituir de manera transitoria el requisito de egreso por el dominio del nivel básico del idioma inglés equivalente al nivel A2/MCERL. Asimismo, el MCERL proporcionó los elementos para precisar los tipos de tareas y de preguntas, formatos, comportamientos de escucha y de lectura principales y secundarios, así como las características específicas de los textos orales y escritos para el diseño de las tareas. Así pues, el examen de certificación cubano—en equivalencia con el perfil de dominio de un idioma y las actividades comunicativas de la lengua descritas en el MCERL/VC-- involucra la comprensión auditiva y de lectura simultáneamente con la producción oral y escrita en las formas interactivas y productivas acompañadas por la mediación en aplicación de las categorías de recepción, producción, interacción y mediación que suscita el MCERL. (Figura 2). Figura 2. Equivalencia del examen de certificación de inglés en la educacion superior cubana con el perfil general de dominio de un idioma del MCERL/VC. Adaptado del MCERL (Consejo de Europa, 2018). Según las especificaciones del examen de certificación, en particular: Para la comprensión auditiva se puntualizan los comportamientos de escucha para el diseño de tareas a partir de materiales auténticos sobre temas generales académicos y profesionales relevantes para los estudiantes teniendo en cuenta conceptos clave en las escalas del MCERL/VC. Así pues, características a considerar para la selección de los textos orales encierran: autenticidad, gramática, vocabulario, naturaleza del contenido, nivel de dificultad, tipo de discurso, fuente, tipo de material (input), extensión del material, forma, acento -- o sea, variantes internacionales aceptadas de la lengua inglesa--, número de participantes, velocidad de grabación, claridad de articulación y áreas temáticas-- en las cuales se considera el grupo etario (18-24) de la mayoría de los estudiantes en las universidades cubanas. Para la comprensión de lectura se detallan los comportamientos de lectura en correspondencia con conceptos clave en las escalas del MCERL/VC. En simetría con las escalas, características concretas para la selección de los textos escritos incluyen: autenticidad, tema, gramática, vocabulario, naturaleza del contenido, nivel de dificultad, tipo de discurso, fuente, tipo de texto, número de palabras y forma del texto. Para la expresión oral se proponen tareas comunicativas de interacción y producción oral en correspondencia con las escalase en las cuales “se consideran los dominios personales, públicos, ocupacionales y educativos” [5]. Por tanto, se incluyen tres secciones: (1) entrevista (interacción entre el interlocutor y los estudiantes); (2) interacción (interacción entre los estudiantes); y (3) monólogo (descripciones, presentaciones y narraciones). Para la expresión escrita se plantea una tarea interactiva y una productiva en coherencia con las escalas del MCERL/VC concernientes a la escritura interactiva y la escritura productiva. Se concibe la mediación tanto para las formas productivas como interactivas a través del “empleo de estrategias apropiadas en relación con las convenciones, condiciones y limitaciones del contexto comunicativo” [6]. En otros términos, “facilitar la comunicación entre personas o grupos quienes por alguna razón no pueden comunicarse de manera directa” [8]. Es precisamente la mediación una de las transformaciones más prominentes presentadas en la versión actualizada del MCERL /VC del 2018. En síntesis, se especifican los aspectos del examen y las tareas teniendo en cuentas las necesidades comunicativas de los estudiantes universitarios cubanos en simetría con los descriptores de las siete categorías del perfil de competencia de un usuario de una lengua correspondientes a los niveles A2/B1(MCERL/VC). 2.2 Las escalas de calificación del sistema de certificación cubano La interpretación del MCERL/VC representó un punto de inicio necesario para la selección de los criterios y la redacción de los descriptores durante la elaboración de las escalas de calificación de expresión oral y escrita del sistema de certificación cubano. “Se tomaron los descriptores existentes, es decir, los descriptores más relevantes del MCERL y de las escalas de evaluación en el contexto de los exámenes alineados con el MCERL” [2]. De hecho, “el MCERL fue el principal referente” [9]. En minuciosa explicación en el artículo Interpretation of the CEFR Companion Volume for developing rating scales in Cuban higher education, Harsch et al subrayan los descriptores de competencia y los materiales adicionales presentados en el apéndice del MCERL /VC como referente primario para el desarrollo de las escalas. Durante la compilación de los descriptores de la escala de expresión escrita, por ejemplo, se consideraron apropiados para el contexto cubano descriptores de las escalas del MCERL/VC relacionados con la adecuación sociolingüística. De igual modo, se seleccionó la categoría de coherencia de la cuadrícula de evaluación y se insertaron descriptores de la escala de coherencia y cohesión. Igualmente, resultaron ventajosas las escalas del MCERL/VC para la conformación de los descriptores en las casillas correspondientes al vocabulario, la gramática y la ortografía [2]. La tabla 1 presenta los criterios de las escalas de calificación de la expresión oral y escrita para la certificación de inglés en la educación superior cubana. Tabla 1. Criterios de las escalas de calificación para la certificación de inglés en la educación superior cubana a partir del MCERL expresión oral  interacción (cumplimiento de la tarea en el juego de roles, negociación de significado, toma de la palabra, solicitud de aclaración, aspectos sociolingüísticos y pragmáticos, y continuidad de la conversación)  coherencia/ fluidez (cumplimiento de la tarea en el monólogo, organización, habilidades de presentación, conectores, etc.)  vocabulario (rango y pertinencia)  gramática (rango y precisión)  pronunciación (acento, ritmo y entonación) expresión escrita  cumplimiento de la tarea  coherencia/ cohesión (progresión del tema, organización y conectores)  vocabulario (rango y pertinencia)  gramática (rango y precisión)  ortografía (ortografía, mecanismos) A partir de los niveles incluidos en el examen de certificación (A2/B1), las escalas para la certificación de inglés en la educación superior cubana consideran niveles adicionales que abarcan del A1+ al B1+ teniendo en cuenta el ‘enfoque de ramificación’ del MCERL que sugiere dividir los descriptores en niveles locales prácticos. Así pues, “se introducen los niveles adicionales A1+, A2+ y B1+ en aras de brindar más orientación y precisión sin hacer que la escala sea demasiado granular” [2]. De acuerdo con el MCERL/VC, “los niveles adicionales representan una competencia más firme en un nivel que no alcanza el estándar mínimo para el siguiente nivel de criterio. En general, comienzan a surgir algunas características del nivel superior” [6]. La tabla 2 ilustra los descriptores del nivel A2+ y el nivel superior B1 de la escala de expresión oral en relación con los cinco criterios considerando los niveles añadidos en las escalas del MCERL/VC. Tabla 2. Descriptores de los niveles A2+ y B1 de la escala de expresión oral A2+ B1 Se hace entender en una entrevista siempre que pueda pedir aclaraciones ocasionalmente y se le brinde alguna ayuda para expresar lo que desea. Comprende lo suficiente para manejar conversaciones breves y sencillas sin excesivo esfuerzo. Proporciona la información requerida en una entrevista; a veces dependiente del interlocutor en la interacción. Inicia, mantiene y cierra conversaciones simples con algunas vacilaciones, por lo regular de manera suficientemente cortés. Produce una lista de ideas que muestra un intento de organización y progresión del tema con parcial éxito. Las ideas no son necesariamente todas relevantes. Emplea los conectores de mayor frecuencia con el propósito de unir oraciones simples para decir o describir algo en una lista de En general, organiza las ideas en una secuencia significativa con una progresión adecuada del tema. Las ideas son generalmente relevantes para la tarea. Vincula una serie de elementos simples discretos más cortos en una secuencia lineal de puntos conectados. ideas. Puede hacer evidentes pausas, falsos comienzos y reformulación. Puede mostrar pausas, falsos comienzos y reformulación. Emplea vocabulario básico y frecuente para expresarse en situaciones rutinarias de la vida diaria. Muestra inexactitudes en la elección de palabras que ocasionalmente pueden causar tensión en el oyente. Utiliza suficiente vocabulario específico para expresarse sobre temas conocidos. Muestra un uso apropiado de un amplio rango de vocabulario básico frecuente. Usa estructuras de oraciones simples y características gramaticales básicas (formas continuas, modales, futuro-will). Aún pueden ocurrir errores frecuentes. Los errores a veces pueden causar tensión en el oyente, pero por lo general es claro lo que está tratando de decir. Puede mostrar intentos de estructuras más complejas, pero comúnmente son erróneas. Emplea una variedad de estructuras de oraciones gramaticales simples con una precisión razonable. Intenta una gama limitada de estructuras de oraciones compuestas o características gramaticales complejas, aunque en su mayoría pueden ser incorrectas. En general, el interlocutor puede interpretar los errores correctamente en función del contexto. La pronunciación es por lo general lo suficientemente clara para ser entendida, con tensión ocasional en el interlocutor. La influencia de la lengua materna es evidente. La pronunciación es generalmente inteligible. La influencia de la lengua materna es aun evidente en la pronunciación y en la entonación. En contraste con las prácticas habituales de evaluación empleadas en el contexto cubano, las cuales se han concentrado mayormente en las debilidades o incorrecciones de los estudiantes, las escalas de calificación presentan descriptores ilustrativos que manifiestan la perspectiva de suficiencia o competencia del MCERL centrada en lo que el alumno es capaz de hacer, más que en los conocimientos y habilidades que aún no ha logrado adquirir. (Tabla 3). “Este principio se basa en la visión del Marco acerca del lenguaje como vehículo de oportunidades y éxito en los dominios sociales, educativos y profesionales” [6]; lo cual es claramente compatible con la concepción de la formación en idioma inglés de los estudiantes en la educación superior cubana fundamentada en el modelo del profesional de las carreras. Tabla 3. Muestra de los descriptores de la escala de calificación de la expresión escrita que ilustran el enfoque de competencia del MCERL nivel cumplimiento de la tarea coherencia/ cohesión vocabulario gramática ortografía El mensaje se transmite, aunque con Muestra cierta organización de ideas y un claro Utiliza vocabulario básico y Emplea estructuras de oraciones simples y Escribe las palabras más A2+ algunas limitaciones. En general, las ideas se relacionan con el tema de la tarea. Realiza las funciones básicas del lenguaje requeridas para la tarea. Puede intentar otras más complejas, no siempre con éxito. intento de progresión del tema. Utiliza conectores de mayor frecuencia para enlazar oraciones simples para narrar una historia o describir algo como una lista de ideas simples. frecuente para expresarse en situaciones rutinarias de la vida diaria. Puede comprometer el mensaje y emplear repeticiones y circunlocuciones. características gramaticales básicas. Aún pueden ocurrir errores frecuentes. Los errores, a veces pueden causar tensión en el lector, pero por lo general es claro lo que está tratando de decir. comunes de manera inteligible y otras menos frecuentes con una precisión fonética razonable, lo que refleja una fuerte influencia de la lengua materna. Paralelamente, el sistema de certificación cubano asume la significativa idea de competencia parcial que propugna el MCERL, la cual indica que el perfil de competencia o dominio de un usuario/aprendiz de un idioma es realmente desigual o heterogéneo. 3. RETOS Y PRIORIDADES No obstante, como resultado de la influencia del MCERL en la evaluación del idioma inglés en la educación superior cubana como parte de la política de perfeccionamiento destacan importantes desafíos y prioridades, tales como la adaptación de los docentes a las perspectivas del MCERL incorporadas al contexto cubano. Como afirma Rhessma [10], los profesores deben estar completamente capacitados y ser conscientes de los enfoques del MCERL”. Se ha constatado que aún persiste en la concepción de los exámenes el modelo tradicional de cuatro habilidades; la familiarización de los estudiantes con los nuevos criterios de evaluación, descriptores y formatos de los exámenes de acuerdo con las especificaciones; el entrenamiento de los docentes en el diseño de tareas alineadas con el MCERL y en la calificación de los exámenes de certificación; el aseguramiento de las condiciones adecuadas en los Centros de Educación Superior para la aplicación del examen de certificación en aras de propiciar la confiabilidad y validez de los resultados en enlace con el MCERL y, por último; la restitución del nivel intermedio del idioma inglés equivalente al B1/MCERL como requisito de egreso para los graduados universitarios cubanos en correlación con el nivel general del examen de certificación. 4. CONCLUSIONES Los aspectos referidos en este artículo resultan de vital importancia para los profesores de idioma inglés de los centros de educación superior en tanto que se demuestra la influencia del MCERL en el sistema de certificación de inglés creado para la educación superior cubana, lo cual constituye un elemento imprescindible del proceso de perfeccionamiento de la formación profesional integral de los ingenieros y arquitectos. RECONOCIMIENTOS La autora desea agradecer a los miembros del grupo nacional de evaluadores (CLAN), y muy particularmente a la profesora Claudia Harsch, cuyo trabajo facilitó la presentación de los resultados exhibidos en este artículo. REFERENCIAS 1. “Regulaciones para el proceso de formación en idioma inglés de los estudiantes de la educación superior cubana”. Resolución 165. Ministerio de Educación Superior, La Habana, 2019. 2.HARSCH, Claudia., COLLADA PEÑA, Ivonne., GUTIÉRREZ BAFFIL, Tamara., CASTRO ÁLVAREZ. Pedro., GARCÍA FERNÁNDEZ, Ioanni. “Interpretation of the CEFR Companion Volume for developing rating scales in Cuban higher education”. CEFR Journal- Research and practice. 2020, vol. 3, 5, 87-95. Disponible en Web: https://cefrjapan.net/publications/journal 3.Canadian Association of Language Teachers (2013). Assessment, the CEFR and the Role of International Exams, 2013. Disponible en Web: https:// www.caslt.org 4. SHEN, Zou., WENXING, Zhang. Exploring the adaptability of the CEFR in the construction of a writing ability scales for “test for English Majors. Language testing in Asia, 2017, 7. 18, 1-16. Disponible en Web: https://doi.org/10.1186/s40468-017-0050-3 5.Council of Europe. Common European Framework of Reference for Languages: Learning Teaching Assessment. Cambridge: Cambridge University Press, 2001. Disponible en Web: https://www.coe.int/en/web/common-european-framework-reference-languages 6.Council of Europe. Common European Framework of Reference for Languages: Learning, Teaching, Assessment. Companion Volume with New Descriptors. Strasbourg: Language Policy Division, 2018. Disponible en Web: https://rm.coe.int/cefr-companion-volume-with-new-descriptors-1680787989 7. PEÑA LEDESMA., Lizet. "Enseñanza del inglés como lengua extranjera y desarrollo de competencias lingüísticas”. Tesis de Maestría. Universidad Andina Simón Bolívar, 2019. 8.British Council, European Association for Language Testing and Assessment, the UK Association for Language Testing and Assessment & the Association for Language Testers in Europe. Aligning Language Education with the CEFR: A Handbook. ISBN:978-1- 739744-1-9, 2022. 9.GARCÍA FERNÁNDEZ, Ioanni. HARSCH, Claudia, PÉREZ, Eduardo. “Assessing speaking in Cuban higher education”. Revista Transformación, 2021, vol. 18, 1, pp. 127-138. 10. RHESSMA.Nawai. “Implementation challenges of Common European Framework Reference (CEFR) in Malaysian setting: Insights on English Teachers´ Attitude”. International Journal of Academic Research in Business and Social Sciences, 2020, 10, 7, 28-41. Sobre la autora Odalys de las Mercedes Morales Chacón es profesora del Centro de Idiomas de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Es profesora auxiliar, máster en lingüística aplicada y miembro del grupo nacional de evaluadores (CLAN). GESTIÓN DEL CENTRO DE IDIOMAS EN EL PERFECCIONAMIENTO DEL INGLÉS EN LA CUJAE THE LANGUAGE CENTER MANAGEMENT TO IMPROVE THE ENGLISH LANGUAGE AT CUJAE Laura María Barreiro Pérez1, María del Carmen Batista González2, Caridad María Cazañas Marisy3 1, 2 y 3 Centro de Idiomas. Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Calle 114 # 11901 / Ciclovía y Rotonda, Marianao, La Habana, Cuba. laura@icb.cujae.edu.cu; maricarmen@icb.cujae.edu.cu; charity@icb.cujae.edu.cu RESUMEN El dominio del idioma inglés constituye una herramienta importante para el desempeño exitoso de los futuros profesionales cubanos. La implementación de la política de perfeccionamiento del proceso de formación en idioma inglés en las universidades cubanas comenzó en el curso 2016-2017 a partir de la necesidad imperiosa de que los profesionales cubanos lograran el desarrollo de la competencia comunicativa en idioma inglés, de acuerdo con estándares internacionales para responder a los requerimientos del desarrollo socio-económico del país. El objetivo de este trabajo es presentar los resultados que se han obtenido en la implementación de la política de perfeccionamiento en el proceso de formación del idioma inglés en el Centro de Idiomas que pertenece al Instituto de Ciencias Básicas de la Universidad Tecnológica de La Habana "José A. Echeverría", Cujae. Estos resultados se derivan de la aplicación de la primera etapa de la política, los cuales muestran sus logros y dificultades. PALABRAS CLAVE: política de perfeccionamiento, proceso de formación, Centro de Idiomas ABSTRACT The mastering of the English language constitutes an important tool for the successful performance of future Cuban professionals. The implementation of the improvement policy in the English language training process in Cuban universities started in 2016-2017 academic courses. This was due to the imperative necessity of Cuban professionals to achieve proficiency in English language according to international standards in order to cope with the demands of the socio-economic development of the country. The purpose of this paper is to present the results of the implementation of the policy aimed at improving the English language training process at the Language Center which belongs to the Institute of Basic Sciences at "José A. Echeverría" Technological University of La Habana, Cujae. These results are derived from the application of the improvement policy in its first stage which show the achievements and difficulties. KEY WORDS: improvement policy, training process, language center INTRODUCCIÓN La importancia del inglés como lengua internacional se incrementa en la segunda mitad del siglo XX a partir de la demanda de profesionales que muestren un desarrollo de la competencia comunicativa en esa lengua, que les permita realizar intercambios fructíferos en la comunidad académico - profesional. Por esta razón, la formación de profesionales con dominio del idioma inglés se convierte en un objetivo fundamental de la educación superior en la actualidad. El uso de este idioma como instrumento de formación, vía de acceso y modo de gestión del conocimiento, así como de desarrollo de la interculturalidad genera un impacto mayor en el desarrollo socio - económico y cultural del país. [1] La Política de perfeccionamiento del proceso de formación en inglés de los estudiantes de la Educación Superior Cubana surge en el marco de los lineamientos del VI Congreso del Partido Comunista de Cuba y se aprueba por el Consejo de Dirección del MES con el objetivo estratégico de graduar profesionales competentes en ese idioma para lograr su formación integral. Se inicia también el proceso de aprobación e implementación del Plan de estudio E con indicaciones precisas sobre la nueva concepción del proceso de formación en idioma inglés, lo que implica que las universidades ofrezcan vías para que los estudiantes, en un período de cuatro años, adquieran los conocimientos necesarios para desarrollar la competencia comunicativa en este idioma. [2] La política de perfeccionamiento del sistema de formación continua de los profesionales del MES establece incorporar gradualmente a los planes de estudio de todas las carreras, la aprobación del dominio del nivel intermedio del idioma inglés equivalente al B1 como requisito de graduación de los estudiantes, siguiendo la estructuración por niveles establecida para la educación superior cubana a partir del Marco Común Europeo de Referencia para las Lenguas (MCERL). [2,3] Esta política es expresión de la calidad del egresado y, por tanto, de su capacidad para enfrentar con cierto grado de independencia y creatividad, las prioridades del desarrollo científico-técnico y las necesidades concretas del contexto socio - económico del país en un mundo globalizado y competitivo. El Centro de Idiomas surge en el sistema educativo cubano como “la estructura académica y de dirección, que tiene el encargo de implementar la Política del perfeccionamiento de la formación en inglés en la Educación Superior Cubana, a través de servicios académicos especializados en lenguas extranjeras para la docencia, la investigación y la extensión, además de asesorar metodológicamente al resto de las estructuras de la universidad en función de la formación, evaluación y certificación de idiomas, fundamentalmente el inglés, para el perfeccionamiento de la formación integral de los profesionales de la educación superior cubana y la pertinencia social de la Universidad.” [4] El objetivo de este trabajo es describir los resultados obtenidos en la implementación de la Política de perfeccionamiento en el proceso de formación del idioma inglés en el Centro de Idiomas que pertenece al Instituto de Ciencias Básicas de la Universidad Tecnológica de La Habana. 1. EL PROCESO DE FORMACIÓN EN IDIOMA INGLÉS EN LOS CENTROS DE IDIOMAS DE CUBA Los Centros de Idiomas se conciben como una estructura con elementos de gestión de nuevo tipo en su alcance, no solo en la formación de los estudiantes, sino en la capacitación docente y en el postgrado, así como en la evaluación y certificación de niveles de dominio del inglés y de otros idiomas de los profesores, investigadores y estudiantes de las universidades, con efectos favorables en la autonomía de la gestión universitaria. Los Centros de Idiomas son líderes en la enseñanza-aprendizaje de los idiomas extranjeros, a través de procesos de calidad y con un desarrollo integral de sus programas de pregrado, postgrado, investigación y extensión; con una sólida formación de sus miembros y con una estructura administrativa en función de la preparación de profesionales comprometidos con su país y su tiempo, en un mundo multilingüe y multicultural. [5] La formación en idioma inglés de los estudiantes de la educación superior está basada en el modelo del profesional de las carreras y se concibe como parte del proyecto educativo, socio - político y cultural de las universidades y las carreras. En consecuencia, esta formación se desarrolla simultáneamente en tres direcciones: [6] La formación intensiva mediante un sistema de cursos con fines generales y fines específicos, así como de servicios académicos (talleres, tutorías, asesorías), que se imparten en las universidades fuera del Plan del Proceso Docente. La formación extensiva mediante la estrategia curricular de idioma inglés en las carreras como parte de la formación académica, laboral, investigativa y extensionista de los estudiantes. La autogestión del aprendizaje del inglés de los estudiantes, a partir de los servicios académicos que se prestan en las universidades y de otras vías disponibles. El proceso de formación en idioma inglés sigue un enfoque comunicativo y sistémico en los cursos que se imparten, fundamentalmente, en el Inglés con Fines Generales, en las modalidades presencial, semipresencial y a distancia. [6] Se conciben los estudiantes como protagonistas y actores principales del proceso de enseñanza- aprendizaje, y se orienta el proceso a que comprendan el valor del idioma, se motiven a estudiarlo y sistematicen la práctica y uso de éste, de manera consciente, intencionada y sistemática a través de la autogestión del aprendizaje como vía para fomentar la independencia cognoscitiva y el aprendizaje autónomo. Se diseñan los programas de los cursos por niveles en base al programa general recomendado por el MES, se imparten los cursos y se controla el proceso de forma adecuada, lo que implica el control de las matrículas de los cursos, de la presentación de los estudiantes a los exámenes de certificación, así como los resultados de los exámenes de certificación. La concepción del inglés como requisito de graduación implica un cambio principal que reconoce la formación en inglés como una exigencia fundamental de la formación integral de los profesionales. Los resultados mostrados por los estudiantes en los cursos 2016-2017 y 2017-2018 condujeron a, la propuesta, con carácter transitorio, de establecer como requisito de graduación el nivel equivalente al A2 del MCERL como nivel mínimo de dominio de las habilidades comunicativas. [7] Desde entonces se han logrado formar y certificar a los estudiantes en inglés en el nivel básico superior equivalente a un A2 para la educación superior cubana, a partir del MCERL con el fin de lograr una formación de calidad de acuerdo con estándares internacionales y se sientan las bases para trabajar en función de niveles superiores de formación (B1). Los estudiantes que logran alcanzar el nivel básico superior equivalente a un A2 (MES, 2019) deben ser capaces de: Comprender audiotextos de contenido fundamentalmente concreto, con un vocabulario frecuente y con estructuras gramaticales simples y sin apoyo visual. Comprender la idea general, ideas principales y secundarias de textos escritos breves y sencillos sobre temas cotidianos, y realizar inferencias básicas de estos textos. Intercambiar información, sugerencias, indicaciones y criterios sobre temas cotidianos relacionados con el estudio, el trabajo y el tiempo libre. Hacer narraciones breves de hechos y experiencias y hacer presentaciones breves de temas cotidianos relacionados con el estudio, el trabajo y el tiempo libre, siguiendo una secuencia de hechos e ideas. Redactar textos (descripciones y narraciones de hechos, actividades pasadas y futuras y experiencias personales, notas y mensajes breves y sencillos) con un vocabulario frecuente y con estructuras gramaticales fundamentalmente simples y oraciones enlazadas coherentemente. Los Centros de Idiomas a partir de la implementación de la Política de perfeccionamiento conciben y realizan el trabajo metodológico de manera sistemática con base en un plan de trabajo metodológico que reúne las exigencias del reglamento docente - metodológico del MES y que dinamiza la capacitación docente como condición esencial con vista a desarrollar el proceso de formación en idioma inglés con la calidad requerida. Por otra parte, una gestión notable ha sido el completamiento del claustro con la creación de una nueva carrera de formación de profesores de inglés para impartir docencia en educación superior, la preparación científico - pedagógica de los claustros, así como la gestión de locales para los Centros de Idioma en las universidades. 2. EL CENTRO DE IDIOMAS DE LA UNIVERSIDAD TECNOLÓGICA DE LA HABANA, CUJAE El Centro de Idiomas fue constituido en el curso 2016-17 y en la actualidad pertenece al Instituto de Ciencias Básicas (ICB), en un área con locales que tienen buenas condiciones. Cumple sus funciones a través de una estructura formada por una directora, una subdirectora, una secretaria docente, un administrador, un técnico en informática y un claustro de profesores, que establecen las coordinaciones necesarias para gestionar la formación con calidad. En la universidad, la proyección de la Política de perfeccionamiento del proceso de formación de idioma inglés ha sido positiva teniendo en cuenta sus aspectos fundamentales: la creación del Centro de Idiomas; la responsabilidad de los directivos y los colectivos metodológicos; la concepción y organización de la formación en idioma inglés; el dominio del idioma inglés como requisito de graduación; la evaluación y certificación del dominio del idioma inglés. Se ha concebido la incorporación paulatina de las carreras a la política. Se comenzó a partir del curso 2016-2017 en las carreras de Ingeniería Química y Biomédica, ya que previamente, estas mismas especialidades fueron objeto de un experimento que se realizó en los cursos 2014-2015 y 2015-2016. En el curso 2020-2021 comenzó la carrera de Arquitectura y en el 2021-2022 se incluyeron las carreras Ingeniería Eléctrica e Ingeniería Automática. Se han impartido los cursos A1 y A2 con una adecuada organización, desarrollo y control. En el período de pandemia se mantuvieron dichos cursos a distancia mediante el uso de la plataforma Moodle y la creación de grupos WhatsApp para orientar a los estudiantes. El proceso de formación se lleva a cabo en coordinación con las facultades. Se han convocado los exámenes de certificación en correspondencia con las convocatorias nacionales, además, se realizan convocatorias adicionales y específicas según las necesidades de la universidad. Se aplican con rigor y transparencia los exámenes y se certifican con exigencia y calidad los niveles de dominio del inglés de los estudiantes. Se ha potenciado el desarrollo de investigaciones orientadas a la implementación de la política como son la Estrategia didáctica para el desarrollo de la competencia comunicativa en Inglés con Fines Profesionales de los ingenieros y arquitectos de la Cujae (nivel B1) y Sistema de tareas comunicativas para el desarrollo de la comprensión auditiva en idioma inglés en un EVEA (nivel A2). Estas investigaciones han tenido impacto en el proceso de perfeccionamiento del inglés en la universidad. En el caso de la primera, se realizaron aportes al desarrollo de la competencia comunicativa en Inglés con Fines Profesionales en un nivel B1, a partir de la contextualización del MCERL y la Escala Global de Pearson al contexto académico profesional de los ingenieros y arquitectos, y su aplicación concreta en el proceso de enseñanza-aprendizaje de Inglés con Fines Profesionales en un curso soportado en la plataforma Moodle. [8] En el caso de la segunda, tributa al cumplimiento del requisito de graduación de los estudiantes mediante un sistema de tareas comunicativas, a partir de los beneficios que ofrecen los EVEA desde el punto de vista didáctico-tecnológico para el desarrollo de la comprensión auditiva en idioma inglés en un nivel A2. 3. RESULTADOS DE LA IMPLEMENTACIÓN DE LA POLÍTICA EN EL CENTRO DE IDIOMAS DEL ICB La aplicación de la Política de perfeccionamiento del idioma inglés en la universidad ha mostrado avances desde el curso escolar 2016 - 2017 hasta el curso escolar 2020 - 2021: Las carreras se han ido incorporando gradualmente; se comenzó con 2 carreras (15, 3 %) y se han incorporado 5 (38,4 %), La matricula en los cursos impartidos fue de un (80%) y la presentación de los estudiantes a los exámenes de certificación de un (92,3%) El porciento de estudiantes que cumplen el requisito de graduación con nivel A2 o superior es de un (45,4 %), de 522 estudiantes presentados, 253 han cumplido el requisito. El 100 % de estudiantes en la primera cohorte fueron certificados (nivel A2) mediante las distintas convocatorias aplicadas. Sin embargo, aunque se han obtenido logros durante los cursos previamente mencionados, todavía existen dificultades que influyen de manera negativa en la implementación de la política en la universidad: La poca comunicación, divulgación, comprensión y sensibilización en las facultades con relación a la necesidad de aprender el idioma inglés en el contexto socio - económico actual. El desconocimiento de la importancia del dominio del inglés para la formación integral de los profesionales y como vía de comunicación internacional. El deficiente trabajo en las facultades con respecto a la aplicación de la estrategia curricular de idioma inglés, particularmente en cuanto a la impartición de asignaturas y actividades académicas en inglés y a la disponibilidad, accesibilidad y utilización de información en inglés para la gestión del conocimiento en otras asignaturas. Los pocos recursos materiales y tecnológicos con que se cuenta para desarrollar el proceso de formación en idioma inglés y el deterioro de los medios en existencia durante el período de la pandemia. El análisis de los resultados obtenidos en esta primera etapa de proyección permite planificar y organizar la segunda etapa desde el curso 2022-2023 hasta el curso 2025-2026, la cual está encaminada a la generalización de la política a todas las carreras, programas y cursos y a la transición hacia el nivel B1 como requisito de graduación de los estudiantes para así lograr los resultados deseados a nivel de país. 4. CONCLUSIONES Los Centros de Idiomas en Cuba gestionan los procesos fundamentales de la universidad, así como otras actividades curriculares y extracurriculares que contribuyan a la superación en idiomas de la comunidad intra y extrauniversitaria. El Centro de Idiomas de la Cujae coordina la Política de perfeccionamiento del proceso de formación en inglés en la universidad mediante la gestión de los recursos humanos y materiales para asegurar la calidad de los procesos sustantivos. Los resultados de la aplicación de la política en la Universidad Tecnológica de La Habana han sido satisfactorios, a pesar de los problemas surgidos durante su implementación, los cuales deben atenderse con prioridad durante la próxima etapa. REFERENCIAS BIBLIOGRÁFICAS 1. BARREIRO PEREZ, Laura, BATISTA GONZALEZ, María, CAZAÑAS MARISY, Caridad, RODRÍGUEZ VILLAMIL, Marcos. “El proceso de enseñanza-aprendizaje del Inglés con Fines Académicos: un curso a distancia”. Revista Referencia Pedagógica, 2021, vol 9, núm. 3, pp.487 -498. 2. MINISTERIO DE EDUCACIÓN SUPERIOR. La política de perfeccionamiento del sistema de formación continua de los profesionales, Cuba. 2015. 3. Council of Europe. Common European Framework of Reference for Languages: Learning Teaching Assessment. Cambridge: Cambridge University Press, 2001. Disponible en Web: https://www.coe.int/en/web/common-european-framework-reference-languages 4. GUTIERREZ BAFFIL, Tomas. “Modelo para la gestión de los procesos en centros de idiomas. Una estrategia para su implementación en la Universidad de Pinar del Río.” Tesis de doctorado, Universidad de Pinar del Río, Pinar del Río, 2020. 5. GUTIERREZ BAFFIL, Tomás; PÉREZ RIVERA, Samuel; PEREZ ROBAINA, Roberto; MIJARES NUÑEZ, Luis. “Gestión de los procesos universitarios en el Centro de idiomas de la Universidad de Pinar del Rio”. Revista Cubana de Educación Superior, 2019, vol 38, núm.1, pp.1-15. 6. Regulaciones para el proceso de formación en idioma inglés de los estudiantes de la educación superior cubana. Resolución 165. Ministerio de Educación Superior, La Habana, 2019. 7. MINISTERIO DE EDUCACIÓN SUPERIOR. Circular 3 del 2018. La Habana, 2018. 8. BARREIRO PÉREZ, Laura; BATISTA GONZÁLEZ, María. “El desarrollo de la competencia comunicativa en Inglés con Fines Profesionales en el posgrado." Revista Referencia Pedagógica, 2019, vol 7, núm. 1, pp. 48 – 62. |1 EL MODO DE ACTUACIÓN DEL INGENIERO Y SU PAPEL DURANTE EL CICLO BÁSICO DE FORMACIÓN PROFESIONAL Manuel de la Rúa Batista Pau1, Maria Isabel Pino2 1 y 2 Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE, Calle 114 # 11901 / Ciclovía y Rotonda, Marianao, La Habana, Cuba mrua@icb.cujae.edu.cu; mipino@icb.cujae.edu.cu RESUMEN La formación de ingenieros y arquitectos, competentes y de perfil amplio, capaces de dominar las ciencias básicas y las ciencias de la ingeniería, preparados para afrontar cualquier situación, brindando soluciones creativas y racionales; es el objetivo final de toda la formación. En el trabajo se resalta la importancia de la determinación del Modo de actuación profesional y de su utilización como eje articulador de las influencias formativas desde los primeros años de la carrera, también se exponen los resultados de una investigación que permitió identificar el modo de actuación del ingeniero civil cubano y sus manifestaciones singulares en las tres esferas de actuación más comunes en nuestro país. En este estudio se describe el algoritmo de acciones profesionales de los ingenieros civiles cubanos. El propósito de esta investigación, crear un instrumento útil, el modo de actuación, para la formación de ingenieros civiles; y así tratar de lograr una correspondencia entre la formación de los alumnos en las universidades con la actuación profesional de los ingenieros civiles. Como conclusión fundamental se arriba a que la determinación del modo de actuación del ingeniero civil cubano hace posible utilizar esta expresión esencial de la actuación profesional para articular las influencias formativas. Palabras Claves: Ingeniería, modo de actuación. ciclo básico de formación, ciencias básicas THE ENGINEER'S MODE OF ACTION AND IT ROLE DURING THE BASIC TRAINING CYCLE ABSTRACT The training of competent engineers and architects, with a broad profile, capable of mastering basic sciences and engineering sciences, prepared to face any situation, providing creative and rational solutions; is the ultimate goal of all training. The paper emphasizes the importance of determining the Mode of Professional Action and its use as an articulating axis of the formative influences from the first years of the career; also presented are the results of a research that made it possible to identify the mode of action of the Cuban civil engineer and its singular manifestations in the three most common spheres of action in our country. This study describes the algorithm of professional actions of Cuban civil engineers. The purpose of this research is to create a useful tool, the mode of action, for the training of civil engineers. and thus try to achieve a correspondence between the training of students in universities and the professional performance of civil engineers. As a fundamental conclusion, it is concluded that the determination of the mode of action of the Cuban civil engineer makes it possible to use this essential expression of professional performance to articulate the formative influences. Key words: Engineering, mode of action, basic training cycle, basic sciences. 1. INTRODUCCIÓN “…para un ejercicio profesional de calidad en la ingeniería de hoy en día y tienen que ser implementado surgentemente los cambios que ella requiere en la esencia misma de la enseñanza de la ingeniería, estableciéndose con precisión las vías y los métodos para dotar a los egresados de estas capacidades, lo que afectará significativamente tanto al profesor de ingeniería, como a la pedagogía y al modo de enseñar esta profesión y al contenido de no poco de lo que se enseña hoy en las diferentes materias y cursos de estas carreras” Angel Emilio Castañeda Hevia1 La formación de ingenieros, ha transcurrido como un proceso de cambios continuos que no está exento de avances, retrocesos y contradicciones, pero que ha permitido la acumulación de múltiples experiencias en profesores, directivos y alumnos que reconoce, entre otros logros los siguientes:  Reconocimiento de la necesidad de enseñar para el auto aprendizaje.  Reconocimiento de la importancia de la actividad independiente y semi-presencial, en la solución de los problemas docentes.  Renovación constante de los planes y programas, con currículos cada vez más flexibles que tienen en cuenta las exigencias de la profesión,  Énfasis en los componentes práctico e investigativo de proceso docente educativo, con el aprovechamiento de las relaciones gobierno-universidad-empresa. Logros que se expresan en la intención sostenida de formar un profesional de ingeniería en estrecha vinculación con el modo de actuación profesional, que adquiera desde los primeros años de la carrera, las habilidades profesionales básicas que le permitan resolver los problemas más generales y frecuentes de su profesión, con la ayuda, la dirección y bajo el control de sus profesores, y de otros profesionales, que compartan con ellos esta labor. Esto demuestra que la enseñanza universitaria, se encuentra atravesando un proceso de constante evolución, sometida a grandes e importantes cambios, pues el desarrollo social, económico, científico y tecnológico obliga a que todos los profesionales requieran estar más preparados para enfrentarse a este mundo de constante cambio. Por esa razón es necesario que los profesores de las asignaturas básicas y generales, profesionalicen los contenidos de sus asignaturas y consideren la necesidad de incorporar en las mismas, las lógicas presentes en el modo de actuación de cada carrera; a fin de desarrollar un pensamiento lógico bien estructurado, la capacidad creativa y el hábito de ejercer el pensamiento divergente como manifestación consecuente de la palabra “ingenio” para la creación de bienes, servicios, procesos, herramientas, medios y sistemas, otorgándole super objetivo común a todas las asignaturas del currículo de las carreras de ingeniería. Por ello, nuestra investigación está dirigida a estudiar las potencialidades que tiene el modo de actuación del ingeniero, como eje articulador de las influencias de todas las asignaturas y en particular las del ciclo básico que se desarrolla en los dos primeros años de las carreras; de modo que e logre una mayor correspondencia 1 Castañeda Hevia Angel Emilio “El Modelo del Profesional y la Enseñanza de la Ingeniería en los albores del siglo XXI. Reflexiones sobre una experiencia de Diseño Curricular de algo más de diez años en la Carrera de Ingeniería Civil”. Ponencia presentada al XVIII Congreso Panamericano “Educación y Ejercicio Profesional de la Ingeniería. Lima Perú del 17 al 20 de Noviembre de 1998. |3 entre la formación de los estudiantes con la actuación profesional que se desarrolla fuera de las aulas. Actualmente, la concepción y el diseño de los planes y programas de estudio, generalmente definen de diferentes maneras los modos de actuación que caracterizan cada profesión, a fin de integrar con mayor sistematicidad los componentes académico, investigativo y laboral, a partir de la experiencia adquirida en los centros de trabajo y de la existencia de profesionales - tanto en las universidades como en la producción y los servicios, lo que ha permitido iniciar un salto de calidad en este decisivo eslabón para el desarrollo del proceso de formación. El documento curricular base de los planes de estudio es el Perfil o el Modelo del profesional (que suele elaborarse como profesional, de actuación o por competencias en dependencia de la concepción formativa de base en los currículos). Es en este documento en le que aparece, la mayor de las veces, implícito el Modo de Actuación al que deberá ajustarse el diseño de los planes y programas de estudios para la formación de los profesionales de una determinada rama en el pregrado. El perfil o Modelo, precisa cómo debe ser la formación del educando para su futura inserción en la sociedad, mientras que el Modo de Actuación, precisa cómo debe actuar el educando durante su interrelación social profesional. El Modo de Actuación modela los métodos, procedimientos e instrumentos, encargados de establecer una relación social característica de determinada profesión cuya connotación pedagógica se expresa mediante la existencia de determinadas habilidades, como dominio de la acción, que permiten el ejercicio independiente, creativo y comprometido de la profesión. El Modo de Actuación se convierte en un sistema de representaciones cognitivas del medio profesional, en la expresión del comportamiento profesional y de las relaciones interpersonales que se establecen y por ende facilitan la regulación interna de la conducta del profesional (la autorregulación), elementos que deben ser rectores a la hora de estructurar y desarrollar los contenidos durante el Proceso Docente Educativo. La correcta identificación del sistema de acciones generales de una profesión y sus diferentes componentes permite: 1. Apreciar en su justa medida las tareas profesionales terminales concretas que es necesario efectuar. 2. No limitar la formación profesional a una o a varias de ellas, o darle un peso exagerado a alguna sin una justificación válida. 3. Balancear los diferentes componentes de la formación profesional. 4. Precisar los conocimientos y habilidades, actitudes y valores que son necesarios para su realización en los diferentes objetos en que se puede manifestar. 5. Fundamentar las decisiones a tomar en lo que respecta a los límites de la formación de pregrado El Modo de Actuación deberá ser enunciado en el lenguaje de las acciones y no de las habilidades por cuanto el sistema de acciones, que describen o caracterizan la actuación profesional de un determinado sujeto, transcurre o se desarrolla en la práctica profesional. La representación de estas acciones en un programa de estudios es realizada mediante su expresión como habilidades, las cuales deberán aparecer imbricadas en cada una de las unidades básicas del currículo de manera sistémica e interdisciplinaria. Es por ello que la manifestación docente de las acciones profesionales se expresa como habilidad, en el sentido del desarrollo del dominio de esas acciones como una de las finalidades del P.D.E. y que estas habilidades generales deben estar presentes desde la formación básicas en disciplinas como la matemática, la física, la química, la historia, la filosofía, el dibujo y otras. Por ultimo y no por eso de menor importancia se debe considerar al Modo de Actuación en tres niveles y la utilización correcta de cada uno de ellos incidirá directamente en el mayor nivel de logro en el cumplimiento de los objetivos y el fortalecimiento de las relaciones interdisciplinarias verticales y horizontales Estos niveles son: 1. Modo de Actuación General del Profesional. 2. Modo de Actuación Particular en un campo determinado de esta profesión. 3. Modo de Actuación Singular de diferentes esferas dentro de un mismo campo de la profesión. Para facilitar la comprensión de nuestra propuesta, expondremos los resultados particulares en el ejemplo de la Ingeniería civil 2. DESARROLLO Para determinar el modo de actuación del ingeniero civil cubano se tuvieron en cuenta dos vías: el análisis teórico y el análisis práctico. Para el análisis teórico se asumió el modo de actuación general del ingeniero, propuesto por el Dr. Cs. Ángel Emilio Castañeda Hevia, en el año 1996, que expresa un conjunto de acciones ordenadas e interrelacionadas que describen la actuación especifica de los ingenieros cubanos. El método utilizado para la determinación del modo de actuación del ingeniero civil cubano, por la vía práctica, fue el método de “Análisis Teórico de la Actividad” (A.T.A), aplicado por primera vez en Cuba, en la CUJAE, por Roberto Corral, en los años 80 del siglo pasado, en la determinación del Modelo del Profesional de Ingeniería Mecánica en los planes de estudio C. El Análisis Teórico de la Actividad, consta de dos etapas. En la primera etapa se realiza la preparación del personal; la determinación de los listados de tareas que se cumplen en el cargo, mediante la realización de encuestas y entrevistas; la identificación de tareas que resultan intermedias dentro de las más abarcadoras, de tareas decadentes, de contingencia y emergentes y la identificación de las tareas terminales. En la segundad etapa se realiza la identificación de los objetivos de las tareas profesionales obtenidas al concluir la primera etapa y la agrupación de las tareas profesionales que garantizan objetivos similares y determinación, por esta vía, de las actividades básicas generalizadas. En este caso se entrevistaron a 15 ingenieros civiles, algunos de los cuales poseen varios años de experiencia ejerciendo su profesión. El método mencionado permite realizar una síntesis de las todas las tareas. Primero se recopilaron durante este proceso todas las tareas y acciones que realizan los ingenieros civiles entrevistados, y con esta información se hizo una síntesis, pasando por las tareas, las tareas básicas, las tareas básicas generalizadas y llegando a lo más esencial que es el modo de actuación. Luego de tener el modo de actuación del ingeniero civil cubano por las dos vías, se realizó una fusión, obteniendo de esta manera el modo de actuación del ingeniero civil cubano final. En la validación de esta propuesta se utilizó el método de consulta a expertos en su variante Delfos; para encontrar la concordancia de sus valoraciones como criterio de validez del modo de actuación. Se les realizó una encuesta a 12 ingenieros civiles, de los cuales 10 resultaron expertos. El método de criterio de expertos constituye una valiosa herramienta para lograr la necesaria fiabilidad de las investigaciones. Se apoya en la opinión de individuos a los que se consideran expertos del tema en cuestión. Teniendo en cuenta las tareas básicas generalizadas, el egresado de la carrera de ingeniería civil debe desarrollar su actividad profesional en correspondencia con el siguiente modo de actuación: 1. Identifica problemas constructivos para solucionar necesidades sociales. 2. Busca información sobre las características del suelo, las propiedades de los materiales de construcción, las tecnologías de construcción, las condiciones ambientales, el interés social y económico vinculado con cada obra que realiza. 3. Estructura el problema constructivo específico a solucionar. 4. Crea alternativas de solución a partir de restricciones y recursos humanos, materiales y financieros. 5. Representa gráficamente toda la información. 6. Comunica sus propuestas a otras especialidades afines a la construcción. 7. Decide y ejecuta la solución constructiva óptima. |5 8. Dirige la ejecución de la obra constructiva desde su comienzo hasta su entrega y puesta en marcha. 9. Controla en todo momento, la calidad de la ejecución de la obra y el uso de los recursos humanos, materiales y financieros. 10. Evalúa la calidad final de la obra constructiva, su impacto y pertinencia. En este modo de actuación se ven claramente las acciones del ingeniero civil cubano, las que se encuentran ordenadas y describen la actividad del profesional de la construcción. Utilizando el método del Análisis Teórico de la Actividad y teniendo en cuenta lo expresados por varios ingenieros civiles en las entrevistas aplicadas, se pudieron determinar también el modo de actuación particular de las principales ramas de la ingeniería civil, las cuales son: Inversión, Proyecto y Ejecución, que por lo limitado de este espacio no podemos desplegar. Pero si es necesario aclarar que en cada uno de ellos y a partir de las esferas de actuación particulares del ingeniero civil cubano, se encontró la posibilidad de identificar particularidades en otro nivel de concreción del modelo general. Téngase en cuenta, que la formación en Cuba se realiza con el interés de formar un profesional de perfil amplio que luego se especializará en su etapa de post grado. Es por eso que, en el trabajo interdisciplinario, y en la consideración por cada disciplina del ciclo básico se debe trabajar fundamentalmente con el modo de actuación general de la carrera (en nuestro caso ingeniería civil) cuyas acciones básicas generalizadas, se utilizarán como elementos rectores en el proceso de formación desde los primeros años de la carrera. Aunque el modo de actuación del ingeniero civil está vinculado a la realización de actividades generales, su manifestación particular se aprecia durante la elaboración de los elementos que conforman el diseño de los diferentes niveles curriculares (modelos, planes, programas, disciplinas, asignaturas, temas, etc.), a través de los objetivos. De modo que en cada asignatura se debe propiciar e intencionar la actividad del estudiante para: Identificar problemas, gestionar la información sobre problemas específicos, estructurar problemas no estructurados, trabajar con diferentes alternativas de solución, representarlas gráficamente, comunicar eficazmente sus propuestas, controlar su implementación y evaluar su calidad. No importa si la disciplina es básica, social o específica, en cualesquiera de ellas es posible articular los contenidos y actividades intencionado la actuación de los estudiantes en este interés. Cuando los profesores del ciclo básico de formación comprenden que la actuación de un ingeniero pasa por tres momentos fundamentales durante el desarrollo de su actividad profesional (comprensión, selección del método y aplicación de la solución), pueden profesionalizar con mayor facilidad los contenidos de sus asignaturas. Por ejemplo, para el 1er Momento (Comprensión), se trabaja fundamentalmente en que los estudiantes puedan identificar, fundamentar y representar los problemas y situaciones objeto de estudio. En este nivel ocurre el movimiento de ascenso del conocimiento- de lo concreto sensorial a lo abstracto (identificar) y de lo abstracto a lo concreto (fundamentar). La representación está presente simultáneamente en estas dos acciones. Es un proceso de formación de conceptos, y de comunicación intersubjetiva a través de la actividad reflexiva) que exigen de cada estudiante una consideración del saber en las que están implicados todos sus recursos personales. Para el 2do Momento (Selección del método), se trabaja fundamentalmente en que los estudiantes puedan seleccionar la vía, el método para operar en la solución de los problemas, mediante la toma de decisión en condiciones variadas y con sentido personal. Mientras que para el 3er Momento (Aplicación de la solución), se trabaja fundamentalmente en que los estudiantes puedan aplicar el método, monitorear y controlar la ejecución, así como también valorar y reajustar los resultados de sus propuestas de solución. Para la propuesta validar de modo de actuación del ingeniero civil cubano, se enfrentaron dos acciones fundamentales, la consulta a la Comisión Nacional de Carrera de Ingeniería Civil, para obtener sus opiniones valorativas y discutir sobre la posibilidad y conveniencia de su utilización en la gestión del proceso de formación. Como ya se expresó, se tuvo en cuenta el criterio de expertos, especialistas en diferentes ramas de la ingeniería civil (inversionista, proyectista, constructor), además de poseer una amplia experiencia en su profesión. El proceso de la propuesta de modo de actuación del ingeniero civil se desarrolló en cuatro etapas que son: Primera etapa, fue la de identificación de los expertos en un total de 10. Segunda etapa, se elaboró un documento de síntesis de la propuesta, que fue entregado a los posibles expertos para que ofrecieran sus valoraciones conclusivas. Tercera etapa, fue la recopilación de información recibida y la selección de aquellos que realmente podían ser considerados expertos entre los que manifestaron su disponibilidad en colaborar. Cuarta etapa, fue el procesamiento y análisis de los resultados a partir de la concordancia de sus opiniones valorativas. La encuesta utilizada está dividida en dos partes: la primera está dirigida al cálculo del coeficiente K que determina la competencia de un experto y la segunda a la valoración de la propuesta a partir de la valoración basada en la escala de Likert (Muy adecuado, Bastante adecuado, Adecuado, Poco adecuado, No adecuado). Basado en la autovaloración de los expertos valoración sobre su dominio del tema se reconocieron como expertos a los encuestados que obtuvieron valores altos y medios en los tres aspectos a valorar. A continuación, se presenta el procesamiento de los resultados de los expertos, cuyo procedimiento fue explicado anteriormente. De la tabla mostrada anteriormente (ver Tabla. 2) se pudieron obtener porcientos demostrativos en cada uno de los indicadores evaluados. Figura. 1: Porcientos obtenidos de la Pertinencia Figura 2: Porcientos obtenidos de la Utilidad En los gráficos de pastel (ver Figura. 1 y Figura. 2), se puede apreciar que un 100% de los expertos encuestados enmarcan los indicadores de Pertinencia y Utilidad, entre las categorías de Muy Adecuado y |7 Adecuado. Entre estos indicadores evaluados se obtuvo un 70% Muy Adecuado, un 70% Bastante Adecuado y un 60% Adecuado; por lo que se demuestra que todos los expertos tomados en cuenta dan una buena opinión de estos aspectos. En los gráficos anteriores (ver Figura. 3 y Figura. 4), se puede observar que existe una opinión dividida, variando desde las categorías de Muy Adecuado a Poco Adecuado en los indicadores de Contribución y Actualidad. Obteniéndose un 80% Muy Adecuado, un 60% Bastante Adecuado, un 40% Adecuado y un 20% Poco Adecuado. Dando como resultado una buena opinión de estos aspectos, pues de cada indicador se tuvo como resultado un 40% que dijo Muy Adecuado, y solo un 10% planteó que eran Poco Adecuado, dato que es irrelevante con respecto a la muestra analizada. En el gráfico anterior (ver Figura. 5), se puede ver que el 100% de los expertos encuestados proponen en el aspecto del Orden, categorías de Muy Adecuado (20%), Bastante Adecuado (40%) y Adecuado (40%). Por lo que se infiere que el orden de las acciones propuesto es bastante aceptado. De manera general existe un consenso en el criterio de los expertos al valorar satisfactoriamente la propuesta de modo de actuación y su contribución a la formación de ingenieros civiles. Otro elemento de validación de la propuesta fue la presentación de la misma ante la Comisión Nacional de Carrera en su reunión el mes de mayo de 2019. En la misma se realizó una presentación por la autora ante sus miembros y se discutió la propuesta. Aunque no existe una opinión unánime sobre la estructuración como algoritmo de las acciones en un nivel unificado de esencialidad, la opinión general es que el modo de actuación representa la de un ingeniero civil y es útil en la estructuración de las influencias formativas. A partir de este resultado se ha comenzado a introducir la utilización del modo de actuación particular del ingeniero civil, como elemento articulador de las influencias formadoras en el ciclo básico de la carrera, logrando un mayor nivel de profesionalización, motivación de los estudiantes y logro de una mayor significatividad de los contenidos de nuestras asignaturas. 3. CONCLUSIONES • Se comprobó la manifestación, en el ingeniero civil cubano, del modo de actuación del ingeniero propuesto por el Castañeda. E, y se pudo determinar el modo de actuación del ingeniero civil cubano mediante el análisis teórico de la actividad. • Es posible utilizar el modo de actuación del ingeniero civil cubano como expresión esencial de la actuación profesional y eje articulador de las en el proceso de formación de ingenieros civiles. • Es posible adelantar modos particulares de actuación del Ingeniero Civil actuando como proyectista, constructor e inversionistas que pueden servir para su desarrollo en el post graduado. 4. REFERENCIAS 1. CASTAÑEDA A. (1998) “El Modelo del Profesional y la Enseñanza de la Ingeniería en los albores del siglo XXI. Reflexiones sobre una experiencia de Diseño Curricular de algo más de diez años en la Carrera de Ingeniería Civil”. Ponencia presentada al XVIII Congreso Panamericano “Educación y Ejercicio profesional de la ingeniería. Lima, Perú, 17 al 20 de noviembre de 1998. 2. CASTAÑEDA, A. (2010). Pedagogía, Tecnologías digitales y Gestión de la Información y el Conocimiento en la enseñanza de la ingeniería. La Habana, Cuba. 3. DE LA RÚA, M. Y PADRÓN, A. (2017). Fundamentos para el transito curricular universitario. Arequipa-Perú 4. DEIANA, G., GRANADOS, D. Y SARDELLA, M. (2018). Historia de la Ingeniería. 5. GUTIÉRREZ, M. (2018). Modelo curricular para el diseño del currículo del ingeniero hidráulico en Cuba. La Habana. Tesis en opción al grado científico de doctor. 6. MES. (2017). Plan de Estudio "E" de la Carrera de Ingeniería Civil. La Habana, Cuba. 7. MOLINA, A. T., et al. (2016). La enseñanza por proyectos en Ciencias Técnicas: Una experiencia en la asignatura pedagogía. Revista referencia Pedagógica. Vol. 4 Centro de Referencia para la Educación de Avanzada (CREA). Instituto SuperiorPolitécnico José Antonio Echeverría, CUJAE; pág. 40 8. ORTIZ, T., Y SANZ, T. (Coord.) (2016). Visión pedagógica de la formación universitaria actual. La Habana: UH Editorial. |9 9. PÁEZ, V. (2018). Bases generales para el perfeccionamiento del Sistema Nacional de Educación. Ponencia presentada en el Congreso Universidad 2018, Palacio de las Convenciones. La Habana. LA FORMACIÓN PROFESIONAL EN JÓVENES Y ADOLESCENTES. CASO DE ESTUDIO: “CARRERA DE INGENIERÍA ELÉCTRICA” Ernesto Alberto Alvarez1, Randy Becerra Rodríguez 2, Amanda Bárbara Bello Colomer3, Orestes Gabriel Osorio Rodríguez 4 1Ingeniero electricista, Instructor, Facultad de Ingeniería Eléctrica, Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Cuba 2, 3, 4 Estudiante, Facultad de Ingeniería Eléctrica, Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Cuba 1 elavertoa@electrica.cujae.edu.cu 2 randybe@electrica.cujae.edu.cu 3 amandabbe@electrica.cujae.edu.cu 4 gosorio.rodriguez@electrica.cujae.edu.cu RESUMEN Actualmente en nuestro país, reviste gran importancia la formación de los ingenieros, en particular, de los Ingenieros Electricistas, por su presencia necesaria en cualquier rama de la producción, esencialmente en estos momentos. Desde hace varios años, se ha emprendido una gran batalla en el sector energético nacional, donde los ingenieros juegan un rol fundamental en el desarrollo de soluciones novedosas. En la facultad de Ingeniería Eléctrica un grupo de profesores y estudiantes detectaron falta de motivación en gran parte del alumnado debido a la ausencia de orientación vocacional desde edades tempranas; es objetivo de este trabajo exponer las acciones que han realizado mediante el proyecto sociocultural de la facultad de ingeniería eléctrica (vistas a institutos preuniversitarios y tecnológicos, entrevistas, filmaciones para la televisión nacional, entre otras) para motivar el estudio de la electricidad en jóvenes y adolescentes, comprobándose los resultados satisfactorios alcanzados mediante una encuesta aplicada a 105 estudiantes de la facultad, donde se muestra un aumento notable por la elección de la carrera entre las primeras tres opciones en la boleta del estudiante, destacando como la orientación vocacional recibida influye en la elevación de la demanda de la carrera, haciendo que cada año fuese mayor. Palabras claves: Orientación, vocacional, profesional, proyecto sociocultural, ingeniería eléctrica. VOCATIONAL TRAINING FOR YOUNG PEOPLE AND ADOLESCENTS. CASE OF STUDY: ``ELECTRICAL ENGINEERING CAREER´´ ABSTRACT Currently in our country, the training of engineers is of great importance, in particular, of Electrical Engineers, due to their necessary presence in any branch of production, essentially at this time. For several years, a great battle has been waged in the national energy sector, where engineers play a fundamental role in the development of innovative solutions. In the Faculty of Electrical Engineering, a group of professors and students detected a lack of motivation in a large part of the students due to the absence of vocational guidance from an early age; The objective of this work is to present the actions carried out by the sociocultural project of the faculty of electrical engineering (visits to pre-university and technological institutes, interviews, filming for national television, among others) in order to motivate the study of electricity in young people. and adolescents, verifying the satisfactory results achieved through a survey applied to 105 students of the faculty, thus showing a notable increase in the choice of the career among the first three options of the student's ballot, highlighting how the vocational guidance received influences the rise in demand for the degree, making it greater each year. KEY WORDS: Guidance, vocational, professional, socio-cultural project, electrical engineering 1. INTRODUCCIÓN En el Facultad de Ingeniería Eléctrica, se forman los ingenieros electricistas de las provincias occidentales del país, donde se han confrontado serios problemas de orientación profesional y motivación por la carrera, con los alumnos que en este centro estudian, debido en gran parte por la falta de orientación en los niveles precedentes de la educación media y media superior; con lo cual, se produce un éxodo muy grande de estudiantes a otras ingenierías durante los primeros años de estudio en la universidad. También ocurre que muchos estudiantes llegan a esta especialidad por reofertas y siempre se ha podido detectar que no conocen qué es lo que han seleccionado para estudiar. Por otro lado, aunque en los primeros años, el primero y segundo año de la carrera, se han incorporado actividades de motivación por la carrera, tales como visitas a centros de trabajo importantes en esta especialidad, conferencias de especialistas de alto nivel, entre otras, se considera que esto no es suficiente y que es necesario que el estudiante llegue a la carrera con un mayor conocimiento de lo que es la misma, y su futuro profesional. Además, se ha encontrado que los medios de comunicación no brindan una buena imagen del futuro ingeniero electricista pues, con frecuencia se toma el trabajo de los linieros 1como propaganda para el sector eléctrico. De ahí que, a partir de todo lo planteado, resulte necesario y factible potenciar las actividades de orientación relacionadas con esta carrera en todos los Institutos Preuniversitarios (IPU) y tecnológicos, de manera que se puedan mitigar los aspectos negativos y que se favorezca una adecuada selección de la carrera de Ingeniería Eléctrica. En la actualidad, el país confiere gran importancia a la preparación de los Ingenieros Electricistas, necesarios en cualquier rama de la producción. Esta investigación reúne las acciones realizadas por un grupo de profesores y estudiantes con el objetivo de exponer la importancia de la orientación vocacional, para evitar la deserción universitaria y mejorar la retención estudiantil. El problema científico que proponen los autores es que la falta de orientación y mecanismos influyen de manera significativa en la toma de decisiones con respecto al futuro académico y profesional en los estudiantes de enseñanzas precedentes. El primer objetivo de este trabajo es la recopilación de las experiencias obtenidas por profesores y estudiantes en la orientación vocacional, relacionadas con la carrera de Ingeniería Eléctrica en los niveles precedentes, enfocados generalmente a los estudiantes de IPU, centros politécnicos y tecnológicos, dándoles a los mismos la posibilidad de realizar una adecuada elección de su futuro profesional. A partir de las experiencias alcanzadas en años anteriores como base, se analiza el impacto real que tuvieron estas en los estudiantes que actualmente cursan los estudios y principalmente en su motivación. De igual manera se proponen vías de orientación vocacional aun no explotadas y que pueden ayudar a darle un mejor acercamiento, aumentando las vías de comunicación y creando espacios de interés para los jóvenes, donde se logren resolver los problemas presentados por los estudiantes para seleccionar la carrera universitaria que van a solicitar a través de una orientación profesional y vocacional de calidad, como base de futuras proyecciones. 2. ORIENTACIÓN VOCACIONAL ¿Qué es el trabajo de Orientación Vocacional? 1 Los linieros son los encargados de instalar y hacer mantenimiento a las líneas de media tensión, cada vez que estas sufran algún deterioro por desgaste o por otra causa; así como la instalación de trasformadores y sistemas afines. Para mayor una compresión conceptual de la Orientación Vocacional, se exponen algunas definiciones realizadas por expertos en esta temática que la sustentan: La orientación vocacional según (Vidal Ledo & Fernández Oliva, 2009): "puede ser entendida como un proceso que dé ayuda a la elección de una profesión, la preparación para ella, el acceso al ejercicio de la misma y la evolución y progreso posterior". Este proceso tiene como objetivo despertar los intereses vocacionales que el individuo requiere, el conocimiento de sí mismo, de las ofertas capacitantes y académicas, de los planes y programas de estudio, de las propuestas de trabajo, de las competencias que debe desarrollar para alcanzar un buen desempeño en esas propuestas, lo cual le permitirá tomar las decisiones que considere de acuerdo a sus capacidades y aptitudes para ubicarse en el contexto social- laboral. Para Morales: “la orientación vocacional corresponde a una estrategia ya elaborada con mayor precisión en la actualidad, cuando los jóvenes tienen la libertad de elegir su profesión, permitiéndoles hacer una elección atinadamente” (p. 11) (Morales, 2017). Esta aseveración muestra que la orientación vocacional tiene un valor incalculable para la población juvenil, pues contribuye con la ubicación y descubrimiento de los atributos y características de su ejercicio profesional, del campo laboral y, por ende, del emprendimiento de opciones acorde con sus necesidades reales (Morales, 2017) y no siempre se utiliza de forma adecuada. ¿Qué factores pueden influir en la orientación vocacional? Entre los autores existen varios criterios sobre los factores que influyen en la formación, uno de ellos (Erazo Guerra et al., 2021) plantea : la conducta vocacional es producto de una orientación dominante de la personalidad del individuo que busca un ambiente ocupacional, es decir que las personas optan por una profesión de acuerdo a su personalidad, criterios con los que (Morales, 2017) coincide al plantear: el desarrollo del aspecto vocacional confluyen en un conjunto de supuestos básicos que hacen referencia a la naturaleza de los tipos de personalidad, los cuales deben ser considerados por el orientador en conjugación con aspectos externos o ambientales. Por otra parte (Vidal Ledo & Fernández Oliva, 2009) y (Suárez-Montes & Díaz-Subieta, 2015) nos comenta sobre la importancia de la orientación y como en el mundo varios son los factores que influyen en la deserción entre las que se puede mencionar : socioeconómicas, individuales, institucionales y académicas. La orientación vocacional cumple un rol fundamental en la elección de la carrera a cursar permitiendo al estudiante ser consciente en toda su magnitud de la decisión que está escogiendo y a su vez dando un primer acercamiento a la carrera incluso antes de comenzar la misma, posibilitando una investigación previa y una motivación por la misma que le permita conseguir los objetivos de manera satisfactoria. Obtener un conocimiento previo de la carrera brinda la posibilidad de vincularse desde los primeros momentos a proyectos de investigación relacionados con temas actuales y que no verán hasta avanzada la misma. La Facultad de Ingeniería Eléctrica en la Universidad Tecnológica de La Habana “José A. Echeverría” ha encaminado su estrategia de orientación vocacional, principalmente, en el conocimiento del quehacer de un ingeniero eléctrico, enfocándose principalmente en la cantera de la misma con los estudiantes de los IPU, Centros Politécnicos y Tecnológicos; para ello, realiza un trabajo donde el estudiante puede descubrir realmente cual sería el campo de acción una vez egresado de la facultad y así fomentar en los mismos un interés desde antes del ingreso de optar por la carrera, ayudándolos a su vez a erradicar conceptos erróneos de la misma. Además de esto, estas actividades de orientación vocacional se enfocan también en la parte no docente de la vida universitaria, enmarcando todas las tareas que se realizan dentro y fuera de la facultad extracurricularmente y que ayudan en la formación integral del ingeniero eléctrico y de cualquier estudiante universitario, de manera general, y que actualmente difiere mucho de la realidad de los centros de formación por los cuales transitan habitualmente todos los estudiantes antes de la universidad. Lograr que una actividad de orientación vocacional tenga éxito no es solo con la finalidad de que los estudiantes a su ingreso en la Universidad ya tengan una noción de la carrera, sino que posean una fuerte motivación e interés por la misma, dado que en los primeros años de formación las materias impartidas son básicas y provocan en el estudiante un efecto cercano a la desesperación por ejercer la profesión. Esto hace que sea necesario que durante la vida académica de los estudiantes, se requiera aún de cierta orientación, con la vinculación de estos a proyectos e investigaciones, así como a la realización de visitas a otros centros especializados o laboratorios propios de la facultad, que lo acerquen a su quehacer como ingeniero. 3. EXPERIENCIAS Y RESULTADOS DE LAS ENSEÑANZAS PRECEDENTES. CASO DE ESTUDIO: CARRERA DE INGENIERÍA ELÉCTRICA Experiencias de la carrera de Ingeniería Eléctrica Actualmente, para lograr la motivación y orientación vocacional por la carrera, con la finalidad de elevar la permanencia y las probabilidades de éxito de los estudiantes en la carrera y en particular en primer año, se desarrollan actividades curriculares y extracurriculares. Como parte de la estrategia para el desarrollo de la Orientación Vocacional se han implementado los siguientes métodos o proyecciones principales, basados en los que establece el MES (Ministerio de Educación Superior, en su Resol 67 de Orientación vocacional y Orientación Profesional (Resolución No. 67 de 30/4/2012., s. f.): A. Trabajo de motivación en estudiantes de primer año para vincularlos desde temprano en proyectos e investigaciones del centro. B. Utilización de las relaciones con la Unión Eléctrica (UNE) para mejorar la motivación de los estudiantes. C. Realización de un Proyecto de Orientación Vocacional para preuniversitarios y tecnológicos sobre la Ingeniería Eléctrica. A-Trabajo de motivación en estudiantes de primer año para vincularlos desde temprano en investigaciones del centro Desarrollar actividades de motivación por la carrera, asociados a la cultura general integral del ingeniero electricista, a partir de las potencialidades de la facultad aprovechando los laboratorios y los especialistas de primer nivel que imparten docencia en la facultad. Algunos ejemplos de estas actividades son: 1. Recorridos por los laboratorios de investigación de la facultad al estar en el mismo edificio que el Centro de Investigaciones y Pruebas Electroenergéticas (CIPEL). 2. Desarrollo de conferencias por especialistas de la UNE que imparten docencias en la facultad, sobre temáticas actuales (fuentes renovables de energía, actualidad del sistema eléctrico en Cuba, desarrollo de los vehículos eléctricos) 3. Presentación a los estudiantes de los resultados científicos de sus profesores y los diferentes proyectos en los que se está trabajando de los cuales ellos pueden ser parte. B-Utilización de las relaciones institucionales con la (UNE) para mejorar la motivación de los estudiantes La orientación no solo se limita a crear una vocación en ese estudiante que puede o no ingresar a la universidad, continua en ese futuro profesional que egresará de la universidad, en ese sentido una buena relación entre la universidad y las empresas formadoras es esencial. La facultad de eléctrica tiene esta relación como una de sus grandes potencialidades, al estar la UNE (Unión Eléctrica, principal fuente de empleo) vinculada a todos los procesos de los estudiantes, de lo cual se realizan dos actividades todos los años. I. Una feria tecnológica donde todas las empresas del sector eléctrico se adueñan de los pasillos de la facultad y les muestran a los futuros ingenieros todas las tecnologías existentes en el país. II. Visitas dirigidas a empresas, en este tipo de actividades se vincula la visita a una empresa con una asignatura del año, de forma tal que el estudiante puede mediante un encuentro práctico adquirir conocimientos que le sirvan en su futura vida profesional. C-Realización de un Proyecto de Orientación Vocacional para preuniversitarios y tecnológicos sobre la Ingeniería Eléctrica En este sentido el proyecto, inicialmente, tenía como objetivo fundamental ayudar a estudiantes de las enseñanzas precedentes a realizar una correcta selección de la carrea y así disminuir el éxodo de estudiantes que usaban la carrera de trampolín2. El proyecto comenzó con un grupo de profesores con categoría principal y experiencias en el trabajo con estudiantes de primero y segundo año asesorados por expertos tanto del MES como de la CUJAE, con el paso del tiempo fue creciendo en participantes involucrándose en conjunto estudiantes y profesores. Algunas de las acciones que realizadas han sido: 1. Encuentros con estudiantes de 11no y 12mo grado donde se utilizaba una multimedia y materiales que posibilitara a los mismo conocer con más detalles la carrera. 2. Círculo de interés en la comunidad cercana a la facultad donde participaron estudiantes de secundaria básica. 3. Ferias expositivas en las comunidades mostrando el perfil de la carrera a niños y jóvenes. Una muestra en la figura 1. 2 Esto significa que optan por la carrera entre sus últimas opciones y luego de estar en la enseñanza superior solicitan un cambio de carrera y/o hasta de modalidad de estudio Figura 1: Estudiantes de la facultad le explican a miembros de la comunidad el perfil de la carrera ingeniería eléctrica 4. Filmación de programas educativos sobre formación profesional:  En 2008 se realizó una entrevista al presidente Nacional de la carrera, Dr. Mario Morera en el programa “Hola Habana”, del Canal Habana,  Un programa de Energía XXI dedicado a orientación vocacional de esta especialidad  En el año 2019 se realizó una grabación para el programa Pasos Universitarios, un programa dedicado a la Formación Vocacional de los estudiantes precedentes a la Universidad. El mismo fue grabado en el CIPEL donde participaron alumnos y profesores explicando detalles de la carrera, así como la importancia de la misma. 5. Realización de la actividad “puertas abiertas” La universidad como parte de su integración en el proceso de acompañar la formación de sus futuros universitarios tiene diseñado una actividad en la cual abre sus puertas para todo aquel que esté interesado en cursar una carrera universitaria o al menos sienta curiosidad por determinados temas. Figura 2: Puertas abiertas en la facultad de ingeniería eléctrica Figura 3: Intercambio entre estudiantes de primer año y de los preuniversitarios con profesores de la facultad En este sentido, año tras año, los estudiantes y sus profesores hacen una presentación de la carrera donde se explica de forma breve, pero concisa, cuál es el perfil del ingeniero eléctrico, así mismo se realiza un recorrido por las aulas y laboratorios donde se trata de acercar al futuro profesional con instrumentos y tecnologías que podrán utilizar a diario. 6. Visitas a centros de estudios de las enseñanzas precedentes Como la formación es un proceso continuo y no se detiene, es necesario llegar al estudiante en su aula y desde su entorno mostrarle como puede ser su futuro si opta por cursar una carrera universitaria. Desde la facultad de ingeniería eléctrica esto se traduce en llevar la orientación vocacional a los IPU, donde nuestros profesores e inclusos nuestros propios estudiantes utilizan la práctica para transmitir el perfil de estudio y trabajo de un ingeniero eléctrico. En los últimos años varios han sido los preuniversitarios visitados, mostramos las últimas visitas realizadas en el 2022  IPU de Boyeros Eduardo García  IPVCE Mártires de Humboldt 7  IPU Cristino Naranjo  IPU Manolito Aguiar Figura 4 : Visita al "IPVCE Mártires de Humboldt 7" Figura 5: Visita al preuniversitario de Boyeros Eduardo García Delgado Resultados del trabajo realizado en los últimos años Luego de varios años utilizando las diversas formas de mostrar la importancia del estudio de la Ingeniería Eléctrica, lo más conveniente es conocer acerca de cuanto ha influido todo lo mencionado en esta investigación para la formación del futuro profesional. Se aplicó una encuesta a un grupo aleatorio de 105 estudiantes de la facultad sin importar el año académico, ya que el cuestionario persigue en su aplicación conocer, primeramente, el perfil de estudio por alguna de las vías que se mencionan en la investigación. Además, los autores consideran oportuno saber en qué opción eligieron la carrera, si la familia o los padres tuvieron influencia en la decisión y, una vez comenzados los estudios, conocer también si pensaron en cambiarse de carrera. En una última pregunta el encuestado tiene la posibilidad de mencionar cual puede ser su plan después de graduado, lo que permite saber si el profesional que se forma actualmente en la facultad está interesado en superarse, aportarle al país o simplemente trabajar para mantener a una familia. Algunos de los criterios recogidos: 1. Género: Uno de los principales problemas actuales en la formación de ingenieros eléctricos es la masculinidad, es decir que históricamente la carrera ha sido estudiada en su mayoría por hombres y a pesar de los esfuerzos realizados en la actualidad es una dificultad latente contra la cual se está combatiendo en el sector. 2. Conocías sobre el perfil de estudio de la carrera: Luego de aplicada la encuesta se determinó que un 73% de los encuestados eligieron la carrera entre sus primeras 3 opciones y un 45% lo hicieron conociendo el perfil de estudio. (ver figura 6) Figura 6: Opción en la que eligieron la carrera 3. Por qué se decidieron a optar por la carrera: Influye mucho los motivos que hacen al estudiante elegir entre una u otra carrera; en este caso los encuestados se dividen en varios grupos, el primero los que dicen que les gusta la carrera, segundo grupo que la eligen inspirados en el ejemplo de sus familiares, un tercer grupo que dieron respuestas en las que planteaban la importancia de la carrera y el futuro que esta puede tener y un cuarto grupo que no le interesaba la carrera o la elegían de trampolín. 4. Capacidad de graduación: A pesar de la dificultad que supone el estudio de la ingeniería eléctrica es criterio compartido entre la mayoría de los encuestados que tienen la capacidad para graduarse y comprenden que depende de su esfuerzo el lograrlo exitosamente, gracias a la motivación existente por el estudio de la carrera y la importancia de la misma. La orientación tiene una alta influencia en esto porque permite al estudiante escoger conscientemente, y comenzar sus estudios con un conocimiento previo, que le permite seguir a pesar de las dificultades. 5. Desarrollo profesional y personal: El estudio en la universidad y en especial en Ingeniería Eléctrica viene vinculado siempre a un alto desarrollo tanto profesional como personal, la creación de valores, el autoestudio, el compromiso, son solo algunos aspectos que hace tan importante la formación universitaria, elementos que son necesarios lograr transmitir a estudiantes en los años inferiores, y lograr su motivación por entrar a la universidad y a la facultad. 4. NUEVOS RETOS PARA LA ORIENTACIÓN VOCACIONAL EN LA FACULTAD DE INGENIERÍA ELÉCTRICA En la actualidad, existen varios retos para la orientación vocacional, nuevos puntos de vista y formas de hacer la misma para maximizar su impacto en los adolescentes:  Mejorar los métodos de formación vocacional existentes y usados en la Carrera de Ingeniería Eléctrica para lograr hacerlos atractivo al público objetivo.  Fomentar la creación de maquetas, proyectos y experimentos que permitan su utilización para la visualización de lo que realiza un ingeniero eléctrico, desde un enfoque más visual y atractivo. 33 25 18 10 5 14 0 5 10 15 20 25 30 35 1era 2da 3era 4eta 5ta 6ta-10ma C an ti d ad d e e st u d ia n te s Opción de la boleta  Integrar el uso de las redes sociales como medio para la divulgación de todo lo que realiza un ingeniero eléctrico aprovechando las mismas para la formación vocacional, así como para el contacto directo de los interesados con la Facultad en un entorno que permita una fácil comunicación, en la cual se desarrollan hoy en día la mayoría de los jóvenes.  Participar en las ferias tecnológicas que permite un acercamiento a la carrera desde los barrios, inculcando el quehacer de un ingeniero eléctrico y la importancia del mismo en la sociedad.  Realizar talleres para la comunidad.  Desarrollar trabajo directo en las comunidades, ayudando a resolver los problemas reales que presentan las personas de las mismas, creando un espacio de intercambio y permitiendo, a su vez, mejorar la comunidad. 5. CONCLUSIONES En la investigación se describen las experiencias obtenidas por profesores y estudiantes en la orientación vocacional, relacionadas con la carrera de Ingeniería Eléctrica en los niveles precedentes, enfocados generalmente a los estudiantes de IPU, centros politécnicos y tecnológicos, a partir de las sensibilización de estudiantes y profesores de la Facultad de Ingeniería Eléctrica con la necesidad de intensificar el trabajo de formación desde edades tempranas, logrando que ese estudiante de enseñanza media o básica se adueñe de la pasión y el deseo de crear y desarrollar al país siendo un profesional competente. Se expone la importancia de esto, ya que en el caso particular del estudio de la ingeniería eléctrica, durante muchos años fue una carrera totalmente desconocida o asociada a los linieros o cobradores de la electricidad, cuando realmente el ingeniero eléctrico es mucho más, por esto todos los días buscamos nuevas formas de transmitir y concientizar lo que es la ingeniería eléctrica. Se analizó el impacto real que tuvieron estas en los estudiantes que actualmente cursan los estudios y principalmente en su motivación. Viéndose, además que aunque han sido varias experiencias que contribuyeron a mejorar la calidad a la hora de elegir la carrera, pues son efectivas, ya que, desde que comenzó el proyecto hasta la actualidad se puede afirmar que cada vez son más los que optan por la carrera convencidos que serán los mejores en su profesión y dispuestos a perfeccionar y desarrollar el sistema eléctrico de CUBA. Se considera que las vías empleadas no resultan suficientes; por tanto, al final del trabajo se proponen vías de orientación vocacional aun no explotadas y que pueden ayudar a darle un mejor acercamiento, aumentando las vías de comunicación y creando espacios de interés para los jóvenes, donde se logren resolver los problemas presentados por los estudiantes para seleccionar la carrera universitaria que van a solicitar a través de una orientación profesional y vocacional de calidad. 6. RECONOCIMIENTOS Los autores desean agradecer a un grupo de profesores y en particular a la profe ESPERANZA que junto a ellos fueron los iniciadores de este proyecto en la facultad y que gracias a ellos hoy los estudiantes y profesores jóvenes nos sentimos en la obligación moral de seguir el camino emprendido por ellos, muchas gracias a todos. 7. REFERENCIAS ERAZO GUERRA, X. F., ROSERO MORALES, E. DEL R., ERAZO GUERRA, X. F., & ROSERO MORALES, E. DEL R. (2021). Orientación vocacional y su influencia en la deserción universitaria. Horizontes Revista de Investigación en Ciencias de la Educación, 5(18), 591-606. https://doi.org/10.33996/revistahorizontes.v5i18.198 MORALES, J. (2017). La orientación vocacional para la elección de carreras universitarias dirigida a estudiantes de educación media. Revista Internacional de Investigación y Formación Educativa, 3(2), 47. https://www.ensj.edu.mx/wp-content/uploads/2017/09/La-orientaci%C3%B3n- vocacional-para-la-elecci%C3%B3n.pdf Resolución No. 67 de 30/4/2012. (s. f.). MES. Recuperado 13 de julio de 2022, de http://www.mes.gob.cu/resolucion-no-67-de-3042012 SUÁREZ-MONTES, N., & DÍAZ-SUBIETA, L. B. (2015). Estrés académico, deserción y estrategias de retención de estudiantes en la educación superior. Revista de Salud Pública, 17(2), 300-313. https://doi.org/10.15446/rsap.v17n2.52891 VIDAL LEDO, M., & FERNÁNDEZ OLIVA, B. (2009). Orientación vocacional. Educación Médica Superior, 23(2), 0-0. http://scielo.sld.cu/scielo.php?script=sci_abstract&pid=S0864- 21412009000200011&lng=es&nrm=iso&tlng=es Sobre los autores Ernesto Alberto Alvarez Ingeniero electricista, Profesor Instructor, Facultad de Ingeniería Eléctrica, Universidad Tecnológica de La Habana José Antonio Echeverría, Cujae. Cuba. e-mail: elavertoa@electrica.cujae.edu.cu ORCID: https://orcid.org/0000-0001-5238-8324 , Randy Becerra Rodríguez Estudiante, Facultad de Ingeniería Eléctrica, Universidad Tecnológica de La Habana José Antonio Echeverría, Cujae. Cuba. e-mail: randybe@electrica.cujae.edu.cu ORCID: https://orcid.org/0000-0002- 6733-1993 Amanda Bárbara Bello Colomer Estudiante, Facultad de Ingeniería Eléctrica, Universidad Tecnológica de La Habana José Antonio Echeverría, Cujae. Cuba. e-mail: amandabbe@electrica.cujae.edu.cu ORCID: https://orcid.org/0000- 0002-9566-1199 Orestes Gabriel Osorio Rodríguez Estudiante, Facultad de Ingeniería Eléctrica, Universidad Tecnológica de La Habana José Antonio Echeverría, Cujae. Cuba. e-mail: gosorio.rodriguez@electrica.cujae.edu.cu ORCID: https://orcid.org/0000-0002-5182-4734 DIDÁCTICA PARA LA INNOVACIÓN TECNOLÓGICA. APROXIMACIÓN A LA ENSEÑANZA DE LA INGENIERÍA Primer autor: Ana Teresa Molina Álvarez1; Segundo autor: MSc. César Augusto Palma Alvarado2 1Profesora Titular Consultante, Dra. en Ciencias Pedagógicas, Universidad Tecnológica de La Habana José Antonio Echeverría 2Docente Escuela de Industrial, Universidad Don Bosco, El Salvador 1anatere@ind.cujae.edu.cu RESUMEN El desarrollo del país sustentado en políticas de ciencia, tecnología e innovación constituye una prioridad en estos momentos en la sociedad cubana. La base para la formación de competencias para la innovación, en el caso de los ingenieros, debe formar parte integrante de los correspondientes modelos de profesional de cada una de las especialidades y deben ir acompañados de estrategias de carácter didáctico para su desarrollo, a fin de flexibilizar la inserción del futuro profesional en su medio laboral y de garantizar las bases para una educación permanente durante toda su vida laboral. En el presente artículo, se brinda una posición teórica alrededor de las competencias para la innovación, se asume una definición y se plantean las principales capacidades que la deben caracterizar en el caso de los ingenieros y que son susceptibles de desarrollar mediante la formación académica. Se realiza una propuesta didáctica, para cada una de las etapas que se identifican en la formación de ingenieros, basada en los objetivos que se consideran para cada etapa según la óptica de la innovación tecnológica; de la metodología de la enseñanza y de la evaluación de los aprendizajes, considerando el núcleo central de la formación a la tarea docente como el escenario en que se materializa todo el proceso de enseñanza aprendizaje, en conjunto con el papel mediador del docente. Palabras clave: competencias, innovación, didáctica, tarea docente, mediación. DIDACTICS FOR TECHNOLOGY INNOVATION. APPROACH TO ENGNINEERING EDUCATION ABSTRACT The development of the country based on science, technology and innovation policies is a priority at the moment in Cuban society. The basis for the training of skills for innovation, in the case of engineers, must be an integral part of the corresponding professional models of each of the specialties and must be accompanied by didactic strategies for their development, in order to to make the insertion of the future professional in their work environment more flexible and to guarantee the bases for a permanent education throughout their working life. In this article, a theoretical position is provided around the competencies for innovation, a definition is assumed and the main capacities that should characterize it in the case of engineers and that are likely to be developed through academic training are proposed. A didactic proposal is made, for each of the stages that are identified in the training of engineers, based on the objectives that are considered for each stage from the perspective of technological innovation; of the methodology of teaching and evaluation of learning, considering the central core of training for the teaching task as the setting in which the entire teaching-learning process materializes, together with the mediating role of the teacher. Keywords: competencies, innovation, didactics, teaching task, mediation. 1. INTRODUCCIÓN En su tesis doctoral, el presidente de la República y primer secretario del Partido Comunista de Cuba, Dr. C. Miguel Díaz Canel Bermúdez, expresaba lo siguiente: “El conocimiento, la ciencia, la tecnología y la innovación constituyen insumos imprescindibles para avanzar en el proceso de desarrollo... No puede haber verdadera soberanía, sostenibilidad y prosperidad sin capacidades de conocimiento, ciencia, tecnología e innovación” [1] Por otra parte, en el citado documento, se señala cómo resume la situación problemática que sustenta la investigación: “La insuficiente efectividad en las conexiones entre las universidades y las entidades de ciencia, tecnología e innovación (ECTI) con los sectores productivos de bienes y servicios y los territorios, limita el impacto del conocimiento, la ciencia y la innovación en el cumplimiento de los objetivos del Plan Nacional de Desarrollo Económico y Social hasta el 2030 (PNDES 2030)” [1] En el caso de las Ciencias Técnicas, en particular en la Universidad Tecnológica de La Habana, José Antonio Echeverría, la organización y desarrollo de programas de formación doctoral, en las diferentes áreas técnicas del saber, a través de proyectos de investigación vinculados a problemas reales en los que participan especialistas, tanto de la universidad como de la producción y los servicios, posibilita sustentar las soluciones, a problemáticas reales, en la ciencia y la innovación tecnológica. No obstante, en dicho proceso, han existido obstáculos relacionados, fundamentalmente, con la cultura científica de los involucrados externos a la universidad, lo cual dificulta cumplir en tiempo las tareas investigativas y sobrecarga de tareas adicionales a tutores y asesores de los implicados. Se trata, en su gran mayoría, de directivos o profesionales de la producción y los servicios, con una gran experiencia en cuestiones técnicas, adquirida durante años de trabajo. Sin embargo, muchas veces desconocen cómo realizar un diseño de investigación para su doctorado, cómo fichar información, dónde tienen que ir a buscar la información requerida y, sobre todo, cuál es el hilo divisorio entre lo que se considera ciencia e innovación y lo que sería una solución ingenieril. Si, por otra parte, se acude a los planes de estudio de las diferentes especialidades, en los modelos del profesional se reflejan determinadas cualidades a formar, como es el caso de la creatividad, de la llamada “iniciativa creadora”, de la “visión de futuro” y otros términos que se constituyeron en letra muerta, al no instrumentarse vías concretas para su formación en las diferentes asignaturas y disciplinas. Aunque, en honor a la verdad, se han ido introduciendo algunas formas que pudieran tributar a ello, como son los proyectos de ingeniería, los cuales, en muchas ocasiones, no son explotados en todas sus potencialidades para el logro de los propósitos descritos anteriormente. En los momentos actuales que vive el país, queda claro que constituye una política del Estado cubano para el desarrollo de soluciones a las problemáticas existentes, la aplicación de la ciencia y la innovación tecnológica como sustrato necesario para el desarrollo sustentable de la nación, en medio de los retos que impone la llamada industria 4.0, además de las restricciones desde lo económico y comercial que impone la cruel política de bloqueo por parte del gobierno de EE.UU desde hace más de sesenta años. El desafío es inmenso. Requiere, ante todo de una cultura tecnológica y de innovación cuyo desarrollo, a pesar de los buenos deseos, es incipiente aún, lo cual no contribuye a la introducción de tecnologías más modernas en los procesos de producción de bienes y servicios. El problema debe analizarse en dos partes. La primera sería la aceleración de los procesos de formación en ciencia y tecnología de los profesionales vinculados a la actividad productiva y de servicios, lo cual se está tratando de garantizar a través de la formación de posgrado, máster y doctorado de dicho personal y que se deriva del fortalecimiento de la relación universidad-empresa. Ello constituye una tarea de carácter continuo, permanente, ya que se trata, no solo de la formación, sino también de la actualización sistemática en aquellos adelantos, en el campo de la tecnología, que afloran de manera exponencial todos los días y a cada momento, lo que promueve la necesidad del estudio y la investigación como elementos vitales en el ámbito laboral, sobre todo en el caso de la empresa estatal socialista, de la cual se pretende que sea paradigma de eficiencia y competitividad en el modelo económico cubano. La segunda parte del problema, no menos importante, es la formación académica del futuro profesional que deberá insertarse en el nuevo ámbito con aquellas competencias requeridas para innovar desde la ciencia. Sería la base o el sustento para que sea más armónica y flexible dicha inserción y que su formación continua se constituya en un proceso natural y no traumático, como lo pudiera ser en el caso del profesional que lleva mucho tiempo vinculado a problemas meramente técnicos y donde estos cambios de paradigma le resultarían más difíciles de asimilar. Todo lo anteriormente señalado se aplica en su totalidad a las especialidades de ingeniería, ya que, en manos de estos profesionales están aquellos procesos que rigen, en su mayoría, la vida de cualquier sociedad. Desde la producción de bienes y servicios, la construcción, la automatización, el uso racional de las fuentes renovables de energía y la informatización, por citar algunas. Resulta imprescindible, por tanto, realizar las siguientes acciones: 1) Reflejar, en los modelos de profesional y planes de estudio de las especialidades de ingeniería, las exigencias en cuanto a las competencias para la innovación, ciencia y tecnología. 2) Explicitar, tanto en los planes de estudio como en los programas analíticos de las asignaturas y disciplinas, estrategias concretas para la formación y desarrollo de dichas competencias. 3) Introducir nuevos métodos y formas para el desarrollo de los diferentes aprendizajes y de sus evaluaciones basadas, en lo fundamental, en la simulación de condiciones reales de desempeño laboral. 4) Diseñar ejercicios de culminación de estudios que posibiliten, tanto la formación como la revelación del desarrollo de las competencias para la ciencia y la innovación en el futuro egresado, que posibilite su inserción armónica en el ámbito laboral. El presente trabajo reflexionará acerca de las dos últimas, ya que se entiende que las dos primeras acciones requieren de un análisis profundo por parte de las comisiones nacionales de carrera en conjunto con el sector productivo y empresarial, a fin de responder a sus necesidades concretas por las vías de la ciencia y la innovación. Por lo que el objetivo fundamental será: proponer, desde una visión didáctica, algunas herramientas que pueden propender al desarrollo en el futuro egresado de competencias para la ciencia y la innovación tecnológica en especialidades de ingeniería. 2. LAS COMPETENCIAS PARA LA INNOVACIÓN EN INGENIEROS La base fundamental para lograr una didáctica para la innovación es la realización de innovaciones didácticas. Estas últimas están encaminadas a la “…creación de nuevas metodologías, innovar en los diseños instruccionales y desarrollar nuevos contenidos que resuelvan las necesidades que sabemos que están por llegar a mediano y largo plazo. Para ello, no es suficiente por sí misma la tecnología digital” [2] De todos es conocido que, en innumerables ocasiones, se magnifica el papel que deben jugar las tecnologías digitales en la educación para la innovación, sin tener en cuenta que ellas de por sí no constituyen la solución del problema, sino de la manera que se incorporan al quehacer profesional, en ese caso del ingeniero, en procesos que conllevan un pensamiento crítico en la toma de decisiones, la eficiencia del trabajo en equipos o la selección, entre múltiples alternativas, de la más viable, económica y funcional. Para ello, es necesario, a juicio de los autores del presente trabajo, la creación de metodologías didácticas basadas en la investigación y espacios de trabajo colaborativos en las que estén presentes las tecnologías digitales como una herramienta más. No puede divorciarse, asimismo, la tecnología en este caso la digital, del sujeto que la utiliza, ya que ella per se no es capaz de hacer una selección correcta de una solución a un problema si este no está contextualizado en determinado ámbito, si no existe alguien que determine la factibilidad de la solución y si no existió un consenso de equipo especializado que defina aspectos como la economía de los recursos humanos y materiales, la sostenibilidad de la solución y aquellos factores que determinan las condiciones para su aplicación, como pudieran ser los riesgos. Por otra parte, ninguna tecnología tiene carácter neutral. "La tecnología no puede ser analizada fuera de la cultura y la ideología que la promueve y engendra", señala M. González [3] y, si se retoman las ideas de Ernesto Che Guevara al respecto, cuando plantea que: "...detrás de cada técnica hay alguien que la empuña, y ese alguien es una sociedad, y con esa sociedad se está o se está contra ella" [4], queda bien claro la no neutralidad de la tecnología y del hombre como su portador y transformador. De ello no están exentas las llamadas tecnologías digitales. Todos los aspectos antes señalados deben tenerse en cuenta a la hora de definir qué elementos integran la competencia para la innovación y su operacionalización, en este caso en el contexto cubano. Una aproximación a una definición que se ajuste a esta situación pudiera ser la siguiente: “…es la capacidad del profesional de desarrollar soluciones creativas, económicas, funcionales y sustentables a cualquier problemática que requiera de la transformación de un producto, proceso o fenómeno, con vistas a la mejora de su calidad, eficiencia y competitividad, incluyendo la transferencia de tecnología a un nuevo contexto” [5]. La anterior definición considera la transferencia de tecnología como una actividad que requiere de la innovación para que sea eficiente. No se puede realizar una transferencia de tecnología “en frío”, es decir, al margen del contexto en que se insertará. Factores como el cambio de clima (en el caso que esté presente), el montaje y la instalación, las condiciones de explotación, requerimientos acerca del mantenimiento y la capacitación del personal que operará con los nuevos equipos, por citar algunos, van a requerir de competencias para la innovación, en este caso, del ingeniero responsable de poner en marcha la nueva tecnología. Este aspecto, en Cuba, reviste importancia dado que la gran mayoría de las tecnologías son importadas, ya que, por ser un país subdesarrollado, no se caracteriza por la creación y producción de nuevas tecnologías. Numerosos autores han definido los atributos de la llamada competencia para la innovación. Algunos como Pérez Peñalvo y Marín García, aceptan como requisitos: la creatividad, el pensamiento crítico, la iniciativa, el trabajo en equipo y el trabajo en red (networking) [6] y [7]; mientras que Keinaner, señala como atributos: la resolución de problemas, el pensamiento sistémico, trabajo en equipo, trabajo en red, orientación a la meta [8]. Otros destacan cualidades como el razonamiento y las interpersonales o sociales [9] y el liderazgo, el espíritu emprendedor, la toma de decisiones y la negociación [10]. Según se puede inferir, existen capacidades que son inherentes al individuo como lo son, por ejemplo: la creatividad, el pensamiento sistémico, el espíritu emprendedor, el liderazgo, el razonamiento. Mientras que hay otras susceptibles de ser desarrolladas a través de procesos formativos como pueden ser: trabajo en equipo, trabajo en redes (networking), las interpersonales o sociales, toma de decisiones o negociación. No obstante, es posible aprovechar las potencialidades de los sujetos con talentos individuales, para el desarrollo de nuevas capacidades y también desarrollar dichas potencialidades para la adquisición de niveles de desarrollo superiores haciendo uso de metodologías de enseñanza, sustentadas científicamente, que contemplen acciones concretas para dichos efectos. En la formación de ingenieros, según las consideraciones de los autores de este artículo, pueden identificarse tres etapas fundamentales: a) de formación general, que abarca conocimientos de las Ciencias Básicas imprescindibles para la formación en la carrera. Debe incluir como eje transversal el aprendizaje de idioma materno y extranjero, b) de formación técnica y práctica profesional, que incluye conocimientos de carácter técnico aplicados a la práctica profesional que se sustentan en aprendizajes precedentes, los cuales constituyen requisitos para transitar por esta área, c) formación especializada con conocimientos y habilidades, que posibilitan el desarrollo de acciones de carácter profesional materializadas en proyectos y trabajos de culminación de estudios. Mientras que, transversalmente, se conciben acciones para el desarrollo personal, que contribuye a la formación humanista del egresado, a fin de lograr un profesional integral. Todo ello implica que, en tránsito por todas las etapas, que incluye la llamada “formación transversal”, debe existir una concepción didáctica, en este caso para la formación de competencias para la innovación, que se constituya en un hilo conductor del proceso de enseñanza aprendizaje y, que en cada caso se ajuste a las necesidades y a las condiciones específicas de cada etapa. De vuelta a las competencias susceptibles de desarrollarse mediante la formación, en ese caso, la académica, pudiera parecer que se están soslayando otras competencias necesarias para el ingeniero, como pueden ser: el pensamiento abstracto, el pensamiento lógico a través de sus habilidades inherentes (análisis- síntesis, inducción-deducción. generalización y una fundamental para el ingeniero que es la comparación, ya que este de forma constante está verificando posibles soluciones y visionando resultados al tomar como base referentes anteriores) y otras como pudieran ser las de carácter técnico. A juicio de los autores, no hay que preocuparse, ya que la innovación las incluye a todas, como afirma Pérez Peñalvo et al. Cuando señala que: “Hablar de ingeniería es hablar de innovación, ambos términos se complementan en la práctica profesional del ingeniero. A través de la historia reciente, la innovación y la ingeniería han mantenido un papel protagónico en las diferentes revoluciones industriales y en la globalización, hasta llegar, en los países de primer mundo, a la cuarta revolución industrial, llamada industria 4.0, en la que la ingeniería ha sabido evolucionar, diversificarse y adaptarse en ambientes tecnológicos y técnicos cambiantes aportando variedad de soluciones, tanto en productos como en servicios” [6]. Se estima, asimismo, que al nivel global se han establecido diversas características para el ingeniero que innove, como son: “… la adaptabilidad, búsqueda constante de soluciones, experimentador e integrador, con amplios conocimientos, curioso y comunicador, responsable, persistente y apasionado, colaborador e integrador, creativo, visionario, desafiante, líder, con inteligencia de negocios y focalizado en el usuario” [9]. Sin embargo, a pesar de las demandas del mundo laboral, de acuerdo con estos autores “…no se ha estudiado ampliamente la visión desde los entornos formativos, respecto a la formación de estas competencias en los estudiantes universitarios de ingeniería” [9]. Para Cuba también aplica esta afirmación al no encontrar evidencias de un tratamiento curricular y didáctico estructurado para la formación de competencias para la innovación en específico, ya que la formación de potencial humano a todos los niveles y por todas las vías disponibles, entre ellas el sistema educacional y con mucho énfasis las universidades, es una cuestión clave en el avance de las actividades de CTI. 3. TEORÍAS QUE SIRVEN DE BASE A UNA DIDÁCTICA PARA LA INNOVACIÓN EN LA FORMACIÓN DE INGENIEROS Se cuenta con varias teorías que sustentan a los procesos de innovación desde el punto de vista pedagógico. La premisa fundamental para una didáctica para la innovación lo constituye el rol de mediador del docente. Se entiende que una enseñanza de corte tradicionalista, donde el papel protagónico lo juega el profesor y el estudiante asume una actitud pasiva, receptora, no propicia el desarrollo de aquellas capacidades que le posibiliten al sujeto de aprendizaje, trabajar en equipo, desplegar su creatividad, trabajar en redes y demás atributos que definen la competencia como tal. La mediación docente ha sido considerada en varias teorías pedagógicas y psicológicas. Entre las más destacadas están las siguientes:  La Teoría de la Modificabilidad Cognitiva (MEC) . Formulada por Reuven Feuerstein, sostiene que el humano es un sistema abierto que cuenta con tendencia a modificarse a sí mismo mediante el accionar de otro humano que funge como mediador [11]. Su creador defiende el carácter dinámico y modificable de la inteligencia y que ella depende de muchas variables de tipo biológicas, sociales y culturales. La llamada “modificabilidad” es abordada por otra teoría suya, la Experiencia del Aprendizaje Mediada (EAM) que la considera en el corazón de la teoría de la Modificabilidad Estructural Cognitiva (MEC). En las propias palabras de Feuerstein: “La EAM es una característica típica de interacción humana, responsable de ese rasgo exclusivo de las personas que es la modificabilidad estructural” [12]. También explica que el aprendizaje se da en dos modalidades de interacción del humano con su medio. Una es la exposición directa a los estímulos, en otras palabras, es la aplicación del modelo conductista; la otra es la EAM para lo cual se necesita de un mediador que actúa intencionalmente con el humano que aprende. En el caso de las competencias de la innovación para un estudiante de ingeniería, se plantea que el trabajo en equipo es un indicador de la competencia, sin embargo, Feuerstein considera que el aprendizaje solamente se da por la interacción del docente-estudiante y no considera la influencia de otros sujetos como los demás estudiantes.  La Psicología Cognitiva y la Teoría del Aprendizaje Significativo. Cuando un estudiante logra asociar un concepto relevante y que, previamente, ha existido en su estructura cognitiva, se está ante un aprendizaje significativo. Este concepto fue mencionado inicialmente por David Ausubel. Según esta teoría, el aprendizaje es más accesible y duradero cuando los nuevos datos se integran a la estructura cognitiva de la persona relacionándose esta nueva información con los conocimientos previamente obtenidos [13]. En este punto el docente, llámese mediador, hace la función de intervenir entre los conocimientos y los estudiantes por medio de actividades apropiadamente planificadas. Esta teoría adolece de soslayar la esfera afectiva de los sujetos, intereses, motivaciones, las relaciones intepersonales etc. Se limita a la relación lineal profesor-estudiante. Sin embargo considera relevante el conocimiento previo como base para la adquisición de nuevos conocimientos y su permanencia en el tiempo.  El Enfoque Histórico-Cultural. Según L.S. Vigosky, la persona es un ser social que “…se construye en las relaciones sociales, culturales e históricas, a través de la mediación de otro sujeto y de los signos existentes de esa mediación” [14]. El lenguaje como parte de esos signos interviene en el proceso de transformación de las funciones psicológicas interpersonales a intrapersonales, facilitando el pensamiento. Como puede verse, de acuerdo a esta teoría, la persona no está configurada solamente por factores biológicos [14]. Vigotsky involucra en su enfoque elementos como la mediación, el desarrollo cultural, la afectividad, la imitación y la influencia del maestro [15]. Su definición de Zona de Desarrollo Próximo (ZDP) como: “La distancia entre el nivel de desarrollo, determinado por la capacidad del sujeto para resolver independientemente un problema, y el nivel de desarrollo potencial, determinado a través de la resolución de un problema, bajo la guía de un adulto o en colaboración con otro compañero más capaz”. [16], le otorga el papel de protagonismo al sujeto que aprende (el estudiante), al que coadyuva al aprendizaje y al resto de los estudiantes más aventajados, valiéndose el proceso de diversos medios o mediaciones para que el aprendizaje se lleve a cabo. Dicho de otra forma, se puede acceder a niveles superiores de desarrollo con ayuda externa. Se trata de conducir al estudiante, mediante retos o desafíos, a la solución de problemas más complejos en condiciones de interacción social. Esta afirmación puede constituir una base necesaria para el fomento o desarrollo de competencias para la innovación y su incorporación a la Didáctica. Cada una de estas teorías brinda un soporte para tratar, desde la Didáctica, la formación de las competencias para la innovación en estudiantes de ingeniería. A continuación, se presentan elementos esenciales aportados por las teorías antes mencionadas . 1. El desarrollo de la inteligencia depende de variables biológicas, sociales y culturales, las cuales deben ser tratadas apropiadamente en el proceso de enseñanza-aprendizaje de cada persona 2. La mediación como característica de la interacción humana, apoya a los procesos cognitivos 3. La importancia de los conocimientos previos para lograr significatividad en los procesos de aprendizaje 4. La importancia de la interacción humana para escalar a situaciones de mayor complejidad 5. Un sujeto, llámese docente o estudiante aventajado, desempeña una función de mediador a través de actividades que encajan en una apropiada Didáctica. 4. ACERCA DE LA DIDÁCTICA PARA LA FORMACIÓN DE COMPETENCIAS PARA LA INNOVACIÓN EN ESTUDIANTES DE INGENIERÍA El análisis llevado a cabo en los dos puntos anteriores brinda, en primer lugar la conceptualización de las competencias para la innovación y sus atributos, entendiéndose que tienen posibilidades de desarrollarse mediante la formación: el trabajo en equipo, trabajo en redes (networking), las interpersonales o sociales, toma de decisiones o negociación. Sin embargo, en paralelo, se requiere de un profesional que posea, además, habilidades para la investigación científica. Ellas le permitirán canalizar, a través de la ciencia, las soluciones novedosas a las problemáticas planteadas en su ámbito profesional y que tienen que ver directamente con el concepto de innovación tecnológica. Se trata de innovar sustentados en la ciencia. Lo contrario sería la llamada racionalización en la que predomina la experiencia como base, sin ninguna fundamentación científica. El propósito es llevar a un nivel superior, de hecho más confiable, las soluciones técnicas, a fin de marchar al compás del desarrollo tecnológico y, en el caso cubano, responder a las políticas ya mencionadas del Partido y Estado de vinculación de la ciencia, la tecnología y la innovación a todos los procesos productivos y de servicios. En el caso de la formación académica, desde un primer momento, el proceso de enseñanza aprendizaje (PEA) debe asumir el desarrollo de las competencias para la innovación, aspecto que, como ya se mencionó debe explicitarse en los planes de estudio y programas analíticos de las carreras de ingeniería. Los correspondientes modelos de profesional deben declararlas dentro de los modos de actuación de cada especialidad. A la hora de concebir que características deberá tener la Didáctica para dicha formación, resulta conveniente sentar las siguientes pautas que servirán de base: 1. El papel del estudiante como sujeto y protagonista activo de su propia formación 2. El papel de mediador del docente y de los estudiantes aventajados 3. Las condiciones para el desarrollo del PEA, deben ser lo más cercanos a las condiciones del ámbito laboral en que se insertará el futuro profesional 4. Desde un primer momento y desde la etapa de formación general, pasando por la de formación técnica y de práctica profesional hasta la formación especializada y culminación de estudios y partiendo del desarrollo de habilidades simples hasta las más complejas, colocar al estudiante frente a problemáticas reales de la práctica laboral 5. Introducir vías desde las etapas tempranas de formación, para el desarrollo de habilidades investigativas, a fin de desarrollar la cultura de que, mediante la ciencia es posible llegar a soluciones más efectivas ante cualquier problemática profesional. A partir de la declaración de objetivos de aprendizaje que contemplen acciones a ejecutar por el estudiante, relacionadas con el desarrollo de las competencias para la innovación, se requiere de una metodología de la enseñanza y evaluación de los aprendizajes en correspondencia con dichos propósitos. Ver Tabla 1. A continuación se realizan algunas recomendaciones para las etapas definidas en la formación profesional. Tabla 1. Propuesta didáctica para el desarrollo de competencias para la innovación según las etapas de formación en ingenieros. Etapa de formación Objetivos de la etapa Metodología de la enseñanza Tareas docentes y evaluación de los aprendizajes Formación general, que abarca conocimientos de las Ciencias Básicas imprescindibles para la formación en la carrera Aplicar, a problemas similares a los profesionales las categorías, leyes y conceptos de las Ciencias Básicas. Utilizar herramientas básicas para la investigación científica y uso del lenguaje materno y extranjero Visitas e intercambios con profesionales de las empresas Planteamiento de problemas relacionados con la profesión cuya solución pueda llevarse a cabo a través de las Ciencias Básicas. Formación científica básica, a través de la realización de fichas bibliográficas, resúmenes de artículos científicos en idioma materno y extranjero Fomento del trabajo en equipos y networking Ejercicios de más de una respuesta en la que el estudiante pueda otorgar los datos para la solución e interpretar el resultado. Fundamentación de la solución alcanzada Presentación y defensa de un resumen científico Mapas conceptuales y procedimentales Formación técnica y práctica profesional, que incluye conocimientos de carácter técnico aplicados a la práctica profesional que se sustentan en aprendizajes precedentes, los cuales constituyen requisitos Aplicar a la solución de problemas profesionales los conocimientos adquiridos en las Ciencias Básicas Identificar y formular problemas reales y la hipótesis para su solución Formular un proyecto para la solución de un problema real Trabajo en equipos y networking para la solución de los problemas reales Vinculación con las empresas y sus especialistas Utilización de las TIC Proyectos realizados en equipos Presentación y defensa de ensayos acerca de algún proceso, ya sea de fabricación, construcción, producción de bienes y servicios, gestión, etc., con el uso de la bibliografía para transitar por esta área Utilizar la información científica para la solución del problema propuesto en idioma materno y extranjero en la operación con programas relacionados con su especialidad Selección de alternativas de solución y su fundamentación a situaciones problemáticas reales. Ejercicios de detección de errores y planteamiento de posibles soluciones Formación especializada con conocimientos y habilidades, que posibilitan el desarrollo de acciones de carácter profesional materializadas en proyectos y trabajos de culminación de estudios Aplicar a la solución de problemas reales los conocimientos adquiridos en las etapas anteriores Identificar un problema real que requiera de la investigación para su solución Elaborar el diseño de la investigación con todos sus componentes Elaborar un proyecto con todos sus componentes estructurales Elaborar y defender su ejercicio de culminación de estudios Trabajo en equipos y networking en la formulación y realización del proyecto, propiciando la toma de decisiones y la negociación. Orientación y asesoría sistemática por parte del docente en el ejercicio de culminación de estudios Opciones viables: Trabajo de graduación o de diploma, presentación y defensa Evaluación de participación en grupo de investigación con tareas asignadas. Resultados de una pasantía en alguna empresa Publicación de artículo científico como resultado de una investigación Los objetivos señalados responden a la formación de competencias para la innovación. Pueden existir, en cada etapa objetivos específicos con otros propósitos de formación En todos los casos es fundamental el papel de orientador y mediador del docente en el PEA, así como la ayuda de estudiantes aventajados en la realización de tareas en equipos. En todos los casos el estudiante tendrá la posibilidad de consultar textos, notas, sitios de internet y toda la información que requiera para la solución de la tarea docente Las anteriores recomendaciones no constituyen una receta rígida. El contexto del proceso de enseñanza aprendizaje puede variar en dependencia de las circunstancias, ámbito, actores, tipo de proyectos, tareas profesionales, recursos materiales y humanos, etc. El papel de la tarea docente encaminada al desarrollo de competencias para la innovación, cobra notable importancia en esta propuesta, ya que es, a través de ella, que se materializa todo el proceso de formación [17]. En cualquiera de las etapas de formación, debe concebirse para dar respuesta, en primer lugar, a los objetivos de la etapa que, a su vez están desagregados del modelo del profesional. De su concepción, diseño y aplicación dependerá, en gran medida, la formación y desarrollo de aquellas competencias que demanda la sociedad para su desarrollo. Se ha considerado que los instrumentos de evaluación del aprendizaje se asemejen, lo más posible, a las tareas docentes realizadas por el estudiante durante el proceso de enseñanza ̶ aprendizaje. Al asumir un rol profesional, desde etapas tempranas, el estudiante aprenderá a comportarse como tal al enfrentar situaciones que a su nivel en cada caso, pueden constituirse en problemas profesionales. Al diseñar la tarea docente, el docente deberá tener en cuenta, no solamente su contenido y las vías para su ejecución, sino también, en paralelo, considerar que ella tributa a la formación de habilidades investigativas en el estudiante, de forma tal que se garantice, desde la formación académica, la formación profesional y la formación en ciencia, tecnología e innovación, que se constituyen en los dos pilares fundamentales para su desarrollo futuro y educación permanente. CONCLUSIONES  La formación y desarrollo de competencias para la innovación, ciencia y tecnología constituye una necesidad para el desarrollo del país. Ello ha sido refrendado por las instancias más altas del Partido y Estado cubanos y constituye la base fundamental de sus políticas de desarrollo.  Se considera que las competencias para la innovación deben formar parte consustancial de la formación académica de los futuros ingenieros. Ello sentará las bases para una actuación profesional consecuente con las políticas de desarrollo del país y como sustento para su formación permanente.  El proceso de enseñanza aprendizaje en la formación de competencias para la innovación tecnológica debe sustentarse en teorías de la enseñanza donde se priorice, entre otros, el papel mediador de docente y el protagonismo del estudiante con su propio proceso de formación.  En cada una de las etapas que constituyen la formación académica de los ingenieros, es posible identificar objetivos de la etapa, metodología de la enseñanza y de evaluación de los aprendizajes, lo cuales todos ellos se materializarán en la tarea docente, célula fundamental del proceso formativo. REFERENCIAS 1. DÍAZ-CANEL BERMÚDEZ, Miguel, “Sistema de gestión del gobierno basado en ciencia e innovación para el desarrollo sostenible en Cuba”. Directores: Aurora Fernández, Mercedes Delgado. Tesis de doctorado, Universidad Central “Marta Abreu”, Santa Clara, 2021. 2. DEHTER, Mario, “Didáctica de la innovación”, [en línea]. CEO Blog [ref. de 20 de abril 2022]. Disponible en Web: https://mariodehter.com/innovar/didactica 3. GONZÁLEZ PÉREZ, Marcela., "¿Es neutral la tecnología?", en "Ecología y sociedad: Estudios", Editorial Ciencias Sociales, La Habana, 1999. 4. GUEVARA DE LA SERNA, Ernesto., citado por González Pérez M., en "¿Es neutral la tecnología?", en: “Ecología y sociedad: Estudios", Editorial Ciencias Sociales, La Habana, 1999. 5. PALMA ALVARADO, César, “Bases teóricas y metodológicas para la formación de competencias para la innovación en estudiantes de Ingeniería Industrial”. Anteproyecto de tesis doctoral, Universidad Don Bosco, El Salvador, 2022. 6. PÉREZ-PEÑALVER, María; AZNAR-MAS, Lourdes; MONTERO-FLETA, Begoña. “Identification And Classification of Behavioural Indicators to AssessInnovation Competence”. Journal of Industrial Engineering and Management, 2018, vol 11, núm. 1, pp. 87-115. 7. MARÍN-GARCÍA, Juan, PÉREZ-PEÑALVER, M. José, & WATTS, Frances. “How to assess innovation competence in services: The case of university students”. Dirección y Organización, 2013, vol 50, pp. 48-62. 8. KEINÄNEN, Marion.; URSIN, Johann.; NISSINEN, Kirsten. “How to measure students’ innovation competences in higher education: Evaluation of an assessment tool in authentic learning environments”. Education + training. 2018, vol 61, núm. 1, pp. 17-30. 9. MUÑOZ-LA RIVERA, Felipe., HERMOSILLA, Pamela, DELGADILLO, Juan., & ECHEVERRÍA, Dayan. Propuesta de construcción de competencias de innovación en la formación de ingenieros en el contexto de la industria 4.0 y los objetivos de desarrollo sostenible (ODS). Formación universitaria, 2021,vol 14, núm. 2, pp. 75-84. 10. JIMÉNEZ, YASMIN. “¿Cómo desarrollar competencias de creatividad e innovación en la educación superior? Caso: carreras de ingeniería del Instituto Politécnico Nacional”. Revista Iberoaméricana para la Investigación y el Desarrollo Educativo, vol 9, núm. 18, pp. 356-376 11. PARADA, Abad., & AVENDAÑO, William. Ambitos de aplicación de la teoría de la modificabilidad estructural cognitiva de Reuven Feuerstein. El Ágora USB, 2013, vol.13, núm. 2, pp. 443-458. Disponible en: https://www.redalyc.org/articulo.oa?id=407736378009 12. NOGUEZ, Sergio. El desarrollo potencial de aprendizaje. Entrevista a Reuven Feuerstein. Revista Electrónica de Investigación Educativa, 2012, vol. 4, núm.2. Disponible en: http://redie.uabc.mx/vol4no2/contenido-noguez.html 13. GARCÉS-COBOS, Luis Fernando, MONTALUISA, Ángel, & SALAS, Edgar. El aprendizaje significativo y su relación con los estilos de aprendizaje. Anales, 2018, vol. 1, núm. 376, pp.231- 248. 14. ORRÚ, Silvia. Bases conceptuales del enfoque histórico-cultural para la comprensión del lenguaje. Estudios Pedagógicos, 2012, vol 38, núm. 2, pp. 337-353. Disponible en: doi:http://dx.doi.org/10.4067/S0718-07052012000200021 15. RUIZ, Conrado. Hacia una comprobación experimental de la zona de desarrollo próximo de Vigotsky. CIENCIA ergo-sum, 2015, vol.22, núm. 2, pp. 167-171. Disponible en: https://www.redalyc.org/pdf/104/10439327009.pdf 16. VIGOTSKY, Lev Semionovich. El desarrollo de los procesos psicológicos superiores (3a ed.). Barcelona: Editorial Crítica. 2009. 275 pp. ISBN 978-84 -8432-046-4 17. MOLINA, Ana T., Didáctica de la Ingeniería: Fundamentos teóricos y metodológicos, Material de curso preevento Congreso Internacional Universidad 2014, La Habana, Ediciones Palco, 2013, 53 pp. LA EMPATÍA COMO VALOR FORMATIVO EN LA INGENIERÍA BIOMÉDICA EN EL CONTEXTO DE LA BIOREHABILITACIÓN Dunia Teresa González Cárdenas1, Yanexy San Martín2 1, 2 Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE Calle 114 # 11901 / Ciclovía y Rotonda, Marianao, La Habana, Cuba 1 dgonzalezc@tesla.cujae.edu.cu RESUMEN Fomentar la empatía crea estudiantes con habilidades personales que les permiten la comprensión frente a situaciones complicadas encontradas en el medio científico, les facilitará la resolución de problemas y tener iniciativas para el trabajo articulado y en equipo. El currículum de la carrera Ingeniería Biomédica de la Cujae enfatiza la formación de valores, sin embargo, se requiere que el profesorado de disciplinas de años superiores cuando los estudiantes están frente a problemas prácticos de la especialidad, establezca la didáctica necesaria que les permitan aplicar los conocimientos adquiridos en función de la dimensión formativa. El estudio realizado tuvo como objetivo, proponer las actividades y recursos de la asignatura Sistemas para la Rehabilitación Terapéutica de manera que fomente en los estudiantes un grado alto de empatía con los receptores de tecnología médica. El Plan de Actividades fue optimizado a la modalidad a distancia durante el curso 2021 a través de la plataforma MOODLE; fueron adecuados los seminarios presenciales a reportes de lectura de artículos de investigación de alto impacto, debates interactivos a partir del análisis y la valoración de tecnologías biomédicas patentadas. El método de estudio de caso, de trabajo independiente y de elaboración conjunta fue empleado dentro de las actividades. Al culminar el proceso, los estudiantes le encontraron importancia a sus profesiones y su alta interacción con la vida humana, de modo que analizar las diferentes perspectivas de un diseño y las consecuencias de otro desde su concepción o desde su mal empleo, resultan en experiencias inolvidables para los educandos. PALABRAS CLAVES: empatía, bioingeniería, didáctica, reporte de lectura, debate, estudio de caso EMPATHY AS A TRAINING VALUE IN BIOMEDICAL ENGINEERING IN THE CONTEXT OF BIOREHABILITATION ABSTRACT Increasing empathy creates students with personal skills that allow them to understand complicated situations found in the scientific environment, it will make it easier for them to solve problems and have initiatives for articulated and team work. The curriculum of the Biomedical Engineering career at CUJAE emphasizes the formation of values; however, it is required that the teaching staff of disciplines of higher years, when the students are facing practical problems of the specialty, establish the necessary didactics that allow them to apply the knowledge acquired based on the training dimension. The objective of the study carried out was to propose the activities and resources of the subject Systems for Therapeutic Rehabilitation in a way that fosters in students a high degree of empathy with the recipients of medical technology. The Activity Plan was optimized for distance mode during the 2021 academic year through the MOODLE platform; Face-to-face seminars were adapted to reading reports of high-impact research articles, interactive debates based on the analysis and assessment of patented biomedical technologies. The method of case study, independent work and joint elaboration was used within the activities. At the end of the process, the students found importance in their professions and their high interaction with human life, so that analyzing the different perspectives of a design and the consequences of another from its conception or from its misuse, result in unforgettable experiences. for learners. KEY WORDS: empathy, bioengineering, didactics, reading report, debate, case study 1. INTRODUCCIÓN La función social del ejercicio profesional en Bioingeniería debe estar enfocada a proteger y ayudar a los pacientes, responsabilizándose del manejo y diseño de nuevas tecnologías que permitan un diagnóstico y tratamiento de la vida humana en la que se respete la dignidad como principio rector y que además propenda por mejorar la calidad de vida de las personas. El vincular y fomentar la empatía en conjunto con el aprendizaje significativo creará estudiantes con habilidades personales que les permitirán la comprensión frente a situaciones complicadas encontradas en el medio, les facilitará la resolución de problemas y tener iniciativas para el trabajo articulado y en equipo. Es transcendental y necesario que el sistema educativo brinde al educando la oportunidad de que cada día reciba nuevos aprendizajes con un enfoque pedagógico vinculado con la empatía. Experimentar empatía en el contexto de la ingeniería y reflexionar sobre esas experiencias lleva a los estudiantes a involucrarse en aspectos fundamentales de su propia formación profesional.[1, 2] La realidad presente es que el modelo de ciencia de la ingeniería que prevalece en las escuelas de ingeniería hoy enseña a los estudiantes a aplicar principios científicos a problemas tecnológicos; sin embargo, produce graduados que tienen dificultad para adaptar su conocimiento a problemas complejos del mundo real que no son tan formulados como los problemas que enfrentan en los libros de texto. De hecho, los estudiantes de ingeniería dedican gran parte de los dos primeros años de sus programas a las ciencias básicas y las matemáticas. La ingeniería resultante se gradúa de este estilo de ingeniería.[2, 3]. Por el contrario, manejar las emociones, el afecto, la motivación como habilidades y competencias cognitivas genera en el estudiante superación personal, entusiasmo por el aprendizaje y la activación del conocimiento. La empatía desempeña un papel fundamental en la creación de nuevas ideas y en la transformación de la realidad, ya que significa la capacidad de comprender los problemas complejos de la actualidad desde muchos puntos de vista y la capacidad de colaborar para resolverlos.[4-6]. El currículum de la carrera Ingeniería Biomédica de la Universidad Tecnológica de La Habana (CUJAE) apunta directamente a la formación de valores, sin embargo, se requiere que el profesorado de disciplinas de años superiores cuando los estudiantes están frente a problemas prácticos de la especialidad, establezca la didáctica necesaria que les permitan aplicar los conocimientos adquiridos en función de la dimensión formativa. El ingeniero biomédico debe aplicar ciencia y tecnología para mejorar la calidad de vida y aumentar la independencia de personas con habilidades diferentes (discapacidades), de modo que han de vibrar respecto a sus necesidades. El estudio realizado tuvo como objetivo, proponer las actividades y recursos de la asignatura Sistemas para la Rehabilitación Terapéutica para la carrera Ingeniería Biomédica, de último año del curso a distancia de la CUJAE, de manera que fomente en los estudiantes un grado alto de empatía con los receptores de tecnología médica, a partir de padecimientos clínicos visuales de carácter neuro-músculo-esquelético y/o sensorial. 2. DESARROLLO Materiales y métodos La perspectiva del estudio se fundamentó en la utilización de métodos de nivel teórico, empírico, y el análisis comparativo. Entre los métodos teóricos, el análisis-síntesis se empleó con la finalidad de procesar la información consultada; la inducción-deducción para la reformulación de la propuesta teórica y metodológica. Los métodos empíricos adoptados fueron la revisión documental y la aplicación de encuestas a estudiantes. Para valorar el comportamiento del objetivo propuesto se precisó de un estudio exploratorio y descriptivo, sobre el empleo de la modalidad a distancia basada en Sistema de Gestión de Aprendizaje (SGA): MOODLE y CURSAD, en la enseñanza de Sistemas de Rehabilitación Terapéutica en la carrera Ingeniería Biomédica en la CUJAE, que fue realizado en el primer periodo del curso escolar 2021, en el Cuarto y Quinto año de la modalidad Curso Diurno. La asignatura Sistemas para la Rehabilitación Terapéutica (SRT) es una asignatura básica y obligatoria en la formación integral del Ingeniero Biomédico que corresponde al Currículo Propio del Plan de Estudio D, y con característica Electiva/Optativa en el Plan de Estudios E. Se encuentra concebida con formas organizativas tipo conferencias, seminarios, laboratorios y tarea extraclase. El curso estuvo marcado por un alto por ciento de trabajo independiente, en algunos casos los estudiantes se remitieron a recursos de Internet, sin embargo, las fuentes de información básicas y complementarias fueron facilitadas a través de los sitios establecidos por el Departamento del CEBIO. La población estuvo constituida por 46 estudiantes, se seleccionó como población al grupo natural, por tener las mismas posibilidades de cumplir con los objetivos previstos para la asignatura seleccionada. La muestra fue conformada según consentimiento de ellos por 42 estudiantes. de ellos un 42.86 % de varones, y un 57.14 % hembras (33,3%) con un promedio de edades de 23,4 años. Debido a las características de los estudiantes (Tabla 1) las actividades grupales y colaborativas debían funcionar a distancia dado los lugares de residencia. Algunos estudiantes participantes eran de otras provincias (Artemisa, Cienfuegos, Matanzas, Pinar del Rio) y otros debían trasladarse kilómetros para obtener los recursos necesarios durante cada semana. Una característica particular durante la pandemia fue el vínculo laboral de los estudiantes como cuentapropistas para apoyar financieramente sus hogares, y el cuidado de familiares con enfermedades de alto riesgo que les imposibilitaba buscar alimentos y demás víveres. En este sentido, los estudiantes de biomédica se encontraban muy propensos a desmotivarse o no prestar atención a la asignatura. En el caso de los estudiantes limitados en recursos de internet, la atención fue individualizada a través de telefonía y mensajería, algunos no podían participar de grupos de estudio dado que vivían en otras provincias, otros manifestaban que no tenían los recursos suficientes para avanzar individualmente en la asignatura. Tabla 1. Caracterización de estudiantes de Ingeniería Biomédica 5to/4to año m= 42 Provincias de Residencia Fuera de la Habana 8 La Habana 36 Sexo Femenino 18 Masculino 24 Vínculo Laboral/ Cuidado de familiar Si 24 No 18 Dispositivos con conexión a Internet o cercanía Suficiente 32 No suficiente 10 El contenido del curso fue optimizado a través de la integración de la enseñanza, la investigación científica y los recursos de calidad social. Se procedió a identificar la información básica de la asignatura, y las actividades y recursos de la plataforma Moodle que se utilizaron en la enseñanza de SRT, antes de la pandemia para reajustarlos a la no presencialidad impuesta por la pandemia. La selección de las actividades evaluativas y los instrumentos de evaluación también formaron parte del diseño, de manera que se segregó de la siguiente manera: Información Básica de la Asignatura: donde se enmarcan las informaciones básicas de la asignatura, el cronograma y sistema evaluativo. Así como la bibliografía de base y la presentación de los profesores y contactos. La asignatura fue organizada didácticamente por temáticas con el contenido organizado por videoconferencias resumen, dentro de las temáticas las actividades evaluativas correspondientes, de manera que los estudiantes fueran venciendo temáticas y aplicando los contenidos impartidos. A su vez, en el caso de Laboratorios, fueron empleados videos de equipos en funcionamiento y sus partes y componentes. Actividades y Documentos enviados por los estudiantes: Se almacenaron las evidencias recopiladas sobre informaciones que enviaron los estudiantes (en documentos en word, pdf). Evaluaciones: El empleo de Moodle ayudó al proceso de evaluativo de la asignatura. Una vez diseñadas las actividades y recursos de la asignatura, se procedió a su organización didáctica por temas. El diseño contiene actividades con recursos transmisivos, interactivos y colaborativos que posibilitan niveles de interacción entre profesor-estudiante, estudiante-estudiante, y estudiante-contenidos de aprendizaje. Las actividades colaborativas con carácter sincrónico (Chat) fueron realizadas a través de a aplicación para mensajería WhatsApp por las versatilidades que favorece un debate dinámico, donde el profesor conduce el proceso por medio de preguntas. Desde la perspectiva didáctica las características distintivas de las actividades y recurso empleados en MOODLE y en CURSAD fueron:  Tarea: Los estudiantes devuelven el resultado de su trabajo en un archivo según la fecha establecida. la fecha respectiva al servidor, así como recibir notificaciones con sus calificaciones y sus comentarios correspondientes. En SRT se programaron ejercicios sobre diferentes tópicos, y ejercicios para autoevaluación.  Foro: Es un medio ideal para publicar pequeños mensajes, y mantener discusiones públicas sobre la información u opiniones vertidas allí. Las intervenciones pueden verse anidadas y pueden existir varios temas de discusión. Se realizó un Foro de debate sobre las posiciones de los estudiantes respecto a la Terapia Electroconvulsiva.  Wiki: Es un tipo especial de página Web, con la característica fundamental de que es modificable por los usuarios. Una página Wiki es accesible en modo de edición para usuarios externos. Se elaboraron Wikis sobre los distintos electroestimuladores existentes: cardiaco, musculares, nerviosos, o combinación.  Taller: Es una actividad para el trabajo en grupo con un gran número de opciones. Permite a los participantes diversas formas de evaluar los proyectos de los demás, así como proyectos-prototipo. También coordina la recopilación y distribución de esas evaluaciones de varias formas. Se utilizó para la defensa de tarea extra-clase final, donde evidenciaron las simulaciones de los conformadores de onda dl dispositivo terapéutico asignado. Los recursos más utilizados fueron archivo, videos e Imágenes. Se aplicó una encuesta a los 42 estudiantes de ambos grupos para conocer sus criterios sobre las actividades y recursos más utilizados, y sobre el impacto que ha tenido la enseñanza a distancia sobre el aprendizaje de SRT. Resultados y discusión El diseño de las actividades docentes es acoplado dentro de las prevista en los cursos docentes presenciales. La figura 1 muestra las principales adecuaciones al Plan de secuencia de Actividades de la Asignatura, donde la parte fundamental la ocupaban los seminarios con modalidad presencial, además de clases prácticas y prácticas de laboratorio. Las clases seminarios fueron sustituidas por la entrega de Reporte de Lectura a través de la entrega de tareas con fechas previas a los debates. El primer Reporte en función del empleo de la tecnología biomédica en los pacientes y sus repercusiones, el segundo en función del diseño de dispositivos biomédicos en torno a las temáticas III, IV y V, y que resultaron en patentes. Las prácticas de Laboratorio fueron sustituidas por videos de los dispositivos referidos en las temáticas, con posterior debate. La temática VI de tendencias en sistemas biomédicos fue desplazada como conferencia, y agregada en cada sección, con el cierre de cada actividad de Debate el profesor expresaba en breves ideas la actualidad sobre cada temática. Figura 1: Reajuste de las Actividades Docentes entre los cursos anteriores y el pandémico. Los reportes de lectura conducen al alumno a una lectura más profunda y enfocada para que pueda expresar, con diferentes propósitos, el aprendizaje adquirido a partir de dicha lectura. Aplicar el conocimiento que se genera a partir del texto para analizar o resolver una situación específica. El Reporte de Lectura 1 tiene el objetivo de analizar tecnológicamente el dispositivo implantado a partir de un caso clínico asignado por pares a los estudiantes. Fueron asignados artículos publicados en revistas de alto impacto por la comunidad médica, que exponían casos de la vida real sobre problemas clínicos en pacientes con dispositivos médicos implantables, marcapasos cardíacos. Debían responder cinco preguntas y posteriormente escribir un informe de las cuestiones principales analizadas. Se emplea por ende estudios de caso como método de aprendizaje activo, los estudiantes son obligados a analizar y enfrentarse a los dilemas éticos y/o científicos que se presentan en una determinada situación. Las preguntas responden a niveles de asimilación en que los estudiantes se apropian del contenido, dígase el reproductivo y el aplicativo: 1.¿Cuál es la situación problemática? ¿Por qué? 2. ¿En qué consiste este tipo de marcapasos? 3. ¿Qué ventajas y desventajas tiene este dispositivo según la literatura consultada? 4. ¿Se corresponden las ventajas y desventajas planteadas con la patología en que fue empleada? Enuncie su criterio 5. ¿Qué componente es responsable del mal funcionamiento? ¿Qué está afectando su comportamiento? 6. ¿Cómo ingeniero biomédico que solución tecnológica le darías al problema? Argumente La pregunta 4, no es entregada en la orientación de la evaluación, sino que es planteada durante el debate; un 19.04 % de los estudiantes representado en 4 equipos respondieron esta interrogante como parte del proceso de análisis realizado. El caso clínico referente a la miocardiopatía dilatada en la edad pediátrica por la estimulación por marcapasos del ápex del ventrículo derecho, con distintos modos de funcionamiento: VVIR, DDD, VDD, deja en los estudiantes una marca de conocimientos y emociones. Debido a que la estimulación en el ventrículo derecho puede ser contraproducente en algunos pacientes, los estudiantes desarrollaron soluciones en el diseño de estos dispositivos y vibraron con estos niños, ya un paciente falleció durante el proceso terapéutico[7]. Se tocan pinceladas del tema de la ética en ingeniería y de empatía con los pacientes que emplean los diseños biomédicos. Martin y otros (2021), comentan que, para educar a los estudiantes sobre el tema de la ética de la ingeniería, se deben cubrir tres áreas principales. Primero, los estudiantes necesitan preocuparse por la ética, a preocuparse por navegar por los dilemas éticos y a ser ética y profesionalmente responsables. En segundo lugar, la lección debe desarrollar las habilidades intelectuales del estudiante para manejar dilemas éticos. En la fuerza laboral, los estudiantes tendrán que enfrentar decisiones que podrían ser bastante difíciles de superar. El método de enseñanza implementado debe ofrecer una mano amiga para guiar a los estudiantes a través de estos callejones sin salida éticos. El tercer componente de una educación ética impactante es el conocimiento teórico. Deben tener un conocimiento profundo en los campos de la bioética, la ética de la investigación, la ética profesional y la ética social, se puede argumentar que el conocimiento teórico podría ser una herramienta útil para ampliar la perspectiva del estudiante en cuanto a la decisión ética.[8] El estudio de caso proporciona tanto un mecanismo para llevar situaciones éticas del mundo real al aula como un método para fomentar un entorno de aprendizaje colaborativo para los estudiantes, por medio del debate. Este método también fomenta una buena discusión y la capacidad de ver una situación de varias maneras, así como la aplicación de los contenidos impartidos para dar soluciones a las problemáticas planteadas. Esta actividad contribuye además al pensamiento crítico, respecto a la solución dada por los especialistas médicos que corresponde a su praxis y en ocasiones difiere a la solución tecnológica en el dispositivo. Otra salida de la actividad es la realidad del acceso limitado de estas tecnologías por los países menos desarrollados, ejemplo es la existencia de marcapasos con modo de estímulo auriculoventriculares y la existencia en Cuba de marcapasos a demanda (VDD) y las características propias que le acompañan como el síndrome del marcapasos. Biggs (2011) expresa que, en las clases menores de 30 estudiantes, a veces la lectura formal se convierte en la lectura formal con un guion más relajado y conversacional, una buena enseñanza interactiva requiere improvisación sobre el terreno en respuesta a los eventos a medida que ocurren. Las preguntas y los comentarios de los estudiantes pueden ser la base para repensar y reconstruir ideas nuevas y emocionantes, si se levanta la pelota y se lleva en la dirección adecuada. Los papeles se han originado de esa manera. La experiencia le da un significado real a la frase “la construcción social del conocimiento”.[9] En este sentido, el orden de los artículos y sus análisis en el debate deben representar la construcción completa el conocimiento. El objetivo es que apliquen los contenidos de Marcapasos cardíacos, y descubran primeramente las principales dificultades de cada tipo de estimulación cardíaco y luego su relación con los padecimientos cardíacos de los pacientes. A partir de aquí, son capaces de identificar un banco de problemas en dichos dispositivos y presentar posibles soluciones. El Reporte de Lectura 2 tiene el objetivo de valorar patentes de invención de dispositivos biomédicos dentro de las temáticas de Magnetoterapia, Fototerapia y Ultrasonido Terapéutico, como método terapéutico. Para ello se auxilian de la interacción fisiológica con el cuerpo humano y de los principios físicos aplicables. Esta actividad produce un debate ético sin respuestas acertadas o desacertadas, les crea una fuente de juicio científico y criterios propios. El análisis de dispositivos patentados con “aparentes incoherencias o simplicidad tecnológica” les permite crear un sentido de yo puedo y yo también podré llegar allí en un futuro. El debate titulado Terapia Electroconvulsiva ¿solución o tortura?, luego de la visualización de un video desde la perspectiva de un médico psiquiatra. Esta actividad integra la enseñanza a la extensión de la cultura científica, debido a que es un tema tabú y preconcebido como errante. La conferencia en cuestión les ofrece las bases de la terapia y el cómo se realiza el procedimiento. El 97% de los estudiantes reconoce que es una solución a patologías y que han sido víctimas del daño de las redes sociales, el cine y otras campañas antiguas por desacreditarlas. La principal salida radica en fomentar la transmisión de la cultura científica y el criterio ético-profesional. Al concluir el debate en un peldaño superior encuentran el aliciente a sus desventajas en la naciente Terapia al Nervio Vago. Según comenta Campoverde-Celi (2021) una buena estrategia de Neuroeducación es crear conexiones emocionales con el contenido del temario a enseñar. En virtud de esto se podrían fusionar las artes visuales e interpretativas de forma que activen las respuestas emocionales, potencien así el aprendizaje. El empleo de medios audiovisuales como videos, que guarden relación con el contenido que se imparte, es una vía interesante que contribuye a dinamizar la clase y a motivar a los estudiantes para el aprendizaje significativo del tema.[10] En concordancia los breves testimonios de vida de pacientes que han mejorado su calidad de vida gracias a diseños específicos y soluciones en el campo de la bioingeniería motivan a los estudiantes a proveer diseños a las problemáticas actuales en el marco de la Biorehabilitación. Durante todos los debates el diseño de preguntas convergentes y divergentes son empleadas, para conducirles a los objetivos propuestos. Las preguntas convergentes se hacen con una respuesta correcta en mente y los estudiantes son dirigidos hacia esa respuesta. Las preguntas divergentes, a diferencia de las preguntas convergentes, son útiles para probar las experiencias de los estudiantes y usar tales experiencias para construir ideas e interpretaciones nuevas, para incorporarlas como ejemplos del caso en cuestión y para la reflexión de los estudiantes. [9] El debate favorece la coevaluación, surgen nuevas interrogantes y soluciones a un mismo problema. Las actividades diseñadas expresaron en un 84.62 % de satisfacción en los estudiantes al culminar el proceso, lo cual se corresponde con potenciar un aprendizaje significativo, en el cual los estudiantes le encontraron importancia a sus profesiones y su alta interacción con la vida humana, de modo que analizar las diferentes perspectivas de un diseño y las consecuencias de otro desde su concepción o desde su mal empleo, resultan en experiencias inolvidables para los educandos. 3. CONCLUSIONES A medida que el mundo se vuelve más integrado cultural y ambientalmente, los ingenieros deben adaptarse a los desafíos con innovaciones responsables que abarcan contextos éticos y ecológicos. En otras palabras, deben preocuparse de que sus soluciones de ingeniería tengan un impacto sostenible tanto en las personas como en el planeta, lo que requiere empatía. Desde el proceso de enseñanza-aprendizaje se pueden optimizar actividades que fomenten la aplicación de los contenidos cognitivos conjunto a la formación de valores. De las actividades diseñadas el grupal basado en casos resultó ser el más efectivo para ayudar a los estudiantes a comprender la toma de decisiones en el mundo real, las experiencias del debate y la regulación del aprendizaje mediado en los debates influyen sobre el aprendizaje significativo en el estudiantado. La investigación constituye una experiencia de base a futuras investigaciones en el área de la enseñanza de la bioingeniería. Pese a las dificultades pandémicas, la asignatura se convirtió en un caldo de cultivo de empatía, y de satisfacción por aprender. 4. REFERENCIAS [1] RODRÍGUEZ-SALTOS, Elisa Rafaela and MOYA-MARTÍNEZ, María Elena, "Importancia de la empatía docente-estudiante como estrategia para el desarrollo académico," Dominio de las Ciencias, 2020, vol. 6, no. 2, pp. 23-50. doi: http://dx.doi.org/10.23857/dc.v6i3.1205 [2] WILSON, Eric and MUKHOPADHYAYA, Phalguni, "Role of Empathy in Engineering Education and Practice in North America," education sciences, Review, 2022, vol. 12, no. 420, pp. 1-12. doi: https://doi.org/10.3390/educsci12060420 [3] KING, Paul H. and COLLINS, Jerry C., "Ethical and Professional Training of Biomedical Engineers," Int. J. Engng Ed., 2006, vol. 22, no. 6, pp. 1173-1181. [4] WALTHE, Joachim et al., "A Model of Empathy in Engineering as a Core Skill, Practice Orientation, and Professional Way of Being: A Model of Empathy in Engineering," Journal of Engineering Education 2017, vol. 106, no. 1, pp. 123–148. [5] WALTHER, Joachim et al., "Empathy and engineering formation," J Eng Educ. , Review, 2020, pp. 1-23. doi: https://doi.org/10.1002/jee.20301 [6] NUMANEE, Imam Zafar et al., "Developing empathy among first-year university undergraduates through English language course: A phenomenological study," Heliyon, Research article, 2020, vol. 6, no. e04021, pp. 1-15. doi: https://doi.org/10.1016/j.heliyon.2020.e04021 [7] CHIESA, Pedro et al., "Miocardiopatía dilatada en la edad pediátrica por marcapasos con estimulación en el ápex del ventrículo derecho," Arch Pediatr Urug, 2008, vol. 79, no. 2, pp. 125-138. [8] MARTIN, Diana Adela et al., "A Multi‑ level Review of Engineering Ethics Education: Towards a Socio‑ technical Orientation of Engineering Education for Ethics," Science and Engineering Ethics, 2021, vol. 27, no. 60, pp. 1-38. doi: 10.1007/s11948-021-00333-6 [9] BIGSS, John and TANG, Catherine, Teaching for Quality Learning at University, Fourth ed. USA: McGraw-Hill Education, 2011, p. 418. ISBN: 13: 978-0-33-524275-7 [10] CAMPOVERDE-CELI, Wilma et al., "Neuroeducación, una disciplina inaplazable en la superación docente universitaria," Opuntia Brava, 2021, vol. 13, no. 2, pp. 378-390. Sobre los autores Yanexy San Martin: profesora Asistente del Departamento de Bioingeniería de la CUJAE, Master en Bioingeniería, jefa de la disciplina de Biorrehabilitación, profesor principal de la asignatura Sistemas para la Rehabilitación Terapéutica. Ciudad de La Habana, Cuba. Dunia Teresa González Cárdenas: profesor Instructor de la Dirección de Extensión Universitaria de la CUJAE, cursante de Maestría en Sistemas Digitales, profesor de la asignatura Sistemas para la Rehabilitación Terapéutica. Ciudad de La Habana, Cuba. EXPERIENCIAS PARA LA FORMACIÓN DE INGENIEROS DESDE LA ORIENTACIÓN EDUCATIVA EN EL PROCESO DE ENSEÑANZA- APRENDIZAJE Norma González Ruda1, Ibette Alfonso Pérez2, Raquel Bermúdez Morris3 1 y 3 Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE, Calle 114 # 11901 / Ciclovía y Rotonda, Marianao, La Habana, Cuba; 2Universidad Técnica de Oruro y la Universidad Nacional Siglo XX. Bolivia. nruda@tesla.cujae.edu.cu; ialfonso29@gmail.com; rbmorris@tesla.cujae.edu.cu RESUMEN Este trabajo tiene como propósito la implementación de acciones de orientación educativa en el proceso de enseñanza-aprendizaje para la formación de ingenieros en la Universidad Tecnológica de la Habana. Se utilizan métodos de investigación teóricos y empíricos que integran los paradigmas cuantitativo y cualitativo. Se propone la realización de acciones de orientación educativa dentro del proceso de enseñanza-aprendizaje que responden a las necesidades de los estudiantes universitarios. La implementación se realizó en el primer año de la carrera Ingeniería en Telecomunicaciones y Electrónica. Todo el proceder permitió la disminución de la cantidad de estudiantes con dificultades después de la aplicación de las acciones. El resultado fue posible gracias a la cooperación del profesor, el grupo y a la participación protagónica de los estudiantes en la satisfacción de sus necesidades. Los logros obtenidos demuestran la necesidad y efectividad de la orientación educativa en el proceso de enseñanza-aprendizaje. PALABRAS CLAVES: formación de ingenieros, orientación educativa, estudiantes, proceso enseñanza- aprendizaje, educación superior. EXPERIENCES FOR THE TRAINING OF ENGINEERS FROM THE EDUCATIONAL GUIDANCE IN THE TEACHING LEARNING PROCESS ABSTRACT The purpose of this work is to implement educational guidance actions in the teaching learning process for the personal growth of students in their training as engineers at the technological university of Havana. theoretical and empirical research methods that integrate the quantitative and qualitative paradigms are used, which allowed to achieve the results presented. the review of the scientific literature made it possible to systematize the essential foundations of the investigated topic, proposing as a result the design and application of educational guidance actions within the teaching learning process that respond to the needs of university students. Among the actions, the protagonist participation of the students is privileged under the cooperation of the teacher and the group. This process is carried out in the dynamics of training of a subject of the curriculum in the first year of the telecommunications and electronics engineering degree. KEY WORDS: training of ENGINEERS, educational guidance, students, teaching learning process, higher education. 1. INTRODUCCIÓN Formar profesionales de calidad, preparados para los retos que impone la sociedad del siglo XXI, es un empeño de la universidad en cualquier país del mundo. Pero, ¿traen los jóvenes la preparación necesaria para transitar con éxito por su carrera y obtener esta formación de calidad? Este desafío presupone una labor de orientación desde su ingreso a la universidad, pues no siempre vienen con un proyecto determinado, ni con los recursos personales necesarios para llevarlo a cabo. El primer año de la universidad representa para los jóvenes una meta en la que, en su mayoría, necesitan ayuda. En la literatura científica se reflejan diferentes problemáticas características de los estudiantes universitarios que denotan una preparación insuficiente para asumir su formación como profesionales, entre ellas se encuentran: inadaptación, falta de métodos y técnicas para estudiar, inseguridad en la toma de decisiones, problemas de comunicación, conflicto con profesores, altos niveles de estrés, rezago en las asignaturas, pérdida de confianza en sí mismo, aplicación de la ley del mínimo esfuerzo, dificultades en el autocontrol, dificultades en las relaciones interpersonales, desmotivación por la carrera y abandono de los estudios [1], [2], [3 , [4], [5], [6], [7]. En relación con este particular, en la educación superior se han desarrollado diversas propuestas desde la Pedagogía y la Psicología con el objetivo de guiar a los estudiantes en el desarrollo de sus recursos personales de manera que coadyuven a su proceso de formación, así lo refieren varios autores [8], [9], [10], [11]. Específicamente en la formación de ingenieros no son muchas las experiencias que existen en este sentido. Hace varios años ha comenzado a gestarse una nueva percepción de este proceso de formación y del papel del profesor en este campo que proyecta “Un proceso de enseñanza-aprendizaje que durante cientos de años ha centrado su atención en el profesor y en la reproducción de los contenidos de sus clases por los alumnos, exige hoy una transformación inmediata hacia la formación de un nuevo maestro que atienda al alumno como ser humano en desarrollo, trate de reconocerlo y conocerlo en su identidad y diferencia como persona, y muestre interés en su crecimiento personal y humano” [12]. En base a estos presupuestos, en la Universidad Tecnológica de la Habana José Antonio Echeverría existen experiencias sobre la orientación educativa a los estudiantes que se forman como ingenieros. Desde el curso 2013-2014 hasta la actualidad se lleva a cabo un programa de “Mentorías” en la carrera de Ingeniería Automática que se concibe dentro de la estrategia educativa para incrementar la atención personalizada como vía para resolver las dificultades que presentan los estudiantes de primer año. También se ponen en práctica en el segundo año de la carrera de Ingeniería Biomédica un conjunto de acciones integradoras de los procesos sustantivos universitarios, que se aplican en la asignatura de Física. En la primera semana del curso académico (semana preparatoria) se programan actividades para orientar a los estudiantes de primer año en su acercamiento a la vida universitaria. En este período se imparte el programa Aprender a aprender, se brindan conferencias especializadas sobre temáticas generales y particulares relacionadas con la profesión, y se refuerzan contenidos precedentes. Cada experiencia en sí resulta un paso de avance en la orientación educativa como proceso constitutivo en la formación del ingeniero. Sin embargo, debería privilegiarse toda la comunidad universitaria con las acciones de orientación educativa en el proceso de enseñanza-aprendizaje por ser el espacio de mayor interacción profesor estudiante y donde más se puede establecer la ayuda con fines educativos. “La clase se convierte en un espacio socio psicológico y pedagógico especial para la orientación educativa” [13]. Por tanto, se hace necesario hacer más efectiva la orientación educativa que se realiza en el proceso de enseñanza-aprendizaje de las carreras de ingeniería, implementando acciones que guíen a los estudiantes, en aras de lograr su autorregulación y crecimiento personal para un tránsito exitoso en su formación como profesional. Los profesores deben asumir la función de orientador en el proceso de enseñanza-aprendizaje y reflexionar acerca de cómo pueden contribuir al crecimiento personal de sus estudiantes. Es por ello que el objetivo de este trabajo se centra en proponer la implementación de acciones para la orientación educativa en el proceso de enseñanza-aprendizaje de las carreras de ingeniería, que atiendan las necesidades de los estudiantes y contribuyan al crecimiento personal en su proceso de formación. 2. DESARROLLO El proceso de enseñanza-aprendizaje es un “proceso de socialización donde el estudiante se inserta como objeto y sujeto de su aprendizaje, asumiendo una posición activa y responsable en su proceso de formación, de configuración de su mundo interno, como creador y a la vez depositario de patrones culturales históricamente construidos por la humanidad” [14]. De ahí que permita a sus protagonistas llevar a cabo una relación de ayuda que favorece el crecimiento personal de los estudiantes. Asimismo, es un proceso de colaboración. Se plantea que es la “cooperación entre educadores y estudiantes en la cual se dirige la apropiación de los contenidos de la profesión” [15]. El proceso de enseñanza-aprendizaje se dirige a través de la intervención recíproca entre los protagonistas del proceso, elemento este que permite estimular el crecimiento personal de los estudiantes, con libertad de estos. Al referirse al proceso de enseñanza-aprendizaje en la formación de ingenieros se plantea que “se requiere diseñar un proceso que se caracterice por ser interactivo y colaborativo bajo la orientación del profesor, y no menos importante es el compromiso de las instituciones educativas universitarias de dar esas oportunidades” [16]. En este marco se puede realizar la orientación educativa, entendida como una relación de ayuda que, mediante el vínculo interpersonal entre el profesor y los estudiantes, la intervención diagnóstica conjunta y la estimulación y el despliegue de las potencialidades de cada educando y del grupo en las actividades docentes, contribuye al crecimiento personal El profesor en el proceso de enseñanza-aprendizaje está en constante intercambio con los estudiantes e influye en ellos. Esta influencia no es directa, se produce mediatizada por la actividad docente que realiza. En consecuencia, el profesor ejecuta acciones de orientación educativa dentro de la dirección compartida del proceso de enseñanza-aprendizaje para el crecimiento personal de los estudiantes. Según la teoría de la actividad de Leontiev, la actividad se define como “la unidad de la vida, mediatizada por el reflejo psíquico, cuya función real consiste en que orienta al sujeto en el mundo de los objetos” [17]. En su estructura, la actividad es concebida como un sistema de acciones y operaciones; desde el punto de vista funcional se lleva a cabo para cumplir un objetivo conscientemente. Las acciones forman un sistema dentro de la actividad que realiza el sujeto sobre un objeto; se subordinan al resultado que se aspira a alcanzar y se da en relación con otros sujetos. Así pues, diferentes propuestas científicas plantean como resultado acciones de orientación educativa. “A través de ellas el docente puede establecer relaciones de ayuda que promueven el desarrollo personal de sus estudiantes sin perder de vista las tareas del desarrollo propias para su edad” [18]. Al referirse a las acciones de orientación educativa, Pino (2013) identifica como una vía la curricular docente y destaca que estas “pueden ser planificadas con antelación, o decididas o ejercidas a partir de la dinámica que se configura en el proceso educativo en una clase.” [19]. Desde esta perspectiva se definen las acciones de orientación educativa en el proceso de enseñanza- aprendizaje como la interrelación dialéctica de operaciones, que al ejecutarse en la dirección del proceso de enseñanza-aprendizaje, permiten establecer una relación de ayuda entre el profesor y el estudiante, donde se dinamizan el diagnóstico, la intervención y el seguimiento en aras del crecimiento personal. A criterio de los autores, la presente definición contiene los elementos metodológicos necesarios para ejecutar acciones de orientación educativa, guiando al profesor en su realización durante el proceso de enseñanza-aprendizaje. Materiales y métodos Históricamente se conocen dos paradigmas de investigación, el cuantitativo y el cualitativo, los cuales se dirigen a polos completamente diferentes en cuanto a la forma de estudiar el fenómeno en cuestión. Una investigación educativa en la cual se estudia al ser humano en toda su complejidad necesita encauzarse desde un paradigma que atienda dicha complejidad. Es por ello que se utiliza en la presente investigación la integración de la perspectiva cualitativa y cuantitativa. La muestra para la investigación se tomó de la carrera Ingeniería en Telecomunicaciones y Electrónica de la Universidad Tecnológica de la Habana José Antonio Echeverría. Participaron 38 estudiantes de primer año de la referida carrera durante el primer semestre del curso académico 2019-2020. De igual forma, participaron profesoras del colectivo de año de la carrera que imparten la asignatura Pedagogía y Didáctica de la Educación Superior. Se utilizan métodos de investigación teóricos, empíricos y matemáticos estadísticos para alcanzar el objetivo deseado. Dentro de los métodos teóricos se emplearon el analítico-sintético y el inductivo- deductivo que permitieron llegar a síntesis conclusivas en el plano teórico. Asimismo, se aplicó el método sistémico- estructural para configurar de manera lógica e integradora las acciones de orientación educativa en el proceso de enseñanza-aprendizaje de las carreras de ingeniería, sus relaciones y dinámica. Como métodos del nivel empírico se utilizaron la encuesta, la observación participante y la entrevista grupal. Las encuestas se administraron a los estudiantes para conocer sus necesidades de orientación educativa y sus opiniones acerca de los cambios ocurridos en este proceso a partir de la aplicación de las acciones de orientación educativa en el proceso de enseñanza-aprendizaje. La observación participante permitió advertir la dinámica del proceso de ejecución de las acciones de orientación educativa en la actividad docente. Se realizaron además entrevistas grupales para conocer la satisfacción de los implicados en la aplicación de las acciones de orientación educativa en el proceso de enseñanza- aprendizaje. Se recurrió a la estadística descriptiva, utilizando la moda para el análisis e interpretación de los datos obtenidos a partir de la aplicación de los diferentes métodos. El análisis de los resultados se realizó de manera triangulada, en función de la información obtenida en los diferentes métodos y fuentes empleadas. El análisis estadístico se complementó con valoraciones cualitativas. Las acciones se trazan con el objetivo de que los alumnos tomen conciencia de sus necesidades de orientación educativa y se impliquen de manera cooperada en su solución individual o con la ayuda del grupo. Todo ello para garantizar el tránsito exitoso del estudiante por la carrera y a su crecimiento personal. Se concibieron tres etapas para la ejecución de las acciones: 1ra etapa: Su objetivo es determinar las necesidades de orientación educativa por los estudiantes bajo la guía del profesor. Las acciones llevan implícitas las ayudas para el autodiagnóstico y la adecuada determinación de sus necesidades. La esencia de esta etapa está en potenciar la toma de decisiones de los estudiantes, de manera que sean capaces de identificar cómo interfiere en su crecimiento personal la no satisfacción de sus necesidades y ayudarlos a actualizar sus recursos personales para lograr sus objetivos durante el tránsito por la carrera. Para ello es necesario establecer el compromiso del estudiante con su propia formación profesional. La planificación de la determinación de necesidades se realiza en las dos primeras clases, junto con el encuadre de la asignatura. 2da etapa: El objetivo es realizar acciones de intervención individual y grupal para erradicar las dificultades detectadas en el autodiagnóstico. Se realizan acciones grupales para que los estudiantes contribuyan al diseño de los contenidos para las acciones de orientación educativa que se realizarán en el proceso de enseñanza-aprendizaje. Esta etapa se corresponde con el período de desarrollo de los contenidos de la asignatura y comprende 20 clases del programa. En cada clase el profesor hará una propuesta de los contenidos a trabajar en las acciones de orientación educativa desde el momento de la concepción de los objetivos de enseñanza-aprendizaje que los estudiantes podrán modificar teniendo en cuenta sus criterios y vivencias personales. Las acciones estarán en correspondencia con los objetivos y métodos de enseñanza-aprendizaje concebidos para la clase y se utilizarán como procedimientos metodológicos técnicas e instrumentos de orientación previamente conocidas por los estudiantes. El proceso de evaluación de los objetivos de la clase tendrá en cuenta además, la evaluación de los resultados obtenidos en las acciones de orientación educativa; predominando la autoevaluación y la coevaluación. 3ra etapa. Tiene como objetivo evaluar el trabajo realizado por el profesor y el grupo de estudiantes relacionado con las acciones de orientación educativa en el proceso de enseñanza-aprendizaje. Es importante concebir la valoración individual y grupal de los resultados obtenidos después de aplicadas las acciones de orientación educativa en el proceso de enseñanza-aprendizaje. Serán objeto de evaluación el trabajo de cooperación del profesor en la satisfacción de las necesidades de orientación educativa, así como el estado actual de dichas necesidades en los estudiantes. Para finalizar se determinan los contenidos de orientación educativa que son necesarios continuar trabajando en la próxima etapa. Resultados obtenidos en la implementación de las acciones La implementación se realizó en el marco de una asignatura del currículo de formación de la carrera de Ingeniería en Telecomunicaciones y Electrónica. La asignatura cuenta en su programa con un total de 24 clases. Su objetivo fundamental es diseñar actividades del proceso docente teniendo en cuenta principios, categorías, estructura y dinámica de este proceso, para la enseñanza-aprendizaje de las telecomunicaciones, su comunicación y gestión, desde el trabajo cooperado de todos con responsabilidad y creatividad. La asignatura contribuye al desarrollo de los modos de actuación del ingeniero, relacionado con la enseñanza de la electrónica y las comunicaciones, como refiere el Plan de estudios de la carrera [20]. En la 1ra etapa, como parte de autodiagnóstico, se aplicó una encuesta donde los estudiantes determinaron las dificultades que limitan su tránsito exitoso por la vida universitaria y que constituían necesidades de orientación educativa a solucionar en el proceso de enseñanza-aprendizaje. Sus resultados se pueden observar en la Tabla 1. Tabla 1. Porciento inicial de estudiantes que declaran tener dificultades en su vida universitaria. Dificultades de los estudiantes Porciento Se lanzan a realizar tareas sin saber si las pueden hacer o no 47,36 % No tienen un concepto adecuado como estudiantes 28,94 % No se adaptan a la enseñanza universitaria 18,42 % Desmotivación por la carrera que estudia 5,26 % Siente que le faltan métodos y técnicas para estudiar la ingeniería 65,78 % Tiene inseguridad a la hora de tomar una decisión 44,73 % Se siente muy ansioso/a 36,84 % Tienen dificultades en las relaciones interpersonales 5,26 % No tienen una experiencia académica satisfactoria 34,21 % No sabe autocontrolarse 55,26 % Presenta problemas de comunicación 18,42 % No confía en sus posibilidades y fortalezas para aprender 42,10 % Está estresado/a 47,36 % Estos resultados fueron objeto de análisis grupal en una actividad docente. A través de la observación participante se pudo constatar como los estudiantes hicieron un compromiso para implicarse con la ayuda del profesor y el grupo en la satisfacción de las necesidades. A partir del debate, emergieron las siguientes propuestas de contenidos de orientación educativa para trabajar en las clases durante el desarrollo del proceso de enseñanza-aprendizaje.  Gestión del proceso atendiendo a las características de cada estudiante y del grupo.  Predominio de las evaluaciones orales para ir erradicando los problemas de comunicación.  Consideración del error como un punto de partida para el aprendizaje colectivo.  Permitir siempre el reajuste y corrección de la tarea docente.  Consideración de que toda idea es válida y dada a la reflexión por la importancia que tiene el trabajo en equipo para los ingenieros.  Utilización del trabajo cooperado en equipos para la realización de las tareas.  Ejecución de cortes parciales para ir valorando los resultados del diagnóstico, sus logros y estancamientos.  Utilización de tipos de evaluaciones que generen satisfacción en el estudiante.  Intercambios de roles en los equipos y con el profesor, para que los estudiantes tengan la oportunidad de ser facilitadores del aprendizaje de sus compañeros.  Fomentar el entrenamiento como modo de actuación del ingeniero referente a la capacitación.  Destacar la obra de profesionales que son ejemplos a seguir en la profesión.  Reflexión sobre las posibilidades del grupo para la realización individual y colectiva de las tareas.  Utilización del método de situaciones y el de simulación.  Realización de ejercicios de autocontrol y relajación en clases.  Utilización de técnicas de interacción grupal.  Trabajo en clases con las técnicas de estudio independiente.  Práctica de la crítica y la autocrítica bajo indicadores estimados por el grupo.  Estimulación de los argumentos como defensa de los resultados de la tarea docente. En la 2da etapa y durante el período de desarrollo de los contenidos de la asignatura, el profesor realizó acciones de orientación educativa en el proceso de enseñanza-aprendizaje con los contenidos expuestos anteriormente por los estudiantes, que se integraron al contenido específico del currículo. Las acciones de orientación educativa tuvieron total correspondencia con los objetivos, métodos, medios, formas de organización del proceso de enseñanza-aprendizaje y evaluaciones previstas para las clases, todo lo cual se reveló a través de la observación participante. Este método permitió corroborar la realización de acciones de orientación educativa grupales e individuales en la actividad docente con la intervención protagónica de los estudiantes. Asimismo, fue posible valorar la evolución de los estudiantes en la erradicación de sus dificultades y el bienestar que esto generaba en ellos. Después de llevar a cabo las acciones de orientación educativa en el proceso de enseñanza-aprendizaje correspondiente a la etapa 2, y ya centrado en la etapa 3, se hace una segunda aplicación de la encuesta 1 en la clase de cierre de la asignatura. Se obtuvieron los resultados que se aprecian en la Tabla 2. Tabla 2. Porciento final de estudiantes que declaran tener dificultades en su vida universitaria. Dificultades de los estudiantes Porciento Se lanzan a realizar tareas sin saber si las pueden hacer o no 2,63 % No tienen un concepto adecuado como estudiantes 0 No se adaptan a la enseñanza universitaria 2,63 % Desmotivación por la carrera que estudia 2,63 % Siente que le faltan métodos y técnicas para estudiar la ingeniería 31,57 % Tiene inseguridad a la hora de tomar una decisión 18,42 % Se siente muy ansioso/a 5,26 % Tienen dificultades en las relaciones interpersonales 2,63 % No tienen una experiencia académica satisfactoria 0 No sabe autocontrolarse 10,52 % Presenta problemas de comunicación 5,26 % No confía en sus posibilidades y fortalezas para aprender 10,52 % Está estresado/a 13,15 % Es significativo señalar la diferencia entre el porciento inicial de estudiantes con dificultades y el porciento que las mantienen después de implementadas las acciones. Como era objeto de la etapa 3, se valoró el cumplimiento de las acciones en el proceso de enseñanza- aprendizaje y la implicación de cada parte: profesor y estudiantes. Se aplicó la encuesta 2 para valorar el trabajo de cooperación en la orientación educativa brindada por los profesores en el proceso de enseñanza-aprendizaje, cuyos resultados se refieren en la Tabla 3. Tabla 3. Valoración de la labor del profesor en la orientación educativa en el proceso de enseñanza- aprendizaje Indicador Siempre A veces Nunca Tus profesores se ponen en la situación particular de cada estudiante y lo ayudan 84,2 % 15, 7 % 0 Los profesores aceptan incondicionalmente a los estudiantes, independientemente de la diversidad 94,7 % 2,63 % 2,63 % Los profesores tienen un comportamiento legítimo y natural en la relación con los estudiantes en las clases 97,3 % 2,63 % 0 Te hace consciente tu profesor del nivel de desarrollo que has alcanzado hasta el momento 92,1 % 7,89 % 0 Los profesores ayudan a los estudiantes a tomar conciencia de la existencia de los problemas que los afectan 97,3 % 2,63 % 0 Sientes que tus profesores te ayudan a identificar las posibilidades que tienes para darle solución a tus problemas 97,3% 2,63% 0 Los profesores hacen uso de técnicas e instrumentos para orientar a los estudiantes en las clases hacia la solución de sus dificultades 94,7 % 5,26 % 0 Utilizan tus profesores procedimientos para que los estudiantes se centren en las tareas 94,7 % 5,26 % 0 Se propician momentos en la clase para que los estudiantes interactúen con el profesor acerca de la toma de decisiones respecto a sus dificultades y soluciones a las mismas 78,9 % 18,42 % 2,63 % Tienes la oportunidad en la clase de planificar lo que vas a hacer y decirlo al profesor 92,1 % 5,26 % 2,63 % Permite el profesor hacer reajustes y correcciones de la tarea docente 100 % 0 0 La entrevista se valoró a partir de dos ejes de análisis. En relación con la implicación que ha tenido el profesor y los estudiantes en las acciones de orientación educativa en el proceso de enseñanza- aprendizaje, los estudiantes refieren que:  “Es de destacar que se reúne con el grupo para fomentar la ayuda personal y apoyar a un estudiante en específico.”  “Se apoyan en hechos de la vida cotidiana y analizan la moraleja.  “Utiliza el método de situaciones para poder entender mejor el contenido.”  “Escucha la opinión de todos y a partir de ahí arriba a conclusiones que nos enseñan.”  “Reflexionamos sobre nuestro rendimiento académico para mejorar nuestro estudio.”  “Aumenta la disponibilidad de medios de enseñanza, eso incrementa en gran medida el interés y la motivación de los alumnos hacia la carrera y la asignatura.”  “Acercamiento individual a los estudiantes que presentan dificultades para brindarle más ayuda.”  “Permite al estudiante expresar su criterio personal acerca de lo que pensamos sobre la asignatura y como el profesor imparte la misma.”  “No sentimos cuando las cosas son difíciles porque siempre podemos volver a ponernos de pie y continuar adelante, eso sirve para la vida también.”  “En esta asignatura se presta mucha atención a la opinión de los estudiantes y se tiene en cuenta para desarrollar la clase, poniendo a la par su opinión con la de nosotros, sin imponer su criterio.  “Se respeta todo lo que dice y hacemos los alumnos.” En cuanto a las sugerencias y valoraciones generales de los estudiantes se centraron en:  “La asignatura de Pedagogía ha sido muy dinámica, entretenida y de gran ayuda para mi tránsito por esta escuela y para mi vida diaria.”  “No se necesitan cambios en la asignatura.”  “La asignatura de Pedagogía ha contribuido con nuestra motivación y a cambiar la mentalidad que teníamos de la enseñanza anterior.  “Considero que este trabajo debería realizarse en otras asignaturas también y que deberían tener en consideración la opinión de los estudiantes sobre la educación superior.”  “Se ha hecho el trabajo con la asignatura que mejor funciona, debería llegar a otras. Sugiero aplicar esta encuesta en otras asignaturas para buscar los problemas y solucionarlos.”  “Mantener la dinámica de las clases pues a los estudiantes nos satisface mucho que no sean el típico encuentro entre el profesor y los estudiantes.”  “Después de haber recibido el curso de Pedagogía me he llenado de deseos y ganas de continuar, no solo mi camino como estudiante, sino además como futuro pedagogo, fortalecido por la labor magistral desarrollada por nuestras profesoras. En relación con el nivel de satisfacción de los estudiantes con la orientación educativa en el proceso de enseñanza-aprendizaje el 100% aludió estar satisfecho. Discusión Es necesario resaltar que los cambios en los estudiantes se producen gracias a la labor del profesor en la trasformación de la orientación educativa que se realizó en el proceso de enseñanza-aprendizaje. Se destaca la relación de ayuda que contribuyó a hacer conscientes a los estudiantes de las dificultades que poseían y de las vías descubiertas por ellos para su erradicación. Este proceso se efectuó conforme se destaca en la intervención diagnóstica donde no se espera a que el proceso concluya para evaluar su resultado, sino que se realiza la intervención que posibilita la introducción de las correcciones necesarias en el momento oportuno Como se apreció en los resultados de las encuestas, la observación y las entrevistas, este fue el elemento detonante que propició la disminución de las dificultades en los estudiantes. En el caso de referencia, propiciar la participación de los estudiantes en la concepción y aplicación de las acciones de orientación educativa en el proceso de enseñanza-aprendizaje, conllevó a que pudieran protagonizar su crecimiento personal. El protagonismo estudiantil garantiza el cambio individual, el desarrollo de vivencias afectivas positivas que favorecen el bienestar del estudiante y por tanto contribuyen a su crecimiento personal y al desarrollo de su personalidad, elementos estos claves en la formación de cualquier profesional y muy valioso en la formación humanista de los ingenieros. Se aprecia la disminución del porciento de estudiantes con dificultades después de la aplicación de las acciones. (Véase figura 1) 0,00% 10,00% 20,00% 30,00% 40,00% 50,00% 60,00% 70,00% p o rc ie n to d e e st u d ia n te s Dificultades antes de la metodología después de la metodología Figura 1. Estado de las dificultades de los estudiantes antes y después de la aplicación de las acciones Como se distingue en el gráfico, durante la aplicación de las acciones los estudiantes pudieron tener un mejor concepto de sí, lo cual puede estar sustentado en que las acciones permitían concebir el error, el trabajo en grupos, la colaboración en equipos; lo que favoreció la autoestima del estudiante. La adecuada autoestima hace sentir al sujeto seguro de sí. El proceso de enseñanza-aprendizaje constituyó un espacio donde el estudiante realizó constantemente tareas docentes. La aplicación de acciones de orientación educativa que propiciaron la ayuda y la colaboración en las tareas permitieron que los estudiantes ganaran en seguridad y dejaran de sentirse ansiosos como se aprecia en el gráfico y en las valoraciones del profesor, el investigador y de ellos mismos. La confianza en el grupo y la posibilidad de la ayuda oportuna incidió en este indicador. Uno de los indicadores donde todavía existe un número importante estudiantes con dificultades fue la falta de métodos y técnicas para estudiar. A pesar de que se realizaron acciones en este sentido, esta es una habilidad de los estudiantes que necesita de mucha ejercitación y de búsqueda de aquellas estrategias que se ajustan a sus particularidades individuales y al aprendizaje de la ingeniería. Es por eso que este es uno de los contenidos que debe continuar trabajándose en aplicaciones posteriores, con diversidad de apoyos a los estudiantes, no solo en la clase sino en las actividades de estudio independiente, propias también del proceso de enseñanza-aprendizaje. El autocontrol es una dificultad de los estudiantes que muestra un cambio moderado. Al constituir parte de la autorregulación de la personalidad, resulta difícil modificarlo en un período de tiempo corto. Se observó que hubo estudiantes que lo lograron y que el ejercicio de aplicación de las acciones conduce hacia la autorregulación de la personalidad como expresión del crecimiento personal. El proceso de enseñanza-aprendizaje se percibió como un proceso de intercambio entre sus protagonistas, dígase alumno, grupo y profesor. Existió la cooperación y la ayuda en el cumplimiento del objetivo del crecimiento personal de los estudiantes, en relación con los componentes del proceso de enseñanza- aprendizaje, todo lo cual permitió que los estudiantes aprendieran a confiar en sus posibilidades como aprendices. Considerar la participación activa del estudiante en su propia formación implicó responsabilizarlo con su formación y con la de su grupo, participando en el diagnóstico y ejecución de la orientación educativa en el proceso de enseñanza-aprendizaje; lo que sin dudas aseguró un mejor tránsito por la carrera y le proporcionó al estudiante vivencias que se convirtieron en recursos personales que puede utilizar tanto en el desempeño profesional como en su vida personal. Tal es el caso de las modificaciones en la comunicación y las relaciones interpersonales. El rol protagónico de los estudiantes facilitó la dinámica grupal para el proceso de enseñanza-aprendizaje, pues se sintieron más seguros como se refleja en el gráfico, adquiriendo un mejor concepto de sí como estudiantes. La validez de este indicador no solo se aprecia en los resultados de las encuestas, sino que las profesoras y el investigador pueden dar fe de dichos cambios observados en la dinámica de las actividades docentes. Por consiguiente, se puede plantear que la aplicación de las acciones de orientación educativa en el proceso de enseñanza-aprendizaje de los estudiantes de la carrera de Ingeniería en Telecomunicaciones y Electrónica tuvo un impacto positivo en la formación de los profesionales desde su protagonismo en la clase. Su aplicación en el grupo de estudio demostró la necesidad de establecer la ayuda a los estudiantes desde el primer año de su ingreso a la universidad, aprovechando todos los espacios de interacción con los agentes educativos. Asimismo, las acciones de orientación educativa permitieron atender las necesidades de los estudiantes en el proceso de enseñanza-aprendizaje, lo que a largo plazo contribuye a su crecimiento personal. Debe tenerse en cuenta que la atención individualizada desde el proceso de enseñanza-aprendizaje ha sido el espacio menos privilegiado para realizar intervención en las universidades. Siempre que el profesor se propone un accionar consciente en la dirección del proceso de enseñanza-aprendizaje se logran transformaciones que, de manera mediatizada, repercuten positivamente en la formación de los estudiantes. Aún persiste un porciento de estudiantes con dificultades a las que se le debe continuar brindando atención por los profesores en el resto de las asignaturas del currículo, tal es el caso de la tendencia a la ejecución que tienen los estudiantes universitarios de lanzarse a realizar tareas sin reflexionar sobre los recursos que poseen para llevarlas a cabo y la toma de decisiones. La orientación educativa debe considerar las particularidades de cada uno de los estudiantes, su entorno, su historia de vida, sus creencias y representaciones sobre su formación como profesionales, así como sus motivaciones y proyecto de vida; todo lo cual incide en el ritmo de los procesos de formación y desarrollo de la personalidad. Bajo ningún concepto debe dejarse sin ayuda un estudiante en su tránsito por la universidad. Constituye una necesidad de las universidades explorar estos campos para formar un ingeniero de calidad que pueda desempeñarse con éxito en la sociedad y en ese particular la orientación educativa juega un papel fundamental. 3. CONCLUSIONES La formación de ingenieros debe constituir un proceso que garantice un egresado preparado integralmente para su desempeño laboral y para ser más competente en el desarrollo de su actividad profesional y cotidiana. Es por eso que la organización del proceso de enseñanza-aprendizaje debe estar centrado en el estudiante, y considerar la labor humanista como elemento clave en dicha formación. La orientación educativa supone la actuación consciente del profesor en la formación de los estudiantes para la toma de decisiones, el trabajo en equipos, ser capaces de defender sus argumentos en el grupo de trabajo, hacer uso de una comunicación asertiva; lo cual se materializa en su utilidad en cualquier contexto laboral y social, tal como se expresa en los modos de actuación del ingeniero. La orientación educativa en el proceso de enseñanza-aprendizaje llevada a cabo en una asignatura del primer año de la carrera de Ingeniería en Telecomunicaciones y Electrónica aporta una metodología para la ejecución de acciones, cuyos resultados demuestran la necesidad y efectividad de este proceder en la formación de ingenieros. RECONOCIMIENTOS Los autores desean agradecer la colaboración y la motivación de los estudiantes del primer año de la Carrera de Ingeniería en Telecomunicaciones y Electrónica durante la investigación, así como a sus directivos. REFERENCIAS 1. RENDÓN, Tania “Orientación educativa, una prioridad para la universidad”. [en línea: 4 de octubre de 2016]. Agencia Cubana de Noticias, sección Cuba, en: http://www.acn.cu/cuba/21758-orientacion- educativa-una-prioridad-para-la-universidad (consulta: 8 de febrero de 2018). 2. ORDOÑEZ, Vinicio y MERCHÁN, Xavier. “Tutoría entre pares: experiencia de acompañamiento salesiano a grupos vulnerados en la UPS- Cuenca”. Ponencia presentada en el 11no Congreso Internacional de Educación Superior, La Habana, 12-16 de febrero de 2018, en: ISBN 978-959-16-4408-4 3. SALCEDO, Rosanna. “El efecto de la buena actitud en el desempeño académico de los estudiantes universitarios”. Ponencia presentada en el 11no Congreso Internacional de Educación Superior, La Habana, 12-16 de febrero de 2018, en: ISBN 978-959-16-4408-4 4. FRANZANTE, Blanca Aurelia; ORONOZ, Danilo y CAMPODÓNICO, Gloria “Aportes teóricos y metodológicos para pensar las dificultades y obstáculos en el proceso de enseñanza aprendizaje presentada universitario”. Ponencia en el 11no Congreso Internacional de Educación Superior, La Habana, 12-16 de febrero de 2018, en: ISBN 978-959-16-4408-4 5. RODRÍGUEZ, Juan Manuel; PEÑA, Yuneisy; MARTÍNEZ, Noemí y RODRÍGUEZ, Yusmaika. “Modelo pedagógico de atención educativa integral en función de la permanencia estudiantil universitaria”. Ponencia presentada en el 11no Congreso Internacional de Educación Superior, La Habana, 12-16 de febrero de 2018, en: ISBN 978-959-16-4408-4 6. VEGA, Gilda y ALFONSO Ibette. “Observatorio para la retención universitaria en la CUJAE como resultado del Proyecto ALFA-GUIA”. Ponencia presentada en la VIII Conferencia Latinoamericana sobre el abandono en la Educación Superior, Panamá, 14-16 de noviembre de 2018, E-ISBN: 978-956-303-372- 4, en: http://www.clabes-alfaguia.org, 7. CRUZ FLORES, Gabriela y DIEGO MATUS Ortega. “¿Por qué regresé a la escuela?: abandono y retorno escolar desde la experiencia de jóvenes de educación media superior”, Perfiles Educativos, 2019, vol. 41, núm. 265, pp. 8-26. 8. PÉREZ, Lorenzo Miguel y BERMÚDEZ, Raquel. “La orientación educativa en la formación inicial y permanente de los profesionales de la educación en la UCP “Héctor Alfredo Pineda Zaldívar”. Ponencia presentada en el 9no Congreso Internacional de Educación Superior, La Habana, 10-14 de febrero de 2014. 9. ALFONSO, Ibette. “Concepción de orientación educativa universitaria integradora de los procesos sustantivos para estudiantes de primer y segundo año de carreras de ingeniería”. Director: Rolando Serra. Tesis de doctorado, Instituto Superior Politécnico “José Antonio Echeverría” Cidad de la Habana, 2013. 10. ALMEYDA, Annia. “Investigación evaluativa para un modelo de intervención: Orientación educativa y elección profesional responsable” Director: Jesus del Pino. Tesis de doctorado, Universidad de la Habana, Ciudad de La Habana, 2016. 11. GONZÁLEZ-BENITO, Ana. “Revisión teórica de los modelos de orientación educativa”, Revista Caribeña de Investigación Educativa, 2018 vol. 2, núm. 2, pp. 43-60. 12. CASTAÑEDA, Ángel Emilio. Pedagogía, Tecnologías digitales y Gestión de la Información y el Conocimiento en la enseñanza de la Ingeniería Civil, Ciudad de La Habana, Editorial Félix Varela, 2013. ISBN 978-959-07-1675-1 13. PAZ DOMÍNGUEZ, Irela Margarita; GÁMEZ RODRÍGUEZ, Eulogio y VINENT MENDO Martha Beatriz. “La clase como espacio y método fundamental para la orientación educativa”, Maestro y Sociedad, 2016, Número especial 2, pp. 3-14. 14. CASTELLANOS, Doris; CASTELLANOS, Beatriz; LLIVINA, Miguel Jorge; SILVERIO, Mercedes; REINOSO, Carmen y GARCÍA Celina. Hacia una concepción del aprendizaje desarrollador, Ciudad de La Habana, 2001. Colección Proyectos Instituto Superior Pedagógico “Enrique José Varona”. 15. UNIVERSIDAD TECNOLÓGICA DE LA HABANA. El proceso de enseñanza-aprendizaje de carreras de Ciencias Técnicas de la Educación Superior en ambientes con alta presencia de las tecnologías de la información y la comunicación. Proyecto de investigación. La Habana, 2019. 16. CAPOTE LEÓN, Gladys Elena; RIZO RABELO, Noemí y BRAVO LÓPEZ, Gisela “La formación de ingenieros en la actualidad. Una explicación necesaria”. Universidad y Sociedad, 2016, vol.8, núm.1, pp. 21-28. 17. LEONTIEV, Aleksei Nikolayevich. Actividad, conciencia, personalidad. Cuba, Editorial Pueblo y Educación 1981. 18. RECAREY, Silvia Caridad; PINO, Jorge Luis y RODRÍGUEZ, Miriam. La orientación en el contexto educativo. Selección de lecturas. Cuba, Editorial Pueblo y Educación, 2011. 19. PINO, Jorge Luis y MÁS GARCÍA Martha de las Nieves. “La orientación educativa en los contextos universitarios”. Ponencia presentada en el “Taller Nacional Orientación educativa y crecimiento personal en las universidades de ciencias pedagógicas, 2013 Sello editor EDUCACIÓN CUBANA, ISBN 978- 959-18-0948-3. 20. MINISTERIO DE EDUCACIÓN SUPERIOR. Plan de estudios E, Carrera de Ingeniería en Telecomunicaciones y Eléctronica. Documento Ejecutivo. Universidad Tecnológica de la Habana José Antonio Echeverría. Cuba. 2017 Sobre los autores Norma González Ruda. Doctora en Ciencias Pedagógicas. Profesora Auxiliar- investigadora del Centro de Referencia para la Educación de Avanzada (CREA) de la Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE. Máster en Psicología Educativa. Asociación de Pedagogos de Cuba (APC) y Sociedad Cubana de Psicología. Ibette Alfonso Pérez. Doctora en Ciencias Pedagógicas. Profesora Asistente. . Profesor invitado de la Universidad Técnica de Oruro y la Universidad Nacional Siglo XX. Bolivia Máster en Psicología Social. Asociación de Pedagogos de Cuba (APC) y Sociedad Cubana de Psicología. Raquel Bermúdez Morris. Doctora en Ciencias Psicológicas. Profesora Titular e Investigadora Titular del Centro de Referencia para la Educación de Avanzada (CREA) de la Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE. Asociación de Pedagogos de Cuba (APC) y Sociedad Cubana de Psicología. EXPERIENCIAS EN LA ENSEÑANZA DEL DISEÑO ARQUITECTÓNICO, DESDE LA INTEGRACIÓN, LA EXTENSIÓN Y LA PERTINENCIA SOCIAL Marta María Rubio Tamayo Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE, Calle 114 # 11901 / Ciclovía y Rotonda, Marianao, La Habana, Cuba Empresa de Arquitectura e Ingeniería de Mariel, GEIDOS, Cuba martamaria.rt@gmail.cu RESUMEN Dentro de la Disciplina Diseño Urbano Arquitectónico en la Facultad de Arquitectura y a lo largo de varios años de experiencia, se han venido aplicando múltiples ejemplos de vinculación a objetivos de alta pertinencia social, destacándose experiencias más recientes, en que el extensionismo y la integración han comenzado a formar parte de la didáctica de asignaturas, que con objetivos definidos dentro del proceso de enseñanza aprendizaje se encaminan hacia un proceso formativo sostenible. A partir de una experiencia anterior en que la CUJAE vinculó a sus estudiantes al proceso inversionista de la universidad, y se produjeron en las aulas proyectos con resultados de utilidad para la entidad y para el proceso docente-educativo, se ha desarrollado nuevamente esta forma de trabajo, esta vez, en objetivos de la Zona Especial de Desarrollo Mariel, con procedimientos que se han ido perfeccionando en una estrategia didáctica que contribuye al desarrollo de habilidades profesionales en los educandos. El desarrollo de proyectos de importancia social, que son tomados de la realidad, forma parte importante de este proceso que incentiva el interés de los estudiantes, que llegan a solucionar diversos problemas de la producción, a la vez adquieren conocimientos y habilidades que contribuyen a su formación integral. De esta forma, el proceso de enseñanza-aprendizaje se hace sostenible, ya que se presenta como un suceso capaz de generar beneficios sociales y económicos, a la vez que contribuye a la formación personal y profesional de sus protagonistas, los estudiantes. PALABRAS CLAVES: Proyectos de alta pertinencia, formación profesional, proceso de enseñanza- aprendizaje, integración, extensionismo, sostenibilidad, estrategia didáctica. EXPERIENCES IN TEACHING ARCHITECTURAL DESING, FROM INTEGRATION, EXTENSIÓN AND SOCIAL RELEVANCE ABSTRACT Within the discipline of Urban Architectural Design, in the Faculty of Architecture and over several years of experience, multiple examples of linkage to objectives of high social belonging have been applied, highlighting more recent experiences in which extensionism and integration have begun to be part of the didactics of subjects, which with defined objectives within the teaching-learning process are directed towards a sustainable training process. From a previous experience in which the CUJAE linked its students to the investment process of the university, and projects with useful results for the entity and for the educational teaching process are produced in the classrooms, this form of work has been developed again, this time, in objectives of the Mariel Special Development Zona, with procedures that have been perfected in a didactic strategy that contributes to the development of professional skills in students. The development of projects of social importance, which are taken from reality, is an important part of this process that encourages the interest of students, who come to solve various production problems, while acquiring knowledge and skills that contribute to their comprehensive training. In the way, the teaching- learning process becomes sustainable, since it is presented as an event capable of generating social and economic benefits, while contributing to the personal and professional training of its protagonists, the students. KEY WORDS: Highly relevant projects, professional training, teaching-learning process, integration, extensionism, sustainability, didactic strategy. 1. INTRODUCCIÓN El desarrollo profesional de amplio perfil, basado en experiencias tomadas de la realidad profesional, es una necesidad de la sociedad cubana actual. Esta experiencia, se viene desarrollando desde hace años en objetivos de alta pertinencia social y toma cada vez mayor importancia para el proceso de enseñanza- aprendizaje en los últimos años de carrera de Arquitectura. Una de estas experiencias, la constituyó el Plan Proyecto CUJAE, nombre dado por la CUJAE a su plan de desarrollo futuro y a partir del cual se estudió desde el punto de vista urbano y arquitectónico todo el campus universitario y su entorno dentro del municipio Marianao. Vinculado a este plan se desarrolló una estrategia didáctica en las asignaturas de diseño encargadas de esta tarea, y se alcanzaron logros que permitieron a los estudiantes desarrollar roles profesionales con altos resultados económicos, productivos y docente- educativos. El curso 2019-20 impuso nuevos retos, en medio de nuevas problemáticas ante las impredecibles circunstancias de una pandemia que obligó a un proceso de enseñanza-aprendizaje no presencial. En estas nuevas condiciones se ha repetido la experiencia anterior. Durante el curso 2020-21 se desarrolló un taller de Diseño de Arquitectura y Urbanismo en que los estudiantes realizaron proyectos para el Corredor Cultural del asentamiento urbano Quiebra Hacha, ubicada en el Sector A de la Zona Especial de Desarrollo Mariel, (ZED Mariel), y más adelante, en el curso 2021- 2022 se ha realizado un taller de la misma asignatura, en que se han desarrollado proyectos para el Complejo Turístico Inmobiliario de Golf El Salado, ubicada en el Sector H, de la ZED Mariel. En ambos cursos se alcanzaron los objetivos propuestos y se aportaron beneficios que favorecieron a la entidad receptora, y al proceso de enseñanza aprendizaje gracias a la didáctica aplicada en esta asignatura, alcanzándose resultados favorables para el proceso de formación de los estudiantes. En la generalidad de los casos estos trabajos tributaron de alguna forma a los Ejercicios de Culminación de Estudios, que se integraron a este proceso formativo. 2. DESARROLLO Antecedentes La formación de los profesionales y en específico de los arquitectos cubanos tiene como premisa fundamental un perfil amplio, con una formación básica y básica-específica de la profesión, [1], a partir de modelos educativos encaminados a la formación integral, que relacionen la instrucción y la educación y ambas se vinculen al trabajo profesional. Esta relación busca como resultado que se desarrollen profesionales independientes y creativos, sensibilizados con los problemas sociales y ambientales, y enfocados hacia soluciones de diseño sostenible, en diálogo con el medio ambiente. Es sobre esta base educativa que se desarrolla el proceso de enseñanza-aprendizaje en las asignaturas de la Disciplina DAU (Diseño Arquitectónico y Urbano), de la Facultad de Arquitectura en la Universidad Tecnológica de la Habana, en la que se vincula la enseñanza a proyectos de marcada pertinencia social, especialmente en los años de la especialidad que pueden tener continuidad en trabajos de investigación y en trabajos de culminación de estudios. Problemáticas en las primeras etapas de trabajo, (Plan Proyecto CUJAE) Dar respuesta a la producción, requiere atender objetivos diferentes dentro de un mismo taller, o sea la atención de problemas diversos. Durante todo el desarrollo del Plan Proyecto CUJAE, que se desarrolló dentro del cuarto año de la carrera de Arquitectura, el hecho de desarrollar varios proyectos diferentes en un mismo taller de diseño resultaba algo totalmente novedoso y extremadamente complejo. Por otra parte, la atención a objetivos tomados de la realidad, significa que muchas veces no se tienen todos los datos y es necesario desarrollar investigaciones para completar información de partida y comprender las problemáticas de forma objetiva. Esto difiere de la forma de impartición tradicional de las asignaturas de diseño. Las experiencias de estas asignaturas especialmente en diseño arquitectónico, consistían en desarrollar un mismo proyecto para todo el taller, con un programa previamente diseñado para la asignatura, al que los estudiantes harían limitadas variaciones, siendo el objetivo fundamental el desarrollo de la solución del proyecto. Ese programa o tarea de proyecto, podía estar tomado de la realidad, pero la finalidad del proyecto era docente, no para la producción, lo que simplifica mucho el proceso de investigación previo al diseño. La atención a problemáticas reales tiene otras exigencias, y requiere habilidades investigativas en los estudiantes para llegar a determinar exactamente los problemas y restricciones de la situación, también se deben determinar las potencialidades del sitio y las necesidades funcionales que deben solucionar para la edificación a diseñar o transformar, para lo que necesitan de la toma de decisiones sucesivas. Generalmente se hace necesario llegar a definir los programas arquitectónicos que no siempre están definidos por los solicitantes. Otra exigencia de la producción es el trabajo en equipos, en que se agrupan los proyectistas que atienden objetivos que forman parte de un conjunto arquitectónico o urbano, y en los que se tienen que tomar decisiones colegiadas. Desarrollar distintos proyectos y esta forma de trabajo típico del proceso empresarial en un taller de estudiantes, resulta complejo y obliga a una preparación mayor del profesor, a la vez que cambia la forma de impartición de las asignaturas por lo que cambia la didáctica de la asignatura de diseño. Para dar solución al problema se buscaron distintos caminos. Inicialmente se intentó el refuerzo de profesores y trabajo en equipo liderados por estos, lo que no resultó. Más adelante se comenzó a trabajar en la impartición de asignaturas relacionadas e integradas, con vistas a elevar la auto-preparación de los estudiantes, y el desarrollo de investigaciones asociada a los objetos de estudio, así como el desarrollo de tareas al frente de los clientes potenciales con objetivos extensionistas, de modo que esta estrategia didáctica comenzó a dar frutos, unidos a la elevación de la motivación de los estudiantes, ante la responsabilidad social adquirida en cada objetivo a desarrollar. Metodologías y procedimientos El método de la enseñanza por proyectos, se viene aplicando den la disciplina DAU desde principios del siglo pasado y el mismo promueve la interdisciplinariedad y la colaboración. En este método se desarrollan temas de la realidad y el profesor asume el rol de guía durante el proceso de trabajo, [2]. Empleado en la enseñanza de la arquitectura por muchos años, este método se mantiene hasta la actualidad debido a que la arquitectura pertenece al campo del diseño, y dentro de la formación profesional del arquitecto, la adquisición de habilidades proyectuales resulta de vital importancia. Más recientemente, aunque ya desde la década de los años 60 del siglo pasado, se ha venido desarrollando el aprendizaje basado en problemas, (ABP) [2], método que se ha venido difundiendo internacionalmente en diferentes niveles de enseñanza en la actualidad se aplica igualmente en la docencia de arquitectura y urbanismo y resulta importante la combinación de este modo de aprendizaje a la enseñanza por proyectos. Al realizar un proyecto de arquitectura, los estudiantes se enfrentan a varios problemas que deben resolver desde las distintas asignaturas y disciplinas que se integran en él. Entre las ventajas del aprendizaje basado en problemas, se encuentra que el estudiante asume una gran parte de la responsabilidad de su aprendizaje .[3] . Proporciona mayor flexibilidad para la selección de objetivos y estrategias ajustados a las necesidades de la situación específica, a la vez que se puede lograr mayor integración del conocimiento y preparación profesional en los estudiantes. Para la aplicación y combinación de estos métodos se desarrollaron distintos procedimientos. El aprendizaje basado en problemas ofrece múltiples posibilidades, y se utilizó dentro del proceso de enseñanza-aprendizaje de forma flexible, adecuándose a cada situación y proyecto por equipos. Se enunciaban problemas a resolver y la solución de los problemas llevaba a definir estrategias, programas y conceptualizar las primeras ideas del proyecto. En sentido general se buscaba lograr la motivación en los estudiantes hacia el aprendizaje a partir de su interés en las temáticas, y se les dio oportunidad de elegir temas y proyectos, lo se conjugó con el desempeño responsabilidades técnicas al interior de equipos y de taller. Dentro del desarrollo del proceso, algunos de los modos en que se venía trabajando encontraron explicación y basamento teórico en los conceptos del aprendizaje formativo, los que fueron tomados en cuenta a continuación en las acciones y nuevas decisiones de la didáctica de la asignatura Esta forma de aprendizaje constituye una nueva visión del proceso de enseñanza aprendizaje, en que se trata la enseñanza como un “proceso orientado a facilitar el desarrollo de la personalidad” de los estudiantes [4]. Objeto de estudio de su tesis doctoral, fue ampliamente desarrollada esta teoría por Bermúdez en el 2001 y ha sido objeto de estudio de diversos autores posteriores. Bajo este enfoque, el aprendizaje constituye un proceso de “cambio que ocurre en el que aprende” [5], y conduce al crecimiento personal de estos alumnos. El concepto desarrollado por Bermúdez se basa en que “El resultado del Aprendizaje Formativo es la adquisición de la experiencia histórico social, pero no de cualquier experiencia histórico social, sino de aquella que para el sujeto es importante” [5], y lo define… “como proceso personalizado y consciente de apropiación de la experiencia histórico social que ocurre en cooperación con el maestro y el grupo en situaciones diseñadas del proceso de enseñanza-aprendizaje, en el cual el alumno transforma la realidad y se transforma a sí mismo, siendo responsable de ese proceso y de su resultado”, [5]. Las relaciones profesor alumno tendrán un rol importante, el profesor se convierte en maestro-facilitador, que más que instruir educa y conduce como tutor el proceso de aprendizaje. Los estudiantes son los verdaderos protagonistas, sobre los que recae el mayor peso del proceso, que se apoya en la preparación y el trabajo individual que cada uno sea capaz de desarrollar. Resulta fundamental el interés de los estudiantes en el aprendizaje, ya que, sin la motivación y voluntad de los implicados hacia los objetivos propuestos, no pueden alcanzarse verdaderos resultados de formación, a partir de la esencia de este proceso, [6]. Para alcanzar resultados de calidad en el proceso de enseñanza aprendizaje se hizo imprescindible la elaboración de un plan en que combinara en conjunción armónica los objetivos del proceso inversionista, los objetivos educativos e instructivos de las asignaturas curriculares de diseño, DAU V y DAU VI (Diseño Arquitectónico y Urbano) a los que se sumaron objetivos de asignaturas complementarias, destinadas a enriquecer conocimientos, habilidades y aportar herramientas para la investigación, el proyecto, la presentación, y el adecuado uso de las TIC. El plan fue concebido como un sistema de asignaturas integradas, en que el carácter integrador de la Disciplina DAU, constituyó un eje alrededor del cual giró el proceso, y la integración alcanzó a otras disciplinas como las de tecnología, con trabajos finales de: presupuestos, diagnósticos y otros que enriquecieron el proyecto de curso. El proceso de enseñanza aprendizaje llevó a los estudiantes hacia el logro de una base teórica y conceptual con soluciones de diseño sostenible. Realizaban un proceso previo investigativo, que concretaban en estrategias y programas urbanos y arquitectónicos y sobre esta base se conceptualizaron los proyectos de rehabilitación u otros desarrollados. Pero, sobre todo, se trabajó Se utilizó la clase conferencia, la clase taller y el seminario. Estos seminarios cerraban cada etapa. En ellos se desarrollaron formas de evaluación cruzada dentro de los propios estudiantes, y se promovió la participación de profesionales externos y clientes en las evaluaciones intermedias que enriquecieron las defensas por etapas. La importancia de los objetos de estudio y la pertinencia de los resultados, unidos a la responsabilidad que fueron adquiriendo los estudiantes frente a su desarrollo profesional y personal, constituyeron el eje de la motivación, que facilitó el cumplimiento de las tareas indicadas. La variedad de proyectos caracterizó y enriqueció los talleres y seminarios. También jugó un importante papel la necesaria actividad de extensión universitaria basada en las consultas a la comunidad. En la comunidad universitaria se desarrollaron intercambios con actores: usuarios y directivos de la universidad, trabajadores y profesores de las facultades. Además, fueron entrevistados estudiantes especialmente becados nacionales e internacionales. El trabajo con las poblaciones cercanas también incluyó encuestas y entrevistas, de forma especial en la comunidad del Central Toledo, se desarrollaron actividades en la escuela para un aniversario de los pioneros y la UJC y se hicieron intercambios con niños, maestros, además de encuestas o entrevistas a ancianos, amas de casa, trabajadores, entre otros pobladores visitados. El profesor, en la etapa tanto de investigación como de diseño, jugó un papel de guía y tutor de los distintos trabajos y solo en casos muy aislados se hizo necesario designar algún tipo de asesoramiento como apoyo a los equipos. En cada curso se consultó con los estudiantes su opinión sobre el proceso docente de ese año, mediante encuestas y entrevistas, y esto contribuyó al mejoramiento paulatino del proceso resultando en general muy satisfactorias las opiniones recogidas. Análisis de resultados de la etapa de trabajo en Proyecto CUJAE A medida que se implantaron nuevos procedimientos dentro de las distintas asignaturas del Plan Proyecto CUJAE, se hizo posible la atención de un taller por un solo profesor, independientemente de la cantidad de proyectos diferentes que desarrollaran los estudiantes. Si bien en los cursos hasta el 2016 se buscaba la participación de varios adiestrados, a partir del 2016-17 se prefirió prescindir de estos adiestrados, y un solo profesor asumió cada taller, independientemente de la cantidad de proyectos que se desarrollaran en dicho taller que teniendo un promedio de 20 estudiantes era posible que se desarrollaran alrededor de 8 a 10 proyectos de distintas edificaciones de la universidad a la vez. La tipología de los proyectos también podía variar, desde proyectos de residencias de las zonas docentes, o proyectos de la zona docente de facultades, o del espacio público, teatros, áreas deportivas u otros. También en esta etapa el taller de diseño salió de los límites de la universidad y se desarrollaron investigaciones y proyectos que intentaron dar respuestas a realidades y problemas de las zonas cercanas a la CUJAE como el poblado el Toledo, lo cual daba respuesta a solicitudes de la universidad de vincularse con estas problemáticas del entorno universitario. De esta forma entre el año 2016 y 2019 se lograron desarrollar todos los proyectos de rehabilitación arquitectónica que requirió la universidad en los que se encontraban toda la zona de residencias y prácticamente todas edificaciones de la universidad. Estos proyectos solucionaban problemas diferentes, y tenían objetivos diferentes a los que se desarrollaron con anterioridad al 2016. En estos años los estudiantes desarrollaron investigaciones en las que determinaron algunas transformaciones en los espacios exteriores y en los edificios por lo que no solo atendieron a los problemas técnico constructivos, atendieron a problemáticas funcionales, nuevas necesidades espaciales, cambios de funciones o nuevas funciones y transformaciones que se fueron requiriendo con el transcurso de los años y con las exigencias de las nuevas tecnologías, los cambios de mobiliario o del equipamiento. Fueron transformados en estos proyectos los edificios en soluciones interiores básicamente y también se transformaron mediante estos proyectos algunos espacios públicos entre los que se encontró el nuevo cercado para seguridad de la universidad. A modo de resumen, los estudiantes desarrollaron proyectos para 51 edificios de la CUJAE, y el 80% de estos proyectos de rehabilitación fueron realizados a partir del curso 2016-17 con esta nueva forma de trabajo, en que transitaron por etapas de programa, ideas conceptuales, soluciones ejecutivas y detalles. También para la totalidad de proyectos se hicieron con antelación, levantamientos de arquitectura, de lesiones y diagnósticos, e investigaciones necesarias para llegar a programa arquitectónico. La entidad inversionista de la CUJAE, valora toda la información que se produjo en esta etapa, como una documentación de base para el desarrollo de nuevos proyectos y como apoyo al proceso constructivo de la universidad. El proceso abarcó la etapa de análisis urbanos, en función de fundamentar las intervenciones y otro grupo importante de proyectos derivados de estas propuestas de intervención, en alcance de soluciones conceptuales que incluyeron propuestas para zonas del campus y para sus zonas urbanas más cercanas. El volumen de documentación producido ha servido a la organización inversionista como base a los procesos de ejecución, para la elaboración de nuevos proyectos y ajustes, y como apoyo en la toma de decisiones. Puede afirmarse que los resultados obtenidos han dado y continuarán dando por algún tiempo múltiples utilidades para la entidad receptora, CUJAE ya que constituyeron un aporte técnico y un aporte económico de consideración para la institución. Al respecto la dirección de la universidad reconoció en varios momentos esta labor a la facultad de Arquitectura y a los participantes en este proceso. Sin embargo, el más importante de los beneficios a tomar en cuenta fue el recibido por los estudiantes dentro del proceso, lo que pudo constatarse a través de la observación sucesiva durante varios cursos: Los estudiantes fueron protagonistas de su aprendizaje. Se despertó en ellos el interés de aprender y de alcanzar las mejores soluciones. Fueron conscientes de las realidades del contexto que investigaban y se sensibilizaron con las problemáticas. Se apropiaron con entusiasmo de temas y objetivos y profundizaron en las investigaciones, alcanzando resultados teóricos y prácticos de valor. Se mostraron comprometidos con las instancias para las que debieron realizar las propuestas, lo que les instó a superar constantemente sus soluciones en las distintas etapas. Desarrollaron valores de responsabilidad y ética profesional. En el curso 2017-18, y durante el proceso de Acreditación, la facultad calificó al Proyecto CUJAE como una de sus importantes fortalezas. Experiencias más recientes, problemáticas y aplicación de procedimientos tomados de la experiencia anterior Durante el curso 2019-20 y más adelante en el curso 2020-21 y hasta el 2022, se han venido desarrollaron varias experiencias de estudiantes y equipos de estudiantes que han realizado proyectos complejos en coordinación con la entidad de proyectos GEIDOS, que es la empresa de proyectos de arquitectura e ingeniería de Mariel. En el curso 2019-2020 se desarrolló un proyecto de Mirador por parte de un estudiante que procedente del grupo de Proyecto CUJAE, participó en un concurso en que se integraron indistintamente estudiantes y trabajadores, y fue este estudiante quien ganara este concurso, a partir su buen desarrollo en el proceso de investigación y conceptualización de diseño. Más adelante se formó un equipo de trabajo para dar respuesta a nuevas problemáticas de la ZED Mariel, en atención a proyectos de la zona turística ubicada al norte de Caimito. Dos diplomantes, trabajaron a modo de equipo, y las tesis fueron realizadas en condiciones de distanciamiento por la COVID. Estas tesis tenían contenidos muy diferentes que se complementaban, un estudiante se encargó de diseñar un hotel de 400 habitaciones desde la etapa de programa, y otra estudiante desarrolló el diseño de paisajismo de una zona ubicada al norte de Caimito, destinada al futuro Complejo El Salado. Durante la etapa de orientación de tesis y desarrollo de los proyectos, se volvieron a aplicar algunas de las estrategias didácticas de trabajo en equipo, proceso de investigación preliminar y desarrollo del programa, que se habían experimentado durante la etapa de Proyecto CUJAE. Realizaron sucesivos intercambios en la etapa de conceptualización, tomando algunas decisiones en equipo, y lograron una total compatibilidad en las propuestas. Las soluciones alcanzadas son totalmente aplicables a la producción, como una primera variante que puede ser de utilidad para trabajos futuros, y para otros trabajos de tesis que se desarrollarán en el presente curso sobre el mismo Complejo El Salado. En este caso, los estudiantes estuvieron aplicando sus conocimientos adquiridos y volvieron a brindar a entidades de la producción el resultado de su desarrollo profesional, al elaborar propuestas de diseño de total utilidad para esta entidad, incentivados por la importancia del trabajo que estaban desarrollando para la entidad receptora, y aferrados a la importancia de la tarea a la que dedicaron todo su esfuerzo durante todos los meses que duró este largo curso. La entidad proyectista valora altamente este trabajo que tiene como una bibliografía de importancia para tareas futuras. En el curso 2020-21 se logró formar un taller de diseño con 8 estudiantes, con la finalidad de enfrentar varios trabajos siendo el primero de ellos: el Corredor Cultural del asentamiento de Quiebra Hacha. Este colectivo tenía como objetivo, lograr el diseño de un grupo de edificaciones diferentes que se debían organizar a lo largo de una vía de nueva construcción en zonas de la nueva urbanización de Quiebra Hacha, por lo que todo el diseño era obra nueva. Las propuestas de edificaciones incluían cuatro instalaciones educativas, consistentes en círculo infantil, escuela primaria, escuela secundaria y pre universitario; una biblioteca auditoria, dos complejos de servicio, un alojamiento, y un centro juvenil. Se preparó la asignatura de forma que se facilitara el trabajo a modo de taller profesional de diseño, con la necesaria bibliografía y toda la información real de la parcela, la topografía y otras informaciones relacionadas con los proyectos y obras que se han venido desarrollando en la urbanización. De esta forma se les brindó toda la información que hasta la fecha se había ido investigando por los profesionales que venían participando en la tarea, llegando de esta forma a tener una verdadera participación en algunas de las decisiones. El proceso se organizó de modo que a pesar del distanciamiento se facilitara todo el proceso de investigación, la toma de datos y el procesamiento de estos datos y se combinaron etapas de trabajo de diseño urbano y diseño arquitectónico que se fueran complementando en la toma de decisiones. Se desarrollaron asignaturas integradas, que fueron Diseño Arquitectónico y Urbano, Optativa y la Práctica Laboral, todas dirigidas hacia objetivos que se fueron complementando a lo largo del proceso de trabajo. En este caso el trabajo tuvo la particularidad de que paralelamente con el trabajo del equipo de estudiantes, un equipo de arquitectos desarrollaba algunas de las edificaciones en un proyecto en etapa de diseño preliminar. Como los estudiantes no podían ir al sitio, se desarrolló una forma de trabajo en que todas las dudas de los estudiantes eran aclaradas a partir de que la investigación de campo la desarrollaban los profesionales, y les hacían llegar todo el resultado de la investigación, para que ellos analizaran y fueran conceptualizando las soluciones tanto urbanas como arquitectónicas. Para la propuesta urbana se organizaron los estudiantes en tres equipos, para los primeros análisis y propuestas, y se constituyeron en un gran equipo a nivel de taller, para finales de la etapa de diseño urbano, en que lograron compatibilizar todas las soluciones propuestas a nivel de taller. Se desarrollaron varias reuniones online, con discusiones de las soluciones, hasta llegar a acordarse una sola propuesta de urbanismo, con los datos de todos los proyectos individuales de las distintas parcelas, propuestos uno por cada estudiante. Este nivel de compatibilización tuvo una gran calidad, al punto que el análisis de los estudiantes arrojó resultados positivos en las propuestas y algunos de estos resultados ya se está aplicando en las propuestas que desarrollan los arquitectos que vienen haciendo esta tarea en paralelo en etapa de diseño conceptual. En el caso de la etapa de diseño arquitectónico, se les entregó la información que se había logrado desarrollar por la entidad en cuanto a programas, quedando algunos programas que debían definir los propios estudiantes. Así se hicieron programas arquitectónicos en que participaron los arquitectos en unos casos y en otros se hicieron con la participación de los estudiantes que investigaron repertorio y brindaron datos de importancia para conformar el programa definitivo. Tanto en las soluciones de arquitectura como de urbanismo del corredor, existen un grupo de valores y aportes que serán tenidos en cuenta y elevados como variantes de valor para las futuras soluciones de la urbanización. La participación de los estudiantes resultó altamente valiosa para la entidad receptora, GEIDOS, a la vez que los estudiantes han recibido el beneficio de la experiencia profesional. Esta etapa de trabajo les servirá de experiencia para la siguiente etapa en que se van a enfrentar en sus tesis a objetivos de mayor complejidad, también en condiciones de tareas que se destinan a la producción, esta vez para el Complejo El Salado, también de la ZED Mariel. Los resultados de la preparación de los estudiantes en esta etapa de trabajo se pudieron comprobar durante la realización de sus Ejercicios de Culminación de Estudios donde nuevamente trabajaron en objetivos de la ZED Mariel, y desarrollaron su trabajo en condiciones de aislamiento, con gran independencia y acierto. Para el curso 2021-2022, se han continuado aplicando experiencias similares, en proyectos vinculados a objetivos de la ZED Mariel, se ha aplicado la sucesión de asignaturas integradas que involucra la asignatura de diseño, asignaturas optativas y la práctica laboral, así como el ejercicio de culminación de estudios, lo que unido a la motivación propia del ejercicio de diseño vinculado a la ZED Mariel, y a la forma de trabajo ha dado lugar a resultados favorables, tanto para la formación de los estudiantes, como a los resultados favorables para la entidad receptora. 3. CONCLUSIONES  Las experiencias que se iniciaron durante la etapa de Proyecto CUJAE, y han tenido continuidad durante otros trabajos Universidad-Empresa en tareas relacionadas con la ZED Mariel, han permitido demostrar la posibilidad de convertir el aula en un taller de proyecto, en que los estudiantes a partir de determinadas alternativas didácticas desarrolladas en las asignaturas recibidas, lograron una gran independencia, y el desarrollo de habilidades investigativas y de toma de decisiones.  Se hizo posible que en un mismo taller se desarrollaran proyectos diferentes, a partir de la independencia y auto preparación alcanzada por los estudiantes, que fueron capaces de complementar distintos programas y proponer soluciones a la altura de un adecuado desempeño profesional.  Las tareas, todas de importancia y alta pertinencia constituyeron un incentivo para la participación y esfuerzo desarrollados por los estudiantes que se involucraron con total compromiso y seriedad a las tareas de estos talleres, en un acercamiento a su actividad profesional con perfil amplio, al desarrollar tareas como diseñadores, como decisores de la parte inversionista, entre otras valoraciones que fueron realizando en las distintas etapas de trabajo.  Las experiencias más recientes, relacionadas con los trabajos en objetivos de la ZED Mariel, se han realizado en nuevas y difíciles condiciones de aislamiento, destacándose la experiencia del curso 2020- 21 en que, con algunas restricciones en el alcance del trabajo dadas las circunstancias, los estudiantes lograron desarrollar un taller de proyecto online, y alcanzaron soluciones de utilidad para las entidades receptoras, proyectista e inversionista.  Cada una de las experiencias fueron desarrolladas a partir de objetivos de alta pertinencia social. Y en todos los casos los resultados constituyeron un aporte a la producción y los servicios, que ha dejado documentación de valor para las entidades receptoras, a la vez que significó experiencia profesional de mucho valor para los protagonistas del proceso, los estudiantes. Esto convierte al proceso de enseñanza- aprendizaje desarrollado cada vez en una actividad sostenible, que permite repetir el hecho y hacerlo extensivo a nuevos objetivos de alta pertinencia social una y otra vez. 4. REFERENCIAS 1. Reglamento de trabajo docente metodológico, Resolución 2-2018. Ministerio de Educación Superior. Cuba. (Disponible en: https://www.mes.gob.cu/es/resoluciones) 2. Travieso Valdés D, Ortiz Cárdenas T. Aprendizaje basado en problemas y enseñanza por proyectos: alternativas diferentes para enseñar. Revista Cubana de Educación Superior. 2018; Vol. 37 (1):124-133. 3. López Chuchayo, MA. El aprendizaje basado en problemas. Una propuesta en el contexto de la Educación Superior en México. Tiempo de Educar. 2008; Vol. 9 (18): 199-232. Universidad Autónoma del estado de México. Toluca. México. (Disponible en: http://www.redalyc.org/articulo.oa?id=31111811003) 4. Tintaya Condory P. Enseñanza y desarrollo personal. RIP. Pluralidad en la Ciencia con Enfoque Psicológico 16. Revista de Investigación Psicológica. Dic. 2016: 75-86. (Disponible en http://www.scielo.org.bo/pdf/rip/n16/ n16_a05.pdf -) 5. Bermúdez Morris R. El aprendizaje formativo: una opción para el crecimiento personal en el proceso de enseñanza – aprendizaje, Tesis en opción grado científico de Doctor. Universidad de La Habana. 2001. 6. Abreu Regueiro R L, Soler Calderius JL. Didáctica de la educación técnica y profesional. La Habana. Pueblo y Educación. 2015. (Disponible en http://edusol.cug.co.cu/index.php/EduSol/article/view/919/1657) Sobre los autores: MSc. Arq. Marta María Rubio Tamayo. Profesora Asistente de la Facultad de Arquitectura, en la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Especialista Principal de Arquitectura, en la Empresa de Arquitectura e Ingeniería de Mariel, GEIDOS. Cuba e-mail: marta@arquitectura.cujae.edu.cu; marta@geidos.cu; martamaria.rt@gmail.cu 1 EXPERIENCIAS PARA PROPICIAR EL APRENDIZAJE FORMATIVO EN LA MODALIDAD A DISTANCIA DEL PREGRADO Y POSGRADO Raquel Bermúdez Morris1, Lorenzo Miguel Pérez Martín2 1 y 2 Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE, Calle 114 # 11901 / Ciclovía y Rotonda, Marianao, La Habana, Cuba rbmorris@tesla.cujae.edu.cu; lmartin@tesla.cujae.edu.cu RESUMEN Las políticas educativas actuales exigen la formación de un profesional competente, con un desarrollo integral y una proyección social comprometida y transformadora, lo que puede lograrse mediante un aprendizaje formativo: personológico, consciente, responsable, transformador y cooperativo. Esto constituye un reto para la modalidad a distancia en la educación superior e implica cambios en la concepción y diseño didáctico de las asignaturas y cursos en los entornos virtuales de enseñanza-aprendizaje (EVEA). El objetivo del trabajo es presentar las experiencias de los autores en la asignatura “Pedagogía y Didáctica de la Educación Superior” y en el curso de maestría “La Creatividad con las TIC” para propiciar el aprendizaje formativo. Se diseñó el proceso de enseñanza-aprendizaje en la Plataforma de teleformación Moodle, se facilitó el aprendizaje y se garantizó el rol protagónico de los estudiantes en la toma consciente de decisiones relativas al diseño, ejecución y evaluación de las actividades, mediante la utilización de diversos recursos y el intercambio en WhatsApp y Telegram, con el apoyo de los correos electrónicos y teléfonos, desde una postura responsable y comprometida con su proceso y resultado, lo que promovió el trabajo cooperado y transformador de los estudiantes. Los resultados obtenidos en el proceso de investigación-acción, el estudio de casos, la aplicación de encuestas, observación y análisis de los resultados de la actividad reflejan un tránsito del nivel bajo en la calidad del proceso y resultado del aprendizaje formativo, a un nivel superior, en ambos grupos de estudio. PALABRAS CLAVES: Aprendizaje formativo, entornos virtuales de enseñanza-aprendizaje, modalidad a distancia, diseño didáctico en Moodle EXPERIENCES TO PROPICY THE FORMATIVE LEARNING IN TO DISTANCE WAY IN PRE AND POST DEGREE ABSTRACT The present educatives policies want formation of a efficient profesional, with an integral developing and a compromised and transformative social projection, so its made posible by a formative learnig: personological, conscious, responsable, transformativeand cooperative. This is a challenge to distance modality in higher education and implicate chages in didactic design and conception of subjects and courses in teaching-learning virtual enviroments (TLVE). The objective ofthis paper is to present the experiences of authors in the subject “Pedagogy and Didactics of Higher Education” and in the course of mastery “Creativity with Information and Comunicacition Technologies (ICT), in order to propiciate formative learnig. It was designed teaching-learning process in Moodle Teleformation Platform, it was facilited the learnign y it was assured protagonic role of students in made consciousthe decisitons relatives to the design, ejecution and evaluation of activities, by utilization of different resources and interchange in WhatsApp and Telegram chats, and the support of e-mails and phones, from a resonsible and compromised position with their process and result, so its made promoted cooperative and transformative work of students. The results obteined in researh-action process, case study, aplication of surveys, observation and activity results 2 analysis show a transit of slow level of quality of process and results of formative learnig to a higher level in both study groups. KEY WORDS: Formative learning, teaching-learning virtual enviroments, distance modality, Moodle didactic design. 1. INTRODUCCIÓN El contexto, en las instituciones educativas, ha cambiado notablemente, a partir de la pandemia de COVID- 19, lo que ha planteado relevantes cambios a la formación de los profesionales. Durante estos años, la enseñanza dejó de ser presencial, para trasladarse a escenarios virtuales, lo que constituyó un reto para la educación superior, que tuvo que pasar a la modalidad a distancia tanto en el pregrado como en el posgrado. Esto implicó una revisión de la concepción de aprendizaje y del proceso de enseñanza-aprendizaje (PEA) presencial, para adecuarlo a los entornos virtuales de enseñanza-aprendizaje (EVEA). Las políticas educativas exigen la formación de un profesional competente, con un desarrollo integral y una proyección social comprometida y transformadora. Esto requiere de un proceso de enseñanza-aprendizaje que propicie un aprendizaje formativo y un crecimiento personal de los estudiantes, mediante la integración de sus necesidades con las necesidades sociales. Lograr este propósito, en la modalidad a distancia de las carreras de ingeniería, mediante el entorno virtual de la plataforma Moodle, con el apoyo en WhatsApp y Telegram, los correos electrónicos y teléfonos, constituyó un gran reto, especialmente en asignaturas de carácter pedagógico como “Pedagogía y Didáctica de la Educación Superior”, que se imparte en la formación inicial y “La creatividad con las tecnologías” desarrollada en un curso de Maestría. El objetivo de esta ponencia es presentar las experiencias de los autores en el diseño didáctico de esta asignatura del pregrado y del curso de la maestría en la modalidad a distancia, a partir de la aplicación de la concepción del proceso de enseñanza-aprendizaje en las carreras de ingeniería y de la caracterización del aprendizaje formativo de los estudiantes. 2. DESARROLLO Marco conceptual Para realizar el diseño didáctico del PEA es necesario asumir una concepción del aprendizaje y del proceso de enseñanza-aprendizaje que oriente su planificación, ejecución y evaluación, así como un modelo didáctico para su diseño en los entornos virtuales de enseñanza-aprendizaje (EVEA). Los antecedentes en el estudio del proceso de enseñanza-aprendizaje mediado por las TIC, en las carreras de perfil técnico, aportaron valiosos resultados que permitieron la elaboración de la concepción del proceso de enseñanza-aprendizaje y del modelo didáctico que se asume. [1], [2], [3], [4], [5], [6], [7], [8], [9], [10], [11] y [12] Se define el aprendizaje formativo como el proceso personológico y consciente de apropiación de la experiencia histórico social que ocurre en cooperación con el maestro y el grupo en situaciones diseñadas del proceso de enseñanza-aprendizaje, en el cual el alumno transforma la realidad y se transforma a sí mismo, siendo responsable de ese proceso y de su resultado. [13] Son cinco las características esenciales que distinguen el aprendizaje formativo:  Su carácter personológico, que expresa la implicación del estudiante y el aprovechamiento de sus potencialidades y recursos personales en las tareas de aprendizaje, a partir del sentido personal que estas adquieren para él.  Su carácter consciente, que consiste en tener claridad del objetivo, del contenido, de las exigencias y condiciones de las tareas que van a realizar y de los recursos y características personales con las que cuentan para resolverlas.  Su carácter responsable, que exige su participación en las decisiones relativas al proceso de enseñanza- aprendizaje y que responda por la parte que le corresponde en este proceso y en su resultado.  Su carácter transformador, que implica la modificación de la información, de los objetos, de los demás y de sí mismo, lo que requiere ir más allá de la valoración crítica para aportar nuevas ideas, generar proyectos de transformación y ejecutarlos. 3  Su carácter cooperativo, que se refleja en la dinámica de la interacción con los demás estudiantes y en la colaboración del más capaz (fundamentalmente del profesor) durante la realización de las tareas. Todas las características tienen que estar presentes para que se produzca el aprendizaje formativo, conforman un sistema interrelacionado, en el cual, el cambio en alguna de ellas influye en la modificación de las demás. ¿Por qué es tan necesario este aprendizaje? En las investigaciones que han realizado los autores durante más de 20 años, se ha constatado que cuando el aprendizaje es formativo, se produce un crecimiento personal, entendido como un cambio en los contenidos y funciones de la personalidad del estudiante, que expresa su orientación en la dirección socialmente deseada, al satisfacer sus necesidades personales en el proceso de enseñanza-aprendizaje. En la educación superior esa dirección social se concreta en el modelo del profesional. [14] Se asume la concepción del proceso de enseñanza-aprendizaje de carreras de perfil técnico mediado por las TIC definida como: “…el sistema de objetivos, principios y conceptos esenciales que orientan el estudio y transformación de la relación entre educadores y estudiantes, los componentes didácticos, la dirección del aprendizaje y la integración de las tecnologías de la información y la comunicación, en función del desarrollo profesional integral de los estudiantes, en correspondencia con sus necesidades y con las exigencias socioeconómicas y de informatización del proyecto cubano actual.” [15] El desarrollo profesional integral es entendido como: “…proceso de cambio del profesional en formación que le acerca al profesional competente, a partir de la integración de las exigencias del modelo del profesional con sus necesidades personales.” [16] Se concibe el proceso de enseñanza-aprendizaje en estas carreras como: “…cooperación entre educadores y estudiantes en la cual se dirige la apropiación de los contenidos de la profesión, a partir de la integración de las TIC y las exigencias a los componentes didácticos, con el fin de aplicar y crear conocimientos y tecnologías, en función del desarrollo profesional integral de los estudiantes, en el contexto de la relación universidad-entidad laboral-comunidad.” [17] Cuatro características esenciales se destacan en este concepto: la primera es la cooperación entre educadores y estudiantes, que significa la toma de decisiones conjuntas, la comunicación positiva y el trabajo unido para alcanzar los objetivos, a partir de los acuerdos, compromisos y las ayudas que se brindan, respondiendo cada uno por el proceso y por su resultado. La segunda característica se refiere al cumplimiento de determinadas exigencias didácticas en el PEA. Estas son: la profesionalización, que incluye su correspondencia con el modelo del profesional y la esencialidad de los contenidos; el carácter sistémico, es decir, la interrelación entre las categorías didácticas, entre lo académico, laboral, investigativo y extensionista y la intra e interdisciplinariedad; y la problematización, que implica identificar problemas profesionales, utilizar métodos que acerquen a la actuación profesional y elaborar y realizar proyectos de investigación o de intervención que permitan su solución. La tercera es la integración de las tecnologías al sistema didáctico, lo que se logra solo mediante la interrelación sistémica, continua, reflexiva y contextualizada de las herramientas, recursos informáticos y de telecomunicación en las tareas docentes; así como la accesibilidad, inmediatez y adaptabilidad a los recursos tecnológicos institucionales y personales disponibles, mediante la potenciación de los entornos personales de aprendizaje de los estudiantes en las actividades académicas, laborales, investigativas y extensionistas. Finalmente, la dirección de la apropiación de los contenidos de la profesión se realiza mediante dos procedimientos generales: la facilitación de la dinámica grupal, por medio de recursos que permiten su observación, interpretación y coordinación; y la mediación, mediante las ayudas a los estudiantes para orientarse, ejecutar y autorregularse en las tareas. Los rasgos que caracterizan el proceso de enseñanza-aprendizaje mediado por las TIC en las carreras de perfil técnico conforman un sistema, en tanto necesitan estar presentes e interrelacionados en el proceso, para lograr su identidad y el logro del objetivo previsto. A su vez forman parte de los conceptos esenciales de la concepción y se encuentran en una relación de interdependencia con los principios que la rigen, subordinándose al objetivo y tributando a su logro. Ellos funcionan como un todo integrado y se organizan dinámicamente para lograr el cumplimiento de su función: la formación profesional integral de los futuros egresados de estas carreras. El diseño didáctico en los entornos virtuales de aprendizaje requiere cumplir con las características esenciales del PEA, en la asignatura o curso de que se trate. Esto quiere decir que el objetivo del programa 4 y los objetivos de cada uno de sus temas deben ser determinados de manera conjunta por estudiantes y educadores, responder al modelo del profesional y garantizar su derivación gradual. Deben incluir la habilidad que se pretende lograr, los conocimientos que se necesitan, el cómo se procederá, los recursos necesarios y las cualidades y valores que se exigen para alcanzarlo. El contenido debe ser esencial, general, científico, sistémico y responder al objetivo; los métodos requieren la problematización, el planteamiento de exigencias crecientes, el carácter sistémico, científico- investigativo, la creatividad en la realización de las tareas y posibilitar el trabajo cooperado y los medios deben tener la calidad necesaria, ilustrar los aspectos esenciales, orientar la realización de las tareas, permitir el trabajo activo de los estudiantes y la expresión de sus resultados. Las formas de organización cambian, surgen nuevas formas de relación entre profesor y estudiantes que integran las existentes o las combinan de nuevas maneras. Por último, la evaluación debe constatar el logro del objetivo, el proceso que permitió alcanzarlo y los valores y cualidades personales involucrados en el mismo. Es muy importante la confrontación entre la autoevaluación, la coevaluación y la evaluación del profesor para lograr plena consciencia del proceso de aprendizaje y autorregularlo. Aunque el proceso ocurre en entornos virtuales de enseñanza-aprendizaje, no puede desvincularse del contexto social en que se produce, por lo que la asignatura o curso debe tributar a la solución de los problemas profesionales del contexto social, con un enfoque científico-investigativo, desde su vínculo con las prácticas pre-profesionales en el caso del pregrado y de la práctica profesional en el caso del postgrado. El EVEA plantea el dominio de determinados elementos tecnológicos para poder realizar el diseño didáctico y llevarlo a ese entorno. Es necesario conocer qué actividades y recursos ofrece el entorno para hacer una adecuada selección de estos y dominar la plataforma en que se va a trabajar, para poderlos conformar, sin errores, en ella. Se asume el modelo didáctico para la Plataforma de teleformación Moodle del Centro de Referencia para la Educación de Avanzada (CREA) de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. [18] En este modelo el diseño didáctico en EVEA se define como el proceso mediante el cual se representan las características esenciales de la enseñanza y el aprendizaje mediante la dinámica de sus componentes, a través de un espacio virtual. [19] Se destaca la unidad funcional estructural entre lo didáctico y tecnológico expresado en la relación de los componentes del proceso de enseñanza-aprendizaje, que adquiere cualidades cualitativamente diferentes, una vez que se conciben a partir de la integración de las TIC y que esta unidad debe concebirse en el diseño del proceso de enseñanza-aprendizaje en estos entornos de formación como núcleo de central de cada una de las acciones que se realizan. [20] Este modelo plantea tres exigencias didácticas para el diseño de EVEA:  Establecimiento de la relación entre objetivo-contenidos-actividades-recursos-evaluación. Esta exigencia expresa la necesaria coherencia que debe existir entre el objetivo a lograr por los estudiantes, los contenidos que posibilitan alcanzarlo, los tipos de actividades y de recursos que deben utilizarse de manera armónica y combinada, de forma tal que posibiliten el aprendizaje y la evaluación de sus resultados.  Determinación de la relación entre las tareas de aprendizaje, la orientación y el tipo de ayudas en función del tránsito hacia niveles superiores de asimilación. La estructuración de las tareas a partir de las orientaciones y ayudas que se les brindan a los estudiantes posibilitan el tránsito por los diferentes niveles de asimilación, fundamentalmente hacia niveles aplicativos y creativos en la solución de estas. La guía didáctica posibilita una base orientadora de la actividad y en dependencia de cómo estas sean diseñadas cumplirán con su rol orientador. El aprovechamiento de otras actividades y recursos de estos entornos posibilitan la orientación y la ayuda diferenciada en función del desarrollo de cada estudiante. Las particularidades en esta relación también atraviesan lo comunicacional, expresado en las maneras de concebir la información, los mensajes, las imágenes, símbolos, sonidos dada las particularidades y potencialidades que poseen los EVEA.  Establecimiento de los indicadores de la evaluación formativa, tanto de proceso como de resultado. Esta relación explicita la necesaria coherencia entre los indicadores de la evaluación formativa, a partir de estrategias de aprendizaje. Como indicadores se asumen los siguientes: [21]  Planificación del tiempo y recursos necesarios en función de las exigencias de la tarea. 5  Búsqueda, elaboración y utilización personalizada de la información durante la autopreparación.  Cooperación con los otros y aprovechamiento de las ayudas en la realización conjunta de tareas.  Utilización de alternativas efectivas para enfrentar el estrés que generó la tarea.  Nivel de logro del diseño de actividades y recursos en relación con el resto de los componentes didácticos. Material y métodos Para constatar el proceso de aprendizaje formativo en los estudiantes, se trabajó con dos grupos de estudio, uno conformado por 111 estudiantes de 4to año de Ingeniería Industrial y el otro por 10 estudiantes del curso “Creatividad con las tecnologías” de la Maestría “Las tecnologías en los procesos educativos” Se realizó un proceso de investigación-acción con la activa participación de los estudiantes en las transformaciones realizadas. Los métodos de investigación utilizados fueron: el estudio de casos, la observación, la encuesta y el análisis de los resultados de la actividad. La triangulación como procedimiento permitió la integración de los resultados obtenidos en los diferentes métodos y fuentes. Para el procesamiento de los datos obtenidos en la aplicación de estos métodos, se utilizaron los siguientes instrumentos: guía de observación, escala valorativa y escala autovalorativa de las características del aprendizaje formativo. Se operacionalizó la variable aprendizaje formativo y se establecieron tres niveles para determinar la calidad del aprendizaje formativo: nivel 1: baja; nivel 2: media y nivel 3: alta. Se constató el estado en que se encontraba la calidad del aprendizaje formativo al inicio y al final de la asignatura y curso, y se realizó un monitoreo de este proceso durante el semestre. Como método estadístico se aplicó la Prueba de la mediana conjunta. (Stat Soft, Inc., 1996) ya que se trataba de dos muestras independientes y la variable se encontraban en escala ordinal. Se utilizó un ᾳ= 0,05. Resultados obtenidos La experiencia realizada en la asignatura “Pedagogía y Didáctica de la Educación Superior” en el pregrado de la carrera de Ingeniería Industrial fue concebida en la Plataforma de Teleformación Moodle. El objetivo que debían lograr los estudiantes era diseñar un plan de clase de una asignatura de la carrera, lo que harían por equipos, con la ayuda de algún profesor de la asignatura seleccionada por el equipo y por supuesto, con la ayuda del profesor de Didáctica. Debían ser responsables, éticos, honestos, creativos y solidarios durante todo el proceso. Este objetivo responde al modelo del profesional ya que la docencia es uno de los modos de actuación del ingeniero. Para lograr este objetivo, necesitaban dominar como conocimientos fundamentales: la concepción del PEA de las carreras de ciencias de perfil técnico y la metodología para la planificación de las actividades docentes. El método seleccionado fue el aprendizaje por proyecto, considerado el plan de clase como el proyecto que debían aportar a los colectivos de asignatura de la carrera. Como procedimientos del método se emplearon: el debate, la elaboración conjunta, técnicas creativas y el trabajo independiente. Lo esencial era lograr una coherencia entre el objetivo, el contenido y el método y procedimientos a utilizar. Los estudiantes debían seleccionar un plan de clase de una asignatura de la carrera, valorarlo críticamente a partir de los indicadores de las características del PEA de las carreras técnicas y diseñar un nuevo plan de clase que resolviera las limitaciones detectadas desde la metodología general que se les proponía. El trabajo se realizaba por equipos y exigía un proceso de aprendizaje responsable, cooperado, transformador, consciente y personológico. Las actividades fundamentales planificadas y los recursos de apoyo fueron:  Las wiki, utilizadas para la construcción del conocimiento por los estudiantes, mediante técnicas como la sinéctica, en la que los equipos se convertían en categorías didácticas y debían responder a las preguntas: si dejara de ser quién soy y me convirtiera en una categoría didáctica ¿cuál me gustaría ser? ¿Quién soy? ¿Qué le puedo ofrecer a las demás categorías? ¿Qué necesito de cada una de ellas? ¿Qué pasaría en el proceso de enseñanza-aprendizaje, si yo desapareciera? También permitieron el aporte de bibliografía acerca del PEA, a partir de la orientación de su búsqueda en internet y la colocación en la wiki, por los estudiantes, del material seleccionado en esa búsqueda y de la argumentación de por qué recomiendan su consulta a los demás. 6  Las tareas, en las que los estudiantes reflejaban el resultado de su trabajo en la valoración y diseño del plan de clase. La primera tarea consistió en una entrevista del equipo a un profesor de la carrera, para constatar la correspondencia de su concepción del PEA con las características del PEA de las carreras de ciencias técnicas. De esta tarea se derivó un trabajo científico estudiantil, que reflejó los logros y debilidades en las concepciones de los profesores y las propuestas de vías para perfeccionarlas. La segunda tarea fue la valoración por cada equipo del plan de clases seleccionado, teniendo en cuenta los indicadores del PEA de las carreras de ciencias técnicas; la tercera tarea fue el rediseño del plan de clase seleccionado, a partir de la valoración realizada en la tarea anterior y la cuarta tarea fue el trabajo final, al que se le pidió al equipo una autovaloración, teniendo en cuenta los indicadores con los que venían trabajando.  Los foros de debate, que se realizaban previo a cada tarea, en los que se entrenaban para la realización de la tarea del tema. En el primer foro el grupo valoraba la concepción del PEA en las carreras de ingeniería de una universidad, que se evidenciaba en fragmentos de un filme; en el segundo tenían que valorar un plan de clase de la carrera, teniendo en cuenta los indicadores establecidos para ello y en el tercer foro elaboraban las propuestas para el rediseño del plan de clase que había sido valorado en el foro de debate anterior. El foro de dudas se mantuvo abierto, así como el grupo de WhatsApp y la posibilidad del contacto directo con el WhatsApp o Telegram privado, el correo electrónico y el teléfono fijo del profesor.  El taller, en el que cada equipo evaluó el trabajo final de otro, a partir de estos indicadores. De este modo, el profesor pudo integrar la autoevaluación, la coevaluación y la evaluación otorgada por él.  Las encuestas, aplicadas al inicio y al final del curso, recogían las expectativas, necesidades, criterios y opiniones de los estudiantes acerca del objetivo, contenido, metodología y evaluación del curso, así como la autovaloración del proceso y resultado de su aprendizaje.  Las etiquetas, colocadas por la profesora al finalizar cada tema, reflejaba los logros más significativos que había tenido y las debilidades que aún presentaban y que debían continuar atendiendo. Los mejores trabajos finales se seleccionaban para el Festival de la clase de la Facultad, actividad competitiva anual, que permitía la socialización de los resultados y la selección de los mejores planes de clase para el festival de la universidad. Los principales recursos empleados fueron:  Las guías para la autopreparación, que orientaban con detalle cada una de las actividades y cómo debían prepararse para lograr ejecutarlas adecuadamente.  Los videos tutoriales y PowerPoint de presentación de cada tema que constituían un soporte fundamental para destacar los aspectos esenciales de su contenido.  El glosario de términos con los conceptos fundamentales de la asignatura.  El mapa del curso, en el que se explicaba el contenido, las actividades y los recursos de cada uno de los temas.  La bibliografía necesaria para la autopreparación de cada una de las actividades.  Los videos y audiovisuales de situaciones relacionadas con el contenido del tema que estimulaban la reflexión y el debate acerca de los temas.  Planes de clase modelos de asignaturas de la carrera que mostraban su correspondencia con los requerimientos de la Didáctica.  Planes de clase que presentaban dificultades en su diseño didáctico, utilizados para la valoración y el debate colectivo. El curso de posgrado “Creatividad con las tecnologías” se diseñó de modo similar, aunque se trataba de un curso de maestría, por lo que era imprescindible lograr su vinculación con el tema de investigación de cada estudiante. Por tal razón se propuso como objetivo elaborar alternativas para el desarrollo de la creatividad y de sus potencialidades, con integración de las tecnologías. Para lograrlo debían asumir uno de los enfoques y concepciones de la creatividad estudiados y sustentar, desde esas bases conceptuales-metodológicas, las alternativas propuestas, en la investigación de su tesis de maestría, con ética, honestidad, creatividad y responsabilidad. 7 El método empleado fue el aprendizaje basado en problemas, ya que trabajaban desde la solución, mediante la investigación, de un problema científico. Se articularon al método, procedimientos de debate, de trabajo independiente y de elaboración conjunta, así como el uso de métodos creativos y técnicas autovalorativas. Se planificaron actividades y recursos semejantes a las del pregrado, solo que, en este caso, las tareas eran individuales ya que respondían a las investigaciones de las tesis que realizaban los estudiantes.  Las tareas posibilitaron la entrega de los aspectos necesarios para la conformación del trabajo final: en el tema 1 entregaron la argumentación del enfoque y concepción de la creatividad asumidos en su tesis de maestría, en el tema 2 la propuesta de métodos y técnicas para vencer las barreras y desarrollar la creatividad en el tema de la investigación y en el tema 3 la propuesta de alternativas para lograr su desarrollo en la investigación que realizaban.  Los foros permitieron el debate colectivo de la creatividad en audiovisuales y situaciones de la actividad profesional e investigativa. Al ser pocos estudiantes, se utilizó también el foro de debate para integrar la heteroevaluación, la coevaluación y la autoevaluación de cada trabajo final. El estudiante colocaba su trabajo en el foro, con su autoevaluación y los demás estudiantes y el profesor expresaban las valoraciones y sugerencias para su perfeccionamiento. Todos conocieron las propuestas de los demás y participaron en su valoración, lo que resultó muy útil para el desarrollo del proceso investigativo de sus tesis de maestría.  En las wiki se utilizaron métodos como los seis sombreros para pensar de E. de Bono, en los que todos participaron desde posiciones diversas en la valoración de las situaciones. También posibilitaron la socialización de bibliografía acerca de la creatividad a partir de su búsqueda en internet y la presentación de infografías acerca del concepto de creatividad, elaboradas en equipos.  Los cuestionarios y encuestas permitieron la reflexión y autovaloración de los estudiantes en el desarrollo de su creatividad y en el proceso y resultado de su aprendizaje, así como la expresión de sus expectativas, necesidades, criterios y valoraciones con respecto al PEA del curso.  Se utilizaron las etiquetas, al igual que en el pregrado, para retroalimentar al grupo con respecto a los logros y limitaciones constatados al concluir cada tema. La diferencia esencial con el pregrado estuvo en la profundidad teórica y en el mayor rigor científico- investigativo de cada una de las actividades, así como en la mayor independencia exigida a los estudiantes. Los recursos, de igual modo que en el pregrado fueron el mapa del curso, el glosario, las guías para la autopreparación, las bibliografías, los videos tutoriales, los PowerPoint de presentación de los temas y los audiovisuales para propiciar la reflexión y debate en cada uno. Fue de suma importancia garantizar la orientación educativa en el trabajo cooperado con los estudiantes, ya que surgieron dudas, temores y ansiedades durante la realización de las actividades que se resolvieron y minimizaron mediante las ayudas y los mensajes tranquilizadores colocados en la plataforma, en el WhatsApp del grupo o en el privado. La mediación contribuyó de manera relevante a vencer las contradicciones, los obstáculos, miedos, conflictos y problemas que surgieron en el proceso de aprendizaje en estos entornos. Discusión de los resultados La constatación del estado inicial y final del aprendizaje formativo de los estudiantes, a partir del procesamiento de los datos obtenidos en la aplicación de los diferentes métodos de investigación y de su triangulación reflejó lo siguiente: En el grupo de pregrado la mediana se encontraba al iniciar la asignatura en el nivel 1 y al finalizar en el nivel 2, lo que muestra una diferencia altamente significativa (Z = 3.614, p < .001) y un salto favorable en la calidad del aprendizaje. En este grupo una parte importante de los estudiantes lograron transitar hacia el nivel alto y algunos permanecieron en el nivel bajo. En el grupo de posgrado se transitó de una calidad inicial baja a una calidad final alta, lo que refleja diferencias muy significativas (Z = 3.015, p < .01) y un notable salto en la calidad del aprendizaje, a pesar de que algunos sujetos solo transitaron hasta el nivel medio. El cálculo de la mediana arroja ligeras diferencias entre los resultados obtenidos en el pregrado y el posgrado, a favor del grupo de la maestría. El análisis de las características del aprendizaje formativo reveló el tránsito de todas hacia un nivel de calidad superior. 8 Figura 1: Calidad inicial y final de las características del aprendizaje formativo en la asignatura Pedagogía y Didáctica de la Educación Superior. En la figura 1 se evidencia un salto importante en el aprendizaje formativo de los estudiantes, el que transita de una calidad inicial baja a una calidad final superior. Se destacan las características: consciente, transformador y cooperativo, que alcanzaron un nivel alto de calidad. Sin embargo, en el carácter personológico el cambio no fue tan alto, aunque alcanzó una calidad mayor que al inicio. Esto podría explicarse porque una parte de los estudiantes no le encontró sentido personal a la asignatura, pues consideraba que no era necesaria para un ingeniero, lo que afectó su implicación en el proceso y el aprovechamiento de todas sus potencialidades y recursos personales. En este grupo también se limitó un tanto la responsabilidad que no alcanzó en nivel alto, específicamente en lo referido a la toma de decisiones conjuntas con el profesor, por algunos estudiantes, durante el proceso de cooperación. Figura 2: Calidad inicial y final de las características del aprendizaje formativo en el curso Creatividad con las TIC. La figura 2 refleja los cambios en la calidad del aprendizaje, el que alcanzó, al finalizar el curso, un nivel alto de calidad, en cuatro de sus dimensiones, con excepción del carácter personológico. En este resultado pudo influir el cúmulo de tareas laborales que desempeñaban los estudiantes en sus instituciones laborales, que limitaba el tiempo que podían dedicar a la maestría, lo que trajo por consecuencia un insuficiente aprovechamiento de sus potencialidades y recursos personológicos en la ejecución de las actividades. Por otra parte, los resultados académicos fueron muy buenos. En la tabla 1 se pueden observar las calificaciones finales obtenidas: Tabla 1: Resultados académicos de los estudiantes en la asignatura de pregrado y en el curso de posgrado. Grupos % Excelente % Bien % Regular o Aprobado % Mal Pregrado 72 21 7 0 Posgrado 60 30 10 0 Se observa el predominio de las calificaciones de excelente y bien, que alcanzaron un 90 % en el posgrado y 93 % en el pregrado. Ningún estudiante desaprobó la asignatura ni el curso, lo que indica el logro con 0 1 2 3 Personológico Consciente Responsable Transformador Cooperativo N iv el Características del aprendizaje formativo Inicio Final 0 1 2 3 Personológico Consciente Responsable Transformador Cooperativo N iv e l Características del aprendizaje formativo Inicio Final 9 calidad de los objetivos, en un proceso en el que se exigió el dominio de los conocimientos y habilidades y la manifestación de cualidades y valores como la honestidad, la solidaridad, la creatividad, la responsabilidad y la ética. 3. CONCLUSIONES Como conclusiones resaltan: En primer lugar, la necesidad de un diseño didáctico sustentado en una concepción del PEA que propicie el aprendizaje formativo. En segundo lugar, la importancia de dominar el EVEA (tanto por los profesores como por los estudiantes) en el que se desarrollará la asignatura o el curso, para moverse en él de manera creativa y aprovechar las potencialidades que ofrece para lograr un aprendizaje formativo. En tercer lugar, la influencia de la mediación del profesor, a través de las ayudas necesarias para la realización de las actividades; y de la facilitación de la dinámica grupal, mediante la observación e interpretación de los procesos grupales, por medio del planteamiento de hipótesis acerca del porqué de las resistencias a la realización de las actividades que pueden surgir en estos entornos. Por último, la relevancia que adquiere mantener la comunicación positiva y la orientación educativa en el trabajo cooperado con los estudiantes, para vencer las contradicciones, los conflictos y cualquier tipo de problemática u obstáculo que pueda afectar el proceso de aprendizaje y desarrollo en estos entornos. 4. REFERENCIAS 1. RESTA, P. Las tecnologías de la información y la comunicación en la formación docente. Guía de planificación. División de Educación Superior. UNESCO, 2014. http://www.unesco.org 2. AREA MOREIRA, M. “Innovación pedagógica con TIC y el desarrollo de las competencias informacionales y digitales”. Investigación en la escuela, 2008, vol 64, pp. 5-18. https://idus.us.es 3. MOYA, M. “De las TICs a las TACs: la importancia de crear contenidos educativos digitales”. Didáctica, innovación y multimedia (DIM), 2013, núm. 27, pp.1-14. http://www.dim.pangea.org/dim/revista.htm 4. GÓMEZ TRIGUEROS, Isabel María. “Nuevas didácticas geográficas: el modelo TPACK, los MOOCs y Google EarthTM en el aula”. Revista EDMETIC, Journal of Media Literacy and ICT, 2017. 5. CABERO, Julio. “Los retos de la integración de las TICs en los procesos educativos. Límites y posibilidades”. Perspectiva Educacional, 2010, vol 49, núm. 1, pp. 32-61. https://dialnet.unirioja.es 6. COLL, César. “Aprender y enseñar con las TIC: expectativas, realidad y potencialidades”. Boletín de la Institución Libre de Enseñanza, 2008, núm. 72, pp. 17-40. 2008. http://dialnet.unirioja.es 7. ORJUELA FORERO, D.L. “Acercamiento a la integración curricular de las TIC”. Praxis & Saber, 2010, vol 1, núm. 2, segundo semestre, pp. 111-136. 8. RODRÍGUEZ SÁNCHEZ-OSSORIO, Reiner. “Modelo para la integración de las tecnologías informáticas a los procesos formativos en las carreras de perfil técnico de la educación superior pedagógica”. Tesis de doctorado, Universidad de Ciencias Pedagógicas Enrique José Varona, La Habana, 2018. 9. GRINSZTAJN, F. E IMPERIALE, M. Innovación en la enseñanza de la ingeniería, la gestión pedagógica de un proyecto transformador. En Grinsztajn, F. e Imperiale, M. (Compiladoras) “Enseñanza de la Ingeniería, hacia un Modelo Pedagógico Transformador”. Buenos Aires: Editorial UNLaM, Universidad Nacional de La Matanza, 2017. 22 pp. ISBN 978-987-3806-71-1. 10. MOLINA ÁLVAREZ, Ana Teresa. “Didáctica de la Ingeniería: fundamentos teóricos y metodológicos”. En memorias de 5to. Congreso Internacional de Educación Superior UNIVERSIDAD 2012, Ministerio de Educación Superior, La Habana, 2012. 11. CASTAÑEDA HEVIA, Angel Emilio. Tecnologías digitales y Gestión de la Información en la enseñanza de la ingeniería. La Habana, Cuba: Editorial Félix Varela, La Habana, 2010. 10 12. MOHD KAMARUZAMAN, F., HAMID, R.,MUTALIB, A.A. Y RASUL, M.S. “Comparison of Engineering Skill with IR 4.0 Skill”. IJOE 15, 2019, vol 15, núm. 10. Disponible en https://doi.org/10.3991/ijoe.v15i10.10879 13. BERMÚDEZ MORRIS, Raquel. “Aprendizaje formativo. Una opción para el crecimiento personal”. Tesis de doctorado. Facultad de Psicología, Universidad de La Habana, La Habana, 2001. 14. PÉREZ MARTÍN, Lorenzo Miguel. “Sistema de condiciones del proceso de enseñanza-aprendizaje que propician el crecimiento personal en estudiantes de las especialidades técnicas de la Licenciatura en Educación”. Tesis de doctorado. Facultad de Psicología, Universidad de La Habana, La Habana, 2013. 15. BERMÚDEZ MORRIS, Raquel; PÉREZ MARTÍN, Lorenzo Miguel, ARZUAGA RAMÍREZ Misleidy y ARMAS VELASCO, Camilo Boris. “Concepción del proceso de enseñanza-aprendizaje mediado por las TIC en carreras de perfil técnico”. En memorias de 12do. Congreso Internacional de Educación Superior UNIVERSIDAD 2020. Ministerio de Educación Superior, La Habana, 2020, p. 4. 16. Ídem. p. 6. 17. Ídem. p. 6. 18. SANTOS BARANDA, Janette y ARMAS VELASCO, Camilo Boris. “La integración de las tecnologías de la información y la comunicación en los procesos formativos universitarios”. En memorias de 12do. Congreso Internacional de Educación Superior UNIVERSIDAD 2020, Ministerio de Educación Superior, La Habana, 2020. 19. SANTOS BARANDA, Janette y ARMAS VELASCO, Camilo Boris. Glosario de términos. Plataforma de teleformación Moodle-Cujae. Entrenamiento Diseño didáctico de actividades en Moodle. Universidad Tecnológica de La Habana José Antonio Echeverría, Cujae, La Habana, 2019. 20. SANTOS BARANDA, Janette y ARMAS VELASCO, Camilo Boris. “La integración de las tecnologías de la información y la comunicación en los procesos formativos universitarios”. Curso pre- congreso. En memorias de 12do. Congreso Internacional de Educación Superior UNIVERSIDAD 2020, Ministerio de Educación Superior, La Habana, 2020. 21. ARMAS VELASCO, Camilo Boris y BERMÚDEZ MORRIS, Raquel. “Metodología para la formación de la estrategia general de aprendizaje en el proceso de enseñanza-aprendizaje del Curso Regular Diurno de las especialidades técnicas de la Licenciatura en Educación”. Resultado de proyecto de investigación. Universidad de Ciencias Pedagógicas “Héctor Alfredo Pineda Zaldívar”, La Habana, 2010. Sobre los autores Raquel Bermúdez Morris. Profesora Titular e Investigadora Titular del Centro de Referencia para la Educación de Avanzada (CREA) de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Doctora en Ciencias Psicológicas. Coordinadora del Congreso de Educación de la Convención Científica de Ingeniería y Arquitectura y del Simposio Didáctica de las Ciencias Básicas, la Ingeniería y Arquitectura del Congreso Internacional de Educación Superior, miembro de la directiva de la Organización Internacional para el Fomento del Desarrollo del Pensamiento (OFDP) y presidente del Grupo Cuba de esta organización; miembro de la directiva de la sección de Psicología Educativa de la Sociedad Cubana de Psicología y miembro de la Sociedad de Pedagogos de Cuba, miembro del Consejo científico Ramal, del tribunal de Categoría docente de profesor Titular y Auxiliar de Pedagogía en la Cujae y del tribunal de categoría de Investigador Auxiliar y Titular del Instituto Central de Ciencias Pedagógicas; miembro del grupo de expertos del Programa Sectorial de Ciencia, Tecnología e Innovación “Sistema Educativo Cubano. Perspectivas de Desarrollo”. Lorenzo Miguel Pérez Martín. Profesor Titular del Centro de Referencia para la Educación de Avanzada (CREA) de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Doctor en Ciencias Psicológicas. Miembro del Comité Académico de la Maestría Las tecnologías en los procesos educativos, miembro de la directiva del Grupo Cuba de la Organización Internacional para el Fomento del Desarrollo del Pensamiento (OFDP), Presidente de la sección de Psicología Educativa de la Sociedad Cubana de Psicología y miembro de la Sociedad de Pedagogos de Cuba, Secretario de la Comisión de Grados Científicos de la CUJAE y miembro del tribunal de Categoría docente de profesor Titular y Auxiliar de Pedagogía en esta universidad. EL USO DE DISPOSITIVOS MÓVILES EN EL PROCESO DE ENSEÑANZA APRENDIZAJE Eldo Yoel Flores del Castillo1, Aimé María Mencía Pentón2, Ana Claudia Flores Molina3, Caridad Portal Valdivia4 1Joven club de Computación y Electrónica, Sancti Spíritus, 2, 3, 4 Universidad José Martí Pérez, Sancti Spíritus, Cuba 1 yoelf1414@gmail.com, 2 aimemp71@gmail.com RESUMEN En la actualidad, la mayoría de las personas en todo el mundo tienen dispositivos móviles o dispositivos electrónicos, los que han comenzado a utilizarse en propósitos educativos. Con motivo, las TIC en entornos educativos han originado nuevas metodologías de enseñanza-aprendizaje; una de ellas es el denominado «mobile learning» o aprendizaje móvil. Por esta razón aparecen los dispositivos móviles como un nuevo paradigma social, cultural y educativo que no puede pasar inadvertido en la educación, la cual pretende ser inclusiva y apegada a las tecnologías. El teléfono móvil, el Tablet, las laptops no solo son para redes sociales e internet, sino que pueden ser utilizados desde una perspectiva educativa. No significa que se deba permitir su uso sin control, sino que se consideren las posibilidades que brindan, pues en diversos centros se prohíbe su uso, tendencia que va precisamente en dirección opuesta. La presente investigación se basa en la estrategia investigativa estudio de caso, posee un carácter cualitativo descriptivo; en ella se indagó sobre el uso de los dispositivos móviles y aplicaciones dentro del aula de clase. Por último, se presentan las conclusiones derivadas de este proceso. PALABRAS CLAVES: aplicaciones, dispositivos, enseñanza-aprendizaje, educativos, e-learning THE USE OF MOBILE DEVICES IN THE TEACHING LEARNING PROCESS ABSTRACT Nowadays, most of people around the world own mobile devices or electronic devices, which are becoming to be used with educational purposes. Therefore, ICTs in educative environments have consequently motivated the use of new teaching learning methodologies; one of them is Mobile learning. Mobile devices have emerged as new social, cultural and educational paradigms that can not be omitted at the time of schooling, which tries to be inclusive and devoted to technologies. The mobile telephone, the tablet and laptops not only are intended to be used for social network and internet, but they can also be used from an educational perspective. It doesn´t mean the use of them should be permitted without controlling, but the possibilities they offer should be taken into consideration since there are some school centers where their use has been prohibited , an opposite trend to what it is ever-present . This research is based on the research approach of a study case, it has a qualitative and descriptive feature; the use of mobile devices and mobile applications in the classrooms and in the teaching learning process are assessed. Finally, conclusions derived from this study are presented. KEY WORDS: applications, devices ,teaching –learning process, educational , e-learning 1. INTRODUCCIÓN En los últimos 15-20 años, el uso cotidiano de las tecnologías de la información y la comunicación por parte de niños y jóvenes ha modificado su estilo de vida, de pensamiento y de conocimiento, quedando perfectamente integrados en su día a día. Las grandes transformaciones tecnológicas que vive el mundo moderno globalizado están transformando las relaciones sociales; vincularse a la sociedad del cono- cimiento no será posible sin una educación de calidad en que todos estén incluidos. Al igual que en cualquier otra actividad humana, las TIC tienen un efecto directo y cobran cada vez mayor importancia en el proceso de enseñanza-aprendizaje (Mortis, Valdés, Angulo, García y Cuevas, 2013). La utilización de los teléfonos móviles ha tenido un crecimiento desorbitante a nivel mundial. Actualmente existen más de siete mil millones de suscripciones a teléfonos celulares móviles. De todos estos usuarios un grupo importante poseen un teléfono móvil inteligente (Smartphone), que son dispositivos con capacidades y funcionalidades similares a las de los ordenadores personales, pero con el valor agregado de la movilidad. Estos equipos son usados para actividades propias de la comunicación pero también para el ocio, debido a las funciones multimedia que incorporan (audio, vídeo, fotografía, etc.) y al permitir acceder a los recursos de la Web 2.0 (chat, redes sociales, etc.). Sin embargo también están siendo utilizados con fines educativos dentro de lo que se conoce como aprendizaje móvil (m- Learning) (Hashemi, 2013). El término m-learning (mobile learning) surge entre 1970 y 1980 (Stosic y Bogdanovic, 2013) y (Yot y Marcelo, 2015) lo definen como: aquel aprendizaje que se desarrolla total o parcialmente utilizando dispositivos móviles. Supone la capacidad de aprender en todas partes y en todo momento, sin necesitar una conexión física permanente a las redes mediante Smartphone, portátiles o tabletas. Así el m-Learning ha llegado a las universidades, donde está siendo aplicado en diversas actividades educativas, como aquellas relacionadas con el aprendizaje de idiomas asistido por el móvil o MALL (Mobile assisted language learning) (Burton, 2014). El presente trabajo tuvo como objetivo investigar la dimensión tecnológica de dispositivos móviles presente en el proceso de enseñanza aprendizaje en un grupo de estudiantes de la universidad de Sancti Spíritus (UNISS), y exponer los resultados del estudio con enfoque descriptivo acerca del uso y la disposición que manifiestan estudiantes y docentes de los dispositivos móviles, dando así respuesta a la demanda educativa del siglo XXI (Basantes et al., 2017). 2. DESARROLLO Metodología Tipo de estudio El estudio llevado a cabo es de tipo exploratorio y descriptivo con un enfoque mixto, cuantitativo y cualitativo (León y Montero, 2004; Clares, 2006; Albert, 2007). La perspectiva metodológica utilizada se ubica en el interpretativo que pretende la “comprensión de los fenómenos educativos a través del análisis de las percepciones e interpretaciones de los sujetos que intervienen en la acción educativa” (Colás y Buendía, 1998). Con este diagnóstico (Ver anexo) se pretende llevar a cabo una búsqueda de información que sirva, a su vez, como punto de partida para futuras investigaciones Muestra Los estudiantes y profesores que han participado en el estudio (n=50) pertenecen a la Universidad de Sancti Spíritus (UNISS), siendo seleccionados por muestreo aleatorio estratificado (Colás y Buendía, 1998). La caracterización de la muestra se presenta en función de variables cualitativas y cuantitativas analizadas (Brazuelo, 2013). Instrumentos El instrumento principal utilizado en la investigación ha sido el cuestionario, aplicado de forma presencial. Se ha completado la obtención de datos con entrevistas semiestructuradas a docentes. Para lograr los objetivos de la investigación se realiza durante tres semanas trabajo con un grupo de estudiantes y docentes de la UNISS utilizando dispositivos móviles. Siempre teniendo en cuenta que “El entrenamiento tiene como propósito: complementar, actualizar, perfeccionar habilidades prácticas” (MES, 2004). En la presente investigación se indagó sobre el uso de los dispositivos móviles y aplicaciones dentro del aula de docencia. Durante la primera semana se realizan actividades con los estudiantes realizando pruebas de conexión a internet y funcionalidad de los dispositivos. Se realizan actividades de búsqueda de información, solución de preguntas, recolección de información dentro del aula utilizando los móviles propios y otros dispositivos con las que cuenta la institución educativa. Durante la segunda semana se realiza la aplicación se trabajó con todos los estudiantes utilizando móviles propios y PC, se desarrollaron seis puntos durante la docencia: búsqueda de un video en youtube, captura de imagen, ajustar archivos y convertir en un formato especifico, solución a preguntas problemicas en una plataforma web, utilización de aplicación de office o procesador de texto, escritura y redacción en los dispositivos, solución de formulario virtual con preguntas de selección múltiple cuantitativas y cualitativas abiertas en plataforma web, solución de preguntas reflexivas en diferentes plataformas, de producción de texto y almacenamiento web. Resultados y discusión La descripción y la interpretación de los textos a estudio se ha convertido en el eje principal de la investigación (Bardin, 2002).Una vez aplicada la metodología mencionada anteriormente, se determinó que los estudiantes utilizan dispositivos móviles dentro del aula de docencia, además se descubrió que el 94% de los estudiantes cuenta con un dispositivo móvil propio con el realiza actividades académicas dentro del aula (Figura 1). Figura 1: Cantidad de estudiantes poseedores de dispositivos móviles en el grupo en estudio Solo 14,5% de los estudiantes utiliza su dispositivo móvil con fines académicos; para desarrollar actividades durante las clases, el 36,1% de los estudiantes utilizan su dispositivo con fines personales y el 49,4 % lo utilizan para entretenimiento (Figura 2). Figura 2: Finalidad de uso de los dispositivos móviles en el grupo en estudio Los estudiantes que utilizan los dispositivos móviles con fines académicos usan herramientas como Google, es la aplicación que más utilizan con un 43.3 % para recopilar información para las diferentes áreas del saber; han reemplazado la utilización de la calculadora por la aplicación que encuentran en sus dispositivos móviles, en un 8.1 %; la cámara de los dispositivos móviles les ha permitido general ayudas audiovisuales, para generar información para futuras actividades (Figura 3), mientras que la utilización de Moodle la cual nos da la posibilidad de incluir varias actividades e instrumentos educativos, agregar herramientas de comunicación en tiempo real a través de sistemas de videoconferencia, permitiendo crear aulas virtuales, solo goza de un 10.5 % de utilización. Figura 3: Aplicaciones móviles utilizadas para desarrollar actividades académicas dentro del aula de clase en el grupo en estudio móviles del ministerio para desarrollar actividades académicas dentro del aula de docencia. Y que el 33.7% utilizan o utilizaron dispositivos propios para las actividades académicas (Figura 4). Las tabletas con las que se cuenta en el proceso de enseñanza aprendizaje se encuentran absoletas. El teléfono móvil da paso al Smartphone o teléfono móvil inteligente con sus nuevos sistemas operativos y la posibilidad de instalar aplicaciones de terceros o aplicaciones móviles (apps). Bates (2015) considera que el aprendizaje móvil permite que los estudiantes dediquen tiempo a crear artefactos, pudiendo mostrar su aprendizaje de formas concretas. Estas características junto a su facilidad de uso, portabilidad y ubicuidad, lo han convertido en el primer medio de comunicación universal de la historia (Corbell, 2007; Traxler, 2009; Sharples, 2010), trascendiendo edad, posición social o situación geográfica. Figura 4: Dispositivos móviles utilizados con fines académicos en el grupo en estudio Al realizar la encuesta realizada en base a la aplicabilidad de los dispositivos en las materias impartidas, arrojó que estos en algunas materias son utilizados en un 84.9 %, para todas al 9.1 % y en ninguna 6 % (Figura 5), lo cual demuestra un bajo índice de utilización de la tecnología en el proceso de enseñanza aprendizaje. (Ciudad, 2012) planteó que la preparación de los docentes, principales agentes de cambio, es fundamental para lograr que las tecnologías informáticas se integren, con un fundamento pedagógico, de manera coherente, al sistema de medios del proceso de enseñanza aprendizaje. Además, un buen porcentaje de docentes no termina de confiar en la influencia positiva de teléfonos inteligentes y tabletas en los procesos de enseñanza-aprendizaje, fundamentalmente porque no poseen la suficiente formación (Robledo, 2012). De eso se desglosa que el profesor posea los conocimientos, las habilidades y recursos necesarios para llevar a cabo un proceso de enseñanza en línea de calidad, y no solo brinde atención al cumplimiento de tareas programadas, sino que tenga presente la esfera afectiva emocional del estudiante (Guerrero et al., 2020); si bien es cierto que los alumnos y docentes deben evolucionar hacia una formación mucho más dinámica y colaborativa (Cabero y Barroso, 2016). Por ello, el aprendizaje se convierte en un proceso activo y no en una simple recepción y memorización, donde el profesor adquiere un papel de facilitador del aprendizaje con equidad e inclusión, sin embargo, es el estudiante responsable de su aprendizaje como un ente en la sociedad del conocimiento (Castro y González, 2016). Figura 5: Utilización de los dispositivo móviles en la docencia en el grupo en estudio Las redes sociales causan un gran impacto social como lo son Facebook y Twitter, estas son usadas diariamente por instituciones de diversa índole para mantener informados a sus seguidores. Es por ello que se plantea el uso de la aplicación de mensajería instantánea Telegram para potenciar uno de los elementos clave de estas redes sociales: la comunicación entre el alumnado y el profesorado. Si atendemos a la explicación de (Alonso y Alonso, 2014) sobre las redes sociales, se pueden definir estas como un nuevo espacio que permite comunicarse en tiempo y forma, así como relacionarse y crear comunidades afines. Se encontró que los estudiantes recurren a las redes sociales como una herramienta para generar y compartir información con fines académicos (Figura 5), dentro y fuera de la institución. Figura 6: Redes sociales utilizadas con fines académicos en el grupo en estudio Ellos se valen de los dispositivos móviles tanto propios como institucionales, en ciertos momentos de la docencia, para resolver problemas y facilitar el trabajo en la misma, lo hacen aplicando los conocimientos adquiridos en una educación no formal y reconocen la facilidad que los dispositivos móviles les brindan en el aula de docencia. Las áreas del saber o asignaturas que se potencian desde el uso de los dispositivos móviles son todas, ya que los estudiantes utilizan diferentes aplicaciones para reforzar conocimientos, solucionar dudas, problemas propuestos durante las clases, ejemplo para esto es la utilización de aplicaciones como, Facebook, twitter, instagram, youtube, whatsapp, Moodle, páginas web especializadas en diferentes áreas, traductor de idiomas, blogs de intercambio de conocimientos, google maps, tutoriales, bibliotecas y libros virtuales, libros PDF, apps especializadas en distintas áreas. Si tenemos en cuenta, por tanto, la red social más usada según la mayoría de encuestas, llegamos a la conclusión de que es Facebook, muy por delante de Twitter y a la que seguirían, con mucha distancia, el resto de redes sociales (Fondevilla et al., 2015). Según diferentes autores, los jóvenes conocen la tecnología, pero necesitan que se les guíe, formen y orienten para que estas herramientas se conviertan en un hecho educativo (Pérez, 2018). Los dispositivos móviles muestran fortalezas dentro del aula de docencia, estas constituyen herramienta de investigación, como herramienta de multimedia, como herramienta de creación. Pero también muestran debilidades pues pueden funcionar como distractor de las actividades académicas, altos costos de los dispositivos, obsolescencia programada, fallas en las conexiones en redes eléctricas y señal wi-fi. La tenencia de equipos con gran potencial de procesamiento permite focalizar el aprendizaje sobre el alumno, con dinámicas que se facilitan, simplifican o sólo son posibles con los dispositivos móviles. En adecuación al tipo de carrera, podemos indicar, entre tantas otras formas posibles usos de celulares para impulsar una estrategia educativa, pues facilitan:  Comunicación: a través de correos electrónicos, Whatsapp, telefonía  Complemento: uso de aplicaciones de cálculos, tablas, laboratorios virtuales, noticias  Registro: uso de Word, grabadora, fotografía, filmadora  Exploración: uso de buscadores, Google Forms, encuestador en línea  Colaboración: sincrónica o asincrónica con el resto de los alumnos o con otras personas  Escucha y visualización: de audio y video  Acceso Virtual: a campus virtuales  Interactividad: por medio de aplicaciones  Juegos educativos: a través de estrategias de gamificación  Producción de contenidos y aplicaciones específicas por materia El presente trabajo mostró sugerencias de acciones que permitirán un mayor aprovechamiento de los dispositivos móviles como estrategia didáctica:  Afianzar la política estratégica en el área tecnológica  Promover el mayor uso y capacitar a todos los docentes  Fortalecer el área técnica y de soporte y ayuda a los docentes para implementar la educación virtual y el uso de dispositivos móviles  Elaborar planes estratégicos que aceleren la implementación de celulares en las aulas  Profundizar la estrategia e incrementar las inversiones en el tendido de fibras ópticas y el equipamiento necesario que mejore sustancialmente la conectividad y el acceso a internet en todos los espacios  Crear mayor cantidad de espacios y momentos de encuentro y capacitación donde los docentes reciban los conocimientos pertinentes  Capacitación previa y certificación de competencias digitales en todos los docentes  Implementar un modelo de gestión de la calidad que permita garantizar la definición de una estrategia clara y realizar el seguimiento de la propuesta  Dar continuidad a la investigación para observar la evolución que producirán las acciones de mejora en el área tecnológica  Diseñar dentro de la universidad un área destinada a elaborar estrategias educativas focalizadas en el uso de teléfonos inteligentes, educación virtual y gestión de tecnologías en comunicación 3. AGRADECIMIENTOS Esta investigación se llevó a cabo en un aula del centro universitario municipal del municipio La Sierpe, provincia Sancti Spíritus, institución académica a la que expresamos nuestro agradecimiento. 4. CONCLUSIONES  El estudio exploratorio realizado demostró la falta de conocimientos necesarios de los profesores y de los estudiantes para desarrollar este proceso con calidad  Los estudiantes desconocen la funcionalidad de diferentes aplicaciones con las que cuentan sus dispositivos propios, los cuales son herramientas que pueden mejorar su proceso de enseñanza aprendizaje  Los profesores de diferentes áreas del saber por desconocimiento de la funcionalidad de los dispositivos prefieren no utilizar estas dentro del aula de clase y continuar su actividad docente de manera cotidiana  Los estudiantes utilizan los dispositivos móviles dentro del aula de clase con fines académicos, solucionando actividades y problemas propuestos en el aula, para conseguir la información  Los estudiantes reconocen la facilidad para desarrollar trabajos dentro del aula de clase con los dispositivos, pero se limitan a la hora de utilizar todas las herramientas de los dispositivos Este análisis permitió considerar que el uso de los dispositivos móviles en el proceso e-learning ayudó a mejorar los procesos académicos de los estudiantes y profesores de la UNISS, siempre que son aplicados de manera formal por parte de la institución educativa 6. REFERENCIAS BIBLIOGRÁFICAS 1. ALBERT, M.J. (2007). La investigación educativa. Madrid: McGraw Hill. 2. ALONSO, S., & ALONSO, M. (2014). Las redes sociales en las universidades españolas. VivatAcademia,Nº. 126, pp. 54-62. 3. BASANTES, A. V., NARANJO, M. E., GALLEGOS, M. C., y BENÍTEZ, N. M. (2017). Los Dispositivos Móviles en el Proceso de Aprendizaje de la Facultad de Educación Ciencia y Tecnología de la Universidad Técnica del Norte de Ecuador. Formación Universitaria, 10(2), 79-88. Recuperado de https://doi.org/10.4067/S0718-50062017000200009 4. BATES, A.W. (2015). Teaching in a digital age. Recuperado de https://opentextbc.ca/teachinginadigitalage/ 5. BRAZUELO, F. Y GALLEGO, D. (2011). Mobile Learning: los dispositivos móviles como recurso educativo. Sevilla: MAD. 6. CABERO, J., y BARROSO, J. (2016). The Educational Possibilities of Augmented Reality. Journal of New Approaches in Educational Research. 5(1), 4-50. Recuperado de https://doi.org/0.7821/naer.2016.1.140 7. CASTRO, P., & GONZÁLEZ, I. (2016). Percepción de Estudiantes de Psicología sobre el Uso de Facebook para Desarrollar Pensamiento Crítico. Formación Universitaria, 9(1), 45-56. Recuperado de https://doi.org/10.4067/S0718-50062016000100006 8. CIUDAD, F. (2012). Diseño didáctico de un entorno virtual para la integración academia – industria en la disciplina Ingeniería y Gestión de Software en la Universidad de las Ciencias Informáticas. Tesis doctoral, Universidad de La Habana: La Habana. 9. CLARES, J. (2006). Informática Aplicada a la Investigación Educativa. Sevilla: Digital Atres. 10. COLÁS, M. Y BUENDÍA, L. (1998). Investigación Educativa. Sevilla: Alfar.CORBELL, J. (2007). Are you ready for mobile learning? EDUCAUSE Quarterly, 30(2), 51-58. 11. DÍAZ, V. J. (2013). La evaluación del aprendizaje y las TIC. Universidad Médica de Granma. Cuba. Recuperado de http://www.fcmb.grm.sld.cu/ftp/cursomoodle/ev_TIC/ 12. Fondevilla, J., Mir, P., Crespo, J., Santana, E., Rom, J., y Puiggròs, E. (2015). La introducción de Facebook en el aula universitaria en España: la percepción del estudiante. RELATEC, Vol. 14, Nº. 3, pp. 67-73. 13. GUERRERO, H. I., NOROÑA, L. E., BETANCOURT, A., y BETANCOURT, E. R. (2020). El moderador en línea: Una propuesta pedagógica para la mediación en los procesos de enseñanza- aprendizaje en tiempos de Covid-19. EDUCARE - UPEL-IPB - Segunda Nueva Etapa 2.0, 24(2), 68-96. Recuperado de https://doi.org/10.46498/reduipb.v24i2.1321 14. J. BURSTON. (2014). “Twenty years of MALL project implementation: A meta-analysis of learning outcomes,” ReCALL, vol. 27, pp.4-20. 15. LEÓN, O. Y MONTERO, I. (2004). Métodos de investigación en Psicología y Educación. Madrid: McGraw-Hill. 16. MES. Resolución 166: Reglamento de la Educación de Posgrado de la República de Cuba, 2004. 17. MES: Resolución 132, actualizada. Soporte digital, 2004. 18. M. HASHEMI, M. AZIZINEZHAD, V. NAJAFI, AND A. J. NESARI. (2011). “What is Mobile Learning? Challenges and Capabilities,” Procedia - Soc. Behav. Sci., vol. 30, pp. 2477-2481. 19. PÉREZ, R. (2018). Uso de los dispositivos móviles en educación secundaria: Normativa, beneficios y recomendaciones. Publicaciones Didácticas, (91), 290-551. Recuperado de https://core.ac.uk/download/pdf/235854279.pdf 20. ROBLEDO, J. (2012). Dispositivos móviles para el aprendizaje. Lo que usted necesita saber. Nueva York: Edutopia. George Lucas Educational Foundation. 21. SHARPLES, M. (2010). Exploring Theories and Practices in Mobile Learning. China Educational Technology, 3, 1-7. 22. STOSIC, L. y BOGDANOVIC, M. (2013). M-learning. A new form of learning and education. IJCRSEE. International Journal of Cognitive Research in Science, Enginering and Education, 2 (1). Recuperado de: https://bit.ly/2ISN66q 23. TRAXLER, J. (2009). Learning in the Mobile Age. Recuperado de http://wlv.academia.edu/JohnTraxler/Papers/83099/Learning_in_a_Mobile_Age 24. YOT, C.R. y MARCELO, C. (2015). ¿Despega el m-learning? Análisis de la disposición y hábitos de los usuarios. Pixel-Bit. Revista de Medios y Educación, 46, 205-218. Recuperado de: http://dx.doi.org/10.12795/pixelbit.2015.i46.13 7. ANEXOS Preguntas realizadas en las encuestas: 1. ¿Tiene usted un dispositivo móvil propio? a) Si o No 2. ¿Qué dispositivos móviles utiliza o utilizó usted durante el año lectivo en curso dentro del aula de docencia con fines académicos? a) Académico b) Personal c) Entretenimiento 3. ¿De las siguientes aplicaciones móviles cuales utiliza para desarrollar actividades académicas dentro del aula de clase? a) Google b) Cámara c) Calculadora d) Grabadora de voz e) Moddle 4. ¿Qué dispositivos móviles utiliza o utilizó usted durante el año lectivo en curso dentro del aula de clase con fines académicos? a) Table b) Smartphone c) Computadora d) Laptop 5. ¿Utilizan los profesores los dispositivos móviles y aplicaciones como ayuda dentro del aula de clase? a) En todas las materias b) En alguna materia c) En ninguna materia 6. ¿Cuáles de las siguientes redes sociales utiliza con fines académicos? a) Facebook b) Twitter c) Instagram d) Google e) Whatsapp INTEGRACIÓN INTERDISCIPLINARIA DE LAS TECNOLOGÍAS DIGITALES EN LOS PROCESOS DE APRENDIZAJE PARA LA FORMACIÓN DE INGENIEROS INFORMÁTICOS Jorge Félix Valiente Márquez 1, Ariel Rodríguez Gómez2, Raquel Bermúdez Morris3, Leopoldo Fernando Perera Cumerma 4 1 Instituto de Información Científico y Tecnológica (IDICT), Calle 14 esq. 47 Miramar, Playa y Filial de Ciencias Técnicas de la Universidad Tecnológica de La Habana, Afiliación Calle 114 No. 11901. e/ Ciclovía y Rotonda. Marianao 15. La Habana, Cuba. 2 Centro de Información y Gestión Tecnológica Granma (CIGET), General García #60 e/ Saco y Canducha Figueredo, Bayamo, Granma. Dr.C. Profesor Auxiliar 3, 4 Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE Calle 114 No. 11901. e/ Ciclovía y Rotonda. Marianao. La Habana, Cuba. valiente@idict.cu; ariel120971@gmail.com; rperera@rimed.cu; rbmorris@tesla.cujae.edu.cu RESUMEN El presente trabajo expone el proceso de integración de las tecnologías digitales en la asignatura Matemática III para la formación de ingenieros informáticos no solo desde su dimensión instrumental a partir de la pregunta clásica ¿con qué?, sino fundamentada en una concepción pedagógica que considera las TIC no solo como medio, sino también como contenido de aprendizaje con un enfoque profesional e interdisciplinario del currículo. La experiencia fue desarrollada en la modalidad de cursos por encuentros en una sede de la Universidad Tecnológica de La Habana, concretada en la utilización de la plataforma educativa Moodle como soporte de su sistema de tareas, complementada con el uso de las redes sociales y otras aplicaciones informáticas. Sus fundamentos teóricos están avalados desde la interdisciplinariedad como la cultura digital y la sociología del conocimiento. Los resultados de la investigación cualitativa realizada apuntan, como tendencia, a una mejoría de la calidad del proceso de enseñanza-aprendizaje. Esta es una respuesta concreta a la exigencia de la sociedad contemporánea de transformar las universidades mediante la innovación científica y tecnológica, pero también metodológica y humanista para formar profesionales socialmente activos y responsables, con un pensamiento reflexivo, humanista, flexible, multilateral y dialéctico, cooperativos, y listos para un aprendizaje a lo largo de toda la vida. PALABRAS CLAVES: formación profesional, interdisciplinariedad, cultura digital, sociología del conocimiento, educación científica. ABSTRACT Integration of digital technologies in the Mathematics III subject for the training of computer engineers not only from its instrumental dimension from the classic question "with what?", but based on a pedagogical conception that considers ICT not only as a medium, but also as learning content with a professional and interdisciplinary approach to the curriculum. The experience was developed in the modality of courses by meetings in a headquarters of the Technological University of Havana, materialized in the use of the educational platform Moodle as a support for its task system, complemented with the use of social networks and other applications. informatics. Its theoretical foundations are supported by interdisciplinary such as digital culture and the sociology of knowledge. The results of the qualitative research carried out point, as a trend, to an improvement in the quality of the teaching-learning process. This is a concrete response to the demand of contemporary society to transform universities through scientific and technological innovation, but also methodological and humanistic to train socially active and responsible professionals, with reflective, humanistic, flexible, multilateral and dialectical, cooperative thinking and ready for lifelong learning. KEY WORDS: professional training, interdisciplinary, digital culture, sociology of knowledge, scientific education. 1. INTRODUCCIÓN Actualmente las universidades son parte del debate que tiene lugar acerca del significado que tienen la ciencia, la tecnología y la innovación para el desarrollo sostenible de la sociedad, así como también acerca de sus aspectos éticos y morales en tanto procesos socioculturales que interactúan estrechamente con intereses ideológicos, económicos y políticos [1], [2], [3]. Lograr la innovación tecnológica, científica y metodológica con un enfoque humanista en los centros de educación superior está presente en los objetivos de los últimos foros internacionales, tales como el Congreso Internacional Universidad 2020 y la Agenda 2030, así como en programas y documentos programáticos como “Educación para el Siglo XXI” y Metas Educativas para el 2021 de la Organización de Estados Iberoamericanos para la Educación y la Cultura (Organización de Estados Iberoamericanos para la Educación, 2010) entre otros. En nuestro país se le concede primordial importancia para el cumplimento de los objetivos del proceso de informatización del país y de sus estrategias para la aplicación inmediata en la práctica de los resultados de la ciencia y la tecnología para lograr el desarrollo de la economía y la modernización de la sociedad cubana [3] La universidad del siglo XXI., está relacionada con la noción de sociedad del conocimiento. En su funcionamiento destacan el uso intensivo de tecnologías de la información y la comunicación en un contexto del mundo globalizado. Más aun, la columna vertebral de la nueva universidad es la organización en redes y la gestión del conocimiento. Se trata de una nueva forma de socializar el conocimiento, una innovación en la forma de producirlo, a su vez, los actores son fundamentales en el proceso de intercambio de conocimientos. Las universidades cubanas se encuentran inmersas en los cambios que deben experimentar en sus procesos sustantivos en correspondencia con el importante papel que le concede la sociedad no solo para la formación de profesionales preparados para actuar responsable, adecuada y activamente en la solución de los problemas que enfrentarán bajo las condiciones del contexto altamente complejo y cambiante en el que han de desempeñarse y para un aprendizaje permanente, sino también en la aplicación práctica de los últimos logros de su actividad científica y tecnológica para el avance del proceso de actualización de la sociedad cubana. Esto precisa un cambio en la concepción de la universidad como único centro productor y dueño de un conocimiento inmutable y de las concepciones metodológicas de directivos y profesores vinculadas a un currículo inmutable y fragmentado, además del perfeccionamiento y desarrollo de sus competencias profesionales digitales. “Si la educación actual no se integra en la realidad digital que nos circunda, otros actores ocuparán su lugar.” [4]. La política cubana reconoce la transversalidad de las TIC en la vida social y económica y su carácter estratégico para cualquier proyecto de desarrollo, y como resultado de la voluntad política del gobierno, se desarrollan múltiples programas encaminados a desplegar la informatización de la sociedad. Estos programas están relacionados con el proceso de utilización ordenada y masiva de las TIC no solo para satisfacer las necesidades de información y conocimiento de la sociedad, sino que constituyen una alternativa para adquirir cultura digital, lo cual es inherente a los objetivos del país, en el presente y para los próximos años. Cuba avanza en el desarrollo de estos programas con el apoyo y compromiso directo de todos los sectores económicos y sociales. Existe una voluntad expresa del Estado y gobierno cubano para avanzar en el desarrollo de la informatización. Las TIC y los avances en el mundo digital están dando lugar a profundas transformaciones socioculturales que inciden en las comunidades donde los estudiantes son actores sociales centrales en este proceso de cambio. La información que se produce y circula en Internet, el crecimiento sostenido del número de usuarios conectados y el modo en que todos los participantes se apropian de este universo online describen el escenario actual, e incitan al desarrollo de investigaciones desde diferentes perspectivas. En lo que se refiere a las universidades, como bien expresara José Martí “Al mundo nuevo le corresponde la Universidad nueva”. La universidad nueva y actual tiene la imprescindible misión de poner a los universitarios y universitarias cubanas “al nivel de su tiempo, para que flote sobre él, y no dejarlo debajo de su tiempo, con lo que no podrá salir a flote; es preparar al hombre para la vida”. [5]. Particularmente en esta llamada “Sociedad de la Información y el Conocimiento” reviste particular importancia, dado su objeto de trabajo, la adecuada formación profesional del ingeniero informático y la contribución que al desarrollo integral de sus competencias profesionales han de brindar todas las especialidades y asignaturas involucradas, fundamentada en el enfoque profesional e interdisciplinario de cada uno de sus currículos, vista la educación como un sistema complejo, [6],[7], considerando el cambio de paradigmas educativos para el aprovechamiento de todas las posibilidades que bridan las TIC de acuerdo a las condiciones materiales del contexto al desarrollar modelos pedagógicos y tecnológicos integrales en las que estas, además de instrumentos de mediación pedagógica, constituyen contenido de aprendizaje, acorde con la era digital en la que vivimos. La universidad cubana cada día busca perfeccionar la formación de las actuales y nuevas generaciones debido, entre otras cosas, a los avances de la tecnología, las comunicaciones, la computación, Internet, la cultura de globalización de mercados, las economías globales y la gran difusión del conocimiento multidisciplinario y multirregional. La incesante multiplicación tecnológica y su penetración en todos los intersticios de la vida cotidiana debe ser un punto de constante atención. Por lo que resulta necesario contribuir a la comprensión y explicación de cómo el mundo digital y las tecnologías inciden en los jóvenes que están expuestos a ellas, lo que da motivo a transformaciones socioculturales, fundamentalmente en sus prácticas y consumos. Las investigaciones relacionadas con la cultura digital se han desarrollado en la ciencia pedagógica sobre habilidades o competencias digitales con el uso de las TIC, proceso de enseñanza-aprendizaje de las TIC, plataformas de enseñanza-aprendizaje de la TIC, etc. [8], [9], [10], [11], Sin embargo, no se han identificado investigaciones relacionadas con la problemática cultural de la cultura digital y la incidencia de las TIC en estudiantes universitarios. Los principales retos derivados del programa de expansión de las TIC se encuentran en la utilización de estas con racionalidad y eficacia en función del proceso de enseñanza-aprendizaje y ampliar los servicios en la nube digital como sitios Web, softwares educativos, descargas FTP, de multimedia y otras formas de acceso e interacción con información de calidad dirigida a estudiantes, profesionales y a la comunidad en general. Un ejemplo de ello lo constituye la asignatura Matemática III se imparte en el segundo año de la carrera de Informática. El aprendizaje y dominio de esta es fundamental en la formación de los futuros egresados, por su contribución a otras disciplinas y asignaturas de la especialidad, y por ende al desarrollo de sus competencias, entre otras, para la gestión de la información, el funcionamiento óptimo de los sistemas informáticos [12], la modelación de procesos para la programación de software y la búsqueda de resultados óptimos en inversiones; el diseño de proyectos con costos mínimos y tiempos de ejecución eficientes, para el funcionamiento eficaz y eficiente de instituciones u organizaciones. El adecuado aprovechamiento de las potencialidades de las tecnologías digitales como herramientas de mediación pedagógica y contenido de aprendizaje en Matemática III contribuye al perfeccionamiento de su proceso de enseñanza-aprendizaje (PEA), superando los métodos tradicionales donde el estudiante juega un papel pasivo, al colocarlo como personaje activo en su propia formación, en interacción con sus pares y con los profesores, lo que implica la consecuente modificación de la metodología de enseñanza y de la actuación de los profesores [13], [14]. Reviste particular importancia en los cursos por encuentro al mantener la comunicación e interacción continuas de todos los participantes del proceso entre un encuentro y otro, y la extensión del poco tiempo disponible para la asignatura, lo que favorece la motivación y el aprendizaje cooperado de los estudiantes y la calidad del PEA, a su vez favoreciendo la adquisición de una cultura digital. Al analizar que al colocar el concepto de cultura digital en la enseñanza se están significando los contenidos digitales al mismo nivel que los medios digitales, por muy novedosos que estos sean. Esas nuevas tecnologías, aun cuando es acelerado el desarrollo de nuevos programas y soportes, ocupan un lugar paralelo frente a la necesidad de contenidos de la industria hipermedia. A su vez, la cultura digital no sólo debe apostar por el impacto de la introducción de las tecnologías en la enseñanza y en la transmisión de la cultura, sino por el estudio profundo del desarrollo de nuevos contenidos, en una adecuada calidad vinculada a los nuevos medios y a su diseño. [15]. La Universidad cubana reconoce la necesidad de adaptarse a un entorno abierto de colaboración donde la producción y la divulgación del conocimiento no resulten procesos exclusivos de las instituciones científicas tradicionales. Su participación en la sociedad en red pasa por la necesidad de forjar una identidad digital que se construya en diálogo con todos los actores y participantes en la construcción del conocimiento. Para ello la impostergable necesidad de desarrollar la cultura digital. En esta investigación se defiende la necesidad de que la Universidad se constituya en agente activo a favor del consumo de la cultura digital a partir de la impartición de asignaturas de determinado programa formativo, adoptando un papel proactivo para construir y promover contextos flexibles que permitan el trabajo colaborativo en la intranet y la Internet y una postura de innovación creativa en este sentido. La universidad del siglo XXI, está relacionada con la noción de sociedad del conocimiento. En su funcionamiento destacan el uso intensivo de tecnologías de la información y la comunicación en un contexto del mundo globalizado. Más aun, la columna vertebral de la nueva universidad es la organización en redes y la gestión del conocimiento. Se trata de una nueva forma de socializar el conocimiento, una innovación en la forma de producirlo, a su vez, los actores son fundamentales en el proceso de intercambio de conocimientos. Estas transformaciones no se han dado de la misma manera en todas las universidades cubanas ni en todos los países, pues mientras que en algunos espacios geográficos las Tecnologías de la Información y las Comunicaciones (TIC) constituyen parte del ambiente social y cultural de los sujetos, en otros países estas herramientas son auténticas novedades. Incluso al interior de los países existen profundas diferencias que repercuten no sólo en el tipo de profesionales que se encuentran en formación sino en el desarrollo de la cultura digital. La investigación es motivada por la necesidad de aprovechar las potencialidades que brindan las TIC en el PEA como las referidas aquí, limitadas, sin embargo, a la utilización ocasional de algunas presentaciones electrónicas, por lo general con un carácter reproductivo, y para dar respuesta en la práctica a las transformaciones que deben ocurrir en la formación profesional del país. En consecuencia, se planteó como objeto la integración de las TIC al proceso de enseñanza-aprendizaje de la Matemática III en la modalidad semipresencial de la Carrera de Ingeniería Informática, siendo su objetivo: Integrar las TIC al proceso de enseñanza-aprendizaje de la Matemática III en la modalidad semipresencial de la Carrera de Ingeniería Informática mediante la utilización de la plataforma Moodle, como soporte de su sistema de tareas para contribuir a mejorar la calidad de este proceso. Sus resultados tributan al proyecto de investigación El proceso de enseñanza-aprendizaje de carreras de ciencias técnicas de la Educación Superior en ambientes con alta presencia de las tecnologías de la información y la comunicación [ 1 6 ] . En este proyecto se concibe el proceso de enseñanza-aprendizaje mediado por las TIC en carreras de perfil técnico como: la cooperación entre educadores y estudiantes en la cual se dirige la apropiación de los contenidos de la profesión, a partir de la integración de las TIC y las exigencias a los componentes didácticos, con el fin de crear y aplicar conocimientos y tecnologías, en función del desarrollo profesional integral de los estudiantes, en el contexto de la relación universidad-entidad laboral-comunidad. [16}. Acerca del proceso de integración curricular de las TIC se consultaron diversos autores, con hincapié en los relacionados con la formación en ciencias técnicas [17], [14], asumiendo la definición de Cabrera (2008): Proceso planificado, contextualizado, sistémico, continuo y reflexivo, orientado a la transformación de la práctica pedagógica tomando en cuenta las posibilidades de las TIC con la finalidad de incorporarlas armónicamente al PEA para satisfacer los objetivos educativos (P. 17). Para analizar la contribución del conocimiento al desarrollo profesional desde la universidad son necesarias las ideas que sobre este asunto ha aportado la Sociología del Conocimiento. Los aportes teóricos de esta disciplina pueden ser referentes de esos estudios que se realizan, como afirma Talcott Parsons (1902; 1979) en ―…un área de problemas extraordinariamente complejos. [18]. Scheler (2000) en su obra “Sociología del Saber”, referencia a Berger y Luckmann [20] quienes analizan la manera de cómo el conocimiento es ordenado por la sociedad, donde se produce como un a priori de la experiencia individual, proporcionando a esta última su significado y ordenamiento que, si bien es relativo con respecto a una situación histórico-social particular, asume para el individuo la apariencia de una manera natural de contemplar el mundo. Scheler cree que “…es indudable el carácter sociológico de todo saber, de todas las formas de pensar, intuir y conocer; que están condicionadas siempre, y con necesidad también sociológicamente, de la estructura de la sociedad" [21]. Posteriormente, en su objeto de estudio la sociología del conocimiento ha tratado de vincularse mucho más con el espacio de la vida cotidiana, específicamente con la diversidad de los conocimientos que en ella se producen y circulan. No escapa esta abarcadora teoría a lo concerniente desde los comportamientos humanos en el mundo socialmente virtual creado en las últimas décadas. Es en ese sentido, los autores del presente estudio recuerdan, que estas nuevas modalidades de interacción social, aumentan su potencialidad para analizar, desde las prácticas culturales de los estudiantes, los aspectos relacionados con la producción de los conocimientos y su gestión como proceso social en su relación con el desarrollo de las habilidades cognitivas a partir del aporte de las universidades y otras instituciones. También se coincide con Suárez y otros [22], en que: reducir el impacto de la tecnología digital en la educación a la pregunta sobre el con qué educar no es suficiente para entender y encarar el reto educativo de la tecnología, que no es lo mismo que el reto tecnológico en la educación. (P.8). Es que integrar la tecnología a la educación requiere una mirada pedagógica crítica y holística que genere una serie de preguntas, partiendo de una adecuada concepción de la tecnología íntimamente relacionada con la ciencia como procesos culturales con toda la complejidad que esto implica [2] y no desde aquella que reduce la tecnología a simples dispositivos. Tales preguntas conducen a incorporar la tecnología al PEA desde un enfoque interdisciplinar y profesional en el que el principio de interdisciplinariedad dirige el proceso de formación que capacita al futuro profesional para realizar transferencias de contenido con vistas a resolver dialéctica e integralmente los problemas inherentes a su desempeño profesional [6]. Asumir esta concepción, exigida hoy por el actual desarrollo de la sociedad, explica por qué las tecnologías digitales constituyen ejes integradores en el proceso formativo [6], [7]. La integración se concretó en la utilización de la plataforma educativa Moodle, tomando como referencia los fundamentos teóricos y metodológicos, las experiencias y buenas prácticas para su utilización en las condiciones de nuestro país, principalmente para la formación de pre y posgrado en la Universidad Tecnológica de La Habana (CUJAE) [24], [7], [25]. La plataforma educativa Moodle es el soporte del sistema de tareas de la asignatura y sus actividades propician no solamente la adquisición del conocimiento matemático concebido y organizado en función de las necesidades del futuro graduado, sino que favorecen también el desarrollo de sus competencias profesionales, tales como la competencia informacional y la digital [12], [26], [6], [7]. El sistema de tareas se estructuró de manera secuencial y ordenada en tres momentos por los que transitan los estudiantes, según la metodología de la asignatura: modelación de las soluciones a los problemas profesionales, solución de las ecuaciones y aplicación de estas a la solución de problemas profesionales. Durante su desarrollo se utilizaron otras herramientas digitales como exe-Learning y Hot Potatoes, MathLab y la telefonía móvil. Las habituales dificultades en la conectividad existentes fueron suplidas con la utilización de los chats de Telegram y los SMS Mediante esta aplicación en determinados momentos se adjuntaron y enviaron por el profesor breves videos, tablas e infografías para la aclaración de determinadas dudas solicitadas por los propios estudiantes. Se confirma, de acuerdo con las referencias anteriores, que el uso correcto de la información es una condición necesaria para el éxito de la gestión del conocimiento en el campo educacional, más aún en la utilización de las disímiles plataformas digitales que existen en la actualidad. Ella ofrece caminos disímiles y complejos, pero aportativos a la dinámica del conocimiento y su gestión. Desde ellas se puede comprobar que el conocimiento representa en sí la esencia de la profesionalidad probada de una persona, de sus prácticas culturales, o de un equipo de individuos, es lo que viabiliza su trabajo transformador y el desempeño pertinente en un medio determinado y posibilita trasmitir, repetir o reproducir experiencias y enseñar sucesivamente a otros grupos humanos, transfiriendo saberes útiles a través de generaciones. Materiales y métodos En esta investigación se utilizaron los métodos del nivel teórico y empírico, a partir de un enfoque dialéctico- materialista que permite el estudio de su objeto. Como métodos de nivel teórico se utilizaron el analítico- sintético, el inductivo-deductivo el histórico-lógico el sistémico-estructural-funcional y la modelación. Como métodos del nivel empírico, se emplearon la observación al proceso de enseñanza- aprendizaje de la asignatura Matemática III de la carrera Ingeniería Informática durante tres cursos académicos, el análisis de documentos (perfil del graduado y el programa de la asignatura para la correspondiente derivación de los objetivos, planes de clases de los docentes y actas de las actividades metodológicas del colectivo pedagógico), la encuesta a estudiantes, profesores y directivos y el criterio de especialistas de los centros de educación superior y de la asignatura de Matemática III . Para el procesamiento de la información se utilizan métodos de la estadística descriptiva: la distribución de frecuencias absolutas para procesar los datos obtenidos con la aplicación de los métodos empíricos. Las tablas y gráficos para representar y explicar la relación entre los resultados del diagnóstico inicial y final y del pre-experimento. Se utiliza, además, el procedimiento de la triangulación con el fin de recoger y analizar datos desde distintos métodos y fuentes para compararlos y contrastarlos entre sí. Se emplean las pruebas no paramétricas, la prueba de Wilcoxon, aplicables a los diseños del tipo ''antes- después'' en los que cada elemento actúa como su propio control, para conocer la significación de los cambios en la integración de las TIC al proceso de enseñanza-aprendizaje de la Matemática III, a partir de la implementación del sistema de tareas en la Plataforma Moodle. A través de procedimientos estadísticos se comprueba, además, la validez de la propuesta didáctica. Se utilizaron las computadoras de la sede universitaria de 10 de Octubre, donde se ubicó inicialmente la versión 3.2 de Moodle en el portable elaborado por el CENED de la UCI, copiada por los estudiantes y actualizada constantemente mediante las copias de seguridad. Esto se combinó con el uso de la v.3.6 online de la CUJAE, confrontándose dificultades ocasionales con la conectividad. Esta situación fue resuelta con el uso de las aplicaciones Telegram, el correo electrónico o llamadas a través de la telefonía móvil. Se operacionalizó la variable en sus dimensiones e indicadores, se elaboraron y aplicaron los instrumentos a una población de 30 estudiantes del segundo año de la carrera Ingeniería Informática de la Filial 10 de octubre de la CUJAE, a los seis profesores de Matemática III y a los tres directivos del Centro de Estudios de Matemática, de la Cujae . Resultados y discusión La triangulación de los métodos y de las fuentes mostró los siguientes resultados en el estado inicial: - En la dimensión 1: articulación de los sistemas informáticos a las situaciones de aprendizaje, dos indicadores se consideran bajos (continuo y reflexivo) y dos medios (sistémico y contextualizado). Sin embargo, en todos los métodos y fuentes se obtiene el rango medio, con excepción de los directivos que lo valoran bajo y; en el caso de los indicadores continuo y reflexivo se consideran bajos también por los estudiantes. Por otra parte, los indicadores sistémico y contextualizado son evaluados de alto por los estudiantes, a diferencia del resto de las fuentes de información. Es por ello que se determina ubicar esta dimensión en un nivel medio, con mejores potencialidades de alcanzar el estado deseado, a partir de su transformación. - La dimensión 2: articulación de los sistemas informáticos a la cooperación educadores estudiantes y estudiante-estudiante se ubica en el nivel bajo, ya que los indicadores realización armónica de las tareas y responsabilidad compartida mediante las herramientas, recursos informáticos y de telecomunicación se consideran bajos y solo la colaboración en la toma de decisiones mediante el acceso a estas herramientas y recursos alcanza el valor medio. - La dimensión 3: articulación de los sistemas informáticos a la dirección de la apropiación de los contenidos de la profesión, arroja un nivel medio, ya que dos indicadores: mediación en las acciones de aprendizaje mediante las herramientas, recursos informáticos y de telecomunicación; y coordinación de los procesos grupales mediante estas herramientas y recursos, se ubican en el nivel medio y un indicador: planificación conjunta de la interrelación de las herramientas, recursos informáticos y de telecomunicación con las tareas, alcanza un valor bajo. Es interesante contrastar los criterios de los estudiantes y de los directivos, por cuanto los primeros valoran alto los indicadores mediación y coordinación, mientras los segundos los valoran bajo. Los resultados obtenidos muestran como tendencia una mejoría en la calidad del proceso-aprendizaje. Los resultados de las evaluaciones parciales y de la final acusaron una discreta elevación respecto al promedio histórico, tanto numéricamente como en calidad. El nivel de integración de las TIC en el PEA de la asignatura -se partió de cero- evidenció resultados positivos, siendo un aspecto importante el criterio de los estudiantes acerca de su influencia en el aprendizaje y el papel activo que en este mantuvieron, para el trabajo en equipos y para el conocimiento de las potencialidades de las tecnologías más allá de su experiencia, limitada por lo regular al aspecto instrumental que induce a concebirlas como simples dispositivos utilitarios. Otro resultado positivo fue su impacto en el colectivo de profesores de la asignatura que debieron superarse para conocer la plataforma, sus posibilidades y utilización. Ante la situación debida a la pandemia que ha obligado a utilizar la plataforma para la educación a distancia, esta experiencia ha servido como modelo y generalizada para la concepción, diseño, implementación, desarrollo y evaluación de las asignaturas de Matemática para todos los cursos de la Universidad Tecnológica de La Habana. La triangulación de los métodos y de las fuentes mostró los siguientes resultados en el estado final después de la propuesta: Un análisis de los resultados de la constatación realizada antes y después de la aplicación de la propuesta permite comprender los cambios ocurridos y sus implicaciones. La dimensión 1: Articulación de los sistemas informáticos, automáticos y telemáticos a las situaciones de aprendizaje al proceso de apropiación de los contenidos de la profesión, se mantiene en el mismo nivel; sin embargo, dos indicadores que alcanzaron inicialmente un nivel bajo, después de la propuesta logran transitar al nivel medio, lo que evidencia que hay cambios favorables en la planificación consciente e intencionada de la integración de las actividades y recursos de la plataforma Moodle a las tareas de aprendizaje de la Matemática III, así como en la sistematicidad de esa integración, aunque no se haya alcanzado aún el estado deseado. No obstante, es necesario continuar perfeccionando la interdependencia entre las herramientas y recursos informáticos, automáticos y telemáticos con los objetivos, contenidos, métodos, medios, formas de organización y evaluación de la asignatura, así como su plena correspondencia con las necesidades de los estudiantes, ya que en estos indicadores no se ha podido alcanzar el nivel deseado. La dimensión 2: Articulación de los sistemas informáticos, automáticos y telemáticos a la cooperación educadores – estudiantes, transita de un nivel bajo al nivel medio, lo que refleja avances en esta dimensión. Dos indicadores que inicialmente se encontraban en el nivel bajo se mueven favorablemente hacia el nivel medio, lo que refleja avances en relación con la realización armónica de las tareas mediante la integración de las TIC y una responsabilidad más compartida entre estudiantes y profesores con los resultados y las consecuencias del uso de las TIC. Se requiere continuar trabajando en la colaboración en la toma de decisiones conjuntas entre estudiantes y profesores mediante la integración de los sistemas informáticos, automáticos y telemáticos, ya que este indicador no logró cambios y se mantuvo en el mismo nivel inicial. La dimensión 3: Articulación de los sistemas informáticos, automáticos y telemáticos al proceso de apropiación de los contenidos de la profesión alcanza el nivel alto, ya que todos sus indicadores transitan hacia el estado deseado. Es notable el salto logrado, del nivel bajo al alto, en la planificación conjunta de la interrelación de las herramientas y recursos informáticos, automáticos y telemáticos con las tareas, como expresión del aprendizaje autogestionado y ubicuo, mediante las aplicaciones e infraestructura tecnológica existente. También se reflejan avances en las ayudas brindadas y en la coordinación de los procesos grupales en la plataforma Moodle y en los grupos de WhatsApp, Telegram y Facebook. Una muestra de cómo los estudiantes fueron involucrándose en el proceso de su propio aprendizaje es que sugirieron al profesor algunas de estas alternativas y cómo complementar el uso de la plataforma. Por ejemplo, uno de ellos en el chat de Telegram propuso que el profesor explicara mediante un breve video una determinada duda en la resolución de un problema y se los enviara. Otros estuvieron de acuerdo. Así ocurrió. En definitiva, sin saberlo propusieron utilizar el método conocido como Khan Academy. A partir de ese instante fue otro medio utilizado en varias ocasiones. Las transformaciones logradas en el PEA de la Matemática III a partir de la integración de las TIC mediante la plataforma Moodle, han tenido una repercusión favorable en los resultados académicos. Los resultados del aprendizaje de los estudiantes fueron superiores a los alcanzados históricamente en esta asignatura. Un análisis de los elementos del sistema y de sus relaciones permite comprender su esencia: El elemento rector del sistema es el objetivo. Para Valle (2012) por objetivo se entenderán los fines o propósitos que debe alcanzar el sistema. El objetivo de este sistema es la integrar las TIC al proceso de enseñanza-aprendizaje de la Matemática III en la modalidad semipresencial de la carrera Ingeniería Informática. Según Valle (2012) las funciones se comprenden como aquellas características esenciales que debe cumplir el sistema para lograr los objetivos propuestos En los términos del sistema que se presenta, para lograr el objetivo se necesita cumplir la función general del sistema de tareas de la Matemática III que es lograr resultados superiores en el aprendizaje de los estudiantes en la modalidad semipresencial de la carrera Ingeniería Informática. Un tercer elemento del sistema se refiere a sus componentes. Valle (2012) define los componentes como las partes o subsistemas que integran el sistema. Los componentes del sistema de tareas del PEA de la Matemática III que se propone en esta tesis triangulación son los siguientes:  Tarea 1. Modelación de la situación del problema con un enfoque profesional e interdisciplinar mediante la integración de las TIC  Tarea 2. Solución de las ecuaciones con un enfoque profesional e interdisciplinar mediante la integración de las TIC  Tarea 3. Aplicación a problemas profesionales con un enfoque profesional e interdisciplinar mediante la integración de las TIC Estas tareas permiten cumplir la función general y ellas dependen unas de las otras, manteniendo una secuencia en la que se requiere seguir un orden: primero se modela la situación del problema, seguidamente se solucionan las ecuaciones y finalmente, se aplican a los problemas profesionales; en todos los casos mediante la integración de: En la plataforma Moodle se integran los recursos y actividades al sistema de tareas que debe resolver el estudiante por cada tema de estudio de la Matemática III, según los requerimientos didácticos y de los entornos virtuales de formación. Moodle es una plataforma de aprendizaje diseñada para proporcionar a educadores, administradores y estudiantes un sistema integrado único, robusto y seguro para crear ambientes de aprendizaje personalizados. Con la Moodle es posible, gestionar usuarios, accesos y roles, diseñar la estructura didáctica, las acciones formativas, gestionar recursos y actividades de formación, controlar y hacer seguimiento a los procesos de aprendizaje y de gestión de los alumnos, evaluarlos y generar informes de retroalimentación. Esta plataforma educativa es un entorno virtual de enseñanza-aprendizaje (EVEA) y es una de las más utilizadas en el planeta. Y surge como un proyecto de software libre y una concepción pedagógica que apuesta por el aprendizaje colaborativo y constructivista [27]. Como advierte este autor, su uso no implica tácitamente desarrollar experiencias de aprendizaje desarrollador, en tanto que esta es una herramienta con la que puede hacerse un uso tradicional, como repositorio para transmitir información. Es en estos momentos de pandemia el uso que desdichadamente se le está dando, desaprovechando sus potencialidades con muchas opciones para desarrollar procesos comunicativos y experienciales de aprendizaje. [27] Desde el enfoque sociocultural, considera que el diseño de un EVEA tiene como norte el aprovechamiento exclusivo como plataforma, en sentido tecnológico, y ambiente social, en sentido educativo, de todas sus herramientas, servicios, artificios didácticos, posibilidades de interacción y demás elementos en la construcción de una circunstancia viable y eficaz para el aprendizaje que pedagógicamente creemos puede ser cooperativo. Esta idea está presente en los fundamentos de los modelos pedagógicos para las plataformas educativas basados en las ideas de Vigotsky y sirvió para guiar la acción en el diseño, desarrollo y evaluación de las actividades de Moodle y la utilización no solo de sus recursos, de acuerdo a las posibilidades existentes, sino también, en el empleo conjunto de Telegram y WhatsApp. Se ha visto cómo los estudiantes han aprendido fuera de la Moodle, ellos han utilizado alternativas comunicativas usando WhatsApp, Telegram, e-mail, teléfonos y los documentos situados en la nube, en la misma están también los encuentros con guías tareas y el contenido implementado en la Moodle. Sirvieron de guía y modelos los documentos metodológicos de la maestría referidos a los indicadores de calidad para el diseño y desarrollo de la plataforma (Perera, 2013) y las exigencias metodológicas para el diseño, desarrollo y evaluación de sus cursos También fue importante la información recibida como maestrante en todos los cursos de la maestría y la experiencia como estudiante en el uso de Moodle. La actividad con la plataforma Moodle en la Matemática III empieza con la introducción del curso donde se explica la importancia que tiene para su formación, se despliega en los distintos subtemas, explicando didácticamente como se concretan sus contenidos. Se incluyen carpetas de videos, conferencias, ejercicios a realizar y a entregar para su evaluación posterior, indicaciones para los trabajos de control y exámenes finales, materiales de apoyo, así como bibliografía básica y complementaria, lo cual se controla, en la semana siguiente a su orientación., Los estudiantes participan además en un chat, donde plantean sus dudas y se les da respuesta, en los grupos Facebook, WhatsApp y Telegram Estas tareas se desarrollan en los diferentes temas de la asignatura apoyadas con el uso de la plataforma Moodle, figura 1 y de los dispositivos móviles, entre otros recursos. Se puede emplear exitosamente el eXeLearnig , que contiene preguntas de selección múltiple y de verdaderos o falsos ,el recurso Hotpotato es en formato SCORM para la solución de crucigramas que relacionen conceptos fundamentales, el foro de discusión, al resolver ecuaciones diferenciales ordinarias, para determinar mediante la participación colectiva, cuál variante se utiliza, también se hace uso del MathLab, en la soluciones de problemas de la Matemática III, como son soluciones de ecuaciones diferenciales ordinarias, entre otras, en las cuales se puede programar en los temas de Series numéricas, con resultados muy exitosos. Figura 1: Un ejemplo de pantalla de curso en Moodle Estas tareas mantienen relaciones entre sí, cada una depende de la anterior: para lograr la aplicación a problemas profesionales mediante la integración de las TIC, se requiere haber solucionado las ecuaciones y para solucionar estas, es necesario haber modelado la situación del problema, mediante la integración de las TIC. De igual modo, los componentes se subordinan al objetivo y a las funciones. Las tareas están concebidas para cumplir la función general, en función de alcanzar el objetivo y su adecuada planificación, organización, ejecución y evaluación garantizan el cumplimiento de la función y del objetivo. Un ejemplo de cómo se utiliza Moodle en un tema de Matemática III se presenta a continuación: El tema II Ecuaciones diferenciales ordinarias de primer orden, orden superior y en derivadas parciales, tiene como objetivo modelar procesos y transformaciones de la realidad, en la misma se debe tener encuentra tres aspectos básicos, interpretar el problema, modelarlo y solucionar o resolver dicha ecuación que coincide con un problema de la vida practica o cotidiana, es decir, en el modelo del profesional el estudiante debe programar estos resultados procedentes de esas ecuaciones y entenderlos, para de esta forma hacer o crear un Software. Él va a resolver un problema o situación de la vida cotidiana o el origen de una nueva tecnología acorde con el desarrollo de la ciencia o de la tecnología, de ahí su carácter multidisciplinario. El tema consta de ocho encuentros presenciales. Se utiliza la plataforma Moodle con el diseño didáctico de la asignatura, con una guía donde el estudiante, a través de los foros y wiki, realizan las actividades que se proponen de un encuentro a otro En la actividad presencial, hay un primer momento, donde se preguntan las dudas del encuentro anterior, de las actividades orientadas en la Moodle, un segundo momento, donde se resuelven problemas correspondientes a la actividad orientada y un tercer momento en el que se orienta la próxima actividad, también elaborada en la Moodle, y un foro para plantear sus dudas acerca de las tareas de Matemática III o del uso de los recursos tecnológicos mencionados. La utilización de la plataforma Moodle se estructura a partir del diseño y estrategia didáctica de la asignatura y de los objetivos específicos para este tema para sus ocho encuentros. En el primer encuentro presencial se trata lo relacionado con el encuentro anterior y se analiza también lo referido a las actividades en la plataforma, cómo ha sido su uso, las dificultades presentadas, así como su evaluación y se recoge la opinión de los estudiantes. Nótese en la figura cómo se han utilizado los recursos y actividades de la plataforma, siguiendo las pautas de calidad para el diseño didáctico de los módulos y las exigencias metodológicas a seguir [7]. La plataforma no se ha utilizado como mero repositorio de materiales a estudiar y orientar para el estudio del contenido mediante las guías. Aquí se aprecia también una infografía con el mapa conceptual del tema, la disponibilidad de videos y dos etiquetas con las funciones de informar y motivar. Se implementa una actividad lúdica con el uso de otra aplicación digital. Por otra parte, se incluyen las actividades de tarea y un foro de discusión donde los estudiantes aplican lo estudiado, que se evalúa y complementa en el encuentro presencial. Lo importante no es describir lo que puede apreciarse en la figura, sino insistir en que, como se sabe, cada recurso y actividad va acompañado de los objetivos y orientaciones particulares para guiar y acompañar al estudiante sistemáticamente. Además, puede notarse que se utiliza también el recurso Consulta y se incluye un seminario para cuyo desarrollo es preciso utilizar Telegram o WhatsApp, soslayando los problemas de conectividad confrontados. Finalmente, para que se tenga una mejor idea de la aplicación en la práctica de la interdisciplinariedad, se describe sucintamente el desarrollo del sistema de tareas con la concepción interdisciplinar-profesional en el tema Ecuaciones Diferenciales. Al presentar el tema se discute su importancia para la Informática. Los estudiantes, cuando resuelven la primera tarea del tema, profundizan en este aspecto y se informan también sobre cuál es su relación con la informática. Se presentan y discuten los componentes de los circuitos electrónicos que conforman una computadora sobre la base de los conocimientos que de estas tienen los estudiantes acerca de los temas de Matemática III. En estas se indica una de las tareas más simples del sistema de actividades, en la que el estudiante debe establecer la relación de cualquiera de los conocimientos del tema con la Informática. Esta información debe acompañarse de la ficha bibliográfica. Se plantea como problema sencillo cómo se escribe la ecuación diferencial de segundo orden de los circuitos RC, RL, LC y RLC que se encuentran en sus computadoras Y explicar cómo modelan los procesos que en ellos se producen. Cómo, por otra parte, podrían, a partir de la forma en que se presentan, las posibilidades de programar su funcionamiento ante determinada condición y objetivos. Se les puede sugerir en caso de tener para esta respuesta dificultades, que acudan a los profesores de esta asignatura de la especialidad o pedir ayuda a alguno de sus condiscípulos que, por motivos de su labor posean estos conocimientos, por ejemplo: Ecuaciones diferenciales y modelación matemática La teoría de las ecuaciones diferenciales ordinarias (EDO) y Series Numéricas desde su inicio, ha sido y continúa siendo un campo importante de investigación teórica y de aplicaciones prácticas; constituye una rama extensa y muy importante de las matemáticas modernas y es una poderosa herramienta para la investigación de muchos fenómenos naturales, lo que determina su fuerte relación con la modelación matemática. El primer problema central de dicha teoría se refiere al origen de las EDO y Series. El proceso de modelación matemática de un proceso físico, químico, u otro, de la naturaleza o de la sociedad como los que aparecen en los propios textos de problemas de la asignatura, con este tipo de ecuaciones, puede describirse de una manera más particularizada mediante las siguientes etapas que plantea: También en las tareas del sistema los estudiantes pueden apreciar la utilización de la informática en la educación, más allá de la visión que puedan tener reducida quizás a su área de trabajo y al aspecto instrumental, al utilizar aplicaciones al utilizar el Software DERIVE y el MathLab en cualquiera de sus versiones para resolver problemas de las matemáticas y programar sus propios softwares para un uso específico dentro de la informática. Al discutir otras aplicaciones de las ecuaciones diferenciales en función de los intereses profesionales de los ingenieros informáticos en formación se plantea la solución de un problema con el uso de la ecuación diferencial, 𝑑𝑖𝑣𝜑 = − 𝑬 que está relacionada con muchos procesos concretos de la práctica social y la naturaleza, como son: explicación del transporte transmembrana y del flujo sanguíneo; el gradiente de concentración para explicar el flujo de sustancias en un sistema o del viento bajo determinadas condiciones atmosféricas; la explicación del funcionamiento de determinados sistemas automatizados, informáticos o no. De esta forma la ecuación aparece en el caso particular de las ecuaciones de Maxwell del electromagnetismo clásico que explican las relaciones entre los campos eléctrico y magnético y constituyen fundamento del funcionamiento de los dispositivos informáticos, instrumentos de trabajo del ingeniero informático y pueden también ser objeto de trabajo cuando laboran en centros médicos, industria química, metalúrgica, centros meteorológicos, entre otros. Actividades como estas, instrumentadas en la plataforma contrarrestan la antes falta de tiempo para su abordaje entre un encuentro y otro, motivan a los estudiantes a conocer más el alcance e importancia de su profesión y por tanto tienden a elevar la motivación profesional hacia el estudio de la asignatura [6]. Queda eliminada la clásica pregunta: ¿Profesor, para qué me sirven esas ecuaciones? Ahora la respuesta la investigan y responden ellos mismos. Las investigaciones evidencian que los resultados finales, con la evaluación de la apreciación de estudiantes al final de curso y la percepción docente, muestran como tendencia altos niveles de satisfacción respecto al uso de modelos en ejemplos concretos, lo cual solventa el problema planteado inicialmente por el estudiantado sobre el desconocimiento de aplicaciones concretas de los contenidos del curso a situaciones de la vida real o profesional a la que se enfrentan una vez graduados. Las formas de implementación son otro elemento del sistema. Valle (2012) refiere que las formas de implementación constituyen un aspecto importante de este sistema. Ellas incluyen la preparación del personal involucrado en la aplicación del sistema y la coordinación con los directivos y decisores de la planificación y organización de las acciones del lugar en el que se aplicará. Para implementar la propuesta se requiere preparar a los profesores de Matemática en el sistema de tareas de la Matemática III mediante la integración de las TIC al proceso de enseñanza-aprendizaje. Se propone incorporar en el Plan de trabajo metodológico del Dpto. de Matemática el objetivo metodológico referido a la integración de las TIC en el sistema de tareas de la Matemática III y planificar y ejecutar un sistema de actividades metodológicas para contribuirá la activa participación de los profesores en el proceso de su preparación en la integración de las TIC al sistema de tareas del proceso de enseñanza- aprendizaje de la Matemática III. Estas actividades pueden ser: reuniones docente metodológicas, clases metodológicas, clases abiertas, clases de comprobación y talleres docente metodológicos, lo que implica establecer las coordinaciones pertinentes con los directivos y profesores, para lograr la implementación del sistema. La evaluación del Sistema de tareas de Matemática lll mediante la integración de las TIC al proceso de enseñanza- aprendizaje en la carrera de Ingeniería Informática puede realizarse mediante la evaluación de todos sus componentes y de su funcionamiento como totalidad. En esta investigación se evaluó mediante la valoración de los cambios en la integración de las TIC al proceso de enseñanza-aprendizaje de la Matemática III, a partir de la aplicación del sistema de tareas en la población estudiada; y de los resultados del aprendizaje de los estudia Comparación de los resultados iniciales y finales Se realizó un pre-experimento, en el que se constató la variable integración de las TIC al PEA de la Matemática III antes y después de integrar las actividades y recursos de la plataforma Moodle al Sistema de tareas, obteniéndose los resultados pretest y postest. Para determinar la significación de las diferencias se aplicaron la Prueba de Wilcoxon, ya que se tienen dos muestras relacionadas y los datos se encuentran en escala ordinal. Se plantean las siguientes hipótesis de trabajo: A variable antes y B variables después. H0: Ma=Mb Hipótesis Nula: no existen diferencias significativas en la integración de las TIC al PEA de la Matemática III antes y después de integrar las actividades y recursos de la plataforma Moodle al Sistema de tareas profesional e interdisciplinario. H1: Ma≠Mb Hipótesis Alternativa: existen diferencias significativas en la integración de las TIC al PEA de la Matemática III antes y después de integrar las actividades y recursos de la plataforma Moodle al Sistema de tareas profesional e interdisciplinario. Al aplicar la Prueba de Wilcoxon se obtiene que el valor 0.025< 0,05 que es el nivel de significación, por tanto, se rechaza la Hipótesis Nula y se acepta la alternativa. se acepta la hipótesis alternativa; es decir, ambas pruebas arrojan que existen diferencias significativas en la integración de las TIC al PEA de la Matemática III antes y después de la intervención. 3. CONCLUSIONES La elevación de los resultados del aprendizaje de los estudiantes en la asignatura Matemática III constituye una necesidad imperiosa de la carrera Ingeniería Informática de la CUJAE, ya que se han obtenido históricamente muy bajos resultados en esta asignatura. Por otra parte, la informatización de la sociedad cubana plantea elevadas exigencias a los profesores de los futuros ingenieros informáticos para integrar adecuadamente las TIC al PEA de sus asignaturas. Las indagaciones teóricas realizadas y la constatación empírica efectuada en la filial universitaria de Diez de Octubre de la CUJAE reflejan dificultades en los resultados del aprendizaje de los estudiantes y en la integración de las TIC a las tareas de Matemática III, que deben ser resueltas. En el pensamiento sociológico clásico fue un motivo de reflexión constante hasta el surgimiento de la Sociología del Conocimiento y su análisis epistemológico, empeñada en demostrar el condicionamiento social del origen de las ideas, el efecto de las más dominantes sobre las sociedades y el tipo de relación del conocimiento con la sociedad. Términos refrendados, también, en los conceptos de cultura digital, a partir de postulados en el que se complementan las prácticas culturales como eslabón de enlace entre éstas y la capacidad de responder con éxito a las exigencias personales y sociales que nos plantea una actividad o una tarea cualquiera en el contexto del ejercicio profesional. Para contribuir a la solución de estas dificultades, se propone un sistema de tareas de Matemática III que tiene como objetivo alcanzar resultados superiores en el aprendizaje de los estudiantes mediante la adecuada integración de las TIC al PEA desde una concepción profesional e interdisciplinaria. Este sistema, sustentado en la plataforma educativa, Moodle estructura las tareas de manera secuencial y ordenada en tres momentos por los que transitan los estudiantes: modelación de las soluciones a los problemas profesionales, solución de la ecuación es y aplicación de las ecuaciones a las soluciones de los problemas profesionales. Estas cumplen un cierto orden preferencial acorde a su función para la asimilación y pueden ser diversas según el tema y las condiciones existentes en el contexto en que se apliquen. Las diversas actividades y recursos de la plataforma Moodle se integran al diseño didáctico de las tareas para propiciar la interacción y las ayudas entre los encuentros presenciales, con el apoyo de la creación y funcionamiento de los grupos de WhatsApp, Telegram y Facebook La realización del pre-experimento en la filial universitaria de Diez de Octubre de la CUJAE arrojó diferencias significativas entre el estado inicial y final de la integración de las TIC al proceso de enseñanza-aprendizaje de la Matemática III y resultados superiores en el aprendizaje, lo que permite aceptar la hipótesis alternativa, mostrando la pertinencia y efectividad de la propuesta. El sistema de actividades que se propone es flexible y dinámico, por lo que tiene posibilidades de ser aplicado en otras asignaturas de la disciplina Matemática e incluso dentro de otras modalidades y carreras de ingeniería con el uso de la Plataforma Moodle. Es una respuesta concreta en la práctica a la necesidad de las transformaciones de las universidades, de acuerdo a las exigencias de la cambiante y compleja realidad actual y del desarrollo sostenible de la sociedad, que precisan la formación de profesionales con formas de pensar y de actuar interdisciplinarios, donde se aprovechen las potencialidades de la integración curricular de las TIC 4. REFERENCIAS BIBLIOGRÁFICAS 1. Díaz-Canel, Miguel (2017). Perfeccionamiento de la informatización de la sociedad en cuba, Miguel Díaz-Canel, diputado por villa clara. Paper presented at the Cibersociedad 2017 13 de Julio 2017. 2. Núñez- Jover, Jorge Núñez, Ortiz, Hilarión Rodobaldo, Proenza , Díaz, Hilarión Rodobaldo , Diéguez, Rodobaldo Ortiz , Díaz, Tamara Proenza , & Rivas, Aramis. (2020). Políticas de educación superior, ciencia, tecnología e innovación y desarrollo territorial: Nuevas experiencias, nuevos enfoques. Revista Iberoamericana de Ciencia, Tecnología y Sociedad - CTS, Vol 15, No 43 3. Díaz- Canel, Bermúdez (2021). 8vo congreso del pcc "el partido debe ser la fuerza que revoluciona a la revolución". La Habana, Cuba 4. García Aretio, Lorenzo. (2019). Necesidad de una educación digital en un mundo digital. 2019, 22(2), 14 %J RIED. Revista Iberoamericana de Educación a Distancia. doi:10.5944/ried.22.2.23911 5. Martí Pérez, José. (1963). La escuela de electricidad, en Obras completas, t.8. La Habana: Nacional de Cuba. p. 281. 6. Perera, Leopoldo Fernando. (2000). La formación interdisciplinaria de los profesores de ciencias. Un ejemplo en el proceso de enseñanza-aprendizaje de la física. (Doctor en Ciencia Pedagógicas), Ciudad de La Habana. 7. Perera, Leopoldo Fernando. (2018). Enseñanza-aprendizaje de las ciencias: ¿interdisciplinaridad o integración? Paper presented at the TIC y Sociedad. 8. Ávila Font, E. (2003). Las Nuevas Tecnologías de la Información y la Comunicación como herramientas necesarias en la formación profesional de los estudiantes universitarios. 9. González Olmedo, G.; González Herrera, N. (2016). Modos de socialidad en Facebook. Prácticas de estudiantes de la Universidad de Ciencias Informáticas. Alternativas cubanas en Psicología 4(12): 77-87. Recuperado de http://acupsi.org/numero/22/vol-4-nm-12-2016.html. 10. Pérez López, Y. (2010). Llevemos la intranet hacia la comunicación. Caso Universidad de Oriente. Cuba. "Cultura digital y vida cotidiana en Iberoamérica: Una revisión crítica más allá de la comunicación. RAZÓN Y PALABRA 73. Recuperado de www.razonypalabra.org.mx. 11. Avello Martínez, R.; López Fernández, R.; Cañedo Iglesias, M.., et al. (2013). Evolución de la alfabetización digital: nuevos conceptos y nuevas Alfabetizaciones: Evolution of Digital Literacy: New Concepts and New Literacies. Medisur 11 (4): 450-457. Recuperado de http://medisur.sld.cu/index.php/medisur. 12. Sandó-Lopetey, Juan Miguel, Benítez Lavastida, Aivys, & Rodríguez Domínguez, María del Carmen, J Educación y Sociedad. (2017). Competencias informacionales en la formación de ingenieros informáticos en cuba. Apuntes para una concepción teórico-metodológica. 105-119. 13. Álvarez, Ariane., & Perera, Leopoldo Fernando. (2014). Invariantes metodológicas para el diseño, d. desarrollo y evaluación de los cursos de la maestría en la plataforma moodle. Crea- Cujae. La Habana. Formato digital. 14. Cabrera, Juan Francisco (2008). Modelos de centro virtual de recurso para contribuir a la integración de las TIC en el proceso de enseñanza aprendizaje en el Instituto Superior Politécnico “José Antonio Echevarría. (Doctor en Ciencias de la Educación), Instituto Superior Politécnico "José Antoni Echeverría" CUJAE, Ciudad de La Habana. 15. Castañón Ortega, B. M. (2012). Los avances tecnológicos y la cultura digital . Recuperado de 2015 de http://www.gestiopolis.com/los-avances-tecnologicos-cultura-digital/ Cuba busca bases estratégicas para la informatización de la sociedad. (2015). Recuperado de http://www.escambray.cu/2015/cuba-busca-bases-estrategicas-para-la-informatizacion-de-l- sociedad/ 16. Bermúdez, Raquel, Pérez, Lorenzo Miguel, Arzuaga, Misleidy, & Armas, Camilo Boris. (2020). Concepción del proceso de enseñanza-aprendizaje mediado por las TIC en carreras de perfil técnico. Paper presented at the Universidad 2020, V Simposio Internacional Didáctica de las Ciencias Básicas, la Ingeniería y la Arquitectura. 17. Álvarez, Ariane. (2014). Estrategía Pedogógica.Tecnológica para la integración de las tecnologías de la información y las comunicaciones en el proceso de enseñanza-aprendizaje desde la producción de materiales educativos digitales en el instituto politécnico "José Antonio Echeverría". (Doctor en Ciencias de la Educación), Instituto Superior Politécnico "José Antoni Echeverría" CUJAE, La Habana. 18. Parsons, T. (1959). An aproche to the Sociology of knowledge. In Transación of the Fourth World Congress of Sociology Lovaina: ISA Lovaina. (Vol. IV, pp. 25-59). 19. Avello Martínez, R.; López Fernández, R.; Álvarez Acosta, H. (2014). La alfabetización digital: un reto para las Escuelas Cubanas de Hotelería y Turismo. 9No Congreso Internacional de Educación Superior Universidad 2014. V Taller Internacional “La Virtualización en la Educación Superior”. Evento de los OACE y las Escuelas Ramales. 20. Berger, P. L. y Luckmann, T. (1995). La construcción social de la realidad. Amorrortu Editores. Buenos Aires. Argentina. Recuperado de: http://www.visionvox.com.br/biblioteca/l/LaConstruccionSocialdelaRealidad- Peter 21. Scheler, M. (Ed.). (2000). Sociología del saber. Recuperado de: http://www.elaleph.com 22. Suárez, Cristóbal, Rivera, Cristóbal, & Rebour, Martín. (2020). Preguntas educativas para la tecnología digital como respuesta. Edutec. Revista Electrónica de Tecnología Educativa, 10.21556/edutec.2020.73.1733(73). doi:10.21556/edutec.2020.73.1733 23. Suárez, Cristóbal. (2008). Virtualidad y educación. Bases teóricas y empíricas del aprendizaje cooperativo en internet. Revista Electrónica Teoría de la Educación y Cultura en la Sociedad de la Información, Vol. 9. Nº3. Retrieved from http://www.usal.es/teoriaeducacion 24. Álvarez, Ariane. (2016). Las TIC en la educación universitaria. Presentación electrónica. Curso las herramientas tecnológicas en el PEA. CREA. La Habana. Maestría Las tecnologías en los procesos educativos. 25. Monsibáez, Y. G. (2017). Estrategia metodológica para la integración del trabajo del colectivo de año soportado en un entorno virtual. (Master Maestría Las Tecnologías en los procesos educativos), Universidad Tecnológica de La Habana, CUJAE, La Habana 26. Perera, Leopoldo Francisco. (2013). Indicadores de calidad para la Plataforma Moodle. 27. Área, M. (2008). La plataforma moodle domina el elearning. 28. Molina-Mora, José Arturo. (2017). Experiencia de modelación matemática como estrategia didáctica para la enseñanza de tópicos de cálculo. Uniciencia, Universidad Nacional, Costa Rica, vol. 31, núm. 2. doi:http://dx.doi.org/10.15359/ru.31-2.2 ~ 1 ~ METODOLOGÍA INTEGRADORA DE LAS TIC AL PROCESO DE ENSEÑANZA – APRENDIZAJE DEL JUDO EN LA CUJAE / INTEGRATIVE Maikel Barrera Balbuena1, Narmí Pedroso Jiménez2 1 y 2 Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE, Calle 114 # 11901 / Ciclovía y Rotonda, Marianao, La Habana, Cuba 1mbalbuena@tesla.cujae.edu.cu 2narmi@tele.cujae.edu.cu RESUMEN En el presente trabajo se expresa el resultado de un largo proceso de investigación sobre bases teórico- conceptuales y metodológicas a través del uso de las tecnologías de la información y las comunicaciones en el proceso de enseñanza –aprendizaje (PEA) aplicadas a la disciplina judo enmarcada en la Educación Física de la enseñanza superior. El objetivo del trabajo es Diseñar una metodología integradora que utilice las tecnologías de información y comunicaciones (TIC) en el proceso de Enseñanza- aprendizaje, del Judo en los estudiantes de la CUJAE. Se emplearon varios métodos de investigación de carácter prácticos aplicados con un enfoque dialéctico–materialista, para valorar el estado actual insuficiente de la utilización de las TIC en el ámbito deportivo en la CUJAE. Además, se diseña un espacio llamado Portal Educativo Judo Cujae que permitirá un mejor aprendizaje desarrollador tanto a docentes como a estudiantes que practiquen esta disciplina deportiva en el centro. PALABRAS CLAVES: Metodología integradora, TIC, Proceso Enseñanza-Aprendizaje del Judo. METODOLOGY THAT ICT IN THE TEACHIN-LEARNING PROCESS OF JUDO IN CUJAE STUDENTS ABSTRACT The present work expresses the result of a long research process on theoretical-conceptual and methodological bases through the use of information and communication technologies in the teaching- learning process (PEA) applied to the judo discipline framed in Physical Education in higher education. The objective of the work is to design an integrative methodology that uses information and communication technologies (ICT) in the teaching-learning process of Judo in Cujae students. Several practical research methods applied with a dialectical-materialistic approach were used to assess the current insufficient state of the use of ICT in the sports field in Cujae. In addition, a space called Judo Cujae Educational Portal is designed, which will allow a better developmental learning for both teachers and students who practice this sport discipline in the center. KEY WORDS: Integrative methodology, ICT, Judo Teaching-Learning Process. 2. INTRODUCCIÓN El desarrollo de la tecnología solamente es posible gracias al perfeccionamiento de la ciencia. No es posible separar el estudio de la tecnología del estudio de la ciencia. La tecnología está en todos los segmentos de la sociedad moderna y en el deporte no podría ser diferente. Por tanto, la globalización, ~ 2 ~ inherente al propio desarrollo científico-técnico atañe a las actividades físicas y el deporte en su aspecto positivo (la globalización del desarrollo) y el negativo (desarrollo desigual, en virtud de la hegemónica unipolaridad capitalista actual del mundo). Es por eso que progresivamente las raíces históricas de cada país, el legado cultural de los reconocidos profesionales que establecieron las bases del área y la gran influencia de las tradicionales escuelas de gimnasia, de deportes, o de Educación Física(EF), son reemplazadas por un discurso educativo mundial que involucra la informatización de los procesos, sobre todo de los educativos. Según Jover, en los tiempos actuales la Revolución Científico Técnica, abarca todas las esferas de la vida social, nada está excluido de las influencias de las tecnologías. (Jover Nuñez, 2000) La Educación Física, debe de aprovechar las Tecnologías de la Información y la Comunicaciones (TIC) para lograr ambientes enriquecidos de aprendizaje y hacer más atractiva su enseñanza. Para ello, dichas herramientas deben favorecer el cambio metodológico que coloque nuevamente a los alumnos como protagonistas en la gestión de su conocimiento en el centro de atención y le devuelva el rol protagonista que le ha sido usurpado por prácticas pedagógicas arcaicas (fundamentadas en la rigidez de los contenidos, el monólogo docente o el injustificado protagonismo del libro de texto). (Pannessi, 2011,pp.145-149) Por otra parte, la Educación Física con ser una materia práctica no debe obviar en ningún momento que tiene una fundamentación teórica y en este sentido las nuevas tecnologías pueden ser un excelente recurso de apoyo, sirviendo estas para la observación de detalles técnicos en los movimientos realizados en clases. Hay coincidencia con Sáenz-López, en que “La Educación Física se aprende practicando(…)nada sustituye a la práctica, pero es necesaria la justificación del movimiento, que nuestro alumnado conozca la fundamentación de lo que hace” (Saenz-Lopez, 1997). Refuerza esta idea Claudio Ariel, cuando menciona que el uso de las TIC en la formación de los docentes en general, y de la educación física en particular, debe garantizar la satisfacción de las nuevas necesidades sociales y educativas de esta sociedad del conocimiento. Es importante la utilización de las TIC para: -crear contextos de aprendizaje, al momento y lugar en el que se desarrolle, y al grupo de estudiantes.(Clarenc, 2013) La relevancia de las Tecnologías de la Información y la Comunicaciones (TIC) en nuestra sociedad y de su influencia cultural, surge la necesidad de aproximar las nuevas tecnologías al sistema educativo y particularmente a las clases de Educación Física (Crisol & Alba, 2015, pp. 403-431). Si bien la aplicación de las nuevas tecnologías en los centros escolares sigue sin tener una adecuada implantación dentro del sistema educativo y más concretamente en el área de Educación Física. En cualquier caso, la aplicación de las nuevas tecnologías en los centros escolares sigue sin tener una correcta implantación dentro del sistema educativo y más concretamente en el área de Educación Física. En la mayoría de los casos los recursos TIC utilizados por los docentes no aportan nada novedoso al área y son sustitutos del libro de texto, agenda y enciclopedias. (C. Fernández & Ladrón, 2015,pp.17-30) El uso de la TIC crea avance en el conocimiento de los contenidos sobre Educación Física. Tanto profesorado como alumnado tienen una actitud positiva hacia el empleo de Internet en Educación Física, y vemos que en general existe la posibilidad de utilizar este recurso en sus casas y en las aulas de Informática de los centros. El reto consiste en aumentar, mejorar y hacer más atractivos los contenidos para el alumnado, aprovechando las ventajas que ofrecen las nuevas tecnologías.(Blanco, 2015) Igualmente, en algunas experiencias se destaca el empleo de blogs como recurso didáctico de apoyo a la materia de Educación Física y el gran valor pedagógico que los estudiantes dan a estas herramientas digitales como recurso didáctico innovador que resulta útil como fuente de información y aprendizaje, al mismo tiempo que permite un tratamiento más entretenido y ameno de los contenidos. (Úbeda & Molina, 2016,pp.37-45) ~ 3 ~ A partir de estas encontradas opiniones de autores de una misma tendencia pedagógica, que además responde a la optimización del PEA de la Educación Física es importante tomar en cuenta el equilibrio en la integración de las TIC al PEA de la Educación Física, según el contexto, contenido, propósito y medios disponibles en cada universidad. La integración de las TIC viabiliza el uso de métodos activos de aprendizaje que conducen a la vinculación de saberes por la aplicación de una Didáctica Desarrolladora que genera la integración de conocimientos, habilidades y valores en el desempeño de los futuros profesionales en su proceso de formación en los Centros de Enseñanza Superior (CES). En estos, muchas veces los cursos se ven sesgados o interrumpidos por dificultades con la sistematicidad y mantenimiento de la tecnología. Sin embargo, a nivel global, al margen de las posibles particularidades en este sentido, que puedan existir en diferentes países la tendencia es la integración de las TIC al proceso enseñanza-aprendizaje de la educación superior, donde gracias a las TIC actualmente se agrega otras modalidades de estudio, consideradas básicas al igual que la presencial (tradicional), diferentes por el modo de asumir la relación estudiante-profesor; a saber, la “presencial” y “a distancia”. El impacto de las TIC en el PEA no excluye la modalidad presencial. Álvarez Álvarez y su grupo de investigación del Centro de Referencia para la Educación Avanzada (CREA) en la Cujae, consideran que las TIC deben abordarse en el proceso de enseñanza-aprendizaje con un enfoque de integración, donde se valoren armónicamente aspectos tecnológicos y pedagógicos, a tono con las políticas educativas del contexto concreto en que se integran. (A. Álvarez y Col 2013, pp.5- 14).Como se muestra en la Tabla 1. Tabla 1. ASPECTOS MÁS RELEVANTES QUE DISTINGUEN LOS NIVELES DE INTEGRACIÓN TIC POR LOS PROFESORES EN EL PEA. ENTRADA ADOPCIÓN ADAPTACIÓN APROPIACIÓN INVENCIÓN -Adquirir habilidades básicas en TIC. -Se gana cultura en las potencialidades de las TIC. -Baja frecuencia de uso. -Dominio de herramientas TIC. elementales. -Inicio del uso de las TIC en la asignatura como complemento y apoyo a la clase tradicional. -Producción de materiales. -Se definen funcionespedagógicas y didácticas de las TIC en la práctica docente. -Experimentan nuevos Métodos. -Aumenta frecuencia de uso. -Rediseño de medios de enseñanza. -Solución de problemas con herramientas más complejas. -Alto trabajo colaborativo. -Explotación del entorno virtual -Transformación del PEA. -Generación de conocimiento. -Creación de nuevas herramientas para cumplir objetivos educativos. -Diseño didáctico innovador. -Sentida necesidad en el uso Sistemático. Fuente: Tomado de A. Álvarez y col, 2013, basada en el proyecto ACOT (Apple Classroom of Tomorrow). El Judo, es un deporte educativo con un amplio componente socializador. Su práctica, desde las más tempranas edades, supone un excelente medio de educación física que subraya los valores del respeto por el compañero, el autocontrol, el juego, la disciplina, el esfuerzo y la superación constante basada en el progreso de uno mismo definidos en un entorno humano y un código de comportamiento; fomenta la autoestima que produce el desafío físico, la aceptación del resultado de la confrontación (rechazo de la trampa o ganar a cualquier precio), el desarrollo de la capacidad de análisis y de adaptación, hacen que el ~ 4 ~ Judo contribuya de una forma destacada a la construcción de la personalidad individual y social del alumno; contribuye de manera muy sólida al aprendizaje de los principios elementales de la ciudadanía, desarrollo de la motricidad, mejora del control y rendimiento motor, mejora de los mecanismos perceptivo-cognitivos y sensomotores.(Gómez-Ferrer & Rodrígez, 2011) Lo antes expuesto, motivó, al autor de este trabajo a realizar un diagnóstico de la utilización de las TIC en el proceso de enseñanza del Judo en la Cujae. Una vez concluido el mismo, y analizado los resultados alcanzados, que demostraron la poca utilización de las TIC en dicho proceso de enseñanza, lo conllevo a la necesidad de crear una metodología integradora que permitiera hacer de forma organizada y didáctica, el uso de los medios que brindan la nueva tecnología en las clases de judo, la cual le proponemos en este trabajo. Objetivo: Diseñar una metodología integradora que utilice las tecnologías de información y comunicaciones (TIC) en el proceso de Enseñanza- aprendizaje, del Judo en los estudiantes de la Cujae 2. DESARROLLO Introducción a la Metodología para la integración de las TIC al PEA de la disciplina Judo Dentro de las diferentes definiciones de metodología es importante para representar la que se propone, aquellas que algunos autores consideran que debe ser definida “(…) como un enfoque, doctrina o parte de la Filosofía que sobre la base del conocimiento de la realidad, establece las normas o guías para la transformación de esta, expresadas por medio de los principios generales del conocimiento y el sistema categorial de la ciencia”. Kaprivin, 1981; García Galló, 1980, citados por (Bermúdez Sarguera & Rodríguez Rodríguez, 1996) Estructura y funcionalidad de la Metodología integradora. La metodología se estructura por procedimientos con carácter de sistema que van conduciendo la lógica de la transformación de la realidad. La actualización teórica y metodológica que le proporciona el diagnóstico desarrollador que se realiza al inicio sirve de base a la asimilación de los pasos subsiguientes que le ofrece carácter de proceso y posibilidad de retroalimentación. Por eso el primer paso se asocia a la superación profesional que se inicia con el proceso diagnóstico de necesidades teórico-metodológicas de los directivos y docentes y concluye con el estado de integración de las TIC al PEA del Judo. Al conjunto de pasos que dan cuerpo a la metodología y permiten su descripción como sistema, es decir, los procedimientos, se separan por el autor de las funciones que de ellos se derivan para una mejor comprensión. Estructura procedimental de la metodología de integración de las TIC al proceso enseñanza- aprendizaje de la disciplina Judo. • Diagnóstico de la integración de las TIC a la enseñanza del Judo. • Determinación de necesidades de materiales actualizados atendiendo a los objetivos y contenidos del programa de la disciplina Judo. • Clasificación de materiales por temáticas o encuentros. • Elaboración de guías y selección de recursos para el trabajo independiente de los estudiantes con una adecuada Base Orientadora de la Actividad (BOA). • Precisión en la planificación sistemática del curso de la vinculación evaluación - empleo de las TIC, en aquellos encuentros donde las últimas se comportan como medio. ~ 5 ~ • Planificación de la actividad final de socialización de los resultados del aprendizaje y del curso. Función de la metodología aplicada a una clase tipo Los medios del proceso de enseñanza-aprendizaje, son un componente del proceso que establece una relación de coordinación muy directa con los métodos, en tanto que el “cómo” y el “con qué” –preguntas a la que responden enseñar y aprender, son casi inseparables. El “cómo”, responde al método a emplear y el “con qué” a los medios de enseñanza. C. M. Álvarez de Zayas plantea que el medio de enseñanza como el componente operacional del proceso docente-educativo que manifiesta el modo de expresarse el método a través de distintos tipos de objetos materiales, es el vehículo mediante el cual se manifiesta el método, o sea, que es el portador material del método. (C. M. Álvarez de Zayas, 1999) La clase de Educación Física está estructurada en tres partes: Inicial; Principal y Final, o lo que es igual, introducción, desarrollo y conclusiones, las cuales están estrechamente relacionadas y determinadas por el objetivo y el contenido a desarrollar. Cada clase tiene un transcurso diferente y debe organizarse siguiendo puntos de vista específicos desde lo metodológico, lo didáctico y lo educativo, para evitar el aburrimiento y la falta de interés. La clase de educación física constituye el acto pedagógico a través del cual se concretan la instrucción y la educación, así como las estrategias docentes educativas dentro del diseño curricular. El empleo de la metodología integradora que se propone garantiza la posibilidad de construir este sistema de medios de la disciplina Judo, ya que sus procedimientos dan lugar a la preservación de una serie de recursos tecnológicos y de otro tipo que poseen carácter de sistema por el dictado del contenido que soportan a la luz de la lógica del curso. Especialmente el procedimiento No.1 y 4 Los materiales y recursos didácticos facilitan las condiciones necesarias para que el alumno pueda llevar a cabo las actividades programadas con el máximo provecho. Los materiales contribuyen a concretar y orientar la acción docente en la transmisión de los conocimientos o aprendizajes. Los recursos y materiales didácticos son todo el conjunto de elementos, útiles o estrategias que el profesor utiliza, o puede utilizar como soporte, complemento o ayuda en su tarea docente. En los tiempos actuales, el uso de las TIC, cuando es pedagógicamente adecuada su vinculación a la docencia, para contribuir al desarrollo de la enseñanza-aprendizaje es considerado recurso que proporciona materiales. La presencia en la red de materiales docentes, que respondan a los conocimientos teóricos para la salud y la auto ejecución del ejercicio físico, resultan imprescindibles para facilitar la consulta de los estudiantes. Tomando en cuenta lo anterior se afirma que una clase representa, por sus características didácticas, metodológicas y educativas, una unidad compleja de análisis del programa que, por tanto, porta en sí las propiedades de todo el programa. Por ello se emplea por el autor una clase tipo del programa para aplicar la metodología y analizar sus resultados. Acciones en la aplicación de la Metodología Integradora a una Clase del programa de la Disciplina Judo. • Procedimiento No. 1. Diagnóstico de nivel de entrada del grupo. • Procedimiento No. 2. Determinación de necesidades de materiales actualizados atendiendo a los objetivos y contenido del programa de la disciplina Judo. Se relaciona objetivo y contenido de la clase, los medios necesarios y de actualidad. Para ello se requiere buscar en las siguientes fuentes: • Recursos particulares del programa obtenidos mediante el empleo de métodos activos de enseñanza que dan lugar a videos, donde se aprecian detalles técnicos de la técnica a aprehender en la clase. ~ 6 ~ • Materiales recolectados por especialistas, aficionados y estudiantes. • Búsqueda en Internet de recursos audiovisuales, PDF, etc. • Procedimiento No. 3. Clasificación de materiales por temáticas o encuentros. Se clasifica en Tecnológicos (audiovisuales, tutoriales, PDF, JPG, Word, Ppt, redes, otros) y material impreso (Libros, manuales, revistas, imágenes impresas, gráficos, infografías). • Procedimiento No. 4. Elaboración de guías y selección de recursos para el trabajo independiente de los estudiantes con una adecuada Base Orientadora de la Actividad (BOA). Diseño de guía de estudio, de ejercitación y de observación orientada al uso de las TIC en el aprendizaje del Judo como disciplina deportiva en la Educación Física en la formación integral de ingenieros y arquitectos. • Procedimiento No. 5. Precisión en la planificación sistemática del curso de la vinculación evaluación y empleo de las TIC, en aquellos encuentros donde las últimas se comporta como medio. En la clase se analizan los momentos en que se emplean las TIC y el tipo de evaluación a que contribuyen: La observación de videos permitió la evaluación sistemática; la toma de videos con dispositivos móviles posibilita el logro del segundo objetivo y la cualificación del aprendizaje de la técnica cuando al trabajar en equipo ocurre la co-evaluación y a un tiempo la autoevaluación, toda vez que las parejas observadas y analizadas valoran los señalamientos que reciben. Finalmente, el profesor realiza su propia evaluación docente tomando en cuenta la calidad del ejercicio que cada estudiante y parejas realizan, así como la calidad de sus observaciones y del empleo de la tecnología para su aprendizaje y ampliación del marco de referencia en general ya que continua el uso de las TIC en la actividad independiente que orienta en la parte final de la clase. • Procedimiento No. 6. Planificación de la actividad final de socialización de los resultados del aprendizaje y del curso. Se contempla el uso de zapya y bluethooth, así como de otras aplicaciones para socializar los videos captados en el proceso de análisis y valoraciones de los detalles técnicos durante la realización del ejercicio. También se comparan las apreciaciones percibidas de forma analógica y las percibidas con apoyo de recursos tecnológicos, a fin de valorar el aporte de las TIC en la observación de los detalles técnicos. Resultados La clase seleccionada es del tipo teórico-práctica, que ocupa el encuentro N0.9 en el Programa de la disciplina, tiene como asunto El Koshi–guruma con Uke (rodar por la cadera). Tiene como antecedente la clase 8 que trata los elementos básicos de la técnica Koshi–guruma con Uke. El resto de sus características didácticas se aprecia Tabla 2. Tabla 2. Caso tipo de aplicación de la Metodología Integradora de las TIC a una clase de Educación Física: Docente: Maikel Barrera Balbuena Deporte: Judo Tipo de clases: Teórico- Práctica Clase: No 9 Horario: 8:00am Fecha: Título de la clase: El Koshi-guruma (rodar por la cadera) ~ 7 ~ Objetivos: • Ejercitar la técnica de cadera del Judo, Koshi-guruma con Uke para desarrollo de condiciones físicas (fuerza, equilibrio, coordinación y flexibilidad) • Observar los detalles técnicos del Koshi-guruma con Uke, a través de videos en trabajo por equipos. Parte Actividades Dosificación Indicaciones metodológicas T R Forma organizativas Métodos Medios Inicial • Formación del grupo • Presentación de la clase • Pase de lista • Debate político- ideológico • Recordatorio de la clase anterior. • Orientar el objetivo. • Calentamiento general y específico. • Influencia combinada de movimiento articular y estiramientos. 10´ 8R (Fila) Frontal (hilera) Frontal Teórico-práctico o Explicativo – Demostrativo. Computadoras, Móviles, laptop, cámaras fotográficas, entre otros. Principal • Ejecución del Koshi- guruma. • Observación de detalles técnicos para la corrección de errores. • Juegos pre- deportivos y deportivos. • Elementos básicos como: Agarres, postura, desplazamient os, movimientos de cadera, entre otros. 35´ 2T- 10R 3T- 12R En grupo y en parejas. Dispersos En parejas (Frontal) Reproductivo (Repeticiones) Computadoras, Móviles, laptop, cámaras fotográficas, entre otros. ~ 8 ~ • Evaluación sistemática • Utilización del Sistema para la Auto Ejercitación Personalizada del Ejercicio Físico (SAPEF) como tarea. Final • Co-evaluación observación la ejercitación de otro equipo. • Evaluación final de la clase calidad del ejercicio real autoevaluació n. • Ejercicios de Recuperación. • Análisis de la clase. • Orientación de la tarea a evaluar: Consultar sitio educativo JudoCujae. • Despedida. 5´ 2R (Dispersos) Frontal (Fila) Frontal Explicativo Demostrativo Verbal Computadoras, Móviles, laptop, cámaras fotográficas, entre otros. (Figura 1) “Portal Docencia JudoCujae”. ~ 9 ~ Discusión  Con la orientación previa del profesor, los estudiantes tuvieron acceso a videos específicos sobre los detalles técnicos del Koshi-guruma y las reglas que lo caracterizan, así como a fotos, juegos, infografías y bibliografías básicas y complementarias referidas a esta técnica señalada en la (Figura 1) antes presentada. Se diseñó el “Portal Docencia JudoCujae”.  Se orientó el uso de la guía del trabajo independiente, ubicada en el sitio portal docencia JudoCujae como parte de la base orientadora adecuada (BOA) de la actividad docente que permitió.  Mayor precisión en la identificación del detalle errático y también del adecuado.  La comprobación de la efectividad del empleo de las nuevas tecnologías, mediante la ejercitación posterior de los estudiantes, lo que facilitó la evaluación individual y colectiva durante la clase.  Como parte de la evaluación, los estudiantes emitieron criterios favorables al empleo de las TIC como medio de enseñanza en la clase de Judo. Se demostró en esta clase, como en las anteriores, la efectividad de las TIC, para el mejoramiento del Proceso Enseñanza-Aprendizaje en la asignatura Educación Física. La Metodología integradora que se propone también es validada mediante criterio de expertos cuyos resultados se exponen a continuación. Resultados de la aplicación del criterio de expertos En esta sección se analizarán e interpretarán los resultados mostrados, comparándolos con los obtenidos por otros autores publicados, indicando si los propios superan aquellos, lo igualan, se diferencian o tienen aspectos de coincidencia. Se hará referencia a las limitaciones y aportes de la investigación, así como a l significación práctica o teórica de sus principales resultados. ~ 10 ~ Para iniciar el proceso de criterio de expertos se aplica una encuesta a un grupo de expertos (Para seleccionar 21) a fin de evaluar coeficiente de inteligencia de quiénes participan. (Grafico1). Los resultados del procesamiento de la encuesta demuestran que las competencias de los expertos fluctúan de medio a alto (Gráfico1) lo que hace que se acepten sus valoraciones sobre la Metodología Integradora. -A los expertos seleccionados se les presenta un grupo de aspectos a valorar que se consideran atributos de la Metodología (Grafico 2) estos sintéticamente expresados se relacionan a continuación: 1. Naturaleza integradora de la Metodología al PEA y su carácter sistémico y continuo, contextualizado y reflexivo, así como su contribución a la formación integral de los estudiantes. 2. Aprobación de los indicadores seleccionados de la Metodología y su derivación de la operacionalización de las dimensiones de los niveles de integración de las TIC al PEA de A. Álvarez y Col (2013). 3. Carácter fino y desarrollador del diagnóstico aplicado. 4. Introducción en la práctica de la definición de integración de las TIC al PEA que ofrece Cabrera Ramos (2008). 5. Carácter orientador de la Metodología en el proceso de investigación para los docentes. 6. Carácter de sistema de la Metodología. 7. Equidad, asequibilidad y acceso de la Metodología a los docentes. 8. Funcionalidad para la creación de medios. 9. Sustentación de la Metodología en beneficio del componente medio del proceso didáctico. El procesamiento de esta encuesta mediante el método Delphy demuestra en el gráfico 2 que los expertos participantes evalúan la Metodología en los rangos de muy adecuado a Adecuado, lo que demuestra su validación teórica. 3. CONCLUSIONES • La necesidad de utilizar de forma sistemática el uso de las TIC en las clases de Judo que se imparten a los estudiantes de la CUJAE utilizando una metodología integradora. • El estado actual de la integración de las TIC al PEA del Judo en la Cujae marca niveles bajos que fueron discretamente superados mediante el diagnóstico de la Metodología y el proceso de investigación en general. • La Metodología Integradora de las TIC a la disciplina Judo como medio didáctico de su PEA es de actualidad indudable para la formación integral del estudiante en la Cujae, al ser la informatización y el dominio de la computación palabra de orden en el contexto de globalización y desarrollo profesional y humano para estudiantes y docentes. RECONOCIMIENTO A la Cujae, en especial al DEDER, por exigirme esta meta; a los profesores del CREA por su denuedo en el desarrollo intelectual de sus estudiantes de posgrado. Un especial agradecimiento a la Dra.C. Maritza González Moreno, mi tutora, por su ayuda y constante apoyo, pero sobre todo por confiar en mí en momentos difíciles y enseñarme que la verdadera libertad se obtiene con la cultura, estudiar es la mejor forma de transformar la realidad para el desarrollo y mejoramiento humano personal. A todas aquellas personas que de una forma u otra hicieron posible la realización de esta investigación; a todos ellos, muchas gracias. 5. REFERENCIAS BIBLIOGRÁFICAS • ÁLVAREZ ÁLVAREZ, A., HERNÁNDEZ RABELL, L., & CABRERA RAMOS, J. (2013). Estudio de las dimensiones de la integración de las TIC en una universidad tecnológica cubana. Revista Cubana de Ingeniería., Vol. IV(No. 3), pp. 5-14. ~ 11 ~ • ÁLVAREZ DE ZAYAS, C. M. (1999). La escuela en la vida. La Habana, Cuba: Editorial Pueblo y Educación. • BERMÚDEZ SARGUERA, R., & RODRÍGUEZ RODRÍGUEZ, M. (1996). Teoría y metodología del aprendizaje. La Habana, Cuba: Editorial Pueblo y Educación. • BLANCO, A. (2015). Usos de los contenidos de educación física en Internet del alumnado de Educación Secundaria Obligatoria. (Tesis Doctoral), Universidad Nacional de Educación a Distancia, España. • CLARENC, C. (2013). Educación Física y TIC. Una propuesta pedagógica. Argentina: Lulú. • CRISOL, E., & ALBA, E. (2015). La facilitación del proceso de enseñanza - aprendizaje en el área de Educación Física. Web 2.0 para el alumnado de Educación Secundaria: “el rincón de la Educación Física”. Etic@net: Revista científica electrónica de Educación y Comunicación en la Sociedad del Conocimiento, 15(2), 403-431. • El uso de las TIC en la Educación Física actual. RetrievedRetrieved 20-3- 2018,from.https://www.researchgate.net/publication/322132086_El_uso_de_las_TIC_en_la_Educaci on_Fisica_actual • FERNÁNDEZ, C., & LADRÓN, L. (2015). El uso de las TIC en la Educación Física actual. E- motion: Revista de Educación, Motricidad e Investigación, 5, 17-30. • GÓMEZ-FERRER, R., & RODRÍGUEZ, V. J. (2011). La integración socioeducativa a través del judo. Valencia, España: Aduli revista andaluza de ciencias sociales. • JOVER Nuñez, J. (2000). Ciencia y la Tecnología como procesos sociales. La Habana, Cuba: Editorial Felix Varela. • PANNESSI, M. (2011). ¡Devolvamos el protagonismo al alumnado! In (pp. 145-149). Madrid, España: Editorial Ariel. • SAENZ-LOPEZ, P. (1997). La Educación Física y su didáctica: manual para el profesor. Sevilla, España: Wanceulen. • ÚBEDA, J., & MOLINA, J. P. (2016). El blog como herramienta didáctica en Educación física: la percepción del alumnado. Apunts: Educación Física y Deportes, 126, 37-45. Sobre los autores 1. Maikel Barrera Balbuena. Licenciado en Cultura Física. Máster en Las Tecnologías en los procesos educativos. Director del Dirección de Educación Física, Deporte y Recreación (DEDER) de la Universidad Tecnológica de La Habana – CUJAE. Asistente. mbalbuena@tesla.cujae.edu.cu Cuba 2. Narmí Pedroso Jiménez. Licenciada en Educación en la especialidad de Telecomunicaciones. Máster en Ciencias de la Educación. Vicedecana de Extensión Universitaria de la Facultad de Telecomunicaciones y Electrónica (FITE) de la Universidad Tecnológica de La Habana – CUJAE. narmi@tele.cujae.edu.cu Cuba. ACERCAMIENTO A LA VISIÓN AMBIENTAL EN LAS UNIVERSIDADES CUBANAS. Naira Paisan Moreira 1, Martha del Carmen Mesa Valenciano 2 1Departamento de Historia y Patrimonio, Universidad de Oriente, 2 Presidenta de la Comisión de Educación, Cultura, Ciencia, Tecnología y Medio Ambiente de la Asamblea Nacional del Poder Popular de la República de Cuba. 1e-mail: naira.paisan@uo.eu.cu RESUMEN La presente comunicación evalúa el tema ambiental en universidades adscriptas al Ministerio de Educación Superior (MES) en Cuba. Se define como principal problema el inadecuado manejo de la estrategia ambiental asociada a los procesos y actividades que se desarrollan en las áreas exteriores de los campus universitarios, y tiene como objetivo diagnosticar su cumplimiento, partiendo de una evaluación de las normativas. La investigación ofrece el contexto de las prácticas actuales de las universidades, tanto a nivel internacional como nacional, también se abordan las consideraciones teórico-conceptuales y los resultados de una encuesta diseñada y dirigida a estudiantes en nueve universidades visitadas. Este documento ofrece un acercamiento preliminar hacia el avance de la gestión ambiental de los campus. . PALABRAS CLAVES: Evaluación ambiental, gestión ambiental, universidades cubanas. ABSTRACT The present investigation evaluates the environmental topic in universities attached to the Ministry of Higher Education (MES) in Cuba. The main problem is defined as the inadequate management of the environmental strategy associated with the processes and activities that take place in the outdoor areas of university campuses and aims to diagnose compliance based on an evaluation of regulations. The research offers the context of the current practices of the universities, both internationally and nationally, it also addresses the theoretical-conceptual considerations and the results of a survey designed and directed to students in nine universities visited. This document offers a preliminary approach toward advancing campus environmental management. KEY WORDS: Environmental evaluation, Ambiental management, Cuban universities Introducción En diversos congresos internacionales sobre problemas globales se ha enfatizado en distintas posturas teóricas sobre el concepto del desarrollo sostenible en las universidades como una nueva base de valor educativo. Destaca en este sentido la Declaración de Johannesburgo sobre Desarrollo Sostenible del año 2002 y los Mapas de Implementación del Programa de Acción Mundial para la Educación para el Desarrollo Sostenible [1]. En Cuba, el origen de los principales problemas ambientales proviene en gran medida de las formas inapropiadas en que por varios siglos fueron explotados los recursos naturales; las inadecuadas técnicas agropecuarias; las limitaciones e influencias con que se enfrentó el proceso de industrialización; limitaciones económicas como país del tercer mundo y agravadas por el bloqueo; y la falta de desarrollo de programas para dar la solución adecuada a cada situación ambiental. Con el objetivo de evitar y erradicar los daños ocasionados a la naturaleza, Cuba adopta una Estrategia Ambiental Nacional. De esta han existido diferentes versiones, las cuales se han adecuado a la situación económica y social del país en el momento en que ha sido propuesta. La Estrategia Ambiental Nacional [2] en Cuba 2016/2021 tiene entre sus principios:  Desarrollo sostenible  Educación, comunicación e información orientada a desarrollar la cultura ambiental en la ciudadanía  Participación activa de todos los actores sobre la base de la concertación, la cooperación y la corresponsabilidad. Diversas valoraciones ha incorporado el Ministerio de Educación Superior en la Estrategia Ambiental del organismo, de las cuales resultan las siguientes deficiencias: insuficiente enfoque interdisciplinario; dispersión de los campus y espacios universitarios con uso inadecuado del suelo; carencia de límites físicos; incorrecto tratamiento de las áreas verdes y los residuos líquidos y sólidos; deterioro estético- visual de edificios y áreas exteriores; y problemas de sanidad, con riesgos por contaminación del aire, de los suelos y de las aguas. Numerosas son las causas que originan las anteriores deficiencias, entre las que se pueden mencionar: la inexistencia de un estudio de integral en los campus universitarios que permita adoptar políticas en función del desarrollo sostenible, procesos inversionistas diversos, con falta de integración y de continuidad. En este presenta se presentan los resultados de una investigación que partió del problema del inadecuado manejo de la estrategia ambiental asociada a los procesos y actividades que se desarrollan en las áreas exteriores de los campus universitarios en Cuba, y tuvo como objetivo diagnosticar su cumplimiento, partiendo de una evaluación de las normativas vigentes. Desarrollo Universidades ecológicas- sustentables El concepto de universidad sustentable como idea, significa una oportunidad para la reorganización del sistema universitario frente los retos ambientales del nuevo milenio, para cumplir no únicamente con su cometido fundamental, que es la formación de profesionales, sino para forjar en los estudiantes una conciencia ambiental y, con sus acciones institucionales de crecimiento y desarrollo, para servir de ejemplo a la comunidad por sus esfuerzos en la protección y cuidado del medio ambiente. A nivel mundial se han desarrollado diferentes modelos que tienen el objetivo de introducir la sustentabilidad de manera transversal e interdisciplinaria en los campus universitarios. La iniciativa de Red de Campus Sustentable [3] reúne a quince universidades y desarrolla diferentes métodos de Educación para el Desarrollo Sostenible relevantes para la educación superior, especialmente en la educación de los docentes. Las universidades de la red están liderando una campaña activa para integrar herramientas, principios y valores de la sostenibilidad en la vida universitaria. En la construcción de una universidad sustentable, por tratarse de un esfuerzo que demanda conciencia ambiental y voluntad institucional, se han sumado iniciativas mundiales que definen pautas para la ruta de la sustentabilidad, donde cada universidad deberá de dar muestras de las aquellas acciones que contribuyan a conservar y proteger el ambiente que la rodea. Valoración de la estrategia ambiental universitaria El Ministerio de Educación Superior tiene diseñada la Estrategia Ambiental [4] que parte de lo aprobado por el Ministerio de Ciencia, Tecnología y Medio Ambiente (CITMA) y constituye documento de obligatoria consulta para un buen desempeño ambiental de sus universidades, entidades de Ciencia e Innovación Tecnológica y empresas. La evaluación de los objetivos estratégicos de cada año verifica el avance en la temática ambiental y desde hace dos cursos, se incorpora el aporte a los Objetivos de Desarrollo Sostenibles [5]. El conocimiento universitario está comprometido con el desarrollo de todas sus dimensiones y ello con el propósito de avanzar hacia un modelo de desarrollo basado en el conocimiento, lo que se ha dado en llamar “nuevo desarrollo” [6]. Para llevar adelante esta investigación, se seleccionó un grupo de universidades, con la finalidad de hacer un diagnóstico del conocimiento de aspectos ambientales dentro de la comunidad universitaria [7]. El proceso de trabajo incluyó la realización de encuestas y observaciones de campo, a partir de las siguientes variables:  Uso de suelo  Situación del medio construido  Características de las áreas libres y espacios públicos  Mobiliario urbano y elementos de diseño urbano  Infraestructuras técnicas  Identificación de los aspectos ambientales asociados a las actividades, procesos y servicios que se realizan en el campus universitario Diagnóstico de los aspectos ambientales La encuesta estuvo dirigida a conocer algunos de los problemas ambientales existentes en las áreas exteriores de los campus objeto de investigación. Para el estudio se seleccionaron 9 de las 22 universidades del MES, que representan el 42% del total (Figura1). Figura 1. Ubicación por provincias de las 22 universidades del MES y las 9 encuestadas. Fuente: Autoras. La encuesta fue aplicada a un total de 1080 (Figura 2) estudiantes en nueve universidades y se realizó con el objetivo de tener una visión o percepción de cómo se abordan los tópicos ambientales en la comunidad universitaria. El cuestionario incorporó términos que aparecen recogidos en la estrategia ambiental y permite reconocer el conocimiento y aplicación de los mismos. 463 210 100 90 60 58 46 30 23 0 50 100 150 200 250 300 350 400 450 500 UPR UCI UO UDG UCPEJV ULT UCCFD UM UMoa Figura 2. Número de estudiantes que participaron en las encuestas. Fuente: Autoras. En la Figura 3 se presentan los resultados de las encuestas en relación con el conocimiento de los estudiantes de las universidades seleccionadas acerca de los temas ambientales. F Figura 3. Temas ambientales referidos en las encuestas. Fuente: Autoras. Dentro de los resultados obtenidos, resalta el hecho de que el 82% del total de estudiantes reconoce el término de campus, pero aún existen segmentos del público (18%) que no están familiarizados con el vocablo. Esto indica la necesidad de realizar acciones educativas que conduzcan al reconocimiento de las ciudades o campus universitarios. A su vez, por medio del instrumento, se evaluó qué acciones despliegan las autoridades universitarias en favor de la estrategia ambiental de cada institución. La inclusión de temas como: ecología, manejo de residuos, contaminación del medio ambiente, mobiliario urbano (bancos, cestos, luminarias), cerca perimetral, viales, parques y plazas, barreras arquitectónicas, accesibilidad al campus y separación física de espacios según función, reflejó que el 92% de los estudiantes conocen los temas abordados, y un (8%) los desconocen. Este resultado sugiere la necesidad de profundizar en términos que no están incorporados en el lenguaje de los universitarios y pueden desarrollarse, según la estrategia del MES, en sus diferentes procesos: docencia de pregrado y postgrado, investigación y extensión universitaria. En relación con el tratamiento a los residuos, y la importancia del reciclaje para la protección y conservación del medio ambiente, los resultados muestran la necesidad de establecer en las universidades una estrategia de recuperación de residuos (ejemplo papel y plásticos) para su reciclaje y reutilización con otros fines. De igual forma, se analizó la adecuación de puntos ecológicos (cestos de clasificación de residuos) dentro de los campus universitarios y su clasificación, según la valoración individual en: bueno, regular, insuficiente o no existen. Las valoraciones de los estudiantes sobre la adecuación de puntos ecológicos (cestos de clasificación de residuos) arrojan valores significativos que indican la necesidad de trabajar en su mejoramiento (Figura 4). . Figura 4. Consideraciones sobre los puntos ecológicos. Fuente: Autoras. El instrumento indagó también acerca de la realización de campañas ambientales, que promueven una mejor relación de los sujetos con su entorno en el ámbito universitario, como un factor para la preservación y cuidado del medio ambiente. El 69% de los estudiantes las consideran buenas, el 21% regular, y el 10% insuficientes, valores que indican que el trabajo debe ser sistemático para garantizar una mayor participación de los estudiantes. La percepción que tiene la comunidad universitaria sobre una campaña medioambiental determina la efectividad en su aplicación y el cambio de conducta que genera en los sujetos. Calificar el impacto o aporte de las campañas ambientales que se realizan en las universidades constituye una tarea de primer orden, para así garantizar el compromiso con el cuidado del medio ambiente. Sobre el particular, el 64%, considera bueno o regular su impacto o su aporte; mientras que el 36 % considera que son insuficientes o no se conocen. De igual forma, se calificaron las acciones que se desarrollan por los programas de gestión ambiental de: buenas, regular, insuficiente o no se conocen. Los datos arrojados demuestran que el 10% de los encuestados considera insuficientes estas acciones y el 23% refirieron no conocer el programa en su universidad. El resultado alerta sobre la necesidad de intensificar las acciones integrales, diseñadas en los programas de gestión ambiental (Figura 5). Figura 5. Respuestas a las acciones de los programas de gestión ambiental. Fuente: Autoras. La aplicación de la encuesta permitió valorar a manera de diagnóstico inicial, la importancia de profundizar en términos de educación ambiental como proceso que reconoce valores y aclara conceptos centrados en fomentar las actitudes, destrezas, habilidades y aptitudes necesarias para comprender y apreciar las interrelaciones entre el ser humano, su cultura y la naturaleza. Estos análisis son de utilidad para la evaluación del cumplimento de siete de los Objetivos de Desarrollo Sostenible (ODS) marcados por las Naciones Unidas [5], como oportunidad para integrar en un mismo escenario de acción metas sociales, ambientales, económicas, de paz y alianzas futuras. Las universidades pueden y deben desempeñar un papel fundamental en el desarrollo y aplicación de los ODS, para lo que es vital desarrollar procesos de seguimiento y evaluación de los logros alcanzados que permitan identificar la posición en la que nos encontramos en el largo camino hacia la sostenibilidad. Conclusiones El trabajo de investigación permitió profundizar en la importancia que nacional e internacionalmente se le está otorgando al tema, y los valores que sostiene desde la mirada ambiental de las universidades. Este trabajo se une a otras acciones que promueven el desarrollo de una actitud favorable de cada directivo y estudiante universitario hacia la construcción de una cultura ambiental responsable. La encuesta aplicada permitió evaluar los criterios que tiene la población encuestada sobre aspectos y procesos ambientales en las universidades involucradas en el estudio, así como las potencialidades para el desarrollo de las estrategias ambientales que se realicen, en beneficio de la formación ambiental y la generación de conocimientos científicos. Es importante poner en práctica el conocimiento de la estrategia ambiental diseñada por el MES, definir los problemas existentes y las acciones que, a corto y largo plazos, logren convertir las instituciones de educación superior en centros de referencia. Referencias Bibliográficas [1] UNESCO. Hoja de ruta para la ejecución del Programa de acción mundial de Educación para el Desarrollo Sostenible 2015- 2019. París: Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura; https://es.unesco.org/gap [2] Estrategia Ambiental Nacional. Ministerio de Ciencia, Tecnología y Medio Ambiente (CITMA). La Habana, Cuba. 2021. https://www.citma.gob.cu/estrategia-ambiental-nacional/ [3] Red de Campus Sustentable. Reporte y Evaluación de la Sustentabilidad para Instituciones de Educación Superior. Manual de usuario v1.1–2021 https://redcampussustentable.cl/ [4] Ministerio de Educación Superior (MES). Parte de la Estrategia Ambiental Nacional. La Habana, Cuba. https://www.mes.gob.cu/promocion-de-la-cultura-ambiental [5] Naciones Unidas. Asamblea General. Transformar nuestro mundo: la Agenda 2030 para el Desarrollo Sostenible. Resolución 70/1 del 25 de septiembre de 2015. [Internet] 21 octubre 2015 [consultado: 10 junio 2019]. Disponible en: https://undocs.org/es/A/RES/70/1 [6] Ramos Rodríguez AE, Brito Montero A, Artigas Pérez E. La triple hélice social para el desarrollo desde la gestión del conocimiento. Delos. [Internet] 2018 [Consultado: 5 de diciembre 2019]; 11(33). Disponible en: https://www.eumed.net/rev/delos/33/desarrollo-gestion-conocimiento.html. INTEGRACIÓN DE LOS ACTORES UNIVERSITARIOS POR LA EXTENSIÓN UNIVERSITARIA. TRABAJO SOCIOCULTURAL COMUNITARIO EN LA TRANSFORMACIÓN DE COMUNIDADES VULNERABLES. Denise Hernández Delgado1, Francely Lamadrid Delgado2, Leonardo Pacheco Sierra3, Lic. Emilio Jesús Viamonte Fernández4. 1, 2, 3 y 4 Universidad Central Marta Abreu de Las Villas Carretera de Camajuaní Km5½ .Santa Clara. Villa Clara. Cuba 2flamadrid@uclv.cu , 3lepacheco@uclv.cu , 4eviamonte@uclv.edu.cu RESUMEN La Dirección de Extensión Universitaria en la Universidad Central “ Marta Abreu” de las Villas y su dialéctica de las relaciones culturales diversas que se han producido, para satisfacer de forma exitosa las exigencias sociales según demanda el mundo actual, empleando la promoción cultural como metodología de la extensión universitaria. Problemática: Se ha visto la necesidad de aumentar la interacción social, educativa y cultural de la universidad en las comunidades en situación de vulnerabilidad. Objetivo(s): Identificar los principales obstáculos para el desarrollo de actividades comunitarias con buenos resultados y propuesta de alternativas a los mismos. Metodología: se emplearon como métodos de orden teórico el análisis documental, las entrevistas a estudiantes y profesores. Se hizo uso de herramientas ingenieriles como el Diagrama Causa-Efecto y el Método general de solución de problemas. Resultados y discusión: Los proyectos de Extensión son un conjunto de prácticas de intervención en territorio sobre una determinada necesidad o problemática de la sociedad. Se han realizado los análisis de las principales dificultades que dañan la interacción social y el buen desarrollo de actividades de transformación comunitaria, así mismo se hacen las propuestas para soluciones y se muestran los resultados de aplicación de las mismas. Conclusiones Los programas y proyectos de Extensión Universitaria constituyen prácticas institucionales y comunitarias de diverso grado de complejidad que vinculan a la Universidad con el medio social basándose en el conocimiento científico, tecnológico, cultural, artístico y humanístico acumulado en la Institución y en su capacidad de formación educativa. PALABRAS CLAVE: Extensión Universitaria, Interacción Social, Integración, Planificación. INTEGRATION OF UNIVERSITY ACTORS THROUGH UNIVERSITY EXTENSION. SOCIOCULTURAL COMMUNITY WORK IN THE TRANSFORMATION OF VULNERABLE COMMUNITIES. ABSTRACT The Directorate of University Extension at the Central University "Marta Abreu" de las Villas and its dialectic of the diverse cultural relations that have been produced, to successfully satisfy the social demands as demanded by the current world, using cultural promotion as university extension methodology. Problematic: It has been seen the need to increase the social, educational and cultural interaction of the university in communities in vulnerable situations. Objective(s): Identify the main obstacles to the development of community activities with good results and propose alternatives to them. Methodology: documentary analysis, interviews with students and teachers were used as theoretical methods. Engineering tools such as the Cause-Effect Diagram and the General Problem Solving Method were used. Results and discussion: Extension projects are a set of intervention practices in the territory on a specific need or problem of society. Analyzes of the main difficulties that damage social interaction and the proper development of community transformation activities have been carried out, as well as proposals for solutions and the results of their application are shown. Conclusions The University Extension programs and projects constitute institutional and community practices of varying degrees of complexity that link the University with the social environment based on the scientific, technological, cultural, artistic and humanistic knowledge accumulated in the Institution and on its training capacity educational. KEY WORDS: University Extension, Social Interaction, Integration, Planning. 1. INTRODUCCIÓN La existencia en varias universidades del país de carreras vinculadas al trabajo con las comunidades ha puesto al trabajo cultural comunitario en el ente de atención de varias investigaciones. Los esfuerzos de la Comunidad Científica están dirigidos a establecer los métodos e instrumentos más eficaces en la búsqueda de mejores resultados, con la participación de profesionales, investigadores, estudiantes y profesores universitarios. La extensión universitaria es una de las tres funciones sustantivas de la Universidad, junto a la investigación y a la docencia, y tiene como objetivo promover el desarrollo cultural, y la transferencia del conocimiento y la cultura entre los distintos secctores sociales de la comunidad (UNSAda, 2020). En la actualidad los diferentes escenarios comunitarios platean nuevas problemáticas, demandas y necesidades culturales que precisan el accionar de manera coherente y lógico de instituciones estatales, organizaciones no gubernamentales y actores sociales en general, para encontrar alternativas de solución. Por tanto, la búsqueda de la participación activa de la comunidad a través de la cultura, exige integrar con rigurosidad y formalidad el trabajo cultural comunitario como un proceso complejo inserto en el desarrollo cultural. De los procesos universitarios, la extensión universitaria se distingue por el carácter dinamizador del vínculo universidad- sociedad.Favorece la promoción de la cultura en su concepción más general. Se concibe desde sus diferentes formas organizativas en el trabajo sociocultural universitario, asumidas en el Programa Nacional de Extensión Universitaria, entre las que se destacan los programas, actividades, acciones, tareas y proyectos extensionistas. Dicho Programa Nacional para la Extensión Universitaria plantea la necesidad de la participación de los estudiantes en proyectos comunitarios que respondan a problemas territoriales de carácter cultural, educativo y social. Estos como vía para promover la participación, la democratización, la expansión de la creatividad y la generación, circulación, consumo y acceso a la cultura. Al mismo tiempo que ofrecen solución a problemáticas actuales en las comunidades. El encargo social de la universidad es preservar la cultura que la precedió, desarrollarla y promoverla esta se estructura en un sistema que se reflaja, fundamentalmente en las actividades docentes, investigativas y extencionistas (UH, 2021). El trabajo sociocultural comunitario es un proceso de transformación de las condiciones socioculturales y de las relaciones sociales, en los espacios comunitarios, mediante el desarrollo de una cultura y un estilo participativo que involucra la acción integrada de la mayor diversidad de actores sociales, en la generación de los procesos de cambios encaminados a elevar la calidad de vida. Como proceso de transformación se apoya básicamente en las potencialidades comunitarias y requiere del máximo aprovechamiento de las acciones que pueden desarrollar las autoridades municipales e incluso, provinciales (Macías, (2011). La vinculación de profesores, estudiantes y trabajadores al desarrollo de proyectos socioculturales en las comunidades, constituye en la etapa inmediata una de las vertientes fundamentales a desarrollar desde la extensión universitaria, con el fin de enriquecer la vida sociocultural de la universidad y de la comunidad (UCLV, Página oficial de la Universidad Marta Abreu de Las Villas, 2021). Es necesario incentivar una mayor participación de estudiantes y profesores en las actividades comunitarias y el incremento de la realización de las mismas en las comunidades villaclareñas. Atendiendo lo anterior se persigue como objetivo general identificar los principales obstáculos para el desarrollo de actividades comunitarias con buenos resultados y propuesta de alternativas a los mismos. Se diseñó un sistema de acciones para promover el desarrollo cultural en la institución a partir de la adecuada gestión del trabajo comunitario, desde el proceso de extensión universitaria. El mismo se caracteriza por poseer un carácter integrador, objetivo y participativo. Con ello se corroboró la idea a defender de la investigación. La validación de la factibilidad del sistema de acciones propuesto se realizó mediante talleres de reflexión y la consulta a especialistas. En este proceso se demostró que el sistema de acciones es pertinente, se corresponde con las necesidades de la Universidad y contribuye a su desarrollo cultural. 2. DESARROLLO Materiales y métodos Se emplearon como métodos de orden teórico el análisis documental, las entrevistas a estudiantes y profesores. Se hizo uso de herramientas ingenieriles como el Método general de solución de problemas y el diagrama de Ishikawa, también conocido como diagrama Causa-Efecto, es una herramienta gráfica ampliamente utilizada en el campo de la Ingeniería Industrial. Su propósito principal es ayudar en la identificación de la causa original de un problema determinado, revelando la relación entre las causas y los efectos. Resultados y Discusión Un sistema de acciones planificadas a partir de un diagnóstico inicial, y organizadas desde el proceso de extensión universitaria, en las que se integren diferentes actores de la universidad con el propósito de realizar una adecuada promoción cultural que permita la adquisición de conocimientos y valores culturales que contribuyan a la formación y mejoramiento del comportamiento humano es una prioridad para las instituciones de educación superior. La integración ha demostrado que la coexistencia de diferentes áreas del saber en una misma institución, enriquece y amplía el acervo cultural de los miembros de la comunidad universitaria. La resultante de estas fusiones es la creación de una nueva universidad integrada que debe propender a lograr como tendencias una mayor calidad, eficiencia y eficacia; utilización más racional y eficiente de la fuerza de trabajo; mayores potencialidades para abordar y dar solución integrada a los problemas del territorio; y facilita la relación con el gobierno, organismos y entidades provinciales para incrementar la pertinencia de la educación superior en el territorio. Por ello es necesario que mediante las actividades de carácter extensionista se han planificado con la participación de diferentes actores, dígase las Cátedras Multidisciplinarias y Honoríficas, los proyectos comunitarios, los movimientos de artistas aficionados y deportivo, la capacitación y desarrollo de instituciones culturales de la universidad, se pueda favorecer la calidad de la formación multicultural y la unidad de los futuros profesionales, para satisfacer las exigencias sociales, todo esto conlleva a realizar un diagnóstico sociocultural como fundamento teórico de la estrategia para realizar el trabajo de promoción cultural dirigida al mejoramiento en la formación de los futuros profesionales. La Extensión Universitaria se debe abordar con su función: Creación, preservación y promoción de la cultura para contribuir con la satisfacción de las necesidades crecientes de la colectividad humana y propiciar su desarrollo cultural, elevación de su nivel cultural como cualidad externa del proceso extensionista universitario cuyo fin es promover la cultura y la Extensión como proceso en el campo. Aplicación del Método General de Solución de Problemas El Método General de Solución de Problemas es un proceso que se lleva a cabo seis pasos: Identificación o Definición, Análisis, Generación de Alternativas, Selección de Alternativas, Implementación y Control (Pérez, 2017).  Definición del problema Se ha detectado en estas actividades una participación estudiantil escasa provocada por la ineficaz convocatoria de las organizaciones, la desinformación por falta de medios de difusión competentes y la insuficiente preparación para la participación de los jóvenes en actividades comunitarias. No se presenta una buena relación de la masa universitaria con los problemas sociales causada fundamentalmente por el desconocimiento y falta de motivación con la resolución de los problemas sociales, el escaso apoyo de las organizaciones no estudiantiles y la ausencia de estudios sociológicos en las comunidades que permitan detectar mejor los problemas y centrar las actividades en solucionar las necesidades existentes en la parte de la población afectada. Una de las dificultades detectadas que más afecta al desarrollo de los movimientos comunitarios de la universidad es la falta de recursos para llevar a cabo las acciones las cuales son inducidas por los pedidos que no se ajustan a la realidad económica de la institución y la deficiente coordinación preliminar de los recursos a implementar. Uno de los puntos donde más se perciben dificultades es en la articulación del movimiento debido a la errónea definición de los programas que reflejan todas las actividades y posibles variaciones, la falta de planificación de la actividad a desarrollar y la ineficiente convocatoria a departamentos y organizaciones que podrían estar interesados en colaborar con las acciones.  Análisis del problema Una vez detectado todos los obstáculos que impiden el desarrollo con calidad de las actividades comunitarias de la Universidad Central “ Marta Abreu” de las Villas (UCLV) se realizó un diagrama de causa y efecto o Diagrama de Ishikawa que es una herramienta de mejora continua enfocada en la calidad, que muestra todas las posibles causas que existen detrás de un problema o efecto determinado (Pinchincha, 2020). Figura 1: Diagrama Causa-Efecto Fuente: Elaboración Propia.  Búsqueda de soluciones Soluciones para aumetar la participación estudiantil en las actividades en la comunidades puededen ser la realización de convocatorias más acordes con la dinámica universitaria, elegir días y horarios accesibles para todos los estudiantes y utilizar las vías de comunicacción más afines a la juventud de nuestro tiempo y que garanticen que la convocatoria sea de conocimiento de todos los universitarios. Para contrarrestar la falta de preparación en actividades comunitarias y el desconocimiento y falta de motivación con la resolución de los problemas sociales por parte de los estudiantes se necesita sensibilizar, concientizar y capacitar respecto a la adecuada gestión del trabajo comunitario. O sea, sobre su adecuada planeación, organización, dirección y control desde la extensión universitaria. El sistema de acciones posee características generales que lo distinguen y garantizan su eficiencia. Se sustenta bajo ideas reguladoras que permiten la interacción de los procesos culturales en la universidad. Las acciones de capacitación están dirigidas a: la formación de nuevas habilidades personales y profesionales, referenciando los procedimientos y vías que faciliten la gestión del trabajo cultural comunitario desde la extensión universitaria. Las acciones de promoción, contribuyen a:  Apreciar y significar valores culturales y sociales en general.  Crear demanda en relación con alternativas culturales existentes en la institución.  Formar espiritualidad en la medida que creen expectativas y amplíen horizontes culturales en la población sobre la que se realiza.  Estimular el rescate de talentos y valores potenciales o efectivos existentes en la población participante. Las acciones de investigación, por su parte, pretenden generar nuevos resultados científicos sobre el tema, así como generar nuevos eventos y publicaciones que permitan sistematizar dichos resultados. Por último, las acciones de evaluación, las cuales tienen como propósito comprobar los resultados obtenidos en cada etapa. El proceso de evaluación del sistema de acciones se estructura a partir de evaluaciones parciales (con periodicidad trimestral), y una final al término del año. Se tendrán en cuenta los siguientes elementos:  Comprobación de las calificaciones recibidas por los participantes en las acciones de capacitación (al término de cada acción).  Entrevistas a los profesores que imparten la capacitación (al finalizar cada acción).  Aplicación de encuestas por cuestionario para conocer los estados de opinión de los participantes en las acciones de capacitación (trimestral).  Realización de grupos de discusión para compartir lo aprendido (trimestral).  Aplicación de la observación participante en las actividades del proyecto, la peña, el espacio fijo, las actividades de promoción cultural y la programación especial (mensual).  Realización de entrevistas y encuestas a los participantes (trimestral).  Realización de estudios de público (semestral).  Aplicación de la lluvia de ideas a los dirigentes, especialistas, profesores y estudiantes activistas de extensión universitaria (trimestral).  Realización de encuestas a personas de diferentes áreas en la Universidad (trimestral). Sistematización: Se establecieron vías de sistematización que permiten interpretar los resultados de la aplicación del instrumento, desde la perspectiva de los implicados, en un proceso de participación que genera nuevos conocimientos al respecto:  Realización de talleres de reflexión en los que intervenga el Departamento de Actividades Extracurriculares y los implicados en el sistema de acciones (trimestral).  Aplicación de encuestas a los dirigentes, especialistas e implicados (trimestral).  Análisis de las evaluaciones de los Objetivos de Trabajo y el Programa Nacional de Extensión Universitaria (trimestral, semestral y anual). Soluciones al escaso apoyo de las organizaciones no estudiantiles como son la Unión de Jóvenes Comunistas, Partido Comunista de Cuba y los sindicatos de trabajadores pueden ser la realización de actividades que mejoren la comunicación entre dichas organizaciones y los dirigentes de la Federación Estudiantil Universitaria sobre las actividades en las comunidades colegiando posibles acciones en conjunto, y llamar a la incorporación de organizaciones como la Federación de Estudiantes de la Enseñanza Media (FEEM) y la Organización de Pioneros José Martí (OPJM). Dentro de la ausencia de estudios sociológicos en la comunidad una solución puede ser llevar a cabo conversatorios que permitan dar a conocer la importancia de la sociología dentro de la sociedad como fuente de conocimiento para la sociedad y sobre esta y otorgarle la importancia que lleva a la hora de investigar y resolver los problemas de la comunidad. Como solución a los pedidos que no se ajustan a la realidad económica de la institución se puede realizar un estudio del verdadero presupuesto con que cuentan los organismos para este tipo de actividades, así como la búsqueda de vías para la financiación de estas acciones que incluyan donaciones o cualquier otro tipo de ayuda. Solucionando la deficiente coordinación preliminar de los recursos a implementar se puede llevar a cabo la realización de los pedidos de dichos recursos con un tiempo de antelación que permita la correcta organización y la realización del dichos pedidos a través de un documento oficial que comprometa a ambas organizaciones con la actividad ya sea que una se comprometa a prever de los recursos necesarios y la otra parte a que la actividad fluya con la calidad esperada. También se pueden incluir estas actividades en la planificación de la organización y así realizar los pedidos con el presupuesto adecuado, así como explotar al máximo el potencial que poseen las instituciones y adaptar las actividades dentro de la UCLV al espacio de trabajo que posee en sus más de 20 Cátedras Honoríficas, entre las que se encuentran la “José Martí”, la “Gilda Fernández Levy”, la “Álvaro Reinoso”, la “Ignacio Agramonte”, la “Juan Marinello”, la “Juan Pedro Carbó Serviá, la “Enrique José Varona”, la “Samuel Feijóo”, la “Juan Tomás Roig”, la “Ernesto Guevara”, la “Simón Bolívar”, la del Adulto Mayor, la “Marta Abreu” , la “Víctor Figueroa Albelo”, la de Educación Ambiental y Estética, la “Félix Varela”, la “Exilia Saldaña”, entre otras (UCLV), Página oficial de la Universidad Marta Abreu de las Villas, 2019). Para dar solución a la errónea definición de los programas que reflejan todas las actividades y posibles variaciones se puede crear un programa que defina todas las actividades a realizar con una serie de datos que serían de gran importancia para la organización como: lugar, fecha, hora, horarios, intervenciones, responsable de la intervención, entre otras que son cuestiones indispensables en la coordinación y que es necesario definir antes de la realización del encuentro. También se puede imprimir y dar a conocer con anticipación dicho documento para que todos los presentes o interesados en participar conozcan los detalles de la actividad, así como la cronología de las acciones. Ello ayudaría a una mejor aproximación del presupuesto de la actividad y a un mayor control. Como solución a la ineficiente convocatoria a departamentos y organizaciones que puedan estar interesados es posible realizar un estudio de las organizaciones comunitarias y culturales del municipio y la provincia que podrían estar interesadas en participar en la actividad que se ha planificado y contactar con dichas organizaciones con un margen de tiempo que permita la coordinación entre la Universidad, las organizaciones y la comunidad.  Análisis de alternativas Algunas alternativas para mejorar la participación de la multitud universitaria puede ser la utilización de los canales comunicación de la Dirección de Comunicación (Dir.Com) y las diferentes vías institucionales de comunicación de los sindicatos y el Partido Comunista de Cuba (PCC) para hacer llegar la convocatoria a los estudiantes y también profesores del centro, destacando el papel de la participación de los profesores como ejemplo a seguir por los universitarios. El uso de los perfiles institucionales en las plataformas digitales como Facebook, Twiter y Telegram y los canales y estructuras de comunicación de organizaciones como la Unión de Jóvenes Comunistas (UJC) y la Federación Estudiantil Univesitaria (FEU) como medios de convocatoria también es una opción para aumentar la participación de las masas. Como un medio de llamamiento a los estudiantes de la UCLV el proyecto “Criollito” es una de las vías más efectivias para la convocatoria masiva de estudiantes y profesores con sus canales en Facebook y Telegram. Alternativas para mejorar la falta de preparación de los estudiantes con vistas a la realización de actividades comunitarias es posible establecer las soluciones mencionadas en el acápite anterior como son la creación de asignaturas optativas, capacitar semestralmente a los estudiantes a través de encuentros con especialistas de Facultades relacionadas a la Cultura Física, Sociología, Psicología entre otras ramas que se estudian en la UCLV dando prioridad a los dirigentes estudiantiles y comunistas así como otros líderes de la masa estudiantil que generalmente estan vinculados a dichas tareas. Como alternativas al desconocimiento y falta de motivación con la resolución de los problemas sociales se pueden realizar las ya mencionadas en el texto anterior y sumarles charlas y encuentros con especialistas y organizaciones que esten estrechamente vinculadas con la labor comunitaria a realizar para que los jóvenes se relacionen con la importancia de la realización de reformas a la calidad de vida y cultura de la sociedad cubana. Para la Ausencia de estudios sociológicos en la comunidad una alternativa puede ser el trabajo en conjunto de los líderes estudiantiles con los especialistas, profesores y estudiantes de la Facultas de Ciencias Sociales y desarrollar un estudio sociológico de la comunidad para detectar con mayor precisión las problemáticas de la zona y solo entonces definir las líneas de trabajo de las actividades ya sean en educación sexual, educación de género, trabajos políticos-ideológicos entre otras vías de solución. Como alternativas a la ineficiente convocatoria a departamentos y organizaciones que puedan estar interesados se han determinado: hacer extensiva a las organizaciones del municipio y provincia el plan con todas las actividades planificadas en las que podrían tener interés como la Federación de Mujeres de Cuba (FMC), FEEM, OPJM, UJC, PCC, el Departamento de orientación sexual, el proyecto de la UCLV “Evoluciona” para actividades racionadas con la salud sexual y educación sobre orientación de género, para ayuda humanitaria se puede contar con el proyecto “Santa Clara por la vida”, el propio gobierno de la provincia, la Asociación Hermanos Saíz (AHS), con “El Mejunje” más que reconocido por sus disímiles actividades culturales y de ayuda al bienestar social y animal, las direcciones de Cultura Municipal y Provincial, el Movimiento de Artistas Aficionados, el Movimiento Educando por Amor y los departamentos de Sociología, Psicología, Derecho para actividades como la discusión del nuevo Código de Familia entre otras organizaciones.  Informe y recomendaciones El trabajo cultural comunitario, ya cuenta con objetivos trazados en las diferentes estrategias que surgen a partir del Programa Nacional de Extensión Universitaria. Estos plantean que los implicados en el proceso respeten la diversidad de tradiciones y características culturales producidas en el desarrollo histórico social. De igual modo trabajar desde la comunidad interactuando con cada uno de sus miembros detectando la capacidad proyectiva, el nivel de comprometimiento con las acciones que se desarrollan y la satisfacción de las necesidades culturales. La gestión del trabajo cultural comunitario facilita el vínculo de los individuos de una comunidad a los procesos de satisfacción de sus necesidades culturales desde la formulación de proyectos, acciones y programas. La ejecución de estos propicia una organización a nivel comunitario a la hora de hacer efectivas estas propuestas. Conlleva la existencia de organizaciones y grupos, cuya estructura y funcionamiento arraigadas en la comunidad, promueve el cambio cultural. Este conjunto de acciones, actividades, prácticas y técnicas deben estar dirigidas a estimular y dinamizar la participación activa de individuos y grupos, en pos del desarrollo de sus potencialidades de creación y expresión cultural. Por lo tanto, la gestión del trabajo cultural comunitario se encarga de poner en movimiento un proceso a través del cual se crean condiciones para que los grupos y las comunidades encuentren sus propias respuestas y expresen su sentido de identidad. Es también un proceso basado en la convicción de la capacidad existente en los conglomerados humanos para desarrollar sus manifestaciones culturales y proteger su identidad. Por lo tanto, la gestión del trabajo cultural comunitario desde la extensión universitaria es el diseñar, implementar y evaluar acciones que propicien la transformación cultural de la realidad al interior de la universidad, y cuyo resultado estará determinado por el desarrollo cultural en la propia universidad.  Comprobación, implementación y control Para la implementación de la propuesta se impulsó la realización d una actividad comunitaria en la comunidad Julián Grimau en el Yabú, Santa Clara. Se establecieron talleres de preparación y espacios de debate con especialistas de Facultades relacionadas a la Cultura Física, Sociología, Psicología entre otras ramas que se estudian en la UCLV dando prioridad a los dirigentes estudiantiles y comunistas así como otros líderes de la masa estudiantil que generalmente están vinculados a dichas tareas, se realizó una convocatoria abierta para participar en los mismos. Aprovechando este espacio ya creado se impulsó a, en conjunto de los líderes estudiantiles con los especialistas, profesores y estudiantes de la Facultas de Ciencias Sociales, a desarrollar un estudio sociológico de la comunidad para detectar con mayor precisión las problemáticas de la zona y solo entonces definir las líneas de trabajo de las actividades. Se definieron como principales líneas la educación sexual (atendiendo al incremento de incidencias de enfermedades de transmisión sexual), educación de género( encuestas realizadas arrojaron actitudes patriarcales por parte de los pobladores de la zona), trabajos políticos-ideológicos( ante la falta de conocimiento sobre la realidad política del país y la poca inserción en los procesos políticos), además se pudo comprobar la existencia de núcleos familiares en condición de vulnerabilidad y la desvinculación laboral de muchos de los ciudadanos. Atendiendo a estas carencias se convocó por parte de la FEU a la Dirección municipal de trabajo y seguridad Social a realizar un levantamiento de las principales afectaciones económicas de las personas arrojando un número considerable de personas necesitadas de prestaciones monetarias y ayuda con entrega de recursos como cunas, camas entre otros. Se convocó al Centro promotor de Salud para la realización de pruebas rápidas para detectar VIH-SIDA. Se buscó la ayuda del proyecto “Evoluciona” quien además de tener una asignatura electiva para la preparación en cuanto a temas de género, brindó su apoyo para enfrentar esta labor educativa. Se convocó al PCC de Santa Clara, al gobierno, la FEU, la UJC como organizaciones que pudiesen acercar un trabajo político ideológico hacia la zona. Se pensó además en una actividad cultural donde se vinculara el Movimiento Artístico y Deportivo de la UCLV para realizar actividades de interacción con las personas. Se elaboró un Plan de Aseguramientos para la actividad el cual fue respaldado por la dirección universitaria y el Gobierno. Se elaboró un Plan de actividades ordenadas cronológicamente y se convocó a la masa estudiantil y de trabajadores a un trabajo voluntario en la zona. Potenciando la inclusión de los conocimientos docentes se le hizo un llamado a los estudiantes de comunicación social para la elaboración de las convocatorias a lanzar por las redes sociales. A través de las vías de comunicación institucionales, de la FEU y la UJC se convocó a la masa estudiantil y de trabajadores. Llegado el día se realizó la actividad, la cual fue recibida con aplausos y muestras de agradecimiento. Las potencialidades del trabajo cultural comunitario flexible, interactivo, dinámico y adecuadamente coordinado desde la extensión universitaria, propició la obtención de mayores niveles de desarrollo cultural. De igual modo favoreció la formación de un profesional que sea portador de los mejores valores culturales, y acaezca en actor social activo en la solución de los problemas que afectan a la sociedad. El sistema de acciones se estructuró dirigido a la capacitación, promoción e investigación, el cual fue sometido a la valoración de su pertinencia y factibilidad mediante talleres de reflexión y la consulta a especialistas. El resultado obtenido da respuesta a los objetivos trazados en el Programa Nacional de Extensión Universitaria y se retroalimenta de la práctica a partir de acciones de capacitación, promoción cultural, evaluación y sistematización de la gestión del trabajo cultural comunitario. 4. CONCLUSIONES La fundamentación teórica de la relación entre desarrollo cultural, extensión universitaria, gestión del trabajo cultural comunitario y promoción cultural facilitó lograr un posicionamiento científico con respecto a las categorías estudiadas en la investigación. A partir de este posicionamiento se escogió las herramientas teóricas necesarias para el abordaje en su totalidad del objeto y campo de acción. La caracterización de la gestión del trabajo cultural comunitario desde la extensión universitaria develó insuficiencias que limitan el desarrollo cultural en la Universidad Central “Marta Abreu” de las Villas. Se diseñó un sistema de acciones para promover el desarrollo cultural en la institución a partir de la adecuada gestión del trabajo cultural comunitario, desde el proceso de extensión universitaria. El mismo se caracteriza por poseer un carácter integrador, objetivo y participativo en correspondencia con las necesidades culturales detectadas. Con ello se corroboró la idea a defender de la investigación. La validación de la factibilidad del sistema de acciones propuesto se realizó mediante talleres de reflexión y la consulta a especialistas. En este proceso se demostró que el sistema de acciones es pertinente, se corresponde con las necesidades culturales de la Universidad y contribuye a su desarrollo cultural. 5. REFERENCIAS BIBLIOGRÁFICAS MACÍAS, R. (2011) ). “Factores culturales y desarrollo cultural comunitario. Reflexiones desde la práctica”. From http://www.eumed.net/libros/2011c/985/index.html PÉREZ, E. G. (2017). From http//servicio.bc.uc.edu.ve PINCHINCHA, R. B. (2020, 11 24). Banco Pinchincha Educación financiera. From https://www.pichincha.com/portal/blog/post/diagrama- ishikawa#:~:text=Conocido%20tambi%C3%A9n%20como%20diagrama%20de,un%20problem a%20o%20efecto%20determinado. UCLV. (2019). Página oficial de la Universidad Marta Abreu de las Villas. From https://www.uclv.edu.cu/extension/ UCLV. (2021). Página oficial de la Universidad Marta Abreu de Las Villas. From https://www.uclv.edu.cu/extension/proyectos-comunitarios/ UH. (2021). Página de la Universidad de la Habana. From http://www.uh.cu/extension UNSAda. (2020). Página de la Universidad Nacional San Antonio de Areco. Retrieved 03 28, 2022 from https://www.unsada.edu.ar/extension/que-es-la-extension- universitaria#:~:text=La%20extensi%C3%B3n%20universitaria%20es%20una,sectores%20soci ales%20de%20la%20comunidad. LA EXTENSIÓN UNIVERSITARIA Y SU IMPACTO EN LA FORMACIÓN DEL PROFESIONAL. DOCENCIA, INVESTIGACIÓN, CULTURA Y SOCIEDAD Denise Hernández Delgado1, Francely Lamadrid Delgado2, Leonardo Pacheco Sierra3, Lic. Emilio Jesús Viamonte Fernández4. 1, 2, 3 y 4 Universidad Central Marta Abreu de Las Villas Carretera de Camajuaní Km5½ .Santa Clara. Villa Clara. Cuba 2flamadrid@uclv.cu , 3lepacheco@uclv.cu , 4eviamonte@uclv.edu.cu RESUMEN La Universidad, como institución rectora del proceso de formación de un profesional consecuente con el ámbito en que se ve inmerso, se ha visto obligada a perfeccionar y actualizar constantemente sus procesos sustantivos: docencia, investigación y extensión; siendo este último una de las vías mediante las que la Universidad demuestra su carácter de centro cultural de importancia para el desarrollo. Se manifiesta la necesidad de consolidar un nuevo enfoque sobre la interacción social y Extensión Universitaria por el aporte al crecimiento social, la formación de recursos humanos y la producción de conocimientos entendiéndose a estas como la base de cualquier estrategia de desarrollo. El objetivo de la ponencia es describir el papel de la actividad extensionista como proceso sustantivo de las universidades en la preparación del estudiante, así como su influencia en el desarrollo y transformación de la sociedad. Se emplearon como métodos de orden teórico el análisis documental y la sistematización, los cuales permitieron organizar y extraer información relevante. Se replanteó el concepto de extensión, denotando su contribución a la calidad y pertinencia de la institución universitaria y se reafirmó a la extensión como compromiso con la transformación social. Se concluye que las potencialidades del trabajo cultural comunitario flexible, interactivo, dinámico y adecuadamente coordinado desde la extensión universitaria, propicia la obtención de mayores niveles de desarrollo cultural y favorece la formación de un profesional que sea portador de los mejores valores culturales, y acaezca en actor social activo en la solución de los problemas que afectan a la sociedad. Palabras Clave: Extensión Universitaria; Sociedad; Transformación, Formación. UNIVERSITY EXTENSION AND ITS IMPACT ON PROFESSIONAL TRAINING. TEACHING, RESEARCH, CULTURE AND SOCIETY ABSTRACT The University, as the governing institution of the process of training a professional consistent with the field in which he is immersed, has been forced to constantly improve and update its substantive processes: teaching, research and extension; the latter being one of the ways through which the University demonstrates its character as a cultural center of importance for development. The need to consolidate a new focus on social interaction and University Extension is manifested for the contribution to social growth, the training of human resources and the production of knowledge, understanding these as the basis of any development strategy. The objective is describe the role of the extension activity as a substantive process of the universities in the preparation of the student, as well as its influence on the development and transformation of society. Documentary analysis and systematization were used as theoretical methods, which allowed organizing and extracting relevant information. The concept of extension was reconsidered, denoting its contribution to the quality and relevance of the university institution and extension was reaffirmed as a commitment to social transformation. Conclusions: The potential of flexible, interactive, dynamic and properly coordinated community cultural work from the university extension, favors obtaining higher levels of cultural development and the formation of a professional who is a bearer of the best cultural values, and becomes an active social actor in the solution of the problems that affect society. Keywords: University Extension; Society; Transformation, Training. 1. Introducción La sociedad, en su desarrollo, tiene necesidades que son encomendadas a diversas instituciones educativas entre las que se encuentra la universidad. Desde sus orígenes, las universidades han sido reconocidas como instituciones que atesoran todo el conocimiento que la humanidad acumula, a lo que se encuentra estrechamente ligada la protección y el fomento del saber. En la actualidad existen marcadas diferencias entre las condiciones del mundo moderno y el de hace apenas unas décadas, dadas por el complejo proceso de globalización que vive la humanidad. En cierta medida, la dinámica de estas nuevas condiciones incide en la pérdida de valores del ser humano y en el alejamiento de su verdadera dimensión humanista. El panorama anterior tiene gran repercusión en la Educación Superior, retándola a cambiar y desarrollar nuevas políticas y estrategias para dar respuesta efectiva a los más urgentes problemas económicos y sociales. Para que las Instituciones de Educación Superior puedan lograr su empeño de contribuir al desarrollo y obtener la excelencia académica deben integrar adecuadamente sus tres funciones sustantivas: la docencia, la investigación y la extensión universitaria; y, al mismo tiempo, tener en cuenta un problema vinculado a la sociedad y a la cultura: La necesidad de elevar el desarrollo cultural de la población. Preservar y desarrollar la cultura es una necesidad de la sociedad y constituye el encargo social de la universidad. Esta función básicamente se cumple a través de la extensión universitaria, proceso que, como parte del sistema de interacciones Universidad-Sociedad, tiene el propósito de promover la cultura en la comunidad intra y extra universitaria para interrelacionado con los demás procesos principales de la educación superior, contribuir a su desarrollo cultural (Ministerio de Educación Superior, 2004). Se le concede a esta un carácter estratégico para la elevación creciente de la calidad de vida de la comunidad universitaria en la interacción con la sociedad. Es imprescindible volver la mirada hacia la formulación de una política institucional de la Interacción Social y Extensión Universitaria considerando la docencia, la investigación y los servicios integrales universitarios, como subsistemas con relacionamiento, dependencia y sinergia mutua, solo esta comprensión generará el potenciamiento de sus actividades. La Educación Superior exige poner los conocimientos en función de la solución de problemas y transformar la sociedad en aras de un mayor desarrollo y justicia social por lo que la universidad debe ser una institución cultural que tiene, como componente del cuerpo social, una marcada responsabilidad con la sociedad que se concreta en actuar por el mejoramiento económico, político, social y cultural como sistema de vida del pueblo, no puede conformarse con el desarrollo de sus procesos de docencia e investigación, sino que también requiere desarrollar el proceso de extensión para dar cumplimiento a su encomienda social, y así promover la elevación del nivel cultural a partir de la participación del hombre como agente activo de su propio desarrollo. La presente investigación tiene como objetivo describir el papel de la actividad extensionista como proceso sustantivo de las universidades en la preparación del estudiante, así como su influencia en el desarrollo y transformación de la sociedad. Situada en igual plano de horizontalidad con la Docencia y la Investigación, ha sido subestimada por el desconocimiento de muchos de las potencialidades de su alcance. Hoy día ya esta función es reconocida como una de las dimensiones críticas que debe influir en la conformación y vitalidad de la Educación Superior en el mundo en el presente siglo. Este reclamo ya se traduce en una estrategia conducente a redefinir el rumbo de las instituciones de Educación Superior en lo referido a su contribución al desarrollo y al logro de su propia excelencia. Todo apunta a considerar como uno de los factores decisivos para la realización de este empeño el logro de una adecuada integración de sus tres funciones sustantivas: la docencia, la investigación y la extensión universitaria; considerando además la evidencia que arrojan algunos estudios sobre un problema vinculado a la sociedad y la cultura: la necesidad de elevar el desarrollo cultural de la población, lo que también forma parte del encargo social de la universidad, que no encuentra solución sólo en las funciones de docencia e investigación, y se tiene entonces que, para cumplir plenamente dicho encargo, promover la cultura que preserva y desarrolla por medio de la Extensión. Preservar la cultura y desarrollarla es una necesidad intrínseca de la sociedad, y constituye el encargo social de la universidad, vista ésta como unidad superior de cultura, que sin ser la única que tiene esa misión, sí es la fundamental. De hecho, en las sociedades modernas, la universidad es uno de sus componentes principales, de ahí que esté presente en casi todas las naciones contemporáneas condicionada a la situación de cada una de ellas. Este reconocimiento resulta totalmente justificado desde el momento mismo que se identifican los actores protagónicos involucrados en el acto de dar respuesta a este importante reto, impuesto además a la universidad contemporánea por el impetuoso desarrollo científico-tecnológico del mundo moderno. En este reparto juegan un importante y decisivo papel cada docente, investigador, estudiante, administrativo y trabajador de apoyo a las actividades emprendidas por la universidad (Mederos, 2002). 2. DESARROLLO Materiales y métodos Se utilizó una red de indagaciones y de esta se aplicaron instrumentos como, la encuesta a estudiantes la observación, lo que posibilitó identificar las necesidades y potencialidades respecto a la situación de promoción de la cultura, lo que permitió el establecimiento del modelo Así mismo, se tomó el criterio a especialistas que posibilitó constatar los resultados. Se emplearon como métodos de orden teórico el análisis documental y la sistematización, los cuales permitieron organizar y extraer información relevante a partir de la amplia revisión bibliográfica realizada sobre el tema. Teniendo como base los principales gestores de información y recursos disponibles se utilizaron como términos preferentes: extensión y gestión universitaria. Resultados y discusión El Dr. Fernando Vecino Alegret en 1994 apuntaba: “Más que por definición, por los resultados, la Extensión Universitaria debe realmente ocupar el rango de vertiente principal de trabajo de la educación superior, de manera que se haga cada día más efectiva la interacción universidad-sociedad y que ambas se influyan y transformen mutuamente(…)Quien no le brinde hoy la atención y la prioridad necesaria a la Extensión Universitaria no sólo está limitando el papel que le corresponde como alta casa de estudio, sino que no podrá librarse de ser severamente juzgado por la historia”. Son numerosas las causas que con frecuencia se mencionan como obstáculos para el desarrollo de la Extensión Universitaria, las cuales en muchos casos coinciden con las tratadas en la escasa bibliografía sobre el tema. Entre estas vale mencionar las siguientes:  La ausencia de una cultura extensionista.  Discurso optimista de las autoridades universitarias que no se corresponde con la prioridad que realmente se le concede a esta función.  La Extensión no consigue ser asimilada como función de las instituciones de educación superior, y es poco comprendida por profesores, estudiantes y dirigentes universitarios.  La Extensión es vista como un complemento, como una prestación de servicios sociales con carácter asistencial.  Para los analistas de la universidad en los países desarrollados, los nuevos paradigmas tienden, además de ver la Extensión como la prestación de un servicio, a identificar el vínculo Universidad- Sociedad en la perspectiva de la relación Universidad-Industria y Universidad-Empresa a partir de una concepción neoliberal.  No existe integración entre las tres funciones sustantivas: docencia, investigación y extensión. Docencia-Investigación-Actividad Extensionista por el desarrollo sostenible Las competencias que deben fortalecerse para alcanzar tal participación activa de los actores universitarios y comunitarios en la extensión son, entre otras: la capacidad de interpretar el contexto económico y social en función de identificar los problemas, el trabajo en equipo, la comunicación efectiva, la toma de decisiones basada en análisis como punto supremo de participación, la imparcialidad, la búsqueda de la objetividad en las valoraciones y el manejo ético de la información. La formación de los actores en función de la labor extensionista está llamada a coadyuvar a delimitar lo propiamente extensionista. Las posiciones más divergentes se derivan de las posturas extremas que apuntan a considerarlo como “todo lo que se hace fuera de la universidad” o a limitarlo solamente a lo que se refiere estrictamente a la “cultura artística y literaria”. Los autores ratifican que la extensión universitaria como proceso, tiene personalidad propia y aporta elementos netamente extensionistas, delimitados a partir de la consideración de que es aquello cuyo objetivo, como categoría rectora, se dirige a promover cultura (Stein, 2018). La decisión de Cuba de refrendar en Naciones Unidas su compromiso con la implementación de la Agenda 2030 de Desarrollo Sostenible y sus 17 objetivos dirigidos a promover el progreso humano inclusivo y la armonía con la naturaleza, en su articulación con las bases del Plan Nacional de Desarrollo Económico y Social, a partir de su Visión, Ejes y Sectores Estratégicos definidos hasta el 2030, da continuidad a la postura asumida históricamente por la Revolución cubana en este ámbito. Un enfoque del bienestar humano más allá de los ingresos percibidos requiere tener en cuenta a la hora de medir el crecimiento, por ejemplo, además del nivel económico de las personas, los requerimientos implícitos en las dimensiones social y ambiental. El cumplimiento de la agenda 2030 y sus 17 objetivos exige que cada vez se incorporan más proyectos e iniciativas, desde todos los ámbitos y posiciones, para la búsqueda de soluciones a los problemas tan acuciantes que engloba y desde la perspectiva de potenciar la participación de las personas y las comunidades en la solución de los problemas. En tal sentido, se impone trabajar con mucha fuerza, esencialmente en la educación cívica y ciudadana, en el logro de una inclusión social desde la educación, en el establecimiento y desarrollo de habilidades socio-emocionales en el estudiante, para que tales desarrollos se reviertan posteriormente en su actuación ciudadana, buscando accionar sobre los conocimientos teóricos y prácticos que propicien en ellos la educación para el desarrollo sostenible y los estilos de vida sostenibles. En consecuencia, las universidades requieren continuar instrumentando las líneas fundamentales que se venían perfilando con respecto a cómo concretar el Objetivo de Desarrollo Sostenible número cuatro, que es específico de la educación, y aquellos restantes objetivos que hacen aportaciones o plantean demandas asociadas a una educación de permanente calidad para todos durante toda vida. La extensión universitaria está llamada a convertir en bitácora de su labor estos objetivos, mediante la promoción de cultura en su más amplia acepción, a partir de las formas organizativas que emplea para su gestión, tributando directamente a la solución de problemas de las comunidades y a la formación de valores en los profesionales que se forman en ellas. Tales acciones requieren de un personal con una actuación extensionista cada vez más consciente, y tal propósito pasa inexorablemente por su formación para desplegar este proceso (Mercedes González Fernández-Larrea, 2021). La extensión universitaria ha de favorecer la universidad innovadora que queremos promoviendo el cambio y la transformación sociocultural de su entorno y de la propia universidad, lo que se viabiliza al convertir en desafíos de la universidad, tres paradigmas: desarrollo humano sostenible, cultura de paz y educación permanente. Para que la universidad, como institución académica, pueda cumplir su encargo social (preservar, desarrollar y promover la cultura de la sociedad) tiene que desarrollar un sistema de interacciones recíprocas con la misma que engloba necesariamente a las misiones de la universidad, entiéndase docencia, investigación y extensión. A cada una corresponde un conjunto de esas interacciones; ellas parten y se nutren del referente social y sus resultados se revierten en ellas; el componente extensionista se convierte, a partir de su práctica, en el elemento dinamizador que facilita el flujo continuo de conocimientos compartidos entre la universidad y la sociedad, que los enriquecen mutuamente (Carpio, 2021). De esta manera quedan claramente identificados una serie de objetivos que debe plantearse la universidad dentro de su misión a la hora de replantearse su quehacer en el campo de la Extensión. Entre ellos, los más significativos, según nuestro criterio, son los siguientes:  Articular la docencia y la investigación con las demandas intra y extrauniversitarias, buscando el compromiso de la comunidad universitaria con los intereses y necesidades de la sociedad organizada en todos los niveles y categorías (profesionales, organizaciones populares, sindicatos, órganos públicos, empresas y otros organismos); apuntando a una producción de conocimientos resultantes de la comparación con la realidad, con la permanente vinculación entre la teoría y la práctica;  Democratizar el conocimiento académico y la participación efectiva de la Sociedad en la vida de la Universidad;  Incentivar la práctica académica que contribuya para el desarrollo de la conciencia social y política, formando ciudadanos profesionales; Participar críticamente de las propuestas que apunten al desarrollo regional, económico, social, ambiental y cultural;  Contribuir para reformulaciones en las concepciones y prácticas curriculares; favorecer la reformulación de «sala de aula», que deja de ser el lugar privilegiado para el acto de aprender, y adquiere una estructura ágil y dinámica, caracterizada por la interacción recíproca de los docentes, estudiantes y sociedad, la cual puede ocurrir en cualquier espacio y momento, dentro y fuera de los muros de la universidad;  Estimular la cooperación interinstitucional;  Estimular la producción de material de divulgación adecuado a las diferentes áreas del conocimiento;  Priorizar aquellas iniciativas que presentan soluciones para los problemas que sean identificados con la participación de la comunidad universitaria y del entorno social. Extensión Universitaria, Trabajo Comunitario y Promoción Cultural En el contexto universitario la extensión universitaria es el proceso relacionado directamente con transferencia de información hacia y desde la comunidad, consultorías u otros servicios, actividades de desarrollo cultural comunitario, y, en general, todas las actividades de producción de bienes y servicios que realiza la institución mediante las relaciones con la comunidad, nación y región. El trabajo cultural comunitario puede y debe influir en la cultura ciudadana, en los valores cotidianos identificados por nuestros padres y abuelos como moral y cívica, en la disciplina social-personal y en el uso efectivo de las redes sociales para facilitar procesos de participación en el desarrollo local. El trabajo cultural comunitario desde el enfoque participativo y descentralizado permite mejores resultados. En líneas ya trabajadas por los grupos coordinadores de proyectos comunitarios existentes, se aprecian importantes resultados en temáticas como el mejoramiento de las condiciones de vida, el desarrollo de experiencias de economía local, la educación urbana de niños y jóvenes, la identidad comunitaria, desarrollo de la agricultura urbana, el trabajo de prevención social, la conservación del medio ambiente y acciones específicas para los diferentes grupos sociales (Guanche Pérez, 2017). La universidad cubana actual está en mejores condiciones de apropiarse de los métodos propios del trabajo cultural comunitario, pues la existencia misma de profesionales formados en carreras que abordan el tema desde las ciencias sociales como instructores de arte, especialistas en estudios socioculturales y promotores culturales, así como otros afines como los comunicadores sociales y psicólogos, constituyen un potencial significativo para el cumplimiento total y cabal de los objetivos que desde el Programa Nacional de Extensión Universitaria se han propuesto (Programa Nacional de Extensión Universitaria, 2004). La extensión universitaria como proceso tiene como objetivo promover la cultura de la profesión, la socialización de investigaciones, el quehacer artístico y deportivo de la comunidad universitaria. Reflejado en la transformación de los contextos, desde la sede central hasta los Centros Universitarios Municipales. La gestión de actividades extensionistas en cada una de las estructuras organizativas, necesita para su concreción, la participación activa y articulada de estudiantes y profesores, el apoyo de organizaciones no gubernamentales, la colaboración de la red de instituciones culturales y deportivas. En la proyección de la Extensión hay que tener presente que no se trata sólo de desarrollar culturalmente a la población extrauniversitaria, sino también a la comunidad intrauniversitaria, que tiene como tal sus propias necesidades. Cuando se habla de comunidad intrauniversitaria no se refiere únicamente a los estudiantes y profesores, se trata de toda la población universitaria. Tanto la extensión intra como extrauniversitaria deben desarrollarse paralelamente. El encargo social de la universidad no queda satisfecho sólo con la preservación y creación de la cultura. Es necesario complementarlo con la promoción de ésta para garantizar la satisfacción de las necesidades crecientes de la colectividad humana, y con ello propiciar su desarrollo cultural. Justamente de esto se trata cuando hablamos de Extensión Universitaria, y es lo que le da su carácter de función en tanto expresa la cualidad externa de los procesos universitarios, o sea, promueve la cultura de la sociedad en correspondencia con sus necesidades de desarrollo cultural. Las consideraciones hechas nos permiten a continuación referirnos a algunas de las funciones generales de la Extensión Universitaria como función básica dentro del quehacer universitario contemporáneo:  Propiciar que las diferentes formas organizativas de la formación profesional contribuyan a que los estudiantes profundicen en los conocimientos de la historia, desarrollen una ética y un sentimiento de identidad nacional, se apropien de la cultura de su profesión, adquieran conocimientos de cultura general, y a la vez sean promotores culturales en las distintas etapas de estudio en que se vinculan con la práctica social.  Coordinar y realizar, de conjunto con los factores implicados, las acciones de superación profesional de los graduados universitarios y de la población en general, en correspondencia con las necesidades socioeconómicas del territorio y del país, con los avances de la ciencia, la técnica, el arte y el deporte, así como con las necesidades espirituales de la sociedad, de manera que se ofrezcan alternativas viables para la educación permanente o continua de la comunidad por medio del sistema de educación posgraduada y los cursos de extensión universitaria.  Difundir los resultados científicos, los nuevos conocimientos que se produzcan, los proyectos de investigación y la información científico-técnica con el objetivo de su rápida transmisión, introducción o sistematización como conocimiento en el medio universitario y en la práctica de su entorno social.  Propiciar una programación variada y sistemática de opciones culturales y recreativas, dirigidas a fomentar aficiones y al empleo del tiempo libre en función del desarrollo cultural de la comunidad intra y extrauniversitaria. Entre esas opciones se incluyen las que se ofrecen tanto por la universidad como por otras instituciones sociales y culturales del territorio, o por todas a la vez.  Promover la interacción Universidad-Sociedad en las diferentes expresiones de la cultura sobre la base de la coordinación con las demás instituciones culturales de los territorios y de la universidad, el acercamiento a artistas, intelectuales y otros profesionales que realizan su labor dentro o fuera de la misma, y la relación con los proyectos culturales comunitarios que de conjunto se establezcan con el fin de enriquecer la vida sociocultural de la comunidad y de la universidad.  Atender el sistema de la cultura física y el deporte en sus más diversas formas con el propósito de la preparación física, la promoción de la salud y la cultura física de la comunidad universitaria y la de su entorno social, así como del desarrollo del deporte de calidad en los diferentes niveles, y la satisfacción de las necesidades de superación de los profesionales de la cultura física.  Crear y asegurar el funcionamiento sistemático de las instituciones culturales universitarias, identificadas éstas como unidades o agrupaciones artísticas, como cátedras honoríficas, o también como locaciones para la promoción y realización artística, teniendo como premisa fundamental la calidad.  Difundir y divulgar los resultados más relevantes de la educación superior, el quehacer de la vida universitaria y social, y las actividades extensionistas en la universidad y en la comunidad, para información de la población universitaria y la de su entorno. Extensión universitaria y comunicación La Extensión, como proceso de interacción humana, redimensiona su consideración como resultado de la actividad y la comunicación. La Extensión es actividad en tanto persigue como objetivo la transformación consciente del medio; quiere esto decir que no sólo pretende la contribución a la transformación de los procesos en que interviene en la universidad, y de la universidad en sí misma, sino también contribuye a la transformación de la sociedad mediante su propia participación en el desarrollo cultural. Por otro lado, es comunicación en tanto se desarrolla mediante la interacción social, a través de símbolos y sistemas de mensajes que se producen inmersos en la actividad humana. Esto permite el intercambio de información que hace consciente el proceso, en este caso de Extensión Universitaria. El desarrollo cultural es consecuencia de la comunicación educativa de las ideas y realizaciones del hombre. Al asumir que se produce mediante la actividad y la comunicación se ratifica que la Extensión Universitaria, como proceso de interacción social, conlleva a que ninguna de las partes supere a la otra y que ambas se enriquezcan y desarrollen, eludiendo así criterios de algunos autores que, con sus concepciones, reconocen a la universidad como «poder del saber», y a la sociedad como el receptáculo para colocarlo. La comunicación institucional enfoca principalmente productos de información para difusión masiva. Es una comunicación vertical que permite pocos intercambios. La comunicación para el desarrollo facilita procesos de comunicación. Es una comunicación horizontal que promueve el diálogo dentro de los proyectos y programas. Más que una disciplina de la comunicación es una tarea compartida entre especialistas de desarrollo y comunicadores. Para las Actividades extensionistas se sugiere establecer la comunicación para el desarrollo (conocida como C4D por su traducción del inglés Communication for Development) es una herramienta para la incidencia social y política. Promueve la participación y el cambio social con los métodos e instrumentos de la comunicación interpersonal, los medios comunitarios y las modernas tecnologías de la información. La C4D no es un añadido sino una actividad transversal en la gestión de proyectos, para fortalecer el diálogo con los beneficiarios, socios y autoridades con el fin de aumentar la apropiación local de los programas y crear un impacto sostenible. A diferencia de la comunicación institucional, la C4D no solo se desarrolla en el campo de mensajes cognitivos, sino también en el área de las emociones: Teatros callejeros, eventos culturales, cabildos abiertos, concursos escolares tienen fuertes componentes lúdicos y emocionales. Transmiten mensajes que entran por todos los sentidos. Es sabido todos lo difícil que es recordar mensajes abstractos de textos y discursos y lo fácil que es memorizar algo que hemos vivido y sentido. Ahí está el secreto del impacto sostenible de la C4D: Invita a aprendizajes que envuelven los sentidos. Con esto, la C4D responde a una debilidad común a los proyectos de desarrollo, que suelen basar su apuesta de cambio exclusivamente en procesos institucionales, leyes, lineamientos, manuales y capacitación técnica, y que suelen olvidar que el cambio también requiere una capacitación emocional, una capacitación que entra por la mente y por el corazón, una capacitación que moviliza al igual a niños y adultos, a analfabetos y estudiados, a gente del campo y de la ciudad. Para su implementación se puede hablar de las siguientes herramientas: Comunicación interpersonal  Cabildo abierto  Visita de igual a igual; por ejemplo, de campesino a campesino  Feria de productos  Concurso público  Evento cultural  Semana temática  Creación colectica de un mural  Teatro callejero  Muestra fotográfica Medios impresos y electrónicos  Productos impresos  Afiches/banderolas  Radios comunitarias  Televisión/video Medios nuevos/Multimedia  Página web  Historia digital  Boletín electrónico  Medios sociales: Facebook, Twitter, Youtube  SMS/Mensajes de texto  Correo electrónico  Podcast/Redifusión multimedia  Blog  Juegos didácticos en la web (Comunicación pa el Desarrollo una Guía Práctica, 2016) Figura 1. Uso de medios sociales en la Comunicación Fuente: (Comunicación pa el Desarrollo una Guía Práctica, 2016) 3. CONCLUSIONES Preservar la cultura y desarrollarla es una necesidad intrínseca de la sociedad, y constituye el encargo social de la universidad, vista ésta como unidad superior de cultura, que sin ser la única que tiene esa misión, sí es la fundamental. El encargo social de la universidad no queda satisfecho sólo con la preservación y creación de la cultura. Es necesario complementarlo con la promoción de ésta para garantizar la satisfacción de las necesidades crecientes de la colectividad humana, y con ello propiciar su desarrollo cultural. La Extensión, como proceso de interacción humana, redimensiona su consideración como resultado de la actividad y la comunicación. La Extensión es actividad en tanto persigue como objetivo la transformación consciente del medio; quiere esto decir que no sólo pretende la contribución a la transformación de los procesos en que interviene en la universidad, y de la universidad en sí misma, sino también contribuye a la transformación de la sociedad mediante su propia participación en el desarrollo cultural. Por otro lado, es comunicación en tanto se desarrolla mediante la interacción social, a través de símbolos y sistemas de mensajes que se producen inmersos en la actividad humana. Aportar la extensión universitaria en la vida universitaria de los estudiantes permitirá formar a un profesional integral que se incline por el desarrollo social, cultural y económico. 4. REFERENCIAS BLIBLIOGRÁFICAS MINISTERIO DE EDUCACIÓN SUPERIOR. (2004). Programa Nacional de Desarrollo de la Extensión Universitaria. La Habana. CARPIO, L. J. (2021). Modelo de interacción social y Extensión Universitaria para la Facultad de Ciencias Económicas y Empresariales de la USFX. México : Ciencia Latina Revista Científica Multidisciplinar. Comunicación pa el Desarrollo una Guía Práctica. (2016). Agencia Suiza para el Desarrollo y la Cooperación (COSUDE. GUANCHE PÉREZ, J. ( 2017). El trabajo cultural comunitario: desafíos y sostenibilidad (I) y (II). . Cuba : Edición Nro. 821 y 822 - UNEAC. . MEDEROS, J. F. (2002). la extensión universitaria:función integradora del quehacer universitarioen el presente siglo. Barranquilla, Colombia: Investigación & Desarrollo. MERCEDES GONZÁLEZ FERNÁNDEZ-LARREA, D. E. (2021). LA FORMACIÓN DE ACTORES DE LA EXTENSIÓN UNIVERSITARIA: RETOS. Programa Nacional de extensión Universitaria. (2004). STEIN, N. S. (2018). La extensión– comunicación universitaria disputando el lugar de la investigación comofuente de conocimiento. Un recorrido históricohasta los enfoques actuales. Buenos Aires, Argentina: +E: Revista de Extensión Universitaria, . 1 PATRIMONIO CULTURAL UNIVERSITARIO. GESTION DEL CONOCIMIENTO EN LA COMUNIDAD CUJAE Ada Esther Portero Ricol1, Ricardo Machado Jardo2 1, 2 Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE Calle 114 # 11901 / Ciclovía y Rotonda, Marianao, La Habana, Cuba 1adaestherportero@gmail.com RESUMEN Esta comunicación brinda un acercamiento a la conservación del patrimonio cultural universitario y al vínculo indisoluble que tiene con la memoria histórica de su comunidad. Demostrar la incidencia del conocimiento sobre el patrimonio cultural en la formación de los estudiantes, así como su relación con la preservación de la identidad de la comunidad universitaria y la suya propia, es el objetivo principal que se persigue en esta comunicación. En la misma se exhibe la relación entre los tres procesos sustantivos universitarios en la Universidad Cubana y la forma en que desde ellos se favorece la gestión, creación y actualización del conocimiento para fomentar en estudiantes, trabajadores y profesores el cuidado y protección del patrimonio material e inmaterial que se “descubre” en la Cujae. Finalmente se concluye sobre el papel vital que desempeña la trasmisión intencionada de los conocimientos correctos en la comunidad universitaria para favorecer el incremento del sentido de pertenencia y la identidad en dicha academia, se incide en el papel que deben desempeñar las autoridades competentes respecto a la salvaguarda y protección del patrimonio material e inmaterial de las universidades, la necesidad de sistematizar la protección y la creación de grupos que se dediquen a este menester en los centros cubanos de altos estudios, para contribuir a recopilar y conservar la memoria de las comunidades universitarias y con ello a la selección de historias no contadas de una parte muy valiosa de la sociedad cubana. PALABRAS CLAVES: conservación, universidad, patrimonio cultural. UNIVERSITY CULTURAL HERITAGE. KNOWLEDGE MANAGEMENT IN THE CUJAE COMMUNITY ABSTRACT This article provides an approach to the conservation of university cultural heritage and the indissoluble link it has with the memory of its community. Demonstrating the impact that knowledge of cultural heritage has on student training, as well as its relationship with the preservation of the identity of the university community and its own is the main objective pursued in it. The communication exhibits the relationship between the three substantive university processes in the Cuban University and the way in which they favor the creation and updating of knowledge to encourage students, workers and teachers to care for and protect the material and immaterial heritage that is "discovered" in the Cujae. Finally, it concludes on the vital role played by the intentional transmission of correct knowledge in the university community to favor the increase of the sense of belonging and identity in said academy, it focuses on the role that the competent authorities must play regarding the safeguard and protection of the tangible and intangible heritage of universities, the need to systematize the protection and creation of groups dedicated to this task in Cuban centers of higher education, to help collect and preserve the memory of university communities and with this to the selection of untold stories of a very valuable part of Cuban society. KEY WORDS: conservation, university, cultural heritage. 2 1. INTRODUCCIÓN Es conocido que el patrimonio1 es el conjunto de bienes naturales y culturales que se reciben de las generaciones anteriores y que corresponde conservarlos en sus atributos fundamentales o transformarlos adecuadamente para poder trasmitirlos a las generaciones futuras. El patrimonio cultural2 es un conjunto de valores y formas de vida, materiales y espirituales de un grupo social a través de bienes muebles e inmuebles. Conjunto de bienes materiales e inmateriales que constituyen la herencia de un grupo humano que refuerzan emocionalmente su sentido de comunidad con una identidad propia y son percibidos por otros como característicos. Por todo lo anteriormente dicho, es que se confirma por esta autora la idea de que las universidades forman parte del patrimonio cultural de cualquier región o nación. Se insiste además en la importancia de la promoción cultural y la divulgación que se le debe dar entonces al patrimonio que atesoran dichas instituciones. En las universidades europeas la conservación de su patrimonio material e inmaterial es algo altamente investigado, sistematizado y muy reconocido. Sobre todo, es muy importante, entre otros aspectos, por la antigüedad de dichas instituciones, muchas ya declaradas como patrimonio mundial por la UNESCO. Esta declaratoria es consecuencia de los valores universales excepcionales que poseen. Entre estas universidades se pueden listar:  1987: Monticello y Universidad de Virginia en Charlottesville (Estados Unidos)  1998: Universidad y recinto histórico de Alcalá de Henares (España)  2000: Ciudad universitaria de Caracas (Universidad Central de Venezuela)  2007: Campus central de la Ciudad Universitaria de la Universidad Nacional Autónoma de México  2013: Universidad de Coímbra –Alta y Sofia (Portugal) Existen redes universitarias creadas justamente para intercambiar métodos y resultados sobre la clasificación y experiencias en este campo entre las que se encuentran, por ejemplo: la RED UNIVERSEUM, creada en el año 2000 con 12 universidades europeas y se instaura oficialmente en el 2010 a partir de una asociación del estado bajo leyes francesas (http://universeum.it). También la Universidad Politécnica de Madrid tiene la red PHI que integran más de 10 universidades latinoamericanas y españolas, para trabajar de conjunto sobre la conservación del patrimonio histórico cultural iberoamericano y contribuir a su promoción. No pasa lo mismo en América Latina, debido, entre otros aspectos, a que sus universidades aún son más jóvenes, mucho menos en Cuba donde aún no se tiene plena conciencia de la importancia de este patrimonio y la incidencia que tiene como parte componente de la historia del país. Tampoco existe un fuero legal que proteja o conlleve a realizar acciones sistematizadas que provoquen o favorezcan la conservación de este patrimonio material e inmaterial tan importante. Las universidades atesoran una gran cantidad de información valiosa de diversa procedencia relacionada con las tradiciones y hechos simbólicos acaecidos en sus predios (2011, Portero y otros). Por lo general no se sistematiza un procedimiento para la recopilación y resguardo de toda esta documentación. Tampoco la comunidad universitaria conoce en muchos casos, de existir, cuáles son las obras protegidas y los valores más sobresalientes de los hechos que han tenido lugar en sus dominios. 1 Conferencia impartida por la Dr. Arq. Isabel Rigol a estudiantes ingleses en un intercambio Académico coordinado por la Facultad de Arquitectura de la Cujae, en junio 2012. 2 Conferencia impartida por la Dr. Arq. Isabel Rigol a estudiantes ingleses en un intercambio Académico coordinado por la Facultad de Arquitectura de la Cujae, en junio 2012. 3 La Universidad Tecnológica de La Habana “José Antonio Echeverría”, Cujae, posee nueve obras registradas por la Oficina Nacional de Registro que pertenece al MINCULT. Las obras poseen grados de valor entre uno y tres y se encuentran ubicadas en la Sala Histórica, en áreas exteriores de la universidad y en la Facultad de Arquitectura. …La CUJAE es un monumento al estudiante engendrado en una revolución, símbolo de superación; que ha alcanzado un alto prestigio en la educación a escala nacional e internacional. Toda esta connotación es el resultado de una eficiente planificación del ministerio de educación, con sus planes de estudio; y la perfecta relación de la arquitectura con el estudiante, del espacio con la función, en un contexto idóneo para el intercambio social y el estudio… (Cárdenas y Rojas, 2011) El conjunto urbano arquitectónico de la Cujae, está considerado como una de las obras más importantes del Movimiento Moderno del país, registrada en el libro “La Arquitectura del Movimiento Moderno. Selección de Obras del Registro Nacional”, donde su editor, el Arq. Eduardo Luis Rodríguez, presenta 150 de las edificaciones más sobresalientes construidas entre los años 1931 y 1979 en Cuba. (Rodríguez, 2011) La Cujae se encuentra ubicada en una Zona Urbana de Valor Histórico Cultural según convenio oficial a escala Nacional. (Chateloin, 2009) Localizar, identificar, clasificar, determinar el estado de conservación del patrimonio material que posee este alto centro de estudios es responsabilidad de todos sus directivos, pero en particular, del Grupo para la Protección y Conservación del Patrimonio Cultural Universitario creado desde el año 2011. También está dentro de las funciones de este grupo el contribuir con la promoción cultural y comunicación, a partir de los propios procesos sustantivos universitarios (Investigación, Formación, Extensión Universitaria) del patrimonio material e inmaterial tanto el registrado como el que se encuentra aún en proceso de clasificar y por tanto registrar. No existe a escala de la Cujae, pero tampoco en el resto de las universidades cubanas un método o sistema para proteger el patrimonio cultural-científico-técnico de las mismas. En la Universidad de la Habana, institución que atesora una gran cantidad de obras registradas, hay un grupo para la protección del patrimonio universitario que trabaja intensamente para sistematizar, dentro de la clasificación que poseen de los diversos elementos de su patrimonio, formas de conservar los mismos. De hecho, se organizó por parte de ese grupo con la colaboración del grupo Cujae, el Primer Seminario Nacional sobre Patrimonio Universitario (marzo 2015) con la participación de representantes de importantes universidades europeas declaradas patrimonio por la UNESCO y también de una gran parte de las universidades cubanas. Se puede decir entonces de forma general que, las universidades se ubican en grandes extensiones de terreno donde existe un amplio uso de los espacios públicos como centros de experimentación para el arte y todas sus manifestaciones culturales, así como para el intercambio social de diversa índole, para el descanso, la reflexión y el esparcimiento. En las universidades no está sistematizada de igual manera la información sobre el patrimonio que atesoran, tampoco las maneras de identificar o registrar las obras de mayor valor son iguales. Sin embargo, las universidades que han sido declaradas por la UNESCO con valores universales excepcionales, organizan y clasifican de forma más clara su patrimonio, así como la protección del mismo. Muchas son las universidades que incorporan museos y jardines botánicos en sus predios, en dependencia de las necesidades académicas, científicas y de promoción social y cultural. Por lo general tienen un alto nivel de diseño en detalles interiores y exteriores y como consecuencia un patrimonio material e inmaterial de igual reconocimiento. 2. DESARROLLO 4 En Cuba, algunas universidades han sido declaradas como monumentos nacionales, entre las que se encuentran la Universidad de la Habana (UH- 1978), la Universidad Martha Abreu de Las Villas (UCLV- 2009) y la universidad de Oriente (UO-2021). A la protección del patrimonio cultural se le presta especial interés en Cuba. Son varios los organismos del estado que se preocupan y organizan la documentación que se debe controlar por parte de cada una de las instancias que se requieren entre los cuales se encuentran: Consejo Nacional de Patrimonio Cultural del Ministerio de Cultura, Oficina de Registro Nacional de Bienes Culturales, Defensa Civil Nacional y el Ministerio de Educación Superior. Sin embargo, la comunidad universitaria no valora de forma adecuada el patrimonio que posee y esto es provocado fundamentalmente por la falta de conocimiento sobre el mismo. El objetivo fundamental que persigue la investigación que realiza el Grupo para la Protección y Conservación del Patrimonio Cultural de la Cujae, y en particular el de este trabajo es, demostrar la incidencia que tiene el conocimiento sobre el patrimonio cultural en la formación de los estudiantes, así como su relación con la preservación de la identidad de la comunidad universitaria y la suya propia. El grupo para la conservación del patrimonio cultural de la Cujae, es un grupo de trabajo (Colectivo de autores, 2012), creado para favorecer la conservación y la protección del patrimonio cultural de la Universidad, entendiendo por patrimonio cultural no solo a los bienes declarados como de utilidad pública e interés social con grados de valor por la Oficina de Registro Nacional de Bienes Culturales de la República de Cuba, institución adscrita al Consejo Nacional de Patrimonio Cultural del Ministerio de Cultura, sino también, al patrimonio material e inmaterial que se encuentran en el espacio considerado como complejo edilicio universitario3 La Cujae es la universidad rectora de las ciencias técnicas en el país. Tiene una cantidad aproximada de 10 350 estudiantes, 2 045 trabajadores, distribuidos en las 9 carreras que se ubican en siete facultades. La experiencia que se describe en este documento y que forma parte de una investigación mayor sobre el patrimonio cultural universitario, está en fase continua de mejora y por tanto tiene la flexibilidad necesaria para favorecer la sistematización de sus resultados. Parte de los resultados que se han obtenido han sido ya presentados en diversos documentos4. En este caso se presentarán las obras registradas y no registradas de la Cujae y cómo se han organizado en un sistema de medios didácticos para contribuir a su promoción cultural. Este sistema se ha conformado a partir de resultados obtenidos en la aplicación de la asignatura electiva de Apreciación del Patrimonio Cultural Universitario (APCU) que se ha impartido en las carreras técnicas de la Cujae, en el periodo comprendido entre el año 2012 y 2015, y que se emplea en la impartición de la misma hasta la actualidad. La asignatura es importante en sí misma a pesar de su condición de electiva, justo porque viabiliza la promoción cultural del patrimonio de la Cujae, y con ello el desarrollo del ethos universitario y la identidad cujaeña, personalizada en cada estudiante y en general en cada miembro de la comunidad Cujae. La pertinencia de la asignatura y su sistema de medios se evidencia a partir de los resultados del diagnóstico desarrollador (Carnero, 2008) realizado por los estudiantes de la asignatura desde el 2011 a la fecha, donde se evidencia el estado deprimido de la preservación y conservación del patrimonio cultural de la Cujae. Un ejemplo palpable es que solo se han podido procesar para registrar oficialmente, 9 obras de valor por la Oficina Nacional de Registros del MINCULT, esta identificación y posterior inscripción ocurrió en el año 1986. Desde el 2012 a la fecha, el grupo para la protección del patrimonio 3 Se entiende como complejo edilicio universitario al sistema compuesto por todos los elementos contenidos en la superficie enmarcada como ISPJAE. Contiene todos los espacios construidos o no, esto es: sus edificios, espacios abiertos, parques, pero también sus valores socioculturales, tradiciones, y a todo lo que se conceptualiza por las leyes de patrimonio cubanas como patrimonio material e inmaterial. 4 “El patrimonio cultural del ISPJAE y su relación con la Disciplina Preparación para la Defensa”. Revista Arquitectura y Urbanismo. Volumen XXXIII, número 3, p. 6-17 del 2012 (ISSN 1815-5898). 5 Cujae ha intensificado su labor para lograr avanzar en el reconocimiento del patrimonio en cada área y en toda la comunidad. Este propósito ha sido bien intenso y complejo, aún queda mucho por hacer, pero realmente se han logrado resultados parciales que quedarán mostrados en esta comunicación. Como parte de la asimilación de los contenidos de la asignatura, los estudiantes, se dedican a la identificación de nuevas obras, en general a la clasificación del patrimonio material e inmaterial relacionado con su carrera. Se han obtenido resultados interesantes que el sistema de medios devela. Las contribuciones de esta asignatura pueden aún considerarse discretas respecto al propósito que tiene el Grupo para la Protección y Conservación del Patrimonio Cultural Universitario en las carreras técnicas de las Ingenierías y Arquitectura en la Cujae, desde su enfoque axiológico, vinculado a los procesos de la producción y servicios garantes de la sostenibilidad de la vida del hombre como ente comunitario. Sin embargo, en cuanto a su didáctica, se significa el sistema de medios que se ha logrado construir en el desarrollo de su Proceso de Enseñanza Aprendizaje, por el carácter de las acciones, resultados educativos y de promoción cultural en los periodos lectivos que ha abarcado. Este es un sistema en constante perfeccionamiento que involucra la interdisciplinariedad de sus participantes (fotógrafo, artistas plásticos, pedagogos, arquitectos, especialista en promoción cultural) El diseño del sistema, sus resultados e impacto se han presentado con éxito en talleres internacionales, fórum, concursos nacionales y universitarios. Los métodos que se emplean en la asignatura mediante los que se ha logrado este sistema de medios son heurísticos con gran apoyo en técnicas participativas, la forma que prima es el taller y dentro de ellos el trabajo en equipos. Posee una frecuencia semanal y consta de 32 horas presenciales. Cierra con un seminario integrador donde cada equipo expone el resultado de su investigación sobre el patrimonio material e inmaterial en su carrera. Los estudiantes organizan el trabajo con la información sobre lo que ya se conocía por parte de estudiantes, trabajadores y profesores y realizan el levantamiento mediante fichas de obras, personalidades y costumbres que identifican y no había sido clasificado con anterioridad. También organizan y clasifican los ejemplares del patrimonio material e inmaterial que ya son conocidos y no han tenido este proceso de ordenamiento de la información. En el periodo comprendido entre marzo del 2014 y marzo 2015 participaron de la asignatura: 70 estudiantes de pregrado de cuatro carreras; talleres internacionales realizados en Cuba con 40 estudiantes argentinos; talleres internacionales en el extranjero (Italia y Colombia en noviembre 2014) 140 cursistas, aproximadamente 250 en total. Como parte de los resultados de estos intercambios y ejercicios evaluativos realizados en la asignatura, se confeccionaron parcialmente los documentos que posteriormente los miembros del grupo han perfeccionado. Estos se listan a continuación y han pasado a formar parte del sistema de medios que se incorporan:  Folleto” Patrimonio Cultural Universitario, 50 años de ciencia y cultura al servicio de la sociedad cubana” en versión digital e impresa. (Portero y otros, 2015)  31 gigantografías diseñadas con los resultados relevantes de la Cujae en los tres procesos sustantivos durante los 50 años que lleva de existencia al servicio de la sociedad cubana.  12 postales (una por cada mes del año) con imágenes seleccionadas de los espacios, edificios y obras registradas de la Cujae.  Calendarios anuales de mesa, bolsillo y pared, con 12 imágenes seleccionadas de las obras patrimoniales registradas de la Cujae y su patrimonio edilicio.  Dos diseños de carpetas-files con el logo de la universidad e imagen seleccionada de una de las entradas principales de la universidad y el monumento a “José Antonio Echeverría”. También se han identificado por parte del propio GPCC y de los estudiantes que han cursado la asignatura, varios artefactos y obras que no han sido registradas. Entre estas se pueden listar, por ejemplo: 6 el conjunto de murales realizados en los muros del edificio del rectorado por Teresita Pedraza, con la técnica del gress cerámico, que reflejan las luchas estudiantiles revolucionarias y sus líderes. Cuadros de José Martí, Antonio Maceo y José Antonio Echeverría, realizados por el artista Yánez y que fueron obsequiados por los Ministros de Educación correspondientes en ocasión de evaluaciones institucionales realizadas a la Cujae en la década de los años 80. Se identificó, a partir de las entrevistas realizadas, que en esa época se le daba gran importancia al acervo cultural de los universitarios y de ahí, que se proporcionaran obras de arte a las universidades con resultados relevantes. Los estudiantes de arquitectura han identificado y fichado en su facultad varios elementos como: un mueble, archivo antiguo con más de 100 diapositivas de cristal proveniente de la Universidad de la Habana, un sillón de madera que estuvo en la oficina de Joaquín Weis de la UH y que fue usado en varias ocasiones por el Prof. Dr. Arq. Roberto Segre, (incluso con referencias de anécdotas sobre el uso del mismo). Los estudiantes de las carreras de ingeniería eléctrica y automática identificaron varios artefactos entre los que se encuentra un amperímetro de madera del S XlX. Se han identificado espacios significativos como los parques y espacios urbanos de la Cujae y lo que hemos dado en llamar, anécdotas urbanas del origen de sus nombres como parque Ampere y el Cenicero, también el paso de los vientos. Además, se ha incorporado recientemente al patrimonio cujaeño el himno de la Cujae compuesto por el dúo artístico cubano “Buena Fé” en saludo al 50 Aniversario, (celebrado el 2 de diciembre del 2014). A medida que han avanzado los años y aumentado la experiencia de los docentes en la impartición de la asignatura se ha comprobado, mediante la aplicación de encuestas a los estudiantes, al inicio y fin de la misma, que al terminar el ejercicio evaluativo conocen más de su carrera y de la Cujae, aprecian más sus raíces y por tanto se sienten más identificados y motivados con la comunidad universitaria a la que pertenecen. Es por esta razón que también se afirma que, mediante el conocimiento que aporta esta asignatura, se forman valores y competencias importantes en los estudiantes de ciencias técnicas. Entendemos además que, esta formación creadora y sistémica, incorpora al patrimonio su esencia de protagonista, favoreciendo el nivel cultural y conocimiento que alcanzan los educandos. Otras acciones que han sido realizadas como parte de la Asignatura para favorecer su promoción son:  Ciclo de conferencias internacionales con el tema de “Conservación del Patrimonio Cultural Universitario. Caso de Estudio: La Cujae. Impartida en las Universidades de Parma, Florencia y Pádova, en el mes de junio 2014 en Italia a más de 150 estudiantes, y en la Universidad Piloto de Bogotá, Colombia, a 100 estudiantes en el mes de noviembre 2014, como parte de seminarios internacionales donde participó la Dr. Arq. Ada Esther Portero Ricol como invitada.  Actividad con el grupo “HUELLAS” (Dirección de Patrimonio Provincial de la Habana), Conferencia “Conservación del Patrimonio Cultural Universitario. Caso de Estudio: La Cujae, donde participaron 50 especialistas de museos y direcciones territoriales de Patrimonio de la Habana. Noviembre 2014, en saludo al 50 Aniversario de la Cujae, dentro del Ciclo de conferencias en saludo al 50 Aniversario de la Cujae, impartido a estudiantes, profesores, trabajadores e invitados.  Confección de un Expediente para el reconocimiento del Patrimonio Cultural de la Cujae ubicada en una zona de Protección del Municipio Marianao. No ISBN 978-959-261-403-1  Folleto” Patrimonio Cultural Universitario, 50 años de ciencia y cultura al servicio de la sociedad cubana” en versión digital con No ISBN 978-959-261-474-1.  Confección del Expediente con el proceso de trabajo y aprobación de la “Estatua de José Antonio para el 50 Aniversario Cujae y otros documentos del patrimonio Cujae con No ISBN 978-959-261- 485-7. 7  Confección de la Monografía sobre “Taller Internacional sobre Apreciación y Fotografía del Patrimonio Cultural” con No ISBN 978-959-261-482-6.  Recopilación y puesta en fichas de los trabajos realizados por estudiantes en las Facultades de: Arquitectura, industrial, civil, mecánica, eléctrica, donde se han encontrado nuevos elementos patrimoniales que están en proceso de catalogación y valoración para presentar a la oficina nacional de registros.  Sistema de Pancartas con los hechos más importantes acaecidos en las universidades tanto a escala internacional, nacional y específicamente en la Cujae en el periodo de desde su fundación hasta cumplir su 50 aniversario (1964-2014) exposición que formó parte del trabajo evaluado de un grupo de informática y arquitectura que fue presentado en la Jornada Científica Estudiantil realizada en mayo 2014 en ambas facultades.  Ampliación de los documentos, artículos y libros existentes hasta febrero 2014 con más de 50 títulos.  Creación del proyecto sociocultural “Proyecto Habana”, que trata sobre el apoyo al conocimiento de la comunidad universitaria de la ciudad desde otra mirada y en particular de los valores materiales e inmateriales que se preservan en la Cujae.  Confección de una estrategia con tareas y acciones para el trabajo a mediano (2019 55 aniversario Cujae) y largo plazo (2024, 60 aniversario Cujae), la cual se controla de modo sistemático para revisar el cumplimiento de tareas anuales que se deben realizar para seguir incrementando y perfeccionando el trabajo que se realiza. Ha quedado demostrado y se ofrece a manera de resumen de esta comunicación y de la investigación que se realiza por el GPCC, que la Cujae que se fundó en 1964 mantiene sus conceptos principales de creación y formación, pero sus funciones y prestaciones han variado con el paso del tiempo. Por esta razón, es que hay que ser consecuentes con la adaptación de sus predios a las nuevas necesidades. Se ha creado un grupo llamado el “Proyecto CUJAE”, que desde el 2012 se ha dedicado a actualizar, levantar y diagnosticar el patrimonio edilicio y realiza estudios y propuestas de proyectos para mejorar, adaptar y perfeccionar el funcionamiento de la universidad a partir de la realidad económica actual. Por todas estas razones antes expuestas es que se insiste en que es acuciante incrementar las acciones encaminadas a recobrar la memoria de la comunidad universitaria que ha sido formada en la Cujae desde la época de su fundación hasta la actualidad y, sobre todo, documentar los hechos más relevantes ocurridos en sus predios, así como todo lo referente al patrimonio material e inmaterial que atesora. La identidad de la comunidad universitaria de la Cujae hacia la propia universidad será directamente proporcional al conocimiento que la misma tenga sobre los valores y hechos relevantes ocurridos en el centro. Es muy importante favorecer la promoción cultural y la potenciación del conocimiento sobre el patrimonio cultural y en particular los aspectos relacionados con su protección y conservación para fortalecer la formación integral de los nuevos ingenieros y arquitectos en la Universidad Tecnológica de la Habana “José Antonio Echeverría”, Cujae. En los últimos años (2020-2022) las condiciones sanitarias producidas por la pandemia del Covid19, han cambiado el mundo y por tanto, incidieron también en nuestro país y en las acciones desarrolladas por la educación superior cubana. Producto de esta realidad también se ralentizaron algunos procesos. No obstante, el interés y conocimientos sobre el patrimonio cultural universitario ha marcado una pauta a seguir y se favorece a partir de resoluciones emitidas por el Ministerio de Educación Superior. De hecho, un elemento importante dentro del sistema patrimonial cubano y la protección que, desde los documentos legales otorga el estado, es la evidencia de que acaba de ser aprobada el 16 de mayo 2022, por la Asamblea Nacional, la Ley General de Protección al Patrimonio Cultural y al Patrimonio Natural (http://www.cubadebate.cu/noticias/2022/05/16/aprobada-ley-general-de-proteccion-al-patrimonio- cultural-y-al-patrimonio-natural/ ). 8 3. CONCLUSIONES 1. El desarrollo, sistematización y socialización de las investigaciones sobre patrimonio cultural científico/universitario a escala internacional y nacional son relativamente recientes. 2. El Patrimonio cultural Universitario es un campo muy amplio, complejo, que hay que valorar y comprender como sistema. 3. No existe un marco teórico conceptual establecido y sistematizado. Tampoco hay resultados relevantes sobre estrategias y políticas claras de protección al patrimonio cultural universitario, que vayan acompañadas de un fuero legal. 4. No existe aún una clasificación tipológica que se tome como paradigma para organizar el patrimonio cultural universitario a escala global, de hecho, no existen en Cuba antecedente sobre este particular. 5. Recuperar la memoria histórica de las universidades cubanas a partir de los tres procesos sustantivos: formación, investigación, extensión universitaria, podría ser una vía para la protección del patrimonio material e inmaterial en dichas instituciones. 6. Es vital organizar un sistema de capacitación para los directivos, profesores, estudiantes y trabajadores que comparten una comunidad universitaria a manera de promocionar el patrimonio y con ello contribuir a su protección y salvaguarda. 7. La gestión del conocimiento sobre el patrimonio cultural de toda la comunidad universitaria favorece su cuidado y fomenta la identidad de las generaciones de estudiantes, así como de los trabajadores y profesores. 8. Una vía necesaria e imprescindible para la protección del patrimonio es justamente la comunicación y la promoción cultural que se haga del mismo. Con el conocimiento amplio del tema se logrará la mejor promoción. 9. El Sistema de medios de enseñanza creado para la asignatura electiva Apreciación del Patrimonio Cultural Universitario relaciona componentes de diferente naturaleza (material e inmaterial) para viabilizar la asimilación del patrimonio cultural de la Cujae en estudiantes e interesados en el tema. De este modo se afianza la memoria histórica de la institución como universidad de referencia en el campo tecnológico. 10. Tanto la asignatura, como su sistema de medios de enseñanza, por el particular de su estructura y funcionalidad, tributan significativamente tanto a la formación integral de ingenieros y arquitectos de la Cujae como a otras comunidades interesadas, dado el valor histórico de la Cujae dentro de la Historia de Cuba y dentro de la educación cubana. 11. Los estudiantes, profesores y trabajadores que han conocido de estos contenidos coinciden con el interés y la importancia que tiene aumentar la comunicación y promoción de estos conocimientos a toda la comunidad universitaria. 12. Se verifica el papel protagónico del patrimonio cultural, y también como creador de los valores identidad, patriotismo, arraigo, entre otros, en la formación de las nuevas generaciones en las universidades y de forma particular en la Cujae. 4. BIBLIOGRAFÍA 1. PORTERO Y OTROS. “Organización para realizar el levantamiento del patrimonio cultural de la Cujae”. Informe en versión digital, 24 páginas. Confeccionado por el grupo para la Protección y la conservación del patrimonio cultural de la Cujae, 2011, p.2 9 2. CÁRDENAS-ROJAS. Expediente de la Cujae para proponerla como Monumento Nacional, realizado en el año 2007 por las Dras. Arqs. Eliana Cárdenas y Ángela Rojas. Documento de trabajo en versión digital, 25 páginas, p.5 3. RODRÍGUEZ, EDUARDO LUIS. “La Arquitectura del Movimiento Moderno. Selección de Obras del Registro Nacional”. ISBN 978-959-209-998-2. Editorial Bologna, 2011. 4. CHATELOIN SANTIESTEBAN, FELICIA. “El patrimonio cultural urbano y el criterio de Centro histórico. Caso de estudio: Ciudad de La Habana”. Documento presentado para optar por el Grado Científico de Doctor en Ciencias Técnicas. Cujae. Biblioteca Cujae, Departamento de Documentación. Documento en versión digital, 2009. 5. COLECTIVO DE AUTORES. Reglamento orgánico del Instituto Superior Politécnico “José Antonio Echeverría”. Capítulo 1. Generalidades, página 1. Artículo 3. términos y definiciones contenidos en el reglamento orgánico, punto 12, p. 3. CUJAE, 2012. 6. CARNERO, Maikel. Modelo para el diagnóstico integral del estudiante de la Educación Técnica y Profesional. Tesis de doctorado. Instituto Central de Ciencias Pedagógicas. La Habana, 2008, p. 17. 7. PORTERO RICOL, ADA ESTHER Y OTROS. Folleto “Patrimonio Cultural Universitario, 50 años de ciencia y cultura al servicio de la sociedad cubana”. Versión Digital e impresa. ISBN 978-959-261-474-1. Editora Cujae, 2015. Sobre los autores Dr. Arq. Ada Esther Portero Ricol. Universidad Tecnológica de la Habana “José Antonio Echeverría”, Cujae. MES. Marianao. Telef 72663254. adaestherporteroricol@gmail.com Arquitecta. Máster en Ciencias, 1994. Doctora en Ciencias Técnicas, 2000. Profesora Titular Tecnología de la Construcción, Rehabilitación y Mantenimiento de Edificaciones. Profesora del Departamento Docente de Extensión Universitaria. Grupo para la Protección y Conservación del Patrimonio Cultural de la Cujae (GPCC). Participa en la Maestría de Vivienda Social, en el programa de Doctorado Curricular de Arquitectura. Pertenece a consejos editoriales de revistas como la revista AU de Cuba, ESTOA de la UCuenca y AUC (FArquitectura y Diseño UCSG de Ecuador, EDA de Italia. Miembro activa de varios comités de expertos CTN24 MICONS, UNAICC, Patrimonio y Comisión Nacional de Grados Científicos. Msc. Arq. Ricardo Machado Jardo. Cujae. La Habana. Cuba. Telef 72663254. rmjardo@tesla.cujae.edu.cu Arquitecto. Máster en Ciencias, 2010. Profesor Asistente Tecnología Construcción, Rehabilitación, Mantenimiento de Edificaciones, Proyecto de la Facultad de Arquitectura. Profesor del Grupo para Protección y Conservación del Patrimonio Cultural de la Cujae. Miembro Distinguido de la Cátedra de Arquitectura Vernácula Gonzalo de Cárdenas. Miembro activo de varios comités de expertos nacionales del Ministerio de la Construcción. Ha sido tutor de más de 50 trabajos de diploma y es autor de más de 60 artículos, comunicaciones. Conferencista en universidades de Colombia, Argentina e Italia. Ha sido profesor en más de 25 talleres internaciones con estudiantes de Europa y América Latina. EL ARTE EN LA EXTENSIÓN UNIVERSITARIA; UNA VISIÓN INTEGRAL EN EL PROCESO DOCENTE EDUCATIVO PARA INGENIEROS Y ARQUITECTOS DE LA CUJAE Isabel Fernández López Universidad Tecnológica de La Habana José Antonio Echeverría. Cujae. Habana, Cuba. isabelitafl@nauta.cu RESUMEN La Apreciación Artística en la Extensión Universitaria de la Cujae, ha sufrido cambios, pues de una enseñanza tradicional, se ha ido hacia nuevas formas y métodos en el proceso de enseñanza aprendizaje, buscando siempre la mayor participación de los estudiantes en este proceso. Se utilizan referentes de investigaciones de la Educación por el Arte, y propuesta constructivista del conocimiento, que, con métodos interactivos, participativos y dialógicos, tienen como finalidad el perfeccionamiento humano. En las asignaturas de Extensión Universitaria, se llevan problemas de investigación, se realizan actividades innovadoras como juegos de roles dramatizaciones, y otros. Se ha llevado a la práctica estos métodos, y los resultados han sido excelentes, a tal punto que han servido de una mayor motivación para los estudiantes si se tiene en cuenta que se trata de alumnos de ingeniería y arquitectura, cuya vocación, dista mucho de las especialidades humanísticas. El objetivo de la investigación es implementar talleres de Apreciación Artística que promuevan espacios para desarrollar capacidades reflexivas, apreciativas, comunicativas y creativas, permitiéndoles sensibilizarse con el arte como vía para su formación general e integral. Para enseñar Arte, se requiere del empleo de métodos que prioricen el rol del estudiante en la dinámica del proceso de enseñanza-aprendizaje, demanda, pues, de un conductor o profesor con un conocimiento coherente y actualizado. Esta propuesta pedagógica de Apreciación Artística para estudiantes universitarios de tecnología, se fundamenta en la Educación por el Arte y está concebido como un espacio de trabajo grupal y permitió sensibilizarse con el arte como vía para su formación general e integral. Palabras claves: Universidad, Integral, Sensibilidad, Arte. ABSTRACT The development of Artistic Apreciation in the of University Extension of CUJAE, has suffered substantial changes. Among them we can find the teaching methods to use in the subjects, which allow implementing an excellent educational process in the Artistic Appreciation Workshops, through participatory techniques and the use of science and technique. The investigation gathers the theorical references this work was based on, where technology students play the leading role in the Arts teaching-learning process. The student feels motivated to develop appreciative, creative, research abilities, in the classes of the Workshop through “problems” and “tasks” to solve; this leads them to develop an artistic sensitivity, as well as to enrich their general and integral culture. Key Words: University Integraty, Sensitive, Art. INTRODUCCCION El desarrollo de la disciplina de Apreciación Artística, en la Dirección de Extensión Universitaria de la CUJAE, ha sufrido cambios sustanciales en los últimos años, pues de una enseñanza tradicional como la impartición de conferencias y clases prácticas, se ha ido hacia nuevas formas y métodos en el proceso de enseñanza aprendizaje, buscando siempre la mayor participación de los estudiantes en este proceso. Por tal motivo se confecciona este programa de taller de Apreciación Artística, en la cual el estudiante podrá resolver problemas de investigación, a través de juegos de roles y tareas. Los fundamentos teóricos y metodológicos que se utilizan como referentes son los principios de la Educación por el Arte, establecidos por algunos autores entre los que se destacan John Dewey, Herbert Read, Victor Lowenfeld, y otros, los cuales plantean teorías acerca de cómo enseñar a través del arte. Estos han tenido continuidad, en otros importantes educadores como Rosa Ma. Ávila, profesora española que hace una propuesta constructivista del conocimiento, y de la cual se habla en este trabajo. También se utilizan textos de Paulo Freire, en los que se nota su influencia por ser un apasionado “constructor de sueños”. Igualmente aparecen algunos enfoques centrados en la teoría de Vigostki, valiosos para enriquecer la información; así como de la Msc. Maria del Carmen Mena Rodríguez, profesora del Instituto Superior de Arte. Todos estos autores fundamentan la incidencia del arte en la formación de la juventud, como posibilidad para reafirmar el sentido de la totalidad humana integrada al medio que lo rodea. Los postulados de estos educadores por el arte tienen como finalidad el perfeccionamiento humano como medio para desarrollar capacidades en el individuo para crear, elaborar, producir desde sus propias vivencias, experiencias y necesidades espirituales. Lo que prevalece en este trabajo es demostrar la importancia de la enseñanza de las artes en un centro como la CUJAE (centro rector de las ciencias técnicas en Cuba), puesto que estimula la sensibilidad, la capacidad de investigar y de interesarse por los temas de la vida en sentido general. Por eso, se basa también en algunos planteamientos de un gran pedagogo como lo es Paulo Freire al decir: “… enseñar exige rigor metodológico, exige investigación, exige respeto a los saberes del educando, exige crítica, exige estética y ética, exige riesgo, asunción de lo nuevo y rechazo, exige reflexión, crítica sobre la práctica… El programa taller de Apreciación Artística al que se refiere, representa un punto de partida para el mejor desarrollo de la enseñanza del arte en la CUJAE, permitiendo validar los objetivos, métodos y conocimientos de la Historia del Arte, para estos estudiantes. Por tanto, el objetivo de este trabajo es: Implementar talleres de Apreciación Artística con técnicas participativas, que permitan al estudiante sensibilizarse a través del arte para su formación científica y humanista. Para esto se vale de un conjunto de métodos interconectados en el campo común de la pedagogía del arte como son: Análisis bibliográfico y de fuente documentaria (audiovisuales) que tributan al estudio en tanto material adecuadamente seleccionado y clasificado. Análisis y comparación (cualitativa) de los modelos didácticos y metódicos utilizados por algunos profesores universitarios de prestigio. Observación participante, a partir de la experiencia y práctica docente en espacios universitarios no artísticos. Inducción –deducción y generalización de datos y presupuestos presentes y/o emergentes en este estudio. Los métodos que se utilizan en las clases son: Interactivo, dialógico y participativo. Las técnicas empleadas fueron: Consulta bibliográfica sobre libros de pedagogía del arte, tesis de maestría, y otros materiales. Encuestas que permiten recoger las opiniones de los estudiantes que han recibido o que van a recibir la asignatura. Entrevistas: a través de cuestionario se logra reunir criterios de algunos profesores que han desarrollado sus experiencias pedagógicas impartiendo clases de Historia del Arte en carreras de humanidades. Historias de vida (a estudiantes) como valioso material cualitativamente propositivo y significativo: testimonial, autobiográfico, de reflexión estética, etc. El problema que existe en la Cujae, un centro de Ciencias Técnicas, es que las asignaturas que son de Arte, y por tanto, no son de la especialidad, resultan difíciles de aceptar por parte de los estudiantes, por eso se hizo necesario cambiar la concepción de las clases, con métodos interactivos, participativos y dialógicos para que el estudiante que se matricula se sienta motivado desde las primeras clases a investigar, a realizar los seminarios con un sentimiento de solidaridad con el resto de sus compañeros, a sensibilizarse con las manifestaciones artísticas y por eso se hace esta propuesta pedagógica de Apreciación Artística, donde el estudiante tiene el papel protagónico, aprende a escribir, a comunicarse con el resto , a desinhibirse por las propias representaciones teatrales que realizan, los juegos de roles y otras tareas. ”En el centro hay antecedentes de introducir en el currículo este tipo de asignaturas, y esta es una ocasión propicia para replantear esta propuesta, pues “un modo nuevo de ver las cosas abre nuevas posibilidades para manejarlas” (Vigotski, 1969). 1 Algunos teóricos de la Educación por el Arte, que echaron los cimientos de esta nueva forma de educación, nos legan teorías y experiencias válidas para nuestros días. John Dewey 2 principal inspirador de este movimiento partía del principio de “Aprender, haciendo” y fundó en Chicago su escuela laboratorio o escuela experimental. Su pedagogía se basaba en la experiencia, pues el arte es una cualidad que impregna una experiencia, y a su vez, la experiencia estética es una manifestación, un registro y la celebración de la vida de una civilización, es un medio de promover su desarrollo. Toda cultura tiene su propia identidad. La experiencia no es la misma en dos personas, y cambia con la misma persona en diferentes momentos. Por tanto, tiene un carácter personal e individual y así sucede en la apreciación artística de cualquier obra de arte, en la que cada estudiante puede interpretar algo diferente de acuerdo con su formación, su cultura, etc. Este nuevo enfoque metodológico se origina con las obras de dos autores muy significativos en el campo de la creación artística: el ingles Read 3 con su libro “Education througt art” (1943) y el austriaco Lowenfeld 4 con su obra “Creative and growth (1947).En ambos trabajos se critica la enseñanza basada en memorizar la información y repetirla posteriormente, y se anima a los alumnos a que cuestionen, busquen respuestas, encuentren la forma y el orden, y reestructuren y desarrollen nuevas conexiones. Se defiende un aprendizaje centrado en el alumno, que se desarrolla más desde las necesidades internas que por los criterios impuestos por el profesor. Aunque las obras de estos dos autores se centran más en desarrollar la imaginación para aprender a percibir el fenómeno artístico que en la comprensión compleja de los fenómenos histórico artísticos, lo cierto es que ambos abrieron una vía alternativa a la enseñanza tradicional de las artes. La experiencia implica reflexión, intereses, valores, afectos, acciones. La experiencia artística es esencialmente axiológica, por lo que en este tipo de Taller se trabaja a través del diálogo que parte de las vivencias, y se propicia la libre expresión como una manera de incentivar y acreditar la creatividad, como requisito indispensable para el disfrute de toda obra de arte. Esta sensibilización se logra a través de la Apreciación Artística. Así realizan dibujos de obras de arte de autores universales, pero recreándolos a través de sus experiencias y su imaginación. Esa es una de las vías que se utiliza en este taller para hacerles vivir sus propias experiencias y así llegar al pleno disfrute de la creación artística o literaria. Esta concepción de la Educación por el Arte se le debe a Herbert Read 5 (1955), que subrayó la importancia de este tipo de educación, no para el arte en sí mismo, sino para la vida misma. El concepto de arte para Read no está separado de las ciencias, lo que propone es la integración en una actividad orgánica. El saber más allá del aula, la vivencia, la experiencia como punto de partida del aprendizaje y la libre expresión, requieren de un enfoque interdisciplinario para su plena realización. Esto se lleva a cabo en el taller de Apreciación Artística, como Dewey6 planteaba la necesidad de estimular la actividad y desarrollar la creatividad en los jóvenes, y conferirle mayor importancia al juego, hacerle vivir sus propias experiencias, para lo cual propone como vía al arte. “Ser maestro es ser creador” dijo Paulo Freire 7 alguna vez. Esto conlleva al pensamiento de Read, que señala que el verdadero maestro no es el maestro sino el artista, el maestro tiene una tarea importante en el desenvolvimiento de los poderes creadores del estudiante. El maestro debe ser creador de atmósfera, debe conservar la función conductora y selectiva con los estudiantes, y mantenerse como un unificador, un mediador, entre el individuo y su ambiente. El alumno en este sentido de relación debe rescatar la sensibilidad y sensorialidad como elementos estructurales de la personalidad humana, específicamente en el plano de la afectividad. Indudablemente las doctrinas de Lowenfeld 8 ayudan en las extensas perspectivas de la Educación por el Arte, en la esfera de la formación del hombre en la época moderna, y exige un gran empeño creador por parte del educador. De todos estos teóricos podemos concluir que la emoción surgida de tales vivencias es siempre una perspectiva y posibilidad de libertad, categoría que encuentra en Paulo Freire 9 un apasionado seguidor e inspirador. Este pedagogo brasileño formula una modalidad de acción orientada hacia la búsqueda y práctica de la libertad, esta libertad solo se traduce en forma de acción para que coadyuve a la conquista de la creatividad personal, y ofrezca la oportunidad de desbrozar el camino hacia una concientización fecunda que parte de una matriz dialógica. Esto permite redimensionar esta experiencia aprobando la idea de que la Educación por el Arte es necesaria y su validación como medio para la formación general del hombre, que favorece el desarrollo de la personalidad integral, y que emerge como una filosofía que funde los atributos más preciados del hombre, y que propicia el avance del fenómeno de pensar y actuar creativamente. Herber Read 10 asocia al arte con el reconocimiento y fijación de lo significativo en la experiencia humana y asegura que “el arte sigue siendo la actitud por medio de la cual se conserva alerta nuestra sensación, viva nuestra imaginación y penetrante nuestra facultad de razonamiento.” Así se hacía una “clase tipo” anteriormente. El profesor presentaba el tema y explicaba la obra de arte desde el punto de vista descriptivo a través de diapositivas, mientras los estudiantes se limitaban a escuchar. Extraían las características más significativas de la obra de arte, generalizaban con otras obras del mismo autor o del mismo estilo histórico artístico. En esta experiencia pedagógica con estudiantes de tecnología, se ha llevado a la práctica estos métodos en los cuales la participación del estudiante, el diálogo con el profesor y el resto del grupo e interactuar entre todos donde se buscan soluciones a los problemas planteados en las clases, proporciona resultados excelentes, a tal punto que han servido de una mayor motivación para los estudiantes a la hora de vincularse con estas disciplinas, sobre todo, si tenemos en cuenta que se trata de alumnos de ingeniería y arquitectura, cuya vocación, por naturaleza, dista mucho de las especialidades humanísticas. Con relación a la evaluación se optaba por la tradicional al final del proceso. Los instrumentos se centraban en los exámenes, sin pensar que se podían hacer cuestionarios, entrevistas, observaciones de clases, y materiales producidos por los estudiantes. Para estas clases, con ideas de la escuela nueva es importante trabajar con un número pequeño de estudiantes que permita organizarlos en las clases, motivarlos y diseñar métodos de enseñanza que atiendan la diversidad del aula. Es importante concebir el aula como un sistema de relaciones condicionada por el intercambio de informaciones, y reconocer el carácter de construcción negociada con carácter sistémico. Se ve la necesidad de negociar y compartir el conocimiento11 El arte como parte de la formación integral del futuro egresado de la Educación Superior Tecnológica. La educación integral o formación integral del futuro egresado es preocupación de todas las pedagogías12 y en la sociedad cubana, se lleva a su máxima expresión, por eso esta propuesta de asignaturas como la del Taller de Apreciación Artística y otras que elevan el nivel cultural de los estudiantes, son vitales en el desempeño de la Universidad. En este sentido el interés de la autora, es mostrar, desde la práctica educativa las contribuciones de una propuesta de Educación por el Arte, para facilitar una mejor captación conceptual de la formación ética y afectiva de los estudiantes, donde se necesita la cooperación de todos los agentes implicados en ella. Se demuestra la importancia en la cultura de un individuo en las formas de ser, pensar y actuar13. Al defender la identidad se defiende la cultura en su concepto más amplio, y conocer la cultura universal para saber del mundo es como decir que nadie pueda influir negativamente en la vida del individuo. Se pueden ejemplificar algunas clases: Proyección de un video o documental que ambiente y plantee perspectivas polémicas sobre la obra de arte, el artista o el estilo histórico artístico en cuestión. El trabajo con documentos relativos al contexto histórico en que la obra fue creada: textos literarios que iluminan la interpretación de la obra de arte, visitas a museos o a monumentos históricos artísticos concretos, etc. Se trata, en definitiva, de diseñar actividades en las que la interacción entre el profesor, los materiales y los alumnos generen las situaciones adecuadas para abordar con éxito los objetivos propuestos, sin agotarse en la exposición tradicional de diapositivas. Es conveniente que en las primeras unidades sea el profesor el que plantee las posibles problemáticas de estudio, e intente, mediante algunos de los recursos citados, interesar a los estudiantes, en tales cuestiones para que, a partir de ahí y de manera progresiva, sean éstos los que pasen a proponer los problemas de investigación. Es importante tener en cuenta las ideas de los estudiantes de tecnología y ponerlas en juego a lo largo del proceso desde una concepción constructivista del aprendizaje, tiene un papel fundamental en la construcción del conocimiento histórico artístico. Al finalizar el taller14 el estudiante o grupo de estudiantes, deben elaborar un breve informe en el cual se refleje el planteamiento, el desarrollo y las conclusiones de su investigación. La presentación de estos informes puede realizarse de diversas maneras: escrito, oral, a manera de guión, mediante pancartas, murales, videos, etc. El profesor debe sugerir los contenidos de dicho informe y debe orientar la forma de hacerlo. En los anexos del trabajo, se ejemplifica con fotos hechas por los propios estudiantes como resultado de su Trabajo Final. También se hacen videos que luego se mantienen como material audiovisual para la asignatura de Apreciación de la Cultura Artística (fotos 6,7,8) La puesta en práctica por más de siete cursos de esta propuesta metodológica ha resultado provechosa en el Taller de Apreciación Artística para estudiantes de ingeniería y arquitectura de la CUJAE. Ciertamente, no es una alternativa que pretenda resolver todos los problemas de la enseñanza y aprendizaje del Arte; sino que solo intenta sistematizar y exponer algunas problemáticas y soluciones sobre el tema, organizando un conocimiento profesional deseable, para a su vez, promover y enriquecer la sensibilidad desde el aprendizaje de los fenómenos histórico- artísticos en espacios como éste. Fundamentación a partir de la Educación por el Arte y análisis del Programa –Taller de Apreciación Artística. Para enseñar arte a estudiantes de Ciencias Técnicas, se requiere del empleo de métodos participativos que prioricen el rol del estudiante en la dinámica del proceso de enseñanza-aprendizaje. La enseñanza del arte en la Cujae, demanda, pues, de un conductor o profesor con un conocimiento coherente y actualizado. Se selecciona el Taller 15 como forma de organización del trabajo docente, en la asignatura Apreciación Artística, reconociendo sus posibilidades como método de trabajo grupal, que propicia la participación activa de todos los integrantes del grupo en un marco de respeto hacia la creatividad y comunicación interpersonal. El Taller de Apreciación Artística se propone profundizar en esas capacidades apreciativas, críticas y productivas, lo que guarda un estrecho vínculo con los preceptos esenciales de las teorías expuestas por la Educación por el Arte, con el contenido y concepción de su programa, métodos de enseñanza y aprendizaje. En este punto parece muy importante la relación empática que establece el profesor con sus estudiantes. Las experiencias de lo individual a lo grupal, se alcanzan en la medida en que cada estudiante sea capaz de moverse, expresarse y crear a partir de las propuestas del profesor-coordinador, e incluso, de la observación y sugerencias del resto de los integrantes del grupo 16. Se hace referencia al grupo como factor importante, donde se combina la teoría y la práctica como método necesario en el proceso de enseñanza- aprendizaje. Algunos de los temas están ya planteados en la Introducción de la asignatura donde se ofrece la caracterización de la misma, el concepto y la clasificación de las artes plásticas; así como el concepto de arte y de cultura. Este tema introductorio es motivador y trata de sensibilizar a los estudiantes desde el primer día de clases, aspirando a que sean ellos mismos los que creen los conceptos por medio de cuestionarios (preguntas y respuestas), y trabajen en producciones en el taller, desplegando siempre su imaginación y creatividad. Otro tema, propuesto es el del Arte en la Antigüedad (el arte de los faraones egipcios, el arte en Grecia y Roma). En el se analizan algunos tópicos esenciales que van de las primeras manifestaciones del arte en las cavernas, el desnudo, la mujer, el atleta, aunque también se leen poemas del antiguo Egipto, se habla de los dioses egipcios y se comparan con la mitología greco-romana. En este tema se trabaja en equipos previamente constituidos, a los que se les reparten láminas o se proyecta algún video relacionado con las características del hombre antiguo; se plantean consideraciones de lo que era el arte para ellos, tratando siempre de que el estudiante tome el papel protagónico en la clase y dando a conocer sus iniciativas. A veces se les indica problemas para resolver como: a través de un seminario previamente indicado: “el arte y la sexualidad”, se compara la significación del desnudo en aquellas civilizaciones. En el Taller se atienden las experiencias individuales mediante la participación espontánea de cada estudiante, por lo que se recomienda que los grupos sean pequeños, para poder trabajar con cada uno de ellos. Al hablar de la experiencia hay que tener en cuenta las esferas de la personalidad que se implican en el proceso de apreciación y producción; ellas son la afectiva y la cognitiva17 como una unidad. Un aspecto significativo que se toma en cuenta de la Educación por el arte, es lo referente a la relación comunicativa que se establece en el proceso de enseñanza- aprendizaje entre sus dos elementos protagónicos: el maestro y el estudiante. “Educar por el arte: apunta María del Carmen Mena, tiene como función primordial favorecer el desarrollo de las capacidades humanas de crecer, elaborar o producir algo a partir de una realidad, se promueve el desarrollo de la sensibilidad, la capacidad de expresar, investigar, experimentar y transformar, de colaborar y respetar a los otros. Es una educación a través de la expresión y el goce”. Del ambiente que pueda crear el maestro desde la primera clase, dependerá en gran medida el logro del respeto y la convivencia en clases. Si el estudiante se siente valorado positivamente y aceptado por su colectivo, ello facilitará su manifestación de forma activa y dinámica en todas las tareas a resolver, en los procesos de trabajo del grupo. Todos tendrán las mismas oportunidades para crear y guiar una creación del grupo, para lo que se necesita trabajar en los diferentes momentos de la comunicación en el ámbito personal y grupal en las clases18. De las formas de organización docente se escoge el taller19 , porque estimula en los participantes el sentir y el hacer, la cooperación y la participación grupal, proporcionando un espacio de reencuentro consigo mismo y con los otros, a partir de las propias necesidades, vivencias y expectativas, permitiendo un aprendizaje significativo. En las clases se combinan diferentes métodos del proceso de enseñanza- aprendizaje, enfatizando en lo participativo, dialógico e interactivo. Desde el primer encuentro se dan a conocer sus intereses artísticos y se desarrollan técnicas para conocer al grupo y así se produce una mayor confianza entre los estudiantes y el profesor. Se reparten hojas de papel donde el estudiante expone sus intereses artísticos por manifestaciones, los estilos y artistas que le gustaría conocer, etc. Y se utilizan técnicas de conocimiento del grupo. Esto permite “romper el hielo” de ese primer encuentro entre estudiantes y profesor. En un taller como el de Apreciación Artística que en apariencia guarda poca relación con su especialidad de ciencias técnicas; hay un falso criterio-probado en lo personal por esta experiencia pedagógica, de que el estudiante que escoge una carrera de ciencias es porque no le interesa el arte ni es sensible a él. Esto debe ser una consideración preliminar que permita crear un clima de confianza y respeto hacia la especialidad, siempre pensando en participar así en su mejor y más completa formación profesional. El método de trabajo independiente o por equipos da muy buen resultado pues entre todos buscan elementos que son comunes entre el material artístico de los diferentes períodos. El método problémico posibilita a los estudiantes y al grupo en general acercarse al proceso de creación, a partir de situaciones que estimulen su pensar, actuar y sentir20. Se han de tener en cuenta los elementos pedagógicos propuestos como modelos por los educadores por el arte. Elementos “modelos” 21 que se describen a continuación, y que están instrumentados en la propuesta del programa taller de Apreciación Artística: El papel del maestro como creador, orientador, estimulador, canalizador y facilitador de los procesos creativos y de aprendizaje de sus estudiantes. La organización de la clase dentro de una atmósfera que propicie un clima de libertad, confianza y comunicación entre los estudiantes y el maestro. La realización de las diferentes tareas y actividades con flexibilidad y apertura creativa. La combinación de la teoría y la práctica desde el hacer, el sentir y la reflexión de los procesos personales y del grupo. El manejo del grupo y su interacción en el aprendizaje individual y colectivo. Combinación de diferentes métodos, juegos y estímulos, para provocar un mayor conocimiento del estudiante, de sus referentes internos y ampliar sus motivaciones, la imaginación y sensibilidad en función del desarrollo expresivo del estudiante. Entre los Resultados de este trabajo fundamentalmente están: la Implementación de un nuevo programa de la asignatura de Apreciación Artística desde una perspectiva de la Educación por el Arte, (con la utilización de técnicas participativas) para estudiantes universitarios de tecnología, en la Dirección de Extensión Universitaria de la Cujae. También se han readecuado las experiencias didácticas en la impartición de la asignatura Apreciación Artística en espacios académicos no artísticos, esto le puede facilitar a otros docentes el trabajo, en la medida en que lo amplíen y enriquezcan. Esta propuesta propicia la participación en eventos de carácter nacional e internacional donde se exponen estas experiencias pedagógicas con muy buena aceptación. Se contribuye a una expresión ético-estética y artística más plena y operativa entre los estudiantes universitarios de tecnología. Se dispone de materiales audiovisuales creados por los propios estudiantes, se ha participado en Jornadas Científicas de las Facultades, en Forum de Historia, así como de recursos didácticos, pedagógicos y docentes de alguna manera sistematizados y organizados en esta investigación, tales como: cuerpo teórico y categorial, material bibliográfico, etc. Por parte de los directivos de las Facultades, se insiste en la impartición de este programa de la asignatura de Apreciación Artística, porque posibilita desde una asignatura electiva que los estudiantes puedan tener la posibilidad primero de tener una cultura general integral, segundo que les permite motivarse a investigar otros temas que no son de la especialidad, así como de participar en los Festivales de Artistas Aficionados del Centro. Para lo cual existen un conjunto de Talleres de diferentes manifestaciones que involucran a todos aquellos estudiantes que tienen aptitudes para el arte, y que de una forma optativa pueden participar, por ejemplo, en el Taller de Actuación que tiene el Grupo de Teatro Imagen, que es representativo del Centro con 37 años de formado, por uno de los profesores del Departamento docente, el Máster René Corvo, así como otros talleres: de Música, de Artes Plásticas, de Danza. Todos fortalecen el Movimiento de Artistas Aficionados de la Cujae, con especialistas graduados en Arte. En esta investigación, se abordan los métodos de enseñanza aprendizaje, que se estiman más útiles, para el trabajo de docencia artística, con estudiantes que no son de la especialidad de Arte. Resulta, probadamente, un ejercicio y operatoria motivante y productiva. En él, pueden expresarse dentro del grupo, creando un clima de confianza, y de distensión dentro del currículo de otras asignaturas, que son eminentemente tecno-científicas. Este programa- taller de Apreciación Artística facilita al estudiante ponerse en contacto con la realidad socio-cultural aunque desde sus experiencias y vivencias personales. CONCLUSIONES Esta propuesta pedagógica de Programa Taller de Apreciación Artística para estudiantes universitarios de tecnología, se fundamenta en la Educación por el Arte a partir de la esencialidad de postulados establecidos por teóricos como John Dewey, Victor Lowenfeld, Herbert Read y otros, más recientes como la profesora Rosa Ma. Ávila, la Msc. María del Carmen Mena, y otros. El Taller de Apreciación Artística está concebido como un espacio para desarrollar capacidades reflexivas, apreciativas, comunicativas y creativas, de estudiantes de la CUJAE; permitiéndoles sensibilizarse con el arte como vía para su formación general e integral. Así como, obviamente, se convierte en el centro de interés metodológico y pedagógico de esta investigación. Quizás una de las prácticas y exploraciones más arriesgadas, pero también más ricas en este empeño investigativo, ha sido el trabajo concreto en el taller, con el grupo de estudiantes referido. Esta praxis superó mucho las expectativas e hipótesis, en tanto reveló un desbordamiento de la imaginación y el pensamiento creativos al enfrentar al estudiante a problemáticas lúdicas, tareas o juegos de roles. En este tipo de actividad, se constata muchos de los presupuestos y orientaciones de la Educación por el Arte; cuando a su vez resultó un segmento altamente aportativo y esclarecedor de constataciones, nuevos indicadores, iluminación de problemáticas y, en fin, reorientador del propio devenir de este estudio. Por otro lado, el Programa -Taller de Apreciación Artística adecua el complejo universo del arte (incluido su no menos complejo territorio teórico) a la tradición, idiosincrasia cultural y esperanzas profesionales de un estudiante común y prejuiciadamente distanciado del arte. En esta tensión vino a jugar un papel esencial el profesor, su experiencia pedagógica, artístico-estética y, en general, las experiencias de vida. Se readecuan y amplían en el diálogo (problémico y polémico muchas veces) con este estudiante; favoreciendo una práctica con intenciones investigativas verdaderamente significativa. Ciertamente el Programa-Taller de Apreciación Artística con el que concluye este estudio, por la reconstrucción y actualización de sus materiales es el logro más efectivo y tácito. Resulta, incuestionable, un producto de la experiencia y la intuición: la de los fundamentos de la Educación por el Arte, la de los estudiantes, la de los estudiosos y profesores que han acompañado en algún modo y momento este modesto producto investigativo. REFERENCIAS BIBLIOGRAFÍCAS: 1. VIGOTSKI L, S. Imaginación creación infantil. Ciudad Habana: Editorial Pueblo y Educación, 1987 2. DEWEY, John. El arte como experiencia. Prólogo y versión española de Samuel Ramos.. México: FCE ,1949. 3. READ, Herbert. Educación por el arte. Buenos Aires: Edit. Paidós., 1969. 4. LOWENFELD, Victor. Desarrollo de la capacidad creadora. Buenos Aires: l Capeluz, Buenos Aires, 1961 5. READ, Herbert. Educación por el arte. Buenos Aires: Edit. Paidós., 1969. 6. DEWEY, John. El arte como experiencia. Prólogo y versión española de Samuel Ramos.. México: FCE ,1949. 7. FREIRE, Paulo: La Educación como práctica de la libertad. México: S. XXI Editores: A, 1982.Traducción de Lilian Ronzoni. 8. LOWENFELD, Victor. Desarrollo de la capacidad creadora. Buenos Aires: l Capeluz, Buenos Aires, 1961 9. FREIRE, Paulo: La Educación como práctica de la libertad. México: S. XXI Editores: A, 1982.Traducción de Lilian Ronzoni. 10. READ, Herbert. Educación por el arte. Buenos Aires: Edit. Paidós., 1969. 11. ÁVILA, Rosa Ma. Historia del arte, enseñanza y profesores. España, Diada. Editorial, S;L 2001. 12. HOURRITINIER SILVA, PEDRO. La Universidad cubana: el modelo de formación .La Habana, Editorial Félix Varela., 2005. 13. MORAWSKI, Stefan. De la estética a la filosofía de la cultura .Ciudad Habana, San José: criterios –teor/ética, 2006 14. GONZÁLEZ RIVERO, Berta. “El taller una modalidad pedagógica”. En: Un diseño curricular para la formación integral de la personalidad. Ciudad Habana: Vol.I .Centro de investigaciones y docencia. 2003 15. . GONZÁLEZ RIVERO, Berta. “El taller una modalidad pedagógica”. En: Un diseño curricular para la formación integral de la personalidad. Ciudad Habana: Vol.I .Centro de investigaciones y docencia. 2003 16. MENA, Maria del Carmen. Tesis de Maestría. “La integración del grupo y la creatividad en la danza: el cuerpo, la palabra y el movimiento”.ISA, La Habana, 2003 17. VIGOTSKI L, S. Imaginación creación infantil. Ciudad Habana: Editorial Pueblo y Educación, 1987 18. MENA, Maria del Carmen. Tesis de Maestría. “La integración del grupo y la creatividad en la danza: el cuerpo, la palabra y el movimiento”.ISA, La Habana, 2003 19. GONZÁLEZ RIVERO, Berta. “El taller una modalidad pedagógica”. En: Un diseño curricular para la formación integral de la personalidad. Ciudad Habana: Vol.I .Centro de investigaciones y docencia. 2003 20. MORAWSKI, Stefan. De la estética a la filosofía de la cultura .Ciudad Habana, San José: criterios –teor/ética, 2006 21. HOURRITINIER SILVA, PEDRO. La Universidad cubana: el modelo de formación .La Habana, Editorial Félix Varela., 2005. Isabel Fernández López Profesora auxiliar de Historia del Arte, Apreciación Artística y Promoción de salud. Metodóloga de Extensión Universitaria. Coordinadora de Promoción de Salud de la Universidad Tecnológica de La Habana José Antonio Echeverría. Cujae. LA CÁTEDRA CIENTÍFICA DENTRO DEL PROCESO EXTENSIONISTA Y LA FORMACIÓN INTEGRAL DEL ESTUDIANTE Rubén Herrera Rodríguez1, Rolando Serra Toledo2, Nancy de la C. Enrich Justiz3 1, 2, 3 Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE Calle 114 No. 11901. e/ Ciclovía y Rotonda. Marianao. La Habana, Cuba 1 rubenh@tesla.cujae.edu.cu; 2 serra@electrica.cujae.edu.cu; 3 nancyej@automatica.cujae.edu.cu RESUMEN El trabajo presenta las experiencias de una Cátedra Científica de la Universidad Tecnológica de la Habana “José Antonio Echeverría”, CUJAE, que como eje central de su trabajo tiene concebir los procesos sustantivos de Formación, Investigación y Extensión Universitaria como un único proceso integrado de trabajo armónico, donde los resultados alcanzados avalan la integración metodológica de los diferentes actores de la sociedad ante la misión que tiene la universidad actual. Entre los principales resultados del trabajo se destacan los alcanzados en el desarrollo del trabajo científico estudiantil y los aportes en el desarrollo de equipos para la investigación en salud, agricultura y veterinaria utilizando la luz, el desarrollo de un Proyecto I+D+i para la investigación, la innovación y la docencia de la Cátedra en la Residencia Estudiantil, la realización de Talleres Universidad-Comunidad en Salud, 6 de ellos con carácter internacional y el logro de la integración al accionar de la Cátedra de instituciones de Salud, de Medicina Veterinaria y de la Agricultura PALABRAS CLAVES: Cátedra científica, ciencias para la vida, ingeniería biomédica. THE SCIENTIFIC CHAIR INSIDE THE PROCESS EXTENSIONISTA AND THE STUDENT'S INTEGRAL FORMATION ABSTRACT The paper shows the experiences of a Scientific Chair of Technological University of the Havana “Jose Antonio Echeverria” as the core of their work is to conceive substantive processes Training, Research and University Extension as a single integrated process of harmonious work, where the results obtained support the methodological integration of the different actors of society to the mission that the university today. Among the main results of the work they stand out those reached in the development of the student scientific work and the contributions in the development of teams for the investigation in health, agriculture and veterinary science using the light, the development of a Project I+D+i for the investigation, the innovation and the of the Class in the Student Residence, conducting workshops on University-Community Health, 6 of them with international participation and achieving integration to the Chair actions of institutions of Health, of Veterinary Medicine and of the Agriculture. KEY WORDS: Scientific chair, life science, biomedical engineering 1. INTRODUCCIÓN Para dar respuesta a las exigencias de estos tiempos, la educación debe caracterizarse, tanto en su estructuración curricular como en el desarrollo metodológico, por la integración de sus contenidos (conocimientos, habilidades, actitudes y valores) y por experiencias que faciliten una comprensión más reflexiva y crítica de la realidad. En correspondencia con el contexto actual en que se desarrolla la formación del Ingeniero Biomédico, se hace necesario proporcionarles una educación científica, que perciban la ciencia como una actividad cultural que contribuye a su formación en valores y a prepararlos para la vida, como una de las premisas para su educación permanente. Esta educación científica del estudiante ha de conducirlo no sólo a saber de ciencia, sino también sobre la ciencia: sus aspectos culturales, éticos, sus relaciones con la tecnología y su repercusión social a partir del vínculo con las realidades y necesidades de la sociedad. Aspecto este último de gran importancia en la formación del nuevo ingeniero, donde los problemas a resolver en la sociedad tengan igual peso en su interés personal, como los que se relacionan con el desarrollo de las modernas tecnologías y las investigaciones puras (Branscomb, 1999; Caamaño, 1994). Comencemos por analizar los aspectos esenciales que se tienen en cuenta en la formación y misión de un ingeniero:  El pensamiento ingenieril es capaz de aplicar el conocimiento adquirido a la vida práctica, a lo que ya existe, además de innovar mediante la creación colectiva la realidad que lo circunda con el propósito de llevarla a niveles superiores de desarrollo. En esto último radica la misión actual del ingeniero al enfrentar los nuevos desafíos en el campo tecnológico.  El profesional de ingeniería durante sus estudios universitarios deberá ser formado para un desempeño eficiente y competitivo, aspectos demandados con gran fuerza por el actual mercado de trabajo a nivel mundial.  Habilidades profesionales como la creatividad técnica, la investigativa y el desenvolvimiento con las nuevas tecnologías, entre otras, requieren de una sólida preparación en el terreno metodológico de los profesores universitarios, encargados por la sociedad de formar adecuadamente a los futuros profesionales en las áreas del saber vinculadas a las diferentes ramas ingenieriles, tanto aquellas que forman parte de la preparación básica como las vinculadas al ejercicio de la profesión. Para lograr esto debemos tener en cuenta lo siguiente: ¿Qué es la Universidad? Institución social que tiene como misión transformar la sociedad. Por lo tanto la universidad, además de preservar y crear cultura, tiene que promoverla en la sociedad y en el mismo contexto universitario. Son estas circunstancias las que determinan la metamorfosis de la misión intrínseca de la universidad (formar profesionales) a una misión extrínseca (desarrollar la cultura social) que le da relevancia como núcleo cultural de la sociedad. (Restrepo, 2003). La misión extrínseca conduce a una relación universidad-sociedad bidireccional, en ella la sociedad presenta sus necesidades en forma de problema, cuya solución se ofrece mediante los procesos sustantivos de Formación e Investigación, siendo considerada la Extensión Universitaria la vía más dinámica por su carácter totalizador. Esto significa que sus formas se objetivan con los contenidos de los procesos mencionados o la integración de estos (González Moreno, 2006). Otro aspecto es lo relacionado con la integralidad como atributo esencial del proceso extensionista, el cual posee un vínculo correlacional con el comportamiento adecuado de la promoción cultural, la que propone "la transformación del entorno desde su conocimiento, la preparación de los sujetos para producir el cambio y la participación activa en su transfiguración. Se sustenta además en los métodos de la acción o el trabajo social". (González Fernández -Larrea, 2002). Por su parte (González Moreno, 2006) define la integralidad como “…cualidad esencial que adquiere el proceso de extensión en la medida que sus formas se objetivan con los contenidos de los procesos de Formación e Investigación, con lo que influye en el equilibrio de la promoción cultural, determinada por el concilio entre las necesidades sentidas de la comunidad y la intencionalidad de la universidad”. La interdisciplinariedad como atributo de la integralidad, significa ante todo, un cambio de actitud frente a los problemas del conocimiento, una sustitución de la concepción fragmentaria por una unitaria del hombre y de la realidad en que vive, la interdisciplinariedad presupone un compromiso con la totalidad (Ornelas, 1995; Fazenda, 1994). En la actualidad es necesario poner en práctica la interdisciplinariedad en la enseñanza, y en particular de las ciencias en la formación de un nuevo ingeniero. Esto se debe a que, como nunca antes, es una necesidad objetiva del desarrollo de la actividad humana, lo que se manifiesta, entre otros aspectos, en las siguientes razones:  Un aumento en la complejidad de los objetos de la investigación científica en el área de salud.  Una parte importante de la búsqueda científica transcurre hoy en las fronteras o zonas de “empalme” de varias ciencias.  Es creciente el proceso de integración ciencia-tecnología-producción.  La necesidad de abordar los aspectos morales, ambientales y axiológicos de la actividad investigadora contemporánea.  La necesidad de resolver problemas globales complejos.  La Universalización de las investigaciones y de la producción.  La naturaleza altamente compleja y variable de la propia realidad. Objetivo: El objetivo del trabajo es presentar los resultados obtenidos al integrar, desde la Extensión, los procesos sustantivos de Formación e Investigación, teniendo como plataforma una Cátedra Científica universitaria. 2. DESARROLLO Para materializar la integración de los procesos nos hemos apoyado en el diseño y desarrollo de una Cátedra Científica, en este caso de Ciencias para la Vida, la cual nos permita ejecutar una propuesta pedagógica que se sustente en el vínculo entre los procesos sustantivos universitarios: Extensión, Formación e Investigación; y que tenga en cuenta los fundamentos pedagógicos, psicológicos y sociológicos, con sus características distintivas y funciones didácticas. Para lograr esto es necesario tener un único proceso integrado de los procesos sustantivos: Extensión: proceso sustantivo universitario cuya misión de promover cultura la cumple a partir de la integración con los otros procesos, con cuyos contenidos resuelve problemas sociales que emanan de necesidades sentidas de la población, mediante el diálogo y el acompañamiento, propiciando el desarrollo cultural de las comunidades en que se organiza (González Moreno, 2009). Las Cátedras Científicas son en esencia figuras de los procesos de extensión universitaria. Investigación: El trabajo científico estudiantil constituye una de las formas más efectivas para lograr la vinculación de los conocimientos del alumno universitario con la práctica. Además desarrolla en ellos la habilidad para el análisis y la valoración crítica de los resultados y contribuye a la asimilación de los conocimientos (Quirós, 1982). El trabajo investigativo debe constituirse como un sistema que contemple a todos los estudiantes universitarios, pues como se ha planteado el componente investigativo está presente en la estructura del sistema de conocimientos, en el modo en que se enseña y se aprende y en la manera de resolver los problemas (Torres, 1993). Cualquier tipo de investigación que se proyecte para los estudiantes debe estar vinculada a algún tipo de ejercicio académico: trabajo extra clase, trabajo de curso, examen final, trabajo de diploma u otros (López, 1998; Vidal, 1988). Diversos autores refieren que la función del docente reposa en gran medida, en su capacidad para utilizar formativamente los resultados del trabajo de investigación y que el trabajo científico investigativo debe ser una exigencia académica desde los primeros años de la carrera, como parte de la formación integral de los estudiantes (Gay, 1993; Pompa, 2001). En el proceso que planteamos en Ingeniería Biomédica, las investigaciones estudiantiles desde lo curricular se vinculan alrededor del proyecto de la asignatura integradora. Docencia: Para lograr una formación consecuente con el proceso planteado, la interdisciplinariedad debe materializarse en el trabajo metodológico del colectivo de año; desde las individualidades de cada asignatura hasta la concepción integradora que significa. Para lograr esto se vinculan las diferentes asignaturas alrededor del proyecto de curso de la asignatura integradora, siendo el trabajo científico estudiantil la vía para materializar el vínculo curricular con la sociedad; sus necesidades, problemas, retos, valores, etc. Otro de los elementos importantes tenidos en cuenta para el diseño y organización del trabajo científico- estudiantil en nuestra propuesta es el análisis de las tendencias actuales de la enseñanza de la ingeniería en Cuba que se pueden caracterizar a través de los siguientes rasgos: (Castañeda, E., 2007; Falcón, H., 2002) 1. Lograr una formación más sólida y un conocimiento más profundo de las ciencias básicas y los fundamentos de las ciencias de ingeniería. 2. Formar un profesional más integral, versátil y flexible cuya virtud fundamental sea su capacidad de auto preparación y adaptación. 3. Formar un profesional en estrecha vinculación con la industria, con las habilidades profesionales básicas. 4. Fortalecer la formación socio humanística de este profesional. 5. Fortalecer la formación económica y la capacidad para desarrollar una gestión empresarial efectiva y eficiente. 6. Potenciar la preparación del futuro profesional en el campo de la informática y la telemática. Estos rasgos caracterizan las tendencias en la formación de los profesionales de la ingeniería en la actualidad y las disciplinas que conforman las diversas carreras de Ingeniería, deben jugar el rol que le corresponde en la consecución de los objetivos de la formación de estos futuros profesionales que se derivan de dichas tendencias. Las mismas demandan de manera explícita o implícita la necesidad de producir transformaciones radicales en el proceso de enseñanza-aprendizaje que estimulen el desarrollo del aprendizaje independiente de los estudiantes por encima de la transmisión de conocimientos por parte del docente, del pensamiento lógico y divergente, de la creatividad y en general de los modos de pensar y actuar de este futuro profesional. En la Universidad Tecnológica de la Habana “José Antonio Echeverría”, CUJAE, se han desarrollado propuestas didácticas para el diseño y la utilización de modernos medios de enseñanza y sistemas de experimentos en las diferentes formas de enseñanza aprendizaje, como contribución para lograr incrementar la comprensión de las leyes y conceptos estudiados, la motivación y el desarrollo de habilidades prácticas y de observación en la enseñanza aprendizaje. (Serra, R., 2004; Serra, R., Moreno A., 2010). Resultados En el siguiente resumen podemos valorar algunos de los principales resultados alcanzados al integrar desde la Cátedra Científica los procesos sustantivos de Formación-Extensión-Investigación, en la Educación desde la Instrucción desarrollada con los estudiantes de Ingeniería Biomédica:  Integración desde lo curricular de asignaturas de primer y segundo año alrededor del Proyecto de Año, lo cual ha reportado buenos resultados docentes en las asignaturas.  Formación de una Brigada de Promotores de Salud, los cuales han realizado actividades a nivel de aulas, Residencia Estudiantil y Comunidad.  Desarrollo de equipos para la investigación en salud, agricultura y veterinaria, utilizando fototerapia y láser. Las investigaciones comunitarias con estos equipos han propiciado: tres Tesis de Maestría en la Facultad de Ciencias Médicas Finlay-Albarrán, seis Tesis de Grado en Ingeniería Biomédica, importantes resultados investigativos en enfermedades crónicas de la Tercera Edad, participación nacional e internacional en eventos, desarrollo de equipos para la Defensa Civil, entre otros resultados.  Premio Citma Provincial de Innovación.  Desarrollo de un Proyecto I+D+i institucional, localizado en la Posta Médica de la Residencia Estudiantil, con beneficio a estudiantes y trabajadores de la universidad y comunidad aledaña. Con participación de 15 estudiantes.  Desarrollo de un evento internacional en colaboración con el Centro de Integración para las Terapias Alternativas de Aguascalientes, México.  Desarrollo de Talleres Universidad-Comunidad en Salud, Veterinaria y Agricultura. Esto ha permitido integrar los procesos propuestos, con la participación estudiantil y especialistas de más de 20 instituciones de la Provincia e invitados de 8 países.  Participación de 12 estudiantes de Ing. Biomédica y 12 estudiantes de enfermería del TENNESSEE TECH en el Proyecto del Adulto Mayor en el municipio de Marianao (Fig. 1,2).  Incorporación del 100% de estudiantes de primero y segundo año al trabajo Científico Estudiantil. Con resultados importantes a nivel municipal y provincial.  Participación de 10 estudiantes y 2 trabajadoras jóvenes en la atención al Hogar de Ancianas “Hermanas Giralt” de Marianao, en coordinación con la Facultad “Finlay-Albarrán” (Fig. 3). 3. CONCLUSIONES El objetivo de realizar un trabajo armónico, desde la Extensión Universitaria, en la integración con los procesos sustantivos de Formación e Investigación, con un enfoque social, a partir de la concepción, creación y funcionamiento de la Cátedra Científica de Ciencias para la Vida de la CUJAE ha sido logrado. Los resultados expuestos recogen las experiencias de los últimos cinco años, mostrando la consolidación de la propuesta y el impacto que se ha logrado en la formación integral del estudiante en su vínculo y compromiso con la sociedad, todo lo cual ha tenido un impacto importante en su formación de valores. Los resultados alcanzados han motivado a varios profesionales e instituciones extranjeras (Noruega, Italia, Japón, Colombia, Ecuador, Estados Unidos, Brasil, Bolivia, México, entre otros) a incorporarse al trabajo de la Cátedra y colaborar con el desarrollo de cursos e investigaciones en las comunidades y en la Universidad, elevando la calidad en la formación de estudiantes y especialistas y el impacto en la salud comunitaria. 4. REFERENCIAS BIBLIOGRÁFICAS 1. BRANSCOMB, L.W.: La unión hace la ciencia. En: El Correo de la UNESCO, Mayo, 20-23, París, 1999. 2. CAAMAÑO, A.: Estructura y evolución de los proyectos de ciencias experimentales. En: Alambique No.1, julio, GRÂO, Barcelona, 1994. 3. FAZENDA, I.: Prácticas interdisciplinares na escola. Editorial Cortez, Sao Paulo, Brasil, 1994. 4. Guía Terapéutica en la Atención al Anciano. Complejo Comunitario Interdisciplinario de Salud, Marianao, 2005. 5. GAY F. Y RUIZ C.: “El proceso de enseñanza aprendizaje modular en la Licenciatura de Medicina Veterinaria y Zootecnia”, Taller de Educación Veterinaria, La Habana, 1993. 6. GONZÁLEZ FERNÁNDEZ-LARREA, M.: El modelo de gestión de la Extensión Universitaria para la Universidad de Pinar del Río, Tesis en opción al grado científico de Doctor en Ciencias de la Educación, 2002. 7. GONZÁLEZ MORENO, M.: Formulación teórico-metodológica de la promoción cultural de la investigación para la integración de los procesos universitarios extensión e investigación en el ISPJAE. Tesis presentada en la opción al grado científico de Doctor en Ciencias de la Educación, 2006. 8. GONZÁLEZ MORENO, M.: Conferencia UNAH, San José, Maestría en trabajo sociocultural, 2009. 9. HORRUITINER, P.: La universidad cubana: el modelo de formación. Editorial Félix Varela, 2006. 10. KIM YONGMIN: “Bioengineering and Translational Research”. IEEE-EMB, Pág. 5, April, 2005. 11. LÓPEZ F., PERALTA B. Y KONNILOVICH S.: “Vías para el desarrollo de las capacidades creadoras de los estudiantes”, RECES, Número especial, 29-39, 1998. 12. ORNELAS, C.: Globalización y conocimientos: nuevos desafíos para las universidades latinoamericanas. En: Rev. Educación Superior y Sociedad. Vol.6, No.2. pp134-142.CRESALC, UNESCO, Venezuela, 1995. 13. POMPA A. Y LAM F.: Informe final del proyecto pedagógico: “Sistema de investigación científico estudiantil como componente indispensable en la formación profesional”, Facultad de Medicina Veterinaria, UNAH, 2000. 14. POMPA A. Y LAM F.: “Contribución al desarrollo del componente investigativo estudiantil en el 1er año de la carrera de Medicina Veterinaria”, Memorias del evento Pedagogía, 2001 15. QUIRÓS A. Y MORALES J.: “Trabajo Científico con estudiantes de Licenciatura en Educación”, Revista Cubana Educación Superior, Vol. 2 y 3, 107-115, 1982. 16. RESTREPO M. (2003), Universidad mediadora de cultura. En: Pensar Iberoamérica. 17. STEVEN E. KERN, DOV JARON: Complementary and Alternative Medicine in the Technology Age: Applying Bioengineering to Understand and Evaluate the Efficacy of Age-Old Remedies, IEEE-EMB, April, 2005. 18. TORRES H. Y C. ÁLVAREZ DE ZAYAS: “El perfeccionamiento de la Educación Cubana. Sus tendencias actuales”, RECES 13 (2), 111-115, 1993. 19. VIDAL C.: “Análisis del proceso científico investigativo en un grupo de estudiantes de Medicina”, Educación Médica Superior 2(1), 127-131, 1988. 20. CASTAÑEDA, E., Caracterización General del problema del Diseño Curricular de Carreras Universitarias a las puertas del tercer Milenio desde una Óptica latinoamericana, Conferencia Inaugural del Curso de Diseño Curricular de la Universidad de Verano, ISPJAE, Cuba, 2007. 21. FALCÓN, H., Una concepción de profesionalización desde la disciplina Física General en Ciencias Técnicas, Tesis Doctoral, Cuba, 2002. 22. SERRA, R., La utilización del holograma como medio de enseñanza y de educación social en Cuba a través del vínculo Investigación – Docencia – Extensión Universitaria, Tesis Doctoral, Cuba, 2004. 23. SERRA, R., MORENO A., Magalhães, D., Muramatsu M., Lemus J., Haciendo hologramas en la escuela y en la casa, Revista Brasileira de Ensino de Física 32, 3, 3502, 2010. SOBRE LOS AUTORES Rubén Herrera Rodríguez: Metodólogo de la Dirección de Extensión Universitaria, Cujae, Cuba. Profesor Auxiliar. Master. Correo electrónico: rubenh@tesla.cuajae.edu.cu Rolando Serra Toledo: Director de Ciencia, Tecnología e Innovación de la Vicerrectoría de Investigaciones y Posgrado, Cujae, Cuba. Profesor Auxiliar e Investigador Titular. Doctor en Ciencias Pedagógicas. Correo electrónico: serra@electrica.cujae.edu.cu Nancy de la Caridad Enrich Justiz: Vicedecana de Extensión Universitaria, Facultad de Ing. automática y Biomédica, Cujae, Cuba. Profesora Asistente. Master. Correo electrónico: nancyej@automatica.cujae.edu.cu Anexo 1: Figuras Fig. 1: Estudiantes de Ing. Biomédica y del TENNESSEE TECH en trabajo Investigativo de campo con Adultos Mayores de Marianao. Fig. 2: Los estudiantes en la defensa de sus propuestas tecnológicas para ayudar a los Adultos Mayores. Fig. 3: Estudiantes en tratamiento a Abuelitas en Hermanas Giralt. LA REVISTA PATRIA: EXPRESIÒN DE DIFUSIÒN DE LA EDUCACIÒN MARTIANA DEL SEMINARIO MARTIANO Y SU ASOCIACIÒN David Hernández Duany Universidad de La Habana, Vedado, La Habana, Cuba da681004@gmail.com; Orcid0000-0002-1983-9223. RESUMEN El proceso extensionista tiene el propósito de promover cultura en su más amplia acepción, dentro de ella, la promoción de la historia juega un rol fundamental en su accionar. A partir de la utilización de métodos teóricos y empíricos, se exponen las acciones realizadas por la revista Patria en la difusión de los ciclos de conferencias del Seminario Martiano y de la labor de la Asociaciòn de Antiguos Alumnos del Seminario Martiano de la Universidad de La Habana (UH), convirtiéndose en la vía principal que difundió esa labor de enseñanza martiana. La publicación aportó datos sobre la fundación, primeros directivos, imprentas donde se editaron y los esfuerzos realizados para mantener su circulación. Se muestra el aporte de fervorosos martianos a la promoción del legado del Apóstol a través del órgano de la Asociaciòn, ellos impartieron conferencias ante auditorios conformados por estudiantes universitarios, maestros de escuelas, niños de la enseñanza elemental, de la segunda enseñanza, asociados e invitados. Se reflejan apreciaciones realizadas por el medio convocando a un correcto tratamiento a la figura del Héroe Nacional en los homenajes para honrar su memoria. Está sintetizada la amplia labor desarrollada por los Grupos Infantiles y Juveniles Martianos asesorados por los antiguos alumnos a partir de 1945. Se comparten datos sobre las secciones del órgano, los principales temas que abordaba y todo el quehacer en bien de la comunidad intra y extra universitaria que realizó el Seminario, la Asociaciòn y la publicación. PALABRAS CLAVES: Patria, revista, medio, órgano, publicación. THE PATRIA MAGAZINE: EXPRESSION OF DIFFUSION OF THE MARTIAN SEMINARY AND ITS ASSOCIATION ABSTRACT The extension process has the purpose of promoting culture in its broadest sense, within it, the promotion of history plays a fundamental role in its actions. From the use of theoretical and empirical methods, the actions carried out by the magazine Patria in the dissemination of the conference cycles of the Martian Seminary and the work of the Association of Former Students of the Martian Seminary of the University of Havana are exposed. (UH), becoming the main channel that disseminated this teaching work of Martí. The publication provided data on the foundation, first directors, printers where they were published and the efforts made to maintain their circulation. The contribution of fervent Martians to the promotion of the Apostle's legacy through the body of the Association is shown, they gave lectures before audiences made up of university students, school teachers, children of elementary education, secondary education, associates and guests. . Appreciations made by the media are reflected, calling for a correct treatment of the figure of the National Hero in the tributes to honor his memory. The extensive work carried out by the Martian Children's and Youth Groups advised by former students from 1945 is synthesized. Information is shared on the sections of the organ, the main issues it addressed and all the work for the good of the intra and extra-university community that carried out the Seminar, the Association and the publication. KEYWORDS: Patria, magazine, medium, organ, publication. 1. INTRODUCCIÓN Entre las vertientes del trabajo extensionista dentro y fuera de la Universidad de La Habana, como uno de los procesos sustantivos que se desarrollan en las universidades, está la labor dirigida a la formación de valores patrióticos, morales, internacionalistas, antimperialistas y revolucionarios en las nuevas generaciones de estudiantes y en el pueblo en general. En la obra de José Martí, como en la de ningún otro cubano, se sintetizan esos ideales, por esta razón la introducción del estudio de su labor se convirtió para un grupo de maestros, profesores y fervorosos martianos en una necesidad imperiosa. Para dar cumplimiento a esta tarea se imponía la recopilación de sus escritos, tarea cumplida por un grupo de patriotas, familiares y fervorosos martianos desde los primeros años del pasado siglo. En el año 1900, a cinco años del fatal desenlace en el que perdió la vida el organizador de la guerra iniciada el 24 de febrero de 1895, se editó el primer tomo de las obras de José Martí por Gonzalo de Quesada y Aróstegui, labor que continuó hasta su prematura muerte en el año 1915, en ese momento se encontraba inmerso en la publicación del tomo XV. Su hijo se convirtió en continuador de esa labor, revisando minuciosamente los manuscritos martianos que custodiaba y publicándolos con respeto del lenguaje de Martí, así se dotó a maestros, profesores, investigadores martianos y al pueblo en general, de valiosos materiales para educar y conocer la obra del Apóstol. En octubre de 1941 diferentes medios de la prensa nacional comenzaron a difundir la noticia de los inicios de un curso libre del Seminario Martiano (SM) en la Universidad de La Habana, el profesor comisionado para impartirlo fue el doctor Gonzalo de Quesada y Miranda, responsable de estudios martianos de la Facultad de Filosofìa y Letras, la que se anunciaba como encargada de asesorarlos a través de su Comisiòn de Extensiòn Cultural. Al transcurrir los días continuaron apareciendo en los medios algunos detalles organizativos y una vez iniciadas las conferencias el 17 de noviembre del propio año, en acto celebrado en el Aula Magna con la presencia del rector Rodolfo Méndez Peñate y otras autoridades universitarias, eran compartidos por la prensa actualizaciones sobre la marcha de las sesiones, los temas abordados en el programa de los cursos, el contenido de los trabajos más destacados, las bases de los concursos convocados y todo lo acaecido en la velada de clausura efectuada en el sitio que ha acogido magnos eventos, graduaciones e investiduras en el alto centro de estudios. Concluidas las 10 sesiones de conferencias accedió el Dr. Quesada a compartir a los rotativos notables datos y comentarios sobre los proyectos previstos, algunos de estos propósitos surgieron con las ideas de alumnos y ex alumnos del Seminario. Toda la difusión sobre los ciclos de conferencias impartidos contribuyó al conocimiento de la actividad y al ascenso del interés por conocer el pensamiento martiano entre los maestros, trabajadores de bibliotecas, estudiantes universitarios y normalistas. Instituida la Asociaciòn de Antiguos Alumnos del Seminario Martiano de la Universidad de La Habana (AAASM), el 3 de julio de 1944 en el aula No.2 del edificio Enrique José Varona, sede de la Facultad de Pedagogìa, el primer acuerdo emitido por el conglomerado fue nombrar asesor al destacado profesor, hijo del y legatario de la papelería martiana que al morir su padre asumió en calidad de custodia. Al realizarse las primeras reuniones de la Junta Directiva de la Asociación, hubo coincidencia en la necesidad de contar con un medio propio para no depender de las coberturas que ofrecían los rotativos a las sesiones de los cursos y plasmar en su justa dimensión la labor extensionista en torno a la educación martiana que venían realizando en el campus universitario. Comenzó así el andar del Boletín Oficial, órgano de prensa y veraz fuente a disposición de los interesados en informarse sobre las proyecciones de trabajos y resultados concretos de los ciclos de conferencias y del incipiente trabajo de la AAASM. 2. DESARROLLO. Con gran entusiasmo y la presencia de la presidenta de la Asociaciòn de Antiguos Alumnos del Seminario Martiano Lidia Celia Landa y el asesor Gonzalo de Quesada y Miranda (GQM), el 15 de agosto de 1945 sale a la luz el primer número del Boletín de la Asociaciòn, el doctor Eradio García Salazar ocupó el cargo de director, circulaba mensualmente y las primeras tiradas se destinaron a los subscritos entre los que se encontraron asociados, familiares y personalidades cercanas a la agrupación. Para el logro de los objetivos, con las sugerencias y exigencias de los directivos conscientes de que era un vehículo idóneo para la enseñanza y promoción de la obra martiana, se incentivó la suscripción a la publicación de los estudiantes del Seminario y de los miembros de los grupos creados para estudiar la vida y la obra del Maestro en las escuelas adscritas al Ministerio de Educación de la República de Cuba (MINED). Las páginas del órgano emprendieron un destacado trabajo de difusión de la labor del periódico Patria de Martí, fundado el 14 de marzo de 1892 en la ciudad de New York, aportando interesantes elementos sobre los esfuerzos realizados para su impresión, la participación del propio Martì en la distribución de los periódicos y reproduciendo artículos publicados en el medio. Desde sus inicios eran abordados en sus artículos aspectos relativos al comportamiento de los ciclos de conferencias impartidas por el doctor Quesada, las actividades martianas con agrupaciones de niños asesoradas por la Asociación desde 1945 y diferentes trabajos históricos de gran relevancia y contenidos novedosos, algunos aún hoy poco conocidos por muchos. El Boletín cambió su designación en el mes de enero de 1947, a partir de ese momento se conoció como revista Patria, evocando con ese título al periódico revolucionario fundado por José Martí, en ese instante aumentó el número de páginas, oscilando entre 60 a 65, aproximándose más al número de planas estimadas necesarias para cumplir el propósito de ampliar la cantidad de artículos de carácter histórico. Los cursos del Seminario Martiano fueron inscritos como cursos oficiales de la Comisiòn de Extensiòn de Filosofìa y Letras en 1946 y en el año 1949 por acuerdo del Consejo Universitario los aprobaron oficialmente como cursos de la Comisiòn de Extensiòn Universitaria de la Universidad de La Habana, aunque desde su instauración desarrollaron una labor integradora de los procesos sustantivos que constituyó de referencia en la bicentenaria academia. La publicación periódica de la Asociaciòn estaba acogida a la franquicia postal como correspondencia de segunda clase en la administración de correos de la capital, su segundo director fue el Dr. César Rey y posteriormente asumió la responsabilidad el doctor Quesada y Miranda, quien además ocupo el puesto de administrador y estuvo entre los autores frecuentes de artículos periodísticos, era el periodista colegiado No.63. El cargo de sub-director de la publicación lo ocuparon indistintamente Orlando Castañeda, periodista colegiado No.2134 y Andrés Alonso Sánchez uno de los jefes de redacción con más permanencia en las funciones. Antes del año 1952 la dirección y administración del medio periodístico funcionó en los locales sociales de la AAASM, eran sitios en los que se reunían las Juntas Directivas para realizar importantes evaluaciones, estaban enclavados en las casas de integrantes de la dirección y llegaron a radicar en la propia morada del Dr. Quesada, se debe acotar que en la Universidad de La Habana, donde laboraba e impartía clases el hijo del discípulo predilecto del Maestro, se concibieron, organizaron y evaluaron su implementación varios de los proyectos que con el tiempo hicieron realidad. Al inaugurarse el museo Fragua Martiana el 28 de enero de 1952, en el sitio exacto donde se encontraban las antiguas canteras de San Lázaro, en las que el joven Martí cumplió su condena de trabajos forzados con solo 17 años, fueron trasladadas a la instituciòn la dirección y administración del medio, aunque la impresión se realizaba en diferentes imprentas entre las que estuvieron la Puga, ubicada en Guanabacoa, los talleres Adelante, la tipografía Villegas, el taller Simón y la imprenta de Concha 63, municipio 10 de octubre. La publicación salía a la luz mensualmente, los interesados realizaban las suscripciones para recibirlas por espacio de uno o dos años, costando en sus inicios 1 peso a quienes eran socios, familiares y a los Grupos Infantiles Martianos (GIJM), agrupaciones de niños creadas por el doctor Juan Pérez Lemus en Remedios, Villa Clara, en el año 1929, concebidas para el estudio de la obra martiana en las escuelas elementales y en la segunda enseñanza. Los lectores que la compraban y no estaban suscritos abonaban el monto de 50 centavos por ejemplar. La portada de la revista. El diseño de portada incluía el nombre de la publicación, similarmente posicionado a como lo colocaron Martí y sus cercanos colaboradores en la portada del periódico Patria, reflejaba en números romanos la cantidad de años que llevaba editándose, la ciudad donde se imprimía, la precisión de que editaba en la capital de Martí, el mes, el año al que pertenecía y el número de la revista, en correspondencia con la mensualidad en que salía a la luz, toda la información se ofrecía en la parte superior, el resto del espacio lo ocupaba una foto o la ilustración seleccionada. Al realizar la revisión de la colección de la revista conservada en buen estado en la Fragua Martiana, se apreció que fueron utilizadas fotografías o ilustraciones con alto valor histórico en la mayoría de las portadas, en otras se colocaron instantáneas tomadas de actividades culturales o de las aulas donde daban los ciclos de conferencias del Seminario Martiano o las actividades de los Grupos Infantiles Martianos, los titulares del mes no aparecían en portada generalmente eran plasmados en la segunda plana. El primer número de Patria como revista, salió a la luz teniendo una imagen del acto desarrollado el 28 de enero de 1899 en la Casa Natal del Apóstol, en ese momento histórico fue develada la lápida empotrada por la emigración de Cayo Hueso en honor al excelso cubano, expresión de sincero homenaje a su memoria En diferentes portadas fueron agregadas fotografías de varios de los próceres de las guerras de independencia, Céspedes, Maceo, Gómez, Calixto García y José Martí se insertaron al cumplirse fechas relacionadas con sus vidas. Los editores utilizaban la parte delantera para dar a conocer realidades que requerían transformarse en sitios históricos descuidados en los que sugerían intervención estatal para rescatarlos, por tales motivos apareció la ilustración del añoso Jagüey que aprisionaba la catalina del ingenio de Carlos Manuel de Céspedes, sitio en el que se diera la alborada del 10 de octubre, aspiraban a que el espacio fuera convertido en un parque histórico nacional. Otros espacios históricos que aparecieron reflejados fueron: el Obelisco de los Constituyentes y Próceres, erigido en el año 1940 en Guáimaro, la Fragua Martiana, la Biblioteca Nacional José Martí, en el año de su inauguración. El director y los miembros de la redacción aprovecharon para difundir en portada correcciones a errores que cometían algunas publicaciones y que ellos consideraron inaplazables y necesarias correcciones. En el número de julio de 1956 presentaron, sin mencionar a la publicación que cometió el error al escribir una de las estrofas de la poesía de Martí conocida como “La Rosa Blanca”. Precisando que en el facsímile de la página 66 de sus Versos Sencillos de la edición original, impreso por la casa Louis Weiss Co. de Nueva York en 1891 bajo la supervisión del propio José Martí, podía verse claramente lo escrito por el Apóstol, cardo de oruga cultivo y nunca ortiga como se expuso erróneamente. Posteriormente el Dr. Antonio Ponce de León, director del Jardín Botánico de la Universidad de La Habana y socio colaborador de la Asociaciòn de Antiguos Alumnos del Seminario Martiano, en documentado trabajo demostró plenamente que al escribir oruga no se refería a un gusano, hacía referencia a la planta con ese nombre. Contenido informativo. El medio noticioso constituyó una voz activa en la divulgación de las efemérides y visitas de destacadas y relevantes personalidades a las sesiones de conferencias impartidas por el profesor y director de la revista, radicando en la UH y luego de trasladados los cursos al museo Fragua Martiana. El doctor escribió sistemáticamente el editorial titulado “Del Director”, presentó decenas de artículos históricos martianos, transmitía apreciaciones sobre hechos que se originaban pertenecientes a la realidad nacional universitaria, publicaba un balance de los cierres de las ediciones de los cursos ahondando en los siguientes aspectos: mejores graduados, resultados de los concursos convocados, elementos relacionados a la concepción y organización de los actos de inauguración y clausura. Toda la información compartida en estos editoriales periodísticos constituyó un excelente material de consulta para investigar sobre toda esa etapa de ardua labor en la enseñanza martiana. A través de la revista fue posible obtener inestimables valoraciones sobre el trabajo integral de la Asociaciòn de Antiguos Alumnos y de las comisiones de trabajo encargadas de materializar los acuerdos emanados de la Junta de Dirección, se celebraban elecciones todos los años eligiéndose los siguientes cargos: presidente(a), vice presidentes, secretaria, vice secretaria, tesorero, vice tesorero, bibliotecaria, vice bibliotecaria, vocales, el profesor Gonzalo de Quesada y Miranda era el presidente de honor y asesor. El trabajo de las secretarías y de las comisiones establecidas para su instrumentación era reflejado sistemáticamente en el medio, permitiendo conocer las necesidades de recursos para la edición de los números, los resultados de los ciclos de conferencias, los libros publicados en la editorial, las exposiciones de artistas plásticos y las muestras de libros que realizaba la biblioteca. En la edición correspondiente al mes de julio de 1956, el director reflexionó sobre las propuestas de cambios en la enseñanza sugeridos por el MINED, manifestó que era momento propicio para estudiar la urgente necesidad de una reforma en la educación cubana. Insistió en que hace años venían propugnando que se le ofrecieran a la niñez y a la juventud clases responsables, debidamente estructuradas sobre el pensamiento cívico de Martí para lograr ciudadanos honrados y útiles. Sugirió evaluar la posibilidad de que los graduados del Seminario Martiano de la Universidad de La Habana y los asesores de los Grupos Infantiles Martianos impartieran esas enseñanzas en las escuelas sin que se interpretara como un privilegio, se basó en que ellos eran los únicos educadores capacitados para tan delicada e importante labor por los cursos que asimilaron y las experiencias adquiridas en la materia. Por otra parte era apreciable la carencia de temas sobre la realidad política del país, se hizo evidente el silencio editorial ante incidentes de profunda repercusión nacional, sucesos que implicaron la movilización de las masas populares y de la opinión pública nacional como fueron: el golpe de estado del 10 de marzo de 1952, el Entierro Simbólico de la Constitución del 40, la Marcha de las Antorchas, el Asalto al Cuartel Moncada y al Palacio Presidencial. Como es conocido, los mencionados acontecimientos han trascendido y están indisolublemente ligados a la historia misma de la Patria y algunos concluyeron con momentos solemnes en el Rincón Martiano de la Fragua Martiana. Pasó inadvertido para la AAASM y su medio de prensa la muerte del joven Manuel de Jesús Argüelles Hidalgo con estrecha vinculaciòn al trabajo de los GIJM, el lozano luchador cayó víctima de la tiranía el 25 de diciembre de 1958, cuando contaba con 15 años y luchaba por la libertad de la Patria. Arguelles fue siempre un miembro ejemplar del GIM 180, había ganado el primer premio del concurso José Martí en el propio año de su muerte. La Asociación limitó su homenaje a enviar el pésame a sus familiares, pero no hubo un acto solemne, ni se publicaron sus datos biográficos como tantas veces realizaron por diversas fechas y personalidades que lo merecían. Una postura editorial diferente se patentizó a través del medio informativo sobre el tratamiento deformado a la figura del Maestro en filmes exhibidos o en la creación y posterior atención a los rincones martianos por solo mencionar dos ejemplos. La publicación asumió una postura de defensa del martianismo a favor de las buenas prácticas en el uso de su legado. No faltaron las valoraciones del doctor Gonzalo sobre actividades que las autoridades concibieron para homenajear al Apóstol en las que destinaron importantes cifras de dinero, fueron tan sentidas como polémicas en la sociedad cubana de la época las polémicas sobre la filmación de la película “La Rosa Blanca” sobre la que cientos de cubanos se hicieron eco y advirtieron en sus mensajes criterios de apoyo a lo esbozado en la publicación sobre el filme, del que se criticó la pobreza en el montaje de las escenas, sus efectos, las arbitrariedades, mixtificaciones históricas y lo demasiado robusto que era el actor Julio Capote para encarnar al Martí delgado, censuraron la presentación de Martí con buena ropa, más apropiada de un alumno de una escuela de rango que del hijo de una modesta familia, este defecto se observa en las escenas del hogar paterno donde la familia de Martí no parece tan pobre como era. Concluyeron sus consideraciones criticando las desacertadas caracterizaciones de Valdés Domínguez y Mendive, sobre todo el último, en la escena de la cárcel, no parecía el poeta educador lo compararon con el Conde de Montecristo. Otro llamado realizó sobre la situación de los rincones martianos en su sección ”Del Director” correspondiente a mayo de 1961, reflejando la crítica evaluación sobre los rincones levantados en toda la nación y muy especialmente en La Habana. Dejó bien sentado que todos esos rincones martianos nacieron del noble empeño de honrar al Apóstol, pero en ocasiones por falta de experiencia o acertada orientación, sobre todo en lo escultórico, no se ha alcanzado el fin propuesto. Lo mismo puede decirse de sus emplazamientos en funerarias, barras y otros sitios inapropiados. Este aspecto fue afortunadamente subsanándose con el triunfo de la Revolución. Llamó la atención observar en determinados y cruciales momentos de la nación el uso del reducido espacio de Patria, el que tantas veces declararon insuficiente para plasmar todos los trabajos educativos destinados a la formación de las nuevas generaciones, emitiendo notas de nacimiento o nupciales y obviando situaciones complejas y de gran trascendencia nacional como la Crisis de Octubre, otra expresión del respeto que mantuvieron a uno de los principios fundacionales de la asociación consistente en mantenerse alejados de asuntos políticos. El cumplimiento estricto de ese principio fundacional hizo imposible conocer detalles de muchos hechos desde la visión de los directivos. El trabajo con la historia en la publicación. La revista destinaba varias de sus secciones a disponer excelentes materiales históricos para el conocimiento de los seguidores, los encargados de transmitirlos concurrieron a ofrecer sus sapiencias en auditorios compuestos por asociados, estudiantes y representantes de las agrupaciones infantiles, tributando resultados novedosos, derivaciones de indagaciones científicas que eran sintetizadas y publicadas en el órgano, entre las más destacadas estuvieron las siguientes: El Dr. García Mazas, destacado profesor de la Universidad de Nueva York, representante personal de la notable escultora Mrs. Anna Hyatt Huntington, autora de estatua ecuestre de Martí emplazada en Nueva York, precisó detalles del surgimiento de la idea y los movimientos realizados para colocarla junto a la efigie de Bolívar y San Martín, los miembros de la Asociaciòn de Antiguos Alumnos, por su conducto, agradecieron a la artista por la fina sensibilidad artística demostrada en la elaboración de la obra. La conferencia impartida por Julio Martínez Coello titulada “Los barcos en los que viajó Martí”, aportó novedosos aspectos del vapor ”Nordstrand” en el que se trasladaron Máximo Gómez y José Martí para iniciar la contienda del 95. Para conmemorar el 70 aniversario del Manifiesto de Montecristi, el 23 de marzo de 1965, en acto de positivo interés martiano realizaron lecturas de valiosos trabajos presentados en el Forum Martiano. En el acto la vice-presidenta María Ruiz Estrada y el Dr. Didio Álvarez Camejo presidente de la comisión de actos, se refirieron a la honda significación del documento. El director de Patria destacó aspectos primordiales del manifiesto, el cual fue anticipo ideológico del primer editorial del periódico de Martì. A continuación se relacionan para el conocimiento y posibles consultas, algunos de los artículos divulgados en la habitual publicación, aparece reflejado el título y el escritor del trabajo, los que no tienen un autor identificado está determinado porque fueron publicados como editoriales en el órgano. Martí. Visto por su hermana Amelia. Recuerdos de Martí, por Juan de Dios Peza. Martí y el 27 de noviembre de 1871, por Olga E. Cabrera de Valdivia. María Mantilla, la niña amada de Martí. Del histórico Cayo Hueso, por la Dra. Benildes l. Remond, Directora de la Escuela del Club San Carlos. Fallecimiento del Teniente Coronel del Ejército Libertador, Ramón Garriga Cuevas, al que Patria consigna, como el último superviviente que estuvo con Martï, el día que el Apóstol cayó en, Dos Ríos. Ante el Manifiesto de Montecristi. Ideas pedagógicas de Martí, por Medardo Vitier. Misión alfabetizadora cumplida. El periódico Patria, de Martí, por Orlando Castañeda. La Habana, Capital de Martí, por Emilio Alfonso de la Torre. Carolina la Patriota, por Humberto Arnàez y Rodríguez. Presidentes alrededor de Martí, por Andrés Alonso Sánchez. La Revolución de Martí: Orden de alzamiento, por Andrés Alonso Sánchez. Martí en la Habana, por Orlando Castañeda. La AAASM llegó a contar con su propia editorial conocida por editorial Patria, en la misma se publicaron los siguientes textos: Anecdotario Martiano, por Gonzalo de Quesada y Miranda (1948).Divulgación Martiana (1953) obra que recoge conferencias importantes sobre temas martianos dictados en la asociación, Fechas Martianas de Orlando Castañeda Escarrà (1960). Otro esfuerzo de las ediciones Patria se manifestó con la tirada de un pequeño libro de extraordinaria utilidad para los estudiosos de la vida y la obra de Martí y muy especialmente para los alumnos del Seminario Martiano de la Universidad de La Habana, la obra de la autoría de Gonzalo se tituló Un calendario martiano, posteriormente el sub-director Castañeda y Escarrà publicó el texto ¿Cómo era Martí? Una selección de trabajos sobre Martí y sus pensamientos, se publicó en el año 1949, la ocasión escogida fue las actividades conmemorativas del centenario del Apóstol, artículos sobre su legado fueron divulgados en inglés bajo la autoría de Quesada y sus alumnos en los cursos martianos en la Escuela de Verano de la UH. La revista contaba con varias secciones informativas, la más representativas y perdurables en el tiempo fueron la sección, En Casa, con el mismo nombre se publicaba en el periódico Patria, órgano que constituyó un instrumento importante en el empeñó de unir a los cubanos para alcanzar y fundar la república, de acuerdo con el artículo 4 de las bases del Partido Revolucionario Cubano, (…) Con todos y para el bien de todos (…) Otras secciones informativas del medio fueron: Rincón Criollo. Rincón Botánico. Bibliografía. Del histórico Cayo. Nuestra portada. Consultorio Jurídico. Aportes de la publicación a la Campaña de Alfabetización. Para la Campaña de Alfabetización, iniciada el 1 de enero de 1961, fueron publicados trabajos y pensamientos martianos apropiados a ese fin, los miembros de la asociación fueron activos participantes en todas las tareas de la campaña y estaban al tanto de los detalles que se suscitaron en el centro de alfabetización basificado en el museo-escuela Fragua Martiana. Otra valiosa contribución a la campaña librada en el Año de la Educación, se hizo patente con la elaboración del “Manual Martiano de Lectura y Escritura” destinado a los nuevos alfabetizados, quienes con el repaso de los pensamientos, escribiéndolos sistemáticamente en una libreta entregada solo para ese fin , adquirieron valiosos conocimientos martianos contenidos en el manual. Tal acción reafirmó una vez más un concepto defendido por los asociados, conscientes de que el martianismo es acción en beneficio de la colectividad. Los autores del material consideraron fundamental que los recién instruidos recibieran una detallada explicación por parte de los alfabetizadores sobre el sentido de cada reflexión del pensamiento del gran cubano que conocieron al leerlo. Al revisar el contenido dispuesto para los instruidos se distinguió la selección de valiosos pensamientos martianos, llenos de valores como toda la obra del Héroe Nacional, en todos los casos destinados a la educación y a la formación del hombre. 3. CONCLUSIONES La preservación e indagación en la colección que atesora la Fragua, permitió conocer la inmensa labor editorial de la publicación, la existencia de una sólida y decisiva fuente de información la que unida a las actas de la juntas directivas, a los registros conservados y a las notas manuscritas del doctor Gonzalo de Quesada y Miranda , fueron de mucha valía para incluir en la investigación doctoral, relevantes aspectos del SM, de su AAASM y la asesoría prestada a los GIM, labores indisolublemente ligadas a la Universidad de La Habana en la que dieron sus primeros pasos. El órgano se afanó para que las nuevas generaciones, conocieran el periódico, Patria, considerado por Quesada y Miranda en enero de 1947 (…) el mejor vehículo del pensamiento político-revolucionario-social del Maestro, el testimonio vivo, en letra de molde, de su inmaculado patriotismo, de su incansable lucha por despertar y afianzar en todos los cubanos el amor a Cuba (...) Las ediciones de sus números estuvieron inspirados en el Apóstol y en grandes luchadores por Cuba libre, constituyendo una de las razones por la que se empeñaron en incentivar la investigación en aras de ofrecer datos exactos sobre sus vidas. No dejaron de sugerir la presencia de Martí en los medios modernos que ofrecía la civilización innovadora y llevaba a los hogares cubanos el libro, la prensa, el cine, la radio y la televisión, era marcada la intención por reflejar las vivencias que poseían quienes lo conocieron y compartieron momentos inolvidables, constituyendo Ernesto Mercado, hijo de su entrañable amigo Manuel Mercado, el que más horas destinó a expresar sus experiencias en los años que fue custodio de la Fragua. Nunca se detuvieron por temas de dineros, en varias ocasiones los propios socios acudían a sus tradicionales colaboradores y no pocas veces de sus mismos bolsillos dispensaban recursos con el objetivo de sacar a la luz el número del mes. En varias ocasiones realizaron tiradas extraordinarias en fechas de alto simbolismo para el conglomerado asesorado por Gonzalo de Quesada y Miranda. El Director y sus colaboradores llamaron desde el medio a la instauración de planes escolares educativos alejados de lo inadecuado, clamaron porque se aquilatara en su justo valor el pasado histórico protagonizado por valientes servidores a Cuba, apreciaron y reflejaron los avances educativos que se experimentaron al triunfar la Revolución y el desvelo en los estudiantes por acercarse al legado del Apóstol y de la dirección del país por preservarlo. Son indudables y pertinentes los aportes realizados por el medio en la promoción de las actividades extensionistas realizadas por el Seminario y la Asociaciòn en favor de la formaciòn cívica de la comunidad intra y extra universitaria y en defensa de los valores culturales de la Patria de Martì y de Fidel. 4. REFERENCIAS BIBLIOGRÁFICAS  Actas de las Juntas Directivas de la Asociación de Antiguos Alumnos del Seminario Martiano. (1944- 1963). La Habana.  Boletín Oficial de la Asociación de Antiguos Alumnos del Seminario Martiano (1945-1946). La Habana.  Colección de la revista, Patria. Museo, Fragua Martiana. La Habana.  Marchante, Carlos Manuel (2003).Museo Fragua Martiana. La Habana.  Martí, José (1963). Obras Completas, tomo V. La Habana: Empresa Consolidada de Artes Gráficas.  Quesada, Gonzalo (1953). Memorias del Seminario Martiano de la Universidad de La Habana. La Habana: Imprenta Universitaria.  Periódico Tiempo. (1946). La Habana. Sobre el autor Licenciado en Historia. Máster en Estudios Interdisciplinarios de América Latina el Caribe y Cuba. Profesor Auxiliar de la Universidad de La Habana. Actualmente integra el grupo docente de la Dirección de Extensión Universitaria de la casa de altos estudios. Imparte la actividad docente que realiza la dirección con los estudiantes, visitantes cubanos y de otras naciones interesados por la identidad, la cultura y el patrimonio universitario, mantiene un estrecho vínculo con la labor investigativa en torno a la figura del Héroe Nacional José Martí Pérez, participó como jurado en eventos del Movimiento Juvenil Martiano y asesoró investigaciones desarrolladas por estudiantes universitarios y de pre universitarios sobre la vida y obra de Martí. En los congresos convocados por el Ministerio de Educación Superior, desde el nivel de base hasta el Congreso Internacional Universidad 2022, ponencias de su autoría han sido presentadas. Es doctorando del CEPES de la Universidad de La Habana y secretario ejecutivo de la Cátedra Martiana. CONTRIBUCIÓN DEL DESARROLLO SOSTENIBLE EN LA FORMACIÓN DE LOS PROFESIONALES DE INGENIERÍA CIVIL Bernardo Omar González Morales1, Armando Juan Velázquez Rangel2, Manuel de Jesús Rodríguez Quintero3 1, 2 y 3Universidad Central Marta Abreu de Las Villas, Carretera de Camajuaní Km5½ .Santa Clara. Villa Clara. Cuba. 1bernardogm@uclv.edu.cu 2 velazquez@uclv.edu.cu, 3 mquintero@uclv.cu RESUMEN La educación para la sostenibilidad es un movimiento internacional de pensamiento y acción que promueve el respeto y cuidado de las personas – incluidas las generaciones presentes y futuras, de la diversidad, del medio ambiente y de los recursos del planeta. En el presente trabajo se propone un sistema de actividades orientadas hacia la preparación teórico - metodológico de los tutores que atiende la Práctica Laboral en Obra en la carrera de Ingeniería Civil de la Facultad de Construcciones de la Universidad Central “Marta Abreu” de Las Villas, en la Empresa Constructora de Obras para el Turismo Cayo Santa María, a partir del Desarrollo Sostenible y los problemas locales para potenciar su incorporación al proceso de enseñanza aprendizaje. Para el cumplimiento de los objetivos se utilizaron métodos de nivel teórico y empírico que permitieron diagnosticar estado actual del problema. En la investigación se analizó como el sistema de actividades docentes propuestas en la investigación contribuyó al desarrollo profesional de los tutores en las obras, esto mejoró su preparación en el tratamiento a la componente desarrollo sostenible y los problemas locales, estas acciones favorecieron un aprendizaje desarrollador en los futuros ingenieros. PALABRAS CLAVES: Desarrollo sostenible, educación, proceso de enseñanza aprendizaje, práctica laboral. CONTRIBUTION OF SUSTAINABLE DEVELOPMENT IN THE TRAINING OF CIVIL ENGINEERING PROFESSIONAL Education for sustainability is an international movement of thought and action that promotes respect and care for people – including present and future generations, for diversity, for the environment and for the planet's resources. In the present work, a system of activities oriented towards the theoretical - methodological preparation of the tutors who attend the Labor Practice in Construction in the Civil Engineering career of the Faculty of Constructions of the Central University "Marta Abreu" of Las Villas, is proposed. in the Cayo Santa María Tourism Works Construction Company, based on Sustainable Development and local problems to promote their incorporation into the teaching-learning process. For the fulfillment of the objectives, theoretical and empirical methods were used that allowed diagnosing the current state of the problem. In the research, it was analyzed how the system of teaching activities proposed in the research contributed to the professional development of the tutors in the works, this improved their preparation in the treatment of the sustainable development component and local problems, these actions favored a developer learning in future engineers. KEY WORDS: Sustainable development, education, teaching-learning process, labor practice. 1. INTRODUCCIÓN En los objetivos y fines de la Educación Ambiental definidos en las reuniones de Estocolmo en 1972 y Belgrado en 1975, así como la renovación del artículo 27 de la Constitución de la República, después de la cumbre de la Tierra celebrada en Río de Janeiro en 1992 queda claro la necesidad de incorporar con mayor alcance la dimensión ambiental al Proceso de Enseñanza Aprendizaje (PEA), como vía para contribuir al Desarrollo Sostenible desde la propia formación de los educandos. El Desarrollo Sostenible se asume como un proceso de elevación sostenida y equitativa de la calidad de vida de las personas, mediante el cual se procura el crecimiento económico y mejoramiento social, en una combinación armónica con la protección del medio ambiente, de modo que se satisfagan las necesidades de las actuales generaciones sin poner en riesgo la de las futuras. (1) Analizar e incorporar el Desarrollo Sostenible desde la Educación Superior, significa asumir una perspectiva más crítica, analítica y participativa, donde el sujeto tenga una posición activa frente al conocimiento y sea capaz de generar cambios en la vida actual sin comprometer las condiciones de las generaciones futuras. En el septuagésimo período de sesiones de la Asamblea General de Naciones Unidas celebrada en septiembre del 2015 se aprueba el documento final titulado “Transformar nuestro mundo: la Agenda 2030 para el Desarrollo Sostenible”, en la que se establece 17 objetivos y 169 metas que estimularán durante los próximos 15 años acciones para beneficio de la humanidad y el planeta. (2) La agenda instituye entre sus objetivos el número cuatro relacionado con la educación: Garantizar una educación inclusiva, equitativa y de calidad y promover oportunidades de aprendizaje durante toda la vida para todos. Propone entre sus metas la de garantizar que todos los alumnos adquieran los conocimientos teóricos y prácticos necesarios para promover el desarrollo sostenible, entre otras cosas mediante la educación para el desarrollo sostenible y la adopción de estilos de vida sostenibles, los derecho humanos, la igualdad entre los géneros, la promoción de una cultura de paz y no violencia, la ciudadanía mundial y la valoración de la diversidad cultural y de la contribución de la cultura al desarrollo sostenible, entre otros medios. La Sede Universitaria Cayo Santa María ubicada en la cayería norte de la provincia de Villa Clara, Cuba recibe en la etapa de febrero a mayo los estudiantes de cuarto año de Ingeniería Civil, que permanecen en la instalación de lunes a viernes, donde reciben la docencia correspondiente al Plan de Estudio del año de martes a viernes por las mañanas y por las tardes de lunes a jueves las prácticas laborales en obra, en la construcción de los proyectos hoteleros que ejecuta la Empresa Constructora de Obra para el Turismo Cayo Santa María y Asociación Económica Internacional Bouygues Batiment Internacional, con la tutoría de los especialistas de la empresa que trabajan en la ejecución de los proyectos. La preparación de los tutores, así como su accionar en la actividad que dirigen reviste una especial significación en estos momentos, adquiriendo ésta un carácter permanente para la organización y desarrollo de procesos pedagógicos que contribuyan a lograr la formación integral del individuo en su vínculo con el entorno, por el efecto multiplicador que ejerce el personal docente que es inevitable, no solo por la magnitud del universo de influencias que abarca (alumnos, familia y comunidad), sino, por la trascendencia de su labor dado el alto nivel profesional que caracteriza el desempeño de sus funciones y que constituyen los pilares básicos dentro de la educación cubana. El colectivo pedagógico debe tener la preparación necesaria para transformar las condiciones en que se desarrolla el proceso educativo si fuese preciso y buscar los métodos, procedimientos y estilos de trabajo que se correspondan con las particularidades de los grupos y alumnos que atiende, para así poner todos los recursos en función del desarrollo de sus educandos. En este sentido, resulta prioritario continuar reorientando el actual programa hacia la inclusión de la educación ambiental, desde la perspectiva del Desarrollo Sostenible, en la enseñanza de la ingeniería en su formación laboral, a partir de los resultados científicos y experiencias acumuladas, así como a la formación continuada de los tutores para el fortalecimiento del vínculo universidad – empresa y la comunidad. En las manos de los profesores y tutores está la vía para elevar y mantener actualizado el nivel profesional de los futuros ingenieros, acorde a los principios de la revolución y la política educacional y ambiental cubana. Es incuestionable entonces la necesidad de potenciar la preparación de los recursos humanos mediante el trabajo metodológico con los tutores de la Práctica Laboral en Obra de la carrera de Ingeniería Civil de la facultad de Construcciones de la Universidad Central “Marta Abreu” de Las Villas que se desarrolla en el escenario de la empresa. La preparación sistemática de los tutores de la Práctica Laboral en Obra es una necesidad objetiva y permanente encaminada a garantizar en los mismos un nivel de conocimientos filosóficos, pedagógicos y científicos que se corresponda con el desarrollo alcanzado por la sociedad. Por tal motivo la presente investigación tiene como objetivo: proponer un sistema de actividades orientadas hacia la preparación teórico - metodológico de los tutores que atiende la Práctica Laboral en Obra en la carrera de Ingeniería Civil de la Facultad de Construcciones de la “Universidad Central Marta Abreu” de Las Villas en la Empresa Constructora de Obras para el Turismo, a partir del Desarrollo Sostenible y los problemas locales para potenciar su incorporación al proceso de enseñanza aprendizaje. 2. DESARROLLO Metodología La metodología es un conjunto de procedimientos aplicados a cualquier ciencia (3). Las disímiles metodologías que se utilizan en la investigación educativa, facilitan el marco de referencia, la justificación lógica para examinar los principios y procedimientos por los que se formulan, responde y evalúan los problemas de investigación. La presente investigación, se concibe desde una metodología mixta, donde se combinan técnicas de recogida de datos, tanto cualitativas como cuantitativas, que permiten explorar y diagnosticar la situación de la problemática existente, para llegar a la toma de decisiones. Para el análisis de los resultados, de igual manera se utilizan elementos cualitativos y cuantitativos, a partir de análisis sencillos, que permiten interpretar la realidad, de acuerdo con los significados para las personas implicadas, a partir de la recogida de puntos de vista mediante las técnicas utilizadas. Todo esto permite afirmar que realizamos una investigación integral, de carácter no experimental. La investigación se desarrolló en la carrera Ingeniería Civil en la Facultad de Construcciones de la Universidad Central “Marta Abreu” de Las Villas. La población objeto de investigación es equivalente al total de tutores que atiende el componente Laboral Investigativo en la Sede Universitaria Cayo Santa María de la carrera Ingeniería Civil en la Facultad de Construcciones de la Universidad Central “Marta Abreu” de Las Villas y al claustro de profesores del departamento. En la selección de la muestra se utilizó un muestreo no probabilístico intencional, que corresponde a cincuentas especialistas de la empresa que fungen como tutores y ochos profesores del departamento. Como métodos y técnicas de la investigación se utilizaron: analítico-sintético, inductivo-deductivo, Histórico-lógico, análisis de documentos, observación, entrevista y encuesta, después de aplicados estos instrumentos expresan los resultados del diagnóstico de necesidades. La insuficiente preparación metodológica que presentan los tutores, limita la vinculación de los temas de la guía de La Práctica Laboral en Obra con las diferentes asignaturas del Plan de Estudio , teniendo en cuenta los aspectos señalados y la inserción de la tecnología educativa, que permita la derivación al tutor, de estrategias de trabajo para la dirección del proceso de la práctica, mediante el montaje de diferentes actividades docentes, la incorporación al proceso de enseñanza - aprendizaje el componente Desarrollo Sostenible. Modelar, por el conductor del taller, la inclusión de procedimientos generales de carácter intelectual que desde el aprendizaje de la dirección pedagógica (tomado en este caso como contenido) y sometido el directivo a rol del tutor, cuando enseña a estos, los procedimientos al dirigir el proceso mediante sus actividades. La elaboración de un sistema de actividades puede contribuir a mejorar la preparación de los tutores en la incorporación del componente Desarrollo Sostenible en la Práctica Laboral en Obra. Como se puede apreciar, estas acciones pueden ser realizadas como parte de las actividades de aprendizaje de la dirección del proceso de enseñanza - aprendizaje, que le permitan aplicar los diferentes contenidos, objeto de estudio de la guía del componente, a actividades concretas como son:  Análisis de un protocolo de la guía.  Elaboración de un plan de trabajo.  Elaboración de un ejemplo de un informe de la práctica. 3. RESULTADOS Y DISCUCIÓN El tutor desempeña un papel esencial en la formación laboral del estudiante y tiene la responsabilidad de integrar el sistema de influencias educativas presentes en los distintos ámbitos de su desarrollo personal. Para ello, debe poseer una preparación pedagógica que le permita identificar las necesidades educativas de los estudiantes, realizar las acciones personalizadas que correspondan y valorar la efectividad de las mismas. La Educación Superior posee varias formas de trabajo docente-metodológico, como se puede apreciar en el sistema de preparación del tutor se emplean tres modalidades básicas, entre ellas están: las Reuniones Metodológicas, Clases Metodológica y los Talleres Metodológicos, todas se acompañan de la auto preparación, del método de la observación, del análisis de documentos y análisis del proceso y del producto de la actividad, elaborada por los autores para apoyar a un aprendizaje desarrollador en el componente Desarrollo Sostenible en la Práctica Laboral en Obra. La planificación de acciones teórico-metodológicas a realizar durante la actividad, está conformada por diferentes temáticas a desarrollar en las preparaciones metodológicas. Están distribuidas de la siguiente forma:  Actividad #1 / Reunión Metodológica 1: introducción. Regularidades en la preparación de los tutores de la Práctica laboral en Obra en las diferentes visitas para enfrentar una correcta Educación para el Desarrollo Sostenible, al considerar los problemas locales.  Actividad #2 / Clase Metodológica 1: Análisis metodológico del tema 1. “El proyecto y sus características”  Actividad #3 / Taller 1. Exigencias metodológicas para el aprendizaje desarrollador.  Actividad #4 / Clase Metodológica 2. Análisis Metodológico del tema 2 “Replanteos, cimentaciones y estructuras del proyecto”.  Actividad #5 / Clase Metodológica 3. Análisis Metodológico del tema 3“Terminaciones”.  Actividad #6/ Taller 2. Ahorro y uso sostenible de los recursos.  Actividad #7/ Reunión Metodológica 2. Evaluación del sistema de preparación. 4. SISTEMA DE ACTIVIDADES 4.1 Actividad #1 / Reunión Metodológica 1: introducción. Regularidades en la preparación de los tutores en la Práctica Laboral en Obra en las diferentes visitas para enfrentar una correcta Educación para el Desarrollo Sostenible, al considerar los problemas locales. 4.1.2 Objetivos. Analizar las regularidades detectadas en las visitas de control a la práctica a los tutores que repercuten en la Educación para el Desarrollo Sostenible, considerando los problemas locales, para proponer acciones que propicien un ingeniero competente. Motivar a los tutores en la Práctica Labora en Obra su capacidad reflexiva que les permita la elaboración de actividades en el tratamiento al tema Desarrollo Sostenible, considerando los problemas locales, para la formación de una cultura laboral. 4.1.3 Medios. Registros de regularidades de las diferentes visitas realizadas a las obras, informes de la práctica, diario de obra, técnica lluvia de ideas. 4.1.4 Métodos. Conversación Heurística. 4.1.5 Metodología. Por conteo del uno al cinco se formarán cuatro equipos a los que se les entregan tarjetas de trabajo. Equipo 1. Regularidades de las visitas de control a las obras. Realizar un análisis de las mismas. Exponen cómo se manifiestan en su obra. Equipo 2. Regularidades de las visitas de control a los informes de la práctica. Realizar un análisis de las mismas .Exponen cómo se manifiestan en su obra. Equipo 3. Regularidades de las visitas de control al plan de trabajo. Realizar un análisis de los mismos. Exponen cómo se manifiestan en su obra. Equipo 4. Regularidades de las visitas de control al diario de obra. Realizar un análisis de los mismos. Exponen cómo se manifiestan en su obra. Cada equipo expondrá sus criterios, el resto de los docentes fungirá de oponente, el facilitador hará precisiones en la medida que sea necesario. Luego mediante lluvia de ideas se propondrán acciones que den respuesta a las regularidades detectadas. Se les orienta para el próximo encuentro estudiar los documentos siguientes: guía de la práctica, orientaciones metodológicas, memoria descriptiva del proyecto, con relación al tema 1. “El proyecto y sus características”. Profundizar en el tratamiento que se ofrece al tema Desarrollo Sostenible y el sistema de actividades del plan de trabajo que se plantea para los alumnos en la guía y las orientaciones que aparecen de este tema, en la guía. 4.1.6 Evaluación. Participación en la actividad y calidad de los planteamientos a partir del criterio del especialista y el resto de los tutores. 4.2 Actividad #2 / Clase Metodológica 1. Análisis metodológico del tema 1. “El proyecto y sus características”. 4.2.1 Objetivo. Valorar los objetivos y contenidos que se contemplan en el tema uno de la guía de la Práctica Laboral en Obra sobre el Desarrollo Sostenible, para la formación de una cultura general integral. 4.2.2 Medios. Guía de la práctica, orientaciones metodológicas, diario de obra, memoria descriptiva del proyecto. 4.2.3 Método. Elaboración Conjunta. 4.2.4 Metodología. Se forman cuatro equipos a los que se les entregan tarjetas de trabajo con las actividades siguientes: Equipo 1. Analiza las orientaciones metodológicas y la guía específicamente el tema 1 “El proyecto y sus características”, para determinar si los contenido que aparece en las orientaciones del tema es aplicable tal como aparece en el proyecto o se modifica. Proponen el sistema de evaluación del tema a partir de los objetivos del mismo. El equipo realiza un informe de su decisión. Equipo 2. Analizan las orientaciones metodológicas de la Práctica Laboral en Obra. Determina el sistema de tareas docentes que se tienen en cuenta para el desarrollo del tema incluyendo el Desarrollo Sostenible considerando los problemas locales. El jefe del equipo expone el trabajo realizado. Equipo 3. Analizan la guía de la práctica. Argumentan sí la guía contempla el componente Desarrollo Sostenible para un aprendizaje desarrollador. Proponen ejercicios donde se apliquen elementos del Desarrollo Sostenible, relacionados con la vida de los proyectos y considerando los problemas locales. Equipo 4. Analizarán los proyectos. 1. ¿Consideran ustedes que los mismos permiten una preparación integral del estudiante para su vida futura? 2. ¿La propia estructura del proyecto permite emplearlo como medio de enseñanza en la práctica? Argumente. 3. ¿Las actividades propuestas en el plan de trabajo son suficientes y transitan por los niveles de desempeño del conocimiento? Sugieren algunas actividades teniendo en cuenta la misma metodología que se propone en el proyecto, que permitan ser utilizados durante la práctica para resolver algunos problemas locales. En la medida que cada equipo exponga su trabajo, el resto se ve de oponente. El facilitador va realizando las precisiones pertinentes. 4.2.5 Evaluación. Participación. 4.3 Actividad # 3. Taller 1: Exigencias metodológicas para el aprendizaje desarrollador. 4.3.1 Objetivo. Valorar las exigencias a tener en cuenta en el orden metodológico a partir del artículo de Pilar Rico “Hacia un Aprendizaje Desarrollador” para poner en práctica el tratamiento de este aprendizaje en el componente Desarrollo Sostenible. (3) 4.3.2 Medios. Bibliografía: “Hacia un Aprendizaje Desarrollador” de Pilar Rico, memoria descriptiva del proyecto y la guía de la práctica. 4.3.3 Método. Elaboración Conjunta. 4.3.4 Metodología. Mediante lluvias de ideas el facilitador llevará a los participantes a realizar valoraciones y proponer acciones que permitan al tutor apropiarse de los conocimientos y habilidades del componente Desarrollo Sostenible de forma desarrolladora para que lo pueda aplicar en la práctica a los estudiantes. ¿Coinciden ustedes con las exigencias metodológicas propuestas por Pilar Rico en su artículo Hacia un Aprendizaje Desarrollador? Argumente. ¿Se trabajan sistemáticamente estas exigencias por las estructuras de dirección con los tutores? ¿Tienen en cuenta los tutores estas exigencias metodológicas en la preparación del plan de trabajo y en el informe? Mencione cuáles son las principales regularidades detectadas en este aspecto. El facilitador realiza precisiones en la medida que se realicen las preguntas. Se les orienta para el próximo encuentro estudiar los documentos siguientes: guía de la práctica, orientaciones metodológicas, memoria descriptiva del proyecto, con relación al tema 2 “Replanteos y cimentaciones del proyecto”. Hacer énfasis en cómo se trata el contenido en la guía y el sistema de actividades en el plan de trabajo. Ver otros proyectos turísticos. 4.3.5 Evaluación. Participación en el Taller. 4.4 Actividad #4 / Clase Metodológica 2. Análisis Metodológico del tema 2 “Replanteos, cimentaciones y estructuras del proyecto”. 4.4.1 Objetivo. Valorar los objetivos y contenidos que se contemplan en el tema 2 “Replanteos, cimentaciones y estructuras del proyecto” a partir de sus implicaciones en el Desarrollo Sostenible mediante el análisis crítico y reflexivo de la memoria descriptiva del proyecto; para el logro de un aprendizaje desarrollador. 4.4.2 Medios. Guía de la práctica, orientaciones metodológicas, diario de obra, memoria descriptiva del proyecto, planos del proyecto. 4.4.3 Método. Elaboración Conjunta. 4.4.4 Metodología. La actividad se realiza en una sesión de preparación metodológica dirigida por el investigador. A cada equipo se le entrega una hoja donde deben resumir la actividad que se les orienta. Equipo 1. Analizar la propuesta de las orientaciones metodológicas sobre la proyección del tema. Análisis del sistema de actividades que aparece en la guía de la práctica. El jefe del equipo realiza un resumen con la participación de los integrantes del mismo. Equipo 2.Análisis de las actividades de la memoria descriptiva del proyecto que se pueden realizar a partir de las implicaciones en el Desarrollo Sostenible. Se valora las conclusiones del equipo. Equipo 3. Proponer algunas acciones para las fichas de no conformidad de las actividades del proyecto donde se pueda evaluar la Educación para un Desarrollo Sostenible. El jefe del equipo expone, los demás apoyan. Equipo 4. Proponer un sistema de tareas docentes que se aplica durante el desarrollo del tema. Proponer un sistema de evaluación para el desarrollo del tema en la práctica. Se les orienta para el próximo encuentro el estudio por equipos de la licencia ambiental emitida por el CITMA, regulaciones y memoria descriptiva que aparecen en las obras, referente al tema. 4.5 Actividad #5 / Clase Metodológica 3. Análisis Metodológico del tema 3“Terminaciones”. 4.5.1 Objetivo. Valorar los objetivos y contenidos que se contemplan en el tema 3 “Terminaciones” a partir de sus implicaciones en el Desarrollo Sostenible mediante el análisis crítico y reflexivo de la memoria descriptiva del proyecto; para el logro de un aprendizaje para toda la vida. 4.5.2 Medios. Guía de la práctica, orientaciones metodológicas, diario de obra, memoria descriptiva del proyecto, planos del proyecto. 4.5.3 Método. Elaboración Conjunta. 4.5.4 Metodología. La actividad se realiza en una sesión de preparación metodológica dirigida por el investigador. A cada equipo se le entrega una hoja donde deben resumir la actividad que se les orienta. Equipo 1. Analizar la propuesta de las orientaciones metodológicas sobre la proyección del tema. Análisis del sistema de actividades que aparece en la guía de la práctica. El jefe del equipo realiza un resumen con la participación de los integrantes del mismo. Equipo 2. Análisis de las actividades de la memoria descriptiva del proyecto que se pueden realizar a partir de las implicaciones en el Desarrollo Sostenible. Se valora las conclusiones del equipo. Equipo 3. Proponer algunas acciones para las fichas de no conformidad de las actividades del proyecto donde se pueda evaluar la Educación para un Desarrollo Sostenible. El jefe del equipo expone, los demás apoyan. Equipo 4. Proponer un sistema de tareas docentes que se aplica durante el desarrollo del tema. Proponer un sistema de evaluación para el desarrollo del tema en la práctica. Se les orienta para el próximo encuentro el estudio por equipos de la licencia ambiental emitida por el CITMA, regulaciones y memoria descriptiva que aparecen en las obras, referente al tema. 4.6 Actividad #6/ Taller 2. Ahorro y uso sostenible de los recursos. 4.6.1 Objetivo. Profundizar en el conocimiento de las experiencias de avanzada (nacionales e internacionales) relacionadas con el desarrollo de una actitud consciente en el uso racional de la energía y los recursos así como su contribución a la protección del medio ambiente y las vías más apropiadas para lograrlo. 4.6.2 Medios. Documento lineamientos, licencia ambiental y regulaciones establecidas para el proyecto. 4.6.3 Método. Elaboración conjunta. 4.6.4 Metodología. Se forman tres equipos a los que se les entregan tarjetas de trabajo con las actividades siguientes: Equipo 1. Analizan los Lineamientos, la licencia ambiental sistema de acciones para la implementación en las obras turísticas. ¿Se aplica la licencia ambiental realmente como está establecido en los proyectos turísticos? ¿Qué hace usted como tutor en la práctica para lograr los objetivos que se plantean en el mismo y su vinculación con la guía? Los demás intervienen como oponentes. Equipo 2. Valoran bibliografía previamente orientada sobre fuentes de energía renovables y su vinculación con el medio ambiente, considerando problemas locales. El resto de los equipos opinan y evalúan. Equipo 3. Valoran la bibliografía sobre fuentes de energía no renovables y su vinculación con el medio ambiente, considerando problemas locales. En la medida que cada equipo exponga su trabajo, el resto sirve de oponente El facilitador realiza las precisiones pertinentes. 4.6.5 Evaluación. Participación en el taller. 4.7 Actividad #7/ Reunión Metodológica 2. Evaluación del sistema de preparación. 4.7.1 Objetivo. Comprobar el nivel de preparación de los tutores de la Práctica Laboral en Obra, en el componente Desarrollo Sostenible, considerando los problemas locales, para la formación laboral del futuro ingeniero. 4.7.2 Medios. Cuestionario 4.7.3 Método. Trabajo independiente. 4.7.4 Metodología. Mediante un examen, para todos los tutores de la muestra. ¿Consideras que la preparación recibida durante este curso te sirve para enfrentar el proceso de Educación para el Desarrollo Sostenible en la Práctica laboral en obra de la carrera de Ingeniería Civil? De lo aprendido en las diferentes sesiones de preparación ¿qué pondrás en marcha a nivel de la práctica? ¿Qué habrías hecho diferente para lograr este objetivo? ¿Te gustaría participar en otras sesiones de preparación similares a estas? ¿Por qué? 4.7.5 Evaluación. Evaluación Escrita. El investigador emite los criterios y destaca que la actividad realizada con ellos fue de gran placer y los felicita por los resultados alcanzados en cada sesión de trabajo. 4.8 Principales aportes y actividades investigativas realizadas por los tutores y estudiantes Medidas de mitigación de la fisuración de los Bungalows (extensivo al sistema FORSA). Detectado en obra de los principales problemas técnicos constructivos. Aplicación del Componente Desarrollo Sostenible a las actividades de la Práctica Laboral en Obra. Contribución en el Sitio de exposición Cayo Santa María para medir en condiciones reales la durabilidad de los materiales usados en las construcciones. Elaboración de normas técnicas. Diseños de muestras de hormigones con Bioplastificante de factura nacional. La preparación teórico metodológico de los tutores de la Práctica Laboral en Obra, de forma sistemática por la Facultad de Construcciones a través de la Sede Universitaria Cayo Santa María hace realidad lo expresado en la Agenda 2030. Garantizar que todos los alumnos adquieran los conocimientos teóricos y prácticos necesarios para promover el desarrollo sostenible. 5. CONCLUSIONES El sistema de actividades teórica metodológico contribuye a la formación profesional integral de los tutores de la Práctica Laboral en Obra, con una visión interdisciplinaria y una educación comprometida con las necesidades actuales del desarrollo sostenible del país en la carrera de la Ingeniería Civil, al propiciar el desarrollo de las investigaciones en el sector de la construcción, la innovación a través de servicios de alto valor agregado y transferencias de tecnologías con gran impacto en los proyectos turísticos que se ejecutan en Cayo Santa María, que favorece un aprendizaje desarrollador en los futuros ingenieros. RECONOCIMIENTOS Los autores desean agradecer a la dirección de la Empresa de Obras para el Turismo Cayo Santa María y ALMEST por su contribución en la investigación realizada. 6. REFERENCIAS 1. SOLERDEL SOL, A. Ley No. 81Ley de Medio Ambiente. La Habana: Ediciones ONBC, 2013. 2. COMICIÓN PARA AMÉRICA LATINA Y EL CARIBE, (CEPAL). Agenda 2030 y los objetivos del desrrollo – sostenible. Disponible en Web:http://www.sela/org/media/226236/agenda 2030 y los objetivos de desarrollo - sostenible pdf. [En línea] 2016. [Citado el: 19 de 10 de 2021.] 3. ROSETAL, M; LUDIN, R. Diccionario filosófico. La Habana: Política, 1981. 4. RISCO MONTEROR, Pilar. Hacia un aprendizaje desarrollador. La Habana: Editorial Pueblo y Educación, 2002. Sobre los autores Bernardo Omar González Morales. Universidad Central Marta Abreu de Las Villas, Facultad de Construcciones, Departamento de Ingeniería Civil, Profesor y director de la Sede Universitaria Cayo Santa María, Profesor Auxiliar, Master en Ciencia. Armando Juan Velázquez Rangel. Universidad Central Marta Abreu de Las Villas, Facultad de Construcciones, Departamento de Ingeniería Civil, Profesor y Jefe de Departamento , Profesor Titular, Doctor en Ciencia. Manuel de Jesús Rodríguez Quintero. Universidad Central Marta Abreu de Las Villas, Facultad de Humanidades, Departamento de Marxismo - Historia, Profesor, Profesor Auxiliar, Master en Ciencia. INTERDISCIPLINARIEDAD CIENTÍFICA EN LA GESTIÓN DE LA INFORMACIÓN CIENTÍFICA-TECNOLÓGICA Jorge Félix Valiente Márquez 1, Ariel Rodríguez Gómez2, Mirta de la Caridad Quesada Pollero3, Leopoldo Fernando Perera Cumerma 4, Raquel Bermúdez Morris5, 1, 3 Instituto de Información Científico y Tecnológica (IDICT), Calle 14 esq. 47 Miramar, Playa y Filial de Ciencias Técnicas de la Universidad Tecnológica de La Habana, Afiliación Calle 114 No. 11901. e/ Ciclovía y Rotonda. Marianao 15. La Habana, Cuba 2 Centro de Información y Gestión Tecnológica Granma (CIGET), General García #60 e/ Saco y Canducha Figueredo, Bayamo, Granma. Dr.C. Profesor Auxiliar 4, 5 Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE Calle 114 No. 11901. e/ Ciclovía y Rotonda. Marianao. La Habana, Cuba. valiente@idict.cu; ariel120971@gmail.com; mquesada@idict.cu; rperera@rimed.cu; rbmorris@tesla.cujae.edu.cu RESUMEN El sistema organizacional cubano actual asume la importancia de la incorporación de la ciencia en el cumplimiento de su misión social. Para lograrlo resulta vital el quehacer investigativo, direccionado hacia el desarrollo de una cultura científica elemental que guíe hacia el éxito de ese objetivo. Un camino eficaz para ello lo constituye la gestión de la información científica-tecnológica a partir del establecimiento de relaciones interdisciplinarias. Se emplearon métodos teóricos como el análisis bibliográfico y documental, además de la realización de entrevistas a especialistas de los diferentes actores. Desde estos saberes se proporcionan la creación de eventos que implementen una visión holística, integral e interdisciplinaria para resolver los problemas actuales, que sólo se logra con el trabajo y el conocimiento colectivo. El principal objetivo del presente artículo es recalcar la importancia de la interdisciplinariedad en la construcción del conocimiento y su aporte al diseño y realización de eventos. Esos que pueden constituir una red a partir de la gestión responsable de los mismos en una organización como el IDICT. Se reflexiona acerca de la importancia de la Gestión del conocimiento como unidad dinamizadora de estos conceptos. Se concluye que el desarrollo humano sostenible puede abordarse desde diferentes disciplinas, pero ninguna por sí sola podrá responder a sus principales problemas, siendo muy poco lo que aportan los equipos multidisciplinarios si las organizaciones que los crean ofrecen sólo una visión técnica de sus respectivas especialidades, sin articular el conocimiento y sin gestionarlo. PALABRAS CLAVES: Interdisciplinariedad, cultura científica, información científica-tecnológica, gestión del conocimiento. ABSTRACT The current Cuban organizational system assumes the importance of incorporating science in the fulfillment of its social mission. To achieve this, investigative work is vital, directed towards the development of an elementary scientific culture that guides towards the success of that objective. An effective way to do this is the management of scientific-technological information based on the establishment of interdisciplinary relationships. Theoretical methods such as bibliographic and documentary analysis were used, in addition to conducting interviews with specialists from the different actors. From this knowledge, the creation of events that implement a holistic, comprehensive and interdisciplinary vision to solve current problems, which can only be achieved with work and collective knowledge, is provided. The main objective of this article is to emphasize the importance of interdisciplinarity in the construction of knowledge and its contribution to the design and implementation of events. Those that can constitute a network from the responsible management of the same in an organization like the Idict. It reflects on the importance of knowledge management as a dynamic unit of these concepts. It is concluded that sustainable human development can be approached from different disciplines, but none by itself will be able to respond to its main problems, with very little contribution from multidisciplinary teams if the organizations that create them offer only a technical vision of their respective specialties, without articulating knowledge and without managing it. KEY WORDS: Interdisciplinarity, scientific culture, scientific-technological information, knowledge management. 1. INTRODUCCIÓN En el diálogo sostenido por nuestros científicos con el Presidente de la República Miguel Díaz-Canel Bermúdez en la sesión de clausura del Taller Científico “Las ciencias en la construcción de la sociedad y la cultura cubanas”, existió amplia coincidencia en la necesidad de elevar la cultura científica y la colaboración y cooperación interdisciplinarias entre los grupos e instituciones de investigación como condiciones para elevar aún más los resultados de la actividad científica y sus aportes al desarrollo de la sociedad cubana. En este sentido el Presidente puso énfasis en las relaciones estrechas que deben existir entre esta actividad y las instituciones del Estado, aprovechando las capacidades de las universidades y de las entidades de ciencia, tecnología e innovación y su conexión con todos los sectores de la sociedad, para impulsar la ciencia y la innovación, la comunicación y la informatización de la sociedad, pilares del Plan de desarrollo de la sociedad cubana. [1] Los temas tratados están íntimamente relacionados con las funciones y objetivos del Instituto de Información Científica Tecnológica (IDICT), lo que demanda una reflexión crítica para la actualización y perfeccionamiento de su labor. En el caso particular del proyecto REDOE pudieran plantearse interrogantes, relacionadas estrechamente con el cumplimiento de los objetivos perseguidos, relacionados con la calidad, eficiencia y efectividad de su gestión diaria, como las del título, y las siguientes: ¿En qué paradigma de ciencia se basa su actividad? ¿Qué conceptos de interdisciplinariedad y de cultura científica se asumen en la práctica? ¿Cómo se conciben las relaciones ciencia-tecnología y sus conexiones con la cultura? ¿Cuáles y cómo son las relaciones con otras instituciones de la sociedad? ¿Cuál es el aporte a la ciencia y la innovación, la comunicación y la informatización de la sociedad? ¿Y al necesario cambio educativo al que convoca la actual sociedad “de la información y el conocimiento” o “de la era digital”? ¿Se corresponde plenamente el nivel de las competencias profesionales de sus recursos humanos con las exigencias del desarrollo de la sociedad actual y futuras? En el presente trabajo, se pretende una primera aproximación al tratamiento de estos temas con el objetivo de reflexionar y debatir sobre los fundamentos teóricos y metodológicos de la gestión y resultados del proyecto, con vistas a lograr el aporte que le toca a la gestión de Gobierno para elevar la efectividad del sistema de ciencia, tecnología e innovación como motor de la actualización y del desarrollo sostenible de la sociedad cubana. Se valora el significativo aporte de la Gestión del Conocimiento y su incidencia en los conceptos analizados. 2. DESARROLLO Interdisciplinariedad, ciencia y cultura científica El fin de la interdisciplinariedad consiste en la superación de la fragmentación del conocimiento. Todo esto se ha producido debido al quebrantamiento de las formas de abordar el conocimiento. Esta novedosa forma de asumir lo cognitivo tiene la ambición y el objetivo de integrar los saberes para dar una nueva mirada epistemológica al conocimiento. Así pues, la interdisciplinariedad no se presenta como una opción sino como una necesidad. La construcción del conocimiento debe darse mediante la mutua cooperación y retroalimentación de los diversos saberes, evitando caer en reduccionismos que se han mostrado infértiles a la hora de explicar fenómenos sumamente complejos desde una sola disciplina. No se puede agotar el objeto de estudio, saber todo acerca de él. El conocimiento se encuentra en continua construcción. Es importante destacar como la interdisciplinariedad no está en contra de la especialización, sino que: “la interdisciplinariedad no combate la especialización. Cuenta con ella. Porque existen las especialidades y los especialistas, es hoy pujante el movimiento interdisciplinario. Es retomar de este modo a la unidad, síntesis del proceso dialectico que no tiene el propósito de retroceder a la inicial síntesis universitaria” [2]. Por ende, no se debe ver a la interdisciplinariedad como una amenaza frente a la especialización ni como un retroceso en la construcción de conocimiento, sino más bien como un avance que permitirá apreciar nuevos horizontes de objetos de estudio que ahora son tratados en mayor amplitud desde todas las perspectivas que cada objeto toca. Con esta nueva corriente intelectual se está superando la fragmentación y segmentación del conocimiento, se está superando este aislamiento. La interdisciplinariedad viene ligada estrechamente con la ampliación del horizonte de acción frente al problema, al objeto a tratar. Además, se debe tomar en cuenta que la interdisciplinariedad debe ser entendida como: “la investigación interdisciplinaria debe ser entendida como una forma de organización de las actividades cognoscitivas” [3]. El hecho de abordar un fenómeno desde varios puntos de vista no puede hacer más que enriquecer la idea de unidad y de la diversidad humana. Así pues, la interdisciplinariedad constituye el paradigma de la ciencia actual, al menos en lo que respecta al campo teórico. Por tanto, los estudios interdisciplinarios necesitan esfuerzo y dedicación por parte de los propios investigadores; deben estar abiertos al diálogo con las demás disciplinas y no querer imponerse y dominarlas. Así el hombre debe ser estudiado desde los diferentes puntos de vista, y los investigadores deben conseguir una interdisciplinariedad verdadera y no solamente en la teoría. No se debe por ejemplo darle más importancia a lo genético sobre lo social o viceversa, debe ser un estudio en la medida de lo posible objetivo y en la cual todas las disciplinas aporten lo que saben sobre este objeto de estudio tan complejo. En la actualidad la interdisciplinariedad se ve como una nueva forma de avanzar en el conocimiento a la hora de construir conocimientos integrales y completos, y con infinidad de posibilidades. Sin embrago, además de la teoría debe aplicarse en la práctica, en donde aún le queda mucho por hacer. “La interdisciplinaridad surge conectada con la finalidad de corregir los posibles errores y la esterilidad que acarrea una ciencia excesivamente compartimentada sin comunicación interdisciplinar” [4]. Más tarde, el ideal de la ciencia en la Modernidad perseguía el bienestar de todos y el dominio total de la naturaleza a través de la tecnología, el hombre dueño absoluto de la Naturaleza puesta a su entero servicio, sin tener en cuenta el costo que la humanidad tendría que pagar y de lo cual somos testigos hoy. La actividad científica fue en gran medida controlada por la industria militar y las grandes corporaciones de manera que a principios de este siglo el conocimiento se había convertido en mercancía [5]. Materiales y Métodos: se emplearon métodos teóricos como el análisis bibliográfico y documental, además de la realización de entrevistas a especialistas de los diferentes actores. Resultados y Discusión ¿Por qué es importante prestar cada vez mayor atención a la relación de la filosofía y las humanidades con el impacto del desarrollo científico y tecnológico que está teniendo lugar en nuestros días? Desde aproximadamente la década de los 70 del pasado siglo, nuevos hechos fueron abriendo paso a la evidencia de la interconexión existente entre los fenómenos naturales, sociales y del pensamiento, a la necesidad de una nueva concepción del cuadro científico del mundo, que considera a la ciencia y la tecnología como actividades también socio-culturales y sus implicaciones éticas, morales y axiológicas, y no dogma y dominio exclusivo de una élite. Este es, en esencia, el significado de cultura científica que lleva implícita el de cultura tecnológica, dada la relación actual ciencia-tecnología en la que se confunden sus fronteras de tal manera que frecuentemente se les denomina tecnociencia. ¿Pudiéramos delimitar nítidamente sus fronteras, por ejemplo, en las nanociencias, en la biotecnología, en la esfera de la inteligencia artificial? Incluso en esta era digital se analiza y argumenta que las fronteras entre el mundo físico, el mundo humano y el digital tienden a borrarse cada vez más. La Gestión del conocimiento como proceso dinamizador de la interdisciplinariedad en la gestión de la información científica- tecnológica La gestión del conocimiento (GC) (del inglés knowledge management) es un concepto aplicado en las investigaciones y organizaciones que le diseñan. Tiene el fin de transferir el conocimiento desde el lugar donde se genera hasta el lugar en dónde se va a emplear e implica el desarrollo de las competencias necesarias al interior de las organizaciones para compartirlo y utilizarlo entre sus miembros, así como para valorarlo y asimilarlo si se encuentra en el exterior de éstas. En el ámbito de la interdisciplinariedad la gestión del conocimiento se enfoca en que cada uno de los elementos y saberes que se entrelazan con el objetivo de mejorar los rendimientos de las organizaciones. El conocimiento no es un producto almacenado en un lugar junto a otros objetos manipulables; es una capacidad humana, es un proceso dinámico y lo relacionado con su gestión no es sobre él en sí mismo; sino encaminado a influir con objetivos determinados sobre las formas de identificarlo, adquirirlo, crearlo, desarrollarlo, compartirlo y conservarlo. Los autores del presente artículo añaden a este criterio, que la gestión está encaminada entonces a situarlo donde es pertinente y a promover su flujo; por lo tanto, la GC se refiere a procesos sociales [6]. En coherencia con el criterio anterior, recordemos a la Doctora en Ciencias Rosa Elena Simeón Negrín, quien desempeñó un papel fundamental en la introducción de la GC en Cuba; para ella ―…se basa en la creación de valores mediante procesos de transformación de conceptos considerados intangibles: información, conocimiento, aprendizaje, inteligencia; es decir, que a partir de unos ―recursos críticos o flujos de conocimientos y determinados procesos de transformación, el sistema estará en condiciones de crear nuevos conocimientos identificados como competencias esenciales que incluyen en las de carácter personal, tecnológica, organizativa y relacional (Simeón- Negrín, 2004). Estos términos lo caracterizan en su desempeño y constituye de forma general, la interdisciplinariedad con que se desarrolla la organización como resultante de la GC. Es, por tanto, el proceso que continuamente asegura el desarrollo y la aplicación de todo tipo de conocimientos pertinentes de una organización con objeto de mejorar su capacidad de resolución de problemas y así contribuir a la sostenibilidad de sus ventajas competitivas [7]. También se ve como la función que planifica, coordina y controla los flujos de conocimiento que se producen en la empresa en relación con sus actividades y su entorno, con el fin de crear unas competencias esenciales [8]. Además abarca la adquisición y uso de recursos para crear un entorno en el que la gestión de información es accesible a los individuos y en el que los individuos adquieren, comparten y usan dicha información para desarrollar su propio conocimiento y son alentados y habilitados para aplicar su conocimiento en beneficio de la organización. [9] Los autores ratifican que la GC se orienta en las formas de cómo capturamos el conocer (construcción de conocimiento tácito), se hace su conversión, se pone a disposición de otros y se reutiliza, de ello se deriva el capital cultural (banco de conocimiento explicitado). La dialéctica sistémica de la GC es comprobable porque …“la activación y seguimiento de este proceso permite que emerja y se transmita nuevo conocimiento, de manera que, en la medida que la estructura organizacional facilite la sincronía, cooperación y conectividad entre personas y saberes, promoverá un entorno de innovación y creatividad en la gestión del conocimiento”. Nada más interdisciplinario que este proceso. En coherencia con estos criterios se añade que, gestionar el conocimiento implica verlo como uno de los recursos claves de cualquier organización. Desde esta perspectiva hay que considerar que inicialmente se adquiere y manifiesta mediante habilidades, experiencias e intuiciones de forma tácita para luego convertirlo en un poder colectivo que se refleja en las prácticas culturales de sus actores internos y, desde ellos, a los productos y servicios que la organización expande a la sociedad. Todo desde un proceso interdisciplinar. La interdisciplinariedad en la GC, en detalle se refiere a las herramientas y a las técnicas diseñadas para preservar la disponibilidad de la información llevada a cabo por los individuos dominantes y facilitar la toma de decisiones, así como reducir el riesgo. El proceso de la Administración del Conocimiento, también conocido en sus fases de desarrollo como "aprendizaje corporativo" o "aprendizaje organizacional", tiene principalmente los siguientes objetivos: identificar, recabar y organizar el conocimiento existente; facilitar la creación de nuevo conocimiento y apuntalar la innovación a través de la reutilización y apoyo de la habilidad de los actores sociales a través de organizaciones para lograr un mejor desempeño. Los repositorios de conocimiento, explican el valor de la interdisciplinariedad en la gestión de la información científica- tecnológica pues sirven como base para descubrir y mapear el conocimiento, además de encargarse de conservar y reflejar las peticiones de éste producidas en sus ciclos de vida, construyendo el capital de innovación social definido como “la capacidad social de una organización de innovar, producir e integrar nuevo conocimiento, como un componente de sus valores. Constituye la forma más valiosa de capital cultural, pues es la única que tiene como propósito la creación de las restantes formas de este importante acápite, incluido él mismo". [8], [16]. Existen diversos estudios que muestran la interdisciplinariedad en una adecuada GC para fortalecer aspectos que operan a nivel individual, grupal y organizacional. En el nivel individual, se requiere fortalecer la formación, autonomía y apertura a la reflexión e intuición. La formación de los colaboradores es uno de los factores que influye significativamente en el aprendizaje organizacional, es decir, el proceso en que una organización crea y adquiere conocimiento para adaptarse o transformar su entorno y autonomía. [11] En el nivel grupal, se requiere fortalecer el apoyo a los colaboradores y su interacción. El apoyo y confianza de los líderes hacia los colaboradores contribuye a maximizar el aprendizaje en las organizaciones, tal como muestran autores como [11]. La interacción interdisciplinaria entre los colaboradores puede contribuir a la obtención de mejores resultados en la adquisición, difusión y aplicación del conocimiento. Este resultado se encuentra en estudios de organizaciones del sector público, privado y también en organizaciones dedicadas a la creación y difusión de conocimiento [11],[12] En el nivel organizacional, se requiere una estructura clara de procesos. El diseño de procesos en la gestión de recursos humanos permite definir de forma sistemática las actividades y tareas de cada subproceso, propicia la identificación de problemas concretos y facilita plantear medidas específicas para resolverlos. [13]. La diversidad y la propiedad del conocimiento requieren tanto de procesos de estructuración y organización con el fin de establecer el tipo de conocimiento y en manos de quién está, como de mecanismos disponibles para acceder a estos conocimientos y asegurar su integración a las actividades de la organización. Por su parte, la "dispersión y la diferenciación, así como la complejidad del conocimiento emergente, son condiciones para la creación de conocimiento e innovación". [14]. La GC “es una disciplina que promueve una solución integrada, interdisciplinaria y colaboradora para la creación, captura, organización, acceso y uso de los activos de información de una institución o entidad. Estos activos incluyen las bases de datos, los documentos y, mucho más importante, las capacidades y experiencias de sus miembros. La gestión del conocimiento no es un fin en sí misma, sino un medio para lograr objetivos. Su implementación debe responder a una estrategia corporativa adecuada al ambiente actual, caracterizado por ser muy cambiante, por la sobreabundancia de información y oportunidades, así como por la limitación de recursos y el incremento notable de la inversión en los empleados y en la información.” [15] El conocimiento se define, en su más amplia acepción, como el conjunto de experiencias, saberes, valores, información, percepciones e ideas que crean determinada estructura mental en el individuo para evaluar e incorporar nuevas ideas, saberes y experiencias. Según Núñez- Jover su gestión: "es la capacidad para identificar necesidades de conocimiento asociadas a problemas sociales y evaluarlas; buscar, producir, transferir, diseminar, aplicar conocimientos, tecnologías, que sirvan para atender esas necesidades sociales del más diverso carácter". Frente a una ciencia reduccionista y monolingüe, el Paradigma de la Complejidad nos exhorta a construir una ciencia integradora, políglota, y, por tanto, inter y transdisciplinar”. En el siguiente cuadro compara la ciencia mecanicista analítica con la ciencia del paradigma de la complejidad. Pero tal forma de pensar no surge de la nada, es necesario formarlo desde la misma infancia y a lo largo de toda la vida. De ahí el consenso universal sobre la importancia que se concede a la pertinencia del cambio educativo que debe experimentarse como uno de los pilares del desarrollo social actual y futuro, proclamado en los objetivos de la Agenda 2030 y en los Lineamientos para el desarrollo de nuestra sociedad. Hay que aprender a pensar la complejidad, que es aprender a pensar interdisciplinariamente. La interdisciplinariedad, como aspiración o tendencia hacia la unidad del saber, ha estado presente en todas las etapas de la historia de la ciencia. Pero la intensificación actual de las relaciones entre las ciencias naturales, sociales y técnicas adquieren rasgos cualitativamente nuevos: lo que antes constituía un conjunto de episodios aislados, hoy se manifiesta como proceso ininterrumpido que afecta a la misma ciencia y a la tecnología, a sus conexiones con la práctica y a la vida del ser humano. “La interdisciplinariedad no es un objetivo abstracto sino el movimiento del conocimiento desencadenado por las necesidades de la actividad científica, vinculada a la práctica social.” La estrecha relación entre la complejidad de la realidad objetiva, su aprehensión mediante un pensamiento complejo y la instrumentación de la interdisciplinariedad, queda también establecida en los criterios de la psicóloga [16] “El progreso requerido a las ciencias sociales en un mundo cada vez más complejo, exige de un pensamiento interdisciplinario en el que participen sin excepción todas las ciencias que tengan algo que decir sobre el curso de las dinámicas de la vida humana”1. La interdisciplinariedad es reflejo y concreción de la compleja realidad en toda actividad humana dirigida realmente a conocerla, comprenderla y transformarla. De ahí su carácter polisémico. Por esta razón, es abordada de diferentes formas, entendiéndose como principio; método de trabajo; forma de organizar una actividad, invariante metodológica y otros, en función de la óptica, posición o contexto desde la que se analice. La necesidad de la práctica de la interdisciplinariedad se hace evidente cuando se analizan algunos de los rasgos principales que definen a la sociedad contemporánea [17],[18]:  La globalización de la sociedad. La necesidad de resolver problemas globales complejos.  El aumento de la complejidad de los objetos de la investigación científica. El surgimiento de nuevas ciencias interdisciplinarias.  El extraordinario valor del conocimiento y sus consecuencias en las esferas socioeconómica, cultural y política y la necesidad de su continua actualización  La necesidad de abordar los aspectos morales y axiológicos de la actividad investigadora contemporánea y sus resultados.  Especialización e integración del saber: condición para profundizar en el conocimiento de la realidad y para el desarrollo social. Necesidad de trabajo cooperado en equipos interdisciplinarios.  El incesante y colosal desarrollo de la ciencia y de la tecnología. Su impacto en todas las esferas de la vida social y personal.  La necesidad de eliminar el divorcio entre las ciencias naturales, las exactas y las humanísticas.  Extraordinaria producción de la información y la necesidad de la alfabetización digital, informacional y mediática.  La constante movilidad del mundo del empleo y su internacionalización. A continuación se resumen algunas visiones sobre la interdisciplinariedad que no se contradicen, sino más bien se complementan y enriquecen su significado [19] Se destaca que la interdisciplinariedad es un acto de cultura, que tiene que ver más con el cómo que con el qué, cuya práctica rompe la dispersión cognoscitiva asumida por las ciencias en su aproximación infinita a esferas determinadas de la realidad y, en correspondencia con ello, la conformación de metodologías investigativas y sistemas conceptuales en esencia afines. Salazar [20], considera que “La interdisciplinariedad demanda el conocimiento del objeto de estudio de forma integral, estimulando la elaboración de nuevos enfoques metodológicos más idóneos para la solución de los problemas, aunque su organización resulta compleja, ante la particularidad de cada disciplina científica que posee sus propios métodos, normas y lenguaje”. (P.42). Núñez Jover [5], comprende la interdisciplinariedad no como meras "relaciones diplomáticas" entre disciplinas y grupos de especialistas diversos, por el contrario, se asocia a la cooperación orgánica entre miembros de un equipo, lógica específica de comunicación, barreras que se suprimen, fecundación mutua entre prácticas y saberes. M. Güémez (citada por Perera, 2018) analiza la importancia de la cooperación en el trabajo interdisciplinario, con la que se concuerda: “La cooperación como función en el trabajo interdisciplinario modifica las condiciones del proceso de trabajo científico, estimula nuevas formas de comunicación y socialización del proceso de investigación así como de sus resultados, permite la utilización, de forma colectiva de los medios e instrumento del trabajo de investigación.” Al considerar las actitudes y normas de conducta necesarios en la actividad científica quedan implícitas cualidades todas inherentes al pensamiento y actuación interdisciplinarios, entre otras: la actitud inquisitiva, el espíritu crítico hacia la labor realizada, la tenacidad, la disposición para considerar otros puntos de vista y cambiar los propios, la disposición para el trabajo colectivo, la orientación del pensamiento hacia la solución de problemas con trascendencia social, el autodidactismo. El investigador y especialista en ciencias de la comunicación [21], considera que la interdisciplinariedad supone la combinación de diversas disciplinas sobre un objeto, lo que lleva a la conformación de un equipo multidisciplinario para el estudio de dicho objeto. Otra forma, según él, que toma la interdisciplinariedad es la de colocar un objeto en la frontera de dos o más disciplinas. Al analizar y sistematizar estas posiciones y otras plasmadas en innumerables trabajos e investigaciones científicas, puede afirmarse que: Existe consenso en destacar la interdisciplinariedad como principio rector de un proceso basado en una peculiar forma de pensar y de proceder para conocer y resolver cualquier problema de la realidad, que requiere de la convicción, de la cultura y de la cooperación entre las personas.2 Su esencia radica en la actividad de las personas que la llevan a cabo, que se caracteriza por la cooperación orgánica y la flexibilidad entre los miembros del equipo; la comunicación y la desaparición de barreras; el enriquecimiento mutuo de saberes; la exaltación de valores como la solidaridad, la honestidad, la laboriosidad, la tenacidad, el respeto y confianza mutuos [18]. El pensamiento interdisciplinario y sus correspondientes formas de actuación resultan imprescindibles para el desarrollo continuo de la actividad científica-tecnológica contemporánea. Esto se puso de manifiesto en los argumentos expuestos en el diálogo de los académicos sostenido con la máxima dirección del país referido al inicio. Como ejemplo de la pertinencia de la instrumentación práctica de la interdisciplinariedad relacionadas con el objeto de nuestro proyecto está explícita en la intervención del presidente Díaz-Canel en la clausura del Primer Taller Nacional de Informatización y Ciberseguridad [22], celebrado en La Habana. Al referirse al proceso de informatización del país lo calificaba de complejo, retador, necesario, “que tiene que ser abordado en la multi y la interdisciplinariedad, con visión de país y contando con la participación institucional y ciudadana, el cual debe abarcar transversalmente todos los escenarios y ámbitos de la vida política, económica y social del país”. Más adelante insistió: “El tema es complejo, no hay recetas ni una respuesta única y se necesita trabajar con visión de país y con la participación intersectorial, interdisciplinaria y abierta que permita construir una estrategia nacional que ponga esta tecnología y la infraestructura que debe acompañarle al servicio de la construcción del socialismo próspero y sostenible que se pretende.” También reconoció los problemas confrontados en el proceso vinculado con la ausencia de una concepción interdisciplinaria, entre ellos “la implementación lenta y carente de integralidad, la fragmentación, la sectorialización, el marco regulatorio fragmentado, sectorializado y desintegrado.” Se preguntaba: “¿Son la información y la comunicación dos componentes más del desarrollo o más bien plataformas centrales a su gestión? ¿Se les puede seguir viendo como campos separados cuando la realidad demanda cada vez más soluciones interdisciplinares?”. Apremia asumir en los planos individual e institucional una transdisciplinariedad comprometida con el bien común y la unidad, desde la diversidad de los saberes y prácticas infocomunicativas». ¡Otro ejemplo de pensamiento complejo! Invito a los lectores a buscar cómo se manifiestan en su contexto estas cuestiones y ejemplos concretos de práctica interdisciplinaria. De hecho, en el proyecto se plantea como uno de sus objetivos atender al fomento del trabajo interdisciplinario. ¿Somos en la práctica interdisciplinarios? Una de las principales barreras que se anteponen a la práctica de la interdisciplinariedad es la educación fragmentada y memorística de las personas hasta la actualidad. Sobre competencia tecnológica. “Formar competencia tecnológica es también capacidad de entender el mundo, y no solamente de saber operar con artefactos y sistemas… “Formar competencia tecnológica es enseñar a saber manejarse con artefactos, instrumentos, sistemas operativos, con toda la eficacia y eficiencia necesarias, pero también es saber evaluar su pertinencia, en relación con los contextos culturales, y su relevancia, en relación con las demandas sociales. La competencia tecnológica no es solo una cuestión de competitividad económica, que también lo es. Es, además, una cuestión de calidad de vida y de solución funcional de problemas y necesidades del hombre. Y del hombre no en abstracto, sino en determinados contextos históricos, sociales y culturales.” ¿Estamos debidamente preparados? 3. CONCLUSIONES Los problemas fundamentales que enfrenta la humanidad, obligan a estudiarlos como un todo, demandando el concurso de todas las potencialidades del conocimiento humano, y exigiendo enfocarlos como complejos, inseparables y retroalimentados; de tal forma que surge la necesidad de abordar una visión integral e interdisciplinaria para resolverlos, que plantea cambios en la educación y la investigación con nuevos enfoques interdisciplinarios. La interdisciplinariedad y cultura científica contribuye a generar pensamiento flexible, desarrolla y mejora habilidades de aprendizaje, facilita el entendimiento, incrementa la habilidad de acceder al conocimiento adquirido y mejora habilidades para integrar contextos disímiles. Así mismo, contribuye a afianzar valores tales como: flexibilidad, confianza, paciencia, intuición, pensamiento divergente, sensibilidad hacia los demás y a aprender a moverse en la diversidad, entre otros. Todos elementos que favorecen la Gestión de la Información Científica – Tecnológica. La Gestión del Conocimiento es base para el papel estratégico que deben jugar los procesos de desarrollo sostenible, en los desafíos de la ciencia y los problemas sociales de donde nacen las investigaciones. Desde sus procesos se pueden descubrir, integrar y elaborar conocimientos desde diversos campos. En ese sentido, la interdisciplinariedad, más que un término, debe ser una estrategia, que conceptualice los propósitos y la planificación del proceso, con una previa evaluación del sistema organizacional. RECONOCIMIENTOS Los autores agradecen a los investigadores del IDICT que apoyaron el trabajo, así como a profesores de la Universidad Tecnológica de La Habana, Cujae, y Universidad de La Habana, Cuba 4. REFERENCIAS 1. PUIG, Y. (2021). La ciencia cubana, allí donde es necesaria. Consultado: 6/11/2021 2. BORRERO, A. (1991). La interdisciplinariedad: simposio permanente sobre la Universidad. Asociación Colombiana de Universidades. Bogotá, Colombia. 3. GELMAN, O. (s.f.). “¿Cuándo la investigación científica puede llamearse interdisciplinaria?” En: La experiencia interdisciplinaria en la Universidad. Centro de Investigaciones Interdisciplinarias en Ciencias Humanas, noviembre. 4. TORRES, S. (1987). “La globalización como forma de organización del currículo”. En: Revista d Educación. Ministerio de Educación y Ciencia de España. Núm. 282. 5. NÚÑEZ JOVER, J. (2004). La ciencia y la tecnología como procesos sociales. Lo que la educación científica no debería olvidar. Soporte electrónico. La Habana. 6. NÚÑEZ- JOVER, J. (2010). Conocimiento académico y sociedad. Ensayos sobre política universitaria de investigación y postgrado. La Habana: Editorial UH. 7. AVENDAÑO- PÉREZ, V. Y FLORES- URBÁEZ, M. (2016). Modelos teóricos de gestión del conocimiento: descriptores, conceptualizaciones y enfoques. Revista Entreciencias: diálogos en la Sociedad del Conocimiento. 4(10). (agosto- noviembre), Universidad Nacional Autónoma de México. León, México. pp. 201-227. 8. BUENO, E. (1998). El capital intangible como clave estratégica en la competencia actual. Boletín de Estudios Económicos, LIII (164), pp.207-229. 9. HARMAN, C. Y BRELADE, S., (2000). Knowledge Management and the Role of HR. Financial Times/Prentice Hall 2000. (Edición Española Kindle 2015). 10. APARTELA, I., Y PONJUÁN, G. (2016). La Segunda Generación de la Gestión del Conocimiento: un nuevo enfoque de la gestión del conocimiento. Redalycs. Instituto de Información Científica y Tecnológica de la Habana. La Habana, Cuba. 11. CASTAÑEDA, D. (2015). Condiciones para el aprendizaje organizacional. Estudios gerenciales, 31(134), pp.62-67 12. CASTAÑEDA, D. (2015). Condiciones para el aprendizaje organizacional. Estudios gerenciales, 31(134), pp.62-67 13. NARANJO, C. (2012). Prácticas de recursos humanos y gestión del conocimiento en las organizaciones: una mirada desde las dimensiones del trabajador del conocimiento. Ánfora, 19(33), pp. 115-142. 14. HERNÁNDEZ-GONZÁLEZ, A. Y GÓMEZ-GONZÁLEZ, R. (2015). Proceso de Gestión de Recursos Humanos en un ámbito universitario. Ingeniería Industrial, 2(36), pp. 175-186. 15. DOZ, L., CUOMO, A. & WRAZEL, J. (2007). From leadership to management: mobilizing knowledge for innovation in strategic alliances. En Malerba Franco, Brusoni Stefano. Perspectives on innovation; Cambridge University Press; Cambridge. 16. PONJUÁN- DANTE, G. (2006). Gestión del Conocimiento y el Profesional de la Información: una visión desde los países de Iberoamérica. Ponencia. VII EDIBCIC. Marília, Brazil. 17. FARIÑAS. G. (2009). Curso pre-congreso. Universidad 2009, La Habana. 18. PERERA, L. F. (2000). La formación interdisciplinaria de los profesores de ciencias. Un ejemplo en el proceso de enseñanza-aprendizaje de la Física. Tesis doctoral. La Habana. 19. ------------. (2021). Si la interdisciplinariedad es la respuesta. ¿Cuál es la cuestión? Tema 2. TIC, sociedad y currículo. Curso a distancia. Línea Educación a distancia. CINESOFT. La Habana. En: https://intelectagroup.com/aulavirtual/login/ 20. ------------. (2018). TIC, sociedad y universidad. Material básico. Curso semipresencial. Maestría “Las tecnologías en los procesos educativos”. CREA. Universidad Tecnológica de La Habana. EL PROCESO DE FORMACIÓN DE DOCTORES: UN DESAFÍO EMOCIONAL INTENSO Berta Margarita González Rivero Universidad de La Habana Vedado, La Habana, Cuba berta@cepes.uh.cu RESUMEN El artículo presenta una reflexión sobre factores que inciden en el proceso de formación doctoral y los hallazgos en publicaciones actualizadas, unido al dominio de la autora. Los hallazgos resultan de la aplicación de los métodos inductivo deductivo y analítico sintético para determinar aspectos esenciales vinculados a la percepción de los contenidos internos de dicho proceso. Los resultados muestran un proceso a lo interno que no siempre es visible pero que influye en los resultados y el avance de la investigación. Todo un contenido de carácter socioafectivo emana de ese estudio lo que provoca inseguridad y emociones negativas en los doctorandos. Constituye una caracterización de su significado para el crecimiento de los doctorandos y descubre características menos visibles del proceso. Por otra parte, se pone en evidencia que los tutores no están preparados para utilizar las vías y estrategias necesarias para que el proceso sea más agradable a los doctorandos. PALABRAS CLAVES: formación doctoral, proceso de formación doctoral, retos internos del proceso, características no visibles del proceso DOCTORAL EDUCATION PROCESS: AN INTENSIVE EMOTIONAL CHALLENGE ABSTRACT The article presents a reflection about factors that affects the doctoral training process and the findings addressed in updated publications and the author's domain. The findings result from the application of the inductive-deductive and analytical-synthetic methods to determine essential aspects related to the perception of the internal content of the process. The results show the inside process that is almost invisible but affect the formation. Socioemotional contents emanate from this study and show the insecurity and negative emotions in doctoral students. It is a characterization that brings its meaning for the growth of doctoral students and discovers invisible characteristics. In addition, it shows contents related to the requirements in the doctoral student's supervisors training in order to have ways and strategies to do nicely thar process. KEY WORDS: doctoral training, doctoral training process, intenal challenges doctoral training process, invisible process characteristics 1. INTRODUCCIÓN Los estudiantes de doctorado, en cualquier especialidad, ingresan no sólo con diversas motivaciones, sino sin tener una clara conciencia del significado y en qué consiste ese proceso. Tienen el reto de demostrar la capacidad de producir conocimiento y de la innovación [ARIAS, 2020]. Dicha formación, por tanto, es un camino casi desconocido y lleno de momentos tanto agradables como desagradables. Aunque se puede suponer que los estudiantes de doctorado son personas maduras, esto es cuestionado por diversos estudios [HA, BOUWMA, ERMIS, 2021] que tratan de los variados factores a los que se enfrentan, donde se incluyen los de salud mental y personales. Es lamentable que no haya muchos estudios acerca de cómo se vive, tanto por lo doctorandos como por sus tutores, este proceso. Se realizan investigaciones acerca de sus características más bien externas y visibles, que conforman las diferentes etapas del mismo. Lo que no es tan visible, no es objeto de estudio, aunque tiene una fuerza tan elevada que puede llevar no solo a que demore su culminación, sino a que no se concluya. De ahí, que el propósito de este artículo es poner en evidencia cómo es el proceso formativo doctoral a lo interno, lo menos visible. La educación del doctorando para afrontar los aspectos emocionales es beneficiosa para la investigación y reivindica la condición humana y ética del mismo. 2. DESARROLLO Los pequeños hallazgos Está bien definido que la formación doctoral se materializa en un proyecto elaborado con determinadas reglas que propone, de manera lo más clara posible, el problema que se desea resolver. El se ajusta a un conjunto de etapas y momentos que también están prescritas, por lo que pueden encontrarse, casi similar, en la mayoría de las tesis de las diferentes ciencias. Es un proyecto a largo plazo, que causa problemas a los que no tienen experiencia de trabajos con esa longitud [WARD & BRENNAN, 2018]. Con el tiempo se han modificado las normas y cada vez tienen más exigencias [GONZÁLEZ, 2019]. Está sujeto a un requisito de temporalidad, flexible, pero establecido y culmina en un informe que registra ese proceso y se defiende ante expertos en la temática. Su redacción también lleva normativa que lo califica de adecuado o no. Lo que no se registra en ese documento es el otro proceso invisible que acontece durante el desarrollo de la investigación. De manera simultánea, en ese proceso formal se solapa un proceso de contenido afectivo. Este otro proceso no se ajusta a las reglas ni características del anterior, pero también influye en la culminación o no del mismo. No se puede afirmar que tenga vida propia porque se origina en el transcurso del proceso formal. Lo que sucede es que tiene otras características dadas por su contenido, que expresa una implicación que trasciende lo cognitivo y el pensamiento. Si la mayoría de los tutores consideran que el poco dominio de la. metodología de la investigación para un doctorando es sinónimo de invalidez para lograr su doctorado, las insuficiencias en el conocimiento y en los recursos para llevar adelante el contenido interno del proceso, también puede invalidar y hasta llegar a afectar personalmente al doctorando. C. Rogers-Shaw y D. Carr-Chelman [2018] comprueban que las habilidades socioafectivas aumentan el éxito por lo que se deben incluir en la preparación de los doctorandos. Sus estudiantes muestran que el aprendizaje emocional brinda el apoyo necesario para el éxito desde el 1er año. Es de gran valor, según los autores, ya que los adultos traen sus propias experiencias. L. Ross; E. Lofstrom & M Remmik [2021 exponen, según estudios [JONES, 2013; WEISE at al., 2020, citados POR ROSS, LOFSTROM & REMMIK, 2021] que el proceso de alcanzar título de doctor es emocional e intelectualmente intenso e implica desafíos complejos. Además, muestran la presión sobre los doctorandos por las publicaciones, lo que requiere alta tolerancia a la frustración y capacidad para manejar los sentimientos. A. M. Ward & N. M. Brennam [2018] hacen referencia a autores que han encontrado como la presión para publicar origina impactos negativos en el progreso del doctorando. Hay estudios que muestran esa realidad, aunque en su mayoría no fueron realizados con ese fin. Se dan datos que de forma obligada revelan evidencias de ese contenido, aunque estén dirigidos al proceso más formal. Solveing Corner, Lofström & Phyalto [2017] refieren diferentes estudios que dan cuenta de la existencia de estrés y vivencia de soledad en la formación doctoral. Además de agotamiento y desgaste. Liona Nutov y Orit Hazzan [2011] informan una variedad de emociones que los investigadores vivencian en las diferentes etapas de su investigación: soledad, curiosidad, tristeza, frustración, alegría, aburrimiento. Susan Gardner, Jessica Jansujwicz, Karen Hutchins, Brittany Cline, & Vanesa Levesque [2012] refieren en sus estudios un problema relacionado con el equilibrio en la investigación. El doctorando se mueve entre la profundidad y la amplitud. Esto provoca incertidumbre, que ha sido constatada por Jiménez (2013) y para lo que propone una adecuada socialización de los doctorandos. Mitchel..A. Alarcón, Henry H. Alarcón y Carlos O. Venturo [2015] realizan un estudio en 18 tesis sobre los obstáculos epistemológicos en la formación doctoral. Sus hallazgos están relacionados con el mal empleo de los términos, valoraciones, afirmaciones, datos cuantitativos, que observan en dichas tesis. Concluyen que los doctorandos tienen una óptica parcializada y precrítica. En su trabajo sobre los retos en las habilidades informacionales de los doctorandos, L. Rodríguez, R. Sepúlveda, R. Serra, M. de la Rúa e I. Alfonso [2020] exponen que, aunque constituye un aspecto esencial del proceso, aún existen dificultades en su materialización por insuficientes estudios y alternativas didácticas adecuadas a ello. Es indudable que dichos estudios demuestran el reto que constituye para los doctorandos plasmar su proceso de investigación en un informe escrito [WARD & BRENNAN, 2018], sin tener una idea de lo que significa la ciencia y la investigación. No obstante, los tutores se desgastan revisando versiones y versiones que no satisfacen las exigencias de un informe científico. Ellos viven la impaciencia y sus doctorandos se llenan de frustración, de depresión. Solo innumerables intentos harán posible llegar a la meta, hasta que el pensamiento científico haya madurado en cada una de las repeticiones y vencido el desafío epistemológico. Karen H. Hunter y Kay Devine [2016] hallan que los doctorandos sufren depresión originada por diferentes causas, desde financiera hasta profesionales y consideran que una mejor comprensión de los factores negativos es necesaria. Exponen la presencia de una merma de la energía emocional que experimentan los doctorandos, lo que conduce al agotamiento emocional. Rubén Madrigal [2017] en sus estudios encuesta a 46 egresados y estudiantes de doctorado, hallando que el 35% considera que tenía muchas confusiones, algunas relacionadas con el tema o la metodología, lo que les impedía avanzar. C. Rogers-Shaw & D. Carr-Chellman [2018] constatan como surge la ansiedad y la frustración por el volumen de nuevos conocimientos que deben consumir. Anne Marie Ward & Niamh M. Brennam [2021] basados en resultados de diversos autores, compendian los factores situacionales e individuales que causan problemas a los estudiantes. En sus hallazgos encuentran la dificultad de distinguir entre trabajo y hogar, cuando se inician los estudiantes, debido a la naturaleza inextructurada de la actividad. A esto añaden el problema de adaptarse al trabajo independiente y también, en soledad. Otra dificultad está en que los estudiantes no se consideran idóneos para la severidad de esta actividad. Vivencian desagrado por recibir críticas, lo cual aumenta por el rigor, lo detallada y especial de ellas. Los doctorandos no pueden anticipar la longitud del proyecto, la profundidad del conocimiento y la escritura de este nivel. Todas estas evidencian demuestran la inseguridad, la incertidumbre, frustración y malestares a que está sometido el doctorando. Es un entramado de emociones y sentimientos que se imbrican con el proceso formal de la investigación y de lo que no siempre se tiene conciencia. El proceso por dentro La investigación científica es considerada una actividad intelectual compleja [MORA, 2018] por los diversos contenidos que la constituyen, por el hecho de que no basta la formación en una disciplina específica, ni la terminación de los estudios en la etapa académica. Si no hay comprensión de la investigación como tal, que va más allá de una metodología aplicada, más compleja se torna. Los investigadores en el proceso de formación doctoral se empantanan en ¿cómo hacer? Mucho más que en ¿qué estudio o investigo? Se detienen por mucho tiempo en lo metodológico y les cuesta ir más allá de lo aparente. La mirada de los implicados en la investigación, en especial la formación doctoral, tiene la visión de un “quehacer artesanal” [SÁNCHEZ, 1987, p.9, citado por GONZÁLEZ, 2015] que implica acompañar cada paso del educando y el traspaso directo de conocimientos prácticos y su aplicación. La reflexión sobre el proceso de formación doctoral lleva más allá de las cuestiones formales, metodológicas y científicas. Hay aspectos más subjetivos que no se tratan por los investigadores debido a que en el curso del proceso, el doctorando lo está vivenciando y no es capaz de interpretarlos adecuadamente. Por otra parte, los contenidos son más de carácter subjetivo y no se comparten con la franqueza que debiera ser. Todo este entramado está presente durante el proceso y de una u otra manera afloran al interior del doctorando, en la rutina de lo que acontece formalmente. El contenido socioafectivo del proceso de formación doctoral emana de los retos que están implícitos en el mismo y que no son plenamente visibles durante su desarrollo. Una de las limitaciones de la formación de los profesores es en la educación socioafectiva que le aportaría vías y estrategias para enfrentar esos retos [CURIEL, 2020]. Al encararlos, la mayoría de los tutores reconocerán que tuvieron evidencias de esa dinámica, pero muy pocas veces las enfocaron y tuvieron en cuenta en su asesoría. Si ya la incorporación de un profesional a la docencia universitaria constituye una decisión responsable y compleja [GONZÁLEZ, 2020], asumir el rol de tutor en la formación doctoral lo es aún más. Sobre la base de esos hallazgos y de las propias experiencias, se puede caracterizar este proceso con un conjunto de requerimientos que influyen en el doctorando y en la meta propuesta de culminarlo. Ellos serían: - Manejo de la temporalidad a largo plazo, sin la experiencia para ello - Asumir gran responsabilidad personal en cuanto a su propio aprendizaje - Afrontar aprendizaje independiente y trabajo en soledad - Avalar la novedad e importancia del conocimiento producido, para la comunidad científica - Afrontar expectativas de cantidad e impacto - Disposición a vivencias no siempre vinculadas al bienestar emocional - Desarrollar la identidad de la comunidad científica - Reconstruir su práctica relacional hacia una práctica de diversidad de espacios de interacción - Tolerancia y manejo de emociones y sentimientos, así como la frustración y los conflictos - Negociación en una relación interpersonal compleja (tutor-doctorando) - Toma de decisiones de diverso contenido (científicas, institucionales, personales, familiares) - Aprendizaje de un aprendizaje complejo El reconocimiento de estos desafíos que aguardan a los doctorandos constituye una necesidad en la preparación de los tutores y de todos los implicados en el proceso de formación. Para los estudiantes de doctorado es la mejor manera de recorrer el camino de esta formación de forma más placentera y rápida. Si se reconoce que se limita la formación de uno de los valores más importantes de este proceso referido a la ética del investigador: la dimensión del valor intrínseco del conocimiento [ÁLVAREZ & ÁLVAREZ, 2011] como esencia de su humanización, es aún más deficiente la contribución al aprendizaje emocional. Todo esto afecta la verdadera comprensión de los alcances de la creación de conocimientos que están vinculados a su impacto moral y social [GONZÁLEZ, 2015]. Por otra parte, no adquieren recursos para mantener un equilibrio emocional y manejar la dinámica que no es tan visible. El proceso de formación doctoral presenta una elevada complejidad, constituye una actividad pedagógica y tiene un conjunto de características que permanecen casi invisibles, o desvinculadas de él. Todo ello aumenta la inseguridad y los estados no placenteros. El desconocimiento de ellas como un camino natural inciden de manera esencial en el área afectiva de los doctorandos, limitando las posibilidades de vencer los obstáculos que existen. La mayoría de las vivencias negativas que experimentan los doctorandos pueden ser eliminadas o reducidas si contara con los recursos para ello. La preparación que requiere un tutor, no la logra en su desempeño como profesor, si no desarrolla su trabajo investigativo. Por eso, es una realidad que ni la Pedagogía ni la Didáctica le da los recursos para su actividad profesional de hoy [GONZÁLEZ, 2021] y menos para enfrentar los retos no visibles del proceso de formación doctoral. La decisión de incorporarse a un proceso largo, para el que no está preparada esa persona adulta, pocas veces descansa en una reflexión profunda y consciente de los obstáculos que deberá vencer. Las motivaciones que subyacen en esa decisión son muy diversas. Es un proceso de elevada complejidad y por otra parte, es de naturaleza pedagógica. La profundización en estos aspectos mejora y aclara el proceso. Se requieren muchas investigaciones sobre el tema para lograr conocer mejor esa dinámica interna del proceso. Si ellas avanzan, no sólo se agilizará la formación de doctores, sino que su recorrido se hará con mayor bienestar y disfrute. 3. REFERENCIAS 1. ARIAS, Magda Luisa. (2020). “La formación doctoral en gestión”. Revista Atlante: Cuadernos de Educación y Desarrollo, en https://www.eumed.net/rev/atlante/2020/02/formac-doctoral-gestionion.html 2. HA, Yoon; BOUWMA, Jana; & ERMIS, Grant. (2021). “Doctoral Students Identity Developement as Scholars in Educational Sciences: Literature Review and Implications”. International Journal of Doctoral Studies, 16, 89-125. https://doi.org/10.28945/4687/(CC BY- NC 40) 3. WARD, Anne Marie; & BRENNAN, Niamh M. (2020). “Developing a Student Doctoral education fit anlytical model to assess performance”. Studies in Higher Education, 45(7), 1448-1460. DOI: 10.100/03075079.2018.1545758 4. GONZÁLEZ, Dania. (2019). “El doctorado en Arquitectura. Experiencias compartidas Madrid – La Habana”. Revista científica Arquitectura y Urbanismo, 15(1), 125-134. ISSN 1815-589. 5. ROGERS-SHAW, Carol; & CARR-CHELLMAN, Davin. (2018). “Developing Care and Social Emotional Learning in First Year Doctoral Studensts: building Capacity for Success”. International Journal of Doctoral Studies, 13, 233-252. https://doi.org/10.28945/4064 6. ROOS, Lina; LÖFSTRÖM, Erika; & REMMIK, Marvi. (2021). “Individual and Structural Challenges in Doctoral Education: An Ethical Perspective”. International Journal of Doctoral Studies, 16, 211-236. https://doi.org/10.28945/4738 7. CORNER, Solveing; LOFSTROM, Erika; & PYHALTO, KirsI. (2017). “The Relationships Between Doctoral Students’ Perceptions of Supervision and Burnout”. International Journal of Doctoral Studies, 12, 91-106. http://www.informingscience.org/Publications/3754 8. NUTOV, Liora; & HAZZAN, Orit. (2011). “Feeling the Doctorate: Is Doctoral Research that Studies the Emotional Labor of Doctoral Student Possible?” International Journal of Doctoral Studies, 6, 19-32. file:///C:/Users/cepes/Downloads/IJDSv6p019-032Nutov307.pdf 9. GARDNER, Susan; JANSUJWICZ, Jessica; HUTCHINS, Karen; CLINE, Britanny; & LEVESQUE, Vanessa. (2012). “Interdisciplinary Doctoral Student Socialization”. International Journal of Doctoral Studies, 7, 377-394. https://doi.org/10.28945/1743 10. JIMÉNEZ, Diana F. (2013). La socialización en la formación doctoral de estudiantes mujeres en ciencias e ingeniería. En XII Congreso Nacional de Investigación educativa, 18-22 noviembre, Guanajuato, México, 1-9 11. ALARCÓN, Mitchel A., ALARCÓN, Henry, VENTURO, Carlos O. (2015). Obstáculos epistemológicos en la tesis doctoral: un estudio en la Universidad Nacional de Educación-Perú. En III Seminario Internacional de Representacoes Sociais. Educasao, 26-29/10/2015. 12. RODRÍGUEZ, Luiris; SEPÚLVEDA, Roberto; SERRA, Rolando; DE LA RÚA, Manuel; & ALFONSO, Ibette. (2020). “Habilidades informacionales: un requisito de alta demanda en la formación doctoral”. Revista Cubana de Información en Ciencias de la Salud, 3(1), 1-29. 13. HUNTER, Karen; & DEVINE, Kay. (2016). “Doctoral Students Emotional Exhaution and Intentions to Leave Academia”. International Journal of Doctoral Studies, 11. 35-61. http://ijds.org/Volume11/IJDSv//p035-061Hunter2198.pdf 14. MADRIGAL, Rubén. (2017). La evaluación del doctorado. Tensiones y retos derivados del eje: El doctorado del ISCEEM y los egresados. En XIV Congreso Nacional de Investigación Educativa. COMIE. San Luis de Potosí. 1-9. 15. MORA, Gaudis. (2018). “Cultura para la formación de investigadores como alterativa en la enseñanza universitaria”. Revista ARJE´, 12(22), 529-535. ISSN 2443 4442. 16. GONZÁLEZ, Diego. E. (2015). Concepción sobre la formación de investigadores. Aproximaciones hacia un Estado del Arte. En 3er Congreso Internacional de Investigación Educativa. Educación y Globalización. INIE. Costa Rica .3-5 febrero https://inie.ucr.ac.cr/congreso 17. GONZÁLEZ, Berta M. (2021). “Modelos de formación del profesor universitario: un tema de inaplazable innovación”. Revista Atenas, 2(54), 189-203. 18. CURIEL, Laura. (2020). “La educación socioafectiva en algunos programas de formación docente para profesores universitarios”. Revista Atenas,3(51), 19-32. 19. GONZÁLEZ, Berta M. [2020]. “La actividad del profesor universitario y su ideal de profesor”. Revista Conrado, 16 (75), 291-298. 20. ÁLVAREZ, Arturo C.; & ÁLVAREZ, Virginia. (2011). “Formación de investigadores educativos y eticidad”. Revista Iberoamericana sobre calidad, Eficacia y cambio en Educación. REICE, 9 (2), 97-104. http://www.rinace.net/reice/numeros/arts/vol9num2/art06.pdf Sobre la autora Profesora principal del CEPES, Universidad de La Habana, Profesora e Investigadora Titular, Dra. en Ciencias Psicológicas, Presidenta de la Asociación de Pedagogos en la Universidad de La Habana, miembro de la Cátedra Vigotski, miembro del Comité Doctoral y del Claustro de la Maestría en Ciencias de la Educación. 1 EVALUACIÓN DEL IMPACTO SOCIAL DE LA MAESTRÍA LAS TECNOLOGÍAS EN LOS PROCESOS EDUCATIVOS Raquel Bermúdez Morris1, Lorenzo Miguel Pérez Martín2 1 y 2 Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE, Calle 114 # 11901 / Ciclovía y Rotonda, Marianao, La Habana, Cuba rbmorris@tesla.cujae.edu.cu; lmartin@tesla.cujae.edu.cu RESUMEN La evaluación del impacto social de las maestrías constituye un proceso necesario para valorar el desarrollo alcanzado en los programas y su efecto en los participantes y en el entorno. La Junta de Acreditación Nacional (JAN) sugiere la realización de la autoevaluación de este impacto a partir de metodologías propias que respondan a las características de cada maestría. El objetivo del trabajo es presentar los resultados obtenidos en el proceso de evaluación interna del impacto social de la Maestría Las tecnologías en los procesos educativos de la Cujae, en correspondencia con los requisitos establecidos por la JAN. Este proceso se realizó mediante la aplicación de una metodología elaborada y validada para este fin, en la IV, V y VI ediciones. Los métodos aplicados fueron la encuesta, el análisis de documentos y el análisis de los resultados de la actividad, cuya triangulación arrojó logros en el diseño y desarrollo del programa, en la gestión realizada por el Comité Académico y por el claustro de profesores y tutores, así como en su efecto en el crecimiento y desempeño profesional de los participantes, el desarrollo local y el propio programa. Las limitaciones constatadas se tuvieron en cuenta para elaborar y aplicar un plan de mejoras con vistas a su perfeccionamiento, que contribuyó a la obtención de la categoría de excelencia en el proceso de acreditación. PALABRAS CLAVES: Impacto social, evaluación de impacto social, metodología para evaluar impacto social. SOCIAL IMPACT EVALUATION OF MASTERY THE TECHNOLOGIES IN EDUCATIVE PROCESSES ABSTRACT Social impact evaluation of masteries is a necesssary process to value the developing of the progams and their effects in the participants and the enviroment. National Acreditation Joint (NAJ) suggests the implemntation of the autoevaluation of this impact, based in own methodologies acording to characteristics of each mastery. The objective of this paper is to present the results obteined in the process of internal evaluation of social impact of Mastery The technologies in educative processes, of Cujae, acording with requirements ruled by NAJ. This process was based by a methodology made and validated to this goal, in IV, V, and VI editions. The methods aplied were survey, documents analysis and activity results analysis, by triangulation and the results have achievement in design and development of the program, in the management performed by Academic Committee and profesors and tutors group, and its effect in performance and personal growing of participants, local development and in the program. The limitations ascetained were used to made and aply a plan to get better the rpogram, that has a contribution in order to obtein excelence Rank in acreditation process. KEY WORDS: Social impact, social impact evaluation, methodology to value social impact. 2 1. INTRODUCCIÓN La evaluación interna del impacto social de la Maestría Las tecnologías en los procesos educativos, forma parte del proceso de evaluación, por la Junta de Acreditación Nacional (JAN), a partir de las exigencias de la Resolución Nº 11/19 del Ministerio de Educación Superior, que incluye el Patrón de calidad, la Guía de evaluación y los Modelos establecidos para la realización de este proceso. Esta Resolución considera el impacto social como parte de la variable de calidad: Pertinencia e impacto social del Patrón de calidad y expresa en el Anexo I: Patrón de calidad de maestrías (SEA-M) lo siguiente: “El programa prevé en su concepción la proyección de los impactos que deben producir, los cuales han de lograrse a través de la influencia en los procesos de transformación y desarrollo sostenible del territorio y el país, mediante el efecto producido en el crecimiento espiritual, el desempeño profesional y en las funciones sociales de los egresados. Se emplean, formas y vías para la determinación de esos impactos, lo que repercute en la calidad del desarrollo del programa y en el desarrollo local. Además, se manifiesta el monitoreo de los impactos que demanda el programa, en el establecimiento de las relaciones interinstitucionales, la atención a las necesidades que generan la actividad de profesores y estudiantes, la difusión del programa y de la información relacionada con el mismo (memorias escritas, reportes de investigación e informes, entre otras).” [1] Con respecto a la infraestructura plantea: “El respaldo material permite cumplir con calidad las exigencias de la formación y las exigencias de los procesos universitarios que se traduce en la gestión y el aseguramiento de un sistema de recursos y medios para alcanzar los objetivos previstos. La capacidad de gestión del programa se manifiesta en la efectividad de la planeación, organización, ejecución y control de sus recursos según las actividades de los procesos sustantivos (formación, investigación y extensión). Constituye objetivo principal de dicha gestión el aseguramiento y mejoramiento de la calidad del programa”. [2] En relación con el currículo la Resolución Nº 11/19 del Ministerio de Educación Superior lo define como: “Documento aprobado que expresa el perfil del programa, la organización, la estructura didáctica de los componentes académicos, investigativo, y extensionista con un enfoque de sistema en correspondencia con las características de la profesión y con el cumplimiento de los objetivos de la formación. Sintetiza el vínculo con las exigencias del mundo laboral y la sociedad”. [3] Y añade: “La implementación práctica y el aseguramiento del currículo demuestran un proceso de mejoramiento continuo de la calidad en las ediciones impartidas”. [4] La evaluación interna del impacto social de la maestría tiene el propósito de identificar las fortalezas y las debilidades del diseño y desarrollo del programa, de la gestión realizada por el Comité Académico y por el claustro de profesores y tutores, así como su efecto en el crecimiento y desempeño profesional de los estudiantes y del claustro, en el desarrollo local y en el propio programa. Se evalúa también el establecimiento de relaciones interinstitucionales, la atención a las necesidades que generan la actividad de profesores y estudiantes, la difusión del programa y la información producida (tesis, ponencias, artículos, reportes de investigación, monografías e informes, entre otras). Aunque en la Resolución Nº 11/19 la infraestructura y el currículo se consideran variables independientes, en el caso de la metodología que se propone para la evaluación interna del impacto social de la maestría, se integran aspectos de ambas en los elementos a evaluar, ya que tienen un vínculo directo con el impacto social, lo que permite la obtención de una información más completa e integrada y facilita el procesamiento y análisis de la información. El objetivo de este trabajo es presentar los resultados obtenidos en la evaluación interna del impacto social de la Maestría Las Tecnologías en los Procesos Educativos que se imparte en el Centro de Referencia para la Educación de Avanzada (CREA) dela Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE, a partir de la aplicación de la metodología elaborada con ese fin. 2. DESARROLLO En la revisión sobre el tema evaluación del impacto social de las maestrías se ha encontrado diversidad de propuestas metodológicas que aportan referentes valiosos para este trabajo. En el ámbito internacional se destacan Pineda [5], Kirkpatrick y Kirkpatrick [6], Billorou, Pacheco y Vargas [7] y en Cuba los estudios realizados por Barazal [8], Borges y Añorga [9], Guerra [10], Lara, Navales y Bravo [11], Mestre [12], Ramos, Meizoso y Guerra [13], Sánchez, Laguna y Tellez [14], Vargas, [15]. 3 El estudio teórico realizado permitió definir los siguientes conceptos básicos: Impacto social de la Maestría Las tecnologías en los procesos educativos: efecto del programa; de la gestión del Comité Académico y de la información y los recursos disponibles en el desarrollo local, en el crecimiento y desempeño profesional de los participantes y en el propio programa. [16] Evaluación interna del impacto social de la Maestría Las tecnologías en los procesos educativos: Valoración interna de las fortalezas y debilidades del diseño y desarrollo del programa, de la gestión realizada por el Comité Académico y el claustro así como de su efecto en el crecimiento y desempeño profesional de los participantes, en el desarrollo local y en el propio programa. Metodología para la evaluación interna del impacto social de la Maestría Las tecnologías en los procesos educativos: Formas, vías y métodos para autoevaluar la calidad del desarrollo del programa, la gestión del Comité Académico y de la información y los recursos disponibles; y su efecto en el desarrollo local, en el crecimiento y desempeño profesional de los participantes y en el propio programa. [17] La metodología para la evaluación interna del impacto social de la Maestría fue elaborada y validada por especialistas y mediante su aplicación en la práctica, donde se comprobó, además, su pertinencia y viabilidad. Está conformada por cuatro componentes: su objetivo, los métodos y procedimientos, las formas de implementación y las formas de evaluación, que en la dinámica de sus interrelaciones constituye una herramienta metodológica y práctica para realizar esta evaluación, en correspondencia con los requisitos establecidos por la JAN en el proceso de Acreditación. [18] Garantiza la calidad de la planeación, organización, ejecución y control de las acciones encaminadas al monitoreo de sus impactos Esta metodología cuenta con los conceptos básicos, la operacionalización de la variable, los métodos e instrumentos de evaluación, el procedimiento para el procesamiento y análisis de los datos obtenidos y las fases para la organización de la evaluación interna del impacto social de la maestría, que permiten valorar la tendencia evolutiva de cada edición mediante la indagación empírica. El informe de evaluación interna del impacto social de la maestría, que se elabora a partir de la aplicación de esta metodología, refleja el estado en que se encuentra el proceso de formación en cada edición, lo que permite la elaboración de planes de mejora en el caso que se detecte alguna dificultad en el proceso. Materiales y métodos El impacto social de la Maestría Las tecnologías en los procesos educativos constituye la variable objeto de estudio. Las unidades de evaluación se refieren al currículo, la infraestructura, el crecimiento y desempeño profesional de los profesionales que directamente se beneficiaron con la formación académica y su influencia en el desarrollo local y del propio programa, los que se valoran a partir de los criterios de los estudiantes, egresados, directivos, profesores y tutores de la maestría. En la tabla 1 se refleja la operacionalización de la variable. Tabla 1. Operacionalización de la variable: impacto social de la maestría Definición operacional de la variable: Efecto del programa, de la gestión del Comité Académico y de la información y los recursos disponibles; en el desarrollo local, en el crecimiento y desempeño profesional de los participantes y en el propio programa. Dimensiones Indicadores 1.Crecimiento profesional: cambios en la autorregulación del comportamiento en correspondencia con las exigencias de la profesión 1.1.Toma de decisiones autodeterminadas 1.2. Confianza en sí mismo 1.3. Flexibilidad 1.4. Defensa de sus criterios con argumentos sólidos 1.5. Decir lo que siente, sin agredir a los otros 1.6. Disposición para la cooperación 1.7. Independencia en la solución de los problemas 1.8. Solidaridad 1.9. Honestidad científica 1.10. Valoración crítica de la realidad 1.11. Creatividad en el cumplimiento de sus funciones 1.12. Receptivo y autocrítico 1.13. Respeto a los criterios de los otros 1.14. Conocimiento de sus fortalezas y debilidades profesionales 1.15. Liderazgo 4 2.Desempeño profesional: participación como miembro o dirigente en las actividades docentes, metodológicas, de investigación, intervención social y superación, mediadas por las TIC 2.1. Participa en la elaboración de programas de asignaturas, disciplina o planes de estudio 2.2. Integra las TIC en los procesos educativos que dirige 2.3. Dirige colectivos de asignatura, disciplina, año o carrera 2.4. Participa en el diseño y ejecución de proyectos de intervención social 2.5. Participa en el diseño y ejecución de proyectos de investigación 2.6. Integra las TIC en los procesos de investigación e intervención social 2.7. Publica ensayos, monografías, materiales didácticos digitales, artículos o libros 2.8. Presenta ponencias en eventos científicos 2.9. Realiza tutoría y asesoría a estudiantes o profesionales 2.10. Participa como tribunal de defensa de tesis de pre y posgrado 2.11. Imparte docencia de posgrado 2.12. Gestiona la información y el conocimiento en las actividades de su profesión 2.13. Se actualiza mediante la auto superación y la superación profesional 2.14. Utiliza el trabajo en equipo para la búsqueda de soluciones a los problemas de la práctica profesional 3.Efecto en el desarrollo local y del programa: solución de problemas del entorno laboral, social y del programa de la maestría, a partir de la aplicación de alternativas científicas, con integración de las TIC 3.1 Soluciona problemas de su entorno laboral, a partir de la aplicación de alternativas científicas con integración de las TIC 3.2. Soluciona problemas de su entorno social, a partir de la aplicación de alternativas científicas con integración de las TIC 3.3. Soluciona problemas del programa de la maestría, a partir de la aplicación de alternativas científicas con integración de las TIC 3.4. Aportes de los convenios y acciones de colaboración con otras instituciones, al desarrollo de la maestría 3.5. Participación en la maestría de profesores y tutores de otras áreas de la institución o de otras instituciones nacionales 3.6. Resultados reconocidos de la institución en la formación de pregrado y posgrado en el área de conocimiento del programa de la Maestría 4. Gestión de la información y de los recursos disponibles: acceso a la información requerida y calidad de los recursos, servicios e instalaciones para la docencia y la investigación 4.1. Acceso a la información científico técnica pertinente y actualizada que requiere el programa 4.2. Guías de estudio y orientaciones que facilitan el aprendizaje 4.3. Libros electrónicos, videos didácticos, medios audiovisuales, software educativos, simuladores, publicaciones certificadas y otros materiales multimedia con la calidad requerida 4.4. Empleo de servicios y materiales para la docencia y la investigación soportados en TIC 4.5. Pertinencia y suficiencia del equipamiento, insumos, instalaciones y mobiliario para las actividades docentes e investigativas del programa 4.1. Acceso a la información científico técnica pertinente y actualizada que requiere el programa 4.2. Guías de estudio y orientaciones que facilitan el aprendizaje 4.3. Libros electrónicos, videos didácticos, medios audiovisuales, software educativos, simuladores, publicaciones certificadas y otros materiales multimedia con la calidad requerida 4.4. Empleo de servicios y materiales para la docencia y la investigación soportados en TIC 4.5. Pertinencia y suficiencia del equipamiento, insumos, instalaciones y mobiliario para las actividades docentes e investigativas del programa 5. Gestión del Comité Académico: acciones continuas para la difusión del programa, la calidad en su desarrollo, 5.1. Difusión del programa (convocatoria, divulgación y matrícula) 5.2. Calidad en la planeación, organización, ejecución y control de las actividades y de la documentación del programa 5 la atención a las necesidades de los participantes, la comunicación mediante las TIC y la mejora continua del proceso 5.3. Atención a las necesidades de profesores, tutores, estudiantes y del servicio donde se insertan 5.4. Empleo de las TIC para la comunicación entre estudiantes, profesores y tutores 5.5. Mejora continua de la maestría 6. Desarrollo del programa: Calidad del diseño, organización, ejecución y evaluación del programa y contribución a la formación integral del máster 6.1. Contribución a la formación integral del máster y al logro de los objetivos del programa 6.2. Articulación de los objetivos generales y los de las actividades docentes 6.3. Actualización teórica y práctica del programa 6.4. Interdisciplinariedad y multidisciplinariedad 6.5. Calidad del diseño, organización y ejecución del programa 6.6. Calidad del desarrollo y evaluación de los cursos 6.7. Calidad del desarrollo y evaluación de la investigación 6.8. Calidad de la elaboración, presentación y defensa de las memorias escritas 6.9. Pertinencia y actualidad científica de las tesis que se defienden La población la constituyeron los estudiantes, egresados y el claustro de las ediciones IV, V y VI de la maestría. Se utilizó un muestreo aleatorio estratificado, quedando conformada la muestra por nueve profesores y tutores de una población de 30, para un 30% de representatividad; 10 directivos de un total de 41, para un 24% y 20 estudiantes y egresados de un total de 41, lo que constituye el 49% de la población, distribuida por edición como sigue: Tabla 2. Distribución de la muestra de estudiantes y egresados por edición Edición Muestra Población % de representatividad IV 8 14 57 V 6 7 86 VI 6 20 30 Total 20 41 49 Se utilizó como método la encuesta, que se aplicó a los estudiantes, egresados, profesores, tutores y directivos, el análisis documental y el análisis de los resultados de la actividad. Se aplicaron dos encuestas: una al finalizar cada uno de los cursos de la Maestría para recoger las valoraciones de los estudiantes acerca de su calidad y otra para obtener la información relativa a los indicadores y dimensiones de la variable. Fueron revisados: el programa de la Maestría, los expedientes de cada estudiante y egresado, así como los avales, criterios y certificaciones recibidas de las instituciones en que estos laboran y de las instituciones que recibieron el impacto de la aplicación de las tesis desarrolladas. Se tuvieron en cuenta los premios, reconocimientos, publicaciones y presentaciones en eventos científicos. Se procesaron los resultados por grupos:  Estudiantes y egresados  Profesores y tutores  Directivos Se estableció la escala de medición de los valores en que podían encontrarse los indicadores, dimensiones y variable; y la categoría nivel que ellos alcanzaban en cada grupo. Se determinó como escala de medición de los valores de los indicadores, de las dimensiones y de la variable la siguiente:  Poco (1) Algo (2) Bastante (3) Mucho (4) Totalmente (5) en las preguntas 1, 3 y 4  Mal (1) Regular (2) Bien (3) Muy bien (4) Excelente (5) en las preguntas 2, 5, 6 y 7 6  Insatisfecho (1) Más insatisfecho que satisfecho (2) Ni insatisfecho, ni satisfecho (3) Más satisfecho que insatisfecho (4) Satisfecho (5) en la pregunta 8 (pregunta 5 en el caso de los directivos) Se procedió a la tabulación de las encuestas por grupo: profesores y tutores, estudiantes y egresados y directivos. Se calcularon los porcientos de respuestas obtenidas en cada ítem (indicador) de acuerdo a la escala de medición establecida:  qué porciento del grupo respondió Poco, Algo, Bastante, Mucho o Totalmente en cada ítem o indicador de las preguntas 1, 3 y 4;  qué porciento del grupo respondió Mal, Regular, Bien, Muy bien o Excelente en las preguntas 2, 5, 6 y 7  qué porciento del grupo respondió Insatisfecho, Más insatisfecho que satisfecho, Ni insatisfecho, ni satisfecho, Más satisfecho que insatisfecho o Satisfecho en la pregunta 8 de la encuesta (5 en el caso de los directivos). Los niveles que se establecieron fueron: logrado (3), parcialmente logrado (2) y no logrado (1). Se consideró que en las preguntas 1, 3 y 4:  el indicador se encontraba en el nivel logrado cuando el 60% de los sujetos respondía Totalmente o Mucho; al menos en dos de los grupos  el indicador se encontraba en el nivel no logrado ; cuando el 60% de los sujetos respondía Poco; al menos en dos de los grupos  el indicador se encontraba parcialmente logrado cuando ocurría cualquier otra alternativa diferente a las anteriores. En las preguntas 2, 5, 6 y 7 se consideró que:  el indicador se encontraba en el nivel logrado cuando el 60% de los sujetos respondía Excelente o Muy bien; al menos en dos de los grupos  el indicador se encontraba en el nivel no logrado cuando el 60% de los sujetos respondía Mal; al menos en dos de los grupos  el indicador se encontraba parcialmente logrado cuando ocurría cualquier otra alternativa diferente a las anteriores. En la pregunta 8 (5 en el caso de los directivos), se consideró que:  cuando el 60% de los sujetos respondía Satisfecho, el indicador se encontraba en el nivel logrado; al menos en dos de los grupos  cuando el 60% de los sujetos respondía Insatisfecho el indicador se encontraba en el nivel no logrado; al menos en dos de los grupos  cuando ocurría cualquier otra alternativa diferente a las anteriores, el indicador se encontraba parcialmente logrado. En relación con la dimensión:  alcanzaba el nivel logrado cuando el 70% o más de sus indicadores se encontraba en este nivel; al menos en dos de los grupos  alcanzaba el nivel no logrado cuando el 70% o más de sus indicadores se encontraba en este nivel; al menos en dos de los grupos  alcanzaba el nivel parcialmente logrado cuando ocurría cualquier otra alternativa diferente a las anteriores. La variable:  se encontraba en el nivel logrado, cuando al menos tres de sus dimensiones estaban en este nivel y una en parcialmente logrado;  se encontraba en el nivel no logrado cuando al menos tres de sus dimensiones estaban en este nivel y una en parcialmente logrado;  se encontraba en el nivel parcialmente logrado cuando ocurría cualquier otra combinación entre los estados de las dimensiones. Con este proceder se tabularon los datos brindados por cada grupo. En el caso del análisis de documentos y de los resultados de la actividad se siguió el mismo proceder. Para conocer los resultados generales, a partir de lo obtenido en el procesamiento de cada uno de ellos, se realizó la triangulación, que permitió la toma de decisiones relativa al nivel que finalmente alcanzaba cada indicador, dimensión y variable. 7 Análisis de los resultados obtenidos Un análisis del comportamiento de los indicadores de cada una de las dimensiones arroja lo siguiente: Figura 1: Porciento que considera que la maestría ha influido totalmente o mucho en su crecimiento personal La dimensión 1 Crecimiento personal se encuentra en el nivel logrado, ya que todos sus indicadores alcanzan este nivel. Como se observa en la Fig.1 el porciento de los sujetos que consideran que la maestría ha influido totalmente o mucho en su crecimiento personal supera el 60% en todos los grupos. Se destacan notablemente los indicadores: defensa de sus criterios con argumentos sólidos, disposición para la cooperación, independencia en la solución de los problemas, solidaridad, honestidad científica y creatividad en el cumplimiento de sus funciones, en los que se obtiene más del 80% de respuestas en las opciones totalmente o mucho, en los tres grupos encuestados. Tanto egresados, como profesores y empleadores consideran que la maestría ha influido en el crecimiento personal de los egresados, específicamente en el conocimiento de sus fortalezas y debilidades, la receptividad y autocrítica, la confianza en sí mismo, la toma de decisiones autodeterminadas, la flexibilidad, la valoración crítica y el respeto a los criterios de otros. Existe alta satisfacción en el 100% de los egresados con la calidad y pertinencia del Programa, así como con el desempeño profesional de profesores y tutores. El 100% reconoce el impacto que tuvo el programa de maestría en su formación y crecimiento personal. Sin embargo, resulta conveniente monitorear más detenidamente el indicador liderazgo, que, aunque obtiene altos resultados, no alcanza los porcientos obtenidos en el resto de los indicadores. Figura 2: Porciento que evalúa de excelente o muy bien su desempeño profesional o el de sus subordinados La dimensión 2 Desempeño profesional alcanza el nivel logrado, en tanto el 71% de sus indicadores se encuentra en este nivel, al obtener más del 60% de las respuestas de los sujetos en las opciones de excelente y muy bien. La Fig. 2 refleja logros relevantes en los indicadores: integra las TIC en los procesos educativos que dirige, gestiona la información y el conocimiento en las actividades de su profesión, se actualiza mediante la auto superación y la superación profesional y utiliza el trabajo en equipo para la búsqueda de soluciones a los problemas de la práctica profesional, en los que más del 80% de los sujetos, en todos los grupos, seleccionan estas opciones. Los porcientos menos altos se obtienen en los indicadores: dirige colectivos de asignatura, disciplina, año o carrera; participa como tribunal de defensa de tesis de pre y posgrado; imparte docencia de posgrado; y participa en el diseño y ejecución de proyectos de intervención social, los que necesitan ser priorizados 0 50 100 % Indicadores de la dimensión 1 Maestrandos Directivos Profesores 0 50 100 % Indicadores de la dimensión 2 Maestrandos Directivos Profesores 8 en las funciones asignadas por los directivos y en la influencia de la maestría. Nótese que se vinculan con el liderazgo como cualidad personal, mencionado en la dimensión 1. No obstante, una importante cantidad de egresados ejerce la docencia, asume cargos de dirección, brinda asesorías y participa como tutor y miembro de tribunales de defensa de tesis de pre y posgrado en el área de la integración de las TIC a los procesos educativos, con resultados exitosos reconocidos por los usuarios y empleadores. El 100% de los egresados participa en eventos científicos nacionales e internacionales con ponencias vinculadas a su tema de investigación, han publicado hasta el momento 34 artículos científicos en revistas científicas reconocidas, de ellos 10 en revistas de alto impacto y 24 en revistas indexadas. Por otro lado, se destaca la participación de los estudiantes en los proyectos de investigación que se desarrollan en el CREA, en los procesos de introducción, generalización e impactos de sus resultados, así como en la creación de un compromiso con la continuidad de la línea investigativa en la que han desarrollado su tesis, mediante su incorporación al proceso de formación en el Doctorado en Ciencias de la Educación Superior que se realiza en este centro y su integración al claustro de la maestría. Figura 3: Porciento que considera que es total o mucho el efecto de la maestría en el desarrollo local y del programa La dimensión 3 Efecto en el desarrollo local y del programa está parcialmente lograda, ya que solo el 50% de sus indicadores obtienen más del 60% de las respuestas en las opciones totalmente y mucho. Como se observa en la Fig. 3 los indicadores referidos al efecto de la maestría en el desarrollo local alcanzan el nivel logrado, con muy altos resultados, lo que muestra el reconocimiento al efecto de la maestría en la solución de problemas del entorno laboral, social y de la propia maestría. Los egresados realizan labores afines al campo en el que fueron formados en la maestría, participan en actividades de investigación, desarrollo e innovación que tributan al desarrollo empresarial, productivo, científico, tecnológico o cultural. Los resultados de las investigaciones de los egresados, derivadas del programa, han tenido un impacto en la integración de las TIC a los procesos educativos mediante soluciones tecnológicas, desde un enfoque científico-pedagógico, en centros de capacitación de empresas y organismos, universidades, direcciones municipales, provinciales y nacionales de la educación y las ciencias, entre otros, lo que se manifiesta en los avales emitidos por las instituciones donde se han desarrollado estos trabajos. Es necesario señalar que la maestría y su claustro gozan de prestigio ante los egresados, sus empleadores y otras instituciones nacionales e internacionales. Existen intercambios académicos y convenios con siete instituciones nacionales e internacionales. Sin embargo, la percepción que tienen los estudiantes, egresados y directivos, del efecto de la maestría en su propio programa, concretados en su valoración de los indicadores: aportes de los convenios y de la colaboración con otras instituciones al desarrollo de la maestría, participación en la maestría de profesores y tutores de otras áreas de la institución o de otras instituciones nacionales y resultados reconocidos de la institución en la formación de pregrado y posgrado en el área de conocimiento del programa de la Maestría; es menos relevante. Es interesante que los estudiantes de la VI edición dieron valoraciones mucho más favorables en estos indicadores que los de la IV y la V, lo que muestra una tendencia positiva en la solución de estos aspectos. Llama la atención que los profesores y tutores tienen una evaluación mucho más favorable de estos indicadores que los que cursan la maestría. No obstante, es necesario continuar atendiéndolos 0 20 40 60 80 100 Soluciona problemas de su entorno laboral Soluciona problemas de su entorno social Soluciona problemas del programa de la maestría Aportes de los convenios y la colaboración Participación de profesores y tutores de otras áreas e instituciones Resultados reconocidos de la institución en la formación % Indicadores de la dimensión 3 Maestrandos Directivos Profesores 9 prioritariamente y resolver las dificultades que aún puedan existir, para modificar las percepciones menos favorables de algunos estudiantes y directivos. Figura 4: Porciento que evalúa de excelente o muy bien la gestión de la información y los recursos La dimensión 4 Gestión de la información y los recursos disponibles se encuentra en el nivel logrado, ya que el 80% de sus indicadores alcanza este nivel, al obtener muy altos porcientos de evaluaciones de muy bien y excelente por parte de estudiantes, egresados, profesores y tutores. No obstante, el indicador pertinencia y suficiencia del equipamiento, insumos, instalaciones y mobiliario para las actividades docentes e investigativas del programa muestra una evaluación menos alta por parte de los estudiantes y egresados, lo que refleja que aún perciben como insuficiente el equipamiento y las condiciones para el desarrollo de la maestría, a pesar de los esfuerzos y de los avances alcanzados en este aspecto en el devenir de la maestría. Si bien la calidad de la gestión es cada vez mayor, el acceso a internet está resuelto, desde el aula y desde las áreas de trabajo, los equipos, en este caso, las PC y la pizarra electrónica inteligente, se han ido rompiendo y no han tenido arreglo, ni sustitución por otro equipamiento, lo que afecta, en cierta medida, el idóneo desarrollo de la maestría, cuyo tema se centra, precisamente, en las TIC. Figura 5: Porciento que evalúa de excelente o muy bien la gestión del Comité Académico. La dimensión 5 Gestión del Comité Académico se encuentra en el nivel logrado, ya que el 100% de sus indicadores alcanza este nivel, al reflejar altos porcientos de respuestas en las opciones de excelente y muy bien. Es una de las dimensiones con más altos resultados en la variable estudiada, lo que destaca el trabajo realizado por el colectivo que integra el Comité Académico, altamente reconocido por profesores, tutores, egresados y estudiantes. 0 20 40 60 80 100 Acceso a la información pertinente y actualizada Guías de estudio y orientaciones Materiales didácticos con la calidad requerida Empleo de servicios y materiales soportados en TIC Pertinencia y suficiencia del equipamiento, insumos e instalaciones % Indicadores de la dimensión 4 Maestrandos Profesores 0 20 40 60 80 100 Difusión del programa Calidad en la planeación, organización, ejecución y control Atención a las necesidades de profesores, tutores y estudiantes Empleo de las TIC para la comunicación entre estudiantes, profesores y tutores Mejora continua de la maestría % Indicadores de la dimensión 5 Maestrandos Profesores 0 20 40 60 80 100 % Indicadores de la dimensión 6 Maestrandos Profesores 10 Figura 6: Porciento que evalúa de excelente o muy bien el desarrollo del programa. La dimensión 6 Desarrollo del programa de la maestría se ubica en el nivel logrado. El 100% de sus indicadores se encuentra en este nivel, ya que en todos se obtienen resultados por encima del 80% en las evaluaciones de excelente y muy bien, tanto de estudiantes, como de profesores. En las respuestas a las encuestas aplicadas al finalizar cada curso de la maestría, los estudiantes reflejan que los cursos son pertinentes, aportan a la formación profesional y en particular, a la preparación para la docencia, que sus contenidos tienen actualidad y los métodos son adecuados. Señalan además, que los cursos cumplen sus expectativas y se caracterizan por el adecuado desempeño de los profesores y el apoyo del personal técnico. Estos resultados reconocen la contribución de la maestría a la formación integral del máster y al logro de los objetivos del programa, así como la calidad de su diseño y desarrollo y la pertinencia y actualidad de las tesis defendidas. Es, junto a la dimensión 5, la de mejores resultados en la variable impacto social de la maestría. Figura 7: Nivel alcanzado en cada dimensión La variable impacto social de la maestría alcanza el nivel logrado ya que cinco de sus dimensiones se encuentran en este nivel y solamente una de ellas está en el nivel parcialmente logrado. Los resultados obtenidos muestran las siguientes fortalezas y debilidades: Fortalezas:  El diseño y aplicación de una metodología propia para la evaluación interna del impacto social de la maestría, que permite el monitoreo del proceso de formación y la elaboración y ejecución permanente de planes de mejoramiento.  El crecimiento personal y el desempeño profesional exitoso de egresados y estudiantes y la calidad del proceso de formación integral del máster, en correspondencia con el perfil del egresado y los objetivos de la Maestría; a partir de la eficiente gestión de la información y de los recursos disponibles, del Comité Académico y del claustro y del efectivo diseño y ejecución de las actividades del programa.  El impacto en la solución de problemas tecnológicos del entorno laboral y social, al tributar al desarrollo local, regional y nacional, mediante la preparación de los implicados y la transformación del entorno, por medio de la integración de las tecnologías a los procesos educativos, sustentada en riguroso enfoque científico-pedagógico.  Reconocimientos como resultado de las investigaciones realizadas, así como publicaciones científicas en bases de datos de prestigio y ponencias en eventos nacionales e internacionales. Limitaciones:  Limitada influencia en el desarrollo del liderazgo como cualidad que facilite a los estudiantes la dirección exitosa de grupos de trabajo metodológico, científico-investigativos y comunitarios.  Insuficiente aprovechamiento de los convenios de colaboración existentes y de los vínculos con otras áreas e instituciones para el desarrollo de la maestría.  Poca divulgación de los resultados valiosos del programa para elevar el reconocimiento de sus logros.  La infraestructura existente no satisface totalmente los requerimientos del programa, dada la necesidad de utilización permanente de las TIC por profesores, tutores y estudiantes. 0 1 2 3 Crecimiento profesional Desempeño profesional Efecto en el desarrollo local y del programa Gestión de la información y de los recursos disponibles Gestión del Comité Académico Desarrollo del programa N iv el es Dimensiones 11 Estas limitaciones se tuvieron en cuenta para elaborar y aplicar un plan de mejoras con vistas al perfeccionamiento de la maestría, que contribuyó a la obtención de la categoría de excelencia en el proceso de acreditación llevado a cabo por la JAN en el año 2021. 3. CONCLUSIONES  La evaluación interna del impacto social de la maestría constituye un proceso necesario para conocer los logros y las limitaciones del diseño y desarrollo del programa, de la gestión realizada por el Comité Académico y por el claustro de profesores y tutores, así como para constatar su efecto en el crecimiento y desempeño profesional de los estudiantes, del propio claustro y en el desarrollo local y del propio programa.  La aplicación de la metodología para la evaluación del impacto social de la Maestría Las tecnologías en los procesos educativos permite obtener, mediante vías científicas, las valoraciones de estudiantes, egresados, profesores, tutores y directivos acerca de esta variable.  Los resultados obtenidos en la aplicación de las encuestas arrojan que la variable impacto social de la maestría se encuentra en el nivel logrado, coincidente con el estado deseado. Cinco dimensiones alcanzan este nivel y solo una se encuentra en el nivel parcialmente logrado.  El impacto social de la maestría se refleja en el crecimiento y en el desempeño profesional exitoso de profesores, tutores, egresados y estudiantes; en la solución de problemas del entorno laboral y social, en la eficiente gestión del Comité Académico y del claustro y en el logro de los objetivos de la Maestría, mediante la calidad del diseño y ejecución de las actividades. 4. RECOMENDACIONES  Priorizar la influencia del programa de la maestría en el desarrollo del liderazgo de los estudiantes, para lograr un desempeño profesional más exitoso de estos profesionales en tareas de dirección de colectivos o grupos de trabajo.  Aprovechar más los convenios existentes y aumentar la colaboración e intercambio con otras áreas e instituciones en beneficio del programa.  Aumentar la divulgación del programa y de sus resultados, con el fin de alcanzar un mayor reconocimiento de la Maestría en el área de la integración de las TIC en los procesos educativos.  Continuar gestionando las mejoras en la infraestructura tecnológica, por todas las vías que lo posibiliten. RECONOCIMIENTOS Los autores desean agradecer a los estudiantes, egresados, profesores, tutores y directivos de la IV, V y VI edición de la Maestría, así como a los especialistas que participaron en la valoración de la metodología, por su disposición y cooperación en la obtención de los resultados referidos en la ponencia. REFERENCIAS 1. MINISTERIO DE EDUCACIÓN SUPERIOR. Resolución Nº 11/19 del Ministerio de Educación Superior. La Habana, Cuba, 2019, p.5 2. Ídem p. 7 3. Ibídem p. 8 4. Ibidem p. 9 5. PINEDA HERRERO, P. “Evaluación del impacto de la formación en las organizaciones.” Educar, 2000, (27), pp.119-133. 6. Kirkpatrick, D. L., & Kirkpatrick, J. D. Evaluating Training Programs. Berrett - Koehler Publishers. [ref. de 2009]. Disponible en Web: https://s3.amazonaws.com/academia.edu.documents/7265863/evaluating_training_programs_excerpt. pdf?AWSAccessKeyId=AKIAIWOWYYGZ2Y53UL3A&Expires=1550700084&Signature=aKH4f U2wXrkO1zjWCLiyEgXM5Gs%3D&response-content- disposition=inline%3B%20filename%3 DEvaluating _training_programs.pdf 7. BILLOROU, N., PACHECO, M. y VARGAS, F. (2011). Guía para la evaluación de impacto de la formación. [en línea]. Organización Internacional del Trabajo (OIT/Cinterfor). [ref. de 2011]. Disponible en Web: https://www.oitcinterfor.org/sites/default/files/file_publicacion/guiaevaluacion_imp.pdf 12 8. BARAZAL GUTIÉRREZ A. “Modelo de evaluación de impacto de la maestría en enfermería en el desempeño profesional de sus egresados”. Tesis de doctorado. Instituto Pedagógico Latinoamericano y Caribeño, La Habana, 2011. 9. BORGES, L de la C. y AÑORGA, J. A. “Dimensiones de la evaluación de impacto del postgrado académico desde la óptica de la Educación de Avanzada en la Educación Media.” Educación Media Superior. 2015, Vol. 29, No. 2. 10. GUERRA, Y. “Metodología para la evaluación del impacto de la Maestría Procesos formativos y desarrollo profesional”. Universidad de Ciencias Pedagógicas “Enrique José Varona” La Habana, 2018. 11. LARA DÍAZ, L. M., NAVALES, M. A., & BRAVO LÓPEZ, G. “Evaluación del impacto de un programa de maestría para un cambio sostenible.” Conrado, 2018, 14(63), pp.101-108. 12. MESTRE GÓMEZ, U. Criterios para la evaluación del impacto académico de programas de maestría. Didasc@lia: Didáctica y Educación, VII (5). [ref. de 2016]. Disponible en Web: https://dialnet.unirioja.es/descarga/articulo/5911162.pdf+&cd=1&hl=es&ct=clnk&gl=cu&client=fire fox-b 13. RAMOS AZCUY, F. J., MEIZOSO VALDÉS, M. del C., & GUERRA BRETAÑA, R. M. “Instrumento para la evaluación del impacto de la formación académica”. Universidad y Sociedad, 2016, 8(2), pp. 114-124. 14. SÁNCHEZ ARENCIBIA, A., LAGUNA CRUZ, J. A., & TÉLLEZ SÁNCHEZ, L. Metodología para evaluar el impacto en el desarrollo local del programa de maestría en Contabilidad gerencial de la Universidad de Holguín, Cuba. Avances en supervisión educativa. Holguín, Cuba, [ref. de 2018, (29), 1-27]. Disponible en Web: https://doi.org/10.23824/ase.v0i29.620 15. VARGAS FERNÁNDEZ, T. “Sistema de evaluación de impacto de la Maestría en Dirección.” Mendive, 2019, Vol. 17, No. 2 (abril-junio). 16. BERMÚDEZ MORRIS, R. y PÉREZ MARTÍN, L.M. “Metodología para la autoevaluación del impacto social de la Maestría `Las tecnologías en los procesos educativos´”. En 13er. Congreso Internacional de Educación Superior Universidad 2022, Ministerio de Educación Superior, 2022. p.2 17. Ídem. p.3 18. Ibidem. Sobre los autores Raquel Bermúdez Morris. Profesora Titular e Investigadora Titular del Centro de Referencia para la Educación de Avanzada (CREA) de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Doctora en Ciencias Psicológicas. Coordinadora del Congreso de Educación de la Convención Científica de Ingeniería y Arquitectura y del Simposio Didáctica de las Ciencias Básicas, la Ingeniería y Arquitectura del Congreso Internacional de Educación Superior, miembro de la directiva de la Organización Internacional para el Fomento del Desarrollo del Pensamiento (OFDP) y presidente del Grupo Cuba de esta organización; miembro de la directiva de la sección de Psicología Educativa de la Sociedad Cubana de Psicología y miembro de la Sociedad de Pedagogos de Cuba, miembro del Consejo científico Ramal, del tribunal de Categoría docente de profesor Titular y Auxiliar de Pedagogía en la Cujae y del tribunal de categoría de Investigador Auxiliar y Titular del Instituto Central de Ciencias Pedagógicas; miembro del grupo de expertos del Programa Sectorial de Ciencia, Tecnología e Innovación “Sistema Educativo Cubano. Perspectivas de Desarrollo”. Lorenzo Miguel Pérez Martín. Profesor Titular del Centro de Referencia para la Educación de Avanzada (CREA) de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Doctor en Ciencias Psicológicas. Miembro del Comité Académico de la Maestría Las tecnologías en los procesos educativos, miembro de la directiva del Grupo Cuba de la Organización Internacional para el Fomento del Desarrollo del Pensamiento (OFDP), Presidente de la sección de Psicología Educativa de la Sociedad Cubana de Psicología y miembro de la Sociedad de Pedagogos de Cuba, Secretario de la Comisión de Grados Científicos de la CUJAE y miembro del tribunal de Categoría docente de profesor Titular y Auxiliar de Pedagogía en esta universidad. 1 EVALUACIÓN ESTUDIANTIL DE LOS CURSOS DE LA MAESTRÍA LAS TECNOLOGÍAS EN LOS PROCESO EDUCATIVOS Lorenzo Miguel Pérez Martín 1, Raquel Bermúdez Morris 2 1 y 2 Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE, Calle 114 # 11901 / Ciclovía y Rotonda, Marianao, La Habana, Cuba lmartin@tesla.cujae.edu.cu1; rbmorris@tesla.cujae.edu.cu2 RESUMEN Durante el proceso de evaluación de la Maestría Las Tecnologías en los procesos educativos por la Junta de Acreditación Nacional (JAN) para su acreditación en el año 2013, se sugirió la necesidad de disponer de una herramienta práctica que posibilitara la evaluación, por parte del Comité Académico, del desarrollo de los cursos que integran la maestría, teniendo en cuenta las exigencias de los documentos normativos que rigen el proceso de acreditación de las maestrías por parte de la JAN. Para esto, se utilizaron los métodos del nivel teórico: analítico-sintético e inductivo deductivo, del nivel empírico fue empleada la encuesta, en donde se utilizó como técnica fundamental la escala valorativa elaborada por A. Álvarez. Como método matemático-estadístico se aplicó el cálculo porcentual. Se estableció la escala de medición (nivel) y se determinaron los valores en que podían encontrarse los indicadores, las dimensiones y la variable. El objetivo del presente trabajo es presentar los resultados obtenidos en la valoración, por los estudiantes, de los cursos impartidos en la V edición de la Maestría Las Tecnologías en los procesos educativos durante los años 2017 al 2019. PALABRAS CLAVES: Valoración de cursos de maestría, maestría, valoración estudiantil de cursos. STUDENT EVALUATION OF COURSES OF TECHNOLOGIES IN EDUCATIVES PROCESSES MASTERY ABSTRACT During evaluation process by Nacional Acreditation Joint (NAJ) of Technologies in educatives processes mastery, in order to its acreditation in 2013, it was suggested the necesimty to obtein a practical tool that permiting evaluation by academic Committe of the developing of courses of the mastery, acording to normative documents that direct acreditation process of masteries by NAJ. For that, was used teoretical methods, such as analytic-syntetic and inductive-deductive; and the empirical method of survey, with the valorative scale technique made by A. Álvarez. As mathematic-statistic method was used percentage calculation. It was made mediiton scale y it was determinate the values that would have been indicators, dimenstions and variable. The objective of this paper is to present the results of de valoration of the courses of the Mastery The Tecnologies in educative processes by the students of V edition developed during 2017- 2019. KEY WORDS: Valoration of mastery courses, mastery, student valoration of courses. 2 1.- INTRODUCCIÓN Durante el proceso de evaluación de la Maestría Las Tecnologías en los procesos educativos por la Junta de Acreditación Nacional (JAN) para su acreditación en el año 2013, se sugirió la necesidad de disponer de una herramienta práctica que posibilitara la evaluación, por parte del Comité Académico, del desarrollo de los cursos que integran la maestría, teniendo en cuenta las exigencias de los documentos normativos que rigen el proceso de acreditación de las maestrías por parte de la JAN. Se partió, para cumplir con dicha sugerencia, de las exigencias de la Resolución Nº 11/19 del Ministerio de Educación Superior [1], que considera el impacto social como parte de la variable de calidad: Pertinencia e impacto social del Patrón de calidad. Su evaluación implica constatar el efecto del programa de la maestría en el desarrollo sostenible del territorio y el país, en el crecimiento espiritual, el desempeño profesional y en las funciones sociales de los egresados y en el propio programa. En la revisión sobre el tema evaluación del impacto social de las maestrías se ha encontrado diversidad de propuestas metodológicas que aportan referentes valiosos para este trabajo. En el ámbito internacional destacan la guía para la evaluación del impacto de la formación de Billorou, Pacheco y Vargas [2] y el modelo de Pineda [3]. En Cuba los estudios realizados muestran indicadores precisos para medir el impacto de la maestría en los maestrandos, egresados, en las instituciones y en el desarrollo local; sin embargo, no valoran la influencia del programa en el claustro de la maestría y quedan sin presentar los instrumentos y el procedimiento para su calificación, así como las formas de implementación de la metodología por parte del Comité Académico. (Barazal [4]; Borges y Añorga [5]; Guerra [6]; Lara, Novales y Bravo [7]; Mestre [8]; Ramos, Meizoso y Guerra [9]; Sánchez, Laguna y Tellez [10]; Vargas [11]. Estos autores fueron referentes tomados en cuenta para la elaboración de este trabajo. Se consideró que, entre otros aspectos, la valoración de los cursos por los estudiantes, es una vía importante de retroalimentación de su calidad, ya que permite la reflexión y análisis en los aspectos que han incidido negativamente en su formación, para corregirlos y lograr su transformación y perfeccionamiento. A la vez, posibilita identificar los aspectos más positivos, para mantenerlos o reforzarlos en las nuevas ediciones de la maestría. El objetivo del presente trabajo es presentar los resultados obtenidos en la valoración, por los estudiantes, de los cursos impartidos en la V edición de la Maestría Las tecnologías en los procesos educativos durante los años 2017 al 2019. 2.- DESARROLLO Material y métodos Se utilizaron los siguientes métodos del nivel teórico: analítico-sintético e inductivo deductivo. Del nivel empírico fue empleada la encuesta, en donde se utilizó como técnica fundamental la escala valorativa. Como método matemático-estadístico se aplicó el cálculo porcentual. Se estableció la escala de medición (nivel) y se determinaron los valores en que podían encontrarse los indicadores, las dimensiones y la variable (logrado, parcialmente logrado y no logrado). Se trabajó con todos los estudiantes (10) de la V edición de la Maestría Las Tecnologías en los procesos educativos, del Centro de Referencia para la Educación de Avanzada (CREA) de la Cujae. Fueron valorados los siguientes 12 cursos, que representan el 75% de un total de 16 que fueron impartidos en el transcurso de la edición mencionada: Módulo I • Gestión de la información para el desempeño • Las TIC en el proceso de enseñanza-aprendizaje • Metodología de la investigación I • Taller de tesis I • Metodología de la investigación II • Creatividad con las TIC • Participación en la enseñanza de la ingeniería • Comunicación educativa Módulo II • Taller de tesis II • Herramientas para la gestión del proceso de enseñanza-aprendizaje 3 • Los dispositivos móviles en el proceso de enseñanza-aprendizaje • Herramientas para la visualización del conocimiento Se determinaron los siguientes criterios o indicadores para su evaluación: 1. Pertinencia 2. Posición del curso 3. Aporte a la formación profesional 4. Aporte a la preparación docente 5. Calidad de los métodos 6. Actualidad de los contenidos 7. Utilidad de la plataforma Moodle 8. Desempeño de los profesores 9. Presión que genera el curso 10. Cumplimiento de expectativas 11. Apoyo del personal técnico En correspondencia con estos indicadores, se seleccionó, la escala valorativa elaborada por Álvarez (12), la que se aplicó al finalizar cada uno de los cursos. (Anexo 1). Se estableció como escala de medición de los valores en que podían encontrarse los indicadores la siguiente: Poco (1) Algo (2) Medio (3) Bastante (4) Mucho (5) Los niveles que se establecieron fueron: logrado (3), parcialmente logrado (2) y no logrado (1). Como reglas de decisión se determinaron: Para los indicadores: • Logrado: 70% o más responde Bastante o Mucho en los ítems de la encuesta • No logrado: 70% o más responde Nada en los ítems de la encuesta • Parcialmente logrado: cualquier otra alternativa diferente a las anteriores Para los cursos: • Logrado: 70% o más indicadores alcanza el nivel logrado • No logrado: 70% o más indicadores se encuentran en el nivel no logrado • Parcialmente logrado: cualquier otra alternativa diferente a las anteriores Resultados obtenidos El procesamiento de la información obtenida a partir de la aplicación de la encuesta arrojó los siguientes resultados: Fig. 1 Porciento de sujetos que considera pertinente el curso Como puede observarse en la Fig. 1, en todos los cursos más del 70% de los maestrandos selecciona las opciones de Mucho y Bastante, lo que ubica al indicador Pertinencia de los cursos en el nivel logrado. No obstante, llama la atención que Metodología de la investigación II y Herramientas para la gestión del proceso de enseñanza-aprendizaje alcanzan resultados por debajo del resto de los cursos y que en los cursos: Taller de tesis I, Participación en la enseñanza de la ingeniería y Taller de tesis II el 100% de los maestrandos consideró que su pertinencia era Mucha. 4 Fig. 2 Porciento de sujetos que considera adecuada la posición del curso En la Fig. 2 se evidencia que el indicador Posición de los cursos se encuentra en el nivel logrado, ya que solo uno de sus cursos, Metodología de la investigación II, se ubica en el nivel parcialmente logrado. Hay que considerar que cursos como Las TIC en el proceso de enseñanza-aprendizaje, Comunicación educativa, Taller de tesis II, Herramientas para la gestión del proceso de enseñanza-aprendizaje y Herramientas para la visualización del conocimiento, alcanzan valores menos altos que el resto, aunque esto no significa que presenten dificultades con su posición en el currículo. Fig. 3 Porciento de sujetos que considera que aportan a la formación profesional El indicador Aporte a la formación profesional está en el nivel logrado, como muestra la Fig. 3, ya que un solo curso se ubica en el nivel parcialmente logrado: Metodología de la investigación II. Al igual que en el indicador anterior, algunos cursos alcanzan valores menos altos que el resto, como son: Metodología de la investigación I, Comunicación educativa y Herramientas para la gestión del proceso de enseñanza- aprendizaje y resaltan con resultados superiores Taller de tesis I, Participación en la enseñanza de la ingeniería y Taller de tesis II con el 100% de los criterios en la más alta puntuación. Fig. 4 Porciento de sujetos que considera que los cursos aportan a su preparación docente 5 El indicador Aporte a la preparación docente obtiene el nivel logrado, ya que, como muestra la Fig. 4, todos los cursos, excepto Metodología de la investigación II alcanzan este nivel. Se destacan algunos cursos con resultados por encima del resto, como Participación en la enseñanza de la ingeniería y Los dispositivos móviles en el proceso de enseñanza-aprendizaje, con el 100% de selecciones en la opción Mucho; y otros quedan un poco por debajo de los demás como Gestión de la información para el desempeño, Comunicación educativa y Herramientas para la gestión del proceso de enseñanza-aprendizaje. Fig. 5 Porciento de sujetos que considera que los cursos tienen calidad en los métodos En la Fig. 5 se refleja que el indicador Calidad de los métodos se ubica en el nivel logrado, en tanto solamente el curso Metodología de la investigación II alcanza el nivel parcialmente logrado. Resalta con muy altos resultados el curso Participación en la enseñanza de la ingeniería y con valoraciones menos destacadas Gestión de la información para el desempeño, Las TIC en el proceso de enseñanza-aprendizaje, Metodología de la investigación I, Comunicación educativa y Herramientas para la gestión del proceso de enseñanza-aprendizaje. Fig. 6 Porciento de sujetos que considera adecuada la actualidad de los contenidos Como muestra la Fig. 6 el indicador Actualidad de los contenidos está logrado, ya que todos los cursos, excepto Metodología de la investigación II, se encuentran en este nivel. Resaltan con los más altos resultados Taller de Tesis I y Taller de tesis II y un poco por debajo de los demás cursos Herramientas para la gestión del proceso de enseñanza-aprendizaje y Herramientas para la visualización del conocimiento. Fig. 7 Porciento de sujetos que considera útil la plataforma Moodle en los cursos 6 El indicador Utilidad de la plataforma Moodle es el que presenta mayores dificultades. Como puede observarse en la Fig. 7, el 75% de los cursos se encuentra en el nivel parcialmente logrado; uno de los cursos, Participación en la enseñanza de la ingeniería, se ubica en el nivel no logrado y solo dos de ellos: Metodología de la investigación I y Taller de tesis II se encuentran en el nivel logrado. Estos resultados apuntan a la necesidad de atender, de modo priorizado, el mejor empleo de la Plataforma Moodle, para lograr que resulte verdaderamente útil para los maestrandos. No hay que olvidar que la maestría tiene como esencia las TIC en los procesos educativos, por lo que este aspecto es de vital relevancia en su mejoramiento. Fig. 8 Porciento de sujetos que considera adecuado el desempeño de los profesores Como se muestra en la Fig. 8, el indicador Desempeño de los profesores se encuentra en el nivel logrado. Solo metodología de la investigación II alcanza el nivel parcialmente logrado. Los resultados son altos en todos los demás cursos, destacándose los cursos Participación en la enseñanza de la ingeniería, Taller de tesis II y Dispositivos móviles en el proceso de enseñanza-aprendizaje y con un criterio un poco más bajo se encuentra Comunicación educativa. Fig. 9 Porciento de sujetos que considera que el curso genera presión El indicador Presión que genera el curso presenta los más bajos resultados. Como refleja la Fig. 9, siete cursos se encuentran en el nivel no logrado y cinco en el nivel parcialmente logrado; por lo que este indicador se ubica en el nivel parcialmente logrado. Este es un asunto a analizar, ya que no es conveniente que tantos cursos generen presión en los maestrandos, dadas las implicaciones que esto puede tener para los resultados de su aprendizaje y desarrollo. Fig. 10 Porciento de sujetos que considera que el curso cumple sus expectativas 7 El indicador Cumplimiento de las expectativas se encuentra logrado, ya que el 83% de los cursos alcanza este nivel. Como puede verse en la Fig. 10, solo dos cursos se ubican en el nivel parcialmente logrado: Metodología de la investigación II y Taller de Tesis II. Es interesante considerar la estrecha relación que guardan los contenidos de ambos cursos, ya que lo que puede lograrse en este último depende, en gran medida, de lo que se haya logrado en el primero. Se destaca con los mejores resultados el curso Participación en la enseñanza de la ingeniería y no logran tan altos resultados los cursos Metodología de la investigación I, Comunicación educativa y Herramientas para la gestión del proceso de enseñanza- aprendizaje. Fig. 11 Porciento de sujetos que considera que el personal técnico le ha apoyado En cuanto al indicador Apoyo del personal técnico, la Fig. 11 muestra que el 83% de los cursos alcanza el nivel logrado. Dos cursos se encuentran en el nivel parcialmente logrado: Metodología de la investigación II y Participación en la enseñanza de la ingeniería y algunos cursos se destacan un poco menos que los demás, como es el caso de Metodología de la investigación I y Herramientas para la visualización del conocimiento. Fig. 12 Nivel alcanzado en cada indicador La Fig. 12 refleja los resultados de cada uno de los indicadores, a partir de la triangulación de los datos obtenidos en cada curso. Como puede observarse, todos los indicadores se encuentran en el nivel logrado, con excepción de dos de ellos, que alcanzan el nivel parcialmente logrado: utilidad de la plataforma Moodle y presión que generan los cursos. Fig. 13 Nivel alcanzado en cada curso 8 Con respecto a los cursos, la Fig. 13 muestra que todos alcanzan el nivel logrado, con excepción de Metodología de la investigación II que obtiene el nivel parcialmente logrado. Este curso alcanzó el nivel no logrado en el indicador presión que genera el curso, logrado en el indicador pertinencia del curso y parcialmente logrado en el resto de los indicadores, lo que evidencia dificultades en las que se debe profundizar para lograr su atención y eliminación. Estos resultados sirvieron de punto de partida para un proceso realizado por el Comité Académico, junto con el claustro, en el cual se realizó el análisis de cada curso y se propusieron y aplicaron mejoras que elevaron su calidad, tanto en la concepción de los cursos, como en su desarrollo, lo que contribuyó a que, en el proceso de reacreditación de esta maestría por la JAN, obtuviera la condición de Excelencia. 3. CONCLUSIONES El análisis realizado permite llegar a las siguientes conclusiones: 1. Las valoraciones de los estudiantes sobre los cursos recibidos de la maestría, resulta una vía importante y válida que puede utilizar el Comité Académico, junto con el claustro, para el perfeccionamiento de la gestión de la maestría, a partir de tener en cuenta sus opiniones, las que expresan los logros y las deficiencias que, a su juicio, presentan dichos cursos, que sirven de punto de partida para el mejoramiento de los mismos. 2. Los cursos cumplen sus objetivos, lo que se evidencia en el 92% que alcanza el nivel logrado. Aun cuando 11 cursos obtienen este nivel, los estudiantes plantearon algunos elementos con dificultades, los que cuales hubo que atender para lograr su perfeccionamiento. 3. Las valoraciones de los estudiantes reflejan que los cursos son pertinentes, aportan a su formación profesional, sus contenidos tienen actualidad, los métodos son adecuados, cumplen sus expectativas y se caracterizan por el adecuado desempeño de los profesores y el apoyo del personal técnico. 4. RECOMENDACIONES 1. Analizar con profundidad las dificultades que existen en el empleo de la plataforma Moodle por parte de los docentes que imparten los cursos, con el fin de resolverlas y modificar la percepción que tienen los estudiantes, de su limitada utilidad. 2. Hacer un estudio de la posición de los cursos, de los procesos de evaluación en cada uno y de los plazos de entrega de las tareas, con el propósito de encontrar y minimizar las causas de la presión que los estudiantes sienten que les generan. 3. Profundizar en la situación existente en el curso Metodología de la investigación II, para encontrar las explicaciones pertinentes a las opiniones desfavorables de los estudiantes y tomar las medidas que eviten que se repita en las próximas ediciones. 5. REFERENCIAS 1.- MINISTERIO DE EDUCACIÓN SUPERIOR. Resolución Nº 11/19 del Ministerio de Educación Superior. La Habana, 2019. 2.- BILLOROU N, PACHECO M. y VARGAS F. Guía para la evaluación de impacto de la formación. Organización Internacional del Trabajo (OIT/Cinterfor). 2011. Recuperado a partir de https://www.oitcinterfor.org/sites/default/files/file_publicacion/guiaevaluacion_imp. pdf 3.- PINEDA HERRERO P. Evaluación del impacto de la formación en las organizaciones. Educar, 2000 (27), 119-133. 4.- BARAZAL GUTIÉRREZ A. Modelo de evaluación de impacto de la maestría en enfermería en el desempeño profesional de sus egresados. Tesis de doctorado. Instituto Pedagógico Latinoamericano y Caribeño, La Habana, 2011. 5.- BORGES L de la C. y AÑORGA J. A. “Dimensiones de la evaluación de impacto del postgrado académico desde la óptica de la Educación de Avanzada en la Educación Media”. Educación Media Superior, 2015, Vol. 29, No. 2. 6.- GUERRA Y. Metodología para la evaluación del impacto de la Maestría “Procesos formativos y desarrollo profesional”. Universidad de Ciencias Pedagógicas “Enrique José Varona” La Habana, 2018. 7.- LARA DÍAZ L. M., NAVALES M. y BRAVO LÓPEZ G. Evaluación del impacto de un programa de maestría para un cambio sostenible. Conrado, 2018, 14(63), 101-108. 9 8.- MESTRE GÓMEZ U. Criterios para la evaluación del impacto académico de programas de maestría. Didasc@lia: Didáctica y Educación, 2016, VII (5). Disponible en https://dialnet.unirioja.es/descarga/articulo/5911162.pdf+&cd=1&hl=es&ct=clnk&g l=cu&client=firefox- b 9.- RAMOS AZCUY F. J., MEIZOSO VALDÉS M. del C. y GUERRA BRETAÑA R. M. “Instrumento para la evaluación del impacto de la formación académica”. Universidad y Sociedad, 2016, 8(2), 114-124. 10.- SÁNCHEZ ARENCIBIA A., LAGUNA CRUZ J. A. y TÉLLEZ SÁNCHEZ L. Metodología para evaluar el impacto en el desarrollo local del programa de maestría en Contabilidad gerencial de la Universidad de Holguín, Cuba. Avances en supervisión educativa, 2018, (29), 1-27. Disponible en: https://doi.org/10.23824/ase.v0i29.620 11.- VARGAS FERNÁNDEZ T. (2019). Sistema de evaluación de impacto de la Maestría en Dirección. Mendive, 2019, Vol. 17, No. 2 (abril-junio) 12.- ÁLVAREZ ÁLVAREZ, A. Encuesta final del curso. Maestría Las tecnologías en los procesos educativos. Centro de Referencia para la Educación de Avanzada. Instituto Superior Politécnico “José Antonio Echeverría. Cujae. 2016. RECONOCIMIENTOS Los autores desean agradecer a los estudiantes de la V edición de la Maestría que participaron en la valoración de los cursos, por su disposición y cooperación en la obtención de los resultados referidos en la ponencia. Sobre los autores Raquel Bermúdez Morris. Profesora Titular e Investigadora Titular del Centro de Referencia para la Educación de Avanzada (CREA) de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Doctora en Ciencias Psicológicas. Coordinadora del Congreso de Educación de la Convención Científica de Ingeniería y Arquitectura y del Simposio Didáctica de las Ciencias Básicas, la Ingeniería y Arquitectura del Congreso Internacional de Educación Superior, miembro de la directiva de la Organización Internacional para el Fomento del Desarrollo del Pensamiento (OFDP) y presidente del Grupo Cuba de esta organización; miembro de la directiva de la sección de Psicología Educativa de la Sociedad Cubana de Psicología y miembro de la Sociedad de Pedagogos de Cuba, miembro del Consejo científico Ramal, del tribunal de Categoría docente de profesor Titular y Auxiliar de Pedagogía en la Cujae y del tribunal de categoría de Investigador Auxiliar y Titular del Instituto Central de Ciencias Pedagógicas; miembro del grupo de expertos del Programa Sectorial de Ciencia, Tecnología e Innovación “Sistema Educativo Cubano. Perspectivas de Desarrollo”. Lorenzo Miguel Pérez Martín. Profesor Titular del Centro de Referencia para la Educación de Avanzada (CREA) de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Doctor en Ciencias Psicológicas. Miembro del Comité Académico de la Maestría Las tecnologías en los procesos educativos, miembro de la directiva del Grupo Cuba de la Organización Internacional para el Fomento del Desarrollo del Pensamiento (OFDP), Presidente de la sección de Psicología Educativa de la Sociedad Cubana de Psicología y miembro de la Sociedad de Pedagogos de Cuba, Secretario de la Comisión de Grados Científicos de la CUJAE y miembro del tribunal de Categoría docente de profesor Titular y Auxiliar de Pedagogía en esta universidad. 10 ANEXO 1 ENCUESTA FINAL DEL CURSO Estimado(a) estudiante: Usted recién ha concluido el curso y consideramos fundamental, para el perfeccionamiento de la maestría, que nos comunique su opinión sobre el mismo. Esta encuesta es anónima. No incluya sus datos personales. Le agradecemos de antemano su cooperación. La escala empleada es de 5 opciones en orden ascendente, donde 1 es nada y 5 es mucho. 1. Valore la pertinencia del curso en la maestría. (-) 1 2 3 4 5 (+) 2. En qué medida considera que el curso debió estar en esta posición con respecto a los demás cursos del diplomado. (-) 1 2 3 4 5 (+) 3. Cómo considera que el curso le aportó a su formación como maestrante (-) 1 2 3 4 5 (+) Fundamente brevemente. _____________________________________________________________________________ __________________________________________________________ 4. En qué medida le aportó a su preparación como docente (-) 1 2 3 4 5 (+) 5. Valore la calidad de los métodos empleados en el curso 11 (-) 1 2 3 4 5 (+) 6. Valore la actualidad de los contenidos (tenga en cuenta además la bibliografía que se le facilitó en el mismo) (-) 1 2 3 4 5 (+) 7. ¿En qué medida le ha sido de utilidad la plataforma Moodle para este curso? (-) 1 2 3 4 5 (+) Fundamente brevemente. _____________________________________________________________________________ __________________________________________________________ 8. Valore el desempeño de los profesores durante el curso (-) 1 2 3 4 5 (+) Fundamente brevemente. _____________________________________________________________________________ __________________________________________________________ 9. Valore en qué medida se ha sentido presionado por el curso (tiempo disponible para cumplir las tareas, complejidad de las mismas, etc.) (-) 1 2 3 4 5 (+) 10. ¿En qué medida se cumplieron sus expectativas con el curso? (-) 1 2 3 4 5 (+) 12 11. Valore el apoyo recibido por el personal técnico del centro. (-) 1 2 3 4 5 (+) Para cualquier sugerencia u otras opiniones que desee incluir use los márgenes de la hoja. Muchas gracias por su cooperación en el mejoramiento de nuestra maestría. Fecha en que fue completada la encuesta: ______________________________ (Encuesta elaborada por: Dr. C. Arianne Álvarez Álvarez) LA EVALUACIÓN A DISTANCIA DE LA CALIDAD DEL POSTGRADO. EXPERIENCIA DEL PROGRAMA DE MAESTRÍA “LAS TECNOLOGÍAS EN LOS PROCESOS EDUCATIVOS” DE LA CUJAE Camilo Boris Armas Velasco1, Eddy Rodríguez Díaz2, Lorenzo Miguel Pérez Martín 3 1, 2, 3 Universidad Tecnológica de La Habana “José Antonio Echeverría” CUJAE Calle 114 # 11901 / Ciclovía y Rotonda, Marianao, La Habana, Cuba carmas@tesla.cujae.edu.cu; erodriguez@tesla.cujae.edu.cu; lmartin@tesla.cujae.edu.cu RESUMEN La evaluación de la calidad del postgrado es un imperante de la Educación Superior cubana, la cual evalúa y acredita sus programas e instituciones a través de la Junta de Acreditación Nacional de la República de Cuba (JAN). Estos procesos se realizan sistemáticamente en períodos que se determinan a partir de la categoría obtenida en cada proceso de evaluación realizado por la JAN. El presente trabajo tiene como objetivo exponer los principales resultados obtenidos en la evaluación y acreditación del programa de maestría “Las Tecnologías en los Procesos Educativos” que se desarrolla en el Centro de Referencia para la Educación de Avanzada (CREA) de la CUJAE. La evaluación y acreditación se realizó en condiciones de la pandemia de la COVID-19, de forma virtual y a distancia integrando las Tecnologías de la Información y la Comunicación (TIC). El resultado final fue la obtención de la categoría de “Programa de Excelencia” y su postulación a los premios internacionales de la Asociación Universitaria Iberoamericana del Postgrado (AUIP) 2023. PALABRAS CLAVES: Evaluación, calidad del postgrado, TIC THE DISTANCE EVALUATION OF THE QUALITY OF THE POSTGRADUATE. EXPERIENCE OF THE CUJAE MASTER'S PROGRAM "TECHNOLOGIES IN EDUCATIONAL PROCESSES" ABSTRACT The evaluation of the quality of postgraduate studies is an imperative of Cuban Higher Education, which evaluates and accredits its programs and institutions through the National Accreditation Board of the Republic of Cuba (JAN in Spanish). These processes are carried out systematically in periods that are determined from the category obtained in each evaluation process carried out by the JAN. The objective of this paper is to expose the main results obtained in the evaluation and accreditation of the master's program "Technologies in Educational Processes" that is developed in the Reference Center for Advanced Education (CREA) of CUJAE. The evaluation and accreditation was carried out in conditions of the COVID-19 pandemic, virtually and remotely, integrating Information and Communication Technologies (ICT). The final result was obtaining the category of "Excellence Program" and its application for the international awards of the Ibero-American Postgraduate University Association (AUIP in Spanish) 2023. KEY WORDS: Evaluation, postgraduate quality, ICT. 1. INTRODUCCIÓN La educación de calidad constituye el cuarto objetivo de desarrollo sostenible, planteado por las Organización de las Naciones Unidas (ONU) para la Agenda 2030 que expresa “Garantizar una educación inclusiva, equitativa y de calidad y promover oportunidades de aprendizaje durante toda la vida para todos”. [1] En particular en las metas 4. y 4.b se hace alusión a la necesidad de “(…) asegurar el acceso igualitario de todos los hombres y las mujeres a una formación técnica, profesional y superior de calidad, incluida la enseñanza universitaria y lograr que los (…) estudiantes puedan matricularse en programas de enseñanza superior, incluidos programas de formación profesional y programas técnicos, científicos, de ingeniería y de tecnología de la información y las comunicaciones (…)”. [1] Es por ello que la evaluación de la calidad de los programas e instituciones de la Educación Superior, ha constituido una exigencia permanente del Ministerio de Educación Superior de la República de Cuba, la cual requiere de la certificación sistemática de los procesos que se desarrollan en las universidades cubanas, tanto para el cumplimiento de los estándares establecidos en los instrumentos regulatorios como para la homologación de los programas e instituciones universitarias a nivel internacional. En particular “la educación de postgrado es una de las direcciones principales de trabajo y el nivel más alto del sistema de educación superior, dirigido a promover la educación permanente de los graduados universitarios”. [2], el cual se organiza en la superación profesional, los diplomados, las especialidades, las maestrías y el doctorado. En la Universidad Tecnológica de La Habana “José Antonio Echeverría” CUJAE, se desarrollan 23 programas de maestría que se someten sistemáticamente al proceso de evaluación y acreditación que lleva a cabo la Junta de Acreditación Nacional de la República de Cuba (JAN). El proceso de evaluación y acreditación de los programas de maestría, tiene como objetivo: “…evaluar y acreditar la calidad de los programas que se desarrollan en las Instituciones de Educación Superior (IES) y en las Entidades responsables de la formación académica del estado cubano” [3] y en particular, la responsabilidad de evaluarlos lo desempeña el Sistema de Evaluación y Acreditación de Maestrías (SEA- M). Dada las circunstancias que atravesó el mundo a raíz la pandemia de la Covid-19, la cual afectó a más de 185 países, en las que se encuentra Cuba, implicó reorganizar e instrumentar nuevos enfoques a los procesos de evaluación y acreditación, los cuales se basaron, en lo fundamental en las potencialidades de la integración de las Tecnologías de la Información y la Comunicación para desarrollar la evaluación y acreditación a distancia. Es por ello que el presente trabajo tiene como objetivo exponer los principales resultados obtenidos en el proceso de evaluación externa a distancia de la maestría “Las Tecnologías en los Procesos Educativos” que se desarrolla en el CREA de la CUJAE. El SEA-M, para cumplir su encargo social se propone como objetivo “El mejoramiento continuo de la gestión de la calidad y como objetivos específicos se propone: Elevar la calidad del postgrado en la consecución de altos niveles de pertinencia social y excelencia académica y proporcionar información a la sociedad sobre la calidad de los programas que se imparten”. [3] A partir de los resultados obtenidos en el proceso de evaluación y acreditación se le otorgan a los programas las categorías de Programa Calificado, Programa Certificado y Programa de Excelencia [3]. Para afrontar la evaluación y acreditación del programa, se requiere en primer lugar del diseño de una estrategia para la autoevaluación por parte del comité académico, en correspondencia con la experiencia en los procesos evaluativos que hayan desempeñado algunos miembros del claustro en otros procesos afines, lo cual permite modelar con los implicados, los diferentes escenarios donde tendrá lugar la evaluación externa. El comité académico es el encargado de gestionar el programa y está conformado por un Coordinador quien lo dirige, un Secretario Académico que gestiona la documentación del programa y tres miembros más, los cuales participan en la toma de decisiones conjunta para la gestión del programa de maestría. Es deseable que la mayor parte de los miembros del comité académico ostenten el grado de Doctor en Ciencias de una determinada especialidad y la categoría docente de Profesor Titular o Profesor Auxiliar. Para la preparación del comité académico es necesario contar con un conjunto de documentos esenciales que guían y sustentan legal y metodológicamente el proceso de evaluación y acreditación. 2. DESARROLLO Documentos esenciales que guían y sustentan legal y metodológicamente el proceso de evaluación y acreditación En primer lugar el comité académico se estudiará el Sistema de evaluación y acreditación de maestrías (SEA-M) (2018), en particular el Patrón de calidad, la Guía de evaluación y el Manual de implementación, con vistas a familiarizarse con las variables, los indicadores, los criterios de evaluación y los modelos anexos. Por otro lado es muy importante el domino del Reglamento de la Educación de Postgrado y las Normas y procedimientos para la gestión del postgrado, los cuales norman y orientan la gestión de este nivel de educación en la República de Cuba. Por último y no menos importante lo constituye Manual de Normas y Procedimientos para el Trabajo de las Secretarías en las Instituciones de Educación Superior (2011), en el cual se norman los procedimientos y se establecen los modelos oficiales para la gestión de la secretaría del programa de maestría. Planificación y ejecución de las acciones de autoevaluación La autoevaluación y el aseguramiento de la evaluación externa lo dirige el Coordinador del programa de maestría en conjunto con el comité académico e involucra a toda la institución comprometida con este proceso, con vistas a alcanzar buenos resultados. Para ejecutar el trabajo con la documentación, se diseñó un plan de actividades y una estrategia para la acreditación del programa, en la cual se distribuyó e implicó a cada uno de los miembros del comité académico, los trabajadores del Centro de Referencia para la Educación de Avanzada (CREA) y los directivos implicados de la CUJAE. Se diseñó un plan de actividades (ver tabla 1) orientado a organizar y asegurar la documentación del programa, la documentación legal, las evidencias del comité académico, claustro, estudiantes, egresados, directivos, empleadores, así como la metodología de la evaluación del impacto social de la maestría, sus instrumentos y resultados. Este es un trabajo sumamente complejo que se despliega por etapas y se designa para ello a un miembro del comité académico como responsable de una o más actividades, en dependencia de su alcance. El Coordinador del programa de maestría es el máximo responsable, pues dirige este proceso y responde por la calidad del proceso y sus resultados. Cada responsable de tarea respondió por una de las variables del Patrón de calidad, la cual evaluó teniendo en cuenta los indicadores establecidos y entregó un informe al Coordinador para su integración al informe de autoevaluación final. Tabla 1. Muestra del plan de actividades para la evaluación y acreditación Descripción de los momentos de la estrategia para el proceso de autoevaluación Para asegurar los informes de evaluación, fue necesario contar con los informes sistemáticos, con las exigencias establecidas, así como asignar a cada miembro del comité académico, la responsabilidad de una de las cinco variables establecidas en el patrón de calidad de la JAN para la evaluación. Ello posibilitó en primer lugar la autopreparación de cada miembro, en los documentos que rectoran el proceso en sentido general y particularmente una mayor profundización en la variable asignada; incentivando que el análisis que se realizara de cada una de ellas, no podía perder sus interrelaciones con el resto de las variables, con el programa y su concepción y con el proceso que ha acontecido en su desarrollo, según las ediciones cerradas y en proceso. A partir de esto, otra experiencia muy enriquecedora lo constituyó, que luego que cada miembro realizó la autoevaluación de su variable asignada, se intercambiaron estas, entre los miembros del comité académico y otros profesores del claustro que lo prestigian por su experiencia y experticia, lo que propició lograr el perfeccionamiento constante del informe de autoevaluación que se redactaba, que fuese sintético pero consigo, apegado a la verdad y sin exclusiones, con un estilo de redacción similar, claro en correspondencia a las exigencias de la JAN. Debido a la situación sanitaria generada por la pandemia de la COVID-19, se hizo necesario realizar los procesos de evaluación de forma a distancia (virtual) integrando para ello las TIC; lo cual requirió que la JAN orientara la estructuración de la documentación toda en soporte digital para el proceso de evaluación externa por parte de los expertos. Es de destacar, que esta modalidad era totalmente nueva para todos los implicados, lo que requirió una preparación adicional de los mismos. Esto constituyó otro de los retos y experiencias positivas de este proceso. A partir de esa estructura indicada por la JAN, en reunión del comité académico, se socializó y analizó cada detalle, las experiencias que se tenían por algunos miembros en desarrollar algún que otro proceso con alguna similitud. Se analizó el nivel de experiencias, habilidades y experticias de los miembros, y sobre este particular también se hizo una asignación de tareas y responsabilidades a los miembros del comité académico y otros colaboradores, para que rectoraran su gestión, interrelaciones y concreción. Esta tarea y la anterior, derivaron en la creación de una estrategia integrada y coherente por etapas, en cada una de las cuales se concibieron acciones a desarrollar, con responsables del comité académico y otros colaboradores y con fechas que respondieran a los plazos previos que permitirían acometer el proceso de evaluación en la fecha prevista. Según las indicaciones de la JAN [4] y la estructura indicada (fig. 1), se creó el espacio evaluación, en Google Drive a partir de la cuenta de correo gmail que ya el programa de maestría utilizaba desde hacía tiempo, para la gestión del comité académico en relación con el programa de maestría. Como este espacio era el que utilizarían los expertos una vez que comenzase el proceso de evaluación a distancia del programa y que solo ellos y quien se considerara posteriormente serían los que tendrían acceso, durante toda la preparación y garantía previa para ello, puede significarse como otra experiencia que nos arrojó resultados muy positivos, fue haber creado otro espacio en Google Drive al que denominamos trabajo del comité académico, al cual se le incluyó en su interior la misma estructura indicada por la JAN para el espacio evaluación. Fig. 1: Estructura de Google Drive indicada por la JAN Ello posibilitó, que según la estrategia precisada y las tareas asignadas a cada miembro del comité académico, los cuales (todos) tuvieron acceso a este segundo espacio de trabajo, cada vez que alguno tenía concluida o adelantada, el conjunto de documentación que le correspondía, la subía al Drive y así todos los miembros implicados en la tarea, podían ir consultando informaciones de otras variables u otros aspectos, según las relaciones que precisamos anteriormente. Esta documentación se refiere a la nueva que se generaba en el momento actual para asumir la evaluación del programa, así como toda aquella de años anteriores según las ediciones concluidas, que fue necesario escanear. Una vez que una de las carpetas estaba lista y exhaustivamente revisada en el espacio trabajo del comité académico, el responsable de ambos espacios en Google Drive y miembro del comité académico, entonces replicaba dicha información en la carpeta evaluación. Esta experiencia permitió que el trabajo fuera fluyendo organizadamente y permitiera ver lo que se avanzaba, lo que quedaba y cualquier ajuste en la estrategia que se estaba implementando. Un momento esencial en el proceso de evaluación y acreditación a distancia es la preparación previa de todos los implicados, la cual se realizó en una modalidad híbrida. Para esto fue esencial el uso de las redes sociales, en particular los grupos de WhatsApp. Como parte de la estrategia referida y teniendo garantizada la documentación del programa que era necesario mostrar a los expertos a través del espacio de Drive, se concibió una jornada de preparación e intercambio de experiencias a modo de taller a todos los implicados en dicho proceso, dígase: claustro, egresados, estudiantes y empleadores. Se concibió una jornada completa, de doble sesión. En el caso de los empleadores esta preparación se realizó por un grupo de Whatsapp creado con todos los implicados. Próximo al momento de la evaluación externa por parte de los expertos, fue necesario conocer quiénes iban a conformar el comité técnico evaluador y su procedencia. Los cuatro expertos se procedían de las tres regiones del país (occidente, centro y oriente); de tres universidades: Matanzas, Ciego de Ávila y Santiago de Cuba. Dinámica de trabajo de los expertos a través de las tecnologías El proceso de evaluación externa de la maestría se desarrolló durante 15 días; ese proceso se sustentó en una estrecha relación que se estableció entre el Jefe del Comité Técnico Evaluador y el Coordinador del Programa, la cual se realizó a través de la comunicación electrónica, a partir del correo electrónico, y el grupo de trabajo en la red WhatsApp creado al efecto; también implicó una comunicación permanente vía telefonía fija. Esta comunicación posibilitó atender todos los requerimientos del Comité Técnico Evaluador, en cuanto a: aclaración de dudas, ampliación de la información existente en la nube e, incluso, el suministro de nuevas informaciones que no habían sido solicitadas inicialmente. Este intercambio resultó enriquecedor, pues permitió el esclarecimiento de todas las inquietudes y dudas que surgieron por ambas partes y le dio transparencia al proceso. Durante este período, los expertos pudieron interactuar con la documentación en la nube, la cual estuvo organizada en distintas carpetas para su mejor manejo y consulta. También se pusieron en contacto con los miembros del Comité Académico de la maestría, así como con los profesores del claustro y con los estudiantes y egresados involucrados en la etapa evaluada, con el objetivo de aplicar los instrumentos elaborados previo al proceso de evaluación. Para estos contactos, los expertos contaron con una base de datos, suministrada por el Comité Académico de la maestría, que contenía los correos electrónicos y los números de teléfono celulares y cuentas de WhatsApp de los que serían evaluados. En el período, además, se realizaron tres videoconferencias, mediante la plataforma JitsiMeet, donde participaron los expertos y el comité académico, cada una de las cuales tenía objetivos específicos, las que se describen a continuación: 1ra videoconferencia (Se desarrolló el primer día): El objetivo fundamental de esta videoconferencia fue la presentación mutua de la Comité Técnico Evaluador y el Comité Académico de la maestría, así como brindar la explicación de cómo transcurriría el proceso, por parte de la primera. Comenzó con la bienvenida, por parte del Director de la Dirección de Postgrado de la universidad y el Coordinador de la maestría, al Comité Técnico Evaluador, y la presentación, por parte del Jefe del Comité Técnico Evaluador de los pares evaluadores de sus miembros, y del Comité Académico de la maestría por parte de su Coordinador. A continuación, se hicieron las precisiones del cronograma de todas las actividades a realizar durante el proceso virtual de evaluación y el Coordinador de la maestría ofreció una explicación de cómo se podía acceder a la información existente de dicho programa, con sus correspondientes evidencias. Finalmente, se procedió a la presentación de las ideas generales acerca de la información contenidas en los modelos de SEAES y SEA-M, referidas al Claustro y los egresados y estudiantes de las ediciones objeto de la evaluación. 2do videoconferencia (Se realizó en el cuarto día): El objetivo de esta actividad estaba dirigido a presentar el programa de la maestría al Comité Técnico Evaluador por parte del Comité Académico. Una vez presentado el programa por parte del Comité académico, se procedió a un intercambio con la comisión de evaluación, en donde se aclararon todas las dudas y se hicieron preguntas que permitieron ampliar la información brindada. 3ra videoconferencia (Se efectuó el viernes de la semana siguiente): El objetivo fundamental de esta actividad se dirigió a la presentación, al Comité Académico de la maestría, del informe conclusivo elaborado por el Comité Técnico Evaluador. Se presentó el informe final de evaluación por el grupo evaluador al Comité Académico. En esta ocasión, participaron, además de todos los miembros de dicho Comité, el Vicerrector de Investigaciones y Postgrado y el Director del Dpto. de Postgrado, como representantes de la institución, con vistas a dar su aceptación o no del informe que se presentaba. Todo lo acontecido en esta última reunión se grabó, como evidencia y constancia de su realización, con la intención de realizar futuros análisis, si era necesario. Los resultados obtenidos en la evaluación por el programa de maestría por la JAN, fueron que obtuvo la categoría de Programa de Excelencia; y quedó como corolario que la experiencia de la acreditación a distancia es factible y exitosa e implica un aprendizaje para todos los implicados, tanto expertos, como evaluados, que requiere del esfuerzo e implicación de todos los participantes. También se demostró que este proceso es posible realizarlo totalmente a distancia a nivel nacional, y es viable. Estos resultados sirvieron de punto de partida para un proceso realizado por el Comité Académico, junto con el claustro, para el análisis de cada curso y proponer y aplicar mejoras que elevaron su calidad, tanto en la concepción de los cursos, como en su desarrollo, que permitieron elevar su calidad, todo lo cual contribuye a reforzar la categoría de Programa de Excelencia. Dado este resultado obtenido, la dirección de postgrado de la universidad propuso el programa de maestría a su postulación a los premios de la Asociación Universitaria Iberoamericana de Postgrado (AUIP) a la calidad 2022-2023. 3.- CONCLUSIONES El análisis realizado permite llegar a las siguientes conclusiones: 1. La experiencia de la evaluación y acreditación del programa a distancia fue muy exitosa, e implicó un aprendizaje para todos los implicados, tanto expertos como evaluados, al existir pocos antecedentes sobre este modo de realizar las evaluaciones de programas de postgrado por parte de la Junta de Acreditación Nacional. 2. Para la obtención de buenos resultados en este proceso, se requiere el esfuerzo y la implicación de todos los participantes, con vistas a su preparación y adecuado desarrollo, así como un respaldo de la institución en cuanto a infraestructura. 3. Se demostró la viabilidad y factibilidad de la realización de este tipo de proceso totalmente a distancia a nivel nacional. 4. REFERENCIAS BIBLIOGRÁFICAS 1. CUBA NU. Objetivos de Desarrollo Sostenible 2022. [en línea]. [ref. 23 de junio de 2022]. Disponible en Web: https://cuba.un.org/es/sdgs/4. 2. BERNAZA RODRÍGUEZ GJ. Construyendo ideas pedagógicas sobre el postgrado desde el enfoque histórico-cultural. México: Universidad Autónoma de Sinaloa; Ministerio de Educación Superior de la República de Cuba; Editorial Universitaria 2015. pp. 242. 3. MES. Sistema de evaluación y acreditación de maestrías (SEA-M), SEA-M (2018). 4. MES-SEAM. Orientaciones para la preparación de condiciones para realizar la evaluación a distancia de maestrías. 2021. USO DEL EXCEL Y OTROS RECURSOS DEL TELÉFONO MÓVIL EN LA ASIGNATURA MÉTODOS NUMÉRICOS DE INGENIERÍA QUÍMICA Tito Díaz Bravo1, Mayra Luciana Cordovés Macías2 y Eduardo García Noa3 1, 2, 3 Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE Calle 114 No. 11901. e/ Ciclovía y Rotonda. Marianao. La Habana, Cuba 1 titodi@quimica.cujae.edu.cu; 2 mayracordo@quimica.cujae.edu.cu 3 egarcianoa@quimica.cujae.edu.cu RESUMEN Las dificultades en determinados entornos y circunstancias, de disponibilidad masiva de laptop, computadoras de mesa, minicomputadoras y otros dispositivos de similares dimensiones con capacidad de soportar software de cálculo científico, circunscriben al teléfono móvil (TM) como medio de enseñanza y aprendizaje al alcance de la casi totalidad de los alumnos presentes en una clase. La asignatura Métodos Numéricos está dirigida a encausar el aprendizaje por parte de los estudiantes, de algoritmos que constituyen un recurso necesario para enfrentar cálculos que frecuentemente debe realizar un ingeniero, cualquiera que sea su especialidad. El EXCEL es un software que deviene apropiado para realizar gran parte de esos cálculos. Se presenta la experiencia con dos grupos de alumnos del uso sistemático en clases para la solución de ejercicios, de aplicaciones de EXCEL de los TM, ciertamente menos amistosas de emplear que la de equipos mayores ya mencionados. Como refuerzo del uso del TM se indujo el uso de documentos y otras aplicaciones matemáticas desde los propios dispositivos en distintos momentos a lo largo de las clases, incluso en las evaluaciones escritas realizadas durante el periodo. Después de dos años de realizar el proceso docente a distancia debido al COVID 19, esta primera vez retomando la presencialidad, recabó el reforzamiento de contenidos de Matemática de asignaturas anteriores y modificó sustancialmente el uso del TM en el aprendizaje. Pasadas las primeras semanas, el uso del EXCEL del TM fue una habilidad que incorporaron los alumnos a su quehacer formativo; además, reforzaron en algunos casos, o adquirieron en otros, habilidades con otras aplicaciones matemáticas propias de los TM. PALABRAS CLAVES: Asignatura Métodos Numéricos, Uso del teléfono móvil, EXCEL, Estudiantes, Ingeniería Química USE OF EXCEL AND OTHER MOBILE PHONE RESOURCES IN THE SUBJECT NUMERICAL METHODS OF CHEMICAL ENGINEERING ABSTRACT The difficulties in certain environments and circumstances, of massive availability of laptops, desktop computers, minicomputers and other devices of similar dimensions with the capacity to support scientific calculation software, circumscribe the mobile phone (MP) as a means of teaching and learning within the reach of almost all of the students present in a class. The Numerical Methods subject is aimed at channeling the learning by students of algorithms that constitute a necessary resource to face calculations that an engineer must frequently carry out, whatever his specialty. EXCEL is a software that becomes appropriate to carry out a large part of these calculations. The experience is presented with two groups of students of the systematic use in classes for the solution of exercises, of EXCEL applications of the MP, certainly less friendly to use than that of the larger equipment already mentioned. As a reinforcement of the use of the MP, was induced the access to documents and other mathematical applications from the devices themselves at different times throughout the classes, including in the written evaluations carried out during the period. After two years of carrying out the teaching process remotely due to COVID 19, this first time, returning to face-to-face teaching, the Mathematics content of previous subjects was reinforced and the use of MP in learning was substantially modified. After the first weeks, the use of the EXCEL of the MP was a skill that the students incorporated into their training work; furthermore, in some cases they reinforced, or acquired in others, skills with other mathematical applications typical of MP. KEY WORDS: Numerical Methods Subject, Use of mobile phones, EXCEL, Students, Chemical Engineering 1. INTRODUCCIÓN El desarrollo de las Tecnologías de la Información y las Comunicaciones (TIC) viene influyendo crecientemente en la enseñanza y el aprendizaje, al igual que en otras actividades humanas diversas. Asombrado muy placenteramente estaría el gran Comenius, autor de Didáctica Magna, de conocer el avance en los medios de enseñanza actuales, así como en las demás categorías de la Didáctica según las entendemos en estos tiempos (autores: nacionales [1], [2] y [3]; e internacionales: [4] y [5]). Comienza a ser tradicional el uso extensivo e intensivo de nuevos recursos gracias al desarrollo de la computación, considerada esta como núcleo esencial de las TIC. La formación del ingeniero, con una componente muy alta de algoritmos que le permitirán acometer las principales labores de su profesión, es una especialmente favorecida de los adelantos mencionados. Los cálculos ingenieriles con el auxilio de los software se hacen más eficientes, permitiendo el empleo de métodos más rigurosos y la facilidad de estudiar distintas alternativas, con una observancia estrecha de las magnitudes de los errores asociados a resultados intermedios y finales en los distintos casos. Recordar las reglas de cálculo, calculadoras electromecánicas y hasta las calculadoras científicas, entre otros elementos, permite valorar en mejor medida lo que se dispone hoy en día para la enseñanza y el aprendizaje, así como para la propia labor del ingeniero. En lo adelante se llegarán a presentar los resultados de una experiencia con dos grupos de clases de Ingeniería Química, utilizando el EXCEL del teléfono móvil (TM) en la asignatura Métodos Numéricos. 2. DESARROLLO Software de propósitos específicos y lenguajes de programación en Ingeniería Química Esta temática requeriría una atención particular que resulta fuera del alcance del presente documento, en el que sin embargo se asume su análisis a un nivel preliminar por entenderse que es un elemento básico en lo que sigue. Cuando Albert, Leyva y Díaz, siendo aún instructores no graduados de la Facultad de Tecnología de la Universidad de la Habana, hoy UTH, asumimos a finales de los 60 del pasado siglo, la tarea de introducir el estudio de la computación en ingeniería y arquitectura, incluyendo la formación del Claustro, se abría un nuevo campo de conocimientos en estas profesiones. Los lenguajes desarrollados que existían eran el COBOL, el ALGOL y el FORTRAN; este último siguió actualizándose y dadas sus significativas ventajas para el cálculo científico, se mantiene entre los mejores en la actualidad. De aquellos tres lenguajes seleccionamos el FORTRAN y el enfoque algorítmico utilizando diagramas de bloques, respondiendo principalmente a la naturaleza de los algoritmos propios de la ingeniería, con gran independencia de la sintaxis y otros elementos del lenguaje a utilizar. La decisión resultó muy acertada, así también como efectivo el proceso intensivo de formación que llevamos a cabo con el claustro de aquel entonces. Solo existían en el país tres computadoras, la ELLIOT 803 B de la Junta Central de Planificación y un par de UNIVAC en otros organismos. Faltaban varios años para que comenzara la disponibilidad de computadoras, que pudieran emplearse en la enseñanza en nuestras universidades. Los desarrolladores de la línea de computadoras cubanas CID iniciada en el segundo lustro de los 60 del pasado siglo, divulgaron el LEAL (Lenguaje algorítmico), un lenguaje semidesarrollado que permitía emplear sus computadoras con bastante facilidad. Un salto de cinco décadas en este breve relato y nos encontramos en la del 2020 con la disponibilidad de magníficos asistentes matemáticos, como el EXCEL, MATLAB, MATEMÁTICA, POLYMAT y otros tantos, así como con los lenguajes de la familia del C (C, C++, …), el JAVA, el PHYTON y el FORTRAN, entre otros, junto con una cantidad inmensa de software específicos de disímiles ramas del conocimiento. Y aún de mayor utilidad en trabajos avanzados para los ingenieros químicos, con simuladores como el SuperProDesigner, Aspen Plus y HYSYS. Desde la década pasada disponemos de magníficos teléfonos móviles, que han revolucionado las comunicaciones interpersonales y el acceso a aplicaciones matemáticas de gran prestancia, como las de EXCEL, objeto de atención en este documento. Asignatura Métodos Numéricos En todas las ingenierías resultan trascendentes los Métodos Numéricos. Al respecto existen numerosas publicaciones entre las que ocupan un lugar relevante en su difusión las revistas “International Journal for Numerical Methods in Engineering” [6] y “Métodos numéricos para cálculo y diseño en ingeniería” [7]. En Ingeniería Química, carrera de la Universidad Tecnológica de La Habana, la asignatura Métodos Numéricos [8] está prevista en el primer semestre del tercer año. Es una de las asignaturas en las que no se realiza examen final. Sus contenidos se integran en el marco de los cuatro temas siguientes: I. Introducción a los métodos numéricos. II. Solución de ecuaciones algebraicas y trascendentes y de Sistemas de ecuaciones III. Interpolación. Métodos numéricos que emplean polinomios IV. Ecuaciones diferenciales ordinarias y en derivadas parciales Entre los objetivos del tema III también se incluyen la integración y diferenciación numéricas La importancia y actualidad de los contenidos de la asignatura Métodos Numéricos, puede constatarse en dos de las asignaturas (CHEE 390 Computational Methods in Chemical Engineering, [9] y CHEE 440 Process Modelling, [10]) del programa de la carrera de Ingeniería Química que oferta la Universidad McGill, una de las instituciones de educación superior más conocidas de Canadá y una de las universidades líderes en el mundo. También se corroboran tales aspectos en el programa del Ph.D. en Ingeniería Química del Indian Institute of Technology (Indian School of Mines), de Dhanbad, dentro del curso CHC503- Computational Techniques in Chemical Enginering [11]. Diversos autores continúan prestando atención a la enseñanza de los Métodos Numéricos en el nivel universitario, de aspectos generales de su Didáctica específica [12], [13], [14] y [15], modalidad de m- learning [16], aula invertida [17] y uso del GEOGEBRA [18]. Experiencia de uso del TM en la asignatura Métodos Numéricos Darles más protagonismo a los estudiantes en su aprendizaje sugiere modificar sustancialmente la triada frecuentemente utilizada de tipos de clases conferencia – clase práctica – laboratorio. En la conferencia es beneficioso que el estudiante deba mantenerse listo para interpretar el contenido que se exprese en algún párrafo del libro o documento docente que se esté empleando, que valore cómo en determinado documento de otro autor, se muestra parte de ese mismo contenido, o que exprese su punto de vista de cómo mejorar algún seudocódigo de algoritmo que pueda interesar someter a análisis, entre numerosas acciones con las que se podrían ejemplificar, lo que deviene expedito si los posee en su TM, sin costo adicional de otras acciones que pudieran implicar búsquedas en internet. Las dificultades en determinados entornos y circunstancias, de disponibilidad masiva de laptop, computadoras de mesa, minicomputadoras y otros dispositivos de similares dimensiones, con capacidad de soportar versiones integras de software de cálculo científico, circunscriben al TM como medio de enseñanza y aprendizaje al alcance de la casi totalidad de los alumnos presentes en una clase. Debe reconocerse que resultan incómodas las versiones reducidas de EXCEL y otros software cuando se transforman por sus desarrolladores para que funcionen en los TM. El solo hecho de tener que editar en reducido espacio es indeseable, aunque siguen siendo altamente funcionales. Los contenidos de todas las actividades de la asignatura Métodos Numéricos, están desarrollados en documentos realizados por los profesores para cada clase, y se socializan previamente a los TM de los estudiantes, lo que hace más efectiva su atención a las clases ya que no tienen que dedicar tiempo a la toma detallada de notas escritas sobre los contenidos, a la vez que asegura un primer momento de familiarización de los discentes con dicho documento portador de la teoría, ejemplos y ejercicios propuestos del contenido a tratar. Asimismo, se socializan inicialmente otros textos de apoyo al aprendizaje, los que se traían a colación en distintos momentos durante las actividades docentes según fuese necesario, lo que aseguraba que los estudiantes accedieran a tales textos, entre los que tuvo un lugar preponderante el [19]. Paulatinamente se trató de hacer conscientes a los alumnos de la utilidad de ir haciendo en su TM una pequeña biblioteca de ejemplos resueltos con el EXCEL, de los distintos métodos numéricos estudiados en la asignatura, no solo como un recurso para reforzar su aprendizaje, sino como apoyo para realizar con mayor rapidez nuevos ejercicios de esos métodos, ahorrándose de esa forma de la mayor parte del trabajo de editar que pudiera necesitarse, ya que podían partir de lo desarrollado con antelación en cada caso, práctica común en tareas de programación en computadoras. Atención particular amerita lo del uso del TM en las evaluaciones y qué acciones se tomaron para propiciar que no existiese intercambio de información entre los alumnos sobre las respuestas de las distintas preguntas. En el periodo hubo una prueba parcial con los tres primeros temas mencionados antes de la asignatura,. En un segundo momento se aplicó una segunda evaluación de los contenidos de Ecuaciones diferenciales ordinarias. El diseño de ambas evaluaciones respondió en primer lugar a los objetivos de aprendizaje a alcanzar en ambos casos, así como a reforzar el objetivo de que los estudiantes alcanzaran la habilidad necesaria en el uso del EXCEL del TM, lo que de modo lógico conllevó a que se permitiese utilizar el TM en las evaluaciones. En segundo lugar, en el diseño de las evaluaciones se previó que el tiempo para culminarla no dejara holgura significativa con el previsto para la actividad en cuestión y que a su vez no impidiera alcanzar el aprobado para el que tuviese dificultades con el funcionamiento de su TM. En consecuencia, el aprobado se alcanzaba con el cálculo manual. Y las calificaciones de 4 y 5, con un mayor trabajo que implicaba el uso del EXCEL del TM y el consumo de prácticamente todo el tiempo disponible. Lo de la disciplina respecto al trabajo individual se propició disponiendo de seis variantes de temarios para grupos con promedio de 30 alumnos. En la última clase de la asignatura se aplicó el instrumento que se muestra en la Tabla 1, con el propósito de recoger los criterios de los alumnos sobre la experiencia llevada a cabo durante el semestre del uso del TM en la asignatura. Tabla 1. Contenido de la encuesta aplicada 1. Grado de satisfacción con el uso de (califique utilizando la escala de 1 a 10, favorable ascendentemente) de: a) EXCEL del TM b) Otras facilidades del TM de acceso a documentos de la asignatura c) Uso del TM en la evaluaciones 2. Estimas de beneficio el uso de otras aplicaciones matemáticas cuyo uso se ha inducido desde la asignatura. (SI/NO – argumente) 3. Enumera las asignaturas de la carrera que consideras que deben permitir el uso del TM en todas sus actividades En la Tabla 2 se presentan los resultados en las preguntas 1 y 2, obtenidos de la encuesta mencionada. El resultado más bajo corresponde a lo valorado por los estudiantes del Grupo 32, referente al grado de satisfacción con el uso del EXCEL del TM, no obstante corresponde a una mediana de alumnos que otorgan una calificación de 7, lo cual es un nivel de satisfacción favorable. Los otros dos aspectos en este grupo y todos los del otro grupo, reciben una calificación de 10 por la mediana de los participantes en la encuesta. No se dispone de información para explicar la notable mayor dispersión que se aprecia en las respuestas a la pregunta 1a) del Grupo 32, aunque si se tiene la certeza de que si tuviesen que recalificar este aspecto, frente a las alternativas del uso de la regla de cálculo o de la calculadora electrónica, moverían sus criterios sobre el EXCEL del TM al nivel más alto de calificación, a pesar de las incomodidades que poseen estos tipos de aplicaciones respecto a las versiones del EXCEL de las laptop y computadoras de escritorios. Tabla 2. Respuestas de los estudiantes a las preguntas 1 y 2 Nivel en la escala Grupo 32 (20 alumnos) Grupo 33 (14 alumnos) Preguntas Preguntas 1 2 1 2 a b c a b c 1 1 0 0 1 0 0 0 0 2 0 0 0 0 1 0 0 0 3 1 0 0 0 0 0 1 0 4 0 0 0 0 0 0 0 0 5 3 0 0 0 0 0 0 0 6 4 1 0 1 0 0 0 0 7 3 0 0 1 0 2 0 0 8 4 0 4 1 2 1 2 1 9 1 3 0 0 1 0 0 2 10 3 16 16 16 10 11 11 11 Finalmente, las respuestas a la pregunta 3 (Enumera las asignaturas de la carrera que consideras que deben permitir el uso del TM en todas sus actividades) muestran una fuerte tendencia (del orden del 85%) a sugerir que tal uso debe predominar en todas las asignaturas hasta ese momento transitadas por estos alumnos. Se tiene el criterio que después de la experiencia relatada, los estudiantes de modo espontáneo comenzarán a utilizar el EXCEL del TM en otras asignaturas. Y que serán divulgadores de los beneficios que constataron, aunque debería valorarse la pertinencia de acometer un trabajo metodológico concertado con otras asignaturas de la carrera. 3. CONCLUSIONES El uso del EXCEL en aplicaciones de los teléfonos móviles permitió su uso continuado en clases, con el consiguiente aumento del protagonismo de los alumnos en su aprendizaje, dada la alta disponibilidad de esos dispositivos entre dichos alumnos, lo que constituyó una alternativa efectiva y práctica, ante la limitación severa de poder desarrollar las clases en espacios en los que pudiesen trabajar individualmente con computadoras de escritorio o laptop, de modo sistemático o al menos frecuente. El uso de los teléfonos móviles además, dinamizó al acceso durante las clases al material de estudio principal distribuido previamente por los profesores, así como de otros libros, que ya se les habían socializado previamente y que se empleaban de modo oportuno, recabando mayor atención y familiarización con estos medios de aprendizaje desde la propia clase, trayendo consigo una mayor efectividad de la actividad, al poder los estudiantes tomar notas de clases con mayor nivel de síntesis, así como inducir la interacción frecuente con los documentos portadores de los contenidos de los que debían apropiarse. Los resultados de la encuesta aplicada revelan un alto nivel de satisfacción de los alumnos con el uso del EXCEL de sus teléfonos móviles, incluida la extensión del uso de estos dispositivos a otros documentos de la asignatura Métodos Numéricos y otras aplicaciones matemáticas que los apoyaron en su aprendizaje, y por supuesto, al empleo de los mismos en las propias evaluaciones escritas. En estas últimas se trabajó con seis variantes de temarios en cada caso, como acción para inducir que cada uno se concentrara solamente en su propio temario. Sin lugar a dudas que la experiencia descrita debe ser profundizada para determinar en mayor medida la forma en que resulte más plena, identificando mejor sus ventajas y desventajas, y fortalezas y oportunidades. Además, sería beneficioso extenderla a otras asignaturas en las que se considere conveniente, en particular coordinando la intradisciplinariedad con la asignatura de Computación que le precede y la interdisciplinariedad con Química Física II, Fenómenos de Transporte y Balances de masa y energía, que se imparten en el mismo semestre. 4. REFERENCIAS 1. ZILBERSTEIN, José et al. Preparación pedagógica integral para profesores universitarios. La Habana: Editorial Félix Varela, 2003 2. ZILBERSTEIN, José y OLMEDO, Silvia. “Didáctica desarrolladora: posición desde el enfoque histórico cultural”. Educação e Filosofia Uberlândia, 2015, vol. 29, num. 57, p. 61 – 93. Disponible en: https://seer.ufu.br/index.php/EducacaoFilosofia/article/view/28056/17967 3. PÁEZ, Verena. La Didáctica de la Educación Superior ante los retos del siglo XXI. 2017. La Habana. Editora Educación Cubana. 2da ed. 328 p. Disponible en: https://www.researchgate.net/publication/355108200_La_Didactica_de_la_Educacion_Superior_ante _los_retos_del_siglo_XXI/link/615e1cf75a481543a88bb945/download 4. ARESKOUG, Kristina; HELENE, Kjersti; SØRLIE, Stian & BROSSARD, Frédérique. “Using Digital, Universal, and Intercultural Didactics to Improve Higher Education—A Project Protocol for a Norwegian Interactive and Collaborative Improvement Study Concerning Master’s Level Courses in Theory of Science, Research Methods, and Research Ethics”. Front. Educ. 2022, vol. 7, num. 4, doi: 10.3389/feduc.2022.851783. Disponible en: https://www.frontiersin.org/articles/10.3389/feduc.2022.851783/full 5. FORCAEL, Eric; GARCÉS, Gonzalo; BACKHOUSE, Peter and BASTÍAS, Elena Do We Teach? “A Practical Guide for Engineering Educators”. International Journal of Engineering Education, 2018, vol. 34, num. 5, pp. 1451–1466. Disponible en: https://www.researchgate.net/publication/327548875_How_do_we_teach_A_practical_guide_for_en gineering_educators/link/5f00df3545851550508b2f83/download 6. WILEY. International Journal for Numerical Methods in Engineering [en línea]. 2022. Disponible en: https://onlinelibrary.wiley.com/journal/10970207 7. UNIVERSIDAD POLITÉCNICA DE CATALUÑA. Métodos numéricos para cálculo y diseño en ingeniería [en línea]. Revista internacional. Disponible en: https://dialnet.unirioja.es/servlet/revista?codigo=1242 8. UTH. Plan de estudio E de Ingeniería Química [en línea]. 2017. Disponible en: https://quimica.cujae.edu.cu/wp-content/uploads/2021/06/Documento-Ejecutivo-Carrera-de- Ingenieria-Quimica-Plan-de-Estudio-E.pdf 9. CHEE 390 Computational Methods in Chemical Engineering (3 credits) eCalendar - McGill University [en línea]. 2022. Disponible en: https://www.mcgill.ca/study/2022-2023/courses/chee-390 10. CHEE 440 Process Modelling (3 credits) eCalendar - McGill University [en línea]. 2022. Disponible en: https://www.mcgill.ca/study/2022-2023/courses/chee-440 11. DEPARTMENT OF CHEMICAL ENGINEERING. “Course Structure & Syllabus For Ph.D. in Chemical Engineering” Indian Institute of Technology (Indian School of Mines), Dhanbad. 2021. Disponible en: https://www.iitism.ac.in/pdfs/departments/chemical/Ph.D_course_structure_and_syllabus_ChemEng g.pdf 12. DÍAZ, Tito; VELÁZQUEZ, Abel y QUINTANA, José Hilario. “Didáctica de los Métodos Numéricos en Ingeniería en Ciencias Informáticas”. 2018. III Conferencia Científica Internacional UCIENCIA 2018. Universidad de las Ciencias Informáticas. La Habana, Cuba. Disponible en: https://www.researchgate.net/profile/Diaz- Tito/publication/330542278_Didactica_de_los_Metodos_Numericos_en_Ingenieria_en_Ciencias_Inf ormaticas/links/5c473ca992851c22a3881fbf/Didactica-de-los-Metodos-Numericos-en-Ingenieria-en- Ciencias-Informaticas.pdf?origin=publication_detail 13. REGA, Dayned; GUERRA, Yusimí y LEIVA, Julio. “La Matemática Numérica en la enseñanza de la Física Universitaria”. Pedagogía y Sociedad, . 2020, vol. 23, num. 57. Disponible en: http://revistas.uniss.edu.cu/index.php/pedagogia-y-sociedad/article/view/867 14. LIMA, R. J., CEDEÑO, J. A., & PADILLA, M. A. “Aplicación de los métodos numéricos en la enseñanza superior”. Revista Científica Sinapsis, 2020, vol 1, num 16. https://revistas.itsup.edu.ec/index.php/sinapsis/article/view/356/470 15. PEDROTTI, Beatriz. “La enseñanza universitaria de Métodos Numéricos”. El caso de la Carrera de Ingeniería Aeronáutica en la Universidad Nacional de Córdoba. VEsC, 2021, vol.12, num. 23. Disponible en: https://revistas.unc.edu.ar/index.php/vesc/article/view/34473/34837 16. DELGADO, Francisco Javier. “Propuesta de un curso de Métodos numéricos utilizando m-learning para proponer su evolución al aprendizaje basado en investigación”. 2017. Disponible en: https://repositorio.tec.mx/bitstream/handle/11285/632856/2015CL01%20Propuesta%20de%20un%2 0curso%20de%20me%CC%81todos%20nume%CC%81ricos%20utilizando%20mlearning- REV.pdf?sequence=1&isAllowed=y 17. ASÍS, Maximiliano, RODRÍGUEZ, Vladimir y ASÍS, Efracio. “Aula invertida en el aprendizaje de los métodos numéricos en estudiantes de Ingeniería Civil” Revista de Investigaciones de la Universidad Le Cordon Bleu. 2022, vol. 9, núm. 1. Disponible en: https://revistas.ulcb.edu.pe/index.php/REVISTAULCB/article/view/219/437 18. CARRILLO, Teresa. “Uso de Geogebra para el aprendizaje de métodos numéricos en clases virtuales”. 2021. *** Encuentro en Línea CHAT. Disponible en: https://chat.iztacala.unam.mx/elchat/node/406 19. ÁLVAREZ, Manuel; GUERRA, Alfredo y LAU, Rogelio. Matemática Numérica (vol. 1 y 2). La Habana: Editorial Félix Varela. 2007. Sobre los autores Tito Díaz Bravo, Doctor en Ciencias Técnicas y Profesor Titular; Mayra Luciana Cordovés Macías, Master y Profesor Auxiliar; y Eduardo García Noa, Doctor en Ciencias Técnicas y Profesor Titular. Todos de la Facultad de Ingeniería Química, Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. La Habana, Cuba EL SALÓN DE LOS MÁRTIRES: TRIBUTO A LOS MÁRTIRES EN LA UNIVERSIDAD DE LA HABANA Yohandi Ramón Pérez Soto Universidad de La Habana, Vedado, La Habana, Cuba yohandi@rect.uh.cu RESUMEN El proceso extensionista tiene el propósito de originar cultura en su más amplia acepción, dentro de ella, la promoción de la historia juega un rol fundamental en su accionar. La Universidad de La Habana promueve las tradiciones de lucha de lo mejor de su estudiantado y tributa perenne homenaje a quienes ofrendaron sus vidas en las luchas estudiantiles y revolucionarias. Es por ello que el objetivo del presente trabajo es socializar la labor educativa desarrollada por la Dirección de Extensión Universitaria en el Salón de los Mártires(SM)del alto centro de estudios. El Salón fue entregado a la Federación Estudiantil Universitaria en el año 1938, muy pronto se convirtió en un espacio de eterno tributo a los jóvenes que ofrendaron sus vidas en las luchas estudiantiles y revolucionarias, están expuestas en el recinto las fotos de 84 mártires caídos en diferentes etapas de la historia de Cuba. Se exponen datos fidedignos sobre los objetos patrimoniales mostrados en el sitio los que despiertan especial interés en quienes lo recorren. Se muestra la rica historia atesorada por una instalación en la que generaciones de dirigentes estudiantiles tuvieron un espacio para organizar las manifestaciones, las elecciones estudiantiles y diversas conmemoraciones en fechas históricas, al que acuden los estudiantes de nuevo ingreso dentro del programa de familiarización con su centro de estudios y así conocer sus valores culturales. Es una actividad extensionista relevante que cuenta con el constante seguimiento del Consejo Universitario. PALABRAS CLAVES: Universidad, Salón, mártires, sitio, tributo. THE HALL OF THE MARTYRS: TRIBUTE TO THE MARTYRS AT THE UNIVERSITY OF HAVANA ABSTRACT The extension process has the purpose of promoting culture in its broadest sense, within it, the promotion of history plays a fundamental role in its actions.TheUniversity of Havana promotes the figthing traditions of the best of its students and pays perennial tribute to those who offered their lives in student and revolutionary struggles. That is why the objective of this work is to socialize the educational work carried out by the Directorate of University Extension in the Hall of the Martyrs(SM) of the high center of studies. The Hall was given to the University Student Federation in the year 1938, very soon it became a space of eternal tribute to the young people who offered their lives in the student and revolutionary struggles, the photos of 84 martyrs fallen in different stages of the history of Cuba. Reliable data on the heritage objects show on the site are exposed, which arouse special interest in those who visit it. It shows the rich history treasured by a facility in which generations of student leaders had a space to organize demonstrations, student elections and various commemorations on historical dates, to whitch new students attend as part of the familiarization program with their center of studies and thus know their cultural values. It is a relevant extension activity that has the constant monitoring of the University Council. KEYWORDS: University, hall, martyrs, site, tribute. 1. INTRODUCCIÓN Entre las vertientes del trabajo extensionista dentro y fuera de la Universidad de La Habana (UH), como uno de los procesos sustantivos que se desarrollan en las universidades, está la labor dirigida a la formación de valores patrióticos, morales, internacionalistas, antiimperialistas y revolucionarios en las nuevas generaciones de estudiantes y en el pueblo en general. En el martirologio estudiantil encontramos hermosas páginas de defensa de la Patria sin temer a los peligros que entrañaban. Para confeccionar la ponencia se recopilaron datos novedosos sobre el importante espacio de tributo universitario revisando documentación en el Archivo Central de la Universidad, recortes de periódicos y revistas de la época y todos los documentos conservados en el archivo del SM. Transcurridos 62 años del triunfo de la Revolución, la formación de un profesional altamente calificado, comprometido con su patria y con las ideas del socialismo, se convierte no solo en una tarea de primer orden, sino en una batalla decisiva para salvaguardar la libertad, la soberanía y la propia existencia de nuestra identidad nacional. Redoblar la labor extensionista, impedir la refinada penetración ideológica que tiene como blanco predilecto a la juventud cubana y en especial el estudiantado universitario, constituye un objetivo primordial de trabajo, conscientes de que se enfrenta a un enemigo que intenta desviar a los jóvenes del ideal patriótico y revolucionario conquistado combatiendo por nuestros progenitores y así cercenar el futuro luminoso de la patria. En el empeño de contrarrestar sus intenciones y efectos devastadores, se impone encontrar vías y métodos más efectivos en esta labor y aprovechar al máximo el bagaje histórico que guarda en su seno la Universidad de La Habana. Al estudiar la historia del Salón de los Mártires encontraremos parte de ese arsenal que merece ser conocido, en la ponencia se exponen diversos aspectos de ese histórico lugar en la casi tricentenaria institución sobre el que no se había realizado y divulgado anteriormente ningún trabajo lo que constituye una novedad científica. 2. DESARROLLO. La actividad revolucionaria y movilizativa propia de la organización comenzó a demandar lo que la Federación Estudiantil Universitaria (FEU) había conquistado por derecho propio, contar con un local de reuniones para la planificación de sus tareas. Con ese propósito les fue entregado un espacio en el sótano de la antigua Facultad de Física pero en el año 1938 el acuerdo número 2 del Consejo Universitario concedió a la organización el área que por más de 80 años han ocupado. El espacio desde los primeros momentos fue utilizado para celebrar las reuniones, organizar las elecciones estudiantiles y preparar algunas movilizaciones, los líderes juveniles que eran quienes más uso le daban al local comenzaron a colocar en las paredes las fotos de los jóvenes que abonaron con su sangre la tierra donde nacieron, la mayoría eran estudiantes pero hubo profesores, trabajadores de otras áreas y jóvenes de la enseñanza media. Así se inició una tradición que ha perdurado en el tiempo por la que han velado tanto la dirección estudiantil como las máximas autoridades universitarias. La primera foto conocida de algunos de los mártires recordados en el sitio se remonta al año 1939, desde el plano en que se realizó la instantánea fueron visibles dos retratos, uno de Julio Antonio Mella y el otro de Rubén Martínez Villena, estaban colocadas a un costado del área donde se encontraban sentados los participantes que presidieron la reunión, no se distinguieron otros cuadros lo que imposibilitó conocer cuántos se exponían desde ese momento. Se precisó que, en los primeros años de jurisdicción de la FEU sobre el predio, la actividad más conocida desarrollada en estas oficinas fue la realizada el 3 de noviembre de 1947cuando el joven estudiante de la Facultad de Derecho Fidel Castro Ruz, se le ocurrió una idea rápidamente propuesta a la FEU consistente en traer la Campana de la Demajagua a la capital para convocar en la escalinata a un mitin contra los desmanes del gobierno. Los dirigentes estudiantiles acogieron con entusiasmo la propuesta de Fidel, quien fue comisionado junto con otros estudiantes a viajar a Manzanillo. Tanto los veteranos mambises como los concejales de la ciudad aceptaron la propuesta del estudiantado. En tren fue trasladada la histórica reliquia, la comitiva llegó a la Capital el 3 de noviembre de 1947, al descenderla los estudiantes la pasearon en hombros desde el andén hasta la calle, ahí aguardaba un vehículo. Una espontánea manifestación, que creció en cada cuadra, escoltó la Campana trasladada por Zulueta, Neptuno, Belascoaín, San Lázaro hasta la Universidad, donde una multitud delirante vitoreó su llegada, el objeto se custodió en el Salón en espera del momento del acto. El estudiante Fidel Castro había insistido en que se mantuviera allí de guardia toda la masa estudiantil posible, hasta las cuatro de la mañana la reliquia estuvo como sugirió Fidel, pero empezó a entrar sueño a la gente y muchos se retiraron. Parecía estar segura tras una especie de rejas y la guardia bajó seriamente demostrándose que las alertas del joven estudiante a sus compañeros no eran infundadas, fue robada por individuos al servicio del gobierno de turno. A pesar de los intentos gubernamentales por impedirlo, el acto de la escalinata fue grandioso. Un mar de pueblo se extendió por la plazoleta frente a ella y la calle San Lázaro hasta Infanta, cuando algún orador preguntaba al auditorio por la reliquia la muchedumbre respondía que estaba en el Palacio Presidencial. En demanda de la devolución del preciado bien, los manzanilleros se lanzaron en protesta, cerraron los comercios, suspendieron los espectáculos, hubo un boicot espontáneo al transporte público, a la vez construyeron barricadas para obstruir las vías principales y en cada balcón, en cada ventanal, colocaron crespones negros. Un juez dispuso la devolución de la Campana a la ciudad del Guacanayabo, el gobierno de Grau no opuso resistencia y el12 de noviembre de 1947, el jefe del Ejército llevó la Campana en avión hasta Manzanillo. La reliquia histórica ha seguido ubicada en el Parque Nacional la Demajagua, sitio en que Carlos Manuel de Céspedes hizo vibrarla en 1868. Al intercambiar con los estudiantes que realizan esta ruta intra universitaria muestran un significativo interés, realizan constantes preguntas y trasmiten en los trabajos investigativos orientados interesantes aspectos sobre un acontecimiento que hizo muy visible al SM en la sociedad de la época, En la aplicación de encuestas es uno de los temas abordados por los profesores que más agradecen haber conocido. Remodelación del local en el año 1951 Las primeras labores de remodelación del área se remontan al año 1951, ocupaba el cargo de rector el doctor Clemente Inclán, fue acometida la importante inversión constructiva bajo la dirección del arquitecto Aquiles Capablanca quien en la transformación del local realizó una obra catalogada de maravilla. Al acto de inauguración asistió el Rector, el líder estudiantil Enrique Huertas y otros directivos universitarios y miembros de la dirección de la organización estudiantil. Se entregó un local en su máximo esplendor abriendo sus puertas convertido en el espacio donde radicó la oficina de la FEU y sede de un Salón de Actos. En uno de los laterales se le rendía tributo a los mártires caídos. Varias novedades fueron introducidas luego de la restauración, entre las más significativas estuvieron la colocación detrás del estrado presidencial de una reproducción fotográfica a grandes dimensiones del cuadro del fusilamiento de los 8 estudiantes de medicina ,asesinados el 27 de noviembre de 1871, copia realizada del original cuyo autor fue Manuel Mesa y era propiedad del Ministerio de Educación. Un año después se produjo el artero golpe de estado del 10 de marzo de 1952, un proceso de fortalecimiento político se gestó en la integración de la dirección estudiantil. Hubo representación de todas las asociaciones de las escuelas y su dirección superior, la Federación Estudiantil Universitaria en esos momentos reunía a los jóvenes de más puros ideales. En esos momentos constituyó el Salón el principal espacio utilizado por la FEU para organizar sus actividades, está demostrado que fue un punto de concentración y partida de los líderes estudiantiles que participaron en actividades de demostración revolucionaria en contra de la dictadura de Fulgencio Batista. En respuesta al golpe y a la instauración de los estatutos constitucionales el 6 de abril de 1952 se realizó una actividad que demostró la valentía de sus organizadores y participantes, el Entierro Simbólico de la Constitución del 40 en la que participaron destacados estudiantes universitarios como, Álvaro Barba, José Antonio Echeverría, Fructuoso Rodríguez, Juan Pedro Carbó, Armando Hart, Manolo Carbonell y Raúl Castro de abanderado, sepultaron a la Constitución que había sido mancillada con el zarpazo batistiano. Al reanudarse las clases el 29 de abril, se situaron los libros de firmas al pie de la escalinata universitaria, el juramento y la recogida de firmas de los que quisieron hacerlo fue expresión de respaldo a la Carta Magna y duró más de un mes, los textos donde constaban las rubricas fueron guardados en el espacio del Salón de los Mártires. En el propio año, un grupo de jóvenes seleccionados de veinte en veinte, recibían lecciones de entrenamiento militar dirigidas por Pedro Miret Prieto, los riesgos de realizar estas actividades de preparación dentro de los muros universitarios eran muy elevados, después de un grupo de sesiones de entrenamiento Miret quedó entrenando básicamente a una parte de los que se preparaban para asaltar el Cuartel Moncada con Fidel. Entre los sitios de la Universidad en los que consta la realización de prácticas de arme y desarme se puede mencionar al Salón de los Mártires, una tarja colocada en una de las paredes del entonces local de actos evoca los recuerdos de aquellos días memorables en los que además de Miret existe constancia absoluta de haber estado presentes en los mencionados entrenamientos compañeros como el General de Ejército Raúl Castro Ruz y el Comandante de la Revolución Juan Almeida Bosque. Al cierre del año 1952 el gobierno golpista de Batista, comenzó a informar las actividades gubernamentales para homenajear al ilustre cubano José Martí, permeadas de falsedades y ánimos politiqueros, la organización estudiantil fundada por Julio Antonio Mella realizó en el seno de su dirección una evaluación de las acciones a desarrollar para conmemorar los 100 años de nacido el Apóstol. Los estudiantes aprobaron un amplio plan de actividades para no dejar morir las ideas del Héroe Nacional en ese aniversario cerrado el programa diseñado en el local era contrapuesto al trazado por la dictadura. La más relevante actividad del programa resultó la Marcha de las Antorchas que contó con la participación de miles de jóvenes entre los que marcharon con marcialidad y disciplina muchos de los que después participarían en el Asalto al Cuartel Moncada, quienes desfilaron con antorchas en las manos desde la UH hasta la Fragua Martiana. La presencia de José Antonio Echeverría también quedó marcada en el recinto, el 23 de febrero de 1954 fue electo secretario general de la FEU aunque no cesó en sus funciones como presidente de la Escuela de Arquitectura, el 30 de septiembre asumió la presidencia de la organización por sustitución reglamentaria y el 19 de abril de 1955 lo eligieron presidente, Desde esas funciones promovió un mayor número de reuniones de trabajo en el área, hubo más permanencia en el lugar de los dirigentes estudiantiles y tomó auge la lucha contra la dictadura batistiana desde el sitio. Esa realidad puso en la mira de los personeros al servicio de la dictadura que llegaron a arremeter contra el lugar, realizando registros y violando la autonomía universitaria. A través de los años, un sinnúmero de visitantes, estimulados por sus maestros, profesores o por la lectura o visualización de fotos buscaron conocer el despacho de Echeverría enclavado en un área que una vez que asume José Antonio la presidencia de la organización en 1954 le da al Salón una importancia capital en esta fase de la lucha revolucionaria. En su afán de lograr la unidad de los alumnos de la enseñanza media el local fue testigo del III Encuentro de Estudiantes Secundarios, en el que fuera develado un cuadro de Raúl Gómez García. Fue el sitio donde se constituyó el 3 de marzo de 1954 el Comité Pro- Guatemala. Sirvió además como sede de disímiles reuniones con los trabajadores en la lucha por sus reivindicaciones laborales y el 26 de julio de 1955 se conmemoró el segundo aniversario de los sucesos del Moncada con la presencia de Haydee Santamaría, al concluir la conmemoración los estudiantes salieron en manifestación y los reprimieron brutalmente. El Salón en Revolución Con el triunfo de la Revolución de Martí y de Fidel, no quedaron olvidados los mártires de la Patria, en su traslado a la capital con la Caravana de la libertad Fidel rindió tributo a José Antonio ante la tumba donde reposan sus restos mortales, el gobierno revolucionario, sus entidades estatales y las organizaciones políticas y de masas se encargaron de que las fechas relacionadas con sus vidas se convirtieran en momentos propicios para el homenaje profundo y la renovación del compromiso a luchar por la transformación del país. Muestra de la voluntad de rememorar los hechos trascendentales de las luchas fue la realización en la noche el 27 enero de 1959, de una marcha convocada por el movimiento 26 de julio desde el Anfiteatro de La Habana hasta el Rincón Martiano de la Fragua, con la que se recordó la Marcha de las Antorchas de enero de 1953. El mes de septiembre de 1959 sería testigo de un sentido homenaje a Rafael Trejo a 29 años de su asesinato, fue el preámbulo para reinaugurar el histórico espacio con el nombre de Salón de los Mártires, en ese momento el mural con la foto de los estudiantes de medicina fue sustituido ante el apreciable deterioro que mostraba, se ubica un collage que ofrecía una vista panorámica de las luchas estudiantiles en sus diferentes épocas, es colocado el testamento político en bronce de José Antonio, realizado en Antillana de Acero. Entre las adaptaciones ejecutadas estuvieron la redistribución de las oficinas de la dirección de los estudiantes de la Universidad, independizándolas de las del Salón, aunque para la FEU continuó siendo un espacio principal de trabajo en el que realizaban sus más importantes reuniones con la presencia de relevantes personalidades de la vida política, económica, social y cultural del país, que asistían invitados por la organización para acometer tareas y para intercambiar con estudiantes ávidos de información para desarrollar con calidad su trabajo. El Comandante en Jefe, en una de sus incontables visitas a la Universidad, institución que contaba con el Aula Magna, teatros como el Varona de la Facultad de Pedagogía, el Sanguily, de la Facultad de Filosofía e Historia también tuvo el hermoso gesto de visitar y reunirse con los estudiantes en este histórico espacio acompañado por el rector Juan Marinello. Cuba fue sede del XI Festival Mundial de la Juventud y los Estudiantes en el año 1978, el evento contó con la participación de 18 500 jóvenes de 145 naciones de Europa, Asia, África, Oceanía y América, la delegación de la Isla fue representada por jóvenes electos entre los más destacados estudiantes, combatientes y trabajadores de los sectores económicos y sociales. Coincidió el evento con los 250 años de fundada la Universidad de La Habana y el espacio de tributo permanente experimentó una nueva intervención constructiva, implicando la transformación del discurso museológico, en estas acciones participaron importantes personalidades dedicadas al estudio de la historia patria. Los trascendentales cambios introducidos incidirían en un mayor conocimiento por las nuevas generaciones de aquellos jóvenes que ofrendaron sus vidas por la liberación de Cuba, víctimas de las brutalidades del régimen colonial español y de los gobiernos de turno al servicio del imperio yanqui, constituyendo un propicio momento para saldar una deuda, razón por la que incorporaron nuevos mártires que cayeron defendiendo a la Revolución en Cuba o en otros confines. Se consideró cuidadosamente la representación de las etapas de luchas que por más de un siglo protagonizó el pueblo con la participación de sus estudiantes universitarios unidos a otros jóvenes que, a pesar de no estudiar en la Universidad se vincularon a sus propósitos. Permaneció la tradición de rendir tributo a los mártires caídos exponiendo una galería con sus fotos, aunque se introducen cambios significativos en la colocación de los cuadros y en todo el montaje del local. Al observar diferentes fotos de actividades en el SM publicadas en el órgano de la Comisión de Extensión Universitaria, se puede observar la colocación de las mismas en todas las paredes del local, con los cuadros protegidos por marcos, con variados diseños, en fin un discurso expositivo diferente al utilizado en la actualidad. El estudio y la investigación minuciosa desarrollada por destacados profesores universitarios permitió presentar una propuesta que tuvo en cuenta los siguientes elementos en lo concerniente a la distribución de las fotos: fueron ubicadas teniendo en cuenta la etapa en que ofrendaron sus vidas los mártires. Las fotos cuentan con un pie informativo que brinda al visitante datos relevantes de los caídos entre los que se encuentran la fecha de nacimiento, muerte y la carrera que estudiaron, se precisaron los casos que estudiaban en la segunda enseñanza o que eran trabajadores con una estrecha vinculación con las luchas estudiantiles y revolucionarias. Fue aprobada que, como la fotocopia del cuadro de Manuel Mesa sobre la muerte de los 8 estudiantes de medicina presidia el Salón, se pudieran colocar las fotos de ellos quizás más pequeñas a ambos lados del mural para identificarlos. En ese momento se evaluó, aunque no se concretó, la propuesta de incluir a los que son considerados por algunos historiadores como omisiones o no inclusiones, refiriéndose a las fotos y biografías de los estudiantes caídos en las guerras de independencia, las que fueron elaboradas, condensados todos los datos, expedientes, carreras, periodo universitario en que estudiaron, fecha de nacimiento y muerte y serían colocadas en dos tarjas, no en bronce, de otro material, la cifra de mártires ascendería a 28 de la guerra iniciada en 1868 y concluida en 1875 y 17 de los caídos entre 1895 a 1898. La distribución quedó establecida de la siguiente forma: Mártires de la lucha anti colonial. (Aparecen las fotos de los 8 estudiantes de medicina). En las tres guerras hubo participación de estudiantes universitarios, y desde el propio 1869 dos jóvenes que cursaron estudios en la Universidad de La Habana ofrendaron sus vidas en la lucha por la independencia de Cuba. Mártires de las luchas anti-machadistas, anti-fascista- internacionalista y anti-gansteril, la cifra de mártires a los que se les rinde tributo de esas etapas ascendió a 23. Mártires de la lucha anti-batistiana 1953 a 1957, la cifra de mártires de este periodo ascendió a 24. Mártires de la lucha anti-batistiana en 1958 y en los inicios del periodo revolucionario hasta 1967.La cifra de mártires es de 29. El total de mártires que sus fotos y biografías integraron la galería de fotos que se expone en el sitio asciende a 84. El Salón continuó su labor como importante espacio de trabajo de la Federación Estudiantil Universitaria de la Universidad de La Habana y de la Unión de Jóvenes Comunistas del alto centro, un alto número de actividades solemnes en fechas históricas de importancia vinculadas con los estudiantes caídos se realizaron en el lugar para rendirles tributo, la mayoría de ellas comenzaron con el pase de lista de los mártires, una tradición que se ejecutó por primera vez en este importantísimo espacio de pensamiento y acción de generaciones de cubanos. Por años la Dirección de Extensión Universitaria de la Universidad de La Habana ha realizado los recorridos de familiarización histórica por la Colina Universitaria con los estudiantes de nuevo ingreso. Estos recorridos incluyen el Salón de los Mártires, constituyendo un momento de importantes sensaciones para los educandos quienes conocen los objetos que se exponen en el sitio, entre los que se encuentran las mascarillas mortuorias de Julio Antonio Mella y Rubén Martínez Villena, la máquina de escribir utilizada por José Antonio Echeverría así como su despacho y su testamento político, además de valiosos objetos, recortes de prensa y documentos de gran valor histórico y patrimonial. Les conmueve mucho ver las edades que tenían quienes murieron por la causa revolucionaria, algunos menores a ellos, constatan que eran cubanos con un porvenir por delante pero no antepusieron los intereses personales, lucharon por una Cuba mejor sin oprobios ni cadenas. Otro grupo importante de los que regularmente visitaron el sitio estudiaban en otras universidades de La Habana con mayor presencia de la Universidad de Ciencias Médicas y de las universidades de Villa Clara y Cienfuegos respectivamente. Acudieron además diversos grupos de combatientes de las gloriosas Fuerzas Armada Revolucionarias, del Ministerio del Interior, delegaciones de estudiantes de otros países y se convierte en aula para los estudiantes que han asimilado los cursos electivos de la asignatura Movimientos y Luchas Estudiantiles. Cada actividad realizada ha estado enmarcada entre las prioridades de trabajo de la Dirección de Extensión, la dirección define al compañero encargado de atender a los interesados. Constituye prioridad de trabajo de la DEU la búsqueda de la mayor cantidad de elementos sobre la historia del local y hoy se cuenta con datos y las biografías de todos los mártires a los que se le rinde tributo en el solemne local. 3. CONCLUSIONES Hemos podido constatar hasta aquí que, la Universidad de La Habana cuenta con uno de los espacios históricos donde existe constancia plena de la presencia, estancias por horas, pensamiento en las tareas y también acción, de jóvenes como José Antonio, Fructuoso, Machadito y también de los queridos líderes históricos Fidel Castro Ruz y Raúl Castro Ruz. El Salón ha sido un sitio de devoción permanente en el que los estudiantes de todos los niveles de enseñanzas del país, investigadores, profesores universitarios y visitantes de otros países han solicitado información por escrito o digitalizada sobre su historia para realizar trabajos orientados por sus profesores, complementar investigaciones o aumentar el conocimiento sobre la rica historia de luchas estudiantiles del país. Al no existir un documento que recoja dicha historia se ha imposibilitado satisfacer a cabalidad esta necesidad, originándose un problema científico que pretendemos solventar con acciones investigativas que realizamos que se proyectan publicar en un libro. 5. REFERENCIAS BIBLIOGRÁFICAS  ABREU, J. Y BERTRAND, J. A. (2017).Folleto sobre sucesos insurreccionales vinculado a la capital, 13 de marzo de 1957-2017,60Aniversario. Fondo Documental ACRC Provincia La Habana.  AGUIAR, R. (2003).El bonchismo y el gansterismo en Cuba. Editorial de Ciencias Sociales, La Habana.  ANILLO, R. (2011).Que nuestra sangre señale el camino. Casa Editora Abril.  ARMAS, R. DE, TORRES, E. Y CAIRO, A. (1984). Historia de La Universidad de La Habana 1930-1978.Editorial de Ciencias Sociales, La Habana.  CABRERA, O. (1975). Las luchas estudiantiles universitarias 1923-1934.Editorial de Ciencias Sociales, La Habana.  CASTRO, F. (1983). La Historia me Absolverá. Editorial de Ciencias Sociales, La Habana.  CASTRO, F. (1990, 15 de marzo). Acto Central por el trece de marzo. Periódico Granma,  CHOMÓN, F. (1983). El asalto al Palacio Presidencial. Editorial de Ciencias Sociales, La Habana.  GARCÍA, J. (1979). José Antonio Echeverría: La lucha estudiantil contra Batista. Editora Política, La Habana.  LE ROY, L. F. (1971). A cien años del 71.El fusilamiento de los Estudiantes. Editorial de Ciencias Sociales, La Habana.  Nuiry, J. (2002).Presente! Apuntes para la Historia del Movimiento Estudiantil Cubano. Segunda edición. Editora Política, La Habana.  ROA, R. (1969). La revolución del 30 se fue a bolina. Ediciones Huracán, La Habana.  VITIER, C. (1995). Ese sol del mundo moral. Ediciones Unión, La Habana.  ZITO, M. (1998). Asalto. Editora Abril, La Habana. SOBRE EL AUTOR Licenciado en Historia por la Universidad de La Habana en el año 2009. Ha cursado varios posgrados y diplomados en el centro de altos estudios. Es parte del equipo que se encarga de los recorridos que realiza la Dirección de Extensión Universitaria (DEU) con los estudiantes de primer año y otros visitantes. Integrante del proyecto “Identidad”· de la Dirección de Extensión Universitaria. Ha sido jurado de los Fórum de Historia de la Universidad y del Seminario Juvenil Martiano. Trabajó en la historia del Salón de los Mártires con el objetivo de su publicación. Participó como ponente en el Congreso Internacional Universidad 2022 y en el Congreso Internacional de Extensión Universitaria de este año en la Universidad de Panamá. Colabora con la Cátedra Martiana de la Universidad de La Habana. Actualmente es promotor cultural de la DEU atendiendo la promoción de la historia. ALGUNAS EXPERIENCIAS EN LA FORMACIÓN DE INGENIEROS MEDIANTE UN ENTORNO VIRTUAL DE ENSEÑANZA-APRENDIZAJE Janette Santos Baranda1 1Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. Calle 114 # 11901 / Ciclovía y Rotonda, Marianao, La Habana, Cuba 1 jsantos@tesla.cujae.edu.cu RESUMEN En la actualidad, la enseñanza y el aprendizaje virtual constituyen un reto a pesar de los múltiples intentos realizados y de las investigaciones referidas al tema. La llegada de la Covid-19 impactó en los sistemas educativos, no obstante, a los esfuerzos realizados, muchas instituciones enfrentaron dificultades organizativas, de infraestructura tecnológica, así como en la preparación de los profesores y estudiantes para transitar de una formación presencial a una a distancia. El objetivo del trabajo es analizar los resultados obtenidos en el curso de familiarización “Aprender a aprender” que se impartió a los estudiantes de primer año de las carreras de la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE. El estudio se basó en una metodología cualitativa descriptiva en la que se utilizaron los métodos de la modelación y el método sistémico-estructural funcional para el diseño didáctico del curso en la plataforma Moodle con un modelo de formación e-learning. Como métodos de nivel empírico la encuesta con dos cuestionarios y el estudio de casos en las carreras de Ingeniería Geofísica e Ingeniería Biomédica para valorar la relevancia de los contenidos abordados, la influencia de las actividades desarrolladas en el pensamiento reflexivo, la interactividad lograda, el apoyo del profesor tutor y de los compañeros, así como el nivel de interpretación de los mensajes y ayudas ofrecidas por los profesores. El análisis realizado demostró la pertinencia de este modelo de formación en la Educación Superior y la posibilidad de adoptar acciones futuras para su continuidad en el modelo híbrido o b-learning. PALABRAS CLAVES: entorno virtual de enseñanza-aprendizaje, formación de ingenieros. SOME EXPERIENCES IN THE TRAINING OF ENGINEERS THROUGH A VIRTUAL TEACHING-LEARNING ENVIRONMENT ABSTRACT Currently, virtual teaching and learning are a challenge despite the many attempts made and the research on the subject. The arrival of Covid-19 had an impact on educational systems, however, due to the efforts made, many institutions faced organizational difficulties, technological infrastructure, as well as in the preparation of teachers and students to transition from face-to-face training to one at distance. The objective of the work is to analyze the results obtained in the familiarization course "Learning to learn" that was taught to first-year students of the José Antonio Echeverría Technological University of Havana, CUJAE. The study was based on a descriptive qualitative methodology in which modeling methods and the functional systemic-structural method were used for the didactic design of the course on the Moodle platform with an e-learning training model. As empirical level methods, the survey with two questionnaires and the study of cases in the Geophysical Engineering and Biomedical Engineering careers to assess the relevance of the contents addressed, the influence of the activities carried out on reflective thinking, the interactivity achieved, the support of the tutor and classmates, as well as the level of interpretation of the messages and help offered by the teachers. The analysis carried out demonstrated the relevance of this training model in Higher Education and the possibility of adopting future actions for its continuity in the hybrid or b-learning model. KEY WORDS: virtual teaching-learning environment, engineering training. 1 LA FORMACIÓN DE LAS COMPETENCIAS INTERCULTURALES EN ESTUDIANTES UNIVERSITARIOS EN EL SALVADOR Nelson A. Quintanilla Juárez1, Maritza Ruiz de Campos2 1Universidad Don Bosco (UDB), San Salvador, El Salvador, 2Universidad de Oriente (UNIVO), San Miguel, El Salvador. 1 nquintanilla@udb.edu.sv 2 mruiz@univo.edu.sv RESUMEN La multiculturalidad se ha relacionado con la diversidad en la que se encuentran identificadas las minorías étnicas y culturales o algunas comunidades de migrantes. Sin embargo, la idea de la diversidad cultural es más amplia que eso. La diversidad está relacionada con varios campos de aplicación adicionales, entre los que se pueden mencionar: culturas nacionales, estado socioeconómico, aspectos generacionales, confesiones religiosas, ideologías políticas, género, capacidades especiales, desempeño ocupacional, niveles académicos, orientaciones sexuales, logros profesionales, entre otros. En esa línea, la educación intercultural está en correspondencia con la promoción de relaciones basadas en el respeto y el reconocimiento a las diferencias. Pretende ajustar derechos y libertades individuales en convivencia social y promueve una interacción que sea equitativa entre las diversas culturas, teniendo la posibilidad de formar expresiones culturales compartidas, las cuales sean creadas por el diálogo dentro de una relación de respeto mutuo. Por lo tanto, a estas alturas del siglo XXI es necesario analizar la complejidad inherente que tiene la educación intercultural en las instituciones de educación superior (IES), sobre todo pensando en la responsabilidad que tienen en la formación de sus egresados con aquellas competencias que les ayuden, tanto en la inserción laboral como en desarrollar en ellos una formación para la vida. En otras palabras, la responsabilidad de las IES es formar profesionales más integrales, más tolerantes y abiertos a trabajar y convivir con personas de diferentes culturas. El artículo presenta conceptos generales sobre interculturalidad y la educación intercultural, además de mostrar una cronología sobre el desarrollo de estos conceptos en los últimos años. Así mismo, se incluye un diagnóstico inicial sobre el estado actual de la educación intercultural en algunas de las instituciones de educación superior acreditadas en El Salvador. PALABRAS CLAVES: Multiculturalidad, interculturalidad, educación intercultural, diversidad cultural. TRAINING OF INTERCULTURAL COMPETENCES IN UNIVERSITY STUDENTS IN EL SALVADOR ABSTRACT Multiculturalism has been related to the diversity in which ethnic and cultural minorities or some migrant communities are identified. However, the idea of cultural diversity is broader than that. Diversity is related to several additional fields of application, among which we can mention national cultures, socioeconomic status, generational aspects, religious denominations, political ideologies, gender, special abilities, occupational performance, academic levels, sexual orientations, professional achievements, among others. Intercultural education is related to the promotion of relationships based on respect and recognition of differences. It aims to adjust individual rights and freedoms in social coexistence and promotes an interaction that is equitable between different cultures, having the possibility of forming shared cultural expressions, which are created by dialogue within a relationship of mutual respect. It is for this reason that, at this point in the 21st century, it is necessary to analyze the inherent complexity of intercultural education in higher education institutions (HEIs), especially considering the responsibility they have in training their graduates with those skills that help them, both in labor insertion and in citizen coexistence. In other words, 2 the responsibility of higher education institutions is to train more comprehensive professionals, more tolerant and open to working and living with people from different cultures. This article presents general concepts about interculturality and intercultural education, as well as showing a chronology of the development of these concepts in recent years. Likewise, an initial diagnosis is included on the current situation of intercultural education in some of the HEIs accredited in El Salvador. KEY WORDS: Multiculturality, interculturality, intercultural education, cultural diversity. 1. INTRODUCCIÓN La interculturalidad La diversidad cultural ha sido un tema que ha estado en las agendas de diversas organizaciones desde hace muchos años. Por ejemplo, la Declaración Universal de Derechos Humanos adoptada y proclamada por la Asamblea General de la Organización de las Naciones Unidas (ONU), el 10 de diciembre de 1948, ya incluía, en los artículos 18 y 19, la libertad que toda persona tiene para decidir sobre su creencia religiosa y de expresión. En el artículo 26, de esta declaración, se deja claro que la educación tendrá como uno de sus objetivos, promover el pleno desarrollo de la personalidad humana y favorecerá la comprensión, la tolerancia y la amistad entre todas las naciones y todos los grupos étnicos o religiosos [1]. En el año 2001 se adopta, por la XXXI sesión de la Conferencia General de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. UNESCO, la Declaración Universal de la UNESCO Sobre la Diversidad Cultural. Esta declaración expresa en el artículo 2: “En nuestras sociedades cada vez más diversificadas, resulta indispensable garantizar una interacción armoniosa y una voluntad de convivir de personas y grupos con identidades culturales a un tiempo plurales, variadas y dinámicas” [2]. En el año 2005 la UNESCO desarrolla la Convención Sobre la Protección y la Promoción de la Diversidad de las Expresiones Culturales. En la página 3 de esta declaración, se establece que: “La diversidad de expresiones culturales, comprendidas las expresiones culturales tradicionales, es un factor importante que permite a los pueblos y las personas expresar y compartir con otros sus ideas y valores” [3]. Adicionalmente en 2015 la UNESCO realiza la publicación del documento Educación Para la Ciudadanía Mundial: Temas y Objetivos de Aprendizaje. El cual pretende ser una guía para la formación de ciudadanos globales [4]. Al nivel latinoamericano, el Instituto Internacional de la UNESCO para la Educación Superior en América Latina y el Caribe (IESALC), ha desarrollado varios estudios acerca de la interculturalidad. En 2008 se publicó un compendio de varios estudios, coordinados por Daniel Mato: Diversidad Cultural e Interculturalidad en Educación Superior. Experiencias en América Latina. En este documento se presentan algunas de las experiencias surgidas en Latinoamérica sobre la importancia que la valoración y promoción de la diversidad cultural y la interculturalidad tienen para la UNESCO y para el IESALC [5]. En 2018 se publica la colección Conferencia Regional de Educación Superior CRES 2018: Educación Superior, Diversidad Cultural e Interculturalidad en América Latina. En el documento se presenta un análisis en el campo de educación superior relacionado con los pueblos indígenas y las personas afrodescendientes en América Latina [6]. La interculturalidad puede contribuir al logro de una educación de calidad y accesible para todos, ya que promueve el respeto y la tolerancia entre personas diversas. Esta premisa y objeto de la educación, ya está incluido la Declaración Universal de Derechos Humanos de la Organización de las Naciones Unidas. En el artículo 26, esta declaración establece que: “La educación tendrá por objeto el pleno desarrollo de la personalidad humana y el fortalecimiento del respeto a los derechos humanos y a las libertades fundamentales; favorecerá la comprensión, la tolerancia y la amistad entre todas las naciones y todos los grupos étnicos o religiosos, y promoverá el desarrollo de las actividades de las Naciones Unidas para el mantenimiento de la paz.” [1] 3 La amplia diversidad cultural de la sociedad contemporánea envuelve a la educación en el compromiso de desarrollar competencias para convivir en medio de “los otros” y a construir escenarios de futuro a partir de una realidad de índole cultual diversa, pero se deben proponer planteamientos académicos claros para ser desarrollados en ambientes de trabajo educativo interculturales [7] (UNESCO, 2017). 2. DESARROLLO Educación intercultural La educación intercultural universitaria es un factor de calidad educativa que implica la introducción de valores tales como, la convivencia, la validación del otro y una interacción que se da en la base del mutuo reconocimiento [8] (Peñalva V. & Leiva O., 2019). Por ello las IES, además de ser el lugar en el que los estudiantes aprenden el conjunto de conocimientos que logrará que en el futuro pueda iniciar el ejercicio de una profesión con eficiencia y responsabilidad, también debe ser el lugar en el cual se aprende un conjunto de saberes éticos e interculturales [9] (Martínez, M., 2006). Todas las sociedades se basan en el impulso de la diversidad cultural, es esta diversidad la que ha producido transformaciones a lo largo de la historia de la humanidad. Hoy en día, esta situación es más evidente y clara en un mundo donde una gran diversidad de personas coexiste. En esta realidad actual es donde la educación intercultural debe fomentar el diálogo intercultural, presentar las diferentes culturas y poner en relieve la diversidad cultural y los valores universales [10] (Deardorff, 2020). Esta diversidad cultural que existe en la sociedad, se ve reflejada en las aulas y es una variable importante con gran influencia en la convivencia, pero también tiene impacto en el rendimiento académico de los estudiantes, principalmente de los que pertenecen a grupos minoritarios. En el contexto latinoamericano, la educación intercultural surgió como una necesidad de incluir a los pueblos indígenas en el sistema educativo, con el propósito de empoderar su lengua y su cultura. En ese momento se propuso como una estrategia de educación intercultural bilingüe para los pueblos indígenas, pero posteriormente, a finales de los años mil novecientos ochenta, se convirtió en una política pública, debido a una serie de medidas dictadas por la Organización Internacional del Trabajo (OIT) y la Organización de Naciones Unidas (ONU) [11] (Osuna Nevado, 2012). Por otro lado, en el contexto europeo, principalmente en el español, la educación intercultural surge como una respuesta a la diversidad que apareció en las aulas de clases, principalmente de las minorías de migrantes y gitanos. [11] (Osuna Nevado, 2012). En ambos casos, la educación intercultural ha surgido como la respuesta educativa ante una demanda de quiénes se les consideraba diferentes. La educación intercultural, o el enfoque intercultural en la educación, tiene el propósito de garantizar, o al menos ofrecer, a grupos minoritarios, etnias indígenas, afrodescendientes o inmigrantes, una modalidad educativa que procura su inclusión en los sistemas educativos, proveyendo que las instituciones creen las condiciones normativas y materiales que establezcan garantías efectivas de todos los derechos asociados que tienen estos grupos sociales. Aquí han sido importantes los estudios sobre Etnicidad y Educación en América Latina realizados desde el año 2018 por Silvina Corbetta y otros, encomendados por la Oficina para América Latina del Instituto Internacional de Planeamiento de la Educación de la UNESCO. Estos estudios buscan: “contribuir a un conocimiento panorámico de la situación de la educación que los pueblos indígenas y poblaciones afrodescendientes demandan para sí, y reflexionar sobre el estado o alcance de las políticas educativas con enfoque intercultural” [12] (Corbetta et al., 2020, p. 6). Por lo tanto, es importante que la educación considere las diferencias culturales como parte integral de la sociedad, esté fundamentada en políticas educativas que reconozca todos los derechos y las necesidades de los estudiantes, sin ninguna distinción, ni del tipo personal ni social. Es decir, lo que se busca es una educación que logre garantizar que la meta de todas las instituciones educativas sea promover la integridad de sus estudiantes y su máximo desarrollo educativo en un clima de comprensión, solidaridad y democracia [13] (Orteso Iniesta & Caballero García, 2017). Esta visión de la educación intercultural debe considerar 4 que la cultura tiene una característica dinámica y no estática y que, a partir de una relación intercultural abierta, se logra que se produzcan relaciones con enriquecimiento tanto individual como social y cultural. Por ello se hace necesario aplicar estrategias educativas que garanticen una actitud inclusiva independientemente de la cultura, las creencias o la etnia a la que cada individuo pertenece o sienta pertenecer. En tiempos de globalización la diversidad cultural se encuentra presente en muchos niveles de la vida, incluso en la actividad académica. Actualmente se cuenta con sociedades híbridas desde el punto de vista cultural, teniendo impacto en los modelos educativos de cada país. Esto evidencia que la diversidad humana es normal y en lugar de verla como algo negativo debe verse como algo positivo que enriquece mutuamente a los miembros de una sociedad. Todo esto hace reconocer la necesidad y la urgencia que tiene la educación intercultural. La interculturalidad debe ser estudiada por lo menos desde las perspectivas de la realidad global, las diferencias sociales, costumbres, tendencias políticas, migración, la incorporación de los pueblos originarios a los sistemas educativos y la internacionalización, entre otros fenómenos. Competencias interculturales Uno de los requisitos básicos dentro de la globalización y diversidad cultural que actualmente existe en el mundo, debe ser la formación de competencias interculturales, ya que las interacciones interculturales son una característica constante de la vida moderna y los retos para el futuro. Existe una creciente conciencia entre los formuladores de políticas públicas y en general en la sociedad civil, de que las competencias interculturales pueden ser una herramienta eficaz para ayudar a los ciudadanos a tener mejores efectos en los diversos encuentros y experiencias culturales. La competencia intercultural está asociado a habilidades que permiten a las personas desarrollar relaciones transculturales exitosas. La creciente diversidad cultural, la cual es dinámica y transformadora, requiere de capacidades y competencias específicas para que las personas y las sociedades desarrollen sus compromisos personales y alcancen la armonía social. Estar consciente de las diferencias culturales, de sus tensiones y limitaciones, puede enriquecer el aprendizaje de concepciones, visiones y alternativas culturalmente diferentes [7]. (UNESCO, 2017). Las competencias interculturales son necesarias en un mundo globalizado, que se ha ido integrando por medio de poner en contacto a personas de diversos contextos y culturas. Las diferencias culturales están presentes, definen a las personas y al mismo tiempo condicionan las relaciones sociales y personales. El desarrollo de competencias interculturales aporta para que las relaciones e interacciones entre individuos de diversos orígenes y culturas, o dentro de grupos heterogéneos, aprendan a vivir juntos y en armonía. Así, las competencias interculturales complementan los derechos humanos como un catalizador para la búsqueda de una cultura de coexistencia pacífica y armoniosa entre las sociedades, sin importar lo culturalmente diversas que sean [7]. (UNESCO, 2017). Las competencias interculturales se basan en los 4 “pilares de la educación” definidos por la Comisión sobre la Educación para el Siglo XXI. Es decir, aprender a conocer, aprender a hacer, aprender a vivir juntos y aprender a ser. Aprender a conocer es importante pero no basta solo el conocimiento, se requiere también que la competencia intercultural capacite al individuo para desempeñarse en situaciones diversos en un contexto local o global. Aprender a vivir juntos implica estar preparado para enfrentar conflictos, pero en pleno respecto de los valores y los derechos del otro. Finalmente aprender a ser involucra estar en condiciones de comportarse con suficiente responsabilidad personal respetando a cada individuo con quien se trate [14]. (UNESCO, 2006). Las estrategias y modalidades de formación de competencias interculturales no pueden ser estáticas, se deben adaptar a las exigencias de una era en la cual se dan de manera permanente transformaciones sociales, que requieren nuevas articulaciones entre la diversidad cultural y los valores universales [7]. (UNESCO, 2017). Todo esto demanda lo que se conoce como “diálogo cultural”. Este diálogo describe las relaciones interculturales que son planificadas para el desarrollo de las competencias interculturales. También Esteban Krotz sostiene: “las relaciones entre las culturas y sus portadores no son de carácter meramente discursivo- racional. Más bien son multidimensionales” [15] (Krotz, 2020. p. 27). Esto significa que las relaciones 5 interculturales son generalmente habituales, es decir, que son cotidianas y espontáneas, pero que también pueden ser no planeadas. En fin, se puede afirmar que, en la educación intercultural, son tan importantes las relaciones de carácter discursivo racional como las afectivas y perceptivas [15] (Krotz, 2020). De acuerdo con Darla Deardorff: “existen dos enfoques principales para desarrollar competencias interculturales: el aprendizaje formal y el aprendizaje informal/no formal” [10] (Deardorff, 2020. p. 7). Entendiéndose que el aprendizaje intercultural formal es el que se desarrolla por medio de planes de estudios sin importar cuál sea el nivel del sistema educativo. Por otro lado, las oportunidades de aprendizaje informal, o no formal, son aquellos aprendizajes que se obtienen por medio de intercambios académicos, las bellas artes, las organizaciones culturales, espacios públicos como museos y bibliotecas, nuevos medios de comunicación, etc. También se debe mencionar que el aprendizaje no formal o informal, se da a través de las situaciones y de las experiencias del día a día, cuando se da una relación con quienes se difiere en edad, género, religión, etnia, estatus socioeconómico, creencias políticas o capacidades físicas, por mencionar solo algunas diferencias [10] (Deardorff, 2020). Para ambos casos la UNESCO ha planteado que hay tres principales ámbitos para el aprendizaje de competencias interculturales, estos ámbitos son: el cognitivo, el socioemocional y el conductual [4] (UNESCO, 2015). En el ámbito cognitivo, los educandos aprenden a conocer y comprender los problemas tanto a nivel local, nacional, pero también a nivel global. Esto capacita a los estudiantes a tener capacidad de reflexionar y de hacer análisis críticos sobre estos problemas. En el ámbito socioemocional los estudiantes desarrollan un sentido de pertenencia a una sociedad global lo cual les permite compartir valores, pero también responsabilidades, además aprenden a ser empáticos y solidarios respecto a la diversidad. En el ámbito conductual es en el cual los estudiantes ya actúan de manera responsable y desarrollan motivación y voluntad para emprender la acción y tener una conducta que le permita un desempeño práctico y comprometido con la sociedad [4]. (UNESCO, 2015). La educación intercultural en El Salvador Al nivel de la región centroamericana hay pocas investigaciones que analicen y presenten estudios sobre cómo está presente la interculturalidad en los países de la región. En El Salvador, no se puede percibir conciencia de la naturaleza multicultural de nuestra sociedad. Se ha sostenido que en El Salvador todos son iguales, posiblemente esta falta de conciencia de la diversidad se deba a que se ha invisibilizado ciertos sectores de la sociedad. Si bien es cierto que en El Salvador no hay personas afrodescendientes, sí hay personas descendientes de los pueblos originarios. Estos familiares de pueblos originarios son quienes a lo largo de la historia han sufrido exclusión y hasta persecución para intentar su invisibilización, una acción recurrente en algunos países latinoamericanos. Además, hay diferencias culturales que son evidentes entre las regiones del país. Sin embargo, el sistema educativo salvadoreño, no define acciones específicas para atender la multiculturalidad en sus procesos formativos. Jorge Lemus en su artículo: Lo mejor de dos Culturas: Hacia una Educación Intercultural en El Salvador, (Lemus, 2018) establece: “Los enfoques educativos interculturales, multiculturales y bilingües no han sido tradicionalmente parte de los currículos educativos nacionales que se enfocan mayormente en la negación de la diversidad y la creación de Estados nacionales regidos por un grupo cultural y lingüístico dominante, que se ha convertido en la norma.” (p.126). El sistema educativo salvadoreño se ha caracterizado por buscar inculcar en las mayorías el pensamiento económico y social de las clases dominantes [16] (Lemus, 2018). En El Salvador, al igual que en la mayoría de los países latinoamericanos, se ha buscado desde la conquista la creación de estados nacionales que van desarrollando lo que se conoce como fusión de culturas, es decir procesos en los cuales ha existido la instauración y el predominio de una cultura y de una lengua, proceso mediante el cual se ha dado paso a la creación de sistemas de una cultura dominante procurando invisibilizar las minoritarias [16] (Lemus, 2018). En El Salvador existen programas de apoyo a pueblos indígenas y a la recuperación de la lengua náhuat, pero todavía hay una gran brecha que cerrar en temas de educación intercultural. Por tal razón la educación intercultural es una necesidad que ayudaría a que se tenga un sistema educativo de más calidad, más efectivo, más pertinente, multicultural e inclusivo. 6 3. CONCLUSIONES La educación superior, como sistema, requiere que los estudiantes no sólo aprendan los temas relacionados con su profesión. La globalidad demanda que los profesionales tengan competencias que les permitan un mejor desenvolvimiento profesional al momento de tener algunas relaciones de tipo intercultural. La educación intercultural es un catalizador que establece un vínculo pertinente y sustantivo con la diversidad cultural y que es una valiosa herramienta para desarrollar las competencias interculturales necesarias en los estudiantes, para formar en ellos la capacidad de establecer lazos de cooperación con personas culturalmente diversas. Las competencias interculturales facilitan una integración laboral y social que permite una buena relación con otros grupos culturales. Por eso es que se ha convertido en un elemento clave para el éxito profesional en ambientes globalizados como en el que prevalece hoy en día. La competencia intercultural sirve también, para el ejercicio de una ciudadanía entre las personas que se encuentren en contextos que no sean culturalmente los propios. Es decir, la educación intercultural desarrollará en los estudiantes las competencias para dinamizar una conducta ciudadana responsable e inclusiva en un ambiente de respeto por la forma de pensar de los otros. En este sentido, se concibe la educación intercultural como muy importante porque no se reduce sólo a elementos visibles como la lengua, la geografía o la etnicidad, sino que incluye otros elementos epistémicos y afectivos que influyen en el comportamiento de la persona, definen su identidad y moldean sus conductas y sus valoraciones; no únicamente en lo referido a sí mismo, sino también en la interacción con otras personas. Así pues, se entiende la competencia intercultural como un atributo transversal, que ayude en su relación con otras personas de diferentes culturas y, por lo tanto, se convierta en un recurso para el ejercicio de una ciudadanía global o en un medio para el logro de ésta. Los aspectos que involucran a la educación intercultural y los que tienen que ver con competencias interculturales reclaman un debido posicionamiento que vaya acorde a las exigencias de un mundo cada vez más interrelacionado y globalizado. En el sistema educativo nacional y en las instituciones de educación superior de El Salvador, hoy en día no existe una conciencia clara sobre la educación intercultural, en un sondeo realizado en algunas de la IES acreditadas por la Comisión de Acreditación de la Calidad de la Calidad de la Educación Superior (CdA), se ha detectado que el concepto de interculturalidad es poco mencionado y las veces que se hace mención de este término, se hace de manera general y generalmente cuando se aborda el tema de internacionalización, relacionando de manera directa interculturalidad con internacionalización, cuando no siempre existe esa relación directa entre la una y la otra. Además, es un tema que no está incluido en los indicadores de la calidad educativa del sistema nacional de educación superior, lo que implica que es un reto incursionar en el tema desde la gestión de las IES. Dados estos resultados encontrados, se concluye a este momento, que se requiere realizar una investigación amplia, que llene el vacío existente sobre esta temática y que permita determinar el estado de la educación intercultural en las IES salvadoreñas. Un estudio de este tipo puede mostrar la importancia que tiene para la formación integral el desarrollo de competencias interculturales en los estudiantes de educación superior y la responsabilidad que además tienen las IES para desarrollar una formación integral e inclusiva en los diferentes programas y carreras. 7 4. REFERENCIAS BIBLIOGRÁFICAS 1. ONU. “Declaración Universal de Derechos Humanos: Naciones Unidas” Asamblea General París. Francia. 1948. 2. UNESCO. “Declaración Universal de la UNESCO sobre la Diversidad Cultural” Digital Library. Paris. Francia. 2001. 3. UNESCO. “Convención sobre la protección y la promoción de la diversidad de las expresiones culturales” Digital Library. Paris. Francia. 2005. 4. UNESCO. “Educación para la ciudadanía mundial: Temas y objetivos de aprendizaje” UNESCO Digital Library. Paris. Francia. 2015. 5. Mato, D. “Diversidad cultural e interculturalidad en educación superior: Experiencias en América latina” UNESCO Biblioteca Digital. IESALC-UNESCO. Argentina. 2008. 6. ISEALC-UNESCO. “Educación superior, diversidad cultural e interculturalidad en América Latina” UNESCO Biblioteca Digital Universidad Nacional de Córdoba. Argentina. 2018. 7. UNESCO. “Competencias interculturales: Marco conceptual y operativo. 2017, Universidad Nacional de Colombia. Bogotá. Colombia. 2017. 8. Peñalva V., A., & Leiva O., J. J. “La interculturalidad en el contexto universitario: Necesidades en la formación inicial de los futuros profesionales de la educación” En “Revista Educar” 2019, Volumen 1, número 55, pp. 141-158. 9. Martínez, M. “Formación para la Ciudadanía y Educación Superior.” En “Revista Iberoamericana de Educación” Organización de Estados Iberoamericanos (OEI). 2006, Volumen 1, Número 22, pp. 40- 58. 10. Deardorff, D. K. “Manual para el desarrollo de competencias interculturales” UNESCO París. Francia. 2020. 11. Osuna Nevado, C. “En torno a la educación intercultural: Una revisión crítica” En “Revista Educación” Madrid. España. 2012. Volumen 1, Número 358, pp. 38-58. 12. Corbetta, S., Divinsky, P., Bustamante, F., Domnanovich, M., & Domnanovich, R. “Etnicidad y Educación en América Latina” UNESCO. Paris, Francia. 2020. 13. Orteso Iniesta, P., & Caballero García, C. M. “Educación intercultural, experiencias inclusivas: Un recorrido por el Siglo XXI” En “Interacções”. Lisboa. Portugal. 2017. Volumen 13, Número 43, Articulo 43. 14. UNESCO. “Directrices de la UNESCO sobre la educación intercultural” UNESCO Paris. Francia. 2006. 15. Krotz, E. “Del mosaico exótico a la convivencia democrática: Aspectos antropológicos” Editorial UDUAL. México. 2020. 16. Lemus, J. “Lo mejor de dos culturas: Hacia una educación intercultural en El Salvador” En Revista “Científica”. Editorial Universidad Don Bosco. San Salvador. El Salvador. 2018. Volumen 1, Número 3, pp. 116-145. LA ASIMILACIÓN DEL CÁLCULO INTEGRAL Y LAS APLICACIONES DESDE LA TEORÍA DE GALPERIN PARA EL INGENIERO CIVIL Teresa de Jesús Carrasco Jiménez 1, Orlando Pérez Torranzo 2, Genoveva Marivel del Valle García 3, Camilo Boris Armas Velasco 4 1, 2, 4 Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE Calle 114 No. 11901. e/ Ciclovía y Rotonda. Marianao. La Habana, Cuba. 2 Universidad de La Habana, La Habana, Cuba. tcarrasco@icb.cujae.edu.cu; orlando.perez@ifal.uh.cu; genoveva.delvalle@ifal.uh.cu; carmas@tesla.cujae.edu.cu RESUMEN En el presente artículo se describe el proceso de asimilación del cálculo integral y las aplicaciones para el Ingeniero civil de la Universidad Tecnológica de La Habana José Antonio Echeverría (CUJAE), a partir de la teoría de la formación planificada y por etapas de las acciones mentales de P. Ya. Galperin, que sustenta la orientación para el tránsito hacia niveles superiores de asimilación de los conocimientos y habilidades en el tema. Para ello fueron empleados los métodos de investigación: observación, análisis y síntesis, la inducción- deducción, apoyados en la búsqueda con motores de información. Como resultado se concluye que la teoría de P. Ya. Galperin, constituye un fundamento que permite comprender la lógica dialéctica y la dinámica del proceso de asimilación para el tránsito hacia niveles de aplicación y creación en la formación de ingenieros. PALABRAS CLAVE: Asimilación, Orientación, Proceso de Enseñanza-Aprendizaje ABSTRACT This article describes the process of assimilation of the applications of integral calculus for the civil engineer of the Technological University of Havana José Antonio Echeverría (CUJAE), based on the theory of planned training and by stages of mental actions. of P. Ya. Galperin, which supports the orientation for the transition to higher levels of assimilation of skills and knowledge on the subject. For this, the research methods were used: observation, analysis and synthesis and induction-deduction, supported by the search with information engines. As a result, it is obtained that the theory of P. Ya. Galperin, constitutes a foundation that allows understanding the dialectical logic and the dynamics of the assimilation process for the transition towards levels of application and creation in the training of engineers. KEYWORDS: Assimilation, Orientation, Teaching and learning process 1. INTRODUCCIÓN La educación superior ha tenido grandes transformaciones, entre ellas, se destacan las relacionadas con la virtualización de la enseñanza, los cambios que han tenido lugar en planes y programas de estudio y aquellas que se llevan a cabo directamente en el proceso de enseñanza-aprendizaje (PEA) de asignaturas y disciplinas de las carreras, con el fin de elevar la calidad del futuro egresado. En particular, el proceso de asimilación de la Matemática para ingenieros, ha sido desarrollado por diferentes autores como; Stlano [1]; Chelala y Cruz [2]; Rúa [3]; Barrios [4]; Fariñas [5]; quienes consideran que, constituye un aspecto importante en la calidad de los egresados de nivel superior. Los autores señalados y los resultados presentados en eventos nacionales e internacionales como la Reunión Latinoamericana de la Matemática Educativa (RELME 2019), el congreso Universidad 2022, y la experiencia de los autores de este artículo, evidencian que es débil la relación asimilación-orientación en el PEA del cálculo integral y sus aplicaciones. Por lo que el objetivo de este artículo es fundamentar, a partir de la Teoría de P. Ya. Galperin, la orientación para la asimilación del cálculo integral y sus aplicaciones para el Ingeniero civil. 2. DESARROLLO La asimilación de los conocimientos, habilidades y valores constituye un proceso que transita por un conjunto de estados cualitativos o etapas que van desde el diagnóstico y la motivación; la formación de la base orientadora de la acción (BOA); la formación de la acción en forma material-materializada; la formación de la acción en forma verbal externa, hasta la formación de la acción en el lenguaje interno o mental. Es un proceso de interiorización-exteriorización. La interiorización, implica la exteriorización de las acciones del aprendizaje en esos planos, pero esto es insuficiente para su desarrollo, también es preciso “...determinadas transformaciones de las acciones materiales o materializadas en argumentos y descripciones conceptuales o metodológicas en los planos de realización verbal (externa -oral o escrita- para los otros, externas para sí mismo -o soliloquio- y mental).” [6]. “El plano mental se expresa esencialmente a través del habla interna, es decir un habla sobreentendida o tácita, ya no percibida por el sujeto porque está automatizada. Solamente se hace consciente en casos de su exigencia. Esos signos verbales tienen la función de orientar y regular la realización tanto mental, perceptual, como la externa –material o materializada-, según la realización exigida en cada momento del aprendizaje.”[6]. Según el plan de estudios para el ingeniero civil de la CUJAE, en los objetivos de la asignatura Matemática I se señala: “… desarrollar un pensamiento crítico y hábitos de proceder reflexivo basados en las estrategias educativas y en los modos de actuación de la carrera que le permitan una autoevaluación; desarrollar la necesidad de aprender a partir de un aprendizaje basado en la búsqueda consciente, significativa y con sentido personal de los conceptos fundamentales de la disciplina: caracterizar, interpretar, comunicar y aplicar conceptos y principios, resultados de la disciplina, mediante una correcta utilización del lenguaje matemático en sus diferentes formas, es decir analítica, gráfica, numérica y verbal; analizar, modelar y resolver problemas relacionados con el modelo del profesional de la carrera y otras disciplinas; desarrollar la capacidad de razonamiento y formas de pensamiento lógico, mediante la asimilación de elementos de lógica matemática, la comprensión de la demostración de propiedades y teoremas.”[7]. Lo que significa organizar y desarrollar el PEA, de manera tal que contribuya a la formación de los estudiantes según el modelo del profesional. Estas valoraciones se concretan para el autor en el concepto asumido de PEA de la Matemática I como “el proceso en el cual los estudiantes asimilan los conocimientos, habilidades, actitudes, valores y modos de actuar matemático, a través de un proceso de interiorización-exteriorización, mediante la actividad y la comunicación, donde el profesor es guía y orientador y los estudiantes son protagonistas de su formación.”[8]. Los autores de este trabajo asumen además, los criterios abordados por Mendoza, Acevedo y Tejeda [9], respecto a las etapas planteadas para la asimilación. En correspondencia a las ideas anteriores se consideran las siguientes etapas: Etapa 1: Diagnóstico y Motivación  Un estudio diagnóstico para conocer las condiciones iniciales de los estudiantes que posibilita la elaboración de los objetivos y tareas que se llevarán a cabo en el tema, según el desarrollo individual de los estudiantes.  Desde el inicio, el estudiante se coloca ante situaciones que posibilitan la apropiación del concepto Integral definida de una función de una variable y sus aplicaciones. En ellas subyacen el conjunto de tareas necesarias y suficientes que permiten su generalización, las que deben estar vinculadas a lo que el estudiante sabe y lo que tiene sentido para él. Es importante partir de una representación global de la integral definida y de sus aplicaciones principales, aunque el estudiante no conozca sus componentes esenciales. Estos se irán descubriendo detalladamente, a través del estudio en análisis-síntesis de la representación que se emplea hasta arribar al concepto y sus relaciones esenciales. Para lo que se propone:  Una situación motivadora Se parte de una situación que revele la importancia del cálculo integral en la Matemática, en la Física, y sobre todo en problemas específicos de la carrera Ingeniería Civil, como es el cálculo de áreas, las coordenadas del centroide de una figura plana, momentos de inercia, volumen de un sólido que se forma al girar una figura plana alrededor de cierto eje, la longitud de una curva, entre otras aplicaciones de interés para el ingeniero. Por ejemplo: Determine las coordenadas del centroide de la sección transversal de una viga de hormigón descrita por la región: Para su resolución, se propone partir de su representación geométrica acompañada de preguntas como: 1) ¿Qué curvas limitan la región? 2) ¿Son funciones lineales, cuadráticas, exponenciales, logarítmicas, trigonométricas…? ¿Están desplazadas? ¿Cortan los ejes coordenados? ¿Cómo se representan? ¿Cuál es la región o dominio de la integración? 3) ¿Cómo se define el concepto de integral definida? ¿Cuál es su interpretación geométrica? ¿Cuáles son sus propiedades? ¿Qué métodos de integración se han estudiado? ¿En qué consisten estos métodos? Etapa 2. La formación de la base orientadora de la acción La base orientadora de la acción (BOA) expresa el sistema de condiciones en que realmente se apoya el estudiante para ejecutar la acción, en este caso, las que posibilitan la formación del concepto y sus relaciones esenciales. Se asume la orientación que direcciona, en lo fundamental, la BOA III. Se reafirma que esta se caracteriza por ser generalizadora, completa, independiente y significativa. Así, el estudiante puede aplicar el concepto en diferentes situaciones y tareas particulares referentes a la clase de fenómenos relacionados con el concepto de Integral definida. Las orientaciones enfatizan el concepto general de integral definida y sus invariantes. Para su formación es necesario que los estudiantes dominen: función, derivadas y el cálculo algebraico correspondiente. La orientación debe tener en cuenta la preparación de los estudiantes. Para la orientación se proponen tareas particulares relacionadas con el concepto de Integral definida y algunas de sus aplicaciones en la Ingeniería civil que aparecen en el libro de texto, o de otra bibliografía auxiliar que cumpla con estos objetivos. Se recomienda que en esta etapa las ideas esenciales estén vinculadas al concepto como: 1) Cálculo del área de una región plana: A- Comprensión de la integral definida como una suma de infinitos términos y su interpretación inmediata es el área bajo la curva de la función que se integra. Ver Figura 1. B- Análisis de la regularidad de la región, si con una integral única se puede calcular el área : C- (Figura 2); o es necesario su descomposición en dos o más subregiones: (Figura 3). Figura 2. Figura 3 Fuente: Libro de texto,Stewart, J. (2006). Cálculo con trascendentes tempranas, Parte II. P. 433.[11] Fuente: Libro de texto,Stewart, J. (2006). Cálculo con trascendentes tempranas, Parte II. P. 436.[11] D- Planteamiento correcto de la integral definida para modelar el problema que se presenta, que comprende los límites de integración, la función integrando. E- Determinación del método de integración adecuado. F- Aplicación correcta del método de integración. G- Análisis del resultado obtenido. 2) Cálculo del volumen de un sólido en revolución (Figuras 4 y 5.): A- Identificación del eje alrededor del cual gira la región. B- Selección y elaboración correcta de la integral para calcular dicho volumen.( , si gira alrededor del eje X, y si gira alrededor del eje Y) C- Determinación del método de integración adecuado. D- Aplicación correcta del método de integración. E- Análisis del resultado obtenido. Figura 1.Integral definida Fuente:Libro de texto Stewart, J. (2006). Cálculo con trascendentes tempranas, Parte II.P. 371.[11] Figura 4. Sólido que se forma al girar la región alrededor del eje X.[11] Fuente: https://navarrof.orgfree.com/Docencia/MatematicasII/solidosrev.htm. Figura 5. Sólido que se forma al girar la región alrededor del eje Y. Fuente:https://navarrof.orgfree.com/Docencia/MatematicasII/solidosrev.htm. [11] (modificado por los autores) 3) Cálculo de las coordenadas del centroide de una región (Figura 6) que puede ser, por ejemplo, la sección transversal de una viga: A- Análisis de la regularidad de la región. B- Aplicación correcta de las integrales para calcular la abscisa ( y la ordenada ( del centroide de la región. C- Determinación del método de integración adecuado. D- Aplicación correcta del método de integración. E- Análisis del resultado obtenido. Figura 6. Centroide de una figura plana con las fórmulas para sus coordenadas. Fuente: Libro de texto, Stewart, J. (2006). Cálculo con trascendentes tempranas, Parte II. P. 571. [11] Etapa 3. La formación de la acción en forma material-materializada En esta etapa se concretan las situaciones presentadas en la etapa motivacional con las orientaciones correspondientes. El concepto se expresa en el libro de texto o en la bibliografía auxiliar. Se construye con los estudiantes a través de preguntas o planteamientos, lográndose la representación de las regiones de integración, para definir el concepto, (podría ser representada en diapositivas con movimiento). El estudiante descubre con el profesor y el resto del grupo las relaciones esenciales. La etapa materializada es muy importante, y requiere de una orientación del profesor o de un estudiante más capaz, en las actividades de estudio encaminadas a la asimilación del concepto integral definida y sus aplicaciones. Aquí se establecen las condiciones para la generalización, aspecto que se manifiesta en el resto de las etapas.  Situación materializada inicial: La primera es la representación de la región de integración a la que se le determinará su área y las coordenadas del centroide. Esto es muy necesaria para la comprensión del concepto y sus aplicaciones. Además de identificar las curvas que limitan la región y su representación, se analiza la regularidad de la región, planteándose la integral que tiene como resultado su área, con el análisis de otras posibilidades o variantes para su modelación: A- Puede ser una región limitada por solo una curva y un intervalo determinado. (Figura 7) B- Puede ser una región limitada por más de una curva y ser regular con respecto al eje X, (Figura 2), o regular respecto al eje Y. (Figura 8) C- Puede ser una región limitada por más de una curva y no ser regular. (Figura 9.)  Situación materializada respecto a la aplicación específica del ejercicio: A- Calcular el área bajo la curva. B- Calcular el volumen de un sólido en revolución. C- Calcular el centroide de una figura plana. D- Calcular la longitud de una curva E- Otra aplicación de la integral en problemas de ingeniería o de otras disciplinas como la Física.  Situación materializada respecto al método de integración que se emplea: Figura 7 Fuente: Elaborada por los autores Figura 8 Fuente: Elaborada por los autores Figura 9 Fuente: Elaborada por los autores Asegura que los estudiantes determinen un método de análisis generalizado, para la integración de la función que puede presentarse como: A- Integral inmediata. B- Suma algebraica de varias funciones que tienen integrales inmediatas. C- Aplicación del método de sustitución. D- Aplicación del método de integración por partes. E- Resolución de una integral impropia. F- Resolución de integral de fracciones impropias. Etapa 4. La formación de la acción en forma verbal externa (o de formación en el lenguaje externo) En esta etapa se promueve la exposición para sí. Una etapa importante en la consolidación, que requiere de la reflexión. Puede apoyarse en la representación gráfica o escrita, o remitirse a una específica. Posteriormente, se traducen las relaciones y pasos operantes que premiarán todas las situaciones desarrolladas. Durante la exposición se pueden detectar errores y estos ser rectificados, por alguien del grupo de estudiantes o el profesor. Según Galperin (1976) en esta etapa se dan cambios esenciales. Uno consiste en que la acción no se estructura como un reflejo de aquello que sea realizado materialmente, como acción comunicativa propia y como tal, tiene subordinación con las exigencias de comprensión y sentido específico a otras personas y, por extensión, como fenómeno social. Hay otro cambio que es con respecto a la constitución del concepto con base en la acción, lo que excluye la limitación de la acción con objetos o simplemente visual. La acción expresada en el lenguaje adquiere otra naturaleza, por lo que adoptan nuevas posibilidades. El tercer cambio se da por el hecho de que la asimilación verbal se somete a consecutivas reducciones y se trasforma, en síntesis, esto es acción por fórmula. Esta acción solo es atribuida si fuera bien asimilada, haciendo que el contenido de la acción materializada logre concienciarse. Esta etapa requiere de la sistematización.[12] A partir de este momento, en que el estudiante domina el esquema de la acción y se ha apropiado de los conocimientos necesarios, existen las condiciones para pasar a la etapa de formación en el plano del lenguaje, donde los elementos de la acción deben estar representados en forma verbal (oral o escrita) por el estudiante. Existe una codificación en forma de concepto de la acción material. Los métodos son grupales, por pareja, de discusión, para la solución creativa de problemas y ejercicios. El estudiante es capaz de expresar todo verbalmente. Esta etapa se caracteriza por un movimiento de comunicación que se extiende desde una representación basada en la acción materializada a síntesis con contenido eminentemente conceptual. Tal elaboración, como el propio nombre dice, es en el plano verbal. Etapa 5. La formación de la acción en el lenguaje interno o mental Esta etapa resume el proceso de asimilación. El estudiante ha formado el concepto y puede aplicarlo. Está vinculada a la sistematización y la profundización del mismo. Para alcanzar resultados adecuados, es recomendable orientar el empleo de métodos, vías, procedimientos que posibiliten el desarrollo de los estudiantes en el cálculo de la Integral definida y sus aplicaciones. En esta etapa la comunicación cambia su trayectoria: de transmisión del pensamiento elaborado entre los estudiantes, pasa a ser constituida como proceso de reflexión en un dialogar para sí. En la etapa mental, los estudiantes concluyen que el cálculo de la integral definida se resume en: 1) Representar gráficamente la región. 2) Plantear la integral que tiene como resultado su área; 3) Determinar el método de integración adecuado. 4) Aplicar correctamente las reglas de integración y dicho método. 5) Analizar el resultado obtenido. Aunque se han descrito las etapas por separado, siguiendo una lógica para el proceso de enseñanza- aprendizaje que se propone desarrollar, teniendo en cuenta la teoría de la formación por etapas de P. Ya Galperin, se ven las etapas flexibles, sin rigidez, constituyendo un todo único dialéctico, en el cual su decursar depende del desarrollo de los estudiantes. 3. CONCLUSIONES  La aplicación de la Teoría de Galperin en el estudio y desarrollo en las aplicaciones del cálculo integral, en los estudiantes de ingeniería civil en la Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE, exige una preparación profunda del profesor, quien no solo tiene que conocer las leyes y principios matemáticos, sino también los fundamentos pedagógicos y sicológicos que deben acompañar el proceso de asimilación.  El aprendizaje de las aplicaciones del cálculo integral, vinculado a problemas de interés para los estudiantes, hace que su estudio resulte motivante y de satisfacción.  La teoría de la formación de las acciones mentales de Galperin, muestra el camino del proceso de asimilación. En esta propuesta se asumen las etapas con carácter flexible, en consonancia con el desarrollo de los estudiantes. Referencias bibliográficas 1. STLANO F. El PEA de la asignatura Análisis de Sistema con la integración de las TIC en la carrera Ingeniería Informática en Angola. Tesis de doctorado. Universidad de Ciencias Pedagógicas Enrique José Varona. 2015. 2. CHELALA RM, CRUZ IA. La teoría de Galperin en el aprendizaje de la Matemática. 2018. 3. RÚA JA. Modelo de proceso de enseñanza-aprendizaje centrado en la situación problema que potencia el aprendizaje del Álgebra lineal con responsabilidad en estudiantes de Ingeniería. (Tesis doctoral), Universidad de La Habana. 2019. 4. BARRIOS O. Estrategia interdisciplinaria para desarrollar el aprendizaje matemático en estudiantes de ingeniería informática del Instituto Técnico Militar José Martí.(Tesis doctoral). Universidad de La Habana. 2020. 5. FARIÑAS G. Galperin revisitado desde el pensamiento complejo: auto organización del aprendizaje-desarrollo humano. Escuela de Educación y Desarrollo Humano de la Universidad De La Salle, Bajío, México. 2020 p. 1-18. 6. FARIÑAS G. Aprendizaje y desarrollo humano desde la perspectiva de la complejidad. La Habana. Cuba. Editorial Universitaria “Félix Varela”. 2017.p.53. 7. Plan de estudios de ingeniería civil. Documento Rector para los Estudios de Ingeniería Civil en Cuba (Plan E). Ministerio de Educación Superior. La Habana, 2018; p. 31. 8. PÉREZ O, DEL VALLE G M, CARRASCO T. Orientación para el tránsito a niveles superiores de asimilación en la Matemática I. Estado actual en los estudiantes de primer año de ingeniería civil en la Cujae. 2021. 9. MENDOZA A, ACEVEDO D, TEJEDA C.N. Teoría de la formación por etapas de las acciones mentales en la enseñanza y aprendizaje del concepto de valencia química. Formación universitaria. Vol 9(1). 2016. 10. STEWART J. Cálculo para trascendentes tempranas. Parte II. Editorial Félix Varela. La Habana, Cuba. 2006. 11. Sólido en revolución. [https://sites.google.com/site/calculo2meme/temas/solidos-en-revolucion- metodo-de-discos).] Enseñanza de las Matemáticas. [citado: 3-14-22]. Disponible en:https://navarrof.orgfree.com/Docencia/MatemáticasII/solidos rev.htm. 12. GALPERIN PY.Teoría de la formación por etapas de las acciones mentales. Moscú, Rusia. Editorial MGY.1976. Sobre los autores Teresa de Jesús Carrasco Jiménez. Universidad Tecnológica de La Habana, Calle 114 No. 11901. e/ Ciclovía y Rotonda. Marianao. La Habana, Cuba. CP: 19390. Instituto de Ciencias Básicas; Dr. C Pedagógicas; Profesora Titular; tcarrasco@icb.cujae.edu.cu; ORCID: 0000-0003-0189-9452 Orlando Pérez Torranzo. Universidad de La Habana; Instituto de Farmacia y Alimentos; Profesor de Matemática; Máster en Educación Superior; Profesor Asistente; orlando.perez@ifal.uh.cu; ORCID: 0000- 0003-2256-5718 Genoveva Marivel del Valle García. Universidad de La Habana; Instituto de Farmacia y Alimentos; Profesora de Química; Dr. C. Pedagógicas; Profesora Titular; genoveva.delvalle@ifal.uh.cu; ORCID: 0000-0001-8178-3599 Camilo Boris Armas Velasco. Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE; Centro de Referencia de Educación de Avanzada; Dr. C. Pedagógicas; Profesor Titular; carmas@tesla.cujae.edu.cu; ORCID:0000-0002-6246-2871 Programa General XI SIMPOSIO DE INGENIERÍA INDUSTRIAL Y AFINES SIIA 2022 Programa General XI SIMPOSIO DE INGENIERIA INDUSTRIAL Y AFINES (SIIA) Día Hor ario 28-nov 29-nov 30-nov 01-dic 02-dic 9:00- 13:30 Acreditación Acto inaugural SIIA Conferencia Magistral Conferencia: Ergonomía. Ciencia multidisciplinaria de integración centrada en el usuario Conferencista: Dr. C José Orlando Gomes Sala 7 9:00-10:00 Conferencia Magistral Conferencia: Logros y retos para el posicionamien to nacional e internacional. Conferencista: Dr.C Santiago Quiroz Fernández Sala 4 9:00-10:00 Workshop Sala Palco 9:30-13:45 Conferenci a Sala 10, 9:00-10:00 Workshop Sala Palco 9:00-13:45 Conferencia Sala 10 9:00-10:00 Sesión técnica: taller de TIE Sala 10 10:00 - 12:30 Sesión técnica: taller de GE Sala 7 10:00 - 13:30 Conferencia Sala Palco 9:00 - 10:00 Sesión técnica: taller de QUALITAS Sala Palco 10:00 - 13:30 Conferencia Sala 4, 10:00- 11:00 Sesión técnica: taller de EIMA Sala 4 11:00 - 13:00 Clausura SIIA Sesión técnica: Taller de RH Sala 10 11:00 - 13:00 Sala 10 12:30 - 12:50 Clausura Convención 13:00-17:00 13:30 -14:30 Almuerzo Conferencias Magistrales: Día:29nov Conferencista: Dr. C José Orlando Gomes Título de la conferencia: Ergonomía. Ciencia multidisciplinaria de integración centrada en el usuario Día 30nov Conferencista:Dr.CSantiago Quiroz Fernández Título de la conferencia:Logrosy retos para el posicionamiento nacional e internacional. Conferencias: Taller: QUALITAS Día: 29nov Conferencista: Dr. C Antonio Vallín García Título de la conferencia: Resiliencia entre el sistema de Gestión de la Calidad y la producción de vacunas. Taller: GE Día: 29nov Conferencista: Dr. C María Eugenia Cornejo Piñeiro Título de la conferencia: Herramientas matemáticas difusas para el tratamiento de la información y la toma de decisiones. Taller: EIMA Día: 30nov Conferencista: Dr. C Alberto Sánchez Alzola Título de la conferencia: Control geodésico de deformaciones a partir de series temporales CGNSS utilizando procesamiento puntual de precisión (PPP). Taller: RRHH Día: 1Dic Conferencista: Dr.C Katleen Mosier Título de la conferencia: The development of the communication protocols for remote team communication in space. / El desarrollo de los protocolos de comunicación para la comunicación de equipos remotos en el espacio. Día: 1 Dic Conferencistas:Dr. C Gaby Neumann, Dr. C Thomas Masurat Título de la conferencia: Human Resource Development in the Age of Industry 4.0- How to Strengthen Competences of Industrial Engineers in Sustainable Supply Chains/ Desarrollo de recursos humanos en la era de la industria 4.0: cómo fortalecer las competencias de los ingenieros industriales en las cadenas de suministro sostenibles. Taller: IE Día: 2Dic Conferencista: Dr. C Tatiana Delgado Fernández Título de la conferencia: Transformación digital y enfoques de innovación. Mesa Redonda: Taller: QUALITAS Día: 29nov Tema: Gestión de la calidad e inocuidad. Moderador: Dr.C Ester Michelena Fernández Taller: QUALITAS Día: 29nov Tema: Gestión de la Calidad de los servicios. Moderador: Dr.C José A. Vilalta Alonso Taller: GE Día: 29nov Tema:Contribuciones a la integración de sistemas de dirección en la OSDE Agua y Saneamiento. Moderador: Dr.C. Yuniel Bolaño Rodríguez Día: 29 nov Tema: Capacidades Organizacionales en la Dirección y Gestión de la Empresa ACINOX Comercial. Moderador: Dr.C Yuniel Bolaños Rodríguez Taller: EIMA Día: 30nov Tema: Experiencias del uso de las matemáticas aplicadas en el campo de la ingeniería industrial: Potencialidades, limitaciones y retos. Moderadores: Dr.C Rosario Garza Ríos Dr. C José A. Díaz Batista Dr. C José A. Vilalta Alonso Dr.C. Edith Martínez Delgado Programa Técnico XI TALLER DE GESTION EMPRESARIAL (GE) Día: 29 Sala: 7 Presidente: Dr.C Yuniel Bolaño Rodríguez Actividad: Panel y Mesa redonda Entrada Salida Actividad 10:00 10:05 Palabras de inicio del taller 10:05 10:50 Mesa redonda: Contribuciones a la integración de sistemas de dirección en la OSDE Agua y Saneamiento. 10:50 11:45 Conferencia: Dr. C. María Eugenia Cornejo Piñero. Profesora Titular de la Universidad de Cádiz. España. Título: Herramientas matemáticas difusas para el tratamiento de la información y la toma de decisiones 11:45 11:50 Presentación de trabajo Título: Diagnóstico Integral en Empresa Cubana de Navegación Aérea ECNA Autor: Ing. Nirka Rodríguez Carrabeo, Daniel Alfonso Robaina. Cuba 11:50 11:55 Presentación de trabajo Título: Propuesta de mejoras al proceso de implantación del Zoom LC en las MYPIMES cubanas Autor: Ing. Lisandra Villarino Artiaga y Dr. C. José Lavandero García. Cuba. 11:55 12:00 Presentación de trabajo Título: Mipymes en Cuba y el caso Edumedia SURL: una aproximación a su estudio. Autor: Lic. Cinthya García Casañas. Cuba 12:00 12:05 Presentación de trabajo Título: Contribución al control de gestión de la calidad de vida urbana asociada al transporte en ciudades patrimoniales. Aplicación en la Ciudad de Matanzas Autor: Ing. Elayne Tápanes Suárez, Naylet Sangroni Laguardia, Orlando Santos Pérez , Maylín Marqués León. Cuba 12:05 12:10 Presentación de trabajo Título: Gestión del proceso de capacitación, alternativa de propuesta de diagnóstico. Autor: Dr.C. Ernesto Edelberto Hernández Calderín, Ms. Dir. Ricardo Claro González Lic. Sarais Rodríguez Pileta, Ing. Ingrid Sanz Pedraja. Cuba 12:10 12:15 Debate sobre las ponencias 12:15 12:20 Presentación de trabajo Título: Evaluación y análisis de la competitividad en las empresas del Grupo Ganadero Autor: Dr. C. Yuniel Bolaño Rodríguez. Cuba 12:20 12:25 Presentación de trabajo Título: Una mirada a la identificación de las competencias directivas Autor: Lic. Jacqueline Hernández Magaña, Dr.C. Narciso Abel Piñero Rodríguez, Dr.C. Daimeé Padilla Aguiar 12:25 12:30 Presentación de trabajo Título: Capacidad de prevención estratégica, su desarrollo en el centro de inmunología molecular. Autores: Ing. Renier Guerra Pérez, Ms. C. Idalberto R. Garrido Bolado, Dr.C. Yuniel Bolaño Rodríguez 12:30 12:35 Presentación de trabajo Evaluación de la capacidad de gestión energética de la empresa. aplicación en la empresa Acinox Comercial. Autores: Ing. Jorge Félix Prado Díaz; Dr. C. Yuniel Bolaño Rodríguez; Dr.C Israel Fernández Hernández; MsC Yasser Vizcaíno Sánchez 12:35 12:40 Presentación de trabajo Título: Procedimiento de diagnóstico de las capacidades de gestión empresarial. Autores: Ing. Dianays Correa-Sánchez; Dr. C. Yuniel Bolaño-Rodríguez; Ing. Alejandro Leal-Pupo; MsC. Norberto Espinosa-Carro; Dr.C. Narciso Abel Piñero-Rodríguez 12:40 12:45 Presentación de trabajo Título: Procedimiento metodológico para el diagnóstico de un Centro de Innovación y desarrollo tecnológico (CIDT). Autores: Ing. Maikel González Blanco, Ing. Raúl Quintero Jiménez, Dr.C Salvador Muñoz Gutiérrez 12:45 12:50 Presentación de trabajo Título: Una visión de la relación universidad-empresa desde el proceso de formación del profesional. Autores: Ing. Dairis María Enriquez Hernández, Dr.C. Anaisa Hernández González. 12:50 13:00 Debate sobre las ponencias 13:00 13:25 Mesa redonda: Capacidades Organizacionales en la Dirección y Gestión de la Empresa ACINOX Comercial. 13:25 13:30 Palabras de clausura del Taller Programa Técnico XIV TALLER INTERNACIONAL DE CALIDAD Y DESARROLLO (QUALITAS) Día:29nov Sala: Multipropósito Hotel Palco Presidente: Dr. C Aleida González González Actividad: Mesa Redonda Hora de inicio Hora de fin Activid ades Ponencias Autores Empresa 10:30 11:00 Confer encia Magistr al Resiliencia entre el Sistema de Gestión de la Calidad y la producción de vacunas. Ms. C Antonio Vallin García AICA 11:00 12:30 Mesa Redond a 1: Gestión de la calidad e inocuid ad. Moder ador: Dr.C. Ester Michel ena Fernán dez Gestión integrada en organizaciones agroindustriales cubanas: una revisión bibliométrica. Ms. C Claro Francisco Abá e Ing. Onilda Cobas Amador CUBAGRO S.A Diseño y desarrollo de nuevos productos alimenticios en la empresa CUBAGRO S.A Ing. Ramón Cué Suárez, Est. Roxana Hernández Quintana CUBAGRO S.A Implementación de un modelo mejora al proceso de producción del café tostado en la Unidad Básica De Producción Industrial y Aseguramiento perteneciente a la Empresa Cubagro S.A. Andrey Mollinedo Escobar CUBAGRO S.A Determinación y despliegue de los indicadores de gestión de una organización. Lic. Lester González Morejón, Lic. Miguel Leonardo Ochoa Suárez, Dr. C. Aleida González González EAMOH Riesgo e inocuidad dos elementos importantes para una entidad productora de Dr.C Jesús Corredeira Valdivieso, Dr. C. Rosario Garza Ríos. EAMOH alimentos. Mejora del procedimiento de costos de calidad en una entidad productora de alimentos. Lic. Orailys Fraga Hernández, Dr. C. Rosario Garza Ríos. EAMOH Evaluación de la aplicación de la gestión integrada en la UEB Agroindustrial Wajay. Ing. Sandra María Canales González, Ms. C Claro Francisco Abá EAMOH Sistema de Gestión Integrado Calidad-Inocuidad-Competencia Técnica de los Laboratorios. Lic. Alexis León Martínez, Dr. C. Ester Michelena Fernández y Est. Melissa Manso González EAMOH Diagnóstico del estado actual de la gestión del mantenimiento en la Empresa Agropecuaria Militar del Oeste de la Habana, EAMOH. Ing. Iván Fernández González, Ms C. Leisis Villar Ledo, Dr.C. Armando Díaz Concepción, Est. Darien Nonell EAMOH 12:30 13:30 Mesa redond a 2: Gestión de la calidad en los servicio s Diseño del proceso medición de la satisfacción del cliente. Ing. Yasnais Filapes, Dr.C Aleida González ETECSA Moder ador: Dr.C. José A. Vilalta Alonso Propuesta de modelo de procesos para la División de ETECSA en Villa Clara. (una propuesta desde el enfoque de la arquitectura empresarial) Ms. C Maykel Manuel Chávez Rodríguez, Ms. C. Leisis Villar Ledo ETECSA Mejora del proceso operaciones de la red en ETECSA con enfoque a arquitectura empresarial. Lic. Maite Reyes Cañedo, Dr. C. Lisandra Leal Rodríguez , Dr. C. Aleida González González ETECSA Mejora al proceso de gestión hospitalaria en el Hospital Clínico-Quirúrgico Salvador Allende Ing. Marylen Martínez Rivero, Ms. C. Patricia Suárez Fernández, Dr. C Vania García Fentón, Ing. Janet Rodríguez Acosta, Ing. Omar López Díaz, Ing. Aylenis Luis Velázquez Hospital Salvador Allende Diseño de los indicadores claves de desempeño y las variables de control para el tablero de control del proceso de importación. Ing. Daniela Riverón González, Ms. C. Laura M. Santalla Rodríguez, Dr.C. Ester Michelena Fernández CIGB Estudio de la variabilidad funcional Amparo Zapata Gómez Universidad Nacional de Colombia Diseño del proceso de Logística y Aseguramiento de la Escuela Nacional de la Unión Eléctrica. Ing. Adriana Victoria Santana Díaz, Dr. C. Daymí Martínez Caballero. UNE Proyección estratégica de la educación superior con enfoque a los procesos Dr.C. Marcos Antonio Baños Martínez, Dr.C. Alicia Alonso Becerra, Dr.C. Ester Michelena Fernández, Dr.C. Mariela Columbié Santana CUJAE Plan de mejora del Sistema de Gestión de la Calidad. Ing. Adriana Canto Armenteros y Dr. C. Aleida González González Feria Agropecuari a de Boyeros La sintaxis del espacio y la percepción de la calidad. Arq. Ángel Santana Caraballo. Arq. Dachelis Dobal Fonseca Arq. Adrián González González Dr. Ing. José Vilalta Alonso Dr. Ing. Aleida González González Diagnóstico de la situación actual de la empresa eléctrica de Artemisa con respecto al cumplimiento de los requisitos de la NC ISO 9001:2015. Ing. Yenisleidys González Pérez, Dr.C. Rosario Garza Ríos. UNE Programas de posgrado un reto para la excelencia en la Universidad Técnica de Manabí. Fe Esperanza Vivas Vivas, Freya Erika López Vivas, Andrés Miguel Anchundia Loor, Galo Arturo Perero Espinoza, Cindy Gabriela Vásquez Vera UTM Diagnóstico de la gestión documental del Instituto De Posgrado De La Universidad Técnica De Manabí. Ms. C. Carlos Julio Vinces Solorzano, Carla Jazmín Cedeño Macías, Ms. C Teresa Viviana Moreira Vera UTM Coaching ejecutivo como herramienta innovadora en cuba para el desarrollo del potencial directivo. Empresa Laboratorios AICA. Ms. C. Yaimy Crespo Martell, Ing. Doney Oliva Suárez, Dra. Arianne Medina Macías AICA Desarrollo de competencias laborales en la Empresa Ing. Doney Oliva Suárez, Ms. C. Yaimy Crespo AICA Laboratorios AICA. Propuesta para la evaluación del desempeño. Martell, Dra. Arianne Medina Macías Sistema de documentación del instituto utilizando el sistema TRIM CAPTURA Ms.C. Yerlen Castillo Suárez, Ms.C. Zoraima Pomares Calderón, MC. Randelys Molina Castro, Téc. Yamna Balleux Herrera. INSTITUTO FINLAY DE VACUNAS Diseño de un modelo para la evaluación de la información en la ESINES Ms. C. Ing. Ofelia Moliner Laguardia, Ing. Tania la Rosa Barbón, Ms. C Lic. María Mercedes Hernández Guillen ESINES Diseño de un procedimiento de diagnóstico para un Sistema de Gestión de la Calidad de una Facultad en un Instituto de Educación Superior. Ms. C. Jennifer Seoanne, Ms. C. Mayra Ledo Ferrer. CUJAE Gestión de la colaboración en el marco de las relaciones institucionales de la Cujae. Susana Soto Villanueva, Laura M. Santalla Rodríguez, Ester Michelena Fernández, María A. Reino Fernández, Martha Delgado Dapena, Ángela Martínez Miranda. CUJAE Diagnóstico organizacional para intervención macro ergonómica. Caso de estudio EMCE. Leonor Ramona Castillo Hernández, Ms. C. Patricia Suárez Fernández y Dr. C. Aleida González González UNE Diagnóstico para la gestión de la innovación tecnológica en la competitividad de los productos en la empresa Genix LABIOFAM. Ing. Jennyfert Cabrera del Amo y Dr. C. Aleida González González LABIOFAM Análisis del ciclo PHVA en el subproceso de contratación en la UEB es Movimiento de Tierra Ing. Gabriela Toral Cortes, Ing. Laritza Bencomo Ramos, Dr.C. Lisandra Leal Rodríguez. Empresa de Mantenimie nto y Rehabilitaci ón de Obras Hidráulicas de Occidente (EMAROHO) Comportamiento del Índice de Desarrollo del Gobierno Electrónico en Cuba. Ms. C. Patricia Suárez Fernández ,Ms. C. Leisis Villar Ledo. Satisfacción del cliente como indicador de la calidad en una entidad de servicios DMTSS Francely Lamadrid Delgado, Denise Hernández Delgado, Leonardo Pacheco Sierra, Ms.C Tania Díaz Iglesias. Dirección Municipal de Trabajo y Seguridad Social Análisis de indicadores para el mejoramiento de los procesos claves de la Empresa de Servicios Profesionales y Técnicos (ESAC) Noslen E. Jiménez Suárez, Sonia Fleitas Triana, Danay de la Caridad Pedro Olivares ESAC Diagnóstico estratégico del sistema de comunicación del SGC en la empresa EMAROHO. Lic. Yudislaynis Vento Pereira y Dr.C. José A. Vilalta Alonso. Empresa de Mantenimie nto y Rehabilitaci ón de Obras Hidráulicas de Occidente (EMAROHO) Programa Técnico XIII ENCUENTRO IBEROAMERICANO DE MATEMATICA APLICADA (EIMA) Día:30 Sala: 4 Presidente: Dr. Rosario Garza Ríos Actividad: Mesa Redonda Entrada Salida Actividad 10:05 10:10 Inauguración 10:15 11:00 Conferencia: Alberto Sánchez Alzola Título: Control geodésico de deformaciones a partir de series temporales CGNSS utilizando procesamiento puntual de precisión (PPP). 11:05 11:20 Presentación de trabajo Título:Algunos avances recientes en las variantes de la dominación romana en las redes modeladas por grafos finitos. Autor:Dr.C Juan Carlos Valenzuela 11:25 11:40 Presentación de trabajo Título:Mejora de la gestión de inventario para el mantenimiento de activos en la empresa productora de envases metálicos (ENVAMETAL). Autor:Dr.C Edith Martínez Delgado 11:45 12:00 Presentación de trabajo Título:El impacto de la simulación en las nuevas formas de gestión empresarial cubanas. Autor: Ms. C Ángela Martínez Miranda 12:05 12:50 Mesa Redonda:Experiencias del uso de las matemáticas aplicadas en el campo de la ingeniería industrial: Potencialidades, limitaciones y retos. Alejandro D. Rodríguez, Caridad González Sánchez, Rosario Garza Ríos, Edith Martínez Delgado, Javier Escalante, Teresita Prendes Roque, Dayron Boris Linares, Patricia Serrano Tillán, Andrey Vinajera Zamora, Andrés Vinajera Cutiño. 12:50 13:00 Clausura Programa Técnico WORKSHOP ¨Buenas Prácticas Empresariales¨ Día: 30nov-1dic Sala: Multipropósito Hotel Palco Presidente: Dr.C. Lisandra Leal Rodríguez Actividad: Panel Día Hora de inicio Hora de fin Actividades Autores Empresa País 30 Nov 9:30 9:45 Presentación de casos reales de empresas de diferentes: objetos sociales, tamaños y países en las que se han identificado buenas prácticas de gestión que le han permitido éxito en el desempeño empresarial. Mario Castillo Salas, Sandy Medina Muñoz Empresa Eléctrica de la Habana. UNE Cuba 9:45 10:00 Belkis Martínez, Fabio Linares Paso, Dayami León Nave. Labiofam Cuba 10:00 10:15 Ing. Ramón Cué Suárez, Est. Roxana Hernández Quintana Cubagro Cuba 10:15 10:30 Claro Francisco Abá Alfonso, Armando L. Delgado Gómez, Aleida González González Empresa Agropecuaria Militar del Oeste de La Habana Cuba 11:00 11:15 José Carlos Ramírez Vázquez, Dayron Alemañy Dueñas Registro Cubano del Buque Cuba 11:15 11:30 Oscar Ramos MIPYME Deshidratados Cuba 11:30 11:45 Cinthia García Casañas MIPYME Edumedia Cuba 11:45 12:00 Marta Deus MIPYME Mandao Cuba 12:00 12:15 Camilo Condis PIPYME Lucendi Cuba 12:15 12:30 Andre Martins Empresa de Brasil Cordeiro vacunas 12:30 12:45 Antonio Vallín García Laboratorios farmacéuticos AICA Cuba 12:45 13:00 Idalberto Garrido CIM Cuba 13:00 13:15 Ernesto Chico Venis Empresa cubano mixta Cuba EEUU Cuba- EE.UU 13:15 13:30 Cristopher Reid Presidente de la Sociedad de Factor Humano y Ergonomía EE.UU 13:30 13:45 Wei Zhang Presidente de la Sociedad Ergonómica de China China 1Dic 9:00 11:00 Discusión de las experiencia buscando oportunidades de réplicas de las mismas, determinando barreras y oportunidades en su aplicación a través de pequeños equipos de trabajo. Equipos ad hoc 11:30 13:30 Plenaria de intercambios para concluir cuáles son las prácticas que más se han repetido y mejores oportunidades de emplearla Plenaria 13:35 13:45 Conclusiones Lisandra Leal Rodríguez Programa Técnico XI Taller Internacional de Recursos Humanos(RRHH) Día: 1ro Dic Sala: 10 Presidente:Dr. C Armando Cuesta Santos Actividad: Panel Entrada Salida Actividad 9:00 9:05 Palabras de apertura del taller 9:05 10:00 Conferencia: The development of the communication protocols for remote team communication in space / El desarrollo de los protocolos de comunicación para la comunicación de equipos remotos en el espacio. Conferencista:Dr.C Katleen Mosier 10:05 11:00 Conferencia: Human Resource Development in the Age of Industry 4.0- How to Strengthen Competences of Industrial Engineers in Sustainable Supply Chains/ Desarrollo de recursos humanos en la era de la industria 4.0: cómo fortalecer las competencias de los ingenieros industriales en las cadenas de suministro sostenibles. Conferencista: Dr.C Gaby Neumann, Dr.C Thomas Masurat 11:05 11:10 Presentación de trabajo Título: Diagnóstico de la gestión de recursos humanos en una Facultad Autor: Ing. Janett Rodríguez Acosta, Ing. Tahimy Oviedo López, Dr.C Sonia Fleitas Triana 11:10 11:15 Presentación de trabajo Título: El estudio de organización del trabajo en los laboratorios SOLMED. Autor: Ing. Mayelín Berrio García 11:15 11:20 Presentación de trabajo Título: Diagnóstico de la Gestión del Capital Humano y en el Grupo Empresarial de la Informática y las Comunicaciones. Autor: Ivis Yoena Gutiérrez Pérez, María Sonia Fleitas Triana 11:20 11:25 Presentación de trabajo Título: Diagnóstico de la Gestión del Capital Humano en la empresa cubana MOVITEL Autor: María Camila Chávez González Dr. C María Sonia Fleitas Triana 11:25 11.30 Presentación de trabajo Título: Modelo de gestión de recursos humanos en los proyectos informáticos de DESOFT Autor: Ing. Eberly Gaínza Martínez, Dr. C Armando Cuesta Santos 11:30 11:35 Presentación de trabajo Título: Metodología para la implementación de la organización salarial en CUBATEL S.A Autor: Taimi Meralla Chala 11:35 11:40 Presentación de trabajo Título:Diagnóstico de la gestión del capital humano y competencias claves de la OSDE GEIC Autor: Ms.C Elaine de la Caridad Rodríguez Coda, Dr. C Armando Cuesta Santos 11:40 11:45 Presentación de trabajo Título: Diagnóstico para la implementación del teletrabajo en las oficinas centrales de Radio Cuba. Autor: Claudia Valle Pérez. 11:45 11:50 Presentación de trabajo Título: La fluctuación laboral de jóvenes investigadores de las ciencias sociales Autor: Osleidys Torres Valdespino, Dr. C Rolando Serra Toledo, Dr. C Armando Cuesta Santos, Adela Haber Vega 11:50 11:55 Presentación de trabajo Título:Contribuciones a la gestión de los activos fijos intangibles visibles en la CUJAE Autor:Ms.C Gladys Mesa Palacios, Dr. C Rolando Serra Toledo, Dr. C Sonia Fleitas Triana, Dr. C Daniel Alfonso Robaina 11:55 12:00 Presentación de trabajo Título: Universidades cubanas en rankings internacionales. experiencias de la Universidad Tecnológica de la Habana. Autor: Rolando Serra Toledo, Allan Pierra Conte, Daniel Alfonso Robaina, Ondina León Díaz 12:00 12:05 Presentación de trabajo Título: Una arquitectura de gestión por competencias Autor:Dr. C Armando Cuesta Santos, Marino Valencia Rodríguez 12:05 12:10 Presentación de trabajo Título:Contribución a la optimización del capital humano por innovación en procesos de gestión humana y del conocimiento Autor: Dr. CArmando Cuesta Santos, Dr. C Mercedes Delgado Fernández, Dr. C Sonia Fleitas Triana y Dr. C María de los Ángeles Linares Borrell 12:10 12:15 Presentación de trabajo Título: Evaluación de la Capacidad de Gestión de Recursos Humanos en la Empresa Antillana de Salvamento Autor: Damaris Laudelina Pérez Hechavarría, Dalina Ruiz Fernández, Dr. C Yuniel Bolaño Rodríguez 12:15 12:20 Presentación de trabajo Título:Propuesta de diseño de un laboratorio virtual de antropometría Autor: Ing. Roberto Abreu Pérez, Ing. Danhiz Díaz Pereira , Dr.C Alicia Alonso Becerra 12:20 12:25 Presentación de trabajo Título: Determinación de los perfiles de competencias de los puestos de trabajo en los procesos claves de SOLINTEL, S.A. Autor: Raydel Rodríguez Bruffau, María Julia Becerra Alonso 12:25 12:30 Presentación de trabajo Título: Modelo matemático para la evaluación de variables de gestión de mantenimiento enfocado a la organización del trabajo. Autor: Sergio Abel Rodríguez Sigarreta, José Raúl Orosa Almeida, Rogej A. Marrero Hernández. 12:30 12:35 Presentación de trabajo Título: Informatización de los procesos de elaboración de proyectos de seguridad y salud en el trabajo para obras civiles y capacitación en la materia. Autor: Lic. Sandra Callis Caraballoso, Ms. C. Alejandro. Alonso Martínez, Ms C. Migdalia Margarita Cuesta Viltres, Téc. Daniel Barrero Reyes, Dra. C Vania García Fenton, Dra. C Sonia. Fleitas Triana, Dr. C Silvio Viña Brito, Dr. C Aida Rodríguez Hernández 12:35 12:55 Debate sobre las ponencias 12:55 13:00 Palabra de clausura del Taller Programa Técnico VI TALLER DE INFORMATICA EMPRESARIAL (TIE- 2022) Día: 2 Dic Sala: 10 Presidente:Dr. C. Yadary Ortega González Actividad: Panel Entrada Salida Actividad 9:00 9:05 Palabras de apertura del taller 9:05 10:00 ConferenciaTransformación digital: experiencias y retos Conferencista: Dr.C Tatiana Delgado Fernández 10:00 10:10 Presentación de trabajo Título:Análisis del proceso de facturación de alojamiento del Hotel Nacional de Cuba con enfoque de arquitectura empresarial Autor: Lianet Fis Castellano, Gladys Ash Hernández 10:10 10:20 Presentación de trabajo Título: Buenas prácticas para identificar requisitos para una aplicación móvil hotelera en el proyecto de transformación digital Autor: Gladys Ash Hernández, Yadary Ortega González, Raúl Rodríguez Serrano. 10:20 10:30 Presentación de trabajo Título: Propuesta de requisitos funcionales para la implementación de ODOO en el proceso de negocio eventos especiales Autor: Marcel Prada Pérez, Yilian Carmenate Acosta, Ing. Dayron Reyes Domínguez, Gladys Ash Hernández 10:30 10:40 Presentación de trabajo Título:Tecnología para gestionar la información ambiental municipal Autor: Roani Ladislá Miranda Cuéllar, Martha Elena Durán Galano Roani Caballero Miranda, Elvis Noris Cuesta 10:40 10:50 Presentación de trabajo Título:Interdisciplinariedad científica en la gestión de la información científica-tecnológica Autor:Jorge Félix Valiente Márquez, Ariel Rodríguez Gómez, Mirta de la Caridad Quesada Pollero, Leopoldo Fernando Perera Cumerma, Raquel Bermúdez Morris 10:50 11:00 Presentación de trabajo Título:Metodología de gestión de la innovación empresarial Autor: Dr. C Mercedes Delgado Fernández 11:00 11:10 Presentación de trabajo Título:Análisis y propuestas de mejoras en el proceso de expedición del transporte en la empresa de transporte de la construcción. Autor: Lianny O'farrill, Yoselin Herrera Joe 11:10 11:20 Presentación de trabajo Título:Integración de datos empresariales en la EMCI Autor: Mavis Lis Stuart Cárdenas, Dr. C Tatiana Delgado Fernández, Dr. C Mercedes Delgado Fernández 11:20 11:30 Presentación de trabajo Título:Evaluación de alistamiento sobre Industria 4.0 en empresas del Ministerio de Industria Autor: Dr. C Tatiana Delgado Fernández, Ernesto Cedeño Rodríguez, Grisel Tristá Arbesu 11:30 11:40 Presentación de trabajo Título:Comercio electrónico con la cadena de bloques Autor: Andrés Subert Semanat, Juan José Puchades Terrero 11:40 11:50 Presentación de trabajo Título:Propuestas para la formación de profesionales en analítica de negocios en la Universidad Tecnológica de la Habana Autor:José A. Díaz Batista, Arturo Bofill Placeres, Marta R. Abreu Bosch, Marta B. Infante Abreu 11:50 12:25 Debate sobre las ponencias 12:25 12:30 Palabras de clausura del taller MEMORIAS SIIA 2022 Mipymes en Cuba y el caso Edumedia SURL: una aproximación a su estudio Lic. Cinthya García Casañas1 1Periodista en EDUMEDIA SURL, Calle 7ma entre 28 y 30, Miramar, Playa. La Habana, Cuba. 1cinthygc1010@gmail.com RESUMEN Las organizaciones están en constante cambio y eso es una realidad innegable: evolucionan o están destinadas a perecer. En Cuba se le otorga gran relevancia a la transformación del sistema empresarial y, prueba de ello, es la reciente aprobación de las micros, pequeñas y medianas empresas (mipymes) como nuevos actores económicos. Esta posibilidad no pasó inadvertida para la Empresa de Informática y Medios Audiovisuales Cinesoft, la cual se convirtió en único socio de tres mipymes, entre ellas, Edumedia SURL (Sociedad Única de Responsabilidad Limitada). Esta es encargada de gestionar recursos audiovisuales y de software de corte informativo y cultural en un sector altamente competitivo. Precisamente en este escenario, ha logrado un desempeño exitoso a través de la apuesta por aquello que lo diferencia del resto: el enfoque educativo en todos sus contenidos y el servicio de consultoría pedagógica- educativa que ha ido ganando aceptación, debido a la necesidad de capacitar al personal en las tecnologías, en el uso de las redes, aprendizaje en línea, en cómo transformar digitalmente sus espacios y también en la adquisición de otras competencias. PALABRAS CLAVES: mipymes, enfoque educativo, producción audiovisual, consultoría pedagógica- educativa TITLE: MSMEs in Cuba and the case of EDUMEDIA SURL: an approach to their study ABSTRACT Organizations are constantly changing and that is an undeniable reality: they evolve or they are destined to perish. In Cuba, great importance is attached to the transformation of the business system, and proof of this is the recent approval of micro, small and medium-sized enterprises (MSMEs) as new economic actors. This possibility did not go unnoticed by the Cinesoft Computer and Audiovisual Media Company, which became the sole partner of three MSMEs, including Edumedia SURL (Single Limited Liability Company). This is in charge of managing audiovisual and software resources of an informative and cultural nature in a highly competitive sector. Precisely in this scenario, it has achieved a successful performance through a commitment to what differentiates it from the rest: the educational approach in all its contents and the pedagogical-educational consulting service that has been gaining acceptance, due to the need to train the staff in technologies, in the use of networks, online learning, in how to digitally transform their spaces and also in the acquisition of other skills. KEY WORDS: MSMEs, educational approach, audiovisual production, pedagogical-educational consultancy Introducción Diseñar una organización de nueva creación, mientras se va construyendo, es todo un reto, pero lo es más aún cuando en materia de leyes todo es nuevo. Tal es el caso de la implementación de las mipymes (micro, pequeñas y medianas empresas) que han emergido en el panorama económico cubano por estos días. Hasta el momento existían en Cuba empresas estatales, cooperativas y trabajadores por cuenta propia. Ahora las mipymes, creadas en sectores diversos (producción de alimentos, actividades manufactureras, programación informática) tendrán facilidades como una mayor autonomía en su gestión. Esta diversificación de los actores económicos en el país responde a una necesidad de cara a la recuperación de la actividad económica, pues de lo que se trata es de satisfacer demandas insatisfechas. En el caso específico de las mipymes de propiedad estatal, surgidas a partir de una empresa con años de funcionamiento, se hace imprescindible un rediseño de su estructura organizacional que la adecúe a los escenarios actuales y deje a un lado las maneras de hacer del antiguo formato. Las empresas, como entes sociales, son transversales a las esferas de la vida. Intentar entender cómo funcionan y qué mecanismos se emplean en su construcción, no debe excluir el entorno en que se desarrollan. Las organizaciones están influenciadas por el contexto en que se desenvuelven. El rediseño organizacional se asocia al cambio y a todo lo que esto conlleva: capacidad de adaptación y resistencia. Los planes de rediseño se hacen con toda intención, previendo modificaciones en la organización que permitan elevar sus niveles, ya sea atendiendo a resultados, tecnologías u otros. En cuanto a los diferentes planes, estrategias y metodologías a seguir para realizar un rediseño organizacional, no se trata de copiar modelos, sino de adaptarlos a los escenarios. Cada empresa vela por establecer un diseño en el que se tenga en cuenta su objeto social y en cuyas pautas se contemplen sus principales actividades. Cuando se habla de una empresa de nueva creación, inmediatamente se piensa en ¿cuáles serán sus clientes? ¿qué productos ofrecerá? ¿cómo definir su objeto social? Pudiera pensarse también en los trabajadores: ¿qué competencias organizacionales se les exigirán? ¿cuáles serán sus cargos dentro de la empresa? Este artículo, centrado en la experiencia de Edumedia, pretende ofrecer algunas respuestas a preguntas tan complicadas. Desarrollo Evolución y surgimiento de las mipymes en Cuba. Situación actual El año 2021, en materia de leyes, fue determinante para el panorama económico cubano. En medio del enfrentamiento a la pandemia de la covid-19 y sus afectaciones en los diferentes sectores, se tomaron varias decisiones de cara a la recuperación económica de Cuba. En mayo se aprobó el Decreto ley 34/2021 “Del sistema empresarial estatal cubano” (GOC-2021-461- O51)1, con un paquete de normativas jurídicas que buscaban el fortalecimiento y transformación de la empresa estatal socialista, al reconocerla como sujeto principal de la economía nacional, pero con autonomía en su administración y gestión. Ese fue el punto para la flexibilización que luego dio paso a que empresas estatales pudieran ser socios en mipymes. Con la Conceptualización del modelo económico y social cubano de desarrollo socialista. Lineamientos de la política económica y social del Partido y la Revolución para el período 2021-20262, dados a conocer en junio, se resaltaba la necesidad del perfeccionamiento de sistemas y órganos de dirección, así como las transformaciones económicas necesarias y consecuentes con los tiempos actuales. Siguiendo esos principios, se publica en agosto el Decreto ley 46/2021 “Sobre las micro, pequeñas y medianas empresas” (GOC-2021-777-O94)3, donde aparecen nuevos actores económicos: mipymes (micro, pequeñas y medianas empresas), con el objetivo de desarrollar, diversificar y dinamizar el escenario económico actual. Este decreto-ley facilita la inserción de estas entidades en el ordenamiento jurídico, delimita los procedimientos para su creación y define cuestiones asociadas a su funcionamiento. 1 Decreto ley 34/2021 Del sistema empresarial estatal cubano (GOC-2021-461-O51) 2 Conceptualización del modelo económico y social cubano de desarrollo socialista. Lineamientos de la política económica y social del Partido y la Revolución para el período 2021-2026. 3 Decreto ley 46/2021 Sobre las micro, pequeñas y medianas empresas (GOC-2021-777-O94) No obstante, todo lo relativo a la creación, fusión, escisión y extinción de las mismas quedó explícito en la Resolución 63 de 2021 del Ministerio de Economía y Planificación (GOC-2021-786-O94)4. Finalmente, un documento clave de cara al futuro objeto social de la mipymes es la Resolución 64 de 2021 del Ministerio de Economía y Planificación (GOC-2021-787-O94)5, pues incorpora a los nuevos actores económicos a las posibles relaciones contractuales. Desde 2011, el Ministerio de Economía y Planificación reconocía la posibilidad del sector estatal de contratar bienes y servicios a los trabajadores por cuenta propia, luego se amplió para las cooperativas no agropecuarias y actualmente se incluyeron las mipymes. Con este basamento legal, solo quedaba revisar el Clasificador Nacional de Actividades (CNAE), confeccionado por la Oficina Nacional de Estadística e Información (actualización de 2021), para consultar qué es permitido y qué no, al momento de definir la actividad económica principal a desarrollar. Lo siguiente era solicitar su creación y presentarla al Ministerio de Economía y Planificación por el representante de los aspirantes a socios fundadores que estos hayan designado para ello o por el socio único (debe llevar estatutos sociales donde se define la denominación, el objeto, el domicilio, el capital inicial y cuestiones relativas a la administración y gestión). El Decreto ley 46/2021 es claro en cuanto al reconocimiento de las micro, pequeñas y medianas empresas, toda vez que aclara que se debe facilitar la inserción de las mismas, de forma coherente, en el ordenamiento jurídico, como actor que incide en la transformación productiva del país. Por definición: mipymes son aquellas unidades económicas con personalidad jurídica, que poseen dimensiones y características propias, y que tienen como objeto desarrollar la producción de bienes y la prestación de servicios que satisfagan necesidades de la sociedad. Pueden ser de propiedad estatal, privada o mixta y se constituyen como sociedades mercantiles, que adoptan la forma de sociedad de responsabilidad limitada (SRL). Se clasifican tomando como referencia el indicador de número de personas ocupadas, incluidos los socios, de la forma siguiente: a) Micro empresa: cuyo rango de ocupados es de 1 a 10 personas. b) Pequeña empresa: cuyo rango de ocupados es de 11 a 35 personas. c) Mediana empresa: cuyo rango de ocupados es de 36 a 100 personas. Hasta el cierre del 8 de julio de 2022, según datos del Ministerio de Economía y Planificación6, ya sumaban 4205 los actores económicos aprobados como mypimes desde que dio inicio el proceso en septiembre de 2021. De estas, solo 51 son estatales. Estas últimas han surgido, en la mayoría de los casos, a partir de reconversiones de otras preexistentes, por lo cual deben rediseñar su funcionamiento, estructura y organización, debido a que las mipymes tienen, como parte de su autonomía, facultades no permitidas antes a una empresa estatal. Las micro, pequeñas y medianas empresas pueden definir y modificar su objeto social, establecer productos y servicios a comercializar, así como sus proveedores, clientes, destinos e inserción en mercados; fijar los precios de sus servicios y bienes; definir su estructura, plantilla y cantidad de trabajadores; determinar los ingresos de estos, entre otras cuestiones. Caso EDUMEDIA SURL La posibilidad de crear micros, pequeñas y medianas empresas (mipymes) no pasó inadvertida para la Empresa de Informática y Medios Audiovisuales Cinesoft, la cual, en su afán de ser rentable y más útil al país, había diversificado en los últimos tiempos su trabajo para ir más allá de su principal objetivo: crear materiales de apoyo a la docencia, vinculados directamente al quehacer del Ministerio de Educación. 4 Resolución 63 de 2021 del Ministerio de Economía y Planificación (GOC-2021-786-O94) 5 Resolución 64 de 2021 del Ministerio de Economía y Planificación (GOC-2021-787-O94) 6 Listados de mipymes aprobadas en el país. Disponible en: https://www.mep.gob.cu/sites/default/files/Documentos/Archivos/Listado%20de%20MIPYMES%20apro badas%20en%20el%20pa%C3%ADs_1-convertido_0.pdf La opción fue acogida con beneplácito por la entidad, que no pierde su condición de empresa estatal socialista, sino también se convierte en el máximo y único socio de tres mipymes, entre ellas, Edumedia SURL (Sociedad Única de Responsabilidad Limitada), una de las primeras aprobadas como tal. Edumedia está catalogada como pequeña empresa, pues su rango de trabajadores está entre los 11 y los 35. Como está definido en la legislación, la mipyme tiene libertad para definir productos, clientes, así como los procesos que ocurren al interior de su organización y todo su diseño. Por tanto, juega un papel importante la aplicación de una metodología de rediseño organizacional como se determinará a continuación, procedimiento donde se contó con el criterio de la mayoría de los trabajadores que la integran. Caracterización general de la mipyme Edumedia Nombre de la empresa: Edumedia Sociedad Única de Responsabilidad Limitada Domicilio legal: Calle 7ma entre 28 y 30, Miramar, Playa. La Habana, Cuba. Desde 2015, la Empresa de Informática y Medios Audiovisuales Cinesoft genera productos y servicios informáticos y audiovisuales para todos los sectores de la población. En 2021, con el surgimiento de nuevos actores económicos en el panorama cubano, constituyó varias mipymes, entre ellas, Edumedia Sociedad Unipersonal de Responsabilidad Limitada, la cual está encargada de toda la producción de bienes y servicios para terceros que se desarrollaba en la empresa matriz. Este segmento aportó a la empresa matriz una cantidad considerable de ingresos por ventas, según puede apreciarse en la tabla 1. 2019 2020 2021 Producción 1 233 1 563 880,56 3.532.146,75 de bienes 664,6 para terceros Tabla 1. Ventas anuales de Cinesoft en los últimos tres años por concepto de producción de bienes para terceros Edumedia SURL tiene por objeto social dedicarse a crear, generar, diseñar, desarrollar, producir, integrar, mantener, comercializar, distribuir, exportar y vender todo tipo de productos y servicios relacionados con la informática, la industria de los audiovisuales de contenidos educativos y culturales, así como cualquier otro tipo de actividad que apoye al proceso de enseñanza y aprendizaje del sistema de educación y la generación de nuevos productos y servicios de valor agregado, basada en la aplicación intensiva de conocimientos tecnológicos y de organización científica del proceso pedagógico, que favorezcan la enseñanza y el aprendizaje. Edumedia gestionará recursos audiovisuales y de software de corte informativo y cultural fuera del Ministerio de Educación, y beneficiará a otros organismos con el compromiso de formar y capacitar a sus recursos humanos. Como novedad, incluye la consultoría pedagógica-educativa como un servicio que ha ido ganando aceptación, debido a la necesidad de capacitar al personal en las tecnologías, en el uso de las redes, aprendizaje en línea, en cómo transformar digitalmente sus espacios y también en la adquisición de otras competencias. Esta capacitación puede impartirse a trabajadores de empresas, escuelas ramales y otras instituciones. Por su forma de gestión, como mipyme permite cerrar el ciclo productivo y enfocar sus servicios a todos los sectores de la economía, al mismo tiempo que tiene una mayor libertad de gestión, pues los nuevos actores económicos se rigen por el compromiso de ser eficientes y rentables. Su prestigio se ha reflejado incluso en medios de prensa nacionales7 con gran relevancia. Misión: Somos una empresa que armoniza las tecnologías de la información y las comunicaciones con un modelo educativo desarrollador e innovador para la realización y comercialización de productos digitales, audiovisuales y servicios informáticos de alta calidad. Visión: Ser líderes en consultoría educativa, innovación, diseño, desarrollo y comercialización de productos digitales, audiovisuales y servicios informáticos que contribuyan a la formación integral de la ciudadanía. Valores empresariales • Dignidad Nacional • Compromiso con los clientes • Profesionalidad creativa • Honestidad Políticas • Cumplir con los valores, los objetivos, criterios de medidas y acciones que tenemos comprometidos para el presente año. • Ser eficientes en el uso y control de los recursos humanos, materiales y financieros. • Brindar una atención a nuestros clientes de manera profesional y personalizada. • No incurrir en delito económico, ni de otro tipo en las diferentes áreas de la entidad. Objetivos estratégicos: • Exportar bienes y servicios educativos y culturales. • Prestar servicio de edición de libros electrónicos, publicaciones digitales y editorial de trabajos digitales en general. • Prestar servicios de impartición de cursos en línea y de otros servicios de este tipo, incluidos repasos de asignaturas de los diferentes niveles de enseñanza. 7 Artículo: Edumedia, una posibilidad de crecer. Disponible en: http://www.cubadebate.cu/especiales/2022/02/19/edumedia-una-posibilidad-de-crecer/ Artículo: Mipymes estatales cubanas orientadas a los audiovisuales y el software. Disponible en: https://www.trabajadores.cu/20211001/mipymes-estatales-cubanas-orientadas-a-los-audiovisuales-y-el- software/ • Prestar servicio de arrendamiento de equipamiento tecnológico, incluyendo equipamiento audiovisual e informático y los sets o plató de tv y sonido. Procesos de Edumedia. Procesos estratégicos Dirección y gestión empresarial Gestión económico-financiera Gestión comercial Procesos claves (operativos, misionales) Gestión de producción de contenidos audiovisuales Gestión de aplicaciones y servicios informáticos Gestión de servicios de consultoría educativa Procesos de apoyo Gestión de servicios logísticos Gestión de recursos humanos y control de la producción Figura 1: Mapa de procesos de Edumedia SURL. Fuente: elaboración propia. Estructura organizativa actual de la entidad En el caso de Edumedia, al constituirse como una mipyme en la categoría de pequeña empresa (cuyo rango de ocupados es de 11 a 35 personas), tiene en estos momentos unos 25 trabajadores distribuidos de la siguiente manera: Figura 2: Estructura de Edumedia SURL. Fuente: elaboración propia. Productos y servicios: Productos Audiovisuales • Spot publicitario. • Video Promocional. • Video institucional. • Video Informe • Making off. • Documental. • Vídeoflyer. • Vídeo tutorial. • Infografía animada. • Fotografía de Productos y servicios Productos Promocionales • Tarjetas de presentación. • Flyers y folletos publicitarios. Productos Audiovisuales • Spot publicitario. • Video Promocional. • Video institucional. • Video Informe • Making off. • Documental. • Vídeoflyer. • Vídeo tutorial. • Infografía animada. • Fotografía de Productos y servicios • Logotipos y manual de identidad corporativa y/o de eventos. • Catálogos impresos. • Carteles publicitarios e informativos. • Infografías. • Pancartas y vallas publicitarias. • Señalética para instalaciones. • Souvenires y regalos promocionales de todo tipo. Servicios Informáticos • Edición y digitalización (e-Books), publicaciones digitales y editorial de trabajos digitales multipropósitos. • Creación y desarrollo de libros electrónicos • Creación y desarrollo de sitios web (incluye Mantenimiento). • Diseño y desarrollo de aplicaciones móviles con soporte técnico incluido. • Diseño y desarrollo de multimedias interactivas. • Diseño y desarrollo de recorridos virtuales. • Diseñoydesarrollodejuegosdidácticos educativos. • Blog Consultoría y asesoría educativa Coaching educativo: programa de capacitación y asesoría que permite mejorar la relación docente – estudiante, establecer las condiciones adecuadas para desarrollar de una manera efectiva y óptima el proceso de enseñanza – aprendizaje. Mediante este servicio se trabaja en proporcionar las competencias que facilitan el alcance de metas, las relaciones entre las partes, la mejora en los resultados académicos, la disposición en el proceso de aprendizaje, entre otros. Producción y difusión de productos informáticos y audiovisuales de corte educativo: Diseño de materiales educativos digitales. Desarrollo e implementación de recursos de Gamificación, Apps y plataformas educativas, bibliotecas digitales, libros electrónicos, realidad aumentada aplicada a la educación, entre otras tecnologías educativas. Entre las temáticas que se incluyen para las capacitaciones y/o asesorías se encuentran: • Diseño y gestión de recursos educativos abiertos • Desarrollo de competencias mediáticas y digitales • Gestión y dirección de procesos de formación y capacitación • Entrenamiento en el uso de plataformas para la teleformación • Construcción curricular en instituciones educativas. • Diseño del Proyecto Educativo Institucional. • Diagnóstico y evaluación de estado actual de los procesos de enseñanza-aprendizaje o asociados en los diferentes escenarios. • Construcción de carpeta académica. Diseño didáctico de cursos en entornos virtuales de enseñanza – aprendizaje (EVEA): servicio dirigido al diseño y montaje de la plataforma de teleformación, el mantenimiento y soporte técnico, así como la ampliación de recursos técnicos y tecnológicos que el cliente demande en este sentido, este se puede vincular con la producción en sí de los cursos o formatos educativos que requiera el cliente. Marketing educativo: consiste en aplicar los principios básicos de la mercadotecnia a las instituciones, organizaciones y entidades que deseen ejecutar acciones educativas y que pretenden transmitir al público meta o a la sociedad las líneas de trabajo que desarrollan. Se diseña y desarrolla la estrategia de marketing educativo, análisis de mercado, trabajo y posicionamiento en redes sociales y digitales, comunicación efectiva, satisfacción de los clientes y la generación de contenido educativo de calidad. Gestión y organización de eventos académicosy educativos virtuales y presenciales: servicio que abarca la proyección desde el punto de vista publicitario y comunicacional, ya sea en modalidad presencial o virtual, de eventos educativos y académicos, la gestión de la infraestructura y recursos necesitados, la producción de los productos audiovisuales referentes al evento, así como la oferta del soporte técnico y tecnológico necesario. Mercado potencial • Universidades • Instituciones educativas, científicas y culturales • Empresas • ONG • Televisoras Conclusiones parciales 1. Edumedia nace con el propósito de producir y comercializar productos informáticos y audiovisuales destinados a diferentes sectores de la economía, como podrían ser ministerios, empresas y otras entidades. 2. Apuesta por lo distintivo. ¿Qué nos distingue? Profesionalidad: Excelencia en el modelo de consultoría y su metodología que garantiza resultados de alta calidad. Cocreación: Metodología propia para la gestión de los proyectos de trabajo sustentada en la implicación de diversos especialistas lo que enriquece el resultado de nuestros productos. Innovación y Tecnología: Aplicación de las últimas tendencias educativas en los procesos de aprendizaje y mediante el uso efectivo de las tecnologías de la información y las comunicaciones UNIVERSIDAD TECNOLÓGICA DE LA HABANA JOSÉ ANTONIO ECHEVERRÍA (CUJAE) CENTRO DE ESTUDIOS DE TÉCNICAS DE DIRECCIÓN (CETDIR) Procedimiento metodológico para el diagnóstico de un Centro de Innovación y desarrollo tecnológico (CIDT) Autores: Ing. Maikel González Blanco Maikglez80@nauta.cu Ing. Raúl Quintero Jiménez raul.quintero88@nauta.cu Dr Salvador Muñoz Gutiérrez salvador@ind.cujae.edu.cu ORCID: 0000-0002-9994-580X ORCID: 0000-0001-5564-7053 Facultad de Ingeniería Industrial, CUJAE Centro de Estudios de Técnicas de Dirección Resumen: El diagnóstico de una organización es un elemento básico para obtener información de misma, lo que nos permitirá determinar la dinámica y características de los procesos; conocer en qué punto se encuentran y hacia dónde se dirigen, así como detectar aspectos relevantes y deficiencias, de estas últimas sus causas, además de su incidencia en el colectivo y los resultados. El presente trabajo refiere un procedimiento metodológico como herramienta diagnóstico en centros de innovación y desarrollo tecnológico. Como cada procedimiento conlleva una metodología; en este artículo se trata brevemente este tema tratando las bases principales que son la observación, análisis, registro detallado de las actividades así como las herramientas a emplear. El orden lógico de utilización de cada herramienta científica permitirá lograr una comprensión precisa de la organización (centro). Asimismo, exponemos la interpretación de los resultados obtenidos y la forma de exponer los resultados. Palabras clave: organización, diagnósticos, procedimiento, metodología. Introducción «Cuadrar la caja» es una expresión económica aplicable, además, al buen funcionamiento de algo o alguien, sobre todo cuando se trata de garantizar eficiencia en los procesos que benefician a la mayoría (Diaz Martorrel, 01/06/2016). Como lo definió el General de Ejército Raúl Castro Ruz, el razonamiento de los cuadros debe basarse en argumentos sólidos, saber escuchar aunque no le agraden algunas opiniones, la valoración con mente abierta a los criterios de los demás, al tiempo que rebata, con fundamentos y energía, aquellos que resulten inaceptables… pero para llegar a esos a esos argumentos sólidos se precisa de conocimientos e información. El diagnóstico es un elemento básico para obtener esta información sobre el estado de una organización, que permite determinar la dinámica y características de los procesos que se realizan dentro de la misma, a través del diagnostico se pueden detectar aspectos relevantes y deficiencias, así como desviaciones en el desarrollo de los objetivos trazados, sus causas y tendencias, además su incidencia en el control interno de la organización. Las organizaciones en sí, constituyen un sistema, que están compuestas por “n” número de elementos, que forman un ente, y vemos que un conjunto de actividades forman un procedimiento y así sucesivamente, que están interrelacionadas entre sí.(Salud, 2004). En cuanto a los procedimientos, ellos especifican y detallan un proceso, los cuales conforman un conjunto ordenado de operaciones o actividades determinadas secuencialmente en relación con los responsables de la ejecución, que deben cumplir políticas y normas establecidas señalando la duración y el flujo de documentos. (Vivanco Vergara, 2017). El principal objetivo de un procedimiento, es estandarizar la realización de una actividad, para minimizar errores o desvíos. Documentan la forma en que se deben realizar las actividades para facilitar la conformidad consistente con los requisitos técnicos y de calidad del sistema y para respaldar la calidad de los datos.(Qualyteam, 2019). Los diagnósticos pueden realizarse con el personal del centro que esté involucrado con la planeación estratégica, y será el indicado para recabar los datos, los cuales se aplicarán a herramientas científicas; para posteriormente con base en las reflexiones, presentar a la Dirección la información obtenida, y así tomar decisiones que permitan lograr los objetivos estratégicos planteados por el centro. Los antecedentes de la investigación se remiten a las siguientes causas: 1. No existe una guía estándar (procedimiento) para realizar diagnósticos en centros de innovación y desarrollo tecnológico. 2. No se tiene claridad sobre la estrategia para tratar estos aspectos. De todo ello se desprende un problema central: La ausencia de procedimientos metodológicos de diagnóstico que puedan emplearse para caracterizar y valorar el estado en que se encuentran los CIDT. Teniendo en cuenta los elementos anteriormente citados, el objetivo de esta investigación se concreta en diseñar, elaborar e implementar un procedimiento metodológico que permita viabilizar las acciones para diagnosticar centros de innovación y desarrollo tecnológico. Elementos básicos a tener en cuenta:  Estructura orgánica  Manual de organización  Controles realizados y cumplimiento de los planes de medida.  Diagnósticos anteriores del centro Material y método. Diseño del procedimiento metodológico. El procedimiento para realizar el diagnóstico contiene los siguientes aspectos: Las variables:  Tecnologías instaladas.  Procesos fundamentales del centro.  Incidencia de las tecnologías instaladas en los productos/servicios y principales procesos.  Orientación de las actividades de I+D+I.  Factores que obstaculizan el desarrollo tecnológico.  Capacidades tecnológicas del centro.  Perspectiva de crecimiento. Instrumentos a emplear: Para la obtención de la información se pueden emplear diferentes técnicas: Observación. Análisis del funcionamiento del CIDT. Entrevista: esta técnica permite recoger información que puede ser investigada hasta en sus mínimos detalles en una conversación personal con los miembros del CIDT. El análisis de experiencias críticas de comunicación: Permite conocer las experiencias positivas y negativas que existen dentro de la organización y la efectividad o inefectividad de las mismas. Encuestas: la información recogida por medio de esta técnica será empleada para un análisis cuantitativo con el fin de identificar y conocer la magnitud de los problemas que se suponen o se conocen en forma parcial o imprecisa. Análisis documental y estadístico. Se reunirán diversos documentos para ser interpretados a fin de extraer la información que contienen sobre la historia y las características del CIDT. Para aplicar las diferentes técnicas de investigación se debe tener en cuenta como muestra a todo el personal del CIDT y directivos que se encuentran vinculados de forma indirecta con el propio trabajo del centro. Durante el análisis es recomendable utilizar las herramientas informáticas como:  Microsoft Excel  IBM SPSS Statistics.  StatPlus LE  Minitab A partir de la aplicación de elementos de la guía integrada de innovación, el cálculo del nivel de integración del sistema de dirección (NISD) del CIDT (Colectivo de autores CETDIR,(Alfonso Robaina, 2007)(Daniel Alfonso-Robaina, 2011) y encuestas de comportamiento organizacional se podrán determinar irregularidades y las alternativas de solución para contribuir a mejorar la gestión de los proyectos de innovación. Los elementos de la guía integrada que inicialmente pueden tenerse en cuenta en este diagnóstico serán: la Encuesta de innovación (estrategias genéricas, objetivos de la actividad innovadora, fuentes de ideas innovadoras, factores que obstaculizan la innovación), el Test de innovación empresarial (estrategia de la organización, despliegue de la estrategia de innovación, cultura y resultados de innovación, innovación en la cadena de valor) y la Prueba de la organización que aprende. Para la aplicación de esta guía se debe identificar el tamaño adecuado de la muestra, para esto se puede emplear la página web https://www.questionpro.com/es/calculadora-de-muestra.html Figura 1: calculadora de muestra Fuente: https://www.questionpro.com/es/calculadora-de-muestra.html Para el desarrollo del diagnóstico se trazó el siguiente esquema: Figura: 2 hilo conductor del diagnóstico propuesto. Fuente: elaboración propia Siguiendo el hilo conductor que se muestra en la figura FASE I En esta fase, se debe conocer de la organización los medios técnicos que poseen, la preparación del personal, la sub-división del trabajo, los valores implícitos y explícitos que se persiguen en la institución, los principios éticos así como las características del colectivo y sus motivaciones. Se debe recopilar información que destaque el entorno en que se trabaja y los factores externos e internos que influyen en la eficiencia. Toda institución consta necesariamente de una estructura organizacional o una forma de organización de acuerdo a sus objetivos y necesidades (teniendo en cuenta sus fortalezas), por medio de la cual se pueden ordenar las actividades, los procesos y el funcionamiento de la misma. La distribución de funciones y cargos se da en función de la cultura organizacional que se busca promover, de la misión institucional y de la incidencia que se quiere lograr.(Barone, 2009) Es importante dejar claro: ¿Cómo se concibe la idea de un proyecto? ¿Cómo se traza el objetivo (alcance del proyecto)? ¿Cómo se gestionan los recursos materiales, laborables y financieros? ¿Cómo se planifican y controlan las actividades? ¿Cómo se determina la factibilidad de los proyectos? Diagrama de Pareto El diagrama de Pareto, es una gráfica que representa la información de mayor a menor relevancia que permite evaluar el nivel de prioridad de las acciones que se debe tomar para lograr los resultados esperados. Está técnica se basa en el principio de Pareto, el que plantea que el 80% de las consecuencias provienen del 20% de las causas. Ejemplo diagrama Pareto Fuente: (Vesga-Rodríguez et al., 2021) La Figura 3 muestra que el alto índice de traslado de personal del centro se debe principalmente a dos causas: los estilos de liderazgo y la baja asignación salarial, es decir, un 80 % de las consecuencias se debe a solo un 20 % de las causas. FASE II I. Aplicación de la encuesta de innovación para organizaciones elaborada por la Dra Mercedes Delgado Fernández. Anexo 1 Análisis de los resultados encuesta de innovación. Al efectuar el análisis de las estrategias genéricas que están presentes en el CIDT, es importante graficar los resultados para logar un mejor entendimiento. Las mismas se materializan según el grado de importancia concedido (Donde 1es poco importante y 5 mucho). Su interpretación debe contener los elementos más sensibles. Anexo 1 Ejemplo: Costo Servicio al mercado Diferenciación Series1 Liderazgo Innovación 0 2 4 6 Gráfica 1 “estrategias genéricas del CIDT” Fuente: elaboración propia Universo encuestado: a) Dirección: 45 b) Personal del CIDT: 18 Los objetivos de la actividad innovadora en el CIDT muestran grandes impactos en los aspectos relacionados con la calidad de los productos y el mejoramiento de las condiciones de trabajo por la propia característica del centro existiendo varias variables que no son aplicables. Gráfica: 2 “Estado de los objetivos de la actividad innovadora del CIDT según encuesta”. Fuentes de ideas innovadoras 15 variables 3: no aplicables 4: no importantes 8: importantes Las actividades que tributan a las fuentes de ideas innovadoras se materializan con la ayuda de la dirección, los proveedores y la propia estructura de centro de investigación con las condiciones de trabajo necesarias para llevar a cabo los proyectos. Existen otros elementos como la capacitación y el entrenamiento, el vínculo con las universidades y la propia producción como forma de materializar los resultados. Objetivos de la actividad innovadora no aplicable 36% 57% poco importante 7% muy importante Fuentes de ideas innovadoras 20% 53% 27% no aplicable poco importane Gráfica: 3 “fuentes de ideas innovadoras en el CIDT” Factores que obstaculizan la innovación 19 variables 8: no aplicables 4: no importantes 6: muy importantes Gráfica:4 “gráfica representativa en términos de porciento de los factores que obstaculizan la innovación”. Análisis y conclusiones del Test de innovación empresarial. Anexo 2 Si: 4 No: 16 Calificación Excelente Buena Insuficiente Baja Suma SI 16-20 11-15 6-10 1-5 Tabla 1: resultados del test de innovación empresarial Las empresas por sus características y misiones, tienen una dinámica diferente a las de un centro de investigación. Estas tienen como norma el principio de maximizar la relación de los gastos, ingresos y lograr las mayores utilidades en un ciclo anual con resultados que se contabilizan y miden cada mes. En el CIDT su financiamiento es aportado por el presupuesto del Estado y las producciones son de carácter especializado por lo que el resultado como se muestra en la tabla es bastante bajo incidiendo en esto:  La cultura de la innovación.  Innovación en la cadena de valor.  Los resultados de la innovación. Desde el punto de vista de la estrategia de la organización y su despliegue, los resultados Factores que obstaculizan la innovación 0% no aplicables 33% 45% 22% no importantes muy importantes redundan el 50%. Prueba de la organización que aprende 8 6 4 2 Evaluación de la prueba de la organización que aprende según el formato del Anexo 3 8 variables analizadas 0 con frecuencia a veces total Series 1 5 3 8 Gráfica:5 “resultados de la prueba de la organización que aprende” ∑ puntuación asignada Porcentaje de aprendizaje organizacional = ( 40 34 ) * 100% Porcentaje de aprendizaje organizacional = ( ) * 100% 40 Porcentaje de aprendizaje organizacional = 85% Una organización se transforma en aprendiente, cuando comparte y usa el conocimiento de tal manera que sus miembros se unen en un esfuerzo para cambiar el modo en que esa organización responde a los desafíos y los cambios que actualmente plantea el entorno. El aprendizaje que desarrolla la organización se deriva del aprendizaje que realizan sus miembros y de la adquisición de nuevos empleados con conocimientos que la institución aún no posee. (…) La verdadera ventaja para la organización radica en su capacidad de gestionar los procesos de creación, desarrollo y difusión del conocimiento, y de ese modo desarrollar su capacidad de aprendizaje.De esta manera se pueden establecer tres tipos de aprendizaje organizacional: (Barone, 2009) 1. Aprender a manejar el conocimiento actual de la organización; 2. Crear un nuevo conocimiento o innovar; 3. Transmitir o difundir el conocimiento a las demás áreas y miembros de la organización.” Resumen de la encuesta de innovación Ev al u ac ió n Destacar los aspectos que influyen en el correcto funcionamiento del centro y sus rutas críticas. Verificar si los objetivos y las estrategias planteadas están en correspondencia con la misión del centro. Aquí se debe reflejar los elementos a consolidar como objetivos ya funcionales y estables. II. Cálculo del Nivel de integración del Sistema de Dirección (NISD) del CIDT Toda organización es un sistema, un conjunto de partes con características comunes, como por ejemplo: objetivo central, recursos, cultura y valores organizacionales, que persiguen una meta. Para alcanzar dicha meta es necesario corregir problemas inherentes a su sistema y a sus operaciones, lo que trae como consecuencia beneficios y mejoras en la calidad y la productividad.(Pico, 2006) En este sentido es importante tener claro cómo está constituido el mapa de procesos de la institución. Un mapa de procesos de la organización está compuesto por los elementos de la cadena de valor de la empresa y las medidas de control necesarias para garantizar la eficiencia de sus procesos. Figura:4mapas de procesos Fuente: elaboración propia Procesos de gestión: procesos destinados a definir y controlar las metas, el cumplimiento de los cronogramas y de los objetivos propuestos. Están bajo la responsabilidad de los Jefes. Procesos claves: procesos que permiten llevar a cabo el desarrollo del proyecto hasta su conclusión y la satisfacción del cliente. Constituye la razón de ser del CIDT. Proceso de apoyo: abarcan las actividades necesarias para el correcto funcionamiento de los procesos claves. Calculo del NISD del CIDT Evaluación de la matriz de relaciones. NISD externo e interno. Haciendo uso de la técnica de matriz de relaciones, se construirán las matrices, tanto de relaciones externas como internas; en las que se evaluarán las relaciones entre los procesos que se ven involucrados. La construcción de la matriz de relaciones, se hace empleando como herramienta una matriz de dos entradas, como lasmostradas en la Tabla 1 y 2 (Daniel Alfonso-Robaina, 2011) Matriz de relaciones externas EE1 EE2 EE3 EEn P1 P2 P3 Pn Tabal 2: matriz de relaciones externas Fuente: Daniel Alfonso-Robaina, 2011 Donde: EEj: Entidad Externa j; para j=1, 2, 3,…m; siendo m el número de Entidades Externas (Proveedores Externos, Clientes Externos, Entidades administrativas, políticas, jurídicas y sociales). Pi: Proceso i de la Empresa; para i=1, 2, 3,…n; siendo n el número de Procesos de la Empresa. (Procesos claves, Procesos funcionales). Matriz de relaciones internas P1 P2 P3 Pn P1 P2 P3 Pn Tabla 3: matriz de relaciones internas Fuente: Daniel Alfonso-Robaina, 2011 Donde: Pi: Procesos i de la empresa; para i=1, 2, 3,…n; siendo n el número de procesos de la empresa. Px: Procesos clave x de la empresa; para x=1, 2, 3,…z; siendo z el número de procesos claves de la empresa. En cada celda se valora su importancia y desempeño, asociándole un índice Rix.  Las relaciones con una alta importancia en el cumplimiento de la misión (RI)  Las relaciones importantes con un bajo desempeño (RC) I: importanciaD: Desempeño Escala de evaluación: Escala de evaluación Importancia Desempeño 1-Nada importante 1-Desempeño muy malo 2-Poco importante 2- Desempeño malo 3-Medianamente importante 3- Desempeño regular 4- Importante 4- Desempeño bueno 5-Muy importante 5-Desempeño excelente Tabla 4: escala de evaluación Ejemplo: Matrix de relaciones Externas: No Procesos Empresa 1. Diseño I=5 D=3 2. Adquisición I=5 D=3 3. Fabricación I=5 D=3 4. Pruebas I=5 D=4 5. Evaluación de usuarios I=5 D=3 RI=25 RC=16 Tabla 5: relacionesexternas NISD ext = 1-(RC/RI) = 0.36 El resultado arrojó un NISD ext.= 0.36 estando muy por debajo de 1, lo que significa que existe bajo nivel de integración del centro en función de sus relaciones externas. Matrix de relaciones internas No Procesos Diseño Adquisición Fabricación Pruebas Evaluación de usuarios 1. Diseño 2. Adquisición 3. Fabricación 4. Pruebas 5. Evaluación de usuarios 6. Planificación estratégica I=5 D=2 I=5 D=2 I=4 D=2 I=4 D=2 I=4 D=2 7. Control y Supervisión I=5 D=2 I=4 D=2 I=4 D=2 I=4 D=2 8. Capital humano I=5 D=2 I=5 D=2 I=4 D=2 I=4 D=2 9. Proceso I+D I=5 D=3 I=5 D=2 I=4 D=2 I=5 D=3 Tabla 6: relaciones internas NISD int= 1-(RC/RI)= 1-(36/76) = 0.527 El resultado arrojó un NISD int.= 0.527 (52%), superior al nivel de integración exterior pero aún muy por debajo de 1, lo que significa que existe bajo nivel de integración del centro en función de sus relaciones internas. En términos porcentuales (52% de nivel de integración) le permite cumplir con sus funciones, sin embargo no logran la eficiencia en cada proceso y con ello los resultados que esperan los usuarios. Estopuede traducirse en el incumplimiento de los plazos establecidos, la solución de las no conformidades u otros elementos que se asocian al proceso de fabricación. Análisis DAFO El análisis DAFO (o FODA) es una herramienta de gestión que facilita el proceso de planeación estratégica, proporcionando la información necesaria para la implementación de acciones y medidas correctivas, y para el desarrollo de proyectos de mejora. El nombre DAFO, responde a los cuatro elementos que se evalúan en el desarrollo del análisis: las debilidades, amenazas, fortalezas y oportunidades.(Olivera & Hernández, 2011) ¿Cómo desarrollar el análisis DAFO? Para desarrollar la matriz DAFO será necesario seleccionar las fortalezas, oportunidades, amenazas y debilidades que mayor impacto puedan ocasionar sobre el cumplimiento de la Misión y la Visión de la organización. Se recomienda la creación de un taller de expertos y desarrollar la técnica denominada tormenta de ideas (brainstorming). Las oportunidades y amenazas corresponden a factores externos a la organización, las fortalezas y las debilidades al ámbito interno; la correcta identificación de dichos factores permite la construcción de escenarios anticipados para rectificar las desviaciones de los objetivos de la empresa. Ejemplo: Identificación del criterio de análisis; Gestión de proyectos de innovación Fortalezas Debilidades Oportunidades Amenazas Total Habilidades Pocos Reconocimiento Un nuevo para la conocimientos de de la institución ordenamiento innovación dirección de a nivel de estructural que 11 de productos. proyectos. Ministerio. debilite el CIDT 3 3 2 3 Buena El financiamiento Cursos de Incremento de imagen ante llega preparación y barreras y los usuarios materializado en adiestramiento requisitos de los equipos, medios y en la gestión de reglamentarios productos accesorios sin proyectos. costosos. 10 elaborados. margen para otras 3 2 3 necesidades del equipo de trabajo. 2 Flexibilidad Perdida de Intercambio de Deficiente política organizativa. personal con experiencia o de estímulo y 2 experiencia investigativa. adiestramiento. 2 tránsito de los miembros del 10 3 CIDT. 3 8 8 7 8 31 (26%) (26%) (22%) (26%) (100%) Tabla 7: criterios de análisis DAFO Ponderación para cada una de las fortalezas, oportunidades, debilidades y amenazas, listadas (matriz). Niveles Ponderación 3 alto 2 medio 1 bajo Tabla 8: matriz de ponderación Graficación y análisis de los resultados Gráfica:6 análisis global de matriz DAFO Fuente: elaboración propia En la figura se muestra un balance negativo para las fortalezas y las oportunidades respecto a las debilidades y las amenazas, lo que demuestra la situación crítica que presentan los proyectos de innovación en su proceso de ejecución. En este sentido debe prestarse mayor atención a la correcta gestión de los proyectos por todos con el objetivo de que las acciones que se emprendan contribuyan a modificar a corto plazo la situación existente y así evitar que este criterio no se convierta en algo crítico. Obtener conclusiones ¿Qué debilidades es preciso atacar primero? ¿Qué fortalezas están en un nivel que es necesario cuidar? ¿Cómo enfrentar cierta amenaza? etc., Las propuestas de mejora deben orientarse tanto a disminuir las debilidades, reforzar y mantener las fortalezas a la búsqueda de oportunidades convenientes para las capacidades de la institución, cómo a proveer un defensa para las amenazas externas. Las mejoras aceptadas deben ser congruentes con las condiciones o medios de operación de del centro, para hacer análisis global F+O 48% D+A 52% crecer sus habilidades y recursos. Las estrategias que resulten deben de incrementar la competitividad de la organización, reforzando la búsqueda de una posición favorable y sostenible, en relación a los demás competidores. El objetivo de la estrategia DA (Debilidades vs. Amenazas) es minimizar tanto las debilidades como las amenazas. Una organización que resulte ubicada en este cuadrante estaría enfrentando su peor situación respecto al logro de sus objetivos, sus esfuerzos principales tendría que dedicarlos a luchar por su supervivencia o llegaría irremisiblemente hasta su liquidación definitiva. La segunda estrategia, DO (Debilidades vs. Oportunidades), requiere minimizar las debilidades y maximizar las oportunidades. Una empresa en esta situación identifica las oportunidades que le ofrece el entorno pero reconoce que sus debilidades organizacionales no permiten aprovecharlas. III. Encuesta de cultura organizacional (colectivo de profesores CETDIR,Dra.C. Ana T. Molina Álvarez Dr. C. Roberto López Boudet). Anexo 4 En la gráfica 7. Se representa el resultado de la encuesta realizada a los miembros del CIDT y aquellos directivos que tienen relación directa con las tareas de innovación que se llevan a cabo. Gráfica: 7 Fuente: elaboración propia Encuesta de Cultura Organizacional 5 4,9 4,8 4,7 4,6 4,5 4,4 4,3 4,2 4,1 Series1; 4,48 Es ca la Encuesta de tolerancia al cambio.(Colectivo de profesores CETDIR,Dra.C. Ana T. Molina Álvarez Dr. C. Roberto López Boudet). Anexo 5 La encuenta se realizó especificamente a los compañeros del CIDT, mostrando los siguientes resultados: Grafica No 8 Representación en términos porcentuales Gráfica 9.Promedio de respuesta de cada pregunta Fuente: elaboración propia Mediante un análisis sicológico se comprobó la valides de esta encuesta, los miembros del CIDT se manifiestan tolerantes a los cambios específicamente por las posibilidades que ofrece el centro de adquirir nuevos conocimientos y migrar hacia otros centros de investigación del sector empresarial o particular. Además, las propias necesidades de la Dirección tienden a debilitar la estructura del CIDT realizando movimientos de cuadros para potenciar otras áreas. FASE III Diagrama causa efecto 70,00 60,00 50,00 40,00 30,00 20,00 10,00 0,00 Series1 Promedio de respuesta de cada pregunta 1 22 21 20 19 18 17 16 23 244 3 2 1 0 2 3 4 5 6 7 8 promedio de cada pregunta 9 10 15 14 12 11 13 Esta herramienta no ofrece respuesta a una pregunta, como el análisis de Pareto, diagramas Scatter o histogramas; en el momento de generar el diagrama causa-efecto, normalmente se ignora si estas causas son o no responsables de los efectos. Por otra parte, un diagrama causa-efecto bien organizado sirve como vehículo para ayudar a los equipos a tener una concepción común de un problema complejo, con todos sus elementos y relaciones claramente visibles a cualquier nivel de detalle requerido(Bermúdez & Camacho, 2010). Figura 5:ejemplo diagrama causa efecto Fuente: elaboración propia Resumen del diagnóstico El resumen del diagnóstico se basa en toda la información obtenida por las distintas fuentes así como de los análisis realizados mediante el empleo de las diferentes herramientas. Bibliografía Alfonso Robaina, D. (2007). MODELO DE DIRECCIÓN ESTRATÉGICA PARA LA INTEGRACIÓN DEL SISTEMA DE DIRECCIÓN DE LA EMPRESA. (doctoral ), INSTITUTO SUPERIOR POLITÉCNICO JOSÉ ANTONIO ECHEVERRÍA, Cuba. Barone, S. (2009). Las estructuras organizacionales: cultura, principios y modelos para la innovación. Bermúdez, E. R., & Camacho, J. D. (2010). El uso del diagrama causa-efecto en el análisis de casos. Revista latinoamericana de estudios educativos, 40(3-4), 127-142. Daniel Alfonso-Robaina, A. V.-G., Pedro Enrique Milanes-Amador, Alexis Rodríguez- González, Rafael Espín-Alonso. (2011). PROCEDIMIENTO GENERAL DE REDISEÑO ORGANIZACIONAL PARA MEJORAR EL ENFOQUE A PROCESOS. Ingeniería Industrial, Vol. XXXII/No 3, 238-248. Diaz Martorrel, R. c. j. c. (01/06/2016). Un cuadro que cuadre. Juventud Rebelde. Retrieved from https://www.juventudrebelde.cu/opinion/2016-06-01/un-cuadro-que-cuadre Miranda Cuéllar, R. L. R. A., Soidelys; Gómez País, Gloria de las Mercedes; Goicochea Cardoso, Odalys Caridad (2018). Metodología para la realización de un diagnóstico de la gestión de indicadores ambientales en la administración pública. Ingeniería y Desarrollo, vol. 37, pp. 71-87. Olivera, D., & Hernández, M. (2011). El análisis DAFO y los objetivos estratégicos. Contribuciones a la Economía, marzo. Pico, G. (2006). El mapa de procesos: elemento fundamental de un sistema de gestión de calidad para empresas de servicios en Venezuela. Revista Venezolana de Análisis de Coyuntura, 12(2), 291-309. Qualyteam, B. (2019). ¿Cómo hacer un Procedimiento? (POE) ISO 9001. Retrieved from http://blog.qualidadesimples.com.br/es/2019/05/24/como-hacer-un-procedimiento-poe-iso- 9001/ Salud, S. d. (2004). “Guía para la elaboración de manuales de procedimientos de la Secretaría de Salud (2004)”. Vesga-Rodríguez, J. J., Gómez-Rada, C. A., Quintana, I. P., Forero-Aponte, C., Fajardo- Castro, L. V., & Ferro-Vásquez, J. (2021). Diagnóstico e intervención en psicología de las organizaciones. Vivanco Vergara, M. E. (2017). Los manuales de procedimientos como herramientas de control interno de una organización. Revista Universidad y Sociedad, 9(3), 247-252. https://www.ugr.es/~filosofia/recursos/innovacion/convo-2005/trabajo-escrito/como-elaborar- un-articulo-cientifico.htm https://www.questionpro.com/es/calculadora-de-muestra.html ANEXOS Anexo No 1 Encuesta de Innovación Estrategias genéricas Marque las estrategias genéricas presentes en la organización. Ordénelas por grado de importancia, donde 1 es la más importante □ Diferenciación □ Diversificación □ Expansión □ Servicio al mercado □ Alta segmentación □ Liderazgo □ Calidad □ Costo □ Beneficio □ Innovación Marque con una x para cada uno de aspectos el grado de importancia en su organización. Donde 1 es poco importante y 5 mucho. Objetivos de la actividad innovadora no aplicable poco importante - muy importante 0 1 2 3 4 5 Reemplazar los productos que están en declive Extender la gama de productos Mantener la cuota de mercado Mejorar la flexibilidad de la producción Rebajar los costos de producción Salarios Consumo materiales Consumo de energía Producción rechazada Tiempo perdido Diseño Mejorar la calidad de los productos Mejorar las condiciones de trabajo Reducir los daños del medio ambiente Fuentes de ideas innovadoras 0 1 2 3 4 5 Actividades internas de I+D Producción Marketing Alta dirección Competidores Clientes Empresas de consultorías Proveedores o suministradores Universidades Centros de Investigación Organización superior de la entidad Consulta de patentes Capacitación y entrenamiento Ferias, eventos y exposiciones Forum de Ciencia y Técnica Factores que obstaculizan la innovación 0 1 2 3 4 5 Los riesgos se consideran excesivos Costos elevados Falta de fuentes de financiación apropiada Período de rentabilidad de la innovación largo Potencial innovador (I+D, diseño, personal, etc) insuficiente cantidad y preparación Insuficiente capacidad y cultura tecnológica de directivos Falta de infraestructura Falta de información sobre tecnología Falta de información sobre el mercado Grado de innovación difíciles de controlar Reglamentación, legislación y normas Falta de interés de consumidores a nuevos productos y procesos Dificultades para adquirir recursos materiales Insuficiente colaboración internacional Resistencia al cambio Dificultad de cerrar el ciclo de I+D+i Rigidez organizativa Demanda dudosa o falta de mercado Debilidad de los derechos de propiedad industrial Especifique las principales innovaciones organizacionales que haya implementado su organización. Anexo 2. Test de innovación empresarial 1. ESTRATEGIA DE ORGANIZACIÓN si no ¿La estrategia tiene en cuenta la innovación y la considera como un factor clave de éxito? ¿La estrategia es proactiva en innovación y se anticipa a los cambios que se producen en el mercado y en el entorno? ¿La dirección de la empresa está comprometida y ofrece pleno apoyo a las actividades de innovación? ¿Dispone de un plan con objetivos, actividades, recursos y presupuesto para actividades de innovación? 2. DESPLIEGUE DE LA ESTRATEGIA DE INNOVACIÓN si no ¿En su empresa han sido asignadas las responsabilidades en materia de innovación? Su empresa ¿dedica recursos humanos, financieros y materiales significativos a la innovación? ¿La innovación contempla el desarrollo de productos o servicios y la mejora de los procesos? ¿El diseño y desarrollo de nuevos productos/servicios se lleva a cabo en función de las necesidades del mercado? 3. CULTURA DE LA INNOVACIÓN si no ¿Su empresa fomenta la creatividad y aprovecha todo el potencial de sus directivos y trabajadores? ¿Su empresa evalúa las ideas generadas en la organización y las aprovecha sistemáticamente para su desarrollo? ¿Aprovecha sistemáticamente las sugerencias de proveedores para generar innovaciones de producto o proceso? ¿Aprovecha sistemáticamente las sugerencias y quejas de clientes para generar innovaciones de producto o proceso? 4. INNOVACIÓN EN LA CADENA DE VALOR si no ¿Su empresa desarrolla de forma sistemática nuevos productos y/o servicios? ¿Introduce de forma sistemática innovaciones en los procesos de producción? ¿Introduce sistemáticamente innovaciones en la cadena de suministros (aprovisionamientos/distribución) y en la logística? ¿Introduce de forma sistemática innovaciones en las áreas comerciales y ventas? ¿Introduce de forma sistemática innovaciones en las áreas de servicios post venta y atención a clientes? ¿Invierte regularmente en tecnologías (maquinaria, bienes de equipo, PC) para aumentar eficiencia y eficacia? 5. RESULTADOS DE LA INNOVACIÓN si no ¿Considera que su empresa es más innovadora que otras similares del entorno en el que opera? ¿Los ingresos actuales generados por innovaciones en los últimos 3 años son significativos? Suma Total: CALIFICACIÓN SEGÚN LA CANTIDAD DE SI: Calificación Excelente Buena Insuficiente Baja Suma si 16-20 11-15 6-10 1-5 Anexo 3. Prueba de la organización que aprende Marque con una X el estado en que usted considera se encuentra cada uno de estos aspectos en su centro. Aspectos Siempre Con frecuencia A veces Rara vez Nunca 1. El Centro aprende con la experiencia y no repite los errores. 2. Cuando alguien sale del centro su conocimiento permanece. 3. Cuando concluye una tarea algún equipo divulga la documentación o lo que se aprendió. 4. El conocimiento generado en todas las áreas del Centro es investigado, legitimizado y puesto a disposición de toda la organización a través de bancos de datos, entrenamientos y otros eventos de aprendizaje. 5. El Centro reconoce y recompensa el valor del conocimiento creado y compartido por personas y equipos. 6. El Centro evalúa de modo sistemático sus necesidades futuras de conocimiento y desarrolla planes para atenderlas. 7. El Centro facilita la experimentación como un modo de aprender. 8. El Centro estimula sus capacidades de generar, adquirir y aplicar el conocimiento, aprendiendo con los procesos de aprendizaje de otras TOTAL Anexo 4. Encuesta de Cultura Organizacional Escala: 1 2 3 4 5 Casi nunca Muy frecuente 1. El proceso de trabajo está coordinado y bajo control. 2. La toma de decisiones de forma participativa es amplia y adecuadamente utilizada 3. Reglas, procedimientos y métodos formalizados guían el trabajo. 4. Los objetivos son claramente comprendidos por la mayoría de los miembros del grupo. 5. El esfuerzo en el trabajo es generalmente intenso. 6. Hay un entorno de trabajo estable y previsible 7. Se pone énfasis en la innovación. 8. Hay un clima de relaciones interpersonales positivo. 9. La cuantificación y la medida son puntos clave del clima de trabajo 10. Se estimula la toma de decisiones por consenso. 11. Desde el exterior se percibe la entidad como vibrante y de alto rendimiento. 12. Se estimulan la creatividad, previsiones e ideas innovadoras. 13. Es fácil dar una explicación de los objetivos globales de la entidad. 14. Es constante el esfuerzo por conseguir los mejores resultados. 15. El personal siente que realmente forma parte de la entidad. 16. La entidad tiene una imagen de sistema dinámico en crecimiento. Interpretación de resultados: 1 y 6- Nivel de coordinación y estabilidad en el trabajo. 2 y 10- Participación consensuada en la toma de decisiones. 3 y 9- Normalización en el trabajo. 4 y 13- Conocimiento de objetivos empresariales. 5 y 14- Intensidad del trabajo. 7 y 12- Clima de creatividad. 8 y 15- Sentido de pertenencia. 11 y 16- Imagen de la entidad hacia el exterior. Anexo 5. Encuesta tolerancia al cambio Seleccione la letra que defina cómo usted reaccionaría, utilice la siguiente escala: A: Disfrutaría mucho de esto, es totalmente aceptable B: Esto sería agradable y aceptable la mayor parte del tiempo C: No tendría reacción alguna en una forma u otra, sería igualmente agradable y desagradable. D: Sería bastante desagradable para mi E: Sería sumamente desagradable para mi 1. Generalmente para el 30 o 40% de mi tiempo en reuniones 2. He estado inventando mi trabajo en la medida en que lo desempeño 3. La responsabilidad que asumo o que me asignan constantemente exceden la autoridad que tengo para desempeñarla 4. En cualquier momento tengo mucha cantidad de trabajo que tengo que hacer 5. Hay muy poco relación entre la calidad de mi trabajo y mi sueldo 6. Se necesita una capacitación en mi puesto de trabajo para desempeñarla 7. En mi puesto de trabajo tengo contacto con personas de diferentes razas, nacionalidades y géneros 8. No existe una manera efectiva para medir mi eficacia 9. Jefes diferentes tienen relación con mi trabajo y cada uno tiene una participación igual en mi evaluación 10. La mayor parte del tiempo la paso tratando emergencias que me obligan a posponer el trabajo programado 11. Cuando se planifica una reunión siempre queda alguien pendiente que no puede asistir 12. No trabajo actualmente en lo que me gradué, debo capacitarme otra vez 13. Mi puesto me exige que consulte muchos materiales técnicos 14. Estoy viajando constantemente por problemas de trabajo 15. Mi departamento es muy independiente al trabajo de otros 16. Quizás obtenga una promoción a otros puestos con exigencias mayores 17. Durante el tiempo que he estado trabajando en esta empresa ha habido reorganización de la estructura y de los puestos de trabajo 18. Aunque puedo prever varios ascensos en mi futuro, realmente no tengo una carrera en un sentido objetivo 19. Creo que tengo oportunidad a llegar a niveles superiores en la empresa 20. Aunque tengo muchas ideas de cómo hacer las cosas mejor, no tengo influencia sobre las políticas de la empresa 21. En mi empresa se aplica la evaluación del desempeño y el sistema de pago por resultados finales del trabajo 22. Mi empresa ha sido inspeccionada y se prevén grandes cambios de personal 23. Constantemente se introducen nuevas tecnologías lo que me obliga a un aprendizaje continuo 24. Mi computadora puede controlarse desde la oficina de mi jefe sin mi consentimiento Clave de calificación: Califique 4 puntos a cada A, 3 a cada B, 2 a cada C, 1 a cada D y 0 a cada E Sumar y dividir entre 24. Mientras más elevada se la calificación, más cómodo para el cambio. EVALUACIÓN DE LA CAPACIDAD DE GESTIÓN ENERGÉTICA DE LA EMPRESA. APLICACIÓN EN LA EMPRESA ACINOX COMERCIAL Ing. Jorge Félix Prado Díaz; Dr. C. Yuniel Bolaño Rodríguez2 Dr.C Israel Fernández Hernández; MsC Yasser Vizcaíno Sánchez 1 Empresa Acinox Comercial. Grupo Empresarial de la sidero-mecánica. MINDUS. 2Universidad Tecnológica de La Habana José Antonio Echeverría. Facultad de Ingeniería Industrial. 1e-mail:prado@steels-net.cu RESUMEN En este trabajo se presenta un instrumento para evaluar la capacidad de gestión energética de la empresa. La lista de chequeo de la capacidad de gestión energética de la empresa integra 6 variables y 21 elementos. Entre las variables se encuentran: sistema de gestión energética, indicadores de la eficiencia energética, planificación energética, mantenimiento y reparación de equipos e instalaciones, proyección de acciones de ahorro de energía, utilización y/o generación de energías energía limpias o de nueva generación. La lista de chequeo se aplica en la Empresa Acinox Comercial y los resultados muestran un valor medio de capacidad de gestión energética de 3,13 puntos debido a las insuficiencias en la utilización y/o generación de energías limpias, los problemas en el mantenimiento y reparación de equipos e instalaciones en el uso y consumo energético, las deficiencias en la planificación energética y la insuficiente gestión energética basada en la NC ISO 50001. PALABRAS CLAVES: Gestión energética, capacidad de gestión energética de la empresa, eficiencia energética. EVALUATION OF THE CAPACITY OF ENERGY MANAGEMENT OF THE COMPANY. APPLICATION IN THE COMPANY COMMERCIAL ACINOX ABSTRACT In this work an instrument is presented to evaluate the capacity of energy management of the company. The list of checkup of the capacity of energy management of the company integrates 6 variables and 21 elements. Among the variables, they are: system of energy management, indicators of the energy efficiency, energy planning, maintenance and repair of equips and facilities, projection of actions of energy saving, use and/or generation of energy cleans or of new generation. The checkup list is applied in the Company Commercial Acinox and the results show a half value of capacity of energy management of 3,13 points. This is due to the inadequacies in the use and/or generation of clean energy, the problems in the maintenance and repair of equips and facilities in the use and energy consumption, the deficiencies in the energy planning and the insufficient energy management based on the NC ISO 50001. KEY WORDS: Energy management, capacity of energy management of the company, energy efficiency. 1. INTRODUCCIÓN En la actualidad para cualquier organización empresarial, contar con un sistema de gestión energética (SGEn) constituye una fortaleza; debido a que los gastos asociados al uso de la energía representan una parte importante de los costos operativos y la reducción de los mismos contribuye de forma importante a un mejor desempeño y competitividad (Piñeres Castillo, A., Cabello Eras, J. J., & Hinojosa Rivera, M., 2022). Los SGEn han demostrado su éxito como una metodología para mejorar el desempeño energético de las empresas, independientemente de su tamaño o actividad (Borroto Nordelo A.E., 2006; Lloyd´s Register, 2012). Las empresas hoy día requieren del fortalecimiento de la gestión energética en busca de una mejor eficiencia en la utilización de los portadores energéticos y a su vez la disminución del impacto ambiental al utilizarse energías limpias o renovables. Por tales razones, es vital la mejora continua de la gestión energética en la empresa a partir de establecer una política energética, los objetivos energéticos y los procesos y procedimientos necesarios para lograr esos objetivos (Borroto Nordelo A.E., 2009; ISO/FDIS 50001: 2011). El consumo de energía en los últimos años ha sido un fenómeno creciente. Los problemas energéticos actuales se deben principalmente a los efectos que causan sobre el medio ambiente los diferentes tipos de energía que se utilizan. Las desventajas fundamentales de la explotación de combustibles fósiles y su impacto negativo al medio ambiente han suscitado un creciente interés en estos temas a escala mundial [1]. La efectividad de la gestión energética depende en gran medida del compromiso y disponibilidad de todos los actores involucrados en la organización para gestionar el uso y el costo de la energía, además de realizar los cambios que sean necesarios para facilitar estas mejoras y la reducción en los costos (Madrigal J. A., 2012). En la práctica internacional de la gestión energética en las empresas, se reconoce la utilización de la norma ISO 50001: 2018 ¨Sistemas de gestión de la energía – requisitos con orientación para su uso¨, que ha sido reconocida también por la normativa cubana (NC ISO 50001: 2019). En este sentido, el sector empresarial cubano, llamado a desempeñar un papel determinante en el despegue económico del país, tendrá como prioridad gestionar una política energética, cuyo objetivo se centre en la seguridad de suministro energético y su empleo, en condiciones de competitividad y sostenibilidad. Esto se reafirma en los lineamientos de la política económica y social actualizados en el VII y VIII Congreso del PCC que animan a la eficiencia en la generación eléctrica, el acomodo de las cargas con diminución de la demanda con impacto en las capacidades, desarrollo de rehabilitación de las redes, el aprovechamiento de las distintas fuentes renovables de energía (biogás, energía eólica, hidráulica, biomasa, solar y otras), priorizar el ahorro y especial atención a la eficiencia energética, la planificación y control del uso de los portadores energéticos a través de la medición y calidad de los indicadores de eficiencia e índices de consumo establecidos (FREIRE, Luigi O., RESABALA, Verny F., CASTILLO Jessica N., CORRALES, Byron P., 2019). La industria sidero mecánica es un sector de la economía alto consumidor de la energía y los portadores energéticos, donde es esencial la realización de estudios pertinentes. En este sentido este trabajo se aplica en la Empresa Acinox Comercial perteneciente al Grupo Empresarial de la Sidero-mecánica, donde se han identificados como insuficiencias:  Débil cultura en la empresa sobre la gestión de la energía.  Usos significativos de energías, no justificados.  Las acciones de controles operacionales y el flujo informativo al respecto, es aún insuficiente.  El seguimiento, la medición, el análisis y la evaluación del desempeño energético, no se ha logrado ejecutar con un enfoque sistémico.  Insuficiencias en la preparación de los directivos y el especialista designado, para atender el SGEn en las Unidades Empresariales de Base (UEB); que se manifiesta fundamentalmente, en la planificación, uso, análisis y control, de los indicadores directivos del SGEn, así como, en el conocimiento de los documentos rectores.  Deterioros de los índices de consumos del transporte. En función de estos elementos el presente trabajo se propone realizar una evaluación de la Capacidad de Gestión Energética en la Empresa ACINOX Comercial a partir del diseño de un instrumento de diagnóstico integral elaborado a partir de la consulta bibliográfica y la aplicación de métodos teóricos y empíricos. 2- BASES TEÓRICAS PARA LA GESTIÓN ENERGÉTICA DE LA EMPRESA. VARIABLES Y ELEMENTOS PARA SU EVALUACIÓN La energía es uno de los recursos más importantes y versátiles con los que cuenta nuestra sociedad, por lo que la gestión energética se ha convertido en una materia obligatoria para todas las empresas que explotan este elemento. En la actualidad, la sociedad está cada vez más involucrada con todo lo que tiene que ver con el medio ambiente y posee una conciencia ecológica más fuerte que nunca. En este sentido, la energía tiene también un papel protagonista y el cómo se adquiere y utiliza por ello es crucial en muchos sentidos (Piñeres Castillo, A., Cabello Eras, J. J., & Hinojosa Rivera, M., 2022). Se entiende por energía la electricidad, el combustible, el vapor, el calor, el aire comprimido y otros medios similares. Para una empresa la energía son los diferentes tipos de energía, que se puede comprar, almacenar, tratar, utilizar en un equipo o en un proceso, o recuperar, incluyendo la renovable. La gestión energética en la empresa constituye un elemento esencial en la gestión de las operaciones, ya que sin lugar a dudas la energía eléctrica constituye un suministro importante en los procesos de producción de bienes y servicios. Cada vez más los directivos de las empresas están considerando la gestión energética como un componente esencial en la toma de decisiones estratégicas debido a su impacto en la eficiencia y la competitividad (Oficina Nacional de Normalización, 2019). El sistema de gestión energética es la parte del sistema de gestión de una organización dedicado a desarrollar e implementar su política energética, así como a gestionar aquellos elementos de sus actividades, productos o servicios que interactúan con el uso de la energía (BORROTO NORDELO, A.E., 2006). La aplicación de un sistema de gestión energética, al igual que de otros sistemas de gestión, requiere de una guía, una norma que estandarice lo que hay que hacer para implementarlo, mantenerlo y mejorarlo continuamente, con la menor inversión de recursos, en el menor tiempo y con la mayor efectividad. A través del sistema de gestión energética, una empresa puede detectar dónde o en qué proceso se está consumiendo este recurso y de qué forma, además de ofrecer información acerca de cuál es el costo energético de cada proceso. (LLOYD´S REGISTER, 2012; International Organization for Standardization, 2018). Un Sistema de Gestión Energética (SGE) es el conjunto de elementos de una organización, interrelacionados o que interactúan, para establecer una política y unos objetivos energéticos y para alcanzar dichos objetivos. La gestión energética consiste en la optimización, en el uso de la energía buscando un uso racional y eficiente, sin disminuir el nivel de prestaciones. Para gestionar un sistema de energía se deben tener en cuenta 8 pasos importantes, ellos son: Paso 1: escenario inicial. Paso 2: compromiso con el SGEn. Paso 3: evaluar el desempeño energético. Paso 4: establecer objetivos y metas. Paso 5: crear planes de acción. Paso 6: poner en práctica los planes de acción. Paso 7: evaluar el progreso. La implementación de un SGEn no debe entenderse como un objetivo por sí mismo, sino que el objetivo es la mejora del desempeño energético, a partir de los resultados de las acciones que pretendemos implementar en el sistema. El desempeño energético son los resultados medibles relacionados con la eficiencia energética, el uso de la energía y el consumo de la energía. El desempeño energético se puede medir con respecto a los objetivos de la organización, las metas energéticas, y otros requisitos del desempeño energético. El desempeño energético es un componente del desempeño del sistema de gestión de la energía (NC ISO 50001: 2019). La efectividad de un SGEn dependerá en gran medida del compromiso y disponibilidad de todos los actores involucrados en la organización para gestionar el uso y el costo de la energía, además de la proyección de cambios que sean necesarios para facilitar las mejoras y la reducción en los costos. La política energética es el fundamento para el desarrollo del (SGEn) de la organización a través de todas las fases de planificación. La política energética puede ser un enunciado que los miembros de la organización puedan fácilmente comprender y aplicar en sus actividades laborales (NC- ISO 50001,2019,). La planificación debe ser consistente con la política energética y debe conducir a las acciones que dan como resultado la mejora continua en el desempeño energético a través de la implementación, operación, evaluación del desempeño y mejora. En el desarrollo de un SGEn en la empresa es necesario la revisión energética, entendiendo esta como el análisis de la eficiencia energética, el uso de la energía y el consumo de energía, con base en los datos y otra información, orientada a la identificación de los usos significativos de la energía (USE) y de las oportunidades de mejora del desempeño energético. La actualización de la revisión energética incluye la actualización de los datos y la información relacionada con el análisis del uso y del consumo de energía, la determinación de los usos significativos y la identificación de las oportunidades para la mejora del desempeño energético. La eficiencia energética, entendida como la eficiencia en la producción, distribución y uso de la energía necesaria para garantizar la calidad total, es parte del conjunto de problemas que afectan a la competitividad de las empresas. Las condiciones de competitividad actual demandan una mayor eficiencia en la operación de los recursos, siendo el más importante, entre otros parámetros, la relación entre costo/beneficio en la explotación de la energía en los procesos de producción de bienes y servicios. Según estudios realizados el consumo eléctrico del sistema de clima representa alrededor del 30% del total, aunque si el sistema no es eficiente, puede representar un porcentaje mayor (FREIRE, Luigi O., RESABALA, Verny F., CASTILLO Jessica N., CORRALES, Byron P., 2019; Martínez-Corral, A., Cárcel-Carrasco, J., Colmenero-Fonseca, F., Rafat, A., y Palmero, L., 2022). La intensidad energética es la cantidad de energía que la empresa utiliza para generar una unidad de producción. La intensidad energética incide directamente en la eficiencia y competitividad de las empresas. En la determinación de la cantidad de energía que consume una empresa es necesaria la determinación del consumo de los portadores energéticos (Ministerio de energía de Chile, 2020). Los portadores energéticos son los recursos utilizados para la obtención de energía que pueden ser naturales o resultantes de una transformación. Entre ellos se encuentran los que se obtienen de forma directa, como la energía hidráulica, eólica y solar, o después de atravesar un proceso minero, como el petróleo, el gas natural, el carbón mineral, los minerales fusionables y la geotermia, o a través de la fotosíntesis, como es el caso de la leña y los otros combustibles vegetales y de origen animal. Entre los resultantes de un proceso de transformación se encuentran la electricidad, toda la amplia gama de derivados del petróleo, el carbón vegetal, el alcohol desnaturalizado y el gas manufacturado (o gas de ciudad). El modelo de gestión energética basado en la norma ISO 50001: 2018 ¨Sistemas de gestión de la energía – requisitos con orientación para su uso¨ está basado en la estructura de mejora continua que se ha ido utilizando en otras normas de gestión: Planificar, Hacer, Verificar y Actuar (PHVA) e incorpora la gestión de la energía a las prácticas habituales de la organización, como se muestra en la figura 1. Figura 1: Ciclo planificar – hacer – verificar – actuar en la gestión energética de la organización. Planificar: Se centra en entender el comportamiento energético de la organización para establecer los controles y objetivos necesarios que permitan mejorar el desempeño energético. Hacer: Busca implementar procedimientos y procesos sistematizados, con el fin de controlar y mejorar el desempeño energético. Verificar: Monitorear y medir procesos y productos en base a las políticas, objetivos y características claves de las operaciones y reportar los resultados. Actuar: Deben tomarse acciones para mejorar continuamente el desempeño energético en base a los resultados. Al aplicar esta Norma Internacional se contribuirá a un uso más eficiente de las fuentes de energía disponibles, además de mejorar la competitividad y la reducción de las emisiones de los gases de efecto invernadero y otros impactos ambientales. Esta Norma Internacional no establece criterios específicos de desempeño con respecto a la energía, por lo que dos organizaciones pueden cumplir con sus requisitos aunque estén llevando a cabo similares operaciones pero tengan diferente desempeño energético. 3- INSTRUMENTO PARA LA EVALUACIÓN DE LA CAPACIDAD DE GESTIÓN ENERGÉTICA DE LA EMPRESA A partir del estudio de las bases teóricas en el acápite anterior se han identificado 6 variables para el desarrollo de la Capacidad de gestión energética de la empresa:  Sistema de gestión energética.  Indicadores de la eficiencia energética  Planificación energética (electricidad, combustibles y otros medios similares).  Mantenimiento y reparación de equipos, instalaciones para mejorar su uso o consumo energético.  Proyección de acciones de ahorro de energía.  Utilización y/o generación de energías energía limpias o de nueva generación. A partir de estas variables se determinaron un grupo de elementos o temas relevantes que serán necesarios evaluar su comportamiento práctico en las empresas, como se muestran en la tabla 1. Teniendo en cuenta las 6 variables y 21 elementos de la capacidad de gestión energética de la empresa se elaboró una lista de chequeo que evalúa los elementos de 1 a 5 puntos donde: 1 significa que está MUY MAL la aplicación del elemento, 2 significa que está MAL la aplicación del elemento, 3 significa que está REGULAR la aplicación del elemento, 4 que está BIEN la aplicación del elemento y 5 que es EXCELENTE la aplicación del elemento. Con la aplicación de esta lista de chequeo se podrá conocer los puntos débiles y fuertes de la empresa respecto a las variables y elementos que componen la capacidad de gestión energética de la empresa. Tabla 1: Variables y elementos que determinan la capacidad de gestión energética de la empresa. Variables de la capacidad de gestión de recursos humanos Elementos 1. Sistema de gestión energética 1.1 Contexto de la organización para la gestión energética (CO). 1.2 Política energética con liderazgo (PE). 1.3 Proyección de objetivos, metas y acciones de la gestión energética (OMA). 1.4 Gestión de los riesgos de la energía (GREn). 1.5 Evaluación del desempeño energético (EDE). 2. Indicadores de la eficiencia energética 2.1 Indicadores de eficiencia en el consumo de energía eléctrica (IEnE). 2.2 Indicadores de la eficiencia en el consumo de combustibles (IEnC). 2.3 Indicadores integrales de la eficiencia energética (IIEEn). 3. Planificación energética (electricidad, combustibles y otros medios) 3.1 Análisis de las cargas energéticas de los equipos, instalaciones, procesos y actividades (ACE). 3.2 Establecimiento de la línea de base energética para los indicadores de la eficiencia energética (LBEn). 3.3 Plan de consumo individual de equipos, instalaciones, procesos o actividades (PCI). 3.4 Plan de consumo anual y mensual de la electricidad, combustibles y lubricantes (PCAM). 4. Mantenimiento y/o reparación de equipos e instalaciones para mejorar el uso y consumo energético 4.1 Parámetros eléctricos y el análisis de las perturbaciones (PEAP). 4.2 Diagnóstico de consumo y de anomalías en instalaciones y procesos (DCA). 4.3 Métodos, técnicas y organización de cada tipo de mantenimiento a ejecutar (MTOM). 5. Proyección de acciones de ahorro de energía 5.1 Proyección de acciones generales para el ahorro de energía eléctrica (AAEE). 5.2 Proyección de acciones generales para el ahorro de combustible (AAC). 5.3 Proyección de acciones específicas en las diferentes unidades y áreas organizativas para el ahorro de la energía (AEUAE). 6. Utilización y/o generación de energías limpias 6.1 Estudio de las posibilidades de utilización y/o generalización de energías limpias (EPU). 6.2 Energías limpias o de nueva generación (UEL). 6.3 Generación de energías limpias acorde a las posibilidades de la empresa (GEL). También en la lista se ha definido una redacción de las buenas prácticas de cada elemento así como los problemas. Si los comportamientos de un elemento en la Empresa corresponden con las buenas prácticas entonces su puntuación puede estar entre 4 o 5 puntos, si por el contrario su comportamiento corresponde con los problemas entonces la puntuación puede estar entre 1 o 2 puntos, dejando la puntuación 3 como rango intermedio entre las buenas prácticas y los problemas. A continuación se muestra en la tabla 2 una parte de la lista de chequeo. Tabla 2: Muestra de la lista de chequeo para la evaluación de la capacidad de gestión energética de la empresa. 4- RESULTADOS DE LA EVALUACIÓN DE LA CAPACIDAD DE GESTIÓN ENERGÉTICA DE LA EMPRESA ACINOX COMERCIAL La investigación se aplica en la Empresa Acinox Comercial que se integrada al grupo industrial de la siderurgia subordinado al Ministerio de la industria sidero mecánica y que se dedica a la importación, exportación y comercialización de productos y semi-productos acabados de acero, así como a la prestación de servicios de transportación marítima y terrestre, servicios de montaje, instalación, mantenimiento y reparación de los equipos, servicios integrados de ingeniería, construcción, montaje, proyectos y diseños a sistemas mecánicos, eléctricos, neumáticos, hidráulicos y oleodinámicos. Se aplicó la lista de chequeo a un grupo de directivos y especialistas que se seleccionaron a partir de su conocimiento y experiencia en la gestión energética y en la empresa. Los resultados muestran que existe concordancia entre los expertos y se obtiene una alta fiabilidad (ver tabla 3), por lo que se pueden procesar los datos de la aplicación de la lista de chequeo. Tabla 3: Resultados del análisis de concordancia entre los expertos y el análisis de fiabilidad. Análisis de concordancia entre los expertos Análisis de fiabilidad del instrumento Coef Chi - cuadrada GL Pvalue Alfa de Cronbach 0,468711 65,6195 20 0,0000 <0,05 0,8289 > 0,7 Al aplicar la lista de chequeo y evaluar cada una de las variables se obtiene una capacidad de gestión energética de la Empresa Acinox Comercial de 3,13 puntos lo que indica un valor medio de capacidad debido principalmente a las deficiencias en el sistema de gestión energética (3,03), las deficiencias en la planificación energética (3,07), los problemas en el mantenimiento y/o reparación de equipos e instalaciones relacionados con la energía (2,57) y el bajo nivel de utilización y/o generación de energías limpias (2,76). Aunque de forma general todas las variables tienen una puntuación por debajo de 4 puntos. Ver tabla 4. Tabla 4: Resultados de la Capacidad de gestión energética de la Empresa Acinox Comercial. VARIABLES EVALUACIÓN DE LAS VARIABLES CAPACIDAD DE GESTIÓN DE RR HH Sistema de gestión energética. 3,03 3,13 Indicadores de la eficiencia energética. 3,57 Planificación energética (electricidad, combustibles y otros medios). 3,07 Mantenimiento y/o reparación de equipos e instalaciones para mejorar el uso y consumo energético. 2,57 Proyección de acciones de ahorro de energía. 3,76 Utilización y/o generación de energías limpias. 2,76 En la figura 2 se muestran los resultados de cada uno de los elementos de la variable: sistema de gestión energética. El elemento relacionado con la gestión de riesgos de la energía es el más bajo con 2,71 puntos y después le sigue la política de gestión energética con 2,86 puntos. De forma general es muy bajo el desempeño de todos los elementos de esta variable lo que sin duda demuestra la pobre orientación hacia el diseño de un sistema de gestión energético. Figura 2: Resultados de la variable sistema de gestión energética. En la figura 3 se muestran los resultados de cada uno de los elementos de la variable indicadores de la eficiencia energética. Aunque es una de las variables mejor evaluadas sin embargo el elemento relacionado con los indicadores integrales de la eficiencia energética solo alcanza una puntación de 2,86 debido a problemas en el diseño y concepción de estos indicadores. Se logran mejores resultados en los indicadores de eficiencia en el consumo de energía eléctrica y el consumo de combustible con 4 y 3,86 puntos respectivamente. Figura 3: Resultados de la variable indicadores de la eficiencia energetica. Los resultados de la variable planificación energética (electricidad, combustible y otros medios similares) se muestran en la figura 4, donde se observan valores bajos, siendo el establecimiento de la línea de base energética para los indicadores de la eficiencia energética el elemento más bajo con 2,43 puntos y el plan de consumo individual de equipos, instalaciones, procesos o actividades con 2,71 puntos. El análisis de las cargas energéticas de los equipos, instalaciones, procesos y actividades se evaluó con un promedio de 3,14 puntos, siendo muy bajo también. El único elemento con una evaluación de 4 puntos es el plan de consumo anual y mensual de la electricidad, combustibles y lubricantes y esto se debe en gran medida por la exigencia de los organismos superiores que controlan este aspecto. Figura 4: Resultados de la variable planificación energética (electricidad, combustibles y otros medios). Los resultados de la variable mantenimiento y/o reparación de equipos e instalaciones para mejorar el uso y consumo energético, se muestran en la figura 5 y se observa que los tres elementos obtienen la misma puntuación de 2,57 puntos. Existen problemas en el establecimiento del diseño y medición de los parámetros eléctricos, potencia activa trifásica (KW), el factor de potencia (-), la tensión (V), las corrientes de fase(A), no se incluyen el diseño e implementación de procedimientos y buenas prácticas en la gestión energética. Es muy bajo el nivel de los indicadores del diagnóstico de consumo, no se hace la valuación de proceso (KW VS horas), indicadores energéticos (eficiencia energética), valor monónico (costo en dinero por cada unidad de ventas o sea dinero que se abona versus KWh de un período). No se logra el diseño e implementación de Métodos, técnicas y organización de cada tipo de mantenimiento a ejecutar en la empresa. Figura 5: Resultados de la variable mantenimiento y/o reparaciónde equipos e instalaciones para mejorar el uso y consumo energético. En la figura 6 se muestran los resultados de la variable proyección de acciones de ahorro de energía eléctrica, que es la variable mejor evaluada. A pesar de lo anterior el elemento relacionado con la proyección de acciones específicas en las diferentes unidades y áreas organizativas para el ahorro de la energía alcanza un valor bajo de 3,29 puntos. Figura 6: Resultados de la variable proyección de acciones de ahorro de energía. En la figura 7 se muestran los resultados de la variable relacionada con la utilización y/o generación de energías limpias, donde se observa que es la variable de menor puntuación. El elemento relacionado con la generación de energías limpias solo alcanza 1,86 puntos, siendo el más bajo de todos. Es bajo la gestión para la generación de energía limpias o de nueva generación acorde a las posibilidades de la empresa. Es bajo el nivel de diagnóstico para la contratación del consumo de energías limpias y no se hace la evaluación para la generación de energía limpias o de nueva generación acorde a las posibilidades de la empresa. Figura 7: Resultados de la variable proyección de acciones de ahorro de energía. CONCLUSIONES 1. La gestión energética con un enfoque integral es esencial para las empresas cubanas que buscan mayores niveles de eficacia, eficiencia y competitividad. La calidad con que se realice la gestión energética en una empresa constituye una ventaja competitiva a partir de considerar los recursos energéticos como uno de los activos más importante para el funcionamiento de los procesos de producción de bienes y servicios. 2. Se logra una herramienta para evaluar la capacidad de gestión energética de la empresa que integra 6 variables: sistema de gestión energética, indicadores de la eficiencia energética, planificación energética (electricidad, combustibles y otros medios similares), mantenimiento y reparación de equipos, instalaciones para mejorar su uso o consumo energético, proyección de acciones de ahorro de energía, utilización y/o generación de energías energía limpias o de nueva generación. Estas variables se desglosan en 21 elementos. De igual forma constituye relevante que la lista de chequeo como instrumento de medición contiene una redacción de las buenas prácticas y los problemas lo que es muy importante para dar una evaluación de cada uno de los elementos. 3. La lista de chequeo se aplica en la Empresa Acinox Comercial con alto nivel de concordancia de los 7 expertos a los cuales se le aplicó y un alto nivel de fiabilidad del instrumento. Los resultados muestran un valor medio de capacidad de gestión energética de 3,13 puntos debido a las insuficiencias en la utilización y/o generación de energías limpias, los problemas en el mantenimiento y reparación de equipos e instalaciones en el uso y consumo energético, las deficiencias en la planificación energética y la insuficiente gestión energética basada en la NC ISO 50001. El estudio detallado de los elementos en cada una de las variables permitió encontrar otras insuficiencias más específicas que se deben de atender para mejorar la capacidad de gestión energética en la Empresa Acinox comercial. RECONOCIMIENTOS Los autores desean agradecer a los directivos de la Empresa Acinox comercial que posibilitaron el intercambio, la aplicación del instrumento así como las informaciones utilizadas en el estudio. REFERENCIAS  Piñeres Castillo, A., Cabello Eras, J. J., & Hinojosa Rivera, M. (2022). Factores determinantes para la evaluación de la eficiencia energética en las organizaciones: una visión desde las condiciones de Colombia. Revista Universidad y Sociedad, 14(2), 509-520.  BORROTO NORDELO, A.E., "Gestión y economía energética". Cienfuegos, Cuba: Editorial Universo Sur, 2006, ISBN 959-257-114-7.  LLOYD´S REGISTER, (2012). Global Energy Management Systems”. ISO 50001. Disponible en: http://www.pwc.com/mx/es/posteventos/archivo/2012-07-Foro-de-Gestion energetica-ISO-50001- 2.pdf  BORROTO NORDELO, A. E., “Tecnología de Gestión Total Eficiente de la Energía". Cienfuegos, Cuba: Editorial Universo Sur, 2009, ISBN 959-257-114-7.  International Organization for Standardization, "ISO/FDIS 50001: 2018. Energy management Systems - Requirements with guidance for use". ISO 50001: 2011, 2011, 31p.  Madrigal, J. A. (2012). Herramientas para la Planificación y Revisión Energética según la Norma ISO 50001 en procesos de producción y uso del vapor. Trabajo de Diploma, Universidad de Cienfuegos. ONN.  Oficina Nacional de Normalización (2019). Norma Cubana ISO 50001. Sistemas de gestión de la energía – requisitos con orientación para su uso.  FREIRE, Luigi O., RESABALA, Verny F., CASTILLO Jessica N., CORRALES, Byron P., (2019). Propuesta de un plan alternativo de optimización energética. Revista ESPACIOS. ISSN 0798 1015 Vol. 40 (Nº 30).  Martínez-Corral, A., Cárcel-Carrasco, J., Colmenero-Fonseca, F., Rafat, A., y Palmero, L. (2022). Estudio introductorio de la relación estratégica entre fiabilidad, mantenibilidad y eficiencia energética. 3C Tecnología. Glosas de innovación aplicadas a la pyme, 11(1), 71-87. https://doi.org/10.17993/3ctecno/2022.v11n1e41.71-87  Ministerio de energía de Chile, (2020). Guía de Apoyo Indicador de Eficiencia Energética 2020. Red de Expertos – Subsecretaría de Energía. División de Energías Sostenibles. Unidad Gestión de Información. Versión N° 1.1 – Abril 2020. EVALUACIÓN Y ANÁLISIS DE LA COMPETITIVIDAD EN LAS EMPRESAS DEL GRUPO GANADERO Dr. C. Yuniel Bolaño Rodríguez1, MsC. Norberto Espinosa Carro2, Ing. Mayllolis Fragas Chiu3, Ing. Pedro Raúl Aguilera López-Chávez4, Ing. María Alejandra Santovenia Sardón4 1Universidad Tecnológica de La Habana José Antonio Echeverría. Facultad de Ingeniería Industrial. Director del Centro de Estudios de Técnicas de Dirección. 2Grupo Empresarial Biocubafarma. Subdirector del CENPALAB. 3Empresa de Aseguramiento y Servicios Integrales a la Ganadería 4Universidad Tecnológica de La Habana José Antonio Echeverría. Graduado de Ingeniería Industrial 1e-mail: ybolanor@ind.cujae.edu.cu RESUMEN En este trabajo se realiza un análisis de las bases teóricas de la gestión de la competitividad empresarial en el contexto del sector de la ganadería, así como las variables y elementos de la competitividad. Se diseñó de un procedimiento para la evaluación y análisis de la competitividad de las empresas del Grupo Ganadero que incluye un instrumento de medición del nivel de competitividad de las empresas a partir de 4 componentes y 15 variables de la competitividad. Los resultados de la aplicación del procedimiento muestran la obtención de un ranking de 17 empresas del Grupo Ganadero por nivel general de la competitividad y la evaluación en cada uno de los 4 componentes de la competitividad: desempeño económico, comercial y de la satisfacción de los clientes, capacidad tecnológica y eficiencia de los factores productivos, desarrollo del conocimiento, la innovación y el extensionismo ganadero, capacidad gerencial de la ganadería. PALABRAS CLAVES: La competitividad de la empresa, gestión de la competitividad, evaluación de la competitividad empresarial, componentes y variables de la competitividad de la empresa ganadera. EVALUATION AND ANALYSIS OF THE COMPETITIVENESS IN THE COMPANIES OF THE ¨GRUPO GANADERO¨ ABSTRACT In this paper it is carried out an analysis of the theoretical bases of the administration of the Enterprise competitiveness in the context of the cattle enterprise, as well as the variables and elements of the competitiveness. It was designed of a procedure for the evaluation and analysis of the competitiveness in the companies of the ¨Grupo Ganadero¨. This procedure includes an instrument of mensuration of the level of competitiveness of the companies starting from 4 components and 15 variables of the competitiveness. The results of the application of the procedure show the obtaining of a ranking of 17 companies of the ¨Grupo Ganadero¨ for general level of the competitiveness and the evaluation in each one of the 4 components of the competitiveness: economic, commercial acting and of the satisfaction of the clients, technological capacity and efficiency of the productive factors, development of the knowledge, the innovation and the extension of good cattle practices, management capacity of the cattle raising. KEY WORDS: Enterprise competitiveness, administration of the competitiveness, evaluation of the managerial competitiveness, components and variables of the cattle enterprise competitiveness. 1. INTRODUCCIÓN El término competitividad ha sido abordado por una diversidad de autores (A. E. Aguilar, 2020; Altomonte, Ottaviano, & Aquilante, 2012; Bolaño, 2019; Castillo & Villalba, 2018; García-Ramírez, 2015; Porter, 1985; Siudek & Zawojska, 2014), quienes reconocen su valor para el desarrollo de las empresas y por tanto, para la sostenibilidad económica de cualquier país. En la última década, Cubaha reforzado el interés por lograr una gestión empresarial en función de la competitividad. Los documentos rectores del proceso de Actualización del modelo económico y social cubano establecen las directrices para el logro del Perfeccionamiento Empresarial. En estos marcos, la competitividad emerge como un concepto clave, dispuesto en los Lineamientos actualizados9,18, 22 y 122,de la Política Económica y Social del Partido y la Revolución (PCC, 2021). Un área de mucho impacto en la economía cubana es el Sector Agropecuario en el cual se quiere desarrollar una política ganadera, priorizando las especies vacuna, porcina y avícola, así como las bases de la sustentabilidad de la ganadería vacuna para lograr incrementar la producción de leche y carne con el uso eficiente de la mecanización y así mismo, desarrollar el ganado menor en el país como se plantea en el Lineamiento 122(PCC, 2021). También la Conceptualización del Modelo Económico y Social Cubano de Desarrollo Socialista y el Plan Nacional de Desarrollo Económico y Social hasta 2030, hace referencia a la competitividad empresarial y a cómo las empresas deben superarse y tener mayores metas y resultados en relación con elementos como: la exportación de productos y/o servicios, la seguridad alimentaria, la creación de fuentes de empleos, el incremento de la producción y la productividad, el fortalecimiento de la industria nacional y el desarrollo de la ciencia, la técnica y la innovación(m. C. PCC, 2016). En diferentes fuentes bibliográficas (E. Acosta, Murillo, & Ruíz, 2020; A. E. Aguilar, 2020; Giorgis, 2009) se mencionan varios problemas de la competitividad empresarial como se muestran a continuación:  Es insuficiente la gestión y resultados de la responsabilidad social empresarial visto como un concepto amplio.  A pesar de que se ha avanzado en la capacitación de directivos, en la práctica siguen predominando problemas en cuanto a estrategia y capacidad gerencial.  Las insuficiencias de los factores productivos, debido a los bajos niveles de encadenamientos productivos que existen entre sectores económicos.  Son insuficientes los resultados alcanzados a partir del potencial existente en las empresas, que revela un bajo desempeño económico y problemas con la calidad. Por otra parte en la literatura consultada se logra evidenciar la importancia de estudiar la competitividad empresarial en el sector agropecuario, en particular la ganadería (Acosta et al., 2017; Acosta et al., 2020; Aguilar, 2020; Laino, Laino, & Musálem, 2018; Martínez & Caro, 2019; Melendez, Martínez, & Vázquez, 2018). Con respecto al tema se encontraron varios elementos que distinguen el desempeño y desarrollo de las empresas ganaderas y que constituyen pasos para mejorar el nivel de competitividad. Al consultar la bibliografía se identificaron los siguientes elementos que evalúan el desempeño y desarrollo de las empresas de ganado mayor y menor:  Aumento del margen de rentabilidad y niveles de utilidad.  Equilibrio financiero y manejo de la situación financiera.  Rendimiento de los procesos de la cadena de valor.  Mejora de los niveles de satisfacción de los clientes.  Nivel de implementación del programa de desarrollo e innovación.  Nivel de gestión del uso y explotación de las TICs. En este sentido el Grupo Empresarial Ganadero (GEGAN) conformado por 89 empresas en su totalidad, tiene la responsabilidad de aumentar la producción de carne, huevo y leche para poder lograr la satisfacción de la demanda mínima de proteína de la población, disminuyendo crecientemente las importaciones. Por lo tanto en la presente investigación se busca incrementar la competitividad de las 47 empresas de ganado mayor y menor integradas a este Grupo. El Estado, el Gobierno y la sociedad en general exigen cada vez más a las empresas que se dedican a la producción alimentaria, en particular a las empresas dedicadas a la ganadería, que sean más competitivas a través del cumplimiento de sus planes, la generación de utilidades, sean más proactivas e innovadoras, que se sostengan financieramente y gestionen la adquisición de sus recursos, que exporten, que apliquen la ciencia, generalicen los resultados, con directivos más capacitados y competentes. A pesar de lo que espera el país en los resultados del sector de la ganadería es insuficiente el desarrollo de la competitividad como un enfoque de la gestión empresarial del Grupo Ganadero unido a diferentes problemas como el deterioro de la capacidad tecnológica, el bajo nivel de desempeño económico y comercial de las empresas, la poca satisfacción de los clientes que se quejan de la baja calidad de los productos, los bajos niveles de exportación y el insuficiente desarrollo del conocimiento, la innovación y el extensionismo ganadero. En relación a esto, este trabajo tiene como objetivo: elaborar un procedimiento para la evaluación y análisis de la competitividad en las empresas del Grupo Ganadero. 2. BASES TEÓRICAS PARA LA GESTIÓN DE LA COMPETITIVIDAD EMPRESARIAL. VARIABLES Y ELEMENTOS PARA SU EVALUACIÓN. 2.1 Gestión de la competitividad empresarial El concepto de competitividad se originó desde hace más de tres siglos, en los orígenes de las teorías del comercio. Con el paso de los años han existido muchos académicos e instituciones que han realizado estudios relacionados con este concepto y todo lo referido al tema. Todo ello ha aportado un nuevo conocimiento y una nueva perspectiva sobre lo que significa ser competitivo, tanto al nivel de país como de empresa (Benzaquen, Carpio et al. 2010, Martínez 2020). En el artículo National Competitiveness: Implications for Different Groups and Strategies, sus autores, Dong-Sung Cho and Hwy-Chang Moon, enuncian que las instituciones más populares que publican sobre la competitividad son el International Institute for Management Development (IDM) y el World Economic Forum (WEF). Ambos reportes de las instituciones poseen diferentes puntos de vista sobre la competitividad. El IDM la define como “la habilidad de un país de crear valor agregado e incrementar la riqueza nacional” (Cho and Moon 2005). La competitividad, según Porter, también puede ser expresada como la capacidad para mantener y elevar la participación de las empresas en los mercados internacionales y, a su vez, aumentar el nivel de vida de la población y que el camino más seguro para conseguirlo es aumentar la productividad (Porter 1985). La competitividad empresarial se define como la capacidad de las organizaciones de poder competir frente otras empresas de un mismo mercado, a través de sus estrategias empresariales, procesos de innovación, y la captación y gestión eficiente de sus recursos, conscientes de no afectar la calidad del producto, al igual que de una mayor flexibilidad que le permita adaptarse a los cambios del mercado de manera anticipada, para así aumentar su participación en el mercado, fidelizando clientes y atrayendo nuevos al ofrecerles mayor valor o satisfacción, esto les permite alcanzar una posición competitiva favorable, que permita un desempeño superior al de los competidores de manera sostenible y duradera (García 2012, Deniz, Seçkin et al. 2013, Abuzyarova 2017). La competitividad es parte importante en la toma de decisiones gerenciales en la medida en que se relaciona con la eficiencia y eficacia internas de la organización. La estrategia competitiva consta de alcanzar resultados positivos y encontrar ventajas competitivas, a través de sus métodos de producción y organización, para logara una diferenciación a nivel empresarial (García-Guiliany, Prieto-Pulido et al. 2016, Prieto-Pulido, García-Cali et al. 2017). Es importante que las ventajas competitivas que busquen las organizaciones sean sostenibles, y que exista una relación entre el rendimiento y potencial competitivo y el proceso de gestión. Las empresas deben ser capaces de alcanzar un estado, a largo plazo, de mejora continua de productividad, rentabilidad, eficacia y sostenibilidad misma. Esta actividad innovadora y de mejora continua aumenta la posibilidad del éxito de una empresa, y es la base para lograr un aumento del nivel de la competitividad. Son necesarias una capacidad de innovación tecnológica, la exploración y explotación de nuevos mercados, la calidad de sus bienes y servicios (Zizlavsky 2016, Herciu and Ogrean 2018, Galeana-Figueroa and Valenzo-Jiménez 2019). La competitividad es un hecho complejo, y lo complejiza la misma interacción de numerosos elementos propios de la estructura empresarial y alguno externos a la misma, que deben cumplir determinadas metas para alcanzar ese estado competitivo. Algunas de las prácticas que afectan negativamente ese aspecto son la pérdida de tiempos de trabajo de los empleados, la competencia desleal, incumplimientos de normativas internas de las empresas, algunas condiciones externas que puedan afectar el desempeño empresarial, problemas entre la relación empresa-cliente, entre otros (Ramírez-Tarazona 2016, Leyva- Carreras, Cavazos-Arroyo et al. 2018, Navarro-Silva, Ferrer-Reyes et al. 2018, Romero-Suárez, Pertuz et al. 2020). Sin embargo, las ventajas competitivas se pueden convertir en un arma que le posibilite a las empresas continuar generando valor. Una empresa es considerada rentable si el valor que puede generar es más elevado que los gastos en la producción del bien o servicio. Las empresas agrícolas, en el presente caso, las porcinas, poseen si propia cadena de procesos que genera valor, al que contribuye el trabajo por alcanzar un nivel de competitividad (Nava-Rogel, Cernas-Ortiz et al. 2017, AFANASIEVA, RODIONOV et al. 2018, Sánchez-Sánchez 2018, Sarmiento-Reyes and Delgado-Fernández 2020, Urday-Cáceres and Deroncele-Acosta 2020). 2.2 Variables y elementos para la medición de la competitividad empresarial En la literatura revisada, existe cierto consenso al afirmar que la competitividad es un concepto evolutivo y multidimensional, el cual se puede evaluar en diferentes niveles y dimensiones. Este trabajo se va a centrar en el nivel de empresa, para realizar la valoración competitiva en este nivel se requiere la identificación de una serie de indicadores que puedan responder las variables del desarrollo económico (Castellanos-Machado, Machado-Noa, & Castellanos-Castillo, 2017; Malega, Rudy, Kovac, & Kovac, 2019; Nava-Rogel, Cernas-Ortiz, & Becerril-Torres, 2017; Reyes & Fernández, 2020; Reyes, León, & Fernández, 2019). Cabe destacar que un sistema de indicadores de competitividad empresarial, debe ser capaz de medir la capacidad de la empresa de mantener ventajas competitivas. Es decir, el resultado de estrategias que tengan un impacto sobre la reducción de costos o bien, apuesten por la diferenciación para construir ventajas en el mercado (interno o externo)(Ivanova, Holionko, Tverdushka, Olejarz, & Yakymchuk, 2019). La Organización para la Cooperación y el Desarrollo Económicos considera que los elementos que contribuyen a la competitividad de la empresa son: la exitosa administración de los flujosde producción y de inventarios de materia prima y componentes; la integración exitosa de planeación de mercado, actividades de I+D, diseño, ingeniería y manufactura; la capacidad de combinar I+D interna con I+D realizada en universidades, centros de investigación y otras empresas; la capacidad de incorporar cambios en la demanda y la evolución de los mercados; y la capacidad de establecer relaciones exitosas con otras empresas dentro de la cadena de valor(A. C. Martínez, López, & Méndez, 2011). También el Centro de Estudios de Competitividad de México establece que la competitividad de la empresa se deriva de la ventaja competitiva que ella tiene en sus métodos de producción y de organización, en relación con los de sus rivales en un mercado específico. De manera clara también se plantea que, además de los factores internos que afectan la empresa, existen otras variables externas que tienen un impacto igualmente importante sobre la competitividad, que, a nivel de empresa, están constituidas por la concentración de mercado, la diferenciación de productos y los precios internacionales de los bienes producidos(A. C. Martínez et al., 2011). Existen varios procedimientos para medir la competitividad empresarial, uno de ellos es el método de estimación del índice de competitividad con el cual se consideran varias interacciones que ocurren entre los recursos y las capacidades en el nivel empresarial. Para su realización se llevan a cabo cinco pasos en los que se usan varias variables que se incluyen en diez pilares competitivos: capital humano, innovación de producto, mercado doméstico, redes de negocio, tecnología, toma de decisiones, estrategia competitiva, marketing, internacionalización y presencia online (Leiva, Moreno-Gómez, Szerb, & Lafuente, 2020; Szerb, Rideg, & Lafuente, 2016; Ubieta & Leiva, 2019). Otro de los modelos existente es el elaborado por Sarmiento-Reyes and Delgado-Fernández (2020) con el cual se pretende facilitarle a los directivos un instrumento que les permita monitorear el desempeño competitivo de la empresa a través de un grupo de variables pertenecientes a cinco dimensiones como se muestra en la tabla 1. Tabla 1: Dimensiones y variables de la competitividad empresarial. Fuente: Tomada de (Sarmiento- Reyes & Delgado-Fernández, 2020). Dimensión Variables Cliente – mercado Proveedores, clientes, satisfacción del cliente, nivel de conformidad, inserción en el mercado internacional Económico – financiera Indicadores financieros fundamentales, productividad Técnica Innovación de productos y servicios, eficiencia energética, capacidad instalada. Medioambiente Cultura ambiental, contravenciones. Social Recursos humanos, aporte a la seguridad social, apoyo al desarrollo comunitario, generación de empleo. Por su parte Valencia et al. (2015), nos presenta una serie de variables útiles para la medición de la competitividad como son: calidad, precio, tecnología, capacitación y canales de distribución. Estas variables las califica el autor como independientes, poniendo a la competitividad como la variable dependiente. También la propuesta de Saavedra-García (2012) nos muestra otra metodología con el que se realiza un análisis competitivo a las empresas utilizando un modelo de seis niveles conformados por diferentes componentes como se observa en la tabla 2. Tabla 2: Niveles de competitividad. Fuente: Tomada de (Saavedra-García, 2012). Niveles Componentes Nivel empresarial Estrategia corporativa y fortalezas competitivas, administración y organizaciones, sistema de información, recursos humanos y capacitación. Estrategia y gestión financiera Desempeño financiero, gestión de apoyos financieros, estrategia financiera. Nivel de mercado Estrategia de mercado, ventas y comercialización, servicio al cliente. Nivel tecnológico Estrategia tecnológica, mejora continua, adquisición y actualización de tecnología, asimilación de tecnología. Administración de operaciones Compras, gestión de calidad, operaciones y manufactura. Computo y tecnología de información Cómputo, comunicaciones, producción y logística, comercio electrónico. Después de analizadas las metodologías anteriores se evidencia que aunque se realizan los análisis mediante factores en una y niveles en la otra, ambas presentan elementos en común, como es el caso del análisis al mercado y sus estrategias a seguir, también a la tecnología y a los planes financieros. Además se observan diferencias notables, el procedimiento por factores no toma en cuenta a los clientes ni a la gestión de la calidad que son elementos de suma importancia a la hora de determinar el nivel de competitividad empresarial. 3. PROCEDIMIENTO PARA LA EVALUACIÓN Y ANÁLISIS DEL NIVEL DE COMPETITIVIDAD EN LAS EMPRESAS DEL GRUPO GANADERO. Para la evaluación y análisis del nivel de competitividad en las empresas del grupo ganadero se diseñó un procedimiento. Este consta de cuatro etapas que comprenden 10 actividades; desde la elaboración del instrumento de evaluación de la competitividad empresarial en la ganadería hasta el análisis de los resultados y la creación de un plan de acciones. Se representan las actividades en la figura 1. La primera Etapa del procedimiento consiste en el Diseño del instrumento de evaluación de la Competitividad Empresarial de la Ganadería. En la Actividad 1.1 se deben identificar los elementos, las variables y los componentes que son necesarios para evaluar la competitividad. Para ello es aconsejable, entre otras actividades, realizar encuentros y reuniones con los directivos para el aprovechamiento de sus conocimientos empíricos. En la Figura 2 se muestra cómo se estructuran los elementos, las variables y los componentes con el Nivel General de la Competitividad. Figura 1: Etapas y actividades para la evaluación y análisis de la competitividad de las empresas del Grupo Ganadero. En la Actividad 1.2 se realizará el diseño de la herramienta para medir la competitividad. Este consta de una lista de chequeo para determinar los puntos fuertes y débiles, respecto a los componentes, variables y elementos identificados en el paso anterior. Con cada elemento se describen 5 comportamientos o resultados de la empresa. A cada una se le asocia una puntuación del 1 al 5. La puntuación 5 representa la mejor puntuación para la empresa o Excelente, la puntuación 4 se identifica con Bien, la puntuación 3 con Regular, la puntuación 2 con Mal y la puntuación 1 con Muy Mal, siendo la más baja para la empresa. También se debe programar una herramienta en Microsoft Excel donde se recogerán todas las evaluaciones, y la que calculará de forma automática el resultado final con los datos insertados. Esta herramienta está compuesta por diferentes columnas, donde son solicitados diferentes datos. A medida que se complete, los cálculos se realizarán y se llegará a un resultado final. Figura 2: Estructura de componentes y variables para la evaluación del nivel de competitividad de las empresas del Grupo Ganadero. Para evaluar los componentes y llegar al resultado final, se necesitará otorgarle un peso específico a cada componente. Para ello se pueden utilizar diferentes herramientas, según sea la más conveniente a la hora de conformar la totalidad de la herramienta. La evaluación de los elementos se estableció como una puntuación del 1 al 5, siendo la 1 la puntuación más baja y la 5 la más alta, es ofrecido por la propia empresa a cada uno de los elementos que se estime conveniente evaluar. La Lista de Chequeo a elaborar, debe contener una descripción de las condiciones que se deben cumplir para puntuar cada elemento. La columna medición de las Variables de la Competitividad se calculará hallando el promedio de las puntuaciones ofrecidas a cada uno de los elementos que componen una variable, sin límite de elementos. La columna Componentes se calculará con el promedio de los resultados de la medición de las Variables de la Competitividad. El peso específico deberá ser definido por un grupo de expertos, tanto en materia científica como de directivos del Grupo Ganadero. El Valor de los Componentes será el resultado de la multiplicación de las columnas Componentes y peso específico. Por último, el Nivel General de la Competitividad de la Empresa Ganadera es el resultado final, y el valor que encierra a todos los elementos, las variables y los componentes. Se calcula con el promedio de cada uno de los Valores de los Componentes. En la Actividad 2.1 se llevarán a cabo capacitaciones a los directivos de las distintas empresas donde deberá ser aplicada la herramienta, para instruirlos y familiarizarlos con los nuevos conceptos de competitividad y los puntos que se deben llenar en la lista de chequeo. Es necesario que los directivos posean un dominio de la herramienta para que el proceso se lleve a cabo correctamente y para que luego ese conocimiento sea transmitido a los demás trabajadores de las diferentes empresas. Con ello se deberá informar a los trabajadores vinculados a la aplicación de la lista de chequeo sobre de que se tratará el procedimiento, el objetivo del mismo y los resultados que se esperan lograr. La Actividad 2.2 consistirá en la distribución en las empresas de las herramientas elaboradas anteriormente. Estas se deben entregar a los Consejos de Dirección, los que serán los encargados de liderar la tarea. Se continuará con la Etapa 3, que comprende la aplicación del instrumento y valoración de los resultados. La Actividad 3.1 constituirá la aplicación de la lista de chequeo en las empresas. Para ello se utilizará el documento elaborado en la Etapa 1, con los elementos a los que se le debe dar puntaje según la situación de la empresa. Este paso se realizará a través de una autoevaluación usando la herramienta Excel distribuida anteriormente. Con los números insertados el documento ya programado calculará el resultado de las variables y los componentes. Se deberán planificar los Consejos de Dirección que sean necesarios para discutir y puntuar todos los elementos que integrarán la Lista de Chequeo. La planificación de estas reuniones quedará bajo el criterio de cada organización. La Actividad 3.2 constará de recoger todas las autoevaluaciones dadas por las empresas. Esta actividad podrá tardar varios días si el volumen de empresas a evaluar es elevado, por lo que la información se recogerá de forma gradual. Para la presente actividad y para la anterior se pueden crear vínculos con aplicaciones de mensajería, como WhatsApp, Telegram, Messenger, o grupos de correos electrónicos donde se intercambiará el progreso en cuanto a la realización de la tarea, videos o fotos de los Consejos de Dirección, y también los resultados finales de la herramienta. Estas acciones deben contribuir a alentar a las demás empresas del grupo a evaluarse en sus respectivos avances. Además serán útiles los grupos para contrarrestar o minimizar el impacto de cualquier eventualidad. En la Actividad 3.3 se deberá realizar un procesamiento estadístico de la información recibida. Para ello se organizará en otro documento Excel los valores finales de las variables y los componentes de cada empresa. La Actividad 3.4 constará de, luego de procesar esos datos, elaborar un grupo de rankings, la cantidad que sea necesaria, para diagnosticar la situación respecto a la competitividad de cada una de las empresas a evaluar. Uno indispensable será el del Nivel General de la Competitividad. Se pueden elaborar también de variables, componentes, por empresa, entre otros. Se deben agrupar a conveniencia: por división, por región, etc. Luego de realizada esta actividad, se procederá a la Etapa 4, que comprende el diseño de un plan de acciones. En la Actividad 4.1, ya con el resultado de la elaboración de los rankings se deberán establecer dónde se encuentran las oportunidades de mejora competitiva de las distintas empresas. En qué variables o componentes poseen una puntuación más baja, dónde están más concentradas las variables de menor desempeño y las limitantes de la competitividad. En la Actividad 4.2 se elaborará un Plan de Acciones General para mejorar la competitividad, el que constará con Acciones y Actividades; cada una con un responsable, participantes y una fecha de cumplimiento. En la Tabla 3.2 se observa cómo deberá quedar conformado el plan de acciones. 4. RESULTADOS A partir de la aplicación del instrumento se logró la evaluación del nivel general de competitividad en 17 empresas del Grupo Ganadero, como se muestra en la tabla 3. Tabla 3: Ranking del Nivel General de Competitividad. Posición Empresas Nivel general de competitividad Desempeño económico, comercial y de la satisfacción de los clientes Capacidad tecnológica y eficiencia de los factores productivos Desarrollo del conocimiento, la innovación y el extensionismo ganadero Capacidad gerencial de la ganadería 1 EP El Cangre 4.16 3.63 4.33 4.39 4.47 2 Integral Las Tunas 4.12 3.78 4.07 4.48 4.37 3 EPG Manuel Fajardo 3.89 4.13 3.55 3.58 4.34 4 EP Managuaco 3.75 3.25 3.58 4.09 4.45 5 EPG Camilo Cienfuegos 3.71 3.88 3.53 3.92 3.53 6 EPG Los Naranjos 3.68 3.67 3.27 3.89 4.11 7 EP El Tablón 3.6 3.2 3.62 3.61 4.18 8 Inseminación Artificial 3.59 3.65 3.17 3.7 4 9 EP Venegas 3.2 3.1 3 3.28 3.65 10 EP La Sierrita 3.19 2.91 3.02 3.44 3.6 11 EP Genética del Este 3.18 3.52 2.8 3.08 3.33 12 EP Ganadera Camagüey 2.9 2.72 2.87 2.75 3.37 13 EGAME 2.73 2.55 2.4 3 3.23 14 EP Punta de Palma 2.57 2.6 2.45 2.73 2.53 15 Empresa Ganadera Isla de la Juventud 2.44 2.35 2.31 2.28 2.91 16 Integral Santiago de Cuba 2.28 2.65 2.12 2.01 2.23 17 EPA Rectángulo 2.12 1.95 2.14 2.1 2.36 Se elaboró el diseño de un Perfil Estratégico para las empresas de la división. Para su realización se tomaron 7 empresas como muestra de las 17 analizadas, ver figura 3. Como se observa en el Perfil Estratégico realizado, las empresas EP El Cangre e Integral Las Tunas presentan fortalezas en la mayoría de variables analizadas, únicamente siendo débil su nivel competitivo en calidad y satisfacción de los clientes, en el caso de El Cangre. Por otra parte la empresa EPA Rectángulo presente un débil nivel competitivo en todas las variables, y la Empresa Ganadera Isla de la Juventud en la mayoría de ellas. En cuanto a las variables que merecen una especial atención se encuentran: Desempeño económico – financiero de la ganadería; Participación en el mercado cubano y la exportación de productos y subproductos de la ganadería; Calidad y satisfacción de los clientes; Infraestructura e inversiones; Tecnologías utilizadas en la ganadería y competencia y desempeño de los recursos humanos. Todas estas variables presentan un gran número de empresas con un débil nivel de competitividad, y en algunos casos niveles medios con baja puntuación por lo que es necesario realizar acciones para aumentar el nivel de las empresas en dichas variables. Figura 3: Perfil estratégico de la competitividad para siete empresas de las analizadas. Fuente: Elaboración propia. CONCLUSIONES 1- Se diseñó un procedimiento para la evaluación y análisis de la competitividad de las empresas del Grupo Ganadero que contiene 4 etapas y 10 actividades. Se elaboró un instrumento de medición del nivel general de la competitividad de las empresas del Grupo Ganadero a partir de 4 componentes y 15 variables de la competitividad. 2- Los 4 componentes que se determinaron como bases para la evaluación de la competitividad son: Desempeño económico, comercial y de la satisfacción de los clientes, Capacidad tecnológica y eficiencia de los factores productivos, Desarrollo del conocimiento, la innovación y el extensionismo ganadero, Capacidad gerencial de la ganadería. 3- Los resultados de la aplicación del procedimiento muestran la obtención de un ranking de 17 empresas del Grupo Ganadero por nivel general de la competitividad y la evaluación en cada uno de los 4 componentes de la competitividad. A partir de los resultados obtenidos se pudo realizar un análisis de perfil estratégico con 7 empresas incluyendo de las mejores y las peores evaluadas en el nivel general de la competitividad. RECONOCIMIENTOS Los autores desean agradecer a los directivos del Grupo Empresarial Ganadero que posibilitaron el intercambio, la aplicación del instrumento en las empresas seleccionadas así como las informaciones utilizadas en el estudio. REFERENCIAS  Aguilar, A. E. (2020). El enfoque de Cadenas de Valor Sostenibles como estrategia para el aumento de la competitividad del sector ganadero en Colombia.  Altomonte, C., Ottaviano, G., & Aquilante, T. (2012). The triggers of competitiveness.  Bolaño, Y. (2019). Sistema y capacidades de Dirección y Gestión de las Empresas. Castillo, A. B., & Villalba, W. G. (2018). Gestión empresarial y competitividad en la mipymes del centro comercial Nueva Colombia de la Ciudad de Cartagena.  García-Ramírez, O. (2015). Competitividad, concepto e importancia.  Porter, M. (1985). Competitive Advantage. Creating and Sustaining Superior Peifonnance.  Siudek, T., & Zawojska, A. (2014). Competitiveness in the economic concepts, theories and empirical research.  PCC. (2021). Conceptualización del Modelo Económico y Sociual Cubano de Desarrollo Socialista. Lineamientos de la Política Económica y Social del Partido y la Revolución para el período 2021- 2026.  Aguilar, R., Bu, A., Dresdner, J., Fernández, P., González, A., Polanco, C., & Tansini, R. (2004). La ganadería en Cuba: desempeño y desafíos.  Acosta, E., Murillo, C., & Ruíz, R. (2020). Factores que inciden en la competitividad de las empresas agrícolas del Valle del Yaqui en Sonora, México.  Giorgis, A. O. (2009). Factores que afectan la competitividad de las empresas agropecuarias de la zona norte de la provincia de La Pampa (Argentina).  Acosta, A., Roche, J. B., Wong, Á. B., Domínguez, P. F., León, L. M., Valiente, C. M., & Valdés, A. (2017). Estudio de competitividad de la producción lechera cubana.  Laino, L. D., Laino, I., & Musálem, K. (2018). Comercio Internacional y Competitividad de la Producción Ganadera en Paraguay.  Martínez, A. P., & Caro, J. E. (2019). Competitividad en el sector ganadero en Colombia. Enfoque desde la historiografía económica, social y empresaria.  Melendez, E. D., Martínez, A. R., & Vázquez, V. S. (2018). Competitividad de la ganadería de doble propósito en la Costa de Oaxaca, Mexico.  Benzaquen, J., et al. (2010). "Un Índice Regional de Competitividad para un país." CEPAL 102.  Cho, D.-S. and H.-C. Moon (2005). "National Competitiveness: Implications for Different Groups and Strategies." International Journal of Global Business and Competitiveness 1.  Saavedra-García, M. L. (2012). Una propuesta para la determinación de la competitividad en la pyme latinoamericana. Pensamiento & Gestión(33).  Martínez, J. M. M. (2020). "Análisis de las variables que afectan la competitividad en el Departamento del Cesar."  Deniz, M., et al. (2013). "Micro-economic competitiveness: a research on manufacturing firms operating in TRB1region."  Abuzyarova, M. I. (2017). "Corporate innovation system anagement as a competitiveness actor: Methodological approaches." Espacios 38(12).  García-Guiliany, J., et al. (2016). "Competitividad en PyMES de confección textil: Una perspectiva desde las habilidades humanas de sus directivos."  Prieto-Pulido, R. A., et al. (2017). "Proceso de planificación estratégica: Etapas ejecutadas en pequeñas y medianas empresas para optimizar la competitividad." Espacios 38(52).  Zizlavsky, O. (2016). "Innovation performance measurement: research into Czech business practice." 29(1).  Herciu, M. and C. Ogrean (2018). "Business sustainable competitiveness - A synergistic, long-run approach of a company's resources and results."  Galeana-Figueroa, E. and M. Valenzo-Jiménez (2019). "Caso Introductorio La competitividad como estrategia de crecimiento en las organizaciones."  Ramírez-Tarazona, J. (2016). "Factores éticos que influyen en la competitividad de las empresas en el departamento del Quindío, Colombia." Cuadernos de administración 32(55).  Leyva-Carreras, A., et al. (2018). "Influencia de la planeación estratégica y habilidades gerenciales como factores internos de la competitividad empresarial de las Pymes." Contaduría y Administración 63(3).  Navarro-Silva, O., et al. (2018). "La calidad como factor estratégico en el desarrollo competitivo de las pequeñas y medianas empresas." Revista Científica de la Universidad de Cienfuegos 10(2).  Romero-Suárez, D., et al. (2020). "Factores determinantes de competitividad e integración organizacional: revisión sistemática exploratoria." Información Tecnológica 31(5).  Nava-Rogel, R., et al. (2017). "Indicador de competitividad municipal en el Estado de México para construir un entorno competitivo." 17 54.  AFANASIEVA, N. V., et al. (2018). "System of indicators of coal enterprise competitiveness assessment." Espacios 39(36).  Sánchez-Sánchez, F. (2018). "Evaluación de los factores de competitividad empresarial en el Departamento del Vaupés, Colombia." Revistas Científicas de la Universidad de Guadalajara.  Sarmiento-Reyes, Y. and M. Delgado-Fernández (2020). "Dimensiones y variables de competitividad para un mejor desempeño empresarial."  Sarmiento-Reyes, Y. and M. Delgado-Fernández (2020). "Medición de la competitividad empresarial para el desarrollo territorial." COODES 8(3).  Urday-Jauregui, C. and P. Cerberos-Gutiérrez (2017). "La gestión logística y su influencia en la competitividad en las PYMES del sector construcción importadoras de maquinarias, equipos y herramientas del distrito de Puente Piedra."  Castellanos-Machado, C. A., Machado-Noa, N., & Castellanos-Castillo, J. R. (2017). Evaluación de los factores de competitividad en la provincia de Villa Clara.  Malega, P., Rudy, V., Kovac, J., & Kovac, J. (2019). The competitive market map as the basis for an evaluation of the competitiveness of the Slovak Republic on an international scale.  Reyes, Y. S., León, Y. L., & Fernández, M. D. (2019). La competitividad, premisa importante para el desarrollo empresarial. Diseño experimental, sector alimenticio de Holguín.  Ivanova, A. S., Holionko, N. G., Tverdushka, T. B., Olejarz, T., & Yakymchuk, A. Y. (2019). The strategic management in terms of an enterprise’s technological development.  Martínez, A. C., López, P. L., & Méndez, C. R. (2011). La competitividad empresarial: un marco conceptual para su estudio.  Leiva, J. C., Moreno-Gómez, J., Szerb, L., & Lafuente, E. (2020). A non-parametric analysis of competitiveness efficiency: The relevance of firm size and the configuration of competitive pillars.  Szerb, L., Rideg, A., & Lafuente, E. (2016). A System Dynamics Approach for Assessing Business Competitiveness.  Ubieta, S. A., & Leiva, J. C. (2019). Business competitiveness in Costa Rica: A multidimensional approach.  Valencia, J. B., Torres, A. I. Z., & Paniagua, C. F. O. (2015). Variables e Índices de Competitividad de las Empresas Exportadoras, utilizando el PLS. GESTIÓN DEL PROCESO DE CAPACITACIÓN, ALTERNATIVA DE PROPUESTA DE DIAGNÓSTICO Management of the training process, alternative diagnosis proposal Dr.C. Ernesto Edelberto Hernández Calderín1, Ms. Dir. Ricardo Claro González2, Lic. Sarais Rodríguez Pileta3, Ing. Ind. Ingrid Sanz Pedraja4 1 Profesor Titular, Centro de Estudio Técnicas de Dirección, Facultad de Ingeniería Industrial, Universidad Tecnológica de la Habana – CUJAE, ernesto@ind.cujae.edu.cu 2 Profesor Asistente, Empresa de Soluciones Mecánicas de la Construcción – SOMEC, ricard0@somec.cu 3 Jefe de Departamento de Recursos Laborales, Grupo Empresarial Materiales de la Construcción – GEICON, sarais@oc.geicon.cu 4 Directora Adjunta Centro de Desarrollo de Normas y Costos de la Construcción – CDNCC, Ministerio de la Construcción – MICONS, isanz@cdncc.micons.gob.cu RESUMEN En Cuba, la superación de los trabajadores de forma general, es prioridad, fomentando la educación con la creación de escuelas de capacitación y la instauración (2011) de la Escuela Superior de Cuadros del Estado y Gobierno (ESCEG), acompañada de una estrategia y un cuerpo legislativo, sobre la base de la bibliografía más actualizada y el empleo de métodos, técnicas y herramientas de enseñanza científica. El presente trabajo tiene como objetivo exponer los resultados en la aplicación de herramientas de diagnóstico de la gestión del proceso de capacitación en una organización del sector de la construcción en Cuba. Se comenzó por una revisión documental y bibliográfica, relacionada con los aportes de investigaciones recientes, en el empleo de herramientas de diagnóstico para la gestión del proceso de capacitación en organizaciones empresariales. Los métodos y técnicas utilizados para el diagnóstico se concretan en herramientas, tales como: Matriz de relación interna (NISDEint), matriz DAFO, diagrama Ishikawa, entre otros. La valoración de los resultados constituye los aportes de la actividad investigativa desarrollada. Se identificaron, con el uso de herramientas de diagnóstico, una serie de deficiencias que afectan la correcta gestión del proceso de capacitación en una organización del sector de la construcción. Los resultados en la aplicación de herramientas de diagnóstico demostraron que existen insuficiencias en la gestión del proceso de capacitación en la organización objeto de estudio, fundamentalmente en lo relacionado al Diagnóstico de las Necesidades de Capacitación y en la evaluación de su impacto. PALABRAS CLAVE: Diagnóstico, proceso, gestión, capacitación. ABSTRACT In Cuba, the improvement of workers in general is a priority, promoting education with the creation of training schools and the establishment (2011) of the Superior School of State and Government Staff (ESCEG), accompanied by a strategy and a legislative body, based on the most up-to-date bibliography and the use of scientific teaching methods, techniques and tools. The objective of this work is to expose the results in the application of diagnostic tools for the management of the training process in an organization of the construction sector in Cuba. It began with a documentary and bibliographic review, related to the contributions of recent research, in the use of diagnostic tools for the management of the training process in business organizations. The methods and techniques used for the diagnosis are specified in tools, such as: Internal relationship matrix (NISDEint), SWOT matrix, Ishikawa diagram, among others. The evaluation of the results constitutes the contributions of the developed investigative activity. With the use of diagnostic tools, a series of deficiencies were identified that suppress the correct management of the training process in an organization of the construction sector. The results in the application of diagnostic tools show that there are insufficiencies in the management of the training process in the organization under study, mainly in relation to the Diagnosis of Training Needs and in the evaluation of its impact. KEYWORDS: Diagnostic; strategic projection; evaluation of the impact of training. I. INTRODUCCIÓN: La capacitación en las empresas contribuye al crecimiento profesional y el bienestar de las personas. Indistintamente, en la literatura se abordan los términos: preparación, capacitación, formación y superación; sin embargo, aunque cada término tiene sus particularidades, es reconocida la estrecha interrelación que existe entre ellos, pues constituyen procesos esenciales dirigidos a incrementar conocimientos, habilidades, actitudes, para el crecimiento humano y profesional de las personas, pero todos ellos parten desde la base de la capacitación como elemento central; de modo que se revierta en el mejoramiento del desempeño; es por ello, que el sistema empresarial cubano requiere de directivos y trabajadores cada vez más preparados y capaces de introducir e implementar de forma exitosa las transformaciones necesarias para el desarrollo organizacional. Numerosos y variados son los trabajos que han contribuido a la mejora de la gestión del proceso de capacitación, resultado de tesis para optar por los títulos académicos de doctores y máster, que han aportado soluciones organizacionales a los problemas que aún subsisten; así como las diversas tesis para diplomados en gestión empresarial y administración pública para el sector empresarial cubano que abordan diversas aristas del tema (Cuesta, 2008; Padrón, 2011; Claro, 2018; Márquez, 2018; entre otros). La capacitación debe concebirse como un proceso de inversión en la preparación, superación y desarrollo “integral, sistemático, continuo y sostenido”, estando en correspondencia con los objetivos estratégicos de cada organismo y organización, constituyendo un medio para desarrollar las competencias y destrezas que los trabajadores necesitan, lo que permitirá contribuir con el cumplimiento exitoso de dichos objetivos y una mejor gestión de cambio, dando respuesta a los acelerados avances científicos y tecnológicos, en que se encuentra inmersa la sociedad en el nuevo milenio. En los últimos años se han presentado nuevas políticas del Gobierno y Estado cubano que juegan un papel rector para la gestión del proceso de capacitación de los cuadros y sus reservas, así como de todos los trabajadores en forma general, fundamentando la necesidad de desarrollar la capacitación (Estado, C. 2017; Estado, C. 2021; Comunista de Cuba, P. 2021; entre otros). En correspondencia con los argumentos expresados, el objetivo planteado por los autores, parte de la necesidad de socializar los resultados de la aplicación de herramientas de diagnóstico para la determinación de las insuficiencias que aún subsisten en la gestión del proceso de capacitación que se desarrolla en las organizaciones empresariales de GEICON. En breve síntesis son resumidos los resultados de una investigación de mayor alcance, donde se abordan las trasformaciones más relevantes que se han desarrollado en este campo, todo ello organizado en una estructura piramidal de investigaciones que abarca una tesis doctoral, dos tesis de maestría y tres trabajos de diploma, asesorados por especialistas del CETDIR y del MICONS que desarrollan su actividad investigativa en la Universidad Tecnológica de La Habana, CUJAE. II. MÉTODOS  Se realizó una revisión documental y bibliográfica sobre la gestión del proceso de capacitación.  Se evaluaron los resultados de consultorías y asesorías, tesis de maestría y doctorado; así como se analizó la información disponible en el período de los años del 2017 al 2021 de GEICON.  A partir de lo anterior se determinaron los métodos teóricos de investigación (análisis-síntesis, inducción- deducción, histórico-lógico y enfoque de sistema), el empírico (encuesta y observación directa) y como herramientas, están: Herramienta de diagnóstico de Melo, Matriz DAFO, NISDEint y el Diagrama Ishikawa. Las herramientas se ajustaron a las características del trabajo, se determinaron las variables e indicadores que posibilitaron mayor objetividad en la valoración de los resultados del diagnóstico de la gestión del proceso de capacitación, todo ello como resultado de una investigación que adopta la estructura piramidal de referencia en la introducción. III. RESULTADOS El diagnóstico para el análisis de la situación actual de la gestión del proceso de capacitación se desarrolló en el Grupo Empresarial de Materiales de Construcción, GEICON. El análisis de los resultados de la aplicación de los métodos, técnicas y otras herramientas de diagnóstico aportó valiosas experiencias relacionadas con: 1.- La caracterización de la organización; 2.- La caracterización del personal de la organización; y 3.- El análisis de la gestión del proceso de capacitación del personal de la organización objeto de estudio. A continuación, se describen los resultados de la aplicación de los métodos y técnicas de diagnóstico para la determinación de la situación actual de la gestión del proceso de capacitación en la organización de referencia. 1. Caracterización de la organización Hasta la fecha, la organización objeto de estudio la integran 41 empresas estatales y 1 oficina central, que dirige, coordina y controla lo establecido en la legislación vigente en cuanto a la producción de materiales de construcción y exportación a nivel nacional. Para ello tiene como: Misión: Asegurar la producción y comercialización de materiales de construcción, para el desarrollo constructivo del país, garantizando un incremento sostenido en cantidades, variedad de surtidos y calidad. Visión: Ser líderes en la producción de materiales de la construcción altamente competitivos que reduzca las importaciones e incremente los niveles de exportación. La organización cuenta con una estructura ejecutiva en su nivel central y una atención metodológica a las 41 empresas que la integran, para lo cual se constituye el Consejo de Directores Generales de poco más de 60 miembros. 2. Caracterización del personal de la organización Para la caracterización del personal de la organización y de la gestión del proceso de capacitación se aplicó la herramienta de diagnóstico de Melo (2015) de la Empresa GECYT. Se cuenta con un total de 14579 trabajadores, distribuidos por categorías ocupacionales como muestra el siguiente gráfico: Gráfico 1. Distribución de trabajadores por categoría ocupacional. Fuente: Elaboración propia Donde 2117 son graduados de Nivel Superior, 3325 Técnicos Medios, 3579 de Nivel Medio Superior, 4753 Nivel Medio y 805 en otros niveles. A continuación, se presenta la distribución de los trabajadores por rango de edades como se presenta en el gráfico 2. Gráfico 2. Distribución de trabajadores por rango de edades. Fuente: Elaboración propia El rango de edad con mayores cifras está enmarcado en las edades de 40-59 años con 8603 trabajadores que representa el 59 por ciento del total que integra la organización, esto evidencia el envejecimiento de la fuerza de trabajo, siendo las categorías ocupacionales de cuadros y operarios las que más inciden. 3. Análisis de la gestión del proceso de capacitación del personal de la organización Para hacer una evaluación de la gestión del proceso de capacitación se aplicaron algunas herramientas de diagnóstico, mencionadas en los métodos. Aplicación de la herramienta de diagnóstico de Melo. La gestión del proceso de capacitación, se realizó a partir del uso de la herramienta de diagnóstico de Melo (2015), seleccionada para facilitar al gestor de capital humano la aplicación de la tecnología de diagnóstico del Sistema de Gestión Integrada de Capital Humano (SGICH). Esta herramienta constituye la representación gráfica soportada en Excel de los requisitos de las familias de normas NC-3000. Los resultados alcanzados se muestran en la tabla 1: Tabla 1. Resultado por la aplicación de la herramienta de diagnóstico de Melo. Módul o Pregunt a Evaluación Capacitación y Desarrollo 1 33,33 % 44,44% 20 2 66,67 % 3 33,33 % Fuente: Elaboración propia Como resultado de la aplicación de esta herramienta se evidencia que la evaluación es baja, porque de las tres preguntas, dos de ellas (1 y 3) tienen respuestas con impactos bajos y solamente una (la 2) tiene respuesta con un impacto medio. Análisis y determinación del nivel de integración interno del sistema de dirección de la empresa La primera etapa se desarrolla a partir de la interrelación en una matriz de relaciones internas donde se tienen las distintas etapas de la gestión del proceso de capacitación y los procesos identificados en el sistema de dirección y gestión empresarial. Todo ello basado en las investigaciones desarrolladas por Alfonso, D. (2007), que establece la evaluación del nivel de integración (NISDE) externo e interno, lo que permite inferir sobre las relaciones externas e internas del sistema de dirección de una empresa. En cada una de las celdas se evalúa la importancia (1≤ I ≤5) y el desempeño (1≤ D ≤5), así como su relación para la gestión del proceso de capacitación. Las relaciones con I ≥ 3 son relaciones importantes (RI) y de estas las que cumplen con D ≤ 3 son relaciones críticas (RC). A partir de la aplicación de la matriz se obtienen los resultados de la tabla 2. Tabla 2. Resultado de las relaciones internas entre las etapas de la gestión del proceso de capacitación y los procesos claves de la organización. NISDE Total Interno Relaciones Críticas Relaciones Importantes NISDEint.=1-(RC/RI) RC=6 5 RI=12 0 NISDEint.=1-(65/120) NISDEint.=0,46 Fuente: Elaboración propia Según el análisis de los resultados de la matriz de relaciones internas se obtiene un nivel medio bajo de integración interna (NISDE interno = (0,46). Aplicación de la Matriz DAFO Otra herramienta de utilidad para el diagnóstico fue la matriz DAFO, con la dinámica de participación de un grupo de trabajo interno y con información actualizada para definir las fortalezas, debilidades, amenazas y oportunidades a partir del PEST1.Se determinaron los elementos de fuerza de la matriz DAFO. Además, para reducir y evitar las complejidades innecesarias se trabajó con 5 entradas para cada elemento, obteniendo un número de 100 combinaciones con el empleo del factor doble de ponderación y, de esta manera, lograr un trabajo más organizado y homogéneo en la confección de la matriz. Para la evaluación del impacto se estableció una escala de 1- 5, según criterio de relación o impacto de cada especialista, donde 1 es la relación más débil y 5 la relación más fuerte. Los resultados de la ponderación de la matriz DAFO se observan a continuación: Figura 1. Resultado final de la Matriz DAFO por cuadrantes. Fuente: Elaboración propia Como se observa en los resultados de la ponderación de la matriz DAFO con el factor doble de ponderación, la organización se ubica en el CUARTO CUADRANTE, donde concurre la mayor interacción de las DEBILIDADES con las OPORTUNIDADES, constituyendo esta una zona de freno para lo cual se debe trazar una estrategia de desbloqueo, minimizar las debilidades presentes y aprovechar las oportunidades. Se debe tener en cuenta, que el SEGUNDO CUADRANTE, donde concurre la interacción de las AMENAZAS con las FORTALEZAS refleja un resultado elevado, por tanto, se debe considerar la inmediata toma de acciones que disminuyan el efecto de las amenazas. Diagnóstico de las competencias laborales Aplicación de la Herramienta de Melo (2015) para el diagnóstico de las competencias laborales El diagnóstico de las competencias laborales, según esta herramienta, nos aporta el resultado que se muestra en la tabla No. 3 Tabla 3. Resultado por la aplicación de la herramienta de diagnóstico de Melo. Módul o Pregunt a Evaluación Competencias Laborales 1 33,33 % 44,44% 20 2 66,67 % 3 33,33 % Fuente: Elaboración propia Como resultado de la aplicación de esta herramienta se evidencia que la evaluación es baja, porque de las tres preguntas, dos de ellas (la 1 y 3) tienen respuestas con impactos bajos y solamente una (la 2) tiene respuesta con un impacto medio. Aplicación de encuesta a los cuadros y trabajadores de la organización La aplicación de la encuesta persigue el objetivo de valorar opiniones y posibles propuestas de cambios a considerar para la mejora de la gestión del proceso de capacitación. Este instrumento se aplicó a una muestra de cuadros y trabajadores de la organización objeto de estudio. Está estructurada por 10 preguntas, las preguntas 1 y 2 tienen varios indicadores de respuesta, la primera tiene siete indicadores relacionados con la evaluación del desempeño, donde el valor de 1 es el más importante y 7 menos importante; la segunda tiene indicadores relacionados con los objetivos de la evaluación del desempeño donde solo tiene respuestas de “Verdadero o Falso”; mientras que de la 3 a la 10 solo se tiene una opción de respuesta que son “SI o No”. 1Político, económico, social y tecnológico. Gráfico 3. Indicadores de la encuesta a los cuadros y trabajadores de la organización. Fuente: Elaboración propia El gráfico 3 muestra los resultados de la encuesta aplicada a cuadros y trabajadores, resultando que: los indicadores que se toman para la evaluación del desempeño y su nivel de prioridad, el 88.6 por ciento del total de los encuestados concuerdan en que el indicador “resultados del trabajo” es el de mayor prioridad, mientras que el 71.4 por ciento marcó como de menor importancia el indicador “por los resultados de la preparación”; en la evaluación del desempeño el 40 por ciento afirmó que se utiliza para ser promovidos y cien por ciento se manifiesta para la permanencia en el cargo; además, el 91.4 por ciento reconoce que ha recibido capacitación; solo al 8.6 por ciento se le ha determinado las necesidades de capacitación; el 91 por ciento ha recibido capacitación durante el último año de efectuada la encuesta (con fecha junio de 2021); el 77 por ciento se incorporó al Diplomado de Dirección Empresarial; los encuestados mostraron motivación por haber cursado el Diplomado (85.71 %); para matricular en el Diplomado se tuvo en consideración las DNC (80 %); el 91.43 por ciento afirma que se cumple con la planificación de la capacitación y, a su vez, el cien por ciento manifiesta que no se hace la evaluación del impacto de la capacitación. Aplicación Diagrama de Ishikawa Para la aplicación del Diagrama de Ishikawa se toma como punto de partida las cinco (5) etapas para la gestión del proceso de capacitación definidas en la organización objeto de estudio, como se muestra en la siguiente figura 2. Figura 2. Etapas del proceso de capacitación Fuente: Tomado de los documentos del diseño del proceso de capacitación En el diseño del Diagrama de Ishikawa, se tiene en cuenta las deficiencias que inciden en la gestión del proceso de capacitación y que fueron determinadas con las técnicas antes desarrolladas en este trabajo, analizadas en una Tormenta de Ideas por un grupo de especialistas, además, en la ubicación de las deficiencias se considera la de mayor importancia las cercanas al efecto, como se muestra en la figura 3. Figura 3. Diagrama de Ishikawa. Fuente: Elaboración propia Con todo lo revisado y analizado, con el uso del método interrogativo de la entrevista y como técnica complementaria la tormenta de ideas, se determina que la planificación, documentación e implementación del proceso de capacitación carece de flujograma y del procedimiento documentado que oriente la actividad de capacitación. IV. DISCUSION: Durante el proceso investigativo desarrollado en la organización objeto de estudio, Grupo Empresarial de Materiales de Construcción, GEICON, las herramientas aplicadas evidenciaron su pertinencia y eficacia, contribuyendo al resultado del diagnóstico, en la tabla 4 se muestra la interacción entre las etapas definidas para el proceso de capacitación y las herramientas de diagnóstico aplicadas. Tabla 4. Interacción de las etapas del proceso de capacitación con las herramientas aplicadas. Fuente: Elaboración propia Las etapas definidas para el proceso de capacitación donde más interactúan con las herramientas de diagnóstico (las entrevistas, las encuestas, el diagnóstico de Melo, la Matriz DAFO y el NISDEInt) aplicadas en el presente trabajo son la determinación de las necesidades de capacitación y la evaluación del impacto de la capacitación. Con el empleo de las técnicas y herramientas de diagnóstico como las entrevistas, las encuestas, el diagnóstico de Melo, la Matriz DAFO, el NISDEInt y el Diagrama Ishikawa se determinaron las principales insuficiencias que afectan la gestión del proceso de capacitación, siendo:  Con la aplicación de la Matriz DAFO y el Diagrama de Ishikawa se determina que: Las evaluaciones del desempeño no reflejan correctamente las necesidades de capacitación.  Con la aplicación del Diagrama de Ishikawa se determina que: No se aplican herramientas para evaluar el impacto antes, durante y después de recibida la capacitación; No se tiene implementada una estrategia de capacitación; Los programas de capacitación no siempre tributan a la determinación de las necesidades de capacitación; Es insuficiente la retroalimentación en el diseño del plan de capacitación.  Con la aplicación del NISDEInt se obtiene un valor “Bajo”, incidiendo en este resultado, las etapas Etapas del proceso de capacitación Herramientas aplicadas en el diagnóstico TOTAL Herramienta MELO (Capacitación ) Matriz de Relacione s (NISDEint ) Herramienta MELO (Competencia s) Matriz DAFO Determinación de las necesidades de capacitación x x x x 4 Planificación de la capacitación x 1 Ejecución de la capacitación Evaluación de la capacitación Evaluación del impacto de la capacitación x x x 3 TOTA L 2 3 2 1 de diagnóstico de las necesidades de capacitación, elaboración del plan de capacitación y la evaluación del impacto de la capacitación en todos los procesos claves.  En la aplicación de la matriz DAFO, se obtiene como resultado en las: Debilidades, desactualización de los perfiles de cargo por competencias y las evaluaciones del desempeño no reflejan las necesidades reales de capacitación; Amenazas, baja asignación de graduados en especialidades para los puestos claves en la industria y los centros de capacitación no tienen siempre en cuenta las necesidades de capacitación del alumnado.  En la encuesta aplicada, a los cuadros y trabajadores, se demuestra que: Se hace mayor atención a los resultados por el trabajo, no siendo así, en función a los resultados por la preparación y superación. V. CONCLUSIONES  Se evidencia el valor de uso de las herramientas de diagnóstico, ya que posibilitaron determinar una serie de deficiencias que afectan la gestión del proceso de capacitación en las organizaciones empresariales que integran a GEICON, que están dadas en las etapas del inicio y cierre del proceso, dando como resultado que no se logra cerrar la interrelación entre las etapas o subprocesos del ciclo de capacitación.  La insuficiente sistematización del diagnóstico previo antes de participar en alguna de las modalidades de capacitación planificada, afecta, en buena medida, en que se logre la transformación organizacional esperada, según lo indicado en los documentos que rigen la política de gestión del proceso de capacitación en el país. VI. REFERENCIAS 1. Alfonso Robaina, D. (2007). Modelo de dirección estratégica para la Integración del Sistema de Dirección de la Empresa. Tesis de Doctor. CETDIR. CUJAE. La Habana. 2. Claro González, R. (2018). Estrategia para evaluar el impacto de la capacitación en el desarrollo organizacional de la Empresa SOMEC. Tesis de Maestría. CETDIR. CUJAE. La Habana. 3. Comunista de Cuba, P. (2021). Lineamientos de la política económica y social del partido y la revolución para el período 2021-2026. VIII congreso del Partido Comunista de Cuba (PCC). Recuperado de www.cubadebate.cu.co. 4. Cuesta Santos, A. (2008). Tecnología para la Gestión de Recursos Humanos. Universidad Tecnológica de La Habana. CUJAE. 5. Estado, C. (2017). Decreto-Ley No. 350 De la capacitación de los trabajadores. GOC-2018-55- EX13. Recuperado de: http://www.gacetaoficial.cu 6. Estado, C. (2020). Decreto-Ley No. 13 Sistema de trabajo con los Cuadros del Estado y del Gobierno. GOC- 2021-279-O30. Recuperado de: http://www.gacetaoficial.gob.cu/ 7. Márquez Fernández, A.R. (2018). Rediseño del proceso de gestión de la capacitación de los cuadros y/o reservas del Grupo GECAL en el Diplomado de Dirección y Gestión Empresarial. Tesis de Maestría. CETDIR. CUJAE. La Habana. 8. Melo Crespo, J. C. (2015). Herramienta para aplicar la lista de chequeo de la tecnología de diagnóstico del Sistema Gestión Integrada de Capital Humano. Empresa de Gestión del Conocimiento y la Tecnología. 9. República de Cuba, P. (2021) Decreto Presidencial No. 208 Reglamento del Sistema de Trabajo con los Cuadros del Estado y del Gobierno y sus reservas (GOC-2021-280-O30). Recuperado de: http://www.gacetaoficial.gob.cu/ 10. Azcue, Y. (2010). Procedimiento para la evaluación del impacto de la formación en FORDES. ISPJAE, La Habana. 11. Martínez, A. M. (2010). Diseño de un plan de capacitación que contribuya al desarrollo de las habilidades de inteligencia emocional en los cuadros directivos de la empresa Arentur Ciudad de la Habana. ISPJAE, La Habana. 12. Padrón, D. M. (2011). Procedimiento para evaluar el impacto de la capacitación de los directivos de la Empresa Constructora de Obras de Arquitectura e Industriales del Norte de La Habana (ECOAINH). ISPJAE, La Habana. PROPUESTA DE MEJORAS AL PROCESO DE IMPLANTACIÓN DEL ZOOM LC EN LAS MIPYMES CUBANAS Lisandra Villarino Artiaga1, José Lavandero García2, Edistio Yoel Verdecia Martínez3 1Empresa de Aplicaciones Informáticas Desoft, calle 24 entre 23 y 25, Vedado, La Habana, Cuba, 2Universidad Tecnológica de la Habana José Antonio Echeverría, Cujae. La Habana, Cuba., 3Empresa de Aplicaciones Informáticas Desoft, calle 24 entre 23 y 25, Vedado, La Habana, Cuba. 1e-mail:lisandra.villarino@desoft.cu2e-mail: lavandero@tesla.cujae.edu.cu 3e-mail: edistio.verdecia@desoft.cu RESUMEN Un Sistema de Planificación de Recursos Empresariales (ERP, por sus siglas en inglés) es un sistema que permite a una organización gestionar todo su quehacer, en especial sus procesos claves. Generalmente son sistemas complejos con múltiples módulos o subsistemas que integran la información.Uno de los ERP que destaca en el entorno internacional es ODOO. En Cuba la Empresa de Aplicaciones Informáticas Desoft, ha desarrollado una versión del ERP ODOO conocida como Zoom LC adaptada al entorno cubano, entorno en el que han aparecido, en los últimos años nuevos tipos de actores económicos. Uno de estos actores son las Micro, Pequeñas y Medianas Empresas (MIPYMEs). A las MIPYMEs, como a la mayoría de las organizaciones, les es necesario gestionar sus procesos y para ello se les propone implanten el ERP Zoom LC. El proceso de implantación de un ERP es un proceso complejo, que debe mirar a la organización y a sus procesos fundamentales.El proceso propuesto por Desoft para la mayoría de sus productos no se ajusta a lo propuesto por ODOO, por lo que es necesario realizarle mejoras, estas mejoras son las que se identifican y discuten en el presente trabajo. PALABRAS CLAVES:proceso de implantación, enfoque a procesos, MIPYMES, ERP, Zoom LC. PROPOSAL FOR THE IMPROVEMENT OF THE ZOOM LC's IMPLEMENTATION PROCESS IN CUBAN SMES ABSTRACT An Enterprise Resource Planning System (ERP) is a system that allows an organization to manage its entire business, especially its most important processes. They are generally complex systems with multiple modules or subsystems that integrate the enterprise information.One of the ERPs that stands out in the international environment is ODOO. In Cuba, Desoft, a computer applications company, has developed a version of ODOO ERP known as Zoom LC adapted to the Cuban environment, an environment in which new types of economic actors have appeared in recent years.One of these actors is the Micro, Small and Medium Enterprises (MSMEs). MSMEs, like most organizations, need to manage their processes and for this purpose it is proposed to deploy the Zoom LC ERP in this kind of organizations.The ERP deployment process is a complex process, which must to look and to study at the organization and its fundamental processes. The process proposed by Desoft for most of its products does not fit to that proposed by ODOO for its deployment, so it is necessary to make improvements, these improvements are the ones identified and discussed in this research paper. KEY WORDS:implantation process, process approach, MSMEs, ERP, Zoom LC. 1. INTRODUCCIÓN En el mundo moderno de hoy, globalizado, unipolar, afectado por la pandemia asociada a la COVID-19, en constante transformación, contar con organizaciones modernas es una necesidad de primer orden. Una organización moderna, no es solo aquella que use los últimos avances de la ciencia y la técnica, sino, además, se gestione de una manera innovadora utilizando los medios a su alcance. Es por ello que uno de los factores más importantes que determina el desarrollo de las sociedades modernas es el nivel de informatización alcanzado en todos los sectores de las mismas y especialmente en la gestión de las organizaciones. De igual manera el entorno cubano no ha dejado de estar en constante transformaciones.Durante los últimos años se han dado grandes pasos en el proceso de informatización de la sociedad. El acceso a internet, las mejoras en la infraestructura tecnológica necesarias para el desarrollo de las Tecnologías de la Información y Comunicaciones, en lo adelante (TIC) y la apuesta por la soberanía tecnológica[1] son solos ejemplos a señalar. Otro gran cambio lo trajo el ordenamientomonetario con la desaparición del peso convertible cubano (CUC)y reajustes en las políticas salariales.También, el surgimiento de nuevos actores económicos y los retos y dificultades impuestos por la COVID-19 son todas experienciasque han impulsado a las organizaciones a definir nuevas estrategias de cambio y de adaptación al contexto, buscando el perfeccionamiento organizacional y un crecimiento de la competitividad empresarial. Una organización para que sea competitiva y sostenible debe orientarse hacia la obtención de buenos resultados, de acuerdo a su objeto social. Para lograr esto, las organizaciones deben garantizar la calidad de sus productos y servicios, muestren indicadores de eficiencia y eficacia. Pero también, deben ser capaz de gestionar sus actividades y recursos de forma optimizada. Así como, definir responsabilidades, establecer procedimientos, indicadores, planificar, controlar y finalmente tomar decisiones. En el contexto cubano ser una organización competitiva y sostenible debe ir aparejado al cumplimiento del objeto social que redunde en beneficios para toda la sociedad. Por tanto, hace necesario entonces el empleo de las TIC en una mejor gestión de las organizaciones. El desarrollo tecnológico dentro de las organizaciones tiene un elevado componente estratégico [2].Permite a una organización competir con mejor postura ante al constante entorno económico regido por los continuos avances tecnológicos [3]. Por otra parte su impacto dentro de las organizaciones hagenerado cambios estructurales, surgen nuevas necesidades y competencias asociados a las nuevas formas de hacer, en constante evolución, aparecen cambios de paradigmas, nuevas formas de gestión, así como cambios es su infraestructura tecnológica [4]. Para lograr lo anteriorse hace necesario entonces el uso de las TIC. Una tendencia mundial en el uso de las TICs, es el empleo de los Sistemas de Planificación de Recursos Empresariales (ERP, por sus siglas en inglés). Un ERP es un sistema que automatiza y gestiona de forma integrada los procesos empresariales de distintas áreas. Eso trae como ventaja la optimización de los procesos empresariales, no duplica información, se cuenta con la información en tiempo real, facilitando la toma de decisiones en la organización[5, 6]. En Cuba, como parte de la actualización del modelo económico, el sistema de gestión empresarial, desde hace unos años se encuentra en constante transformaciones. Se han aprobado un conjunto de medidas con el propósito de contribuir a la eliminación de trabas en el sistema empresarial. Otorgando mayores facultades, que permitan la eficiencia y eficacia, a las organizaciones. Permitiendo a las empresas tener mayor autonomía [7]. De igual forma se han roto barreras que han permitido impulsar y flexibilizar la creación de nuevos actores económicos. Dentro de estos nuevos actores se cuenta con Cooperativas no Agropecuarias (CNA), nuevas regulaciones para los Trabajadores por Cuenta Propia (TCP)y las Micro, Pequeñas y Medianas Empresas (en lo adelante MIPYME). La definición de estos nuevos actores económicos tiene como objetivo dinamizar la economía cubana buscando nuevas maneras de producir bienes y servicios. Cuba ha ido en los últimos años de una economía estatal a una economía abierta a nuevas formas de producción, aunque se ratifica a la Empresa Estatal Socialista (EES) como el principal actor de la economía cubana. El país busca consolidar la participación dentro de la economía cubana de un sector no estatal de forma general. Es en esta participación donde intervienen los nuevos actores. Los términos de alianzas estratégicas, encadenamiento productivo y otros figuran hoy el lenguaje común del sector empresarial cubano. Promover la industria nacional de software, servicios informáticos, la integración con nuevas formas de gestión no estatal, es uno de los retos en la actualidad de nuestro país[1] Dentro de las empresas que deben apoyar las estrategias del país para la soberanía tecnológica, la ampliación del uso de las TIC se encuentra La Empresa de Aplicaciones Informáticas (Desoft en lo adelante).Desoft, cuenta con más de 1800 trabajadores a lo largo de todo el país. Como parte de su nueva estrategia de negocio apuesta por un modelo de software como servicio. Lanza el ERP Zoom LC ODOO desde el 2020 gracias a la alianza entre con la empresa ODOO S.A. El objetivo del presente artículo es presentar las principales mejoras que se deben realizar al proceso de implantación del Zoom LC. El proceso actualmente existente se puede caracterizar como un proceso lineal, no orientado a sistemas con un enfoque a procesos, que da un peso excesivo a los documentos y menos a los resultados prácticos. El análisis de las principales experiencias adquiridas por los expertos funcionales durante el proceso de implementaciónen un grupo de MIPYMEs se considera un factor clave en la elaboración de la propuesta. Este proceso de implementaciónde Zoom LC se realiza de forma empírica, pues existe poca bibliografía que guie los proyectos. Para el logro del objetivo propuesto se seleccionaron una muestra de MIPYMEs usuarios del Zoom LC como casos de estudio. Así como, se entrevistaron los especialistas funcionales del proceso de implantación para el desarrollo de la propuesta realizada, como parte del saber hacer acumulado. Los análisis de los resultados en estas MIPYMEs permitieron realizar una propuesta de cambios en el proceso de implantación del Zoom LC, rediseñando el mismo para que se centre fundamentalmenteen las características deeste nuevo actor económico cubano. 2. EL ERP ZOOM LC, LA LOCALIZACIÓN CUBANA DE ODOO Los ERP son una solución para toda organización que busque gestionar de forma óptima sus procesos productivos principalmente. La necesidad de relacionar la información de todos sus departamentos sin duplicar información y tomar decisiones más certeras son las ventajas principales de los ERP. 2.1. Los ERP Un ERP es un software, que permite a una empresa gestionar todo su negocio incluyendo los procesos de finanzas, recursos humanos, fabricación, cadena de suministro,CRM, comercio electrónico, contabilidad, inventario, punto de venta, gestión de proyectos.[8, 9] En el contexto internacional existeuna amplia gama de empresas dedicadas a comercializar ERP. La bibliografía estudiada difiere cuando se trata de establecer un orden de los ERP más potentes y comercializados en el mundo. Dado que comparten muchas funcionalidades, pero también poseen características propias que los distinguen entre sí. Un aspecto importante y común son los altos costos que implican a las empresas el proceso de implementación. El 50% de los proyectos de implementación han fracasado y solo se cuenta con un 18% de casos de éxitos [10]. La utilización de los ERP no depende del tamaño, la importancia, el objeto social, el tipo de organización, ni a que se dedique la misma [11]. La principal razón,del uso de los ERP, es la optimización de sus procesos, la mejora en la gestión de los recursos y la integración de la información de todos los departamentos en una sola aplicación informática [12]. Los ERP permiten además apoyar el proceso de toma de decisiones al contar con información en tiempo real, unificada y con varias vistas de la misma [6]. Los últimos avances en las TIC permiten en la actualidad ofrecer este tipo de sistemas como servicios, al poder ser estos hospedado en la nube (on-cloud). El hospedaje en la nube permite la gestión de la organización desde cualquier lugar geográfico o tipo de dispositivo, más allá del sistema operativo o del entorno físico de las organizaciones [13], todo ello potencia el trabajo a distancia una necesidad que impuso la COVID-19. Hospedar un ERP en la nube lleva consigo además que la infraestructura sea segura y que el mismo carezca de vulnerabilidades. En este caso el proceso de elección de un ERP debe considerar este aspecto. 2.2. El ERP ODOO. La empresa belga ODOO S.A, surge en la primera década del 2000con su propuesta de un ERP de código abierto y libre llamado OpenERP, cambiando su nombre por ODOO a partir de su versión 8. Basa su modelo de negocio en su red de partners. Según su sitio web oficial1 cuenta con más de siete (7) millones de usuarios y tres mil quinientos (3500) partners en todo el mundo[9].Una de las claves de la versatilidad de ODOO es su estructura de módulos, esto es facilita una implementación del sistema escalonada y de forma iterativa con un enfoque a procesos. [14]. Figura 1: Línea del tiempo de ODOO Esta herramienta puede generar un impacto positivo en la gestión de las organizaciones, sin importar el objeto social al que se dedique. Según declaración de su creador Fabien Pinckaers su objetivo es “ofrecer un software accesible, fácil de usar, de código abierto y fácil integración para que las compañías se enfoquen en hacer crecer su negocio.” El ERP ODOO por su diseño escalable, y gracias a la metodología propuesta por su empresa ha marcado la diferencia en el mercado internacional de ERPs en cuanto al tiempo de implementación y mayor logro casos de éxitos.[10] El mercado hoy en día, se está transformando gracias al impacto que está teniendo ODOO ante los competidores. Un elemento que marca la diferencia es que evoluciona mucho más rápido que cualquier otra solución, gracias a la gran comunidad de desarrolladores que lo respalda en todo el mundo.[9] En el año 2021ODOO publica su primera propuesta de metodología de implementación, y a decir por su propio creador Fabien Pinckaers está basada en la experiencia adquirida por la empresa a lo largo de los años.[10] Recomienda los proyectos simples, que en poco tiempo generen beneficios para el cliente. No enfocarse en desarrollo a la medida, eso atrasaría la ejecución del proyecto. La idea es que la empresa adapte sus procesos a ODOO, no personalizar ODOO para los clientes. Esto último no siempre implicaría la optimización de los procesos empresariales.ODOO propone un enfoque a procesos optimizado y adaptable a un gran rango de organizaciones. En la tabla siguiente se describe brevemente la Metodología de Implementación de ODOO Tabla 1: Etapas de la Metodología de Implementación ODOO 1https://www.odoo.com 2002 Tiny ERP 2005 OpenERP 2014 Odoo Etapas Características Salida Análisis de las necesidades del Negocio El jefe de proyecto debe recopilar, mediante entrevistas todas las necesidades principales del cliente. Se hará mediante entrevistas a los diferentes jefes de departamentos, para analizar sus flujos de trabajo. El entregable final es una especificación de prototipo y un análisis GAP. Esta etapa consume un 15% del cronograma del proyecto. Una vez descrito el flujo se propone los módulos básicos. Documento Especificación de prototipo y análisis GAP Fase Prototipo En esta fase se configuran los módulos propuestos, aun sin importar información del cliente, el sistema debe ser funcional, lo que permitirá evaluar por el cliente el flujo de sus procesos. Esta etapa consume un 15 % del cronograma. Sistema configurado. Demostración a los usuarios claves. Importación de datos y posibles desarrollos Se recomienda dividir esta etapa en tres fases paralelas Fase 1: Importación de datos a módulos propuestos en etapa 1 Fase 2: Desarrollo a la medida imprescindible para el cliente sin las cuales no se pueden realizar el primer entregable del sistema. Fase 3: Integración con software de terceros. Esta etapa consume el 50% del cronograma del proyecto. Sistema con datos importados Validación y Capacitación Una vez cargada toda la información se puede capacitar a todos los usuarios de la empresa. En esta etapa se libera el proyecto de no ejecutarse la etapa siguiente. Esta etapa consume el 10% del cronograma del proyecto Usuarios capacitados Documentos de aceptación del cliente Desarrollos a la medida Esta etapa es opcional, y muy específica. Solo se propone ejecutarla en los casos de extrema necesidad. Abarca el 10% del cronograma. Funcionalidades a la medida. Una recomendación que siempre hace en cada etapa, menos la última, es la posibilidad de validar las salidas con los expertos funcionales externos. Esta opción es solo para los socios. La siguiente imagen describe la metodología de forma ilustrativa. Figura 2: Fases de la Metodología de Implementación ODOO 2.3. Los ERP en el contexto cubano En Cuba también se han dado pasos en la comercialización de ERP. Han comenzado a surgir dentro de la Industria de Software Cubana, empresas que se sumen a esta tendencia mundial. Esto ha sido un paso importante para introducir, al nivel de estas tecnologías, el sistema empresarial cubano Aspectos como soberanía tecnológica y ERP cubanos son temas tratados por la presa nacional, en los últimos tiempos. Pero aun así existe poca experiencia documentada sobre casos de éxitos de ERP cubanos implementados en nuestro sistema empresarial. [13, 15, 16]. La tabla siguiente muestra los ERP cubanos más mencionados en la bibliografía consultada, que a saber son también los más utilizados. Tabla 2: Algunos ERP cubanos Sistemas de Planificación de Recursos Empresariales cubanos Xedro Desarrollado por la Universidad de Ciencias Informáticas(UCI). Distra Desarrollado por la empresa XETID. Versat ERP Desarrollado por la empresa Datazúcar, como evolución a su aplicación de escritorio Versat Sarasola, uno del software contable financierolíderes en el mercado cubano. Zoom LC ODOO Desarrollado por la Empresa de Aplicaciones Informáticas Desoft, sobre tecnología ODOO. Desoft es un partners de la empresa belga ODOO. El ERP Zoom LC ODOO, fue desarrollado cumpliendo las normas empresariales y legislativas cubanas. Permitiendo contar con una propuesta totalmente cubana, que ofrece a las organizaciones del país de una gestión integral[16]. Cuenta con más de cuarenta (40) módulos, los cuales pueden ser implantados de forma gradual. Siendo uno de las características principales del Zoom LC, es su adaptabilidad ante el escenario de cualquier actor económico. No es necesario instalar todas las aplicaciones, pues se articula por módulos, de tal manera que cada empresa podrá escalar, adicionando los módulos según sus necesidades y capacidades. Unos de los elementos fundamentales es que está certificado desde el punto de vista contable y de su seguridad, por parte de los organismos rectores del país,Ministerio de Finanzas y Preciosy la empresa Segurmática respectivamente. Con casi un año de experiencia en la ejecución proyectos de implementación del Zoom LC por parte de un equipo multidisciplinario de Desoft, retos importantes y estratégicosasumidos, problemas resueltos y otros por resolver. Se hace necesario mirar el camino recorrido. Con una mirada crítica constructiva que busca mejoras al proceso de implementación, para lo cual se analizaron los riesgos potenciales que obstaculizan el proceso, así como las oportunidadesque impone el mercado ávido del servicio. Esto permitirá brindar un mejor servicio de implementación del Zoom hacia sus clientes y el aumento de los ingresos para la empresa por concepto de esta nueva line de servicio. 3. EL PROCESO DE IMPLANTACIÓN DEL ERP ZOOM LC EN LAS MIPYMES CUBANAS.PRINCIPALES LECCIONES APRENDIDAS. En Cuba, hablar del proceso de implantación de una solución informática, en una organización, resulta complejo. Cierto es que se obtienen beneficios en la gestión del proceso en sí, para la organización. Pero también durante el proceso de implantación, en ocasiones, se enfrentan obstáculos como: resistencia al cambio y miedo a lo desconocido. Malas prácticas en la gestión de las TIC por parte del personal de la organización, carencias del personal especializado en las TIC dentro de las organizaciones son otras. El nivel de prioridad por parte de la dirección de la organización va a significar el éxito o el fracaso del proyecto en el 50% de los casos.Otro elemento, en ocasiones no resulta una necesidad, sino es una directiva del organismo superior implantar determinada solución informática. Son aspectos a los cuales los proveedores de servicios informáticos, en ocasiones, se enfrentan [4, 17]. Y aunque se habla de transformación digital desde hace algunos años y los Lineamientos del Partido Comunista de Cuba números 80, 81 y 83 aprobados en el VIII Congreso [18] reafirman esta estrategia de país, son muchos los pasos a dar para cumplir este reto. Sobre todo,aspectos relacionados con: infraestructura tecnológica y planificación objetiva del presupuesto de gasto en una organización. 3.1. Características de las MIPYMEs cubanas Como parte del amplio proceso de transformación de la economía cubana el Ministerio de Economía y Planificación (MEP) ha dictado un conjunto de disposiciones normativas para la creación de nuevos actores económicos, uno de ellos elDecreto Ley No. 46 “Sobre las Micro, Pequeñas y Medianas Empresas”[19]. Pueden ser tanto estatales como privados, dedicados a la producción de bienes y servicios. Las MIPYME estatales maniobran bajo una nueva forma de gestión en el sector estatal que, con mayor autonomía y flexibilidad, buscan tributar al crecimiento económico y la transformación de la matriz productiva del país.Las MIPYME privadas penetran en el contexto económico cubano como actores de nuevo tipo con el objetivo de brindar productos y servicios que contribuyan al desarrollo social y económico del país.Aunque en el mundo existen otras clasificaciones para clasificar a las Mipymes, como por ejemplo el volumen de ventas anuales y el valor de los activos. En nuestro país se decide por la cantidad de ocupados, por ser el indicador más extendido en el mundo: Tabla 3: Clasificación de las MIPYMES cubanas Clasificación Rango Micro De 1 hasta 10 Pequeña De 11 hasta 35 Mediana De 36 hasta 100 Donde uno de los retos fundamentales de las MIPYMEs es ofertar servicios y productos que le permitan tener posicionamiento en el mercado y responder a la emergente demanda. Aumentar la productividad y la competitividad sin apoyarse en las tecnologías resulta imposible. Tener el control de los procesos productivos y operativos es la clave para lograr lo antes dicho[20, 21]. 3.2. El proceso de implantación de soluciones informáticas en Desoft Una de las líneas de negocio de Desoft, es la comercialización de productos informáticos propios o de terceros. El dossier de la empresa lo componen aplicaciones modulares que automatizan determinado proceso dentro de una organización. Poca integración entre ellas y en ocasiones basadas en tecnologías obsoletas caracterizan algunas de estas.De igual forma la metodología de implementación generalde la empresa data del año 2015. Es ambigua y orientada a la documentación que genera un proyecto en sí mismo. Está orientada a etapas de un proceso de configuración de sistemas estándares y poco escalables. Por lo que resulta incompatible si el proceso de implantación está orientado a un sistema con enfoque a procesos. Figura 3:Etapas de la Metodología de Implementación de Desoft Aun cuando para alcanzar la condición de empresa de alta tecnología se deban cumplir con todos los requerimientos establecidos en el país, para lo cual la empresa debe continuar trabajando Su evolución se encuentra en pleno proceso de desarrollo, con el principio de incorporar la ciencia y la innovación a la Diagnostico Configuracíon Carga Inicial Puesta en Marcha Adiestramiento estrategia empresarial y cerrar el ciclo de investigación/innovación, producción, comercialización y posible exportación en un ecosistema digital propio. 3.3. La implantación de Zoom LC. El lanzamiento del Zoom LC, por parte de Desoft, al mercado trajo consigo transformaciones hacia lo interno de la empresa y en su relación con sus clientes. Desde el 2019 Desoft cuenta con un equipo regionalizado de desarrolladores especializados en diferentes módulos. En esta estrategia faltaba, por parte de la empresa, cerrar el ciclo de software a partir de su comercialización. Un elemento a destacar es que los primeros pilotos de implementaciones fueron intentos fallidos, incluso a lo interno de la propia empresa el producto no ha sido explotado en toda su potencialidad. Existía y aún existe un enfoque a vender módulos de Zoom, y no la solución integrada. Un ejemplo de la afirmación anterior son los productos el Sistema de Gestión de Multas (CGM), el módulo de comercio electrónico conocido como Tienda Virtual (TV), el sistema para la declaración de mercancías DM+ y la Plataforma para Eventos Virtuales (FevExpo). CGM es el desarrollo por parte de la División de Santiago de Cuba del sistema para la gestión de las multas, en esta plataforma. Un ejemplo que positivo ha sido es el desarrollo del módulo de Comercio Electrónico por parte de la División de Camagüey. La División Habana ha desarrollado DM+ y FevExpo. El DM+ es un sistema que viabiliza el proceso de elaboración de la declaración de mercancías y la documentación acompañante a las entidades importadoras y exportadoras.FevExpo es una plataforma para desarrollar eventos virtuales e híbridos Estos productos, líderes hoy en el escenario de la empresa, aunque han sido desarrollados con ODOO como núcleo central, no se integran de manera total a Zoom LC y algunos de ellos no aprovechan todas las potencialidades de la plataforma base. A finales del año 2021 se decide crear en una de sus unidades de base un equipo de implementadores, inexpertos en Zoom LC, pero con experticia en otros sistemas de la gestión contable y financiera como Versat Sarasola. La creación de este Centro de Servicio Integral responde al objetivo de cubrir la demanda creciente del mercado relacionada con este producto, en su mayoría MIPYME, aunque no limitadas a ella. A continuación, se mencionan las principales causas detectadas que justifican la mayor representación de este tipo de actor económico cubano en los proyectos iniciados:  Organizaciones de nueva creación con bajos niveles de informatización.  Necesidad de adquirir un software para la gestión del negocio y que cumpla con el marco regulatorio establecido en país.  Campaña de marketing con precios atractivos respecto a otros productos similares existentes en el mercado. La experiencia acumulada en este período ha permitido realizar un análisis, evaluar los resultados y proponer mejoras al proceso de implantación para este segmento del mercado. De igual forma se detectan un conjunto de problemas asociados al cliente, se detallan algunos de ellos: La falta de infraestructura tecnológica y bajas condiciones de conectividad, en ocasiones socios con poca experiencia en administración de negocio, personal administrativo con poca formación en ámbito jurídico, normas y legislaciones cubanas asociados a los procesos de gestión económica y los recursos humanos. El diseño de las organizaciones es uno de los factores más importantes durante el proceso de implementación del Zoom LC. En el contexto actual cubano, resulta evidente la tendencia en un alto grado de las MIPYME por un enfoque jerárquico funcional, regido por un contexto donde lo más importante es producir y generar utilidades. El 62.5% de los casos estudiados para este artículo así lo demuestran. Un enfoque a procesos sería más ventajoso, dado que el Zoom LC responde a esta perspectiva. El éxito de toda organización depende de que sus procesos estén correctamente alineados con su estrategia, misión y objetivos. En la actualidad son una fuente importante de empleos para la sociedad cubana pero su entorno operativo y la falta de regulaciones que guíen como diseñarlas resulta un freno durante el proceso de implementación. Por otra, como parte de los principales problemas detectados en el equipo de implementadores se puede referir: la formación de los especialistas ha sido al paralelo del proceso de implementación, se cometieron los mismos errores de especialización por módulos, lo que genera brechas en la configuración del sistema. No existe dominio de la metodología definida por ODOO, recientemente publicada. Aunque se realiza una consultoría previa a la implementación, no se cuenta con un modelo de artefacto definido como salida de esta etapa y tiene muy poco enfoque a procesos. Por tal motivo, en mayor grado, el orden de implementación de los módulos no es el óptimo, originado a la relación entre los mismos. La demora ocasionada por el soporte que brindan los desarrolladoresen la implementación de nuevas funcionalidadesatrasa la ejecución del proyecto. 4. PROPUESTA DE MEJORA AL PROCESO DE IMPLANTACION DE ZOOM LC Resulta difícil definir un procedimiento general para la implantación del Zoom LC. El tipo de actor económico cubano y su objeto social marcan diferencias dentro del proceso de implementación del Zoom LC. Aun cuando el diseño del proceso en sí tenga elementos en comunes la actividad económica a la cual se dedica marca pautas en la propuesta final. Con el objetivo de establecer elementos comunes y específicos se propone un procedimiento escalonadoque permita en poco tiempo ir entregando resultados al cliente y no hacer proyectos largos y costosos. Se tuvo en cuenta para la propuesta: la metodología de implementación que define ODOO, la relación entre módulos del Zoom LC y los procesos generales para cualquier tipo de gestión de negocio.En la tabla a continuación se describen las etapas de la propuesta. Tabla 4: Propuesta de Procedimiento de Implementación MIPYME Etapas Propuesta de procedimiento para la implementación del Zoom LC en MIPYME Consultoría En esta etapa se caracteriza la organización, su objeto social. Si la MIPYME tiene un enfoque a procesos seguimos a la siguiente etapa, sino y tiene tendencia a un enfoque jerárquico funcional se recomienda adoptar el flujo de procesos del Zoom LC. Diseño En esta etapa se definen las fases de implantación de los módulos, comenzando con la Fase 1 Base y la Fase 2 Especifica atendiendo al objeto social de la organización. También se definen los niveles de usuarios según el rol. Fase 1 Se propone un paquete de módulos básicos que permitirán cubrir los procesos principales de toda organización cubana. Estos procesos son la Gestión Contable-Financiera, la Gestión de Recursos Humanos y la Gestión de Ventas (incluye la relación con los proveedores). Se proponen estos tres procesos principales teniendo en cuenta el escenario de gestión empresarial. Configuración y Carga de Datos Una vez recibida la información por parte del cliente referente a estos procesos, Se configura el sistema de acuerdo a las características del cliente. Se crean los usuarios de acuerdo a su rol en el sistema. En este punto se prepara el producto en la nube para que esté disponible a todos sus usuarios. Capacitación Se capacita al usuario atendiendo su rol en el sistema. Se realiza un acompañamiento por parte del personal de despliegue, que puede ser en las instalaciones del cliente o de modo remoto. Se propone un escenario de capacitación multidisciplinario siempre que las características del cliente lo Etapas Propuesta de procedimiento para la implementación del Zoom LC en MIPYME permitan. Liberación de la Fase 1 En esta etapa el cliente ya tiene en funcionamiento los primeros módulos del Zoom básicos para toda gestión empresarial. Fase 2 En esta fase se propone un segundo paquete de módulos específicos acorde al objeto social de la MIPYME. Una vez propuestos se continúan con las etapas de Configuración, Capacitación y Liberación de acuerdo a esta Fase. Es la fase inicial del despliegue de la solución y ajuste al objeto social. Fase 3, …, n Se proponen de manera escalonada de módulos que permitan ir cubriendo las necesidades de la MIPYME. De acuerdo a los módulos se realizan las actividades de Configuración, Capacitación y Liberación. Respondiendo a la Fase 1, en las siguientes imágenes se proponen los módulos de Zoom LC a configurar. Las siguientes fases interviene los módulos necesarios, de forma escalonada según prioridad del cliente, acordes a la actividad económica principal. En este punto ya estará liberada la Fase 1 y el cliente haciendo uso del sistema. Figura 4: Módulos Base para la Gestión de RecursosHumano s Figura 5: Módulos Base para la Gestión Contable Figura 6: Módulos Base para Gestión de Ventas 5. CONCLUSIONES A partir del estudio realizado y presentado en el presente trabajo se arriba a un grupo de conclusiones que se presentan a continuación:  ODOO es un ERP con enfoque a procesos, adaptable ante cualquier actividad económica de una organización. Interfaz sencilla e intuitiva. La facilidad de instalar sus módulos de forma escalonada permite trazar la estrategia necesaria dependiendo de las necesidades del cliente final. El ERP Zoom LC ODOO al estar diseñado sobre plataforma ODOO, comparte estas mismas ventajas.  Se hace necesario definir por pate de los órganos regulatorios del país los marcos legales que permitan orientar a las MIPYME desde su nacimiento, a no solo definir una actividad económica principal, sino a sentar a las bases principales que rige todo su diseño organizacional.  Se recomienda a las MIPYMEs la adopción de un enfoque orientado a procesos, lo cualles permitiría el éxito del proceso de implantación del Zooml LC. Se recomienda aplicar a la propuesta en los proyectos futuros que asuma la empresa Desoft, lo que permitirá evaluar resultados de la teoría propuesta e irla ajustando de acuerdo a los objetivos de la misma. Así mismo realizar hacer la evaluación de la propuesta en otros tipos de actores económicos del entorno cubano para que Desoft cuente con un proceso robusto y que pueda ser aplicado a todos sus clientes, independientemente de su tipología. RECONOCIMIENTOS Los autores del presente trabajo desean reconocer la ayuda de los integrantes del Centro de Servicios Integrales Numero 3 de Desoft La Habana, que son los especialistas responsables del proceso de implantación de Zoom LC en los clientes de Desoft La Habana. En especial el agradecimiento a la jefa del área y sus jefes de proyecto, quienes permitieron revisar los diagnósticos y demás documentación técnica asociada a los diferentes proyectos de implantación, hacer entrevistas y compartir ideas sobre lo aquí presentado. REFERENCIAS 1. Rodriguez, Y.d.S.G.S.A., De informatizar(nos) al siguiente paso: la transformación digital en Cuba. Granma, 2022: p. 1. 2. Naranjo, F.G., MEDICIÓN DE LA PERCEPCIÓN DEL IMPACTO DE LA GESTIÓN DE LA TECNOLOGÍA DEL SISTEMA ERP-SAP EN LA EMPRESA PÚBLICA MUNICIPAL DE AGUA POTABLE Y SANEAMIENTO (EPMAPS) in Facultad de Ciencias Administracion. 2019, Escuela Politecnica Nacional Quito, Ecuador. 3. González, Y.d.S., El reto de la transformación digital en Cuba y su impacto en la sociedad.https://www.granma.cu, 2022. 4. Valle, D.P.A.Y.C.O.G.M.G.V.M.B.I.A.P.A.A.F.C.L.M.d., Cambio organizacional planificado basado en tecnologías de la información para la Transformación Digital Revista Cubana de Transformación Digital, 2021. 2. 5. Microsoft. Sitio Oficial Microsoft Dynamics 365. 2022; Available from: https://dynamics.microsoft.com/es-es/erp/define-erp/?cdn=disable. 6. Yanelis Pavón González, L.P.B., Marta Infante Abreu, Jeffrey Blanco González, Experiencia de trabajo para la configuración del ERP Odoo en pequeños negocios. Caso de éxito en TostoneT. Ingeniare. Revista chilena de ingeniería, 2018. 26. 7. Díaz, D.E.M., Las medidas aprobadas para fortalecer el sistema empresarial van teniendo un impacto positivo en BioCubaFarma. Cubadebate, 2022. 8. SAP. Sitio Oficial de SAP. 2022; Available from: https://www.sap.com. 9. Odoo. Sitio Oficial de Odoo. 10. Pinckaers, F., Odoo´s Implementation Methodology. 2021: https://www.youtube.com/watch?v=58rB9q7Q08M. 11. Cynthia Loera-Acosta, L.A.R.-P., Juan Vicente Barraza-de la Paz Mejora de la gestión de una PYME mediante el sistema ERP Odoo.Mundo FESC, 2021. 11(54). 12. Basanab, P.Z.J.H.T.S.R., The effect of ERP on firm performance through information quality and supply chain integration in Covid-19 era 2021. 13. Guevara, Y., Odooy un hito cubano. Juventud Rebelde | Diario de la juventud cubana, 2022. 14. Yanelis Pavón-González, L.P.-B., Yadary Cecilia Ortega-González, Marta Beatriz Infante-Abre, Método para rediseñar procesos basado en flujos funcionales de referencia de ODOO. Revista de Ingenieria Industrial, 2022. XLIII. 15. Brito, I.H.R.G., ERP cubano, un paso estratégico para la consolidación del Software Libre en Cuba 2015: https://www.researchgate.net/publication/283265290 16. Domínguez, L.E., Zoom LC, plataforma cubana basada en Odoo para la gestión empresarial. Cubadebate, 2020. 17. Rebolledo-Domínguez, J.G.-L., Teresa; Ortiz-García, Juan Manuel La resistencia al cambio durante la implementación de un sistema ERP. Latindex, 2020: p. 19. 18. Central, C., CONCEPTUALIZACIÓN DEL MODELO ECONÓMICO Y SOCIAL CUBANO DE DESARROLLO SOCIALISTA, LINEAMIENTOS DE LA POLÍTICA ECONÓMICA Y SOCIAL DEL PARTIDO Y LA REVOLUCIÓN PARA EL PERÍODO 2021-2026. junio, 2021. 19. Cuba, G.O.d., Decreto Ley 46, M.d.E.y. Planificación, Editor. 2021. 20. Digital, L.d.t.d.T., Guía para la Transformación Digital de las PYMES. DigitalES, 2021. 21. Martín, L.A.A., TRANSFORMACIÓN DIGITAL: PUNTOS DE INTERÉS Y CONSIDERACIONES PARA LA REFLEXIÓN EN LA TRANSFORMACIÓN DIGITAL EN LA UNIVERSIDAD Revista de Unidades de Información, 2018. 13. Sobre los autores Ing. Lisandra Villarino Artiaga. Graduada de Ingeniería en Ciencias Informáticasen la Universidad de las Ciencias Informáticas. Desde el año 2011 trabaja en Desoft División La Habana. Actualmente es la Jefa del Centro de Servicios Informáticos I, que se dedica fundamentalmente a la implantación de sistemas de gestión contable y financiera en diferentes actores de la sociedad cubana. Dr.C. José Lavandero García. Profesor Titular, Profesor de Mérito, Dr. Honoris Causa Universidad Tecnológica de La Habana José Antonio Echeverría Ha tutorado exitosamente más de 17 tesis de maestría 7 tesis de doctorado Tiene publicado más de 24 artículos y 66 trabajos en eventos científicos. Dr.C. Edistio Yoel Verdecia Martínez. Graduado de Ciencias de la Computación, por la Universidad de la Habana (1995), Máster en Gestión de Proyectos Informáticos por la UCI (2010) y Doctor en Ciencias Pedagógicas (2012). Ha laborado como profesor en universidades cubanas y extranjeras. Actualmente se desempeña como Especialista Superior en Tecnologías de la Información en Desoft División La Habana, donde imparte cursos relacionados con las TIC y pertenece al Grupo de ODOO de la empresa. ANÁLISIS TEÓRICO REFERENCIAL DE MODELOS DE GESTIÓN COMERCIAL CON ENFOQUE DE MARKETING RELACIONAL Y CADENAS DE SUMINISTRO EN EMPREAS DEL SECTOR AGUA Y SANEAMIENTO ANALYSIS OF COMMERCIAL MANAGEMENT MODELS WITH A RELATIONAL MARKETING AND SUPPLY CHAINS IN COMPANIES APPROACH IN THE WATER AND SANITATION SECTOR Rachel Zayas Hernández1, Niuris Daniela Borrego Fuentes2, Ing. Yunior González Núñez3, Dr. C. Annette Malleuve Rodríguez4, Dr. C. Daniel Alfonso Robaina5 1,2 Universidad Tecnológica De La Habana “José Antonio Echeverría” Cujae, Estudiantes de Pregrado de la Facultad De Ingeniería Industrial, Calle 114 No 11901 Entre 119 Y 127 Marianao. La Habana, Cuba. 1,2e-mail: rachelzayhen@ind.cujae.edu.cu, 3OSDE Agua y Saneamiento, Calle 160 #307 entre 5ta avenida y mar Playa, La Habana, Cuba. 4 Universidad Tecnológica De La Habana “José Antonio Echeverría” Cujae, Vicedecana de Investigación y Posgrado de la Facultad De Ingeniería Industrial, Calle 114 No 11901 Entre 119 Y 127 Marianao. La Habana, Cuba. 4e-mail: amalleuve@ind.cujae.edu.cu, 5 Universidad Tecnológica De La Habana “José Antonio Echeverría” Cujae, Vicerrector de Investigación y Posgrado de la Facultad De Ingeniería Industrial, Calle 114 No 11901 Entre 119 Y 127 Marianao. La Habana, Cuba. 5e-mail: dalfonso@tesla.cujae.edu.cu: RESUMEN El presente documento expone los resultados de una amplia investigación científica y bibliográfica que permitió sentar las bases teóricas sobre la gestión comercial con enfoque de marketing relacional y cadena de suministro en el sector Agua y Saneamiento. Para ello se analizaron las conjeturas más novedosas y actualizadas pertinentes al campo de estudio objeto de esta investigación. Además, se realizó, como parte de la revisión, una exhaustiva búsqueda de 54 modelos de Gestión Comercial, cadena de suministro y dirección y gestión; obteniendo como resultado las brechas y similitudes entre el proceso comercial y los enfoques analizados. El desarrollo económico cubano exige afianzar la gestión eficiente de la economía de las empresas, es decir, ese desempeño empresarial en función del cumplimiento de los planes y de su función social dentro de la sociedad. De ahí la importancia de marcar las bases para la integración de los elementos de gestión con enfoques que respondan al mejoramiento de la relación con los principales actores de cada entidad. PALABRAS CLAVES: gestión comercial, cadenas de suministro, marketing relacional, dirección y gestión. ABSTRACT This document presents the results of extensive scientific and bibliographic research that allowed laying the theoretical foundations on commercial management with a relational marketing and supply chain approach in the Water and Sanitation sector. The most innovative and updated conjectures relevant to the field of study, object of this investigation were analyzed. In addition, as part of the review, an exhaustive search of 54 models of Commercial Management, supply chain and direction and management was carried out; obtaining as a result the gaps and similarities between the commercial process and the analyzed approaches. Cuban economic development requires strengthening the efficient management of the business economy, that is, that business performance based on the fulfillment of plans and its social function within society. Hence the importance of the foundations for the integration of management elements with approaches that respond to the improvement of the relationship with the main actors of each entity. KEY WORDS: business management, supply chains, relationship marketing, direction and management. 1. INTRODUCCIÓN La gestión comercial constituye uno de los procesos más importantes dentro de la gestión empresarial. Su función conectora con el entorno y mercado en que se desenvuelve la empresa determina la efectividad del sistema empresarial. Varios autores coinciden en que en una empresa la gestión comercial es la puerta al exterior de la organización [1], y es la encargada de conseguir que los productos se vendan a los clientes [2]. El área comercial de una compañía debe centrarse en dos aspectos claves: el mercado y la satisfacción del cliente. De ahí la preocupación por la calidad del servicio. Por lo que la gestión comercial debe tener como principal objetivo lograr mediante la comercialización de los servicios y productos la recaudación de recursos, que se permita garantizar cubrir los costos requeridos para una prestación eficiente, y, sobre todo, para la sostenibilidad de los servicios. [3]. Uno de los principales retos de la dirección comercial del futuro es que los clientes siempre van a exigir más, tendrán mayores conocimientos y será necesario que se diseñen estrategias de ventas más específicas totalmente hechas a la medida y completamente diferentes a las tradicionales [4]. El marketing relacional es un nuevo enfoque de la gestión comercial, ya que es el proceso que integra el servicio al cliente con la calidad y el marketing, con el fin de establecer y mantener relaciones duraderas [5] y rentables con los clientes. Referentes de este nuevo enfoque destacan que se trata de las relaciones [6], más que de una transacción. La fidelización de un cliente abre la brecha para la captación de otros [7], un cliente satisfecho recomienda la marca, asimismo es más rentable mantener a un cliente que invertir en la captación de clientes nuevos. El marketing relacional tiene como fin lograr entre quienes intervienen en la transacción ambientes de equidad [8], de tal manera que sus clientes o proveedores sean considerados como socios estratégicos [9]; pues se enfoca en la creación de valor, a partir del cual el proveedor y el cliente generan diferentes formas de contactos perceptibles en la relación de intercambio [10]. Este enfoque tiene elementos en común con el enfoque a cadena de suministros, pues según [11], una cadena de suministro está formada por todas aquellas partes involucradas, de manera directa o indirecta, en la satisfacción de las necesidades y expectativas de un cliente. La importancia de la cadena de suministro radica en la relación y dependencia que existe entre sus elementos [12], desde el punto de origen del producto o servicio hasta el punto de consumo del mismo, lo cual indica que su estudio se constituye en un proceso, a nivel de gerencia, que permite a las organizaciones adquirir e incrementar el nivel de competitividad y por ende su rentabilidad. [13] La integración de todos estos enfoques no solo tiene un impacto positivo en el desempeño comercial de las entidades, sino que constituyen una vía segura y práctica para el logro de las metas definidas a corto y largo plazo y garantizan la estabilidad de la empresa en el mercado y por tanto la eficiencia de su cadena de valor La presente investigación tiene como objetivo explicar la relación entre la gestión comercial y los enfoques de marketing relacional, cadena de suministro y dirección y gestión, teniendo en cuenta, teniendo en cuenta su aplicación en los actuales modelos de gestión. El siguiente trabajo se concibe en la necesidad de actualizar el análisis preliminar del tema, llevado a cabo por la ingeniera industrial Annet Sori Vega [14], en su trabajo de culminación de estudios, añadiendo modelos de gestión más recientes y adaptados a las nuevas condiciones del mercado tras la pandemia. Como resultado se establecieron las brechas entre los modelos de gestión comercial empleados actualmente y los diferentes enfoques, así como el impacto que esto tiene en las organizaciones y las variables especificas a tener en cuenta en un modelo que represente dicha integración. 2. MÉTODOS Para el desarrollo de esta investigación se utilizan métodos teóricos, empíricos y estadísticos. Entre los teóricos, se utiliza el análisis y síntesis de toda la información revisada en la literatura especializada, la inducción – deducción utilizada tanto para la realización del marco teórico de la investigación como para la determinación de las variables. Como métodos empíricos, se utilizan las encuestas, entrevistas, observación directa, consulta de la documentación técnica y los informes de reportes de los resultados. Los métodos estadísticos matemáticos, que se utilizan: análisis de conglomerados (análisis clúster). De forma general, se partió de identificar las variables que definen el proceso comercial, basado en el análisis de diferentes modelos de gestión con enfoques de dirección, cadenas de suministro y marketing relacional. Partiendo de los 21 modelos analizados [14], se amplió el estudio a 54 modelos que incluyen las especialidades: Gestión Comercial, Marketing Relacional, Dirección y Gestión y Cadena de Suministro. La novedad de esta investigación radica en dos hechos fundamentales: el 58% de las referencias empleadas corresponden a documentación comercial de empresas del sector de agua y saneamiento, y el 42% del total pertenecen al período 2019-2022, lo que aporta concepciones más recientes al respecto. A continuación, la tabla 1 muestra el estado actual del estudio. Tabla 1: Caracterización de los Modelos Analizados. Modelos Analizados Cantidad % Gestión Comercial 26 48% Marketing Relacional 2 4% Dirección y Gestión 19 35% Cadena de Suministro 7 13% Total 54 100% Porcentaje por períodos de las fuentes de refencia añadidas 2010-2014 6% 2015-2018 52% 2019-2022 42% Como parte de la actualización del estudio se identificaron nuevas variables que caracterizan los diferentes modelos analizados. Tomando como base las 21 variables previamente definidas por Vega [14], se añaden otras 22 que a continuación se detallan en la tabla 2. Una vez determinada la presencia o no de cada una de estas variables en los modelos estudiados, se procede a la inserción de los datos en el software MINITAB para el análisis clúster o de conglomerados. Tabla 2: Variables Identificadas. Variables Frecuencia de aparción en modelos Alcance (AL) 100% Objetivos Estratégicos (OE) 100% Nivel de Satisfacción del Cliente 100% Calidad Percibida por el cliente (CPC) 70% Capacitación de los Trabajadores (CT) 67% Revisión, Evaluación y Control (REC) 57% Estrategias de Marketing (EM) 56% Nivel de satisfacción de la Demanda (NSD) 54% Implementación de Acciones Estratégicas (IAE) 52% Aprovecamiento de las Plataformas Virtuales (APV) 46% Matriz FODA (MF) 44% Planificación Estratégica (PE) 43% Misión (MI) 41% Visión (VI) 41% Relación con los Actores de la Cadena de Valor (RACV) 41% Desempeño de los Trabajadores (DT) 37% Comunicación Empresarial (CEM) 35% Estrategias Comerciales (EC) 33% Estado Técnico de la Infraestructura (ETI) 33% Organigrama Funcional (OF) 30% Gestión de Capacidades (GC) 22% Accesibilidad de Pago (AP) 22% Tiempos y formas de Respuesta (TFR) 20% Aprendizaje y Desarrollo Institucional (ADI) 19% Participación Cuidadana (PC) 19% Gestión Integrada de Procesos (GIP) 19% Cumplimiento del plan (CP) 17% Gestión de Pedidos (GP) 17% Responsabilidad Social Empresarial (RSE) 15% Estandarización de Procedimientos (EP) 15% Mejora Continua (MC) 15% Competitividad (CO) 13% Gestión de la Innovación (GI) 13% Gestión de Inventarios (GIN) 13% Calidad de la Cartera de la Empresa (CCE) 13% Sostenibilidad del Sevicio en el tiempo (SSE) 7% Grado de Automatización (GAUT) 7% transparencia Institcional (TINST) 7% Valores y Principios Corporativos (VPC) 6% Gestión del Cambio (GCA) 6% Resiliencia (RES) 6% Analisis Integrado de Riesgos (AIR) 4% Autonomía Organizativa (AUO) 4% 3. RESULTADOS Teniendo en cuenta las variables definidas, se realizó el análisis clúster (Tablas 2, Figura 1); en el Software MINITAB versión 2017, para evaluar en qué medida dichas variables son tratadas en los modelos analizados. Se tomaron 40 variables, los 3 restantes se descartaron ya que se encuentran presentes en todos los modelos. Fig. 1: Dendograma. Tabla 2: Variables por grupos. Variabl es Cluster 1 Variabl es Cluster 2 Variabl es Cluster 3 Variabl es Cluster 4 Variabl es Cluster 5 CPC 68% MI 100% EM 86% CPC 100% MI 100% CT 64% VI 100% EC 86% NSD 93% VI 100% APV 59% EM 88% PE 86% ETI 87% EM 100% REC 55% MF 88% CEM 86% CT 80% REC 100% MF 50% CPC 88% MI 71% RACV 73% GI 100% IAE 50% EC 88% VI 71% REC 53% NSD 100% DT 45% RACV 88% CT 71% PE 53% IAE 100% EM 41% CEM 88% IAE 71% AP 53% EC 100% CP 36% NSD 75% OF 71% PC 53% ADI 100% NSD 32% PE 75% REC 57% TFR 47% PE 100% CO 27% REC 63% ADI 57% OF 47% PC 100% GP 27% IAE 63% MC 57% EM 40% MF 50% GIN 27% APV 50% APV 43% DT 40% CPC 50% GC 27% CT 50% RACV 43% GIP 40% CT 50% MI 18% OF 50% CCE 43% CEM 40% GP 50% VI 18% DT 38% ETI 43% APV 33% GIN 50% GI 14% VPC 38% MF 29% IAE 33% GC 50% AIR 9% RSE 38% GI 29% RSE 27% RACV 50% PE 5% TFR 38% GC 29% EP 27% GIP 50% VPC 0% EP 38% AP 29% MI 20% MC 50% RSE 0% ADI 25% GCA 29% VI 20% GAUT 50% EC 0% CCE 25% DT 14% MF 20% TINST 50% ADI 0% AP 25% RSE 14% GC 20% RES 50% AUO 0% GIP 25% TFR 14% EC 20% ETI 50% RACV 0% CO 13% GIP 14% MC 20% DT 0% CCE 0% GP 13% EP 14% TINST 20% CO 0% AP 0% AUO 13% SSE 14% ADI 13% APV 0% PC 0% SSE 13% GAUT 14% CCE 13% CP 0% TFR 0% RES 13% CO 0% SSE 13% AIR 0% GIP 0% ETI 13% CP 0% GAUT 13% VPC 0% CEM 0% GI 0% NSD 0% CP 7% RSE 0% OF 0% CP 0% CPC 0% GP 7% AUO 0% EP 0% GIN 0% GP 0% AUO 7% CCE 0% MC 0% GC 0% GIN 0% GCA 7% AP 0% SSE 0% AIR 0% AIR 0% RES 7% TFR 0% GAUT 0% PC 0% VPC 0% CO 0% CEM 0% GCA 0% MC 0% AUO 0% GI 0% OF 0% TINST 0% GAUT 0% PC 0% GIN 0% EP 0% RES 0% GCA 0% TINST 0% AIR 0% SSE 0% ETI 0% TINST 0% RES 0% VPC 0% GCA 0% 4. DISCUSIÓN A partir del análisis de los elementos antes mostrados se ratifica la obtención de 5 grupos, donde quedan reflejados todos los modelos analizados. En el Grupo 1 están presentes 22 modelos, en el Segundo Grupo hay 8 modelos, en el Grupo 3 se presencian 7 modelos, al igual que en el Grupo 4, y hay 2 modelos en el Grupo 5, para un total de los 54 modelos estudiados. En el grupo 1 se encuentran todos los modelos analizados por Vega [14], y un modelo de los añadidos en la presente investigación. Esto incluye 7 modelos de Cadena de Suministro, 10 de Gestión Comercial y 5 de Dirección y Gestión. El grupo muestra como principales variables, atendiendo a su presencia en los modelos que abarca, la calidad percibida por el cliente (CPC), capacitación de los trabajadores (CT), aprovechamiento de las plataformas virtuales (APV), revisión evaluación y control (REC), Matriz FODA (MF), implementación de acciones estratégicas (IAE); todas con presencia en el 50% o más de los modelos del grupo. Con presencia de menos del 46% o menos se encuentran las variables: desempeño de los trabajadores (DT), estrategias de marketing (EM), cumplimiento del plan (CP), nivel de satisfacción de la demanda (NSD), competitividad (CO), gestión de pedidos (GP), gestión de inventarios (GIN), gestión de capacidades (GC), misión (MI), visión (VI), gestión de la innovación (GI), análisis integrado de riesgos (AIR) y planificación estratégica (PE). El resultado obtenido en este grupo responde a las diferencias de gestión del período 2017-2019 que comprende principalmente los modelos analizados por (Vega, 2021) y el período pandemia y pos pandemia 2019-2022 a los que pertenecen cerca del 50% de los modelos que añade esta investigación, dando una actualizada y necesaria perspectiva a la actividad comercial en la nueva normalidad. En el grupo 2 se encuentran contenidos 8 modelos, de los cuales 6 corresponden a la especialidad de Gestión Comercial y 2 a Dirección y Gestión. Destaca la presencia en el todo el grupo de las variables misión y visión, entre el 88% y 50% se encuentran las estrategias de marketing (EM), Matriz FODA (MF), calidad percibida por el cliente (CPC), estrategias comerciales (EC), relación entre los actores de la cadena de valor (RACV), comunicación empresarial (CEM), nivel de satisfacción de la demanda (NSD), planificación estratégica (PE), revisión evaluación y control (REC), implementación de acciones estratégicas (IAE), capacitación de los trabajadores (CT), aprovechamiento de las plataformas virtuales (APV) y organigrama funcional (OF) y en menor medida se encuentran las variables desempeño de los trabajadores (DT), valores y principios corporativos (VPC), responsabilidad social empresarial (RSE), tiempos y formas de respuesta (TFR), estandarización de procedimientos (EP), aprendizaje y desarrollo institucional (ADI), sostenibilidad del servicio en el tiempo (SSE), calidad de la cartera de la empresa (CCE), accesibilidad de pago (AP), gestión integrada de procesos (GIP), competitividad (CO), gestión de pedidos (GP), autonomía organizativa (AUO), resiliencia (RES) y el estado técnico de la infraestructura. Los modelos de este grupo se sostienen en la gestión organizacional basada en la correcta definición de sus objetivos y los elementos necesarios para cumplirlos, teniendo como fuente principal de información para el desarrollo institucional al cliente. El tercer grupo abarca 7 modelos, 4 de la especialidad Dirección y Gestión y 3 de Gestión Comercial. En más del 57% de los modelos del grupo se encuentran presentes las variables estrategias de marketing (EM), estrategias comerciales (EC), planificación estratégica (PE), comunicación empresarial (CEM), misión (MI), visión (VI), capacitación de los trabajadores (CT), implementación de acciones estratégicas (IAE), organigrama funcional (OF), revisión evaluación y control (REC), aprendizaje y desarrollo institucional (ADI), mejora continua (MC). En menor medida, menos del 48% se encuentran las variables: aprovechamiento de las plataformas virtuales (APV), relación entre los actores de la cadena de valor (RACV), calidad de la cartera de la empresa (CCE), estado técnico de la infraestructura (ETI), Matriz FODA (MF), gestión de la innovación (GI), gestión de capacidades (GC), accesibilidad de pago (AP), gestión del cambio (GCA), desempeño de los trabajadores (DT), responsabilidad social empresarial (RSE), tiempos y formas de respuesta (TFR), gestión integrada de procesos (GIP), estandarización de procedimientos (EP), sostenibilidad del servicio en el tiempo (SSE) y grado de automatización (GAUT). Estos modelos defienden la gestión estratégica comercial como actividad fundamental de dirección, reconociendo el proceso comercial como una de las funciones claves en el éxito organizacional. En el grupo número 4 se encuentran un total de 15 modelos, de los cuales 7 son de Gestión Comercial, 6 de Dirección y gestión y 2 de Marketing Relacional. Se destacan por aparición de la calidad percibida por el cliente (CPC) en todos los modelos estudiados. A continuación, entre un 93% y 50% de los modelos hacen referencias al nivel de satisfacción de la demanda (NSD), estado técnico de la infraestructura (ETI), capacitación de los trabajadores (CT), relación entre los actores de la cadena de valor (RACV), revisión evaluación y control (REC), planificación estratégica (PE), accesibilidad de pago (AP) y participación ciudadana (PC). En menos del 50% se encuentran: tiempos y formas de respuesta (TFR), organigrama funcional (OF), estrategias de marketing (EM), desempeño de los trabajadores (DT), gestión integrada de procesos (GIP), comunicación empresarial (CEM), aprovechamiento de las plataformas virtuales (APV), implementación de acciones estratégicas (IAE), responsabilidad social empresarial (RSE), estandarización de procedimientos (EP), misión (MI), visión (VI), Matriz FODA (MF), gestión de capacidades (GC), estrategias comerciales (EC), mejora continua (MC), transparencia institucional (TINST), aprendizaje y desarrollo institucional (ADI), calidad de la cartera de la empresa (CCE), sostenibilidad del servicio en el tiempo (SSE), grado de automatización (GAUT), cumplimiento del plan (CP), gestión de pedidos (GP), autonomía organizativa (AUO), gestión del cambio (GCA) y resiliencia (RES). Estos modelos definen la concepción de los procesos y sistemas basado en el cliente y el mantenimiento de las relaciones con esta parte interesada. Se caracterizan por el enfoque de todos los procesos al consumidor y los recursos necesarios para lograr la entrega de productos y/o servicios de alto valor, a fin de lograr su satisfacción. El grupo 5 está compuesto por 2 modelos de Dirección y Gestión, en los cuales se encuentran presentes misión (MI), visión (VI), estrategias de marketing (EM), revisión evaluación y control (REC), gestión de la innovación (GI), nivel de satisfacción de la demanda (NSD), implementación de acciones estratégicas (IAE), estrategias comerciales (EC), aprendizaje y desarrollo institucional (ADI), planificación estratégica (PE) y participación ciudadana (PC). En el 50% de ello se encuentran además Matriz FODA (MF), calidad percibida por el cliente (CPC), capacitación de los trabajadores (CT), gestión de pedidos (GP), gestión de inventarios (GIN), gestión de capacidades (GC), relación entre los actores de la cadena de valor (RACV), gestión integrada de procesos (GIP), mejora continua (MC), grado de automatización (GAUT), transparencia institucional (TINST), resiliencia (RES) y estado técnico de la infraestructura (ETI). Estos modelos se diferencian de los estudiados de su propia especialidad por el alto impacto que tiene en su gestión el factor innovador. Son modelos que tienen como pilar de calidad y mejora el trabajo creativo e innovador, a toda vez que reconocen la importancia de la estrategia y políticas institucionales. 5. CONCLUSIONES  La Gestión Comercial con enfoque de Cadena de Suministro y Marketing Relacional, integra todo el proceso desde la aplicación de estrategias de marketing con el fin de atraer proveedores y clientes potenciales, hasta que el producto o servicio es entregado de forma eficiente y eficaz.  La gestión comercial en un proceso clave en toda entidad, permitiendo que se establezcan las relaciones cliente-empresa con la mejor calidad posible. Para ello es imprescindible la integración con los enfoques de marketing relacional y cadena de suministros como vía para la atracción de proveedores y clientes.  La integración de todos los enfoques analizados no solo tiene un impacto positivo en el desempeño comercial de las entidades, sino que constituyen una vía segura y práctica para el logro de las metas definidas a corto y largo plazo y garantizan la estabilidad de la empresa en el mercado.  El análisis de conglomerados aplicado a estos modelos demuestra existe mucha similitud entre los modelos de Dirección y gestión y los modelos de gestión comercial, ello se debe al alto componente estratégico del proceso comercial. Sin embargo, el mismo estudio revela que el enfoque a cadena de suministro no es aplicable en la gestión comercial, pues no existe similitud alguna entre ambos tipos de modelos, lo que se debe a la palpable ineficiencia en la gestión de las relaciones y alianzas con los principales actores de los procesos de las entidades y el enfoque a la operatividad. RECONOCIMIENTOS Agradecer a todos los implicados en el proyecto sectorial en la OSDE agua y saneamiento y a todo el equipo de trabajo de esta institución por su incondicional apoyo y sabiduría. REFERENCIAS 1. Caurin , J., Emprende Pyme, Revista de Ciencias Sociales (Ve), 2018. 26(2): p.133-147. 2. Campos, M. Gestión Comercial y posicionamiento en el mercado de la procesadora Kasama Chips de la Ciudad de Santo Domingo. 2016. Universdad Autónoma de Santo Domingo . 3. Gutiérrez, R. A. (2017). Guía para Fortalecimiento Institucional: Gestión Comercial de las EPSA. La Paz, Bolivia. 4. Muñiz R., Marketing en el siglo XXI, 2006. Universidad de Catalunya. 5. Arosa-Carrera CR, Chica-Mesa JC. Inovação no paradigma do marketing relacional. Estudios Gerenciales. 2020;36(154):114-22. 6. Burbano-Pérez ÁB, Velástegui-Carrasco EB, Villamarin-Padilla JM, Novillo-Yaguarshungo CE. El marketing relacional y la fidelización del cliente. Polo del conocimiento. 2018;3(8):579-90. 7. Berne-Manero C, Marzo-Navarro M. Exploring how influencer and relationship marketing serve corporate sustainability. Sustainability. 2020;12(11):4392. 8. Boateng SL. Online relationship marketing and customer loyalty: a signaling theory perspective. International Journal of Bank Marketing. 2019. 9. Carmen Barroso EA. Marketing relacional. 2022. 10. Gómez Suárez M. Nuevos horizontes en Marketing: Relaciones intensas entre consumidor y marca. Encuentros Multidisciplinares. 2016;53. 11. Manrique Nugent MAL, Teves Quispe J, Taco Llave AM, Flores Morales JA. Gestión de cadena de suministro: una mirada desde la perspectiva teórica. Revista Venezolana de Gerencia. 2019;24(88). 12. Vinajera-Zamora A, Marrero-Delgado F, Cespón-Castro R. Evaluación del desempeño de la cadena de suministro sostenible enfocada en procesos. Estudios Gerenciales. 2020;36(156):325-36. 13. Wieland A, Durach CF. Two perspectives on supply chain resilience. Wiley Online Library; 2021. p. 315-22. 14. Vega, Anette Sori. Propuesta de modelo matemático y lista de chequeo para la evaluación de variables de gestión comercial y cadenas de suministro de las empresas de la OSDE Agua y Saneamiento. 2021. Universidad Tecnlógica de la Habana “José A. Echeverría”, CUJAE. 15. Andrade, J. E. P., La gestión comercial y su influencia en el crecimiento de las Pymes del sector turistico hotelero de la provincia de Manabí-Ecuador, 2018. Universidad Técnica de Manabí 16. Fernández , A. y. F., La Dirección Comercial en sus Componentes Básicos : el marketing,la negociación y el comercio, 2006. Universidad de La Habana. 17. Guzman , R. M., Sistema de información integral para optimizar la gestión comercial de SEDALIB, 2020. Universidad César Vallejo. 18. Herrero J., Administración, gestión y comercialización en la pequeña empresa, 2001, Ed. Paraninfo: España. ISBN: 978-849-732-029-0. 19. De Borja F., Sistematización de la función comercial, 2008, Ed. Business Pocket. ISBN: 978-849- 745-169-7. 20. Gómez Bayona , L. T., Uribe, J. P., Marketing Relacional: La evolución del concepto, Revista Espacios, 2016. 37 (25): p-11. 21. Mark ,Tadajewski, Jones, B., Historical research in marketing theory and practice: a review essay, Journal of marketing management, 2014. 30 (11-12). pp. 1239-1291. 22. Córdoba López, J. F., Del marketing transaccional al marketing relacional, Revista Entramado, 2009. 5 (1): p. 6-17. 23. Plakoyiannaki , E., Tzokas, N., Customer Relationship Management: A capabilities portfolio perspective, Journal of Database Marketing & Customer Strategy Management, 2002. 9 (2): p. 228– 237. 24. Gummeson , E., Return on relationships (ROR): the value of relationship marketing and CRM in business-to-business contexts, Journal of Business & Industrial Marketing, 2004. 19 (1): p. 136-148. 25. Choy, K., Fan, K., Development of an intelligent customer-supplier relatioship management system: the application of case-based reasoning, Journal Expert Systems with Aplications, 2003. 5 (3): p.93. 26. Gil Gomez , H., Guerola Navarro, V., Oltra Badenes, R., Lozano Quilis, J., Customer relationship management :digital transformation and sustainable business model innovation, Economic Research, 2020. 33 (1):1-18. 27. Handfield, R., Nichols, E., Introduction to Supply Chain Management, New Jersey: Englewood Cliffs, International Journal of Econometrics and Financial Management. 2014. 2(2): p. 59-71. 28. Ballou, R. H., Administración de la Cadena de Suministro, 2004. Ed. Pearson Educación: México, ISBN: 970-26-0540-7. 29. Acevedo Suárez , J. A., Gómez Acosta, M. I., La Logística Moderna en la Empresa, 2007. Ed. Félix Varela. ISBN: 978-959-07-1135-0. 30. Abeza G, O’Reilly N, Finch D, Séguin B, Nadeau J. The role of social media in the co-creation of value in relationship marketing: a multi-domain study. Journal of Strategic Marketing. 2020. 28(6): p. 472-93. 31. Alarcón Barrero R, Sánchez Vignau BS. Aproximación a la gestión de procesos en la administración pública local en Cuba: análisis conceptual y procedimiento. Economía y Desarrollo. 2018. 159(1): p.198-215. 32. Alberto León DNR, Arialys Hernández Nariño, Raul Comas Rodriguez. Procedimiento para la gestión por procesos: métodos y herramientas de apoyo. Ingeniare Revista chilena de ingeniería, 2019. 27: p. 328-42. 33. Baiyere A, Salmela H, Tapanainen T. Digital transformation and the new logics of business process management. European Journal of Information Systems. 2020. 29(3): p. 238-59. 34. Balza-Franco V, Paternina-Arboleda C, Cardona-Arbeláez D. Prácticas Colaborativas en la Cadena de Suministro: Una Revisión Conceptual. Saber, Ciencia y Libertad. 2019. 14(2): p. 77-101. 35. Berne-Manero C, Marzo-Navarro M. Exploring how influencer and relationship marketing serve corporate sustainability. Journal Sustainability. 2020. 12(11): p. 4392. 36. Cáceres VL. Panorama actual en la gestión del agua y saneamiento en Argentina. Revista Naturaleza, Sociedad y Ambiente. 2016. 3(1): p. 77-94. 37. Caliskan A. Applying the right relationship marketing strategy through big five personality traits. Journal of Relationship Marketing. 2019. 18(3): p. 196-215. 38. Carlos Moreno LP, Carlos Corpus. Gestión por procesos: regularidades metodológicas y comportamiento de su implementación. Revista Científica PUNKURI. 2022. 1: p. 70-80. 39. Darmayasa G, Yasa NNK. The influence of relationship marketing on customer loyalty: Customer satisfaction as a mediation variable. International Research Journal of Management, IT and Social Sciences. 2021. 8(6): p. 648-60. 40. Dolgui A, Ivanov D, Sokolov B. Reconfigurable supply chain: The X-network. International Journal of Production Research. 2020. 58(13): p. 4138-63. 41. Fatorachian H, Kazemi H. Impact of Industry 4.0 on supply chain performance. Journal Production Planning & Control. 2021. 32(1): p. 63-81. 42. Gandino SS. Gestión de procesos de negocios en el sector público. Journal Podium. 2019. 6(35): p. 69-86. 43. Genaro Sandoval-Nizama EC. Incidencia de la Comunicación Interna y la Gestión por Procesos en el Servicio al Cliente. Digital Publisher CEIT. 2021. 93(6): p. 203-12. 44. Kaiser M, Berger ES. Trust in the investor relationship marketing of startups: a systematic literature review and research agenda. Journal Management Review Quarterly. 2021. 71(2): p. 491-517. 45. Linares J, Pozzo S. Las redes sociales como herramienta del marketing relacional y la fidelización de clientes. SCIÉNDO. 2018. 21(2): p. 157-63. 46. Malleuve-Martínez A, Alfonso-Robaina D, Lavandero-García J, Ramos-Díaz VC. Modelo de dirección estratégica con enfoque de arquitectura empresarial para la integración del sistema de dirección de la empresa (deae-isde). DYNA. 2018. 85(207): p. 297-305. 47. Malleuve-Martínez A, Alfonso-Robaina D, Lavandero-García J, Ramos-Díaz VC. 106. Sánchez Suárez Y, Pérez Castañeira JA, Sangroni Laguardia N, Cruz Blanco C, Medina Nogueira YE. Retos actuales de la logística y la cadena de suministro. Ingeniería Industrial. 2021. 42(1): p. 169-84. 48. Sandoval JH, Guerrero DE. Empresas familiares en Colombia: hacia la construcción de un modelo de gestión comercial. Revista UDCA Actualidad & Divulgación Científica. 2010. 13(1): p. 135-46. 49. Steinhoff L, Arli D, Weaven S, Kozlenkova IV. Online relationship marketing. Journal of the Academy of marketing science. 2019. 47(3): p. 369-93. 50. Steinhoff L, Palmatier RW. Commentary: Opportunities and challenges of technology in relationship marketing. Australasian Marketing Journal. 2021. 29(2): p. 111-7. 51. Vinajera-Zamora A, Marrero-Delgado F, Cespón-Castro R. Evaluación del desempeño de la cadena de suministro sostenible enfocada en procesos. Estudios Gerenciales. 2020. 36(156): p. 325-36. 52. Zaldumbide O. Metodología para la gestión por procesos, un enfoque para la implementación. Revista de Ciencias de Seguridad y Defensa, 2019. 4 (7): p. 31-43. Sobre los autores: Rachel Zayas Hernández: Estudiante de sexto año de curso por encuentros de la Facultad de Ingeniería Industrial, Asesora del Vicedecanato de Investigación y Posgrado de la propia facultad. Perteneciente al Centro de Estudios de Técnicas de Dirección. CUJAE Niuris Daniela Borrego Fuentes: Estudiante de cuarto año de curso diurno de la Facultad de Ingeniería Industrial, Perteneciente al Centro de Estudios de Técnicas de Dirección. CUJAE Ing. Yunior González Núñez: Vicepresidente de la OSDE Agua y saneamiento. Dr. C. Annette Malleuve: Vicedecana de investigación y Posgrado de la facultad de ingeniería Industrial, Profesora… Perteneciente al Centro de Estudios de Técnicas de Dirección. CUJAE Dr. C. Daniel Alfonso Robaina: Vicerrector de Investigación y posgrado, Profesor… CUJAE UNA MIRADA A LA IDENTIFICACIÓN DE LAS COMPETENCIAS DIRECTIVAS A look at the identification of managerial competencies Lic. Jacqueline Hernández Magaña; Dr.C. Narciso Abel Piñero Rodriguez 1, Dr.C. Daimeé Padilla Aguiar 2, Lic. Jacqueline Hernández Magaña 3. 1 Profesor Titular, Centro de Estudio Técnicas de Dirección, Facultad de Ingeniería Industrial, Universidad Tecnológica de la Habana – CUJAE, abelp@ind.cujae.edu.cu 2 Especialista, CUPER & Asociados SAC. Lima, Perú, padilladaimee@gmail.com 3 Especialista de Cuadros. Centro de Inmunología Molecular. jacqueline@cim.sld.cu, RESUMEN Los recursos humanos son los principales agentes del cambio en las empresas y su eficacia depende de la conducción de los directivos. La investigación que se presenta tiene como objetivo identificar las competencias directivas de una empresa que aplica a empresa de alta tecnología. Las herramientas empleadas están soportadas por el resultado del desempeño anual de los directivos, encuestas a los trabajadores a las que se les aplica la clasificación de las competencias directivas de los expertos y encuestas sobre la calidad directiva a ambos segmentos, directivos y trabajadores. Los resultados muestran una proporción entre las tres competencias directivas: las estratégicas, las internas de la organización y las de eficacia personal, teniendo prevalencia las competencias estratégicas Palabras clave: competencias directivas, competencias estratégicas, eficacia personal, competencias internas de la organización, indicadores. ABSTRACT Human resources are the main agents of change in companies and their effectiveness depends on the leadership of managers. The research that is presented aims to show the Performance of the managerial skills of a Company that applies to a high-tech Company. The Tools used are supported by the results of the anual performance of the managers, worker´s surveys to which the classification of managerial skills from experts is applied and surveys on managerial quality To both segments, managers and workers, the results show a proportion between the three managerial competencies: strategic, internal to the organization and personal efficacy, with strategic competencies prevailing. Keywords: management skills, strategic skills, personal effectiveness, internal skills of the organization, indicators. I. Introducción El contexto socioeconómico mundial requiere de organizaciones altamente desafiantes y exigentes ante los adelantes científicos técnicos y en este perfeccionamiento la gestión del recurso humano ocupa un lugar predominante. El sector empresarial cubano está llamado a ganar en eficiencia, organización y eficacia, teniendo en cuenta que la baja eficiencia es uno de los factores que caracterizan la economía cubana. Como parte del sector empresarial se encuentran las empresas de Alta Tecnología. Empresas con un alto potencial científico que se constituyen en organizaciones económicas con resultados de impacto, este tipo de empresa innovadora, exportadora y económicamente viable, debe ser el actor principal de la articulación entre la ciencia y la economía, (Cadalzo Díaz, 2019) demanda de nuevos paradigmas organizacionales sobre el capital humano y el papel de la gestión del conocimiento como fuerzas productivas requiere un enfoque de competencias que promueva la innovación, el apoyo de las tecnologías de la información y las comunicaciones y el uso intensivo del conocimiento, la integración de procesos y la orientación a la satisfacción de cliente. Para el logro de este objetivo estratégico, un elemento importante en las organizaciones y que forma parte de sus recursos humanos lo constituyen los directivos, segmento estratégico a los que les corresponde afrontar con profesionalidad, visión, conocimiento, liderazgo y preparación las transformaciones necesarias en función del resultado deseado (Coneo Romero, 2021; Jiménez, 2021; Samá Muñoz, 2020). El marco normativo vigente sobre el Sistema de Trabajo con los cuadros sustentado en el (Decreto-Ley 13/2020, 2021) Sistema de trabajo con los cuadros del Estado y del Gobierno y sus reservas y el Decreto Presidencial 208 que es su reglamento perfeccionado de normativas anteriores sobre la materia, refiere en el capítulo II artículo 5.2 que los cuadros se desempeñan en la función pública y se definen como trabajadores que poseen la capacidad laboral requerida, una sólida preparación técnico profesional, habilidad de dirección, disciplina, constante, exigencia y cuentan con cualidades patrióticas, revolucionarias, político ideológicas y ética. Sin duda alguna los cuadros han alcanzado un alto nivel de preparación, sin embargo, en la gestión no tienen el mismo nivel por lo que en ese camino van dirigidas las acciones de preparación establecidas en el Plan de preparación que debe diseñar cada organización De ahí que dentro de la capacidad directiva el enfoque por competencias constituye una herramienta valiosa, promovida y reconocida en sus múltiples aplicaciones ya que permite el desarrollo de las personas como activo estratégico. El objetivo de este trabajo es identificar los factores que afectan el desarrollo de las competencias que poseen los directivos aplicando el modelo de evaluación del desempeño, lo que permitirá, a partir de los resultados llevar a cabo una implementación que permita el desarrollo de la labor directiva. II. Métodos Se hace un análisis de la literatura acerca del tema, a partir de las investigaciones y publicaciones realizadas por expertos, así como se revisan artículos, tesis de grado, de maestría y documentos aportados por la entidad objeto de estudio. Se emplean los métodos teóricos de investigación (análisis-síntesis, inducción deducción, histórico-lógico y el método empírico de (observación y encuestas y cuestionarios) para su análisis se emplea el software Spss versión 26 y el Microsoft Excel. En el ámbito empresarial el concepto de competencias es muy utilizado para designar un conjunto de elementos o factores relacionados con el buen desempeño de las personas, es así que el inicio del siglo XXI fue escenario del surgimiento de un nuevo enfoque dentro de las teorías del mundo empr esarial por lo que ha sido una aspiración de muchas organizaciones buscando la eficiencia y la capacidad para poder desempeñar determinadas tareas en el ambiente gerencial, militar, educativo y laboral. En este último ha tenido consenso en relación al valor de las personas en las organizaciones, siendo éstos la clave de la competitividad de las empresas a todos los niveles. Lo anterior se constata con el enfoque propuesto por David McClelland (1973), que afirma que los mejores predictores de un mayor rendimiento laboral son las características personales resistentes que él denomina “competencias”, en lugar del coeficiente intelectual, aceptado en el ámbito de la gestión empresarial y organizativa. A partir de esta publicación y en lo fundamental en la década del 80 surgen diversas teorías que profundizan en la variable competencias, las que contribuyen a que la gestión por competencias transite del ámbito de los recursos humanos y pase a ser un mecanismo clave de transformación de las organizaciones. En esa misma línea (Boyatzis, 1982), investiga sobre las competencias directivas y a este autor se deben el aporte al concepto de competencia en el campo gerencial, asociado a las características psicológicas que posibilitan un desempeño superior. Otros académicos han trabajado esta línea de investigación y puesto de manifiesto diversos enfoques y puntos de vistas a partir de valoraciones propias (Cuesta, 2005 y 2010, Bedoya Dorado, 2020; Cortez Giraldo, 2021; Del Sol Tamayo, 2011; Jiménez Puerto, 2020) comprendiendo que las competencias directivas son el conjunto de conocimientos, habilidades y actitudes observables que debe poseer un directivo las cuales les permitirá alcanzar el éxito en el desempeño de sus funciones . Los métodos y procedimientos aportados por estos para el tratamiento e identificación de las competencias, sobre las competencias directivas han servido de referente para ganar en conocimiento y experiencia incidiendo favorablemente en el cumplimiento de políticas adoptadas por el país para su desarrollo económico y social. La empresa objeto de estudio tiene resultados probados en su desempeño organizacional, desde sus inicios dedicó tiempo y pensamiento a la formación y preparación de sus directivos, sin embargo, a pesar de los resultados en la gestión empresarial se aprecian brechas en el ejercicio de dirección que afectan la calidad directiva . III. Resultados. El diagnóstico para la identificación de los factores que afectan al desarrollo de las competencias directivas se realiza en un centro que aplica a Empresa de Alta Tecnología. Los análisis de los resultados permiten realizar una propuesta para revertir las brechas identificadas en la gestión directiva, mostrando un diseño que permita identificar las competencias necesarias para el desarrollo eficaz de los directivos. A continuación, se describen los resultados de la aplicación de los métodos y técnicas de diagnóstico para la determinación de la situación actual de las competencias. 1. Caracterización del centro objeto de estudio. La empresa objeto de estudio ostenta el encargo social de investigar, desarrollar, producir y comercializar productos biotecnológicos y farmacéuticos para el diagnóstico y tratamiento de enfermedades del hombre con especial énfasis en cáncer y otras enfermedades crónicas no transmisibles. Su misión consiste en: “obtener y producir nuevos biofármacos destinados al tratamiento del cáncer y otras enfermedades crónicas no trasmisibles e introducirlos en la salud pública cubana. Hacer la actividad científicamente sostenible y haciendo aportes a la economía del país”. En cuanto a su visión, se proyecta en ser la empresa de América Latina y el Caribe con mayor impacto en la supervivencia del cáncer y otras enfermedades crónicas no transmisibles y con alta responsabilidad empresarial respecto a la economía del país y sus grupos de interés. Convertirse en una empresa biotecnológica de referencia internacional desarrollando una cultura empresarial de excelencia sobre la base de la innovación, la diversificación y la consagración al trabajo. La empresa cuenta con una estructura está basada en ciclo cerrado de la biotecnología (investigación + desarrollo + producción + comercialización). La misma está conformada por 3 Vicedirecciones; Operaciones Industriales, Investigación y Desarrollo y Administración y Servicios. Cada una de las Vicedirecciones juega un papel fundamental y determinante en el cumplimiento de la misión. Cuenta con más de 1000 trabajadores y de ellos 87 cuadros. 2. Análisis de las competencias de los directivos. En la revisión bibliográfica se estudiaron numerosas definiciones aportadas por diferentes autores sobre competencias, en las que se percibe una conceptualización holística que tiene en cuenta, la experiencia, la cultura organizacional, las características personales reconociendo las potencialidades de los recursos humanos para su desempeño y desarrollo. Cuesta (2010) la define como “las características subyacentes en las personas, asociadas a la experiencia, que como tendencia están causalmente relacionadas con actuaciones exitosas en un puesto de trabajo contextualizado en determinada cultura organizacional”. Las competencias son el resultado de un largo proceso de formación y desarrollo, por tanto, los directivos deben enfocar sus objetivos hacia la adquisición de nuevos conocimientos e influir en sus colaboradores. (Samá Muñoz, 2020; Santacruz Montenegro, 2019; Vallín Contreras, 2018) y éste no se puede ver desligada de la interacción con el entorno. Por ello, la formación de competencias para aprender mejor y para desplegar destrezas que posibiliten, manejar conflictos, tomar decisiones y resolver problemas, depende en gran medida de la manera en que éstas las pueda desarrollar Las competencias estratégicas, las internas de la organización y las de eficacia personal se identifican como competencias directivas, por tanto, responden, al criterio, son comportamientos habituales y observables. ¿Qué incidencia tienen estos sobre el desempeño organizacional? Es lo que muestra el diagnóstico realizado, para ello el estudio ha tenido en cuenta la propuesta de los autores (Cardona, 2005), respecto a definir las competencias teniendo en cuenta su clasificación. Su aporte se centra en determinar los indicadores de mejora y cuáles son los puntos débiles, a partir de cada uno de los aspectos de las dimensiones. Por otra parte, se tiene en cuenta los resultados anuales del desempeño de los directivos pues este es una herramienta de dirección por medio de la cual es posible valorar el impacto en el desempeño del cargo, el que vinculado con la valoración de los subordinados respecto a este desempeño permite un acercamiento a cuan efectivo está siendo la actividad de dirección (De León De la Garza, 2018; García Acosta, 2022). ¿Cómo diagnosticar las competencias directivas en la organización? ¿Cuál es la percepción de los trabajadores sobre la calidad directiva en la organización? ¿Qué proceder realizar para llevar las competencias actuales hacia el estado deseado? Las respuestas a las interrogantes es la base del diagnóstico que se expone a partir de las debilidades identificadas en los directivos de la organización, se tuvo en cuenta la propuesta que conciben los autores. A continuación, se muestran los resultados obtenidos en el estudio. Figura 2. Resultados del desempeño de los directivos. El indicador resultados del trabajo con los sustitutos como se puede apreciar en la figura 2, obtiene una media de 4.4. De los 7 aspectos a evaluar, los mayores valores se encuentran en los resultados que obtiene en la preparación, el cumplimiento de los objetivos y la exigencia, lo contrario a los resultados del trabajo con los sustitutos que obtiene menor puntuación. Aspecto que requiere atención y prioridad, si se tiene en cuenta que entre las responsabilidades de cualquier directivo es el desarrollo, la potenciación y preparación de sus sustitutos. Figura 3. Toma de opinión a los trabajadores. La figura 3 ilustra la valoración de los trabajadores, respecto a las competencias que poseen los directivos, para lo cual se diseñó una encuesta que contiene 19 ítems. Como 4.8 4.8 4.4 4.6 4.6 4.7 4.9 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9 5.0 cumplimiento de los objetivos exigencia resultados del trabajo con los sustitutos cumplimiento de lo establecido en las normativas habilidades para desarrollar la comunicación capacidad laboral y de dirección resultados que se obtiene en la preparación 4.05 3.9 4 4 3.9 3.8 4 3.7 3.2 4.1 3.1 3.9 3.9 3.5 3.7 4.1 4.2 4 3.8 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 se puede apreciar hay cinco indicadores como son, el incentivo de la formación (3.1), la capacidad para planificar, organizar (3.2), la comunicación (3.5), dominio de la actividad que dirige (3.5) y el clima laboral (3.5), que merecen la atención de la máxima dirección de la empresa. Figura 4. Competencias estratégicas. Los indicadores planteados en la encuesta diseñada guardan relación con la clasificación de las competencias directivas que exponen los expertos (Cardona, 2005). Para las competencias estratégicas en la figura 4, se valoran el cumplimiento de los objetivos, funciones y atribuciones del cargo con una media de 4.05 siendo la más valorada, le sigue la exigencia en el control, cuidado y uso de los recursos bajo su responsabilidad con el 4.03 y a continuación identifica y comprende las diferentes variables en la consecución de los objetivos con 4.1. Figura 5 Competencias internas de la organización 4.05 4.03 4.1 3.98 4 4.02 4.04 4.06 4.08 4.1 4.12 cumplimiento de objetivos, funciones, atribuciones del cargo y tareas asignadas exigente en el control, cuidado y uso de los recursos bajo su responsabilidad identifica y comprende las diferentes variables en la consecucion de los objetivos En el caso de los indicadores para evaluar las competencias hacia el interior de la organización, como muestra la figura 5, el aspecto incentiva la formación y preparación de sus subordinados obtiene el menor valor con un puntaje de 3.3; este resultado si lo comparamos con la figura 2, nos dice que estamos ante una brecha importante en la actividad directiva por parte de los que tienen la responsabilidad de ejecutar los destinos de la empresa, lo que requiere con urgencia su revisión y reversión. Figura 6. Competencias de eficacia personal En el caso de las competencias de eficacia personal en la figura 6, ubica en primer orden la capacidad para conducir personas y la capacidad para conducir procesos con 4.0, le sigue en ese orden el liderazgo en su colectivo, la modestia y sencillez en su conducta, el 3.8 3.3 3.8 3 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 brinda prioridad a la adecuada selección y preparaciòn de los sustitutos incentiva la formaciòn y preparaciòn de sus subordinados consecuente con loque dice y hace 3.9 4 3.9 4 3.7 3.9 3.8 3.9 3.5 3.9 3.8 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 4 4.1 buen trato y respeto en las relaciones personales, así como las competencias para la escucha con 3.9 y la comunicación sistemática tiene el menor puntaje con 3.5, de igual manera es un indicador que requiere revisión, sin comunicación no es posible conocer ni comprender las estrategias de la organización y menos aún lograr compromiso de los trabajadores con los objetivos propuestos. Figura 7. Resumen de las dimensiones La representación gráfica de la figura 7, resume las tres dimensiones de las competencias directivas. El mayor puntaje se refleja en las competencias estratégicas con el 35%, le siguen las competencias de eficacia personal con el 33% por último, las competencias a lo interno de la organización con 32%. Analizando en su conjunto el resultado de la percepción de los trabajadores sobre la labor directiva, se puede apreciar que existe proporción entre las tres competencias y ello es importante para el logro de los resultados de la organización. No obstante, es necesario la revisión con mirada crítica cada uno de los indicadores, que, de no atenderse con intencionalidad, puede llevar al ocasionar el efecto no deseado para la empresa. Figura 8. Evaluación de la calidad directiva 1 2 3 4 5 Capacidad para conducir la organización Capacidad para conducir a las personas Capacidad para conducir los procesos Hay un proyecto institucional definido y compartidos por todos los miembros Hay una visión futura, deseada y compartida por todos Se cumplen las metas organizacionales La cultura organizativa prevaleciente valora altamente la calidad Los resultados satisfacen necesidades, expectativas, y exigencias internas Los resultados satisfacen necesidades, expectativa y exigencias externas competencias estratégicas ; 4.1; 35% competencias internas; 3.7; 32% competencia de eficacia personal, 3.8, 33% Dimensiones de las competencias Un clima laboral y las relaciones interpersonales favorables Disposición de la dirección para comunicarse con el personal Disposición del personal para comunicarse con la dirección Apoyo, Impulso y conservación del conocimiento Facilidad para innovar y crear Los problemas se solucionan entre todos los que le compete Los resultados son competitivos Alta productividad del trabajo Dirigentes con un liderazgo La aplicación de la herramienta sobre calidad directiva, que se refleja en la figura 8, percibe obtener la valoración de los propios directivos sobre su capacidad en los temas de dirección y la mirada de los trabajadores sobre su gestión. Como se puede apreciar, las percepciones de uno y otro difieren en cada uno de los aspectos. IV. DISCUSIÓN Las interrogantes del trabajo investigativo responden a los resultados de las herramientas empleadas, las que aportan información y permiten replantearse la línea de trabajo a seguir. Los resultados obtenidos en la evaluación del desempeño anual del directivo, validan las competencias directivas, que a juicio del grupo de trabajo que colabora con la investigación es posible emplearla con este criterio al ser de obligatorio cumplimiento en la organización, los resultados que aporta son valores elevados, lo que permite identificar estar en presencia de directivos con alta competitividad. Sin embargo, cuando se examinan las derivaciones de las encuestas a los subordinados se aprecia una notable diferencia entre uno y otro. Particular importancia se le concede a los resultados de las dimensiones de las competencias estratégicas, las internas de la organización y las de eficacia personal, las variables con mayor puntuación en cada una de ellas a lo individual, se refiere al cumplimiento de los objetivos (estratégica), adecuada preparación (interna de la organización) y conducción de personas (eficacia personal) en su conjunto obtienen el resultado deseado que espera una organización, lo que expresa estar en presencia de directivos enfocados en primer lugar a la estrategia de la empresa, al desarrollo y crecimiento y al compromiso de los empleados en la empresa. Siguiendo el análisis anterior, se recurre a la variable calidad directiva, los resultados de los indicadores de esta herramienta expresan por si sola las claras brechas entre ambos segmentos y esta variable que se analiza es un referente en cuanto al potencial de desarrollo de las personas, a su nivel de lealtad, compromiso personal y resultado, los que en su conjunto trasciende al futuro de la organización, por lo que la atención y comparación de cada uno de los aspectos, merecen la reflexión en el órgano colectivo de dirección. 3.74 4.05 trabajadores directivos La finalidad del presente trabajo ha sido dar a conocer la valoración que hacen de directivos y trabajadores sobre las competencias directivas, concediendo importancia a la percepción que tienen los trabajadores sobre éstas, las que a criterio de la autora es otra concepción interesante a tener en cuenta para identificarlas. V. CONCLUSIONES 1. El tema de las competencias ha venido cobrando fuerza en las últimas décadas, lejos de ser un tema aislado, forman parte de la organización. Éstas representan en la actualidad una cualidad para que el directivo potencie su actuación. 2. Vistas como el comportamiento habitual y observable, actitudes, aptitudes, habilidades y destrezas, son factores que contribuyen al éxito del desempeño del directivo, su entrenamiento sistémico antes del ejercicio propiamente del cargo permitirá encontrarse en mejores condiciones para su desempeño. 3. De acuerdo a los resultados de las herramientas empleadas en el diagnóstico se puede identificar dónde se encuentran las debilidades de los directivos, y nos permite evaluar cuales son las competencias a las que se les debe dar mayor importancia, en función de ello el diseño de un plan mejoras para revertir estos resultados. 4. Otro resultado positivo es el que se muestra en las dimensiones de las competencias, el que constituye una fortaleza desde el punto de vista que para lograr el éxito en las organizaciones tiene que existir equilibrio entre cada una de ellas, independientemente que las competencias estratégicas las identifican como las más valoradas. VI. RFERENCIAS Boyatzis, R. E. (1982). The competent manager: A model for organizational effectiveness (N. Y. Wiley-Interscience, Ed.). Cadalzo Díaz, Y. B. A., María Julia; Pulido González, Arianna; Caballero Torres, Idania; Albojaire Santamaría, Mirelis (2019). Regularidades de la gestión del capital humano en empresas de alta tecnología del sector biotecnológico farmacéutico cubano. Confin Habana, 13(1). Cardona, P. G. L., Pilar. (2005). Como diagnosticar competencias para la competencia directiva. Revista Antiguos Alumnos. Coneo Romero, C. B. M., Mirna Patricia; Figueroa Molina, Roberto Enrique. (2021). Competencia directivas: base para una gestión de la innovación en instituciones universitarias. Revista Boletin REDIPE, 10(13), 87-95. Cuesta Santos, A. (2011). Gestión de competencias. Editorial Academia. Decreto Ley 13. (2021). Gaceta de la República. Decreto Presidencial 208 (2021). Gaceta de la República. Del Sol Tamayo, A. N. (2011). Procedimiento para el desarrollo de competencias directivas en una empresa azucarera. [Master, Universidad de Las Tunas] McClelland, D. C. (1973). Testing for competence rather than for "intelligence." [doi:10.1037/h0034092]. American Psychological Association, 1-14. https://doi.org/10.1037/h0034092 Samá Muñoz, D. (2020). Procedimiento para evaluar la caldiad directiva en la Universidad Agraria de La Habana. Revista Estrategia y Gestión Universitaria, 8(1), 29-40. CONTRIBUCIÓN AL CONTROL DE GESTIÓN DE LA CALIDAD DE VIDA URBANA ASOCIADA AL TRANSPORTE EN CIUDADES PATRIMONIALES.APLICACIÓN EN LA CIUDAD DE MATANZAS. Elayne Tápanes Suárez1, Naylet Sangroni Laguardia2, Orlando Santos Pérez1, Maylín Marqués León2 1 Empresa de Proyectos de Arquitectura e Ingeniería de Matanzas, 2 Universidad de Matanzas, Cuba, Dirección e-mail: elayne-tapanes@empai.cu RESUMEN El presente trabajo titulado “Contribución al control de gestión de la calidad de vida urbana asociada al transporte en ciudades patrimoniales. Aplicación en la ciudad de Matanzas ” , tiene como objetivo general implementar un procedimiento para la confección del Cuadro de Mando Integral, a partir de la construcción de un sistema de indicadores de control de gestión para cada proceso según las perspectivas de finanzas, clientes, procesos internos y desarrollo. Entre los métodos y técnicas utilizados se encuentran la revisión bibliográfica, encuestas, tormenta de ideas y el método Delphi apoyados por herramientas informáticas como Microsoft Office Excel 2010, Microsoft Office Visio 2010, EndNote X7 y Expert Choice que permiten dar un basamento científico a la investigación. Como resultado de la investigación se logra la construcción del CMI para el control de la gestión de la calidad de vida urbana asociada al transporte en ciudades patrimoniales cubanas como la ciudad de Matanzas. PALABRAS CLAVES: Control de gestión, calidad de vida urbana, transporte, Cuadro de Mando Integral, índice integral. CONTRIBUTION TO THE MANAGEMENT CONTROL OF URBAN QUALITY OF LIFE ASSOCIATED WITH TRANSPORTATION IN HERITAGE CITIES. APPLICATION IN THE CITY OF MATANZAS. ABSTRACT The present work entitled "Contribution to the management control of the quality of urban life associated with transport in heritage cities. Application in the city of Matanzas ", has as general objective to implement a procedure for the preparation of the Balanced Scorecard, from the construction of a system of management control indicators for each process according to the perspectives of finances, clients, processes internal and development. Among the methods and techniques used are bibliographic review, surveys, brainstorming and the Delphi method supported by computer tools such as Microsoft Office Excel 2010, Microsoft Office Visio 2010, EndNote X7 and Expert Choice that allow a scientific basis for research. . As a result of the investigation, the construction of the CMI is achieved to control the management of urban quality of life associated with transport in Cuban heritage cities such as the city of Matanzas. KEY WORDS: Management control, urban quality of life, transportation, Balanced Scorecard, integral index. INTRODUCCIÓN La calidad de vida urbana, según Vicuña et al. (2019) puede considerarse como las condiciones de vida objetivas de la población generada a partir de las actuaciones y dinámica de transformación del espacio urbano, incluidas por actores públicos, privados y la sociedad civil. En correspondencia, Fernández Araque et al. (2007) se refiere a la calidad de las condiciones de vida de una persona; a la combinación de componentes objetivos y subjetivos, es decir, como la calidad de las condiciones de vida de una persona junto a la satisfacción que ésta experimenta; y a la combinación de las condiciones de vida y la satisfacción personal ponderadas por la escala de valores, aspiraciones y expectativas personales. Como elemento común en todas las definiciones resalta como el grado en que una sociedad, mediante la provisión de bienes y servicios, sea capaz de satisfacer cierta gama de necesidades de una población (Covas Varela et al., 2017). Todas las disciplinas que lo abordan lo hacen desde su propia perspectiva, aunque siempre mantienen su relación con el contexto urbano y el tiempo en que esta se establece. La calidad de vida se presenta en la literatura como un concepto complejo, integral y, analizado desde diferentes ciencias, su definición operacional resulta difícil (Sangroni Laguardia et al., 2021a). En tal sentido, es posible establecer una de sus esenciales condiciones: su carácter multidimensional. Sin embargo, el crecimiento demográfico que ha experimentado el planeta ha afectado el desarrollo urbano de las ciudades y la calidad de vida de los que viven en ellas (Castillo Ly, 2018). Según la Organización de las Naciones Unidas (ONU), el 70 % de la población mundial vivirá en ciudades para el 2050. En los países de América Latina y el Caribe, se estima que la población urbana sobrepasará el 85 % (Hábitat, 2016). La concentración de la población y de las actividades económicas, culturales y sociales en las áreas urbanas, junto a las repercusiones ambientales y humanitarias, trae oportunidades, pero también plantea retos para la sostenibilidad en términos de transporte (Aguirre et al., 2019). Esto implica, considerar y asegurar que los beneficios de la urbanización sean compartidos y lograr que las ciudades y los asentamientos humanos sean seguros, resilientes y sostenibles (Ameriso, 2018). En correspondencia, las principales líneas estratégicas de los programas de desarrollo de las Naciones Unidas a partir del año 2015, confirma la necesidad de un enfoque holístico e integral en la gestión de las áreas urbanas García Castro et al. (2018a). La expansión acelerada y desordenada de las ciudades latinoamericanas de las últimas décadas, se ha traducido en centros urbanos que no cuentan con las condiciones para satisfacer las necesidades de movilidad, infraestructura y servicios públicos de manera equitativa; dichos problemas son resultado de los débiles procesos de gestión urbana (Almeida Torrens et al., 2020). Tal crecimiento puede implicar, entre otros aspectos, un aumento de la solicitud de recursos y servicios públicos urbanos, por lo que se exige de los gobiernos nacionales y locales capacidades para satisfacer dicha demanda. En este sentido, el transporte público constituye un medio de movilidad y es una herramienta fundamental para el desarrollo de la sociedad y resulta protagónico para el desarrollo socioeconómico de las naciones (Sangroni Laguardia et al., 2021b). El transporte está vinculado directamente con las actividades económicas que se generan en el país, por lo cual existe una estrecha relación entre los servicios que se ofertan con el número de viajes y con el volumen de pasajeros a transportar (Seguí Pons et al., 2016). La calidad de los modos de transporte utilizados al interior de las ciudades es importante porque tienen vital trascendencia en la calidad de vida, movilidad y uso del espacio público. Los gobiernos a nivel mundial mediante la gestión urbana orientan sus proyectos a mejorar la calidad de vida de la población con una visión global por mejorar el entorno donde los ciudadanos se desenvuelven a través de políticas que impliquen mejoramiento de la educación, salud, ambiente, infraestructuras y transporte (Castillo Ly, 2018). En Cuba, el sector del transporte tiene una estrecha relación con una de las problemáticas que a nivel social presenta un mayor número de insatisfacciones en la población. En los últimos años los estudios sobre la calidad de vida urbana asociada al transporte se han basado fundamentalmente en las condiciones en que las mujeres efectúan sus viajes, basándose en la seguridad de las mismas protegiéndolas de las agresiones sufridas durante sus viajes en el transporte público y así contribuir a una mejor calidad de vida de las féminas (Romero Torres et al., 2016). En correspondencia, Selva Urbina (2017) hace referencia a una serie de indicadores para medir la calidad del servicio de transporte urbano entre ellos se encuentran el cumplimiento de la demanda, la accesibilidad, el trato destinado a los usuarios, la información, el confort de los ómnibus y las paradas, la seguridad, el impacto ambiental, condiciones para personas con discapacidad, y el mínimo tiempo posible de viaje. Las administraciones públicas deben adoptar estrategias de actuación adecuadas a la realidad local existente, con el fin de desarrollar con éxito la ejecución de esos procesos, por lo que, la gestión debe estar orientada a la eficiencia y a la mejora global de la calidad de vida de los ciudadanos (García Castro et al., 2018b). Esta práctica no es una labor exclusiva del gobierno o de las instituciones gubernamentales, pues los agentes privados (personas, ciudadanos, empresas, organizaciones sociales, entre otras) inciden enormemente en la transformación y el perfeccionamiento de las ciudades (Andrés Llano, 2018); sino una articulación de un conjunto de procesos dirigidos a hacer producir, funcionar y mantener la ciudad, a partir de las necesidades básicas de la población que los habita tanto en el orden económico, político y social; a partir del enfoque sistémico, el estratégico, el integrado, el de desarrollo sostenible y el participativo (Almeida Torrens, Martha Zúñiga Igarza and Gómez Consuegra, 2020). En Cuba, la situación actual es bien compleja, resolver problemáticas puntuales, necesarias y posibles del pueblo es un compromiso ético y político de la dirección del Gobierno a todos los niveles, ello supone estimular la creatividad, pensar, hacer y desarrollar proyectos coherentes. La profundidad y la agilidad que exige la actualización del modelo socioeconómico cubano demanda conocimiento, confianza, transparencia en la gestión, la toma de decisiones y el manejo de los recursos (Duro Novoa, 2018). En tal sentido, se pone de manifiesto la urgente necesidad de rescatar la cultura del detalle que tiene impacto en la calidad de vida, donde la actitud de las autoridades encargadas de gestionar sea buscar que las cosas tengan perfección, a través de velar por que las condiciones sean óptimas tanto en la terminal donde las personas gestionan el transporte, como en las paradas, y en el trato y la calidad de los servicios del sector. Para evaluar la calidad de vida urbana e incorporar su gestión al proceso de toma de decisiones, resulta de vital importancia los indicadores que midan el comportamiento de la gestión. En el estudio de investigaciones precedentes estos indicadores abarcan desde el análisis de movilidad, en el cual debe incluirse de manera esencial el fenómeno de congestión y la gestión de las autoridades competentes (Martínez Suaza, 2019), hasta el enfoque de sustentabilidad en el transporte para lograr una mayor calidad de vida en los habitantes de zonas urbanas en el que se incluyen aspectos ambientales y de participación social (Santos Pérez, 2020). En correspondencia, la calidad de vida urbana refleja la necesidad de integrar miradas objetivas y subjetivas, que permitan comprender qué es importante para los habitantes. En términos de transporte este problema puede observarse por componentes elementales que evidencien subutilización de espacios disponibles para caminarías y flujo peatonal, así como la carencia de una red articulada y eficiente de espacios para descanso, esparcimiento pasivo en la red de senderos peatonales y andenes, como parte de un sistema integrado de movilidad que dé respuesta a los planteamientos inmersos en políticas y planes de desarrollo regional. La accesibilidad regional, centralización, conectividad de carreteras y caminos, diseño de carreteras, condiciones de transporte peatonal y en bicicleta, calidad del transporte público, disponibilidad y manejo de estacionamientos, administración de la movilidad, son elementos relacionados con la calidad de vida y cada uno de ellos la afecta de modo parcial, pero sus efectos son sinérgicos (Litman and Steele, 2017). De igual manera, la sostenibilidad es la relación entre la sociedad y lo ecológico que permite mejorar y desarrollar la calidad de vida y defienden la necesidad de políticas asociada al transporte relacionadas con la calidad de vida de los ciudadanos, la eficiencia, y la sostenibilidad. Por otra parte, para la evaluación del servicio transporte de pasajeros utiliza como parámetros la seguridad en la transportación, la información, el tiempo de viaje y el confort, el estado técnico del ómnibus, el tiempo de recorrido, el confort del ómnibus y de las instalaciones y el trato a los pasajeros (Torres Pérez, 2018). El perfeccionamiento de la gestión pública conduce a la necesidad de aplicar herramientas avanzadas de los nuevos modelos de gestión como solución permanente, integral y sistemática a las deficiencias e insuficiencias de la actual gestión cubana; dirigida a la disponibilidad de una adecuada infraestructura de transporte urbano, que permita movilizar a personas y bienes de modo digno, oportuno, confiable y económico, que integra indudablemente el núcleo de necesidades básicas comunes, por lo que conlleva a una adecuada gestión de las políticas públicas asociadas al transporte. En tal sentido, para la gestión eficaz del transporte, así como cada uno de los procesos comprendidos en esta, es necesario un instrumento que contribuya a la toma de decisiones directivas por parte de las estructuras gubernamentales que atienden el sistema de transporte terrestre y proporcione un control efectivo de cada uno de sus objetivos, constituyendo el Cuadro de Mando Integral un instrumento viable para lograr ese fin, ya que proporciona información periódica sobre el nivel de cumplimiento de los objetivos previamente establecidos mediante indicadores (Abad Alvarado, 2019). En el actual contexto económico, social, tecnológico y medioambiental, la gestión pública debe estar centrada en desarrollar capacidades para adaptarse y anticiparse al cambio donde la herramienta de gestión denominada Cuadro de Mando Integral permite contar con un adecuado sistema de control que incentiva la eficiencia de la gestión en función de trazar y hacer cumplir objetivos o políticas (Ramos Acevedo et al., 2020). Actualmente se evidencian insuficientes niveles de articulación de actores, y la gestión pública orientada al transporte, debe estar más cerca de las percepciones de la población, donde se aprecia la ausencia de herramientas integrales que aborden este tema de manera dinámica, sistémica e integral con el uso de herramientas de gestión, que generen información y conocimiento, que permitan la formulación de estrategias y el planteamiento de nuevos objetivos estratégicos con el propósito de garantizar una acertada toma de decisiones y de esta forma ser más efectivos y eficaces en lograr una adecuada calidad de vida urbana. METODOLOGÍA Tomando como base el objeto de investigación, en la presente sección se concibe y describe el procedimiento para la construcción del Cuadro de Mando Integral (CMI), herramienta para la contribución al control de gestión de la calidad de vida urbana asociada al transporte en ciudades patrimoniales cubanas. Procedimiento para la aplicación del Cuadro de Mando Integral El CMI no tiene un procedimiento único para su confección. A partir del análisis bibliográfico se pudo constatar que la metodología expuesta por Nogueira Rivera (2002) constituye una de las propuestas más completas. A partir de este procedimiento Santos Pérez (2020) toma las fases de diseño de los indicadores, el diseño del sistema de información y la implantación, y se adecua al carácter multiempresarial y las particularidades del proceso de gestión de la calidad de vida urbana asociada al transporte en ciudades patrimoniales cubanas, a través de la incorporación del procedimiento específico para la construcción de índices sintéticos (Medina León et al., 2014). Figura 1: Procedimiento para la construcción del Cuadro de Mando Integral. Fuente: Santos Pérez (2020). La figura 1 muestra el procedimiento para la construcción del Cuadro de Mando Integral, compuesto por cuatro (4) etapas y nueve (9) pasos: Etapa 1. Orientación al diseño, con los pasos (1.1) Selección de la unidad de la organización y (1.2) Explicación detallada del CMI; Etapa 2. Definición de la arquitectura de los indicadores, con los pasos (2.1) Identificación de las relaciones causa-efecto, (2.2) Selección de indicadores, (2.3) Expresión de cálculo y frecuencia de análisis y (2.4) Representación gráfica; Etapa 3. Sistema de información, con los pasos (3.1) Diseño del sistema de información gerencial y (3.2) Establecimiento de flujos de información; y Etapa 4. Implantación, con el paso (4.1) Integración a todas las fases de la gestión. Por otra parte, la figura 2 muestra el procedimiento para la construcción de índices sintéticos, compuesto por cinco (5) pasos: (1) Recopilación de los síntomas, (2) Reducción del listado, (3) Obtención de coeficientes de prioridades (pesos), (4) Formulación matemática y cálculo del índice cuantitativo y (5) Búsqueda de las causas de comportamiento. Figura 2: Procedimiento para la construcción de índices sintéticos. Fuente: Medina León et al. (2014). RESULTADOS A partir del objetivo del estudio, se desarrolla la validación práctica de los resultados científicos descritos en la ciudad de Matanzas, a partir de la aplicación del procedimiento para la construcción del Cuadro de Mando Integral como herramienta importante y potente dentro del control de gestión, por permitirle a la dirección contar con la información oportuna, relevante y puntual para la toma de decisiones y la segunda, por el hecho de que las empresas son tan eficientes como lo son sus procesos empresariales. La estructura del Cuadro de Mando Integral implementado en las organizaciones sin fines de lucro y en particular en las entidades pública, podrán modificar las perspectivas, para darle más importancia a los usuarios o sociedad y no a la financiera, porque dichas organizaciones su objetivo fundamental es proporcionar bienestar social a los ciudadanos (Kaplan and Rugelsjoen, 2010). Del análisis de la literatura respecto a la aplicabilidad del Cuadro de Mando Integral en las entidades públicas, se puede comentar que el modelo sufre cambios en las posiciones de las perspectivas y en los nombres, por ejemplo en la de Clientes (usuarios, sociedad, comunidad y beneficiarios), Aprendizaje y crecimiento (Recursos Humanos, empleados, Innovación, formación y organización), Procesos internos (Procesos y proyectos), Financiera (Recursos financieros y restricciones (Oviedo Rodríguez, 2018). El Cuadro de Mando Integral es una herramienta de gestión estratégica que permite tener bajo control y relacionadas todas aquellas medidas que representan las variables claves para dirigir un negocio (Sánchez Vázquez et al., 2016). El equipo de trabajo, opta por diseñar e implementar el Cuadro de Mando Integral para toda la estructura en general, guiado por la Oficina del Conservador de la ciudad de Matanzas y el Centro Nacional de Vialidad en lo referido a la gestión de la calidad de vida urbana asociada al transporte. La capacitación inicial a los miembros del equipo se efectuó mediante seminarios específicos sobre aspectos generales y técnicas del Cuadro de Mando Integral, debido a que todos los integrantes deben poseer conocimientos generales del tema y con qué objetivo se realiza el mismo. En estos seminarios el principal interés fue el de esclarecer dudas sobre la funcionalidad de la nueva herramienta propuesta para la gestión de la estrategia, conocer la opinión y las preocupaciones relacionadas con la implementación y el desenvolvimiento de esta e identificar conflictos o divergencias de opiniones en los integrantes del equipo. Se realizaron sesiones de trabajo, en grupos divididos por cada perspectiva. Inicialmente se expusieron los indicadores y se inició el debate para así determinar la forma de calcularlos, el período en que sería conveniente medirlo, las metas a alcanzar, los responsables por cada uno y el ajuste de los valores propósitos, lo que conlleva a la realización de las fichas para cada uno de los indicadores. Una vez analizados los indicadores se procede a estimar el peso relativo para cada indicador, a tal efecto se aplica el método Proceso Analítico Jerárquico. Para el cálculo de los índices sintéticos se aplica una función aditiva: donde: IS: Índice sintético. Wj: Peso relativo de cada indicador (determinado mediante el método Proceso Analítico Jerárquico). Vej: Valor escala otorgado a cada indicador de acuerdo al valor medido del mismo. K: Cantidad de indicadores. Los indicadores son uno de los instrumentos de medición analítica más utilizados en la práctica en multitud de campos de la realidad social. Se obtienen a partir de la comparación de los datos de lo planificado y lo real alcanzados para las diferentes actividades de una organización en un tiempo determinado (Barbei et al., 2018). Los valores reales de los indicadores permiten conocer el grado de cumplimiento de los objetivos, así como controlar y trazar estrategias. Son instrumentos que expresan un resultado cuantificable, y constituyen una herramienta para dirigir y gestionar una organización, de forma general o por dimensiones, al facilitar la medición de su avance (Galvis et al., 2020). El número de indicadores puede variar según el nivel del cuadro de mando concreto, pero en general, el número baja a medida que se desciende en la organización debido al grado de influencia que sobre ellos puede ejercer la unidad o el individuo (Garcia Cespedes and Cordova Flores, 2019). Es importante considerar que los indicadores cuantitativos son indicativos de la realidad, es decir, son solo marcadores y no pretenden describir todo lo que ocurre. Para trabajar con los indicadores debe establecerse todo un sistema que vaya desde la correcta comprensión del hecho o de las características hasta la de toma de decisiones acertadas para mantener, mejorar e innovar el proceso del cual dan cuenta (Medina León, 2017). Invariablemente, una evaluación eficaz, sobre todo si se habla de la medición del desempeño institucional de cualquier organismo público, requiere que se determinen escalas de medidas. Derivado de esto, la existencia de indicadores es una premisa fundamental en todo organismo público, ya que permiten medir, controlar, evaluar y corregir las acciones del Estado en su quehacer institucional, en términos del logro de la efectividad, en ese contexto, el Cuadro de Mando Integral es una herramienta que puede coadyuvar a ser más eficiente el desempeño de la gestión de los entes públicos (Peralta Llivipuma, 2019). Una primera evaluación tomando como base los criterios de diferentes expertos permitió aplicar la escala para la valoración de los índices sintéticos (Figura 3) propuesta por Santos Pérez (2020). Para la recodificación de la escala, declarándose como valores de escala admisibles los que se encuentran en el rango de 2 a 4. Para valor 3, se encuentra bajo control, y para valores de 2 y 4 el indicador se encuentra bajo control, próximo a los valores propósitos mínimo y máximo, respectivamente. El hecho de que un indicador tome un valor de escala igual a 1 o 5, conlleva a la puesta en práctica de acciones correctivas, pues esto presupone que el indicador se encuentra fuera de control. Se automatiza el Cuadro de Mando Integral, mediante el empleo de la plataforma WordPress, la que ayuda a la interacción de funcionarios y usuarios y el flujo de información, en un ambiente web de fácil acceso mediante el portal del ciudadano matancero. Además permite obtener un valor único que realiza una fácil comparación con períodos precedentes u otras empresas; así como el estudio de tendencias; los elementos contemplados en su creación son producto de un estudio científicamente argumentado, en el cual resultaron fuentes de la información académicos y empresarios reconocidos en la actividad que se estudia; no requiere que los empresarios tengan de un conocimiento profundo sobre el tema que aborda el indicador para su utilización en la toma de decisiones; resulta factible crear una relación causa – efecto entre los resultados alcanzados y los inductores de actuación; y son herramientas que permiten un diagnóstico permanente del sistema, así como vincularse a otros procedimientos de mejora empresarial. Figura 3: Escala para la valoración de los índices sintéticos. Fuente: Santos Pérez (2020). CONCLUSIONES En la gestión urbana ante el crecimiento de la movilidad, resulta indispensable la implementación de medidas capaces de acompasar el funcionamiento del sistema vial y aminorar la incidencia negativa de sus componentes en la accesibilidad y movilidad. Por ello, el perfeccionamiento de la gestión pública conduce a la necesidad de aplicar herramientas avanzadas como solución permanente, integral y sistemática a las deficiencias e insuficiencias de la actual gestión cubana; dirigida a la disponibilidad de una adecuada infraestructura de transporte urbano. A su vez, la calidad de vida urbana asociada al transporte incluye diversos elementos configuradores de la movilidad y el transporte que permiten dar seguimiento a las propuestas técnicas, enfocadas a mejorar la calidad de vida de los habitantes con una visión de sostenibilidad y desarrollo urbano. El procedimiento específico propuesto para la construcción del Cuadro de Mando Integral constituye un instrumental metodológico útil para la gestión de la calidad de vida urbana asociada al transporte en ciudades patrimoniales. Al incorporar la concepción de índices sintéticos, se puede obtener una descripción con enfoque holístico de la gestión del marco institucional implicado en el proceso, permite medir el grado de cumplimiento de los objetivos estratégicos definidos para cada subproceso, y viabiliza el flujo de información horizontal y transversal entre OACE implicados en el proceso según su nivel de responsabilidad. REFERENCIAS 1. ABAD ALVARADO, P.El Cuadro de Mando Integral Aplicado a la Planificación Estratégica de la Banca Privada. Ciencia UNEMI, 17 de febrero de 2019, Vol. 12. (Nº 29), 20 – 35. Disponible en: http://dx.doi.org/10.29076/issn.25287737vol12iss29.2019pp20-35p 2. AGUIRRE, J., N. DE SANTIAGO AND A. VERDUGO. Aproximación al impacto de los espacios públicos en los centros históricos desde un enfoque del transporte, la calidad de vida y el bienestar social. Comparativa Guadalajara-Medellín. Barcelona: 2019. Disponible en: http://dx.doi.org/10.5821/ctv.8513 3. ALMEIDA TORRENS, M., L. MARTHA ZÚÑIGA IGARZA AND L. GÓMEZ CONSUEGRA.Protección de vistas relevantes del centro histórico de Camagüey: instrumento de gestión urbana para la toma de decisiones. Retos de la Dirección, 2020, 14(2), 225-248. Disponible en: https://journals.reduc.edu.cu/index.php/retos/article/view/3277 4. AMERISO, C. C.La sustentabilidad urbana: un compromiso local. InterNaciones., 2018, Año 5 (Número 13), 159-191. Disponible en: https://doi.org/10.32870/in.v5i13.7070 5. ANDRÉS LLANO, F.La gestión urbana: enseñanza a partir de sus proyecciones como campo de conocimiento y diálogo interdisciplinar. Revista de Arquitectura, 2018, 20(1), 24-37. Disponible en: https://revistadearquitectura.ucatolica.edu.co/article/view/861 6. BARBEI, A. A., G. NEIRA, P. C. GONZÁLEZ AND F. ZINNO ARBIO.Indicadores de gestión en las entidades públicas. Documentos de Trabajo del CECIN, 2018. 7. CASTILLO LY, K. V. B. La gestión urbana y su relación con la calidad de vida urbana de los usuarios del distrito de Ancón, 2017. Tesis para optar el grado académico de:Maestra en Gestión Pública Universidad César Vallejo, 2018. Disponible en: https://hdl.handle.net/20.500.12692/12641 8. COVAS VARELA, D., G. HERNÁNDEZ PÉREZ AND D. M. LÓPEZ CALAÑA.Evaluación de la calidad de vida urbana en la ciudad de Cienfuegos desde una dimensión subjetiva. Revista Universidad y Sociedad, 2017, 9(2), 193-201. Disponible en: http://rus.ucf.edu.cu/index.php/rus 9. DURO NOVOA, V.Aproximación a la aplicación de la gestión de procesos de negocio en la administración pública cubana GECONTEC: Revista Internacional de Gestión del Conocimiento y la Tecnología, 2018, 6(1), 59-67. Disponible en: https://rio.upo.es/xmlui/handle/10433/10259 10. FERNÁNDEZ ARAQUE, A. M., E. S. C. JIMÉNEZ AND M. OLMO.Calidad de vida profesional de los profesionales de enfermería en atención primaria de Soria. Biblioteca Lascasas, 2007, 3(1), 1-31. Disponible en: http://www.index-f.com/lascasas/documentos/lc0213.php 11. GALVIS, J. F. R., Y. G. HERNÁNDEZ AND J. A. C. CAMPOS.Indicadores de gestión como herramienta de diagnóstico para Pymes. I+ D REVISTA DE INVESTIGACIONES, 2020, 15(2), 119-134. Disponible en: https://doi.org/10.33304/revinv.v15n2-2020011 12. GARCÍA CASTRO, D., V. DE ELIZAGARATE GUTIÉRREZ, J. KAZAK, S. SZEWRANSKI, et al.Nuevos desafíos para el perfeccionamiento de los procesos de participación ciudadana en la gestión urbana. Retos para la innovación social. Cuadernos de Gestión, 5 de marzo de 2021 2018a, 20(1), 41-64. Disponible en: http://doi.org/10.5295/cdg.170751dg 13. GARCÍA CASTRO, D., V. DE ELIZAGARATE GUTIÉRREZ, J. KAZAK, S. SZEWRANSKI, et al. Nuevos desafíos para el perfeccionamiento de los procesos de participación ciudadana en la gestión urbana. Retos para la innovación social. Cuadernos de Gestión. 2018b, vol. 20, no. 1, pp. 41- 64. Disponible en: http://doi.org/10.5295/cdg.170751dg 14. GARCIA CESPEDES, N. B. AND C. E. CORDOVA FLORES. Diseño de un sistema de control estratégico de gestión, basado en el Cuadro de Mando Integral para la Empresa Transportes Libertad S.A.C. Tesis para optar al Titulo de Ingeniero Industrial Universidad Andina del Cusco, 2019. 15. HÁBITAT, O. La iniciativa de la prosperidad urbana. Programa de Naciones Unidas para Asentamientos Humanos. 2016. Disponible en: http://es.unhabitat.org/iniciativas-urbanas/iniciativas- programas/cpi 16. KAPLAN, N., D. P. AND B. RUGELSJOEN. Managing alliances with the balanced scorecard. In Harvard Business Review. 2010. 17. LITMAN, T. AND R. STEELE Land use impacts on transport. Edtion ed.: Victoria Transport Policy Institute Canada, 2017. Disponible en: https://scholar.google.es/scholar?as_q=Land+use+impacts+on+transport&as_epq=&as_oq=&as_eq= &as_occt=any&as_sauthors=Litman&as_publication=&as_ylo=&as_yhi=&hl=es&as_sdt=0%2C5#d =gs_qabs&u=%23p%3D_VYjsQWmvkEJ 18. MARTÍNEZ SUAZA, A. D. Calidad de vida en las ciudades en Colombia ¿Qué debemos mejorar? Proyecto de grado para optar al título de Economista Universidad del Tolima, 2019. Disponible en: https://doi.org/10.1046/j.1365-2133.2002.04692.x 19. MEDINA LEÓN, A., A. RICARDO ALONSO, N. PILOTO-FLEITAS, D. NOGUEIRA RIVERA, et al.Índices integrales para el control de gestión: consideraciones y fundamentación teórica. Ingeniería Industrial, 2014, Vol. 35(No. 1), Disponible en: https://rii.cujae.edu.cu/index.php/revistaind/article/view/424 20. MEDINA LEÓN, A. E. A. Gestión y mejora de procesos de empresas turísticas. Edtion ed. Ecuador, 2017. ISBN 978-9942-974. Disponible en: https://scholar.google.es/scholar?hl=es&as_sdt=0%2C5&q=Gesti%C3%B3n+y+mejora+de+proceso s+de+empresas+tur%C3%ADsticas&btnG= 21. NOGUEIRA RIVERA, D. Modelo conceptual y herramientas de apoyo para potenciar el control de gestión en las empresas cubanas. Tesis presentada en opción al grado científico de Doctor en Ciencias Técnicas Universidad de Matanzas "Camilo Cienfuegos", 2002. 22. OVIEDO RODRÍGUEZ, M. D. Modelo conceptual y su procedimiento general para la planificación y el control de las instituciones de Educación Superior. Tesis presentada en opción al grado científico de Doctor en Ciencias Técnicas Universidad de Matanzas, 2018. 23. PERALTA LLIVIPUMA, M. R.Cuadro de Mando Integral,enfoque estratégico al proceso administrativo y educativo. Visionario Digital, 10 de abril de 2021 2019, 3, 120-144. Disponible en: https://doi.org/10.33262/visionariodigital.v3i2.2.627 24. RAMOS ACEVEDO, I. N., A. D. MADRIGAL CASTRO, O. GONZÁLEZ QUESADA, R. W. FIGUEREDO TOLEDANO, et al.El Cuadro de Mando Integral como herramienta para gestores deportivos: un acercamiento desde el béisbol cubano. SPORT TK-Revista EuroAmericana de Ciencias del Deporte, 2020, vol. 9 (n.º 2), 7-16. Disponible en: https://scholar.google.es/scholar?as_q=&as_epq=Cuadro+de+Mando+Integral&as_oq=&as_eq=&as _occt=any&as_sauthors=&as_publication=&as_ylo=2020&as_yhi=&hl=es&as_sdt=0%2C5#d=gs_q abs&u=%23p%3Dxk1R5T1rXdYJ 25. ROMERO TORRES, J., N. GASPAR SÁNCHEZ AND E. BAUTISTA LARA.Percepción de la satisfacción del servicio en el transporte público solo para mujeres. Revista Transporte y Territorio, 2016, (15), 164-182. Disponible en: https://doi.org/10.34096/rtt.i15.2856 26. SÁNCHEZ VÁZQUEZ, J. M., M. L. VÉLEZ ELORZA AND P. ARAÚJO PINZÓN.Balanced scorecard para emprendedores: desde el modelo canvas al cuadro de mando integral. Revista de la Facultad de Ciencias Económicas: Investigación y reflexión, 2016, 24(1), 37-47. Disponible en: http://www.redalyc.org/articulo.oa?id=90943602004 27. SANGRONI LAGUARDIA, N., Y. E. MEDINA NOGUEIRA, E. TÁPANES SUÁREZ, O. SANTOS PÉREZ, et al.Principales modelos de gestión de calidad de vida urbana asociada al transporte. Ingeniería Industrial, 2021a, Vol. XLII (No. 3), Disponible en: https://rii.cujae.edu.cu/index.php/revistaind/article/view/1116 28. SANGRONI LAGUARDIA, N., J. A. PÉREZ CASTAÑEIRA, Y. SÁNCHEZ SUAREZ, Y. E. MEDINA NOGUEIRA, et al.Proyecto de inclusión de la evaluación ambiental estratégica en la planificación del transporte en Matanzas. Revista Cubana de Administración Pública y Empresarial, 2021b, Vol. 5 (Num 2), p.e 165-e165. Disponible en: https://apye.esceg.cu/index.php/apye/article/view/165 29. SANTOS PÉREZ, O. Instrumento metodológico para la gestión de accesibilidad y movilidad en centros históricos cubanos. Aplicación en la ciudad de Matanzas. Tesis presentada en opción al grado científico de Doctor en Ciencias Técnicas Universidad de Matanzas, 2020. 30. SEGUÍ PONS, J. M., J. MATEU LLADÓ, M. RUIZ PÉREZ AND M. R. MARTÍNEZ REYNÉS.Los sistemas de bicicleta pública y la movilidad urbana sostenible. Un análisis en la ciudad de Palma (Mallorca, Islas Baleares). Boletín de la Asociación de Geógrafos Españoles, 2016, 1(71), 227-245. Disponible en: https://doi.org/10.21138/bage.2281 31. SELVA URBINA, J. R. Afectaciones provocadas por el cambio climático en los medios de vida de las familias de la subcuenca de Jucuapa–Matagalpa, 2015-2016. Trabajo de grado Universidad Nacional Agraria, 2017. Disponible en: https://repositorio.una.edu.ni/3548/ 32. TORRES PÉREZ, A. P. Servicio del transporte público de la ciudad de Puebla: propuesta de mejora de la calidad de vida de los usuarios en relación con su experiencia de viaje. Tesis para obtener el Grado de MAESTRÍA EN DISEÑO ESTRATÉGICO E INNOVACIÓN Universidad Iberoamericana Puebla 2018. Disponible en: http://repositorio.iberopuebla.mx/licencia.pdf 33. VICUÑA, M., A. ORELLANA, R. TRUFFELLO AND D. MORENO.Integración urbana y calidad de vida: Disyuntivas en contextos metropolitanos. Revista INVI, 2019, 34(97), 17-47. Disponible en: https://scielo.conicyt.cl/scielo.php?pid=S071883582019000300017&script=sci_arttext CAPACIDAD DE PREVENCIÓN ESTRATÉGICA, SU DESARROLLO EN EL CENTRO DE INMUNOLOGÍA MOLECULAR. Ing. Renier Guerra Pérez1, MsC. Idalberto R. Garrido Bolado2, Dr.C. Yuniel Bolaño Rodríguez3 1 Jefe del departamento de Gestión y Mejora de Procesos, Centro de Inmunología Molecular, 2 Vicedirector General de Administración y Servicios del Centro de Inmunología Molecular, 3Director del Centro de Estudio Técnicas de Dirección (CETDIR), Facultad de Ingeniería Industrial, Universidad Tecnológica de la Habana – CUJAE. E-mail: 1reinier@cim.sld.cu, 2 bolado@cim.sld.cu, 3ybolanor@ind.cujae.edu.cu. RESUMEN En Cuba, la dirección estratégica es una de las preeminentes tareas a fortalecer por aquellos que dirigen organizaciones. A través de la misma, se instituyen tanto el rumbo de la empresa, como los criterios generales para definir objetivos y la organización del trabajo. El presente estudio tiene como principal objetivo exponer los resultados del diagnóstico realizado a la Capacidad de Prevención Estratégica (CAPE) del Centro de Inmunología Molecular (CIM) a través de la aplicación de un modelo de Dirección Estratégica basado en la Administración de Riesgos para la Integración del Sistema de Dirección de la Empresa (DE-ARISDE). Además de la revisión bibliográfica, se aplicaron las herramientas necesarias que describe el modelo DE-ARISDE para el diagnóstico de la CAPE. La aplicación del modelo citado, ilustró los puntos que deben perfeccionase en el CIM, ya que estos elementos obstaculizan una dirección estratégica efectiva. Palabras claves: integración del sistema de dirección de la empresa, dirección estratégica, capacidad de prevención estratégica, administración de riesgos. STRATEGIC PREVENTION CAPACITY, ITS DEVELOPMENT IN THE CENTER OF MOLECULAR IMMUNOLOGY. ABSTRACT In Cuba, strategic management is one of the preeminent tasks to be strengthened by those who run organizations. Through it, the direction of the company and the general criteria to define objectives and work organization are instituted. The main objective of this study is to expose the results of the diagnosis made to the Strategic Prevention Capacity (CAPE) of the Center of Molecular Immunology (CIM) through the application of a Strategic Management model based on Risk Management for Integration of the Management System (DE- ARISDE). In addition to the literature review, the necessary tools described by the DE- ARISDE model for the diagnosis of CAPE were applied. The application of the aforementioned model, illustrated the points that must be perfected in the CIM, since these elements hinder an effective strategic management. Key words: integration of the company management system, strategic prevention capacity, risk management, strategic management. I. INTRODUCCIÓN. En la actualidad el desarrollo del enfoque estratégico en las empresas hace un llamado a buscar la pro-actividad para minimizar la incertidumbre y con ello los riesgos, lo que permite aliviar el camino a seguir en el logro de las metas estratégicas y tránsito de la misión hacia la visión de la empresa. Para poder lograr esto es muy necesario incorporar en el proceso de dirección estratégica de las empresas el desarrollo de un conjunto de actividades de administración de riesgos. Los modelos de dirección estratégica que desarrollan con fuerza el enfoque estratégico y de proceso en busca de una mayor integración, no dejan de manera explícita un tratamiento de los riesgos orientado a mejorar, robustecer o fortalecer la integración del sistema de dirección de la empresa. Para lograr el perfeccionamiento en las empresas cubanas es necesario alcanzar altos niveles de integración en el sistema de dirección. En este sentido es importante alcanzar un alto desempeño en la interacción entre los procesos, y de estos con los clientes y proveedores; todo lo cual va a permitir una mayor respuesta a las exigencias de los clientes y la sociedad (Alfonso Robaina & Hernández Torres, 2009; Pérez Betancourt, 2009). Para el desarrollo teórico de esta concepción, fue diseñado el modelo de Dirección Estratégica para la Integración del Sistema de Dirección de la Empresa DEISDE (Alfonso Robaina, 2007). Este modelo se basa en los enfoques: estratégico, de procesos y de sistema para impulsar un enfoque de integración, mediante las relaciones externas e internas de la empresa. Esta teoría permitió diseñar un medidor denominado: Nivel de Integración del Sistema de Dirección de la Empresa (NISDE) externo e interno, a partir de las matrices de relaciones externas e internas de la empresa. El NISDE es una herramienta de dirección corporativa, enfocada a la creación de marcos de trabajo, para que convivan de manera integrada cualquier tipo de solución o sistema de gestión, que se utilice en la empresa (Alfonso Robaina y otros, 2012). La CAPE puede entenderse como el nivel de preparación de una organización en la coordinación de un conjunto de actividades y decisiones para el desarrollo de estrategias de administración de riesgos que permitan aumentar la agregación de valor, a través de una anticipación a la ocurrencia de riesgos, minimizando los impactos negativos que originan y creando las condiciones para aprovechar las nuevas oportunidades del entorno (Bolaño, 2014). Para la gestión del NISDE, se hace necesario el desarrollo de una Capacidad de Prevención Estratégica (CAPE) en la organización, que permita crear las capacidades en torno a un grupo de actividades para el tratamiento de los principales riesgos, que afectan las relaciones externas e internas. Si aumenta la probabilidad y/o el impacto de los principales riesgos (los que afectan las relaciones externas e internas de alta importancia) y la organización no desarrolla una CAPE; entonces se hace más vulnerable la integración y la empresa puede estar en una situación difícil desde el punto de vista estratégico (Bolaño Rodríguez y otros, 2014; Pérez Barnés, 2014; Arias Pérez, 2014). En correspondencia con el objetivo de este trabajo, se exponen resumidamente la metodología seleccionada y los resultados de su aplicación en el CIM. II. MÉTODOS. - Para el diagnóstico de la CAPE:  Aplicación de la lista de chequeo de diagnóstico de la CAPE.  Valoración estadística de los resultados de la aplicación de la lista de chequeo.  Evaluación de la CAPE a través de una modelación matemática basada en lógica difusa. III. RESULTADOS. Para un mejor entendimiento de los resultados del diagnóstico de la CAPE, se cuenta con el modelo de Dirección Estratégica basado en la Administración de Riesgos para la Integración del Sistema de Dirección (DE-ARISDE) que cuenta con 3 etapas y contiene 11 variables, como se observa en la figura 1. Figura 1: Modelo de representación de las etapas y variables de la Capacidad de Prevención Estratégica. Fuente: Bolaño Rodríguez, 2014. En la primera etapa, se establece el rumbo estratégico y se prepara la organización para la administración de riesgos. En toda esta etapa es esencial la preparación de los directivos y trabajadores en general para comprender la necesidad de prever los riesgos que afectarían a la organización en el futuro. En la segunda etapa se lleva a cabo el proceso de administración de riesgos en una forma integrada. Esta es la etapa de mayor aporte en la investigación donde se realiza el diagnóstico de los riesgos por procesos y se determina su impacto en las relaciones externas e internas. Se realiza un análisis integrado de los principales riesgos de la organización. A partir de las relaciones entre los principales riesgos, se determinan las estrategias que deben formar parte del programa estratégico de acciones. En la tercera etapa, denominada implementación y control, se comunica a todos los niveles de la organización el programa estratégico y se ejecutan las acciones del mismo, se evalúan y controlan los resultados para medir las variables de salida del modelo: CAPE y NISDE. También se valora la efectividad del programa estratégico de acciones implementado. Todos estos análisis permiten una retroalimentación a las demás etapas del modelo. Lista de chequeo de diagnóstico de la CAPE. La teoría abordada en el modelo DE-ARISDE se expresa en la confección de la lista de chequeo. Las preguntas de la lista de chequeo se dividen por cada etapa y variable del modelo DE-ARISDE. La etapa I del modelo DE-ARISDE (diseño del rumbo estratégico y la preparación de la organización para la administración de riesgos) contiene 11 preguntas, la etapa II (administración de riesgo de forma integrada) contiene 13 preguntas y la etapa III (implementación y control) contiene 10 preguntas. Estas preguntas fueron repartidas por cada variable del modelo DE-ARISDE. La modelación de la CAPE, mediante lógica difusa compensatoria, considera las 11 variables del modelo DE-ARISDE como predicados simples. A partir de estas variables se evalúan 3 predicados compuestos, que a su vez evalúan al predicado compuesto final (CAPE). La formulación verbal de los predicados de la modelación de la CAPE, se observan en la tabla 1. En esta tabla (Fuente: Bolaño Rodríguez, 2014), se incluyen las representaciones gráficas para cada nivel de predicado compuesto y su ecuación matemática correspondiente. Formulaciones verbales de los predicados Representación gráfica Ecuación matemática Una organización X tiene una alta Capacidad de Prevención Estratégica (CAPE) si:  Realiza una buena preparación de la organización en el desarrollo estratégico y preventivo (P)  Desarrolla una efectiva administración de riesgos de forma integrada (ARI)  Implementa y controla efectivamente un programa estratégico de acciones (IC) CAPE(x)  P(x)  ARI (x)  IC(x) ó CAPE  3√𝑃(𝑥) ∗ 𝐴𝑅𝐼 (𝑥) ∗ 𝐼𝐶(𝑥) Una organización X realiza una buena preparación de la organización (P) en el desarrollo estratégico y preventivo si:  Tiene un buen equipo gestor capacitado para el desarrollo estratégico y preventivo de la organización (EG)  Existe una buena preparación de los trabajadores en temas relacionados con la gestión de riesgos (TP).  Se ha diseño adecuadamente el rumbo estratégico de la organización (RE).  Se ha preparado adecuadamente la organización para desarrollar la administración de riesgos con carácter estratégico (PO). P(x)  EG(x) TP  RE  PO ó P(x)  4√𝐸𝐺(𝑥) ∗ 𝑇𝑃(𝑥) ∗ 𝑅𝐸(𝑥) ∗ (𝑃𝑂) Una organización X desarrolla una efectiva administración de riesgos de forma integrada (ARI) si:  Realiza un diagnóstico de riesgos MUY fuerte (DR) a través de la identificación, análisis, medición y evaluación de riesgos.  Realiza un adecuado análisis integrado de riesgos para la toma de decisiones (AIR).  Desarrolla una adecuada identificación, análisis y selección de estrategias de riesgos (E)  Conforma un buen programa estratégico corporativo que incluye estrategias de riesgos (PE). ARI(x)  DR2 (x)  AIR(x)  E(x)  PE(x) ó ARI  5√𝐷𝑅 2 (𝑥) ∗ 𝐴𝐼𝑅(𝑥) ∗ 𝐸(𝑥) ∗ (𝑃𝐸) Una organización X implementa y controla efectivamente un programa estratégico de acciones (IC) si:  Se desarrolla una buena información y comunicación a los diferentes niveles de la organización del programa estratégico de acciones (I).  Realiza una MUY Fuerte implementación de acciones estratégicas (IAE)  Desarrolla una adecuada revisión, evaluación y control de la implementación de las acciones estratégicas (REC). IC(x)  I (x)  IAE 2 (x)  REC ó IC  4√𝐼 (𝑥) ∗ 𝐼𝐴𝐸 2 (𝑥) ∗ 𝑅𝐸𝐶 (𝑥) Es necesario aclarar que los valores de la CAPE se encontrarán en el rango de 0 a 1 y se pueden interpretar según la escala de valores de verdad que se expone en la tabla 2, que se muestra a continuación. Tabla 2. Escala de valores de verdad. Fuente: Tomado de González Caballero E., y Espín Andrade R.A., 2013 Una vez explicada la metodología a seguir para llegar a obtener el valor de la CAPE, se exponen los resultados obtenidos de la aplicación en el CIM:  Aplicación de la lista de chequeo de diagnóstico de la CAPE. Para dar cumplimiento al paso 1, se empleó la lista de chequeo de diagnóstico, la misma evalúa a través de treinta y cuatro (34) elementos, las once (11) variables de la CAPE. La lista de chequeo fue aplicada a siete (7) directivos pertenecientes al Consejo de Dirección del CIM, los que hicieron la función de expertos.  Paso No. 2: Valoración estadística de los resultados de la aplicación de la lista de chequeo. Con el uso del software estadístico MINITAB 17 se comprobó una alta fiabilidad (0,9378) de los elementos medidos, corroborado con la utilización del alfa de Cronbach. El análisis de los resultados se realizó por etapas, tal y como se muestra en la tabla y gráficos siguientes: Tabla 3. Análisis de los resultados de la aplicación de la Lista de Chequeo. Etapas Variable EG TP ETAPA 1 RE PO DR ETAPA 2 AIR E PE I IAE ETAPA 3 Items Experto 1 Experto 2 Experto 3 Experto 4 Experto 5 Experto 6 Experto 7 Mediana Media geométrica 1.1 8 7 6 7 9 8 7 7 7,37 1.2 7 7 6 7 7 8 7 7 6,98 1.3 9 7 6 6 6 5 6 6 6,33 1.4 7 6 5 6 6 6 6 6 5,98 1.5 7 7 7 6 6 6 7 7 6,55 1.6 6 5 6 6 6 5 5 6 5,55 1.7 9 7 8 7 9 8 7 8 7,81 1.8 9 6 6 7 7 6 7 7 6,79 1.9 7 6 6 6 5 6 6 6 5,98 1.10 7 6 6 6 5 6 5 6 5,82 1.11 7 6 6 5 6 6 6 6 5,98 2.1 7 6 7 6 6 6 6 6 6,27 2.2 7 7 7 6 6 6 6 6 6,41 2.3 7 6 6 6 7 7 6 6 6,41 2.4 7 6 5 6 6 6 5 6 5,82 2.5 7 6 7 7 7 7 6 7 6,70 2.6 7 6 7 7 6 7 7 7 6,70 2.7 7 6 6 7 6 7 7 7 6,55 2.8 7 6 6 6 5 7 7 6 6,24 2.9 6 5 6 4 5 6 6 6 5,37 2.10 6 4 4 5 6 5 6 5 5,07 2.11 6 4 5 5 5 5 4 5 4,81 2.12 6 5 5 4 6 5 5 5 5,10 2.13 6 4 4 5 5 5 5 5 4,81 3.1 6 4 4 4 5 5 4 4 4,52 3.2 6 4 5 6 5 5 5 5 5,10 3.3 6 4 4 5 5 5 5 5 4,81 3.4 6 4 4 4 5 5 4 4 4,52 3.5 6 5 5 5 4 6 5 5 5,10 3.6 6 5 4 6 5 4 5 5 4,94 3.7 6 6 3 5 4 5 5 5 4,74 3.8 6 5 4 5 5 4 5 5 4,81 REC 3.9 9 7 6 8 6 5 6 6 6,60 3.10 7 7 7 6 6 6 5 6 6,24  Paso No. 3: Evaluación de la CAPE a través de una modelación matemática basada en lógica difusa. Después de la evaluación de cada pregunta y las once (11) variables de la lista de chequeo, entonces se procedió a obtener el valor de la CAPE, a través de la modelación en lógica difusa, para lo cual se usó una Plantilla en Excel diseñada, como se muestra en la siguiente tabla: Pregunta Valor Variable del modelo DE-ARISDE x ϒ α Valor de verdad Valor de verdad Valor de verdad 1,1 7,37 Equipo gestor capacitado EG(x) 7,17 6 0,7324 0,70 0,57 CAPE 0,38 1,2 6,98 1,3 6,33 Trabajadores preparados TP (x) 6,15 5 0,7324 0,70 1,4 5,98 1,5 6,55 Rumbo estrategico RE(x) 6,63 7 0,7324 0,43 1,6 5,55 P(x) 1,7 7,81 1,8 6,79 1,9 5,98 1,10 5,82 Preparacion de la organizacion PO(x) 5,92 6 0,7324 0,49 1,11 5,98 2,1 6,27 6,22 6 0,7324 0,54 0,44 2,2 6,41 Diagnóstico de riesgos por procesos 2,3 6,41 DR(x) 2,4 5,82 2,5 6,70 2,6 6,70 2,7 6,55 Analisis integrado de riesgos AIR(x) 6,29 6 0,7324 0,55 ARI(x) 2,8 6,24 2,9 5,37 2,10 5,07 Estrategias de administracion de 4,942 6 0,7324 0,32 2,11 4,81 riesgos E(x) 2,12 5,10 Programa estrategico de acciones 4,9565 6 0,7324 0,32 2,13 4,81 PE(x) 3,1 4,52 Informacion y Comunicación I(x) 4,8009 7 0,7324 0,17 IC(x) 0,22 3,2 5,10 3,3 4,81 Implementacion de acciones estrategicas IAE(x) 3,4 4,52 3,5 5,10 4,8199 7 0,7324 0,17 3,6 4,94 3,7 4,74 3,8 4,81 3,9 6,60 Revision evaluacion y control REC(x) 5,8324 6 0,7324 0,47 3,10 6,24 Tabla 4. Muestra el resultado de la evaluación de la CAPE en el CIM. Según los resultados mostrados en la tabla anterior, se obtuvo un valor de verdad igual a 0,38, que aproximado por exceso a 0.4, es un valor que, según la escala de valores de verdad, mostrados en la tabla 2, es más falso que verdadero que el CIM desarrolla una buena Capacidad de Prevención Estratégica. Este resultado indica la existencia de una brecha significativa en la gestión de riesgos relacionados con los objetivos estratégicos del CIM respecto a los elementos contenidos en la lista de chequeo para el diagnóstico de la CAPE, indicando aquellos aspectos (relacionados en la lista de chequeo) que deben ser perfeccionados por la administración y el resto de los trabajadores del CIM, para lograr una CAPE efectiva. IV. CONCLUSIONES. 1. Se realizó el diagnóstico de la CAPE en el CIM, mediante la aplicación y análisis de la lista de chequeo. 2. El valor de la CAPE obtenido de 0.38, arrojó que es más falso que verdadero que el CIM desarrolla una buena Capacidad de Prevención Estratégica. 3. Se evidenció la existencia de una brecha bien significativa entre el proceso de dirección estratégica del CIM y lo que se plantea en el modelo DE-ARISDE en términos de los valores deseados. 4. Conforme al modelo DE-ARISDE se conocen los elementos a ser perfeccionados por la administración y el resto de los trabajadores del CIM, para lograr una CAPE efectiva. V. REFERENCIAS. 1. Alfonso Robaina, D. Modelo de Dirección Estratégica para la Integración del Sistema de Dirección de la Empresa. Tesis en opción al grado de Doctor en Ciencias técnicas. Instituto Superior Politécnico José Antonio Echeverría. La Habana, 2007. 2. Alfonso Robaina, D. & Hernández Torres, M. Integración del Sistema de Dirección de la Empresa. Revista Nueva Empresa. Vol. 5, No. 1, pp. 43-45. 2009. 3. Alfonso Robaina D. y otros. Nivel de Integración del Sistema de Dirección de la Empresa. Premio provincial de Ciencia y Medio Ambiente. Instituto Superior Politécnico José Antonio Echeverría. La Habana, 2012. 4. Arias Pérez, M. Aplicación de un procedimiento de Gestión Integrada de Riesgos para aumentar la Capacidad de Prevención Estratégica en la Empresa Central de Equipos Cubiza. Tesis presentada en opción al título de máster en dirección. Instituto Superior Politécnico José Antonio Echeverría. La Habana, 2014. 5. Bolaño Rodríguez, Y. & Alfonso Robaina, D. Modelo de administración de riesgos para la integración del sistema de dirección empresarial a nivel estratégico. Trabajo presentado en VII Congreso Internacional de Gestión Empresarial y Administración Pública. Hotel Palco, La Habana. 2010a. 20 p. 6. Bolaño Rodríguez, Y. y otros. Método de Identificación- Medición - Evaluación de Riesgos para la Dirección Estratégica. Trabajo presentado en la 15 Convención de Ingeniería y Arquitectura. Simposio de Ingeniería Industrial. La Habana, 2010. 5 p. 7. Bolaño Rodríguez, Y., y otros. Método de identificación, medición, evaluación de riesgos para la dirección estratégica. Ingeniería Industrial. Volumen XXXII, No.2, pp. 162-169. 2011. 8. Bolaño Rodríguez, Y. Modelo de Administración de Riesgos para la Integración del Sistema de Dirección de la Empresa. Aplicación parcial en la Empresa Central de Equipos Cubiza. Tesis en opción al título de Máster en Dirección. Instituto Superior Politécnico José Antonio Echeverría. La Habana, 2011. 9. Bolaño Rodriguez, Yuniel. (2014). Modelo de Dirección Estratégica basado en la Administración de Riesgos para la Integración del Sistema de Dirección de la Empresa. Tesis en opción al grado científico de Doctor en Ciencias Técnicas. Instituto Superior Politécnico José Antonio Echeverría. La Habana. 10. Bolaño Rodríguez, Y. & Alfonso Robaina, D. (2014). La Administración de Riesgos para mejorar el impacto de las tecnologías en las empresas cubanas. Trabajo presentado en IX Congreso Internacional de Gestión Empresarial y Administración Pública. Hotel Palco, La Habana. 11. Pérez Betancourt A. Evolución y Estado de los Sistemas de Dirección Empresarial en Cuba. Revista Nueva Empresa. Vol. 5, No. 1, pp 3-5. 2009. 12. Pérez Barnés, A. Aplicación de un procedimiento de Gestión Integrada de Riesgos para aumentar la Capacidad de Prevención Estratégica en la Empresa Mármoles Cubanos. Tesis presentada en opción al grado científico de máster en dirección. Instituto Superior Politécnico José Antonio Echeverría. La Habana, 2014. DIAGNÓSTICO INTEGRAL EN EMPRESA CUBANA DE NAVEGACIÓN AÉREA, ECNA Nirka Rodriguez Carrabeo1, Daniel Alfonso Robaina2 1Empresa cubana de navegación aérea, Boyeros, La Habana, 2Universidad Tecnológica de La Habana José Antonio Echeverría, Marianao, La Habana 1e-mail: nirka.rodriguez@gmail.com RESUMEN El siguiente trabajo se realizó en La sociedad mercantil de capital 100% cubano denominada Empresa Cubana de Navegación Aérea S.A., en lo adelante ECNA con el objetivo de identificar las debilidades que limitan el cumplimiento de los estándares de excelencia internacionales en el desarrollo del capital humano para la seguridad del servicio de navegación aérea. Para el cumplimiento del objetivo general se ha realizado un diagnóstico empresarial a partir de evaluar el nivel de integración del sistema de dirección de la empresa, un diagnóstico estratégico de los recursos humanos y una evaluación del control de gestión. En el estudio se pudo identificar las insuficiencias que limitan cumplimentar en los estándares de excelencia, dónde se destacan: falta de profundidad en las evaluaciones del desempeño de los trabajadores, falta de motivación de personal hacia la superación personal y profesional e insuficiente aprovechamiento en el uso de la tecnología en la auto preparación, entre otros. PALABRAS CLAVES: diagnóstico empresarial, dirección estratégica, gestión de los recursos humanos INTEGRAL DIAGNOSIS IN THE CUBAN AIR NAVIGATION COMPANY, ECNA ABSTRACT The following work was carried out in the commercial company with 100% Cuban capital called Empresa Cubana de Navegación Aérea S.A., hereinafter ECNA, with the objective of identifying the weaknesses that limit compliance with international standards of excellence in the development of human capital for the safety of the air navigation service. To fulfill the objective of generating, a business diagnosis has been carried out based on evaluating the level of integration of the company's management system, a strategic diagnosis of human resources and an evaluation of management control. In the study it was possible to identify the insufficiencies that limit compliance with the standards of excellence, where they stand out: lack of depth in the evaluations of the workers' performance, lack of staff motivation towards personal and professional improvement and insufficient use of technology in self-preparation, among others. KEY WORDS: enterprise diagnosis, strategic direction, human resources management). 1. INTRODUCCIÓN El estándar de excelencia en la gestión del desempeño humano de la CANSO se confecciona para ayudar a los proveedores de los servicios de navegación aérea ANSP a evaluar, desarrollar y mejorar su gestión del desempeño humano. Las Normas cubanas de gestión de capital humano del 2007 establece un conjunto de precisiones y referencias, que le permiten a las organizaciones conocer cómo implementar el cumplimiento de los requisitos establecidos para el diseño y aplicación de su Sistema de Gestión Integrada de Capital Humano. Las Regulaciones aeronáuticas cubanas RAC 19 Gestión de la seguridad operacional RAC 20.142, son normativas dictadas por el IACC en correspondencia con las disposiciones del Estado y el Gobierno de la República de Cuba y cumplen con las normas y métodos recomendados de la OACI. En este trabajo se presenta como problema a investigar: ¿Cómo contribuir que la ECNA cumpla con los estándares de excelencia internacionales en el desarrollo del capital humano para la seguridad del servicio de navegación aérea? Como objetivo general: identificar las debilidades que limitan el cumplimiento de los estándares de excelencia internacionales en el desarrollo del capital humano para la seguridad del servicio de navegación aérea. Para el cumplimiento del objetivo general se ha realizado un diagnóstico empresarial a partir de evaluar el nivel de integración del sistema de dirección de la empresa, un diagnóstico estratégico de los recursos humanos y una evaluación del control de gestión. En el estudio se pudo identificar las insuficiencias que limitan cumplimentar en los estándares de excelencia, dónde se destacan: falta de profundidad en las evaluaciones del desempeño de los trabajadores, falta de motivación de personal hacia la superación personal y profesional e insuficiente aprovechamiento en el uso de la tecnología en la auto preparación, entre otros. En el desarrollo del estudio se consultaron alrededor de 23 referencias bibliográfica siendo la base teórica y metodológica de este trabajo Alles 2005; Barbosa 2020; CANSO 2019; Chaca-Llontop et al, 2020; Chiavenato 2009; Chiavenato, 2011; Cuesta 2010; Cuesta 2017; Decreto 53/2021; Dessler 2015; Dumitru & Carmen 2013; Flores et al, 2016; IACC 2018; Kaplan & Norton 2004; Morales 2009; ONN, NC 3001: 2007; Pardo et al, 2014; Prieto 2013; Ramírez 2018; Ramírez et al 2019; Wayne 2010. 2. ANÁLISIS DEL NIVEL DE INTEGRACIÓN DEL SISTEMA DE DIRECCIÓN DE LA ECNA Se realiza una valoración del nivel de integración del sistema de dirección de la empresa. Clientes privados y aerolíneas comerciales: Las relaciones entre los procesos y los clientes son de alta importancia para la entidad; sin embargo, su desempeño se considera bajo por ser el elemento fundamental a brindar servicio. Proveedores: Se consideran Importantes las relaciones con Proveedores Nacionales por la necesidad de abastecimientos de productos y servicios para el normal desempeño de los procesos claves, sin embargo, su grado de desempeño es muy bajo, considerándose esta una Relación Critica para el funcionamiento óptimo de la instalación. Instituciones gestoras de cobro (IATA, InforVas): Son las entidades encargadas de gestión de cobros a los clientes (aerolíneas) que pertenecen a la cámara de compensación encargada del 80% de la facturación, además de 19 clientes que por el bloqueo no facturan directamente con la entidad. Entidades superiores (MTSS, MFP, MINCOM, MITRANS): son organismos encargados funcionales del Estado cubano con responsabilidad en el suministro de información pública. NISDE externo NISDE=1-RC/RI RI: Son la cantidad de las relaciones con alta importancia RC: Son la cantidad de relaciones con alta importancia para lograr los objetivos, pero bajo nivel de desempeño NISDE=1-10/46 NISDE=0.78 Después del cálculo del NISDE externo se realiza un estudio con las relaciones internas. Estas relaciones están enmarcadas en las relaciones entre los procesos de la entidad. El proceso de Logística se clasifica como proceso de apoyo que garantiza la demanda de productos y servicios que requiere la organización, el mismo mantiene una relación critica con el resto de procesos de la entidad. NISDE interno NISDE=1-RC/RI NISDE=1-20/141 NISDE=0.86 Se reconoce en la entidad que el proceso de capital humano tiene buenas relaciones con los procesos claves y funcionales aunque se evidencia que con el proceso de logística existe una relación crítica y esta podría estar dado por la capacidad de la actividad de logística de la ECNA, sin embargo en el análisis externo se evidencian bajo desempeño de relaciones importantes a partir de los procesos clave de la organización como son investigación desarrollo e innovación tecnológica; información aeronáutica y comunicación navegación y vigilancia. 3. DIAGNÓSTICO ESTRATÉGICO Para el diagnóstico estratégico se realiza la matriz DAFO, permitiendo el análisis de la gestión de los recursos humanos como proceso de mayor incidencia en la problemática existente precisando las fortalezas y debilidades, relacionadas con sus oportunidades y amenazas en el mercado. Interno Debilidades Fortalezas Falta de profundidad en las evaluaciones del desempeño de los trabajadores Fuerza de trabajo calificada y especializada Insuficiencia en la identificación de las necesidades de capacitación de cada trabajador, considerando para ello los cambios tecnológicos, brechas entre las exigencias del cargo y las competencias de cada trabajador y la actualización en la legislación vigente. Pendiente la certificación del CCNAC por el IACC, aspecto que permite autonomía y disminuye gastos a la empresa. Falta de motivación de personal hacia la superación personal y profesional Existencia de Convenios firmados con instituciones docentes. Insuficiente aprovechamiento en el uso de la tecnología en la auto preparación. Contar con especialistas en cada Unidad Empresarial de Base que se ocupan de la Capacitación. No existe cobertura de instructores en determinadas especialidades operacionales para garantizar la cobertura docente. Contar con el apoyo de la alta dirección para certificar la NC ISO 45000 del SGSST. Fuerza de trabajo especializada envejecida. Se prioriza por la Dirección de la Empresa la Gestión del conocimiento de todos los trabajadores No existe un programa de atención al hombre en la empresa. Implementación del Decreto 53/ Diseño de la Organización Salarial en la ECNA Sistema informático (eTES) que no cumple con todos los requerimientos que se demandan Aprobada la facultad para la empresa de importación. Resistencia al cambio ante modificaciones parciales o totales de tecnologías y procedimientos de trabajo. Externo Amenazas Oportunidades Permanentes cambios que se producen en la legislación que regula la actividad lo cual demanda una constante auto preparación y actualización de procesos Servicios especializados vinculados con la Navegación Aérea que se ofertan desde el exterior. Escaso dominio de la actividad específica fuera del entorno de la empresa. Existencia de Centros Docentes y entidades que ofertan servicios de capacitación de primer nivel, dentro y fuera del país. Efectos negativos de la pandemia en el desarrollo y continuidad de las actividades. Aprobación del decreto 53, para el perfeccionamiento de la retribución por el trabajo. Recrudecimiento del bloqueo económico y financiero de los EU hacia nuestro país, afectando la realización de los pagos del exterior a través de la restricción de las cuentas bancarias . Existencia de entidades certificadoras y veladoras del cumplimiento de las normas de Seguridad y Salud en el Trabajo. Desabastecimiento en el mercado interno para adquirir los Equipos de Protección Personal y materiales docentes para la capacitación. Contar con el contrato de servicios con el KURT HOTEL, Centro Sanatorial de Topes de Collantes para el descanso profiláctico de los Controladores de Tránsito Aéreo. La emigración masiva de personal joven y calificado del país Aprobación de la Resolución 124/2021 de la MFP que permite crear reservas voluntarias a las Empresa para la atención al hombre (construcción y reparación de vivienda; estimulación individual y colectiva y Pagos por Alto Desempeño). En sentido general el diagnóstico arrojó que la empresa está en condiciones de aprovechar las oportunidades identificadas y minimizar el efecto de las amenazas, considerando las debilidades y fortalezas internas, por lo que se traza estrategias ofensivas encaminadas al alcance de metas superiores. 4. ANÁLISIS DEL CONTROL DE GESTIÓN Con el objetivo de alinear los esfuerzos, organizar, controlar y proporcionar los objetivos estratégicos y aglutinarlos en función de aquellos elementos sobre los que se fijan metas, se realiza el Cuadro de Mando Integral, grafico 1, con las 4 perspectivas básicas: financiera, de cliente, de procesos Internos y de crecimiento y aprendizaje del modelo de Norton y Kaplan como áreas de actuación enfocadas al cumplimiento de la estrategia y la relación causa efecto entre estos. Gráfico 1: Objetivos estratégicos con perspectiva de cuadro de mando integral Con el grafico 2 Mapa de indicadores con perspectiva de cuadro de mando integral se proponen los indicadores ideales con el objetivo de diagnosticar y medir el desempeño empresarial en la entidad. permitiendo interpretar y analizar la eficacia y eficiencia adecuadamente con las condiciones necesarias para desarrollar estrategias funcionales que permitan el incremento sistemático de la eficacia y eficiencia. Gráfico 2: Mapa de indicadores con perspectiva de cuadro de mando integral Se calcula Índice de desempeño organizacional (IDO) de la empresa: 𝐼𝐷𝑂=∑(𝑎∗𝐼𝐷𝑃𝐸+𝑏∗𝐼𝐷𝑃𝐶+𝑐∗𝐼𝐷𝑃𝐼+𝑑∗𝐼𝐷𝐶𝐷) Donde: IDPE: Índice de desempeño de la perspectiva económica financiera IDPC: Índice de desempeño de la perspectiva de clientes IDPI: Índice de desempeño de la perspectiva de procesos internos IDCD: Índice de desempeño de la perspectiva de formación, crecimiento y desarrollo Siendo: a, b, c y d = 0.25 los pesos específicos que se le otorgue a cada perspectiva en la medición del desempeño organizacional (a + b + c + d = 1). Se obtiene que 𝐼𝐷𝑂=0.82 Evaluación de la Empresa IDO Empresa de alto desempeño organizacional 0.70 ≤ IDO ≤ 1 Empresa de desempeño organizacional medio 0.40 ≤ IDO < 0.70 Empresa de bajo desempeño organizacional IDO < 0.40 Con el índice de desempeño organizacional se identifica a partir de los resultados obtenidos por los indicadores en las 4 perspectivas del cuadro de mando integral que la empresa en general tiene un alto desempeño organizacional, pero este es bajo en la perspectiva de aprendizaje y crecimiento. 5. ANÁLISIS DE LAS DEBILIDADES DE LOS RECURSOS HUMANOS EN LA ECNA Las debilidades existentes en los recursos humanos inciden directamente en el bajo desempeño del aprendizaje y crecimiento de los trabajadores lo que muestra que se encuentra en peligro el cumplimiento de la misión de la empresa, siendo el recurso humano el activo más importante dentro de la organización. El estándar de excelencia en la gestión del desempeño humano propuesto por la Organización Civil de los Servicios de Navegación Aérea (CANSO), está confeccionado para ayudar a los proveedores de los servicios de navegación aérea (ANSP) a evaluar, desarrollar y mejorar su gestión del desempeño humano, estableciendo los requisitos a cumplimentar dentro de un programa de gestión del desempeño humano para alcanzar un mayor nivel de madurez con el objetivo de ofrecer una gestión del tráfico aéreo seguro, eficiente y eficaz, donde los trabajadores deben operar a un nivel óptimo de rendimiento y desempeño humano. El programa de gestión del desempeño humano debe contener los siguientes elementos a desarrollar: 1. Política, estrategia y recursos 2. Salud y bienestar 3. Equipo ATM y herramientas de soporte 4. Procedimientos operacionales 5. Trabajo en equipo y comunicación 6. Formación operacional 7. Selección 8. Impacto de cambio 9. Liderazgo 10. Funciones y responsabilidades 11. Desempeño humano, investigación y aprendizaje 12. Aseguramiento de la gestión del desempeño humano El sistema de gestión de la seguridad determinado por CANSO establece 5 niveles de madurez que se describen a continuación por cada uno de los elementos: Nivel A Informal: Proceso de gestión del desempeño humano donde los requisitos no han sido acordados, no se realizan de forma rutinaria o dependen de la persona asignada a la tarea. Nivel B Definido: Se encuentran definidos los requisitos, pero aún no están completamente implementados, documentados o aplicados de manera consistente. Nivel C Gestionado: Los requisitos cumplen con los requerimientos reglamentarios, normas y cumplen con los anexos de la OACI. El proceso está formalmente documentado y aplicado de forma coherente. Nivel D Asegurado: Hay evidencia disponible para brindar confianza en que el proceso está siendo aplicado adecuadamente y entregando resultados positivos y medidos. Nivel E Optimizado: El proceso establece las mejores prácticas internacionales, sobre innovación y mejora. La efectividad de la mejora de la gestión del desempeño humano y las acciones se miden y evalúan contra criterios de mejora definidos en los niveles. La empresa no cuenta con los requisitos establecidos para evaluar, mejorar y obtener mayor nivel de madurez por cada uno de los elementos necesarios a desarrollar dentro de la gestión del desempeño humano. Se identifican a partir de las debilidades las causas que las originan, siendo estos requisitos que inciden negativamente dentro de los elementos a cumplimentar en los estándares de excelencia: 1 Falta de profundidad en las evaluaciones del desempeño de los trabajadores. • Paternalismo • Mala organización de las tareas, provocando falta de tiempo a la hora de la realización de las evaluaciones. • Falta de conocimiento de las funciones específicas de cada cargo. 2 Insuficiencia en la identificación de las necesidades de capacitación de cada trabajador, considerando para ello los cambios tecnológicos, brechas entre las exigencias del cargo y las competencias de cada trabajador y la actualización en la legislación vigente. • Se realizan la determinación de las necesidades de capacitación de cada trabajador, pero estas son superficiales. • No se encuentran bien determinadas las competencias laborales de los cargos. 3 Falta de motivación de personal hacia la superación personal y profesional. • Falta de rigor y profundidad en el análisis del proceso evaluativo provocando desmotivación en los trabajadores pues no han sido correctamente identificadas las brechas de cada uno. • Existe incongruencia entre las necesidades de superación personal y las identificadas por la empresa. • Falta de reconocimiento del trabajo realizado. 4 Insuficiente aprovechamiento en el uso de la tecnología en la auto preparación. • No todos los trabajadores tienen acceso a internet • Falta de capacitación en el empleo de las TIC. 5 Pendiente la certificación del CCNAC por el IACC, aspecto que permite autonomía y disminuye gastos a la empresa. • A pesar de cumplir con los requisitos establecidos por el MINED, no se cumple con los requerimientos establecidos por el IACC, como centro de capacitación. 6 No existe cobertura de instructores en determinadas especialidades operacionales para garantizar la cobertura docente. • Existencia de pocos instructores certificados en el centro en especialidades técnicas y administrativas. 7 Insuficientes recursos de oficina para trabajar. • Falta de gestión para la realización de contratos con proveedores de materiales de oficina. • El personal contratado no cumple con las capacidades necesarias para asumir la actividad. • Falta de seguimiento y control en la actividad de compra. 8 Fuerza de trabajo especializada envejecida. • Trabajadores en edad de jubilación que no cuentan con una reserva preparada para asumir la actividad. 9 No existe un programa de atención al hombre en la empresa. • No están debidamente documentado las acciones que se deben llevar a cabo como parte de un programa de atención al hombre. 10 Sistema informático (eTES) que no cumple con todos los requerimientos que se demandan. • Errores sistemáticos no atendidos por la entidad que suministra el software. • Limitaciones por ser el sistema asignado por la CACSA. • Existen incongruencias técnicas con los nuevos cambios de la legislación vigente. • No se encuentra certificado el subsistema de nóminas del eTes. Con todo el análisis realizado se concluye que se ve en peligro el cumplimiento de los estándares de excelencia establecidos por CANSO, la empresa se encuentra en el nivel A - Informal dentro de los niveles de madurez establecidos, donde los requisitos no han sido acordados, no se realizan de forma rutinaria o dependen de la persona asignada a la tarea. 6. CONCLUSIONES  Se evidencian elementos que ubican al proceso en el nivel A Informal de madurez establecido por CANSO en los estándares de excelencia.  Se deben establecer los requisitos necesarios por cada uno de los elementos del estándar de excelencia establecidos por CANSO.  Se propone como problema a investigar: ¿Cómo contribuir que la ECNA cumpla con los estándares de excelencia internacionales en el desarrollo del capital humano para la seguridad del servicio de navegación aérea? REFERENCIAS 1. Alles, M. (2005). Desarrollo del talento humano basado den competencias. Ediciones Granica, ISBN 950-641-123-9. 2. Barbosa Lozano, R. A. (2020). “Desarrollo del talento humano como estrategia para mejorar el desempeño organizacional.” (Tesis de grado). Fundación Universidad de América, Bogotá D.C. 3. CANSO Members contributions. (2019). “CANSO Standard of excellence in Human Performance Management”. 4. Chaca-LLontop, L. A., Cabrera-Cabrera, X., del Rocio Chavarry-Ysla, P. (2020). “Estrategia de gestión del talento humano para mejorar el desempeño laboral en una entidad bancaria”. Rev. Inv. 14. ISSN 1995-445x. 5. Chiavenato, I. (2009). Gestión del Talento humano. 3ra edición Mcgraw Hill /Interamericana Editores S.A. ISBN 978-970-10-7340-7. 6. Chiavenato, I. (2011). Administración de recursos humanos. 9na edición Mcgraw Hill /Interamericana Editores S.A. ISBN 978-607-15-0560-6. 7. Cuesta Santos, A. (2010). 3ra edición Tecnología de gestión de recursos humanos. La Habana: Editorial Academia. ISBN 978-959-07-1340-8. 8. Cuesta Santos, A. (2017). 2da edición Gestión del talento Humano y del conocimiento. ECOE Ediciones. ISBN 978-958-771-379-4. 9. Decreto 53/2021 “De la organización del sistema salarial en el sistema empresarial cubano” GOC-2021-847-EX80 10. Dessler, G. (2015). Administración de recursos humanos. México: 14 edición Pearson Educación. ISBN 978-607-32-3311-8. 11. Dumitru Sopirla, D. C. (2012-2013). “Plan estratégico de gestión de Recursos Humanos” (Parte 1 Tesis de master) Universidad de Almería. 12. Espinosa González, L. (2009) “Diagnóstico del nivel de integración del sistema de dirección prodal”. Ingeniería Industrial, XXX (2), 1-6. ISSN 0258-5960 13. Flores Galaviz, J. L., Chavarría López, L. R. (2016). “La gestión del Capital Humano como estrategia para mejorar el desempeño organizacional de las empresas en México.” Red internacional de investigadores en competitividad. Memoria del X Congreso, ISBN 978-607- 96203-0-5. 14. IACC, Regulaciones aeronáuticas cubanas. (2018) “RAC 19 Gestión de la Seguridad Operacional”. 15. Kaplan, R. S., Norton, D. P. (2004). Mapas estratégicos. Convirtiendo los activos intangibles en resultados tangibles. Barcelona: Ediciones Gestión 2000, ISBN 84-8088-486-x 16. Morales Cartaya, A. (2009). Capital Humano hacia un sistema de gestión en la empresa cubana. La Habana: Editora Política. ISBN 978-959-01-0855-6. 17. ONN, NC 3001: 2007 Sistema de gestión integrada de capital humano-Requisitos. 18. Pardo Enciso, C. E., Díaz Villamizar, O. L. (2014). “Desarrollo del talento Humano como actor clave para el desarrollo organizacional, una visión desde los líderes de gestión humana en empresas de Bogotá D.C.” Suma Negocios, 39-48. 19. Pérez Hernández. R. J. (2017). Capital Humano. La integración de su sistema con enfoque por competencias. Editorial Academia. ISBN 978-959-270-360-5 20. Prieto Bejarano, P. G. (2013). “Modelo de gestión del talento humano como estrategia para retención del personal.” (Tesis de grado). Universidad de Medellín. 21. Ramírez, R. I., Espindola, C. A., Ruiz, G., Hugueth, A. M. (2019). “Gestión del talento humano: análisis desde el enfoque estratégico.” Información Tecnológica, 30 (6), 167-175. 22. Ramírez, R.I., Villalobos J.V., Herrera B.A. (2018). Proceso de talento humano en la gestión estratégica. Revista Opción, 34(18), 2076-2101. ISSN: 1012-1587. 23. Wayne Mondy, R. (2010). Administración de recursos humanos. México: Pearson educación. ISBN 978-607-32-0203-9. sobre los autores Nirka Rodriguez Carrabeo, graduada de ingeniería industrial en 2015, se desempeña como especialista en gestión de los recursos humanos en la Empresa cubana de navegación aérea (ECNA), miembro de la Organización de proveedores de servicios de navegación aérea (CANSO) en el grupo de Seguridad Operacional por Factor Humano desde la ECNA. Daniel Alfonso Robaina, graduado de ingeniero industrial en 2003, Doctor en Ciencias Técnicas, director el Centro de Estudios de Técnicas de Dirección, CETDIR de la CUJAE. Vicerrector que atiende las investigaciones y el posgrado de la CUJAE. Posee más de 25 publicaciones de revista científicas y tutor de más de 30 maestrantes de Dirección. UNA VISIÓN DE LA RELACIÓN UNIVERSIDAD-EMPRESA DESDE EL PROCESO DE FORMACIÓN DEL PROFESIONAL Ing. Dairis María Enriquez Hernández1 y Dra. Anaisa Hernández González2 Universidad Tecnológica de La Habana ¨Jose Antonio Echeverría¨ (CUJAE), La Habana, Cuba e-mail:1dairis@tesla.cujae.edu.cu, 2 anaisa@tesla.cujae.edu.cu RESUMEN La tercera dimensión de la universidad asociada con su contribución al desarrollo económico y social, a través de su relación con el tejido empresarial y el estado y la articulación con los procesos de formación, investigación e innovación. Para ello hay que lograr sinergias entre los diferentes actores que participan de esta vinculación. En la formación de profesionales con alta capacidad de innovación que sean capaces de adaptarse/cambiar el entorno, se requiere aplicar las mejores prácticas reconocidas asociadas con esta temática. Para la realización de este trabajo, se profundizó en la conceptualización de esta relación y en los modelos descritos en la literatura, incluyéndose en los resultados de la investigación realizada. Adicionalmente, se sintetizan las buenas prácticas que en el entorno cubano pueden y deben ser tomadas en cuenta para una vinculación exitosa desde el proceso de formación del profesional y algunas de las acciones acometidas en la CUJAE para su concreción. PALABRAS CLAVES: Relación universidad-empresa, Formación del profesional A VISION OF THE UNIVERSITY-BUSINESS RELATIONSHIP FROM THE PROFESSIONAL TRAINING PROCESS ABSTRACT The third dimension of the university associated with its contribution to economic and social development, through its relationship with the business and the state and the articulation with the training, research and innovation processes. For this, synergies must be achieved between the different actors that participate in this link. In the training of professionals with a high capacity for innovation who are capable of adapting/changing the environment, it is necessary to apply the best recognized practices associated with this subject. To carry out this work, the conceptualization of this relationship and the models described in the literature were deepened, including it in the results of the research carried out. Additionally, good practices are synthesized that in the Cuban environment can and should be taken into account for a successful link from the professional training process and some of the actions undertaken in the CUJAE for its realization. KEY WORDS: University-industry collaboration, Professional training 1. INTRODUCCIÓN Las universidades son actores sociales que lideran la creación de conocimientos y tienen una responsabilidad social en la formación de profesionales y en la investigación. Para cumplir con la misión de la educación superior de contribuir con el desarrollo de la sociedad, hay que fortalecer las relaciones con el entorno: sociedad, gobierno, empresa/industria y el medio ambiente. En la vinculación de la Educación Superior (ES) con el sector productivo y de servicio, es necesario lograr una convergencia entre la oferta educativa con las necesidades sociales y del sector; así como generar relaciones perdurables entre el desarrollo de la ciencia y la tecnología y la actividad empresarial [1 ; 2]. Las Instituciones de Educación Superior (IES) en Cuba tienen una alta responsabilidad en el cumplimiento de los Objetivos de Desarrollo Sostenible en su Agenda 2030 a través del Plan Nacional de Desarrollo Económico y Social hasta 2030 [3]. La educación contemporánea es un entorno de trabajo creativo, innovador e inspirador [4]. Un componente importante en el proceso de formación lo constituye la participación del sector empresarial [5]. La relación de las universidades con los diferentes actores de la sociedad, tales como gobierno y empresa permite el aprendizaje significativo de los estudiantes [6]. Ante la demanda de la sociedad de profesionales que puedan entrar al mercado laboral para resolver problemas en contexto inestables, dinámicos y de baja certidumbre [7]; se hace necesario organizar y planificar este proceso de inserción desde la ejecución de los planes de estudio. En la relación universidad –empresa la distancia entre los gremios genera un reto que implica aumentar los niveles de confianza y ayudar a reducir el tema de la actuación oportunista; para lo que se deben determinar aquellos factores que aporten valor a la relación, factores que no aporten valor y factores que la obstaculicen [8 ; 9]. Los problemas de interacción se pueden limar si se basan en un compromiso compartido con las responsabilidades sociales y los objetivos sostenibles, pues ayudan a alinear los intereses y objetivos de los actores de la relación (gobierno, universidad, empresa). Otro aspecto que afecta esta relación son los tiempos en que se mueven. Por un lado la investigación académica tiende a tener una orientación a largo plazo y las actividades académicas exigen a los estudiantes entregas más formales. Por otra parte, las organizaciones suelen estar más interesados en resultados a corto plazo e innovaciones rápidamente comercializables [10]. La capacidad de transformarse hacia lo interno para adecuarse al ambiente cambiante y a los procesos globalizados, debe ser intrínseco para cualquier organización, pero para la universidad moderna es crucial por el impacto que tiene el entorno local, nacional e internacional; sin dejar de lado el enfoque social [11]. Existe la necesidad del aprendizaje de habilidades básicas para la empresa, como son: la creatividad, la resolución de conflictos, la capacidad de expresión oral y escrita, el liderazgo, el trabajo en equipo; así como la capacidad para obtener información y analizarla de forma crítica [12]. Aunque los escenarios educativos tradicionales pueden y deben contribuir a su adquisición, el entorno productivo y de servicio puede contribuir a potenciar este proceso. El vínculo universidad-empresa se concreta en los procesos universitarios [3]. Las rápidas trasformaciones económicas, el surgimiento de nuevas tecnologías y el cambio en el paradigma del propio desarrollo industrial, exigen en la actividad de una integración de los dos actores en la etapa de formación del profesional [13]. El proceso de formación del profesional en una universidad incluye actividades que involucran el diseño y desarrollo de planes de estudio, la planificación, ejecución y control del proceso docente educativo y la evaluación de la satisfacción de los interesados en el proceso. En este trabajo se sintetizan las buenas prácticas en la relación universidad-empresa que, en el entorno cubano y en las particularidades de las carreras que se estudian en la universidad, se consideran pueden y deben ser tomadas en consideración para una vinculación exitosa desde el proceso de formación del profesional. Además, se presentan algunas de las acciones que se han realizado para concretar la propuesta. 2. MÉTODOS En la construcción de la propuesta que se presenta en este trabajo, fue necesario estudiar la literatura existente que incluye desde estudios teóricos hasta la presentación de casos de éxito. Para ello se siguió el procedimiento que se muestra en la Figura 1. Figura 1 Procedimiento seguido en la investigación. Fuente: Elaboración propia. Para cumplir el objetivo propuesto, se utilizaron en la investigación métodos teóricos y empíricos. A nivel teórico los métodos utilizados fueron: el históricos y los lógicos. El histórico dirigido al conocimiento de la evolución y desarrollo de los modelos de relación universidad- empresa y los lógicos para reflejar lo esencial, necesario y regular la información encontrada sobre los modelos de relación universidad- empresa, ofreciendo la posibilidad de comprender mejor su historia. Los procedimientos teóricos utilizados son: el analítico-sintético y el inductivo-deductivo con el propósito de analizar y utilizar la información recogida en las fuentes bibliográficas consultadas, valorar los resultados específicos de las experiencias descritas, así como, la inferencia de conclusiones generales o particulares y recomendaciones; y la abstracción-concreción con el propósito de sintetizar los conceptos y regularidades, de la temática abordada, para la elaboración de las buenas prácticas que se proponen. A nivel empírico se utilizó la observación científica y el estudio de la documentación existente y las normativas vigentes. Tomando como base los modelos que en la literatura consultada son reconocidos, estudiados y aplicados como base para esta relación, se fundamenta el que se aplica en el contexto estudiado. Esta investigación asume como definición de relación universidad empresa a un ¨… medio para promover el avance científico y lograr objetivos que beneficien a toda la sociedad, siendo rentable para ambas partes ya que apoya la mejora y la innovación en la industria y ayuda a garantizar la relevancia industrial en la investigación académica [14] y fomenta la calidad de la educación universitaria [15]”. 3. RESULTADOS La Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE, es la universidad rectora de las ciencias técnicas en el país. En ella se estudian 12 carreras de Ingeniería (Automática, Biomédica, Civil, Hidráulica, Telecomunicaciones y Electrónica, Geofísica, Industrial, Informática, Metalurgia y Materiales, Mecánica, Química y Eléctrica, la carrera de Arquitectura y Urbanismo y cinco programas de educación superior de ciclo corto (Agua y Saneamiento, Logística, Transporte Automotor, Metrología y Mantenimiento para el turismo). En el proceso de formación de los profesionales que la sociedad demanda, mantiene relaciones de colaboración con el tejido empresarial con acciones concretas a la que se vinculan todos los actores de la comunidad universitaria. En los últimos años se ha fortalecido aquellas colaboraciones que potencian el desarrollo de los sectores estratégicos identificados para el desarrollo económico en Cuba, dígase: construcciones, electroenergético, tecnologías de la información y las comunicaciones, logística de transporte, almacenamiento y comercio, logística de redes e instalaciones hidráulica y sanitarias, turismo, servicios técnicos profesionales, industria farmacéutica, biotecnológica y producciones médicas, agroindustria azucarera e industria ligera. En la literatura consultada se identifican diferentes mecanismos de interacción entre la universidad y el entorno: • Fomento la investigación interdisciplinaria, transdisciplinaria y aplicada • Servicios informáticos • Licencias de explotación. • Formación de profesionales con amplios conocimientos de innovación, emprendimiento, liderazgo e impacto social para su ejercicio profesional. • Aumento de la inversión de los gobiernos y sectores empresariales en las actividades de investigación, innovación y desarrollo. • Spin offs, Start ups y Spin outs • Incubadoras de empresas • Parques científicos y tecnológicos • Oficinas de transferencias de tecnología • Pasantías y prácticas profesionales • Consultorías • Programación de educación continuada • Centros de investigación cooperativa y de tecnología • Organizaciones regionales de innovación • Alianzas estratégicas o consorcios • Centros o unidades empresariales • Políticas nacionales e institucionales • Oficinas de vinculación industrial • Oficinas universitarias de patentes • Centros de investigación interdisciplinarias • Programas de formato al emprendimiento • Laboratorio para la creación de negocios de incubadoras • Inserción laboral • Centros de investigación cooperativa • Consenso de vinculación Institucional y Comité de vinculación a nivel de Facultad • Proyectos de innovación tecnológica • Programas de formación de recursos • Uso de instalaciones universitarias y viceversa • Investigación y desarrollo experimental • Reclutamiento de futuros profesionales Como base normativa para establecer e implementar este vínculo, se cuenta con un “Reglamento de la responsabilidad de las entidades en la formación y desarrollo de la fuerza de trabajo calificada en el nivel superior”, contenido en la Resolución No. 202/2019 del Ministro de Educación Superior [16], que entró en vigor en marzo de 2020. Los elementos principales que regula este cuerpo legal se muestran en la Figura 2. Figura 2 Aspectos regulados sobre la responsabilidad de las entidades en la formación y desarrollo de la fuerza de trabajo calificada. Fuente: Elaboración propia sintetiza de la Resolución No. 202/2019 [16]. En la relación entre la Universidad, la Empresa, el Estado y otros actores se han aplicado varios modelos de innovación. El triángulo de Sábato, el Modelo de Triple Hélice y los Sistemas de Innovación resaltan entre los más estudiados y aplicados. Estos modelos se asemejan en que involucran al sistema científico, el tejido productivo y los que hacen políticas. Sin embargo, se diferencian en los argumentos sobre los procesos de innovación, la generación de nuevos conocimientos y tecnologías, el papel de los agentes y las importancia de las cuestiones territoriales [17]; tal como se muestra en la Figura 3. Figura 3 Comparación entre los modelos Triángulo de Sábato, Triple Hélice y Sistemas de Innovación. Fuente: Elaboración propia a partir de la información publicada por Brixner, Romano y Zabala [17]. El Triángulo de Sábato se representa por un triángulo en el que en cada vértice convergen múltiples actores. El triángulo se definiría por las relaciones que se establezcan dentro de cada vértice, entre los tres vértices y las que se produzcan por el triángulo establecidos y entre cada uno de los vértices con el entorno externo del espacio en el cual se sitúan. Las relaciones que se establecen dentro de cada vértice tienen como objetivo el de transformar a estos centros de convergencia en centros capaces de generar, incorporar y transformar demandas en un producto final. En el Modelo Triple Hélice la universidad es el centro de las actividades de investigación y desarrollo por lo que se basa en principios académicos. La empresa es proveedora de la demanda sobre la base de sus actividades comerciales y la investigación y desarrollo para generar nuevas oportunidades de negocio. El gobierno es el gestor de condiciones políticas y el marco regulatorio apropiado para generar entornos de crecimiento. Las partes interesadas interactúan de manera complementaria buscando acuerdos que sean de beneficios mutuos para sus planes y objetivos [18]. Los sistemas de innovación son un modelo interactivo de gestión del conocimiento y de producción de la innovación, en el que no solo participan actores como el estado, la empresa y la universidad sino que se tiene una visión mucho más ampliada acerca de los actores que pueden participar en dicho sistema. En el sistema de innovación, la empresa tiene un papel protagónico, el triángulo de Sábato privilegia al estado y el modelo de la triple hélice otorga el papel central a la universidad. Hay un conjunto de elementos que las autores consideran constituyen buenas prácticas a tomar en cuenta en la relación universidad empresa y que parten de: su experiencia personal, de lo normado en la Resolución del Ministro de Educación Superior No. 202/2019 [16], de los aspectos claves de un marco conceptual en esta colaboración identificados por Samuel Ankrah y Omar Al-Tabbaa (2015) [19] y las recomendaciones didácticas para establecer nexos que faciliten el proceso presentadas por Alberto Leyva, Laura Mendoza y José Barbarán (2018) [12]. En la Figura 4 se resumen estos elementos. Figura 4 Buenas prácticas en la relación universidad – empresa. Fuente: Elaboración propia. En cada uno de los tres momentos en los que se materializa esta relación, se proponen actividades a desarrollar obteniendo resultados específicos que evidencian su cumplimiento. En particular, para la formalización de la relación como unidad docente, se completa una ficha por la entidad que contiene información relevante para comenzar el proceso de certificación (Figura 5). Si este proceso resulta satisfactorio para ambas partes, se concierta un convenio de trabajo donde quedan claras las motivaciones para establecer la relación, el objetivo, alcance y objeto del convenio, las obligaciones de las partes, las causas de fuerza mayor que pueden afectar el convenio, cómo actuar ante reclamaciones y solución de discrepancias, la vigencia y las causales de resolución o rescisión. Figura 5 Ficha para las unidades docentes. Fuente: Elaboración propia. Para dar soporte digital a este proceso, se cuenta con un Sistema de gestión de solicitudes de acciones específicas de colaboración, donde las entidades involucradas hacen una solicitud y puedan dar seguimiento a la atención que se brinda. En la actualidad se desarrolla otra aplicación informática donde se llevará el control de las entidades con las cuales se mantienen relaciones de colaboración y las actividades académicas que realizan los estudiantes. 4. DISCUSIÓN En la conferencia inaugural del evento Universidad 2022, el Presidente de la República Miguel Mario Díaz- Canel Bermúdez enfatizaba que “… el Gobierno es el encargado de promover, orientar, regular las interacciones entre todos los componentes del Sistema de Gestión del Gobierno Cubano basado en la ciencia y la innovación (SGGCI) [20]. El SGGCI [21] responde al modelo de sistemas de innovación en el que el Gobierno incentiva la innovación, define el marco regulatorio e impulsa múltiples forma para que se relacionen los actores en pos del desarrollo de la sociedad. Además, en Cuba los recursos de la Universidad se derivan de los fondos que el Estado le asigna a través del presupuesto nacional. La Universidad le retribuye por medio de los profesionales que egresan de ella, de los servicios que brinda y de la transparencia de tecnología y conocimientos que puede realizar [22]. Como este sistema es la base de la propuesta que se sustenta en este trabajo es este sistema, el modelo de relación universidad empresa que se adopta es el sistema de innovación. Las diversas formas en que interactúan los actores permiten establecer vínculos de diferentes tipos que impulsan el desarrollo de procesos innovadores. Los planes de estudio de las carreras y programas de ciclo corto que se estudian en la universidad, implementan un diseño que se ejecuta en 4 y 2-3 años respectivamente. En la definición del modelo del profesional (los principales problemas profesionales que se deben atender, el objeto de trabajo, los modos de actuación, los principales campos de acción y esferas de actuación) juega un rol crucial las entidades principales empleadoras de los egresados, formando parte de sus comisiones de carrera y participando directamente en los estudios que se hacen como parte del diseño. Cumpliendo de esta forma en el rol que les corresponde en la creación de estos programas. En la implementación de los planes de estudio, profesionales de estas entidades se contratan en las universidades para impartir docencia y estudiantes se insertan en las entidades para realizar prácticas laborales y ejercicios de culminación de estudios, pero se está apostando por un estadío superior en la relación que implica un mayor compromiso del tejido empresarial con la formación y orientación vocacional, la formación de profesionales, la preparación para el empleo, la superación profesional y la formación académica postgraduada y la investigación, desarrollo e innovación. En la propuesta de actividades a realizar para garantizar la integración entre las instituciones de educación superior y las entidades laborales de base o unidades docentes; se tomaron en consideración los criterios expuestos en “La vinculación universidad –empresa – gobierno: una visión histórica y conceptual [18], que deben caracterizar esta relación: compromiso, confianza, colaboración, valor percibido y lealtad. Resulta de vital importancia plasmar la realización de estas acciones en resultados concretos como: la claridad de los beneficios que reciben ambas partes como resultado de esta relación y que pueden contribuir a mejorar las relaciones de confianza, el contrato que deja creada la unidad docente o reconocida a la entidad como una entidad laboral de base, las guías que servirán al personal encargado y a los estudiantes como referencia de lo que se debe hacer en ese escenario educativo, la evaluación del estudiante por la actividad académica desarrollada, la solución o propuesta de solución al problema que tenía la entidad y las experiencias de la interacción recopiladas a través de la identificación de Debilidades, Amenazas, Fortalezas y Oportunidades (DAFO) y de las buenas prácticas. 5. CONCLUSIONES El proceso de formación del profesional no es responsabilidad exclusiva de las universidades, ellas tienen el encargo social, pero las entidades productivas y de servicio tienen responsabilidades. En Cuba en los últimos años se ha incentivado esta colaboración y se ha institucionalizado sobre qué bases se debe concretar con la definición de regulaciones específicas. Los modelos de relación universidad empresa que se reconocen como los más empleados en la revisión realizada, ponen a cada uno a uno de los actores clásicos como catalizador de la relación: universidad, empresa o gobierno; pero en todos se reconoce que las relaciones entre todos los actores son cruciales para el éxito. En el contexto actual, en el que desde el Gobierno se ha dado un impulso a esta colaboración para lograr el desarrollo e innovación que se necesita para materializar el Plan Nacional de Desarrollo Económico y Social hasta 2030 y cumplir la Agenda 2030 de los Objetivos de Desarrollo Sostenibles, la sinergia entre estas figuras, unidas a la sociedad y el medio ambiente, serán cruciales para alcanzar estas metas. Tres momentos se reconocen en su consumación: la caracterización del contexto formativo en el que se debe producir esta relación, el desarrollo del proceso de formación en el contexto sociocultural y la valoración de la integración profesional conceptualizada en la actividad práctica. De las actividades que en ellas se desarrollan se derivan resultados claves que muestran la concreción de las mismas. REFERENCIAS 1. PATIÑO A, GONZÁLEZ L, MARTÍNEZ S. Incubación de empresas basadas en el conocimiento: innovación y vinculación universidad-empresa en la UNAM. Revista Descubre, 2018; núm. 12, pp 3- 14. 2. SERKERBAYEVÁ A, TAMENOVA S. Managerial challenges and main barriersin universities within the triple helix context. Central Asian Journal onf Social Sciences and Humanities, 2021, vol 3, pp 10-17. 3. ALONSO A, BAÑOS M, COLUMBIÉ M. Los objetivos de desarrollo sostenibles desde la proyección estratégica de la educación superior. Revista Ingeniería Industrial, 2021, vol 42, núm. 1, pp 62-77. 4. MILJKOVIC B, ZIŽOVIĆ M. A model of 3D IWB technology in the concept of a dual education systems. Teaching Innovations, 201, vol 31, núm. 4, pp129-144. 5. KRAVCHENKO O, BORISYUK I, Vakolia Z, Tretyak O, Mischchenia O. Models of introduction of dual professional education. International Journal of Higher Education, 2020, vol 9, núm. 7, pp 94- 106. 6. GONZÁLEZ N, FERNÁNDEZ J, REYNAGA C. Aprendizaje y práctica de la innovación en la universidad: actores, espacios y comunidades. Revista de Investigación Educativa de la REDIECH, 2019, vol 10, núm. 19, pp 239-256. 7. SÁNCHEZ C. La economía social en la Cuarta Revolución Industrial. Revista de la Universidad de La Salle, 2021, vol 1, núm. 86, pp 235-245. 8. BEDOYA E, BEHAINE B, ALBERTO C, Marrugo Y, CASTRO A. Redes de conocimiento: academia, empresa y estado. Revista Espacios, 2018, vol 39, núm, 8, pp 1-16. 9. HERNÁNDEZ P, BELALCÁZAR M, BESPALHOK C, Soler D. Alianza universidad-empresa: una necesidad para el crecimiento de los sectores y el fortalecimiento de la investigación y la transformación. Ámbito investigativo, 2019, vol 4, núm. 1, Artículo 13. 10. RÁNTALA T, UKKO J, SAUNILA M. The role of performance measurement in University Industry collaboration projects as a part of managing triple helix operations. Triple Helix, 2020. 11. DAVID M, CARRAL A, CÓRDOVA J. La tercera misión de la universidad: evolución y diveras actividades. XXIII Congreso Internacional de Contaduría, Administración e Informática. Ciudad de México; 2018. 12. LEYVA A, Mendoza L, Barbarán J. La formación del profesional atual: propuestas innovadoras. Opuntia Brava, 2018, vol 10, núm 3. 13. LECHACHENKO L. Analysis of foreing experience of implementation on the dual form of education and accesibility of its implementation in Ukraine. Technology audit and production reserves, 2019, vol 47, núm. 3/2. 14. FORTUNATO E, LUIZ M, Prá C, SEHOFFEN D, CONTADOR J, BACHIM T, DOS REIS COUTINHO A, CARDOSO W. Critical sucess factors in university-industry collaboration: a bibliometric analysis. Research Society and Devlopment, 2021, vol 10, núm. 13. 15. FERRARINI C, PANIZZON M, VIDOR G. University-industry antecedents for innovation activities: an analysis of the alumni role. Revista Brasilera de Gestão a Desenvolvimento Regional G&DR, 2020, vol 16, núm. 2, pp 220-240. 16. MES. (2020). Resolución No. 202/2019 del Ministro de Educación Superior: Reglamento de la responsabilidad de las entidades en la formación y desarrollo de la fuerza de trabajo calificada en el nivel superior. Gaceta Oficial de la República de Cuba, 2020, vol CXVIII, núm 10 Ordinaria, pp 295- 310. 17. BRIXNER C, ROMANO S, ZABALA-ITURRIAGAGOITIA M. Analysing the differences in the scientific diffusion and policy impact of analogous theorical approaches: evidence for territorial innovation models. Journal of scientometric Research, 2021, vol 10, núm . 1, pp 546-558. 18. SALTO G, ODRIOZOLA S, ORTIZ M. La vinculación universidad-empresa-gobierno: una visión histórica y conceptual. Revista ECASinergia, 2018, vol 19, núm. 2, pp 121-129. 19. ANKRAH S, AL-TABBAA O. Universities-industry collaboration: a systematic review. Sacandinavian Journal of Management, 2015, vol 31, pp 387-408. 20. DÍAZ-CANEL M. Gestión de Gobierno basado en Ciencia e Inovación: avances y desafíos. Conferencia Inaugural del 13er Congreso Internacional de Educación Superior Universidad 2022. La Habana, Cuba, 2022. 21. DÍAZ-CANEL M. ¿Por qué necesitamos un Sistema de Gestión de Gobierno basado en ciencia e innovación? Anales de la Academia de Ciencias de Cuba, 2021, vol 11, núm. 1, pp 1-14. 22. PÉREZ L. La universidad cubana y sus retos ante los nuevos actores de la economía nacional. En Anuario de la Facultad de Derecho XI. Universidad de Alcalá, 2018, pp 249-265. Sobre los autores Dairis María Enríquez Hernández, Especialista en Gestión de la Calidad, Ingeniería Industrial. Anaisa Hernández González, Profesora Titular, Doctora en Ciencias Técnicas, Ingeniera en Sistemas Automatizados de Dirección, Máster en Informática Aplicada a la Ingeniería y la Arquitectura. XI Simposio de Ingeniería Industrial y Afines XX CONVENCIÓN CIENTÍFICA DE INGENIERÍA Y ARQUITECTURA (CCIA 20), 28 de noviembre al 2 de diciembre de 2022 Tema Calidad: ESTUDIO DE LA VARIABILIDAD FUNCIONAL. - CASO. Amparo Zapata Gómez Universidad Nacional de Colombia azapatago@unal.edu.co 1. Resumen. Desde la década de los años treinta, se abordó la variabilidad como un problema de calidad que puede ser controlado mediante la eliminación de las causas que la provocan. Para tal fin, se estableció el control estadístico para ocuparse de la desviación en el proceso, ya que los productos no pueden elaborarse exactamente iguales en cuanto a sus especificaciones, debido a las diferencias de la materia prima, las disímiles habilidades de los operadores, las condiciones en que se encuentra el equipo y los diversos sistemas de medición aplicados, entre otras variables, e incluso, se puede presentar variación en bienes producidos por un mismo operador y con la misma maquinaria. Es por esto que, en la actualidad, el control de la calidad se ha convertido en un factor importante en el entorno industrial puesto que cada vez se demandan más artículos con altos estándares, lo que implica afinar los procesos con el fin de disminuir las fallas casi en su totalidad y satisfacer a los clientes. Lo anterior, es coherente con una investigación previa realizada por Zapata (2018), dentro del marco de las actividades del Grupo de Investigación en Innovación y Desarrollo Tecnológico de la Universidad Nacional de Colombia Sede Manizales, donde se analizó el nivel de aplicación de los métodos de medición de la variabilidad en las empresas manufactureras de la ciudad de Manizales, encontrando que tan solo un 2.4% de ellas realizaban una aproximación muy parcial a la aplicación de técnicas de control. Es así, como la presente investigación integra tres métodos del control en línea con el objetivo de reducir la variabilidad y aportar las bases conceptuales para el análisis de los efectos de esta integración. Para la disminución de la variabilidad en las empresas se utilizaron métodos estadísticos de control de calidad, descripción y análisis de los principales problemas existentes en la aplicación práctica del control en línea, análisis de los principales métodos de control como una forma de agilizar el procedimiento de ajuste de los procesos, desarrollo de una propuesta robusta al clásico control, análisis de las principales soluciones dadas en la literatura especializada al problema de la existencia de la variabilidad, análisis y estimación del control de procesos, tanto como técnica para reducir la variabilidad como para atenuar el efecto negativo de la misma. Palabras claves: Calidad, control de calidad, control en línea, control estadístico, variabilidad, variabilidad funcional. 2. Introducción. En un proceso de producción, cualquier problema puede causar variaciones, dando lugar a productos con características distintas a lo deseado. En éste caso, el control del proceso permite detectar la aparición de problemas, identificar sus causas y llevar un monitoreo para eliminadas (Escalante, 2008); pero, aún en procesos sin problemas diagnosticados también puede haber variabilidad. Por lo tanto, se debe optar por el ajuste de tolerancias de los componentes o subprocesos, modificar el diseño del producto o proceso (lo cual resulta muy difícil cuando se está en la etapa de producción), inspeccionar los productos terminados para separar los defectuosos, etc., (Gutiérrez, 2010). Una aproximación al estado del arte, demuestra que los aportes recientes acerca de los problemas asociados a la variabilidad han sido estudiados en su mayoría desde el diseño del producto y muy pocos desde el control de proceso. El dilema radica en el esfuerzo que supone no sólo la descomposición de la variabilidad total para conocer aquella parte del proceso que contribuye más a ésta; sino también en utilizar, por un lado, el control estadístico para la identificación y eliminación de las causas de variación e, igualmente, los métodos de control en línea para encontrar los puntos de ajuste de los factores internos causantes de la desviación en las salidas, respecto a los objetivos deseados. Por lo tanto, se crean las bases teórico-prácticas para el mejoramiento de la calidad bajo una metodología aplicada y validada en dos empresas sector de alimentos de la ciudad de Manizales, ya que existe un consenso creciente sobre la necesidad de sobrevivir como industria, de mejorar radicalmente la calidad de sus productos, considerándose así la perspectiva teórica para la solución práctica del problema científico planteado. Es así como la presente investigación integra los tres métodos del control en línea, con el objetivo de reducir la variabilidad (Ferrer, 2004 y Montgomery, 2007), y aporta las bases conceptuales para el análisis de los efectos de esta integración. 3. Desarrollo de la investigación. Se parte de considerar la situación problemática según aproximación al estado del arte, como se ilustra en la Figura 1. Figura 1. Desarrollo de la investigación según el estado del arte Fuente: elaboración propia Según la Figura 1, un aspecto fundamental es determinar si el proceso se encuentra bajo condiciones controladas, si es así, el producto cumple con las especificaciones de calidad y puede llegar al cliente, en el caso contrario es necesario establecer las causas de variación que no mantienen el proceso estable y bajo control (Jiang and Farr, 2007 y Montgomery, 2001), presentandose la variabilidad (Pal, 2005). Lo anterior lleva a la identificación del vacío del conocimiento como resultado del análisis de la situación problemática planteada, donde es indudable que no ha sido tratada una metodología integral que abarque el diagnóstico y ajuste, la predicción y corrección y medición y análisis, como se visualiza en la Figura 2. Figura 2. Vacío del conocimiento Fuente: elaboración propia 1. DIAGNÓSTICO Y AJUSTE 2. PREDICCIÓN Y CORRECCIÓN 3. MEDICIÓN Y ANÁLISIS MINIMIZACIÓN DE LA VARIABILIDAD 1. Diagnóstico: Identificación de las características críticas (Y) y etapas críticas del proceso 2. Proceso: Determinación de: - Factor señal (M1, M2, M3, ... , Mn) - Facrot ruido (Z1, Z2, Z3, ... , Zn) - Factor control X =( X1, X2, X3, ... , Xn) - Respuestas (Y) El proceso está en control? No Identificación de causas de variación Si 3. Control en lìnea Ajuste del proceso para mejorar el rendimiento y reducir los efectos causados por la variabilidad y = f (Mn + Zn* Xn) No El proceso cumple? Si Es un producto con Calidad Los planteamientos de las Figura 1 y 2, conllevan a la formulación de un modelo de control, considerando que todo producto es el resultado de un proceso y que todos los procesos tienen variabilidad. Los métodos para disminuir la variabilidad, no ha sido abordada desde el control en línea en el contexto del sector objeto de estudio y por tanto el tema resulta relevante y de interés científico, como se muestra en la Figura 3. Se parte de la consideración que, la calidad debe estudiarse desde los enfoques “puertas adentro” y “puertas afuera”. Puertas adentro, está compuesto por el diagnóstico para la identificación de características críticas para la determinación del estado de conformidad del proceso y del producto. Además, por el proceso caracterizado por los factores controlables, ruidos y señales que afectan la respuesta (Y) (características de calidad), se asume que el proceso presenta un comportamiento normal. Figura 3. Modelo de la investigación para reducción de la variabilidad Fuente: elaboración propia Los esfuerzos para garantizar la calidad, resultan ser los más efectivos y rentables mediante la aplicación de técnicas de la Figura 3 que permitan reducir la variabilidad en el funcionamiento del producto. En donde, el control en línea “comprende métodos para conservar los valores objetivo y disminuir la variación con respecto a las especificaciones establecidas” (Hoyer and Hoyer, 2001:78), se destaca dentro de la línea (Mongtgomery, 2007 y Li et al,. 2013 y Ferrer, 2014):  En el diagnóstico y ajuste del proceso: o Examinar el proceso en intervalos regulares de tiempo; o Ajustar y efectuar las correcciones según las necesidades que surjan.  En la predicción y corrección: o Medir a intervalos regulares de tiempo los parámetros cuantitativos o numéricos del proceso. o Proyectar las tendencias en el proceso. o En el caso en que el proceso se encuentra demasiado alejado de los valores nominales, el proceso se debe reajustar para corregir la situación (control feedback o feedforward).  En la medición y acción: o Realizar el control de la calidad mediante inspección (cada unidad manufacturada es inspeccionada). o Reparar o eliminar las unidades defectuosas. Calidad puertas adentro Calidad puertas afuera Diagnóstico Proceso Control en línea Ajuste del Identificación: características proceso para mejorar el criticas (Y), rendimiento y etapas criticas del proceso. reducir efectos los ¿Cumple? Si causados por la variabilidad. Calidad del Producto No No ¿Control? Identificación de causas de variación. Si y fuera de la línea, la etapa de Relaciones con los clientes: o Se le ofrece al cliente la reparación o el reemplazamiento de productos defectuosos, o bien la compensación de pérdidas. Con el contexto de la Figura 3 y los considerandos anteriores, el producto como resultado del proceso productivo y la variabilidad de las características de calidad del mismo es ineludible. Según el diseño y desempeño del bien, es necesario su tratamiento dependiendo de la mayor o menor afectación, llevando al modelo de la Figura 4:  Fase 1 - Diagnóstico y ajuste: El objetivo general de la fase de diagnóstico y ajuste es la caracterización del producto y el proceso, sus características de calidad, la identificación de los problemas de calidad y y variabilidad para determinar aquellas características críticas que deben ser controladas y mejoradas y la generación de costos de no calidad.  Fase 2 - Predicción y corrección se desarrolla en cuatro etapas a partir de los factores determinantes de la fase 1: 1) caracterización de los datos, 2) análisis de los datos, 3) identificación y eliminación de las causas asignables de variabilidad y 4) medición de la capacidad multivariante para verificación del estado de control del proceso.  Fase 3 _Medición y análisis: Con la medición y análisis, se regula el proceso para minimizar la variabilidad que no puede eliminarse en la fase enterior. El control integral del proceso no elimina las causas asignables sino que controla las causas comunes de variación, estima la perturbación de la salida mediante el control de las variables de entrada para cancelar su efecto y reducir la variabilidad funcional. Se supone que el proceso es dinámico, que relaciona la entrada y la salida, para aplicar el ajuste en las entradas y reducir la variabilidad de la salida. Figura 4. Modelo de Control en Línea aplicado para la reducción de la variabilidad. Fuente: elaboración propia Contexto de la aplicación del Modelo de Control en Línea en el sector objeto de estudio. Caracterización del sector de alimentos en Caldas. En Colombia el sector de alimentos comprende la elaboración de productos alimenticios y bebidas. Según el Dane, (2014), éste sector es el más representativo de la industria, es uno de los más dinámicos de acuerdo a su crecimiento de la producción real y por la contribución de la industria de bebidas y alimentos. Este comportamiento se puede evidenciar con las exportaciones, Procolombia (2018), indica que el 69% de las exportaciones correspondieron a café, banano y azúcar, productos que por su tradición cuenta con mercados en Europa y Estados Unidos, en cuanto a productos nuevos el aceite de palma, la carne de bovino, algunas frutas y hortalizas y la confitería a base de azúcar y cacao. En cuanto al incremento de las importaciones con precios bajos han perjudicado la estructura productiva nacional, debido al alto costo de los factores que integran el proceso productivo (Portafolio, 2019). Además, de las exigencias nacionales e internacionales de calidad e inocuidad, las Normas y Guías Técnicas Colombianas, que se deben cumplir para garantizar la idoneidad de los productos. 2. Identificación de los problemas de calidad y sus causas 3. Evaluación de la variabilidad DIAGNÓSTICO Y AJUSTE PREDICCIÓN Y CORRECCIÓN MEDICIÓN Y ANÁLISIS 1. Determinación caracteristicas críticas a ajustar 1. Caracterización del producto y del proceso 1. Caracterización de los datos 2. Definición de las variables a manipular 2. Análisis de los datos 3. Diseño del controlador 3. Identificación y eliminación de las causas asignables de variabilidad 4. Carta de ajuste 4. Medición de la capacidad multivariable 5. Validación del modelo En el panorama regional, el departamento de Caldas es el principal productor y comercializador de productos derivados del café. Aunque, su trayectoria industrial ha estado marcada por la producción y comercialización de este producto, la oferta de productos alimenticios se ha ampliado en las últimas décadas. Cabe mencionar que el crecimiento de la industria a nivel regional ha disminuido (Banco de la Republica, 2015), durante el 2001-2015 registró una baja dinámica, su crecimiento promedio anual fue de 2,0%, inferior a la tasa reportada en el total nacional de 3,5%. No obstante, esto contrasta con el buen comportamiento del sector de alimentos en el departamento, cuyo valor agregado es la tercera parte del total, su aporte al PIB departamental es casi la mitad del aporte del sector manufacturero de Caldas, su aporte al PIB nacional es del 0,1%, es la segunda industria con mayor tasa de crecimiento con una tasa del 14.5% anual. Las empresas de alimentos representan el 37.9% del total de las industrias manufactureras de Caldas exportando aproximadamente el 73.3%, representan el 38% del valor agregado de la industria manufacturera de la región; da a entender el papel protagónico del sector (Ministerio de Industria, Comercio y Turismo, 2020). El Plan de Gobierno de Caldas 2015-2020 Caracterización del sector lácteos en Caldas Según Fedegan (2018) y Asoleche (2018), el sector de lácteos en Colombia, aportó al sector manufacturero en el 2015 el 7% de su valor agregado. El poco crecimiento que ha tenido en los últimos años se debe a las grandes ineficiencias en la comercialización de productos lácteos, al incremento de los costos de producción, a la baja productividad, a la estacionalidad en la oferta, a la disminución de precios al productor, los excedentes de inventario y desperdicio de la producción, a los altos costos en la distribución por la ineficiencia en la infraestructura, a las amenaza de nuevos competidores extranjeros con niveles de precios al consumidor inferiores y a los precios de leche en Colombia. Actualmente existen en Colombia 1067 establecimientos dedicados a la elaboración de productos lácteos, de los cuales el 95% lo constituyen las micro y pequeñas empresas. No obstante, el 93% de la producción de leche es procesada por las empresas de mayor tamaño. Por su parte, el gobierno trazó el objetivo de alcanzar una producción de 1,4 millones de toneladas de leche en el 2020, aumentando su producción en un 57% y así potenciar el perfil exportador del sector (Revista Alimentos, 2020). Las principales empresas establecidas en Colombia que representan el sector lácteo son Alpina, Colanta, Parmalat Nestlet, entre otras. El Departamento de Caldas cuenta con procesadoras como Alpina (Chinchiná), Celema, Meals de Colombia-Grupo Nutresa, Normandy, Centrolac, Multialimentos de Colombia - Inmalac, Quesos el Bueno, Lácteos Montealegre (Aranzazu), Prolacsa y Multilácteos (San Félix –Salamina), Quesos el Dorado (La Dorada), Quesos La Fortuna (Norcasia) y Pensilac (Pensilvania). En la región, Alpina Productos Alimenticios S.A. es la empresa de derivados lácteos más importante, con presencia en Ecuador, Venezuela y Colombia. La empresa Industrias Normandy basa su producción industrial en el procesamiento de yogurt, queso campesino y queso crema; gelatina, arequipe, panelitas y cocadas y la fabricación de arepas. La Central Lechera de Manizales Celema, es una empresa pasteurizadora de leche, en la actualidad para responder a los clientes implemento el Modelo de Gestión Orientado a la Excelencia, así mismo se da una mejora en procesos, infraestructura y tecnología. plantea proyectos para fortalecer las cadenas productivas de las empresas y promover la soberanía alimentaria para satisfacer las necesidades de la población, lo cual refuerza la idea de abordar proyectos orientados a mejorar los resultados competitivos de las empresas de la región y del país en diversas variables. Por la importancia del sector lácteo en el Departamento de Caldas y por la aplicación de la investigación en él, a continuación, se presenta una breve caracterización del mismo. Caracterización del sector industrial de la ciudad de Manizales desde la perspectiva de Ingeniería de la calidad Las investigaciones realizadas por Zapata (2018), dentro del marco de las actividades del Grupo de Investigación en Innovación y Desarrollo Tecnológico de la Universidad Nacional, aportan evidencia de que la mala calidad es uno de los agentes de pérdidas monetarias en la organización, fuertemente relacionada con las características inadecuadas de los productos. De las empresas consultadas, la gran mayoría coincide que el Control estadístico en línea es un concepto nuevo para ellas; es considerado como una técnica de calidad, aunque no se encuentre ni explícita, ni implícitamente; en la plataforma operativa. La Figura 5, muestra algunos métodos indagado en las empresas, lo cual corrobora que cuanto más se acerca el enfoque del Control en línea a lo que realmente significa; la práctica de la misma en el ámbito empresarial bajo esta perspectiva es casi nula. Figura 5. Enfoques de la IC en el sector industrial de Manizales. 1. Diseño robusto. 2. Función de pérdida de la calidad. 3. Diseño de experimentos (factorial, ortogonal). 4. Análisis de datos (relación señal/ruido). 5. Control de calidad (en línea y fuera de línea) Fuente: Elaboración propia a partir de la información de las empresas. La Figura 5, evidencia como las empresas se inclinan por la realización de programas de control de calidad en parte para cumplir con la normativa o por proyectos internos. Es así, como en todas las empresas dentro de sus directrices se reconoce la calidad como “la variable de mayor interés para permanecer en el mercado, por su aporte de valor al cliente”. Esta es la generalidad, ya que en totalidad de las compañías analizadas se encontró un esfuerzo hacia la satisfacción del cliente y la búsqueda de la mejora continua de la calidad. A continuación, se realiza una breve descripción de las características asociadas a éste tipo de prácticas en el orden presentado en la Figura 5.  Diseño robusto: En algunas empresas se evidencio una aplicación parcial del QFD como si fuera diseño robusto, seis de ellas se centran en la fase de diseño (rines, neveras y equipo industrial), por las exigencias de los Enfoques de ingenieria de la calidad 40 20 0 2 3 Enfoques 4 1 5 N u m e ro d e Em p re sa s 4. Conclusiones Centrolac, es una empresa reconocida en el eje cafetero, por su servicio integral acorde a las necesidades del sector, constantemente está en la búsqueda de nuevas estrategias comerciales que permitan un crecimiento y mejora continua. mercados internacionales, las políticas internas y por factores económicos. la inversión.  Función de pérdida de la calidad: Tres empresas dan importancia a este enfoque aplicándola como una etodología dirigida a la disminución de las desviaciones de las características con respecto al valor objetivo. Es utilizada para evaluar la pérdida en los procesos (rines, neveras y equipo industrial), basados en la estimación de los costos incurridos por no cumplir el producto con las exigencias de los clientes, con las características de funcionamiento y por los efectos peligrosos secundarios causados por el producto.  Diseño de experimentos: Es aplicado por dos empresas con el objetivo de seleccionar la estrategia experimental óptima (descafeinado y liofilizado del café); para obtener información con el mínimo costo y, además, evaluar los resultados experimentales obtenidos, garantizando la máxima fiabilidad en las características del producto que se obtiene.  Análisis de datos (señal/ruido): Bajo este enfoque dos empresas (descafeinado y liofilizado del café); separan los factores del proceso o producto en factores controlables y factores ruido. Estas han estimado las variables susceptibles de fijarse a niveles deseados y las que influyen en el proceso y producen variabilidad.  Calidad (fuera de línea y en línea): Es aplicada por la mayoría de las empresas con el objetivo de obtener productos conformes y procesos capaces; difiere dependiendo de la actividad a la cual se dedica la organización. Sin embargo para la gran mayoría de ellas, la inspección o control rutinario de verificación de conformidad del producto final es considerado como el enfoque de calidad en línea y fuera de línea; desconociendo que el concepto de la calidad en línea lleva a la implementación de técnicas de medición como la capacidad del proceso y el control estadístico del proceso; no aplican un proceso formal de diagnóstico y ajuste, predicción y corrección y medición y acción relacionados con los métodos de control de la producción. Y en la calidad fuera de línea se desconoce el diseño del sistema, el diseño de los parámetros y el diseño de tolerancias del proceso y del producto. Sin embargo, aunque no de una forma generalizada, se encontraron ciertas falencias en las empresas en el manejo conceptual de la IC, lo cual indica que puede haber algo de confusión acerca de la naturaleza y profundidad de estos enfoques. De hecho, se halló evidencia que en algunas se manejan más las ideas generales que las amplias implicaciones, según se desprende del análisis.  Uno de los sectores estratégicos y más vulnerables en la industria y la economía colombiana frente a los retos y oportunidades de la globalización es el de alimentos. Éste sector debe responder a requisitos mínimos de calidad para dar respuesta al marco normativo de tipo nacional e internacional que establecen los mercados. En el caso particular del Departamento de Caldas, las empresas del sector de alimentos, aunque son de gran importancia para potenciar la cadena productiva de la región, presentan diversos problemas asociados a debilidades en su control de calidad, incumplimiento los requerimientos debido al bajo nivel de aplicación de los métodos de control y mejora de la calidad.  Uno de los problemas de calidad presentados por las empresas del sector de alimentos de Manizales, corresponde a la variabilidad generada por las desviaciones de los objetivos frente a los resultados de los productos. Situación que se presenta por el desconocimiento de los requerimientos, la falta de identificación de las características críticas, el incumplimiento de las especificaciones técnicas establecidas y de los valores objetivos determinados, llevando a pérdidas por los fallos que afectan el proceso y el producto. La variabilidad no es el único problema en la producción, los diferentes tipos de características que constituyen el producto desde su inicio hasta el final, conllevan un gran número de dificultades que condicionan la incapacidad del proceso de responder a las características de calidad entre ellas las de seguridad e inocuidad.  El modelo de control en línea propuesto, como procedimiento de mejoramiento a la situación problemática de las empresas del sector de alimentos, constituye un aporte de la presente investigación ya que permite, identificar las características críticas de calidad, conocer las causas de variación, reducir la variabilidad de los productos y mantener los procesos en un estado de control. Así, la Fase 1, propone la matriz de variabilidad soportada en el enfoque de costos, capacidad de procesos y función de la calidad; la Fase 2, plantea el uso del control estadístico multivariado para la detección e intervención de las causas asignables de variación y llevar el proceso a un estado de control para dar paso a la Fase 3, donde las variables del proceso son ajustadas para reducir la variabilidad, logrando el mejoramiento del proceso y del producto.  A nivel de resultados de la Fase 1, se encontraron características de calidad como críticas. En la Fase 2, con la caracterización de los datos se halló que las variables estudiadas, seguían una distribución normal, condición indispensable para la aplicación del estadístico T2.. Igualmente, se evidencio que había correlación entre algunas variables; y aunque tres de las cuatro presentaron autocorrelación con el procedimiento EMWA-ARIMA fue posible transformarlas en incorrelacionadas. En la Fase 3, la relación entre las variables manipulables del proceso y el pronóstico de las perturbaciones que afectan las operaciones, dieron como resultado el punto de ajuste que debía ser aplicado para acercar la característica de calidad al valor objetivo, lográndose una reducción de la variabilidad en un 52.49%.  El desarrollo del modelo de control para el caso concreto de la variabilidad en la empresa estudiada, validó su utilidad práctica e identifico el tipo control y se confirmó industrialmente como una opción que sin ser la óptima, paso de un proceso sin capacidad a uno con capacidad de cumplir los requisitos establecidos. Pese a las restricciones de la aplicación, el proceso se ha estabilizado y se han fijado los principios orientadores de intervenciones a muy corto plazo.  Con las etapas estimadas de diagnóstico y ajuste, predicción y corrección, y medición y análisis, se ha verificado industrialmente la eficacia del modelo de control en línea, mediante el ajuste tanto de la variabilidad como el costo de la misma en el proceso, para plantear alternativas de mejora que lleven a los resultados requeridos del modo más económico. Con los costos de calidad se valoraron los costos de variabilidad a partir de los costos del proceso y evaluar el impacto económico por la variación, que permitió calcular la función de pérdida de la calidad, que ratifica lo expuesto en los diversos modelos teóricos propuestos por diversos autores.  El control estadístico permitió estimar la variación del proceso y la contribución de cada uno de los diferentes factores de variabilidad al resultado final. No obstante, las restricciones atribuidas por el tratamiento de los modelos lineales entre variables y la eliminación de algunas con efectos no significativos, el resultado final del modelo es suficientemente significativo en las respuestas obtenidas en el proceso. Si bien el modelo planteado no es exacto es un acercamiento eficaz para establecer el impacto de los problemas de calidad y estimar las acciones de mejora.  El modelo de control en línea planteado, opera en un contexto estadístico, estima un proceso con varias características de calidad e independientes, reconoce la complejidad de las relaciones entre dichas características y la respuesta, que no obstante siempre pueden modelarse a partir del conocimiento previo del proceso y la experimentación en el mismo. Por lo tanto, es viable para modelar y mejorar el problema de variabilidad en cualquier tipo proceso con particulares similares al descrito, siempre que la comprensión del mismo sea suficiente como para determinar las variables críticas y experimentar las relaciones entre las mismas para el ajuste y mejorar los parámetros a medir en el proceso.  Con estos resultados, se demuestra que la aplicación del modelo de control en línea propuesto que integra las etapas de diagnóstico y ajuste, control y corrección y medición y mejora contribuye al mejoramiento de la calidad en los procesos productivos. Aunque éste puede ser aplicado en diferentes ambientes de manufactura, puede ser revisado y mejorado en la medida que se detecten nuevas situaciones de variación.  Futuras líneas de investigación deberán explorar modelos de variabilidad más complejos, para a partir del conocimiento empírico del proceso y la experimentación industrial determinar novedosos modelos de relaciones manejando herramientas estadísticas para construir los modelos de variabilidad que a la par con los modelos de costeo garanticen procesos de mejora como el desarrollado. Estudios futuros, merecerían desarrollar e incluir otras variables que puedan afectar la característica crítica de calidad teniéndose en cuenta la correlación entre dichas variables. Así mismo, diferentes frentes de investigación surgen frente a la posibilidad de optimizar el procedimiento con la introducción de técnicas avanzadas tales como redes neuronales, estado de los espacios y algoritmos genéticos, entre otras. 5. Referencias. Ajaal, T. and Smith, R. “Employing the Taguchi method in optimizing the scaffold production process for artificial bone grafts”, Journal of Mechanical and Materials Engineering. 2008, vol. 56, n. 12, p. 25-45. Banco de la Republica de Colombia. “Boletín económico regional Eje Cafetero Caldas, Risaralda, Quindío”. Boletín IV trimestre. 2018, p. 1-58. Castaño B. “Rediseño del proceso de programación detallada de producción en la empresa productora de gelatina Progel S.A”. Maestría en Ingeniería industrial con énfasis en dirección de producción y operaciones. Universidad Nacional de Colombia. 2012. Castaño G, y Ríos S. “El mejoramiento de los procesos a partir de su madurez en Industrias Normandy S. A”. Informe final de investigación para optar al título de Especialistas en Gerencia de Procesos de calidad e Innovación; Universidad EAN; Bogotá D. C. 2010. Castro, S. “Procedimiento para evaluar la estrategia de manufactura: aplicaciones en la industria metalmecánica”. Cuadernos de Administración. 2007, vol. 20, n. 1, p. 33. Cuatrecasas, A. “Gestión Integral de la Calidad: Implantación, control y certificación”. Profit Editorial. 2010. Departamento Administrativo Nacional de Estadística (Dane). “Generalidades de la Cadena Productiva Molinería”. Encuesta Anual Manufacturera. 2020. Consultado en: https://colaboracion.dnp.gov.co/CDT/Desarrollo%20Empresarial/Molineria.pdf. Departamento Administrativo Nacional de Estadística (Dane). “Anexos metodológicos a la Encuesta Anual Manufacturera– EAM”. 2018. Consultado en https://www.dane.gov.co/files/investigaciones/boletines/eam/Anexosmetodologicos2011.pdf. Departamento Administrativo Nacional de Estadística, (Dane). “Comercio exterior- exportaciones”, Encuesta Anual Manufacturera, 2018. Consultado en: http://www.dane.gov.co/files/investigaciones/boletines/exportaciones/bol_exp_jun12.pdf. Departamento Administrativo Nacional de Estadística, (Dane). “Encuesta Anual Manufacturera”. 2018. Consultado en: http://www.dane.gov.co/files/investigaciones/boletines/eam/Anex_2013pr.pdf Departamento Administrativo Nacional de Estadística, (Dane). “Muestra mensual manufacturera”, Encuesta Anual Manufacturera, 2018. Consultado en: http://www.dane.gov.co/files/investigaciones/boletines/mmm/bol_mmm_nov14.pdf. Escalante, V. “Seis sigmas: Metodología y técnicas”. Editorial Limusa. México. 2008. 435 Pág. 77. Evans, J., and Lindsay, W. “The Management and Control of Quality”, (8th ed.). Ohio: South-Western College Publishing. 2011. Federación Colombiana de Ganaderos, Fedegan. “Datos Históricos Producción Carne”, (a). 2018. Consultado en: http://www.fedegan.org.co/estadisticas/produccion-0. Federación Colombiana de Ganaderos, Fedegan. “Datos Históricos Consumo Carne”, (b). 2018. Consultado en: http://www.fedegan.org.co/estadisticas/consumo-0 Federación Colombiana de Ganaderos, Fedegan. “Datos Históricos Producción Leche”, (c), 2018. Consultado en http://www.fedegan.org.co/estadisticas/produccion-0. Federación Colombiana de Ganaderos, Fedegan. “Datos Históricos de Exportaciones Leche”, (a). 2018. Consultado en: http://www.fedegan.org.co/estadisticas/comercio-exterior-1. Federación Colombiana de Ganaderos, Fedegan. “Balance y perspectivas del sector ganadero colombiano”, (b) 2018. Consultado en: http://www.fedegan.org.co/estadisticas/comercio-exterior-1 Federación Nacional de Cacaoteros, Fedecacao. “Producción de cacao en Colombia aumentó 26% en el 2013”. 2013. Consultado en: http://www.fedecacao.com.co/site/index.php/1nov-novedades/2nov-noticias/1542-2013-07-30-nota1. Ferrer, A. “Control estadístico de procesos con inercia: revisión del estado del arte y perspectivas de futuro”. Estadística Española. 2004, vol 46, n. 155, p. 19-47. Gutiérrez, P. “Calidad total y productividad” McGraw-Hill, Tercera edición. 2010. México, 363 Pág. Hoyer, R., and Hoyer, B. “What is quality”. Quality Progress. 2001, vol. 34, n. 7, p. 53-62. Hubele, N., Lawrence, F., Miskulin, J., Shahriari, H. and Wang, F. “Comparison of three multivariate process capability indices”. Journal of Quality Technology, 2000. vol. 32., n. 3, p. 75- 82. Instituto Colombiano de Normas Técnicas Colombianas y certificación. Icontec. “NTC ISO 9000. Sistema de gestión de la calidad. Vocabulario y fundamentos”. 2008. vol. 1, n. 1, p. 12. Jiang, W., and Farr, J. V. “Integrating SPC and EPC methods for quality improvement”. Quality Technology and Quantitative Management. 2007, vol 4, n. 3, p. 345-363. Li, T., Hu, S., Wei, Z., and Liao, Z. “A Framework for Diagnosing the Out-of-Control Signals in Multivariate Process Using Optimized Support Vector Machines”. Mathematical Problems in Engineering. 2013, vol. 1, n. 9.. doi:10.1155/2013/494626. Ministerio de Comercio, Industria y Turismo. “Perfil Departamental de Caldas”, Oficina de estudios económicos departamento de Caldas, Boletín informativo. 2018. Ministerio de Industria, Comercio y Turismo, “Perfil Departamental de Caldas”, Oficina de estudios económicos departamento de Caldas, Boletín informativo. 2018. Montgomery, D. “Introduction to Statistical Quality Control”. 4a. Editions. Ed. John Wiley and Sons. New York. 2001 Montgomery, D.“Statistical Quality Control”. 2a. Editions Ed. John Wiley and Son, New York. 2007. Montgomery, D., Mastrangelo, C. “Some statistical process control methods for autocorrelated data”. Journal of Quality Technology. 2001, vol. 23, n. 3, p. 1022- 1035. Pal, S. “Evaluation of Nonnormal Process Capability Indices using Generalized Lambda Distribution”. Quality Engineering. 2005, vol 17, n.1, p. 77- 85. Palanikumar, K. “Cutting Parameters Optimization for Surface Roughness in Machining of GFRP Composites using Taguchi´s Method”, Journal of reinforced Plastics and Composites. 2006, vol. 25, n. 16, p. 1739-1751. Phadke, M. “Quality engineering using robust design”. Prentice Hall, 2009. ProColombia. “Inversión en cacao, chocolatería y confitería”. 2018. Consultado en: http://www.inviertaencolombia.com.co/images/Adjuntos/Sector_cacao_y_chocolateria.pdf. Revista I de Alimentos. ¿Cómo está el sector lácteo? 2018. Consultado en: http://www.revistaialimentos.com.co/ediciones/edicion3/sector-destacado- --lacteo/como-esta-el-sector-lacteo.htm. Revista Portafolio (online). “Mercado bursátil colombiano vs. Mercado mundial”. 2018. Consultado en: http://www.portafolio.co/opinion/blogs/mercado-bursatil-colombiano-vs-mercado-mundial/analisis-sector-las-empresas-colombiana Romano, C. “Report Card on TQM”.Management Review”.2004, vol. 83, n. 1, p. 22-25. Wang, D. “Determination of Nattokinase production Condition Using Taguchi Parameter Design”. Food Science and Technology International. 2006, vol. 12, n. 3, 215-220. Wang, P. “Testing dispersion effects from general unreplicated fractional factorial designs”. Quality and Reliability Engineering International. 2001, vol. 17, n. 4, p. 243-248. Zapata, A. “Diagnóstico de la calidad en el sector empresarial de Manizales”. Informe de avance Doctorado de Ingeniería, Industria y Organizaciones. Universidad Nacional de Colombia, Sede Manizales, 2018. Zapata, A. “Control estadístico de la calidad”. Universidad Nacional de Colombia. 2018. Zapata, A. “Modelo de control linea en el sector empresarial de Manizales”. Universidad Nacional de Colombia, Sede Manizales, 2018. Zapata, A., y Sarache, W. “Mejoramiento de la calidad en la taza de café soluble utilizando el método Taguchi”. Revista Chilena de Ingeniería .2013. Diagnóstico del Sistema de Gestión de la Calidad de la EMCE con enfoque de ergonomía organizacional. Leonor Ramona Castillo Hernández 1, Massiel de la Caridad Jiménez Soto2 , Mayvet Leyva Tamayo2 , Aleida González González3, Patricia Suárez Fernández3 1Empresa de Mantenimiento a Centrales Eléctricas, EMCE. Calle 100A #8410 e/85 y 87, Marianao, La Habana, Cuba. 2,3 Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE. Calle 114 #11901 e/ Ciclovía y Rotonda, Marianao, La Habana, Cuba. 3psuarezf@ind.cujae.edu.cu RESUMEN La ergonomía organizacional o macroergonomía es el tipo de ergonomía que se encarga de asegurar la óptima organización del trabajo para que la tarea a realizar sea más cómoda y provechosa, no solo para el individuo que la lleva acabo sino también para el colectivo de trabajadores que se relacionan con ella. A través de la ergonomía organizacional el trabajador estima su relación con la organización en la que labora. La Empresa de Mantenimiento a Centrales Eléctricas (EMCE) es una entidad perteneciente a la Unión Eléctrica (UNE) encargada de ejecutar los mantenimientos a las centrales eléctricas del país, en la actualidad tiene implementado un sistema de gestión de la calidad basada en la NC ISO 9001:2015 pero son recurrentes en los análisis internos de la empresa las problemáticas en la gestión del capital humano. Es por ello que el objetivo de este trabajo fue evaluar el sistema de gestión de la calidad implantado bajo un enfoque de ergonomía organizacional para de esta forma identificar las acciones necesarias para una posterior intervención macroergonómica. Entre las problemáticas encontradas destaca: el número de accidentes laborales, que la fuerza de trabajo no tiene compromiso con la empresa y existe una mala comunicación de los obreros con los jefes, se quejan de las relaciones interpersonales, de la falta de reconocimiento en sus tareas y de que no hay iniciativa en el trabajo; además, no contiene la adecuación de los recursos necesarios o existentes y descarta las oportunidades de mejora. PALABRAS CLAVE: .sistema de gestión de la calidad, ergonomía organizacional, macroergonomía, intervención macroergonómica Diagnosis Quality Management System of EMCE with an organizational ergonomics approach. ABSTRACT Organizational ergonomics or macroergonomics is the type of ergonomics that is responsible for ensuring the optimal organization of work so that the task to be performed is more comfortable and profitable, not only for the individual who carries it out but also for the group of workers who work. relate to her. Through organizational ergonomics, the worker estimates his relationship with the organization in which he works. The Power Plant Maintenance Company (EMCE) is an entity belonging to the Electric Union (UNE) in charge of executing the maintenance of the country's power plants, currently it has implemented a quality management system based on the NC ISO 9001:2015, but the problems in the management of human capital are recurrent in the internal analyzes of the company. That is why the objective of this work was to evaluate the quality management system implemented under an organizational ergonomics approach in order to identify the necessary actions for a subsequent macroergonomic intervention. Among the problems found, the following stand out: the number of occupational accidents, that the workforce has no commitment to the company and there is poor communication between the workers and their bosses, they complain about interpersonal relationships, the lack of recognition in their tasks and that there is no initiative at work; In addition, it does not contain the adequacy of the necessary or existing resources and rules out opportunities for improvement. KEY WORDS: quality management system, organizational ergonomics, macroergonomics, macroergonomic intervention TEMA: La sintaxis del espacio y la percepción de la calidad. AUTORES: ARQ. ANGEL SANTANA CARABALLO, ARQ. DACHELIS DOBAL FONSECA TUTORAS: DR. ING. JOSÉ VILALTA ALONSO / ARQ. ADRIAN GONÁZALEZ GONZÁLEZ DRA. ING. ALEIDA GONZÁLEZ GONZÁLEZ RESUMEN: Las organizaciones cubanas se encuentran inmersa en un proceso de cambio, que surge a partir de la actualización del modelo económico, político y social, focalizados en la necesidad de aumentar la prestación de servicios con calidad. La calidad de los servicios debe contemplarse en un contexto estratégico, donde se evalúe el contraste entre las expectativas y las percepciones de los clientes y partes interesadas. Una organización orientada a la calidad promueve una cultura que da como resultado comportamientos, actitudes, actividades y procesos para proporcionar valor mediante el cumplimiento de las necesidades y expectativas de los clientes y otras partes interesadas pertinentes (ISO 9000, 2015). En la bibliografía estudiada los autores concuerdan que el diseño del espacio físico de una organización forma parte del diseño del servicio, y por tanto, debe combinar una profunda comprensión del cliente y del servicio. Es decir, deben considerarse los requerimientos espaciales, funcionales y tecnológicos, que aseguren el buen desempeño de los procesos, a la vez que atienda las necesidades de confort, de identificación social y de cualificación estético-cultural de los clientes externos e internos. El diseño espacios arquitectónicos de organizaciones que prestan servicios, supone para el arquitecto, un ejercicio de integración con especialistas y técnicos del tema, que permita orientar el proceso de diseño hacia el logro de la calidad de dichos servicios. Esta investigación se encuentra bajo la sombrilla de las investigaciones del grupo en Inteligencia de Negocios (formado por profesores y especialistas de Ingeniería Industrial y Arquitectura), perteneciente al Complejo de Investigaciones Tecnológicas Integradas (CITI) permiten un acercamiento a este fenómeno bajo las particularidades cubanas, y evidencian las carencias en la bibliografía con respecto al diseño arquitectónico de las organizaciones de servicios, encontrando como objetivo principal demostrar la influencia del espacio físico en la percepción de la calidad, trabajando como caso de estudio las oficinas de Trámites a la Población de Carnet de Identidad. PALABRAS CLAVES: Servicios, Calidad en los servicios, espacio físico, procesos, sintaxis espacial. SISTEMA DE DOCUMENTACIÓN DEL INSTITUTO UTILIZANDO EL SISTEMA TRIM CAPTURA INSTITUTE DOCUMENTATION SYSTEM USING THE TRIM CAPTURE SYSTEM MC. Yerlen Castillo Suárez1, MC. Zoraima Pomares Calderón2, MC. Randelys Molina Castro3, Téc. Yamna Balleux Herrera4 1,2,3,4 Instituto Finlay de Vacunas. Avenida 21, No. 19810 entre 198 y 200. Atabey, Playa, La Habana, Cuba 1e-mail: ycastillo@finlay.edu.cu 2e-mail: zpomares@finlay.edu.cu 3e-mail: rmolina@finlay.edu.cu 4e-mail: yballeux@finlay.edu.cu RESUMEN El Instituto Finlay de Vacunas (IFV) es un centro de la Industria Biotecnológica dedicado a investigar, desarrollar, producir, evaluar, negociar y comercializar conocimientos, tecnologías y productos, fundamentalmente vacunas; orientando todos sus recursos tecnológicos, humanos y financieros en pos de potenciar el Programa Avanzado de Vacunas, el crecimiento y desarrollo económico y la calidad de vida de la población de Cuba. En el IFV se encuentra implementado un Sistema de Documentación por más de veinte años, en el que se recogen a través de Procedimientos Normalizados de Operación (PNOs), Registros Maestros de Lotes (RML), Especificaciones, registros complementarios, instructivas, manuales, planes, entre otros documentos, y todas las operaciones de los procesos productivos que se realizan, así como de los ensayos de control de calidad, control de proceso y otras actividades relacionadas con los productos fabricados en el Instituto. Las tecnologías de la información y las telecomunicaciones (TICs) están introduciendo nuevas prácticas y formas de gestionar los documentos; para esto el IFV ha utilizado el sistema TRIM captura como herramienta de gestión de documentos electrónicos de archivo del Sistema de Documentación, implementado hace más de diez años. Para una mejor comprensión y uso de este sistema automatizado se aprobó el PNO 39-012 titulado: Manejo del sistema TRIM captura para la gestión de documentos electrónicos de archivo del Sistema de Documentación del Instituto Finlay de Vacunas. Con el empleo de esta herramienta automatizada existen numerosos beneficios en más del 50 % de las áreas del IFV. PALABRAS CLAVES: Documentación, documentos electrónicos, sistema automatizado ABSTRACT The Finlay Institute of Vaccines (FIV) is a center of the Biotechnological Industry dedicated to research, develop, produce, evaluate, negotiate and commercialize knowledge, technologies and products, mainly vaccines; directing all its technological, human and financial resources to promote the Advanced Vaccine Program, the economic growth and development and the quality of life of the Cuban population. The FIV has had a Documentation System in place for more than twenty years, in which Standard Operating Procedures (SOPs), Master Batch Records (MBR), Specifications, complementary records, instructions, manuals, plans, among other documents, and all the operations of the production processes carried out, as well as quality control tests, process control and other activities related to the products manufactured at the Institute are collected. Information and telecommunication technologies (ICTs) are introducing new practices and ways of managing documents; for this purpose, FIV has used the TRIM capture system as a tool for managing electronic archival documents of the Documentation System, implemented more than ten years ago. For a better understanding and use of this automated system, the SOP 39-012 entitled: Management of the TRIM capture system for the management of electronic archival documents of the Documentation System of the Finlay Institute of Vaccines was approved. With the use of this automated tool there are numerous benefits in more than 50% of the areas of the FIV. KEY WORDS: Documentation, electronic documents, automatized system INTRODUCCION Todas las normas y regulaciones en las que se basan la mayoría de los sistemas de gestión de la calidad, requieren que dicho sistema esté documentado. Está reconocido por las normativas de calidad que cada organización debe desarrollar la cantidad de documentación que necesita para demostrar la eficacia de la planificación, operación, control y mejora de su Sistema de Gestión de la Calidad (SGC) y de sus procesos, es decir, que el sistema documental debe responder a las necesidades de la organización para que resulte práctico, eficaz y útil. Tradicionalmente la información de las organizaciones está basada en documentos de soporte físico (documentos impresos); actualmente, como consecuencia de la automatización de la información proliferan los documentos extraídos electrónicamente de sistemas, los cuales, al igual que el papel, son testimonio de los procesos desarrollados en una organización. Ante este nuevo enfoque, consecuencia directa del auge de las tecnologías de la información y las telecomunicaciones (TICs), se han generado cambios en la infraestructura de las organizaciones, lo que lleva a las instituciones a centrar su atención en el uso de los sistemas automatizados. Las TICs están introduciendo nuevas prácticas y formas de gestionar los documentos y se ha vuelto una herramienta fundamental para el acceso, consulta, transparencia, optimización y disponibilidad de la información. Sin embargo, es necesario establecer políticas claras acerca de la distribución, consulta y conservación, pues cada decisión asociada al tratamiento de dichos documentos tendrá efectos sobre el patrimonio documental. El desarrollo acelerado y expansión de las TICs, la demanda de búsquedas de datos de forma rápida, precisa y oportuna en grandes volúmenes de información y el impacto del uso del papel, entre otras causas, ha generado la necesidad de incorporar herramientas tecnológicas en la gestión, uso y almacenamiento de la información y la documentación en las organizaciones. La aparición de herramientas informáticas para la gestión electrónica de documentos mejora los niveles de calidad de la documentación de la organización. Un programa de gestión documental implica definir una serie de políticas que guían y normalizan el desarrollo de sus procesos archivísticos. Este trabajo pretende desarrollar la gestión, que el Grupo de Documentación de la Dirección de Aseguramiento de la Calidad ha desarrollado con los documentos electrónicos de archivo del Sistema de Documentación, utilizando el sistema TRIM captura. MATERIALES Y MÉTODOS Para el desarrollo de este trabajo se realizaron consultas a documentos y regulaciones, así como al Manual de Usuario TRIM captura 4.2. Además, se entrevistaron a los documentares de las áreas y responsables de archivos para analizar la efectividad del sistema informático. El sistema TRIM Captura versión 4.2 cumple con los requisitos funcionales para los Sistemas de Gestión de Documentos Electrónicos de Archivo (SGDEA), por lo que implementando correctamente las herramientas archivísticas necesarias, este sistema es capaz de gestionar los documentos de archivo, manteniendo su fiabilidad, integridad, disponibilidad y autenticidad desde la creación hasta la disposición final. Este sistema fue creado por la empresa australiana Tower Software Corporation, compilado en C++ y tiene como requerimientos mínimos de hardware un procesador Pentium de (166Mhz), 32 MB de RAM (Windows 95/98) y 64 MB de RAM (Windows NT 4.0). El sistema TRIM captura se encuentra implementado en el IFV desde el año 2008, con resultados satisfactorios para los administradores y usuarios del mismo. Dicho sistema se encuentra instalado en las PC de los documentadores de las áreas y Jefes de Departamentos, Grupos, Laboratorios o áreas funcionales. Los especialistas del Departamento de Inteligencia Empresarial son los encargados de la instalación del software en las PC de los usuarios autorizados. Este sistema se conserva en el servidor del Instituto. Se elaboró el Procedimiento Normalizado de Operación relacionado con el manejo del sistema TRIM captura para la gestión de documentos electrónicos de archivo del Sistema de Documentación del Instituto Finlay de Vacunas. RESULTADOS Y DISCUSIÓN El Instituto Finlay de Vacunas (IFV) ha utilizado el sistema TRIM captura, hace más de diez años, como herramienta de gestión de documentos electrónicos de archivo del Sistema de Documentación. Debido a la dispersión geográfica que presentan las Plantas de Producción del Instituto, se han presentado problemas para el acceso, consulta y distribución final de los documentos aprobados por el Sistema de Gestión de la Calidad (SGC). Esta situación fue analizada en reuniones de trabajo con los documentadores de las áreas, a partir de la compilación de información a través de entrevistas con trabajadores y responsables de archivos. El resultado de dicho análisis permitió determinar fortalezas y debilidades en aspectos relacionados con la gestión de documentos electrónicos de archivo del Sistema de Documentación. A continuación, definiremos las principales fortalezas y debilidades: Fortalezas - Aprovechamiento de la jornada laboral - Facilita la distribución de los documentos y la reducción de copias innecesarias - Búsqueda de metadatos propios del documento aprobado - Facilita el acceso, consulta y conservación de los documentos - Mejoras en los tiempos de gestión y trámites de los documentos aprobados - Seguridad en los documentos archivados Debilidades - Los listados de documentos que le corresponden revisión en un período, no se pueden utilizar fielmente para elaborar el Plan Anual de Documentación de las áreas, debido al diseño concebido en el sistema TRIM captura. - El acceso al sistema automatizado por parte de los usuarios no se puede restringir a solo lectura, permitiendo la impresión de los documentos sin un control estricto de las copias existentes en las áreas, por parte del Grupo de Documentación de la Dirección de Aseguramiento de la Calidad. - Cada cierto tiempo es necesario el reinicio del servidor donde se almacena este sistema, generando pérdidas de tiempo por los usuarios. Con la información obtenida se estableció una política para aquellas áreas que cuentan con los recursos materiales y una situación geográfica desfavorable, de poder utilizar el sistema TRIM captura para la consulta, acceso, reproducción y distribución final de sus documentos, controlando los mismos según se establece en el PNO 01-074. Como resultado de la propuesta establecida se han obtenido numerosos beneficios en más del 50% de las áreas del IFV, los cuales han sido muy útiles, tanto para el trabajo diario como para las auditorias recibidas. Además, el acceso y la disponibilidad de la información electrónica para la gestión de documentos están controlados a través de los usuarios que interactúan directamente con el sistema TRIM captura, mediante una contraseña que solamente es asignada por el Grupo de Documentación de la Dirección de Aseguramiento de la Calidad. Se elaboró el PNO 39-012 titulado: Manejo del sistema TRIM captura para la gestión de documentos electrónicos de archivo del Sistema de Documentación del Instituto Finlay de Vacunas, para una mejor comprensión y uso del sistema automatizado (ver Anexo). En dicho procedimiento se explica detalladamente las actividades que pueden realizar los administradores del sistema TRIM captura (Especialistas del Grupo de Documentación) y las que pueden efectuar los Especialistas de Documentación de las áreas (Documentadores) y Jefes de Departamentos, Grupos, Laboratorios o áreas funcionales. En el caso de los administradores (Especialistas del Grupo de Documentación), dicho sistema le permite: - Dar acceso a los usuarios y modificar contraseñas (Tools) - Creación-Introducción de documentos (New Record) - Relaciones entre los documentos (Relationship) - Creación de cuadros de clasificación (Tools) - Métodos de búsqueda (Find) - Configuración del panel de metadatos - Extracción de documentos - Extracción y Edición del Listado de documentos introducidos en un período - Extracción del Listado de documentos a revisar por las áreas en un período En el caso de los Especialistas de Documentación de las áreas (Documentadores) y Jefes de Departamentos, Grupos, Laboratorios o áreas funcionales, permite: - Métodos de búsqueda - Configuración del panel de metadatos - Extracción de documentos A través de este sistema no es posible realizarles modificaciones a los documentos electrónicos de archivo, solamente son consultados y extraídos por los usuarios autorizados. También permite la búsqueda de metadatos propios de los documentos, tales como: título, fecha de aprobación, versión vigente, fecha de revisión, persona que elaboró el documento, especialista que lo revisó, documentos relacionados, entre otros. Toda la documentación generada por el SGC se encuentra actualizada en el sistema TRIM captura, la cual es introducida por las especialistas del Grupo de Documentación en el menor tiempo posible. A partir de este trabajo se ha podido observar como existen áreas en el IFV que están aprovechando el soporte brindado, tanto por las nuevas tecnologías como por los profesionales de la documentación. CONCLUSIONES La gestión del ciclo de vida de la información es almacenada en documentos, donde la incorporación de tecnologías de la información y la comunicación (TICs) por sí misma no constituye una herramienta determinante, sino que contribuye de manera significativa a propiciar el fortalecimiento de la función archivística de la organización, y por cuanto, permite el uso y acceso de la información en tiempo real, generando ventajas a la hora de consultarla. Con la gestión de documentos electrónicos de archivo se obtienen los siguientes beneficios: - Aprovechamiento de la jornada laboral. - Facilita la distribución de los documentos y la reducción de copias innecesarias. - Búsqueda de metadatos propios del documento aprobado. - Facilita el acceso, consulta y conservación de los documentos. - Mejoras en los tiempos de gestión y trámites de los documentos aprobados. - Seguridad en los documentos archivados. Fue aprobado el PNO 39-012 “Manejo del sistema TRIM captura para la gestión de documentos electrónicos de archivo del Sistema de Documentación del Instituto Finlay de Vacunas”, el cual ha servido para una mejor comprensión y uso del sistema automatizado. RECOMENDACIONES Realizar las gestiones necesarias para lograr las mejoras que requiere el sistema TRIM captura y así contar con un sistema de gestión documental sin limitaciones. BIBLIOGRAFÍA CONSULTADA 1- ISO 9000 “Sistemas de Gestión de la Calidad. Fundamentos y vocabulario”. 2005 2- ISO 9001 “Sistemas de Gestión de la Calidad. Requisitos”. 2015 3- ISO/TR 10013 “Directrices para la documentación de Sistemas de Gestión de la Calidad”. 2001 4- Manual de Usuario. TRIM captura 4.2. 5- PNO 01-074 “Procedimiento para el manejo y control de los documentos del Sistema de Documentación del Instituto Finlay de Vacunas”. Versión 3, Octubre 2018. 6- PNO 39-012 “Manejo del sistema TRIM captura para la gestión de documentos electrónicos de archivo del Sistema de Documentación del Instituto Finlay de Vacunas”. Versión 1, Septiembre 2018. 7- Rangel Palencia, Erika L. Guía de Implementación de un Sistema de Gestión de Documentos Electrónicos de Archivo (SGDEA). Bogotá, Colombia. Enero 2017. 8- Regulación 16 “Directrices sobre Buenas Prácticas de Fabricación de Productos Farmacéuticos”. CECMED, 2012. Anexo: Primera página del PNO 39-012 “Manejo del sistema TRIM captura para la gestión de documentos electrónicos de archivo del Sistema de Documentación del Instituto Finlay de Vacunas”. DISEÑO DE UN MODELO PARA LA EVALUACIÓN DE LA INFORMACIÓN EN LA ESINES DESIGN OF A MODEL FOR THE EVALUATION OF THE INFORMATION DOCUMENTED IN THE ESINES Msc. Ing. Ofelia Moliner Laguardia 1, Ing. Tania la Rosa Barbón2 Msc. Lic. María Mercedes Hernández Guillen3 1 Empresa de Servicios Ingenieros Especializados, La Habana, Cuba 2 Empresa de Servicios Ingenieros Especializados Filiación, La Habana, Cuba 3 Empresa de Servicios Ingenieros Especializados Filiación, La Habana, Cuba 1e-mail: ofelia@esines.cu, tania@esines.cu, mariam@esines.cu RESUMEN La evaluación de la información documentada de un Sistema Integrado de Gestión (SIG) es de gran valor pues proporciona información efectiva para apoyar la toma de decisiones en la organización. Una de las herramientas para mejorar la calidad de la información generada en el SIG es su medición, de forma tal de poder determinar puntos de mejora. El presente trabajo se desarrolla en la Empresa de Servicios Ingenieros Especializados, ESINES; en el mismo se muestra los resultados del estudio realizado para evaluar la calidad de la información gestionada como parte del proceso de Dirección estratégica del Sistema Integrado de gestión implantado en la organización. La metodología utilizada inicialmente consistió en el análisis documental, a partir de la revisión de la literatura y la documentación especializada, utilizando datos primarios consistentes en entrevistas y observación. El análisis documental sobre calidad de la información documentada, incluyó los documentos metodológicos fundamentales que rigen la actividad relacionada con la gestión de la información en el país, posteriormente mediante la técnica de trabajo en equipo de grupo de discusión se diseña un modelo de evaluación con su instrumento, estableciendo criterios de aceptación y rechazo en el proceso y estableciendo para este último caso la gestión de acuerdo a lo establecido en el SIG. PALABRAS CLAVES: Calidad de la información, información documentada, modelo de evaluación ABSTRACT The evaluation of the documented information of an Integrated Management System (IMS) has great value because they provide effective information to support decision-making in the organization. One of the tools to improve the quality of the information generated in the GIS is its measurement, in such a way as to be able to determine points for improvement. The present work is developed in the Specialized Engineering Services Company, ESINES; It shows the results of the study carried out to evaluate the quality of the information managed as part of the Strategic Management process of the Integrated Management System implemented in the organization. The methodology used initially consisted of documentary analysis, based on a review of the literature and specialized documentation, using primary data consisting of interviews and observation included the fundamental methodological documents that govern the activity related to the information management in the country, then, through the discussion group teamwork technique, an evaluation model is designed with its instrument, establishing acceptance and rejection criteria in the process and establishing for the latter case the management according to what is established in the SIG. KEY WORDS: Information quality, documented information, evaluation model 1. INTRODUCCIÓN La creación y gestión de documentos es parte integral de las actividades, procesos y sistemas de las organizaciones. La gestión documental hace posible la eficiencia, la rendición de cuentas, la gestión de los riesgos y la continuidad del negocio [1]. La evaluación de la información documentada de un SIG es de gran importancia pues proporcionan información efectiva para apoyar la toma de decisiones en la organización. Una de las herramientas para mejorar la calidad de la información generada en el SIG es su medición, de forma tal de poder determinar puntos de mejora. Sólo lo que se mide se puede valorar, gestionar y por tanto mejorar, como recuerda la Asociación de Empresas Consultoras en Relaciones Públicas y Comunicación [2] Ponjuán Dante define la gestión de información como el proceso mediante el cual se obtienen, despliegan o utilizan recursos básicos (económicos, físicos, humanos, materiales) para manejar información en y para la sociedad a la que se sirve. Tiene como elemento básico la gestión del ciclo de vida de este recurso y ocurre en cualquier organización. [3] La Empresa de Servicios Ingenieros Especializados, pertenece al Grupo de las Industrias Biotecnológica y Farmacéutica de Cuba, BioCubaFarma tiene como misión brindar servicios de ingeniería y proyectos, montaje, validación y metrología, mantenimiento y reparación de equipos, instalaciones y sistemas de las industrias biotecnológica, farmacéutica y médica, tributando al crecimiento de sus capacidades productivas y a la sostenibilidad de su funcionamiento, desde el compromiso de su capital humano con la calidad de la salud humana. Si se tiene en cuenta que los clientes fundamentales son las Empresas que conforman el Grupo BioCubaFarma y la red de hospitales del MINSAP, entendemos entonces la necesidad de mejora continua en su gestión pues los servicios que ofrece están indudablemente relacionados a un mercado consumidor mucho más amplio: la población cubana que necesita los medicamentos y utiliza los servicios hospitalarios. La ESINES posee un SIG implantado y certificado por el órgano de certificación de la Oficina Nacional de Normalización (ONN) para un alcance de Diseño de plantas completas o sistemas ingenieros de la industria biotecnológica, médico farmacéutica, turística y alimentaria, consultoría y asistencia técnica; servicio de instalación, mantenimiento, reparación y puesta en marcha a equipos de liofilización de acuerdo a los requisitos de la NC ISO 9001 [4] , obtenido en Abril del año 2020 y actualmente se trabaja en la ampliación del alcance de forma tal de incluir el resto de los servicios, así como la certificación de los Sistemas de gestión ambiental y Sistemas de gestión de la Seguridad y salud en el trabajo según las NC ISO 14001[5] y NC ISO 45001[6] respectivamente. Su SIG tiene un alcance a todos los procesos identificados en el Mapa de procesos y que abarcan los servicios de: Ingeniería, Proyectos y Consultoría, Montaje de Salas Limpias y Sistemas Críticos, Validación y Metrología, Servicios Técnicos (Mantenimiento, reparación y puesta en marcha a equipos de Tratamiento de Agua, Clima y Refrigeración, Liofilización y Automática), Mantenimiento Tecnológico (Soldadura, Maquinado, Enrollado, Hojalatería, Mantenimiento Mecánico). Una vez obtenida la certificación del sistema de gestión de la calidad se impone trabajar en mantener lo logrado. La certificación no tiene un carácter indefinido. Según él procedimiento de certificación de la Oficina Nacional de Normalización la organización deberá someterse a auditorias de seguimiento anuales y auditorias de renovación (aproximadamente cada 3 años). Por lo que se deben llevar a cabo acciones que conlleven la mejora del sistema, sus procesos, sus resultados y su capacidad de satisfacer los requisitos de los clientes, es por esto que la organización se encuentra enfocada en buscar los puntos débiles dentro del SIG, analizarlos y buscar solución. Un análisis documental realizando sobre el tema se demuestra que muchos son los autores que se han dedicado al estudio de la calidad de la información. Huang, Lee y Wang (2000) [7] investigan los parámetros que inciden en ello, planteando que existen determinadas dimensiones entre las que se destacan la exactitud, el alcance pleno, la coherencia y la puntualidad. Existen documentos normalizativos como la ISO 30301: 2014 Información y documentación. Sistemas de gestión para los documentos. Requisitos [8], que ofrecen herramientas para que la alta dirección implemente un enfoque sistemático y verificable en el control de la organización en un entorno que favorezca las buenas prácticas. En Cuba se ha implementado el Decreto No. 281/2007 Reglamento para la Implantación y Consolidación del Sistema de Dirección y Gestión Estatal [9] donde sus documentos normativos y metodológicos reflejan la necesidad del Sistema de Información Interna, la obligatoriedad de ejecutar este subsistema y su revisión sistemática para mejorar el funcionamiento. La Resolución No 60/2011: Normas del sistema de control interno [10] en su Sección cuarta Información y Comunicación el inciso b) contenido, calidad y responsabilidad plantea que la información contribuye al cumplimiento de las responsabilidades individuales y a la coordinación del conjunto de actividades que desarrollan los órganos, organismos, organizaciones y demás entidades para el logro de sus objetivos, debe transmitir la situación existente en un determinado momento, de forma confiable, oportuna, suficiente, pertinente y con la calidad requerida. Desde el punto de vista normalizativo, existen Normas Cubanas (NC) adopciones de Normas internacionales como la NC ISO 10013: 2021 Sistemas de gestión de la calidad. Orientación para la información documentada [11]; la cual reconoce la importancia y el valor de la información, la gestión documental y del conocimiento a partir de la aplicación de este tipo de enfoque, y de manera significativa aporta cultura y proyección sobre ellas a partir del reconocimiento de la documentación de los procesos, una práctica con la que se agrega valor a las organizaciones y en especial a las empresas. El SIG implantado (y certificado parcialmente) establece la metodología para cumplir con los requisitos de las tres NC que lo integran, siendo el proceso de dirección estratégica el encargado de establecer directrices para la elaboración de la información documentada de los procesos, no obstante se observan deficiencias en la gestión interna de los flujos informativo entre las diferentes áreas y procesos de la ESINES, por lo que nos hemos planteado como objetivo de esta investigación diseñar un modelo para evaluar la calidad de la información documentada que se gestiona como parte del flujo informativo de la organización que permita su retroalimentación necesaria para la gestión eficiente de los procesos que integran el SIG y evidenciar de esta forma su mejora continua, además se establecen criterios para aceptar o rechazar la información que se gestiona y darle tratamiento según está estipulado en el SIG P01 02 Procedimiento para el Tratamiento de las No Conformidades y Acciones Correctivas. Las autoras consideran que el tema de la calidad de la información es vital, dado su papel en la toma de decisiones para el desempeño de la organización. Como resultado del estudio bibliográfico, se valora que las dimensiones planteadas por Alfons Cornella [12] son las de mayor pertinencia para ser aplicadas a la información analizada. En la Tabla No. 1 mostramos las principales variables y su descripción que conforman la propuesta de este autor. Tabla No. 1 Principales dimensiones planteadas por Cornella Variable Descripción Relevancia Adecuación de la información a las necesidades de quien la tiene que utilizar. La información no-relevante es el ruido y la información relevante que no se obtiene es el silencio Focalización Organización de la información alrededor de un tema en concreto Precisión Grado de focalización. Cuando más cercanos al valor real estén los resultados, mayor es la precisión. La característica contraria es la dispersión. Exhaustividad Grado de minimización del silencio Fiabilidad Confianza en la calidad, o certeza, de la información, normalmente consecuencia de la confianza en la fuente de la que procede Puntualidad Adecuación temporal entre la obtención de la información, y la necesidad del usuario Detalle Adecuación entre la cantidad y profundidad de la información facilitada y la situación informacional de quien tiene que usarla Fuente: Adaptación de Principales variables y su descripción de Cornella 2. MATERIALES Y MÉTODOS Los Materiales y métodos aplicados, se exponen a continuación Estudio exploratorio que permitió determinar los referentes teóricos y metodológicos que se necesitan para familiarizarse con los diferentes modelos de evaluación de la calidad de la información y consistió en la revisión bibliográfica Enfoque sistémico: Permitió la organización de los contenidos analizados y dar un orden lógico al modelo diseñado Estudio descriptivo, el análisis documental para analizar el objeto de estudio consistente en la información documentada que se gestiona como parte de la actividad del SIG del proceso de gestión de la dirección Estudio explicativo, el análisis documental brindo la posibilidad de analizar los principales problemas de la calidad de la información documental gestionada y hacer una propuesta de evaluación La información se recolectó de fuentes tanto primarias (observación directa y entrevista) como secundarias (libros, documentos e internet) Técnica de trabajo en equipo. Grupo de discusión La formación del grupo de discusión para acometer esta parte de la investigación permitió analizar cada una de las variables definidas por Alfons Cornella y poder llegar a un consenso sobre cuáles de ellas pudieran aplicarse a las informaciones que se generan como parte del SIG de forma tal de obtener criterios de evaluación efectivos al contexto dado. El primer paso consistió en la selección y contacto con los participantes donde se establece una fecha para el inicio de las sesiones y el lugar. Se explican los objetivos a investigar y se entrega la documentación a analizar en la próxima sesión. Seguidamente, se realizan las sesiones de discusión, es en este momento es cuando se produce la el debate propiamente dicho. Posterior a la discusión se hace una transcripción de la información, donde se redacta la información obtenida, indicando participante y su intervención. El último paso es el análisis de la información con los criterios aportados. El estudio limita su alcance a la documentación interna que se gestiona como parte de la actividad del SIG del proceso de dirección estratégica, de los resultados obtenidos en esta primera aproximación de analizará la posibilidad de generalizarlo a la gestión del flujo informativo interno de la ESINES 3. RESULTADOS Y DISCUSIÓN Los resultados que se presenten en este trabajo están dados por: 1. El estudio exploratorio que permitió la conceptualización de la calidad de la información y su papel como elemento fundamental en la toma de decisiones empresariales y la necesidad de su medición con vistas a conocer sus puntos débiles y poder actuar sobre ellos en pos de la mejora continua para de esta forma elevar su desempeño. 2. La revisión de los documentos a nivel de organización y aunque se cuenta con procedimientos documentados se carece de un modelo de evaluación de la información que permita la retroalimentación necesaria para la gestión eficiente de los procesos que integran el SIG y de evidenciar de esta forma su mejora continua, además que permitan la posibilidad de establecer criterios para aceptar o rechazar la información que se gestiona y darle tratamiento según está estipulado en el SIG P01 02 Procedimiento para el Tratamiento de las No Conformidades y Acciones Correctivas. 3. La presentación de esta información se ha presentado de manera consecuente, ordenada paso a paso según su ocurrencia. 4. La creación del grupo de discusión encargado de analizar propuestas de las autoras mediante el intercambio de ideas y opiniones. Integraron el Grupo de discusión 7 especialistas: 4 especialistas en gestión de la calidad 1 especialista en comunicación 1 especialistas de seguridad y salud en el trabajo 1 asesora jurídica Todos los integrantes poseen nivel superior y más de 10 años de experiencia en la organización, restando vinculados directamente de una u otra forma con la gestión de la información objeto de estudio. La Tabla No. 2 Muestra la información documentada que forma parte del flujo informativo del proceso de Dirección estratégica. Tabla No.2 Información documentada del proceso de Dirección estratégica Nombre del documento Área emisora Frecuencia Procesos implicados Salida Eficacia de los procesos Grupo de gestión. Dirección de Desarrollo y Negocios Trimestral Todos los procesos identificados Dirección general (Consejo de Dirección) Informes de Revisión del SIG por la Dirección Semestral Todos los procesos identificados Dirección general (Consejo de Dirección) Plan de medidas de auditoría y su cumplimiento Trimestral Todos los procesos identificados Dirección general (Consejo de Dirección) Resultado de la Guía de autocontrol. Semestral Todos los procesos identificados OSDE BioCubaFarma Plan de Calibración. Cumplimiento Trimestral Procesos de realización y proceso de logística OSDE BioCubaFarma Tabla No. 2 Fuente: Flujo informativo de la ESINES con adecuaciones de las autoras Asumiendo las dimensiones planeadas por Cornella, expuestas en la Introducción las autoras elaboraron una presentación donde se aclaraba la información necesaria para el estudio y análisis mostrando ejemplos concretos para facilitar su comprensión. Primer encuentro: Una vez entregada la presentación, se convocó en el salón de reuniones de la oficina central al Grupo de trabajo, actuando una de las autoras en calidad de moderadora. Durante la sesión de trabajo cada uno de los miembros del grupo expuso su criterio sobre la forma en que aplicaban estás variables a la organización, lográndose un consenso una vez intervenido los 7 participantes, en cuanto a: 1. Las variables que mejor representan la situación planteada son las de: Relevancia, Precisión, Fiabilidad, Puntualidad y Detalle. 2. Se debían adecuar dichas variables a un lenguaje más adecuado que permitiera su interpretación de forma rápida y efectiva al leerlo. Se programó un segundo encuentro donde debía mostrarse por parte de la coordinadora una adecuación de las variables desde el punto de vista lingüístico que facilitara su comprensión y que en si misma encerrara el objeto de análisis sin ambigüedades Segundo encuentro: Como resultado del trabajo del Grupo, se tomaron como indicadores para evaluar la calidad de la información a analizar las siguientes: ✓ Correspondencia con el formato de los registros ✓ Completamiento de la información ✓ Puntualidad en la entrega de la información ✓ Coherencia de la información ✓ Análisis técnicos adecuados Una vez diseñado el modelo y establecidas las variables a evaluar, se estableció mediante el consenso participativo entre los miembros del Grupo de discusión su instrumento de medición, se llevó la propuesta diseñada por las autoras y luego de una tormenta de ideas se acordó la propuesta de modelo de evaluación, estableciendo los criterios de evaluación, así como la fórmula de cálculo y la evaluación final aparecen recogidos en la Tabla No.3 Dada que se trata de procesos dinámicos, se trató de establecer un modelo simplificado que permitiera su evaluación de forma rápida y breve. Para el proceso de Dirección estratégica la responsabilidad de la evaluación recae en el Director de Desarrollo y Negocios y para el resto de los procesos es la Coordinadora del SIG la responsable de su evaluación Tabla No. 3 Modelo de evaluación propuesto Aspectos a evaluar Análisis del Criterio de evaluación del indicador: cumple:1, no cumple 0 Fórmula de cálculo Conformidad Correspondencia con el formato de los registros Cumple: la información se corresponde con los registros del SIG No Cumple: No se corresponde con los registros del SIG EID=SAC/TAE*100 (1) Donde: EID: Evaluación final de la información documentada entregada SAC: Suma de aspectos cumplidos TAE: Total de aspectos evaluados Mayor de 80 % información aceptada Menor de 80 % información rechazada y debe analizarse según el procedimiento Tratamiento de No Conformidades, las Acciones Correctivas y Oportunidades de mejoras. SIG P01 02 Completamiento de la información Cumple: la información está completa No Cumple: la información está completa Puntualidad en la entrega de la información Cumple: Entrega en la fecha acordada No Cumple: No se Entrega en la fecha acordada Coherencia de la información Cumple: El informe es adecuado a los propósitos y objetivos planteados No Cumple: El informe no es adecuado a los propósitos y objetivos planteados Análisis técnicos adecuados Cumple: Se realizan los Análisis técnicos necesarios como parte del SIG No Cumple: No se realizan los Análisis técnicos necesarios como parte del SIG Fuente: Elaboración propia El instrumento fue aplicado a la información suministrada como cierre del año 2021, demostrando su funcionabilidad y la posibilidad de su generalización. La Tabla No. 4 nos muestra un segmento de los resultados de la aplicación del modelo realizado al final el IV trimestre del año 2021 para el Proceso P 10 de Servicios Técnicos. El modelo nos permite visualizar de forma sencilla una vez realizada la evaluación cuales son las deficiencias que se presentan en la gestión interna de la información Tabla No. 4. Ejemplo de aplicación del modelo propuesto Proceso Información Aspectos a evaluar IV Trimestre Análisis del Criterio de evaluación del indicador Valora obtenido Aceptado Rechazado P 10 Servicios técnicos Eficacia Correspondencia con el formato de los registros 1 0,8 Aceptada Completamiento de la información 1 Puntualidad en la entrega de la información 1 Coherencia de la información 1 Análisis técnicos adecuados 0 Revisión del SIG/dirección Correspondencia con el formato de los registros 1 0,8 Aceptada Completamiento de la información 1 Puntualidad en la entrega de la información 0 Coherencia de la información 1 Análisis técnicos adecuados 1 Plan de medidas auditoria seguimiento ONN. Cumplimiento Correspondencia con el formato de los registros 1 0,60 Rechazada Completamiento de la información 0 Puntualidad en la entrega de la información 1 Coherencia de la información 1 Análisis técnicos adecuados 0 Guía de autocontrol. Cumplimiento Plan de medidas Correspondencia con el formato de los registros 1 0,60 Rechazada Completamiento de la información 1 Puntualidad en la entrega de la información 0 Coherencia de la información 1 Análisis técnicos adecuados 0 Plan de Calibración Correspondencia con el formato de los registros 1 1,0 Aceptada Completamiento de la información 1 Puntualidad en la entrega de la información 1 Coherencia de la información 1 Análisis técnicos adecuados 1 Fuente: Elaboración propia 4.CONCLUSIONES Y RECOMENDACIONES Los aspectos más esenciales que a manera de conclusión derivan del estudio realizado son: ✓ La revisión bibliográfica nos indica que la evaluación de la calidad de la información es imprescindible para conocer los aspectos débiles y darle el tratamiento adecuado para su mejora de forma tal de que constituya un instrumento efectivo en la toma de decisiones empresariales ✓ El modelo propuesto y su correspondiente instrumento de medición facilita la evaluación de la información documentada que se gestiona como parte del flujo informativo del proceso de Dirección estratégica lo que, permiten conocer sus principales deficiencias y posibilita la vinculación de los resultados con la gestión del SIG 5. RECONOCIMIENTOS Las autoras desean agradecer al personal que contribuyó en la investigación, en especial a los miembros del grupo de discusión que a medida que se fue avanzando en la investigación fueron aportando ideas y recomendaciones que enriquecieron los resultados de la investigación. 6. BIBLIOGRAFÍA [1] ISO 30301: 2014 Información y documentación. Sistemas de gestión para los documentos. Requisitos [2] Adecec (2016). Guía práctica de la medición. Asociación de Empresas Consultoras en Relaciones Públicas y Comunicación.http://adecec.com/wp-content/uploads/2018/10/Gui%CC%81a- PRa%CC%81ctica-de-la-Medicio%CC%81n-def_.pdf [3] Ponjuán Dante, G., Mena Mugica, M. Rodríguez Cruz, Y. (2014). Fundamentos de la gestión documental, de información y del conocimiento. Editorial Universitaria, Félix Varela. La Habana, 119 p. [4] NC ISO 9001:2015 Sistemas de gestión de la calidad, Requisitos [ISO 9001: 2015 (traducción certificada), IDT] [5] NC ISO 14001: 2015 Sistemas de gestión ambiental. Requisitos con orientación para su uso [(ISO 14001: 2015 (traducción certificada), IDT)] [6] NC ISO 45001:2015 Sistemas de gestión de la seguridad y salud en el trabajo; requisitos con orientación para su uso [ ISO 45001: 2018, (traducción certificada), IDT] [7] Huang,K.;Lee,W.;Wang,R.(2000).Calidad de la información y gestión de conocimiento. Madrid: AENOR NA [8] ISO 30301 : 2014 Información y documentación. Sistemas de gestión para los documentos. Requisitos [9] Decreto No. 281/2007 Reglamento para la Implantación y Consolidación del Sistema de Dirección y Gestión Estatal [10] Contraloría General de la República.(2011). Resolución No 60/2011: Normas del sistema de control interno, Gaceta Oficial Extraordinaria, No. 13, La Habana. Recuperado de htpp://www.gacetaoficial.gob.cu [11]NC ISO 10013: 2021 Sistemas de gestión de la calidad. Orientación para la información documentada [12] Alfonso Cornella. (2005) Futuro presente. [documento en línea] tp://www.infonomics.net sobre los autores Msc. Ing. Ofelia Moliner Laguardia: Ingeniera civil (CUJAE 1985), Máster en gestión de la calidad y medioambiente (UH, 2011). Especialista en Gestión de Calidad del Grupo de gestión de la Dirección de Desarrollo y Negocios de la ESINES Ing. Tania la Rosa Barbón: Ingeniera mecánica (CUJAE 1995), Especialista en Gestión de Calidad (Coordinadora del SIG) del Grupo de gestión de la Dirección de Desarrollo y Negocios de la ESINES Msc. Lic. María Mercedes Hernández Guillen: Licenciada en Química (UH 1988) Máster en gestión de la calidad y medioambiente (UH, 2011). Especialista en Gestión de Calidad del Grupo de gestión de la Dirección de Desarrollo y Negocios de la ESINES PROPUESTA DE MODELO DE PROCESOS PARA LA DIVISIÓN DE ETECSA EN VILLA CLARA. (UNA PROPUESTA DESDE EL ENFOQUE DE LA ARQUITECTURA EMPRESARIAL) Maykel Manuel Chávez Rodríguez 1, Leisis Villar Ledo 2 1 Empresa de Telecomunicaciones de Cuba S.A., 2 Universidad Tecnológica de la Habana “José Antonio Echeverría” (CUJAE). 1e-mail: maykel.chavez@etrecsa.cu RESUMEN La arquitectura empresarial es una de las disciplinas de los negocios que ha despertado más interés por su utilidad para integrar procesos, información y tecnología en la mejora de la calidad. En el presente trabajo se abordó la propuesta de un modelo de organización de los procesos de negocio para la División Territorial Villa Clara integrando las buenas prácticas de varios marcos de trabajo de arquitectura empresarial. La investigación se desarrolló siguiendo una metodología que mediante la identificación de la línea base de arquitectura y la evaluación de las brechas respecto a los marcos de referencia, permite el diseño de un nuevo modelo de procesos de negocio. La propuesta contiene artefactos y componentes que se integran aprovechando las potencialidades de cada marco de trabajo, conformando un nuevo modelo de procesos de negocio compacto, escalable e integrado. PALABRAS CLAVES: Procesos de negocio, arquitectura empresarial, marcos de trabajo, capacidades organizacionales. PROPOSED PROCESS MODEL FOR THE ETECSA (A PROPOSAL FROM THE APPROACH OF BUSINESS ARCHITECTURE) ABSTRACT Business architecture is one of the business disciplines that have aroused more interest for its usefulness to integrate processes, information and technology in improving quality. In the present work, the proposal of a business process organization model for the Villa Clara Territorial Division was addressed, integrating the good practices of several business architecture frameworks. The research was developed following a methodology that, through the identification of the architecture baseline and the evaluation of the gaps with respect to the reference frameworks, allows the design of a new business process model. The proposal contains artifacts and components that are integrated taking advantage of the potential of each framework, forming a new model of compact, scalable and integrated business processes. KEY WORDS: Business processes, enterprise architecture, frameworks, organizational capabilities. 1. INTRODUCCION El factor tecnológico ha dejado de ser un privilegio de unas pocas organizaciones de clase mundial para convertirse en un requisito básico en cualquier industria, sin importar tamaño o sector. Las tecnologías de la información ya no son solo un activo estratégico, sino un elemento básico de cualquier organización. El rol de las tecnologías es crítico para las empresas modernas, estas invierten importantes sumas de capital en la automatización de sus procesos de negocio [1]. Los procesos, productivos o de prestación de servicios, dependen tanto del factor tecnológico que su mejoramiento difícilmente puede realizarse utilizando los métodos tradicionales. La trasformación digital es un hecho y ha sido el resultado del auge de la tecnología para la realización de los procesos y es una tendencia que no tiene límites en los diversos sectores de la economía [2]. En este contexto surge la arquitectura empresarial como una solución para manejar la complejidad de empresas grandes y pequeñas en todo el mundo. Existen muchos aportes de la arquitectura empresarial que han contribuido a su auge en la última década. La capacidad para gestionar la complejidad [3], la utilidad para comprender de forma integral a la empresa [4], su visión holística de los procesos [5] y su utilidad para gestionar procesos, información y tecnología de forma integrada [6] son algunos de estos aportes. La arquitectura empresarial ha ofrecido como ninguna otra disciplina una visión sistémica del negocio apoyando en las fusiones, adquisiciones, el cambio y la innovación. La arquitectura empresarial ha ayudado a sacar el máximo provecho de las tecnologías de la información aplicadas al negocio. Un estudio realizado por la organización Gardner en el 2016 plantea que el 20 % de todos los gastos de tecnologías de la información en organizaciones de clase mundial son desperdiciados, lo que representa a nivel global más de 600 billones de dólares de pérdidas al año. Mientras que un estudio de IBM realizado a las compañías Fortune 1000, aseguran que los directivos de varias organizaciones reportaron que el 40 % de los gastos en tecnologías de la información no generaron ningún valor a la compañía. La arquitectura empresarial aporta un paquete de soluciones muy útil a esta problemática, lo cual es corroborado por el amplio despliegue que ha tenido en todos los sectores de actividad, incluyendo la industria de las telecomunicaciones. Una organización que implemente iniciativas mediante la aplicación de la arquitectura empresarial estará incorporando continuamente nuevas capacidades para enfrentar los retos estratégicos. La Empresa de Telecomunicaciones de Cuba S.A. (en lo adelante ETECSA) surge en el año 1995 con el objetivo de frenar el deterioro de las telecomunicaciones en el país. Su objeto social es la prestación de servicios públicos de telecomunicaciones en todo el territorio nacional. Con la participación de capital mixto, ETECSA implementó un amplio programa de desarrollo y modernización desde el año1996. En la provincia Villa Clara este programa logró el aumento de la penetración de los servicios de creciendo de 16 004 líneas telefónicas en servicio en 1996 hasta 49 833 en el 2004 para un crecimiento del 311,37 %. Otros servicios como es el caso de la telefonía pública y la transmisión de datos también se desarrollaron en esa etapa. La telefonía pública en 1998 solo tenía 806 estaciones en servicio, multiplicándose en el 2004 hasta 2 393 para un crecimiento del 296,90 %. Los servicios de transmisión de datos que comienzan a comercializarse en 1997 contaban en sus inicios con solo 8 enlaces contratados y crecieron hasta 191 en 2004. El desarrollo de los servicios fue acompañado por un programa de modernización del equipamiento que logró pasar de un 55,71 % de digitalización en el año 2000 a un 84,33 % en 2005. Las mejoras tecnológicas influyeron en los niveles de calidad del servicio. Indicadores como las interrupciones del servicio, los reportes iniciales1 y los teléfonos reparados en las primeras 72 horas2 mostraron mejoras. En los reportes iniciales de un 31,36 % en 1995 se logró mejorar hasta el 5,65 % en 2004. De igual manera los servicios reparados en 72 horas experimentaron un crecimiento considerable pasando de un 57,06 % en 1995 a un 99,46 % en 2004. Desde el año 2006 las inversiones en tecnología disminuyeron considerablemente por factores externos a la empresa. Esta coyuntura produjo una desaceleración gradual del crecimiento de los niveles de calidad del servicio. Un ejemplo de esto es el indicador reportes iniciales, que solo creció 2,72 puntos porcentuales en los últimos 10 años. Este indicador es afectado de forma directa por un incremento de las interrupciones en las redes de cable que desde el año 2010 hasta el 2018 crecen en un 87,57 %. La situación descrita anteriormente se reflejó a lo externo de la empresa en la satisfacción del cliente que decreció un 19,88 % en los últimos 5 años y en el aumento de las quejas que crecieron desde 826 hasta 2 605 en el mismo período. Estas problemáticas han sido abordadas en la planificación estratégica de la División Territorial Villa Clara del período 2018-2023. Se ha identificado como un área estratégica de trabajo el logro de la integración entre los procesos y servicios de la empresa. ETECSA establece como uno de sus mayores retos en el largo plazo convertirse en una empresa innovadora y en esta dirección se han trazado estrategias concretas. Estas a pesar de que han tenido algún impacto no han aprovechado las potencialidades de mejora existentes en la organización de los procesos y los métodos de trabajo. El modelo actual de organización, enfocado funcionalmente, depende de la inversión en tecnología para mejorar su desempeño y no es capaz de utilizar las reservas de mejoramiento que existen en el ámbito organizacional. Las formas de organización tradicionales constituyen una barrera para el cambio que necesita la empresa ya que no puede aprovechar todas las oportunidades existentes en los procesos y sus interfaces. Tampoco el modelo actual ofrece garantías para enfrentar la implementación de los nuevos servicios de telecomunicaciones y su integración, elementos medulares de la estrategia corporativa de la empresa en el mediano y largo plazo. Teniendo en cuenta todos los elementos planteados anteriormente surge el siguiente problema de investigación: ¿Cómo a través de un modelo de procesos de negocio se contribuye a la calidad de los servicios de telecomunicaciones mediante la creación de capacidades organizacionales en la División de ETECSA en Villa Clara? Para la solución del problema de investigación se establece el siguiente objetivo general: Proponer un modelo de procesos de negocio para la División de ETECSA en Villa Clara basado en la integración de marcos de trabajo de arquitectura empresarial. 1 Es un indicador de la Concesión Administrativa de ETECSA. Se mide dividiendo la cantidad de interrupciones en un periodo entre las líneas en servicio en ese período. 2 Es un indicador de la Concesión Administrativa de ETECSA. Es el porcentaje de servicios de telefonía básica que son reparados en un plazo de 72 horas desde que se reporta la interrupción. Una vez terminado el proyecto de investigación y cumplido el objetivo general se debe corroborar la siguiente idea de investigación: Con la propuesta del modelo de procesos de negocio basado en arquitectura empresarial en la División de ETECSA en Villa Clara se va a lograr una mayor integración de los procesos, capaz de contribuir a la creación de capacidades estratégicas, de integración y de manejo de la complejidad. 2. MATERIAL Y METODOS Las técnicas y herramientas utilizadas en la investigación que fueron tomadas de la literatura y adaptadas a las condiciones específicas el contexto se muestran a continuación: Modelo de Integración del Sistema de Dirección de la Empresa (DEISDE). Este modelo surge debido a la necesidad de aumentar el nivel de integración que logran los modelos de dirección estratégica [7]. Propone un indicador para la medición del Nivel de Integración del Sistema de Dirección de la Empresa (NISDE) a partir del comportamiento de las relaciones existentes entre los procesos tanto a lo interno como a lo externo. Método Hanlon para la determinación de prioridades. Esta técnica clasifica los problemas y los recursos con los que se cuenta, priorizando la problemática con base a la evaluación de varios indicadores [8]. Se basa en los cuatro componentes siguientes: magnitud del problema (A), severidad del problema (B), eficacia de la solución (C) y factibilidad (D) [9]. Guía para la evaluación y mejora de procesos de gestión de la información. Es una herramienta de auto diagnóstico para la gestión de la información como un recurso para la mejora y sistematización de sus procesos de gestión [10]. El procedimiento está formado por un grupo de pasos que responden a dos grandes fases: análisis de la organización y planificación de las mejoras. La aplicación de esta guía guarda estrecha relación con las técnicas de auditoría de la gestión de la información [11]. Análisis estratégico PESTEL. Es una herramienta de análisis estratégico que analiza factores que se agrupan mediante el acrónimo PESTEL: políticos, económicos, sociales, tecnológicos ecológicos y legales [12]. Se realiza en tres etapas: delimitar el ámbito de actuación, definir cuáles son los factores estratégicos del entorno general y estimar la evolución de estos factores. Método de Desarrollo de Arquitectura (ADM): Constituye el resultado de las contribuciones de numerosos profesionales de la arquitectura y constituye el núcleo del marco de trabajo TOGAF [13]. Es un método para obtener arquitecturas empresariales y está diseñado para responder a los requerimientos del negocio. 3. DIAGNÓSTICO DE LA SITUACIÓN ACTUAL En la figura 1 se muestra la estructura del diagnóstico a realizar. Figura 1. Estructura del diagnóstico 3.1 Dimensión 1: Entorno. En análisis del entorno se realiza una caracterización general de la empresa, la cartera de servicios que comercializa, la composición de su capital humano, etc. En el macro-entorno: Avance acelerado de las tecnologías de telecomunicaciones, Limitaciones en el acceso de tecnologías de punta. Aumento de las exigencias de los organismos reguladores, mayor presencia de internet y servicios de conectividad en la vida social y Alta movilidad social hacia sectores emergentes. En el micro-entorno: Aumento de la cultura tecnológica de los clientes, aumento de las expectativas y exigencias en el mercado nacional, fiscalización continúa de gobiernos locales, obsolescencia del equipamiento para la prestación del servicio y aumento de las exigencias de protección al consumidor. Teniendo en cuenta los resultados del análisis DAFO realizado en el marco del ejercicio estratégico 2018- 2023 en la DTVC en el ámbito externo se identifican un total de 6 amenazas concentrándose la mayor importancia relativa en la obsolescencia tecnológica (25 %). Se identifican además un total de 5 oportunidades donde la importancia relativa es homogénea. Obtienen una importancia relativa alta el incremento constante de la demanda de servicios de telecomunicaciones con un 25 % y la aparición de nuevas oportunidades de generación de ingresos con la implementación de nuevos servicios (24 %). 3.2 Dimensión 2: Funcionamiento del negocio y sus procesos. El análisis se centra en el despliegue, modelado, integración y resultados de los procesos de negocio de la organización. También se tiene en cuenta el desempeño de los procesos mediante indicadores. Teniendo en cuenta los resultados de un diagnóstico realizado en marzo de 2019 como parte del proyecto de ampliación del alcance del sistema de gestión de la calidad se analizó la consistencia del enfoque de la empresa para la gestión de sus procesos. El diagnóstico se realiza aplicando una lista de chequeo que evalúa de forma cuantitativa la conformidad entre las prácticas actuales y los requisitos establecidos por la norma ISO 9001:2015 en una escala porcentual del 0 al 100. Según se muestra en la figura 4 en la sección correspondiente al sistema de gestión de la calidad y sus procesos, se obtiene un nivel de conformidad de solo el 66,80 %. Figura 4. Brechas en la gestión de los procesos respecto a la ISO 9001:2015. En otro estudio realizado con la participación de un grupo de directivos y especialistas de la DTVC donde se aplicó un cuestionario que contiene los requisitos elementales de la NC ISO 9001:2015 y sus resultados se muestran a continuación: 1. La mayor cantidad de respuestas se encuentran en la categoría medianamente conforme con un 59,68 %. 2. No existe correspondencia en cómo se ejecutan los procesos y lo establecido por normas técnicas 3. Los procesos no se encuentran identificados formalmente en todos los niveles de la organización. Una gran parte de los procesos, sobre todo aquellos que se ejecutan en los niveles operativos, no cuentan con modelos formales y correctamente documentados. 4. Los métodos de supervisión y seguimiento no se aplican en todos los niveles. Existen procesos que no los definen formalmente. Los dos estudios mencionados anteriormente coinciden en que los mayores problemas se encuentran en la identificación y modelado de los procesos. Según el mapa general de procesos de ETECSA, se identifican un total de 17 procesos, los cuales se despliegan a través de toda la empresa, de estos, 6 son clave, 8 son de soporte y 3 son estratégicos. De los subprocesos y actividades más del 50 % se despliegan hasta nivel de la División Territorial Villa Clara. En la tabla 1 se muestra la cantidad de procesos que se despliegan hasta el objeto de estudio y cuáles de estos cuentan con un modelo gráfico, procedimiento o cualquier evidencia documentada. Tabla 1. Despliegue y estado actual del modelado de procesos en la DTVC. CLAVE SOPORTE ESTRATEGICOS TOTALES MACRO PROCESOS MACRO PROCESOS DE ETECSA 6 8 3 17 SE DESPLIEGAN HASTA LA DTVC 6 8 2 16 SUBPROCESOS Y ACTIVIDADES SUBPROCESOS Y ACTIVIDADES 287 191 40 518 SE DESPLIEGAN HASTA LA DTVC 170 65 14 249 % DE DESPLIEGUE 59,23 % 34,03 % 35,00 % 48,07 % MODELADO DE SUBPROCESOS Y ACTIVIDADES NO SE ENCUENTRAN MODELADOS 85 14 1 100 SE ENCUENTRAN MODELADOS 85 51 13 149 % DE PROCESOS MODELADOS 50,00 % 78,46 % 92,86 % 59,84 % De los procesos que se despliegan en la DTVC se encuentran modelados formalmente solo el 59,84 %. Los procesos con mayores brechas son los clave con el 50 % de sus subprocesos y actividades sin modelos formales. Procesos como Operaciones de la Red (51,06 %) y Desarrollo de la Red (63,64 %) no cuentan con modelos gráficos o documentados en todos sus niveles. Los procesos de soporte Economía y Servicios Generales también presentan niveles por debajo del 35 %. En el anexo 3.1 se muestra información detallada sobre el despliegue y modelado de procesos. Al realizar el análisis del nivel de integración del sistema de dirección a través del índice NISDE, la matriz de relaciones internas aporta información sobre el gran nivel de interdependencia entre estos. Según el anexo 3.2 existen 30 RI-relaciones importantes y 16 relaciones críticas para un índice NISDE interno de 0.47. 3.3 Dimensión 3: Gestión de la información. Se realiza un análisis del tratamiento que reciben las áreas críticas de información y se evalúa el desempeño de las fuentes y los procesos relacionados. Gestión de las áreas de información crítica. Se identificaron 19 áreas de información crítica de acuerdo a los cuatro objetivos estratégicos de la empresa. Se seleccionan aquellas áreas de información que su valor ponderado alcance por encima de 3 puntos. De estas se seleccionan 7 áreas como de mayor prioridad para la empresa. Identificación y evaluación de necesidades de información. Los resultados de la evaluación se muestran en la tabla 2. Tabla 2. Valoración de las necesidades de información por área temática crítica. Área Temática Valor Estado Posicionamiento Información económica 3,40 2,87 ALTO Información logística 2,86 2,19 ALTO Información de control interno 3,20 1,93 ALTO Informes sobre el desempeño de los procesos de soporte 2,83 2,50 ALTO Información sobre servicios 2,64 3,21 MEDIO Informes sobre el desempeño de los procesos clave 4,00 3,33 ALTO Retroalimentación con el cliente 3,57 2,38 ALTO Análisis de fuentes de información. Los resultados de la evaluación se muestran en la tabla 3. Tabla 3. Evaluación de fuentes de Información. Área Temática Valor - fiabilidad Disponibilidad Accesibilidad Calificación Información económica 2,60 2,60 EXCELENTE Información logística 2,57 1,86 A MEJORAR Información de control interno 2,00 1,80 A MEJORAR Informes sobre el desempeño de los procesos de soporte 2,83 2,00 A MEJORAR Información sobre servicios 2,82 2,27 EXCELENTE Informes sobre el desempeño de los procesos clave 3,00 2,25 EXCELENTE Retroalimentación con el cliente 2,57 2,00 A MEJORAR Diagnóstico de procesos de información. En el anexo 5.4 se muestra el resumen cuantitativo de la evaluación de los procesos de comunicación. Los mayores problemas se registran en el uso de la información. 3.4 Dimensión 4: Gestión de sistemas. El análisis se enfoca en la identificación de los sistemas y aplicaciones informáticas que se utilizan en la empresa, haciendo especial énfasis en aquellos utilizados para la gestión del negocio. En ETECSA al cierre del 2019 se encontraban en operación un total 148 aplicaciones informáticas. De las 67 aplicaciones y sistemas utilizados para la gestión del negocio en ETECSA un total de 22 se utilizan en la división territorial para un 32,84 %. De estas más del 50 % son sistemas utilizados como soporte de gestión para la ejecución de los procesos. Estas 13 aplicaciones presentan un bajo grado de interoperabilidad ya que solo del 5 % de estas tienen interfaces automatizadas entre sí. Se realiza un análisis de las aplicaciones de gestión del negocio y la atención que realizan a las áreas temáticas críticas de información detectadas en el epígrafe anterior. La información relacionada con la gestión de los procesos de soporte es abordada por el 22,2 % de las aplicaciones en uso, ya que existen varias aplicaciones para la gestión de estos procesos. Actividades que cruzan todos los procesos de negocio como es el caso del control interno, no reciben atención directa por parte de la automatización. En cuanto a la alineación de las aplicaciones y sistemas con los procesos de la organización en el anexo 6.2 se evidencia la poca transversalidad de los sistemas en utilización y el despliegue no homogéneo a través de los procesos empresariales. 3.5 Dimensión 5: Gestión de la tecnología. El análisis aborda el tema tecnológico desde la identificación y análisis de brechas entre las expectativas y necesidades del mercado con la infraestructura tecnológica actual de soporte a los servicios. Análisis de brechas tecnológicas. En su planificación estratégica y en el cierre operativo del año 2019, se identifican en la DTVC las siguientes brechas tecnológicas: Existencia de tecnología analógica, saturación de centrales, existencia de modalidades de servicio y soporte obsoletas y baja percepción de los clientes de la calidad técnica. 3.6 Resumen de hallazgos del diagnóstico Los resultados del diagnóstico son diversos y existe una gran cantidad de problemáticas y causas asociadas. Para realizar la priorización de las deficiencias se utiliza el método de priorización de Hanlon. Se identificaron 43 deficiencias entre las dimensiones evaluadas, las cuales se muestran en la tabla 4 haciendo referencia a la capacidad organizacional relacionada. Tabla 4. Problemáticas en correspondencia con las capacidades de arquitectura. No Problemática Puntos Capacidades CE CI CT Funcionamiento del negocio y sus procesos 1 Despliegue fragmentado de la arquitectura de procesos. 26,0625 NO SI NO 2 Existencia de procesos que no se encuentran modelados formalmente. 27,0000 NO SI SI 3 Carencia de procedimientos o rutinas documentadas para los procesos. 28,3125 NO NO NO 4 No se establece ni se documenta adecuadamente la interacción de los procesos. 22,1250 NO SI SI 5 No existe correspondencia semántica entre los procesos en los diferentes niveles de la organización. 28,3125 NO SI NO 6 Existe una baja integración interna de los procesos, sobre todo entre procesos clave y de soporte. 29,2500 NO SI NO 7 Los procesos de soporte no se definen claramente y sus interfaces no se delimitan. 23,4375 NO SI SI 9 Existencia de ambigüedad en la definición de roles y responsabilidades. 27,9375 SI SI NO 10 Existencia de ambigüedad en la definición de la secuencia y la interacción. 29,2500 NO SI NO 11 Los procesos que actualmente se encuentran modelados formalmente no se ejecutan en la práctica. 29,0625 SI SI NO 12 No es suficiente la información disponible en línea para la operación. 24,5625 SI NO NO 13 La demora promedio en restablecer el servicio presenta una tendencia al aumento. 23,3750 NO SI NO 14 La demora en la instalación de un servicio de telefonía básica presenta una tendencia al aumento. 24,7500 NO SI NO 20 Aumento de las quejas registradas en todos los servicios de telecomunicaciones. 26,8125 SI SI NO 22 El tiempo promedio de resolución de las quejas presenta una tendencia al aumento. 24,5781 SI NO NO 23 Se presenta un decrecimiento gradual de los índices de satisfacción del cliente en todos los servicios de telecomunicaciones. 26,8125 SI NO NO Gestión de la información 24 La cantidad de información en las áreas temáticas críticas no es suficiente. 23,5469 SI NO NO 25 La información de las áreas temáticas críticas no tiene la calidad necesaria. 26,9844 SI SI NO No Problemática Puntos Capacidades CE CI CT 27 Existen problemas con la fiabilidad de las fuentes de información. 26,9844 SI SI NO 32 La información no es usada correctamente las áreas temáticas más relevantes. 25,6875 SI SI NO 33 El acceso y uso de los recursos de información por parte de los agentes no es el adecuado. 24,0000 SI NO SI Gestión de sistemas y aplicaciones de soporte al negocio 35 Existencia de gran cantidad de aplicaciones y sistemas que no se integran correctamente. 20,3672 SI SI SI 41 Existen aplicaciones para la gestión del negocio que no se les ha desarrollado interfaces y duplican la información. 23,5469 NO SI SI Gestión de la Tecnología 43 Saturación de centrales y redes de telecomunicaciones (servicios de telefonía básica fija, telefonía móvil y datos). 21,8750 SI NO SI 4. DESARROLLO DE LA ARQUITECTURA EMPRESARIAL 4.1 Fase preliminar Paso 1. Definir el alcance que va tener la arquitectura. El alcance de la arquitectura se define en dos dimensiones: a los interno y a lo externo de la organización Paso 2. Confirmar los marcos de gobernanza y apoyo. Marcos de gobernanza de arquitectura: No existe un marco de gobernanza de arquitectura por lo que se debe trabajar con el marco regulatorio organizacional. Marco regulatorio organizacional: Se encuentra establecido en el registro REG 01-PG-CA-004/03 “Listado Maestro de Documentos”. Paso 3. Establecer el equipo de trabajo. Se elabora la matriz RACI que presenta el equipo de trabajo estableciendo las responsabilidades, autoridades y roles para cada miembro. Paso 4. Evaluar el grado de madurez de la arquitectura empresarial. En la tabla 5 se muestran los resultados de la evaluación del nivel de madurez. Tabla 5. Resultados del análisis de madurez de arquitectura empresarial. Ítem NIV 0 NIV 1 NIV 2 NIV 3 NIV 4 NIV 5 TOTALES BRECHA Proceso de arquitectura 3 10 0 0 0 0 13 -27 Desarrollo de arquitectura 1 14 0 0 0 0 15 -25 Vinculación de los negocios 1 4 15 0 0 0 20 -20 Participación alta dirección 8 0 0 0 0 0 8 -32 Participación unidad operativa 8 0 0 0 0 0 8 -32 Comunicación de la arquitectura 8 0 3 0 0 0 11 -29 Seguridad de TI 0 4 6 20 0 0 30 -10 Gobernabilidad 0 6 15 4 0 0 25 -15 Inversión en TI y adquisición 0 0 6 20 5 0 31 -9 El nivel de madurez actual de la arquitectura empresarial en la empresa es bajo. La mayoría de las puntuaciones se concentran en los tres primeros niveles. Existen brechas altas en todos los ítems, encontrándose las mayores en los niveles de participación de la alta dirección y de los trabajadores de niveles operativos. Paso 5. Identificar y establecer principios de arquitectura. El marco de trabajo TOGAF establece un conjunto de principios genéricos que son aplicables a cualquier tipo de arquitectura. Para adoptar estos principios es necesario validarlos para el contexto de la investigación. Para validar los principios se realiza un análisis de correspondencia con los objetivos estratégicos de la empresa para el período 2018-2023. Paso 6. Identificar y adaptar el marco de trabajo de referencia. Se identificaron 122 marcos de trabajo. En la tabla 6 se muestran las cantidades y proporciones de los marcos de trabajo dentro del listado general. Tabla 6. Composición del listado de marcos de trabajo. Ítems Cant. Proporción Marcos de trabajo genéricos 37 30,33 % Marcos de trabajo de sectores específicos 85 69,67 % Gobierno 23 27,06 % Defensa 12 14,12 % Tecnologías de la información y comunicación 36 42,35 % Otros sectores 14 16,47 % Según el procedimiento establecido se obtiene un listado reducido de 14 marcos de trabajo que se muestran en la tabla 7. Tabla 7. Resultados en la valuación de marcos de trabajo de arquitectura empresarial. Marcos de Trabajo C ri te ri o s es tr u ct u ra le s, co n ce p tu al es y d e d is eñ o C ri te ri o s d e m an ej o y o p er ac ió n C ri te ri o s d e ad q u is ic ió n , u so , ap li ca ci ó n T O T A L E S F5 (ZACHMAN) Zachman Enterprise Architecture Framework 30 21 7 58 F6 (ITIL) Information Technology Infrastructure Library 28 17 7 52 F19 (TOGAF) The Open Group Architecture Framework 36 21 8 65 F22 (PMBOK) Project Management Body of Knowledge 31 13 8 52 F23 (COBIT) Control Objectives for Information and related Technology 26 13 7 46 F24 (SCOR) Supply Chain Operations Reference 24 14 7 45 F35 (FEAF) Federal Enterprise Architecture Framework 27 16 7 50 F42 (eTOM) Enhanced Telecommunication’s Operations Map 29 19 8 56 F50 (DoDAF) Department of Defense Architecture Framework 23 11 7 41 En la figura 2 se muestran la asignación de los marcos de trabajo de referencia para cada proceso de la empresa. Figura 2. Asignación de marcos de trabajo como referencia para el modelado de los procesos. Paso 7. Adaptación de los marcos de trabajo de referencia. Se analizan los marcos de trabajo de acuerdo a la aplicación de sus procesos de nivel 1 y 2 al contexto específico de la investigación. Mediante la participación de los arquitectos del equipo en una sesión de trabajo se evalúa el nivel de aplicación a la organización en tres niveles: Aplicación total, aplicación parcial o ninguna aplicación. En la tabla 8 se muestran los resultados finales por cada agrupación de procesos. Tabla 8. Adaptación de marcos de trabajo de arquitectura empresarial Fuente: Elaboración propia. Agrupación de Procesos Marco de trabajo asignado NIVEL 1 NIVEL 2 Total Parcial Excluidos Total Parcial Excluidos CV-OR-FC-PA e TOM 9 1 0 61 0 22 CH-EC-PL-SC e TOM 7 0 1 28 3 16 LG SCOR 4 0 1 64 18 100 DR PMBOK 5 0 0 42 2 2 TI ITIL 5 0 0 31 0 2 TOTALES 30 1 2 226 23 142 4.2 Fase A: Visión de arquitectura. Paso 1: Establecer el proyecto de arquitectura. El proyecto de arquitectura empresarial es elaborado por el coordinador del grupo de trabajo con la participación de los miembros del mismo. El proyecto se conforma incluyendo la siguiente información:  Objetivos y necesidad del diseño de una arquitectura empresarial en la empresa.  Estrategias fundamentales de trabajo.  Cronograma detallado de trabajo (incluye fechas y responsables).  Estimación de costos del proyecto.  Beneficios esperados en el mediano y largo plazo. Los marcos de trabajo para la selección de las vistas de la arquitectura propuesta son Zachman, TOGAF, FEAF y DODAF. Con vista a captar los elementos comunes de cada uno de los modelos se realiza un análisis de correspondencia entre estos. La matriz resultante de este análisis se muestra en el anexo 20. En la tabla 9 se muestran las vistas que forman el meta modelo de la propuesta de arquitectura objetivo. Tabla 9. Vistas de la arquitectura de procesos destino. PUNTO DE VISTA (UNIVERSO) TOGAF ZIFA FEAF DODAF V00 Todas las vistas X VISTAS CENTRALES VC.1 Procesos de negocio X X X X VC.2 Cartera de servicios X X VC.3 Sistemas, datos e información X X X X VC.4 Tecnología X X X X VISTAS ESTRATEGICAS VE.1 Estrategias X VE.6 Principios, estándares y políticas X X Paso 2: Identificar partes interesadas, inquietudes y requisitos comerciales. Las partes interesadas y sus requisitos comerciales se identifican teniendo en cuenta su relevancia para la empresa. Pasos 3-4-5. Confirmar las metas comerciales, identificar impulsores comerciales, establecer restricciones, evaluar capacidades de arquitectura, evaluar la preparación para la transformación del negocio. Se analizan los factores que pueden potenciar el proyecto de trabajo o afectarlo. Se realizan sesiones de trabajo del equipo de arquitectura de conjunto con el director territorial y miembros de su grupo de gestión. Una vez realizado este análisis se discuten las posibles variantes de visión de arquitectura antes de su presentación y aprobación. Se parte inicialmente de un borrador redactado de forma conjunta en el equipo de trabajo que tiene en cuenta la visión de la empresa, sus metas estratégicas y los objetivos a más largo plazo del proyecto. Paso 6. Desarrollar la visión de arquitectura Visión de arquitectura: Se espera que la arquitectura empresarial propuesta para la División de ETECSA en Villa Clara permita definir su estructura organizacional, identificar, estandarizar y automatizar sus procesos, disminuyendo la subutilización tecnológica. Adicionalmente se espera la implementación de mecanismos para el control del riesgo, la gobernanza de procesos y el incremento de la efectividad de la empresa Paso 7. Identificar los riesgos de transformación del negocio y las actividades de mitigación. Por acuerdo común del equipo de trabajo de arquitectura se asumen los riesgos empresariales definidos para el período 2018-2023 en la DTVC. Paso 8. Desarrollar la declaración de trabajo de arquitectura. La declaración de trabajo de arquitectura se elabora y se presenta junto al proyecto de trabajo al consejo de dirección para su aprobación. 4.3 Fase B-C-D: Fase integrada de desarrollo de arquitectura. Paso 1. Desarrollar la descripción de la arquitectura actual. Teniendo en cuenta el alcance de la presente investigación en esta fase se establecerá la propuesta de la arquitectura de procesos de negocio. Queda para la continuación de la investigación en el futuro el resto de las arquitecturas que forman parte del modelo final. Los principales procesos que se ejecutan en la DTVC que conforman la línea base se muestran en la tabla 10. Tabla 10. Procesos de la arquitectura línea base. CLASIFICACION ACRONIMO PROCESO Procesos clave CM Mercadotecnia CV Ventas PA Posventa y asistencia al usuario FC Facturación cobros y pagos OR Operaciones de la red DR Desarrollo de la red Procesos de soporte LG Negociación y logística CH Capital Humano EC Economía TI Tecnologías de la información CO Comunicación y relaciones externas CI Control interno AL Asuntos legales SG Servicios generales Procesos estratégicos PE Planeamiento estratégico SC Sistema de calidad PL Planeamiento operativo Paso 2. Realizar análisis de brechas. En la tabla 11 se muestra un resumen de las intervenciones a realizar según el análisis de brechas. Tabla11. Resumen de cambios e intervenciones a realizar en la arquitectura objetivo. Procesos línea base Marco asignado Eliminar Cambios semánticos Incluir Considerar Modificar CV-OR-FC-PA eTOM 3 9 37 88 126 CH-EC-PL-SC-CI-SG-CO-AL eTOM 12 2 20 47 66 LG SCOR 0 4 8 7 13 DR PMBOK 1 3 28 11 16 TI ITIL 1 2 21 6 26 TOTALES 17 20 114 159 247 Según el análisis de brechas se deben realizar 557 intervenciones en total. Las modificaciones son las más frecuentes con un 44,34 %. Estas incluyen cambios en los procesos, integración de actividades y restructuración de su contenido. También existen una gran cantidad de inclusiones de nuevos procesos Pasos 3-4. Revisión formal de los interesados, finalizar y documentar la arquitectura. Las sesiones de trabajo del equipo de arquitectura se realizan según el programa establecido. Los arquitectos diseñan los diferentes bloques o elementos y los presentan una vez concluidos a los validadores de procesos para que revisen el trabajo realizado. En el anexo 24 se muestra la representación de la arquitectura de forma general en su nivel 0.. En la tabla 12 se establecen las intervenciones realizadas para la propuesta de arquitectura de negocios. Tabla 12. Intervenciones realizadas en la propuesta de arquitectura de procesos. Ítems Procesos Clave Procesos Estratégicos Procesos de Soporte Totales Proceso nuevos 33 14 31 78 Proceso modificado 23 17 17 57 Proceso que se integra 11 0 1 12 Proceso que se mantiene 24 7 20 51 En la tabla 13 se muestra el conjunto de procesos de la arquitectura destino. Tabla 13. Procesos de la arquitectura línea base. CLASIFICACION ACRONIMO PROCESO Procesos clave CM Comercialización de Productos y Servicios OR Operaciones de la red DR Desarrollo de la red TI Tecnologías de la Información Procesos de soporte LG Negociación y logística CH Capital Humano EC Economía SG Servicios generales Procesos estratégicos PL Planeamiento operativo GC Gestión del Conocimiento, la Investigación y la Innovación GR Gestión de Riesgos Y Prevención GC Gestión de la Calidad IC Información, Comunicación y Relaciones Externas En la figura 4 se muestra la vista general de la arquitectura destino. Figura 3. Vista general de arquitectura destino 5. CONCLUSIONES 1. La arquitectura empresarial es una disciplina que utilizando iniciativas como el enfoque basado en procesos y la integración empresarial, aporta una visión holística y es capaz de integrar procesos, información y tecnología impactando directamente en las capacidades de las organizaciones. 2. La pertinencia y necesidad del desarrollo de un nuevo modelo de procesos en la División de ETECSA en Villa Clara queda demostrada por los resultados del diagnóstico, donde se identifican problemáticas en todas las dimensiones bajo análisis, resaltando la gestión de los procesos de negocio como la de mayores potencialidades de mejora. 3. La metodología para el desarrollo de la arquitectura empresarial propuesta contribuye al éxito de la investigación, no solo por estar basada en el conocido método ADM de TOGAF, sino también por la claridad con que define las entradas, salidas, pasos, objetivos y entregables en cada una de sus fases. 4. El modelo de arquitectura de procesos propuesto, que integra bloques arquitectónicos, elementos y buenas prácticas de los marcos de trabajo de referencia, contribuye al aumento de las capacidades estratégicas, de integración y de manejo de la complejidad en la División de ETECSA en Villa Clara. 6. REFERENCIAS 1. Kotusev, S. (2017). Enterprise architecture: what did we study? International Journal of Cooperative Information Systems, 26 (4), 1-84. 2. Marini, G. (2019). Enterprise architecture and digital transformation (tesis de maestría). NOVA School of Business and Economics, United States of America. 3. Alqahtani, M. (2017). A mobile holistic enterprise transformation framework (tesis de doctorado). Staffordshire University, Stafford. 4. Lauvrak, S., Michaelsen, V. M., & Olsen, D. H. (2017). Benefits and challenges in enterprise architecture management: a case study of the norwegian labour and welfare administration. Bibsys Open Journal Systems, 25 (1). 5. Niemi, E., & Pekkola, S. (2019). The benefits of enterprise architecture in organizational transformation. Recuperado de https://doi.org/10.1007/s12599-019-00605-3 6. Henk, P., vav Marlies, S., & Slot, R. (2014). Perceived benefits from enterprise architecture. Eighth Mediterranean Conference on Information Systems, Verona, Italia. Recuperado de http://aisel.aisnet.org 7. Alfonso Robaina, D., & Hernández Torres, M. (2008). Modelo de dirección estratégica para la integración del sistema de dirección de la empresa. PCCIA. Conferencia Científica de Ingeniería y Arquitectura, La Habana. Cuba. 8. Cruz García, V., Fernández Argüelles, R., & López Flores, J. F. (2012). Determinación de prioridades por el método Hanlon en el laboratorio de análisis clínicos en un hospital de 2do nivel de atención. Waxapa, 1 (6), 80-91 9. Asua, J., & Taboada, J. (2011). Experiencias e instrumentos de priorización. Red de investigación de resultados en salud y servicios sanitarios. Recuperado de http://www.rediryss.net 10. Folgueira, R., Beitia, P., & Fernández, I. (2012). Guía para la evaluación y mejora de procesos de gestión de la información en organizaciones no lucrativas: Fundación EDE. Recuperado de http://creativecommons.org/licenses/by-nc-sa/3.0/es/ 11. González Guitián, M. V. (2015). Auditoría de información y de conocimiento en las organizaciones. Diseño y aplicación de una metodología integradora. (tesis de doctorado). Universidad de Granada, Facultad de Comunicación y Documentación Departamento de Información y Documentación, Granada. España 12. Piña, P., & Danesa, D. (2015, junio). Análisis de los factores del entorno bajo el enfoque de PESTEL y DAFO para el proyecto empresarial “FEQUIMA”: Portal web de maquinarias, equipos y herramientas en Brasil. Sapienza Organizacional, 2(núm. 3), 129-152 13. The Open Group. (2018). The TOGAF Standard, Versión 9.2. United States of America: The Open Group. Sobre los autores Maykel Manuel Chávez Rodríguez maykel.chavez@etecsa.cu https://orcid.org/0000-0002-7219-0806 * Empresa de Telecomunicaciones de Cuba S.A. https:// www.linkedin.com/in/maykel-manuel-chavez-rodriguez- 7a80a741/ https://www.researchgate.net/profile/Maykel_Manuel_ Rodríguez Leisis Villar Ledo leisis@int.cujae.edu.cu https://orcid.org/0000-0001-5842-4111 Universidad Tecnológica de la Habana “José Antonio Echeverría” (CUJAE). DIAGNÓSTICO DE LA SITUACIÓN ACTUAL DE LA EMPRESA ELÉCTRICA DE ARTEMISA CON RESPECTO AL CUMPLIMIENTO DE LOS REQUISITOS DE LA NC ISO 9001:2015 PARA UN SISTEMA DE GESTIÓN DE LA CALIDAD. Yenisleidys González Pérez1, Rosario Garza Ríos 2 1-2Universidad Tecnológica de La Habana José Antonio Echeverría, Cujae, La Habana, Cuba, 1e-mail: yenisleidysgp@elecart.une.cu RESUMEN Ante la necesidad de las organizaciones de enfrentar los desafíos de un entorno turbulento y cambiante, donde los clientes son cada vez más exigentes y buscan productos o servicios cuya calidad les permita satisfacer plenamente sus expectativas; quienes quieran permanecer a largo plazo deben implementar estrategias que les permitan demostrar su capacidad de cumplir con las necesidades y expectativas de sus clientes y demás partes interesadas. El objetivo de este artículo es realizar el diagnóstico de la situación actual de la Empresa Eléctrica de Artemisa con respecto al cumplimiento de los requisitos de la norma NC ISO 9001:2015 para un sistema de gestión de la calidad. Para cumplir con el objetivo planteado, inicialmente se identificaron los requisitos de la norma, luego se diseñó una lista de chequeo para evaluar el grado de conformidad de la empresa con respecto a los requisitos identificados en la norma, se realizó una auditoría de la situación actual del sistema de gestión de calidad de la empresa objeto de estudio en relación con la norma y finalmente se presentó un informe de cumplimiento y un plan de acción. Los resultados permitieron evidenciar que la empresa objeto de estudio tiene un el sistema parcialmente implementado en un 85 % con respecto a la norma. PALABRAS CLAVES: necesidades, expectativas, diagnóstico, situación actual, sistema de gestión de la calidad. OF THE CURRENT SITUATION OF EMPRESA ELÉCTRICA DE ARTEMISA REGARDING COMPLIANCE WITH THE REQUIREMENTS OF NC ISO 9001:2015 FOR A QUALITY MANAGEMENT SYSTEM.ABSTRACT Given the need for organizations to face the challenges of a turbulent and changing environment, where customers are increasingly demanding and seek products or services whose quality allows them to fully meet their expectations; those who want to remain in the long term must implement strategies that allow them to demonstrate their ability to meet the needs and expectations of their customers and other stakeholders. The objective of this article is to diagnose the current situation of Empresa Eléctrica de Artemisa with respect to compliance with the requirements of the NC ISO 9001: 2015 standard for a quality management system. To meet the stated objective, the requirements of the standard were initially identified, then a checklist was designed to assess the degree of compliance of the company with respect to the requirements identified in the standard, an audit of the current situation was carried out. of the quality management system of the company under study in relation to the standard and finally a compliance report and an action plan were presented. The results allowed to show that the company under study has a partially implemented system in 85% with respect to the standard. KEY WORDS: needs, expectations, diagnosis, current situation, quality management system 1. INTRODUCCIÓN Las organizaciones contemporáneas se enfrentan a un mercado acentuadamente competitivo, con un elevado número de productos y servicios diferenciados, con clientes cada vez más exigentes que demandan altos estándares de calidad, convirtiendo a su vez a la calidad y a la gestión de la calidad en necesidades y herramientas ineludibles en el mundo globalizado de hoy (1). Durante los últimos años, se ha evidenciado el rol fundamental que cumple un Sistema de Gestión de Calidad (SGC) en las empresas, cuyo objetivo es satisfacer los requisitos del cliente, tanto legales como reglamentarios, ofreciendo un producto y/o servicio de calidad a través de establecer controles en cada uno de los procesos, asegurando el cumplimiento de los requisitos mínimos y promocionar una permanente búsqueda de la mejora. (2) Partiendo de estos elementos la implementación de un Sistema de Gestión de la Calidad (SGC) cumpliendo los requisitos ISO 9000 es decisión estratégica de competitividad de mediana y pequeña empresa. Implementar la norma ISO 9001:2015 va a permitir satisfacer las necesidades y expectativas del cliente y de sus partes interesadas. (3) El Sistema de Gestión de la Calidad ISO 9001 se puede definir como la planificación y ejecución de un plan estratégico, que se hace visible a través de procesos que, a su vez, operan mediante actividades y tareas concretas dentro de la empresa para alcanzar el cumplimiento de los indicadores que a su vez garantizan el cumplimiento de los objetivos propuestos y ponerlos al servicio de los clientes, proveedores y demás partes interesadas. (4) La nueva versión de la norma internacional ISO 9001:2015 sigue el enfoque basado en procesos en sinergia con un pensamiento basado en riesgos, se tiene en cuenta las expectativas que los clientes colocan en la empresa, se valora el contexto en el que la empresa se desenvuelve, hay mayor participación de la Alta Dirección que permite agregar mayor valor a las organizaciones, reconoce su integración con otros sistemas de gestión sin duplicidades y la documentación se caracteriza por ser flexible. El sistema empresarial cubano enfrenta en la actualidad uno de los retos más relevantes, ya que no solo debe enfrentar los desafíos de un entorno internacional globalizado y turbulento, sino en acoplarse sinérgicamente al proceso de transformaciones estructurales que se despliega en el país, encaminado a superar errores del pasado y reorientar a la sociedad cubana por rutas de sostenibilidad, integración y competitividad. (5) Es política del Estado y del Gobierno cubano el establecimiento del Perfeccionamiento Empresarial es decir aplicar el Sistema de Dirección y Gestión, en las organizaciones superiores de dirección, empresas y otras entidades que se decida un significativo cambio en su organización interna, su gestión integral y resultados de eficiencia. (6) Las empresas que aplican el Sistema de Dirección y Gestión están en la obligación de aplicar un sistema de gestión de la calidad en correspondencia a sus características tecnológicas y productivas, cuya eficaz implantación debe ser avalada por las entidades autorizadas o certificada por la Oficina Nacional de Normalización (ONN), conforme los principios y requisitos de la norma NC-ISO 9001 atendiendo a las formas de comercializar sus productos y servicios. Lo que les permitirá organizar sus procesos de producción de bienes y servicios para la satisfacción de las necesidades de la sociedad y de sus clientes, sobre la base de ofrecer productos y servicios que cumplan los requisitos establecidos, en la cantidad solicitada, en el momento adecuado, con el menor costo y la mayor eficacia. (7) El propósito de la presente investigación es realizar el diagnóstico de la situación actual de la Empresa Eléctrica de Artemisa ubicada en la provincia Artemisa, Cuba, con respecto a los requisitos de la norma NC ISO 9001:2015 para un sistema de gestión de la calidad. Para dar cumplimiento al propósito y alcance de esta investigación se plantearon los siguientes objetivos: identificar los requisitos de la nueva versión 2015 de la norma ISO 9001, b) diseñar una lista de chequeo con la que se determinará el cumplimiento de la empresa con respecto a los requisitos de la norma, c) realizar una auditoría de la situación actual de la empresa con relación a los requisitos de la norma y, d) presentar el informe de cumplimiento así como un plan de acción a la alta dirección de la entidad. No se contempla la implementación de los planes de acción sugeridos ni la realización de una auditoría posterior. 2. METODOLOGÍA La presente investigación toma como punto de partida los requisitos de la norma de referencia NC ISO 9001:2015 utilizados como base teórica para implementar el diagnóstico de la situación actual de la empresa con base a dichos requisitos, cuyo cumplimiento es abordado desde un enfoque cuantitativo con un apoyo cualitativo incluido en la lista de chequeo diseñada para el diagnóstico. En la Figura 1 se ilustran las etapas desarrolladas durante la investigación, la cual tiene un enfoque mixto, ya que su estructura se compone de la recolección y análisis de datos cualitativos y cuantitativos obtenidos del diagnóstico realizado. En la primera etapa, inicialmente se identificaron los requisitos o debes de la norma NC ISO 9001:2015 para un sistema de gestión de la calidad distribuidos en 7 capítulos de los 10 que la conforman. En la segunda etapa se diseñó una lista de chequeo conformada por varias hojas de cálculo, programadas para que en la primera hoja se pudiera seleccionar el estado de cumplimiento de la empresa con respecto a cada requisito de la norma NC ISO 9001:2015 y en el resto de hojas se arrojaran gráficamente los resultados. Posteriormente se desarrolló la tercera etapa que consistió en la ejecución de una auditoría de la situación actual del SGC de la empresa objeto de estudio con respecto a los requisitos de la norma NC ISO 9001:2015. Esta auditoría fue realizada mediante la revisión de la información aportada por los directivos de la empresa, la realización de visitas a las oficinas de esta y entrevistas con el personal líder de los diferentes procesos. Finalmente, en la cuarta etapa se presentó a la alta dirección de la empresa un informe de cumplimiento de la organización con respecto a los requisitos de la norma ISO 9001:2015 para un sistema de gestión de la calidad y se entregaron los planes de acción propuestos para cumplir con estos requisitos, cuya implementación le permitirá a la empresa tener las herramientas para someterse a una auditoría de certificación bajo este estándar internacional de calidad. Figura 1: Etapas de estudio Fuente: Elaboración propia 3. RESULTADOS Y DISCUSIÓN Luego de aplicadas las etapas que conforman la metodología establecida para cumplir con el objetivo de la presente investigación se muestran los siguientes resultados: Identificación de los requisitos de la NC ISO 9001:2015 Tabla 1. Capítulos de la norma ISO 9001:2015 Capítulo Descripción Capítulo 0 Introducción Capítulo 1 Objeto y campo de aplicación Capítulo 2 Referencias normativas Capítulo 3 Términos y definiciones Capítulo 4 Contexto de la organización Capítulo 5 Liderazgo Capítulo 6 Planificación Capítulo 7 Apoyo Capítulo 8 Operación Capítulo 9 Evaluación del desempeño Capítulo 10 Mejora Fuente: Elaboración propia En la Tabla 1 se pueden observar los 10 capítulos que conforman la norma NC ISO 9001:2015; se identificó que los capítulos del 0 al 3 no contienen requisitos, mientras que los capítulos del 4 al 10 establecen los requisitos o debes de obligatorio cumplimiento para un sistema de gestión de la calidad. Se identificaron en total 306 requisitos o debes en la norma, los cuales se encuentran distribuidos en acápites dentro de los capítulos mencionados anteriormente, tal como se presentan en las Tablas 2. Tabla 2. Requisitos identificados en el acápite 4 Acápite Cantidad requisitos 4.Contexto de la Organización 21 4.1 Comprensión de la organización y de su contexto 2 4.2 Comprensión de las necesidades y expectativas de las partes interesadas 3 4.3 Determinación del alcance del sistema de gestión de la calidad 5 4.4 Sistema de gestión de la calidad y sus procesos 11 Fuente: Elaboración propia Tabla 3. Requisitos identificados en el acápite 5 Acápites Cantidad requisitos 5.Liderazgo 29 5.1 Liderazgo y compromiso 16 5.2 Política 7 5.3 Roles, responsabilidades y autoridades en la organización 6 Fuente: Elaboración propia Tabla 4. Requisitos identificados en el acápite 6 Acápites Cantidad requisitos 6.Planificación 25 6.1 Acciones para abordar riesgos y oportunidades 7 6.2 Objetivos de la calidad y planificación para lograrlos 13 6.3 Planificación de los cambios 5 Fuente: Elaboración propia Tabla 5. Requisitos identificados en el acápite 7 Acápites Cantidad requisitos 7.Apoyo 44 7.1 Recursos 18 7.2 Competencia 4 7.3 Toma de conciencia 4 7.4 Comunicación 5 7.5 Información documentada 13 Fuente: Elaboración propia Tabla 6. Requisitos identificados en el acápite 8 Acápites Cantidad requisitos 8.Operación 126 8.1 Planificación y control operacional 10 8.2 Requisitos para los productos y servicios 19 8.3 Diseño y desarrollo de los productos y servicios 36 8.4 Control de los procesos, productos y servicios suministrados externamente 21 8.5 Producción y provisión del servicio 25 8.6 Liberación de los productos y servicios 5 8.7 Control de las salidas no conformes 10 Fuente: Elaboración propia Tabla 7. Requisitos identificados en el acápite 9 Acápites Cantidad requisitos 9.Evaluacion del desempeño 44 9.1 Seguimiento, medición, análisis y evaluación 16 9.2 Auditoría interna 11 9.3 Revisión por la dirección 17 Fuente: Elaboración propia Tabla 8. Requisitos identificados en el acápite 10 Fuente: Elaboración propia Acápites Cantidad requisitos 10.Mejora 17 10.1 Generalidades 3 10.2 No conformidad y acción correctiva 12 10.3 Mejora continua 2 Los capítulos de la norma que más requisitos tienen en sus numerales son los capítulos 8, 7, 9 y 5con 126, 44 y 29 debes de obligatorio cumplimiento respectivamente; por su parte los capítulos 7 y 9 poseen la misma cantidad de numerales y el capítulo que menos tiene es el capítulo 10 con 17 debes. Herramienta para evaluar el cumplimiento con respecto a los requisitos de la norma ISO 9001:2015 El método de evaluación diseñado para aplicar es la lista de chequeo anteriormente mencionada, consiste en asignar un valor de 4 puntos a los requisitos que sean conformes (C) valor 3 a los que se encuentren parcialmente conformes (PC) y valor 2 a los que sean no conformes(NC) , luego de asignado el valor correspondiente a cada requisito se procede a calcular el % de implementación de los sub apartados, apartados y capítulos o acápites de la norma anteriormente mencionada a través de la fórmula que sigue: El estado de implementación de cada acápite se determina teniendo en cuenta lo que se muestra en la Tabla 9 Tabla 9. Directrices para el cálculo del estado de implementación Fuente: Dirección Técnica UNE Luego de haber aplicado la lista de chequeo en la organización objeto de estudio y teniendo en cuenta el método de evaluación establecido por la dirección técnica de la UNE se obtiene como resultado del diagnóstico de manera general que el sistema se encuentra parcialmente implementado en un 85 % en la organización y los acápites 5, 9,10 y 4 son los que menor % de implementación presentan 70.946%,75%, 77.9412% y 86.9% respectivamente como se muestra en el Gráfico No.1. Gráfico No.1: % de implementación del SGC por acápites de la NC ISO 9001:2015 Teniendo en cuenta las no conformidades detectadas en dicho diagnóstico se elaboró un plan de acción utilizando la herramienta 5W y 1H como se muestra en la Tabla 10. Tabla. 10: Plan de acción para la mejora del SGC Empresa Eléctrica de Artemisa Fuente: Elaboración propia 4. CONCLUSIONES 1. Los capítulos de la norma que más requisitos tienen en sus numerales son los capítulos 8, 7, 9 y 5 con 126, 44 y 29 debes de obligatorio cumplimiento respectivamente; por su parte los capítulos 7 y 9 poseen la misma cantidad de numerales y el capítulo que menos tiene es el capítulo 10 con 17 debes. 2. El diagnóstico aplicado debeló que el sistema se encuentra parcialmente implementado en un 85 % y que los acápites 4, 5 y 10 son los que menor % de implementación presentan. 3. La propuesta de plan de acción para la implementación del SGC garantiza que una secuencia de acciones lógica a seguir por la organización para la disminución y /o eliminación de las no conformidades. REFERENCIAS 1. García, B. M. (diciembre de 2010). 2. Romero, Y. M. (2017). Diseño e implementación de un sistema de gestión de. Cuba. 3. Rodríguez, I. J. (2017). Metodología para la implementación de un Sistema de Gestión de la Calidad basado en ISO 9001:2015. Estudio de caso empresa Laboratorios AICA. La Habana. 4. Sofía Orquídea Lezcano, L. D. (1 de octubre de 2018). Obtenido de https://www.engormix.com/ganaderia-carne/articulos/experiencias-implantacion-sistema- gestion-t39545.htm 5. Fernández Companioni, D. C. (2012). la empresa cubana, la competitividad, 6. Ruz, R. C. (2017). Decreto Ley No.334. 7. Ruz, R. C. (2018). Decreto Ley No 252. Cuba. Sobre los autores Yenisleidys González Pérez, graduada de Ingeniería industrial en 2016, labora desde ese entonces hasta la actualidad en Empresa Eléctrica de Artemisa como Especialista principal del grupo de gestión de los sistemas, posee categoría docente de Instructor de Escuela otorgado por Escuela nacional de la unión eléctrica (ENUNE). MEJORA AL PROCESO DE GESTIÓN HOSPITALARIA EN EL HOSPITAL CLÍNICO-QUIRÚRGICO SALVADOR ALLENDE Ing. Marylen Martínez Rivero1, Msc. Patricia Suárez Fernández2, Dr. Vania García Fentón3, Ing. Janet Rodríguez Acosta4, Ing. Omar López Díaz5, Ing. Aylenis Luis Velázquez6 1DATYS, 22 e/ 5ta y 7ma, 2, 3, 4, CUJAE, 114 e/ Ciclovía y Rotonda, 5 Tabacuba, 48 e/ 19 y 21 Artemisa, 6 ETECSA 31 e/46 y 48 Artemisa 1e-mail: marylen.martinez@datys.cu, 5 omarlopezd97@gmail.com, 6 aylenisluis98@gmail.com RESUMEN A partir del impacto de la pandemia COVID-19 en el país, en marzo de 2020, la dinámica asistencial de las unidades hospitalarias se hizo compleja. Con el propósito de estudiar el comportamiento de los procesos en el hospital clínico-quirúrgico Salvador Allende, se desarrolló el proyecto de Gestión Hospitalaria, donde se identificó un bajo nivel de satisfacción de las partes interesadas con el servicio recibido. Como parte de las soluciones a esta problemática se definió como objetivo general proponer mejoras al proceso de gestión hospitalaria que se realiza en el centro. Para dar solución a las deficiencias detectadas se proyectaron acciones encaminadas a efectuar un nuevo ejercicio estratégico, balance de carga-capacidad y diseñar el proceso objeto de estudio. Dentro de las técnicas y herramientas utilizadas en la investigación cabe mencionar: diagrama de secuencia, recorrido e Ishikawa. Finalmente se logró el diseño del proceso, previéndose un aumento de los niveles de satisfacción. PALABRAS CLAVE: procesos, gestión hospitalaria, nivel de satisfacción, balance de carga y capacidad IMPROVEMENT OF THE HOSPITAL MANAGEMENT PROCESS IN THE SALVADOR ALLENDE CLINIC-SURGICAL HOSPITAL ABSTRACT As of the impact of the COVID-19 pandemic in the country, in March 2020, the care dynamics of hospital units became complex. With the purpose of studying the behavior of the processes in the Salvador Allende clinical-surgical hospital, the Hospital Management project was developed, where a low level of satisfaction of the interested parties with the service received was identified. As part of the solutions to this problem, the general objective was defined as proposing improvements to the hospital management process carried out in the center. To solve the deficiencies detected, actions were planned to carry out a new strategic exercise, load-capacity balance and design the process under study. Among the techniques and tools used in the investigation, it is worth mentioning: sequence diagram, route and Ishikawa. Finally, the design of the process was achieved, anticipating an increase in satisfaction levels. KEY WORDS: processes, hospital management, level of satisfaction, load balance and capacity. 1. INTRODUCCIÓN Desde el año 2020, todos los países del mundo se vieron impactados por la enfermedad denominada COVID-19, la que, por su alta incidencia de contagios ha hecho muy compleja la dinámica asistencial de las unidades hospitalarias dedicadas a estos menesteres, pues al tratarse de un virus con graves implicaciones para la salud, los hospitales se han convertido en la zona fundamental de tratamiento de los pacientes y contención de la pandemia La vida de muchos hospitales se vio obligada a adaptarse a la situación que imperaba, el Hospital clínico- quirúrgico Salvador Allende se dedicó a la atención de pacientes sospechosos, positivos y convalecientes a la COVID-19. La entidad, antes del virus, brindaba servicios de 19 especialidades y se dedicaba a las actividades docentes de perfeccionamiento de galenos. En varias universidades cubanas se han estudiado la gestión hospitalaria a partir de diseños de mapas estratégicos y consideraciones del enfoque a procesos (Alonso, 2004), (García & Delgado, 2007), (Acosta, Suárez, Baez, Joy, & Martínez, 2010), entre otros especialistas, lo que indica que es un tema de actualidad y en la mira de los investigadores cubanos. Al ser la pandemia de reciente aparición, no encontraron a este nivel investigaciones, en condiciones de COVID-19, adaptadas a los escenarios cubanos con un enfoque integrado de intervención de Ingenierías. Para la gestión de sus actividades el hospital Salvador Allende trabaja bajo el enfoque funcional en el cual se definen tareas y responsabilidades de forma independiente entre cada una de las áreas de trabajo, es por ello que el trabajo se centra fundamentalmente en el cumplimiento de las tareas asignadas, y no tienen definidos los procesos que realizan, lo que trae consigo que no se centren en la satisfacción de las partes interesadas. Por lo antes mencionado se determinó como máxima problemática la ausencia de un enfoque a procesos en el Hospital clínico-quirúrgico Salvador Allende, lo que trae consigo bajos niveles de satisfacción de las partes interesadas con respecto a los servicios que se brindan en la entidad. Esto hizo que se propusiera como objetivos de la investigación: Proponer mejoras al proceso de Gestión Hospitalaria del Hospital clínico-quirúrgico Salvador Allende. Entre las principales acciones propuestas encaminadas a mejorar las deficiencias detectadas a partir del diagnóstico que se llevó a cabo en la entidad se encuentran: diseño del proceso de atención médica y de enfermería, estudio de carga y capacidad del mismo, diseñar los objetivos estratégicos de la entidad, así como definir partes interesas y características de calidad del servicio ofertado. 2. MÉTODOS Con el objetivo de realizar un diagnóstico y proponer soluciones a las deficiencias encontradas en el Hospital clínico-quirúrgico Salvador Allende, el grupo de trabajo se propuso la aplicación del Procedimiento para el diagnóstico y proyección de soluciones, el cual se muestra en la Figura 1. Figura 1. Procedimiento para el diagnóstico y proyección de soluciones. Fuente. Informe Proyecto de Gestión Hospitalaria, junio 2021. Como se pudo observar en la figura el procedimiento consta de 4 etapas y 8 actividades, en la misma se muestra la relación existente entre ellas. Para cada una de estas etapas se propusieron herramientas y técnicas entre las que se destacan: entrevistas, encuestas, diagramas de secuencia, recorrido e Ishikawa, flujogramas, estudios de carga y capacidad para las soluciones de Organización del Trabajo. Para la etapa II del procedimiento se tendrá en cuenta el análisis de cuatro elementos fundamentales, estos se muestran en la Figura 2. Figura 2. Elementos que interactúan en un acto de servicio Fuente. Schroeder, 1992 3. RESULTADOS El equipo de trabajo se conformó a partir de estudiantes y profesores de la Cujae y de personal propio del hospital clínico-quirúrgico Salvador Allende, para la selección de estos últimos se aplicó el Índice de Experticia, con el fin de determinar si un candidato puede considerarse experto para formar el equipo de trabajo debido a que tiene la suficiente experiencia y grado de conocimiento en la materia a tratar. Quedando conformado por 5 miembros del hospital y 9 de la Cujae de los cuales 5 eran profesores y 4 estudiantes. Para el análisis de la misión y la visión se aplicaron listas de chequeo, las cuales arrojaron como resultado que de los 9 aspectos que se tuvieron en cuenta para evaluar la misión de la entidad, la misma solo cumple con 3 de ellos lo que representa el 33,3%, por otra parte, la visión no cumplió con ninguno de los aspectos evaluados. Para la determinación de las características de calidad del servicio ofertado se aplicó una lista de chequeo confeccionada por el grupo de trabajo que interviene en la investigación la cual estaba dividida en tres dimensiones: Instalaciones, el Personal y el Servicio. quedando definidas aquellas características que fueron seleccionadas por más de 30 pacientes, como se muestra en la Tabla 1. Tabla 1. Características de calidad seleccionadas. Aspectos Criterios Cantidad Instalaciones Limpieza de las salas y baños 44 Comodidad de la sala de admisión 30 Señalización de los locales 22 Condiciones de hospitalización de los acompañantes 35 Personal Porte y aspecto de los médicos 24 Trato y amabilidad 37 Atención a las quejas y reclamaciones 31 Servicios Tiempo de espera en admisión para ser atendidos 39 Tiempo de espera para recibir los resultados del PCR 43 Tiempo de espera para recibir el tratamiento 38 Fuente. Elaboración propia. Quedaron establecidas un total de 8 características de calidad, de las cuales 3 responden a la variable instalaciones, 2 a personal y 3 a servicios. Un análisis de la herramienta que utiliza el hospital dio como resultado que era deficiente por lo que se diseñó una encuesta con 12 variables, la misma fue validada con una escala Likert, Se realizaron un total de 45 encuestas las cuales arrojaron como resultados que 6 pacientes clasifican el servicio como excelente, 11 pacientes como muy bueno, sin embargo, el mayor valor lo obtiene la clasificación de buena con 12 pacientes. Como regular lo perciben 10 pacientes, y por último consideran que el servicio ofertado es malo un total de 6 pacientes. En la Figura 3 se muestran los porcientos de clientes satisfechos con los servicios que se brindan en el hospital. Figura 3. Porciento de clientes satisfechos con los servicios que se brindan en el hospital. Fuente. Elaboración propia. El Índice de Satisfacción del Cliente en el servicio es de 3,763, lo que representa una calidad del servicio de Buena para rangos de valores de porciento entre 61% y 79%. Para el estudio del proceso de atención médica y de enfermería en las salas de pacientes sospechosos y positivos de COVID-19 se realizó un levantamiento a partir de la Hoja de Examen Crítico, en la cual se analizaron los elementos: propósito, lugar, sucesión, persona y medios, llevándose a cabo un estudio de carga y capacidad. Con el estudio de carga y capacidad que se realizó en el proceso de atención médica y de enfermería, se lograron determinar los porcientos de Aprovechamiento de la Jornada Laboral de los médicos, enfermeros y secretarios de sala que laboran en las salas de atención a pacientes sospechosos y positivos de COVID-19. Lo que permitió posteriormente realizar una propuesta del diseño del proceso objeto de estudio, la cual quedó registrada en la ficha de procesos. Para la identificación de las situaciones peligrosas se utilizaron diferentes técnicas: análisis de la seguridad basado en OTIDA, para la descripción de las situaciones y determinación de las causas, mientras que para la ubicación de los riesgos se utilizó un mapa de riesgos A partir del diagnóstico realizado con el procedimiento que se mostró anteriormente se pudieron identificar los problemas existentes en el Hospital clínico-quirúrgico Salvador Allende, las deficiencias detectadas se muestran en el diagrama Ishikawa que se observa en la Figura 4, las cuales se agrupan por variables para proponer soluciones en función de ello. Figura 4. Diagrama Ishikawa de los problemas identificados. Fuente. Elaboración propia. Como se muestra en la figura se identificaron un total de 28 problemas, en función de ellos se propusieron un total de 16 acciones encaminadas a mejorar los mismos en la entidad, de las cuales 9 se corresponden a las deficiencias detectadas que inciden en la Planeación Estratégica, 1 a los Materiales, 3 a la Organización de Trabajo, 2 a las problemáticas asociadas a las máquinas y a la no utilización de sistemas informáticos y 1 destinada a diseñar el proceso objeto de estudio. 4. DISCUSIÓN En la Tabla 2 se muestra el programa de mejora con las acciones propuestas que tienen como propósito contribuir a la solución del 57,1% de las deficiencias detectadas. Tabla 2. Programa de mejora Acción Condiciones para la ejecución Tiempo de implementación Responsable Recursos necesarios Prioridad 1. Realizar estudios de tradiciones y costumbres de la sociedad _ 3 meses Directora del hospital Personas 15 2.Realizar análisis de cultura organizacional. _ 2 meses Directora del hospital Personas 14 3. Realizar análisis de contexto _ 2 meses Directora del hospital Personas 6 4.Determinar las partes interesadas y sus necesidades y expectativas _ 2 meses Directora del hospital Personas 1 5.Rediseñar la misión organizacional. _ 2 meses Directora del hospital Personas 12 6.Rediseñar la visión organizacional. _ 2 meses Directora del hospital Personas 13 7.Rediseñar el organigrama del centro _ 2 meses Directora del hospital Personas 11 8.Determinar Factores Claves del Éxito _ 2 meses Directora del hospital Personas 8 9.Rediseñar los objetivos estratégicos _ 2 meses Directora del hospital Personas 2 10. Análisis del sistema de _ 7 meses Subdirector Personas 10 gestión de pedidos e inventarios administrativo 11.Realizar estudios de carga y capacidad _ 3 meses Directora del hospital Personas 9 12.Identificar riesgos en los locales de trabajo _ 2 meses Directora del hospital Personas 7 13.Cambiar lámparas fundidas _ 2 meses Jefe de Mantenimiento Personas Bombillos 16 14.Habilitar computadores en las salas de enfermería -Habilitar todas las redes del hospital -Mesas para las computadoras en los locales -Capacitación al personal que trabajará con ellas 3 años Jefe del departamento de informatización Personas Computador as 4 15.Implementar el GALEN Clínicas -Habilitar computadoras -Habilitar todas las redes del hospital 3 años Jefe del departamento de informatización Personas El sistema 4 16.Diseñar el proceso de atención médica y de enfermería a pacientes positivos y sospechosos de COVID-19 _ 4 meses Subdirectora de atención médica Personas 3 Fuente. Elaboración propia Entre las acciones propuestas se encuentra el diseño del proceso de atención médica y de enfermería a pacientes positivos y sospechosos de COVID-19, en la Tabla 3 se muestra la ficha del proceso que fue diseñado por el equipo de trabajo de esta investigación, durante el diagnóstico del proceso se utilizaron varias herramientas como son flujogramas, organigrama y diagrama de secuencia, que ya constituyen una propuesta de solución Tabla 3. Ficha de proceso Hospital clínico- quirúrgico Salvador Allende FICHA DE PROCESO Código: 1.0 Versión: 1.0 Atención médica y atención de enfermería en la sala Fecha: 15-10-2021 Página: 1/4 NOMBRE DEL PROCESO ATENCIÓN MÉDICA Y DE ENFERMERÍA ALCANCE CONJUNTO DE SERVICIOS QUE SE PROPORCIONA AL INDIVIDUO EN LA SALA CON EL FIN DE PROMOVER, PROTEGER Y RESTAURAR SU SALUD MOTIVACIONES CONTRIBUIR A LA SOCIEDAD MEJORAR LA CALIDAD DEL SERVICIO OFRECIDO POLÍTICAS REGLAMENTO GENERAL DE HOSPITALES, PROTOCOLO DE ACTUACIÓN CONTRA COVID- 19 ACUERDO DE NIVEL DE SERVICIO ENCUESTAS DE SATISFACCIÓN PARA MEDIR EL NOVEL DEL SERVICIO RESPONSABLE DEL PROCESO VICEDIRECTOR DE ATENCIÓN MÉDICA ACTORES/PARTICIPANT ES DEL PROCESO ROL1. MÉDICO ROL6. ALMACEN GENERAL ROL2. ENFERMERO ROL7. LAVANDERÍA ROL3. PACIENTE ROL8. PUESTO DE MANDO ROL4. COCINA ROL9. LABORATORIOS ROL5. FARMACIA ROL10. ADMISIÓN ROL11. SUBDIRECCIÓN DE ASISTENCIA MÉDICA ROL 12. MINISTERIO DE SALUD PÚBICA ROL 13. SECRETARIA DE SALA ENTRADAS  RESULTADOS DE COMPLEMENTARIOS  HISTORIA CLÍNICA  MEDICAMENTOS  ALIMENTOS  RESULTADO DE MUESTRAS PCR  MATERIAL ESTÉRIL  SÁBANAS  MEDIOS DE PROTECCIÓN  ROPA  MODELOS DE PARTE DE DIETA, ESTADO DEL PACIENTE, PEDIDO DE MEDICAMENTOS CLIENTE PACIENTE SALIDAS  HISTORIA CLÍNICA ACTUALIZADA Y CERRADA  PARTE DIARIO A COCINA  MUESTRA DE PCR  TRATAMIENTO EMITIDO  PEDIDO DE MEDICAMENTOS A FARMACIA  PARTE DE DIETA  ESTADO DEL PACIENTE VARIANTES DE INICIALIZACIÓN DEL PROCESO VI1. LLEGADA DEL PACIENTE A LA SALA VARIANTES DE FINALIZACIÓN DEL PROCESO VF1. RESULTADO DE PCR NEGATIVO VF2. ESTAR APTO PARA ALTA MÉDICA VF3. TRASLADO A OTRA SALA VF4. TRASLADO A OTRO HOSPITAL VF5. FALLECIMIENTO CRITERIOS DE ÉXITO DEL PROCESO CRITERIOS DE FRACASO DEL PROCESO VF.CE1. COMPROMISO DE LOS MEDICOS Y ENFERMEROS VF.CF1. NO HAY UNA BUENA PLANIFICACIÓN DE LAS ACTIVIDADES DEL PROCESO VF.CE2. LLEGADA DE LOS RESULTADOS DE PCR A TIEMPO VF.CF2. RETRASO EN LA LLEGADA DE RESULTADOS DE PCR INDICADORES DEL PROCESO NOMBRE DEL INDICADOR DESCRIPCIÓN MÉTODO DE CÁLCULO RESPONSABL E RANGO DE MEDICIÓN M R B I1. Nivel de documentación sin errores De los documentos que se realizan durante el proceso en que cantidad no se cometieron errores *100 Archivo ≤60% ≤75% >75% I2. Calidad de la Historia Clínica La Historia Clínica debe estar redactada con letra legible, sin tachaduras y con toda la información pertinente Cantidad de errores en la Historia Clínica Archivo ≤ 6 ≤ 5 ≤2 I3. % de satisfacción del paciente A partir de encuestas de satisfacción que sirve como base la que se aplicó en el proceso se debe calcular el porciento de satisfacción del paciente Departamento de atención a la población < 60 60 - 79 80 -100 I4. Nivel de atención a quejas y reclamaciones Cantidad de quejas y reclamaciones que fueron atendidas Departamento de atención a la población ≤60% ≤75% >75% I5. Tasa de mortalidad (general y por servicios) Todas las muertes ocurridas durante un período de tiempo en función de la cantidad de egresos ocurridos en el hospital Departamento de estadística - - - I6. Tasa de mortalidad causas Cantidad de fallecidos según la causa de fallecimiento Departamento de estadística - - - I7. Tasa de reingreso Cantidad de pacientes que regresan al hospital en determinado período Departamento de estadística - - - I8. Tasa de incapacidad física Cantidad de pacientes que ingresan con alguna incapacidad física Departamento de estadística - - - I9. % de Aprovechamiento de la Jornada Laboral Determinar el porciento en el que el trabajador utiliza su jornada laboral Departamento de RRHH ≤60% ≤85% >85% I10. Tasa de infecciones intrahospitalaria Cantidad de trabajadores infectados en un período de tiempo Departamento de RRHH - - - I11. % de satisfacción laboral A partir de encuestas de satisfacción laboral que sirve como base la que se aplicó en el proceso. Departamento de RRHH < 60 60 - 79 80 -100 I12. Estadía hospitalaria Es el número de días de permanencia en el hospital de un paciente egresado, comprendido entre la fecha de ingreso y egreso. Departamento de estadística - - - I14. Índice ocupacional Representa la relación existente entre los días- camas que ofrece el hospital u la utilización en días que hace el paciente de la cama que ocupa. *100 Departamento de estadística - - - I15. Índice de rotación Número de pacientes que rotan por una cama en un intervalo de tiempo Departamento de estadística - - - I16. Intervalos de sustitución Período entre la salida de un paciente y la admisión de otro para ocupar esa misma cama. Departamento de estadística - - - RIESGOS DEL PROCESO RIESGOS IDENTIFICADOS ACTIVIDAD ASOCIADA PROBABILIDA D DE OCURRENCIA GRAVEDAD DEL IMPACTO ri1. Que el examen físico no se lleve a cabo con la rigurosidad pertinente Visita médica o examen físico Muy alta Catastrófico ri2.Emitir mal el tratamieto que se le aplicara al paciente Emisión del tratamiento Muy alta Catastrófico ri3.Solicitar erroneamente los medicamentos a la farmacia Solicitar medicamentos a la farmacia Muy alta Moderado ri4. Aplicar erroneamente el tratamiento Aplicación del tratamiento Muy alta Catastrófico ri4. Actualizar mal la historia clínica Actualización de la historia clínica Muy alta Moderado ri5.Entregar resultados de muestra pcr erroneos Entregar resultados de PCR Muy alta Catastrófico DECISIONES DE DISEÑO DEL PROCESO PARA MINIMIZAR RIESGOS FLUJO ASOCIADO Emisión del tratamiento DD1. Seleccionar los medicamentos y el tratamiento que le será aplicado al paciente Aplicar tratamiento DD2. Verificar que los medicamentos estén en buen estados y sea el adecuado Recibir resultados de PCR DD3. Estar seguro de que el resultado de PCR corresponde a la persona Dar alta médica DD4. Realizar de forma correcta la revisión médica antes de dar el alta y que el paciente cumpla esté en condiciones óptimas para ello RECURSOS DEL PROCESO RECURSO TIPO DE RECURSO ACTIVIDAD QUE LO EMPLEA PROVEEDOR Sábanas Material Recepción del paciente en la sala Lavandería Papel Material Confección del estado del paciente Emisión del tratamiento Almacén general Bolígrafo Material Confección del estado del paciente Emisión del tratamiento Almacén general Teléfono Material Informar estado del paciente a puesto de mando Pedido de medicamentos Reporte a dieta Dpto. de informatización Equipos para exámenes complementarios Material Enviar al paciente a la realización de exámenes complementarios Laboratorio Medios de Protección (Nasobucos, Guantes, Pijamas, Gorros, Botas, Sobrebata, Máscaras ) Material Todas las actividades Almacén General Medicamentos Material Aplicar tratamiento Farmacia Alimentos Material Distribución de alimentos Cocina Refrigerador Material Recepción de medicamentos Farmacia Kit PCR Material Toma de muestral PCR Laboratorio Documentos impresos Informacional Actualización de historia clínica Almacén General FORMATOS DE DOCUMENTACIÓN INTERNA DEL PROCESO NOMBRE DEL FORMATO HIPERVÍNCULO AL FORMATO F1. Historia Clínica F2. Remisión médica F3. Estado del paciente F4. Parte de dieta F5. Pedido de medicamentos F6. Modelo de alta INFORMACIÓN DEL PROCESO INFORMACIÓN TIPO INFORMA CIÓN FORM ATO ASOCI ADO PROVEED OR USO DE LA INFORMACIÓN INF1. Datos del paciente y su evolución Interna F1. Admisión y el paciente En su Historia Clínica INF2. Datos del paciente Externa F2. El paciente En su Historia Clínica y el estado del paciente INF3. institución que lo remite Interna F2. Admisión Conocer antecedentes del paciente INF4. cama en la que fue ubicada el paciente Interna F3. Enfermero Conocer la ubicación del paciente durante su estancia INF5. el número de historia clínica, Interna F3. Enfermero Estado del paciente INF6. si se encuentra grave, de cuidado y mejorado Interna F3. Médico Estado del paciente INF7. Datos de las dietas de cada uno de los pacientes de la sala. Interna F4. Enfermero Para server la alimentación INF8. Los medicamentos necesarios para cada paciente según el tratamiento emitido y se resume el total de medicamentos por tipo. Interna F5. Médico Para realizar el pedido de medicamentos INF 9. Se registran los datos del paciente, la fecha en la que fue dado de alta, así como el estado a la hora del alta médica Interna F6. Médico Para dar alta médica de forma correcta DETALLE DE LA INFORMACIÓN DEL PROCESO FORMATO / INFORMACIÓN DEL PROCESO C R U D F1. Protocolo de Actuación Nacional para la COVID-19 ROL 11 ROL 11 ROL 11 F1.INF1. Tratamiento a emitir ROL1 F2. Reglamento General de Hospitales ROL 11 F2.INF2. Deberes de los trabajadores que participan en el proceso F3. Historia Clínica ROL 10 F3. INF3. Datos del paciente y su evolución ROL1 ROL2 ROL 13 ROL1 ROL2 F4. Remisión médica ROL 10 F4. INF4. Datos del paciente ROL1 ROL2 F4. INF5. institución que lo remite ROL1 ROL2 F5. Estado del paciente ROL 13 ROL 8 F5. INF6. cama en la que fue ubicada el paciente ROL1 ROL2 ROL 13 ROL 8 ROL 13 F5. INF7. el número de historia clínica, ROL1 ROL2 F5. INF8. si se encuentra grave, de cuidado y mejorado ROL1 ROL2 ROL1 F6. Parte de dieta ROL 13 ROL 4 F6. INF9. Datos de las dietas de cada uno de los pacientes de la sala. ROL1 ROL2 ROL 4 ROL 13 F7. Pedido de medicamentos ROL2 ROL5 F7. INF10. Los medicamentos necesarios para cada paciente según el tratamiento emitido ROL2 ROL5 ROL 13 ROL1 ROL2 F8. Modelo de alta ROL2 F8. INF 11. Se registran los datos del paciente, la fecha en la que fue dado de alta, así como el estado a la hora del alta médica ROL2 ROL2 Fuente. Elaboración propia 5. CONCLUSIONES  Se identificaron un total de 28 deficiencias que dan al traste con el diseño de las actividades de los procesos que se llevan a cabo en el hospital y que a su vez influyen en la satisfacción de las partes interesadas que fueron identificadas.  Se proponen un conjunto de 16 acciones para lograr mejorar los servicios que se brindan y se presentó una propuesta de diseño para el proceso de atención médica y de enfermería para pacientes sospechosos y positivos de COVID-19. 6. REFERENCIAS 1. Sitemas de Gestión de la Calidad, Fundamentos y Vocabulario: 60., (2015). 2. Sistemas de gestión de la calidad — Requisitos, (2015). 3. 66924IN, N. U. (2002). Sistema de Gestión de la calidad. Directrices para la mejora de los procesos en organizaciones sanitarias. 4. Acevedo, P. (2002). ENFOQUE POR PROCESOS, Un Principio de la Gestión de la Calidad visto desde la perspectiva de las normas ISO 9001:2000. 5. Acosta, M. I. G., Suárez, J. A. A., Baez, Y. P., Joy, T. L., & Martínez, I. L. (2010). Caracterización de la Logística y las Redes de Valor en empresas cubanas en Perfeccionamiento Empresarial. 6. Alonso, J. A. V. (2007). La Calidad de los Servicios. 7. Alonso, P. L. (2014). Gestión de las Empresas por Procesos. 8. Álvarez, M. R., & Fonseca, M. T. (2016). El método Delphi. 9. Ángel, M. M. (2010). La Gestión por Procesos: Un Enfoque de Gestión Eficiente. 10. autores, C. d. (2006). Capitulo 2. Prevención de riesgos en el trabajo. 11. Manual de Acreditación Hospitalaria, (2016). 12. Bravo, L. D. (2013). La entrevista, recurso flexible y dinámico. 13. Brull, A. E. (2007). El proceso A112: Implantar la Gestión de Procesos. 14. Cabrera, R. C. (2014). Guía para modelar procesos y procedimientos bajo el estándar bpmn 2.0. 15. Cantó, S. P., & López, A. E. U. (2016). El enfoque basado en procesos. Gestión de la Calidad y Reingeniería. 16. Castellanos, J. M., Santos, A. C., Álvarez, C. G., & Méndez, C. P. (2008). Organización del Trabajo Ingeniería de Métodos. 17. Castellanos, J. M., Santos, A. C., Triana, S. F., Álvarez, C. G. a., Felton, V. G. a., Morales, R. L., & López, Y. D. n. (2011). Organización del Trabajo. Estuduio de Tiempos. 18. Cerón, M. C. (2006). Metodologías de investigación social. 19. Cevallos, W. F. C. (2015). La Calidad en el Servicio al cliente para lograr la competitividad en la Empresa Comercial Cisneros ¨Importadora KUMHO¨ de la ciudad de Ambato. 20. Chase, R. B., Jacobs, R., & Aquilano, N. (2004). Administración de Operaciones. Producción y cadena de suministro. 21. Chaur, B. J. (2004). Ingeniería del diseño. 22. Domingo, R. P. (2003). La gestión tradicional y la gestión por procesos. 23. Estupiñan, J. G. (2014). Análisis de BPMN como herramienta integral para el modelado de procesos de negocio. 24. Evans, J. R., & Lindsay, W. M. (2009). Administración y control de la calidad. 25. Fenton, V. G. (2011). Procedimiento para la Implementación de la Gestión del Capital Humano en servicios asistenciales de hospitales. 26. Fonte, D. M., & Hernández, I. B. (2016). Aplicación de herramientas de Ingeniería Industrial en el diseño de los procesos de la Oficina de Trámites de Plaza de la Revolución. 27. García, M. M., & Delgado, J. A. (2007). Guia para la identificación y análisis de procesos 28. Gómez, E. L. (2018). El método delphi en la investigación actual en educación: Una revisión teórica y metodológica. 29. Gómez, I. G., & Aguilar, J. G. B. (2004). Administración de Operaciones. 30. González, M. d. C. (2008). Tormenta de ideas: ¡Qué tontería más genial! 31. Himmelblau, D. M., Bischoff, K. B. (2003). Análisis y simulación de Procesos. 32. Iglesias, M. E. D., & Gómez, A. M. M. (2004). Análisis documental y de información: dos componentes de un mismo proceso. 33. Jesús Álvarez Santos, & Dávila, J.-A. M. (2007). La innovación a través de un enfoque basado en procesos. 34. Kafka, F. (2009). El Proceso. 35. KRAJEWSKI, L. J., & RITZMAN, L. P. (2008). Administración de operaciones. 36. León, J. D. (2017). La mejora de la productividad y reducción de costos con enfoque orientado a Procesos. 37. López, M. R., Sánchez, C. P., & Monelos, P. d. L. (2013). Mapa de Riesgos: Identificación y Gestión de Riesgos. 38. Martínez., M. A. B., Rodríguez., L. M. S., Becerra., A. R. A., & Fernández., E. S. M. (2016). La planeación estratégica con un Enfoque de Gestión de la Calidad. 39. Medina, D. M., & Valdés, A. J. V. (2018). Propuestas de mejoras a partir de la implementación de las transformaciones organizacionales en la Estación PNR de Centro Habana. 40. Monteagudo, N. C. (2010). Rediseño del SGC de la Empresa ServiSime. 41. Moreno, G. A. (2008). La definición de salud de la Organización Mundial de la Salud y la interdisciplinariedad. 42. Muñoz, T. G. (2003). El cuestionario como instrumento de investigación/evaluación. 43. Nariño, A. H., Rivera, D. N., León, A. M., & León, M. M. (2013). Inserción de la gestión por procesos en instituciones hospitalarias. Concepción metodológica y práctica. 44. Nariño., A. H. (2010). Contribución a la gestión y mejora de procesos en instalaciones hospitalarias del territorio matancero. 45. Ojeda, Y. G., & García, E. V. (2008). Guía para la identificación y análisis de los procesos de la universidad de málaga. 46. Palma, H. G. H., Sierra, D. M., & Arbelaez, D. C. (2017). Enfoque basado en procesos como estrategia de dirección para las empresas de transformación. 47. Pérez, D. M., & Rodríguez, Y. P. (2007). Organización funcional, matricial...En busca de una estructura adecuada para la organización. 48. Plazas, H. (2017). Diseño de Procesos. 49. Reglamento General de Hospitales, (2007). 50. Pública, M. d. S. (2010). Indicadores básicos para el análisis del estado de salud de la población. 51. Protocolo de Actuación Nacional para la COVID-19. Versión 1.6, (2021). 52. Puebla, S. B., & Alarcón, B. M. (2010). Métodos de investigación en educación especial. 53. Pulido, H. G., González, P. G., López, C. G., & Caldera, L. D. (2012). Análisis multivariado y QFD como herramientas para escuchar la voz del cliente y mejorar la calidad del servicio. 54. Real, W. D. (2015). Organización funcional o de taylor. 55. Rebeca, S. C., Escajeda, J. D. H., & Chávez, M. G. S. (2017). Calidad de los servicios logísticos. 56. Ruíz, T. M., & Acosta, M. A. V. (2017). Alternativas de integración de servicios en la Oficina de Trámites de 10 de Octubre 2 para elevar el nivel de satisfacción del cliente. 57. Salazar, L. (2020). Diagrama de Recorrido. 58. Sánchez, D. R. (2017). Propuestas de mejora en la prestación de los servicios de inmigración y extranjería. 59. Santillan. (2008). Organización: Enfoque Funcional vs. Enfoque por procesos. 60. Santos, A. C. (2010). Tecnología de gestión de recursos humanos. 61. Sanz, J. B., Calvo, M. A. C., Pérez, R. C., Zapata, M. A. R., & Panchón, F. T. (2009). Guía Para una Gestión Basada en Procesos. 62. Sebastián, M. Á. A. (1999). Gestión diaria del hospital. 63. Shankar, V., Smith, A. K., & Rangaswamy, A. (2000). Customer Satisfaction and Loyalty in Online and Offline Environments. 64. Socas, A. L., & Hernández, A. P. (2017). Propuestas de variantes de mejoras al corto y largo para elevar el nivel de satisfacción de los clientes en la Oficina de Trámites de 10 de Octubre 2.”. 65. Stoner, J., & Freeman., E. (2016). Organización Funcional. 66. Tejeda., C. T. H., & Martínez., A. F. (2017). Propuestas de mejoras en los procesos de servicios de identidad en la oficina de trámites del Cerro. 67. Torrijo, E. Q., & León, F. R. (2014). La información y la comunicación en la gestión organizacional: retos en el contexto universitario. 68. Velazco, J. P. F. d. (2010). Gestión por Procesos. 69. Veloz, G. C., & Iglesias, L. S. (2016). Diseño de los servicios de Inmigración y Extranjería en la Oficina de Trámites Plaza de la Revolución. 70. Villanueva, J. D. B. (2006). ¿cómo medimos el servicio? 71. Zapata, C. M., & Garcés, G. l. (2008). Generación del diagrama de secuencias de UML 2.1.1 desde esquemas preconceptuales. 72. Zeithaml, V. A., Berry, L. L., & Parasuraman, A. (1993). The Nature and Determinants of Customer Expectations of Service. PROYECCIÓN ESTRATÉGICA DE LA EDUCACIÓN SUPERIOR CON ENFOQUE A LOS PROCESOS DrC. Marcos Antonio Baños Martínez 1 , DrC. Alicia Alonso Becerra 2 , DrC. Ester Michelena Fernández 3 , DrC. Mariela Columbié Santana 4 1Universidad Tecnológica de La Habana José Antonio Echeverría, marcosantonio@tesla.cujae.edu.cu 2 Ministerio de Educación Superior, alonso@mes.gob.cu 3Universidad Tecnológica de La Habana José Antonio Echeverría, emichele@tesla.cujae.edu.cu 4 Ministerio de Educación Superior, mariela@mes.gob.cu RESUMEN Las instituciones de educación superior actualmente aplican enfoques de gestión universitaria pertinentes para alcanzar sus prioridades definidas. De ahí la importancia de establecer la planificación estratégica del Sistema de Educación Superior en Cuba y enfocarla en el logro de los objetivos estratégicos y su despliegue a las universidades e instituciones del sistema. Los principales resultados se obtienen a partir de: definir los componentes que determinan el diseño estratégico, interrelacionar los mismos, establecer los procesos y los indicadores a evaluar para medir su desempeño, determinar los indicadores de proceso que contribuyen al cumplimiento de cada uno de los objetivos estratégicos. Palabras clave: Educación superior; planificación estratégica; gestión universitaria; objetivos estratégicos; enfoque a procesos. ABSTRACT Higher education institutions currently apply relevant university management approaches to achieve their defined priorities. Hence the importance of establishing the strategic planning of the Higher Education System in Cuba and focusing it on the achievement of strategic objectives and their deployment to the universities and institutions of the system. The main results are obtained from: define the components that determine the strategic design, interrelate them, establish the processes and indicators to evaluate to measure their performance, determine the process indicators that contribute to the fulfillment of each of the objectives strategic. Keywords: Higher education; strategic planning; University management; strategic objectives; process approach. INRODUCCIÓN El concepto de “gestión”, para hacer referencia a la función universitaria, es relativamente nuevo. La discusión en torno a su pertinencia para la organización educacional, se ha realizado desde la perspectiva del significado, debido a la confusión que genera la polisemia con administración, management, planeación y estrategia, entre otros (Narváez, 2008). Las instituciones de educación superior tienen alta responsabilidad en el cumplimiento de importantes retos que impone la sociedad en una época tan dinámica. Últimamente la dirección estratégica en el contexto universitario se ha convertido en una práctica creciente (Abesada & Almuiñas Rivero, 2016). (Alonso Becerra, Michelena Fernádez, & Alfonso Robaina, 2013) recalcan la importancia del enfoque basado en procesos, planteando que dicho enfoque permite realizar una gestión universitaria enfocada en los resultados. Los autores proponen establecer los aspectos que pueden regularizarse como parte del proceso de Planeación Estratégica tomando como base los procesos que se han determinado como necesarios para la gestión de una universidad. El Ministerio de Educación Superior (MES) fue pionero en Cuba en la introducción de tales técnicas novedosas de dirección, en lo cual involucró desde un principio a su red de universidades, en un proceso que ha seguido un desarrollo ascendente a lo largo de los años. De ahí que la educación superior cubana desde el año 2016 comenzó a diseñar su planificación estratégica para el período 2017-2021. Es por ello, que esta la investigación tiene como objetivo: proponer un modelo para proyectar estratégicamente el Sistema de Educación Superior en Cuba para el logro de los objetivos estratégicos y su despliegue a las universidades e instituciones del sistema. Determinar la estructura del modelo considerando que el método de gestión a emplear es el ciclo PHVA (Planificar-Hacer-Verificar y Actuar) y el enfoque es a procesos. Esta es la problemática que se plantea solucionar para gestionar las universidades y elevar los resultados y el nivel de desempeño. El análisis de los temas y elementos a considerar, la revisión de la bibliografía particularizando el enfoque a procesos y los documentos base utilizados para la planificación, fueron la guía para obtener los resultados planificados en el desarrollo de la investigación. Los resultados obtenidos son: la comprobación de la correspondencia entre los objetivos estratégicos y las estrategias con sus estrategias específicas, y cómo tributan al cumplimiento de los indicadores y metas definidos en cada proceso para alcanzar los objetivos estratégicos; componentes todos de la estructura del diseño estratégico de la educación superior para el año 2020. MÉTODOS La literatura sobre estrategia organizacional es vasta y creciente. La teoría neoclásica inaugura una importante área en la teoría administrativa: la administración estratégica (Chiavenato, 2006), sin embargo, disímiles son los autores que tratan la temática a partir de sus diferentes concepciones, estrategia, planeación y planificación estratégica, dirección estratégica y por último administración estratégica. El término planeación estratégica se acuñó en la década de 1950 y fue de uso común desde mediados de la década de 1960 hasta mediados de la siguiente (Fred, 2008). La Dirección Estratégica como enfoque de Management según explica (Bueno Campos, Dalmau Porta, & Renau Piqueras, 1993), es el resultado de un proceso evolutivo de los setenta a los ochenta y que puede ser considerado como el último estadío y como una alternativa de Planificación Estratégica. Esta representa un sistema estructurado, poniendo su énfasis en la formulación de la estrategia. Sin embargo, la Dirección Estratégica se configura como un sistema de planificación en el que tan importante como la formulación, es la implantación de la estrategia, estructurándola en tres partes: Análisis Estratégico, Planificación Estratégica, y por último Implantación y Control Estratégico. En el caso del entorno universitario, al realizar un estudio de 15 definiciones del término gestión universitaria (Llanos de la Hoz, 2000), (Tristá Pérez, 2001), (Delgado, 2002), (C de Donini & Donini, 2003), (Orellana Peralta 2004), (De Vries & Ibarra, 2004), (Padilla, 2006), (Lopera Palacio, 2004), (Marrero Arias, 2005), (Guijarro de Chávez & Chávez Sanchez, 2006), (Tristá Pérez, 2007), (Galarza López, 2007), (Corzo Sánchez, 2011), (Crespo León, Castellanos Castillo, & Hernández Santana, 2013) (Véliz Briones, 2017), se detectó el enfoque estratégico que tienen los conceptos, a partir de elementos que tienen en común con las definiciones de estrategia, planeación y planificación estratégica, dirección y administración estratégica. Se realizó un análisis de estos elementos y los autores con el software UCINET 6 y se obtuvo la red que los relaciona. (Figura 1) Figura 1: Relación de elementos de los conceptos de gestión universitaria con los autores (Enfoque estratégico) Con base en el análisis realizado se puede llegar a definir la gestión universitaria como el proceso de planificar, organizar, ejecutar y controlar los procesos y las actividades, proponiendo estrategias, políticas y acciones concretas orientadas para la toma de decisiones y encaminadas al cumplimiento de los objetivos y metas definidos y uso de los recursos de manera eficiente y eficaz en función de obtener los resultados e impactos previstos a alcanzar en las Instituciones de Educación Superior (IES) para el logro de su misión. A partir de una revisión bibliográfica del repositorio de tesis de la Universidad Tecnológica de La Habana José Antonio Echeverría (Cujae), búsquedas en google scholar, researchgate y en bases de datos de revistas científicas, se realizó un estudio de 10 modelos de gestión universitaria que como temática fundamental abordan la dirección estratégica; se empleó un análisis clúster o de agrupación para evaluar el grado de similitud entre los modelos, empleando como vinculación el método Ward y como medición la distancia eucledeana cuadrada. (Figura 2) Figura 2: Dendrograma del análisis clúster de los modelos de gestión universitaria que abordan la temática de dirección estratégica El grupo 1 formado por (Villa González del Pino, 2006), (Alonso Becerra et al., 2013) y (Ortiz Pérez, 2014), y el grupo 2 por (Ferriol Sánchez, 2011), (Gómez, 2011), (Guerrero Ramos, Hernández Ruíz, & Antúnez Saíz, 2012), (Shu-Hsiang, Jaitip, & Donaldson, 2015), (Rodríguez Varela, De León Lafuente, & Galarza López, 2015), (Barra, 2015) y (Véliz Briones, 2017). Para el análisis se incluyó a (Ortiz Pérez, 2014) y (Véliz Briones, 2017) ya que a pesar de que la temática fundamental que abordan es la gestión por procesos, en el modelo definen los componentes del diseño estratégico. Los componentes que distinguen a los procedimientos agrupados en el clúster 1 son: planes de acciones, áreas de resultados claves y procesos, mientras que el clúster 2 lo distinguen los valores y las estrategias. Sin embargo, los elementos comunes a ambos son: análisis interno y externo, misión, visión, objetivos estratégicos y los indicadores. Los resultados anteriores corroboran lo planteado por (Valdez Zepeda, Orozco Alvarado, De León Arias, & Castillo Girón, 2011) que, a partir de los conceptos de (Padilla, 2006), (De Vries & Ibarra, 2004) y (Lopera Palacio, 2004) plantean que la gestión universitaria influye e impacta en el proceso de aprendizaje y la calidad educativa en las Instituciones de Educación Superior a través de diferentes políticas, programas o acciones específicas, mediante la planeación e instrumentación de la evaluación del desempeño o por el establecimiento de políticas y modelos académicos. Señalan también que los procesos son considerados la plataforma operativa de gran parte de las organizaciones y, por su importancia, se han convertido en la base estructural, ya que permiten realizar los cambios estratégicos en las organizaciones. Por otra parte, el enfoque a procesos es uno de los principios básicos de las normas ISO 9000 y de los Modelos de Excelencia, lo que constituye una cualidad diferente de los sistemas de gestión actuales. La (ISO-9001, 2015) promueve la adopción de un enfoque a procesos para la gestión de las organizaciones, plantea que la gestión de los procesos interrelacionados como un sistema contribuye a la eficacia y eficiencia de la organización en el logro de sus resultados previstos y (Beltrán Sanz, Carmona Calvo, Carrasco Pérez, Rivas Zapata, & Tejedor Panchón, 2009) puntualizan que entre los beneficios se destacan que alinea e integra los procesos para el logro de los resultados esperados. En el caso de las instituciones educativas, la (ISO-21001, 2018) es la norma que define los requisitos comunes, planteando entre sus beneficios potenciales una mejor alineación de objetivos y actividades con la política (incluida la misión y la visión). (Figura 3) Figura 3: Estrategia del sistema de gestión para organizaciones educativas (SGOE) en relación a la misión y la visión La (ISO-21001, 2018) explica que las declaraciones de política del SGOE proporcionan el marco de referencia para el establecimiento de los objetivos del SGOE, que se revisan periódicamente para asegurar que la misión de la organización se cumpla de manera eficaz y eficiente mientras se avanza continuamente hacia el logro de la visión de la organización. Los modelos de excelencia también favorecen la comprensión de las dimensiones más relevantes de una organización, los modelos más referenciados son: el Modelo Iberoamericano de Excelencia en la Gestión, el Modelo Malcolm Baldrige y el Modelo Europeo de Gestión de Calidad (EFQM). Según (Tejedor, 2013), (Baldrige Performance Excellence Program, 2017), (Stassen, 2017), (Fundibeq, 2005), (Baldrige National Quality Program, 2006), (Fernández Hatre, 2005) todos reconocen entre sus criterios las estrategias y los procesos; el gráfico 12 muestra los % de puntuación de cada uno, representando ambos criterios el 17%, 20% y 25% del total de los criterios de los modelos Malcom Baldrige, EFQM e Iberoamericano respectivamente. (Gráfico 1) Gráfico 1: % de representación de los criterios Estrategia y Procesos en los modelos de excelencia En los epígrafes anteriores se ha evidenciado la representación del enfoque a procesos para gestionar la organización a partir de los diferentes modelos estudiados que lo tienen en cuenta; estando de acuerdo el autor con la concepción planteada por (Alonso Becerra et al., 2013), que los procesos trabajan de forma integrada para dar cumplimiento a los objetivos estratégicos y se ven reflejados en sus criterios de medidas (indicadores y sus metas), de ahí la importancia de tenerlos en cuenta desde el propio diseño estratégico como uno de sus componentes. RESULTADOS Para la realización de la proyección estratégica de la educación superior para el año 2020 se desarrollaron un conjunto de actividades, las cuales se empezaron a ejecutar a partir de julio del 2019 (Figura 4). Figura 4: Actividades para elaborar la proyección estratégica de la educación superior Basado en la aplicación del esquema anterior, para la obtención de los resultados, la dirección del Ministerio de Educación Superior determinó adecuar los objetivos de trabajo para el año 2020, a partir de los definidos en la Planificación Estratégica para el período 2017-2021, y observando los cambios ocurridos en los escenarios nacional e internacional. La actualización se realizó teniendo en cuenta: • Bases del Plan Nacional de Desarrollo Económico y Social hasta el 2030: Visión de la Nación, Ejes y Sectores Estratégicos. • Actualización de los Lineamientos de la Política Económica y Social del Partido y la Revolución. • Agenda 2030 y los Objetivos de Desarrollo Sostenible. Indicadores y metas de la Educación Superior. • Problemas principales que afectan el cumplimiento de la misión del ministerio, definidos como prioridades en el Programa de Educación Superior en el año 2018. • Políticas de educación superior aprobadas. • Políticas de otros organismos aprobadas, en las que corresponde participar. • Patrones de Calidad del Sistema de Evaluación y Acreditación de la Educación Superior (SEAES). • Indicaciones del presidente en las visitas gubernamentales y sobre el vínculo Universidad – Empresa y el desarrollo local. Se consideró importante integrar los elementos anteriormente mencionados en el proyecto estratégico, cuya estructura se muestra en la Figura 5. Figura 5: Proyecto Estratégico El resultado del análisis fue el siguiente: • Mantener la misión, visión, valores y procesos definidos en la Planificación Estratégica 2017-2021. • Definir objetivos estratégicos, bajo el principio de que los procesos tributan al cumplimiento de los mismos. • Definir Estrategias. • Fortalecer el enfoque a procesos integrado al proyecto estratégico. • No definir objetivos propios por Áreas de Resultados Claves, • Los procesos trabajan de forma integrada para dar cumplimiento a los objetivos estratégicos y se ven reflejados en indicadores y sus metas. Los objetivos estratégicos representan las prioridades y los resultados que se han de lograr, están basados en la visión, la misión y los valores y condicionan las acciones a desarrollar. Establecen un curso, revelan prioridades, determinan qué es lo realmente importante, crean la alineación organizacional, favorecen la coordinación y ayudan a que todos trabajen con la imagen global en mente, de forma tal que todos se muevan en la misma dirección. Deben ser claros, medibles, alcanzables y motivadores (Ministerio de Educación Superior, 2019). Las estrategias establecen los caminos o vías para conducir la organización hacia el logro de los objetivos, aseguran el cumplimiento de las metas, son el conjunto de acciones que se llevan a cabo para lograr un determinado fin, las acciones planificadas que ayudan a tomar decisiones y a conseguir los mejores resultados (Ministerio de Educación Superior, 2019). Las estrategias tienen estrategias específicas y cada una de ellas las acciones que se deberán desarrollar. Las estrategias atraviesan horizontalmente los procesos y sus acciones deben garantizar el cumplimiento de las metas de los indicadores definidos, mejorando la planificación necesaria. El plan anual de actividades contiene las acciones concretas que se realizan para alcanzar los objetivos estratégicos y debe integrarse a las estrategias y desagregarse en tareas a cumplir por cada unidad organizativa con responsables, fechas, participantes y otros campos que precisan el desarrollo de cada tarea. Los resultados de la Planificación Estratégica y el Plan de Actividades no son herramientas de gestión independientes, de la primera se deriva el segundo; las tareas del plan se diseñan para cumplir con las acciones de las estrategias (Alonso Becerra et al., 2013). (Figura 6) • ¿Quiénes Somos? • ¿Qué hacemos y para quienes? Misión • ¿Cómo queremos ser reconocidos?Visión • ¿Cuáles son los valores compartidos? Valores • ¿Dónde queremos ir? Objetivos Estratégicos • ¿Cómo podemos llegar?Estrategias • ¿Cómo sabemos que hemos logrado lo esperado? Procesos Indicadores y metas Figura 6: Estrategias Las estrategias y estrategias específicas fueron determinadas para todos los niveles y las acciones que son las que expresan ¿Qué hay que hacer?, lo que varía para cada entidad, a nivel de universidades y entidades de Ciencia Tecnología e Innovación. (Figura 7) Figura 7: Estrategias, estrategias específicas y acciones Se mantuvieron los procesos definidos para la Educación Superior, en los procesos están los indicadores y las metas que van a medir su desempeño (Figura 8) Figura 8: Procesos, indicadores y metas Los indicadores y metas de cada proceso tributan a uno o varios objetivos estratégicos (Figura 9), un indicador que no tribute a ninguno, no estarían entre las prioridades de los resultados a lograr por la organización. Figura 9: Indicadores y metas por procesos Por tanto, la evaluación de cada objetivo estratégico definido por la organización dependerá de los indicadores y metas de cada proceso que tributan al objetivo estratégico. (Figura 10) Figura 10: Indicadores y metas por objetivo estratégico Las acciones que conforman las estrategias y el cumplimiento de las metas de los indicadores de los procesos tributan a alcanzar los objetivos estratégicos. (Figura 11) Figura 11: Relación Objetivos Estratégicos-Estrategias-Procesos El enfoque a procesos es la base de la estructura del proyecto estratégico. Esta concepción implica que las estrategias tributan al cumplimiento de los indicadores definidos para evaluar el desempeño de los procesos y mejorar la planificación para alcanzar las metas. El plan anual se desagrega en planes mensuales y además se despliega en los diferentes niveles de dirección hasta generar tareas en los planes individuales de los cuadros y en los planes de resultados de los profesores. Por último, se diseñaron las normas para la evaluación de los indicadores, los procesos y los objetivos estratégicos, utilizando las categorías de: SOBRECUMPLIDO, CUMPLIDO, PARCIALMENTE CUMPLIDO E INCUMPLIDO. La evaluación se realizará anualmente y se hará un corte parcial concluido el primer semestre del año. Se identificaron los indicadores que son esenciales (críticos, límites o directivos) en el cumplimiento de los procesos y de los objetivos estratégicos, que en la evaluación tendrán más peso, ya que son los indicadores más significativos para mejorar la gestión. Para determinar los indicadores esenciales se consideró aquellos que tienen una mayor influencia en:  las prioridades  el desempeño de los procesos  el cumplimiento de los objetivos estratégicos  los resultados de la organización Así como aquellos que están por debajo de los niveles de eficiencia necesarios. La evaluación de cada uno de los indicadores se realizará teniendo en cuenta el porciento de cumplimiento de la meta programada (Tablas 1 y 2). Tabla 1: Cumplimiento de los Indicadores Indicador Meta Real % de cumplimiento Evaluación (1) (2) (2)/(1)*100 Según las categorías de la tabla 2 Tabla 2: Evaluación de los indicadores Categorías Sobrecumplido Cumplido Parcialmente cumplido Incumplido % de cumplimiento >100 =100 80 ≤ %cump <100 <80 Un indicador esencial sin meta planificada se considerará incumplido. La evaluación de los procesos y los objetivos estratégicos depende de los resultados de la evaluación de sus indicadores de la forma siguiente: SOBRECUMPLIDO (Tabla 3) Tabla 3: Proceso y Objetivo Estratégico sobrecumplido Categorías Sobrecumplido Cumplido Parcialmente cumplido Incumplido Indicadores esenciales ≥ 60% ≤ 40% 0% 0% Indicadores necesarios ≥ 50% ≤ 40% ≤ 10% 0% CUMPLIDO (Tabla 4) Tabla 4: Proceso y Objetivo Estratégico cumplido Categorías Sobrecumplido+Cumplido Parcialmente cumplido Incumplido Indicadores esenciales ≥ 90% ≤ 10% 0% Indicadores necesarios ≥ 70% ≤ 20% ≤ 10% PARCIALMENTE CUMPLIDO (Tabla 5) Tabla 5: Proceso y Objetivo Estratégico parcialmente cumplido Categorías Sobrecumplido+Cumplido+Parcialmente cumplido Incumplido Indicadores esenciales ≥90% ≤10% Indicadores necesarios ≥ 80% ≤ 20% La categoría de INCUMPLIDO se otorgará cuando no se cumplen los requisitos especificados en ninguna de las categorías anteriores. Los resultados presentados permiten determinar los elementos que debe tener la planificación estratégica con un enfoque a procesos para gestionar la educación superior desde el órgano central hasta las entidades. Este enfoque permite establecer una relación entre los diferentes elementos que componen el proyecto estratégico con la finalidad de guiar a la organización hacia el cumplimiento de los objetivos definidos para el período 2020. Se determinaron los objetivos estratégicos, las estrategias, cada una con sus estrategias específicas que establecen el cómo alcanzar los objetivos estratégicos y que son la base para integrar el plan de trabajo anual de la organización. También se identificaron los indicadores de los procesos definidos en la Planificación Estratégica 2017-2021 y utilizando como herramientas las matrices, se hicieron corresponder con los objetivos estratégicos para esta etapa. Al finalizar el año se evaluaron los procesos y los objetivos estratégicos a partir del resultado de los indicadores y sus metas, según las categorías definidas en las normas de evaluación. CONCLUSIONES 1. El enfoque a procesos permite orientar los resultados en el cumplimiento de los objetivos estratégicos. 2. El proyecto estratégico se estructura en 6 componentes fundamentales: misión, visión, valores, objetivos estratégicos, estrategias y procesos con sus indicadores y metas. 3. Los objetivos estratégicos constituyen la categoría rectora de la planificación estratégica. 4. La determinación de los objetivos estratégicos y de las estrategias es un paso fundamental de la planificación estratégica. Estas últimas tributan al cumplimiento de los indicadores definidos para evaluar el desempeño de los procesos de la educación superior. RECONOCIMIENTOS Los autores desean agradecer a los miembros del Consejo de Dirección del MES, profesores de la Facultad de Ingeniería Industrial de la CUJAE, la UNICA y UCLV, que ofrecieron sus ideas y consideraciones en la realización del presente trabajo. REFERENCIAS 1. Abesada, Beatriz T., & Almuiñas Rivero, José L. (2016). La dirección estratégica en las instituciones de educación superior. Necesidad de su evaluación. Revista Cubana de Educación Superior, No. 3. (137-147). Centro de Estudios para el Perfeccionamiento de la Educación Superior (CEPES), Universidad de La Habana. Cuba 2. Alonso Becerra, Alicia., Michelena Fernádez, Ester., & Alfonso Robaina, Daniel. (2013). Dirección por procesos en la Universidad. Revista de Ingeniería Industrial, Vol. 34, No. 1. (87- 95). ISSN: 1815-5936. Facultad de Ingeniería Industrial, Cujae. Cuba 3. Baldrige National Quality Program. (2006). Modelo de excelencia en la gestión Malcolm Baldrige. Retrieved from http://www.praxis.com.pe. 4. Baldrige Performance Excellence Program. (2017). A systems approach to improving your organization’s performance. Baldrige Excellence Framework Department of Commerce, National Institute of Standards and Technology, Gaithersburg, US Retrieved from https://www.nist.gov/baldrige 5. Barra, Ana. . (2015). Alineamiento Estratégico Sectorial: Caso de Estudio Aplicado a una Universidad Chilena. Formación Universitaria, Vol. 8, No. 3. ISSN: 0718-5006. Centro de Información Tecnológica. La Serena, Chile 6. Beltrán Sanz, Jaime., Carmona Calvo, Miguel Á., Carrasco Pérez, Remigio., Rivas Zapata, Miguel Á., & Tejedor Panchón, Fernando. (2009). Guía para una Gestión basada en Procesos. ISBN: 84- 923464-7-7. Instituto Andaluz de Tecnología. España 7. Bueno Campos, Eduardo., Dalmau Porta, Juan., & Renau Piqueras, Juan. (1993). Fundamentos teóricos de la dirección estratégica. Real sociedad económica de amigos del país. España 8. C de Donini, Ana M., & Donini, Antonio O. (2003). La gestión universitaria en el siglo XXI. Desafíos de la sociedad del conocimiento a las políticas académicas y científicas. Documento de Trabajo N° 107. Universidad de Belgrado. Argentina. Retrieved from http://www.ub.edu.ar/investigaciones/dt_nuevos/107_donini.pdf 9. Chiavenato, Idalberto. (2006). Introducción a la teoría general de la administración (McGraw-Hill Ed. Séptima ed.). ISBN 13:978-970-10-5500-7. 10. Corzo Sánchez, José A. (2011). La integración de los procesos y funciones sustantivas universitarias como estrategia para contribuir al equilibrio entre equidad y calidad en instituciones de educación superior. . Didáctica y Educación, Vol. 2, No. 4. ISSN: 2224-2643. CEDUT- Las Tunas y CEdEG-Granma. Cuba 11. Crespo León, Ernesto., Castellanos Castillo, José R., & Hernández Santana, Juan J. (2013). Modelo y procedimiento para el diseño del sistema de gestión integrado. Aplicación en la UCLV. Paper presented at the Congreso Universidad 2012, La Habana, Cuba. 12. De Vries, W, & Ibarra, E. (2004). La gestión de la Universidad, Interrogantes y problemas en busca de respuestas. Revista Mexicana de Investigación Educativa., Vol. 9 (No. 22). 13. Delgado, Luis F. (2002). La gestión universitaria. Biblioteca Central Universidad Nacional Mayor de San Marcos. Lima, Perú. Retrieved from sisbib.unmsm.edu.pe 14. Fernández Hatre, Alfonso. (2005). Modelo europeo de calidad total. ISBN: 84-89594-09-0. Instituto de Fomento Regional. Centro para la calidad en Asturias, España 15. Ferriol Sánchez, Fermín. . (2011). Modelo de Planificación Estratégica para el Ministerio de Educación Superior de la República de Cuba. (Tesis presentada en opción al Grado de Doctor en Ciencias de la Educación.). Centro de Estudios para el Perfeccionamiento de la Educación Superior. Universidad de La Habana, Cuba. 16. Fred, David. (2008). Conceptos de Administración Estratégica (Decimoprimera edición ed.). ISBN: 978-970-26-1189-9. Pearson Educación. México 17. Fundibeq. (2005). Modelo iberoamericano de excelencia en la gestión. Fundación Iberoamericana para la Gestión de la Calidad. Madrid, España Retrieved from http://cmap.upb.edu.co/rid=1191526145890_1017099740_752/MODELO%20IBEROAMERIC ANO%20DE%20EXCELENCIA%20EN%20GESTION%202005%20.pdf 18. Galarza López, Judith. (2007). Modelo para evaluar la gestión de los procesos de planificación estratégica, conformación y evaluación de los objetivos de las Instituciones de Educación Superior adscritas al Ministerio de Educación Superior. . (Tesis para optar por el Grado de Doctor en Ciencias.). CEPES, Universidad de la Habana, Cuba. 19. Gómez, Nadia. (2011). Modelo de dirección estrategica universitaria aplicado a la aldea “Ezequiel Zamora”. (Tesis en opción al título académico de Máster en Dirección). Centro de Estudios de Dirección Empresarial, Facultad de Ingenieria Industrial y Turismo. Universidad Central Marta Abreu, Cuba. 20. Guerrero Ramos, Rosalía., Hernández Ruíz, Alma., & Antúnez Saíz, Vivian. (2012). Diseño estratégico de la universidad de la habana. metodología aplicada para 2012-2015. Cofin Habana. ISSN: 2073-6061 Cuba 21. Guijarro de Chávez, Mayra., & Chávez Sanchez, Jorge. (2006). Ética y gerencia universitaria. Revista Venezolana de Gerencia, Vol. 11, No. 34. ISSN: 1315-9984. Venezuela 22. ISO-9001. (2015). Sistemas de Gestión de la Calidad — Requisitos. Ginebra: International Organization Standardization. 23. ISO-21001. (2018). Organizaciones educativas — Sistemas de gestión para organizaciones educativas — Requisitos con orientación para su uso. Ginebra: International Organization Standardization. 24. Llanos de la Hoz, Silvio. (2000). Hacia una nueva gestión exitosa de las Universidades Nacionales. Paper presented at the Taller Editorial de la Universidad Experimental Simón Rodríguez, Caracas, Venezuela. 25. Lopera Palacio, Carlos M. (2004). Antinomia, dilemas y falsas premisas que condicionan la gestión universitaria. Revista Mexicana de Investigación Educativa., Vol. 9, No. 22. México 26. Marrero Arias, Roberto. (2005). Metodología para Gestión ambiental en Instituciones de Educación Superior. . (Tesis presentada en opción al título académico de Máster en Gestión Ambiental). Universidad de Holguín Oscar Lucero Moya, Holguín. 27. Ministerio de Educación Superior, Consejo de dirección. (2019). Proyecto estratégico del Ministerio de Educación Superior. Editorial Poligráfica Félix Varela. La Habana, Cuba. etrieved from URL|. 28. Narváez, Jorge L. (2008). La universidad y su gestión. . Gestión Universitaria, Vol. 1, No. 1. ISSN: 1852-1487. 29. Ortiz Pérez, Aniuska. (2014). Tecnología para la gestión integrada de los procesos en las universidades. Aplicación en la Universidad de Holguín. . (Doctorado en Ciencias Técnicas). Departamento de Ingeniería Industrial. Universidad de Holguín, La Habana, Cuba. 30. Padilla, R. (2006). La Gestión del cambio: El caso de la Universidad de Guadalajara. Paper presented at the Presentación del curso IGLU 2006, Guadalajara, México. 31. Rodríguez Varela, Dianni., De León Lafuente, Lourdes., & Galarza López, Judith. (2015). Metodología para la planificación estratégica en la Universidad de Cienfuegos. Folletos Gerenciales, Vol. XIX, No. 2. ISSN: 1817-1788. Cuba 32. Shu-Hsiang, Chen., Jaitip, Nasongkhla., & Donaldson, Ana. (2015). From vision to action – a strategic planning process model for open educational resources. Procedia - Social and Behavioral Sciences. Sakarya University. 33. Stassen, Ruud. (2017). The new ISO standards on management systems & the EFQM excellence model. EFQM Leading Excellence. Retrieved from http://www.efqm.org 34. Tejedor, Pastor. (2013). Comparación de los modelos de evaluación de la excelencia empresarial. Tourism & Management Studies, Vo. 4. ISSN: 2182-8458 Universidade do Algarve Faro, Portugal 35. Tristá Pérez, Boris. (2001). Administración universitaria. Módulo 1: La gestión en las universidades. CEPES, Universidad de La Habana. Cuba. Retrieved from www.researchgate.net 36. Tristá Pérez, Boris. (2007). Contribuciones teórico-metodológicas y aplicaciones prácticas para el desarrollo de la Gestión Universitaria como campo de estudios. . (Tesis en opción al grado científico de Doctor en Ciencias.). Universidad de La Habana, Cuba. 37. Valdez Zepeda, Andrés., Orozco Alvarado, Javier., De León Arias, Adrian., & Castillo Girón, Víctor M. (2011). Gestión universitaria y procesos de aprendizaje para la calidad educativa: el caso del CUCEA de la Universidad de Guadalajara. 978-0-9908236-7-4. Sexto Congreso Nacional de Educación Turística CONAET-AMESTUR. México 38. Véliz Briones, Vicente F. (2017). Modelo de gestión por procesos para asegurar la calidad de la universidad. (Doctorado en Ciencias Técnicas). Universidad Técnica de Manabí Ecuador. 39. Villa González del Pino, Eulalia M. (2006). Procedimiento para el control de gestión en instituciones de educación superior. (Tesis presentada en opción al grado científico de Doctor en Ciencias Técnicas). Universidad Central “Marta Abreu” Cuba. Riesgo e inocuidad dos elementos importantes para una entidad productora de alimentos Risk and safety two important elements for a food producing entity Jesús Julián Corredeira Valdivieso1, Danisel González Nardo2, Rosario Garza Rios3. 1 GMA Wajay 2,3 Facultad de Ingeniería Industrial, Universidad Tecnológica de la Habana José A. Echeverría Calle 114 No 11901 entre Ciclo Vía y Rotonda. Marianao, La Habana, Cuba. E mail: garzaris2015@gmail.com RESUMEN El alimento constituye una necesidad inherente al ser humano, quien tiene el derecho de ingerirlo sano y apto para el consumo. Los mismos son la fuente principal de exposición a agentes patógenos, tanto químicos como biológicos (virus, parásitos y bacterias), a los cuales ninguna persona es inmune. Las enfermedades transmitidas por estos son una importante causa de morbilidad y mortalidad en todo el mundo, aspecto que resulta de particular importancia en estos momentos. Mientras que el riesgo alimentario: es la probabilidad de que aparezca algún peligro físico, químico, biológico y alérgeno que en combinación con la severidad del daño puedan causar en el consumidor un incidente. Considerar en el diseño de un procedimiento de gestión ambos conceptos para una entidad productora de alimentos es un aspecto que ha adquirido especial significación, objetivo que se persigue con el presente trabajo, en el cual se presenta un novedoso procedimiento para la gestión del riesgo que garantiza la evaluación cuantitativa del riesgo y la inocuidad para una mejor toma de decisiones. PALABRAS CLAVES: riesgo, inocuidad, producción alimentaria, toma de decisiones ABSTRACT Food is an inherent need for human beings, who have the right to eat it healthy and fit for consumption. They are the main source of exposure to pathogens, both chemical and biological (viruses, parasites and bacteria), to which no person is immune. Diseases transmitted by these are an important cause of morbidity and mortality throughout the world, an aspect that is of particular importance at this time. While the food risk: is the probability that some physical, chemical, biological and allergen hazard will appear that, in combination with the severity of the damage, can cause an incident in the consumer. Considering both concepts in the design of a management procedure for a food producing entity is an aspect that has acquired special significance, an objective that is pursued with the present work, in which a novel procedure for risk management is presented that guarantees Quantitative risk and safety assessment for better decision making. KEYWORDS: risk, safety, food production, decision making 1. INTRODUCCIÓN El riesgo es un elemento consustancial a la propia actividad de la organización y en sus diferentes manifestaciones está presente en cualquier tipo de actividad; en la mayor parte de los casos no es posible establecer mecanismos para su completa eliminación, por lo que se hace imprescindible gestionarlo de forma adecuada. Según la norma ISO 9001:2015 el pensamiento basado en riesgos permite a una organización determinar los factores que podrían causar que sus procesos y su sistema de gestión de la calidad se desvíen de los resultados planificados, para poner en marcha controles preventivos que minimicen los efectos negativos y maximicen el uso de las oportunidades que surjan. (ISO, 2015) Actualmente existe un notable aumento en los requisitos de garantía de Inocuidad Alimentaria para todos los productos alimenticios. Evaluar la calidad y sus respectivos procedimientos para garantizar la inocuidad alimentaria a lo largo de la cadena productiva se ha convertido en un tema prioritario dentro de las políticas de Estados en el mercado internacional principalmente. La producción de alimentos inocuos en la industria nacional y mundial es una temática que ha cobrado gran importancia debido a la necesidad de producir y consumir alimentos que contemplen prácticas que garanticen la salud de toda una población. La temática central de este trabajo consiste en el análisis del riesgo, una herramienta utilizada por los expertos quienes la definen como un “instrumento que ha tomado auge en la última década, en función de aportar soluciones sólidas y coherentes a los problemas de inocuidad de alimentos” (Alfonso, 2010) y el análisis de la inocuidad con el fin de prevenir la contaminación para reducir el riesgo de enfermedades transmitidas por los alimentos y garantizar los productos más seguros posibles. 2. RIESGO E INOCUIDAD EN LA PRODUCCIÓN DE ALIMENTOS. En la actualidad la industria de los alimentos requiere un enfoque integrado y profesional para el desarrollo del negocio, para así asegurar la satisfacción del cliente, la calidad y la inocuidad de los productos y procesos. La elaboración de productos alimenticios inocuos necesita que el sistema de garantía de inocuidad se edifique sobre cimientos sólidos. La implementación de un sistema de Análisis de Peligros y Puntos de Control Críticos, HACCP por sus siglas en inglés (Hazard Analysis and Critical Control Points), actualmente constituye un sistema fundamental para cumplir con estos requisitos de inocuidad, e idealmente debería vincularse a un sistema de gestión de la calidad integral. Todos esos sistemas, que son útiles para prevenir o eliminar la ocurrencia de peligros que afecten la inocuidad de un alimento, requieren ejecutar estrictos controles en todos los procesos que abarca la producción de un alimento. Para ello se requiere que la organización realice una correcta gestión de todos los recursos que posee, a través de una visión integradora, ya que sólo es posible lograr alimentos inocuos si este es un compromiso común de todas las áreas de la empresa, no sólo de producción o calidad. Si se trabaja de forma aislada con esos sectores sin incluir los demás es muy probable que los resultados sean desfavorables. Las industrias alimentarias a nivel internacional realizan, de forma constante, importantes inversiones en investigación, desarrollo e innovación a fin de aumentar su eficiencia productiva y dar respuesta a la demanda de alimentos seguros y saludables. En muchos casos el desarrollo de nuevas tecnologías implica la aparición de riesgos para la seguridad de los alimentos, ya que se implementan nuevos procesos donde los alimentos son expuestos a condiciones de tratamiento y procesamiento diferentes a las que conllevan los procesos de producción tradicionales. Sin embargo, las nuevas tecnologías y procesos jamás deben hacer disminuir la seguridad de los alimentos, ya que si los sistemas de gestión de la calidad e inocuidad están correctamente implementados eso asegura que todos los procesos dentro de la organización se encuentren controlados. En la actualidad un grupo importante de autores (Cienfuegos Spikin, 2009), (ISO, 2018), (Ministerio de Justicia, 2011), (Lyon & Hollcroft, 2012), (Bolaño Rodríguez, 2014), (Melo Crespo, 2015), (ISO, 2018) coinciden en que el análisis de riesgos es fundamental para garantizar una práctica apropiada de los procesos de una organización; sin embargo, son escasos los precedentes, en la literatura científica consultada, sobre la aplicación del método de gestión de riesgos de forma tal que se logre una evaluación cuantitativa de los riesgos y de la inocuidad. Aspecto que se encuentra presente en la organización objeto de estudio, siendo este el motivo para la realización del presente trabajo en el cual se aborda un diagnóstico del análisis de riesgo e inocuidad de la empresa. 3. DIAGNÓSTICO DEL ANÁLISIS DE RIESGO E INOCUIDAD EN UNA ENTIDAD PRODUCTORA DE CÁRNICOS Y EMBUTIDOS. En la figura 1 se muestra el modelo de diagnóstico diseñado para realizar el análisis de la entidad: Figura.1 Modelo de diagnóstico Fuente. Elaboración propia. En el presente trabajo solo se abordará la etapa 3 del modelo. Análisis de las No conformidades. A continuación, se hace un análisis de las no conformidades ocurridas en la entidad en el período del 2021, un estudio de las causas y subcausas que provocan las no conformidades en los tachos, punto crítico en la producción de embutido siendo este el producto que presenta la demanda más alta. En la figura 2 se muestra el comportamiento de las principales causas que suscitaron productos no conformes ocurridas en el tacho. Figura 2. Comportamiento de las principales causas de las salidas no conformes. Fuente. Elaboración propia con los datos aportados por la organización. Rotura de la funda 40% Retención de líquido 35% Problema s de cocción 25% % La causa más frecuente que motiva la salida de productos no conformes son las roturas de las fundas en el área de cocción con un valor del 40%, seguida por la retención de líquido con un 35% de ocurrencia. Dados estos resultados en este trabajo se analizaron las subcausas que originan dichos resultados. En la tabla 1 se muestran la cantidad de no conformidades presentes en los productos. Tabla 1. Cantidad de No conformidades. Fuente. Elaboración propia con los datos aportados por la organización. Estos resultados se grafican en la figura 3 en la cual se muestran se muestra el comportamiento de cada una de las causas en porciento que provoca la rotura de las fundas, de retención de líquido y las causas que suscitan problemas de cocción, aunque este es el que menos afecta la calidad del producto. Figura 3. Comportamiento de las causas que provocan rotura de fundas, la retención de líquido y los problemas de cocción. 7 Falta de preparación Equipos de medición no verificados 36 11 11 9 5 Falta de control de las variables tiempo y temperatura Insuficiente mantenimiento de equipos Problemas de cocción 50 15 8 10 10 Deficit de aditivosDeficiente mezclado Retención de líquido Subcausas Elevada Temperatura 17 12 6 Causa principal Violación de los tiempos de mezclado Violación del orden de adición Mala calidad de las fundas vencidas o porosas Exceso de presión por parte del operario Sobrecalentamient o de la temperatura Rotura de las Fundas Falta de preparacion del operario 58 23 Fuente. Elaboración propia con los datos aportados por la organización. La causa más frecuente que influyó en la rotura de las fundas en el área de cocción fue el sobrecalentamiento de los tachos representando un 30%, seguido por el exceso de presión con un 22%. Mientras que en la retención de líquido la causa fundamental es el deficiente mezclado en la elaboración del preparado con un 26%, seguido por las violaciones del orden de adición en la elaboración de la emulsión y de los tiempos de mezclado o velateo ambos con porcientos aproximado al 20%, estos dos últimos se pueden clasificar como una violación en el procedimiento establecido para la elaboración de los embutidos. Las causas que influyeron en la aparición de los problemas de cocción en los embutidos son el insuficiente mantenimiento de equipos, de los tachos, y la falta de control de las variables tiempo y temperatura en el horario nocturno ambas con un 30,5%, esta última se puede considerar como una violación en el procedimiento. Análisis del plan HACCP. Para desarrollar este paso del modelo de diagnóstico se diseña una lista de chequeo para evaluar el cumplimiento de los requisitos de la NC ISO 136:2017 Sistema HACCP (ISO, 2017) la lista de chequeo fue respondida por la especialista de Gestión de la Calidad de la empresa objeto de estudio, los resultados obtenidos del procesamiento de la lista se presentan en la tabla 2. Tabla 2. Resultados del análisis del sistema HACCP. Requisitos totales Cumple No cumple % Cumplimient o Requisitos previos 9 9 100% Requisitos del sistema HACCP 20 20 100% Fuente. Elaboración propia. La empresa objeto de estudio cumple en su totalidad con los requisitos revisados para certificar el cumplimiento de la NC ISO 136:2017, por lo que se puede decir que en este momento la organización no presenta problemas en la aplicación del sistema HACCP. Análisis de los puntos críticos de control. En las entidades productoras de alimentos es muy importante tener bien definidos e identificados los puntos críticos de control, pues son aquellos donde existe peligro de cometer alguna violación que afecte la inocuidad del producto y por ende la salud del consumidor y su satisfacción. Para identificar los puntos críticos de control (PCC) se analizan los peligros evaluados como significativo, se emplea el árbol de decisiones de la NC 136:2017 y en los criterios de los miembros del equipo de inocuidad alimentaria (EIA). En la tabla 3 se ven las referencias que se establecen para cada límite crítico, así como las medidas de control y el resultado y cumplimiento de las misma. Tabla 3– Referencias para los Límites Críticos. Medidas de Control Limite Critico Cumplimiento y Acciones Requisitos de higiene de las materias primas No se aceptaran alimentos no aptos para el consumo humano No se presentaron peligros que incidieran en la inocuidad del producto Concentración solución de hipoclorito: 2 ppm. Tiempo de desinfección de ≥ 1 min. Se comprueba la concentración de cloro residual y se realizó hisopaje al cerdo en banda Almacenamiento y conservación de las canales, las bandas, las Refrigerada: Temperatura de 5 °C Máximo / 4 días Cumplido, se controla a través de los registros correspondientes piezas y la carne deshuesada del cerdo Congelada: Temperatura de -12 °C Máximo / 6 meses Almacenamiento y conservación de subproductos comestibles refrigerados de cerdo Se mantienen a una temperatura interna de no menos de – 1,5 °C y no más de +7 °C en el almacenamiento posterior a su proceso de refrigeración. Cumplido, se controla a través de los registros correspondientes Almacenamiento y conservación de productos terminados refrigerados de cerdo El producto se almacenará en refrigeración de 0 a 6ºC, siempre que no se comprometa su inocuidad y se pueda demostrar la misma. Cumplido. Se controla a través de los registros correspondientes Almacenamiento y conservación de productos cárnicos conformados y Picadillo Los productos se almacenarán en congelación a -18ºC y no excederá los 5ºC para productos refrigerados, teniendo en cuenta siempre que no se comprometa su inocuidad. Cumplido, Se controla a través de los registros correspondientes Preparación de salmueras Preparación de salmuera (temperatura máxima 7 °C): - Inyección 12-14°Be - Inmersión≥14°Be Cumplido, Se prepara por parte del Equipo Técnico y los Operarios Integrales, dejándose registro de la acción. Tiempo de curado Tiempo de cura húmeda de 72 a 120 horas. Cumplido, se controla a través de los registros correspondientes Cocción y ahumado Temperatura de los hornos - Secado previo de 50 a 60 °C - Temperatura de ahumado de 90 a 95 °C. Cumplido, se controla a través de los registros correspondientes Cocción embutidos - Tiempo de cocción = 3.0 horas, excepto para Chorizo de 1.5 – 3.0 horas. - Temperatura de cocción 85 - 90ºC. Temperatura interior del producto mínimo 72ºC NEFA 001 a 005:2018 Norma de proceso tecnológico de embutidos Cocción masa de croqueta - Tiempo de cocción de 15 -20 minutos. Temperatura de cocción hasta alcanzar el producto 70 - 75ºC NEFA 008:2018 Norma de proceso tecnológico de Masa de croqueta Tiempo de transportación de productos cárnicos Tiempo de transportación en Transporte cerrado o isotérmico (no exceder de 2 horas) y refrigerado (de acuerdo al tiempo de transportación). No se presentaron peligros que incidieran en la inocuidad del producto, los recorrido no exceden de 2 horas Fuente. Elaboración propia con los datos aportados por la organización. Con las medidas tomadas para controlar los límites críticos se ha logrado el cumplimiento de los mismo. Análisis de la inocuidad, riesgo y oportunidades. Se realiza un análisis del procedimiento de riesgos que presenta la entidad objeto de estudio, a partir de una profunda comparación con los procedimientos identificados en la bibliografía. En la tabla 4 se muestran los resultados obtenidos de la comparación entre los distintos procedimientos. Tabla 4– Comparación entre el procedimiento de riesgo de la bibliografía y el empleado en la entidad. Elementos Procedimiento de la UAM Evidencias Proporcionar información para facilitar la supervisión del riesgo X Se llevan registros mediante actas de las reuniones del Comité de Prevención y Control, y los Formatos propuestos. Construir en sentido de inclusión y propiedad entre las personas afectadas por el riesgo. X Para la correcta realización del procedimiento, cada dirección, Unidad Básica o Procesos, selecciona su equipo de trabajo encabezado por un responsable e integrando a los trabajadores de cada área o actividad. Retroalimentación de los participantes. X Se realizan entrevistas y encuestas, que permiten establecer un proceso de comunicación, para obtener la información deseada. Definición del alcance. X Se aplica a todos los procesos y en toda la EAMOH. Definir el contexto externo X En el epígrafe 5.2.1.1 Se reconocen los factores externos relacionados con los cambios que pueden ocurrir en el entorno de empresa. Definir el contexto interno X En el epígrafe 5.2.1.2 se reconocen los factores internos relacionados con el funcionamiento de los procesos y actividades propias de la entidad. Identificar las incertidumbres. X Se tiene en cuanta los factores que puedan influir. Ejemplo: Cambios en el entorno. Descubrir los riesgos que pueden ayudar o impedir a la organización lograr sus objetivos. X En el epígrafe 5.2.2.2 se identifican las situaciones peligrosas, peligros y riesgos de la organización. Establecer la posibilidad de ocurrencia estimada del riesgo X En el epígrafe 5.3.1 se estima la frecuencia de ocurrencia de cada riesgo referido a los intervalos de tiempo en que los mismo ocurren y estos datos quedan registrados. Determinación del impacto del riesgo X En el epígrafe 5.3.2 se determinará el nivel de las consecuencias de cada riesgo, atendiendo al grado de afectación que provoca su impacto. Determinación de la probabilidad de detección de los riesgos X En el epígrafe 5.3.3 se determina el nivel de detección de los riesgos. Se evalúa la capacidad de los controles existentes de las áreas evaluadas para detectar los riesgos antes de su ocurrencia. Clasificar los riesgos, atendiendo a su valor X En el epígrafe 5.3.4 la evaluación de riesgos se calcula con una formula y esos datos se registran en la Tabla Resumen de Riesgos. Definir el nivel de susceptibilidad de la entidad X En el epígrafe 5.3.5 se hace un análisis del nivel de riesgo para determinar la posibilidad de ocurrencia. En el epígrafe 5.4 se determina el nivel de prioridad de los riesgos, donde se presentan las escalas para determinar el nivel de prioridad. Diseñar, seleccionar e implantar medidas para modificar el nivel de riesgo estimado. X Una vez determinado el nivel de prioridad se procede a la determinación de medidas. Elaboración de un Plan de Prevención de Riesgos por áreas, actividad o procesos de la Empresa. En su elaboración se identificarán los riesgos, posibles manifestaciones negativas; medidas a aplicar; responsable; ejecutante y fecha de cumplimiento de las medidas. Establecer los controles a realizar. X En el epígrafe 5.6 se aprecia las formas a través de los cuales se lleva a cabo la actividad de control. Seguimiento de los riesgos a monitorear de manera regular. X En el epígrafe 5.5 se tiene en cuenta la relación de los riesgos a los cuales se les quiere dar seguimiento. Comunicar interna: Relación entre los diferentes niveles de dirección de la organización con los trabajadores. X Se realiza la Asamblea de Afiliados, donde se informa a los trabajadores los resultados del Chequeo del Plan de Prevención de Riesgos. Se analiza en los Consejos de Dirección de Riesgos chequeados en el trimestre con resultados negativos y se tomarán los acuerdos pertinentes para solucionar las deficiencias detectadas. Comunicación externa: Existencia de una política adecuada entre la alta dirección de la entidad y las partes externas interesadas. X Se entrega mensualmente el Plan de Prevención de Riesgo al especialista de Planificación y Control de la UEB. Fuente. Elaboración propia. En el análisis de los 18 elementos formulados, a partir del procedimiento confeccionado, se puede observar que el procedimiento que emplea la empresa cumple en su totalidad con los pasos establecidos en la norma ISO 31000, así como lo recomendado en la bibliografía. Llegando a la conclusión que el procedimiento de la entidad responde a las actividades básicas del proceso de gestión de riesgos. La entidad objeto de estudio cuenta con 8 procesos definidos dentro de los cuales están identificados un total de 119 riesgos. Estos riesgos son evaluados para determinar el nivel de prioridad y de esta forma decidir cuáles son los riesgos que hay que controlar y que deben estar en el plan de prevención para proponer las medidas a aplicar para erradicarlos o controlarlos. Para la identificación, evaluación y clasificación de los mismos se emplea la herramienta AMFE la que nos permite determinar el nivel de prioridad de los riesgos identificados. En la tabla 4 se muestran los resultados obtenidos al emplear dicha herramienta. Tabla 4– Cantidad de riesgos. Proceso Nivel de Prioridad Bajo Moderado Alto Gestión de la Dirección 7 10 - Provisión de Recursos 4 5 - Gestión Económica-Financiera 7 6 1 Producción de Productos Cárnicos 5 4 1 Comercialización - 4 2 Gestión de la Calidad e Inocuidad 2 5 - Gestión del Capital Humano 3 2 1 Infraestructura 1 11 1 Total 29 47 6 Fuente. Elaboración propia con los datos aportados por la organización. En el estado del tratamiento de los riesgos en el centro se evidenció que la organización identifica y evalúa los riesgos de Gestión de la Calidad e Inocuidad de los Alimentos, pero lo realiza de forma independiente utilizando también distintos modelos para su registro (HACCP y AMFE). Además, se observa que los planes para la reducción y eliminación de dichos riesgos se realizan también de forma independiente, lo que permite concluir que el centro gestiona y dirige sobre la base de los riesgos identificados de forma independiente. Se analizan las mejores alternativas y estrategias a aplicar para lograr la eficiencia y la eficacia en los procesos que agregan valor al resultado obtenido finalmente. Para ello se utilizaron como referencia los documentos proporcionados por la entidad con fecha del mes de enero de 2022. En el caso de la identificación de riesgos y la existencia de peligros o no que tienen una influencia significativa en la calidad, el ambiente, la seguridad y salud del trabajo, inocuidad, energía y el control interno, se recopiló la siguiente información de riesgos altos: • Errores, omisión y/o datos incompletos en auditorías internas por: - Información errada suministrada por el auditado. - Información errada suministrada por el auditor al equipo consolidador. • Sistemas de información susceptibles de manipulación o adulteración por: - No foliar la documentación establecida. - No realizar revisión de los documentos primario. - Asentar datos incorrectos en los registros de control de los procesos. • Débil gestión del riesgo por: - Deficiente trabajo del Comité de Prevención y Control - Falta de Interés. - Desconocimiento de las normas vigentes en la materia. - Falta de acciones sistemáticas de seguimiento y monitoreo al Plan de Prevención de Riesgos. - Desconocimiento por parte de los trabajadores de la metodología de gestión del riesgo. - No considerar el autocontrol como una de las medidas del Plan de Prevención de Riesgos. Una vez clasificados los riesgos por procesos, evaluados y determinado el nivel de prioridad asignado a los mismos, se determinan los objetivos de control y se conforma el Plan de Prevención, para definir el modo en que habrán de gestionarse. Este plan se estructura por los procesos de la empresa. En su elaboración se identificarán los riesgos, posibles manifestaciones negativas, medidas a aplicar, responsable, ejecutante y la fecha de cumplimiento de las medidas. Los riesgos clasificados con un nivel de prioridad alto pasan directamente al plan de prevención, los moderados se evalúan en considerando por parte del equipo, mientras que los clasificados de bajo no resultan de gran preocupación para el centro. En la tabla 5 se muestra el resumen del Plan de Prevención y los resultados de las medidas a aplicar. Tabla 5– Cantidad de riesgos. Proceso Cantidad de Riesgos Cantidad de medidas a aplicar Muy Alto Alto Tolerable Total Gestión de la Dirección - 6 1 7 11 Provisión de Recursos - 5 0 5 7 Gestión Económica-Financiera - 6 4 10 22 Producción de Productos Cárnicos - 4 1 5 12 Comercialización - 4 2 6 13 Gestión de la Calidad e Inocuidad - 3 2 5 13 Gestión del Capital Humano - 2 1 3 6 Infraestructura - 6 6 12 26 Total - 36 17 53 110 Fuente. Elaboración propia con los datos aportados por la organización. Problemas detectados. Violación en el proceso productivo que afectan la inocuidad (tiempo de adición, tiempos de mezclado y no control de las variables tiempo y temperatura) El Sistema Integrado de Gestión está conformado por los sistemas de Calidad e Inocuidad, no obstante, los procedimientos para la evaluación, identificación y control de los riesgos y peligros se realizan de forma independiente. 4. CONCLUSIONES El modelo diagnóstico diseñado permitió identificar una serie de deficiencias entre las que se encuentran: - Violaciones en la aplicación del procedimiento productivo que inciden directamente en la calidad e inocuidad de los alimentos que se producen. - El sistema HACCP es compatible con otros sistemas de control de calidad; esto significa que inocuidad, calidad y productividad pueden abordarse en conjunto, resultando en beneficios para los consumidores, no obstante, en la entidad objeto de estudio dicho sistema no se ejecuta dentro del sistema empleado. RECONOCIMIENTOS Los autores agradecen la participación de especialistas que conformaron el grupo de trabajo de la GMA Wajay. REFERENCIAS Bolaño Rodríguez, Y. (2014). Modelo de Dirección Estratégica basado en la Administración de Riesgos. La Habana, Cuba. Cienfuegos Spikin, I. J. (2009). Risk Management, the integrated perspective. A model that can contribute to full fit the goals of modern Municipalities. Polytechnical Studies Review, 16. ISO. (2015). SIstemas de Gestión de la Calidad - Requisitos. ISO. (2017). Sistema de Análisis de Peligros y de Puntos Críticos de Control (APPCC/HACCP) - Requisitos. ISO. (2018). Gestión del Riesgo - Directrices. ISO. (2018). Sistemas de gestión de la inocuidad de los alimentos - Requisitos para cualquier organización en la cadena alimentaria. Lyon, B. K., & Hollcroft, B. (2012). Evaluaciones de riesgos: Las 10 deficiencias principales y consejos para mejorar. Melo Crespo, J. (2015). Gestión de riesgos en la Organización: Teoría y práctica. La Habana, Cuba: Academia. Ministerio de Justicia. (2011). Resolución No. 60/2011. Gaceta Oficial de La República de Cuba. sobre los autores Jesús Julián Corredeira Valdivieso licenciado en veterinaria, Jefe de Grupo de Producción de la GMA Wajay. Estudiante de la maestría de la Calidad Total. Danisel González Nardo estudiante de 4to año de la carrera Ingeniería Industrial. MEJORA DEL PROCEDIMIENTO DE COSTOS DE CALIDAD EN UNA ENTIDAD PRODUCTORA DE ALIMENTOS IMPROVEMENT OF THE QUALITY COSTS PROCEDURE IN A FOOD PRODUCING ENTITY Orailys Fraga Hernández1, Rosario Garza Rios2, Alejandro González Gordillo3 1 GMAI Wajay 2,3 Facultad de Ingeniería Industrial, Universidad Tecnológica de la Habana José A. Echeverría Calle 114 No 11901 entre Ciclo Vía y Rotonda. Marianao, La Habana, Cuba. E mail: garzaris2015@gmail.com RESUMEN En la actualidad la producción de alimentos ha adquirido especial importancia dada la crisis económica derivada de la situación epidemiológica que atravesado el mundo por la COVID 19. Incluir en el sistema contable de la empresa los costos de calidad es una actividad imprescindible para el buen desempeño de la organización. En la entidad objeto de estudio se calculan los costos de calidad. Sin embargo, no se utilizan como instrumento de gestión para evaluar el impacto que estos pueden tener sobre los costos totales de producción. En el presente trabajo se realiza un análisis de los costos de calidad y su incidencia en el sistema contable, así como se diseña un procedimiento que garantiza el cálculo, análisis y gestión de los mismos para lograr la mejora del desempeño de la entidad y se utilice como herramienta para fundamentar la toma de decisiones. PALABRAS CLAVES: costos de calidad, sistema contable, producción de alimentos. ABSTRACT At present, food production has acquired special importance given the economic crisis derived from the epidemiological situation that the world has experienced due to COVID 19. Including quality costs in the company's accounting system is an essential activity for the good performance of the company. the organization. Quality costs are calculated in the entity under study. However, they are not used as a management tool to assess the impact they may have on total production costs. In the present work, an analysis of the quality costs and their incidence in the accounting system is carried out, as well as a procedure that guarantees the calculation, analysis and management of the same to achieve the improvement of the entity's performance and is used. as a tool to support decision making. KEY WORDS: quality costs, accounting system, food production. 1. INTRODUCCIÓN En la actualidad para que las empresas puedan sobrevivir e introducirse en los mercados globalizados considerar dentro de sus procesos la mejora en su calidad y productividad, las empresas deben ejecutar acciones tendentes a atacar las causas de sus diversos problemas y deficiencias. Los costos de calidad son una poderosa herramienta para el incremento de la competitividad de la empresa, pues permite satisfacer las necesidades de los clientes a través del incremento de la calidad de los productos y una utilización más eficiente de los recursos tecnológicos, humanos y financieros. La medición de los costos de calidad se centra en la atención a los elementos que provocan grandes gastos, posibilita detectar donde se podría ayudar a reducir gastos, facilita medir el desempeño y constituye una base para la comparación interna entre productos, servicios, procesos, departamentos y externa con la competencia. Estos costos son un arma para las áreas de Calidad y Contabilidad, al asignar un costo a la calidad este debe ser administrado y controlado como cualquier otro costo. Al expresar la calidad en términos contables ofrece un medio muy poderoso de comunicación y control. En Cuba ha existido un aumento considerable del delito económico, por lo que el Estado ha venido adoptando una serie de regulaciones para lograr una mayor efectividad y control en los sistemas de gestión. Evidencia de ello es el Decreto Ley 252/07 del Consejo de Estado, el cual se implementó mediante el Decreto No. 281 con el nombre de “Reglamento para la implantación y consolidación del sistema de dirección y gestión empresarial estatal”. En el cual se pretende alcanzar un significativo cambio organizativo al interior de las empresas, gestionando integralmente los sistemas que la componen garantizando de forma ordenada realizar las transformaciones necesarias con el objetivo de lograr la máxima eficacia y eficiencia en su gestión integral. En el Artículo 625 del referido decreto se establece que: las empresas deben implantar un sistema de costo de calidad como parte integrante de su sistema de costo, con el fin de facilitar la toma de decisiones a los dirigentes de la empresa, sobre aquellos que tienen mayor impacto económico, a fin de que se actúe sobre ellas. A pesar de esto, el tema de los costos de la calidad en el territorio nacional no está enraizado en la cultura empresarial y ha sido poco tratado. No obstante, se pueden destacar varias publicaciones que abordan la importancia y clasificación de los costos de calidad y algunas aplicaciones sobre todo en empresas del turismo, Etecsa, la industria alimentaria, la industria química y del petróleo. (Gómez et al, 2019) La implementación de las normas ISO 9000:2015 e ISO 9001:2018 sobre los sistemas de Gestión de la Calidad, la ISO 9004:2018 Gestión para el éxito, así como la emisión de la resolución 60/11 de la Contraloría General de la República, sobre las Normas del Control Interno denotan la importancia que el estado cubano le ha dado a los temas relacionados con el control y la calidad. El control y la mejora de la calidad son dos componentes interconectados de gran impacto en la satisfacción del cliente en la industria alimentaria. El continuo rechazo de productos terminados, la separación de productos y retiro de productos tienen serias implicaciones financieras, que ponen en riesgo la imagen de la empresa y la confianza pública. En este sentido el peldaño más bajo en la escala del control de calidad de los alimentos es el uso de los mecanismos de inspección. La detección de fallas o defectos al final de la línea producción, una costosa técnica de control de calidad ya que los productos defectuosos se identifican demasiado tarde en el proceso. Sin embargo, se plantea que la mayoría de las empresas de la industria alimentaria no reconocen el hecho de que se necesitan cambios en sus prácticas de gestión de procesos, por lo tanto, se ve como una industria conservadora con relación a la mejora de la calidad. En la práctica contable existen diversas actividades que son diferentes de una empresa a otra. Las diferencias están dadas fundamentalmente por la libertad de los contables dentro de los “principios contables generalmente aceptados”. Sin embargo, en el diseño de los sistemas contables de las empresas no se contempla la identificación de los costos de calidad, razones por las cuales la alta gerencia es sensible a los costos globales de la producción, y no a los de calidad. Controlar los costos de calidad es un aspecto esencial para garantizar que cada día nuestras empresa sean más eficientes y competitivas alcanzando los niveles de utilidades deseados, las industrias de alimentos no se encuentran exentas de ello, es por esto que el presente trabajo se realiza en la Granja Agroindustrial “Wajay” en la que se produce cárnicos y embutidos, siendo el objetivo que se persigue analizar el sistema actual de costos incluyendo los costos de calidad y no calidad de sus producciones, con vistas a proponer como se pueden medir. Motivado esto por el impacto directo que estos costos tienen en la sociedad pues al final la mala calidad se refleja en el precio y el nivel de satisfacción del cliente, por lo que se hace necesario entonces establecer un diagnóstico de la entidad objeto de estudio de los costos de no calidad. 2. DIAGNÓSTICO DEL SISTEMA DE COSTOS DE CALIDAD EN LA GRANJA AGROINDUSTRIAL “WAJAY”. En la figura 1 se muestra el modelo de diagnóstico diseñado para realizar el análisis de la entidad objeto de estudio. Figura 1. Modelo de Diagnóstico Fuente. Elaboración propia Dado la importancia que posee la etapa 3 del modelo diseñado en el presente trabajo se aborda de manera más relevante dicha etapa. Una breve descripción de la entidad objeto de estudio se expone a continuación. La Granja Agroindustrial “Wajay” pertenece a la empresa Agropecuaria Militar Oeste Habana (EAM-OH). La misma se ubica en Avenida 203 no. 27820 e/ 290 y Prensa Latina, El Chico, Wajay. Boyeros. La entidad cuenta con la certificación del Sistema Integrado de Gestión (SIG), es una entidad rentable con una trayectoria de plena confiabilidad. La empresa posee un capital humano de 78 trabajadores de ellos 33 vinculados directamente con la producción, dentro de sus producciones fundamentales se encuentran: embutidos, derivados del cerdo, ahumados entre otros para satisfacer el balance de alimento de la FAR fundamentalmente. A continuación se realizan un análisis de cada uno de los pasos que componen la etapa 3 del modelo propuesto. Paso 1. Caracterización y valoración del sistema de costo La UEB “Wajay” cuenta con un procedimiento de Costos de calidad, con este trabajo se propone una mejora del diseño y su aplicación, ya que en la entidad no se registran el 100% de los costos relacionados con la calidad y la no calidad, a pesar de contar con un nomenclador diseñado que tiene incluido los gastos relacionados con la calidad y la no calidad, se cuenta además con un sistema contable automatizado para ello (Versat Sarasola), donde se registran a consideración del Departamento económico los gastos relacionados con el tema los cuales se les da un tratamiento contable como Gastos Indirectos utilizando las cuentas establecidas para ello de acuerdo a su clasificación y se traspasan al final de cada periodo al costo de las producciones, presentándose en los Estados Financieros dentro del Costo de Producción total por surtido distribuyéndose como el resto de los Gastos indirectos sobre la base de cálculo de los ingresos totales, por lo que a nuestra consideración el problema se encuentra en el diseño de los modelos para el control de los gastos relacionados con la calidad y la no calidad haciendo que el flujo informativo no cumple las expectativas para brindar la correcta y completa información necesaria, por lo que no constituye una herramienta eficaz pues existen brechas en el diseño de la documentación que permita una adecuada recopilación de datos. Solo se reciben en el departamento contable documentos primarios: (vales de entrega, facturas de servicios recibidos, producción terminada de productos no conformes, pre nóminas), considerando que la información es insuficiente, en lo relacionado al salario no existe un reporte donde se proporciones datos que reflejen el gasto por este concepto, se realizan auditorías internas y no existe un reporte que refleje el tiempo dedicado a esta actividad, no estando estos gastos incluidos dentro de los costos de prevención de calidad, existe un panel de degustación que dedica diariamente tiempo a esta actividad no estando reportado por lo que estos costos no están incluidos en los costos de evaluación de la calidad, considerando este el problema objeto de la investigación, que es necesario con la mejora propuesta al diseño existente se logre una mayor motivación y se sienta a necesidad de utilizarlo como herramienta de trabajo , puesto que es de gran importancia para el desarrollo de la GAI “Wajay”. Al igual que los estados financieros, el reporte de los costos de calidad contiene datos relevantes que le facilita la aprobación e implementación de acciones de correlación o de mejora para el proceso productivo (Prado-Chaviano;et-al, 2016), considero y coincidiendo con el autor la aplicación del procedimiento de costos de calidad y su implementación aportará a la organización una mejora en el proceso productivo, por tanto incrementará la eficiencia y la eficacia para ello es importante que exista un adecuado procedimiento para el cálculo de los costos de calidad, siendo un ejercicio de grupo, donde los contadores garantizaran a los técnicos y las personas que aseguran la calidad los datos provenientes de los diferentes procesos, aun no existe consciencia sobre el verdadero significado o la dependencia relativa de ciertas cifras a los costos, obviado algunos costos ocultos. Sin embargo, es aconsejable, recordar que los directivos de contabilidad continuamente reciben presiones para que proporcionen toda clase de costos. Para que el cálculo de los costos de la calidad progrese, es necesario que los contables en las empresas estén plenamente convencidos de que se trata de una tarea útil. Paso 2. Costos de calidad Los costos de calidad forman parte integral del costo de producción, estando reflejados en el estado de resultado de la organización, pero no se cuantifican por separado, lo que impide su adecuado control y análisis, dificultando la aplicación de posibles medidas correctivas y el proceso de toma de decisiones. En este procedimiento no está integrado. No se realizan análisis de los costos de calidad que son derivados del proceso productivo, ni se toman en cuenta para la toma de decisiones. Paso 3. Correspondencia entre los costos de calidad y el sistema contable Con se plantea anteriormente en la entidad existe un sistema contable preparado para controlar los costos de producción directos e indirectos incluidos los costos de calidad. En la tabla 1 se muestra los diferentes conceptos vinculados con la calidad incluidos en el sistema contable. Tabla 1. Costos de calidad y sistema contable Fuente: Elaboración propia a partir del clasificador de cuenta del sistema contable automatizado De la tabla anterior se puede concluir que el sistema contable se encuentra preparado para recibir la información necesaria para el cálculo de los cotos de calidad y no calidad, sin embargo, solo el 36% de estos costos se controlan por parte de la entidad. En la figura 2 se muestra una representación gráfica del tratamiento dado a los costos de calidad utilizando para ello los colores del semáforo, donde verde significa que se controlan, amarillo que se controlan parcialmente y rojo que no se controlan. Cuenta Subcuenta Descripción Origen Existencia Dato primario Calculo Observaciones 732 Gastos asociados a la Prevención de la calidad 01 Elaboración y tramites de oferta No . No se controla 02 Elaboración de contratos y documentos No . 03 Revisión de documentos No . 04 Control de la calidad Si Se controla parcialmente 05 Calibración, certificación No No se controla 06 Capacitación y adiestramiento Si Se controla parcialmente 07 Controles, inspección SI Se controla parcialmente 08 Mantenimiento preventivo No No se controla 733 Gastos asociados a la evaluación de la calidad 09 Evaluación de proveedores No No se controla 10 Control de almacenes No 11 Verificaciones e inspecciones Si Se controla parcialmente 12 Auditorías externas Si Se controla parcialmente 734 Gastos Asociados a Fallos Internos de la Calidad 13 Tiempo Inactivo o Perdido No No se controla 14 Reproceso No Figura 2. Comportamiento del control de los costos de calidad Fuente: elaboración propia a partir de los datos que muestra el sistema contable automatizado De la figura anterior se puede concluir que ningún costo asociado a la calidad es controlando, dado fundamentalmente por la no existencia del flujo informativo de los procesos que intervienen en ello lo que provoca que los mismos no se puedan determinar. Siendo el concepto mas afectado los costos de fallos de interno. En el clasificador de cuentas, las cuentas 732, 733 y 734 se encuentran relacionadas con los gastos de calidad, en la misma no se encuentra ninguna subcuenta o acápite relacionados con la inocuidad de los alimentos y los riesgos asociados, como, por ejemplo: costos de productos defectuosos. Paso 4. Valoración y análisis del procedimiento actual El análisis documental realizado arrojo que en la entidad existe un procedimiento para el cálculo de los costos de calidad que se corresponde con lo establecido en la literatura (Ramirez, ), (Romero,2009) y lo establecido en Resolución 252, para la valoración de dicho procedimiento se utiliza una lista de chequeo para analizar el diseño del mismo, en la tabla 2 se muestran los resultados obtenidos del procesamiento de dicha lista. Tabla 2. Lista de chequeo No Actividades a realizar 1 Obtener el compromiso y el apoyo de la alta dirección. si lo cumple 2 Establecer un equipo de costos de calidad, compuesto por personas de las distintas áreas de la organización. no lo cumple 3 Seleccionar el área de la empresa para realizar la prueba piloto. no lo cumple (el jefe del área contable no forma parte del grupo de expertos) 4 Obtener la cooperación y el apoyo de los usuarios de la información sobre los costos de calidad. no lo cumple 5 Definir los costos de calidad y sus categorías, identificarlos y clasificarlos. si lo cumple 6 Diseñar los informes sobre los costos de calidad y los gráficos que mostrarán sus tendencias. Se cumple parcialmente, los informes son elaborados solo por el proceso de calidad. 7 Codificar un sistema para la recogida sistemática de la información y su elaboración. no lo cumple 8 Distribuir los costos de calidad. no lo cumple 9 Ampliar el sistema a todas las áreas de la organización. no lo cumple Fuente. Elaboración propia Como resultado de la lista de chequeo se puede apreciar que de los 9 aspectos que conforman el procedimiento, solo se ejecutan al 100% 2de ellas, representando el 22%, detectándose un conjunto de deficiencias que afectan un adecuado control sobre los costos de calidad. Paso 5. Problemas detectados • Los costos de calidad forman parte integral del costo de producción, estando reflejados en el estado de resultado de la organización, pero no se cuantifican por separado, lo que impide su adecuado control y análisis, dificultando la aplicación de posibles medidas correctivas y el proceso de toma de decisiones. En este procedimiento no está integrado. • No se realizan análisis de los costos de calidad ocasionados dentro del proceso productivo, ni se toman en cuenta para la toma de decisiones. • No existen modelos diseñados donde se recoja el dato primario que faciliten registrar y calcular los costos de calidad por sus diferentes conceptos. • El cálculo y la clasificación de los Costos de Calidad se realiza por los funcionarios del departamento de Normalización Metrología y Control de la Calidad no existiendo integración del departamento de Contabilidad. 3. CONCLUSIONES Las exigencias impuestas a la Industria Cárnica en Cuba y dentro de ella la GMA Wajay, teniendo en cuenta la implementación del sistema de gestión de la calidad, y el sistema contable, requiere de alternativas organizativas que permitan identificar las partidas de costos de la calidad y las oportunidades de mejora para contribuir a la efectividad del proceso productivo. El modelo de diagnóstico diseñado para la GMA” Wajay” permitió determinar: • Que a pesar de contar con un sistema Contable, no se tienen en cuenta los costos relacionados con la inocuidad de los alimentos producidos en la Industria. • No se contabilizan los costos generados por producciones no conformes, o sea sus gastos y costos quedan reflejados en los estados financieros de la entidad dentro de la producción en proceso del producto como una producción apta para su comercialización o consumo. • Los Costos de fallos internos no son controlados. • No existe diseño de modelos que permita un adecuado flujo informativo para la recogida de datos primarios y su posterior cálculo de los costos que afectan la calidad. RECONOCIMIENTOS Loa autores agradecen la participación de especialistas que conformaron el grupo de trabajo de la GMA Wajay REFERENCIAS • Norma NC ISO 9000: 2005.Sistemas de Gestión de la Calidad. Fundamentos y Vocabulario. • Norma NC ISO 9001: 2008.Sistemas de Gestión de la Calidad. Requisitos. • Decreto Ley 252 Sobre la continuidad y el fortalecimiento del sistema de dirección y gestión empresarial cubano (Capítulo VI, artículo 273-276, Pág. 301). • Gómez et al. (2019). Procedimiento para implementación del sistema de costos de la calidad en empresa cárnica cubana. Revista ECA Sinergia, Vol. 10 Nº3, págs. 48-62. • Ramírez, J.R. (2018). Comunicación/Calidad: una relación vital para el mejoramiento de los servicios. Tesis Doctoral, Centro de Estudios de la Economía Cubana, Universidad de La Habana, Cuba. • Romero, E.G. (2009). Costos de calidad, ¿en Cuba? Realidad y necesidad” Oficina Técnica de Normalización, La Habana, 2009 Sobre los autores Orailys Fraga Hernández licenciada en Contabilidad y Finanzas, jefa de grupo de economía y estudiante de la maestría Calidad Total. Alejandro González Gordillo estudiante de 5to año de ingeniaría industrial. ANÁLISIS DE INDICADORES PARA EL MEJORAMIENTO DE LOS PROCESOS CLAVES DE LA EMPRESA DE SERVICIOS PROFESIONALES Y TÉCNICOS (ESAC) Autores: Ing.Noslen Eduardo Jiménez Suárez Dra. María Sonia Fleitas Triana Danay de la Caridad Pedro Olivares RESUMEN En este trabajose realiza el análisis de un conjunto de indicadores estratégicosde la ESACdesde la perspectiva: económico-financiera, de procesos, de clientes y de recursos humanos, profundizando en el análisis de los indicadores de los procesos claves. Inicialmente se describió la situación actual de la empresa y se analizó la información correspondiente al año 2021 determinándose las brechas que permitan identificar las oportunidades de mejoras a los procesos claves y de la eficiencia y eficacia de la organización.Como resultado del análisis fueidentificado que los servicios de Consultoría, Ensayo y Capacitación generan el 76.4 % de las ventas de la organización, también se determinó que el 76 % de los clientes se concentran en los servicios de Capacitación, Ensayo, Consultoría y Auditorias y los servicios de metrología, en el año 2021 de los 9 procesos solo 2 fueron evaluados de eficaz y se cuenta con un índice de personal productivo de 1.50, lo que evidencia un exceso de personal indirecto, todo lo anterior muestra las principales problemáticas que se deben abordar para la mejora continua. PALABRAS CLAVE: Calidad, Proceso; indicador; mejora continua. ANALYSIS OF INDICATORS FOR THE IMPROVEMENT OF THE KEY PROCESSES OF THE PROFESSIONAL AND TECHNICAL SERVICES COMPANY (ESAC) ABSTRACT In this work, the analysis of a set of strategic indicators of the ESAC is carried out from the perspective: economic-financial, processes, clients and human resources, delving into the analysis of the indicators of the key processes. Initially, the current situation of the company was described and the information corresponding to the year 2021 was analyzed, determining the gaps that allow identifying opportunities for improvements to key processes and the efficiency and effectiveness of the organization. As a result of the analysis, it was identified that the Consulting, Testing and Training services generate 76.4% of the organization's sales, it was also determined that 76 % of the clients are concentrated in the Training, Testing, Consulting and Auditing services. and the metrology services, in the year 2021 of the 9 processes only 2 were evaluated as effective and there is a productive personnel index of 1.50, which shows an excess of indirect personnel, all of the above shows the main problems that are must be addressed for continuous improvement. KEY WORDS: Quality, Process; indicator; continuous improvement. 1. INTRODUCCIÓN En la actualidad, es una cuestión innegable el hecho de que las organizaciones se encuentran inmersas en entornos y mercados competitivos y globalizados; entornos en los que toda organización que desee tener éxito (o, al menos, subsistir) tiene la necesidad de alcanzar “buenos resultados” empresariales. Para alcanzar estos “buenos resultados”, las organizaciones necesitan gestionar sus actividades y recursos con la finalidad de orientarlos hacia la consecución de los mismos, lo que a su vez se ha derivado en la necesidad de adoptar herramientas y metodologías que permitan a las organizaciones configurar su Sistema de Gestión. Un Sistema de Gestión ayuda a una organización a establecer las metodologías, las responsabilidades, los recursos y las actividades que le permitan una gestión orientada hacia la obtención de esos “buenos resultados” que desea, o lo que es lo mismo, la obtención de los objetivos establecidos.Con esta finalidad, muchas organizaciones utilizan modelos o normas de referencia reconocidos para establecer, documentar y mantener sistemas de gestión que les permitan dirigir y controlar sus respectivas organizaciones. En la norma ISO 9000, cuya versión actual es la del año 2015, define como sistema de gestión al conjunto de elementos de una organización interrelacionados o que interactúan para establecer políticas, objetivos, y procesos para lograr estos objetivos. El enfoque basado en procesos es un principio de gestión básico y fundamental para la obtención de resultados, y así se recoge tanto en la familia ISO 9000 como en el modelo EFQM [4].Para poder comprender este principio, es necesario conocer qué se entiende por proceso. Según la norma ISO 9000:2015 un proceso es un “conjunto de actividades mutuamente relacionadas que utilizan las entradas para proporcionar un resultado previsto” [5]. Con esta definición, se puede deducir que el enfoque basado en procesos enfatiza cómo los resultados que se desean obtener se pueden alcanzar de manera más eficiente si se consideran las actividades agrupadas entre sí, considerando, a su vez, que dichas actividades deben permitir una transformación de unas entradas en salidas y que en dicha transformación se debe aportar valor, al tiempo que se ejerce un control sobre el conjunto de actividades. El cliente es la fuerza impulsora para la producción de bienes y servicios y, por lo general, los clientes ven la calidad desde la perspectiva transcendente o con base en el producto. Los bienes y servicios producidos deben satisfacer las necesidades del cliente; de hecho, la existencia de las organizaciones de negocios depende de la satisfacción de las necesidades de sus clientes [1]. En la satisfacción del cliente influyen los siguientes tres aspectos: la calidad del producto, el precio y la calidad del servicio. Se es más competitivo, es decir, se hacen las cosas mejor que otros, cuando se es capaz de ofrecer mejor calidad a bajo precio y mediante un buen servicio [2]. Todas las actividades pueden medirse con parámetros que enfocados a la toma de decisiones son señales para monitorear la gestión, así se asegura que las actividades vayan en el sentido correcto y permiten evaluar los resultados de una gestión frente a sus objetivos, metas y responsabilidades. Estas señales son conocidas como indicadores de gestión. Un indicador de gestión es la expresión cuantitativa del comportamiento y desempeño de un proceso, cuya magnitud, al ser comparada con algún nivel de referencia, puede estar señalando una desviación sobre la cual se toman acciones correctivas o preventivas según el caso. Entre los diversos beneficios que puede proporcionar a una organización la implementación de un sistema de indicadores de gestión, se tienen [3].:  Satisfacción del cliente: La identificación de las prioridades para una empresa marca la pauta del rendimiento. En la medida en que la satisfacción del cliente sea una prioridad para la empresa, así lo comunicará a su personal y enlazará las estrategias con los indicadores de gestión, de manera que el personal se dirija en dicho sentido y sean logrados los resultados deseados.  Monitoreo del proceso: El mejoramiento continuo sólo es posible si se hace un seguimiento exhaustivo a cada eslabón de la cadena que conforma el proceso. Las mediciones son las herramientas básicas no sólo para detectar las oportunidades de mejora, sino además para implementar las acciones.  Benchmarking: Si una organización pretende mejorar sus procesos, una buena alternativa es traspasar sus fronteras y conocer el entorno para aprender e implementar lo aprendido. Una forma de lograrlo es a través del benchmarking para evaluar productos, procesos y actividades y compararlos con los de otra empresa. Esta práctica es más fácil si se cuenta con la implementación de los indicadores como referencia.  Gerencia del cambio: Un adecuado sistema de medición les permite a las personas conocer su aporte en las metas organizacionales y cuáles son los resultados que soportan la afirmación de que lo está realizando bien. El objetivo de la presente investigación es evaluar los indicadores estratégicos de la organización que permitan identificar las brechas de cumplimiento y con ello las mejorasen la Empresa de Servicios Profesionales y Técnicos ESAC. 2. DESARROLLO La Empresa de Servicios Profesionales y Técnicos, reconocida como ESAC se encuentra ubicada en Ave.349, # 16030 e/ 160 y 180, Reparto 1ro. de Mayo, Boyeros, La Habana, fue creada en el año 2001, a partir de la fusión del Centro de Aseguramiento de la Calidad que pertenecía a la Empresa Industria Electrónica (EIE) y los Laboratorios Metrológicos de COPEXTEL. Esta fusión se debió a la necesidad del entonces Ministerio de la Informática y las Comunicaciones, al cual pertenecían ambas entidades, de centralizar estos servicios en una organización especializada que garantizara, entre otras, la función de tercera parte en la evaluación de la calidad de las producciones de toda la industria electrónica y la calibración de los instrumentos de medición. Esta Misión se mantiene en la actualidad, pero adscrita a la OSDE Grupo de la Electrónica, la Informática, la Automatización y las Comunicaciones (GELECT) dentro del Ministerio de Industrias (MINDUS). Tiene como Objeto Social:  Prestar servicios de ensayos, pruebas e inspecciones a sistemas y equipos, así como a las materias primas y materiales utilizados en los mismos, incluyendo la investigación, el diseño, y el desarrollo que corresponda.  Prestar los servicios de instalación, puesta en marcha, calibración, mantenimiento, y reparación de instrumentos y sistemas de medición y control, incluyendo la investigación, el diseño, y el desarrollo que corresponda.  Prestar los servicios de consultoría y asesoría para el diseño e implementación de Sistemas de Gestión, así como de Gestión del Conocimiento en materias relacionadas con los Sistemas de Gestión. Tiene como Misión: Brindar servicios técnicos y profesionales de ensayo (homologación), metrología, consultoría y gestión del conocimiento al sistema empresarial del Grupo de la Electrónica, la Informática, la Automatización y las Comunicaciones (GELECT) y a terceros, con un alto nivel de creatividad y compromiso logrando la satisfacción de todas las partes interesadas. Con la Visión de que: somos centro de referencia en Cuba para las actividades de ensayo, metrología, consultoría y gestión del conocimiento, distinguidos por un alto nivel profesional y una alta responsabilidad, fomentando la confianza en nuestros clientes y trabajadores. La Empresa de Servicios Profesionales y Técnicos ESAC tiene implementado un Sistema Integrado de Gestión, en lo adelante SIG donde se establece como alcance las actividades incluidas en los procesos determinados, exceptuando cuando éstas se realizan en las Filiales Central y Oriental y los servicios realizados por el proceso PR 03 Servicios de Laboratorios (ver figura 1). Figura 1: Mapa de procesos ESAC. En la figura se muestra que se han determinado como procesos los siguientes:Procesos estratégicos: PR 01 Gestión Estratégica, PR 02 Operaciones, PR 06 Evaluación del desempeño y PR 09 Capital Humano. Procesos claves: PR 03 Servicios de Laboratorios, PR 04 Consultoría y auditoría, PR 05 Gestión del Conocimiento y PR 07 Servicios informáticos. Proceso de apoyo: PR 08 Logística Indicadores Económicos-Financieros La empresa cumplió las ventas del año a un 106.16 por ciento con respecto al plan, destacándose en el cumplimiento del plan la actividad de Ensayo con un sobrecumplimiento del 43.75 por ciento seguido por Consultoría con un 14.4 por ciento por encima del plan (Ver Tabla 1). Por otra parte, los servicios de Inspección, Capacitación, Metrología, Servicios Informáticos y Reparaciones incumplieron el plan de ventas. Tabla 1: Cumplimiento de las ventas por servicios. SERVICIOS 2021 Plan Real % U U U Metrología 857.535,00 708.531,41 82,62 Ensayo 1.495.167,48 2.149.327,82 143,75 Reparación 191.299,80 91.281,72 47,72 Inspección 184.605,76 175.680,64 95,17 Consultoría 2.376.869,04 2.719.231,11 114,40 Capacitación 951.900,00 834.569,00 87,67 Servicios Informáticos 973.164,49 754.708,12 77,55 Venta de Mercancias 29.957,53 TOTAL ESAC 7.030.541,57 7.463.287,35 106,16 Fuente: Dirección de operaciones Haciendo un análisis de la participación de cada servicio en las ventas, con el uso de un diagrama de Pareto (ver gráfico 1), se comprueba que los servicios de Consultoría, Ensayo y Capacitación generan el 76.4 por ciento de las ventas de la organización, con una participación de 36.4, 28.8 y 11.2 por ciento respectivamente. Mientras que los servicios Informáticos, Inspección, Metrología, Servicios Informáticos, Reparaciones y las ventas de mercancías de inventarios ocioso solo generan el 23.6 por ciento de las ventas. Gráfico1: Diagrama de Pareto de las Ventas por servicios. Indicadores de clientes La ESAC le presto servicios a un total de 181 clientes.Realizando un análisis utilizando la herramienta estadística de Pareto como se muestra en el gráfico 2, podemos apreciar que los servicios de Capacitación, Ensayo, Consultoría y Auditorias y los servicios de metrologíaconcentran el 76.8 por ciento de los clientes, por lo que constituyen los servicios más demandados. Gráfico 2. Pareto de Clientes por servicios del año 2021 Luego de determinado los servicios más demandados se procedió a establecer los clientes de mayores aportes por cada de esos tres servicios. Como se puede apreciar en el Gráfico 3 el cliente Piensos Occidentes fue el de mayor aporte en los servicios de Consultoría con un monto ascendente a los 594 mil pesos. Gráfico 3. Clientes del servicio de consultoría. En el caso del servicio de capacitación que brinda el Centro de Gestión del Conocimiento tenemos que, como se muestra en el gráfico 4, el cliente que más demandó este servicio fue la Empresa Cubana de Navegación Aérea ECNA, seguido por la Empresa de la Industria Electrónica (EIE) nuestro cliente natural, con aportes ascendentes a los 124 mil y los 67 mil pesos respectivamente. 0.00 100,000.00 200,000.00 300,000.00 400,000.00 500,000.00 600,000.00 700,000.00 II H o rt íc ol a A lm ac en es … U P R ad io C u b an a EA S LA B IO FA M Pi en so O cc id en te IC EM A V IT EX In st it ut o d e… R ef ri ge ra ci ó n y… Lo gi st ic a… U P Pr o vi nc ia l… PE XA C Em p re sa M ix ta … ES ED IP U P R ad io … U P R ad io … U P Em is o ra … U P R ad io … U P R ad io … Fe ri a… U P Em is o ra … U P Em is o ra … EM B ER Clientes del Servicio de Consultoria 0.00 40,000.00 80,000.00 120,000.00 EIE SERTOD ENPA GEDEME PEXAC ECI-MIDAS AGENCIA DE SERV. ADUANALES… INIFAT Emp. Saneamiento Básico de la Habana Emp. Distribuidora de Materiales para la… Emp. Tecnología de Laboratorios Refrigeración y Calderas RC LABIOFAM SEISA EMP PROV. IND ALIMENTARIA CH EMP PRODUCCIONES ELECTROMECANICAS EMSA EMPRESA ELECTRICA DE LA HABANA ICIDCA EMPRESA PROV. INDUSTRIAS LOCALES EMP. MILITAR INDUSTRIAL TRANSP… TECNOLAP HIDROPLAST EMPRESA DE TRANSPORTE AGROPECUARIO ULCSA. Unidad de Laboratorios Centrales… EMCEM. EMP DE MTTO DEL CEMENTO EMPRESA DE TALLERES AGROPECUARIOS Clientes del servicio de Capacitación Gráfico 4. Clientes del servicio de capacitación. Como se puede apreciar en el Gráfico 5 los clientes extranjeros INTERNATIONAL CARIBEAN SUPLER S.A y la ELECTRONICA ARA son los que más demandan el servicio de ensayo con aportes superiores a los 400 mil pesos. Gráfico 5. Clientes del servicio de ensayo. Indicadores de procesos 0.00 200,000.00 400,000.00 600,000.00 Caribbeam Brisa EIE Citricos Caribe INTERNACIONAL CARIBEAN SUPLER SA CUBAENERGIA CCE GECOMEX MOA NIKEL S.A SHERRITT INTNAT. OL GAS SOYEA JURONG TECHNOLOGY WOWI APPROVAL SERVICES Profoodservice. SA SOLINTEL. SA TECNOTEX EMP. PESQUERA INDUSTRIAL CAIBARIEN ELECTRONICA ARA HANGZHOU MURUI IMPORT ANG… OFICINA NACIONAL DE ADM.… ITC-INTELIGENT TELECOM CERTIFCA UNIDAD P.DIRECCION GENERAL TVC SERMAR S.A TECNOMATICA SIAE-MICROELECTTRONICA.SPA Liaoning MEC Group Co.,Ltd NESCOR, S.A CADENA DE TIENDAS CARIBE CENTRO DE INVESTIGACION Y… 7LAYERS GMBH GET COPEXTEL AXIME CORPORATION S.A IGA GEOFÍSICA Y ASTRONOMÍA. 1 AP DB TECNOIMPORT EMPRESA MINERA DEL CARIBE S.A TRC LATIN AMERICA MARIEL SOLAR ENERGY GYS Limited EMP.MIXTA MINERA LA VICTORIA S.A CORPORACIÓN COPEXTEL S.A TVS SHENZHEN HUAWEI TECHNICAL SERVICE CENTRAL DE TRABAJADORES DE CUBA… Clientes del servicio de Ensayo Las evaluaciones de la eficacia de los procesos en el periodo 2020 y 2021 se muestran en la tabla 2, comparando ambos periodos. Tabla 2. Evaluación de la eficacia de los procesos 2020-2021. Procesos Estratégicos Evaluación de la Eficacia 2020 Evaluación de la Eficacia 2021 PR 01 Gestión Estratégica No eficaz (No Satisfactorio) (invalidado por incumplimiento de los indicadores 1, 6, 12) No eficaz (No Satisfactorio) (invalidado por incumplimiento de los indicadores 1, 6, 12) PR 02 Operaciones No eficaz (No Satisfactorio) (invalidado por incumplimiento del Indicador No. 11) Eficaz (Satisfactorio) PR 06 Evaluación del desempeño No eficaz (No Satisfactorio) (invalidado por incumplimiento de los indicadores 1, 3, 5, 8) No eficaz (No Satisfactorio) (invalidado por incumplimiento de los indicadores 2, 8) Eficaz 0 1 No eficaz 3 2 Procesos claves Evaluación de la Eficacia 2020 Evaluación de la Eficacia 2021 PR 03 Servicios de Laboratorios No eficaz (No Satisfactorio) (invalidado por incumplimiento de los indicadores 2 y 6) No eficaz (No Satisfactorio) (invalidado por incumplimiento de los indicadores 5 y 7) PR 04 Consultoría y auditoría Eficaz (Satisfactorio) Eficaz (Satisfactorio) PR 05 Gestión del Conocimiento No eficaz (No Satisfactorio) (invalidado por incumplimiento del indicador 1) No eficaz (invalidado por incumplimiento de los indicadores 1, 5 y 7) PR 07 Servicios informáticos No eficaz (No Satisfactorio) (Invalidada por incumplimiento del Indicador No. 1, 8) No eficaz (No Satisfactorio) (Invalidada por incumplimiento del Indicador No. 1) Eficaz 1 1 No eficaz 3 3 Procesos Apoyo Evaluación de la Eficacia 2020 Evaluación de la Eficacia 2021 PR 08 Logística No eficaz (No Satisfactorio) (invalidado por incumplimiento de los indicadores 5, 11, 12, 15) No eficaz (No Satisfactorio) (invalidado por incumplimiento de los indicadores 5, 6 ,11 , 12) TOTAL Eficaz 1 2 No eficaz 7 6 No evaluado 1 1 Fuente: Elaboración propia Se puede observar en la Tabla 2 una ligera mejora de la eficacia con respecto al año anterior. Solamente el proceso clave PR 04 Consultoría y auditoría esta evaluado de eficaz en ambos periodos analizados. Indicadores de Recursos humanos El último indicador analizado de vital importancia para una empresa de servicios donde el capital humano constituye su activo más importante. Tabla 4. Análisis de la plantilla por categoría ocupacional Categoría Ocupacional Plan Real % Cuadros 7 7 100,0 Técnico 87 43 49,4 Operario 6 4 66,7 Servicio 7 6 85,7 Total 107 60 56,1 Fuente: Dirección de Capital Humano. Como se aprecia en la tabla 4 la plantilla está cubierta a un 56.1 por ciento y como se muestra en la figura 5 el 40 por ciento de los trabajadores son indirectos a los servicios. Figura 2. Balance de trabajadores directos e indirectos Los trabajadores directos representan el 60 % y los indirectos el 40 por ciento, obteniéndose un índice de personal productivo de 1.50, lo que evidencia un exceso de personal indirecto. Los datos anteriores pueden representarse en la tabla 5 y así se alerta el umbral de seguridad de esa relación según criterio de C.N. Parkinson (6). No obstante, hoy el Benchmarking se impone: Tabla 5.Benchmarking delíndice de personal productivo. Plantilla ESAC CEDAI Feria Agropecuaria Boyeros Personal directo 36 348 206 Personal indirecto 24 209 56 Total plantilla 60 557 262 Índice de personal productivo 1.50 1.66 3.67 Como se puede apreciar nuestra empresa está en desventaja con respecto a la empresa CEDAI y la Empresa de Ferias Agropecuarias Boyeros, por lo que se deben tomar acciones para reducir el exceso de personal indirecto. 60% 40% Balance de trabajadores directos e indirectos Directos Indirectos 3. CONCLUSIONES 1. Sepudocomprobar que los servicios de Consultoría, Ensayo y Capacitación generan el 76.4 por ciento de las ventas de la organización, con una participación de 36.4, 28.8 y 11.2 por ciento respectivamente. 2. Los servicios deInspección, Capacitación, Metrología, Servicios Informáticos y Reparaciones no cumplen el plan de ventas. 3. Se pudo apreciar que los servicios de Capacitación, Ensayo, Consultoría y Auditorias y los servicios de metrología concentran el 76.8 por ciento de los clientes, por lo que constituyen los servicios más demandados. 4. Los servicios que presentan brechas en los indicadores evaluados son: Inspección, Capacitación, Metrología, Servicios Informáticos y Reparaciones. 5. Aunque hay una ligera mejoría con respecto al 2020, en el año 2021 se evaluaron 2 procesos de eficaz y 6 procesos no eficaz, de ellos 3 claves, siendo estos: Servicios de Laboratorios, Gestión del conocimiento y Servicios Informáticos. 6. Los trabajadores directos representan el 60 % y los indirectos el 40 por ciento, obteniéndose un índice de personal productivo de 1.50, por lo que está en desventaja con respecto a la empresa CEDAI que presenta un índice de 1.66 y con la Empresa de Ferias Agropecuarias Boyeros que presenta un índice de 3.67, por lo que se deben tomar acciones para reducir el exceso de personal indirecto. 4. REFERENCIAS 1. Evans, James R. y William M. Lindsay Administración y control de la calidad, 7a. edición. México, 2008. 2. (Gutiérrez-De la Vara, 2004) Gutiérrez Pulido, Humberto; De la Vara Salazar. Roman. Control estadístico de calidad y seis sigma. Mc Graw Hill, México, S.A de C.V, 2004. 3. Pérez Jaramillo, Carlos Mario. Articulo Los Indicadores de Gestión. 4. Beltrán, Sanz, Jaime; Carmona, Calvo Miguel A.; Carrasco Pérez, Remigio; Rivas Zapata, Miguel A.; Tejedor Panchón, Fernando. Instituto Andaluz de Tecnología. Guía para una gestión basada en procesos. 5. NC ISO 9000 Sistema de Gestión de la Calidad. Fundamentos y Vocabulario. 6. Cuestas Santos, Armando. Tecnología de Gestión de los Recursos Humanos. Tercera Edición. 2008. Sobre los autores Noslen Eduardo Jiménez Suárez, Ingeniero Industrial (2013), Consultor en sistemas de gestión en la Empresa de Servicios Profesionales y Técnicos ESAC. Estudiante de la Maestría de calidad Total de la Facultad de Ingeniería Industrial de la Universidad Tecnológica de la Habana “José Antonio Echeverría”, CUJAE Dra. María Sonia Fleitas Triana, Ingeniera Industrial (1980), Doctora en Ciencias Técnicas (1988), Profesora Titular de la Facultad de Ingeniería Industrial de la Universidad Tecnológica de la Habana “José Antonio Echeverría”, CUJAE Danay de la Caridad Pedro Olivares, Estudiante de la carrera de Ingeniería Industrial de la Facultad de Ingeniería Industrial de la Universidad Tecnológica de la Habana “José Antonio Echeverría”, CUJAE EVALUACIÓN DE LA APLICACIÓN DE LA GESTIÓN INTEGRADA EN LA UEB AGROINDUSTRIAL WAJAY Primer Autor: Ing. Sandra María Canales González 1Filiación, dirección: Avenida 203 No. 27820 entre 290 y Prensa Latina. El Chico, WAJAY, Boyeros 1e-mail: sandracanalesgonzalez@gmail.com RESUMEN La Granja Agroindustrial WAJAY cuenta con un Sistema Integrado de Gestión implementado para dar cumplimiento a su MISIÓN de producir con eficiencia productos agropecuarios e industriales, que satisfagan las exigencias y necesidades de los clientes con alta productividad, calidad, puntualidad en las entregas y menos costos. Como resultado del Diagnóstico al Sistema de Gestión de la Calidad-Inocuidad- Control Interno en el año 2018 se detectan una serie de NO CONFORMIDADES asociadas a estas dimensiones bajo los requisitos de las normas NC ISO 9001:2015 (para Calidad) y la Norma NC 136:2017. Sistema de análisis de peligros y de Puntos Críticos de Control (APPCC/HACCP). (para Inocuidad.) y la Resolución 60/2011 de la Contraloría General de la República (para el Control Interno), que incidían en la baja satisfacción del cliente y en el buen desempeño de la organización. El presente trabajo muestra el resultado de la evaluación de la aplicación de la gestión integrada para las dimensiones Calidad-Inocuidad-Control Interno con el objetivo de minimizar las no conformidades detectadas por la organización mediante las revisiones por la dirección y las auditorías Internas a través de dos modelos para la gestión integrada:  Modelo CUJAE  Análisis del contexto. Análisis nivel de madurez a partir de la aplicación de la guía de autocontrol de la norma NC 9004:2018 (entorno externo / interno) PALABRAS CLAVES: GESTIÓN INTEGRADA, NIVEL DE MADUREZ, MEJORA, CALIDAD, INOCUIDAD, CONTROL INTERNO EVALUATION OF THE APPLICATION OF THE INTEGRATED MANAGEMENT AT AGRO-INDUSTRIAL FARM WAJAY. Primer Autor: Ing. Sandra María Canales González 1Filiación, dirección: Avenida 203 No. 27820 entre 290 y Prensa Latina. El Chico, Wajay, Boyeros 1e-mail: sandracanalesgonzalez@gmail.com ABSTRACT The Agro-Industrial Farm Wajay has an Integrated Management System, implemented to carry out its mission: to eficiently produce industrial products, taking into account the necessities and requirements of the clients with high productivity, quality, support in deliveries and at lower costs. As a result of the diagnosis made to the Quality management- Safety and Internal control System during the year 2018 ,it was possible to find out some No conformances associated to these dimensions, under the standards NC ISO 9001:2015 (related to quality) and the standart NC 136:2017;Hazard analysis and critical control point System(APPCC/HACCP) for safety and the Resolution 60/2011 of the office of the comptroller General of the Republic (for internal control), which indicated the low satisfaction of the client and the good performance of the organization. This work shows the evaluation resulting from the application of the integrated management for the dimensions quality-Safety-internal control, with the objective of minimizing the No conformances found within the organization, made by the administration and through the internal controls, using models for integrated management. _ CUJAE Model _ Context analysis, ripness level analysis using self-control guide of the standart NC 9004:2018 (external/internal) _Standart UNE 6617:2005 KEY WORDS: Integrated management, ripness level, improvement, reality, quality, Safety, internal control. EVALUACIÓN DE LA APLICACIÓN DE LA GESTIÓN INTEGRADA EN LA UEB AGROINDUSTRIAL WAJAY Primer Autor: Ing. Sandra María Canales González 1Filiación, dirección: Avenida 203 No. 27820 entre 290 y Prensa Latina. El Chico, Wajay, Boyeros 1e-mail: sandracanalesgonzalez@gmail.com INTRODUCCIÓN La Granja Agroindustrial WAJAY cuenta con un Sistema Integrado de Gestión implementado para dar cumplimiento a su MISIÓN de producir con eficiencia productos agropecuarios e industriales, que satisfagan las exigencias y necesidades de los clientes con alta productividad, calidad, puntualidad en las entregas y menos costos. Como resultado del Diagnóstico al Sistema de Gestión de la Calidad-Inocuidad- Control Interno en el año 2018 se detectan una serie de NO CONFORMIDADES asociadas a estas dimensiones bajo los requisitos de las normas NC ISO 9001:2015 (Calidad) y la Norma NC 136:2017. Sistema de análisis de peligros y de Puntos Críticos de Control (APPCC/HACCP). (Inocuidad.) Y la Resolución 60/2011 de la Contraloría General de la República (Control Interno), que incidían en la insatisfacción del cliente y en el buen desempeño de la organización. El presente trabajo muestra el resultado de la evaluación de la aplicación de la gestión integrada para las dimensiones Calidad-Inocuidad-Control Interno con el objetivo de minimizar las no conformidades detectadas por la organización mediante las revisiones por la dirección y las auditorías Internas a través de dos modelos para la gestión integrada: I. Modelo CUJAE II. Análisis del contexto. Análisis nivel de madurez a partir de la aplicación de la guía de autocontrol de la norma NC 9004:2018 (entorno externo / interno) DESARROLLO I. MATERIALES Y MÉTODOS Para evaluar la aplicación de la gestión integrada para las dimensiones Calidad-Inocuidad-Control Interno en la Granja Agroindustrial WAJAY entre diversos modelos posibles se seleccionaron dos de ellos: el Modelo CUJAE (2013) y la norma NC 9004:2018 con el análisis nivel de madurez a partir de la aplicación de la guía de autocontrol que posee la misma Modelo CUJAE se representa en la figura siguiente: Figura 1 – Modelo de Gestión Integrada CUJAE (2013). Fuente: Resultado de investigación del proyecto Gestión Integrada, CUJAE (2013) El mismo se basa en 5 principios que se reflejan en la figura 2 Figura 2 – Principios del Modelo de Gestión Integrada CUJAE (2013). Fuente: Modelo CUJAE (2013) El alcance de este trabajo lo constituye el análisis de la Etapa 1 Diagnóstico Integrado del Modelo CUJAE. Este análisis tiene como objetivo el estudio de cada una de las actividades de la Etapa 1 Diagnóstico Integrado del Modelo CUJAE, con el fin identificar oportunidades de mejora de la gestión integrada. En el Modelo CUJAE la necesidad del diagnóstico es de vital importancia, pues representa el instrumento de gestión primario que toda organización debe aplicar para establecer el cambio en busca del logro de una mayor eficacia, eficiencia y efectividad organizacional, así como la fuente principal de detección de los problemas que afectan el desempeño de los procesos del sistema integrado de gestión. Un elemento innovador y poco utilizado en la etapa de diagnóstico lo constituye que se analizan tres factores para determinar el nivel de integración que tiene la organización: el grado de integración del cumplimiento de los requisitos de las normas (GIRN), el grado de integración percibido por el trabajador (GIPT) y el grado de integración de la identificación y evaluación de los riesgos (GIRN), además es flexible y fácilmente ajustable. Se ejecutó el análisis del Estado Actual de la organización siguiendo los pasos que establece el modelo y que se representan a continuación: Figura 3 –Estructura de la Etapa 1- Diagnóstico Integrado del Modelo CUJAE Se utilizaron en este análisis los métodos siguientes: BRAINSTORMING O TORMENTA DE IDEAS, DIAGRAMA CAUSA-EFECTO, DIAGRAMA PARETO, GRÁFICOS DE CONTROL, MATRIZ DAFO. Una vez ejecutado el análisis del estado actual de la organización se requiere realizar los cinco pasos correspondientes a la evaluación del nivel de integración en la organización :  Paso 1. Grado de cumplimiento de los requisitos integrados de las normas (GIRN)  Paso2. Determinación del grado de integración percibido por los trabajadores (GIPT)  Paso 3. Determinación del grado de integración de la gestión de riesgos (GIR)  Paso4. Análisis del grado de integración existente en la organización (GIO)  Paso 5. Nivel de preparación para la integración (NPI). (Ver Figura 3) Figura. 3 Procedimiento para definir el nivel de integración. Fuente: Modelo CUJAE (2013) Se identificaron como principales elementos a tener en cuenta en la determinación del grado de integración de los sistemas integrados de gestión, el grado de integración de las normas, los trabajadores y los riesgos Los resultados obtenidos se expresan posteriormente en el acápite de Resultados y Discusión Norma NC ISO 9004:2018 La NC ISO 9004:2018, no es una norma que centra sus objetivos específicamente en la integración de los sistemas, sino que se basa en la capacidad de la organización de lograr el éxito sostenible. Al mostrar una visión general de toda la organización, sirve de apoyo en el proceso de integración de los sistemas de gestión, al propiciar elementos que deben ser tomados en cuenta para el éxito de las organizaciones. Es por eso que consideramos la aplicación de su Guía de Autoevaluación para la visión global del desempeño de la organización y del grado de madurez del sistema de gestión para llevar a cabo la evaluación de la aplicación de la gestión integrada, identificar áreas para la mejora y/o innovación determinando prioridades para acciones posteriores. La norma persigue la mejora sistemática del desempeño global de las organizaciones, esto incluye la planificación, implementación, análisis, evaluación y mejora de un sistema de gestión eficaz y eficiente. Incluye además la responsabilidad social, los factores ambientales y culturales brindando la capacidad para lograr el éxito sostenido mejora y la innovación como soporte al éxito sostenido (ONN, 2018). Los dos modelos analizados resaltan la importancia del enfoque basado en procesos. Se basan en el Ciclo PHVA, realizan el diagnóstico de la organización, el análisis del contexto y señalan además la necesidad de realizar frecuentemente el proceso de mejora continua II. RESULTADOS Y DISCUSIÓN ESTADO ACTUAL DE LA ORGANIZACIÓN El análisis interno arrojó 17 brechas, el externo 7 brechas y una brecha en la gestión de riesgos que se detallan a continuación: ESTADO ACTUAL DE LA ORGANIZACIÓN PASO I.1.2 ANÁLISIS INTERNO B r ec h a s id e n ti fi c a d a s (1 7 ) No evaluación de requisitos de inocuidad en la Encuesta de Satisfacción de clientes. Insuficiente análisis de las causas y acciones correctivas ante las no conformidades. Infraestructura. Deterioro del equipamiento tecnológico de las áreas productivas. Obsolescencia de los medios informáticos y carencia de sistema de protección. Insuficiente disponibilidad de equipos de protección personal Insuficientes habilidades de comunicación en el personal del área comercial Incumplimiento en el etiquetado de los productos, debido a falta de materias primas. Incumplimiento de elementos claves en el SGIA referidos a los programas de prerrequisitos (PPR) y los principios del APPCC Insuficiente gestión de las interacciones o interrelaciones en las interfases funcionales de los procesos, que no propician la armonización en la integración entre los mismos dentro de la organización. La organización cuenta con la identificación de los costos totales de calidad: costos de prevención, costos de evaluación, costos de fallos internos y costos de fallos externos, pero no son evaluados en su totalidad. Incumplimiento de los indicadores de Gestión que muestran tendencias a los resultados de la medición de la eficacia y eficiencia incidiendo en del desempeño de los procesos y en el cumplimiento de los objetivos. Falta de preparación de los Especialistas en Gestión Comercial, respecto aspectos relacionados con la actividad económica de las ventas. Insuficiente uso de las técnicas y herramientas necesarias para una adecuada gestión integrada que incluye la no utilización de técnicas estadísticas para efectuar el control de los procesos (gráficos de control, diagrama de Pareto, diagrama Ishikawa, etc.. Los Especialistas de Gestión Comercial no elaboran informes de retroalimentación relativa a los productos y servicios incluyendo quejas y seguimiento de la percepción del cliente sobre sus principales necesidades o expectativas solo se tiene en cuenta las encuestas de satisfacción. Falta de preparación de los Especialistas en relación a los requisitos de la norma NC ISO IEC 17025:2017 y su integración al SIG No se encuentran definidos los requisitos del cliente antes de la aceptación de los contratos al no proporcionar el cliente una declaración documentada de sus requisitos. Ineficiente utilización de enfoques de gestión integrada de peligros, riesgos y oportunidades; y se identifican, evalúan y se controlan los peligros y riesgos para el sistema de gestión de la inocuidad de forma independiente. ESTADO ACTUAL DE LA ORGANIZACIÓN PASO I.1.3 ANÁLISIS EXTERNO B r e c h a s id e n ti f ic a d a s (7 ) Descontento e inconformidad con el Sistema de pago empleado lo que favorece la fluctuación del personal ej.: proceso de Producción Productos Cárnicos (J. Brigadas). El servicio efectivo de reparación y mantenimiento del equipamiento aún es insuficiente, déficit de PPA . Declaración del país de alerta Sanitaria COVID 19. Escenario desfavorable al desarrollo de los procesos, derivado de los efectos del bloqueo y la crisis económica provocada por los efectos de la pandemia. El Incumplimiento e inestabilidad de los requisitos de calidad e inseguridad de los suministros de los proveedores externos para garantizar la producción. Inexistencia en algunos casos de las Declaraciones de conformidad de las materias primas Ejecución de las compras por parte de la empresa que no permite el intercambio directo con los proveedores Inestabilidad en la entrada del Cerdo en pie, déficit de pienso incidiendo en el bajo peso y rendimientos obtenidos de los animales de abasto lo que dificulta el cumplimiento de los planes. La aplicación de los pasos del modelo CUJAE arrojó los resultados siguientes: Tabla 1. Resultado del Grado de integración de la organización. RESULTADOS Grado de integración de la organización. Sistemas de gestión a integrar. Acciones para la mejora del SIG 1.3.1- Grado de cumplimiento de los requisitos integrados de las normas (GIRN) BUENO (4 puntos) 1.3.2 - Grado de integración percibido por los trabajadores (GIPT) BUENO (4 puntos) 1.3.3 - Determinación del grado de integración de la gestión de riesgos (GIR). Se identifica como problema que: A pesar de que se encuentran identificados los riesgos para ambos sistemas (Calidad e Inocuidad) , así como las medidas para gestionarlos, estas acciones se realizan de forma independiente MEDIO (4 puntos) 1.3.4 - Análisis del grado de Integración existente en la organización (GIO) . La integración de la organización expresa que aún no se alcanza la total integración de los sistemas de Calidad e Inocuidad INTEGRACIÓN PARCIAL (58,84 %) 1.3.5 - Nivel de preparación para la integración (NPI) ALTO Tabla 2. Evaluación del nivel de integración de la organización. RESULTADO – MÉTODO EXPERTO Cuando el GIO se encuentra en el nivel de integración parcial y el NPI se encuentra en el nivel alto, la organización puede aplicar un método de experto. Este método infiere la continuación natural del método avanzado, y es muy rentable, ya que supone extender la integración a corto plazo del sistema de gestión por procesos existentes a otras áreas o aspectos no contemplados hasta ahora, sin inversión adicional. Se ESTADO ACTUAL DE LA ORGANIZACIÓN PASO I.1.4 ANÁLISIS DE LA IDENTIFICACIÓN Y EVALUACIÓN DE PELIGROS Y/O RIESGOS. B r ec h a s id e n ti fi c a d a s (1 ) Ineficiente utilización de enfoques de gestión integrada de peligros, riesgos y oportunidades; y se identifican, evalúan y se controlan los peligros y riesgos para el sistema de gestión de la inocuidad de forma independiente. pueden conseguir grandes resultados si se alinean los procesos con las estrategias de la organización. Las acciones que a modo de ejemplo pueden ser abordadas en este estadío son las siguientes: a) Establecer objetivos, metas e indicadores integrados, así como desplegar los objetivos e indicadores a los procesos y subprocesos. b) Incluir la “voz del cliente” a los proveedores y otras partes interesadas en el diseño de todos los procesos. c) Extender la gestión por procesos a las actividades administrativas y económicas. d) Involucrar a los proveedores en la mejora de los procesos. e) Debe perfeccionar la documentación del sistema y la divulgación del mismo. En cuanto a la evaluación mediante la aplicación de la Guía de Autoevaluación de la norma NC 9004: 2018 se obtuvieron los resultados siguientes: Tabla 3. Correspondencia a la aplicación de la Guía de Autoevaluación de la norma la norma NC 9004:2018 en sus Anexos (A2- A31) . RESULTADOS NIVEL DE MADUREZ POR REQUISITOS Puntos Nivel de Madurez 5,2 Partes interesadas pertinentes 10 ALTO 5,3 Cuestiones externas e internas 7 MEDIO 6,2 Misión, visión, valores y cultura 9 MEDIO 7,1 Liderazgo — Generalidades 10 ALTO 7,2 Política y estrategia 7 MEDIO 7,3 Objetivos 8 MEDIO 7,4 Comunicación 5 BAJO 8,1 Gestión de los procesos — Generalidades 8 MEDIO 8,2 Determinación de los procesos 5 BAJO 8,3 Responsabilidad y autoridad relativa a los procesos 10 ALTO 8,4 Gestionar losprocesos 9 MEDIO 9,1 Gestión de recursos 10,5 ALTO 9,2 Personas 11 ALTO 9,3 Conocimiento de la organización 8 MEDIO 9,4 Tecnología 5 BAJO 9,5 Infraestructura y Ambiente de Trabajo 3,5 BAJO 9,6 Recursos proporcionados externamente 6,5 MEDIO 9,7 Recursos naturales 7 MEDIO 10,1 Análisis y evaluación del desempeño de una organización – Generalidades 2,5 BAJO 10,2 Indicadores de desempeño 10 ALTO 10,3 Análisis del desempeño 4,5 BAJO 10,4 Evaluación del desempeño 10 ALTO 10,5 Auditoría interna 9,5 ALTO 10,6 Autoevaluación 1,5 BAJO 10,7 Revisión 7 MEDIO 11,1 Mejora, aprendizaje e innovación— Generalidades 4 BAJO 11,2 Mejora 6,5 MEDIO 11,3 Aprendizaje 12 ALTO TOTALES 7 MEDIO NIVEL DE MADUREZ ALTO DE 15 A 10 PUNTOS MEDIO DE 9 A 6 PUNTOS BAJO MENOS DE 6 REQUISITOS CON BAJO NIVEL DE MADUREZ RESULTADOS NIVEL DE MADUREZ POR REQUISITOS Puntos Nivel de Madurez 7,4 Comunicación 5 BAJO 8,2 Determinación de los procesos 5 BAJO 9,4 Tecnología 5 BAJO 9,5 Infraestructura y Ambiente de Trabajo 3,5 BAJO 10,1 Análisis y evaluación del desempeño de una organización – Generalidades 2,5 BAJO 10,3 Análisis del desempeño 4,5 BAJO 10,6 Autoevaluación 1,5 BAJO 11,1 Mejora, aprendizaje e innovación— Generalidades 4 BAJO NIVEL DE MADUREZ ALTO DE 15 A 10 PUNTOS MEDIO DE 9 A 6 PUNTOS BAJO MENOS DE 6 8 REQUISITOS CON NIVEL DE MADUREZ MEDIO RESULTADOS NIVEL DE MADUREZ POR REQUISITOS Puntos Nivel de Madurez 5,3 Cuestiones externas e internas 7 MEDIO 6,2 Misión, visión, valores y cultura 9 MEDIO 7,2 Política y estrategia 7 MEDIO 7,3 Objetivos 8 MEDIO 8,1 Gestión de los procesos — Generalidades 8 MEDIO 8,4 Gestionar losprocesos 9 MEDIO 9,3 Conocimiento de la organización 8 MEDIO 9,6 Recursos proporcionados externamente 6,5 MEDIO 9,7 Recursos naturales 7 MEDIO 10,7 Revisión 7 MEDIO 11,2 Mejora 6,5 MEDIO NIVEL DE MADUREZ ALTO DE 15 A 10 PUNTOS MEDIO DE 9 A 6 PUNTOS BAJO MENOS DE 6 11 REQUISITOS CON NIVEL DE MADUREZ ALTO RESULTADOS NIVEL DE MADUREZ POR REQUISITOS Puntos Nivel de Madurez 5,2 Partes interesadas pertinentes 10 ALTO 7,1 Liderazgo — Generalidades 10 ALTO 8,3 Responsabilidad y autoridad relativa a los procesos 10 ALTO 9,1 Gestión de recursos 10,5 ALTO 9,2 Personas 11 ALTO 10,2 Indicadores de desempeño 10 ALTO 10,4 Evaluación del desempeño 10 ALTO 10,5 Auditoría interna 9,5 ALTO 11,3 Aprendizaje 12 ALTO NIVEL DE MADUREZ ALTO DE 15 A 10 PUNTOS MEDIO DE 9 A 6 PUNTOS BAJO MENOS DE 6 9 Como se observa se obtiene una mayor cantidad de requisitos en el nivel medio y de ellos un mayor grupo asociados al análisis del entorno y a la gestión de los procesos donde debe considerarse la gestión de riesgos CONCLUSIONES Después de realizada la evaluación de la gestión integrada de nuestra organización con la aplicación de los dos modelos seleccionados puede concluirse los resultados siguientes: Tabla 8. Resultados de la comparación de los modelos utilizados. INDICADOR MODELO CUJAE NC ISO 9004:2018 Nivel de madurez/Nivel de preparación para la integración ALTO MEDIO (7) Grado de Integración de riesgos MEDIO (4) MEDIO ( Cuestiones Internas/Externas) Método de Integración a aplicar EXPERTO Tipo de Integración en que se encuentra la organización PARCIAL I. El análisis del estado actual de la organización permitió identificar un total de 25 brechas que sirven de base para la toma de acciones para la mejora. II. La organización se encuentra en un grado de integración MEDIO III. El nivel de madurez para la integración es FAVORABLE toda vez que en la evaluación por dichos modelos se mueve en el rango de MEDIO a ALTO IV. El grado de integración de riesgos coincide para los dos modelos : MEDIO V. La utilización de estos dos modelos permite evaluar de manera más integral y completa la gestión integrada de las organizaciones convirtiéndose en una poderosa herramienta a generalizar en el Sector Agroindustrial. RECONOCIMIENTOS Se agradece a las siguientes personas por su aporte en la realización y culminación del presente trabajo A los profesores: Dr C Aleida González González Dr C Lisandra Leal Rodríguez Dr C Marcos Antonio Baños Martínez A mi Tutor: MSc. Claro Francisco Aba Alfonso A ms compañeras: MSc. Bárbara de la Caridad Orta Aguilera Lic. Margarita Ramírez Sosa REFERENCIAS 1. Aba, Claro. Francisco (2014).Mejora al Modelo CMASCI para el diseño e implementación de un Sistema Integrado de Gestión Calidad, Inocuidad, Medio Ambiente, Seguridad y Salud en el Trabajo y Control Interno en la GMA Menelao Mora.” 2. Dr. Daniel Alfonso Robaina, Dra. Maritza Hernández Torres - INTEGRACIÓN del SISTEMA DE DIRECCION DE LA EMPRESA, Revista Cubana de Gestión Empresarial. 3. Lic. Lionel Carbonell-Zamora, Ing. Ernesto R. Veranes-Campo, Ing. Alberto Rivero-Quintana - INTEGRACIÓN DEL SISTEMA DE DIRECCIÓN DE EMPRESA. (ISSN 2218-3639), 2011. 4. Ing. Zarai Correa Ponce de León, Mejora al Modelo CMASCI para el diseño e implementación de un Sistema Integrado de Gestión Calidad y Control Interno en la UEB PROVARI- MADEME.” 5. Ing. Daylí Morales Fonte, Rediseño de la Etapa 1- Diagnóstico Integrado del Modelo CUJAE para la integración de Sistemas de Gestión. Aplicación en la Empresa ESAC, Marzo 2020 6. MSc. Lisandra Leal Rodríguez – Modelo para la mejora de la gestión de la calidad alineando el enfoque de gestión por procesos y tecnologías de la información, para organizaciones de servicios públicos, La Habana, 2021 7. NC 136:2017Sistema de análisis de peligros y de Puntos Críticos de Control (APPCC/HACCP) requisitos. 8. NC 143:2021 Código de prácticas. Principios generales de higiene de los alime 9. NC 452 Envase, embalaje y medios auxiliares. Requisitos sanitarios generales. 10. NC 454:2021 Transportación de alimentos. Requisitos sanitarios generales. 11. NC 455:2021 Manipulación de alimentos. Requisitos sanitarios generales. 12. NC 456:2021 Equipos y utensilios en contacto con los alimentos. Requisitos Sanitarios Generales. 13. NC 488:2009 Limpieza y desinfección en la cadena alimentaria. Procedimientos generales. 14. NC 492:2021 Almacenamiento de alimentos. Requisitos sanitarios generales. 13. NC 570:2007 Principios de aplicación práctica para el análisis de riesgos en el sector alimentario. 14. NC ISO-9000. 2015. Sistemas de gestión de la calidad. Fundamentos y Vocabulario. 15. NC ISO-9001. 2015. Sistemas de Gestión de la calidad. Requisitos. 16. NC ISO-9004. 2018 Gestión de la Calidad de una organización -Orientación para lograr el éxito sostenido. 17. NC ISO14001:2015 Sistemas de gestión ambiental — Requisitos con orientación para su uso. 18. NC ISO IEC 17025:2017 Requisitos generales para la competencia de los laboratorios de ensayo y Calibración. 19. NC ISO IEC 17050-1:2005 Evaluación de la Conformidad, Declaración de Conformidad del proveedor parte 1: Requisitos generales. 20. NC ISO 22000:2018 Sistemas de gestión de la inocuidad de los alimentos. Requisitos para cualquier organización en la cadena alimentaria. 21. NC ISO 22002-1:2015 Programas de Prerrequisitos de Inocuidad de los alimentos parte 1: producción de alimentos. 22. NC ISO 31000:2018 GESTIÓN DEL RIESGO ─ DIRECTRICES. 23. NC ISO IEC 31010:2015-3. Gestión del Riesgo - Técnicas de apreciación del riesgo. 24. NC ISO 45000:2018 Sistemas de Gestión de la Seguridad y Salud en el trabajo — Requisitos con orientación para su uso. 25. NC PAS 99:2012 – Especificación de requisitos comunes del sistema de gestión como marco para la integración. 26. UNE 66177:2005 – Sistemas de Gestión. Guía para la integración de los sistemas de gestión. Diagnóstico para la gestión de la innovación tecnológica en la competitividad de los productos en la empresa Genix LABIOFAM Ing. Jennyfert Cabrera del Amo1, Dra.C. Aleida González González 2 1Empresa de Aseguramiento y Servicios LABIOFAM, La Habana, Cuba. e-mail: jg.ingeniería@eas.labiofam.cuhttps://orcid.org/0000-0002-9068-0980 2Facultad de Ingeniería Industrial Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE). Cuba. e-mail: correo y su orcid RESUMEN La necesidad de ser competitivo sustenta las opciones de sobrevivencia o fracaso de las organizaciones. Un factor clave para afrontar con éxito estos tiempos reside, en acentuar la innovación de las empresas, entendiendo por innovación la capacidad para transformar los procesos empresariales y crear organizaciones más competitivas, ágiles y eficaces. Este es uno de los fenómenos más sobresalientes de la historia económica de la humanidad, dominando el panorama del paradigma de la productividad y de los componentes de la función de producción, facilitando y posibilitando el crecimiento socioeconómico. El problema se enmarca en la gestión de la innovación dirigida a la competitividad de productos, lo que constituye el objeto de la investigación y para su solución se definió como objetivo general, desarrollar un procedimiento para la gestión de la innovación que contribuya a aumentar la competitividad de los productos en la empresa Genix LABIOFAM. La precisión del objetivo de la investigación permitió, a su vez, delimitar como campo de acción la competitividad de productos en la empresa Genix LABIOFAM. Las propuestas de mejora son acciones para la gestión de la innovación que constituye una herramienta cuya implementación permite contribuir a la competitividad de los productos en la empresa Genix LABIOFAM. Los resultados se basan en un instrumento que sirve de base para alcanzar una mayor precisión de las acciones que deben emprenderse para garantizar el desarrollo sostenible de la entidad representando un importante aporte práctico en el sistema de dirección de LABIOFAM. Palabras clave: Calidad, innovación tecnológica, desarrollo empresarial. ABSTRACT The need to be competitive supports the options of survival or failure of organizations. A key factor to successfully face these times lies in emphasizing the innovation of companies, understanding innovation as the ability to transform business processes and create more competitive, agile and efficient organizations. This is one of the most outstanding phenomena in the economic history of humanity, dominating the landscape of the productivity paradigm and the components of the production function, facilitating and enabling socioeconomic growth. The problem is part of the management of innovation aimed at the competitiveness of products, which is the object of the investigation and for its solution it was defined as a general objective, to develop a procedure for the management of innovation that contributes to increasing competitiveness. of the products in the company Genix LABIOFAM. The precision of the objective of the research allowed, in turn, to define the competitiveness of products in the Genix LABIOFAM company as a field of action. The improvement proposals are actions for the management of innovation that constitutes a tool whose implementation allows contributing to the competitiveness of the products in the company Genix LABIOFAM. The results are based on an instrument that serves as a basis to achieve greater precision of the actions that must be undertaken to guarantee the sustainable development of the entity, representing an important practical contribution to the LABIOFAM management system. Keywords: Quality, technological innovation, business development. 1. Introducción En la actualidad las organizaciones se ven involucradas en un mar de posibilidades de mercados globalizados y virtuales, bienes y servicios altamente diversificados, segmentos de mercados cambiantes, calidad de bienes y servicios definidos por los clientes, evaluaciones de impactos ambientales, entre otros; por lo que es imprescindible el poseer elementos que permitan diferenciar a la empresa de sus principales competidores (Mathison Luis, 2007). Ante tales retos, se exige que, para lograr la creación de valor empresarial, la posibilidad de sobrevivir y prosperar en un nuevo entorno al que se dirige la sociedad exige nuevos planteamientos y actitudes. Es por ello, que en la actualidad donde la sociedad se orientan hacia la información y el conocimiento, las organizaciones se ven influenciadas por una creciente y más fuerte tecnología de información que afectan de alguna manera a los procesos económicos y empresariales; de hecho el acoplamiento entre la tecnología y el negocio se está configurando como una de las fuentes de creación de valor en las empresas, así como de generación de innovación y por ende en un factor de ventajas competitivas (Moraleda, 2004). Un factor clave para afrontar con éxito estos tiempos reside, en acentuar la innovación de las empresas, entendiendo por innovación la capacidad para transformar los procesos empresariales y crear organizaciones más competitivas, ágiles y eficaces. Este es uno de los fenómenos más sobresalientes de la historia económica de la humanidad, dominando el panorama del paradigma de la productividad y de los componentes de la función de producción, facilitando y posibilitando el crecimiento socioeconómico. La innovación se ha convertido en el pilar del crecimiento, permitiendo a las empresas posicionarse en mercados altamente competitivos (Schumpeter, 1939; Freeman, 1995), especialmente en los denominados países desarrollados. En la tercera edición del Manual, la cual amplía el marco de medición de la innovación en tres importantes sentidos. Se presta mayor atención al papel de las relaciones entre empresas e instituciones dentro del proceso de innovación. En segundo lugar, se reconoce la importancia de la innovación en sectores poco intensivos en I+D, como el sector servicios y el sector industrial con menor contenido tecnológico. Aunque la segunda edición también cubría estos sectores, aquel documento estaba orientado principalmente MANUAL DE OSLO a las empresas industriales. Ahora se modifican algunos aspectos del marco conceptual (como las definiciones de innovación y de actividades innovadoras) para adaptarlo mejor al sector servicios. En tercer lugar, la definición de innovación ha sido ampliada con el objetivo de incluir dos tipos de innovación adicionales: la innovación organizativa y la innovación comercial. El gestionar adecuadamente el conocimiento es importante para que las organizaciones y los países mejoren su competitividad y se puedan mover al ritmo de la globalización de la economía. No en vano la mayoría de los países han asumido una postura de vanguardia en cuanto al papel que cumple la innovación dentro de la sociedad, otros se encuentran en estado de alerta como es el caso de muchos países de Iberoamérica; tal como apuntan Albornoz & López (2010): “en las últimas décadas los países y los gobiernos de Iberoamérica han ido adquiriendo mayor sensibilidad acerca del papel de la ciencia y la tecnología en el desarrollo. La ciencia, la tecnología, el conocimiento y la innovación se han convertido en una cuestión de estado y, como tal, son objeto de políticas específicas”. De ahí que es fundamental adoptar una estrategia empresarial basada en la mejora continua. Lograr innovar de forma eficiente, es lograr ofrecer al mercado nuevos productos/servicios que se adapten a las necesidades reales percibidas por los clientes, mejor que las alternativas ofrecidas por los competidores. En el mundo empresarial no se innova por voluntarismo o por moda, sino por necesidad. La innovación determina cada vez más el crecimiento sostenido de las empresas. Éstas invierten en innovación porque la innovación representa la mejor oportunidad para aumentar cuota de mercado, reducir costos de producción y por ende incrementar los beneficios. La innovación, en la actualidad, se convierte en una de las estrategias empresariales más efectivas para lograr un valor añadido y garantizar la supervivencia y la competitividad en mercados cada vez más exigentes y globales. Sin embargo, todavía para algunas empresas, la innovación es sinónimo de complejidad y desconocimiento, tendiéndose a pensar que es exclusiva de las grandes empresas. Blanco (2013) y (Gutiérrez, 2013) en sus estudios refieren otras limitantes a la innovación empresarial como las que se relacionan con la existencia de tecnologías obsoletas, los problemas de gestión y planificación en la cadena de suministros, el poco nivel de interacción con proveedores y clientes, la escasa vigilancia tecnológica, las políticas deficientes de motivación e incentivos a los recursos humanos para la innovación, la existencia de ambientes organizacionales poco aptos para la Innovación y la falta de cultura innovadora. En estudios realizados por Díaz (2012), y (Cazul, Hernández, Sánchez, 2012) exponen problemas como el financiamiento de la innovación, la resistencia al cambio en las propias organizaciones y el exceso de centralización que ha limitado históricamente la iniciativa y autonomía de la empresa estatal socialista cubana. La Organización Superior de Dirección Empresarial, en forma abreviada OSDE LABIOFAM, es un grupo empresarial estatal socialista cubano, que desde la década de los años 90 se encuentra inmersa en un amplio proceso de diversificación de sus producciones dirigido a ampliar la presencia de sus productos y servicios tanto en el mercado nacional como el internacional. Esta se desempaña en un entorno externo globalizado donde los cambios se producen a una gran velocidad y la organización vive con incógnitas, aunque consciente de las tendencias del medio y las dificultades para enfrentarlas. Empresa Productora y Comercializadora de Productos Naturales GENIX-LABIOFAM lleva a cabo la obtención de suplementos nutricionales y cosmecéuticos a partir de fuentes naturales, a partir del conocimiento etnomédico y la experiencia científica acumulada, ha desarrollado suplementos nutricionales aportadores de elementos vitales (proteínas, vitaminas, minerales y oligoelementos) y mejoradores fisiológicos del organismo humano. Su uso está orientado hacia personas presuntamente sanas con factores de riesgo (ambientales, nutricionales o etarios), así como a personas sometidas a períodos de elevado estrés físico o psíquico por enfermedades crónicas o transmisibles. Las nuevas formulaciones en desarrollo incluyen materias primas de origen natural, tales como el plátano (Musa paradisiaca), mango (Mangifera indica), guanábana (Annona muricata), palo de caja (Allophylus cominia), microalgas (Spirulina plantensis). Debido al bajo nivel de industrialización, etc se manifiesta forma general se puede citar que en el caso de los productos como: la loción del Neem + citronela (500ml) se incrementa la producción entre los años 2022 al 2030 un promedio de 2500 frascos/ año, Concentrado Vimang acuoso 2650 frascos/año, siendo estas cifras muy insignificantes para un proceso industrial. Cuentan con una investigación de Spirulina +Vitamina C alta demanda en este tiempo de Pandemia Covid -19 y sin embargo solo se prevé su fabricación para el año 2027 con 36277 frascos y 2028 40277 respectivamente. Se hace necesario la innovación tecnológica que lleva consigo el proceso industrial y los recursos humanos para poder salir al mercado con un producto de mayor calidad y al alcance de futuras demandas. 2. Bases teóricas para la innovación empresarial y elementos para su evaluación. Métodos Inductivo-deductivo, para el diseño y aplicación de un procedimiento para la gestión de la innovación con el objetivo de contribuir a la competitividad de los productos de la Empresa Genix LABIOFAM. Métodos empíricos: Se realizó la búsqueda y análisis bibliográfico. Guías de evaluación de la innovación Delgado, M (2017), entrevistas por cuestionarios (encuestas), observación directa, Se utilizaron además las técnicas para la conformación del grupo de expertos según Martínez, R. (2018). Estudio de caso para la validación práctica de los objetivos específicos de la investigación a través de la evaluación de indicadores. 1.1 La innovación de nuevos productos en el sistema empresarial. En estas empresas que se desarrollan procesos de innovación tecnológica es necesario utilizar las investigaciones de mercado y la información proveniente de ellas para la toma de decisiones. Hay que profundizar en el conocimiento acerca de qué es una investigación de mercado, de sus ventajas, cómo emplearlas y estructurarlas dentro de las empresas para poder emplearla como una herramienta de gran utilidad. Se hace necesario, por tanto, capacitar y concientizar a los directivos sobre la necesidad de implementar investigaciones de mercado; además es vital la formación de profesionales que se dediquen a esta rama. 1.2 Innovación en productos naturales. El uso de los productos naturales, va desde la cosmética hasta la medicina, siendo esta ultima un tema de considerablemente extenso, el uso de las plantas se remonta a épocas muy antiguas, tales "remedios populares:" variaron, como es lógico, de acuerdo con las especies existentes en una determinada región y pueden ser estudiadas hoy en las sociedades más o menos primitivas que todavía existen. Es interesante dejar en claro que esas colecciones provenientes de materiales animales y vegetales, recopiladas durante siglos mediante el método de prueba y error, y como es de suponer, utilizando como "conejillo de indias" al propio paciente, seguramente deben de contener aspectos dignos de posterior investigación y no deben ser descartadas tan a la ligera solo porque su fuente no haya sido obtenida por la investigación científica moderno, sino por medio del conocimiento popular. El Sistema de Ciencia e Innovación Tecnológica cubre un amplio espacio que va desde la generación y acumulación de conocimientos hasta la producción de bienes y servicios y su comercialización, abarca las investigaciones básicas, las investigaciones aplicadas, los trabajos de desarrollo tecnológico, la protección legal de los resultados, las acciones de desarrollo asociadas a los estudios de carácter social, las diversas actividades de interface, los servicios científico-técnicos conexos, la transferencia vertical u horizontal de conocimientos y tecnologías, la actividad de mercadotecnia y el empleo de modernas técnicas gerenciales, y la concreción de todo este esfuerzo, en nuevos productos, en producciones elaboradas bajo nuevas concepciones, en nuevos o mejorados procesos tecnológico-productivos o en nuevos o mejorados tipos de servicios; así como en nuevos conceptos y elaboraciones teóricas relacionadas con la esfera social o nuevos procedimientos y métodos de dirección y organización en diferentes ámbitos de la sociedad. Se realizó la encuesta Delgado, M. Temas de gestión empresarial donde se aplica la guía de innovación y desarrollo al comité d eexpertos a partir del método de Martínez, R. (2018), Marrero-Hernández, R. A. & Smith Fernández A. (2022), para la captación de los datos primarios, a partir del análisis de los métodos actuales de evaluación de extrategias presentes en la empresa. Figura 1. Resultados de la extrategia de organización de la empresa Genix LABIOFAM. En las dos primeras preguntas de estrategia, la alta dirección reconoce que la estrategia no tiene presente a la innovación y no es proactiva a ella, no anticipándose a los cambios del mercado. En este apartado se pone de manifiesto que al no existir una estrategia definida por la organización es poco fiable la respuestas de estas encuestas, aunque si reflejan la realidad de la organización. Es decir que la empresa no es proactiva a la innovación y no la considera estratégica. Figura 2. Resultados despliegue de la extrategia de organización de la empresa Genix LABIOFAM. A razón del gráfico anterior el consejo de dirección coincide en que a pesar de no estar definida la innovación en la estrategia de la organización, se pone de manifiesto la implementación en cuanto a responsabilidades, presupuesto, recursos humanos y el desarrollo de productos nuevos, y la mejora de los ya existentes. La respuesta es ambigua aunque está más hacia el no en cuanto a la aplicación de estas innovaciones en observancia con el mercado. Esto arroja claridad sobre el hecho de que a pesar de no existir estrategias proactivas a la innovación, existe una estructura para su funcionamiento, lo que demuestra la baja cultura sobre la innovación que existe en la entidad. Figura 3. Resultados cultura innovación de la empresa Genix LABIOFAM. La cultura en la innovación es insuficiente en todos los aspectos, excepto en la escucha de los clientes como fuente para las mejoras a los productos y la investigación de los nuevos. Figura 4. Resultados innovación de nuevos productos en la empresa Genix LABIOFAM. La empresa desarrolla nuevos productos, introduce mejorar en los procesos productivos, no mejora los procesos en la cadena de suministro, ventas y comercialización, en la atención al cliente, y es aun deficiente la adquisición de equipos para mejorar la eficiencia y efectividad. Figura 5. Resultados innovaciónes generales en la empresa Genix LABIOFAM. Los resultados son deficientes, dado que se pone de manifiesto que es la que en el sector tiene mayor incidencia en cuanto a las innovaciones pero esto está dado que para las producciones principales no existen competidores nacionales. Por lo que los resultados son dudosos, y los ingresos no son significativos producto de las innovaciones dado el largo tiempo de investigación y registro de los nuevos productos, y la falta de implementación en el proceso de I+D+i, al no tener respaldo tecnológico para desarrollar en escala industrial estas producciones. Por lo que se puede afirmar que la innovación empresarial de Genix es insuficiente. Otro de los aspectos a evaluar es si la organización aprende de acuerdo a al experiencia o la permanencia y trasmision d ellos conocimientos entre generaciones OA 8OA 7OA 6OA 5OA 4OA 3OA 2OA 1 4 3 2 1 0 D at os Aprendizaje de la empresa Figura 6. Evaluar la prueba de la organización que aprende Al analizar los datos, queda de manifiesto la poca capacidad de aprendizaje que tiene la entidad. Al obtener 1 y 2 en valores muy bajos para la organización. De igual manera se evalua el mercado, tecnologías integradoras en la empresa Genix LABIOFAM, perteneciente al MINAG. Es una entidad de investigación, de producción, de servicios y en perfeccionamiento empresarial. Producción mercantil, ventas netas de bienes y/o servicios exportaciones, volumen de ingresos, utilidad, costo por peso de producción mercantil, total de activos fijos puestos en explotación. La empresa realizó ventas por 7,595. MP lo que representa el 100.3 % de ejecución con respecto al plan, los ingresos totales se comportan de manera similar con 103.9.2 % de cumplimiento y un valor de 8,318.2. MP, los gasto sin embargo se ejecutan por debajo de los ingresos en un 3.6 %, con respecto al plan quedan al 99.6 % con una cifra de 7,143.8 MP, lo que resulto en una Ganancia de 1,174.4 MP para un cumplimiento del plan en 132.2 %. Gastos totales 4984538.51 y Gastos en I+D (Investigación y Desarrollo) en el caso de existir: 0 Actividades de I+D. Las actividades internas de I+D son trabajos creativos llevados a cabo dentro de la empresa, que se emprenden de modo sistemático para aumentar el volumen de conocimientos y concebir nuevas aplicaciones, como productos (bienes/servicios) y procesos nuevos o sensiblemente mejorados. 1. Departamento o laboratorio específico de I+D x 5. Departamento de control de calidad x 2. Departamento de diseño □ 6. Departamento comercial □ 3. Departamento de producción □ 7. Departamento de informática □ 4. Departamento técnico x 8. Otros departamentos (especificar) x UDI Número de personas dedicadas a actividades de I+D. Puede relacionarlo con lo marcado en el apartado anterior.17 Distribución del gastos corrientes de I+D según tipo que se realiza en porcentaje del total de gastos. Innovación tecnológica. Una innovación tecnológica, es un producto (bien o servicio) nuevo o sensiblemente mejorado introducido en el mercado, o un proceso nuevo o sensiblemente mejorado introducido en la empresa. Se basa en resultados de nuevos desarrollos tecnológicos, nuevas combinaciones de tecnologías existentes o en el uso de otros conocimientos adquiridos por la empresa. Los cambios de estética, la mera venta de innovaciones producidas completamente por otras empresas, y los simples cambios de organización o gestión, no se incluyen. La innovación (producto o proceso) siempre es nueva para la empresa y no tiene que ser nueva en el mercado. Al analizar la competencia de mercado, se observa que se comporta en la media, sin embargo se debe trabajar en mejorar la conformidad de los clientes, se conocen las necesidades, pero no se trabaja en la efectividad que estos exigen. En las competencias tecnológicas se observa que se hacen fuertes inversiones en las actividades de investigación y desarrollo, pero se debe trabajar en la implementación de estas. Demuestra que se acumulan fuertes y variadas habilidades tecnológicas, pero según refleja el análisis de la organización que aprende no existe correspondencia en los resultados de ambas encuestas. La empresa debe crear los mecanismos para que esas variadas habilidades tecnológicas permanezcan. CM_8CM_7CM_6CM_5CM_4CM_3CM_2CM_1 7 6 5 4 3 D a to s 6 5 5 5 3 5 3 5 COMPETENCIAS DE MERCADO CT_8CT_7CT_6CT_5CT_4CT_3CT_2CT_1 7 6 5 4 3 2 1 Da to s 2 7 4 4 4 5 4 4 COMPETENCIAS TECNOLOGICAS CI_8CI_7CI_6CI_5CI_4CI_3CI_2CI_1 6 5 4 3 2 Da to s 3 3 4 5 5 4 2 5 COMPETENCIAS INTEGRATIVAS El gráfico de competencias integrativas se encuentra muestra una calificación sobre la media, lo que se corresponde con lo que sucede en la empresa. Se debe trabajar en agregar valor a los productos para diferenciarlos en el mercado, mejorarlos y ser más competitivos. Los resultados obtenidos en la evaluación de las turbulencias del mercado y tecnológica, así como la ejecución de la empresa, se comportan de la media hacia abajo. A pesar del marcado deterioro de la tecnología, todo el producto se vende, pero no es competitivo; el marketing no es una fortaleza de la empresa. La alta dirección debe trazar objetivos para alcanzar la competitividad y penetrar otros mercados, lo que ayuda al mejoramiento del rendimiento global. TM_3TM_2TM_1 6 5 4 3 2 D a t o s 5 5 3 TURBULENCIA DE MERCADO TT_2TT_1 4,0 3,8 3,6 3,4 3,2 3,0 D a t o s 3 3 TURBULENCIA TECNOLOGICA EE_3EE_2EE_1 5,0 4,8 4,6 4,4 4,2 4,0 D at os 4 4 4 EJECUCIÓN DE LA EMPRESA Conclusiones finales Para la identificación del problema fundamental se utilizaron como instrumentos, encuestas, se realizó una matriz de significación y de motricidad. Se evaluó la DAFO. Obteniéndose como problema fundamental el bajo nivel de satisfacción de clientes. La empresa tiene varias problemáticas identificadas, en su banco de debilidades. Al analizar los elementos de la matriz DAFO, un problema recurrente y que está presente en las oportunidades, amenazas y en las debilidades, es el bajo nivel de la satisfacción de la demanda del polvo de la spirulina. Por lo que este es la problemática a trabajar, principalmente por ser el producto líder de la empresa. La spirulina se le cultiva en espejos de agua con sistemas de agitación, y la biomasa pasa por mesas de filtrado, mesas de filtrado al vacio, homogenizado, y secador espray, para la obtención del polvo de la spirulina, a un costo de 60 000 pesos la tonelada. Existen dos plantas de obtención de spirulina, en la actualidad existen un total de 5 espejos de 50000 litros y 10 espejos de agua de 20000 litros sin explotar. La capacidad de secado que hoy tenemos es de 12000 kg mensual para un máximo con tres turnos de trabajo de 15000 kg. Esta cifra es lograble con 2 estanques de los 16 existentes, y con índices bajos de explotación. El polvo de spirulina se utiliza para elaborar diferentes productos entre ellos los más significativos son las tabletas de suplementos, las líneas cosméticas, alimentos, agrego alimentario veterinario, biofertilizantes, tintes y otros. La demanda nacional del 2016 en tabletas fue de 1 millón y se surtió por la existencias de polvo almacenado del año 2019-2020 y 12 lotes del 2013. Por el mercado internacional la demanda fue de 7 toneladas de polvo, y 3 toneladas de biofertilizantes, aquí cabe destacar que existe mercado para la exportación de polvo principalmente Europa, por las cualidades de la spirulina cubana. La producción de polvo de spirulina el año 2020 fue de 5 ton y de ellas 3 resultaron no conformes, por lo que necesitaron de irradiación para su comercialización. En el año 2019 de un plan de 12 Ton se obtuvieron 8 Ton, teniendo que irradiar 7 Ton. CONCLUSIONES 1- Se evaluó la innovación tecnológica de la empresa Genix LABIOFAM donde se manifiesta su deficienci ya que no tiene un procedimiento a seguir en cada una de sus líneas. 2- Los 4 componentes que se determinaron como bases para la evaluación de innovación tecnológica son: Desempeño económico, comercial y de la satisfacción de los clientes, Capacidad tecnológica y eficiencia de los factores productivos, Desarrollo del conocimiento, la innovación RECONOCIMIENTOS Los autores desean agradecer a los directivos la empresa Genix LABIOFAM que posibilitaron el intercambio, la aplicación del instrumento en la empresa seleccionada, así como las informaciones utilizadas en el estudio. REFERENCIAS Aponte, F., Gloria María. (2016). GESTIÓN DE LA INNOVACIÓN TECNOLÓGICA MEDIANTE EL ANÁLISIS DE LA INFORMACIÓN DE PATENTES. Negotium, vol. 11, 28. Bizkaia. (2001). Guía Básica para la aplicación de las TICs en PYMES.: Robotiker Franco, J., & Guerra, G., Adriana R. . (agosto 2018). Nuevos enfoques de la innovación: Inclusión social y sostenibilidad Vol. 1. A. Foro Consultivo Científico y Tecnológico (Ed.) Navarra, A. d. l. I. (2008). Guía práctica La gestión de la Innovación en 8 pasos Vol. 1. Padrón, A. L., Leyva, A. L., Acosta, J. M. Z., & Fernández, L. S. Q. (2019). Principales problemas identificados en tesis de doctorado en Ciencias de la Educación: una sistematización de experiencias. Rev. Cubana Edu. Superior, vol.38 Pérez, P., S., Moreno, M., Freddy , & Padrón, Z., Tania (enero, 2018). LA INNOVACIÓN TECNOLÓGICA Y LA INVESTIGACIÓN DE MERCADO EN EL SISTEMA EMPRESARIAL CUBANO. Universidad y Sociedad, Volumen 10 Número 1 7. Rodrigo, V. V. (2008). Innovación Empresarial Arte y Ciencia en la Creación de Empresas (M. F. Castillo & L. Pearson Educación de Colombia, © 2008 Eds. TERCERA EDICIÓN ed.). Scarano, E. R. (2017). LA TESIS DE DOCTORADO EN ADMINISTRACIÓN. Universidad Nacional de La Plata, Argentina. Retrieved from https://www.redalyc.org/articulo.oa?id=511653847002 T. Boronat, N. M., D. Garcia-Sanoguera, O. Fenollar, & Fombuena, V. (2017). Utilización de técnicas Kanban para la gestión de tesis doctorales. Grupo de Innovación de Prácticas Académicas (GIPA), Universitat Politècnica de València, Plaza Ferrándiz y Carbonell s/n, Alcoy, Alicante (ESPAÑA). 7. Aponte, F., Gloria María. (2016). GESTIÓN DE LA INNOVACIÓN TECNOLÓGICA MEDIANTE EL ANÁLISIS DE LA INFORMACIÓN DE PATENTES. Negotium, vol. 11, 28. Bermúdez, M. D. C., & Cuevas, J. L. G. (2020). Educación superior, innovación y gestión de gobierno para el desarrollo 2012-2020. Ingeniería Industrial, vol.41 Bizkaia. (2001). Guía Básica para la aplicación de las TICs en PYMES.: Robotiker Franco, J., & Guerra, G., Adriana R. . (agosto 2018). Nuevos enfoques de la innovación: Inclusión social y sostenibilidad Vol. 1. A. Foro Consultivo Científico y Tecnológico (Ed.) Navarra, A. d. l. I. (2008). Guía práctica La gestión de la Innovación en 8 pasos Vol. 1. Padrón, A. L., Leyva, A. L., Acosta, J. M. Z., & Fernández, L. S. Q. (2019). Principales problemas identificados en tesis de doctorado en Ciencias de la Educación: una sistematización de experiencias. Rev. Cubana Edu. Superior, vol.38 Pérez, P., S., Moreno, M., Freddy , & Padrón, Z., Tania (enero, 2018). LA INNOVACIÓN TECNOLÓGICA Y LA INVESTIGACIÓN DE MERCADO EN EL SISTEMA EMPRESARIAL CUBANO. Universidad y Sociedad, Volumen 10 Número 1 7. Rodrigo, V. V. (2008). Innovación Empresarial Arte y Ciencia en la Creación de Empresas (M. F. Castillo & L. Pearson Educación de Colombia, © 2008 Eds. TERCERA EDICIÓN ed.). Scarano, E. R. (2017). LA TESIS DE DOCTORADO EN ADMINISTRACIÓN. Universidad Nacional de La Plata, Argentina. Retrieved from https://www.redalyc.org/articulo.oa?id=511653847002 T. Boronat, N. M., D. Garcia-Sanoguera, O. Fenollar, & Fombuena, V. (2017). Utilización de técnicas Kanban para la gestión de tesis doctorales. Grupo de Innovación de Prácticas Académicas (GIPA), Universitat Politècnica de València, Plaza Ferrándiz y Carbonell s/n, Alcoy, Alicante (ESPAÑA). 7. Annette Malleuve-Martínez I, V. C. R.-D. I., Daniel Alfonso-Robaina I. (2019). Integration of management system with enterprise architecture approach in a communications enterprise. Vol XL. Brenton. (2019). Los 10 tipos de innovación de Doblin (Vol. 1). Cienfuegos, R. C. d. l. U. d. (2018). “la generalización de las investigaciones sobre el tema, la atención de los organismos internacionales, los intentos de medición y su inclusión en la agenda política de los gobiernos. | Número 1 Volumen 10. Pérez Padrón, L. S. (2019). TECHNOLOGICAL INNOVATION AND MARKET RESEARCH IN THE CUBAN ENTERPRISE SYSTEM. Sheu, D. D. (2020). The International Journal of Systematic Innovation. 2, 06. TITULO: PROGRAMAS DE POSGRADO UN RETO PARA LA EXCELENCIA EN LA UNIVERSIDAD TÉCNICA DE MANABÍ Autores:Fe Esperanza Vivas Vivas¹ fe.vivas@utm.edu.ec*, Freya Erika López Vivas²flopez6681@utm.edu.ec, Andrés Miguel Anchundia Loor, andres.anchundia@utm.edu.ec,Galo Arturo Perero Espinoza⁴ galo.perero@utm.edu.ec, Cindy Gabriela Vásquez Vera⁵cvasquez1232@utm.edu.ec Resumen: La educación de posgrado, concebida como el último nivel de la formación de grado, debe tener la capacidad de responder a las necesidades cambiantes de su entorno, mediante la provisión de conocimiento y habilidades relevantes para las comunidades a las quesirven. Los programas de posgrado deben ser capaces de innovar, invertir en capitalintelectual, desarrollar nuevos programas, currículos y cursos, que les permitan darrespuesta a las necesidades cambiantes del mundo. En este sentido se comprende como un compromiso y responsabilidad social que la Universidad Técnica de Manabí (UTM) tiene a través el diseño de programas los mismos que se enmarcan en diferentes áreas del conocimiento como son: agronomía, agrícola, veterinaria, ingenierías, administración, salud, educación y humanística haciendo de la UTM una de las universidades con más oferta académica en el país y por tanto con mayor número de estudiantes que desean superarse y a la vez rendir mas en su entorno labora respondiendo de esta menara con mejor preparación, logrando así el compromiso,investigación, desarrollo e innovación, el objetivo fue analizar los enfoques para seleccionar las diversas maestrías y que están respondan a los requerimientos de la sociedad por lo que se utilizó las encuestas a los grupos de interés de cada una de las áreas del conocimiento y esto permitió diseñar los programas dando como resultado la gran variedad de ofertas de posgrado aportando de esta manera al desarrollo de la sociedad. Palabras claves: pertinencia, responsabilidad social, diseño de programas 1Agenda “Conectar 2020”, UIT, Suiza, 2016. 2MsC. Pérez Castillo, Osmel. “Una estrategia de recursos humanos en la Empresa de Telecomunicaciones de Cuba S.A, para el período 2016 – 2021”. Tesis de Maestría en Administración de Negocios, La Habana, 2017. MEJORA DEL PROCESO OPERACIONES DE LA RED EN ETECSA CON ENFOQUE A ARQUITECTURA EMPRESARIAL. Lic. Maite Reyes Cañedo1, Dr. C. Lisandra Leal Rodríguez 2, Dr. C. Aleida González González3 1ETECSA. Calle: 5ta entre 76 y 78, Edificio Barcelona. Centro de Negocios Miramar. Playa. La Habana. Cuba. CP: 10600. Email: maite.reyes@etecsa.cu 2CUJAE. Departamento de Ingeniería Industrial. Calle 114 entre Rotonda y Ciclo Vía. Marianao. La Habana. Cuba. Email: llealr@ind.cujae.edu.cu 3CUJAE. Departamento de Ingeniería Industrial. Calle 114 entre Rotonda y Ciclo Vía. Marianao. La Habana. Cuba. Email: agonza@ind.cujae.edu.cu RESUMEN Las empresas del sector de las telecomunicaciones han evolucionado aceleradamente, obligadas por la convergencia tecnológica, la integración de los procesos y servicios; en este contexto ETECSA debe implementar cambios acelerados en la infraestructura y servicios, desarrollando la tecnología y la integración de sus plataformas, progresando en la gestión de su personal y así mejorar el desempeño de sus procesos, que cada vez son más complejos y generan mayor información, trayendo consigo la necesidad de alcanzar niveles superiores de informatización. De ahí que el objetivo del trabajo es aplicar el Modelo de mejora de la gestión de la calidad alineando el enfoque de gestión por proceso y tecnologías de la información en la Vicepresidencia de Operaciones de la Red (OR) en ETECSA, para brindar a la organización la capacidad de respuesta ante el cliente y las partes interesadas, identificándose como problema la necesidad de estudiar el proceso Operación de la Red, identificando aquellos elementos del negocio, la tecnología, la información y las aplicaciones que impactan sobre él e impiden que el proceso se gestione eficientemente. Los principales resultados fueron que, con la aplicación del modelo se logró implementar los cambios en la estructura organizativa de ETECSA y se determinaron los aspectos de mejora en el proceso para elevar los niveles de calidad del servicio. PALABRAS CLAVES: proceso, arquitectura empresarial, operaciones de la red, mejora de la calidad. GUIDELINES FOR PREPARING ARTICLES FOR THE XX SCIENTIFIC CONVENTION ON ENGINEERING AND ARCHITECTURE ABSTRACT Companies in the telecommunications sector have evolved rapidly, forced by technological convergence, the integration of processes and services; In this context, ETECSA must implement accelerated changes in infrastructure and services, developing technology and the integration of its platforms, progressing in the management of its personnel and thus improving the performance of its processes, which are increasingly complex and generate more information. , bringing with it the need to reach higher levels of computerization. Hence, the objective of the work is to apply the Quality Management Improvement Model by aligning the management approach by process and information technologies in the Vice Presidency of Network Operations (OR) in ETECSA, to provide the organization with the ability to respond to the client and the interested parties, identifying as a problem the need to study the Network Operation process, identifying those elements of the business, technology, information and applications 1Agenda “Conectar 2020”, UIT, Suiza, 2016. 2MsC. Pérez Castillo, Osmel. “Una estrategia de recursos humanos en la Empresa de Telecomunicaciones de Cuba S.A, para el período 2016 – 2021”. Tesis de Maestría en Administración de Negocios, La Habana, 2017. that have an impact on it and prevent the process from being manage efficiently. The main results were that, with the application of the model, it was possible to implement the changes in the organizational structure of ETECSA and the aspects of improvement in the process were determined to raise the levels of quality of the service. KEY WORDS: Processes, business architecture, quality of service, improvement, network operations. 1. INTRODUCCIÓN. Los acelerados cambios del entorno que hoy enfrentan las organizaciones conlleva que estas se adapten rápidamente al continuo desarrollo, siendo necesario que se orienten hacia “mejoramiento continuo” de su desempeño organizacional y la plena satisfacción de los clientes. A partir de lo que proponen los modelos de excelencia en la gestión empresarial y las normas de referencia (en particular la familia ISO 9000), cuando se adopta un enfoque al cliente y a procesos se pueden obtener resultados coherentes y previsibles de manera más eficaz y eficiente. Las empresas que pertenecen al sector de las telecomunicaciones en las últimas cuatro décadas han evolucionado a un ritmo apresurado, período en el que se considera el fin del modelo de negocio tradicional de un operador de telecomunicaciones, viéndose forzadas a transformar su organización por la convergencia tecnológica y la integración de los procesos y servicios. La Empresa de Telecomunicaciones de Cuba ETECSA S.A, no ha operado en un entorno competitivo, lo que no la exime de implementar cambios acelerados en la infraestructura y servicios de telecomunicaciones para poder soportar desde las telecomunicaciones el desarrollo económico del país y la informatización de la sociedad. ETECSA reconoce la necesidad de realizar de manera acelerada un cambio que abarque los procesos que cada vez son más complejos y generan mayor información, las tecnologías de la información y las formas de hacer y pensar, de forma tal que se puedan tener redes más robustas, adquirir e implementar sistemas y plataformas, gestionar los conocimientos de la nueva situación tecnológica y cambiar los conceptos tradicionales de la operación y la atención al cliente. En tal sentido, la empresa está diseñando una de las etapas del Cambio Organizacional, que tiene como objetivo evolucionar de un modelo organizativo enfocado a productos, a un modelo con enfoque a procesos, que facilite la prestación de servicios convergentes a los clientes, así como el cumplimiento de las actuales y futuras metas de la Empresa. La vicepresidencia de Operaciones de la Red (OR) en ETECSA, se enmarca dentro de las áreas claves, de esta depende en gran medida el desarrollo de nuevos servicios y la capacidad de respuesta ante nuevos requerimientos de las partes interesadas, de ahí que el objetivo general de la investigación es la mejora de la misma, con un enfoque de arquitectura empresarial. 2. MATERIALES Y MÉTODOS Para mejorar los servicios que se brindan en la Vicepresidencia de Operaciones de la Red en ETECSA con enfoque a Arquitectura Empresarial se analizaron diferentes métodos, seleccionándose el “Modelo de mejora de la gestión de la calidad alineando el enfoque de gestión por proceso y tecnologías de la información”. Este modelo se desarrolla desde la perspectiva estratégica (misión, visión, objetivos e indicadores estratégicos), hasta llegar a una descripción (construcción de la arquitectura) integrada, detallada y metodológica de la estructura actual y futura de la organización. El Modelo se concibe en cinco etapas: Etapa 1. Preparación de las condicione: tiene como propósito identificar, a partir de las brechas de desempeño que se perciben en la organización, la pertinencia de la realización del proyecto de mejora y permite crear las condiciones para la ejecución del mismo. Etapa 2. Construcción de la arquitectura actual: se realiza el diagnóstico de la situación actual de cada dominio (negocio, información, aplicaciones y tecnología) en función de lograr el cumplimiento de los objetivos estratégicos. Etapa 3. Construcción de la arquitectura objetivo: se realiza con el propósito de lograr el diseño alineado de los procesos con el nivel estratégico, de procesos y de cargos y con las tecnologías de la información que lo soportan. Etapa 4. Identificación, priorización, implantación y seguimientos de los proyectos de mejora: se realiza con el fin de incorporar las mejoras propuestas al desempeño de la organización de modo 1Agenda “Conectar 2020”, UIT, Suiza, 2016. 2MsC. Pérez Castillo, Osmel. “Una estrategia de recursos humanos en la Empresa de Telecomunicaciones de Cuba S.A, para el período 2016 – 2021”. Tesis de Maestría en Administración de Negocios, La Habana, 2017. planificado, teniendo en cuenta las necesidades y condiciones existentes. Etapa 5. Establecimiento y medición de la arquitectura objetivo: se analizan los resultados del seguimiento y medición. Estos se utilizan para evaluar el grado de satisfacción del cliente; el desempeño organizacional y si lo planificado se ha implementado de forma eficaz, de modo que puedan adoptarse las mejoras necesarias. En la figura 1 se ilustran las etapas del Modelo. Figura 1. Estructura del modelo de mejora de la gestión de la calidad alineando el enfoque de gestión por proceso y tecnologías de la información. Fuente: Leal, 2021. Los aspectos que caracterizan el modelo concebido se han desarrollado a partir referente metodológico expuestos en el marco teórico – referencial como son las buenas prácticas expuestas por los autores siguientes: Rodríguez, González, Noy y Pérez, 2012; Valdés, 2014; Barata (2015); Malleuve, Alfonso, Lavandero y Ramos (2018); Ricardo, Medina, Abreu, Gómez y Nogueira (2018) y Hendy, Johanes, Fergyanto y Jordy (2020). El modelo se sustenta en los principios siguientes: 1. Mejora: se alcanza de la actividad recurrente para mejorar el desempeño de la organización (ISO, 2015). Las actividades de mejora pueden variar desde las pequeñas mejoras continuas hasta las mejoras significativas de toda la organización (ISO, 2015 e ISO, 2018). 2. Enfoque estratégico: orientar la organización hacia el cumplimiento de sus propósitos/objetivos, visión y estrategia a través del liderazgo y compromiso de las personas (Chiavenato y Sapiro, 2017). 3. Enfoque a procesos: se alcanzan resultados coherentes y previsibles de manera más eficaz y eficiente cuando las actividades se entienden y gestionan como procesos interrelacionados que funcionan como un sistema (ISO, 2015; ISO, 2015 e ISO, 2018). 4. Enfoque de arquitectura empresarial: permite describir y controlar la estructura de una organización, los procesos, las aplicaciones, los sistemas y la tecnología de una manera integrada (Lankhorst, 2013 y; Álvarez y Patiño, 2015). 1Agenda “Conectar 2020”, UIT, Suiza, 2016. 2MsC. Pérez Castillo, Osmel. “Una estrategia de recursos humanos en la Empresa de Telecomunicaciones de Cuba S.A, para el período 2016 – 2021”. Tesis de Maestría en Administración de Negocios, La Habana, 2017. 5. Alineación del desempeño: capacidad que tiene la organización de armonizar los resultados individuales, grupales y de la propia organización (JUSE, 2020; Baldrige, 2020; FUNDIBEQ, 2020; ONN, 2019; EFQM, 2020) o de la alineación entre sus estrategias, políticas, procesos y recursos para lograr los objetivos estratégicos (ISO, 2015; ISO, 2018). 6. Iterativo: la arquitectura objetivo una vez implantada pasa a ser la actual para la organización y entonces se conciben nuevos proyectos de mejora. El desarrollo del modelo depende del cumplimiento de las premisas siguientes: 1. Compromiso de la alta dirección con la implantación del modelo: debe ser la alta dirección de la organización consciente de la necesidad de mejora y estar dispuesta a convertirse en líder y protagonista del proceso. 2. Disposición al cambio en los rasgos de la cultura hacia los resultados y su mejora continua. La implantación del modelo se realiza a través de un procedimiento general y (7) procedimientos específicos, como se observa en la figura. 1 y el diagrama 1. En este se encuentra la secuencia e interacción de cada uno de los procedimientos que lo componen. El procedimiento general detalla los elementos a tener en cuenta para diagnosticar la situación actual de la arquitectura en función de los niveles de desempeño organizacional donde se operacionaliza el concepto de arquitectura empresarial, determinando los pasos y herramientas que deben aplicarse para detectar las deficiencias e identificar oportunidades. Además, permite construir y visualizar la arquitectura objetivo en base a estas oportunidades de mejora con vistas a planificar los proyectos que permitirán la transformación organizacional de manera que contribuya a mejorar la gestión de la calidad que brindan estas organizaciones que prestan servicios a la población, y por tanto repercutir en su satisfacción y calidad de vida. En este procedimiento, una vez establecida la arquitectura objetivo deja establecida la herramienta para medir los resultados alcanzados y establecer una nueva iteración, como se muestra en el diagrama 2.1, que puede abarcar todos los procedimientos o responder a una necesidad de actuación puntual en uno de ellos, lo cual, según la concepción del modelo, es factible realizar siempre que no atente contra la alineación. 1Agenda “Conectar 2020”, UIT, Suiza, 2016. 2MsC. Pérez Castillo, Osmel. “Una estrategia de recursos humanos en la Empresa de Telecomunicaciones de Cuba S.A, para el período 2016 – 2021”. Tesis de Maestría en Administración de Negocios, La Habana, 2017. SI P-01-01: Preparación de las condiciones. P-01-02: Diagnóstico estratégico Existen reservas de mejora? P-01-03: Diseño estratégico alineado. P-01-04: Diagnóstico de la AA. NO SI P-01-05: Diseño de la AO. P-01-06: Identificación, priorización, implantación, seguimiento y control de los proyectos de mejora. P-01-07: Establecimiento y medición de la arquitectura objetivo. Se han producido cambios en el contexto El nivel de implantación promedio de los proyectos >70% NO NOSI Se han implantado? SI NO Diagrama. 1. Flujo del procedimiento general de mejora de la gestión de la calidad alineando el enfoque de gestión por procesos y tecnologías de la información. Fuente: Leal, 2021. Las actividades correspondientes a cada procedimiento han sido representadas y descritas en el acápite 2.2 ¨Diseño de los procedimientos específicos que sustentan la implementación del modelo y su procedimiento general¨. En este se detallan por cada procedimiento, los responsables, las entradas y salidas, las herramientas y los resultados. Es fundamental resaltar que los procedimientos han sido diseñados para que sean introducido con la ayuda del equipo gestor, aunque para su desarrollo sea fundamental el compromiso y la participación de la alta dirección y los trabajadores de la organización. 3. RESULTADOS Y DISCUSIÓN 1Agenda “Conectar 2020”, UIT, Suiza, 2016. 2MsC. Pérez Castillo, Osmel. “Una estrategia de recursos humanos en la Empresa de Telecomunicaciones de Cuba S.A, para el período 2016 – 2021”. Tesis de Maestría en Administración de Negocios, La Habana, 2017. En las Etapas 1 y 2 del Modelo se realizó el diagnóstico estratégico. En estas etapas se realiza el análisis de los entornos externo e interno del proceso de OR de la Vicepresidencia de Operaciones de Red, se determina la matriz DAFO, las partes interesadas, así como la construcción de la arquitectura actual de cada dominio. Desarrollo de la Etapa 1 del Modelo: se considera como entorno externo a los órganos reguladores que rigen la actividad de las telecomunicaciones a nivel nacional e internacional y a ETECSA y como entorno interno a la Vicepresidencia de Operaciones de Redes de ETECSA y al proceso de OR a nivel de vicepresidencia, ya que sus influencias son notables en las decisiones que se puedan tomar. A partir de los factores identificados como parte del análisis del entorno se confeccionó la matriz DAFO representada en la figura 2 y en la tabla 1 se identifican las partes interesadas del proceso de OR. Figura 2: Matriz DAFO para el proceso de OR. 1Agenda “Conectar 2020”, UIT, Suiza, 2016. 2MsC. Pérez Castillo, Osmel. “Una estrategia de recursos humanos en la Empresa de Telecomunicaciones de Cuba S.A, para el período 2016 – 2021”. Tesis de Maestría en Administración de Negocios, La Habana, 2017. Proceso Partes Interesadas Descripción Partes Interesadas Documentos que establecen los requisitos Vicepresidencia de Negocios Internacionales Vicepresidencia de Operaciones de Red División La Habana (DVLH) Direcciones Territoriales Centros de Telecomunicaciones (CTLC) Vicepresidencia de Operaciones de Red Vicepresidencia de Inversiones Vicepresidencia de Tecnologìas de la Informaciòn Vicepresidencia de Estrategias de Negocios y Tecnologías Dirección Central de Negociación e Importaciones División de Logística y Servicios Dueños Tecnologías Contratos Acuerdos de Servicios Lloyd´s Register Contratos UIT MINCOM CITMA Presidencia ETECSA Vicepresidencia de Operaciones de Red Dirección Central de Capital Humano Dirección de Inteligencia Empresarial Dirección Central de Seguridad y Defensa Dirección de Operaciones de Seguridad Direción de Asuntos Legales Ente certificadores (ONN) Contratos Operadores Internacionales Contratos Acuerdos de Servicios Trabajadores Contrato Laboral Convenio Colectivo Trabajo Empleadores Contrato Laboral Convenio Colectivo Trabajo Otras Operaciones de la RED Reguladores Clientes Vicepresidencia Comercial Mapa de funciones y responsabilidades Acuerdos de servicios Políticas y Normas de Operación de la Red Procedimientos Instrucciones Mapa General de Procesos ETECSA Mapa de funciones y responsabilidades Políticas Normas Resoluciones Instrucciones Procedimientos Proveedores Internos Políticas Resoluciones y Normas Procedimientos Instrucciones Acuerdos de servicios Mapa de funciones y responsabilidades Proveedores Externos Tabla 1: Partes interesadas del proceso de Operaciones de la Red. Desarrollo de la Etapa 2 del Modelo: como parte del diagnóstico se construye la arquitectura de negocio (AN) actual, comenzando por el análisis del proceso de OR, para lo cual se realizaron intercambios de trabajo con las áreas rectoras de los servicios que permitieron verificar el nivel de implementación y conocimiento del proceso de OR vigente, caracterizar el proceso en cada Unidad Organizativa (UO) y delimitar las responsabilidades entre las diferentes UO que participan. Se realizaron un total de 5 reuniones y 29 intercambios de trabajo con las 4 áreas rectoras de los servicios; en esos intercambios se entrevistaron un total de 29 directivos entre Directores, Jefes de Dptos., Jefes de CTLC y Jefe de Taller; además se realizaron intercambios con especialistas no solo presencial sino vía telefónica; en sentido general el 98% de las personas entrevistadas manifestaron no tener conocimiento de la existencia del documento “Instrucción 5 / 2012 VPOR”, que aprueba el procedimiento de OR vigente. En estos intercambios se identificaron aspectos importantes que inciden en la gestión eficaz del proceso, en la tabla 2 se muestran los resultados del diagnóstico correspondiente a la arquitectura de negocio. 1Agenda “Conectar 2020”, UIT, Suiza, 2016. 2MsC. Pérez Castillo, Osmel. “Una estrategia de recursos humanos en la Empresa de Telecomunicaciones de Cuba S.A, para el período 2016 – 2021”. Tesis de Maestría en Administración de Negocios, La Habana, 2017. Dominios Arquitectura Estructura organizada por servicios Existen contradicciones entre el mapa de procesos de OR y el mapa de funciones y responsabilidades de la DVSF y DVSM. Desconocimiento del Proceso de OR vigente, con enfasis en los procesos OR-O1 Planificación y diseño de la solución del servicio y OR O5 Captación del uso e información de recursos. Mediciones de satisfacción asociada a los servicios convergentes con resultados por debajo del coeficiente de satisfacciòn establecido (Cs> 80). Brecha de conocimiento entre los especialistas red fija y red mòvil. La División de Servicios Fijos, Servicios Móviles y Servicios Internacionales tienen Sistema de Gestión de la Calidad (SGC) certificado con la NC ISO 9001: 2015, aunque solo para la Divisiòn de Servicios Internacionales el sistema tiene alcance a todos los servicios que brinda la unidad. Resutados Diagnòstico En la División de Telefonía Pública el proceso OR se ejecuta en su totalidad a nivel de Direcciones Territoriales (nivel III de la estructura) y de Centros de Telecomunicaciones (Nivel IV de la estructura), sin embargo a nivel de División (nivel II de la estructura) solo se ejecutan los procesos OR O1 Planificación y diseño de la solución del servicio y OR S6 Gestión de Políticas y Normas de Operación de la Red. AN Tabla 2: Resultados del diagnóstico para la arquitectura de negocio. De igual manera se construyó la arquitectura de información (AI) actual a partir del levantamiento de los flujos de información de cada proceso, los indicadores de proceso y de calidad de los servicios y de la documentación existente relativa al proceso de OR identificándose: un total de 276 documentos, clasificándolos en 88 procedimientos, 121 instrucciones, 2 manuales de procedimiento, 40 normas técnicas, 4 metodologías y 21 documentos categorizados como otros; solo la División de Servicios Fijos, Móviles e Internacionales tienen elaborada la lista maestra de documentos. La realización del diagnóstico con enfoque de arquitectura empresarial provee las herramientas necesarias para tomar decisiones oportunas y correctas sobre tecnología, procesos y estructura organizativa, contribuyendo a evaluar los posibles impactos en los clientes por cambios internos en la organización y cambios externos y mejorar la cultura empresarial. En la Etapa 3 del modelo se identifica por cada dominio los elementos de la arquitectura actual que inciden en la arquitectura objetivo o deseada. En la tabla 3 se presenta la arquitectura objetivo por dominio. 1Agenda “Conectar 2020”, UIT, Suiza, 2016. 2MsC. Pérez Castillo, Osmel. “Una estrategia de recursos humanos en la Empresa de Telecomunicaciones de Cuba S.A, para el período 2016 – 2021”. Tesis de Maestría en Administración de Negocios, La Habana, 2017. Tabla 3. Arquitectura actual & arquitectura objetivo por cada dominio. Fuente: Elaboración propia. En la Etapa 4 para implantar la arquitectura objetivo se diseña el plan de cambio teniendo en cuenta los escenarios, capacidades y propósitos de la organización. En este se declaran los responsables, los recursos básicos, los principales riesgos, las prioridades y la fecha de cumplimiento. Los riesgos declarados en el plan de cambio están identificados según el procedimiento establecido en ETECSA para la gestión de riesgos: PG-CI-023/12 “Procedimiento para la Gestión y Prevención de Riesgos en ETECSA”. Empleando como herramienta el Diagrama de Gantt utilizado también para graficar las acciones del plan. Se elabora e implementa la propuesta de estructura (Figura 3) y mapa de funciones y responsabilidades para la Vicepresidencia de Operaciones de la Red. Se elabora la matriz de responsabilidad de cada dirección con el proceso de Operaciones de la Red y de Tecnologías de la Información, en función de la propuesta de estructura como se muestra en la tabla 4. A partir de los estudios y sesiones de trabajo realizadas con los directivos y especialistas de operaciones de los territorios, se realiza la primera propuesta de estructura para Operaciones de la Red de la DVLH y demás territorios del país. 1Agenda “Conectar 2020”, UIT, Suiza, 2016. 2MsC. Pérez Castillo, Osmel. “Una estrategia de recursos humanos en la Empresa de Telecomunicaciones de Cuba S.A, para el período 2016 – 2021”. Tesis de Maestría en Administración de Negocios, La Habana, 2017. Figura 3. Organigrama de la Vicepresidencia de Operaciones de la Red Fuente: VPOR y Grupo 2 del PCO de ETECSA, 2019. 1Agenda “Conectar 2020”, UIT, Suiza, 2016. 2MsC. Pérez Castillo, Osmel. “Una estrategia de recursos humanos en la Empresa de Telecomunicaciones de Cuba S.A, para el período 2016 – 2021”. Tesis de Maestría en Administración de Negocios, La Habana, 2017. Tabla 4. Matriz de responsabilidad del proceso OR y TI en la nueva Vicepresidencia Fuente: Elaboración propia. A partir del análisis de la documentación y en función de la integración de redes se elabora el cronograma para actualizar la documentación, priorizando los procedimientos e instrucciones de los procesos de aseguramiento de la red, específicamente el diagnóstico y la gestión de fallas. En el dominio se aplicaciones y tecnología se desarrolla la aplicación informática para actualizar el levantamiento de la planta exterior haciendo uso de la herramienta Captador de Datos, así como el Sistema Geo-referencial (GIS) que permite gestionar y actualizar el inventario de red de planta exterior. Posteriormente se despliega el uso del Captador de Datos y del GIS en todo el país y se emigra el GIS al Data Center creando acceso nacional al Sistema. 4. CONCLUSIONES La aplicación del modelo permitió mejorar la VOR con enfoque de Arquitectura Empresarial y específicamente al proceso Operaciones de la Red aportó información relevante, contribuyendo al Proyecto de Cambio Organizacional (PCO), sean lo más coherente posible, estandarizando tecnologías, métodos y funciones, que garanticen el correcto desempeño de las operaciones de la red. Permitió además identificar oportunidades de mejoras e implementar la estructura organizativa de la Vicepresidencia de Operaciones de la Red. que impactan en el desempeño del proceso y los niveles de calidad del servicio, como son: necesidad de actualizar los mapas de funciones y responsabilidades de OR a partir de la propuesta de estructura por procesos; elaborar un Plan de Gestión del Cambio para garantizar la implementación del proceso; actualizar y organizar la documentación existente para el proceso, priorizando el flujo de aseguramiento; organizar capacitaciones internas sobre el proceso a todos los niveles de la empresa, así como acciones con enfoque integrador y conferencias técnicas por tecnologías; realizar el levantamiento del inventario de red (planta exterior) y crear el mecanismo para mantenerlo actualizado; crear las bases para implementar el SGC en la Vicepresidencia de Operaciones de Red con el objetivo de mantener la certificación del SGC en aquellos servicios que tienen alcance al proceso; implementar la estrategia de desarrollo de la red a corto plazo que permita modernizar aquella infraestructura de red que se encuentre obsoleta. REFERENCIAS 1. Agenda “Conectar 2020”, UIT, (2016). Suiza. 2. Alonso A. S., Michelena E. S., & Robaina D. A. (2012). “Dirección por procesos en la Universidad/Process management in the University”, Ingeniería Industrial, 34(1). 3. Bernárdez M. (2007) “Desempeño organizacional. Conceptos y herramientas para la mejora, creación e incubación de nuevas organizaciones”, (Vol. 8), Authorhouse, Estados Unidos. 4. Business Process Framework (eTOM) Poster Frameworx 16.0 -TM, Forum 2017. 5. Calderón, Anías C. & Sánchez Pompa, A. (2011) "El Mapa de Operaciones de las Telecomunicaciones mejorado, eTOM", Revista de Telemática, No 12. 6. Caracterización Empresarial de ETECSA. Objetivos de Trabajo 2018 y 2019. Vicepresidencia de Integración de Redes. 7. Deming W. E. (1982) “Quality, productive and competitive position”, Universidad de Cambridge, Estados Unidos. 8. ETECSA. Resolución 42/2010. Mapa General de Procesos. http://www.portal.etecsa.cu/index. (acceso enero 7, 2018). 9. ETECSA. Instrucción 5 / 2012. Descripción del proceso de Operaciones de la Red. Vicepresidencia de Operaciones de la Red. 10. Ing. Carballo González, Claudia (2017) “Propuesta de FSO como tecnología complementaria en la red de ETECSA”, Dirección de Planeamiento Estratégico, DCDT, ETECSA. Vol. 14, No. 1, RNPS: 0514. TONO, Revista técnica de la Empresa de Telecomunicaciones de Cuba, S.A., La Habana, Cuba. 1Agenda “Conectar 2020”, UIT, Suiza, 2016. 2MsC. Pérez Castillo, Osmel. “Una estrategia de recursos humanos en la Empresa de Telecomunicaciones de Cuba S.A, para el período 2016 – 2021”. Tesis de Maestría en Administración de Negocios, La Habana, 2017. 11. Lescay Cordero, Milagros Mercedes; Pérez Vergara, Ileana G. (2009). “Procedimiento para la mejora de los procesos operativos”. ETECSA, Ingeniería Industrial, vol. XXX, núm. 1, pp. 1-8 Instituto Superior Politécnico José Antonio Echeverría, La Habana, Cuba. 12. Leal Rodríguez, Lisandra (2021). “Modelo para la mejora de la gestión de la calidad alineando el enfoque de gestión por procesos y tecnologías de la información, para organizaciones de servicios públicos”, Tesis de Doctoral, Universidad Tecnológica de la Habana José A. Echeverría, cujae, Cuba. 13. MsC. Pérez Castillo, Osmel. (2017) “Una estrategia de recursos humanos en la Empresa de Telecomunicaciones de Cuba S.A., para el período 2016 – 2021”, Tesis de Maestría en Administración de Negocios, La Habana, Cuba. 14. MsC. Rodríguez Ramos, Arelys. (2012) “Diseño del proceso de operaciones de red en ETECSA”. Tesis de Maestría en Ciencias, La Habana, Cuba. 15. Norma NC ISO 9001:2015 “Sistema de Gestión de la Calidad. Requisitos”. 16. Unión Internacional de Telecomunicaciones. “Informe sobre la Medición de la Sociedad de la Información de 2017 – Resumen”. Place des Nations CH-1211 Ginebra 20 Suiza. 17. Consultado: http://www.itu.int/rec/T-REC-M/ ITU-T. Recomendaciones de la serie M. (acceso julio 2, 2019) 18. Consultado en: http://www.tmforum.org/AbouttheTMForum/730/home.html. (acceso julio 2, 2019) CONTACTO Dr. C. Lisandra Leal Rodríguez. CUJAE. Departamento de Ingeniería Industrial. Calle 114 entre Rotonda y Ciclo Vía. Marianao. La Habana. Cuba. Email: llealr@ind.cujae.edu.cu 1 GESTIÓN DE LA COLABORACIÓN EN EL MARCO DE LAS RELACIONES INSTITUCIONALES DE LA CUJAE Susana Soto Villanueva1, Laura María Santalla Rodríguez2, Ester Susana Michelena Fernández3, María Alejandra Reino Fernández4, Martha Dunia Delgado Dapena5, Angela Martínez Miranda6, 1Ingeniera Industrial, ssotov@tesla.cujae.edu.cu, 2Ingeniera Industrial, lmaria@tesla.cujae.edu.cu, 3Ingeniera Industrial, michelena@tesla.cujae.edu.cu, 4Ingeniera Industrial, marf981121@gmail.com, 5Ingeniera Informática, vicerrectora.primera@tesla.cujae.edu.cu, 6Ingeniera Industrial, angelam@ind.cujae.edu.cu, RESUMEN Las Relaciones Institucionales forman parte del plan estratégico de muchas empresas, instituciones y entidades de todo tipo. Además de reforzar sus legítimos intereses y mejorar su conocimiento, imagen pública y notoriedad, contribuye a la calidad de la formación de los profesionales, la pertinencia de las investigaciones y en general al impacto de la institución en el desarrollo de su entorno. Para ello resulta de vital importancia el estudio de modelos de control de gestión y sus metodologías de apoyo que orienten el rediseño del proceso estratégico enfocado en la gestión de los procesos de forma tal que contribuya al éxito de la organización. La presente investigación tiene lugar en la Universidad Tecnológica de la Habana José Antonio Echeverría (Cujae). Se definió como problemática fundamental: La carencia de métodos adecuados para la planificación, ejecución y control de la colaboración en el marco de las relaciones institucionales de la Cujae provoca deficiente gestión de las acciones derivadas de un convenio de colaboración. A partir de esto se propone como objetivo general: Mejorar la gestión de la colaboración dentro del proceso de relaciones institucionales de la Cujae. En consecuencia, se utilizó el modelo de ciclo de vida de gestión de procesos de negocio propuesto por Marlon Dumas et al, con el fin de rediseñar el proceso de Relaciones Institucionales. Este permitió identificar la relación existente con la proyección estratégica de la Universidad y diagnosticar el proceso estudiado, detectando deficiencias en su ejecución para ser solucionadas a partir del rediseño. PALABRAS CLAVES: Relaciones Institucionales, gestión de procesos de negocio (BPM), rediseño. COLLABORATION MANAGEMENT WITHIN THE FRAMEWORK OF CUJAE'S INSTITUTIONAL RELATIONS ABSTRACT The institutional relations belong to the strategic plan as an element of a lot of companies, institutions and entities. In addition to reinforce the legitimate interests of these and to improve their knowledge, public image and notoriety, it contributes to the quality of the formation of professionals, the pertinence of investigations and in general to the impact of the institution in the development of their surroundings. To achieve this is an important matter the study of management control models and its backup methodologies that guide the redesign of the strategic process focus on business process management that contribute to the success of the organization. The present investigation takes place at the Technological University of Havana José Antonio Echeverría (Cujae). It was defined like fundamental problem: The scarcity of suitable methods for planning, execution and control of the collaboration in the frame of the institutional relations of the Cujae provokes deficient derivative actions of an agreement of collaboration. Therefore, the general objective is set as: Improve the collaboration management within the process of institutional relations of the Cujae. In consequence, it was used the life cycle of business process management proposed by Marlon Dumas aiming the redesigning of the Institutional Relations process. This allowed identifying the existent 2 relation with the strategic projection of the University and diagnosing the studied process, detecting deficiencies in its execution to be solved through the redesign. KEY WORDS: Institutional Relations, business process management (BPM), redesign. 1. INTRODUCCIÓN Las organizaciones, cada vez toman mayor conciencia de la necesidad de desarrollar y establecer relaciones institucionales fluidas en el tiempo con sus grupos de interés e influencia [1]. En Cuba las relaciones universidad-empresa revelan incuestionables esfuerzos por alcanzar dinamismo, pero aún persisten vacíos. Aunque se ofrecen algunas respuestas, no se aprovechan las potencialidades de ambas personas jurídicas, porque por lo general transitan por caminos diferentes [2]. Es insuficiente el diseño de estructuras flexibles e integrales para regular comportamientos conjuntos a largo plazo con exigencias recíprocas de las partes que condicionen un alto desempeño en función de resultados e impactos sociales. A partir de la demanda de la máxima dirección del país sobre el papel que deben jugar las universidades en el Sistema de Gestión de gobierno basado en la Ciencia y la Innovación, teniendo como pilar la relación Gobierno-Universidad-Empresa se hace necesario la creación de capacidades para la innovación en todos los ámbitos de la vida social y económica del país. Para ello la Universidad debe, en primera instancia, fortalecer los vínculos Gobierno-Universidad-Empresa y transformar su proceso de Relaciones Institucionales. La Universidad Tecnológica de La Habana “José Antonio Echeverría”, Cujae desde el 2016, concibe las Relaciones Institucionales como parte de su estrategia para dar cumplimiento a sus objetivos estratégicos y alcanzar su visión. Para ello mantiene el enfoque a procesos como la base de la estructura del sistema de gestión. Dichos procesos se identificaron de forma tal que se pueda lograr una adecuada correspondencia entre la misión, visión y objetivos estratégicos, la sistemática de trabajo, los recursos, las estrategias y los procesos con sus indicadores, dando como resultado el mapa de procesos de la institución. Sin embargo, este proceso estratégico actualmente no se encuentra del todo formalizado, lo que genera fallas en la gestión de las actividades asociadas al proceso. En este escenario se identifica el siguiente problema de investigación: La carencia de métodos adecuados para la planificación, ejecución y control de la colaboración en el marco de las relaciones institucionales de la Cujae. Este trabajo tiene como objetivo: Mejorar el subproceso de la gestión de la colaboración en el marco de las relaciones institucionales de la CUJAE. Los métodos de trabajo empleados para el desarrollo del objetico fueron: métodos teóricos como análisis y síntesis para el estudio crítico del estado del arte sobre la gestión de convenios, los métodos empíricos como la observación para comprobar y fundamentar la propuesta diseño para el proceso Relaciones Institucionales en la entidad objeto de estudio y los métodos estadísticos para tabular los datos empíricos obtenidos y establecer las generalizaciones apropiadas a partir de ellos. 2. DISEÑO Y MODELADO DE PROCESOS DE NEGOCIO CON ENFOQUE BPM. REVISÓN DE LA LITERATURA. Un proceso es un conjunto de actividades interrelacionadas entre sí que, a partir de una o varias entradas de materiales o información, dan lugar a una o varias salidas [3, 4]; las cuales tributan a los objetivos de la organización y agregan valor al cliente [5]. Un proceso de negocio debe: ser detonado por agentes externos o clientes de dicho proceso; tener actividades con un propósito; y ser ejecutado colaborativamente por un grupo de trabajadores de distintas especialidades y cruzar, con frecuencia, las fronteras de un área funcional [6]. La gestión de procesos de negocio (BPM, por su nombre en inglés) es un conjunto de métodos, herramientas y tecnologías utilizados para diseñar, representar, analizar y controlar procesos de negocio operacionales [7]. También puede ser visto como una filosofía de gestión y un conjunto de principios que, tomando como eje los procesos, plantea medir los resultados obtenidos, para controlar las actividades y procedimientos y tomar las decisiones que correspondan para mejorar el rendimiento del negocio [8]. BPM se sustenta en tres pilares fundamentales, orientados a la identificación y entendimiento, automatización y orquestación y 3 a la monitorización y control en los procesos. Estos pilares responden a la correcta aplicación de las etapas del ciclo de vida de BPM, los cuales son desarrollados e implementados a través de diferentes metodologías [9]. 2.1. Ciclo de Vida BPM. En la literatura científica consultada no existe uniformidad sobre la denominación, cantidad y ordenamiento de las etapas del ciclo de vida BPM (Ver Tabla 1). Tabla 1: Fases del ciclo de vida BPM por autor Autor/ Año Fases del ciclo de vida ABPMP 2019 [10] (5 fases) F1-Alineamiento con la estrategia y los objetivos. F2-Diseño de cambios. F3-Desarrollo de iniciativas, F4-Implementación de los cambios, F5- Medición del éxito. Dumas 2018 [11] (6 fases) F1-Identificación, F2-Descubrimiento, F3-Análisis de los procesos, F4- Rediseño, F5-Implementación, F6-Seguimiento y Control Weske 2012 [12] (4 fases) F1-Diseño y Análisis, F2-Configuración, F3-Validación, F4-Evaluación Von Rosing 2015 [13] (6 fases) F1-Análisis, F2-Diseño, F3-Construcción, F4-Despliegue/ Implementación, F5-Mantenimiento, F6-Mejora Continua Hitpass 2014 [14] (7 fases) F1-Levantamiento del Proceso, F2-Documentación del proceso, F3-Diseño As-Is, F4-Análisis de mejora, F5-Diseño To-be, F6-Implementación del proceso, F7-Monitoreo del Proceso Fuente: Elaboración propia. Al analizar las etapas del ciclo BPM que proponen los autores estudiados se observan que estas tienen objetivos comunes:  Objetivo 1: Identificar los procesos clave de la organización y documentarlos de manera que reúnan las características deseadas para asegurar el cumplimiento de los objetivos estratégicos de la organización.  Objetivo 2: Modelar y analizar el estado actual de los procesos (As-Is) que lleva a cabo la organización, con el fin de identificar debilidades que afecten el rendimiento de los procesos claves identificados.  Objetivo 3: Rediseñar el proceso (modelo deseado, To-be) a partir de la información recopilada en las etapas anteriores.  Objetivo 4: Configurar, implementar y desplegar el modelo de proceso deseado (To-be) según el entorno de ejecución que utilice la organización.  Objetivo 5: Realizar un seguimiento y control a las instancias necesarias de los procesos que permitan el desarrollo eficiente de las actividades y propósitos organizacionales propuestos.  Objetivo 6: Identificar las fortalezas y debilidades del proceso rediseñado, con el fin de buscar mejoras que puedan ser implementadas. Al establecer una relación matricial entre las etapas del ciclo BPM propuestas por los autores estudiados y los objetivos mencionados anteriormente. De un total de 5 modelos se identificó que en el 100% de ellos estaban presente los 6 objetivos. Esto demuestra que existe una coincidencia semántica y en cuanto a objetivos en varias de las fases del ciclo BPM propuestas por los autores consultados. Por ejemplo, se identificó que las fases denominadas "Implementación de Procesos" y "Despliegue/Implementación" de Hitpass y Von Rosing respectivamente, coinciden en su propósito con la fase de "Configuración" de Weske. Esta coincidencia semántica también se aprecia de manera parcial entre Dumas y Von Rosing con las fases de "Rediseño" y "Construcción", en ambas se realiza el diseño To-Be del proceso, pero Von Rosing incluye en esta etapa actividades relacionadas con el análisis del modelo As-Is, mientras que Dumas propone dichas actividades, en la fase de Análisis de Procesos. Se encontraron, además, diferentes niveles de granularidad en la especificación de las fases. Por ejemplo, Dumas, Hitpass, ABPMP y Von Rosing segregan en diferentes fases lo que Weske define como Análisis y 4 Diseño. Los dos primeros coinciden en delimitar como fases independientes las relacionadas a la identificación y documentación de los procesos antes de pasar al diseño. Por otro lado, ABPMP identifica como primera fase "Alineamiento con la estrategia y los objetivos" que indica que los procesos que serán identificados deben quedar especificados de forma rigurosa y deben estar alineados a las metas estratégicas y operacionales de negocio, por lo que enfoca esta fase en lograr una comprensión de los objetivos y estrategias organizacionales para establecer las líneas de acción en las que se basaría el BPM a implementar. Dumas y Hitpass conciben un modelo de ciclo de vida BPM bastante similar. Sin embargo, Dumas define que la fase "Descubrimiento de Proceso", también puede ser llamada "Modelado de Proceso As-Is", de lo que Hitpass difiere, al llamarlo "Diseño As-Is", pues argumenta que el modelado de procesos no es una etapa del ciclo de BPM, sino que es más bien una actividad transversal, que por de facto se aplica en todas las fases del ciclo. Igualmente, en la fase de “Implementación” ambos autores destacan dos aspectos fundamentales: La gestión del cambio organizacional, que implica el conjunto de actividades requeridas para cambiar la forma de trabajar de los actores del negocio involucrados en el proceso y la automatización del proceso a partir de la implementación de sistemas de TI que sirven de soporte para el futuro proceso deseado (To-be). Las últimas etapas de cada modelo propuesto, aunque son llamadas de diferente manera por cada autor, se refieren a la Mejora continua; persiguen objetivos de evaluación para dar la continuidad cíclica que se busca en los modelos, a través de acciones de control sobre los problemas detectados al monitorear los cambios realizados al proceso. Cada fase del ciclo de vida del proceso debe estar alineada con los objetivos y metas de la organización y del proceso para que esté organizado adecuadamente [20]. Esto crea la base para lograr un alto rendimiento, centrado en los resultados comerciales y creación de valor, para la empresa y sus clientes [21]. Precisamente, las metodologías analizadas están enfocadas en la búsqueda de estos resultados, principalmente la de Dumas por considerar la organización de manera global en cada una de sus fases propuestas. El ciclo de vida BPM presentado por Dumas se muestra como uno de los más detallados en cuanto a concepción y granularidad de cada una de sus fases o etapas, por ello será tomado como referente para en análisis del proceso objeto de estudio en la presente investigación. La Figura 1 muestra el modelo del ciclo de vida propuesto por este autor y la relación entre sus etapas y en la Tabla 2 se resume el alcance de cada fase y sus principales resultados. Figura 1 Ciclo de vida BPM. Fuente: Dumas, La Rosa, Mendling & Reijers 2018 [15]. Tabla 2: Fases del ciclo de vida BPM. 5 Fuente: Dumas, La Rosa, Mendling & Reijers 2018 [11]. 3. GESTIÓN DE COLABORACIÓN EN EL MARCO DE LAS RELACIONES INSTITUCIONALES EN LA CUJAE. CONTEXTO DE DESARROLLO Y DIAGNÓSTICO. Para el diagnóstico de la gestión de la colaboración en el marco del proceso FP 05-04 Relaciones Institucionales de la Cujae se propone el esquema de trabajo basado en el ciclo de vida de BPM propuesto por Dumas [11] presentado en el epígrafe anterior. Solo se tomarán como referencia las cuatro primeras fases del ciclo propuesto, pues se ajustan más a los objetivos de la investigación, además de que no se cuentan con las condiciones necesarias para desarrollar las fases de implementación y seguimiento. En los siguientes acápites se expondrán los resultados del diagnóstico del proceso de Relaciones Institucionales, específicamente el subproceso Gestión de la colaboración a partir de establecer el alcance del proceso y su alineación con los objetivos estratégicos de la Universidad. La información recopilada permitirá realizar un modelo del proceso de Relaciones Institucionales, que se corresponda al escenario actual en el que se ejecuta, o modelado As-Is como se ha hecho referencia anteriormente. 3.1. Etapa 1. Identificación del proceso de Relaciones Institucionales En esta etapa se realizó la revisión del proyecto estratégico existente en la Cujae y su relación con el proceso de Relaciones Institucionales. Se ubicó dicho proceso como estratégico de la universidad. Basados en los resultados obtenidos al cierre del periodo estratégico 2017-2021 se tiene una estrategia maestra para Relaciones Institucionales, dos estrategias específicas y 28 indicadores de los cuales 4 constituyen indicadores esenciales. Se analizaron los principales resultados, fortalezas y debilidades de las Relaciones Institucionales reflejados en los Informes de Cumplimiento desde el 2017 hasta el 2019, en donde se evidencian problemas relacionados con la gestión deficiente del subproceso gestión de la colaboración, generando fallas en la ejecución de procesos sustantivos y su alineación estratégica. Igualmente se aprecian reservas en la explotación de potencialidades que generan resultados de impacto para el campus universitario. Fase Alcance Resultado Identificación de procesos. Comprender los objetivos de la organización y determinar los problemas claves del negocio. Identificar, delimitar e interrelacionar los procesos de negocio relacionados con el problema y su solución. Arquitectura de procesos actualizada Descubrimiento de procesos Documentar el estado actual de cada uno de los procesos relevantes. Modelos de proceso As-Is (1 o varios modelos). Análisis de proceso. Identificar, documentar y cuantificar los problemas asociados con el proceso As-Is, utilizando medidas de desempeño. Colección estructurada de problemas Rediseño de procesos Identificar cambios en el proceso que ayudarían a dirigir los problemas identificados en la fase anterior y permitir a la organización conocer sus objetivos de rendimiento. Modelos de procesos futuros To-be (1 o varios modelos). Implementación de procesos. Planificar y ejecutar los cambios para pasar del proceso As-Is al proceso To-Be. Comprende dos aspectos: La gestión del cambio organizacional y la automatización del proceso. Modelo de Procesos Ejecutable Seguimiento y control de procesos Recolectar y analizar los datos obtenidos del desempeño del proceso para comparar cuan bueno es el rendimiento del proceso con respecto a sus medidas y objetivos de desempeño establecidos inicialmente. Rendimiento del proceso Plan de acciones correctivas 6 Actualmente, el proceso de Relaciones Institucionales cuenta con cuatro grandes subprocesos como se aprecia en la Figura 2; los cuales son: Proyección de Relaciones Institucionales, Gestión de la Colaboración, Ejecución y Seguimiento y Cierre. Figura 2: Proceso de Relaciones Institucionales. Fuente: Elaboración propia. Se definió el alcance de cada subproceso y se realizó el levantamiento de los actores y documentos que se identifican en los mismos, estos se reflejan en la Tabla 3. Tabla 3: Documentos y actores de los subprocesos de Relaciones Institucionales. Subproceso Documentos Actores Proyectar Relaciones Institucionales -Proyección estratégica y prioridades del país, MES y la Cujae -Informe de Cumplimiento del proceso de Relaciones Institucionales. -Evaluaciones de coordinadores de colaboración. -Líneas de Desarrollo de las Ciencias Técnicas en el mundo. -Plan de presupuesto -Plan de aseguramiento de las Relaciones Institucionales. -Decano -Vicerrectoría Primera. -Dirección de Relaciones Internacionales. -Vicerrectoría Económica -Vicerrectoría de Extensión Universitaria. -Vicerrectoría de Investigación y Postgrado. -Vicerrectoría Docente. -Asesor de Protocolo. -Coordinadores de Colaboración -Dirección de Calidad -Dirección de Ciencia y Técnica. Gestión de la Colaboración. -Proformas de convenio/contrato marco. -Expedientes de colaboración. -Dictamen Jurídico -Anexo 1. Líneas de Trabajo -Registro de Convenios -CETA -Vicerrectoría Primera. -Entidad Externa. -Asesor Jurídico. Ejecución -Expediente de acción específica. -Plan de Actividades -Vicerrectoría Primera -Entidad externa -Asesor de Protocolo. -Dirección de Servicios -Dirección de Economía -Dirección de Alimentación -Dirección de Transporte y Servicios Generales. -DISERTIC -Dirección de Residencia Estudiantil -Dirección de Alojamiento -Dirección de Información. 7 Seguimiento y Cierre -Banco de Soluciones Innovadoras. -Acuerdos -Coordinadores de colaboración -Decano -Vicerrectoría Docente -Vicerrectoría de Extensión Universitaria. -Vicerrectoría de Investigación y Postgrado. Fuente: Elaboración propia. 3.2. Etapa 2: Descubrimiento de la Gestión de la Colaboración Tras identificar la relación que tiene el proceso de Relaciones Institucionales con la proyección estratégica de la Universidad e identificar los principales subprocesos que integran dicho proceso, el alcance, así como los documentos y actores que integran a cada uno de ellos, se procedió a detallar los elementos que integran el subproceso de Gestión de la Colaboración como principal objeto de estudio a rediseñar dentro del proceso de Relaciones Institucionales. El proceso de Relaciones Institucionales actualmente carece de procedimientos formalizados. La información recolectada para realizar la modelación del proceso de Gestión de la Colaboración As-Is (Figura 3), se obtuvo a partir de la utilización de dos métodos: Descubrimientos basado en evidencia a partir del análisis de documentos y Descubrimiento basado en entrevistas, con expertos del proceso. Figura 3: Subproceso de Gestión de la Colaboración. Fuente: Elaboración propia Como resultado de la modelación se identificaron 17 actividades y un Subproceso. Estas actividades fueron clasificadas utilizando la notación BPMN. Se obtuvo que el 88,2% de las actividades son manuales y un 11,8 % de envío. Estas actividades de envío no son generadas a partir de una aplicación de negocio, sino que se realizan a través del uso de herramientas ofimáticas, por tanto, se puede concluir que el 100% de las actividades que se realizan en el modelo actual son manuales. No existen actividades de usuario pues ninguna actividad se realiza con el uso de un sistema informático o base de datos fuera de búsquedas en Internet, uso de correo electrónico, o algún programa del paquete de Office. 8 3.3. Etapa 3: Análisis de la Gestión de la Colaboración El diagnóstico realizado al proceso de Gestión de la Colaboración en la Cujae permitió identificar 13 deficiencias, las cuales se agruparon según ejecución, información y aplicaciones de negocio. Ejecución 1. No están formalizados los procedimientos. 2. Existen actividades relacionadas al análisis de solicitud y a la negociación de la proforma muy generalizadas, sin un nivel de especialización. 3. Incumplimiento en la secuencia del flujo de actividades. 4. Incumplimiento de reglas de negocio que afectan la ejecución y el control del proceso. 5. Incumplimiento de políticas establecidas para la ejecución de las Relaciones Institucionales. Información 6. Deficiente control de la información. 7. No se cuenta con modelos formalizados para la documentación existente. 8. Errores en la codificación de la información que generan duplicados de Dictámenes realizados en fechas diferentes para un mismo convenio. 9. Ausencia de un canal o modelo que oficialice el inicio del proceso de Gestión de la Colaboración. 10. Convenios que no contienen toda la documentación establecida. 11. La no implementación de medios de trabajo definidos para la realización de convenios. Aplicaciones de negocio 12. No existe una aplicación de negocio para la gestión del proceso que permita el registro, análisis, ejecución y control de la información. 13. No existe un registro digital adecuado que permita llevar el control sobre las sobre la información del proceso de Gestión de la Colaboración. 4. DISEÑO DEL SUBPROCESO GESTIÓN DE LA COLABORACIÓN EN EL MARCO DE LAS RELACIONES INSTITUCIONALES DE LA CUJAE. RESULTADOS Y DISCUSIÓN. Siguiendo las etapas del ciclo de vida BPM propuesto por Dumas, corresponde en este epígrafe realizar el rediseño del proceso, su implementación y el seguimiento y control. Para el rediseño se deben tener en cuenta los resultados obtenidos en las etapas anteriores. El rediseño del proceso se ejecutará de forma paralela al desarrollo de soluciones informáticas dirigidas a agilizar la interacción entre los participantes en varios momentos de ejecución del proceso. Ello permitirá capturar los requisitos de negocio y que estos sean tenidos en cuenta en el desarrollo de la aplicación. De esta forma la implementación del proceso no será posible hasta tanto no haya sido desarrollada, desplegada y puesta en funcionamiento la solución informática. En lo adelante se expondrán los resultados obtenidos como parte de la etapa de rediseño de proceso, siendo modificados los elementos del proceso que sean necesarios: alcance, actividades y roles, formatos y flujos de información. Además, se realizará la documentación del proceso (ficha de proceso, procedimientos y formatos) teniendo en cuenta las modificaciones propuestas. 4.1. Alcance del proceso Fp-05-04 Relaciones Institucionales: Los resultados del análisis del proceso reflejan la necesidad de modificar el alcance del proceso y redefinir sus subprocesos, quedando como se muestran en la Figura 4. 9 Figura 4: Subprocesos del proceso Fp-05-04 Relaciones Institucionales (modelo to be). Fuente: Elaboración propia. Se mantienen los Subprocesos de Proyección de Relaciones Institucionales y Gestión de la Colaboración. Se añade el subproceso Gestión de Oportunidades de Colaboración potenciar acciones que generen intereses de colaboración y no depender solamente de las iniciativas y necesidades de colaboración externas que puedan surgir y de esta forma darle cumplimiento a los objetivos estratégicos y a la estrategia de Relaciones Institucionales potenciando el vínculo Universidad-Empresa. La responsabilidad de la ejecución de las acciones de colaboración (actividades extensionistas, proyectos extensionistas, proyectos de investigación, proyectos de innovación, servicios científico-técnicos, unidades docentes, etc.) recae en los procesos sustantivos de la universidad, por lo que se decide eliminar el subproceso “Ejecución de la Colaboración”. De esta forma queda el subproceso Seguimiento/Cierre como responsable de controlar que las acciones que se ejecuten derivadas de un convenio de colaboración se realicen según lo acordado. 4.2. Actividades y roles del subproceso Gestión de la Colaboración. Tomando como base el modelo as-is del subproceso y con el objetivo de tener una mejor organización en la estructura y comprensión del subproceso se definieron 2 actividades a modo de subprocesos dentro de la Gestión de la Colaboración, para su posterior desagregación en tareas o pasos. Las actividades que componen el subproceso de Negociación/ Elaboración ya existían antes del rediseño, aun así, algunas actividades fueron modificadas y eliminadas. Se eliminó como subprocesos de esta fase, la Gestión de Contratos para incluirla dentro del subproceso de Seguimiento/Cierre, donde las actividades que se despliegan en el contrato son controladas en dicho subproceso y CETAS.A. es quien se encarga de gestionar todos los requerimientos para su elaboración. Se añaden los subprocesos de Análisis de la Solicitud y Envío de Proforma, pensando en que el proceso de Gestión de la Colaboración se aplique dentro de un sistema automatizado, que actualmente se encuentra en desarrollo como parte de un trabajo de tesis de la Facultad de Informática. La Figura 5 muestra el modelo BPMN resultante. Figura 5: Subprocesos de Gestión de la Colaboración. Fuente: Elaboración propia. Al obtener los modelos para las tres actividades declaradas a modo de subprocesos de la Figura 5 y compararlos con el modelo actual se obtiene que el 43% de las actividades del modelo actual se mantienen, el 12% se modifican y el resto se eliminan. Además, se agregan 17 nuevas actividades o pasos para facilitar una mayor desagregación y entendimiento del proceso. La actividad Revisar proforma de convenio es modificada con motivo de cambiar el rol que la ejecuta, esta actividad anteriormente era realizada por la Vicerrectora y en el modelo deseado pasa a ser ejecutada por el Asesor Jurídico, quien está capacitado para verificar que la proforma de convenio se encuentre en correctas condiciones antes de realizar el Dictamen Jurídico correspondiente. El Envío de Proforma se 10 modifica en cuanto a que pasa a ser un subproceso dentro de la Negociación/Elaboración del convenio con actividades de envío y recepción enfocadas a ser utilizadas dentro de una herramienta de aplicación de negocio. Las actividades que se añaden tienen como objetivo alinear los procedimientos existentes de manera tal que abarquen todas las especificidades que se requieren en el proceso y que no estaban formalizadas en el modelo actual. Estas actividades son las referentes al subproceso de Análisis de Solicitud, Validar contraparte, Definir Coordinador del Convenio, Revisar Contraoferta de Convenio y Modificar proforma de Convenio. Para el subproceso de Gestión de la Colaboración se plantean un total de 26 actividades: 15 de usuario, 2 manuales, 5 de envío, 1 de recepción y 3 automáticas. En la Figura 6 como en el modelo deseado del proceso, disminuyen 13 actividades manuales, además de incluirse actividades de recepción, automáticas y de usuario que antes no se veían reflejadas en el modelo As-Is, lo cual debe contribuir a la disminución del tiempo de ejecución de las actividades y con ello a la duración del ciclo de firmas. Figura 6: Comparación del tipo de actividad luego del rediseño. Fuente: Elaboración propia. En el modelo de proceso deseado se mantienen los 2 roles identificados en el modelo actual: Vicerrectora Primera (VRP) y Asesor Jurídico. La Vicerrectora Primera es quien posee mayor representatividad en el proceso al tener la responsabilidad del 92% del total de actividades, siendo este uno de los aspectos a mejoras en versiones sucesivas del modelo obtenido. 4.3. Formatos y flujos de información del subproceso Gestión de la Colaboración. El proceso de Relaciones Institucionales actualmente no cuenta con modelos establecidos, por lo que se propone oficializar 3 documentos que se empleaban ya como parte del proceso y crear otros 3 para recopilar la información necesaria durante la tramitación de una solicitud de colaboración. Fueron oficializados como modelos del subproceso la Proforma del Convenio, el Dictamen Jurídico y Expedientes de Colaboración. Los 3 nuevos modelos que se proponen son: F-05-04-01 Solicitud RU-E, F-05-04-02 Registro de solicitud RU-E y F-05-04-03 Revisión de Solicitud RU-E. Estos 3 formatos a incorporar a la Gestión de la Colaboración corresponden al subproceso de Análisis de Solicitud, en ellos se definen las necesidades de información de este subproceso y que deben tenerse en cuenta en el desarrollo de la solución informática. Estos modelos permitirán el registro, revisión y validación de las solicitudes. Además, con el modelo de solicitud se brinda un inicio documental ya oficializado al subproceso de Gestión de la Colaboración. Este modelo a partir de la puesta en funcionamiento de la solución informática desaparecerá en su forma impresa y solo quedando en formato digital. El acceso al mismo para todos los interesados en formalizar una solicitud de colaboración se concibe a través del sitio web de la universidad. 4.4. Documentar el subproceso de Gestión de la colaboración. La Cujae dispone de un sistema de gestión basado en la NC ISO 9001:2015, por tanto, tiene una estructura documental ya formalizada, estructurado en fichas de procesos, instrucciones y formatos. Además, tiene establecido un sistema de codificación de la documentación que tiene como centro los procesos de su mapa de procesos y el código de identificación de estos. Esta estructura se utilizó para la documentación del proceso de Relaciones Institucionales rediseñado. Teniendo en cuenta esto se elaboró una ficha de proceso 0% 50% 100% To-be As-Is 11 para el proceso de Relaciones Institucionales en la cual se definió el alcance, las entradas y salidas y los responsables del proceso objeto de estudio. Se formalizaron 6 formatos y 3 instrucciones que incluyen los modelos del proceso to be. Con la aplicación del rediseño, fueron eliminadas 10 deficiencias y se disminuyó el impacto de 3. Existen 3 deficiencias que con el rediseño del proceso no se lograron eliminar o reducir su impacto como es el caso de la inexistencia de una aplicación de negocio y la Base de Datos para llevar el control de los convenios firmados, debido a que depende de acciones que actualmente se están ejecutando paralelamente para lograr su desarrollo. La deficiencia referente al incumplimiento en la secuencia del flujo de actividades depende de la implementación de una correcta cultura de trabajo por parte de los ejecutores del subproceso. 5. CONCLUSIONES A partir de los resultados obtenidos con la presente investigación se pueden arribar a las conclusiones siguientes: 1. El BPM constituye un enfoque disciplinado para identificar, diseñar, ejecutar, documentar, medir, monitorear y controlar los procesos de negocios, automatizados y no automatizados, para lograr resultados consistentes y específicos alineados con los objetivos estratégicos de una organización. 2. Quedó evidenciada la carencia de métodos adecuados para la planificación, ejecución y control de la colaboración en el marco de las Relaciones Institucionales de la Cujae. Por tanto, fue aplicado parcialmente el modelo de procesos de negocio de Marlon Dumas, para el diagnóstico y rediseño del proceso de Gestión de la Colaboración con el fin de solucionar las deficiencias identificadas. 3. A partir de las líneas de acción definidas se propuso el rediseño del proceso de Gestión de la Colaboración con un enfoque hacia su informatización como vía de solución a las deficiencias detectadas, lográndose la actualización de la documentación del proceso a partir de la modificación de instrucciones, formatos y procedimientos. 4. El rediseño del proceso de Gestión de la Colaboración permitió el acercamiento del proceso a la proyección estratégica de la Universidad. REFERENCIAS 1. Cardona, L.R. ¿ Qué son las Relaciones Institucionales? 2019; Available from: https://unellez.edu.ve/portalweb/public/departamentos/159/informacion/350. 2. Villavicencio D. M. Suárez, E.R., C.A. , Estrategias de Propiedad Industrial en Convenios de Integración y Cooperación Universidad- Empresa en Villa Clara. . Revista Caribeña de Ciencias Sociales, 2016. 3. ISO, NC ISO 9001: 2015. 2015-09-15: Ginebra, Suiza. , ISO, Editor. 2015. 4. Suárez, J.A., Análisis, mejoramiento y control de la gestión de procesos. 2003. 5. Bravo Carrasco, J., Gestión de procesos. 2011. 6. Ould, M., Procesos de negocio: modelado y análisis para reingeniería y mejora. 1995. 7. Garimella, K., Lees, M. & Williams, B. , Introducción a BPM para Dummies. 2008, Indianápolis: Wiley Publishing Inc. 8. Díaz Piraquive, F.N., Gestión de procesos de negocio BPM (Business Process. 9. Alzugaray, S.S., TECNOLOGÍA DE ASISTENCIA COGNITIVA AL MODELADO CON BPMN. 2016, Universidad Tecnológica de la Habana La Habana Cuba. 10. ABPMP, BPM CBOK Guía de conocimientos de la Gestión de Procesos de negocios V4.0. 2019. 11. Dumas, M., La Rosa, M., Mendling, J., & Reijers, H. A., Fundamentals of Business Process Management. 2nd ed. 2018, New York: Springer. 12. Weske, M., Business Process Management: Concepts, Languages, Architectures. 2012, Berlín, Alemania: Springer. 13. Mark von Rosing, M.K., Focusing Business Processes on Superior Value Creation: Value- oriented Process Modeling. 2015: Elseiver. 12 14. Freund, J., Rucker, B. y Hitpass, B., BPMN 2.0 Manual de Referencia y Guía Práctica. 2014, Chile: RPI Chile. Resumen de ponencia para participación en Taller Internacional de Calidad y Desarrollo (Qualitas, 2022) Autor: Ing. Adriana Victoria Santana Díaz Coautora: Dra. C. Daymí Martínez Caballero Título: Diseño del proceso de Logística y Aseguramiento de la Escuela Nacional de la Unión Eléctrica Introducción La Unión Eléctrica (UNE) es la organización a nivel nacional encargada de garantizar la generación, transmisión, distribución y comercialización de la energía eléctrica a todos los clientes residenciales y estatales, con una gestión responsable del medio ambiente y la sociedad. A ella se subordinan dieciocho empresas nacionales, dieciséis empresas eléctricas (una en cada provincia del país y en el municipio especial) y siete centrales termoeléctrica. Su OSDE tiene 16 direcciones y dos Unidades Básicas, entre las que se encuentran el Despacho Nacional de Carga y la Escuela Nacional de la Unión Eléctrica (ENUNE). Este trabajo se realiza en la Escuela Nacional de Capacitación de la Unión Eléctrica de Cuba, ENUNE en lo sucesivo, la cual tiene como misión capacitar, evaluar, homologar y certificar a los RRHH de la Unión Eléctrica de acuerdo a las prioridades establecidas por las áreas técnicas, como parte de la necesidad del desarrollo de la industria eléctrica cubana que exige un aumento en la preparación de los recursos humanos que aquí laboran de modo que se correspondan con los avances de la ciencia y la técnica. Apoyar el proceso docente cuyo tributo es fundamental en el logro del objeto social y aumentar la satisfacción del cliente docente es fundamental para la dirección de la entidad, y además, es donde se mide la satisfacción del cliente mediante una encuesta abierta cuyos resultados son utilizados por la dirección para el análisis de la mejora continua en la escuela. Estas encuestas arrojan en un42% criterios negativos o insatisfacciones del cliente relacionadas con los servicios brindados por terceros, del total de aquellos un 63% se enmarcan en los relacionados con el servicio de hospedaje, alimentación y transporte lo cual perjudica el logro del objeto social de la organización por lo que se necesita orientar los esfuerzos y recursos hacia estas direcciones. Para elevar los niveles de satisfacción del cliente estudiantil y demás partes interesadas se deben fortalecer los servicios de apoyo de logística y aseguramiento. En el Sistema de Gestión de la Calidad que se implanta en la escuela no se ha abordado la mejora en los servicios logísticos y las acciones que se realizan actualmente son insuficientes para lograr la satisfacción de los clientes. Partiendo de esta problemática se define como objetivo general diseñar el proceso de Logística y Aseguramiento de la ENUNE Derivado de este objetivo se proponen los siguientes objetivos específicos: 1. Analizar el basamento teórico necesario para el diagnóstico y mejora de procesos. 2. Diagnosticar la situación actual de la logística y aseguramiento de la docencia en la ENUNE. 3. Proponer soluciones a deficiencias identificadas. Materiales y métodos utilizados Parael logro de los objetivos anteriormente declarados se utilizaron las siguientes técnicas y herramientas: revisión y análisis bibliográfico, la entrevista, tormenta de ideas, la observación directa, la matriz DAFO,diagrama Causa-Efecto, diagrama de Paretoy para el procesamiento de la información se utilizó el paquete de programas Office y el Minitab. La guía de trabajo que se propone para implementar la mejora en la organización que se estudia cuenta de las siguientes etapas: Etapa I: Caracterización de la entidad Etapa II: Diagnóstico de la situación actual de la entidad Etapa III: Diseño o rediseño y mejora de procesos Resultados Etapa I: Caracterización de la entidad La ENUNE es una institución dedicada a la capacitación del personal perteneciente a la rama eléctrica en el país. Dentro de sus funciones están brindar servicios de adiestramiento, calificación y precalificación de los cargos propios de la rama eléctrica, así como de postgrado autorizados afines con el Sistema Eléctrico; también de ejecutar acciones de perfeccionamiento según las necesidades de las entidades propias de la Unión Eléctrica y diseñar y actualizar los planes de estudio o programas docentes tipo para la habilitación de los cargos considerados claves dentro de los procesos de la Unión Eléctrica. La ENUNE tiene comomisión capacitar, evaluar, homologar y certificar el capital humano de la Unión Eléctrica, contribuyendo a mejorar los índices de productividad y eficiencia de la rama y su visión es Ser "Escuela Superior de Formación y Desarrollo del Capital Humano" de la rama eléctrica y principal centro de referencia para la Gestión de la información y el conocimiento. Es Política de la ENUNEbrindar un proceso docente logrando un alto nivel de satisfacción de los clientes, cumpliendo las regulaciones nacionales e internacionales establecidas para cada tipo de acción, para ello prioriza:  Diseñar los planes y programas de estudio de modo que permitan dar respuesta a las necesidades de preparación de nuestros clientes.  Realizar el proceso docente utilizando informaciones actualizadas y tecnologías de avanzada de acuerdo a las demandas de la industria eléctrica cubana actual.  Promover el desarrollo de los recursos humanos con profundo respeto al medio ambiente.  Trabajar por la mejora continua, a través de la Implantación del Sistema de Gestión de la Calidad. Para el cumplimiento de su misión, la alta dirección de la Escuela Nacional de la Unión Eléctrica debe garantizar la prestación de un servicio docente con calidad de modo que satisfaga los requisitos de los clientes y demás partes interesadas, incluidos los requisitos legales y reglamentarios aplicables. Para ello cuenta con la participación y competencia de un colectivo de 18 trabajadores, de ellos 14 son profesores, de los cuales 7 también realizan labores de metodología de la enseñanza y de diseño y elaboración de planes o programas de estudios, además cuenta con personal que apoya la docencia entre los que se encuentran técnicos informáticos, personal que labora en secretaría docente, entre otros. En la actualidad se potencia el proceso de certificación de competencias de cargos fundamentales de la rama eléctrica los cuales son: linieros; operadores térmicos, de cuadro eléctrico y químicos de centrales termoeléctricas; operadores de subestaciones de 110 kVy 220 kV; despachadores del Sistema Eléctrico; operadores de grupos electrógenos fuel y diesel. Estas acciones son masivas, pues en estos cargos descansa la operación del Sistema Eléctrico y son los cargos más numerosos. Para el desarrollo de estas y otras acciones resultan insuficiente las capacidades de instalaciones docentes y de alojamientocon que cuenta la ENUNE por lo que se extienden por el sistema de aulas de capacitación con que cuentan las entidades de la industria eléctrica en todo el país.Las personas que en la Escuela Nacionalse gradúan convierten los conocimientos y habilidades adquiridos durante las acciones de capacitación en un mejor desempeño de acuerdo al cargo que posean y las labores que realicen. Para impartir las clases se necesita garantizar un servicio logístico comprendido por la alimentación, transporte, alojamiento, higiene, limpieza de inmuebles o edificaciones, mantenimiento a equipamiento tecnológico docente, TICs, servicios relacionados con seguridad y salud de los trabajadores, organización del trabajo y los salarios y abastecimiento logístico en general para asegurar la docencia. Estos servicios se contratan a la UEB de Aseguramiento a la docencia de la empresa de servicios del Ministerio de Energía y Minas, SERVIBÁSICA. A pesar de que la entidad cumple los planes docentes, las condiciones actuales no garantizan la eficiencia y la eficacia del proceso docente debido a la existencia defactores externos e internos que afectan la ejecución de las actividades docentes. Aunque se gestiona la mejora de los procesos no se hace de manera estandarizada lo cual influye sobre el desempeño de la organización y la satisfacción de clientes y partes interesadas. Al finalizar cada curso se aplica una encuesta abierta a los principales clientes externos de la entidad, o sea a los cursistas; el aumento de los niveles de insatisfacción registrados en encuestas realizadas al finalizar cada curso demuestra la necesidad de mejorar procesos que influyen en la calidad del producto o servicio que la organización ofrece. Aun cuando la mayoría de los cursistas satisfacen sus expectativas docentes muchos quedan insatisfechos por cuestiones relacionadas con servicios de apoyo que en este caso se contratan a terceros como son los relacionados con la alimentación, transporte, alojamiento, higiene, limpieza de inmuebles o edificaciones, mantenimiento a equipamiento tecnológico docente, TICs, y abastecimiento logístico en general. Etapa II: Diagnóstico de la situación actual de la logística y aseguramiento de la docencia en la ENUNE Para elanálisis de contextointerno y externo de la ENUNE se aplica la herramienta DAFO. Para llevar a cabo el análisis interno se elabora una encuesta y se aplica a diez trabajadores de diferentes departamentos de la ENUNE de los 18 con que cuenta la entidad, se obtienen resultados a cerca de las capacidades y recursos y del análisis anterior se pueden concluir las fortalezas y debilidades de la ENUNE. Fortalezas:  Uso de TICs para el mejor desempeño de actividades laborales y docentes  Excelente calidad en los cursos impartidos y en el nivel de evaluaciones  Buena capacitación de los imparten la docencia  Colectivo de trabajadores de calidad en cuanto a valores personales y en colectivo Debilidades:  Calidad media en la infraestructura de la edificación.  Falta de mantenimiento periódico de las TICs.  Insuficientes TICs para las actividades docentes.  Financieramente solo se cuenta con el presupuesto anual otorgado por el OSDE.  Poco desarrollo de las TICs.  Insatisfacción con los servicios de apoyo ofrecidos por la empresa SERVIBÁSICA relacionados con la alimentación, el transporte, el alojamiento, la limpieza.  Necesidad de aumentar el personal.  Falta de motivación de los trabajadores del centro Para el análisis externo del contexto también se empleó la investigación mediante encuestas aplicadas al personal de la ENUNE y se concluye entonces que las amenazas y oportunidades son: Amenazas:  Débiles barreras administrativas por el servicio prestado por la UEB de SERVIBÁSICA el cual presenta deficiencias que afectan el servicio docente que da la escuela. Oportunidades:  Adquisición de softwares desarrollados en Cuba para una mejor gestión digital.  No existen competidores en su mercado. Matriz DAFO O1 O2 A1 F1 3 1 4 1 1 F2 0 3 3 0 0 F3 0 3 3 0 0 F4 0 3 3 0 0 3 10 13 1 1 D1 0 2 2 0 0 D2 0 2 2 1 1 D3 0 2 2 1 1 D4 3 1 4 3 3 D5 0 3 3 1 1 D6 0 3 3 3 3 D7 0 2 2 0 0 D8 0 2 2 0 0 3 17 20 9 9 Se concluye entonces que la ENUNE debe seguir una ESTRATEGIA ADAPTATIVA. Son varias las debilidades presentes en la entidad sobre las cuales se debe trabajar para reducirlas o eliminarlas y que, de esta forma, se puedan aprovechar al máximo las oportunidades que se presentan puesto que las fortalezas con que se cuenta, aunque importantes, no son suficientes. Una de las alternativas para reducir las debilidades es estudiar las encuestas de satisfacción de donde se deduce que existe un número significativo de insatisfacciones relacionadas con los servicios que provee la UEB de Aseguramiento a la Docencia de la empresa SERVIBASICA. Estos resultados se relacionan con las debilidades de la ENUNE detectadas en el análisis interno. Para el análisis de los resultados de satisfacción del cliente estudiantil se estudian las encuestas realizadas en los períodos comprendidos entre el segundo semestre del año 2017 al primer semestre del 2019 pues producto de situaciones que ha enfrentado el país de escasez de combustible y de pandemia ha llegado a ser casi nulo la presencia de alumnos internos en la entidad. Haciendo uso del diagrama de afinidad se procesan los resultados de las encuestas tratando de organizar ideas, sintetizándolas, encontrando puntos clave en ellas, correspondencias o relaciones directas y creando así los criterios correspondientes que se muestran a continuación. Tabla # 1 Aspectos negativos reflejados en las encuestas agrupados por criterios Criterio 1. Malas condiciones de hospedaje Comprende malas condiciones de alojamiento que van desde locales con hacinamiento y carentes de ventilación, fallos en el servicio de agua, falta de agua caliente en los baños, salideros y tupiciones en baños, taquillas sin seguridad, falta de percheros, de tomacorrientes, de televisores, falta de aseo y de higiene en habitaciones, sábanas y toallas con mal olor. Criterio 2. Mal servicio de alimentación Comprende mala elaboración de alimentos, raciones escasas, poca variabilidad de platos, comida fría, carencia de agua fría en el comedor y de oferta de agua a profesores, demora en el cumplimiento de horarios de alimentación. Criterio 3. Fallos en servicio de transporte Comprende el fallo y a veces nulo servicio de transporte que conspira con el cumplimiento del horario de clases, el buen desempeño docente, suspensión de prácticas por transporte Criterio 4. Malas condiciones de las aulas Comprende malas condiciones de higiene en aulas y baños docentes, malas condiciones de estructuras de falso techo, iluminación y climatización en aulas Criterio 5. Fallos en TIC y equipos tecnológicos docentes Comprende malas condiciones de TIC y equipos tecnológicos, como video beam con foco amarillo, computadoras lentas, computadoras con virus, reproducción del audio defectuosa Criterio 6. Material docente insuficiente Comprende escasa o mala calidad de material docente, falta de lápices, plumones para pizarra con poca tinta, mala calidad de material impreso, en ocasiones falta total de material impreso por carencia de equipos de reproducción en buen estado o falta de papel Criterio 7. Trato inadecuado Comprende trato inadecuado de personal de servicios de hospedaje y alimentación Criterio 8. Tiempo de duración del curso insuficiente Comprende poco tiempo para el desarrollo del curso, impartición de mucho contenido en solo una semana, combinar la semana en recibir mucho contenido y hacer pruebas sin tiempo suficiente para estudiarlo y asimilarlo, falta de tiempo para clase práctica Criterio 9. Falta de locales para estudio Comprende falta de locales con TIC para estudiar por las noches, preparar exposiciones y estudiar fin de semana. Criterio 10. Otros Facturas en cuya descripción no coincide lo referido con lo ofertado realmente en la alimentación. Diferencias de alimentación entre un curso y otros. No comunicar con suficiente tiempo de antelación la fecha de inicio del curso. Tabla # 2 Aspectos positivos reflejados en las encuestas agrupados por criterios Criterio 1.Desempeño del profesor Alto nivel de conocimiento, excelente exposición y buen dominio del tema por el profesor Criterio 2. Contenidos Contenidos actualizados, enriquecedores, bien impartidos y oportunidad de adquirir conocimientos y habilidades que emplearán en beneficio del desempeño laboral Criterio 3. Impartición de clases Buenas metodologías andragógicas, clases dinámicas, buena interacción alumno profesor Criterio 4. Condiciones del aula Aulas confortables, limpias, iluminadas, climatizadas y con buen mobiliario docente Criterio 5. Atención del Relación cordial y armoniosa con el personal docente y con el personal docente y de servicios que ofrece servicios de hospedaje, limpieza y alimentación Criterio 6. Bibliografía y BME Entrega de bibliografía actualizada, asequible, abundante, entrega de base material de estudio que comprende lápices, libretas, bibliografía digital y en copia dura Criterio 7. Estado de equipos técnicos y audiovisuales TICs en buen estado, comprenden medios técnicos como computadoras, reproductores de sonido y de videos, video beam Criterio 8. Condiciones de hospedaje y alimentación Comprende buenas condiciones de higiene en el hospedaje, satisfacción con el aseo entregado, satisfacción con la alimentación Criterio 9. Otros Comprenden agradecimiento a UEB Geysel Cienfuegos por colaboración y prontitud en solución de problemas señalados Los resultados derivados del conteo de aspectos recogidos en las encuestas por períodos se muestran en la tabla# 3. Tabla # 3. Relación de aspectos recogidos en encuestas a cursistas por períodos. Aspectos positivos negativos interesantes sugerencias Total Períodos 2do semestre 2017 56 47 7 8 118 1er semestre 2018 75 57 12 8 152 2do semestre 2018 21 43 3 3 70 1er semestre 2019 55 38 10 103 Total del criterio 207 185 32 19 443 A continuación se muestran los % que representan estos aspectos en el total de aspectos recogidos por períodos y en total. Tabla # 4: % que representan los aspectos en el total de aspectos recogidos por períodos y en total. Aspectos positivos negativos interesantes sugerencias Total Períodos 2do semestre 2017 47 40 6 7 100 1er semestre 2018 49 38 8 5 100 2do semestre 2018 30 61 4 4 100 1er semestre 2019 53 37 10 0 100 % del total del aspecto 47 42 7 4 100 Los principales resultados negativos están relacionados con los tres primeros criterios en la mayoría de los períodos, o sea los relacionados con el servicio de hospedaje, alimentación y transporte. A continuación se relacionan estos resultados. Tabla # 5:% querepresenta el total de aspectosnegativosagrupados en el criterio n del total de los aspectosnegativos Criterios 1 2 3 4 5 6 7 8 9 10 Total Total de aspectos negativos agrupados por criterio 65 34 19 13 11 10 8 13 5 7 185 % querepresenta del total de aspectosnegativ os 35 18 10 7 6 5 4 7 3 4 100 A continuación se muestra la incidencia de los aspectos negativos en el desarrollo de la estrategia adaptativa asumida por la dirección de la organización al realizar el análisis de contexto de la organización a través de la herramienta DAFO. Tabla # 6: Incidencia de aspectos negativos en desarrollo de estrategia asumida por la dirección de la entidad Criterio 1.Malas condiciones de hospedaje Influye negativamente pues las acciones de capacitación que se desarrollan en la entidad son de carácter nacional y los alumnos que provienen de provincias del interior del país se alojan en estos inmuebles, en ocasiones deciden no participar en los cursos por evitar alojarse en la escuela. Criterio 2.Mal servicio de alimentación Influye negativamente pues las acciones docentes son de doble sesión, las estadías en la escuela son largas y comprometen el horario de merienda y almuerzo para alumnos externos y de comida para alumnos internos, si no tiene calidad el servicio de alimentación los alumnos quedan insatisfechos en este sentido, también afecta negativamente el proceso docente la demora en el cumplimiento del horario de alimentación que en ocasiones sucede. La no oferta de agua a los profesores también conspira contra el desarrollo docente por el esfuerzo al que someten la voz durante las jornadas docentes. Criterio 3.Fallos en servicio de transporte Influye sobre manera negativamente en el desarrollo de la docencia pues se afecta el cumplimiento del horario de clases al tardarse la llegada del transporte con los alumnos y profesores a la escuela y al adelantarse la recogida temprano de los mismos pues este trasporte también se utiliza en el recorrido de los trabajadores del OSDE. En ocasiones falla totalmente y se dejan de dar prácticas necesarias para el cumplimiento de objetivos docentes. Criterio 4.Malas condiciones de las aulas Conspira con el buen desempeño docente pues afecta directamente alumnos y profesores durante el desarrollo de las clases al existir malas condiciones de estructura de inmuebles, de iluminación, de climatización y de higiene en aulas y baños docentes. Criterio 5.Fallos en TIC y equipos tecnológicos docentes Afecta negativamente el desarrollo docente pues la mayoría de las clases y la bibliografía se preparan en formato digital y se proyecta la información usando parte de estos equipos, además sirven de medios de apoyo a la docencia conspirando la mala calidad de los equipos con esta última. Criterio 6. Material docente insuficiente Definitivamente afecta de forma negativa el desempeño docente al carecer de materiales impresos para el estudio de la información suministrada en los cursos, no todos los alumnos tienen acceso al formato digital para estudiar, si los plumones tienen mala calidad no se explota bien la pizarra como medio de enseñanza fundamental en el proceso docente. Criterio 7.Trato inadecuado Aunque el personal de servicios no se vincula directamente a la docencia sí se relacionan a diario con los estudiantes que reciben cursos en la escuela pues son los que ofrecen los servicios de hospedaje, alimentación, limpieza, facturación, entre otros, al recibir un trato inadecuado de este personal el alumno va al proceso docente con disgusto y enojo influyendo esto negativamente en la obtención y consolidación de conocimientos. Criterio 8.Tiempo de duración del curso insuficiente Los aspectos recogidos en este criterio influyen negativamente en el desarrollo de la docencia pues al no existir tiempo suficiente para la impartición y maduración de los conocimientos los alumnos o dejan de adquirir parte del contenido o no afianzan o solidifican estos últimos. Criterio 9.Falta de locales para estudio Los locales para el estudio de las materias recibidas así como para la realización de tareas extraclases son necesarios para el éxito en la adquisición de conocimientos, al no contar con ellos se dificulta el estudio e intercambio de conocimientos entre alumnos internos influyendo negativamente esto en el desarrollo docente del curso. Criterio 10.Otros Aunque los aspectos que este criterio recoge no se vinculan directamente con la docencia sí tienen que ver con la satisfacción del estudiante en general pues despiertan malestar a personas que reciben cursos a los cuales se les da un tipo de alimentación diferente a la que se da a los participantes en otros cursos, también a los estudiantes que llegan facturas que no reflejan con exactitud lo consumido durante el tiempo del curso. En el caso de la no comunicación de la fecha de inicio del curso con tiempo suficiente puede influir negativamente en el desarrollo de la estrategia ofensiva que se plantea la alta dirección de la entidad al aplicar el análisis DAFO pues dejarían de incluirse en la matrícula de estos cursos personas que pudieran haber venido pero sin embargo no conocieron con tiempo suficiente de la existencia del curso y se pierde la oportunidad de contar con estos estudiantes en esa ocasión. Se realiza un análisis de Pareto basado en las insatisfacciones fundamentales las cuales coinciden con los criterios realizados en el análisis de afinidad de los aspectos negativos recogidos en los períodos que se estudian; los resultados tabulados se muestran a continuación. Tabla # 7: Número de insatisfacciones agrupadas por criterios Figura 1: Diagrama de Pareto realizado a las insatisfacciones. A través de un análisis de Pareto efectuado a las insatisfacciones, resultan las de mayor cuantía las relacionadas con las malas condiciones de hospedaje que sobrepasa el 20% de los problemas, lo cual significa que a pesar de no cumplir exactamente el principio de Pareto resolver esta primera causa sería suficiente para contribuir a la eliminación de una parte sustancial de los problemas. Las insatisfacciones se subdividen en 10 grupos fundamentales, de un total de 185, un 35% de ellas tienen que ver con las malas condiciones de hospedaje, un 18% se achacan al mal servicio de alimentación y un 10% de las insatisfacciones se deben fallos en el servicio de transportación o la falta de este en general lo cual trae consigo el acorte de horario de clases y/o la suspensión de prácticas docentes en la industria. En la tabla 1 se recogen los aspectos negativos que engloban los tres criterios anteriores. Estos tres grupos suman un total de 63% de las insatisfacciones por lo que actuando sobre ellos se favorecería de forma importante la satisfacción del cliente fundamental de la organización. Se realiza un análisis causa-efecto sonde aparecen las principales causas que se consideran influyen en la satisfacción del cliente docente. Figura 2: Diagrama de Ishikawa sobre principales causas que influyen en la satisfacción del cliente docente. Los análisis anteriores expresan la necesidad del diseño de un proceso de Logística y Aseguramiento que se corresponda con las necesidades y exigencias de los clientes de la entidad. Etapa III: Diseño o rediseño y mejora de procesos Se analizan los resultados de las técnicas de diagnóstico, se decide por expertos y el consejo de dirección de la ENUNE definir y clasificar los procesos y luego confeccionar el mapa de procesos de la entidad que se muestra a continuación. Figura 3: Mapa de procesos de la ENUNE Como procesos de apoyo se consideran Matrícula y Graduados y Logística y Aseguramiento pues facilitan recursos para el soporte de los anteriormente definidos. Diseño del proceso de Logística y Aseguramiento. El proceso de Logística y Aseguramiento es fundamental en la satisfacción del cliente docente, en él se desarrolla un estrecho vínculo con la entidad que proporciona los servicios de apoyo a la P R O CE S O S D E A P O Y O MATRÍCULA Y GRADUADOS LOGÍSTICA Y ASEGURAMIENTO GESTIÓN DEL CAPITAL HUMANO GESTIÓN DEL CAPITAL HUMANO MEDICIÓN, ANÁLISIS Y MEJORA GESTIÓN DE LA DIRECCIÓN P R O CE S O S E S T R A T É G I C O S P R O CE S O S C LA V E S RECEPCIÓN DE NC Y ELABORACIÓN DE PLAN DE CURSO EVALUACIÓN Y CERTIFICACIÓN DISEÑO Y REVISIÓN DE PLANES Y PROGRAMAS DE ESTUDIO DOCENTE SATISFACCIÓN DE CLIENTES Y PARTES INTERESADAS REQUISITOS DE CLIENTES Y PARTES INTERESADA S docencia (SERVIBÁSICA). Antes de la elaboración de esta propuesta las actividades que se realizaban eran:  Análisis del presupuesto de gasto.  Solicitudes de acciones e mantenimiento a aulas, locales docentes y habitaciones de hospedaje.  Solicitudes de materiales de oficina, materiales docentes y medios audiovisuales.  Solicitudes de revisión de computadoras y otros equipos de apoyo a la docencia y climatización.  Solicitudes de transporte, de hospedaje y alimentación.  Solicitud de limpieza de aulas y locales docentes. Estas actividades no se consideraban parte de un proceso, no existía documentación que recogiera la rutina de dichas actividades, no existían indicadores a partir de los cuales se pudiera medir la efectividad de esta práctica, por lo que se procede al diseño de la documentación teniendo en cuenta la incidencia del proceso en insuficiencias detectadas en el diagnóstico con el objetivo de tomar decisiones oportunas y eficaces en correspondencia con los niveles de dirección. En la documentación del proceso se incluye un procedimiento de trabajo, la ficha de proceso que contiene entre otros aspectos los flujos de actividades que lo conforman, las entradas de información y recursos, las salidas, las responsabilidades y autoridades, el uso significativo de la energía, los riesgos asociados a estas actividades y las competencias necesarias para asumir estas actividades. El procedimiento de trabajo de logística y aseguramiento incluye las actividades relacionadas con:  la realización y empleo del presupuesto de gastos o Recepción y análisis de necesidades presentadas por área docente. o Entrega al área económica de necesidades de aseguramiento y logística para elaborar presupuesto de gasto. o Análisis de si presupuesto de gasto es suficiente. o  las solicitudes y evaluación de las acciones de mantenimiento o Análisis necesidades de mantenimiento en aulas, locales docentes y habitaciones de hospedaje. o Realización de solicitud de mantenimiento a aulas, locales docentes y habitaciones de hospedaje. o Entrega de solicitud de mantenimiento a dirección de UEB. o Chequeo de respuesta a solicitudes de mantenimiento. o Si morosidad o inconformidad con avance de labores tramitar queja o Evaluación de la calidad de las labores de mantenimiento en locales de alojamiento de los estudiantes y profesores albergados o Retroalimentación de evaluación a dirección de UEB o  las solicitudes de materiales de oficina, materiales docentes y medios audiovisuales o Análisis de necesidades de materiales docentes y de oficinas o Realización de solicitud de materiales docentes y de oficinas o Evaluación de índice de respuesta a solicitudes de materiales docentes y de oficinas hechas y calidad de los mismos o Retroalimentación a dirección de UEB o Realización de diagnóstico de medios audiovisuales existentes. o Si necesidad de reparación de medio audiovisual se tramita la solicitud o Evaluación de índice de respuesta a solicitudes de reparación de medio audiovisuales hechas o Retroalimentación a dirección de UEB o  las solicitudes de revisión del estado técnico de las TIC o Realizar plan de seguridad informática o Realizar solicitudes de mantenimiento de las TIC o Chequeo de mantenimiento a TIC, actualización de antivirus o Evaluación de índice de respuestas a solicitudes realizadas. o Retroalimentación a dirección de UEB o  las solicitudes de reparación de equipos de apoyo a la docencia y de climatización o Análisis de necesidades de reparación o mantenimiento a equipos de apoyo a la docencia y de climatización o Realización de solicitud de mantenimiento a equipos de apoyo a la docencia y de climatización o Chequeo de avance de labores de reparación o mantenimiento a equipos de apoyo a la docencia y de climatización o Si morosidad o inconformidad con avance de labores tramitar queja a la dirección de la UEB y a la dirección de SERVIBASICA o Evaluación del índice de respuestas a solicitudes de reparación o mantenimiento a equipos de apoyo a la docencia y de climatización o Retroalimentación a dirección de UEB o  las solicitudes de transporte o Realización de relación de necesidades semanales de transporte o Entrega al área de transportes de SERVIBASICA las necesidades de transporte o Evaluación del índice de respuesta a necesidades de transporte solicitadas o Retroalimentación a dirección de UEB  la solicitud de hospedaje y alimentación o Realización de relación de necesidades de servicios de merienda y almuerzo para visitas y reuniones semanales o Realización de solicitud de servicio de merienda y almuerzo para las reuniones y visitas o Evaluación de servicio de merienda y almuerzo para las reuniones y visitas o Retroalimentar a dirección de UEB o Realización de solicitud semanal de alimentación y hospedaje o Entrega de solicitud de alimentación y hospedaje o Evaluación de servicio de hospedaje y alimentación o Retroalimentación a dirección de UEB  la solicitud y evaluación de limpieza en aulas y locales docentes. o Realización de solicitud de limpieza a aulas y locales docentes o Comprobación de calidad de limpieza de aula y locales docentes o Verificación de si existen inconformidades con este servicio mediante encuestas de satisfacción o Evaluación del servicio de limpieza de aulas y locales docentes o Retroalimentación a dirección de UEB En la ficha de proceso de Logística y Aseguramiento se refleja la relación de este con el resto de los procesos. Además se diseñan los indicadores del proceso de forma tal que no sean numerosos pero que midan el desempeño del proceso, ellos son: Índice de respuesta a solicitudes realizadas (IRSR). Este indicador mide la relación existente entre las solicitudes atendidas por la UEB Aseguramiento a la docencia con respecto a las solicitudes realizadas por la ENUNE a través del balancista distribuidor, el índice aumenta y se acerca a 100% en la medida que más solicitudes se atienden por la UEB y por tanto más eficaz se hace el proceso; su expresión de cálculo es: 𝐼𝑅𝑆𝑅 = 𝑆𝐴 𝑆𝑅 ∗ 100 donde SA: solicitudes atendidas por la UEB Aseguramiento SR: solicitudes realizadas por la ENUNE y el criterio de medida para el cumplimiento del indicador es: Bien IRSR>90 % Regular 90%>IRSR≥80 % Mal IRSR<80% Índice de rechazo a respuestas realizadas (IRRR): Este indicador mide la relación existente entre las respuestas rechazadas por ENUNE con respecto a las respuestas realizadas por la UEB Aseguramiento a la docencia a las solicitudes hechas por la ENUNE, mientras más disminuya el índice más eficiente resultará el proceso pues se alejarán más las respuestas rechazadas por la ENUNE de las respuestas realizadas por la UEB de Aseguramiento; su expresión de cálculo es: 𝐼𝑅𝑅𝑅 = 𝑅𝑅𝐶𝐻 𝑅𝑅 ∗ 100 donde RRCH: respuestas rechazadas por la ENUNE RR: respuestas realizadas por la UEB Aseguramiento a la docencia y el criterio de medida para el cumplimiento del indicador es: Bien IRRR≤5% Regular5%. sobre los autores Se incluirá con una extensión no mayor de un párrafo, información sobre cada autor, donde sea declarada institución y labor que desempeña, categoría docente y categoría científica, membresía en organizaciones profesionales, etc. REVISIONES FINALES Antes de enviar su artículo le recomendamos hacer las siguientes revisiones finales: 1. Revise la secuencia de los encabezados. 2. Revise la numeración de las referencias, las ecuaciones, las tablas y las figuras. 3. Revise las citas en el texto de las referencias, figuras, tablas y ecuaciones. CONTACTOS Si tiene alguna pregunta u observación en la preparación de su artículo por favor diríjase a la siguiente dirección de correo electrónico: ccia@tesla.cujae.edu.cu “Gestión Integrada en organizaciones agroindustriales cubanas: una revisión bibliométrico”. MSc. Claro Francisco Abá Alfonso1, Ing. Onilda Cobas Amador2 1 Empresa Agropecuaria Militar del Oeste de La Habana, Calle 425 y Final, Reparto Santa Elena, Santiago de las Vegas, Boyeros, La Habana; 2Sociedad Mercantil Cubagro S.A.,Avenida 51 entre 222 y 226, Cinco Palmas, La Lisa, La Habana. 1e-mail: clarofrab@ind.cujae.edu.cu,2e-mail:onilda@cubagro.cu RESUMEN Hablar de la calidad en organizaciones de la industria agroalimentaria, es relacionarla conla demandacreciente de alimentos de calidad por los consumidores. El objetivo de este trabajo es identificar las metodologías y los procedimientos utilizados en la integración de la calidad y la inocuidad alimentaria en los diferentes modelos de gestión,para su implementación desde una perspectiva general, así como su influencia en el desarrollo empresarial de las organizaciones agroindustriales,a partir de un análisis bibliométrico sobre la producción científica en la temática desde el año 2018hasta el año 2022. Se analizó la contribución científica por áreas geográficas y países, la metodología empleada en cada trabajo y se identificaron los principales tópicos, entre otras variables; pero hasta ahora no existe una metodología estandarizada que permita implementareficazmente y comprender los diferentes aspectos de la integraciónen un solo constructo la calidad en la agroindustria como un factor influyente en el crecimiento de las empresas, considerándose como una práctica dominante en el desarrollo de las mismas. PALABRAS CLAVE: análisis bibliométrico,calidad, inocuidad, gestión integrada. ABSTRACT Talking about quality in organizations of the agri-food industry is to relate it to the growing demand for quality food by consumers. The objective of this work is to identify the methodologies and procedures used in the integration of quality and food safety in the different management models, for their implementation from a general perspective, as well as their influence on the business development of agribusinessorganizations, based on a bibliometric analysis of the scientific production on the subject from 2018 to 2022. The scientific contribution was analyzed by geographical area and country, the methodology used in each work and the main topics were identified, among other variables; but until now there is no standardized methodology that allows to effectively implement and understand the different aspects of integration in a single construct quality in agribusiness as an influential factor in the growth of companies, considering it as a dominant practice in the development of companies themselves. KEY WORDS: bibliometric analysis, quality, safety, integrated management. DISEÑO DE UN PROCEDIMIENTO DE DIAGNÓSTICO PARA UN SISTEMA DE GESTIÓN DE LA CALIDAD DE UNA FACULTAD EN UN INSTITUTO DE EDUCACIÓN SUPERIOR Jennifer Seoane Pérez1,, Mayra Ledo Ferrer2 1Facultad de Ingeniería Industrial de la Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE). 1e-mail:jseoane@ind.cujae.edu.cu 2e-mail:mledo@ind.cuaje.edu.cu RESUMEN Garantizar la gestión de calidad en Instituciones de Educación Superior (IES), obliga a las instituciones a cambiar sus estrategias organizativas, dentro del marco de un Sistema de Gestión de la Calidad (SCG) adecuado, eficiente y eficaz. Adoptar un SGC por las IES, debe ser una decisión estratégica tomada con el compromiso de la dirección. El plan y aplicación del mismo debe ser adaptado según se determinen las necesidades de mejora en cada uno de los procesos llevados a cabo en la Institución. La primera fase para lograr la mejora continua del SGC es el diagnóstico de la situación actual de dichos sistemas, por ende, en la presente investigación se propone un procedimiento de diagnóstico que permita evaluar el SGC de una Facultad. Fueron utilizados como métodos la búsqueda y revisión bibliográfica y la inducción-deducción. Como principal resultado se obtuvo un procedimiento formado por dos etapas y 7 actividades, tomando como base los requisitos de la norma ISO: 9001-2015 y algunas herramientas de calidad. PALABRAS CLAVE: sistema de gestión de la calidad, mejora, procedimiento de diagnóstico. DISEÑO Y DESARROLLO DE NUEVOS PRODUCTOS ALIMENTICIOS EN LA EMPRESA CUBAGRO S.A Ingeniero Mecánico. Ramón Cué Suárez, Alumna de la Facultad de ingeniería industrial Roxana Hernández Quintana 1,2 Empresa CUBAGRO S.A, Ave 51 No 22011 % 220 y 228Reparto San Agustín municipio lLa Lisa Provincia La habana 1e-mail: cue@cubagro.cu,2e-mail:roxanahernandez quintana@gemail.com RESUMEN PALABRAS CLAVES: Calidad, inocuidad, sistema integrado, desempeño INTRODUCCIÓN Conjuntamente con el creciente desarrollo del turismo en el mundo y la consiguiente diversificación de los servicios hoteleros, se han venido produciendo modificaciones importantes en las preferencias de los clientes debido a los cambios producidos en su estilo de vida, por lo que se vuelven cada vez más exigentes y demandan productos más diversificados y servicios más personalizados. (Rodriguez, 2013) Con la intención de asegurarla satisfacciónde las nuevas necesidades y requerimientos de sus clientes,al sectorturísticocubanocomo una de las principales fuentes de ingresos para la economía de nuestro país, se le brinda una atención prioritaria y se le destinan cuantiosos recursos, que le permiten diversificar sus servicios y ofrecer variadas ofertas. Dentro de este proceso de mejora al servicio de restauración, actividad relacionada con todo lo referido a la preparación, elaboración y prestación de servicios gastronómicos, se le ha dado gran importancia(Arechavaleta, 2010). El área de alimentos y bebidas busca cada día elevar la satisfacción de los huéspedes, contando con ofertas variadas y de alta calidad y teniendo en consideración todas las necesidades, exigencias y expectativas de los clientes con respecto a sus productos y servicios. Importar lo alimentos que se ofertan en las instalaciones hoteleras no puede ser la solución para garantizar la aceptación de estos, el país debe buscar formas de proveer con alimentos nacionales a los hoteles asegurando que estos cumplan con los requerimientos de los huéspedes. Es por ello que la producción nacional incrementa su participación en el sector turístico, mercado que puede darle estabilidad comercial al flujo productivo y a su vez disminuir las importaciones y mejorar su eficiencia. Según la viceministra de turismo Mayra Álvarez García ¨Son varios los encuentros que hacemos durante el año entre el turismo y la industria buscando oportunidades de incorporar nuevos productos sobre la base de presentar a la industria nuestros requerimientos y cuales productos se deben producir en Cuba¨.(Tesoro, 2017) A partir de lo antes planteado es que en reuniones entre el personal de dirección del GAE, el Grupo de Turismo GAVIOTA S.A. y la Empresa CUBAGRO S.A se analizaron las posibilidades de intoducir una nueva tecnologia al pais para la fabicacion del café en Capsulas Nespresso, con el objetivo de bindarles a los cliiente un servicio con mayor calidad e inocuidad, además de estar a tono con los cambios que se realizan en la industria alimenticia continuamente en todo el mundo, anteriormente el formato que se ofertaba era en sobres para las cafeteras tradicionales indicandose realizar un estudio de factibilidad técnico-económico- financiero, para la realización de un proyecto de inversión extranjera para la adquisición de una línea para el encapsulado de café. En la actualidad el café es una de las bebidas más consumidas internacionalmente, durante siglos su forma de consumo ha variado y la manera de servir y envasar ha ido evolucionando y adaptándose al mercado. En los últimos años un tipo de envase ha comenzado a destacar con respecto a los otros por su gran aceptación entre los consumidores, estos son las capsulas de café. Un producto que, por su comodidad, calidad, inocuidad, sencillez, limpieza, sostenibilidad, constancia de sabor en cada taza, variabilidad y capacidad innovadora ha presentado un rápido crecimiento dentro de las categorías de productos del café. En el mundo las cafeteras que trabajan con capsulas de café son las más empleadas, por sus ventajas en cuanto comodidad, rapidez y homogeneidad de resultados. Hoy en día es la tipología más representativa y más demandada en el mercado hotelero, por lo que las cadenas hoteleras en nuestro país se encuentran en proceso de actualizar los modelos de cafeteras habitacionales, en los servicios reales y 5 estrellas, de acuerdo a las nuevas tendencias en la competencia (República Dominicana, Cancún, Riviera Maya y otros). El consumo de las capsulas de café en el mercado nacional es muy amplio, sobre todo en el turismo, la gastronomía extra hotelera y en un futuro las tiendas de TRD, en la medida que se generalice el uso de estas cafeteras y su comercialización. Las importaciones se realizan en forma muy limitada por la corporación CIMEX S.A. a través de un proveedor español y también reciben un alto empleo en las habitaciones 5 estrellas, en los hoteles de la cadena CUBANACAN, que las obtiene de otro proveedor, con altos precios en su adquisición, con su correspondiente erogación de divisas, de un producto que poseemos en el país, como el café y que comercializamos actualmente en forma de mini dosis. CUBAGRO S.A se convierte en promotora de este proyectofundamentado por la potencial creciente demanda de este producto en el mercado internacional, debido a su competitividad en calidad y precio, y que existe una tendencia a un mayor incremento de la demanda de los mismos, lo que traería como consecuencia la obligación de aumentar las importaciones de las capsulas terminada y listas para la venta a precios relativamente altos, y considerando que la materia prima fundamental, el café, se tiene y si se envasa en estas capsulas ocasionaría un ahorro económico considerable. Además, vio la oportunidad de encapsular infusiones, que se pueden preparar en estas cafeteras, lo que originaría también, una disminución en la importación de infusiones en otros formatos. Objetivos: Proyección y montaje de una línea para la producción de nuevos productos enfocado en Capsulas Nespresso de café cubano. Incursionarcon nuevas oportunidades de negocio en el mercado nacional y para la exportación con un producto con mejor calidad. METODOLOGIA Partiendo de todas estas premisas, las indicaciones dadas por el GAE y tomando como base las necesidades del país, presentadas en la feria de conciliación 2016 y 2017 CUBAGRO S.A se dio a la tarea de realizar el presente estudio de factibilidad técnico-económico-financiero (EFTE),para proveer al mercado nacional de estos productos, valorando, además, la no existencia de productores nacionales y la posibilidad futura de disminuir las importaciones. Para la elaboración de este estudio se tomó como base fundamental lo establecido en el MANUAL PARA LA PREPARACIÓN DE ESTUDIOS DE VIABILIDAD INDUSTRIAL DE LA ONUDI, LA METODOLOGIA PARA LA ELABORACIÒN DE LOS ESTUDIOS DE FACTIBILIDAD DEL MEP Y PARTE DE LAS TABLAS ELABORADAS DEL PROGRAMA DE RUBEN DEL MFP. ANTESEDENTES DEL PROYECTO Tipo de investigación, Técnicas empleadas y Muestra escogida. El presente estudio se clasifica con carácter exploratorio-descriptivo, pues su objetivo principal es ofrecer la mayor cantidad de información para la toma de decisiones sobre la estrategia a asumir con la inversión proyectada. - Entre las técnicas de investigación se emplearon: la entrevista personal, la búsqueda bibliográfica y documental, así como los servicios de telecomunicación. Los productores y comercializadores como fundamental y el marco muestral correspondiente a este estudio se concreta en la actividad del consumo, y compuesta por cuatro aspectos fundamentales que la definen:  Elementos: consumidores y competidores.  Unidades de muestreo: Empresas y organismos consumidores, así como productores, importadores- comercializadores y firmas extranjeras  Alcance: Nacional Se realizó un muestreo no Probabilístico por Conveniencia, trabajándose fundamentalmente con las siguientes muestras: No. Categoría del producto Muestra escogida 1 CONSUMIDORES 5 organismos constructores querequieren los productos para consumo 2 PRODUCTORES 1 empresas productoras 3 FIRMAS EXTRANJERAS 3 firmas principales RESULTADOS Estudio de Mercado Consumidores directos CADENAS HOTELERAS Y MINISTERIOS GRUPO GAVIOTA HABAGUANEX MINTUR Demanda efectiva En el caso de las minidosis de café (sobres de 20 gramos) las demandas se comportan como se muestra a continuación: AÑO UM CANTIDADES(MML) % CUMPLIMIENTO OBSERVACIONES PLAN REAL 2016 U 2.18 121544 71.3 Los estuches contienen 100 ò 200 bolsitas 2017 U 3,2 79399 54.3 Hasta nov La demanda efectiva de las infusiones producto que se importa y lo que se realiza es su comercialización se presentó de la siguiente manera: AÑO UM CANTIDADES % CUMPLIMIENTO OBSERVACIONES PLAN REAL 2015 U 170439 121544 71.3 Los estuches contienen 100 ò 200 bolsitas 2016 U 154621 79399 54.3 Hasta nov Mercado potencial El mercado potencial analizado es de un promedio de 4 millones de estuches. En la actualidad las empresas cubanas no están produciendo este artículo y solo CUBAGRO S.A la está comercializando con una importación total de 900 000 unidades de estuches. Todas las cantidades que se importan y se comercializan por CUBAGRO se venden y no se pueden garantizar los pedidos, ya que las compras en el exterior son menores que la demanda. Según datos de la aduana, por esta vía en la actualidad entran al país anualmente de 3800 a 4200 estuches. Se destacan como fuertes consumidores las GRUPO DE TURISMO GAVIOTA y TRD CARIBE. Y las demás cadenas de hoteles, tiendas y gastronomía son las fuentes para la ampliación de la producción o solución a los baches que se produzcan. DATOS DE CALCULO PRIMER AÑO SEGUNDOAÑO TERCERAÑO CANTIDAD DE CAFETERAS 11500 21000 23000 OCUPACION MEDIA (SEGÚN MINTUR) 65 % 65 % 65 % DIAS REALES 237 237 237 KIT DE CAPSULA / HABITANTES 3 3 3 CONSUMO ANUAL (MILES) 8170,0 15200,0 16300,0 Nota: El incremento de las cafeteras en el primer año, se asume partiendo de la importación en el 2018 de 8000 – 10000 unidades, el número posterior se realiza según el aumento de las habitaciones, mediante la compra de estás en el lugar de las cafeteras tradicionales que compramos actualmente todos los años. Las capsulas se combinan de café e infusiones, a gusto del cliente Mercado meta De acuerdo a la proyección existente en el incremento de las habitaciones, que se muestran a continuación en la tabla, con la introducción de este tipo de cafeteras en el sector privado y en el mercado minorista, se puede aseverar que existía un incremento notable en la demanda, lo que nos obliga a prever el aumento de las maquinas en la línea. CADENAS HOTELERAS Y MINISTERIOS No DE HABITACIONES EXISTENTES HASTA 2016 PROY AÑOS CANT. HAB. TOTAL HAB. SEGÚN PROYECTO G. GAVIOTA 25628 2024 27060 52688 HABAGUANEX 598 2024 8402 9000 MINTUR 60900 2030 134300 195200 TOTAL 87126 ------- 169762 256888  Se dan para GAVIOTA y HBAGUANEX las cifras 2024 Precios Los precios unitarios para cada unidad son altos, como anteriormente mencionamos el precio de las cápsulas importadas es de 0.46 CUC7 CIF c/u, el precio que se pretende que vendamos las capsulas será DE 0.25 CUC las de café y 0.20 CUC las de infusiones, Competencia Como se ha explicado, en el país no existen productores, ni comercializadoras nacionales, solo existe que se conozca, dos proveedores extranjeros, la firma VANDISER S.L. que las comercializa por el CIMEX con las cafeteras en comodato y la firma DE LONGUI que las comercializa directamente a los hoteles de CUBANACAN que poseen las cafeteras como activos fijos de la entidad De ahí se deduce que la ventaja fundamental que posee el presente proyecto, relacionado a la competencia, es que eliminamos los vaivenes del mercado actual, en cuanto a precios y demora a la llegada del producto y se logran precios muchos más ventajosos de las cápsulas de café e infusiones, en el caso de estas últimas, actualmente no se ofertan en este formato, lo que, al conocerlo los consumidores, fue valorado de muy positivo. Pronósticos de ventas VALOR DE LA PRODUCCION EN EL PRIMER AÑO (UN TURNO DE TRABAJO) PRODUCTO CANT UM PRECIO CUC AÑO 1 = 11600,0 MU 1 MMT MCUC MCUP CAFÉ 65 % MU 0,25 7540.0 2035,8 1885,0 150,8 INFUSIONES 35 % MU 0,20 4060.0 877.0 812,0 65,0 TOTAL MU 0,45 11600.0 2912,8 2697,0 215,8 PRODUCTO CANT UM PRECIO CUC AÑO 2 = 13000,0 MU 1 MMT MCUC MCUP CAFÉ 65 % MU 0,25 8450,0 2281,5 2112,5 169,0 INFUSIONES 35 % MU 0,20 4550,0 982,8 910,0 72,8 TOTAL MU 0,45 13000,0 3264,3 3022,5 241,8 PRODUCTO CANT UM PRECIO CUC AÑO 3 = 14500,0 MU 1 MMT MCUC MCUP CAFÉ 65 % MU 0,25 9425,0 2545,1 2356,6 188,5 INFUSIONES 35 % MU 0,20 5075,0 1096,2 1015.0 81,2 TOTAL MU 0,45 14500.0 3641,3 3371,6 269,7 VENTAS ANUALES POR AÑOS CON UN TURNO DE TRABAJO AÑOS 1 2 3 AL 5 CAPACIDAD DE PRODUCCION 80 % 90 % 100 % TIPO DE MONEDA MCUC MCUP MCUC MCUP MCUC MCUP MMT MMT MMT VALOR TOTAL 2697,0 215,8 3022,5 241,8 3371,6 269,7 2912,8 3264,3 3641,3 Aunque la mayoría de los materiales son de importación, estos no tienen dificultad en su obtención, obtenerlo en tiempo y en las cantidades necesarias y reservas cuestión importante en los análisis de la rentabilidad del proyecto, por lo que es necesario sistemáticamente la búsqueda de con costos inferiores y precios más bajos Estudio Técnico Tamaño del proyecto (Determinación de la capacidad de la planta). La capacidad de este proyecto es su capacidad teórica de diseño, a su capacidad de producción normal o a su capacidad máxima, todo en dependencia de los pedidos. La capacidad teórica es 20 horas diarias 360 días al año que representan 7200—horas al año (dos turnos de 12 horas diarias que es el volumen de producción que bajo condiciones técnicas óptimas se alcanza a un costo unitario mínimo. La capacidad de producción normal es de 20 horas diarias 330 días al año en la cual se cubren 6600 horas anuales es la que bajo las condiciones de producción que se estimen regirán durante el mayor tiempo a lo largo del período considerado al costo unitario mínimo, la capacidad máxima se refiere a la mayor producción que se puede obtener sometiendo los equipos al máximo esfuerzo, sin tener en cuenta los costos de producción que en nuestro caso corresponde con la teórica. No obstante, por las posibilidades de la fábrica, de trabajar por el momento con un turno diario de 8 horas 2000 horas al año el primer año y a partir del segundo año dos tunos y la capacidad de producción normal se alcanza desde el tercer año, donde se puede alcanzar los 14,5 millones de unidades. El cuello de botella durante estos dos años siempre va a ser el ajuste de la logística para la distribución de la producción terminada, asociada a la distribución vinculada a los crecimientos que por territorios exige el país, teniendo en cuenta las posibles contingencias o acumulación de reservas para su probable enfrentamiento. La magnitud de la capacidad de reserva, que se muestra por la diferencia entre el tiempo de explotación proyectado y la capacidad de diseño, está sujeta a cambios de acuerdoa las características de los tipos infusiones a producir, los volúmenes de las bolsas y estuches, el ajuste de la logística y la agresividad con que se realicen las solicitudes. Costo del equipamiento El equipamiento que se propone es para una producción de 14,5 millones de cápsulas de los diferentes tipos al año, durante un turno de trabajo de 8 horas al comienzo de la explotación de la máquina, incrementándose posteriormente a dos turnos de acuerdo a la demanda, ya que la capacidad de producción de diseño es de 20 horas diarias, 330 días al año, en la cual se cubren 6600 horas anuales (45 millones de encapsulados). Con este equipamiento se garantiza el 100 % de las necesidades del mercado meta y un 80% del mercado potencial anual, desde el segundo año al 5To año, para garantizar el resto del mercado meta. Costo estimado de la inversión constructiva Los costos estimados de la inversión constructiva adaptación y montaje de la planta ascienden a un valor de primer 201,8 MMT, de ellos 127,6 MCUC que incluye 27,5 MUSD y 75,1 MCUP Análisis de insumos Las necesidades anuales de insumos de los materiales principales, para la cantidad de capsulas que se especificó producir en el primer año (11,6 millones, de ellas el 65 % de café y el 35 % deinfusiones) El costo de la materia prima e insumos para los tres primeros años, de acuerdo a los porcientos de productividad previstos para ese tiempo, serían de: AÑO 1 2 3 MONEDA MCU C MCUP MMT MCU C MCUP MMT MCU C MCUP MMT VALOR POR AÑOS 756,3 60,5 816,8 832,1 67,1 899,2 970,8 77,7 1048,1 Fuerza de trabajo La fuerza de trabajo que se estima necesaria, para el funcionamiento de la instalación, en un turno de trabajo de 8 horas 288 días al año es de dos operarios, el primer año, a partir del segundo año es de 4 operarios, o sea, dos turnos de 8 horas 288 días al año La plantilla está compuesta por: N o Denominaci ón Cat Clasif Grup o Sal. Básic o CUP Perf CU P Salari o mes CUP Can t 1 turn o Total SalarioM esCUP 1 Operario Oper . D IV 260.0 75.0 0 355.0 0 2 1 670.00 2- 5 Operario Oper . D IV 260.0 75.0 0 355.0 0 2 2 1340,00 Estudio económico-financiero Costos totales de la inversión. Resumen del presupuesto Los cálculos de los costos de la inversión se elaboraron sobre la base de todos los costos, que son todos los que se incurren desde la etapa de preparación de la inversión hasta su puesta en funcionamiento. En la etapa en que se proyecta esta inversión que es de 5 años donde cada año se alcanza la capacidad del proyecto, por los volúmenes de mercado potencial y meta que no se alcanza con esta inversión y los futuros crecimientos esperados del mercado, se avizora que posterior a los 5 años abra que realizar una ampliación de la inversión con un mayor Volumen de equipamiento, no así, el reemplazo de los equipos que se espera que ocurran 15 años posteriores a su puesta en marcha GASTOS INDIRECTOS DE PRODUCCIÓN (GASTOS DE MANTENIMIENTOS): Año Gastos Indirectos de Producción (Gastos de Mantenimientos) Coeficiente de Indirecto Salario (MCUP) Valor de los gastos (MCUP) 1 Gastos 0,57 9,8 5,6 2-5 Gastos 0,57 19,6 11,1 Servicios públicos vinculados directo al proceso productivo Costos Indirectos: GASTOS COMERCIALES Año Gastos Indirectos Coeficiente de Indirecto Salario (MCUP) Valor de los gastos (MCUP) Coeficiente Valor de los gastos (MCUC) Valor total (MMT) 1 Gastos comerciales 0.05 9,8 0,49 0.01 0,005 0,5 2-5 Gastos comerciales 0,05 19,6 0,99 0,01 0,01 1,0 GASTOS ADMINISTRATIVOS: VER ANEXO GASTOS INDIRECTOS Año Gastos Indirectos Coef de Indirecto Salario (MCUP ) Valor de los gastos (MCUP) Coef Valor de los gastos (MCUC ) Valor total (MMT ) 1 Gastos administrativos 0,36 9,8 3,5 0.01 0,035 3,5 2-5 Gastos administrativos 0,36 19,6 7,0 0.01 0,070 7,1 INDIRECTOS DE PRODUCCIÓN (GASTOS DE MANTENIMIENTOS): Año Gastos Indirectos de Producción (Gastos de Mantenimientos) Coeficiente de Indirecto Salario (MCUP) Valor de los gastos (MCUP) 1 Gasto de mantenimiento 0,57 9,8 5,6 2-5 Gasto de mantenimiento 0,57 19,6 11,2 RESUMEN TOTAL DE LOS ¨GASTOS INDIRECTOS DE PRODUCCIÓN¨ (Incluye los gastos de mantenimiento): Base de cálculo para los MCUP Base de cálculo para los MCUC Total, MCUP 3% de recargo sobre el MCUC. 5% de aranceles sobre el MCUC. Valor de los Gastos Indirectos de Producció n MCUP Total, MCUC Se importa Se compra en plaza MCUC Valor del 50% de los Gastos Indirect os en MCUP Valor Total que se importa MUSD Costo proveedo r MUSD 7% gastos operacional es MUSD 5,6 0,17 0,28 5,1 1,3 0,5 0,46 0,04 0,8 2,6 11,2 0,34 0,56 10,2 2,6 1,0 0,92 0,08 1,6 5,2 MCUP 100% MCUC 100 % MMT 100 % 1 2 -5 1 2-5 1 2-5 Partiendo de la realidad los gastos calculados por años de acuerdo al uso y envejecimiento del equipamiento y las garantías dadas es el siguiente: MONEDAS AÑ0S 1 2 3 4 5 CANTIDAD EN MMT 1.20 2,4 8.0 13,0 17.0 CANTIDAD EN MCUC 1.0 2.0 3.0 6.0 8.0 CANTIDAD EN MCUP 0.2 4.0 5.0 7.0 9.0 Gastos previos de producción: Son los gastos que se incluyen en el “Capital fijo” y no se deprecian, pero su valor se distribuye en las fichas de precio en los primeros 5 años ‘del proceso productivo. Cálculo de la capacidad financiera que permite la inversión para determinar el período del “Servicio de la deuda”. CALCULO DE LOS GASTOS PREVIOS DE PRODUCCIÓN NOMENCLATURA MCUC MCUP MMT VALOR TOTAL DE LOS GASTOS PREVIOS DE PRODUCCIÓN EN MCUC 99,8 9,9 107,2 GASTOS PREVIOS DE PRODUCCIÓN DIVIDIDOS ENTRE 5 NOMENCLATURA MCUC MCUP MMT VALOR TOTAL DE LOS GASTOS PREVIOS DE PRODUCCIÓN EN MCUC 99,8 9,9 107,2 5,6 11,2 1,3 2,6 6,9 12,5 MCUP 80% MCUC 80% MCUP 90% MCUC 90% 1 2 -5 1 2-5 1 2 -5 1 2-5 4,5 9,0 1,0 2,0 5,0 10,0 1,2 2,3 VALOR CALCULADO DE LA DIVISIÓN DE LOS GASTOS PREVIOS DE PRODUCCIÓN ENTRE 5 19,6 2,0 21.6 Capital de trabajo Se estimó un plazo para las Cuentas por Cobrar de 30 días, las materias primas en existencia 80 días, la producción en proceso 1 día, la producción terminada 3 días, piezas de repuesto 5 días, efectivo en caja 5días y Cuentas por Pagar 30 días. COSTO TOTAL DE LA INVERSIÓN: Nivel de actividad Moneda Total (MMT) MCUC De ellos: MUSD Capital fijo: 1370,6 1269,3 1249,1 Capital de trabajo: 330,8 308,0 308,0 Costo total de inversión 2061,4 1577,3 1557,1 ESTADO DE RESULTADO DEL PERIODO: Tipo de moneda Valor del Capital Fijo Inicial Años en los cuales la Capacidad Financiera Acumulada se acerca al valor del Capital Fijo Inicial Valores que alcanza Capacidad Financiera Acumulada en los años anteriormente mencionado MCUC 1229,2 1 1666,2 MMT 1388,5 1 - 2 1268,2 – 1547,4 Análisis de riesgos de incertidumbre  Punto de equilibrio. Umbral de Rentabilidad. Valor de la Depreciación MCUC MCUP MMT 65,0 6,9 72,0 Gastos previos a la producción 99,8 9,9 107,2 5587,5 MU, es el volumen de producción que garantiza solamente cubrir los costos, quiere decir que 38 % de utilizar la capacidad en el límite inferior del umbral de rentabilidad. 0,449$ este es el nivel al que se puede descender los precios sin que el proyecto sufra perdidas. Como se puede apreciar estos no pueden bajar 6060,5 MU, es el volumen de producción que nos permita recuperar los costos totales más un 15 % de rentabilidad.  Análisis de sensibilidad. CAÍDA DE LAS VENTAS (Todas las cantidades en miles.) El proyecto resiste una caída de las ventas hasta un 60 % en CUC, pero no resiste más de un 40 % EN LAS DOS MONEDAS (Ver flujos de caja) SUBIDA DE LOS PRECIOS DE LOS MATERIALES NOMENCLAT Y VALOR DISM. 0 AUM. % VALOR MAT VAN 12 % TIR % P/REC P AÑOS NORMAL MCUC 0 979,1 6736,8 149,2 1,76 NORMAL MCUP 0 1057,1 5160,3 105,8 2,13 SUBIDA DE MATERIALES (CUC) 30 1290,2 6763,0 141,3 1,86 SUBIDA DE MATERIALES (CUP) 30 1374,2 3617,1 82,7 2,35 SUBIDA DE MATERIALES Más de un 30 % DA NEGATIV O Los materiales pueden subir sus precios hasta un 30 %, cuestión esta, que es atractiva en el mercado actual. También se demostró en los cálculos del umbral de rentabilidad, o sea que el precio tomado en el estudio para el proyecto es real. y no debe ser rebajado. NOMENCLAT Y VALOR % DISM VENTAS MCUC VAN 12 % MCUC TIR % P/RECP AÑOS VENTAS NORMAL MCUC) 0 3371,6 6736,8 149,2 1,76 NORMAL VENTAS (MCUP) 0 3641,3 5160,3 105,8 2,13 CAÍDA DE VENTAS (CUC) 60 1348,6 2023,0 60,7 2,7 CAÍDA DE VENTAS(MCUP) 60 1456,5 Da negativo CAÍDA DE VENTAS (MCUP) Más de 40 % DA NEGATIVO Todos estos cálculos muestran que esta inversión es atractiva desde el punto de vista técnico económico, no obstante, tiene una mayor importancia ya que el país sustituye importaciones deja de invertir en parte de las compras de estos artículos. Además, los usuarios tienen mayores posibilidades a disminuir el tiempo de paradas y el alargamiento de la vida útil del artículo Estado Actual En el mes de febrero del año 2021 se concluyen los trabajos de montaje y puesta en marcha de la linea de encapsulado iniciandose a partir de este momento la producción de capsula de café. Como se muestra durante el desarrrollo de este trabajo el proyecto fue consevido para suministrar las cafeteras y cápsulas a las habitaciones de hoteles de alto estandar de Gaviota, en paralelo a esto el mundo se enfrentava a la situación epidemiológica creada por la Covid-19, lo que trajo consigo la inesistencia del turismo en el País, provocando no poder comercializar en este sector las producciones obtenidas,por lo que hubo que solicitar a la máxima dirección del país realizar la venta de un nivel de cafeteras en las cadenas de tiendas, con el fin de que esta tegnología fuera adquirida por clientes nacionales y de esta forma poder comercializar las producciones e ir recuperando en de algún modo la inversión realizada y así poder explotar el equipamiento tecnológico. Proyecciones Futuras Teniendo en cuenta el impacto que positivo que han tenido las Cápsulas Nespresso, de café, tanto en los hoteles como e las cadenas de tiendasa a demás de la mejora de la calidad del producto ya que el consumidor no tiene contacto directo con el mismo durante el proceso de preparación de la bebida, cumpliendo en todo momento con las reglas de inocuidad alimentaria, nos proponemos incurcionar en las siguentes direciones:  Diseñar nuevos productos con materias primas nacionales tales como:  Café con moringa  Café con chocolate.  Café con canela.  Infusiones de moringa, jengibre y otros. Cumpliendo con la política de medio ambiente estamos iniciando las producciones con cápsulas de material biodegradable. CONCLUSIONES De manera general independientemente de la situación económica y epidemiológica en que se inicia la produción, y teniendo en cuenta que nuestros clientes nacionales no tienen la cultura del consumo del café en este formato consideramos que el proyecto en general se muestra atractivo para los mismos y en el caso del turismo para lo cuál fue consevido ha mostrado buenos resultados a partir de las nuevas aperturas de hoteles y el incremento de visitantes a los mismos. RAZONES PARA EL ÉXITO:  Con esta inversión se da cumplimiento a una Directiva del Estado y a la vez a una demanda del CITMA para la disminución del impacto ambiental  Se incorporaron nuevas tecnologías a nuestra empresa aumentando la variedad y la calidad de nuestras producciones.  Se garantiza la producción de estos artículos en el país.  Se sustituyen importaciones.  Crece el nivel de venta, se disminuyen los costos y se logra una mayor rentabilidad. DESARROLLO DE COMPETENCIAS LABORALES EN LA EMPRESA LABORATORIOS AICA. PROPUESTA PARA LA EVALUACIÓN DEL DESEMPEÑO. Autor Principal: Ing. Doney Oliva Suárez doney@aica.cu; cell 59923873 Coautores: MsC. Yaimy Crespo Martell yaimyc@aica.cu; cell 52866912 Dra. Arianne Medina Macías; arianne@psico.uh.cu; cell 53543662 Palabras claves: capital humano, evaluación del desempeño, gestión por competencias. Resumen En la actualidad se puede apreciar el desarrollo de avanzados enfoques y herramientas de dirección en el empresariado cubano, las cuales permiten el crecimiento de la gestión empresarial. Entre los enfoques de Capital Humano, las competencias laborales constituyen una nueva alternativa para incrementar el rendimiento laboral y la motivación. Demuestran que se puede lograr la efectividad organizacional cuando existen personas con un alto valor competencial. El concepto de competencias laborales hace referencia a los conocimientos, capacidades, intereses, habilidades y experiencias del capital humano; de ahí que la gestión por competencias resulte de vital importancia para la empresa. Basado en estas premisas se realizó un estudio con el objetivo de diseñar los perfiles de cargos y el modelo de evaluación del desempeño por competencias para los trabajadores de la Empresa Laboratorios AICA. Se utilizó la metodología cualitativa y el método de investigación-acción. Se aplicaron las siguientes técnicas: Análisis Documental, Dinámica Grupal, Entrevista de Incidentes Críticos, Grupo Focal, Observación, Técnica de Mini Delphi por ronda de expertos. Se obtuvieron importantes resultados, como los diseños de perfiles de competencias asociadas a los cargos, un método para evaluar dichas competencias y una propuesta del modelo de evaluación del desempeño que puede ser generalizada tanto nacional, como internacionalmente. COACHING EJECUTIVO COMO HERRAMIENTA INNOVADORA EN CUBA PARA EL DESARROLLO DEL POTENCIAL DIRECTIVO.EMPRESA LABORATORIOS AICA. Autor Principal: MSc. Yaimy Crespo Martell; yaimyc@aica.cu; cell 52866912 Coautores: Ing. Doney Oliva Suárez; doney@aica.cu;cell 59923873 Dra. Arianne Medina Macías; arianne@psico.uh.cu; cell 53543662 Palabras claves: coaching ejecutivo, directivos, competencias, efectividad. Resumen El coaching como herramienta para las empresas ha adquirido una fuerza considerable a nivel internacional, mediante la cual se obtienenresultados innovadores.En esta época de cambios se necesitan nuevas formas de gestión y dirección de personas, combinadas con la gestión empresarial y las exigencias del mercado. El Coaching Ejecutivo focaliza los aspectos que intervienen en el comportamiento del directivo. Constituye un paradigma facilitador del cambio personal que procura incrementar la efectividad del liderazgo, a fin de alinear los intereses de la organización con los objetivos de rendimiento individuales; de ahí la importancia de promover su práctica en Cuba. La presente investigación refleja los resultados alcanzados en un Programa de Acompañamiento a directivos, basado en la metodología del Coaching Ejecutivo individual.Se trata de un estudio cualitativo de investigación acción (Estudio de Caso) que plantea como objetivo desarrollar competencias directivasy apoyar al sujeto en la construcción de su estrategia de trabajo y la consecución de habilidades personales que complementen sus conocimientos técnicos. Se realizaron 24 sesiones, donde se combinan instrumentos de evaluación e intervención. Se construye el perfil de éxito basado en las competencias identificadas. Se constata la efectividad del Coaching a partir de los progresos obtenidos durante, al finalizar el mismo y pasados 6 meses. Siendo relevantesnotables avances monitoreados en los Cuestionarios aplicados al propio sujeto, sus iguales y subordinados; los resultados de trabajo y la Evaluación de Cuadros. Las recomendaciones se centran en potenciar su aplicación en el Sistema Empresarial cubano. RESUMEN Título:Implementación de un modelo mejora al proceso de producción del café tostado en la Unidad Básica De Producción Industrial y Aseguramiento perteneciente a la Empresa CubagroS.A. . Autores: Andrey Mollinedo Escobar. La Unidad Básica de Producción Industrial y Aseguramiento (UBPIA) perteneciente a la Empresa Comercializadora y Exportadora de Productos Agropecuarios y Agroindustriales S.A (CUBAGRO),empresa de la Unión Agropecuaria Militar (UAM) encargada de la producción de dos marcas comerciales de café: La Indiana y Monte Rouge. El desarrollo de este trabajo tiene como objetivo realizar un Diagnóstico del Proceso Productivo de Café para la implementación de un modelode mejora del mismos mediante la búsqueda bibliográfica se sentarán las bases teóricas de la investigación, con la aplicación de un modelo de diagnóstico al proceso se le dará cumplimiento a el objetivo de este trabajo; con la finalidad de detallar la situación actual para obtener mejoras en la calidad del proceso estudiado. Mediante el empleo de técnicas de calidad para el diagnóstico productivo al proceso de café. Con El diagnóstico al proceso productivo se detectarán las fallas tipo calidad- organizativas en el producto final evidenciando las causas de porque están ocurriendo y las vías de soluciones para su eliminación y lograr mayor eficiencia al procesode producción desde la calidad. El objetivo de la presentación es: Implementar un modelo de mejora al proceso productivo en la Unidad Básica de Producción Industrial y Aseguramiento (UBPIA) e implementarlo desde la empresa para lograr mejor eficiencia y eficacia en el control de la producción que actualmente no está organizado trayendo consigo documentaciones dobles y repetidas alsistema de Integrado de Gestión. Nuestro caféel principal destino es el turismo para hoteles de Gaviota S.A. como parte de la infraestructura del servicio que prestan en las diferentes áreasde los hoteles, las cuales poseen el equipamiento y los diferentes formatos de café para su preparación. También se comercializa en tiendas que venden productos en MLC. teniendo buena aceptación. SATISFACCIÓN DEL CLIENTE COMO INDICADOR DE CALIDAD EN UNA ENTIDAD DE SERVICIOS. DMTSS. Francely Lamadrid Delgado1Denise Hernández Delgado2, Leonardo Pacheco Sierra3, Ms.C Tania Díaz Iglesias4. 1Universidad Central “ Marta Abreu” de Las Villas, Carlos Roloff #125 e/ Frank País y Comandante Fajardo, Sancti-Spíritus, Cuba. 2Universidad Central “ Marta Abreu” de Las Villas, Caridad #152 e/ Zapatero y Salado, Santa Clara, Cuba, 3Universidad Centrad “ Marta Abreu” de Las Villas, Caserío Los Indios #7, Sancti- Spíritus, Cuba. 4Universidad Central “ Marta Abreu” de Las Villas, Santa Clara, Cuba. 1e-mail: flamadrid@uclv.cu , 3e-mail: lepacheco@uclv.cu , 4e-mail: Tania@uclv.edu.cu RESUMEN Se ha demostrado que los Trabajadores Por Cuenta Propia (TPCP) representan el 72% de la población que se atiende a través de las Direcciones Municipales de Trabajo y Seguridad Social (DMTSS), por lo que crear un estado de satisfacción en este sector daría cumplimiento a un alto por ciento del objeto social de dichas instituciones, además de incrementar el vínculo del sector estatal con el no estatal, creando una alianza necesaria para el desarrollo local sostenible. Basándose en la importancia del TPCP en el contexto actual y todo lo que ello implica se ha aplicado una encuesta a un grupo de cuentapropistas con el fin de conocer su estado de satisfacción en relación a los servicios prestados por las DMTSS al sector. Los resultados muestran un bajo nivel de satisfacción del cliente (NSC) lo que a su vez implica un índice de satisfacción del cliente (ISC) con un pésimo comportamiento. A partir de este análisis estadístico se concluye que el servicio es insuficiente y se identifica la necesidad de priorizar la atención desde la dirección de la calidad del mismo. Palabras Claves: Satisfacción del Cliente, Análisis Estadístico, Servicio, Calidad. ABSTRACT It has been shown that Self-Employed Workers (TPCP) represent 72% of the population served through the Municipal Directorates of Labor and Social Security (DMTSS), so creating a state of satisfaction in this sector would comply to a high percentage of the corporate purpose of said institutions, in addition to increasing the link between the state sector and the non-state sector, creating a necessary alliance for sustainable local development. Based on the importance of the TPCP in the current context and all that this implies, a survey has been applied to a group of self-employed in order to know their state of satisfaction in relation to the services provided by the DMTSS to the sector. The results show a low level of customer satisfaction (NSC) which in turn implies a customer satisfaction index (ISC) with poor behavior. From this statistical analysis it is concluded that the service is insufficient and the need to prioritize attention from the direction of its quality is identified. Keywords: Customer Satisfaction, Statistical Analysis, Service, Quality. 1.INTRODUCCIÓN La administración pública representa un sistema de organizaciones del Estado encargado de gestionar políticas gubernamentales y prestar servicios públicos a la sociedad, con el propósito de generar niveles crecientes de desarrollo económico y social, que acarreen en la elevación de la calidad de vida del pueblo, consolidación de la soberanía nacional y la gobernabilidad, asegurando eficacia en el cumplimiento de los objetivos, eficiencia en el empleo de recursos, equidad y justicia social en los enfoques, así como honestidad, transparencia y responsabilidad en el accionar de sus directivos (Problemas de la Gestión en la Administración Pública, 2015). La confianza en la capacidad de gestión del Gobierno y los organismos públicos, así como la calidad de los servicios prestados —que indiscutiblemente está ligada a esta primera—, son aspectos relevantes para el buen funcionamiento de nuestra sociedad, por lo que es necesario comprender qué factores los afectan y de qué forma, de modo que esta información permita determinar acciones para su mejora continua. Uno de los temas abordados durante el 8vo Congreso del PCC fueron las medidas tomadas a partir de la Tarea Ordenamiento, en la cual cobra fuerza la necesidad de una apertura a las formas de trabajo no estatal, para la cual las Direcciones Municipales de Trabajo y Seguridad Social (DMTSS), que constituyen las instalaciones básicas de atención al empleo, además de brindar otros servicios acorde a su objeto social, deben suplir las necesidades de los solicitantes. Sus principales y más requeridas prestaciones van dirigidas a la asistencia social y los servicios para los trabajadores por cuenta propia (TPCP). En las DMTSS se tienen procesos lentos y burocráticos, marcados por una profunda centralización de las decisiones, lo que provoca insatisfacción en la población, tal es el caso del proceso de solicitud para ejercer la actividad de cuentapropista u otras formas de gestión no estatal. Este largo y tedioso proceso entorpece un posible crecimiento en el número de solicitudes. A partir de la implementación de la Ventanilla Única (Ver anexo 1), nueva forma de organización del proceso, se reduce el tiempo de espera del usuario lo cual da respuesta a una de las quejas más recurrentes de la población. Al cierre de marzo de 2021 el número se asistenciados, grupo de población vulnerable también atendido por estas instituciones, alcanzaba en el país la cifra de 89279, mientras que los TPCP se mantuvieron al cierre del 2020 en el orden de los 618 000. Números que evidentemente han ido en aumento en los últimos meses, aunque aún no cuantificados con exactitud. Dado que la cantidad de TPCP es casi 7 veces superior al número de asistenciados, resulta evidente la necesidad de alcanzar un nivel de satisfacción aceptable en este sector para así propiciar, fortalecer y ampliar la alianza entre la administración pública y el sector privado, favoreciendo el desarrollo local sostenible. Igualmente, cabe señalar que el 27% de los solicitantes de empleo se proyectan hacia las formas de gestión no estatal, tendencia que va en vertiginoso ascenso, tanto en estas entidades como informalmente. En el mercado globalizado actual, la satisfacción del cliente y los estudios sobre sus necesidades son conceptualizaciones básicas para el éxito de una empresa. Se plantea que un consumidor satisfecho con un producto o servicio que se brinde, probablemente lo comprará o utilizará más y trasmitirá positivamente las experiencias vividas con dicho producto o servicio (Rodríguez Cotilla, Pozo Rodríguez, & Zamora Molina, 2012). En el sector empresarial nacional son pocas las organizaciones que consiguen adaptarse a las necesidades de sus clientes, ya sea en cuanto a la calidad, la eficiencia o el servicio personal (Tal es el caso de las DMTSS). Es por ello, que los directivos deben mejorar la calidad del servicio que ofrecen a sus clientes, ya que en ello radica la sostenibilidad de la entidad y la adecuación a los nuevos conceptos de la máxima dirección del país. El objetivo general del presente informe es analizar estadísticamente el estado de satisfacción de los clientes en relación a los servicios prestados por las DMTSS como punto de partida para perfeccionar dichos servicios. Como objetivos específicos se proponen: 1. Establecer una valoración crítica del estado de satisfacción de los clientes mediante el análisis de los resultados arrojados por la tabulación de encuestas. 2. Identificar los procesos que generan mayor insatisfacción en los clientes para facilitar la toma de decisiones. La investigación realizada parte de un análisis teórico-referencial alrededor de la calidad y sus diferentes sistemas de gestión, en específico en las entidades prestadoras de servicios. Se toma como entidad objeto de estudio a la DMTSS de Santa Clara abordando su experiencia y políticas en este sentido. Se analiza la vinculación estrecha que existe entre la satisfacción del cliente como un indicador de calidad en los servicios, y la aplicación de la ciencia estadística en este sentido. Se diseñó un procedimiento para medir la satisfacción del cliente y su nivel de satisfacción, atendiendo a los problemas detectados por la entidad, consistente en 3 fases, diseño del estudio, desarrollo y evaluación del cuestionario y determinación del ISC y el NSC, compuestas por 3,2 y 3 etapas respectivamente. Los resultados muestran niveles de satisfacción bajos en relación a los servicios prestados, lo cual es indicativo de que estos no se están llevando a cabo con la calidad requerida, por ende, y apoyados en los análisis matemáticos realizados, resulta necesario analizar las causas que originan esta situación a fin de tomar una serie de medidas para solventar estas deficiencias y mejorar el servicio. 2.Marco Teórico y Referencial de la Investigación. Calidad. Generalidades. La calidad se puede describir como la capacidad que tiene un producto o servicio para satisfacer las necesidades supuestas o evidentes según parámetros establecidos (Prieto, 2011). La percepción de calidad es algo individual y puede ser distinta entre cada individuo. Un producto es de calidad cuando cubre o supera las expectativas del cliente. Por tanto, un insumo fundamental de la calidad es la satisfacción y conformidad del cliente. La calidad también puede entenderse como "La totalidad de las características de un producto o de un servicio que se relaciona con su capacidad para satisfacer una necesidad declarada o implícita" (ISO 9001:2015, 2015). La calidad hoy en día, es prioridad para que las empresas sean competitivas y generen confianza. Por esta razón, ejercer la gestión de calidad ayuda a los líderes a identificar problemas y hacer planes estratégicos para mejorar la eficiencia, la rentabilidad y el desempeño general. La calidad del servicio surge como un enfoque del área administrativa moderna con mucho auge dada la importancia de este sector en la economía mundial (Lizano Flores & Villegas Huamani). Para poder comprender que se entiende por calidad del servicio se debe partir del concepto de servicio. Según (P. & Armstrong, 2012) servicio es “ cualquier actividad o beneficio que una parte ofrece a otra; de manera inasible, fundamentalmente y no ocasiona o genera propiedad de ninguna cosa. Su realización puede estar vinculada o no con una utilidad física” . Los servicios se caracterizan por ser intangibles y heterogéneos, es decir, es muy poco probable que dos servicios sean iguales. Los servicios primero se venden, luego se producen y consumen simultáneamente. Asimismo, los servcios no pueden preservarse, almacenarse, revenderse o regresarse. Existen muchas posturas acerca de la calidad de servicio, y no existe un consenso entre los autores con la forma de medición y las dimensiones empleadas. Incluso en algunas ocasiones la calidad del servicio tiene diferentes dimensiones respecto a los distintos sectores de servicios. Desde 1985 hasta el presente, algunos autores del área administrativa, han intentado encontrar el modelo perfecto para medir la calidad del servicio que cubra todos los factores y responda incrementar los niveles de calidad. Hay muchos modelos sugeridos por los investigadores y cada uno tiene sus propias ventajas y desventajas. Parasuraman, Zeithaml y Berry en 1985 sugirieron el modelo más usado y famoso al respecto, llamado SERVQUAL. Al principio, utilizaron diez dimensiones para la calidad del servicio, pero después de un estudio inicial en 1988, se redujeron a cinco dimensiones para el modelo de calidad del servicio (Parasuraman, Berry, & Zeithaml, 1991). A partir de dicho modelo, la noción de la calidad de servicio es resumida como la brecha o diferencia que existe entre las expectativas o deseos de los clientes y sus percepciones, en función de cinco dimensiones: tangibilidad, confiabilidad, capacidad de respuesta, seguridad y empatía (Parasuraman, Berry, & Zeithaml, 1991). La tangibilidad tiene que ver con la apariencia física de las instalaciones, equipamiento, estructura para los empleados. La confiabilidad, por su parte, es la capacidad para brindar el servicio prometido de manera fiable y precisa. La capacidad de respuesta es la capacidad de ayudar a los usuarios con prontitud. La seguridad es la ausencia de peligro, riesgo o duda al suministrar el servicio. La empatía es, en resumen, la capacidad para esforzarse por comprender al usuario y sus necesidades. Las cinco dimensiones de calidad son comúnmente medidas con el instrumento SERVQUAL, el cual se utiliza para estudiar la calidad del servicio en muchos sectores de la economía, como la banca, el turismo y el transporte, así como la industria hotelera. Según (Parasuraman, Berry, & Zeithaml, 1991), las discrepancias en la evaluación de la calidad del servicio por parte de los consumidores están definidas por cinco brechas, tal como se muestra en la figura 1. Figura 1. El modelo de Brechas Fuente: (Parasuraman, Berry, & Zeithaml, 1991) A continuación, se presentan las cinco discrepancias claves que fueron identificadas (Parasuraman, Berry, & Zeithaml, 1991):  Brecha 1: La brecha entre las percepciones de la gerencia y las expectativas del cliente.  Brecha 2: La brecha entre la percepción de la gerencia, de lo que el cliente quiere y las especificaciones de calidad del servicio.  Brecha 3: La brecha entre las especificaciones de calidad de la gerencia del servicio (calidad, estándares, formas de entrega) y la entrega real del servicio.  Brecha 4: La brecha entre la entrega del servicio y lo que la compañía promete al cliente a través de la comunicación externa. Los cuatro influyen en la percepción total de la calidad del servicio y la satisfacción del cliente.  Brecha 5: Representa la diferencia entre las expectativas de los clientes con respecto al servicio y su percepción sobre el servicio específico. La última brecha es el resultado de todas las brechas anteriores. El Modelo de Brecha de Calidad de Servicio presentado anteriormente, es un marco que puede ayudarnos a entender los problemas comunes de satisfacción del cliente. Para utilizar el modelo, las empresas deben medir cada brecha y tomar medidas para reducirla cuando sea necesario. Es válido señalar nuevamente que existen discrepancias en relación a la calidad, y por consiguiente en las formas de medirla, por lo que es común encontrar criterios que difieran a los anteriores, así como otras teorías basadas en análisis de otras dimensiones que se declaran; incluso negaciones a esta teoría. La importancia de la calidad para el rendimiento organizacional en el sector de los servicios también ha sido ampliamente reconocida en la literatura, por medio de los grandes impactos sobre las diferentes dimensiones del rendimiento organizacional. Satisfacción del Cliente como indicador de calidad. Nivel de satisfacción del cliente. Philip Kotler, economista especialista en mercadeo, define la satisfacción del cliente como "el nivel del estado de ánimo de una persona que resulta de comparar el rendimiento percibido de un producto o servicio con sus expectativas (Kotler)". Por consiguiente, la satisfacción del cliente es concebida como una medida o parámetro de la forma en que los productos y servicios proporcionados por una organización cumplen o superan las expectativas del usuario. La satisfacción del cliente es el número de usuarios, o el porcentaje del total de clientes, cuyo reporte de sus experiencias con una empresa, sus productos, o sus servicios (índices de calificación) es positivo o conforme a sus expectativas (Lizano Flores & Villegas Huamani). En la actualidad se denomina satisfacción del cliente cuando este queda conforme con lo que ha recibido. Los datos recopilados a partir de la medición de la satisfacción del cliente se utilizan para detectar áreas problemáticas en un negocio, analizar y evaluar las relaciones con los clientes o generar ideas para nuevos desarrollos. Al contrastar la relación entre la satisfacción del cliente y la calidad del servicio, algunos autores destacan la calidad como un antecedente de la satisfacción, otros exponen la calidad como consecuencia y otros subrayan la relación recíproca entre ambas . La literatura sobre la satisfacción del cliente se orienta hacia la evaluación de una transacción específica, mientras que la literatura sobre la calidad del servicio muestra una evaluación general. Como resultado, para los investigadores, una acumulación de evaluaciones de transacciones específicas conduce a una evaluación global: por tanto, la dirección de la causalidad va desde la satisfacción del consumidor a la calidad percibida: Satisfacción → Calidad (Lizano Flores & Villegas Huamani). Asimismo, (P. & Armstrong, 2012), en su libro Marketing, reflexionan sobre la satisfacción del cliente. Según estos autores, la misma se origina en función de sus expectativas: a mayor satisfacción de dichas expectativas, mayor será su satisfacción global. Los autores definen la satisfacción del cliente como un tema inseparable de la gestión de la calidad, afirmando que la calidad de los productos también añade satisfacción al cliente. En consecuencia, se puede establecer un análisis de dichos autores en el recorrido de sus posturas y conceptualizaciones, donde destacan la importancia de los elementos organizacionales denominados “ satisfacción del cliente” y “ calidad de servicio” , por lo que, aunque no hay un consenso general de si la calidad de servicio es un consecuente o antecedente de la satisfacción del cliente, lo que sí prevalece como un punto de unión teórica es la importancia de la sinergia organizacional de estos elementos. (Seung-Kyu & June-Young, 2009) establecieron, a través de la técnica del incidente crítico (CIT, de acuerdo a sus siglas en inglés), una relación significativa entre la calidad de servicio y la satisfacción del cliente, encontrando que hay ciertos atributos que llevan a la satisfacción e insatisfacción de los clientes. Sobre la base de esto, elaboraron un modelo teórico, de acuerdo a la metodología inductiva. De acuerdo a este modelo, los clientes beneficiados en general por la prestación de servicios tienden a estar más satisfechos que aquellos que no pudieron beneficiarse completamente. El estudio sobre los atributos de la calidad reveló que la calidad del diseño y la calidad de las relaciones han demostrado la existencia de vínculos importantes con la satisfacción del cliente. Los resultados también sugieren que los clientes finales ven la calidad de los procesos y la calidad de los resultados como las cualidades más importantes. En ese sentido, se trata de una explicación más tradicional, en la cual la satisfacción del cliente deriva de la calidad del servicio. Al respecto, (Anderson & Sullivan, 1993) desarrollaron un estudio, que se centró en investigar los antecedentes y las consecuencias de la satisfacción del cliente. Se realizó sobre una muestra de 22,300 clientes de una amplia variedad de productos y servicios en Suecia, entre 1989 y 1990. Los resultados afirmaron que las expectativas no afectan la satisfacción directamente, a diferencia de lo que se ha indicado a menudo en la literatura de satisfacción. Esto explica que el efecto de buena reputación a largo plazo en las empresas está ligado a una alta satisfacción. En cambio, las expectativas sumadas a la calidad del servicio sí presentan una correlación marcada con la satisfacción del cliente. De esa forma, cuando la calidad del servicio está por debajo de las expectativas el impacto (que es principalmente negativo) sobre la satisfacción del cliente se presenta con una correlación más fuerte que cuando la calidad del servicio excede las expectativas. Ahora bien, en líneas generales, la satisfacción del cliente aumenta por medio de la percepción que se tenga de la calidad del servicio, y la satisfacción incidirá, posteriormente, sobre las intenciones de recompra. Asimismo, luce imposible lograr un servicio de calidad sin un sistema de satisfacción del servicio. Según (Deming, 1989), en su libro Calidad, productividad y competitividad: la salida de la crisis, es muy importante interpretar las necesidades futuras que tienen los clientes y poder suministrarles aquello que desea; “ para ello se debe considerar medir las características y el requerimiento que tiene el usuario; y ajustarlo a lo que realmente se requiere satisfacer” . Este sistema debe incluir algunos aspectos relacionados a la calidad como: (1) Identificar las dimensiones de calidad del servicio que más importan a los clientes y empleados, y (2) hacer un seguimiento riguroso de las mismas (Deming, 1989). Estudios como el realizado por (Spreng & Page, 2009) muestran que la calidad del servicio y la intención de consumo del servicio se ve impactada con la satisfacción del cliente de forma progresiva. Por ejemplo, si un consumidor tiene una experiencia negativa o insatisfactoria, puede que la misma no sea suficiente para que el cliente decida cambiar su proveedor de servicio, si la experiencia acumulada es suficientemente positiva. En general, un resultado negativo puede ser descartado por el usuario si es visto como un acontecimiento único. Sin embargo, si ocurren una serie sucesiva de resultados negativos en las transacciones, ello se traduce en menores intenciones de consumo del servicio de dicho proveedor, afectando su percepción sobre la calidad del servicio. Otro aspecto relevante es que un cliente insatisfecho conforma un indicador de baja calidad en el servicio. Autores como (Tor, 2000) afirman que en la literatura sobre servicio al cliente existe mucho material sobre cómo lograr las mejores prácticas de servicio, pero se reseñan muy pocas prácticas de cómo realizar la recuperación de clientes insatisfechos, siendo dicha tarea un componente clave de la calidad del servicio al cliente. En el caso de este autor, realizó un estudio con 201 clientes insatisfechos por servicios recibidos, para la elaboración empírica de un modelo teórico sobre la satisfacción en servicios de recuperación del cliente. Finalmente, el estudio mostró que los clientes insatisfechos exhiben un menor nivel de confianza y son más propensos a tener un comportamiento negativo de boca en boca comparado con aquellos que estaban ligeramente insatisfechos pero que eligieron no quejarse. La satisfacción también es un indicador de la calidad del servicio desde una perspectiva de postventa. La postventa se refiere a los procesos que aseguran la satisfacción de los clientes con los servicios de la organización. En general, abarcan la gestión de las garantías, tratamiento de defectos y devoluciones. El mejoramiento de los procesos de postventa influye en la experiencia del cliente, en su satisfacción y en su percepción de calidad global. Como se expone anteriormente, existen distintas posturas de autores que definen la calidad de servicio como antecedente de la satisfacción, mientras que otros opinan lo contrario, y en algunos casos se puede encontrar que ambos constructos muestran similar incidencia en las dos vías. Esta relación, innegable y dinámica, se complejiza cuando se toman en cuenta otros factores, como la percepción de la calidad. Se puede generalizar que la satisfacción del cliente está conformada entonces por tres elementos (Thompson, 2006):  El Rendimiento Percibido: Se refiere al desempeño que el cliente considera haber obtenido luego de adquirir un producto o servicio. El rendimiento percibido tiene las siguientes características: o Se determina desde el punto de vista del cliente, no de la empresa. o Está basado en las percepciones del cliente, no necesariamente en la realidad. o Sufre el impacto de las opiniones de otras personas que influyen en el cliente. o Depende del estado de ánimo del cliente y de sus razonamientos. Dada su complejidad, el rendimiento percibido puede ser determinado luego de una exhaustiva investigación que comienza y termina en el cliente.  Las Expectativas: Las expectativas son las “ esperanzas” que los clientes tienen por conseguir algo. Las expectativas de los clientes se producen por el efecto de una o más de estas cuatro situaciones: o Promesas que hace la misma empresa acerca de los beneficios que brinda el producto o servicio. o Experiencias de compras anteriores. o Opiniones de amistades, familiares, conocidos y líderes de opinión. o Promesas que ofrecen los competidores. Es necesario aclarar que la disminución en los índices de satisfacción del cliente no siempre significa una disminución en la calidad de los productos o servicios. En muchos casos, es el resultado de un aumento en las expectativas del cliente (Kotler), situación que es atribuible a las actividades de mercadotecnia (en especial, de la publicidad y las ventas personales). En todo caso, es de vital importancia monitorear con cierta frecuencia las expectativas de los clientes para determinar si están dentro de lo que la empresa puede proporcionarles, o si están a la par, por debajo o encima de las expectativas que genera la competencia; además si coinciden con lo que el cliente promedio espera, para animarse a comprar. Si bien, existen diversos beneficios que toda empresa u organización puede obtener al lograr la satisfacción de sus clientes, estos pueden ser resumidos en tres grandes beneficios que brindan una idea clara acerca de la importancia de lograr la satisfacción del cliente (Thompson, 2006): Primer Beneficio: El cliente satisfecho, por lo general, vuelve a comprar. Por tanto, la empresa obtiene como beneficio su lealtad y, por ende, la posibilidad de venderle el mismo u otros productos adicionales en el futuro. Segundo Beneficio: El cliente satisfecho comunica a otros sus experiencias positivas con un producto o servicio. Por tanto, la empresa obtiene como beneficio una difusión gratuita que el cliente satisfecho realiza a sus familiares, amistades y conocidos. Tercer Beneficio: El cliente satisfecho deja de lado a la competencia (Kotler). Por tanto, la empresa obtiene como beneficio un determinado lugar (participación) en el mercado. Podemos decir que toda empresa que logre la satisfacción del cliente obtendrá como beneficios la lealtad del cliente (que se traduce en futuras ventas), difusión gratuita (que se traduce en nuevos clientes) y una determinada participación en el mercado. Luego de realizada la compra o adquisición de un producto o servicio, los clientes experimentan uno de estos tres niveles de satisfacción:  Insatisfacción: Se produce cuando el desempeño percibido del producto no alcanza las expectativas del cliente.  Satisfacción: Se produce cuando el desempeño percibido del producto coincide con las expectativas del cliente.  Complacencia: Se produce cuando el desempeño percibido excede a las expectativas del cliente. Dependiendo el nivel de satisfacción del cliente, se puede conocer el grado de lealtad hacia una marca o empresa, por ejemplo: Un cliente insatisfecho cambiará de marca o proveedor de forma inmediata (deslealtad condicionada por la misma empresa). Por su parte, el cliente satisfecho se mantendrá leal; pero, tan solo hasta que encuentre otro proveedor que tenga una oferta mejor (lealtad condicional). En cambio, el cliente complacido será leal a una marca o proveedor porque siente una afinidad emocional que supera ampliamente a una simple preferencia racional (lealtad incondicional). Por ese motivo, las empresas inteligentes buscan complacer a sus clientes mediante prometer solo lo que pueden entregar, y entregar después más de lo que prometieron. En resumen, la satisfacción del cliente dependería del desempeño percibido del servicio y las expectativas que tiene el comprador, por tanto se distinguen tres niveles de satisfacción: insatisfecho (no cubre sus expectativas), satisfecho (coincide con sus expectativas) o muy satisfecho o complacido (excede sus expectativas) . Para darle una aplicación práctica a todo lo visto anteriormente, se puede utilizar la siguiente fórmula (Thompson, 2006): Rendimiento Percibido - Expectativas = Nivel de Satisfacción Para aplicarla, se necesita primero obtener mediante una investigación de mercado el rendimiento percibido y las expectativas que tenía el cliente antes de la compra. Luego, se asigna un valor a los resultados obtenidos. No existe un método único para generar y mantener la calidad del servicio, sin embargo, parece que la satisfacción de los clientes es un requisito necesario, que constituye el vehículo más seguro para lograrla. Por tanto, factores condicionantes de la satisfacción del cliente como contar con un personal amable, profesionalismo, rapidez en el servicio, ambiente y confort se convierten en determinantes e indicadores de la calidad. La competitividad existente en el mundo actual exige la mejora de la satisfacción del cliente para impactar en la calidad del servicio (Deming, 1989). Por ello, en un entorno en el que no hay competencia, es decir, cuando la demanda es cubierta totalmente, las organizaciones tienden a ofrecer a sus clientes servicios mediocres, pensando que los clientes no tienen alternativas y que se pondrán de acuerdo sobre los servicios actuales de forma incondicional. Calidad en entidades prestadoras de servicios. Experiencia de la DMTSS de Santa Clara. Las Direcciones Municipales de Trabajo y Seguridad Social (DMTSS) brindan diferentes servicios a la población acorde a su objeto social. Sus principales y más requeridas prestaciones van dirigidas a la asistencia social y los servicios para los trabajadores por cuenta propia (TPCP) conforme a los objetivos de desarrollo económico y social del país y las políticas aprobadas. En las DMTSS se tienen procesos lentos y burocráticos marcados por una profunda centralización de las decisiones, lo que provoca insatisfacción en la población (Jiménez, 2021). En las DMTSS existe una estructura aprobada (Estructura). La organización está estructurada para captar y dirigir sistemas de flujos y definir interrelaciones con las partes. En la base se encuentra el núcleo operativo el cual comprende a los trabajadores sociales y técnicos de trabajo y seguridad social, los cuales se relacionan generalmente a través del ajuste mutuo. Uno de los problemas detectados es que están desequilibradas las fuerzas pues en subdirecciones como TPCP el trabajo es constante y la fuerza laboral limitada y en Empleo por ejemplo hay técnicos, como los encargados de la atención a la población, que tienen más trabajo que otros, por ejemplo, aquellos que realizan la conciliación con las empresas. Estos técnicos tienen diferentes tareas que están relacionadas y agrupadas en subdirecciones; los especialistas y subdirectores constituyen la línea media que comprenden el conjunto de decisiones técnicas y la supervisión directa. El nivel de capacitación y adoctrinamiento varía de una subdirección a otra pues los actores de línea media varían en cuanto a su formación profesional, algunos llegando solo a tener 12mo grado o nivel superior que no corresponde al contenido de trabajo, mas no reciben una capacitación ni adoctrinamiento como condición para laborar. A medida que desciende la cadena de autoridad las tareas se vuelven más detalladas y específicas, menos abstractas, más centradas en la corriente de trabajo de la misma. Las formas de coordinación varían según las decisiones de cada subdirector y especialista en el área que atienden predominando el ajuste mutuo y supervisión directa. Para las posiciones individuales predominan por especialización de la tarea, la especialización horizontal; por formalización del comportamiento, un comportamiento regulado, aunque con amplias brechas de capacitación y sobre todo adoctrinamiento. Para concluir solo los especialistas y subdirectores muestran ampliación vertical de las tareas. En estas instituciones se debe hablar de trabajo estandarizado, pues el contenido de trabajo está programado a través de normas predeterminadas y el resultado del servicio está especificado, el problema entra cuando existe falta de especificación del trabajo, base para la especialización horizontal. Atendiendo a lo antes expuesto se define que en la DMTSS no existen políticas de calidad asociadas s los procesos y servicios de la entidad, además de una falta de preparación de los actores de línea media encargados de controlar la misma pues no poseen conocimientos básicos de calidad ni sobre el ciclo de dirección y la fase de control. Dentro de las entidades de este tipo se pueden implementar las siguientes acciones para promover la calidad:  Filosofía de la Mejora Continua: En todo lo que hagas trata de funcionar de la siguiente forma: - Planifica lo que hay que hacer - Ejecútalo - Controla cómo se hace - Revisa y actúa para incorporar lo aprendido.  Observación y comunicación con el cliente, tratando de crear siempre un clima de familiaridad y cercanía que facilite la transmisión de las impresiones del cliente: satisfacción, quejas, sugerencias. Es algo habitual y necesario en negocios donde el cliente vuelve con frecuencia, como los pequeños comercios de alimentación.  Encuestas post-servicio para medir la satisfacción del cliente. Indicado sobre todo en negocios en los que el cliente no suele repetir pero puede influir con sus referencias en visitas de terceros.  Buzón para recogida de quejas y sugerencias. En actividades en las que el trato directo con el público sea reducido.  Grupos de discusión, en los que el autónomo invita a un conjunto de clientes (6 a 8) mediante algún incentivo y entabla una conversación enfocada a analizar su actividad y su oferta.  Círculo de calidad, consistente en reunir a los empleados para analizar los problemas que encuentran en su trabajo e identificar posibles soluciones, fomentando de esta forma la creatividad y participación de toda la plantilla a través de actividades tan sencillas como las tormentas de ideas.  Análisis de procesos críticos y definición de procedimientos. Se trata de conocer bien lo que haces, cómo lo haces (procesos) y cómo debe ser el resultado. Entonces puedes escribir los procedimientos o «instrucciones» de la empresa, de manera que cualquier trabajador pueda seguir los pasos conforme a lo que tú quieres.  Sistema de medición de la calidad. Debes determinar cómo la vas a medir: observación, recogida de datos, pruebas.  Control y seguimiento estadístico: a través de la recogida interna de datos mediante formularios específicos y listas de verificación en puntos críticos de los procesos productivo o comercial. Luego se procede al análisis estadístico y mediante gráficos. Conveniente para disponer de datos objetivos sobre satisfacción del cliente.  Formación sobre calidad. Puede interesarte asistir a algún curso o taller sobre calidad para autónomos o microempresas. Estudios de satisfacción del cliente como indicador de calidad en los servicios. Aplicación de la estadística. El tema de la medición de la satisfacción del cliente, tanto interno como externo, ha sido abordado ampliamente, tanto en la literatura especializada como en investigaciones realizadas en Cuba en diferentes sectores (Hernández Oro, Medina León, & Hernández Pérez, 2014). Según (Rodríguez Cotilla, Pozo Rodríguez, & Zamora Molina, 2012) el procedimiento para medir la satisfacción del cliente en empresas de servicio se sustenta en los siguientes principios:  El mejoramiento continuo de la calidad. Este es un procedimiento que puede perfeccionarse cada vez más, para ello se establece la metodología para el mejoramiento continuo.  El aprendizaje. Se trata de crear las habilidades en cuanto a los conocimientos, los valores, la comunicación, la cooperación y la motivación, entre otras, en el personal de servicio, a través de su formación en aspectos generales de la calidad.  La creatividad. Se debe fomentar un ambiente que desarrolle las iniciativas referentes a la calidad en el marco del sistema de gestión de esta.  La orientación al cliente. Se trata de que el servicio esté orientado hacia él, quien define la calidad desde su punto de vista.  El liderazgo de la dirección. tiene que ver con el respaldo y la participación de la alta dirección en la creación de una política, con objetivos, misión y visión encaminados a la calidad.  La participación del personal. Se realiza a través de áreas de trabajo, equipos de mejora y comités de calidad, entre otros. Los programas de procesamiento de datos con métodos estadísticos han cobrado gran fuerza en los estudios de satisfacción de clientes, ya que proporcionan ventajas como: incrementar la rentabilidad, reducir los costos, mejorar la eficiencia operativa y mejorar la satisfacción del cliente. Para el procesamiento y obtención de los resultados se utiliza el paquete estadístico SPSS para Windows en su versión 15.0. El procedimiento propuesto queda gráficamente representado en la figura 2 y consta de cuatro etapas; cada una persigue sus objetivos particulares que tributan al cumplimiento de los objetivos generales de la gestión de la calidad. Figura 2. Procedimiento para medir la satisfacción del cliente. Fuente: (Lizano Flores & Villegas Huamani) Etapa 1: bases para el estudio La primera etapa está constituida por los elementos siguientes: - Selección de la entidad objeto de estudio. - Convencimiento de la alta dirección sobre la necesidad del estudio. - Formación del grupo de investigación. - Entrenamiento del grupo de investigación. Etapa 2: recopilación de la información La segunda etapa la integran los siguientes elementos: - Levantamiento de los problemas de la calidad. - Selección de los ítems de las encuestas. - Cálculo del tamaño de la muestra. - Aplicación del instrumento (encuesta). El cuestionario como instrumento de medición puede ayudar a comprender mejor el negocio y a hacer predicciones sobre este. Puede ayudar a medir la satisfacción del cliente, a fin de poner al descubierto algún problema del servicio o producto, que se haya podido advertir. Para poder conocer el nivel actual de la satisfacción de nuestros clientes y apreciar si se producen cambios en su opinión, se necesita una medida que evalúe, de forma fiable, las actitudes del cliente. Calculados los tamaños de las muestras, seleccionados los ítems y elaborados los cuestionarios – ambos con enfoques diferentes, en los cuales puede que no coincidan algunos de los ítems ya que serán aplicados a dos muestras diferentes de clientes tanto internos como externos– se procede a aplicar las encuestas. Etapa 3: obtención de los resultados. La tercera etapa está constituida por los elementos siguientes: - Procesamiento de la información y análisis de los resultados. - Presentación de los resultados a la dirección. - Propuesta de acciones de mejora. La confiabilidad y la precisión de los resultados de las encuestas se reflejan en los procedimientos estadísticos que se aplican para su procesamiento. Después de recogida la información se aplican técnicas, tanto univariadas como multivariadas. Para ello, se crean las variables con las que se va a trabajar, en el paquete estadístico SPSS, teniendo en cuenta la escala de medición que se debe aplicar con cada variable. Luego se introducen los datos recogidos y se procede a aplicar las técnicas siguientes:  Estadística univariada: trabaja con las variables de forma independiente, y las proyecta en tablas de frecuencias. Se puede calcular la media, el promedio, la moda, así como la varianza y la desviación típica.  Estadística bivariada: expresa la relación entre dos variables, lo que permite hacer un análisis más profundo para un momento determinado. Se utiliza la prueba Chi-cuadrado, que permite identificar la relación existente entre las variables.  Estadística multivariada: Es el conjunto de procedimientos estadísticos asociados a un problema de naturaleza multivariada, a través de los cuales se mide la contribución simultánea de las variables analizadas en el conjunto de los casos, estableciendo ciertas relaciones y leyes operativas e investigando estructuras latentes, posibilitando de esta manera, una reducción óptima de la dimensionalidad del espacio de observación. Al trabajar simultáneamente con más de dos variables se tienen los métodos del análisis multivariado, análisis de componentes principales y el escalonamiento multidimensional, los cuales enriquecen los resultados y las conclusiones que se obtienen de las respuestas observadas en una encuesta. En el estudio de satisfacción de clientes se recomienda la técnica estadística de análisis de componentes principales (Lizano Flores & Villegas Huamani). Análisis de componentes principales: la idea fundamental del análisis de componentes principales consiste en describir la variación de un conjunto de datos multivariados que resultan de la observación conjunta de p – variables– en n – individuos– , en términos de un conjunto de variables incorrelacionadas, llamadas componentes o factores. Cada uno de estos componentes es una combinación lineal de las p variables originales, y el método empleado para su construcción garantiza que estén ordenadas de acuerdo con la información que contienen, la que es cuantificada a través de su varianza (Lizano Flores & Villegas Huamani). En resumen, el análisis de componentes principales busca representar el movimiento en cuanto a las respuestas de las encuestas para determinar los componentes o nuevas variables que serán claves a la hora de proponer las acciones de mejora. Esta técnica, que reduce el número de variables, contribuye en gran medida a la investigación, pues permite enfocar mejor las acciones de mejora de forma tal que una sola acción repercuta en el mejoramiento de varias deficiencias, y reduzca a la vez los costos de su aplicación. Para desarrollar la técnica de componentes principales existen cuatro fases: 1. Preparación. 2. Extracción o factorización. 3. Rotación. 4. interpretación. Análisis del gráfico: Uno de los gráficos más utilizados en los temas de calidad es el diagrama de Pareto. Este plantea que pocos vitales explican muchos triviales, es decir, que al tomar en cuenta el 20 % de los elementos se generaría el 80 % del efecto. El primer paso para la confección del diagrama es la construcción de una tabla de frecuencias, que puede estar ordenada de forma decreciente para facilitar los análisis posteriores. luego, se grafican las frecuencias: por el lado izquierdo, las absolutas, y por el derecho, las relativas. En el eje horizontal se reflejan los elementos que se tienen en cuenta. Este gráfico se utiliza para determinar las sugerencias más recomendadas. Luego de aplicar las técnicas estadísticas y de evaluar los resultados, estos se presentan a la dirección de la organización, como una propuesta de medidas y acciones de mejora, las que están estrechamente encaminadas a mejorar el servicio brindado. Etapa 4: evaluación e implementación de las acciones de mejora La cuarta etapa está constituida por los elementos siguientes: • Compromiso de la administración en aplicar las acciones de mejora. • Valoración de las acciones de mejora en la organización. • Generalización de los resultados. La administración se compromete a aplicar las acciones de mejora, a la vez que se presenta una tabla donde se muestra la clasificación de las acciones con los análisis correspondientes al costo, la responsabilidad y el impacto de dichas acciones para los clientes en general. La administración se compromete a repetir el estudio realizado en un período de tiempo, el cual depende de la actividad de la empresa, para con ello comparar los resultados y poder evaluar si las acciones de mejora fueron eficaces y si queda o ha surgido alguna otra insatisfacción por parte de los clientes, poderle dar un tratamiento con vista de seguir mejorando el servicio brindado. 3. DESARROLLO Diseño de la investigación estadística: ISC y NSC. Dada la gran cantidad de clientes atendidos por la DMTSS de Santa Clara y la amplitud geográfica de este municipio, se tomó como objeto de estudio el Consejo Popular Universidad. Este consejo popular cuenta con 173 TCP registrados que en este caso constituyen la población. Para la selección de la muestra se definió un tamaño de 20 (representa el 11,56% de la población) y utilizó un muestreo aleatorio simple (Ver anexo 3) para la selección de la misma. A los efectos de esta investigación se diseñó un procedimiento general, propio, compuesto por 3 fases que contienen, a su vez, 8 etapas (Ver figura 3). Figura 3 Diseño de la investigación. Fuente: Elaboración propia. La fase 1, integrada por 3 etapas, tiene como objetivo fundamental definir las necesidades y expectativas de los clientes externos, para lo que se emplean diferentes herramientas que contribuyen a su determinación (trabajo con expertos y clientes, dinámicas grupales y encuestas). En la etapa 1 se lleva a cabo la “ formación del grupo de trabajo” . Para ello se conformó un equipo de trabajo interdisciplinario donde se involucró al personal directivo de la organización. La etapa 2, denominada “ determinación de los atributos que caracterizan al servicio” , se concibió teniendo en cuenta las características propias de la producción de servicios, así como los referentes teóricos en estas cuestiones. Se definió como atributo principal el tiempo de servicio, es decir, el tiempo empleado para la consecución de las tramitaciones llevadas a cabo. Otros atributos importantes son: calidad de informaciones, ética laboral y trato al cliente. En la etapa 3, denominada “ estructuración del instrumento de medición” , se elaboró la encuesta a aplicar teniendo en cuenta los atributos fundamentales y el objetivo general de la investigación; la misma se muestra a la figura 4. En este sentido señalar que, como la satisfacción es un estado psicológico, se debe tener el cuidado adecuado en el proceso de medición cuantitativa. Al respecto, (Yüksel & Yüksel, 2008) propusieron diez dimensiones para medir la satisfacción, las cuales se tuvieron en cuenta para esta etapa del estudio. 1. Calidad 2.Valor 3.Puntualidad 4.Eficiencia 5.Facilidad de acceso 6.Medio ambiente 7.Trabajo interdepartamental 8.Comportamientos de servicio de primera línea 9.Compromiso con el Cliente 10.Innovación Figura 4 Modelo de encuesta aplicada. Sección de preguntas y respuestas. Fuente: Elaboración propia. Como puede apreciarse la encuesta consta de 8 preguntas que abarcan desde temas más generales como la percepción que tiene el cliente sobre las DMTSS, hasta su criterio en relación a las principales tramitaciones que le atañen. Los aspectos expuestos engloban los atributos definidos para los servicios. Se utilizaron 5 criterios de medida expresados de forma cualitativa: muy satisfecho, satisfecho, poco satisfecho, insatisfecho y sin criterio. A cada uno de ellos le corresponde un número para ser tabulados y analizados los resultados: 4, 3, 2, 1 y 0 respectivamente. Se optó como forma de respuesta el marcar con una X para simplificar el proceder. En la fase 2, llamada “ desarrollo y evaluación del cuestionario” , se resumen en dos etapas la validación estadística del cuestionario confeccionado, aplicado a una muestra piloto antes de hacer extensivo su uso. Este último elemento es clave ya que la presente investigación no aspira a generalizar los resultados obtenidos sino a sentar las bases para un posterior estudio profundo del tema en cuestión a fin de perfeccionar el funcionamiento de las DMTSS. Una vez aplicado el cuestionario, lo cual tiene lugar en la etapa nombrada “ aplicación del cuestionario” , se procesan los datos obtenidos y se determinan las puntuaciones que “ miden” y evalúan la satisfacción de los clientes externos de la empresa. Esto último ocurre en la siguiente etapa, “ procesamiento de datos” , donde además se determinan las puntuaciones individuales otorgadas por los clientes en cada pregunta. Como tercera y última fase de este procedimiento se definió la de “ determinación del ISC y NSC” . La misma constó de tres etapas, la primera la “ determinación del ISC” . Este índice se calculó promediando las puntuaciones otorgadas por cada cliente en cada temática. Las cifras promedio fueron representadas además en base 100 a fin de facilitar la realización de la fase posterior. Nótese que los valores cualitativos y cuantitativos, las puntuaciones definidas en la encuesta, permiten que este proceso tenga lugar exitosamente. Se trata de un procedimiento propio, establecido de esta forma para lograr un estudio sencillo y fácilmente aplicable, sin dejar de ser efectivo. Para la siguiente etapa, “ determinación del NSC” , establecieron como criterios valorativos, también propios, NSC los siguientes: NSC Bajo: ISC ≤ 60 NSC Medio: 60 < ISC ≤ 80 NSC Alto: 80 < ISC≤ 100 Por último, la etapa denominada “determinación de causantes de insatisfacción”. En la misma, a partir de los resultados arrojados en fases anteriores, se emplean herramientas gráficas (gráficos de barras, diagrama de Paretto) que permitan el análisis detallado de los datos obtenidos para lograr determinar en qué aspectos radican las principales insatisfacciones del cliente, a fin de actuar al respecto. La aplicación progresiva y sistemática del procedimiento que se propone puede contribuir a evaluar la efectividad de las medidas que se toman en la empresa en función de las brechas de calidad detectadas. 5. Resultados y discusión Fueron encuestadas oficialmente un total de 20 personas. Los resultados obtenidos se muestran en las tablas 1 y 2. Tabla 1 Cálculo del ISC. Fuente: Elaboración propia Tabla Cálculo del ISC 1 2 3 4 5 6 7 8 N4i 1 0 7 0 2 5 2 0 N3i 9 7 6 8 4 8 8 9 N2i 3 5 2 6 4 1 3 5 N1i 5 7 1 5 7 6 6 6 ni 20 20 20 20 20 20 20 20 Ci 2,10 1,90 2,55 2,05 1,75 2,60 2,20 2,15 Cti 52,5 47,5 63,75 51,25 43,75 65 55 53,75 ISC 54,06 Tabla 2 Respuestas sin criterio o valor cero. Fuente: Elaboración propia Tabla Respuestas con valor cero 1 2 3 4 5 6 7 8 N0i 2 1 4 1 3 0 1 0 TOTAL 12 Analizando la tabla 1 resulta evidente el bajo índice de satisfacción del cliente (ISC) puesto que la satisfacción por preguntas, en promedio, no supera la cifra de 2,60, teniendo los peores indicadores en las preguntas 2 y 5 con ISC promedio de 1,90 y 1,75 respectivamente. Esto pone en evidencia que los procesos objeto de crítica son llevados a cabo de manera inapropiada impactando negativamente en los clientes. Se trata de una tendencia general que necesita ser corregida para optimizar los resultados de desempeño de estas entidades. Como se aprecia en la tabla 3 el NSC es bajo en la mayoría de los aspectos y de forma general. Solo presenta un NSC medio el proceso de baja de la actividad de cuenta propia y el trato recibido por el personal, lo cual tampoco resulta especialmente positivo puesto que la diferencia entre estos y los demás aspectos no es verdaderamente apreciable. Tabla 3 ISC y NSC general y por preguntas. Fuente: Elaboración propia Tabla ISC y NSC por Preguntas No. Preguntas Índice Nivel 1 Calidad de las informaciones brindadas 52,5 Bajo 2 Rapidez en las tramitaciones para la solicitud del trabajo por cuenta propia 47,5 Bajo 3 Agilidad para dar baja del trabajo por cuenta propia 63,75 Medio 4 En general cómo Ud. se valora los procedimientos de trabajo establecidos en la DMTSS 51,25 Bajo 5 Respuesta a quejas y reclamaciones 43,75 Bajo 6 Trato recibido por el personal de la entidad con el que ha interactuado 65 Medio 7 Imagen de la oficina y sus empleados 55 Bajo 8 En general cómo Ud. se valora los servicios brindados por la DMTSS 53,75 Bajo General 54,06 Bajo Es evidente que los aspectos con peores resultados están dados en las tramitaciones para la solicitud del TPCP, la atención a aquejas y reclamaciones y los procedimientos de trabajo en la entidad. Los procesos mencionados tienen gran repercusión en el contexto actual, el cual está marcado por el perfeccionamiento de las políticas económicas aprobadas y la actualización de los actores de la economía cubana. Del total de respuestas dadas se consideraron puntuaciones positivas 3 y 4, mientras que puntuaciones negativas serían 2 y 1. Conforme a los resultados anteriormente expuestos, fueron dadas 67 puntuaciones positivas y 61 negativas, que corresponden al 41,88% y al 38,13% del total de puntuaciones respectivamente, balance ligeramente favorable pero poco significativo. En el siguiente gráfico se muestra la comparación entre las puntuaciones positivas y negativas por temática dejando en claro el predominio de las insatisfacciones en cuanto a la solicitud del trabajo por cuenta propia, los procedimientos de trabajo establecidos y la respuesta a quejas y reclamaciones. Nótese que la pregunta 8 no fue incluida en el gráfico de la figura 4. Esto se debe a que esta pregunta no constituye una temática concreta a analizar, sino un cierre a la opinión del cliente en relación a las DMTSS. Figura 6 Gráfico comparativo. Fuente: Elaboración propia Basándose en la cantidad de incidencias negativas por temática se construyó un diagrama de Paretto, técnica empleada para determinar de un conjunto los elementos principales o prioritarios. Figura 7 Diagrama Paretto. Fuente: Elaboración propia Leyenda: CIB - Calidad de las informaciones brindadas, TCP - Rapidez en las tramitaciones para la solicitud del trabajo por cuenta propia, BTCP - Agilidad para dar baja del trabajo por cuenta propia, PT - Procedimientos de trabajo establecidos en la DMTSS, RQR - Respuesta a quejas y reclamaciones, TP - Trato recibido por el personal de la entidad con el que ha interactuado, IOE - Imagen de la oficina y sus empleados. Resultan como principales insatisfacciones las anteriormente expresadas, solicitud del trabajo por cuenta propia, los procedimientos de trabajo establecidos y la respuesta a quejas y reclamaciones, acumulando 12, 11 y 11 puntuaciones negativas respectivamente lo cual confirma, una vez más, la urgencia de actuar en este sentido. Dando solución oportuna a estas problemáticas se conseguiría aumentar considerablemente el estado de satisfacción de los clientes con respecto a los servicios brindados por las DMTSS, objetivo primario en toda organización prestadora de servicios. Clasificación de las problemáticas atendiendo a su importancia: Clase A: Rapidez en las tramitaciones para la solicitud del trabajo por cuenta propia, procedimientos de trabajo establecidos, respuesta a quejas y reclamaciones, imagen de la oficina y sus empleados y calidad de las informaciones brindadas. Clase B: Trato recibido por el personal de la entidad. Clase C: Agilidad para dar baja del trabajo por cuenta propia. Las problemáticas clase A son las que mayor incidencia tienen en cuanto a opiniones negativas de los clientes por lo que su solución debe ser prioritaria. Atendiendo a los resultados antes expuestos y tomando en cuenta los antecedentes teóricos alrededor de la calidad y la satisfacción del cliente, se hace necesario definir si en la DMTSS la satisfacción del cliente influye en la calidad del servicio prestado. Para ello se realizará una prueba de hipótesis, que no es más que una aseveración o conjetura respecto a una o más poblaciones (Walpole, Myers, & Myers, 2008). Para lograr un análisis más profundo de las variables analizadas (elementos que tributan al ISC) se utilizó el software SPSS. Dada la gran cantidad de variables tenidas en cuenta, se decidió tomar dos de ellas para esta profundización, una de clase A y otra de clase B. Se elige la Rapidez en las tramitaciones para la solicitud del trabajo por cuenta propia dado que constituye la máxima problemática, es decir, la variable con valores más negativos al proceso. Por otro lado, se toma la variable clasificada como problemática clase B, Trato recibido por el personal de la entidad. El procedimiento Prueba de rachas contrasta si es aleatorio el orden de aparición de dos valores de una variable. Una racha es una secuencia de observaciones similares. Una muestra con un número excesivamente grande o excesivamente pequeño de rachas sugiere que la muestra no es aleatoria. Prueba de rachas Rapidez_tramita ciones Trato_recibido Valor de pruebaa 2 3 Casos < Valor de prueba 9 7 Casos >= Valor de prueba 11 13 Casos totales 20 20 Número de rachas 12 7 Z ,279 -1,320 Sig. asintótica(bilateral) ,781 ,187 Sig. Monte Carlo (bilateral) Sig. ,647b ,129b Intervalo de confianza al 95% Límite inferior ,638 ,123 Límite superior ,657 ,136 a. Mediana b. Se basa en 10000 tablas de muestras con una semilla de inicio 2000000. Tabla 4 Prueba de Rachas. Fuente:SPSS El procedimiento Prueba de Kolmogorov-Smirnov para una muestra compara la función de distribución acumulada observada de una variable con una distribución teórica determinada, que puede ser la normal, la uniforme, la de Poisson o la exponencial. La prueba de Kolmogorov-Smirnov para una muestra es un procedimiento de "bondad de ajuste", que permite medir el grado de concordancia existente entre la distribución de un conjunto de datos y una distribución teórica específica. Prueba de Kolmogorov-Smirnov para una muestra Rapidez_tramita ciones Trato_recibido N 20 20 Parámetros normalesa,b Media 1,80 2,55 Desv. Desviación 1,056 1,146 Máximas diferencias extremas Absoluto ,226 ,303 Positivo ,226 ,212 Negativo -,222 -,303 Estadístico de prueba ,226 ,303 Sig. asintótica(bilateral) ,009c ,000c Sig. Monte Carlo (bilateral) Sig. ,223d ,041d Intervalo de confianza al 95% Límite inferior ,214 ,037 Límite superior ,231 ,045 a. La distribución de prueba es normal. b. Se calcula a partir de datos. c. Corrección de significación de Lilliefors. d. Se basa en 10000 tablas de muestras con una semilla de inicio 926214481. Tabla 5 Prueba de Kolmogorov-Smirnov para una muestra Fuente: SPSS Establecer un resumen de procesamiento de casos es condición por excelencia para mejorar la transparencia, la eficiencia y el servicio al cliente. Resumen de procesamiento de casos Casos Válido Perdidos Total N Porcentaje N Porcentaje N Porcentaje Rapidez_tramitaciones 20 100,0% 0 0,0% 20 100,0% Trato_recibido 20 100,0% 0 0,0% 20 100,0% Tabla 6 :Resumen de procesamiento de casos Fuente:SPSS Descriptivos Estadístico Desv. Error Rapidez_tramitaciones Media 1,80 ,236 95% de intervalo de confianza para la media Límite inferior 1,31 Límite superior 2,29 Media recortada al 5% 1,83 Mediana 2,00 Varianza 1,116 Desv. Desviación 1,056 Mínimo 0 Máximo 3 Rango 3 Rango intercuartil 2 Asimetría -,155 ,512 Curtosis -1,312 ,992 Trato_recibido Media 2,55 ,256 95% de intervalo de confianza para la media Límite inferior 2,01 Límite superior 3,09 Media recortada al 5% 2,56 Mediana 3,00 Varianza 1,313 Desv. Desviación 1,146 Mínimo 1 Máximo 4 Rango 3 Rango intercuartil 2 Asimetría -,369 ,512 Curtosis -1,328 ,992 Tabla 7 Estadística descriptiva Fuente: SPSS En estadística, un histograma es una gráfica que muestra la distribución de frecuencias de los datos, normalmente en forma de barras verticales. En este gráfico, la altura de cada barra indica el número de elementos dentro de ese rango del gráfico. Los gráficos de distribución del histograma suelen considerarse la herramienta más importante para estudiar la distribución de los datos. Un histograma es una visualización de datos que muestra la distribución de los datos en un intervalo continuo o en un periodo de tiempo determinado. Es básicamente una combinación de un gráfico de barras verticales y un gráfico de líneas. La variable continua mostrada en el eje X se divide en intervalos discretos y el número de datos que tiene en ese intervalo discreto determina la altura de la barra. Figura Histograma Fuente:SPSS Para organizar los datos expuestos se utiliza el histograma. Una de las ventajas de este diagrama es que te permite organizar los datos por orden. Es decir, cada valor de datos se divide en un tallo y una hoja. Dentro de sus características se encuentra la precisión; ya que esta organización permitirá obtener un buen nivel de detalles Rapidez_tramitaciones Gráfico de tallo y hojas Frecuencia Stem & Hoja 2,00 0 . 00 ,00 0 . 7,00 1 . 0000000 ,00 1 . 4,00 2 . 0000 ,00 2 . 7,00 3 . 0000000 Ancho del tallo: 1 Cada hoja: 1 caso(s) Rapidez_tramitaciones Gráfico de tallo y hojas El Diagrama de Caja y bigotes es un tipo de gráfico que muestra un resumen de una gran cantidad de datos en cinco medidas descriptivas, además de intuir su morfología y simetría. Este tipo de gráficos nos permite identificar valores atípicos y comparar distribuciones Frecuencia Stem & Hoja Figura8 Diagrama de cajas Trato_recibido Figura:9 Histograma variable 2 Fuente: SPSS Trato_recibido Gráfico de tallo y hojas Frecuencia Stem & Hoja 6,00 1 . 000000 ,00 1 . 1,00 2 . 0 ,00 2 . 9,00 3 . 000000000 ,00 3 . 4,00 4 . 0000 Ancho del tallo: 1 Cada hoja: 1 caso(s) Figura 10 Diagrama de Cajas Fuente: SPSS Una prueba t puede usarse para determinar si un único grupo difiere de un valor conocido (una prueba t de una muestra), si dos grupos difieren entre sí (prueba t de muestras independientes), o si hay una diferencia significativa en medidas pareadas (una prueba t de muestras dependientes o pareada). Prueba T Estadísticas para una muestra N Media Desv. Desviación Desv. Error promedio Rapidez_tramitaciones 20 1,80 1,056 ,236 Trato_recibido 20 2,55 1,146 ,256 Tabla 8 Estadísticas para una muestra Fuente: SPSS Prueba para una muestra Valor de prueba = 2 t gl Sig. (bilateral) Diferencia de medias 95% de intervalo de confianza de la diferencia Inferior Superior Rapidez_tramitaciones -,847 19 ,408 -,200 -,69 ,29 Trato_recibido 2,146 19 ,045 ,550 ,01 1,09 Tabla 9 Prueba para una muestra Fuente: SPSS Prueba T Estadísticas de grupo Trato_recibido N Media Desv. Desviación Desv. Error promedio Rapidez_tramitaciones >= 2 14 2,07 1,141 ,305 < 2 6 1,17 ,408 ,167 Tabla 10 Estadísticas de grupo Fuente: SPSS Prueba de muestras independientes Prueba de Levene de igualdad de varianzas prueba t para la igualdad de medias F Sig. t gl Sig. (bilateral) Diferencia de medias Diferencia de error estándar 95% de intervalo de confianza de la diferencia Inferior Superior Rapidez_tramitaciones Se asumen varianzas iguales 6,125 ,024 1,867 18 ,078 ,905 ,485 -,114 1,923 No se asumen varianzas iguales 2,603 17,797 ,018 ,905 ,348 ,174 1,636 Tabla 11 Prueba de muestras independientes Fuente: SPSS Prueba T Estadísticas de muestras emparejadas Media N Desv. Desviación Desv. Error promedio Par 1 Rapidez_tramitaciones 1,80 20 1,056 ,236 Trato_recibido 2,55 20 1,146 ,256 Tabla 12 Estadísticas de muestras emparejadas Fuente: SPSS Correlaciones de muestras emparejadas N Correlación Sig. Par 1 Rapidez_tramitaciones & Trato_recibido 20 ,444 ,050 Tabla 13 Correlaciones de muestras emparejadas Fuente: SPSS Prueba de muestras emparejadas Diferencias emparejadas t gl Sig. (bilateral) Media Desv. Desviación Desv. Error promedio 95% de intervalo de confianza de la diferencia Inferior Superior Par 1 Rapidez_tramitaciones - Trato_recibido -,750 1,164 ,260 -1,295 -,205 - 2,881 19 ,010 Tabla 14 Correlaciones de muestras emparejadas Fuente: SPSS 5. Conclusiones  Los resultados muestran un bajo nivel de satisfacción del cliente (NSC) lo que a su vez implica un índice de satisfacción del cliente (ISC) con un pésimo comportamiento demostrando así que los procesos no gozan de la calidad requerida.  Los aspectos con peores resultados están dados en las tramitaciones para la solicitud del TPCP, la atención a aquejas y reclamaciones y los procedimientos de trabajo en la entidad. Dando solución oportuna a estas problemáticas se conseguiría aumentar considerablemente el estado de satisfacción de los clientes con respecto a los servicios prestados por las DMTSS, objetivo primario en toda organización prestadora de servicios. 7. Bibliografía A.Pérez de Vargas, V. B. (1996.). Estadistica . Madrid: Centro de Estudios Ramón Areces. Anderson, E. W., & Sullivan, M. W. (1993). The antecedents and consequences of customer satisfaction for firms. . Marketing Science . Autores., D. C. (2015). Problemas de la Gestión en la Administración Pública. Escuela Superior de Cuadros del Estado y del Gobierno. Deming, W. (1989). Calidad, productividad y competitividad: la salida de la crisis. (s.f.). Estructura. Santa Clara. Hernández Oro, R. M., Medina León, A. A., & Hernández Pérez, G. (2014). Satisfacción del cliente en empresas de base tecnológica del sector hidráulico cubano. Ingeniería Industrial/Vol. XXXV, 25-33. INASS. (marzo de 2021). Ministerio de Trabajo y Seguridad Social . Obtenido de Ministerio de Trabajo y Seguridad Social portal digital: https://www.mtss.gob.cu ISO 9001:2015. (2015). Quality managment systems ISO 9001:2015. Switzerland. Jiménez, O. (2021). (D. Hernández Delgado, Entrevistador) Kotler, P. (s.f.). Dirección de Mercadotecnia, 8va edición. En P. Kotler, Dirección de Mercadotecnia, 8va edición (págs. 40-41). Lizano Flores, E., & Villegas Huamani, A. R. (s.f.). La satisfacción del cliente como indicador de calidad. Perú: Repositorio Académico UPC. MTSS. (31 de diciembre de 2020). Ministerio de Trabajo y Seguridad Social. Obtenido de Ministerio de Trabajo y Seguridad Social portal digital/Noticias/Precisiones sobre la reforma integral de salarios, pensiones y prestaciones de la asistencia social: https://www.mtss.gob.cu P., K., & Armstrong, G. (2012). Marketing. Parasuraman, A., Berry, L. L., & Zeithaml, V. A. (1991). Perceived service quality as a customer-based performance measure: An empirical examination of organizational barriers using an extended service quality model. . Prieto, J. (2011). En búsqueda de la calidad. En J. Prieto, En búsqueda de la calidad (págs. 289-291). Rodríguez Cotilla, Z., Pozo Rodríguez, J. M., & Zamora Molina, T. (2012). Procedimiento para medir la satisfacción del cliente en empresas de servicio. cofin habana, 68-71. Seoanea, T., Martín, J., Martín-Sáncheza, E., Lurueña-Segoviaa, S., & Alonso Moreno, F. (2007). ESTADÍSTICA: ESTADÍSTICA DESCRIPTIVA Y ESTADÍSTICA INFERENCIAL. SEMERGEN. Seung-Kyu, R., & June-Young, R. (2009). Public service quality and customer satisfaction: exploring the attributes of service quality in the public sector. The Service Industries Journal. Spreng, R., & Page, T. (2009). Service quality and satisfaction in business-to-business services. The Journal of Business & Industrial Marketing. Thompson, I. (2006). La Satisfacción del cliente. Academia. Tor, W. A. (2000). Antecedents to satisfaction with service recovery. . European Journal of Marketing. Walpole, R. E., Myers, R. H., & Myers, S. L. (2008). Probabilidad y Estadística para Ingenieros, 6ta edición. La Habana: Félix Varela. Yüksel, A., & Yüksel, F. (2008). Consumer satisfaction theories: a critical review. Tourist satisfaction and complaining behavior: Measurement and management issues in the tourism and hospitality industry. La Investigación de Operaciones, La Logística inversa y la Economía circular: una revisión bibliométrica Alejandro D. Rodriguez 1 , Dr. Caridad González Sánchez 2 , Dr. C. Rosario Garza Rios 3 . 1,3 Facultad de Ingeniería Industrial, Universidad Tecnológica de la Habana José A. Echeverria Calle 114 No 11901 entre Ciclo Vía y Rotonda. Marianao, La Habana, Cuba. E mail: srdndario@gmail.com garzarios2015@gmail.com 2 Instituto de Ciencias Básicas, Universidad Tecnológica de la Habana José A. Echeverria Calle 114 No 11901 entre Ciclo Vía y Rotonda. Marianao, La Habana, Cuba. E mail: carypanch@gmail.com RESUMEN El modelo de economía lineal (Extracción- Producción- Consumo- Desecho) impera en la mayoría de los países del mundo, trayendo consecuencias negativas para la vida del hombre debido a su influencia sobre el medio ambiente y los recursos no renovables cada vez más escasos. Con el desarrollo sostenido y el incremento del consumo de las materias primas, surgió la logística inversa y la economía circular como un cambio de paradigma desde el punto de vista de las cadenas de suministro, con el fin de preservar y promover la relación sociedad-economía-medio ambiente y el desarrollo sostenible. Las Naciones Unidas y un importante número de empresas consideran la logística inversa como una vía para incrementar el nivel de rentabilidad de la industria por medio del reproceso, el reciclado y la reutilización de las materias primas. El presente trabajo muestra un análisis bibliométrico de las distintas aplicaciones de la Investigación de Operaciones a la logística inversa, como vía para la reducción de costos. Esto trae consigo la casi total eliminación de los residuos y el desperdicio de insumos y materias primas, logrando una afectación positiva en la economía de las empresas. PALABRAS CLAVES: Logística inversa, Investigación de Operaciones, economía circular, análisis Bibliométrico Operations Research, Reverse Logistics and the Circular Economy: a bibliometric review ABSTRACT The linear economy model (Extraction-Production-Consumption-Disposal) prevails in most countries of the world, bringing negative consequences for human life due to its influence on the environment and scarce non-renewable resources. With the sustained development and the increase in the consumption of raw materials, reverse logistics and the circular economy emerged as a paradigm change from the point of view of supply chains, in order to preserve and promote the society-economy-environment and sustainable development relationship. The United Nations and a significant number of companies consider reverse logistics as a way to increase the level of profitability of the industry through the reprocessing, recycling and reuse of raw materials. This paper shows a bibliometric analysis of the different applications of Operations Research to reverse logistics, as a way to reduce costs. This brings with it the almost total elimination of waste and the waste of supplies and raw materials, achieving a positive effect on the economy of the companies. KEY WORDS: Reverse logistics, Operations Research, circular economy, bibliometric analysis Mejora de la gestión de inventario para el mantenimiento de activos en la empresa productora de envases metálicos (ENVAMETAL) Edith Martínez Delgado 1 , Jorge Arnaldo González Hechavarría 2 1 Facultad de Ingeniería Industrial, Universidad Tecnológica de la Habana José A. Echeverría, Calle 114 No 11901 entre Ciclo Vía y Rotonda. Marianao, La Habana, Cuba, 2 Empresa de Envases Metálicos (ENVAMETAL), Calle Mayor y Final, San Miguel del Padrón, La Habana, Cuba. E mail: edithmd910@gmail.com, jorge.gonzalez@eem.com.cu RESUMEN La gestión del mantenimiento, como proceso de apoyo a equipos directos a la producción, también es de suma importancia pues contribuye a la disponibilidad de los activos y con ello, a minimizar las interrupciones en la producción por este concepto. La presente investigación se desarrolló en la Fábrica Luis Melián, de la Empresa productora de Envases Metálicos (ENVAMETAL), donde existen elementos disfuncionales en la gestión de mantenimiento. El modelo de diagnóstico propuesto permitió conocer que entre las diversas causas que inciden en la insuficiente gestión del mantenimiento, está la escasez de partes, piezas de repuesto y accesorios (PPA), herramientas y materiales de mantenimiento general, aspecto que generó el análisis de la gestión de inventario (GI). Los resultados arrojaron como principales problemas: deficiente codificación y clasificación de los productos, explotación no efectiva del taller para la fabricación de PPA, obsolescencia del software empleado, deficiente elaboración del plan de compra e inexistencia de parámetros de inventario. Un procedimiento para la GI fue propuesto con el objetivo de mejorar la actual gestión. El mismo emplea técnicas cuantitativas como Pareto con enfoque multicriterio, modelos matemáticos de inventario, Método Scoring y Simulación determinística y, permite llegar a la definición del sistema de GI a emplear en cada producto así como al cálculo de manera rápida y eficiente, de los correspondientes parámetros de inventario tales como nivel de pedido, nivel óptimo de inventario y punto de reorden, con la aplicación de los modelos matemáticos implementados en EXCEL, que responden al tipo de sistema de GI definido. PALABRAS CLAVES: Logística en el mantenimiento, Modelo de diagnóstico, ABC, Enfoque multicriterio, Gestión de inventario. IMPROVEMENT OF INVENTORY MANAGEMENT FOR THE MAINTENANCE OF ASSETS IN THE METALLIC PACKAGING PRODUCER COMPANY (ENVAMETAL) ABSTRACT Maintenance management, as a support process for direct machine in production, is also extremely important as it contributes to the availability of assets and thus to minimizing interruptions in production for this reason. The present investigation was developed in the Luis Melián Factory belonging to Metallic packaging producer Company (ENVAMETAL), where there are dysfunctional elements in maintenance management. The proposed diagnosis model allowed us to know that among the various causes that affect the insufficient management of maintenance, there is the shortage of parts, spare parts and accessories (PPA), tools and general maintenance materials. This motivated the need to analyze inventory management (GI). The results showed as main problems the poor coding and classification of products, ineffective exploitation of workshop to manufacture PPA, obsolescence of the software used, poor preparation of purchase plan and lack of inventory parameters. A procedure for GI was proposed in order to improving the current management. It uses quantitative techniques such as Pareto with multicriteria approach, mathematical inventory models, Scoring Method and deterministic Simulation and allows the definition of the GI system to be used in each product as well as the calculation quickly and efficiently of corresponding inventory parameters such as order level, optimal inventory level and reorder point, with the application of mathematical models implemented in EXCEL, which respond to the type of GI system defined. KEY WORDS: Maintenance Logistics, Diagnosis Model, ABC, Multicriteria Approach, Inventory Management. UN ENFOQUE MULTIRITERIO EN EL PROCESO DE CATEGORIZACIÓN DE PERSONAL Rosario Garza Rios 1 , Edith Martínez Delgado 2 , Caridad González Sanchez 3 1,2 Facultad de Ingeniería Industrial, Universidad Tecnológica de la Habana José A. Echeverria, calle 114 entre Ciclovía y Rotonda, Marianao, La Habana, Cuba 1 e-mail: garzarios2015@gmail.com 2 e-mail: edithmd@ind.cujae.edu.cu 3 Centro de Estudios de las Matemáticas para Ciencias Técnicas (CEMAT), Universidad Tecnológica de la Habana José A. Echeverria, calle 114 entre Ciclovía y Rotonda, Marianao, La Habana, Cuba 3 e-mail: caryg@isb.cujae.edu.cu RESUMEN En la actualidad, un creciente número de empresas están involucradas en la certificación del personal, pues han entendido que estos son el componente principal del éxito. La certificación es aplicable a cualquier categoría de persona, y aporta confianza al mercado laboral y a los empleadores sobre las competencias para ejecutar ciertas actividades. Esto se logra gracias a un proceso, aceptado globalmente, de evaluación y reevaluación periódica de las competencias de los trabajadores. La Empresa de Servicios de Protocolo, perteneciente al Grupo PALCO, es una de las empresas que presta servicios similares a los del sector turístico, y en estos se encuentra enfrascada en un proceso de categorización del personal. Sin embargo, carecen de técnicas y herramientas cuantitativas y de gestión de los recursos humanos que permitan una mayor precisión en la toma de decisiones. A partir de esa necesidad se decide diseñar el proceso de categorización apoyado en la utilización de esas técnicas y herramientas, entre las que se encuentran: índice de experticia, diccionario de competencias para la evaluación del trabajador y la suma ponderada para determinar la evaluación global del mismo. PALABRAS CLAVES: Protocolo, categorización, competencias laborales, técnicas multicriterio, suma ponderada. A MULTI-CRITERIA APPROACH IN THE PERSONNEL CATEGORIZATION PROCESS ABSTRACT Currently, a number of companies are involved in the certification of personnel, as have understood that these are the main components of success. The certification is applicable to any category of person, and provides confidence to the labor market and employers about the skills to perform certain activities. This is achieved through a globally accepted process of periodic assessment and re-assessment of workers' skills. PALCO Group, is one of the companies that provides services to those in the tourism sector, and in these it is engaged in a process of categorizing personnel. However, lack quantitative and human resource management techniques and tools that allow greater precision in decision-making. Based on this need, it was decided to design the categorization process supported by the use of these techniques and tools, among which are: index of expertise, dictionary of competencies for the evaluation of the worker and the weighted sum to determine the global evaluation of the worker. KEY WORDS: Protocol, categorization, job skills, multicriteria techniques, weighted sum. ROMANA EN REDES MODELADAS POR GRAFOS FINITOS MP Álvarez Ruiz 1 , MA Mateos Camacho 2 , JC Valenzuela Tripodoro 3 1,2,3 Escuela Técnica Superior de Ingeniería de Algeciras, Universidad de Cádiz, España 3 e-mail: Jcarlos.valenzuela@uca.es RESUMEN Una función f : V (G) → {0, 1, 2} es una función de dominación Romana (RDF) en una red modelada por un grafo finito G, si cada vértice con etiqueta 0 es vecino de, al menos, un vértice con etiqueta 2. Un conjunto de vértices de la red se dice que es dominante si cualquier otro nodo del grafo tiene al menos un vecino en el conjunto dominante o conjunto de dominación. Evidentemente, los vértices con etiquetas positivas mediante na RDF en un grafo forman un conjunto dominante del mismo. De esta manera, es inmediato obtener un valor que acota inferiormente al número de dominación romana del grafo. Como, por otro lado, es fácil obtener una RDF asignando la etiqueta 2 a cada vértice de un conjunto dominante mínimo, también es posible acotar el valor de la dominación romana superiormente por el doble de la dominación del grafo. En este trabajo se presenta una generalización de las estrategias presentadas por diversos autores en la que consideramos que cualquier vértice de la red debe ser capaz de recibir k unidades de sus vecinos, sin que éstos dejen de tener etiqueta positiva. Se define el concepto de “vecinos activos” de un vértice en un grafo simple, finito, conexo y sin vértices aislados. Dado que es complejo obtener el valor exacto de la dominación estudiada en redes particulares, estimaremos cotas superiores e inferiores y caracterizamos las redes que alcanzan los valores extremos. Además, se ha estudiado la complejidad algorítmica del problema de decisión asociado al cálculo de la dominación romana múltiple y se demuestra que puede llegar a ser lineal, en determinados casos. PALABRAS CLAVES: redes, dominación romana, grafos finitos, complejidad algorítmica. Herramientas cuantitativas de apoyo a la toma de decisiones del sector cuenta propista Javier Escalante 1 , Rosario Garza Rios 2 , Caridad González Sánchez 3 , Teresita Prendes Roque 3 1, 2, 4 Facultad de Ingeniería Industrial, Universidad Tecnológica de la Habana José A. Echeverria Calle 114 No 11901 entre Ciclo Vía y Rotonda. Marianao, La Habana, Cuba. E mail: javier.escaven@gmail.com garzarios2015@gmail.com 3 Instituto de Ciencias Básicas, Universidad Tecnológica de la Habana José A. Echeverria Calle 114 No 11901 entre Ciclo Vía y Rotonda. Marianao, La Habana, Cuba. E mail: carypanch@gmail.com RESUMEN El sector cuentapropista en Cuba se ha ido desarrollando gradualmente, generando que existan en el país una gran cantidad de trabajadores que pertenecen a este sector actualmente. Esto ha generado que no solamente florezca el sector, sino a que se realicen estudios acerca de las posibles problemáticas que pueden presentar estos negocios por parte de las universidades del país. Los emprendedores se ven obligados desde el primer momento de evaluar qué tipo de negocio se desea crear, así mismo en todo el proceso de creación y desarrollo del mismo existen un conjunto de problemas de toma de decisiones, por ello en este trabajo se propone como herramienta de soporte en Excel que permita automatizar y cuantificar la toma de decisiones, evaluar de una manera rápida, factible y con mejores bases. El estudio logra unir lo mejor de cada uno de estos manuales precedentes y unirlo a un sistema de gestión de la calidad- expectativa de clientes. Logrando así un manual, que tributa a la herramienta matemática Excel, aplicable a cualquier tipo de empresa MIPYME no estatal en el país ya sea para su creación como para su evaluación y desarrollo de mejoras. PALABRAS CLAVES: Herramientas cuantitativas, sector cuenta propia, sistema automatizado, experiencia de cliente. Quantitative tools to support decision-making in the entrepreneurs ABSTRACT The private sector in Cuba has been gradually developing, generating a large number of workers in the country that currently belong to this sector. This has led not only to flourish in the sector, but also to carry out studies on the possible problems that these businesses may present by the country's universities. Entrepreneurs are forced from the first moment to evaluate what type of business they want to create, likewise throughout the process of creation and development of the same there are a lot of decision-making problems, for this reason in this work it is proposed a tool of support in Excel that allows to automatize and quantify the decision making, evaluate in a fast, feasible way and with better bases. The study unites the best of each of these previous manuals and join it to a quality management system - customer expectation. Creating a manual that follows the Excel mathematical tool, applicable to any type of non-state MIPYME Company in the country, either for its creation or for its evaluation and development of improvements. KEY WORDS: Quantitative tools, private sector, automated system, customer experience. Identificación de oportunidades de mejora a la marca Hoteles E del Grupo de Hotelería y Turismo Cubanacán con apoyo de técnicas cuantitativas multicriterio Edith Martínez Delgado 1 , Rosario Garza Ríos 1 , Dayron Boris Linares 2 , Patricia Serrano Tillán 3 . 1 Facultad de Ingeniería Industrial, Universidad Tecnológica de la Habana José A. Echeverria, Calle 114 No 11901 entre Ciclo Vía y Rotonda. Marianao, La Habana, Cuba, 2 División Francisco Acanda. Empresa del Mantenimiento del Petróleo (EMPet), Carretera Santa María del Rosario, Km 4 ½, Guanabacoa, La Habana, Cuba, 3 Departamento Comercial. Hotel Iberostar Parque Central. Grupo hotelero Cubanacán, Neptuno e/Prado y Zulueta, Habana Vieja, La Habana, Cuba. edithmd910@gmail.com, garzarios2015@gmail.com, dayron.blinares@gmail.com, tillan.sp@gmail.com RESUMEN Las instalaciones hoteleras trabajan por cumplir con las exigencias de sus clientes para lograr su satisfacción, como factor clave para afrontar la competencia. La presente investigación surgió a partir de conocer la potencialidad existente del sector turístico a través de sus hoteles E. Además, un análisis de la competencia nacional hizo posible identificar a Cubanacán, como líder de la marca en el país. Consecuentemente, la presente investigación se centró en el estudio de la marca Hoteles E del Grupo de Hotelería y Turismo Cubanacán, con el objetivo de identificar las oportunidades de mejoras del desempeño de sus hoteles. Un diagnóstico realizado definió como principal problema, el bajo rendimiento económico de los mismos, influenciado por la poca visibilidad online, bajos niveles de ocupación y el incremento de los costos y gastos, que ligado a la disminución en las ventas, provocó pérdidas. Para mejorar el desempeño de la marca, se diseñó un Modelo de Benchmarking que empleando técnicas de la Matemática aplicada, como el Análisis de Cluster y multicriterio, permite identificar las entidades líderes de la marca, para adoptar, con las adaptaciones que correspondan, las buenas prácticas de éstas. La aplicación de dicho modelo permitió conocer que los hoteles con mejores resultados eran los pertenecientes a los Complejos: Camagüey Ciudad, Remedios, Trinidad Ciudad y Santa Clara. Se identificaron las buenas prácticas de éstos y se propuso un plan de acciones para precisar el modo de adopción y adaptación de estas prácticas al entorno y peculiaridades de los hoteles con desempeño menos satisfactorio. PALABRAS CLAVES: Hoteles E, Benchmarking, Buenas prácticas, Análisis de Cluster y multicriterio. OPPORTUNITIES TO IMPROVE HOTELS E BRAND OF THE CUBANACÁN HOTEL AND TOURISM GROUP WITH THE SUPPORT OF MULTICRITERIA QUANTITATIVE TECHNIQUES ABSTRACT Hotel facilities work to accomplish the demandas of their customers and thus achieve their satisfaction, this being a key factor in facing the competition. The present investigation arose from knowing the existing potencial of the tourism sector throgugh its E hotels. In addition, an analysis of the national compatition made it possible to identify Cubanacán as the brand´s leader in the country. Consequently, the research focused on the study of the Hotels E Brand of Cubanacán Hotel and Tourism Group, in orden to improve the performance of its hotels. A diagnosis carried out defined as the main problem, their low economic performance, influenced by low online visibility, low occupancy levels and increase in costs and expenses, which linked to the decrease in sales, caused losses. To improve the performance of the brand, a Benchmarking Model was designed. It uses applied Mathematics techniques such as Cluster Analysis and multicriteria and allows the identification of the leading entities of the brand, to adopt, with the corresponding adaptations, the good practices of these. The application of this model allowed knowing that the hotels with best results were these belonging to the Complexes: Camaguey City, Remedios, Trinidad City and Santa Clara. The good practices were identified and action plan was proposed to specify the mode of adoption and adaptation of these practices to environment of the hotels with less satisfactory performance. KEY WORDS: E Hotels, Benchmarking, Good Practices, Cluster Analysis, Multicriteria. EL IMPACTO DE LA SIMULACIÓN EN LAS NUEVAS FORMAS DE GESTIÓN EMPRESARIAL CUBANAS Angela Martínez Miranda 1 , Laura María Santalla Rodríguez 2 , Susana Soto Villanueva 3 1 Profesora de la Universidad Tecnológica de La Habana, angela.miranda1604@gmail.com, 2 Profesora de la Universidad Tecnológica de La Habana, 3 Profesora de la Universidad Tecnológica de La Habana. RESUMEN La simulación de sistemas de producción o servicios se emplea cada vez más para la toma de decisiones en el entorno empresarial cubano. Esta herramienta resulta de mucha utilidad y precisión debido a que permite estudiar dichos sistemas y someterlos a diferentes escenarios para predecir o estimar su comportamiento. Un déficit de la capacidad productiva que no responde a los elevados niveles de demanda de los clientes o sistemas productivos cuyo diseño no optimiza los recursos disponibles o están subutilizados son algunas de las principales problemáticas que se presentan en las organizaciones cubanas. Las nuevas formas de gestión no estatal cubanas no están ajenas a estas problemáticas y también encuentran en la simulación herramientas necesarias y útiles para la mejora del desempeño de sus negocios. La aplicación de la simulación de sistemas en sociedades de responsabilidad limitada permitió estimar su capacidad productiva y la reestructuración de los negocios para satisfacer la demanda de los clientes minimizando los tiempos de producción o servicios. La evaluación de los resultados obtenidos permitió la toma de decisiones importantes relacionadas con las variables de interés tales como tiempos de espera, tiempos en el sistema, cantidad de estaciones de servicio y la utilización de los recursos. PALABRAS CLAVES: simulación, capacidad productiva, toma de decisiones, indicadores de procesos. IMPACT OF SIMULATION ON THE NEW BUSINESS MANAGEMENT AND PROPERTY MODELS IN CUBA ABSTRACT The simulation of production or service provision systems is an increasingly used method to inform decision-making among Cuban businesses. This tool has proven to be helpful and precise in predicting business performance by exploring the impact of different scenarios on production or service provision systems. Some of the key issues faced by Cuban businesses are low production capacity -which limits their ability to meet demand- and suboptimal and subutilised production systems. These issues also impact new business management and property models, which has led to an increased use of simulation among them to inform performance improvement. The use of systems simulation in limited companies has proven to be effective in estimating productive capacity and in supporting the restructuring of businesses to address market demand while minimising the time requiered for the production of goods or the provision of services. Evaluation of simulation results has also informed decision-making around important performance indicators, such as waiting times, system time, number of service stations and resource utilisation. KEYWORDS: Simulation, productive capacity, decision-making, process indicators. PREDICTION OF LOCAL DENGUE EPIDEMIC USING A LSTM MODEL. A CASE STUDY Andrey Vinajera-Zamora1, Andrés Vinajera-Cutiño2 1Universidad Central “Marta Abreu” de Las Villas (Road to Camajuaní Km 5.5 Santa Clara, Villa Clara. Cuba) e-mail: andreyvz@uclv.edu.cu 2Center of sanity and epidemiology (Constitucion St. # 95, Guáimaro, Camagüey. Cuba). email: avinajera2021@gmail.com ABSTRACT Early prediction of diseases especially dengue fever in the case of Cuba, is very crucial to enable health authorities to develop response strategies and context preventive intervention programs such as awareness campaigns for the high risk population before an outbreak occurs. With COVID-19 pandemic in Cuba, dengue cases get higher in Guáimaro municipality and it’s a need to optimize the resource to be used. For this, is necessary to get a model to predict dengue cases by weeks. The present paper presents a model to predict local dengue epidemic in the municipality of Guáimaro (a zone of the province Camagüey in Cuba). To achieve this goal a Long Short-Term Memory model is used. The period analyzed was from January 2019 to November 2021 and the time step used was the weeks. The models of best performace used 252 and 254 neurons with a mean absolute error of 17% and 19% respectively. KEY WORDS: dengue prediction, machine learning, neural networks, LSTM, dengue outbreaks, Hybrid model INTORDUCTION Dengue is a tropical mosquito-borne disease affecting more than 100 countries worldwide (Husin et al., 2016) and has a wide clinical spectrum ranging from asymptomatic to severe clinical manifestations (WHO, 2009). Dengue is transmitted to humans through the bites of infected Aedes mosquitos, principally Aedes Aegypti (Ae. aegypti) and possibly Aedes albopictus (Ae. albopictus) (WHO, 2009; Wongkoon et al., 2012). Transmission of dengue virus depends on the presence of Aedes mosquito. Mosquito generation and development is known to be influenced by the climate (Karim et al., 2012). The dengue virus, one of the arboviruses causes classical dengue fever (DF) and dengue hemorrhagic fever (DHF) primarily in the tropical and subtropical regions (Karim et al., 2012). The classic presentation (called dengue fever or DF) begins with an abrupt onset of high fever, often accompanied by erythema, severe muscle and joint pain, headache, nausea, and vomiting (Guzman & Kouri, 2003). Dengue fever is a common human viral disease transmitted via the bite of infected Aedes mosquitoes, typically Aedes aegypti. These mosquitoes are capable of breeding in uncovered containers holding rain water, such as tires, buckets, flower pots, etc., that are commonly found in urban areas in the tropics (Focks et al., 1995) Dengue Fever (DF) which is one of the most well-known disease is an acute febrile disease and one of the most vita arboviral infections that occurs mainly in the tropics country. Until recently, it is still a major challenge for public health, specifically during massive outbreaks. DR which is transmitted by Aedes Aegypty can be life threatening and lead to fatal. In many countries, DF continues to be a risky public health dilemma and become one of the government main concern due to a large increase of cases (Ramadona et al., 2016). The presence of dengue in Cuba was confirmed for the first time in 1943, although it may have been the cause of an epidemic in 1902. In 1977, serotype 1 was introduced in the eastern part of Cuba, spreading rapidly throughout the entire country. During that epidemic, which lasted until 1978, 553,132 cases were reported. Since 1992, slow and gradual reinfestation by Aedes aegypti found in imported tires has been reported (Fiallo et al., 2022). In Cuba, like in most tropical countries, dengue is a growing problem. Transmitted by mosquitoes, this viral infection causes high fever, muscle and joint pains, skin rashes, and, in the most severe cases, death. Globally, the number of dengue cases reported to the World Health Organization has increased eight-fold over the last two decades. The Cuban government is therefore aiming to tackle the spread of dengue by piloting a nuclear technique which can decrease mosquito populations (IAEA, n.d.). On past July, four Cuban provinces have shown an open dengue transmission, a complex situation due to high infestation by Aedes Aegypti mosquito. The eastern provinces of Holguín, Las Tunas and Camagüey have reported high dengue transmission level, as well as Havana, especially Playa and Cotorro municipalities. The 60.8% of the outbreaks have been reported in 17 municipalities, as well as in the provinces of Holguín (13.5%), Camagüey (11.8%), Santiago de Cuba (13%) and Havana (16.5%). Calling on population to reduce dengue transmission by taking comprehensive community actions, where 83% of the mosquito breeding grounds are at homes, especially in household water storage tanks (Prensa Latina, 2022). In case of our study case (Guáimaro municipality), the trend of dengue cases from January 2019 to November 2021 is to increase. The first COVID-19 pandemic in Cuba was detected on March 2020. In lockdown period of pandemic in Cuba (from April 2020), the dengue cases increased because the program to fight Aede-Aegypti mosquito (named Campaign versus Aede- Aegypti mosquito) reduced the effectiveness due the impossibility of movement in the cities. This caused the highest peak of dengue cases (54 cases in a week) during pandemic period. Due to present oil situation in the country, there will be no intensive fumigations as provided for in usual protocol, but work will be done to detect possible outbreaks. Early prediction of diseases especially dengue fever in the case of Cuba, is very crucial to enable health authorities to develop response strategies and context preventive intervention programs such as awareness campaigns for the high risk population before an outbreak occurs. In this sense its crucial predict dengue cases by weeks to optimize the resources spending and get more efficiency in the program to fight. Many models has been applied to predict dengue cases [4,11], dengue outbreaks [12–14], dengue infection (Wongkoon et al., 2012) and dengue incidence (Buczak et al., 2014). However, just (Carlos M Campos Sánchez et al., 2022) was applied in Cuba (Villa Clara) using an Objective Regressive Regression analysis to predict dengue cases with a monthly time steps and none sensitivity analysis was done. Considering the evidence of none model have not been applied in the province Camagüey (neither on any of their municipality), this paper presents a Long Short-Term Memory (LSTM) model to predict dengue cases in a zone of province Camagüey. The objective of the research consisted of prediction of dengue cases in Guáimaro municipality (province Camagüey), Cuba analyzing the years 2019, 2020 and 2021 with weekly time steps. LITERATURE SURVEY The origin of the term Dengue is not entirely clear. Although perhaps the Swahili word "dinga" or "dyenga" homonym of Swahili "Ki denga pepo" (meaning sudden attack brought on by an "evil spirit") The first potential record of a case of dengue, comes from a Chinese medical encyclopedia of the Jin Dynasty from 265 to 420 but the first definitive case report dates from 1789, and is attributed to Benjamin Rush, who coined the term "break bone fever", because of the associated symptoms of myalgias and arthralgias [16,17]. According to a historical account of the presence of dengue fever in the Americas, the disease may have first appeared in 1635 in Martinique and Guadeloupe, but the disease was identified and named as such in 1779 [18,19]. Dengue has been cited as the most important arthropod-borne viral disease of humans, with an estimated 2.5 billion people globally at risk. Dengue has a wide clinical spectrum ranging from asymptomatic to severe clinical manifestations (Guzman et al., 2010). Most of the studies on dengue prediction use standalone models which face problem of finding the appropriate parameter since they need to apply try and error approach (Husin et al., 2016). Many models has been applied to predict dengue cases [4,11], dengue outbreaks [12–14], dengue infection (Wongkoon et al., 2012) and dengue incidence (Buczak et al., 2014). Table 1 shows a summary of dengue prediction where none research use a LSTM model. Just (Carlos M Campos Sánchez et al., 2022) applied their model in Cuba using an Objective Regressive Regression (with weekly time steps) but in province Villa Clara. On the other hand, none research shows any results based on a sensitivity analysis to discover the behavior of the models according the hyperparameter tuning. Table 1. Summary of papers about dengue prediction Author(s) Model Country Data Prediction of: Hybrid model Sensitivity analysis Time steps Normalization Proposal LSTM Cuba (Camagüey) week MinMaxScaler dengue cases Yes Yes (Salim et al., 2021) SVM Malaysa year None dengue outbreaks No No (Buczak et al., 2014) FARM Philippines week Logarithmic dengue incidence No No (Karim et al., 2012) MLR Bangladesh month None dengue cases No No (Wongkoon et al., 2012) ARIMA Thailand year None dengue infection No No (Carlos M Campos Sánchez et al., 2022) ORR Cuba (Villa Clara) month None dengue cases No No SVM: Support Vector Machine, FARM: Fuzzy Association Rule Mining, MLR: multiple linear regression, ARIMA: Autoregressive Integrated Moving Average, ORR: Objective Regressive Regression In this sense, the current research proposes to use a LSTM model to predict dengue cases with weekly time steps. Also, a result based sensitivity analysis is shown to determine which are the best hyperparameters for the model to get the good accuracy on prediction. METHODOLOGY Figure 1 show the methodology to predict dengue cases. This tool is composed by three steps: 1. Data preprocessing The data preprocessing is a process that starts with the data gathering of the dengue cases (mainly dates) in the selected object to study. Then, this data has to be organized by weeks in each year getting a time series of the dengue cases with a weekly time steps. DATA PREPROCESSING SELECT BEST MODELS GET PREDICTION TIMES SERIE Date of dengue cases date 1 date 2 . . . date n TIMES SERIE Week 1 Week 2 . . . Week n BEST MODELS Model 1 Model 2 . . . Model m Short memory Predicted values Value 1 Value 2 . . . Value w Predicted values Value 1 Value 2 . . . Value w Predicted values Value 1 Value 2 . . . Value w MODEL 1 MODEL 2 MODEL B AVERAGE FINAL PREDICTION END START Model builder Prediction generator HYPERPARAMETERS Number of neurons 200 to 300 Number of epochs 50 Short memory size 10% of sample Batch size 8 Test size 10% Figure 1. Methodology 2. Select best models The selection of the best models depends of the hyperparameters of the algorithm (LSTM in this case). This hyperparameter can lead to the model to a better o worst fit. So, the hyperparameter tuning is crucial to find the best hyperparameter. In case of this research, the hyperparameter to be tuned will be the number of neurons. LSTM models are sensitive to the scale of the input data, especially when using the sigmoid (default) or tanh activation functions. It is good practice to rescale the data to the range 0 to 1, also called normalization. In this case, will be used the MinMaxScaler method. After train all models according to the parameters, the model with best mean absolute percentage error (MAPE) value will be the selected models. 3. Get prediction The prediction will depend of the accuracy of each model. The prediction will be done with each selected getting the predicted values. Then, a simple value will be calculated by an average between all predicted values for same observation. RESULTS The case to study for this research is the municipality Guáimaro in province Camagüey. A total of 1450 was detected between January 2019 to November 2021. This data was divided into 147 weeks represented in Figure 1Figure 2 where the trend is to increase during the three years. Figure 2. Overview of dengue disease from January 2019 (week 1) to january 2021 (week 100) The mean is 8.3, 11 and 11.69 cases per year respectively, evidencing the increasing from a year to another. Also, the minimum number of cases was the same for each year (1 case). However, the highest peak was 32, 54 and 48 cases in a week. Figure 3 shows the trend by year where the highest value to increase belong to the year 2020, being in same period with pandemic lockdown. Figure 3. Dengue cases in 2019 (top), 2020 (middle) and 2021 (bottom) The number of neurons to select the best models varied from 200 to 300. The rest of hyperparameter was short memory (12), number of epochs (50) and test sample size (30). Each configuration was run 50 times (total of 5000 models) to get the best model. After run all this models, just two models got a mean absolute percentage error lower than 20% (0.17 and 0.19 respectively). The best model was with 252 neurons and 254 neurons respectively. Figure 4. Weekly observed and fitted local dengue cases (left-model with 252 neurons, right-model with 254 neurons) The final prediction value for the next 8 weeks was computed according to the values calculated by each model. The result of this prediction is shown in Figure 5. Figure 5. Final prediction for next 8 weeks CONCLUSIONS The purpose of this paper was to predict dengue cases based on LSTM models. The best performance models were found in models with 252 neurons and 254 neurons after run 5000 models. However, to get more accuracy results is necessary get more data that help to increase the training datasets and other data that can be correlated with dengue cases (i.e. climate features, structure features, etc.). Findings of the study demonstrated the feasibility of LSTMs in the case of interest. The presented prediction model would be beneficial for Center of Sanity and Epidemiology. Acknowledgments. The authors would like to thank to all people from Center of Sanity and Epidemiology who collaborate with this research. References. [1] Ayala, S. Y. O., Jl, I., Grieco, J. P., Achee, N., Mercado, H. R., & Fernández, S. I. (2008). Behavioral response of Aedes aegypti (Linnaeus, 1762) to pyrethroid adulticides commonly used in public health. Peruvian Journal of Experimental Medicine and Public Health, 25(1), 26–34. [2] Bhatt, S., Gething, P. W., Brady, O. J., Messina, J. P., Farlow, A. W., Moyes, C. L., Drake, J. M., Brownstein, J. S., Hoen, A. G., & Sankoh, O. (2013). The global distribution and burden of dengue. Nature, 496(7446), 504–507. [3] Buczak, A. L., Baugher, B., Babin, S. M., Ramac-Thomas, L. C., Guven, E., Elbert, Y., Koshute, P. T., Velasco, J. M. S., Roque Jr, V. G., & Tayag, E. A. (2014). Prediction of high incidence of dengue in the Philippines. PLoS Neglected Tropical Diseases, 8(4), e2771. https://doi.org/10.1371/journal.pntd.0002771 [4] Carlos M Campos Sánchez, Laura A Guillen León, David del Valle Laveaga, Isbety Acosta Escanaverino, Daniel Rodríguez Hurtado, Ricardo Osés Rodríguez, Rolando J Morales Guerra, Frank M Wilford González, & Rigoberto Fimia Duarte. (2022). Modeling and prediction of dengue cases in the short and long term in Villa Clara, Cuba using climatic variables and objective regressive regression. GSC Biological and Pharmaceutical Sciences, 18(3), 035–045. https://doi.org/10.30574/gscbps.2022.18.3.0090 [5] Fiallo, S. G., Batista, P. C., Rodríguez, I. M., Morales, V. R., Peña, R. P., & Morera, M. G. (2022). Seroprevalencia de infección reciente por dengue en una zona de riesgo. Revista Cubana de Higiene y Epidemiología, 59. http://www.revepidemiologia.sld.cu/index.php/hie/article/view/1191 [6] Focks, D. A., Daniels, E., Haile, D. G., & Keesling, J. E. (1995). A simulation model of the epidemiology of urban dengue fever: literature analysis, model development, preliminary validation, and samples of simulation results. American Journal of Tropical Medicine and Hygiene, 53(5), 489–506. [7] Gould, E., Pettersson, J., Higgs, S., Charrel, R., & De Lamballerie, X. (2017). Emerging arboviruses: why today? One Health, 4, 1–13. https://doi.org/10.1016/j.onehlt.2017.06.001 [8] Guzman, M. G., Alvarez, M., & Halstead, S. B. (2013). Secondary infection as a risk factor for dengue hemorrhagic fever/dengue shock syndrome: an historical perspective and role of antibody-dependent enhancement of infection. Archives of Virology, 158(7), 1445–1459. https://doi.org/10.1007/s00705-013-1645-3 [9] Guzman, M. G., Halstead, S. B., Artsob, H., Buchy, P., Farrar, J., Gubler, D. J., Hunsperger, E., Kroeger, A., Margolis, H. S., & Martínez, E. (2010). Dengue: a continuing global threat. Nature Reviews Microbiology, 8(12), S7– S16. https://doi.org/10.1038/nrmicro2460 [10] Guzman, M. G., & Kouri, G. (2003). Dengue and dengue hemorrhagic fever in the Americas: lessons and challenges. Journal of Clinical Virology, 27(1), 1–13. https://doi.org/10.1016/S1386-6532(03)00010-6 [11] Husin, N. A., Mustapha, N., Sulaiman, M. N., Yaacob, R., Hamdan, H., & Hussin, M. (2016). Performance of Hybrid GANN in Comparison with Other Standalone Models on Dengue Outbreak Prediction. Journal of Computer Sciences, 12(6), 300–306. https://doi.org/10.3844/jcssp.2016.300.306 [12] IAEA, I. A. E. A. (n.d.). Mosquitoes Defeated in Cuba Trial with Nuclear Technique. Retrieved July 15, 2022, from https://www.iaea.org/newscenter/news/mosquitoes-defeated-in-cuba-trial-with-nuclear-technique [13] Karim, M. N., Munshi, S. U., Anwar, N., & Alam, M. S. (2012). Climatic factors influencing dengue cases in Dhaka city: a model for dengue prediction. The Indian Journal of Medical Research, 136(1), 32–39. https://pubmed.ncbi.nlm.nih.gov/22885261 [14] Mustaffa, Z., Sulaiman, M. H., Emawan, F., Yusof, Y., & Mohsin, M. F. M. (2018). Dengue Outbreak Prediction: Hybrid Meta-heuristic Model. 2018 19th IEEE/ACIS International Conference on Software Engineering, Artificial Intelligence, Networking and Parallel/Distributed Computing (SNPD), 271–274. https://doi.org/10.1109/SNPD.2018.8441095 [15] Mustaffa, Z., Sulaiman, M. H., Mohsin, M. F. M., Yusof, Y., Ernawan, F., & Rosli, K. A. M. (2019). An Application of Hybrid Swarm Intelligence Algorithms for Dengue Outbreak Prediction. 2019 IEEE Jordan International Joint Conference on Electrical Engineering and Information Technology (JEEIT), 731–735. https://doi.org/10.1109/JEEIT.2019.8717436 [16] Prensa Latina, P. (2022). Cuba warns about dengue high transmission in four provinces. Cuba Warns about Dengue High Transmission in Four Provinces. https://www.plenglish.com/news/2022/07/05/cuba-warns-about-dengue-high- transmission-in-four-provinces/ [17] Ramadona, A. L., Lazuardi, L., Hii, Y. L., Holmner, Å., Kusnanto, H., & Rocklöv, J. (2016). Prediction of Dengue Outbreaks Based on Disease Surveillance and Meteorological Data. PLOS ONE, 11(3), e0152688. https://doi.org/10.1371/journal.pone.0152688 [18] Salim, N. A. M., Wah, Y. B., Reeves, C., Smith, M., Yaacob, W. F. W., Mudin, R. N., Dapari, R., Sapri, N. N. F. F., & Haque, U. (2021). Prediction of dengue outbreak in Selangor Malaysia using machine learning techniques. Scientific Reports, 11(1), 939. https://doi.org/10.1038/s41598-020-79193-2 [19] WHO, W. H. O. (2009). Dengue: guidelines for diagnosis, treatment, prevention and control. World Health Organization. https://apps.who.int/iris/handle/10665/44188 [20] Wongkoon, S., Jaroensutasinee, M., & Jaroensutasinee, K. (2012). Development of temporal modeling for prediction of dengue infection in Northeastern Thailand. Asian Pacific Journal of Tropical Medicine, 5(3), 249–252. https://doi.org/https://doi.org/10.1016/S1995-7645(12)60034-0 About the authors. Andrey Vinajera-Zamora. Academic and researcher in Central University of Las Villas. Faculty of Mechanical and Industrial Engineering. Department of Industrial Engineering. Head professor. Doctor degree in technical Sciences. Andrés Vinajera-Cutiño. Head of municipal surveillance and vector control department. Guáimaro. MODELO DE GESTIÓN DE RECURSOS HUMANOS EN LOS PROYECTOS INFORMÁTICOS DE DESOFT. HUMAN CAPITAL MANAGEMENT MODEL IN DESOFT INFORMATICS PROJECTS. Ing. Eberly Gaínza Martínez 1* Dr. Armando Cuesta Santos 2 *1 Empresa de Aplicaciones Informáticas Desoft, Subdirector de Organización y Capital Humano, Cuba; eberly.gainza@desoft.cu 2 Universidad Tecnológica de la Habana José Antonio Echeverría, Profesor Titular, Cuba, armandocuestasantos@gmail.com RESUMEN La implementación de un adecuado sistema de gestión de recursos humanos es uno de los elementos primarios para que cualquier organización pueda mantener y perfeccionar el que constituye su principal recurso; el capital humano, el mismo se considera una herramienta vital para dirigir, asegurar y facilitar el desarrollo de cada colectivo laboral. Los proyectos constituyen una de las células organizativas en la Empresa de Aplicaciones Informáticas Desoft para la implementación del Modelo de Negocios de Software como Servicios bajo el esquema Saas (Software as a Service). Desoft considera a sus recursos humanos y por consiguiente a la gestión de los mismos como el elemento básico para mejorar continuamente su competitividad en el cumplimiento de su misión. Al diagnosticar la gestión de los recursos humanos en la empresa, utilizando el Modelo Gestión de Recursos Humanos de Diagnóstico, Proyección y Control de la Gestión Estratégica, se detectó una ineficiente gestión de recursos humanos a nivel de los proyectos, constituyendo una de las principales causas de las deficiencias que este proceso presenta a nivel de empresa. Por esta razón, el objetivo de la presente investigación es diseñar un modelo de gestión de recursos humanos a aplicar en los proyectos de la Empresa de Aplicaciones Informáticas Desoft que contribuya al incremento de la eficiencia de los mismos y con ello alcanzar un mayor aporte a la informatización de la sociedad cubana. PALABRAS CLAVES: Gestión de recursos humanos, proyectos, procesos, equipos de trabajo. ABSTRACT The development of a work collective depends of the adequate system of human capital management implementation, which is a principal element to maintain and improve a main resource: human capital - considered a vital tool for directing, securing and facilitating each work team. Projects are one of the organized cells in Desoft Informatics Application Enterprise for the implementation of Software Business Model as Services under the Saas scheme (Software as a Service). This enterprise takes care of its human resources- and for this- to its management as an essential element to improve its competence in the fulfillment of its mission. When the management of human resources in the enterprise was diagnosing, using the Human Resources Management Model Diagnostic, Strategic Management Planning and Control inefficient human resources management at the project level, was detected, constituting one of the main causes that this process presents at the company level. For this reason, the objective of this research is to design a human resources management model to apply in the projects of Desoft Informatics Application Enterprise to contribute to their increase and thus achieve a greater contribution to the informatization of Cuban society. KEY WORDS: human resources management, projects, process, work teams. 1. INTRODUCIÓN En el entorno empresarial actual, caracterizado por el cambio constante y la competencia, las empresas han de incorporar a sus sistemas de gestión los aportes que en este campo del conocimiento se generen y en particular aquellos que constituyen herramientas para el mejoramiento continuo bajo una concepción proactiva, como condición esencial para garantizar el crecimiento sistemático y la competitividad. La implementación de un adecuado sistema de gestión de recursos humanos es uno de los elementos primarios para que cualquier organización pueda mantener y perfeccionar el que constituye su principal recurso: el capital humano, el mismo se considera una herramienta vital para dirigir, asegurar y facilitar el desarrollo de cada colectivo laboral sobre la base de su motivación, compromiso y conocimiento. Un logro incuestionable en la actualidad es el alto nivel de preparación en el capital humano, no siendo así en el nivel de gestión, por lo que constituye un objetivo priorizado establecer un sistema de gestión de recursos humanos consecuente con un enfoque sistémico, multidisciplinario, participativo, proactivo y de proceso, coherente con la cultura empresarial y el entorno. La Empresa de Aplicaciones Informáticas Desoft, integrada al Grupo Empresarial de la Informática y las Comunicaciones (GEIC), tiene como objeto social “Desarrollar y comercializar productos y servicios asociados a las tecnologías de la información y las comunicaciones”. La Empresa tiene un alcance nacional, contando en su estructura con 18 divisiones (Unidades Empresariales de Base) distribuidas por todas las provincias del país y el municipio especial Isla de la Juventud. 2. DIAGNOSTICO DE LA GESTIÓN DE RECURSOS HUMANANOS El objetivo del diagnóstico se centra en caracterizar la empresa objeto de estudio, así como la situación actual de la gestión de recursos humanos en dicha entidad. Para ello se utilizará el Modelo de Gestión de Recursos Humanos de Diagnóstico, Proyección y Control de la Gestión Estratégica, establecido por Cuesta [Cuesta, 2021-2022]. En la realización del diagnóstico se caracterizó la fuerza de trabajo en todos sus componentes, revisaron y analizaron de forma detallada y con la participación de trabajadores y directivos de la empresa, la estructura de la misma, el proceso de planeación estratégica, la cultura incluyendo los valores compartidos, los atractivos de la organización. Se estudiaron como parte de las tecnologías de las tareas los procesos que se llevan a cabo en la empresa y los grupos de interés. Para realizar el análisis de los subsistemas y políticas de la gestión de los recursos humanos en la entidad objeto de estudio, se utilizó la Herramienta propuesta por el Ing. José Carlos Melo, para aplicar la Lista de Chequeo de la Tecnología de Diagnóstico del Sistema de Capital Humano, elaborada por Alfredo Morales Cartaya. La lista de chequeo utilizada se aplica en dos aspectos fundamentales, las premisas y los módulos, el primero permite conocer el nivel de orientación estratégica del sistema de gestión de capital humano y el segundo realiza un recorrido por los nueve subprocesos claves del sistema, de acuerdo a las NC 3000, 3001 y 3002: 2007, identificando brechas, debilidades y fortalezas en cada uno de ellos. La aplicación de la lista de chequeo dio como resultado que en la empresa existe orientación estratégica, los trabajadores participan en el proceso de dirección, la actividad de recursos humanos forma parte de la alta dirección, siendo considerada como un proceso estratégico y teniendo sus mayores debilidades en los subprocesos de organización del trabajo, competencias laborales y estimulación moral y material. Para relacionar las deficiencias detectadas en el diagnóstico y determinar su repercusión se recurrió a la construcción de un Diagrama Ishikawa, con la participación de un grupo de expertos integrado por directivos y trabajadores de reconocido prestigio. Se les dieron a conocer las deficiencias detectadas, esencialmente por la aplicación de la lista de chequeo de la Tecnología de Diagnóstico del Sistema de Capital Humano, que constituyen las causas del problema principal o efecto, alcanzándose consenso en cuanto a la existencia de dichas causas. Seguidamente se agruparon en principales y subcausas o causas de causas, quedando elaborado el diagrama. Posteriormente se ponderaron las causas principales, donde cada experto de forma individual le otorgó el orden de importancia que consideró correcto, siendo el número 1 la más importante y el número 6 la menos importante, quedando el Diagrama Ishikawa ponderado como se muestra en la figura: Deficiencias en la Gestión de Recursos Humanos Problemas en la Evaluación del Desempeño Ineficiente Gestión a Nivel de Proyectos No se ha implementado la Gestión por Competencias Dificultades en la Organización del Trabajo Desmotivación con el Salario Inadecuados Diagnósticos de Necesidades de Capacitación No se define como unidad organizativa Solamente se gestiona desde la producción Poco control de los recursos por los jefes de proyectosNo se hacen EOT en los proyectos Evaluaciones Superficiales Los jefes de proyectos no evalúan a todos sus subordinados No identificadas las competencias por procesos No elaborados los perfiles de competencias No se evalúa por competencias Procesos y Procedimientos Desactualizados No se planifica por balances de carga y capacidad Baja calidad de los EOT Dificultades en el diseño ergonómico de los puestos No satisface las necesidades No está vinculado a los resultados del trabajo Se minimiza la importancia del diagnóstico Los jefes de proyectos no participan en el diagnóstico 3 2 5 416 Figura 1. Diagrama Ishikawa Ponderado 3. MODELO DE GESTIÓN DE RECURSOS HUMANOS Luego de analizados los resultados del diagnóstico realizado a la gestión de los recursos humanos en la Empresa de Aplicaciones Informáticas DESOFT, se propone en el presente epígrafe el modelo para la gestión de los recursos humanos a utilizar en los proyectos de dicha entidad. Los recursos del equipo o de personal se refieren a los recursos humanos de un proyecto. El personal puede tener diferentes conjuntos de habilidades, pueden estar asignados a tiempo completo o a tiempo parcial y se pueden incorporar o retirar del equipo de proyectos conforme avanza el mismo. El equipo de proyectos consiste en individuos que tienen asignados roles y responsabilidades, quienes trabajan en conjunto para lograr un objetivo común del proyecto, [PMI, 2017]. La gestión de los recursos humanos ya se ha revelado como una parte decisiva en todo proyecto, combinando esta gestión con la del resto de las áreas de la entidad debería ser suficiente para el éxito. Una gran parte de los errores en los que se cae en la gestión de proyectos están dados por causas relacionadas directamente con la mala gestión de los recursos humanos. El modelo propuesto está formado por cuatro (4) procesos fundamentales, como se muestran en la figura 2, de los cuales con la intención de facilitar la comprensión de los mismos se definirán los objetivos de cada uno de ellos y se describirán sus principales actividades. Los procesos son los siguientes: Planificación: se define cómo adquirir y utilizar los recursos del equipo, se proyectan las cantidades y características de los mismos por las diferentes etapas del proyecto y se determinan la estructura, la plantilla y los puestos de trabajo, así como el presupuesto. Selección: se lleva a cabo la identificación y selección de los miembros del equipo y se asignan a sus respectivas actividades. Desarrollo: se propicia el desarrollo de competencias, se gestiona la comunicación, la interacción y el ambiente general del equipo de proyectos. Dirección: se realiza el seguimiento del desempeño de los miembros del equipo y se evalúa el mismo, se resuelven los problemas y gestionan cambios a fin de optimizar el desempeño del proyecto. En este proceso se controla la disponibilidad de los miembros del equipo y el cumplimiento de sus funciones de acuerdo a la planificación realizada. Figura 2 Modelo de GRH para los Proyectos de Desoft Proceso de Planificación. El proceso de planificación comienza cuando se decide crear y organizar un nuevo proyecto o una nueva etapa de uno. La planificación debe llevarse a cabo también cuando a través de la propia gestión del proyecto se detectan necesidades de cambio o un mal funcionamiento en los procesos establecidos, para lo cual deben revisarse los mismos y proponer las modificaciones y mejoras que sean necesarias. El proceso tiene como objetivos determinar la estructura y la plantilla del proyecto, nombra rel equipo de dirección y determinar el nivel de utilización de los recursos humanos. Los proyectos en la Empresa de Aplicaciones Informáticas DESOFT se crean a partir de los objetivos estratégicos y las políticas que están definidas por la empresa, encaminados principalmente al desarrollo del modelo de negocios de software como servicios y teniendo en cuenta las demandas del proceso de Gestión Integrada de Negocios, previa negociación, conceptualización, conciliación de requisitos generales y factibilidad, donde la empresa y el cliente deciden la realización del mismo. La constitución del proyecto queda plasmada mediante el Acta de Inicio firmada entre la máxima dirección y el cliente, para lo cual debe quedar establecido el alcance del mismo. Con el Acta de Inicio los especialistas del proceso de gestión integrada de negocios aperturan el mismo en el sistema Zoom Localización Cubana de Odoo, en su módulo de proyectos, el cual se enlaza con los módulos de gestión de recursos humanos (empleados, reclutamiento, evaluaciones, ausencias, capacitación, seguridad y salud en el trabajo, nóminas) y con el módulo calendario. Una vez constituido el proyecto se nombra por la dirección de la entidad a su Equipo de Dirección, el cual deberá estar integrado por un Gerente, un Gestor del Talento y un Gestor Contable Financiero. El equipo de dirección determina la estructura del proyecto de acuerdo a los objetivos, alcance, tamaño, complejidad, entorno y las características del mismo, para ello deben tener en cuenta la ficha técnica y el contrato firmado con el cliente. Los proyectos pueden estar integrados por varios subproyectos. La estructura es el producto de las relaciones que se establecen dentro del proyecto, como resultado de las interacciones entre los miembros de su equipo. Planificación Dirección Selección Desarrollo Para el diseño de la estructura el equipo de dirección tendrá en cuenta que la misma debe permitir el flujo libre de información entre los miembros del equipo y de estos con la dirección del proyecto y la Empresa. El equipo debe saber a quién recompensar, quien necesita desarrollarse individualmente y quien puede asumir más responsabilidades. En Desoft están definidas las competencias generales de la organización, estas son las competencias relevantes para todos los profesionales de la empresa, las cuales se determinan a partir de la misión, visión, políticas, estrategias y valores compartidos. A partir de los procesos que se ejecutan en la empresa se definen las competencias de cada uno de ellos, independientemente de su clasificación como estratégicos, operacionales y de apoyo, para ello se tienen en cuenta las características de las actividades que componen dichos procesos. Una vez definidas las competencias a nivel de empresa y de procesos se determinan las competencias específicas por los roles o puestos de trabajo que ejecutan dichos procesos. Las competencias específicas son las competencias necesarias para realizar las actividades propias del proceso y en específico del puesto de trabajo o rol. En Desoft se trabaja en la definición de los perfiles de competencias por los roles que intervienen en cada proceso. Teniendo en cuenta que este modelo introduce como nuevo el rol de Gerente de Proyectos y con el objetivo de elaborar su perfil, se definió un grupo de expertos para la determinación del mismo, aplicando el método Delphi para definir las competencias. Para la aplicación del método se creó un grupo de 6 expertos integrado por directivos del proceso de Gestión de Negocios y otros cuadros que dirigen los principales proyectos estratégicos de la empresa. Los miembros del grupo se sometieron a un breve proceso de preparación sobre la gestión por competencias dándoles a conocer los principales elementos referidos por Armando Cuesta Santos en [Cuesta, 2020- 2021] Cada experto plasmó en una hoja, de forma individual, las que a su criterio debían ser las competencias del rol objeto de estudio. Posteriormente se listaron todas las competencias erradicando repeticiones y similitudes. En una segunda ronda se les muestran a los expertos el listado de las competencias resultantes para que manifiesten si están de acuerdo o no con cada una de ellas para el rol de gerente de proyectos. Una vez determinado el nivel de concordancia entre los expertos se eliminan las competencias con un coeficiente de concordancia menor del 60% y las que no fueron consideradas por los expertos como competencias del rol. En la tercera ronda los expertos ponderaron las competencias de acuerdo a su nivel de importancia, siendo el menor número la más importante y el mayor la menos importante, lo cual permitió ordenar las competencias, teniendo como la más importante el dominio de la gestión de proyectos, seguida por el dominio de las técnicas de dirección y la menos importante la competencia de orientación a la auto preparación. Posteriormente se comprobó la existencia de concordancia entre los expertos obteniéndose en todos los casos un coeficiente de concordancia mayor del 60%. En el trabajo con los expertos se definieron otros elementos como la misión del rol, los valores éticos, dimensiones de las competencias, requisitos para ocupar el mismo y condiciones de trabajo entre otros, obteniéndose el perfil por competencias. Teniendo en cuenta que el proyecto es una organización temporal que se desarrolla dentro de la empresa, en constante interacción con sus procesos, el equipo de dirección con la participación de los jefes de subproyectos cuando corresponda y de los especialistas del proceso de gestión del talento, a partir de la Plantilla Objetiva Existente (POE) a nivel de entidad y teniendo en cuenta los roles que están definidos por cada uno de los procesos, determinan la Plantilla Objetiva Proyectada (POP) para el proyecto, definiendo los roles que son necesarios para alcanzar los objetivos trazados. POE: es la cantidad de personal idóneo con que cuenta la entidad dentro de la plantilla actual. POP: es la cantidad de personal idóneo necesario, que debe existir para asumir las cargas de trabajo para la ejecución del proyecto. Dado el carácter temporal del proyecto no se tienen en cuenta en la determinación de su plantilla las pérdidas previsibles identificadas en la plantilla actual de la empresa. En Desoft para determinar la carga de trabajo de los proyectos se analizan su tamaño, alcance, etapas, requisitos solicitados por el cliente y tareas a desarrollar, siendo clasificados en proyectos de complejidad alta, media o baja. Usando el criterio de expertos se determina para cada uno de los roles que intervienen en los proyectos la cantidad de trabajadores necesarios, de acuerdo a su clasificación por grupo de complejidad. Los especialistas del proceso de Gestión del Conocimiento, tanto en las divisiones para los proyectos territoriales como en la Oficina Central para los proyectos nacionales, crean el proyecto como una unidad organizativa en el Zoom Localización Cubana de Odoo, lo cual le permite al equipo de dirección y al resto de sus integrantes hacer uso de acuerdo a su nivel de responsabilidad de todos los módulos relacionados con el mismo. El gestor del talento del proyecto configura en el sistema la plantilla del mismo lo que sirve de entrada para el resto de los procesos. El equipo de dirección de conjunto con los especialistas del proceso de Gestión Contable Financiera determina y dejan establecido en el Plan Económico del proyecto el presupuesto de gastos por partidas y los planes de ingresos y de utilidades del proyecto, lo cual debe estar en concordancia con el estudio de factibilidad del mismo. En Desoft como parte de la planificación, dirección y control estratégico se definen, bajo la coordinación de los jefes de procesos y con la participación de los trabajadores, objetivos estratégicos por cada uno de los procesos representados en el mapa de la empresa. A partir de los objetivos se establecen indicadores que permitan medir el estado y el cumplimiento de los mismos, conformando así un Cuadro de Mando Integral como herramienta de gestión que permite medir la evolución de la empresa desde una perspectiva general. Para medir el desempeño de los proyectos se definen objetivos e indicadores los cuales se integran al cuadro de mando integral como parte de la ejecución de los procesos. En la tabla 1 se proponen los indicadores a incluir en el cuadro me mando integral para medir la gestión por proyectos para el ejercicio estratégico correspondiente al período 2023-2025. PROCESO OBJETIVOS 2023-2025 INDICADOR EXPRESIÓN DE CÁLCULO VALOR DE REFERENCIA METAS ANUALES 23 24 25 Proceso de Gestión de Negocios Alcanzar una mayor satisfacción de los clientes con la gestión por proyectos Índice de Proyectos Exitosos (Total de proyectos exitosos/Total de nuevos productos/servicios lanzados al mercado en igual lapso de tiempo) X 100 90% 70 80 90 Indice de satisfacción del cliente Suma de las puntuaciones/ cantidad de clientes encuestados 4.5 3.5 4.0 4.5 Tasa de Quejas y Reclamacione s Cantidad de quejas + cantidad de reclamaciones en un año/ cantidad de servicios prestados en igual período 0-1 2-3 1-2 0-1 Proceso de Gestión del Talento Incrementar la satisfacción laboral de los trabajadores vinculados a proyectos Coeficiente de Satisfacción Laboral Cantidad de trabajadores que expresan satisfacción con su trabajo/ Cantidad total de trabajadores en proyectos 90% 70 80 90 Tabla 1 Indicadores para medir el desempeño de los proyectos Proceso de Selección El proceso de selección tiene como objetivo obtener los recursos humanos necesarios para completar el equipo de proyectos. Con frecuencia los responsables de los proyectos piensan que los aspectos más importantes en los equipos de software son la tecnología y los conocimientos técnicos, pero en realidad tres elementos relacionados con los recursos humanos deben estar en equilibrio para que el proyecto alcance su objetivo. El primer elemento tiene que ver con el comportamiento sociológico y las relaciones de los recursos humanos, el segundo se refiere a los conocimientos técnicos y las competencias del equipo y el tercero tiene que ver con la calidad de vida del equipo. Se considera que para obtener el equilibrio necesario en el desarrollo de software, el proceso de selección de personal debe estar orientado a garantizar el equilibrio entre estos tres elementos. Para la ejecución de este proceso el equipo de dirección, teniendo en cuenta la plantilla definida para el proyecto y los perfiles de competencias de los roles que conforman la misma, realiza de conjunto con el proceso de Gestión del Talento, un análisis de los posibles candidatos a formar parte del equipo de proyecto, para ello se debe revisar la base de datos del sistema Zoom Localización Cubana de Odoo, conocimientos demostrados en proyectos anteriores y otras fuentes de información internas de la empresa. Para la selección de los candidatos también se pueden aplicar técnicas como las entrevistas y los test o cuestionarios técnicos y de habilidades para ayudar a describir la conducta humana en condiciones normales y condiciones de tensión, y de calidad de vida para evaluar la misma en los candidatos, la información brindada por este cuestionario permite obtener una vista del estado físico y anímico de los aspirantes y poder luego instrumentar actividades como parte en la ejecución del proceso de desarrollo que favorezcan la vitalidad y contribuyan a mejorar el estilo de vida de los miembros del equipo. Los test serán aplicados por especialistas del proceso de Gestión del Talento y sus resultados presentados al equipo de dirección para la toma de decisiones. Estas actividades se ejecutan a través de un sitio web accesible desde el sitio corporativo para todo el personal externo a la empresa, cuando corresponda, pudiéndose también acceder desde el Portal del Empleado, para los trabajadores de Desoft, teniendo en cuenta que esta última debe constituir la principal herramienta de comunicación con los trabajadores. Este portal ofrece además herramientas de interacción con los candidatos para facilitar el proceso. Los resultados de los análisis realizados y las técnicas aplicadas son valorados por el equipo de dirección del proyecto, quienes determinan el personal idóneo para formar parte del equipo de proyectos a lo largo de su ciclo de vida. El equipo de dirección del proyecto emite solicitudes a las áreas a las que pertenecen los trabajadores seleccionados para que estas aprueben su participación en el proyecto. En el caso de los proyectos nacionales, donde intervienen trabajadores de diferentes divisiones, estas solicitudes se realizan mediante la División Integradora de Negocios y la Dirección de Gestión del Conocimiento. Una vez obtenidas todas las aprobaciones necesarias el equipo de dirección del proyecto elabora un informe detallando las personas seleccionadas, el rol que ocupan dentro del proyecto, su responsabilidad y autoridad y en cual o cuales etapas del mismo intervienen. El gestor del talento le da alta en el módulo de Empleados del Zoom Localización Cubana de Odoo, a los trabajadores aprobados, en las etapas en las que participarán de acuerdo al cronograma definido en el módulo de proyectos. Como resultado del proceso se deben identificar las brechas de competencias de los trabajadores que integran la plantilla del proyecto, facilitando de esta forma los elementos en los cuales se debe centrar la capacitación y formación dentro del proceso de desarrollo. Para desarrollar y ejecutar proyectos de exportación asociados a las TIC, Desoft se encadena con las Formas de Gestión no Estatal (FGNE) cuando no cuenta con la fuerza de trabajo necesaria para asumir el proyecto o cuando la demanda del mercado requiere un servicio que lo brindan dichas formas de gestión. Para ello se requiere tener debidamente identificada una cartera, con la mayor información posible sobre competencias, habilidades y experiencias de los recursos disponibles. Proceso de Desarrollo El proceso de desarrollo se lleva a cabo a lo largo de todo el proyecto, está encaminado a Mejorar las habilidades de los miembros del equipo y su interacción y a desarrollar sentimientos de confianza y cohesión. El equipo de dirección propicia la participación del resto de los miembros del proyecto en la definición de los objetivos y metas a conseguir para facilitar el surgimiento de la identidad del equipo y el compromiso común. A pesar de que las actividades del proceso de desarrollo se ejecutan durante todo el ciclo de vida del proyecto, se pudiera decir que tienen su punto de partida en el Diagnóstico de la Necesidades de Capacitación que se realiza anualmente en la empresa y que luego se va actualizando sistemáticamente cuando las condiciones lo requieren. El equipo de dirección con la participación de los jefes de subproyectos cuando corresponda, realizan y actualizan el levantamiento de las necesidades de capacitación de los miembros del equipo. Para ello usan como entradas los resultados del proceso de selección, los perfiles de competencias de los roles que intervienen en el proyecto, las evaluaciones del desempeño efectuadas, entre otras. Las necesidades de capacitación detectadas en el diagnóstico son registradas por el gestor del talento del proyecto en el módulo de capacitación del Zoom Localización Cubana de Odoo. El gestor del talento elabora en el sistema el plan de desarrollo de los miembros del equipo de proyectos y da seguimiento a su ejecución en coordinación con los especialistas del proceso de gestión del talento tanto en las divisiones como en la Dirección de Gestión del Conocimiento cuando se trata de proyectos nacionales. El plan incluye los modos de formación a utilizar, las acciones propuestas y las etapas en las que se ejecutarán las mismas. Desarrollar el equipo de proyectos mejora las habilidades de sus integrantes, sus competencias, el ambiente del equipo y el desempeño general del proyecto, para ello el equipo de dirección debe establecer una comunicación clara, oportuna, eficaz y eficiente entre los integrantes del proyecto. Se definen y establecen los flujos de información en las relaciones del proyecto con los procesos de la empresa. En la estrategia de comunicación de la empresa se deben tener en cuenta a los proyectos como célula organizativa básica y definir claramente las responsabilidades de sus miembros en la comunicación tanto interna como externa. Para la ejecución de los proyectos nacionales, dadas sus características de integrar a trabajadores de más de una división territorial, se crean equipos de proyectos virtuales. Los equipos virtuales se pueden definir como grupos de personas con un objetivo común, que cumplen con sus respectivos roles dedicando poco o nada de tiempo para reunirse cara a cara [PMI 2017]. Estos proyectos cuentan con disponibilidad de tecnologías de las comunicaciones, como correo electrónico, telefonía celular y fija, acceso a internet. Las reuniones y otras cesiones de trabajo que requieran conciliación, intercambio y toma de decisiones en equipo se realizan utilizando la aplicación de videoconferencias video.desoft.cu. Proceso de Dirección En este proceso el equipo de dirección del proyecto gestiona los conflictos, observa el comportamiento de los miembros del equipo y evalúan su rendimiento, coordina cambios, controla la disponibilidad de los miembros del equipo y el cumplimiento de sus funciones y tareas de acuerdo al cronograma establecido y los compensa de acuerdo de acuerdo al trabajo realizado. En este proceso se realiza el seguimiento del desempeño de los miembros del equipo y se evalúa el mismo de acuerdo a los niveles de autoridad y responsabilidad definidos en la estructura y plantilla del proyecto. Se establece como punto de partida que cada miembro del equipo debe elaborar mensualmente su Plan de Trabajo Individual, según lo establecido en la Instrucción 1 del Presidente de los Consejos de Estado y de Ministros y se le da seguimiento a su cumplimiento por el trabajador y su jefe inmediato. El plan de trabajo se elabora y gestiona en formato digital, usando el módulo Calendario del Zoom Localización Cubana de Odoo, como plataforma tecnológica que gestionará de manera integrada los recursos humanos en la organización y usará como entradas las funciones y competencias definidas en los perfiles para cada rol y las tareas asignadas de acuerdo al cronograma del proyecto. La dirección del proyecto evaluará de forma directa e íntegramente el aporte individual de todos los miembros de su equipo, aunque estos pertenezcan a diferentes divisiones, como ocurre en los proyectos nacionales. La evaluación se realizará con frecuencia trimestral y la misma servirá de base para la evaluación de desempeño anual y como resultado se identifican las brechas de competencias que puedan presentar los evaluados, las que constituyen entradas al proceso de Desarrollo. Las evaluaciones serán registradas por los evaluadores en el módulo correspondiente del sistema Zoom. Para realizar la evaluación se deben tener en cuenta indicadores de conducta, trabajo en equipo, uso y cuidado de los recursos, cumplimiento de las normas de seguridad y salud en el trabajo, desarrollo profesional, cumplimiento del plan de trabajo, cantidad y calidad del trabajo realizado y satisfacción de clientes internos y externos. Cuando sea necesario de acuerdo a la planificación realizada la incorporación de un trabajador a una determinada etapa del proyecto y teniendo en cuenta que todos los miembros del equipo fueron previamente seleccionados y autorizada su participación en el proyecto, el equipo de dirección emite comunicación al área funcional a la cual pertenece el trabajador para que el mismo sea liberado y pueda incorporarse a cumplir con sus funciones dentro del proyecto. Los miembros del equipo de dirección y los jefes de subproyectos cuando corresponda, deben gestionar las posibles diferencias que se puedan dar entre los miembros del equipo, siendo los responsables de resolver las mismas. Los conflictos siempre deben ser tratados con un enfoque directo y constructivo, deben evaluar y manejar adecuadamente sus emociones personales y las del resto de los trabajadores que componen el equipo de proyectos, de forma tal que contribuyan a reducir la tensión y aumentar la cooperación entre los mismos. El gerente del proyecto es el máximo responsable del reconocimiento de las inquietudes de los trabajadores y del seguimiento de sus problemas. El equipo de dirección en coordinación con la dirección de la entidad y el proceso de gestión del talento, es el responsable de aplicar el sistema de compensación laboral dentro del proyecto, con el objetivo de estimular la mejora continua y la laboriosidad, garantizar que los niveles de ingresos personales se acerquen cada vez más a las características de la industria, estimular la estabilidad laboral, potenciar la capacidad innovadora de los trabajadores y premiar con mayor efectividad la calidad, cantidad y complejidad del trabajo. La compensación laboral para los equipos de proyectos en Desoft está compuesta por los siguientes elementos: Materiales Sistema de Compensación Laboral Espirituales Económicas Condiciones de Trabajo Salariales Extrasalariales - Salario Básico - Incentivos Salariales - Distribución de utilidades - Computadora - Celular - Internet - Teletrabajo - Adecuado Microclima - Correctos Diseños de puestos - Emulación Socialista - Actividades político culturales - Participación de los trabajadores en la dirección Figura 2 Sistema de Compensación Laboral En Desoft se definen siete grupos de complejidad asociados a los roles funciones y facultades con que cuenta la empresa en su estructura. Los grupos de complejidad se componen a partir de la relación que se establece entre la categoría ocupacional y el tipo de actividad que se realiza y cada uno de ellos incluye un conjunto de cargos y roles. Grupo de Complejidad Categoría Ocupacional VII Cuadros VI Técnicos Gestores actividades principales V Técnicos de las actividades principales IV Técnicos Gestores actividades de apoyo III Técnicos de las actividades de apoyo II Operario I Servicios Tabla 2 Grupos de Complejidad La distribución de los roles que intervienen en los equipos de proyectos por grupos de complejidad es la siguiente: Grupo de Complejidad Roles VII Gerente VI Jefe de Subproyecto, Gestor del Talento, Gestor Contable Financiero V Analista, Arquitecto, Desarrollados, Probador, Soporte Técnico, Soporte al Usuario, Diseñador Gráfico, Gestor de Tecnologías, Desplegador Tabla 3 Roles de los Proyectos por Grupos de Complejidad Como parte del esquema salarial se define la aplicación de incentivos salariales al cierre de cada mes a partir de los resultados alcanzados y del sobrecumplimiento de las utilidades acumuladas. Al tener mayores niveles de utilidades acumuladas será mayor el fondo de salario que se podrá distribuir de forma proporcional por cada unidad empresarial de base y de la empresa. Para la distribución de los incentivos salariales se tiene en cuenta el tiempo realmente trabajado, el salario básico y la evaluación del desempeño obtenida en el período por el cumplimiento de las tareas y los resultados planificados. Con el objetivo principal de estimular el aporte individual de todos los miembros del equipo de proyectos, se les aplica un proceso de distribución de utilidades de forma trimestral y anual según lo establecido en la legislación vigente. La distribución de utilidades se realiza sin límites en cuando a la cantidad de salarios medios mensuales de lo percibido en el año que se liquida, los anticipos trimestrales pueden ser de hasta un 50% del potencial que corresponde distribuir. Los gastos planificados por el proyecto y no ejecutados que estén vinculados directamente a la eficiencia no pueden ser distribuidos como parte de las utilidades. Los proyectos retienen para la distribución a sus trabajadores hasta un 50% de las utilidades acumuladas antes de impuestos generadas. En el período inicial, donde de acuerdo a lo planificado por las características del mismo, todavía el proyecto no genere utilidades, sus trabajadores se benefician de los resultados de la división a la que pertenecen o de la empresa para el caso de los proyectos nacionales. El gerente del proyecto de conjunto con su equipo de dirección tiene la facultad de definir el aporte individual de cada trabajador, para lo cual establecerán un coeficiente de participación en un rango de 60% al 100%. Para tener derecho a la distribución de utilidades ls trabajadores deben tener evaluación de desempeño satisfactoria (Excelente, Muy Bien o Bien). Como parte del sistema de compensación también se garantizan condiciones de trabajo adecuadas, lo cual incluye la climatización de los locales, correctos diseños de puestos de trabajo, a cada trabajador se le garantiza computadora ya sea de escritorio o laptop con acceso a internet, al equipo de dirección se le entregan celulares corporativos con planes de datos móviles y se garantiza laptop y acceso a internet para los trabajadores que se desempeñen en la modalidad de teletrabajo. Los miembros de los equipos de proyectos se vinculan a la estrategia de la empresa para la participación de los trabajadores en el proceso de dirección, vinculándose a la toma de decisiones tanto en sus proyectos como en sus divisiones, participan de la emulación socialista dentro de las divisiones a las que pertenecen, así como de las actividades político culturales definidas en el Convenio colectivo de trabajo y que se ejecutan en el transcurso del año. 4. CONCLUCIONES 1. En los proyectos de Desoft no se gestionan adecuadamente los recursos humanos, al presentar deficiencias en la ejecución de los subprocesos de planificación, desarrollo y dirección, lo que impacta negativamente en la eficiencia de la gestión de los proyectos. 2. Se diseñó el modelo de gestión de recursos humanos a aplicar en los proyectos de la entidad, el cual está integrado por los procesos de planificación, selección, desarrollo y dirección. 3. Se diseñó utilizando el método de expertos el perfil de competencias para el rol de Gerente de Proyectos. 4. Se definió como integrar a los miembros de los equipos de proyectos al sistema de compensación laboral de la empresa. 5. Se definieron objetivos e indicadores para medir el desempeño de los proyectos. 5. RECOMENDACIONES 1. Implementar en los proyectos de la de la empresa el modelo de gestión de recursos humanos diseñado, lo que contribuirá a una implementación más efectiva del modelo de negocio de software como servicio y con ello a alcanzar un mayor aporte a la informatización de la sociedad cubana. 2. Agragar al clasificador uniforme de roles de la empresa el rol de Gerente de Proyectos con su perfil de competencias. 3. Agregar al cuadro de mando integral de la empresa los objetivos e indicadores definidos en el modelo. 6. BIBLIOGRAFÍA Cuesta Santos (2021-2022), Tecnologías de Gestión de Recursos Humanos (Editorial Félix Varela). Ciudad de la Habana: Instituto Cubano del Libro. Project Management Institute (PMI). (2017). Guía de los Fundamentos de la Dirección de Proyectos. Oficina Nacional de Normalización. (2007). NORMA CUBANA NC 3001: 2007. Ciudad de la Habana, Cuba: Oficina Nacional de Normalización González González, W. (Julio-Diciembre de 2017). Personal, producto, proceso y proyecto: las 4P con un enfoque empresarial. Revista Tecnología, Investigación y Academia Ayala Villegas, S. (2004). Administración de los Recursos Humanos. Lima, Perú: Editorial Caballero Bustamante DIAGNÓSTICO Y PROCEDIMIENTO PARA GESTIONAR EL LIDERAZGO EN LOS DIRECTIVOS Y POTENCIALES SUCESORES EN ETECSA / DIAGNOSIS AND PROCEDURE TO MANAGE THE LEADERSHIP IN THE MANAGERS AND POTENTIAL SUCCESSORS IN ETECSA Aymara Urbino Sampera 1, Maiky Díaz Pérez 2, Caridad Leyva del Toro 3 1 Especialista Cuadros, ETECSA Holguín, Cuba., aymaurbino@gmail.com, 2 Doctora en Ciencias Psicológicas y Profesora Titular de la Universidad de la Habana. Profesora y tutora de la Maestría Gestión de Recursos Humanos, Universidad Tecnológica de La Habana. Actualmente se desempeña como Jefa de Departamento de Asuntos Multilaterales de la Dirección de Relaciones Internacionales del Ministerio de Educación Superior. Miembro de la Sociedad Cubana de Psicología. https://orcid.org/0000-0003-3162-0010 maikydp@gmail.com, 3 Doctora en Ciencias Técnicas y Profesora Titular, Universidad de Holguín, Cuba. Especialista Sistema de Gestión ETECSA. Cuba. caridadt.leyva@etecsa.cu RESUMEN La Empresa de telecomunicaciones de Cuba, S.A (ETECSA) resulta vital para el desarrollo económico del país, por lo que el estudio organizacional en ella, basado en su agente fundamental de cambio (directivos) implica la búsqueda de mejores resultados. Se ha podido comprobar la existencia de insuficiencias en la gestión del liderazgo que limitan el desempeño individual de los directivos en esta entidad. En este estudio se propone un procedimiento que diagnostica sus competencias, formula, diseña y aplica las acciones estratégicas, para mejorar el desempeño individual de los directivos en esta empresa, de manera que se gestione de forma integral su liderazgo. Se utilizan técnicas sicológicas y herramientas ingenieriles en su desarrollo, que le da consistencia lógica y parsimonia al procedimiento utilizado. PALABRAS CLAVES: liderazgo, gestión, integral, competencias, desempeño. ABSTRACT The Cuban Telecommunications Company (ETECSA) is vital for the economic development of the country, so the organizational study in it, based on its fundamental agent of change (managers), implies the search for better results. It has been possible to verify the existence of insufficiencies in leadership management that limit the individual performance of managers in ETECSA. This study proposes a procedure that diagnoses their skills, formulates, designs and applies strategic actions to improve the individual performance of managers in this company, so that it is managed in an integral way. Psychological techniques and engineering tools are used in its development, which provides logical consistency and parsimony to the procedure used. KEY WORDS: leadership, management, integral, skills, performance INTRODUCCIÓN El entorno empresarial mundial cambia a un ritmo vertiginoso e impredecible, es complejo además por su multiplicidad, entrelazado tecnológica, social, geopolítica y ecológicamente. El cambio exponencial está configurando un nuevo mundo del trabajo, donde los líderes deben ver, pensar y actuar de manera diferente. Deben gestionar y trabajar de forma integral para enfrentar la disrupción y los desafíos complejos empresariales, y sociales. Cuba, se encuentra inmersa en un proyecto de informatización de la sociedad como parte de los cambios estructurales imprescindibles, para la transformación del modelo económico cubano, al ritmo que las condiciones económicas financieras lo permitan. En el contexto internacional y nacional existente se hace imprescindible contar con una estrategia de negocio a largo plazo que considere todos los factores determinantes en el logro de este objetivo, convirtiéndose la adquisición y la gestión del talento humano en un elemento clave, por lo que la función de Capital Humano está tomando un nuevo rol como diseñador de las experiencias asociadas a las personas. Los clientes solicitan que se simplifiquen los procesos, esto significa que Capital Humano rediseña casi todo lo que hace, desde el reclutamiento hasta la gestión del desempeño, y desde la inducción hasta el sistema de compensación, así como la gestión del liderazgo. Por lo que gestionar es una acción integral, entendida como un proceso de trabajo y organización en el que se coordinan diferentes miradas, perspectivas y esfuerzos, para avanzar eficazmente hacia objetivos asumidos institucionalmente y que se desea que fueran adoptados de manera participativa y democrática. Se hace necesario gestionar de manera integral el liderazgo a través de las competencias de los directivos, potenciales líderes para evaluar el desempeño individual de ellos y el organizacional. Según afirman múltiples autores (Prieto-Pulido, Céspedes-Ospino, Palacios-Arrieta y Paz-Marcano, 2017) [1] el dinamismo de las organizaciones es posible, gracias a que estas cuentan con un recurso humano disponible que, a través de sus competencias, logran movilizar y mantener todo el resto de factores necesarios para la gestión de la compañía. Un liderazgo bien ejercido es la clave para mantenerse a flote en la realidad de los diversos sistemas que desarrolla la sociedad actualmente. Además, la eficacia de las organizaciones depende también de la motivación, del talento humano presente, ya que las estrategias organizacionales deben estar bien enmarcadas para desafiar los retos y a la competencia (Villamizar-Duarte y Osorio-Contreras, 2014; García-Lirios, 2019; Torres-López, Acosta-Fernández y Parra-Osorio, 2019) [2] [3] [4], citado por Rivera-Porras, D., Rozo-Sánchez, A., Gutiérrez-Suárez, C., Flórez-Garay, A., Albornoz-Arias, N., Angarita-Bautista, W., & Rivera-Mancipe, C. F. (2020) [5]. Por otro lado, el liderazgo en las empresas de telecomunicaciones es tratado como elemento predictivo y de valor para el logro de los objetivos, donde los directivos determinan el desempeño de la organización. Por lo que se hace necesario analizar las insuficiencias en la gestión del liderazgo unido al desempeño individual de los directivos en ETECSA. Teniendo en cuenta lo antes expuesto, esta investigación persigue como objetivo General: Desarrollar un procedimiento para la gestión integral del liderazgo, que permita mejorar el desempeño individual de los directivos en ETECSA. DESARROLLO I. Diagnóstico. Para llegar a desarrollar el procedimiento para gestionar integralmente el liderazgo en los directivos de ETECSA, se tiene en cuenta el diagnóstico desde un enfoque prospectivo que realiza la empresa en el 2017, y que como salida se concreta el Plan Estratégico de Capital Humano, unido al Plan de Negocios Empresarial y toma como referencias las bases y lineamientos generales de la planeación estratégica para el período 2020 – 2024 para buscar aumentar la efectividad en la gestión de personas y su impacto en los resultados empresariales. Se tiene en cuenta además el Modelo de Gestión de Capital Humano, el cual parte de un diagnóstico del nivel de desarrollo de la gestión de personas en ETECSA. La función de Capital Humano ha evolucionado en los últimos años transitando por la administración del personal centrada en la tarea, la gestión de recursos humanos centrada en la función, la gestión de capital humano centrada en los procesos, la gestión del talento centrada en las personas y ya se habla de una nueva etapa evolutiva, la gestión de personas en red centrada en la innovación. El diagnóstico realizado permitió asociar el nivel de madurez de la gestión de personas en ETECSA entre los niveles 2 y 3. Figura No. 1 Modelo de Gestión del Capital Humano 2020 – 2024 En su interior, se ubican los elementos básicos de la gestión del Capital Humano, como la Atracción, Selección y Acogida, Gestión del Conocimiento, Gestión del Desempeño, Gestión de Sucesiones y Desarrollo de Liderazgo, éste último pretende desarrollar líderes más ágiles, diversos y jóvenes digitales. Como resultado del diagnóstico se identifica la necesidad de establecer Iniciativas Estratégicas de las cuales Capital Humano, en su rol rector de la gestión de personas define, dentro de otras, el Liderazgo y Cultura organizacional digital. El objetivo es desarrollar líderes más ágiles, diversos y jóvenes (digitales) a través de la gestión de programas de desarrollo de competencias para los directivos y sus potenciales sucesores. Se identifica como actividades claves el diagnosticar el nivel de desarrollo de las competencias de los directivos y las de sus potenciales sucesores. Por otro lado, ejecutar programas de desarrollo de competencias para los directivos que fomenten la toma de riesgos, el intercambio de conocimientos y la experimentación e implementar un sistema de incentivos que estimulen la asunción de funciones de liderazgo, por lo que se identifica la inexistencia de un procedimiento aprobado para gestionar el liderazgo con acciones definidas con base al modelo y diseño de la estrategia de la empresa. No existe un programa de desarrollo y formación de competencias para los directivos y potenciales sucesores. Carencia metodológica para alinear el liderazgo al logro de los objetivos. No existe un sistema de incentivos que estimule la asunción de funciones de liderazgo. El diagnóstico que se realiza a nivel de División Territorial Holguín, se describe en una de sus etapas en el procedimiento para gestionar el liderazgo en los directivos de ETECSA. II. Metodología La metodología para llevar a vía de término este estudio exploratorio, es un procedimiento que requirió de una consecución de etapas y pasos que se explican a continuación: La primera etapa, “Preparación e información”, está orientada hacia la preparación del personal, así como la comunicación a los trabajadores. La segunda etapa, “Diagnóstico” está dirigida a realizar una evaluación de las competencias de los directivos. La tercera etapa “Proyección” es donde se formulan las estrategias, (Torres-López, Acosta-Fernández y Parra-Osorio, 2019) [4] deben estar bien enmarcadas para desafiar los retos y a la competencia y se diseñan las acciones estratégicas para gestionar integralmente el liderazgo. La cuarta etapa, “Implementación”, dirigida a aplicar y valorar las acciones estratégicas. La quinta etapa “Evaluación y mejora”, se integran los resultados y se confecciona el plan de mejoras que corrija las desviaciones y la última etapa, siendo la seis, “Revisión y retroalimentación”, se realiza una revisión del proceso y se retroalimenta a las partes interesadas para su mejora. Al final de cada paso como actividad principal se analizan los resultados de manera integral y parcial informándole a la alta dirección, para la toma de decisiones y los ajustes correspondientes. Etapa I: Preparación del equipo de trabajo e Información. Objetivo: Facilitar la creación de las condiciones iniciales para la realización de la investigación. Se generarán las condiciones iniciales necesarias para iniciar la investigación, que incluyen la selección, preparación del equipo de trabajo que participará en la realización del estudio; así como la información, comprensión y el compromiso de todos los trabajadores y directivos. Paso 1: Selección y preparación del equipo de trabajo. Para la conformación del equipo de trabajo se tiene en cuenta las competencias, conocimientos, experiencias adquiridas y compromiso con la tarea. Se proponen además consultores internos graduados de la Cátedra de Dirección Empresarial en la empresa, para encontrar los principales problemas presentes en la organización, divulgarlos y hacer que estos sean aceptados. Para determinar el número de expertos necesarios (M), se utilizará el método probabilístico, asumiendo una ley de probabilidad binomial; siendo la expresión siguiente: Dónde: M: Número de expertos p: Proporción estimada de errores de los expertos i: Nivel de precisión K: Constante cuyo valor está asociado al nivel de confianza elegido. Tabla .1. Valores de K más utilizados Nivel de confianza (%) K 99 6,6564 95 3,8416 90 2,6564 Para determinar el coeficiente de competencia de cada uno de ellos se aplicarán los pasos definidos por Hurtado de Mendoza (2003) A los miembros del Equipo de Trabajo encargado de aplicar el procedimiento se le informa la necesidad de realizar la investigación, dando a conocer la situación problémica, los objetivos de la investigación y los diferentes roles a realizar. Por otro lado, se presenta Diagrama Gantt con las actividades de cada una de las etapas, pasos, y tareas según el procedimiento con los responsables, participantes, la fecha, hora, y el lugar donde se va a sesionar. Se establece un Plan y cronograma de preparación, a través de los cuales se capacitan mediante la realización de 4 talleres, el primer taller sobre conocimientos teóricos y prácticos sobre Liderazgo, el segundo taller sobre el procedimiento “Gestión Integral del Liderazgo para los directivos en ETECSA “GILE”. El tercer taller sobre el Método General de Solución de Problemas, las técnicas y herramientas para la solución del problema planteado, así como cuarto y último taller evaluativo para la interpretación de los resultados. Paso 2. Información. En este paso se les informa al Equipo de Trabajo, los miembros del consejo de dirección, directivos intermedios, la necesidad, el alcance, los objetivos, beneficios del estudio y de la gestión, así como las funciones de cada parte, estableciendo compromiso, para realizar el trabajo. Se le informa de igual manera a todos los trabajadores a través del Semanario “Señal” para lograr mayor compromiso y colaboración con el proyecto. Etapa II: Diagnóstico Objetivo: Realizar una evaluación de las competencias de los directivos. Paso 3: Diagnóstico de los directivos En este paso se tuvo como referencia el Diagnóstico de la cultura organizacional para su dinamización en la División Territorial de ETECSA Holguín, de los autores Reyes-Ramírez, L. A., Vilariño, C. M. C., Toro, C. L. d., y Ledea, B. A. (2019) [6] para conocer el comportamiento del liderazgo en los directivos, así como el resultado del Liderazgo en el diagnóstico de la tesis presentada en opción al grado científico de Doctor en Ciencias Técnicas Luis Arnolis Reyes Ramírez (2021) [7], el cual en su figura 3.4 Perfil de componentes estratégicos de la CO expone que el componente liderazgo arrojó resultados superiores en el proceso evaluativo en comparación con el resto de los componentes. No obstante, necesita aumentar su desempeño. En esta etapa cada directivo se realiza un autodiagnóstico sobre sus competencias directivas, con sus correspondientes indicadores, las cuales fueron declaradas por la Empresa y las competencias emocionales (cinco), propuestas por el equipo de Equipo de Trabajo a través del Método de Experto como parte del diagnóstico de la situación actual donde se evidencia que no se tuvo en cuenta competencias emocionales en el diagnóstico de la empresa. Se realiza la evaluación de las competencias a través del sistema informático empresarial Eval-CD, el cual evalúa 10 competencias directivas, 23 indicadores, 128 descriptivos asociados, evalúa el comportamiento a través de 4 niveles con puntaje (entrada, desarrollo, avanzado y experto). El mismo provee reporte, identifica las brechas que existen entre las competencias adquiridas con las competencias deseadas o requeridas. Se realiza una nivelación o alineación con las competencias directivas y emocionales para determinar si cubren su totalidad Por otro lado se realiza un análisis integral de los Indicadores de la Evaluación del desempeño de los directivos. Se revisan éstos, con los Diagnósticos de Necesidad de Aprendizaje (DNA) y con el Plan de Preparación Individual (PPI) para determinar si existe relación entre ellos. Paso 4. Diagnóstico de los potenciales sucesores Se realiza el mismo proceder del de los directivos. Etapa III: Proyección Objetivo: Formular las estrategias y diseñar las acciones estratégicas para gestionar integralmente el liderazgo. Según Codina-Jiménez (2017) [8] “influencia que requiere que el líder venda sus ideas, para lograr la aceptación y el apoyo de los demás en sus decisiones”, en los directivos y jóvenes. Trazar las acciones para la implementación. Paso 5. Formulación de las estrategias. Para la formulación de las estrategias, se tiene en cuenta los siguientes elementos: Revisión de los resultados obtenidos en las etapas y pasos anteriores, resultado del proceso de interrelación de las etapas y pasos anteriores, así como la revisión de los resultados de la concordancia o nivelación de la evaluación del desempeño de los directivos, con las competencias directivas y emocionales. Se debe valorar el resultado del diagnóstico, la formulación de las estrategias y el plan de medidas según los factores críticos. Se debe incluir por cada medida las fechas de cumplimiento y control, las responsabilidades correspondientes y los recursos necesarios. Se actualiza el perfil del directivo deseado, teniendo en cuenta las competencias directivas aprobadas y la incorporación de las competencias emocionales validadas por el equipo de trabajo. Estas se alinean a través de una matriz de relación con los indicadores de desempeño. Paso 6. Diseño de las acciones estratégicas. Se diseñan las acciones necesarias para la puesta en práctica de las estrategias. Se confecciona el plan de acción con cada una de las estrategias, las acciones estratégicas con sus responsables, fecha de cumplimiento, y recursos a utilizar. Se presenta en el Consejo de Dirección y la Comisión de Cuadros la propuesta del Plan de Acción para la aplicación de las estrategias para su aprobación. Se selecciona a un miembro del equipo de trabajo para la realización de la tarea. Se expondrá el alcance de las estrategias. Se efectuarán las modificaciones o adecuaciones necesarias. Etapa IV: Implementación Objetivo: Aplicar las acciones estratégicas y a integrar los resultados. Paso 7. Aplicación de las acciones estratégicas. Se garantizan todos los recursos necesarios para la aplicación de las acciones estratégicas. Se preparan los responsables de su ejecución derivadas del Plan de acción. Se auto preparan los Instructores internos en las temáticas del Programa de Formación y Desarrollo Profesional, viendo que “la formación es una inversión y no un costo”, según Cuesta (2010) [9]. Forman parte del claustro de profesores doctores en ciencias de la Universidad de Holguín, como parte de proyecto Vinculación Universidad-Empresa que se desarrolla en el país. Se ejecuta el programa el cual contiene temáticas de impacto tales como: Las temáticas son las siguientes: Cultura y Comportamiento Organizacional, Gestión Empresarial: Proyección Estratégica, gestión por objetivos y valores. Inteligencia Emocional. (Autoconciencia, autoconocimiento, autocontrol, automotivación, empatía, habilidades sociales)., Herramientas de Coaching y Mentoring. Feedback 360 grados. PNL. Gestión de Liderazgo y Liderazgo Digital. Gestión del Talento, Motivación y Clima Laboral. Comunicación y Trabajo en Grupo. Manejo de conflictos y negociación. Competencias y habilidades directivas. Competencias emocionales, capacidad de análisis y Gestión por procesos. Transformación Digital. Contiene además las temáticas de Método General de Solución de Problemas y Toma de Decisiones. Técnicas y herramienta para la solución de problemas. Innovación, creatividad, agilidad. Ciclo Directivo y gestión del cambio. Empoderamiento. Delegación y optimización del tiempo. Sistema de Gestión Integral de la calidad. Cuadro de Mando Integral. Convergencia Tecnológica y comercial. Modelo de Gestión de Capital Humano. Presupuesto y Plan de la Economía. Gestión estratégica Integrada a la Comunicación Social. Eficacia y Eficiencia. Productividad y Competitividad. Orientación al Resultado. Orientación al cliente. Taller sobre Ciencia, Tecnología y Medio Ambiente. Proyecto Vida. Gestión de Riesgos. Bienestar Laboral y Compromiso. Se ejecuta el Programa de Entrenamiento y/ o Rotación de los directivos y potenciales sucesores. Se lleva a cabo el Programa de Simulación, y Resolución de Problemas con ejercicios profesionales y juegos de roles. Se confecciona un plan de comunicación, “aliado estratégico para las organizaciones, según Gonzales Mauricio (2018) [10], para divulgar las acciones estratégicas a todos los directivos, jóvenes y trabajadores. Se publica en el Semanario “Señal” el alcance, la importancia de fomentar el compromiso, la participación activa y las acciones que se ejecutan. Paso 8. Valoración de los resultados de las acciones estratégicas Una vez aplicadas las acciones estrategias se valora de forma cualitativa y cuantitativa. Para la valoración cualitativa se evalúa cómo se desarrolló la aplicación de las acciones estratégicas. Para la valoración cuantitativa, cada acción se calificará del 1 al 5 atendiendo al criterio: 1- No cumplida, 2- Pendiente, 3- En proceso con retraso, 4- En proceso avanzado y 5- Cumplida. Las estrategias se valorarán a través del promedio de la puntuación de las acciones y la evaluación se efectuará mediante la escala evaluativa para la valoración de las estrategias. Si los resultados fuesen negativos se reformulan las estrategias o se realizan los ajustes requeridos. En este paso es importante tener en cuenta la retroalimentación, necesaria como mecanismo de control y seguimiento. Etapa V: Evaluación y Mejora Objetivo: Evaluar la transformación del liderazgo en los directivos, y jóvenes, luego de implementadas las acciones estratégicas o la transformación o desarrollo de las competencias directivas y emocionales. Paso 9. Impacto Evaluación del desempeño. Integración de los resultados Se realizará una evaluación de los resultados obtenidos con la aplicación de las acciones, a través de la reevaluación de las competencias en el Sistema Eval-CD. Paso 10. Plan de Mejora Se propondrá un plan de mejora para corregir las desviaciones negativas que utilizará como retroalimentación al procedimiento. Se definen acciones y responsables que posibiliten cumplir con las metas trazadas, de forma que se integren a las definidas en la estrategia organizacional. La reevaluación continua de las metas y las acciones implementadas en correspondencia con los resultados observados, se convierte en un ciclo que posibilita la mejora continua. Se confecciona un plan en el cual quedará reflejado la relación entre soluciones seleccionadas, responsables encargados de velar por la aplicación, el cumplimiento y el control de las soluciones; el período de tiempo en el cual se aplicarán y controlarán las medidas y los recursos necesarios para su cumplimiento y control. Etapa VI: Revisión y retroalimentación Objetivo: Revisar y retroalimentar el proceso para la toma de decisiones Paso 11. Revisión Se revisa todo el proceso para verificar las posibles desviaciones. Se realiza la revisión de todos los indicadores analizados en la evaluación del desempeño que se compara con los resultados anteriores. Paso 12. Retroalimentación Se retroalimenta a la máxima dirección sobre el resultado del proceso, con el objetivo trazar nuevas estrategias para la preparación de la evaluación del desempeño de los directivos y potenciales sucesores. CONCLUSIONES Se elaboró un procedimiento para la gestión integral del liderazgo en los directivos y potenciales sucesores de ETECSA al reflejar etapas y pasos lógicos en función de formar y desarrollar las competencias directivas y emocionales para el logro de los objetivos empresariales. Dentro del procedimiento diseñado se incluyen las competencias emocionales, las cuales resultan elementos necesarios y constituyen uno de los aportes de la presente investigación. La aplicación del procedimiento permita mejorar el desempeño el individual de los directivos y potenciales sucesores en ETECSA, y por ende el organizacional. Su aplicación puede ser generalizable en cualquier empresa estatal del país. RECONOCIMIENTOS Los autores desean agradecer a la dirección de ETECSA por la colaboración, al equipo de trabajo, los directivos y potenciales sucesores, así como a los instructores y profesores de la Universidad de Holguín. REFERENCIAS 1. Prieto-Pulido, R., Céspedes-Ospino, J., Palacios-Arrieta, A., y Paz-Marcano, A. “Competencias de liderazgo en Ediles del Concejo Municipal en las Alcaldías de la Guajira-Colombia”, 2017. 2. Villamizar-Duarte, E. y Osorio-Contreras, J. “Estética e identidad corporativa”. AiBi revista de investigación, administración e ingeniería, 2014, vol 2, núm 2, pp 50-55. Recuperado a partir de https://revistas.udes.edu.co/aibi/article/view/524 3. García-Lirios, C. “Inteligencias y sabidurías organizacionales: Redes de conocimiento en torno al aprendizaje de la complejidad”. Psicogente, 2019, vol 22, núm 41, pp 1-28. Recuperado de: https://doi.org/10.17081/psico.22.41.3304. 4. Torres-López, T., Acosta-Fernández, M. y Parra-Osorio, L. “Dimensiones culturales del empleo y desempleo de jóvenes universitarios de Cali, Colombia”. Psicogente, 2019, vol 22, núm. 41, pp 1-23. Recuperado de: https://doi.org/10.17081/psico.22.41.3306. 5. Rivera-Porras, D., Rozo-Sánchez, A., Gutiérrez-Suárez, C., Flórez-Garay, A., Albornoz-Arias, N., Angarita-Bautista, W. & Rivera-Mancipe, C. F. “El liderazgo en el desarrollo y la gestión de las organizaciones”, 2020. 6. Reyes-Ramírez, L. A., Vilariño, C. M. C., Toro, C. L. d., y Ledea, B. A. “Diagnóstico de la cultura organizacional para su dinamización en la División Territorial de ETECSA Holguín”. Universidad de Holguín, Cuba, 2019. 7. Reyes-Ramírez, L. A. “Dinamización de la cultura organizacional desde la responsabilidad social empresarial en ETECSA”. Tesis de doctorado, Universidad de Holguín, Ciudad de Holguín, 2021. 8. Codina Jiménez, A. “Enfoques contemporáneos en los estudios sobre liderazgo”. Cofin Habana, 2017, vol 11, núm 1, pp 1-12. 9. Cuesta Santos A. Tecnología de Gestión de Recursos Humanos. Academia y Félix Valera, editor. La Habana, Cuba; 2010. 328-36. ISBN 978-959-07-1340-8. 10. Gonzales Mauricio, A. V. “Plan de comunicación estratégico para el lanzamiento y posicionamiento de la marca Awana” Trabajo de suficiencia profesional para optar el título profesional de Licenciado en Comunicación, Universidad de Lima, 2018. TÍTULO: EL ESTUDIO DE ORGANIZACIÓN DEL TRABAJO EN LOS LABORATORIOS SOLMED TITLE: THE STUDY OF WORK ORGANIZATION IN SOLMED´S LABORATORIES Autor: Ing. Mayelín Berrio García Maestrante de Gestión de Recursos Humanos mberriog@ind.cujae.edu.cu La Habana, mayo de 2022 2 RESUMEN El presente trabajo se realizó en la UEB Laboratorios SolMed ubicada en la avenida 23 y calle 266, municipio La Lisa, la cual forma parte de un conjunto de tres laboratorios que conforman el grupo de laboratorios MedSol, el cual está subordinado al Grupo de las Industrias Biotecnológica y Farmacéuticas (BioCubaFarma). Esta entidad se dedica a la producción de medicamentos sólidos (tabletas, cápsulas y polvos), aerosoles y envases plásticos para el mercado nacional y la exportación, asegurando siempre la satisfacción de sus clientes. Luego de aplicar el método de expertos y las listas de chequeo de los requisitos de la NC 3001: 2007 se concluyó que existían deficiencias en el módulo de Organización del Trabajo, por lo que se plantea como objetivo general del trabajo: hacer un estudio de organización del trabajo al proceso de fabricación de medicamentos de la UEB Laboratorios SolMed. PALABRAS CLAVES: organización del trabajo, eficiencia, eficacia, gestión de recursos humanos. ABSTRACT This work was carried out at the SolMed Laboratories UEB located on 23rd Avenue and 266th Street, La Lisa Municipality, which is part of a set of three laboratories that make up the MedSol Laboratory Group, which in turn is subordinate to the Group of the Biotechnological and Pharmaceutical Industries (BioCubaFarma). This entity is dedicated to the production of solid medicines (tablets, capsules and powders), aerosols and plastic containers for the national market and for export, always ensuring customer satisfaction. After applying the method of experts and the checklists of the requirements of the NC 3001: 2007, it was concluded that there were deficiencies in the Work Organization module, for which the general objective of the work is to carry out an organization study. from work to the drug manufacturing process in the weighing area of the SolMed Laboratories UEB. KEY WORDS: work organization, efficiency, effectiveness, human resources management. 3 INTRODUCCIÓN Se define como Organización del Trabajo (OT) al proceso que integra en una organización al capital humano con la tecnología, los medios de trabajo y materiales en el proceso de trabajo, mediante la aplicación de métodos y procedimientos que posibiliten, con los tiempos necesarios, trabajar de forma racional, armónica e ininterrumpida, con niveles requeridos de seguridad y salud, exigencias ergonómicas y ambientales, para lograr la máxima productividad, eficiencia, eficacia y satisfacer las necesidades de la sociedad y sus trabajadores. La organización del trabajo, constituye el pilar tecnológico de la Gestión de Recursos Humanos (GRH) y su estudio resulta determinante en el desarrollo de la empresa moderna. Su correcta implementación se traduce en beneficios inmediatos a cualquier organización, que van desde el aumento de la productividad y eficiencia del trabajo hasta el mejoramiento de las condiciones laborales en aras de la preservación de la seguridad y salud del trabajador. En palabras de Marsán: “…la productividad del trabajo es el referente obligado y principal de la organización del trabajo. El incremento de la productividad del trabajo o del buen desempeño o rendimiento laboral, es objetivo fundamental a alcanzar mediante el eficaz accionar de la organización del trabajo.” (Marsan Castellanos, 2008b) En nuestro país desde el triunfo de la revolución se crearon las premisas para el desarrollo de la organización del trabajo y en la actualidad se sigue trabajando con el objetivo de lograr que las empresas cubanas funcionen bajo normas que garanticen la máxima productividad y calidad de los productos y servicios. Ejemplo de esto es la confirmación en 2007 de las Normas Cubanas NC – 3000, 3001 y 3002, sobre el “Sistema de Gestión Integrada de Capital Humano”, vinculada con la estrategia organizacional y la búsqueda del incremento de la productividad del trabajo, siendo la organización del trabajo el proceso clave para el cumplimiento de dichos objetivos. En el análisis de la situación presente en la planta se constataron problemas que han de ser resueltos como: el bajo aprovechamiento de la jornada laboral a un 74.52%; el incumplimiento en un 73.68% en el acápite de organización del trabajo de la lista de chequeo de la NC 3001:2007, y la desviación de los costos eficaces en los 2 períodos económicos antecesores. DESARROLLO El presente, tiene como objetivo establecer una base teórica al estudio realizado en la UEB Laboratorios SolMed, mediante el análisis de bibliografías referentes a la organización del trabajo y el estudio de métodos y tiempos, permitiendo establecer los conceptos y definiciones que sean relevantes para la investigación. De igual forma se fundamentan las metodologías y herramientas usadas para el desarrollo del trabajo. 1. Gestión de recursos humanos La Gestión de Recursos Humanos asume un gran cúmulo de actividades relacionadas con la organización laboral en su interacción con las personas, destacándose actividades clave como: inventario de personal, selección, evaluación del desempeño, planes de comunicación, planes de formación y de carreras, estudios de clima y motivación, organización del trabajo, ergonomía, condiciones de trabajo y seguridad e 4 higiene, planificación estratégica de RH y optimización de plantillas, sistemas de pago, estimulación psicosocial, auditoria, etc. (Cuesta Santos 2008) En su objeto y alcance actual la GRH es nueva, habiendo superado a la clásica Administración o Dirección de personal, cuyo rasgo más relevante fue considerar al factor humano como un gasto o costo. La GRH pasa ahora a considerarlo como el factor fundamental de la actividad empresarial, como activo. (Cuesta Santos 2010) La Gestión de los Recursos Humanos no es más que una serie de acciones encaminadas a maximizar el potencial humano tanto a nivel individual como colectivo, en pro de llevar a cabo un adecuado desempeño y lograr alcanzar, por consiguiente, los objetivos propuestos. Como la Gestión de Recursos Humanos tiene por objeto a la gestión de personas que trabajan en la organización laboral, y esas personas son las portadoras del conocimiento que no puede tratarse descontextualizado o independientemente de las personas como seres sociales --ni al margen de la organización que lo condiciona y donde queda materializado parte de ese conocimiento, a utilizarse en su continua y necesaria renovación--, podría parecer redundante referir Gestión de Recursos Humanos y del Conocimiento.(Cuesta Santos 2010) La Gestión de Recursos Humanos y del Conocimiento es gestión de las personas que trabajan, portadoras del capital humano, acogiendo la gestión de la materialización de ese capital humano en la organización, reflejado en procedimientos de trabajo o know how, estructuras organizativas, software, sistemas informativos, relaciones con los clientes y documentos. (Cuesta Santos 2010) 1.1 Capital humano El capital humano comprende las capacidades para hacer trabajo, dadas por el conjunto de conocimientos, experiencias, habilidades, sentimientos, actitudes, motivaciones y valores, portados por las personas que trabajan. Comprende ciencia, economía y conciencia ética, como capacidades portadas por las personas de la organización laboral. (Cuesta Santos, 2010) En la NC 3000: 2007, epígrafe 3.13 se define al capital humano como el conjunto de conocimientos, experiencias, habilidades, sentimientos, actitudes, motivaciones, valores y capacidad para hacer, portados por los trabajadores para crear más riquezas con eficiencia. Es, además, conciencia, ética, solidaridad, espíritu de sacrificio y heroísmo. (ONN, 2007a) Según Chiavenato, el término Recursos Humanos (RH) o Administración de Recursos Humanos tiene tres significados: (Chiavenato, 2009) Los RH como función o departamento: Se refiere a la unidad operativa que funciona como un área del staff; es decir, como elemento que presta servicios en el terreno del reclutamiento, la selección, la formación, la remuneración, la comunicación, la higiene y la seguridad en el trabajo, las prestaciones, etcétera. Los RH como un conjunto de prácticas de recursos humanos: Es la forma en que la organización maneja sus actividades de reclutamiento, selección, formación, remuneración, prestaciones, comunicación, higiene y seguridad en el trabajo. Los RH como profesión: Son los profesionales que trabajan de tiempo completo con los recursos humanos, a saber: seleccionadores, formadores, administradores de salarios y prestaciones, ingenieros de seguridad, médicos laborales, etcétera. La gestión del talento humano es un área muy sensible a la mentalidad que predomina en las organizaciones. Es contingente y situacional, pues depende de aspectos como la cultura de cada organización, la estructura organizacional adoptada, las características del contexto ambiental, el negocio de la organización, la tecnología utilizada, los procesos internos y otra infinidad de variables importantes. 5 Las organizaciones están conformadas por personas y dependen de ellas para alcanzar sus objetivos y cumplir sus misiones. Para las personas, las organizaciones constituyen el medio de alcanzar varios objetivos personales en el mínimo tiempo y con el menor esfuerzo y conflicto. Sin organizaciones ni personas no habría gestión del talento humano. (Chiavenato, 2002) En resumen, se puede definir al capital humano como el conjunto de conocimientos y habilidades poseídas por el trabajador y que son fundamentales para realizar su trabajo con eficiencia, a la vez que vuelve a su organización más exitosa. 2. Sistema de gestión integrada de capital humano. En la NC 3000: 2007 se define al sistema de gestión integrada de capital humano (SGICH) como el sistema que integra el conjunto de políticas, objetivos, metas, responsabilidades, normativas, funciones, procedimientos, herramientas y técnicas que permiten la integración interna de los procesos de gestión de capital humano y externa con la estrategia de la organización, a través de competencias laborales, de un desempeño laboral superior y el incremento de la productividad del trabajo. (ONN, 2007a) 3. Modelos de Gestión de Recursos Humanos Se entiende como gestión estratégica de recursos humanos al conjunto de decisiones y acciones directivas en el ámbito organizacional que influyan en las personas, buscando el mejoramiento continuo, durante la planeación, implantación y control de las estrategias organizacionales, considerando las interacciones con el entorno. Los enfoques sistémico, multidisciplinario, participativo, proactivo, de proceso y por competencias laborales, son esenciales en la GRH estratégica que se requiere hoy, y más aún en el porvenir empresarial. Por ello es necesario adoptar un sistema de GRH, reflejado por un modelo, consecuente con esos enfoques, asumiendo previamente determinada dirección estratégica rectora en ese sistema. (Cuesta Santos, 2010) Algunos de los modelos de Gestión de Recursos Humanos más utilizados en Cuba son:  Modelo de Harper y Lynch (1992): consiste en la descripción de un grupo de actividades clave de la GRR.HH en afán de su optimización. La demanda de recursos para la organización se cubre a través de la ejecución de un conjunto de actividades, las cuales toman como punto inicial el inventario de personal y la evaluación del potencial humano, y culminan con la auditoría y el seguimiento a la optimización de estos recursos. Debe señalarse que todas las acciones del modelo quedan interconectadas. Además, toma en consideración el factor comunicación y se aprecia su alineación con la estrategia empresarial, aunque sin profundizar en el rol protagónico de los sujetos. (Souto Anido & García Rondón, 2016)  Modelo de Idalberto Chiavenato (1998): concibe la GRR.HH como un sistema integrado por cinco subsistemas independientes. Estos subsistemas pueden desarrollarse en diferentes medidas y modificarse en relación con la situación imperante en términos ambientales, organizacionales, humanos y tecnológicos. Los mismos conforman una acción procesual, a través de la cual los RR. HH son captados, aplicados, mantenidos, desarrollados y controlados por la organización. El aporte fundamental de este modelo es la posibilidad de variar el alcance de los subsistemas de acuerdo a las necesidades del contexto. (Souto Anido & García Rondón, 2016)  Modelo de Beer (1989): se desarrolló desde una concepción estructurada en cuatro políticas que engloban la Gestión de los Recursos Humanos (GRR.HH), la cual es concebida como un sistema que incluye todo lo relacionado con las personas, laorganización y su entorno laboral. La influencia de los trabajadores es 6 considerada como centro, y actúa sobre las restantes áreas o políticas de los Recursos Humanos (RR. HH). Debe señalarse que el modelo queda significado en un mapa que posee un gran valor metodológico para el diagnóstico y proyección del sistema de RR.HH., y se sustenta en preguntas claves que permiten caracterizar cada uno de los aspectos del modelo. Dentro del sistema de RR.HH., la dirección estratégica de conjunto con la filosofía de la dirección juega un rol fundamental como rectores del sistema, si bien no profundizan en los procesos de aprendizaje organizacional. (Souto Anido & García Rondón, 2016) En nuestro país también se han desarrollado modelos que buscan mejorar los resultados negativos obtenidos de la aplicación de modelos extranjeros que no se corresponden con las necesidades del sistema empresarial cubano. Producto de estas investigaciones, existen dos modelos que son los más difundidos para la implantación de un sistema de gestión de recursos humanos: el modelo GRH DPC y el Modelo Cubano de Gestión Integrada del Capital Humano. El modelo GRH DPC (Gestión de Recursos Humanos, Diagnóstico, Proyección y Control), desarrollado por Cuesta Santos (2005), ubica a la persona, su educación y su desarrollo en el centro de sus subsistemas y políticas de recursos humanos. Dicho modelo aporta una tecnología que permite llevar estos objetivos hacia la práctica organizacional, a partir de cuatro subsistemas de GRR.HH: el flujo de recursos humanos, la educación y desarrollo, los sistemas de trabajo y la compensación laboral. El modelo GRH DPC tiene un enfoque funcional, en tanto se orienta de forma orgánica hacia la estrategia empresarial; a través de la tecnología de las tareas, es capaz de expandir el enfoque a los procesos de la organización. (Souto Anido & García Rondón, 2016) Por su parte, el Modelo Cubano de Gestión Integrada del Capital Humano, desarrollado por Morales Cartaya (2009), expone las competencias laborales y la idoneidad demostrada como los factores fundamentales de integración tanto interna(entre el conjunto de ocho módulos), como externa, con la estrategia empresarial. Este modelo fue el resultado de una investigación desarrollada por el MTSS entre los años 2003 y 2005, en la que estuvieron involucradas más de 3000 entidades empresariales. En esa investigación queda explícita la importancia de aplicar en cada organización su propio Sistema de Gestión Integrada de Capital Humano (SGICH), de acuerdo con sus particularidades y necesidades, en afán de aportar al perfeccionamiento continuo del modelo. El Modelo ofrece técnicas de diagnóstico y un sistema de indicadores cuantitativos para el proceso de autocontrol. (Souto Anido & García Rondón, 2016) La NC 3001: 2007 plantea el modelo cubano para el diseño e implementación de un Sistema de Gestión Integrada de los Recursos Humanos, el cual se resume en la Fig. 1.2 y instituye que las organizaciones deberán establecer y mantener un Sistema de Gestión Integrada de Capital Humano, tomando como referencia el modelo descrito, y su adopción deberá ser una decisión estratégica de la alta dirección de la organización. Esta norma no se encuentra vigente en la actualidad, pero tiene valor metodológico para la investigación. (ONN, 2007b) 7 Fig. 1- Modelo cubano para el diseño e implementación de un Sistema de Gestión Integrada de los Recursos Humanos. 4. Organización del trabajo En la norma cubana NC 3000: 2007 se define a la Organización del Trabajo (OT) como el proceso que integra en las organizaciones al capital humano con la tecnología, los medios de trabajo y materiales en el proceso de trabajo (productivo, de servicios, información o conocimientos), mediante la aplicación de métodos y procedimientos que posibiliten trabajar de forma racional, armónica e ininterrumpida, con niveles requeridos de seguridad y salud, exigencias ergonómicas y ambientales, para lograr la máxima productividad, eficiencia, eficacia y satisfacer las necesidades de la sociedad y sus trabajadores. (ONN, 2007a) Según Cuesta, la organización del trabajo, como sistema de trabajo de la empresa, comprende a los diferentes procesos de trabajo considerando a la vez a la seguridad e higiene del trabajo y las exigencias ergonómicas, con el objetivo de optimizar el trabajo vivo, a la vez que trata la relación entre las personas y los medios de producción en determinado ambiente laboral. El mejoramiento de los procesos de trabajo, de los tiempos de trabajo, de la disciplina laboral y de la productividad del trabajo constituyen elementos fundamentales de la optimización del trabajo vivo. (Cuesta Santos, 2010) Por otro lado Marsán define a la OT como el proceso que integra en las organizaciones al trabajo vivo o capital humano con la tecnología, los medios de trabajo y materiales en el proceso de trabajo (productivo, de servicios, información o conocimientos), mediante la aplicación de métodos y procedimientos queposibiliten, con los tiempos necesarios, trabajar de forma racional, armónica e ininterrumpida, con niveles requeridos de seguridad y salud, exigencias ergonómicas y ambientales, para lograr la máxima productividad, eficiencia, eficacia y satisfacer las necesidades de la sociedad y sus trabajadores. (Marsan Castellanos, 2008b) Como pilar tecnológico de la GRH, la organización del trabajo es un proceso clave a priorizar en la búsqueda del incremento de la productividad, la eficiencia y la eficacia de una organización. Su estudio sistemático es fundamental para la generación de nuevas formas de relación entre la fuerza de trabajo y los medios de producción, así como los métodos empleados, garantizando el máximo aprovechamiento tanto de los trabajadores como de las máquinas. 8 4.1 Procedimiento para el estudio de la organización del trabajo. Diversos autores han investigado sobre el estudio de la OT y por consiguiente son varios también los procedimientos que existen para realizarlo, de los cuales solo algunos son utilizados como referencia en las universidades cubanas. Uno de estos autores es Niebel, quien propone un proceso que consta de ocho etapas: (Niebel & Freivalds, 2009) 1-Seleccionar el proyecto: Por lo general se seleccionan productos nuevos o ya existentes que tienen un alto costo de manufactura y una baja ganancia. Los productos que experimentan dificultades para conservar la calidad y tienen problemas para ser competitivos también son aptos para el estudio. 2-Obtener y presentar los datos: Se integran todos los hechos relevantes relacionados con el producto o servicio. Esta tarea incluye diagramas y especificaciones, cantidades requeridas, requerimientos de entrega y proyecciones de la vida anticipada del producto o servicio. 3-Analizar los datos: Utilizar los principales métodos de análisis de operaciones para decidir qué alternativa dará como resultado el mejor producto o servicio. 4-Desarrollo del método ideal: Seleccionar el mejor procedimiento para cada operación, inspección y transporte, considerando las diversas restricciones asociadas con cada alternativa, entre ellas la productividad, la ergonomía y las implicaciones sobre salud y seguridad. 5-Presentación e implementación del método: Explicar el método propuesto a detalle a las personas responsables de su operación y mantenimiento. Tomar en cuenta todos los detalles del centro de trabajo con el fin de asegurar que el método propuesto ofrezca los resultados planeados. 6-Desarrollo de un análisis del trabajo: Llevar a cabo un análisis del trabajo del método instalado con el fin de asegurar que los operadores sean seleccionados, entrenados y recompensados adecuadamente. 7-Establecer estándares de tiempo: Determinar un estándar justo y equitativo para el método instalado. 8-Dar seguimiento al método: A intervalos regulares, auditar el método instalado con el fin de determinar si se están alcanzando la productividad y la calidad planeadas, si los costos se proyectaron correctamente y si se pueden hacer mejoras adicionales. Otro procedimiento muy utilizado es el aportado por Marsán, el cual se basa en el Método General de Solución de Problemas y consta de cinco etapas: (Marsan Castellanos, 2008b) 1-Definición del problema: El propósito de la fase de formulación es el de maximizar la posibilidad de aislar y definir satisfactoriamente el problema sin restricciones, lo más amplio posible, y deberá hacerse desde un principio, ya que el tiempo que se dedique a la formulación del problema es, cuando menos, tan productivo como el dedicado a cualquier otra de las etapas esenciales en la solución de problemas. 2-Análisis del problema: El análisis del problema consiste en hacer una lista detallada de las características del problema, incluyendo las restricciones. Se diferencia de la etapa anterior en el grado de detalle y reconocimiento de las restricciones. 3-Búsqueda de soluciones: Idear y desarrollar la mayor cantidad de soluciones posibles, para esto tiene que tener en cuenta las restricciones, los criterios y las repeticiones o el volumen de producción. 4-Evaluación de alternativas: Una de las tareas principales del diseñador en la evaluación, es la de predecir cuantitativamente el comportamiento de cada alternativa con respecto a cada uno de los criterios considerados. Por ejemplo, el diseñador de un método de trabajo debe predecir el tiempo de ejecución de 9 cada alternativa, el esfuerzo requerido, la habilidad demandada, la fatiga causada, la flexibilidad ofrecida, el mantenimiento necesario, etc., y después, cuantificar esto en importes y costos. 5-Especificación de la solución preferida: La fase de especificación del proceso de diseño implica una delineación de los atributos y de las características de comportamiento del diseño seleccionado, siendo el propósito principal de esta fase el comunicar la solución a las personas involucradas, tales como: Las personas responsables de aprobar la solución. Las personas encargadas de la creación física de la solución. Las personas responsables de administrar la solución una vez en uso, tales como el supervisor encargado de un nuevo método de manufactura. Las personas responsables del mantenimiento de la solución, tales como el personal responsable de prestar servicio a un producto, una vez que está en el mercado. Todo aquel que en el futuro necesite de las especificaciones detalladas de la solución. El procedimiento para realizar estudios de organización del trabajo en el Sistema de Gestión Integrada de Capital Humano de Fleitas y García (2013) relaciona los requisitos establecidos en la NC 3001: 2007 para el proceso de organización del trabajo con los pasos del método general de solución de problemas tal como se muestra en la Tabla 1. Tabla 1– Relación entre las etapas del método general de solución de problemas y los requisitos establecidos en la NC-3001:2007 Requisitos vinculados a la organización del trabajo Etapas de método general de solución de problema 4.3.1, 4.3.2, 4.3.3 Definición del problema 4.3.4, 4.3.5 Análisis del problema 4.3.6, 4.3.7 Búsqueda de soluciones 4.3.8 Evaluación de alternativas de solución 4.3.9 Selección de alternativas de solución 4.3.10 Implementación de la solución 4.3.11 Evaluar efectividad y rediseñar 5. Estudio de métodos El estudio de métodos o de procesos de trabajo se constituye en factor determinante de la gestión empresarial, por cuanto es mediante esos procesos que se logra el nuevo valor o valor agregado aportado por el ser humano con su trabajo o “trabajo vivo”. (Cuesta Santos, 2010) El estudio de métodos y la medición del trabajo están estrechamente vinculados. El estudio de métodos se relaciona con la reducción del contenido de trabajo de una tarea u operación. En cambio, la medición del trabajo se relaciona con la investigación de cualquier tiempo improductivo asociado con ésta, y con la investigación de cualquier tiempo para ejecutar la operación de una manera mejorada, tal como ha sido determinada por el estudio de métodos. La relación entre ambas técnicas se representa esquemáticamente en la Fig. 3 (Kanawaty, 1995) 10 Fig. 2– Relación entre estudio de métodos y la medición del trabajo. Muy a menudo, los términos análisis de operaciones, diseño del trabajo, simplificación del trabajo, ingeniería de métodos y reingeniería corporativa se utilizan como sinónimos. En la mayoría de los casos, todos ellos se refieren a una técnica para aumentar la producción por unidad de tiempo o reducir el costo por unidad de producción: en otras palabras, a la mejora de la productividad. Sin embargo, la ingeniería de métodos, implica el análisis en dos tiempos diferentes durante la historia de un producto. Primero, el ingeniero de métodos es responsable del diseño y desarrollo de varios centros de trabajo donde el producto será fabricado. Segundo, ese ingeniero debe estudiar continuamente estos centros de trabajo con el fin de encontrar una mejor forma de fabricar el producto y/o mejorar su calidad. (Niebel & Freivalds, 2009) En la actualidad, conjugar adecuadamente los recursos económicos, materiales y humanos origina incrementos de productividad. Con base en la premisa de que en todo proceso siempre se encuentran mejores posibilidades de solución, puede efectuarse un análisis a fin de determinar en qué medida se ajusta cada alternativa a los criterios elegidos y a las especificaciones originales, lo cual se logra a través de los lineamientos del estudio de métodos. (García Criollo, 2005) En su libro, Marsán define la ingeniería de métodos como la aplicación de un procedimiento sistemático, científico y lógico de análisis e investigación adecuado al proceso de trabajo objeto de estudio (operación o proceso). (Marsan Castellanos, 2008b) Sus objetivos son: Perfeccionar y racionalizar los métodos y procedimientos existentes o proyectados; Incrementar la productividad del trabajo;Incrementar la eficiencia del equipamiento;Disminuir los costos;Reducir la fatiga. Como aspectos comunes a las definiciones y objetivos se pueden expresar las siguientes: Es necesario la aplicación de un procedimiento sistemático, científico y lógico de análisis e investigación; Establecer CÓMO debe hacerse el trabajo de forma más sencilla y eficaz;Aumento de la productividad y reducción de los costos;Aumento de la seguridad, la salud y el bienestar de los trabajadores;El estudio de métodos comprende un conjunto de técnicas que permiten conocer la situación actual del centro donde se realiza el mismo. 6. Estudio de tiempos El estudio de tiempos es una técnica de medición del trabajo empleada para registrar los tiempos y ritmos de trabajo correspondientes a los elementos de una tarea definida, efectuada en condiciones determinadas, y para analizar los datos a fin de averiguar el tiempo requerido para efectuar la tarea según una norma de ejecución preestablecida. (Kanawaty, 1995) Es la parte cuantitativa del estudio del trabajo, que indica el 11 resultado del esfuerzo físico desarrollado en función del tiempo permitido a un operador para terminar una tarea específica, siguiendo a un ritmo normal un método predeterminado. De la definición anterior se desprende que el objetivo inmediato de la medicióndel trabajo es determinar el tiempo estándar, o sea, medir la cantidad de trabajo humano necesario para producir un artículo en términos de un tipo o patrón que es el tiempo. (García Criollo, 2005) El estudio de tiempos ha sido complemento indispensable de los estudios de procesos de trabajo, por cuanto es un referente obligado del valor creado en los procesos de trabajo, así como del mejoramiento de los mismos. El estudio de tiempos exige del establecimiento de una estructura que comprenda una clasificación de los tiempos a analizar. A esta estructura de tiempos se le denomina “Estructura de la jornada laboral”, representada en la Figura 4, cuya leyenda ofrece los distintos tiempos a considerar en la determinación del Aprovechamiento de la jornada laboral (AJL), así como en la determinación de las normas de trabajo: norma de tiempo (NT) y norma de producción(NP). Fig. 3 Estructura de la jornada laboral 7. Técnicas para obtención de información. Entre las técnicas más utilizadas se emplean las siguientes: Entrevistas Encuestas Búsqueda bibliográfica Documentos históricos Observación 12 CO NCLUSIONES CONCLUSIONES 1 – La utilización del Sistema de Gestión Integrada de Recursos Humanos garantiza la adecuada gestión de los recursos humanos en la empresa para convertirlos en la ventaja competitiva de nuestras organizaciones. Este sistema debe ser sobre la base de la mejora continua e integrado a la estrategia de la organización. 2 – La Organización del Trabajo constituye una pieza esencial en la GRH en cualquier entidad. A partir de estudios de métodos y tiempos de trabajo, analiza la interacción entre el hombre con los medios de producción y contribuye a aumentar la productividad del trabajo con la mayor eficacia y eficiencia posible. 3-La aparición en Cuba de reglamentaciones referidas a la organización del trabajo a través de la resolución 26/2006, y otros cuerpos legales demuestra la necesidad de realizar estos estudios. 13 BIBLIOGRAFIA 1. Cuesta Santos, A. (2010). Tecnología de gestión de recursos humanos (3ra ed.): Ed. “Félix Varela” y Academia. 2. Marsan Castellanos, J. y. o. (2008a). Organización del trabajo. Estudio de tiempos. La Habana: Ed. Félix Varela. 3. Colectivo de autores (2008) Organización del Trabajo. Ingeniería de Métodos Tomo I. Editorial Félix Varela. La Habana. Cuba. 4. Chiavenato, I. (2002). Gestión del talento humano (2da ed.): Ed. McGraw Hill. 5. 2. Chiavenato, I. (2009). Gestión del talento humano (3ra ed.): Ed. McGraw Hil. 6. Arrón Mandilego, Y. (2016). Procedimiento para el análisis y diseño de los sistemas de trabajo en procesos de producción. Revista Ingeniería Industrial, 22 (4). https://rii.cujae.edu.cu/index.php/revistaind/article/view/219/203 [ Links ] 7. Norma Cubana NC 3001: 2007 Sistema de gestión integrada de capital humano – Requisitos, (2007b) 8. Norma Cubana NC 3000: 2007 Sistema de gestión integrada de capital humano – Vocabulario, (2007a) 9. Acevedo Suárez, J. A., & Gómez Acosta, M. I. (2010). Introducción a la Ingeniería Industrial. La Habana. 10. Norma Cubana NC 3002: 2007 Sistema de gestión integrada de capital humano – Implementación, (2007). 11. Negrón González, Ana María; Fleitas Triana, María Soniay otros, «Identificación de costos ocultos a partir de un estudio de organización del trabajo en una empresa del sector farmacéutico en Cuba», Revista chilena de ingeniería [en línea], 2018, vol. 26, issue1, p. 213-218 [consulta: 2022-06-07],. Disponible en: ; 12. Hernández Darias, I. (2011). Particularidades de la gestión de los recursos humanos en empresas cubanas. Revista avanzada científica, 14. 13. Pedraza Melo, N. A. (2018). El clima organizacional y su relación con la satisfacción laboral desde la percepción del capital humano. REVISTA LASALLISTA DE INVESTIGACIÓN, 15. 14. García Criollo, R. (2005). Estudio del trabajo. Ingeniería de métodos y medición del trabajo (2da ed.): Ed. Mc Graw Hill. 15. Kanawaty, G. (1995). Introducción al estudio del trabajo (4ta ed.): Ed. Intl Labour Organization. 16. Marsan Castellanos, J. y. o. (2008b). Organización del trabajo. Ingeniería de métodos. La Habana: Ed. Felix Varela. 17. Meneses, J., & Rodríguez, D. (2011). El cuestionario y la entrevista. 18. Niebel, B. W., & Freivalds, A. (2009). Ingeniería Industrial. Métodos, estándares y diseño del trabajo (12ma ed.): Ed. Mc Graw Hill. 14 19. Souto Anido, L., & García Rondón, I. (2016). Modelo de Gestión de los Recursos Humanos con base en la teoría de los subconjuntos borrosos. Revista Internacional de Gestión del Conocimiento y la Tecnología. 20. Dulzaides Iglesias, M. E., & Molina Gómez, A. M. (2004). Análisis documental y de información: dos componentes de un mismo proceso. Acimed, 12(2). 21. Hodson, W. K. Maynard. Manual del Ingeniero Industrial: Ed. Mc Graw Hill. 22. Niebel, B. W., Freivalds, A., & Osuna, M. A. G. (2004). Ingeniería Industrial. Métodos, estándares y diseño del trabajo (11na ed.): Alfaomega. 23. Norma Cubana NC 3002: 2007 Sistema de gestión integrada de capital humano – Implementación, (2007). 24. Vallejo Chávez, L. M. (2016). Gestión del talento humano. Ecuador: Ed. La Caracola. 25. Zandin, K. B. (2004). Maynard's Industrial Engineering Handbook (E. M. Hill Ed. 5ta ed.). 26. autores, C. d. (2018a). Evaluación del desempeño, compromiso y gestión de recursos humanos en la empresa. Ingeniería Industrial, 34. 27. autores, C. d. (2018b). Perfeccionamiento de la gestión del capital humano en áreas económicas de universidades. Ingeniería Industrial, 39. CONTRIBUCIONES A LA GESTIÓN DE LOS ACTIVOS FIJOS INTANGIBLES VISIBLES EN LA CUJAE Gladys Mesa Palacios1, Rolando Serra Toledo2, Sonia Fleitas Triana3, Daniel Alfonso Robaina4 1Especialista en servicio, procesamiento y análisis de la información, Vicerrectoría de Investigaciones y Posgrado, Cujae, Habana, Cuba, 2 Director de Ciencia, Tecnología e Innovación, Cujae, Habana, Cuba, 3 Profesora de la Facultad de Industrial, Cujae, Habana, Cuba, 4 Vicerrector de Investigaciones y Posgrado, Cujae, Habana, Cuba. 1e-mail: gladyse@tesla.cujae.edu.cu RESUMEN El establecimiento de políticas para el desarrollo, la gestión y el control de los activos fijos intangibles es un tema de gran importancia y actualidad no solo para las empresas, sino también para las instituciones de investigación y de educación superior. En la actualidad, no existe en las universidades cubanas una concepción integral para el trabajo con los activos fijos intangibles y su gestión y control es insuficiente e inefectivo. El trabajo presenta la fundamentación y estructuración de un procedimiento para el perfeccionamiento del proceso de gestión de los activos fijos intangibles visibles o identificables en la Universidad Tecnológica de la Habana José Antonio Echeverría, Cujae, como contribución a su desarrollo estratégico y al incremento de la eficiencia y competitividad como requiere el desarrollo económico y social, con posibilidades de generalización a otras universidades del país. PALABRAS CLAVES: Gestión, Activos intangibles, Universidad CONTRIBUTIONS TO THE MANAGEMENT OF VISIBLE INTANGIBLE FIXED ASSETS IN THE CUJAE ABSTRACT The establishment of policies for the development, management and control of intangible assets is an issue of great importance and not only for businesses but also for the institutions of research and higher education. At present, not exist in Cuban universities a holistic conception for the work with the intangibles and their management and control is insufficient and ineffective. The paper presents the foundations and structuring of a procedure for improving the process of management of fixed assets intangible visible or identifiable on Technological University of Habana José Antonio Echeverría, Cujae, as a contribution to their strategic development and increasing the efficiency and competitiveness as required for economic and social development, with possibilities of generalization to other universities in the country KEY WORDS: Management, Intangible assets, University 1. Introducción El establecimiento de políticas para el desarrollo, la gestión y el control de los activos fijos intangibles es un tema muy actual e importante no solo para las empresas, sino también para las instituciones de investigación y de educación superior. En las universidades se da el contexto adecuado en el cual se aplican dos conceptos muy relacionados entre sí: la gestión del conocimiento y la gestión de intangibles. Consideramos para este trabajo como más apropiada la definición la definición de activos fijos intangibles que aparece en la Norma Cubana de Contabilidad No 8: “Los Activos Fijos Intangibles o inmateriales son aquellos activos no cuantificables físicamente ya que carecen de materialidad o sustancia corpórea, pero que producen o pueden producir un beneficio económico a la entidad en períodos futuros. Implican un derecho o privilegio que posibilita reducir los costos o mejorar la calidad de los servicios o productos, y sólo son visibles en el instrumento legal que justifica el derecho a su usufructo, entre ellos se encuentran algunos como: Patentes, Derechos (de Autor, de Superficie, entre otros) Propiedad Intelectual, Marcas, Concesiones, Franquicias, Innovaciones Tecnológicas, Arrendamiento Financiero con Opción de Compra, Software, y otros”. Un activo se considera intangible cuando: • Es separable, es decir, se puede separar del resto de la entidad para su venta, traspaso, intercambio, alquiler, ya sea individual-mente o conjuntamente con un contrato, un activo o pasivo con los que guarda relación, o • Surge de derechos contractuales o legales, sin que sea necesario que estos derechos sean transferidos o separables de la entidad o de otros derechos u obligaciones. Existen dos tipos fundamentales de Activos Fijos Intangibles (AFI): • AFI visibles o identificables sobre los que existe una regulación contable (por adquisición a terceros o generados internamente). • AFI ocultos o no identificables, conocidos como capital intelectual sobre los que no existe una regulación contable. Incluye el capital humano y el estructural. Hoy son muchas las investigaciones que se realizan en el mundo (Muñoz, 2015; Briñez, 2016; Axtle, 2017; Hussinki, 2017; Pedraza (2018); Redex 2019; Alfonso 2019 y en las diferentes ramas de la economía nacional (Borrás, Campos, 2015; Abat, 2016; García, 2017; Budovich, 2019; & Durango, 2019), con vistas a introducir, medir y gestionar los intangibles, pero dirigidas al capital intelectual. Existen bastante pocas publicaciones en el mundo y en Cuba que abordan la gestión de los Activos Fijos Intangibles Visibles o Identificables (AFIV). A continuación en la tabla 1 presentamos de manera resumida los principales reportes de investigaciones realizadas y sus limitaciones sobre la gestión de los Activos Fijos Intangibles Visibles o Identificables (AFIV). Tabla 1: Resumen de las investigaciones fundamentales relacionadas con activos fijos intangibles visibles o identificables y sus principales limitaciones 2. Desarrollo Caracterización de la gestión de los activos fijos intangibles visibles en la Universidad Tecnológica de La Habana José Antonio Echeverría a) Diagnóstico estratégico del proceso de gestión de los activos fijos visibles o identificables en la Cujae Sé realizó un análisis interno y externo que permitió elaborar la matriz DAFO. La investigación realizada para el diagnóstico incluyó los siguientes elementos para la realización del análisis interno: • Análisis de los expedientes de los 8 AFI visibles que se controlan actualmente por el Departamento de Control de Inventarios. • Análisis del control de AFI visibles en el Sistema de Contabilidad de ASSETS. • Informes anuales de CETA sobre su gestión económica. • Sistema de gestión de proyectos de investigación de la VRIP. • Informes anuales de balance de investigación y posgrado. • Proyecto estratégico de la Cujae. ANÁLISIS INTERNO Debilidades • No existen indicaciones precisas en la Universidad para la gestión de los Activos Fijos Intangibles. • Gran desconocimiento en los directivos, técnicos y profesores e investigadores sobre la gestión de los AFI. • El estado actual del control de los AFI visibles es muy deficiente (solo 8 software registrados y con expedientes incompletos). • El CETA prácticamente no comercializa AFI visibles. • Alrededor del 80% de los proyectos de investigación de la universidad no terminan en la obtención de AFI visibles. • Muchas de las instalaciones experimentales y el equipamiento utilizado en la investigación y la innovación tecnológica está obsoleto. • No existen relaciones de trabajo entre la VRIP y la VRE para la gestión de los AFI visibles (la VRIP controla en su sistema de registros primarios los AFI y la VRE debe realizar la actividad contable para su posterior comercialización). • Envejecimiento e inestabilidad del claustro de profesores (se requeriría una capacitación constante del claustro para la gestión de los AFI). • Los resultados de las investigaciones en la Universidad en ascenso en los últimos años (relacionado con la producción de los AFI visibles). • Desarrollo, implementación y funcionamiento estable de un sistema de control de los registros primarios en la Universidad (garantiza desde la VRIP un control inicial de los AFI visibles). • Existencia de un CETA como interface de la Universidad con las empresas (pudiera potenciar la comercialización de los AFI visibles). • En el Proyecto Estratégico de la Cujae 2015, existen algunos elementos relacionados indirectamente con la gestión de los AFI. • Existencia de una estructura económica en las facultades con un Vicedecano para esta actividad. ANÁLISIS EXTERNO Amenazas • El Mes no tiene una estrategia completamente definida para la gestión de los AFI en las universidades del país. • Los objetivos de trabajo del MES no incluyen ni explicita ni implícitamente la gestión de los AFI. • No existencia de un modelo de específico de control de AFI en el Sistema de Contabilidad de ASSETS (se utiliza el mismo modelo de control de AFT para los AFI, lo que introduce errores). • Las instituciones que controlan los AFI visibles como la OCPI y CENDA, no incluyen entre los elementos solicitados el análisis de costo ni la definición del tiempo de vida (elementos necesarios para el control efectivo de los AFI). • Poca demanda a la universidad de obtención de AFI visibles para su comercialización. • Las auditorías externas que se realizan a la universidad no incluyen la revisión del control de los AFI visibles. Oportunidades • Los Lineamientos No 33 y 132 de la Política Económica y Social del Partido y la Revolución están relacionados con la necesidad de la gestión de los AFI. • Existen indicaciones de las máximas autoridades del país para desarrollar nuevos productos comercializables como resultado del desarrollo científico y como contribución a su desarrollo económico. • Existen indicaciones del MES de desarrollar en las universidades productos de la ciencia y la técnica para su comercialización. • Existen importantes procesos en desarrollo en el país como el perfeccionamiento empresarial, el perfeccionamiento de las unidades de investigación científica e innovación tecnológica y de la informatización de la sociedad cubana. • Existe una tendencia en las principales universidades de Iberoamérica y del mundo de priorizar la gestión de los AFI y en particular de los AFI visibles para su comercialización. En los últimos 5 años se han obtenido como resultado de las investigaciones desarrolladas en nuestra universidad los siguientes AFI visibles que aparecen controlados en el Sistema de Registros Primarios de la VRIP como se muestra en la tabla : Tipos de AFI visibles Cantidad Libros 315 Monografías 235 Software 85 Patentes 9 TOTAL 644 Tabla 2: AFI visibles controlados en el sistema de registros primarios de la VRIP La Cujae solo tiene controlados 8 AFI visibles en el sistema ASSETS de contabilidad que corresponden a una fecha anterior a los 5 años que se muestran anteriormente y son todos software, por lo que se puede apreciar el gran potencial de AFI visibles no controlados, lo que unido a las fortalezas y oportunidades identificadas, a pesar de las amenazas analizadas, indica que es factible proponerse desarrollar una metodología para la gestión de los AFI en nuestra universidad que logre modificar la situación actual. b) Procedimiento para la gestión de los activos fijos intangibles visibles en una universidad. Aplicación parcial en la Universidad Tecnológica de la Habana José Antonio Echeverría Elementos principales por etapas para la implementación del procedimiento de control de los Activos Fijos Intangibles (AFI) visibles o identificables en la Cujae (Mesa, Serra y Fleitas, 2018) Etapa 1: 1. Análisis de la situación actual de los AFI visibles controlados por contabilidad de la VRE y de su documentación. (Son 8 software con expedientes muy incompletos). (Definir su permanencia). 2. Análisis de las principales dificultades del Modelo SC-1-01 de ASSETS de Activos Fijos Tangibles (AFT) utilizado también para el control de los AFI visibles. (Diseño de un nuevo modelo contable de ASSETS para el control de los AFI visibles). Etapa 2: 1. Establecimiento de los criterios generales para el reconocimiento de un AFI visible: • Se ha tenido que pagar algún costo de adquisición o desarrollo para obtenerlos. • Es probable que se obtengan beneficios económicos futuros atribuibles al mismo. • El costo del mismo puede ser medido con fiabilidad. 2. Establecimiento de las consideraciones generales para la realización de los procesos de valuación y amortización de los AFI visibles, así como para la determinación del costo de los mismos. Etapa 3: 1. Determinación de los tipos de AFI visibles que serán considerados para su control: • Propiedad intelectual: Patentes y Marcas • Programas computacionales: Software y Multimedias • Derechos intelectuales: Derechos de autor: Libros y Monografías 2. Control de los AFI visibles generados internamente en el Sistema de Registros Primarios (Códice) de la VRIP. 3. Confección de los expedientes de los AFI visibles que sean seleccionados para su control contable. 4. Control de los AFI visibles en el sistema de control contable ASSETS. Etapa 4: 1. Gestión de comercialización por CETA. A continuación en la figura 1 se muestra un esquema del proceso diseñado para la gestión de los AFI en nuestra universidad: Figura 1. Esquema del proceso de gestión de los AFI en nuestra universidad c) Aplicación parcial del procedimiento de gestión de los AFI visibles o identificables en la Cujae. El procedimiento completo propuesto así como su implementación parcial se puede encontrar en (Mesa, 2020). Las 2 primeras etapas del procedimiento presentado ya han sido implementadas cumpliéndose las tareas definidas en las mismas. Con relación a la Etapa 3 se han realizado las siguientes tareas: 1. Determinación de los tipos de AFI visibles que serán considerados para su control: 2. Control de los AFI visibles generados internamente en el Sistema de Registros Primarios (Códice) de la VRIP. 3. Confección de los expedientes de los AFI visibles que sean seleccionados para su control contable. En esta tarea se implementó hasta ahora lo relacionado con el control del software que se explicará posteriormente. Con relación a la última etapa 4 relacionada con la gestión de comercialización por CETA de los AFIV, se realizó la confección de la carpeta de patentes de la universidad como un paso imprescindible para su posterior gestión de comercialización. La carpeta de patentes (Ver figura 2), se confeccionó sobre la base de la búsqueda de las patentes reconocidas internacionalmente para el Instituto Superior Politécnico José Antonio Echeverría, Cujae hoy Universidad Tecnológica de la Habana José Antonio Echeverría, Cujae, encontrándose el reporte de 81 patentes obtenidas por nuestra universidad en los últimos 44 años (1976-2021). Figura 2. Portada de la carpeta de patentes de la universidad d) Aplicación del Método de Criterio de Expertos como valoración de la factibilidad del procedimiento propuesto Se realizó la selección de 20 expertos internacionales con las siguientes características que se muestran en las figuras 3 y 4: Figuras 3 y 4. Características de los expertos seleccionados Se aplicó un instrumento para recibir la valoración de los expertos sobre los diferentes aspectos del procedimiento propuesto con los siguientes resultados: • El 100% plantea estar fuertemente de acuerdo en que el diseño del procedimiento propuesto para la gestión de los activos fijos intangibles visibles en una universidad, permitirá perfeccionar el control de los mismos. • El 90% de los aspectos evaluados del procedimiento propuesto tiene una valoración de bastante adecuado o adecuado. 4. Conclusiones La revisión de la bibliografía internacional evidenció que son muchas las investigaciones que se realizan en Cuba y en el mundo con vistas a gestionar los intangibles, pero dirigidas en lo fundamental al capital intelectual y las pocas que abordan los AFIV lo hacen de manera parcial. Del diagnóstico estratégico realizado sobre la gestión de AFIV en nuestra universidad, se obtuvo como resultado que es deficiente y con varias insuficiencias fundamentales. Para perfeccionar la gestión de los AFIV, se diseñó un procedimiento integral que involucra el trabajo coordinado de la Dirección de Ciencia, Tecnología e Innovación, la Dirección de Contabilidad y CETA Se ha realizado la aplicación parcial del procedimiento diseñado que incluye la confección de la documentación necesaria para el control del software como AFI visibles con la colaboración de los especialistas calificados para esta tarea y la elaboración de la carpeta de patentes de nuestra universidad. Se aplicó el Método de Criterio de Expertos como valoración de la factibilidad del procedimiento propuesto con resultados muy satisfactorios. Referencias 1. ABAT, A., FRÍAS, R., GARCÍA, Naylén. "Hacia un modelo conceptual de intangibles para instalaciones hoteleras". Retos Turísticos, 2016, 15, 2, 1-12. 2. ALFONSO, A. A., PÉREZ ZULUETA, M. A., CHIRIBOGA CISNEROS, E. F., & RUIZ MURILLO, J. R. "Elementos e indicadores del componente humano para la medición de intangibles en entidades de servicios". Res non verba revista científica, 2019, 9, 1, 163-186. 3. AXTLE, M., ACOSTA, J. "Medición y gestión del capital intelectual en las instituciones de educación superior". Dimensión Empresarial, 2017, 15, 2, 103-115. 4. BORRÁS, F., CAMPOS, L. "Resultados y retos de un estudio sobre valoración del Capital Intelectual en la Universidad de La Habana". Economía y Desarrollo, 2015, 155, 2, 133-148. 5. BRIÑEZ, M. "Prospectiva del capital intelectual: cuadro de mando integral como generador de valor empresarial". Ciências sociais, Humanas e Engenharias, 2016, 2, 1, 65-80. 6. BUDOVICH, L., NADTOCHIY Y. "Teacher intellectual capital. Assessment approaches". Revista Espacios, 2019, 40, 8, 2-27. 7. DURANGO, C. "La gestión del capital intelectual en universidades: una revisión de la literatura", Rev. Ingeniería, Matemáticas y Ciencias de la Información, 2019, 6, 11, 131-144. 8. GARCÍA, J. E. G., DURAN, S. E., PRIETO R. "Políticas de gestión de talento humano para el desarrollo de competencias gerenciales en empresas metalmecánica". FACE: Revista de la Facultad de Ciencias Económicas y Empresariales, 2017, 17, 2, 130-141. 9. HUSSINKI, H., RITALA, P., VANHALA, M., KIANTO, A. "Intellectual capital knowledge management practices and firm performance". Journal of Intellectual Capital, 2017, 18, 4, 904-922. https://doi.org/10.1108/JIC-11-2016-0116 10. LINDA, M., FITRIA, Y. "The effect of intellectual capital on job satisfaction on bank employees". Revista de Ciencias Humanas y Sociales, 2019, 35, 19, 1244-1265. http://produccioncientificaluz.org/index.php/opcion/article/view/24080/24524 11. MESA, G., SERRA, R., FLEITAS, S. "Metodología para la gestión de los activos fijos intangibles visibles en una universidad". Universidad y Sociedad, 2018, 10, 4, 161-168. 12. MESA, G., SERRA, R., FLEITAS, S. "Procedimiento para la gestión de los activos fijos intangibles visibles en una universidad". Tesis de Maestría, Cujae, La Habana, 2020. 13. MUÑOZ, D., GONZÁLEZ, L., AULAR, J., ACOSTA, N. "Estrategias para desarrollar el capital intelectual en la educación universitaria en Ciencias de la Salud". Revista de la Universidad del Zulia, 2015, 6, 15, 58-66. 14. Norma Cubana de Contabilidad No. 8. "Activos Fijos Intangibles", Ministerio de Finanzas y Precios, Cuba. 2018 15. REDEK, T., BAVDAŽ, M. "Measuring the intangibles using survey data", University of Ljubljana, School of Economics and Business. 2019. 16. PEDRAZA, N. A. "El clima organizacional y su relación con la satisfacción laboral desde la percepción del capital humano". Revista Lasallista de Investigación, 2018, 15, 1, 90-101. doi:10.22507/rli.v15n1a9. SOBRE LOS AUTORES Gladys Mesa Palacios: Licenciada en Planificación de la Economía Nacional, Especialista en servicio, procesamiento y análisis de la información de la Vicerrectoría de Investigaciones y Posgrado. Especialista en Gestión Económica. Correo electrónico: gladyse@tesla.cujae.edu.cu Rolando Serra Toledo: Director de Ciencia, Tecnología e Innovación de la Vicerrectoría de Investigaciones y Posgrado. Profesor Auxiliar e Investigador Titular. Doctor en Ciencias Pedagógicas. Correo electrónico: serra@electrica.cujae.edu.cu Sonia Fleitas Triana: Ingeniera Industrial, Profesora de la Facultad de Ingeniería Industrial, Cujae, Cuba. Profesora Titular. Doctora en Ciencias Técnicas. Correo electrónico: sfleitas@ind.cujae.edu.cu Daniel Alfonso Robaina: Ingeniero Industrial, Vicerrector de Investigaciones y Posgrado, Profesor de la Facultad de Ingeniería Industrial. Profesor Titular, Doctor en Ciencias Técnicas. Correo electrónico: dalfonso@ind.cujae.edu.cu UNIVERSIDADES CUBANAS EN RANKINGS INTERNACIONALES. EXPERIENCIAS DE LA UNIVERSIDAD TECNOLÓGICA DE LA HABANA Rolando Serra Toledo1, Allan Pierra Conte 2, Daniel Alfonso Robaina3, Ondina León Díaz4 1 Director de Ciencia, Tecnología e Innovación, Cujae, Habana, Cuba, 2 Metodólogo de la Dirección de Ciencia, Tecnología e Innovación, Ministerio de Educación Superior, La Habana, Cuba, 3 Vicerrector de Investigaciones y Posgrado, Cujae, Habana, Cuba, 4Directora General de Investigación y Posgrado, Ministerio de Educación Superior, La Habana, Cuba. 1e-mail: serra@electrica.cujae.edu.cu RESUMEN Los rankings universitarios globales se han convertido en un referente de calidad del sistema de educación superior, constituyéndose en un factor relevante en la determinación de políticas y estrategias institucionales. Son construcciones metodológicas que reúnen diferentes criterios con los cuales se busca hacer homogénea la comparación entre instituciones y acorde a las ponderaciones que el ranking considere, categoriza unos resultados de medición y ordena las posiciones de las universidades. Se muestran los indicadores fundamentales utilizados en cada ranking, así como los elementos fundamentales de la gestión y resultados de las universidades cubanas en los 3 principales rankings internacionales que tienen indicadores más ajustados a la realidad latinoamericana, el SCImago Institutions Rankings, el Ranking Web de Universidades, el Ranking Transparente y el Ranking QS y de la estrategia desarrollada en la Universidad Tecnológica de La Habana, José Antonio Echeverría, Cujae. Se analizan también los resultados de las universidades cubanas en sitios para la difusión e intercambios científicos muy utilizados en el mundo como el Google Académico y el Researchgate y su interrelación con los rankings anteriores. PALABRAS CLAVES: Rankings, Universidades, Indicadores CUBAN UNIVERSITIES IN INTERNATIONAL RANKINGS. EXPERIENCES OF THE TECHNOLOGICAL UNIVERSITY OF HAVANA ABSTRACT Global university rankings have become a benchmark for the quality of the higher education system, becoming a relevant factor in determining institutional policies and strategies. They are methodological constructions that meet different criteria with which it is sought to make the comparison between institutions homogeneous and according to the weightings that the ranking considers, categorizes some measurement results and orders the positions of the universities. The fundamental indicators used in each ranking are shown, as well as the fundamental elements of the management and results of Cuban universities in the 3 main international rankings that have indicators more adjusted to the Latin American reality, the SCImago Institutions Rankings, the Web Ranking of Universities, the Transparent Ranking and the QS Ranking and the strategy developed at the Technological University of Havana, José Antonio Echeverría, Cujae. The results of Cuban universities are also analyzed in places for the dissemination and scientific exchange widely used in the world such as the Academic Google and the Researchgate and their interrelation with the previous rankings. KEY WORDS: Rankings, Universities, Indicators 1. Introducción Los rankings universitarios son construcciones metodológicas que reúnen diferentes criterios con los cuales se busca hacer homogénea la comparación entre instituciones de educación superior (Dairao, Bonaccorsi, Simar, 2015 & Zulia 2018). Acorde a las ponderaciones que el ranking considere, categoriza unos resultados de medición y ordena las posiciones de las universidades. Existe una diversidad metodológica, y diferencias en la rigurosidad para definir categorías de análisis en los rankings que existen y que se generan en diferentes escenarios, razón por la cual, es relevante conocer qué criterios se miden y así poner en contexto los resultados (Toffalis, 2012). Existen varios rankings internacionales universitarios que incluyen indicadores de medición elitistas y muy alejados del contexto latinoamericano en particular como el THE-Times Higher Education World University Ranking y el ARWU-Academic Ranking of World Universities, conocido como Shanghai Ranking entre otros (Pavel 2015, Abello, San Martín, Sáez & Mancilla, 2012, Ávila & Zayas 2020). Otros rankings si se han adecuado más a la realidad de los países latinoamericanos y serán objeto de análisis en el presente artículo (King, Llinas-Audet, & Rivas, 2018). Existe una tendencia internacional hacia la medida de la calidad académica basada principalmente en investigación, producción científica y reputación académica. A pesar de las imperfecciones, los rankings ofrecen información esencial, útil para la sociedad que demanda análisis independientes, para las universidades y para los responsables de la política académica, que necesitan conocer fortalezas y debilidades de sus instituciones en el panorama global. (Folch, Feixas, Bernabeu, & Ruiz, 2015, Ramírez, Barrachina & Mateo, 2019). Los rankings universitarios tienen por objeto realizar una jerarquización de las instituciones de educación superior (IES) basándose en parámetros e indicadores que pretenden medir la calidad de la educación universitaria, de la investigación y otros aspectos de la actividad académica, con el fin de informar y orientar a los estudiantes, a la opinión pública y a la sociedad en general (Ganga, Sáez & Viancos, 2019, Guimarães, Holland, & Campbell, 2020). Los rankings llevan implícitos una determinada posición de cada institución que hace inevitable las comparaciones entre ellas. El problema surge cuando se identifica una mejor posición con una mejor calidad, dada la amplia connotación de este término. Además, el impacto que están ocasionando los rankings dentro y fuera de las universidades es cada vez mayor debido a su difusión por los medios de comunicación social. De lo anterior se desprende que no deberían presentarse los resultados de un ranking sin acompañarlos de una explicación detallada de la metodología con la que han sido elaborados, deben conocerse indicadores y pesos, así como una descripción precisa de lo que mide cada indicador. (García, & Pita, 2018). Los rankings están pensados para validar la calidad de las principales funciones de las Instituciones de educación superior: la formación, la investigación, la extensión universitaria e influenciar positivamente a la comunidad y fortalecer el sector productivo mediante la transferencia del conocimiento. Las medidas de influencia en la comunidad y la empresa son indicadores bastante subutilizados en los rankings (Blanco & Berger, 2014). Además, en el marco de la denominada Tercera Misión, las universidades deben contribuir al desarrollo económico y social de la región en la que se encuentra la universidad, y contribuir a la reducción de las desigualdades sociales (Margison, 2014). Existen variadas inquietudes reportadas relacionadas con las dificultades de orden técnico y metodológico en su construcción (Al-Juboori, Su & Ko, 2012) referidas a aspectos tales como la validez de los indicadores utilizados; la forma en que se captura la información; las ponderaciones empleadas para llegar a un solo valor asignado a cada institución. Otra importante dificultad es comparar diferentes instituciones con diferentes propósitos y objetivos institucionales, que operan además en diferentes entornos socio-económicos y culturales (Bougnol, & Dulá, 2015). Otra de las críticas comúnmente encontrada es el peso preponderante de la investigación, en comparación con la docencia, la gestión y la extensión. La dificultad para medir la investigación de carácter interdisciplinario o la que obedece a otras lógicas de difusión y divulgación diferente a las publicaciones periódicas, lleva a que estas manifestaciones puedan ser poco consideradas en los rankings (Goglio, 2016). Los rankings también conservan problemas de tamaño y de escala, pues están basados en indicadores que no logran neutralizar siempre los efectos del tamaño de las instituciones y de sus posibilidades de acceso a recursos. Hay que comprender sus limitaciones pero también sus potencialidades sin dejar de hacer un examen más cuidadoso y desapasionado que procura esclarecer las varias dimensiones existentes en los procesos de ranqueo que, por su naturaleza, son complejos, controvertidos y polisémicos (Calderón & Franca, 2018). 2. Desarrollo A continuación mostraremos los elementos fundamentales de la gestión y resultados en los 3 principales rankings internacionales que tienen indicadores más ajustados a la realidad latinoamericana de las universidades cubanas y de la estrategia desarrollada en la Universidad Tecnológica de La Habana, José Antonio Echeverría, Cujae, para tratar de incrementar la visibilidad y los resultados en los mismos. SCImago Institutions Rankings (SIR): Clasifica todas las instituciones de educación superior e instituciones de investigación, a partir de indicadores científicos (investigación, resultados de innovaciones, impacto social a través de su visibilidad en la web) que evalúan el nivel y la calidad investigativa. CRITERIOS DE INCLUSIÓN SCImago Research Group publica anualmente dos informes: 1. SIR World que muestra la actividad científica en el mundo. Incluye instituciones de todos los países y sectores que hayan publicado como mínimo 100 documentos en revistas indexadas en Scopus en el último año del período de estudio. 2. SIR IBER que muestra la actividad científica exclusivamente de Andorra, España, Portugal y los países de Latinoamérica. FACTORES DE MEDICIÓN El proceso de medición se realiza a partir de 17 indicadores, agrupados en tres factores principales: investigación, innovación e impacto social. El cálculo de dichos indicadores se genera anualmente a partir de los resultados obtenidos durante un período de cinco años que termina dos años antes de la edición de la clasificación. De las instituciones de MES sólo la UH y la UCLV están presentes en el SIR World 2020. Las universidades del MES en general a partir del año 2016, han realizado un esfuerzo para tratar de incrementar las publicaciones en revistas indexadas en Scopus que son el indicador más importante en este ranking, lo que se aprecia en la Figura 1: Fig 1. Publicaciones en revistas del Grupo 1 por cada 100 profesores equivalentes, Fuente: informe de Balance 2020 del MES La Universidad Tecnológica de la Habana José Antonio Echeverría, Cujae ha desarrollado una estrategia con todos los doctores y claustro en general de capacitación e identificación de las diferentes revistas a publicar del Grupo 1 en cada temática de investigación, así como en los requerimientos de este tipo de publicaciones de reconocido prestigio, alcanzando un resultado en ascenso como se muestra a continuación en la Figura 2: Fig 2. Artículos publicados en revistas del Grupo 1 en la Cujae en los últimos 5 En la siguiente tabla se muestra la distribución de las publicaciones en el Grupo 1 “Corriente principal” por cada 100 profesores-investigadores equivalentes en las diferentes universidades del MES, de acuerdo al balance de investigaciones y posgrado del MES 2020, donde se destaca el segundo lugar alcanzado por la Cujae como resultado de la estrategia desarrollada en esa universidad Grupo 1 1 UH 40,6 C1 2 CUJAE 19,0 3 UCI 16,7 4 UCf 14,1 C2 5 UMoa 12,4 6 UCLV 11,0 7 UO 8,8 8 UM 8,4 9 UNICA 7,3 C3 10 UPR 4,7 11 UHo 4,6 12 UC 3,9 13 UDG 3,7 14 UNISS 3,7 15 UNAH 3,2 16 UCCFD 2,2 C4 17 UA 2,0 18 UCPEJV 1,4 19 UG 0,7 20 ULT 0,5 21 UIJ 0,0 Tabla 1. Publicaciones del Grupo 1 por cada 100 profesores-investigadores equivalentes en las universidades del MES En la tabla 2 se muestran las posiciones de las universidades del MES en el listado que genera la clasificación de las instituciones de educación superior en Iberoamérica (SIR IBER 2020), está constituido por las siguientes secciones: IBE: Posición que ocupa la institución en Iberoamérica según su producción científica en Scopus LAC: Posición que ocupa la institución en Latinoamérica según su producción científica en Scopus CUB: Posición que ocupa la institución en el país según su producción científica en Scopus Las flechas indican si mejoran (verde), si se ha mantenido (amarillo) y si disminuye (rojo) su posición con respecto al año anterior. Tabla 2. Posiciones de las universidades del MES en el SIR IBER 2020 Todas las universidades del MES retroceden en su posición tanto en Iberoamérica como en Latinoamérica, lo que indica que el entorno está creciendo a una velocidad mayor que la de nuestras instituciones, esto se puede apreciar en las dos primeras columnas de la tabla, en la tercera columna se nota la poca movilidad interna entre las instituciones del país. El Ranking Web de Universidades (Webometrics): El Laboratorio de Cibermetría (CSIC) realiza un ejercicio científico abierto, independiente y objetivo para proporcionar información confiable, multidimensional, actualizada y útil sobre el desempeño de las universidades de todo el mundo basado en su presencia web e impacto. En la Tabla 3 se muestran los resultados de las 10 primeras universidades cubanas del MES en este ranking Lugar Cuba Lugar Mundial Universidad Visibilidad Apertura Excelencia 1 3250 Universidad Central Marta Abreu de las Villas 7408 1957 3496 2 3349 Universidad de la Habana 3135 5963 3068 3 3915 Universidad de Oriente 5273 2706 4883 4 3920 Universidad Tecnológica de La 7274 1915 4675 Lugar Cuba Lugar Mundial Universidad Visibilidad Apertura Excelencia Habana José Antonio Echeverría 5 4852 Universidad de las Ciencias Informáticas 7148 3174 5541 6 4964 Universidad de Pinar del Río Hermanos Saíz Montes de Oca 3061 5963 5541 7 5087 Universidad de Holguín 13641 3403 4934 8 5121 Universidad de Matanzas 14204 3910 4781 9 5137 Universidad de Cienfuegos Carlos Rafael Rodríguez 10802 3924 5272 10 5386 Universidad de Ciego de Ávila Máximo Gómez Báez 14656 4291 4883 Tabla 3. Universidades del MES en el ranking web de universidades 2021 Es de destacar que si se realiza el ordenamiento por el indicador de apertura vinculado al Ranking Transparente, la Universidad Tecnológica de La Habana José Antonio Echeverría ocupa el primer lugar debido al trabajo realizado para incrementar la cantidad de profesores e investigadores con perfiles personales creados y actualizados en el Google Académico y el incremento de sus citas de la obra científica publicada. Ranking Transparente: Se recopilan citas de los 210 perfiles públicos de los profesores e investigadores en el Google Académico más importantes de cada universidad, o sea con mayor número de citas. Los veinte (20) perfiles principales de la lista están EXCLUIDOS para mejorar la representatividad al eliminar los valores atípicos. A continuación se muestran en la Figura 3 las 5 universidades cubanas del MES visibles en este ranking: Fig 3. Total de citas de las universidades cubanas en el ranking transparente 2020 La estrategia implementada en la Universidad Tecnológica de La Habana José Antonio Echeverría, Cujae, que permitió alcanzar estos resultados, consistió en la impartición de seminarios en las diferentes facultades y centros de investigación para la creación y actualización de los perfiles personales de los profesores e investigadores en el Google Académico, así como asesoría directa a todos los que lo necesiten. A continuación se muestra en la Tabla 4 las 10 universidades cubanas adscritas al MES con mayor cantidad de perfiles personales creados en el Google Académico: Lugar Universidad Perfiles en GA 1 Universidad de la Habana 439 2 Universidad Tecnológica de La Habana José Antonio Echeverría 396 3 Universidad de Oriente Santiago de Cuba 200 4 Universidad Central Marta Abreu de las Villas 196 5 Universidad de las Ciencias Informáticas 176 6 Universidad de Camagüey 161 7 Universidad de Pinar del Río 133 8 Universidad de Holguín 97 9 Universidad de Cienfuegos Carlos Rafael Rodríguez 82 10 Universidad de Matanzas 66 Tabla 4. Universidades cubanas adscritas al MES con mayor cantidad de perfiles personales creados en el Google Académico Ranking QS La Clasificación mundial de universidades QS, publicada por Quacquarelli Symonds (en inglés, QS World University Rankings), es un ordenamiento anual de 800 universidades del mundo dispuestas con un criterio de jerarquía. En el QS World University Rankings 2021, solo aparecen incluidas 2 universidades cubanas, La universidad de la Habana en el lugar 498 y la Universidad Central Marta Abreu de las Villas en el lugar 531-540. QS publica también una clasificación regional, el QS Latin American University Ranking, con indicadores más adaptados a la realidad latinoamericana, que se muestra a continuación: Lugar en AL Lugar Nacional Universidades Cantidad de indicadores evaluados 28 1 Universidad de La Habana 4 87 2 Universidad de Oriente 8 123 3 Universidad de las Ciencias Informáticas 8 149 4 Universidad Central Marta Abreu de Las Villas 1 201-250 5 Universidad Tecnológica de La Habana, Cujae 2 251-300 6 Universidad de Cienfuegos 1 251-300 7 Universidad de Holguín 1 Tabla 5. Universidades cubanas en el QS Latin American University Ranking Researchgate Aunque no es propiamente un ranking, consideramos conveniente presentar esta red social académica que, además de permitir ordenar las universidades por el impacto de la obra científica de sus profesores e investigadores, tiene un impacto importante en el Ranking Transparente y en el Ranking Web al contribuir al incremento de la visibilidad de las citas de sus publicaciones al permitir publicar a texto completo todos los resultados obtenidos. ResearchGate es una red social en Internet y una herramienta de colaboración dirigida a personas que hacen ciencia de cualquier disciplina. El valor del indicador RG de una universidad se calcula por la suma del valor de este indicador de cada profesor, investigador o estudiante con perfiles creados y la filiación correcta a la universidad. La Universidad Tecnológica de La Habana José Antonio Echeverría, Cujae ha realizado un trabajo de capacitación por las diferentes Facultades y Centros de Investigación para la creación de los perfiles personales en este sitio. A continuación en la Figura 4 se muestran los resultados al cierre del 2020 de las 10 universidades cubanas con mejores resultados en el indicador RG y en perfiles personales creados en este sitio: Fig 4. Mejores universidades cubanas en el indicador RG y en perfiles personales creados en el Reserarchgate 4. Conclusiones A pesar de las críticas más diversas, muchas relacionadas con el peso de aspectos mercantilistas y subestimación de las aplicaciones prácticas de los resultados científicos, la literatura académica-científica reconoce que los rankings como instrumentos de evaluación externa, internacionales y nacionales, vinieron para quedarse e instalarse dentro de la batalla por la excelencia de las instituciones de educación superior y como un mecanismo en continuo perfeccionamiento. Se han mostrado los elementos fundamentales de la gestión y resultados en los 3 principales rankings internacionales que tienen indicadores más ajustados a la realidad latinoamericana de las universidades cubanas y de la estrategia desarrollada en la Universidad Tecnológica de La Habana, José Antonio Echeverría, Cujae, que ha permitido incluirse entre los primeros lugares a nivel nacional. Referencias 1. AL-JUBOORI, A; SU, D. J; y Ko, F. "University ranking and evaluation: Trend and existing approaches". International Journal of Advancements in Computing Technology, 2012, 4, 5, 10– 16. 2. ÁVILA LÓPEZ, L. A; y ZAYAS MARQUEZ, C. "Gestión institucional de la Universidad Autónoma de Baja California frente a los indicadores de calidad de los rankings globales: Institutional management of the Universidad Autónoma de Baja California against the quality indicators of the global rankings". EDUCATECONCIENCIA, 2020, 26, 27, 79-100. 3. BAUTISTA ABELLO-ROMERO; B. SAN MARTÍN, J; SÁEZ, W; y MANCILLA, C. "Evaluación del desempeño de las universidades: el aporte de los rankings mundiales, Hallazgos". Revista de Investigaciones, 2021,18, 35, 55-57. 4. BLANCO-RAMÍREZ, G; y BERGER, J. B. "Rankings, accreditation, and the international quest for quality". Quality Assurance in Education, 2014, 22, 1, 88–104. 5. BOUGNOL, M. L; & DULÁ, J. H. "Technical pitfalls in university rankings". Higher Education, 2015, 69, 859–866. 6. CALDERÓN, A. I.; Y FRANCA, C. M. "Rankings acadêmicos na educação superior: tendências da literatura ibero-americana". Revista da Avaliação da Educação Superior, 2018, 23, 448-66. 7. DARAIO, C; BONACCORSI, A; Y SIMAR, L. "Rankings and university performance: A conditional multidimensional approach". European Journal of Operational Research, 2015, 244, 3, 918–930. 8. ESQUIVEL, R. "Evaluación del desempeño de Universidades Panameñas a través de los indicadores de Rankings Universitarios Internacionales". Latitude, 2020, 2, 13, 7-28. 9. GANGA CONTRERAS, F.; SÁEZ-SAN MARTÍN, W.; Y VIANCOS, P. "Rankings de universidades como herramientas de evaluación institucional: Un análisis a las metodologías utilizadas por tres instrumentos internacionales". Inclusiones, 2019, 6, 4, 367-82. 10. GARCÍA DE FANELLI, A.; Y PITA CARRANZA, M. "Los rankings y sus usos en la gobernanza universitaria. Revista Iberoamericana de Ciencia", Tecnología y Sociedad – CTS, 2018, 13, 37, 95-112. 11. GOGLIO, V. "One size fits all? A different perspective on university rankings". Journal of Higher Education Policy and Management, 2016, 38, 2, 212–226. 12. GUIMARÃES, J; HOLLAND, H; Y CAMPBELL, G. "Rankings universitarios como sistemas de organización del conocimiento". Scire: Representación y Organización Del Conocimiento, 2020, 26, 2, 31-37. 13. KING, A.; LLINAS-AUDET, X.; Y AMÉSTICA RIVAS, L. "Rankings universitarios como medida de calidad: análisis comparado en Latinoamérica". Revista venezolana de gerencia, 2018, 26, 23, 218-237. 14. MARGISON, S. "University rankings and social science". European Journal of Education, 2014, 49, 1, 45-59. 15. PAVEL, A. P. (2015). "Global university rankings - a comparative analysis". Procedia Economics and Finance, 26, 54–63. 16. RAMÍREZ CÉSPEDES, Zulia. "El estudio de la visibilidad académica a través de los rankings de universidades. Una revisión bibliográfica". Alcance, 2018, 7,18, 93-111. 17. RAMÍREZ, Z. BARRACHINA; Y MATEO, R. "Divulgación de rankings universitarios y eficiencia en educación superior. Análisis bibliométrico y sistémico, Revista de educación, 2019, 384, 247-286. 18. TOFALLIS, C. "A different approach to university rankings". Higher Education, 2012, 63, 1– 18. 19. TOMAS FOLCH, M; FEIXAS, M; BERNABEU-TAMAYO; Y RUIZ RUIZ, J.M. "La literatura científica sobre rankings universitarios: una revisión sistemática". REDU - Revista de Docencia Universitaria, 2015, 13, 3, 33-54. SOBRE LOS AUTORES Rolando Serra Toledo: Director de Ciencia, Tecnología e Innovación de la Vicerrectoría de Investigaciones y Posgrado. Profesor Auxiliar e Investigador Titular. Doctor en Ciencias Pedagógicas. Correo electrónico: serra@electrica.cujae.edu.cu Allan Pierra Conte: Metodólogo de la Dirección de Ciencia, Tecnología e Innovación, Ministerio de Educación Superior, Cuba. Profesor Titular. Doctor en Ciencias Técnicas. Correo electrónico: apierra@mes.gob.cu Daniel Alfonso Robaina: Ingeniero Industrial, Vicerrector de Investigaciones y Posgrado, Profesor de la Facultad de Ingeniería Industrial. Profesor Titular, Doctor en Ciencias Técnicas. Correo electrónico: dalfonso@ind.cujae.edu.cu Ondina León Díaz: Directora General de Investigación y Posgrado, Ministerio de Educación Superior, Cuba. Profesora Titular, Doctora en Ciencias Técnicas. Correo electrónico: ondina@mes.gob.cu XX CONVENCIÓN CIENTÍFICA DE INGENIERÍA Y ARQUITECTURA Determinación de los perfiles de competencias de los puestos de trabajo en los procesos claves de SOLINTEL, S.A. Determination of the competence profiles of the work positions in the key processes of SOLINTEL, S.A. Lic. Raydel Rodriguez Bruffau, Director de Desarrollo Organizacional y Capital Humano Empresa de Soluciones Integrales de Telecomunicaciones, S.A.,(SOLINTEL,S.A.), La Habana, Cuba raydel.rodriguez@solintel.cu Dra. C María Julia Becerra Alonso, Profesora Titular Facultad Ingeniería Industrial Universidad Tecnológica de La Habana, La Habana, Cuba. mjuliab@in.cujae.edu.cu RESUMEN La gestión del capital humano con enfoque de competencias se viene trabajando hace algunos años en muchas empresas a nivel mundial. Contar con trabajadores que dominen qué hacer, qué habilidades desarrollar y qué actitudes demostrar, en fin, trabajadores competentes, es una de las archiconocidas necesidades de los empresarios tanto en Cuba como en el exterior. Para cumplir con este enfoque tan complejo de llevar a la práctica, es menester, en primera instancia la determinación de las competencias de los diferentes puestos. Como objetivo general se propone determinar los perfiles de competencias de los puestos de trabajo de la Dirección Comercial y la Dirección Integrada de Proyectos, que son los procesos claves de la Empresa de Soluciones Integrales de Telecomunicaciones, S.A. (SOLINTEL, S.A.). Como hipótesis se estableció que determinar los perfiles de competencias de los puestos de trabajo de los procesos claves, contribuirá a una gestión estratégica del capital humano con enfoque de competencias en la Empresa. Fueron empleados una combinación de métodos teóricos y empírico. Como resultado fundamental, se intuye que; si se determinan los perfiles de competencias de los puestos de trabajo de los procesos claves, se gestionará mejor el capital humano, en tanto influye en todos los procesos que se desarrollan en la entidad. El impacto de esta investigación es alto para la Empresa, puesto que sus resultados dinamizan la gestión de los trabajadores y los resultados a nivel micro y macro. PALABRAS CLAVES: gestión estratégica, recursos humanos, competencias, perfiles de competencias, procesos claves. ABSTRACT Human capital management with a competency approach has been working for some years in many companies worldwide. Having workers who master what to do, what skills to develop and what attitudes to show, in short, competent workers, is one of the well-known needs of businessmen both in Cuba and abroad. In order to comply with this approach that is so complex to put into practice, it is necessary, in the first instance, to determine the competencies of the different positions. As a general objective, it is proposed to determine the competency profiles of the jobs of the Commercial Management and the Integrated Project Management, which are the key processes of the Empresa de Soluciones Integrales de Telecomunicaciones, S.A. (SOLINTEL, S.A.). As a hypothesis, it was established that determining the competency profiles of the jobs of the key processes will contribute to a strategic management of human capital with a focus on competencies in the Company. A combination of theoretical and empirical methods were used. As a fundamental result, it is intuited that; If the competency profiles of the jobs of the key processes are determined, human capital will be better managed, as it influences all the processes that are developed in the entity. The impact of this research is high for the Company, since its results stimulate the management of workers and the results at the micro and macro levels. KEY WORDS: strategic management, human resources, competencies, competency profiles, key processes INTRODUCCIÓN A partir de la década de 1980 del siglo XX, es reconocido el capital humano como el factor de ventaja competitiva más importante de las organizaciones laborales, tanto por la literatura científica internacional como nacional [1] Ya hoy no es novedad decir, que la ventaja competitiva básica de las empresas radicará cada vez más en el nivel de preparación y gestión de sus recursos humanos; y en esa afirmación hay que reconocer que el resultado de la preparación, es decir, la competencia de las personas, es su corazón o esencia. [2] Las empresas de hoy buscan fuentes de ventajas competitivas, difíciles de imitar y sostenibles a largo plazo que les permita sobrevivir en el contexto contemporáneo, caracterizado por la turbulencia, la impredecibilidad, y finalmente, la complejidad. La tecnología y la información están al alcance de todos; y el hombre representa un factor que distingue una organización de otra, por lo que gestionarlo de forma sistemática, estratégica e integrada desde un enfoque de competencias constituye más que un reto, una necesidad imprescindible a lograr. Conocer las competencias de los trabajadores que conforman la empresa permitirá detectar la manera en que se han de concebir planes para potenciarlas a través de la estrategia general de la empresa. El desarrollo de las competencias irá dirigido a mejorar la productividad y el rendimiento, reducir la rotación, establecer parámetros bien definidos de promoción y desarrollo, utilizar medidas basadas en resultados, emplear herramientas de desarrollo profesional y permitir seleccionar al personal con una menor incidencia de errores. Rubió [3] La expresión “Gestión por Competencias” no debe asociarse solamente a las grandes corporaciones ni tampoco a empresas multinacionales de manera exclusiva. Antes bien, la Gestión por Competencias se relaciona con aquellas empresas, de cualquier tamaño, que deseen tener éxito mediante la aplicación de este método. Alles [4] La gestión por competencias adquiere importancia en aquellas organizaciones que visualizan al aprendizaje individual y colectivo como una línea estratégica para su desarrollo. Es una posibilidad de distinguirse en los mercados y/o servicios a prestar, como también una vía para profesionalizar el trabajo y generar oportunidades de desarrollo del personal e incrementar la productividad del trabajo, como advierte Cuesta. [5] El enfoque de competencias surge, principalmente a raíz de las transformaciones técnico-productivas ocurridas en la década de los ochenta, que provocó que las empresas buscaran niveles más elevados de desarrollo en su capital humano, debido a lo que la globalización ha causado por el libre flujo de la información, la realización de nuevas maneras de trabajar, de gestionar procesos, de dirigir los mismos y a las organizaciones, aparejados con los adelantos científicos y técnicos. En Cuba y desde el triunfo revolucionario se ha evidenciado el ingente valor que se le ha otorgado al desarrollo del factor humano y hoy se considera como la principal riqueza que ha fomentado la Revolución. Las competencias laborales constituyen el factor integrador de todo el Sistema de Gestión Integrada de Capital Humano (SGICH) y se comprende y acepta por la comunidad científica del país, no obstante: en el sistema empresarial coexisten reservas de productividad y eficiencia ligada a una gestión de recursos humanos tradicional, que no posibilita extraerlas al máximo. Este comportamiento se manifiesta en muchas entidades que no alcanzan indicadores productivos y de eficiencia posible y necesaria, estando en igualdad de condiciones con otras que exhiben mejores resultados. Las políticas y normas jurídicas y técnicas cubanas al respecto promueven el tránsito de métodos de gestión tradicionales a la gestión por competencias laborales, teniendo en cuenta que el entorno empresarial competitivo y en continua transformación, requiere que su capital humano sea competente para responder a las necesidades puntuales y diferentes de los clientes con dinamismo, responsabilidad y comprometimiento. FUNDAMENTACIÓN TEÓRICA Así, en la misma voz latina encontramos dos significados distintos de la palabra competencia: relativo a la palabra castellana expresada en el verbo “competir”, ganar, salir victorioso, (coincide con el significado de la voz griega) y el otro sentido relacionado a hacerse responsable de algo, capacidad, habilidad, pericia en un ámbito de su jurisdicción al cual generalmente se le asigna un saber, conceptos con los que coincide Alles. [6] Otros de los referentes etimológicos de competencia es, sin dudas, la Real Academia Española [7], que expresa que tiene dos significados diferentes al mismo tiempo, es decir una homonimia. La primera definición tiene referencia a incumbencia, mientras que la segunda definición se refiere a pericia, aptitud, para hacer algo o la atribución de un juez para un asunto. Todas estas definiciones etimológicas tienen en común lo contradictorio del concepto, la alusión a habilidades (pericia), conocimientos (saber) y actitud (saber hacer). Evolución del Concepto de Competencia Diversos son los autores que han estudiado el polisémico concepto y realizado sus aportes teóricos-metodológicos, partiendo desde David Mc Clelland hasta la actualidad. Según, Herna [8] el concepto de competencia fue planteado inicialmente por David McClellan en 1973, quien las definió como características subyacentes en una persona que están causalmente relacionadas con los comportamientos y la acción exitosa en la actividad profesional. Las competencias son como la combinación de conocimientos, habilidades y actitudes que las personas ponen en juego en diversas situaciones reales de trabajo de acuerdo con los estándares de desempeño, grado de eficacia y eficiencia. Las competencias hacen referencia tanto al conocimiento de los requisitos técnicos del trabajo, y la puesta en práctica, como a las actitudes o rasgos psicológicos necesarios para un adecuado rendimiento. Richard Boyatzis definió las competencias laborales como: “Características subyacentes en las personas asociadas a la experiencia, que como tendencia están causalmente relacionadas con actuaciones exitosas en un puesto de trabajo contextualizado en determinada cultura organizacional”, esta misma definición la asume la máxima figura en Cuba en estudios de Gestión de Recursos Humanos, el Dr. Armando Cuesta. [9]. Como se puede apreciar en todas estas definiciones, se visualizan las competencias con términos como habilidades, conocimientos, actitudes, aptitudes, conductas observables y experiencias, sin embargo, este investigador se identifica con la definición dada por Alfredo Morales [10] quien alcanza la relevancia de buscar el alineamiento del desempeño individual con el desempeño organizacional estratégico, la definición es la siguiente: “Conjunto sinérgico de conocimientos, habilidades, experiencias, sentimientos, actitudes, motivaciones, características personales y valores, basado en la idoneidad demostrada, asociado a un desempeño superior del trabajador y de la organización, en correspondencias con las exigencias técnicas, productivas y de servicios. Es requerimiento esencial que esas competencias sean observables, medibles y que contribuyan al logro de los objetivos de la organización” Este investigador considera que entre los mayores aportes del Dr. Alfredo Morales se encuentran la inclusión de los valores, como uno de los intangibles más necesarios para ser competente, coincidiendo con Fidel [11], que en la primera graduación de la Escuela Latinoamericana de Medicina, con relación al capital humano expresó que es “…Conjunto de conocimientos, experiencias, habilidades, sentimientos, actitudes, motivaciones, valores y capacidad para hacer, portados por los trabajadores para crear más riquezas con eficiencia. Es, además, conciencia, ética, solidaridad, espíritu de sacrificio…” En resumen la competencia es una característica personal que ha demostrado tener una relación con el desempeño laboral sobresaliente en un cargo/rol o perfil determinado en una organización en particular. La competencia marca concretamente la diferencia entre un desempeño excelente y uno simplemente bueno o adecuado. En otras palabras, la competencia se observa con mayor frecuencia, en diferentes situaciones y con resultados de alto impacto en las personas cuyo rendimiento es superior. SOLINTEL, S.A, es una empresa cubana, que su objeto social es brindar servicios técnicos y profesionales de comunicaciones. En esta entidad se gestionan los recursos humanos tradicionalmente a través de los profesiogramas, los cuales no brindan posibilidad de identificar brechas en las necesidades de formación de los trabajadores ni realizar un programa de formación o capacitación, así como no existe una vinculación directa entre estos profesiogramas y las evaluaciones del desempeño, cuando se evalúan, se analizan solamente el cumplimiento de las funciones, no así las competencias, en tanto es un concepto más amplio. A través de los profesiogramas no se puede evaluar si un trabajador es competente, solo se puede evaluar si es cumplidor de funciones. Este modo tradicional de gestionar los recursos humanos no permite evaluar el crecimiento personal o profesional de los trabajadores, porque solo hace distinción entre trabajador cumplidor y no cumplidor. Por tales razones, este autor considera que determinar los perfiles de competencias coadyuvará a que se pueda realizar una gestión de los recursos humanos superior y por consiguiente el cumplimiento de la estrategia empresarial. MÉTODOS Los modelos de determinación de las competencias dependen en gran medida de los enfoques y modelos asumidos por cada país, organización o institución. En Cuba, el referente más común es el Método de Expertos o Delphi por rondas. Se aplicó este método para determinar las competencias organizacionales, las competencias de los dos procesos claves y las competencias de los puestos de los puestos claves, con este resultado se construyeron o determinaron los perfiles de competencias de los cargos de Especialista en Compra y Venta del Comercio Exterior, Especialista en Ventas y Especialista en Gestión de Proyectos. Se determinó el Comité de Competencias compuesto por siete personas con prestigio en su actuar diario, con conocimiento de la empresa, de los procesos que en ella se gestionan y con antigüedad considerables, todos estos aspectos se tuvieron en cuenta. Se capacitó a este Grupo en competencias, modelos, enfoques y tendencias, para realizar un trabajo más profesional. Se utilizaron como técnicas el Análisis Documental referido a estudios realizados sobre competencias laborales y su respectiva revisión bibliográfica. Se realizaron un total de 8 sesiones de trabajo para la determinación de las competencias a los tres niveles. Se desarrolló una Tormenta de Ideas donde expusieran las competencias Organizacionales, las de los procesos y las de los puestos. Se confección el listado al efecto. Posteriormente se utilizó la Reducción de listas, se tabularon las competencias que quedaron para cada proceso, y se definieron el grado de concordancia de ellas, desechando a las que obtuvieron menos del 60%. Finalmente se ponderaron las que alcanzaron más del 60%. RESULTADOS Y DISCUSIÓN El desarrollo de la investigación contó con cuatro fases: FASE 1. Determinación de las competencias organizacionales. Las competencias organizacionales son el conjunto de características de la organización, de modo fundamental vinculadas a su capital humano, en especial a sus conocimientos, valores y experiencias adquiridas, asociadas a sus procesos de trabajo esenciales, las cuales como tendencia están causalmente relacionadas con desempeños exitosos de esa organización, en correspondencia con determinada cultura organizacional. [12] Competencias Organizacionales 1. Acatamiento de valores: Capacidad y disposición de realizar el trabajo dentro de los principios y valores éticos bajo los cuales se rige la profesión o el puesto de trabajo. 2. Disponibilidad: Actitud y disposición para realizar tareas, asignaciones o diversas encomiendas fuera de horarios laborales y en la condiciones que la organización lo establezca. 3. Autoaprendizaje: Aptitud y actitud del individuo en procura de adquirir nuevos conocimientos técnicos y desarrollar habilidades. Implica la capacidad de apreciar y valorar nuevas formas de aprendizaje, en aras de incrementar su capacidad de realización y generación de ideas. 4. Iniciativa: Capacidad de iniciar algo o de dinamizar acciones, sin que necesariamente medie autorización o presión del superior jerárquico. 5. Capacidad de asesorar: Es la gama de conocimientos y experiencias que permiten a una personas facilitar y orientar de manera efectiva otros en los ámbitos donde se desenvuelven, aportando recomendaciones que contribuyen al logro de los objetivos. 6. Capacidad de negociación: Capacidad para obtener resultados en transacciones con otros, lo que supone el alcance de réditos tangibles como producto de las negociaciones efectuadas. FASE 2. Determinación de las competencias de procesos. Las competencias de procesos son aquellas capacidades específicas de un proceso que le permiten a este el cumplimiento de su misión y responsabilidades en tributo al desarrollo de las competencias organizacionales. [13] PROCESO: Gestión de Proyectos 1. Organización del trabajo: Capacidad requerida por el puesto para reunir información, organizarla y esquematizarla dentro de reportes, formatos y documentos propios de la gestión, incluida la observancia de procedimientos y métodos que inciden se logre alta efectividad en los cometidos del puesto de acuerdo a los requerimientos de la organización y de su entorno. 2. Orientación a la calidad: Tendencia o propensión a gestionar el cumplimiento de normas y estándares de calidad de los procesos en los que interviene o tiene a cargo, bajo el conjunto de políticas y normas que rigen esa materia. 3. Optimización del tiempo: Capacidad de administrar su agenda de trabajo de acuerdo las prioridades establecidas y dentro de los tiempos programados. 4. Orientación al Cliente: Es la tendencia permanente hacia la satisfacción del cliente y de adopción de estrategias y tácticas para brindarle el mejor servicio/producto, anticipando sus necesidades e investigando sus gustos y preferencias, de manera que se traduzca en el deleite total de este. 5. Orientación al logro: Actitud personal e intrínseca mediante la cual la persona siente una gran necesidad de logro en sus proyectos y tareas, lo que se traduce en una acción permanente hacia la búsqueda y aplicación de métodos y acciones que le permitan lograr objetivos y metas. PROCESO: Gestión de Comercial 1. Orientación al Cliente: Es la tendencia permanente hacia la satisfacción del cliente y de adopción de estrategias y tácticas para brindarle el mejor servicio/producto, anticipando sus necesidades e investigando sus gustos y preferencias, de manera que se traduzca en el deleite total de este. 2. Administración de la confianza: Capacidad para generar confianza a través de una gran disposición y siendo abierto con los que interactúa. Es coherente y tiende a hacia posiciones claras. 3. Destreza Comunicativa: Capacidad de expresar las propias ideas y entender las de los demás de manera clara y efectiva. Implica el manejo de contenidos emocionales y racionales, tanto en la comunicación verbal como no verbal. 4. Escucha activa: Capacidad para escuchar a los demás con atención y respecto, aportando el tiempo para hacerlo y mediante una actitud de total apertura. 5. Empatía: Es la sensibilidad personal para atender y comprender los sentimientos de los demás, captar emociones y buscar comprender antes de ser comprendido. FASE 3. Determinación de las competencias de los cargos o puestos. Para la definición de las competencias de los puestos este autor asume la concepción de Morales, expuesta con anterioridad. Puesto: Especialista en Compra y Venta del Comercio Exterior 1. Orientación al mercado: Capacidad para desarrollar contactos, detectar oportunidades de negocio y percibir las expectativas actuales y futuras de los clientes y el mercado. 2. Trabajo en equipo: Capacidad de promover, fomentar y mantener relaciones de colaboración eficientes con compañeros y otros grupos de trabajo para integrar esfuerzos comunes y resultados tangibles. 3. Proactividad: Tendencia a prever y planear con antelación actividades o acciones que minimicen riesgos y garanticen cumplimiento efectivo de asignaciones. 4. Organización del trabajo: Capacidad requerida por el puesto para reunir información, organizarla y esquematizarla dentro de reportes, formatos y documentos propios de la gestión, incluida la observancia de procedimientos y métodos que inciden se logre alta efectividad en los cometidos del puesto de acuerdo a los requerimientos de la organización y de su entorno. 5. Responsabilidad: Capacidad para asumir un sentido del deber a toda prueba y una propensión al cumplimiento de las responsabilidades que la organización le ha asignado, con total apego a los estándares de efectividad requerida Puesto: Especialista en Venta Nacionales 1. Orientación al Cliente: Es la tendencia permanente hacia la satisfacción del cliente y de adopción de estrategias y tácticas para brindarle el mejor servicio/producto, anticipando sus necesidades e investigando sus gustos y preferencias, de manera que se traduzca en el deleite total de este. 2. Orientación al mercado: Capacidad para desarrollar contactos, detectar oportunidades de negocio y percibir las expectativas actuales y futuras de los clientes y el mercado. 3. Toma de decisiones: Capacidad para tomar decisiones lógicas y documentadas en el momento oportuno, basándose en análisis y observaciones previas. 4. Trabajo en equipo: Capacidad de promover, fomentar y mantener relaciones de colaboración eficientes con compañeros y otros grupos de trabajo para integrar esfuerzos comunes y resultados tangibles. 5. Tolerancia a la frustración: Capacidad del individuo de sobreponerse a situaciones adversas o a resultados que no encajan en las expectativas, lo que le permite redefinir estrategias o acciones. Puesto: Especialista General (gestión de proyectos) 1. Gestión de información: Capacidad para gestionar la información organizacional mediante la acertada utilización de las diversas fuentes lo que le permite la diseminación de información válida y confiable para la toma de decisiones. 2. Gestión de Recursos: Capacidad para optimizar los diversos recursos a disposición de una manera racional. 3. Orientación a la Calidad: Tendencia o propensión a gestionar el cumplimiento de normas y estándares de calidad de los procesos en los que interviene o tiene a cargo, bajo el conjunto de políticas y normas que rigen esa materia. 4. Orientación al cliente: Es la tendencia permanente hacia la satisfacción del cliente y de adopción de estrategias y tácticas para brindarle el mejor servicio/producto, anticipando sus necesidades e investigando sus gustos y preferencias, de manera que se traduzca en el deleite total de éste. 5. Toma de decisiones: Capacidad para tomar decisiones lógicas y documentadas en el momento oportuno, basándose en análisis y observaciones previas. Solintel es una Empresa de servicios, por lo tanto, el fin de cualquier empresa de este tipo es la satisfacción del cliente, nótese que la primera competencia exigida para trabajar en esta empresa es que se acaten los valores, en consonancia con la definición de Morales (2006), pero después se observa una relación entre las competencias Disponibilidad (2da Competencia Organizacional), Orientación al cliente (4ta Competencia del Proceso Gestión de Proyectos), Orientación a la Calidad y Orientación al Cliente(3ra y 4ta Competencias de Especialistas en Gestión de Proyectos), Orientación al Cliente (1ra Competencia del Proceso Gestión Comercial), Orientación al Mercado y Orientación al Cliente(1ra Competencia del Especialista en Compra y Venta del Comercio Exterior y Especialista en Ventas) por lo que observa una alineación entre competencias organizacionales, de procesos y de puestos. (Tabla 1). En cuanto al Proceso de Gestión Comercial, este permite desarrollar las ventas, si un especialista posee estas competencias o las desarrolla, es decir, que cuente con facilidad para comunicarse, tenga una escucha activa para rápidamente administrar la confianza que el cliente deposite en él(ella), se obtenga una empatía con orientación al cliente, siempre en búsqueda su satisfacción, lo cual está en consonancia con las competencias identificadas en los puestos de Especialista en Compra y Venta del Comercio Exterior y Especialista en Ventas, la competencia que tiene la ponderación más alta se relaciona con Orientación al Cliente y Orientación al Mercado, por lo que se evidencia una alineación entre el proceso y las competencias de los puestos. (Tabla 1). Tanto los jefes de los dos procesos como la Alta Dirección validaron el trabajo realizado por los expertos en la determinación de las competencias, así como sus dimensiones. Tabla 1. Competencias a los tres niveles. Nro. Competencias Organizacionales Competencias Proceso Gestión de Proyectos Especialista Gestión de Proyectos Competencias Proceso Gestión Comercial Especialista Compra y Venta del Comercio exterior Especialista en Ventas 1 Acatamiento de valores Organización del trabajo Gestión de información Orientación al Cliente Orientación al mercado Orientación al Cliente 2 Disponibilidad Orientación a la calidad Gestión de Recursos Administración de la confianza Trabajo en equipo Orientación al mercado 3 Autoaprendizaje Optimización del tiempo Orientación a la Calidad Destreza Comunicativa Proactividad Toma de decisiones 4 Iniciativa Orientación al Cliente Orientación al cliente Escucha activa Organización del trabajo Trabajo en equipo 5 Capacidad de asesorar Orientación al logro Toma de decisiones Empatía Responsabilidad Tolerancia a la frustración 6 Capacidad de negociación El resultado final es la determinación de los perfiles de competencias de los tres puestos identificados, se expone uno de ellos para su apreciación, a los otros dos se les incorporaron las competencias de los puestos con sus respectivas dimensiones. El modelo de Perfil de Competencias asumido es el modelo cubano, expuesto por el Dr. Armando Cuesta Santos, en su libro Tecnología de gestión de los Recursos Humanos. [14] Perfil de Competencias del Especialista en Compra y Venta del Comercio Exterior I.DATOS GENERALES Denominación del cargo o puesto: Especialista en Compra y Venta del Comercio Exterior Departamento al cual pertenece: Dirección Comercial Categoría ocupacional Técnico Grupo de Escala XVIII MISIÓN DEL CARGO Responde por la organización y planificación de la actividad de importación y exportación que se realizan en la Empresa. II. REQUISITOS O EXIGENCIAS DEL CARGO Formación mínima necesaria Nivel Superior Experiencia Profesional mínima 2 años Elementales Medio Superiores Conocimientos Específicos: 1 2 3 Diplomado Comercio Exterior X Conocimientos en idioma internacional. X III REQUISITOS FÍSICOS Apto físico y mentalmente IV. FUNCIONES -Presenta y exige la correcta elaboración de las fichas de clientes a los clientes. - Presenta y garantiza de conjunto con legar la existencia de contrato de suministro con el cliente. - Recepciona y estudia las solicitudes de compra del cliente. - Solicita oferta en el mercado internacional. - Confecciona de pliego concurrencia y seleccionar la oferta. - Estudia la mejor oferta y la presenta al cliente para su aprobación. - Presenta las documentaciones necesarias para el análisis y aprobación de las operaciones comerciales a Comité de Contratación, comercial y otras según corresponda. - Confirma y efectúa el cierre de la operación comercial. - Elabora de conjunto con legal el contrato de compra-venta internacional y exige su cumplimiento, realiza el reporte de compra y trámite interno y circularlo a las áreas correspondientes. - Mantiene el control de las cargas en puerto o aeropuerto hasta su nacionalización. - Solicita la inspección de las mercancías en origen y determina de acuerdo a lo pactado en cada contrato. - Confecciona hoja de costo y factura las mercancías a los clientes. - Concilia con logística, economía y legal. - Participa en la gestión de cobros y pagos apoyando al Grupo de Contabilidad, según se requiera. V. RESPONSABILIDADES Responde por la organización, planificación y ejecución de la política de importación y exportación de la Empresa. VI. CONDICIONES LABORALES Esfuerzo Físico □No procede □ Normal x□ Medio □ Alto Esfuerzo Mental □ No procede □ Normal □ Medio x □ Alto Ambiente físico Nivel de iluminación: 300 – 500 lux / Condiciones de microclima: 21 ºC -23 ºC en invierno y en verano 26 ºC -28 ºC Exposición al ruido: 65 dBA. Riesgos más comunes - Choque contra objetos (dentro de la oficina). – Visual - Problemas Musculo-esquelético -Estrés laboral Condiciones horarias Horario de trabajo: lunes a Jueves de 8:00 a.m. a 5:30 p.m., viernes: de 8:00 a.m. a 4:30 p.m. Horario de descanso: 1 hora de almuerzo Medios que necesita para su trabajo Pc Teléfono fijo/ Móvil Acceso a Internet Correo electrónico Cultura Organizacional Su comportamiento tiene que estar acorde con todas las normas de disciplina, y con el código de ética de la Institución. Tiene que comportarse con un estricto cumplimiento de las normas de seguridad y una actitud permanente y activa contra la corrupción. Clima organizacional Valores: Compromiso Integridad Honradez Honestidad Lealtad Profesionalidad COMPETENCIAS DEL CARGO Y DIMENSIONES COMPETENCIAS DIMENSIONES Orientación al Mercado 1. Domina aspectos esenciales del entorno empresarial en donde está inmerso el negocio. 2. Realiza mediciones de pulso del mercado con el fin de mantener un adecuado posicionamiento de los productos o servicios brindados. 3. Aplica herramientas estadísticas que orientan las decisiones mercadológicas del negocio. 4. Implementa formas o métodos para consolidar la imagen del producto en los mercados respectivos. 5. Dirige acertadamente el lanzamiento de campañas de altos impacto en los consumidores. Trabajo en equipo 1. Sabe crear un ambiente propicio para el trabajo en equipo. 2. Se integra adecuadamente a la toma de decisiones grupal. 3. Asume con propiedad el rol que le es asignado en el equipo. 4. Contribuye o coadyuva a fortalecimiento de los lazos de colaboración entre los miembros del equipo. 5. Está abierto a dar y recibir críticas constructivas al interior del equipo. Proactividad 1. Es previsor y se anticipa a requerimientos o necesidades que se presentan o surgen. 2. Es proclive a iniciar acciones inmediatamente después de analizar las diversas opciones o alternativas. 3. Es eficaz en la detección de fines y medios para los cometidos que emprende. 4. Es capaz de proponer acciones en situaciones en las que otros pueden tender a la inercia. 5. Sus acciones demuestran que es una persona que tiende a tener un fin en mente. Organización del trabajo 1. Diseña y aplica formatos que facilitan el control del trabajo. 2. Establece cronogramas y da seguimiento a los mismos. 3. Realiza ajustes al avance del trabajo con base en un adecuado monitoreo. 4. Utiliza bitácoras para documentar observaciones que permiten depurar los procesos a cargo. 5. Organiza en forma sistematizada los recursos a disposición. Responsabilidad 1. Manifiesta un alto sentido del deber el cual expresa a través de un trabajo comprometido. 2. Cumple fielmente con las obligaciones en diversas situaciones y escenarios. 3. Tiene claro que las responsabilidades no son gravosas y que contribuyen a la misión del puesto y de la organización. 4. Cumple con las cuotas asignadas, los estándares fijados y con los diversos indicadores establecidos por la organización. 5. Se ausenta solo por motivos de fuerza mayor y hace lo posible para reponer el tiempo perdido. Elaborado por: Raydel Rodríguez Bruffau Firma Fecha: Revisado por: Raimundo Iriarte Travieso Firma Fecha: Aprobado por: Robelis Lambert Matos Firma Fecha: CONCLUSIONES La investigación desarrollada permite arribar a las conclusiones siguientes: 1. Se determinaron las competencias a sus tres niveles: organizacionales, de los procesos claves, así como las de los puestos de esos procesos claves. 2. La determinación de las competencias a sus tres niveles y la elaboración de los perfiles de competencias de los puestos claves permitirá a la empresa adoptar una gestión por competencias de los recursos humanos 3. Se sugiere la generalización de esta investigación a los demás procesos y puestos de la Empresa. REFERENCIAS [1] CUESTA, A, et al. “Organización del trabajo: base de la gestión del capital humano”. Revista Cubana Administración Pública y Empresarial, 2017, Vol. I /No.2, p.3 [2] CUESTA, A. Gestión de competencias y compensación laboral. Monografía. 2000. [3] RUBIÓ, T. Recursos humanos. Dirección y gestión de personas en las organizaciones. Barcelona: Ediciones Octaedro, 2016. 104 p. ISBN: 978-84-9921-824-3 [4] ALLES, M. Desempeño por competencias. Evaluación de 360º. Buenos Aires: Ediciones Granica, 2015. 83 p. ISBN: 978-65-0641-540-2 [5] CUESTA, A, et al. “Hacia las competencias profesionales 4.0 en la empresa cubana” Revista Cubana de Ingeniería, 2020, Vol. XI (1) 66-76 , 6 p. [6] ALLES, M. Dirección estratégica de Recursos Humanos. Gestión por Competencias. Buenos Aires: Editorial Granica, 3ra Edición, 2015. 78 pp. ISBN 978-950-641-849-6 [7] Diccionario de la Real Academia Española (RAE) (2001). [8] HERNA, Maria. “Modelo de gestión por competencias basado en la teoría de las necesidades de David Mc Clelland para desarrollar la gestión del talento humano en el personal docente de educación de la Fachse de la UNPRG – Lambayeque”. Tesis de Maestría. Universidad Nacional “Pedro Ruiz Gallo”, Perú. 2017. [9,14] CUESTA, A. Tecnología de Gestión de los Recursos Humanos. La Habana: Editorial Félix Varela, 2019. Cap. 6, 5p ISBN 978-959-02-0212-4 [10] MORALES, A. “Contribución para un modelo cubano de gestión integrada de recursos humanos”. Tesis presentada en opción al grado científico de Doctor en Ciencias Técnicas, Instituto Superior Politécnico José Antonio Echeverría, Facultad de Ingeniería Industrial, Ciudad de La Habana. Cuba. 2006. [11] CASTRO, F.: Discurso pronunciado en la primera graduación de la Escuela Latinoamericana de Medicina, 20 de agosto de 2005. [12] NC 3000-02:2007. Sistema de Gestión Integrada de Capital Humano-Vocabulario. La Habana: Oficina Nacional de Normalización; 2007 [13] CADALZO-DÍAZ, Y., et al. “Determinación de las competencias organizacionales y de procesos en un centro del sector biofarmacéutico”. VacciMonitor 2016; 25 (3):77-83 METODOLOGÍA PARA LA IMPLEMENTACIÓN DE LA ORGANIZACIÓN SALARIAL EN CUBATEL S.A Taimi Meralla Chala1 1CUBATEL S.A, tmeralla@gmail.com RESUMEN La presente investigación se desarrolló en la Sociedad Cubana para las Telecomunicaciones (CUBATEL S.A), localizada en la carretera de Andrade y Prensa latina, municipio Marianao, La Habana. Esta entidad pertenece al Grupo Empresarial de la Informática y las Comunicaciones (GEIC), del Ministerio de las Comunicaciones (MINCOM) de la República de Cuba, y se dedica a la creación de infraestructuras de telecomunicaciones. La investigación se centra en el análisis de la gestión de los recursos humanos en la entidad y en la implementación del proceso de organizacional salarial, que garantice y la mejora de la motivación y satisfacción de los trabajadores. Se propone como objetivo general " Implementar el proceso de Organización Salarial en CUBATEL S.A”. Durante la realización de esta investigación se emplearon técnicas y herramientas como entrevistas a especialistas del tema en cuestión, análisis y revisión documental, Método de Expertos, tormentas de ideas, entre otros. Para el procesamiento de los datos se utilizó el paquete Microsoft Office. Como resultado principal, se obtuvo el diseño y la aplicación de una metodología para la implementación de la organización salarial en CUBATEL S.A. PALABRAS CLAVES: recursos humanos, organización salarial, satisfacción laboral METHODOLOGY FOR THE IMPLEMENTATION OF THE SALARY ORGANIZATION IN CUBATEL S.A ABSTRACT The present investigation was developed in the Cuban Society for Telecommunications (CUBATEL S.A), located on the Andrade and Prensa Latina , Marianao municipality, Havana. This entity belongs to the Informatics and Communications Business Group (GEIC), of the Ministry of Communications (MINCOM) of the Republic of Cuba, and is dedicated to the creation of telecommunications infrastructures. The research focuses on the analysis of the management of human resources in the entity and on the implementation of the salary organization process, which guarantees and improves the motivation and satisfaction of the workers. It is proposed as a general objective "Implement the Salary Organization process in CUBATEL S.A". During the conduct of this research, techniques and tools were used, such as interviews with specialists on the subject in question, analysis and documentary review, Expert Method, brainstorming, among others. For data processing, the Microsoft Office package was used. As a main result, the design and application of a methodology for the implementation of the salary organization in CUBATEL S.A. was obtained. KEY WORDS: human resources, salary organization, job satisfaction 1. INTRODUCCIÓN La Sociedad Cubana para las Telecomunicaciones Sociedad Cubana para las Telecomunicaciones (CUBATEL S.A), perteneciente al Grupo Empresarial de la Informática y las Comunicaciones (GEIC), del Ministerio de las Comunicaciones (MINCOM) de la República de Cuba, se dedica a la creación de infraestructuras de telecomunicaciones, por lo que el desarrollo de sus actividades contribuirá al proceso de informatización de la sociedad. Para poder ejecutar las acciones que contribuyen a la creación de infraestructura de comunicaciones, se precisa de personal capacitado y con experiencia en la actividad que se debe realizar. Lamentablemente en los últimos años en la empresa se han evidenciado elevados niveles de fluctuación laboral, el 32,3 % de las bajas están asociadas con la mejora salarial, traslado a otros centros, salida del país y mejora de condiciones laborales, lo que evidencia la deficiencia que existe en la empresa para retener el personal, pues no se sienten estimulados. A partir de la realización de un diagnóstico de la situación actual de la entidad utilizando el Modelo de Diagnóstico, Proyección y Control (DPC) propuesto por el Dr. Armando Cuesta Santos en el año 2005, se evidenció la existencia de una deficiente gestión del capital humano, siendo la deficiente compensación laboral una de las causas con mayor influencia. Además, esta causa tiene un impacto significativo en la motivación de los trabajadores. Para dar solución a la situación problémica identificada en el diagnóstico se diseñó y ejecutó una metodología para la implementación de la organización salarial en la entidad objeto de estudio, con el fin de marcar las líneas de acción para la ejecución de este proceso tan importante para el desarrollo de la empresa. 2. METODOLOGÍA PARA LA IMPLEMENTACIÓN DE LA ORGANIZACIÓN SALARIAL EN CUBATEL S.A. La metodología está compuesta por 14 fases, en cada una de las fases se ejecutan actividades que contribuyen a mejorar la gestión de los recursos humanos en la empresa. A continuación, se representan los pasos para la implementación de la organización salarial en CUBATEL S.A: Figura 1: Metodología para la implementación de la organización salarial en CUBATEL S.A Fase 1: Presentación del proceso de Organización Salarial Durante la realización del Consejo de Dirección del 20/10/2021, se realizó una introducción al proceso de Organización Salarial, en donde se informó sobre los Decreto 53/ 2021 “De la Organización del Sistema Salarial en el Sistema Empresarial Estatal Cubano” y la Resolución 73/2021 del MTSS. Además, se puntualizaron las indicaciones del OSDE sobre este tema, los pasos a seguir y la presentación del cronograma de ejecución. En las reuniones de las secciones sindicales, así como en las reuniones habituales de cada una de las áreas de la empresa, los jefes informaron a sus subordinados sobre la realización de este proceso. Fase 2: Conformación de Equipo de Trabajo El equipo de trabajo se conformó con los miembros del consejo de dirección con una participación con carácter permanente, y con trabajadores seleccionados por su reconocido prestigio, alta calificación y dominio de los diferentes procesos organizacionales. En total forman parte del equipo 36 trabajadores, el 61,1 % son técnicos y de esos técnicos el 36,4 % ocupan cargos de especialistas principales o jefes de brigada. El equipo fue creado velando que existiera una representación de cada una de las áreas de la entidad, pues se pretendía aplicar cada una de las fases de la metodología de manera simultánea en cada departamento. Fase 3: Capacitación del Equipo de Trabajo La capacitación del equipo se ha realizado prácticamente con enfoque al estudio individual, siguiendo las instrucciones de la Directora de Capital Humanos de entidad, que se encuentra participando en la maestría de Gestión de los Recursos Humanos que dirige el profesor Dr. Armando Cuesta Santos. Utilizando el correo electrónico y el WhatsApp, se circularon los materiales de estudio necesarios, principalmente los capítulos del libro Tecnología de Gestión de Recursos Humanos del profesor Dr. Armando Cuesta Santos, los enlaces para descargar los seminarios impartidos por el Ministerio de Trabajo y Seguridad Social (MTSS) con la participación de los profesores de la Universidad Tecnológica de La Habana (CUJAE). Se realizaron encuentros en principio mensuales, pero a medida que se avanzaba en los paso de la metodología, los encuentros comenzaron a ser semanales. Dichos encuentros iniciaba con una capacitación impartida por la Directora de Capital Humano, asociada a los principales temas de interés (análisis de procesos, competencias laborales, balance de procesos, sistemas de compensación, entre otros) y se aclaraban las dudas que pudieran tener los miembros del equipo. Además se aprovechaba para socializar otras bibliografías como el libro de Organización de los Salarios de Orlando Morenos y el profesor Dr. Armando Cuesta y tesis de grados y maestrías que abordaban esta temática. Fase 4: Diagnóstico de la situación actual de la entidad El diagnóstico de la situación actual de la entidad se realizó utilizando el Modelo de Diagnóstico, Proyección y Control (DPC) propuesto por el Dr. Armando Cuesta Santos en el año 2005. Este diagnóstico aparece en el capítulo 2 de la presente tesis de maestría. Entre los principales resultados del diagnóstico se encuentran los siguientes: 1. En los últimos años en la empresa se han evidenciado elevados niveles de fluctuación laboral, el 32,3 % de las bajas están asociadas con la mejora salarial, traslado a otros centros, salida del país y mejora de condiciones laborales, lo que evidencia la deficiencia que existe en la empresa para retener el personal, pues no se sienten estimulados. 2. La aplicación de la encuesta de la naturaleza de las personas demostró que actualmente solamente el 68,97 % se siente estimulado en la empresa. 3. En los resultados de la encuesta del clima laboral se aprecia que todos los indicadores se encuentran por debajo del valor deseado, siendo la satisfacción laboral, la motivación y la cordialidad los que alcanzan los valores más bajos. 4. La aplicación del diagrama Ishikawa ponderado demuestra de la deficiente compensación laboral es una de las causas con una mayor influencia en la deficiente gestión del capital humano. Además, esta causa tiene un impactico significativo en la motivación de los trabajadores 5. Al analizar dinámicamente la información se identifica que la interacción de la fortaleza: “Empresa rentable con alta productividad y eficiencia”; y la debilidad: “Elevado nivel de fluctuación laboral”; con la amenaza: “Ofertas laborales más atractivas para el personal técnico calificado”, es bastante elevada con la oportunidad: “Aprobación de nuevas legislaciones que otorgan mayor autonomía a las empresas”. Fase 5: Análisis estratégico de la organización Se realizó un diagnóstico estratégico de la entidad a finales del año 2021. Los especialistas del Departamento de Desarrollo Institucional perteneciente a la Presidencia CUBATEL S.A fueron los encargados de desarrollar esta actividad y definieron las proyecciones estratégicas de la entidad para el período 2022-2024. A partir del análisis de los principales proyectos que se desarrollarán en la entidad, se identifica la necesidad de reformular la misión y la visión, quedando redactadas como a continuación se enuncia: MISIÓN: Continuar siendo el equipo experimentado y calificado que ofrece servicios y soluciones integrales, con altas prestaciones profesionales para el desarrollo y modernización de redes de telecomunicaciones, comprometidos con el proceso de informatización de la sociedad, orientados a satisfacer, de forma personalizada, las necesidades de nuestros clientes, en armonía con el medio ambiente. VISIÓN: Convertirnos en la empresa líder que desarrolla y sostiene la infraestructura de telecomunicaciones en el país, dispuestos a expandirnos hacia el mercado internacional. Además se definen como valores de la organización: el compromiso, el trabajo en equipo, la orientación al cambio, la integralidad y la excelencia en el servicio. Igualmente se fijan los objetivos estratégicos y anuales. Fase 6: Análisis de los procesos de la entidad Existen 13 procesos en total, de ellos 3 son declarados estratégicos, 8 claves y 2 de apoyo. Se cuenta con 13 Fichas de procesos y cada una de ellas tiene procedimientos, instrucciones y registros asociados. En el primer trimestre del 2022 se actualizaron todas las fichas de proceso y los procedimientos, se emplearon técnicas y herramientas como los diagramas de flujos y el OTIDA. Fase 7: Análisis y descripción de los puestos de trabajo Para la ejecución de esta fase se siguieron los pasos que se establecen en el PG-05-01 Procedimiento Identificación, Validación y Certificación de Competencias establecido en la entidad, pues contiene los elementos necesarios para el diseño de puestos de trabajo por competencias. 7.1 Definición del formato del perfil de puesto de trabajo El modelo de perfil de cargo que se utilizó es el RG-05-01 Perfil del Cargo por Competencia, que se encuentra integrado en el PG-05-01 Procedimiento Identificación, Validación y Certificación de Competencias. 7.2 Recopilación de Funciones según Calificadores de Cargos La Resolución 73 del 8 de septiembre del 2021 del Ministerio de Trabajo y Seguridad Social (MTSS) establece dejar sin efecto un conjunto de disposiciones jurídicas, entre las que se encuentran los calificadores de cargo, para las entidades del sistema empresarial que implementen la organización salarial, a partir de la aplicación de lo dispuesto por el Decreto 53, de 2 de septiembre de 2021, “De la organización del salario en el sistema empresarial estatal cubano”. Una vez que se implemente el Decreto 53 en la entidad se considerarán derogados los calificadores de cargos, sin embargo, los mismos pueden ser tomados de referencia para definición de las funciones de cada cargo de la empresa. Los principales calificadores cargos utilizado fueron los siguientes: • Resolución 67, de 29 de abril de 2009, Calificador de cargos técnicos de la Rama del Comercio Exterior • Resolución 77, de 18 de mayo de 2009, Calificador Común de cargos técnicos • Resolución 82, de 20 de mayo de 2009, Calificador Común de cargos de operarios • Resolución 87 de 24 de junio de 2009, Calificador Propio de cargos técnicos, de operarios y de servicios para el Ministerio de Informática y las Comunicaciones • Resolución 88, de 24 de junio de 2009, Calificador de cargos técnicos, de operarios y de servicios de la Rama de la Informática y las Comunicaciones 7.3 Identificación de funciones específicas del cargo según las actividades desempeñadas por el trabajador en el centro Los Vicepresidentes y Directores compararon y ajustaron las funciones definidas en los calificadores con respecto a las funciones reales que desempeña cada trabajador en el centro, y teniendo en cuenta las tareas que deben realizar cada cargo para poder cumplir con la misión de cada proceso. Además definieron las responsabilidades, condiciones de trabajo, calificación formal, horario de trabajo, equipos y medios de trabajo, entre otros elementos que se especifican en el modelo de profesiograma de la entidad. Posteriormente correspondería la ejecución de los pasos: Identificación de competencias y confección de la matriz de competencias, y Revisión y aprobación del Perfil del cargo por Competencia, pero los mismos se van a desarrollar en la Fase 8 de la presente metodología.. Fase 8: Definición de las competencias laborales Para desarrollar esta fase se utilizó el PG-05-01: Procedimiento de Identificación, Validación y Certificación de Competencias. Este procedimiento fue propuesto por la Dr. C. Ana María Fernández González y la Dr. C. María Julia Becerra Alonso en el año 2016. El mismo fue actualizado en el 2021.. 8.1 Constitución del Comité de Competencias El primer paso es la constitución del Comité de Competencias. CUBATEL S.A contaba con un Comité aprobado en el año 2016, pero fue necesaria su reestructuración debido a la fluctuación laboral que ha presentado la entidad y a los cambios organizativos realizados. Dicha comisión quedó integrada por un total de 11 trabajadores que representan a todas las áreas de la empresa. Además para la definición de competencias fue necesaria la creación grupo de expertos (GE1). Los miembros fueron elegidos a partir de la aplicación de un cuestionario a los trabajadores que se consideraban que iban a desempeñar correctamente esta tarea a partir de su formación y experiencia. El procesamiento de los cuestionarios permitió determinar el coeficiente de competencia (Ck) y el índice de experticidad (IE) de cada uno de los aspirantes y seleccionar a los que alcanzaron mejores resultados, quedando conformado el Grupo de Expertos por 9 integrantes. Tabla 1: Coeficiente de Competencia (Ck) e Índice de Experticidad (IE) de los evaluadores. 8.2 Capacitación del Comité de Competencias La capacitación fue organizada e impartida por la Directora de Capital Humano. Los principales temas de estudio fueron: sistema de gestión del capital humano, análisis de procesos, competencias laborales, aplicación práctica del método Delphi por rondas. Para apoyar las explicaciones se utilizaron presentaciones en Microsoft Power Point. Se realizaron 5 encuentros de duración de 45 min cada uno. 8.2 Determinación de las competencias organizacionales 8.2.1 Identificación de las competencias organizacionales La empresa tenía identificadas sus competencias organizacionales desde el año 2016, por tanto en este punto el equipo de trabajo realizó un análisis de las proyecciones estratégicas de la empresa para valorar si dichas competencias seguían siendo las distintivas de la organización. Para ello se empleó el Método Delphi por Rondas. El equipo de expertos determinó que estas seguían siendo las competencias de organización. Se utilizó el coeficiente de concordancia de Kendall para evaluar si existía concordancia entre los expertos permitiendo validar el peso específico de las competencias. Existió una pequeña variación en el orden de importancia, pues la Orientación a la gestión de personas pasó a ocupar el lugar 5 y el Compromiso con la organización el lugar 6. Además Se realizó un análisis del comportamiento actual y deseado de cada competencia según la opinión de los expertos. Tabla 2. Brechas entre el nivel actual y el deseado de cada competencia organizacional 8.3 Determinación de las competencias en los procesos 8.3.1 Selección del proceso según estrategia de la organización. En este paso se debe definir el orden de prioridad para la identificación de las competencias de los procesos. Para ello se conformó una matriz de selección de procesos y los resultados arrojaron que que el proceso clave Comercialización, es el que tienen mayor impacto sobre los objetivos estratégicos 2022- 2024. Por tanto, se seleccionó como objeto de estudio de esta investigación el proceso de Comercialización, por ser uno de los procesos claves de la empresa, por tener el mayor impacto sobre los objetivos estratégicos y porque es el proceso que jugará un papel vital en la concreción de los negocios de inversión extrajera, que son necesarios para captar divisas, mejorar la capacidad constructiva de la Competencia Conocimiento del trabajo 10 A 10 A 10 A 10 A 10 A 9 A 10 A 9 A 10 A Profesionalidad 10 A 10 A 10 A 9 A 10 A 9 A 10 A 9 A 10 A Habilidad Tecnológica 9 A 9 A 9 A 8 B 9 A 8 B 9 A 9 A 9 A Trabajo en equipo 9 A 9 A 9 A 9 A 9 A 9 A 9 A 9 A 9 A Planificación 10 A 10 A 9 A 9 A 10 A 9 A 9 A 9 A 9 A Negociación 10 A 10 A 10 A 8 B 10 A 8 B 10 A 8 B 10 A Comunicación 10 A 10 A 10 A 8 B 10 A 8 B 10 A 8 B 10 A Dominio del entorno 9 A 10 A 10 A 8 B 10 A 8 B 10 A 8 B 10 A Orientación al cliente 10 A 10 A 10 A 2 D 10 A 2 D 10 A 8 B 10 A Proactividad 10 A 10 A 10 A 8 B 10 A 8 B 9 A 9 A 9 A Compromiso con la organización 10 A 10 A 10 A 9 A 10 A 9 A 9 A 9 A 9 A Aprendizaje continuo 10 A 10 A 10 A 9 A 10 A 9 A 9 A 9 A 9 A Conciencia Ambiental 9 A 9 A 9 A 9 A 9 A 9 A 9 A 9 A 9 A 2 3 4 5 Cargos 1 986 7 empresa, gestionar certificaciones internacionales para los especialistas y técnicos y mejorar las condiciones de trabajo en la entidad. 8.3.2. Identificación y conceptualización de las competencias del proceso Para identificar las competencias del proceso, se utilizó nuevamente el Método Delphi por rondas. Se incorporaron al grupo de expertos 3 trabajadores de la Vicepresidencia de Gestión Comercial, que presentaron valores idóneos del coeficiente de competencia (Ck) y del índice de experticidad (IE), por tanto el grupo de expertos (GE2) en esta ocasión quedó conformado por 12 evaluadores. Se utilizó el coeficiente de concordancia de Kendall demostrando que existía concordancia entre los expertos. Además Se realizó un análisis del comportamiento actual y deseado de cada competencia según la opinión de los expertos y se seleccionaron las competencias representativas de cada subproceso. Tabla 2. Brechas entre el nivel actual y el deseado de cada competencia y organización de las competencias representativas de cada subproceso 8.4 Determinación de las competencias de los cargos Se tomaron como referencia las competencias organizacionales y las del proceso, y se incorporaron otras que se consideraron esenciales para los cargos. El Método empleado fue el Delphi por rondas. Se determinó el coeficiente de concordancia de Kendall demostrando que existía concordancia entre los expertos. Se determinaron los indicarores de comportamiento, lo cual permitirá la medición de cada competencia. Estos indicadores se utilizarán en los procesos de selección, capacitación y evaluación. El grupo de expertos valoró el nivel esperado para cada una de las competencias de los cargos, se utilizó el estadígrafo de la moda, para definir la dimensión .En la tabla siguiente se muestra los resultados: Tabla 3. Resumen dimensiones de competencias para cada cargo Sobproceso Competencia C1. Orientación al cliente C3. Negociación C4. Proactividad C5. Profesionalidad C7. Comunicación C3. Negociación C4. Proactividad C5. Profesionalidad C6. Planificación C7. Comunicación C1. Orientación al cliente C4. Proactividad C5. Profesionalidad C6. Planificación C7. Comunicación C1. Orientación al cliente C3. Negociación C4. Proactividad C5. Profesionalidad C6. Planificación C2. Dominio del entorno C3. Negociación C4. Proactividad C5. Profesionalidad C6. Planificación Selección, homologación y evaluación de proveedores Identificación de necesidades del cliente Gestión de la contratación económica Medición de la satisfacción del cliente Control de las compras Competencia 1 2 3 4 5 6 7 8 9 10 Orientación al cliente Actual Deseado Dominio del entorno Actual Deseado Negociación Actual Deseado Proactividad Actual Deseado Profesionalidad Actual Deseado Planificación Actual Deseado Comunicación Actual Deseado Fase 9: Balance de procesos Previo a la realización del balance, se necesita la ejecución de un estudio de tiempos, para poder definir las normas de tiempo de cada una de las actividades que integran cada proceso. Para la realización de esta investigación, las normas de tiempos se definieron aplicando la técnica de la estimación análitica, considerando la opinión de los 3 trabajadores de la Vicepresidencia de Gestión Comercial, seleccionados anteriormente, a partir del análisis del coeficiente de competencia (Ck) y de índice de experticidad (IE), que demostró que podía ser considerados expertos para la realización de esta actividad. A partir del estudio de carga y capacidad se determinó la cantidad de trabajadores necesarios en la Vicepresidencia de Gestión Comercial. En la tabla siguiente se muestran los resultados Tabla 4. Cantidad de trabajadores necesarios en el proceso de Comercialización Cargos No. Trabajadores Necesarios Vicepresidente de Gestión Comercial 1.00 Jefe de Departamento de COMEX 1.00 Especialista en Compraventa Internacional 1.00 Técnico en Logística de Importación 1.00 Jefe de Ventas Nacionales 1.00 Especialista General 1.00 Especialista Comercial 3.00 Técnico en Facturación 1.00 Asesor Jurídico 1.00 Fase 10: Evaluación de los puestos de trabajo Se aplicó el método de sistemas de puntuación, pues es un método analítico que.se considera el más completo para determinar la complejidad de los puestos de trabajo. Se tomó como material de apoyo el libro “Organización de los Salarios” del Dr. Armando Cuesta y Orlando Moreno, 1986; pues establece una Metodología para la evaluación de cargos de técnicos” Se definieron los factores a evaluar, utilizando los que establece la mencionada metodología: F1. Factor de ejecución: refleja la complejidad en el ejercicio del cargo expresada en el grado de dificultad del trabajo que debe realizarse, los requerimientos de independencia y la toma de decisiones técnicas o su preparación, así como su implicación sobre los resutados del trabajo. F2. Factor de preparación teórico-práctico: se valoran las exigencias de preparación general y técnico- profesional, así como el tiempo necesario en la actividad para adquirir los conocimientos prácticos que le permiten ejecutar eficientemente las tareas asignadas. Comprende tanto la preparación profesional como la experiencia. F3. Factor de responsabilidad: considera el conjunto de deberes y obligaciones que implica el cumplimiento del contenido del trabajo, abarca las posibles afectaciones por la ocurrencia de errores y sus consecuencias económicas y sociales. Posteriormente, se estableció una diferenciación de los factores, asignándoles valores relativos teniendo en cuenta el nivel de importancia en la ejecución de las actividades a realizar. Para determinar los valores relativos, se utilizó el Método Delphi, trabajando con el grupo de expertos GE1. En la Tabla 5 se muestran los valores relativos de cada factor y la cantidad de puntos correspondiente a cada uno, fijando una puntuación total de 660. Para determinar el total de puntos de cada factor, se multiplicó el valor relativo de cada uno de ellos por 660. El valor mínimo del rango se cálculo empleando la siguiente fórmula: Tabla 5. Valor relativo de cada factor Mín. Máx. Mín. Máx. Mín. Máx. Vicepresidente de Gestión Comercial 40 25 35 264 165 231 98 264 56 165 79 231 Jefe de Departamento de COMEX 40 25 35 264 165 231 98 264 56 165 79 231 Especialista en Compraventa Internacional 50 20 30 330 132 198 122 330 45 132 68 198 Técnico en Logística de Importación 50 20 30 330 132 198 122 330 45 132 68 198 Jefe de Ventas Nacionales 40 25 35 264 165 231 98 264 56 165 79 231 Especialista General 50 30 20 330 198 132 122 330 68 198 45 132 Especialista Comercial 50 20 30 330 132 198 122 330 45 132 68 198 Técnico en Facturación 50 20 30 330 132 198 122 330 45 132 68 198 Asesor Jurídico 50 20 30 330 132 198 122 330 45 132 68 198 F1 F2 F3 F1 F2 F3 F1. Ejecución F2. Preparación F3. ResponsabilidadCargo Valor Relativo (%) Máxima puntuación a alcanzar Rangos El grupo de expertos otorgó una puntuación a cada factor y posteriormente se realizó una sumatoria de las puntuaciones para determinar el grupo de escala de cada cargo, teniendo en cuenta las categorías ocupacionales de los mismos y empleando la tabla de escala salarial elaborada por el grupo de expertos. Los resultados finales se muestran a continuación: Tabla 6. Puntuación de los factores y asignación de grupo de escala Fase 11: Diseño de estructura organizacional y plantilla de cargos 11.1 Análisis y rediseño de la estructura organizacional Teniendo en cuenta las proyecciones estratégicas de la entidad, el grupo de expertos GE1, a través de un análisis grupal, rediseñó la estructura organizacional de CUBATEL S.A. El principal cambio fue la fusión de las áreas División de Proyecto y División Técnica de Equipos, con el objetivo del fortalecimiento de los procesos que en ellas se ejecutan y para que se encuentren en mejores condiciones de afrontar los proyectos futuros. En el caso específico del proceso objeto de investigación, la estructura organizacional Mínima Máxima Mínima Máxima VII --- 233 XIII --- 495 VIII 234 294 XIV 496 551 IX 295 355 XV 552 597 X 356 416 XVI 598 628 XI 417 477 XVII 629 649 XII 478 538 XVIII 650 660 XIII 539 599 XIV 600 660 Categoría ocupacional Técnicos Grupo Escala Puntuación Categoría ocupacional Cuadros Grupo Escala Puntuación Vicepresidente de Gestión Comercial 299 92 177 239.2 115.0 206.5 560.7 XV Jefe de Departamento de COMEX 262 92 141 209.6 115.0 164.5 489.1 XIII Especialista en Compraventa Internacional 221 82 117 221.0 82.0 117.0 420.0 XI Técnico en Logística de Importación 169 69 84 169.0 69.0 84.0 322.0 IX Jefe de Ventas Nacionales 262 92 141 209.6 115.0 164.5 489.1 XIII Especialista General 172 82 117 172.0 123.0 78.0 373.0 X Especialista Comercial 204 82 117 204.0 82.0 117.0 403.0 X Técnico en Facturación 152 69 84 152.0 69.0 84.0 305.0 IX Asesor Jurídico 238 82 147 238.0 82.0 147.0 467.0 XI Técnico Cuadro Grupo Escala según categoría ocupacional TOTAL Puntuación de los factores ajustados F1 F2 F3 Cargo Puntuación de los factores F1 F2 F3 propuesta incluye un Departamento de Ventas Nacionales, área que no existía en la estructura pasada y además incluye un asesor que se subordine directamente a la Vicepresidenta de Gestión Comercial. Figura 2: Estructura organizacional 11.2 Determinación de plantilla Teniendo en cuenta los resultados del balance de carga y capacidad, la determinación de los grupos de escala y el diseño de la estructura organizacional, se procede a conformar la plantilla. En este caso solamente se muestra la plantilla de la Vicepresidencia Comercial, pues al momento del desarrollo de esta tesis aún no se ha terminado de implementar las fases de esta metodología en todos los procesos de la empresa. Tabla 7. Plantilla de Vicepresidencia Gestión Comercial Descripción Órgano/Cargo/Técnica Categoría ocupacional Cantidad de cargos Nivel de preparación Grupo escala Vicepresidente CE 1 NS XV Asesor "B" Jurídico T 1 NS XI 2 Jefe de Departamento CE 1 NS XIII Especialista en Compraventa Internacional T 1 NS XI Técnico en Logística de Importación T 1 NMS IX 3 Jefe de Departamento CE 1 NS XIII Especialista General T 1 NS X Especialista Comercial T 3 NS X Técnico en Facturación T 1 NMS IX 6 11 Área: Vicepresidencia Gestión Comercial Departamento: Vicepresidencia Gestión Comercial Subtotal del departamento: Área: Vicepresidencia Económica - Financiera Departamento: Departamento de Comercio Exterior Subtotal del departamento: Área: Vicepresidencia Económica - Financiera Departamento: Departamento de Ventas Nacionales Subtotal del departamento: Subtotal del área: Fase 12: Estudios comparativos Se tomaron como referencia las experiencias de las empresas DESOFT y SOFTEL, que pertenecen al Grupo Empresarial de la Informática y las Comunicaciones, para buscar equilibrio entre los salarios a adoptar y evitar que los empleados se sientan atraídos por otras empresas del sector debido a los salarios. Fase 13: Determinación de la compensación salarial 13.1 Determinación de la escala salarial El grupo de expertos GE1 con el apoyo del resto de los directivos que pertenecen al consejo de dirección, a través de tormentas de ideas y de análisis grupales, conformaron la escala salarial a utilizar en la entidad. Tabla 8. Escala salarial Con esta escala se logra lo siguiente: • El salario mínimo de la empresa se incrementara en 1,5454 veces • El salario del Presidente creciera en 1,5129 veces. • Proporción entre el salario máximo y el mínimo de 3. 13.2 Diseño del sistema de compensación La autora de esta investigación propone a los directivos de entidad analizar la implementación de un sistema de pago de “salario fijo con rendimiento controlado (SFRC)”. Este sistema no pertenece estrictamente a la remuneración por tiempo, como tampoco a la remuneración por rendimiento. El sistema de SFRC significa transición entre los dos tipos de remuneración, manteniéndose en ese estadio “transicional”. Con este tipo de sistema se garantiza que el trabajador se comprometa a alcanzar un desempeño mínimo especificado, a cambio de determinada remuneración fija, y por los sobrecumplimientos que obtenga en su desempeño recibirá primas que favorezcan al incremento de su remuneración salarial. El ingreso de los trabajadores estará compuesto de una parte fija, que se corresponde con el salario básico y una parte móvil asociada a los resultados. Además del sistema de pago debe diseñarse un sistema compensación que incluyan aspectos motivacionales. En el diagnóstico se evidenció que las condiciones de vida son regulares para el 41,38 % de los trabajadores encuestados, implementar un programa de viviendas, ya sea de construcción o de reparación de viviendas. Igualmente debe diseñarse el reglamente de emulación, fomentarse el presupuesto atención al hombre, mejorar las condiciones de trabajo, etc. Fase 14: Medición y control La implementación de la organización salarial en la entidad tiene como finalidad mejorar la motivación de los trabajadores y minimizar los niveles de fluctuación laboral. Entre los objetivos estratégicos de la entidad para el período 2022-2024 se encontraban los siguientes: Grupo Escala Servicios Operarios Técnicos Cuadros Coeficiente Salario Escala I 1.00000 3,400.00 II 1.05882 3,600.00 III 1.11765 3,800.00 IV 1.17647 4,000.00 V 1.23529 4,200.00 VI 1.32353 4,500.00 VII 1.41176 4,800.00 VIII 1.50000 5,100.00 IX 1.58824 5,400.00 X 1.70588 5,800.00 XI 1.82353 6,200.00 XII 1.94118 6,600.00 XIII 2.05882 7,000.00 XIV 2.20588 7,500.00 XV 2.35294 8,000.00 XVI 2.50000 8,500.00 XVII 2.64706 9,000.00 XVIII 2.94118 10,000.00 OE 3 - Continuar incrementando el desarrollo de conocimientos y habilidades en el capital humano, con énfasis en las certificaciones de nuestros especialistas y la organización. OE5 - Consolidarnos como una organización eficiente y ordenada, garantizando la aplicación del Sistema de Ciencia e Innovación Tecnológica con todos los factores que intervienen. Se proponen un conjunto objetivos tácticos para el cumplimiento de los objetivos estratégicos mencionados y los indicadores correspondientes a cada uno de ellos. 1. Definir los roles de los procesos de la empresa 2. Identificar las competencias asociadas a cada rol profesional de la empresa 3. Determinar la complejidad correspondiente a cada rol profesional clave 4. Diagnosticar las necesidades de capacitación de cada rol 5. Cumplir el Plan de Capacitación 6. Aumentar la satisfacción de los trabajadores 7. Disminuir la fluctuación laboral 3. CONCLUSIONES La aplicación de esta metodología para la implementación del proceso de organización salarial en CUBATEL S.A contribuirá a elevar la motivación de los trabajadores y disminuir los niveles de fluctuación laboral. RECONOCIMIENTOS “La autora desea agradecer a todos los trabajadores de la empresa, pues su colaboración fue esencial para desarrollo de esta investigación. Igualmente se agradece el asesoramiento de todos los profesores de la Maestría de Gestión de los Recursos Humanos, en especial al profesor Dr. Armando Cuesta Santos”. sobre la autora Ingeniera Industrial con más de 8 años de experiencia en la actividad de la gestión de los recursos humanos y que se desarrolló en el sector de las telecomunicaciones. DIAGNOSTICO DE LA GESTIÓN DEL CAPITAL HUMANO Y COMPETENCIAS CLAVES DE LA OSDE GEIC. DIAGNOSIS OF HUMAN CAPITAL MANAGEMENT AND KEY COMPETENCIES OF THE OSDE GEIC. Lic. Elaine de la Caridad Rodriguez Coda 1* Dr. Armando Cuesta Santos 2 *1 Grupo Empresarial de la Informática y las Comunicaciones, Especialista en Gestión del Capital Humano, Cuba; elaine.rodriguez@geic.cu 2 Universidad Tecnológica de la Habana José Antonio Echeverría, Profesor Titular, Cuba, armandocuestasantos@gmail.com RESUMEN Los cambios que hoy se producen en el entorno empresarial, caracterizados por la globalización de la economía, y la continua introducción de las nuevas tecnologías, las ventajas competitivas son y seguirán siendo las personas. La OSDE GEIC, tiene como uno de sus objetivos, fortalecer las competencias profesionales y emocionales del capital humano, como elemento básico para mejorar continuamente su competitividad en el cumplimiento de su misión esencial, la informatización de la sociedad cubana. y los indicadores conductuales. Se aplicó la tecnología de diagnóstico, proyección y control (GRH -DPC) arrojando una deficiente gestión del capital humano provocada por la insuficiente identificación y desarrollo de las competencias laborales, la inexistencia de vínculo entre la gestión del capital humano, la estrategia empresarial e indicadores de gestión ha provocado que el desempeño individual no tribute al desempeño estratégico organizacional. El objetivo de esta investigación es diagnosticar la Gestión del Capital Humano y de manera específica, determinar las competencias organizacionales. Los resultados contribuirán en un crecimiento tanto personal como organizacional, mejorar los procesos, impulsar la formación y la educación, fomentar el trabajo en equipo y la colaboración, identificar fortalezas y debilidades de manera personalizada, mejorar la percepción de equidad, transparencia y justicia, para no capacitar por capacitar, sino hacerlo de una manera más eficiente. PALABRAS CLAVES: Gestión por competencias, Gestión del Capital Humano, Competencias Laborales. ABSTRACT The changes that occur today in the business environment, characterized by the globalization of the economy, and the continuous introduction of new technologies, the competitive advantages are and will continue to be people. The OSDE GEIC, has as one of its objectives, to strengthen the professional and emotional skills of human capital, as a basic element to continuously improve its competitiveness in the fulfillment of its essential mission, the computerization of Cuban society. and behavioral indicators. The diagnosis, projection and control technology (GRH -DPC) was applied, showing poor human capital management caused by insufficient identification and development of labor skills, the lack of a link between human capital management, business strategy and indicators. of management has caused that individual performance does not contribute to organizational strategic performance. The objective of this research is to diagnose Human Capital Management and, specifically, to determine organizational competencies. The results will contribute to both personal and organizational growth, improve processes, promote training and education, encourage teamwork and collaboration, identify strengths and weaknesses in a personalized way, improve the perception of fairness, transparency and justice, to not training for training's sake, but doing it more efficiently. Keywords: Management by competencies, Human Capital Management, Labor Competencies. 1. INTRODUCIÓN Los cambios que hoy se producen en el entorno empresarial, caracterizados por la globalización de la economía, y la continua introducción de las nuevas tecnologías en los procesos de producción y administración en las organizaciones, han provocado, cambios en las estructuras al interior de las mismas. En ese entorno de intensa competencia global, las ventajas competitivas son y seguirán siendo las personas. Esta nueva realidad también ha modificado el contrato entre las organizaciones y sus miembros, basándose en nuevas formas para potenciar al máximo las competencias de su personal. Para dar respuesta a este gran reto, muchas empresas han optado por la aplicación de un sistema de gestión del capital humano por competencias, como una alternativa para impulsar la formación y la educación, en una dirección que logre un mejor equilibrio entre las necesidades de las organizaciones y sus miembros. Las competencias claves son parte esencial de la gestión como elemento estratégico de la organización en el mundo actual de negocios con un alto nivel de competitividad. Es esencial que la empresa defina bien sus competencias clave en base a las metas organizacionales, la misión, visión y valores de la empresa ya que de esto depende que dichas competencias sean adoptadas por el equipo de trabajo y formen parte del día a día de las operaciones y procesos de la empresa, lo que llevará a conseguir la ventaja competitiva que se busca y fortalecer la cultura organizacional propia de la empresa. Estas competencias organizacionales deben estar en todos los colaboradores de la empresa y deben ser exhibidas por ellos incluyendo todos los niveles jerárquicos. Por lo general estas habilidades están altamente relacionadas con la competencia central en la que se basa la empresa, son las actitudes según las cuales las personas se identifican con la empresa y se comprometen a ayudar al éxito y crecimiento de la misma mediante la aportación de sus conocimientos, experiencia y esfuerzo. Es muy importante fomentar y tener muy presentes las competencias organizacionales en el proceso de gestión de capital humano desde que se inicia con el reclutamiento y selección de nuevos integrantes del equipo de trabajo ya que esto permitirá contar con talento humano que comparte la filosofía y cultura de la empresa lo que se traduce en un mejor desempeño laboral, retención de talento y un clima organizacional más positivo, por el contrario cuando las personas que ingresan a la empresa no comparten estos valores y no cuentan con estas habilidades puede resultar un peligro potencial para la cultura organizacional, lo que te lleva a no lograr las metas ni la ventaja competitiva esperada. La gestión por competencias constituye una herramienta indispensable para el factor humano como fórmula para ganar flexibilidad en la empresa y optimizar los procesos. Su implementación implica cambios profundos en la forma de concebir el desempeño, la evaluación, la retribución y el desarrollo de carrera. Pone énfasis en señalar qué conductas son necesarias para alcanzar los resultados e incentiva a mantener conductas favorables y continuar con el desarrollo del colaborador. El Grupo Empresarial de la Informática y las Comunicaciones, en forma abreviada GEIC se crea mediante la Resolución No. 629/2014 del Ministro de Economía y Planificación, de fecha 3 de septiembre de 2014, atendido por el Ministerio de Comunicaciones, cumple las funciones de dirección, coordinación y control de su sistema empresarial integrado por 8 empresas económicas y 5 empresas instrumentales. Somos un Grupo Empresarial cuya misión es dinamizar el desarrollo integral de infraestructuras y servicios informáticos innovadores, con fuerza de trabajo calificada y comprometida, en función del proceso de informatización de la sociedad cubana, para contribuir de manera sostenible al progreso económico y social del país. La presente investigación tiene como objetivo diagnosticar la Gestión del Capital Humano, a través del modelo de GRH- DPC, y de manera específica, sistematizar los referentes teóricos y metodológicos sobre la gestión por competencia y determinar las competencias organizacionales. Con esta investigación se beneficiará tanto la organización como todos los empleados ya que tendrán la oportunidad de tener identificadas y evaluadas las competencias, medir su desempeño tanto cualitativamente como cuantitativamente, contribuyendo a fortalecer sus competencias y estar preparados para futuras oportunidades dentro y fuera de la organización, así como generar en ellos el autodesarrollo. Y la organización se beneficiaría en un crecimiento organizacional, mejorar los procesos, fomentar el trabajo en equipo y la colaboración, identificar fortalezas y debilidades de manera personalizada, mejorar la percepción de equidad, transparencia y justicia, para no capacitar por capacitar, sino hacerlo de una manera más enfocada y aterrizada al problema, además de tener la seguridad de que cuenta con el mejor personal calificado. 2. MATERIALES Y MÉTODOS La metodología empleada, que permite desarrollar esta investigación es descriptiva, cualitativa y cuantitativa. El objetivo principal del estudio fue: Diagnóstico de la Gestión del Capital Humano en el Grupo Empresarial de la Informática y las Comunicaciones y determinar las Competencias Claves de la Organización una vez concluido el ejercicio estratégico hasta el año 2024, donde se definieron la misión, visión, valores centrales, conductas estratégicas, áreas claves y objetivos e indicadores. Para la realización del diagnóstico del sistema de Gestión del Capital Humano de la OSDE-GEIC, se aplicó el modelo de Diagnóstico Proyección y Control (DPC) del Libro de Tecnología de los Recursos Humanos-2019 escrito por el Dr. Armando Cuesta Santos. En el diagnóstico se utilizaron técnicas, instrumentos que permitieron caracterizar la fuerza laboral, además, se aplicó una lista de chequeo de la tecnología de diagnóstico del Capital Humano que evalúa el nivel de cumplimiento de los requisitos de la NC: 3001/2007 sobre el Sistema de Gestión Integrado del Capital Humano, lográndose detectar los principales problemas en la Gestión del Capital Humano de la OSDE-GEIC. El modelo de Gestión del Capital Humano (DPC), comienza con el análisis de los factores de base que son las fuerzas decisivas del entorno y del interior de la organización. A partir de aquí se comienzan a evaluar las características de la fuerza laboral de la organización, la cultura organizacional, los atractivos de la organización, la tecnología de la tarea, la leyes y valores de la sociedad y los grupos de interés. Este modelo viene acompañado de un conjunto de herramientas e instrumentos de trabajo que se utilizaron como: Encuesta de la Naturaleza de las personas, encuesta de Linkert, encuesta de satisfacción laboral, encuesta de organización que aprende, el método Ishikawa para el análisis de causa efecto, utilizamos el Ishikawa ponderado para determinar las principales causas que inciden en el efecto. Dentro de las técnicas aplicadas está la Dinámica de Grupo, la cual es una técnica de discusión verbal para debatir sobre un tema y alcanzar un acuerdo sobre el mismo, el objetivo fue identificar a través de la tormenta de ideas las competencias más importantes de la organización y que se necesitan para cumplir con la misión y visión y en armonía con los valores. El método Delphi se utilizó para la elección de las competencias laborales, que implica la formación de un grupo de expertos, los cuales, a través de diferentes rondas de cuestionarios, se detienen después de haber alcanzado un consenso sobre el tema en discusión. Se realizaron 3 rondas de cuestionamientos: Primera ronda, donde a cada experto (E) del grupo se le entrega una hoja de papel en la cual debe responder de forma individual. Pregunta: ¿Cuáles son las competencias que identifican a esta organización/ proceso/puesto? Los especialistas que aplican el método listan todas las competencias, y después reducen el listado erradicando repeticiones o similitudes. Segunda ronda. Se le entrega por separado a cada experto una hoja de papel donde es mostrada la matriz de resultados. Pregunta: ¿Está Ud. de acuerdo en que esas son verdaderamente las competencias para esta organización/proceso/ puesto? Con las que no esté de acuerdo márquelas con N Una vez respondida la pregunta y recogidas las respuestas de todos los expertos, es determinado el nivel de concordancia a través de la expresión: CC.= [1 – (Van / Vt)] * 100 donde, Cc: coeficiente de concordancia expresado en porcentaje. Vn: cantidad de expertos en contra del criterio predominante. Vt: cantidad total de expertos. Tercera ronda. Pregunta: ¿Que ponderación o peso Ud. daría a cada una de las C, con el objetivo de ordenarlas atendiendo a su importancia en el desempeño de máximo éxito? Aquí le es orientado a los E que el número 1 es la más importante, 2 la que sigue en importancia, hasta n= cantidad de competencias que queden de la segunda ronda, que será la de menos importancia. Se insiste en que no deben ocurrir “ligas” o iguales ponderaciones a una misma competencia, pues se reduciría el poder de ordenamiento o discriminación. Recogidas las respuestas se ordenan las ponderaciones de acuerdo al valor de la sumatoria por filas indicada por Rj. Esta variable después permitirá el ordenamiento según el valor discreto de Rj media, y con posterioridad se calcula el nivel de concordancia. No debe dejarse de advertir que este ordenamiento a nivel de puesto contribuye, o es consecuente 3. RESULTADOS Y DISCUCIÓN La OSDE-Geic, cuenta con una plantilla de 77 cargos aprobados al cierre del primer semestre del año 2021 y un total de 73 trabajadores que representa un 95% de su completamiento, en la Figura 2, se observa el total de trabajadores por categoría ocupacional. Del total de cargos aprobados 22 están diseñados para desarrollar actividades claves dirigidas a orientar, controlar y asesorar a las empresas integradas al Grupo Empresarial en el cumplimiento de los objetivos estratégicos trazados a mediano y largo plazo. Significar que el 96% de los cargos aprobados son de fuerza de trabajo calificada a partir de la alta complejidad y responsabilidad de la organización, la que exige una fuerza de trabajo altamente calificada y comprometida para cumplir con la misión y alcanzar la visión proyectada. Por lo tanto, contamos con un total de 71 trabajadores con calificación representando el 96% del total de trabajadores, en el que predomina el nivel superior. Figura 1. Completamiento de la plantilla Figura 2. Total de trabajadores por nivel educacional Contamos con un total de 45 mujeres que representa el 62% de la fuerza laboral, donde se evidencia la igualdad de género en nuestra organización, mostrándose en la Figura 3 Representación de la mujer en la OSDE-Geic. Destacar que del total de cuadros el 57% es representado por mujeres, el 66% de los técnicos por las féminas y el 42 % alcanzaron grado científico. Figura 3 Representación de la mujer en la OSDE – Geic El rango de edad con mayor representación en la organización es de 51 a 60 años de edad, contando con el 37% de la masa de trabajadores, siendo positivo para para la OSDE, teniendo en cuenta que requiere de un personal con años de experiencia y experticia necesaria para orientar y asesorar a las empresas integradas a la OSDE-Geic, en cuanto a la estrategia a seguir y los resultados alcanzar a nivel de Grupo Empresarial. Figura 4 Composición de la fuerza laboral por rango de edad Como se muestra en la figura han alcanzado grado científico un total de 12 profesionales de ellos: 11 Master y 1 Doctor. La fluctuación laboral en el periodo que se evalúa es baja con un índice de 0.01% y un índice de rotación de 1.4. Por tanto, la fuerza laboral se ha mantenido lográndose la permanecía siendo positivo para la organización. En este resultado incide de forma significativa la implementación de modalidad del teletrabajo a partir de la situación epidemiológica que enfrenta el país por la enfermedad de la Covid-19, que ha traído grandes retos para todas las organizaciones de forma general. En la actualidad se mantienen laborando en la modalidad del teletrabajo un total de 53 trabajadores que representa el 73% del total. Se les garantiza a todos los trabajadores que laboran en esta modalidad los recursos necesarios para el desarrollo y cumplimiento de las tareas, equipos de cómputo (móviles, laptops, PCs) conectividad, mobiliarios y el transporte para acudir a la organización cuando se necesario. Resultados de la Encuestas sobre la Naturaleza de las Personas En la OSDE-Geic fue aplicada la encuesta sobre la Naturaleza de las Personas con el propósito de caracterizar a sus trabajadores evaluando su motivación en el trabajo, si sienten que conviven dentro de la organización en un clima laboral favorable para el desarrollo de su trabajo, si el trabajo se realiza en equipo y sobre todo se vean reflejados en el cumplimiento de los objetivos estratégicos de la organización. Para aplicar la encuesta de determinó una muestra de 43 trabajadores por el Software Determine Simple Size definiendo un margen de error del 10%, un nivel de confianza del 95% con una población de 74 trabajadores. Significar que solo fue posible aplicar la encuesta a un total de 19 trabajadores de ellos: 4 directivos y 15 técnicos. Datos Personales Del total de trabajadores encuestados el 84% son mujeres y el 16% son hombre. Mencionar que el 58% del total de trabajadores están casados y el 42% son solteros, por otra parte, el 84% viven en buenas condiciones y el 16% en condiciones regulares. El rango de edad de los encuestados se encuentra entre 31 y 61 años, siendo la edad promedio 45 años. Motivación Los indicadores que evalúan la motivación arrojaron el siguiente resultado: El 94% de los trabajadores les gusta el trabajo que realizan, siendo este resultado positivo para la organización. El 100% de los trabajadores se sienten estimulados por la OSDE-Geic, el 100% consideran que desempeña correctamente su trabajo, argumentando de forma general que no han recibido señalamiento de sus superiores, por los resultados obtenidos, por la preparación constante, por la calidad con la que realiza el trabajo, entre otras. Un 58% alega que puede realizar otras funciones y el 42% no las puede realizar. Estos fundamentan que les gustaría realizar funciones como, comercial, auditoría, planeación estratégica, entre otras, y el 100% quiere superase tanto en posgrados, cursos y maestrías. Todos tienen aspiraciones a cursar una especialidad de postgrados, maestrías y doctorado, para alcanzar un alto nivel de competencias en el trabajo que desarrollan, convertirse en expertos en los temar relacionados con su especialidad, etc. Clima Organizacional En el componente del clima organizacional se midieron un total de 8 indicadores evaluando el estado actual de la organización y el estado deseado, con un rango de puntuación del 1 al 7, siendo el 1 menos importante y el 7 el de mayor importancia. Para calcular los indicadores se halló la moda, analizando los valores con un mayor número de repeticiones. Figura 5 Resultados de la encuesta sobre clima organizacional. Se puede evidenciar por los resultados arrojados, que, de forma general existe un clima organizacional favorable dentro de la OSDE-Geic, no obstante, se debemos continuar trabajando para alcanzar el estado deseado por nuestros trabajadores. Cultura Organizacional. La cultura organizacional es clave en el momento de captar su fuerza laboral. Se trata de los principios que conforman la personalidad de la organización que se deriva de un conjunto de percepciones, sentimientos, actitudes, hábitos, creencias, valores, tradiciones y formas de interacción dentro y entre los grupos existentes. Por la importancia que tiene la cultura organizacional para lograr ser una organización exitosa, se aplicó la Encuesta Likert a 19 trabajadores de una muestra calculada de 43, con el objetivo de evaluar el nivel de compromiso de los trabajadores y directivos con la organización. Significar que del total de encuestados 4 son directivos. En el Anexo 8 se muestra la encuesta Likert. A partir de la unión de las calificaciones de los 19 apartados que componen la encuesta obtenida por la media de los puntos, se obtiene como resultado que la organización tiene un estilo de dirección consultivo teniendo en cuenta que la puntuación es de 14.08. Atractivo de la organización. Las mejores organizaciones para trabajar tienen algo en común: han logrado brindar una experiencia laboral y un estilo de vida que sus empleados valoran. Estos son algunos de los rasgos que harán atractiva a una organización para el mercado laboral y para la competencia. Teniendo en cuenta el modelo DPC, para evaluar el atractivo de una organización se seleccionaron a partir de técnicas empleadas, cinco indicadores para medir la satisfacción laboral de la OSDE-Geic, siendo estos los siguientes: 1. Satisfacción con el salario. 2. Satisfacción con el trabajo. 3. Protección e higiene del trabajo. 4. Organización del trabajo. 5. Funcionamiento de la emulación. En cada uno de los indicadores de la lista de comprobación se despliegan una serie de preguntas para evaluar el grado de satisfacción laboral de los trabajadores. Para aplicar la encuesta se tomó el mismo número de trabajadores que participaron en las encuestas anteriores. Una vez aplicada la lista de comprobación, se alcanzó un coeficiente de satisfacción laboral de 43%, donde incide la Protección e Higiene en el Trabajo y el Salario. Figura 6 Coeficiente de satisfacción laboral Tecnología de las Tareas La OSDE.Geic, cuenta con un alto componente de equipamientos de cómputos y tecnológicos que permites el buen funcionamiento de las actividades en los procesos que la componen. La gran mayoría de los trabajadores por las funciones que realizan cuentan con conectividad y acceso a internet y a las redes sociales lo que permite tener un mejor desarrollo y una organización informada. Por otra parte, cada área como Logística, Desarrollo Tecnológico, Organización y Capital Humano, Economía y Finanzas entre otras, cuenta con software específicos para el procesamiento de datos e información. La organización está implementando el Sistema Integrado de Gestión, por tanto, están definidos los procesos estratégicos, claves y de apoyo, los cuales se observan en la Figura 8. También están definidas las relaciones entre los procesos, teniendo en cuenta las entradas y salidas de los mismos. Figura 7 Mapa de Proceso de la OSDE GEIC Dirección estratégica A partir del cuestionario de preguntas que ofrece el modelo DPC, se realizó el diagnostico al proceso P-01 de Dirección Estratégica de la OSDE-Geic, donde se obtuvo el siguiente resultado: La organización está inmersa en un ejercicio estratégico con la participación de la alta dirección y trabajadores que gozan de prestigio en la OSDE y directivos del sistema empresarial, cuyo objetivo es proyectar una estrategia para el periodo 2022-2024. Hasta la actualidad solo se han definido la misión, visión y valores centrales de la organización siendo estos los siguientes: Misión: Somos un grupo empresarial del sector de la informática y las comunicaciones. Nuestra misión es dinamizar el proceso de informatización de la sociedad cubana, mediante el desarrollo integral de infraestructuras y servicios informáticos innovadores, con una fuerza de trabajo altamente calificada y comprometida. Visión: Somos una organización empresarial de referencia en el proceso de informatización de la sociedad cubana, por la inserción efectiva de nuestros servicios y soluciones TIC y las competencias de nuestros profesionales. La organización establece cinco áreas claves y los objetivos estratégicos a nivel de Grupo Empresarial para el período 2022-2024, a saber: Área: Perspectiva Cliente 1. Lograr una inserción efectiva y segura de aplicaciones y servicios innovadores. Área: Perspectiva Financiera. 2. Asegurar el crecimiento y desarrollo sostenible del GEIC. Área: Perspectiva Aprendizaje 3. Lograr que la gestión del capital humano y la aplicación de la política de cuadros, garanticen el cumplimiento de los objetivos del GEIC. 4. Asegurar la continuidad de la dirección revolucionaria y profesional en los cargos de cuadros. Área: Perspectiva de Procesos Internos 5. Perfeccionar el sistema de dirección y gestión empresarial del GEIC. El cumplimiento de los objetivos estratégicos se mide a partir de indicadores que se evalúan y analizan trimestralmente por los directivos y trabajadores. Estos se discuten en los consejos de dirección ampliados con la participación de los directivos de la OSDE y su sistema empresarial. Valores Centrales Sentido de pertenencia: Nos sentimos parte de la empresa y tomamos sus objetivos como propios. Creatividad: Buscamos nuevas alternativas de solución para resolver los problemas que se presentan, con el fin de alcanzar los objetivos propuestos. Trabajo en equipo: Unimos esfuerzos y compartimos conocimientos, experiencias e información. Profesionalidad: Nos desempeñamos con esmero, de forma competente y bajo los principios éticos de la profesión, orientamos nuestra acción al logro del bienestar de la sociedad. Lealtad: Defendemos los principios del socialismo y somos fieles a los más puros ideales de libertad, justicia y solidaridad, así como a los principios éticos y valores institucionales. Política de flujo de recursos humanos. En la OSDE-Geic, la fuerza de trabajo se garantiza a partir de la gestión del personal teniendo como fuentes de ingreso la bolsa de empleado del MTSS y la asignación de fuerza de trabajo calificada proveniente de los centros educacionales, la que se planifica en un periodo de 9 años y se actualiza todos los años. La planificación del personal no se basa en estudios y técnicas de organización del trabajo donde se realizan estudios de balance de carga y capacidad para lograr el número de personas necesarias en la organización. La selección de la fuerza laboral se desarrolla a partir del procedimiento aprobado en la organización que describe los pasos a seguir en este proceso. La selección no tiene un enfoque por competencias, al no estar estas identificadas, por lo que, se dificulta identificar las competencias que exige el cargo y las reales del candidato que se está procesando. Por tanto, la formación desde el inicio no está orientada a desarrollar las competencias que requiere el trabajador de nueva incorporación para desempeñas sus funciones y alcanzar los resultados esperados. La organización históricamente ha presentado dificultades en el completamiento de la plantilla de cargos, teniendo en cuenta que en un periodo de 5 años (2015-2020) el índice de fluctuación laboral ha alcanzado niveles importantes, como se muestra en la Tabla 3. 2015 2016 2017 2018 2019 2020 Índice de Rotación 0.50 0.20 0.30 0.20 0.10 0.30 Índice de Fluctuación 0.28 0.32 0.20 0.19 0.15 0.20 Período Evaluado Indicador Tabla 1 Comportamiento de los indicadores de rotación y fluctuación laboral Política de sistemas de trabajo. Para evaluar los subsistemas de Capital Humano en la OSDE-Geic, se aplicó la lista de chequeo de la Tecnología de Diagnóstico del Sistema de Capital Humano asociada a los aspectos que establece la NC: 3000,3001,3002 sobre el Sistema de Gestión Integral del Capital Humano. Esta herramienta tiene como objetivo evaluar el desarrollo de cada uno de los módulos que conforman el Sistema de Gestión del Capital Humano en la organización. Se evaluaron un total de 4 premisas que contienen de forma general 19 criterios a evaluar mediante indicadores que miden el estado de implementación de las mismas. Figura 8. Estado de cumplimiento de los módulos que componen el Sistema de Gestión del Capital Humano. El diagnóstico arrojó que las premisas en la organización se implementan en un 75%, por lo que, no existe orientación estratégica, el resultado se observa en la Figura 9. Las premisas que presentan un bajo nivel de implementación es, la participación efectiva de los trabajadores con un 60%, la orientación estratégica y las competencias de los directivos y trabajadores con un 66.67%. Para determinar el nivel de cumplimiento de cada uno de los módulos del SIGCH a partir de los aspectos que contiene la NC 3001-2:2007 se aplicó la lista de chequeo, obteniéndose que el Sistema de Gestión del Capital Humano se cumple en un 64.20%, incidiendo significativamente los siguientes componentes: competencias laborales (33.33%), organización del trabajo (33.33%), capacitación y desarrollo (33.33%) y la selección y empleo (55.56%). Figura 9. Evaluación de los módulos SIGCH. Competencias Laborales: En la organización, aunque están definidas las funciones a partir de los calificadores y las responsabilidades de los cargos, no están identificadas las brechas con las necesidades de conocimientos y habilidades de cada trabajador, de acuerdo con los requisitos del puesto de trabajo que desempeña, teniendo en cuenta que no están identificadas las competencias laborales de la organización, de los procesos y los puestos de trabajo. Organización del trabajo: No se realizan estudios de organización del trabajo orientados a determinar el número de trabajadores necesarios, estudios de tiempo, aprovechamiento de la jornada laboral. No se mide la productividad del trabajo a partir de las tareas que se realizan y que dan cumplimiento a los objetivos de la organización. No se diseñan los puestos de trabajo a partir del cumplimiento de los objetivos estratégicos. Capacitación y Desarrollo: La formación no está orientada a partir de las competencias laborales de organización y de los puestos de trabajo, por tanto, no se identifican fácilmente las brechas de conocimiento de los trabajadores a partir de las competencias que a estos le falta por desarrollar y que el puesto de trabajo y la organización requieren para cumplir sus objetivos estratégicos. Selección y Empleo: La selección no se realiza con un enfoque por competencia, por tanto, este no está alineado totalmente con la estrategia de la organización. Por otra parte, no cuenta con un programa de integración para los trabajadores de nueva incorporación a la organización. Evaluación del Desempeño: La evaluación tampoco está enfocada y orientada por las competencias laborales, por tanto, no actúa como una herramienta para determinar las brechas de conocimiento a partir del estado deseado por el cargo y el real que posee el trabajador. La herramienta no tiene indicadores intangibles y no está alineada a los objetivos estratégico de la organización. La evaluación se realiza de manera formal por lo que no se realiza un correcto análisis de los resultados lo cual repercute en las acciones que el trabajador debe cumplir en el próximo período con vista a mejorar su desempeño, incluidas las acciones de capacitación y desarrollo individual. Costos eficaces y productividad del trabajo: En el caso de la OSDE, sus indicadores económicos están relacionados con los gastos, teniendo en cuenta que esta es financiada a partir de aporte de las empresas integradas. En el caso de la productividad del trabajo se mide a partir del valor agregado bruto de las empresas por sus aportes financiero. No obstante, se resume en la siguiente: Tabla 2. El comportamiento de los indicadores económicos en la OSDE-Geic en el año 2020. La productividad del trabajo como mencioné anteriormente, se mide a partir del VAB por el aporte de las empresas, por lo que, no evalúa el nivel de productividad del trabajo de los trabajadores y de los procesos que conforman la organización, a partir de las actividades que estos desarrollan para cumplir con los objetivos estratégicos de la organización. Problemas detectados en el Sistema de Gestión del Capital Humano y la identificación de sus causas. A partir de los resultados derivados del diagnóstico del modelo DPC y evaluación del Sistema de Gestión Integrado de Capital Humano por la lista de chequeo de la Tecnología del diagnóstico del Sistema de Gestión del Capital Humano se definen a través del diagrama Ishikawa, se muestra en la Figura 11 que la deficiente gestión del Capital Humano está siendo provocada por la insuficiente identificación y desarrollo de las competencias laborales, la inexistencia de vínculo entre la gestión del capital humano, la estrategia empresarial e indicadores de gestión ha provocado que el desempeño individual no tribute al desempeño estratégico organizacional. Es problema actual que la evaluación del desempeño individual no está ajustada a la evaluación estratégica organizacional. Figura 10. Análisis Causa –Efecto Diagrama Ishikawa Matriz de ponderación de las causas principales Determinadas las subcausas de las causas o problemas que inciden en la inadecuada Gestión del Capital Humano, se identifican las causas más importantes y las menos importantes, aplicando la matriz de ponderación, tabla 5. Para el proceso de ponderación se identificaron y seleccionaron 8 trabajadores expertos en el tema dentro de la organización, luego se listaron las causas principales y cada uno le otorgó una puntuación del 1 al 5 siendo el 1 el más importante y el 5 el menos importante. Se tomaron los datos de los expertos, se tabularon y se calcularon, Anexo 1. Obtenido el resultado se observa que la causa principal de mayor importancia es: (1) Insuficiente identificación y desarrollo de las competencias laborales, (2) Deficiente organización del trabajo, (3) Deficiente formación y desarrollo, (4) Insuficiente evaluación del desempeño, (5) Insuficiente reclutamiento y selección. Una vez identificado el problema nos planteamos implementar la gestión del capital humano por competencias para ello debíamos contar con un sistema de competencias que respondiera a la organización, procesos y puestos para ello el procedimiento utilizado fue el método Delphi. La selección de los expertos se basó en los requisitos que establece la NC:3000-3002 por: Miembro de la alta dirección (Presidente), Directivos de la organización, Trabajadores de reconocido prestigio por su calificación, experiencias, conocimientos, méritos por la calidad del trabajo, nivel de exigencia y visión de futuro. Como resultado fueron seleccionados 14 expertos. En la implementación de la dinámica de grupo a través de la tormenta de idea respondiendo a la pregunta: ¿Cuáles son las competencias que identifican a la OSDE GEIC? fueron propuesta por los E un total de 39 competencias, Ver anexo 55 las cuales se introdujeron en una matriz una vez de eliminado repeticiones y similitudes. Se pasó a la segunda ronda presentando una encuesta con el objetivo de reducir la lista que los E ¿Está Ud. de acuerdo en que esas son verdaderamente las competencias para esta organización? Con las que no esté de acuerdo márquelas con N. Una vez respondida la pregunta y recogidas las respuestas de todos los expertos, es determinado el nivel de concordancia a través de la expresión: Cc= [1 – (Vn / Vt)] * 100 donde, Cc: coeficiente de concordancia expresado en porcentaje. Vn: cantidad de expertos en contra del criterio predominante. Vt: cantidad total de expertos. Si Cc ≥60% es aceptada la Competencia y si es <60% es eliminada la Competencia. Las competencias aceptadas por tener <60% del nivel de concordancia se muestra en la siguiente tabla. N0 Competencia Cc 1 Planificación y Organización 92.85% 2 Toma de Decisión 64.58% 3 Creatividad e Innovación 72.42% 4 Capacidad de análisis 78.57% 5 Capacidad de Coordinación 64.28% 6 Visión Estratégica y Espíritu Visionario 78.57% 7 Habilidad de Control y Supervisión 71.42% 8 Confiabilidad 64.28% 9 Competencia Digital 85.71% 10 Comunicación 64.28% 11 Disciplina 78.57% Tabla 3 Competencias con nivel de Concordancia mayor del <60% La tercera ronda el objetivo es ponderar cada una de las competencias, otorgando valor 1 a la más importante, valor 2 a la que sigue en orden de importancia, hasta el valor 11 que corresponderá a la menos importante”. No se puede asignar el mismo valor de importancia, a más de una competencia. La competencia que menor puntuación obtenga de la sumatoria es la más importante, así se analiza en ese orden para obtener la ponderación. Recogidas las respuestas se ordenan las ponderaciones observándose en la tabla 7, de acuerdo al valor de la sumatoria por filas indicada por Rj. Esta variable después permitirá el ordenamiento según el valor discreto de Rj media. Serán seleccionadas las 6 competencias que por el nivel de concordancia de los expertos sean las más importantes. Rj Rj media 1 Planificación y Organización 47 3.36 2 Capacidad de Coordinación 62 4.43 3 Capacidad de análisis 69 4.93 4 Creatividad e Innovación 73 5.21 5 Toma de Decisión 79 5.64 6 Visiòn estrategica y espiritu visionario. 91 6.50 7 Competencia Digital 93 6.64 Competencias Tabla 4. Competencias ordenadas por nivel de importancia Realizado un análisis de los resultados de las 3 rondas de expertos coinciden con las competencias seleccionadas para la OSDE GEIC por lo que consideramos efectivo el método Delphi y las competencias determinadas por los Expertos. Se muestran las competencias claves de la Organización superior de Dirección Empresarial OSDE GEIC y su conceptualización. Tabla 5. Competencias claves de la OSDE GEIC 4. CONCLUCIONES 1. El diagnóstico realizado a través del modelo GRH-DPC y las NC 3000-3002:2007 refleja que existe una deficiente Gestión del Capital Humano provocada porque la gestión del capital humano no está alineada a la estrategia empresarial. 2. Se determinó a través del método Ishikawa que existe una insuficiente gestión por competencias, por no estar identificadas las competencias organizacionales, de procesos y de cargos, lo que impide seleccionar, evaluar y retribuir a los trabajadores según sus competencias y niveles de complejidad del puesto. 3. Se identificaron las competencias claves de la organización que corresponde al primer nivel del sistema de competencias a través del método Delphi. 5. RECOMENDACIONES 1. Analizar los procesos de trabajo aplicando tècnicas que permitan actualizarlar el mapa de procesos e identificar las competencias del proceso que es el segundo nivel del sisitema de competencias. 2. Realizar evaluaciòn de los puestos de trabajo clave e identificar sus competencias que permite realizar los perfiles de cargo por comepetencias e implementar la gestión por competencias de la organización. 3. Diseñar una tecnología con indicadores tangible e intangible que permita buscar el alineamiento del desempeño individual con el desempeño organizacional estratégico. 4. Elaborar un procedimiento metodològico para el sistema de evaluación del desempeño basado en un modelo de gestión por competencia para los trabajadores de la OSDE GEIC. 6. BIBLIOGRAFÍA Cuesta Santos (2019), Tecnologías de Gestión de Recursos Humanos (Editorial Félix Varela). Ciudad de la Habana: Instituto Cubano del Libro. Cuesta Santos, Valencia Rodríguez (2014), Indicadores de Gestión Humana y del Conocimiento en las Empresas, (ECOE Ediciones Ltda.), Bogotá. Idalberto Chiavenato (), Administración de Recursos Humanos, el Capital Humano de las Organizaciones, Octava Edición (Editora Atlas S.A) Tesis: Torres-López, Cuesta-Santos; Piñero-Pérez, Lugo-García, (2018), Evaluación de Competencias Laborales a partir de evidencias. Tesis de Licenciatura, Facultad de Ingeniería Industrial, Instituto Superior politécnico José Antonio Echeverría, Cujae, Cuba. De la Rosa Palau (2015). Propuesta de un Sistema de evaluación por un modelo de gestión por competencia para la Dirección General de Recursos Humanos de la Fuerza Naval, Tesis de Maestria, Universidad Politécnica Salesiana, Unidad de Postgrados, Guayaquil, Ecuador. Granja Freire (2015). Determinación de las competencias laborales a nivel organizacional, de procesos y puestos claves en la empresa IMPOFREICO S.A, Tesis de Licenciatura, Pontificia Universidad Católica del Ecuador, Sede Ambato. Velázquez Carmona, (2016), Competencias Laborales para el personal empelado en una empresa manufacturera a través de la evaluación 360 grados. Tesis de licenciatra, Facultad de Ciencias de la Conducta, Universidad Autónoma del estado de México. 1 LA FLUCTUACIÓN LABORAL DE JÓVENES INVESTIGADORES DE LAS CIENCIAS SOCIALES. THE LABOR FLUCTUATION OF YOUNG RESEARCHERS IN THE SOCIAL SCIENCES. Osleidys Torres Valdespino1, Rolando Serra Toledo2, Armando Cuesta Santos3, Adela Haber Vega4 1 Delegación Territorial CITMA La Habana, Calle 17 No. 5008 e/ 50 y 52, Playa, 2 Universidad Tecnológica de La Habana “José A. Echeverría” CUJAE, MES, Calle 114 No. 11901 e/ Ciclo Vía y Rotonda, Marianao, La Habana, Cuba 1osleidys@citmahabana.gob.cu; 2serra@electrica.cujae.edu.cu; 3cuesta@ind.cujae.edu.cu; 4adela@citmahabana.gob.cu RESUMEN Se realiza un diagnóstico de la fluctuación laboral de jóvenes investigadores de las ciencias sociales, que laboran en cinco Entidades de Ciencia, Tecnología e Innovación de este sector en la provincia de La Habana, con un gran prestigio en el ámbito académico, tanto a nivel nacional como internacional. Se estudia el comportamiento de la cifra de jóvenes investigadores en los centros seleccionados en el período 2017-2021, se elabora una matriz donde se combinan un conjunto de elementos resultado del diagnóstico, los elementos internos, donde se relacionan las debilidades y fortalezas y en los externos, las amenazas y oportunidades (DAFO). Además, se analizan los conceptos recursos humanos, capital humano y capital intelectual, para su integración en una nueva definición de jóvenes investigadores. Se presentan algunos ejemplos de prácticas para la retención del capital intelectual en las organizaciones, que favorecerá la elaboración de un modelo de gestión que contribuya a la retención de los jóvenes investigadores en los centros que conforman la muestra seleccionada. PALABRAS CLAVE: FLUCTUACIÓN LABORAL, JÓVENES INVESTIGADORES, CIENCIAS SOCIALES ABSTRACT The paper carries out a diagnosis of labor force fluctuations among young social science researchers who work at five Science, Technology and Innovation Centers belonging to this sector in the Province of Havana, with great prestige in the academic sphere, both nationwide and internationally. The behavior of the number of young researchers in the centers selected is studied and a matrix is made combining a set of elements resulting from the diagnosis, the internal factors, where strengths and weaknesses are presented, and the external factors with opportunities and threats (SWOT). In addition, the concepts of Human Resources, human capital and intellectual capital are analyzed, so that they can be integrated into a new definition of young researchers. Some examples are provided illustrating practices that help retain an organization’s intellectual capital, which will favor the elaboration of a management model that would contribute to retaining young researchers in the centers that make up our selection. KEYWORDS: LABOR FLUCTUATION, YOUNG RESEARCHERS, SOCIAL SCIENCES INTRODUCCIÓN En Cuba, las transformaciones en las formas de gestión del trabajo, implican nuevos requerimientos en materia de gestión de los recursos humanos, que permitan un mejor abordaje de los nuevos retos que se plantean en los procesos laborales. La existencia de una fuerte diferenciación entre ramas y hacia el interior de algunos sectores, conduce a revalorar las acepciones dispuestas en el cambio de modelo de desarrollo, en cuanto a la vinculación entre cambio tecnológico, modernización productiva, calificación de los recursos humanos y el desarrollo de la base productiva del país. En tal sentido, las organizaciones que se encuentran en este proceso de transformación, promueven nuevos espacios laborales y oportunidades de empleo, atractivas para el potencial humano. 2 En los documentos programáticos del Estado y el gobierno cubanos, como la vía para lograr el desarrollo sostenible de la sociedad, prevalece el papel del potencial humano para alcanzar, mediante la ciencia, la tecnología y la innovación, el progreso económico y social, lo que ratifica lo expuesto por Fidel Castro Ruz el 15 de enero de 1960, cuando expresó “El futuro de nuestra patria tiene que ser necesariamente un futuro de hombres de ciencia (…)”. En el artículo 21 de la Constitución de la República de Cuba, se establece que “El Estado promueve el avance de la ciencia, la tecnología y la innovación como elementos imprescindibles para el desarrollo económico y social, igualmente implementa formas de organización, financiamiento y la gestión de la actividad científica, propicia la introducción sistemática y acelerada de sus resultados en los procesos productivos y de servicios, mediante el marco institucional y regulatorio correspondiente”. En el interés de alcanzar las metas del Plan Nacional de Desarrollo Económico Social hasta 2030, aprobados por la máxima dirección del país, se establecieron los Macroprogramas, conformados por programas y proyectos. Dentro de los seis Macroprogramas, se define uno de Ciencia, Tecnología e Innovación y uno de sus proyectos se denomina “Captación, formación y desarrollo del potencial humano del Sistema de Ciencia, Tecnología e Innovación”, con el objetivo de implantar un plan de acción efectivo para atender a los jóvenes talentos y la reserva científica, lo que contribuirá a una mayor proporción de jóvenes científicos, con un alto nivel de preparación, como garantes indispensables de la continuidad de la actividad científica en el país. Todo este esfuerzo y dedicación del Estado cubano se realiza con el propósito de garantizar que las ciencias sean el principal contribuyente a la economía y la sociedad del país. Sin embargo, se identifican un conjunto de problemáticas que afectan el desempeño y el rol de la ciencia y sus instituciones para lograr este propósito, destacándose, la tendencia al envejecimiento del potencial científico y la fluctuación laboral del personal que tributa a la investigación, fundamentalmente de los jóvenes, después de invertir en su formación y capacitación. Se han desarrollado algunas investigaciones relacionadas con la fluctuación laboral de jóvenes investigadores en Cuba, donde se ha abordado parcialmente el asunto o a partir de estudios de caso [1]. También, han aportado un análisis del comportamiento del fenómeno en sentido general y por sectores de la ciencia, rama de la economía, provincia y categoría científica [2]. De manera general, en estos estudios, se han identificado las posibles causas de la fluctuación laboral y se ha promovido la búsqueda de soluciones al problema. El presente trabajo forma parte de una investigación en curso, en un primer momento se realiza un diagnóstico de la fluctuación laboral de jóvenes investigadores de ciencias sociales que laboran en cinco centros de investigación de La Habana. Derivado de este diagnóstico, se elabora una matriz DAFO. También, se analizan los conceptos de gestión de recursos humanos, capital humano y capital intelectual, para el abordaje de una nueva definición de jóvenes investigadores, así como, ejemplos de prácticas para la retención del capital intelectual en las organizaciones, lo que permitirá avanzar en la elaboración y validación de un modelo de gestión que contribuya a la retención laboral de estos investigadores. 1. MÉTODOS Analítico-sintético: En la consulta, recopilación, análisis y extracción de la información sobre el objeto de la investigación y en la elaboración del marco conceptual. Histórico-lógico: Para el estudio y análisis de los antecedentes y el desarrollo del objeto de esta investigación. Se analiza el comportamiento de la cifra de jóvenes investigadores en los centros seleccionados en el período 2017-2021. También, se revisan los diagnósticos desarrollados en estudios precedentes relacionados con la fluctuación laboral de jóvenes investigadores. Análisis documental: En la revisión del comportamiento de los indicadores de gestión contenidos en las guías elaboradas y aprobadas en la Delegación Territorial del Ministerio de Ciencia, Tecnología y Medio Ambiente (CITMA) de La Habana, para el desarrollo de las visitas a las ECTI radicadas en la provincia, con énfasis en el indicador relacionado con el potencial científico y tecnológico. Además, se analizan los conceptos recursos humanos, capital humano y capital intelectual, para su integración en una nueva definición de jóvenes investigadores. Se examinan algunas prácticas para la retención del personal en las organizaciones, importantes para la elaboración de un modelo de gestión que contribuya a la retención laboral de los jóvenes investigadores en los centros seleccionados. 3 Método de selección no probabilístico: En la selección de la muestra, también llamada muestra dirigida. Se seleccionaron cinco ECTI, con clasificación de centros de investigación, que cuentan con una larga y reconocida trayectoria en el desarrollo de investigaciones en el ámbito social y que se han caracterizado por contribuir a la formación y desarrollo profesional de investigadores, especialmente los más jóvenes. La población seleccionada para esta investigación, son los jóvenes investigadores de hasta 35 años de edad, con categoría científica. 2. VALORACIÓN DEL DIAGNÓSTICO DE LA FLUCTUACIÓN LABORAL DE JÓVENES INVESTIGADORES DE CIENCIAS SOCIALES. Las Ciencias Sociales estudian las manifestaciones del comportamiento humano y los procesos de las sociedades desde una perspectiva multidisciplinaria y en correspondencia con el contexto histórico. Su misión es lograr determinar realidades objetivas, concretas y precisas sobre diferentes situaciones, hechos y experiencias de la vida humana. Las mismas integran un conjunto de disciplinas, entre ellas, la Sociología; la Administración Pública; la Antropología; las Ciencias Políticas; las Ciencias Jurídicas; la Demografía; la Historia; la Economía y la Psicología Social. Las ECTI de Ciencias Sociales, son organizaciones formales, donde se desarrollan investigaciones del ámbito social (diagnósticos sociales, evaluaciones, proyecciones, propuestas de transformación social, entre otras). En el diagnóstico realizado en cinco ECTI, categorizadas como centros de investigación de las ciencias sociales de la provincia de La Habana, durante el período 2017-2021, se evidencia una edad promedio de los investigadores, aproximadamente de 50 años. Esto demuestra un ascenso en las edades de su potencial científico y tecnológico, por ello, la importancia de prestar especial atención a la renovación de estos profesionales en estas organizaciones. Los jóvenes investigadores seleccionados como objeto de estudio de esta investigación, tienen una edad de hasta 351 años y poseen categoría científica (aspirante a investigador e investigador agregado). La evaluación del diagnóstico realizado arrojó que existe una tendencia al decrecimiento de estos profesionales en los centros estudiados y no es significativo el incremento del número de los mismos de un año a otro (Ver Figura 1). La organización invierte en la formación de los jóvenes, que en un momento determinado abandonan el centro, lo que tiene un mayor impacto, cuando cuentan con categoría científica; y, por tanto, no se logra la renovación adecuada del personal de investigación. De ahí, la necesidad de trabajar en función de alcanzar el incremento, permanencia y preparación de estos jóvenes, como premisa fundamental para lograr un desarrollo sostenible de la actividad científica en estas organizaciones. Figura 1: Comportamiento de las cifras de jóvenes investigadores hasta 35 años, en el período 2017-2021 Fuente: Elaboración propia a partir de las guías de la Delegación Territorial del CITMA de La Habana 1 Se establece internacionalmente que se es joven dentro de la actividad de ciencia, hasta la edad de 35 años. 4 Fluctuación laboral: aproximaciones teóricas al concepto La palabra “fluctuación” proviene del latín fluctuari o fluctuare, que significa agitarse de un lado para otro. Algunos autores la definen como el ingreso y el egreso de personas a la organización. Otros la asumen como “baja o rompimiento de la relación laboral por iniciativa del trabajador, que implica una movilidad laboral no planificada” [3] El concepto de fluctuación laboral, es también conocido como fluctuación de personal, rotación de personal o inestabilidad laboral, se relaciona por lo general al movimiento de altas y bajas que ocurren en la fuerza laboral de una organización. [4] Existen dos tipos de fluctuación laboral: fluctuación laboral real (externa e interna) y la fluctuación laboral potencial. “La fluctuación laboral real es externa, cuando el movimiento se produce hacia una organización ajena al sector de origen, donde el individuo ha recibido su sistema de entrenamiento profesional básico. La fluctuación laboral real se considera interna, cuando el movimiento se produce de una unidad laboral a otra dentro del sector de procedencia, sin cambios esenciales en el contenido y dinámica de trabajo” [5]. “La fluctuación laboral potencial está relacionada con el deseo latente del trabajador de abandonar su centro de trabajo en un momento dado, el cual no se ha hecho efectivo por no haber encontrado el empleo que reúna los requisitos que desea y que se corresponda con sus expectativas, pero la posibilidad del abandono permanece oculta entre ellos y se materializará o no, de acuerdo con la dinámica de las condiciones y motivaciones de cada trabajador deseoso de abandonar su centro de trabajo” [6]. En la movilidad del personal en una organización influye un conjunto de “daños colaterales, que usualmente no son considerados por mucho que se sufran sus consecuencias. Entre ellos, se encuentran  Quien se va lleva consigo un conjunto de conocimientos (y relaciones, alianzas, colegas) que no pueden almacenarse en una documentación o base de datos, es un saber- hacer práctico e intuitivo que para trasmitirse exige una interacción estrecha entre las partes.  La organización se queda sin capacidad para aprovechar experiencias pasadas. Con la partida de trabajadores clave se deteriora la propia eficacia del sistema de gestión. Además, de los costos de reclutamiento, se añaden los costos mismos de la vacante dado que el trabajo se tendrá que redistribuir entre los demás colaboradores y colegas afectando el cumplimiento de metas ya establecidas y los propios estilos de desempeño. De igual modo, el período de integración de los nuevos trabajadores no solamente ocasionará costos vinculados con los programas de orientación y formación, la organización debe prever que la productividad del recién llegado será débil durante un período considerable”. [7] La fluctuación laboral no es más que la relación que se establece entre el conjunto de personas que ingresan y salen de la organización, comprende los cambios de los puestos de trabajo tanto a la entrada como a la salida. La misma se puede clasificar de dos modos, la real (interna o externa) y la potencial. Por tanto, se pueda considerar la fluctuación laboral como un proceso multifactorial. Las causas de la fluctuación laboral generalmente se pueden dividir en tres grupos:  “El primer grupo incluye factores sociales relacionados con el desarrollo económico de la organización (donde un mayor desarrollo económico permite más opciones y por lo tanto la fluctuación es mayor); por otra parte, se encuentra la situación en el mercado laboral (la fluctuación es mayor donde hay más demanda).  Otro grupo de factores que pueden causar fluctuación son los que afectan a la organización en sí misma. Son la estabilidad económica de la empresa, el nivel de sus equipos tecnológicos y otros, la forma en que se organiza el negocio.  El tercer grupo de factores incluye la insatisfacción laboral, es decir, contenido del trabajo inadecuado, así como un puesto de trabajo vagamente definido. También, influye en el aumento de la fluctuación, la ausencia de autonomía y responsabilidad”. [8] Estudios realizados en Cuba, hacen énfasis en un conjunto de factores laborales que inciden en la fluctuación laboral, ellos son: “Trabajador fuera de su especialidad o profesión; Inconformidad con el salario; Falta de estímulos; Escasa posibilidad de superación; Inconformidad con los métodos de dirección; Deficiente organización del trabajo”. También, 5 se encuentran los factores personales: Atención a hijos y otros familiares; Problemas de la vivienda; Lejanía del centro de trabajo; Carencia de círculos infantiles o seminternados; Inconveniencia con el horario de trabajo” [9] Es en los centros laborales donde se forman un conjunto de motivaciones y expectativas en los jóvenes. Es por ello, que existe una estrecha interrelación entre el proceso de socialización que se produce al interior de los centros y las posibilidades de desarrollo del joven que se inserta en los mismos. Estas son premisas indispensables para cualquiera de las sociedades donde se sustente como una de las políticas a seguir, la vinculación laboral de los jóvenes atendiendo a su formación y perspectivas de trabajo, aun cuando existan otros factores tanto económicos como sociales, que influyan igualmente en este proceso. Matriz DAFO: Resultados del diagnóstico Para la construcción de la matriz DAFO, se tuvieron en cuenta un conjunto de elementos que se derivan del diagnóstico. Dichos elementos se dividen en análisis internos, relacionados con aquellos que se generan al interior de la institución, con una incidencia directa en el proceso de fluctuación laboral de los jóvenes investigadores. En este sentido, son las debilidades y las fortalezas las que centran el análisis. Por otra parte, se encuentran los elementos externos, donde las causas de la fluctuación laboral no se derivan directamente de la organización, y se tienen en cuenta para ello, las amenazas y las oportunidades. Para el análisis interno, se tuvieron en consideración los aspectos siguientes:  Análisis de los resultados del control a los indicadores de gestión, contenidos en las guías elaboradas y aprobadas en la Delegación Territorial del CITMA de La Habana, para el desarrollo de las visitas a las ECTI radicadas en La Habana, en el período 2017-2021.  Informes anuales de balance de la Delegación Territorial del CITMA de La Habana, con énfasis en el análisis de los indicadores relacionados con el comportamiento del potencial científico y tecnológico.  Análisis de los informes valorativos de la línea priorizada de Sociedad y Desarrollo Humano, aprobada en la Estrategia Provincial de Ciencia, Tecnología e Innovación.  Estudios precedentes realizados en Cuba relacionados con el tema de la fluctuación laboral de jóvenes científicos. Para la realización del análisis externo, se tuvieron en consideración los aspectos siguientes:  Las políticas aprobadas por el Estado cubano para el perfeccionamiento de la Actividad de Ciencia, Tecnología e Innovación y sus respectivas disposiciones jurídicas.  Análisis de los resultados del control a los indicadores de gestión, contenidos en las guías elaboradas y aprobadas en la Delegación Territorial del CITMA de La Habana, para el desarrollo de las visitas a las Entidades de Ciencia, Tecnología e Innovación (ECTI) radicadas en La Habana, en el período 2017-2021.  Estudios precedentes realizados en Cuba relacionados con el tema de la fluctuación laboral de jóvenes científicos. Del análisis resultado del cruzamiento entre las fortalezas y las oportunidades, se observa (ver anexo), un conjunto de potencialidades, las cuales señalan las líneas de acción más importantes para favorecer la retención de los jóvenes investigadores en las ECTI seleccionadas en la muestra. En las mismas se vinculan el grado de compromiso y motivación de estos jóvenes categorizados, con la actividad científica que desarrollan; el reconocimiento de los centros de investigación donde laboran, con el interés del Estado cubano en lograr el incremento y la superación de estos jóvenes, que se refleja en la aprobación e implementación de políticas y normas jurídicas dispuestas para esta actividad, así como la evaluación de acciones para la formación continua de estos profesionales. En la combinación de las debilidades y amenazas, se constata que son las debilidades, superación y aspiraciones profesionales fuera de la ciencia y la emigración, las que tienen mayor incidencia por cada una de las amenazas identificadas, exponiéndose como las más relevantes limitaciones que influyen en la retención de los jóvenes investigadores. 6 Al analizar la relación entre las fortalezas y las amenazas, se obtienen los principales riesgos, que están en correspondencia con cambios en el pensar – actuar de estos jóvenes investigadores y como resultado puede aparecer la desmotivación e insatisfacción de estos profesionales debido a las amenazas. Los desafíos que se establecen entre las debilidades y las oportunidades, demuestra la necesidad de efectuar acciones a corto y mediano plazos que permitan mitigar las debilidades, para lograr una mayor contribución a la retención de los jóvenes investigadores seleccionados. 3. RECURSOS HUMANOS, CAPITAL HUMANO Y CAPITAL INTELECTUAL En el siguiente acápite, se analizan los conceptos Recursos Humanos, Capital Humano y Capital Intelectual, con el objetivo de poder determinar una definición más abarcadora de jóvenes investigadores. No son pocos los estudiosos que objetan la expresión “recursos humanos (RH) al referirse a las personas, mediante la cual se les identifica de manera hiperbolizada o absoluta con el aspecto económico, considerándolas como medios y no fin en sí mismas; y más aún se objeta cuando haciendo más enfático lo económico con su manifestación en dinero, se desconoce o relega la individualidad y su esencia humana. No obstante, en nuestra concepción la expresión recursos humanos es utilizada para significar a las personas insertadas en una organización laboral. Aunque se trata de personas trabajando, por lo universal o común de esa denominación en las empresas, se seguirá aludiendo a los RH. Y como se apuntó, al significar personas insertadas en determinada organización, no hay despersonalización o negación de la individualidad y el subjetivismo, todo lo contrario, y se considera la esencia humana de las personas en el trabajo, dada por el conjunto de sus relaciones sociales, que también abarca a esa organización laboral. En modalidad más novedosa se ha referido la más actual Gestión de Recursos Humanos (GRH) como gestión del conocimiento, y esta sigue siendo gestión de personas portadoras de los conocimientos y valores, que es lo que denominamos Gestión de Recursos Humanos y del Conocimiento”. [10] La relación que se establece entre la Gestión de los Recursos Humanos y del Conocimiento, se complementa en el concepto de Capital Humano, que “se refiere fundamentalmente a las capacidades y compromisos que hacen parte del conocimiento de las personas; se articulan allí las competencias, la capacidad de innovar y mejorar, la motivación y el compromiso”. [11] El Recursos Humano se encuentra relacionado con la persona que labora en una organización y es portadora de conocimientos y Capital Humano, no es más que el mismo recurso humano que gestiona estos conocimientos y los convierte en valores para el desarrollo de la propia organización. También, se reconoce al Capital Humano haciendo referencia a sus competencias, experiencias, y comportamientos. “La construcción del capital humano está profundamente arraigada en la economía y encuentra referencia en muchos economistas clásicos, incluso si no usaron la frase. El término “capital humano”, rara vez mencionado en economía antes de la década de 1950, aumentó a partir de la década de 1960 y floreció en 1990”. [12] En Cuba, como parte de las nuevas disposiciones jurídicas aprobadas para la ACTI, se dispone en el Decreto Ley 7/2020 [13], que forman parte del Potencial Científico y Tecnológico: El potencial humano en todas las categorías ocupacionales y nivel de educación incluidas las categorías científicas, docentes y tecnológicas; y la infraestructura material y técnica consistente en edificaciones, equipamiento incorporado o no a bienes de capital, laboratorios e instalaciones especializadas. Por tanto, en esta misma línea de pensamiento y tomando como premisa un concepto que relacione los términos potencial humano e infraestructura material y técnica, por su importancia en el desarrollo del conocimiento y su implementación en el progreso de la organización, se analiza la definición de capital intelectual, “que significa la posesión de conocimientos, habilidades, motivaciones y valores, comprendida en las competencias laborales de los empleados, junto a la experiencia aplicada, la tecnología organizacional, software y know how patentados, las relaciones con clientes, y documentos”. [14] Otros estudiosos aseveran “que el Capital Intelectual está conformado por un conjunto de bienes inmateriales y de difícil imitación, que permite que las organizaciones se diferencien, desarrollen y crezcan generando ventajas competitivas. Proponen un modelo que agrupa el capital intelectual entre tres componentes: a) capital humano: aquel que se relaciona con los integrantes de la organización y sus características intrínsecas, como el conocimiento implícito 7 y explícito que tienen y dan las personas; la capacidad de aprender y generar nuevo conocimiento, entre otros; b) capital relacional: aquel que se genera de la interrelación de las personas y grupos de la organización con el exterior, en donde se consolida el conocimiento y se forman nuevas oportunidades empresariales; c) capital estructural: aquel que representa el conjunto de actividades, estructuras y procesos que ayudan a los integrantes de una organización a mejorar su producción intelectual y desarrollo organizacional. Se clasifica en dos capitales más: el organizativo y el tecnológico”. [15]. Este es un concepto más integrador, donde se relacionan los componentes del capital intelectual. De la integración entre los conceptos recursos humanos, capital humano y capital intelectual, se define a los jóvenes investigadores: como profesionales de hasta 35 años de edad, con una práctica cultural acumulada, sujetos de una condición social específica, vinculados a la labor investigativa que desempeñan en organizaciones formales, con normas y reglamentos preestablecidos, con funciones definidas relacionadas con la actividad de investigación y en correspondencia con la categoría científica que poseen, en estrecho vínculo con las oportunidades y responsabilidades que les confiere su condición de jóvenes. Tienen capacidad de aprender y generar nuevos conocimientos que se consolidan con los vínculos de trabajo inter e intra organizacional. Los jóvenes investigadores que poseen categorías científicas de aspirante o agregado, realizan un conjunto de funciones, a saber: asumir trabajos que le asignen dentro de una investigación; participar en programas y proyectos nacionales e internacionales orientados por investigadores de mayor categoría y experiencia; publicar trabajos científico técnicos acorde a su especialidad; participar en eventos científicos nacionales e internacionales como autor o ponentes; preparar y apoyar en la elaboración de la información bibliográfica y los informes sobre los trabajos realizados; atender a los técnicos y otro personal de apoyo, cumplir tareas docentes de pregrado; apoyar la dirección de los trabajos de curso como autores o coautores de premios; así como participar en grupos de trabajos científico técnicos. Todas estas funciones permiten efectuar una valoración de las competencias de estos profesionales, la formación que adquieren con el desarrollo de las mismas, su integración constante a la actividad científica y el impacto de los resultados que alcanzan, los que contribuyen a su crecimiento profesional y al desarrollo de la actividad fundamental de la organización y de la sociedad. Por tal motivo, se hace necesario realizar el análisis de algunas prácticas de la retención del capital intelectual en las organizaciones, lo que permitirá un mejor abordaje del tema de la retención laboral de los jóvenes investigadores que laboran en los centros de investigación seleccionados. 4. PRÁCTICAS DE LA RETENCIÓN DEL CAPITAL INTELECTUAL EN LAS ORGANIZACIONES La retención de los investigadores jóvenes en un centro de investigación, es primordial, no solo por significar la continuidad para el desarrollo de la actividad científica en estas organizaciones, sino también, por significar “uno de los procesos fundamentales de la gestión de personas. La cual se orienta a mantener una baja rotación de personal, ya que los costos de volver a contratar y capacitar a un nuevo empleado son altos. Por ello, las empresas desarrollan políticas para que el personal se sienta a gusto y decida permanecer en la organización el mayor tiempo posible” [16]. “El ámbito laboral supone unas dinámicas complejas, no solo aquellas que tienen que ver con la productividad, la competencia, la eficacia y la eficiencia, sino sobre todo en las relaciones interpersonales que son consideradas detonantes positivos y negativos en el clima laboral” [17]. En las organizaciones deben generarse prácticas que permitan la retención del personal que se desempeñan en las mismas, con énfasis en el capital intelectual. Es primordial tener en cuenta la creación y peculiaridades de los puestos de trabajo, así como las especificidades de cada uno. Es muy importante que, en el diseño de cada puesto, se conciban herramientas que posibiliten la permanencia del personal. Existen autores que han estudiado diferentes prácticas de retención del personal en las organizaciones, fundamentalmente relacionadas con el capital intelectual. Entre los aspectos más relevantes, “se pretende que la corporación retribuya de manera equitativa según los puestos desempeñados con la misma escala en empresas externas, que sume, además, motivaciones económicas a los colaboradores o equipo de trabajadores que destaquen por encima de los demás, así como otros beneficios que aseguren la retención del recurso humano” [18]. También, se considera que “la retribución económica del colaborador es una forma de motivar su desempeño, por lo tanto, es un buen mecanismo de retención; sin embargo, no solo el pago de la remuneración es una evidencia de la retribución como dimensión de la 8 retención, sino existen otros mecanismos para lograrla como las capacitaciones, las especializaciones, por ejemplo, con la finalidad de generar el empoderamiento de este recurso humano” [19]. “La manera de fortalecer el compromiso y reducir la rotación es a través del liderazgo, el clima laboral, la cultura y los valores, los procesos de selección, la organización, los sistemas de relaciones y la retribución. Estos factores, llamados Facilitadores Organizativos, tienen como objetivo el satisfacer las motivaciones de los profesionales y articular el paso del talento individual a la organización” [20]. Importante “que las actividades de formación y promoción que se implementan a nivel de la organización producen en los trabajadores resultados satisfactorios en el trabajo, asimismo favorecen la permanencia del recurso humano y favorecen la relación entre colaborador y los empleadores. Las herramientas de conciliación de vida personal – laboral comprenden mecanismos de administración del talento humano cuyo objetivo es manejar el problema de forma metódica y disminuir su impacto cuando aparezca en la corporación o en el desarrollo humano de un colaborador y conseguir que no impacte de manera negativa el desenvolvimiento y la conducta del trabajador” [21]. En relación con las competencias que debe tener una persona para ocupar un puesto determinado, “tiene que cumplir ciertos requisitos dentro de la institución. Es decir, que mínimamente debe contar con un perfil profesional afín a dicho cargo para que alcance ocupar la vacante, el diseño de puestos es fundamental para facilitar el reclutamiento y selección de personal adecuado para el área requerida” [22]. Otras claves para lograr la retención laboral son, “Atraer y desarrollar: Se atrae y después de desarrolla al talento. Las organizaciones que tienen altos índices de sobresaliente son las que brindan un alto porcentaje de dinero en la formación. Facilitadores del talento organizativo: Un buen liderazgo, ambiente laboral, logran que el trabajador se sienta bien y satisfecho en el lugar que desempeña sus labores” [23]. Considerando el análisis efectuado en relación con las prácticas para la retención laboral del Capital Intelectual en las organizaciones, se valora que para la construcción de un modelo de gestión que pueda contribuir a la retención de jóvenes investigadores de los centros de las ciencias sociales, objeto de estudio, se tendrán en cuenta los aspectos siguientes: selección; organización del trabajo; retribución-salario; recompensas y premios; relación con jefe- supervisión, apoyo; relación con compañeros; participación-toma de decisiones -autonomía; comunicación institucional; formación – categorización – promoción; clima laboral; equidad y justicia percibida; conciliación (horario, etc.); participación en eventos nacionales e internacionales; acceso a becas en el extranjero. La armonía entre estos componentes impacta en la productividad del trabajo que se desarrolla en los centros de investigación y, por ende, en la sostenibilidad de la actividad de ciencia, tecnología e innovación. Asimismo, en los resultados que alcanzan los jóvenes investigadores, relacionado con el bienestar individual, el compromiso con la labor desempeñada y con la organización. 5. CONCLUSIONES 1. En los cinco ECTI que conforman la muestra seleccionada, es bajo el incremento anual en el número de jóvenes investigadores hasta 35 años de edad, durante el período 2017-2021, con una tendencia al decrecimiento de estos profesionales. 2. Los factores laborales son los de mayor incidencia en el proceso de fluctuación laboral de los jóvenes investigadores en las cinco ECTI estudiadas. 3. Se propone una nueva definición de jóvenes investigadores que podría ser utilizada en estudios posteriores. 4. Se valida la necesidad de elaborar un modelo de gestión que contribuya a la retención de los jóvenes investigadores que laboran en las organizaciones seleccionadas en la muestra. RESEÑAS BIBLIOGRÁFICAS 1. TORRES, Osleidys. La fluctuación laboral de jóvenes investigadores en centros de Ciencias Sociales 2005-2011. Tesis de Maestría. Universidad de La Habana, 2013. 2. LUIS, María J.; MORENO, Iván. La fluctuación laboral de los jóvenes científicos en Cuba. Informe Ejecutivo, Centro de Estudios Sobre la Juventud, 2018. 3. BERNAL, M. & GÓMEZ, C. J. Informe del estudio de las causas de la fluctuación laboral en el MTSS. La Habana: Instituto de estudios e investigaciones del trabajo, p.3, 2004. 9 4. DURAN, L., y M., Carlos. Análisis de la fluctuación laboral en el Hospital Clínico Quirúrgico "Lucia Iñiguez Landin. Tesis de Maestría, Holguín, 2005. 5. COLECTIVO DE AUTORES. Compendio Metodológico sobre política laboral y salarial. Instituto de Estudios e Investigación del Trabajo. Ciudad de La Habana, 2000. 6. HERNÁNDEZ, M., y MÉRIDA, A. Rotación del Personal. Retrieved from on line. (S/F). 7. HIRSCHFELD, K. Retención y fluctuación: Retener empleados – Perder empleados. Retrieved from http://www.unionnetwork. org/Unisite/Groups/PMS/publications/Retention-ES.pdf, 2006. 8. RAKIC, Tomislav; SNEZANA Zivkovic. Employees’ dissatisfaction as a cause of fluctuation and their retention as the main task of human resource management in modern economy – case study. Journal of entrepreneurship and business resilience, 2020, year III Vol 3, No 1. pp. 7-19. 9. Colectivo de autores. Compendio Metodológico sobre política laboral y salarial. Instituto de Estudios e Investigación del Trabajo. Ciudad de La Habana, 2000. 10. CUESTA, Armando. Tecnología de Gestión de los Recursos Humanos. Editorial Félix Varela, 2019, La Habana, Cuba, p.41. 11. RODRÍGUEZ, Miriam T. y J. José. Gestión del Conocimiento y Capital Intelectual a través de modelos universitarios. Revista Económicas CUC, 2013, Vol. 34, No.1, pp. 85-116. Barranquilla, Colombia: Editorial Educosta. 12. GOLDIN, Claudia; LAWRENCE F. Katz. Incubator of human capital: the NBER and the rise of the human capital paradigm. National bureau of economic research, 2020, Massachusetts Avenue Cambridge, MA 02138. 13. DECRETO LEY 7/2020 “Del Sistema de Ciencia, Tecnología e Innovación”. Gaceta Oficial No. 93 Ordinaria de 18 de agosto de 2021, Cuba. 14. CUESTA, Armando (2019). Tecnología de Gestión de los Recursos Humanos. Editorial Félix Varela, 2019, La Habana, Cuba, p.3. 15. CARRILLO, Eduardo; GUTIERREZ, Fernando y DIAZ, Carlos A. Propuesta de indicadores para gestión del Capital Estructural en grupos de investigación. Univ. Empresa, Bogotá (Colombia) (22): 99- 130, enero-junio 2012. 16. BACH, Luz Herscilia. La relación de la gestión empresarial y la retención del talento humano de la empresa prestadora de servicios – EPS S.A. TACNA Perú, 2022. 17. ULE, Diana; URBANO, Genny; OSORIO, Juan D. y otros. Diagnóstico Estratégico de los Factores de Rotación Voluntaria y no Voluntaria que inciden en la Política de Retención de la Empresa Distrialturas & salud laboral S.A.S del Segundo Trimestre 2021. Universidad Nacional Abierta y a Distancia – UNAD Escuela de Ciencia Administrativa, Contable, Económica y de Negocio –ECACEN Administración de Empresas. 18. MARTÍN, C. “Gestión de Recursos Humanos y retención del Capital Humano Estratégico: Análisis de su impacto en los resultados de empresas innovadoras españolas”. Tesis de Doctorado. Facultad de Ciencias Económicas y Empresariales, Universidad de Valladolid, 2011. 19. PETERSON, S. L. Toward a theoretical model of employee turnover: A human resource development perspective. Human Resource Development Review, 3(3), 2004. 20. JERICÓ, P. Gestión del talento humano. España: Prentice Hall, 2008. 21. CHIAVENATO, I. Administración de recursos humanos (El capital humano de las organizaciones), 8va. edición, 2011, México: McGraw-Hill. 22. AGUILAR, H. K. La gestión del talento humano. Tesis de Maestría. Universidad San Francisco de Quito, 2011. 23. VIDAL, Cesar y MUÑOZ, Concha. Análisis de becas otorgadas a docentes y trabajadores de la PUCESE como mecanismo de formación y retención del talento humano. Previa a la obtención del título de Ingeniería Comercial, Mención de la PUCESE PRODUCTIVIDAD. Pontifica Universidad Católica del Ecuador, Sede Esmeraldas, 2019. Sobre los autores: Osleidys Torres Valdespino. Licenciada en Sociología con Especialización en Trabajo Social, graduada en la Universidad de La Habana, Master en Sociología, con Categoría Científica de Investigador Agregado. Ha investigado en temas relacionados con la sexualidad en la adolescencia, el trabajo social en áreas de salud, el desarrollo local, la fluctuación laboral de los jóvenes investigadores y la gestión de la innovación. Se desempeña actualmente como Subdelegada de Ciencia, Tecnología e Innovación de 10 la Delegación Territorial del Ministerio de Ciencia, Tecnología y Medio Ambiente (CITMA) de La Habana. Miembro del grupo de expertos del proyecto “Desarrollo del sistema de captación y formación de capital humano” que forma parte del Microprograma de Ciencia, Tecnología e Innovación (CTI). Miembro de la Comisión Nacional del Registro de las Entidades de Ciencia, Tecnología e Innovación (ECTI) del CITMA. Miembro de la Comisión Evaluadora para optar por el premio Giraldilla a la calidad de la gestión empresarial. Miembro del Grupo Técnico de Trabajo para el perfeccionamiento del Sistema de Programas y Proyectos de CTI. Miembro del Grupo Provincial de atención a la Política Demográfica. Rolando Serra Toledo. Licenciado en Física; Master en Óptica y Láser y Doctor en Ciencias Pedagógicas. Profesor de Física de la Universidad Tecnológica de La Habana “José A. Echeverría” CUJAE. Director del Grupo de Investigaciones de Holografía de Cuba, que posee el liderazgo nacional en la temática. Actualmente director de Ciencia, Tecnología e Innovación de la CUJAE. Ha realizado entrenamiento en Holografía y aplicaciones de Laser en varios países. Ha impartido cursos de postgrado sobre Holografía y Ensayos Ópticos no Destructivos en Cuba y España. Cuenta con más de 100 artículos publicados en revistas de impacto y memorias de Congresos Internacionales. Posee 5 patentes registradas sobre instalaciones y procedimientos para obtener hologramas y una sobre técnicas de Speckle, una de ellas internacional en Brasil. Ha participado como representante de Cuba en varios proyectos internacionales ALFA de la Unión Europea y de la AECID. Ha dirigido dos proyectos internacionales de investigación CEPES – CUBA con Brasil. Armando Cuesta Santos. Psicólogo graduado en la Universidad de La Habana, Master en Ciencia en Organización del Trabajo y Doctor en Ciencias Económicas. Desde el año 1976 se desempeña como Profesor de la Facultad de Ingeniería Industrial de la Universidad Tecnológica de La Habana “José A. Echeverría” CUJAE. Preside la Comisión de Grado Científico de la Facultad de Ingeniería Industrial e integra su Consejo Científico. Miembro del Consejo Científico de la Facultad de Psicología de la Universidad de La Habana. Es el coordinador de la Maestría en Gestión de Recursos Humanos de la CUJAE e integrante de los Comités de las Maestrías de Psicología del Trabajo y Psicología de la Dirección de la Universidad de La Habana. Ha elaborado importantes publicaciones que han sido editadas en Cuba y en el extranjero y participado en numerosos eventos nacionales e internacionales. Ha realizado numerosas consultorías en instituciones estatales, privadas y de capital mixto, en el país y en el extranjero. Adela Haber Vega. Licenciada en Información Científico-Técnica y Bibliotecología (ICT-B) en la Universidad de La Habana. Diplomada en Gerencia de Información, en el Centro de Estudios y Desarrollo Profesional en Ciencias de la Información (PROINFO), División del Instituto de Información Científica y Tecnológica (IDICT). Doctora en Ciencias de la Información, Facultad de Comunicación, Universidad de La Habana. Actualmente se desempeña como Delegada Territorial del CITMA de La Habana. Ha cursado numerosos cursos de postgrado y participado en eventos nacionales e internacionales, relacionados con su especialidad y con la gestión y gerencia de la ciencia, la tecnología y el medio ambiente. Ha impartido conferencias, asesorado y tutorado tesis de grado y de diplomados y posee varias publicaciones. ANEXO D A F O Cruzamiento de la Información Fortalezas Debilidades Jóvenes con categoría científica Satisfacción con la actividad científica Identificación con la investigación científica Vocación y compromiso con la investigación social Laboran en ECTI, con categoría de centros de investigación. ECTI con reconocimiento o en el ámbito académico Insuficiente equipamiento tecnológico Dificultades para acceder a internet Problemas personales Superación y aspiracion es profesional es fuera de la ciencia Lejanía entre el centro y la residencia Inconveniencia con el horario de trabajo Emigración O p o rt u n id a d es Interés del Estado cubano en el incremento y superación de los jóvenes insertados en la ACTI x x x x x x x x O O O O O Evaluación de acciones para la obtención de categorías científicas, título académico y grado científico x x x x x x O O O O O O O Incremento de las demandas del Partido y el Gobierno a las Ciencias Sociales. x x x x x x O O O O O O O A m e n az a s Insatisfacción con la remuneración O x x x O x x x x O x x O Insatisfacción con los sistemas de estimulación O x x x O x x x x O x x O Insatisfacción con la aplicación de los resultados de investigación x O x x x x x x x O x x O Insatisfacción con las normativas para la obtención de las categorías científicas O O x x x O x x x O x x O Dificultades con el transporte x x x x O x x x O x O O x Insatisfacción con los niveles de acceso a la superación x O x x O O O O x O x x O DIAGNÓSTICO DE LA GESTIÓN DE LOS RECURSOS HUMANOS EN UNA FACULTAD. Ing. Janett Rodríguez Acosta1, Ing. Tahimy Oviedo López2, DrC. Sonia Fleitas Triana3 1Facultad de Ingeniería Industrial, jracosta@tesla.cujae.edu.cu. 2UEB de Servicios Técnicos. 3Facultad de Ingeniería Industrial, sfleitas@ind.cujae.edu.cu. RESUMEN El trabajo fue realizado en una facultad de una universidad cubana, y tuvo como objetivo diagnosticar la gestión de recursos humanos en dicho lugar. Para ello se aplicó un modelo para el Diagnóstico Proyección y Control de (Santos 2019) y una lista de chequeo confeccionada por (Cartaya 2009). El diagnóstico realizado arrojó la existencia de una situación crítica. Existen muchas deficiencias en todos los procesos de la gestión de los Recursos Humanos (Competencia Laborales, Organización del Trabajo, Selección e Integración, Capacitación y Desarrollo, Estimulación material y moral, Seguridad y Salud del trabajo, Evaluación del trabajador, Comunicación Institucional, y Autocontrol) ya que los requisitos de evaluación solo se cumplen en un 48.15%. Este resultado tiene un reflejo en la baja satisfacción del personal de la facultad y en un índice de fluctuación laboral de un 11.53%. PALABRAS CLAVES: recursos humanos, gestión, satisfacción laboral, procesos. DIAGNOSIS OF HUMAN RESOURCES MANAGMENT IN A FACULTY ABSTRACT The work was carried out in a faculty of a Cuban university, and had the objective of diagnosing the management of human resources in said place. For this, a model for the Diagnosis, Projection and Control of Cuesta 2020 and a checklist prepared by Cartaya 2018 were applied. The diagnosis made showed the existence of a critical situation. There are many deficiencies in all processes of Human Resources management (Labor Competence, Work Organization, Selection and Integration, Training and Development, Material and moral stimulation, Occupational Health and Safety, Worker Evaluation, Institutional Communication, and Self-control ) since the evaluation requirements are only fulfilled in 48.15%. This result is reflected in the low satisfaction of the faculty staff and in a job fluctuation rate of 11.53%. KEY WORDS: human resources, management, job satisfaction, processes. 1. INTRODUCCIÓN La coordinación de los recursos humanos en universidades, es la dependencia encargada de diseñar, planear, coordinar, supervisar y evaluar ingresos, promoción, permanencia, capacitación y desarrollo del personal administrativo y académico, así como implementar, regular y administrar servicios, prestaciones y programas especiales para el personal universitario, con el fin de impulsar y fortalecer la cultura y calidad de sus trabajadores. En las Instituciones de Educación Superior de Cuba se está trabajando para mejorar sus procesos enmarcado en la Gestión de Recursos Humanos (GRH). Existen numerosas definiciones de autores sobre lo que es la Gestión de los Recursos Humanos (dessler 2001, Sonia Fleitas Triana 2001, Alles 2008, Chiavenato 2008, Chávez 2016, Alma Patricia Aduna Mondragón 2017, Pérez 2018) hay aspectos básicos que algunas concuerdan. Estos aspectos abarcan desde la relación existente entre la organización y sus trabajadores, hasta las actividades que realizan con el fin obtener capacidades, habilidades y experiencia para ser idóneos y cumplir con los objetivos de la organización. En el presente trabajo se tiene como base lo expresado por (Santos 2019) cuando define la Gestión estratégica de Recursos Humanos como el conjunto de decisiones y acciones directivas en el ámbito organizacional que influyan en las personas, buscando el mejoramiento continuo, durante la planeación, implantación y control de las estrategias organizacionales, considerando las interacciones con el entorno. En la actualidad, los tres elementos que distinguen con claridad a una gestión estratégica de los Recursos Humanos, son: la consideración de los RH como el recurso decisivo en la competitividad de las organizaciones, el enfoque sistémico o integrador en la GRH y la necesidad de que exista coherencia o ajuste entre la GRH y la estrategia organizacional(VALLE and SÁNCHEZ 2017). El presente estudio tiene como campo de estudio una facultad de una Universidad en Cuba y tiene como objetivo realizar un diagnóstico de los Recursos Humanos de dicha facultad. 2. METODOLOGÍA Un Modelo para la Gestión de Recursos Humanos es un conjunto de relaciones establecidas entre elementos de la realidad para lograr una mejor comprensión de los mismos. Estos integran diferentes políticas y prácticas de RH que son implementados para el logro de algún objetivo global de la organización. La aplicación práctica de los sistemas de GRH se realiza sobre la concepción de diferentes modelos de gestión de recursos humanos, los cuales tienen como fin común: lograr la mejora de las organizaciones ante diversos factores condicionantes. Los rasgos principales que los diferencian están en: el carácter estratégico con que proyectan Hax (1992), Zayas (1996) y Cartaya (2009), o la importancia que conceden a la auditoría de GRH como medio de control Werther y Davis(2008), Harper y Lynch(1992), Chiavenato(2005), Cuesta(2019) o la necesidad de establecer políticas de RH adecuadas Beer (1990) y Cuesta( 2005) o el papel que confieren al entorno como base para establecer el sistema de RH Werther y Davis(1991), Beer(1990) y Cuesta( 2005). Del análisis comparativo realizado se percibe la no estandarización de las actividades claves de RR.HH. La mayoría de los modelos se refieren a las mismas actividades, pero no existe un término estándar a nivel mundial para abordarlas. Existen coincidencias entre los modelos cubanos y el resto de los modelos a nivel mundial destacando la coherencia entre Cuba y el mundo con relación al Capital Humano. Se concluye que el modelo de GRH-DPC es el que más se ajusta a la presente investigación ya que proporciona una guía para la realización del diagnóstico de la gestión de los recursos humanos basada en la dirección estratégica y la filosofía gerencial como rectoras del sistema GRH. El modelo GRH-DPC se toma de referencia para realizar el diagnóstico de la Gestión de Recursos Humanos en la facultad estudiada. El modelo de GRH DPC tiene en el centro de sus subsistemas y políticas de RH a la persona manifiesta en su educación y desarrollo. La persona, su educación y desarrollo humano, es el fin y no el medio. Tal educación y desarrollo es el referente obligado para los restantes subsistemas y políticas, donde quedarán incluidos todos los procesos o actividades clave a comprender por el sistema GRH que contempla ese modelo de GRH DPC. En la figura 1 se muestra los elementos que integran el modelo con sus respectivas actividades. Figura 1: Modelo referente de GRH DPC, donde también se insertan como referentes los procesos clave asumidos en el “átomo” de las NC 3000- 3002: 2007. Fuente: (Santos 2019) Para evaluar los subsistemas y políticas de GRH establecidas en el modelo se aplica la lista de chequeo de (Cartaya 2009). Esta evalúa el cumplimiento de las premisas y requisitos exigidas por la NC 3000:2007, y los diferentes procesos claves de la GRH: Competencia Laborales, Organización del Trabajo, Selección e Integración, Capacitación y Desarrollo, Estimulación material y moral, Seguridad y Salud del trabajo, Evaluación del trabajador, Comunicación Institucional, y Autocontrol. Se utilizaron además las técnicas y herramientas siguientes: cuestionarios, análisis de documentos, lista de chequeo, diagrama causa – efecto, análisis estadístico, entrevistas, encuestas y herramientas informáticas como EndNote, Microsoft Project, Microsoft Word. 3. RESULTADOS Factores de Base: Características de las personas que trabajan. Para analizar las características de las personas que trabajan se realiza un análisis estadístico de la fuerza laboral y se aplica una encuesta para conocer sobre las motivaciones, el clima organizacional y la valoración de la administración por objetivos. La Facultad cuenta con una plantilla aprobada de 130 trabajadores, la cual tiene cubierta solamente 74 puestos, esto representa un 52% de completamiento. El 53.55% de los trabajadores son de nivel superior, el 15.3% son bachiller, mientras que los trabajadores con nivel de técnico medio y obrero calificado representa un 1.7% cada uno. Se determinó el índice de jerarquización donde se pudo comprobar que el 14,8 % del total del personal que conforman la plantilla son cuadros. En la figura 2 se observa la pirámide de edades del personal de la facultad. La misma muestra que los rangos de edades de mayor por ciento son los mayores de 60 que representa un 26% y las edades comprendidas entre 18-29 con un 32%. Existe un salto entre el personal más joven y los de mayor edad. Figura 2: Pirámides de edades del personal de la facultad. Fuente: elaboración propia. La encuesta para evaluar motivaciones, clima organizacional y administración por objetivos del personal fue aplicada a 45 trabajadores. De ellos el 57% son mujeres y el 18% hombres. Los principales resultados de la encuesta son:  El 34% alega tener buenas condiciones de vida, mientras que 46% y el 20% alega tener condiciones regulares y malas respectivamente.  El 62% le gusta el trabajo que realizan, de estos la mayoría es personal docente, mientras que el 6.6% no les gusta del todo su trabajo, y el 37.55% no les gusta nada, algunos porque no tienen vocación y otros porque no se sienten motivados, aspecto que resalta en trabajadores no docentes.  El 62% se sienten estimulados, mientras que un 38% plantean que no se sienten estimulados en la Facultad. Entre las principales causas del desestimulo que exponen los encuestados se aprecia: el proceso económico actual impacta en el desenvolvimiento económico del trabajador, mal distribución de carga de trabajo, no existen las condiciones necesarias para desempeñar algunas labores, además que existen muchos elementos burocráticos que influyen directamente en la desmotivación.  El 86% de los encuestados consideran que realizan correctamente su trabajo, sin embargo mencionan que se pueden crear las condiciones para hacerlo mejor, ya que existen frentes abiertos que dificultan el trabajo del profesor y de los cuadros; mientras que el 14% no consideran desempeñar buena labor, algunos por factores personales y otros por factores externos que la Facultad no ha podido darle solución.  El 60% de los encuestados consideran que pueden realizar otras funciones, mientras que el otro 40% no lo considera así, algunos porque no les alcanza el tiempo y otros porque simplemente no están interesados.  El 93% está interesado en recibir cursos de superación.  El 91% de los encuestados están interesados en la superación profesional, mientas que el 9% prefieren quedarse con el nivel que tienen.  La mayoría de los encuestados plantean que la organización presenta una buena cordialidad y apoyo entre los miembros, atendiendo a la desviación de puntuaciones que se observa. La satisfacción no es característica de la organización ya que existe un margen de la puntuación actual promedio por debajo de la deseada, cuya diferencia es de 1.89 aproximadamente. El reconocimiento del trabajo de los miembros y el estímulo, es otro aspecto que no se comporta favorablemente. Un indicador que se comporta de manera propicia es que la organización se considera ordenada y con metas claras; además de que las tareas, actividades y objetivos representan un desafío.  La mayoría de los encuestados plantean que la organización presenta una buena cordialidad y apoyo entre los miembros,  La satisfacción no es característica de la organización  No evalúan satisfactoriamente el reconocimiento del trabajo de los miembros y el estímulo.  La organización la consideran ordenada y con metas claras;  Las tareas, actividades y objetivos los ven como un desafío.  El 53% de total valora de bien su nivel de participación en los objetivos que se le asignan, mientras que un 47% le asigna baja puntuación a ese indicador.  El 57% de los encuestados buenos al nivel de comunicación de ellos con los jefes al establecer los objetivos de la facultad.  El 48% considera bueno las energías del grupo para resolver conflictos y que laboran verdaderamente como equipo. Factores de Base: Cultura Organizacional Para analizar la cultura organizacional que perciben los trabajadores se utilizó la encuesta Likert, la cual se muestra el estado de satisfacción de los trabajadores con el propósito de determinar, las formas en que se pueden motivar a los mismos, cuál es la situación actual del sistema de comunicación, y otros aspectos. Fue aplicada a 45 trabajadores, de ellos el 57% son mujeres y el 18% hombres. Los principales resultados de la encuesta son:  El 40% de los encuestados consideran como participativa la confianza que tienen los jefes sobre ellos, de estos 55% son trabajadores docentes y el otro 45% son no docentes. El 6.8% del total dicen que el nivel de confianza es autoritario, sin embargo esto solo lo plantean trabajadores no docentes. El resto la considera consultivo o autoritario consultivo, que representa un 53.2%.  La mayoría de los trabajadores se sienten libres como subordinados para dirigirse a sus jefes, y a menudo les piden que se pongan en práctica sus ideas. Sin embargo, no del todo contribuye a motivar al personal el modo en que se toman las decisiones, ya que los objetivos trazados por la organización se fijan con poca participación.  Las condiciones de trabajo en la facultad son regulares, ya que el 40% de los encuestados le da valoración de regular a las condiciones de trabajo de manera general y el 31% lo puntúa de bien. Factores de Base: Atractivo de la organización Los principales atractivos de la organización son las posibilidades de superación y los horarios flexibles del personal docente. A pesar de esto se conoce que, de enero del 2020 a noviembre del 2021, ocurrieron 28 bajas de estas 17 es personal docente y 11 no docentes. Del personal docente, en este período, el 25% de las bajas son profesores auxiliares, el 47% de las bajas son profesores titulares, el 4.5% son asistentes y 17.5 son recién graduados; estos son los trabajadores más jóvenes, recién ingresados en la Facultad, que generalmente son reclutados entre los egresados de la carrera. El índice de fluctuación laboral calculado es de 11.53%. Factores de Base: Tecnología de las Tareas La Facultad tiene delimitado correctamente todos los procesos estratégicos mediante un diagrama de procesos, en el cual se ve evidenciado la interrelación existente en todos sus procesos y subprocesos. Por otra parte, los trabajadores tienen concretados sus líneas de trabajo o dimensiones, las cuales se evalúan en el plan de resultados de los profesores y se encuentran separadas en: Para el caso de los docentes  Trabajo político ideológico  Trabajo docente educativo en pregrado y postgrado  Trabajo metodológico  Trabajo científico, técnico y de innovación tecnológica  Superación  Trabajo de extensión universitaria Para el caso de los no docentes:  Tareas vinculadas al cumplimiento de los objetivos, funciones y tareas individuales y la realización del trabajo con eficiencia, calidad y productividad requerida.  Capacitación y desarrollo individual.  Trabajo de extensión universitaria. Varios trabajadores docentes en sus encuestan alegan sobre carga de trabajo. Factores de Base: Leyes y valores de la sociedad En la Facultad la actividad laboral se encuentra regulada por los Decretos y leyes vigentes en el país, se lleva a cabo el cumplimiento de las leyes que rigen la sociedad cubana, teniendo en cuenta las legislaciones y especialmente aquellas provenientes de los máximos niveles del gobierno y el estado, así como, de las orientaciones que son recibidas del Ministerio y del Instituto. La organización para la GRH cuenta con una serie de leyes y regulaciones específicas. Entre las más importantes que influyen en el trabajo del personal se pueden nombrar: reglamento interno de la Cujae, Reglamento metodológico, calificadores de cargo, la evaluación del desempeño de trabajador que se regirá por la Resolución 66/2014 del Ministerio de Educación Superior, el decreto No. 3771 donde se recoge lo relacionado con el reglamento de los principios y objetivos del servicio social de los recién graduados donde algunos de los aspectos se ven reflejados en la Facultad, ya que los estudiantes que deseen realizar su servicio social en la Facultad pueden hacerlo siempre y cuando esta los necesite, la Resolución Rectoral No.036/2020 que tiene como objetivo establecer las normas que rigen la actividad laboral del Instituto, el sistema de pago en la facultad se realiza mediante la Resolución 44 y la 36 dictada por Ministra de Trabajo y Seguridad Social, la cual está vigente desde marzo de 2021, y el Código del Trabajo vigente desde el 2013. Grupos de interés Los grupos de interés en la facultad de ingeniería industrial están conformados por los directivos, las empresas, los estudiantes, y los trabajadores. Dirección estratégica No se observa una dirección estratégica de los recursos humanos en la facultad. Competencias laborales y organización que aprende La facultad no tiene identificada las competencias laborales de la organización, ni las competencias de manera de individual de sus trabajadores, por tanto, no se pueden definir las brechas entre las competencias laborales de los cargos y las competencias laborales de las personas que actualmente los ocupan. Para analizar con más profundidad en qué estado se encuentra la facultad respecto a la organización que aprende se utiliza la lista de chequeo “Prueba de la organización que aprende”, que aparece en (Santos 2019) con la cual se llegó a los resultados siguientes: Aspectos positivos  La organización con frecuencia reconoce y recompensa el valor del conocimiento creado y compartido por personas y equipos; además facilita la experimentación como un modo de aprender.  En la organización algunas veces cuando concluye una tarea, algún equipo divulga la documentación o lo que se aprendió, se evalúa de modo sistemático sus necesidades futuras de conocimiento y se desarrolla planes para atenderlas y además estimula sus capacidades de generar, adquirir y aplicar. Estas acciones, aunque se consideran positivas, ya que se realizan algunas veces, deberían ser implementadas con más frecuencia. Aspectos negativos  La organización rara vez aprende de la experiencia, ya que en muchas oportunidades repite los errores detectados con anterioridad. Infrecuentemente cuando alguien sale de la organización permanece su conocimiento. Además, el conocimiento generado en todas las áreas de la facultad no es investigado y puesto a disposición a todos a través de bancos de datos, entrenamiento y eventos de aprendizaje. Subsistemas y políticas de GRH Los subsistemas y políticas se analizan describiendo cada política y analizando los procesos de la gestión de los recursos humanos mediante la lista de chequeo de (Cartaya 2009). Política de educación y desarrollo La Facultad permite la incorporación de sus trabajadores a los diferentes cursos de superación que comienzan, con el objetivo de mantener un crecimiento sostenido del nivel educacional y cultural de los mismos, así como el desarrollo de la organización como un todo. A pesar de esto, estos cursos no son gestionados en función de las competencias de los trabajadores. Flujo de recursos humanos Para el análisis del flujo de los recursos humanos es necesario conocer cómo se comportan los indicadores de reclutamiento, selección, evaluación del desempeño y promoción, pero esto no es posible porque en la facultad no se registran datos que permita poder calcularlos. Compensación laboral El sistema de pago en la facultad se realiza mediante la Resolución 44 y la 36 dictada por la Ministra de Trabajo y Seguridad Social, y está vigente desde marzo de 2021. Los salarios se establecen en dependencia a los cargos técnicos vinculados directamente al proceso docente (profesor titular, profesor auxiliar, profesor asistente, instructor, y auxiliares técnicos de docencia). Los salarios de los cargos de Metodólogo, Secretario Docente y Profesor Principal de año académico, se establece en correspondencia con la categoría que ostente el profesor universitario. Sistema de trabajo Con el objetivo de analizar la política de sistemas de trabajo, y llegar a conocer las deficiencias y el estado en que se encuentra la organización con respecto a la misma, se realizaron entrevistas y observaciones. De estas se obtuvo que:  En la facultad no se cuenta totalmente con el inmobiliario adecuado, aspecto que se ha venido tratando de dar solución. Ejemplo de esto es que no en todos los departamentos, ni en todas las aulas docentes se encuentran climatizadas de la manera más adecuada.  En el área de los Recursos Humanos, se presenta una deficiencia en el llenado de los expedientes de los trabajadores.  La protección e higiene del trabajo están controladas por el área de RH, pero en este sentido es necesario recabar a la sensibilidad de los directivos en general, que tiene que tomar decisiones respecto al fondo de presupuesto que es necesario destinar a esta actividad, especialmente en la compra de extintores y demás medios de protección.  Existen problemas con la asignación de las aulas a los profesores, ya que en repetidas ocasiones los profesores se encuentran con que el aula que tenían asignada está ocupada, lo que suele estar provocado por la propia indisciplina de los profesores, que cambian turnos de clases y ocupan aulas que no le están asignadas, afectando así a otros profesores. En cuanto al personal no docente, existe una sobrecarga de trabajo sobre algunos trabajadores, ejemplo de esto, se evidencia en el departamento de Recursos Humanos.  Se intenta aprovechar al máximo el tiempo de trabajo, sobre todo por los profesores. Evaluación de los procesos claves de la Gestión de Recursos Humanos. En la figura 3 se muestra el estado de implementación de las premisas del modelo de (Cartaya 2009). Según la implementación de las premisas en la Facultad, estas se cumplen en un 63,16%. Como se puede observar las premisas de más bajo porciento de cumplimiento son Participación efectiva de los trabajadores, la cual obtuvo el porcentaje más bajo y seguido de esta es clima organizacional y orientación estratégica. Figura 3: Estado de Implementación de las premisas. Fuente: Elaboración propia Los resultados concernientes a la evaluación de los módulos se pueden encontrar en la tabla 1, según cada una de las preguntas, mientras el resumen de este aspecto del sistema de diagnóstico se aprecia en la Tabla 1. Tabla 1. Evaluación de los módulos No. Módulo Evaluación I Competencias Laborales 33,33% II Organización del Trabajo 44,44% III Selección e Integración 55,56% IV Capacitación y Desarrollo 55,56% V Estimulación material y moral 55,56% VI Seguridad y Salud en el Trabajo 44,44% VII Evaluación del Trabajador 44,44% VIII Comunicación Institucional 44,44% IX Autocontrol 55,56% Evaluación Integral de los Módulos. 48,15% Las competencias laborales tienen niveles bajos de implementación ya que estas no están identificadas en la Facultad, solo se aplican los calificadores de cargos de acuerdo a los requisitos que exigen cada puesto de trabajo. Los módulos de Organización de trabajo, Seguridad y Salud en el Trabajo, Evaluación del Trabajador y Comunicación Institucional alcanzaron un porcentaje de un 44,44%, ya que la mayoría de los indicadores que se miden fueron valorados como malos. Entre las deficiencias encontradas está que no se desarrollan estudios de la organización del trabajo, la no existencia un plan de SST con enfoque de prevención de riesgos, que no se toman decisiones necesarias respecto al fondo de presupuesto que es necesario destinar a la actividad de protección e higiene. La evaluación del trabajador se realiza, pero no tiene en cuenta la gestión por competencias y tampoco existen evidencias de que en la facultad estén definidos los tipos de información concebidas en una comunicación eficaz. Todo lo planteado anteriormente da como resultado de que exista una evaluación de los módulos de un 48,15%. El nivel estratégico es de 54.35%, la integración interna es de 48,15% y la integración externa es de 63,16. Estos resultados no son favorables para una Gestión Estratégica de la Recursos Humanos. Problemáticas identificadas Como resultado del diagnóstico realizado se identificaron una serie de problemáticas que se resumen en la Figura 4. Fig. 4. Problemáticas identificadas en la GRH de la facultad. Fuente: Elaboración propia. 4. DISCUSIÓN Los análisis de los resultados estadísticos muestran una alta fluctuación laboral ya que esta es del 11.53 %, esto significa que constantemente existen bajas y altas a la facultad y el conocimiento que tienen esos trabajadores y los recursos invertidos en ellos se pierden. Esta situación se ve agravada al tener poco más de la mitad de la plantilla cubierta, y que de esos el 26% es personal mayor de 60 años, edades de retiro y que en el corto plazo dejarán de trabajar o trabajarán menos horas. Todos estos datos muestran una situación actual muy compleja que demuestra que existen deficiencias en la gestión de los recursos humanos de la facultad. Los atributos individuales que determinan la propensión al abandono o no de una organización están relacionados con el nivel de satisfacción de las recompensas, con el trabajo, el nivel de cono- cimientos y habilidades de la persona, etc.; en relación a las características organizativas, aspectos como el estilo de dirección, el clima de trabajo, entre otras; y factores del ambiente, aspectos como la ubicación de la empresa, el nivel de incertidumbre del sector, etc. en definitiva, todas ellas son variables a considerar en el análisis de qué es lo que determina la propensión del individuo a abandonar o permanecer y cuáles son los costes implícitos. Sólo de esa manera podrán realmente articularse políticas de recursos humanos que conduzcan a un índice óptimo de rotación e incidir en la retención de los empleados (Dolan, Cabrera et al. 2007). Con el estudio descrito anteriormente se identificaron varios elementos que inciden en un incremento de la fluctuación. Al analizar las opiniones de los trabajadores se observa que el 62% le gusta su trabajo y está motivado, sin embargo al analizar las motivaciones, el clima organizacional, la cultura organizacional y sobre la administración por objetivo existen insatisfacciones relacionadas con la situación económica, sobre carga de trabajo, malas condiciones, la no realización de estímulos, baja participación de los trabajadores en los objetivos de su trabajo y de la organización y la existencia de procesos burocráticos. Al pensar en elementos que pudieran ayudar a incrementar la satisfacción de los trabajadores se encuentra un elemento y es que el 93% les interesa cursos de superación. Esto pudiera ser una oportunidad para motivar y trabajar el compromiso de los trabajadores. La participación de los trabajadores en la toma de decisiones de la facultad es bajo y se alega estilos de dirección entre autoritario y autoritarios consultivos en un 60% de los trabajadores. Si se realizan acciones para incrementar la participación aprovechando que se observa un buen clima de cordialidad, organización, con metas claras y con libertad para comunicación con los jefes, esto influiría en el incremento del compromiso con la organización. Se pudieran realizar el análisis estratégico con los trabajadores de la facultad para planificar el trabajo de la facultad, de esta forma se incrementa la participación del personal y esto puede incidir en la motivación del personal. Al analizar el funcionamiento de los procesos de recursos humanos a través de la evaluación de las premisas y requisitos exigidas por la NC 3000:2007 que se usa como referente para una adecuada gestión de los recursos humanos, resultó con un bajo nivel de cumplimiento lo que demuestra que desde el diseño y planificación de los diferentes procesos existen deficiencias. Los resultados demuestran que las deficiencias en el diseño y planificación de los procesos tienen un reflejo en la satisfacción de los trabajadores de la facultad, y que si no se toman medidas de urgencia para el perfeccionamiento de la Gestión de los Recursos Humanos, la fluctuación laboral continuará aumentando y estará en juego el futuro de la facultad. Es necesario aplicar el resto de las CONCLUSIONES El trabajo realizado demuestra la necesidad de implementar políticas que ayuden a cambiar los resultados obtenidos, es necesario una mejora de los procesos de la gestión de los recursos humanos en la facultad, para ello se puede continuar desarrollando las etapas de proyección y control del modelo (Santos 2019), y debería definirse varios indicadores que deben corresponderse con la estrategia de la organización como se plantea por (Gabčanová 2012). Esa solución debe ir acompañada de la máxima dirección de la Universidad a la que pertenece para poder obtener los recursos y facilitar los procedimientos necesarios. BIBLIOGRAFÍA Alles, M. (2008). Dirección Estratégica de recursos Humanos. Gestión por Competencias. Casos. Argentina, Granica. Alma Patricia Aduna Mondragón, E. G. M., Érika J. Chávez Gutiérrez (2017). "Modelos de gestión de Recursos Humanos." Cartaya, A. M. (2009). Capital humano: hacia un sistema de gestión en la empresa cubana, Editora Política. Chávez, L. M. V. (2016). Gestión del talento humano. Escuela Superior Politécnica de Chimborazo. Chiavenato, I. (2008). Gestión del Talento Humano, Mc. Graw Hill. dessler, G. (2001). Adminsitración de personal. México, Person education. Dolan, S. L., R. v. Cabrera, S. E. Jacson and R. S. Schuler (2007). La gestión de los Recursos Humanos. Cómo atraer, retener y desarrollar con éxito el capital humano en tiempos de transformación., Mc Graw Hill. Gabčanová, I. (2012). "Human resources key performance indicators." Journal of competitiveness. Pérez, J. M. R. (2018). "La Gestiòn de los Recursos Humanos en el contexto de las organizaciones y su entorno." Santos, A. C. (2019). "Tecnología de Gestión de Recursos Humanos." Anales de la Academia de Ciencias de Cuba 9. Sonia Fleitas Triana, L. V. F. (2001). "ENFOQUE DE PROCESOS EN LA GESTIÓN DE RECURSOS HUMANOS." Ingeniería Industrial. VALLE, R. S. and R. S. SÁNCHEZ (2017). "FUNDAMENTOS DE LA DIRECCIÓN ESTRATÉGICA DE RECURSOS HUMANOS: EVOLUCIÓN DEL PENSAMIENTO EN ESTRATEGIA." DPTO. ORGANIZACIÓN DE EMPRESAS UNIVERSIDAD DE MURCIA. 1. Sobre los autores 1 Ingeniera Industrial, Profesor Instructor, y Vicedecana Económica Administrativa de la Facultad de Ingeniería Industrial. 2 Especialista B de Gestión de Recursos Humanos de la UEB de Servicios Técnicos. 3 Doctora en Ciencias Técnicas, Profesor Titular, Coordinadora de la Maestría de Ingeniería Industrial y Sistemas de la Facultad de Ingeniería Industrial. EVALUACIÓN DE LA CAPACIDAD DE GESTIÓN DE RECURSOS HUMANOS EN LA EMPRESA ANTILLANA DE SALVAMENTO Dra. Damaris Laudelina Pérez Hechavarría1, Dra. Dalina Ruiz Fernández2, Dr. C. Yuniel Bolaño Rodríguez3 1 Empresa Antillana de Salvamento. Grupo Empresarial de Transporte Marítimo Portuario. MITRANS. 2Centro Nacional de Capacitación Azucarera. AZCUBA. 3Universidad Tecnológica de La Habana José Antonio Echeverría. Facultad de Ingeniería Industrial. 1e-mail: aniesther@as.transnet.cu RESUMEN En este trabajo se presenta un instrumento para evaluar la capacidad de gestión de recursos humano de la empresa. La lista de chequeo de la capacidad de gestión de recursos humanos de la empresa integra 7 variables y 29 elementos. Entre las variables se encuentran: selección e integración al empleo, organización del trabajo, capacitación y desarrollo de competencias laborales, salario y remuneración laboral, estimulación y atención al hombre, seguridad y salud del trabajo, evaluación del desempeño e idoneidad demostrada. Se realiza la aplicación de la lista de chequeo en la Empresa Antillana de Salvamento obteniéndose una capacidad de gestión de recursos humanos de 3,31 puntos lo que califica como un valor medio. Entre las principales insuficiencias se encuentran: la escasa capacitación y desarrollo de las competencias laborales, las insuficiencias en el diseño y aplicación del sistema de salario y remuneración laboral, poca estimulación y atención al hombre esencial para lograr la satisfacción laboral. PALABRAS CLAVES: Recursos humanos, gestión de recursos humanos, capacidad de gestión, evaluación. EVALUATION OF THE CAPACITY OF HUMANS RESOURCES MANAGEMENT IN THE ANTILLEAN COMPANY OF SALVAGE ABSTRACT In this work, an instrument is presented to evaluate the capacity of humans resources management of the company. The list of checkup of the capacity of human’s resources management of the company integrates 7 variables and 29 elements. Among the variables, they are: selection and integration to the employment, organization of the work, training and development of labor competitions, wage and labor remuneration, stimulation and attention to the man, security and health of the work, evaluation of the acting and demonstrated suitability. It is carried out the application of the checkup list in the Antillean Company of Salvage being obtained a capacity of humans resources management of 3,31 points what qualifies as a half value. Among the main inadequacies, they are: the scarce training and development of the labor competitions, the inadequacies in the design and application of the wage system and labor remuneration, little stimulation and attention to the man to achieve the labor satisfaction. KEY WORDS: Humans Resources, Humans Resources Management, capacity of management, evaluation. 1. INTRODUCCIÓN La Política de Estado en Cuba siempre ha favorecido a los trabajadores con la aplicación de diversas medidas en busca de mejores resultados económicos y sociales. Entre las principales transformaciones que fundamentan la actualización del Modelo Económico, Social y de Desarrollo Socialista se tiene: Lograr que el trabajo y la laboriosidad constituyan valores morales cardinales y que la aplicación del principio de distribución socialista con arreglo a la calidad y cantidad del trabajo, posibilite que este sea la vía fundamental de satisfacción de las necesidades materiales y espirituales, incluida la materialización de los proyectos de vida individuales, familiares y colectivos (Comité Central del Partido Comunista de Cuba, 2021). Los recursos humanos juegan un papel importante en la transformación del modelo económico y social cubano, ya que se reconoce su elevado nivel de instrucción general y las posibilidades para su desarrollo y crecimiento, a partir de los programas de formación y capacitación que pueden gestionar las entidades con las instituciones de educación. En el Plan Nacional de Desarrollo Económico y Social hasta 2030: propuesta de visión de la nación, ejes estratégicos y sectores estratégicos, se determinó la importancia de desarrollar el potencial humano de alta calificación y garantizar condiciones para su protección y estabilidad. Por otra parte el Decreto Ley No. 252 y su reglamento, el Decreto 281 (Consejo de Estado, Consejo de Ministros, 2007) para la implantación y consolidación del Sistema de Dirección y Gestión Empresarial Estatal, incluyen entre los sistemas que lo componen, el Sistema de Gestión del Capital Humano con enfoque de competencias laborales. De igual forma, constituye un elemento esencial para el desarrollo de la gestión de los recursos humanos en las empresas las normas cubanas NC 3000: 2007, NC 3001: 2007 y NC 3002: 2007 que especifican el vocabulario (términos y definiciones), los requisitos y la implementación del sistema de gestión integrada de capital humano que desarrolla 9 módulos: competencias laborales, organización del trabajo, selección e integración, capacitación y desarrollo, autocontrol, estimulación moral y material, seguridad y salud en el trabajo, evaluación del desempeño y comunicación institucional. Muchas de las investigaciones consultadas plantean que la gestión del capital humano basado en un enfoque de competencias permite lograr mejores resultados en la satisfacción laboral, el desarrollo del talento humano y la mejora del desempeño laboral; y a su vez esto permite mejorar el desempeño de las organizaciones (Alonso Suárez C., Parra Rojas R., Arronte Cruz L., 2010; Flores Galaviz J. L., Chavarría López L. R., 2016; Zayas Barreras I., 2020; Suárez Caimary I.L., y otros, 2020). La gestión de recursos humanos contribuye a elevar y potenciar las habilidades y conocimientos de los empleados, facilita la interacción de grupo y posibilitan la transferencia y almacenamiento del conocimiento, que de una manera u otra, influyen en el rendimiento de la empresa (El Assafiri Ojeda Y., y otros, 2019; Acuario Armas J.A., y otros, 2020). La gestión del capital humano de forma sistemática, estratégica e integrada desde un enfoque de competencias: es una necesidad urgente si se requieren lograr resultados eficaces, eficientes y competitivos en el sistema empresarial estatal cubano (Suárez Caimary I.L., y otros, 2020). “La ventaja competitiva básica de las empresas a inicios del nuevo milenio, definitivamente, radicará en el nivel de formación y gestión del talento de los recursos humanos” (Cuesta, 2019). Para el desarrollo de los recursos humanos es esencial la gestión del talento humano, constituyendo este último, el proceso mediante el cual se obtiene capital intelectual valioso, y dentro de este se resalta la importancia de gestionar, reclutar, seleccionar, evaluar y controlar incluso capacitar a los empleados (Zayas Barreras I., 2020) para desarrollar permanentemente las capacidades necesarias en función del mejor desempeño laboral y su impacto en el desempeño empresarial. La gestión de talento humano debe tener cuenta la forma de pensar de las personas, compromiso, actitud coherente y leal con los valores institucionales, equidad, distribución de funciones, responsabilidad y actuación con ética que privilegia el servicio a sus socios y clientes sobre el cumplimiento cabal de las obligaciones designadas (Acuario Armas J. A., y otros, 2020; Silva L., y otros, 2020). La gestión del talento humano es una necesidad para el crecimiento de la empresa ya que el éxito de la misma recae sobre el nivel competitivo de sus recursos humanos constituyendo el talento humano una fuente de competitividad de la organización (Zayas Barreras I., 2020). A través del capital intelectual de las organizaciones, se garantiza la sustentabilidad de las naciones, además de desarrollar tendencias como: alto desempeño, gestión del conocimiento, tecnologías, intangibles, productividad y competitividad, componentes estratégicos del desarrollo institucional (Alarcón Quinapanta M., y otros, 2019). La medición del capital humano debe efectuarse a partir de 4 componentes: conocimiento, valores compartidos, competencias laborales y tipología del personal. Cada uno de estos componentes se puede desagregar en un conjunto de variables e indicadores para evaluar el activo intangible e incrementar la efectividad de su gestión (Gallego Giraldo C., Naranjo Herrera C. G., 2020). Para lograr un mejor desempeño laboral se debe tener en cuenta el compromiso de las personas con la organización, lo que debe ser un elemento imprescindible a tener en cuenta en la cultura organizacional y en la gestión de los recursos humanos (Báez Santana R. A., y otros, 2019) donde se busque no solo el bien de la organización sino también el bien de las personas. Se considera además la calidad de vida y las condiciones de trabajo como requisitos necesarios e indispensables para la satisfacción de los trabajadores (Silva L., y otros, 2020). El reconocimiento de que el capital humano es un activo estratégico relevante para el futuro de las empresas, implica que los modelos de gestión empresarial deben incorporar elementos asociados con la calificación de la fuerza de trabajo, la evolución de la actividad de capital humano, la distribución de los trabajadores en los diferentes procesos de la empresa, el análisis de los perfiles de puestos, así como la necesidad de integración del sistema de gestión de capital humano con otros sistemas de gestión de la empresa (Cadalzo Díaz Y., Caballero Torres I., Becerra Alonso M.J., (2017). Por otra parte la investigación se realiza en la Empresa Antillana de Salvamento, donde existe desmotivación de los trabajadores, deficientes condiciones de trabajo, insuficiente estimulación material y moral, con el deterioro del clima laboral, la insuficiente capacitación y formación de los trabajadores, todas ellas traen consigo el bajo nivel de satisfacción, desarrollo y desempeño de los trabajadores. Teniendo en cuenta estos elementos, este trabajo tiene como objetivo: evaluar la capacidad de gestión de recursos humanos en la Empresa Antillana de salvamento. 2- BASES TEÓRICAS PARA LA GESTIÓN DE RECURSOS HUMANOS El sistema de Dirección de la empresa debe integrar las funciones o subsistemas: Logística, Finanzas, Recursos Humanos, todos los subsistemas, como parte de una estrategia empresarial total para agregar valor, los cuales están unidos por un propósito común: el que indica su misión para satisfacer las necesidades presentes y futuras de la sociedad, que es la base de la creación de valor (Alfonso, D.2007). El perfeccionamiento empresarial es imprescindible concebir este proceso como la necesidad de rediseñar, reorganizar, transformar, cambiar y, desde luego, desarrollar aquello que puede potenciar todo este proceso. Esto va mucho más allá de soluciones tecno-estructurales más o menos formales y, como es natural, comprende a las personas (Alhama Belamaric, R., y otros, 2005). Además de propósitos económicos, la empresa es un ámbito de expresión individual, fuente de identidad de las personas en el trabajo; algo poco entendido y menos tratado en la práctica cotidiana. El valor del conocimiento potenciado sobre la base de una dirección de personas que sean capaces de plantearse como objetivo la empresa, es una condición previa para todos los demás objetivos contenidos en las bases del perfeccionamiento empresarial. Cada vez más las ventajas competitivas de las empresas están enmarcadas en su capital humano, el cual, a su vez, permitirá obtener la capacidad de cambio, aprendizaje de la organización y dirección participativa, eficaz y eficiente. Si la estrategia de gestión de recursos humanos carece de coherencia y no establece otros objetivos a corto y mediano plazos, el impacto negativo mañana puede ser abrumador. El capital intelectual está compuesto por: capital humano competencias individuales, conocimientos, potencial innovador, valores; capital complementario constituido por alianzas estratégicas; y capital estructural es clave, pues permite la realización de los anteriores y está constituido por la capacidad de aprendizaje de la organización, la capacidad de cambio, la estrategia, la cultura, la visión, los sistemas de información, entre otros. Se ha demostrado en múltiples investigaciones que se puede mejorar el desempeño de la empresa a través de estrategias concretas basadas en la gestión de recursos humanos como son: la responsabilidad social donde es importante la formación de los trabajadores existiendo un plan de carreras; la comunicación institucional donde los trabajadores no conocen las políticas internas de la empresa; y finalmente se encuentra el factor liderazgo generando un bajo desempeño, pues no existe la confianza y comunicación subordinado - jefe directo, los líderes buscan el lucimiento personal y no comparten el crédito con sus colaboradores, no se apoya el auto desarrollo del empleado para estimular su potencial, de tal manera que pueda trabajar con confianza en sí mismo, son escasos los reconocimientos y muy frecuentes los castigos y los líderes rara vez se preocupan por las necesidades personales de los empleados (Flores Galaviz, J. L y Chavarría López, L. R., 2016). La gestión del talento humano se puede entender como una serie de decisiones acerca de la relación de los empleados que influyen en la eficacia de estos y de las organizaciones. En las organizaciones las personas se encargan de diseñar, producir un bien o un servicio, de controlar la calidad, de distribuir los productos, de asignar recursos, de establecer objetivos y metas en la organización; sin trabajadores eficientes es imposible que la organización logre los objetivos. La gestión del talento humano se basa en estrategias, mismas que se encuentran centradas en lograr aprovechar máximamente el potencial de cada individuo, asegurándole la estabilidad laboral en una organización, la adquisición de nuevos conocimientos y habilidades, así como reducir el ausentismo laboral y pulir la moral de cada empleado. La gestión del talento humano integra un sinnúmero de dinámicas que la nutren y la enriquecen en favor de la organización como la aplicación e interpretación de pruebas psicológicas y de entrevistas, también se habla de tecnología del aprendizaje, planes de vida y carrera, diseño de los puestos y de la organización, satisfacción en el trabajo, ausentismo, salarios y gastos sociales, mercado, ocio, incentivos, accidentes, disciplina y actitudes, interpretación de las normas laborales, eficiencia y eficacia, estadísticas y registros/certificación, transporte para el personal, responsabilidad a nivel de supervisión, auditoria y un sinnúmero de asuntos diversos. La gestión del talento humano incluye seis procesos básicos indicados por Chiavenato: Admisión de personas, aplicación de personas, compensación de las personas, desarrollo de personas, mantenimiento de personas y evaluación de persona (Zayas Barreras, I. 2020). Entre las secciones básicas de la gestión de recursos humanos se destacan: selección y contratación de personal, formación y reciclaje, relaciones internas, bienestar social y laboral, expedientes de empleados, remuneraciones y nóminas. Una correcta selección de personal permite mejorar la eficiencia de la empresa, resaltando lo mejor de cada empleado. Planificar las necesidades del personal, es decir, conocer el número total de empleados que se requiere y para qué puesto, o bien, qué funciones deben desempeñar, esto evitará que existan puestos de trabajos innecesarios. Para una efectiva gestión empresarial se ha de procurar reunir y desarrollar las capacidades y talento de los recursos humanos de la empresa con el fin de obtener una gestión eficaz, brindándoles al mismo tiempo la oportunidad de que contribuyan con su experiencia y formación su incorporación a los equipos de trabajo. También es muy importante, garantizar condiciones de empleo justas y a la vez, satisfactorias. Es esencial dentro de las responsabilidades del director de recursos humanos de una empresa la organización de cursos de formación y reciclaje y las acciones formativas de los mismos, seleccionados los tutores o instructores adecuados y evaluando los resultados finales. Es necesario el perfeccionamiento continuo de la formación de trabajadores, especialistas y directivos. Los planes de formación se deben hacer, programar y validar sus resultados sobre la base de las necesidades de formación identificadas (González Meriño, R. F., 2020). La formación significa de por sí un cambio en el comportamiento de las personas en todas sus actividades, pero deben orientarse a la formación, no a cualquier cambio, sino a los que conscientemente fueron previstos por su incidencia en la efectividad del desempeño (Báez Santana, R. A., y otros, 2018). La gestión del capital humano y los factores como comunicación, liderazgo, y seguridad social pueden tener repercusiones en el desempeño, el desarrollo y la competitividad de las empresas. De igual forma constituye un elemento esencial de la gestión del capital humano la evaluación del desempeño individual y organizacional al considerar la efectividad como indicador y que los jefes son los máximos responsables de la formación y evaluación del desempeño del personal, lo cual requiere abordajes integrales más efectivos (González Meriño, R. F., 2020). Los jefes son los observadores directos del desempeño de sus colaboradores, son quienes los evalúan, compensan, promueven o remueven, y por tanto, conocen sus debilidades y pueden identificar las necesidades de formación de los mismos (Báez Santana, R. A., y otros, 2018). La evaluación de desempeño es la base para la mejora continua; recompensando desempeños exitosos y emprendiendo acciones correctivas con los no exitosos. En los casos identificados de insuficiente desempeño por causa de desconocimiento y no saber hacer, pueden incluirse las reducciones de compensaciones, demociones y planificación de actividades de capacitación para la mejora del desempeño. 3- INSTRUMENTO PARA LA EVALUACIÓN DE LA CAPACIDAD DE GESTIÓN DE RECURSOS HUMANOS DE LA EMPRESA A partir del estudio de las bases teóricas en el acápite anterior se han identificado 7 variables para el desarrollo de la Capacidad de gestión de recursos humanos de la empresa:  Selección e integración al empleo.  Organización del trabajo.  Capacitación y desarrollo de competencias laborales.  Salario y remuneración laboral.  Estimulación y atención al hombre.  Seguridad y salud del trabajo.  Evaluación del desempeño e idoneidad demostrada. A partir de estas variables se determinaron un grupo de elementos o temas relevantes que serán necesarios evaluar su comportamiento práctico en las empresas, como se muestran en la tabla 1. Teniendo en cuenta las 7 variables y 29 elementos de la capacidad de gestión de recursos humanos se tiene una lista de chequeo que evalúa los elementos de 1 a 5 puntos donde: 1 significa que está MUY MAL la aplicación del elemento, 2 significa que está MAL la aplicación del elemento, 3 significa que está REGULAR la aplicación del elemento, 4 que está BIEN la aplicación del elemento y 5 que es EXCELENTE la aplicación del elemento. También en la lista se ha definido una redacción de las buenas prácticas de cada elemento así como los problemas. Si los comportamientos de un elemento en la Empresa corresponden con las buenas prácticas entonces su puntuación puede estar entre 4 o 5 puntos, si por el contrario su comportamiento corresponde con los problemas entonces la puntuación puede estar entre 1 o 2 puntos, dejando la puntuación 3 como rango intermedio entre las buenas prácticas y los problemas. A continuación se muestra en la tabla 2 una parte de la lista de chequeo. Tabla 1: Variables y elementos que determinan la capacidad de gestión de los recursos humanos. Variables de la capacidad de gestión de recursos humanos Elementos 1. Selección e integración al empleo 1.1 Promoción y ofertas de empleo. 1.2 Selección de personal para el empleo. 1.3 Contratación de trabajadores. 1.4 Inducción de trabajadores en la empresa. 1.5 Organización de los expedientes laborales. 2. Organización del trabajo 2.1 Régimen de trabajo y descanso. 2.2 Plan de organización del trabajo. 2.3 Estudios de la organización del trabajo. 2.4 Diseño de los puestos de trabajos. 2.5 Organización y servicio de los puestos de trabajos. 2.6 Normación del trabajo. 3. Capacitación y desarrollo de competencias laborales 3.1 Determinación de las necesidades de capacitación y desarrollo de competencias del talento humano. 3.2 Diseño del plan de capacitación de la empresa. 3.3 Implementación de acciones de capacitación. 3.4 Evaluación del impacto de la capacitación. 4. Salario y remuneración laboral. 4.1 Diseño del sistema de salario y remuneración. 4.2 Implementación del sistema de salario y remuneración. 4.3 Evaluación del impacto del salario y la remuneración. 5. Estimulación y atención al hombre. 5.1 Estimulación y reconocimiento moral. 5.2 Estimulación material. 5.3 Atención al Hombre. 6. Seguridad y salud del trabajo. 6.1 Sistema de gestión de la seguridad y salud del trabajo. 6.2 Identificación, análisis y evaluación de peligros y riesgos laborales. 6.3 Acciones de prevención de riesgos laborales. 6.4 Equipos y medios de protección del trabajo. 6.5 Mejoras del diseño ergonómico de los puestos de trabajo. 7. Evaluación del desempeño e idoneidad demostrada. 7.1 Reglamentos para la evaluación del desempeño y la idoneidad demostrada. 7.2 Evaluación parcial y anual de los trabajadores. 7.3 Funcionamiento del comité de expertos de la idoneidad demostrada. La lista de chequeo debe ser aplicada a directivos y especialistas de la empresa que tengan conocimientos sobre la gestión de recursos humanos e igualmente tengan experiencia y conocimientos prácticos de los procesos fundamentales de la empresa. Para la evaluación de cada una de las variables se toma la media de los valores de los elementos asociados y así as u vez la capacidad de gestión de recursos humanos se evalúa a través de los valores promedio de cada una de las variables. A partir de los elementos y variables limitantes de la capacidad de gestión de recursos humanos se puede elaborar un programa de mejoras por la dirección de la empresa. Tabla 2: Muestra de la lista de chequeo para la evaluación de la capacidad de gestión de recursos humanos. 4- RESULTADOS DE LA EVALUACIÓN DE LA CAPACIDAD DE GESTIÓN DE RECURSOS HUMANOS EN LA EMPRESA ANTILLANA DE SALVAMENTO Se aplicó la lista de chequeo a un grupo de expertos de la Empresa Antillana de Salvamento que se dedica a brindar servicios de salvamento de buques y de embarcaciones en el mar, servicios de buceo y dragado de las bahías. Se seleccionaron 7 expertos a partir de su conocimiento y experiencia en la actividad y en la empresa. Los resultados muestran que existe concordancia entre los expertos y se obtiene una alta fiabilidad (ver tabla 3), por lo que se pueden procesar los datos de la aplicación de la lista de chequeo. Tabla 3: Resultados del análisis de concordancia entre los expertos y el análisis de fiabilidad. Análisis de concordancia entre los expertos Análisis de fiabilidad del instrumento Coef Chi - cuadrada GL Pvalue Alfa de Cronbach 0,587457 115,142 28 0,0000 <0,05 0,9004 > 0,7 Al aplicar la lista de chequeo y evaluar cada una de las variables se obtiene una capacidad de gestión de recursos humanos de 3,31 puntos lo que indica un valor medio de capacidad debido principalmente a la insuficiente capacitación y desarrollo de competencias laborales, salario y remuneración laboral, estimulación y atención al hombre. Aunque de forma general todas las variables excepto la relacionada con la selección e integración al empleo tienen una puntuación por debajo de 4 puntos. Ver tabla 4. Tabla 4: Resultados de la Capacidad de gestión de recursos humanos de la Empresa Antillana de Salvamento. Variables Evaluación de las variables Capacidad de gestión de recursos humanos 1. Selección e integración al empleo 4,17 3,31 2. Organización del trabajo 3,50 3.Capacitación y desarrollo de competencias laborales 2,95 4. Salario y remuneración laboral. 2,95 5. Estimulación y atención al hombre. 2,29 6. Seguridad y salud del trabajo. 3,74 7. Evaluación del desempeño e idoneidad demostrada. 3,57 En la figura 1 se muestran los resultados de cada uno de los elementos de la variable selección e integración al empleo. El elemento relacionado con la promoción y ofertas de empleo es el más bajo con 3,43 puntos, los demás elementos están por encima de 4 puntos destacándose la organización de los expedientes con 4,71 puntos y la contratación de trabajadores con 4,57 puntos. Figura 1: Resultados de la variable selección e integración al empleo. En la figura 2 se muestran los resultados de cada uno de los elementos de la variable organización del trabajo que es una de peores resultados en la Empresa Antillana de Salvamento. Entre los elementos de más bajo valores se encuentra la normación del trabajo con 2,86 puntos, los estudios de organización del trabajo con 3,14 puntos, organización y servicio de los puestos de trabajos con 3,29 y plan de organización del trabajo con 3,29 puntos. El elemento relacionado con el régimen de trabajo y descanso es el de mayor puntuación con 4,57 puntos. Figura 2: Resultados de la variable organización del trabajo. Los resultados de la variable capacitación y desarrollo de competencias laborales se muestran en la figura 3, donde se observan valores bajos, siendo la implementación de acciones de capacitación el elemento más bajo con 2,43 puntos y la evaluación del impacto de la capacitación con 2,71 puntos. La determinación de las necesidades de capacitación y el diseño del plan de capacitación de la empresa son dos elementos que se evalúan con 3,86 puntos. Figura 3: Resultados de la variable capacitación y desarrollo de competencias laborales. En la figura 4 se muestran los resultados de la variable salario y remuneración laboral siendo muy bajos los 3 elementos: implementación del sistema de salario y remuneración con 2,86 puntos, evaluación del impacto del salario y la remuneración con 2,86 puntos y diseño del sistema de salario y remuneración con 3,14 puntos. Figura 4: Resultados de la variable salario y remuneración laboral. Los resultados de la variable estimulación y atención al hombre se muestran en la figura 5. Los 3 elementos son muy bajos siendo la estimulación material el más bajo con solo 1,14 puntos, la atención al hombre con 2,14 puntos y la estimulación y reconocimiento moral con 3,57 puntos. Figura 5: Resultados de la variable estimulación y atención al hombre. En la figura 6 se muetran los resultados de la variable seguridad y salud del trabajo que muetra de forma general valores medios. Con más de 4 puntos se tienen 3 elementos como el sistema de gestión de la seguridad y salud del trabajo con 4,29 puntos, la identificacion, analisis y evaluacion de riesgos con 4,14 puntos, acciones de prevención de riesgos con 4,14 puntos. Entre los elementos más bajos se encuentran las mejoras del diseño ergonomico de los puestos detrabajos con 2,86 puntos y el elemento relacionado con los equipos y medios de proteccion del trabajo con 3,29 puntos. Figura 6: Resultados de la variable seguridad y salud del trabajo. Los resultados de la variable evaluación del desempeño e idoneidad demostrada se muetran en la figura 7 con valores medios, siendo el elemento relacionado con el reglamento para la evaluación del desempeño y la idoneidad demostrada el más elevado con 3,86 puntos. La evaluación parcial anual de los trabajores es un elemento que alcanzó 3,43 puntos al igual que el elemento relacionado con el funcionamiento del comité de expertos de la idoneidad demostrada. Figura 7: Resultados de la variable evaluación del desempeño e idoneidad demostrada. CONCLUSIONES 1. La gestión del capital humano con un enfoque estratégico e integrador es esencial para las empresas cubanas que buscan mayores niveles de eficacia, eficiencia y competitividad. La calidad de los recursos humanos de una empresa es una ventaja competitiva a partir de considerar el recurso humano como el activo más importante de las organizaciones. 2. Se logra una herramienta para evaluar la capacidad de gestión de recursos humanos de la empresa que integra 7 variables: selección e integración al empleo, organización del trabajo, capacitación y desarrollo de competencias laborales, salario y remuneración laboral, estimulación y atención al hombre, seguridad y salud del trabajo, evaluación del desempeño e idoneidad demostrada. Estas variables se desglosan en 29 elementos. De igual forma constituye relevante que la lista de chequeo como instrumento de medición contiene una redacción de las buenas prácticas y los problemas lo que es muy importante para dar una evaluación de cada uno de los elementos. 3. La lista de chequeo se aplica en la Empresa Antillana de Salvamento con alto nivel de concordancia de los 7 expertos a los cuales se le aplicó y un alto nivel de fiabilidad del instrumento. Los resultados muestran un valor medio de capacidad de gestión de recursos humanos de 3,31 puntos debido a las insuficiencias en la capacitación y desarrollo de las competencias laborales, las insuficiencias en el diseño y aplicación del sistema de salario y remuneración laboral, el bajo desarrollo de la variable estimulación y atención al hombre esencial para lograr la satisfacción laboral. El estudio detallado de los elementos en cada una de las variables permitió encontrar otras insuficiencias más específicas que se deben de atender para mejorar la capacidad de gestión de recursos humanos en la Empresa Antillana de Salvamento. RECONOCIMIENTOS Los autores desean agradecer a los directivos de la Empresa Antillana de Salvamento que posibilitaron el intercambio, la aplicación del instrumento así como las informaciones utilizadas en el estudio. REFERENCIAS  Comité Central del PCC, (2021). Conceptualización del Modelo Económico y Sociual Cubano de Desarrollo Socialista. Lineamientos de la Política Económica y Social del Partido y la Revolución para el período 2021-2026.  Comité Central del Partido Comunista de Cuba, (2017). Plan Nacional de Desarrollo Económico y Social hasta 2030: propuesta de visión de la nación, ejes estratégicos y sectores estratégicos. Aprobado en el 7mo Congreso del PCC.  Consejo de Estado. Decreto Ley 252. Sobre la continuidad y el fortalecimiento del sistema de dirección y gestión empresarial cubano. Gaceta Oficial de la República, 2007.  Consejo de Ministros. Decreto 281. Reglamento para la implantación y consolidación del sistema de dirección y gestión empresarial estatal. Gaceta Oficial de la República, 2007.  Oficina Nacional de Normalización (2007 a): Norma Cubana NC 3000: 2007: “Sistema de gestión integrada de capital humano – Vocabulario”, 2007, La Habana: Oficina Nacional de Normalización (NC), Recuperado de http://www.nc.cubaindustria.cu , consultada el 24 de marzo de 2008.  Oficina Nacional de Normalización (2007 b): Norma Cubana NC 3001: 2007: “Sistema de gestión integrada de capital humano – Requisitos”, 2007, La Habana: Oficina Nacional de Normalización (NC), en www.nc.cubaindustria.cu , consultada el 24 de marzo de 2008.  Oficina Nacional de Normalización (2007 c): Norma Cubana NC 3002: 2007: “Sistema de gestión integrada de capital humano – Implementación”, 2007, La Habana: Oficina Nacional de Normalización (NC), en www.nc.cubaindustria.cu , consultada el 24 de marzo de 2008.  Alonso Suárez C., Parra Rojas R., Arronte Cruz L., (2010). Un Sistema de gestión del Capital Humano en la EMCE basado en las competencias laborales. Revista de ingeniería industrial, Volumen XXXI, No. 1. ISSN: 0258-5960.  Flores Galaviz J. L., Chavarría López L. R., (2016). La gestión del capital humano como estrategia para mejorar el desempeño organizacional de las empresas en México. Memoria del X Congreso de la Red Internacional de Investigaciones en Competitividad. ISBN: 978- 607- 96203-0-5.  Zayas Barreras I., (2020). La gestión del talento humano: una necesidad para el desarrollo de las organizaciones. Revista electrónica sobre cuerpos académicos y grupos de investigación. Volumen 7, No. 14. ISSN: 2448-6280.  Suárez Caimary I. L., y otros (2020). La gestión integrada del capital humano por competencia, una necesidad en el contexto empresarial estatal actual. Anuario Facultad de Ciencias Económicas y Empresariales. Número especial 2/2020. ISSN: 2218-3639.  El Assafiri Ojeda Y., y otros (2019). Método Developing A Curriculum para el análisis ocupacional. Acercamiento a la gestión del conocimiento. Revista de ingeniería industrial, Volumen XL, No. 2/ mayo-agosto/2019. ISSN: 1815-5936.  Acuario Armas J. A., y otros (2020). Modelo de gestión del talento humano para la empresa Contigo S.A del Cantón Valencia. Ecuador. Revista Universidad y Sociedad, Volumen 12, No. 4/ julio- agosto/2020. ISSN: 2218-3620.  Cuesta Santos A., (2019). Tecnología de gestión de recursos humanos. Documento para Editorial Félix Varela. Texto básico de SGRH en la carrera de Ingeniería Industrial.  Silva L., y otros (2020). Modelo para la administración del talento humano con enfoque en el buen vivir en los gobiernos autónomos descentralizados municipales de Ecuador. Revista Espacios, Volumen 41, No. 24/2020. ISSN: 0798-1015.  Alarcón Quinapanta M., y otros (2019). Medición del rendimiento del talento humano en instituciones de educación superior: producción científica. Revista de ingeniería industrial, Volumen XL, No. 1/ enero-abril/2019. ISSN: 1815-5936.  Gallego Giraldo C., Naranjo Herrera C. G., (2020). El capital humano de la empresa: una propuesta de medición. Entramado, Volumen 16, No. 2, julio-diciembre/2020. ISNN: 1900-3803, e-ISNN: 2539- 0279.  Báez Santana R.A., y otros (2019). Modelo conceptual del compromiso organizacional en empresas cubanas. Revista de Ingeniería Industrial. Volumen XL, No. / enero-abril/2019. ISNN: 1815-5936.  Cadalzo Díaz Y., Caballero Torres I., Becerra Alonso M.J., (2017). La gestión de capital humano en empresas del sector biotecnológico cubano. Revista de Ingeniería Industrial. Volumen XXXVIII, No. 1/ enero-abril/2017. ISSN: 1815-5936.  Alfonso Robaina D., (2007). Modelo de Dirección Estratégica para la Integración del Sistema de Dirección de la Empresa. Tesis de Doctorado en Ciencias Técnicas en la especialidad de ingeniería industrial. CUJAE.  Alhama Belamaric, R., y otros, (2005). Dimensión social de la Empresa. Esencia de las nuevas formas organizativas. Editorial Ciencias Sociales. ISBN 959-06-0724-1.  Flores Galaviz, J. L y Chavarría López, L. R., (2016). La gestión del Capital Humano como estrategia para mejorar el desempeño organizacional de las empresas en México. Red Internacional de Investigadores en Competitividad. Memoria del X Congreso ISBN 978-607-96203-0-5.  González Meriño, R. F., (2020). La formación ejecutiva y gestión del capital humano. Retos para Cuba. Folletos Gerenciales, Volumen XXII, No (2) Abril -Junio, 2018, Páginas: 112-126. ISSN: 1817-1788.  Báez Santana, R. A., y otros, (2018).Modelo conceptual del compromiso organizacional en empresas cubanas. Ingeniería Industrial/ISSN 1815-5936/ Vol XL /No. 1/enero-abril /2019/ p. 14-23. 1 DIAGNÓSTICO PARA LA IMPLEMENTACIÓN DEL TELETRABAJO EN LAS OFICINAS CENTRALES DE RADIOCUBA. Temática: Diagnostico de la Gestión de los Recursos Humanos Lic. Claudia Valle Perez.1 Empresa Radiocuba, Directora Contable Financiera MIC, Cuba1 claudia.radiocuba.cu 1 2 RESUMEN Con el comienzo de la crisis epidemiológica causada por el virus del SARS-CoV-2, la empresa Radiocuba asumió el teletrabajo como forma organizativa para no detener la operatividad y los servicios. Debido a que era una modalidad de trabajo que hasta el momento no se había implementado, y a que en el país no existían experiencias replicables sobre el mismo, la puesta en marcha de este sistema de trabajo no ha tenido satisfactorios resultados en la empresa. Por lo antes expuesto, en la presente investigación se traza como como objetivo principal Diagnosticar la Gestión de los Recursos Humanos en la Empresa Radiocuba, basado en el Modelo de Diagnóstico, Proyección y Control (GRH DPC), paraluego tratar estrategias que permitan diseñar la correcta aplicación del teletrabajo. Basados en lo anterior nos dimos a la tarea de realizar dicho diagnóstico de manera integral. El modelo de GRH DPC (Figura 1)tiene en el centro de sus subsistemas y políticas de RH a la persona manifiesta en su educación y desarrollo. La persona, su educación y desarrollo humano, es el fin y no el medio. Tal educación y desarrollo es el referente obligado para los restantes subsistemas y políticas, donde quedarán incluidos todos los procesos o actividades clave a comprender por el sistema GRH que contempla ese modelo de GRH DPC. Figura 1 PALABRAS CLAVES Epidemiológico, Teletrabajo, Diagnóstico, Proyección, Control 3 ABSTRACT With the beginning of the epidemiological crisis caused by the SARS-CoV-2 virus, the Radiocuba company assumed teleworking as an organizational form so as not to stop operations and services. Because it was a work modality that had not been implemented until now, and because there were no replicable experiences in the country, the implementation of this work system has not had satisfactory results in the company. Due to the above, in the present investigation the main objective is to Diagnose the Management of Human Resources in the Radiocuba Company, based on the Diagnosis, Projection and Control Model (GRH DPC), to then deal with strategies that allow designing the correct application of teleworking. Based on the foregoing, we took on the task of carrying out said diagnosis in an integral manner. The HRM CPD model (Figure 1) has at the center of its HR subsystems and policies the person manifested in their education and development. The person, his education and human development, is the end and not the means. Such education and development is the obligatory reference for the remaining subsystems and policies, where all the key processes or activities to be understood by the HRM system contemplated by this HRM CPD model will be included. KEY CODE WORDS Epidemiological, Telecommuting, Diagnosis, Projection, Control 4 1. Caracterización de la empresa Nuestro primer paso fue caracterizar a la empresa Radiocuba, creada en 1995, única de su tipo en Cuba, con antecedentes desde 1922. Actualmente tiene alcance nacional e internacional en la radiodifusión para la salida al aire de transmisiones de radio y televisión, que incluyen vía satelital. Es una empresa que moderniza y reordena constantemente la red de radiodifusión nacional, cuenta con un equipo de profesionales con los que planifica sus estrategias de negocio, entre sus ofertas está la consultoría técnica, entre sus servicios ejecuta montajes y desmontajes de torres y antenas en proyectos con los cuatro continentes. Asimismo, se perfecciona bajo las normas del modelo cubano de dirección y gestión empresarial. Garantiza la satisfacción plena de los usuarios mediante la evaluación tecnológica y la constante modernización de su red, la automatización e informatización de procesos y sistemas, la preparación, motivación y fortalecimiento de su capital humano y la transformación oportuna de las estructuras y procesos. 2. Modelo de Gestión Integrada de Capital Humano referidos en las NC 3000, 3001 y 3002: 2007 Para que las organizaciones diseñen y apliquen, un Sistema de Gestión Integrada de Capital Humano (SGICH) (Figura 2), sobre la base de la mejora continua del desempeñolaboral, este debe estar integrado con la estrategia de la organización. 5 Figura 2 3. Técnicas aplicadas en el diagnóstico Para el desarrollo del modelo de diagnóstico, planificación y control se aplicaron las siguientes herramientas propuestas en el libro del Dr. Cuesta. Las técnicas aplicadas para diagnosticar la gestión de los Recursos Humanos fueron:  Encuesta de la Naturaleza de las personas  Encuesta de Likert.  Tormenta de ideas.  Ishikawa  Información de la Base de datos de la Empresa. 6  Lista de chequeo 4. Categorías estratégicas de la empresa La Empresa Radiocuba tiene definida de forma colegiada su estrategia, la cual actualiza anualmente, chequeando trimestralmente sus objetivos. Al finalizar cada año, en asamblea con todos sus trabajadores, se realiza el Balance General y se analiza su cumplimiento. Misión: “Brindar a nuestros usuarios y clientes, la difusión de las señales de radio, televisión y servicios asociados, con la calidad requerida.” Visión: “Ser una organización moderna y ágil, con trabajadores capacitados, sanos, motivados y con sólidos valores, que satisface las necesidades de sus usuarios y clientes, mediante la evaluación y mejora permanente de los servicios y la infraestructura tecnológica.” 5. Cultura Organizacional Valores compartidos deseados Profesionalidad: Hacer bien lo que se debe hacer desde la primera vez, cumpliendo con las reglas, normas y procedimientos establecidos Compromiso: Demostrar sentido de pertenencia y del deber. Dignidad nacional: Ser defensores conscientes de los sentimientos patrios, y ser fieles a la causa del socialismo. Lealtad: Sentimiento de respeto y fidelidad a los propios principios morales a los compromisos establecidos o hacia alguien. Honestidad: Actuar de buena fe, sin doblez. No mentir, rechazar y combatir cualquier forma de fraude o engaño Trabajo en equipo: Disposición a la participación integrada y a la colaboración con el resto de los compañeros. Los Valores que la alta dirección de la empresa quiere que tengan sus cuadros y trabajadores son: Profesionalidad, Compromiso, Dignidad Nacional, Lealtad, Honestidad y Trabajo en Equipo. Compartidos: Profesionalidad, Compromiso y Dignidad Nacional. Deseados: Lealtad, Honestidad y Trabajo en Equipo. Están conceptualizados y se trabaja en la consolidación de los compartidos y lograr que los deseados sean compartidos. 6. Objetivos Estratégicos. (2021-2026) Objetivo Estratégico No.1 Desarrollar nuevos servicios que contribuyan al programa nacional de informatización y telecomunicaciones, mejorando la cobertura y calidad e introduciendo otros de valor agregado para garantizar la satisfacción plena de nuestros clientes, priorizando las necesidades de la Defensa y la Seguridad del País. 7 Objetivo Estratégico No.2 Continuar con la proyección de la empresa hacia nuevos mercados, consolidación los compromisos contraídos. Objetivo Estratégico No.3 Asegurar la continuidad de la dirección revolucionaria y profesional, priorizando los cargos principales y fundamentales de la empresa. Objetivo Estratégico No.4 Fortalecer el capital intelectual mediante la mejora continua del sistema de capital organizacional, relacional y humano. Objetivo Estratégico No.5 Perfeccionar el sistema de dirección y gestión empresarial. Crítica al ejercicio estratégico. La misión es clara, no es muy larga y tiene orientación al cliente. Independientemente de las funciones asignadas, la dirección del país, dado que esta empresa es única en su tipo, con potencialidades para la exportación, espera que estratégicamente se conduzca a la empresa hacia un desarrollo eficiente y especializado que garantice los servicios integrales en el montaje, mantenimiento y desmontaje torres y antenas para la radiodifusión. La visión no es retadora, no expresa como queremos ser en el futuro, ya que se enmarca solo en el presente, está relaciona estrechamente con la tecnología, pero no expresa los atributos que la diferencian, no se ajusta a la situación futura de la empresa como potencial técnico competitivo a nivel internacional. Entre la misión y visión no existe una correspondencia con un margen de horizonte temporal entre lo que tenemos y hacia donde deseamos llegar. Respecto a los valores se encuentran conceptualizados e identificados. Los objetivos estratégicos responden a la estrategia de la empresa, se encuentran elaborados en correspondencia con las áreas de resultados claves, excepto el área de capital humano. En su conjunto reflejan el estado futuro deseado de la Organización. Ellos representan las metas que se persiguen, que prescriben un servicio de calidad. Sugieren la dirección a los esfuerzos organizacionales, lo que va a permitir el cumplimiento de la misión, la visión y de las funciones estatales asignadas. Para cada objetivo se encuentran definidos los criterios de medidas. El reto estaría en cómo organizar el ambiente o clima laboral y los procesos de la empresa para lograr altos niveles de productividad. Estructura RADIOCUBA Figura 3 ORGANIGRAMA EMPRESA RADIOCUBA Grupo Administrativo Dirección de Capital Humano Dirección General Dirección de Operaciones Dirección de Informática Dirección Contable Financiera Grupo Nacional Jurídico Centro Dirección Nacional Grupo de Transporte Señales Grupo de Automatización Dirección de Mantenimiento Grupo de Planta Interior Grupo de Energía y portadores energéticos Grupo de Sistema de Radiación Dirección de Organización Grupo de Gestión empresarial Grupo de Redes Grupo de Hardware y Soporte Técnico Grupo de Trabajo y Estimulación Grupo de Contabilidad Grupo de Finanzas Dirección de Seguridad, Protección y Defensa Grupo de Seguridad y Protección Grupo Nacional Comunicación Dirección Técnica Grupo de inversiones Grupo de Planeamiento y Desarrollo Dirección Comercial Grupo de Comercio Exterior. Grupo de Servicios Grupo de Operaciones Comerciales Grupo Nacional de Cuadros División Nacional de Logística División Nacional de Construcción y Montaje Divisiones Territoriales (16) Grupo Nacional de Inspección y Auditoría Vice-Dirección General Centro de Formación 8 7. Estructura del Capital Humano Capital Intelectual La empresa cuenta con un personal que posee mucha experiencia y conocimientos para brindar los servicios profesionales, puesto que el 75% son cuadros o técnicos, debiendo enfocarse en captar un personal joven y con capacidades para seguir superándose, para garantizar el reemplazo de los trabajadores que se encuentran en el rango de edad de entre 41 y más de 60 años, con un promedio de edad de 42 años, aunque902 trabajadores son menores de 50 años, siendo el 76,96 % de la fuerza laboral joven La empresa tiene definido, en su Manual de especificaciones de los puestos de trabajo, las Competencias de Identidad y las Competencias Esenciales distintivas de la organización. Cuenta con 1172 trabajadores físicos, cubierta en un 89.8%, distribuidos de la siguiente forma: Tabla 1 El nivel escolar promedio de los trabajadores de la Empresa Radiocuba es alto. El 47 % de los trabajadores tienen un nivel de escolaridad de nivel medio o superior y sólo el 6% tienen por nivel 9noGrado. Gráfico 1 Trabajadores por Categoría Ocupacional y Sexo F % M % Total % Operarios 20 9% 211 91% 231 20% Servicios 41 65% 22 35% 63 5% Técnicos 249 34% 493 66% 742 63% Administrativos 0 - 0 - 0 0% Cuadros 40 29% 96 71% 136 12% Total 350 822 1172 9 Capital estructural La Empresa Radiocuba tiene definido los Procesos Estratégicos, Claves y de Apoyo, identificando las áreas y cargos que intervienen en cada uno. Está descrita la relación entre los objetivos estratégicos, procesos y áreas en la planeación estratégica 2017-2020. No siendo así hasta 2026. El proceso de Mercadotecnia, el cual se realiza por la Empresa Radiocuba través de la Dirección Comercial y Jefes de Áreas Ejecutivos, se reconoce como estratégico por ser el encargado del desarrollo de nuevos procesos, productos, servicios y mercados, que aporten valor a la organización y mejoren la eficiencia y eficacia con enfoque al cliente. Capital Emocional En el ejercicio estratégico 2017-2020 se asumieron los valores, pero no están relacionados con el reconocimiento o estimulación moral. En la edición anterior se propuso una clasificación en valores éticos, prácticos y de desarrollo que fue aceptada. Excepto para el reconocimiento al adulto mayor, existen indicadores que permiten monitorear el cumplimiento los restantes valores, aunque no se declararon formalmente. Se deben identificar cuáles son compartidos y cuáles son deseados. Solamente el valor Profesionalidad es una competencia organizacional y se comparte en todas las Divisiones. Capital Relacional Entre los principales clientes externos se encuentran CRTV China y Televisión de Nicaragua. El índice de satisfacción de los clientes externos cumple los indicadores de calidad prevista. Capital Social La Empresa cuenta con un Sistema de Gestión Integrado, el cual está conformado por 8 procesos, 2 Estratégicos, 3 Operacionales y 2 de apoyo los cuales están en un proceso de integración del sistema. Se encuentran elaboradas las fichas de proceso donde se definen las interrelaciones entre los mismos. En la empresa se chequea la eficacia de los procesos, determinándose las no conformidades y acciones correctivas para la mejora continua. Se anexa mapa de proceso actual. 8. Situación Económica Financiera. Nuestra empresa en este 1er semestre del 2021 ha presentado resultados favorables en sus indicadores económicos comparados a los de igual periodo en 2020, en gran medida por el aumento de los ingresos totales por el crecimiento de las actividades fundamentales de la empresa, aunque ha tenido también un incremento de los costos de ventas de mercancías por los elevados precios de adquisición de las mercancías, a partir de la limitación de la transportación internacional y nacional por la pandemia. Realizamos el análisis con la apertura del 2021 contra el cierre del primer semestre, pues el ordenamiento provoco cambios drásticos en las empresas, Razones financieras Las razones financieras (Tabla 2) se encuentran en los rangos aceptados y favorables para una empresa de servicios. 10 Tabla 2 9. Evaluación de la Gestión del Capital Humano. Impacto de integración La Integración Externa es ponderada en 56.14%, a partir de la herramienta aplicada, se refiere a la evaluación del estado de las premisas.(Gráfico 2) La Integración Interna, se refiere a la evaluación de los módulos que conforman la tecnología (46.91%). El nivel estratégico, que se refiere a la unión de los dos aspectos anteriormente señalados, muy bajo al reportar 50.72%. Según los resultados dela herramienta aplicada para el diagnóstico. CLASE UNIDAD JUNIO 2021 Analisis Razon corriente Activo corriente Veces 1,45 pasivo corriente Prueba acida Activo corriente-Inventarios Veces 1,36 pasivo corriente Endeudamiento Pasivo Total % 42,14% Activo total Razon de autonomia Total Patrimonio % 57,86% Total Activo Ventas netas veces 3,40 Cuentas por cobrar Rotacion de Activos Ventas netas veces 4,24 Activos totales Resultados del periodo % 26,31% Ingresos Resultados del periodo % 44,03% Patrimonio Resultados del periodo % 25,47% Activos Relaciona los resultados del periodo con el nivel de ingresos, o sea, nos muestra que los ingresos han proporcionado un margen de utilidad del 26,31% Rentabilidad sobre patrimonio (Rentabilidad General) Rentabilidad sobre activo (Rentabilidad Economica) Margen Neto Beneficios netos obtenidos por cada $ de capital invertido, o sea, por cada peso de patrimonio la empresa obtiene 44 centavos de utilidad Indica el rendimiento de la inversion de la empresa, o sea, por cada peso invertido la empresa obtiene 25 centavos de utilidad Indica que porcentaje de los activos totales ha sido financiados con recursos de terceros (endeudamiento), lo recomendable es un endeudamiento del 50% y se interpreta como la capacidad que tiene la empresa para poder obtener un financiamiento externo el cual pueda ser capaz de cancelar. En este caso el resultado se interpreta que de cada 1.00 que la empresa posee, debe 42 centavos. El resultado de 0.58 evalúa el impacto del patrimonio total con relación al activo, nos muestra que porcentaje del patrimonio es propio, confirmando que la empresa no esta en manos de terceros Indica el número de veces que en promedio han sido renovadas las cuentas por cobrar, mide la frecuencias de recuperación, o sea, que nuestras cuentas cobrar han sido renovadas 3,4 veces en el periodo que se analiza. Esta razón nos dice cuantas veces podemos colocar en servicios un valor igual a la inversión realizada en activo fijo, es decir estamos colocando en servicios 4,24 veces el valor de lo invertido en activos fijos. Rotacion de cuentas por cobrar Las veces que los activos cubren a los pasivos es de 1,46 veces. Uno de los componentes a considerar son los inventarios y en este caso sin considerar este componente los activos cubren a los pasivos en 1,36 veces Actividad Rentabilidad Endeudamiento INDICADOR Liquidez 11 Gráfico 2 Resultado de Encuesta Likert La aplicamos la encuesta a 78 trabajadores tanto a directivos como a no directivos. (Grafico 3) Se expone versión resumida con 19 apartados que se refieren al estilo de dirección, formas de motivación, comunicación, trazado de objetivos y control, en una graduación de 0 a 20 puntos. Uniendo las calificaciones de los distintos apartados, obtenida por la media de los puntos (o la moda por intervalos), se alcanza un perfil organizativo que posibilita estimar la situación de la empresa y catalogar su estilo de dirección como “autoritario”, de 0 a 5 puntos; “autoritario-benevolente”, de 6 a 10 puntos; “consultivo” si el resultado está entre 11 y 15 puntos; o “participativo”, de 16 a 20 puntos. Puntuación:9.96 Estilo de dirección: Autoritario Benévolo Grafico 3 Resultados de Encuesta sobre Gestión de la Calidad La encuesta arroja (Figura 4) que queda mucho que hacer en temas de gestión de la calidad, principalmente en el enfoque a procesos 12 Figura 4 10. Diagrama Ishikawa Cuando se realiza la tormenta de ideas y se vierten en el Diagrama Ishikawa (Figura 5) los resultados de los aspectos revisados se concluye que existe Ineficiencia en la gestión de los Recursos Humanos. 13 Figura 5 Conclusiones El diagnóstico realizado a través del modelo GRH-DPC y las NC 3000-3002:2007 refleja que existe una deficiente gestión del Capital Humano, asociada a una mala comunicación institucional, organización del trabajo, lo cual no es el resultado de una gestión por competencias, lo cual se refleja en el Diagrama de ISHIKAWA, a partir de la tormenta de ideas y las herramienta de evaluación de SGCH. El diagnóstico también refleja la falta de alienación entre la estrategia y la gestión del Capital Humano. Consideraciones  Se caracterizó la Empresa Radiocuba. 14  Se debe identificar las competencias organizacionales, de proceso y de los puestos de trabajo clave permiten buscar el alineamiento del desempeño individual con el desempeño organizacional estratégico.  Elaborar un procedimiento que establezca una herramienta de evaluación del desempeño basado en un modelo de gestión por competencia que contenga indicadores tangibles e intangibles.  La situación económico-financiera de la Empresa es favorable para realizar mejoras en la gestión de los recursos humanos  El ejercicio estratégico de la Empresa es susceptible de ser mejorado y este debe ser comunicado a todas las áreas de la empresa. Agradecimientos La autora de este trabajo desea agradecer a su tutora Dra. C. Ing. Vania García Fenton por su paciencia infinita y a mi familia por ser mi inspiración para todo Referencias bibliográficas 1. Cuesta Santos Armando (2010).Tecnología de Gestión de Recursos Humanos. 2. Cuesta Santos, Armando, Alcaide, Iliana, López, Carlos Ramón, (2007). Capital Humano y e-RRHH 3. Cuesta Santos, Armando y Valencia Rodríguez, Marino, 2014, Indicadores de Gestión del Capital Humano y del Conocimiento de la empresa, Editorial Academia, Cuba 4. Morales Cartaya, Alfredo, (2007). Contribución para un modelo cubano de gestión integrada de RRHH. 5. Oficina Nacional de Estadísticas e Información (ONEI) (2019). Anuario Estadístico de Cuba 2018. Empleo y Salarios. La Habana, Cuba. Disponible en http://www.onei.gob.cu/sites/default/files/07_empleo_y_salario_2019_sitio_0.pdf 6. Peña, R. J. L. (2021). Derechos laborales y COVID-19. La experiencia de Cuba. Estudios del Desarrollo Social: Cuba y América Latina, vol. 9 (1), pp. 329-339. Disponible en http://www.revflacso.uh.cu/index.php/EDS/article/view/543 7. Real Academia de la Lengua Española (RAE) (2021). Definición de teletrabajo. Consulta realizada en junio en https://dle.rae.es/teletrabajo 2.Sánchez Quitana, (2007). Guía para el diagnóstico del cumplimiento de los requisitos de la NC 3001/2007 (SGICH) 8. Santillán, W. (2020). El teletrabajo en el COVID-19. CienciAmérica: Revista de divulgación científica de la Universidad Tecnológica Indoamérica, vol. 9 (2), pp. 65-76. Disponible en https://dialnet.unirioja.es/servlet/articulo?codigo=7746439 ´´Diseño de programa de capacitación para el desarrollo del rol profesional en cargos de la actividad de Tecnologías de la Información en la Empresa de Telecomunicaciones de Cuba S.A´´ Program design for the development of the professional role in positions of the Information Technology activity in the Telecommunications Company of Cuba S.A Lic. Raiza María Guevara Salvia1 1 División Territorial ETECSA Isla de la Juventud*, Municipio Isla de Juventud Correo electrónico: raiza.guevara@etecsa.cu RESUMEN El presente trabajo pretende realizar el análisis del perfil del cargo de dos de los roles profesionales (Especialista A en Ciencias Informáticas que atiende las funciones de Administrador de Red y Desarrollador de Software) de la actividad de Tecnología de la Información, y su interrelación con las de la gestión del Capital Humano: Formación y Desarrollo y la Evaluación del Desempeño. Los principales métodos y técnicas utilizadas fueron: Método Dialéctico-Materialista: metodología más general del conocimiento, que permite establecer las relaciones y nexos entre las categorías científicas. En el desarrollo de la investigación se utilizaron métodos teóricos y empíricos. Los resultados que se obtuvieron están en relación con el logro de los objetivos: general y específicos siendo éstos, lograr evaluar los roles profesionales definidos por el área rectora de la Actividad de Soporte: Tecnologías de la Información así como demostrar el impacto con la Capacitación y Formación. PALABRAS CLAVES: programa de capacitación, rol profesional, capital humano, gestión por competencias. ABSTRACT The present work intends to carry out the analysis of the profile of the position of two of the professional roles (Computer Security Specialist) of the Information Technology support activity, and its interrelation with those of the management of Human Capital: Training and Development and the Performance evaluation. The main methods and techniques used are: Dialectical-Materialist Method: more general methodology of knowledge, which allows establishing relationships and links between scientific categories. Theoretical and empirical methods were used in the development of the research. The results that were obtained are in relation to the achievement of the objectives: general and specific, being these, to be able to evaluate the professional roles defined by the governing area of the Support Activity: Information Technologies as well as to demonstrate the impact with the Training and Training. KEY WORDS: Training program, professional role, skills management. 1. INTRODUCCIÓN El capital humano es el factor clave para que una empresa tenga éxito. Las personas son el recurso más importante y básico de la empresa. Los empleados son los que desarrollan día a día el trabajo en la organización haciendo que ésta crezca y evolucione. Los socios y colaboradores son necesarios para que la compañía cumpla con sus exigentes objetivos. Desde esta perspectiva y observando el vertiginoso crecimiento de las telecomunicaciones, se hace cada vez más imperiosa la necesidad de ser más competentes y tener alineado al recurso humano a la misión y visión de la empresa. En este sentido la Dirección Central de Capital Humano de la Empresa de Telecomunicaciones de ETECSA S.A, elaboró un Plan Estratégico que abarca el período 2020-2024 alineado con el Plan de Negocios. En el mismo se introdujeron nuevos términos para la gestión del Capital Humano los que transitan por la tríada: Atraer, Motivar y Retener el talento humano para el logro de los objetivos empresariales y la adaptación a los cambios que constantemente se vienen produciendo en el entorno en el que la misma funciona. La empresa se estructura por varios procesos o actividades y en 3 niveles, y el presente trabajo se posicionará sobre la actividad de Tecnologías de la Información en el nivel 3, donde se encuentran las Divisiones Territoriales. Este trabajo serviría para la alineación y engranaje de los aspectos en la gestión del Capital Humano que son manejados hoy en el mundo organizacional cubano y específicamente en nuestra Empresa (actividades y subactividades, perfiles de cargo definidos desde los roles profesionales) en una relación estrecha con el Plan de Capacitación y la Evaluación del desempeño una vez finalizado el período. Es problema: ante los cambios que supone el funcionamiento de un negocio digital en nuestro sector, los trabajadores de la actividad de soporte de Tecnologías de la Información en nuestra División, no cuentan con un Programa de Capacitación que les permita desarrollar, según su perfil y competencias laborales, sus roles profesionales lo cual limita el desarrollo de sus capacidades así como los resultados empresariales. Es objetivo central de este trabajo, diseñar un programa de capacitación que permita enfocar hacia el estado deseado de las competencias según el perfil y el rol profesional, el personal de las Tecnologías de la Información en la División Territorial. 2. MÉTODOS Los principales métodos y técnicas utilizadas son: Método Dialéctico-Materialista: metodología más general del conocimiento, que permite establecer las relaciones y nexos entre las categorías científicas. En el desarrollo de la investigación se utilizaron métodos teóricos y empíricos. Entre los métodos teóricos se desarrolló: el análisis y síntesis de la información obtenida a partir de la revisión de literatura y documentación especializada, así como de la experiencia de especialistas consultados. Como métodos empíricos se utilizaron las encuestas, entrevistas, observación directa, análisis documental, criterio de expertos y reportes de trabajo para la recopilación de la información, entre otros. También se utilizaron métodos estadísticos para el análisis de datos y validación de resultados. 3. RESULTADOS Nuestro objeto de estudio fue el Departamento de Tecnologías de la Información perteneciente a la División Territorial del Municipio Especial Isla de la Juventud (DTIJ). Dicho Departamento cuenta en su plantilla con 13 trabajadores entre directivos, especialistas y técnicos centrándonos en el Especialista A en Ciencias Informáticas con las funciones de Desarrollador de Software y Administrador de la Red, cargo que existe en todas las Divisiones Territoriales del país, y en el caso de la DTIJ lo desempeña el mismo trabajador. El tiempo promedio de permanencia en la entidad es de más 10 años lo que ratifica su sentido de pertenencia, su compromiso con la actividad y con la empresa, su responsabilidad ante el trabajo y para con la actividad, las cuales serían fundamentalmente sus principales valores compartidos. Con una edad promedio de 45 años. A la vez este tiempo de permanencia y su edad promedio nos habla de experiencia en la actividad y de la institucionalización de patrones o estilo de trabajo que han sido efectivos dándole cumplimiento a sus objetivos de trabajo a lo largo de todo este tiempo. Igualmente nos dice que transcurrieron por un proceso de selección del personal en el que no estaban definidas: competencias, perfiles y roles profesionales, lo que hace diferencias entre lo que se aprueba hoy a un nivel estratégico desde la Dirección Central y lo que tenemos hoy en la División Territorial. En la aplicación de las técnicas para el diagnóstico de las necesidades de formación se levantaron los datos siguientes:  La técnica de Revisión Documental arrojó que aunque la Misión, Funciones y Responsabilidades TI Nivel I se encuentran visibles en el portal institucional, las del nivel territorial se encuentran en proceso de actualización. Se tiene identificado en el documento de Caracterización, sus Debilidades, Fortalezas, Oportunidades y Amenazas sin interrelacionar las mismas y llegar a un Problema Estratégico y de ahí las salidas. El modelo de Evaluación del Desempeño del período Enero a Diciembre de 2021, cierra con la categoría de Muy Bien, desarrollándose desde las competencias laborales definidas siendo enunciadas como Fortalezas y/o Debilidades teniendo las mismas su salida en el modelo de Diagnóstico de Necesidades de Capacitación ambas especialidades (Seguridad Informática y Administrador de la Red) ha contado y cuenta con preparaciones territoriales y nacionales como elemento a destacar se encuentra que el mismo no se observan acciones orientadas a la visión de negocio digital.  La técnica de la Entrevista al Especialista, resultó que posee conocimientos sobre la Misión, Funciones y Responsabilidades del Departamento para con las áreas de la División. Posee conocimiento sobre sus objetivos de trabajo, los cuales discute con su superior. Sobre los roles profesionales, no conocen como tal, aunque sí refieren cuáles son sus funciones dentro del equipo así como las responsabilidades ante determinadas situaciones. Reconoce de manera general, la implementación de cada subsistema de la Gestión de los Recursos Humanos en su desempeño, sintiendo como en desventaja y por los cambios que está teniendo el entorno, la Capacitación.  La técnica del Criterio de Expertos, desde la problemática planteada: Razones o motivos que más influyen en que el especialista no trabaje hoy desde los roles profesionales arrojó los datos que se muestran en la tabla siguiente: No. Expertos Causas E 1 E 2 E 3 E 4 E 5 E 6 Rj V n Vn /Vt C (%) Prioridad 1 Indefinidos roles profesionales para las DTs. 1 1 1 1 1 1 6 0 1 100 1 2 Incipiente segmentación del Capital Humano 2 2 6 6 6 6 28 2 0,33 67 2 3 Sobrecarga de tareas para el mismo grupo de trabajo en el mismo tiempo 4 4 2 2 2 2 16 2 0,33 67 3 4 Cambios en la estructura organizativa 5 5 5 5 3 3 26 2 0,33 67 4 5 Baja incidencia del área rectora 6 6 4 4 4 4 28 2 0,33 67 5 6 Insuficiente la gestión por competencias en la Empresa. 7 7 3 7 5 7 36 2 0,33 67 6 7 Insuficiente preparación del grupo de trabajo responsable. 3 3 7 3 7 5 28 1 0,50 50 7 Fig.1 Resultados de la técnica Criterio de Expertos Resumiendo que para un Rj menor: No.1 Causa más importante, es que los roles profesionales para las Divisiones Territoriales no se encuentran definidas. El Rj mayor: No. 6 Causa menos importante, Insuficiente la gestión por competencias en la Empresa, y para un C≥60% para Rj, se observa buen consenso en todas las causas excepto en la No. 7 (Insuficiente preparación del grupo de trabajo responsable.)  Los resultados de la técnica anterior se utilizan en el Diagrama de Ishikawa Ponderado, quedando como se muestra a continuación: Fig. 2 Diagrama Ishikawa Ponderado Según el autor Dr C. Armando Cuesta Santos en su libro Tecnología de Gestión de Recursos Humanos (2010), en lo referido al ciclo de formación, lograr técnicamente la determinación de las necesidades de formación (Marrero, 2002; Dolan, et al., 2003; Fleitas, 2003), de manera que esa formación resulte a la vez que continua, coherente. Y además, en la necesaria Gestión de Recursos Humanos estratégica, es imprescindible en ese “Diagnóstico” ser consecuentes con la estrategia empresarial. Es de suma importancia llegar a determinar cómo la formación tributa a la estrategia empresarial y cómo lo hace de manera eficaz. Desalineación en el desempeño de los especialistas de las TI e impacto en los resultados empresariales Incipiente segmentación del Capital Humano Indefinidos roles profesionales para las DTs. 1 Grupo de Trabajo Cambio Estructura organizativa Baja incidencia del área rectora 2 3 4 Pendiente total aprobación actividades y subactividades Pendiente definición posiciones críticas Insuficiente Preparación Convergencia de tareas prioritarias Reordenamiento de funciones Cambios en las necesidades del cliente Cambios entorno Competitivida d En particular la información que brinda la evaluación del desempeño, si fue bien diseñada como sistema y refleja las competencias laborales, tiene una notable importancia en la determinación de las “brechas” entre competencias laborales existentes (en la persona) y las competencias laborales requeridas (por el cargo). De ahí que los resultados en la evaluación del desempeño fueran los siguientes: Para el rol actual y para un rol recién definidas sus competencias Fig. 3 Gráfico para la determinación de brechas en las competencias actuales Observándose brechas en las competencias actuales: - Arquitectura y Gestión de Red… 8% (92%) - Conocimientos de Programación…35% (65%) - Trabajo bajo tensión… 13% (87%) Las cuales se repiten abajo, ya sea como competencia o como elemento dentro de ésta: - Gestión de Redes TI…11% (79%) - Trabajo bajo tensión… 14% (86%) - Trabajo en equipo….20% (80%) Fig. 4 Gráfico para la determinación de brechas en las competencias recién definidas para este cargo En el rol de Desarrollador de Software, las competencias muestran las brechas sigueintes: Fig. 5 Gráfico para la determinación de brechas en las competencias para este perfil Las competencias en este rol se mantienen y se actualizan. Se observan brechas en las competencias siguientes: - Programación …. 22% (78%) - Gestores de Bases de Dato A…37% (63%) - Sistemas Operativos Desarrollo SW…..36% (64%) - Metodología de Desarrollo Sofware … 45% (55%) - Idioma Extranjero… 22% (78%) - Conocimientos organizacional Empresa… 21% (79%) - Trabajo bajo tensión…14% (86%) - Trabajo en equipo…18% (82%)  En la revisión de los planes de capacitación nacional desde el 2020 hasta la fecha, se muestran los resultados siguientes: Para un total de 18 acciones, tuvo y tendrá incidencia este especialista en 4 acciones para un 22% de participación lo que denota una baja participación presencial en las mismas. 4. CONCLUSIONES 1. Existe diferencias entre el estado real y deseado de cada competencia según el rol del que se trate. 2. La capacitación aún no logra cerrar estas brechas, manteniendo acciones que se repiten cada año y sin la actualización o incorporación de otras según la visión de negocio digital donde esta actividad juega un papel importante. 3. Se observa una distancia entre el perfil por competencias y la formación, que indiscutiblemente repercutirá en la evaluación del desempeño en el período. 4. Se necesita diseñar un programa de capacitación que vaya encaminado a resolver tales distancias entre las competencias y que tenga en cuenta además el cumplimiento de los objetivos empresariales de esta área y su impacto en la misión de la Empresa como negocio digital. 5. REFERENCIAS o Cuesta, A (2022) Tecnología de Gestión de Recursos Humanos. La Habana, Ed. Universitaria ´´Félix Varela y CITMATEL. o https://repository.eafit.edu.co/bitstream/handle/10784/13861/Daniela_AgudeloPerez_2019 .pdf?sequence=2&isAllowed=y o https://www.liferay.com/es/resources/l/digital-business o https://www.expansion.com/blogs/sociedad-empresa-digital/2016/01/25/la-direccion-del- negocio-digital.html o https://www.kyoceradocumentsolutions.es/es/smarter-workspaces/business- challenges/procesos/es-el-digital-business-la-clave-del-exito.html o https://economipedia.com/definiciones/cadena-de-valor.html o https://www.redalyc.org/pdf/993/99318788001.pdf o https://asiet.lat/actualidad/opinion/la-transformacion-del-capital-humano-en-etecsa- garante-de-la-transformacion-digital/ 6. RECONOCIMIENTOS Como autora deseo agradecer a mi tutor el profesor Dr C. Armando Cuesta Santos quien siempre con su arte como profesor me inculca su sed infinita en la investigación de la ciencia social. Sobre la autora Soy Especialista B en Gestión de Recursos Humanos en la División Territorial de ETECSA en el Municipio Especial Isla de la Juventud atendiendo los procesos de Capacitación y Selección del personal. Soy instructora interna de la Empresa perteneciendo a las Cátedras Nacionales de Dirección Empresarial y Pedagogía. “MODELO MATEMÁTICO PARA LA EVALUACIÓN DE VARIABLES DE GESTIÓN DE MANTENIMIENTO ENFOCADO A LA ORGANIZACIÓN DEL TRABAJO” (Sergio Abel Rodríguez Sigarreta)1, (José Raúl Orosa Almeida)2 , (Rogej A. Marrero Hernández)3 1 Facultad de Ingeniería Industrial. Universidad Tecnológica de la Habana “José Antonio Echeverría” (Cujae), Calle 114 No 11901 entre 119 y 127, CP 19390, Marianao, La Habana, Cuba. 2 Empresa de Saneamiento Básico de la Habana (ESBH), Av 51 No 12045 esq.124, CP 19390, Marianao, La Habana, Cuba. 3 Facultad de Ingeniería Industrial. Universidad Tecnológica de la Habana “José Antonio Echeverría” (Cujae), Calle 114 No 11901 entre 119 y 127, CP 19390, Marianao, La Habana, Cuba. 1e-mail: sergioabelrodr459@Gmail.com sergioaro@ind.cujae.edu.cu 2e-mail: dgeneral@esbh.ays.cu 3e-mail: rmhernande@ind.cujae.edu.cu RESUMEN La inclusión de los sistemas de inferencia difusa en la modelización de la evaluación del mantenimiento amplía considerablemente las posibilidades de su gestión integral. El siguiente artículo presenta los resultados de una investigación sobre la aplicación de modelos basados en lógica difusa en las empresas pertenecientes a la OSDE Agua y Saneamiento (AyS), para esta investigación a empresas de acueducto y alcantarillado (EAA). Ello permite, además de la introducción de variables cualitativas, la incorporación del conocimiento y la valoración de expertos que facilitan modelizar, en un entorno de subjetividad e incertidumbre, la consecución de una mejor estimación de la Capacidad de Gestión del Mantenimiento. De este modo, es aplicable al resto de las empresas del sistema como una poderosa herramienta de apoyo a la toma de decisiones y, adicionalmente, un método adecuado para evaluar y estudiar las variables cualitativas que explican el proceso de mantenimiento desde la gestión en el sistema de recursos hídricos, con el propósito de elevar la capacidad del mismo en el área de gestión del mantenimiento. PALABRAS CLAVES: Sistema de inferencia difusa, Gestion del Mantenimiento, variables cualitativas, modelización “MATHEMATICAL MODEL FOR THE ASSESSMENT OF MAINTENANCE MANAGEMENT VARIABLES FOCUSED ON WORK ORGANIZATION” ABSTRACT The inclusion of fuzzy inference systems in the modeling of maintenance evaluation considerably expands the possibilities of its comprehensive management. The following Article presents the results of an investigation on the application of models based on fuzzy logic in the companies belonging to the OSDE Agua y Saneamiento (AyS), for this investigation to aqueduct and sewage companies (EAA). This allows, in addition to the introduction of qualitative variables, the incorporation of knowledge and the assessment of experts that facilitate modelling, in an environment of subjectivity and uncertainty, to achieve a better estimate of the Maintenance Management Capacity. In this way, it is applicable to the rest of the companies in the system as a powerful decision-making support tool and, additionally, an adequate method to evaluate and study the qualitative variables that explain the maintenance process from the management in the system. of water resources, with the purpose of increasing its capacity in the area of maintenance management. KEY WORDS: Fuzzy inference system, Maintenance management, qualitative variables, modeling 1. INTRODUCCIÓN El mantenimiento tiene como objetivo principal apoyar funcionamiento de los equipos (activos), sistemas o procesos, con el fin de mantener al máximo las capacidades y/o funciones que se desarrollan en la industria. Haciendo un barrido a la historia, el desarrollo prolongado de la capacidad industrial de los países conllevó a cambiar la visión que se tenía hasta el momento de lo que se conocía como mantenimiento industrial. Las antiguas técnicas basadas en observaciones periódicas y en las experiencias de los procesos, equipos, fue cambiada por los análisis de información, estrategias y planes de mantenimiento que utilizan nuevos esquemas operativos, procedimientos que hoy se conocen como gestión de activos. Estas nuevas estrategias buscan asegurar los recursos para mantener la disponibilidad de los equipos, la funcionalidad sin ocasionar paradas imprevistas y la efectividad en las acciones que se necesitan para lograr recuperar las unidades falladas. En general los análisis y las estrategias de mantenimiento se han encargado de observar variables controladas para la ejecución de tareas específicas e individuales [1] [2]. Desde el inicio de la vida humana las herramientas fabricadas por el hombre se han conservado mediante acciones concebidas a tal fin, lo que pudiera considerarse un concepto elemental del mantenimiento. La ciclo Deming, según la norma cubana ISO 9001:2015 donde define el mantenimiento como el conjunto de medidas de carácter técnico-organizativo, que pueden ser o no elaboradas previamente, que tiene como propósito sostener la funcionalidad de los equipos y garantizar un estado óptimo de las máquinas a través del tiempo. [3] La mayoría de los sectores industriales, el desarrollo de los programas de mantenimiento sobre la actividad en la que se aplica resulta esencial y es uno de los elementos más importantes para tener una competitividad dentro del sector, lo que significa que el mero hecho de que se produzca una avería no solo recae en la reparación, sino que constituye un sistema de gestión de recursos, una organización que previene y predice las averías, garantizando la disponibilidad, fiabilidad y utilización de las instalaciones, dentro de los criterios de seguridad, calidad y competitividad. [4]. Para garantizar que esta organización tenga un feedback (retroalimentación) es necesario diseñar sistemas de evaluacion y control eficientes. Las continuas afectaciones que se producen en las obras y equipamiento de la infraestructura de agua y saneamiento en Cuba se mantienen entre el 8 y el 12% de la población servida afectada por causas imputables al mantenimiento, entre las que destacan una pobre gestión logística y mala planificación de los recursos para el mantenimiento, ejecución deficiente de las tareas de mantenimiento y falta de chequeo de las mismas, no se intenciona el mejoramiento de la planificación, lo que afecta la garantía y extensión del ciclo de vida de los activos. De la situación problemática anteriormente descrita se deriva el siguiente problema de investigación: ¿Cómo contribuir a la evaluación de variables de gestión de mantenimiento en aguas y saneamiento? Para contribuir a la solución del problema, se plantea como objetivo general: Proponer un modelo matemático basado en la lógica difusa para la evaluación de variables de gestión de mantenimiento. Para cumplir con el objetivo trazado se formulan los objetivos específicos:  Elaborar el marco teórico referencial sobre la gestión de mantenimiento del sector de agua y saneamiento y sobre la lógica difusa como herramienta para la toma de decisiones.  Diseñar un modelo matemático basado en la lógica difusa para la evaluación de variables de gestión de mantenimiento. 2. MATERIALES Y MÉTODOS Para el desarrollo de esta investigación se utilizan métodos teóricos, empíricos y estadísticos. Entre los teóricos, se utiliza el análisis y síntesis de toda la información revisada en la literatura especializada, la inducción – deducción utilizada tanto para la realización del marco teórico de la investigación como para la modelación matemática de las variables, histórico-lógico para el estudio y comprensión del tema y análisis documental para dominar lo reconocido en cuanto a leyes, resoluciones y decretos relacionados con el tema. Como métodos empíricos, se utilizan las encuestas, entrevistas, observación directa, consulta de la documentación técnica y los informes de reportes de los resultados. Los métodos estadísticos matemáticos se emplean para el procesamiento de la información obtenida a través de los instrumentos y técnicas del nivel empírico., que se utilizan: Alfa de Cronbach para determinar la fiabilidad de la lista de chequeo, Método Delphi por rondas. Coeficiente de concordancia de Kendall: establece el nivel de acuerdo o desacuerdo entre un grupo de expertos y la Lógica Difusa ya que facilita la conversión de un lenguaje natural o profesional al lenguaje de la lógica difusa, lo que ofrecerá una alternativa de solución a la problemática existente. Análisis de modelos para la evaluación de la gestión de mantenimiento. La eficacia de los procesos de mantenimiento y de la gestión de activos sólo puede ser evaluada y medida por el análisis exhaustivo de una amplia variedad de factores que, en su conjunto, aportan propuestas de mejoras a un sistema integral de producción. Este procedimiento de evaluación se denomina con el término de auditoría, que puede evaluar el cumplimiento de las reglas o criterios objetivos a que aquellas deben someterse. [6] En las últimas décadas la concepción del mantenimiento a nivel internacional ha cambiado, pasando de una actividad reactiva a adoptar una concepción proactiva y extendiéndose a asegurar la confiabilidad de los activos a través de acciones concretas, vinculadas a nuevas prácticas y referenciada bajo un sistema de gestión a través del cual se define cómo se realizan los procedimientos, de manera tal que puedan ser medidos y auditados de forma más precisa. [7]. A partir de la investigación llevada a cabo en [8] donde se analizar las diferentes herramientas aplicadas para el diagnóstico de la gestión del mantenimiento a través de una revisión bibliográfica realizada en este campo. Los resultados de la investigación realizada permiten a los investigadores conocer los beneficios e insuficiencias para la selección de herramientas que mejor se contextualicen a su campo de trabajo, permitiendo la toma de decisiones ante los problemas presentados. [8] Para el análisis realizado fueron seleccionadas 52 bibliografías publicadas entre los años 1990–2020. De ellas fueron seleccionadas 25 donde los autores realizaron su trabajo utilizando las herramientas necesarias para esta investigación, se tuvo en cuenta como criterio de inclusión que fuesen herramientas referenciadas en bases de datos con soporte científico y/o libros, incluyéndose trabajos publicados en tesis doctorales y de maestría, donde se demostró rigor científico en su obtención y validación. Al analizar los estudios realizados por varios autores y los resultados obtenidos en [8] el autor luego de tabular la información obtiene como resultado para esta investigación que de las 52 herramientas analizadas en [8] un 64% (25) se publicaron a partir del 2011 por lo que el autor está de acuerdo que es un tema actual. Uno de los aspectos principales al analizar estos modelos, es si la auditoria se lleva a cabo a partir de la evaluación de áreas funcionales y que variables relaciona cada modelo, como se muestra en la ilustración 1 Ilustración 2: Áreas funcionales analizadas en las herramientas Fuente: Tomado de [8]. Modificado Del análisis de la Ilustración 1 se concluye que el 68 % (17) de las herramientas proponen la evaluación de la gestión del mantenimiento a partir del análisis de áreas funcionales, sin embargo, los autores difieren entre cuántas y cuáles son estas áreas. Identificación de variables de gestión de mantenimiento. En el análisis de las diferentes herramientas analizadas se determinan un total de 32 elementos diferentes. Donde el 68 % (22) de los elementos se tienen en cuenta por encima del 85 % (21) de las herramientas analizadas. Esto demuestra que aun cuando hay diferencias de criterios en cuanto a las áreas funcionales a analizar, si existe acuerdo entre los elementos que deben ser evaluados en la gestión del mantenimiento. Para analizar estas diferencias y similitudes se realiza un análisis clúster, a continuación, se muestran los resultados en la Ilustración 3: Ilustración 4: Dendograma del análisis de las herramientas Fuente: fuente elaboración [8] Concluyendo que las herramientas contenidas en el Grupo IV del análisis de agrupamiento conformado por el 20 % (5) de las referencias, deben ser las primeras en su análisis para una posible selección dado que son las que con mayor rigor evalúan las diferentes variables que denotan la gestión del mantenimiento en una entidad. Este grupo se caracteriza por abordar fuertemente la mayoría de los elementos (25), para un 78 %. Estos elementos están relacionados con plantilla, estructura, funciones del personal, aplicaciones informáticas, gestión de la información, gestión de la documentación, gestión de órdenes de trabajo, gestión logística, gestión de almacenes, gestión de inventarios, capacitación, gestión de indicadores, gestión de costos, presupuesto, planificación, programación, contratación, infraestructura, útiles y herramientas, inspección, tecnologías de diagnóstico, calidad, medioambiente, seguridad y tipos de mantenimiento. Con el objetivo de determinar las variables que más fuertemente se analizan en los modelos contenidos en el grupo IV del análisis de agrupamiento (clúster), el autor propone analizar los valores promedio de los elementos (variables) antes mencionados, para ello se crean tres grupos que estarán definidos por los promedios. Para realizar el análisis se determina en un primer momento el valor promedio del total de elementos y luego se repite el mismo procedimiento para los elementos que queden por encima de ese valor medio. En la siguiente ilustración 3 se muestran los resultados: Ilustración 5: Análisis de variables de gestión de mantenimiento Fuente: Elaboración propia A partir de la ilustración 3 se pueden clasificar los resultados en tres grupos: Grupo 1: elementos con puntuaciones promedio menores que dos 2 (color rojo): conformado por 12 elementos. Grupo 2: elementos con puntuaciones promedio mayores o igual a dos 2 (color verde): conformado por 8 elementos. Grupo 3: elementos con puntuaciones promedio por encima de 2.19 (color azul): conformado por 5 elementos. Como resultado del análisis anterior el autor propone como variables para evaluar la gestión de mantenimiento los elementos contenidos en el grupo 2 y 3 por contener los más fuertemente analizadas por los autores para la evaluación de la gestión del mantenimiento, donde se encuentra: estructura organizativa, aplicaciones informáticas, gestión logística, gestión de almacenes, gestión de inventarios, gestión de indicadores, contratación (tercerización) y útiles y herramientas, estos ocho (8) elementos corresponden al grupo número 2. En el grupo número 3 se encuentran cinco (5) elementos: gestión de órdenes de trabajo, planificación, programación, capacitación y gestión de costos de mantenimiento, en caso del grupo número 1 solo será utilizado por el autor la variable plantilla, ya que para realizar un mantenimiento es necesario que existan personas en cantidades correspondientes a la envergadura del trabajo a realizar y los medios y herramientas a emplear. Por lo que se tiene un total de 14 elementos que se consideraran como variables a evaluar a nivel operativo y analizar para la toma de decisiones. 3. DISEÑO DEL MODELO MATEMÁTICO BASADO EN LA LÓGICA DIFUSA PARA LA EVALUACIÓN DE VARIABLES DE GESTIÓN DE MANTENIMIENTO Para el desarrollo de este epígrafe, fue necesario diseñar el grupo de experto con el objetivo de determinar el índice de experticia de cada uno y así de esta forma aplicar a los de mayor índice el método Delphi para la validación de las variables antes identificadas por el estudio bibliográfico para las empresas pertenecientes a la OSDE Agua y Saneamiento (AyS) específicamente a las empresas de Acueducto y Alcantarillado (EAA). Diseño del grupo de experto Para el Diseño del grupo de experto se hace uso del procedimiento propuesto en [9]. Este procedimiento se implementará con el objetivo de conformar un grupo de expertos, técnicamente definido, que se encargue de la organización del proceso de mantenimiento de las entidades objeto de estudio. Partiendo del principio de que se necesitan tomar decisiones concretas apoyadas en la experticia de los compañeros para disminuir el margen de error en ellas. Dicho procedimiento consta de 4 etapas donde se explica el desarrollo de la actividad partiendo de los principios y objetivo. En la siguiente ilustración se muestra el procedimiento antes mencionado. Ilustración 6: Procedimiento para la conformación del grupo de expertos. Fuente: Elaboración propia [9] El procedimiento fue aplicado a 16 candidatos que se encuentran vinculados al área de mantenimiento o con un conocimiento basto de la actividad, los mismos se declararon voluntarios a participar la investigación. Luego de aplicar el procedimiento cumpliendo con todos los criterios matemáticos como normalización, asignación de pesos y aplicación de las expresiones de cálculo correspondiente a partir de la aplicación del cuestionario diseñado para determinar la experticia de los candidatos. A continuación, se muestran los resultados: Tabla 1: Grupo de experto de mantenimiento Fuente: Elaboración propia Se evidencia en la tabla anterior que los compañeros que finalmente quedaron seleccionadas como expertos para la toma de decisiones en el área de mantenimiento son (6, 5, 15, 11, 14, 10, 8, 4, 1). Los candidatos restantes que, por sus competencias, no fueron aceptados como expertos, se les propone una capacitación sobre los aspectos del mantenimiento y su importancia para el desarrollo empresarial; lo cual se plantea en la etapa 4. Aplicación del método Delphi a expertos en el tema objeto de estudio para la inclusión de variables en el modelo matemático. A continuación, el autor muestra los resultados obtenidos al aplicar el método Delphi por rondas a los expertos antes identificados. Mediante el análisis de varias fuentes bibliográficas se determinaron elementos que se consideran importantes y que deben estar presentes si de Gestión del Mantenimiento se habla. La primera versión de las variables a validar por los expertos se muestra a continuación acompañada de una breve descripción que tiene como objetivo familiarizar al experto von los aspectos o variables a evaluar posteriormente: Primera ronda: Presentación y descripción de las variables a validar por los expertos. Tabla 2: Aspectos a evaluar Aspectos Elementos Descripción A1 Estructura Organizativa El término “estructura organizativa” se refiere al andamiaje jerárquico en el que se define el reparto interno de roles dentro de la empresa. A2 Aplicaciones Informáticas Software y hardware para el tratamiento automático de la información. A3 Gestión Logística La gestión logística es un proceso detallado para organizar e implementar una operación. A4 Gestión de Almacenes Es el proceso de la función logística que trata la recepción, almacenamiento y movimiento dentro de un mismo almacén hasta el punto de consumo de cualquier material – materias primas, semielaborados, terminados, así como el tratamiento e información de los datos generados. A5 Gestión de Inventario La gestión de inventarios es la administración respecto al ingreso y salida de insumos, productos terminados o semiterminados, bienes auxiliares y herramientas que posee una empresa. A6 Indicadores de Gestión Una gestión se basa en el seguimiento adecuado de las métricas preestablecidas, también conocidas como KPI o indicadores clave de rendimiento. Los indicadores tienen la misión de comunicar, de forma sencilla y a través de la cuantificación, los resultados de un proceso u operación. A7 Contratación (tercerización) Es la contratación de una tercera entidad para que desarrolle actividades especializadas, obras o algún otro servicio en las instalaciones de una empresa usuaria. A8 Útiles y Herramientas Son todos aquellos utensilios y demás objetos fabricados generalmente en hierro o acero que se pueden utilizar autónomamente o conjuntamente con la maquinaria. A9 Gestión de Órdenes de Trabajo La gestión eficiente de órdenes de trabajo es el seguimiento de los trabajos a realizar y ya realizados a partir de un documento físico o digital donde se detallan por escrito las instrucciones para realizar un determinado trabajo o tarea. A10 Capacitación y motivación Es el proceso mediante el cual los trabajadores adquieren los conocimientos, herramientas, habilidades y actitudes para interactuar en el entorno laboral y cumplir con el trabajo que se les encomienda. A11 Gestión de Costos de Mantenimiento La gestión de costos es el proceso de calcular, presupuestar y controlar los costos de un proyecto. A12 Planificación La planificación es la estructuración de una serie de acciones que se llevan a cabo para cumplir determinados objetivos. A13 Programación La programación del mantenimiento es el proceso mediante el cual se acoplan los trabajos con los recursos y se les asigna una secuencia para ser ejecutados en ciertos puntos del tiempo. A14 Plantilla Es la cantidad de hombres para realizar las labores de Mantenimiento Fuente: Elaboración propia Segunda ronda: Ratificación de las variables Tabla 3:Ratificación de las variables Fuente: Elaboración propia Una vez expresado el criterio de acuerdo o desacuerdo por parte de los expertos se puede concluir de la tabla 11 que no se elimina ninguno de los elementos presentados ya que presentan un Coeficiente de concordancia (Cc) ≥ 70% por lo que existe criterio para considerarlos aceptables para el sector de acueducto y alcantarillado específicamente para la infraestructura del sistema de abasto de agua. Tercera ronda: Determinación del orden de importancia de cada elemento (ponderación). Tabla 4: Pesos de los elementos Fuente: Elaboración propia Posteriormente haciendo uso del Coeficiente de Concordancia Kendall se determina si existe acuerdo o no entre los expertos. Este método se basa en la demostración de una prueba de hipótesis en la cual la hipótesis nula (H0) responde a que no existe acuerdo entre los expertos. Por la importancia que implica la validación de las variables para esta investigación se estableció un nivel de confianza del 95 %. La hipótesis nula se rechaza para un coeficiente de concordancia de Kendall (W) mayor que 0,7. Coeficiente de Concordancia Kendall Prueba de hipótesis: H0: No hay acuerdo entre los expertos H1: Hay acuerdo entre los expertos Donde : RC: N ≤ 7 S ˃ S* (tabla) RC: N ˃ 7 K(N-1) W ˃ N: número de características K: número de expertos Como N=14 ˃ 7 luego la región critica es RC: N ˃ 7 K(N-1) W ˃ Los resultados fueron procesados en el software Minitab versión 17, arrojando como salida los resultados del análisis de concordancia: Ilustración 7: Valor obtenido del Coeficiente de Concordancia de Kendall Fuente: Salida del software Minitab 17 Realizando los cálculos de la (RC): K(N-1) W ˃ = 10(14-1)0.647 ˃ = 78.494 ˃ 22.362 Por tanto, el autor puede concluir que como se cumple la RC, se rechaza H0 y los resultados son válidos, por lo que hay concordancia entre los expertos. De este método se concluye que las variables resultantes de la tercera ronda pueden utilizarse para incluirlas en el modelo matemático y la lista de chequeo a aplicar posteriormente en las empresas pertenecientes a la OSDE AyS. 4. Construcción del modelo matemático. El modelo propuesto fue diseñado haciendo uso del toolbox de Matlab donde se encuentra la herramienta fuzzy logic Desing que da la posibilidad de predeterminar los parámetros y métodos a emplear como también a determinar los conjuntos cada variable de entrada y de salida. Para el modelo propuesto el autor define tres Áreas funcionales(Organización, Capital Humano, Infraestructura) que serán las variables de entrada del modelo difuso, en ellas se encontrarán las variables validadas por los expertos de acuerdo a las características propia de cada una, téngase en cuenta que el agrupamiento de cada una de estas variables no se realizó bajo criterio alguno a que se demostró que los autores no se ponen de acuerdo de que variables se deben evaluar en determinada área funcional declarada. El diseño corresponde a un sistema tipo Mandani. En la siguiente figura se muestran las características paramétricas del modelo: Tabla 5: Parametrización de variables de entrada y salida Fuente: Elaboración propia El modelo propuesto se caracteriza por ser una herramienta que tiene en cuenta la subjetividad de los criterios emitidos por los encargados de realizar una evaluación de los elementos que aparecen en la tabla 5 a partir de la lista de chequeo, aspecto que no se tiene en cuenta por los modelos clásicos de auditoria del mantenimiento donde realizan los cálculos a partir de la suma de factores ponderados durante todo el proceso. El sistema propuesto tendrá como método de implicación un min y como método de agregación de las reglas un max como mecanismo de inferencia y como operador lógico tendrá un AND, para el proceso de desdefusificacion se emplea el método del centroide. Los valores de las variables de entrada se obtienen a partir de la aplicación de la lista de chequeo. La diferencia entre el modelo difuso y la suma de factores ponderados usados tradicionalmente para evaluar la gestión del mantenimiento radica en que el modelo difuso cuenta con un motor de inferencia basado en reglas que en este caso son 27 y no es necesario determinar los pesos de cada variable para determinar el valor de la variale de salida como en el caso de aplicar el modelo de suma de factores ponderados, la estructura básica del modelo difuso es if-then y son definidas por el investigador, de aquí el por qué el sistema es tan flexible a la hora de evaluar donde existe incertidumbre. El modelo propuesto muestra a continuación en la Ilustración 6. Ilustración 8: Sistema difuso propuesto Fuente: Elaboración propia (Matlab) Donde las variables de entrada ya están definidas por Áreas funcionales y en la siguiente figura se puede apreciar los parámetros definidos de la variable Organización: Ilustración 9: Funciones de pertenencia de la entrada Organización Fuente: Elaboración propia (Matlab) De igual forma se determina para la variable Capital Humano y para Infraestructura se tiene un universo de discurso de (0-6) como se muestra: Ilustración 10:Funciones de pertenencia de la entrada Infraestructura Fuente: Elaboración propia (Matlab) En el caso de la variable de salida (CAPGM) definida por cinco (5) funciones de pertenencia se observa en la siguiente Ilustración: Ilustración 11: Variable de salida CAPGM Fuente: Elaboración propia (Matlab) Las reglas se definen manualmente en el software para la determinación de las mismas se elaboró una tabla donde se dejó la base del conocimiento para luego determinar las reglas, a continuación, se muestra la tabla de base del conocimiento: Tabla 6: Base del conocimiento de reglas Fuente: Elaboración propia De esta forma quedan las superficies de cada una de las variables de entrada con respecto a la variable de salida según las reglas establecidas, a continuación, se muestra las variables de entrada Infraestructura y Capital Humano con respecto al consecuente: Ilustración 12: Superficie de los Antecedentes vs Consecuentes Fuente: Elaboración propia La interface que proporciona el software se muestra a continuación, donde el analista puede fijar los valores de las variables de entrada haciendo uso del cursor de color rojo, el ejemplo siguiente es solo de muestra donde se observan las 27 reglas pre establecidas y el resultado de la variable de salida. Ilustración 13:Evaluación de las reglas Fuente: Fuzzy logic Desing (Matlab) Obsérvese que la variable Organización se encuentra dentro del conjunto difuso Bajo por tener mayor función de pertenencia, la variable Infraestructura se encuentra en Medio y la variable Capital Humano se encuentra dentro del conjunto difuso Alto por tener mayor función de pertenencia, a partir de esta relación el modelo infiere un resultado de Medio para el consecuente CAPGM, cumpliéndose la regla establecida para este caso. Interpretando el resultado de la CAPGM, el autor concluye que es un valor desfavorable a pesar de que se encuentre en estado Medio (50), ya que se puede deducir que la entidad evaluada puede garantizar aproximadamente un 50% de las necesidades del área de mantenimiento a partir de la gestión, quedando sin respaldo la otra mitad, por lo que se recomienda que la CAPGM se mantenga en el umbral de Medio- Alto y Alto (75 -100), en la siguiente figura se muestra la zona ideal para esta variable representada de color verde y la zona aceptable de color amarillo: Ilustración 14:Área ideal (verde) y aceptable (amarillo) para consecuente Fuente: Elaboración propia (Matlab) Esta investigación garantiza la organización del trabajo del mantenimiento y su gestión como parte del binomio operación-mantenimiento como parte del ciclo de vida. Los resultados se obtuvieron a partir de la aplicación de técnicas y herramientas propuestas para la captación y procesamiento de los datos primario tales como: observación directa, entrevista, análisis de documentos y otros 5. CONCLUSIÓN Para la evaluación de la gestión del mantenimiento se identificaron un grupo de variables que son las más fuertemente analizadas por los modelos estudiados, estas variables fueron validadas para el sector de AyS para su inclusión en el modelo propuesto, dicho modelo permite tratar variables del tipo cualitativas donde existe un alto nivel de incertidumbre al emitir cierto criterio, precisamente el modelo difuso mitiga estos sesgos producto de la imprecisión que trae implícita ente tipo de variables. Desde el punto de vista de la organización del trabajo esta herramienta garantiza la retroalimentación al determinar la CAPGM del proceso de mantenimiento y saber si nos encontramos en un escenario capaz de sostener los valores obtenidos a la salida del proceso por los KPI (Indicadores clave) del mantenimiento o si la empresa no se encuentra capacitada para enfrentar las posibles afectaciones y tareas de mantenimiento. REFERENCIAS [1] L. M. M. O. Andres Felipe Castaño, Desarrollo de un entorno programado para el análisis de confiabilidad con base en distribución Weibull biparamétrica, Pereira: Universidad Tecnológica de Pereira, 2011. [2] Blanco, E. E. (2014) Distribuciones no tradicionales para medir confiabilidad, mantenibilidad y disponibilidad (CMD), que se ajustan a varias fases de la curva de Davies, Medellín, Antioquía: Universidad EAFIT, Escuela de ingeniería, Departamento de ingeniería mecánica. [3] Rivera Rubio, Enrique Miguel (2011). Sistema de Gestión del Mantenimiento Industrial. [4] Deming, Williams Edwards (1950). El Mantenimiento y su evolución [5] Gestión del Mantenimiento: Lean Maintenance y TPM. [6] Carlos Parra M., P. V. G., Fredy Kristjanpoller, Adolfo Crespo Márquez, Vicente González-Prida, Juan and F. G. Fernández (2021). "Técnicas de Auditoría para los Procesos de: Mantenimiento, Fiabilidad Operacional y Gestión de Activos (AMORMS & AMS-ISO 55001)." [7] Díaz, C. A., (2017). Instrumento para evaluar el estado de la gestión de mantenimiento en plantas de bioproductos: Un caso de estudio. Revista chilena de ingeniería. 25: 8. [8] Villar Ledo, L., (2022). "Análisis de herramientas para el diagnóstico de la gestión del mantenimiento." Revista Universidad y Sociedad 14: 493-510. [9] Marrero, R. (2019) Modelo para el diagnóstico, planificación y control del mantenimiento. Ingeniería Industrial, Instituto Superior Politécnico José Antonio Echeverría; Ing. 40(2). http://revistaii@ind.cujae.edu.cu [10] Marrero-Hernández, R. A., & Smith Fernández A. (2022). Diseño del grupo de expertos para contribuir a la gestión de la planificación del mantenimiento. Revista Universidad y sociedad Vol. 14 (S1), 97-109 [11] Norma ISO 9001., Gestión de la calidad-Sistemas de Gestión-requisites, ISO estándar: Ginebra, Suiza, 2015, pp. 9-11. Disponible en: https://www.iso.org/obp/ui/#iso:std:iso:9001:ed-5:v1:en Sobre los autores  Sergio Abel Rodriguez Sigarreta: Estudiante de año terminal de la facultad de ingeniería industrial de la Universidad Tecnológica de La Habana (CUJAE), especialista en obras hidráulicas en la empresa de Saneamiento Básico de La Habana (ESBH).  José Raúl Orosa Almeida: Ingeniero Hidráulico, Director general de la ESBH  MSc. Ing. Rogej A. Marrero Hernández. Contribuye a la conformación del experimento, sobre la definición de los aspectos de la fórmula y a la corrección del documento escrito hasta su publicación. DIAGNOSTICO DE LA GESTIÓN DEL CAPITAL HUMANO EN LA EMPRESA CUBANA MOVITEL María Camila Chavez González1 María Sonia Fleitas Triana2 1MoviTel 1e-mail:mchavezg96@gmail.com 2Universidad Tecnológica de la Habana “José Antonio Echeverría”, CUJAE 2 sfleitas@ind.cujae.edu.cu RESUMEN La investigación se desarrolló en la empresa cubana MoviTel, encargada de brindar servicios de telecomunicaciones para satisfacer las necesidades y expectativas de los clientes con alta calidad y en constante desarrollo tecnológico, a través de un capital humano altamente calificado enfocado hacia la innovación y mejora continua, orientado a la informatización de la sociedad. Después de analizar el comportamiento de los principales indicadores, fundamentos teóricos y enfoques se determinó que es prioridad aumentar la capacidad innovadora de la empresa para la sostenibilidad de proyectos de desarrollo y formación de una cultura que promueva la creación de ideas y la disposición a resolver problemas existentes. Se persigue como objetivo demostrar la necesidad de alinear la gestión del capital humano a la innovación para el desarrollo de una cultura organizacional enfocada a la incorporación de productos y servicios nuevos o mejorados al mercado para lo que aplicó la Tecnología de Gestión de Recursos Humanos – Diagnóstico, Proyección y Control, del Dr. Armando Cuesta Santos, para determinar con la aplicación de técnicas como: entrevistas, encuestas, matriz DAFO, diagrama causa-efecto, como impacta los principales problemas del Sistema de Gestión del Capital Humano en la innovación. PALABRAS CLAVES: innovación, capital humano, cultura organizacional. NEED FOR THE MANAGEMENT OF HUMAN CAPITAL ASSOCIATED WITH INNOVATION ABSTRACT The research was developed in the Cuban company MoviTel, responsible for providing telecommunications services to meet the needs and expectations of customers with high quality and constant technological development, through highly qualified human capital focused on innovation and continuous improvement. oriented to the computerization of society. After analyzing the behavior of the main indicators, theoretical foundations and approaches, it was determined that it is a priority to increase the innovative capacity of the company for the sustainability of development projects and the formation of a culture that promotes the creation of ideas and the willingness to solve problems. existing. The objective is to demonstrate the need to align the management of human capital with innovation for the development of an organizational culture focused on the incorporation of new or improved products and services to the market, for which the Human Resources Management Technology – Diagnosis, Projection and Control, by Dr. Armando Cuesta Santos, to determine with the application of techniques such as: interviews, surveys, SWOT matrix, cause-effect diagram, how the main problems of the Human Capital Management System impact innovation. KEY WORDS: innovation, human capital, organizational culture. 1. INTRODUCCIÓN El sector de las telecomunicaciones es uno de los sectores más dinámicos, la disrupción tecnológica y competitiva nos obliga a una evolución continua de los servicios de comunicaciones desde visión estratégica, alineando la tecnología y la innovación al negocio, enfocado a la competitividad. La Unión Internacional de Telecomunicaciones (UIT-T, 2016) menciona que las operadoras de telecomunicaciones deberán adaptar modelos de negocios que aprovechen las oportunidades de la evolución digital, lo que conlleva a crear condiciones ideales para la innovación, mejora y experimentación empresarial para mitigar los desafíos existentes en las compañías que ofrecen servicios de telecomunicaciones. La cuestión es determinar las opciones de que disponen los operadores para atribuir recursos escasos (dinero, conocimientos y tiempo) lo mejor posible a fin de maximizar el valor de esas inversiones en infraestructuras. Además, si se insiste en los “difíciles retos” que supone obtener fondos, adquirir espectro o emplazamientos y crear redes, se corre el riesgo de prestar menos atención a los problemas “menos agudos” de cambio cultural, diseño de servicios, organización y dedicación al cliente (Bubley, 2017). La dirección empresarial estratégica ha experimentado cambios sustanciales debido a la existencia de una fuerte competencia, escenarios comerciales dinámicos y altamente inciertos que denotan la importancia de estudiar elementos claves para que las organizaciones puedan superar estos obstáculos y aumentar su competitividad (García-Sánchez et al., 2018). Se deben incorporar procesos, productos y servicios innovadores e impulsar desarrollos tecnológicos, capaces de generar valor agregado y de ajustarse a las necesidades de los consumidores (Steffens et al., 2017). La innovación como factor interno de la organización ofrece la posibilidad de generar, a menor costos y de forma más acelerada, productos y servicios (da Costa et al., 2018), lo cual es una habilidad fundamental para responder ante los entornos dinámicos e inciertos. Pero aun cuando las innovaciones les proporcionan importantes ventajas competitivas a las empresas, estas necesitan tener o crear capacidades organizacionales para que puedan ser asimiladas y extraer de ellas el máximo de efectividad y es ahí donde la el talento humano y las tendencias en su gestión juegan un papel importante. Entonces el ímpetu recae en el departamento de recursos humanos, quizás más que en cualquier otro departamento de la organización, para tener una comprensión y apreciación claras de la cultura de su organización, pero no es suficiente simplemente captar los valores fundamentales que se sostienen en la declaración de la misión o de la visión, ya que estos son los valores que la administración desea que el resto del personal comparta (Chandler, 2018), este proceso requiere un objetivo coherente con las políticas de la Empresa en donde este departamento debe de mantener el activo más valioso de cualquier organización como lo son las personas (Ruilobas, 2015). “La ventaja básica de las empresas en el mundo globalizado del porvenir, en el mundo de inicios del Siglo XXI, no radicará en sus recursos materiales ni en específico en los recursos energéticos, no radicará en sus recursos financieros, y ni tan siquiera en la tecnología: la ventaja básica de las empresas a inicios del nuevo milenio definitivamente radicará en el nivel de formación y gestión de sus recursos humanos” (Cuesta Santos, 2010). La gestión del talento humano desde el enfoque estratégico es moderadamente óptimo, adaptándose a las nuevas necesidades del entorno con miras a lo conceptual y creativo, donde la estrategia responde a la demanda del mercado, creando un valor en la gente como factor diferenciador para competir en la nueva economía de la oferta y demanda, adoptando prácticas de gestión sustentable que garantice la rentabilidad y permanencia de la empresa en el mundo, adecuada a las dinámicas de la naturaleza del sector (Ramírez, (Ramírez et al., 2019). (Hernández Mejía, 2018), defiende que gestionar el recurso humano brinda soporte a la estrategia de la empresa, y podría considerarse como una inversión teniendo en cuenta que fomenta el proceso de creación de valor, siendo en una “palanca de potencial estratégico”. Existen diversas tendencias en la gestión de los recursos humanos que posicionan al talento humano como el recurso fundamental de las organizaciones, al ser portadores de conocimientos, capacidades y habilidades que posibilitan a la organización ocupar una posición, ventajosa o no, en el mercado; por tanto es necesario contar con procesos orientados a la innovación y en concordancia con la estrategia del negocio que lo conviertan en un catalizador de creatividad e innovación para el cumplimiento de los objetivos de la empresa, es por ello que el objetivo de la investigación es demostrar la necesidad de alinear la gestión del capital humano a la innovación para el desarrollo de una cultura organizacional enfocada a la incorporación de productos y servicios nuevos o mejorados mediante la aplicación de la Tecnología de Gestión de Recursos Humanos – Diagnóstico, Proyección y Control, del Dr. Armando Cuesta Santos. MoviTel es una empresa cubana que opera desde 1997, perteneciente al Grupo Empresarial de la Informática y las Comunicaciones (GEIC), que a su vez está subordinado al Ministerio de Comunicaciones (MINCOM). La empresa tiene como misión: “Brindar servicios de telecomunicaciones para satisfacer las necesidades y expectativas de los clientes con alta calidad y en constante desarrollo tecnológico, a través de un capital humano altamente calificado enfocado hacia la innovación y mejora continua, orientado a la informatización de la sociedad”. Y, como visión: “Ser una empresa de telecomunicaciones competitiva del país, comprometida con los clientes, reconocida por la calidad, excelencia operativa y continua innovación sustentada en la profesionalidad, integridad moral y sentido de pertenencia hacia el negocio”. En los últimos años se ha evidenciado un decrecimiento de los ingresos por ventas de mercancías y servicios, excepto en el 2021 hubo un incremento del 377 % donde hubo modificaciones en las tarifas de servicios, pero no fue producto de un aumento en los niveles de gestión. En cuanto al servicio analógico, el decrecimiento progresivo en los últimos años de terminales activos en la red MPT1327 ha sido notable. Las principales causas de las desconexiones por parte de los clientes han sido fundamentalmente por no uso de los equipos por falta de baterías y por pasar a celulares. Durante el año 2022, hasta el mes de junio, han desconectado 35 clientes un total de 136 radios. En agosto del 2022, se aplica una encuesta de satisfacción a los clientes, en la cual, aunque el nivel de satisfacción arrojado fue positivo fue señalado como aspectos a mejorar la disponibilidad comercial de accesorios, terminales, partes y piezas para su sustitución y mantenimiento. Actualmente se operan en el país dos sistemas de comunicaciones, analógica y digital, con las características siguientes: El sistema analógico (MPT 1327), que garantiza principalmente los servicios de voz, tiene cobertura en todas las provincias del país y el municipio especial Isla de la Juventud y el sistema eLTE que comenzó su despliegue en La Habana y al cierre de 2019 se logra cobertura de este sistema en La Habana, Mariel, Matanzas, Varadero y Bayamo. La situación política y financiera actual ha provocado que en 2019 se paralizaran momentáneamente las negociaciones con el proveedor ¨Huawei¨, lo que ha detenido el proyecto de expansión aprobado por el Ministerio de Economía y Planificación de Cuba que contemplaba lograr en cinco años (2017 – 2021) la cobertura al 80% del país y dar servicios a más de 10 mil usuarios. Por otra parte, las dificultades de financiamiento de las tecnologías a MoviTel y el impacto del Bloqueo Económico de EE.UU. a Cuba ponen en un punto crítico el desarrollo de este tipo de soluciones en el país. Las razones anteriores y el alto costo de la infraestructura y terminales imposibilitan con los precios actuales migrar hacia la tecnología eLTE a clientes que usan el MPT1327. Sistema que, por su parte, está en un proceso de obsolescencia tecnológica. Por otro lado, las importaciones deben ser a través de terceros debido a que la empresa no tiene capacidades para realizarlas directamente. Las compras de mercancías han presentado demoras en las operaciones comerciales. En 2020 se inicia un proyecto de desarrollo de la plataforma y aplicación M-TEL que no logra implementarse en el 2021 ya que aún la aplicación no está completamente lista. Una de las principales deficiencias en este y otros proyectos es que no se realiza un estudio del mercado que permita desde el inicio conocer la demanda del servicio, siendo la principal causa que la Empresa no cuenta o no ha identificado personal calificado para realizar este tipo de estudios. A inicios de 2022 se incorpora un nuevo servicio de ciberseguridad, que en sus inicios presento problemas en la comercialización, debido a que el área Comercial no tuvo participación durante el proceso de desarrollo y una vez culminado el mismo no se transfirió el conocimiento necesario sobre el producto. Ante los problemas existentes se ha pretendido desarrollar la capacidad innovadora para lo que se crea y aprueba la Dirección de Desarrollo, para rectorar la actividad innovadora en la empresa, su estructura se diseñó agrupando cargos ya existentes en la organización con funciones afines y se cubre la plantilla con estos trabajadores, sin tener en cuenta si poseían las habilidades necesarias para cumplir con la misión del área. Sumado a esto, en menos de un año ha tenido grandes problemas de fluctuación, llegando a causar baja toda su plantilla en dos ocasiones, por lo que no se han logrado los resultados esperados. Teniendo en cuenta lo anterior se propone realizar el diagnóstico del Sistema de Gestión de Capital Humano de la organización para identificar los factores que afectan a la capacidad innovadora de la Empresa. 2. MATERIALES Y MÉTODOS En el diagnóstico de la Gestión de Recursos Humanos en la empresa MoviTel se abordarán los pasos sugeridos en el Modelo de Gestión de Recursos Humanos – Diagnóstico, Proyección y Control del Dr. Armando Cuesta Santos que propone los aspectos siguientes: (Cuesta Santos, 2010) 1. Factores de Bases 2. Grupos de interés 3. Dirección estratégica 4. Competencias laborales y organización que aprende. 5. Subsistemas y Políticas de la Gestión de los Recursos Humanos 6. Resultados. 7. Consecuencias a largo plazo. 8. Auditoría o Cuadro de Mando Integral. 3. RESULTADOS Factores de Bases Características de las personas que trabajan. La empresa MoviTel cierra el año 2021 con una plantilla aprobada de 119 trabajadores, de ellos cubiertos 93. Además, se adicionan 6 recién graduados ocupando el cargo de Técnico Superior en Adiestramiento, completando un total de 99 trabajadores, de estos 40% mujeres y 60% hombres. Los rangos de edades no son favorables para la empresa pues, aunque la mayoría de sus trabajadores cuentan con la experiencia para asumir sus tareas, existe gran concentración del personal en la escala de edad de 51 a 60 años representando el 40% del total, siendo difícil para la Empresa retener personal joven. En la Figura 1 se muestra la composición de trabajadores por rangos de edad. Del total, el 82% de los trabajadores tienen la categoría de técnico, como se muestra en la Figura 2. Figura 1. Composición por edad Figura 2. Composición por categoría ocupacional Prevalece el nivel superior representando un 71%, con 70 trabajadores y existen también 21 técnicos del nivel medio, 3 técnicos del nivel medio básico, 2 trabajadores con nivel medio superior y 2 obreros calificados representando cada uno un 21%, 3%, 2% y 2% respectivamente (Figura 3). La estructura está conformada por una Dirección General, a la cual se subordinan 2 Direcciones de Regulación - Control y Apoyo y 9 Direcciones de Producción y Servicios. El 40% de los trabajadores pertenecen a las áreas de apoyo, según se muestra en la Figura 4, obteniéndose un índice de personal productivo desfavorable, por debajo de 3,6 (1,48). Figura 3. Composición por nivel educacional Figura 4. Cantidad de trabajadores directos e indirectos Se aplicó la encuesta Naturaleza de las Personas a una muestra de 41 trabajadores con un margen de error de 11,69% y un nivel de confianza de 95%. Del total de encuestados el 41% son mujeres y el resto son hombres, la edad promedio es de 44 años, el 46% son solteros y el 54% casados y de acuerdo a las condiciones de vida prevalecen buenas condiciones con un 56% siguiéndole con un 44% las regulares. En cuanto a las motivaciones el 88% de las personas le gusta el trabajo que realiza, el 73% se siente estimulado en la empresa, pero no lo suficiente debido a que consideran que el estímulo tanto moral como material puede ser mejor, el 80% cree que desempeña bien su trabajo, el 60% cree que puede realizar otras funciones y el 78% le gustaría recibir cursos de superación. Entre las aspiraciones profesionales, se destaca la superación en postgrados, dirección empresarial, idioma, nuevas tecnologías, entre otros. Para evaluar este el Clima Organizacional se calculó el promedio de los criterios emitidos ya sea de la situación actual como de la deseada, en la Figura 5 se aprecia la comparación entre la situación actual y deseada. Figura 5. Comportamiento de los indicadores de Clima Organizacional Por último, se mide el indicador Administración por objetivos lográndose apreciar en la Figura 6 que los tres niveles alcanzaron buenos niveles de percepción. Figura 6. Nivel alcanzado en la administración por objetivos. Cultura Organizacional Se aplica la encuesta Likert a los 41 trabajadores para conocer cuáles son las carencias implícitas y explícitas claves de los directores acerca de la naturaleza de la organización, la cual cuenta con 19 preguntas, obteniéndose que la Empresa tiene un estilo de dirección consultivo, obtenido del promedio de las medias de cada pregunta con un valor de 14,61 puntos. De acuerdo a los valores promedios obtenidos para cada pregunta se concluye que: • Los directivos tienen bastante confianza en sus subordinados, al igual que estos consideran que los directivos tienen bastante confianza en ellos y sienten completamente libres para hablar con su jefe y sus ideas se ponen bastante en práctica. • Se utiliza los premios y la participación como medio de motivación. • En casi todos los niveles se siente la necesidad de alcanzar los objetivos de la organización. • Existe bastante labor en equipo lo que favorece que todos trabajen de conjunto por lograr los objetivos. • En la organización la comunicación fluye hacia abajo y hacia arriba, en general las informaciones son aceptadas por los subordinados y por su parte los jefes comprenden bastante los problemas de los subordinados. • Las decisiones importantes se toman en a alto nivel, las demás a nivel inferior, se delega bastante. • Los objetivos son decididos en grupos de trabajos y se consultan antes de fijarlos y una vez fijados, hay cierta resistencia pasiva a ellos. • El sindicato responde a veces con resistencia suficiente a los intereses de los trabajadores. Atractivo de la organización Se aplicó la lista de comprobación de satisfacción laboral con el objetivo de conocer que atractivo posee la organización para sus empleados a partir del coeficiente de satisfacción laboral que los mismos tienen. Se obtuvo un coeficiente de satisfacción laboral de 77%, determinándose que el salario es el factor más influyente puesto que los trabajadores consideran que cobran menos de lo que deberían ganar y que el mismo es más bajo que en otros centros, siendo estas una de las principales causas de fluctuación. También se visualiza en la Figura 7 que la capacitación es el segundo factor de menor coeficiente. Figura 7. Resultados de la encuesta de satisfacción laboral. Tecnología de las tareas En la organización estan definidos los procesos estratégicos, claves y de apoyo para el correcto funcionamiento de las tareas de la empresa que se muestran en la Figura 8. Gestión de Servicios al Cliente Sostenibilidad de las Infraestructuras y Servicios Comercialización de Productos y Servicios Dirección Estratégica Gestión de la calidad y la innovación Gestión Contable - Financiera Gestión Informática Gestión Logística P ro v e e d o re s , N e c e s id a d e s y e x p e c ta ti v a s d e l c li e n te y o tr a s p a rt e s i n te re s a d a s S a ti s fa c c ió n /B e n e fi c io s d e l c li e n te y o tr a s p a rt e s i n te re s a d a s Requisitos Gestión de Capital Humano Figura 8. Mapa de procesos de la empresa MoviTel Si analizamos la correspondencia del mapa de procesos con la ISO 9001, esta presente el enfoque al cliente y la relación con el entorno, pero el proceso de diseño y desarrollo de productos y servicios no esta comprendido dentro de los procesos claves de la organización, aunque la gestión de la innovación se presenta como un proceso estratégico es necesario el proceso de creación y transformación de acuerdo a los requisitos de necesidades y espectativas del cliente. En cuanto al uso de las Tecnologías de la Información, no esta implementado un sistema integral que permita la digitalización de los procesos. El sistema eTES, es un software de gestión ERP basado en un núcleo principal de gestión ampliable con diversos módulos según las necesidades de los clientes, que facilitan el trabajo especifico de diferentes secciones: Finanza, Compra, Ventas, Gestión de almacenes, Inventario y Recursos Humanos. El sistema carece de interoperabilidad con otros sistemas y esta limitado a las actividades operacionales, lo que lleva a emplear otras aplicaciones para el cumplimiento de determinadas tareas que no están conectadas entre sí. Leyes y Valores de la sociedad En el proceso actual de perfeccionamiento del Modelo Económico y Social Cubano de Desarrollo Socialista, se le da al proceso de informatización y actualización tecnológica una gran importancia a partir del impacto directo que tiene en la economía. Se destacan conceptos orientados al desarrollo tecnológico, la innovación y la capacitación del personal. Se identifica en el marco regulatorio cubano las principales leyes a cumplir teniendo en cuenta que es una empresa estatal en perfeccionamiento: • Lineamientos del Partido Comunista de Cuba • Ley No. 116 “Código de Trabajo” y su Decreto Reglamentario No. 326/2014. • Proceso de informatización y actualización tecnológica de la sociedad. • Resolución 60 de 2011 de Contraloría General de la República. • Decreto-Ley 17/2020 De la Implementación del Proceso de Ordenamiento Monetario. • Decreto 53/2021 “De la organización del sistema salarial en el Sistema Empresarial Estatal Cubano”. • Decreto Ley 252 “Sobre la continuidad y el fortalecimiento del Sistema de Dirección y Gestión Empresarial Cubano”. • Decreto 281 “Reglamento para la implantación y consolidación del Sistema de Dirección y Gestión Empresarial Estatal”. Grupos de interés La Empresa tiene determinada las partes interesadas, identificadas de la manera siguiente: Directivos, Trabajadores, Sindicato, Clientes, Proveedores, Gobierno y Sociedad. Dirección estratégica Como parte del diagnóstico se revisaron y actualizaron los elementos esenciales contenidos en la estrategia de la organización para lo que se creó un equipo de trabajo, formado por 7 integrantes: Director general, Director de Desarrollo, Director de Gestión de Red, Directora Comercial, Especialista Comercial y dos Especialistas en Gestión de Recursos Humanos. Como resultado de este proceso se presenta ante el Consejo de Dirección y queda aprobada en abril 2022 la Proyección Estratégica 2022-2024 que contiene: La misión y la visión de la empresa, declarada en el apartado 2, para su definición se tuvo en cuenta: el alcance de los servicios de la empresa, enfoque a la calidad y la innovación y orientación a la informatización de la sociedad. En el análisis del macro y microentorno se determinaron las oportunidades, amenazas, fortalezas y debilidades y mediante el método DAFO se estima y valora el grado de relación existente entre estos factores que arrojó que la organización debe plantearse una estrategia de desarrollo de reorientación y ofensiva, lo cual es un comportamiento organizacional proactivo y orientado a la innovación. El análisis estratégico contribuye a verificar las necesidades de investigación, desarrollo e innovación, así como la pertinencia de realizar y gestionar proyectos sobre la base de metodologías ágiles y participación colectiva. El algoritmo de análisis específico propuesto consistió en identificar fortalezas que interactúen en magnitudes elevadas (bastante o máxima) con los mismos elementos del entorno (amenazas y oportunidades) que la debilidad identificada. Como resultado se plantea la situación problemática siguiente: Contando con la FORTALEZA: Empresa especializada en servicios de telecomunicaciones, con presencia a nivel nacional, la organización está en mejores condiciones de revertir la DEBILIDAD: Insuficiente desarrollo de una cultura organizacional basada en la innovación en la empresa y de protegerse contra la AMENAZA: Superioridad de ETECSA como operador de telecomunicaciones en el país, tomando en cuenta la OPORTUNIDAD: Posibilidad de fungir como consultor internacional por la experiencia en sus funciones, exportación de servicios y autorización de retención de hasta el 80% a empresas que logren exportaciones. A partir de la misma se define como problema estratégico general: De continuar el insuficiente desarrollo de una cultura organizacional basada en la innovación en la empresa, y la superioridad de ETECSA como operador de telecomunicaciones en el país, no se podrá potenciar que la empresa este especializada en servicios troncalizados, con presencia a nivel nacional, lo que impedirá aprovechar la posibilidad de fungir como consultor internacional por la experiencia en sus funciones, exportación de servicios y autorización de retención de hasta el 80% a empresas que logren exportaciones. Y finalmente se plantea la solución y estrategia general de la Empresa para el período 2022-2024: Solución estratégica general: Potenciando al máximo que la empresa este especializada en servicios de telecomunicaciones con presencia a nivel nacional, se aprovecharía la posibilidad de fungir como consultor internacional por la experiencia en sus funciones, exportación de servicios y autorización de retención de hasta el 80% a empresas que logren exportaciones desarrollando a su vez acciones que facilitarían minimizar el insuficiente desarrollo de una cultura organizacional basada en la innovación, enfrentando además la superioridad de ETECSA como operador de telecomunicaciones en el país. Estrategia General: Dirigir las acciones de MoviTel hacia el desarrollo de una cultura organizacional basada en la innovación en la empresa, en función de potenciar la capacidad tecnológica para fungir como proveedor de soluciones inalámbricas de telecomunicaciones. Tomando como base la estrategia definida se definen los Objetivos estratégicos siguientes: 1. Aumentar los ingresos de la empresa por la comercialización de nuevos productos y servicios. 2. Potenciar la propuesta de valor para el cliente. 3. Aumentar la capacidad de gestión de la innovación en la empresa. 4. Implementar un modelo de gestión basado en procesos, roles, competencias y uso intensivo de las tecnologías. 5. Generar una cultura de innovación en la empresa en la gestión del capital humano. 6. Fortalecer la preparación de los cuadros y reservas, priorizando los procesos claves de la empresa. 7. Desarrollar la propuesta de evolución tecnológica de la infraestructura de radiocomunicaciones. Competencias laborales y organización que aprende La Empresa cuenta con el procedimiento documentado, pero no implementado donde se establece cómo realizar el proceso de identificación y validación de las competencias organizacionales y de procesos. Durante el ejercicio estratégico se definieron las competencias organizacionales necesarias, pero no tiene identificada las competencias de los procesos y puestos de trabajo, por lo que en la empresa se gestiona por funciones teniendo definidos los perfiles de cargos, las funciones generales, así como las funciones específicas. Con el fin de analizar el aprendizaje de la entidad se realiza la encuesta de la Organización que aprende, donde se solicita para cada una de las 8 preguntas, que se marque en una de las alternativas de respuesta posibles: siempre, frecuente, a veces, rara vez, nunca. Se obtiene como resultados: 1. El 87,50% de los encuestados señalo que la organización aprende siempre o con frecuencia con la experiencia y no repite los errores. 2. El 40,00% selecciono que cuando alguien sale de la organización su conocimiento permanece con frecuencia. 3. El 40,00% señalo que cuando concluye una tarea, a veces, rara vez o nunca se divulga la documentación o lo que se aprendió. 4. El 37,50% coincide en que con frecuencia el conocimiento generado en las áreas de la empresa es investigado, legitimado y puesto a disposición de toda la organización a través de bancos de datos, entrenamiento y otros eventos de aprendizaje, mientras que el 30% coincide que a veces, rara vez o nunca. 5. El 85% marcó que la organización reconoce y recompensa siempre y con frecuencia, el valor del conocimiento creado y compartido por personas y equipos. 6. La organización evalúa con frecuencia, según el 48,72% de los encuestados, sus necesidades futuras de conocimiento y desarrolla planes para atenderlas, mientras que un 28, 21% señaló que a veces o rara vez. 7. El 40% y 37,50% señalo siempre y con frecuencia, respectivamente a que la organización facilita la experimentación como un modo de aprender. 8. El 42,50% coincide que la organización estimula con frecuencia sus capacidades de generar, adquirir y aplicar el conocimiento, aprendiendo con los procesos de aprendizaje de otras organizaciones. Aunque de acuerdo al valor promedio obtenido 4,02, los resultados se comportan de manera favorable, los procesos de innovación no solo requieren la generación y transformación de ideas por lo que deben mejorarse los aspectos que reflejan problemas en la transferencia de conocimiento. Subsistemas y Políticas de la Gestión de los Recursos Humanos Subsistemas de la gestión de los recursos humanos Los subsistemas y políticas de la Gestión de los Recursos Humanos están dirigidos al progreso de los Recursos Humanos en la organización, es por ello que se realiza un diagnóstico según la NC: 3001/2:2007, pues cada uno de sus módulos define el funcionamiento del Sistema de Gestión Integral del Capital Humano, aplicando la Lista de chequeo de la Tecnología de Diagnóstico del Sistema de Capital Humano confeccionada por el Ing. José Carlos Melo Crespo (Melo Crespo, 2008). Para el cumplimiento de las premisas de la NC 3002:2007 se evalúan 19 ítems a partir de la lista de chequeo de la tecnología de diagnóstico del Sistema de Capital Humano. En el diagnóstico se obtuvo una evaluación de 75,44% por lo que no existe orientación estratégica, señalándose como los niveles más bajos, el liderazgo en la gestión de recursos humanos (66,67%) y la participación efectiva de los trabajadores (73,33%). Los resultados obtenidos se muestran en la Figura 9: Figura 9: Estado de implementación premisas NC 3002:2007. Para determinar el nivel de cumplimiento de los requisitos de la NC 3001:2007 se evalúan mediante la lista de chequeo cada uno de los 12 acápites de la norma, obteniéndose como resultado que estos se cumplen en un 56,79%, lo que está dado fundamentalmente por el cumplimiento insuficiente de los acápites: competencias laborales, capacitación y desarrollo, organización del trabajo y, estimulación moral y material esto. Los resultados de cada acápite se muestran en la Figura 10, evidenciando una deficiente Gestión del Capital Humano. Figura 10: Porciento de Implementación de los requisitos de NC 3001:2007. Políticas de la gestión de los recursos humanos Flujo de los Recursos Humanos En cuanto al flujo de los recursos humanos se deben tratar dos aspectos importantes: contratación e índice de fluctuación laboral. La selección no se realiza con un enfoque por competencia y no esta alineado totalmente con la estrategia de la organización que enmarca la necesidad de la innovación. Por otra parte, no cuenta con un programa de integración para las nuevas incorporaciones a la organización. Se analizó la rotación y fluctuación laboral en la empresa en los últimos 7 años, determinándose que: • El total de bajas en el período analizado es 99. • El 66,06% (72) son de la especialidad de Telecomunicaciones y Electrónica. • En el año 2020 las bajas por motivos salariales tuvieron un incremento con respecto al año anterior. • En 2021, la causa de mayor incidencia es salida del país. • Entre 2020 y 2022 el 55,88% de las bajas fueron menores de 40 años y el 82,35% pertenecían a las áreas claves. • El índice de Rotación Laboral es 14,10%, que viene dado por la cantidad de altas y bajas con respecto a la plantilla existente y un índice Fluctuación Laboral del 14,49% teniendo en cuenta la cantidad de bajas con relación a la plantilla existente. • Al cierre del primer trimestre del 2022, las bajas constituían un 77% con respecto al año anterior. Se analizó el impacto negativo de la fluctuación en la actividad innovadora de la empresa, materializada en 27 proyectos aprobados en julio de 2019. El 45% de las bajas del año inciden negativamente en un 20% de los proyectos de innovación por ser participantes de los mismos, en 9 del total de proyectos identificados hasta la fecha al menos uno de sus participantes fluctuó y en el 67% de los mismos constituían su representante. Como resultado de los anterior, 12 proyectos se convirtieron en tareas en análisis realizados a partir de enero del 2020 y los 15 restantes fueron eliminados, aplazados o fusionados por diversas razones. Política de educación y desarrollo recursos humanos La formación no está orientada a partir de las competencias laborales de organización y de los puestos de trabajo, por tanto, no se identifican las brechas de conocimiento de los trabajadores a partir de las competencias que a estos le falta por desarrollar y que el puesto de trabajo y la organización requieren para cumplir sus objetivos estratégicos. Al cierre del 2021, las acciones de formación se cumplieron solo en un 46,75% principalmente dado por actividades complementarias como seminarios, talleres, etc. Si tenemos en cuenta que del 71% de universitarios, solo 2 participan en programas de posgrado la empresa no esta potenciando la capacitación como medio para la satisfacción laboral y para la generación de conocimientos y su aplicación en los proyectos de la empresa. Por último, no se evalúa la efectividad de las acciones realizadas y su impacto en los resultados de la organización. Sistemas de trabajo La organización y seguridad e higiene del trabajo del personal se realiza a partir de la implantación del Manual de Seguridad y Salud en el Trabajo. Al no estar implementado el Sistema de Gestión de la Calidad en la empresa, no están totalmente documentados e implementados los procedimientos que garantizan la ejecución eficaz de los procesos. Compensación laboral Se aplica el sistema de pago por tarifa horaria de acuerdo a la escala salarial establecida en la Resolución 29 del 2020 del Ministerio de Trabajo y Seguridad Social. Además, para promover el cumplimiento y sobrecumplimiento de las utilidades, existe en la empresa un sistema de pago por distribución de utilidades, en correspondencia con los resultados alcanzados a cierre de cada trimestre. Resultados Compromiso: Se aplicó la Encuesta del rostro de las perspectivas y se obtuvo de la la muestra de 41 encuestados, que el 68,29% de los trabajadores tienen buenas perspectivas de ascenso dentro de la empresa. Además, se aplica la encuesta Índice de Sentido de Compromiso, la cual arrojó que el sentido de compromiso con la empresa es bueno (ISc=0,73). Competencia: Al analizar la lista de chequeo según el cumplimiento de los requisitos de la NC 3001:2007 se obtuvieron resultados no satisfactorios en el módulo de Competencias Laborales, pues no se encuentran identificadas las competencias organizacionales, ni procesos e individuales. En la empresa no se selecciona, ni capacita por competencias y tampoco son utilizadas para la evaluación del desempeño y el pago a los trabajadores, no obstante, la dirección reconoce la necesidad de identificarlas, validarlas y certificarlas, fundamentalmente en los procesos claves. Congruencia: Se puede considerar que existe congruencia entre las funciones y responsabilidades que realiza cada trabajador en cada una de sus áreas, pero la Gestión de los Recursos Humanos no está alineada a la estrategia de la empresa y por tanto las actividades del sistema no favorecen la innovación en la Empresa. Costos eficaces y productividad del trabajo: En el 2021, la productividad aumentó en un 126%, producto al proceso de reunificación monetaria donde los precios en CUC se convirtieron por la tarifa de cambio establecida, lo que llevó a un aumento de los ingresos y por tanto del Valor Agregado Bruto. Consecuencias a largo plazo El bienestar individual de los trabajadores se ve afectado por la política de retribuciones y de estimulaciones lo que trae consigo la falta de motivación para realizar sus tareas, mientras que logro al bienestar social se evidencia en la contribución directa al programa de informatización de la sociedad en los proyectos. MoviTel tiene un nivel medio en cuanto al cumplimiento de sus objetivos anuales, aunque se cumplieron los indicadores de venta y de utilidad del último año, se proyecta un decrecimiento de los mismos de no insertar nuevos productos en el mercado que compensen los servicios en decrecimiento. Auditoría o Cuadro de Mando Integral La coordinación y autocontrol del SGICH se realiza mediante la actividad de control interno, incluido dentro Plan de Prevención de Control Interno, que entre otras incluye un cronograma de Controles Integrales, Auditorías y Diagnósticos, así como evaluación de los planes de medidas para corregir las deficiencias y adoptar las medidas administrativas que correspondan. No obstante, el monitoreo de la gestión de los recursos humanos no se realiza teniendo en cuenta los indicadores tangibles e intangibles que permiten diagnosticar la situación existente. Con la aplicación de la tecnología se resumieron los problemas en los procesos de gestión de capital humano: deficiente gestión del conocimiento, lo que provoca que no se logre los resultados esperados en los procesos de desarrollo de nuevos productos y servicios que afecta el aumento de los ingresos. Los resultados se muestran en la Figura 11. Figura 11: Diagrama Ishikawa 4. DISCUSIÓN La empresa define la gestión de la innovación como un proceso estratégico e identificó que, de continuar el insuficiente desarrollo de una cultura organizacional basada en la innovación, no podrá enfrentar las amenazas y aprovechar las oportunidades del mercado. Los proyectos de desarrollo se han visto limitados por la fluctuación laboral, resaltando la importancia de los programas de incentivos y, por otro lado, de la política de formación, que no se corresponde con los intereses de las personas que destacan la superación en postgrados, dirección empresarial, nuevas tecnologías. Constituyen mecanismos de retención permite la generación y aplicación de los conocimientos para lo cual es necesario identificar las necesidades de la empresa alineadas a las individuales. Las políticas actuales de capital humano no permitirán aumentar la capacidad innovadora de la empresa partiendo de que no consideran la gestión por competencias como eje central de los procesos de selección, evaluación, capacitación y compensación. 5. CONCLUSIONES Con la implementación de la tecnología GRH-DPC se demostró que existe una alta fluctuación laboral que incide negativamente en el desarrollo de los proyectos de innovación. La fluctuación laboral ha sido impactad por la insatisfacción laboral generada por motivos salariales y porque no se cumplen las expectativas con respecto a la capacitación. La baja incorporación a programas de posgrados evidencia una deficiente gestión de la formación afectando la generación del conocimiento y su aplicación en los procesos de innovación empresarial. Las políticas de la gestión de los recursos humanos no responden a la estrategia empresarial orientada a la innovación. 6. REFERENCIAS 1. UIT-T. Normalización de las Telecomunicaciones. Recomendación UIT-T K. 2016;52. 2. Bubley, D. Reinventar las telecomunicaciones:¿ Qué necesitamos ahora? ¿Y después? Actualidades de la UIT. 2017 (5):38-40. 3. García-Sánchez, E.; García-Morales, V.J.; Martín-Rojas, R. Influence of technological assets on organizational performance through absorptive capacity, organizational innovation and internal labour flexibility. Sustainability. 2018;10(3):770. 4. Steffens, E.; J Ojeda, D.d.C.; Martínez, O.M.; García, J.E.; Hernández, H.G.; Marin, F.V. Niveles de pensamiento crítico en estudiantes de Universidades en Barranquilla (Colombia). 2017. 5. da Costa, J.C.N.; Camargo, S.M.; Toaldo, A.M.M.; Didonet, S.R. The role of marketing capabilities, absorptive capacity, and innovation performance. Marketing Intelligence & Planning. 2018. 6. Chandler, N. A Symbiotic Relationship: HR and Organizational Culture. In: Machado, C.; Davim, J.P., editors, Organizational Behaviour and Human Resource Management - A Guide to a Specialized MBA Course: Springer International Publishing 2018. p. 1-22. 7. Ruilobas, R.A. Aplicación del procedimiento para el estudio de la organización del trabajo del área de producción del Laboratorio AICA. [Trabajo de Diploma en opción al Título de Ingeniero Industrial]. Instituto Superior Politécnico “José Antonio Echeverría”; 2015. 8. Cuesta Santos, A. Tecnología de Gestión de Recursos Humanos. Tercera edición corregida y ampliada ed: “Félix Varela” y Academia; 2010. 9. Ramírez, R.I.; Espindola, C.A.; Ruíz, G.I.; Hugueth, A.M. Gestión del talento humano: análisis desde el enfoque estratégico. Información tecnológica. 2019;30(6):167-176. 10. Hernández Mejía, J. Modelos de gestión de recurso humano: análisis a las propuestas teóricas respecto a su contribución en la transición de recurso a capital humano, en el marco de la gestión del conocimiento organizaciona. 2018. 11. Melo Crespo, J.C. Tecnología para el diagnóstico estratégico de la GICH. La Habana: GECYT. 2008. Sobre los autores: María Camila Chávez González, Ingeniera Industrial, graduada en la Universidad Tecnológica de La Habana “José Antonio Echeverría”, Especialista B en Gestión de los Recursos Humanos en la empresa MoviTel. María Sonia Fleitas Triana, Ingeniera Industrial (1980), Doctora en Ciencias Técnicas (1988), Profesora Titular de la Facultad de Ingeniería Industrial de la Universidad Tecnológica de la Habana “José Antonio Echeverría”, CUJAE 1 UNA ARQUITECTURA DE GESTIÓN POR COMPETENCIAS Armando Cuesta Santos1, Marino Valencia Rodríguez2 1Facultad de Ingeniería Industrial de la Universidad Tecnológica de La Habana “José Antonio Echeverría” 2Facultad de Ciencias Administrativas de la Universidad de San Buenaventura,, Cali, Colombia E-mail: armandocuestasantos@gmail.com, mvalenciaro@gmail.com Resumen El objetivo fue lograr un sistema integrado de gestión humana o de recursos humanos con la gestión del conocimiento, configurando una gestión por competencias, interconectándose los distintos procesos clave de gestión (humana y del conocimiento), expresado mediante una “arquitectura”. Los métodos empleados fueron el análisis documental y la investigación-acción. Como resultado se alcanzó establecer los nexos de base o nucleares de las competencias con el sistema integrado de gestión humana y del conocimiento (GHyC), junto a una metodología para implementar esa gestión con enfoque estratégico, comprendida de manera integrada en la “arquitectura” de la GHyC, con la finalidad de atraer, retener y desarrollar a las personas que trabajan. Palabras clave: Arquitectura, gestión integrada, personas y conocimiento ONE ARCHITECTURE OF COMPETENCIES MANAGEMENT Abstract The objective was achieve an integrate system of human management with the knowledge management, configuring one competencies management, connecting the different key process of management (human and knowledge), expressed mean an “architecture”. The methods used were documentary analysis and action research. As a result, it was possible to establish the base or nuclear links of the competences with the integrated system of human and knowledge management (HKM), together with a methodology to implement this strategic system in an integrated way in the "architecture" of the HKM, in order to attract, retain and develop to workers. Key Words: Architecture, integrated management, persons and knowledge I. Introducción A partir del 2010, prestigiosas instituciones internacionales como el Programa de Naciones Unidas para el Desarrollo (PNUD), la Boston Consulting Group (BCG) y la World Federation of Personnel Management Associations (Wfpma) destacan la importancia del conocimiento expreso en las competencias de los empleados y su gestión, tanto para la economía como para el desarrollo humano123, y se intensifica el trabajo de certificación de esas competencias de cargos asociadas a la gestión de la calidad 45. También a partir de esa década con celeridad se crean los nexos de esas competencias con los procesos de la gestión humana (GH) o de recursos humanos (GRH) con la organización del trabajo, la formación, la selección, la evaluación y la compensación, y con constructos tales como el compromiso y la motivación, asociados a la atracción, retención y desarrollo de los recursos humanos 6789101112131415161718. Es mediante esos nexos que se refiere aquí la Gestión por competencias, que es la GH con enfoque por competencias, o la integración de esa GH y la gestión del conocimiento: la Gestión por Competencias se identifica como la Gestion Humana y del Conocimiento (GHyC), o Gestión del Capital Humano (GCH). En general se han creado esos nexos adoleciendo de la no integración de los procesos en un sistema de GH y la gestión del conocimiento y las conductas, no haciéndose estratégica esa gestión, ni reflejándose una metodología para la implementación de ese sistema integrado. El ajuste de las competencias en la “arquitectura” de un sistema de GH y del conocimiento en la empresa (entendida como la integración dinámica entre los procesos clave de GHyC, el sistema de GHyC y las conductas de sus trabajadores), 2 logrando que sea estratégica, y posea una metodología de implementación, es una necesidad para el desarrollo empresarial. Esa arquitectura es base para la configuración de ERP (Enterprise Resources Planning) y necesario tributo a la industria 4.0 o la gestión integrada digitalizada que es la empresa inteligente. El problema por resolver fue la carencia de ajuste de las competencias en la “arquitectura” de un sistema de GHyC, atendiendo a peculiaridades de la gestión empresarial cubana que tribute al alcance de la industria 4.0. El objetivo general consistió en argumentar el vínculo nuclear de las competencias laborales, evidenciadas en los perfiles de cargo, con los procesos clave que han de configurar un determinado sistema de GHyC estratégico, alcanzando una metodología para implementar ese sistema (comprendiendo en su entramado de manera holística y dinámica a los procesos clave, el sistema y el desempeño), todo lo cual conformará una determinada “arquitectura”, con la finalidad de atraer, retener y desarrollar a las personas. II. Material y métodos Como material objeto de estudio resultaron organizaciones laborales cubanas, predominando entre ellas empresas de producción y servicios. Los métodos utilizados fueron el análisis documental y la investigación- acción. El primero se aplicó, recurriendo a la literatura científica tanto nacional como extranjera centrada en los procesos de la GH, las competencias laborales y la formación; y el segundo, mediante la intervención del autor a través de la investigación-acción, en torno a esa línea de investigación de GH y competencias en nuestra Universidad (CUJAE), de la cual el autor ha sido director, y que llevaron a efectos sus doctorandos egresando como doctores en ciencias en el ámbito de la GHyC, en el período 2002-2018 19202122232425262728 29. Esos nuevos doctores manifestaron la competencia innovación (alcance de novedad científica con la mejora) respecto a procedimientos para mejorar el desempeño, y lo hicieron consecuentes con la action-research en el sentido de Kurt Lewin 3031, donde diagnosticaban o intervenían, y seguían después accionando para transformar en la gestión empresarial: así se conformó la metodología de trabajo para lograr el resultado. Para la implementación de ese sistema de GHyC estratégico, se desarrolló una metodología, ahora enriquecida por la labor del conjunto de doctores tutelados en ese periodo de 15 años. Esa metodología de implementación implicando los nexos de las competencias en el perfil de cargo, integrando los distintos procesos clave de la GHyC, conformando una determinada “arquitectura”, constituye el resultado fundamental que aquí se expone. Los diseños investigación-acción pueden ser una forma de intervención mixta. Se precisa, para no encasillarle en el enfoque cualitativo, e insistir en la necesidad de contar a la vez con el respaldo de datos cuantitativos como es en este caso, asociados a la economía (aprovechamiento de la jornada, productividad, dinámica de la productividad, correlación aumento de salario medio y aumento de productividad, y seguridad y salud en el trabajo) e intangibles o cualitativos asociados al desarrollo humano (competencias, compromiso, aprendizaje y crecimiento psicológico): van a la vez, economía y desarrollo humano. Los nexos entre el perfil de cargo por competencias con el resto de los procesos que habrán de conformar el sistema, así como el accionar del sistema tributando a la estrategia empresarial, conectando el desempeño individual al estratégico mediante las “conductas estratégicas”, implica la metodología para implementar el sistema de GHyC previa su planificación y diseño del control. El ciclo de dirección estratégica de la GHyC: planificación, organización, desempeño, control estratégico, se argumenta y significa la metodología de trabajo para llevar a la práctica este resultado, comprendiendo la “arquitectura” de un determinado sistema de GHyC. III. Resultados A continuación, la definición de “competencia laboral” asumida, derivada de la tesis doctoral de Morales, que después se refrendó en la NC 3000: 20071, correspondiente al perfil del cargo de trabajo, que está acompañada indefectiblemente de la definición de “desempeño laboral superior” (que corresponde a la competencia laboral y refiere las “conductas estratégicas”). Siguen esas definiciones: 1 Aunque la familia de las NC 3000, 3001, 3002: 2007, que se emitieron en 2007 por la Oficina Nacional de Normalización, se derogaron en la práctica en 2015, su contenido ha continuado utilizándose por el autor, tanto en su labor tutelar y de consultoría como de docencia de postgrado en el país y en el extranjero, por su vigente valor de referente teórico y metodológico. 3 3.23 Competencias laborales. Conjunto sinérgico de conocimientos, habilidades, experiencias, sentimientos, actitudes, motivaciones, características personales y valores, basado en la idoneidad demostrada, asociado a un desempeño superior del trabajador y la organización. Es requerimiento esencial que esas competencias sean observables, medibles y que contribuyan al logro de los objetivos de la organización”. 3.34 Desempeño laboral superior. Rendimiento laboral y la actuación superior del trabajador, con alto impacto económico y social, presente y futuro, identificado con las competencias laborales exigidas para su cargo. Este desempeño corresponde a las conductas estratégicas, es decir, a las competencias para lograr la estrategia de la entidad. 333228. Esas competencias de puesto han de concebirse y gestionarse alineadas con las competencias distintivas de la organización y de los procesos de trabajo, como se ha realizado en empresas cubanas 302834. Muy importante: en esa definición de competencia laboral habrán de implicarse las “conductas estratégicas” 333520, buscándose que el desempeño individual tribute al desempeño estratégico. El diseño del perfil de cargo es decisivo en esta conducción metodológica precedida del diseño o rediseño de los procesos de trabajo correspondiéndose con la misión y objetivos estratégicos. Es fundamental concebir ese perfil mediante técnica que sea participativa. Se ha recurrido al Delphi por rondas, mediante “comités de expertos” 29272524. Ese perfil de cargo es base del desempeño empresarial (o en su carencia: el Plan de Trabajo Individual) al considerar las “conductas estratégicas”, y base del conjunto de procesos clave de la GHyC como lo ilustra el diagrama de bloques representado en la Figura 1. En ese perfil se expresa el “tiempo de trabajo relacionado con la tarea” (TTR), significando pilar del valor agregado que deberá aportar el empleado, en su nexo con el “tiempo de interrupción reglamentado” (TIR) relativo a la “jornada laboral” (JL) permitiendo determinar el nivel de “aprovechamiento de la jornada laboral” (AJL): AJL= (TTR + TIR / JL) * 100, base de la productividad de trabajo, su dinámica, su correlación con el aumento del salario medio y de la seguridad y salud en el trabajo. Adviértase de la lógica de la Figura 1, que la existencia del perfil de cargo es la base del conjunto de procesos clave de GHyC que deberán desarrollarse (donde se refleja su interacción (⇆) con los procesos de trabajo comprendidos por la Organización del Trabajo). 2 Formación Comparación Objetivos - Resultados Evaluación del desempeño Selección Resultados Adecuación Modificación de la conducta Sí No Predominan positivas Cambio de personal Predominan negativas PROCESOS DE TRABAJO Planeación PERFIL DE CARGO O PUESTO POR COMPETENCIAS Brechas ORGANIZACIÓN DEL TRABAJO Base Técnica principal del Sistema de GCH Dirección estratégica (especificando “objetivos estratégicos”) Compensaciones Compensaciones Figura 1. Perfil de cargo por competencias en su nexo con los procesos clave de un sistema de GHyC estratégico 4 Después, no se podrá hacer la planeación si no se dispone de los perfiles. Una vez que se tengan a las personas seleccionadas, si se desconocen las competencias según perfil, no se podrá fundamentar la formación, en particular a través de las “brechas” entre competencias requeridas y las existentes para seguir desarrollando competencias. No se podría realizar el proceso que sigue de la evaluación del desempeño, porque no se tienen los parámetros evaluativos que son las competencias y, en consecuencia, no podrá efectuarse el contraste entre “objetivos” (dados por esas competencias exigidas) y “resultados” alcanzados (de donde se infieren las aludidas “brechas”), para apreciar la adecuación de las conductas evidenciadas por el desempeño con las exigencias del perfil, constituyendo el sustento para la compensación a llevar a efecto, desconociéndose si la acción correcta es compensar positivamente (entregar el pago acordado o estimulo proyectado) o penalizar por no cumplir los referidos objetivos. Todo eso de sintéticamente refleja el diagrama de bloques, con sus lazos de feed-back. Organización del Trabajo Estimulación Moral y Material Evaluación del Desempeño Comunicación Institucional Selección e Integración Autocontrol Seguridad y Salud en el Trabajo Competencias Laborales Capacitación y Desarrollo • “Brechas” para la formación • Plan de carrera • Organizaciones que aprenden • Desarrollo humano y Bienestar • Procesos de trabajo • Perfiles de cargo • Planificación GCH (determinación de plantillas y su optimización) Seguridad y salud Bienestar Desarrollo humano Base del alineamiento desempeño individual y estratégico Indicadores tangibles e intangibles: AJL, productividad, variación de la productividad Liderazgo, perspectivas, compromiso, Figura 2. Procesos clave del sistema de GHyC (expresos mediante modelo) referidos en las NC 3000-3002: 2007, y elementos técnico-organizativos implicados en los distintos procesos Hoy en la gestión empresarial no se puede prescindir de un sistema de GH, reflejado por un modelo conceptual. Entonces, en la Figura 2, los nexos señalados se insertan en el modelo referente de GH (que se integra como GHyC, y que se denominó “Sistema de gestión integrada de capital humano”) reflejados en las NC 3000-3002: 2007 que se han fortalecido y continuado en su aplicación en empresas cubanas 1920213323363228, donde se destacan los distintos elementos esenciales a comprender en los procesos clave. Se circulan en líneas discontinuas esos procesos, siendo su núcleo central las competencias (distinguidas con líneas de mayor espesor, destacándola como eje), en torno a cuyo perfil de cargo giran conectados los restantes procesos clave. Las saetas indican la interacción de base y primaria: la Organización del Trabajo precisa de los cargos, al hacer la gestión de procesos de trabajo, y también para determinar la plantilla, y a ella le es inmanente la seguridad y salud, y una vez que haya desempeño, su evaluación implicará las “brechas” para dar lugar de manera inmediata a la formación (Capacitación y desarrollo). Se insiste en que la GHyC a realizar es estratégica. Eso es que el accionar del conjunto de procesos del sistema de GHyC ha de estar integrado o alineado a la estrategia, que ese sistema debe tributar al logro de la estrategia, y cómo esos procesos están integrados por su base o referente que son las competencias en el perfil de cargo. Ese tributo se realiza de modo que los desempeños individuales tributen al desempeño estratégico organizacional. 5 DIRECCIÓN ESTRATÉGICA POLÍTICAS DE RH SISTEMA PRESUPUESTARIO PROCESO DE PLANIFICACIÓN DE LA GHyC Estructura Descripción de puestos Organización del trabajo De asumir el conjunto de módulos o procesos del modelo referente de la NC 3001: 2007. entonces se procede a dar entrada (planear) a cada uno de los 9 procesos clave de GH, o a la cantidad de ellos que se decida Planificación a largo plazo de la GHyC Planificación a corto plazo de la GHyC Programación de acciones del sistema de GHyC Elaboración de presupuestos de GHyC Control Control (CMI) Organización del Trabajo Estimulación Moral y Material Evaluación del Desempeño Comunicación Institucional Selección e Integración Autocontrol Seguridad y Salud en el Trabajo Competencias Laborales Capacitación y Desarrollo Figura 3. Proceso sistémico comprendido por la planificación de la GHyC Después se acudirá a significar las relaciones que conllevan a la implementación del sistema, con su metodología que por supuesto está incluida en la “arquitectura” del sistema de GHyC asumido. En la implementación del sistema de GHyC se acoge el ciclo de la dirección estratégica: planificación, organización, desempeño, control de gestión estratégica, y le da inicio la planificación que incluye el CMI. Aunque aparece en cuadro aparte el “Control” significado por el CMI, va en la aludida “Dirección” que deriva la planificación --y varias tesis doctorales de los investigadores tutelados por el autor, pusieron especial énfasis en sus aplicaciones en las empresas para destacarlo 2023242627. Una vez establecida la estrategia, desglosada en los “objetivos estratégicos” (que se observarán en la Tabla 1), se da entrada a la “Políticas de GH”. A los objetivos estratégicos siguen las políticas de GHyC junto al presupuesto. Después se indican como salidas, primero la planificación a largo plazo (la estratégica), y después va la planificación a corto plazo u optimización de plantillas, así como la “Programación de acciones del sistema de GHyC”, donde se insiste en la relevancia de acciones de Organización del Trabajo, expresadas mediante diagramas de Gantt, junto a sus indicadores tangibles e intangibles también manifiestas mediante diagramas de Gantt (Figuras 4 y 5). Es necesario detenerse en el análisis de esa salida, subrayada, que es la “Programación de acciones del sistema de GHyC”, puesto que en el mismo va como “causa hipotética” el “paquete” para logar la transformación, el causal sumario del efecto a alcanzar reflejado por los “objetivos estratégicos” trazados, con sus respectivos indicadores –y sus expresiones de cálculo-- junto a las metas anuales propuestas. Se consideran dos vertientes de la planificación de la GHyC: la determinación de la plantilla idónea o competente, y la optimización de plantilla o del capital humano. Corresponde a la primera la determinación de la plantilla mediante la técnica, indefectiblemente, del balance de cargas y capacidades. Se optimiza el capital humano (la plantilla): mediante el accionar de los procesos de GHyC, y se expresa mediante la recurrencia a un conjunto de indicadores tangibles e intangibles. Aquí debe destacarse que se ha insistido, en la aplicación en empresas, en considerar indicadores intangibles (psicosociales), otorgando especial 6 ponderación al compromiso 1920212324. La referida optimización implica concebir dos Diagramas de Gantt. Una técnica de gran significación práctica al momento de planificar la GHyC y después realizar su seguimiento, lo constituye el diagrama de Gantt, cuyo tratamiento automatizado lo permite el Microsoft Project, así como el Microsoft Visio, posibilitando gráficamente distinguir en el tiempo las actividades y sus plazos de ejecución, así como sus probables interferencias. Es una tabla de doble entrada, donde una –en el eje de las abscisas-- lo significará el tiempo, y la otra entrada –en el eje de las ordenadas-- lo significará el accionar de la GHyC expresa mediante sus procesos clave (selección, organización, etc.) o sus desgloses en “acciones” (reclutamiento, jubilación, evaluación de directivos, etc.) como se refleja en la Figura 4. Proceso o “accionar” 5 10 15 20 25 30 5 10 15 20 (…) Tiempo Enero Febrero Reclutamiento Selección Formación Nuevos ingresos Jubilaciones Promociones Evaluaciones de directivos Análisis y diseño de puestos Implantación de nuevo pago Análisis presupuestario … etc. Figura 4. Diagrama de Gantt en la planificación de los recursos humanos respecto al “accionar” de los procesos de GHyC INDICADOR 5 10 15 20 25 30 5 10 15 20 28 Tiempo Enero Febrero Volumen de producción (VP) Salario medio (Sm) Productividad del trabajo (Pt) Dinámica de la Pt ( Pt) Dinámica del Sm ( Sm) Relación sm – pt (Ø ) Aprovechamiento JL (AJL) Sentido de compromiso (Isc) Coef. de perspectivas (Cp) Liderazgo (Csdi) (…) etc. 20 proyectos (P) 35 proyectos 1500 $ /t 2300 $ /t 0,0133 P/ $ 0 % 14,28 % 0,0152 P /$ 53,3% 3,73 0 % 0 % 60 % 74 % 0,25 1,35 0,45 0, 550,10 0,15 0 % 0 % T A N G I B L E S I N T A N G I B L E S Figura 5. Diagrama Gantt en la planificación de RH respecto a los indicadores de GHyC 7 La Figura 5, también refleja un Gantt, pero en este caso significando el conjunto de indicadores, tanto tangibles como intangibles, mediante los cuales se habrán de manifestar el aludido “accionar” que se representó en la Figura 5 33. Cada proceso o “acción” planeada, debe tener una repercusión (económica, social, psicológica o medioambiental) a través de indicadores. Lograr el “macheo” entre el proceso o accionar planeado con el correspondiente (uno al menos) indicador tangible o intangible es importante. Se insiste: “lo que no se mide, no se gestiona”, que es un principio indeclinable del CMI de Robert Kaplan y David Norton 37. Se ilustran los nexos causa-efecto o “hipótesis” de los seis objetivos estratégicos de una empresa en el “mapa estratégico” o CMI que se representa en la Figura 6. Y en la Tabla 1 se condensa la expresión operativa del CMI, en el horizonte temporal 2018-2020 asumido para la planificación estratégica de la GHyC de una empresa. Después viene en el ciclo de la gestión, la ejecución o desempeño, y se finaliza con ese control estratégico cuyos resultados son feed-back a la gestión empresarial en general y a la GHyC en particular. Financiera Garantía Reducción Aumento de servicios 100% de costos ingresos Cliente satisfacción Repetición Aumento de del cliente del cliente la clientela Aumento Reducción de de calidad ciclos de entrega Procesos Proceso Proceso de Proceso de logístico elaboración comercialización Aprendizaje y Aumento del Logro del 100% Asunción de Organización crecimiento liderazgo de idoneidad que Aprende (competencias) (formación continua) 1 2 3 3 3 4 56 Figura 6. Mapa estratégico enumerando los objetivos estratégicos en sus nexos causales de la empresa X Tabla 1. Fragmento de objetivos, indicadores y metas en la empresa X OBJETIVOS hasta 2020 INDICADOR EXPRESIÓN DE CÁLCULO VALOR DE REFERENCIA METAS ANUALES 18 19 20 1.Garantizar un 100% de asistencia a los servicios solicitados por los clientes. Coeficiente de asistencia Cantidad de clientes asistidos/ Cantidad de solicitudes de servicios 100% 70 90 100 2. Alcanzar la satisfacción de la clientela mediante el logro de la calidad requerida en los servicios. Coeficiente de satisfacción del cliente Cantidad de clientes satisfechos / Cantidad de clientes asistidos 100% 80 90 100 3. Garantizar la optimización de los procesos clave de trabajo, referidos a la logística, la elaboración y la comercialización … 6 Ciclo logístico  Tiempos invertidos en responder cada demanda / Total de demandas 7 días 14 9 7 Ciclo de elaboración  Tiempos Invertidos en las instalaciones/ Total de instalaciones 15 días 21 17 15 Ciclo de servicios  Tiempos invertidos en los servicios / Total de servicios comercializados 5 dias 12 9 5 8 IV. Discusión En la literatura sobre GRH y Administración en general, no se reporta metodología o conducción técnico- organizativa para la implementación de un sistema de GHyC estratégico y por competencias. Autores ya clásicos que han tratado modelos representando sistemas de GRH, que mantienen en ediciones más recientes, identificándolos algunos como sistemas de Gestión del Capital Humano y otros incluyéndolos en la GRH 13141718, no expresan una metodología de implementación y no se refieren a las competencias en sus nexos con el conjunto de procesos clave. Lo más cercano a una metodología de implementación del sistema en su “arquitectura” ha sido la implicada por el modelo de gestión de Michael Beer y colaboradores de la Harvard Business School 38, divulgada en textos de autores norteamericanos clásicos de la Administración desde la década de 1990 39. Y sí se han reportado estudios sobre competencias en su nexo con formación, selección, evaluación y compensación, y con otros constructos para el desarrollo de los RH, como antes fue señalado. El concepto de “arquitectura empresarial” (AE) emerge en la década de 1990 y es en esencia un enfoque holístico para la gestión de una organización que adopta una visión integral 40 41. Surge del avance de la ciencia al considerar la complejidad y la necesidad de integrar sus entramados. Para el autor, el concepto más completo sobre AE ha sido el ofrecido por Peter Senge y colaboradores, refiriéndose a organizaciones laborales inteligentes: “La arquitectura es el “marco”…de ideas rectoras, innovaciones en infraestructura y en teoría, métodos y herramientas.” 42. El concepto de “arquitectura” en GRH, es una derivada del concepto de AE, ubicándose más recientemente en el tiempo. Michael Armstrong y Stephen Taylor se refieren a la “arquitectura” de la GRH en los términos siguientes: “…la arquitectura de GRH consta del sistema de GRH, procesos y estructura, y la conducta de los empleados” 14. Armstrong y Taylor se basaron al asumir esa definición de “arquitectura” de GRH en varios autores, y en especial en Brian Becker, Mark Huselid y Dave Ulrich, quienes aprecian la base del papel esencial de la GRH en las tres dimensiones de la “cadena del valor” representada por la “arquitectura” de la GRH en la empresa: la función, el sistema y la conducta de los trabajadores. Y señalan: “Utilizamos el término “arquitectura” de RRHH para describir a los profesionales de RRHH que van desde la función de RRHH hasta el sistema de prácticas y políticas relacionadas con RRHH, pasando por las competencias, la motivación y las conductas asociadas de los trabajadores de la empresa” 43. Para este autor, la definición de “arquitectura” del sistema de GHyC que se asume, considera de manera holistica, dinámica e integrada esos tres componentes: los procesos clave de GHyC, el sistema de GHyC (expresado mediante un modelo de GHyC) y el desempeño. Entre las competencias de índole estratégica, a considerar hoy en los profesionales que hacen GHyC, a la innovación este autor le ha otorgado un lugar prominente atendiendo a la experiencia adquirida. En su Informe de Desarrollo Humano de 2016, el PNUD señaló: “La adquisición de competencias técnicas para el siglo XXI debe formar parte del aprendizaje permanente de las cuatro C: pensamiento crítico, colaboración, creación y comunicación” 1. Y en esas competencias técnicas, la innovación es fundamental, específicamente en su vínculo con la organización del trabajo, y se le percibe por este autor en un holismo que comprende a la vez “pensamiento crítico, colaboración, creación y comunicación”. Para Peter Drucker: “La innovación es la competencia central de la empresa moderna competitiva. Tiene que establecerse en el corazón de la organización desde el principio” (citado en Edvinsson & Malone 44). Y entre las competencias estratégicas que han de portar los “profesionales de RRH”, utilizando términos de Becker et al. en 2002 43, que fueron los doctores egresados tutelados por el autor, la “innovación” fue la decisiva, precisamente asociada a componentes de la “arquitectura” del sistema de GHyC, respecto a procesos, organización (sistema) y el desempeño (resultado). Para la mejora en empresas cubanas donde investigaron los doctores tutelados, se defendió la necesidad de la competencia estratégica “innovación” como central en la empresa, como lo expresara Peter Druker. Y consecuentes con la definición de “innovación” asumida de la que precisara Mercedes Delgado: “La innovación es entendida como todo cambio que se realiza en la práctica, sea nuevo o mejorado, de un producto o servicio, un proceso o la organización, para generar resultados en función de los objetivos trazados”. 45 A través de las competencias se llegan a establecer las “conductas estratégicas” 3320. A las “conductas estratégicas” y su vínculo al desempeño estratégico, se habían referido otros autores como Becker y colaboradores en 200243; pero no en los términos técnico-organizativos en que se estructuran por el autor. 9 Es necesario dejar claro lo que significa establecer en el perfil de cargo las “conductas estratégicas”. Ello presupone la existencia de la estrategia con sus objetivos estratégicos, que serán reflejadas en la planificación en conjunto con el diseño del CMI 202427. No se refleja en la literatura sobre GRH 131718, específicamente en la implementación del sistema de GRH, la planificación estratégica con la plantilla, recurriendo balances de cargas y capacidades. Adviértase que planificar significa anticipar. Por tanto, aunque en el esquema visto antes, del Proceso sistémico comprendido por la planificación de la GHyC, correspondería entre las salidas 1, 2 y 3, a este último número el orden de la “Programación de acciones…”, el análisis no es lineal. Habrá que reflejar la anticipación que no responde a un algoritmo. Habrá que considerar la interacción de todas esas entradas y, en particular, la interactividad entre las acciones o procesos clave de GRH. Y aunque este “Programa de acciones…” se inserta en el proceso de Planificación, también y en no pocas ocasiones hay que hacer Organización, como ya se hace a la vez el Control, que también hay que anticipar para tener claridad sobre su factibilidad y sobre el cómo tendría que desarrollarse. ¿Qué significa este planteamiento? Significa que el ciclo básico de Dirección Empresarial que se ha venido dando desde el surgimiento mismo de la Administración, asociado a la lógica lineal de Planificación-Organización-Ejecución-Control, ya no es en esa linealidad 1, 2, 3 y 4, y ya se ha roto esa algoritmización, yendo de 2 a 1, o de 4 a 2 o a 1, o de 1 a 4, etc. V. Conclusiones 1. Se argumentó el vínculo nuclear de las competencias laborales, evidenciadas en los perfiles de cargo, con los procesos clave de un determinado sistema de GHyC estratégico, junto a una metodología para implementar la consecuente GHyC con el fin de atraer, retener y desarrollar a las personas que trabajan. 2. Tanto los nexos técnico-organizativos de los procesos clave del sistema de GHyC con el perfil de cargo por competencias con sus “conductas estratégicas”, que a través del desempeño individual ha de tributar al desempeño estratégico organizacional, así como la metodología para implementar esa GHyC, conforman la “arquitectura” del sistema de GHyC aquí tratado, en su complejidad, dinamismo e integración holística. 3. Los entramados integrados de procesos clave --y varios de sus elementos que no se agotan aquí, y se habrán de incrementar y precisar en la medida en que se avance en su práctica--, devienen base para aplicaciones que conformen ERP y tributen a la industria 4.0. o Referencias bibliográficas 1 PNUD (2016). Informe sobre Desarrollo Humano 2016, (Desarrollo humano para todos) New York: Programa de las Naciones Unidas para el Desarrollo (PNUD). Recuperado de http://www.hdr.undp.org 2 BCG; Network (2014). Decoding Global Talent (200,000 survey responses on global mobility and employment preferences), Boston: The Boston Consulting Group, Inc. (BCG) and Network eG (Network). Disponible en http://www.bcg.com 3 BCG; Wfpma (2012). Creating People Advantage 2012 (Mastering HR Challenges in a Two-Speed World), Boston: The Boston Consulting Group, Inc. (BCG) and the World Federation of Personnel Management Associations (WFPMA). Recuperado de http://www.bcg.com 4 Llanes, M.; Moreno, M. R. y Lorenzo, E.J. (2018). Sistema de gestión de la calidad. Contexto de la organización y liderazgo. ¿Qué y cómo hacer?, Universidad de Holguín: Conciencia Ediciones. ISBN: 978- 959-7237-099 5 International Standard Organization, ISO (2015). Sistema de gestión de calidad. Requisitos. Norma ISO 9001: 2015, Ginebra: ISO Secretaría Central. 6 Báez, R.A.; Zayas, P.M.; Velásquez, R.; León, Y.O. (2019). Modelo conceptual del compromiso organizacional en empresas cubanas, en Ingeniería Industrial, Vol. XL, No.1, pp.14-23, La Habana: CUJAE. ISSN: 1815-5936. 7 Costa, A.C.; Demo, G.; Paschoal, T. (2019). Políticas e práticas de gestão de pessoas produzem servidores públicos resilientes. Evidência de validação de um modelo estrutural e de modelos de mensuração, em Revista Brasileira de Gestão de Negócios, RBGN, Vol. 21, No. 1, pp.70-85, DOI: 10.7819/ rebgn.v. São Paulo: FECAO. ISNN: 1806-4892. 8 Vargas, T. y Cuesta, A. (2018): Las competencias para el turismo sostenible. Su determinación empírica, en revista Ingeniería Industrial, Vol.39, No.3, pp.226-236, La Habana: CUJAE. ISSN: 1815-5936. 10 89 Blázquez, A.L.; Zaldívar, R.; Fleite, E. (2018). El emprendimiento ¿actitud o competencia del capital humano? Una mirada conceptual desde la Universidad de Holguín, Cuba, en Holos, Año 34, Vol. 08. pp.109- 137, ISSN: 1807-1600 10 Hernández, V.; Miranda, Y.; Junco, J.; Saltos, M. (2017). Medición de indicadores tangibles e intangibles para la evaluación-gestión de la calidad y variables sociopsicológicas en el servicio hospitalario, en Harvard Deusto Business Research, Vol. VI, No. 1 (Special Issues) pp. 17-29. ISSN: 2254-6235. Recuperada de https://doi.org/10.3926/hdbr.137 11 Barbosa, L.; Da Costa, J. (2017). Engajamento no trabalho: antecedentes individuais e situacionais e sua relação com a intenção de rotatividade, em RBGN Revista Brasileira de Gestão de Negócios, DOI: 10.7819/rbgn. v19i64.3373, São Paulo: FECAP. ISSN: 1806-4892. 12 Barroso, Y.; Becerra, M. J. (2016). Aplicación de la gestión por competencias en una institución del sector cultural cubano, en RCI, Revista Cubana de Ingeniería, Vol. VII, No.2, pp. 39-47. ISSN: 2223-1781 13 Dessler, G. (2015). Administración de recursos humanos, décimo cuarta edición, México: Prentice Hall. ISBN: 978-607-32-3311-8 14 Armstrong, M.; Taylor, S. (2014). Armstrong`s Handbook of Human Resource Management Practice, London: Kogan Page. ISBN: 978-0-7494-69-65-8 15 Milkovich, G.; Newman, J.; Gerhart, B. (2014). Compensation, Eleventh Edition, New York: McGraw- Hill. ISBN 978-0-07-802949-3. 16 Pfeffer, J. (2014). Existe un bajo nivel de satisfacción entre los trabajadores, en Trabajo & Empresa (Edición especial por el 15° Congreso Mundial de Recursos Humanos, Chile 2014), Noviembre/2014, No.11, pp. 14-15, Chile: La Araucana. Recuperado de http://ulaaraucana.cl/ 17 Chiavenato, I. (2011). Administración de recursos humanos (El capital humano de las organizaciones), octava ed., México: McGraw-Hill, 2011. ISBN: 978-607-15-0540-6 18 Werther, W. B. y K. Davis (2008). Administración de recursos humanos (El capital humano de las empresas), Sexta Edición, México: McGraw-Hill. ISBN: 978-970-10-5913-1 19 Medina, A. (2018). Programa de formación de competencias para la gestión eficaz de la seguridad y salud en el trabajo. Evaluación en una empresa biotecnológica, Tesis de Doctorado en opción al grado científico de Doctora en Ciencias Psicológicas, La Habana: Universidad de La Habana. 20 Leyva, C. (2016). Tecnología para la evaluación integrada del desempeño individual en instalaciones turísticas de Holguín, Tesis doctoral, La Habana: CUJAE. Recuperado de http://catedragc.mes.edu.cu/repositorios/ 21 Vargas, T. (2013): Modelo de gestión de la capacitación orientado al desarrollo de competencias para el turismo sostenible en el ámbito local, con enfoque de organización que aprende, Tesis de Doctorado en opción al grado científico de Doctora en Ciencias Económicas, La Habana: Universidad de La Habana. 22 Stable, Y. (2012). Modelo y metodología de aprendizaje organizacional para el mejor desempeño de una organización de ciencia e innovación tecnológica, disertación de Tesis de Doctorado en opción al grado científico de Doctora en Ciencias Técnicas, La Habana: CUJAE. Recuperado de http://catedragc.mes.edu.cu/repositorios/ 23 Pérez, T. (2011). Modelo y procedimientos para medir el capital intelectual en empresas cubanas de proyecto, Tesis de Doctorado en opción al grado científico de Doctora en Ciencias Técnicas, La Habana: CUJAE. Recuperado de http://catedragc.mes.edu.cu/repositorios/ 24 Hernández, V. (2009): Evaluación y mejora de la actuación del personal y su incidencia en la calidad del servicio asistencial hospitalario, Tesis de Doctorado en opción al grado científico de Doctora en Ciencias Técnicas, La Habana: CUJAE. Recuperado de http://catedragc.mes.edu.cu/repositorios/ 25 Ramos, J. (2009). Perfeccionamiento del sistema de gestión de la capacitación de los cuadros y trabajadores de la organización CIMEX de la República de Cuba, disertación de Tesis de Doctorado en opción al grado científico de Doctor en Ciencias Técnicas, La Habana: CUJAE. Recuperado de http://catedragc.mes.edu.cu/repositorios/ 26 Soltura, A. (2009). Tecnología de integración estratégica del sistema de competencias de la organización, Tesis de Doctorado en opción al grado científico de Doctor en Ciencias Técnicas, La Habana: CUJAE. Recuperado de http://catedragc.mes.edu.cu/repositorios/ 11 27 De Miguel, M. (2007). Tecnología para la planeación integral de los recursos humanos. Aplicación en entidades hoteleras de Holguín, Tesis de Doctorado en opción al grado científico de Doctora en Ciencias Técnicas, La Habana: CUJAE. Recuperado de http://catedragc.mes.edu.cu/repositorios/ 28 Morales, A. (2006). Contribución para un modelo cubano de gestión integrada de recursos humanos, Tesis de Doctorado en opción al grado científico de Doctor en Ciencias Técnicas, La Habana: CUJAE. Recuperado de http://catedragc.mes.edu.cu/repositorios/ 29 Marrero, C. (2002). Diseño de una tecnología integral para la gestión de formación en instalaciones hoteleras. Aplicación en la cadena Islazul de la región oriental de Cuba, Tesis de Doctorado en opción al grado científico de Doctora en Ciencias Técnicas. La Habana: CUJAE. Recuperado de http://catedragc.mes.edu.cu/repositorios/ 30 Hernández, R.; Fernández, C.; Baptista, P. (2014). Metodología de la investigación, 6ta. Edición, México: McGraw-Hill. ISBN: 978-1-4562-2396-0 31 Lewin, K. (1948). Resolving Social Conflict, New York: Harper & Brothers. 32 Oficina Nacional de Normalización (2007 a): NC 3000-3002: 2007: “Sistema de gestión integrada de capital humano – Vocabulario, Requisitos e Implementación”, 2007, La Habana: Oficina Nacional de Normalización (NC), Recuperado de http://www.nc.cubaindustria.cu , consultada el 24 de marzo de 2008 33 Cuesta, A. (2017). Gestión del talento humano y del conocimiento, 2ª. Edición, Bogotá: ECOE Ediciones. ISBN: 978-958-771-379-4 34 Soltura, A.; Cuesta, A. (2008). Diseño estratégico de perfiles de cargo por competencias. Una contribución al alineamiento del desempeño individual con el desempeño organizacional, en Ingeniería Industrial, Vol. XXIX, No.1, 2008, pp.52-56, La Habana: CUJAE. ISSN: 1815-5936. 35 Ronda, G., Leyva, C. y Cuesta, A. (2017). Modelo conceptual para evaluar las conductas estratégicas del personal hotelero, en Retos Turísticos, Vol.16, No.3, 2017. ISSN: 2224-7947 36 Hernández I.; Salazar, D.; Rodríguez, M.; Fleitas, S. (2010). Estrategia para integrar la gestión del capital humano a la gestión empresarial, en Ingeniería Industrial, 2010; XXXI (3):26-38, La Habana: CUJAE. ISSN 1815-5936. 37 Kaplan, R.; Norton, D. (2004). Strategy Maps: Converting Intangible Assets into Tangible Outcomes. Boston: Harvard Business School Press. ISBN 84-8088-486-x. 38 Beer, M.; Spector, B.; Lawrence, P.; Mills, Q.; Walton, R. (1985). Human Resource Management. A General Manager’s Perspective. Text and Cases, New York: Free Press Macmillan. 39 Stoner, J.A.; Freeman, R.E.; Gilbert, D.R. (1996). Administración, 6a edición, México: Prentice Hall. ISBN: 968-880-685-4 40 Arango, M. D.; Londoño, J.E.; Zapata, J.A. (2010). Arquitectura empresarial – Una visión general, en Revista Ingeniería Universidad de Medellín, Vol. 9, No.16, pp.101-111, ISSN: 1692-3324 41 Zachman, J. (1987). A Framework for Information Systems Architecture, in the IBM Systems Journal, vol. 26, no. 3, pp. 454-470, 1987. 42 Senge, P. M.; Robert, Ch.; Ross, R. B.; Smith, B. J.; Kleiner, A. (1999). La quinta disciplina en la práctica, Barcelona: Granica. ISBN: 84-7577-393-1. 43 Becker B.; Huselid, M. H.; Ulrich, D. (2002). Cuadro de mando de recursos humanos en la empresa. Barcelona, España: Gestión 2000. ISBN 84-8088-677-3. 44 Edvinsson, L.; Malone, M. S. (1999). El capital intelectual. Como identificar y calcular el valor de los recursos intangibles de su empresa. Barcelona: Gestión 2000. ISBN: 84-8088-308-1 45 Delgado, M. (2018). Proyección de innovación en Administración Pública y Empresarial en Cuba, en Folletos Gerenciales, Vol. XXII, No.2, pp.71-84, ISSN: 1817-1788. 12 . 1 Contribución a la optimización del capital humano por innovación en procesos de gestión humana y del conocimiento Armando Cuesta Santos1, Mercedes Delgado Fernandez2, Sonia Fleitas Triana1 y María de los Ángeles Linares Borrell2 1Facultad de Ingeniería industrial de la CUJAE 2Escuela Superior de Cuadros del Estado y del Gobierno (ESCEG) Resumen El objetivo general fue el diseño y aplicación mediante la formación, de una tecnología de innovación de procesos de gestión humana y del conocimiento, integrados a la Gestión del Capital Humano, a directores de empresas cubanas que cursaron el Diplomado y la Especialidad en Dirección y Gestión Empresarial de la Escuela Superior de Cuadros del Estado y del Gobierno, para sistematizar la optimización del capital humano en la empresa, considerando indicadores tangibles e intangibles, comprendiendo el ciclo de dirección completo, desde la planificación estratégica hasta el control. Palabras clave: innovación, tecnología, formación, directores de empresas Contribution to human capital optimization by innovation in human and knowledge management process Abstract The general objective was the design and application mean the formation, of one innovation technology of human and knowledge process, integrated to Human Capital Management, to managers of Cuban company. These manageress studying curse the Company Management Diplomat and Specialty of the State and Government Superior School of Managers, in order to human capital optimization systematic, implicating intangibles and tangibles indicators, considering the managing complete cycle, once the strategic plan to the control. Key words: innovation, technology, teaching, company managers 1. Introduction La optimización del capital humano u optimización de plantillas, se constituye en un proceso de relevancia estratégica desde el surgimiento mismo de la gestión empresarial fabril. Y resultó así porque el objetivo principal de esa gestión era el logro del mayor valor agregado con aumento de la productividad del trabajo, a partir en aquellos orígenes de la máxima reducción posible de personal. Se han mantenido históricamente las tres alternativas de optimización: introduciendo máquinas, mejorando la gestión o ambas. En la actualidad, estratégicamente se mantiene ese objetivo principal en la gestión empresarial (Konopaske, Ivancevich & Matteson, 2018; Cuesta, 2017a; Dessler, 2015; Jacobs & Chase, 2014; Chiavenato, 2011; Werther & Davis, 2008), y en la alternativa de gestión o de ambas, no es pretendida ya como esencial la reducción de personal, sino la mejoría u optimización de la composición de ese capital humano, mediante la formación, el mejor aprovechamiento de la jornada, la elevación de las competencias, el mejoramiento de las condiciones y la seguridad y salud en el trabajo, la satisfacción laboral y el compromiso organizacional. Esos son en esta contemporaneidad atributos fundamentales de la optimización del capital humano (donde van indicadores tangibles e intangibles: el desarrollo económico y social a la vez), en aras del objetivo estratégico principal del aumento de productividad, que habrán de alcanzarse mediante procesos clave de Gestión del Capital Humano (GCH), integrando en esta concepción la gestión humana o gestión de recursos humanos (GRH) y la gestión del conocimiento. Tales procesos resultan hoy y aquí, la organización del trabajo, seguridad y salud, selección, evaluación del desempeño, formación, estimulación, la comunicación, el autocontrol y los perfiles por competencias. Y la “innovación” vinculada a procesos y la organización, deberá ser competencia fundamental de ese capital humano, para lograr esa mejoría u optimización. En investigación realizada por Alfredo Morales (2006), se refirió una visita realizada por el Ministerio de Trabajo y Seguridad Social (MTSS) a 2 178 empresas de toda Cuba, que representaban el 87% del total (Morales, 2006). En la misma el MTSS indagó sobre la incidencia de distintos procesos clave de gestión . 2 (selección, evaluación del desempeño, organización del trabajo, estimulación, seguridad y salud en el trabajo, etc.) en su vínculo con la productividad y los nexos entre ellos y la estrategia empresarial. Se concluyó que los referidos procesos apenas funcionaban conectados y que carecían de alineamiento o integración con la estrategia, y que todo eso frenaba “la productividad del trabajo” (Morales, 2006: 4); a la vez se constató el inadecuado nivel de la organización del trabajo, donde en la planificación de los RH no se contaba con los balances de cargas y capacidades y se hacía insuficiente optimización de plantillas. A nivel mundial también se manifestaba esa desconexión entre esos procesos de GCH, sus indicadores y la estrategia, según reportaron en su primera encuesta mundial conjunta la Boston Consulting Group (BCG) y la Federación Mundial de Administradores de Personal –WPFMA, por sus siglas en inglés (BCG & WFPMA, 2008). Esas deficiencias, continuaron manifestándose en no pocas empresas cubanas en el periodo 2007-2018, en particular las relativas a la organización del trabajo con la carencia de los balances y la insuficiente optimización, según se ha reportado en otros trabajos asociados a la gestión y formación en empresas cubanas (Delgado, 2017; Hernández, Fleitas & Salazar, 2011) y en especial en las tesis de los tutelados (Leyva, 2016; León, 2016; Morejón, 2014; Heredia, 2014; Pérez, 2011; De Miguel, 2007). Sin embargo, experiencias positivas también han destacado en ese periodo, principalmente en empresas relacionadas con la industria biotecnológica y farmacéutica (Báez, Zayas, Velásquez & León, 2019; Medina, 2018; Espinosa, Lage & Delgado, 2017; Cadalzo, Caballero & Becerra, 2017; Cadalzo, Becerra, Albojaire & López, 2016; Silva, 2016; León, 2016), y en particular en aquellas empresas donde se instauró el denominado ciclo completo de investigación-producción-comercialización, como fue en el Centro de Inmunología Molecular (Espinosa et al., 2017), donde se sistematizaron los cambios estructurales organizativos y se atendieron a los objetivos estratégicos, la gestión por proyectos, la capacitación y el aumento de competencias (en especial la de innovación, que se había manifestado desde su surgimiento) y de compromiso, significando atributos fundamentales de la optimización del capital humano en esta contemporaneidad. El problema científico a resolver fue la carencia de una sistemática optimización del capital humano de la empresa cubana mediante innovación en procesos de gestión humana y del conocimiento El objetivo general fue el diseño y aplicación mediante la formación, de una tecnología de innovación de procesos de gestión humana y del conocimiento, integrados a la GCH, a directores empresariales, para contribuir a sistematizar la optimización de la GCH en la empresa, considerando indicadores tangibles e intangibles, comprendiendo el ciclo de dirección completo, desde la planificación estratégica hasta el control. 2. Material y métodos Como material objeto de estudio mediato –con posterioridad al alcance de la tecnología-- resultaron directores de empresas cubanas. Aplicando el método experimental la variable independiente la significó el libro “Gestión del capital humano (Vol. IV)” de los autores, portando la tecnología concebida --resultante de las tutorías a Tesis Doctorales y de Maestría--, manifiesta en el proceso de formación desarrollado por esos autores en calidad de profesores a directores generales de empresas cubanas que cursaron el Diplomado y la Especialidad en Dirección y Gestión Empresarial (DGE) de la Escuela Superior de Cuadros del Estado y el Gobierno (ESCEG), y la variable dependiente resultó el quehacer de los directores, trabajando por proyecto y en equipo, aplicando la tecnología en ejercicios de innovación de procesos clave de GCH asociados a sus empresas –resultante de los Talleres integrales relativos al módulo de GCH del Diplomado y Especialidad en DGE y las tutorías a Tesis de Especialistas en DGE--, tanto en las aulas como en la práctica empresarial como criterio de veracidad en la obtención del conocimiento para la acción de transformación u optimización. Para el logro de esa variable independiente que es el libro, comprendiendo la tecnología de optimización diseñada, como material objeto de estudio inmediato resultaron empresas cubanas de producción y servicios. Los métodos utilizados fueron el análisis documental y la investigación-acción. El primero se aplicó, recurriendo a la literatura científica tanto nacional como extranjera centrada en los procesos de la GCH y tecnologías de aplicación; y el segundo, mediante la intervención de uno de los autores principales a través de la investigación-acción, que llevaron a efectos un conjunto de sus doctorandos y maestrantes tutelados, que llegaron a egresar como doctores y máster en ciencias en el ámbito de la GCH, en el período 2006-2018 (Medina, 2018; Leyva, 2016; Silva, 2016; León; 2016; Morejón, 2014; Heredia, 2014; Pérez, 2011; Ramos, 2009; De Miguel, 2007; Sánchez, 2007; Pérez, 2006; Morales, 2006). . 3 Se destaca y utiliza la denominación “tecnología”, en tanto un conjunto de conocimientos de base científica que permiten describir, explicar, diseñar y aplicar soluciones técnicas a problemas prácticos de forma sistemática y racional. Ya en la investigación mediata, para el desarrollo de la optimización del capital humano se parte de la planificación estratégica de la GCH, en el proceso clave de Organización del Trabajo del modelo conceptual referente de la GCH expreso en las NC 3000-3002: 20071 (Oficina Nacional de Normalización, 2007). Con posterioridad sigue la determinación de los procesos clave o sus “·acciones” que serán objeto de innovación, con indicadores tangibles e intangibles impactando en esa optimización. Se evidenciarán en diagramas de Gantt, y podrán procesarse por Microsoft Project o Visio. Y finalmente se verifica el CMI. Como proceso la optimización comprende el flujo de gestión: planificar, organizar, ejecutar y controlar. O igual al ciclo Deming: PHVA: planificar, hacer, verificar y actuar. Esos son los componentes fundamentales de la tecnología de optimización que se diseñó, y que será argumentada. Y que fueran aplicados o ejercitados en los Talleres de Diplomado y Especialidad y Tesis de Especialidad desarrollados por los directores. 3. Resultados Peter Drucker, quien para este siglo XXI situaba como desafío principal en la gestión empresarial el aumento de la productividad del trabajo (Drucker, 1999), insistía en la innovación. En su libro “Innovación y emprendimiento” (1986) señaló: “La innovación –y esta es la tesis principal de este libro-- es trabajo racional, organizado y sistemático (Drucker, 1986:50). Entre las competencias de índole estratégica, a considerar hoy en los profesionales que hacen GCH, con vínculo al mejoramiento de procesos y la organización para el incremento de la productividad, a la innovación se le ha otorgado lugar prominente atendiendo a la experiencia en el trabajo con gestores y consultores de empresas (que tales fueron los doctores y máster antes citados). Y en esas competencias, la innovación es fundamental en su vínculo con la Organización del Trabajo (Delgado, 2018; Cuesta, 2017b). En el quehacer investigativo para el logro de la tecnología, así como para el quehacer de los directores generales devenida variable dependiente, se asumió la definición de Innovación para la gestión empresarial en el país, que fue la ofrecida por la investigadora Mercedes Delgado: “La innovación es entendida como todo cambio que se realiza en la práctica, sea nuevo o mejorado, de un producto o servicio, un proceso o la organización, para generar resultados en función de los objetivos trazados”. (Delgado, 2018: 71). En la literatura sobre GRH, el tratamiento de la planificación de RH asociada a la optimización del capital humano, y de manera particular a la organización del trabajo, aludiendo a la determinación de plantilla, a los estudios de tiempos y métodos, y a los balances de cargas y capacidades, es en realidad escaso o nulo, y no ha sido tratada esa planificación en su nexo con la organización del trabajo, apareciendo solo como bosquejo en ediciones más recientes de autores clásicos (Konopaske, et al. 2018; Dessler, 2015; Chiavenato, 2011; Werther & Davis, 2008). Pero sí ha sido tratada en otra área de la gestión empresarial, en la de Administración de operaciones o en la de Ingeniería industrial o de la producción (Jacobs & Chase, 2014; Hodson, 2004; Taylor, 1911), iniciados con F. W. Taylor mediante su “Administración científica”. En consecuencia, los distintos modelos conceptuales de GCH reflejando sus procesos, han adolecido de la falta de ese tratamiento de la planificación y la organización del trabajo en aras del incremento de productividad, lo que se superó mediante el modelo conceptual asumido de Morales y expreso en las NC 300-3002: 2007. Y aunque el impacto fundamental en la optimización de la GCH se alcanza mediante el proceso de la organización del trabajo, necesario es decirlo, esa optimización se ha buscado también mediante otros procesos clave, tales como la formación, las competencias laborales y el compromiso organizacional (Báez, Zayas, Velásquez & León, 2019; Vargas & Cuesta, 2018; Barroso & Becerra, 2016). 1 Aunque la familia de las NC 3000, 3001, 3002: 2007, que se emitieron en 2007 por la Oficina Nacional de Normalización, se derogaron en la práctica en 2015, su contenido ha continuado utilizándose por los autores, tanto en su labor tutelar y de consultoría como de docencia de postgrado en el país y en el extranjero, por su vigente valor de referente teórico y metodológico. Esas NC fueron derivación fundamental de la tesis doctoral defendida por Alfredo Morales. . 4 Organización del Trabajo Estimulación Moral y Material Evaluación del Desempeño Comunicación Institucional Selección e Integración Autocontrol Seguridad y Salud en el Trabajo Competencias Laborales Capacitación y Desarrollo • Procesos de trabajo • Perfiles de cargo • Planificación de GCH (determinación de plantillas y su optimización) Figura 1. Modelo del sistema de gestión integrada de capital humano según las NC 3001-3002: 2007 Para el desarrollo de la optimización se parte de la planificación estratégica de la GCH, insertada en ese modelo conceptual, en la que trabajaron particularmente los tutelados (Leyva, 2016; Silva, 2016; León, 2016; Morejón, 2014; Heredia, 2014; Ramos, 2009; De Miguel, 2007; Sánchez, 2007; Morales, 2006), ubicada en el proceso de Organización del Trabajo del modelo referente de GCH expreso en las NC 3000-3002: 2007 (Figura 1), donde se asumen nueve procesos clave ahí enunciados, desglosando a las “acciones” del proceso de Organización del Trabajo. En el centro del “átomo” va el perfil por competencias, integrando los procesos clave, y todos ellos se integran a la estrategia empresarial: se logra el ajuste de la GCH con la estrategia, materializándose que los desempeños individuales tributen al desempeño estratégico organizacional. En la Introducción al libro2, los autores señalan: “Este volumen de la colección Temas de Gestión Empresarial responde a la necesidad de precisar la orientación a los cuadros en relación con la Gestión del Capital Humano (GCH) en la Dirección y Gestión Empresarial (DGE). El mismo tiene dos partes: la primera está conformada por la “Guía para la Construcción del Caso de GCH”, significando el hilo conductor del desarrollo práctico (…) El desarrollo del caso responde a una conducción metodológica, que implica los pasos esenciales para el quehacer básico de la Gestión del Capital Humano en la empresa. El caso lo construirán atendiendo a la empresa objeto de estudio, en la que es preferible trabajarlo en equipo y se podría recurrir en parte a datos reales y en parte a datos estimados o simulados” (Cuesta et al., 2017: 3-4) Esa “conducción metodológica”, representa a la tecnología, significada mediante cinco figuras contenidas en el libro, que en el Power Point (PPT) con el cual trabajaron en clases se identifican como Diapos 1, 2,…5. Mediante ellas se realizará la descripción científico técnica detallada del resultado de la tecnología, conformando lo esencial de la variable independiente que es el libro junto al desarrollo de la formación. 2 Armando Cuesta Santos, María de los Ángeles Linares Borrell, María Sonia Fleitas y Mercedes Delgado Fernández (2017): “Gestión del capital humano, Volumen IV”, en Temas de gestión empresarial (Coordinadora Mercedes Delgado Fernández), La Habana: Editorial Universitaria Félix Varela. ISBN: 978-959-07-2230-1 Volumen IV. . 5 2 Formación Comparación Objetivos - Resultados Evaluación del desempeño Selección Resultados Adecuación Modificación de la conducta Sí No Predominan positivas Cambio de personal Predominan negativas PROCESOS DE TRABAJO Planeación PERFIL DE CARGO O PUESTO POR COMPETENCIAS Brechas ORGANIZACIÓN DEL TRABAJO Base Técnica principal del Sistema de GCH Dirección estratégica (especificando “objetivos estratégicos”) Compensaciones Compensaciones Figura 2. Perfil de cargo por competencias en su nexo con los distintos procesos clave del sistema de GCH Con anterioridad a las referidas Diapos 1 a 5, se contextualiza en lo que se denomina “Arquitectura de la GCH” representada en la Figura 2, que parte del perfil de cargo por competencias siendo base del desempeño estratégico empresarial al considerar las “conductas estratégicas”, así como base del conjunto de procesos clave de la GCH. En ese perfil se expresa el “tiempo de trabajo relacionado con la tarea” (TTR), que significa pilar del valor agregado que deberá aportar el empleado, en su nexo con el “tiempo de interrupción reglamentado” (TIR) relativo a la “jornada laboral” (JL) permitiendo determinar el nivel de “aprovechamiento de la jornada laboral” (AJL): AJL= (TTR + TIR / JL) * 100, base de la productividad de trabajo, su dinámica, su correlación con el aumento del salario medio y de la seguridad y salud en el trabajo. Adviértase de la lógica de la Figura 2, que la existencia del perfil de cargos es la base del conjunto de procesos clave de GCH a desarrollarse, donde se refleja su interacción (⇆) con los procesos de trabajo implicados por la Organización del Trabajo. Se inicia metodológicamente el diseño de la GCH con ella, previa “entrada” de los “objetivos estratégicos” dados por la dirección estratégica. Después, no se podrá hacer la planeación si no se dispone de los perfiles de cargos, pues no se trata de la cantidad de empleados, sino de la cantidad de empleados a determinar para los diferentes cargos de la empresa. No se podría hacer la selección si se desconocen las competencias y otros requisitos para desarrollar determinado cargo. Una vez que se tengan a las personas seleccionadas, si se desconocen las competencias, no se podría fundamentar la formación a partir de las “brechas”. Y no se podría realizar la evaluación, pues no se tendrían los parámetros dados por las competencias y, en consecuencia, no podría efectuarse el contraste entre “objetivos” (dados por esas competencias) y “resultados” alcanzados (de donde se infieren las aludidas “brechas”), para apreciar la adecuación de las conductas evidenciadas por el desempeño con las exigencias del perfil, constituyendo a la vez el sustento de la compensación a llevar a efecto, desconociéndose si la acción correcta es compensar positivamente o penalizar por no cumplir los objetivos. O no se sabrá, en función de los niveles de incumplimiento del empleado, si se le declara incompetente (o no idóneo) y cambiarlo o ejecutar su salida del cargo. Todo eso refleja ese diagrama con sus lazos de feed-back. 4. Discusión Después de la aludida contextualización, se inicia precisamente la tecnología de optimización del capital humano. Se parte de la Diapo 1, expresa en la Figura 3. Entre las primeras entradas, expresas lateralmente, están la estructura organizativa (organigrama) y los distintos perfiles de cargo a comprender por la misma. Para determinar Nei, esas son imprescindibles entradas. En la salida “Planeación a largo plazo”, o estratégica, se da esa Nei para cada año a considerar en el horizonte de planeación. Esa planificación tiene dos vertientes: la determinación de la plantilla idónea o competente, y la optimización de plantilla; pero esta última ha de partir necesariamente de la primera vertiente, donde al aplicar Nei= Q/C ya se optimiza. . 6 DIRECCIÓN ESTRATÉGICA POLÍTICAS DE RH SISTEMA PRESUPUESTARIO PROCESO DE PLANIFICACIÓN DE LA GCH Estructura Descripción de puestos {Organización del trabajo {De asumir el conjunto de módulos o procesos del modelo referente de la la NC 3001: 2007, entonces se procede a dar entrada (planear) a cada uno de los 9 procesos clave de GH, o la cantidad que se decida. Planificación a largo plazo de RH Planificación a corto plazo de RH Programación de acciones del sistema de GCH (con énfasis en ORGANIZACIÓN DEL TRABAJO) Elaboración de presupuestos de GRH Control Control (CMI) Organización del Trabajo Estimulación Moral y Material Evaluación del Desempeño Comunicación Institucional Selección e Integración Autocontrol Seguridad y Salud en el Trabajo Competencias Laborales Capacitación y Desarrollo DIAPO 1 Figura 3. Proceso sistémico de la planificación de la GCH comprendiendo la optimización En la Figura 3 se señalan las entradas esenciales para proceder al “accionar” o proceso clave de planificación de la GCH. La primera entrada para proceder a la actividad del bloque de planificación de RH, la significa la “Dirección estratégica”. Una vez formulada la estrategia, desglosada en los “objetivos estratégicos” y establecida las “Políticas de GRH”, se diseña también el Control, específicamente en su modalidad de CMI, como puede apreciarse ejemplificado más adelante en la Tabla 1. El CMI va en la aludida “Dirección” que deriva la planificación, que se considera en unidad. Como “dos caras de la misma moneda” son planificación y control estratégicos --y varias tesis doctorales y de maestría tuteladas, pusieron especial énfasis en sus aplicaciones en las empresas, así como en los indicadores intangibles (Medina, 2018; Leyva, 2016; Silva, 2016; Pérez, 2011; Sánchez, 2007; De Miguel, 2007). En la Diapo 2, representada por la Figura 4, se expone el procedimiento para la determinación de la plantilla idónea mediante los conceptos de PA, POE, POP, POE y Nei= Q/C. En esa vertiente de la determinación de plantilla, después de considerados los objetivos estratégicos (presuponiendo entonces conexión entre procesos clave de GRH, indicadores y estrategia), es fundamental prever, anticipar o pronosticar la carga de trabajo (Q) para el escenario estratégico trazado en determinado horizonte temporal. Los métodos fundamentales para prever esa carga son: los métodos de expertos (estimaciones cualitativas), los estudios de tiempos (comprendiendo datos de series cronológicas, observaciones, normativas, balances de cargas y capacidades) las ecuaciones de regresión múltiple y la simulación (Jacobs & Chase, 2014; Hodson, 2004; Werther y Davis, 2008). Nei = Q / C es la expresión de cálculo para realizar el balance de cargas y capacidades. Permite determinar el número de equipos y de trabajadores (plantilla), donde, Nei: número de empleados o equipos (e) del perfil de cargo o tipo de equipo i. Q: carga o cantidad de trabajo que debe asimilarse en un periodo de tiempo, por un tipo i de equipo e o un empleado e de determinado perfil de cargo i. C: capacidad unitaria o cantidad de trabajo que puede asimilarse en un determinado periodo de tiempo, por un tipo i de equipo e o un empleado e de determinado perfil de cargo i. . 7 Ejemplo metodológico. Plantilla objetiva existente (POE) DÉFICIT ( necesidad de RH a incorporar) Plantilla objetiva proyectada (POP) Perdidas previsibles de la POE Plantilla actual (PA) Excedencia (NECESIDADES DE RH A EXTRAER) DÉFICIT - EXCEDENCIA) POE , , = - = = f (PA) Solución de compromiso respecto a POP ( RH que quedarán y condicionantes). Agrupación de Actividades / Tiempo normado (horas-año) A 500 B 800 C 598 D 80 Agrupación Frecuencia * h-AA= Carga (Q) horas-año A 50 * 500 = 25 000 B 30 * 800 = 24 000 C 40 * 598 = 23 920 D 35 * 80 = 2 800 Nei = Q C Balance: base de cálculo de la plantilla idónea DIAPO 2 Figura 4. Determinación la plantilla idónea o competente mediante conceptos de PA, POE, POP, POE y Nei= Q/C Como salidas en la Diapo 1: la planificación a largo plazo (estratégica) y la planificación a corto plazo u optimización de plantillas, así como la “Programación de acciones del sistema de GCH” (implicando la innovación), donde son relevantes las “acciones” de Organización del Trabajo. Es muy importante la salida que es la “Programación de acciones del sistema de GCH”, pues en la misma va como “causa hipotética” el “paquete” para logar la optimización, el causal del efecto a alcanzar por los “objetivos estratégicos”. Se optimiza el capital humano (la plantilla): mediante el accionar de los procesos de GCH (Diapo 3), y se expresa mediante la recurrencia a un conjunto de indicadores tangibles e intangibles (Diapo 4). Y es novedosa para la práctica empresarial cubana, haber introducido en la planificación y evaluación de la GCH, los indicadores intangibles. Se ha insistido en la aplicación por los tutelados, en considerar indicadores intangibles (psicosociales), otorgando especial ponderación al compromiso (Medina, 2018; Leyva, 2016; Pérez, 2011; Ramos, 2009), y se ha insistido en que todos los directores generales en las distintas ediciones de los Diplomados y Especialidades, los consideren en los Talleres. . 8 Acción o Proceso 5 10 15 20 25 30 5 10 15 20 Tiempo Enero Febrero … Diseño Plan de Carrera Diseño Plan de Sucesiones Inicio de la Formación Jubilaciones Promociones Nuevos Ingresos Evaluaciones de Directivos Análisis y Diseño de Puestos Implantación Pago a Destajo Análisis presupuestario etc. DIAPO 3 Figura 5. Diagrama de Gantt en la planeación de procesos o sus “acciones” de GCH Técnica imprescindible al momento de planificar la GCH y después realizar su seguimiento, lo constituye el diagrama de Gantt --agilizado mediante el Microsoft Project o el Microsoft Visio--, posibilitando gráficamente distinguir en el tiempo los procesos o sus “acciones” y sus plazos de ejecución. Ese Gantt significa el cronograma para llevar a efecto la “Programación de acciones del sistema de GCH”, o el “paquete” (las innovaciones) para logar la transformación que significa la optimización del capital humano. Pero no basta el cronograma del “paquete” para la optimización, hay que estimar la evaluación del impacto de cada una de esas “acciones”, económico, psicológico y social (que tales son los indicadores que aparecen en la Figura 6), y además medioambiental que ahí no se reflejaron. Y eso se realiza con otro Diagrama de Gantt, donde deberá alcanzarse el “macheo” entre las “acciones” o “procesos” y su impacto. INDICADOR 5 10 15 20 25 30 5 10 15 20 28 TIEMPO Enero Febrero Volumen de producción (VP) Salario medio (Sm) Productividad del trabajo (Pt) Dinámica de la Pt ( Pt) Dinámica del Sm ( Sm) Relación sm – pt (Ø ) Aprovechamiento JL (AJL) Sentido de compromiso (Isc) Coef. de perspectivas (Cp) Liderazgo (Csdi) etc. 30 proyectos (P) 45 proyectos 1900 $ /t 2800 $ /t 0,0145 P/ $ 0 % 12,28 % 0,0182 P /$ 42,3% 2,75 0 % 0 % 63 % 82 % 0,35 1,70 0,25 0, 550,10 0,17 0 % 0 % TANGIBLES INTANGIBLES DIAPO 4 Figura 6. Diagrama de Gantt de los indicadores de las “acciones” de GCH . 9 Una vez formulada la estrategia empresarial, desglosada en los “objetivos estratégicos”, y establecidas las “Políticas de GRH” se concibe (diseña) también el Control, específicamente en su modalidad de CMI, como puede apreciarse ejemplificado en la Tabla 1. Pero ahí van también las proyecciones u optimización respecto a los procesos de GCH vistos antes mediante diagramas de Gantt. No se puede ir al diseño del CMI, sintetizado en la Tabla 1 (Diapo 5), sin que previamente se hayan analizados los distintos procesos de GCH que serán objeto de innovación en aras de la optimización del capital humano. Tabla 1. CMI de una empresa, comprendiendo sus objetivos, indicadores y metas Objetivos estratégicos hasta 2022 Indicador Expresión de cálculo Valor de referencia Metas Anuales 2020 2021 2022 1. Lograr un 100% de asistencia a los servicios solicitados por los clientes Coeficiente de asistencia Cantidad de clientes asistidos/ Cantidad de solicitudes de servicios 100% 70 90 100 2. Garantizar la satisfacción de la clientela mediante el logro de la calidad requerida en los servicios. Coeficiente de satisfacción del cliente Cantidad de clientes satisfechos / Cantidad de clientes asistidos 100% 80 90 100 3. Reducir el ciclo logístico del proceso de trabajo principal Ciclo logístico  Tiempos invertidos en responder cada demanda / Total de demandas 6 días 15 9 6 4. Garantizar un aumento de liderazgo en el conjunto de jefes de áreas de la empresa Coeficiente Sociométrico del dirigente (Csd) Csd= ∑ e+´ / N 0,75 0,45 0,65 0,75 5. Aumentar el sentido compromiso de los empleados con la empresa. Índice de sentido de compromiso (Isc) ∑ b - ∑ d ∑ a + ________ - ∑ e 2 Isc = ___________________ N 2,75 1,35 2,05 2,75 Avalan este resultado investigativo las seis (6) Tesis Doctorales y las seis (6) Tesis de Maestría, que contribuyeron a configurar la tecnología, y con posterioridad el conjunto de proyectos de curso (Talleres) correspondientes al módulo de GCH y las Tesis de Especialidad en DGE tuteladas por los autores, que evidenciaron la aplicación de la referida tecnología; avalan el resultado alcanzado las 23 ediciones del Diplomado en DGE (2011-2019) y las siete (7) ediciones de la Especialidad en DGE (2012-2019) de la ESCEG, donde se aplicó el libro “Gestión del capital humano (Vol. IV)”; avalan el resultado los 1400 egresados del Diplomado y los 186 egresados de la Especialidad. Y también lo avalan la generalización de la aplicación del libro y su proceso de formación en las 27 instituciones de todo el país, donde lo han utilizado los 14671 egresados de las 23 ediciones del Diplomado y los 324 egresados de la Especialidad. 5. Conclusiones 1. El libro “Gestión del capital humano –Vol. IV”, comprendiendo la tecnología de optimización del capital humano, utilizado mediante la formación a directores de empresas cubanas en Diplomado y Especialidad en DGE de la ESCEG que desarrollaran en condición de profesores los autores, posibilitó cumplir el objetivo general de la investigación de contribuir a la sistemática optimización del capital humano de la empresa, evidenciado a través de los Talleres integradores que como proyecto y en equipo, además de las Tesis de Especialidad, realizaron esos directores respecto a las empresas donde ejercían su función como directivos. 2. La tecnología de optimización, cuya configuración en la práctica fuera avalada por el conjunto de tesis doctorales y de maestría tuteladas, resultó novedosa por los componentes conceptuales y técnicos integrados que se insertaron en la GCH cubana junto a los indicadores tangibles e intangibles considerados –y en particular esos últimos que se utilizaron en la planificación estratégica de empresas cubanas. DIAPO 5 . 10 3. El peculiar proceso de formación-acción ejercido sobre los directores de empresas, por proyecto y en equipo, insistiendo en que desarrollen la innovación, es de importancia estratégica para el desarrollo empresarial cubano, y les prepara para la consolidación de esa vital competencia que es la de innovación.  Referencias bibliográficas 1. Báez, R.A.; Zayas, P.M.; Velásquez, R. & León, Y.O. (2019). Modelo conceptual del compromiso organizacional en empresas cubanas, en Ingeniería Industrial, Vol. XL, No.1, pp.14-23, La Habana: CUJAE. ISSN: 1815-5936. 2. Barroso, Y. & Becerra, M. J. (2016). Aplicación de la gestión por competencias en una institución del sector cultural cubano, en RCI, Revista Cubana de Ingeniería, Vol. VII, No.2, pp. 39-47. ISSN: 2223-1781 3. BCG & WFPMA (2008). Creating People Advantage. Cómo afrontar los desafíos de RRHH en todo el mundo hasta 2015 (Resumen Ejecutivo), Boston: The Boston Consulting Group, Inc. (BCG) and The World Federation of Personnel Management Associations (WFPMA). Recuperado de http://www.bcg.com 4. Cadalzo, Y.; Caballero, I. & Becerra, M. J. (2017). La gestión de capital humano en empresas del sector biotecnológico cubano, en Ingeniería Industrial, Volumen XXXVIII, No.1, 2017, pp. 18-31. ISSN: 1815-5936 5. Cadalzo, Y.; Becerra, M. J.; Albojaire, M. & López, R. (2016). Determinación de las competencias organizacionales y de procesos en un centro del sector biofarmacéutico”, en VacciMonitor, 2016, Volumen 25, Numero 3, pp.77-83. ISSN: 1025-0298 6. Chiavenato, I. (2011). Administración de recursos humanos (El capital humano de las organizaciones), octava edición, México: McGraw-Hill, 2011. ISBN: 978-607-15-0540-6 7. Cuesta, A. (2017a). Gestión del talento humano del conocimiento, Segunda edición, Bogotá: ECOE Ediciones. ISBN: 978-958-771-379-4 8. Cuesta, A. (2017b). Organización del trabajo: base de la gestión del capital humano, en AP y E Revista cubana de Administración Pública y Empresarial, Vol. I, n. 2, pp.107-120. Recuperado de: http://apyc.esceg.cu/index.php/APyE 9. Cuesta, A.; Linares, M.A.; Fleitas, M.S. & Delgado, M. (2017): “Gestión del capital humano, Volumen IV”, en Temas de gestión empresarial (Coordinadora Mercedes Delgado Fernández), La Habana: Editorial Universitaria Félix Varela. ISBN: 978-959-07-2230-1 Volumen IV. 10. Delgado, M. (2018). Proyección de innovación en Administración Pública y Empresarial en Cuba, en Folletos Gerenciales, Vol. XXII, No.2, pp.71-84, ISSN: 1817-1788. 11. Delgado, M. (2017). Valoración del impacto de la superación de los cuadros en administración pública y empresarial en Cuba, en APyE Revista cubana de Administración Pública y Empresarial, Volumen 1, No. 1, 2017, pp. 3-18. Recuperado de: http://apyc.esceg.cu/index.php/APyE 12. De Miguel, M. (2007). Tecnología para la planeación integral de los recursos humanos. Aplicación en entidades hoteleras de Holguín, Tesis de Doctorado en opción al grado científico de Doctora en Ciencias Técnicas, La Habana: CUJAE. Recuperado de http://catedragc.mes.edu.cu/repositorios/ 13. Dessler, G. (2015). Administración de recursos humanos, décimo cuarta edición, México: Prentice Hall. ISBN: 978-607-32-3311-8 14. Drucker, P. F. (1999). Knowledge-worker Productivity: The Biggest Challenge, in California Management Review, 41, no. 2, USA, pp. 79-94. 15. Drucker, P. F. (1986). Innovation and Entrepreneurship (Practice and Principles), New York: Harper Collins Publisher, ISBN: 0060546743. Recuperado de http://www.perfectbound.com 16. Espinosa, M. M.; Lage, A. & Delgado, M. (2017). Evolución de la gestión organizacional en un centro cubano de la biotecnología, en Ingeniería Industrial, Volumen XXXVIII, No. 3, 2017, p. 311-322. ISSN: 1815-5936 17. Heredia, V. (2014). Diseño de un procedimiento de organización del trabajo para la optimización de capital humano durante la aplicación del reordenamiento empresarial en la dirección territorial SEPSA, Tesis de Maestría en opción al título de Máster en Gestión de Recursos Humanos, La Habana: CUJAE . 11 18. Hernandez, I.; Fleitas, S. & Salazar, D. (2011). La gestión del capital humano en empresas cubanas y sus particularidades, en Revista Venezolana de Análisis de Coyuntura, Vol. XVII, No.1, pp. 137- 148, Caracas: Universidad Central de Venezuela. ISSN: 1315-3617. 19. Hodson, W. (2006). MAYNARD: Manual del ingeniero industrial, 5ta. Ed., México: Mc Graw-Hill. 20. Jacobs, F. R. & Chase, R. B. (2014). Administración de operaciones. Producción y cadena de suministros, Decimotercera edición, México: McGraw-Hill. ISBN: 978-607-15-1004-4 21. Kaplan, R. & Norton, D. (2004). Strategy Maps: Converting Intangible Assets into Tangible Outcomes, Boston: Harvard Business School Press. ISBN: 81-8088-186-X 22. Konopaske, R.; Ivancevich, J. M. & Matteson, M. T. (2018): Organizational Behavior and Management, eleventh edition, 2018, New York: McGraw-Hill. ISBN 978-1-259-89453-4 23. León, Y. (2016). Diseño e implementación del procedimiento para la gestión por competencias laborales en la UEB laboratorios NOVATEC, Tesis de Maestría en opción al título de Máster en Gestión de Recursos Humanos, La Habana: CUJAE 24. Leyva, C. (2016). Tecnología para la evaluación integrada del desempeño individual en instalaciones turísticas de Holguín, Tesis doctoral, La Habana: CUJAE. Recuperado de http://catedragc.mes.edu.cu/repositorios/ 25. Medina, A. (2018). Programa de formación de competencias para la gestión eficaz de la seguridad y salud en el trabajo. Evaluación en una empresa biotecnológica, Tesis de Doctorado en opción al grado científico de Doctora en Ciencias Psicológicas, La Habana: Universidad de La Habana. 26. Morales, A. (2006). Contribución para un modelo cubano de gestión integrada de recursos humanos, Tesis de Doctorado en opción al grado científico de Doctor en Ciencias Técnicas, La Habana: CUJAE. Recuperado de http://catedragc.mes.edu.cu/repositorios/ 27. Morejón, R. (2014). Tecnología para la planificación estratégica de la gestión de los Recursos Humanos en la empresa BRAZCUBA cigarrillos SA, Tesis de Maestría en opción al título de Máster en Gestión de Recursos Humanos, La Habana: CUJAE 28. Oficina Nacional de Normalización (2007): NC 3000-3002: 2007: “Sistema de gestión integrada de capital humano – Vocabulario, Requisitos e Implementación”, 2007, La Habana: Oficina Nacional de Normalización (NC), Recuperado de http://www.nc.cubaindustria.cu 29. Pérez, T. (2011). Modelo y procedimientos para medir el capital intelectual en empresas cubanas de proyecto, Tesis de Doctorado en opción al grado científico de Doctora en Ciencias Técnicas, La Habana: CUJAE. Recuperado de http://catedragc.mes.edu.cu/repositorios/ 30. Pérez, T. (2006). La gestión por competencias como centro integrador de las actividades fundamentales de la GRH”, Tesis de Maestría, en opción al título de Máster en Gestión de Recursos Humanos, La Habana: CUJAE. 31. PNUD (2016): Informe sobre Desarrollo Humano 2016, (Desarrollo humano para todos) New York: Programa de las Naciones Unidas para el Desarrollo (PNUD). Recuperado de http://www.hdr.undp.org 32. Ramos, J. (2009). Perfeccionamiento del sistema de gestión de la capacitación de los cuadros y trabajadores de la organización CIMEX de la República de Cuba, Tesis de Doctorado en opción al grado científico de Doctor en Ciencias Técnicas, La Habana: CUJAE. Disponible en: http://catedragc.mes.edu.cu/repositorios/ 33. Sánchez, A.M. (2007). Metodología para la planificación de los recursos humanos en la Sub- dirección de Proyectos del Instituto de Estudios e Investigaciones del Trabajo, Tesis de Maestría en opción al título de Máster en Gestión de Recursos Humanos, La Habana: CUJAE. 34. Silva, Y. (2016). Metodología para el diseño del sistema de gestión integrada del capital humano (SGIH) en la empresa laboratorios farmacéuticos AICA, Tesis de Maestría en opción al título de Máster en Gestión de Recursos Humanos, La Habana: CUJAE. 35. Taylor, F.W. (1911). Scientific Management. Copyright by Frederick Winslow Taylor; copyright renewed 1939 by Louise M.S. Taylor: Harper & Row, Publishers 36. Vargas, T. y Cuesta, A. (2018): Las competencias para el turismo sostenible. Su determinación empírica, en revista Ingeniería Industrial, Vol.39, No.3, pp.226-236, La Habana: CUJAE. ISSN: 1815-5936. . 12 37. Werther, W. B. & Davis, K. (2008). Administración de recursos humanos (El capital humano de las empresas), 6ta. edición, México: McGraw-Hill. ISBN: 978-970-10-5913-1 PROPUESTA DE DISEÑO DE UN LABORATORIO VIRTUAL DE ANTROPOMETRÍ Ing. Roberto Abreu Pérez1, Ing. Danhiz Díaz Pereira 2, Dr.C Alicia Alonso Becerra3 Facultad de Ingeniería Industrial, Universidad Tecnológica de la Habana, CUJAE1, Facultad de Ingeniería Industrial, Universidad Tecnológica de la Habana, CUJAE2, Ministerio de educación Superior de Cuba, MES3 e-mail:rabreup@ind.cujae.edu.cu1, ddiazp@ind.cujae.edu.cu2,alonso@mes.gob.cu3 RESUMEN El empleo de los laboratorios virtuales está siendo cada vez más común, dentro de algunas materias que se imparten en el Sistema de Educación Superior. Estos estimulan el empleo de las TICs en el contexto educativo y el aprendizaje. En el presente trabajo se realiza un estudio de los antecedentes que existen en el desarrollo de laboratorios virtuales de la asignatura de Ergonomía los cuales hasta el momento no han tenido los resultados esperados en cuanto a la correcta solución de los casos de estudio y que la interfaz visual del software no tiene la calidad requerida, una de las causas asociadas a estos problemas es la carencia de los algoritmos necesarios para programarlo. En correspondencia con el problema identificado se plantea el objetivo general siguiente: desarrollar los algoritmos del laboratorio virtual de Antropometría de la asignatura Ergonomía de la carrera de Ingeniería Industrial. Para el desarrollo de la investigación se han aplicado diferentes métodos y técnicas de revisión de la documentación, aplicación de encuesta y análisis de datos. Los principales resultados obtenidos se relacionan con: el diseño de los algoritmos necesarios para el desarrollo de un laboratorio virtual de Antropometría, se proponen mejoras a la interfaz visual y quedan más visibles los puntos humanos de las medidas antropométricas. Los algoritmos desarrollados se programaron en hojas de cálculos de Excel para validarlos e incluirlos posteriormente en el software. Con este los estudiantes podrán recibir con más calidad los contenidos de Antropometría y Biomecánica y por lo tanto mejorar el aprendizaje. PALABRAS CLAVES: ergonomía, antropometría, laboratorio virtual, algoritmos, UML GUIDELINES FOR PREPARING ARTICLES FOR THE XX SCIENTIFIC CONVENTION ON ENGINEERING AND ARCHITECTURE ABSTRACT The use of virtual laboratories is becoming increasingly common, within some subjects taught in the Higher Education System. These stimulate the use of ICTs in the educational context and learning. In the present work a study is made of the antecedents that exist in the development of virtual laboratories of the subject of Ergonomics which up to the moment have not had the expected results as for the correct solution of the cases of study and that the visual interface of the software does not have the required quality, one of the causes associated to these problems is the lack of the algorithms necessary to program it. In correspondence with the identified problem the following general objective is raised: to develop the algorithms of the virtual laboratory of Anthropometry of the subject Ergonomics of the career of Industrial Engineering. For the development of the research, different methods and techniques of documentation review, survey application and data analysis have been applied. The main results obtained are related to: the design of the algorithms necessary for the development of a virtual laboratory of Anthropometry, improvements are proposed to the visual interface and the human points of the anthropometric measurements are more visible. The algorithms developed were programmed in Excel spreadsheets to validate them and include them later in the software. With this the students will be able to receive with more quality the contents of Anthropometry and Biomechanics and therefore to improve the learning. KEY WORDS: ergonomics, anthropometry, virtual laboratories, algorithms, UML 1. INTRODUCCIÓN Con el desarrollo de las tecnologías de la información y las telecomunicaciones (TICs), los métodos de enseñanzas se han ido modificando teniendo en cuenta las transformaciones de la era digital. Ha resultado necesario que profesores e investigadores indaguen sobre el tema y desarrollen nuevos medios para ajustar las materias a las complejidades del mundo actual. La Educación Superior cubana está en constante evolución, adaptándose a las nuevas formas de enseñar que nos trae el siglo XXI, lo que permitirá ganar en la calidad del proceso de enseñanza - aprendizaje desarrollando medios que se ajusten a las necesidades de estos con la responsabilidad que se tiene en educar y formar profesionales integrales, responsables, conscientes y consecuentes, sin los cuales ninguna nación puede avanzar en el plano económico, social, cultural y político. En este contexto, es necesario que los alumnos dediquen más tiempo a la práctica, siendo imprescindible para ganar en la calidad de los graduados. Pueden estar vinculados directamente en empresas, realizar investigaciones que propongan soluciones a problemas reales de la producción y los servicios, visitas técnicas, entre otras. Este trabajo de diploma se enfocará en la utilización de los laboratorios como forma de enseñanza, adecuándolos al uso de las TICs, proponiendo el rediseño de laboratorios a formato virtual. En el lineamiento 122 de la Política Económica y Social del Partido y la Revolución, se planea avanzar en la informatización del sistema de educación, desarrollar la tecnología educativa, así como la generación de contenidos digitales (Lineamientos de la Política Económica y Social del Partido y la Revolución, 2017). En el objetivo específico 11 del eje estratégico Potencial humano, ciencia, tecnología e innovación de las Bases del Plan Nacional de Desarrollo Económico y Social hasta el 2030 se proyecta elevar y fortalecer la soberanía tecnológica en el desarrollo de la informática, así como fomentar el desarrollo de nuevas plataformas tecnológicas. (Bases del Plan Nacional de Desarrollo Económico y Social hasta el 2030, 2017) Las prácticas de laboratorio se diseñan para que los estudiantes tengan una interacción directa y tangible con los conocimientos adquiridos teóricamente, comprobándolos experimentalmente. Los medios necesarios para la realización de prácticas de laboratorios (materiales, instrumentos e infraestructura) son difíciles de adquirir y mantener en buen estado. Además, requieren la utilización de tiempo y energía. Ergonomía es una de las asignaturas de la disciplina Ingeniería del Factor Humano del Plan de Estudio de la carrera de Ingeniería Industrial. Entre las habilidades a adquirir en la misma está diseñar y realizar mediciones y experimentos para evaluar las características psicofisiológicas, antropométricas y biomecánicas del hombre y del ambiente laboral (Plan de Estudio ``D´´. Ingeniería Industrial.Presencial, 2007; Plan de Estudio ``E´´. Ingeniería Industrial, 2018), por lo que en la planificación de sus actividades docentes se encuentra la realización de seis prácticas de laboratorios, esta concepción tributa a la necesidad de desarrollar en los estudiantes la capacidad para diseñar y realizar experimentos, buscar información, evaluar críticamente los resultados así como utilizarlos en la solución de problemas. Utilizar Softwares especializados para la evaluación y el diseño ergonómico (Plan de Estudio ``E´´. Ingeniería Industrial, 2018) es otra de las habilidades a desarrollar en la asignatura de Ergonomía. El presente trabajo se propone una alternativa que puede contribuir a desarrollar ambas habilidades, utilizando en la asignatura laboratorios virtuales. El empleo de los laboratorios virtuales está siendo cada vez más común, al ser una variante práctica dentro de algunas materias que se imparten en el Sistema de Educación Superior. Estos estimulan el empleo de las TICs en el contexto educativo y el aprendizaje. En correspondencia el objetivo general de esta investigación es desarrollar los algoritmos necesarios para la elaboración del laboratorio virtual de antropometría. 2. METODOLOGÍA En la investigación se emplea el método Dialéctico-Materialista, como metodología más general del conocimiento, que permite establecer las relaciones y nexos entre las categorías científicas. Los métodos teóricos que se utilizan son: • Los métodos analíticos–sintético para alcanzar las generalizaciones teóricas acerca del tema de investigación, específicamente en la profundización en las diferentes fuentes bibliográficas. • El histórico-lógico para la obtención de los apuntes históricos del empleo de las TICs en el proceso de enseñanza-aprendizaje en particular de los laboratorios virtuales. • La modelación para representar los algoritmos a utilizar en el laboratorio virtual. Los métodos empíricos que se emplean son: • Entrevista: se realizan varias entrevistas a especialistas sobre diversos temas, algunos de la asignatura y otros sobre desarrollo de software. • Análisis documental: se analizan documentos normativos de la educación superior, específicamente los relacionados con la formación de los ingenieros industriales, el programa de la asignatura Ergonomía y sus orientaciones metodológicas. Se utiliza el Plan E recientemente incorporado a la carrera. Se utiliza la estadística descriptiva para el análisis y procesamiento de los datos obtenidos en la aplicación de una encuesta, que mide el nivel de dificultad percibido sobre los temas de la asignatura. Este trabajo de diploma impactará directamente en la formación de los estudiantes de Ingeniería Industrial de La Universidad Tecnológica de La Habana, “José Antonio Echeverría”. CUJAE y de otras Universidades y de los profesionales que en su campo laboral trabajen con la Ergonomía. En la realización de trabajo se realizan análisis de los principales conceptos, métodos y herramientas de la ergonomía, la antropometría y los laboratorios virtuales, se diagnostica las insuficiencias que presenta la propuesta de laboratorio virtual actual, incluyendo las medidas antropométricas y los casos de estudio y se realiza una propuesta de nuevos casos de estudios que respondan a las habilidades de la asignatura. Deja también modelados usando UML los algoritmos necesarios para el desarrollo de un laboratorio virtual de antropometría, proponer mejoras a la interfaz visual para hacerla más amigable la interacción del usuario con el software y se prueban matemáticamente los algoritmos desarrollados en hojas de cálculos de Excel para validarlos y utilizarlos posteriormente en el software. Para comprobar que el primer laboratorio virtual a desarrollar debe ser el de Antropometría y Biomecánica se realizó una encuesta, donde se les pedía a los estudiantes que ordenaran en una escala del 1 al 7 el nivel de dificultad percibido de los temas de la asignatura, siendo el 1 el de menor dificultad y el 7 el de mayor dificultad (en el anexo 1 se muestra la encuesta aplicada). Se encuestó una muestra de 100, de una población de 200 estudiantes de 3ro y 4to año de la carrera de Ing. Industrial del curso 2018-2019, con un margen de error del 10% y un nivel de confianza del 99% Para realizar el análisis del software ya existente se desarrolló una metodología que se muestra en la figura 1 la cual permite servir de guía durante el mismo El análisis de los casos de estudios comenzó evaluando las posturas antropométricas que contiene el software, utilizando como referencia las que se utilizan en el libro de la asignatura (Alonso Becerra, 2006) que están en correspondencia con la norma ISO ("ISO 7250-1," 2010); la selección de los puntos antropométricos para tomar las mediaciones y los instrumentos a utilizar. En la tesis del ingeniero José Carlos Negrón (Negrón González, 2015) propone una metodología para la resolución de casos prácticos que tiene como objetivo aplicar los conocimientos adquiridos y desarrollar habilidades que permitan, a las personas que realizarán las mediciones antropométricas, efectuar un correcto uso de las dimensiones y posturas antropométricas en el diseño de puestos de trabajo. Este Figura 1. Modelo de diagnóstico Fuente: Elaboración propia procedimiento es el utilizado actualmente en la práctica de laboratorio de antropometría. (Alonso Becerra, 2017). Las etapas que plantea para la resolución de casos de estudios son: Figura 2. Procedimiento para la resolución de casos práctico. Fuente: (Negrón González, 2015). Que basado en dicho modelo se diseña la propuesta de procedimiento del laboratorio virtual propuesto, la cual se trasforma en algoritmos modelados utilizando UML (Lenguaje Unificado de Modelación). Así como la modelación específica de los algoritmos necesarios para resolver cada uno de los casos de estudio propuestos utilizando la propuesta de laboratorio virtual. UML es un lenguaje de estandarización que permite modelar, documentar y desarrollar los elementos que forman parte de un sistema software orientado a objetos. Su éxito radica principalmente en la naturalidad de su uso, pues se trata de un concepto nuevo ya que se emplean diagramas de distintos tipos para abordar el problema, de forma que la comprensión del problema en sí resulta mucho más "amigable" tanto para el desarrollador como para el cliente, pues éste también conocerá mucho mejor el producto que va a adquirir. Desde un punto de vista más técnico se podría decir que UML es un grupo de especificaciones de notación orientadas a Objeto, las cuales están compuestas por distintos diagramas, que representan las diferentes etapas del desarrollo de un proyecto de software.(Iglesias Benitez, 2011) El modelo matemático integrado en los algoritmos fueron programados en hojas de cálculos de Excel, utilizando una base de datos con todas las dimensiones humanas necesarias que contendrá el software para obtener la solución de cada caso de estudios que se propone. Los datos que contiene la base de datos son medidas reales tomadas a estudiantes de 3er año de Ingeniería Industrial de la CUJAE en las prácticas de laboratorios realizadas. 3. RESULTADOS Y DISCUSIÓN Se demuestra la importancia de los laboratorios virtuales para la enseñanza de la Ergonomía, específicamente en este caso para la Antropometría y la Biomecánica. Probándose con los resultados de la encuesta efectuada a los estudiantes de la facultad que demuestra el alto nivel de complejidad percibido por ellos en el tema Antropometría y la Biomecánica. Los resultados obtenidos respecto al contenido del tema Antropometría y Biomecánica se muestran en el gráfico 1: Gráfico 1. Evaluación del grado de dificultad del tema Antropometría y Biomecánica Fuente: Elaboración propia Como puede apresiarce el 47% de los encuestados evaluó el tema con grado de dificultad máximo (7). Los resultados confirman la validez de una propuesta de laboratorio virtual, como parte del proceso de eneñanza del contenido Antropometría y Biomecánica, ya que puede ayudar a ejercitar los contenidos y reforzar el aprendizaje de los temas más complejos de la asignatura para los estudiantes. El modelo de diagnóstico aplicado para evaluar el laboratorio virtual existente arrojo las siguientes conclusiones. La tabla 1 se muestran los resultados del análisis realizado. Tabla 1. Análisis de la etapa de medición del software. Fuente: Elaboración propia Dimensiones que funcionan Instrumento asociado Postura Puntos 1. Altura poplítea Cinta Antropométrica No es la más adecuada Correcta Correcto 2. Altura de los codos sentados Cinta Antropométrica No es la más adecuada Correcta Correcto 3. Altura de los muslos Antropómetro Correcta Correcto 4. Altura subescapular Antropómetro. Correcta Problemas en sujetos femeninos mal ubicado el punto superior. 5. Altura iliocrestal Cinta Antropométrica No es la más adecuada Correcta Correcto 6. Ancho de caderas. No especifica que es sentado. Antropómetro Correcta Correcto 7. Diámetro biacromial Cinta Antropométrica No es la más adecuada Correcta No son los puntos más laterales de las apófisis acromiales del omoplato. 8. Altura de los codos de pie Cinta Antropométrica No es la más adecuada Correcta Correcto 9. Profundidad del cuerpo Compás antropométrico Muestra mal la imagen. Correcto 10. Longitud sacrorótula Cinta Antropométrica No es la más adecuada Correcta Correcto 11. Altura de los ojos sentado Antropómetro. Correcta No los tiene registrados 12. Ancho de coco a codo Cinta Antropométrica No es la más adecuada Correcta No selecciona la superficie lateral de los codos sino el codo desde el centro 13. Longitud sacropoplítea Antropómetro Correcta Correcto 14. Longitud del muslo Antropómetro Correcta Correcto No están correctamente programadas la medición de las dimensiones antropométricas siguientes: - Estatura - Altura de los ojos de pie - Alcance lateral del brazo - Alcance mínimo del brazo - Altura de la rodilla - Longitud del pie - Ancho del pie - Alcance máximo del brazo En varias de las dimensiones luego de la selección de puntos antropométrico no se muestran las cotas de una forma adecuada. (Ver figura 3) La selección de los puntos antropométricos asociados a las dimensiones ocurre en un solo orden. Por ejemplo, en la altura poplítea hay que seleccionar primero la zona poplítea y luego el plano del suelo, no permite ejecutarlo en el orden inverso. Si el usuario selecciona el plano del suelo primero le da mensaje de error siguiente: ¨usted ha seleccionado un punto incorrecto¨, cuando realmente el punto está bien seleccionado. Errores en la postura que se muestra en algunas de las imágenes. Por ejemplo, en la figura 4 se observa una ligera abducción de hombros lo que afectará la medición del ancho de codo a codo. Figura 3 Cota Incorrecta Permite seleccionar dimensiones innecesarias para el caso de estudio sin que lo detecte como error. No existe vinculación, hasta la conformación de la formula, entre las dimensiones relevantes de los medios y las dimensiones antropométrica, estas son dos selecciones independientes, trayendo como consecuencia la selección innecesaria de algunas dimensiones, siguiendo incorrectamente la metodología de diseño de Negrón. (Negrón González, 2015) Se muestra la silla antropométrica como si fuera un instrumento de medición, cuando realmente lo que permite es adoptar la postura adecuada para realizar las mediciones. El software muestra las formulas escrita por el estudiante, pero no las compara bien con las que están en la base de datos, permitiendo aceptar formulas erróneas. La opción de ¨tamaño de muestra¨ es incorrecta ya que esta opción no se refiere al concepto estadístico de la palabra, lo que realmente está solicitando es la cantidad de posturas diferentes que se pueden adoptar dentro del caso de estudio. El programa permite seleccionar en el inicio de cada diseño posturas de trabajo incorrectas, sin dar mensaje de error. En la programación del software esta selección no afecta en nada el resto de las actividades del diseño, ya que no relaciona las posturas con los puestos, estando sujeto a errores de conceptos. Figura 4. Postura incorrecta En el proceso de diseñar los puestos se incluye el cálculo de todos los medios simultáneamente, sin tener en cuenta que para el diseño de algunos medios es necesario dimensiones de otros que también pertenecen al puesto. Esto implica, que no se puedan realizar comprobaciones de medidas llevando a errores de conceptos e impidiendo recalcular. Entre las dimensiones de los medios aparece altura del asiento y altura de la silla, siendo esto repetitivo, ya que hace referencia a lo mismo. No hace referencia a la cantidad de tipos de medios iguales que intervienen en cada caso de estudio, sino que trabaja con dimensiones de manera general, pudiéndonos encontrar dimensiones de igual nomenclatura, pero en diferentes medios, o varios tipos de medios para usos diferentes. Existen casos donde hay presencia de varias sillas con objetivos y poblaciones de referencia diferentes y cada una tiene dimensiones distintas, de ahí la importancia de definir correctamente los medios presentes en la situación problémica. Además, se puede seleccionar una dimensión y asociarla a un objeto que no la necesita sin que el software detecte que es un error. No es posible resolver uno de los casos que se presentan ya que es necesario el valor de la altura de ojos sentado y no se puede completar la selección de los puntos antropométricos en la foto. No concibe el poder seleccionar percentiles diferentes al de 5 o 95. Esto para la programación actual del software no cumplen ninguna función otros valores, ya que el máximo tamaño de muestra que se puede tener es de cuatro y esta muestra está muy lejos de seguir una distribución normal. Por eso al utilizar 5 o 95 se está llegando a un error de concepto ya que solo se debe hablar de mayor o menor. Aunque se refiera a los percentiles el software no realiza ningún cálculo estadístico, sino que asocia al mayor o al menor valor utilizando incorrectamente el término de percentiles. Cuando el tamaño de muestra es mayor que uno deja medir más de una vez al mismo sujeto en vez de seleccionar aleatoriamente a diferentes sujetos en la base de datos. Las dimensiones están expresadas en centímetros y las holguras que suman están en el orden de los decímetros. El programa no permite realizar diseños con rangos ajustables. La opción de ´´Preguntas Teóricas´´ propone preguntas que nada tienen que ver con la Ergonomía. La opción de ayuda no está programada. En el diagnóstico realizado al laboratorio se analizaron los contenidos que relacionaban cada uno, a partir de ese análisis y de las entrevistas realizadas se seleccionaron 8 casos de estudios. De ellos 4 se mantienen del software actual y 4 constituyen propuestas nuevas. En la figura 5 se presenta el procedimiento propuesto. Figura 2. Procedimiento para el desarrollo del laboratorio virtual de Antropometría Fuente: Elaboración Propia A partir de este diseño del procedimiento de ejecución del laboratorio basado en los pasos para el diseño antropométrico se conformó el algoritmo general del software el cual se muestra en la figura 6. El algoritmo para realizar las mediciones se muestra en la figura 7, siendo una etapa del procedimiento aparte del general ya que aquí los datos empiezan a tomar un cause especifico del caso de estudio. Figura 3. Algortimo general para el software Figura 4. Algoritmo para medir Fuente: Elaboración propia. Fuente: Elaboración propia Se conformó también una tabla que muestra la información antropométrica necesaria para resolver cada uno de los ocho casos de estudio propuestos y poder brindar las respuestas. Los cuales se muestran en las figuras 8-15 Figura 8-11. Algortimo Casos de estudio 1-4 Fuente: Elaboración propia Figura 12-15. Algortimo Casos de estudio 5-6 Fuente: Elaboración propia Se propone una nueva imagen para utilizar como elemento de la interfaz visual, que muestra cada una de las posturas antropométricas. Esta nueva imagen no presenta deformación en las posturas, muestra de forma más clara las cotas y permite que se más amigable la interacción con el usuario. Además, no son imágenes extraídas de otra fuente son elaboradas por un diseñador a propuesta de los autores de este Trabajo de Diploma. En las figuras 16 y 17 se muestran las propuestas de imágenes que se hace para representar las medidas antropométricas y en el anexo 4 se muestran cada una de las medidas antropométricas. Figura 16. Imagenes para representar las medidas antropométricas Fuente: Elaboración propia Figura 17. Imagenes para representar las medidas antropométricas Fuente: Elaboración propia Los algoritmos fueron programados en hojas de cálculos de Excel, que tienen la base de datos con todas las dimensiones humanas necesarias que contendrá el software para obtener la solución de cada caso de estudios que se propone. Los datos que contiene la base de datos son medidas reales tomadas a estudiantes de 3er año de Ingeniería Industrial de la CUJAE en las prácticas de laboratorios realizadas. Puede ayudar en la futura programación del software no solo para utilizarlo como herramienta de comprobación si no porque cuenta con las fórmulas y la lógica matemática de cada dimensión a calcular. 4. CONCLUSIONES Se demuestra la importancia de los laboratorios virtuales para la enseñanza de la Ergonomía, específicamente en este caso para la Antropometría y la Biomecánica. Con la realización del diagnóstico de la propuesta de laboratorio virtual actual se logra identificar las insuficiencias que presenta para su futura solución. Concluido el diagnóstico de la propuesta de laboratorio virtual actual se realiza una propuesta de nuevos casos de estudios que respondan a las habilidades de la asignatura y se propone mantener cuatro de los que presenta el software. Los algoritmos necesarios para el desarrollo de un laboratorio virtual de antropometría quedan diseñados, para su futura programación. Se proponen mejoras a la interfaz visual para hacerla más amigable a la interacción del usuario con el software y quedan más visibles los puntos humanos de las medidas antropométricas. Con el desarrollo de este laboratorio los estudiantes podrán comprender mejor los contenidos de Antropometría y Biomecánica. Los algoritmos desarrollados se programaron en hojas de cálculos de Excel para validarlos e incluirlos posteriormente en el software. 5. BIBLIOGRAFÍA Alonso Becerra, A. (2006). Ergonomía. La Habana, Cuba: Editorial Félix Varela, ISBN:959-07-0192-2 Alonso Becerra, A. (2007). Biomecánica. La Habana, Cuba. ISBN:959-261-245-5. Retrieved from https://www.researchgate.net/publication/312503494_BIOMECANICA Alonso Becerra, A. (2017). Práctica de Laboratorio: Antropometría. Paper presented at the Asignatura: Ergonomía, La Habana, Cuba. Retrieved from https://www.researchgate.net/publication/316064471_Practica_de_Laboratorio_Antropometria Alonso Becerra, A., & Negrón González, J. C. (2016). Requerimientos cognoscitivos para el diseño de un laboratorio virtual de antropometría. Paper presented at the 18 Convención de Ingeniería y Arquitectura, La Habana, Cuba. Bases del Plan Nacional de Desarrollo Económico y Social hasta el 2030. (2017). La Habana, Cuba: Compendio Documentos del 7mo Congreso del PCC. Benavides, G. A. M., & Morales, C. E. O. (2009). Laboratorio virtual basado en la metodología de aprendizaje basado en problemas, ABP. Revista Educación en Ingeniería, 4(7), 62-73. ISSN:1900-8260 Brassard, G., Bratley, P., & Giner, R. G.-B. (1997). Fundamentos de algoritmia (Vol. 3): Prentice Hall ^ eMadrid Madrid, Cajigal Tamayo, E. (2017). Propuesta experimental de un laboratorio virtual asociado a la práctica de Antropometría de la asignatura Ergonomía, en la Facultad de Ingeniería Industrial. (Tesis de Diploma), Universidad Tecnológica de la Habana “José Antonio Echeverría”, La Habana, Cuba. Carmenate Milián, L., Moncada Chévez, F. A., Leiva, B., & Waldermar, E. (2014). Manual de medidas antropométricas. ISSN:9968924180 Cue Galindo, J. C., & Hernández Perenzuela, A. (2012). MODIFICACIÓN DE CARTUCHOS DE ANDROMDA PARA INCLUIR MÁS SEMÁNTICA DEL DIAGRAMA DE CLASES DE UML 2.0. (TRABAJO DE DIPLOMA), Instituto Superior Politécnico “José Antonio Echeverría”, La Habana, Cuba. Dershowitz, N., & Gurevich, Y. (2008). A natural axiomatization of computability and proof of Church's Thesis. Bulletin of Symbolic Logic, 14(3), 299-350. ISSN:1079-8986 Fowler, M., & Scott, K. (1999). UML gota a gota: Pearson Educación, ISBN:9684443641 Grau, X. F., & Segura, M. I. S. (2008). Desarrollo orientado a objetos con UML. Recuperado el, 1. IEA. (2019). Definition and Domains of Ergonomics IEA Website. Retrieved from https://www.iea.cc/whats/index.html Iglesias Benitez, E. Y. (2011). SISTEMA PARA EL CONTROL DE EQUIPOS Y MOTORES EN EL GRUPO EMPRESARIAL SOMEC. (TRABAJO DE DIPLOMA), Instituto Superior Politécnico “José Antonio Echeverría” Facultad de Ingeniería Informática, La Habana, Cuba. ISO 7250-1. (2010). Basic human body measurements for technological design. Austria: Austrian Standards Institute. ISO 26800. (2011). Ergonomics-General approach, principles and concepts. International Standard. ISO, B. (2012). IEC 19505-1: 2012: Information technology. Object Management Group Unified Modeling Language (OMG UML). Infrastructure, 10. ISO, I. (2012). IEC 19505-2: 2012 Information technology–Object Management Group Unified Modeling Language (OMG UML), superstructure: Beuth Verlag, Berlin. Lineamientos de la Política Económica y Social del Partido y la Revolución. (2017). La Habana, Cuba: Compendio Documentos del 7mo Congreso del PCC. Mondelo, P. R., Torada, E. G., & Bombardo, P. B. (2000). Ergonomía 1: fundamentos: Alfaomega, ISBN:9701502957 Nájera, J. M., & Estrada, V. H. M. (2007). Ventajas y desventajas de usar laboratorios virtuales en educación a distancia: la opinión del estudiantado en un proyecto de seis años de duración. Revista Educación, 31(1), 91-108. ISSN:2215-2644 Nariño Lescay, R. (2016). Procedimientos para realizar estudios antropométricos y entrenar en antropometría. (Tesis de Maestria), La Habana, Cuba. NC 3000. (2007). Sistema de Gestión Integrada de Capital Humano—Vocabulario. La Habana, Cuba. Negrón González, J. C. (2015). Requerimientos cognoscitivos para el diseño de un laboratorio virtual de antropometría. (Tesis de Diploma), La Habana, Cuba. Ordoñez Reyes, I. (2017). Laboratorio virtual de antropometría para la asignatura Ergonomía en la carrera de Ingeniería Industrial en la CUJAE. (Tesis de Maestría), Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE, La Habana, Cuba. Ordoñez Reyes, I., Alvarez Alvarez, A., & Alonso Becerra, A. (2017). Fundamentos de la relación Teoría - Práctica en un Laboratorio Virtual de Antropometría para potenciar su utilización en instituciones académicas de ingeniería. Referencia Pedagógica(02). doi:10.1234/rrp.v5i2.133, ISSN:2308-3042 Paredes, I., & Inciarte, A. (2006). Relación teoría-práctica en el quehacer curricular de la mención Educación Básica Integral. Omnia, 12(2), 25. ISSN:1315-8856 Plan de Estudio ``D´´. Ingeniería Industrial.Presencial. (2007). La Habana, Cuba: Ministerio de Educación Superior. Plan de Estudio ``E´´. Ingeniería Industrial. (2018). La Habana, Cuba. RAE, R. A. E. (1992). Diccionario de la lengua española: Madrid, España, Reglamento de Trabajo Docente y Metodológico de la Educación Superior., Resolución No. 02/18. (2018), Gaceta Oficial de la Republica de Cuba No. 25. Viña Brito, S., Alonso Becerra, A., Concepción Batiz, E., Montero Martínez, R., Ledo Galano, C., Noy Monteagudo, E., . . . Oliva Espinosa, J. (1996). Manual de Práctica de laboratorio de Ergonomía. La Habana, Cuba: Ediciones ISPJAE, Viña Brito, S., & Gregori Torada, E. (1987). Ergonomía. La Habana, Cuba: Editorial Pueblo y Educación, DIAGNÓSTICO DE LA GESTIÓN DEL CAPITAL HUMANO Y EL REDISEÑO DE LOS PUESTOS DE TRABAJO DEL PROCESO CLAVE DE DIRECCIÓN Y COPNTROL DE LA OFICINA CENTRAL DE LA OSDE GEIC. DIAGNOSIS OF THE MANAGEMENT OF HUMAN CAPITAL AND THE REDESIGN OF THE WORK POSITIONS OF THE KEY MANAGEMENT AND COPNTROL PROCESS OF THE CENTRAL OFFICE OF THE OSDE GEIC Ing. Yuneisy Acosta Rodríguez 1* Dra. Vania García Fentón 2 *1 Grupo Empresarial de la Informática y las Comunicaciones, Especialista Superior de la Dirección de Organización y Capital Humano, Cuba; yunesiy.acosta@geic.cu 2 Universidad Tecnológica de la Habana José Antonio Echeverría, Profesora Titular, Cuba, RESUMEN La presente investigación se desarrolló en la Oficina Central de la Organización Superior de Dirección Empresarial denominada Grupo Empresarial de la Informática y las Comunicaciones en su forma abreviada GEIC, creada el 5 de enero del año 2015, para sustentar la separación de las funciones estatales de las empresariales, está ubicada en el Edificio FOCSA, calle 17 entre M y N Vedado y es atendida por el Ministro de las Comunicaciones. La Oficina Central de la OSDE-Geic, ejecuta funciones de dirección y control con respecto a las 9 entidades que la integran, sin intervenir en su gestión y con estricto respeto a la autonomía de aquellas. Se realizó un diagnostico al Sistema de Gestión del Capital Humano de la OC de la OSDE-Geic, en el cual se aplicó el Modelo de GCH-DPC del libro Tecnología de los Recursos Humanos (Autor: Armando Cuesta-2010), el cual arrojó como resultado una inadecuada Gestión del Capital Humano cuya causa principal es la Deficiente Gestión de la Organización del Trabajo. El objetivo principal que se persigue en esta investigación a partir del resultado derivado del diagnóstico es: Confeccionar un procedimiento para implementar un Sistema de Gestión del Capital Humano en la Oficina Central de la OSDE-Geic. Los métodos y técnicas empleadas se basan en el análisis teórico, analítico, documental y estadísticos, además de entrevistas individuales, encuestas, análisis de documentos y registros, matriz de ponderación, diagrama causa-efecto, lista de chequeo, examen crítico, OTIDA, diagrama de flujo, Microsoft office (Word, Excel, Visio). Como resultado principal, se obtuvo un procedimiento para la implementación de un Sistema de Gestión del Capital Humano en la Oficina Central de la OSDE-Geic, basado en el Modelo de GCH que establece la NC: 3001-3002/2007. PALABRAS CLAVES: Gestión del Capital Humano, Puestos de Trabajo, Competencias Laborales. ABSTRACT The present investigation was developed in the Central Office of the Superior Organization of Business Management called Business Group of Informatics and Communications in its abbreviated form GEIC, created on January 5, 2015, to support the separation of state functions from the business, is located in the FOCSA Building, 17th Street between M and N Vedado and is attended by the Ministry of Communications. The OSDE-Geic Central Office performs management and control functions with respect to the 9 entities that comprise it, without intervening in their management and with strict respect for their autonomy. A diagnosis was made to the Human Capital Management System of the OC of the OSDE-Geic, in which the GCH-DPC Model of the book Technology of Human Resources (Author: Armando Cuesta-2010) was applied, which showed As a result, an inadequate Human Capital Management whose main cause is the Poor Management of the Work Organization. The main objective pursued in this research from the result derived from the diagnosis is: To prepare a procedure to implement a Human Capital Management System in the Central Office of the OSDE-Geic. The methods and techniques used are based on theoretical, analytical, documentary and statistical analysis, in addition to individual interviews, surveys, analysis of documents and records, weighting matrix, cause-effect diagram, checklist, critical examination, OTIDA, diagram flow, Microsoft office (Word, Excel, Visio). As a main result, a procedure was obtained for the implementation of a Human Capital Management System in the OSDE-Geic Central Office, based on the HCG Model established by NC: 3001-3002/2007. KEY WORDS: Human Capital Management, Job Positions, Labor Competencies. 1. INTRODUCIÓN En la actualidad la Gestión de los Recursos Humanos ocupa un lugar preferencial en las organizaciones, teniendo en cuenta que las personas se consideran el recurso más valioso, para el logro de los objetivos estratégicos y la competitividad de las empresas. El perfeccionamiento de la retribución por el trabajo en el sistema empresarial estatal cubano, aprobado en el Decreto 53 de septiembre del 2021, tiene como objetivo flexibilizar el mecanismo para establecer la organización del sistema salarial de los trabajadores del sistema empresarial estatal cubano. Por lo que, es fundamental que las entidades empresariales incluida la Organización Superior de Dirección Empresarial, creen las condiciones para su implementación. La Oficina Central de la Organización Superior de Dirección Empresarial denominada Grupo Empresarial de la Informática y las Comunicaciones en su forma abreviada Geic, fue creada el 5 de enero del año 2015 mediante la Resolución No. 629/2014 del Ministro de Economía y Planificación, de fecha 3 de septiembre de 2014, con el objetivo de sustentar la separación de las funciones estatales de las empresariales, ejecuta funciones de dirección y control con respecto a las entidades que la integran, sin intervenir en su gestión y con estricto respeto a la autonomía de las mismas. La Oficina Central OSDE- Geic es atendida por el Ministro de Comunicaciones (MINCOM), está ubicada en el edificio FOCSA sito en calle 17 No.55, entre M y N, apartamento 3D, Vedado, municipio Plaza de la Revolución, provincia La Habana, está integrada por ocho empresas y cinco sociedades mercantiles de capital 100 % cubano. Nuestra Organización Superior de Dirección Empresarial (OSDE) desde el año 2019, ha estado involucrada en la implementación de un sistema integrado de gestión donde se definieron sus procesos y la documentación correspondientes, por otra parte, logró mediante un equipo de trabajo diseñar una metodología para adoptar un modelo de formación continua común basado en programas de formación por competencias, la cual se encuentra en proceso de desarrollo tanto en la OSDE como en el sistema empresarial, además concluyó en el año 2021 la actualización de la estrategia a nivel de Grupo para el periodo 2022-2024, donde se define la misión, visión, valores compartido y objetivos estratégicos a partir del nuevo escenario en el cual se encuentra nuestro sistema empresarial y el país. El Grupo Empresarial tiene como misión dinamizar el desarrollo integral de infraestructuras y servicios informáticos innovadores, con fuerza de trabajo calificada y comprometida, en función del proceso de informatización de la sociedad cubana, para contribuir de manera sostenible al progreso económico y social del país. Define en su estrategia cinco objetivos estratégicos 1. Lograr una inserción efectiva y segura de aplicaciones y servicios innovadores. 2. Asegurar el crecimiento y desarrollo sostenible del GEIC. 3. Lograr que la gestión del capital humano y la aplicación de la política de cuadros, garanticen el cumplimiento de los objetivos del GEIC. 4. Asegurar la continuidad de la dirección revolucionaria y profesional en los cargos de cuadros. 5. Perfeccionar el sistema de dirección y gestión empresarial del GEIC. En el periodo 2019-2021 se realizó un análisis del estado de algunos aspectos que a nivel de Grupo no ofrecían resultados favorables y que eran incompatibles con la dinámica de desarrollo tecnológico que imponía el sector:  Poco desarrollo en los programas de I+D+i que resulten en nuevos o mejorados productos y servicios.  Estancamiento en las exportaciones.  Fluctuación del personal, portador del conocimiento.  Una sola entidad certificada por las normas ISO (8 entidades integradas). A partir de la situación antes mencionada se establece como objetivo en la presente investigación:  Realizar un diagnóstico de la Gestión del Capital Humano de la OC de la OSDE-Geic, aplicando el Modelo de GCH-DPC del libro Tecnología de los Recursos Humanos (Autor: Armando Cuesta-2010).  Confeccionar un procedimiento para implementar un Sistema de Gestión del Capital Humano en la Oficina Central de la OSDE-Geic. 2. MÉTODOS Y TÉCNICAS Para desarrollar la investigación se utilizaron diferentes métodos, técnicas y herramientas, tales como: método analítico, Análisis documental, observación directa, entrevistas a especialistas, tormenta de ideas, técnicas para el estudio de tiempo (estimación analítica), Ishikawa, Diagrama de flujos. Software estadístico Sample, encuestas (satisfacción laboral, rostro de las perspectivas, Likert, naturaleza de las personas, organización que aprende, condiciones de trabajo), listas de chequeo, examen crítico, OTIDA), balance de carga y capacidad, método de expertos. Se utilizaron herramientas como: Microsoft Office (Word, Excel, Visio). 3. RESULTADOS Factores de Base Caracterización de la Fuerza Laboral: La OC de la OSDE-Geic, cuenta con una plantilla de 77 cargos aprobados al cierre del primer semestre del año 2021 y un total de 73 trabajadores que representa un 95% de su completamiento, en la figura 1, se observa el total de trabajadores por categoría ocupacional. Del total de cargos aprobados 22 están diseñados para desarrollar actividades claves dirigidas a orientar, controlar y asesorar a las empresas integradas al Grupo Empresarial en el cumplimiento de los objetivos estratégicos trazados a mediano y largo plazo. Significar que el 96% de los cargos aprobados son de fuerza de trabajo calificada a partir de la alta complejidad y responsabilidad de la organización, la que exige una fuerza de trabajo altamente calificada y comprometida para cumplir con la misión y alcanzar la visión proyectada. Por lo tanto, contamos con un total de 71 trabajadores con calificación representando el 96% del total de trabajadores, en el que predomina el nivel superior. En la figura 2 se muestra el total de trabajadores por nivel educacional. Figura 1: Total de trabajadores por categoría ocupacional. Figura 2: Total de trabajadores por nivel educacional. Contamos con un total de 45 mujeres que representa el 62% de la fuerza laboral, donde se evidencia la igualdad de género en nuestra organización, mostrándose en la Figura 3, Representación de la mujer en la OSDE-Geic. Destacar que del total de cuadros el 57% es representado por mujeres, el 66% de los técnicos por las féminas y el 42 % alcanzaron grado científico. Figura 1 Representación de la mujer en la OSDE – Geic El rango de edad con mayor representación en la organización es de 51 a 60 años de edad, contando con el 37% de la masa de trabajadores, siendo positivo para para la OSDE, teniendo en cuenta que requiere de un personal con años de experiencia y experticia necesaria para orientar y asesorar a las empresas integradas a la OSDE-Geic, en cuanto a la estrategia a seguir y los resultados alcanzar a nivel de Grupo Empresarial. Figura 2: Composición de la fuerza laboral por rango de edad. Como se muestra en la figura 4, han alcanzado grado científico un total de 12 profesionales de ellos: 11 Master y 1 Doctor. Encuestas sobre la Naturaleza de las Personas En la OC de la OSDE-Geic se aplicó la encuesta sobre la Naturaleza de las Personas con el propósito de caracterizar a sus trabajadores evaluando su motivación en el trabajo, si sienten que conviven dentro de la organización en un clima laboral favorable para el desarrollo de su trabajo, si el trabajo se realiza en equipo y sobre todo se vean reflejados en el cumplimiento de los objetivos estratégicos de la organización. Para aplicar la encuesta de determinó una muestra de 22 trabajadores por el Software Determine Sample Size definiendo un margen de error del 18%, un nivel de confianza del 95% con una población de 73 trabajadores. En el Anexo 1 se muestra el cálculo para determinar la muestra. De total de la muestra, 18% son directivos y el 82% son técnicos. Del total de trabajadores encuestados el 84% son mujeres y el 16% son hombre. Mencionar que el 58% del total de trabajadores están casados y el 42% son solteros, por otra parte, el 84% viven en buenas condiciones y el 16% en condiciones regulares. El rango de edad de los encuestados se encuentra entre 31 y 61 años, siendo la edad promedio 45 años. Motivación: Los indicadores que evalúan la motivación arrojaron los siguientes resultados: El 94% de los trabajadores les gusta el trabajo que realizan, siendo este resultado positivo para la organización. El 100% de los trabajadores se sienten estimulados por la OSDE-Geic, el 100% cree que desempeña correctamente su trabajo, argumentando de forma general que no han recibido señalamiento de sus superiores, por los resultados obtenidos, por la preparación constante, por la calidad con la que realiza el trabajo, entre otras. Un 58% alega que puede realizar otras funciones y el 42% no las puede realizar. Estos fundamentan que les gustaría realizar funciones como, comercial, auditoría, planeación estratégica, entre otras, y el 100% quiere superase tanto en posgrados, cursos y maestrías. Todos tienen aspiraciones profesionales relacionada con alcanzar un alto nivel de competencias en el trabajo que desarrollan, convertirse en expertos en los temar relacionados con su especialidad, etc. Clima Organizacional: En el componente del clima organizacional se midieron un total de 8 indicadores evaluando el estado actual de la organización y el estado deseado, con un rango de puntuación del 1 al 7, siendo el 1 menos importante y el 7 el de mayor importancia. Para calcular los indicadores se halló la moda, analizando los valores con un mayor número de repeticiones. En el siguiente Gráfico 1.5 se observan los resultados. Figura 5: Resultados de la encuesta sobre clima organizacional. Se puede evidenciar por los resultados arrojados, que, de forma general existe un clima organizacional favorable dentro de la OSDE-Geic, no obstante, se debemos continuar trabajando para alcanzar el estado deseado por nuestros trabajadores. Administración por Objetivos: Para medir los indicadores se determinó la moda hallando los valores que más se repiten, donde obtuvieron los tres indicadores buenos resultados, destacándose el nivel de comunicación entre el trabajador y el jefe al establecer los objetivos, como se observa la figura 6. Figura 6: Resultados de la encuesta sobre la administración por Objetivos. Cultura Organizacional: Por la importancia que tiene la cultura organizacional para lograr ser una organización exitosa, se aplicó la Encuesta Likert a 22 trabajadores, con el objetivo de evaluar el nivel de compromiso de los trabajadores y directivos con la organización. Significar que del total de encuestados 4 son directivos. A partir de la unión de las calificaciones de los 19 apartados que componen la encuesta obtenida por la media de los puntos, se obtiene como resultado que la organización tiene un estilo de dirección consultivo teniendo en cuenta que la puntuación es de 14.08. A continuación, se mencionan los resultados por cada uno de los aspectos evaluados:  Los directivos tienen bastante confianza en sus subordinados  Los trabajadores perciben bastante la confianza que le tienen sus superiores.  Los trabajadores se sientes suficientemente libres para hablar con sus jefes.  La idea de los subordinados a menudo se pone en practica  Para motivar a los trabajadores se utiliza la participación  En casi todos los niveles se siente la necesidad de alcanzar los objetivos de la organización.  Existe bastante la labor en equipo  La dirección por la que fluye la comunicación es hacia abajo, hacia arriba y entre iguales  Los subordinados en general aceptan la comunicación con sus jefes  A menudo la comunicación es ascendente  Los jefes comprenden bastante los problemas de sus subordinados  Las decisiones importantes se toman a altos niveles, las demás a niveles inferiores y se delega bastante.  Casi siempre se consultan a los trabajadores de los resultados que afectan su trabajo.  Los objetivos se fijan consultando antes de decidir y siempre o casi siempre se aceptan los objetivos fijados.  A todos los niveles se realizan las funciones de control en la organización.  Los datos de control se utilizan para auto guiar y solucionar problemas  El sindicato a veces muestra resistencia suficiente en responder los intereses de los trabajadores.  Atractivo de la organización: Teniendo en cuenta el modelo DPC, para evaluar el atractivo de una organización se seleccionaron a partir de técnicas empleadas, cinco indicadores para medir la satisfacción laboral de la OSDE-Geic, siendo estos los siguientes: Satisfacción con el salario, satisfacción con el trabajo, protección e higiene del trabajo, organización del trabajo, funcionamiento de la emulación. En cada uno de los indicadores de la lista de comprobación se despliegan una serie de preguntas para evaluar el grado de satisfacción laboral de los trabajadores. Para aplicar la encuesta se tomó el mismo número de trabajadores que participaron en las encuestas anteriores. Una vez aplicada la lista de comprobación se alcanzó un coeficiente de satisfacción laboral de 83%, desatacándose con mayor índice la estimulación y la Protección e Higiene en el Trabajo. Los resultados obtenidos se muestran en el siguiente Gráfico 1.7. Figura 7: Coeficiente de satisfacción laboral de los trabajadores de la OSDE-Geic. Tecnología de las Tareas: La OC de la OSDE.Geic, cuenta con un alto componente de equipamientos de cómputos y tecnológicos que permites el buen funcionamiento de las actividades en los procesos que la componen. La gran mayoría de los trabajadores por las funciones que realizan cuentan con conectividad y acceso a internet y a las redes sociales lo que permite tener un mejor desarrollo y una organización informada. Por otra parte, cada área como Logística, Desarrollo Tecnológico, Organización y Capital Humano, Economía y Finanzas entre otras, cuenta con software específicos para el procesamiento de datos e información. Están garantizados los recursos materiales, el mobiliario necesario, en el caso de los medios de protección no se ha logrado que todos puedan tenerlo, teniendo en cuenta la situación que existe con los proveedores con relación al pago en CL, lo que dificulta en gran medida la obtención de los mismos. Aunque existen buenas condiciones de trabajo de forma general, contamos con mobiliario que no cumplen con los requerimientos ergonómicos, lo que ha traído como consecuencia algunas afectaciones relacionadas con la postura del trabajador en su puesto de trabajo, En inspecciones realizadas se ha evidenciado problemas relacionados con la iluminación en los puestos de trabajo. La organización está implementando el Sistema Integrado de Gestión, por tanto, están definidos los procesos estratégicos, claves y de apoyo. También están definidos las relaciones entre los procesos, teniendo en cuenta las entradas y salidas de los mismos. En la figura 8 se observa el mapa de procesos. Figura 8: Mapa de Procesos de la OC de la OSDE-Geic. Leyes y Valores de la sociedad: Nuestra organización debe cumplir con un grupo importante de legislaciones dirigidas a fortalecer el Sistema Empresarial Estatal Cubano, siendo estas las siguientes:  Decreto Ley 34 del Sistema Empresarial Estatal Cubano  Decreto 359 “Sobre el desarrollo de la industria cubana de programas y aplicaciones informáticas y Resolución 49 sobre el fortalecimiento de las industrias del software.  Decreto Ley 252 “Sobre la continuidad y el fortalecimiento del Sistema de  Dirección y Gestión Empresarial Cubano”  Decreto 281 “Reglamento para la implantación y consolidación del Sistema de Dirección y Gestión Empresarial Estatal”  Ley 116 Código de Trabajo, Consolida y perfecciona las regulaciones que garantizan la protección de los derechos y el cumplimiento de los deberes derivado de la relación jurídico laboral establecida entre los trabajadores y los empleados.  Lineamientos de Partido Comunista de Cuba Grupos de interés: Las parte interesadas de la Organización Superior de Dirección Empresarial (OSDE) son las siguientes:  Sistema empresarial: Las empresas integradas a la OSDE-Geic, que desarrollan la informática y comunicaciones y que están involucradas con el proceso de informatización de la sociedad cubana.  Organismos globales: Ministerio de las Comunicaciones, Ministerio de Trabajo y Seguridad Social, Ministerio de Comercio Exterior, Ministerio del Interior, Ministerio de Finanzas y Precios y Economía y Planificación, entre otros.  El Gobierno: Es la autoridad que dirige, controla y administra las instituciones del estado cubano  El PCC: El partido en la OSDE-Geic, está integrado 31 miembros entre directivos y trabajadores, cuenta con un secretariado dirigido por el secretario general. El partido participa como órgano en los consejos de dirección y se involucra en los procesos de la organización, discutiendo diversos temas de forma periódica.  El Sindicato: Cuenta con un secretariado y es integrado por todos los trabajadores de la OSDE. El sindicato es muy activo y está siempre a la vanguardia, es muy participativo, mantiene informado en cuanto a todos los aspectos de interés a los trabajadores.  Los Trabajadores: Es el capital humano con el cual cuenta la organización para cumplir los objetivos propuestos y por consiguiente la misión.  La Alta Dirección: Está compuesto por un Presidente y Vicepresidente y Directores de unidades organizativas que tienen como objetivo fundamental es liderar a grupos de trabajadores. Dirección estratégica: A partir del cuestionario de preguntas que ofrece el modelo DPC, se realizó el diagnostico al proceso P-01 de Dirección Estratégica de la OSDE-Geic, donde se obtuvo el siguiente resultado: La organización está inmersa en un ejercicio estratégico con la participación de la alta dirección y trabajadores que gozan de prestigio en la OSDE y directivos del sistema empresarial, cuyo objetivo es proyectar una estrategia para el periodo 2022-2024. Hasta la actualidad solo se han definido la misión, visión y valores centrales de la organización siendo estos los siguientes: Misión: Somos un grupo empresarial del sector de la informática y las comunicaciones. Nuestra misión es dinamizar el proceso de informatización de la sociedad cubana, mediante el desarrollo integral de infraestructuras y servicios informáticos innovadores, con una fuerza de trabajo altamente calificada y comprometida. Visión: Somos una organización empresarial de referencia en el proceso de informatización de la sociedad cubana, por la inserción efectiva de nuestros servicios y soluciones TIC y las competencias de nuestros profesionales. Objetivos Estratégicos: Lograr una inserción efectiva y segura de aplicaciones y servicios innovadores., asegurar el crecimiento y desarrollo sostenible del GEIC, Lograr que la gestión del capital humano y la aplicación de la política de cuadros, garanticen el cumplimiento de los objetivos del GEIC, Asegurar la continuidad de la dirección revolucionaria y profesional en los cargos de cuadros, Perfeccionar el sistema de dirección y gestión empresarial del GEIC. Valores compartidos: Sentido de pertenencia (Nos sentimos parte de la organización y tomamos sus objetivos como propios), Creatividad (Buscamos nuevas alternativas de solución para resolver los problemas que se presentan, con el fin de alcanzar los objetivos propuestos), Trabajo en equipo (Unimos esfuerzos y compartimos conocimientos, experiencias e información), Profesionalidad (Nos desempeñamos con esmero, de forma competente y bajo los principios éticos de la profesión, orientamos nuestra acción al logro del bienestar de la sociedad) Lealtad (Defendemos los principios del socialismo y somos fieles a los más puros ideales de libertad, justicia y solidaridad, así como a los principios éticos y valores institucionales). Competencias laborales y organización que aprende: La organización no tiene identificada las competencias organizacionales como tampoco de los procesos que la componen y de los puestos de trabajo. A partir del ejercicio estratégico que se lleva a cabo en la OSDE, se definirán las competencias laborales de la organización, implementando las herramientas existentes y con la participación de los miembros que integran el equipo que realiza el ejercicio estratégico. Significar que la OSDE-Geic cuenta con un procedimiento de competencias laborales que describe el proceso de identificación de las competencias laborales en los tres niveles correspondientes, el que está alineado con los requisitos establecidos en la NC: 3001-3002: 2007 del Sistema de Gestión Integrado de Capital Humano. Por otra parte, se implementa en la OSDE-Geic, mediante la instrucción 3 el Modelo de Formación Continua por Competencia, conformado por una comisión que se creó para trazar la estrategia de formación continua en el Geic. El modelo consta de 16 pasos a realizar, en el paso no. 7, establece como requisito la determinación de las competencias laborales y los roles de los puestos de trabajo, además, el modelo Perfil de Roles por Competencias. La formación y desarrollo no está basada en las competencias laborales que debe desarrollar el trabajador en su puesto de trabajo. Por lo cual, no se determinan las brechas de conocimientos de los trabajadores, incidiendo en la determinación de las necesidades de capacitación y en la gestión del plan de formación los que no están generalmente orientados a eliminar estas brechas de conocimientos y lograr los niveles de competencias exigidos. Subsistemas y Políticas de la Gestión de los Recursos Humanos: La organización cuenta con un procedimiento para la capacitación y desarrollo de sus trabajadores. Se elabora y aprueba por el Presidente de la OSDE-Geic, el plan de formación y desarrollo por año, a partir de la determinación de las necesidades de capacitación identificada por los directivos de la organización. Se aprueba un presupuesto dirigido a la gestión de las acciones de formativas. Mencionar que la formación no está orientada a las competencias de los cargos, sino a las funciones que estos deben desarrollar en el mismo. No se evalúa el desempeño de los trabajadores por las competencias laborales de los puestos de trabajo, sino por indicadores fijos que no permiten, identificar las brechas reales de conocimiento que presentan y que deben desarrollar a partir de un plan de formación para alcanzar el nivel de competencia deseado. Política de flujo de recursos humanos: La fuerza de trabajo se garantiza a partir de la gestión del personal teniendo como fuentes de ingreso la bolsa de empleado del MTSS y la asignación de fuerza de trabajo calificada proveniente de los centros educacionales, la que se planifica en un periodo de 9 años y se actualiza todos los años. La planificación del personal no se basa en estudios y técnicas de organización del trabajo donde se realizan estudios de balance de carga y capacidad para lograr el número de personas necesarias en la organización. La selección de la fuerza laboral se desarrolla a partir del procedimiento aprobado en la organización que describe los pasos a seguir en este proceso. La selección no tiene un enfoque por competencias, al no estar esta última identificadas, por lo que, se dificulta identificar las competencias que exige el cargo y las reales del candidato que se está procesando. Por tanto, la formación desde el inicio no está orientada a desarrollar las competencias que requiere el trabajador de nueva incorporación para desempeñas sus funciones y alcanzar los resultados esperados. Política de sistemas de trabajo: Para evaluar los subsistemas de Capital Humano en la OSDE-Geic, se aplicó la lista de chequeo de la Tecnología de Diagnóstico del Sistema de Capital Humano asociada a los aspectos que establece la NC: 3000,3001,3002 sobre el Sistema de Gestión Integral del Capital Humano. Esta herramienta tiene como objetivo evaluar el desarrollo de cada uno de los módulos que conforman el Sistema de Gestión del Capital Humano en la organización, siendo estos los siguientes: evaluación de las premisas, competencias Laborales, organización del trabajo, selección e Integración, capacitación y desarrollo, estimulación material y moral, seguridad y salud en el trabajo, evaluación del desempeño, comunicación institucional, autocontrol Comportamiento del estado de cumplimiento de las premisas: Se evaluaron un total de 5 premisas que contienen de forma general 19 criterios a evaluar mediante indicadores que miden el estado de implementación de las mismas. El diagnóstico arrojó que las premisas en la organización se implementan en un 75%, por lo que, no existe orientación estratégica., el resultado se observa en la figura 8. Figura 9: Estado de implementación de las Premisas. Las premisas que presentan un bajo nivel de implementación es, la participación efectiva de los trabajadores con un 60%, la orientación estratégica y las competencias de los directivos y trabajadores con un 66.67%. Comportamiento del estado de cumplimiento de los módulos que componen el Sistema de Gestión del Capital Humano: Para determinar el nivel de cumplimiento de cada uno de los módulos del SIGCH a partir de los aspectos que contiene la NC 3001-2:2007 se aplicó la lista de chequeo, obteniéndose que el Sistema de Gestión del Capital Humano se cumple en un 64.20%, incidiendo significativamente los siguientes componentes: competencias laborales (33.33%), organización del trabajo (33.33%), capacitación y desarrollo (33.33%) y la selección y empleo (55.56%). El resultado de cada uno de los módulos se muestra en la siguiente tabla: Tabla 1: Evaluación de los módulos SIGCH. Competencias Laborales: No están identificadas en la organización las competencias laborales de la organización, de los procesos y los puestos de trabajo. Organización del trabajo: No se realizan estudios de organización del trabajo orientados a determinar el número de trabajadores necesarios, estudios de tiempo, aprovechamiento de la jornada laboral y no se diseñan los puestos de trabajo orientados a la ejecución de las acciones estratégicas que dan cumplimiento a los objetivos trazados. Capacitación y Desarrollo: La formación no está orientada a partir de las competencias de los puestos de trabajo, por tanto, no se identifican las brechas de conocimiento de los trabajadores a partir de las competencias que a estos le falta por desarrollar y que el puesto de trabajo y la organización requieren para cumplir sus objetivos estratégicos. Selección y Empleo: La selección no se realiza con un enfoque por competencia. Por otra parte, no cuenta con un programa de acogida para los trabajadores de nueva incorporación en la organización. Evaluación del Desempeño: La evaluación tampoco está enfocada y orientada por las competencias laborales, por tanto, no actúa como una herramienta para determinar las brechas de conocimiento a partir del estado deseado por el cargo y el real que posee el trabajador. Costos eficaces y productividad del trabajo: En el caso de la OSDE, sus indicadores económicos están relacionados con los gastos, teniendo en cuenta que esta es financiada a partir de aporte de las empresas integradas. En el caso de la productividad del trabajo se mide a partir del valor agregado bruto de las empresas por sus aportes financiero. En la tabla siguiente se muestran los indicadores: Tabla 2: Comportamiento de los indicadores económicos Problemas detectados en el Sistema de Gestión del Capital Humano y la identificación de sus causas: A partir de los resultados derivado del diagnóstico se define a través del diagrama Ishikawa que se muestra en la figura 9, se detecta que la Gestión del Capital Humano en la OC de la OSDE-Geic es ineficiente, provocado por la deficiente organización del trabajo, gestión de las competencias laborales, formación y desarrollo, la inadecuada selección del personal y evaluación del desempeño. . Figura 10: Diagrama Causa-Efecto. Se propone para dar solución a los problemas detectados mediante la aplicación del Diagnóstico realizado, confeccionar un procedimiento para implementar un Sistema de Gestión del Capital Humano, conformado por 6 etapas que contienen 37 pasos. En la figura 11 se muestra el procedimiento propuesto Figura 11: Procedimiento para la implementación de un SGCH 4. CONCLUCIONES 1. El diagnóstico realizado a través del Modelo GRH-DPC y la aplicación de la lista de chequeo que evalúa los requisitos de la NC 3000-3002:2007 refleja que existe una inadecuada Gestión del Capital Humano la cual no está alineada a la estrategia de la OSDE-Geic. 2. Se determinó a través del método Ishikawa que existe una inadecuada GCH provocada por la deficiente organización del trabajo, gestión de las competencias laborales, formación y desarrollo, la inadecuada selección del personal y evaluación del desempeño. 3. Para dar solución al problema detectado se confeccionó un procedimiento para implementar un Sistema de Gestión del Capital Humano en la OC de la OSDE-Geic. 5. RECOMENDACIONES 1. Implementar el procedimiento en toda las estructura de la OSDE-Geic. 2. Elaborar un procedimiento que describa los pasos para efectuar los estudios de organización del trabajo y la compensación. 3. Evaluar el desempeño de la organización alineado al desempeño de los procesos y puestos de trabajos. 4. BIBLIOGRAFÍA 1. Cuesta Santos (2010), Tecnologías de Gestión de Recursos Humanos (Editorial Félix Varela). Ciudad de la Habana: Instituto Cubano del Libro. 2. Fleitas Triana y García Fenton (2018): Pprocedimiento para el estudio e implementación de la organización del trabajo diseñado por Norma Cubana: 3000,3001,3002-2007: Sistema de Gestión Integrada del Capital Humano. 3. Idalberto Chiavenato (2008), Administración de Recursos Humanos, el Capital Humano 4. Redmon y Rodríguez 2017: Estudio de Organización del Trabajo en la Planta de Vegetales del Instituto de Investigación de la Industria Alimenticia. DIAGNOSTICO DE LA GESTIÓN DEL CAPITAL HUMANO Y EN EL GRUPO EMPRESARIAL DE LA INFORMATICA Y LAS COMUNICACIONES. DIAGNOSIS OF HUMAN CAPITAL MANAGEMENT AND IN THE BUSINESS GROUP OF INFORMATION TECHNOLOGY AND COMMUNICATIONS. Ing. Ivis Yoena Gutierrez Pérez 1* Dr. Sonia Fleitas Triana 2 *1 Grupo Empresarial de la Informática y las Comunicaciones, Directora de Organización y Capital Humano, Cuba; ivis.gutierrez@geic.cu 2 Universidad Tecnológica de la Habana José Antonio Echeverría, Profesor Titular, Cuba, armandocuestasantos@gmail.com RESUMEN Los cambios que hoy se producen en el entorno empresarial, caracterizados por la globalización de la economía, y la continua introducción de las nuevas tecnologías, las ventajas competitivas son y seguirán siendo las personas. La OSDE GEIC, ratifica en su nueva misión y visión la gestión del capital humano como un elemento vital para alcanzar las metas hasta el año 2030, estableciendo como uno de sus objetivos, Implementar sistemas de Gestión del Capital Humano, basado en tecnologías. El objetivo de esta investigación es diagnosticar la Gestión del Capital Humano. Se aplicó la tecnología de diagnóstico, proyección y control (GRH -DPC) arrojando una deficiente gestión del capital humano provocada por la falta de alineación con la estrategia. PALABRAS CLAVES: Gestión del Capital Humano, Estrategia, Competencias Laborales. ABSTRACT The changes that occur today in the business environment, characterized by the globalization of the economy, and the continuous introduction of new technologies, the competitive advantages are and will continue to be people. The OSDE GEIC, ratifies in its new mission and vision the management of human capital as a vital element to achieve the goals until the year 2030, establishing as one of its objectives, Implement Human Capital Management systems, based on technologies. The objective of this research is to diagnose Human Capital Management. The diagnosis, projection and control technology (GRH -DPC) was applied, showing a poor management of human capital caused by the lack of alignment with the strategy. 1. INTRODUCIÓN La Organización Superior de Dirección Empresarial (OSDE), denominada Grupo Empresarial de la Informática y las Comunicaciones (Geic), surge el 5 de enero de 2015 bajo el amparo de la Resolución No. 629 de 2014 del Ministro de Economía y Planificación (MEP) y la Resolución No. 627 de 2014 del Ministro de Comunicaciones. El GEIC actualmente está integrado por 9 empresas económicas y 4 instrumentales. Desde su surgimiento ha utilizado la planeación estratégica como herramienta de dirección para mejorar su competitividad utilizando el servicio de consultores especializados para la construcción y formulación de la misma. De esta manera desde el año 2017 y hasta el 2021, todas las estrategias formuladas han concebido, uno o varios objetivos estratégicos que responden a alcanzar un desarrollo del capital humano, pero no se ha logrado medir el avance del mismo, en lo fundamental por los aspectos siguientes:  No se definen las acciones que darán cumplimiento a la estrategia diseñada, dificultando la fase de implementación.  Falta de alineación entre las estrategias, las metas y los indicadores, desde su definición.  Los indicadores no son consistentes, es difícil medirlos a lo largo del tiempo (por ejemplo, por el mismo periodo que se ha establecido el objetivo estratégico);  No siempre detectan desviaciones en el logro de los objetivos y como consecuencia no son útiles para tomar decisiones oportunas;  No son programáticos, sobre todo porque cambian de año en año, muchas veces sin una fundamentación lógica; perdiendo la alineación con los objetivos estratégicos;  Cambios en la misión y visión de un año a otro. En el año 2021, culminada la vigencia de la última estrategia aprobada, atendiendo a los sucesos del entorno y necesidades internas del GEIC y al impacto de la Tarea Ordenamiento, se decide actualizar el plan estratégico del Grupo Empresarial para el periodo 2022-2024 y prospectivamente hasta el 2030. La nueva misión y visión del Grupo declaraban el camino a seguir y en su eje central destacaban que solo era posible con una fuerza de trabajo altamente calificada y comprometida, constituyendo una referencia por sus competencias. Misión: Somos un grupo empresarial del sector de la informática y las comunicaciones. Nuestra misión es dinamizar el proceso de informatización de la sociedad cubana, mediante el desarrollo integral de infraestructuras y servicios informáticos innovadores, con una fuerza de trabajo altamente calificada y comprometida Visión: Somos una organización empresarial de referencia en el proceso de informatización de la sociedad cubana, por la inserción efectiva de nuestros servicios y soluciones TIC y las competencias de nuestros profesionales. Para lograr las metas alcanzadas era necesario realizar un diagnóstico de la situación actual de la gestión del capital humano del Grupo Empresarial de la Informática y las Comunicaciones. Se aplicó la Lista de chequeo de la Tecnología de Diagnóstico del Sistema de Capital Humana, donde se aprecia como resultado de la evaluación de las premisas una deficiente orientación estratégica en cuanto al Sistema de Gestión Integrada de Capital Humano y se evidencian las brechas existentes en los nueve módulos que conforman este sistema. A partir de lo antes expuesto, se agruparon las causas en el Diagrama Ishikawua que están afectando la medición del desarrollo del capital humano del GEIC, alineado a su estrategia, determinándose como efecto una insuficiente capacidad para medir y realizar un seguimiento al cumplimiento de los objetivos estratégicos sobre el desarrollo del capital humano, lo que implica: Fallos en la función directiva y en la toma de decisiones que afecta la mejora continua. Para dar solución al problema planteado se define como objetivo general: 1. Diagnosticar la Gestión de los Recursos Humanos en el GEIC. Una singularidad de esta investigación es que se realiza durante el proceso de actualización de la estrategia a nivel de Grupo Empresaria hasta el 2024 y la ejecución de un ejercicio estratégico prospectivo con un horizonte hasta el 2030. 2. MATERIALES Y MÉTODOS La metodología empleada, que permite desarrollar esta investigación es descriptiva, cualitativa y cuantitativa. El objetivo principal del estudio fue: Diagnóstico de la Gestión del Capital Humano en el Grupo Empresarial de la Informática y las Comunicaciones y determinar las Competencias Claves de la Organización una vez concluido el ejercicio estratégico hasta el año 2024, donde se definieron la misión, visión, valores centrales, conductas estratégicas, áreas claves y objetivos e indicadores. Para el desarrollo de este trabajo se utilizaron los siguientes métodos de investigación:  Métodos teóricos: posibilitan la interpretación conceptual de los datos empíricos; crean las condiciones para ir más allá de las características fenoménicas y superficiales de la realidad de la Empresa, explicar los hechos y profundizar en las relaciones esenciales y las cualidades fundamentales de los procesos no observables directamente.  Análisis y síntesis: propicia la interpretación de la información sobre el problema y de los diferentes criterios al respecto, con la finalidad de procesar la información recogida y arribar a conclusiones.  Método analítico: Método de investigación que consiste en la desmembración de un todo descomponiéndolo en sus partes o elementos para observar las causas, naturaleza y los efectos. El análisis es la observación y examen de un hecho en particular.  Histórico-Lógico: para sistematizar el estudio documental bibliográfico de distintas concepciones acerca de los diferentes aspectos de la investigación.  Métodos estadísticos: permiten organizar, tabular, procesar y analizar los datos empíricos, contribuyendo a establecer tendencias, relaciones y generalizaciones en el fenómeno u objeto de investigación. Dentro de los mismos la estadística descriptiva para la distribución de las puntuaciones o frecuencias para el análisis de datos y la valoración de los resultados de las encuestas aplicadas.  Método holístico: La investigación holística “es una propuesta que presenta la investigación como un proceso global, evolutivo, integrador, concatenado y organizado. La investigación holística trabaja los procesos que tienen que ver con la invención, con la formulación de propuestas novedosas, con la descripción y la clasificación, considera la creación de teorías y modelos, la indagación acerca del futuro, la aplicación práctica de soluciones, y la evaluación de proyectos, programas y acciones sociales, entre otras cosas.” Para la realización del diagnóstico del sistema de Gestión del Capital Humano de la OSDE-GEIC, se aplicó el modelo de Diagnóstico Proyección y Control (DPC) del Libro de Tecnología de los Recursos Humanos- 2019 escrito por el Dr. Armando Cuesta Santos. En el diagnóstico se utilizaron técnicas, instrumentos que permitieron caracterizar la fuerza laboral, además, se aplicó una lista de chequeo de la tecnología de diagnóstico del Capital Humano que evalúa el nivel de cumplimiento de los requisitos de la NC: 3001/2007 sobre el Sistema de Gestión Integrado del Capital Humano, lográndose detectar los principales problemas en la Gestión del Capital Humano de la OSDE-GEIC. El modelo de Gestión del Capital Humano (DPC), comienza con el análisis de los factores de base que son las fuerzas decisivas del entorno y del interior de la organización. A partir de aquí se comienzan a evaluar las características de la fuerza laboral de la organización, la cultura organizacional, los atractivos de la organización, la tecnología de la tarea, la leyes y valores de la sociedad y los grupos de interés. Este modelo viene acompañado de un conjunto de herramientas e instrumentos de trabajo que se utilizaron como: Encuesta de la Naturaleza de las personas, encuesta de Likert, encuesta de satisfacción laboral, encuesta de organización que aprende, el método Ishikawa para el análisis de causa efecto, utilizamos el Ishikawa ponderado para determinar las principales causas que inciden en el efecto. Dentro de las técnicas aplicadas está la Dinámica de Grupo, la cual es una técnica de discusión verbal para debatir sobre un tema y alcanzar un acuerdo sobre el mismo, el objetivo fue identificar a través de la tormenta de ideas las competencias más importantes de la organización y que se necesitan para cumplir con la misión y visión y en armonía con los valores. 3. RESULTADOS Y DISCUCIÓN El presente capítulo tiene como objetivo diagnosticar la gestión de capital humano desde la perspectiva del control que debe realizar la OSDE-Geic, a partir del Modelo de Diagnóstico, Proyección y Control (DPC) propuesto por el Dr. Armando Cuesta Santos. La evaluación diagnóstica nos permite identificar la problemática de forma integral del capital humano que posee el GEIC. Caracterización del Grupo Empresarial de la Informática y las Comunicaciones. La Organización Superior de Dirección Empresarial-Grupo Empresarial de la Informática y las Comunicaciones (OSDE-Geic) surge en el año 2015 integrada por 18 organizaciones, entre empresas económicas, sociedades mercantiles de capital 100 % cubano y empresas instrumentales. Desde su creación ha cumplido funciones de dirección, coordinación y control, con respecto a las entidades que la integran, lo cual ha estado refrendado en las resoluciones establecidas a tal efecto. Actualmente el GEIC está integrado por 9 empresas económicas y 4 instrumentales; desde su creación, su misión ha estado centrada en orientar, dirigir y controlar a las entidades subordinadas, cuya actividad fundamental está vinculada a la informática y las comunicaciones, la cual ha ido transformándose a partir de los ejercicios estratégicos realizados: 1. Empresa Desoft. 2. Empresa Softel. 3. Empresa Segurmatica. 4. Empresa Radiocuba. 5. Empresa Cubatel. 6. Empresa Movitel. 7. Empresa Solintel. 8. Empresa Sepcom. 9. Empresa Telan. Su sistema de trabajo se basa en el respeto a la autonomía de las empresas. La OSDE-Geic se auxilia de varias estrategias que permiten conducir actividades trascendentales con mayor homogeneidad entre sus empresas, tales como: Comunicación Empresarial, Exportaciones, Planeación Estratégica y Formación y Desarrollo, las cuales se encuentran documentadas, para viabilizar su implementación:  Estrategia de comunicación online de la OSDE-Geic. Objetivo: Integrar los canales online a la gestión de la comunicación organizacional/corporativa/comercial en aras de lograr el posicionamiento del GEIC y sus empresas en sus públicos estratégicos, teniendo en cuenta las directrices de trabajo para la web, y en las redes sociales.  Estrategia de comunicación de la OSDE-Geic. Objetivo: Servir como matriz para regular los procesos de comunicación organizacional.  Plan de Comunicación de la OSDE-Geic 2020-2025. Objetivo: Fundamentar una herramienta operacional de comunicación con carácter corporativo e institucional, que permita garantizar el posicionamiento y la reputación de la organización OSDE-GEIC en sus escenarios y tipologías de públicos, actual y potencial. Coadyuvar a la identificación de oportunidades y acciones que contribuyan a fortalecer las sinergias entre la OSDE y sus empresas, desde la gestión de comunicación.  Modelo de Formación continua común basado en programas de formación y certificación de competencias de la OSDE-Geic y las entidades integradas. Objetivo: Proveer a las empresas de una herramienta de trabajo para garantizar la formación continua de sus trabajadores. Lineamientos Generales, los cuales se firman entre la OSDE-Geic y el Sindicato Nacional y consiste en un acuerdo concertado y suscrito a fin de establecer las condiciones de trabajo que rigen las relaciones laborales individuales y colectivas, los derechos y obligaciones de las partes, así como compulsar la ejecución de los planes y objetivos de trabajo mediante la gestión administrativa y el amplio desarrollo de la actividad e iniciativa de todos los trabajadores. Su situación Financiera al cierre del primer trimestre de 2021 es favorable en tanto:  Dispone de 1.48 pesos de activo circulante por cada peso de pasivo circulante, por lo que no tiene dificultades para cubrir sus obligaciones corrientes.  Cuenta además con 2.56 pesos de activo real (activo circulante más activo fijo neto) por cada peso de financiamiento ajeno (pasivo circulante más pasivo fijo), por lo que está en condiciones de cubrir todas sus obligaciones con sus activos.  Esta condición, liquidez general y solvencia, determinan que el GEIC es una entidad equilibrada desde el punto de vista financiero.  El nivel de endeudamiento (financiamientos ajenos contra financiamientos propios), refleja un nivel de riesgo bajo, al ser solo de 0.39 centavos por cada peso.  La autonomía (financiamientos propios contra financiamiento total), también refleja un bajo nivel de riesgo al ser de 0.61 centavos por cada peso.  Por otro lado, la rentabilidad sobre ventas (utilidad por cada peso de ventas); la rentabilidad económica (utilidad por cada peso de activo invertido) y la rentabilidad financiera (utilidad por cada peso de financiamiento promedio), reflejan niveles aceptables al ser de 0.32 centavos; 0.24 centavos y 0.36 centavos en ese orden. Diagnóstico de la Gestión de los Recursos Humanos por el Modelo de Gestión de Recursos Humanos- Diagnóstico Proyección y Control (GRH-DPC). El modelo GRH-DPC, describe una tecnología para el diagnóstico y la proyección de la GRH, se adecúa a la práctica laboral de cualquier organización del país y su funcionalidad radica en que en la medida que se va diagnosticando e interpretando, se va proyectando, para ejecutar y transformar posteriormente, según lo proyectado y finalmente controlar esa gestión consecuente con la estrategia organizacional. Se excluye de este diagnóstico la empresa Sepcom y Telan. Factores de base. El modelo GRH-DPC tiene como centro a la persona manifiesta en su educación y desarrollo, es por ello que se parte de conocer la situación de determinados elementos agrupados en el concepto: "Factores de Base", a saber:  Caracterización de las personas que trabajan;  Cultura organizacional;  Atractivo de la organización;  Tecnologías de las tareas;  Leyes y valores de la sociedad. A continuación, se analizan cada uno de ellos en el Grupo Empresarial (GEIC). Característica de las personas que trabajan: El GEIC cuenta con una plantilla aprobada de 4273 trabajadores, la cual se encuentra cubierta con 3825 (89.52%); el 44 % de ellos son mujeres. En cuanto a la categoría ocupacional predominan los técnicos, 2921 para un 76 % a partir de las misiones que cumplen las empresas que integran el GEIC; son cuadros 393; 361 son operarios; 148 son trabajadores de servicios y 2 ostentan la categoría de administrativos. El rango de edad, se comporta de la siguiente manera:  Hasta 40 años: 1938 (50,67%).  De 41-50 años: 762 (19,92%).  De 51-60 años: 837 (21,88 %).  Mayor de 60 años: 288 (7,53%). Como se observa, predominan los jóvenes con una presencia más acentuada en las empresas de software Desoft y Softel. Encuesta sobre la Naturaleza de las personas: Para la aplicación de las encuestas se define la población: total de trabajadores físicos en las áreas de resultados claves y se define con la utilización del software Sample Size Calculator el tamaño de muestra necesaria, el cual arroja 93 trabajadores, posteriormente se distribuye entre las empresas, con un margen de error de 10% y un nivel de confianza de 95%. Entidades Población Cálculo de la Muestra Muestra 93 Solintel 21 0,82 1 Cubatel 129 5,06 5 Desoft 1351 53,00 48 Radiocuba 840 32,95 30 Softel 72 2,82 3 Segurmatica 48 1,88 2 Movitel 74 2,90 3 OSDE 14 0,55 1 Total 2549 100 93,00 El resultado de la encuesta sobe la naturaleza de las personas es el siguiente: Sobre las Motivaciones: El 75% de las personas le gusta el trabajo que realiza, el 45% se siente estimulado en la empresa, el 53% cree que desempeña bien su trabajo, el 20% cree que puede realizar otras funciones y el 72 % le gustaría recibir cursos de superación. Entre las aspiraciones profesionales, se destaca la superación en maestrías y las certificaciones internacionales. Sobre el Clima Organizacional: Para evaluar este aspecto se calculó el promedio de los criterios emitidos ya sea de la situación actual como de la deseada, en el (Figura 1) se aprecia la comparación entre la situación actual y deseada. . Sobre la Administración por Objetivos: Para medir este indicador también se determinó el promedio de los criterios lográndose apreciar que los tres niveles alcanzaron buenos niveles de percepción (Figura 2). Sobre los estilos de dirección: Cultura organizacional: La cultura organizacional es propia de cada entidad y a nivel de grupo empresarial está caracterizada por valores como la profesionalidad, la disciplina y la honestidad. 0 1 2 3 4 5 6 7 8 Cordialidad Estimulación Organización Desarrollo del potencial creativo Clima Organizacional Valor deseado Valor actual Figura 1 Resultados de la encuesta sobre clima organizacional. Fuente: Elaboración Propia. Figura 2 Resultados de la encuesta sobre Administración por Objetivos. Fuente: Elaboración Propia. Se aplica la encuesta Likert a la muestra seleccionada para conocer cuáles características organizativas del Grupo Empresarial en su conjunto. Una vez aplicada la encuesta de Likert se puede apreciar que a nivel de Grupo Empresarial existe un estilo de dirección consultivo, obtenido del valor de las medias de cada pregunta con un nivel de 12.7 puntos (Figura 3). . 2.2.1.3 Atractivo de la organización: La imagen es el reflejo de la personalidad de una organización, es por ello que se convierte en una ventaja o desventaja desde el punto de vista de atraer o conservar a los empleados, es un elemento que se mide en tres dimensiones a corto, mediano y a largo plazo. Para responder a la pregunta clave; Qué capacidad de atractivo posee el Grupo Empresarial de la Informática y las Comunicaciones, para los empleados actuales y futuros, y cómo se anticipa a las tendencias del entorno del cual obtiene sus personas; nos apoyamos en los resultados que recientemente (mayo 2021) se obtuvieron en una encuesta aplicada sobre la "gestión de los intangibles en el GEIC” y en los resultados de la aplicación de la "Lista de comprobación de satisfacción personal". Resultado de la encuesta para el diagnóstico de la gestión de los intangibles en el GEIC (2021). La encuesta fue aplicada a 404 trabajadores del GEIC, de las encuestas procesadas, el 70 % corresponden a la empresa Desoft; el 58.6% a trabajadores del sexo femenino, el 58.6% pertenecen a trabajadores de edad entre 31 y 45 años y el 60% laboran en la actividad fundamental de la empresa. Los resultados de la misma se utilizaron para determinar por un grupo de expertos, las fortalezas que hacia lo interno posee el grupo empresarial, las cuales se relacionan a continuación:  Se cuenta con la tecnología basada en conocimiento que permite reducir costos, ofrecer nuevos servicios y competir en el mercado.  Se cuenta con una alta formación, calificación y capacitación de los trabajadores de nivel superior, asociados a especialidades del sector.  Alto compromiso de los trabajadores con la organización.  Estructura empresarial que permite brindar múltiples servicios en el sector de las TIC y las telecomunicaciones.  Estabilidad económica –financiera que se expresa en indicadores satisfactorios de solvencia, liquidez y rentabilidad. Resultado de la aplicación de la Lista de comprobación de satisfacción personal. Se aplicó la lista de comprobación de satisfacción laboral con el objetivo de conocer que atractivo posee la organización para sus empleados a partir del coeficiente de satisfacción laboral que los mismos tienen. Como se aprecia en el (Figura 4) el salario es el aspecto que más insatisfacción causa, lo que se debe en lo fundamental al salario que se paga en las empresas que son nuestras competidoras. El aspecto con mayor calificación es la satisfacción, los trabajadores reconocen las oportunidades de capacitación que tienen en 0 5 10 15 20 25 30 Autoritario Auutoritario-Benevolo Consultivo Participativo Estilos de Dirección Figura 3 Resultados de la encuesta de Likert. Fuente: Elaboración Propia. el Grupo Empresarial. En el caso de la estimulación moral y material se quejan de la estimulación material, pues existen muy pocas alternativas para ello. Tecnologías de las tareas: Para el cumplimiento de su misión la OSDE-Geic, definió los procesos estratégicos, claves y de apoyo atendiendo a las funciones que desempeña respecto a las empresas, no obstante, todavía se encuentra en la fase de implantación de su sistema integrado de gestión:  Procesos estratégicos: Dirección estratégica y Mejora continua.  Procesos claves: Control y Supervisión y Coordinación de proyectos integrados.  Procesos de apoyo: Gestión del CH; Soporte TIC; Administración de recursos; Servicios Internos y Servicios Jurídicos. En cuanto a las empresas integradas, cada una, según su estrategia, tiene definido sus procesos, aunque solo una de ellas, la empresa Productora de Software para la Técnica Electrónica (Softel) cuenta con su Sistema de Gestión de Calidad certificado por la Norma ISO-2015. En el diagnóstico estratégico realizado durante el ejercicio estratégico en el año 2021 se identifican a partir de la matriz de factores internos, que el entorno interno de trabajo en el Grupo Empresarial es favorable sin embargo se identifican siete debilidades que gravitan sobre los procesos de trabajo de las empresas (Figura 5). 1. Insuficiente infraestructura tecnológica. 2. La mayoría de las empresas no trabajan con normas ni estándares de calidad reconocidos internacionalmente, solo una se ha certificado por las normas ISO (Softel). 3. Lenta transformación digital de las empresas (el realineamiento de tecnología, modelos de negocio y procesos, dirigido a entregar mayor valor a clientes y empleados para competir en la economía digital) y migración a la nube. 4. Los resultados de la actividad de I+D+I no logran materializarse en productos y servicios. 5. Insuficiente evaluación de las competencias laborales. 6. Insuficiente gestión de mercadotecnia y enfoque al cliente. 7. Insuficiente utilización de las herramientas económicas financieras para la toma de decisiones. 60 82 100 90 85 74 0 20 40 60 80 100 120 Salario Motivación Capacitación SST OT Estimulación moral y material Resultado encuesta de satisfacción laboral Figura 4 Resultados de la encuesta sobre satisfacción laboral. Fuente: Elaboración Propia. Leyes y valores de la sociedad: El perfeccionamiento empresarial en Cuba, ha transitado por varios cambios en su legislación en aras de dejar en manos de sus empresas las estrategias particulares para sus negocios. El actuar de las empresas integradas y de la Organización Superior de Dirección del Grupo Empresarial de las Informática y las Comunicaciones, se rige por lo establecido en el Decreto Ley No.34, donde quedan regulados sus principios de organización y funcionamiento. La gestión de dirección y control de la OSDE-Geic; así como el desempeño de sus empresas integradas, se ejecuta observando el cumplimiento de la Constitución de la República de Cuba, los acuerdos adoptados por el 8vo. Congreso del PCC, la Estrategia de Desarrollo Económico y Social; los Lineamientos de la Política Económica y Social del Partido y la Revolución para el período 2021-2026, en particular lo referido a la implementación de la Política integral de informatización, la elaboración de la agenda digital hasta el 2030 y la Política para la transformación digital de la sociedad. Grupos de Interés: El GEIC tiene identificado los grupos de interés en el orden interno y externo, los cuales se pueden ver afectados directa e indirectamente a partir del grado de implicación que tienen con el desarrollo del Grupo Empresarial y viceversa; entre ellos se encuentran: Directivos: Se identifican en este grupo al presidente y vicepresidente de la OSDE-Geic, así como los directores y presidentes de las entidades integradas, que son nomenclatura de la comisión de cuadro a nivel de Grupo Empresarial. Trabajadores: Todos los trabajadores del Grupo Empresarial sin distinción de la categoría ocupacional que ostentan. Sindicato: En este caso, se reconoce a nivel de Grupo Empresarial al Sindicato Nacional de Trabajadores de Comunicaciones, la informática y la electrónica., con el que se firma lineamientos generales, para la concertación y actualización de los Convenios Colectivos de Trabajo de cada empresa. Gobierno: Autoridad que dirige, controla y administra las instituciones del Estado, el cual consiste en la conducción política general o ejercicio del poder el Estado. Junta de Gobierno: órgano colegiado de dirección que representa los intereses del Estado cubano en cuanto al control de la actividad empresarial, que se crea con el objetivo de atender las organizaciones superiores de dirección empresarial. Ministerio de Comunicaciones: Organismo de la Administración Central del Estado cubano, con quien se tiene u vínculo más estrecho por las actividades que desarrolla el Grupo Empresarial de la Informática y las Comunicaciones. OACE: Organismos de la Administración Central del Estado, dentro de los cuales se reconoce con mayor vínculo los organismos globales como el Ministerio de Economía y Planificación (MEP); el Ministerio de Finanzas y Precios (MFP); el Ministerio de Trabajo y Seguridad Social (MTSS); el Ministerio de Ciencia Tecnología y Medio Ambiente (CITMA); el Ministerio de Educación (MED) y el Ministerio de Educación Superior (MES). Universidades: Entre las cuales se destacan la Universidad Tecnológica de La Habana “José Antonio Echeverría”; Universidad de Ciencias Informáticas (UCI); Universidad de Matanzas; Universidad de La Habana Universidad de Oriente; Universidad Central de Las Villas Clientes: Todas las personas naturales o jurídicas, instituciones, formas no estatales de gestión, entre otras figuras jurídicas, que compran los productos y servicios de nuestras entidades integradas. Proveedores: Todas las entidades que proveen a nuestras empresas, productos, insumos, materias primas y materiales para garantizar sus procesos de trabajo. Competencias laborales y organización que aprende. Atendiendo al alcance de la presente investigación se constata que a nivel de Grupo Empresarial; en su conjunto, no existe mecanismos ni estructuras que posibiliten que la organización creé, adquiera y transfiera conocimientos, gestionando conscientemente su aprendizaje. La estrategia a nivel de grupo para la formación continua se encuentra en estado de implementación en todas las empresas, siendo la más avanzada la empresa Desoft y Softel. Subsistemas y Políticas de la Gestión de los Recursos Humanos. Flujo de recursos humanos Respecto a la fluctuación laboral a nivel de Grupo; desde el año 2016 hasta el 2020, fluctuó cada año entre un 15-20 % de la fuerza laboral, las empresas con mayor fluctuación fueron: Solintel, Segurmática y la Oficina Central de la OSDE; en este último caso en el año 2020, se debió en lo fundamental a un proceso de disponibilidad, a partir de un estudio de organización del trabajo y de lo establecido en la Resolución 114 del Ministerio de Trabajo y Seguridad Social, del 30 de diciembre de 2019 donde se establecía en su disposición especial única, apartado (2) que el ajuste de las plantillas de la oficina central de las Organizaciones Superiores de Dirección Empresarial, debían ajustarse a 45 plazas, más 1.5 por encima, por cada empresa que las integraba, adicionándole a ese límite, las plazas que correspondían a los cargos de auditoría. Al cierre del primer semestre de 2021, habían causado baja por fluctuación laboral 169 trabajadores. Del total de trabajadores que fluctuaron el 22% son graduados de nivel superior en las especialidades sustantivas, de ellos: el 83% son de la actividad de la informática, el 14% son de telecomunicaciones y el 2% son automáticos. Lo más perjudicial para el desarrollo del Grupo Empresarial es que de estos trabajadores que causaron baja el 82% laboraban en las áreas claves. Tabla 1 Comportamiento del índice de fluctuación. Empresas Total de trabajadores Bajas por fluctuación % Desoft 2017 110 0.055 Cubatel S.A 199 16 0.080 Movitel 100 4 0.040 Radiocuba 1197 26 0.022 Segurmatica 63 2 0.032 Softel 105 2 0.019 Solintel S.A 43 7 0.167 OSDE 74 2 0.027 Total 3798 169 0.044 Educación y desarrollo de los RH. La capacitación y gestión por competencias se manifiesta en cada una de las empresas y sobre el tema en cuestión se señala que en los informes de balance del año 2020 de cada una de ellas se evidenció que todavía la capacitación es un proceso formal, no alineado a la estrategia y muy distante de gestionarse por competencias. A nivel de Grupo en el informe estadístico al cierre del primer semestre de 2021, se cumple al 85 % los planes de capacitación de las empresas, pero estos en su mayoría son conformados a partir de la identificación de brechas en el proceso evaluativo anual, según los perfiles de cargo diseñados y no como resultado de una gestión por competencias. Sistemas de trabajo Estado de implementación de las premisas de la NC 3002:2007. Para la implantación eficiente de los subsistemas y políticas de Recursos Humanos es necesario realizar un diagnóstico de las premisas que se establecen en la norma NC: 3001/2: 2007; utilizando la lista de chequeo de la tecnología del Sistema de Capital Humano. La evaluación de estas premisas nos permite conocer si el Grupo tiene una orientación estratégica donde se integre la gestión del capital humano. El diagnóstico arroja una evaluación de 77.19 %, lo que evidencia una orientación estratégica débil, los niveles más bajos están en la participación efectiva de los trabajadores con un 73.33 %, y el resto de las premisas obtienen una puntuación por debajo del 90%, entre ellas merece especial atención las competencias de los dirigentes y técnicos que atienden las actividades de recursos humanos (88,89%) pues de manera general no tienen pleno dominio de las capacidades financieras, tecnológicas y organizacionales que le permitan un desempeño adecuado en la formulación, implantación y control de la gestión del capital humano. La evaluación obtenida se muestra en la Figura 5. Figura 6: Estado de implementación premisas NC 3002:2007. Fuente: Elaboración propia Orientación estratégica (66,67%): A nivel de Grupo Empresarial se desarrolla un ejercicio estratégico que ya tuvo como salida en mayo de 2021, la definición de la misión y la visión, le falta por definir las soluciones con enfoque estratégico. No todas sus empresas, han actualizado la estrategia a partir de los cambios en el escenario y aunque las funciones de las áreas de cada una de las empresas y de la oficina central de la Organización Superior de Dirección Empresarial están definidas, necesitan ser revisadas desde la perspectiva de asegurar la calidad de los productos y la satisfacción a los clientes. Participación efectiva de los trabajadores (73,33%): los mecanismos para la participación de los trabajadores a nivel de Grupo Empresarial están creados, y refrendados en primer orden en los Lineamientos Generales que se firman entre la OSDE-Geic y el SNTCIE. Además de lo anterior se emiten indicaciones conjuntas entre las figuras antes mencionadas para el proceso político, de presentación, información y discusión del plan económico; pero la efectividad de esta participación parte de que en cada una de las empresas la estrategia de participación, se integre a la estrategia de la empresa y que el proceso de consulta a los trabajadores se realice durante los procesos y no de las decisiones ya tomadas. Competencias de los dirigentes y técnicos que atienden la actividad de Capital Humano (88,89%): Todas las empresas del Grupo y la Oficina Central de la OSDE; excepto la empresa Segurmática, cuentan con una estructura para la gestión de la actividad de Recursos Humanos, así como forma parte del primer nivel de dirección el directivo que cumple estas funciones, sin embargo, se evalúa de medio el aspecto referido, toda vez que no todos los directivos y técnicos que están al frente de la actividad poseen las capacidades financieras, tecnológicas, organizacionales que les permita un desempeño adecuado en la implantación de un sistema de gestión integrado de capital humano. Clima laboral satisfactorio (88.89%): El clima laboral es favorable, se atienden las condiciones de vida y trabajo de los trabajadores, cada una de las empresas y la OSDE, planifican en su presupuesto la atención a la alimentación, ropa, salud, transportación, entre otros aspectos de los trabajadores, pero la materialización a veces no es posible por problemas de ofertas como es el caso de los medios de protección. Liderazgo en la gestión de recursos humanos (88.89%): Se evalúa de medio este aspecto, pues todavía se percibe la actividad de recursos humanos como una actividad de apoyo que no se integra al sistema de dirección y gestión de la empresa. Estado de implementación de los requisitos de la NC 3001:2007. Después de evaluar cada uno de los acápites de la norma NC 3001:2007, utilizando la lista de chequeo, se obtiene como resultado un nivel de integración entre los módulos del sistema de gestión de capital humano de un 67.90%; este resultado está dado por el desempeño insuficiente en los módulos de: Competencias Laborales; Organización del Trabajo; Selección e Integración; Capacitación y Desarrollo; Estimulación Material y Moral; Seguridad y Salud en el Trabajo; Evaluación del Desempeño y Autocontrol. En el caso de la comunicación institucional se evalúa de medio su comportamiento. Tabla 2 Nivel de integración de los Módulos del Sistema de Gestión del Capital Humano. 4. CONCLUCIONES. 1. El diagnóstico realizado a través del modelo GRH-DPC y las NC 3000-3002:2007 refleja que existe una deficiente Gestión del Capital Humano provocada porque la gestión del capital humano no está alineada a la estrategia empresarial. 5. RECOMENDACIONES. 1. Alinear la gestión del capital humano a la estrategia empresarial. 5. BIBLIOGRAFÍA Cuesta Santos (2019), Tecnologías de Gestión de Recursos Humanos (Editorial Félix Varela). Ciudad de la Habana: Instituto Cubano del Libro. Módulos Evaluación Plan % I Competencias Laborales 30 45 66.67% II Organización del Trabajo 25 45 55.56% III Selección e Integración 30 45 66.67% IV Capacitación y Desarrollo 30 45 66.67% V Estimulación material y moral 30 45 66.67% VI Seguridad y Salud en el Trabajo 30 45 66.67% VII Evaluación del Desempeño 30 45 66.67% VIII Comunicación Institucional 40 45 88.89% IX Autocontrol 30 45 66.67% INTEGRACION INTERNA 275 405 67.90% Cuesta Santos, Valencia Rodríguez (2014), Indicadores de Gestión Humana y del Conocimiento en las Empresas, (ECOE Ediciones Ltda.), Bogotá. Idalberto Chiavenato (), Administración de Recursos Humanos, el Capital Humano de las Organizaciones, Octava Edición (Editora Atlas S.A) INTEGRACIÓN DE DATOS EMPRESARIALES EN LA EMCI Mavis Lis Stuart Cárdenas1, Tatiana Delgado Fernández1, Mercedes Delgado Fernández3, Manuel de la Iglesia Campos 1 1 Universidad Tecnológica de La Habana “José Antonio Echeverría”, Cuba, 2 Escuela Superior de Cuadros del Estado y del Gobierno, Cuba, email: mavis@ind.cujae.edu.cu, tatiana.tsp@gmail.com, mercedes@esceg.cu, miglesia@ceis.cujae.edu.cu RESUMEN En la transformación digital que está ocurriendo en todas las esferas de la sociedad moderna, los datos se están convirtiendo en un activo esencial en las organizaciones, y su gestión se torna más compleja, debido a su naturaleza voluminosa y variada, y a la dinámica en que se generan. Uno de los problemas más importantes para aprovechar este activo clave en la empresa lo constituye la falta de integración de datos heterogéneos, provenientes de diversos sistemas informáticos que existen en las organizaciones. Esto trae consigo un impacto negativo en el desempeño de los procesos operacionales, lo cual fue evidenciado en diagnósticos informacionales en más de 15 empresas cubanas. La integración de datos empresariales, en entornos de alta heterogeneidad sintáctica y semántica, utilizando grafos virtuales de conocimiento y alineado a las necesidades de la organización contribuye a mejorar el desempeño de los procesos operacionales. El trabajo presenta la aplicación de un modelo de integración de datos en la Empresa de Mensajería y Cambio Internacional (EMCI) de Correos de Cuba, en particular al proceso de planificación de la extracción de la carga del aeropuerto, donde se requirió la integración de datos heterogéneos de las prealertas o información adelantada de múltiples agencias, con la incidencia en un mejor desempeño del proceso operacional de las prealertas debido a la reducción del indicador del tiempo de estancia en el aeropuerto. PALABRAS CLAVES: datos heterogéneos, gestión de datos, datos integrados empresariales, grafos virtuales de conocimiento, proceso operacional INTEGRATION OF ENTERPRISE DATA IN THE EMCI ABSTRACT In the digital transformation that is taking place in all spheres of modern society, data is becoming an essential asset in organizations, and its management is becoming more complex, due to its voluminous and varied nature, and the dynamics in which they generate. One of the most important problems to take advantage of this key asset in the company is the lack of integration of heterogeneous data, coming from various computer systems that exist in organizations. This brings with it a negative impact on the performance of operational processes, which was evidenced in informational diagnoses in more than 15 Cuban companies. The integration of business data, in environments with high syntactic and semantic heterogeneity, using virtual knowledge graphs and aligned to the needs of the organization contributes to improving the performance of operational processes. The paper presents the application of virtual knowledge graphs in the International Messaging and Exchange Company (EMCI) of Correos de Cuba, in particular to the planning process for the extraction of cargo from the airport, where the integration of heterogeneous data from pre-alerts or advanced information from multiple agencies, with the impact on a better performance of the operational process of pre-alerts due to the reduction of the indicator of time spent at the air-port. KEY WORDS: heterogeneous data, data management, enterprise integrated data, virtual knowledge graphs, operational process. 1. INTRODUCCIÓN En el contexto empresarial cubano, uno de los problemas detectados en varios diagnósticos realizados sobre gestión de información fue la no integración de datos [1], [2], [3]. Dichos estudios corroboraron que la no integración de datos en entornos de alta heterogeneidad sintáctica y semántica [4] [5] limita su uso en el proceso de toma de decisiones y afecta el desempeño de los procesos operacionales [6]. Esta es una problemática reportada en la literatura, fundamentalmente en las empresas con una creciente heterogeneidad de fuentes, formatos y estructuras de información [7], [8] que unido a las aplicaciones informáticas no integradas entre sí y grandes volúmenes de datos distribuidos en varios sistemas complejizan el tratamiento adecuado de este importante recurso [9], [10], [11]. Una tecnología emergente utilizada para la integración de los datos son los grafos empresariales de conocimientos, también conocidos como KG (por sus siglas en inglés, Knowledge Graph). Estos grafos pueden ser usados para integrar diferentes fuentes de datos heterogéneas, [12], [13] [14], se usan en muchos sistemas de información que requieren acceso a conocimiento estructurado [15] con flexibilidad en la representación del conocimiento habilitando varios casos de uso [16]. El grafo de conocimiento está construido sobre otras bases de datos y al integrarse enriquecen e incrementan su valor [17], son fácilmente integrables y contribuyen a organizar los datos al interior de la empresa [18], pueden generarse a partir de la extracción de bases de conocimiento de la Web [19], ser editados por la colaboración de usuarios de la Web; o a partir de métodos de extracción de información de fuentes semiestructuradas o no estructuradas [20]. Para su representación los nodos del grafo representan entidades de interés y sus aristas representan relaciones entre estas entidades [21], El presente trabajo muestra la integración de datos empresariales basada en grafos virtuales de conocimiento en la Empresa de Mensajería y Cambio Internacional (EMCI) de Correos de Cuba. Se aplican dos dimensiones del Modelo de Gestión para la Integración de Datos Empresariales Basado en Grafos Virtuales de Conocimiento (INTEGRAL) [6], [22], [23]: la Alineación de los Objetivos Empresariales (AOE) y el Desarrollo de la Solución de Integración (DSI). Se aplica al proceso de planificación de la extracción de la carga del aeropuerto, donde se requirió la integración de datos heterogéneos de las prealertas o información adelantada de múltiples agencias, con la incidencia en un mejor desempeño del proceso operacional de las prealertas debido a la reducción del indicador del tiempo de estancia en el aeropuerto. 2. ALINEACIÓN DE LOS OBJETIVOS EMPRESARIALES EN LA EMCI La Empresa de Mensajería y Cambio Internacional (EMCI) es una de las 20 empresas que integran la Organización Superior de Dirección Empresarial (OSDE) Correos de Cuba. La EMCI brinda servicios de importación y exportación de correspondencia y encomiendas (bultos) postales, de mensajería y paquetería expresa, aduanales y transitarlos, y que asegura el correo oficial a los organismos y organizaciones del Estado cubano, además, de la relación con los 192 países pertenecientes a la Unión Postal Universal. La Dimensión Alineación a los Objetivos Empresariales garantiza la coherencia de la solución de Tecnología de Información (TI) para la integración con los objetivos y procesos de la EMCI, mediante la visión y desarrollo de una arquitectura mínima viable para lo cual se requiere desarrollar varias actividades, las que se explican a continuación. Actividad 1. Identificar problemas de desempeño en procesos operacionales El análisis de la documentación de la empresa permitió constatar que, a pesar de los resultados alcanzados en el desempeño operacional de la EMCI, en el transcurso de los últimos cuatro (4) años persisten problemáticas. Algunas de ellas son: 1) períodos de sobre saturación de productos en la planta, que incluye la llegada de contenedores por encima de la capacidad que se puede procesar y 2) demoras en la extracción de los envíos del aeropuerto. Estas problemáticas ocasionan demoras excesivas para la entrega de los productos (envíos) y crean insatisfacciones en los clientes con el consecuente aumento de solicitudes de información a las dependencias correspondientes de la EMCI y la OSDE. El indicador tiempo de entrega de los pedidos con frecuencia tiene valores por encima de lo establecido en las normas de calidad. Actividad 2. Visionar la arquitectura empresarial Al analizar la cadena logística de los envíos se evidencia el desarrollo de diferentes momentos: primero en el aeropuerto, segundo en la planta de procesamiento y el último en las oficinas de correo de los destinos, antes de llegar al cliente final. El tiempo asociado a cada uno de los momentos influye a favor o en detrimento de la entrega en tiempo de los envíos a los clientes. Una de las problemáticas identificadas, a partir del análisis del desempeño de la empresa, se relaciona directamente con la demora en la extracción de los envíos del aeropuerto, con una permanencia de los envíos en el aeropuerto por encima de los cinco días normados. Conjuntamente con los controles aduanales para la extracción de la carga del aeropuerto se debe realizar la planificación para la extracción de dicha carga. Esa operación la realiza la Dirección de Operaciones para lo cual debe considerar los datos relacionados con el contenido de los envíos incluidos en la carga, tales como: volumen total, peso total, totales de tipo de carga, entre otros datos de operación. La obtención de estos datos es posible a partir del análisis de la información que se brinda de forma adelantada, por los operadores Courier en las Prealertas. Sin embargo, se desaprovecha el potencial de esta información para la planificación de medios y recursos que garanticen en tiempo y forma el desarrollo exitoso de las operaciones, al no disponerse de una herramienta que brinde una visión consolidada de todas las prealertas, ni se dispone de los datos globales de operación. La solución de esta problemática a la que se enfrenta la Dirección General de la EMCI y la Dirección de Operaciones requiere de la integración de datos con enfoque de arquitectura empresarial. En línea con esta problemática, el objetivo de la arquitectura empresarial para la integración de datos en la EMCI es introducir una solución de integración con orientación a los procesos operacionales de la EMCI donde las insuficiencias informacionales y la alta heterogeneidad estén incidiendo negativamente en el desempeño de la empresa (alineación TI - empresa). Tal solución debe coexistir con el resto de las aplicaciones que existen en la EMCI, y con-sumir datos de dichas bases de datos, lo que proporciona la información integrada. Debe ser fácil y amigable, y también flexible y escalable. Para definir este objetivo, el equipo de arquitectura empresarial (profesores y especialistas de la Universidad Tecnológica de La Habana) sostuvo varias entrevistas con los directivos principales de la empresa, del área de operaciones y del departamento de informática. La tabla 1 despliega los roles en la EMCI para la Arquitectura Mínima Viable (AMV) de la solución de integración de datos. Tabla 1. Roles en la EMCI de la AMV Roles AMV Equipo de trabajo Arquitecto empresarial Consultor externo (CUJAE) Arquitecto de negocio Ingeniero ontológico Especialista Informático (Empresa Software contratada) Arquitecto de datos Arquitecto de aplicación/ tecnología Especialista de operaciones Experto en procesos operacionales de la EMCI Especialista Soporte técnico Especialista EMCI En esta investigación se aplica la integración de datos con grafos virtuales de conocimiento al proceso planificación de la extracción de la carga del aeropuerto que se lleva a cabo en el Servicio de Paquetería y Carga no comercial. Los diagnósticos de la gestión de la información evidenciaron [11], que existe un entorno de alta heterogeneidad sintáctica y semántica de los datos, que requiere de una integración alineada a los objetivos empresariales [22], Los objetivos y principios generales de la AMV para la solución de integración en la EMCI se muestran en la tabla 2. Tabla 2. Artefacto: principios referenciales de la AMV en la EMCI Capa de Principio Negocio La AMV se circunscribe al proceso de planificación de la extracción de la carga del aeropuerto, que incide de forma directa en el desempeño operacional identificado. Información Integración de datos con grafos virtuales de conocimiento de los datos de prealertas enviadas por las agencias Courier y DHL. Aplicación Consumo de datos provenientes de ficheros de prealertas, sin afectar los sistemas informáticos de EMCI. Tecnología Al ecosistema tecnológico de la EMCI se incorpora el grafo virtual de conocimiento que integra información de ficheros de prealertas. Actividad. Gestionar la capa de negocio de la arquitectura empresarial La carga, al llegar al aeropuerto se almacena en un depósito temporal para luego coordinar la fecha de distribución en función de las capacidades que posea el depósito de la EMCI y en función de la fecha de entrada a este depósito se coordina entonces la fecha de salida para su futuro traslado hacia el depósito de la EMCI. Desde aquí, la unidad organizativa de la Aduana General de la República otorga la fecha de salida de estos paquetes del depósito según el orden de llegada al mismo, y pasan entonces a la planta de tratamiento postal de la Oficina de Cambio Internacional (OCI). La figura 2 muestra el diagrama del nuevo servicio de integración de datos a partir de las prealertas. Figura 2. Diagrama del Mapa del nuevo proceso basado en prealertas La propuesta del nuevo proceso de prealertas soporta el uso del Grafo Virtual de Conocimiento que genera la solución de integración, y se incluyen nuevos procesamientos en la Dirección de Operaciones de la EMCI. Dicha propuesta dota a esta dirección de la capacidad de consultar integrada-mente los datos de los respectivos envíos, a partir de los datos recibidos en las prealertas, sin afectar el despliegue actual de dichos ficheros. Actividad. Gestionar la capa de información de la arquitectura empresarial Las prealertas constituyen las fuentes de datos sujetas a la integración para resolver la problemática de la EMCI relacionada con los tiempos de entrega del envío. Específicamente, las prealertas contienen la individualización de cada una de las Guías Courier que transporta el mensajero internacional y contiene información sobre la vía (aérea, terrestre o marítima) por la que se traslada la cantidad de bultos que contiene el envío y su peso en kilogramo, la agencia que lo envía, la línea área que lo transporta, el número de vuelo y el país origen. De cada envío en particular contiene un número identificativo, su peso individual, fecha, datos del remitente como nombre y número de identidad; descripción del contenido y datos del destinatario como nombre, carnet de identidad, dirección, provincia y municipio. Esta información se recibe y se procesa de forma separada por distintos especia-listas, y según sea la agencia que envíe las prealertas, varía el formato, esta información se recibe y se procesa de forma separada por distintos especialistas, y según sea la agencia que envíe las prealertas, varía el formato. La tabla 2 se corresponde con la identificación y caracterización de las fuentes de datos de las prealertas, para la creación de la Ontología de Integración. Tabla 2. Diversidad de formatos de prealertas Fuentes Ubicación Formato Uso Agencias COURIER Estación de trabajo Especialista Comercial de la empresa xls Validación Contenido Diseño del despacho de aeropuerto Control de Seguridad Agencia DHL Sistema DHL operado en la UEB de Mensajería Express xml Validación Contenido Planificación del despacho de aeropuerto Control de Seguridad Agencia Copa Estación de trabajo Especialista Comercial de la paquetería Copa pdf Validación Contenido Diseño del despacho de aeropuerto Control de Seguridad Se analizan, los esquemas de las fuentes de datos de prealertas que serán integradas y se precisan las tablas y las columnas. Las prealertas, semánticamente, describen información sobre los envíos, destinatarios y remitente. La tabla 3 refleja tres conceptos importantes en el dominio de aplicación, que evidencia la heterogeneidad semántica presente en el proceso de prealertas, con varios términos que se corresponden al mismo significado o conflicto de sinónimos. Tabla 3. Conceptos del dominio de apliación Fuente Concepto Descripción Tabla/Campo Courier Agencia Nombre de la Agencia de envío Agencia DHL Agency Courier País Nombre del país del que proviene el envío PaisOrigen DHL MovementOriginCountry Courier Peso Peso en Kg del envío que se recibe PesoenKg DHL ShipmentWeight Se identifican los conceptos para el tratamiento de la prealerta, referidos a: manifiesto o prealerta, Courier, paquete y personas. Se definen las propiedades: código postal, descripción, dirección, peso, nombre, apellidos, teléfono, provincia, país, número de guía y de agencia, fecha de nacimiento y de imposición. La figura 3 muestra el modelo de dominio de la prealerta. Figura 3. Modelo de dominio de la prealerta Para el diseño de la ontología de integración, participó, como líder de la etapa, un especialista informático con el rol de ingeniero ontológico, subcontratado por la empresa para llevar a cabo el desarrollo del grafo virtual de conocimiento sobre Ontop. Tomando en consideración el modelo de dominio, se crea una red de ontologías, a partir de la reutilización de clases y propiedades de los vocabularios foaf y vcard y de la creación de una ontología propia para estos efectos, la ontología de integración Operaciones. Del vocabulario FOAF, se utilizan clases y propiedades en la modelación de personas que representan a los remitentes y destinatarios. Del vocabulario VCARD, se utilizan las propiedades para completar la modelación de los datos de las direcciones de remitentes y destinatarios y para el diseño de la ontología se desplegó sobre Protégé. Actividad. Gestionar la capa de aplicación de la arquitectura empresarial El patrón de la arquitectura de solución del modelo INTEGRAL es reutilizado en esta actividad. La vista gráfica de la arquitectura se muestra en la figura 4. Figura 4. Arquitectura de solución de las prealertas Los componentes de la arquitectura de solución de las prealertas se refieren al conjunto de datos a integrar, que está en la capa física de la arquitectura y corresponde a las bases de datos de las prealertas. Las informaciones a obtener a partir de la consulta del grafo se definen de los criterios de decisión generada con los directivos, siendo algunos los envíos próximos a arribar según la fecha, especificando para cada envío, de qué agencia proceden, la cantidad de bultos y la cantidad específica de envíos, y las provincias destinatarias de los próximos envíos, con su peso total y la cantidad de paquetes. Actividad. Gestionar la capa de tecnología de la arquitectura empresarial En esta capa se definen las prestaciones y características de los sistemas que permiten la materialización de las capas anteriores de la Arquitectura Empresarial (AE), según las variables que se necesitan para el grafo virtual de conocimiento (GVC). La tabla 4 muestra estas variables. Tabla 4. Artefacto: Requerimientos y tecnologías de referencia para las variables de GVC Variable Tecnología Ontología Sistema Protégé1 Conjuntos de Datos SQL Server Mapeos Lenguaje R2RML Consultas Típicas SPARQL Sistema OBDA Ontop8 1 https://protege.stanford.edu/ OnTop, implementa Grafos Virtuales de Conocimiento y permite consultar fuentes de datos relacionales a través de una representación conceptual del dominio de interés, proporcionados por los términos de una ontología, a la cual se mapean las fuentes de datos. Las características principales de Ontop son: sólidos fundamentos teóricos, acercamiento virtual a la OBDA, que evita materializar las tripletas y se implementa a través de la técnica de reescritura de las consultas, optimizaciones extensivas, explotando todos los elementos de la arquitectura OBDA, el cumplimiento de estándares como las consultas SPARQL, los mapeos R2RML, y las ontologías OWL 2 QL y RDFS, y finalmente su so-porte a los principales gestores de bases de datos relacionales [12]. Cuando es necesario integrar varias fuentes de datos, los sistemas de respuesta a consultas de GVC a menudo se usan juntos con herramientas de federación de datos [24].. Los federadores SQL proporcionan una capa relacional unificada sobre múltiples fuentes de datos y evalúan Consultas SQL sobre la capa unificada. Estos sistemas a menudo también admiten fuentes de datos no relacionales, por ejemplo, XML archivos, archivos JSON, MongoDB o API web, proporcionando una vista relacional sobre su contenido. Con la ayuda de un federador SQL, los sistemas GVC pueden acceder al contenido de múltiples fuentes de datos sin tener que realizar un posprocesamiento complejo, como unir los datos procedentes de diferentes fuentes de datos. En esta investigación se utiliza Dremio como servidor de bases de datos federadas, que modifica la Arquitectura de la aplicación, incorporándole una capa de la Base de Datos virtualizada, quedando el gráfico de la arquitectura como se representa en la figura 6, adaptado de [24]. Figura 6. Arquitectura de Tecnología de la solución 3. Dimensión Desarrollo de la Solución de Integración (DSI) para las prealertas La Dimensión DSI en la EMCI se encarga de crear la solución de integración de información de prealertas basada en grafos virtuales de conocimiento para facilitar la realización de consultas a dicho grafo y proporcionar la información que se necesita a través de las actividades que se describen. Actividad. Generar la Información Integrada En las reglas de mapeo intervienen las bases de datos de las prealertas con las clases y propiedades de la ontología siguientes: Clase Person: Person_DD, Person_DR (mapeos de destinatarios y remitentes de paquetes); Clase Manifest: Manifest; Clase Package: Package; Clases geográficas: Country, Province y Propiedades: receivesPackage, sendsPackage. Las consultas fueron predefinidas en la etapa de modelación de la arquitectura, de acuerdo a los criterios de decisión aportados por los directivos del área de operaciones de la EMCI. Para facilitar el acceso a la información integrada resultante se desarrolló un sistema web visualizador de reportes: Sistema Integrado de Prealertas, que consume el grafo virtual de conocimientos y visua-liza las consultas sobre el grafo en una manera amigable y accesible para los directivos de la em-presa. Las funcionalidades de una primera versión del sistema, de forma general se relacionan con: envíos prealertados en un período próximo de tiempo, envíos, relacionados con las Agencias u Operadores Internacionales. Asimismo, para un período dado, se realizan consultas relativas al volumen de operación total (cantidad de bultos; cantidad de envíos; peso en kg), provincias que deben recibir envíos en el período, envíos de una provincia y volúmenes de operación previstos por Provincia. El uso del sistema, incorporado en el proceso de planificación de la extracción de la carga del aeropuerto y considerando los datos de los volúmenes de las cargas permite determinar las variables relacionadas con: cantidad de medios de transporte, cantidad de recursos humanos y el tipo de los me-dios de transporte necesarios para la realización de dicho proceso. Actividad. Gestionar la capacidad y disponibilidad de la solución de integración El desempeño de la solución de integración, de-pende principalmente del desempeño propio del sistema Ontop. Es de destacar que el sistema Ontop, se reconoce en la literatura como el sistema GVC de código abierto, actualmente disponible, más maduro y con un desempeño muy robusto [24]. La evaluación del desempeño de Ontop reflejó que en general las consultas requerían entre uno y pocos segundos para su ejecución teniendo unas pocas prealertas insertadas, y estando desplegado en un entorno de trabajo de es- casos recursos de cómputo. Adicionalmente, existen limitaciones de la versión actual de Ontop con el empleo de esta herramienta, las para las cuales se establecieron acciones en la implementación de esta actividad. Actividad. Realizar pruebas y proponer cambios Para el análisis del desempeño de la solución se realizaron las pruebas que se muestran en la tabla 5. Tabla 5. Definición del plan de pruebas Objetivos Resultados esperados Resultados obtenidos Grado A lc an ce y e sc en ar io Integrar ficheros de prealertas en dos formatos diferentes Validar posible propuesta para la integración de la información de fuentes de datos heterogéneas. Obtener la información integrada. 5 ficheros de prealertas (xls y xml) con 2403 envíos. información integrada de prealertas verificando capacidad de integración de la solución, para fuentes de datos heterogéneas. Satisfactorio. Integrar ficheros de prealertas en dos formatos diferentes Verificar el tiempo de respuesta de la solución de integración. Obtener la respuesta en un tiempo inferior a un minuto. 5 ficheros de prealertas (xls y xml) con 2403 envíos. Tiempo de respuesta fue de pocos segundos. Satisfactorio. Comprobación del sistema con datos reales Verificar el funcionamiento estable y adecuado, de solución de integración. Obtener respuesta y mantener el funcionamiento estable. ficheros de prealertas recibidos en dos días de trabajo con 40 ficheros. El resultado fue la saturación del sistema. Insatisfactorio. El plan de acciones de los resultados insatisfactorios se refiere a los cambios que deben ejecutarse para optimizar y mejorar el rendimiento del sistema, a partir de la reducción de la ambigüedad en la ontología y de la longitud de caracteres de la ontología y las consultas, así como la simplificación de las consultas SPARQL. Actividad. Crear habilidades en la operación de la solución Considerando los roles de la AMV definidos, la arquitectura de tecnología definida en la Actividad AOE.02.04 y la aplicación de una encuesta de diagnóstico de conocimientos, se definieron las necesidades de formación y el plan del curso. A partir de las necesidades formativas, el sistema de conocimiento del curso se enfocó en las temáticas de ontologías, servidores de bases de datos federadas, Ontop como sistema de grafos virtuales de conocimiento, lenguaje para la especificación de las reglas de mapeo (R2RML) y el lenguaje para la especificación de las consultas (SPARQL). El curso se desarrolló durante el mes de junio de 2021, con actividades presenciales y semipresenciales. Al culminar el curso se aplicó la encuesta sobre la cual se realizó el diagnóstico inicial, cuyos resultados evidenciaron un avance significativo por la comprensión y asimilación de los contenidos. La valoración de los contenidos, se muestran en la tabla 6. Tabla 6. Valoración general del curso Contenidos Valor Medio ONTOP 4.47 Dremio 4.47 SPARQL 4.00 Ontologías 3.72 R2RML 3.46 Un experimento se desarrolló para valorar la incidencia de la integración de los datos con grafos virtuales de conocimiento en la reducción del tiempo de extracción del envío del aeropuerto. Para ello se tomó una muestra de 89 guías de los meses de junio a septiembre 2021, equivalentes a 6 días de trabajo (último viernes y últimos días de agosto y septiembre). Se realizó una prueba de hipótesis de comparación de medias en relación a la variable tiempo de extracción del envío (TEA) tal como ocurrió en relación al tiempo que hubiese transcurrido si se usaran los datos integrados con las prealertas. Se obtuvo una diferencia significativa de 2,764 días como promedio con la solución integrada de las prealertas, con un Intervalo de confianza del 95 % (1,952; 3.576). La planificación de la extracción del envío con la solución integrada de las prealertas garantiza un tiempo menor de extracción del envío y un mejor desempeño del proceso operacional. 4. CONCLUSIONES Los grafos virtuales de conocimiento facilitan la integración de datos empresariales en entornos de alta heterogeneidad semántica y sintáctica, lo que fue corroborado con su aplicación en la Empresa de Mensajería y Cambio Internacional de Correos de Cuba (EMCI) con el Modelo INTEGRAL, lo que evidencia la viabilidad y utilidad de la propuesta. La Alineación a los Objetivos Empresariales (AOE) garantiza la alineación de la solución que se propone con la satisfacción del requerimiento del tiempo de extracción del envío del aeropuerto y el Desarrollo de la Solución de Integración (DSI) permite, a través de la generación de un grafo virtual de conocimiento que contiene información integrada de envíos, provincias y personas, dar respuesta a los criterios de decisión de los directivos del área de operaciones. 5. REFERENCIAS BIBLIOGRÁFICAS 1. PÉREZ, S. J.; Y NOVOA, B.: “Diagnóstico de Gestión de Información del Servicio Postal Universal de la Empresa de Mensajería y Cambio Internacional con Enfoque de Arquitectura de Información Empresarial (AIE). [Trabajo de Diploma para optar por el título de Ingeniería Industrial], Tutorada por Stuart, M. L., La Habana: Facultad de Ingeniería Industrial CUJAE, 2018. 2. STUART, M. L.; MENÉNDEZ, D. D.; MARTÍNEZ, Y.; CORDERO, A.; DELGADO, T.: “Experiencia en el diagnóstico de la Gestión de Información con Enfoque de Arquitectura de Información Empresarial”, GECONTEC: Revista Internacional de Gestión del Conocimiento y la Tecnología, 2017, Vol. 5(1). 3. STUART, M. L., DELGADO, T., DELGADO, M., PRIETO, D. R., Y QUIAL, J: “Enfoque de datos empresariales enlazados aplicado en una empresa cubana”, Ingeniería Industrial, 2020, 41(2), 235- 247. 4. ALAMIR, E.; URGESSA, T.; GOPIKRISHNA, T.; ELLAPPAN, V. “Application of machine learning with Big data analytics in the insurance industry”. IAEME Publications, 2020. 5. GIUNCHIGLIA, F.; ZAMBONI, A.; BAGCHI, M.; BOCCA, S: “Stratified data integration”. https://arxiv.org/abs/2105.09432, 2021 6. STUART, M. L. Modelo de Gestión para la Integración de Datos Empresariales Basado en Grafos Virtuales de Conocimiento (INTEGRAL). Tesis Presentada en Opción al Grado Científico de Doctor en Ciencias Técnicas. Tutorada por Delgado, T. y Delgado, M. Departamento de Informática Empresarial, Universidad Tecnológica de la Habana. 2021. 7. DAMA, I: “The DAMA Guide to the Data Management Body of Knowledge (DAMA-DMBOK Guide)” (Second Edition ed.). ISBN-13: 978-1634622349, 2014. 8. KIM, S. K.; WANG, W. “An Integrated View of Data: Application of Knowledge Modeling to Data Management”, Journal of International Technology and Information Management, 2020, 29 (Iss. 2, Article 4). 9. AKTER, S.; WAMBA, S. F. “Big data analytics in E-commerce: a systematic review and agenda for future research”, Electronic Markets, 2016, 26(2), 173-194. 10. MIKALEF, P.; PAPPAS, I. O.; KROGSTIE, J.; GIANNAKOS, M. “Big data analytics capabilities: a systematic literature review and research agenda”, Information Systems and e-Business Management, 2018, 16, 1-32. 11. STUART, M. L.; PRIETO, D. R.; DELGADO, T.; DELGADO, M. “Enfoque de Integración Basado en Datos Enlazados Empresariales”, Revista Cubana de Administración Pública y Empresarial, septiembre-diciembre, 2018, Vol. II (No 3): 268-279, [ref. de 27 de agosto 2022]. Disponible en Web: https://apye.esceg.cu/index.php/apye/article/view/56. 12. CALVANESE, D.; LIUZZO, P.; MOSCA, A.; REMESAL, J.; REZK, M.; RULL, G.: “Ontology- based data integration in EPNet: Production and distribution of food during the Roman Empire”, Engineering Applications of Artificial Intelligence, 2016, (51), 212-229. 13. HEIST, N.; HERTLING, S; RINGLER, D.; PAULHEIM, H. “Knowledge Graphs on the Web – an Overview”, Preprint, arXiv:2003.00719v00713 [cs.AI] 00712 Mar, 2020. 14. NOY, N.; GAO, Y.; JAIN, A.; NARAYANAN, A.; PATTERSON, A.; TAYLOR, J. “Industry-scale Knowledge Graphs: Lessons and Challenges”, Communications of the ACM, August, 2019, Vol. 62 No. 8, 36-43, [ref. de 5 de septiembre 2022]. https://doi.org/10.1145/3331166 15. PAULHEIM, H. “Knowledge graph refinement: A survey of approaches and evaluation methods”, Semantic web, 8(3), 489-508, 2017. 16. DIRSCHL C.; KENT J.; SCHRAM J.; REUL Q.: “Enabling Digital Business Transformation Through an Enterprise Knowledge Graph.” In: Harth A. et al. (eds) The Semantic Web: ESWC 2020 Satellite Events. ESWC 2020. Lecture Notes in Computer Science, Springer, Cham 2020, vol 12124. [ref. de 27 de agosto 2022]. https://doi.org/10.1007/978-3-030-62327-2_45 17. SAORÍN, T. “Grafos de conocimiento y bases de datos en grafo: conceptos fundamentales a partir de una "obra maestra" del Museo del Prado”, Anuario Think EPI. Jan 2019, 1, 13. [ref. de 3 de septiembre 2022]. https://doi.org/10.3145/thinkepi.2019.e13f05 18. DELGADO, T.; STUART, M. L.; DELGADO, M.: “Grafos de conocimiento para gestionar información epidemiológica de la COVID-19”, Revista Cubana de Información en Ciencias de la Salud. octubre-diciembre 2021, Vol. 32, No. 4. 19. LEHMANN, J.; ISELE, R.; JAKOB, M.; JENTZSCH, A.; KONTOKOSTAS, D.; MENDES, P. N.; y otros. “DBpedia – a large-scale, multilingual knowledge base extracted from Wikipedia”, Semantic Web Journal, 2015, 6(2), 167-195. 20. KONDREDDI, S. K.; TRIANTAFILLOU, P.; WEIKUM, G.: “Combining information extraction and human computing for crowdsourced knowledge acquisition”, IEEE 30th International Conference on Data Engineering. Mar 31; pp. 988-999, 2014. 21. HOGAN, A.; BLOMQVIST, E.; COCHEZ, M.; D'AMATO, C.; DE MELO, G., GUTIERREZ, C. y otros. “Knowledge graphs”, arXiv preprint arXiv:2003.02320. Mar 4. 2020, [ref. de 7 de septiembre 2022] https://arxiv.org/abs/2003.02320 22. STUART, M. L., PRIETO, D., QUIAL, J., DELGADO, T., DELGADO, M.: “Mejora a la gestión de información en el proceso de Servicio Postal Universal”, Revista Cubana de Transformación Digital. abril-junio 2 (2), 24-40, 2021. 23. STUART, M. L.; DELGADO, T.; DELGADO, M.; DE LA IGLESIA, M. Grafos virtuales de conocimiento para la integración de datos empresariales en una empresa cubana. Revista Cubana de Administración Pública y Empresarial, 2022, 6(1), e211. [ref. de 7 de septiembre 2022] https://doi.org/10.5281/zenodo.6472957 24. XIAO, G.; DING, L., COGREL, B., CALVANESE, D. Virtual knowledge graphs: An overview of systems and use cases. Data Intelligence, 20191, (3), 201-223. [ref. de 27 de agosto 2022] https://doi.org/10.1162/dint_a_00011 1 PROPUESTAS PARA LA FORMACION DE PROFESIONALES EN ANALITICA DE NEGOCIOS EN LA UNIVERSIDAD TECNOLOGICA DE LA HABANA José A. Díaz Batista1, Arturo Bofill Placeres2, Marta R. Abreu Bosch3, Marta B. Infante Abreu4 1,2,3 Escuela Superior de Cuadros del Estado y del Gobierno, ESCEG, La Habana, Cuba 4 Universidad Tecnológica de La Habana, CUJAE, La Habana, Cuba 1 diaztony@esceg.cu , 2 abofill@esceg.cu , 3 martana@esceg.cu , 4 miabreu@ind.cujae.edu.cu RESUMEN El tema de la Transformación Digital en Cuba fue abordado, recientemente, en el Consejo Nacional de Innovación, declarándose el mismo como un proceso estratégico y urgente para el país. La Transformación Digital consiste en una transformación profunda y acelerada de las actividades, los procesos, las competencias y los modelos de negocio para aprovechar completamente los cambios y las oportunidades de las tecnologías digitales y los datos de las organizaciones. La Analítica de Negocios forma parte de esta transformación puesto que facilita el cambio de la analítica descriptiva a la analítica predictiva y luego a la analítica prescriptiva; mediante el uso amplio e intensivo de los datos masivos (Big Data) de los que disponen, o pueden disponer, las organizaciones en la actualidad, especialmente las empresas; lo que hace posible una mejor, u optima, toma de decisiones de dichas organizaciones y elevar así el valor que aportan dichos negocios. Pero para que lo anterior ocurra es necesario disponer del personal con los conocimientos, habilidades y competencias requeridas; en temas tales como la gestión empresarial, matemáticas aplicadas, tecnologías de la información, y comunicación con efectividad; para llevar a cabo las complejas tareas implicadas en la Analítica de Negocios. Es el objetivo de esta ponencia el plantear algunas propuestas para la formación, de pre y posgrado, en la Universidad Tecnológica de La Habana, de nuevos profesionales que sean capaces de enfrentar con éxito las tareas asociadas a la analítica de los negocios en los diferentes sectores de la economía cubana. PALABRAS CLAVES: analítica de negocios, transformación digital, formación de profesionales. PROPOSALS FOR PROFESSIONAL TRAINING IN BUSINESS ANALYTICS AT THE TECHNOLOGICAL UNIVERSITY OF HAVANA ABSTRACT The issue of Digital Transformation in Cuba was recently addressed at the National Innovation Council, declaring it a strategic and urgent process for the country. Digital Transformation consists of a deep and accelerated transformation of activities, processes, skills and business models to fully take advantage of the changes and opportunities of digital technologies and data of organizations. Business Analytics is part of this transformation since it facilitates the change from descriptive analytics to predictive analytics and then to prescriptive analytics; through the extensive and intensive use of massive data (big data) that organizations currently have, or can have, especially companies; which makes possible a better, or optimal, decision-making of these organizations and thus increase the value that these businesses provide. But for the above to happen, it is necessary to have personnel with the necessary knowledge, skills and competencies; in topics such as: business management, applied mathematics, information technology, and effective communication; to carry out the complex tasks involved in Business Analytics. It is the objective of this paper to propose some ways for the training, undergraduate and graduate, at the Technological University of Havana, of new professionals who are capable of successfully facing the tasks associated with Business Analytics in different sectors of the Cuban economy. KEY WORDS: business analytics, digital transformation, professional training. 2 1. INTRODUCCION El tema de la Transformación Digital en Cuba fue abordado, recientemente, en el Consejo Nacional de Innovación, declarándose el mismo como un proceso estratégico y urgente para el país [1]. La Transformación Digital consiste en una transformación profunda y acelerada de las actividades, los procesos, las competencias y los modelos de negocio para aprovechar completamente los cambios y las oportunidades de las tecnologías digitales y los datos de las organizaciones. Según M. Arevich [2], “…la transformación digital no es un proceso nuevo, sino continuidad del proceso de informatización de la sociedad. Se trata una etapa superior que, utilizando los pilares de la ciencia y la innovación, nos va a conducir a la Agenda Digital Cubana 2030, la hoja de ruta que permitirá proyectar una visión de país y dar grandes saltos en el aprovechamiento de las tecnologías de la información y las comunicaciones”. La Analítica de Negocios forma parte de esta profunda transformación puesto que facilita el cambio desde la analítica descriptiva (¿qué ha pasado?) a la analítica predictiva (¿qué va a pasar?) y luego a la analítica prescriptiva (¿qué se debe hacer?); mediante el uso amplio e intensivo de los datos masivos (Big Data) de los que disponen, o pueden disponer, las organizaciones en la actualidad, especialmente las empresariales; lo que hace posible una mejor, u optima, toma de decisiones por parte de los directivos de dichas organizaciones y elevar así el valor que aportan dichos negocios a la sociedad en su conjunto. En esencia, la Analítica de Negocios (AN) es la ciencia de plantear y dar respuesta a preguntas basadas en datos relacionados con negocios [3]. La misma se enfoca principalmente, partiendo de los datos internos y externos disponibles en una organización, en predecir tendencias futuras para descubrir las mejores decisiones acorde a los objetivos estratégicos de la organización y los escenarios previstos [4]. Como puede comprenderse, al constituir la Analitica de Negocios una nueva área de trabajo en el país, se requiere disponer de personal profesionalmente capacitado, con los conocimientos, habilidades y competencias requeridas, para llevar a cabo las complejas tareas implicadas en la Analítica de Negocios. Constituye una responsabilidad de las universidades cubanas dar respuesta a estas emergentes necesidades de formación, y ya la Universidad de La Habana ha convocado para el 2023 el inicio de la Licenciatura en Ciencia de Datos, en su Facultad de Matemática y Computación. Es el objetivo de esta ponencia el plantear algunas propuestas para la formación de nuevos profesionales, de pre y posgrado, a implementar en la Universidad Tecnológica de La Habana con un perfil más tecnológico y empresarial, que sean capaces de enfrentar con éxito las tareas asociadas a la Analítica de los Negocios en los diferentes sectores de la economía cubana. 2. LA APLICACIÓN DE SISTEMAS INFORMATICOS PARA LA GESTIÓN Y DIRECCIÓN EMPRESARIAL EN CUBA Desde finales del siglo pasado, ha existido un desarrollo acelerado de la aplicación de sistemas informáticos para la gestión empresarial como apoyo a la toma de decisiones. Inicialmente se dedicaron en lo fundamental a los procesos contables financieros y después fueron abordando otros procesos como los MRP (Manufacturing Resourses Planning), hasta llegar a sistemas de mayor grado de integración como los ERP (Enterprise Resourses Planning), cuya utilización permitió un mejor control y gestión de los procesos productivos, además de un sólido apoyo para la toma de decisiones basadas en datos. Más recientemente, con el desarrollo del Big Data y la Minería de Datos se han ido logrando sistemas más sofisticados y personalizados para el manejo de los datos que acumulan las empresas desarrollándose la Inteligencia de Negocios (Bussines Intelligence, BI) y la Analítica de Negocios (Bussines Analitycs, BA). En Cuba la aplicación de sistemas informáticos para la gestión empresarial ha sido limitada y lenta. Según García Pérez [5] la aplicación informática más generalizada y exitosa ha sido a los sistemas de gestión contables y financieros, siendo los más utilizados, “… el VERSAT empleado en la mayoría de las 3 empresas y entidades presupuestadas, RODAS empleado en cadenas de tiendas, SISCONT5 mantenido por la Empresa Tecnomática, SICEMA PLUS SQL de la Empresa Alimatic en la industria alimentaria”. Algunas Organizaciones Superiores de Dirección Empresarial y grandes empresas han incorporado los ERP de forma limitada, principalmente mediante módulos adquiridos en el exterior. Como ejemplo pueden señalarse el SAP ERP y el ASSET. La dinámica de la producción en el momento actual y la necesidad de tener sistemas de información que permitan a las empresas la toma de decisiones oportunas basadas en evidencias, y que puedan operar de forma proactiva, ha potenciado el uso de la Analítica de Datos, la que basada en datos distintos formatos y en distintas bases de datos, permite integrar indicadores para la gestión empresarial con fines descriptivos, predictivos y prescriptivos, con vistas a que la empresa aumente su eficiencia, eficacia y competitividad. En Cuba, en la actualidad, existen un buen número de entidades del sistema empresarial estatal y privado que se dedican al diseño y producción de software, que podrían desarrollar este tipo de aplicaciones informáticas. Sin embargo, al parecer la demanda por estos últimos es muy escasa. El sistema BIMAS, desarrollado por la empresa DESOFT y aplicado en varias unidades empresariales es un ejemplo de trabajo en este campo [5]. Existen pocas publicaciones que divulguen las experiencias de la aplicación de la Analítica de Negocios y la Inteligencia de Negocios en el sistema empresarial cubano. En una revisión realizada en Google Académico y algunas revistas científicas cubanas relacionadas con la informática y la gestión empresarial, sólo pudieron encontrarse pocas publicaciones cubanas relacionadas con estos temas [6,7,8]. Se conoce de la existencia de trabajos académicos, trabajos de diploma y tesis de maestrías realizadas en nuestras instituciones de Educación Superior, que abordan estos aspectos, pero se desconoce su aplicación práctica. El sistema empresarial cubano presenta grandes limitaciones y obsolescencia de los recursos informáticos que posee, lo que lógicamente limita la aplicación de estas nuevas tecnologías, pero también existen limitaciones subjetivas de los directivos para incorporar la innovación y la ciencia en este importante aspecto de la Transformación Digital. Es necesario la realización de proyectos y dedicar financiamiento para el desarrollo de la base de equipos informáticos que permitan la introducción de estas nuevas tecnologías, considerándola como una necesidad imperiosa en el momento actual, para que la empresa sea competitiva. En paralelo, se requiere dar pasos para la capacitación y actualización de directivos, así como también para la formación de personal que pueda diseñar, aplicar, operar y dar mantenimiento a este tipo de sistemas informáticos de gestión en las entidades empresariales, bien a través de la formación de técnicos de nivel superior, o de carreras de pregrado o formación postgraduada que garantice cubrir esta necesidad. 3. CARACTERISTICAS DE LA FORMACION DEL PROFESIONAL EN ANALITICA DE NEGOCIOS La filosofía que acompaña la formación de un profesional en Analitica de Negocios se basa en un conjunto de habilidades que pertenecen a la intersección de cuatro áreas de conocimientos principales: Administración de Negocios, Matemáticas Aplicadas, Tecnologías de la Información y Comunicación Efectiva. Dichas habilidades posibilitan a este profesional, respectivamente, a hacer las preguntas correctas, construir los modelos correctos, usar esos modelos para llevar a cabo los análisis correctos, e interpretar y comunicar correctamente sus resultados trasladando estos de forma comprensible y directa a otros en la organización. 4 La formación de este profesional está compuesta por los siguientes contenidos generales [9]:  Administración de Negocios: administración de los procesos típicos de la empresa, a saber, mercadotecnia, finanzas, contabilidad, producción, logística y cadena de suministro, recursos humanos, aseguramiento de la calidad, etc.  Matemáticas Aplicadas: análisis de datos, estadística básica y avanzada, diseño de experimentos, simulación y optimización.  Tecnologías de la Información: gestión de datos, herramientas analíticas para el análisis de datos, gestión de bases de datos, big data, inteligencia artificial, machine learning, y algoritmos heurísticos y genéticos.  Comunicación Efectiva: visualización de datos, representación visual de datos complejos, codificación de información textual y visual, etc. El profesional en Analítica de Negocios debe caracterizarse por:  Ser capaz de presentar sus hallazgos de manera clara y concisa para asegurarse de que todas las partes interesadas en la organización entiendan las ideas y puedan poner en práctica las recomendaciones.  Utilizar una combinación de pensamiento lógico, análisis predictivo y estadísticas para hacer recomendaciones que resolverán problemas que coadyuven a impulsar el negocio.  Pensar críticamente no solo sobre las implicaciones de los datos que recopilan, sino también sobre qué datos deberían recopilar en primer lugar.  Crear valor a partir de los datos, deben poder traducir y visualizar datos de una manera concisa y precisa que sea fácil de comprender. En las universidades cubanas existen suficientes conocimientos y experiencia para desarrollar con éxito programas de formación, tanto de pregrado como de posgrado, en Analitica de Negocios. Por otra parte, dadas las transformaciones que se están llevando a cabo en la economía y actores empresariales del país, resulta momento oportuno para comenzar la formación de capital humano en esta importante temática. 4. PROPUESTAS PARA LA FORMACION DE PROFESIONALES EN ANALITICA DE NEGOCIOS La Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE), fundada como institución universitaria para la formación de ingenieros y arquitectos hace 58 años, posee las condiciones objetivas y subjetivas necesarias, en infraestructura y capital humano, para la formación exitosa de profesionales de pre y posgrado en Analitica de Negocios. Especialmente en la carrera de Ingeniería Industrial de la Facultad de Ingeniería Industrial se han definido en los planes de estudio de pregrado grupos de asignaturas para la creación de competencias en las disciplinas de Administración Empresarial, Estadísticas y Matemática Aplicada, e Informática Empresarial [10]; lo que constituye un precedente importante para la formación de los nuevos profesionales en Analitica de Negocios. Por otra parte, la Facultad de Ingeniería Industrial ha impartido varias ediciones de una maestría de Ingeniería Industrial y Sistemas, con menciones en Informática Empresarial y Tecnologías de Apoyo a la Toma de Decisiones [11]. También la Facultad cuenta con el Centro de Estudios de Técnicas de Dirección (CETDIR), dedicado a la docencia e investigación de la dirección y administración de organizaciones y que ha impartido varias ediciones de una maestría en Dirección. Lo anterior avala una experiencia en la formación de posgrado y a directivos. Finalmente, pero no menos importante, está la Facultad de Informática cuya carrera de Ingeniería Informática prepara profesionales cuya función es desarrollar los procesos relacionados con las soluciones y sistemas informáticos en las organizaciones, y así obtener un incremento en la eficacia y la eficiencia de estas mediante el uso de técnicas que permiten analizar el entorno para delimitar los procesos computacionales, la información a procesar y las interrelaciones correspondientes, así como la 5 gestión de proyectos informáticos con profesionalidad. También esta Facultad imparte una maestría en Informática Aplicada. Los antecedentes mencionados resultan premisas valiosas que posibilitan el inicio, en la Universidad Tecnológica de La Habana, de programas de formación profesional en las siguientes variantes: 1. Pregrado 1.1. Ingeniero Industrial con perfil de Analítica de Negocios (4 años) 1.2. Técnico Superior en Analítica de Negocios (3 años) 2. Posgrado 2.1. Maestría en Analítica de Negocios 2.2. Diplomado en Analítica de Negocios 2.3. Analítica de Negocios para Directivos (curso corto) 5. CONCLUSIONES Y RECOMENDACIONES La Analítica de Negocios forma parte de esta profunda transformación puesto que facilita el cambio desde la analítica descriptiva (¿qué ha pasado?) a la analítica predictiva (¿qué va a pasar?) y luego a la analítica prescriptiva (¿qué se debe hacer?). La misma se enfoca principalmente, partiendo de los datos internos y externos disponibles en una organización, en predecir tendencias futuras para descubrir las mejores decisiones acorde a los objetivos estratégicos de la organización y los escenarios previstos. Dadas las transformaciones que se están llevando a cabo en la economía cubana y los actores empresariales del país, resulta momento oportuno para comenzar la formación de capital humano en esta importante temática. Esto es posible, ya que en las universidades cubanas existen suficientes conocimientos y experiencia para desarrollar con éxito programas de formación relacionados con la Analítica de Negocios, tanto de pregrado como de posgrado. De cuatro áreas de conocimientos principales: Administración de Negocios, Matemáticas Aplicadas, Tecnologías de la Información y Comunicación Efectiva. Dichas habilidades posibilitan a este profesional, respectivamente, a hacer las preguntas correctas, construir los modelos correctos, usar esos modelos para llevar a cabo los análisis correctos, e interpretar y comunicar correctamente sus resultados trasladando estos de forma comprensible y directa a otros en la organización. Se esboza una propuesta sobre las diferentes variantes de diseño en programas de formación en pregrado o postgrado, tales como una especialización del Ingeniero Industrial en el perfil de Analítica de Negocios y un Técnico Superior en Analítica de Negocios. Para el postgrado el diseño de una maestría de analítica de negocios, diplomado con igual nombre y cursos cortos para directivos. REFERENCIAS 1. Transformación digital en Cuba, proceso estratégico y urgente. Periódico Granma, 9 de mayo de 2022. Cuba. 2. AREVICH, Mayra. Entrevista, Periódico Granma, 2 de agosto de 2022. Cuba. 3. B. Pochiraju, S. Seshadri (eds.), Essentials of Business Analytics, International Series in Operations Research & Management Science 264. Disponible en https://doi.org/10.1007/978-3- 319-68837-4_1 4. YIFAN, Zhao. Transformation of Business Analytics from Business Intelligence [en línea]. E3S Web of Conferences 253, 03013 (2021). Disponible en https://doi.org/10.1051/e3sconf/202125303013. 6 5. GARCIA PEREZ, Ana M. “Aplicación de técnicas de inteligencia de negocios y análisis de datos en el entorno empresarial cubano: retos y perspectivas”. Revista Cubana de Ciencias Informáticas. Vol.14, no.4, La Habana. 2020. 6. Núñez Peña, N., Segura Sánchez, E., & Bofill Placeres, A. (2020). Diseño de un sistema informatizado basado en inteligencia de negocios en el Astillero Mariel. Universidad y Sociedad, 12(1), 404-412. 7. Pérez Armayor, D., Ortega González, Y. C., González Venegas, M., & Infante-Abreu, M. B. (2021). Cambio organizacional planificado basado en tecnologías de la información para la transformación digital. Revista Cubana De Transformación Digital, 2(2), 41–53. Recuperado a partir de https://rctd.uic.cu/rctd/article/view/127 8. Gómez Betancourt A., Gómez Beltrán L.A. (2018) “Data Warehousing al proceso de capacitación en la Empresa de Telecomunicaciones de Cuba S.A”. Revista Tono, Vol. 14, No. 1, pp. 79- 89, 2018. 9. Master of Science in Business Analytics. R. A. Mason School of Business [en linea]. (2022) Disponible en https://mason.wm.edu/graduate/msba/index.php. 10. Colectivo de Autores. Plan de Estudio E. Carrera de Ingeniería Industrial. Facultad de Ingeniería Industrial. CUJAE, 2018. La Habana, Cuba. 11. Colectivo de Autores. Programa de Estudio Maestría de Ingeniería Industrial y Sistemas. Facultad de Ingeniería Industrial. CUJAE, 2015. La Habana, Cuba. 12. Maestría en Informática Aplicada [en línea] 2021. https://www.cujae.edu.cu/estudios/listado-de- maestrias/28-estudios/maestria/78-maestria-informatica-aplicada. Sobre los autores Se incluirá con una extensión no mayor de un párrafo, información sobre cada autor, donde sea declarada institución y labor que desempeña, categoría docente y categoría científica, membresía en organizaciones profesionales, etc. José A. Díaz Batista. Doctor en Ciencias Económicas. Profesor Emérito de la Universidad Tecnológica de La Habana “José Antonio Echeverría”, Cujae. Profesor Titular de la Escuela Superior de Cuadros del Estado y el Gobierno. Posee una experiencia de más de 40 años de trabajo en instituciones de la Educación Superior en Cuba. Arturo Bofill Placeres. Doctor en Ciencias Técnicas. Profesor Titular de la Escuela Superior de Cuadros del Estado y el Gobierno. Imparte clases de postgrado en la maestría de Ingeniería Industria mención Tecnologías de apoyo a la toma de decisiones en la Universidad Tecnológica de La Habana “José Antonio Echeverría”, Cujae. Posee una experiencia de más de 40 años de trabajo en instituciones de la Educación Superior en Cuba. Marta R. Abreu Bosch. Master ejecutiva de la Unión Europea. Profesora Auxiliar de la Escuela Superior de Cuadros del Estado y el Gobierno y de la Universidad Tecnológica de La Habana “José Antonio Echeverría”, Cujae. Posee más de 30 años de experiencias como directiva en la Industria del Software en Cuba y más de 20 años de trabajo en instituciones de la Educación Superior en Cuba. Marta B. Infante Abreu. Profesora Titular de la Universidad Tecnológica de La Habana “José Antonio Echeverría”, Cujae. Imparte clases de postgrado en la Escuela Superior de Cuadros del Estado y el Gobierno. Posee más de 15 años de experiencia en la Educación Superior en Cuba. METODOLOGÍA DE GESTIÓN DE LA INNOVACIÓN EMPRESARIAL Mercedes Delgado Fernández1 1Escuela Superior de Cuadros del Estado y del Gobierno, Carretera Vieja de Vento No. 19580 e/ 184 y 195, Reparto Capdevila, Boyeros. La Habana, Cuba, e-mail: mercedes@esceg.cu RESUMEN El objetivo de la ponencia es mostrar la metodología de gestión de la innovación y su validación en el entorno empresarial cubano. Esta metodología se sustenta en el marco conceptual y normativo de la innovación y su evaluación, así como en la experiencia práctica en la gestión de la calidad en la I+D+i, fundamentalmente en el sector biofarmacéutico. Entre las técnicas empleadas en la metodología se destacan: guía de evaluación integrada de la innovación, encuestas, análisis y procesamiento estadístico, diagrama causa-efecto, ciclo de gestión de la calidad (Planificar-Hacer-Verificar-Actuar), gestión de proyectos, evaluación de la eficacia y eficiencia y el análisis de riesgos. La metodología para la gestión de la innovación empresarial está conformada por tres etapas: diagnóstico, conceptualización de la innovación y proyecto de innovación. La metodología se aplica en las empresas cubanas por los directivos que cursan los Diplomados y la Especialidad en la Escuela Superior de Cuadros del Estado y del Gobierno, desde hace más de 10 años, para lo cual disponen de un libro y artículos científicos que profundizan en la metodología, así como guías, encuestas y plantillas en los softwares Minitab, Excel, Project y Visio que facilitan su generalización. Los resultados alcanzados corroboran la utilidad de la metodología de gestión de la innovación por su contribución a la generación y gestión de innovaciones de procesos, productos, servicios, organizacionales y de comercialización relacionadas con el Plan Nacional de Desarrollo Económico y Social al 2030, los Lineamientos de la Política Económica y Social y los objetivos estratégicos institucionales. PALABRAS CLAVES: innovación, gestión de innovación, diagnóstico, innovación empresarial, proyecto de innovación. BUSINESS INNOVATION MANAGEMENT METHODOLOGY ABSTRACT The objective of the presentation is to show the innovation management methodology and its validation in the Cuban business environment. This methodology is based on the conceptual and regulatory framework of innovation and its evaluation, as well as on practical experience in quality management in R&D&I, fundamentally in the biopharmaceutical sector. Among the techniques used in the methodology, the following stand out: integrated innovation evaluation guide, surveys, statistical analysis and processing, cause-effect diagram, quality management cycle (Plan-Do-Verify-Act), project management, evaluation of effectiveness and efficiency and risk analysis. The methodology for managing business innovation is made up of three stages: diagnosis, conceptualization of innovation and innovation project. The methodology has been applied in Cuban companies by the managers who are taking the Diplomas and the Specialty in the Higher School of State and Government Cadres, for more than 10 years, for which they have a book and scientific articles that delve into the methodology, as well as guides, surveys and templates in Minitab, Excel, Project and Visio software that facilitate its generalization. The results achieved corroborate the usefulness of the innovation management methodology for its contribution to the generation and management of process, product, service, organizational and marketing innovations related to the National Economic and Social Development Plan for 2030, the Guidelines of the Economic and Social Policy and the institutional strategic objectives. KEY WORDS: innovation, innovation management, diagnosis, business innovation, innovation project. 1. INTRODUCCIÓN En relación a las metodologías de gestión de la innovación empresarial reportadas en la literatura se observa que no se dispone de una sistematización [1] y las contribuciones no tienen un enfoque integral [2] [3] [4]. Algunos modelos de gestión de la innovación se basan en los pilares referidos a las buenas prácticas para innovar, la generación de cultura de innovación, el conocimiento en innovación y la relación con el ecosistema I+D+i [5]. Otros proponen autodiagnósticos para obtener fortalezas y brechas en el proceso de innovación [6]. Estudios bibliográficos destacan la tendencia al uso de métodos mixtos en la gestión de la innovación [3] por la heterogeneidad de contextos y tipos de innovaciones. También se describen modelos de gestión de la innovación por sectores como los del proceso de co-creación en empresas de las Tecnologías de Información y las Comunicaciones (TIC) [7], otros aplicados al sector biofarmacéutico [8], pero no en todos los sectores se disponen de metodologías. Así, los Modelos de gestión de la innovación de productos y de procesos enfatizan en la necesidad de enfoques más holísticos y estructurados [9] [10] [11] y a sistemas, como el de gestión de la calidad [3] [12]. Las diferentes modelos, metodologías y métodos de gestión de la innovación permiten corroborar la complejidad del tema y más aún para los tomadores de decisiones que son los que deberán encausar estos procesos en sus organizaciones. El objetivo de la ponencia es exponer una metodología de gestión de la innovación y su validación en el entorno empresarial cubano, que supera las limitaciones antes expuestas. Primeramente, se abordan las bases conceptuales, normativas y experimentales de la metodología propuesta. Posteriormente se describe la metodología de gestión de la innovación empresarial y finalmente se muestran algunas aplicaciones de la misma en el entorno empresarial cubano. 2. BASES CONCEPTUALES, NORMATIVAS Y EXPERIMENTALES DE LA INNOVACIÓN Y LA GESTIÓN DE LA CALIDAD EN LA I+D La metodología de gestión de la innovación empresarial propuesta se sustenta en el marco conceptual, metodológico y normativo sobre la innovación, [2] la experiencia práctica acumulada en la gestión de la I+D y en la evaluación de la innovación durante dos décadas. Es así, que el marco conceptual de la metodología de la gestión de innovación incluye el Manual de OSLO, [13] la evaluación de los indicadores de I+D+i, [14] [15] [16] [17] [18] la triple hélice, [19] [20] los sistemas nacionales de innovación, [21] [22] la innovación abierta, [23] los sistemas de gestión de la calidad, [18] [24] los enfoques de gestión tecnológica [18] [25] y de proyectos [26] [27] y las recientes normas de la ISO 56000 [28]. La innovación es un proceso complejo, no lineal, ni determinístico, que necesita de la interacción entre los diferentes actores [8] y ocurre cuando el cambio proyectado ha sido introducido, alcanzando los resultados previstos [29] [30]. Según las normas ISO 56000 la innovación se define como la capacidad que tienen las organizaciones de transformar ideas en valor, como una entidad nueva o modificada que realiza o redistribuye el valor [28]. Innovar se entiende como el proceso de convertir ideas en productos, procesos o servicios nuevos o mejorados en la práctica social [2] [15]. La innovación puede ser de productos, procesos, organizacional y de comercialización [2] [13]. Adicionalmente, se plantea una clasificación que intercepta el nivel de la innovación según el nivel sea componente o de sistema y el tipo que va desde incrementales hasta radicales [31]. En los sistemas de gestión de la innovación se considera como una dinámica fundamental de la mejora de la competitividad empresarial [1] [18] [26] [32]. La actividad innovadora contempla a la empresa como un todo, donde el éxito depende del grado de integración entre las unidades y de la estrecha relación entre investigación, diseño, producción y comercialización [2] [33] y la creación de redes y alianzas [8]. Existen estrechos nexos ente la calidad y la innovación [18] y sus enfoques se convierten en un factor clave para el éxito [1] [8] [34] [35]. La gestión de la innovación se ha basado en modelos de procesos y estándares de gestión, como la gestión del desarrollo de productos y la gestión de la calidad [8] [12] [24] [36]. La experiencia desarrollada con el sistema de gestión de la calidad en la I+D biofarmacéutica de Cuba desde la década del 90 del siglo pasado [8] constituye un basamento de la metodología de gestión de la innovación, en relación a los principios, procesos, procedimientos de evaluación e implementación. Los principios se refieren a: enfoque a procesos, proyectos, participativo y trabajo en equipo, normalizativo con la integración de la ISO 9000 y regulaciones de la industria, evaluación de la calidad y del sistema, así como la responsabilidad a todos los niveles de dirección [24]. La innovación implica la aplicación práctica y el beneficio social, lo que debe ser evaluado para conocer su eficacia, [15] de ahí que este fuese un elemento esencial de la metodología propuesta con la medición de la innovación. Se ha demostrado que el sistema de evaluación de los proyectos de innovación impacta favorablemente en la estructura organizativa, el control de procesos, la investigación de innovación, el control de riesgos y la garantía de recursos [37]. Por otra parte, la diversidad de contextos de la innovación complejiza su medición [14] [15] [16] [17] tal como se expresa en el Manual de Oslo [13] y su uso ha estado limitado por la gran cantidad de variables a medir, la calidad y disponibilidad de la información existente [17] [38], siendo difícil la comparabilidad en la innovación entre países, regiones, sectores y empresas [14] [16] [17]. 3. DESCRIPCIÓN DE LA METODOLOGÍA DE GESTIÓN DE LA INNOVACIÓN EMPRESARIAL La metodología de gestión de la innovación empresarial se estructura en tres etapas [2] [39]: diagnóstico, innovación y proyecto de innovación (Ver Tabla 1). Tabla 1: Etapas, pasos y técnicas de la metodología de gestión de la innovación empresarial Entre las técnicas que se utilizan en la metodología se encuentran: guía de evaluación integrada de la innovación, encuestas, análisis y procesamiento estadístico, ciclo de gestión de la calidad (Planificar- Hacer-Verificar-Actuar), gestión de proyectos, evaluación de la eficacia y eficiencia y análisis de riesgos. La guía de evaluación integrada de la innovación para las empresas, [2] incluye su caracterización y varias encuestas como la de innovación, [2] [15] el test de innovación organizacional, el del aprendizaje organizacional, las competencias y otras informaciones cuantitativas y cualitativas. En la encuesta de innovación se identifican las estrategias genéricas, [2] [40] [41] los objetivos y fuentes de ideas de innovación, así como los factores que obstaculizan la innovación, los que constituyen barreras y riesgos y se construye el diagrama causa-efecto [2] [32]. Se usan técnicas estadísticas para el análisis de las medidas de tendencia central y la variabilidad, incluyendo el diseño de experimentos, [42] con la sistemática vigilancia [43] [44] y la prospectiva [45] [46] [47]. La estructura de alto nivel de los sistemas de gestión normalizados favorece el enfoque de la gestión integrada y en particular el sistema de calidad [48] establece entre sus requisitos el conocimiento, las competencias [49] [50] y la innovación [33] [45] [45] [51] [52] integrados por el ciclo Planificar-Hacer- Verificar-Actuar (P-H-V-A) [2]. Se adopta la gestión de proyectos como enfoque en la metodología de gestión de la innovación [2] [24] [25] [26] [27] utilizando listas de chequeo y el Project [2] [32]. Estos sistemas de gestión constituyen enfoques a tener en cuenta en la gestión empresarial actual, encaminados a la generación de capacidades para la sistemática innovación [33]. 4. VALIDACIÓN DE LA METODOLOGÍA DE GESTIÓN DE LA INNOVACIÓN EMPRESARIAL La metodología de gestión de la innovación empresarial se validó a través de la formación de directivos en gestión empresarial desde hace 10 años en la Escuela Superior de Cuadros del Estado y del Gobierno [32] [53]. Una técnica que se aplica en la metodología se refiere al vínculo del tema que se aborde con los Lineamientos de la Política Económica y Social (Ver ejemplo en la Fig. 1). Capítulos de los Lineamientos de la Política Económica y Social III.- Política Económica Externa I.- Modelo de Gestión Económica V.- Política de ciencia, tecnología, innovación y medio ambiente Figura 1: Vínculo con el crecimiento significativo de exportaciones biofarmacéuticas Otras herramientas aplicadas son las encuestas de la guía de evaluación integrada de la innovación. La Fig. 2 resume en procedimiento empleado con la encuesta de innovación y la cadena de valor de la guía de evaluación integrada de la innovación [54]. Figura 2: Resumen de la encuesta de innovación y cadena de valor Otra aplicación de la encuesta de la innovación en el Centro de Inmunología Molecular a 33 directivos y especialistas en los años 2015, 2018 y 2020 [55] ratifica que para este sector la innovación y la calidad son factores clave para el éxito (Ver Fig. 3). Estrategias genéricas • Innovación, calidad y liderazgo Objetivos de innovación • calidad y mercado Fuentes de innovación • actividades de I+D, producción, alta dirección y centros de investigaciones. Factores que limitan la innovación • período largo de rentabilidad de la innovación, financiamiento y adquisición Figura 3: Resultados de la encuesta de innovación en el CIM Inn ov ac ión Be ne fic io Co sto Ca lid ad Lid er az go Alt a se gm en ta ció n Se rv ici o al m er ca do Ex pa ns ión Di ve rs ific ac ión Di fe re nc ia ció n 10 8 6 4 2 0 D a to s Gráfica de caja de estrategias genéricas La Fig. 4 muestra el diagrama causa efecto relativo a una empresa editorial en la que se desea conocer la incidencia de las causas y subcausas que influyen en las exportaciones de bienes y servicios. EXPORTACIÓN DE BIENES Y SERVICIOS EDITORIALES Capital Humano Marketing y la Comunicación. Infraestructura tecnológica Producción y distribución de bienes y servicios Insuficiente capacitación Envejecimiento de la fuerza de trabajo calificada Resistencia a la automatización de los procesos Insuficiente validación de especialistas con estándares internacionales. Funcionamiento del Consejo Técnico Asesor Insuficiente acceso a internet Desconocimiento de las ventajas TIC No existencia de software nacional para proceso editorial No acceso a licencias de software para diseño Infraestructurra de telecomunicación obsoleta Insuficientes alianzas con la industria del sofware Equipamiento informático Alianzas internacionales Deficiente estrategia de comunicación. Promoción de los servicios editoriales Falta de Proyectos de I+D+i Estrategia de desarrollo de las TIC Utilización de las redes sociales Insuficiente acceso a plataformas internacionales de comercialización. Explotación del c omercio electrónico Deficiente cartera de bienes y servicios exportables. Deficiente participación en Eventos Internacionales. Dèficit de MLC Materias primas para imprenta importadas Incumplimiento del plan de producciòn Deficiente organizaciòn del proceso productico Desarrollo de nuevos productos Incremento del costo de fletes Deficiente implementación del SGC Insuficientes encadenamientos con la industria del sofware. Falta de equipamiento informàtico Elevados costos de producción Calidad de producciones y servicios Deficiente Diagnóstico de Necesidades de Aprendizaje Desconocimiento de las TIC Poco trabajo con las reservas y jóvenes Poca Integración con las universidades. Desconocimiento principios funcionales No existe la especialidad editorial y gráfica con perfil de nivel superior Bajos salarios Motivaciòn Ancho de banda y conectividad Bloqueo Pocas finanzas Débil gestión de procesos Desabastecimiento nacional Insuficiente estudios de mercados Débil Estrategia de Comunicación Desconocimiento Bloqueo Poca Producción de contenidos digitales. Poco desarrollo de productos y servicios con calidad exportable. Falta de Capacitación Pocas Finanzas. Pocos Ingresos del exterior materias primas nacionales de baja calidad Carencia de materias Primas Poco Personal especializado Estrategia de I+D+i Crisis internacional Procedimientos y reglamentos Gestión de los procesos Finanzas Obsolescencia tecnológica Especialización del personal disminución de las exportaciones Automatización Operaciones manuales Covid-19 Figura 4: Diagrama causa efecto de las exportaciones de bienes y servicios editoriales Destaca el comportamiento de los tipos de innovaciones de los proyectos de innovación presentados por los 76 directivos empresariales del Grupo empresarial BIOCUBAFARMA que cursaron Diplomados y Especialidades en la ESCEG desde el año 2013 al 2020. De un total de 118 innovaciones proyectadas el 44,1% son organizacionales, seguidas por un 30,7% de proceso (ambas suman más del 70%), un 14,2% de comercialización y un 11,0% de producto. La aplicación de la Matriz de Impactos Cruzados y la Multiplicación Aplicada a la Clasificación (MICMAC) como una de las principales técnicas de la prospectiva, con las principales causas que inciden en el crecimiento económico del Centro de Inmunología Molecular permitió concluir que las variables estratégicas son el desarrollo, el dominio de las vacunas de cáncer y la producción (las más influyentes), tal como se muestra en la Fig. 5. De ahí, que la atención hacia un futuro inmediato se centra en la capacidad de penetrar mercados con la salida de los productos endógenos de la I+D, la velocidad de desarrollo de esos nuevos productos y los estándares de mercados farmacéuticos altamente regulados, así como continuar con los modelos de I+D+i como fuente de innovación [56]. Figura 5: Variables estratégicas en la I+D del CIM Como parte de la metodología de gestión de la innovación empresarial se incluye la descripción a través de diagramas, incluyendo los de flujo de procesos de la innovación a desplegar, así como el uso del Project para su planificación mediante Diagrama Gantt. La Fig. 6 muestra estas representaciones para un proyecto de innovación que deberá durar 215 días en una de las empresas de alta tecnología del sector: BIOCEN [30]. Figura 6: Representación del proyecto de innovación del BIOCEN Algunos de los indicadores de eficacia y eficiencia identificados en los proyectos de innovación de la industria biofarmacéutica se refieren a: ventas, porciento de exportaciones de total de ventas, utilidades, cantidad de países que exportan, diversificación de países con facturación anual de más de 5 millones de divisa libremente convertible, cantidad de productos exportables, productividad, cantidad de registros y patentes, satisfacción de la demanda del mercado nacional, [53] y costo por peso. 5. CONCLUSIONES La metodología de gestión de innovación empresarial permite evaluar la innovación integralmente en empresas de diferentes contextos, sectores y características, contribuye a la proyección estratégica empresarial, con la generación de innovaciones de procesos, productos y organizacionales, la asimilación, uso y absorción de tecnologías, la capacitación, el aprendizaje y el cambio de mentalidad, la autoevaluación y mejora continua del sistema empresarial, así como la visualización y gestión de la innovación con un enfoque más abierto, holístico e integrado. RECONOCIMIENTOS Se reconoce la labor desarrollada por los más de 900 directivos que han cursado los Diplomados y Especialidades en Dirección y Gestión Empresarial en la Escuela Superior de Cuadros del Estado y del Gobierno en los últimos 10 años, mediante los cuales se ha podido implementar y validar la metodología de gestión de la innovación empresarial durante REFERENCIAS 1. IDRIS, M-C.; DURMU ̧SO ̆GLU, A. “Innovation Management Systems and Standards: A Systematic Literature Review and Guidance for Future Research”. Sustainability, 2021, 13, 8151. [ref. de 5 de septiembre 2002]. Disponible en Web: https://doi.org/10.3390/su13158151 2. DELGADO, M. Innovación Empresarial. En: Delgado M, Coordinador académico. Temas de Gestión Empresarial. Vol. II. La Habana: Editorial Universitaria Félix Varela 2017, p. 117. ISBN 978-959-07- 2160-1. http://bibliografia.eduniv.cu:8083/read/13/pdf 3. BRACIO, K.; SZARUCKI, M. “Mixed Methods Utilisation in Innovation Management Research: A Systematic Literature Review and Meta-Summary”. Journal of Risk Financial Management, 2020, 13, 252; [ref. de 7 de septiembre 2002]. Disponible en Web: https://doi.org/0.3390/jrfm13110252 4. FU, Q.; ABU, S. “Review of Innovation Management Frameworks and Assessment Tools”. International Scholarly and Scientific Research & Innovation. 2021, 15, 9, 347-353. 5. POSADA, M.; TAMAYO, M.; CARMONA, C.; OSORIO, B.; MARULANDA, C.; ARBELÁEZ, M. “Model for Innovation Management and Continuous Improvement at EFIGAS”. Proceedings of the 23rd European Conference on Knowledge Management, ECKM, 2022, Vol. 23, No. 2, 919-927. [ref. de 12 de septiembre 2002]. Disponible en Web: https://doi.org/10.34190/eckm.23.2.815 6. ZARTHA, J.W.; MONTES, J. M.; VARGAS, E. E.; PALACIO, J. J.; HOYOS, J. L. “Innovation Management Models Prioritization of Variables for the Assessment of the Innovation Management Model in Organizations from the Productive Sector”. Indian Journal of Science and Technology, March 2018, Vol 11, (10), [ref. de 12 de septiembre 2002]. Disponible en Web: https://doi.org/10.17485/ijst/2018/v11i10/115644 7. HIDALGO, A.; HERRERA, R. “Innovation management and co-creation in KIBs: An approach to the ICT services sector”. Technological Forecasting and Social Change, 2020, 161, 120278. [ref. de 14 de septiembre 2002]. Disponible en Web: https://doi.org/10.1016/j.techfore.2020.12027 8. DELGADO, M. Enfoque para la gestión de la I+D+i en la Industria Biofarmacéutica cubana. Revista Cubana de Información en Ciencias de la Salud. 2017, 28(3). [ref. de 14 de septiembre 2002]. Disponible en Web: http://scielo.sld.cu/pdf/ics/v28n3/rci02317.pdf 9. BUCHERER, E.; EISERT, U.; GASSMANN, O. “Towards Systematic Business Model Innovation: Lessons from Product Innovation Management”. 2012, Vol. 21 Number 2, 183.-198, [ref. de 13 de septiembre 2002]. Disponible en Web: https://doi.org/10.1111/j.1467-8691.2012.00637.x 10. EDQUIST, C. “The Swedish National Innovation Council: Innovation policy governance to replace linearity with holism”. Papers in Innovation Studies, no. 2016/24. Centre for Innovation, Research and Competence in the Learning Economy (CIRCLE). Lund University, Sweden, September, 2016, 1-52. 11. RAUTER, R., PERL-VORBACH, E. BAUMGARTNEr, R. “Is open innovation supporting sustainable innovation? Findings based on a systematic, explorative analysis of existing literature”. Int. J. Innovation and Sustainable Development, 2017, Vol. 11, Nos. 2/3, 249-270. 12. KARLSSON, M.; MAGNUSSON, M. The systems approach to innovation management. In: The Routledge companion to innovation management. Edited by Chen J, Brem A, Viardot E, Wong PK. London: Routledge Taylor & Francis Group, 2019. [ref. de 12 de septiembre 2002]. Disponible en Web: https://library.oapen.org/bitstream/handle/20.500.12657/24954/9781138244719_oachapter5.pdf?sequ ence=1 13. OECD. OSLO Manual: Guidelines for collecting, reporting and using data on innovation. The measurement of Scientific, Technological and Innovation Activities. 4th Edition, October 2018, 22: 255p. https://doi.org/10.1787/9789264304604-en 14. DELGADO, M.; EDSON, M.; OLIVEIRA, H. “Análisis comparativo de instrumentos de evaluación de la innovación tecnológica”. Ingeniería Industrial. 2002, 23(3): 56-63. [ref. de 14 de septiembre 2002]. Disponible en Web: https://rii.cujae.edu.cu/index.php/revistaind/article/view/222 15. DELGADO, M. “Evaluación de la innovación tecnológica en Cuba”. IX Taller de Gestión Tecnológica en la Industria. Congreso Internacional de Gestión del Conocimiento GESTEC. Palacio de las Convenciones, La Habana, julio, 2005. 16. DELGADO, M.; PINO, J.L.; SOLÍS, F.M.; BAREA, R. “Evaluación integrada de la innovación, la tecnología y las competencias en la empresa”. Revista madri+d, junio, 2008, (47) [ref. de 14 de septiembre 2002]. Disponible en Web: http://www.madrimasd.org/revista/revista47/tribuna/tribuna1.asp 17. DELGADO, M.; PINO, J.L.; SOLÍS, F.M.; BAREA, R. “Perspectiva analítica de los indicadores de producción científica e innovación”. En: M Albornoz, L Plaza. Agenda 2011: Temas e indicadores de ciencia y tecnología. Buenos Aires: Red Iberoamericana de Indicadores de Ciencia y Tecnología (RICYT); 2011, pp. 119-138. [ref. de 14 de septiembre 2002]. Disponible en Web: http://www.ricyt.org/wp-content/uploads/2012/01/www.ricyt_.org_files_Capitulo-2.pdf 18. DELGADO, M. “La calidad y la innovación tecnología en la biotecnología aplicada a la salud”. Dirección y organización: Revista de dirección, organización y administración de empresas, Madrid; 1998; Nº19: 125-132. [ref. de 21 de agosto 2002]. Disponible en Web: https://www.revistadyo.es/index.php/dyo/article/view/274/274 19. LEYDESDORFF, L.; MEYER, M. “The Triple Helix of university-industry-government relations”. Scientometrics 2003, 58, (2). 191-203. 20. ETZKOWITZ, H.; LEYDESDORFF, L. “The dynamics of innovation: from National Systems and ‘‘Mode 2’’ to a Triple Helix of university–industry–government relations”. Research Policy. 2000; 29:109–123. 21. LUNDVALL, B.-Å. “The origins of the national innovation system concept and its usefulness in the era of the globalizing economy». 13th Globelics International Conference. Palacio de las Convenciones, La Habana, 2015, 23-25 de septiembre, 1-31. 22. GU, S.; SCHWAAG, S.; LUNDVALL, B.-Å. “China’s innovation system: ten years on, Innovation”. Innovation Management, Policy & Practice, 2016, [ref. de 13 de septiembre 2002]. Disponible en Web: htpps://doi.org/10.1080/14479338.2016.1256215 23. CHESBROUGH, H. “The Era of Open Innovation”. MIT Sloan Management Review, 2003, 44 (3), 35–41. 24. DELGADO, M. 1997. Sistema de calidad para el desarrollo de nuevos productos biofarmacéuticos. Tesis doctoral. Tribunal Permanente de Ingeniería Industrial. ISPJAE, Cuba, septiembre, 1997. 25. DELGADO, M.; CASTRO, F. “Enfoques integrados de la gestión en la innovación tecnológica”. Ingeniería Industrial. 2001, Vol. 22, no. 4. 26. CASTRO, F.; DELGADO, M. “Innovación tecnológica, estrategia corporativa y competitividad en la industria cubana”. Dirección y organización: Revista de dirección, organización y administración de empresas, Madrid,1999, Nº 22: 14-27. [ref. de 13 de septiembre 2002]. Disponible en Web: https://www.revistadyo.es/index.php/dyo/article/view/274/274 27. CASTRO, F.; DELGADO, M. “Project Management para la gestión de la innovación en la Industria cubana”. Revista Bimestre Cubano. 2000; 88 (13): 169-202. 28. ONN. ISO 56002: 2019. Innovation management ─ Innovation management system ─ Guidance es adoptada como Norma Nacional idéntica con la referencia NC-ISO 14034: 2019. ICS: 03.100.01; 03.100.40; 03.100.70, abril, Traducción certificada de la Norma Internacional Oficina Nacional de Normalización (ONN); 2020. Cuba. 29. DELGADO, M. Innovación en la administración pública. En: Sánchez, B. Coordinador. Contribuciones al conocimiento de la Administración Pública. La Habana: Editorial Universitaria Félix Varela, 2016, 67-110. 30. DELGADO, M. “Proyección de innovación en Administración Pública y Empresarial en Cuba.” Folletos Gerenciales. 2018, XXII (2):71-84. ISSN: 1817-1788. 31. TIDD, J.; BESSANT, J. Strategic Innovation Management. Inglaterra. 2014.. [ref. de 12 de septiembre 2002]. Disponible en Web: https://www.researchgate.net/publication/285734720 32. DELGADO, M. “Enfoque y métodos para la innovación en la Administración Pública y Empresarial.” Revista Cubana de Administración Pública y Empresarial. 2019, 3 (2): 141-153. [ref. de 14 de septiembre 2002]. Disponible en Web: https://apye.esceg.cu/index.php/apye/article/view/79/88 33. DELGADO, M. “Gestión orientada a la innovación en la preparación de los cuadros empresariales”. Retos de la Dirección. 2019, 13(2): 59-80. http://scielo.sld.cu/scielo.php?script=sci_abstract&pid=S2306-91552019000200059 34. BOURKE, J.; ROPER, S. Innovation, quality management and learning: Short-term and longer-term Effects. Research Policy. 2017, 46, 1505–1518. 35. SCHOORL, M.; KIEVIT, P.; OOMES, J. “Introduction of a Systemic Innovation Management Model for Facilitating Process Innovation”. European Journal of Economics and Business Studies, September -December 2019, Vol. 5, Issue 3. [ref. de 14 de septiembre 2002]. Disponible en Web: https://revistia.com/files/articles/ejes_v5_i3_19/Schoorl.pdf 36. LOTTO, KHL. “QMS based Innovation Management using Extension Innovation Methodology”. 17th ANQ Congress 2019 Bangkok, Thailand, 21-25 October, 2019. 37. LIYU, X.; XIN, L.; WEIXUAN, M. “Evaluation of Innovation Management of Major Projects”. E3S Web of Conferences, 2020, 165, 04031. [ref. de 12 de septiembre 2002]. Disponible en Web: https://doi.org/10.1051/e3sconf/202016504031 38. PINO, J.L.; SOLÍS, F.M.; DELGADO, M.; BAREA, R. “Evaluación de la eficiencia de grupos de investigación mediante análisis envolvente de datos (DEA)”. El profesional de la información, 2010, v. 19, n. 2, pp. 160-167. [ref. de 15 de septiembre 2002]. Disponible en Web: https://doi.org/10.3145/epi.2010.mar.06 39. DELGADO, M. “Proyectos de innovación en Administración Pública y Empresarial en Cuba”. Folletos gerenciales. 2018, 22 (2): 71-84. http://200.14.55.208/index.php/folletosgerenciales/article/view/89/104 40. PORTER, M. Towards a dynamic theory of strategy. Strategic Management Journal. Massachuset: John Wiley & Son, 1991; Vol. 12:95-117. 41. WILLOUGHBY, K. “Generic Strategies and Action Modes: A Philosophical Challenge for Strategic Management”. Journal of International Business and Economy. Fall, 2000:69-92. 42. DELGADO, M. “Uso del diseño de experimentos para la innovación empresarial”. Revista de métodos cuantitativos para la economía y la empresa. Junio 2020, (29): 38-56. [ref. de 12 de septiembre 2002]. Disponible en Web: https://www.upo.es/revistas/index.php/RevMetCuant/article/view/2450/3957 43. DELGADO, M.; INFANTE, M.; ABREU, Y.; GARCÍA, B.; INFANTE, O.; DÍAZ, A. “Metodología de vigilancia tecnológica en universidades y centros de investigación”. Revista CENIC. Ciencias Biológicas, 2010, vol. 41, 1-13. [ref. de 12 de septiembre 2002]. Disponible en Web: http://www.redalyc.org/articulo.oa?id=18122050907 44. DELGADO, M.; ARREBATO, L. “Diagnóstico integrado de la vigilancia tecnológica en organizaciones”. Ingeniería Industrial. 2011; XXXII (2): 151-156. [ref. de 11 de septiembre 2002]. Disponible en Web: http://www.redalyc.org/pdf/3604/360433576009.pdf. 45. GARRIGÓ, L.M. Prospectiva estratégica. En: Delgado M, Coordinador académico. Temas de Gestión Empresarial. Vol. I. La Habana: Editorial Universitaria Félix Varela; 2017. p. 157-195. 46. ANAYA, M.; DELGADO, M.; GARRIGÓ, L. “Estrategia competitiva para el grupo empresarial de la industria alimentaria de Cuba”. Revista Cubana de Administración Pública y Empresarial. 2018;2(1): 82-97. [ref. de 12 de septiembre 2002]. Disponible en Web: https://apye.esceg.cu/index.php/apye/article/view/34 47. DÍAZ-CANEL.; M., DELGADO, M. Mapa estratégico del cuadro de mando integral del modelo de gestión del gobierno orientado a la innovación para la COVID-19. Revista Cubana de Administración Pública y Empresarial, 2021,5(2), e164. [ref. de 12 de septiembre 2002]. Disponible en Web: https://doi.org/10.5281/zenodo.5453120 48. ONN. NC-ISO 9001:2015. Sistema de Gestión de la Calidad. Requisitos. (Traducción certificada). 5ta edición. La Habana: Oficina Nacional de Normalización (ONN), 2015. 49. CUESTA, A.; LINARES, M. A.; FLEITAS. S.; DELGADO, M. Gestión del Capital Humano. En: Delgado M, Coordinador académico. Temas de Gestión Empresarial. Volumen IV. La Habana: Editorial Universitaria Félix Varela. 2017. 157 p. 50. DELGADO, M.; MURIEL, J.; POLO, J. C.; PADILLA, D. “Perfil de competencias de los directivos en Cuba y su aplicación en la agricultura”. Revista Cubana de Administración Pública y Empresarial, 2022;6(1): e194. [ref. de 11 de septiembre 2002]. Disponible en Web: https://doi.org/10.5281/zenodo.5821770 51. DÍAZ-CANEL, M.; DELGADO, M. “Modelo de gestión del gobierno orientado a la innovación”. Revista Cubana de Administración Pública y Empresarial. 2020, 4 (3): 300-321. [ref. de 15 de septiembre 2002]. Disponible en Web: https://apye.esceg.cu/index.php/apye/article/view/141 52. DÍAZ-CANEL, M.; DELGADO, M. “Gestión de gobierno: orientado a la innovación: contexto y caracterización del modelo”. Universidad y Sociedad. 2021; 13(1): 6-16. [Consultado 15 febrero 2022] Disponible en: https://rus.ucf.edu.cu/index.php/rus/article/view/1892/1884 53. DELGADO, M. “Valoración del impacto de la superación de los cuadros en administración pública y empresarial en Cuba”. Revista Cubana de Administración Pública y Empresarial, 2017; 1 (1): 3-18. http://apyc.esceg.cu/index.php/APyE 54. DELGADO, M. “Evaluación de la innovación en empresas cubanas y bolivianas”. Economía y desarrollo, 2019, Vol. 162, No 3 Especial. http://www.econdesarrollo.uh.cu/index.php/RED/article/view/776 55. DELGADO, M.; LAGE, A.; OJITO, E.; ESPINOSA, M.; ARIAS, MA. Visión de la innovación en un centro cubano de la biotecnología aplicada a la salud. Revista Cubana de Salud Pública. 2020; 46, (1): e1941. http://www.revsaludpublica.sld.cu/index.php/spu/article/view/1941 56. OJITO, E. Diseño de una facilidad productiva para la vacuna CIMAVAX-EGF. Trabajo final. Diplomado de Dirección y Gestión empresarial. XII Edición. La Habana: ESCEG, 2015. Sobre los autores Mercedes Delgado Fernández. Rectora y Profesora Titular de la Escuela Superior de Cuadros del Estado y del Gobierno. Doctora en Ciencias Técnicas en Ingeniería Industrial. Miembro del Consejo Nacional de Innovación. Miembro del Tribunal Permanente de Ingeniería Industrial. Presidenta del Comité académico de la Especialidad de Dirección y Gestión Empresarial. EVALUACIÓN DE ALISTAMIENTO SOBRE INDUSTRIA 4.0 EN EMPRESAS DEL MINISTERIO DE INDUSTRIA Tatiana Delgado Fernández1, Ernesto Cedeño Rodríguez2, Grisel Tristá Arbesú2 1Universidad Tecnológica de La Habana “José Antonio Echeverría”, Calle 114 No. 11901 Marianao, La Habana, 2MINDUS, Carretera Toledo No. 18449 entre 184 y autopista 3, Capdevila, Boyeros, La Habana tatiana.delgado@uic.cu, ernesto.cedeno@mindus.gob.cu, grisel@mindus.gob.cu RESUMEN Las empresas que buscan adoptar la Industria 4.0 a menudo tienen diferentes puntos de partida. Un método de evaluación de la preparación de sus procesos, sistemas e infraestructuras ante este paradigma facilitaría a las empresas conocer por dónde empezar, cómo escalar y qué podrían hacer para sostener el crecimiento. El objetivo de este trabajo es exponer los resultados de la evaluación del SIRI- Índice de alistamiento de industria inteligente, en 46 empresas del sector industrial pertenecientes al Ministerio de Industria. Los datos obtenidos muestran un discreto nivel de alistamiento para la mayoría de las dimensiones evaluadas, siendo la automatización y la inteligencia las dimensiones menos favorecidas, mientras los directivos que respondieron la encuesta aprecian mayor preparación en aspectos relacionados con los procesos y con la organización. A pesar de que este resultado puede estar sesgado por elementos subjetivos propios de un autodiagnóstico, aporta una tendencia general de preparación para la Industria 4.0 en el sector. Asimismo, contrastado este resultado con otros análisis contextuales por cada empresa podría contribuir al proceso estratégico y hoja de ruta para su transformación digital industrial. PALABRAS CLAVES: Industria 4.0, evaluación, alistamiento, SIRI. READINESS ASSESSING ON INDUSTRY 4.0 IN ENTERPRISES OF THE MINISTRY OF INDUSTRY ABSTRACT Companies looking to embrace Industry 4.0 often have different starting points. A method of evaluating the readiness of their processes, systems and infrastructures for this paradigm would make it easier for companies to know where to start, how to scale and what they could do to sustain growth. The objective of this work is to present the results of the evaluation of the SIRI-Intelligent Industry Enlistment Index, in 46 companies of the industrial sector belonging to the Ministry of Industry. The data obtained show a discreet level of readiness for most of the dimensions evaluated, with automation and intelligence being the least favored dimensions, while the managers who responded to the survey appreciate greater preparation in aspects related to processes and the organization. Although this result may be biased by subjective elements typical of a self-diagnosis, it provides a general trend of preparation for Industry 4.0 in the sector. Likewise, contrasting this result with other contextual analyzes for each company, it could contribute to the strategic process and roadmap for its industrial digital transformation. KEY WORDS: Industry 4.0, Assessment, Readiness, SIRI 1. INTRODUCCIÓN La Industria 4.0 representa un cambio de paradigma para la fabricación. Las máquinas y los dispositivos, que alguna vez se centraron únicamente en la ejecución de la lógica preprogramada, ahora forman parte de redes inteligentes y autónomas capaces de comunicarse e interactuar entre sí. Los procesos ya no son estáticos; en cambio, son adaptables, autocorrectivos y capaces de responder a las demandas en tiempo real. Los sistemas de control de fábrica rígidos y centralizados también dan paso a la inteligencia y la toma de decisiones descentralizadas, remodelando la base de la competencia de escala a producción flexible. Con los ciclos de vida de los productos y las cadenas de suministro digitalizados en toda la cadena de valor, las empresas pueden ir más allá de la mera provisión de productos y equipos para ofrecer nuevos servicios y modelos comerciales disruptivos. La producción también puede trascender el entorno de la fábrica, ya que los sistemas de fabricación se integran verticalmente con los procesos empresariales y se conectan en red horizontalmente a lo largo de la cadena de valor. Esta integración permite a las empresas responder a las necesidades de los clientes con mayor eficiencia, flexibilidad y rapidez [1]. La llamada Cuarta Revolución Industrial está ocurriendo de forma palpable y acelerada, principalmente, en países desarrollados; sin embargo, constituye una palanca clave para el desarrollo económico y social de toda la humanidad y, en particular, para países en vías de desarrollo [2]. De acuerdo a las recomendaciones dadas en un Informe de UNCTAD (2022), los países en desarrollo deben crear conciencia sobre la industria 4.0 y los impactos positivos de las tecnologías relacionadas. Los gobiernos deberían considerar incentivar a las empresas, especialmente a las pequeñas y medianas empresas, para que reconozcan la importancia de la adopción digital y comiencen el proceso de transformación digital. Para ayudar a crear conciencia, los gobiernos pueden organizar reuniones y actividades para promover los beneficios de la industria 4.0. También, pueden ayudar promoviendo la transformación industrial con las partes interesadas relevantes en cada sector y podrían organizar iniciativas de demostración en parques científicos, incubadoras, aceleradores y laboratorios de innovación. Como parte de tales iniciativas, los gobiernos deben alentar a la academia, las organizaciones de investigación y la sociedad civil a trabajar en estrecha colaboración con el sector empresarial para implementar nuevas tecnologías [3]. Bajo un entorno habilitador, caracterizado por la existencia de políticas de reciente aprobación: la Política de desarrollo industrial [4] y la Política de Automática [5], así como, la construcción de una nueva política de transformación digital, la cual está siendo elaborada de forma colaborativa por múltiples actores de la sociedad, conducidos por el Ministerio de Comunicaciones, Cuba tiene hoy un escenario legal propicio para el desarrollo de la Industria 4.0. También el país cuenta con un marco normativo para la creación y fortalecimiento de nuevas entidades dinamizadoras de la innovación, entre las que se destacan los Parques Científico-Tecnológicos de La Habana y Matanzas, las Empresas Interfaz Universidad-Empresa adscritas a varias universidades y la Fundación de Ciencia, Tecnología e Innovación de la Universidad de La Habana [6]. Por otra parte, el Consejo Nacional de Innovación, bajo la conducción del Presidente de la República, Miguel Díaz-Canel Bermúdez, ha estado analizando, en varias de sus reuniones de 2021-2022, las condiciones actuales y perspectivas para el desarrollo de la transformación digital en la sociedad, con un énfasis particular en el sector industrial. Como resultado, se han activado mecanismos gubernamentales para fortalecer las capacidades en este sentido, en alineación al Programa Nacional de Desarrollo Económico y Social al 2030. En contraste con este entorno favorable, la industria cubana presenta una obsolescencia marcada por varias décadas de limitada inversión en tecnologías, cuya causa principal está dada en las dificultades económicas derivadas del Bloqueo económico, comercial y financiero de Estados Unidos. Tal obsolescencia ha sido recientemente evidenciada en una encuesta de automatización industrial que, como parte de la implementación de la Política de Automática, fue aplicada por el Ministerio de Industria (MINDUS) a las empresas de todos los sectores industriales cubanos. Existen algunas empresas, no obstante, cuyo grado de automatización industrial es relevante. Esto denota que el punto de partida de cada empresa para enfrentar la transformación digital industrial no es el mismo. Por otra parte, es importante entender que si bien la Industria 4.0 se apoya en el desarrollo de la automatización, la conectividad y otras tecnologías de informatización, es en sí mismo un nuevo paradigma que incluye aspectos de muy diversa índole. Estas realidades conducen a la necesidad de evaluar el nivel de preparación o alistamiento de las empresas del sector industrial cubano para enfrentar la Industria 4.0. Como un escenario de realización de la transformación digital, vista como proceso evolutivo, este nuevo paradigma puede ser medido en las organizaciones a través de modelos de madurez, indicadores claves de desempeño (KPIs), u otros sistemas de evaluación que incluyan sus múltiples aristas, con el fin de mejorar la eficiencia y desempeño de la organización y obtener una mayor y más personalizada satisfacción del consumidor [7]. En una evaluación realizada por Delgado (2018) [8] se revela la tipología de evaluaciones de Industria 4.0 se analiza la diferencia entre estos dos conceptos, y se destaca que la preparación o alistamiento muestra si una organización está lista para iniciar un proceso de desarrollo, mientras la madurez, en cambio, refleja un nivel de organización en relación al proceso analizado. El alistamiento se identifica con la "disposición o un estado de preparación para algo" y la madurez es "una forma o estado avanzado o desarrollado" [9]. Existen numerosos artículos en la literatura sobre modelos de evaluación en industria 4.0 que abordan indistintamente alistamiento o madurez. En este trabajo el énfasis principal se hará en el campo de evaluación de preparación o alistamiento, acorde al contexto actual en el que se desenvuelve la industria cubana. En [9] se propone un enfoque conceptual para evaluar el grado de alistamiento de una empresa de fabricación para adoptar los principios y prácticas de Industria 4.0, a partir de las tecnologías habilitadoras principales, las cuales fueron clasificadas con un riguroso estudio de la bibliografía, para generar la siguiente lista de tecnologías habilitadoras: big data, "Internet de las cosas" (IoT), computación en la nube, robots autónomos, fabricación aditiva, sistemas ciberfísicos y realidad aumentada. Como resultado, se obtiene el alistamiento I4.0 de las organizaciones evaluadas en los siguientes niveles: (1) embrionario, (2) inicial, (3) primario, (4) intermedio, (5) avanzado, (6) listo. Otro modelo ampliamente difundido es el modelo de alistamiento de autocomprobación en línea IMPULS [10], que incluye seis dimensiones de Industria 4.0: estrategia y organización, fábrica inteligente, operaciones inteligentes, productos inteligentes, servicios basados en datos y empleados. Entre los modelos más recientes y que ha cobrado una rápida popularidad, se destaca un estudio macro multifactorial que se ha dado en llamar Índice de alistamiento global de Industria 4.0 o GRAMI 4.0 [11], el cual ha sido evaluado en un número importante de países al nivel global. EI SIRI, Índice de Alistamiento de Industria Inteligente, propuesto por Singapur [1], ha sido también ampliamente utilizado y comprende un conjunto de marcos y herramientas para ayudar a los fabricantes, independientemente del tamaño o la industria, a iniciar, escalar y mantener sus trayectorias de transformación digital industrial. Bajo la iniciativa global SIRI, el Foro Económico Mundial, en colaboración con la Junta de Desarrollo Económico de Singapur (EDB), comenzó a construir el mayor conjuntos de datos y puntos de referencia sobre el estado actual de la fabricación [12]. Este trabajo se propone dar a conocer y discutir los resultados de una evaluación realizada a empresas pertenecientes a las Organizaciones Superiores de Dirección Empresarial (OSDE) del Ministerio de Industria. Dicha evaluación se basó en el Índice de alistamiento de industrias inteligentes -SIRI [1] y estuvo apoyada en una acción de capacitación sobre los pilares de la Industria 4.0, llevada a cabo bajo el auspicio del centro de capacitación GESTA del propio ministerio. 2. METODOLOGÍA DE EVALUACIÓN DE INDUSTRIA 4.0 Considerando que la transformación digital es ante todo un proceso cultural, como paso previo para evaluar el nivel de preparación de las empresas industriales para la Industria 4.0, se desarrolló un curso diseñado para los directivos de las empresas de las cinco OSDE del MINDUS (GEMPIL, GER, GELECT, GEIQ, GESIME), aprovechando una capacitación a Directivos de este organismo, organizada por el Centro de Capacitación GESTA. Los objetivos del curso estuvieron dirigidos a:  Conocer generalidades de la Industria 4.0  Identificar los factores críticos de éxito de la I4.0 y Diagnosticar las empresas del OSDE  Determinar principales recomendaciones para el aprovechamiento del paradigma Industria 4.0 en el sector Se empleó el marco de evaluación SIRI – Índice de alistamiento de industria inteligente, propuesto por la Junta de Desarrollo Económico de Singapur [1]. El marco SIRI consta de tres capas. La capa superior está formada por los tres componentes básicos de la Industria 4.0: Proceso, Tecnología y Organización. Los componentes básicos se sustentan en ocho pilares, que representan aspectos críticos en los que las empresas deben centrarse para convertirse en organizaciones preparadas para el futuro. La tercera y última capa comprende 16 dimensiones a las que las empresas deben hacer referencia al evaluar los niveles de madurez actuales de sus instalaciones. SIRI está diseñado para lograr un equilibrio entre el rigor técnico y la usabilidad. En la figura 1 se resume el marco de evaluación SIRI con sus 3 capas y 16 dimensiones. Figura 1. Marco SIRI- Índice de alistamiento de industria inteligente (EDB, 2020) La encuesta fue diseñada a partir de las 16 dimensiones de SIRI y aplicada a decenas de empresas de los cinco OSDE del MINDUS entre mayo y junio de 2022. 3. EVALUACIÓN DEL INDICE DE ALISTAMIENTO DE INDUSTRIA INTELIGENTE Sobre empresas encuestadas Un total de 46 empresas contestaron la encuesta para evaluar el Índice SIRI en su organización. GESIME y GELECT con 12 empresas evaluadas cada uno, encabezan la lista en cantidad de empresas encuestadas, seguidos por GEIQ con 10, GEMPIL con 8 y GER con 4. Los que respondieron las encuestas fueron directivos de primer nivel de cada empresa (Director o Directo-Adjunto, y en algunos casos, algún otro directivo del Consejo de Dirección). La figura 2 muestra la distribución de las encuestas en los cinco OSDE del MINDUS, mientras la tabla 1 detalla las empresas que fueron evaluadas. Figura 2. Distribución de la cantidad de empresas encuestada en los cinco OSDE del MINDUS. Tabla 1. Empresas del MINDUS encuestadas con el marco SIRI No. Empresa OSDE 1 Empresa Suchel GEMPIL 2 Empresa Textil “Desembarco del Granma” GEMPIL 3 Centro de Investigación y Desarrollo - CIDIL GEMPIL 4 Empresa Textil “Celia Sánchez Manduley” GEMPIL 5 Empresa de Pinturas Vitral GEMPIL 6 Empresa Hilandería “Inejiro Asanuma” GEMPIL 7 Empresa Talabartería THABA GEMPIL 8 Empresa CEPIL GEMPIL 9 Empresas de Residuos Sólidos Urbanos de Holguín GER 10 Empresa de Componentes Electrónicos Ernesto Che Guevara GER 11 Empresa de Recuperación de Materias Primas de Ciego de Ávila GER 12 Empresa de Recuperación de Materias Primas Sancti Spíritus GER 13 Cubaelectronica GELECT 14 Empresa mixta COPAL S.A. GELECT 15 Empresa INPUD Primero de Mayo GELECT 16 Electrónicos Ernesto Che Guevara GELECT 17 Empresa CEDAI GELECT 18 Empresa Copextel GELECT 19 Empresa de Servicios Profesionales y Técnicos GELECT 20 Empresa de producciones plásticas de Escambray GELECT 21 Empresa GEDEME GELECT 22 Empresa de Refrigeración y Calderas GELECT 23 SURL Tecnologías de Laboratorios GELECT 24 Instituto de Refrigeración y Clima GELECT 25 Empresa de Gases Industriales GEIQ 26 Empresa QUIMICA INTERNACIONAL S.A GEIQ 27 Empresa Quimimpex GEIQ 28 Empresa Mixta de Productos Sanitarios S.A. (PROSA) GEIQ 29 Empresa CUBAPEL GEIQ 30 Empresa Vidrios Lisa GEIQ 31 Empresa SERVIQUIMICA GEIQ 32 Empresa Rayonitro GEIQ 33 Empresa Poligom GEIQ 34 Empresa EMPREQUIM GEIQ 35 Empresa Industrial Ferroviaria José Valdés Reyes GESIME 36 Empresa TECNOSIME GESIME 37 Empresa Mecánica FAME GESIME 38 Unevol S.A. GESIME 39 Metal Mecánica Indalecio Montejo GESIME 40 Empresa Desarrollo Automotriz GESIME 41 Empresa Industrial “Ángel Villarreal Bravo”. MINERVA. GESIME 42 Laboratorios de Tropicalización, LABET GESIME 43 Combinadas Cañeras “LX Aniversario de la Revolución de Octubre” (KTP) GESIME 44 Empresa de Envases y Recipientes Metálicos (ENVAMETAL) GESIME 45 Planta Mecánica GESIME 46 MONCAR GESIME Evaluación consolidada por dimensión La figura 3 muestra los valores promedio de las 46 empresas por cada una de las dimensiones. Considerando que los valores posibles están en el rango entre 0 y 5, los resultados de esta primera evaluación del SIRI en las empresas analizadas resultan más bien discretos. Los directivos encuestados consideran a los aspectos de procesos y organizacionales con mayores condiciones de preparación, que los aspectos tecnológicos. Los valores más bajos están en las dimensiones automatización e inteligencia, ambos en el bloque de tecnología, lo cual parece un resultado lógico de acuerdo a la etapa incipiente de adopción de la Industria 4.0 en estas empresas. Figura 3. Resultado del Índice de alistamiento en industria inteligente para 46 empresas del MINDUS. Cualitativamente los resultados obtenidos tienen un significado en el marco SIRI, que para estos valores consolidados se detallan en la tabla 2. Tabla 2. Significado del índice consolidado por dimensión en la evaluación de 46 empresas del MINDUS. Dimensión Nivel Significado Integración vertical Digital Los procesos de planificación de recursos y producción técnica se gestionan y ejecutan en silos, mediante sistemas de tecnología de operaciones (TO) y tecnología de la información (TI). Integración horizontal Digital Los procesos empresariales son administrados y ejecutados en silos por sistemas de TI. Integración en el ciclo de vida del producto Digital Los procesos a lo largo del ciclo de vida del producto se gestionan y ejecutan en silos, mediante herramientas digitales. Automatización de la planta Básico Los procesos de producción repetitivos están parcialmente automatizados, con una importante intervención humana. Los procesos de soporte repetitivos no están automatizados. Automatización empresarial Básico Los procesos empresariales están parcialmente automatizados, con intervención humana. Automatización de Instalaciones Básico Los procesos de las instalaciones están parcialmente automatizados, con intervención 0.00 0.50 1.00 1.50 2.00 2.50 3.00 3.50 4.00 4.50 5.00 Alistamiento I4.0 de 46 empresas del MINDUS Junio 2022 humana. Conectividad de la planta Conectado Existen enlaces de red formales que permitirán que los equipos, la maquinaria y los sistemas informáticos interactúen o intercambiar información en alguna medida. Conectividad empresarial Interoperable Los sistemas basados en computadoras pueden interactuar e intercambiar información sin restricciones significativas. Conectividad de instalaciones Conectado Los activos y sistemas de las instalaciones están conectados en alguna medida a través de tecnologías de comunicación y protocolos. Inteligencia en la planta Computarizado Los equipos, la maquinaria y los sistemas informáticos pueden realizar tareas basándose en una lógica preprogramada Inteligencia empresarial Computarizado Los equipos, la maquinaria y los sistemas informáticos pueden realizar tareas basándose en una lógica preprogramada Inteligencia en la instalación Computarizado Los equipos, la maquinaria y los sistemas informáticos pueden realizar tareas basándose en una lógica preprogramada Desarrollo y Aprendizaje de la Fuerza de trabajo Estructurado- Continuo El currículo de capacitación diseñado formalmente para la adquisición de habilidades es el modo predominante de capacitación y desarrollo de la fuerza laboral. Se empieza a adoptar un enfoque continuo Competencia de liderazgo Informado La gerencia está bien informada, a través de canales y vías formales, de las tendencias y tecnologías más recientes. Colaboración entre empresas y dentro de ellas Cooperación Se establecen canales formales para permitir que los equipos trabajen juntos en tareas y proyectos discretos/únicos. Estrategia y gobernanza Formalización para desarrollo Las intenciones de establecer una Fábrica/Planta-del-Futuro han sido identificadas como un enfoque estratégico en la empresa en planes actuales o futuros, aunque todavía no tienen bien desarrollada la estrategia. Este estudio muestra un panorama discreto en cuanto a las capacidades que pueden conducir a un desarrollo del paradigma de la Industria 4.0 en las empresas evaluadas. Asimismo, permite conocer las principales barreras y los ámbitos en los que se podría incidir con mayor efectividad para avanzar en este empeño. 4. CONCLUSIONES La evaluación del Índice de alistamiento de industria inteligente (SIRI) en 46 empresas industriales, pertenecientes al MINDUS, constituye un primer paso para la evaluación de las principales brechas y para el establecimiento de hojas de rutas hacia el desarrollo de la Industria 4.0, personalizadas para cada empresa de este organismo, de acuerdo a sus variados puntos de partida. Las empresas evaluadas pudieron examinar sus procesos, sistemas y estructuras actuales, para cada dimensión del marco de evaluación SIRI, cuya importancia relativa variará según las necesidades de cada una y la industria en la que operan. Esta evaluación se convierte en la línea base para medir el progreso de la Industria 4.0 en próximos períodos. Futuras investigaciones en esta temática abordarán estudios longitudinales de una selección de empresas de la muestra evaluada, con vistas a identificar prioridades y diseñar estrategias de transformación digital industrial que permitan orquestar el desarrollo de la Industria 4.0, con el propósito de incidir con mayor efectividad en la transformación productiva del sector industrial cubano. RECONOCIMIENTOS Se agradece al Ministerio de Industria y a su Centro de capacitación GESTA por haber viabilizado la aplicación de la evaluación presentada en este artículo. Esta investigación se enmarca en el Proyecto Industria 4.0 Mínima Viable que se encuentra en marcha en el Parque Científico-Tecnológico de La Habana. REFERENCIAS 1. EDB, The Smart Industry Readiness Index - Catalysing the transformation of manufacturing, [en línea] Singapur[Ref. 2020] Disponible en www.edb.gov.sg. 2. CEPAL, Tecnologías digitales para un nuevo futuro, [en línea] Santiago de Chile: CEPAL, [Ref. 2021] Disponible en www.cepal.org. 3. UNCTAD, Industry 4.0 for inclusive development, Geneva, [Ref. 2022] Disponible en https://unctad.org/system/files/official-document/dtlstict2022d4_en.pdf 4. GACETA OFICIAL DE CUBA, Decreto 59/2021 Sobre el Desarrollo Industrial en Cuba, [en línea] La Habana, 2021. 5. GACETA OFICIAL DE CUBA, Decreto 45/2021 Sobre el desarrollo integral de la automatización en Cuba, [en línea] La Habana, 2021. Disponible en https://www.gacetaoficial.gob.cu/sites/default/files/goc-2021-o90_0.pdf 6. GACETA OFICIAL DE CUBA, Decreto De los Parques Científico-Tecnológicos y de las empresas de ciencia, tecnología que funcionan como interface entre las universidades y entidades de ciencia, tecnología e innovación con las entidades productivas y de servicio. 7. DELGADO, T. Taxonomía de transformación digital, Revista Cubana de Transformación Digital, 2020.pp. 4-23. 8. DELGADO, T. Industria 4.0: Marcos de referencia y factores de alistamiento en el contexto cubano. Simposio Ingeniería Industrial. 19 Convención Científica de Ingeniería y Arquitectura, La Habana, 2018. 9. PACHINI, A. P. T., LUCATO, W. C., FACCHINI, F., & Mummolo, G., The degree of readiness for the implementation of Industry 4.0, Computers in Industry, p. 113, 2019. 10. IMPULS. Industry 4.0 readiness. Online Self-Check for Business. [en línea]. Disponible en https://www.industrie40-readiness.de/?lang=en 11. TRIPATHI, S., GUPTA, M. A holistic model for Global Industry 4.0 readiness assessment, Benchmarking: An International Journal, vol. 28, nº 10, pp. 3006-3039, 2021 12. WORLD ECONOMIC FORUM, The Global Smart Industry Readiness Index Initiative: Manufacturing Transformation Insights Report 2022, 2022. Sobre los autores Tatiana Delgado Fernández es Ingeniera en Sistemas Automatizados de Dirección (1989), tiene una maestría en optimización y toma de decisiones (1997) y un doctorado en ciencias técnicas (2005). Es Profesora titular del Departamento de Informática Empresarial de la Facultad de Ing. Industrial de la Cujae y Vicepresidenta de la Unión de Informáticos de Cuba. Ernesto Cedeño Rodríguez es Ingeniero Automático. Se desempeña como Viceministro del MINDUS. Grisel Tristá Arbezú es Ingeniera Industrial (1986) y Doctora en Ciencias Técnicas (2021). ANÁLISIS Y PROPUESTAS DE MEJORAS DEL PROCESO DE EXPEDICION DEL TRANSPORTE EN LA EMPRESA DE TRANSPORTE DE LA CONSTRUCCIÓN. Lianny O’Farrill Fernández1, Yoselín Herrera Joe2 1 Universidad Tecnológica de la Habana José Antonio Echeverría, Cujae. La Habana, Cuba. 2 Empresa de Transporte de la Construcción, calle Camaguey entre Canal y Callejón Pastora, Cerro, La Habana, Cuba. 1e-mail: lianny@ind.cujae.edu.cu 2e-mail: yoselinhj@entrac.cu RESUMEN El análisis y, la acción correctiva y mejora de procesos son esenciales en el desempeño efectivo de la gestión por procesos. La Empresa de Transporte de la Construcción mantienen desde 2008 una gestión de este tipo, identificando la Gestión de la Transportación de Carga como su proceso clave. La expedición del transporte es uno de los flujos asociados a este proceso, su misión principal es la de organizar y medir las variables del servicio de transportación a partir de la documentación, Hoja de ruta y Carta Porte. Para realizar el análisis de este flujo se parte de un diagnóstico y de acuerdo a los resultados obtenidos se fijó como propósito actualizar el flujo de expedición del Transporte del proceso de Transportación de Carga acorde con las políticas y regulaciones actuales, las políticas de la nueva administración y el conocimiento embebido en el sistema Zafiro. Para ello se definieron los Requisitos actualizados a partir del conocimiento implícito en el sistema Zafiro, los elementos documentados y las entrevistas con los trabajadores. Se elaboró un modelo haciendo uso de la notación BPMN 2.0 que permitiera relacionar elementos esenciales como el flujo de información, las actividades y los actores. PALABRAS CLAVES: proceso de negocio, enfoque a procesos, BPMN, Expedición del Transporte. ANALYSIS AND IMPROVEMENT PROPOSALS OF THE TRANSPORT EXPEDITION PROCESS IN THE CONSTRUCTION TRANSPORT COMPANY.ABSTRACT Analysis, corrective action and process improvement are essential in the effective performance of process management. Since 2008, ENTRAC has maintained this type of management, identifying Freight Transportation Management as its key process. The transport expedition is one of the flows associated to this process, its main mission is to organize and measure the variables of the transportation service from the documentation, Routing and Bill of Lading. The analysis of this flow is based on a diagnosis and, according to the results obtained, the purpose was to update the Transport expedition flow of the Freight Transportation process according to the current policies and regulations, the policies of the new administration and the knowledge embedded in the Sapphire system. For this purpose, the updated requirements were defined based on the knowledge embedded in the Sapphire system, the documented elements and the interviews with the workers. A model was elaborated using BPMN 2.0 notation to relate essential elements such as information flow, activities and actors. KEY WORDS: business process, business process approach, BPMN, Transportation Expediting 1. INTRODUCCIÓN La implementación de un sistema de procesos dentro de una organización, así como la identificación e interacción de estos procesos y su gestión, para producir el resultado deseado, es lo que se conoce como enfoque a procesos. La gestión de procesos ayuda a la organización a documentar, diseñar, describir, comparar, eliminar, alinear o rediseñar actividades, que forman parte integrante de determinados procesos, de modo tal que se contribuya a la eficiencia, calidad, productividad, con el fin de lograr las metas organizativas [1] Cuando se utiliza dentro de un sistema de gestión de calidad, este enfoque hace hincapié en la importancia de los requisitos, la comprensión y el cumplimiento de ellos. [2] Muchas organizaciones tradicionales regularmente se gestionan de manera vertical, con el compromiso de los resultados obtenidos separado por departamentos funcionales. Lo que trae como consecuencia que las partes interesadas estén ajenas a conocer la manera en que se lleva a cabo el proceso. Esto conlleva a la escasa o nula mejora para las partes interesadas, ya que las acciones están frecuentemente enfocadas en las funciones más que en el beneficio global de la organización. [2] El enfoque basado en procesos para los sistemas de gestión requeridos por la norma ISO 9001, determina utilizar la siguiente metodología para implementar el mismo en las empresas: 1. Identificar los procesos de la organización 2. Planificar el proceso 3. Implementar y medir los procesos 4. Analizar el proceso 5. Acción correctiva y mejora del proceso Según [3] el ciclo de vida de los procesos de negocio, como se muestra en la Figura 1, consiste en fases relacionadas y organizadas en una estructura que, como lo argumentan Van der Aalst [4] y Weske [5], no implica una dependencia temporal o un orden estricto en el que deban ejecutarse. En lugar de esto, el ciclo de vida de los procesos de negocio, tal como aparece en la figura 1, puede entenderse como un proceso evolutivo e incremental. Este enfoque permite que las organizaciones inicien la implementación de iniciativas de BPM sin tener que asumir una etapa de aprestamiento demasiado exigente en términos técnicos, financieros y organizacionales. Además, delinea un camino de mejora continua y sostenible para los procesos de la organización. Figura1. Ciclo de los procesos organizacionales El presente trabajo parte de la evaluación de un flujo de procesos previamente diseñado, el cual a partir de las mejoras propuestas cae en la etapa de análisis y diseño. Análisis y Diseño Configuración Ejecución Evaluación El objetivo de este trabajo se enmarca en el paso cinco de la metodología expuesta anteriormente. Ya que se llevará a cabo un análisis del proceso de Expedición del Transporte en la Empresa de Transporte de la Construcción (ENTRAC) a partir del cual se proponen algunas mejoras. 2. EXPEDICIÓN DEL TRANSPORTE La gestión del transporte es un eslabón fundamental en la cadena de suministros. Planificar, medir y controlar las transportaciones es un imperativo en toda empresa transportista. La expedición del transporte es un proceso vital que regula y permite el control sobre la transportación de la carga hasta hacerla llegar a su destino para que cumpla con su objetivo final. Para que esta etapa se lleve a cabo con éxito es necesario que se sigan un conjunto de pasos que ayudan a la transparencia del proceso. La expedición del transporte puede definirse en dos etapas: 1. La etapa previa a ejecutarse la transportación. 2. Una etapa posterior a la transportación o sea una vez ejecutado el servicio. En la primera etapa el objetivo principal es documentar el viaje de la mercancía, una vez que se planifique, es asignado a un chofer y este deberá hacerse de la documentación requerida, Hoja de Ruta, Carta de Porte, Dieta para el viaje, esta última en caso de ser necesaria. En la segunda etapa la empresa transportista se hace de todos los documentos, Hoja de Ruta, cartas de Porte para validar su veracidad, controlar, medir y poder ejecutar otros procesos. 2.1. La empresa de Transporte de la Construcción ENTRAC El enfoque a proceso ha demostrado ser una manera efectiva para gestionar una organización. La Empresa de Transporte de la Construcción, ENTRAC, ha asumido ese enfoque por más de diez años. El objeto social de la organización es la Transportación de Carga General, priorizando las necesidades del Ministerio de la Construcción, donde se enmarca la entidad. Para lograr satisfacer las demandas de sus clientes internos y externos se definen en la entidad seis procesos organizacionales clasificados como se aprecian en la Figura 2, donde se representa el Mapa de Procesos de ENTRAC. Figura2. Mapa de Procesos de ENTRAC Como se observa en la figura el Proceso Clave es la Gestión de la Transportación de Carga (GTC). El cual interactúa directamente con los clientes externos y aporta los ingresos a la entidad. Uno de los flujos dentro de este proceso es la Expedición del Transporte, objeto de estudio de este trabajo. 2.2. Diagnóstico del Proceso de Expedición del transporte en ENTRAC. El proceso clave Gestión de la Transportación de Carga posee su núcleo en la UEB de Transporte perteneciente a ENTRAC. El departamento de Expedición se encuentra inmerso en el departamento de Operaciones de la UEB de Transporte. En la figura 3 se presenta parte del organigrama de la empresa, según los intereses del trabajo. Figura 3. Organigrama de la UEB de Transporte Según la metodología planteada en la ISO 9001, para la implementación de un enfoque a procesos, dos de sus pasos son Analizar el proceso y, la Acción correctiva y mejora del proceso. En tal sentido lo primero que se llevó a cabo para el análisis del proceso fue un diagnóstico del mismo, a partir de evaluar la documentación relacionada existente, la observación del flujo en tiempo real en cada una de las actividades que lo componen desarrolladas por los diferentes actores, así como el estudio de la herramienta Informática que posee la organización para soportar este flujo de manera más eficiente. Para realizar el diagnóstico se emplearon las siguientes técnicas de manera combinada  Observación. Dos trabajadores de la dirección de Organización estuvieron durante varias jornadas en el área de expedición, participando de las reuniones que involucran esta sección, así como de los despachos de los viajes.  Entrevista. Se realizaron entrevistas a los trabajadores de Expedición, a la comercial de la UEB de Transporte, a la aforadora y a los trabajadores del departamento de GPS. Todos estos trabajadores interactúan de manera directa con el área de Expedición.  Espacios de discusión. Se realizaron varias reuniones con todos los trabajadores que de alguna manera mantienen una interacción con esta área.  Análisis documental. La entidad cuenta con una ficha de proceso, donde se describen algunas actividades que corresponden con el flujo de expedición del transporte. Esta ficha fue elaborada en el 2008. En el análisis de la ficha de procesos se tuvo en cuenta la presencia explícita o implícita de elementos invariantes que conforman cualquier proceso por lo que deben estar presente ta;l como aparece en la figura 4. Para esto se usó una matriz que relaciona cada uno de los elementos con los signos + y -. Si elemento aparece de manera explícita se le otorga ++, si aparece de manera implícita se le otorga +- y en caso de no aparecer se le otorga --. D ir ec ci ó n G en er al UEB Transporte de Carga Operaciones Comercial Expedición Aforo GPS RRHH Económia Figura4. Matriz de elementos del Procesos Los resultados del diagnóstico se ofrecen a continuación 1. No queda documentada cómo se gestiona la información durante gestión el proceso. 2. No existe una correspondencia entre la secuencia de actividades documentada en la ficha de procesos las políticas y regulaciones vigentes, y el desarrollo del flujo en tiempo real por cada uno de los actores. 3. No existe correspondencia entre los actores representados y los cargos ocupacionales en la entidad. 4. Falta de elementos a considerar a partir de nuevas resoluciones, buenas prácticas en el dominio funcional del proceso y cambios establecidos por la nueva administración en los flujos los procesos asociados. 5. Falta de Modelos que representen la integración de la información, los responsables, las actividades y su secuencia en una vista única. A partir de los resultados obtenidos se fija como propósito actualizar el flujo de expedición del Transporte del proceso de Transportación de Carga acorde con las políticas y regulaciones actuales, las políticas de la nueva administración y el conocimiento embebido en el sistema Zafiro. 3. ACTUALIZACIÓN DEL FLUJO DE EXPEDICIÓN DEL TRANSPORTE La expedición del transporte es una actividad fundamental en las empresas transportistas. En la Empresa de Transporte de la Construcción esta actividad determina los ingresos, los salarios devengados por los choferes que ejecutan los servicios de transportación, inicia el flujo de los mantenimientos, planificados y no planificados. En el caso de los mantenimientos planificados a partir de los kilómetros recorridos y en el caso de los no planificados a partir del reporte de avería que realiza el chofer una vez realizado el viaje. Este trabajo tiene la misión de establecer las pautas para la expedición del transporte en la UB Transporte la Habana perteneciente a la Empresa de Transporte de la Construcción de manera que se encuentre acorde con las nuevas regulaciones y disposiciones legales y con el know-how de los trabajadores. Para comenzar la actualización del flujo se realizó una búsqueda de las normas y resoluciones cubanas asociadas con la actividad, de tal forma que no existiera disyuntiva entre lo que comúnmente hacen los trabajadores y lo que se dispone en las legislaciones.  Resolución No. 213/2019 Normas Generales sobre la carta de porte (GOC-2019-590-O50)  Resolución 184/2000 MITRANS  Resolución 249/05 Procedimiento y Análisis de la CP y la HR  Resolución 338/2020 MFP  Resolución 60/2011, Normas del Sistema de Control Interno 3.1. Actores del proceso Un actor del negocio es cualquier individuo, grupo, entidad, organización, máquina o sistema de información externos; con los que el negocio interactúa. (Referencia) Partiendo de este concepto se identificaron los siguientes actores: Director de la UB Transporte, Especialista en Operaciones, Técnico expedidor, los Choferes y el Sistema informático Zafiro. Sistema Informático Zafiro En la actualidad las Tecnologías de Información (TI) son un elemento fundamental para todos los sectores de la sociedad. Las Empresas que pretendan ser competitivas deben acoger estas tecnologías e insertarlas en sus procesos organizacionales, de forma que se evidencie la generación de valor para la Entidad a partir de la integración de ambos elementos. En 2016 ENTRAC adoptó el Sistema Zafiro, un sistema informático que venía naciendo con excelentes perspectivas y cuya principal misión era la de gestionar una base de transporte. Actualmente el sistema está certificado por el MITRANS avalando cada uno de los flujos de la gestión del transporte en los que interviene. Es una aplicación web, modular, desarrollada por expertos cubanos por lo que las políticas y regulaciones que la soportan son las emitidas dentro del país. Integra varios procesos empresariales como, Gestión del transporte, Gestión de Equipos, Gestión de RRHH y Economía. Para un buen desempeño de la aplicación es importante contar con una serie de datos bases, datos de los choferes, los equipos, la asignación de choferes por equipos, mantenimiento técnico planificado de cada vehículo de carga. Durante el flujo de expedición se van sumando datos como los kilómetros recorridos por cada equipo, ciclo de viaje real, cantidad de viajes. Algunos de los requerimientos extraídos de la aplicación en el módulo de expedición tenemos, el chofer debe estar activo para que le sea asignado un viaje. Los documentos del vehículo deben estar en regla. Una carta porte debe ser introducida al sistema con origen y destino. Un viaje admite solamente una Carta Porte. Cuando un equipo está cerca de su mantenimiento planificado según el kilometraje recorrido se emite una alerta que obliga a la toma de decisiones. 3.2. Información que se debe gestionar durante la expedición del transporte El proceso de toma de decisiones es vital para cualquier organización. Su propósito está asociado a disminuir los riesgos organizacionales, solucionar problemas y aprovechar oportunidades. En correspondencia, desarrollando acertados procesos de decisión, las organizaciones no solo generarían ventajas competitivas o un mejor posicionamiento en su ambiente de negocios, sino que podrían crear capacidades organizacionales que les permitan orientarse a los cambios, y, tanto, adaptarse mejor a los mismos. [6] Debido a la importancia del Transporte Automotor de Carga en la matriz de carga de los países se acentúa la necesidad de contar con más datos sobre la eficiencia de su desempeño [7], y el de la toma de decisiones para los administrativos. Algunos de los problemas pendientes que posee hoy la organización deben su existencia aun a una mala gestión de la información. Algunos de ellos son, desvíos en los mantenimientos planificados esto ocurre debido a que no existe una comunicación efectiva entre Expedición y los técnicos de mantenimiento además no se explota el módulo de equipo del Zafiro donde de manera automática genera una alerta en este caso. Es por ello que determinar qué información es necesaria, donde se genera y cuando se consume es crucial. En la tabla 1, se presenta la información a gestionar, los documentos donde queda plasmada esa información y otras áreas que hacen uso de la información. Información Documentos Áreas que usan la información. Datos del Chofer Sistema Zafiro RRHH, Economía Origen del Viaje Carta Porte, HR Destino Carta Porte, HR Carga a Transportar Carta Porte Kilómetros recorridos Hoja de Ruta Aforo, Mantenimiento Ciclo de Viaje Hoja de Ruta Dietas Vale de dieta Economía Estado técnico del equipo Reporte de Avería Mantenimiento Tabla1. Información a gestionar en Expedición del Transporte 3.3. Requerimientos del flujo de expedición del transporte Previos al Viaje 1) Verificar que los documentos del Chofer y del vehículo estén actualizados y en regla. 2) Asignar Vale de dieta si corresponde. 3) Entregar Carta Porte y Hoja Ruta al Chofer. 4) Actualizar registro de Hoja de Ruta y Carta Porte 5) Registrar en el Zafiro la CP y la HR correspondiente al servicio. 6) Actualizar la pizarra de tráfico. Después del viaje 7) Recepcionar los documentos del servicio HR y CP. 8) Firmar los registros de HR y CP el chofer y el técnico expedidor. 9) verificar que las CP reconocidas por el cliente se correspondan con las insertadas en el Registro de Expedición de las CP y en sistema Zafiro. La conciliación debe realizarse a partir del número de orden consecutivo y la fecha de emisión. En caso de detectarse una anomalía informar al especialista de Operaciones. 10) Si la HR presenta borrones y/o tachaduras, el expedidor la recibe señalando de inmediato al chofer la falta cometida (Res-184/00) y levanta la Nota de NO CONFORMIDAD. Esta queda registrada en el modelo de la 184. 11) Cerrar la HR, rectificando primero los kilómetros reflejados por el chofer en cada tramo; es necesario auxiliarse de la tabla de distancia. Después, totaliza los kilómetros recorridos por el equipo y si el combustible consumido no está en correspondencia con el Km, informar al especialista de Operaciones sobre el caso. 12) Informar los km recorridos a la UEB Taller apoyándose en los reportes del Zafiro, así como en la información evidenciada en los registros al efecto, con vistas a la planificación de los mantenimientos. 13) Archivar de manera permanente por el término de 5 años, una vez la producción sea aforada y se realicen los análisis de Explotación del Transporte. 14) Si el chofer regresa del servicio con algún desperfecto técnico el expedidor elabora, a su solicitud el modelo correspondiente para el Reporte del equipo a taller. 3.4. Modelo BPMN del Flujo de Expedición de Transporte. Ante la información recopilada es necesario encontrar una manera de representarla, de tal forma que confluyan todos los elementos del proceso. Donde se encuentren las respuestas a interrogantes como, qué se hace, quién lo hace, cuándo lo hace, qué debe pasar para que realice. Existen varias notaciones que permiten modelar procesos, algunas se centran en un que otro elemento más que otras. En el caso que nos ocupa lograr representar el flujo de la información es trascendental, es por ellos que se escogió la notación BPMN. El modelado en BPMN, se realiza mediante diagramas muy simples con un conjunto muy pequeño de elementos gráficos. Con esto se busca que para los usuarios del negocio y los desarrolladores técnicos sea fácil entender el flujo y el proceso [8]. El modelo del flujo de Expedición del Transporte se muestra a continuación en la Figura 5. Figura 5. BPMN Expedición del Transporte. 4. CONCLUSIONES A partir del estudio realizado y presentado en el presente trabajo se arriba a un grupo de conclusiones que se presentan a continuación: 1. Se realizó un diagnóstico del flujo de expedición del transporte arrojando una serie de deficiencias que inciden en el desempeño del proceso. 2. Se actualizó el flujo de Expedición del Transporte a partir, de las políticas y regulaciones vigentes, el conocimiento implícito en el sistema Zafiro y el know-how de los trabajadores expertos. 3. Se modeló el flujo de expedición del transporte haciendo uso de la notación BPMN 2. 0. Se recomienda desarrollar este análisis para todos los procesos de la organización, Estratégicos y de Soporte y darle solución a las brechas que persisten aún luego del proceso de análisis y mejora de los flujos de trabajo. RECONOCIMIENTOS Los autores del presente trabajo desean reconocer la ayuda de los integrantes de la UEB de Transporte perteneciente a la Empresa Nacional de Transporte de la Construcción, que son los especialistas responsables del proceso de Gestión de la Transportación de Carga donde se enmarca el flujo analizado en este trabajo. Especial reconocimiento a su director en funciones Carlos del Valle, quien varios largas jornadas y reuniones permitió formar un equipo para actualizar este proceso. REFERENCIAS [1] R. camara, «"Gestión de procesos de negocios" La Ganesis de la Cultura Universitaria en morelos,» 2019. [2] «ISOTools,» 2015. [En línea]. Available: https://www.isotools.cl/importancia-del-enfoque-basado- en-procesos-en-iso-90012015/. [Último acceso: sepriembre 2022]. [3] E. A. Galvis-Lista y M. P. González-Zabala, «HERRAMIENTAS PARA LA GESTIÓN DE PROCESOS DE NEGOCIO Y SU RELACIÓN CON EL CICLO DE VIDA DE LOS PROCESOS DE NEGOCIO: UNA REVISIÓN DE LITERATURA,» Ciencia e Ingeniería Neogranadina,, vol. 2, nº 24, pp. 37 - 55. [4] van der Aalst, «Business process management: A comprehensive survey,» ISRN Software Engineering, 2013. [5] M. Weske, Business Process Concepts, Languages, Architectures, Berlín: Springer, 2007. [6] Y. R. Cruz, «Gestión de Información y del conocimiento para la toma de decisiones organizacionales.,» vol. 11, 2015. [7] J. A. Barbero y P. Guerrero, «El transporte automotor de cargas en América Latina. SOPORTE LOGÍSTICO DE LA PRODUCCIÓN Y EL COMERCIO,» 2020. [8] M. Keskes, «"K4BPMN Modeler: An extension of BPMN2 Modeler with the Knolwledge Dimension Based on Core Ontologies",» 2017. Sobre los autores MSc. Lianny O’Farrill Fernández. Graduada de Ingeniería Informática en Universidad Tecnológica de la Habana. Master en Informática Empresarial desde 2012. Desde el año 2016 labora como profesora- investigadora de la Universidad tecnológica de la Habana. Pertenece al Departamento de Informática Empresaria de la CUJAE. Lic. Yoselin Herrera Joe. Graduada de Licenciatura en Comunicación Social en la universidad de la Habana. Desde 2021 se desempeña como Directora de Organización en la Empresa de Transporte de la Construcción. COMERCIO ELECTRÓNICO CON LA CADENA DE BLOQUES Andrés Subert Semanat1, Juan José Puchades Terrero2 1Universidad de Oriente, Ave. Las Américas s/n Santiago de Cuba, 2Universidad de Oriente, Ave. Las Américas s/n Santiago de Cuba ión 1asubert@uo.edu.cu: RESUMEN La implementación de un sistema de comercio electrónico basado en la cadena de bloques es una de las soluciones más acertadas en cuanto a materia de modelos de pago digitales respecta. Esta práctica, resuelve ineficiencias que persisten en los modelos tradicionales, dotándolos de características que mejoran considerablemente aspectos como la seguridad, agilidad de transferencias, y costes operacionales. La investigación discute la posibilidad de implementar contratos inteligentes y automatizar la negociación entre las partes implicadas en un acuerdo, siguiendo condiciones estrictas definidas con antelación mediante un lenguaje programático. Se argumenta la potencialidad de un sistema de comercio electrónico basado en la cadena de bloques, enfocado en la adaptación y flexibilidad de los servicios, así como la propuesta de servir de ecosistema entre los distintos sectores de la economía y la sociedad.. PALABRAS CLAVES: Comercio electrónico, Cadena de bloques, contratos inteligentes, criptomonedas. ELECTRONIC COMMERCE WITH THE BLOCK CHAIN ABSTRACT The implementation of an electronic commerce system based on the block chain is one of the most successful solutions in terms of digital payment models. This practice resolves inefficiencies that persist in traditional models, providing them with features that considerably improve aspects such as security, agility of transfers, and operational costs. The research discusses the possibility of implementing smart contracts and automating the negotiation between the parties involved in an agreement, following strict conditions defined in advance through a programmatic language. The potential of an electronic commerce system based on the block chain is argued, focused on the adaptation and flexibility of services, as well as the proposal to serve as an ecosystem between the different sectors of the economy and society. KEY WORDS: Electronic commerce, Blockchain, smart contracts, cryptocurrencies. 1. INTRODUCCIÓN La tecnología Cadena de Bloques tiene sus orígenes en 1991, cuando se describió en una publicación como aplicar un sello de tiempo a un documento digital, tratando acerca de una cadena de bloques, cuyos bloques son asegurados criptográficamente [1]. (HABER, STUART). Clasifica como un tipo concreto de tecnologías DLT (Distributed Ledger Tecnology), que como la traducción indica, son tecnologías de libro mayor distribuido. Se caracteriza por una estructura que utiliza recursos criptográficos, para inscribir, validar, ordenar y distribuir una serie de registros, que contienen datos pertenecientes a un lote especifico de transacciones no meramente financieras. En Cuba país para finales del 2021 ya se contaba con más de 11,200,000 tarjetas magnéticas activas, ascendiendo a más de 110 millones de transacciones con respecto al año previo (49 millones), y la cantidad de operaciones que actualmente se realizan sin intercambio de efectivo en el sector bancario asciende al 71% del total [2]. Uno de los objetivos principales adoptados a nivel bancario es continuar reduciendo la curva del pago con efectivo en cuanto al monto de operaciones. No obstante, se reconoce que una dificultad para ello, es la cantidad de dinero en papel demandada por la población para ejecutar pagos en la vida cotidiana, a la vez que existen grandes dificultades con los cajeros automáticos, de los cuales aproximadamente el 16% del total se encuentran obsoletos, o diariamente aparecen apagados o rotos [2]. A plataformas existentes como la banca móvil, telebanca, cajeros automáticos, Transfermovil y Enzona, se añadieron aplicaciones informáticas para móviles como Viajando y TuEnvio, a la vez que aparecieron varias tiendas virtuales por todo el territorio nacional, favoreciendo el aumento de las actividades de comercio digital. El aumento en la demanda de estos servicios, dio a luz una serie de acontecimientos que reflejaron la aún escasa madurez de la infraestructura y en la organización de las tareas de suministro. Ejemplos como la saturación y caída de los servidores de TuEnvio, Transfermovil y Enzona, servicios intermitentes en POS, pagos realizados que no fueron correspondidos con la mercancía solicitada en las tiendas virtuales, demora en las entregas y en las devoluciones, así como vulnerabilidades en las plataformas de pago que fueron explotadas por personas mal intencionadas, son algunas de las debilidades de los servicios actuales que requieren solución. El problema de la existencia de un sistema de comercio electrónico que es aún ineficiente y carece en ocasiones de la confianza por parte del usuario final, efecto contraproducente que aumenta la demanda de papel moneda en detrimento de un sistema económico más eficiente y digitalizado. 2. LA CADENA DE BLOQUES Y LAS FINANZAS DESCENTRALIZADAS Y EL SISTEMA FINANCIERO La cadena de bloques sirve de estructura para la modificación e incorporación de nuevos modelos económicos nacionales y transfronterizos, incentivados por la creciente competencia que este tipo de tecnología exige. Fenómeno que se expande a todos los sectores de la sociedad, en ocasiones siendo complejo destacar las fronteras entre las actividades relacionadas con el comercio electrónico y los servicios públicos, dada la sinergia que plantea un sistema de gobierno abierto y distribuido basado en la inclusividad [3] Desde el surgimiento de las criptomonedas, se han desarrollado varios proyectos de gran envergadura que han revolucionado la forma en la que se gestionan los fondos, creando nuevos e innovadores servicios que han impactado de gran manera sobre la forma en la que los usuarios disponen de su capital. La aparición de plataformas dedicadas al canje de divisas digitales, llamadas Exchanges o “Intercambios”, permiten la concentración de este capital en forma de fracciones de criptoactivos en fondos de custodia, incrementando la valoración de muchos de ellos por la creciente demanda. La relativa facilidad con que las personas pueden adquirir una llave pública en la que depositar fondos y disponer de ellos sin necesidad de enviar datos personales o rendir cuentas a terceros, no solo favorece a usuarios de los países desarrollados y con mayor tasa de capitalización, sino que permite a aquellos más desfavorecidos y sin posibilidad de acceder a una cuenta bancaria o servicios crediticios, contar con una vía para satisfacer esa necesidad. La volatilidad en este tipo de mercado, a pesar de aumentar la imprevisibilidad y los riesgos asociados a la inversión, también permite mayores beneficios. Característica que ha sido bien aprovechada por grandes intercambios y fondos de inversión para obtener rentabilidades en el corto plazo superiores a las obtenidas por las importantes instituciones bancarias en igual margen temporal, a pesar de contar con un fondo de capital y un personal cientos de veces mayor. Por motivos de esta índole, además de la relativa facilidad con la que se puede adquirir y transferir “valor”, instituciones reguladoras y financieras adoptan una posición enfocada en robustecer la seguridad de los sistemas centralizados. Para ello se implementan sistemas de verificación de identidad; KYC (Conozca a su cliente), técnicas AML (Antilavado de dinero) o -su homólogo según el GAFI- ALA (Antilavado de activos) y CFT (Contra financiamiento del terrorismo). Bajo estas condiciones de precaución y debido al aumento de la capitalización en el mercado de criptomonedas, algunas de las instituciones bancarias, deciden incorporar nuevos servicios financieros, como la gestión, inversión y custodia de criptoactivos, atemperándose con las nuevas y crecientes demandas del público en general. Nuevo sistema financiero internacional La creciente tendencia de las FinTech, las finanzas descentralizadas, el uso de criptomonedas y la aparición de nuevos servicios de alta rentabilidad han irrumpido en los últimos años, y cada vez se percibe más su participación ocupando una mayor cobertura en el mercado financiero. Los bancos aún dominan el mercado de los servicios de transacciones, aunque los altos costos son algunas de las razones que impiden a muchos consumidores utilizar sus productos o servicios. Especialmente en los países pobres, donde no pocos clientes quedan excluidos del mundo de los servicios financieros. A pesar de la dominancia en el mercado, las innovaciones de pago generalmente provienen de entidades no bancarias, como PayPal o TransferWise y otras FinTech, que trabajan en la reducción de los costos mediante la prestación de servicios novedosos. Los nuevos proveedores de servicios de pago en línea eliminan las altas comisiones bancarias, beneficiando particularmente a muchos clientes que utilizan pagos transfronterizos. La suma de las circunstancias anteriores ha abierto el debate en numerosos Bancos Centrales, algunos de los cuales ya están explorando la emisión de monedas digitales soberanas como es el caso del Banco de Inglaterra, Banco Popular de China, Banco de Canadá, Banco de Suecia o Banco Central de Uruguay, entre otros. A este tipo de monedas se ha referido la literatura como “Monedas digitales emitidas por bancos centrales” o “Central Bank Digital Currencies” (CBDC). 3. MONEDA DIGITAL DE BANCO CENTRAL Una moneda digital de Banco Central o “CBDC”, es una forma de dinero fiduciario digital que es emitido por el Banco Central de un país y por tanto tiene valor de curso legal en dicha nación. Es una nueva implementación del dinero fiduciario, incorporando algunas funcionalidades similares a las criptomonedas, enfocadas a las necesidades del mundo actual y pueden implementarse diferentes variantes de acuerdo a la aplicación [3]. Las CBDC no son criptomonedas descentralizadas, son una respuesta por parte de los bancos centrales ante la creciente adopción de activos digitales, enfocados a mejorar algunas de las características del dinero fiduciario, para incrementar su valor de uso y funcionalidad. Entre sus objetivos se destacanlos siguientes: crear nuevas estructuras financieras y económicas capaces de abrir puertas de inversión importantes para las naciones y el mundo y crear mecanismos de control de política monetaria cuya actuación sea inmediata. Con las CBDC se consigue erigir una estructura que permita rastrear el curso del dinero desde su origen hasta su último actor en todo momento así como sustituir el anonimato del dinero por un “anonimato” gestionado por las entidades centrales. Asimismo se consigue seguridad y resiliencia del sistema de pagos y eficiencia de pago nacional o transfronterizo. Características de las CBDC Toda operación o transacción con CBDC es transparente para la institución de control y tanto ésta como el efectivo usado en la actualidad deben tener determinadas características a los fines de ser reconocidos como dinero: • Es posible intercambiarlo entre pares (sin conocimiento del emisor). • Su aceptación es universal, un hecho que es apoyado por su cuadro legal otorgado por el Estado y la institución que lo emite, en tal sentido, su tenencia y uso por cualquier ciudadano es legal. • Es anónimo y privado. • Su tenencia no devenga intereses. Aspectos a considerar previos a la implementación de la Moneda Digital del Banco Central Las monedas digitales emitidas por bancos centrales pueden ayudar a automatizar la política monetaria, que sería importante en caso de crisis como la reciente pandemia, dando a los estados la posibilidad de apoyar la economía de manera más rápida y eficiente. Una trazabilidad eficiente permitiría a las naciones frenar las actividades ilícitas, evasión fiscal, tráfico de drogas y financiamiento al terrorismo [4]. Los aspectos que se proponen considerar son los siguientes: • Establecer niveles de cooperación entre el sector púbico y el público-privado. • Tener en cuenta las brechas e inconsistencias regulatorias y políticas relacionadas con las monedas digitales. • Mapeo de riesgos y protección al consumidor de moneda digital. • Propuesta de valor a través de monedas estables para lograr la inclusión financiera. • Moneda digital basada en la cadena de bloques y herramientas para desembolso de ayuda transfronteriza. • Opciones de privacidad y confidencialidad para el Banco Central. • Definición de la interoperabilidad. • Análisis y consideraciones que puedan agregar valor adicional a la tecnología CBDC. 4. CUBA, CONTEXTO ECONOMICO PARA INCLUIR LA TECNOLOGÍA DE LA CADENA DE BLOQUES Comenzaba marzo de 2020, una etapa donde se comenzaba a percibir la gravedad de la pandemia del covid-19, produciendo una caída en todos los mercados mundiales, incluido el de las criptomonedas debido al pánico creado por la creciente ola de fallecimientos y los descubrimientos relacionados con las características evolutivas del virus. Esta fue una etapa crítica, dado al contexto económico mundial, algunas de las empresas de este tipo que pretendían brindar servicios con una intencionalidad positiva terminaron fracasando dado el impacto atroz de la economía, aunque garantizaron la devolución del capital a cada uno de los participantes. Por supuesto, que este declive económico creó condiciones propicias para que las empresas con las peores intenciones catalizaran sus estafas y se especializaran en engaños mucho más creíbles y atractivos al público. Este fue uno de los motivos que incentivó al crecimiento y unidad de la comunidad de criptomonedas y la cadena de bloques en Cuba. Desde donde surgieron algunas iniciativas fidedignas para lograr una integración de Cuba con el resto del mundo, mediante la utilización de la cadena de bloques en detrimento de las políticas económicas impuestas a la isla. Además de comenzar a explorar las posibilidades que podría brindar esta tecnología más allá de las relacionadas con las transferencias de criptomonedas. Actualmente, se ha reconocido el impacto de la cadena de bloques y la potencialidad de brindar una mayor eficiencia en los procesos relacionados con la negociación, transferencias, registros, y en toda interacción que requiera un intermediario, permitiendo prescindir de este. Aspecto que dota de una mayor confiabilidad en el uso de sistemas que no requieran confianza entre las partes, además que agiliza todo el proceso burocrático implícito en una negociación, mediante el uso de contratos inteligentes, que permiten que los documentos sean presentados de forma paralela y se resuelva con mayor diligencia que los sistemas convencionales. Situación jurídica con aspecto a las criptomonedas Respecto al tema de investigación se hace necesario analizar desde el punto de vista jurídico algunas normas. Entre ellas se destaca la Resolución 215/2021 del BCC (Banco Central de Cuba), la cual reconoce la existencia legal de este tipo de monedas y abre el camino para su posterior regulación en el país. La Resolución en cuestión, publicada en la Gaceta Oficial Extraordinaria No. 73 del 26 de agosto del 2021 (GOC-2021-814-EX73) y firmada por su Ministra Presidente Marta Sabina Wilson González, tiene como objetivo "establecer las normas a partir de las cuales el Banco Central de Cuba, por razones de interés socioeconómico, regula el uso de determinados activos virtuales, en transacciones comerciales, así como el otorgamiento de licencia a proveedores de servicios de activos virtuales para operaciones relacionadas con la actividad financiera, cambiaria y de cobranzas o de pagos, en y desde el territorio nacional [5]." Se establece en las nuevas normativas que "Las instituciones financieras y demás personas jurídicas solo pueden usar activos virtuales entre ellas y con personas naturales, para realizar operaciones monetario mercantiles, y de canje y recanje; así como para satisfacer obligaciones pecuniarias, cuando así lo autorice el Banco Central de Cuba." Se especifica en la resolución que "Los órganos u organismos de la Administración Central del Estado, las organizaciones políticas, de masas y sociales y demás instituciones, controlan y supervisan que sus entidades subordinadas y las formas asociativas de las que son órganos de relación, se abstengan de utilizar activos virtuales y los servicios de estos, en transacciones comerciales, monetario mercantiles o para satisfacer obligaciones pecuniarias, salvo en los casos que autorice el Banco Central de Cuba." Las sanciones impuestas al país y las restricciones de viaje han dificultado el acceso a los ciudadanos cubanos a los dólares como divisa habitual. Por lo que ahora, los cubanos comienzan a utilizar las monedas digitales para comerciar en divisas. Dado la inseguridad y los riesgos que presentan las criptomonedas que pueden propiciar estafas con estos activos que se mueven en billeteras por el ciberespacio, el BCC en dicho documento se deslindó de cualquier acción delictiva con estas. Expresando que “Las personas naturales asumen los riesgos y responsabilidades que en el orden civil y penal se derivan por operar con activos virtuales y proveedores de servicios de activos virtuales que funcionan al margen del Sistema Bancario y Financiero, aun cuando no están prohibidas las transacciones con activos virtuales entre dichas personas”. Ante hechos de tipo ocurridos, el Banco Central de Cuba señaló en un comunicado que el Gobierno cubano" no promueve ni aprueba el funcionamiento de este tipo de empresas" libremente y que "ninguna de ellas cuenta aún con licencia oficial otorgada por el banco central para operar dentro del territorio nacional". Contexto internacional financiero que impacta las finanzas del país Una de los instrumentos externos que mayor impacto negativo tiene sobre la economía de nuestro país, es el embargo financiero de Estados Unidos contra Cuba, el cual cuenta con un amplio entramado jurídico construido durante décadas que incluye seis leyes diferentes y numerosas regulaciones que en unos casos prohíben y, en otros, restringen o regulan las relaciones comerciales, económicas y financieras de la isla. El Sistema Bancario y Financiero cubano continúa siendo uno de los principales blancos de las medidas agresivas de las administraciones estadounidenses y se afecta por las siguientes acciones: • La creciente cancelación de operaciones bancarias y de acuerdos de corresponsalía de instituciones bancarias y financieras extranjeras para tramitar operaciones de los bancos y de las empresas cubanas. Consistente en la imposibilidad de recibir servicios, aperturar cuentas, realizar transferencias de fondos desde o hacia el país. • El cierre de cuentas corrientes, el bloqueo de fondos y la inhabilitación de contratos ya establecidos. • La negativa de bancos extranjeros a avisar y tramitar operaciones de cartas de crédito. Estas negativas generan afectaciones para las empresas cubanas por las demoras que ello genera, puesto que se ven obligadas a buscar algún banco alternativo que quiera tramitar los documentos. • La constante devolución de transacciones bancarias hacia atrás o la retención de fondos de entidades cubanas en bancos extranjeros. Las mayores incidencias en las operaciones tramitadas, tanto por transferencias como por créditos documentarios, responden a devoluciones recibidas por supuestas políticas internas de los bancos de los beneficiarios o de los bancos corresponsales, lo cual impide que los fondos lleguen a su destino. • Los bancos europeos, latinoamericanos y asiáticos fueron los que realizaron las mayores devoluciones de operaciones bancarias, argumentando la existencia de sanciones contra Cuba que los obligan al cumplimiento de las políticas internas de los bancos al respecto. • Las remesas desde el exterior se han visto particularmente afectadas a partir del interés del gobierno estadounidense de impedir la entrada de divisas. Como resultado de esta política las agencias expedidoras imponen costos de transacción más elevados a las operaciones de este tipo con destino a Cuba y las provenientes directamente de EE.UU. han sido canceladas totalmente afectando a los ciudadanos cubanos. • La cancelación de llaves de mensajería para el intercambio de información financiera que se realizan a través de la Sociedad para las Telecomunicaciones Financieras Interbancarias (SWIFT, por sus siglas en inglés). • Estas cancelaciones de llaves RMA originan dificultades y demoras en la tramitación de las operaciones bancarias. Los bancos utilizan la red de SWIFT para realizar transferencias electrónicas de dinero y mensajes entre ellos. Para las transferencias bancarias internacionales, los códigos SWIFT son necesarios para efectuar transacciones rápidas y seguras. • Dificultades con las agencias de mensajería DHL y SWIFT para el envío y recepción de documentos bancarios ha obstaculizado el uso de estos canales de comunicación tradicionales provocando que para recibir o tramitar documentos ya no se cuenta con la misma garantía y seguridad. • El envío de las remesas documentarias por vías alternativas se realiza mediante copias enviadas vía correo electrónico, incluyendo los documentos de embarque, y no con los originales, que deberían recibirse directamente por DHL. • Los importadores cubanos tienen que buscar nuevas vías de recepción de los documentos para poder realizar los trámites aduanales con vistas a la extracción de las mercancías del puerto. Ello genera demoras en este proceso y en la incorporación de los productos a la economía interna. En muchas ocasiones como resultado de la persecución de las operaciones bancarias se aplican multas millonarias a las instituciones financieras extranjeras obligándolas a que opten por la cancelación de todo tipo de operaciones y relaciones financieras con Cuba. 5. LA CADENA DE BLOQUES COMO ALTERNATIVA AL SISTEMA DE COMERCIO ELECTRONICO NACIONAL Debido a que el término “comercio electrónico”, abarca a una cantidad ingente de sectores, incluyendo al sistema financiero, económico y comercial esta investigación se enfoca en la aplicación de un sistema de acciones cuyo objetivo principal es lograr la optimización y efectividad de las actividades subyacentes del comercio electrónico para lograr la transformación digital. Esta propuesta consta de dos etapas: la educación de la sociedad y la digitalización de la moneda soberana del Banco Central. Educación de la sociedad A pesar de que la sociedad cubana en los recientes años ha despertado cierto interés sobre las tecnologías y métodos utilitarios relacionados con las criptomonedas y la cadena de bloques, es necesario en un contexto donde los sistemas económicos a nivel mundial indican estar orientados a hacia una migración digital, que las personas puedan relacionarse con aspectos relacionados a la integración de las tecnologías y nuevos servicios digitales, con respecto a los sistemas financieros tradicionales. Para ello se recomienda desarrollar una serie de programas relacionados con esta temática que permitan a los interesados aumentar su conocimiento y cultura digital, se propone incluir los siguientes temas: Operaciones básicas con criptomonedas (Billetera, transferencias y recibo), las criptomonedas como una herramienta útil para la recepción de remesas, Seguridad y protección de activos (Recomendación al servicio de custodia) y Ahorro y educación financiera. Digitalización de la moneda soberana de Banco Central Antes de entrar en aspectos relacionados con el diseño se deben tener consideraciones en relación a la base monetaria que va a servir de valor a la CBDC. Al referirnos de una moneda digital de curso legal emitida por el Banco Central de Cuba, los principios que alteran su comportamiento en el sistema de precios y políticas monetarias deben tener la misma relación que con la moneda actual (CUP) [41], a pesar de que este comportamiento pudiera estar sujeto a modificaciones siempre y cuando las instituciones responsables así lo decidieran. Algunos países ya han creado su CBDC[4]. Los valores pudieran estar basados en reservas de oro, recursos minerales, naturales, bienes o servicios, la complejidad de un sistema que permita migrar de una moneda a otra con valoraciones diferentes, es una causa que requiera de planificación, análisis económico y una justificación que lo amerite. Aunque algunos países que han concluido su implementación, algunos permanecen en una etapa de prueba, a la vez que otros países figuran en una etapa de investigación o desarrollo. De ahí que un punto a destacar es que no se ha definido hasta el momento una estandarización para este proceso innovador, un aspecto que dificulta la tarea, debido a incompatibilidades relacionadas con la interoperabilidad respecto a otros sistemas. 6. INTEROPERABILIDAD DE LAS CBDC EN EL COMERCIO ELECTRÓNICO TRANSFRONTERIZO. Atendiendo a la potencialidad de mejorar la eficiencia de los pagos e intercambios transfronterizos, instituciones como el CPMI (Comité de Pagos e Infraestructura de Mercado), el grupo de innovación del Banco de Pagos Internacionales (BIS Innovation Hub), el FMI (Fondo Monetario Internacional) y el Banco Mundial, realizaron un conjunto de propuestas al G20, donde reflejaron la posibilidad de alcanzar tales metas con la colaboración y unidad de los países [6]. Según [7] actualmente existen 3 modelos multidivisas CBDC (mCBDC), orientados al establecimiento de acuerdos múltiples entre diferentes países para el intercambio y transferencia de monedas digitales; sobre los cuales se puede prever la interoperabilidad de los proyectos en desarrollo. El primero de ellos consiste en un sistema donde las transferencias entre CBDC se ofrecen por una multitud de empresas privadas competidoras que se benefician de medidas de compatibilidad y requisitos de participación ampliamente similares. Donde los sistemas CBDC determinan por separado el reglamento y la gobernanza, los criterios de participación y la infraestructura como se aprecia en la Figura 1. Figura 1. Modelo mCBDC No. 1 dado por el BIS [7] El segundo modelo se basa en un arreglo de sistemas CBDC interconectados, existe una base contractual conjunta del sistema de interconexión. Tanto el reglamento y arreglos de gobernanza, los criterios de participación como la infraestructura están separados como se aprecia en la Figura 2 que puede contar con 3 opciones para el establecimiento, mediante: Interfaz técnica, proceso centralizado del sistema de compensación y proceso descentralizado del sistema de compensación. Figura 2. Modelo mCBDC No. 2 dado por el BIS [7] El tercer y último modelo hasta la fecha presentado por el BIS, se basa en un sistema multidivisas mCBDC único. O sea, se refiere un sistema único al cual tributan múltiples CBDCs. De esta forma los bancos centrales acordaran un reglamento único, un conjunto único de requisitos de participación e infraestructura de apoyo como se aprecia en la Figura 3. Figura 3. Modelo mCBDC No. 3 dado por el BIS [7] Una posible solución en nuestro país, está relacionada con el estudio de las plataformas y métodos de implementación utilizadas por las principales potencias que figuran en los “aliados comerciales”. De esta forma el sistema desarrollado contaría con un grado importante de compatibilidad, pudiendo establecerse transacciones entre los varios actores comerciales incluidos en la red. Otra posibilidad está relacionada con la determinación o desarrollo de un sistema puente, que sirva de “adaptador universal” en las transacciones transfronterizas. Esta opción actualmente está siendo analizada y discutida por el BIS y por los Bancos Centrales implicados en el desarrollo de sus respectivas monedas digitales. Aunque dada la incorporación al sistema financiero tradicional de la iniciativa pública y privada, adoptada internacionalmente para darle solución a los nuevos retos que implica un nuevo sistema económico mundial, mediante la asociación de FinTech al sistema bancario, lo más probable es que en el corto plazo la alternativa más viable, esté dada por transacciones digitales de “monedas estables” entre este tipo de empresas digitales tributando directamente como pasarela de pago e Intercambio a sus respectivos Bancos Centrales. He aquí la importancia de incorporación de nuevas políticas regulatorias y legislativas relacionadas con el tema. 7. INCORPOPRACIÓN DE NUEVOS SERVICIOS FINANCIEROS Con el fin de facilitar una mayor utilidad, funcionalidad y efectividad al sistema de comercio electrónico hasta el momento utilizado en Cuba se abordan en síntesis algunas iniciativas basadas en la incorporación de servicios brindados por las FinTech o una asociación directa a estas bajo supervisión bancaria, que dotaría al sistema de la flexibilidad necesaria para poder satisfacer las crecientes necesidades expuestas por la demanda y resolver limitantes convencionales. Estas iniciativas se relacionan seguidamente:1. Plataforma de pagos con base a fondos en CBDC, 2 Sistema de custodia de criptoactivos, 3 Servicio de remesas utilizando criptoactivos, 4 Plataforma de intercambio de activos, 5.Sistema de conversión automática, para depósitos y transferencias y 6.istema de comercio electrónico para micro, pequeñas y medianas empresas De todas estas iniciativas es necesario centrar el foco en dos de ellas: la plataforma de pagos con base a fondos en CBDC y la plataforma de intercambio de activos. En ellas ya se evidencian logros en la Cuba. Un gran número de cubanos ha utilizado alguna de las plataformas de pago disponibles: Transfermovil y Enzona, aplicaciones que permiten la interacción con nuestras cuentas bancarias, permitiendo acceder a determinadas herramientas de configuración para la gestión de los usuarios, consultas y realización de pagos. La implementación de una cadena de bloques nacional, contaría con la CBDC emitida por el Banco Central de Cuba, como la principal moneda de curso legal en el país, a la par del papel moneda en circulación, hasta tanto la adopción y uso del nuevo sistema digital sea completamente satisfecho. Por otro lado la plataforma de intercambio de activos es fundamental en el desarrollo de un mecanismo de intercambio orientado a la centralización (Intercambio centralizado), dado que los fondos en criptomonedas se encontrarían depositados dentro de una cuenta de custodia. Se conocen tres FinTech cubanas que pretenden cubrir los intercambios de criptomonedas entre usuarios desde un marco más sofisticado. La primera es QVApay, una plataforma de intercambios, basada en la tecnología blockchain y enfocada principalmente en los negocios y mercantes que deseen operar vía criptomonedas en sus servicios. Pensada para aquellos negocios o Startups que deseen implementar el pago con criptomonedas en su flujo de cobros para extender nicho de mercado y nuevas oportunidades de venta. La segunda es Qbita, una plataforma minimalista cuyo método de intercambio se basa en la publicación de ofertas donde se fija la tasa de cambio y se comparten datos adicionales como la cantidad de la criptomoneda disponible para el canje y el método de pago aceptado. Cuenta con su propia aplicación (wallet) y la cantidad de usuarios que utilizaban sus servicios en septiembre de 2022 asciendia a los 27605. La tercera es HeavenEx, es una empresa internacional de servicios con criptomonedas, cuya plataforma desarrollada por cubanos y registrada legalmente en Uruguay, En HeavenEx usted puede comprar y vender varios tipos de criptomonedas, que pueden ser intercambiadas.. En principio, la forma de realizar el intercambio en ambas es bastante similar y a una mayor escala puede ser funcional; pero aun dista de un modelo útil, que garantice un intercambio líquido entre los activos.Una de las variantes más reservadas y menos controversial, consistiría en un servicio que permita dado un envío en las criptomonedas definidas, realizar el cambio equivalente a CBDC, descontando las comisiones incurridas por el intercambio e impuestos por concepto de remesas. Esta opción simplificaría enormemente los métodos de implementación y los relacionados con la obtención de liquidez. 8. CONCLUSIONES Utilizando la tecnología subyacente de la cadena de bloques se puede implementar un nuevo sistema económico nacional que integre a todos los sectores de la economía, permitiendo una revitalización y potenciación del sistema de comercio electrónico. Esta integración puede realizarse a través de un sistema permisionado, que otorgue ciertos privilegios de acceso y escritura, a cada una de las entidades representativas de cada sector, mediante el uso de contratos inteligentes. Estos contratos, serán diseñados de forma especializada de acuerdo a la funcionalidad y de los parámetros requeridos en una negociación tradicional, con el objetivo de automatizar estos procesos. El diseño de una moneda soberana digital o CBDC, además de servir como moneda de curso legal y un mecanismo de intercambio utilizado tanto por personas jurídicas como naturales, implica: reducir los costes de tramitación en comparación con el dinero fiduciario, una mayor inclusión financiera, una transmisión más rápida de la política monetaria en comparación con los métodos tradicionales, incluyendo mejores condiciones de liquidez y liquidaciones en tiempo real, más estabilidad y menos barreras de entrada para nuevas empresas en el sistema de pagos y una reducción significativa de los gastos asociados a la impresión de papel moneda. REFERENCIAS 1. S. Haber y W. S. Stornetta, «How to time-stamp a digital document», 1990, pp. 437-455. 2. R. Alonso Falcón, O. Figueredo Reinaldo, Y. J. Sifonte Díaz, y E. Carmona Tamayo, «Sistema bancario cubano apuesta por la modernización de sus servicios», Cubadebate. http://www.cubadebate.cu/?s=Sistema+bancario+cubano+apuesta+por+la+modernizaci%C3%B3n+ de+sus+servicios (accedido 10 de septiembre de 2022). 3. «A VALUE ANALYSIS FOR INVESTMENT BANKS - Financial Quest». https://financialquest.com.ng/a-value-analysis-for-investment-banks/ (accedido 10 de septiembre de 2022). 4. S. L. Náñez Alonso, J. Jorge-Vazquez, y R. F. Reier Forradellas, «Central banks digital currency: Detection of optimal countries for the implementation of a CBDC and the implication for payment industry open innovation», J. Open Innov. Technol. Mark. Complex., vol. 7, n.o 1, p. 72, 2021. 5. «Digital Currency Governance Consortium White Paper Series», World Economic Forum. https://www.weforum.org/reports/digital-currency-governance-consortium-white-paper-series/ (accedido 10 de septiembre de 2022). 6. «III. CBDCs: an opportunity for the monetary system», jun. 2021, Accedido: 10 de septiembre de 2022. [En línea]. Disponible en: https://www.bis.org/publ/arpdf/ar2021e3.htm 7. «Monedas digitales emitidas por bancos centrales». © Banco de Pagos Internacionales 2018. Accedido: 10 de septiembre de 2022. [En línea]. Disponible en: https://www.bis.org/cpmi/publ/d174_es.pdf TECNOLOGÍA PARA GESTIONAR LA INFORMACIÓN AMBIENTAL MUNICIPAL Roani Ladislá Miranda Cuéllar1, Martha Elena Durán Galano2, Roani Caballero Miranda3, Elvis Noris Cuesta4 1,2,3 Universidad Tecnológica de La Habana “José A. Echeverría”, Ave 114 #11901 e/ Rotonda y Ciclovía, Marianao, La Habana, Cuba 4CITMA 1e-mail:rmiranda@ind.cujae.edu.cu RESUMEN La preservación del medio ambiente requiere gestionar la información que permita su evaluación y orientar adecuadamente la toma de decisiones municipales, para contribuir al cumplimiento de los objetivos del PNDES 2030, la Agenda 2030 y una mejor gestión de la administración pública. Para contribuir a una adecuada gestión, es necesario que la evaluación del estado del medio ambiente se realice con un enfoque ambiental integrado basado en información documentada. Se utilizaron los métodos y técnicas de investigación: histórico - lógico, entrevistas y encuestas, observación participante y análisis y síntesis. Se diseñó una tecnología para gestionar la información ambiental municipal compuesta por tres etapas. Se ejecutó un diagnósticoy se diseñaron e implementaron capacitaciones para elevar la cultura ambiental. Se contribuyó en la modificación de los sistemas de trabajo en el municipio y la descentralización vertical, favoreciendo sentar las bases de la descentralización horizontal. Con el uso de esta tecnología se establecieron las líneas generales sobre las cuales se deben realizar las alianzas y se estructura la información para contribuir a la oportuna toma de decisiones, mejorar el desarrollo local y la gobernabilidad municipal. PALABRAS CLAVES:Gestión de información ambiental, proyecto de innovación, enfoque ambiental integrado, evaluación ambiental, desarrollo local. TECHNOLOGY TO MANAGEMENT MUNICIPALITY ENVIRONMENTAL INFORMATION ABSTRACT The preservation of the environment requires managing the information that allows its evaluation and properly guiding municipal decision-making, to contribute to the fulfillment of the objectives of the PNDES 2030, the 2030 Agenda and better management of the public administration. To contribute to proper management, it is necessary that the assessment of the state of the environment be carried out with an integrated environmental approach based on documented information. Research methods and techniques were used: historical - logical, interviews and surveys, participant observation and analysis and synthesis. A technology was designed to manage municipal environmental information consisting of three stages. A diagnosis was carried out and training was designed and implemented to raise the environmental culture. Contribution was made to the modification of work systems in the municipality and vertical decentralization, favoring laying the foundations for horizontal decentralization. With the use of this technology, the general lines on which alliances should be made were established and the information is structured to contribute to timely decision-making, improve local development and municipal governance. KEY WORDS: Environmental information management, innovation project, integrated environmental approach, environmental assessment, local development 1. INTRODUCCION La actual crisis ambiental agravado por los efectos de la Covid 19 y el aumento del deterioro de las economías a nivel global, conlleva a que la sostenibilidad y la innovación sean el lenguaje común en el accionar cotidiano. Seaprecia un auge en las políticas gubernamentales para impulsar de forma eficaz la investigación y la innovación, pero su basamento requiere la integración de políticas de educación, ciencias básicas, desarrollo tecnológico, I + D empresarial y las tecnologías sostenibles (“ecológicas”) [1]. De esta forma se promueve la concepción de estrategias nacionales de desarrollo sostenible; la construcción de capacidades endógenas y el cuidado del medio ambiente [2]; con el apoyo de proyectos de innovación que respondan a situaciones de locales, intereses y valores, resolviendo problemas económicos, sociales y ambientales [3]. La Agenda 2030 con 17 Objetivos de Desarrollo Sostenible (ODS) establece una visión transformadora hacia la sostenibilidad económica, social y ambiental [2]. Sin embargo, su asimilación y adecuación a las estrategias territoriales harán visibles su cumplimiento, atemperados a las características contextuales que en la práctica [4]. Las tecnologías que promueven el desarrollo sostenible constituyen una prioridad emergente en toda América Latina [1] y en Cuba se ha potenciado la gestión del conocimiento científico y técnico en los territorios y la creación de innovaciones sociales para el desarrollo de sus localidades dado que las innovaciones sociales están aparejadas de estudios de la sociedad y revelan un crecimiento sostenible [5]. A tales efectos se aprobó la política para el desarrollo territorial, así como el Decreto No. 33 de 2021 para la Gestión estratégica del desarrollo territorial [6] y un conjunto de normativas. El desarrollo local conlleva la transformación orientada a las esferas fundamentales del tejido local, desde sus propios actores y escenarios que se expresa en los procesos de concertación y negociación, y la co- construcción de capacidades con la utilización de medios y recursos propios. Para lograr el desarrollo local se requiere la implementación de políticas públicas soportadas científica y metodológicamente [7]; y el involucramiento de todos los actores y sectoresque, unido al desempeño eficaz de los gobiernos locales, viabilizan nuevas formas de desarrollo económico. Esnecesaria a suvez, autonomía y protagonismo desde la toma de decisiones; donde la información ambiental cobra especial significación como base indispensable para la planificación, las decisiones a tomar y la implantación de estrategias y políticas más eficientes [8], especialmente en los territorios. A su vez, es importante robustecer la articulación de los datos con indicadores para una oportuna toma de decisiones [9]. Los procesos armónicos de centralización y descentralización posibilitan acometer la gestión efectiva para el desarrollo territorial y el uso integral de los recursos, fundamentalmente los recursos humanos por la ventaja competitiva que representan en todos los sectores de producción social [10] a escala local en todos los niveles, con la concertación entre los actores locales y organismos de diversos niveles para desarrollar las capacidades de gestión gubernamental local; a través de la transferencia de competencias desde la administración central hacia las administraciones locales [10], [11]. El papel de los gobiernos locales sustentados en políticas afines con el desarrollo local es primordial en la descentralización. En las bases de la descentralización se enfatiza en la gobernanza participativa [12] y el incremento del nivel de vida de los ciudadanos [11]. No es posible un desarrollo local sin tener en cuenta esta premisa, lo cual es esencial para acometer una mejor gestión de los gobiernos a través de los proyectos y programas destinados a las iniciativas económicas locales. Para ello se requiere un cambio multinivel desde la estructura hasta las políticas acompañantes, así como la utilización eficiente de los recursos en función de la trasformación y el bienestar social en la localidad. Así como también el fortalecimiento de las estructuras de gobierno en los territorios y la aplicación de los nuevos conocimientos científicos a la gestión de los gobiernos y otros actores, mediante los vínculos con las universidades [13], [14]. El papel de las universidades en el sistema de innovación es satisfacer las necesidades del desarrollo combinados con la relevancia y el impacto socioeconómico [15], [16] constituyendo requisitos imprescindibles para un desempeño académico de excelencia en Cuba [17]. El Proyecto Estratégico y el Programa del Ministerio de Educación Superior (MES) cubano integra los ODS de la Agenda 2030 con indicadores y metas en los objetivos estratégicos y procesos [18], y son la contribución de las universidades y el sistema de Educación Superior en los avances del país [18] [19]. En tal sentido se ejecuta, desde la Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE, la investigación en curso relacionada con la evaluación integrada del estado del medio ambiente y se integra el Proyecto de Ciencia, Tecnología e Innovación “Gestión de información ambiental para la toma de decisiones” (PNCTI GIA TD)en correspondencia con el Programa Nacional de Desarrollo Local en Cuba. Dicho proyecto está encaminado a mejorar la gestión de información ambiental en los territorios mediante el fortalecimiento del sistema de información ambiental, la educación y comunicación ambiental y la investigación científica. Su implementación contribuye a solventar las insuficiencias en la gestión de información ambiental en los territorios, así como a la carencia de enfoques integrales que limitan la introducción (…) de la dimensión ambiental en las políticas, planes y programas de desarrollo [20]. Sin embargo, es necesario encontrar los mecanismos para lograr una adecuada gestión, por lo que se diseña una tecnología a tales efectos.El objetivo del trabajo es mostrar la aplicación parcial de la Tecnología para gestionar la información ambiental municipal diseñada en el marco de la ya citada investigación y del Proyecto antes mencionado,que se nutren de la gestión de la información ambiental y que contribuye a cumplimentar varios objetivos de la Agenda 2030 y del PNDES 2030. 2. Tecnología para gestionar la información ambiental El reto de gestionar la información ambiental no es privativo de Cuba, son múltiples los desafíos en la disponibilidad y uso de información para dar seguimiento al estado del ambiente con una producción de información ambiental robusta confiable y políticamente relevante (análisis y procesamiento de datos)[21] Se diseñó la Guia para el trabajo en los municipios Gestión de información ambiental municipal que contiene un conjunto de Pasos metodológicos generales, entre los que se encuentra: Establecer principios, objetivos generales y estrategias específicas, que condujo a la necesidad de diseñar la Tecnología para la gestión de información ambiental municipal, conformada por tres etapas fundamentales como se muestra en la figura 1. Figura 1. Tecnología para gestionar la información ambientalmunicipal. I. Caracterización: Se realiza la identificación de las características de los municipios involucrados y se definen las líneas de acción. Se emplea la observación directa, indirecta y participante, entrevistas individuales y grupales. Se elaboran informes y se concluye el diagnóstico. II. Implementación: Se proponen soluciones de acuerdo a la problemática identificada, se ejecutan acciones, se integran las líneas de acción y se capacita a los actores locales. Se aplican las normas técnicas y específicas relacionadas con las líneas de acción identificadas y se establecen indicadores de control y de gestión. Se analizan métodos y variantes para la gestión de la información ambiental a partir de la integración de soluciones que aportan la evidencia documentada municipal para que tributen al Sistema Nacional de Información Ambiental. Se analizan los procesos de la administración pública municipal y las tecnologías asociadas. III. Análisis: Se valoran las soluciones propuestas, el cumplimiento de los objetivos y el comportamiento de los indicadores de control y de gestión. Se realiza una comparación entre el estado inicial y el estado actual (concluida la aplicación de la tecnología) en los municipios involucrados con respecto a: información ambiental documentada, conocimientos sobre educación ambiental, cambio climático y desarrollo sostenible, sistema de información ambiental municipal, participación de los actores municipales en la gestión de gobierno, entre otros. Se compara además, con las referencias en la literatura. 3. Aplicación de la Tecnología para gestionar la información ambiental Para la aplicación de la tecnología se emplearon los siguientesMétodos y técnicas de investigación Histórico – lógico: Permitió investigar y analizar los orígenes y evolución del desarrollo local, la revisión de diagnósticos ambientales anteriores realizados en estos territorios, el marco jurídico regulatorio, las experiencias sobre la temática y la gestión de información ambiental. Entrevistas y encuestas: Para conocer los procesos de trabajo en los municipios y en las líneas de acción. Se realizaron preguntas cerradas de selección múltiple, otras con escala Likert y preguntas abiertas. Observación participante: Para determinar el cumplimiento del marco jurídico, a partir de las actividades de los actores responsables y de los beneficiarios; así como los comportamientos y manifestaciones en el desempeño de sus funciones. Análisis y síntesis: En la elaboración de la tecnología. Selección de los municipios: Se seleccionaron los municipios Cotorro, Habana del Este y Boyeros atendiendo a que son municipios donde pueden desarrollarse prácticas agrícolas ecológicas. Dichos municipios tienen una representativa base económica y características diferenciadas en sus ecosistemas. Análisis y síntesis: Con el objetivo de estudiar las metodologías, modelos y marcos de trabajo existentes para el desarrollo de iniciativas y creación de innovaciones sociales en los territorios. La Tecnología solo fue aplicada en su Etapa I y parcialmente la Etapa II, ya que el proyecto y la investigación se encuentran en ejecución. A continuación se presentan los resultados: Etapa I Para determinar las características del municipio en cuanto a la información ambiental, los actores, la realización de diagnósticos ambientales, las herramientas ofimáticas y los componentes de los sistemas de información, la formación ambiental, el marco jurídico regulatorio y las competencias de los tomadores de decisiones en cuanto a las líneas definidas. Asimismo, se realiza un diagnostico preliminar que considere la relación entre los objetivos de las organizaciones objeto de análisis y la información ambiental. Se creó el Grupo de Trabajode acuerdo a un conjunto de directrices. Etapa II De acuerdo a las etapas de la Tecnología fueron ejecutadas las siguientes acciones: • Análisis y valoración de los presupuestos teóricos y metodológicos que fundamentan la gestión de la información relacionada con las líneas de investigación definidas para la toma de decisiones. • Ejecución de observación participante. • Reuniones de la coordinación del proyecto. • Determinación del algoritmo de trabajo con cada uno de los actores participantes a nivel de provincia. • Determinación consensuada del algoritmo de trabajo con participantes a nivel de municipio. • Intercambio entre los actores. A partir del diagnóstico inicial se determinó que era necesarioelaborar la Ruta de formación ambiental y se elabora un Plan de capacitación que se ejecuta en su primera fase. Igualmente, seanalizaron en los municipios los componentes de los sistemas de información, la formación ambiental, el marco jurídico regulatorio y las competencias de los tomadores de decisiones en cuanto a las líneas definidas. Asimismo, se realiza un diagnostico preliminar que considere la relación entre los objetivos de las organizaciones objeto de análisis y la información ambiental. ElResumen de las evaluaciones regionales GEO-6, establece que es primordial que los sistemas de supervisión y gestión de los datos sean más adecuados, desarrollar continuamente la capacidad analítica que apoya la evaluación, mejorar la base de información empleada en la toma de decisiones ambientales y crear capacidades para recopilar y aplicar los datos para una mejor gobernanza [2] con la interacción entre todas las partes interesadas en las políticas públicas y contribuir al desarrollo local. Se determinó que la evaluación del estado del medio ambiente debe ejecutarse con un enfoque ambiental integradodado el carácter holístico del medio ambiente. Es necesario determinar cuál es la información pertinente teniendo en cuenta la participación ciudadana y todos los actores municipales. Un enfoque ambiental integrado analiza la incidencia de todas las acciones sobre el medio ambiente y las interacciones entre las dimensiones ecológicas, socioeconómicas y culturales; considerando lasperspectivas multidisciplinar, interinstitucional, multicausal y multisectorial con alcance multinivel [22]. 4. CONCLUSIONES En la preservación del medio ambiente es necesario gestionar la información que posibilite su evaluación con un enfoque ambiental integrado para orientar adecuadamente la toma de decisiones municipales y contribuir a cumplimentar los objetivos del PNDES 2030 y de la Agenda 2030. Debido a la transversalidad, la multiplicidad de actores y sus complejas interrelaciones así como los actuales procesos armónicos de centralización y descentralización para el desarrollo territorial, se hace necesaria el diseñó la Tecnología para gestionar la información ambiental municipal como parte de la evaluación integrada del estado del medio ambiente y del proyectoGIA TD. La implementación de la Tecnología está en concordancia con el Proyecto estratégico del MES y apoyalas acciones y estrategias del Estado cubano para cumplimentar los objetivos del PNDES 2030 y de la Agenda 2030. Con la aplicación de la Tecnología para gestionar la información ambiental municipal se establecen las líneas generales sobre las que deben realizarse las alianzas y se estructura la información, contribuyendo a modificar el sistema de trabajo en los territorios, mejorar el desarrollo local y la gobernanza municipal. RECONOCIMIENTOS Las autoras desean expresar su agradecimiento a la Oficina de Gestión de Fondos y Proyectos Internacionales bajo el código PN211LH012-011 que aportó fondos a la investigación que da origen a los resultados presentados en la presente publicación. REFERENCIAS 1. Organización de las Naciones Unidas para la Educación y la Cultura, UNESCO. "Informe de la UNESCO sobre la Ciencia: Hacia 2030. Resumen ejecutivo," 2015. 2. Naciones Unidas. Comisión Económica para América Latina y el Caribe. CEPAL "La Agenda 2030 y los Objetivos de Desarrollo Sostenible: una oportunidad para América Latina y el Caribe (LC/G.2681- P/Rev.3)," ed. Santiago: NacionesUnidas, 2018, pp. 93. 3. Dana L-P, Gurău C, Hoy F, Ramadani V, Alexander T. “Success factors and challenges of grassroots innovations: learning from failure”. TechnologicalForecasting and Social Change. 2021,vol164, pp.119. 4. Ministerio de Economía y Planificación, “Cuba. Informe nacional voluntario para la implementación de la Agenda 2030", Cuba. 2019 5. Gasparin M, Green W, Lilley S, Quinn M, Saren M, Schinckus C. “Business as unusual: A business model for social innovation.”Journalof Business Research. 2021, vol 125, pp.698-709. 6. Decreto 33/2021 Para la Gestión Estratégica del Desarrollo Territorial GOC-2021-359-O40, 2021 7. Adda, B., Benhamida, H. “Local development planning within the framework of administrative decentralization El-Manhel”,Economy, vol. 3, no. 2, 2020, pp. 497-510 8. Oficina Nacional de Estadísticas e Información ONEI, "Panorama ambiental. Cuba 2017", La Habana. Jun 2018. 9. Miranda, R. "La agenda 2030 y la evaluación integrada del estado del medio ambiente," Revista Cubana de Administración Pública y Empresarial, vol. III, no. 3, pp. 250-264, Sep/ Dic. 2019. 10. Mizintseva MF, Sardarian AR, Komarova TV, Yakubova TN, Vergara EJ. Human Resources in the Russian Federation: Assessment and Forecast of Development. Journal of Applied Economic Sciences. 2016, XI vol 7, núm45, pp. 1253-64. 11. Siryk Z, Popadynets N, Pityulych M, Chakii O, Irtyshcheva I, Panukhnyk O, et al. “Decentralization of local self-government under the conditions of administrative-territorial reform in Ukraine”. Accounting. 2021, vol 7, núm 4, pp.781-90. 12. Chaudhary D. “The decentralization, devolution and local governance practices in Nepal: the emerging challenges and concerns.”JournalofPoliticalScience. 2019, vol 19, pp.43-64. 13. Programa de Naciones Unidas para el Desarrollo. PNUD, Centro de Investigaciones de la Economía Mundial. CIEM, "Informe Nacional sobre Desarrollo Humano- Cuba 2019. Asenso a la raíz: La perspectiva local del desarrollo humano en Cuba. Resumen Ejecutivo" Programa de las Naciones Unidas para el Desarrollo. PNUD, La Habana. 2021. pp. 40 14. Veer Ramjeawon P, Rowley J. Knowledge management in higher education institutions in Mauritius. International Journal of Educational Management. 2018,vol 32, núm7, pp. 1319-32. 15. Elrehail H, Emeagwali OL, Alsaad A, Alzghoul A. “The impact of transformational and authentic leadership on innovation in higher education: The contingent role of knowledge sharing”. Telematics and Informatics. 2018, vol 3, núm1, pp.55-67. 16.Iqbal A, Latif F, Marimon F, Sahibzada UF, Hussain S. From knowledge management to organizational performance: Modelling the mediating role of innovation and intellectual capital in higher education. Journalof Enterprise Information Management. 2019, vol 32, núm1, pp. 36-59. 17. Álvarez, C., Lanio, M., Núñez, J. and Pérez, R." La universidad en el sistema de Innovación. Estudio de caso sobre el vínculo universidad-industria biotecnológica en Cuba," en Vinculación universidad- sector productivo para fortalecer los sistemas nacionales de innovación: experiencias de Cuba, México y Costa Rica, G. Dutrenit and J. Núñez, Eds., ed La Habana: Universidad de La Habana, 2017, pp. 83-121. 18.Alonso, A., Baños, M. y Columbié, M. "Los objetivos de desarrollo sostenible desde la proyección estratégica de la Educación Superior," Ingeniería Industrial, vol. XLII pp. 1-13. 2021 19.Mykhailyshyn, H., Kondur, O., y Serman, L. (2018). "Innovation of Education and Educational Innovations in Conditions of Modern Higher Education Institution". Journal of Vasyl StefanykPrecarpathian National University, vol 5, núm1, pp.9-16. 20. Comité Central del Partido Comunista de Cuba. PCC, "Documentos Aprobados VII Congreso sept 2017," ed. La Habana: UEB Grafica. Empresa de Periódicos, 2017, p. 32.28. 21. Gaetani, F. “Actividades de ONU Medio Ambiente para fortalecer la capacidad de la región de producir datos e información ambiental de manera sostenida y sistemática” Santiago. Chile. 2018. 11pp. https://www.cepal.org/sites/default/files/presentations/cea-ce17-onu-medio-ambiente- actividades-fortalecer-capacidad-producir-datos-ambientales-04-10-2018.pdf 22. Miranda R. y Viñet, B “Enfoque ambiental integrado para la evaluación del estado del medio ambiente," en Convención Internacional sobre Medio Ambiente y Desarrollo, La Habana, 2021, pp. 18. INTERDISCIPLINARIEDAD CIENTÍFICA EN LA GESTIÓN DE LA INFORMACIÓN CIENTÍFICA-TECNOLÓGICA Jorge Félix Valiente Márquez 1, Ariel Rodríguez Gómez2, Mirta de la Caridad Quesada Pollero3, Leopoldo Fernando Perera Cumerma 4, Raquel Bermúdez Morris5, 1 Instituto de Información Científico y Tecnológica (IDICT), Calle 14 esq. 47 Miramar, Playa y Filial de Ciencias Técnicas de la Universidad Tecnológica de La Habana, Afiliación Calle 114 No. 11901. e/ Ciclovía y Rotonda. Marianao 15. La Habana, Cuba. CP: 19390. valiente@idict.cu, jvaliente@ceis.cujae.edu.cu, https://orcid.org/0000-0002-0726-942X 2 Instituto de Información Científico y Tecnológica (IDICT), Centro de Información y Gestión Tecnológica Granma (CIGET), General García #60 e/ Saco y Canducha Figueredo, Bayamo, Granma. CP: 85100. ariel120971@gmail.com 3 Instituto de Información Científico y Tecnológica (IDICT), Calle 14 esq. 47 Miramar. mquesada@idict.cu, mques.3033@gmail.com, https://orcid.org/0000-0002-9999.4740 4 Universidad Tecnológica de La Habana, Calle 114 No. 11901. e/ Ciclovía y Rotonda. Marianao. La Habana, Cuba. CP: 19390. rpererra@rimed.cu, https://orcid.org/0000-0003-0999-0242 5 Universidad Tecnológica de La Habana, Calle 114 No. 11901. e/ Ciclovía y Rotonda. Marianao. La Habana, Cuba. CP: 19390. rbmorris@tesla.cujae.edu.cu, https://orcid.org/0000-0002-87662896 RESUMEN Introducción: El sistema organizacional cubano actual asume la importancia de la incorporación de la ciencia en el cumplimiento de su misión social. Para lograrlo resulta vital el quehacer investigativo, direccionado hacia el desarrollo de una cultura científica elemental que guíe hacia el éxito de ese objetivo. Un camino eficaz para ello lo constituye la gestión de la información científica-tecnológica a partir del establecimiento de relaciones interdisciplinarias. Materiales y Métodos: se emplearon métodos teóricos como el análisis bibliográfico y documental, además de la realización de entrevistas a especialistas de los diferentes actores Resultados y Discusión: Desde estos saberes se proporcionan la creación de eventos que implementen una visión holística, integral e interdisciplinaria para resolver los problemas actuales, que sólo se logra con el trabajo y el conocimiento colectivo. El principal objetivo del presente artículo es recalcar la importancia de la interdisciplinariedad en la construcción del conocimiento y su aporte al diseño y realización de eventos. Esos que pueden constituir una red a partir de la gestión responsable de los mismos en una organización como el Idict. Se reflexiona acerca de la importancia de la Gestión del conocimiento como unidad dinamizadora de estos conceptos. Conclusión: Se concluye que el desarrollo humano sostenible puede abordarse desde diferentes disciplinas, pero ninguna por sí sola podrá responder a sus principales problemas, siendo muy poco lo que aportan los equipos multidisciplinarios si las organizaciones que los crean ofrecen sólo una visión técnica de sus respectivas especialidades, sin articular el conocimiento y sin gestionarlo. PALABRAS CLAVES: Interdisciplinariedad, cultura científica, información científica-tecnológica, gestión del conocimiento. ABSTRACT Introduction: The current Cuban organizational system assumes the importance of incorporating science in the fulfillment of its social mission. To achieve this, investigative work is vital, directed towards the development of an elementary scientific culture that guides towards the success of that objective. An effective way to do this is the management of scientific-technological information based on the establishment of interdisciplinary relationships. Materials and Methods: theoretical methods such as bibliographic and documentary analysis were used, in addition to conducting interviews with specialists from the different actors. Results and Discussion: From this knowledge, the creation of events that implement a holistic, comprehensive and interdisciplinary vision to solve current problems, which can only be achieved with work and collective knowledge, is provided. The main objective of this article is to emphasize the importance of interdisciplinarity in the construction of knowledge and its contribution to the design and implementation of events. Those that can constitute a network from the responsible management of the same in an organization like the Idict. It reflects on the importance of knowledge management as a dynamic unit of these concepts. Conclusion: It is concluded that sustainable human development can be approached from different disciplines, but none by itself will be able to respond to its main problems, with very little contribution from multidisciplinary teams if the organizations that create them offer only a technical vision of their respective specialties, without articulating knowledge and without managing it. KEY WORDS: Interdisciplinarity, scientific culture, scientific-technological information, knowledge management. Introducción En el diálogo sostenido por nuestros científicos con el Presidente de la República Miguel Díaz-Canel Bermúdez en la sesión de clausura del Taller Científico “Las ciencias en la construcción de la sociedad y la cultura cubanas”, existió amplia coincidencia en la necesidad de elevar la cultura científica y la colaboración y cooperación interdisciplinarias entre los grupos e instituciones de investigación como condiciones para elevar aún más los resultados de la actividad científica y sus aportes al desarrollo de la sociedad cubana. En este sentido el Presidente puso énfasis en las relaciones estrechas que deben existir entre esta actividad y las instituciones del Estado, aprovechando las capacidades de las universidades y de las entidades de ciencia, tecnología e innovación y su conexión con todos los sectores de la sociedad, para impulsar la ciencia y la innovación, la comunicación y la informatización de la sociedad, pilares del Plan de desarrollo de la sociedad cubana. [1] Los temas tratados están íntimamente relacionados con las funciones y objetivos del Instituto de Información Científica Tecnológica (IDICT), lo que demanda una reflexión crítica para la actualización y perfeccionamiento de su labor. En el caso particular del proyecto REDOE pudieran plantearse interrogantes, relacionadas estrechamente con el cumplimiento de los objetivos perseguidos, relacionados con la calidad, eficiencia y efectividad de su gestión diaria, como las del título, y las siguientes: ¿En qué paradigma de ciencia se basa su actividad? ¿Qué conceptos de interdisciplinariedad y de cultura científica se asumen en la práctica? ¿Cómo se conciben las relaciones ciencia-tecnología y sus conexiones con la cultura? ¿Cuáles y cómo son las relaciones con otras instituciones de la sociedad? ¿Cuál es el aporte a la ciencia y la innovación, la comunicación y la informatización de la sociedad? ¿Y al necesario cambio educativo al que convoca la actual sociedad “de la información y el conocimiento” o “de la era digital”? ¿Se corresponde plenamente el nivel de las competencias profesionales de sus recursos humanos con las exigencias del desarrollo de la sociedad actual y futuras? En el presente trabajo, se pretende una primera aproximación al tratamiento de estos temas con el objetivo de reflexionar y debatir sobre los fundamentos teóricos y metodológicos de la gestión y resultados del proyecto, con vistas a lograr el aporte que le toca a la gestión de Gobierno para elevar la efectividad del sistema de ciencia, tecnología e innovación como motor de la actualización y del desarrollo sostenible de la sociedad cubana. Se valora el significativo aporte de la Gestión del Conocimiento y su incidencia en los conceptos analizados. Interdisciplinariedad, ciencia y cultura científica El fin de la interdisciplinariedad consiste en la superación de la fragmentación del conocimiento. Todo esto se ha producido debido al quebrantamiento de las formas de abordar el conocimiento. Esta novedosa forma de asumir lo cognitivo tiene la ambición y el objetivo de integrar los saberes para dar una nueva mirada epistemológica al conocimiento. Así pues, la interdisciplinariedad no se presenta como una opción sino como una necesidad. La construcción del conocimiento debe darse mediante la mutua cooperación y retroalimentación de los diversos saberes, evitando caer en reduccionismos que se han mostrado infértiles a la hora de explicar fenómenos sumamente complejos desde una sola disciplina. No se puede agotar el objeto de estudio, saber todo acerca de él. El conocimiento se encuentra en continua construcción. Es importante destacar como la interdisciplinariedad no está en contra de la especialización, sino que: “la interdisciplinariedad no combate la especialización. Cuenta con ella. Porque existen las especialidades y los especialistas, es hoy pujante el movimiento interdisciplinario. Es retomar de este modo a la unidad, síntesis del proceso dialectico que no tiene el propósito de retroceder a la inicial síntesis universitaria” [2]. Por ende, no se debe ver a la interdisciplinariedad como una amenaza frente a la especialización ni como un retroceso en la construcción de conocimiento, sino más bien como un avance que permitirá apreciar nuevos horizontes de objetos de estudio que ahora son tratados en mayor amplitud desde todas las perspectivas que cada objeto toca. Con esta nueva corriente intelectual se está superando la fragmentación y segmentación del conocimiento, se está superando este aislamiento. La interdisciplinariedad viene ligada estrechamente con la ampliación del horizonte de acción frente al problema, al objeto a tratar. Además, se debe tomar en cuenta que la interdisciplinariedad debe ser entendida como: “la investigación interdisciplinaria debe ser entendida como una forma de organización de las actividades cognoscitivas” [3]. El hecho de abordar un fenómeno desde varios puntos de vista no puede hacer más que enriquecer la idea de unidad y de la diversidad humana. Así pues, la interdisciplinariedad constituye el paradigma de la ciencia actual, al menos en lo que respecta al campo teórico. Por tanto, los estudios interdisciplinarios necesitan esfuerzo y dedicación por parte de los propios investigadores; deben estar abiertos al diálogo con las demás disciplinas y no querer imponerse y dominarlas. Así el hombre debe ser estudiado desde los diferentes puntos de vista, y los investigadores deben conseguir una interdisciplinariedad verdadera y no solamente en la teoría. No se debe por ejemplo darle más importancia a lo genético sobre lo social o viceversa, debe ser un estudio en la medida de lo posible objetivo y en la cual todas las disciplinas aporten lo que saben sobre este objeto de estudio tan complejo. En la actualidad la interdisciplinariedad se ve como una nueva forma de avanzar en el conocimiento a la hora de construir conocimientos integrales y completos, y con infinidad de posibilidades. Sin embrago, además de la teoría debe aplicarse en la práctica, en donde aún le queda mucho por hacer. “La interdisciplinaridad surge conectada con la finalidad de corregir los posibles errores y la esterilidad que acarrea una ciencia excesivamente compartimentada sin comunicación interdisciplinar” [4]. Más tarde, el ideal de la ciencia en la Modernidad perseguía el bienestar de todos y el dominio total de la naturaleza a través de la tecnología, el hombre dueño absoluto de la Naturaleza puesta a su entero servicio, sin tener en cuenta el costo que la humanidad tendría que pagar y de lo cual somos testigos hoy. La actividad científica fue en gran medida controlada por la industria militar y las grandes corporaciones de manera que a principios de este siglo el conocimiento se había convertido en mercancía [5]. Materiales y Métodos: se emplearon métodos teóricos como el análisis bibliográfico y documental, además de la realización de entrevistas a especialistas de los diferentes actores. Resultados y Discusiones ¿Por qué es importante prestar cada vez mayor atención a la relación de la filosofía y las humanidades con el impacto del desarrollo científico y tecnológico que está teniendo lugar en nuestros días? Desde aproximadamente la década de los 70 del pasado siglo, nuevos hechos fueron abriendo paso a la evidencia de la interconexión existente entre los fenómenos naturales, sociales y del pensamiento, a la necesidad de una nueva concepción del cuadro científico del mundo, que considera a la ciencia y la tecnología como actividades también socio-culturales y sus implicaciones éticas, morales y axiológicas, y no dogma y dominio exclusivo de una élite. Este es, en esencia, el significado de cultura científica que lleva implícita el de cultura tecnológica, dada la relación actual ciencia-tecnología en la que se confunden sus fronteras de tal manera que frecuentemente se les denomina tecnociencia. ¿Pudiéramos delimitar nítidamente sus fronteras, por ejemplo, en las nanociencias, en la biotecnología, en la esfera de la inteligencia artificial? Incluso en esta era digital se analiza y argumenta que las fronteras entre el mundo físico, el mundo humano y el digital tienden a borrarse cada vez más. La Gestión del conocimiento como proceso dinamizador de la interdisciplinariedad en la gestión de la información científica- tecnológica. La gestión del conocimiento (GC) (del inglés knowledge management) es un concepto aplicado en las investigaciones y organizaciones que le diseñan. Tiene el fin de transferir el conocimiento desde el lugar donde se genera hasta el lugar en dónde se va a emplear e implica el desarrollo de las competencias necesarias al interior de las organizaciones para compartirlo y utilizarlo entre sus miembros, así como para valorarlo y asimilarlo si se encuentra en el exterior de éstas. En el ámbito de la interdisciplinariedad la gestión del conocimiento se enfoca en que cada uno de los elementos y saberes que se entrelazan con el objetivo de mejorar los rendimientos de las organizaciones. El conocimiento no es un producto almacenado en un lugar junto a otros objetos manipulables; es una capacidad humana, es un proceso dinámico y lo relacionado con su gestión no es sobre él en sí mismo; sino encaminado a influir con objetivos determinados sobre las formas de identificarlo, adquirirlo, crearlo, desarrollarlo, compartirlo y conservarlo. Los autores del presente artículo añaden a este criterio, que la gestión está encaminada entonces a situarlo donde es pertinente y a promover su flujo; por lo tanto, la GC se refiere a procesos sociales [6]. En coherencia con el criterio anterior, recordemos a la Doctora en Ciencias Rosa Elena Simeón Negrín, quien desempeñó un papel fundamental en la introducción de la GC en Cuba; para ella ―…se basa en la creación de valores mediante procesos de transformación de conceptos considerados intangibles: información, conocimiento, aprendizaje, inteligencia; es decir, que a partir de unos ―recursos críticos o flujos de conocimientos y determinados procesos de transformación, el sistema estará en condiciones de crear nuevos conocimientos identificados como competencias esenciales que incluyen en las de carácter personal, tecnológica, organizativa y relacional (Simeón- Negrín, 2004). Estos términos lo caracterizan en su desempeño y constituye de forma general, la interdisciplinariedad con que se desarrolla la organización como resultante de la GC. Es, por tanto, el proceso que continuamente asegura el desarrollo y la aplicación de todo tipo de conocimientos pertinentes de una organización con objeto de mejorar su capacidad de resolución de problemas y así contribuir a la sostenibilidad de sus ventajas competitivas [7]. También se ve como la función que planifica, coordina y controla los flujos de conocimiento que se producen en la empresa en relación con sus actividades y su entorno, con el fin de crear unas competencias esenciales [8]. Además abarca la adquisición y uso de recursos para crear un entorno en el que la gestión de información es accesible a los individuos y en el que los individuos adquieren, comparten y usan dicha información para desarrollar su propio conocimiento y son alentados y habilitados para aplicar su conocimiento en beneficio de la organización. [9] Los autores ratifican que la GC se orienta en las formas de cómo capturamos el conocer (construcción de conocimiento tácito), se hace su conversión, se pone a disposición de otros y se reutiliza, de ello se deriva el capital cultural (banco de conocimiento explicitado). La dialéctica sistémica de la GC es comprobable porque …“la activación y seguimiento de este proceso permite que emerja y se transmita nuevo conocimiento, de manera que, en la medida que la estructura organizacional facilite la sincronía, cooperación y conectividad entre personas y saberes, promoverá un entorno de innovación y creatividad en la gestión del conocimiento”. Nada más interdisciplinario que este proceso. En coherencia con estos criterios se añade que, gestionar el conocimiento implica verlo como uno de los recursos claves de cualquier organización. Desde esta perspectiva hay que considerar que inicialmente se adquiere y manifiesta mediante habilidades, experiencias e intuiciones de forma tácita para luego convertirlo en un poder colectivo que se refleja en las prácticas culturales de sus actores internos y, desde ellos, a los productos y servicios que la organización expande a la sociedad. Todo desde un proceso interdisciplinar. La interdisciplinariedad en la GC, en detalle se refiere a las herramientas y a las técnicas diseñadas para preservar la disponibilidad de la información llevada a cabo por los individuos dominantes y facilitar la toma de decisiones, así como reducir el riesgo. El proceso de la Administración del Conocimiento, también conocido en sus fases de desarrollo como "aprendizaje corporativo" o "aprendizaje organizacional", tiene principalmente los siguientes objetivos: identificar, recabar y organizar el conocimiento existente; facilitar la creación de nuevo conocimiento y apuntalar la innovación a través de la reutilización y apoyo de la habilidad de los actores sociales a través de organizaciones para lograr un mejor desempeño. Los repositorios de conocimiento, explican el valor de la interdisciplinariedad en la gestión de la información científica- tecnológica pues sirven como base para descubrir y mapear el conocimiento, además de encargarse de conservar y reflejar las peticiones de éste producidas en sus ciclos de vida, construyendo el capital de innovación social definido como “la capacidad social de una organización de innovar, producir e integrar nuevo conocimiento, como un componente de sus valores. Constituye la forma más valiosa de capital cultural, pues es la única que tiene como propósito la creación de las restantes formas de este importante acápite, incluido él mismo". [8], [16]. Existen diversos estudios que muestran la interdisciplinariedad en una adecuada GC para fortalecer aspectos que operan a nivel individual, grupal y organizacional. En el nivel individual, se requiere fortalecer la formación, autonomía y apertura a la reflexión e intuición. La formación de los colaboradores es uno de los factores que influye significativamente en el aprendizaje organizacional, es decir, el proceso en que una organización crea y adquiere conocimiento para adaptarse o transformar su entorno y autonomía. [11] En el nivel grupal, se requiere fortalecer el apoyo a los colaboradores y su interacción. El apoyo y confianza de los líderes hacia los colaboradores contribuye a maximizar el aprendizaje en las organizaciones, tal como muestran autores como [11]. La interacción interdisciplinaria entre los colaboradores puede contribuir a la obtención de mejores resultados en la adquisición, difusión y aplicación del conocimiento. Este resultado se encuentra en estudios de organizaciones del sector público, privado y también en organizaciones dedicadas a la creación y difusión de conocimiento [11],[12] En el nivel organizacional, se requiere una estructura clara de procesos. El diseño de procesos en la gestión de recursos humanos permite definir de forma sistemática las actividades y tareas de cada subproceso, propicia la identificación de problemas concretos y facilita plantear medidas específicas para resolverlos. [13]. La diversidad y la propiedad del conocimiento requieren tanto de procesos de estructuración y organización con el fin de establecer el tipo de conocimiento y en manos de quién está, como de mecanismos disponibles para acceder a estos conocimientos y asegurar su integración a las actividades de la organización. Por su parte, la "dispersión y la diferenciación, así como la complejidad del conocimiento emergente, son condiciones para la creación de conocimiento e innovación". [14]. La GC “es una disciplina que promueve una solución integrada, interdisciplinaria y colaboradora para la creación, captura, organización, acceso y uso de los activos de información de una institución o entidad. Estos activos incluyen las bases de datos, los documentos y, mucho más importante, las capacidades y experiencias de sus miembros. La gestión del conocimiento no es un fin en sí misma, sino un medio para lograr objetivos. Su implementación debe responder a una estrategia corporativa adecuada al ambiente actual, caracterizado por ser muy cambiante, por la sobreabundancia de información y oportunidades, así como por la limitación de recursos y el incremento notable de la inversión en los empleados y en la información.” [15] El conocimiento se define, en su más amplia acepción, como el conjunto de experiencias, saberes, valores, información, percepciones e ideas que crean determinada estructura mental en el individuo para evaluar e incorporar nuevas ideas, saberes y experiencias. Según Núñez- Jover su gestión: "es la capacidad para identificar necesidades de conocimiento asociadas a problemas sociales y evaluarlas; buscar, producir, transferir, diseminar, aplicar conocimientos, tecnologías, que sirvan para atender esas necesidades sociales del más diverso carácter". Frente a una ciencia reduccionista y monolingüe, el Paradigma de la Complejidad nos exhorta a construir una ciencia integradora, políglota, y, por tanto, inter y transdisciplinar”. En el siguiente cuadro compara la ciencia mecanicista analítica con la ciencia del paradigma de la complejidad. Pero tal forma de pensar no surge de la nada, es necesario formarlo desde la misma infancia y a lo largo de toda la vida. De ahí el consenso universal sobre la importancia que se concede a la pertinencia del cambio educativo que debe experimentarse como uno de los pilares del desarrollo social actual y futuro, proclamado en los objetivos de la Agenda 2030 y en los Lineamientos para el desarrollo de nuestra sociedad. Hay que aprender a pensar la complejidad, que es aprender a pensar interdisciplinariamente. La interdisciplinariedad, como aspiración o tendencia hacia la unidad del saber, ha estado presente en todas las etapas de la historia de la ciencia. Pero la intensificación actual de las relaciones entre las ciencias naturales, sociales y técnicas adquieren rasgos cualitativamente nuevos: lo que antes constituía un conjunto de episodios aislados, hoy se manifiesta como proceso ininterrumpido que afecta a la misma ciencia y a la tecnología, a sus conexiones con la práctica y a la vida del ser humano. “La interdisciplinariedad no es un objetivo abstracto sino el movimiento del conocimiento desencadenado por las necesidades de la actividad científica, vinculada a la práctica social.” La estrecha relación entre la complejidad de la realidad objetiva, su aprehensión mediante un pensamiento complejo y la instrumentación de la interdisciplinariedad, queda también establecida en los criterios de la psicóloga [16] “El progreso requerido a las ciencias sociales en un mundo cada vez más complejo, exige de un pensamiento interdisciplinario en el que participen sin excepción todas las ciencias que tengan algo que decir sobre el curso de las dinámicas de la vida humana”1. La interdisciplinariedad es reflejo y concreción de la compleja realidad en toda actividad humana dirigida realmente a conocerla, comprenderla y transformarla. De ahí su carácter polisémico. Por esta razón, es abordada de diferentes formas, entendiéndose como principio; método de trabajo; forma de organizar una actividad, invariante metodológica y otros, en función de la óptica, posición o contexto desde la que se analice. La necesidad de la práctica de la interdisciplinariedad se hace evidente cuando se analizan algunos de los rasgos principales que definen a la sociedad contemporánea [17],[18]:  La globalización de la sociedad. La necesidad de resolver problemas globales complejos.  El aumento de la complejidad de los objetos de la investigación científica. El surgimiento de nuevas ciencias interdisciplinarias.  El extraordinario valor del conocimiento y sus consecuencias en las esferas socioeconómica, cultural y política y la necesidad de su continua actualización  La necesidad de abordar los aspectos morales y axiológicos de la actividad investigadora contemporánea y sus resultados.  Especialización e integración del saber: condición para profundizar en el conocimiento de la realidad y para el desarrollo social. Necesidad de trabajo cooperado en equipos interdisciplinarios.  El incesante y colosal desarrollo de la ciencia y de la tecnología. Su impacto en todas las esferas de la vida social y personal.  La necesidad de eliminar el divorcio entre las ciencias naturales, las exactas y las humanísticas.  Extraordinaria producción de la información y la necesidad de la alfabetización digital, informacional y mediática.  La constante movilidad del mundo del empleo y su internacionalización. A continuación se resumen algunas visiones sobre la interdisciplinariedad que no se contradicen, sino más bien se complementan y enriquecen su significado [19] Se destaca que la interdisciplinariedad es un acto de cultura, que tiene que ver más con el cómo que con el qué, cuya práctica rompe la dispersión cognoscitiva asumida por las ciencias en su aproximación infinita a esferas determinadas de la realidad y, en correspondencia con ello, la conformación de metodologías investigativas y sistemas conceptuales en esencia afines. Salazar [20], considera que “La interdisciplinariedad demanda el conocimiento del objeto de estudio de forma integral, estimulando la elaboración de nuevos enfoques metodológicos más idóneos para la solución de los problemas, aunque su organización resulta compleja, ante la particularidad de cada disciplina científica que posee sus propios métodos, normas y lenguaje”. (P.42). Núñez Jover [5], comprende la interdisciplinariedad no como meras "relaciones diplomáticas" entre disciplinas y grupos de especialistas diversos, por el contrario, se asocia a la cooperación orgánica entre miembros de un equipo, lógica específica de comunicación, barreras que se suprimen, fecundación mutua entre prácticas y saberes. M. Güémez (citada por Perera, 2018) analiza la importancia de la cooperación en el trabajo interdisciplinario, con la que se concuerda: “La cooperación como función en el trabajo interdisciplinario modifica las condiciones del proceso de trabajo científico, estimula nuevas formas de comunicación y socialización del proceso de investigación así como de sus resultados, permite la utilización, de forma colectiva de los medios e instrumento del trabajo de investigación.” Al considerar las actitudes y normas de conducta necesarios en la actividad científica quedan implícitas cualidades todas inherentes al pensamiento y actuación interdisciplinarios, entre otras: la actitud inquisitiva, el espíritu crítico hacia la labor realizada, la tenacidad, la disposición para considerar otros puntos de vista y cambiar los propios, la disposición para el trabajo colectivo, la orientación del pensamiento hacia la solución de problemas con trascendencia social, el autodidactismo. El investigador y especialista en ciencias de la comunicación [21], considera que la interdisciplinariedad supone la combinación de diversas disciplinas sobre un objeto, lo que lleva a la conformación de un equipo multidisciplinario para el estudio de dicho objeto. Otra forma, según él, que toma la interdisciplinariedad es la de colocar un objeto en la frontera de dos o más disciplinas. Al analizar y sistematizar estas posiciones y otras plasmadas en innumerables trabajos e investigaciones científicas, puede afirmarse que: Existe consenso en destacar la interdisciplinariedad como principio rector de un proceso basado en una peculiar forma de pensar y de proceder para conocer y resolver cualquier problema de la realidad, que requiere de la convicción, de la cultura y de la cooperación entre las personas.2 Su esencia radica en la actividad de las personas que la llevan a cabo, que se caracteriza por la cooperación orgánica y la flexibilidad entre los miembros del equipo; la comunicación y la desaparición de barreras; el enriquecimiento mutuo de saberes; la exaltación de valores como la solidaridad, la honestidad, la laboriosidad, la tenacidad, el respeto y confianza mutuos [18]. El pensamiento interdisciplinario y sus correspondientes formas de actuación resultan imprescindibles para el desarrollo continuo de la actividad científica-tecnológica contemporánea. Esto se puso de manifiesto en los argumentos expuestos en el diálogo de los académicos sostenido con la máxima dirección del país referido al inicio. Como ejemplo de la pertinencia de la instrumentación práctica de la interdisciplinariedad relacionadas con el objeto de nuestro proyecto está explícita en la intervención del presidente Díaz-Canel en la clausura del Primer Taller Nacional de Informatización y Ciberseguridad [22], celebrado en La Habana. Al referirse al proceso de informatización del país lo calificaba de complejo, retador, necesario, “que tiene que ser abordado en la multi y la interdisciplinariedad, con visión de país y contando con la participación institucional y ciudadana, el cual debe abarcar transversalmente todos los escenarios y ámbitos de la vida política, económica y social del país”. Más adelante insistió: “El tema es complejo, no hay recetas ni una respuesta única y se necesita trabajar con visión de país y con la participación intersectorial, interdisciplinaria y abierta que permita construir una estrategia nacional que ponga esta tecnología y la infraestructura que debe acompañarle al servicio de la construcción del socialismo próspero y sostenible que se pretende.” También reconoció los problemas confrontados en el proceso vinculado con la ausencia de una concepción interdisciplinaria, entre ellos “la implementación lenta y carente de integralidad, la fragmentación, la sectorialización, el marco regulatorio fragmentado, sectorializado y desintegrado.” Se preguntaba: “¿Son la información y la comunicación dos componentes más del desarrollo o más bien plataformas centrales a su gestión? ¿Se les puede seguir viendo como campos separados cuando la realidad demanda cada vez más soluciones interdisciplinares?”. Apremia asumir en los planos individual e institucional una transdisciplinariedad comprometida con el bien común y la unidad, desde la diversidad de los saberes y prácticas infocomunicativas». ¡Otro ejemplo de pensamiento complejo! Invito a los lectores a buscar cómo se manifiestan en su contexto estas cuestiones y ejemplos concretos de práctica interdisciplinaria. De hecho, en el proyecto se plantea como uno de sus objetivos atender al fomento del trabajo interdisciplinario. ¿Somos en la práctica interdisciplinarios? Una de las principales barreras que se anteponen a la práctica de la interdisciplinariedad es la educación fragmentada y memorística de las personas hasta la actualidad. Sobre competencia tecnológica. “Formar competencia tecnológica es también capacidad de entender el mundo, y no solamente de saber operar con artefactos y sistemas… “Formar competencia tecnológica es enseñar a saber manejarse con artefactos, instrumentos, sistemas operativos, con toda la eficacia y eficiencia necesarias, pero también es saber evaluar su pertinencia, en relación con los contextos culturales, y su relevancia, en relación con las demandas sociales. La competencia tecnológica no es solo una cuestión de competitividad económica, que también lo es. Es, además, una cuestión de calidad de vida y de solución funcional de problemas y necesidades del hombre. Y del hombre no en abstracto, sino en determinados contextos históricos, sociales y culturales.” ¿Estamos debidamente preparados? CONCLUSIONES Los problemas fundamentales que enfrenta la humanidad, obligan a estudiarlos como un todo, demandando el concurso de todas las potencialidades del conocimiento humano, y exigiendo enfocarlos como complejos, inseparables y retroalimentados; de tal forma que surge la necesidad de abordar una visión integral e interdisciplinaria para resolverlos, que plantea cambios en la educación y la investigación con nuevos enfoques interdisciplinarios. La interdisciplinariedad y cultura científica contribuye a generar pensamiento flexible, desarrolla y mejora habilidades de aprendizaje, facilita el entendimiento, incrementa la habilidad de acceder al conocimiento adquirido y mejora habilidades para integrar contextos disímiles. Así mismo, contribuye a afianzar valores tales como: flexibilidad, confianza, paciencia, intuición, pensamiento divergente, sensibilidad hacia los demás y a aprender a moverse en la diversidad, entre otros. Todos elementos que favorecen la Gestión de la Información Científica – Tecnológica. La Gestión del Conocimiento es base para el papel estratégico que deben jugar los procesos de desarrollo sostenible, en los desafíos de la ciencia y los problemas sociales de donde nacen las investigaciones. Desde sus procesos se pueden descubrir, integrar y elaborar conocimientos desde diversos campos. En ese sentido, la interdisciplinariedad, más que un término, debe ser una estrategia, que conceptualice los propósitos y la planificación del proceso, con una previa evaluación del sistema organizacional. RECONOCIMIENTOS Los autores agradecen a los investigadores del IDICT que apoyaron el y surgieron algunos elementos del trabajo, así como a profesores de la Universidad Tecnológica de La Habana, Cujae, y Universidad de La Habana, Cuba REFERENCIAS 1. Puig, Y. (2021). La ciencia cubana, allí donde es necesaria. Consultado: 6/11/2021 2. Borrero, A. (1991). La interdisciplinariedad: simposio permanente sobre la Universidad. Asociación Colombiana de Universidades. Bogotá, Colombia. 3. Gelman, O. (s.f.). “¿Cuándo la investigación científica puede llamearse interdisciplinaria?” En: La experiencia interdisciplinaria en la Universidad. Centro de Investigaciones Interdisciplinarias en Ciencias Humanas, noviembre. 4. Torres, S. (1987). “La globalización como forma de organización del currículo”. En: Revista d Educación. Ministerio de Educación y Ciencia de España. Núm. 282. 5. Núñez Jover, J. (2004). La ciencia y la tecnología como procesos sociales. Lo que la educación científica no debería olvidar. Soporte electrónico. La Habana. 6. Núñez- Jover, J. (2010). Conocimiento académico y sociedad. Ensayos sobre política universitaria de investigación y postgrado. La Habana: Editorial UH. 7. Avendaño- Pérez, V. y Flores- Urbáez, M. (2016). Modelos teóricos de gestión del conocimiento: descriptores, conceptualizaciones y enfoques. Revista Entreciencias: diálogos en la Sociedad del Conocimiento. 4(10). (agosto- noviembre), Universidad Nacional Autónoma de México. León, México. pp. 201-227. 8. Bueno, E. (1998). El capital intangible como clave estratégica en la competencia actual. Boletín de Estudios Económicos, LIII (164), pp.207-229. 9. Harman, C. y Brelade, S., (2000). Knowledge Management and the Role of HR. Financial Times/Prentice Hall 2000. (Edición Española Kindle 2015). 10. Apartela, I., y Ponjuán, G. (2016). La Segunda Generación de la Gestión del Conocimiento: un nuevo enfoque de la gestión del conocimiento. Redalycs. Instituto de Información Científica y Tecnológica de la Habana. La Habana, Cuba. 11. Castañeda, D. (2015). Condiciones para el aprendizaje organizacional. Estudios gerenciales, 31(134), pp.62-67 12. Castañeda, D. (2015). Condiciones para el aprendizaje organizacional. Estudios gerenciales, 31(134), pp.62-67 13. Naranjo, C. (2012). Prácticas de recursos humanos y gestión del conocimiento en las organizaciones: una mirada desde las dimensiones del trabajador del conocimiento. Ánfora, 19(33), pp. 115-142. 14. Hernández-González, A. y Gómez-González, R. (2015). Proceso de Gestión de Recursos Humanos en un ámbito universitario. Ingeniería Industrial, 2(36), pp. 175-186. 15. Doz, L., Cuomo, A. & Wrazel, J. (2007). From leadership to management: mobilizing knowledge for innovation in strategic alliances. En Malerba Franco, Brusoni Stefano. Perspectives on innovation; Cambridge University Press; Cambridge. 16. Ponjuán- Dante, G. (2006). Gestión del Conocimiento y el Profesional de la Información: una visión desde los países de Iberoamérica. Ponencia. VII EDIBCIC. Marília, Brazil. 17. Fariñas. G. (2009). Curso pre-congreso. Universidad 2009, La Habana. 18. Perera, F. (2000). La formación interdisciplinaria de los profesores de ciencias. Un ejemplo en el proceso de enseñanza-aprendizaje de la Física. Tesis doctoral. La Habana. 19. ------------. (2021). Si la interdisciplinariedad es la respuesta. ¿Cuál es la cuestión? Tema 2. TIC, sociedad y currículo. Curso a distancia. Línea Educación a distancia. CINESOFT. La Habana. En: https://intelectagroup.com/aulavirtual/login/ 20. ------------. (2018). TIC, sociedad y universidad. Material básico. Curso semipresencial. Maestría “Las tecnologías en los procesos educativos”. CREA. Universidad Tecnológica de La Habana. RECONOCIMIENTOS Los autores agradecen a los investigadores del IDICT que apoyaron el y surgieron algunos elementos del trabajo, así como a profesores de la Universidad Tecnológica de La Habana, Cujae, y Universidad de La Habana, Cuba BUENAS PRÁCTICAS PARA IDENTIFICAR REQUISITOS DE UNA APLICACIÓN MÓVIL HOTELERA EN UN PROYECTO DE TRANSFORMACION DIGITAL Ing. Gladys Ash Hernández1, Dra. Yadary Ortega González2, Ing. Raúl Rodríguez Serrano3 1Hotel Nacional de Cuba, 2Universidad Tecnológica de La Habana, 3Hotel Nacional de Cuba 1e-mail: hnacional1930@gmail.com, 2email: yog@ind.cujae.edu.cu; 3email: jmtto@gcnacio.gca.tur.cu RESUMEN En el entorno hotelero cubano se comienza a hablar de transformación digital (TD) y las aplicaciones móviles (apps) pueden ser soluciones integrales factibles de valorar en las primeras etapas de los proyectos de transformación digital hoteleros. El desarrollo de una app hotelera tiene carácter sistémico e integrador y el enfoque necesario al cliente, pero separada de una estrategia de TD quedará lejos del impacto deseado. La orientación total al cliente y el uso de datos para mejorar su experiencia, son esenciales en la TD. En este sentido, las tecnologías móviles por sus beneficios sobre todo para el cliente, tienen una tendencia de uso aún creciente. El presente trabajo propone buenas prácticas para identificar requisitos de una app hotelera en Cuba del lado del negocio y como novedad enfatiza en cuáles aspectos abordar para su introducción efectiva en un proyecto de TD, como el que desarrolla el Hotel Nacional de Cuba desde 2021. El estudio es útil para los equipos de TD y para aquellos hoteles que se inician en habilitar capacidades digitales, ya que tiene en cuenta que la relación de los servicios con las etapas del viaje, el conocimiento de los expertos del negocio, la agilidad y el costo de la aplicación, así como otros elementos diferenciadores, son consideraciones compatibles con la TD a la hora de seleccionar el proveedor tecnológico y centrarse en el cliente. PALABRAS CLAVES: aplicaciones móviles hoteleras, requisitos, transformación digital, buenas prácticas. GOOD PRACTICES TO IDENTIFY THE REQUIREMENTS OF A HOTEL MOBILE APPLICATION IN A DIGITAL TRANSFORMATION PROJECT ABSTRACT In the Cuban hotel environment, we are beginning to talk about digital transformation (TD) and mobile applications (apps) can be comprehensive solutions that can be assessed in the early stages of hotel digital transformation projects. The development of a hotel app has a systemic and integrating nature and the necessary focus on the client, but separated from a DT strategy, it will be far from the desired impact. Total customer orientation and the use of data to improve their experience are essential in DT. In this sense, mobile technologies, due to their benefits above all for the client, have a trend of use that is still growing. The present work proposes good practices to identify requirements of a hotel app in Cuba on the business side and as a novelty it emphasizes which aspects to address for its effective introduction in a TD project, such as the one developed by the Hotel Nacional de Cuba since 2021. The study is useful for DT teams and for those hotels that are starting to enable digital capabilities, since it takes into account that the relationship of services with the stages of the trip, the knowledge of business experts, agility and cost of the application, as well as other differentiators, are considerations compatible with DT when selecting the technology provider and focusing on the customer. KEY WORDS: hotel mobile applications, requirements, digital transformation, good practices. 1. INTRODUCCIÓN Las aplicaciones móviles impactan en la experiencia de los clientes actuales digitales e hiperconectados, en los procesos y en la cultura de trabajo de las organizaciones, como pueden ser los hoteles. Por tal motivo, el Hotel Nacional de Cuba (HNC) consideró ejecutar el presente estudio junto a la conceptualización de su proyecto de Transformación Digital (TD) para introducir una aplicación móvil que se evalúe como solución ágil e integradora dado el entorno actual, que garantice mejores resultados de cara al cliente y la alineación con la estrategia de negocio, así como facilite la incorporación de capacidades y conocimientos durante la etapa preliminar del proyecto. La ponencia tiene como objetivo proponer buenas prácticas que permitan identificar los requisitos de una aplicación móvil hotelera insertada en un proyecto de TD como es el caso del Hotel Nacional de Cuba. Los resultados serán de utilidad ante la decisión de los hoteleros de desarrollar una propuesta de valor móvil, alineada con su estrategia digital. Podrán identificar especificaciones generales teniendo en cuenta los principales atributos que determinan el impacto positivo esperado según sus particularidades y que los proveedores tecnológicos transformarán en requisitos de software. El trabajo muestra datos sobre el estado de la tecnología móvil a nivel internacional y en el sector hotelero. Se exponen también diferentes criterios de investigaciones precedentes sobre las aplicaciones móviles hoteleras, incluyendo el ejemplo de la hoja de ruta digital del principal grupo hotelero en el mundo en 2021 (Marriott International). Se declara además el concepto de transformación digital utilizado a los efectos del estudio y los puntos relevantes de este concepto que permiten responder por qué una aplicación móvil hotelera es una de las propuestas de valor que actualmente debe ser evaluada en primer lugar para su inserción en la estrategia de TD de un hotel. Se explican, también, las ventajas de las aplicaciones móviles en proyectos de TD. Luego se caracterizan comparativamente las apps que pueden utilizarse por viajeros que arriban a Cuba y otras de referencia. Finalmente se proponen buenas prácticas para identificar requisitos de las apps móviles hoteleras dirigidas a los clientes para favorecer la alineación con una estrategia de transformación digital ya en marcha o por crear. Métodos: La obtención de estas buenas prácticas para identificar los requisitos de la app hotelera del lado del negocio, se realizó a partir de la vigilancia tecnológica, benchmarking con cadenas hoteleras de renombre internacional y estudios de apps representativas en el entorno hotelero. La investigación se sirvió de métodos de investigación como el análisis bibliográfico de artículos y tesis, para describir el estado del arte de este tipo de proyectos en la hotelería a nivel internacional. Se realizaron consultas a expertos del negocio hotelero, observaciones y pruebas de apps descargadas como referencias. 2. CONTENIDO Transformación digital en el sector hotelero Los turistas a nivel mundial son cada vez más digitales. La cantidad de usuarios de internet es de alrededor del 59% de la población mundial y continúa en crecimiento(Kemp, 2021). Resulta interesante y retador, para los propósitos de este estudio, que la mayoría de los mercados emisores del turismo a Cuba se encuentran en las regiones con más usuarios de Internet. El 53% del tiempo en línea es a través de los móviles y el 66% de la población mundial son usuarios de teléfonos móviles según Hootsuite, 2021(Kemp, 2021). En 2020 el gasto en comercio electrónico fue principalmente en moda y belleza. No obstante la caída de más del 50% de los ingresos en línea por la pandemia del COVID-19 en la categoría de viajes, esta bajó solamente al 2do puesto (Kemp, 2021). Lo anterior muestra el impacto de las tecnologías y, en específico, de los móviles, en todos los ámbitos de la vida diaria de las personas, el turismo y la hotelería en particular. Los consumidores piden personalización. Las empresas tienen la oportunidad de adaptar las experiencias a las preferencias personales y conseguir fidelidad en el consumidor (Torrecilla, 2020). Los turistas son usuarios cada vez más dependientes de los dispositivos móviles; hacen un uso intensivo de estos en todas las fases del viaje. Esta tendencia emergente se ha convertido en un auténtico motor de cambio al que las empresas turísticas se han de adaptar (Torrecilla, 2020). El hecho de que los teléfonos inteligentes desempeñen un papel cada vez más importante en el contexto de los viajes, ya sea antes, durante o después de la estadía, impulsa a los hoteles a comprender y desarrollar estrategias móviles para satisfacer las necesidades de sus clientes (Mairinger, 2018). La forma en la que los turistas se informan y organizan sus viajes ha ido cambiando debido a la introducción de nuevas tendencias (Big Data, Cloud, E-mobile, Internet de las Cosas (IoT, por sus siglas en inglés) y las redes sociales) y facilitadas por la penetración de los dispositivos tecnológicos (smartphones, tablets, pulseras weareables, paneles táctiles) (Dularamani, 2018). Hay viajeros digitales de muchas clases, con intereses y preferencias totalmente diferentes. Pero hay algunas tendencias bastante generalizadas, como, por ejemplo, el uso del móvil para consultar y compartir información en todo momento, o que el usuario cada vez se preocupa más por la seguridad de sus datos, y que quiere una experiencia digital cómoda y fácil (Systems, 2018). La principal razón del frecuente uso del e-Mobile es porque es mucho más fácil y cómodo para los viajeros (Dularamani, 2018). Según la fundación Orange de España (Orange, 2016) el ecosistema construido por los dispositivos móviles con conexión a Internet, así como todas las plataformas, servicios y aplicaciones asociadas a estos, es uno de los ejes de la transformación digital. Para el 90% de los encuestados en el informe sobre la transformación digital en el sector turístico español, el móvil es una tendencia clave de digitalización, seguida por la experiencia de usuario (73%) y la gestión del Big Data (50%) (Orange, 2016). Se considera que la era de la información va a afectar a todo el rango de hoteles independientemente de su clasificación (Muñoz, 2020). Este impacto de la IV revolución tecnológica en el mundo hotelero no solo se manifiesta en la comunicación y en la compra vía internet y vía móvil de los clientes a la hora de reservar una habitación, sino que, también, el modelo de negocio tradicional del hotel cambia. Los datos anteriores forman parte de los constantes cambios a nivel global en todas las esferas de la vida. El concepto que agrupa las principales características de estos cambios es Transformación Digital (TD). Según Delgado (Fernández, 2020) “la Transformación digital es un cambio paradigmático esencialmente cultural, centrado en la experiencia y compromiso del cliente; que ocurre en un contexto de hiperconectividad y se caracteriza por la colaboración en todas las actividades de la cadena de valor; se habilita con tecnologías (disruptivas), nuevos modelos de negocio y nuevas competencias; e impacta en innovaciones organizacionales que provocan cambios en múltiples dimensiones, con énfasis en los procesos y modelos de negocio, y, simultáneamente, en las personas”. Las redes sociales, los productos móviles y de IoT generan una gran cantidad de datos que pueden utilizarse para mejorar el diseño de productos o servicios y respaldar una estrategia de diferenciación (Sánchez, 2017). Digitalizar un hotel no consiste simplemente en ofrecer Wi-Fi o automatizar los accesos a las habitaciones. Digitalizar un hotel abarca desde la integración de sistemas internos hasta ofrecer al cliente experiencias 100% digitales, como el check-in online, que permite al cliente controlar su proceso de reserva, a la vez que el hotel garantiza su privacidad y verifica su identidad (Systems, 2018). Aplicaciones móviles (apps) de hotel El objetivo de las aplicaciones móviles se enmarca en intentar ser rápidas, intuitivas y con la capacidad de usar adecuadamente toda la información que puedan recolectar sobre el usuario. De este modo, el producto se podrá ajustar más y mejor al perfil de cada usuario(Torrecilla, 2020). La aplicación móvil hotelera es una herramienta conversacional, informativa y con tecnología digital que asegura un servicio constante para brindar un mayor valor a los huéspedes, así como a los hoteleros. Además de operaciones más eficientes y una posición competitiva superior, los hoteles pueden aumentar los ingresos mediante la implementación de una aplicación de hotel (Mairinger, 2018). Dado que el desarrollo de esta depende del presupuesto disponible para invertir en tecnología y de la infraestructura para respaldarla, no todas las funciones se pueden implementar ad hoc y los hoteles deben priorizar primero las más importantes y las más adecuadas. Como resultado del estudio de las aplicaciones móviles hoteleras a nivel internacional, se obtuvo un agrupamiento para clasificar los tipos de apps, según se muestra en la figura 1: Fig. 1 Agrupamiento aplicaciones móviles hoteleras. Elaboración propia. Se observó que el desarrollo de aplicaciones de terceros que se dedican a estas apps de propósito específico para hoteles (Ejemplo: Intelity, GuestU, Resline, Stay App) supone mayor agilidad, pero es poco personalizable. Al ser una maqueta o plantilla extendida, el cliente visualiza las imágenes del hotel, pero la estructura y el diseño de los elementos fijos no se distingue de otros alojamientos. No obstante, es correcto valorar este tipo de soluciones poniendo el tiempo mínimo de programación como elemento primario. El comportamiento favorable de otras variables como acceso al canal de ventas, es otro elemento que se muestra válido en la búsqueda de mejor experiencia de los clientes, lo que a la vez provoca mayores ingresos. Por ejemplo, Meliá, grupo hotelero extranjero de mayor presencia en Cuba, plantea que, apuesta por el canal móvil para resolver las gestiones más importantes tanto durante la reserva como en la estancia, así como una fuente de inspiración, al ofrecer guías locales para maximizar la experiencia del cliente, tanto dentro como fuera de sus hoteles (Internationals, 2019). De aquí que entre los indicadores a tener en cuenta para medir el impacto de la aplicación estarán los asociados a las ventas realizadas a través de la app, las reservas de forma directa y el incremento de usuarios en la app. Marriott International, el grupo hotelero principal a nivel mundial, según Fortune 500 de 2021, mencionó que hacer negocios digitalmente no es una simple adición de tecnología; por el contrario, deben cambiar profundamente las formas de hacer. Su vicepresidente digital senior, identificó que el cambio masivo de los consumidores a los dispositivos móviles fue una disrupción importante. La cultura de servicio de Marriott desde hace décadas demostró ser un gran activo para hacer la transición a lo digital. Por ejemplo, Apps móviles hoteleras Propósito Tipo de desarrollo Nivel de personalización Propio Plantilla de terceros A la medida Corporativa Servicio al cliente Gestión de hotel se usó la aplicación móvil para implementar servicios digitales como el check-in móvil, el check-out móvil y las solicitudes de servicios móviles, que eran estándares con los cuales los empleados en los hoteles ya estaban familiarizados. La aplicación móvil se convirtió en un gran diferenciador de la competencia, sin embargo, no fue una implantación fácil; internamente, se necesitaron descubrir roles y responsabilidades que aseguraran que los equipos digitales y de operaciones estuvieran realmente enfocados en el mismo objetivo.(Kane, 2017) A pesar de que las cadenas extranjeras en Cuba administran el mayor porcentaje de la capacidad habitacional instalada en el país, los hoteles de marca propia no constituyen una masa despreciable (35%, año 2018)(Granma, 2018). Los turistas que vienen a Cuba y se alojan en hoteles de administración compartida, disfrutan de las facilidades de las aplicaciones móviles corporativas como es el caso de Meliá app e Iberostar Hotels & Resorts app, NH Hotels, con estándares altos de diseño gráfico y programación, aunque con niveles muy bajos de integración con el sistema informático de gestión hotelera nacional (Zun Suite), el cual no tiene aún estas capacidades creadas, lo que limita las opciones en términos de infraestructura. No obstante, en Cuba hay condiciones favorables para crear apps con facilidades de pago individuales o corporativas de cadenas nacionales, lo que es beneficioso con respecto a otros países, ya que las cadenas hoteleras internacionales se enfrentan a regulaciones de los distintos estados para poder incorporar estas opciones a sus apps. Resulta contradictorio que los dispositivos móviles sean los más utilizados y desde donde se genera el 55,7% del tráfico en internet del mundo (Kemp, 2021), y que la presencia de las apps con servicios de los hoteles propios cubanos dirigidas al cliente, sea muy baja. Se pudieran considerar como suficientes, los sitios web sensibles al dispositivo o una web móvil, pero sus diseños no cubren las capacidades de mayor frecuencia de uso de las apps móviles, por ejemplo, solicitudes durante la estancia o la apertura de la puerta de la habitación con el móvil. Los turistas en general demandan soluciones que permitan satisfacer todas las etapas del viaje, a través de los dispositivos móviles que se han impuesto. La necesidad de adaptación del turismo ante nuevos retos como la pandemia de COVID 19, las nuevas capacidades tecnológicas que van surgiendo y la adopción ágil debido al escenario competitivo, ubican a las aplicaciones móviles hoteleras como iniciativas de valor para permitir que los hoteles puedan acompañar a los clientes desde la inspiración y planificación del viaje. Se evidencia el beneficio de las apps para los clientes ya que cualquiera que sea el tipo de app, les facilita como mínimo, el acceso a la información del hotel, con la movilidad requerida. Sin embargo, en opinión de los autores, no se trata de incrementar la cantidad de apps hoteleras dirigidas al turista, sino de valorar su inserción en la estrategia digital de los hoteles o grupos hoteleros para aprovechar las posibilidades de integración, gestión de datos, incorporación coherente de otros sistemas interoperables y otras. Se persigue una solución tecnológica que no sea aislada, y esté a tono con los cambios en el entorno. En estudio anterior, (Mairinger, 2018) se concentran los esfuerzos de investigación en demostrar cuáles son las opciones de las apps hoteleras, con mayor probabilidad de uso y cuáles reportan mayores ingresos. Sin embargo, aquí se persigue particularizar las condiciones de desarrollo de app hoteleras en el entorno cubano y teniendo en cuenta la inserción de la app en un proyecto de transformación digital. Aplicaciones móviles hoteleras en proyectos de transformación digital Ha quedado expuesta la necesidad de mayor presencia de aplicaciones móviles hoteleras en el sector hotelero cubano y los principales elementos del concepto de TD. A continuación, se asocian ambos conceptos para posteriormente identificar buenas prácticas de inserción de una app en la estrategia digital del hotel o grupo hotelero, aspectos ya evidenciados en el proyecto del HNC. Foco en la experiencia del cliente. La aplicación móvil hotelera insertada en un proyecto de transformación digital debe formar parte de las iniciativas digitales que, se centran directamente en las experiencias del cliente y su relación con el hotel, durante las diferentes etapas del viaje (inspiración, planificación, viaje, estadía, post-estancia. Además de constituir un nuevo canal de ventas, con el que se disminuyen acciones repetitivas que dejan de ejecutarse para centrarse más en el cliente. Alineación estratégica. Las apps de hoteles dirigidas al huésped deben ser proyectos que estén insertados en la estrategia de la organización; teniendo en cuenta los objetivos estratégicos del negocio. La estrategia digital impostergable que debe tener cada organización, debe sumar propuestas de valor que permitan que las inversiones en tecnología impulsen el cumplimiento de los objetivos estratégicos. Cultura digital y colaborativa. La aplicación móvil hotelera y su sitio web de administración de contenido, también son una oportunidad para incrementar la cultura digital y colaborativa requerida por los empleados en el hotel. Actualmente son necesarias nuevas competencias digitales en los trabajadores, no solo de los procesos de negocios involucrados, sino de toda la organización, ya que los cambios son sistémicos. La colaboración en la cadena de valor también es posible con la app, por los servicios de terceros como rentar un auto que pueden ser reservados y pagados por los clientes que lo deseen. Tratamiento intensivo de datos. A través de las aplicaciones móviles se amplían las posibilidades de obtención de datos de los clientes, que ayudan a personalizar aún más el servicio. El tratamiento masivo de datos es una de las diferencias de la TD con etapas anteriores de evolución tecnológica, por lo tanto, las propuestas de valor que formen parte de las estrategias digitales de los hoteles, incluidas las apps, pueden determinar en el servicio y la toma de decisiones a partir de los datos. Integración entre sistemas de información y carácter sistémico. La integración e interoperabilidad con otros sistemas de información dentro del hotel para mayor eficiencia de los procesos y mejor servicio al cliente, son determinantes en la incorporación de cualquier iniciativa digital a la estrategia de un hotel. Transformarse digitalmente implica que la naturaleza sistémica de este cambio en la organización, impone la necesidad de integración, desde su diseño. Dentro de los hoteles, una app debe integrarse con el software hotelero principal y sus datos pueden estar disponibles como servicios y ser utilizados por otras aplicaciones del ecosistema. El impacto principal de una app hotelera generalmente es en el proceso clave de alojamiento, ya que se pueden abordar las reservas, el check-in, el check-out, la atención al cliente, las incidencias de alojamiento, entre otros; sin embargo, al estar insertada en un proyecto de TD, puede impactar en otros procesos, como pueden ser la gastronomía y la recreación. Movilidad. Los dispositivos móviles y específicamente los teléfonos, hoy ya no en si mismos parte de una tecnología disruptiva, pero los beneficios asociados a la movilidad son una necesidad altamente valorada por el cliente digital actual. Una estrategia digital válida requiere de este atributo que permite portabilidad, accesibilidad a un número significativo de clientes y maximizar la personalización del servicio a turistas cuyos hábitos de consumo, necesidades y preferencias giran alrededor del dispositivo móvil. Costos. El costo de desarrollo de una app a la medida puede ser alto, pero la integralidad de la app como solución, y su flexibilidad para ajustarse a las necesidades mínimas e ir escalando, permiten considerar distintas variantes de inversión, incluidos los desarrolladores locales y la colaboración con terceros. Agilidad organizacional. Con la transformación digital a nivel global, la velocidad de adaptación al cambio que necesitan las organizaciones es mayor. En un estudio reciente (AliKöseogluc, 2020) de 174 hoteles se concluyó que la agilidad organizacional modera los impactos negativos de la incertidumbre competitiva y tecnológica en la creatividad dentro del sector hotelero. Aunque existen otros principios de la TD que pueden abordarse por su estrecha relación con cada etapa de un proyecto de TD, se seleccionaron los de mayor pertinencia con el estudio. Buenas prácticas para la identificación de requisitos La tendencia aún creciente, incluso por encima de las computadoras de escritorio y laptops en el uso del móvil, no asegura que las aplicaciones para móviles sean eternas. De hecho, la transformación digital es independiente de la tecnología disruptiva de que se trate, por lo tanto, la inversión en una app tiene un momento de oportunidad. Los estudios como el que se presenta, permiten contar con los elementos que independientemente de la tecnología, favorecen el cambio organizacional. A continuación, se analizan los resultados del estudio en el Hotel Nacional de Cuba para validar la propuesta de buenas prácticas a la hora de identificar los requisitos de una app móvil hotelera insertada en un proyecto de transformación digital. Estas buenas prácticas permitieron garantizar principalmente la alineación estratégica entre la conceptualización de la app y el diseño del proyecto de transformación digital en curso. También favorecieron que la identificación de requisitos iniciales de la organización facilitara la etapa de análisis de software y la capacidad de negociación frente a los proveedores tecnológicos. A) Del análisis bibliográfico Como punto de partida, se pueden considerar opciones preliminares extraídas del análisis de la bibliografía. Tabla 1. Requisitos iniciales a considerar en app hotelera. Elaboración propia con datos de (Mairinger, 2018) Principales Especiales Otras expectativas check in/ check out; llave móvil, chat nativo, programa de fidelización, solicitudes ordenar room service, citas en spa, reservaciones dentro y fuera del hotel, reservar restaurantes, late check out (LCO), upgradings pagos desde el móvil, comentarios y evaluación del servicio, control de la habitación, conexión al entretenimiento en la habitación, selección de la habitación, servicios basados en la localización, información de cada servicio, notificaciones push de ofertas o hab. lista o alertas de solicitudes Pia Maringier (Mairinger, 2018) examina también las opciones de las apps hoteleras que pueden generar incrementos de ingresos para los hoteles, como permitir la orden de room service, reservas de restaurantes y otros, servicios con terceros, solicitudes, notificaciones push, así como descuentos según la estrategia del hotel. Destaca, que el room service es la opción más rentable y depende del tipo de hotel. El estudio arrojó que se deben establecer las relaciones de todos los servicios del hotel con las etapas del viaje del cliente para analizar integralmente el diseño de la solución. Se debe contar con la identificación de todos los sistemas de información administrados por el hotel con los que el cliente interactúa. Son útiles también las iniciativas iniciales mencionadas en epígrafe anterior. A partir del análisis de esta interconexión se obtuvo el máximo de opciones posibles, así como aquellas que pueden distinguir el producto. Deben extraerse las expectativas no cubiertas de los clientes a partir de encuestas. El mapeo de los datos de cada hotel o cada grupo hotelero supone la diferencia entre una propuesta de aplicación móvil inicial y otra. Se identifican los puntos de contacto desiertos en las fases del viaje para analizar opciones de la app que tributen a cubrirlos. Este examen puede aportar a otras iniciativas en la estrategia digital en general. Es recomendable caracterizar aquellas brechas determinadas por los servicios y/o procesos claves no digitalizados. El conocimiento sobre los segmentos de mercado del hotel o del grupo hotelero, determinan cuán viable es una variante de app corporativa o personalizada. En el caso de una app hotelera a la medida, hay más posibilidades de personalizar el producto, sin embargo, con la alternativa corporativa se alcanzan más usuarios. En el caso de apps a la medida, cuando se selecciona el proveedor tecnológico debe tomarse en cuenta la experiencia de trabajo con algunas metodologías ágiles para proyectos de desarrollo de software (por ejemplo, SCRUM). Para apps hoteleras como plantilla, deben considerarse elementos que la plantilla no puede asumir, como las pasarelas de pago disponibles, y los niveles de diferenciación en el diseño gráfico, de relevancia en el impacto final de la app en los usuarios. Los conceptos de transformación digital en la hotelería cubana aún son nuevos, por lo que la formalización de estudios como este, resulta necesaria para que las hojas de rutas digitales puedan dinamizarse. Dentro de la definición de TD asumida, se determinó esencial, que, aunque el proyecto principal estuviese en etapa de conceptualización, la evaluación preliminar de cómo integrar la app con el resto de las iniciativas futuras. Por ejemplo, el sitio web institucional y la app hotelera estaban obligados a integrarse, dada la situación particular del sistema informático hotelero con evolución ralentizada. Si se introducen tecnologías aisladas en principio pueden tener un impacto positivo, pero no perdurable, por lo tanto, no hay garantía de mejora en la experiencia del cliente. B) De la valoración de expertos Los expertos de los procesos de negocio deben participar de la jerarquización de los requisitos a partir de la lista de opciones iniciales obtenidas. En el Hotel Nacional de Cuba, se realizó un ejercicio con un equipo multidisciplinario propio, constituido por representantes de todos los procesos claves y estratégicos, que permitió priorizar las funcionalidades y garantizar la coherencia estratégica con énfasis en aquellos servicios cuya gestión no está digitalizada. C) Del análisis de las aplicaciones móviles hoteleras de referencia. Internacionalmente Se realizó una búsqueda en la tienda de aplicaciones Google Play por la categoría de Viajes, de proveedores de apps hoteleras y de cadenas hoteleras que desarrollan sus propias aplicaciones. Se seleccionaron 4 aplicaciones de las más descargadas y representativas y se obtuvo una tabla comparativa con varios atributos. Principalmente en el caso de los comentarios, el análisis de datos arrojó requisitos esperados por los clientes de las aplicaciones hoteleras más descargadas en el mundo. Esta selección permitió comprobar el criterio de que las principales hoteleras a nivel internacional han apostado por este tipo de soluciones y que, por los niveles de actualización de las versiones y las opiniones, la incorporación de apps para clientes de hoteles es una tendencia aún acertada y no desaparecerá en el mediano plazo. Las 4 aplicaciones hoteleras de referencia de renombre internacional fueron Marriot Bonvoy, Hilton Honors, Palladium, The Breakers. Bonvoy y Hilton tienen más de 5 millones de descargas y 4,7 puntos. La cantidad de descargas puede obedecer a los miles de hoteles bajo estas marcas; sin embargo, la cantidad de opciones disponibles en estas apps de desarrollo propio, supone un nivel de inversión alto. Actualizar el monitoreo de estas aplicaciones como referencia aporta tendencias futuras, permite proyectarse en cuanto al posicionamiento en tiendas de apps (Playstore, Apple Store y Apklis), sobre el tratamiento de comentarios y las previsiones de actualización. Contexto nacional En Cuba existen 4 cadenas hoteleras nacionales en operación, (Cubanacán, Islazul, Gran Caribe, Gaviota). Al momento del estudio, se detectó que solamente existen 4 apps desarrolladas para hoteles nacionales y solamente 1 por un proveedor tecnológico cubano. Todas ellas corporativas, excepto la relacionada con el recorrido histórico del Hotel Nacional de Cuba (e-Tour.apk) que es para satisfacer una necesidad informativa muy puntual, no tiene actualización ni comentarios en la tienda Google Play. El análisis demuestra que para que el sector hotelero cubano sea más competitivo, dentro de las estrategias digitales de los hoteles administrados por grupos hoteleros nacionales (marca propia), es imprescindible preguntarse si los servicios del hotel están presentes de alguna forma en cualquier aplicación que le aporta movilidad al cliente de hoteles actual y cuál es la factibilidad del desarrollo o contrato de una aplicación móvil dirigida a los clientes, en cualquiera de sus variantes y con los alcances apropiados según los segmentos de mercado, los presupuestos y la estrategia a mediano y largo plazo. Tabla 2. Aplicaciones para hoteles marca propia. Elaboración propia Nombre de la app Tipo SO Proveedor Año 1er comentario Desarrollo nacional E-Tour (Hotel Nacional de Cuba) Individual Android Tostonet (nacional) 2017* Sí Cubanacán Hoteles Corporativa Android RESLINE (extranjero) 2017 No Manzana Kempinski Individual Android GuestU (extranjero) 2020* No Cubatravel Booking Corporativa Android Internet Power (extranjero) 2021 No *sin comentarios Valorar el ecosistema de proveedores tecnológicos locales puede disminuir costos de futuras implementaciones para hoteles marca propia con poca o nula presencia en los canales móviles. En la tabla anterior se nota una tendencia a la utilización de Android como sistema operativo, sin embargo, debe valorarse la disponibilidad en IOs que es utilizado ampliamente por viajeros a nivel global. Aunque son ejemplos únicos entre los hoteles marca propia, y valiosos porque fueron las primeras apps de este tipo en el medio nacional, en términos de transformación digital necesitan del enfoque holístico que demandan los tiempos y los viajeros actuales, al abordar en su mayoría solamente una o dos de las etapas del viaje, principalmente las reservas. De las cadenas hoteleras extranjeras con operaciones en Cuba, se compararon 5 aplicaciones móviles corporativas más representativas (Accor, Blue Diamond Royalton, Iberostar, Meliá, NH), según se muestra en la tabla siguiente: Tabla 3. Resumen comparativo entre aplicaciones hoteleras en Cuba. Elaboración propia. Cuba Grupos Internacionales (corporativas) Grupo Nacional (corporativas) Individuales APPs Hotelera 5 2 2 Descargas 100k+ - 1M 1k -10K+ 10+- 100+ Puntos 2.2 – 4,6 3.6 - 4.3 Sin puntos Desarrollo Propios 2 Terceros 1 Tercero - 1 Local Actualización V1.0.6-v9.54 V1.1.1-v1.1.18 V1.0-v4.5.0 Tamaño 4,8MB- 140MB 5,5MB-8,6MB 28MB-31MB Opciones Principales Reservas e Información Principales y Especiales Comentarios repetitivos. Faltan opciones/ Actualizaciones con fallos/ Registro Moneda de las ofertas/ Faltan opciones / Fallos en pago Sin comentarios visibles Excepto Blue Diamond Royalton, el resto de las apps corporativas internacionales, tiene puntuaciones de los usuarios altas y actualizaciones constantes. Se destaca Accor que mantiene 4,6 puntos de 5 a pesar de contar con más de 5 000 alojamientos. Las apps corporativas tienen más actualizaciones de forma general. El análisis detallado muestra que existen estrategias de actualización para su evolución en función de las necesidades de los usuarios. De las 2 apps nacionales, 1 quedó sin actualización después de la versión de salida. En el proceso de inserción de la app en la hoja de ruta digital, se debe contar con una idea inicial de la estrategia de actualizaciones de la aplicación. La inversión de los grupos internacionales en apps es elevada, prácticamente todas han sido desarrolladas por divisiones de desarrollo de software de las marcas. D) Del análisis de datos sobre las opciones más comunes Las 13 apps hoteleras que fueron estudiadas a profundidad, permitieron obtener un agrupamiento de opciones más comunes que deben contrastarse y adicionarse si fuera preciso, a las iniciales jerarquizadas. Se muestran los resultados del HNC en la siguiente tabla: Tabla 4. Opciones más comunes en las apps de referencia para HNC. Elaboración propia Opciones más comunes % de presencia Opciones más comunes % de presencia Información general 100% Ofertas y descuentos 46% Se realizan reservaciones 92% Check in 46% Relacionadas con mapas (o basadas en la ubicación) 77% Fidelización 38% Permiten pagos 54% Sitio de interés 23% Se realizan solicitudes 46% Asociadas a la domótica 23% Síntesis de buenas prácticas A lo largo del estudio se demostró el rol importante que tienen las apps móviles hoteleras en el entorno cubano y se pueden extraer buenas prácticas para su inserción de forma coherente y alineada en una estrategia digital. La figura 2 sintetiza los resultados a modo de buenas prácticas para aplicar en la etapa de conceptualización de la aplicación móvil como parte de un proyecto de trasformación digital de un hotel. Figura 2. Síntesis de buenas prácticas a partir de los resultados del estudio. Elaboracion propia De forma general, las metas de la app móvil de un hotel o grupo hotelero deben estar en dos direcciones: otorgar a los huéspedes y visitantes una experiencia de mayor movilidad y brindar atención aún más personalizada. 3. CONCLUSIONES 1. Por su conexión con los elementos principales y distintivos del concepto TD, las aplicaciones móviles hoteleras dirigidas a los clientes, deberían ser la primera propuesta de valor a evaluar actualmente durante la concepción de una estrategia TD en el sector hotelero propio cubano. 2. Desde el punto de vista del negocio, la identificación de los requisitos de una aplicación móvil hotelera debe ajustarse a objetivos estratégicos digitales del hotel o grupo, así como tener en cuenta las etapas de viaje del cliente, el ecosistema digital, el costo y el producto hotelero correspondiente. 3. La pertinencia de la aplicación móvil hotelera debe considerar el análisis del entorno incluyendo el tecnológico, los impactos necesarios en otras iniciativas digitales que formen parte del proyecto de transformación digital. 4. El estudio cumplió su objetivo ya que presenta como resultados buenas prácticas para conceptualizar los requisitos de una app móvil hotelera para su inserción efectiva en un proyecto TD, las cuales han sido aplicadas en el Proyecto de Transformación Digital del Hotel Nacional de Cuba. 5. Ante la decisión de los hoteleros de desarrollar una propuesta de valor móvil, alineada con su estrategia digital se debe enfrentar un proceso de identificación de requisitos que garantice principalmente la alineación estratégica entre la conceptualización de la app y el diseño del proyecto de transformación digital en curso, así como facilitar la etapa de análisis de software y la capacidad de negociación frente a los proveedores tecnológicos. RECONOCIMIENTOS Los autores, expresan su agradecimiento al Equipo de Transformación Digital del Hotel Nacional de Cuba, en especial a su Director General Luis Miguel Díaz Sánchez por su visión y conducción efectiva al permitir el avance de trabajos científicos como el que se presenta, a pesar de la complejidad operacional diaria del hotel. A la MSc. Gladys Hernández Herrera por su revisión editorial oportuna y observaciones pertinentes. REFERENCIAS AliKöseogluc, M. L. M. (2020). The link between environmental uncertainty, organizational agility, and organizational creativity in the hotel industry. International Journal of Hospitality Management. Dularamani, S. V. (2018). La transformación digital en el sector turístico: las redes sociales. Universidad Pontificia Comillas de Madrid, Fernández, T. D. (2020). Taxonomía de transformación digital. REVISTA CUBANA DE TRANSFORMACIÓN DIGITAL, 1(1), 4-23. Granma, P. (2018). El turismo cubano en cifras en 2018. In Declaraciones el Ministro de Turismo en FITCUBA 2018: Periódico Granma. Internationals, M. H. (2019). Informe Integrado 2019. Retrieved from Kane, G. C. (2017). In the Hotel Industry, Digital Has Made Itself Right at Home. MITSloan Management Review. Kemp, S. (2021). Digital 2021: the latest insights into the ‘state of digital’. Retrieved from https://wearesocial.com/uk/blog/2021/01/digital-2021-the-latest-insights-into-the-state- of-digital Mairinger, P. (2018). Digital Transformation in Hospitality-A guidance on how to implement and operate a hotel app to generate incremental revenue and o maximize customer value. (in Msc. International Management), Universidad Católica Portuguesa, Muñoz, S. M. S. (2020). El nacimiento de un nuevo modelo de hotel a la luz de la iv revolución industrial. (Grado), Comillas Universidad Pontificia, Orange, F. (2016). eEspaña La Transformación Digital en el sector turístico. Retrieved from fundacionorange.es Sánchez, M. A. (2017). A framework to assess organizational readiness for the digital transformation. Dimensión Empresarial, 15, 27-40. doi:http://dx.doi.org/10.15665/rde.v15i2.976 Systems, M. (2018). Transformación Digital en Hoteles. 6 ideas clave para entender al viajero digital. Whitepaper. Retrieved from Torrecilla, J. d. C. (2020). Plataformas digitales en el turismo y su implicación en la transformación del marketing del sector. (Grado Turismo / Fin de grado), Universidad de Valladolid, Segovia. SOBRE LOS AUTORES Gladys Ash Hernández. Ingeniera Informática (CUJAE 2003). Especialista en Ciencias Informáticas del Hotel Nacional de Cuba (HNC), Webmaster, Especialista a cargo de la innovación en el HNC. Jefa del Proyecto de Transformación Digital del HNC. Fue Responsable del Sistema de Gestión de Calidad, certificado ISO 9001:2015, del HNC (2006-2010). Fue Coordinadora general del Sistema de Información Ejecutiva HNC (2008-2018). Graduada del Diplomado en Dirección de Empresas Turísticas Mintur VIII de la Escuela de Altos Estudios de Hotelería y Turismo (2005). Líneas de trabajo: procesos hoteleros, marketing digital, sistemas de información ejecutiva, arquitectura empresarial, transformación digital, revenue management, gestión de calidad. Eventos: Curso pre-evento Informática 2018, Taller IberGecyt, Taller Internacional de Sharepoint 2008, Taller de Marketing Digital HNC-UH 2021, 8vo Simposio Internacional de Calidad, Taller de RRSS Mintur, 2022. ORCID 0000-0001-7855-4984. E-mail: hnacional1930@gmail.com Yadary Cecilia Ortega González. Ing. Informática (CUJAE, 1998). MSc. en Informática Aplicada (CUJAE, 2004). Dra. en Ciencias Técnicas (CUJAE, 2016). Profesora Titular. Fue Jefa del Departamento y del Grupo de Investigación de Informática Empresarial de la Facultad de Ingeniería Industrial en la CUJAE, desde el 2011. Decana de la Facultad de Ingeniería Industrial desde 2022. Miembro de la Unión de Informáticos de Cuba. Profesora de pregrado en la carrera de Ingeniería Industrial y de Sistemas de Información en la Especialidad en Dirección y Gestión Empresarial en la Escuela Superior de Cuadros del Estado y del Gobierno. Sus intereses de investigación son la sistematización del conocimiento basada en ontologías para la integración de tecnologías de la información, la gestión estratégica de arquitecturas empresariales y de la transformación digital y la modelación de procesos de negocio. Ha dirigido doctorados relacionados con a) la generación, evaluación y uso de planes estratégicos con alcance a los sistemas de información y b) la sistematización del conocimiento en proyectos de análisis y diseño de procesos organizacionales. Forma parte del proyecto “Sistema de Gestión de Vigilancia e Inteligencia para el Observatorio de Gobierno Digital en Cuba” asociado al PNCTI 06- Telecomunicaciones e Informatización de la Sociedad. ORCID: 0000-0001-7706-4924. E-mail: yog@ind.cujae.edu.cu Raul Rodríguez Serrano. Ing. Electricista (CUJAE, 1997). Experiencia de 19 años en el Hotel Nacional de Cuba. Fue Gerente de Hospitalidad del Hotel Nacional de Cuba, Jefe de Compras y Director de Áreas Asistentes. Jefe de Servicios Técnicos del Hotel y Responsable de Inversiones. Miembro del Equipo de Transformación Digital y del Equipo de Comunicación del Hotel. Diplomado en Dirección Hotelera y Post-grado de contabilidad y Finanzas- Escuela de Altos Estudios de Hotelería y Turismo (EAEHT). Líneas de investigación: marketing digital, fuentes renovables y accesibilidad en hotelería. Email: jmtto@gcnacio.gca.tur.cu ANÁLISIS DEL PROCESO DE FACTURACIÓN DE ALOJAMIENTO DEL HOTEL NACIONAL DE CUBA CON ENFOQUE DE ARQUITECTURA EMPRESARIAL. Lianet Fis Castellano11, Ing. Gladys Ash Hernández2 1Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE), 2 Hotel Nacional de Cuba 1e-mail: lianetfiscas@ind.cujae.edu.cu RESUMEN El Hotel Nacional de Cuba, construido en el año 1930, constituye un símbolo de historia, cultura y cubanía. Con motivo de la transformación digital que se está efectuando en él, se necesita mejorar las capacidades de gestión actuales, proponiéndose como objetivo contribuir a mejorar la documentación existente y la integración del sistema de información con el proceso de facturación de alojamiento, siguiendo el enfoque de la arquitectura empresarial. Para dar cumplimiento a este objetivo se usó un método dividido en cuatro fases: ambientación, planificación, diseño y desarrollo, y ejecución. A partir de ello se obtuvieron modelos de valor y propuestas de mejora al proceso de facturación. PALABRAS CLAVES: Transformación digital, Arquitectura Empresarial, Facturación de alojamiento, Analista de procesos, Sistema de Gestión de la Calidad. ANALYSIS OF THE BILLING PROCESS OF THE HOTEL NACIONAL DE CUBA WITH ENTERPRISE ARCHITECTURE APPROACH. ABSTRACT The Hotel Nacional de Cuba, built in 1930, is a symbol of history, culture and Cuban identity. Due to the digital transformation that is taking place in it, it is necessary to improve the management capabilities that are presented, proposing as an objective to contribute to improving the existing documentation and the integration of the information system with the billing process, performing the job of the analyst, following the enterprise architecture approach. To fulfill this objective, a method divided into four phases was used: Setting, planning, design and development, and execution; from it, value models and proposals for improving the billing process were obtained following the business architecture approach. KEY WORDS: Digital transformation, Enterprise Architecture, Accommodation billing, Process analyst, Quality management system. 1. INTRODUCCIÓN El Hotel Nacional de Cuba (HNC), que pertenece al Grupo Hotelero Gran Caribe, ostenta la categoría de 5 estrellas, de administración cubana. Con sus 92 años de historia, sigue siendo un lugar preferido por destacados y célebres huéspedes incluyendo Jefes de Estado, así como es considerado el Hotel Insignia de la Hotelería Cubana y una importante sede de eventos en el país. Su misión es ser un Hotel emblemático, Monumento Nacional, Patrimonio de la humanidad y Memoria Histórica del Mundo, con una arquitectura majestuosa que brinde servicio de alojamiento y restauración a turistas, hombres de negocio y altas personalidades de todas las esferas sociales, así como satisfacer las expectativas de los clientes, apoyado en un equipo profesional, honesto, solidario y con el espíritu de hacer llegar a todos la cubanía que distingue al pueblo. Su visión es ser reconocido como líder en hotelería de Cuba, entre los hoteles cinco estrellas y sedes de eventos de alto nivel, ser distinguido por la mejora continua de los estándares de Calidad y por mantener valores históricos, cubanos y patrimoniales. Los procesos claves y estratégicos de la instalación incluyen: Alojamiento, Restauración y Cocina, Eventos Especiales, Gestión por la Dirección, Comercialización y Capital Humano. La actividad cuenta con determinados sistemas de gestión, sistemas informáticos, que ayudan a gestionar la información manejada por los procesos, entre ellos el Sistema ZUNsuite: software de gestión hotelera basado en estándares internacionales de la industria de la hospitalidad compuesto por ocho módulos. Con motivo de un programa de transformación digital que se ejecuta en el hotel se necesita mejorar las capacidades de gestión con las que cuenta actualmente. Siendo la información uno de los principales elementos habilitadores de la capacidad de gestión y la integración entre procesos, se propone como objetivo: contribuir a mejorar la documentación existente y la integración del sistema de información con el proceso de facturación, siguiendo el enfoque de la Arquitectura Empresarial (AE). Para dar cumplimiento a dicho objetivo se hizo necesario el estudio de determinados elementos del proceso de facturación de alojamiento como la información manejada en la actualidad, los formatos y estados de la misma, el soporte que tiene por parte de los sistemas informáticos, las necesidades de información aún no cubiertas y las necesidades aun no percibidas identificadas mediante métodos de vigilancia tecnológica. Las actividades realizadas se ejecutan desde la perspectiva del analista de procesos. Esta visión permite el análisis holístico de la realidad con una fuerte componente situada con la visión hacia la mejora de los sistemas de información. El analista de procesos es un profesional que se encarga de evaluar, diagnosticar y diseñar procesos, procedimientos y sistemas para su simplificación, integración, automatización y actualización, con el objetivo de mejorar el nivel de eficiencia, efectividad y economía de una Institución, promoviendo la aplicación de buenas prácticas y tecnologías innovadoras. Tiene una visión horizontal e interfuncional de los procesos para lograr los objetivos del negocio. Encargado de modelar y sugerir mejoras en los procesos siguiendo técnicas agrupadas en el BPM (Business Process Management) [1]. 2. MARCO CONCEPTUAL DEL PROCESO DE FACTURACIÓN DE ALOJAMIENTO El turismo es el sector más dinámico de la economía mundial en los últimos años. En la gestión hotelera constituye un reto desarrollar una gestión que asegure que los servicios sean percibidos por todos los clientes conforme a que se puedan satisfacer, asegurando el confort del mismo. El principal objetivo es cumplir con las exigencias de la mayoría de los clientes. Un hotel es un establecimiento que presta servicio de hospedaje en unidades habitacionales amuebladas, cuenta con servicio de recepción, servicio de sanitario privados, servicio de alimentos y bebidas y otros servicios adicionales. El área de recepción representa uno de los elementos claves donde se sustenta la actividad de la empresa hotelera asociada a la satisfacción del cliente, siendo el departamento más importante para el correcto funcionamiento del resto de las áreas del hotel dado que posee mayor flujo de información al mismo tiempo que administra los ingresos del hotel. Todo ingreso de dinero está enmarcado en el proceso de facturación, ejercido para establecer un control sobre esos movimientos. Su principal objetivo es registrar y procesar todas las actividades relacionadas u operaciones que tienen como objetivo mantener y aumentar las ventas de una empresa [2]. Para soportar este proceso (y el resto que se llevan en el hotel) se hace uso del ZunSuite que es un software de gestión que está compuesto por ocho módulos: ZUNpms, ZUNacc, Zunútil, ZUNaft, @listar, Sahr, ABACO y ZUNstock. Por otro lado, tenemos a los sistemas de información, los cuales deben servir para captar la información que esta necesite y ponerla (con las transformaciones que sean necesarias) en poder de los miembros de la empresa que la requieran [3]. Todas las organizaciones son sistemas de procesamiento de información ya que cualquier actividad desarrollada en la empresa necesita procesar información para su funcionamiento [4]. En la era de la transformación digital es uso de sistemas de información cumplen un papel fundamental para garantizarla integración tecnológica de todos los procesos administrativos de la empresa y así lograr acceso al conocimiento preciso para tomar decisiones rápidas y acertadas [5] La investigación está enfocada en la Arquitectura Empresarial, la cual se concibe como una actividad esencial de gestión que permite visualizar y evaluar la dirección futura de una organización. Es una disciplina que abarca aspectos del negocio y técnico, permite manejar la creciente complejidad y gestionar los cambios de una forma organizada. La Arquitectura Empresarial se encuentra compuesta por [6]: Procesos; Medidas; Personas; Tecnologías (relacionada con las capacidades de software y hardware para apoyar los servicios del negocio, de datos y de aplicación); Información; Aplicaciones; Recursos; Valor del negocio; Eficiencia organizacional; Operatividad organizacional (función, ejecución y calidad); Gobierno; Estrategia del negocio; Datos (estructura de datos lógicos y físicos, y recursos de administración de datos). Además, se encuentra representada a través de diferentes perspectivas que corresponden a las vistas o componentes principales que sirven como instrumentos para el soporte del negocio: La Arquitectura de negocios, de información, de sistemas o aplicación y de tecnología. Entre los modelos que se generan en su marco se encuentran las matrices CRUD y la RACI, los flujos de trabajo con BPMN y los mapas conceptuales. Un modelo es una abstracción o representación simplificada de un sistema complejo que puede ser real o conceptual, diseñado para mostrar ciertas características del sistema que se desea estudiar, predecir, modificar o controlar [7]. Un proceso de negocios se considera una colección de actividades, eventos y decisiones interrelacionados con un número de actores y objetos que se ordenan de forma tal que permita la obtención de resultados de valor [8]. Uno de los obstáculos a la hora de evaluar los procesos de negocio es su complejidad y para ello se hace uso de herramientas que disminuyan esto. La facturación de alojamiento en el Hotel Nacional de Cuba es la gestión de facturas abiertas de agencias, estas están asociadas a un contrato que abarca un lapso de tiempo comprendido dentro de los períodos que forman la temporada asignada al contrato. El proceso de facturación tiene como objetivo registrar y procesar todas las actividades relacionadas u operaciones que tienen como resultado mantener y aumentar las ventas en la empresa. Este proceso se realiza para llevar un control sobre todos los movimientos de los ingresos de dinero que existen dentro de la empresa [2], además de realizar la facturación diaria y la tramitación del cobro de la factura [9]. Tiene gran importancia porque materializa los ingresos dentro de la empresa para establecer un control sobre los productos o servicios brindados al cliente y que se encuentren realmente facturados. El área de facturación depende directamente del área de recepción la cual es el departamento central encargado de confeccionar y dar a conocer diariamente las informaciones al resto de departamentos del complejo, controla, gestiona y ordena los distintos servicios relacionados a la estancia del turista garantizando así un trabajo integral y fluido [10], siendo el proceso de facturación un subproceso del proceso de recepción [11]. Como requerimientos (o buenas practicas asociadas) el proceso de facturación de alojamiento necesita de la eficiencia del departamento de recepción en la actualización constante de la información del cliente [12], siendo un ejemplo las salidas anticipadas, si recepción no plasma esta ocurrencia, la facturadora podría cobrar la estancia completa al cliente, conllevando a una desproducción consistente en la devolución del dinero al cliente de los días que no disfrutó de su estancia en el hotel; se debe contar con un Voucher que respalde la reserva del cliente [13]; se requiere un sistema informático con el objetivo de controlar los temas relacionados a lo que cada cliente negocie y que tenga una documentación asociada de su uso para que sea distribuida en la organización [14], en el caso del Hotel Nacional de cuba se tiene uno llamado ZUNsuite. El ZUNsuite es un software de gestión hotelera basado en estándares internacionales de la industria de la hospitalidad compuesto por ocho módulos [15]. Por otro lado, también hace uso de distintos documentos como son: Listado de facturas abiertas (LFA); Listado de facturas abiertas por agencia (LFAG); Voucher; Listado de no presentados; Listado de prórrogas; Solicitud de reservas; Contrato de alojamiento; Factura. Esta última tiene dos estados: factura abierta y factura cerrada. La factura abierta tiene un estricto control interno que incluye un identificador de cada línea de cheque único, un número de cheque único y la imposibilidad de eliminar líneas de cheques. Estas no se crean y se cierran en el momento, sino que permanecen abiertas durante el período de estancia del cliente. La factura contiene distintos datos como son: las descripciones de la estancia del cliente, los datos del mismo, el importe, la fecha, los cargos (aumentan la deuda del cliente) y el abono (disminuyen la deuda del cliente). Para llevar a cabo el proceso de facturación de alojamiento existe el rol de Especialista de facturación, sus funciones se basan en: Introducción de cargos; Redireccionamiento y traslado de cargos; Asignación de depósitos de garantía; Corrección de cargos; Cierre de facturas; Modificación de cargos; Apertura de cargos; Asignación y realización de cargos automáticos; Verificar que todo esté en orden con las facturas; Verificar que la evidencia entregada por recepción coincida con la factura del sistema. Este proceso comienza con el check in del cliente, donde se registra los datos necesarios de la persona al hospedarse, inscribiendo oficialmente la llegada del cliente, y termina con el check out que es el proceso por el cual una persona, luego de haber estado hospedada en un hotel, al momento de retirarse de este debe cancelar todas y cada una de las deudas y cuentas pendientes y hacer entrega de las llaves de la habitación reservada anteriormente [16]. La facturación de alojamiento tiene necesidades de información que incluyen distintos reportes (de facturas cerradas, de facturas cerradas desde históricos, de clientes que han pedido prórrogas, de agencias vivientes en el hotel, de clientes no presentados, de facturas abiertas y la contabilización de facturas cerradas). 3. PROCEDIMIENTO DE LEVANTAMIENTO DE REGLAS DE DISEÑO Proceso de facturación de alojamiento en un vistazo general del mismo Como antesala al análisis del flujo de proceso del proceso de facturación, se muestra esta visión general con las actividades reducidas a modo de subprocesos representando etapas por las que pasa la facturación de alojamiento (Figura 1. Vistazo general del proceso de facturación de alojamiento). Figura 1. Vistazo general del proceso de facturación de alojamiento Sabiendo que el proceso de facturación de alojamiento puede comenzar con cuatro eventos distintos: Día de cierre de facturas, llamada de recepción para avisar de una salida antes de tiempo, llamada de recepción para avisar de un cliente que ha pedido prórroga y pasará por directo y la respuesta de las áreas asociadas a los errores con las facturas, se observa que el proceso pasa por la recogida de los Voucher y facturas generados el día anterior en el proceso de check in para luego comenzar a revisar los listados de facturación abierta (LFA), facturación abierta por agencia (LFAG), de prórrogas y los no presentados en busca de errores o incongruencias que necesiten solución de otras áreas (para ello, además de los listados antes mencionados, se usa la solicitud de reserva del cliente). Luego se pasa a revisar las facturas del día anterior (haciendo uso del contrato de alojamiento, el informe de ajuste, la factura y el Voucher) en caso de problemas con alguna de ellas se procede a comunicar con las áreas relacionadas a estas situaciones, se archivan las facturas con fecha de salida de días posteriores al actual y se procede a cerrar las del día. El proceso finaliza con la comprobación del listado de facturas cerradas y el envío de las facturas cerradas al departamento de economía. Proceso de facturación de alojamiento As is El proceso de facturación (Figura 2. Flujo de proceso del proceso de facturación) puede comenzar de cuatro formas distintas: Con la llegada de un nuevo día de trabajo; Con una llamada de recepción para avisar de una salida antes de tiempo; Con una llamada de recepción para solicitar el cierre de una factura ante el pedido de un cliente que pasará a directo; Soluciones a los errores de las facturas de días anteriores. Figura 2. Flujo de proceso del proceso de facturación  Con la llegada de un nuevo día de trabajo: Lo primero que se hace es recoger las facturas y los vouchers asociados a los check in realizados en día anterior en recepción. Una vez en la oficina se accede al sistema ZUNpms, en el módulo Alojamiento/Facturación y se imprimen los listados de: Listado de Facturas Abiertas (LFA), Listado de Facturas Abiertas por Agencia (LFAG), Listado de no presentados (no show) y el Listado de prórrogas. El próximo paso es revisar las facturas del día anterior (Figura 3. Flujo de proceso del subproceso Revisar la factura). De cada una de las facturas generadas en el check in del día anterior se revisa (usando el Voucher como principal referencia): El nombre del cliente, plan de alojamiento del cliente, cantidad de personas alojadas, fecha de estancia del cliente (De ser incorrecto se arregla en la factura del sistema), nombre de la agencia, nombre de habitación del cliente (si no es correcto se revisa si realizó algún cambio de habitación. De ser así se corrige el número en la factura impresa, de no ser el caso se corrige en la factura del sistema), código de contrato bajo el cual se hizo la reserva (De no ser correcto se comunica a Reservas el problema y se recibe el código del contrato bajo el cual el cliente realizó la reserva. Si el Voucher contiene el código correcto se arregla el que se encuentra en la factura del sistema, si el Voucher es incorrecto se notifica a la agencia el error), y la razón social. Figura 3. Flujo de proceso del subproceso Revisar la factura También debe ser revisado el importe de la factura (Figura 4. Flujo de proceso del subproceso Revisar importe de la factura), donde si la agencia es Cubatour, Cubanacan o ECOTUR, se revisa que el importe a cobrar en la factura es el importe del Voucher menos un 10%. Si la agencia no es Cubatour, Cubanacan o ECOTUR se revisa que el importe del Voucher sea el mismo que el de la factura. Si el importe no es correcto se debe revisar la fuente de equivocación haciendo uso del contrato de alojamiento: Si la equivocación es del hotel se debe notificar del error a recepción y arreglar el importe en la factura. Si el error es de la factura se debe notificar a la agencia del error) Figura 4. Flujo de proceso del subproceso Revisar importe de la factura Una vez hayan sido revisadas las facturas se debe realizar un informe de ajuste a cada factura ajustada que contenga una descripción de todos los ajustes realizados y que el jefe de recepción debe firmar. Si después de esta revisión aún existen errores en alguna factura (por falta de respuestas de otras áreas) se deben apartar estas facturas y enviarle notificación de estos errores a las áreas implicadas, si luego de una hora no se ha recibido respuesta se colocan las facturas bajo esta condición en un montón de facturas pendientes hasta que se reciba una respuesta. En el caso de que no existan errores con ninguna factura o que se haya recibido confirmación de solución de errores de las otras áreas, se procede a fotocopiar el Voucher de las facturas de agencias receptivos cubanos. Luego se archivan en una carpeta, separadas por día, las facturas que no se cierran en el día actual y se espera a que termine el proceso de check out para proceder a cerrar las facturas del día. Se deben realizar dos juegos con cada factura cerrada: Uno que contenga la factura subida de recepción, con la factura cerrada y el Voucher original; y el otro que contenga la factura cerrada con una copia del Voucher (en el caso de ser una agencia receptiva de cubana). Para finalizar el proceso se compara el Listado de Facturas Cerradas del día con todas las facturas cerradas en el día actual para asegurarse de tener todas las facturas cerradas en el montón que, finalmente, será entregado al área de Economía.  Con una llamada de recepción para avisar de una salida antes de tiempo: Al recibir una llamada de recepción que avise de una salida antes de tiempo se debe comprobar que la factura del cliente en cuestión ya haya sido revisada, de no haber sido así se procede a revisar la factura y se continúa el trabajo como se explica a partir de ese punto. Si la factura ya fue revisada con anterioridad se procede a cerrar la factura del cliente, fotocopiar el Voucher (en caso de ser una agencia receptiva cubana) y realizar dos juegos de facturas cerradas.  Con una llamada de recepción para solicitar el cierre de una factura ante el pedido de un cliente que pasará a directo Al recibir una llamada de recepción que avise de un cliente que pasará a directo se debe comprobar que la factura del cliente en cuestión ya haya sido revisada, de no haber sido así se procede a revisar la factura y se continúa el trabajo como se explica a partir de ese punto. Si la factura ya fue revisada con anterioridad se procede a cerrar la factura del cliente, fotocopiar el Voucher (en caso de ser una agencia receptiva cubana) y realizar dos juegos de facturas cerradas.  Soluciones a los errores de las facturas de días anteriores Si se obtiene respuesta a los errores de las facturas del día anterior se procede a fotocopiar el Voucher de dicha factura (en caso de ser una agencia de receptivo cubano) y se archiva en espera del día de cierre de factura. 4. MEDICIÓN DE LA CALIDAD SINTÁCTICA Y SEMÁNTICA DEL PROCESO DIAGRAMADO Obtener modelos de procesos de negocio con alta calidad y que sean comprensibles ha sido de interés de varios investigadores en la comunidad científica ya que, en la creación de los modelos de procesos, se deben respetar las construcciones definidas del lenguaje que se utiliza y hay que valerse de pautas que permitan homogenizar el trabajo realizado por varios modeladores, ya que resulta complejo obtener una única interpretación. [17] Se busca que el modelo tenga calidad semántica (El modelo captura la realidad del proceso) y calidad sintáctica (Uso correcto del lenguaje, de la notación de modelado), todo esto con el objetivo de obtener una mejor alineación entre el diseño del proceso y las tecnologías desplegadas, o las que se quieran desplegar y hacer propuestas de cómo lograr un mejor uso de las capacidades instaladas en las tecnologías, o definir qué es lo que tiene que ser objeto de informatización para que el proceso sea lo más automatizado posible. Se debe tener en cuenta que el modelo BPMN es sintácticamente correcto si todos los términos se utilizan de acuerdo con las reglas de sintaxis de la notación BPMN y para cumplir con este requisito se hizo uso en todo momento de las bibliografías existentes como es la Guía de Referencia y Modelado BPMN [18], puestos que el estándar ofrece un conjunto de reglas que ayudan a los modeladores a comprender mejor los procesos de negocio representados. Las reglas están relacionadas con los principales elementos de modelado de los procesos de negocios, orientadas a la forma de representación de los componentes en el diagrama y a la manera específica en que deben aparecer los componentes en el modelado. Una de las directrices relacionadas con la medición de la calidad de los procesos de negocio en una visión sintáctica está relacionada con el tamaño de los modelos debido a que los modelos de mayor tamaño son más complicados de entender y tienen más probabilidades de contener errores. La complejidad del modelo principal consta de 1 flujo de secuencia ideal y 1 flujo de secuencia que no permite llegar al objetivo del puesto de trabajo. Con 29 actividades (de ellas: 1 subproceso embebido, 10 actividades manuales, 4 reglas de negocio, 5 de envío de mensaje, 2 de envío recibo de mensaje, 7 de envío actividades de usuario), 9 objetos de datos, 9 eventos (de ellos 4 eventos de inicio: 3 de recibo de mensaje; 3 eventos intermedios: 1 de recibo de mensaje, uno de temporizador y uno de señal, 2 eventos de finalización que representan el flujo de proceso ideal y otro que representa la alternativa de fracaso de la actividad) y 10 compuertas (de ellas 1 compuerta exclusiva basada en eventos y 9 compuertas paralelas). La complejidad del subproceso embebido Revisar facturas está basada en 24 actividades (de ellas 1 subproceso embebido, 8 reglas de negocio, 9 actividades de Usuario, 2 actividades manuales, 3 actividades de envío de mensaje, 1 actividad de recibo de mensaje), 3 objetos de datos, 2 eventos (de ellos 2 eventos de finalización que representan el flujo de proceso ideal y otro que representa la alternativa de fracaso de la actividad) y 12 compuertas paralelas. Por último, en el subproceso embebido Revisar el importe de la factura, se sabe que su complejidad está basada en 7 actividades (de ellas: 3 reglas de negocio, 2 actividades de envío de mensaje, 1 actividad manual y 1 actividad de usuario), 3 objetos de datos, 3 eventos de finalización y 3 compuertas paralelas. Según fuentes consultadas [19] se sugiere usar tan pocos elementos como sea posible por nivel de modelo de proceso, permitiendo reducir la presencia de errores y mejorar la calidad pragmática, empírica y sintáctica del modelo. Se procede a realizar un análisis del tamaño real de los elementos del modelo con el umbral planteado en la bibliografía. Tabla 1. Medidas del modelo presentado Medida Umbral Valor existente Flujo de proceso del proceso de facturación Alto número de elementos 31 57 Alto número de eventos de inicio 2.5 4 Ausencia de eventos de fin 0 Alto número de flujos de secuencia 34 55 Alto número de actividades 31 29 Flujo de proceso del subproceso Revisar la factura Alto número de elementos 31 41 Alto número de eventos de inicio 2.5 1 Ausencia de eventos de fin 0 Alto número de flujos de secuencia 34 46 Alto número de actividades 31 24 Flujo de proceso del subproceso Revisar el importe de la factura Alto número de elementos 31 16 Alto número de eventos de inicio 2.5 1 Ausencia de eventos de fin 0 Alto número de flujos de secuencia 34 14 Alto número de actividades 31 7 Como medida del gran volumen de elementos presentados en el modelo principal se confeccionó la Figura 1. Vistazo general del proceso de facturación de alojamiento, permitiendo una mayor comprensión de lo planteado antes de observar el proceso de modo tan específico. Se puede decir que es semánticamente correcto si corresponde al dominio y a la realidad de la situación analizada, asegurándose la calidad en este sentido al haber sido validado el modelo con los expertos funcionales del Hotel Nacional en reiteradas ocasiones. 5. CONCLUSIONES En el artículo se logra presentar la descripción de las reglas de negocio del proceso de facturación, así como su traducción a lenguaje BPMN y su posterior medición de la calidad sintáctica y semántica. Este y otros modelos realizados en el marco de la Arquitectura Empresarial que serán de valor para la organización y la gestión de sus procesos fomentando la iteración sobre ellos para llegar a resultados más exactos y alineados con los objetivos, así como el impacto dejado en la gestión del conocimiento del puesto de trabajo de facturación de alojamiento, y se dejaron en claro las necesidades de información existentes en el proceso de facturación hotelera: las entidades de información que viajan en el flujo del proceso y que son esenciales para el completamiento exitoso de la actividad, los roles que participan en esta, así como qué se espera de cada uno de ellas y los caminos de completamiento exitoso y fallido del proceso. RECONOCIMIENTOS Se desea agradecer a todo el personal del Hotel Nacional de Cuba por su disposición e infinita paciencia en el transcurso de la presente investigación, brindando apoyo siempre que era solicitado y el conocimiento necesario para realizar un trabajo de calidad. REFERENCIAS 1. Gatti, F., et al., Los profesionales en Ciencias Económicas en el rol de analista funcional. Análisis de competencias para desempeñarse como analista funcional de sistemas de información, in XII Jornadas DUTI (Docentes Universitarios de Sistemas y Tecnologías de Información en Ciencias Económicas). 2017: Facultad de Ciencias Económicas-Universidad Nacional de Córdoba. Córdoba, Argentina. p. 189-199. 2. Llerena, E.A.B., Optimización del proceso de facturación en la empresa discover mayorista de turismo SAC, Lima 2018, in Facultad de ciencias empresariales. 2019, Universidad de San Ignacio de Loyola: Lima. p. 92. 3. Alcamí, R.L., et al., Introducción a la gestión de sistemas de información en las empresas. Primera edición ed. 2021. 108. 4. Moreno-Cevallos, J.R., Sistemas de información empresarial: la información como recurso estratégico. Revista Científica Dominio de las Ciencias, 2018. 4: p. 141-154. 5. Castro, M.F.P., S.Y.O. Contreras, and I.O.M. Pazmiño, Los sistemas de información y su importancia en la transformación digital de la empresa actual. Revista Espacios, 2018. 39: p. 3- 7. 6. Campo, C.H.G. and J.L. Oviedo, Una propuesta para la definición de la arquitectura empresarial. Dimensión Empresarial, 2020. 18. 7. Fuentes, I.R.P., et al., BPMN notación de gestión de procesos de negocio. Herramienta para la evaluación de modelos de procesos de negocios SAD_BPMN, in VIII Taller Internacional de Calidad en las Tecnologías de la Información y las Comunicaciones (CALIDAD 2018). 2018. 8. Tsakalidis, G., et al., Eligibility of BPMN Models for Business Process Redesign. Information, 2019. 10. 9. QUIJIJE, M.B.Q. and G.G.Z. ZAMBRANO, Procedimiento en procesos de servicios para la mejora de la gestión operativa en el Hotel Balandra del Destino Manta, in INGENIERÍA EN TURISMO. 2021, Escuela superior politécnica agropecuaria de Manabí Manuel Félix López: Calceta. p. 185. 10. Fajardo, L.M.R., Recepción y alojamiento: procesos relevantes del Complejo Hotelero Barceló Solymar Occidental de Varadero. Económicas CUC,, 2022. 43. 11. Mieles, C.P.I., Manual de procedimientos para la mejora de procesos en áreas de recepción y ama de llaves del Hotel Poseidón, Manta. 2018, Escuela Superior Politécnica Agropecuaria de Manabí Manuel Félix López: Calceta. p. 143. 12. Ruiz, J.F.C., Implementación de software de facturación que consolide la contabilidad en el Hotel1525 de Santa Marta., in PROGRAMA DE ADMINISTRACION DE EMPRESAS TURISTICAS Y HOTELERAS. 2021, UNIVERSIDAD DEL MAGDALENA. 13. Coyuri, J.G.A., El control interno y su incidencia en la gestión de los servicios en las empresas hoteleras de la región puno. 2018, Universidad Nacinal de Altipano. 14. Huamanchumo, D.A.Q., M.G.C.Z. Aguilar, and A.J.Z. Romero, Análisis de la logística interna en el sector hotelero. 2021, Universidad de Lima. p. 63. 15. Bravo, F.P. and W.P. García, Diagnóstico de procesos turísticos aplicando técnicas de minería de procesos. Revista Universidad y Sociedad, 2021. 13: p. 189-200. 16. Quijada, B.L.L.M., Implementación del sistema de gestión hotelera en el control de procesos operativos, Provincia de Jauja, in Nuevas tecnologías y procesos. 2018, Universidad Peruana Los Andes: HUANCAYO – PERÚ. p. 202. 17. Grass, O.Y.R., N.S. Martínez, and M.A.S. Palmero, Revisión sobre directrices prácticas para la calidad del modelado de procesos de negocio. Revista Cubana de Ciencias Informáticas, 2019. 13: p. 127-142. 18. White, S.A. and P.D. Miers, Guía de referencia y modelado BPMN. 2009. 215. 19. García, L.F.R., Herramienta para la aplicación de directrices de complejidad a modelos de procesos de negocios, in Departamento de Computación. 2016, Universidad Central "Marta Abreu" de Las Villas: Santa Clara. Propuesta de Requisitos Funcionales para la implementación de Odoo en el proceso de negocio Eventos Especiales. Proposal of Functional Requirements for the implementation of Odoo in the Special Events business process. Marcel Prada Pérez1, Yilian Carmenate Acosta2, , Dayron Reyes Dominguez3, Gladys Ash Hernández4 Universidad Tecnológica de la Habana José Antonio Echeverría, Cujae. Facultad de Ingeniería Industrial. La Habana, Cuba. 3 dreyes@ind.cujae.edu.cu, 2 yiliancaraco@ind.cujae.edu.cu, 1marcelparaper@ind.cujae.edu.cu RESUMEN: En el proceso de Transformación Digital del Hotel Nacional de Cuba se persigue la optimización e informatización de los procesos internos. El caso de estudio del presente trabajo es el proceso de negocio de la Gestión de Eventos Especiales, que es dirigido por el Departamento Comercial. El objetivo general, por ende, es la obtención de requisitos funcionales a partir de la triada: proceso – modelos de referencia – Odoo. Para ello se utilizaron metodologías como el PBRI, benchmarking, análisis de experiencias de usuario en Odoo, así como el desarrollo de la propia experiencia de los autores, la gestión de BPM, el diagramado BPMN y la metodología para la extracción de requerimiento explicada en el Capítulo 1. Se arribaron a resultados deseados como los diagramas BPMN de la arquitectura y subprocesos del proceso de negocio, el benchmarking arrojó la alta competitividad del ERP Odoo frente a los modelos de referencia estudiados y se obtuvo una lista de 57 requisitos funcionales que demanda el proceso actual. PALABRAS CLAVES: Odoo, gestión de eventos en hotelería, Hotel Nacional de Cuba, requisito funcional. ABSTRACT: In the process of Digital Transformation of the Hotel Nacional de Cuba, the optimization and computerization of internal processes is pursued. The case study of this work is the business process of Special Events Management, which is directed by the Commercial Department. The general objective, therefore, is to obtain functional requirements from the triad: process – reference models – Odoo. For this, methodologies such as PBRI, benchmarking, analysis of user experiences in Odoo were used, as well as the development of the authors' own experience, BPM management, BPMN diagramming and the methodology for requirement extraction explained in the Chapter 1. Desired results were arrived at, such as BPMN diagrams of the architecture and sub-processes of the business process, the benchmarking showed the high competitiveness of the Odoo ERP against the reference models studied and a list of 57 functional requirements demanded by the ERP was obtained. actual process. KEY WORDS: Odoo, hotel event management, Hotel Nacional de Cuba, functional requirement. 1. INTRODUCCIÓN: El Hotel Nacional de Cuba se encuentra inmerso en el proceso de Transformación Digital. Uno de los requisitos que debe satisfacer la institución para alcanzar esa transformación es la de optimizar y automatizar sus procesos internos. La gestión organizacional es un concepto que ayuda a lograr este fin. La gestión organizacional, básicamente, es conseguir que una organización funcione de forma eficiente en la consecución de sus objetivos. En el presente trabajo se estudia precisamente al Departamento de Eventos Especiales en el Hotel Nacional de Cuba, con el siguiente objetivo general:  Realizar un levantamiento de requerimientos funcionales para la informatización del proceso de gestión de eventos en el HNC a través de la triada proceso AS IS - buenas prácticas embebidas en los modelos de referencia - ERP Odoo. A lo largo de la investigación se emplearon técnicas como el PBRI, la modelación en BPMN de los subprocesos de gestión de eventos del hotel y el Benchmarking basado tanto en experiencias de usuarios de otras organizaciones como en la propia de los autores centrando el objeto de estudio en el software de gestión empresarial Odoo. Entre los objetivos específicos se encuentran: 1. Realizar análisis sobre los métodos de obtención de requerimientos funcionales. 2. Realizar Benchmarking sobre los sistemas informáticos que se especializan en la gestión de eventos de hotelería. 3. Levantar requerimientos funcionales de los módulos necesarios del Odoo a través de la experiencia de usuario. 4. Modelar el proceso de negocio de Gestión de Eventos Especiales 5. Levantar requisitos funcionales del proceso de gestión de eventos en Eventos Especiales. 6. Determinar el nivel de estructuración de las entidades de información, así como la relación con las áreas del Hotel y entre entidades. Entre los principales resultados obtenidos se encuentran la obtención de modelos en lenguaje BPMN de todos los subprocesos de la gestión de eventos del hotel, así como el listado de requerimientos funcionales para la implementación y modificación del Odoo en base al proceso de negocio de la Gestión de Eventos Especiales. 2. MÉTODOS: Para el desarrollo y alcance de los objetivos de la investigación se realizó en una primera instancia la vigilancia tecnológica referente a la gestión de eventos en hotelería, para lo cual se sentaron bases teóricas fundamentales aplicando la metodología PBRI, búsquedas referentes a la temática como los métodos existentes de obtención de requerimientos funcionales y la caracterización de la metodología del Benchmarking empleada para la recopilación de buenas prácticas de softwares informáticos especializados en la gestión de eventos en hotelería, en especial del ERP Odoo. Para aplicar el PBRI se hizo uso de fórmulas de búsquedas, en idiomas español e inglés, como: “functional requirements analysis”, “ERP systems AND Hotelería”, “Benchmarking study best practice”; empleadas en buscadores científicos como Google Académico y Research Gate y bases de datos como Academia, SciELO y Science Direct. Las experiencias de usuarios con el software de gestión empresarial Odoo, así como la de los autores del trabajo constituyó a su vez otro de las técnicas fundamentales aplicadas en la investigación junto a la modelación del AS IS del proceso de gestión de eventos en el Hotel Nacional de Cuba para lo cual se aplicaron herramientas como la realización de entrevistas, trabajo en colectivo y el BPMN para el modelado de procesos. Por supuesto, la Metodología para la Gestión de BPM tuvo repercusión en la investigación, pues los autores se apoyaron en extractos de la misma. Para un mayor grado de detalle y con vistas a la obtención de requisitos se realizó un registro de la información brindada por las especialistas del puesto de trabajo, donde se determinaron las actividades, su clasificación, rol asociado, el empleo de Sistemas de Información o TI, las entidades de información y las áreas relacionadas y se determinó el nivel de estructuración de las entidades de información proponiendo alternativas de soluciones a las no estructuradas. 3. RESULTADOS: Como punto de partida se toma el concepto de proceso dado por [1], para el cual un proceso está definido por una secuencia lógica, organizada y concatenada de actividades que transforman una entrada en una salida o en la consecución de un objetivo. Esta secuencia de actividades se realiza en determinado tiempo y lugar, y es impulsada por eventos. En el marco de esta investigación el concepto más acorde al proceso de Gestión de Eventos Especiales es el de proceso de negocio, el cual es el que se pretende lograr un grado de informatización y de automatización. Para [2] la automatización de procesos de negocio se entiende como la automatización de procesos comerciales mediante el uso de tecnologías para ejecutar tareas o actividades recurrentes en un negocio donde el esfuerzo manual puede ser reemplazado, con el propósito de minimizar costos, aumentar la eficiencia y optimizar procesos. La automatización de procesos permite que las organizaciones puedan diseñar, ejecutar, observar, supervisar y mejorar continuamente los procesos, constituyendo una poderosa ventaja competitiva [2]. Esta automatización trae como resultados la automatización de tareas repetitivas, el flujo de información más transparente y ágil, con alertas y disparos de correos electrónicos automatizados, la captura y medición de indicadores clave de rendimiento (KPI) en diversas etapas del proceso; entre otras [2]. Para la descripción detallada de procesos existen distintas herramientas. La modelación de procesos de negocio (MPN) es la representación del grupo de actividades que una persona u organización efectúan para alcanzar una meta. Cada actividad puede ser representada en términos de sus entradas, roles y salidas [3]. Los casos de uso muestran escenarios de interacción entre el usuario y el sistema. Además, muestran todas las posibilidades de uso que tendrá el software[4]. Según Garcia and Moreno [4], el BPMN nace como el lenguaje gráfico y estándar para realizar el modelado de procesos de negocio. Representa el flujo de trabajo interno de la organización por medio de una notación simple y entendible. Para Jaime and Jiménez [3], BPMN es una notación gráfica estandarizada que permite el modelado de procesos de negocio en un formato de flujo de trabajo. Es el estándar para la diagramación de procesos de negocio, actualizada por el OMG (Object Management Group). El BPMN tiene la finalidad de servir como lenguaje común para cerrar la brecha de comunicación que frecuentemente se presenta entre el diseño de los procesos de negocio y su implementación [3]. El modelado a través de la herramienta BPMN permite la representación de procesos en sus distintos niveles de modelación. Espichán Sánchez [1] presenta la siguiente caracterización de dichos niveles: Mapa de procesos: Son simples diagramas de flujo de las actividades; un diagrama de flujo consiste básicamente en el nombre de las actividades y tal vez las condiciones de decisión más generales. Descripción de procesos: Proporciona información más detallada del proceso; como las personas encargadas de llevarlo a cabo (roles), los datos, información y otros. Modelo de procesos: Diagrama de flujo al detalle, con suficiente información como para poder analizar el proceso y simularlo. Método de obtención de requerimientos funcionales. Los requisitos funcionales del software muestran las características que deberá tener un sistema de información; además, deben reflejar las necesidades de los usuarios que serán solucionadas por él[4]. Un requisito funcional es una descripción del producto que los desarrolladores deben poner en práctica en el software que crean para permitir que los usuarios logren sus objetivos[5, 6]. Los requisitos funcionales de acuerdo a las buenas prácticas suelen tener las siguientes características[5, 6]:  Cada uno de ellos debe estar relacionado con un objetivo comercial o un requisito del usuario en particular.  Debe usar un lenguaje simple y fácil de entender sin jerga innecesaria para evitar confusiones o malas interpretaciones.  Todos los requisitos deben ser realistas dentro de las limitaciones de tiempo y presupuesto establecidas en el documento de requisitos comerciales.  No deben estar combinados varios requisitos dentro de uno. Cuanto más precisos y granulares sean los requisitos, más fácil será gestionarlos.  Los requisitos no deben contradecirse entre sí y debe ser empleada una terminología coherente.  Deben ser verificables para poder determinar si el requisito se ha cumplido al final del proyecto.  Se deben obtener requisitos mediante entrevistas, talleres y comunicaciones informales. Por otra parte de acuerdo a [6], los requisitos funcionales de un sistema deben incluir lo siguiente:  Detalles de las operaciones realizadas en cada pantalla.  La lógica de manejo de datos que debe ingresarse en el sistema.  Debe tener descripciones de los informes del sistema u otros resultados.  Información completa sobre los flujos de trabajo realizados por el sistema.  Debe definir claramente quién podrá crear/modificar/eliminar los datos en el sistema.  La forma en que el sistema satisfará las necesidades reglamentarias y de cumplimiento aplicables debe capturarse en el documento funcional. El uso del BPMN para el análisis de requerimientos es definido por metodologías como SOMA-RUP (Serve Oriented Modeling Architecture – Rational Unified Process) [4]. En esta metodología, el modelado de negocio se realiza durante toda la ejecución del proyecto pero con un esfuerzo inicial importante en las primera fase del mismo, en la cual se debe tener en cuenta una descripción general y comprensible de la estructura del negocio, así como la operación del mismo[4]. Para la extracción de los requisitos funcionales de un diagrama BPMN es necesario detallar las actividades del proceso indicando en resumen la descripción de la actividad y teniendo en cuenta características como: si la actividad se apoya en un sistema de información, identificar las tareas humanas del proceso, los datos e información que conforman las entradas y salidas de cada actividad, el procesamiento y transformación de las mismas [4]. Las reglas de negocio deben ser documentadas y asociadas a las actividades o plasmadas usando el lenguaje BPMN como, por ejemplo: Gateways, Pool, Lane. Estas reglas constituyen restricciones y comportamientos en las actividades que deben ser tomados en cuenta[4]. El levantamiento de requerimientos generalmente se realiza usando una metodología o varias técnicas [7]. Entre las técnicas que se aplican para el levantamiento de requisitos están las entrevistas, las sesiones colaborativas, la etnografía u observación, el modelado de procesos a través de sus diversas formas y los prototipos [7]. Para el curso del presente trabajo se aplicará la metodología expuesta por Jaime and Jiménez [3], que, aunque sea de un año que no clasifica como actualidad, reúne un conjunto de buenas prácticas muy valiosas para alcanzar resultados. A continuación, en la Figura 1 se aprecia el contenido de la metodología seleccionada: Figura 1: Metodología de extracción de requisitos funcionales. Fuente: [3] Aplicación del Benchmarking a los softwares informáticos especializados en la gestión de eventos en hotelería La esencia del benchmarking es el proceso de identificar las mejores prácticas para productos, servicios o procesos a través de la comparación entre las organizaciones reconocidas como mejores en determinada área, y luego hacer las mejoras necesarias para alcanzar e implementar esos estándares de excelencia[8-10]. Para la aplicación del benchmarking competitivo identificado de los autores [8, 10, 11], se utilizaron las plataformas GetApp y Capterra, las cuales proporcionan una base de datos de softwares informáticos de diversos sectores, plataformas que contienen registros muy similares en cuanto a los softwares informáticos existentes, pero abordan de manera diferente las funcionalidades que poseen cada sistema, diferencias de utilidad para las comparaciones realizadas. Además de esta técnica se realizó la observación directa del sitio web de cada una de estas plataformas de gestión seleccionados de acuerdo al objeto de estudio del presente informe y de la Plataforma Odoo. Este estudio generó un conglomerado de requisitos funcionales, cada uno de ellos obtenidos a través de un proceso exhaustivo e iterativo donde a medida que se estaba investigando un software y se evidenciaban requisitos que anteriormente no habían sido identificados se procedía nuevamente a la evaluación en los otros softwares teniendo en cuenta estos nuevos requisitos. A continuación, se presentan una síntesis del nivel de cumplimiento en por ciento de cada software de gestión objeto de la investigación como técnica ágil de comparación entre ellos: Figura 2: Puntos alcanzados en la evaluación de tecnologías. Fuente: Elaboración propia. Figura 3: Nivel de cumplimiento de funcionalidades de las tecnologías. Fuente: Elaboración propia. Los resultados de la aplicación de esta técnica demostraron que en términos de la gestión de eventos en hoteles el software ERP Odoo es la mejor alternativa en cuanto al conglomerado de funcionalidades que permiten adaptar su software a las necesidades de la organización. 56% 83% 79% 94% 0% 20% 40% 60% 80% 100% Cvent Event Booking Engines Planning Pod Odoo Porciento Te cn o lo gí as Nivel de cumplimiento de funcionalidades Experiencia de usuario de Odoo de los autores: Luego de la observación sobre la correcta elaboración de requisitos funcionales se analizó el Módulo CRM primeramente entre los 11 módulos estudiados pues este es el sistema integrado que engloba al conjunto de prácticas, estrategias y tecnologías enfocadas en la relación con el cliente, propósito fundamental en la gestión de eventos en hotelería. Los resultados del estudio se muestran sintetizados en la siguiente tabla de acorde a la identificación de los autores como requerimientos identificados fundamentales para el proceso de gestión actual y la identificación de no fundamentales que por los beneficios percibidos se proponen para implementación, todo esto de los 9 módulos considerados imprescindibles para la realización de dicha evaluación, excluyendo los Módulos Sitio web y Charla en Vivo por ser parte de un proceso en desarrollo del Hotel Nacional de Cuba : Tabla 1: Valoración de Requerimientos Funcionales extraídos del Odoo. Módulos Número de requerimientos Número de clasificados como fundamentales para el proceso de gestión actual Numero de clasificados como no fundamentales para el proceso propuestos para implementación CRM 18 6 11 Eventos 28 5 18 Ventas 8 6 1 Inventario 10 4 2 Facturación/Contabilidad 17 1 11 Documentos 11 6 5 Calendario 5 2 3 Conversaciones 5 0 5 Contactos 2 0 2 Total 104 30 58 Experiencia de otros usuarios de Odoo: Para este apartado se estarán analizando los resultados de la tesis de la autora [12], sobre la experiencia de usuario de la empresa objeto a implementar este ERP y los principales resultados obtenidos, pero primeramente se definirán que es la experiencia de usuario, cuáles son sus elementos claves y como está concebida la experiencia de usuario con la plataforma Odoo. La experiencia de usuario, también llamada “user experience” o simplemente UX, se define como el conjunto de factores y elementos relacionados con el proceso de interacción de un usuario respecto a un producto o servicio, en resumen es lo que siente una persona cuando interactúa con un sistema. A menudo, este concepto se aplica a la interacción con páginas web y aplicaciones[13]. Entre los elementos claves de la experiencia de usuario según [13], se encuentran: usabilidad, diseño, accesibilidad y la satisfacción del cliente. Por otra parte Odoo ofrece diversas ventajas en su experiencia de usuario que lo posicionan como un ERP de primera, como lo son las siguientes según [14]:  Los precios por usuarios en Odoo son muy accesibles, no es tan elevado el precio del acceso si se compara con otras soluciones; como por ejemplo SAP u Oracle, que ofrecen soluciones diversas pero todas ellas a un precio mucho más elevado por cada usuario.  Permite crear módulos adicionales o editar los módulos existentes a través de su lenguaje de programación, que es Python.  La creación de nuevas aplicaciones está basada en una construcción por bloques o de drop and drag, que ayudará a la construcción de nuevos procesos y a personalizarlos.  Tiene una gran comunidad detrás, por lo que permitirá siempre estar conectados con ella.  Tiene dos versiones, la versión SaaS (Enterprise) y la versión On Demand (Community). La primera trabaja a través de la nube y la segunda trabaja en una implementación local.  Tiene un programa de educación a través de la cual podemos hacer cursos para ir aprendiendo a utilizar los diversos módulos.  Posee una interfaz amigable y muy sencilla de manejar lo que permite el aprendizaje ágil del funcionamiento del ERP.  La forma en que se puede interactuar con Odoo es prácticamente idéntica sin importar qué módulo se esté empleando. Los estudios muestran que las empresas cuya experiencia del cliente en línea es impecable tienen un 68% de posibilidades de mejora en cuanto a su reputación en línea en un período no superior a cinco años. Una prueba de esto son los más de 5 millones de usuarios que prefieren utilizar Odoo más que cualquier otro software que evidencia que como plataforma tiene los elementos claves para proporcionar una eficiente experiencia de usuario[14]. Adentrándonos en la UX reflejada en la tesis de implementación del Odoo de la empresa Prestige Hotel Eirl es válido aclarar que se realizó haciendo uso de la metodología IPEE(Inicio-Planificación-Ejecución- Evaluación) mediante la cual se obtuvieron resultados fundamentales como la configuración de solo los módulos relacionados a los requerimientos detectados en la empresa como Gestión hotelera, Chat en Vivo, Sitio Web, Gestión de Compras, Directorio de Empleados, Inventario, CRM, Contabilidad y Gestión de Usuarios y que luego de la implementación del sistema ERP Odoo se produjo una mejora favorable en cuanto a la reducción de tiempos en un 57.25 % en los diferentes procesos que se realizan en cada área de la empresa. Además se puede concluir que actualmente existen empresas en el sector hotelero que no implementan un sistema de información por los altos costos o experiencias de fracaso y, asimismo, las soluciones ERP no son muy conocidas es por ello que por casos de estudios de experiencias usuarios como esta empresa se recomienda implementar el sistema ERP Odoo por ser de bajo costo y sobre todo por el ahorro de tiempo que genera en cada uno de sus procesos de acuerdo a las funcionalidades de sus módulos, además de presentar una interfaz amigable al usuario que no exige de una alta capacitación del personal. Caracterización del Proceso de Negocio de la Gestión de Eventos Especiales Implementando la Metodología para la extracción de requerimientos dada por [3], en sus dos primeras etapas, se logró la obtención de la información necesaria para determinar el proceso de Eventos Especiales. Las fuentes de información consultadas fueron las especialistas comerciales aplicadas a los eventos del Departamento Comercial, el director Comercial, la ficha del proceso, los documentos utilizados en el mismo, las especialistas del Departamento de Economía y de Recepción, y la directora del Proyecto de Transformación Digital del HNC. Cumplimentando con la etapa tres de la Metodología de referencia, se ofrece el siguiente diagrama BPMN, que muestra la arquitectura del proceso de negocio de Eventos Especiales: Figura 4: Arquitectura de proceso de la Gestión de Eventos Especiales. Fuente: Elaboración propia. El registro de actividades del proceso permitió la tabulación de los tipos de tareas clasificadas en Manual, Automatizada, Envío, Recepción y de Usuario, lo cual se muestra sintetizado en la siguiente figura: Figura 5: Nivel de automatización de las actividades del proceso. Fuente: Elaboración propia. Como puede apreciarse, el nivel de automatización en el proceso es bajo, donde predominan las actividades de usuario y manuales. Es importante notar la cifra de actividades de envío, evidenciando el alto nivel de interacción del proceso con roles externos. Nivel de estructuración de las entidades de información: 4 4 0 0 0 0 6 9 4 1 1 4 1 3 9 5 6 9 9 8 6 4 4 6 0 0 3 0 2 2 0 1 2 3 4 5 6 7 8 9 10 Atención a Solicitudes Definición de detalles Realización del Pago Ejecución del Evento Facturación Cuentas por Cobrar Nivel de automatización del proceso Automatizada Usuario Manual Envío Recepción A continuación, se presenta una tabla que resume el nivel de estructuración o no de cada entidad de información involucrada en la gestión de eventos, así como que áreas necesitan de su empleo durante toda una instancia de este proceso y si existe relación entre entidades de información declarar cuales son las relacionadas entre sí. Tabla 2: Estructuración de las Entidades de Información. Entidades de información Nivel de estructuración Relación con otras Entidades de Información Relación con Áreas de la empresa Pre Factura Estructurada Orden de Servicio Contrato Comercial, Recepción Factura Estructurada - Economía, Riesgo Orden de Servicio Estructurada Contrato Todas las áreas relacionadas Solicitud de Servicio No estructurada - Comercial Fichero Excel No estructurado - Comercial Agenda Personal No estructurado Fichero Excel Comercial Encuesta de satisfacción Estructurada - Comercial, Calidad Recibo de Cobro Estructurado - Recepción, Riesgo Comprobante de Pago Estructurado - Recepción Control de Facturación Estructurado - Economía, Comercial Proforma de Contrato Estructurada - Comercial Contrato Estructurado - Comercial De las 12 entidades de información se muestran en la siguiente figura la ponderación de estructuradas y no estructuradas: Figura 6: Nivel de estructuración de las entidades de Información. Fuente: Elaboración propia. La solicitud de servicio es una entidad elemental para el inicio del proceso, por eso que no tenga una estructura predefinida genera disímiles registros de diferentes solicitudes. Como posible alternativa a poseer 9 3 0 2 4 6 8 10 Nivel de estructuración de las Entidades de Información Estructurada No Estructurada una solicitud de servicio estructurada que logre incrementar la agilidad de esta actividad y permita tener un registro similar que permita analizarlas se proponen los siguientes campos:  Nombre del cliente y datos personales  Tipo de Evento  Fecha o período del evento  Cantidad de participantes (número de pax)  Organización o Cliente Natural (tipo de cliente)  Salón solicitado  Horario del evento  Servicios asociados al contrato (menús y otros servicios) Para el caso del Fichero Excel y de la Agenda Personal se recomienda adoptar las funcionalidades que aporta el módulo de Calendario de la plataforma Odoo, que permite sincronizar las actividades agendadas con los calendarios de Google y Microsoft. Cumplimentado la etapa cinco de la Metodología de referencia, se adoptaron las actividades de tipo Usuario como pre requisitos, y se valoró la pertinencia de las actividades Manuales y de Servicio también como requerimientos. Además, se sumó el análisis integral del proceso y las experiencias de las especialistas para la obtención y profundidad de los requerimientos. A continuación, se listan los Requisitos Funcionales para la implementación y modificación del Odoo en base al proceso de negocio de la Gestión de Eventos Especiales: RF1 – Permitirá la creación o registro, modificación y eliminación de clientes a través de sus datos personales. RF2 – Permitirá la recepción de nuevas Solicitudes de Servicio en forma de formulario a rellenar campos de información por el cliente. RF3 – Permitirá que el usuario (Departamento Comercial) acepte o rechace las Solicitudes antes de pasar a la “negociación”. RF4 – Notificará al correo del cliente el rechazo o aceptación de su Solicitud. RF5 – Mostrará al cliente (o usuario) el calendario de disponibilidad de fechas y su selección. RF6 – Mostrará al cliente (o usuario) la relación de salones disponibles a través de imágenes de los mismos. RF7 – Mostrará la disponibilidad de salones según cantidad de pax, fecha, hora, tipo de evento y su selección. RF8 – Permitirá al cliente (o usuario) modificar la Solicitud de Servicio hasta un día antes del evento. RF9 – Notificará al correo del gestor comercial el arribo de una nueva Solicitud de Servicio o alguna modificación o cancelación de la misma. RF10 – Permitirá al cliente cancelar la Solicitud de Servicio. RF11 – Notificará al cliente que necesita de un Contrato en caso que no tenga ninguno asociado. RF12 – No permitirá la aceptación de las Solicitudes hasta que no haya sido ingresado un número de Contrato válido. RF13 – Permitirá al usuario la visualización de las Solicitudes de Servicio (sus datos) y de los datos del cliente. RF14 – Actualizará automáticamente las fechas ocupadas del calendario de eventos al ser aceptada la Solicitud. RF15 – Permitirá crea una base de datos del evento donde se almacenarán y relacionarán todos los datos del cliente y todos los documentos asociados a los servicios del mismo. RF16 – Permitirá adjuntar fotocopia (archivo) del Contrato correspondiente a la Solicitud y al cliente. RF17 – Permitirá al usuario visualizar el calendario de eventos y agenda personal de actividades. RF18 – Permitirá seleccionar fecha para citar presencial al cliente. RF19 – Notificará al cliente de la fecha de la cita. RF20 – Alertará al usuario de las citas programadas próximas. RF21 – Permitirá reprogramar la cita en caso de respuesta negativa del cliente. RF22 – Permitirá a Economía introducir el número de Control de Facturación abierto en ZUN pms. RF23 – Permitirá determinar el CL a aplicar, en caso de ser necesario. RF24 – Permitirá al cliente (o usuario) el envío de las especificaciones del evento mediante el llenado de campos. RF25 – Vinculará los datos del formulario de especificaciones con la Solicitud, para así completarla. RF26 – Permitirá la elaboración de la Orden de Servicio. RF27 – Permitirá la modificación de la Orden de Servicio por los gestores comerciales. RF28 – Permitirá el envío a todas las áreas del Hotel de la Orden de Servicio. RF29 – Permitirá la visualización de la Orden de Servicio por las áreas de forma parcial o total. RF30 – Notificará al cliente las imposibilidades de cumplir especificaciones. RF31 – Permitirá definir tipo de pago y el plazo del mismo. RF32 – Permitirá la generación automática de la prefactura. (con el número de Control) RF33 – Permitirá el envío e impresión de la prefactura al cliente. RF34 – Permitirá almacenar y relacionar la prefactura con Solicitud de Servicio, Orden de Servicio y Contrato. RF35 – Permitirá actualizar la prefactura automáticamente con la modificación de la Orden de Servicio. RF36 – Permitirá el almacenaje de la Orden de Servicio en la Base de Datos relacionada a Solicitud, Contrato y Prefactura. RF37 – Permitirá agendar fecha de pago fijada en prefactura. RF38 – Permitirá darle el estado al cliente de “solicitante”, “ganado”, “pagado” y “evento realizado”. RF39 – Notificará al usuario la proximidad de fecha de pago por cliente. RF40 – Permitirá adjuntar la encuesta a cada cliente. RF41 – Permitirá visualizar cargos de servicio montados al Control. RF42 – Permitirá relacionar el Control a los cargos, y demás entidades de información. RF43 – Permitirá cerrar la Orden de Servicio una vez finalizado el evento. RF44 – Enviará automáticamente la Orden de Servicio cerrada a Economía. RF45 – Permitirá visualizar el Control con los cargos montados. RF46 – Permitirá cerrar Factura. RF47 – Permitirá generar automáticamente la Factura. RF48 – Permitirá imprimir Factura. RF49 – Permitirá adjuntar Factura y archivarla junto con las demás entidades de información. RF50 – Permitirá enviar Factura a Comercial y Cuentas por Cobrar. RF51 – Permitirá enviar la Factura al cliente. RF52 – Permitirá agendar fecha y plazos de pago, así como modificarlos. RF53 – Permitirá modificar datos de la Factura. RF54 – Permitirá generar recibos de cobro. RF55 – Permitirá relacionar los Recibos con las demás entidades de información. RF56 – Permitirá enviar Recibo de Cobro al cliente, Comercial y Economía. RF57 – Permitirá elaborar Recibo de Cheque y adjuntar cheque al mismo. 4. CONCLUSIONES: A continuación, se presenta una síntesis de los principales resultados obtenidos en la investigación en cumplimiento de cada uno de los objetivos específicos que responden al objetivo general: 1. De los métodos de obtención de requerimientos funcionales se empleó la metodología que sigue la siguiente secuencia de etapas: elaborar modelo conceptual de datos-obtener especificaciones funcionales-modelar los procesos-simularlos-seleccionar actividades como prerrequisitos- consultarlos con los clientes y finalmente obtener documento de requerimientos finales. 2. De la conceptualización del término “Benchmarking” se delimitaron que existen 5 tipos fundamentalmente: estratégico, interno, funcional, comparativo genérico y competitivo, este último fue el empleado en concordancia con las características del estudio realizado. Al aplicar el benchmarking a cuatro softwares informáticos de gestión de eventos en hotelería seleccionados de las plataformas de GetApp y Capterra se obtuvo que el de menor aporte en cuanto a la existencia de funcionalidades fue el software Cvent con 37, y, por otra parte, el ERP Odoo demostró ser el más competitivo entre los estudiados con un total de 62 funcionalidades propuestas en función de lograr la gestión de eventos en un hotel. 3. De los 11 módulos estudiados en el Odoo se levantaron un total de 130 requerimientos funcionales de los cuales para la valoración de fundamental y no fundamental se tuvieron solo en cuenta los 104 requerimientos de los 9 módulos evaluados donde solo son fundamentales para el proceso de gestión de eventos en el HNC 30 requisitos y de los no fundamentales se proponen 58 para la implementación por los beneficios percibidos que aportarían al rendimiento y eficiencia del proceso de gestión de eventos. 4. Se modeló, a través de la herramienta BPMN, la arquitectura del proceso de la gestión de evento, así como los subprocesos a detalle. Este modelado permitió determinar que a partir de los tipos de actividades identificadas el proceso presenta un nivel bajo de automatización en sus actividades. 5. Se listaron los 57 Requisitos Funcionales que demanda el proceso para su implementación en el ERP Odoo. 6. El nivel de estructuración de las entidades se corresponde con un 75% del total de 12 entidades. Se proponen para la solicitud de servicio el establecimiento de los campos: Nombre del cliente y datos personales, Tipo de Evento, Fecha o período del evento, Cantidad de participantes (número de pax), Organización o Cliente Natural (tipo de cliente), Salón solicitado, Horario del evento, Servicios asociados al contrato (menús y otros servicios). Para el Fichero Excel y la Agenda Personal se propone el empleo de las funcionalidades que aporta el módulo Calendario del ERP Odoo. A su vez se evidencia en los subprocesos modelados la relación del Contrato con la Prefactura y la Orden de Servicio, así como la relación de todas las entidades con el Departamento Comercial exceptuando la Factura, el Recibo de cobro y el Comprobante de pago. RECONOMIENTOS: Los autores desean agradecer a los principales impulsores y tutores de este trabajo, los ingenieros Dayron Reyes Domínguez, Gladys Ash Hernández y Sajay Souchay Alzugaray, por su total entrega para sacar nuestro óptimo esfuerzo para la elaboración de una investigación que reporte los beneficios esperados para el proceso de digitalización del hotel. Todos estos agradecimientos sin dejar a un lado al personal del Departamento de Gestión de Eventos Especiales, Economía, Riesgo y Recepción, que hicieron posible con su total entrega y dedicación el diagnóstico detallado de todos los subprocesos que determinan la capacidad de gestión de eventos del Hotel Nacional de Cuba. REFERENCIAS: 1. Espichán Sánchez, F.E., Uso del BPM para la mejora del proceso de atención de incidencias en el sistema electrónico de las contrataciones del Estado (SEACE). 2018. 2. Gaytan Toledo, C.A., Modelo de automatización de procesos de negocio basado en BPM y ECM, aplicado al proceso de titulación profesional en la Facultad de Ingeniería de la Universidad Privada Antenor Orrego, año 2020. 2021. 3. Jaime, J.J. and S.G.P. Jiménez PROCEDIMIENTO PARA LA OBTENCIÓN DE REQUERIMIENTOS FUNCIONALES A PARTIR DEL ANÁLISIS DE PROCESOS DE NEGOCIO. 2009. 4. Garcia, J.C.M. and M.E.T. Moreno, Análisis de requerimientos usando BPMN. Revista Colombiana De Computacion, 2010. 5. Nuclino, A Guide to Functional Requirements (with Examples) Learn how to define requirements and keep all stakeholders aligned, in Nuclino. 2022. 6. Martin, M., What is a Functional Requirement in Software Engineering? Specification, Types, Examples, in Guru99. 2022. 7. Moreno, M.E.T. and N.A. Mejía, Técnicas de Levantamiento de Requerimientos con Innovación. 2009. 8. Bhutta, K.S. and F. Huq, Benchmarking–best practices: an integrated approach. Benchmarking: An International Journal, 1999. 9. ESPINOZA, M.A. and D.d.P. GALLEGOS, Benchmarking, cómo y de dónde. Una revisión sistemática de la literatura. Revista Espacios, 2019. 40(37). 10. Narváez Flores, L.A., Benchmarking de sistemas ERP (Planificación de Recursos Empresariales) Open Source aplicado a la empresa pública Yachay. 2019. 11. Hoyos-Estrada, S., Marketing, Gestión de la Calidad Total y Benchmarking: una revisión de la literatura. Revista científica anfibios, 2021. 4(2): p. 64-71. 12. ASENCIO, Y.Z.G., EFECTO DE LA IMPLEMENTACIÓN DEL SISTEMA DE RECURSOS EMPRESARIALES ODOO EN LA GESTIÓN HOTELERA EN LA EMPRESA PRESTIGE HOTEL EIRL, in FACULTAD DE INGENIERÍA. 2019, UNIVERSIDAD NACIONAL DE CAJAMARCA. p. 200. 13. Gonzalez, S., ¿Qué es la experiencia de usuario?, in Cyberclick. 2020. 14. Gudiño, B., La experiencia de usuarios con Odoo, in InBest. 2021: ERP Odoo. Sobre los autores: Dayron Reyes Domínguez: Profesor Investigador del departamento de Informática Empresarial. Director de Informatización de la facultad de ingeniaría Indutrial. 1Yilian Carmenate Acosta: estudiante de Tercer Año de Ingeniería Industrial en la institución Cujae. Integrante del proyecto de investigación del Departamento de Informática Empresarial. 2Marcel Prada Pérez: estudiante de Tercer Año de Ingeniería Industrial en la institución Cujae. Integrante del proyecto de investigación del Departamento de Informática Empresarial. Galardonado con el Premio Relevante en el Festival de la Clase a nivel de Facultad y Universidad. Miembro del Comité Organizador del CLEIN Cuba 2022, desempeñando sus funciones dentro de la Dirección de Marketing. Programa General MEDIO AMBIENTE CONSTRUIDO Y DESARROLLO SUSTENTABLE MACDES 2022 1Programa General MEDIO AMBIENTE CONSTRUIDO Y DESARROLLO SUSTENTABLE Día Horario 28-11 29-11 30-12 1-12 2-12 9.00 – 16.00 ACREDITACIÓN 9.00 CONFERENCIA MAGISTRAL 1 CONFERENCIA MAGISTRAL 2 CONFERENCIA MAGISTRAL 3 CONFERENCIA MAGISTRAL 4 9.45 RECESO 10.00 COMISIÓN 1 Ordenamiento territorial y hábitat rural COMISIÓN 2 Ciudades sustentables COMISIÓN 6 Energías renovables y otras ecotécnicas COMISIÓN 7 Gestión para la sustentabilidad COMISIÓN 9 Capacitación para la sustentabilidad COMISIÓN 3 Arquitectura sustentable COMISIÓN 8 Enfoques teóricos y metodológicos para la sustentabilidad COMISIÓN 4 Conservación del patrimonio COMISIÓN 5 Materiales y tecnologías de construcción MESA REDONDA. Desarrollo sustentable en Cuba CLAUSURA MACDES 14.00 ACTO INAUGURAL 19 CCIA ALMUERZO ALMUERZO DE DESPEDIDA BRINDIS DE BIENVENIDA CONFERENCIAS MAGISTRALES. Día 29 - 11.- Conferencia Magistral 1: EVERYDAY LIFE IN THE GLOBAL METROPOLISES. Styliane Philippou (Francia) Día 30 - 11.- Conferencia Magistral 2: REGULATORY ASSESSMENT OF OVERHEATING AND ENERGY PERFORMANCE OF BUILDINGS IN A CONTEXT OF CLIMATE CHANGE Arlond Janssens. Bélgica Día 1 - 12.- Conferencia Magistral 3: ARQUITECTURA VERSUS ARQUITECTURA. UNA PROPUESTA SOSTENIBLE ACERCA DE LA SALVAGUARDIA DEL PATRIMONIO ARQUITECTÓNICO. Luis Palmero Iglesias. España Día 2 - 12.- Conferencia Magistral 3: MÁS ALLÁ DE LO RECONOCIDO. María Victoria Zardoya Loureda MESA REDONDA. Día 2- 12.- Mesa redonda: Medio ambiente construido y desarrollo sustentable. Experiencias Cubanas. - Escenario legislativo para el ordenamiento territorial y urbano. Anelis Marichal González (INOTU) - Resiliencia urbana ante desastres. Rosendo Mesías Mesa y Liliana Pino (PNUD) - La escuela cubana para la gestión del desarrollo integral de la ciudad patrimonial. Patricia Rodríguez Aloma. (Plan Maestro, OHCH). - Experiencias del Movimiento de Aimentación Sostenible de Cubasolar. Madelaaine Vázquez Gálvez (Cubasolar) - El reciclaje: Una opción circular para el medio ambiente construido. Ileana Pereda Reyes (Ministerio de Industrias) - Resultados y perspectivas de Movimiento de Usuarios del Biogás y otras fuentes renovables de energía (MUB) en el segundo período. José Antonio Guardado Chacón, Yasser Miguel Dáz Capdesuñer y Josmel Ruiz Ponce de León (Cubasolar) - Necesidades energéticas, su acumulación y la electricidad en el ambiente construido. Luis Berriz Pérez. Cubasolar PROGRAMA TÉCNICO Día: MARTES 29 de noviembre Sesión: MAÑANA Presidente Sesión: Anelis Marichal González Sala: 3 Actividad: Jorge Peña Díaz Comisión 01: Ordenamiento territorial y hábitat rural Comisión 02_ Ciudades sustentables Comisión 06: Energías renovables y otras ecotécnicas Comisión 07: Gestión para la sustentabilidad Comisión 09: Capacitación para la sustentabilidad Horario Código Actividad 9.00 CONFERENCIA MAGISTRAL EVERYDAY LIFE IN THE GLOBAL METROPOLISES. Styliane Philippou. (Francia) 9.45 RECESO 10.00 M_01014 PROCESO DE SELECCIÓN DEL HÁBITAT DE DESTINO PARA LA RELOCALIZACIÓN DE COMUNIDADES COSTERAS POR EFECTOS DEL CAMBIO CLIMÁTICO. Brian Robinson Borges Alfonso. Cuba. 10.05 M_01049 APUNTES HISTÓRICOS SOBRE LA VIVIENDA SOCIAL EN ASENTAMIENTOS RURALES DE MONTAÑA. Pedro Tex Martínez Cuevas. Cuba 10.10 M_01012 ESTUDIO DE ASOLEAMIENTO Y RADIACIÒN SOLAR EN DIFERENTES ZONAS GEOGRÁFICAS DEL VALLE DE ABURRÁ. Juan Camilo Villegas-Echavarria, David Alejandro Orozco-Gallo, Leidy Milena Marín-Bedoya, Daniel López-Álvarez, Ader Augusto Garía-Cardona, Elisabeth Herreño-Tellez, Yury Andrea Hernandez-Duque y John Arango-Flórez. Colombia 10.20 M_01051 ZONAS DE SIMILITUD Y DIFERENCIA TÉRMICA EN EL ÁREA URBANA DEL VALLE DE ABURRÁ, COLOMBIA. Jorge Hernán Salazar, John Arango-Flores. Colombia 10.30 M_02062 CONDICIONES GEOCLIMÁTICAS Y SOCIODEMOGRÁFICAS DE LOS ESPACIOS DOMÉSTICOS URBANOS EN EL CLIMA TROPICAL ANDINO, CASO DE ESTUDIO VALLE DE ABURRÁ. Ader Augusto Garía-Cardona, Elisabeth Herreño-Tellez, Yury Andrea Hernández-Duque y John Arango-Flórez. Colombia 10.40 M_02063 INCIDENCIA DE LAS CONDICIONES MATERIALES Y MORFOLÓGICAS DE LA ESTRUCTURA URBANA Y EL ESPACIO VIAL DE LAS LADERAS DEL VALLE DE ABURRÁ EN EL COMPORTAMIENTO HUMANO. Juan Carlos Muñetón-Pérez, Carlos Mauro Sepúlveda-Morales, Manuela Perez-Quintero, Bryan Camilo Jurado-Santander, Alejandro Higuita-Rodríguez, Susana Cerón-Gómez, Ader Augusto Garía-Cardona, Elisabeth Herreño-Tellez, Yury Andrea Hernández-Duque y John Arango-Flórez . Colombia 10.50 M_02064 COMPARACIÓN SIMULTÁNEA DE CONDICIONES TÉRMICAS, DE ZONAS URBANAS EN LADERAS DE MEDELLÍN COLOMBIA. Susana Cerón-Gómez, Brian Fernández-Aguirre, María Camila Gómez-Castaño, Alejandro Higuita-Rodríaguez, Daniel López-Álvarez, Juan Carlos Muñetón-Pérez, Carlos Mauro Sepúlveda-Morales, Cristian Giovanni Tobón-Porras, 2Santiago Vélez-Restrepo, Bryan Camilo Jurado-Santander, Ader Augusto Garía-Cardona, Elisabeth Herreño-Tellez , Yury Andrea Hernández-Duque y John Arango-Flórez. Colombia 11.00 M_02042 EL IMPACTO DE LA ARBORIZACIÓN URBANA COMO ESTRATEGIA DE MITIGACIÓN DE LA ISLA DE CALOR EN EL CARIBE COLOMBIANO. Sara Cristina Zuluaga Gómez. Felipe Londoño Arango, Maria Camila Restrepo, , Elizabeth Parra Correa, Lucas Arango Díaz, Jorge Hernán Salazar. Colombia 11.10 M_02029 EVALUACIÓN DE CENTRALIDADES Y EL DESARROLLO TERRITORIAL SUSTENTABLE DE LA CIUDAD DE MEXICALI. Veronica Aguilar-Quintanar, Arleen Morales. México 11.20 M_02009 URBAN HEAT DISTRIBUTION NETWORKS COMPARISON USING A GIS-BASED DISTRICT HEATING DESIGN TOOL. Julio Efrain Vaillant Rebollar, Tom Prinzie, Caroline Van Marcke and Arnold Janssens. Bélgica 11.30 M_06084 NOVEL DEHUMIDIFICATION SYSTEM WITH CONTROLLED LATENT COOLING LOAD FOR HOT AND HUMID CLIMATES. Hugo Monteyne, Arnold Janssen, Michel De Paepe, Eline Himpe. Bélgica 11.40 M_06030 EL APROVECHAMIENTO DE LA BIOMASA COMO ENERGÍA PARA LAS UNIVERSIDADES. CASO DE ESTUDIO UNIVERSIDAD SAN BUENAVENTURA, MEDELLÍN. Andrés Felipe Restrepo Aristizabal, Ana María Zapata Martínez, Elizabeth Parra Correa. Colombia 11.50 M_06058 DISENO DE UN SISTEMA EOLICO PARA SUMINISTRAR ELECTRICIDAD AL HOTEL COVARRUBIAS, PROVINCIA LAS TUNAS. Conrado Moreno Figueredo. José A. Medrano Hernández, Rafael Rodríguez Tarifa. Cuba 12.00 M_07033 GESTIÓN EFICIENTE DE LOS SERVICIOS ECOSISTÉMICOS DEL TERRITORIO A LA ACTIVIDAD URBANA. UNA VISIÓN METODOLÓGICA PARA LA GOBERNANZA DEL CAPITAL NATURAL. Josep Lluís Miralles-Garcia, Eric Gielen, Sergio Palencia Jiménez. España 12.10 M_07045 HACIA UN MANEJO ENERGÉTICO DESCENTRALIZADO CON PARTICIPACIÓN POPULAR. Yanamari Bancroft Pérez, Rubén A. Bancrofft Hernández. Cuba 12.20-13.00 DEBATE Día: MIÉRCOLES 30 de noviembre Sesión: MAÑANA Presidente Sesión: Luis Alberto Rueda Sala: 3 Actividad: Dayra Gelabert Comisión 03: Arquitectura sustentable Comisión 08: Enfoques teóricos y metodológicos Horario Código Actividad 9.00 CONFERENCIA MAGISTRAL REGULATORY ASSESSMENT OF OVERHEATING AND ENERGY PERFORMANCE OF BUILDINGS IN A CONTEXT OF CLIMATE CHANGE. Arnold Janssens. Bélgica. 9.45 RECESO 10.00 M_03073 IMPACTO DEL CONTEXTO URBANO Y LA ORIENTACIÓN EN LA PROTECCIÓN SOLAR Y LA DEMANDA DE ENERGÍA. Guillermo Antonio De la Paz Pérez, Dania González Couret. Cuba 10.10 M_03069 CENTRO COMUNITARIO CUEZCOMATE: EJEMPLO DE ARQUITECTURA SUSTENTABLE. Aleyda Reséndiz Vázquez. México 10.20 M_03070 EL MONITOREO COMO VÍA DE EVALUACIÓN DE LA SUSTENTABILIDAD ARQUITECTÓNICA. EL HOTEL MOKA. Yerandy Morales, Natali Collado, Luis A, Rueda, Dania González. Cuba 10.30 M_03068 ESTRATEGIAS BIOAMBIENTALES EN VIVIENDAS INDUSTRIALIZADAS EN LA PROVINCIA DE BUENOS AIRES, ARGENTINA. Ángela Du. Argentina. 10.40 M_03083 AUTOSUSTENTABILIDAD ENERGÉTICA EN VIVIENDAS URBANAS. Julio C. Sosa, Roberto S. Velázquez y Rubén Hernández Tovar. México 10.45 M_03041 DESEMPEÑO TÉRMICO EN LA VIVIENDA DE INTERÉS SOCIAL Y SU VARIACIÓN DE ACUERDO CON EL CAMBIO CLIMÁTICO. Manuela Murillo Galvis, Juan Sebastián Calle Medina, Santiago Jaramillo Betancourt, María Alejandra Garavito Posada, Adriana Marcela Murcia Carmona. Colombia 10.55 M_03040 ANÁLISIS DEL DESEMPEÑO TÉRMICO DE LA TIPOLOGÍA DE VIVIENDA DE INTERÉS SOCIAL UBICADA EN DIFERENTES NIVELES EN ESCENARIOS DE CAMBIO CLIMÁTICO. Manuela Murillo Galvis, Juan Sebastián Calle Medina, Santiago Jaramillo Betancourt, María Alejandra Garavito Posada, Elizabeth Parra Correa. Colombia 11.05 M_03019 ANÁLISIS DE LAS CONDICIONES DE VENTILACIÓN NATURAL EN LA CONFIGURACIÓN TÍPICA DE VIVIENDA SOCIAL EN SERIE EN MEDELLÍN, COLOMBIA. Carolina Patiño Vásquez, María Isabel Muñoz Rengifoz, Jorge Hernán Salazar Trujillo. Colombia 11.15 M_03006 ANÁLISIS DE LA DISTRIBUCIÓN INTERIOR DE VIVIENDAS SEGÚN LA VENTILACIÓN NATURAL. Mariana Agudelo Ossa, Ana María Correa Galvis, Jorge Hernán Salazar Trujillo. Colombia 11.25 M_03011 VALORACIÓN DE LA VENTILACIÓN NATURAL EN RECINTOS INTEGRANDO TASAS DE RENOVACIÓN Y VELOCIDADES EN EL INTERIOR. María Alejandra Orozco Sosa, Maria Jimena Orozco Mesa, Jorge Hernán Salazar Trujillo. Colombia 11.35 M_03034 EVALUATION OF VENTILATION PERFORMANCE AND COMPLIANCE WITH BELGIAN COVID-19 GUIDELINES IN SPORT INFRASTRUCTURE CASES. Janssens A, Laverge J, Wouters P, Spruyt M, Stranger M, Mampaey M, Verlaek M. Bélgica 11.45 M_03025 GENERACIÓN DE MICROCLIMAS EN UN AULA DEBIDO AL EQUIPO DE AIRE ACONDICIONADO. Steve Sttivend Carrascal, Laura Camila Gomez, Jose Manuel Henao Duque, Elizabeth Parra Correa. Colombia 11.55 M_03076 LA EFICIENCIA LUMÍNICA AL INTERIOR DE UNA HABITACIÓN EN DOS ZONAS DE MEDELLÍN. Miguel Ángel Posada Velandia, Hanna Muñoz López, Santiago Hernández López, Miguel Vargas Ortiz, Colombia 12.05 M_03021 INFLUENCIA DE LA LUZ NATURAL EN EL CICLO CIRCADIANO DADO UN CAMBIO DE ORIENTACIÓN DE LA VIVIENDA. Alejandra Jiménez Gómez, Yurany Andrea Gómez Jiménez, Alejandro Naranjo Ortiz, Leonardo Fabio González Tami, Jorge Hernán Salazar Trujillo. Colombia 12.15 M_08036 TEMPORARY ROOM UNIT FOR EVACUEES (SANTA FE, 1980). Guillermo Javier Marzioni, María Lujan Llorensi. Argemtina 12.25 M_08079 UK-CUBA CASE STUDY IN INTERNATIONAL COLLABORATION ON SUSTAINABLE CITIES. Julio Dávila, Emily Morris, Jorge Peña, James Warren. UK. Cuba 12.35 M_08013 GUIDELINES FORENERGY AND SOCIAL IMPROVEMENT OF A SUBURBAN AREA THROUGHMODERNISATION OF SCHOOL CONSTRUCTION. Daniela Ladiana, Giovanni Santi, Michele Di Sivo, Rosa Mª Domínguez Caballero. Italia 12.40 M_08081 ARCHITECTURE, PEDAGOGY AND COMMUNITY: DESIGNING THE SCHOOL AS AN INCLUSIVE PROCESS. Daniela Ladiana. Italia 12.45-13.00 DEBATE Día: JUEVES 1 de diciembre Sesión: MAÑANA Presidente Sesión: María V. Zardoya Sala: 3 Actividad: Marietta Llanes Comisión 04: Conservación del patrimonio Comisión 05: Materiales y tecnologías de construcción Horario Código Actividad 9.00 CONFERENCIA MAGISTRAL ARQUITECTURA VERSUS ARQUITECTURA. UNA PROPUESTA SOSTENIBLE ACERCA DE LA SALVAGUARDIA DEL PATRIMONIO ARQUITECTÓNICO. Luis Palmero Iglesias. España 9.45 RECESO 10.00 M_04077 MORTERO, YESO Y PIEDRA: RESTAURACIÓN DEL “ANTIGUO CONVICINO” (SASSO CAVEOSO ENMATERA-ITALIA). Mauro Fiorentino, Graziella Bernardo, Vito Porcari, Giovanna Andrulli. Italia. 10.10 M_04078 LA RECALIFICACIÓN ARQUITECTÓNICO-AMBIENTAL DEL CENTRO HISTÓRICO: RECUPERACIÓN Y RESIGNIFICACIÓN DE LOS “SASSI DE MATERA”. Antonella Guida, Michele D’Amato, Fabio Fatiguso, Giuseppe Andrisani, Alessandro Lanzolla. Italia. 10.20 M_04061 EL ARQUITECTO JOSÉ MARÍA MANUEL CORTINA PÉREZ Y LA CERÁMICA NOLLA. RECUPERANDO LA CERÁMICA PATRIMONIAL DE NOLLA DE LA VILLA MORRIS. Jorge Girbés Pérez. España 10.30 M_04065 LA COMPOSICIÓN ARQUITECTÓNICA COMO FUNDAMENTO DE SOSTENIBILIDAD Y RESILIENCIA ESTRUCTURAL EN LAS EDIFICACIONES. Carlos Alberto Torres Montes de Oca. México 10.35 M_04066 ANÁLISIS DEL SISTEMA CONSTRUCTIVO DE UN TEMPLO DEL SIGLO XVI TÍPICO EN MÉXICO. Carlos Alberto Torres Montes de Oca, Miguel Ángel Segovia Huitrón. México 10.40 M_04038 CLUSTERING APPROACH FOR HYGROTHERMAL MATERIAL PROPERTIES OF BRICKS IN A TROPICAL CLIMATE BASED ON THREE DEGRADATION RISKS. Bruno Vanderschelden, Isabeau Vandemeulebroucke, Kaat Janssens, Veerle Cnudde, Tim De Kock, Nathan Van Den Bossche. Bélgica 10.50 M_04035 PROPUESTA DE PROYECTO PARA LA CONSERVACIÓN DE UN EDIFICIO PATRIMONIAL EN EL CENTRO HISTÓRICO DE LA HABANA DE MANERA SUSTENTABLE. Claudia Ruiz Prieto. México 11.55 M_04008 FROM SIMULATION TO PRACTICAL GUIDELINE: THE USE AND ADVANTAGE OF HAM-SIMULATIONS FOR THE CONSERVATION OF HERITAGE BUILDINGS IN HAVANA, CUBA. Kaat Janssens, Isabeau Vandemeulebroucke, Bruno Vanderschelden, Valentina Marincioni, Nathan Van Den Bossche. Bélgica. 11.15 M_04010 ASSESSING THE IMPACT OF CLIMATE CHANGE ON HISTORICAL BUILDINGS IN CUBA. Isabeau Vandemeulebroucke, Kaat Janssens, Bruno Vanderschelden, Steven Caluwaerts, Nathan Van Den Bossche. Bélgica 11.25 M_04017 IMPACTO DEL ALOJAMIENTO TURÍSTICO EN EDIFICACIONES RESIDENCIALES EN EL VEDADO, CUBA. Natali Collado Baldoquin, Luis Alberto Rueda Guzmán, Dania González Couret, y Karla Maria Lemus Mesa. Cuba 11.35 M_04023 SUSTAINABLE MATERIALITY IN PRESERVATION: A CASE STUDY OF CALIFORNIA. BUNGALOWS. Xiaolin Chen. Nathan van de Bossche. Bélgica 11.45 M_05080 TECNOLOGÍAS APROPIADAS PARA LA CONSTRUCCIÓN DE INMUEBLES EN EL MUNICIPIO DE GUANABACOA. Marietta Llanes Pérez, Enrique Fernández Figueroa, Amanda Rodríguez Cabrera. Cuba 11.55 M_05037 HYGROTHERMAL BEHAVIOUR OF VENTILATED WALLS IN TROPICAL CLIMATES: IN THE IMPACT OF WATER ENTRY FUNCTIONS IN WUFI. Stéphanie Van Linden, Nathan Van Den Bossche. Bélgica 312.05 M_05050 BIO AISLACIÓN TERMO-ACÚSTICA DE LANA DEOVEJA DE DESCARTE Y SU CONTRIBUCIÓN A LOS OBJETIVOS DE DESARROLLO SOSTENIBLE. Alejandra Nuñez Berté, John Martin Evans. Luis Fernández Luco. Argentina 12.15 M_05031 IMPACTO EN EL DESEMPEÑO TÉRMICO DE LA APLICACIÓN DE CELULOSA EN LA ENVOLVENTE DE UN AULA. María Fernanda Aristizábal, Manuela Murillo Galvis, Elizabeth Parra Correa, Manuela Quintero Lodoño, Laura Rivera Salazar. Colombia 12.25 M_05026 INCIDENCIA ESTRUCTURAL DE LA ESTERILLA DE BAMBU GUADUA EN MURETES DE MAMPOSTERIA REPUBLICANA. Luis Sierra, Juan Rojas, Alejandro Peña, Caori Takeuchi. Colombia 12.35-13. 00 DEBATE MEMORIAS MACDES 2022 ESTUDIO DE ASOLEAMIENTO Y RADIACIÓN SOLAR EN DIFERENTES ZONAS GEOGRÁFICAS DEL VALLE DE ABURRÁ Juan Camilo Villegas-Echavarría1, David Alejandro Orozco-Gallo1, Leidy Milena Marín-Bedoya1, Daniel López-Álvarez1, Ader Augusto Garía-Cardona2, Elisabeth Herreño-Tellez3, Yury Andrea Hernandez-Duque4 y John Arango-Flórez5 1Estudiante de arquitectura. Universidad Nacional de Colombia, Medellín, Carrera 65 Nro. 59A – 110, Medellín Colombia; 2Profesor Asociado, Universidad Nacional de Colombia, Carrera 65 Nro. 59A – 110, Medellín Colombia; 3Profesora Asociada, Universidad de San Buenaventura, Medellín, Carrera 56C N° 51-110, Medellín, Colombia; 4Profesora Auxiliar, Universidad de San Buenaventura, Medellín, Carrera 56C N° 51-110, Medellín Colombia; 5Profesor Asistente. Universidad Nacional de Colombia Medellín, Carrera 65 Nro. 59A – 110, Medellín Colombia. 1jvillegase@unal.edu.co RESUMEN. Se presenta un estudio de aproximación a los fenómenos climáticos de asoleamiento y radiación en zona urbana de cuatro municipios del Valle de Aburrá, Colombia, la relevancia del estudio radica en que las condiciones del relieve topográfico del Valle de Aburrá constituyen una variable determinante a la hora de comprender el comportamiento climático diferenciado en los distintos pisos térmicos del lugar. A partir del análisis de datos de la red de sensores del sistema de Alerta temprana del Valle de Aburrá - SIATA- en 9 manzanas ubicadas en ladera y planicie, se realizó el modelado de las manzanas y se generó una serie de simulaciones computacionales en el aplicativo Climate Studio™, cuyos datos arrojados permiten, mediante un método inductivo analítico, conocer el microclima hallado en el Valle. Se encontró que se reduce la radiación solar en las vías entre un 23% y un 55%, según su orientación y arborización. Los municipios al sur del Valle de Aburrá tienen un mejor desempeño en la atenuación de la radiación y las fachadas al poniente presentan diferencias de hasta 29% de radiación solar entre distintos lugares de estudio. Las calles ubicadas en sentido oriente – occidente tienen de 30 a 32 minutos más de radiación solar por día, en promedio. Se concluye que existen diferencias climáticas importantes entre las laderas oriental, occidental y la planicie del valle, que posiblemente no han sido consideradas para un apropiado desarrollo edilicio y urbanístico, pero que su comprensión puede mejorar las condiciones a futuro. PALABRAS CLAVES: arquitectura bioclimática, clima tropical andino, radiación solar, asolamiento, habitabilidad STUDY OF SUNLIGHT AND SOLAR RADIATION IN SEVERAL GEOGRAPHICAL ZONES OF THE ABURRÁ VALLEY ABSTRACT. The relevance of the study is based on the fact that the topographic relief conditions of the Aburrá Valley are a determining variable when it comes to understanding the differentiated climatic behavior in the different thermal floors of the area. Starting from the analysis of data from the sensor network of the Early Warning System of the Aburrá Valley -SIATA- in 10 blocks located on hillsides and plains, the blocks were modeled and computer simulations were generated in Climate Studio™ application, whose resulting data allow, through an analytical deductive method, to know the microclimate found in the Valley. It was found that solar radiation on the streets is reduced by between 23% and 55%, depending on their orientation and tree planting. Southern cities of the valley has a better performance reducing solar radiation, and the western facades have differences of up to 29% of solar radiation between different places of the valley. Streets located in north – south direction, have between 30 to 32 daily additional radiation minutes. It is concluded that there are important climatic differences between the eastern and western hillsides and the valley plain, which have not been considered for appropriate building and urban development, but that understanding them might improve conditions in the future. KEYWORDS: bioclimatic architecture, tropical andean climate, solar radiation, sunlight, habitability. 1. CONTEXTO El Valle de Aburrá está ubicado en Antioquia, Colombia, sobre la cordillera central del sistema montañoso de los Andes, y comprende los municipios de Caldas, Sabaneta, La Estrella, Envigado, Itagüí, Medellín, Bello, Copacabana, Girardota y Barbosa. Tiene una longitud de 60 km, que son atravesados en su totalidad por el Río Aburrá [1]. A su vez, cuenta con una población de 3.866.000 habitantes, lo cual corresponde al 60% de la población en Antioquia. El Valle de Aburrá, cuenta con un clima tropical andino, enmarcado en montañas que oscilan entre los 1.300 y 2.800 metros sobre el nivel del mar [1], y tiene condiciones ambientales continuamente cambiantes, con temperaturas entre los 17ºC y 28ºC y humedad relativa entre 40% y 70%. Se tiene la hipótesis de que estos factores climáticos se ven afectados principalmente por las condiciones geográficas cambiantes, que generan una serie de microclimas dependiendo de la localización, e igualmente, se cree que hay una influencia en las diferentes formas de construcción y apropiación por parte de la población, traducidas en las distintas intervenciones arquitectónicas y urbanísticas propias de los diferentes poblados. A pesar de esta condición climática cambiante del valle, los actores involucrados en el desarrollo urbano (diseñadores, planificadores, constructores, albañiles, auto constructores, entidades gubernamentales, etc.) basan los procesos de toma de decisión en materia urbanística en bases de datos bioclimáticas homogenizadas de las condiciones climáticas para el desarrollo de la ciudad, lo que puede generar inconsistencias entre las formas urbanas y arquitectónicas y las condiciones microclimáticas de los distintos sectores de la ciudad, afectando así la calidad de vida de sus habitantes. Es por ello por lo que este estudio plantea como objetivo establecer las diferencias de asoleamiento y radiación en diferentes zonas del Valle de Aburrá, que abarcan la planicie y las laderas oriental y occidental, para comprobar qué factores influyen en su variabilidad, e igualmente, se propondrán diferentes alternativas en las condiciones asociadas a estos fenómenos, para un mejoramiento en la calidad de vida de los moradores en los lugares de estudio. Para su realización, se procede a la modelación digital y su posterior simulación computacional de las zonas de estudio, utilizando los aplicativos Sketchup™ [2], Rhinoceros™ [3] y Climate Studio™.[4] Para la selección de las zonas de estudio se realizó previamente una división por franjas del Valle de Aburrá transversales al río (ver figura1), donde se seleccionan tres manzanas representativas en cada una de ellas (una en el oriente, otra en el occidente, y otra central), y posteriormente se procede al análisis comparativo de los resultados obtenidos. Fig. 1. Selección de franjas de estudio, y sus respectivas manzanas representativas (puntos negros). Elaboración propia. 2. MARCO TEÓRICO Bosque urbano e intervenciones paisajísticas. Según Castillo, Correa y Cantón, se define como bosque urbano la intervención paisajística sobre la vía pública, donde se siembran árboles a ambos costados de un eje de circulación vehicular o peatonal, siendo esta la forma más eficiente de generar sombra, y reducir las islas de calor; igualmente este tipo de intervenciones se puede complementar con la implementación de elementos verdes en fachadas, patios y cubiertas, además de la construcción de parques, de tal manera que se logre disminuir entre 1 y 4,7 °C la temperatura de cada uno de estos espacios. La generación de este tipo de intervenciones trae grandes beneficios más allá de lo ornamental: “el mejoramiento del microclima urbano a partir de la reducción de la temperatura ambiente, la humectación del aire, la intercepción del agua de lluvia, la regulación y control de iluminación natural, aumento de la biodiversidad, disminución de los gases de invernadero, entre otros” [5]. Se ha comprobado que la intervención paisajística en forma lineal, es la forma más eficiente de generar sombra en esquemas urbanos en damero, pero para el caso de trazados orgánicos, en muchos casos adaptados a las formas inclinadas propias del terreno, la eficiencia del arbolado urbano no estará en función de su ubicación geométrica perfectamente alineada al eje de la vía, sino que en cambio, es necesario buscar nichos “problemáticos”, donde las condiciones de radiación y temperatura sean críticas, y generar allí pequeños bosques diseñados especialmente para ese tipo de espacios [5]. Proyección urbanística y trazado de ciudad. La planeación urbana desde el plan de Wiener y Sert plantea a Medellín como una ciudad lineal en relación con el río dónde se desarrolla todo partiendo de este, así mismo todo el Valle de Aburrá se desarrolla conformando el Área Metropolitana de Medellín. De acuerdo, a este planteamiento el trazado se genera en dirección sur-norte y este-oeste, lo cual ya influencia la forma y clima, tal como aclara PIJPERS-VAN ESCH: “un microclima urbano es el que caracteriza a una zona urbana a pequeña escala, y está constituido por la influencia del entorno construido en las condiciones climáticas a mayor escala. Las variables atmosféricas de un microclima pueden desviarse sustancialmente de las condiciones que prevalecen en una zona más amplia. En otras palabras: el diseño de una ciudad y sus componentes establece las condiciones de sus microclimas”.[6] Puntualizando el caso de estudio en las franjas, encontramos que esta decisión muta según se asciende por las laderas del Valle, por lo tanto, existe una predominancia de carreras en sentido norte-sur y calles este- oeste (en el contexto colombiano, se denomina carrera a las vías trazadas en sentido norte - sur, y se denomina calle a las que están en sentido oriente – occidente, o al menos tienden a tener esa orientación). Además, la planeación en vertical también determina la posibilidad de obtención solar tanto de las edificaciones colindantes y el espacio urbano, según su orientación. Confort, clima y sol. En consecuencia, los microclimas establecidos por las condiciones de morfología urbana y geografía son influenciados por las laderas y el crecimiento urbano del lugar, esto establece variables que cambian según el sector en cuestión, influenciando en la ventilación, radiación y temperatura, según Beazley: “combinando la arquitectura moderna y la planificación urbana es posible adaptar el viento, el sol y las condiciones térmicas de los espacios interiores de la ciudad entre los edificios para mejorar o limitar el flujo del viento y proporcionar luz solar y sombra”.[7] A su vez la arborización en climas tropicales se vuelve esencial para el confort climático urbano exterior, influenciado por el viento, el sol y la temperatura[7], donde el sol es una variable importante al momento de analizar el clima; factores astronómicos, ozono, albedo, altitud y otros[8], influyen directamente en la temperatura y viento[9], estos fenómenos generan las condiciones de confort térmico en las personas tanto en interiores como en exteriores afectando principalmente el comportamiento térmico del espacio[10]. De igual forma, estudiar la radiación es importante para conocer el índice ultravioleta (IUV) a fin de conocer sobre la protección adecuada contra el sol, que una persona debe tener debido a que la exposición prolongada a la radiación UV “puede provocar daños severos en la piel y alteraciones en la salud, y el sistema inmune, cambios y degeneración de las células y tejidos fibrosos” [8]. 3. METODOLOGÍA Para el desarrollo del presente trabajo se realizó la elección de una muestra de 9 manzanas distribuidas en tres franjas transversales al río Aburrá (tres manzanas por franja), ubicadas en ladera occidental, ladera oriental y planicie o fondo del valle. Se realizó el respectivo modelado de cada una de ellas y se generó una serie de simulaciones computacionales en el aplicativo Climate Studio™, cuyos datos arrojados permiten, mediante un método inductivo analítico, conocer la serie microclimas presentes a lo largo del Valle. Como criterios para la selección de las franjas se tienen: que pasen por distintos municipios del Valle, que tengan orientaciones distintas, que la amplitud del valle varíe en cada una de ellas, que las condiciones topográficas, o las pendientes en las zonas de estudio, sean variadas. Para la selección de las manzanas, igualmente se busca diversidad en los casos de estudio: manzanas con distintas formas de ocupación urbana, y con variedad de formas edilicias, que tengan distintas conformaciones de arbolado urbano o, incluso, que tengan ausencia del mismo, que el tamaño de las parcelas y las alturas de las edificaciones sean diversos, al igual que las secciones de vía. En general, se buscan casos de estudio dispares, para que se logre evidenciar la mayor cantidad posible de condiciones microclimáticas asociadas al asoleamiento, y así poder identificar cuáles de ellas tienen mejor desempeño. Una vez se seleccionan las manzanas, se procede a la realización de las siguientes fases metodológicas: 1) recolección y organización de información, 2) modelado de las manzanas, 3) simulación computacional de condiciones climáticas y obtención resultados preliminares y 4) análisis de estos. Recolección y organización de la información. Para llevar a cabo las simulaciones es necesario establecer el sistema mediante el cual se ordena la información, para facilitar posteriormente su organización y acceso, tanto para el modelado de las manzanas, como para la ejecución de las simulaciones. Para ello se llevan a cabo las siguientes acciones: Codificación de manzanas: Se propone la siguiente tabla de nomenclatura para las manzanas (ver tabla 1) para facilitar la identificación, ordenación y almacenamiento de la información generada. Tabla 1. Nomenclatura de manzanas de estudio. FRANJA CÓDIGO CONTENIDO Franja 01: Bello F1_ME Franja 1; manzana este F1_MC Franja 1; manzana centro (fondo de valle) F1_MO Franja 1; manzana oeste Franja 02: Medellín F2_ME Franja 2; manzana este F2_MC Franja 2; manzana centro (fondo de valle) F2_MO Franja 2; manzana oeste Franja 03: Itagüí - Envigado F3_ME Franja 3; manzana este F3_MC Franja 3; manzana centro (fondo de valle) F3_MO Franja 3; manzana oeste Modelado de manzanas Se realizó bajo las siguientes condiciones o protocolos:  Los modelos se realizan en Sketchup™ (formato .SKP).  Se modela únicamente el contexto inmediato a la manzana, esto es, los predios perimetrales al modelo resultante, de tal manera que queden solo las edificaciones con incidencia de sombra directa sobre la zona de estudio. No habrá ninguna geometría en la parte inferior al piso del modelo, y en general se debe depurar cualquier objeto que no incida directamente en la manzana en estudio.  Se nombra cada archivo resultante conforme al código alfanumérico correspondiente a cada manzana.  Se orienta el modelo con norte real y se localiza en un punto cercano al origen.  Organización, manejo y nomenclatura de capas discriminado por material: árbol viento, asfalto, concreto, enchape piedra - cerámica, follaje, ladrillo, metal, revoque - pintura color, revoque - pintura blanco, teja de barro, teja de eternit, tronco árbol, vidrio y zona verde. El reducir el número de materiales a los mencionados, facilita la ejecución de la simulación porque se reduce el número de variables y cálculos a realizar por parte del software.  Utilizar un nivel de detalle bajo: Se modela sólo una cara frontal en representación de toda la fachada de cada predio, sin incluir vanos, voladizos, escaleras, accesos, etc. Igualmente, las cubiertas se hacen planas y representadas en una sola cara por edificación.  Se verifica que la orientación de las caras esté correcta, esto significa, que estén con la cara de la textura primaria hacia afuera, para no tener problemas con el reconocimiento de texturas.  Se explota el modelo para que quede sin componentes o grupos, de tal manera que sea correctamente procesado posteriormente al importarlo en la aplicación Rhinoceros™. Bajo estas condiciones, se procede a trasladar la información de los modelos en formato .SKP, a .3DM, del software Rhinoceros™, e igualmente el modelo se nombra con la nomenclatura correspondiente al código de la manzana. Simulación de los modelos computacionales Se realizan las simulaciones computacionales en el Plug In Climate Studio™ (complemento o extensión de la aplicación Rhinoceros™), bajo las siguientes condiciones:  Asignación de materiales: Se usan materiales genéricos en representación de cada capa utilizada (ver tabla 2). Tabla 2. Materiales de Climate Studio™ asignados a las capas de trabajo de Sketchup. ™ CAPA MATERIAL DE CLIMATE STUDIO™ Asfalto asphalt road Árbol tree foliage Ladrillo red brick Metal media lab metal Enchape piedra - cerámica stone decorative wall Revoque blanco white painted wall Teja de barro ceramic stone tile Teja de eternit grey ceramic tile floor Tronco árbol arbol-tree truck Vidrio SageGlass clear Zona verde grass 3  Distancia entre sensores: se dejan los valores por defecto (4,80 m.) tanto en fachadas como en cubiertas de las edificaciones, e igualmente en las caras representativas de árboles. Sobre el nivel de piso, se colocan a 1 m., al ser un plano de análisis que requiere más nivel de detalle.  Se orientan las caras en el sentido correcto en caso de requerirse, para que el plano de análisis sea consistente en todo el modelo.  Se usa el archivo climático (formato .EPW) de la ciudad de Medellín.  La información derivada de cada simulación y modelo se organiza en una carpeta con el código correspondiente a cada manzana. Análisis de la información obtenida Una vez ejecutadas las simulaciones, se procede a presentar descriptivamente los resultados arrojados en cada caso, mediante la extracción de imágenes de los modelos 3D con los sensores y su respectiva escala de colores, al igual que los gráficos de barras que resumen las condiciones de cada zona. Tanto la tabla de datos preliminares como los resultados obtenidos en las simulaciones se someten a un proceso de inducción analítica. Mediante este método se llega a generalizaciones que permiten caracterizar climáticamente cada franja a partir de los hallazgos particulares de cada manzana. Este método, como lo menciona Chávez, “(...) separa lo esencial de lo accidental para formular generalizaciones aplicables a contextos similares identificando palabras, expresiones, categorías, fenómenos, patrones o recurrencias” [11] 4. RESULTADOS Una vez simuladas las condiciones térmicas de las zonas de estudio, se procede a organizar los resultados de cada una de las categorías descritas a continuación, mediante la tabulación de los Kwh/m² de cada sensor en cuestión, y así determinar el comportamiento típico de cada zona. Para la determinación de la naturaleza o las características de cada zona, se compararon tanto las manzanas entre franjas, como las franjas en conjunto, para determinar así cuáles podrían ser las condiciones que generan mayores o menores incidencias de radiación sobre las edificaciones y el espacio urbano (ver tablas 3 y 4). Tabla 3: Resultados de las simulaciones de las manzanas estudiadas en planta. Manzana oeste Manzana central Manzana este Franja 01 Franja 02 Franja 03 Tabla 4: Resultados de las simulaciones de las manzanas estudiadas en vista superior. Manzana oeste Manzana central Manzana este Franja 01 Franja 02 Franja 03 Reducción de radiación solar por medio del arbolado urbano. La franja 1 se caracteriza por tener una alta densidad urbana, con edificaciones de poca altura y secciones viales reducidas, que no permiten la siembra de jardines ni el crecimiento de árboles, por lo que es la zona de estudio en la cual se registran menores reducciones en la radiación solar: entre 23,6% y 35,3%; la manzana con mejores registros fue la F1_MO, donde hay una mayor extensión de zonas verdes, y hay un mayor número de individuos arbóreos generadores de sombra. En la franja 2 se identifican individuos arbóreos distribuidos de manera dispersa, pero con un mejor desempeño que en la franja 1, debido a que están presentes en mayor cantidad gracias a las posibilidades que ofrece una sección urbana más amplia. Es llamativo que la manzana en la cual se distribuye una mayor cantidad de árboles en el espacio urbano (F2_MC), es donde menor reducción de radiación ocurre (29,2%), muy posiblemente debido al reducido tamaño de copa de los árboles y a la lejanía entre ellos. Se podría decir que la franja 3 es la única en la que se ven intenciones claras de generar bosques urbanos en las distintas zonas de las manzanas estudiadas, y es por esto que es allí es donde mayores índices de reducción de radiación solar hay en las zonas estudiadas. El éxito del arbolado urbano distribuido a lo largo de esta franja reside posiblemente en la multiescalaridad de las especies utilizadas, donde no solo hay una copa de árbol que cubre el espacio, sino que también hay una serie de especies de menor envergadura a una altura más baja, que tamizan la radiación solar que pasa por entre las primeras ramas, y funcionan como un sistema natural para mejorar notablemente las condiciones de confort de los espacios donde estas se siembran (ver figura 2). Fig. 2. Resultados de incidencia del arbolado urbano en la reducción de la radiación. Incidencia de radiación solar en las fachadas Las fachadas orientadas al poniente reciben radiaciones distintas entre laderas. Estas presentan leves diferencias entre las franjas 1 y 2, las cuales están geográficamente más cercanas entre sí, y tienen emplazamientos similares con su retícula que tiende al sentido oriente - occidente, y norte - sur. Según el gráfico (ver figura 3). Se puede decir que, en este conjunto de casos de estudio, hay una variación de 156 Kw/m² (variaciones de hasta 15%). Fig. 3. Incidencia de radiación solar en las fachadas localizadas al poniente En el caso de las manzanas de la franja 3, hay una enorme diferencia con las radiaciones recibidas en las otras de las franjas anteriores: en la F3_MC hubo un registro de 781 Kw/m²; en la F3_ME, 766 Kw/m²; y en la F3_MO, 779 Kw/m². A pesar de que las edificaciones tienden a ser más altas en esta zona (por lo cual se esperaría que hubiese una mayor incidencia del sol en las fachadas), se puede atribuir la atenuación del fenómeno al conjunto de árboles que es recurrente en el espacio urbano de la zona de estudio. También se puede atribuir su reducción al trazado urbano en diagonal del damero, de tal forma que no está alineado en sentido norte - sur, lo que genera una incidencia solar indirecta sobre las fachadas, e incluso, ocasiona que en algunas épocas del año los rayos solares no lleguen a ellas. Radiación sobre patios. La radiación incidente sobre los patios aparentemente no tiene un comportamiento asociado a la zona geográfica donde se ubican las edificaciones, y mucho menos por la tipología urbana donde se emplazan, sino que más bien se identifican mediciones similares en patios de áreas parecidas, e igualmente hay un comportamiento influenciado por el arbolado ubicado en estos espacios, que reduce enormemente los rayos solares (ver figura 4). Fig. 4. Incidencia de radiación solar en patios Diferencias de radiación entre calles y carreras. Las calles suelen ser más calientes que las carreras, por diferencias de entre 200 a 300 Kw/m², debido a que están ubicadas de tal forma que el sol incide sobre ellas casi todo el día, la mayoría del año. Las calles y carreras con trazados más orgánicos tienen variaciones muy leves de radiación recibida. Incluso se puede dar que las carreras reciban más radiación que las calles: este es el caso de la F1_MO, y la F1_ME, y este comportamiento se atribuye al trazado irregular de las vías, y a la sección vial que es más amplia en las carreras (ver figura 5) Fig. 5:.Incidencia de radiación solar sobre andenes de calles trazadas en sentido norte – sur, y oriente – occidente Por último, se sigue identificando una tendencia en la que las manzanas de la franja tres tienen una importante reducción en la incidencia solar, tanto en las calles como en las carreras. Radiación incidente en las cubiertas Las cubiertas tienen comportamientos muy homogéneos a lo largo de todo el valle, e inclusive entre franjas de estudio los datos simulados se asemejan de una manera mucho más clara, a excepción de la franja 2. La diferencia entre los mayores y menores registros promedio es de 372 Kw/m² (ver figura 6) Fig. 6. Incidencia de radiación solar directa sobre las cubiertas. Este fenómeno se pudo haber dado por la diferencia en las alturas de las edificaciones, generando de esta manera muchas más sombras que las vistas en el resto de las manzanas de estudio. Por otro lado, se evidencia una disminución paulatina de la incidencia solar a medida que se avanza hacia el sur del Valle, lo que podría ser una pista de cierta regularidad en las condiciones de soleamiento, discriminando zonas de estudio por su ubicación en sentido norte - sur, al menos en zonas relativamente homogéneas y sin intervención de muchos factores que generen sombra, como lo son las cubiertas o campos abiertos. Incidencia de radiación directa sobre la vía. Las manzanas tienen comportamientos similares dependiendo de la franja, presentando así variaciones breves entre ellas, pero mucho más marcadas comparadas con manzanas de otras zonas del valle (ver figura 7). Fig 7. Incidencia de radiación solar directa sobre las calzadas vehiculares. Los valores máximos se mantienen en la ladera este y sobre el centro del valle, posiblemente por una mayor incidencia solar del poniente sobre estas zonas. La franja 3 sigue registrando los menores registros de radiación del valle, lo cual genera una clara tendencia a que la radiación incidente en esta zona es inferior, en todos los planos de análisis. Cabe resaltar que el comportamiento en este plano de análisis es bastante similar al visto en las cubiertas, y, por lo tanto, hay más evidencias de que se pueden clasificar microclimas en el valle de Aburrá, discriminando zonas geográficas divididas transversalmente al río, generando franjas similares a las estudiadas. 5. CONCLUSIONES Los árboles reducen la radiación en las vías y andenes entre un 23% y un 55%, e igualmente son altamente efectivos en las fachadas localizadas al poniente, siendo más efectivos sobre los municipios del sur del Valle, en donde los conjuntos de arbolado urbano son mucho más densos, y por lo tanto tienen un mejor comportamiento. Es por ello por lo que se debe impulsar en los diseños urbanos la proyección de verdaderos sistemas verdes, con variedad de especies repartidas en corredores y espacios de estancia, para que garanticen la mejora en sus condiciones higrotérmicas, y de esta manera se constituyan ciudades más agradables en el Valle de Aburrá. Para el cumplimiento de este propósito, se requiere de secciones viales amplias, con franjas de amoblamiento adecuadas y acopladas a las especies que en ellas se pretendan sembrar. Igualmente, y retomando lo dicho por Castillo [1], la siembra de especies debe hacerse de forma lineal en las formas urbanas en damero, de tal forma que su disposición genere sombras de una manera mucho más eficiente; en los trazados orgánicos, es necesaria una evaluación individual de las condiciones de cada lugar, de tal forma que el diseño de paisaje se acople a las condiciones de sombra necesarias para cada caso. El trazado de vías en diagonal mostró una alta eficiencia en la reducción de la radiación incidente, tanto en las calzadas vehiculares como en los andenes, debido a que los rayos solares inciden de una manera indirecta sobre ellas, y por lo tanto, con menor fuerza [6]. Es por esto, y por las razones expuestas anteriormente, que los municipios del sur del Valle de Aburrá presentan un mejor desempeño en la mitigación de la radiación solar. Las calles tienen de 30 a 32 minutos más de sol por día en promedio. Las calles con trazado en damero [6], presentan una radiación superior a las carreras bajo esta misma condición, y como se vio anteriormente, hay una alta reducción en las mediciones en tanto el damero se oriente en diagonal. La radiación incidente sobre los patios no tiene ninguna relación directa con su ubicación geográfica en el Valle, sino que tiene más que ver con el área de cielo completamente abierta a la vista que se tenga disponible en cada uno de ellos. RECONOCIMIENTOS Los autores desean agradecer a la Universidad Nacional de Colombia Sede Medellín, al grupo docente de los cursos de Énfasis en bioclimática asociados al grupo de investigación Energía Medio ambiente Arquitectura y Tecnología (EMAT) y Hombre, Proyecto y Ciudad de la Universidad de San Buenaventura Medellín. REFERENCIAS [1] ÁREA METROPOLITANA DEL VALLE DE ABURRÁ, 2019. Historia [en línea]. Disponible en: https://www.metropol.gov.co/area/Paginas/somos/Historia.aspx. [consulta: 28 de abril de 2022]. [2] TRIMBLE, 2022. SketchUp. En: Trimble [en línea]. Disponible en: https://www.sketchup.com/es [Consultado: 15 de junio de 2022] [3] MCNEEL, 2022. Rhinoceros 7 En: Rhinoceros: diseñar, modelar, presentar, analizar, producir. [en línea]. Disponible en: https://www.rhino3d.com/es/7/ [Consultado: 15 de junio de 2022] [4] SOLEMMA, 2022. Climate studio: advanced daylighting, electric lighting, and conceptual thermal analysis. En: Solemma. [en línea] Disponible: https://www.solemma.com/climatestudio [Consultado: 15 de junio de 2022] [5] CASTILLO, Ana Laura, CORREA, Erica Norma y CANTÓN, Ana Alicia, 2022. Incidencia de la permeabilidad solar forestal en el comportamiento térmico de urbanizaciones adaptadas a áreas piedemontanas. Estoa [en línea]. Vol. 11, No. 21. pp. 7-19. Disponible en: https://doi.org/10.18537/est.v011.n021.a01 [6] PIJPERS-VAN ESCH, Marjolein, 2015. Designing the urban microclimate: a framework for a design-decision support tool for the dissemination of knowledge on the urban microclimate to the urban design process [en línea]. Delf, Países Bajos: Universidad Tecnológica de Delft. ISBN 978- 94-6186-501-4. [Consultado: 12 de julio de 2022] Disponible en: https://www.researchgate.net/publication/307748592_Designing_the_Urban_Microclimate_A_fr amework_for_a_design- decision_support_tool_for_the_dissemination_of_knowledge_on_the_urban_microclimate_to_th e_urban_design_process/fulltext/57d8200808ae5f03b4984ab8/Designing-the-Urban- Microclimate-A-framework-for-a-design-decision-support-tool-for-the-dissemination-of- knowledge-on-the-urban-microclimate-to-the-urban-design-process.pdf. [7] WALTON, D, DRAVITZKI, V y DONN, M., 2007. The relative influence of wind, sunlight and temperature on user comfort in urban outdoor space. Building and Environment [en línea]. Vol. 42, pp. 3116-3175. [Consultado: 12 de julio de 2022]. Disponible en: https://www.sciencedirect.com/science/article/pii/S0360132306002198?ref=pdf_download&fr= RR-2&rr=729d73370c9767d8 [8] ERNST, Mariángles J, CHARDÍA, Román A y GONZÁLEZ, Pedro S., 2020. Caracterización del índice ultravioleta de riesgo solar en Concepción del Uruguay. En: Universidad Tecnológica Nacional, Facultad Regional Concepción del Uruguay.[en línea]. Disponible en: http://jei.fagdut.org.ar/files-jei/TRABAJO%2020.pdf Consultado: 12 de marzo de 2022]. [9] NIKOLOPOULOU, Marialena, 2004. Designing open spaces in the urban environment: a bioclimatic approach [en línea]. Atenas: Centro de Fuentes de Energías Renovables. ISBN: 960- 86907-2-2 [Consultado: 12 de junio de 2022]. Disponible en: https://www.researchgate.net/publication/258629365_Designing_Open_Spaces_in_the_Urban_E nvironment_a_Bioclimatic_Approach [10] RAJKUMAR, Surya, AMIRTHAM, Lilly Rose y HORRISON, Ebin, 2015. Thermal comfort assessment of a studio classroom in hot and humid climate conditions. En: ICUC9 - 9th International Conference on Urban Climate jointly with 12th Symposium on the Urban Environment [en línea]. Toulouse: Meteo France. 7 p. [Consultado: 12 de junio de 2022]. Disponible en: https://www.researchgate.net/profile/Surya-Rajkumar- 3/publication/352282372_Thermal_Comfort_assessment_of_a_Studio_Classroom_in_Hot_Hum id_Climate_Conditions/links/60c1b462299bf1949f449d37/Thermal-Comfort-assessment-of-a- Studio-Classroom-in-Hot-Humid-Climate-Conditions.pdf [11] CHAVEZ-GIRALDO, Juan David, 2015. La investigación en los campos de la arquitectura: reflexiones metodológicas y procedimentales. Medellín: Universidad Nacional de Colombia. Facultad de Arquitectura. p. 159. ISBN: 978-958-775-629-6 PROCESO DE SELECCIÓN DEL HÁBITAT DE DESTINO PARA LA RELOCALIZACIÓN DE COMUNIDADES COSTERAS POR EFECTOS DEL CAMBIO CLIMÁTICO Arq. Brian Robinson Borges Alfonso1 1Universidad Central “Marta Abreu” de Las Villas. Facultad de Construcciones. Departamento de Arquitectura, Carretera a Camajuaní Km. 5 y 1/2. Santa Clara. Villa Clara. Cuba. bbalfonso@uclv.cu1 RESUMEN Los efectos del cambio climático constituyen un reto en el desarrollo del hábitat. En los últimos años, la planeación y ejecución de los reasentamientos debido a este fenómeno ha elevado el interés internacional a partir de los complejos vínculos entre el clima, las personas y el hábitat. En Cuba el reasentamiento masivo de la población se ha realizado de manera esporádica, careciéndose de la experiencia institucional y técnica para enfrentar el aumento del nivel medio del mar. Muchos reasentamientos poblacionales no son sostenibles debido a múltiples factores no considerados en la toma de decisiones de planeamiento territorial u otras consideraciones prácticas. El reasentamiento constituye uno de los procesos más traumáticos en cuanto a reducción de riesgos se refiere, dado sus ineludibles efectos en el plano social, psicológico, cultural, económico y de otra índole, aspectos a tener en cuenta en el planeamiento y ejecución de dichos procesos. La presente investigación está dirigida a diseñar un proceso que contribuya al mejoramiento de la evaluación y selección del hábitat de destino de comunidades en riesgo, mediante algoritmos computacionales asociados al mismo. Para ello se tuvo en cuenta múltiples variables que, mediante resultados cuali-cuantitativos, brindarán propuestas en función de las necesidades de los grupos de interés. Se elaboró una biblioteca de variables potenciales agrupadas por dimensiones de la sostenibilidad mediante el análisis referencial y la síntesis de información. Se sentaron las bases y criterios para el desarrollo de algoritmos orientados a apoyar las formas tradicionales de trabajo. PALABRAS CLAVES: Reasentamiento, Riesgo, Sostenibilidad, Selección del hábitat de destino. TARGET HABITAT SELECTION PROCESS FOR RELOCATION OF COASTAL COMMUNITIES DUE TO CLIMATE CHANGE IMPACTS ABSTRACT The effects of climate change are a challenge for habitat development. In recent years, the planning and execution of resettlement due to climate change has raised international interest due to the complex links between climate, people and habitat. In Cuba, mass resettlement of the population has been carried out sporadically, lacking the institutional and technical experience to cope with the rise in mean sea level. Many population resettlement's are not sustainable due to multiple factors not taken into account in land- use planning decisions or other practical considerations. Resettlement is one of the most traumatic processes in terms of risk reduction, given its inescapable social, psychological, cultural, economic and other effects, which must be taken into account in the planning and implementation of such processes. The present research is aimed at designing a process that contributes to the improvement of the evaluation and selection of the destination habitat of communities at risk, by means of computational algorithms associated with it. To this end, multiple variables were taken into account which, through qualitative- quantitative results, will provide proposals according to the needs of the groups of interest. A library of potential variables grouped by dimensions of sustainability was drawn up by means of referential analysis and synthesis of information. The foundations and criteria were laid for the development of algorithms to support traditional ways of working. KEY WORDS: Resettlement, Risk, Sustainability, Selection of target habitat. 1. INTRODUCCIÓN El cambio climático es un fenómeno que influye directamente en las condiciones medioambientales a escala global. Muchos de sus efectos se manifiestan en Cuba debido a las condiciones geográficas de insularidad, ubicación y forma, que lo convierten en un escenario complejo por las amenazas de índole hidrometeorológicas y sus efectos asociados. El incremento del nivel medio del mar constituye una realidad cuantificada y probada científicamente, que aporta pronósticos alarmantes para el futuro de muchos asentamientos costeros en el país. Sus efectos son inevitables a pesar de su progresión lenta y desapercibida. Datos refieren que la elevación media ascenderá 29 y 95 cm de ascenso del nivel medio del mar para los años 2050 y 2100 [1]. Estas cifras traen implícitos cambios sustanciales en la geografía de las costas cubanas y afectaciones a comunidades ubicadas en dicha zona. El sistema de la Defensa Civil cubana[2], refiere que 232 zonas pobladas están situadas entre los cinco primeros kilómetros de la costa hacia la tierra, a una altura de menos de cinco metros sobre el nivel del mar, de ellos 63 se consideran asentamientos urbanos y 169 rurales, el 30% ha sufrido penetraciones del mar y el 68% está situado total o parcialmente a alturas inferiores a un metro sobre el nivel del mar. Lo anterior indica que los cambios inevitables en la geografía cubana serán suficientes para generar actividades de reasentamiento humano de forma ineludible, por lo que urge la preparación y conciencia de la situación del Gobierno y otras instituciones implicadas. En Cuba el reasentamiento masivo permanente de población se ha realizado de manera esporádica, careciéndose de la experiencia institucional y técnica para enfrentar los efectos del cambio climático en las zonas costeras. Las experiencias de reasentamiento nacional parten de ubicaciones humanas inapropiadas debido a múltiples factores no considerados en la toma de decisiones de planeamiento territorial. Este proceso se considera uno de los más traumáticos en cuanto a reducción de riesgos se refiere. Sus efectos son imperiosos y se manifiestan en el plano social, psicológico, cultural, económico y de otra índole; todo lo cual debe tenerse en cuenta en el planeamiento y ejecución de dichos procesos. Por otra parte, debe considerarse que las acciones de reasentamiento no se limitan únicamente al hecho de salvar las vidas humanas y los bienes materiales, sino que vincula diferentes variables que garantizan su integralidad y efectividad. En este sentido indica Robles [3], que estas acciones asumen también el mejoramiento de las condiciones de vida, que el reasentamiento va más allá de trasladarse física y espacialmente hacia otro lugar, sino que implica el abordaje de dimensiones sociales, culturales, de identidad y económicas que conformen el nuevo hábitat. A partir de las informaciones y consideraciones presentadas, se fundamenta que el reasentamiento preventivo de poblaciones localizadas en áreas de alto peligro, puede considerarse una medida para evitar el riesgo si se realiza una adecuada planificación y exigencias en el ordenamiento de las ciudades y poblados. En Cuba la actividad de relocalización se ha desarrollado con carencias según González [4] a lo largo de los años. Su investigación en el desarrollo teórico y práctico a través de casos referenciales de reasentamientos, posibilitó establecer tendencias de estos procesos en Cuba con criterios justificativos, que resultan claves para el entendimiento de la problemática. Se comprueba una fuerte tendencia a la centralidad de las decisiones alejada del “Plan Parcial” que constituye un instrumento de planificación efectivo para enfrentar la actividad del reasentamiento de forma eficaz. Resaltando el conocimiento popular y la falta de integralidad en las respuestas que inciden negativamente en la calidad de vida de la población afectada. La práctica de reasentamiento constituye la acción de mayor complejidad dentro de la gestión del riesgo, por lo que su puesta en marcha requiere profundos análisis multidisciplinares con la participación de todos los actores incluyendo a la población. Se consideran para este caso, las elevadas implicaciones administrativas, de gestión, económicas, materiales, de recursos humanos y de manejo integral en todas las fases que genera este proceso [4]. Se comprobó que la participación de la población en estos procesos es limitada, con poco (o casi nulo) intercambio planificador-usuario, también una percepción común de esta compleja actividad en su práctica cotidiana [4]. Se trata de un proceso complejo que lleva implícito un período de tiempo prolongado para su planificación y puesta en ejecución, altos gastos económicos y movilidad de recursos tanto humanos como materiales. Estos criterios pueden generar problemáticas de no obtenerse resultados adecuados durante el proceso de gestión [5]. Cuba posee un amplio marco normativo en la reducción del riesgo de desastres que evidencia deficiencias entre lo conceptual y lo metodológico. Estas dificultades deben ser ajustadas debido a las crecientes condiciones de riesgo de los asentamientos costeros. Destacando la necesidad de aumentar el enfoque hacia la resiliencia, con la incorporación y el fortalecimiento del papel de la sociedad en la toma de decisiones como en la ejecución de acciones preventivas. Se evidencia el carácter paradójico en la actualidad, ya que el sistema de Defensa Civil para la atención al desastre es una fortaleza evidenciada, pero a su vez, genera un protagonismo y asistencia estatal que limita la iniciativa y la proactividad social en este sentido [6]. La nueva ubicación del hábitat es una decisión clave que suele tener respuestas comunes en Cuba y sigue la tendencia internacional de incidir solo lo físico [5]. De ahí que la presente investigación esté dirigida a mostrar el avance del diseño de un proceso que contribuya al mejoramiento de la evaluación y selección del hábitat de destino de comunidades en riesgo que será posible materializarlo como algoritmo computacional permitiendo de forma holística sustentar el carácter multidimensional y el aumento de la efectividad de este proceso. Materiales y Método El proceso de investigación tuvo una estructuración en dos etapas que permitió al autor definir la generalidad del problema y bajar la escala hasta llegar al análisis particular de temas específicos. En la primera etapa la investigación tuvo su punto de partida en la búsqueda documental, revisión y análisis de fuentes bibliográficas vinculadas al tema de reasentamiento, manuales desarrollados por organizaciones internacionales como el CFI (Corporación Financiera Internacional) [7], lineamientos a partir del estudios de la gobernanza , planes de ordenamiento y casos específicos en Colombia [8], Honduras [9] y Perú [10], [11], recopilación de experiencias en América Latina [12], artículos resaltando el apego al hábitat, el desarrollo social la gestión de riesgos y el ordenamiento del territorio [13]. Estos estudios permitieron encontrar conceptos similares y contrastar criterios. Se analizaron conceptos referentes al reasentamiento de comunidades costeras en riesgo por el cambio climático, su multidimensionalidad, sus diferentes métodos de intervención a través de la participación ciudadana, documentación y planificación se hace énfasis en temas pertinentes como son la selección del hábitat de destino y su marcada influencia para cumplir el objetivo de la mitigación de riesgos. El proceso de relocalización de comunidades en riesgo resulta complejo debido a su carácter multidimensional. Muchos autores refieren este fenómeno, basados en dimensiones, factores, parámetros e indicadores que agrupan las diferentes aristas de las etapas de pre y pos-desastre. Estos aspectos apoyan el proceso otorgando integralidad y carácter multidisciplinario y permiten obtener resultados satisfactorios [4]. Con respecto a lo anterior el autor propone dos grupos principales: los usuarios (entidades administrativas y el INOTU-Instituto Nacional de Ordenamiento Territorial y Urbanismo). También permitió comprender la estructuración por dimensiones que autores como Rodríguez & Wachtendorf [14], González [15], Olivera & González [16], Duyne et al [17], entre otros, reconocen su clasificación y que se agrupan de forma general en sociales-culturales, ambientales, tecnológicas y económicas. Para el caso de reasentamiento Correa [18] ha enfocado de forma específica las anteriormente mencionadas en física, legal, económica, social, cultural, política-administrativa, psicológica, ambiental y territorial. Otros autores hacen mención como León [11] los factores intervinientes no se pueden leer como fragmentos separados, interactúan en función dimensiones como la económica, social, política e ideológica y cultural, las cuales se despliegan en un espacio en concreto. Partiendo de lo anterior se definen las variables intervinientes en la selección del hábitat de destino por dimensiones tales como:  Físico - Ambiental: Está determinada por todos los factores intervinientes en la posición geográfica, condicionantes climatológicas, topografía, tipos de suelo, hidrografía, infraestructura técnica existente, accesibilidad.  Político – Administrativo: División política y administrativa de cada contexto, Instituciones encargadas de la toma de decisiones sobre el ordenamiento territorial.  Económica Fuentes de trabajo, potencial productivo, valor de lo existente, movilidad para los encadenamientos productivos  Socio – Cultural Arraigo de las tradiciones del sitio de origen, así como la organización social, el respeto por la cultura local, la determinación de los grupos de riesgo en lo social.  Tecnológica Potencial para la recepción de las tipologías constructivas en el caso de viviendas, el uso de materiales resilientes y sustentables, posibilidades de la fabricación de materiales locales o su traslado. En la segunda etapa se determinó que la selección o muestreo de propuestas definidas como hábitat de destino [19], resultan primordiales dentro del proceso pues llevan implícitos el cumplimento de requerimientos y variables que satisfagan las necesidades de los grupos de interés. En cuanto a los autores estudiados los sitios receptores deben presentar alto potencial productivo o equivalente al sitio de origen, deben estar ubicados rango de cercanía de este. Deben estar preparadas (despejadas, niveladas y accesibles) para alcanzar niveles productivos similares a los sitios de origen. La selección de sitios de reasentamiento proporciona a las poblaciones acceso fiable a recursos productivos (tierras productivas, agua y bosques), empleo y oportunidades de comercio son fundamentales para restablecer los medios de subsistencia. Se debe evitar el desmembramiento de las comunidades. Haciendo énfasis en que se deben ofrecer opciones de sitios receptores para el reasentamiento apropiados. Se debe describir el lugar seleccionado,incluidos los sitios alternativos. Se puede destacar que hace mención de que debe presentarse evaluación preliminar del sitio (incluidos los resultados de la evaluación ambiental del emplazamiento y de la evaluación social de la población de acogida en caso de que proceda), y describir las opciones de vivienda, las necesidades de preparación de la tierra y la infraestructura de servicios (jerarquía de acceso, elementos de infraestructura técnica como agua corriente, electricidad, alumbrado, drenaje y gestión de desechos).Pero no hace mención de esto de una manera sublime sin hacer énfasis en la complejidad multivariable y la multidisciplinariedad requerida, considerando a criterio propio y su importancia que debe de ser de forma exhaustiva [7]. Los textos referencian reiterativamente la complejidad de los procesos de reasentamiento, y su planificación como factor clave en la exploración de alternativas de los sitios receptores. Elevando el concepto tratado de los grupos de interés [20]. Se plantea que el sitio receptor debe ser sensible a las características de la comunidad, identidad cultural y étnica, además del respeto por los grupos vulnerables, su planeamiento y de sus desafíos en reubicar y adaptar la infraestructura las regulaciones del nuevo sitio, muestra que si el sitio no se escoge adecuadamente o no se compatibiliza , puede crear tensiones con el aspecto social [20]. La selección del hábitat tiene su punto de partida en los planificadores, según refieren fuentes bibliográficas y casos de estudio analizados, que son los encargados de concentrar, gestionar y organizar el mayor cúmulo de información y datos necesarios para realizar los análisis. El proceso puede tornarse lento y dilatarse en función de la complejidad y cantidad de variables. Constituye un trabajo multidisciplinar (arquitectos, urbanistas, geógrafos, especialistas en climatología, topógrafos, económicos, sociólogos), que requiere trabajo de mesa (sesiones de trabajo grupal e individual), trabajos participativos con la comunidad, obtención de datos, análisis, etc. Fig. 1 Esquema de proceso por fases para marcar el diseño. Elaboración propia 2. RESULTADOS Y DISCUSIÓN A continuación se exponen las primeras ideas para el diseño preliminar del proceso de relocalización, comenzando por un esquema realizado por el autor partiendo de lo anteriormente planteado, consta de cinco fases que se determinan consecutivamente.(Fig.1) Fase I. Exploración  Análisis preliminar: Realización de un un análisis primario del sitio de origen,determinante en el proceso, se priorizan los indicadores que permita la compatibilización y el emparejamiento con los posibles sitios receptores. En este momento es ideal la recolección de datos necesarios (dimensión poblacional,religión predominante , fuente productiva, cantidad de viviendas, etc). Se planificaría en varias etapas con el apoyo de especialistas de economía, sociología, sicólogos, geógrafos, arquitectos, actores de la gobernanza y de la comunidad.  Caracterización del sitio a reasentar: Descripción exhaustiva y holística del sitio, cercanía al mar, nivel de arraigo al sitio. Realización de encuestas, visitas al sitio con expertos, reuniones exploratorias con la comunidad,mapeo.  Definición de los grupos de trabajos: Conformación de un grupo de expertos multidisciplinario de académicos, de instituciones del Gobierno, del INOTU, encargados de la gestión y planificación del proceso.  Definición de los grupos de interés: es determinante el balance de intereses para mantener el carácter consensuado en la toma de decisiones, aquí se deben enmarcar los roles para poder dialogar y determinar las particularidades de cada caso.  Identificación de los posibles sitios: se debe realizar una propuesta de sitios, esto nos permite ser más directos en las comparativas y crear una muestra por la que va a realizarse un emparejamiento. Fase II. Selección de sitio anfitrión  Definición de variables afines de reasentamiento.: A través de la recopilación de datos, búsqueda documental, y consideraciones del autor se ha confeccionado una biblioteca de variables, que es un aspecto fundamental que rige la investigación. En este sentido autores como González [21], Rodríguez, H. & Wachtendorf [14], Olivera & González [16] , Duyne, J., et al. [17], entre otros, reconocen la importancia de la definición de dichas variables y su agrupación por dimensiones. Lo referido en el aspecto anterior indica la pertinencia de análisis por dimensiones como forma de reafirmar el carácter multidisciplinario e integral del proceso de relocalización:  Físico - Ambiental: 1. Localización (A través de geoposicionamiento): Posición geográfica específica 2. Temperatura media anual: Temperatura estable en el período de un año 3. Asoleamiento: Recorrido solar dadas las coordenadas e irradiación solar 4. Humedad relativa media anual: Comportamiento de la humedad en un período de tiempo determinado. 5. Rango de lluvias media anuales: Comportamiento de las lluvias en un período de tiempo 6. Altura con respecto al nivel del mar: Altura del sitio con respecto al nivel del mar 7. Dirección y velocidad de los vientos: Dirección y magnitud del vector de donde preceden los vientos de la zona. 8. Tipos de suelo: Caracterización de tipo de suelo según su composición (Arenoso, arcilloso,etc.) 9. Topografía: Puntos máximos , mínimos pendientes bruscas, llanos,etc 10. Hidrografía: Escurrentía pluvial, fuentes de agua , ríos, lagunas , manantiales 11. Distancia Acceso Vial: Distancia de los accesos viales  Político – Administrativo: 1. Desechos Sólidos: Existencia de área de desechos planteados por PGOTU. 2. Infraestructura Sanitaria: Existencia de alcantarillado o redes sanitarias. 3. Infraestructura Hidráulica Existencia de acueducto redes sanitarias 4. Infraestructura Eléctrica Existencia de redes eléctricas y conexión a estas 5. Tipo De Zona Clasificación zona urbana o rural  Económica 1. Distancia fuente de trabajo 2. Distancia de servicios básicos 3. Existencia de Fuentes de trabajo  Socio – Cultural 1. Cantidad de personas que habitan en el asentamiento. 2. Tipos de religiones. 3. Arraigo emocional, económico o de distinta índole marcado en las personas sobre su lugar de origen. 4. Rango de edades de los habitantes. 5. Tipos de razas existentes , brinda un alto contenido socio cultural para la definición de los intereses.  Tecnológica 1. Estado constructivo de la infraestructura existente. 2. Existencias de espacios para la construcción de viviendas. 3. Compatibilidad con el uso de materiales. Con respecto a las variables y su compilación, constituyen un primer acercamiento que permitirá llevarlas a criterios de expertos definiendo sus relaciones y cuales tienen mayor peso en el proceso.  Selección del sitio de relocalización: Búsqueda y muestreo de posibles sitios anfitriones, los cuales serán evaluados y analizados a través del algoritmo computacional. Una de las propuestas analizadas es la aplicación de un sistema de inteligencia artificial. La inteligencia artificial tiene dos maneras de aprender: mediante el aprendizaje simbólico y mediante el aprendizaje automático. Esto explica las dos formas en las que una computadora aprende el procediendo a realizar un paralelismo entre lo que los humanos pueden hacer y lo que la computadora hace [22]. Dentro del aprendizaje automático, se encuentra que los seres humanos poseen la habilidad de ver patrones mientras que, las máquinas son aún mejores en el reconocimiento de patrones porque pueden usar más información y dimensiones de datos tanto como su procesamiento. Los seres humanos pueden hablar y escuchar para comunicarse a través del lenguaje, este es el campo del reconocimiento de voz, que se encuentra dentro del aprendizaje estadístico. [22] La inteligencia artificial puede desarrollar tareas de mayor o menor complejidad, permitiendo la reducción de errores y mayor factibilidad de las soluciones. Importante destacar que este tipo de inteligencia acortaría los tiempos de implementación de los planes de reasentamiento, reduciría los costos, y ampliaría el espectro de análisis de datos., sin dejar de funcionar como un ser humano [23]. La definición de las variables constituye el punto de partida para el diseño del Sistema de inteligencia artificial, que, vinculado a los métodos tradicionales, apoyaría el proceso de relocalización de comunidades costeras por efectos del cambio climático. Está basada en un posterior mejoramiento, donde se aplicarán diversas técnicas: criterio de expertos, cálculos de peso de cada variable, etc., para su posterior refinamiento. Se recurre a dicho sistema como una vía para el apoyo y acompañamiento del proceso de relocalización que permita obtener resultados más certeros en límites de tiempo menores. Todo ello, orientado a lograr una simbiosis de los métodos tradicionales con las nuevas tecnologías en post del desarrollo y mejor eficiencia de la planificación del ordenamiento territorial y la calidad del hábitat.  Selección del sitio anfitrión: En esta etapa se desarrollaría el proceso de toma de decisiones donde los resultados obtenidos se llevarán a consulta y participación comunitaria. Fase III. Puesta en práctica del reasentamiento Planificación e implementación a mediano y largo plazo del plan de reasentamiento con la selección del sitio anfitrión. Fase IV. Evaluación de la efectividad del reasentamiento -Medir la efectividad del reasentamiento Medición y nivelación después de aplicado el reasentamiento para la comprobación del nivel de efectividad del proceso -Determinar la brecha y el sistema de acciones. En caso de que la existencia de problemas e incompatibilidades, se detectarían y se utilizarían para planificar un sistema de acciones que ayuden y solucionen los problemas, permitiendo el mejoramiento del proceso. En la investigación como primera propuesta en este tema se pretende aplicar a casos de estudios existentes internacionales como nacionales. Fase V. Planificación e implementación de las acciones Aquí interviene directamente la planificación e implementación el sistema de acciones planificadas sobre el sitio anfitrión. 4. CONCLUSIONES En nuestro país la actividad de relocalización se ha desarrollado con carencias a lo largo de los años por el carácter multidimensional del proceso. Mediante el estudio de fuentes teóricas de referencia y análisis se obtuvo una aproximación al funcionamiento de los procesos de relocalización y sus variables intervinientes. Es por ello que la presente investigación reafirma la necesidad de un trabajo detallado sobre el diseño de un proceso en la selección del sitio de destino y con respecto a las variables y su interrelación como elementos primordiales en los procesos de reasentamiento y selección de sitio de destino. Es importante tener en cuenta que el desarrollo de técnicas de recopilación y análisis de datos sentarían las bases para el diseño de un algoritmo que sustente un sistema de inteligencia artificial que apoye al proceso de toma de decisiones en la planificación y el reordenamiento territorial beneficiando la calidad de vida de las personas y permitiéndoles habitar de manera resilientes y de forma sostenible. REFERENCIAS [1] C. M. Rodríguez, "Asentamientos humanos costeros vulnerables al ascenso del nivel medio del mar por cambio climático en Cuba." 2021. [En línea]. Disponible en: https://www.ipf.gob.cu/es/content/asentamientos-humanos-costeros-vulnerables-al-ascenso-nivel- medio-mar-por-cambio-clim%C3%A1tico [2] Defensa Civil, "Intervención frente a los desastres en Cuba." Ciudades para un futuro más sostenibles., 1996. [3] S. Robles, "Impactos del Reasentamiento por vulnerabilidades en areas de alto riesgo.Bogota,1991- 2005", Universidad Nacional de Colombia, Bogota, 2007. [4] G. González, "Recomendaciones para el reasentamiento del hábitat en riesgo de desastres naturales en las condiciones cubanas.", Tesis de Maestría, Universidad Central¨ Marta Abreu¨ de Las Villas. Facultad de Construcciones. Departamento de Arquitectura., Santa Clara, 2014. [5] G. G. Camacho, A. O. Ranero, D. P. Echemendía, R. J. C. Castelo, y G. M. M. Nodarse, "El desafío de la gestión del riesgo de desastre en la sostenibilidad de asentamientos costeros", Arquit. Urban., vol. 41, n.o 2, pp. 5-16, 2020. [6] G. González-Camacho y A. Olivera-Ranero, "Recuperación a riesgo de sostenibilidad", AUS Arquit., n.o 29, pp. 58-67, 2021. [7] R. English y F. E. Brusberg, "Manual para la preparación de un plan de acción para el reasentamiento". 2002. [En línea]. Disponible en: http://www.prosap.gob.ar/docs/UAS- PlanParaReasentamiento.pdf [8] A. Bahamón, L. Fernández Naar, y E. %J P. de la A. E. de C. S. A. González Sánchez, "Lineamientos a 2030 para la adaptación y mitigación al riesgo del aumento del nivel del mar (ANM) en el sector turístico del borde litoral de Cartagena de Indias-Colombia", 2012. [9] J. Maldonado Estada, "Los programas de reasentamiento en el contexto de desastres ambientales: multidimensionalidad del proceso e intervención a través de la participación ciudadana. El caso de Ciudad España-Honduras", 2016. [10] L. Laos, "Gestión de los reasentamientospoblacionales generados por proyectos de desarrollo: caso de la población desplazada de Huabal.", Tesis de Maestría, PONTIFICIA UNIVERSIDAD CATÓLICA DEL PERÚ, Lima-Perú, 2017. [11] C. León, "Reasentamiento de poblaciones en el Perú por proyectos mineros y de infraestructura: diálogo entre prácticas y teoría social", Debates En Sociol., n.o 44, pp. 5-30, 2017. [12] E. Correa y others, "Reasentamiento preventivo de poblaciones en riesgo de desastre: Experiencias de América Latina", en Reasentamiento preventivo de poblaciones en riesgo de desastre: Experiencias de América Latina, 2011, pp. 224-224. [13] G. E. G. May, H. A. P. Gil, y R. M. C. Zambrano, "Reasentamientos: una mirada conceptual desde el ordenamiento territorial y la gestión de riesgos", AXIOMA, n.o 24, pp. 15-20, 2021. [14] T. Wachtendorf, J. M. Kendra, H. Rodriguez, y J. Trainor, "The social impacts and consequences of the December 2004 Indian ocean tsunami: observations from India and Sri Lanka", Earthq. Spectra, vol. 22, n.o 3_suppl, pp. 693-714, 2006. [15] G. González Camacho, "Bases para la Toma de Decisiones Locales en la intervención Post-Desastre destinada a la recuperación del fondo habitacional", PhD Thesis, Universidad Central" Marta Abreu" de las Villas, 2010. [16] A. Olivera y G. González, "Enfoque multidimensional de la reconstrucción post-desastre de la vivienda social y el hábitat en países en vías de desarrollo: estudios de casos en Cuba", Rev. Constr., vol. 9, n.o 2, pp. 53-62, 2010. [17] J. Duyne Barenstein, A. Jha, P. Phelps, D. Pittet, y S. Sena, "Safer Homes, Stronger Communities. A Handbook for Reconstruction After Natural Disasters". The World Bank/GFDRR, 2010. [18] E. Correa, F. Ramírez, y H. Sanahuja, "Guía de reasentamiento para poblaciones en riesgo de desastre", The World Bank, 2011. [19] J. C. Marín Villegas y M. C. Villamizar Bermúdez, "Marco teórico para el desarrollo de una metodología de evaluación expost de hábitats para el reasentamiento por alto riesgo en Bogotá DC", 2019. [20] D. Manou, A. Baldwin, D. Cubie, A. Mihr, y T. Thorp, Climate change, migration and human rights: Law and policy perspectives. Taylor & Francis, 2017. [21] G. G. Camacho, "Recomendaciones para el reasentamiento del hábitat en riesgo de desastres naturales en las condiciones cubanas", 2014. [22] J. L. Durand-Labán, "Aplicaciones De La Inteligencia Artificial En La Arquitectura: Caso De Estudio: Predicción De Tipos De Espacio Usando Grasshopper Y Rhinoceros", Paid. XXI, vol. 9, n.o 2, 2019. [23] S. J. Russell y P. Norvig, Inteligencia Artificial: un enfoque moderno. 2004. APUNTES HISTÓRICOS SOBRE LA VIVIENDA SOCIAL EN ASENTAMIENTOS RURALES DE MONTAÑA Arq. Pedro Tex Martínez Cuevas1 1Universidad Central “Marta Abreu” de Las Villas. Facultad de Construcciones. Departamento de Arquitectura, Carretera a Camajuaní Km. 5 y 1/2. Santa Clara. Villa Clara. Cuba, mcuevas@uclv.cu1 RESUMEN Las soluciones arquitectónicas de vivienda social ejecutadas en los asentamientos rurales de montaña no siempre han cumplido con las necesidades y características de su entorno natural y social. La investigación tiene el objetivo de analizar los referentes históricos de la vivienda social en asentamientos rurales de montaña, realizados en Cuba desde el triunfo de la Revolución hasta la actualidad. Se emplearon métodos históricos-lógicos y analíticos-sintéticos como: análisis documental, síntesis de información bibliográfica y sistematización de la información científico-técnica, yendo de la inducción a la deducción y de lo general a lo particular. Con el estudio se alcanzaron un conjunto de variables que influyen en el diseño arquitectónico de la vivienda social en dichos asentamientos. Igualmente se sintetizaron un compendio de características comunes y criterios de diseño determinantes en la arquitectura de estas viviendas. Las soluciones de vivienda realizadas en estos asentamientos en Cuba durante la etapa revolucionaria fueron permeadas por condicionantes sociales, políticas y económicas, con propuestas más adecuadas que otras. Algunos referentes demuestran la necesidad de la experimentación en varios ámbitos referidos al diseño de la vivienda, asumiendo incluso la escasez como otra variable a resolver. Sin embargo, también existen antecedentes criticables, donde se evidencian las referidas contradicciones entre las necesidades de los pobladores y el diseño de su vivienda en estas serranías. Actualmente, la vivienda social en asentamientos rurales de montaña requiere de una mirada particular e innovadora desde su diseño, permitiendo soluciones más apropiadas a las necesidades y expectativas de sus habitantes. PALABRAS CLAVES: Vivienda social, Asentamiento rural de montaña, Diseño arquitectónico. HISTORICAL NOTES ABOUT SOCIAL HOUSING IN RURAL MOUNTAIN SETTLEMENTS ABSTRACT The architectural solutions for social housing implemented in rural mountain settlements have not always met the needs and characteristics of their natural and social environment. The research has the objective of analyzing the historical references of social housing in rural mountain settlements, carried out in Cuba from the triumph of the Revolution to the present. Historical-logical and analytical-synthetic methods were used, such as: documentary analysis, synthesis of bibliographic information and systematization of scientific-technical information, going from induction to deduction and from the general to the particular. With the study, a set of variables that influence the architectural design of social housing in these settlements were reached. Likewise, a compendium of common characteristics and determining design criteria in the architecture of these houses were synthesized. The housing solutions carried out in these settlements in Cuba during the revolutionary stage were permeated by social, political and economic conditions, with more adequate proposals than others. Some references demonstrate the need for experimentation in various areas related to housing design, even assuming scarcity as another variable to solve. However, there are also criticizable antecedents, where the aforementioned contradictions between the needs of the inhabitants and the design of their homes in these mountains are evident. Currently, social housing in rural mountain settlements requires a particular and innovative approach from its design, allowing more appropriate solutions to the needs and expectations of its inhabitants. KEY WORDS: Social housing, Rural mountain settlement, Architectural design. 1. INTRODUCCIÓN La vivienda en Cuba resulta un tema pendiente a resolver, aún con el esfuerzo y emprendimiento realizado por el gobierno revolucionario desde los primeros días de 1959. La constante demanda de viviendas requiere de continuos y crecientes planes habitacionales que la enfrenten. En Cuba estos planes se han desarrollado en diferentes etapas, contextos y con calidad muy variable. Por otra parte, los esfuerzos a nivel internacional sobre el tema de la vivienda se han enfocado en el contexto urbano por la concentración de fenómenos que en él se despliegan. Mientras las zonas rurales no adquieren tal relevancia. Sin embargo, en el caso cubano el desarrollo urbano ha sido priorizado de similar manera, pero sin olvidar las zonas rurales por la progresiva necesidad de producción agroalimentaria. El Gobierno Cubano ha apostado por el desarrollo cooperativo y conjunto en las zonas rurales, concentrando la fuerza de trabajo en asentamientos y no de forma dispersa. La vivienda rural constituye entonces un pilar fundamental para tales emprendimientos. Existen incontables estudios sobre la vivienda y sus definiciones. La gran mayoría de los autores coincide en que es la célula básica de los asentamientos humanos, donde se agrupan personas (familias) y realizan disímiles actividades relacionadas con su entorno. La vivienda adquiere, además, múltiples dimensiones: cultural, política, económica y otras. Por otra parte, constituye una representación del individuo [1]. En cuanto a vivienda las Normas Cubanas (NC) relacionadas establecen varias definiciones. La NC 440: plantea la vivienda social urbana como aquella gestionada y financiada por el Estado para la mayoría de la población. [2] Mientras la NC 1055-1: 2014, se refiere a la vivienda rural como una clasificación dentro de las viviendas gestionadas y financiadas por el estado cubano, además la ubica en el ámbito rural y agrega el desarrollo de actividades vitales de las familias que la habitan de forma aislada o en asentamientos no clasificados como urbanos, concentrados o dispersos. [3] De lo anterior se puede inferir entonces que la vivienda social en Cuba es planificada y ejecutada por mecanismos estatales para grandes masas populares y puede ser urbana o rural de acuerdo a su emplazamiento. Por otro lado, dentro del entorno rural nacional las zonas montañosas constituyen un hábitat de vital importancia por varias razones, pues constituyen los principales bastiones previstos para la defensa nacional, se producen renglones agropecuarios de alto valor económico como el café, el cacao y la madera. Además, radican las principales reservas forestales e hídricas del archipiélago, y constituyen áreas de alto valor ecológico con reservas naturales de excepcional biodiversidad en flora y fauna [4]. En estos asentamientos el país necesita mantener población laboral activa y fomentar su crecimiento para lograr un desarrollo sostenible. Una mirada hacia la vivienda de montaña puede aportar indicios de cómo enfrentar en la actualidad su diseño desde otra perspectiva. Ciertamente la vivienda en estos asentamientos montañosos constituye una fracción de toda una problemática compleja que necesita un enfoque multidimensional en su estudio. No obstante empezar el análisis desde la vivienda, como núcleo básico de estos asentamientos, puede influir en la comprensión de otras dimensiones actuantes en este hábitat. Las soluciones arquitectónicas de vivienda social ejecutadas en los asentamientos rurales de montaña no siempre han cumplido con las necesidades y características de su entorno natural y social. En múltiples ocasiones se han importado soluciones urbanas que no son adecuadas para la serranía. Por otra parte, los estudios realizados sobre el tema son escasos, dispersos e insuficientes, fundamentalmente en aspectos sociales sobre las necesidades y expectativas poblacionales en cuestiones de vivienda. De ahí la relevancia de entender los antecedentes históricos en el ámbito de vivienda social en asentamientos rurales de montaña. Tomando lo anterior como base se podrán establecer patrones y regularidades en el diseño que permitirán aportar soluciones habitacionales más adecuadas al contexto actual. 2. MATERIALES Y MÉTODOS La investigación tiene el objetivo de analizar los referentes históricos de la vivienda social en asentamientos rurales de montaña, realizados en Cuba desde el triunfo de la Revolución hasta la actualidad. Para ello se determinaron diferentes etapas de análisis del problema investigativo. Se abordaron temáticas y etapas específicas que se estructuraron desde lo general hasta lo particular. El proceso metodológico requirió del análisis, selección y síntesis de fuentes bibliográficas relacionadas con investigaciones previas afines con la vivienda social en asentamientos de montaña. La investigación tiene como base una exhaustiva revisión de la información bibliográfica existente sobre la vivienda social en asentamientos rurales de montaña, además de planos y fotografías de archivo que permitieron definir los objetivos y alcance de la indagación. El método histórico lógico posibilitó ubicar las soluciones habitacionales en sus determinados contextos. El método teórico de análisis y síntesis se empleó en la revisión de soluciones puntuales y específicas que permitieron establecer determinadas características y criterios de diseño. La información recopilada se procesó a través de estudios comparativos, lo que permitió arribar a conclusiones. La revisión documental abarcó referentes desde 1953 hasta el 2022, en las siguientes fuentes: reportes de investigación, memorias de congresos, revistas especializadas, normas, decretos, libros, tesis, entre otros. 3. RESULTADOS Y DISCUSIÓN Preámbulo (antes de 1959) Antes del triunfo de la Revolución, la vivienda rural no era diseñada por profesionales, sino creadas y ejecutadas por la población de acuerdo con las tradiciones transmitidas de generación en generación. Solo se conoce un caso de vivienda para campesinos diseñada por arquitectos en la década del cuarenta[5]. Asimismo, la situación general del campesinado cubano en estos años era deplorable. En 1953 así lo plasmaba Fidel Castro en el documento histórico, La Historia me Absolverá: «…a los quinientos mil obreros del campo que habitan en los bohíos miserables, que trabajan cuatro meses al año y pasan hambre el resto, compartiendo con sus hijos la miseria, que no tienen una pulgada de tierra para sembrar… a los cien mil agricultores pequeños, que viven trabajando una tierra que no es suya… para morirse sin llegar a poseerla, que tienen que pagar por sus parcelas como siervos feudales una parte de sus productos, que no pueden amarla, ni mejorarla, ni embellecerla, plantar un cedro o un naranjo, porque ignoran el día que vendrá un alguacil con la guardia rural a decirles que tienen que irse…» [6]. De esta manera quedaba expuesta la precariedad del hábitat rural donde la vivienda protagonizaba un eslabón fundamental para solucionarla. De acuerdo con Rabinovich [7] en las zonas rurales en 1958, el 63% de las viviendas poseía suelos de tierra, el 91% necesitaba de alumbrado eléctrico y el 97% estaba considero como viviendas en mal estado. En ese mismo año se sucederían varios acontecimientos por parte del Ejército Rebelde relacionados con la situación del campesinado cubano radicado fundamentalmente en las montañas orientales y centrales del país. En septiembre de ese año se efectuó el Congreso Campesino en Armas con delegados de varios poblados pertenecientes al macizo montañoso Nipe-Sagua-Baracoa. Posteriormente en octubre en la Sierra Maestra, fue decretada por Fidel la Ley No. 3 del Ejército Rebelde relacionada con el Derecho de los campesinos a la tierra, conocida como Ley Agraria del Ejército Rebelde. Finalmente se conforma el Buró Campesino en zonas del macizo Guamuhaya, Villa Clara por el Che [8]. Dichos sucesos sirvieron como asidero para futuros emprendimientos al triunfo revolucionario, sobre todo referidos al tema agrario sin embargo sentaron las bases para medidas futuras a implementar en cuanto a vivienda. Por otra parte, la concentración de acciones combativas del Ejército Rebelde en la primera etapa del conflicto, se enmarcó fundamentalmente en el contexto montañoso, primero oriental y luego central. Como consecuencia se establecieron fuertes nexos entre ambas partes (campesinado y guerrilleros) y el conocimiento de la situación de estos entornos era muy cercana para los líderes revolucionarios. Tal es así que las primeras medidas establecidas por el incipiente gobierno serían precisamente en estos contextos. Transformando un país (1959-1969) Sobre los inicios del gobierno revolucionario en temas de vivienda Rabinovich [7] plantea tres líneas vitales de trabajo iniciadas en los tres primeros años: la transformación básica del régimen de propiedad y del valor del suelo; el rescate de la planificación territorial para reestructurar integralmente el territorio y la implementación de planes y proyectos de vivienda como bien social accesible a todos los sectores de la población. Lo anterior se evidencia en fecha tan temprana como abril de 1959. El joven gobierno otorga un total de 2 millones de pesos para la ejecución de viviendas campesinas, como resultado además se crea el Departamento del Ejército Rebelde para la Construcción de Viviendas Campesinas. En mayo de ese mismo año se realiza la primera ley de Reforma Agraria y se funda El Instituto Nacional de Recursos Agrarios (INRA), el cual asumiría en 1960 la construcción de viviendas campesinas con la Dirección del mismo nombre (DVC). Este grupo de trabajo ejecutó en 1 año 12 500 viviendas en zonas rurales[8]. La gran mayoría de ellas ubicadas en las montañas de la Sierra Maestra y Nipe-Sagua-Baracoa. Por otro lado, a mediados de 1960 en El Rosario, Valle de Viñales en Pinar del Río se entregaron 120 viviendas rurales[8]. En 1963 con la creación del Ministerio de Obras Públicas (MOP) 1 año antes, se inicia la construcción de la comunidad de la Campana en Manicaragua, Villa Clara. Este proyecto del arquitecto Fernando Salinas constituye un ejemplo de buenas prácticas en contextos semi - montañosos, entre otras cosas por la funcionalidad de la propuesta arquitectónica[9]. En 1961 se constituye la Asociación Nacional de Agricultores Pequeños (ANAP) institución que impulsó la dinámica revolucionaria, organizando a los campesinos y mejorando sus condiciones de vida. Mientras hacia 1963 se realiza la Segunda Ley de Reforma Agraria, nuevamente constituyó otra promoción para el desarrollo de las zonas rurales del país[8]. En 1968 se inicia el proyecto de las Terrazas, Artemisa[9], la solución urbana-arquitectónica de dicha comunidad constituye un exponente de revisión obligatoria en las propuestas de vivienda social de montaña en Cuba. Su relevancia destaca por muchas razones, Osmany Cienfuegos el arquitecto principal del conjunto comentaba algunas de ellas: …Era necesario agrupar a la población dispersa que vivía en condiciones de extrema pobreza, y construir un pueblo donde aquellos campesinos pudieran disfrutar de lo que se les debía [...]. La urbanización debía dar continuidad a la imagen del trazado de las montañas terraceadas siguiendo las curvas de nivel [...]. En la cima de aquella elevación estaría la Plaza del pueblo donde se concentrarían los servicios de la comunidad. Desde allí se contemplarían las viviendas a lo largo de las zigzagueantes callejuelas, una hacia las zonas de corte y otras en voladizo […]. El pueblo sería a la medida de los que allí irían a vivir. Los campesinos, en continuas consultas para el diseño, reclamaban - muchas puertas y ventanas- … » [10]. De manera general en los primeros años del período se prioriza la construcción de viviendas en el campo para solucionar los problemas económicos. La vorágine constructiva imposibilitaba la experimentación o investigación, aplicando modelos anteriores y efectivos por la pequeña burguesa suburbana, en soluciones extensivas. Más adelante se enfoca el problema hacia la producción agropecuaria y se desarrolla la infraestructura técnica de apoyo (redes viales, eléctricas, embalses), con una visión territorial y no sectorial de estos asentamientos. Además, se desarrollan experiencias orientadas a rescatar la variedad de los conjuntos, con soluciones adecuadas en lo funcional y expresivo. A partir de 1968 se introducen paulatinamente los sistemas prefabricados de tecnología soviética facilitando la construcción de nuevos asentamientos rurales con edificios multifamiliares de 4 y 5 plantas [5]. Igualmente, en esta etapa se construyeron varios asentamientos rurales en la montaña fundamentalmente en los macizos Nipe -Sagua- Baracoa y Guamuhaya. Destacándose comunidades como Boquerones y Jibacoa en Manicaragua, Villa Clara. Mientras en el oriente son relevantes Los Arados y El Veril, Maisí, Guantánamo [11]. Muchos de ellos relacionados a diversos planes agrícolas del cultivo del café, cacao, forestales e incluso de hortalizas o lecheros como es el caso del Plan Tomate en la Sierra Maestra (1965) y las vaquerías Pinares de Mayarí (1966)[8]. Cárdenas [12] considera que la implementación de los programas masivos de vivienda durante esta etapa se alejan de los resultados propuestos, pues se abusa de los proyectos típicos. Además, se perdió el enfoque de flexibilidad en la industrialización quedando relegada a la prefabricación. Igualmente se desentiende la dimensión cultural de la vivienda. Todos estos factores disminuyeron considerablemente la calidad arquitectónica. Por su parte Rabinovich [7] divide la etapa en dos. La primera fase donde colaboraron el Instituto Nacional de Ahorro y Vivienda (INAV) y el Colegio de Arquitectos, en una búsqueda conjunta de soluciones de vivienda adecuadas. Se puede decir que existió un equilibrio en el diseño entre aspectos estéticos, espaciales y funcionales, reforzados con el dominio de cuestiones económicas y técnicas. Mientras la segunda fase (hacia 1965) se relaciona directamente con el protagonismo de la pre fabricación. En este contexto, las soluciones priorizaron factores productivos y de montaje ante otras dimensiones de la nueva vivienda. En cuanto a la vivienda rural, durante estos años fue asumida por el INRA, destacándose el enfoque agro -productivo de las soluciones. El concepto de vivienda campesina estaba arraigado a la producción de alimentos a pequeña escala o de subsistencia. De ahí que la vivienda social en asentamientos de montaña también adquiriera estas características. Industrialización de la vivienda rural (1970-1979) Sobre la vivienda rural cubana en esta etapa, la mayoría de los autores coinciden acerca del empleo tecnologías de prefabricado de gran formato y la negación de la experimentación realizada hasta ese momento. Se prioriza el costo económico ante la funcionalidad o la volumetría de las propuestas[5]. La tipificación constructiva de estas soluciones empleadas para mejorar las condiciones de vida de los campesinos bajo el paradigma de “modernidad y bienestar”, alteró las formas de habitar de la población local debido a la rigidez de las soluciones. A consecuencia surgieron comunidades aisladas en el paisaje, apenas poseedoras de cualificación contextual y particularidad formal. Es cierto que garantizaron una vivienda a miles de familias, con apartamentos de más de 60 m2[9]. Por otra parte, durante esta década se constituyó el Grupo de Comunidades, un espacio que garantizó por primera vez en el país, la simbiosis entre arquitectos, urbanistas, sociólogos y trabajadores sociales. Uno de los grandes aportes de este grupo fueron las investigaciones sobre modos, formas de vida y necesidades de los habitantes. Otro de los temas recurrentes fue la discusión sobre el carácter, tamaño y ubicación de las comunidades rurales [12]. Mientras en las zonas montañosas durante esta década se construyeron más de 15 asentamientos en el macizo de Nipe-Sagua-Baracoa, específicamente en Guantánamo y Holguín, posiblemente relacionado con varios planes agropecuarios en el cultivo de café y cacao [11]. En 1970 se crea el Centro de Beneficio de Cacao en Jamal, Baracoa. Luego en 1975 se funda la estación Central de Café y Cacao en II Frente. Posteriormente en 1978 se inicia el Plan de Recuperación Cafetalera y Cacao en todo el país [8]. De igual manera en Manicaragua, Villa Clara se construyen asentamientos en el macizo montañoso, destacando las comunidades de Can Can y Cordovanales [8]. Específicamente en la región de Topes de Collantes, Trinidad, Sancti Spíritus, en investigaciones realizadas, aparece el diseño de una vivienda con tecnología Sandino, el cual se empleó en determinados proyectos típicos. El análisis de esta solución reflejó su inadecuación al entorno, la negación de la relación interior-exterior, entre otros. Se pudo inferir además, que posiblemente dicha propuesta deviene de una adaptación de un modelo típico urbano [13]. La relevancia de esta solución radica en la metodología de trabajo empleada durante esta etapa, pues se “reciclaban” diseños arquitectónicos urbanos en las empresas para “importarlos” en espacios rurales de todo tipo incluidos los de montaña, con los inconvenientes y problemas a corto plazo que suponía. Algunos cambios organizativos en esta etapa contribuyeron a la calidad arquitectónica de los planes de vivienda que se extendieron por todo el país. El Ministerio de la Construcción (MC) absorbió instituciones como el INAV y la DVC. En 1967 se disolvió el Colegio de Arquitectos sustituido en 1968 por el Centro Técnico Superior de la Construcción. Con la dirección del MC se definieron únicamente dos líneas básicas de desarrollo para la vivienda: la primera relacionada con la construcción artesanal, pero aplicándola a edificios multifamiliares, incluso ubicados en zonas rurales. La segunda línea desarrollada se determinó por la prefabricación pesada y la industrialización, relacionada con criterios de desarrollo constructivo [7]. Otra de las peculiaridades de esta etapa radica en la formación de micro brigadas como forma organizativa para la ejecución de las viviendas. En el caso de la vivienda de montaña quizás no se pudo emplear de manera efectiva, pues requería la incorporación de los habitantes a estas labores, interrumpiendo las suyas propias. No obstante, se emplearon otras alternativas como la autoconstrucción. Recolonizando la montaña (1980-1989) Durante esta etapa las zonas montañosas adquieren importancia a nivel nacional, no solo en temas habitacionales o de repoblamiento, sino desde lo institucional y académico. Es en estos años donde más asentamientos se realizan en los diferentes lomeríos cubanos, quizás propulsados por un florecimiento económico que repercutió en el impulso constructivo. La región oriental fue la más desarrollada con aproximadamente 35 asentamientos donde casi el 98 % de estos radicaban en Nipe-Sagua-Baracoa. En Guamuhaya, de igual forma, se ejecutaron 9 comunidades, reforzando las áreas adyacentes de Manicaragua, Villa Clara [8]. Muchas de las soluciones de vivienda empleadas en los asentamientos anteriores se relacionan con las llamadas "viviendas económicas” desarrolladas por el Ministerio de la Agricultura el (MINAGRI) y las Cooperativas de Producción Agropecuaria (CPA), soluciones uniplanta, de bloques, ladrillos o sistema "sandino" en paredes, y cubierta de tejas o canalón de asbesto cemento, con reducidos materiales de terminación y construcción con mano de obra no calificada. Estas soluciones se vieron despreciadas, entre otras razones, porque no se incorporaron costos de micro localización e infraestructura, ni se incluía una parcela para la ganadería y agricultura de auto sustento [5]. En este período, además, se reforzaron los planes forestales y en 1983 se implementaron las Empresas Agropecuarias Mixtas de Montaña (EMA) creándose 25 empresas de este tipo[8]. En ese mismo año se funda la Unión Nacional de Arquitectos e Ingenieros de la Construcción de Cuba (UNAICC). A pesar de la ausencia de autonomía necesaria por parte del gremio de arquitectos se realizan intercambios de ideas y convocatorias a concursos que repercutieron en las soluciones de vivienda rural posteriores [12]. En el medio rural, señala Cárdenas [12], era necesario revitalizar los planes de desarrollo en áreas montañosas. Como resultado en 1987, con el surgimiento del Plan Turquino, se retoma el enfoque integral hacia la montaña. A pesar de que no se concibieron criterios unificadores para el diseño arquitectónico de estas viviendas, se buscaba una vinculación directa con la parcela circundante, evitando edificios altos. Las circunstancias contextuales y la situación económica del país, exigieron el rescate de soluciones locales con el empleo de recursos materiales disponibles [5]. El Plan Turquino constituye un punto de partida para la comprensión de la complejidad de este hábitat y la necesidad de gestionarlo integralmente. La academia por su lado, representada por varias universidades del país recibieron el encargo de asistir el diseño de las viviendas ante la creciente demanda generada por los planes propuestos. En este quehacer aparecieron soluciones a casos particulares y otras típicas. Así lo explicitaba Villalvilla [14] en 1984, cuando expuso varias de estas propuestas. De ellas son significativas las viviendas de 2 y 3 habitaciones para una CPA en el Valle de Viñales, de estructura de madera y cubierta de cerámica roja (tejas criollas), así como las viviendas de 2 y 3 habitaciones, con estructura de ladrillos y cubierta de hormigón armado o asbesto cemento pensadas para CPA tanto en el llano como de montaña. Lo peligros de esta última radicaba en la desconexión de la solución con las especificidades del entorno montañoso. Sin embargo, uno de los ejemplos de vivienda más logrados y adecuados a los entornos de montaña del país se realizó en 1989, mediante el concurso (Tres diseños para mejorar las condiciones de vida en la montaña), auspiciado por: UNAICC, Instituto de Planificación Física (IPF), Instituto Nacional de Vivienda (INV) y Ministerio de las Fuerzas Armadas Revolucionarias (MINFAR). Las soluciones allí presentadas combinan la interacción del medio natural con las necesidades de los habitantes y el empleo de tecnologías apropiadas, todo lo anterior en cohesión con una expresión atractiva y variada. Por la calidad de las propuestas se implementaron en asentamientos de montaña de Pinar del Río y Las Tunas [15]. Este ejercicio docente, devenido en proyecto, representa un precedente en el estudio del diseño arquitectónico de la vivienda de montaña no solo por los elementos ya mencionados sino por la multidimensionalidad en el análisis y el novedoso enfoque de las soluciones. Adicionalmente este estudio constituyó un detonante para posteriores investigaciones académicas concernientes a la vivienda rural, la vivienda de montaña o el entorno montañoso en sí, con una influencia evidente del emergente Plan Turquino como Programa del País. Tiempos de Crisis (1990-1999) La caída del socialismo en el este de Europa propició fuertes impactos en la economía cubana tales como la paralización de algunos programas sociales y económicos. Para no interrumpir completamente la construcción de viviendas se redujo el consumo de varios recursos: cemento, acero, madera, cables eléctricos e instalaciones hidrosanitarias. Así comienza en 1992 el llamado “Movimiento de viviendas de bajo consumo material y energético” o “bajo costo”. Asimismo, se buscaron tecnologías “alternativas” de construcción para hacer posible este objetivo [9]. Cárdenas analiza el tema anterior partiendo de la contradicción existente entre el ahorro de materiales en el proceso constructivo y la eficiencia energética de las viviendas, reflejada en la inadecuación climática. Paralelamente a las carencias en la calidad estética, reaparece la preocupación por la identidad social en la vivienda, como respuesta apropiada a los modos de vida, expectativas sociales y culturales [12]. A consecuencia de la extraordinaria depresión económica que afrontaba la isla, la construcción de viviendas rurales se vio altamente afectada. Las regiones montañosas, al igual que todo el país, recibieron el impacto de la escasez, pero asumió diferentes grados de complejidad en los distintos macizos montañosos de acuerdo con su desarrollo [16]. Durante estos años no se construyeron nuevos asentamientos en ninguno de las cuatro regiones montañosas y en algunos casos más críticos, hacia 1995 varias comunidades ya establecidas fueron abandonadas por completo. Algunos ejemplos son: Minas, Centro Cubano en Cumanayagua, Cienfuegos y Caney, Sitio Yeras en Manicaragua, Villa Clara [11]. De esta manera comenzaba un éxodo poblacional que desestabilizó los planes productivos en las serranías. Sin embargo, se diseñaron soluciones de vivienda muy puntuales relacionados a intereses no agrícolas como es el caso de "El Peñique” en Topes de Collantes, Trinidad, Sancti Spíritus. Esta propuesta desarrollada en 1990 recupera la tecnología tradicional e intenta respetar la topografía del lugar [13]. No obstante, pierde en gran medida la relación directa con el entorno por ser edificios de 4 niveles. Otro aspecto notable, es su carácter urbano para una zona de nuevo desarrollo en ese lugar y no vinculados a actividades productivas agropecuarias. En estas zonas, además, se redujo al mínimo la autoconstrucción o el empleo de las micro brigadas, no solo por la escasez de materiales de construcción, sino también por la desconectividad y el aislamiento de muchos asentamientos, donde el acceso y la transportación de materiales era difícil. Como resultado se reforzaron materiales y técnicas endógenas del lugar, hasta el momento relegadas por falsos criterios de modernidad. Además, varios programas empleados en el país para asesorar en temas de vivienda, como el Arquitecto de la Comunidad o la Organización no Gubernamental Hábitat-Cuba, se enfocaron casi exclusivamente en las zonas urbanas. Sin embargo, estas experiencias dejaron un saldo positivo en materia de participación y gestión de la vivienda, que luego se aplicarían en entornos rurales. Se puede decir que en esta década existió una paralización casi total de la vivienda en asentamientos rurales de montaña y su proceso de recuperación fue más lento que en otras zonas. Como resultado en 1995 se crea la Comisión Nacional Plan Turquino-Manatí, por el Decreto No. 197, con un enfoque hacia el desarrollo integral de las regiones montañosas, la conservación de sus ecosistemas y los programas de reforestación del país, así como transformar las condiciones del hábitat de las montañas y zonas aisladas [8]. Nuevos escenarios (2000-Actualidad) El nuevo siglo irrumpió en Cuba con un ligero y sosegado incremento macroeconómico. En las zonas rurales del país la situación habitacional fue tornándose más favorable. Hacia el año 2003 existían en el Plan Turquino un total de 195 725 viviendas de 114 625 en el año 1988. No obstante, al finalizar este año el 34,8 % de las viviendas se encontraban en mal estado [16]. En el caso de las regiones montañosas aparecieron varias medidas que propiciaron el desarrollo de la vivienda. En el 2008 se implementa la Norma Cubana (NC) 652:2008 en la cual se fundamentan criterios sobre el diseño de la vivienda rural de manera genérica, dicha norma actualiza aspectos de la NC 53-76 de 1983. Sin embargo, el documento adquiere un enfoque técnico, enfatizando en cuestiones funcionales, espaciales y de materiales. También hay que mencionar que por estos años el gobierno toma la decisión de reestructurar a nivel centralizado los servicios educacionales y de salud en las regiones de montaña, lo cual conspiró en contra de la sostenibilidad de estas comunidades. Muchas de ellas quedaron sin los servicios básicos y comenzaron a depender de la movilidad hacia otros territorios para garantizar la atención de salud y educacional. Por otra parte, en el 2014 se pone en vigor el Decreto Ley (DL) 329 referente al funcionamiento del Plan Turquino y establece una Comisión Nacional de trabajo donde se articulan todos los ministerios e instituciones actuantes en este contexto [17]. Con esta ley se garantizó el enfoque nacional e integral que ya se venía articulando desde 1987, además relacionó un grupo de decisores y estrategias pensadas únicamente para estas regiones. A finales del 2016 y principios del 2017 se emprenden los lineamientos del Partido Comunista de Cuba (PCC) como resultado de su VI Congreso. En ellos se esbozan varios ejes de trabajo de interés, como el lineamiento 172 donde se plantea el desarrollo de un programa integral para las montañas, entre otras cuestiones; así como incrementar las plantaciones en la premontaña, destacando además los recursos forestales y del bosque. Igualmente, el lineamiento 234 se enfoca hacia la priorización de la construcción, conservación y rehabilitación de viviendas en el campo, por razones de calidad del hábitat rural y lograr paulatinamente reincorporar fuerza de trabajo en el sector agroalimentario [18]. Otro de los avances logrados en esta etapa surge en el 2017 con la Conceptualización del Modelo Social Cubano de Desarrollo Socialista. En este documento se encuentran los principios para el desarrollo del país. Uno de ellos (35) describe la importancia concedida al equilibrio de las fuerzas productivas, conjugando zonas rurales y montañosas. Mas adelante (128) reconoce el desarrollo sostenible de las zonas de montaña, asegurando infraestructura técnica y en correspondencia con el ordenamiento territorial. Por último, el párrafo 162 se refiere al fortalecimiento estatal de programas integrales de protección ambiental en varios sitios de interés donde se reconocen los macizos montañosos. Por otro lado, en el 2019 se establece la Nueva Política de Vivienda para el país, donde nuevamente se reafirma la importancia de la vivienda rural dentro del panorama nacional. Ahora con intenciones de mejorar la calidad habitacional de estos territorios y garantizar la fuerza laboral activa que permita el desarrollo agroalimentario. Sobre esto último, en el 2021-2022 aparecen un conjunto de medidas para dinamizar la producción agropecuaria, luego de 2 años de pandemia y ante la imperante necesidad y el desabastecimiento generalizado en este sentido. Las medidas pretenden, entre otras cosas, fortalecer las comunidades agropecuarias, jerarquizando la construcción y mantenimiento de viviendas y priorizando las zonas montañosas del Plan Turquino [19]. A consecuencia, en el actual año se crea el Grupo Nacional de Desarrollo Rural en el país, a solicitud de la máxima dirección de la isla. Este proyecto multidisciplinario tiene la tarea de mejorar primero y luego garantizar la sostenibilidad de estas regiones. Entre varias prioridades inmediatas a resolver surgen 2: la vivienda rural como elemento base de este desarrollo y la importancia de las regiones montañosas dentro de todo el conjunto de la ruralidad cubana. Con toda esta apertura, la vivienda rural de montaña en estos años ha tenido altibajos. Por un lado, continúa la autoconstrucción como método fundamental empleado, ante la ausencia de inversiones estatales. Por otro, hace varios años, aparece una tendencia de convertir antiguos edificios educacionales de etapas anteriores, en viviendas de cooperativas agrícolas. La precariedad del diseño, brindadas en estos “cambios de uso” en muchas ocasiones han limitado la calidad del ambiente térmico y visual, no apropiados para habitar [9]. Más preocupante aún resulta la desvinculación de los modos de vida de los habitantes con las propuestas habitacionales. En varios casos, todavía en estudios, los residentes de estos apartamentos lo transforman inmediatamente, sin lograr adecuarlos a sus requerimientos básicos. Un aspecto esencial en el período lo constituye el papel de la Academia, de nuevo representada por sus Universidades. Estas instituciones han contribuido en gran medida al tema en cuestión, mediante la asesoría, capacitación, producción científica y en ocasiones aportando soluciones. Otro de los factores esenciales fue la realización de Proyectos de Colaboración Internacional, no solo por el financiamiento externo que repercutió positivamente en la economía, sino por la transferencia e intercambio de conocimiento. Esto permitió desarrollar investigaciones novedosas, que luego se pusieron en práctica y tuvieron resultados positivos. Entre estos proyectos se destaca: PIAL (Proyecto de Innovación Agroalimentaria Local) con varios años de experiencia y un enfoque nacional. También sobresale PRODEL (Proyecto de Desarrollo Local) guiado por el Centro de Estudios de Desarrollo Local (CEDEL), con alcance nacional. Por último, resalta Hábitat I y II, concentrado en el centro del país, pero con varios años de experticia. Este último ha desarrollado experiencias conjuntas en la región de Guamuhaya, analizando no solo la vivienda sino el hábitat en todas sus dimensiones. No obstante, hay que mencionar que en los últimos tiempos ha existido un retroceso en cuanto a las perspectivas y planes establecidos para la vivienda social de montaña. La inestabilidad económica y social ha menguado algunos esfuerzos (aislados) en este ámbito. Quedan pendientes varias cuestiones no resueltas, entre ellas la participación social en el proceso de diseño arquitectónico, así como la articulación: vivienda - contexto, donde el equilibrio entre la tipificación de las soluciones y la adecuación de las necesidades de los habitantes es más que un reto y se convierte en un principio de diseño. 4. CONCLUSIONES Durante los primeros años del triunfo revolucionario ocurrieron un sinnúmero de acciones que permitieron transformar radicalmente la situación de la vivienda de montaña en el país. Luego de un corto período de asentamiento las soluciones habitacionales fueron regidas por el INRA, con el carácter agroalimentario que suponía para esta etapa. El empleo de la prefabricación como método para aumentar la producción de viviendas tuvo ventajas y desventajas. Los inconvenientes se muestran en la ausencia de la participación social, donde el enfoque tecnocrático priorizó la cantidad y definió la calidad a través de lo constructivo. La crítica hacia elementos estéticos, formales y expresivos fueron considerados “despreciables” ante la urgencia de las condiciones existentes [7]. Sin embargo, el empleo de prefabricado de pequeño formato como el sistema Sandino produjo buenas experiencias siempre que se respetaron determinados códigos de identidad, espaciales, funcionales y otros. Se puede decir que la “época dorada” de la vivienda de montaña en el país se remonta a los años ´80, donde no solo se construyeron un heterogéneo grupo de comunidades en toda la geografía, sino que se establece el Plan Turquino como un hito para la gestión y desarrollo de estos macizos. Además, se refuerza el protagonismo de las universidades en este quehacer, no solo en la investigación sino en la acción concreta. La crisis de los ´90 marcó un estancamiento en todos los sectores económicos del país, la vivienda en estas regiones, ya de por si aisladas y desfavorecidas, fue replegada a la mínima expresión, incluso varios asentamientos se despoblaron en su totalidad. Comenzando el siglo XXI, el panorama comenzó a cambiar ligeramente. Múltiples medidas gubernamentales e institucionales favorecieron la recuperación de los asentamientos rurales de montaña y con ellos de la vivienda. La autoconstrucción vuelve a adquirir relevancia, no obstante, el diseño arquitectónico se limita a cuestiones técnicas y funcionales, sin profundizar en otras dimensiones más relevantes. El estado por su parte, retoma el enfoque integral hacia la montaña, plasmado en nuevas estrategias y programas incluido el de la vivienda. Algunas ideas sobre la vivienda de montaña ya las mencionaba González [20] hace más de 30 años. Se planteaba la adecuación al medio, el aprovechamiento de los recursos disponibles en el lugar, la adecuación climática, los valores estéticos y la necesidad de entender las nuevas formas de vida. Esto último de gran relevancia si se quiere aportar una solución adecuada a las necesidades y expectativas de los pobladores. Otro de los pilares que habrá de implementarse es el diseño participativo de la vivienda como herramienta imprescindible para comprender los modos de vida de la población y lograr la apropiación de las futuras soluciones. Igualmente, la vivienda social de montaña requiere de la experimentación en varias dimensiones: en la tecnológica-constructiva mediante la combinación de sistemas industrialización de pequeño formato con técnicas y materiales endógenos y tradicionales; en la tipología de la vivienda y su organización espacial y por último en la gestión. REFERENCIAS [1] ORGANIZACIÓN MUNDIAL DE LA SALUD, “Vivienda y Asentamientos humanos .,” pp. 29– 46, 1999, [Online]. Available: http://www.bvsde.ops- oms.org/bvsasv/e/iniciativa/posicion/tres.pdf. [2] O. N. de Normalización, EDIFICACIONES — VIVIENDA SOCIAL URBANA — ÁREA ÚTIL MÁXIMA. Cuba, 2006, p. 7. [3] O. N. de Normalización, EDIFICACIONES — VIVIENDAS ― PARTE 1: GENERALIDADES, no. 261. Cuba, 2014, p. 12. [4] J. A. H. Sierra, “Modelo de Análisis para realizar el Diagnóstico del Hábitat en caseríos de montaña. Caso de estudio: Municipio de Manicaragua,” Universidad Central “Marta Abreu” de Las Villas, 2015. [5] GONZÁLEZ COURET, Dania “Hábitat rural: pasado, presente y futuro,” Arquit. y Urban., vol. 2, 1993. [6] T. BAUERSCHMIDT, “La historia me absolverá,” apropos [Perspektiven auf die Rom., no. 5, p. 139, 2020, doi: 10.15460/apropos.5.1600. [7] A. RABINOVICH, “Los intereses sectoriales de la vivienda social en Cuba. Tecnología vs. Diseño,” EchoGéo, pp. 0–23, 2019, doi: 10.4000/echogeo.11695. [8] A. R. HERNÁNDEZ, La agricultura en Cuba. Apuntes Históricos. Cuba, 2013. [9] M. CUADRA et al., La arquitectura de la revolución cubana 1959-2018. Cuba, 2018. [10] M. LEISECA, “Las Terrazas y su entorno,” Cult. y Desarro., vol. 7, no. I, pp. 1–5, 2012, [Online]. Available: http://lapapeleta.cu/media/special-attachments/las-terrazas-y-su- entorno/terrazas_entorno.pdf?fbclid=IwAR3a29lzbRTpzSOLl8Ylc91pgNnmdlof11rmRwXEHCs vyTybdBuWrwNsRT4. [11] J. DE LAS C. TORAYA, G. S. SANTOS, AND A. P. VALDÉS, 500 AÑOS DE CONSTRUCCIONES EN CUBA. España, 2001. [12] E. CÁRDENAS, “La vivienda en Cuba: Reflexiones en torno a un problema pendiente,” Ecuador Debate, vol. 1, p. 23, 1991. [13] L. I. G. UMPIERRE, “Estudio de proyectos de vivienda social en asentamientos rurales de montaña en Guamuhaya, periodo 1969-1990.,” Universidad Central “Marta Abreu” de Las Villas, 2020. [14] A. D. DE VILLALVILLA, “La vivienda rural y las nuevas formas de producción agrícola,” Arquit. y Urban., vol. 5, p. 4, 1984. [15] GONZÁLEZ COURET, Dania, A. G. Alfonso, G. Peterson, and M. Egüed, “Resultado de Concurso:Tres diseños para mejorar las condiciones de vida en la montaña,” Cuba, 1989. [16] L. GANDUL SALABARRÍA, E. C. LUNA MORALES, AND D. DE LA C. SIERRA PÉREZ, “Programa de desarrollo integral de la montaña. plan turquino manatí, 17 años de avances,” Rev. Cuba. Med. Gen. Integr., vol. 25, no. 2, pp. 1–7, 2009. [17] MINISTERIO DE JUSTICIA DE CUBA, Decreto Ley 329/2014, no. 10. Cuba: Gaceta Oficial, 2015, p. 34. [18] BURÓ POLÍTICO DEL PCC, “Lineamientos de la política económica y social del partido y la Revolución para el periodo 2016-2021,” Periódico Granma, pp. 2–6, 2017, [Online]. Available: http://www.granma.cu/file/pdf/gaceta/Lineamientos 2016-2021 Versión Final.pdf. [19] MINISTERIO DE LA AGRICULTURA, “Propuesta de medidas para dinamizar la producción agropecuaria,” Cuba, 2021. [20] GONZÁLEZ COURET, Dania, “La vivienda de montaña. Un nuevo enfoque,” Arquit. y Urban., vol. 10, no. 2, p. 10, 1989. Arq. Pedro Tex Martínez Cuevas Profesor Asistente del Departamento de Arquitectura, Facultad de Construcciones en la Universidad Central “Marta Abreu” de Las Villas. Es miembro de la UNAICC y la ACCS. ZONAS DE SIMILITUD Y DIFERENCIA TÉRMICA EN EL ÁREA URBANA DEL VALLE DE ABURRÁ, COLOMBIA Jorge Hernán Salazar1, John Arango-Flórez2 1Profesor Titular. Universidad Nacional de Colombia Medellín, 2Profesor Asistente. Universidad Nacional de Colombia Medellín, Carrera 65 Nro. 59A – 110, Medellín Colombia 1e-mail: jhsalaza@unal.edu.co RESUMEN La diversidad climática del trópico andino en Colombia es notable. Se expresa en su biodiversidad biológica, pero también en una diversidad térmica que la arquitectura local recién comienza a abordar. Por ejemplo, la norma de eficiencia energética nacional aún no reconoce la escala micro climática y clasifica al país en apenas cuatro climas, simplificación inconveniente para tomar mejores decisiones de diseño, construcción y ocupación de los espacios arquitectónicos. En el Valle de Aburrá, que se ubica entre los 1.300 y los 2.800 msnm, se podría esperar que sus edificaciones respondan a la variabilidad térmica que caracteriza a las ciudades y barrios que lo componen, pero esto no ocurre. Desarrollar metodologías para estudiar esta variabilidad micro climática es una tarea pendiente. Esta investigación describe la variabilidad térmica del Valle de Aburrá en un soporte cartográfico que agrupa zonas urbanas por similitud térmica, aprovechando una extensa red de monitoreo ambiental y los registros meteorológicos históricos para considerar las variaciones derivadas del fenómeno niño/niña. El resultado son mapas que revelan las tendencias térmicas por sectores de ciudad, que describen el desplazamiento de estas franjas de similitud térmica a lo largo del año y que aportan evidencia para no usar las temperaturas del fondo del valle como la única temperatura representativa. Reconocer las variaciones y similitudes térmicas asociadas a los cambios altitudinales es un material base para mejorar la comprensión del habitar cotidiano y para traducirlo en decisiones de diseño arquitectónico y urbanístico. La metodología podrá ser aplicable para otras localidades de la Zona Andina. PALABRAS CLAVES: microclima, habitar cotidiano, trópico andino, zonas térmicas, isla de calor THERMAL SIMILARITY AND DIFFERENCE ZONES IN THE URBAN AREA OF THE ABURRÁ VALLEY, COLOMBIA ABSTRACT The climatic diversity of the Andean tropics in Colombia is remarkable. It is expressed in its biological biodiversity, but also in a thermal diversity that the local architecture is just beginning to address. For example, the national energy efficiency standard does not yet recognize the microclimatic scale and classifies the country in just four climates, a simplification that should be avoided in order to make better decisions on design, construction and occupation of architectural spaces. In the Aburrá Valley, which develops between 1,300 and 2,800 meters above sea level, it could be expected that its buildings respond to the thermal variability that characterizes the cities and neighborhoods that compose it, but this does not happen. Developing methodologies to study this microclimatic variability is a pending task. This research describes this variability in a cartographic support that groups urban areas by thermal similarity, taking advantage of an extensive environmental monitoring network and historical meteorological records that consider the variations associated with the El Niño/Niña phenomena. The result is maps that reveal the thermal trends by city sectors, that describe the displacement of these thermal similarity bands throughout the year and that provide evidence for not using the temperatures of the bottom of the valley as the only representative temperature. Recognizing the thermal variations and similarities associated with altitude changes is a base material to improve the understanding of daily living and to translate it into architectural and urban design decisions and whose methodology may be applicable to other locations in the Andean Zone. KEY WORDS: microclimate, daily living, Andean tropics, thermal zones, heat island 1. INTRODUCCIÓN El Valle de Aburrá está ubicado en las coordenadas 6,25° norte y -75° oeste, conformado por los flancos de las montañas orientales y occidentales que bordean un rio que fluye de sur a norte, alberga en su interior diez municipios mayoritariamente conurbados, uno de los cuales es la ciudad de Medellín. La estructura territorial y físico-espacial de la ciudad se desarrolla en altitudes que oscilan entre los 1.300 y 2.800 msnm[1]. Ubicados en la cordillera central de Los Andes colombianos, los habitantes de esta metrópoli, el segundo núcleo urbano del país, interactúan con un característico clima tropical andino que en el fondo del valle se manifiesta con una variabilidad térmica entre los 17°C y los 28°C y una humedad relativa entre el 40% y el 70%, pero que en sus laderas, que es donde la mayoría de los habitantes residen, las temperaturas pueden ser notoriamente menores, la niebla matutina habitual y la humedad relativa notablemente mayor. El relieve y la latitud ecuatorial de las zonas tropicales andinas de Colombia son singulares[2], “se caracterizan por propiciar variabilidad climática según la altitud, flujos convectivos ascendentes desde el fondo de los ríos hacia las altas montañas y confluencia de vientos alisios y corrientes del pacífico, lo que produce condiciones particulares de temperatura, humedad, viento e iluminación micro climáticas en una misma ciudad y que afectan el comportamiento climático de las viviendas y sus habitantes.”[3]. En este contexto el clima depende más del espacio que del tiempo. Esta singularidad y diversidad no ha tenido un impacto importante en las condiciones urbanas y arquitectónicas en el Valle de Aburrá ya que a nivel administrativo es laborioso y de difícil seguimiento intentar responder a la diversidad del territorio con una normativa que homogeniza. Las consecuencias de esta situación son, entre otras: intervenciones arquitectónicas prohibidas por la norma que son “la regla” en los barrios de ladera, ventanas en medianeros que permiten la vista lejana del resto de la ciudad; fachadas traseras que son las más visibles a nivel urbano pero que por su condición de traseras y medianeras resultan siendo las más descuidadas; en la vivienda formal, las lógicas de implantación y orientación no responden necesariamente a esta diversidad climática. Para la administración ambiental y de movilidad del territorio metropolitano se aplicó un esquema administrativo denominado Área Metropolitana del Valle de Aburrá, que entre otras responsabilidades, se encarga del monitoreo ambiental del Valle para identificar y pronosticar fenómenos naturales y antrópicos que pueden generar riesgos en la población dada la alta vulnerabilidad a los eventos de lluvia extrema. La red de monitoreo ambiental denominada SIATA (Sistema de Alerta Temprana del Valle de Aburrá)[4] se compone de 44 estaciones climáticas, 20 de las cuales monitorean también la calidad del aire, teniendo en cuenta que es uno de los territorios más contaminados de Latinoamérica (Figura 1). El SIATA no sólo hace seguimiento a variables ambientales del territorio, sino que también se realizan investigaciones (trabajos de grado, trabajos de maestría y tesis doctorales) para el fortalecimiento de las capacidades de gestión ambiental, sin embargo, estas investigaciones regularmente están centradas en el ámbito de las ciencias meteorológicas, la hidrología, la ingeniería civil, y con escasas excepciones [5, 6] en temas urbanísticos o arquitectónicos. Figura 1. Portal del Sistema de Alerta Temprana del Valle de Aburrá SIATA (siata.gov.co) en donde se ubica la ciudad de Medellín y los núcleos urbanos vecinos que configuran su región conurbada. A la derecha se señalan las 39 estaciones meteorológicas del sistema disponibles en mayo 2021, 19 de las cuales fueron empleadas para la realización de este trabajo. (Fuente: siata.gov.co) El propósito de este trabajo fue utilizar la base de datos SIATA para el procesamiento sistemático de registros climáticos históricos con fines arquitectónicos, de tal manera que se pueda comprender la variabilidad micro climática, especialmente en su componente térmico, obteniendo herramientas para la toma de decisiones arquitectónicas, y urbanísticas. 2. METODOLOGÍA Criterios para la selección del año de estudio Para diferenciar las condiciones térmicas a escala sino de barrio por lo menos sí de sector, es preciso disponer de tantos puntos de medición como sea posible, pero la red de monitoreo de SIATA es reciente y se expandió hace poco más de diez años. Hay registros más antiguos de la temperatura en la ciudad, pero referidos exclusivamente al lugar adonde se ubica el aeropuerto Enrique Olaya Herrera[7], que es muy cerca del fondo del valle. La resolución espacial y temporal requerida para este trabajo hizo necesarios los datos que SIATA pone a disposición pública, condicionamiento que no resulta adverso porque las manifestaciones del cambio climático global y el efecto isla de calor sugieren emplear datasets de años recientes. Las condiciones climáticas del territorio colombiano están muy atadas al fenómeno de oscilación térmica denominada Fenómeno del Niño (ENSO) [8], motivo por el cual la selección de un año típico para la realización de este trabajo se hizo a partir de los datos históricos del Oceanic Niño Index (ONI) disponibles online en la National Oceanic and Atmospheric Administration [9]. Para ello se calculó un índice comparativo de la severidad del fenómeno del niño año por año utilizando los registros históricos comprendidos entre 1950 y 2021 para identificar el 1999 como el año con el fenómeno de la niña históricamente más severo, mientras que el 2015 fue el año niño más severo. El rango de variabilidad entre estos dos extremos se normalizó para obtener el índice ENSO (El Niño Southern Oscilation), proceso que permitió seleccionar el año 2019 como un año representativo del “año medio” requerido para la realización de esta investigación. Hay otros años candidatos y algunos con índices más cercanos a 0.5, pero el proyecto SIATA comenzó a ofrecer datos en tiempo real apenas en el año 2010, cuando contaba con 16 estaciones pluviométricas y no todas registraban temperatura superficial. La red no ha dejado de expandirse y por eso se trabajó de una manera regresiva para identificar el año más reciente que tuviera un índice ENSO cercano a 0.5 tal como se presenta en la figura 2. Figura 2: Comparativo de la severidad del Fenómeno del Niño calculado a partir de los registros históricos comprendidos entre 1950 y 2021 [NOOA, 2022]. Corresponde el año 1999 al año con el fenómeno de la niña históricamente más severo y el 2015 como el año niño más severo. El rango de variabilidad entre estos dos extremos fue normalizado para calcular el índice ENSO (El Niño Southern Oscilation), proceso que permitió seleccionar el año 2019 como un año representativo del “año medio” requerido para la realización de esta investigación. Criterios para el cálculo de las métricas La métrica térmica que se usa con mayor regularidad es la temperatura media diaria, lo cual resulta conveniente para procesos descriptivos de los estados térmicos más probables. Sin embargo, para procesos de diseño regularmente los extremos son más útiles que los valores medios. Por ejemplo, es la carga máxima la que permite definir una resistencia estructural mínima, la altura máxima permite establecer el dintel mínimo o la talla mínima es la que se usa para definir la altura máxima para la instalación de un entrepaño. Siguiendo esta lógica los valores necesarios para comparar la “severidad térmica” de un sector con respecto a otro serían las temperaturas máxima y mínima absolutas anuales. Es de resaltar que un año de datos minutales corresponde a 525.600 registros de temperatura por cada estación meteorológica procesada, es un desperdicio y una sobre-simplificación representar toda esta información en apenas dos valores extremos históricos para el año en estudio. Una alternativa más detallada consiste en elegir un par de datos por día: las temperaturas máxima y mínima absoluta diaria y correspondientes a los percentiles 100 (P100) de cada serie diaria. Dos grupos de 365 datos anuales por estación meteorológica ofrecen una comparación más significativa, pero los valores máximos absolutos se presentan durante un instante al día y fácilmente podrían pasar desapercibidos. Procurando asegurar trabajar con valores de temperatura extremas que no pasarían desapercibidos se optó por calcular valores extremos no absolutos. Para la temperatura máxima diaria se calculó el percentil P98, que corresponde a la temperatura que fue superada durante sólo 30 minutos cada día. Simétricamente, se definió la temperatura mínima diaria como la temperatura que supera únicamente al 2% de las temperaturas registradas diariamente (P2). Un procesamiento inicial de poco menos de 10 millones de registros de temperatura permitió identificar la estación codificada como 198 (Politécnico Jaime Isaza Cadavid) como el lugar más caliente del valle durante la mayor parte del año. Esta estación se ubica en el fondo de valle y cerca de su zona céntrica, motivo por el cual se utilizó como estación de referencia para realizar todos los comparativos. (Figura 3). Figura 3: Temperatura máxima diaria (P98) entre enero 1 y diciembre 31 del año 2019 registrada en trece estaciones meteorológicas en diferentes sectores y a diferentes altitudes del Valle de Aburrá. A la derecha, dispersión de los datos tal como se obtienen del portal de SIATA identificados con el código de cada estación meteorológica. El valor -999 reemplaza la temperatura cuando hubo interrupciones en el registro de datos, lo que explica la abundancia de outliers. Las diferencias relativas entre diferentes sectores de la ciudad fueron evidentes desde el procesamiento inicial. Las diferencias entre las temperaturas máximas (P98) y mínimas (P2) diarias de cada una de las 18 estaciones con respecto a la temperatura (máxima o mínima) que se presentó ese mismo día en la estación de referencia permitió cuantificar estas diferencias. Se obtuvieron dos conjuntos de 365 restas por cada una de las estaciones meteorológicas. Como la estación de referencia suele ser uno de los puntos más calientes regularmente fueron diferencias negativas (Figura 4). Los recortes hacia arriba y hacia abajo corresponden a alertas de medición en los dataset originales; codificados como -999 quedan por fuera del encuadre. Figura 4: Diferencias de temperatura máxima diaria (P98) con respecto a la temperatura que en ese mismo instante estaba siendo registrada en la estación de referencia 198 (Politécnico Jaime Isaza Cadavid). Se presentan los 365 resultados para el año 2019 en las mismas estaciones de la figura 3. Criterios para el manejo de los datos faltantes Las series incompletas son lo normal en este tipo de bases de datos. Una falla en el fluido eléctrico o algún daño de comunicaciones y la secuencia de datos minuto a minuto se interrumpe y el resultado es una serie incompleta. La red de equipos instalados por SIATA es de muy diversa tecnología y no todos los equipos cuentan con baterías y memoria. Esta situación regularmente hace necesaria alguna técnica de interpolación o parchado que permita desafectar las estaciones meteorológicas comprometidas para no tener que descartarlas, pero en este caso el procesamiento de los datos exploró la posibilidad de no considerar las alertas sin necesidad de alterar o reparar el dataset original. Esto fue así porque el percentil 25 corresponde a un día en posición 91 en una serie ordenada y el número de datos faltantes nunca llegó a ser tan alto como para que las colas y las cabezas de los outsiders afectaran las métricas de ninguno de los tres percentiles aquí calculados. Con series muy incompletas (91 días afectados por año) ciertamente será necesario. El ordenamiento ascendente acumula a la izquierda todas las alertas por registros faltantes en las estaciones comparadas y cuando la estación de referencia es la que presenta alertas, la diferencia da positiva y los valores se acumulan al extremo contrario, tal como se puede observar en la Figura 5. Comparaciones de los percentiles que se obtuvieron antes y después de recortar las series de datos arrojaron diferencias entre 0.05 °C y 0.01 °C porque las curvas son prácticamente rectas y además, casi horizontales. Generalizando, se requieren más de 100 días sin datos para que el corrimiento de las curvas se refleje en valores de percentiles significativamente alterados. Por este motivo en ningún caso se aplicaron parches ni interpolaciones para reparar datos faltantes. Figura 5: Diferencias de temperatura máxima diaria (P98) ordenadas de menor a mayor con respecto a la estación de referencia. A la derecha se observa una ampliación del intervalo significativo donde se puede observar porqué las alertas de medición y/o los datos faltantes no afectan significativamente los valores de los percentiles. Figura 6: Diferencias de temperatura máxima diaria (P98) de cada estación meteorológica con respecto a la estación de referencia clasificada por percentiles. Un procedimiento idéntico fue aplicado para la obtención de las temperaturas mínimas diarias (P2) en todas las estaciones meteorológicas incluidas en el estudio, lo que permitió obtener otros tres percentiles P25, P50 y P75, información que no se presenta para evitar redundancias. El proceso de ordenación de series sin depuración alguna y donde se procesan los datos correctos a la vez que las alertas de medición es una técnica muy simple que permitió simplificar notablemente el proceso porque la depuración y rectificación de las series climáticas, la cual suele ser la etapa más dispendiosa de este tipo de trabajos. Es de advertir que en lugares con una significativa variabilidad estacional anual esta práctica se desaconseja o por lo menos, se sugiere realizar un análisis similar para verificar la viabilidad de simplificar el proceso para trabajar con series incompletas. Criterios para la representación de los resultados Cada estación meteorológica fue georrefenciada en 2D usando sus coordenadas XY, lo que permitió reservar la coordenada Z para asignarle el valor de la diferencia térmica correspondiente. El conjunto de puntos tridimensionales obtenidos define una superficie que comienza como el plano que mejor se adapta a todos los puntos y que luego se deforma para que pase por todos los puntos que la definen. El comando en Rhino se denomina PATCH y el que genera las isotermas CONTOUR, conjunto de curvas que finalmente fueron superpuestas a un mapa de la ciudad, como se puede observar en la figura 7. Figura 7: Curvas isotermas elaboradas a partir de una superficie tridimensional construida sobre puntos que tienen las coordenadas geográficas de las estaciones meteorológicas y cuyo valor de Z corresponde a las diferencias de temperatura con respecto a la estación de referencia. Fuente: elaboración propia 3. RESULTADOS Los mapas resultantes evidencian las diferenciales térmicas entre dos puntos ubicados en la misma entidad territorial, las líneas muestran los desplazamientos de las franjas de temperatura a lo largo del año y permiten generar algunas hipótesis sobre la razón de su existencia. Por ejemplo, lo más evidente es que en el centro del valle y hacia el norte hay tendencia a temperaturas más cálidas, corroborando lo ya sabido: el valle desciende justamente en esa dirección. También se puede observar cómo en las laderas habrá tendencia a temperaturas más frías, esta obviedad se cumple como se puede ver en las figuras 8 y 9 en las que se presentan resultados para tres días despejados. Llama la atención la condición de asimetría entre una y otra ladera a pesar de contar con puntos de medición ubicados a altitudes similares. La explicación puede requerir el involucrar muchas otras variables y podría ser un fenómeno asociado a la dirección del viento, la mayor nubosidad del costado oriental o las pendientes asimétricas entre uno y otro lado del Valle. Etapas posteriores requerirán analizar a fondo estas hipótesis para interpretar los resultados aquí obtenidos. Con datos completos los mapas día a día son ilustrativos, pero es poco práctico manejar 365 mapas muy similares entre sí, con el agravante que se tornan ilegibles en cuanto alguna estación presenta un dato faltante. La revisión de todos estos mapas, a manea de secuencias de imágenes, hizo evidentes los efectos de las lluvias localizadas en sectores y revelaron anomalías locales posiblemente relacionadas con vientos de ladera. Los mapas anuales resuelven estas situaciones y logran mostrar las tendencias anuales superando la descripción de eventos climáticos locales, tal como se puede observar en Figuras 10 y 11. Figura 8: Zonas de similitud y diferencia térmica para la máxima diaria (P98) en el sector central del Valle de Aburrá en tres días del año 2019 en que ninguna de las 19 estaciones meteorológicas consideradas tuvo alertas de medición. Un punto rojo en la mitad de los mapas corresponde a la estación de referencia. Figura 9: Zonas de similitud y diferencia térmica para la temperatura mínima diaria (P2) en el sector central del Valle de Aburrá en tres días del año 2019 en que ninguna de las 19 estaciones meteorológicas consideradas tuvo alertas de medición. Las tendencias térmicas observadas son bastante estables a lo largo del año cuando se eligen días despejados o lluviosos para la totalidad del Valle. Cuando se presentaron condiciones de lluvias aisladas las curvas isotermas revelan alteraciones notables a escala local que se alejan del patrón general. Pero al procesar los datos a escala anual, los patrones térmicos revelaron un patrón consistente y útil para ayudar a la toma de decisiones arquitectónicas asociadas a las diferencias de localización de un edificio. Las líneas punteadas a lado y lado de una línea isoterma indican que durante la mitad del año dicha isoterma se mantendrá restringida a este sector de la ciudad. Figura 10: Zonas de similitud y diferencia térmica para la temperatura máxima diaria (P98) en el sector central del Valle de Aburrá en el año 2019. En línea continua los valores medios anuales, en líneas punteadas azules los valores P25 y en líneas punteadas rojas los valores P75. Sectores comprendidos entre las líneas punteadas mantuvieron esas condiciones durante la mitad de los días del año. Figura 11: Zonas de similitud y diferencia térmica de la temperatura mínima diaria (P2) en el sector central del Valle de Aburrá en el año 2019. En línea continua los valores medios anuales, en líneas punteadas azules los valores P25 y en líneas punteadas rojas los valores P75. Sectores comprendidos entre las líneas punteadas mantuvieron esas condiciones durante la mitad de los días del año. 4. CONCLUSIONES Los mapas revelan la existencia de zonas de similitud y diferencia térmica en la zona urbana del Valle de Aburrá y corroboran la experiencia cotidiana de habitar la ciudad en relación con la temperatura: ciertamente unos sectores de la ciudad son notablemente más cálidos o más fríos que otros. Las diferencias de temperatura, que en algunos casos superan los 5°C son suficientemente amplias como para requerir respuestas arquitectónicamente diferenciadas según la ubicación del proyecto. Los mapas y las zonas de similitud y diferencia térmica aquí presentados brindan un punto de partida para un diseño climáticamente diferenciado a escala de barrio. Las líneas isotermas y las diferencias de temperatura máxima y mínima diaria obtenidas se mantienen prácticamente paralelas a lo largo del año y carecen de intersecciones. Se observa un patrón térmico estable y un sector que resulte más cálido o más frío que otro mantiene esta condición a lo largo del año. De hecho, las zonas de similitud térmica tienen bordes que regularmente se desplazan entre 200 y 500 metros a lo largo del año, por lo que tiene sentido formular estrategias arquitectónicas que desde el punto de vista térmico respondan a ese patrón climático del Valle de Aburrá. La superposición de los mapas térmicos con la información topográfica del Valle y la comparación de resultados de estaciones meteorológicas ubicadas en similar altitud reveló que las curvas de nivel y las líneas isotermas casi nunca son paralelas. Ciertamente Medellín es una ciudad de pisos térmicos, pero la delimitación de sus zonas térmicas no se debe hacer siguiendo una estrategia altitudinal. Los contornos de las zonas de similitud y diferencia térmica alrededor del sector central de la ciudad revelan la isla de calor previamente reportada en otros estudios, pero se observan también otras alteraciones en las intermediaciones de las dos principales cuencas tributarias al oriente y occidente del valle y donde los vientos anabáticos y catabáticos son más intensos y frecuentes. Estudios adicionales deberían ser realizados, pero a escala horaria, para estudiar con mayor detalle estos patrones térmicos que están fuertemente ligados a la hora del día. Valdría la pena correlacionar estos resultados con un estudio comparativo entre zonas térmicas asociadas a la vida cotidiana de los habitantes y a las maneras de habitar que estas diferencias ambientales pueden propiciar para comprender mejor cómo afecta una variable climática el habitar urbano. Además que valdría la pena ampliar el estudio ambiental a otras variables físicas, como la humedad relativa, los regímenes de vientos y de lluvias para complejizar los resultados y tener un abanico de posibilidades más amplio al momento de tomar decisiones arquitectónica y urbanísticas. REFERENCIAS [1] AMVA. Area Metropolitana del Valle de Aburra [online]. 2019 [accessed. 2021-09-24]. Available at: https://www.metropol.gov.co/area/Paginas/somos/Historia.aspx [2] CARRIZOSA UMAÑA, Julio. Colombia compleja. Bogotá: Jardín Botánico de Bogotá José Celestino Mutis. Instituto de Investigación de Recursos Biológicos Alexander von Humboldt, 2014. [3] GARCÍA-CARDONA, Ader, John ARANGO-FLÓREZ, Elisabeth HERREÑO-TÉLLEZ and HERNÁNDEZ-DUQUE, Yury. From comfort to life habits. Qualitative approaches to comfort research on domestic space in the Colombian Andean tropics. In: Laura MARÍN, ed. Removing barriers in environmental comfort in the Global South. Santiago: Springer, no date. [4] SIATA. Sistema de Alerta Temprana del valle de Aburrá [online]. 2021 [accessed. 2021-09-24]. Available at: https://siata.gov.co/siata_nuevo/ [5] GUZMÁN ECHAVARRÍA, Gisel. Análisis de la influencia del diseño urbano en la meteorología del Valle de Aburrá. Medellín, 2018. Tesis de Maestría. Universidad Nacional de Colombia. [6] GUZMÁN ECHAVARRÍA, Gisel and HOYOS ORTIZ, Carlos David. Implications of Urban Form and Topography in Thermal Conditions at Local and Micro Scale in a Tropical Urban Area Located in a Valley - NASA/ADS. In: American Geophysical Union, Fall Meeting abstracts [online]. 2018, p. GC41G-1541 [accessed. 2022-07-12]. Available at: https://ui.adsabs.harvard.edu/abs/2018AGUFMGC41G1541G/abstract [7] IDEAM. IDEAM [online]. [accessed. 2022-07-12]. Available at: http://www.ideam.gov.co [8] Climate Prediction Center: ENSO Diagnostic Discussion [online]. [accessed. 2022-07-12]. Available: https://www.cpc.ncep.noaa.gov/products/analysis_monitoring/enso_advisory/ensodisc _Sp.shtml [9] NOAA. National Oceanic and Atmospheric Administration [online]. [accessed. 2022-07-12]. Available at: https://www.noaa.gov/ Sobre los autores Jorge Hernán Salazar Trujillo es Profesor Titular, docente vinculado a la Universidad Nacional de Colombia desde 1994. Cursó dos Maestrías y fundó el Grupo de investigación en Energía, Medio Ambiente, Arquitectura y Tecnología, Grupo EMAT (2000). Autor de libros, artículos y ponencias sobre la calidad del ambiente construido y la arquitectura de alta calidad ambiental, hace parte de asociaciones científicas y del comité evaluador de revistas y congresos internacionales. John Arango-Flórez es arquitecto, magister en arquitectura y actualmente estudiante de doctorado en Estudios Urbanos y Territoriales, Investigador Asociado en Minciencias, Profesor Asistente en la Facultad de Arquitectura de la Universidad Nacional de Colombia, Sede Medellín, su campo de investigación ha girado en torno a las relaciones entre los usuarios y la arquitectura a través de las actividades cotidianas mediadas por el mobiliario, especialmente en espacios educativos y domésticos. URBAN HEAT DISTRIBUTION NETWORKS COMPARISON USING A GIS- BASED DISTRICT HEATING DESIGN TOOL Julio Efrain Vaillant Rebollar1, 2, Tom Prinzie1, Caroline Van Marcke1 and Arnold Janssens2 1Van Marcke NV, Belgium, 2Faculty of Engineering and Architecture, Ghent University, Belgium 1e-mail:jvaillant@vanmarcke.be ABSTRACT This paper compares several collective heat distribution network alternatives developed to supplies heat in a neighborhood with 305 dwellings. For the collective alternatives different networks layout strategy definition, namely considering that the allocation of the distribution pipe layout is able or not to cross the main and small streets; equally, the option of crossing or not green zones, as well as, considering or not the phases of the project construction were studied. The problem definition, the structure and the solution which involves economical, technical, thermodynamic, and environmental issues are described. For the hydraulic calculations, pipe layout definition and cost estimation, a well-integrated process approach was guaranteed by mean of Comsof Heat, an automated, geographical information system (GIS) based district heating network routing and planning tool. The paper quantifies and compare the performance of different neighborhood heat supply design concepts. The results highlight the potential of the new automated district heating design tool towards solutions for sustainable energy planning. KEY WORDS: GIS-based district heating design, Sustainable energy planning. COMPARACIÓN DE DISEÑOS DE REDES URBANAS DE DISTRIBUCION DE CALOR DE FORMA AUTOMATIZADA USANDO EL SISTEMA DE INFORMACION GEOGRAFICA RESUMEN El presente trabajo, compara varias alternativas de redes colectivas de distribución de calor desarrolladas para suministrar calor en un vecindario con 305 viviendas. Para las alternativas colectivas, se consideraron diferentes opciones en la definición de la estrategia de diseño de red. Entre estas, se consideraron: a) que el diseño de las tuberías de distribución pudiera o no cruzar las calles principales y/o las calles menos importantes; igualmente, se estudió la opción de cruzar o no áreas verdes públicas, así como tomar en cuenta o no la evolución de las fases de construcción de las viviendas en el proyecto. Se describe la definición, la estructura y la solución del problema, que involucran cuestiones económicas, técnicas, termodinámicas y ambientales. Para los cálculos hidráulicos, la definición del diseño de la tubería y la estimación de costos, se garantizó un enfoque de proceso integrado a través de la utilización del programa de computación, Comsof Heat. Comsof Heat es una herramienta de planificación, diseño y enrutamiento de redes urbanas de calefacción. Dicha herramienta se basa en el Sistema de Información Geográfica (GIS, por sus siglas en inglés). El documento cuantifica y compara el rendimiento de diferentes conceptos de diseño de suministro de calor del vecindario. Los resultados destacan el potencial de la nueva herramienta automatizada de diseño de sistemas urbanos de calefacción facilitando además la planificación en el futuro de soluciones energética sostenibles. PALABRAS CLAVES: Planificación energética sostenible, Sistema de Informacion Geografica, 1. INTRODUCTION Worldwide the concern to achieve more environmentally friendly and sustainable global energy solutions has been increasing during the last years. Moreover, it is well-known that the energy sector is an essential and transversal component within the society, and it affects all aspects of development – social, economic, and environmental. Concerning resource exploitation, the sustainability of energy utilization aims that the satisfaction of present energy consumption should consider the energy requirements of the future. Consequently, a sustainable energy system is usually defined in terms of energy efficiency, system reliability, and environmental impacts. These three subjects relate to – environmental concerns and energy supply security – are the main driving factors behind the growth of district heating (DH) in most countries. A district heating system is composed of many elements, developing a value chain from the heat source to the heated buildings. District heating networks gain in importance, since they facilitate large scale renewable energy integration, recovering waste heat solutions and a better matching between supply and demand. Hence, the introduction of a district heating system provides a fundamental infrastructure to decarbonize future energy systems [1,2]. Research on the capital cost breakdown percentage of the total heat network has demonstrated that trenching cost clearly dominates the total network capital cost [3]. Moreover, as was remarked by Jebamalai in [4] routing of the pipe networks is complex, time-consuming, and expensive process. Since the route length determines the trench and pipe length, an optimized routing process allows to reduce the impacts on the total network capital cost. The aim of the study is to explore how different DH network configurations affect the network dimensions, cost, and performance. Therefore, in this paper, a comparison of several collective heat distribution network alternatives developed to supplies heat in a neighborhood with 305 dwellings is presented. Different networks layout strategy definition, namely considering that the allocation of the distribution pipe layout is able or not to cross the main and small streets; equally, the option of crossing or not green zones, as well as, considering or not the phases of the project construction were studied. The problem definition, the structure and the solution which involves economical, technical, thermodynamic, and environmental issues are described. The paper quantifies and compare the performance of different neighborhood heat supply design concepts. For the hydraulic calculations, pipe layout definition and cost estimation, a well-integrated process approach was guaranteed by mean of Comsof Heat, an automated, geographical information system (GIS) based district heating network routing and planning tool. The design software, developed as a plugin of a GIS tool combine routing automation with DH network models enabling the simulation of different scenarios fast, precise and with ease [4]. 2. DISTRICT HEATING DESCRIPTION The present study aims to evaluate the technical and economic feasibility of a 2-layer network namely, a transport and distribution network (see Figure 1). The transport network transfers heat from the heat source to the distribution network substations. The distribution network further distributes heat from the distribution cluster substation to the individual building heat interface unit (HIU). This is a well-extended approach which divide the large area into multiple small distribution clusters [4,5, 6]. Figure 1: Case study area with building polygons, demand points, street centrelines, and project phases. A supply and return temperature of 70 °C and 50 °C respectively is chosen for the hot water transport networks while a supply temperature of 65 °C and a return temperature of 40 °C is chosen for the distribution networks in this study. Regarding the energy demand of the neighbourhood, the balance includes all energy use for space heating, hot tap water, in the entire neighbourhood. The energy use is constrained through requirements for energy efficiency, and comfort and indoor climate are considered. The buildings should comply with the Flemish regulation on energy performance and indoor climate. For the dimensioning of the network a space heating (SH) load demand of 5 kW and 30 kW for domestic hot water (DHW) per dwelling were considered. The space heating demand is a conservative value when comparing with the case of a low-energy individual housing in which the heat losses through transmission and ventilation are somewhat around 3,5 kW when the outside temperature is -8°C. However, the assumption of this conservative value takes into consideration the mix of low energy housing and more standard energy end user that can be found in such kind of neighbourhood. Nevertheless, in addition to the yearly demand of 9000 kWh/year an additional evaluation assuming 6400 kWh/year were considered. The domestic hot water demand was estimated considering three domestic hot water profiles (low, normal, and heavy) developed by the authors in previous studies [7]. Each of the profile represents a typical DHW use of a household with on average three inhabitants over a single day. The average energy use for DHW in a dwelling is about 5,3 kWh/day, which is like 132 l/day at 45°C. The case study is composed of four multi-family buildings with a total of 71 apartments and 234 individual houses distributed in the whole area. The distribution networks of the buildings are connected to each other and to a central heat distribution plant through buried single pipes. The one-way network length is approximately 2500 m. Fluid velocities were restricted to 1 m/s inside dwellings, 1.5 m/s in trunks, 2 m/s in the basement and 2,5m/s outside. It well-known that building peak heat demand is less and less used for network pipe sizing to cover demand during the year, since it is unlikely that each building consumes this heat at the peak demand level, at the same time. Particularly, DHW which is characterized by very high demand in a very short duration of time. Therefore, a well-dimensioned network design is guarantee by using simultaneity factors for space heating and DHW demand respectively. Thus, to define the design heat load for every pipe segment in the network, a simultaneity factor is applied based on the number of connected buildings to that segment. Traditional DH pipe dimensioning methods involve the selection of the lowest possible pipe diameter to transfer the required heat load with the constraint of an upper limit for the flow velocity and/or the pressure gradient [8]. For that reason, different scenarios are investigated to evaluate the impact of different network pressure levels and a flow velocity constraint, network layouts configurations, future reduced heat demand and different concept of DHW simultaneity factor sizing consideration on network dimensions, cost, and performance. 3. RESEARCH FRAMEWORK AND METHODOLOGY At the present time, an immediate effect of reinforcing the energy efficiency standards for buildings is the reduction of the amount of energy required to heat them. Hence heating requirements are increasingly dominated by domestic hot water rather than space heating. In this context computational tools plays an important role for the design and operational optimization of complex DH networks. Several research papers [8,9 and 10] as well as commercial tools such as NetSim [11,12] and Termis [13] offer models or frameworks to design DH systems. Schweiger et al. [10] presented a framework for dynamic thermo- hydraulic simulation and optimization of district heating and cooling (DHC) systems. However much of these tools and application lack automation and integrated approach in their solution [4]. Chicherin et al. [14] highlighted the advantages of combining a GIS application with an energy demand forecasting model to create a tool aimed at supporting decision-making. Comsof Heat aims to easily compare scenarios for different parametric studies. Following paragraphs, based on reference [4], provides a concise summary of the mains characteristic of the district heating network routing and planning tool. For readers interested in the features and other procedures of the tool, including those methods suitable for systems with transports pipe or seasonal storage tank, a more comprehensive description about the methodology and assumptions can be found in [2 and 4]. The network operation efficiency is influenced by the DH pipe diameters, insulation material, operating temperatures, space heating, and domestic hot water demand among other parameters. Heat loss influences the operating costs of a DH network. The heat loss for supply pipe, Qf and for a return pipe, Qr are given by 𝑄𝑓 = 𝑈1(𝑇𝑓 − 𝑇𝑠) − 𝑈2(𝑇𝑟 − 𝑇𝑠) (1) 𝑄𝑟 = 𝑈1(𝑇𝑟 − 𝑇𝑠) − 𝑈2(𝑇𝑓 − 𝑇𝑠) (2) where U1 refers to the heat loss coefficient from pipe (supply/ return) to ground in W/mK, while U2 refers to the heat loss coefficient from supply pipe to return pipe in W/mK, and Tf , Tr and Ts are the supply pipe, return pipe and soil temperatures, respectively. The coefficients U1 and U2 are taken from the European standard (EN 13941) [15]. The overall heat loss then is 𝑄𝑡𝑜𝑡𝑎𝑙 = 𝑄𝑓 + 𝑄𝑟 = 2(𝑇𝑟 − 𝑇𝑠) ( 𝑇𝑓+𝑇𝑟 2 − 𝑇𝑠) (3) The network routing process involves the evaluation of all possible routes that will connect all demand points (end-user) to the central heat source with pipes according to the specified rules. The streets can be categorized into different types: from low to high density, from low to high road material cost and from local streets to highways. The relative cost per meter and per pipe diameter can be assigned to each category. A cost factor for each pipe size (EUR/m) can be used with detailed cost information (DH pipe, trench filling material and labour costs), as well. Equipment costs such as for the HIUs, substations, and heat source can also be given as input. Higher costs can be imposed for special cases such as crossing rivers, railways, etc. The complexity lies in the fact that there are many possible combinations, and every decision must also ensure the network satisfies the rules and constraints of the user. Comsof Heat makes extensive use of existing graph algorithms from the literature (eg., breadth-first search and depth-first search [16], the algorithm of Dijkstra [17], the algorithms of Prim [18] and Kruskal [19], etc.). In addition, many new heuristics and adaptations to existing heuristics were developed, which are often based on meta-heuristics [20,21]. Performance indicators In previous work of the authors [7], the uncertainties on the performance of a district heating systems introduced by parameters influencing heat losses in the distribution network have been investigated. In the current study suitable criteria focuses on a more general scope concerning the investment options of a potential Dcision-maker are selected. The choice of a district heating system alternative is assessed by six performance indicators: the Total Cost of Project (Tot_Cost), the Deployment Cost per Home (Cost_Home), the Net Present Value (NPV), the Total Heat Delivery (Heat_Use), and the Heat Losses (Heat_Loss). A characteristic parameter for defining the suitability of the DH networks is the Total Cost of Project, Tot_Cost, (in €). The Total Cost of Project includes the cost of the different components of the network, namely trenching cost, transport, and distribution pipes cost cluster substation cost, individual building heat interface unit (HIU) cost and other auxiliaries’ devices cost, this parameter quantity the total technical and labor cost of the DH network. It should be noticed that cost associated to planning and designing or project management are not considered in this indicator. Another performance criterion is the Deployment Cost per Home, Cost_Home, (€/home), which is a ratio of the total Cost to the number of the dwelling connected to the DH network. The Deployment Cost per Home is more useful when comparing different district heating systems. An additional performance indicator is the Net Present Value,NPV, (in €), which is a method of balancing the current value of all future cash flows generated by a project against initial capital investment. It should be remarked that the cost and price have been considered according to the year 2021, however any variability on the current cost or energy price has not major impact on the conclusion since the study focuses on scenarios and alternatives comparison which would behave in a similar relative way concerning possible cost and price variation. The Total Heat Delivery, Heat_Use, (in MWh), considers the total heat delivery from the heat source to the network to cover the heat demand of the end-user. One more performance indicator that have been considered is the Heat Losses, Heat_Loss, (in MWh) which does not depend only on the overall heat transfer coefficient, which characterizes the efficiency of the pipe insulation. It also depends on the specific surface area of the distribution pipes, the level of water distribution temperature relative to the annual average of the outdoor temperature and even the concentration of the district heating demand among other parameters. Sensitivity analysis As was afore mentioned, in [7], the physical source of uncertainties influencing heat losses in district heating systems, such as heat conductivity of the insulating material, supply pipe temperature, return pipe temperature, thickness of the pipe insulation layer, soil thermal conductivity, flow rate, and the ambient temperature were investigated. Results regarding, uncertainty and how sensitive a district heating performance is in the face of different parameter values variation were discussed. In the current study, different parameters influencing the performance of district heating system have been studied. Whit this regard three influencing criteria have been selected: the network pressure levels and a flow velocity constraint, the reduction of heat demand and different concept of DHW simultaneity factor sizing consideration on network dimensions. As a results of the EPBD (European Energy Performance in Buildings Directive) implementation in the regional Flemish regulation on Energy Performance and Indoor Climate in Buildings (EPB), the energy performance requirements have been strengthened year after year [22]. In this context, the space heating demand is expected to be reduce with increasing insulation and energy efficiency system in the building sector. Accordingly, for the parameter Reduction of Space Heating Demand, (SH_Dem), three levels were defined (0%, 17% and 33% of space heating demand reduction). The network is dimensioned for the peak winter condition so that it can meet the demand throughout the year. Pipe sizing starts with the farthest consumer of every branch. For a given pipe diameter, the heat flow through the pipe is given by 𝑄𝑓 = 𝑚𝑐𝑝𝑟𝑣𝑗 (4) 𝑚 = 𝐴𝑗∆𝑇 (5) Where: cp is the fluid specific heat capacity; ΔT is the temperature difference between supply and return pipe; m is the mass flow rate; Aj is the internal area of pipe j; r is the fluid density and vj is the fluid velocity of pipe j. In addition to the temperature difference between supply and return side, the pipe roughness and either the maximum allowed pressure loss, or the design flow velocity determine the heat flow capacity of a pipe. Therefore, the parameter Pipe Sizing Design Constrain, (Pipe_Limit) with four level was defined. This parameter allows to evaluate the impact of the following network design options: design by flow velocity, by pressure gradient, by pressure number as well as, design by velocity and pressure gradient at the same time. The design by flow velocity constrains heat flow so that a given flow velocity for each pipe is not exceeded. Design by pressure gradient constrains the pipe diameter so that a pre-set value for the network pressure loss per kilometre is not exceeded. Design by pressure number constrains the pipe diameter so that a given total network pressure loss is not exceeded. While the design by velocity and pressure gradient for each pipe segment the most stringent constrains is considered. The pipes in every segment are then sized based on these constraints and the heat demand. The operating pressure and temperature determine the required pipe thickness, see [15] for the applied calculations. Space heating and domestic hot water flow rates have always been problematic to calculate, because of issues with simultaneous usage of hot water. In fact, full load conditions will result in very large flow rates and oversized pipes. To overcomes this situation when dimensioning piping a simultaneous factor have usually been applied. This is a parameter that guarantee how one works out the peak instantaneous hot water load on a heat network, based on the number of properties. As the number increases, the possibility of every system running at peak load reduces, and peak design load also reduces. In the literature, many calculation methods for simultaneous power and flow rates are known and used for space heating and domestic hot water piping [8,23,24,25,26]. Most of these methods make use of well-known standards; for instance, European (EN 806e3:2006) [27], Danish (DS439) [27] and/or the Swedish (SDHA F101) [29], that have been developed based on measured heat demand usage profiles and on experience. The simultaneity factor for space heating SFSH,i is calculated based on the total number of homes Ni connected to the respective pipe node i: 𝑆𝐹𝑆𝐻,𝑖 = 𝑥 + ( 1−𝑥 𝑁𝑖 ) (6) The simultaneity factor for DHW SFDHW,i is calculated based on the total number of hot water taps ni connected to the respective pipe node i: 𝑆𝐹𝐷𝐻𝑊,𝑖 = 1 √𝑛𝑖 (7) The space heating and DHW load for each pipe segment are then calculated with 𝑄𝑆𝐻,𝑖 = 𝑆𝐹𝑆𝐻,𝑖𝑄𝐶𝑆𝐻,𝑖 (8) 𝑄𝐷𝐻𝑊,𝑖 = 𝑆𝐹𝐷𝐻𝑊,𝑖𝑄𝐶𝐷𝐻𝑊,𝑖 (9) where QCSH,i and QCDHW,i are the cumulative space heating peak load demand and cumulative domestic hot water peak load demand at node i, respectively. The total heat load after applying simultaneity factors can be calculated for two options namely cumulative and DHW priority switching strategy. In cumulative strategy, the total heat load can be obtained by adding both space heating and DHW loads. DHW priority switching strategy means that the power is switched to DHW once the hot water taps are turned on. So, the total heat load for DHW priority switching strategy can be calculated by taking the maximum of both space heating and DHW loads. Accordingly, in the present study for the parameter Simultaneity Methods (DHW_Simult), four levels were defined. Table 1 shows the set of levels for each of the selected parameters (experimental factors) to carry out the sensitivity analysis. Table 1: Set of levels for each parameter. Parameter Reduction of Space Heating Demand Pipe Sizing Design Constrain Simultaneity Methods SH_Dem Pipe_Limit DHW_Simult Level 1 0 % Reduction of Space Heating Demand Design by flow velocity Space heating and Domestic Hot water; Eq. (6); (DHW: x=0,15 SH: x=0,62) 2 17 % Reduction of Space Heating Demand Design by pressure gradient Space heating Eq. (6) and Domestic Hot water Eq. (7); (SH: x=0,62) 3 33 % Reduction of Space Heating Demand Design by pressure Number Space Heating and Domestic Hot Water Eq. (6) with priority Switching; (DHW: x=0,15; SH: x=0,62) 4 Design by Velocity and Pressure gradient Space Heating Eq. (6) and Domestic Hot Water Eq. (7) with priority Switching; (SH: x=0,62) Sensitivity analysis is used to quantify how the variability of these parameters influences the district heating performance output. To assess the impacts of variations in the selected input variables on the district heating alternatives studied, a sensitivity analysis by means of a multilevel factorial analysis Ik have been conducted. In this kind of analysis each factor k has a specific number of I levels. Similarly, to 2n factorial analysis, standardized regression coefficients (SRC) were applied to determine the sensitivity of the selected performance indicators (i.e. the Total Cost of Project, the Deployment Cost per Home, the Net Present Value, the Total Heat Delivery and the Heat Losses). When the input parameters xj are independent, the standardized regression coefficients provide a measure of variable importance since SRC measures the effect of the variation of an input parameter xj with a fixed fraction of its standard deviation on the variation of the output yi, while all other input parameters equalize their expected value [30]. The statistical model upon which the analysis of screening designs is based expresses the response variable ŷi as a linear function of the experimental factors, interactions between the factors, and an error term. The experimental error ԑ is typically assumed to follow a normal distribution with a mean of 0 and a standard deviation equal to σ. 𝑦?̂? = 𝑏0 + ∑ 𝑏𝑙𝑥𝑙 𝑘 𝑙=1 +∑ ∑ 𝑏𝑙𝑗𝑥𝑙 𝑘 𝑗=𝑙+1 𝑘 𝑙=1 𝑥𝑗 + 𝜀 (10) 4. ANALYSIS AND RESULTS Sensitivity analysis of district heating network of scenario A1 The multilevel sensitivity analysis is presented for a single network typology of Scenario A1: Pipe layout definition without crossing mains streets or small green zone and not considering project phases. Table 2 shows some network configuration variables used in the current study. Table 2 Network configuration variables Configuration Variable Variable value Configuration Variable Variable value Number of Homes 305 Pipes design by flow velocity True Peak space heating demand (kW) 1525 Pipes design by pressure number True (PN10) Peak hot tap water demand (kW) 9150 Pipes design by pressure gradient FALSE Network deployment time (years) 5 Supply temperature (°C) 70 Network lifetime to consider (years) 35 Return temperature (°C) 40 Figure 2 summarizes the results of the 48 cases generated by the multilevel factorial analysis of scenario A1 for one of the output variables. The graph shows the variability within the total cost indicator, which reflects the impact of the Pipe Sizing Design Constrain parameter in the x-axis. The four different categories that are defined as the level of the parameter denotes 17% of difference between the Total cost average of the alternatives where the pipe sizing was limited by flow velocity in comparison to those alternatives sized by pressure gradient. In this last alternative the diameters of the service connections pipe tend to be larger than the other alternatives to reach the constrains of the pressure limitation drops. Figure 2: Box chart of Total Cost of Project indicator in function of one of the system parameters. To evaluate the impact of the 3 parameters on the variability of the selected performance indicators a more detailed analysis of the statistical results is necessary. The analysis was carried out with the help of a computer program “Statgraphics Plus”, which is a software designed for interactive statistical data analysis [31]. The results obtained from the software are displayed as a regression model which is fitted to the data. Commonly, to simplify the interpretation of screening designs, the model is expressed in terms of “effects” [31]. For the response surface designs, the “Pareto Charts” display each of the estimated effects (Figure 3 and figure 4). Figure 3: Pareto Chart of the Heat Losses and the Deployment Cost per Home performance indicators Figure 4: Pareto Chart of the Total Heat Delivery and the Net Present Value performance indicators The length of each bar is proportional to the standardized effect, which is the estimated effect divided by its standard error. Any bars which extend beyond the blue line correspond to effects which are statistically significant at the 95.0% confidence level. The graphic shows that the Pipe Sizing Design Constrain, (Pipe_Limit) is the most important factor for the Heat Losses (Heat_Loss). The Simultaneity Methods (DHW_Simult) has significant influence on the Heat Losses (Heat_Loss) performance indicator as well, while the other independent factor, Reduction of Space Heating Demand, (SH_Dem) is not statistically significant. The impact of the Simultaneity Methods (DHW_Simult) on the Deployment Cost per Home (Cost_Home) is statistically significant and larger than the effect of the other parameters. In this performance indicator the Reduction of Space Heating Demand, (SH_Dem) is also statistically significant. Combinations between the SH_Dem and the Pipe_Limit (“AB” on the graphic), has also a significant influence on the Deployment Cost per Home. For the Total Heat Delivery (Heat_Use), the significant factor is the Simultaneity Methods (DHW_Simult). Meanwhile the three selected parameters have an effect statistically significant for the performance indicator Net Present Value (NPV) Another important aspect consists of evaluating the main effect of factors, as well as the interactions existing amongst the experimental factors. The main effect of factor j can be defined as the change in the response variable yi when xj is changed from its low level to its high level, with all other factors being held constant midway between their lows and their highs levels. Figure 5 shows the main effects for two performance indicators. Figure 5: Main Effect plot of two performance indicators. The graphics clearly shows that in the case of the Heat Losses (Heat_Loss), when the parameter Pipe Sizing Design Constrain is on the level (Design by flow velocity) the Heat Losses reach value up to 735 MWh per year, which represents a 10% of variation with respect to the heat loss mean value. Similar effect of 10% heat loss reduction happens when the parameter Simultaneity Methods is in the upper level 4 where Domestic Hot Water with priority Switching is selected. In the same way, it is relevant the impact of the Simultaneity Methods parameter on the Total Heat Delivery (Heat_Use). In this parameter indicator, selecting the upper level of Simultaneity Methods where Domestic Hot Water with priority Switching is defined will reduce 45% the Total Heat Delivery (7000 MWh) with respect to the 12750 MWh mean value of this indicator. As was observed in [30], to deal with the influence of factor interactions, an effect graph for each pair of factors should be produced. Below, the interactions plot for the Heat Losses and the Deployment Cost per Home indicators are presented. In figure 6, a pair of lines was plotted for each interaction, corresponding to the predicted response when one factor is varied from its lower to its upper level, at each level of the other factor. The predicted response for each combination of low and high levels of two factors is displayed at the extremes of each segment. If two factors do not interact, the effect of one factor will not depend upon the level of the other and the two lines in the plot are approximately parallel. Analysing the interaction in graphic a) AB, (A: SH_Dem and B: Pipe_Limit), one can see that the Pipe_Limit has little effect on the output variable (Heat Losses) at low level, as well as at high level of the SH_Dem. The two lines in the graph are approximately parallel which means that the two factors do not interact. Similar conclusions can be reached regarding the interaction between the SH_Dem and the DHW_Simult (AC in the graph), as well as interaction between the Pipe_Limit and the DHW_Simult (BC in the graph) since in both cases the two lines in the interaction plot are approximately parallel. However, in graphic b) concerning the Deployment Cost per Home indicator, the interaction between the SH_Dem and the Pipe_Limit (“AB” in figure 6) is significant. Notes that there is a significant difference in the response of the Deployment Cost per Home depending on the level. On the one hand, when the independent variable “A”: SH_Dem is at lower level which mean without reduction of the space heating demand, thus 100% of the base case space heating load, the level of the Pipe_Limit (“B”) has a larger effect on the Deployment Cost per Home with his lower value and therefore, when the district heating use Design by flow velocity as Pipe Sizing Design Constrain. In this condition the Deployment Cost per Home is 10% larger than the value obtained in the upper level of Pipe_Limit parameter, thus when the district heating use Design by velocity and pressure gradient as Pipe Sizing Design Constrain. On the one hand, when the independent variable “A”: SH_Dem is at upper level which mean with 33% of reduction of the space heating demand, the level of the Pipe_Limit (“B”) has a larger effect on the Deployment Cost per Home with his upper value and therefore, when the district heating use Design by velocity and pressure gradient as Pipe Sizing Design Constrain. It should be notice that this result reflects that even if significant actions are carried out to reduce the space heating load like the upper value of the parameter “A”: SH_Dem (33% of reduction of the space heating demand) it is possible to obtain smaller values of Deployment Cost per Home even if the less strength criterion is used as Pipe Sizing Design Constrain, that is Design by flow velocity. a) b) Fig. 6. Interactions plot of two performance indicators Network configuration scenarios analysis In addition to the sensitivity analysis, four scenarios related to district heating layout configuration have been investigated to study the impact on network dimensions, cost, and performance. All network calculations are done with similar central substation size and the rest of network variable configuration remaining similar. The definition of the scenarios describing the pipe layout concept are presented below. In the case of scenarios 1, 2 and 3 a network rollout strategy spreading the demand points over years was considered. While for the case of scenario 4 a network rollout strategy was used considering a fixed roll- out phase polygons in function of the project construction phases. The output of the network routing algorithm in the form of polygons describing the boundary of every cluster is visualized for two of the defined scenarios in figure 7.  Scenario A1: Layout without crossing mains streets or green zones and not considering project phases  Scenario A2: Layout crossing mains streets but not green zones and not considering project phases  Scenario A3: Layout crossing mains streets and small green zone and not considering project phases  Scenario A4: Layout crossing mains streets and small green zone and considering project phases Figure 7: Output of a simulation indicating the location of clusters, heat sources and pipe routes. Figure 8 shows the trench length of the four different network configurations. The breakdown of distribution network pipe sizes reflects the impact on the dimensions of DH pipes of the design flow velocity and network pressure levels constraints. The Scenario A4 presents the smaller total trench length and there are almost not pipes with diameter larger than DN65. The length of pipes with diameters DN32 and DN40 also are increased, which have a directly in pact on the network deployment cost. Figure 8: Impact of network configuration scenarios on the district heating pipe diameters and length. The impact on the Total cost of the project and on the Deployment Cost per Home are displayed in figure 9. Results demonstrates that with Scenario A4 a reduction of 15% to the Total cost of project and the Deployment Cost per Home in comparison with the Scenario A1. Figure 9: Impact of network configuration scenarios on two performance indicators. Although the analysis of the cost variables can provide a good evaluation of the studied scenarios, the Net Present Value indicator can give a better inside of the performance of the system. As was afore mentioned the Net Present Value, NPV, consider the cash flows generated by a project against initial capital investment. For that reason, this performance indicator can evaluate the operational improvement introduced on the different configuration investigated. Figure 10 clearly shows that by using the configuration of Scenario A4 a Net Present Value 7 times larger than the one of Scenario A1 is achieved. Figure 10: Impact of network configuration scenarios on the Net Present Value performance indicator. 5. CONCLUSION A statistical exercise on a district heating system was presented. However, the target of the present work was not to obtain a parametric model, since an automated, (GIS) based district heating network routing and planning tool was used. Instead, it was aimed to demonstrate the capability of this kind of statistical approach to illustrate the influence of certain parameters on the performance indicators of district heating. Several parameters were investigated and ranked in terms of importance to determine which ones contribute the most to the level of variability for several performance indicators. Ranking of input parameters was performed using sensitivity analysis. The most important parameters were identified by screening and sensitivity analysis. In addition, several collective heat distribution network alternatives developed to supplies heat in a neighbourhood with 305 dwellings were analysed. For the collective alternatives different networks layout strategy definition, namely considering that the allocation of the distribution pipe layout is able or not to cross the main and small streets; equally, the option of crossing or not green zones, as well as, considering or not the phases of the project construction were studied. Results show that by using the configuration of scenario A4 a Net Present Value of 549254 € which is 7 times larger than the one of Scenario A1 (77207 €) is achieved. The results highlight both the capabilities of statistical analysis and the potential of the automated district heating design tool towards solutions for sustainable energy planning. REFERENCES 1. CHAMBERS J, et al. “Mapping district heating potential” under evolving thermal demand scenarios and technologies: a case study for Switzerland”. Energy, 2019; vol 176. 2. KAUKO H, et al. “Dynamic modeling of local district heating grids with prosumers: a case study for Norway”. Energy, 2018, vol 151. 3. TECH. REP. Reducing the capital cost of district heat network infrastructure. AECOM and Energy Technology Institute (ETI), 2017. 4. JEBAMALAI J., et al. “An automated GIS-based planning and design tool for district heating: Scenarios for a Dutch city”, Energy, 2019, vol 183. 5. MARQUANT JF, BOLLINGER LA, EVINS R, CARMELIET J. “A new combined clustering method to analyse the potential of district heating networks at large-scale.” Energy, 2018, vol 156. 6. UNTERNAHRER J, MORET S, JOOST S, MARECHAL F. “Spatial clustering for district heating integration in urban energy systems: application to geothermal energy.” Applied Energy, 2017, vol 190. 7. VAILLANT J, HIMPE E, JANSSENS A. “Performance evaluation of a low temperature district heating system based on simulation, uncertainty, and sensitivity analysis.”, 13th International Conference of Building Performance Simulation Association, Chambery: IBPSA, 2013. 8. TOL HI, SVENDSEN S. “Improving the dimensioning of piping networks and network layouts in low- energy district heating systems connected to low energy buildings: a case study in Roskilde, Denmark.”, Energy, 2012. 9. DELANGLE A, LAMBERT RS, SHAH N, ACHA S, MARKIDES CN. “Modelling and optimising the marginal expansion of an existing district heating network.”, Energy, 2017, vol 140. 10. SCHWEIGER G, et al. “District heating and cooling systems-framework for modelica-based simulation and dynamic optimization.”, Energy, 2017, vol 137. 11. BRANGE L, ENGLUND J, LAUENBURG P., “Prosumers in district heating networks - a Swedish case study.” Applied Energy ,2016, vol 164. 12. BRAND L, CALVEN A, ENGLUND J, LANDERSJ€O H, LAUENBURG P., “Smart district heating networks -a simulation study of prosumers' impact on technical parameters in distribution networks.” Applied Energy, 2014, vol 129. 13. DALLA ROSA A, CHRISTENSEN JE. “Low-energy district heating in energy-efficient building areas.” Energy, 2011, vol 36. 14. CHICHERIN S, VOLKOVA A, LATOSOV E, “Gis-based optimisation for district heating network planning.”, Energy Procedia, 2018, vol 149. 15. TECH. REP. “Design and installation of preinsulated bonded pipe systems for district heating”. BSI and CEN, 2010. 16. CORMEN TH, et al. “Introduction to algorithms.”, MIT press, 2009. 17. DIJKSTRA EW., “A note on two problems in connexion with graphs.”, Numer Math, 1959. 18. PRIM RC., “Shortest connection networks and some generalizations.”, Bell system technical journal, 1957. 19. KRUSKAL JB., “On the shortest spanning subtree of a graph and the traveling salesman problem.”, Proc Am Math Soc, 1956. 20. RUSSELL SJ, NORVIG P., “Artificial intelligence: a modern approach.”, Malaysia: Pearson Education Limited, 2016. 21. MICHALEWICZ Z, FOGEL DB. “Traditional methods-part 1. In: How to solve it: modern heuristics.”, Springer, 2004. 22. JANSSENS A, VAILLANT J, HIMPE E, DELGHUST M, LAVERGE J., “Transforming social housing neighbourhoods into sustainable carbon neutral districts.”, In: Proceedings of the 18 Convencion Científica de Ingeniería y Arquitectura, La Habana, Cuba, 2016. 23. HAGEN B, et al., “District heating load profiles for domestic hot water preparation with realistic simultaneity using DHWcalc and TRNSYS”, Energy, 2020, vol 201. 24. GUDMUNDSSON O., THORSEN JE., ZHANG L., “Cost Analysis of District Heating Compared to its Competing Technologies.”, In proceedings of: 4th International Conference on Energy and Sustainability, Romania, 2013. 25. HOLM CHRISTIANSEN Ch., et al., “Results and experiences from a 2 - year study with measurements on a low - temperature DH system for low energy buildings”, the 13th International Symposium on District Heating and Cooling, DHC13, Copenhagen, Denmark, 2012. 26. Paulsen, O., et. al., “Consumer unit for low energy district heating network.”, 11th International Symposium on District Heating and Cooling, Reykjavik, Iceland, 2008. 27. TECH. REP. “Specifications for installations inside buildings conveying water for human consumption, pipe sizing, simplified method.” BSI and CEN; 2006. 28. TECH. REP., “Code of practice for domestic water supply installations.” Dansk Standardiseringsrad (DS); 2009. 29. FREDERIKSEN S, WERNER S., “District heating and cooling.” Studentlitteratur, 2013. 30. VAILLANT J, HIMPE E, JANSSENS A. LAVERGE J., “Sensitivity analysis of heat losses in collective heat distribution systems using an improved method of EPBD calculations.”, Energy, 2017, 31. Statgraphics, Statistical Data Analysis Software Tools, http://www.statgraphics.com. EVALUACIÓN DE CENTRALIDADES Y EL DESARROLLO TERRITORIAL SUSTENTABLE DE LA CIUDAD DE MEXICALI Veronica Aguilar-Quintanar1, Arleen Morales2 1Facultad de Arquitectura y Diseño, Universidad Autónoma de Baja California (UABC), Calle de la Normal S/N, Mexicali, Baja California, México, 2Facultad de Ciencias, Universidad Autónoma de Baja California (UABC), Carretera Transpeninsular Ensenada - Tijuana No. 3917 Colonia Playitas C.P. 22860, Ensenada, Baja California, México. 1 veronica.aguilar@uabc.edu.mx RESUMEN La expansión urbana y el uso eficiente del territorio son retos importantes para el desarrollo sustentable en un mundo cada vez más urbano. En ciudades mexicanas, así como en algunas latinoamericanas, la calidad de vida intraurbana no cumple con la equidad ideal para todos sus habitantes. Por otra parte, el flujo de información desde fuentes oficiales para la planeación es escasa y de generación lenta. En este contexto, la evaluación de las condiciones económicas, sociales y ambientales a partir de las centralidades urbanas, considerándolas elementos espaciales representativos, ofrece un método que agiliza el diagnóstico y la producción de datos útiles en el manejo de políticas públicas con un soporte territorial que consoliden la sustentabilidad. El objetivo de esta investigación es evaluar el desarrollo territorial sustentable de la Ciudad de Mexicali como caso de estudio en el periodo de 2010 y 2021. La metodología propuesta ofrece la posibilidad de realizar diagnósticos rápidos de las circunstancias cambiantes con base en información de fácil acceso en las principales dependencias locales y sirve de fundamento valido para planeaciones estratégicas dinámicas y sustentables tanto a mediano como a largo plazo. El proceso considera el estudio de las centralidades a través del análisis de las condiciones de sustentabilidad de los años de 2010 y 2021 mediante el uso de 36 indicadores que evalúan factores socioeconómicos, ambientales y caracteristicas del espacio físico. Finalmente, estas representaciones espaciales son clasificadas de acuerdo con cuatro perfiles que facilitan y sustentan decisiones de planeación estratégica. PALABRAS CLAVES: Centralidades, planeación territorial sustentable, territorio y políticas públicas. ASSESSMENT OF CENTRALITIES AND SUSTAINABLE TERRITORIAL DEVELOPMENT OF MEXICALI CITY ABSTRACT Urban sprawl and efficient land use are major challenges for sustainable development in an increasingly urban world. In Mexican cities, as well as in some Latin American ones, the intra-urban quality of life does not meet the ideal equality for all its inhabitants. On the other hand, the flow of information from official sources for planning are scarce and slow to generate. In this context, the evaluation of the economic, social, and environmental conditions from the urban centralities, considering their representative spatial elements, offers a method that accelerate the diagnosis and the production of useful data in the management of public policies with a territorial support that consolidate sustainability. The objective of this research is to evaluate the sustainable territorial development of the City of Mexicali as a case study in 2010 and 2021. The proposed methodology offers the possibility of making rapid diagnoses of the changing circumstances based on easily accessible information on the main local dependencies and serves as a valid foundation for dynamic and sustainable strategic planning in the medium and long term. The process considers the study of the centralities through the analysis of the sustainability conditions of the years 2010 and 2021 using 36 indicators that evaluate socioeconomic, environmental factors and characteristics of the physical space. Finally, these spatial representations are classified according to four profiles that facilitate and support strategic planning decisions. KEY WORDS: Centralities, sustainable territorial planning, territory, and public policies. 1. INTRODUCCIÓN Mexicali es una ciudad fronteriza ubicada al norponiente de México, en los últimos 20 años presentó una expansión de su superficie por arriba del 45% [1]. Uno de los principales factores que contribuye con este fenómeno es el aumento de demanda de vivienda por incremento poblacional; el cual se relaciona directamente con el impulso local de la industria maquiladora y una alta oferta de empleo [2]. Sin embargo, los prolongados tiempos de actualización en los instrumentos de planeación urbana no se ajustan al ritmo de expansión y dificultan tanto la planeación anticipada como el desarrollo de estrategias que fortalezcan el desarrollo. Esta situación no es única de Mexicali, la comparten otras ciudades mexicanas y de América Latina. En el caso particular de la ciudad de estudio, el Programa de Desarrollo Urbano del Centro de Población de Mexicali (PDUCP) que es el instrumento de planeación vigente fue publicado en 2008; es un instrumento que evidentemente no se ajusta a las condiciones urbanas actuales. En el 2019 se iniciaron los trabajos del nuevo programa urbano, pero aún se encuentra en proceso de autorización legislativa. El retraso en una actualización oportuna de los planes y programas municipales se debe en gran medida a la lentitud y dificultad para generar la información que forma parte de los insumos para estos documentos. Por otra parte, en forma tradicional las planeaciones abordan las diversas temáticas urbanas con un enfoque sectorial, no cuentan con los mecanismos ni de evaluación ni seguimiento que fundamenten actualizaciones y modificaciones; además, su planteamiento no incluye medidas favorables a la sustentabilidad urbana que contribuyan en reducir esa expansión urbana sin control, la cual afecta no solo las reservas territoriales periféricas especialmente las agrícolas, sino también genera una mayor demanda de infraestructura y servicios para alcanzar condiciones de bienestar en la población. Además, es frecuente que el crecimiento sin control ocasione una distribución desequilibrada de amenidades urbanas afectando la accesibilidad a destinos deseados. Consecuentemente, los instrumentos generados terminan resolviendo problemáticas actuales sin considerar escenarios futuros, de tal manera que hasta su siguiente producción serán evidentes los asentamientos dispersos con una ocupación irregular del suelo, limites urbanos imprecisos, altas inversiones en infraestructura, degradación ambiental, sistemas de movilidad ineficientes e inequidad en el acceso oportunidades [3]; es decir, entornos urbanos poco eficientes con alta demanda de recursos y sin una visión hacia la sustentabilidad. La política urbana nacional e internacional establece la necesidad de planear y reestructurar las ciudades a fin de crear modelos urbanos eficientes que disminuyan el consumo de recursos y territorio; reduzcan los costos de operación municipal; así como tiempos y distancias de traslado [4]. Las ciudades deben ser dinámicas en su evolución [5], generar valor en las zonas urbanas, ofrecer una conectividad adecuada y una mezcla de usos de suelo que disminuya la necesidad de traslados para satisfacción de necesidades [6]. La planeación de una ciudad puede tener diversos enfoques de abordaje, en opinión de Alcántara [7] los elementos que tienen mayor impacto y relación con la planeación territorial y que son de interés para la presente investigación son la movilidad urbana, los usos de suelo y las densidades urbanas, que en su conjunto se incorporan en el concepto de centralidad; que será la unidad de análisis de las condiciones de sustentabilidad actual de la ciudad de Mexicali. 2. CENTRALIDADES URBANAS Las centralidades son un proceso espacial resultado de la relación entre los flujos de movilidad que son generados por la población al trasladarse a los sitios donde se encuentran los destinos de interés [8]. Son espacios de diferentes escalas con un rol definido en la ciudad que representan los principales puntos de atracción por lo que en ellos se producen gran cantidad de interacciones colectivas [9]. En estas zonas se concentra la mayor cantidad de empleos, equipamientos y servicios. Sin embargo, estas unidades espaciales para ser la base de planeaciones territoriales requieren de un análisis que permita determinar tanto su ubicación como las condiciones de sustentabilidad actual y la capacidad para desarrollo futuro. Considerar la escala de centralidad para estudios urbanos orientados a la planeación territorial sustentable, requiere de la incorporación de indicadores socioeconómicos, ambientales y territoriales que permitan mostrar las condiciones actuales de las centralidades, planear en función de la satisfacción de necesidades y aprovechar las oportunidades para el desarrollo futuro [10]. La metodología propuesta determina la ubicación de estas zonas de análisis, así como las condiciones de sustentabilidad; su grado de consolidación y disponibilidad de superficie. La información requerida es de fácil acceso y con emisiones periódicas regulares a cargo del Instituto Nacional de Estadística y Geografía (INEGI); de tal manera que no es necesario esperar por la generación datos e insumos complejos para realizar diagnósticos urbanos, lo que permite acortar tiempos en realización de planeaciones locales. 3. MATERIAL Y METODOS El trabajo de investigación se dividió en tres etapas. La primera fue la determinación y ubicación de las centralidades actuales en la ciudad de Mexicali y un comparativo de 2010. En la segunda etapa del proceso de investigación se analizaron las condiciones de desarrollo de las centralidades a través de 27 indicadores de sustentabilidad que incluyen aspectos sociales, económicos y ambientales; así como el comparativo de sus dimensiones y de las principales caracteristicas urbano-territoriales por medio de 9 indicadores para determinar el grado de consolidación. Por último, se clasificaron las centralidades en perfiles que sugieren planeaciones estratégicas en las centralidades con base en los análisis previos. Etapa preliminar Se concentraron y procesaron las bases de datos en Sistema de Información Geográfica (SIG) utilizando la plataforma del software ArcGis para escritorio con extensión Spatial Analyst. Los insumos principales para la realización de esta investigación fueron el mapa base de la ciudad de Mexicali; se estableció como área de estudio el límite de la mancha urbana de acuerdo con el PDUCP del 2008 de Mexicali. Otro insumo fue la ubicación puntual de empleo, se utilizó como fuente de información el Directorio Estadístico Nacional de Unidades Económicas (DENUE) generado por el Instituto Nacional de Estadística y Geografía (INEGI) para los años de 2010 y 2021, la red vial de la ciudad, datos poblacionales, económicos y de vivienda del Censo de Población y vivienda 2010 y 2020 realizado por INEGI, usos de suelo actuales de la zona de estudio, así como los del 2010 y el plano catastral incluyendo las edificaciones de la ciudad de Mexicali realizado por oficina catastral Municipal para los 2 años de estudio. Etapa 1. Identificación de centralidades La ubicación de centralidades en la Ciudad de Mexicali para los años de 2010 y 2021 se realizaron por medio de la herramienta “centrality” a través del software Arcgis [11]; esta herramienta fue creada por Sevtsuk para estudiar configuraciones espaciales de las ciudades; al identificar las zonas de estudio se pueden analizar las condiciones sociales, económicas o ambientales existentes. El software opera con sistemas de red y considera tres elementos básicos: los bordes que son las vías de movilidad, en este caso las calles, los nodos representados por las intersecciones entre bordes y los edificios que para la investigación actual fueron la ubicación de empleos. Los parámetros de análisis para establecer las centralidades fueron Alcance, Gravedad, Centralidad intermedia, Cercanía y Distancia Recta [11]. El Alcance (Reach), que representa las oportunidades alcanzables a través de la red para todo tipo de desplazamiento. Considera el número de nodos a los cuales se puede acceder desde un punto determinado a un radio r preestablecido, a cada punto de análisis se le asigno un peso específico en este caso fue el número de empleos; ya que el empleo en nuestro país es el destino más frecuente de los viajes urbanos de acuerdo con la encuesta origen-destino realizada en el 2017 por INEGI. El índice de alcance r para un edificio de interés i se calcula con la sumatoria de numero de destinos j que se encuentran en todas direcciones en un recorrido por la red considerando un radio máximo r de acuerdo con la fórmula (1).  { ; , } [ ] Alcance [ ] W j j G i d i j r ri     ò (1) Gravedad (Gravity) es la medida que indica la facilidad para alcanzar destinos considerando un valor de impedancia β que es un valor constante asignado a cada tipo de desplazamiento al cual se asignó el valor β de 0.00217 metros para el desplazamiento peatonal. Este índice se representa con la siguiente formula (2) donde el índice de gravedad para un edificio i en una red G a un radio r determinado es el peso de los destinos j considerando la distancia geodésica d[i,j] entre edificios i y j, donde β es un valor constante.   [ ],{ } [ ]; , G d [ ]rave ad W j e d i jj G i d i j r ri     ò (2) La Centralidad intermedia (Betweeness) es el número de veces que un nodo se encuentra entre un par de destinos determinado, la fórmula para su cálculo es la siguiente (3).     , ],[;{ } C a [entr lidad intermedia ] njk i W j njkj k G i d i j r r i      ò . (3) Cercanía (Closeness) indica la relación de cada punto con respecto al resto los puntos de la red en un radio determinado, por tal motivo establece cuales puntos están más cercanos a un mayor número de puntos representado por el inverso del acumulativo de distancias entre un edificio y el resto de los edificios de la r. Esta métrica no utiliza peso de valor en las edificaciones. La fórmula para el cálculo de la cercanía para un punto i a un radio r, donde d[i,j] es el camino más corto entre los puntos i y j se observa en (4).   [ ], ,{ } [ ]; 1 Cercanía [ ] d i j W j r jj G i d i r i      ò (4) Distancia recta (Straightness) es la distancia más corta desde un edificio i y el resto de edificios j dentro de un radio r, donde δ[i , j] es la distancia más corta entre i y j , mientras que d[i , j] es la distancia más corta a través de la red. Solo puede hacerse el cálculo de impedancia en distancia en este parámetro (5).       , , { } , [; ] Distancia recta [ ] i j W j d i j j G i d r i j r i       ò (5) Etapa 2. Análisis de centralidades y análisis urbano-territorial En el proceso de evaluación de las centralidades se determinó el nivel de desarrollo sustentable para los años 2010 y 2021 a través de 27 indicadores divididos en 3 grupos: 15 sociales, 8 económicos y 4 ambientales a fin de incluir las esferas de la sustentabilidad (Tabla 1). La selección de indicadores para caracterizar el territorio se basó en elegir aquellos calculables con metodologías sencillas, que utilicen datos accesibles y confiables para su realización, que pudieran representarse cartográficamente, tener la capacidad de ser realizados periódicamente para ser monitoreados y que se consideraran de relevancia tanto en evaluaciones como en comparativos de instancias internacionales como la Organización de las Naciones Unidas (ONU), ONU-Hábitat, Organización para la Cooperación y el Desarrollo Económico (OCDE) y Banco Mundial. Tabla 1: Tabla de Indicadores. Indicadores Sociales (S) Tema Indicador Cálculo Dinámica poblacional Densidad de habitantes Densidad de población = Número de habitantes / Área urbana. Tasa de crecimiento poblacional anual 2000-2010 Tasa de crecimiento poblacional anual 2011-2021 Estructura demográfica Índice de vejez Índice de envejecimiento = (Habitantes mayores de 60 años / Habitantes menores de 15 años) • 100 Índice de hacinamiento Índice de hacinamiento = Número de habitantes por vivienda/número de cuartos dormitorio Viviendas con un solo integrante Porcentaje de viviendas con un solo integrante = (Número de viviendas con un solo habitante/total de viviendas) • 100 Educación Población de más de 18 con educación mayor de posbasica Porcentaje de población mayor de 18 años con educación posbasica = (Habitantes mayores de 18 años con educación posbasica / Número total de habitantes) • 100 Tasa de analfabetismo Tasa de analfabetismo = (Habitantes que no saben leer mayores de 15 años / Número total de habitantes) • 100 Grado de escolaridad promedio Resultado de dividir el monto de grados escolares aprobados por las personas de 15 y más años entre las personas de este grupo de edad. Equidad Población que cuenta con servicio de salud % de Población con servicio de salud = Población con servicio de salud / Población total) * 100 Proximidad a equipamiento de salud Proximidad a equip. de salud= (Habitantes en radio de influencia de servicio de salud / Número total de habitantes) • 100 Proximidad a equipamiento educativo Proximidad a equip. educativo = (Habitantes en radio de influencia de equip. educ. / Número total de habitantes) • 100 Proximidad a equipamiento educativo Proximidad a equip. educativo = (Habitantes en radio de influencia de equip. educ. / Número total de habitantes) • 100 Proximidad a equipamiento educativo Proximidad a equip. educativo = (Habitantes en radio de influencia de equip. educ. / Número total de habitantes) • 100 Proximidad a equipamiento educativo Proximidad a equip. educativo = (Habitantes en radio de influencia de equip. educ. / Número total de habitantes) • 100 Proximidad a equipamiento de salud Proximidad a equip. de salud= (Habitantes en radio de influencia de servicio de salud / Número total de habitantes) • 100 Proximidad a ruta de Proximidad a ruta de transp. = (Habitantes en radio de transporte público influencia de ruta de transp. / Número total de habitantes) • 100 Vivienda con carencia de al menos 1 servicio básico Porcentaje de viviendas con carencia de al menos 1 servicios= (Número de viviendas con carencia de todos los servicios/total de viviendas) • 100 Indicadores Económicos (E) Tema Indicador Cálculo Empleo Tasa de desempleo Tasa de desempleo = (Número de personas desempleadas / Número de población económicamente activa) • 100 Crecimiento económico Tasa de participación laboral Tasa de participación laboral = (PEA / Población mayor de 15 años) • 100 Porcentaje de Empresarios del total de trabajadores Porcentaje de Empresarios del total de trabajadores=(Total de Empresarios / total de trabajadores) • 100 Relación de dependencia Relación de dependencia = (Habitantes mayores de 60 años + Menores de 15 años / Población ocupada) • 100 Proximidad a cruces fronterizos Distancia cruce fronterizo = Distancia euclidiana de cruce fronterizo al centroide de la centralidad. Estructura económica del empleo Trabajadores en actividades sector primario (10%) Porcentaje de trabajadores en sector primario=(Trabajadores del sector primario/trabajadores totales) • 100 Trabajadores en actividades sector secundario (40%) Porcentaje de trabajadores en sector secundario=(Trabajadores del sector secundario/trabajadores totales) • 100 Trabajadores en actividades sector terciario (50%) Porcentaje de trabajadores en sector terciario=(Trabajadores del sector terciario/trabajadores totales) • 100 Indicadores Ambientales (A) Tema Indicador Cálculo Espacios verdes Área verde por habitante Área verde por habitante = Superficie de área verde / habitantes Porcentaje de superficie permeable (cubierta natural) Porcentaje de superficie permeable = (Superficie permeable / Superficie total) • 100 Contamina- ción Emisiones de CO2 generadas por el traslado al empleo. Calculo a través de Software Stella Agua Porcentaje de viviendas con acceso a agua potable Porcentaje de Viviendas con acceso a agua potable = (Viviendas con acceso a agua potable / total de viviendas) • 100 Los indicadores sociales analizaron los principales aspectos de la población en relación a dinámicas poblacionales como densidad y tasas de crecimiento; también resultaron de interés aquellos que permitieran determinar las necesidades actuales y las demandas futuras en temas de empleo, educación, salud; así como vivienda; por tal motivo se incluyeron indicadores de proximidad a las principales tipologías de equipamiento, indicadores de condición de la educación como tasa de analfabetismo, grado de escolaridad promedio y población mayor de 18 años con educación posbasica. Adicionalmente, se consideraron los indicadores de índice de vejez e índice de hacinamiento. La población como de recurso territorial debe estudiarse considerando aspectos que permiten evaluar su capacidad productiva y su participación en actividades económicas [12]; bajo estos parámetros se incluyeron en los indicadores económicos la tasa de desempleo, la tasa de participación laboral y relación de dependencia. Por otra parte, los indicadores económicos también incorporaron los porcentajes de trabajadores por sector de actividades y la relación empresario/trabajador para el análisis de la estructura del empleo. En los indicadores ambientales se consideraron aquellos que midieran el efecto de las actividades antrópicas; en los componentes de aire, agua y suelo para determinar las condiciones actuales y establecer acciones que reduzcan los impactos humanos [12]. En este grupo de indicadores se seleccionaron la superficie de área verde por habitante y el porcentaje de superficie permeable en el tema de suelo; también se evaluaron las emisiones de CO2 generadas por el traslado al empleo que constituye la causa principal de desplazamientos en la ciudad. Por último, el porcentaje viviendas con acceso a agua potable. Finalmente, por medio de 9 indicadores se analizaron las condiciones urbano-territoriales de las centralidades identificadas con el propósito de conocer la conectividad entre ellas y con el resto de la ciudad; así como la disponibilidad de espacio para nuevo desarrollo, relación con centro cívico de la ciudad y con los cruces fronterizos, también se analizó la diversidad de usos de suelo a su interior, así como el grado de compacidad. Como último paso se determinó el grado de consolidación y la disponibilidad de espacio para desarrollo futuro. Los valores considerados para los indicadores se establecieron con base en parámetros internacionales y fueron clasificados en cuatro niveles utilizando una ponderación de 4 a 1 tomando en cuenta el 4 como condiciones ideales y 1 como valores inaceptables bajos; además se utilizó la escala cromática tipo semáforo para una identificación más rápida de indicadores en conflicto. La primer categoría son valores ideales (color gris), valores aceptables (verde), valores inaceptables medios (amarillo) y valores inaceptables bajos (rojo). Este sistema de evaluación se aplicó a los indicadores sociales, económicos y ambientales para establecer niveles de desarrollo sustentable y de manera independiente se realizó la ponderación de los indicadores urbano-territoriales, que dio lugar a la clasificación en cuatro posibles perfiles de centralidades. Centralidad tipo 1 es aquella con alto nivel de desarrollo sustentable y condiciones urbano-territoriales adecuadas, Centralidad tipo 2 tiene alto nivel de desarrollo y elementos urbano-territoriales por debajo de parámetros aceptables. El tipo 3 es una centralidad con bajo nivel de desarrollo sustentable, pero condiciones urbanas adecuadas; finalmente la centralidad tipo 4 es aquella con condiciones inadecuadas tanto de desarrollo como de condiciones urbano-territoriales. 4. RESULTADOS Centralidades Se identificaron en la ciudad 11 centralidades en 2010 y 16 en el 2021, como puede apreciarse en la figura 1 y 2 todas las centralidades en ambos años se ubican hacia la parte oriente de la ciudad con un predominio hacia el norte. Es evidente que en los dos casos el sector poniente se encuentra desprovisto de estas zonas de atracción que reduzcan los flujos hacia el centro urbano, lo que implica mayores gastos y tiempo en desplazamiento hacia las fuentes de empleo, equipamientos y servicios. Puede observarse que la mayoría de las centralidades se ubican a lo largo de una vialidad primaria, la cual genera un eje principal y ordenador de la ciudad, situación que no cambió con el paso de los años. En el mapa del 2021 se identifican 5 nuevas centralidades, dos de ellas siguiendo el eje vial principal, mientras que las restantes se localizan en zonas intermedias a las identificadas en 2010. Las nuevas planeaciones deberán considerar el impulso de nuevas centralidades en el poniente y sur de Mexicali para reducir recorridos e impulsar el desarrollo. Fig. 1 Centralidades de Mexicali, B. C. 2010 (Elaboración propia 2021). Fig. 2 Centralidades de Mexicali, B. C. 2021, comparativo 2010 (Elaboración propia 2021). En el mapa de 2021 (Fig. 2) se aprecia que la centralidad 5 desapareció en este año, además es evidente que el resto de las centralidades se compactaron espacialmente. Y las centralidades 6 y 7 se fusionaron. Análisis de indicadores en las centralidades Indicadores Sociales Con respecto a estos indicadores se encontró que la tasa de crecimiento poblacional disminuyo de 1.55% del 2010 a 1.20% en el 2021, presentando una desaceleración que es benéfica en términos de consumo de suelo, sin embargo, se deben investigar más a fondo las causas y realizar comparativos de la relación de dependencia económica para planear las futuras necesidades de una población de mayor edad contra una fuerza productiva que se puede reducir drásticamente. La determinación de algunos indicadores puede crear la necesidad de nuevos que no estaban contemplados en esta metodología. La densidad de habitantes es baja en casi todas las centralidades, con excepción de la 6 y 11 en 2010 que tienen valores por arriba de 50 habitantes/ha, situación que no se mantuvo al 2021, ya que en ambos casos son zonas muy alejadas del centro urbano, condición que evidentemente está influida por la distancia de desplazamientos. No existe hacinamiento en la vivienda y en general no hay viviendas ocupadas por un solo integrante, sin embargo, al analizar la compacidad urbana en los indicadores urbano/territoriales es evidente que se requiere un uso más intensivo del territorio especialmente en relación con el uso habitacional; además en centralidades con poco espacio disponible esta puede ser una solución para la reestructuración. El grado de escolaridad promedio es bajo, con 8.71 años en promedio durante el 2010, pero lo más preocupante de este dato es que al 2021 se encontró que el número de años de escolaridad promedio no se incrementó y aun cuando la tasa de analfabetismo es baja para ambos periodos también se observa que la continuidad educativa en mayores de 18 años si se incrementó después de 11 años, lo que puede indicar que aun cuando este dato es favorable, se puede haber reducido en gran parte de la población la edad de deserción escolar. De tal manera que es indispensable una investigación más detallada, además de revisar las políticas y estrategias educativas actuales para fomentar la continuidad educativa especialmente en grados medios de educación. Por otro lado, también se encontró que la proximidad al equipamiento educativo para nivel básico es baja en gran parte de las unidades de estudio, mientras que es óptima para la educación media superior, por lo que es necesario analizar las ubicaciones actuales de escuelas y determinar la conveniencia de reubicaciones y nuevas edificaciones. En cuanto a las instalaciones de salud y su condición de proximidad a la población, es adecuada en todas las centralidades para ambos años. Por el contrario, la proximidad al equipamiento recreativo y la disponibilidad de áreas verdes por habitante no son adecuados e incluso se redujeron de 2010 a 2021. Indicadores Económicos Las centralidades en general presentan condiciones económicas aceptables, la tasa de desempleo más alta en 2010 es en la centralidad 7 con 5.35% que es un valor bajo de acuerdo con parámetros internacionales. Mientras en que 2021 esta tasa se presentó en un calor promedio de 0.5%. La tasa de participación laboral promedio es de 63% en los dos años, este dato indica que el panorama de empleo en la ciudad es aceptable en estos momentos, será conveniente la vigilancia para que esta situación se mantenga. Sin embargo, se puede observar en la relación de dependencia que existe un predominio de la población en los extremos de la vida de hasta el doble de habitantes con relación a la Población Económicamente Activa (PEA) en 2010, condición que mejoró en 2021, un desequilibrio de esta relación puede generar grandes gastos en salud y pensiones con bajo aporte económico por parte de la población trabajadora; este panorama puede ser complejo en los siguientes años, por lo que es necesario empezar a planear mecanismos que favorezcan esta situación. En cuanto a la distribución de actividades predominan las actividades del sector terciario en todas las centralidades para los dos periodos de estudio. Una de las ventajas competitivas de la ciudad es su condición de ciudad fronteriza, lo cual facilita los intercambios comerciales con Estados Unidos; esta situación es evidente en la proximidad a los cruces fronterizos que es aceptable en la mayor parte de las centralidades. Indicadores Ambientales La sustentabilidad ambiental en las centralidades presenta problemas en los dos años de análisis; incluso algunos de los indicadores presentan valores más desfavorables en 2021. En primer lugar, es baja la superficie permeable en la mayor parte de centralidades, solo se encuentra en condiciones aceptables en las centralidades periféricas, las cuales aún cuentan con gran cantidad de terrenos baldíos o terrenos en condiciones naturales; este indicador incluso empeoró ante las nuevas edificaciones. Es evidente la necesidad fomentar la presencia de áreas verdes en general en todas las centralidades para alcanzar valores ideales tanto de áreas verdes por habitante como de suelo permeable. Las emisiones contaminantes son altas en todas las centralidades, esto se debe en gran parte a que Mexicali es una ciudad que privilegia el desplazamiento vehicular con poco impulso al desplazamiento no motorizado o al uso del transporte público. La ciudad no cuenta con sistemas de transporte masivo, que pueden representar una necesidad a corto plazo. Indicadores Urbano-territoriales Las centralidades que en 2010 requerían atención en las condiciones urbano-territoriales eran la 1, 5 10 y 11; sus principales conflictos en ese momento consistían en la baja densidad de vivienda, la compacidad, la mezcla de usos de suelo, el número de vialidades primarias y nodos a su interior, sin embargo, se encontró que el resto de las unidades de análisis aun cuando sus características fueron satisfactorias, también presentaban algunos problemas. La centralidad 1 mejoró en 2021 en la disponibilidad de espacio secundaria a un incremento en la compacidad urbana, además se incrementó la diversidad de usos. Por otra parte, las centralidades 10 y 11 empeoraron su condición; se redujo su superficie, hay una menor diversidad ya que aumentaron únicamente los usos industrial y habitacional. Además, se realizaron reestructuraciones viales que afectaron la comunicación vial, pero al incrementar la compactación urbana y desaparecer algunas empresas maquiladoras aumentó el espacio disponible. La densidad de viviendas en general es baja en todas las centralidades en ambos años, la mayor densidad presente es en la centralidad 6 con 20 viviendas/ha en 2010 y de 23 en el 2021. La compacidad también es baja con un promedio de 0.97 m³/m² que solo se incrementó a 1 en 2021. Esto indica que se requiere un uso más intensivo del territorio y en algunas centralidades el uso de vacíos urbanos a fin de evitar expansiones en busca de terreno para nuevos proyectos. Por otra parte, la mezcla de usos de suelo en la mayor parte es inaceptable durante los dos periodos, existe un claro predominio de un solo uso en casi todas las centralidades. Estos espacios deben ser capaces de satisfacer las necesidades básicas de desplazamiento de los habitantes, por lo cual favorecer usos mixtos permitirá reducir los traslados. Es conveniente considerar que algunas centralidades debido a la baja superficie disponible requieran de reestructuración del territorio. En caso de contar con terreno suficiente se debe planear el uso futuro, tomar en cuenta las necesidades actuales y considerar las situaciones que se presentan en otras centralidades para identificar problemas de manera oportuna. La centralidad 1 tuvo un gran desarrollo en los años 70’s; en estos años el impulso económico y de vivienda se orientó a esta zona por la cercanía con el centro administrativo, sin embargo, debido a políticas de apoyo migratorio a Estados Unidos, esta área paulatinamente fue despoblándose y dejo de tener relevancia en la ciudad. Si se toma esta centralidad como ejemplo, de acuerdo con los hallazgos es conveniente decidir en cuales centralidades requieren un impulso para evitar su desaparición aplicando las estrategias y políticas que fomenten el desarrollo o bien en cuales el mejor camino es dejarlas desaparecer porque no son realmente necesarias para las dinámicas urbanas. En la unidad de análisis 1 aun cuando cuando se observa una mejoría al 2021 no es considerable tomando en cuenta que pasaron 11 años y de no impulsar su desarrollo desaparecerá paulatinamente. Las centralidades con mejores condiciones de desarrollo sustentable y urbano territoriales en 2010 se ubicaban hacía el centro y norte de la mancha urbana, zona donde se encuentra actualmente el centro cívico de la ciudad; mientras que las centralidades periféricas aún estaban en desarrollo y en proceso de consolidación. En el 2021 se aprecia que casi todas las centralidades con excepción de la 10 mejoraron su situación de sustentabilidad. Las caracteristicas urbano-territoriales mejoraron en 2021 para casi todas las unidades analizadas en el 2010 excepto la 10 y 11; así como las nuevas centralidades encontradas. La disponibilidad de espacio para posibilitar la reestructuración urbana solo se mantiene en las zonas 9, 10 y 11 (Fig. 3 y 4). Fig. 3 Perfil de Centralidades de Mexicali, B. C. 2010 (Elaboración propia 2021). Fig. 4 Perfil de Centralidades de Mexicali, B. C. 2021 (Elaboración propia 2021). Clasificación de centralidades En la clasificación de las unidades de estudio en 2010 se encontró que las centralidades 2, 4, 8 y 9 pertenecían al tipo 1 ya que el nivel de desarrollo sustentable y las condiciones territoriales eran aceptables de acuerdo con los parámetros internacionales. La centralidad 2 no contaba con superficie suficiente para implementar nuevos proyectos, de ahí la dificultad para reestructuraciones futuras. Esta zona más antigua e importante de la ciudad, es donde se encuentran los principales edificios históricos; así como oficinas gubernamentales (Fig. 5). En 2021 se mantiene el grado de desarrollo sustentable y las características espaciales en todas estas zonas. Se agregan a la categoría 1 las centralidades 1, 3 y 6-7. Sin embargo, la escasez de territorio solo permite la reestructuración en caso necesario. Únicamente la 9 aun cuenta con espacio disponible para nuevos elementos y usos (Fig. 6). En el 2010 pertenecen al perfil 2 las centralidades 3, 6 y 7 que se caracterizan por un buen nivel de desarrollo sustentable, pero condiciones urbano-territoriales deficientes, las dos primeras de este tipo tenían una superficie limitada para implementar modificaciones espaciales y requerían una reestructuración para incrementar la conectividad y su consolidación espacial. La centralidad 7 también requiere una modificación en su estructura, afortunadamente cuenta con una superficie disponible para proyectos y planeaciones (Fig. 5). Durante 2021 se observa un cambio en la clasificación de todas estas centralidades. La centralidad 11 es la única que pertenece al tipo 2 en el 2010, se encontraba ocupada casi en su totalidad por lo que la superficie disponible era baja; esta zona constituye un subcentro urbano de importancia desde ese año hasta en la actualidad, el cual posee además de gran cantidad de fuentes de empleo, oficinas gubernamentales, equipamientos y servicios para satisfacer la demanda periférica, por tal motivo las características de esta centralidad en particular difieren de las centralidades periféricas tradicionales. Sin embargo, al paso de los años esta área no logró mejorar sus condiciones de sustentabilidad y se mantiene en esta clasificación (Fig. 5 y 6). Fig. 5 Clasificación de Centralidades de Mexicali, B. C. 2010 (Elaboración propia 2021). Fig. 6 Clasificación de Centralidades de Mexicali, B. C. 2021 (Elaboración propia 2021). Las centralidades 1, 5 y 10 no tienen un nivel de desarrollo aceptable ni las condiciones urbano- territoriales son adecuadas en el 2010, por tanto, se clasifican en el perfil de centralidad 4. Las primeras dos tenían superficie limitada para desarrollo con una ocupación por arriba del 90%, mientras que la última contaba con una superficie extensa disponible para implementar nuevos proyectos que contribuyan con su desarrollo (Fig. 5). En 2021 la centralidad 1 logra mejorar su nivel de desarrollo sustentable y las condiciones espaciales por lo que cambiar a tipo 1, la 5 desaparece y la 10 se mantiene en este perfil (Fig. 6). 5. CONCLUSIONES Mexicali en su carácter de ciudad fronteriza tuvo una expansión territorial importante en los últimos años, especialmente hacia el oriente y sur de la ciudad; sin embargo, las circunstancias de crecimiento no son acordes con la presencia de zonas de impulso económico, en este caso centralidades, ni con el nivel de desarrollo sustentable. Mientras que hacia el oriente se realizaron proyectos comerciales, industriales y habitacionales con un gran interés por la inversión privada y un apoyo municipal para el desarrollo de equipamientos públicos; hacia el sur solo se impulsaron proyectos de vivienda, de tal manera que actualmente el oriente de la ciudad presenta una oferta de empleo, equipamiento, comercios y servicios que minimiza la necesidad de desplazamientos hacia otras zonas de la ciudad y ofrece mejores condiciones de vida para sus habitantes. Por otra parte, los habitantes del resto de la ciudad tienen que desplazarse grandes distancias al centro urbano para satisfacer sus necesidades diarias. La distribución de centralidades es un reflejo de esta situación, se puede observar en los mapas presentados en secciones anteriores la concentración de centralidades hacia el centro y oriente contra la carencia de estas en el resto de la ciudad; es importante mencionar que esta distribución no es resultado de procesos de planeación; fue consecuencia de los intereses de la inversión privada y del tipo de proyectos realizados en cada zona. El análisis de distribución de centralidades es una forma rápida y sencilla de identificar que puntos de la ciudad necesitan ser impulsados en su desarrollo a fin de mejorar el acceso equitativo a oportunidades para sus habitantes. Además, facilita la planeación de infraestructura, servicios y ubicación de equipamiento para reducir impactos antrópicos negativos por consumo de suelo, recursos así como contaminación ambiental por largos desplazamientos. La clasificación de las centralidades en las 4 categorías propuestas facilita la identificación de aquellas que se encuentran en condiciones aceptables y aquellas que requieren de una atención inmediata. La evaluación de indicadores de sustentabilidad con la estrategia de semáforo ayuda a discernir de manera sencilla los temas en los que hay problema a fin de poder actuar directa y oportunamente. La determinación de disponibilidad de espacio junto con la clasificación orienta hacia la conducta a seguir con las centralidades, ya que de contar con espacio disponible se pueden impulsar los proyectos que sean necesarios; por otra parte, si el espacio es escaso se debe considerar la reestructuración al interior de la centralidad priorizando necesidades. La Centralidad tipo 1 al conjugar un buen nivel de desarrollo sustentable y de estructura urbano territorial se considera como una centralidad de relevancia para la ciudad; es un importante atractor de flujos que ofrece condiciones favorables en los aspectos sociales, económicos y ambientales para sus habitantes; además, fomenta la eficiencia urbana. Este tipo de centralidad solo requiere mantenimiento de políticas públicas asignadas y vigilancia periódica para detectar oportunamente nuevas necesidades que requieran planeaciones y políticas adicionales. En Mexicali actualmente la mayoría de las centralidades son este tipo, las cuales se ubican en el centro urbano; la zona más antigua de la ciudad donde se encuentran las concentraciones más importantes tanto de empleos como de equipamientos; son zonas consolidadas y aunque no cuentan con espacio disponible para proyectos futuros existe la posibilidad de reestructurar e intensificar el uso de suelo. . En el caso de la centralidad tipo 2 aun cuando presenta un buen nivel de desarrollo sustentable requiere modificaciones en las condiciones urbano-territoriales para facilitar la conectividad, la mezcla de usos de suelo o la densificación a su interior que ayuden en la consolidación y eficiencia. En 2010 había 3 centralidades de este tipo ubicadas una a centro de la ciudad y 2 al nororiente; estas centralidades lograron en el transcurso de 11 años una consolidación tanto de desarrollo como espacial. La centralidad tipo 3 tiene un bajo nivel de desarrollo, sin embargo, las condiciones urbano-territoriales son adecuadas, se considera una centralidad en proceso de consolidación que requiere de la implementación de políticas públicas para fortalecer la sustentabilidad y promover el desarrollo de sus habitantes. No se encontraron centralidades en esta categoría, pero es una posibilidad que se puede presentar en otros casos de estudio. Finalmente, la centralidad 4 no tiene condiciones favorables de desarrollo sustentable ni un nivel adecuado urbano-territorial. Si esta centralidad es importante para la ciudad pueden implementarse planeaciones y políticas para su consolidación, además de una reestructuración espacial; si, por el contrario, se considera no necesaria, pierde su importancia y está condenada a desaparecer a corto plazo. Las nuevas centralidades detectadas en Mexicali en el 2021 son de este tipo, por tal motivo requieren estudio y evaluaciones adicionales para determinar acciones a seguir. La planeación territorial sustentable ofrece ventajas sobre otras modalidades de planeación ya que ordena el territorio a favor de las dinámicas de movilidad urbana, toma en cuenta los usos de suelo; así como las necesidades de desplazamiento de la población. Además, el enfoque de sustentabilidad fomenta el desarrollo social y económico de los individuos; pero con el objetivo de optimizar recursos con el menor impacto al medio ambiente. Las centralidades al ser los puntos más importantes de la ciudad resultan convenientes como unidad básica de análisis; ya que facilitan el diagnostico socioeconómico, ambiental y urbano-territorial como una muestra representativa de la ciudad, además pueden ser útiles como los elementos ordenadores del territorio. Durante el desarrollo de esta investigación se pudo observar que algunos indicadores requieren el complemento de información que no fue considerada; afortunadamente la metodología es flexible a esta necesidad y permite al investigador aumentar o variar los indicadores de acuerdo con el propósito del estudio. Las condiciones urbanas y las necesidades de la población son cambiantes por tal motivo una metodología que facilite el análisis periódico y que detecte de manera oportuna situaciones que generen conflicto, facilita tanto las estrategias de acción como la planeación flexible. RECONOCIMIENTOS Los autores desean agradecer la Universidad Autónoma de Baja California como institución de formación académica. REFERENCIAS 1. INSTITUTO MUNICIPAL DE INVESTIGACIÓN Y PLANEACIÓN URBANA DE MEXICALI (IMIP). Programa Municipal de Desarrollo Urbano. Mexicali. México. 2020. 2. INSTITUTO NACIONAL DE ESTADÍSTICA Y GEOGRAFÍA (INEGI). Censode Población y Vivienda. Mexicali. México. 2020. 3. SATTERTHWAITE, David. " A new urban agenda? Environment & Urbanization. International Institute for Environment and Development". Environment and Urbanization, 2016, vol 28, núm. 1, pp. 3 - 12. 4. ORGANIZACIÓN PARA LA COOPERACIÓN Y EL DESARROLLO ECONÓMICOS (OECD). OECD Urban Policy Reviews: Mexico 2015: Transforming Urban Policy and Housing Finance [en línea]. México, s.d. [ref. de 2015]. Disponible en Web: https://center4affordablehousing.org/wp- content/uploads/2019/02/UPLOADED_Mexico-Transforming-Urban-Policy-And-Housing-Finance.pdf. 5. JÄRV, Olle; TENKANEN, Henirkki; SALONEN, M., et al.. " Dynamic cities: Location-based accessibility modelling as a function of time". Applied Geography, 2018, vol 95, pp. 101 - 110. 6. ONU-HABITAT. Directrices Internacionales sobre Planificación Urbana y Territorial. Nairobi: Programme des Nations Unies pour les établissements humains. Nairobi. 2015. 7. ALCANTARA, Eduardo. Análisis de movilidad urbana. Espacio, medio ambiente y equidad. Bogotá, Colombia: Corporación Andina de Fomento, 2010. 21 pp. ISBN 978-980-6810-60-0. 8. CUTINI, Valerio. "Centrality and Land Use: Three Case Studies on the Configurational Hypothesist". Cybergeo: European Journal of Geography, 2001. [en línea]. México, s.d. [ref. de 2022]. Disponible en Web: https://journals.openedition.org/cybergeo/3936. 9. LI, Hanwen; SHANG, Qiuyan; DENG Yong. "A modified gravity model based on network efficiency for vital nodes identification in complex networks". Cornell University, 2021. [en línea]. Ithaca, New York. [ref. de 2022]. Disponible en Web: https://arxiv.org/abs/2111.01526. 10. GUIMARAES, Roberto. Tierra de sombras: desafíos de la sustentabilidad y del desarrollo territorial y local ante la globalización corporativa. Santiago de Chile: CEPAL, 2010. 58 pp. ISBN 9213222378. 11. SEVTSUK, Andres, MEKONNEN, Michael. "Urban network analysis. A new toolbox for ArcGIS". Revue Internationale de Géomatique, 2012, vol 22, núm. 2, pp. 287 - 305. 12. GÓMEZ, Domingo; GÓMEZ, María; GÓMEZ, Miguel. “Salud, ambiente y territorio: Una visión integrada en un mundo globalizado”. Revista de la Facultad de Arquitectura y Urbanismo de la Universidad de Cuenca, 2013, vol 2, pp. 7-19. Sobre los autores Verónica Aguilar-Quintanar Profesor de Asignatura en la Facultad de Arquitectura y Diseño Campus Mexicali. Obtuvo su licenciatura en arquitectura en la Universidad Autónoma de Baja California. Maestría en Arquitectura. Doctorado en Planeación y Desarrollo Sustentable en la misma universidad. Arleen Morales Estudiante de la Facultad de Ciencias en la Universidad Autónoma de Baja California. EL IMPACTO DE LA ARBORIZACIÓN COMO ESTRATEGIA DE MITIGACIÓN DE LA ISLA DE CALOR URBANA EN EL CARIBE COLOMBIANO Sara Cristina Zuluaga Gómez1 , Felipe Londoño Arango2, Maria Camila Restrepo3, Elizabeth Parra Correa 4 , Lucas Arango Díaz 5, Jorge Hernán Salazar 6 1 Estudiante de Arquitectura Universidad Nacional de Colombia, Facultad de Arquitectura, Calle 59 A N 63-20 Edificio 24. Medellín, Colombia; 2 Estudiante de Arquitectura Universidad Nacional de Colombia, Facultad de Arquitectura, Calle 59 A N 63-20 Edificio 24. Medellín, Colombia; 3 Estudiante de Arquitectura Universidad Nacional de Colombia, Facultad de Arquitectura, Calle 59 A N 63-20 Edificio 24. Medellín, Colombia; 4 Arq. Msc. en bioclimática, Universidad Nacional de Colombia, Facultad de Arquitectura, Calle 59 A N 63-20 Edificio 24. Medellín, Colombia; 5 Arq. PhD en Arquitectura y Urbanismo, Universidad de San Buenaventura Medellín, Colombia;6 Arq. Msc. , Universidad Nacional de Colombia, Facultad de Arquitectura, Calle 59 A N 63-20 Edificio 24. Medellín, Colombia. szuluaga@unal.edu.co 1 RESUMEN La sustitución del suelo vegetal por superficies impermeables, la rápida densificación de las ciudades y la actividad humana, han ocasionado que cada vez más ciudades del mundo presenten el fenómeno de isla de calor urbana-ICU. Si bien, este efecto surge en varias ciudades de Colombia, la región Caribe por su clima cálido y cercanía al mar presenta una notable vulnerabilidad. La presente investigación tiene como objetivo evaluar la efectividad de la arborización como estrategia de mitigación de la isla de calor en el espacio público de Barranquilla. Se tomó como objeto de estudio la vía denominada Carrera 44, considerando que debido a su orientación es la vía que está más expuesta a la radiación solar. Para evaluar la efectividad de la arborización, se realizaron simulaciones computacionales para identificar las diferencias en la temperatura operativa en su estado actual, con relación a varios escenarios con diferente densidad de árboles. Finalmente, se evaluó el impacto de la estrategia en un escenario futuro al año 2050. Los resultados obtenidos son porcentajes de mitigación de la ICU para cada uno de los escenarios propuestos, insumo que podría convertirse en pautas para la implementación de la arborización en el diseño de espacios públicos en el caribe colombiano. PALABRAS CLAVES: Cambio climático, Isla de Calor Urbana, microclima, arborización urbana, temperatura operativa. THE IMPACT OF ARBORIZATION AS AN URBAN HEAT ISLAND MITIGATION STRATEGY IN THE COLOMBIAN CARIBBEAN ABSTRACT The replacement of vegetal topsoil for waterproof surfaces, the high-speed densification of cities and human activity have caused that every time more cities in the world exhibit the Urban Heat Island-UHI phenomenon. Even though this effect arises in several cities of Colombia, the Caribbean region presents a remarkable vulnerability due to the warm weather and proximity to the sea. The objective of this research is to evaluate the effectiveness of the tree plantation as a mitigation strategy of the UHI in the public space of Barranquilla. The Street Known as Carrera 44 has been taken as the object of study, due to its high exposure to solar radiation. In order to assess the efficacy of arborization, computational simulations were performed to identify differences in the operative temperature in its current state versus various scenarios with different tree densities. Finally, the impact of the strategy in a future scenario to the year 2050 was evaluated. The results obtained are percentages of UHI mitigation for each of the proposed scenarios, an input that could become guidelines for the implementation of tree planting in the design of public spaces in the Colombian Caribbean. KEY WORDS: Climate change, Heat Island effect, urban tree planting, microclimate, operative temperature. 1. INTRODUCCIÓN El cambio climático es la variación de clima atribuido directa o indirectamente a la actividad humana que altera la composición de la atmósfera global y que se suma a la variabilidad natural del clima, observada durante períodos de tiempo comparables [1]. Según el sexto informe del IPCC muchos de los cambios observados actualmente en el clima no tienen precedentes en miles, sino en cientos de miles de años, y algunos de los cambios que ya se están produciendo, como el aumento continuo del nivel del mar, no se podrán revertir hasta dentro de varios siglos o milenios [2]. Con el calentamiento global, las áreas urbanas y las ciudades se verán más frecuentemente afectadas por la ocurrencia de eventos climáticos extremos, como olas de calor, más días calurosos y noches cálidas, así como un aumento del nivel del mar, aumento en las marejadas ciclónicas tropicales y en la intensidad de las lluvias. A pesar de tener un efecto insignificante en la temperatura de la superficie global, la urbanización ha exacerbado los efectos del calentamiento global a través de su contribución a la tendencia de calentamiento observada en y cerca de las ciudades, particularmente en temperatura mínima media anual [2]. La isla de calor urbana - ICU se puede definir como el calor relativo de una ciudad en comparación con las áreas rurales circundantes, asociado con cambios en la escorrentía, efectos en la retención de calor y cambios en el albedo de la superficie [3-4]. Este fenómeno se presenta en las zonas más construidas y desarrolladas de la ciudad debido a la gran densidad de masa que proporcionan las edificaciones en las superficies que con el tiempo han sustituido la masa vegetal [5]. No obstante, las superficies que conforman los edificios no son las únicas responsables del aumento en la temperatura; la materialidad de vías, andenes y los diferentes elementos que hacen parte del espacio público y colectivo son también contribuyentes del aumento de temperaturas en los centros urbanos. Este cambio en el clima de los núcleos de las ciudades genera repercusiones en la salud, la economía y los ecosistemas [6], afectando la calidad de vida de sus habitantes. Es de suma importancia para el desarrollo sostenible de las ciudades el estudio de la isla de calor y el desarrollo de estrategias para su mitigación. Varios autores coinciden en que acciones como la instalación de cubiertas verdes [7], la implementación de sistemas arbolados [8] y el cambio de materiales en los revestimientos [5], son estrategias efectivas para la mitigación de la isla de calor urbana. Con relación a la implementación de sistemas arbolados, debido al área de sombra generada por su follaje junto con la evapotranspiración propia de sus procesos fisiológicos, que pueden reducir notablemente la temperatura del aire haciendo más confortables los espacios públicos, además de que capturan y almacenan el CO2 del ambiente. La transpiración es el fenómeno biológico por el que las plantas expulsan agua a la atmósfera después de capturarla del suelo a través de sus raíces y tomar la pequeña parte que necesitan para su crecimiento [9]. En nuestro contexto tropical las medidas de mitigación no siempre coinciden con las que se anuncian y proponen para otros lugares del planeta. Aunque la sombra vegetal constituye una oportunidad de mitigación de la ICU, es necesario evaluar su efectividad en el contexto específico del caribe colombiano para determinar su pertinencia y obtener pautas precisas para su implementación, como la densidad, la separación que debe haber entre árboles, entre otros. También es importante tener en cuenta que aunque sea una estrategia efectiva, su implementación debe planearse con suficiente anticipación para que los árboles sembrados puedan crecer y alcanzar el tamaño deseado. Esta investigación tiene por objetivo evaluar la efectividad de la arborización como estrategia de mitigación de la isla de calor en el espacio público de la ciudad de Barranquilla (Latitud: 10,99° Norte y Longitud: 74,80° Oeste). La ciudad de Barranquilla se eligió para realizar el estudio en tanto que, debido a las condiciones climáticas locales, las previsiones de cambio climático y la impermeabilización y falta de sombra en algunas zonas de la ciudad, se podrían fácilmente evidenciar las diferencias de temperatura descritas por Theran et al. [3] 2. METODOLOGÍA Para lograr el objetivo propuesto fueron realizadas comparaciones a partir de resultados de simulaciones computacionales de varios escenarios de arborización propuesta. Descripción del objeto de estudio: Para el desarrollo de esta investigación, se tomó como objeto de estudio la Carrera 44 en el tramo comprendido entre las Calles 70 y 72, que se encuentra ubicada en el barrio ‘Colombia’ perteneciente a la localidad norte-centro histórico de la ciudad. Ver figura 1. Figura 1: Ortofoto de la Carrera 44 de Barranquilla, tomado de Google Earth. Este tramo de la carrera cuenta con 268 metros de longitud y 20 metros de sección que abarca tres carriles vehiculares, andén en ambos lados de la vía y apenas seis individuos arbóreos. Como se puede observar en la figura 2, la materialidad de las fachadas que paramentan la vía son en su mayoría revoques con pintura, vidrios, enchapes cerámicos y elementos metálicos como rejas y pasamanos. La carrera está construida con pocas zonas de piso blando, lo que genera un aumento significativo en las temperaturas del lugar generando así isla de calor, lo que afecta la calidad de vida de sus habitantes y los transeúntes. Figura 2: Imágenes de la Carrera 44 de Barranquilla, tomadas de Google maps. Escenarios de arborización propuesta para la mitigación de ICU: Se toma como estrategia de mitigación de ICU el diseño y la implantación de árboles urbanos. Para esto se plantean cuatro escenarios de arborización propuesta: uno corresponde a la actualidad y tres más corresponden a las propuestas. El escenario con mayor cantidad de árboles se plantea teniendo en cuenta la cantidad máxima de árboles que pueden ser plantados sobre los andenes, permitiendo la transitabilidad peatonal y manteniendo la vía vehicular actual libre. Los escenarios propuestos restantes se plantean de acuerdo a la mitad y a la cuarta parte del escenario máximo propuesto. En total el escenario base cuenta con 6 árboles y los otros escenarios cuentan con 13, 26 y 50 árboles (ver imagen z). Para la simulación se realizó la abstracción de un árbol de 7 metros por 7 metros en su copa y una altura de 9,5 metros, tal como lo muestra la imagen 3. Figura 3: Imagen árbol típico para la calle 44 Barranquilla. Herramientas: Para realizar las simulaciones se empleó la herramienta EnergyPlus a través de un algoritmo que construye un mapa de microclima exterior, teniendo en cuenta el archivo EPW de la ciudad, por medio del plug-in Grasshopper y del modelado de la Carrera 44 de Barranquilla en Rhino 3D. El archivo climático utilizado para las simulaciones computacionales fue extraído de la página web climate one building, usando como referencia el fichero L_ATL_Barranquilla- Cortissoz.Intl.AP.800280_TMYx.2004-2018.zip, el archivo climático para el 2050 fue construido haciendo uso del programa CCWorldWeatherGen. Simulaciones computacionales: Fueron realizadas simulaciones computacionales del estado actual y de 3 propuestas de arborización, haciendo uso de los Plug-in Grasshopper, Ladybug, Honeybee y EnergyPlus en el programa Rhinoceros. Los resultados de las simulaciones fueron comparados entre sí a fin de evidenciar el impacto de la arborización. Finalmente también fueron evaluados los escenarios de arborización propuestos con un archivo climático de la ciudad de Barranquilla proyectado para 2050. Para todo el ejercicio fue escogida una franja horaria de análisis entre 11:00 am y 4:00 pm, ya que es el rango horario con las temperaturas más críticas. 3. RESULTADOS En la figura 4 se muestra la temperatura operativa promedio anual de los cuatro escenarios propuestos para un escenario climático actual, mientras que la figura 5 muestra los mismos resultados para un escenario futuro. Figura 4: Resultados de temperatura operativa comparados en simulaciones del escenario actual y escenarios propuestos en el año 2021. Los valores se representan en grados celsius Figura 5: Resultados de temperatura operativa comparados en simulaciones del escenario actual y escenarios propuestos en el año 2050. Los valores se representan en grados celsius Las figuras 6 y 8 muestran las temperaturas operativas de cada punto de la malla construida en la simulación, durante la misma franja horaria anual y las mismas propuestas en la actualidad (2021) y en el futuro (2050). Los resultados demuestran que las propuestas de mitigación deben responder en el tiempo a la fuerte incidencia del cambio climático en el futuro. Comparación de resultados de escenarios de arborización en 2021 Figura 6: Gráfico de líneas con marcadores que muestra la temperatura operativa de cada punto de la malla simulada, comparando el estado actual con las tres propuestas de arborización en el año 2021. La figura 7 detalla los resultados comparando todas las propuestas y mostrando cómo cada una de ellas tiende a condensar la mayoría de sus puntos en rangos de temperaturas, luego, otros puntos alcanzan mayores o menores temperaturas a dichos rangos de forma más dispersa en el gráfico. Se identifica que la propuesta que abarca un rango mayor de temperaturas es la de 26 árboles. En cambio, la propuesta de 50 árboles concentra la mayoría de puntos entre los 33,5 °C y los 34,5 °C, aun cuando presenta picos ocasionales de más de 37 °C. En el escenario actual de la carrera 44 el 74 % del área de la calle tiene una temperatura operativa entre los 38°C y 40°C mientras que el 25% está entre 35°C y 37°C. Figura 7: Comparación de los resultados obtenidos en las simulaciones del escenario actual 2021 agrupando las temperaturas en tres rangos para identificar su frecuencia por medio de porcentajes. En las tres propuestas de arborización planteadas en el 2021, se evidencia una reducción progresiva de las temperaturas del rango 3 (38°C - 40°C) , pasando de estar presente en un 74% de la superficie en el estado actual, a sólo el 1% en la tercera propuesta (50 árboles). Así mismo el rango de temperaturas más bajas que está entre 33°C y los 34°C pasa de estar presente en el 1% de la superficie de la calle en el escenario existente, al 70% en la tercera propuesta (50 árboles). Esto nos muestra que con el aumento de la arborización se da una disminución significativa del rango más crítico y un aumento del rango con menores temperaturas, casi en iguales proporciones. La temperatura operativa (To) promedio de la carrera 44 con el escenario actual de 6 árboles es de 37,9°C en el año 2021. La propuesta que plantea 13 árboles tiene una temperatura operativa promedio de 37,1°C lo que indica que hubo una disminución de 0,8°C y una mitigación de 13,6% de la Isla de Calor. El escenario de 26 árboles tiene una To promedio de 35,9°C, que muestra una disminución de 2°C con respecto al escenario existente y una disminución de 34% de la ICU. El escenario de 50 árboles presenta una Temperatura operativa promedio de 34,2°C, logrando una disminución de 3,7°C y una mitigación de la ICU de 63%. Comparación de resultados en el escenario futuro 2050: Figura 8: Gráfico de líneas con marcadores que muestra la temperatura operativa de cada punto de la malla simulada, comparando el estado futuro con las tres propuestas de arborización en el año 2050. La figura 8 evidencia que el comportamiento de los escenarios planteados para el año 2050 es el mismo que presenta la figura 6, posicionándose ahora en rangos de temperatura más altas. Se identifica que los rangos que abarcan las temperaturas más bajas sólo aparecen en la propuesta de 50 árboles a partir de los 34,2 °C, mientras que en el escenario actual 2021 era de 32,7 °C. Además, la temperatura más alta registrada en la figura 6 es de 41,1 °C que corresponde a puntos del estado actual de la carrera 44 en el 2050. Figura 9: Comparación de los resultados obtenidos en las simulaciones del escenario futuro 2050 agrupando las temperaturas en tres rangos para identificar su frecuencia por medio de porcentajes. La temperatura operativa promedio de la carrera 44 con el escenario actual de 6 árboles es de 39,5°C para el 2050. La propuesta que plantea 13 árboles tiene una temperatura operativa promedio de 38,6 °C lo que indica que hubo una disminución de 0,9 °C con respecto al estado original (6 árboles) en el 2050. El escenario de 26 árboles tiene una temperatura operativa promedio de 35,9 °C, que muestra una disminución de 2,1 °C. El escenario de 50 árboles presenta una Temperatura operativa promedio de 34,2 °C, logrando una disminución de 3,8 °C. Figura 10: Gráfico de bigotes que muestra la temperatura operativa de todos los escenarios propuestos, en el año 2021 y en el 2050. La figura 10 demuestra que aunque la variación de temperaturas mínimas y máximas se encuentran en rangos de valores muy similares, los promedios y las medias permiten identificar el impacto de cada propuesta en la mitigación de ICU, a través de los datos más representativos de cada una de ellas. También se evidencia que, por ejemplo, para mantener en el 2050 el comportamiento térmico que la vía tendría en la actualidad con 13 árboles, deberán implantarse 13 árboles más para contar con un total de 26 o que, por ejemplo, contar con 50 árboles para 2050 significaría un mejor desempeño térmico que contar con 26 en la actualidad. 4. DISCUSIÓN El estudio del fenómeno de la Isla de Calor puede ser abordado en diferentes escalas y métricas teniendo en cuenta que la concentración de altas temperaturas se localiza en las áreas centrales de las ciudades. Sarricolea y Martín-Vide [10] emplean el trazado y la superposición de imágenes satelitales para calcular la temperatura de emisión sobre la superficie del Área Metropolitana de Santiago de Chile, y con esto identificar los puntos de mayor radiación de este fenómeno. En nuestro caso se selecciona directamente un área de estudio de menor escala, que hace parte de las zonas donde se hace notoria mayor sensación de calor debido a la orientación de la calle y la dirección de los vientos. Además, se emplea el cálculo de la temperatura operativa y no sólo de superficie para identificar el impacto que tiene la implementación de elementos vivos (árboles) en la mitigación de las fuertes temperaturas que se presentan en la zona y que hacen que se marque un rango diferencial muy amplio entre la temperatura del interior de la ciudad comparado con las temperaturas a las afueras de la ciudad. En su tesis M Ballinas evidencia cómo los sistemas arbolados semejantes a parques urbanos son una buena estrategia para la mitigación de la isla de calor en Zona Metropolitana de la ciudad de México, logrando una disminución en las temperaturas más altas de hasta 4°C; por eso se plantean diferentes escenarios de arborización para poder evidenciar la efectividad de cada uno. Sin embargo, Barranquilla que es el contexto en que se desarrolla esta investigación presenta un clima mucho más cálido y húmedo que el de la ciudad de México, aun así se evidencia que implementando 50 árboles en la carrera 44[ se logra una disminución de hasta 3,7°C en la temperatura operativa de la calle, lo que significa que mitiga en un 63% la ICU. No obstante, tomar esta estrategia como apropiada tiene alto impacto en la transformación urbana de la Carrera 44, debido a la alta complejidad que tiene instalar un sistema de arborización en un espacio consolidado. Esto implica gran ocupación de un suelo que debe ser adecuadamente compartido con redes de drenaje de agua, acueducto, etc. y no interferir con las redes aéreas. También implica la construcción de nuevos espacios urbanos, islas de parqueo, mobiliario urbano, alumbrado público, entre otros. Y además, se debe tener en cuenta la adecuada implantación de los árboles en relación a las distancias entre ellos y las construcciones. Todo esto enfrenta la estrategia al marco de la gestión y su viabilidad, tal como sucedió en el estudio de Laura Florez [7], donde analiza la efectividad de las cubiertas verdes (proporción planteada: 30%) como estrategia para mitigar la isla de calor en el Valle de Aburrá, a través de simulaciones en el modelo SLUCM acoplado al WRF, que solo mitigaba 1° de los 3° que generaba la isla de calor; y la posibilidad de aumentar la proporción de las cubiertas, lo convertía en un proyecto logística y económicamente inviable. Aunque la implementación de franjas de arborización demostró ser una estrategia efectiva para la mitigación de la isla de calor, es importante complementarlo con otras acciones. 5. CONCLUSIÓN Con esta investigación se logra demostrar el impacto de los sistemas de arborización como estrategia de mitigación de la Isla de calor en la carrera 44 de Barranquilla al lograr una disminución de la temperatura operativa de hasta 3,7°C en el 2021. Aunque todas las propuestas generan una disminución en los valores analizados, la aplicación de sistemas de arborización en el objeto de estudio no es suficiente en ninguno de los escenarios planteados para disminuir en su totalidad la ICU. Es necesario el estudio de otras estrategias complementarias como el cambio de la materialidad tanto en la calle como en las edificaciones. Se puede concluir también que la aplicabilidad de las estrategias tales como los sistemas de arbolados o cambios en la materialidad de los espacios urbanos, no solo juegan un papel en la mitigación, sino sobre todo en la planificación de los espacios futuros. A pesar de que los resultados de esta investigación no logran mitigar por completo la ICU en un lugar específico, que es uno de los tantos fenómenos que existen a causa del cambio climático, contribuyen en la red de acciones que sumadas planifican los escenarios futuros de las ciudades y mejoran la calidad de vida de los habitantes. AGRADECIMIENTOS Los autores desean agradecer al Grupo EMAT de la Universidad Nacional de Colombia, Medellín, y al Grupo Hombre, Proyecto y Ciudad de la Universidad de San Buenaventura, Medellín, por hacer posible la realización de esta investigación. REFERENCIAS 1. UNFCC, 1992: Convención marco de las naciones unidas sobre el cambio climático, p.3. 2. IPCC, 2021: Summary for Policymakers. In: Climate Change 2021: The Physical Science Basis. Contribution of Working Group I to the Sixth Assessment Report of the Intergovernmental Panel on Climate Change [Masson-Delmotte, V., P. Zhai, A. Pirani, S. L. Connors, C. Péan, S. Berger, N. Caud, Y. Chen, L. Goldfarb, M. I. Gomis, M. Huang, K. Leitzell, E. Lonnoy, J.B.R. Matthews, T. K. Maycock, T. Waterfield, O. Yelekçi, R. Yu and B. Zhou (eds.)]. Cambridge University Press. In Press. 3. THERAN K., RODRIGUEZ L., MOUTHON, S., MANJARRÉS, J. Microclima y Confort Térmico Urbano. Revista Módulo Arquitectura CUC, 23. Barranquilla, Colombia. 2019 4. IPCC, 2013: Glosario [Planton, S. (ed.)]. En: Cambio Climático 2013. Bases físicas. Contribución del Grupo de trabajo I al Quinto Informe de Evaluación del Grupo Intergubernamental de Expertos sobre el Cambio Climático [Stocker, T.F., D. Qin, G.-K. Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex y P.M. Midgley (eds.)]. Cambridge University Press, Cambridge, Reino Unido y Nueva York, NY, Estados Unidos de América. 5. ALCHAPAR N, CORREA E, CANTÓN M (2012). Índice de reflectancia solar de revestimientos verticales: potencial para la mitigación de la isla de calor urbana. p. 2. 6. Corrales L, Brenes C, (2019). Islas de calor, impactos y respuestas: El caso del cantón de Curridabat 7. FLÓREZ BOTERO, L. (2016-11-30.). Simulación de diferentes escenarios de cobertura urbana y vegetal en el balance de energía superficial del Valle de Aburrá. 8. BALLINAS, M. (2011). Mitigación de la isla de calor urbana: estudio de caso de la zona metropolitana de la ciudad de México 9. SANCHEZ SAN ROMAN, Francisco Javier, (1992) Departamento de Geología, Universidad de Salamanca, España. 10. SARRICOLEA E, MARTÍN-VIDE J. (2014). El estudio de la Isla de Calor Urbana de Superficie del Área Metropolitana de Santiago de Chile con imágenes Terra-MODIS y Análisis de Componentes Principales. Revista de Geografía Norte Grande, 57: 123-141 (2014). CONDICIONES GEOCLIMÁTICAS Y SOCIODEMOGRÁFICAS DE ESPACIOS URBANOS EN EL CLIMA TROPICAL ANDINO, CASO DE ESTUDIO ZONA NORTE MEDELLÍN, COLOMBIA Ader Augusto Garía-Cardona1, Elisabeth Herreño-Tellez2, Yury Andrea Hernández-Duque3 y John Arango-Flórez4 1Profesor Asociado. Universidad Nacional de Colombia, Medellín, Carrera 65 Nro. 59A – 110, Medellín Colombia; 2Profesora Asociada, Universidad de San Buenaventura, Medellín, Carrera 56C N° 51-110, Medellín, Colombia; 3Profesora Asistente, Universidad de San Buenaventura, Medellín, Carrera 56C N° 51-110, Medellín Colombia; 4Profesor Asistente. Universidad Nacional de Colombia Medellín, Carrera 65 Nro. 59A – 110, Medellín Colombia. 1 agarcia@unal.edu.co RESUMEN Las dinámicas urbanas de crecimiento de las ciudades colombianas ubicadas en relieves topográficos de montaña pueden afectar las condiciones del microclima y a su vez la cotidianidad de los espacios domésticos. En esta investigación se superponen las condiciones del geoclima de los espacios urbanos y las condiciones sociodemográficas de viviendas en las laderas de Medellín, ubicada en el Valle de Aburrá, altitud media 1450 msnm, latitud 6,25° Norte y longitud -75.4°. Mediante una metodología analítica deductiva, se estudiaron las variables climáticas, sociodemográficas, humanas y de tipología arquitectónica espacial en tres manzanas de una franja urbana con sentido este - oeste perpendiculares al río, en el norte de la ciudad de Medellín. Se identificó que el crecimiento de la ciudad fue del centro del valle hacia las laderas y que las condiciones sociodemográficas y geoclimáticas son diferentes: en el fondo del valle la radiación es menor casi en un 60% por cuenta de las secciones de vía y la arborización, pero es donde vive menos gente y hay menos viviendas. En las laderas las horas de sol se comportan de forma opuesta, en la ladera oriental hay mañanas sombreadas y en la occidental tardes sombreadas, a esto se suma que las secciones de vías son más estrechas, no hay arborización, hay más apartamentos que casas y viven más niños y personas mayores y las mujeres solteras son cabeza de hogar. Estas características pueden orientar políticas de crecimiento urbano particularizado en los que se incorporen variables físicas del relieve topográfico y su efecto sobre el clima de los espacios y las viviendas. PALABRAS CLAVES: Bioclimática, Trópico andino, Espacio doméstico, Geoclima, Habitabilidad. RELATIONSHIPS BETWEEN GEOCLIMATIC AND SOCIODEMOGRAPHIC CONDITIONS WITH URBAN DOMESTIC SPACES IN THE TROPICAL ANDEAN CLIMATE, ABURRÁ VALLEY CASE STUDY ABSTRACT The urban dynamics of growth of Colombian cities located in mountain topographic reliefs can affect the conditions of the microclimate and, in turn, the daily life of domestic spaces. In this research, the conditions of the geoclimate of urban spaces and the sociodemographic conditions of houses on the slopes of Medellín, located in the Valle de Aburrá, average altitude 1450 meters above sea level, latitude 6.25° North and longitude -75.4°, are superimposed. Using a deductive analytical methodology, the climatic, sociodemographic, human and spatial architectural typology variables were studied in three blocks of an urban strip with an east-west direction perpendicular to the river, in the north of the city of Medellín. It was identified that the growth of the city was from the center of the valley towards the slopes and that the sociodemographic and geoclimatic conditions are different: at the bottom of the valley the radiation is less by almost 60% due to the road sections and the tree growth. but it is where fewer people live and there are fewer houses. On the slopes, the hours of sunlight behave in the opposite way, on the eastern slope there are shady mornings and on the west, shady afternoons, to this is added that the road sections are narrower, there are no trees, there are more apartments than houses and There are more children and elderly people and single women are heads of households. These characteristics can guide individualized urban growth policies in which physical variables of topographical relief and their effect on the climate of spaces and dwellings are incorporated. KEY WORDS: Bioclimatic, Andean Tropics, Domestic space, Geoclimate, Habitability. 1. INTRODUCCIÓN El desarrollo urbano de la ciudad de Medellín se ha dado por la superposición de dinámicas socio culturales y cualidades geoclimáticas propias de un relieve topográfico a más de 1500msnm con una latitud de tan solo 6,25°N [1]. Los pliegues de las montañas han supeditado el crecimiento urbano desde el fondo del valle hacia las laderas circundantes que conforman el valle y que han configurado hábitos de vida cotidianos marcados por esa realidad [2], el centro político administrativo en el fondo del valle y dos grandes zonas: este y oeste a lado y lado del rio. Hay evidencia de las diferencias sociales y culturales de los barrios bajos cercanos al rio y los barrios altos en las laderas que circundan la ciudad [3], pero lo que se ha estudiado de las diferencias climáticas y ambientales entre unos y otros, se han concentrado en las caracterizaciones climáticas particulares de las ciudades [4, 5], pero no en cómo estas afectan las formas de vida de los habitantes. El objetivo de este trabajo es describir las relaciones entre las variables microclimáticas, asociadas a la geografía, lo que aquí llamaremos geoclima, con las maneras en que estas afectan la cotidianidad de los habitantes en la ciudad de Medellín, Colombia; para esto se realizó una caracterización en franjas transversales del territorio en el que se ubica la ciudad para hacer lecturas que permiten comprender mejor las relaciones entre geoclima y cotidianidad. Esta metodología brindó además un panorama renovado de los análisis de los procesos urbanos de la ciudad y por extensión de otras ciudades andinas tropicales y sus formas de apropiación y respeto por el medio ambiente. 2. METODOLOGÍA Usando como punto de partida un estudio previo sobre condiciones geoclimáticas y sociodemográficas de cinco franjas del Área Metropolitana del Valle de Aburrá, realizado por este mismo grupo, y mediante una metodología analítica deductiva, se estudiaron las variables climáticas, sociodemográficas, humanas y de tipología arquitectónica espacial en tres manzanas de una franja urbana con sentido este-oeste perpendicular al río, al norte de Medellín (F2), (figura 1). Con los datos se hicieron comparaciones producto de observación directa, que pudieran describir condiciones particulares asociadas al geoclima y la estructura socio demográfica de las zonas de estudio y si alguna condición de vida pudiera tener relación con el contexto del lugar. Fig. 1 Mapa con la identificación de la franja F2 (rojo) de Medellín, manzanas de la franja resaltada y sección transversal este-oeste de la misma. Fuente: elaboración propia. Evaluaciones climáticas En cada una de las tres manzanas seleccionadas transversalmente en la Franja 2 (F”), identificadas como F2_MO: Manzana Oeste, F2_MC: Manzana Centro y F2_ME: Manzana Este, se evaluó la radiación solar incidente mediante el software Climate Studio[6] (figura 2). Fig. 2. Radiación de la F2, Medellín Norte. Planta y Axonométrico de manzanas F2_MO, F2_MC F2_ME. Fuente: elaboración propia. Evaluaciones Sociodemográficas Simultáneamente se realizó la consulta en las bases de datos estadísticos de los mapas temáticos del DANE. (Departamento Administrativo Nacional de Estadística) [7] sobre cada manzana. La información que se presenta en la figura 3 se divide en lo siguiente: Descripción de la vivienda y número de hogares, uso de la edificación y número de personas diferenciadas por sexo y edad (figura 3). Fig. 3. Distribución de tipos de vivienda y número de habitantes por vivienda en la franja de análisis (F2), Medellín Norte. Fuente: DANE Una vez obtenida la información sociodemográfica se cruzó con los datos geoclimáticos para identificar la condición física de las manzanas y las condiciones de las personas que las habitan y la posibilidad de alguna relación entre ellas (figura 4). Fig. 4. Cruce de variables en estudio geoclima y cotidianidad. Fuente: elaboración propia. 3. RESULTADOS Radiación solar comparada: Dado que los barrios en el fondo del valle (F2_MC) son más antiguos están más consolidados urbanamente, y cuentan con una arborización más formada. Esto depende de múltiples variables, tales como el tipo y tamaño del árbol, su ubicación, la pendiente de la manzana en la cual se emplaza, los elementos que estén a su alrededor, entre otras. Según lo observado, se puede plantear que la presencia de árboles reduce hasta un poco más de la mitad de las horas de sol sobre la vía (figura 5). Fig. 5. Radiación promedio sobre el espacio público y horas de exposición solar de la F2_MC. Por otra parte, la pendiente del terreno en las manzanas F2_MO y F2_ME hace que las propias edificaciones sombreen las calles a determinada hora del día, las calles en sentido norte-sur reciben en promedio 10% menos radiación que las calles en sentido este-oeste (figura 6). Fig. 6. Radiación promedio sobre el espacio público en calles norte-sur y calles este-oeste de la F2_ME Las pendientes promedio de las laderas este y oeste son superiores al 10% lo que produce rangos de horas de exposición solar diferentes, la manzana F2_ME está en sombra a las 7:00 a.m. mientras que la F2_MO, F2_MC ya están asoleadas a esa misma hora, en la tarde ocurre lo contrario, la manzana F2_MO tiene sombra desde las 5:00 p.m. mientras las otras dos aun reciben los rayos del sol (Figura 7). Fig. 7. Ángulos solares a mañana y tarde y sombras sobre las laderas del valle. Aspectos Sociodemográficos La franja analizada es la que posee la mayor densidad de población de toda la ciudad y además es la que posee las pendientes del terreno más altas, ver figura 8: Fig. 8. Ubicación de la franja de análisis (F2) sobre plano de densidad demográfica, en rojo densidad de 500 viviendas por manzana [7] Los apartamentos son la tipología de vivienda predominante, en las tres manzanas hay 259 apartamentos frente a 40 casas, la F2_MO tiene casi el doble de viviendas en promedio de las otras dos, pero es la F2_ME la que tiene mayor población, 516 habitantes contra 274 en promedio de las manzanas F2_MO y F2_MC. La manzana F2_MO es la que tiene menos niños de 0 a 10 años, 3,7% y más personas mayores de 60 años, 34,5%, en cambio la manzana F2_ME es la que posee el mayor porcentaje de personas adultas entre 20 y 60 años, 57%. (Tabla 1) Tabla 1. Datos sociodemográficos de las F2_MO, F2_MC y F2_ME de la F2 norte de Medellín. INDICADOR F2_MO F2_MC F2_ME Hogares 163 65 98 Viviendas 165 70 93 Casas 10 15 15 Apartamentos 125 55 79 Otros 30 0 3 Total personas 296 253 516 Hombres % 48,3 48,6 46,5 Mujeres % 51,7 51,4 53,5 0 a 10 años 11 49 70 11 a 20 años 28 42 87 20 a 60 años 118 133 294 mayores de 60 años 102 26 21 Por otra parte, en todas las manzanas del estudio se evidencia la predominancia del género femenino con un 52,2 %, mujeres solteras, de edad media entre los 15 a los 64 años que residen en apartamentos con otros posibles miembros de la familia de la misma clase etaria en edad laboral activa. Según el DANE, un segundo grupo poblacional que habita las viviendas de la zona está conformado por parejas casadas o en unión libre, con poco conteo de la población infantil y adolescente o con adultos mayores. 4. CONCLUSIONES Las manzanas estudiadas se han construido en épocas diferentes, la F2_MC es 40 años más antigua que las otras dos ubicadas en las laderas, la consolidación urbana de la ciudad de Medellín en los años sesenta originó la construcción de barrios desde el fondo a las laderas del valle, por el tiempo de afianzamiento, esta manzana cuenta con una arborización más establecida. La F2_MC es la que tiene menos viviendas y habitantes, sin embargo, es la que posee la mayor cantidad de sombra urbana producto de la arborización y una sección de vía más amplia como se evidencia en la Figura 9. Fig. 9. Fotografía y sección de vía en manzana F2_MC, efecto de la arborización en la sombra urbana. La forma de consolidación urbana en la ciudad de Medellín ha hecho que las familias jóvenes o población en edad productiva se ubiquen en las zonas altas de la ciudad y en edificios de varios pisos que son identificados como apartamentos, lo que produce secciones de vías más estrechos y con desniveles propios de la topografía (figura 10). Fig. 10. Fotografía y sección de vía en manzana 3, este, efecto del número de pisos en la sombra urbana. La topografía y la densificación urbana producen sombras en las manzanas que determinan cambios en la temperatura según la hora y la orientación de la manzana. Las manzanas F2_MO y F2_ME ubicadas en las laderas tienen mayor cantidad de población infantil y adultos mayores que habitan en edificios con mayor cantidad de pisos, en donde la mayor cantidad de sombra se recibe en las primeras horas de la mañana y las últimas horas de la tarde, todas condiciones que pueden afectar la habitabilidad de estos grupos etarios con unas necesidades diferentes a la población adulta en edad laboral. RECONOCIMIENTOS Un agradecimiento especial a las personas integrantes del Grupo de investigación EMAT, cuerpo docente y de estudiantes de las asignaturas Énfasis 1 y 2 en arquitectura bioclimática de la Facultad de Arquitectura de la Universidad Nacional de Colombia, sede Medellín y al grupo de profesoras del Grupo de investigación Hombre, Proyecto y Ciudad de la Facultad de Artes Integradas de la Universidad de San Buenaventura, sede Medellín. REFERENCIAS [1] AMVA. Area Metropolitana del Valle de Aburra [online]. 2019 [accessed. 2021-09-24]. Available at: https://www.metropol.gov.co/area/Paginas/somos/Historia.aspx [2] MANSILLA, Juan Camilo. Reconfigurando el espacio público, redefiniendo la marginalidad urbana: un estudio de caso con jóvenes de barrios populares de Medellín, Colombia. In: Universidad de Buenos Aires, FACULTAD DE CIENCIAS SOCIALES, ed. XI Jornadas de Sociología. [online]. 2015 [accessed. 2022-07-12]. Available at: https://www.aacademica.org/000- 061/174 [3] RUIZ BOTERO, Luz Dary, Hugo Alexander VILLA BECERRA and Diego Mauricio MONTOYA BEDOYA. Medellín, la ciudad de la ladera en disputa con la imaginada. Limaq [online]. 2018, (004), 143–163 [accessed. 2022-07-12]. ISSN 2523-630X. Available at: doi:10.26439/LIMAQ2018.N004.2646 [4] GUZMÁN ECHAVARRÍA, Gisel. Análisis de la influencia del diseño urbano en la meteorología del Valle de Aburrá. Medellín, 2018. Tesis de Maestría. Universidad Nacional de Colombia. [5] GUZMÁN ECHAVARRÍA, Gisel and Carlos David HOYOS ORTIZ. Implications of Urban Form and Topography in Thermal Conditions at Local and Micro Scale in a Tropical Urban Area Located in a Valley - NASA/ADS. In: American Geophysical Union, Fall Meeting abstracts [online]. 2018, p. GC41G-1541 [accessed. 2022-07-12]. Available at: https://ui.adsabs.harvard.edu/abs/2018AGUFMGC41G1541G/abstract [6] SOLEMMA. ClimateStudio — Solemma [online]. [accessed. 2022-07-11]. Available at: https://www.solemma.com/climatestudio [7] DANE (DEPARTAMENTO ADMINISTRATIVO NACIONAL DE ESTADÍSTICA). Geoportal DANE [online]. [accessed. 2022-07-11]. Available at: https://www.dane.gov.co/index.php?option=com_content&task=category§ionid=101&id= 604&Itemid=1183 Sobre los autores Ader García-Cardona es Arquitecto de la Universidad Nacional de Colombia, Especialista en Tecnologías Avanzadas en la Construcción de la Universidad Politécnica de Madrid. Especialista en Ergonomía de la Universidad de Antioquia y Doctor en Ciencias Técnicas – Universidad de La Habana José Antonio Echeverrí, Cujae. Profesor Asociado y Vicedecano Académico de la Facultad de Arquitectura Universidad Nacional de Colombia Sede Medellín. Líder grupo de Investigación EMAT. Su campo de trabajo se centra en la bioclimática en relación con la habitabilidad de los espacios urbanos, educativos y domésticos con énfasis en población infantil. Elisabeth Herreño-Téllez es Diseñadora Industrial de la Universidad Nacional de Colombia, Especialista en Gestión de la Innovación Tecnológica y Magister en Ingeniería de la Universidad del Valle. Profesora Asociada y Coordinadora de Investigaciones Facultad de Artes Integradas - Universidad de San Buenaventura Medellín. Líder grupo de investigación Hombre, Proyecto y Ciudad. Su campo de investigación se centra en los factores humanos en temáticas asociadas los aspectos físicos y psicológicos que se generan por las interacciones en espacios arquitectónicos y ambientes laborales. Yury Andrea Hernández-Duque es Arquitecta y Magister en Bioclimática de la Universidad de San Buenaventura Medellín. Docente Investigadora Maestría en Bioclimática – Universidad de San Buenaventura Medellín. Integrante del grupo Hombre, Proyecto y Ciudad. Su trabajo de investigación se enfoca en arquitectura bioclimática en espacios interiores. John Arango-Flórez es arquitecto, magister en arquitectura y actualmente estudiante de doctorado en Estudios Urbanos y Territoriales, Investigador Asociado en Minciencias, Profesor Asistente en la Facultad de Arquitectura de la Universidad Nacional de Colombia, Sede Medellín, su campo de investigación ha girado en torno a las relaciones entre los usuarios y la arquitectura a través de las actividades cotidianas mediadas por el mobiliario, especialmente en espacios educativos y domésticos. INCIDENCIA DE LAS CONDICIONES MATERIALES Y MORFOLÓGICAS DE LA ESTRUCTURA URBANA Y EL ESPACIO VIAL DE LAS LADERAS DEL VALLE DE ABURRÁ EN EL COMPORTAMIENTO HUMANO. Juan Carlos Muñetón-Pérez1, Carlos Mauro Sepúlveda-Morales1, Manuela Perez-Quintero1, Bryan Camilo Jurado-Santander1, Alejandro Higuita-Rodríguez1, Susana Cerón-Gómez1, Ader Augusto Garía-Cardona2, Elisabeth Herreño-Tellez3, Yury Andrea Hernández-Duque4 y John Arango-Flórez5 1Estudiante. Universidad Nacional de Colombia, Medellín, Carrera 65 Nro. 59A – 110, Medellín Colombia1; 2Profesor Asociado. Universidad Nacional de Colombia, Medellín, Carrera 65 Nro. 59A – 110, Medellín Colombia; 3Profesora Asociada, Universidad de San Buenaventura, Medellín, Carrera 56C N° 51-110, Medellín, Colombia; 4Profesora Auxiliar, Universidad de San Buenaventura, Medellín, Carrera 56C N° 51-110, Medellín Colombia; 5Profesor Asistente. Universidad Nacional de Colombia Medellín, Carrera 65 Nro. 59A – 110, Medellín Colombia. 1jcmunetonp@unal.edu.co RESUMEN Se presenta un análisis tipológico de dos manzanas en ladera ubicadas en el Valle de Aburrá, con metodología analítica descriptiva de los patrones de comportamiento humano en relación con la estructura y morfología urbana, pertinente para el desarrollo futuro del urbanismo en condiciones de ladera. La morfología de las manzanas corresponde a una forma rectangular, alineada a la calle y contigua una de la otra con tres pisos, cada uno de una de altura promedio de 2,50 m., orientada en sentido sureste – noroeste, con vivienda típica construida en ladrillo, teja de barro además de concreto, con pendientes de 5,18% a 27% y secciones de vía desde 4,5 m. hasta 6,45 m. Los desplazamientos peatonales predominantes son en sentido norte-sur y oeste – este, en un radio de 120 m que conectan con servicios y equipamientos barriales. El tiempo de permanencia estimado de un peatón oscila entre 3 y 5 minutos dependiendo del tipo de usuario en relación la radiación solar directa en mañana y tarde, además de la ausencia de espacio público y mobiliario para el descanso durante los recorridos. Se obtuvo que en las manzanas analizadas el 70% es vivienda y el 30% es de uso mixto, con zócalo de uso comercial y plantas superiores de vivienda. En conclusión, los patrones de comportamiento humano responden a unas condiciones específicas de acuerdo a la configuración arquitectónica, así como de una estructura urbana determinada que condicionan la forma de habitar y los modos de vida del lugar. PALABRAS CLAVES: arquitectura bioclimática, comportamiento humano, morfología urbana, factores humanos, análisis de la marcha INCIDENCE OF THE MATERIAL AND MORPHOLOGICAL CONDITIONS OF THE PUBLIC SPACE ON THE SLOPES OF THE ABURRÁ VALLEY ON HUMAN BEHAVIOR. ABSTRACT A typological analysis of two hillside blocks located in the Aburrá Valley is presented, with descriptive analytical methodology of human behavior patterns in relation to urban structure and morphology, relevant for the future development of urban planning in hillside conditions. The morphology of the blocks corresponds to a rectangular shape, aligned to the street and adjoining one to the other with three floors, each with an average height of 2.50 m, oriented in a southeast- northwest direction, with a typical house built in brick, clay tile as well as concrete, with slopes from 5.18% to 27% and track sections from 4.5 m. up to 6.45m. Pedestrian movements predominate in a north-south and west-east direction, within a radius of 120 m that connect with neighborhood services and facilities. The estimated residence time of a pedestrian ranges between 3 and 5 minutes depending on the type of user in relation to direct solar radiation in the morning and afternoon, in addition to the absence of public space and furniture for resting during the walks. It was obtained that in the blocks analyzed, 70% is dwelling and 30% is mixed use, with a base for commercial use and upper floors for dwelling. In conclusion, the patterns of human behavior respond to specific conditions according to the architectural configuration, as well as a specific urban structure that conditions the way of inhabiting and the ways of life of the place. KEYWORDS Bioclimatic architecture, human behavior, urban morphology, human factors, gait analysis 1. INTRODUCCIÓN: Para hablar de bioclimática urbana es necesario entender las interrelaciones que existen entre clima, microclima y los componentes que determinan la configuración de un lugar, entendiendo este último como el resultado de la correspondencia de tres principales factores desde un punto de vista físico, psicológico, así como espacial. Canter (1997)[1] afirma teóricamente que existe una relación entre la psicología ambiental junto con la arquitectura proponiendo que hay efectos sobre el comportamiento humano en relación con aspectos específicos de diseño a tal punto que este factor humano es capaz de resolver o dar directrices para la solución de problemas inmediatos de diseño. En conjunto con lo anterior, Josep Muntañola establece que “el diseño debe basarse en el conocimiento de las formas de interacción de las personas y los entornos, es decir, en el estudio (tanto básico como aplicado) de las relaciones entre el entorno y el comportamiento humano” [2] . Algunas ciudades latinoamericanas se encuentran en condición de montaña, con características en su estructura urbana y morfológicas pensadas para territorios construidos en planicies. El caso de estudio en este artículo se desarrolla en la zona urbana del Valle de Aburrá, que presenta unas condiciones particulares en el trazado urbano por su ubicación en las laderas, aspecto que genera microclimas particulares dependiendo de la posición, lo que puede afectar el comportamiento de las personas que habitan en el lugar. La zona urbana del Valle de Aburrá conformado por diez municipios, presenta una estructura territorial y físico-espacial enmarcada por una topografía irregular y pendiente, que oscila entre 1.300 y 2.800 metros sobre el nivel del mar (AMVA, 2019)[3] (ver figura 1), ubicado en la cordillera central de Los Andes colombianos, con clima tropical andino, variabilidad térmica entre los 17ºC y 28ºC y humedad relativa entre 40% y 70%, habitado por 3.726.219 personas (DANE, 2019)[4] , población que concentra su lugar de vivienda en las laderas oriental y occidental, bordeando un río que fluye de sur a norte. Fig.1. Sección transversal Valle de Aburrá sentido occidente–oriente La condición estructurante urbana más típica que se encuentra en el Valle de Aburrá es el trazado urbano en damero que consiste en calles rectilíneas que se cruzan configurando un ángulo recto, con orientación unas en sentido norte - sur y otras en sentido oriente - occidente. Este tipo de trazado es una de las formas óptimas de parcelamiento debido a la regularidad de sus manzanas, sin embargo, responde a una condición topográfica plana opuesta a la condición escarpada del Valle de Aburrá por su condición de ladera, de manera que genera modos de habitar particulares que repercuten en aspectos arquitectónicos y de factor humano. Este estudio contrasta, en primer lugar, la estructura urbana con las relaciones visuales y de paisaje, en segundo lugar, las laderas con los gestos corporales asociados y, por último, los usos de suelo con los recorridos de las personas, encontrando que estos factores pueden incidir en el comportamiento social en el lugar y que deben hacer parte de la planeación urbana de ciudades que se ubican en laderas. Las características morfológicas y de la estructura urbana de un lugar producen diferentes microclimas, las variables morfológicas como las inclinaciones de las laderas, la altura de las volumetrías o si se tiene o no una franja arbórea condicionan los comportamientos en los microclimas en secciones viales analizadas. Dichas características afectan la cantidad de radiación solar directa en la zona y proyectan sombra sobre la sección vial, creando zonas en las que la sensación térmica cambiaria en relación a otras que reciben la radiación solar directa.[5] De igual forma las variables de la estructura urbana se relacionan directamente con las dinámicas que se desarrollan en las secciones viales, el trazado urbano delimita la posición de las volumetrías , la orientación de las manzanas determina no solo la cantidad de radiación solar que interactúa con las calles y carreras si no también los flujos de viento que se configuran en las mismas, además de que los usos de suelo demarcan la apropiación de los habitantes junto con los recorridos que estos realizan. Lo anterior afecta directamente con las características de los microclimas que se tienen en el lugar.[6] A su vez los materiales utilizados en la construcción de las vías, andenes, antejardines y fachadas condicionan las características de los microclimas del lugar ya que su posición, orientación y coeficiente de absorción térmica dan como resultado las temperaturas de los microclimas del lugar.[7] 2. METODOLOGÍA DE LA INVESTIGACIÓN El estudio se desarrolla bajo una metodología analítica descriptiva de los patrones de comportamiento humano en relación con la estructura, la morfología urbana y las condiciones climatológicas del sitio. Para efectos de esta investigación se utiliza un diseño no experimental ya que no se manipulan las variables involucradas, sino que únicamente se observa el comportamiento de estas en su entorno natural. De acuerdo a su condición de diseño no experimental se opta por realizar un análisis descriptivo cualitativo en el sitio durante un rango de tiempo entre las 8:00 a.m. y las 12:00 m., en el que se analizó el comportamiento humano identificando el tipo de recorridos hacia los equipamientos urbanos, la caracterización de los habitantes de la zona por variables sociodemográficas (como género y edad). La otra parte consiste en analizar las condiciones físicas del sitio desde un enfoque arquitectónico describiendo la topografía, tipología, materialidad, orientación, índice de construcción además del uso del suelo. Los lugares de análisis se seleccionan de forma cenital por medios digitales en la plataforma de Google Maps; las dos manzanas similares en sus características de orientación, altitud y morfología, pero en laderas opuestas, con el fin de obtener datos comparables para el análisis. La información fue recopilada a través de los diarios de campo (ver figura 2), con un plano base a diferentes escalas e iconografías determinadas que permitieron el registro de la información a partir de la observación directa en el sitio. En estos se registraron los levantamientos arquitectónicos de las manzanas que facilitaron la identificación de las secciones viales, las pendientes en las que se ubican las viviendas y los usos del suelo, además de las variables humanas tales como las relaciones visuales, los gestos corporales por el movimiento y los desplazamientos de los habitantes. Posteriormente para el análisis del gesto corporal se realiza un video en zonas con pendientes similares a la de los lugares de estudio en el cual se realizan ejercicios de marcha, que permiten comprender la posición corporal y como se afecta en relación con la marcha durante el recorrido. Fig. 2. Diarios de campo con los planos de la manzana occidente y oriente Para la recolección de los indicadores sociodemográficos se accedió a los datos del geoportal del Departamento Administrativo Nacional de Estadística (DANE) [8], con lo que se identificó la distribución predominante por grupos de edades y género, y la cantidad de viviendas en las manzanas analizadas (ver figuras 3 y 4). La morfología de las manzanas de análisis se extrajo utilizando el geoportal MapGIS v5[9] del municipio de Medellín. Fig. 3. Ficha indicadores sociodemográficos manzana occidental Fig. 4. Ficha indicadores sociodemográficos manzana oriental Para la recolección de la información climática se requirió de un data logger con sensores externos de temperatura, iluminación y humedad relativa que permitieron caracterizar las condiciones microclimáticas de cada manzana. Con los datos obtenidos mediante los procedimientos mencionados anteriormente se establecieron las relaciones que tienen los mismos con los patrones de comportamiento humano de la siguiente forma: Como primer punto de análisis se planteó contrastar las características que posee la estructura urbana con las relaciones visuales y el paisaje observado en el lugar, usando secciones viales. Para el desarrollo de este ítem se realiza el levantamiento digital de las secciones viales con la finalidad de entender las dinámicas que se desarrollan en los sectores estudiados, caracterizando no solo las dimensiones de los elementos que la conforman tales como fachadas, antejardines, calzada y, en algunos casos, franjas arbórea, sino también, los elementos urbanos que interactúan con la sección vial, por ejemplo, postes de electricidad, rejillas de alcantarillado, teléfonos públicos, aleros o dispositivos de control solar, bolardos, señales de tránsito, zonas de parqueo y cables que se trenzan de una franja a otra de las calles, los cuales fueron ubicados y clasificados en una ficha. Con los elementos mencionados anteriormente (ver figura 3) se establecen los porcentajes que ocupan los mismos en relación con las visuales de las personas que recorren el lugar, obteniendo de esta manera los porcentajes de cielo y las relaciones paisajísticas que tendrán los habitantes del lugar. Fig. 3. Elementos urbanos en las manzanas. (elaboración propia.) Como segundo punto de análisis se busca relacionar si la pendiente afecta el gesto corporal que tienen las personas al recorrer el lugar. Para abordar este ítem se mide la pendiente de las calles en porcentaje (%), a su vez se establece qué tipo de movimientos y los ángulos de visión que tienen las personas al caminar por estas pendientes relacionándoles con las visuales, y de esta forma establecer si dichos movimientos, en relación con los elementos urbanos, afectan las visuales que se tienen al recorrer el lugar (ver figura 4). Fig. 4. Gestos corporales a partir de los análisis de visuales en los recorridos Como tercer punto de análisis se relacionan los usos del suelo con los recorridos que realizan las personas en el lugar. En este ítem se clasifican los usos del suelo (estableciendo si son de alta, media o baja mixtura), se identifican los usos predominantes y secundarios, se caracterizan los equipamientos de la zona y se utilizan los datos sociodemográficos con el fin de establecer la cantidad de personas que habitan en el lugar. Se identifican los recorridos marcando su punto de inicio y finalización, para contrastarlos con las características identificadas anteriormente, con el fin de establecer las dinámicas que plantean la ubicación de los equipamientos barriales con los patrones de comportamiento humano. Como punto final de la investigación se relacionan la estructura urbana con las relaciones visuales, el gesto corporal con la topografía y los recorridos con los usos del suelo, lo que permitiría establecer si las variables pueden afectar los patrones del comportamiento humano en las laderas del Valle de Aburrá. 3. RESULTADOS Y DISCUSIÓN Recorridos El análisis de la manzana oriente arroja que las persona en promedio recorren un rango entre 60 m. y 180 m. para realizar sus actividades cotidianas con respecto a los establecimientos comerciales y educativos en el sector este durante las horas de la mañana, específicamente mientras se realizó la visita in situ desde las 8:00 am hasta las 12:00 m., franja horaria en la cual la vida cotidiana es más activa. Adicionalmente, esta distancia se recorre con pendientes elevadas aproximadamente entre 1,0 % y 66,7 %, siendo un recorrido ascendente y accidentado debido a su condición escarpada, estos recorridos corresponden a los desplazamientos desde la manzana en cuestión hacia los establecimientos educativos más cercanos e inmediatos, tanto en el recorrido A como B (ver figura 5 y 6). Durante la observación se pudo determinar que la mayoría de las personas que se desplazaban y realizaban el recorrido eran niños y jóvenes. Fig. 5. Recorrido A de la manzana oriental Fig. 6. Recorrido B de la manzana oriental El análisis de la manzana occidental arroja que las personas en promedio recorren desde 60 m. hasta más de 180 m. para realizar sus actividades cotidianas con respecto a los establecimientos comerciales y educativos en el sector occidental (ver figura 7) hay un mayor número de establecimientos comerciales barriales que se ubican en los primeros niveles de las edificaciones, configurando en algunos casos un zócalo comercial que determinan recorridos y flujos predominantes en el sitio. Fig. 7. Recorrido A de la manzana occidental Fig. 8. Recorrido B de la manzana occidental Morfología y estructura urbana: Las secciones viales en las manzanas analizadas son similares tanto en su morfología como también en los elementos urbanos que la componen. Con respecto a la morfología de la manzana oriental se identificó que la sección vial menor (ver figura 9) tiene una dimensión de 8,07 m. y la mayor de 13,91 m. Dichas secciones poseen las siguientes características: los antejardines son una constante en todos los lotes con longitudes mínimas de 1 m. y máximas de 3,91 m. A su vez se identifica que las mismas no cuentan con una franja de circulación peatonal (andén) ya que esta fue ocupada por los antejardines, la calzada ocupa la mayor parte de la sección vial con una dimensión de 5,44 m., permitiendo el flujo vehicular en dos sentidos. Por último, se observa que la altura promedio de la volumetría en el lugar es de 9 m. (o tres niveles). Fig. 9. Secciones viales de mayor y menor longitud En cuanto a pendientes (ver figura10) se identifica que para la manzana oriental se tiene una inclinación mínima de 4.7% y máxima de 27.5% . Fig. 10. Porcentaje mayor de pendiente Por otro lado, en la morfología de la manzana occidental se determinó en las secciones de vía una jerarquía superior del vehículo sobre el peatón. En ambas secciones se encuentran unas características similares: los antejardines de las viviendas cumplen una doble función pues también sirven como anden peatonal, con unas dimensiones bastante reducidas de mínimo 1 m. y máximo 2 m., que en la mayoría de sus casos se ven obstaculizadas por postes de energía. La calzada vehicular ocupa la mayor dimensión de la sección que es de 4,90 m. como mínimo y 6 m. como máximo. La sección vial menor cuenta con unas dimensiones de 7,90 m y la sección vial mayor con unas dimensiones de 8,20 m. de longitud (ver figura 11), por último, se observa que la altura promedio de la manzana está entre los 3 y 4 niveles de altura. Fig. 11. Secciones viales carrera 79 occidente y calle 91b occidente, respectivamente. En cuanto a pendientes (ver figura 12) se identifica que para la manzana occidental se tiene una inclinación mínima de 5.18% y máxima de 21.0% Fig. 12. Porcentaje de pendiente occidente. Comportamiento humano: Los habitantes del lugar tienen una relación directa con la disposición de los elementos urbanos de las secciones viales descritas anteriormente (ver figura 13), en donde se encuentra que tienen una arborización muy escaza tanto en el espacio público como en las propiedades privadas. A su vez se identifica que los parasoles o dispositivos de control solar pasivo son muy usados en las fachadas oriente y occidente. Estos, a pesar de mitigar los efectos de la radiación solar, podrían constituir un problema ya que pueden ocupar un porcentaje de cielo desde la visual de peatón, ya que usualmente estos no son concebidos desde la planificación arquitectónica y urbana del lugar. Fig. 13. Ubicación de elementos urbanos manzana occidente y oriente respectivamente. De igual manera se identifica que los antejardines son usados principalmente para el parqueo de vehículos y para otros usos indeterminados, ya que muchos de estos se encuentran cercados y, por ende, se vuelve exclusivo su uso para los privados. Las vías con una mayor inclinación están más despejadas de vehículos, a diferencia de las que tienen una menor, que son usadas como zonas de parqueo por los habitantes del lugar dándole una mayor densidad al espacio, lo que podría llegar a afectaciones de carácter visual y el adecuado uso del espacio vial de las mismas. Se identifica la ausencia de mobiliario urbano que acompañe a los habitantes en sus recorridos, como también, se observa la carencia de dispositivos de iluminación artificial, ya que la mayoría de los postes en la zona llevan las líneas eléctricas de una franja a otra de las vías, más no poseen lámparas que iluminen los espacios; esta característica, además, conlleva tener cables colgados sobre las secciones viales. Las características morfológicas y de los elementos urbanos descritas anteriormente influyen directamente en las relaciones visuales que se tienen al recorrer el lugar (ver figura 14 y 15). Por ejemplo, las variables en las dimensiones de las calzadas, la altura de las volumetrías que acompañan las mismas o el posicionamiento y número de postes y sus líneas eléctricas amplían o disminuyen los porcentajes de cielo, ya que estos enmarcan la bóveda celeste. Fig. 14. Porcentaje de cielo manzana oriental. A) Calle 86 subiendo - 18,57% bóveda celeste. B) Calle 85A bajando - 57,78% bóveda celeste. C) Carrera 41 A subiendo - 40,51% bóveda celeste. 4) Carrera 41 subiendo - 44,51% bóveda celeste. Fig. 15. Porcentaje de cielo manzana occidental. E) Carrera 79 bajando - 34,37% bóveda celeste. F) Carrera 79A subiendo - 22,71% bóveda celeste. G) Calle 91B - 28,44% bóveda celeste. H) Calle 91A - 22,05% bóveda celeste. Las características morfológicas de cada sector se involucran directamente con los desplazamientos, la forma y el tiempo que conlleva moverse de un punto a otro (ver figura 16); esto se ve afectado a causa de distintas variables como son edad, género, tamaño, pendiente de la superficie, ya que es notable la relación con el largo del paso, la posición del cuerpo, la fuerza, y la velocidad con la que se sube o baja las pendientes del lugar. Fig. 16. Morfología de la marcha humana en pendiente. 4. CONCLUSIONES En el estudio se evidencia que los recorridos de los habitantes del lugar son determinados por la ubicación de los equipamientos urbanos educativos y la infraestructura de transporte público, los cuales configuran vías principales que a su vez son acompañados de establecimientos comerciales. La ubicación de los equipamientos urbanos educativos y la infraestructura de transporte público son determinantes en los recorridos realizados por los habitantes del lugar, que condicionan los usos de los primeros pisos de las viviendas para actividades comerciales relacionadas a la adquisición de bienes de primera necesidad. Zonas que presentan un mayor flujo de habitantes que otras zonas de la misma manzana. La sección vial puede incidir en los índices de construcción de las viviendas, dado que los habitantes extienden su espacio privado hacia un espacio público, transformando los andenes como una extensión de la propiedad privada. Esto afecta la estructura urbana del lugar y condiciona los recorridos de los habitantes del lugar, situación que los lleva a desplazarse por las vías y no por los andenes. Dado el trazado urbano del sitio, este afecta el comportamiento de las personas dado que genera cambios en las pendientes de las diferentes vías que modifican el gesto corporal de las personas en la marcha al subir o bajar la ladera, afectando la percepción de los habitantes respecto al paisaje urbano. Los patrones de comportamiento humano responden a condiciones específicas de acuerdo a la configuración arquitectónica y urbana del lugar en donde su estructura junto con la morfología determina la forma de habitar y los modos de vida del lugar. Los distintos materiales influyen de forma directa con las distintas actividades de los habitantes, tanto de manera individual como colectiva. Estos afectan los desplazamientos, permanencia y vida urbana del sector, por lo cual los distintos patrones de comportamiento se deben tener en cuenta para la creación de viviendas y crecimiento de la ciudad en el valle del Aburrá RECONOCIMIENTOS Los autores desean agradecer a la Universidad Nacional de Colombia Sede Medellín, al grupo docente de los cursos de Énfasis en bioclimática asociados al grupo de investigación Energía Medio ambiente Arquitectura y Tecnología (EMAT) y Hombre, Proyecto y Ciudad de la Universidad de San Buenaventura Medellín. REFERENCIAS [1] CANTER, David, 1997. The facets of place. En: ERWIN H. Zube y GARY T., Moore, 1997. Toward the integration of theory, methods, research, and utilization. Nueva York: Springer. pp. 109-147 [2] MUNTAÑOLA THORNBERG, Josep, 1974. La arquitectura como lugar. Barcelona: Ediciones UPC. ISBN: 9788498801682 [3] ÁREA METROPOLITANA DEL VALLE DE ABURRÁ, 2019. Historia [en línea] Disponible en: https://www.metropol.gov.co/area/Paginas/somos/Historia.aspx. [Consultado: 28 de junio de 2022]. [4] DEPARTAMENTO ADMINISTRATIVO NACIONAL DE ESTADÍSTICA, 2019. Demografía y población [en línea] Disponible en: https://www.dane.gov.co/index.php/estadisticas-por-tema/demografia-y-poblacion/censo- nacional-de-poblacion-y-vivenda-2018:. p. 17 . [Consultado: 28 de junio de 2022] [5] THERÁN NIETO, K. R., RODRÍGUEZ POTES, L. M., MOUNTHON CELEDON, S., y MANJARRES DE LEÓN, J. 2019. Microclima y Confort Térmico. Módulo Arquitectura CUC. [en línea]. Vol. 23, No. 1. pp. 49–88. Disponible en: https://doi.org/10.17981/mod.arq.cuc.23.1.2019.04 [Consultado: 12 de abril de 2022] [6] MOUDON, Ana. V., y OLIVEIRA, Victor. 2015. Morfología urbana como un campo interdisciplinar emergente. Revista de Morfologia Urbana [en línea]. Vol. 3, No. 1. pp. 41-49. Disponible en: https://doi.org/10.47235/rmu.v3i1.16 [Consultado: 12 de abril de 2022] [7] ROSAS LUSETT, Mireya. A., y GARCÍA IZAGUIRRE, Victor. M., 2014. La influencia de la configuración de los cañones urbanos en el confort del peatón. Nova scientia, [en línea]. Vol. 6, No. 11. pp. 228-253. Disponible en: https://doi.org/10.21640/ns.v6i11.81 [Consultado: 12 de abril de 2022] [8] DEPARTAMENTO ADMINISTRATIVO NACIONAL DE ESTADÍSTICA, 2018 Geoportal DANE. Disponible en: https://geoportal.dane.gov.co/geovisores/territorio/analisis-cnpv-2018/?lt=6.2476376&lg=- 75.56581530000001&z=13 [Consultado: 28 de junio de 2022] [9] SISTEMA DE INTELIGENTE PARA EL SEGUIMIENTO URBANÍSTICO, 2019. Mapas de medellín [en línea]. Disponible en:https://www.medellin.gov.co/MAPGISV5_WEB/mapa.jsp?aplicacion=0 [Consultado: 25 de junio de 2022]. COMPARACIÓN SIMULTÁNEA DE CONDICIONES TÉRMICAS DE ZONAS URBANAS EN LADERAS DE MEDELLÍN, COLOMBIA Susana Cerón-Gómez1, Brian Fernández-Aguirre1, María Camila Gómez-Castaño1, Alejandro Higuita- Rodríguez1, Daniel López-Álvarez1, Juan Carlos Muñetón-Pérez1, Carlos Mauro Sepúlveda-Morales1, Cristian Giovanni Tobón-Porras1, Santiago Vélez-Restrepo1, Bryan Camilo Jurado-Santander1, Ader Augusto Garía- Cardona2, Elisabeth Herreño-Tellez3, Yury Andrea Hernández-Duque4 y John Arango-Flórez5 1Estudiante. Universidad Nacional de Colombia, Medellín, Carrera 65 Nro. 59A – 110, Medellín Colombia1; 2Profesor Asociado. Universidad Nacional de Colombia, Medellín, Carrera 65 Nro. 59A – 110, Medellín Colombia; 3Profesora Asociada, Universidad de San Buenaventura, Medellín, Carrera 56C N° 51-110, Medellín, Colombia; 4Profesora Auxiliar, Universidad de San Buenaventura, Medellín, Carrera 56C N° 51-110, Medellín Colombia; 5Profesor Asistente. Universidad Nacional de Colombia Medellín, Carrera 65 Nro. 59A – 110, Medellín Colombia. 1sceron@unal.edu.co RESUMEN Este estudio presenta una metodología analítica, comparativa, deductiva entre las variables ambientales de temperatura de bulbo seco y humedad relativa de las estaciones meteorológicas de la ciudad y los datos tomados in situ de dos sectores en laderas ubicadas al costado oriente y occidente del Valle de Aburrá, donde se ubica Medellín, Colombia. Se identificó que la instalación de los sensores, el viento ascendente convectivo por las laderas, la circulación vehicular y peatonal, los hábitos cotidianos y condiciones microclimáticas de cada lugar incidieron en el procedimiento de medición y validación de los datos de las estaciones de medida in situ. En el caso de la obtención de datos climáticos de las estaciones meteorológicas se utilizó el Sistema de Alerta Temprana de Medellín y el Valle de Aburrá (SIATA), que se ven afectadas por la distancia de éstas a las zonas de estudio, así como por la altitud del sensor de 10m respecto al nivel del suelo. A partir de los datos contrastados del trabajo de campo y los datos de las estaciones meteorológicas, se identificó que hay una diferencia promedio entre las estaciones y el suelo de 7,31°C en temperatura y 30,80% en humedad relativa, lo que permitió identificar que la variación de las condiciones ambientales se afecta más por la altitud que por la ubicación de la ladera en el valle. La diferencia de los datos ambientales obtenidos por las estaciones y por medidas in situ se deben armonizar para construir data microclimática de zonas específicas de la ciudad, insumo y fundamental para planes y políticas públicas de desarrollo urbano. PALABRAS CLAVES: arquitectura bioclimática, clima tropical andino, microclima, ladera, geografía, isla de calor urbana SIMULTANEOUS COMPARISON OF THERMAL CONDITIONS OF URBAN AREAS ON HILLSIDE OF MEDELLÍN, COLOMBIA ABSTRACT this study presents an analytical, comparative, deductive methodology of the environmental variables of dry bulb temperature and relative humidity between the meteorological stations of the city and data taken in situ from two sectors on slopes located on the eastern and western sides of the Aburrá Valley. Where is Medellin, Colombia located? It was identified that the installation of the sensors, the ascending convective wind on the slopes, the vehicular and pedestrian circulation, the daily habits and microclimatic conditions of each place influenced the procedure for measuring and validating the data from the measurement stations in situ. In the case of obtaining climatic data from the meteorological stations, the Early Warning System of Medellín and the Valle de Aburrá (SIATA) was used, which are affected by their distance from the study areas and by the altitude of the 10m sensor from ground level. From the contrasted data of the field work and the data of the meteorological stations, it was identified that there is an average difference between the stations and the floor of 7.31°C in temperature and 30.80% in relative humidity, which allowed identifying that the Variation in environmental conditions is affected more by altitude than by the location of the slope in the valley. The difference between the environmental data obtained by the stations and in situ measurements must be harmonized to build microclimatic data for specific areas of the city, an fundamental input for public urban development plans and policies. KEYWORDS: bioclimatic architecture, tropical andean climate, microclimate, hillside, geography, urban heat island 1. INTRODUCCIÓN En muchas ciudades del mundo la alta densidad poblacional y su concentración urbana contribuye al cambio climático, aumentando los efectos nocivos de fenómenos como la isla de calor, que a su vez disminuyen el confort al momento de habitar el espacio urbano, lo que afecta la salud pública de las ciudades [1]. En el caso de Medellín, este fenómeno se evidencia en la concentración y el crecimiento de la población en la zona urbana debido a la configuración geográfica del valle que ha derivado en la instalación de estaciones meteorológicas en la zona urbana del Valle de Aburrá en los que se mide variables ambientales térmicas, entre otras. Por otro lado, las condiciones microclimáticas de los barrios en las laderas del Valle no han sido contrastadas con las bases de datos de las estaciones meteorológicas próximas, dado que estas últimas se ubican en zonas descubiertas y a una altura promedio de 10 m. sobre el suelo. Por lo tanto, este proyecto comparó simultáneamente las variables ambientales de temperatura y humedad relativa in situ en una manzana del barrio Castilla en la ladera occidental y en una manzana en el barrio Manrique en la ladera oriental, con los archivos climáticos de estaciones meteorológicas ubicadas a una distancia máxima de 2,4 km a las manzanas, además de una diferencia altimétrica promedio de 40 m. que permitió estimar un factor de corrección aplicable a los datos del SIATA [2]. Marco teórico En el desarrollo de este estudio se abordaron los temas de bioclimática urbana, condiciones ambientales, y normativa urbana de la ciudad. Bioclimática urbana A finales del S. XIX y principios del S. XX, Medellín presenta un crecimiento urbanístico acelerado, de forma orgánica y progresiva, donde se ocupa mayoritariamente el valle, y a medida de la explosión demográfica se expande hacia las laderas, a pesar de las normas que intentaban disminuir dicha expansión. La reflexión sobre el crecimiento y el desarrollo de las ciudades, y la relación entre el medio urbano con el medio natural han hecho necesaria la integración de la planificación urbana con las condiciones intrínsecas de cada territorio para establecer criterios de optimización medioambiental. La bioclimática urbana comprende variables fundamentales que permiten visualizar la ciudad como un conjunto de organismos que conviven en un medio físico común, además de buscar una correcta adaptación al entorno, busca establecer una relación clara y directa entre los estructurantes naturales existentes, su transformación con el paso del tiempo con relación a cada asentamiento y tener esto como consideración para futuros desarrollos e intervenciones urbanas adecuadas [3]. Que la diferencian de la ecología urbana y el ecosistema urbano por una dimensión técnica de estrategias de acción sobre factores físicos de la arquitectura y el urbanismo de la ciudad sin involucrar variables del entorno como rutas bióticas, manejo de la biodiversidad, el agua, residuos y la silvicultura urbana entre otros. Según el autor Jan Gehl [4], los espacios públicos deben resolver los efectos negativos que puede presentar el clima, para lograr el confort en ellos al realizar las actividades como caminar, sentarse, conversar o escuchar en cualquier momento del día. Así mismo menciona 12 criterios de calidad en relación con el paisaje peatonal, los cuales divide en 3 categorías: la protección, el placer y el confort. El clima de un sector es un dato cuantitativo, sin embargo, la sensación que puede llegar a tener un peatón es cualitativa y puede variar según diferentes fenómenos que alteren la habitabilidad según la escala de ciudad, los espacios o estancias de las que pueda gozar, las oportunidades de mirar el paisaje, e incluso de las prendas de vestir que lleva puestas. La bioclimática urbana incluye intrínsecamente un factor humano.[5], por lo que se habla también de hábitat bioclimático. Este comprende todas las condiciones necesarias para que la especie pueda asentarse; no es posible hablar de bioclimática urbana sin incluir el factor biótico. Posee a su vez una serie de principios generadores: estructura vial adaptada a la topografía que responda a criterios de asoleamiento y ventilación, zonas verdes adecuadas, una buena proporción entre patios y manzanas, correctas orientaciones de fachadas y tipologías edificatorias diversas adaptadas a los criterios climáticos. El proyecto RUROS (Rediscovering the Urban Realm and Open Spaces) provee una guía de diseño de espacios urbanos conteniendo los principios bioclimáticos. Hay un gran interés en la calidad del diseño urbano, ya que esto contribuye a la calidad de vida de las personas en las ciudades, afecta los comportamientos humanos y el uso del espacio al aire libre. Es un punto de partida para el desarrollo de las ciudades y la concretización de su sostenibilidad.[6] Condiciones ambientales Según lo referenciado de Chondrogianni [7] la temperatura en la última década es entre 0,8°C a 8°C superior que a principios del siglo XX. Es indiscutible que la población que reside en el área urbana tiende a sentirse más afectada por las condiciones microclimáticas del sector que habita. Para el mejoramiento de la calidad de vida de los ciudadanos se busca un buen diseño urbano para crear un microclima único que afecta variables como la temperatura del aire y la velocidad del viento; estos factores generan diferencias climáticas que se acentúan de un barrio a otro o incluso de una calle a otra en las laderas. Existen tres factores principales que pueden afectar directamente la bioclimática urbana: la estructura geométrica, la vegetación y los materiales de construcción y revestimiento. La geometría afecta la velocidad del viento y las sombras proyectadas; el uso de árboles, vegetación baja y suelos blandos pueden reducir de 2 a 3 °C la temperatura del aire; las propiedades de un material, especialmente el valor del albedo puede reducir la temperatura del aire aumentando en 04 °C este valor en el material de una superficie. Para un territorio con estaciones “el rango de una zona de confort en el ambiente exterior es más amplio que en los espacios interiores, y los límites de confort para la temperatura (Temperatura Efectiva, ET) oscilan entre 21,5 y 27°C en verano y entre 19 y 23,5°C en invierno”.[7]. . Para el caso de Medellín, las condiciones ambientales como humedad relativa del aire, temperatura y sus respectivos datos para la medición, se pueden descargar de portales web tales como los del Instituto de Hidrología, Meteorología y Estudios Ambientales -IDEAM- y el SIATA. Estos, poseen los implementos de medición y los protocolos necesarios para la recolección y análisis de datos de cada variable. Sin embargo, las estaciones de medición no son suficientes para cubrir el territorio en su totalidad; están ubicadas en puntos estratégicos, unas muy distantes de otras, lo que provoca una escasez de información de lugares específicos, haciendo que ésta no sea precisa en muchos casos. POT y normativa Desde 1997 se creó una política de desarrollo urbano en el país, desde esa época los enfoques de crecimiento urbano en las principales ciudades de Colombia se han basado en la densificación urbana, ésta implica la altura, densidad y longitud de las edificaciones que contiene el espacio urbano que inciden en las problemáticas ambientales. El acuerdo 48 de 2014 reglamenta el desarrollo urbano de Medellín [8]. En este texto se estipulan directrices que componen el crecimiento urbano en consideración a las políticas de construcción en diferentes zonas de la ciudad. Las laderas del presente estudio se encuentran en suelo de clasificación urbano, el espacio de análisis en el sector occidental cuenta con un índice de densidad habitacional máxima de 230 viviendas por hectárea y 3 niveles, mientras en el costado oriental 220 viviendas por hectárea y máximo 4 niveles de altura. 2. METODOLOGÍA Este estudio se vale de una metodología de análisis comparativo deductivo en la que se evalúan de forma simultánea las variables ambientales de temperatura de bulbo seco y humedad relativa en dos sectores en condición de ladera del Valle de Aburrá. Este se desarrolla a partir de una investigación previa donde se fracciona el valle formando cinco franjas como elementos de análisis para la comparación de tres manzanas en cada una, y posteriormente entre ellas, sin embargo, se selecciona una franja, con unas características adecuadas para el inicio de la investigación. (ver figura 1). Fig. 1. Investigación franjas del Valle de Aburrá Los lugares de análisis están constituidos por dos manzanas seleccionadas por medios digitales en la plataforma de Google Maps™, similares en sus características: orientación entre 9° y 11°, altitud de 1.700 metros y morfología en laderas opuestas de la franja urbana F2 (resaltada en la figura 1) que tiene la mayor densidad urbana y poblacional además de la mayor pendiente topográfica del Valle de Aburrá (ver figura 2). Fig. 2: Ubicación estaciones de medición: izquierda ladera occidental y derecha ladera oriental. Fuente: Adaptado del portal GeoMedellìn Para el análisis comparativo se optó por una medición de campo realizada simultáneamente en ambas laderas de 8:00 a.m. a 12:00 m. el día 6 de abril de 2022. El periodo de la investigación se encontraba cerca el día del cenit, (4 de abril), lo cual hace que la trayectoria del sol de oriente a occidente sea perpendicular y que a las 12:00 m no haya sombras, y la radiación sea directa, sin ángulos que varíen los resultados. Se desarrolla una nomenclatura de identificación para cada punto de medición. Se caracterizan los dos sectores de ladera: oriente (Or) y occidente (Oc) y en cada manzana se ubican dos estaciones: Estación Alta (EA), ubicada en la esquina con mayor altitud, y Estación Baja (EB), ubicada en la esquina opuesta inferior (ver figura 3). Fig. .3 Nomenclatura para el estudio de las manzanas. Para la recolección de datos, se emplean los dispositivos de medición (sensores datalogger marca HOBO™). Estos son dispositivos ligeros y compactos, capaces de captar información previamente configurada en su aplicación, empleando sus sensores integrados. Se caracterizan por tener un bajo consumo de energía, operación autónoma, capacidad de adquisición y procesamiento de datos, comunicación y autoconfiguración. Estos dispositivos tienen una configuración estructural básica que se compone de un procesador(que se encarga de interpretar y procesar los datos para transmitirlos a otra estación, también gestiona el almacenamiento de datos en la memoria), la alimentación o baterías, los sensores (que son dispositivos hardware que miden el cambio en un estado en el área que estén monitorizando, como por ejemplo temperatura, humedad relativa, iluminación, entre otros) y la memoria (que se utiliza para almacenar datos recopilados por el aplicativo y almacenar el código que corre el aplicativo). Las características principales son que son muy pequeños, tienen bajo consumo energético, capacidad de adaptabilidad al medio que se encuentre y funcionan desatendidamente. Para esta investigación se tomó en cuenta, por una parte, la temperatura ambiente o bulbo seco, que es la que experimenta una persona en un ambiente dado. Esta temperatura es el resultado del intercambio de calor por conducción (a través de pisos o herramientas) y radiación (Muros, plafones y sol) [9]. Por otra parte, la humedad relativa que es la relación porcentual entre la cantidad de vapor de agua que tiene el aire y el máximo que podría contener a una temperatura y presión determinada [10]. Para las medidas de campo hubo controles experimentales para evitar sesgos en la información recolectada que tienen que ver con la localización de los sensores en todos los sitios respecto a su altura del pavimento y distancia a las fachadas, evitar que los habitantes estuvieran en contacto con los equipos de medida, identificar factores que pudieron causar imprecisiones de datos que se anotaron en la bitácora, proteger el sensor de temperatura de bulbo seco de la radiación solar directa, proteger el sensor de viento de ráfagas inducidas por el tráfico automotor, un protocolo de clasificación de datos que incluyo día y horas de medidas simultanea y se informó a la comunidad sobre la actividad que se estaba realizando. Se ubicaron los sensores previamente calibrados (ver figura 4) para la recolección de datos cada minuto, orientados hacia el norte, a un metro de distancia de la superficie del suelo para que estos no se vean afectados por la radiación difusa del material, que ocasionaría mediciones menos precisas. Para comparar los datos se unificó el rango de tiempo de las mediciones entre 9:30 a.m. y 11:40 a.m. en los cuatro puntos de medición. Fig. 4. Soporte para la medición de datos in situ. Para la realización del estudio, se tomó información del mismo período de la toma de datos in situ de la red meteorológica del SIATA, que se compone por sensores multiparamétricos que suministran información climática cada minuto de los factores ambientales: temperatura, humedad relativa, precipitación, presión atmosférica, velocidad y dirección de vientos [2]. Se seleccionó la estación meteorológica 604-Instituciòn Educativa La Candelaria (Latitud: 6,293682, Longitud: - 75,542634) para el costado oriental y la 449-Thies CASD (Latitud:6,297620, Longitud: -75,575230) para el costado occidental, por ser las más cercanas a la zona de estudio. Los resultados de las mediciones en campo de cada manzana son comparados con los datos de las estaciones meteorológicas. Posteriormente, se comparan las mediciones de los datos tomados en campo de las manzanas oriente y occidente, para analizar las posibles diferencias que puedan existir estando a la misma altitud, pero en laderas opuestas del valle. Además, se realiza una comparación entre los puntos altos y bajos de cada una de las manzanas, que muestra la diferencia que puede tener un sector a solo una cuadra de distancia. Todas estas comparaciones, se realizan por medio de la estadística descriptiva, utilizando coeficientes de correlación, desviación estándar y asimetría para relacionar y analizar toda la información cuantitativa. 3. RESULTADOS Los resultados obtenidos con base en la relación entre la toma de datos in situ, y la información estipulada en la base de datos del SIATA, permite apreciar la diferencia sustancial entre los datos producidas por las plataformas digitales, y el microclima real, tanto en el costado F2_MOr y F2_MOc; de igual manera en ambos canales de medición (Temperatura de bulbo seco-humedad relativa), se hace visible la desigualdad. Humedad relativa En el costado F2_MOc con respecto al fenómeno humedad relativa, se debe comprender que entre los puntos de mediciones in situ en la manzana occidente hay una diferencia promedio de 5,47%, siendo F2_MOc_EA la más baja con respecto a ambas (ver figura 5). Entre los datos de los puntos de medición in situ del microclima de la manzana occidente existe un coeficiente de correlación de 0,94, lo que permite comprender que, aunque existe una diferencia, ambas cuentan con un comportamiento muy similar, no obstante, esa diferencia está demarcada por una desviación estándar de 5,10. Con relación a la información brindada por el la estación SIATA, se encuentra por encima del microclima un 21,47 % en promedio, influyendo en una desviación estándar con las estaciones de medidas de 11,05, pero la relación se homogeniza con relación a su comportamiento, ya que los datos de esta última comprenden un coeficiente de correlación con ambas estaciones de 0,91. Fig. 5. Resultados Humedad Relativa F2_MOc. La relación se puede observar en la conducta del fenómeno durante el periodo de análisis. En el inicio de las mediciones en los dos puntos de medición y en la estación SIATA se hallan los porcentajes máximos de humedad relativa, mientras que en el transcurso de las horas finales se presentaron los valores mínimos (ver tabla 1). En cuanto al comportamiento de los puntos de medición in situ los valores son más heterogéneos, mientras la humedad relativa en base al SIATA su rendimiento es más continuo y con pocas irregularidades, además nunca alcanza los valores máximos del microclima del sector. Tabla 1. Relación de datos humedad relativa- Medición in situ. Con respecto al costado F2_MOr, el microclima de igual forma cuenta con unas diferencias entre ambos puntos de medición; la desviación estándar que se expone en el barrio Manrique es de 6,56, siendo de esa manera más amplia la diferencia con respecto al otro costado, ya que la diferencia promedio que se presenta es de 8,31%. En relación con el comportamiento de este fenómeno (humedad relativa) se comprende un coeficiente de correlación de 0,83. El punto de mediciónF2_MOr_EB se mantiene por encima en todo el periodo de análisis con respecto a el punto de medición F2_MOr_EA (ver figura 6). En consideración de los datos de la estación más cercana del SIATA, presenta porcentajes mayores de humedad con respecto a los puntos de medición in situ, contemplando una diferencia promedio de 40,12 %, con un coeficiente de asimetría de 0,59, y una desviación estándar de 20,01. Su comportamiento se mantiene durante gran parte del análisis una semejanza, esto lo demuestra su coeficiente de correlación de 0,87. La humedad relativa en el sector F2_MOr toma los valores máximos en el primer cuarto del análisis en todos los puntos de medición y en la estación SIATA, con el pasar del tiempo la tendencia en las tres se inclinan levemente y en los minutos finales del estudio se dan los valores mínimos (ver tabla 1), sin embargo, en el tramo final se comienzan a elevar los valores (ver figura 6). La conducta del fenómeno en el contexto microclimático comprende un proceder más irregular, con relación a la estación de medición del SIATA, pero entre 10:20 y las 10:30 am en el punto de mediciónF2_MOr_EA se presenta una disminución demarcada al igual que en la estación SIATA, mientras que en el punto de medición F2_MOr_EB no se da este suceso. Fig. 6. Resultados Humedad Relativa F2_MOr. De acuerdo con los datos obtenidos, se comprende que las estaciones del SIATA en ambos costados registran unos porcentajes de humedad relativa mayores a los puntos de medición in situ, además comprenden un comportamiento más regular. Se observa una relación más semejante entre ambas estaciones del SIATA a pesar de estar en laderas opuestas, que con los puntos de medición en una misma manzana. Con respecto a los datos de los puntos de medición in situ, se percibe que hay una relación más estrecha con la altura de estaciones y puntos de medición; que con el costado donde se encuentra la manzana; comprendiendo esto se percibe una primera franja en la parte inferior de la figura 7, la cual se ciñe a los valores de los puntos de medición altos, luego se ubican los datos de los puntos, y por último con la información de porcentajes mayores se encuentran los datos obtenidos en las estaciones de SIATA. Fig. 7. Resultados Humedad Relativa F2. La humedad relativa en ambas laderas del Valle de Aburrá tiene una tendencia a disminuir en todas las estaciones de medición. Mientras que en los puntos de medición in situ la humedad oscila dentro de un rango de 39% a 64%, en las estaciones del SIATA el rango se superpone entre 67% y 100%. Con base a la información y la comparación de esta, se obtiene un coeficiente de diferencia de 30,80% a partir de los promedios de los datos entre el microclima de los sectores de análisis con respecto a las estaciones de medición. Temperatura de bulbo seco Los puntos de medición in situ en el sector F2_MOc, presentan datos de temperatura de bulbo seco con una diferencia promedio entre ambos de 2,30°C, comprendiendo mayores valores la estación F2_MOc_EAa diferencia máxima se presenta a las 11:25 am con una diferencia de 2,93°C y la desviación estándar que se presenta en el periodo de investigación es de 1,62. En el punto de medición F2_MOc_EA la temperatura comprende una conducta más heterogénea que la del punto de medición F2_MOc_EB, sin embargo, ambos cuentan con una tendencia ascendente que coincide con un coeficiente de correlación de 0,92 (ver figura 8). Con relación a la información obtenida del SIATA, se obtiene que hay una desigualdad promedio significativa, en relación con los puntos de medición del sector Castilla que es de 5,17°C, que se presenta con una desviación estándar de 2,79. Fig. 8. Resultados Temperatura de Bulbo Seco F2_MOc. La temperatura en los dos puntos de medición y en la estación SIATA de la ladera occidental tienen una tendencia ascendente. El punto de medición F2_MOc_EB, y la estación SIATA, manejan una conducta más homogénea, mientras que, por el contrario, el punto de medición F2_MOc_EA comprende unos datos que demarcan unos picos mayores, y entre las 10:53 am y las 11:04 am comprende una disminución de temperatura sustancial; a pesar de esto, el coeficiente de correlación entre mediciones es de 0,90. Entre todo el periodo de análisis los valores máximos en cada estación se dan al final del análisis, mientras que los valores mínimos se dan en el comienzo (ver tabla 2). Tabla 2. Relación de datos Temperatura Bulbo Seco- medición in situ. Alrededor de la información de la ladera F2_MOr, se presenta que el punto de medición F2_MOr_EA comprende temperaturas entre 25°C y 34°C en el periodo de análisis presentando las temperaturas más altas en relación al punto de medición eF2_MOr_EB y en ningún momento esta última sobrepasa los datos de la primera. La estación alta posee unos picos más definidos, mientras que la estación baja es más constante (ver figura 9). La desviación estándar entre ambas es de 2,35, estas cuentan con una disimilitud promedio de 3,01°C; ambas tienden a aumentar con respecto al tiempo en el análisis y cuentan con un coeficiente de correlación de 0,80. En cuanto a la información adquirida en la estación SIATA, se evidencia que los datos obtenidos in situ se mantienen por encima, con una disparidad promedio holgada de 9,45°C. El coeficiente de asimetría entre las tres estaciones es de -0,29. Las estaciones presentan de tendencias en aumento, con un coeficiente de correlación de 0,89, en cuanto al fenómeno en la estación de medición del SIATA y el punto de medición F2_MOr_EB comprende un lineamiento muy similar y uniforme, mientras el punto de medición F2_MOr_EA comprende un comportamiento más irregular, lo que hace evidencias un valor de desviación estándar de 4,90. Durante el periodo de análisis el punto de medición F2_MOr_EA comprende varias ondulaciones, no obstante, en el último cuarto, se establecen los valores máximos de temperaturas en las tres estaciones, en tanto que los datos más bajos se alcanzan en el primer cuarto (ver tabla 2). Durante la mayor parte del tiempo de análisis los puntos de medición in situ conservan su tendencia al alza, pero al final se presenta un decaimiento de ambos fenómenos (humedad relativa y temperatura de bulbo seco), que por el contrario en no se perciben en la estación del SIATA (ver figura 9). Fig. 9. Resultados Temperatura de Bulbo Seco F2_MOr. Con base en la información analizada durante el periodo de investigación, se extrae que los datos procesados por el sistema SIATA, contemplan una temperatura de bulbo seco inferior a la obtenida en los puntos de medición in situ. Al igual que la información de humedad relativa, el comportamiento del fenómeno temperatura establece una relación más estrecha con la altitud, que con el costado en el Valle en el cual se disponen las mediciones. En relación con lo dicho, en la figura 10 se puede observar que los datos se distribuyen en 3 agrupaciones: en una franja alta en los puntos de medición F2_MOc_EA y F2_MOr_EA tienen lugar las temperaturas máximas del análisis, luego se obtiene una franja media que comprende los puntos de medición F2_MOc_EB y F2_MOr_EB, y por ultimo las estaciones del sistema SIATA en la franja inferior con las temperaturas más bajas. La diferencia con respecto a las conductas es que las partes superiores oscilan en un rango más amplio (34°C y 25°C), las estaciones y mantienen una regularidad durante el periodo investigado. Fig. 10. Resultados Temperatura de Bulbo Seco F2. La tendencia en aumento de la temperatura mantiene una correspondencia entre todas las estaciones y puntos de medición, pero el rango de información que ofrece el sistema SIATA está en gran medida alejado del microclima real de los sectores, y es que, mientras en ambos lados del Valle se obtuvieron temperaturas entre los 34°C y 25°C en los puntos de medición en las estaciones del SIATA se presentan entre los 24°C y 17°C. De acuerdo con los resultados analizados se establece un coeficiente de diferencia entre la información obtenida del microclima con respecto a la información que se encuentra en la base de datos del SIATA de 7,31°C. 4. CONCLUSIONES Los factores bioclimáticos son fenómenos del habitar, que se ve influenciado por un sinnúmero de eventos, tales como la radiación difusa de los materiales, el viento ascendente convectivo de las laderas, factores de uso de los habitantes, entre otros; todo esto contiene variaciones en lapsos de tiempo muy cortos, lo cual dispone que las mediciones tengan un margen de imprecisión No obstante todos estos elementos influyen en lo que sucede diariamente en cada sector, por lo cual las mediciones de campo in situ a 1,00 m de altura sobre la superficie del suelo, a diferencia de las estaciones de medición del sistema SIATA que se encuentran a 10,00 m de altura sobre la superficie del suelo, determinan un efecto más acercado a la sensación térmica de quienes transitan y habitan el lugar, con lo que establecer unos datos que se obtienen por medios digitales y aproximarlos a una realidad del microclima tan complejo que se presenta en una condición de Valle como es la existente en la ciudad de Medellín, constituye una herramienta efectiva con un campo de uso muy amplio. En este orden de ideas, y a partir de los resultados del microclima obtenidos en puntos de medición in situ, y con los del mesoclima obtenidos en estaciones del SIATA de los diferentes costados del Valle de Aburrá, como resultado de esta investigación se extraen dos coeficientes, que presentan de forma más precisa los datos que se establecen en el sistema SIATA. Cabe aclarar que la temperatura de bulbo seco y la humedad relativa son manifestaciones de componentes complejos, por lo cual con la aplicación del coeficiente no se llega a un resultado completamente verídico, sin embargo, abrevia la brecha extensa que hay entre el microclima y el mesoclima. Respecto a la humedad relativa, luego del análisis de los datos, promediando la humedad relativa de ambas laderas, se obtiene que entre los datos que se presentan en la base de datos SIATA, y los comprendidos en las medidas de campo, existe una diferencia promedio de 30,80%; esto está comprendido entre 1,00 m de altura, y 10,00 m de altura con respecto al nivel de suelo. En consecuencia, para conseguir estos valores respectivamente con las distancias de medidas reales, se debe aumentar o disminuir 3,42% de humedad relativa, aplicando este coeficiente con referencia de inicio en la estación de medición del SIATA definiendo así, un valor más cercano a la realidad de los microclimas. En el caso de la humedad relativa se obtuvo que las estaciones de mediciones que se encuentran a 10,00 m de altura cuentan con una humedad relativa superior, por lo cual, si el nivel que se desea calcular está por debajo de esta altura, el coeficiente se tendrá que restar, pero si por el contrario se aumenta la altura de análisis, este se tendrá que sumar. Respecto a la temperatura de bulbo seco, a partir de la información recolectada y analizada de los puntos de mediciones in situ y de las bases de datos producidas por las estaciones del SIATA, con un promedio de los puntos de medición de ambos costados a 1,00 m. de altura, y el promedio de los datos de estaciones del SIATA obtenidos a 10,00 m de altura, se produce una diferencia de 7,31°C, este se divide con relación a la distancia que hay entre las estaciones y los puntos de medición, para hallar un valor para sumar o restar según la altura de cualquier futuro análisis, este coeficiente es 0,81°C. De acuerdo con lo anterior, si la altura de un punto análisis se encuentra por debajo de los 10 m. este valor se suma a la temperatura que brinda el SIATA, en caso contrario, una medida mayor a los 10 m. este valor de coeficiente se resta. La aplicación de los coeficientes con respecto a los valores de distancia de los elementos de análisis se expresa en las tablas 3 y 4. Tabla 3 Coeficientes de diferencias Humedad Relativa. Tabla 4 Coeficientes de diferencias Temperatura de bulbo seco. Como resultado de la toma de datos in situ, se puede establecer una descripción más cercana a la realidad del microclima del lugar, que puede ser aplicada a zonas urbanas con iguales características morfológicas que comparten características como densidad urbana, pendiente del terreno, altitud sobre el nivel del mar, materialidad constructiva y conformación sociodemográfica. Estos datos son más precisos que los obtenidos mediante las bases de datos del mesoclima que provee el sistema SIATA, que actualmente brindan la información bioclimática para el Valle de Aburrá. Se puede crear un mecanismo de control bioclimático, generando un capítulo que se asocie a la normativa urbana y de construcción de la ciudad, considerando el nivel de altura con respecto al suelo en relación con el confort de los espacios, tanto urbanos como interiores, agregando condiciones propicias para los habitantes de la ciudad de Medellín. Estos coeficientes hallados deben ser afinados para futuros estudios, sin embargo, se requiere ampliar la base de datos con el estudio de otros puntos a lo largo del Valle de Aburrá. RECONOCIMIENTOS Los autores desean agradecer a la Universidad Nacional de Colombia Sede Medellín, al grupo docente de los cursos de Énfasis en bioclimática y asociados al grupo de investigación Energía Medio ambiente Arquitectura y Tecnología (EMAT). REFERENCIAS [1] JAMEI, Elmira, RAJAGOPALAN, Priyadarsini, SEYEDMAHMOUDIAN, Mohammadmehdi y JAMEI, Yashar, 2016. Review on the impact of urban geometry and pedestrian level greening on outdoor thermal comfort. Renewable and Sustainable Energy Reviews [en línea]. Vol. 54, pp. 1002– 1017. DOI 10.1016/j.rser.2015.10.104 [2] Área Metropolitana del Valle de Aburrá, 2022. Sistema de alerta temprana del Valle de Aburrá, SIATA [en línea]. Disponible en: https://siata.gov.co/sitio_web/index.php/monitoreo#meteorológicas [Consultado: 6 de junio de 2022]. [3] HIGUERAS, Esther, 1998. Urbanismo bioclimático: criterios medioambientales en la ordenación de asentamientos. Tesis doctoral. Madrid: Escuela Técnica Superior de Arquitectura. ISBN 84 -89977- 40-3. [4] GEHL, Jan, 2010. Cities for people. Washington: Island Press. pp. 238-239 ISBN 9781597265744. [5] CARLOS, Trujillo P., RICAURTE, Ospina López y HERNANDO, Parra Lara, 2010. Arquitectura y urbanismo bioclimatico: presente y futuro para el habitat del hombre contemporáneo. Scientia Et Technica. Vol. 17, No. 46. pp. 236–240. [6] NIKOLOPOULOU, Marialena, 2004. Designing open spaces in the urban environment: a bioclimatic approach [en línea]. Atenas: Centro de Fuentes de Energías Renovables. ISBN: 960-86907-2-2 [Consultado: 12 de junio de 2022]. Disponible en: https://www.researchgate.net/publication/258629365_Designing_Open_Spaces_in_the_Urban_Envir onment_a_Bioclimatic_Approach [7] CHONDROGIANNI, Dimitra V. y STEPHANEDES, Yorgos J., 2022. Evaluation of urban planning methods toward bioclimatic and resilient urban spaces. Environment and Planning B: Urban Analytics and City Science [en línea]. Vol. 49, No. 5. pp. 1354–1370. DOI 10.1177/23998083211063220. [8] MEDELLÍN. ALCALDÍA, 2014. Acuerdo 48 de 2014: por medio del cual se adopta la revisión y ajuste de largo plazo del plan de ordenamiento territorial del municipio de Medellín y se dictan otras disposiciones complementarias. Medellín: Alcaldía de Medellín. [9] BULGAKOV, A and SKOBELEVA, E, 2021. Influence of urban development on change in microclimatic parameters of urbanized area. IOP Conference Series: Materials Science and Engineering. [en línea]. Vol. 1138, No. 1. pp. 012009. DOI 10.1088/1757-899x/1138/1/012009. [10] ESCUELA COLOMBIANA DE INGENIERIA JULIO GARAVITO, 2018. Temperatura protocolo: curso de higiene y seguridad industrial [en línea]. Bogotá: Escuela Colombiana De Ingeniería Julio Garavito. ANÁLISIS DE LA DISTRIBUCIÓN INTERIOR DE VIVIENDAS SEGÚN LA VENTILACIÓN NATURAL Mariana Agudelo Ossa1, Ana María Correa Galvis2, Jorge Hernán Salazar Trujillo3 1 Estudiante de pregrado de Arquitectura. Universidad Nacional de Colombia Medellín, 2 Estudiante de pregrado de Arquitectura. Universidad Nacional de Colombia Medellín 3Profesor Titular. Universidad Nacional de Colombia Medellín, Carrera 65 Nro. 59A – 110, Medellín Colombia 1e-mail: magudeloo@unal.edu.co , 2amcorreaga@unal.edu.co 3jhsalaza@unal.edu.co RESUMEN El crecimiento acelerado en ciudades en proceso de densificación ha impulsado a la construcción de edificios en altura que generalmente se proyectan desde la serialización, dificultando la modificación del diseño exterior de cada unidad de vivienda. Este trabajo exploró el potencial de mejoramiento del desempeño de un apartamento de vivienda según la ventilación natural mediante la reconfiguración de su distribución interior, en lugar de realizar modificaciones sobre la fachada. Se propusieron cambios a la condición física inicial desde la estructura interna de la vivienda y se evaluaron tres alternativas de apartamento. Para las valoraciones, se aplicó un método basado en el estudio de archivos climáticos de la ciudad, a través del procesamiento y filtración de datos meteorológicos que se sintetizaron en cuatro valores de velocidad y dirección de viento representativos del año 2019. La evaluación se determinó a partir del rango ideal de velocidad de acuerdo con cada zona del apartamento y se calificó cada alternativa cuantificando el desfase a partir del límite superior del rango ideal. Esta investigación aporta una alternativa para mejorar la ventilación de acuerdo al diseño únicamente de los espacios interiores en tanto que, los resultados obtenidos permitieron demostrar que existen patrones de ventilación diferenciables, además, propone una metodología eficiente y que permite personalizar y procesar datos meteorológicos reales y coherentes con la realidad. PALABRAS CLAVES: Ventilación natural, distribución interior, CFD. ANALYSIS OF THE APARTMENT LAYOUT PERFORMANCE BASED ON NATURAL VENTILATION ABSTRACT The accelerated growth in cities in the process of densification has prompted the construction of high-rise buildings that are generally projected from serialization, making it difficult to modify the exterior design of each housing unit. This work explored the potential for improving the performance of a residential apartment according to natural ventilation by reconfiguring its interior layout, rather than making modifications to the facade. Changes to the initial physical condition were proposed from the internal structure of the house and three apartment alternatives were evaluated. For the evaluations, a method based on the study of climatic archives of the city was applied, through the processing and filtering of meteorological data that were synthesized in four values of representative wind speed and direction of the year 2019. The evaluation was determined from the ideal speed range according to each area of the apartment and each alternative was qualified by quantifying the gap from the upper limit of the ideal range. This research provides an alternative to improve ventilation according to the design of the interior spaces, while the results obtained allowed to demonstrate that there are differentiable ventilation patterns, in addition, it proposes an efficient methodology that allows personalizing and processing real meteorological data consistent with reality. KEY WORDS: Natural ventilation, partition layout, CFD. 1. INTRODUCCIÓN En múltiples lugares del mundo se construye vivienda masiva y en altura con un patrón de serialización que hace posible producir viviendas a costa de simplificar el proceso de diseño, asumiendo que el contexto es más simple. Se responde con un diseño rígido a los diferentes modos de vida y sobre todo, a las variadas condiciones del lugar. El resultado de esta mala práctica es renunciar a los beneficios de la ventilación natural, la cual, en nuestro contexto cálido y húmedo es muy importante para el bienestar en los espacios domésticos. Por lo anterior se vio la necesidad de explorar el margen de mejoramiento a partir de la modificación de la distribución interior de la vivienda: los tabiques, las puertas y demás divisiones (sin incluir alteraciones en el mobiliario), antes que recurrir a los cambios en fachada que incluyen la posición y el tamaño de las ventanas y que, generalmente cuentan con restricciones debido a los acuerdos entre propietarios y vecindades. Asimismo, las políticas de vecindad que pretenden priorizar la apariencia exterior de las edificaciones se deberían adaptar a las necesidades del contexto de la ciudad, y de este modo, flexibilizar el diseño y las modificaciones que se consideren necesarias en pro del bienestar de sus usuarios. Para la realización de esta investigación se optó por tomar la ciudad de Medellín, Colombia, como caso de estudio por tres principales razones. La primera de ellas es el contexto del país, que se ubica en el plano del trópico, donde las características del lugar están definidas por la cercanía con la línea del Ecuador, por lo que la baja variabilidad meteorológica durante el año podría aprovecharse para diseñar los espacios habitables. La segunda, es que Medellín está localizada en el Valle de Aburrá, y su condición de valle, se considera un factor singular por dos razones: la primera es la diferencia de alturas dentro de la misma ciudad, que oscila entre 1300 y 3200 m.s.n.m [1], y la segunda, es la complejidad orográfica con microcuencas tributarias en el valle, lo que da lugar a la formación de diversos microclimas y condiciones de viento variables según la ubicación. Por último, la tercera razón, es que se reconoce a Medellín como una ciudad con un alto índice de edificabilidad en proyectos de vivienda en edificaciones con alturas superiores a los cinco pisos, según datos de Planeación Municipal, en Medellín hay 296.129 edificios de cero a 5 pisos; 5.009 de 6 a 14; 1.341 de 15 a 29 y 34 de 30 o más de 30 niveles, lo que representa una cantidad significativa de edificaciones en altura en una ciudad de 2’900.000 habitantes [2]. Medellín es la segunda ciudad más grande de Colombia y cuenta con una extensión de 382 km2 asentados sobre el Valle de Aburrá. Su latitud es de 6.217, su longitud de -75.567 y su altura promedio de 1579 m.s.n.m. La velocidad media del viento en Medellín es 2 m/s, y la dirección de procedencia es desde el oriente y suroriente [3], pero los datos que reportan los organismos meteorológicos nacionales resultan insuficientemente detallados para el tipo de preguntas que esta investigación pretende responder. La ciudad cuenta además con una red de monitoreo en tiempo real y modelación hidrológica y meteorológica ajustada al territorio, denominada Sistema de Alerta Temprana de Medellín y el Valle de Aburrá -SIATA- , que a diferencia de la red meteorológica nacional que tiene sus equipos casi siempre instalados en los aeropuertos, SIATA tiene 40 sensores en tierra a lo largo del valle y registra datos por minuto, no por hora. Se tomó como punto de referencia, la estación con sensores en tierra más cercana al caso de estudio; su nombre es “201. Torre SIATA” y se ubica a 1,73 km de distancia del caso de estudio. Figura 1: Localización de la ciudad de Medellín en Colombia. (Tomada de Google Earth/ Edición propia). Y localización del caso de estudio en Medellín. (Tomada de Google Earth/ Edición propia). La torre de vivienda tiene veinte niveles y se compone de cuatro unidades por cada nivel (cada una de ellas tiene únicamente una cara abierta), para este estudio, se decidió evaluar el apartamento de color gris en la figura 2, este se encuentra en el quinto piso y apunta al oriente. Con respecto a sus dimensiones, tiene un área de 77 m2, un ancho de 6,7 m y largo de 12,9 m. En cuanto a su distribución interna, se divide entre una zona social que está cercana al ventanal principal y más grande de la vivienda, y se compone por área de lavado de ropa, cocina, sala, comedor y pasillo; la zona privada, que cuenta con tres alcobas, cada una con una ventana; y el balcón que se orienta hacia el oriente; en el centro del apartamento, y hacia el muro medianero, se encuentran dos baños de iguales dimensiones, pero para esta investigación no son tomados en cuenta; finalmente, el único vano por donde hay salida de viento, es la puerta principal de la vivienda. Figura 2: Apartamento a analizar y su localización dentro de la planta típica del edificio residencial. El estudio de la relación entre el sistema espacial interior de la vivienda y el desempeño de la ventilación natural es un campo poco analizado, pero con gran influencia en la forma de construir los espacios residenciales. En China en 2019, SUN Bo, et al. tras realizar una investigación sobre la aplicación de simulaciones de ventilación natural según la distribución interior en vivienda, afirman que “la ventilación natural se usa poco en el diseño de interiores, porque no hay datos rigurosos sobre el efecto del diseño espacial interior, la ubicación de las puertas y los tipos de apertura de ventanas” [4]. Por otro lado, investigaciones anteriores como [5] y [6] tienen un mayor enfoque en los análisis de la ventilación desde el comportamiento del volumen con relación a su contexto o al análisis de la ventilación interior con el fin de hacer modificaciones en las fachadas en pro del desempeño al interior. Regularmente los trabajos de este tipo procuran un favorecimiento al desempeño de la ventilación natural mediante modificaciones en fachada, dejando de lado las posibilidades de lograr avances tal vez similares con un impacto en el diseño exterior de la edificación notablemente menor, que es precisamente lo que este trabajo pretende: mejorar la ventilación del apartamento sin modificar la fachada del edificio. Cabe aclarar que este caso de estudio no cierra las posibilidades de hacer intervenciones que modifiquen además los vanos y por tanto, también las fachadas. Sin embargo, como punto de partida, se analizó el desempeño de la ventilación natural en la vivienda desde la distribución interior, de modo que abarque y favorezca un mayor porcentaje de arquitecturas con tal uso. 2. METODOLOGÍA Filtración de datos meteorológicos y selección de datos representativos Para la realización de esta investigación, se tomaron los datos correspondientes al año 2019, y se optó por trabajar con la totalidad de los meses, para lograr una mayor representatividad que recoja las diferentes temporadas de los ciclos meteorológicos. Climate Prediction Center [7] relaciona las temperaturas de la superficie del mar (TSM) con respecto al tiempo, y con tales datos, clasifican episodios de frío (fenómeno de la niña) y calor (fenómeno del niño) por temporada. Se eligió 2019 por ser un año con condiciones de ventilación medias, sin embargo, sería conveniente para futuras investigaciones tomar otros años como muestra, incluso los que tienen índices ONI extremos. Posterior a la definición del año a analizar, se procedió con la filtración de los archivos climáticos, para lo cual se realizó un algoritmo que permitiera procesar de manera automática los 525.600 datos anuales aproximadamente, limpiar el archivo de información no deseada, tal como errores tomados por la estación meteorológica que podían afectar los resultados, y componentes del archivo climático que no son necesarios para los análisis. Además, se filtraron las variables “dirección promedio” y “velocidad promedio”, que fueron las que se utilizaron para la realización de la investigación. Se utilizó la herramienta de programación visual “Grasshopper” incorporada al programa Rhinoceros 3D versión 6 o 7; Ladybug Tools 1.4.0 que contiene una colección de aplicaciones informáticas que apoyan el diseño y la educación ambiental; Butterfly 0.0.05 que crea y ejecuta simulaciones avanzadas de dinámica de fluidos computacional (CFD) utilizando OpenFOAM [8]. En el algoritmo se procesaron los datos de velocidad promedio y dirección promedio a partir de la clasificación de dos grupos horarios: el primero, de 6:00 a.m. a 2:00 p.m.; y el segundo, de 2:00 p.m. a 10:00 p.m. Es decir, que dentro de la investigación no se tuvo en cuenta la franja horaria entre 10:00 p.m. y 6:00 a.m. que corresponde a las horas de la noche. Estos grupos se seleccionaron con la intención de evaluar las condiciones de ventilación en las franjas horarias que tienen alta demanda en cuanto a actividades residenciales. Para cada una de estas dos franjas horarias se identificaron los valores representativos de dirección y velocidad mediante un análisis de frecuencias. Se entiende como dato representativo aquel que tiene una mayor frecuencia dentro de un conjunto determinado a partir de la clasificación de rangos. Con respecto a la velocidad, se clasificaron cada 0.4 m/s las velocidades entre 0 m/s y 7.2 m/s. Los valores superiores a 7.2 m/s se descartaron debido a la condición residencial del análisis. Posterior a la clasificación, se obtuvo el conteo de los datos de velocidad cada mes según los rangos de velocidad determinados y se realizó una sumatoria anual de dicho conteo para hallar los valores representativos anuales para cada grupo horario. Tabla 1: Rangos de velocidad del grupo horario 1 (6:00 a.m. - 2:00 p.m.). Y rangos de velocidad del grupo horario 2 (2:00 p.m. -10:00 p.m.). Se resaltan en color rojo los valores con mayor frecuencia dentro de los rangos de velocidad. Las velocidades predominantes se encuentran en 0.4 m/s y 1.2 m/s, por lo cual se eligieron dos velocidades intermedias: 0.6 m/s y 1 m/s. Asimismo, con el grupo horario 2, las velocidades predominantes están entre 3.6 m/s y 4.4 m/s, tomando las velocidades intermedias de 3.8 m/s y 4.2 m/s. Sin embargo, para utilizar dichas velocidades en las simulaciones deberá tenerse en cuenta la eficiencia de la abertura con relación a la dirección del viento, debido a que la presión no es uniforme a lo largo de toda la fachada, ni en barlovento ni en sotavento. El valor de la presión del viento a lo largo de la fachada se determina en función del "coeficiente de presión" en cualquier punto [9]. Para Tobar en 2004 [10] en su libro “Aire acondicionado para arquitectos”, habla acerca de los vientos que se presentan en el exterior del edificio, y cómo estos producen una renovación de aire del espacio que se quiere ventilar, además, plantea la fórmula para conocer el caudal de aire en m3/seg (Q), donde es igual a “Velocidad por eficiencia de la abertura, por área de la apertura menor” o Q=VEA. Para esta investigación, se toma como referencia la eficiencia de la apertura con relación a la dirección de viento (E), donde afirma que “dicho coeficiente de eficiencia varía entre 0.6 para viento perpendicular y 0.3 para viento diagonal a la ventana”. Así entonces, cuando la dirección de viento corresponde a 90°, su velocidad se multiplicó por el coeficiente 0.6, y para las direcciones 18°, 36° y 72°, se multiplicó por 0.3. Con respecto a la representatividad de la dirección, se clasificaron los datos en diez grupos según la dirección de procedencia, después se estableció el porcentaje de cada rango de acuerdo a la cantidad de datos con respecto al total. Tabla 2: Rangos de dirección del grupo horario 1 (6:00 a.m. - 2:00 p.m.). Y rangos de dirección del grupo horario 2 (2:00 p.m. - 10:00 p.m.). Se resaltan en color rojo los valores con mayor cantidad de datos dentro de los rangos de velocidad. Se realizó un filtro adicional debido a la orientación del apartamento y la carencia de fachadas libres por las cuales pueda acceder el viento al mismo. Por esta razón, se despreciaron las direcciones entre 170° y 10° azimut y se trabajó exclusivamente con la representatividad de los valores entre 10° y 170° azimut. Por lo anterior, se evidenció que tanto para el grupo horario 1 como para el grupo horario 2, las velocidades más representativas llegan desde direcciones entre los 18° y los 90° y que, a pesar de que el rango de dirección entre 342° y 18° es el más representativo en ambos grupos horarios, debido a la ubicación del apartamento y la orientación de sus fachadas no se aprovecha adecuadamente para la ventilación de los espacios. Figura 3: Esquema de la orientación del apartamento y los rangos de dirección analizados. Los tonos de color se corresponden a los empleados en Tabla 2, y el porcentaje restante (12 % para el grupo horario 1 y 11 % para el grupo horario 2) son los datos considerados como error. Alternativas de distribución interior y diferenciación de las condiciones de ventilación interior Con el fin de determinar las variaciones de la incidencia de la ventilación natural con respecto a la distribución se propusieron tres opciones de apartamento, y se utilizó el estado actual como caso base para realizar las comparaciones que se observan en la Figura 4. Es importante aclarar que para el diseño de estas opciones, se decidió no realizar afectaciones en sus fachadas, no alterar la ubicación de elementos hidrosanitarios, y tener en cuenta la localización de los buitrones para no ser interferidos. Figura 4: Comparativo entre cada opción de apartamento. De color azul, se señalaron los muros y el mobiliario que tuvo modificaciones. Los parámetros para ejecutar las simulaciones se realizaron en el mejor de los casos, es decir, con las ventanas (corredizas) y las puertas abiertas en su totalidad. El estudio tiene en cuenta la influencia de los muebles en el espacio. Se realiza un segundo algoritmo (también en Grasshopper), programado para procesar los vectores de velocidad que posteriormente permitirán analizar el desempeño de cada tipo de apartamento según las condiciones establecidas previamente. El algoritmo de simulación se compone de tres secciones: La primera sección es la selección del espacio a analizar (definición de superficies: vanos y geometrías), en la cual se insertaron los datos de velocidad y dirección de acuerdo con la representatividad obtenida en el primer algoritmo, se seleccionaron desde Rhinoceros 3D las aperturas de ingreso y salida de viento y los elementos que conforman el apartamento como tabiques, muebles, losa y cielo. En esta sección se definió la ubicación de los vectores que representan la velocidad y la dirección con la que se está simulando. A continuación se presentan algunos principios aplicados para la realización del modelo del apartamento, y su acoplamiento al sistema del software OpenFoam (Ladybug y Butterfly) anclado a Rhinoceros 3D. Sofisticar el modelado en cuanto a la ubicación de los tabiques y el mobiliario, puede ocasionar fallos en la simulación, por eso se exponen las siguientes recomendaciones. En primer lugar, se utilizó únicamente la herramienta “Superficie” para la creación del contorno exterior del espacio, que incluye fachadas, losa y cielo. Posterior a la definición de la capa exterior, se modelaron los tabiques que componen la distribución interior y que se construyeron con la misma lógica. Es importante aclarar que, dichos tabiques no tienen espesor y no atraviesan el contorno exterior, porque al mezclar y/o intersecar objetos con diferente naturaleza como “Superficie” y “Volumen”, el algoritmo de CFD no funciona. Convendría para futuras investigaciones, realizar el análisis teniendo en cuenta el espesor de los tabiques, pues la incidencia de la ventilación puede verse afectada por dicho factor. Para los apartamentos que cuentan con un balcón en voladizo, como el caso de estudio, se recomienda que este haga parte del volumen inicial, y su cara libre, se cuente como vano de ingreso del viento. Del mismo modo, el amoblamiento que se decidió modelar se realizó con la misma herramienta, y se ubicó separado de cualquier otra superficie (tabiques o losa), con una separación recomendada de 5 cm. Con respecto al dibujo de los vanos, no se emplearon marcos ni alas para las puertas y ventanas. En el caso de estas últimas, solo se tomó en cuenta el área por donde ingresa el viento. La malla de resultados, que por practicidad, se clasificó en otra capa, tampoco puede cruzarse con otra superficie para evitar los errores en la simulación. La malla se debe posicionar a una altura acorde con las necesidades de cada investigación, y cabe la posibilidad de evaluar diferentes mallas en alturas variables. Para independizar el modelo de Rhinoceros y el algoritmo de CFD, se recomienda internalizar los datos correspondientes a vanos de ingreso y de salida del viento, la geometría que se introduce dentro del ‘Boundary representations’ -Brep- y la malla de resultados. En caso de presentar errores o fallas en la simulación, se recomienda habilitar la previsualización de la malla para evidenciar los puntos con errores que se mostrarán como un conjunto de líneas que no tienen relación alguna con el resto de la simulación. La segunda sección es la generación del túnel de viento y la creación de la malla de visualización donde se realizó una malla en planta semejante a la forma de la losa pero escalada a un menor tamaño (10 cm separada de los tabiques), y se ubica a 90 cm por encima del nivel del piso; esta última medida se decidió tomando en cuenta que es una altura promedio de las actividades residenciales. Aquí, se definieron los 280 puntos sobre la malla, que representan un vector de velocidad para cada uno de ellos, y al finalizar la simulación, arrojaron los datos de velocidad del viento que se analizaron posteriormente. El número de vectores es constante para todas las opciones arquitectónicas en evaluación. La tercera sección es la configuración de visualización de resultados donde se define el color, la magnitud y el calibre de los vectores, y la comparación de las alternativas de distribución interior, donde se ordenaron los 280 datos de acuerdo a la zonificación del apartamento (zona privada, zona social y balcón) y se definió el rango ideal de ventilación para cada zona, así: para la zona privada, el límite inferior deseables es de 0,1 m/s y el límite superior tolerable es de 0,3 m/s debido a que las actividades de descanso requieren menor número de renovaciones de aire; para la zona social, el rango ideal se estableció entre 0,1 m/s y 0,4 m/s, teniendo en cuenta que la cocina, el comedor y la sala requieren de un mayor número de renovaciones; para el espacio del balcón, no se estableció un rango debido a que la incidencia del viento en este espacio no tiene un control determinado. Se definieron tres datos por cada opción de apartamento, son: Sumatoria de diferencias superiores al límite máximo, sumatoria de diferencias inferiores al límite mínimo y sumatoria total de diferencias. Se entiende como diferencia, al desfase entre los datos de velocidad de cada simulación, y los límites mínimos y máximos que determinan el rango de velocidad ideal. 3. RESULTADOS Y DISCUSIÓN Para visualizar los resultados, se confrontaron las simulaciones de cada opción de apartamento para cada condición de velocidad y dirección. También se ilustraron los datos de velocidad por punto y los rangos ideales en un gráfico de líneas sectorizado por zonas del apartamento. A continuación, se muestran los resultados de dos de las condiciones de velocidad y dirección. Tabla 3: (Arriba) Vectores de velocidad interior para las configuraciones simuladas y clasificación por zonas según los vectores superen o no el rango ideal. Se presentan de las cuatro opciones de apartamento según la condición “Velocidad 0,6 m/s y dirección 90°” durante el grupo horario 1 (6:00 a.m. - 2:00 p.m.). (Abajo) Gráfico de líneas donde se evidenció una tendencia a altas velocidades en la zona social, incluso más altas que en el balcón; mientras que en la zona privada, se presentó una similitud de velocidades bajas entre las cuatro opciones de apartamento. Y, el sector entendido como aquellas que superan el rango ideal y que corresponden a sectores con ráfagas que podrían resultar molestas, como es el caso en el pasillo de ingreso a la vivienda. De tonos rojos, los puntos con velocidades de viento bajas (0 a 0,5 m/s), se degrada hasta los tonos azules (pasando por tonos blancos en el intermedio) para indicar los puntos con velocidades de viento altas (>1,3 m/s). Tabla 4: (Arriba) Vectores de velocidad interior para las configuraciones simuladas y clasificación por zonas según los vectores superen o no el rango ideal. Se presentan de las cuatro opciones de apartamento según la condición “Velocidad 1,3 m/s y dirección 18°” durante el grupo horario 2 (2:00 p.m. - 10:00 p.m.). En las habitaciones, se mostró un incremento en las velocidades, alcanzando incluso puntos con velocidad > 1 m/s. En la zona social predominan las velocidades altas en las cuatro opciones de apartamentos, sin embargo, en la opción 1 y opción 2, hay mayor incidencia de velocidades altas en la cocina, lo que podría ser desfavorable para la realización de las actividades afines a tal lugar. (Abajo) Gráfico de líneas donde se evidenció una tendencia similar a la Tabla 3. Tabla 5: Sumatoria de las diferencias de las velocidades superiores al límite máximo del rango ideal por cada opción de apartamento y según las cuatro condiciones de velocidad y dirección. Se resaltan en color gris los valores más cercanos del rango ideal. Teniendo en cuenta los resultados anteriores, se evidenció que el apartamento actual es la opción con desempeño más bajo con respecto a los ideales establecidos. Mientras que la opción 1 cuenta con un desempeño más alto entre las alternativas de distribución interior. Se tomó el desempeño del apartamento actual con respecto a las condiciones ideales estipuladas, como referente ante el desempeño de las demás opciones para visualizar en porcentajes la variación con respecto al actual (que demostró ser la opción con mayores desfases). A partir de lo anterior, se asume como el 100 % la sumatoria total de las diferencias de las velocidades superiores al límite máximo del rango ideal del apartamento actual. Posterior al análisis de los resultados y la finalización de la investigación, se ponen en discusión los siguientes aspectos que favorezcan búsquedas futuras: Con el fin de ampliar el estudio de la relación entre la ventilación natural y la distribución interior, se podrían analizar otros tipos de viviendas similares al caso de estudio y confrontarlos entre sí, donde los apartamentos regularmente no cuentan con la opción de ventanas en fachadas opuestas y dependen de su puerta de acceso y las zonas comunes para su ventilación, para así, obtener una serie de parámetros generales que puedan ser aplicados en estos tipos de vivienda. Además, es importante recalcar que para realizar estas modificaciones al interior, se deben tener en cuenta el tipo de estructura de la edificación y reconocer la ubicación de los buitrones y/o zonas de paso de redes. Finalmente, convendría determinar zonas más específicas para la evaluación, para lo cual haría falta ampliar el conocimiento acerca de los rangos ideales para cada uso o actividad, sin embargo, no se encontró evidencia bibliográfica que permita clasificar y analizar con criterio los espacios según cada umbral. 4. CONCLUSIONES Se puede concluir, que es viable tener una métrica para valorar la calidad de la ventilación de una unidad habitacional en una sola cifra, y de este modo, se evidenció que el apartamento actual posee las peores condiciones en cuanto a ventilación. También, se concluye que el método utilizado es sensible a las condiciones del lugar, tales como la velocidad y la dirección y, puede tener en cuenta aspectos adicionales como el vecindario, el contexto, el diseño de puertas y tabiques para evaluar el sistema como un todo. Lo expuesto a lo largo de esta investigación, permite concluir que la distribución interior tiene incidencia en el comportamiento de la ventilación en espacios residenciales, y es posible proponer alternativas que mejoren el desempeño y aprovechen las condiciones de ventilación natural del lugar. La finalidad de esta investigación es brindar la posibilidad de que posterior a la construcción de las edificaciones, se pueda favorecer el desempeño de los espacios y no renunciar al beneficio que la ventilación natural pueda proporcionar. Sin embargo, es conveniente generar una concientización sobre la importancia de tener en cuenta la relación entre la ventilación y las etapas previas a la construcción. AGRADECIMIENTOS Los autores agradecen al Semillero de ventilación inscrito al Grupo de Investigación EMAT de la Universidad Nacional de Colombia sede Medellín por impulsar esta investigación y compartir espacios de conocimiento y aprendizaje. REFERENCIAS 1. GUZMÁN ECHAVARRÍA, Gisel. “Análisis de la influencia del diseño urbano en la meteorología del Valle de Aburrá”. Director: Ph.D. Carlos David Hoyos Ortiz. Trabajo de Maestría, Universidad Nacional de Colombia, Ciudad de Medellín, 2018. 2. Departamento Administrativo Nacional de Estadística DANE. Resultados Censo Nacional de Población y Vivienda 2018 [en línea]. Medellín, Colombia.: [ref. de 10 de junio de 2018]. Disponible en Web: https://www.dane.gov.co/index.php/estadisticas-por-tema/demografia-y-poblacion/censo-nacional-de- poblacion-y-vivenda-2018 3. Departamento de Hidrología, Meteorología y Estudios Ambientales IDEAM. Atlas de Viento de Colombia [en línea]. Bogotá, Colombia.: [ref. de 20 de agosto de 2021]. Disponible en Web: http://atlas.ideam.gov.co/visorAtlasVientos.html 4. SUN, Bo; WU, Zihan; JI, Xiang; LIANG, Xinbin. “Application of Indoor Natural Ventilation Simulation in Residential Space Layout”. Journal of Landscape Research, 2019, vol 11, núm 2, pp. 16- 19, 27. 5. ZHANG, Xuelin; WEERASURIYA, A. U.; WANG, Jiayao; LI, Cruz Y.; CHEN, Zengshun; TSE, K. T.; HANG, Jian; “Cross-ventilation of a generic building with various configurations of external and internal openings”. Building and Environment, 2022, vol 207. 6. SAKIYAMA, N.R.M.; MAZZAFERRO, L.; CARLO, J.C.; BEJAT, T.; GARRECHT, H. “Natural ventilation potential from weather analyses and building simulation”. Elsevier, 2021, vol 231. 7. Climate Prediction Center. Cold & Warm Episodes by Season [en línea]. Maryland, Estados Unidos. [s.d.]. Disponible en Web: https://origin.cpc.ncep.noaa.gov/products/analysis_monitoring/ensostuff/ONI_v5.php 8. Ladybug Tools. What is Ladybug tools? [en línea]. s.d. [s.d.]. Disponible en Web: https://www.ladybug.tools/index.html#header-slide-show 9. FUENTES FREIXANET, Víctor Armando; RODRIGUES VIQUEIRA, Manuel. Ventilación natural: Cálculos básicos para arquitectura. Ciudad de México: Universidad Autónoma Metropolitana, 2004. 167 pp. ISBN 970-310-205-0 10. TOBAR ARANGO, José. Aire acondicionado para arquitectos. Ciudad de Medellín: Universidad Nacional de Colombia, 2004. 159 pp. ISBN s.d. 11. BITTENCOURT, Leonardo; CÁNDIDO, Christina. “Introducción a la Ventilación Natural”. Universidad Federal de Alagoas, 2015. 12. OROZCO MESA, María Jimena. Et al.. “Cálculo de coeficientes de eficiencia de ventilación natural para la evaluación y predicción de la ventilación en edificios”. En XVI Encontro Nacional de Conforto no Ambiente Construido, XII Encontro Latino-Americano de Conforto no Ambiente Construido, 2021. 13. CÓSTOLA, Daniel. “Ventilação por ação do vento no edifício: Procedimentos para quantificação”. Director: Marcia Peinado Alucci. Trabajo de Maestría, Universidade de São Paulo, Ciudad de São Paulo, 2006. 14. RODRIGUES MARQUES, Nayara; FRICK, Jurgen; BEJAT, Timea; GARRECHT, Harald. “Using CFD to Evaluate Natural Ventilation through a 3D Parametric Modeling Approach”. Energies, 2021, vol 14, núm. 8, 2197. 15. MAGNA DA SILVA, Juliana; MORAIS, Costa; CHEBEL LABAKI, Lucila. “CFD como ferramenta para simular ventilação natural interna por ação dos ventos: estudos de caso em tipologias verticais do «Programa Minha Casa, Minha Vida»”. Ambiente construido, 2017, vol 17, núm. 3, pp. 13- 20 Sobre los autores Mariana Agudelo Ossa es Estudiante de pregrado de Arquitectura de la Universidad Nacional de Colombia, sede Medellín, además, hace parte del Semillero de Ventilación del Grupo de investigación en Energía, Medio Ambiente, Arquitectura y Tecnología, Grupo EMAT desde el 2021. Ana María Correa Galvis es Estudiante de pregrado de Arquitectura de la Universidad Nacional de Colombia, sede Medellín, además, hace parte del Semillero de Ventilación del Grupo de investigación en Energía, Medio Ambiente, Arquitectura y Tecnología, Grupo EMAT desde el 2021. Jorge Hernán Salazar Trujillo es Profesor Titular, docente vinculado a la Universidad Nacional de Colombia desde 1994. Cursó dos Maestrías y fundó el Grupo de investigación en Energía, Medio Ambiente, Arquitectura y Tecnología, Grupo EMAT (2000). Autor de libros, artículos y ponencias sobre la calidad del ambiente construido y la arquitectura de alta calidad ambiental, hace parte de asociaciones científicas y del comité evaluador de revistas y congresos internacionales. VALORACIÓN DE LA VENTILACIÓN NATURAL EN RECINTOS María Alejandra Orozco Sosa 1, Maria Jimena Orozco Mesa 2, Jorge Hernán Salazar Trujillo 3 1, 2 Estudiante. Universidad Nacional de Colombia, Facultad de Arquitectura, Calle 59 A N 63-20 Edificio 24. Medellín, Colombia. 3 Profesor titular. Universidad Nacional de Colombia, Facultad de Arquitectura, Calle 59 A N 63-20 Edificio 24. Medellín, Colombia. 1 e-mail: morozcoso@unal.edu.co RESUMEN Las renovaciones de aire por hora, conocido como ACH air changes en inglés, se usan para estimar el rendimiento de la ventilación en espacios interiores. Sin embargo, este tipo de estudio sólo calcula las tasas de ventilación pero no evalúa la calidad de la ventilación, la cual requiere integrar variables como la velocidad, dirección, temporalidad, factor humano y la distribución de los flujos al interior del espacio. Esta investigación propone realizar un análisis de la calidad de la ventilación, asociando los rangos de velocidad (ráfagas y calmas) con el número de renovaciones por hora en diferentes momentos del día, clasificándolos en diferentes condiciones de deseabilidad, identificando el balance adecuado entre renovaciones de aire por hora y velocidad del aire en el interior de los espacios. La metodología utilizó registros meteorológicos y simulaciones de un espacio de oficinas, para conocer los sectores del recinto por donde fluye el aire y el porcentaje de tiempo en el cual el espacio estuvo sometido a condiciones deseables o no. Los resultados obtenidos, hicieron posible realizar una propuesta en el diseño de la ventanería que favoreció el aumento de las condiciones deseables o reducir las condiciones indeseables al interior de los espacios. Este método permite diferenciar las renovaciones de aire del desempeño de la ventilación en un espacio, brindando una herramienta para diseñar y evaluar la ventilación natural. PALABRAS CLAVES: Renovaciones de aire por hora, ventilación natural, registros meteorológicos, velocidad del aire interior. ASSESSMENT OF NATURAL VENTILATION IN ENCLOSURES ABSTRACT Air changes per hour are used to estimate ventilation performance in indoor spaces. However, this type of study only calculates ventilation rates but does not evaluate ventilation quality, which requires the integration of variables such as speed, direction, timing, the human factor, and the distribution of currents in the room. This research proposes to perform an analysis of ventilation quality by relating the ranges of velocities (bursts and lulls) to the number of renewals per hour at different times of the day, classifying them into different desirable conditions, and identifying the appropriate balance between renewals of the air per hour and air speed inside the spaces. The methodology used meteorological records and simulations of a room of an office to know the sectors of the enclosure through which the air flows and the percentage of time the room was or was not exposed to the desired conditions. The results obtained made it possible to make a proposal for the design of the windows, that favored the increase of the desirable conditions or reduced the undesirable conditions inside the spaces. This method allows air changes to be differentiated from ventilation performance in a space and provides a tool for designing and evaluating natural ventilation. KEY WORDS: Air changes per hour, natural ventilation, weather records, indoor air speed. 1. INTRODUCCIÓN La literatura clásica de la ventilación natural en espacios arquitectónicos posee valoraciones enfocadas únicamente a las renovaciones de aire por hora (ACH), controlando exclusivamente el correcto dimensionamiento de los vanos y estimando que, si el caudal supera un límite mínimo, se considera que el rendimiento de la ventilación es adecuado, a partir de esto se evalúan las condiciones ideales o molestas de la ventilación en un espacio, construyendo con esto una idea de cómo ventilar mejor [1][2][3][4]. Actualmente, la mayoría de los estudios de la ventilación en espacios interiores, utilizan únicamente el cálculo de las renovaciones de aire por hora, sin embargo, esta métrica no es suficiente para determinar que sea una buena ventilación ya que a pesar de que el viento es un fenómeno complejo de estudiar, descartan variables como la temporalidad, el factor humano y la distribución de los flujos al interior del espacio. Los niveles de caudal y tasas de renovación de aire son establecidos por la norma ASHRAE [5][6], esta normativa busca garantizar la calidad de la ventilación en espacios interiores, estableciendo valores mínimos de renovaciones según el espacio o la cantidad de personas que se encuentren en él. Los valores indicados por la normativa fueron establecidos para los sistemas de ventilación mecánica, aún así, estos continúan siendo empleados en la mayoría de los estudios de ventilación natural, generando incertidumbre, ya que las máquinas de aire acondicionado se dimensiona usando estos estándares y suministran el caudal para el cual fue diseñada. Desde este enfoque el caudal es el punto de partida, pero con la ventilación natural es totalmente al contrario, pues el caudal es el punto de llegada. Cumplir con las renovaciones mínimas establecidas por la normativa, no asegura que un espacio quede bien ventilado, ya que no se tiene certeza del comportamiento del viento al interior del espacio. Es decir, si un espacio cumple con las renovaciones de aire dictadas por la norma, pero estas se dan a altas velocidades de viento, pueden llegar a causar molestias, que generan que las personas opten por cerrar las ventanas comprometiendo la ventilación natural. Ventilar naturalmente ha sido una de las preocupaciones arquitectónicas de mayor importancia en los últimos tiempos en especial en la franja del trópico, esta región se caracteriza por presentar unas condiciones climáticas generalmente estables, lo que permite que la ventilación natural sea una opción favorable a tener en cuenta en el diseño arquitectónico ya que permite el ahorro energético en edificaciones, y sumado a la actual pandemia del COVID-19 se demostró la necesidad de contar con tasas de renovación de aire adecuadas, que permita disminuir la probabilidad de contagios por transmisión aérea del virus en el espacio. [7][8] El estudio del fenómeno del viento presenta una gran complejidad debido a las diferentes variables que influyen en su comportamiento, generalmente se realizan grandes simplificaciones al emplear valores promedio de velocidad y dirección, sin embargo, estos promedios no son suficientes para conocer el comportamiento frecuente del viento en un año, o la variabilidad de dirección y velocidad del aire en el transcurso de un día. Esto puede traer implicaciones al momento de estimar las tasas de renovación de aire, debido a que pueden estar sobreestimadas durante los momentos de calmas y ráfagas, de esta manera, se ve la necesidad de desarrollar una metodología que permita estudiar la ventilación por medio de la variación temporal del viento y la distribución espacial de los flujos del viento al interior de los espacios, esta combinación de metodologías permite un acercamiento para estimar el rendimiento anual de la ventilación y determinar condiciones ideales, con una buena distribución de los flujos y que además cumplan con las renovaciones dentro de unos rangos de velocidad deseables. Los estudios de ventilación realizados con registros climáticos minuto a minuto permiten un acercamiento más detallado a las condiciones meteorológicas de un lugar, sin embargo, el procesamiento de estos datos llega a ser dispendioso y poco usado en el diseño arquitectónico, a pesar de que demuestran la variabilidad temporal y espacial del viento y lo impreciso que puede ser determinar un valor promedio de dirección y velocidad para una ciudad. Otro tipo de estudio, muy utilizado en los últimos años, son las simulaciones de dinámica de fluidos computacional (CFD), una herramienta de gran utilidad en los análisis de ventilación [9], debido a la economía en su uso sin necesidad de acudir a métodos experimentales, a pesar de que permite identificar los patrones de flujos al interior de los espacios, solo trabaja con un único vector que corresponde a las condiciones de velocidad y dirección de viento en un instante particular, utilizando métricas estáticas que descartan el factor temporal de la ventilación. El presente estudio se realizó con el objetivo de encontrar una alternativa metodológica doble que busca complementar los análisis de ventilación realizados con tasas de renovación de aire, incluyendo bases dedatos meteorológicas, simulaciones de dinámica de fluidos computacional (CFD) y factor humano (conveniencia o inconveniencia de la velocidad del aire en el espacio) en un estudio de ventilación natural, permitiendo un acercamiento a determinar la calidad de la habitabilidad que se tiene al interior de los espacios ya que se pueden evaluar las condiciones deseables o inconvenientes generadas por el recorrido de los flujos de viento en el espacio. Además, es conveniente incluir condiciones de ráfagas y calmas ya que permite tener un acercamiento al comportamiento de las velocidades y las molestias que pueden generar en los usuarios, las calmas no generan renovaciones de aire mínimas, ocasionando la permanencia de olores y sensación de calor. Por otro lado, las ráfagas, producen el movimiento de objetos en el espacio como papeles, cortinas y puertas, debido al fuerte impacto del viento en estos. Esta evaluación se realizó en un espacio hipotético de oficinas, en donde se realiza un estudio de la calidad de la ventilación con una mirada diferente a la tradicional, asociando los rangos de velocidad con el número de renovaciones por hora en diferentes momentos del día e identificando el balance adecuado entre estos, con el objetivo de tener una aproximación a precisar lo que significa una ventilación óptima. Este estudio puede tener una aplicación donde se evalúen diferentes propuestas de posición de la ventanería con el fin de aumentar las condiciones ideales en el espacio. 2. METODOLOGÍA La ciudad de Medellín, Colombia se encuentra ubicada en el trópico interandino, está rodeada de montañas que superan en más de 1000m el nivel del fondo del valle y en consecuencia, el viento es muy suave, 23% del tiempo menor a 1.5m/s y también muy variable, entre 0.5m/s y 3.5m/s de acuerdo a la hora del día [10]. No obstante, las particulares condiciones climáticas del Trópico Andino hacen posible que a pesar de tan escaso viento, buena parte de las edificaciones en la ciudad no requieran climatización artificial durante muchas horas del día. Medellín, presenta una red de sensores denominada Sistema de Alerta Temprana del Valle de Aburrá [11] cuenta con estaciones meteorológicas ubicadas en diferentes zonas de la ciudad, que monitorean minuto a minuto las condiciones meteorológicas de cada zona y permiten contar con registros anuales de estas. La base de datos de este sistema es de libre acceso para los ciudadanos y pueden ser consultadas en línea. Para esta investigación se seleccionaron los datos anuales de viento del año 2020 de la estación AMVA codificada como SIATA 202, se utilizaron los datos para conformar grupos representativos para encontrar el comportamiento típico del viento en ese sector de la ciudad. Figura 1: Ubicación de la estación AMVA 202 de la red de sensores SIATA, ciudad de Medellín, Colombia. Clasificación de los datos Los registros climáticos anuales aportan mayor precisión al estudio del comportamiento temporal del viento, sin embargo, realizar simulaciones con esta cantidad de datos en herramientas de CFD llega a ser dispendioso y poco práctico, debido a la demanda computacional y al tiempo que exigiría, por ello se realizó una clasificación de la base de datos para obtener los valores frecuentes de dirección y velocidad del viento y obtener una mayor representatividad del comportamiento típico del viento con pocas simulaciones, clasificándolo por horario (3 rangos de horas), velocidad (5 rangos de velocidad del viento) y dirección (3 grupos de dirección del viento) [12]. Las 24 horas del día, fueron agrupadas en 3 franjas horarias, cada una con tres horas y media, comprendiendo así 10 horas y media del día: Mañana (8:00 a.m - 11:30 a.m), mediodía (11:30 a.m - 15:00 p.m) y tarde (15:00 p.m - 18:30 p.m.), estos horarios se escogieron teniendo en cuenta que se trabajaría con un espacio de oficinas, descartando de esta manera horarios de la noche y de la madrugada donde frecuentemente se tienen las ventanas cerradas, sin embargo, la selección de los horarios puede variar según el espacio que se evalúe. Una vez clasificados los datos de velocidad y dirección del viento por franjas horarias y tener una descripción de las variaciones del comportamiento del viento a lo largo del día en los tres horarios establecidos, se continúa con la clasificación de la velocidad del viento, conformando 5 grupos: : (a) 0,5 m/s a 1,5 m/s, (b) 1,5 m/s a 2,5 m/s, (c) 2,5 m/s a 3,5 m/s, (d) 3,5 m/s a 4,5 m /s, (e) 4,5 m/s a 5,5 m /s. El conjunto de datos procesados por velocidades se clasifica a su vez en tres grupos de dirección del viento, determinados a partir de los patrones observados en los gráficos de dispersión, Fig. 2. Estableciendo 15 grupos representativos de velocidad y dirección, de los cuales se seleccionaron la menor cantidad de grupos posible para incluir el 80% de los datos del año completo, el 20% restante se descarta por ser velocidades o direcciones infrecuentes. Figura 2: Registros meteorológicos de la estación AMVA para el año 2020, agrupados por velocidad y dirección del viento en cada una de las franjas horarias. Se conforman 15 grupos de la A a la O y se seleccionan los grupos más frecuentes que sumen el 75% de representatividad de todos los datos. Selección de datos a simular Se analizaron la cantidad de datos para cada uno de los grupos de dirección y velocidad de viento en cada franja horaria, y se seleccionaron los grupos con mayor cantidad de datos, para lograr un acercamiento más representativo al fenómeno del viento. Para cada grupo seleccionado en las tres franjas horarias, se obtuvo un valor de dirección y velocidad de viento correspondientes, y con mayor frecuencia dentro del grupo. Cada pareja de valores de la lista, fueron los datos de entrada para las simulaciones. Fig. 3. las cuales se realizaron en un espacio hipotético de oficinas de 191.5m2 ubicado en un 4 piso de un edificio. Figura 3: Valores de velocidad y dirección del viento por cada grupo representativo, utilizados en los valores de entrada de las simulaciones outdoor. Cada punto se ubica en el valor medio para la nube de puntos que pertenece a cada grupo. Se utilizó la herramienta de programación visual “Grasshopper” incorporada al programa Rhinoceros 3D versión 6 o 7 para el procesamiento de datos, y para las simulaciones CFD, el complemento Butterfly 0.0.05 utilizando OpenFOAM 5.x. [13][14]. Para conocer la incidencia del viento sobre un edificio con precisión, el contexto urbano vecino, la geometría y la forma de la fachada del edificio, son variables que influyen en la velocidad y dirección del viento que ingresa al interior del espacio, sin embargo incluir estas variables de forma detallada en la herramienta de CFD llega a ser computacionalmente demandante, y por ello estas variables tienden a simplificarse. El complemento de Butterfly 0.0.05 contiene algoritmos diferentes para simulaciones de ventilación interior y exterior, debido a esto se realizó primeramente simulaciones del exterior con los datos obtenidos de la clasificación anterior de los grupos representativos. Para esta investigación se modeló en Rhinoceros 3D versión 6 o 7, 3 volúmenes vecinos a un edificio hipotético de oficinas, 1 volumen a cada lado y uno al frente de diferente tamaño para realizar una aproximación al contexto urbano de la zona donde se encuentra la estación meteorológica AMVA 202. Se ubicaron tres puntos en la fachada en diferente posición, a 5 metros de distancia entre ellos y a la misma altura de 15 m, para conocer los diferentes coeficientes de presión en la fachada del edificio para cada uno de los datos seleccionados en la etapa de clasificación. Fig. 4. De cada simulación se obtuvo un vector para cada uno de los tres puntos, estos vectores que representan velocidad y dirección del viento fueron los datos de entrada para la simulación al interior del edificio. Los valores que arrojaron estos puntos para cada uno de los grupos representativos, fueron utilizados para calcular la velocidad de entrada del aire al espacio de oficinas, y la condición de la ventilación en el espacio por medio del cálculo de las renovaciones. Para la simulación al interior del espacio se modeló un caso hipotético de un espacio de oficina, con un vano de ingreso del aire en la fachada noroccidental y dos vanos de salida del aire en la fachada nororiental. Al interior del espacio se modeló como mobiliario 3 filas de mesas fijas y algunos tabiques para tener una aproximación a la variación de los flujos de viento debido a estos elementos. Sin embargo, no se tuvo en cuenta espesor de muros, ni mobiliario adicional, simplificando elementos que pueden afectar en los flujos. Para este caso solo se estudiaron variaciones en la posición de la ventanería, realizando una comparación entre 3 posiciones diferentes pero a una misma altura, de manera que se pueda realizar una aproximación a un método de análisis, donde se incluye el factor espacial para conocer las variaciones de la distribución de los flujos al interior del espacio. Modelo outdoor Modelo indoor Figura 4: Izquierda: Modelo edificio de oficinas con 3 puntos en fachada y con contexto inmediato para simulación outdoor. Derecha: Espacio de oficina 191.5 m2 con vano ubicado en el punto 1. Las dimensiones del túnel de viento usado en la simulación de viento exterior se realizaron de acuerdo a sugerencias de investigaciones consultadas [15], y para las simulaciones de viento interior se usaron las dimensiones del túnel de viento que trae por defecto el algoritmo indoor del complemento de Butterfly 0.0.05. Estas diferencias en los parámetros de simulación pueden llegar a generar imprecisiones en los resultados obtenidos, en investigaciones posteriores es importante tener mayor detalle en estos parámetros. Definición de valoraciones de una buena ventilación El espacio de oficina evaluado, tiene una dimensión de 15.95m 12.01m y una altura libre de 2.7m, para un volumen de ventilación de 517.05m3, cifra que corresponde a una renovación de aire por hora. Este valor fue utilizado como constante para transformar los caudales instantáneos (m3/min) en renovaciones horarias y comparar los niveles de ventilación con la velocidad del aire que ingresa. La dimensión de la ventana es de 1.20m de alto con 2.5m de ancho, obteniendo un área de 3m2, de los cuales el vano para el cálculo de las renovaciones fue de 2m2. Para la valoración de las diferentes condiciones de la ventilación, se definieron códigos para cada una de las variables a trabajar: en primera instancia se determinaron las renovaciones de aire por hora, utilizando la normativa ASHRAE, que establece que un espacio de oficina requiere entre 4 a 10 renovaciones de aire por hora. Se tomó un valor intermedio (8 renovaciones/hora) y se estimó que si la ventilación no cumplía con 8 renovaciones, esta se catalogaría como Insuficiente, si las renovaciones estaban en el rango de lo establecido por la normativa, es decir 8 renovaciones o más, sería Óptimo y el último caso sería si la ventilación supera las 40 renovaciones, este se cataloga como excesivo. Fig. 5. Figura 5: Izquierda: Clasificación de las renovaciones de aire por hora según la normativa ASHRAE, a partir de los datos obtenidos en las simulaciones, para las tres franjas horarias y ordenadas de menor a mayor. Derecha: Clasificación de las velocidades de aire exterior resultantes de las simulaciones, para las tres franjas horarias y ordenadas de menor a mayor. Una vez valorada la cantidad de aire que ingresa al espacio, se realiza una evaluación de la velocidad del aire, identificando las calmas (0 m/s - 0,5 m/s), las ráfagas (≥ 1 m/s) y las velocidades ideales (0,6 m/s - 1 m/s). La definición de estos valores, se establece por observaciones y mediciones previas realizadas por los autores [16]. Inicialmente, se realizó esta evaluación en uno de los tres puntos propuestos, para conocer la tendencia del comportamiento del viento en esa zona y posteriormente se calculó para cada uno de los 3 puntos el porcentaje de datos que pertenece a cada nueva categoría Se realiza una agrupación de velocidades y renovaciones del aire, para determinar el estado de la ventilación en el espacio, estableciendo nuevas categorías de las ya definidas anteriormente realizando un cruce entre estas y hallando los porcentajes para cada categoría e identificando qué punto presenta un mejor desempeño. Fig. 6. Esta agrupación se realizó para evaluar los resultados obtenidos de la simulación exterior, por lo que la temporalidad se descarta al analizar un solo instante obtenido del CFD, es decir, que al no tomar la frecuencia de los datos de velocidad y dirección del viento en la comparación entre renovaciones y velocidades, solo se obtiene el porcentajes de renovaciones que puede llegar a tener un único valor de velocidad en cada categoría. Esta agrupación permitió identificar que las renovaciones de aire por hora son óptimas un 46% para un instante, sin embargo, más de la mitad de los datos fueron ráfagas, causando molestias en los usuarios y encontrando solo un 8% en donde se presenta una ventilación deseable. Figura 6: Comparación y clasificación de las renovaciones y la velocidad de viento con porcentajes de las condiciones de ventilación en el punto 1. Este análisis requiere ser complementado con un estudio de los flujos al interior del espacio para identificar las zonas en donde tienen mayor incidencia las calmas o las ráfagas y realizar una comparación de las variaciones de los flujos según las condiciones de viento. Se realizaron simulaciones al interior del espacio con los 13 valores de los grupos representativos de velocidad y dirección del viento, utilizados anteriormente Fig. 7. De los 13 grupos, se seleccionaron 3 para cada uno de los puntos evaluados, que representaran condiciones de viento baja, media y alta, obtenidos de las simulaciones exteriores. Para el punto 1 se simuló el Grupo A, Grupo G y Grupo N. Los valores de velocidad y dirección del viento de los 3 grupos representativos fueron simulados para el punto 1, y teniendo en cuenta el uso de oficina se realizó la evaluación en un plano a 0.72 m, que corresponde a la altura del cuerpo de una persona sentada. Con los resultados obtenidos se calculó la cantidad de datos que pertenecieron a calmas, ráfagas o condiciones ideales al interior del espacio. Para la representación de las velocidades se emplea un degradé de los tonos rojos para las calmas y un degradé de tonos azules para las ráfagas. Se encontró que con el valor de velocidad de viento bajo, se obtuvo el mayor porcentaje de condiciones deseables en el espacio con un 19.6% del área, sin embargo, los tres valores de velocidad para el punto 1 obtuvieron más del 30% del área con condiciones de ráfaga, estas se presentaban en las esquinas del espacio o en cuartos que no contaban con ventilación cruzada. En los valores de velocidad de viento bajo y medio se observó que los flujos de viento que se presentaban alrededor de las mesas donde permanecen por más tiempo las personas se dieron con velocidades de viento ideales. Simulación al interior del espacio para el punto 1 en la franja de la mañana (8:00 a.m - 11:30 a.m) Figura 7: Simulación al interior del espacio para el punto 1 con los datos representativos para la franja de la mañana, resaltando condiciones de viento altas, medias y bajas. Una vez estudiadas las condiciones de ventilación que se pueden presentar en el espacio de oficina con las renovaciones de aire por hora, las velocidades del viento y la distribución de los flujos en el espacio con el punto 1, se realiza una comparación de estas condiciones, realizando una variación en la posición de la ventanería, utilizando el punto 2 y el punto 3, para cada uno de estos puntos se realiza el mismo procedimiento para evaluar la ventilación y comprobar que posición de ventanería permite obtener una mejor ventilación. 3. RESULTADOS Y DISCUSIÓN Para el análisis de los resultados, se retoma el estudio de la variable de la temporalidad, integrando las tres franjas horarias, en las categorías de evaluación de la ventilación para los 3 puntos de análisis Tab. 1. Se identificó que en el horario de la mañana, las calmas superan el 40% del tiempo en los 3 puntos de análisis y el rango óptimo/deseable, presenta los valores más altos en comparación al mediodía y tarde, además en la mañana no se presentan condiciones con renovaciones excesivas, solo el punto 2 , un 7% del tiempo. La comparación de las franjas horarias permite identificar que en la ciudad de Medellín se presentan tasas de ventilación bajas en la mañana y a medida que avanza el día, aumentan los niveles de ventilación. En el horario de la tarde, se evidencia que en el rango óptimo/ráfagas se ubican más del 50% de los datos. Tabla 1: Comparación de las valoraciones de renovaciones y velocidades de viento para un año y para las tres franja horarias, con porcentajes en los 3 puntos de análisis. Al comparar los resultados de cada punto para identificar cuál ubicación de la ventana presenta un mejor desempeño, se encontró que los puntos 2 y 3 presentan los mismos resultados en los rangos de insuficiente/calmas con un 43% para las mañanas, 31% al mediodía y 22% en la tarde y sus datos tienen variaciones mínimas en las otras categorías, diferenciándose únicamente en el horario de la mañana en donde el punto 2 se diferencia un 10% del punto 3, al estar un 26% del tiempo en el rango óptimo/deseable. El punto 2 presenta el mejor desempeño en todas las categorías y en todas las franjas horarias, en las mañanas cuenta con un 26% del tiempo en el rango óptimo/deseable, 17% al mediodía y 11% en la tarde, siendo el valor más alto en comparación a los otros puntos y con valores menores en las otras categorías, lo que representa que es el punto que menos molestias causa en los usuarios. Una vez identificado el punto con mejor desempeño en las categorías de evaluación, se realiza la comparación en la distribución de los flujos del viento del punto 1, 2 y 3, realizando simulaciones con un vano de entrada diferente en cada uno de los puntos, para comparar si las condiciones deseables que se obtenían al interior del espacio aumentaban con respecto al vano ubicado en el punto 1. Se toma como muestra de estudio la franja horaria de la mañana (8:00 am - 11:30 am) y se evalúan 3 valores correspondientes a este horario para cada uno de los tres puntos, obteniendo 9 simulaciones. Fig. 8. Velocidad del viento para la franja de la mañana 8:00 am - 11:30 am para el año 2020 Figura 8: Simulaciones al interior del espacio en la franja de la mañana para el año 2020 en los tres puntos. Con los 3 grupos representativos de condiciones de viento alta, media y baja, para cada uno de los puntos. Los resultados obtenidos por las simulaciones, demuestran que el punto 2 presenta el mayor porcentaje de ráfagas, con un 86% del espacio en el grupo de velocidad baja, 24% en el grupo de velocidad media y 19% en el grupo de velocidad alta, a pesar de que el espacio pueda estar sobre ventilado, el punto 2 presenta el mejor desempeño ya que se puede cerrar parte de la ventana de manera que se pueda controlar el ingreso del aire al espacio, situación que no se puede controlar con las condiciones de calmas. El punto 1 obtuvo su mejor desempeño en la velocidad baja con un 19% de velocidades deseables, sin embargo, la mayoría de los resultados para este punto corresponden a calmas. En el punto 3, el espacio presentó un 11% de velocidades deseables en las condiciones de velocidad alta y ráfagas con un 64%, para las condiciones de velocidad baja y media, predominaron las calmas en el espacio. La distribución de los flujos en el punto 1 se caracterizó por la concentración de calmas en el centro donde se ubican los escritorios, a diferencia de los momentos de velocidad alta en donde se presentan ráfagas en esas zonas del espacio, llegando a generar molestias ya que se pueden levantar hojas de los escritorios. Igualmente, en el punto 2 las velocidades deseables y ráfagas se encuentra en el centro del espacio, en donde se ubican los escritorios y en el punto 3, suele permanecer con calma en más de la mitad del espacio. Los tres puntos presentan zonas con ráfagas en las esquinas del espacio y en cuartos sin ventilación cruzada. 4. CONCLUSIONES La metodología propuesta en este trabajo ilustra la viabilidad de realizar análisis de ventilación teniendo en cuenta variables de temporalidad, espacialidad y complementarlo al enfoque de las ACH, las aproximaciones tan simplificadas que ofrece el ACH pueden resultar inconveniente en nuestro contexto de trópico andino debido a la complejidad que representa el estudio del viento. El trabajo permitió tener un acercamiento a determinar que se considera una ventilación óptima en un espacio de oficinas, por medio de rangos y condiciones que indican si los espacios se encuentran en condiciones de ventilación insuficientes, excesivas, o ideales en los diferentes horarios. Esto nos permitió concluir que las condiciones de ráfagas excesivas son, para el sector de análisis, mucho más frecuentes de lo inicialmente esperado. Con más de un 50% de ocasiones en la tarde es muy probable que las ventanas terminen cerradas o por lo menos, entreabiertas. Para una edificación de este tipo y en este lugar convendría emplear persianas, rejillas que deflecten el flujo de aire y permitan que el usuario lo adapte de acuerdo con su preferencia, en vez de optar por las ventanas corredizas. Emplear registros climáticos con herramientas de simulación CFD permite que se tenga un mayor acercamiento a la caracterización de las condiciones de viento de un lugar, la clasificación por jornadas horarias permitió obtener mayor precisión temporal y conocer la variación que puede llegar a tener el viento a lo largo de un día, por medio de valores representativos que permiten la realización de un estudio más completo. El estudio permitió identificar que conocer la incidencia del viento en diferentes puntos de la fachada de un edificio y explorar con la ubicación de los vanos, influye en gran medida en las condiciones de ventilación que se tengan al interior del espacio, esto puede llegar a ser de utilidad en el diseño arquitectónico, dando criterios a arquitectos para la ubicación de vanos en las fachadas, o de distribución de tabiques en el espacio, diferentes para cada altura. RECONOCIMIENTOS Los autores desean agradecer al grupo de investigación EMAT de la Universidad Nacional de Colombia, sede Medellín por el acompañamiento y los espacios brindados para la realización de este trabajo. REFERENCIAS 1. BITTENCOURT, Leonardo; CANDIDO, Christina. Introducción a la Ventilación Natural. Maceió: Edufal, 2015. 2. TOLEDO, Eustáquio. Ventilacao Natural das Habitacioes. Maceió: Edufal, 1999. 3. YARKE, Eduardo. Ventilación Natural de Edificios. Fundamentos y métodos de cálculo para aplicación de Ingenieros y Arquitectos. Buenos Aires: Editorial Nobuko, 2005. 4. FUENTES, Víctor; RODRIGUEZ, Manuel. Ventilación Natural, Cálculos básicos para Arquitectura. México: Universidad Autónoma Metropolitana, 2004. 5. ASHRAE (1995). “HVAC Applications Handbook”. American Society of Heating, Refrigerating and Air-Conditioning Engineers. Atlanta, USA. 6. ASHRAE (2001). “Fundamentals Handbook”. American Society of Heating, Refrigerating and Air- Conditioning Engineers. Atlanta, USA. 7. MONGE BARRIO, Aurora; BES RASTROLLO, Maira; DORREGARAY OYAREGUI, Sara; GONZÁLEZ MARTÍNEZ, Purificación; MARTIN CALVO, Nerea; LÓPEZ HERNANDEZ, Dolores; ARRIAZU RAMOS, Ainhoa; SÁNCHEZ OSTIZ, Ana. “Encouraging natural ventilation to improve indoor environmental conditions at schools. Case studies in the north of Spain before and during COVID”.Energy and Buildings, 2022, Vol 254, ISSN 0378-7788. 8. MOTAMEDI, H., SHIRZADI, M., TOMINAGA, Y., & MIRZAEI, P. A. (2022). CFD modeling of airborne pathogen transmission of COVID-19 in confined spaces under different ventilation strategies. Sustainable Cities and Society, 76, 16. https://doi.org/10.1016/J.SCS.2021.103397 9. MOLINA BOTERO, Laura; BECERRA URIBE, Santiago. “Incidencia de la altura en la ventilación natural en torres de vivienda”. Sítio Novo, 2022, Vol 6, núm Edición especial, pp. 125-125 10. IDEAM. Boletín Climatológico de Colombia. Bogotá, Colombia. [ref. 15/12/2020]. Disponible en Web: www.ideam.gov.co. 11. SIATA. Red de Alerta Temprana del Valle de Aburrá. [en línea]. Medellín, Colombia. [ref. 15 de mayo 2021]. 12. OROZCO, M.J., OROZCO, M.A., SALAZAR, J. (2021). “Cálculo de coeficientes de eficiencia de ventilación natural para la evaluación y predicción de la ventilación en edificios”. Anais XII Encontró Latinoamericano de Conforto no Ambiente Construido. ENCAC. Palmas, To. Brasil. 13. SADEGHIPOUR R.M., PAK, M. (2013). “ Ladybug: a parametric environmental plugin for grasshopper to help designers create an environmentally-conscious design”. . 13th International IBPSA Conference. Lyon, France. [Online] 14. OpenFOAM® Foundation, OpenFoam: The OpenSource CFD Toolbox, http://www.openfoam.com/ (last visited: 10 July 2022) 15. WEERASURIYA, A. U. (2013). Computational Fluid Dynamic (CFD) Simulation of Flow around Tall Buildings. ENGINEER, Vol. (XXXXVI), No. 03. 43-54. 16. OROZCO, M.J., OROZCO, M.A., MOLINA, L., SALAZAR, J. (2022) “Window design to improve natural ventilation performance including climate-based metrics and human factor analysis”. 36ª CONFERENCIA PLEA. Santiago Sobre los autores Jorge Hernán Salazar Trujillo es Profesor Titular, docente vinculado a la Universidad Nacional de Colombia desde 1994. Cursó dos Maestrías y fundó el Grupo de investigación en Energía, Medio Ambiente, Arquitectura y Tecnología, Grupo EMAT (2000). Autor de libros, artículos y ponencias sobre la calidad del ambiente construido y la arquitectura de alta calidad ambiental, hace parte de asociaciones científicas y del comité evaluador de revistas y congresos internacionales. María Alejandra Orozco Sosa es estudiante de sexto semestre del pregrado arquitectura de la Universidad Nacional de Colombia, sede Medellín, perteneciente al grupo de investigación EMAT María Jimena Orozco Mesa es estudiante de sexto semestre del pregrado arquitectura de la Universidad Nacional de Colombia, sede Medellín, perteneciente al grupo de investigación EMAT ANÁLISIS DE LA VENTILACIÓN NATURAL EN LA VIVIENDA SOCIAL TÍPICA EN COLOMBIA Carolina Patiño Vásquez1, María Isabel Muñoz Rengifo2, Jorge Hernán Salazar Trujillo3 12Estudiantes de Pregrado Arquitectura. Universidad Nacional de Colombia Medellín, 3Profesor Titular. Universidad Nacional de Colombia Medellín, Carrera 65 Nro. 59A – 110, Medellín Colombia. 1e-mail: cpatinov@unal.edu.co , 2 mimunozre@unal.edu.co , 3 jhsalaza@unal.edu.co RESUMEN En el área metropolitana de la ciudad de Medellín, la ventilación natural no es tenida en cuenta como parámetro de diseño de la vivienda social (VIS); este problema se acentúa ya que el modelo de la planta típica residencial se replica indiscriminadamente en diversos sectores de la ciudad, sin tener en cuenta el lugar donde se implantan, además es un terreno de estudio poco abordado, puesto que no es redituable paras los constructores, ni para el estado. Por lo cual esta investigación presenta un análisis de sensibilidad que estudió las condiciones de ventilación natural en una de las distribuciones más típicas de las VIS, en los sectores norte, sur, centro-oriental y centro-occidental del área metropolitana; y en cada uno de ellos evaluando una orientación y una altura. En un principio se clasificaron los datos de ventilación anuales en grupos de rangos de velocidad y dirección por franjas horarias utilizando cuatro estaciones meteorológicas del sistema de información SIATA; posteriormente, por medio de simulaciones CFD se evaluó el comportamiento del viento en cuatro espacios en el interior de la vivienda a través de las herramientas OpenFOAM y Butterfly por medio del software Grasshopper. Se comparó el rendimiento de las alternativas, clasificándolas por su desempeño en cada condición de estudio. Los resultados obtenidos, demuestran que la configuración típica de la VIS en ningún caso cumple con más de 40% de deseabilidad, por el contrario la mayoría de ocasiones se encuentra en condiciones desfavorables hasta el 95% del tiempo. PALABRAS CLAVES: Ventilación natural, Simulaciones CFD, Vivienda social. ANALYSIS OF NATURAL VENTILATION CONDITIONS IN THE STANDARD CONFIGURATION OF THE SOCIAL HOUSING ABSTRACT The natural ventilation in the metropolitan area of the city od Medellín is not considered as a design standard of social housing; this problem is emphasized due to the residential plan model being replicated indiscriminately in various zones of the city, without regarding the orientation or location where the social housing is built, it is also a lacking field of study considering that is not profitable for the government or the builders. Therefore, this research presents a sensibility analysis that studies the natural wind conditions in a standard social housing distribution, in north, south, center-west and center-east sectors of the metropolitan area; and in each of them reviewing one orientation and one height. At first the annual ventilation data is classified into speed range and direction by time slots using cuatro weather stations from the information system SIATA; subsequently by the CFD simulation was evaluated the behavior of the wind in four rooms inside the house through the OpenFOAM and Butterfly tools of the Grasshopper software. The performance of the alternatives was compared, classifying them by their efficiency in every study condition. The results obtained show that in no case the typical VIS configuration accomplishes more than 40% of the desirability, on the contrary most of the time it has undesirability conditions up to 95% of the time KEY WORDS: Natural ventilation, CFD simulation, Social housing. 1. INTRODUCCIÓN Ante la gran necesidad de vivienda en el contexto colombiano, la tendencia ha sido considerar esta problemática desde una visión cuantitativa y no cualitativa, esto trajo consigo que aspectos fundamentales como el impacto ambiental del contexto, sean desatendidos. Específicamente en los sectores menos favorecidos; se ha implementado como solución el planteamiento de un modelo de vivienda de interés social (VIS) como tipología constructiva representativa, la cual se caracteriza por su construcción en planta típica apilada en torres de vivienda masiva; regularmente ejecutada bajo un esquema estructural de muros estructurales como soporte principal de la edificación, lo que hace poco probable desarrollar cambios sobre la misma; es decir, que su adecuación después de ser construída es ardua, e inclusive poco probable. Además, esta cuenta con una distribución interna que consiste en la agrupación de las unidades habitacionales hacia los costados de la edificación, en función a una única fachada abierta, como se muestra en la Fig 1. (PÉREZ, Alex. 2013)[1] ahonda sobre los conflictos derivados a este modelo de planta representativa, pues al tratarse de una tipología funcional en términos constructivos, es fácilmente replicable, de manera que es eficiente en el sentido económico; sin embargo, no se ha tenido en cuenta, como la implantación de estas torres de vivienda se ven afectadas por las condiciones de ventilación según el lugar donde se posicionan indiscriminadamente, pues este modelo se construye sin preocuparse por su adaptabilidad al contexto climático. Figura 1: Configuración típica Diagrama de vivienda de interés social en serie, ciudad de Medellín. Imagen tomada de [2]. La puesta en práctica de este modelo anteriormente descrito, involucra directamente al mercado como regulador del acceso efectivo a las unidades habitacionales, esto bajo el paradigma de la propiedad privada como expone (FALLA, Luis. 2014)[3]; en consecuencia los intereses por su adecuado funcionamiento y el confort en términos generales son mínimos, ya que no es redituable para los constructores, ni para el estado el enfoque investigativo en este sector socioeconómico; estos mismos, enfocados exclusivamente en el rendimiento económico, invierten en el manejo político y en acabados cosméticos, y en cambio ahorran al máximo posible en diseño de estas mismas viviendas, en razón de esto son aún más limitados los estudios que abordan la vivienda de interés social desde el enfoque bioclimático, particularmente desde las condiciones de ventilación natural. En el área metropolitana de la ciudad de Medellín, este modelo ha sido replicado en diferentes sectores de la ciudad teniendo poco en cuenta la condición microclimática del valle donde se encuentra contenido el área metropolitana. Según el (IDEAM. 2022)[4] el valle de aburrá tiene una variación entre 1500 hasta 2500 MSNM, en toda la extensión política de su territorio, contando con 35.550km2 clasificados en clima cálido, 16.439km2 en clima templado y 10.900 km2 en clima frío, de acuerdo con datos del IDEAM. En consecuencia, la diversidad microclimática debería ser un factor fundamental para el diseño de vivienda en su generalidad, así como lo expone (URIBE, Sebastián, 2020)[5] y (ARIAS, Andrés, 2020)[6] los cuales desarrollan sus investigaciones enfocados en la variabilidad de los pisos térmicos como influencia en el desempeño de la vivienda, por un lado el primero a través de una serie de estrategias bioclimáticas como criterios de diseño, particularmente en climas cálido-húmedos y por otro lado, desde la disciplina ingenieril, sustenta como la variación de los pisos térmicos, son un factor importante para la calibración e instalación de aire acondicionado. A raíz de este reconocimiento, es primordial reconocer desde la disciplina arquitectónica, la influencia de la variación de la altura sobre el diseño de vivienda aún sí el contexto se encuentra clasificado en una sola unidad político - administrativa; como es el caso del área metropolitana. A nivel internacional, diversas investigaciones se han preocupado por la adecuación de la vivienda de interés prioritario a las condiciones climáticas extremas como es el caso de (WARD, Ian. 2008)[7] y (HUERTAS, David. 2022)[8], esta preocupación es evidente, al tratarse de climas estacionales, pues el estado debe prever la menor inversión en sistemas energéticos adicionales, para la construcción de vivienda de interés social, sin embargo, en el contexto local, al esta no ser una diferencia excesiva, poco se ha abordado en materia de clasificación según las características climáticas, como es el caso de la ventilación natural. En el contexto local, se han desarrollado investigaciones enfocadas en el confort térmico para viviendas de interés social, específicamente para climas cálido - húmedos en la ciudad de Cali, (GIRALDO, Walter. 2017)[9] realizan mediciones de ventilación natural in situ, de uno de los modelos más característicos, y en base a ellos proponen estrategías de adecuación pasiva para el mejoramiento de las condiciones térmicas enfocadas en la ventilación; por otro lado (CARABALÍ, Javier. 2016)[10] realizan trabajo de campo en el mismo contexto, pero a partir de una metodología tanto cuantitativa como cualitativa, haciendo mediciones in situ, así como encuestas a la comunidad que habita estas viviendas. En ambos casos, intentan resolver problemas desde la infraestructura existente, desde lo construido; por tal motivo, esta investigación se preocupa por la evaluación de las condiciones de ventilación natural de forma predictiva, evitando el mayor número de errores después de la construcción. En este orden de ideas, en materia metodológica, el viento tiene un comportamiento diverso que ha demostrado ser difícil de precisar y caracterizar; utilizar herramientas computarizadas para simular su comportamiento es altamente infectivo, en la actualidad, se suelen utilizar registros EPW y TMY, lo cuales son poco representativos, ya que cuentan con un único dato de velocidad y dirección del viento por hora; además simplifican excesivamente la variabilidad del fenómeno, por ejemplo en el presente caso de estudio, la aplicación de esta metodología ignoraría la variación geográfica existente de acuerdo a la altura sobre el nivel del mar, de la cual ya se ha reconocido su importancia para el estudio de las condiciones climáticas. En razón a todos los motivos anteriormente descritos, la presente investigación tiene como propósito principal determinar las variables y tendencias de ventilación natural en una de las distribuciones más típicas de las VIS a partir de un análisis de sensibilidad en cuatro diversos sectores del área metropolitana de la ciudad de medellín, implementando una metodología que utilice los datos de entrada del sistema de monitoreo ambiental de la ciudad (SIATA)[11], que cuenta con 60 datos de velocidad y dirección cada hora, a la altura correspondiente de cada uno de los cuatro casos de estudio, esto con el fin de dar una caracterización predictiva sobre la ventilación natural, del funcionamiento de este esquema de vivienda en los diferentes sectores analizados. 2. METODOLOGÍA El abordaje metodológico se compone de un análisis de sensibilidad en razón al bajo costo computacional y los beneficios de interpretación de los resultados predictivos en la aplicación al contexto local. El análisis de sensibilidad, consiste en mover una variable de entrada manteniendo las otras variables en sus valores de referencia (TIAN, Wei. 2013)[12]. Las variables de entrada serán los cuatro diferentes sectores diferenciados por sus características geográficas; en cada uno de ellos se evalúa el comportamiento de una torre típica de vivienda de interés social, la cual en todos los casos se analiza bajo tres parámetros estables de referencia; una misma altura, orientación y dos rangos horarios. Para su análisis se hace uso de simulaciones computarizadas CFD de ventilación, evaluando en primera instancia la relación con el entorno inmediato; es decir, se realizan simulaciones exteriores para obtener bajo esos resultados, la información básica para la realización de las simulaciones interiores de la vivienda, en cada uno de los contextos. Criterios de selección Caso de estudio: Cada caso de estudio se selecciona a partir de su ubicación estratégica dentro del área metropolitana, se eligen entonces cuatro sectores representativos del área: norte, sur, centro oriental y centro occidental, de la ciudad. Su emplazamiento específico, tuvo que ver con la ubicación del sensor de monitoreo ambiental del sistema (SIATA)[11], esperando la mayor veracidad de los datos de entrada para las simulaciones computarizadas, véase en Fig 2. En este orden de ideas, los parámetros variables son: A. La estación Bello, ubicada en el norte del Valle de Aburrá este sector se caracteriza por una morfología poco densa, pero con la presencia de edificaciones de gran altura; se ubica a una altura aproximada de 1.600 MSNM. B. La estación Envigado, ubicada en el sur, se caracteriza por la presencia de edificios de poca altura, pero densos en su trama urbana; se ubica aproximadamente a 1.567 MSNM. C. La estación San Javier, ubicada en el occidente del Valle de Aburrá, se caracteriza por edificaciones mixtas y densas, además se encuentra ubicada a una altura aproximada de 1.563 MSNM. D. La estación Centro, se encuentra ubicada en la zona centro oriental, es emblemática por su trama urbana histórica, su densidad y la mixtura de de edificaciones en relación a la altura. Se ubica a una altura aproximada de 1.412 MSNM. Figura 2: Mapificación casos de estudio en área metropolitana de la ciudad de Medellín. Creación Propia. Parámetros de análisis: Cada parámetro de análisis es aplicado a todos los casos de estudio, son los valores estables de referencia que permiten la comparabilidad entre cada caso variable. A. Altura: cada caso de estudio es evaluado a una altura de 54 m sobre la línea de implantación de la edificación, este valor se traduce a estar ubicado en el nivel 18 de la torre de vivienda, se selecciona este nivel en particular ya que es representativo de las condiciones de elevación de la configuración típica de las torres de vivienda, pues suelen llegar hasta los 25 niveles. B. Orientación: las direcciones de los vientos en la ciudad de Medellín son predominantemente de norte a sur, por lo cual el objeto de estudio se posiciona en razón de esta orientación. C. Rangos horarios: se seleccionan dos rangos horarios principalmente: mañana, que va de 8:00 a.m a 11:59 a.m y tarde que va de 12:00 p.m a 5:00p.m. Herramientas La clasificación de la base de datos meteorológica se realizó por medio de un algoritmo personalizado a través del software Grasshopper[13] el cual es una interfaz de programación gráfica dentro de Rhino 3D. De igual forma para la simulación CFD de ventilación exterior e interior se utilizaron las herramientas OpenFOAM [14] y Butterfly a través del mismo software. Métricas Para definir los rangos óptimos de ventilación, se usó la métrica integrada del algoritmo de programación computarizado que trae por defecto la interfaz de Butterfly, siendo entonces: de 0 a 0.99 m/s son datos insuficientes para obtener condiciones óptimas de ventilación, de 1 a 1.99 m/s son datos deseables, de 2 a 4.99 m/s datos de exceso moderado, y de 5 a 10 m/s datos de exceso absoluto. Información básica preliminar De cada estación meteorológica mencionada en el caso de estudio, se utilizaron los datos de dirección y velocidad de la ventilación, de manera anual por cada minuto del año 2021. En primera instancia para mantener la comparabilidad entre cada variable, se definieron seis grupos de velocidades para cada caso de estudio, como se muestra en la figura 3. Figura 3: Base de datos anual del SIATA de cada sector.Definición de rangos de velocidades, sin filtración.Creación Propia. Posteriormente se filtraron, clasificaron y seleccionaron los datos a través grasshopper, basados en el método que implementan (OROZCO, Maria. 2022)[15]. Esto permitió obtener de la base de datos meteorológica principal, únicamente los datos correspondientes al rango horario seleccionado; además el algoritmo programado, permitió extraer las direcciones representativas de cada sector por cada rango horario, al igual extrajo el porcentaje de representatividad de cada rango de velocidad, como se muestra en la fig 4. Figura 4: Base de datos para la simulación, velocidad y dirección representativa para cada mes. Simulación 1) Simulación exterior: inicialmente se modela la torre de vivienda típica de interés social para cada uno de los contextos, a partir de la implantación de esta, se modela su entorno inmediato, que comprende aproximadamente 160 m a la redonda. Posteriormente se selecciona el punto de análisis dentro de la edificación, que corresponde en todos los casos a la altura de 54 m con dirección norte. El modelo se realiza de forma simplificada, con superficies adiabáticas y volúmenes extruidos sin orificios ni perforaciones. Las especificaciones de la simulación exterior se encuentran en la Tabla 1. Tabla 1: Especificaciones Simulación Exterior. 2) Simulación interior: Como resultado de la simulación exterior, se obtienen los vectores de velocidad y dirección en el punto de análisis de la edificación, que corresponde al lugar donde se ubica la vivienda caso de estudio. Este vector resultante se toma como dato de entrada para la simulación interior. El modelo de la simulación es al igual simplificado con superficies adiabáticas, sin embargo, en este caso se realizan las perforaciones que corresponden a las ventanas y puertas; estas últimas se simulan con el 100% de abertura. Las especificaciones de la simulación interior se encuentran en la Tabla 2. Tabla 2: Especificaciones Simulación Interior. 3. RESULTADOS La simulación interior arroja 96 resultados; cada uno describe el comportamiento de la ventilación natural en el interior de la vivienda de acuerdo a la velocidad y dirección dentro de la misma; se muestran los resultados más deseables para cada caso de estudio en la figura 5, 6, 7 y 8. Por otro lado, con el propósito de analizar los resultados globales de las simulaciones interiores, se valora cada resultado anteriormente descrito, bajo la métrica de evaluación, es decir; a cada uno se le asigna una clasificación de acuerdo al porcentaje de área que se encuentra en insuficiencia, deseabilidad o exceso de ventilación como se evidencia en la figura 9, 10, 11 y 12. Figura 5 y 6: Resultados más favorables de Bello y Envigado respectivamente. Figura 7 y 8: Resultados más favorables de San Javier y Centro respectivamente. Los resultados obtenidos en menor escala evidencian una carencia importante de ventilación en la habitación principal de la vivienda, aún en los resultados más favorables y deseables, es evidente la precariedad de ventilación natural; esto en gran medida puede deberse a la insuficiencia de ventilación cruzada; por el contrario el resto de las habitaciones cuentan con un flujo continuo, una entrada por las ventanas que dan hacia la fachada, y una salida por las puertas de las mismas habitaciones, por tal motivo son los sectores mejor ventilados. Figura 9 y 10: Resultados del caso de estudio Bello y Envigado respectivamente. Figura 11 y 12: Resultados del caso de estudio San Javier y Centro respectivamente. Con respecto a los resultados obtenidos en cada uno de los casos de estudio se evidencia que en el sector Bello la deseabilidad es mucho mayor en las mañanas en comparación a las tardes hasta en un 81% en las condiciones más favorables; por el contrario, en el sector Centro, la deseabilidad es mayor en las tardes en hasta en un 61% en las mejores condiciones anuales. Envigado y San Javier muestran resultados semejantes de insuficiencia de ventilación natural en ambos rangos horarios. A nivel global se destaca que los meses entre julio y diciembre, muestran en general los resultados más convenientes íntegramente en todos los casos de estudio. Al igual, como se evidencia en la figura 13, en el caso específico de los rangos correspondientes a la mañana en todos los casos, el sector bello demostró ser más óptimo de acuerdo a la métrica de deseabilidad propuesta, además presenta menores resultados de indeseabilidad por encima de todas las configuraciones; aun así, en el periodo de la tarde su deseabilidad de disminuye en un 30% aproximadamente. No obstante, su valor global se diferencia del sector centro por tan solo 2% de optimización. Este panorama refleja las desventajas de las construcciones de este tipo de vivienda en los sectores sur y centro-occidentales del área metropolitana; sin embargo, la variación menos efectiva es sin duda la implantación de este tipo de vivienda en la estación Envigado. Figura 13 y 14: Resultados globales para cada sector en ambos rangos horarios. 4. CONCLUSIONES La metodología desarrollada permite estimar minuto a minuto la dirección y velocidad de la ventilación anual sin necesidad de desarrollar mediciones in situ; del mismo modo, la filtración de datos y clasificación de acuerdo a rangos horarios y de velocidad permite condicionar el estudio de caso y analizar solo la información provechosa para rectificar la hipótesis inicial. Esta metodología acrecienta las variables que suelen tomarse para la evaluación de la ventilación natural, permitiendo nutrir la investigación sin dejar de ser eficaz. Con respecto al planteamiento de la problemática inicial, la cual esclarece que la vivienda de interés social es replicada indiscriminadamente en diversos sectores del área metropolitana; según los resultados obtenidos en la presente investigación, se evidencia de manera general que en efecto la variabilidad del lugar donde se implante esta configuración típica tiene un repercusión directa en las condiciones interiores de ventilación de la vivienda, por lo cual es necesario pensar en estrategías que optimicen el funcionamiento de esta en los sectores menos favorecidos; no obstante, se concluye que en ningún caso esta configuración típica cumple con más de 40% de deseabilidad, por el contrario la mayoría de ocasiones se encuentra en condiciones desfavorables hasta el 95% del tiempo en todos los casos de estudio. Por consiguiente, basados únicamente en estas cuatro zonas es posible inferir que el rendimiento de las VIS de acuerdo a la ventilación natural, es precario y carece de funcionalidad. En relación con cada caso de estudio, se evidenció en el análisis de los resultados que la situación más favorable por encima de todas las variaciones del presente análisis de sensibilidad, es la combinación, Sector: Bello, Rango horario: Mañana, Mes: Septiembre. A pesar de presentar los mejores resultados en comparación a las demás variaciones realizadas, el 20 % del espacio de la vivienda sigue sin cumplir las condiciones mínimas de deseabilidad. REFERENCIAS 1. PÉREZ, Alex. Bases para el diseño de la vivienda de interés social: Según las necesidades y expectativas de los usuarios. Bogotá: Universidad de La Salle, 2013. ISBN 978-958-8572-85-7. 2. AMAZÓNICA. [en línea]. [ref. de 15 de junio 2022]. Disponible en Web: https://dialnet.unirioja.es/servlet/articulo?codigo=4760258. 3. FALLA ZUÑIGA, Luis Miguel. "Vivienda de interés social, el resultado del presupuesto equivocado". Derecho Público,ISSN-e 1909-7778, Nº. 32, 2014, 19 págs. 4. IDEAM. [en línea]. [ref. de 7 de junio 2022]. Disponible en Web: http://atlas.ideam.gov.co/visorAtlasClimatologico.html 5. URIBE ALZATE, Sebastián. "Propuesta de estrategias bioclimáticas como criterio de diseño en una vivienda social en el clima cálido – húmedo". 2020. 6. ARIAS, Andrés; "Influencia de los pisos térmicos en la implementación de la Norma Iso 16358-1 para el cálculo del factor de desempeño estacional de enfriamiento en Colombia". Director: Carranza Yamid. Tesis Bachelor, Universidad Tecnológica de Pereira, Colombia, 2022. 7. WARD, Ian. The Potential Impact of the New (UK) Building Regulations on the Provision of Natural Ventilation in Dwellings - A Case Study of Low Energy Social Housing [en línea].Volume 7, 2008 [ref. de 11 de mayo 2022]. Disponible en Web: https://doi.org/10.1080/14733315.2008.11683801 8. HUERTAS, David. Using adaptive strategies of natural ventilation with tolerances applied to the upper limit to improve social dwellings’ thermal comfort in current and future scenarios[en línea].Volume 28, 2022 [ref. de 11 de mayo 2022]. Disponible en Web:https://doi.org/10.1080/23744731.2022.2040884 9.GIRALDO, Walter.Ventilación pasiva y confort térmico en vivienda de interés social en clima ecuatorial[en línea]. Artículo de investigación, 2017 [ref. de 17 de abril 2022]. Disponible en Web: http://dx.doi.org/10.14482/inde.35.1.8944 10. CARABALÍ, Javier; PALOMINO, Jaime. “Confort térmico en el trópico húmedo. caso de estudio, viviendas de interés social del Distrito de Buenaventura.” 2020. En: Parra Ocampo, J. (Ed. Científico). Resiliencia Urbana. Una mirada académica desde el Pacífico. (pp. 109-163). Cali, Colombia: Universidad Santiago de Cali; Editorial Universidad del Pacífico. 11. SIATA.[en línea]. [ref. de 19 de junio 2022]. Disponible en Web:https://siata.gov.co/siata_nuevo/ 12. TIAN, Wei. “A review of sensitivity analysis methods in building energy analysis”Renewable and Sustainable Energy Reviews, Elsevier, vol. 20(C), pages 411-419. 13. GRASSHOPPER. Algorithmic modeling for Rhino. (n.d.). [ref. Enero 2022]. Disponible en Web: https://www.grasshopper3d.com/ 14. OPENFOAM. The OpenSource CFD Toolbox. [ref. Diciembre 2021]. Disponible en Web: http//www.openfoam.com/ 15. OROZCO, Maria Jimena; OROZCO, Maria Alejandra; MOLINA, Laura; SALAZAR, Jorge. “Window design to improve natural ventilation performance including climate.based metrics and human factor analysis” 2022. 36va Conferencia PLEA, Santiago. Sobre los autores Carolina Patiño Vásquez y María Isabel Muñoz Rengifo, ambas estudiantes de décimo semestre del pregrado arquitectura de la Universidad Nacional de Colombia, sede Medellín; miembros activos del grupo EMAT. Jorge Hernan Salazar Trujillo, profesor Titular; docente vinculado a la Universidad Nacional de Colombia desde 1994. Magister y fundador del grupo de investigación en Energía, Medio ambiente, Arquitectura y Tecnología, EMAT (2000). Autor publicado de libros, artículos y ponencias sobre la calidad del ambiente construido y la arquitectura de alta calidad ambiental, hace parte de asociaciones científicas y del comité evaluador de revistas y congresos internacionales. INFLUENCIA DE LA LUZ NATURAL EN EL CICLO CIRCADIANO DADO UN CAMBIO DE ORIENTACIÓN DE LA VIVIENDA Alejandra Jiménez Gómez1, Yurany Andrea Gómez Jiménez2, Alejandro Naranjo Ortiz3 Leonardo Fabio González Tami4, Jorge Hernán Salazar Trujillo5 1, 2, 3, 4 Estudiantes. Universidad Nacional de Colombia, Facultad de Arquitectura, Calle 59 A N 63-20 Edificio 24. Medellín, Colombia. 5 Profesor titular. Universidad Nacional de Colombia, Facultad de Arquitectura, Calle 59 A N 63-20 Edificio 24. Medellín, Colombia. 1 e-mail: aljimenez@unal.edu.co RESUMEN La iluminación natural genera grandes impactos en la calidad del espacio, confort lumínico e inclusive, puede generar ahorros considerables en consumos energéticos. Además, juega un papel muy importante en la salud de los usuarios que habitan un espacio, afectando de manera positiva o negativa el ciclo circadiano y el estado de alerta de estas personas. Sin embargo, los espacios no se han diseñado para cumplir con estas condiciones de carácter benéfico para los usuarios. Este trabajo analiza la incidencia que tiene la luz natural sobre los fotorreceptores del ojo humano, con el objetivo de evaluar el rendimiento lumínico de una habitación residencial, en términos del potencial de estímulo circadiano y comodidad visual. Se usó la plataforma Rhinoceros y el plug-in ALFA para hacer simulaciones de iluminación natural considerando: A) cambios de escenarios de orientación B) tamaño de la ventana, C) materialidad. Se estudió una habitación de vivienda masiva en altura expuesta a diferentes orientaciones para determinar la influencia del cambio de posición sobre el rendimiento del espacio en función de Lux Melanopic Equivalente (EML), y Estímulos Circadianos (CS), obteniendo que para el trópico las distintas orientaciones resultan efectivas en cuanto a Luxes Melanópicos, sin embargo, excede los límites de confort visual, haciendo necesario un estudio con distintos dispositivos de fachada para considerar en el diseño arquitectónico. PALABRAS CLAVE: Ciclo circadiano, rendimiento lumínico, diseño, orientación. INFLUENCE OF DAYLIGHT ON THE CIRCADIAN CYCLE GIVEN A CHANGE OF ORIENTATION OF THE DWELLING ABSTRACT Daylighting generates great impacts on the quality of the space, visual comfort, and generates considerable savings in energy consumption. Also, it plays a very important role in the health of users who inhabit a space, positively or negatively affecting the circadian cycle and the alertness of these people. However, not all spaces have been designed to meet these conditions of a charitable nature for users. This work analyzes the incidence that natural light has on the photoreceptors of the human eye, intending to evaluate the light performance of a residential room, in terms of the circadian stimulus potential and visual comfort. The Rhinoceros platform and the ALFA plug-in were used to run daylighting simulations considering A) changes in orientation B) window size, C) materiality. A dwelling room in a building exposed to different orientations was studied to determine the influence of the change of position on the performance of the space as a function of Melanopic Equivalent Lux (EML), and Circadian Stimulus (CS), obtaining that for the tropic the different orientations were effective in terms of Melanopic Luxes, however, they exceeded the limits of visual comfort, making necessary a study with different façade devices to consider in the architectural design. KEY WORDS: Circadian cycle, daylighting performance, design, orientation. 1. INTRODUCCIÓN El ciclo circadiano y estado de alerta en personas que habitan un respectivo espacio, siempre se ha visto afectado, a veces de manera positiva o a veces de manera negativa, por la luz natural. Las variaciones que se producen en el cuerpo logran ser asociadas por distintos factores ambientales, sin embargo, el uso de estos componentes como lo es la luz solar, son los que convierten el cuerpo en una herramienta más eficaz al momento de realizar tareas, no ignorando la capacidad que tiene naturalmente, sino pensando en el aprovechamiento del cuerpo como herramienta mecánica; la luz natural pasaría a ser el reactivo en el cuerpo, que también organiza el reloj corporal, así mismo estas capacidades que puede tener el cuerpo se pueden aprovechar de la mejor manera con una orientación planeada en la fachada que permitirá el ingreso de la luz, garantizando mínimamente una iluminación natural durante la jornada diurna. Es así como la presente investigación procede a realizar un estudio en el que la orientación de las fachadas con relación al norte podría servir de guía para un mayor aprovechamiento de factores ambientales, centrándonos más que todo en la iluminación. Los ojos son el órgano asociado a la recepción de la iluminación y los factores visibles, pero este no solo se encarga de ver y percibir intensidades de luz, también cumplen con una de las partes más importantes en el proceso del ciclo circadiano, ser el medio que percibe los efectos no visuales de la luz, que le permiten al ser humano controlar su reloj interno y mantener niveles de melatonina (la hormona del sueño) altos en las horas de la noche y estado de alerta en las horas del día. Estos efectos no visuales son percibidos por un conjunto de fotorreceptores denominados “células ganglionares de la retina intrínsecamente fotosensibles” (ipRGCs sigla en inglés) que, aunque no aportan significativamente a los efectos visuales [1], si contribuyen con los procesos metabólicos de los seres vivos. Algunos de los efectos dados son el reflejo muscular el cual es la respuesta a la intensidad de luz que entra en el ojo y contribuye a la regulación de los ritmos circadianos. Al momento de una exposición exagerada o fuerte a una luz no apropiada o en un horario no correspondiente, los fotorreceptores enviarán señales incorrectas al cerebro, esto puede llegar a dañar la sincronía entre el reloj metabólico interno y el horario exterior y esto puede traer consecuencias perjudiciales como lo es un desajuste en el horario del sueño y, por consiguiente, un nivel de alerta bajo [2]. Además de algunas enfermedades que puede afectar la salud y la seguridad [3], el rendimiento escolar [4], el rendimiento en oficinas [5], en industrias [6] y en el confort de los pacientes en habitaciones de clínicas y hospitales [7]. Al haber un ciclo circadiano regulado, gracias a una iluminación correcta y suficiente, las personas estarían ante un escenario de mayor desempeño, concentración y un sueño nocturno más saludable. Pero estos estudios sobre iluminación en conjunto con el ciclo circadiano son recientes, pues hace un par de años atrás era un tema del que no se tenía mucha información, además una escasa variedad de herramientas para poder llevar a cabo el estudio. Lo poco que se conoce sobre el impacto en pro de las actividades de las personas conlleva a preguntar cómo estos caracteres metabólicos y bioquímicos no son pensados en el proceso del diseño arquitectónico, considerando a mayor profundidad las variables que se disponen en una fase de anteproyecto; los movimientos corporales que se ejercen para realizar determinada tarea dispuesta en un espacio, el aprovechamiento del mobiliario y los materiales de los acabados son cofactores que priman en la utilidad del área. Distinguir en las recomendaciones que dan ciertos exponentes [8] sobre las exposiciones lumínicas durante por lo menos una hora por el primer periodo del día, o un valor mayor en la intensidad, no ha traído a un consenso que permita determinar con precisión una regla para asegurar un estímulo efectivo en el ritmo circadiano. Sin embargo se debe reconocer que el aprovechar la iluminación conlleva ciertas limitaciones cuando se quiere trabajar con ella, empezando por la falta de evidencia científica acerca de la existencia de porcentajes de umbral, refiriéndose al mínimo de exposición, su intensidad y con ello su duración, sabiendo que el hecho de que la edad es persuadida por los valores de umbral [5] pero que no se sabe en qué porcentaje las personas comienzan a recibir el estímulo lumínico suficiente, o que porcentaje de umbral colma el efecto y no suministrará beneficio alguno al ejercicio. No obstante, desde el año 2019 se dispone de una herramienta informática llamada ALFA (Adaptive Lighting For Alertness) que ayuda a predecir y controlar los efectos no visuales que trae consigo la iluminación en espacios arquitectónicos. El uso de esta herramienta nos ayuda a identificar qué sectores de una edificación en caso de ser usados en un alto porcentaje podrían alterar el ritmo circadiano de los ocupantes. Asimismo, el software ALFA posibilita la predicción del comportamiento de los efectos no visuales producidos por la iluminación en un espacio dado. Esta herramienta permite reconocer sectores en los que puedan presentarse desfases o interrupciones del ritmo circadiano, gracias a que aplica los procedimientos de cálculo y certificación del Instituto WELL. Por otra parte, resulta pertinente mencionar que el análisis y el mapeo de las plantas arquitectónicas, en términos de frecuencia diaria del estímulo circadiano efectivo, se posibilita a través de un procedimiento soportado en la plataforma de Rhino, empleando la métrica Equivalent Melanopic Lux (EML). Sería provechoso realizar un análisis comparativo de los criterios de simplificación empleados por Konis con otros enfoques metodológicos, estudio factible con otras herramientas gratuitas como Lark y Circadian Design Assist Tool (CDAT) [9]. Por otra parte, existe una discusión sobre la pertinencia del uso de la EML, pues demanda la definición de métricas complementarias (diarias, semanales o mensuales). Ahora bien, se puede señalar que los datos acumulados anuales se encuentran descartados porque no son oportunos en el estudio de un efecto deseado durante la mañana e inconveniente tras el ocaso. Adicionalmente, aún no ha sido suficientemente estudiada la periodicidad en la que se da la sincronización del ritmo circadiano. Este tema demanda investigación adicional, discusión que abrimos desde el uso de una métrica diaria que permite discutir los estímulos circadianos en la vivienda en Colombia. Un mejor análisis de las zonas con frecuente disponibilidad de estímulo circadiano precisará el estudio del impacto no visual de los diversos constituyentes arquitectónicos, a través de un enfoque complementario distinto a los clásicos estudios de comodidad visual (hoy dedicados exclusivamente a la prevención del deslumbramiento). La diferenciación de las zonas efectivas en la conservación del ciclo circadiano y otras zonas biológicamente oscuras es alcanzada en la clasificación de los espacios exteriores según su efectividad circadiana. Al respecto, es oportuno resaltar que, aunque se alcancen los umbrales de iluminancia estipulados por la norma, la zona permanezca incorrectamente iluminada en términos circadianos. La dependencia espectral de las conversiones entre la iluminancia fotópica y circadiana imposibilita el uso de un único factor de conversión. Basándose en el color del cielo o de las superficies circundantes, habrá ocasiones en que haya más Lux que EML y viceversa. Lo cierto es que el ojo no permite discernir la calidad circadiana de un recinto porque el tipo de luz que estimula y mantiene en sincronía el ritmo circadiano es muy diferente al necesario para ver. 2. METODOLOGÍA Las simulaciones computacionales se realizaron desde el programa Rhinoceros 5 y el plug-in ALFA (Adaptive Lighting for Alertness), un nuevo software para el diseño de la iluminación circadiana, desarrollado en el año 2019 por Solemma. A pesar de que las herramientas para realizar este tipo de estudios que involucran la influencia de la iluminación en el ciclo circadiano de las personas están aún en una etapa de desarrollo temprana, ALFA permite tener un estimado de los niveles de alerta, confort visual e iluminancia en el plano horizontal en términos de Luxes Melanópicos. Las dimensiones del modelo empleado fueron: 2.75m de ancho sobre la fachada, 3.0m de profundidad y 2.30 de altura. Cuenta con una ventana ubicada en el centro de la fachada de 1.15 de ancho por 1.30m de altura y un sillar de 0.90m sobre el piso (Figura1). Estas medidas corresponden a las de una habitación residencial típica de la vivienda en altura de Colombia. Figura 1. Dimensiones del modelo empleados para la realización de las simulaciones. (Izquierda planta, derecha fachada.) Los parámetros necesarios para la realización de las simulaciones son ingresados a través de ALFA y de acuerdo con investigaciones existentes sobre el potencial del estímulo circadiano en centros de atención médicos [10] [11] y efectos de la luz natural en oficinas [12], a pesar de que la mayoría de estas investigaciones son realizadas en espacios educativos, de oficinas y médicos y no es usual que se realicen en espacios residenciales cómo habitaciones, es importante tener en cuenta que estos espacios también son utilizados para la realización de distintas actividades y que por ende es necesario contar con valores de referencia para tener en cuenta a la hora de su diseño. A través de ALFA los parámetros son ingresados de acuerdo con el siguiente orden: - Localización, fecha, hora y tipo de cielo: La localización elegida para el estudio es Medellín, Colombia, ubicada en la latitud 6.25ºN. Las simulaciones se realizaron en el rango entre las 7:00 y las 17 horas para diciembre y junio, con la intensión de valorar el rendimiento lumínico de la habitación en dos condiciones: con y sin incursión solar. El tipo de cielo se definió como despejado, ALFA utiliza libRadtran [13] para definir las características del tipo de cielo basado en la localización elegida. - Materiales: Se seleccionaron materiales opacos y que son empleados comúnmente en este tipo de habitaciones (Tabla 1). MATERIAL Fachada Red Brick Paredes interiores White Painted Room Walls Piso Light Grey Painted Floor Techo White Painted Room Ceiling Ventana Single Plane Clear 6mm TVis 88% Tabla 1. Materiales empleados para las simulaciones. - Malla de puntos: Se tuvo una única malla de puntos en la cual se evaluaron el plano de trabajo (horizontal) y el plano visual (vertical), ambos a una altura correspondiente de 0.76m y 1.20m. Se tomó en cuenta la dirección en la cuál es más probable la persona que habitaría dicho espacio estaría mirando, es decir, la ventana. Los resultados entregados por ALFA se calculan de acuerdo a la distribución espectral de la energía lumínica (Spectral Power Distribution, SPD), empleando un listado de coeficientes de reflectancia para las franjas espectrales comprendidas en el rango entre 380 y 780nm. Además, estos resultados se ven expresados de la siguiente manera: - Equivalent Melanopic Lux (EML): Es la métrica que mide los efectos biológicos o no visuales de la luz en las personas, a través de las células ganglionares de la retina intrínsecamente fotosensibles (ipRGCs). Es medida en el plano vertical a la altura del ojo del ocupante. De acuerdo con la normativa del International WELL Building Institute (IWBI) tiene como rangos 200 – 240 EML durante el día en habitaciones y durante la noche un máximo de 50 EML, utilizando luz artificial y luz del día [14]. - M/P Ratio: Es la relación entre la luz melanópica y la fotópica, producida por distintas fuentes de luz de cierta distribución de potencia espectral. Existen dos rangos propuestos: mayor a 0.9, la cual favorece el estado de alerta en el día y supresión de melatonina en la noche; menor a 0.35 favorecería la secreción de melatonina generando una sensación de somnolencia. Cuando este está entre ambos valores, no hay mayor impacto en los ciclos circadianos [15]. - Visual Comfort: El valor es dado en Photopic Lux, medida en el plano vertical, en una altura dada y a distintas direcciones y ángulos. Este resultado permite obtener una nueva métrica conocida como Circadian Stimulus, evaluando la eficiencia circadiana de una fuente de luz, es decir, que esta fuente de luz tiene un espectro e intensidad dada que combinados ayudan a activar los ciclos circadianos. El coeficiente está comprendido entre no efecto circadiano (0) y supresión máxima de melatonina (0.7). Una exposición de 0.3 o más por al menos una hora al inicio del día es efectiva para la estimulación del proceso circadiano, mejoramiento en el sueño y en el humor de las personas [16]. - Workplane Iluminance: Es la medida de iluminación empleada como complemento del confort visual y el rendimiento en el desarrollo de actividades. Es medida sobre el plano horizontal. El Reglamento Técnico de Iluminación y Alumbrado Público (RETILAP) no tiene en cuenta espacios como residencias en su norma, por lo que los valores de referencia existentes para la realización de tareas visuales pueden llegar hasta los 500lx. 3. RESULTADOS Se obtuvieron resultados de Lux sobre el plano horizontal y EML desde la plataforma ALFA, los cuales se agruparon inicialmente en un gráfico de líneas que muestra la tendencia a lo largo del día en un horario de 7:00 am y 17:00 pm para cada una de las orientaciones evaluadas, estos datos se pueden observar en las Figuras 2 y 3. Figuras 2 y 3. Comportamiento a lo largo del rango horario establecido 7:00am y 17:00pm. Para los meses de junio y diciembre en todas las orientaciones evaluadas. Hay una variación más significativa en los datos registrados correspondientes al mes de diciembre en comparación con el mes de junio, teniendo el de diciembre una variación más significativa. Se evidencia que al medio día, horas correspondientes entre las 11:00 am y las 13:00 pm, se mantiene una línea más estable, más que todo en la fachada: Nororiente, Suroccidente y Norte, esto se da tanto en el mes de junio como en el mes de diciembre. Entre las 8:00 am y las 10:00 am y las 15:00 pm y las 16:00 pm se evidencian los picos más altos de lux melanópicos (entre 12.000 y 16.000 para junio) y los picos más bajos se registran a las 7:00 am y a las 17:00 pm (entre 2.000 y 4.000), esto nuevamente se da tanto para el mes de junio como para el de Diciembre. Por otro lado, se muestran las orientaciones de manera individual para conocer la relación que existe entre el EML y los Lux sobre el plano de trabajo, en relación con el tiempo. La altura de las esferas corresponde a los Lux Melanópicos y el grosor de estas corresponde a los lux sobre el plano horizontal, cada dato correspondiente a cada hora dentro del rango de 7:00 am a 5:00 pm. En las siguientes figuras, podemos notar la relación entre el EML y luminancia lx en el plano horizontal. La altura de las esferas representa el EML y el grosor de estas la iluminancia lx. Figuras 4 y 5. Comparación entre orientaciones y meses a lo largo de la evolución horaria 7:00am y 17:00pm. Izquierda sur, derecha suroriente. En la orientación sur para el periodo correspondiente al mes de diciembre se aprecia que inicia siendo inferior el EML que junio en el rango horario de 6:00 am con aproximadamente 6.000 pero este se incrementa y sobrepasa en el número restante de horas diurnas en comparación con la jornada de junio llegando a un punto máximo de aproximadamente 14.000 EML, es precisamente en ente rango horario donde se encuentra una mayor iluminancia Lx, de igual manera se reconoce que la curva de diciembre decrece en el rango correspondiente de 10:00 am a 2:00 pm. con un promedio de 7.000 EML y para las 5:00 pm tanto junio como diciembre se sitúan casi a la par con un valor aproximado de 2.000 EML y una iluminancia Lx menor pero similar. En la orientación suroriente se comprueba que a las 7:00 am el EML es más alto en junio que en diciembre, pero desde las 8:00 am en adelante hasta la 1:00 pm es más alto en diciembre, también se evidencia que ambos meses reciben una iluminancia Lx mayor durante este horario, a la hora siguiente, o sea las 2:00 pm, se encuentran ambos meses a 4.000 EML aproximadamente, y a partir de las 3:00 pm se volverá a mantener más elevado en junio que en diciembre, como sucedía a las 7:00 am y la iluminancia será menor durante estas horas de la tarde. Figuras 6 y 7. Comparación entre orientaciones y meses a lo largo de la evolución horaria 7:00am y 17:00pm. Izquierda oriente, derecha nororiente. En la orientación oriente diciembre se mantendrá con un EML inferior y una iluminancia Lx menor durante el mayor porcentaje del día en comparación a junio que desde las 7:00 am supera ya los 10.000 EML y con una iluminancia Lx que casi duplica a la de diciembre, en el periodo de las 8:00 am a 10:00 am ambas logran igualarse a un EML muy similar pero con el paso de la horas ambas decrecen, sin embargo junio sigue con un porcentaje mayor de EML en relación a diciembre, además de que durante casi todo el día su iluminancia Lx no va a tener variación significativa. En la orientación nororiental se puede observar cómo los niveles de EML y la luminaria Lx en junio siempre van a estar por encima y con mayor intensidad respecto a los niveles en diciembre. El EML mínimo alcanzado en junio es de aproximadamente 6.000 y el máximo es de 12.000, mientras que en diciembre el mínimo reportado es de aproximadamente 2.500, mientras que el máximo solo llega a los 4.000, eso quiere decir 2.000 EML por debajo del mínimo en junio. Figuras 8 y 9. Comparación entre orientaciones y meses a lo largo de la evolución horaria 7:00am y 17:00pm. Izquierda norte, derecha noroccidente. En la orientación norte es evidente el crecimiento de EML y luminancia Lx a medida que se van acercando las horas de la tarde, alcanzando su punto máximo a las 4:00 pm con un EML de aproximadamente 13.000. Después de las 4:00 pm comienza su descenso, no solo en EML sino también en cuanto a la luminancia Lx y este crecimiento y descenso es constante y casi uniforme tanto en junio. En la orientación noroccidental se encontró que el EML es levemente superior entre las 6:00 y las 8:00 am durante el mes de junio, guardando niveles de luminancia Lx casi equivalentes con respecto al mes de diciembre entre las 8:30 am y las 2:00 pm, presentando una leve disminución alrededor de las 2:00 pm y un repentino aumento alrededor de las 4:00 pm. Finalmente, en la franja entre las 5:00 y 6:00 pm se generó una gran diferencia, puesto que en diciembre el EML no alcanza los 7.000, mientras que en junio estos están en un promedio de entre los 10.000 y los 12.000 EML. Figuras 10 y 11. Comparación entre orientaciones y meses a lo largo de la evolución horaria 7:00am y 17:00pm. Izquierda occidente, derecha suroccidente. En la orientación occidental, los niveles de EML como los de luminancia Lx son considerablemente superiores desde el inicio de la jornada durante el mes de diciembre con respecto a junio con un aumento constante en la diferencia entre ambos hasta las 4 pm. Ahora bien, resulta interesante que solo alrededor de las 5:00 pm se evidencia una mayor concentración de EML en el mes de junio, pero con una luminancia Lx muy similar. En la orientación suroccidental están demostrados niveles superiores de 9.000 EML y una luminancia Lx significativa durante el día en el mes de diciembre, a excepción de las 7:00 am y las 5:00 pm, pues en estas horas del día los niveles son de aproximadamente 6.000 EML y la luminancia se reduce casi que a la mitad. Por otro lado, los valores de junio son muy constantes tanto en su Luminancia Lx como en sus niveles EML, la luminancia es muy similar a la que se encuentra a las 7:00 am y a las 5:00 pm en diciembre y los niveles EML no sobrepasan los 5.000, a excepción de las 8:00 am donde el nivel se ubica en los 16.000 EML. Tabla 2 y 3. Promedios de los resultados a lo largo del día. Finalmente, se realizaron promedios de los resultados a lo largo del día para conocer grosso modo, cuál es el comportamiento en cuanto a Lux melanópicos (EML), lux sobre el plano de trabajo y el estímulo circadiano total, que le puede brindar el espacio interior de una habitación típica en el trópico a una persona. en la tabla 2 y tabla 3 se evidencia la triple evaluación que muestra resultados positivos, por un lado el estímulo circadiano siempre supera por mucho el umbral mínimo de 314 con un mínimo en promedio de 3462 en la época de diciembre para la orientación Nororiente y 5404 en la época de junio para la orientación suroccidente; por otro lado la iluminancia sobre el plano de trabajo siempre está sobre 500 lux, sin embargo los resultados pueden generar deslumbramiento, por lo que este ítem sería importante tratarlo con dispositivos solares, o evaluaciones desde otras métricas ya que el promedio en este caso, puede resultar ambiguo, por último el estímulo circadiano (CS) nos muestra que está muy cerca del límite superior de estímulo (0.7) para lograr una supresión de la melatonina de manera exitosa a lo largo del día, esto indica que las habitaciones para el trópico, con las características dadas, le aportan de manera significativa a los procesos metabólicos desde cualquier orientación. 4. CONCLUSIONES El trópico gracias a sus condiciones climáticas y disponibilidad lumínica a lo largo del año les permite a las edificaciones contar con una alta intensidad lumínica al interior de sus espacios, suficiente como para lograr cumplir con la tarea metabólica para con las personas. Encontrar valores por encima de 314 EML no afecta negativamente el estímulo circadiano (CS) sino que lo mantiene en su máximo estado, es decir que las personas van a tener una correcta supresión de melatonina y estado de alerta durante el día, esto teniendo en cuenta el diseño arquitectónico. Los resultados en su totalidad cumplieron con los umbrales mínimos, superándolos hasta por 12600 Lux, para el umbral de intensidad lumínica sobre el plano de trabajo y 9300 EML para el umbral de los lux melanópicos, sin embargo sería interesante poder comparar esto con deslumbramientos, radiación, temperatura y alternativas de dispositivos solares, que permitan dar unos resultados más efectivos y acercarse a una mejor propuesta de diseño arquitectónico tanto para su ubicación y orientación, como para el diseño en sí. A la hora de querer tener en cuenta el mobiliario que se usará en dicho espacio, sería ideal tener una malla de puntos que se encuentre zonificada, es decir, que el espacio cuente con zonas en las cuales se pueda identificar dónde se concentra un mejor rendimiento circadiano según la entrada de luz que haya en este, para así poder tener un aprovechamiento total de la iluminación en el espacio y cómo va a ser distribuido su uso. RECONOCIMIENTOS La realización de esta investigación fue posible gracias a la participación y apoyo de un conjunto de profesores, colegas e instituciones, es por eso por lo que nos gustaría agradecer principalmente a los profesores Jorge Hernán Salazar Trujillo, Elizabeth Parra Correa, Lucas Arango Díaz y al Congreso MACDES.2022 por darnos la oportunidad de ser partícipes de este evento. Además, hubiese sido improbable llevar a cabo este proyecto sin el apoyo y colaboración del Grupo de investigación en Energía, Medio Ambiente, Arquitectura y Tecnología, Grupo EMAT y la Universidad Nacional de Colombia sede Medellín. REFERENCIAS 1. BERSON, D. M. Strange vision: Ganglion cells as circadian photoreceptors. Trends in Neurosciences, 26(6), 314–320. https://doi.org/10.1016/S0166-2236(03)00130-9. 2003. 2. SHISHEGAR, N., & BOUBEKRI, M. Natural Light and Productivity: Analyzing the Impacts of Daylighting on Students’ and Workers’ Health and Alertness. International Journal of Advances in Chemical Engineering and Biological Sciences, 3(1). https://doi.org/10.15242/ijacebs.ae0416104. 2016. 3. CRC, Cooperative Research Centre. Australia. Disponible en Web: https://www.alertnesscrc.com/ 2020. 4. BELLIA, L., PEDACE, A., & BARBATO, G. Lighting in educational environments: An example of a complete analysis of the effects of daylight and electric light on occupants. Building and Environment, 68, 50–65. https://doi.org/10.1016/j.buildenv.2013.04.005. 2013. 5. K. KONIS. A novel circadian daylight metric for building design and evaluation, Building and Environment, vol. 113, pp. 22–38, feb 2017. 6. FIGUEIRO M, SAHIN L, WOOD B, PLITNICK B. Light at night and measures of alertness and performance: implications for shift workers. Biological Research for Nursing 18(1) 90-100. 2016. 7. ACOSTA, I., LESLIE, R. P., & FIGUEIRO, M. G. Analysis of circadian stimulus allowed by daylighting in hospital rooms. Lighting Research and Technology, 49(1), 49–61. https://doi.org/10.1177/1477153515592948. 2017. 8. FIGUEIRO, M. G. R. NAGARE, AND L. L. A. PRICE, Non-visual effects of light: How to use light to promote circadian entrainment and elicit alertness, Lighting Research Technology, vol. 50, no. 1, pp. 38–62, 2018, doi: 10.1177/1477153517721598. 9. K. KONIS. A circadian design assist tool to evaluate daylight access in buildings for human biological lighting needs, Solar Energy, vol. 191, September, pp. 449–458, 2019. 10. KONIS, K. (2018) Field evaluation of the circadian stimulus potential of daylit and non-daylit spaces in dementia care facilities. Building and Environment, 135, 112-123. 11. CARMON D, ALTOMONTE S. Lighting for circadian well-being: a simulation-based workflow for the visual and non-visual lighting design of a nursing home. Proc Build Simul 2021 17th conf IBPSA. 2022;17. doi:10.26868/25222708.2021.31101 12. REINHART, C.F., Jakubiec, J.A., Ibarra, D. (2013) Definition of a reference office for standardized evaluations of dynamic façade and lighting technologies. Proceedings of BS2013: 13th IBPSA Conference. Chambéry (France), 26-28 August 2013. 13. EMDE, C., et al. (2016). The libradtran software package for radiative transfer calculations (version 2.0.1). Geoscientific Model Development, 9(5), 1647-1672. 14. IWBI - International WELL Building Institute (2014) WELL Building Standard v1. [online] Available at: www.wellcertified.com/certification/v1/standard/. 15. EYRISE (2019). Out of the Blue. [online] Available at: https://www.eyrise.com/wpcontent/uploads/2020/01/Out-of-the-Blue-smallupdate-27-11-2019- m.pdf. 16. FIGUEIRO, M.G., Gonzales, K., Pedler, D. (2016) Design with Circadian Stimulus. LD+A October, 31-34. Sobre los autores Alejandra Jiménez Gómez, Estudiante de Arquitectura de la Universidad Nacional de Colombia, sede Medellín, desde el año 2019, actualmente cursa el sexto semestre. Hace parte del Grupo de investigación en Energía, Medio Ambiente, Arquitectura y Tecnología, Grupo EMAT (2020). Ha colaborado en la realización de proyectos de investigación en el campo de la iluminación natural en las edificaciones, los cuales han sido presentados en congresos internacionales tales como el Building Simulation (2021) y ENCAC (2021). Yurany Andrea Gómez Jiménez, Estudiante de Arquitectura de la Universidad Nacional de Colombia, sede Medellín, desde el año 2019, actualmente cursa el séptimo semestre. Hace parte del Grupo de investigación en Energía, Medio Ambiente, Arquitectura y Tecnología, Grupo EMAT (2020). Ha colaborado en la realización de proyectos de investigación en el campo de la iluminación natural en las edificaciones, los cuales han sido presentados en congresos internacionales tales como el ENCAC (2021). Alejandro Naranjo Ortiz, Estudiante de Arquitectura de la Universidad Nacional de Colombia, sede Medellín, desde el año 2019, actualmente cursa el sexto semestre. Hace parte del Grupo de investigación en Energía, Medio Ambiente, Arquitectura y Tecnología, Grupo EMAT (2020). Ha colaborado en la realización de proyectos de investigación en el campo de la iluminación natural en las edificaciones, los cuales han sido presentados en congresos internacionales tales como el Building Simulation (2021) y ENCAC (2021). Leonardo González Tami, Estudiante de Arquitectura de la Universidad Nacional de Colombia, sede Medellín, desde el año 2020, actualmente cursa el sexto semestre. Hace parte del Grupo de investigación en Energía, Medio Ambiente, Arquitectura y Tecnología, Grupo EMAT (2022). Jorge Hernán Salazar Trujillo, Profesor Titular, arquitecto egresado de la Universidad Nacional de Colombia (1992) y vinculado como docente desde 1994. Cursó dos Maestrías: en la Universidad Politécnica de Madrid (1996) y la Universidad Internacional de Andalucía (1998). Creador del Grupo de investigación en Energía, Medio Ambiente, Arquitectura y Tecnología, Grupo EMAT (2000) y socio fundador de PVG Arquitectos (en 2002 y retirado desde 2014). Ha colaborado en numerosos proyectos de arquitectura, urbanismo y espacio público. Autor de libros, artículos y ponencias sobre la calidad del ambiente construido en temas relacionados con la sombra, el viento, la luz, la energía y sus implicaciones en la arquitectura de alta calidad ambiental. Hace parte de asociaciones científicas y del comité científico de revistas y congresos internacionales. GENERACIÓN DE MICROCLIMAS EN UN AULA DEBIDO AL EQUIPO DE AIRE ACONDICIONADO Steve Sttivend Carrascal1, Laura Camila Gomez2, Jose Manuel Henao Gómez3, Elizabeth Parra Correa4 (1) Estudiante de Arquitectura, , Universidad de San Buenaventura Medellín, Facultad de Artes Integradas, Calle 45 N° 61-40 Barrio Salento, Bello, Colombia (2) Estudiante de Arquitectura, Universidad de San Buenaventura Medellín, Facultad de Artes Integradas, Calle 45 N° 61-40 Barrio Salento, Bello, Colombia (3) Estudiante de Arquitectura, Universidad de San Buenaventura Medellín, Facultad de Artes Integradas, Calle 45 N° 61-40 Barrio Salento, Bello, Colombia. (4) Docente de ArquitecturA, Universidad de San Buenaventura Medellín, Facultad de Artes Integradas, Calle 45 N° 61-40 Barrio Salento, Bello, Colombia email:1 steve.sttivend@tau.usbmed.edu.co , 2 lauracamilagomezgomez@gmail.com 3 jose.henao@tau.usbmed.edu.co , 5 elizabethparra.arq@gmail.com RESUMEN En algunas instituciones educativas ubicadas en el trópico, los climas templados y la ausencia de estaciones marcadas posibilitan que las aulas sean ventiladas naturalmente de forma permanente. Sin embargo, debido a la necesidad de aislarse de los insectos, el ruido exterior y deficientes estrategias arquitectónicas de ventilación natural, algunas de las aulas tienen sistemas de aire acondicionado. Estos sistemas son instalados para alcanzar determinadas temperaturas de forma controlada. No obstante, la ubicación y tipo de difusores de los equipos, podrían generar condiciones climáticas heterogéneas al interior del espacio, ocasionando que de forma simultánea los usuarios puedan experimentar estrés térmico por frío o calor. El objetivo de la presente investigación es proponer y ensayar una metodología para conocer la influencia de la distribución de las corrientes de aire frío generadas por el equipo de aire acondicionado en la modificación del ambiente térmico en distintas ubicaciones del Aula-Taller 2D de la Universidad San Buenaventura, Antioquia, Colombia. Para esto, se realizaron mediciones de temperatura y velocidad del viento en diferentes puntos del aula modificando el encendido o apagado del sistema de aire acondicionado y la operación de las aberturas, se construyeron mapas de los diferentes escenarios y finalmente se pusieron en paralelo. De los resultados obtenidos se concluyó que, la distribución de las corrientes de aire frío generadas por los sistemas de aire acondicionado puede crear microclimas dentro del aula y fluctuaciones importantes en la temperatura y la velocidad del viento que podrían causar estrés térmico y perjudicar los procesos de aprendizaje. PALABRAS CLAVE: Aire acondicionado, aulas, corrientes de aire frío y estrés térmico. INFLUENCE OF THE DISTRIBUTION OF THE COLD AIR CURRENTS GENERATED BY THE AIR CONDITIONING EQUIPMENT ON THE THERMAL ENVIRONMENT IN DIFFERENT LOCATIONS OF A CLASSROOM ABSTRACT In some educational institutions located in the tropics, temperate climates and the absence of marked seasons make it possible for classrooms to be naturally ventilated permanently. However, due to the need to isolate themselves from insects, outside noise and poor architectural strategies of natural ventilation, some of the classrooms have air conditioning systems. These systems are installed to reach certain temperatures in a controlled way. However, the location and type of diffusers of the equipment, could generate heterogeneous climatic conditions inside the space, causing users to simultaneously experience thermal stress due to cold or heat. The objective of this research is to propose and test a methodology to know the influence of the distribution of cold air currents generated by the air conditioning equipment on the modification of the thermal environment in different locations of the 2D Classroom-Workshop of the San Buenaventura University, Antioquia, Colombia. For this, temperature and wind speed measurements were made at different points of the classroom by modifying the switching on or off of the air conditioning system and the operation of the openings, maps of the different scenarios were built and finally they were put in parallel. From the results obtained, it was concluded that the distribution of cold air currents generated by air conditioning systems can create microclimates within the classroom and important fluctuations in temperature and wind speed that could cause thermal stress and impair learning processes. KEY WORDS: Air conditioning, classrooms, cold drafts and thermal stress. 1. INTRODUCCIÓN El ser humano necesita mantener un correcto balance en su temperatura interior, lo cual es importante para su bienestar y buen funcionamiento, lo que hace que posea un sistema autorregulador de temperatura en su organismo que asegura que la temperatura del centro del cuerpo se mantenga aproximadamente en 37ºC. Cuando esta temperatura desciende o aumenta variando su temperatura ideal, en el cuerpo empiezan a surgir inconformidades y riesgos de salud irreversibles [1]. Según la Organización Mundial de la Salud (OMS), el confort térmico es importante para las personas porque brinda salud, bienestar y comodidad, permitiendo que se sientan en las condiciones ideales dentro de los espacios donde estén ubicadas, con una satisfacción mental del medio ambiente. La falta de confort térmico, además, ocasiona en algunos casos, complicaciones en la salud tales como estrés térmico, pérdida de destreza, disminución de sensibilidad en la piel, mayor esfuerzo muscular, riesgos de lesiones musculares, congelación, efectos en el aparato respiratorio, enfermedades cardiovasculares, entre otros efectos negativos para la salud [2]. Cuando se exceden los límites de temperatura, el estado general de ánimo en la persona se ve afectado; y en los lugares de trabajo, la incomodidad térmica hace que el nivel de productividad disminuya, hasta el punto de rechazar algunas actividades, teniendo como consecuencia baja eficiencia [3]. El diseño arquitectónico de aulas de clase debe garantizar las condiciones necesarias que permitan una buena concentración por parte de los estudiantes, por lo que es importante proponer diseños que permitan bloquear las distracciones del exterior. En cuanto a las estrategias para lograr dicho objetivo, se suelen diseñar cerramientos que eviten el ingreso de radiación solar directa y ruido exterior. En cuanto a las escuelas ubicadas en la zona tropical, aquellas que han implementado cerramientos no solo para evitar elementos distractores, sino el ingreso de plagas de insectos debido a las condiciones climáticas de la zona ven necesario el uso de aparatos de aire acondicionado para ventilar las aulas completamente cerradas. Los sistemas de aire acondicionado se ubican en lugares específicos y pueden direccionar el aire de diferentes maneras, y dependiendo de su configuración, a diferente temperatura y velocidad del viento. Dado que la posición del aire acondicionado no necesariamente está centrada, o también a los diferentes tipos de difusores y la ubicación del equipo, sea sobre el techo o la pared, puede generar diferentes sensaciones térmicas en diferentes puntos de la misma aula. 1.1. MARCO TEÓRICO Y REFERENCIAL El interés por determinar el grado de satisfacción de confort térmico en las personas nació como una consecuencia de la aparición de las técnicas de acondicionamiento de aire, cuyo fin era justamente lograr que las personas se sintieran cómodas y precisaban por tanto de estrategias que permitieran evaluar en qué medida se lograban sus objetivos; el más conocido de los índices de evaluación del confort fue la "temperatura efectiva", desarrollado por Yaglou y colaboradores en 1923. Desde entonces, han aparecido muchos otros índices, pero la mayoría de ellos no engloban variables que en un ambiente industrial son de gran importancia, como la presencia de calor radiante, la intensidad de trabajo, etc., por lo que su utilidad en el campo educativo es limitada. En este panorama la aparición en 1970 de la obra "Thermal Confort" de P.O. Fanger representó un avance importante, al incluir en el método de valoración propuesto, la práctica totalidad de las variables que influyen en los intercambios térmicos hombre-medio ambiente, y que por tanto, contribuyen a la sensación de confort; estas variables son: nivel de actividad, calor metabólico, características del vestido, temperatura del aire, humedad relativa, temperatura radiante media y velocidad del aire [4]; [5]; [6]. La norma ASHRAE 55-2013, menciona que el confort térmico se constituye como la percepción mental que tiene la persona del ambiente térmico. Por tanto, cuando se evalúa la percepción de los ocupantes, se puede determinar el estado de confort térmico de un lugar [7]. En Colombia, aún queda mucho por trabajar en el tema de confort térmico, en Bogotá, la capital del país, cerca del 42% de los edificios, son constituidos como “edificios enfermos”. En esta ciudad, se tomó como caso de estudio el edificio de la torre Colpatria; con el objetivo de evaluar el confort térmico del edificio. Se tomaron las temperaturas en varias zonas horarias del día, la EVALUACIÓN DE LA PERCEPCIÓN DE CONFORT 18 temperatura radiante media, el índice PPD y PMV. El estudio finalmente permitió establecer las condiciones de confort y porcentaje de personas insatisfechas. Se determinó que el edificio no cumplía con las condiciones higrotérmicas en los espacios estudiados, de acuerdo con la norma ISO 7730 y ASHRAE 55: 2004; y que por tanto estas eran inadecuadas. Lo cual, permitió establecer medidas preventivas e iniciativas de mejoras al respecto [8]. La variabilidad de la temperatura en las aulas de clase se atribuye a las condiciones climáticas, la cantidad de personas, la programación que se haga de la temperatura de los sistemas de aire acondicionado por parte de los administradores, etc. Sin embargo, se ha identificado que la causa que más incide en el disconfort está dada por las temperaturas internas muy bajas del aire dentro de las aulas de clase, que impulsan los aires acondicionados y se encuentran con temperaturas mal programadas [9]. Según el trabajo de Jiang, Wang, Liu, Y., Xu & Liu, J. [10], la incomodidad relacionada con el frío o el calor tiene un efecto negativo en el bienestar de los participantes; sin embargo, el bienestar disminuye en mayor medida cuando los ambientes están más fríos. 1.2. CASO DE ESTUDIO La Universidad San Buenaventura Medellín (USB), se ubica en el municipio de Bello, Antioquia, Colombia. Este lugar tiene un clima templado cálido durante todo el año, en el que la temperatura promedio varía entre 20.7ºC y 23.8ºC. Esto posibilita que las aulas sean ventiladas naturalmente de forma permanente, sin embargo, por la necesidad de aislarse de los insectos, el ruido exterior y deficientes estrategias arquitectónicas de ventilación natural, algunas de las aulas tienen sistemas de aire acondicionado que son operadas a voluntad de los estudiantes o docentes que habitan los espacios. En la presente investigación, se tomó como caso de estudio el Aula-Taller 2D de la USB, que cuenta con un equipo de Aire Acondicionado referencia AUUQ18GH1. Como etapa preliminar y exploratoria que dio origen a esta investigación se realizaron encuestas a 103 estudiantes o docentes que ocuparon esta aula. En estas se buscó conocer el grado de satisfacción con el ambiente térmico y su preferencia térmica, entre otros factores. Simultáneamente se realizaron mediciones interiores y exteriores de temperatura a través de sensores HOBO. Algunos de los resultados hallados en esta etapa fueron que, pese a que el sistema de climatización artificial fue diseñado para generar un ambiente térmico controlado, dentro de la zona de confort y estable, el 64% de las personas encuestadas manifestaron sentir insatisfacción con el ambiente térmico del aula cuando el aire acondicionado estaba encendido, el 45% de las personas manifestaron sentir el ambiente térmico ligeramente frío y el 11% manifestaron sentirlo frío. A razón de los hallazgos encontrados en este primer acercamiento, la presente investigación tiene como objetivo proponer y ensayar una metodología para conocer la influencia de la distribución de las corrientes de aire frío generadas por el equipo de aire acondicionado en la modificación del ambiente térmico en distintas ubicaciones del Aula-Taller 2D de la USB. 2. METODOLOGÍA La metodología propuesta es de tipo exploratorio y de enfoque mixto. A través de mediciones ambientales realizadas en sitio se construyeron mapas de microclima dentro del aula bajo diferentes escenarios de operación y ocupación del espacio. Se debe aclarar que los datos numéricos expuestos en los resultados no son representativos del comportamiento térmico global del aula por tratarse de una medición estática en un solo punto del tiempo y que lo que se busca es ensayar una metodología para en investigaciones futuras ampliar la toma de datos tanto cuantitativos (Mediciones ambientales) como cualitativos (encuestas de percepción térmica). En los siguientes subcapítulos se explica el paso a paso de la metodología propuesta. Codificación de los puestos de trabajo Se realizó una codificación alfanumérica de los puestos de trabajo donde se ubicaban las sillas tradicionalmente en el aula de clase. Iniciando en la esquina Norte con la codificación A1 y terminando en la esquina Sur con la codificación E3 como se indica en la Figura 1. Figura 1: Codificación de los puestos de trabajo Medición en sitio Una vez codificados los puestos de trabajo se iniciaron las mediciones ambientales de dos fenómenos, la temperatura del aire en ºC y la velocidad del aire en km/h. Ambas mediciones se realizaron con un termo anemómetro de hilo caliente de referencia EXTECH. El sensor de medición se ubicó a 1.2 m del suelo considerando la ubicación de la altura de la cabeza de una persona percentil 50 sentada. Las mediciones se realizaron durante el 21 de abril del año 2022 entre las 19:00 y las 20:00 horas. Por tanto, no son representativas del desempeño térmico anual del aula, pero sí permiten analizar las modificaciones micro climáticas sucedidas en el aula por la operación del sistema de aire acondicionado y la operación de las ventanas y puerta. Escenarios de medición Las mediciones se realizaron para tres escenarios en los que se modifica el encendido o apagado del sistema de aire acondicionado y la operación de las ventanas y puerta como se indica a continuación: Escenario 1. Aire acondicionado encendido con puerta y ventanas cerradas. Escenario 2. Aire acondicionado apagado con puerta y ventanas abiertas. Escenario 3. Aire acondicionado apagado con puerta y ventanas cerrada. Construcción de mapas Con el fin de representar gráficamente en el espacio los resultados obtenidos se construyeron mapas de colores en vistas en sección y planta. Para esto se realizó un levantamiento arquitectónico del aula y se dibujó la planimetría. Se proyectó un área de aferencia a los puntos de medición y se asignó una escala de color a esta según tres rangos presentado para cada uno de los fenómenos como se indica en la Tabla 1. Tabla 1: Escala de color asociada a los rangos de los fenómenos medidos Para la vista en planta se utilizó únicamente el código de color, mientras que para la vista en sección, además del código de color, con el objetivo de facilitar la lectura, se trazó un eje vertical dividiendo la sección en fracciones iguales donde en la parte inferior se ubicaron las mayores temperaturas con velocidades más bajas de viento, es decir donde se tendría menor prosibilidad de sentir incomodidad térmica por frío y en la parte superior se ubicaron las menores temperaturas con mayores velocidades del viento generando el efecto contrario. Análisis de resultados Una vez construidos los mapas se realizó una puesta en paralelo de la distribución de temperatura y velocidad del viento para los distintos escenarios. Aquí se buscó identificar cuál es la relación entre el funcionamiento del sistema de aire acondicionado y las condiciones ambientales del aula y su relación con la ventilación natural a través de la operación de puertas y ventanas. 3. RESULTADOS Los resultados se muestran en dos secciones, en la primera se presentan los mapas de temperatura interior y en la segunda los mapas de velocidad del viento. Dentro de las secciones se presentan a su vez los resultados de los tres escenarios mencionados, para cada uno en vista de planta y de sección. MAPAS DE TEMPERATURA INTERIOR (°C) A continuación, se presentan los mapas de temperatura construidos tanto en planta como en sección de los tres escenarios medidos. Temperatura (ºC) Velocidad del viento (Km/h) Color Rango Alto Rango Bajo Rango Medio Rango Medio Rango Bajo Rango Alto Escenario 1. Aire acondicionado encendido con puerta y ventanas cerradas: Figura 2: Mapas de temperatura Escenario 1 Se encontraron temperaturas entre los 17.1ºC y los 19.0ºC. Las temperaturas más bajas se presentan en el perímetro del aula y las más altas justo debajo del equipo de aire acondicionado y en la zona centro cercana a la puerta como se ilustra en la Figura 2. Las mayores temperaturas debajo de la salida de aire acondicionado y las menores en los extremos del aula se deben a la forma del difusor del equipo de aire acondicionado que es tipo Cassette con cuatro salidas, que impulsan el aire perimetralmente y nunca hacía abajo. Esto ocasiona que después de unos metros de aferencia los puestos reciban directamente las corrientes de aire frío. Por otra parte, le heterogeneidad de la forma se puede deber a que, aunque el aula está cerrada, se presentan infiltraciones del exterior por el contorno de la puerta y una rejilla ubicada en el costado sur occidental del aula. Escenario 2. Aire acondicionado apagado con puerta y ventanas abiertas: Se encuentran temperaturas entre los 22 y los 24.2ºC. Las temperaturas registradas son significativamente más altas que en el escenario anterior que fue tomado solo a unos minutos de diferencia. En este caso a diferencia del escenario 1, las temperaturas se encuentran dentro de la zona de confort estático (21-26 ºC). Como se puede ver en la Figura 3, la distribución de las temperaturas al interior del aula responde a la ventilación cruzada que se genera al abrir la puerta y las ventanas ubicadas en la cara opuesta. Figura 3: Mapas de temperatura Escenario 2 Escenario 3. Aire acondicionado apagado con puerta y ventanas cerrada: Se encuentran temperaturas entre los 22,6 y los 24.1ºC, este rango de temperatura es semejante al del escenario 2, la diferencia, como se puede ver en la Figura 4, es la distribución de la temperatura dentro del espacio. Esto puede deberse a que no hay ingreso por las ventanas de ventilación natural al aula por lo cual no se observa el efecto de la ventilación cruzada que se veía en el escenario 2. Sin embargo, las menores temperaturas se ubican en una diagonal entre las rejillas de la fachada que no son herméticas y las infiltraciones presentadas en la puerta. La zona central alejada de esta ligera corriente de viento es la que presenta las temperaturas mas altas y en general se puede observar que la distribución de temperaturas en el aula es más homogénea. Figura 4: Mapas de temperatura Escenario 3 MAPAS DE VELOCIDAD DEL AIRE (Km/h) A continuación, se presentan los mapas de velocidad del aire construidos tanto en planta como en sección de los tres escenarios medidos. Escenario 1. Aire acondicionado encendido con puerta y ventanas cerradas: En este escenario se presentan grandes variaciones de velocidad del viento, oscilando entre 0,4 Km/h y 4,3 Km/h. También se alcanzan las velocidades más altas de los tres escenarios, dando cuenta de la magnitud de la influencia de las corrientes de aire frías generadas por el equipo de aire acondicionado. Como se puede observar en la Figura 5, las velocidades de viento más bajas se ubican justo debajo del equipo de aire acondicionado, debido a la forma de los difusores y las esquinas nororiente y noroccidente de este por tener corrientes de viento opuestas provenientes de la rejilla en fachada y las dilataciones perimetrales de la puerta Las velocidades más altas se presentan en los extremos del aula ya que la unidad interior del aire acondicionado es tipo Cassette con cuatro salidas de aire cada uno a cada lado de la unidad por lo cual el aire sale directamente hacia los lados haciendo que estos puestos reciban directamente el aire frío. Figura 5: Mapas de velocidad del aire Escenario 1 Escenario 2. Aire acondicionado apagado con puerta y ventanas abiertas: En este escenario se presentan velocidades del viento entre los 0,1 y los 1,0 Km/h. Como se indica en la Figura 6, en este escenario se presentan menores variaciones que en el escenario 1, es decir que, aunque se evidencia el efecto de la ventilación cruzada al tener las ventanas y puerta abierta, las corrientes de viento son más suaves y permiten la renovación del aire en el espacio sin provocar incomodidades como el resecamiento de los ojos o evitar que se levanten los papeles de las mesas. Las sombras de viento se presentan en las esquinas o perímetros alejados de las aberturas y las velocidades más altas se concentran en las zonas ubicadas entre las aberturas de fachada y la puerta. Figura 6: Mapas de velocidad del aire Escenario 2 Escenario 3. Aire acondicionado apagado con puerta y ventanas cerrada: El tercer y último escenario es el aire acondicionado apagado con puertas y ventanas cerradas, en este escenario se presentan velocidades del aire que oscilan entre los 0.1 y los 0,3 Km/h. Como se puede observar en la Figura 7, aquí las velocidades se reducen significativamente debido a que las entradas de ventilación natural se encuentran completamente cerradas y el aire acondicionado apagado. La velocidad aumenta un poco en las zonas donde se encuentran la rejilla en la fachada noroccidente y en el puesto de trabajo ubicado junto a la puerta. Este escenario es el que presenta más homogeneidad con todos los puestos de trabajo a excepción de 3 por debajo de 0.1 km/h. Figura 7: Mapas de velocidad del aire Escenario 3 Paralelo entre temperaturas y velocidades del viento Una vez graficados todos los escenarios de los dos fenómenos se realiza una puesta en paralelo en vista de sección como se indica en la Figura 8. En esta se puede identificar que, cuando el aire acondicionado está encendido con las puertas cerradas las temperaturas son muy bajas y las velocidades del viento son muy heterogéneas en los distintos puntos del aula, mientras que cuando el aire acondicionado está apagado y las ventanas abiertas, es decir que el espacio se climatiza de forma natural, las temperaturas son un poco más cálidas ubicándose dentro de la zona de confort (21 – 26ºC) y presentando menos fluctuaciones tato en temperatura como en velocidad del viento. En este caso que la medición fue tomada en la noche, cuando el espacio se encuentra cerrado y con el aire acondicionado apagado, se presenta una temperatura promedio parecida a la de la ventilación natural debido a la temperatura del aire proveniente del exterior. Por otro lado, la velocidad del viento disminuye notablemente, pero por tratarse de sistemas constructivos que no son herméticos se siguen presentando corrientes de viento ligeras que posibilitan la limpieza del aire a través de la ventilación nocturna. Adicionalmente, en el mapa de velocidad del viento se hace muy evidente el impacto que podría tener en la disminución de la sensación térmica la corriente de aire fría que podría llegar a algunos puntos del aula, mientras que en otros sería imperceptible. Igualando incluso las velocidades alcanzadas por la ventilación natural y el espacio cerrado con el aire acondicionado apagado. Figura 8: Paralelo entre mapas de temperatura y velocidad del viento 4. CONCLUSIONES - Las corrientes de aire frío generadas por los sistemas de aire acondicionado pueden ocasionar diferentes microclimas, según la ubicación del equipo dentro del espacio, la forma de los difusores, su capacidad de refrigeración, las características arquitectónicas, la operación de la envolvente, entre otros. Esto genera fluctuaciones importantes en la temperatura y la velocidad del viento que podrían generar insatisfacción con el ambiente térmico y perjudicar los procesos de aprendizaje en el caso de los escenarios educativos. - Los sistemas de ventilación mecánica generan cambios térmicos y de velocidad del viento mucho más marcados que los sistemas de ventilación natural. Por esta razón se debe priorizar la climatización natural, además de que esta practica disminuye el impacto ambiental de la edificación. Y de requerirse sistemas de aire acondicionado se debe diseñar el sistema pensando además de alcanzar determinadas temperaturas en no general corrientes de viento directas sobre las personas. - En las instituciones que posean aire acondicionado central debe capacitarse e informar a los usuarios acerca de las regulaciones de la velocidad y la temperatura de los equipos. Esto permitiría a demás de un uso más eficiente de la energía, generar ambientes más propicios para el aprendizaje. FUTURAS INVESTIGACIONES - Para futuras investigaciones se considera muy importante cruzar los resultados de las mediciones en sitio con encuestas de percepción que indaguen por la sensación térmica, la satisfacción con el ambiente térmico, el tipo de vestimenta, la actividad metabólica, entre otros. - Para probar esta metodología se deben realizar mediciones en diferentes temporalidades del día y el año. Idealmente de forma simultanea en los puestos de trabajo y controlando el número de personas que habitan el espacio. BIBLIOGRAFÍA 1. GODOY MUÑOZ, Alfonso. El Confort térmico adaptativo. Aplicación en la edificación en España. Barcelona (Esp): Universitat Politécnica de Catalunya, 2012. Disponible en web: . 2. PARRA, Manuela. “Conceptos básicos en salud laboral. Santiago de Chile”. Oficina Internacional del Trabajo – OIT, 2003. Disponible en web: . 3. MELÉNDRES MEDINA, Edison; RICAURTE ORTIZ, Paúl; ARBOLEDA ÁLVAREZ, Luis. “Implementación de un traje termo regulable para control de Confort Térmico a fin de mejorar el rendimiento en el trabajo”. Industrial Data. 2017, vol 20, no. 1. Disponible en web: . 4. VILELLA, Emilio Castejón, “Confort térmico-Método de Fanger para su evaluación”. Centro de Investigación y Asistencia Técnica de Barcelona. Disponible en web: . 5. GUILLÉN MENA, Vanessa. Metodología de evaluación de confort térmico exterior para diferentes pisos climáticos en Ecuador. Cuenca (Ecu): Congreso Nacional del Medio Ambiente. Madrid: CONAMA, 2014. Disponible en web: . 6. RODRIGUEZ MONDELO, Pedro Manuel; GREGORY TORADA, Enrique; CASTEJÓN VILELLA, Emilio; COMAS ÚRIZ, Santiago; BARTOLOMÉ LACAMBRA, Esther. Ergonomía 2: confort y estrés térmico (Vol. 2). Universidad Politécnica de Catalunya. Iniciativa Digital Politécnica. (2004). Disponible en web: . 7. MADRIGAL MONZÓN, José Alejandro; SÁNCHEZ CIFUENTES, Augusto; ESPÍN PÉREZ, Mario Jesús; CABELLO ERAS, Juan José. “Evaluación de la climatización en locales comerciales, integrando técnicas de termografía, simulación y modelado por elementos finitos”. I Encuentro Nacional sobre Ciudad, Arquitectura y Construcción Sustentable. La Plata (Arg): Universidad de la Plata, 2016. Disponible en web: . 8. MORALES ADAMES, Guillermo Alonso, GARCÍA ÁLVAREZ María Consuelo. Problemas de Confort Térmico en Edificios de Oficinas. Caso Estudio: Torre Colpatria en la Ciudad de Bogotá. Bogotá D.C. (Col): Universidad la Gran Colombia, 2011. Disponible en web: . 9. AVELAR MELGAR, Francisco Antonio, CASTANEDA NOLASCO, Salvador Enrique, MARTÍNEZ LÓPEZ, David Samuel. Estudio de estrés térmico en los ambientes laborales de la Facultad de Ingeniería y Arquitectura de la Universidad de El Salvador. San Salvador: Universidad de El Salvador, 2015. Disponible en web: . 10. JIANG, J., WANG, D., LIU, Y., XU, Y., LIU, J. A study on pupils' learning performance and thermal comfort of primary schools in China. Building and Environment, 2018. Disponible en web: . ISSN: 03601323 EVALUATION OF VENTILATION PERFORMANCE AND COMPLIANCE WITH BELGIAN COVID-19 GUIDELINES IN SPORT FACILITIES Janssens A1 , Laverge J2 , Wouters P3 , Spruyt M4 , Stranger M5 , Mampaey M6 , Verlaek M7 12UGent, 3BBRI, 45VITO, 67Environment and Health, Belgium 1e-mail: arnold.janssens@ugent.be ABSTRACT During the corona-19 pandemic many activities inside buildings could no longer take place to prevent virus transmission. In order to allow cultural and recreational sectors to reopen in a safe way, a ventilation task force of the Belgian government prepared recommendations for the implementation and monitoring of indoor air quality in the context of COVID-19. This plan served as an instrument for building owners or facility managers to evaluate whether existing ventilation, in combination with other measures such as opening of windows or air cleaning, would provide sufficient ventilation to allow a certain number of occupants in a room. In preparation of the resumption of indoor sports activities, a research consortium investigated the consequences of the federal guidelines for sports infrastructures. To this end, sports federations organized a number of test events in June 2021 in fitness centres, a climbing gym and a sports hall, for varying numbers of athletes and audiences. In preparation of the events, the ventilation systems were inspected and ventilation flow rates measured. During the test events, CO2 measurements were carried out, and the concentrations were permanently logged. This paper discusses the results of the inspections, IAQ monitoring and subsequent analysis. By applying the recommendations of the implementation plan to the test events in sport, the paper further discusses the feasibility of implementing the plan in practice, what the consequences are for the maximum occupation in sports halls, and provides guidelines on how the ventilation in existing infrastructure can be improved. KEY WORDS: Ventilation, Corona virus, Inspection, Indoor sports facilities, CO2 monitoring. EVALUACIÓN DEL RENDIMIENTO DE VENTILACIÓN Y CUMPLIMIENTO DE LAS DIRECTRICES BELGAS SOBRE COVID-19 EN INSTALACIONES DEPORTIVAS RESUMEN Durante la pandemia de corona-19, muchas actividades dentro de los edificios ya no pudieron realizarse para prevenir la transmisión del virus. Para permitir que los sectores cultural y recreativo reabran de manera segura, un grupo de trabajo de ventilación del gobierno belga preparó recomendaciones para la implementación y el monitoreo de la calidad del aire interior en el contexto de COVID-19. Este plan sirvió como instrumento para que los propietarios de edificios o los administradores de instalaciones evaluaran si la ventilación existente, en combinación con otras medidas como la apertura de ventanas o la limpieza del aire, proporcionaría suficiente ventilación para permitir que un cierto número de ocupantes en una habitación. En preparación para la reanudación de las actividades deportivas de interior, un consorcio de investigación investigó las consecuencias de las directrices federales para las infraestructuras deportivas. Con este fin, las federaciones deportivas organizaron una serie de eventos de prueba en junio de 2021 en centros de fitness, un rocódromo y un polideportivo, para un número variable de atletas y audiencias. En preparación de los eventos, se inspeccionaron los sistemas de ventilación y se midieron los caudales de ventilación. Durante los eventos de prueba, se realizaron mediciones de CO2 y las concentraciones se registraron permanentemente. Este documento discute los resultados de las inspecciones, el monitoreo de IAQ y el análisis posterior. Al aplicar las recomendaciones del plan de implementación a los eventos de prueba en el deporte, el documento analiza más a fondo la viabilidad de implementar el plan en la práctica, cuáles son las consecuencias para la máxima ocupación en los pabellones deportivos y brinda pautas sobre cómo la ventilación en la infraestructura existente puede ser mejorado. PALABRAS CLAVES: Ventilación, Corona, Inspección, Instalaciones deportivas, Monitoreo de CO2 1. INTRODUCTION In preparation of the resumption of sports activities in the summer of 2021 in Belgium after more than half a year without activities, various sports federations organized a number of test events to evaluate how activities could be organised in a ‘covid-safe’ way, in consultation with the Belgian Ministry of Health. The Flemish Sports Federation (VSF) investigated the importance of ventilation for good air quality in sports infrastructures. More specifically, during the test events, the recommendations for the practical implementation and monitoring of indoor air quality in the context of COVID-19 of the ventilation task force of the corona commissioner's office of April 2021 were put into practice, the applicability of these guidelines for the sports sector was evaluated, and guidelines developed specifically for sports infrastructures on the basis of the evaluation. The test events took place between June 1 and 12 2021, in four different indoor sports facilities, for varying group sizes of athletes and public, see Table 1 and Figure 1. Participants to the events were tested with an antigen test. In case of a negative result they were allowed to participate and refrain from wearing mouth caps. Occupancy logbooks were kept for each event. Table 1: Overview test events in Sports infrastructure Type of facility Activity Number of participants Length of activity Fitness centre (FC1) Individual fitness 50 1.5h Fitness centre (FC2) Group classes in 4 rooms 20+16+28+16 4x1h Indoor climbing hall (CH) Rope climbing and bouldering 40+40 4x2h Sports hall (SH) Basketball match with audience 550 3h Figure 1: Impressions of sport infrastructure during events, from left to right: individual fitness room in fitness centre 1, group class in fitness centre 2, rope climbing in indoor climbing hall, basketball match in sports hall. 2. RECOMMENDATIONS TASK FORCE VENTILATION The ventilation task force of the corona commissioner developed recommendations for the practical implementation and monitoring of ventilation and indoor air quality in the context of COVID-19 [1]. The purpose of this implementation plan was to evaluate whether the existing ventilation facilities, possibly in combination with other technical measures such as opening windows and doors, or air purification devices, can provide for sufficient (equivalent) ventilation of the room. The plan defines a CO2 concentration lower than 900 ppm, assuming 400 ppm outdoor concentration, as a maximum acceptable value for limiting the spread of the virus via aerosols. This value is in line with the requirements for workspaces in the Belgian Codex Well-being at work, and with recommended concentrations to achieve sufficient ventilation to prevent the spread of the coronavirus [2]. For a light activity this concentration corresponds in steady state to an outdoor air flow rate of 40 m³/h/person. The first version of the implementation plan (April 2021) assumed a light activity for ventilation rate guidelines, but based on the outcome of the test events discussed in this paper, a new version of the plan was published in July 2021, with recommendations as a function of the type of activity. The plan consists of an assessment scheme to develop mitigation measures based on the presence and performance of ventilation systems, occupancy, openable windows, and/or CO2-monitoring. Mitigation measures may include in the short term opening windows and reducing occupancy, or in the mid to long term installing air cleaners and improving ventilation provisions. By applying the recommendations of the implementation plan to the test events in sport, the aim is to investigate which are possible problems with ventilation, what are consequences for the maximum permissible occupancy in sports halls (both for athletes and spectators), and how the indoor air quality in existing halls can be improved if necessary. 3. INSPECTION OF MECHANICAL VENTILATION SYSTEMS Table 2: Characteristics of mechanical ventilation systems present Facility M ec h a n ic a l su p p ly ? M ec h a n ic a l ex tr a ct io n ? R ec ir cu la ti o n o f in d o o r a ir ? F ra ct io n o f in d o o r a ir r e ci rc u la ti o n , b ef o re i n sp ec ti o n . S et -p o in t C O 2 i n c a se o f d em a n d c o n tr o l, b ef o re i n sp ec ti o n M a x im u m o u td o o r a ir f lo w r a te ( m a x . su p p ly o r ex tr a ct io n ) S et f lo w r a te d u ri n g e v en t Individual fitness room FC1 yes yes no - 900 ppm 9781 m³/h 9781 m³/h Cycling room FC2 yes yes no - 600 ppm 5795 m³/h 5795(1) m³/h Cross-fit room FC2 no no - - - - - Group class FC2 yes yes no - - 16661 m³/h 9697(3) m³/h B&M-room FC2(2) - - - - - - - Rope climbing room CH(4) no yes - - - 600 m³/h 600 m³/h Bouldering room CH(4) yes yes yes 35% (5) 900 (5) ppm 6944 m³/h 6944 m³/h Sports hall SH(6) yes yes yes 0% (6) (6) 34503 m³/h 34503 m³/h (1) Normal flow rate setting 3600 m³/h, but increased to maximum for test event. (2) Room equipped with mechanical ventilation, but deliberately not used for test event (3) Normal setting due to noise problems at maximum flow rate. (4) Ventilation characteristics and flow rates originally unknown to organizers (5) Outside air fraction increased to 100% and CO2 set point decreased to 200 ppm for test event to ensure maximum outside air supply. (6) The operation of ventilation systems was found to be substandard due to incorrectly connected or controlled mixing valves in air groups and dirty extraction grilles. These issues were fixed for the test event. Demand control present but switched off (permanent maximum flow rate). Knowledge about the presence, performance and operation of ventilation facilities is important for operators in order to obtain an initial indication of the maximum occupancy in the halls in order to meet the requirements of the implementation plan. It requires specific expertise to understand the operation of the often complex systems and to measure the available fresh air flow rates. In the context of the test events, it was evaluated whether it is practically feasible to roll out this type of measurement on a larger scale, and whether the fresh air flows supplied in sports halls meet the recommendations of the ventilation task force. For the inspection of the ventilation systems, the research team was supported by a HVAC engineering office and specialized inspection companies. These companies were chosen on the basis of previous collaborations giving guarantee of the necessary competence. Table 2 summarizes the results. An analysis of the installed ventilation facilities shows that there is a wide variety of sometimes complex mechanical ventilation systems. In the fitness centres, there was generally a good knowledge of the available systems; the fresh air flow rates estimated by the manager corresponded quite well with the results of the ventilation inspection organized in the context of the study. In the other sport facilities, however, the knowledge of the available systems was incomplete or incorrect, and the ventilation inspection contributed to a more correct determination of the type and operation of the mechanical ventilation facilities, of the fresh air flow rates that the systems could provide, and of deficiencies in the systems. If necessary, the company that performed the inspection made adjustments to ensure correct operation and maximum ventilation of the rooms during the test events. In the sports hall (SH), the functioning of the ventilation system turned out to be substandard due to poor maintenance and installation, and the necessary adjustments had to be made. These problems are not exceptional in mechanical ventilation systems [3]. The results of the inspection again emphasize the importance of inspection, adjustment and maintenance of ventilation systems. Many of the inspected systems were equipped with a BEMS system to set flows and controls, but in the event of technical defects in the installations, such as in the sports hall, these do not necessarily correspond to reality, and the operator should therefore not blindly rely on the display on the control panel or in the building management system. However, even when the installations worked properly, the installation quality or control settings were not always optimal for maximum air exchange (eg. FC2, CH). 4. OUTDOOR AIR FLOW RATE PER PERSON The total available air flow rate in the sports halls consists of the flow rates provided by mechanical ventilation and the natural ventilation flow rate through open windows and exterior doors. The latter flow rate was estimated conservatively on the basis of a rule of thumb described in the implementation plan of the ventilation task force. The rule of thumb of 160 m³/h per m² open window was derived using EN 15242 [4] for single sided ventilation, no wind, and a 3°C inside-outside temperature difference. With this information, the available airflow per person during the test events could be calculated, see Table 3 and Figure 2. The available flow rates per person shown are based on the effective number of participants during these events, which in most cases was significantly lower than the normal room capacity. These flow rates should be compared with the ventilation flow rate required to keep the CO2 concentration below 900 ppm. In the first version of the implementation plan of the ventilation task force, this was standard set at 40 m³/h per person. However, the amount of ventilation needed to keep the CO2 concentration below 900 ppm also depends on the nature of the physical activity being performed in a room. The more strenuous activities people perform in a room, the more CO2 (and aerosols) they produce through their respiration, so more ventilation is required. Based on the work of Persily and De Jonge [5] and Ainsworth et al. [6] ventilation needs for a number of classes of physical activity (characterized by a certain Met value) were estimated to maintain CO2 concentration difference below 500 ppm in steady state, based on mean CO2 production rate of 12.3*Met l/h/person:  Sedentary activity (1.5 Met): 37 m³/h/person  Light activity (1.8 Met): 44 m³/h/person  Moderate activity (3.0 Met): 74 m³/h/person  Heavy activity (4.1 Met): 101 m³/h/person  Very heavy activity (5.2 Met): 128 m³/h/person  Intensive activity (7.3 Met): 180 m³/h/person Many sports activities can be classified as heavy to intensive activities, but the classification depends on the average over a large number of people over a longer period of time, and can therefore only be estimated approximately. The corresponding ventilation needs for standard, heavy and intensive activities are shown in Figure 2. The comparison shows that the ventilation available at the fitness test events should be sufficient for the effective number of participants, even if all participants were constantly exerting a heavy or even intensive effort. At the rope climbing room, the available means of ventilation during the event may be insufficient if all participants continuously make a heavy effort. At the basketball tournament, the available ventilation is sufficient, since more than 90% of those present are seated audiences who do not have to make efforts. However, the correctness of these evaluations must be confirmed by the CO2 monitoring during the events. Also, at a number of events, the supply of sufficient outside air is to a large extent dependent on opening windows and doors (FC2 Crossfit and B&M, Rope Climbing CH). These conclusions only apply to the effective occupancy during the test events and, for the proportion of natural ventilation, assuming that all available windows and exterior doors are open with sufficiently favourable climate conditions during the test events. If the rooms were used at their normal capacity, the available flow rates per person would be lower. In B&M room FC2, rope climbing room CH and sports hall (SH) the flow rate per person would then probably be too low to keep the CO2 concentration below 900 ppm. Table 3: Outdoor air flow rate per occupant as a result of mechanical and natural ventilation Facility N o rm a l c a p a ci ty (m a x im u m o cc u p a n cy ) E ff ec ti v e n u m b er o f p a rt ic ip a n ts e v en t (1 ) S u rf a ce a re a o p en in g w in d o w s a n d d o o rs E st im a te d f lo w r a te b y n a tu ra l v en ti la ti o n M ec h a n ic a l fl o w r a te o f o u td o o r a ir p er p er so n N a tu ra l fl o w r a te o f o u td o o r a ir p er p er so n Individual fitness room FC1 70 61 - - 160 m³/h - Cycling room FC2 45 22 - - 263 m³/h - Cross-fit room FC2 30 18 22.5 m² 5855 m³/h - 325 m³/h Group class FC2 50 29 - - 334 m³/h - B&M-room FC2 30 18 8.8 m² 2290 m³/h - 127 m³/h Rope climbing room CH 60 35 9.6 m² 2485 m³/h 17 m³/h 71 m³/h Bouldering room CH 60 35 10.0 m² 2602 m³/h 198 m³/h 74 m³/h Sports hall SH 2400 572 (2) 57.6 m² 16419 m³/h 60 m³/h 29 m³/h (1) At some events these numbers are higher than in Table 1 because of presence of teachers, technicians and/or press. (2) 453 public + 45 basketball teams and staff + 74 logistics and press. Figure 2: Available outdoor air flow rate per person by mechanical and/or natural ventilation provisions for the effective occupancy during the different test events, with indication of minimum flow rates necessary to ensure that the CO2 concentration remains below 900 ppm. 5. MEASURED CO2 CONCENTRATIONS COMPARED TO TARGETS During the test events, CO2 measurements were carried out throughout the sports facilities, and the concentrations were permanently logged. To this end, the following measuring equipment was used:  15 Indoor@Box sensor units from Environment and Health, calibrated annually by VITO, and recalibrated after the test events. The reported values are based on the recalibration.  16 Netatmo modules from BBRI, calibrated at the end of May before the start of test events on fresh outside air (400 ppm). A number of these were also installed in secondary usage areas (changing rooms, sanitary facilities). Figure 3 summarizes the results based on the sensor units of the Environment and Health Department. BBRI's modules have similar results. The figures show resp. the average and maximum measured CO2 concentrations over the duration of the events, compared to the target value of 900 ppm (red line). The value shown by the bar is the average value over the different sensor locations in a room, the error flags show the spread over the different locations. The number of sensor units differed from room to room, ranging from 3 units (FC2 Cycling, B&M), 4 units (FC2 Cross-fit, Group class), 6 units (FC1), 7 units (CH) to 15 units (SH). The results show that the CO2 concentrations in only 4 of the 8 rooms studied remained below the target value of 900 ppm for the entire duration of the event and at all sensor locations. These are FC2 Cross-fit, FC2 Group class, FC2 B&M and SH. In FC1, the CO2 concentration of a single sensor exceeded the target value of 900 ppm, but the exceedance was minimal and limited in time, and remained within the typical measurement uncertainty of 50 ppm. These results thus confirm the previous comparison between the available ventilation per person and the ventilation needs of the participants. In FC2's Cross-fit and Group class, the air flow rate per person was the highest of all rooms (> 300 m³/h/person). In FC1 and FC2 B&M, the flow rate was sufficient for activities involving very heavy activity (≥ 128 m³/h). In the Sports Hall SH, the available flow rate per person was the lowest of all rooms (~90 m³/h/person), but sufficient for the predominantly seated participants. The monitored CO2-concentrations didn’t show a significant difference between facilities with mechanical ventilation and facilities which had to rely on opening of windows and natural driving forces to achieve ventilation (FC2 B&M, FC2 Cross-fit, CH Rope climbing). Figure 3: Average and maximum CO2 concentration over the duration of the test events; the error flags represent the spread across the different sensor locations in each room. Scale of grey grid lines is 400- 800-1200 ppm. The average CO2 concentrations in 7 of the 8 rooms examined remained well below the target value at all sensor locations. This indicates that in rooms where the maximum concentrations were higher than the guideline value in some places, the exceedance was limited in time. In one room, FC2 cycling, the target value of 900 ppm was exceeded at all sensor locations, and in one location even the alarm level of 1200 ppm. At this location, the average value is also higher than the target value. This is surprising, as this room is equipped with mechanical ventilation with a more than sufficient flow rate per person. However, the poor CO2 values are the result of a misunderstanding in the setup of the installation. The research team had asked the organizer to ensure that the ventilation would operate at maximum flow without CO2 based demand control. In response to this question, the set point of the CO2 based control was raised to 1400 ppm by the operator. As a result, the ventilation never reached the maximum flow rate during the event. This incident illustrates how sensitive the indoor air quality is to the correct operation and setting of the mechanical ventilation system, and how important it is for the manager to have good knowledge of this. In demand-driven ventilation systems where the ventilation flow rate is adjusted on the basis of the CO2 concentration measured in the extraction duct, such as in FC2 cycling and FC1, it is important to set the setpoint for regulation significantly lower than the target value of 900 ppm, preferably lower than 400 ppm to always have the maximum possible fresh air flow. This is necessary to avoid excessive concentrations due to a delayed reaction of the system. This probably explains why even in FC1, despite the generously dimensioned ventilation system, the CO2 concentration in one place in the fitness room slightly exceeded 900 ppm; the demand control was set to this value. With regard to the climbing rooms: for the rope climbing room it was expected that it would be difficult to limit the CO2 concentration sufficiently due to the limited available flow per person (~90 m³/h/person, mainly by opening the room doors) . Here, the target value of 900 ppm was exceeded in a few locations, especially higher in the room. For the bouldering room, where a large flow rate per person was available, the exceedances of 900 ppm are probably the result of an insufficient distribution and mixing of the supplied outside air. As a result, it is possible that despite the presence of a mechanical ventilation system with sufficient capacity, the pollutants in the zone where the participants were active were insufficiently diluted. Finally, the test events showed that problems can arise due to inadequate ventilation of secondary areas, such as sanitary facilities and changing rooms, especially when large groups of people gather. The highest CO2 concentrations were not measured in the sports halls, where the organizers took measures when they observed that the concentrations rose too high, but in the sanitary areas and changing rooms, more specifically those of the Sports Hall SH. Concentrations up to 1500 ppm were measured here by the BBRI. Despite the generally short residence time in these types of rooms, these high concentrations could have entailed risks, also depending on the use of mouth masks. 6. ESTIMATION OF FLOW RATES BASED ON CO2 MEASUREMENTS The implementation plan of the ventilation task force provides a method for estimating the mechanical ventilation flow rate based on the measured CO2 concentrations. One of the objectives of the test events was to test this procedure. An important condition for the application of this procedure is that the CO2 concentration has reached a steady state, a value that remains more or less constant. During the test events, this was only the case in 4 facilities: FC1, FC2 Cycling, FC2 Group class and SH. In the other rooms, the opening of external doors was used to limit the CO2 concentration, so that the concentrations in those rooms continued to vary greatly and no stationary regime occurred. The first-mentioned rooms all have a short time constant (ratio between volume and ventilation flow) in relation to the duration of the event, which makes it logical that a stationary regime was reached during the event. This requires a time of 3 times the time constant. The time constants were resp. 7, 4, 8 and 45 minutes for FC1, FC2 Cycling, FC2 Group class and SH. The following formula allows to derive the flow rate from the measured concentration: (m³/h/person) (1) With Qvent the ventilation flow rate per person, M the average metabolism of the participants, Ci,stat the stationary CO2 concentration inside (ppm) and Ce the CO2 concentration outside (ppm). The maximum measured concentration averaged over all sensor locations was considered as the stationary CO2 concentration indoors. The CO2 concentration outside is typically taken as 400 ppm, but the measurements during the test events showed it to be generally higher. Therefore a value of 450 ppm was assumed, and the sensitivity of this assumption was checked. A determining parameter in the formula is the value of the participants' average metabolism. For this the activity classes and corresponding metabolisms listed in §4 were used:  FC1, average of 82% participants with very heavy activity and 18% participants light activity (press): 4.6 Met  FC2 cycling, intensive activity: 7.3 Met  FC2 Group class, very heavy activity: 5.2 Met  SH, average of 98% sedentary participants and 2% intensive activity: 1.6 Met Figure 4 shows the result of the calculation, and compares the mechanical ventilation flow rates measured during the inspection with the ventilation flow rates derived from the CO2 measurements. In the latter, the error flags indicate how the calculated flow rate varies with the assumed CO2 concentration outside (lower error flag 400 ppm, upper error flag 500 ppm). Except for FC2 Cycling, for which it has already been shown that the system has not worked at full capacity, the estimated flow rates appear to correspond reasonably well with the values measured during the inspection, albeit with a large margin of uncertainty. Even though the procedure can only be applied to a limited extent in practice due to the condition of a stationary regime, if the conditions are met, the method does allow the determination of incorrect functioning of ventilation systems, cf. the result for FC2 cycling. The comparison also shows that the estimation of the metabolism based on activity classes leads to a fairly reliable estimate of the CO2 emissions and ventilation needs in sports facilities. Figure 4: Comparison between mechanical flow rates measured during the inspections, and estimated from CO2 measurements and estimated average Met value; the error flags show the sensitivity of the estimated flow rate to the assumed outdoor CO2 concentration (bar 450 ppm, lower error flag 400 ppm, upper error flag 500 ppm). 7. CONCLUSIONS This paper presented the results of ventilation inspections, CO2 monitoring and subsequent analysis during a series of test events organised in sports facilities in June 2021, with the objective to evaluate the feasibility of recommendations for the practical implementation and monitoring of indoor air quality in the context of COVID-19, developed by the Belgian task force ventilation. At two sports facilities, there was good knowledge about the available systems, and the fresh air flow rates estimated by the manager corresponded with the results of the ventilation inspection organized in the context of the study. At two other facilities however, knowledge of the available systems was incomplete, and the ventilation inspection revealed problems with the installation, maintenance or operation. Remedial measures needed to be taken to maximize the fresh air flow rates that the systems could provide. In sports facilities ventilation flow rates need to be increased compared to standard design flow rates to take account of higher effort during exercise, with a larger CO2 (and aerosol) production rate by athletes. Ventilation rates for a range of classes of physical activity were proposed. The comparison between directly measured ventilation flow rates, and flow rates estimated from measured CO2 concentrations during the events showed that the estimation of the metabolism based on activity classes leads to a fairly reliable estimate of the CO2 emissions and ventilation needs in sports facilities. Based on the above findings, the following recommendations for sports infrastructure managers were formulated to ensure good ventilation:  Invest in a ventilation inspection that calls on an expert to inspect the operation and flow rates of mechanical ventilation systems, to detect and repair problems, to maintain and adjust systems.  When designing ventilation for a given occupancy, take into account the activity level of the athletes in order to safely estimate the necessary fresh airflow rate per person. In some sport halls it turned out that the maximum occupancy had to be kept considerably lower compared to the normal hall capacity in order to keep the CO2 concentrations under control.  Because of uncertainties in CO2 production and good mixing of fresh air in sports halls, it remains important to monitor the concentrations at representative locations, even when ventilation systems are present, so that timely action can be taken, for example by improving the functioning of the system or by opening windows and doors.  In rooms without a mechanical ventilation system, the flow rates provided by opening windows and doors can be estimated based on rules of thumb from the recommendations of the ventilation task force. The test events showed that these rules of thumb are on the safe side.  In rooms with a small time constant in relation to the duration of occupancy, monitoring the CO2 concentration makes it possible to derive the effective fresh air flow rate per person, and to estimate the maximum occupancy that can be allowed.  Also pay attention to the good ventilation of secondary areas (sanitary, changing rooms), where the highest CO2 concentrations were measured during the test events in one of the locations. Despite the generally short residence time in these types of rooms, these high concentrations can pose risks. Acknowledgements The scientific partners of the test events sport ventilation were financially supported by the Flemish Sport Federation VSF, Sport Vlaanderen and the Flemish Ministry of Sports. Ventilation inspections have been supervised by Nicolas Gotelaere of Boydens Engineering in collaboration with inspection companies Beltherm and AirX. The IAQ measurements have been technically supported by Christophe Delmotte and Arnaud Deneyer of BBRI. All support is gratefully acknowledged. References 1. Taskforce Ventilatie. (2021). Aanbevelingen voor de praktische implementatie en bewaking van ventilatie en binnenluchtkwaliteit in het kader van COVID-19 (Recommendations for the practical implementation and monitoring of ventilation and indoor air quality in the context of COVID-19, in Dutch), Belgian Federal Public Service Employment, Labor and Social consultation, 55 p., https://werk.belgie.be/nl/nieuws/aanbevelingen-voor-de-praktische-implementatie-en-bewaking-van- ventilatie-en 2. REHVA. (2021). REHVA COVID19 Guidance, version 4.1. How to operate HVAC and other building service systems to prevent the spread of the coronavirus (SARS-CoV-2) disease (COVID-19) in workplaces. 41 p. 3. Janssens, A., Decorte, Y., Durier, F., & Wouters, P. (2022). Analysis of potential impacts of policy options for inspections of stand-alone ventilation systems in EU dwellings. Indoor Environmental Quality Performance Approaches Transitioning from IAQ to IEQ, Proceedings. ASHRAE AIVC IAQ 2020- conference, Athens, Greece, paper 2-C40, 9 p. 4. EN 15242. (2007) Ventilation for buildings - Calculation methods for the determination of air flow rates in buildings including infiltration, CEN. 5. Persily, A. & De Jonge L. (2017). Carbon dioxide generation rates for building occupants. Indoor Air, 27:868-879. 6. Ainsworth B.E. et al. (2011). 2011 Compendium of physical activities: a second update of codes and MET values. Official Journal of the American College of Sports Medicine, 1575-1581. DESEMPEÑO TÉRMICO DE LA VIVIENDA SOCIAL POR NIVELES SEGÚN EL CAMBIO CLIMÁTICO Manuela Murillo Galvis1, Juan Sebastián Calle Medina2, Santiago Jaramillo Betancourt3, María Alejandra Garavito Posada4, Elizabeth Parra Correa5 (1) Estudiante de Maestría en Bioclimática, Universidad de San Buenaventura sede Medellín, Colombia. Facultad de Artes integradas, Centro de Formación Avanzada Fray Juan Duns Scoto OFM.: Carrera 82C N° 30A-120 C.C. Los Molinos, Torre Ejecutiva, Piso 20, (2) Estudiante de Maestría en Bioclimática, Universidad de San Buenaventura sede Medellín, Colombia. Facultad de Artes integradas, Centro de Formación Avanzada Fray Juan Duns Scoto OFM.: Carrera 82C N° 30A-120 C.C. Los Molinos, Torre Ejecutiva, Piso 20, (3) Estudiante de Maestría en Bioclimática, Universidad de San Buenaventura sede Medellín, Facultad de Artes integradas, Centro de Formación Avanzada Fray Juan Duns Scoto OFM.: Carrera 82C N° 30A-120 C.C. Los Molinos, Torre Ejecutiva, Piso 20, (4) Estudiante de Maestría en Bioclimática, Universidad de San Buenaventura sede Medellín, Colombia. Facultad de Artes integradas, Centro de Formación Avanzada Fray Juan Duns Scoto OFM.: Carrera 82C N° 30A-120 C.C. Los Molinos, Torre Ejecutiva, Piso 20, (5) Docente de Arquitectura, Universidad de San Buenaventura Medellín, Facultad de Artes Integradas, Calle 45 N° 61-40 Barrio Salento, Bello, Colombia. 1email: manuela.murillo@tau.usbmed.edu.co RESUMEN En la construcción de viviendas de interés social (VIS) en Colombia, se han desarrollado tipologías de apartamentos estándar, que redunden en mayor eficiencia constructiva y económica, y no difieren en su diseño según la altura en el edificio. Esta contribución evalúa el desempeño térmico de una tipología VIS replicada en diferentes niveles del proyecto ubicado en Bello, Antioquia, con clima promedio anual de 20.7ºC-23.8ºC y se proyecta su comportamiento en escenarios de cambio climático, con el fin de validar en el tiempo el impacto de estos proyectos. Para ello, se realizaron mediciones exteriores en el estudio de caso, se compararon con el archivo climático de la zona y se realizaron mediciones al interior, para contrastarlas con un modelo en el software RHINO 3D. A través del plugin de Grasshoppper, se hicieron análisis en los años 2050 y 2080. Entre los principales hallazgos, se observó que, el caso base cuenta con el 74% del tiempo en la zona de confort 90 y el 24% en disconfort por situación de frio, teniendo 67% del tiempo en la zona de confort si esta vivienda se ubica en el último nivel. En los escenarios futuros, en el año 2080, el tiempo en confort se incrementa en el caso base hasta 94% y en la vivienda en el último nivel disminuye hasta 56%. Es importante considerar los resultados que presentan dichas viviendas en su interior, para trazar rutas y acciones que permitan mejorar el desempeño de los proyectos localizados en distintos climas. PALABRAS CLAVES: Desempeño térmico, Vivienda de Interés Social, Tipología, Niveles, Cambio Climático. THERMAL PERFORMANCE ANALYSIS IN SOCIAL HOUSING TYPOLOGY IN DIFFERENT LEVELS OF THE SAME TOWER IN A CLIMATE CHANGE SCENARIOS ABSTRACT In the construction of social housing (VIS) in Colombia, similar typologies of apartments have been developed, which result in greater construction and economic efficiency, but the architectural design of the dwelling is indifferent to its location in the building. This contribution evaluates the thermal performance of a VIS typology replicated at different levels of the construction project, located in Bello, Antioquia, with an average annual climate of 20.7ºC-23.8ºC, projecting the behavior in climate change scenarios, to validate in time, the impact for this kind of projects. For this, exterior measurements were made in the case study, they were compared with the climatic file of the area and measurements were made inside, to contrast them with a model in the RHINO 3D software. Through the Grasshoppper plugin, analyzes were carried out for the years 2050 and 2080. Among the main findings, it was observed that the base case has 74% of the time in the comfort zone 90 and 24% in discomfort due to situations of low temperature, but if this dwelling is located on the last level only 67% of the time is in the comfort zone. In future scenarios such as 2080, the time in comfort increases in the base case up to 94% and in the dwelling in the last level it decreases up to 56%. It is important to consider the results that these houses present inside, to trace routes and actions that improve the thermal performance of construction projects located in different climatic zones. KEYWORDS: Thermal performance, Social housing, Typology, Levels, Climate Change. 1. INTRODUCCIÓN El confort térmico de una vivienda tiene gran influencia en el bienestar de los ocupantes de acuerdo con la calidad ambiental interior, existen vínculos establecidos entre la exposición a temperaturas interiores bajas o altas con afectaciones en la salud y el bienestar, teniendo como alerta principal el aumento de temperatura debido al cambio climático. Estas variaciones del clima producidas por la influencia humana han tenido un ritmo sin precedente, según el Panel Intergubernamental sobre el Cambio Climático (IPCC), el calentamiento global probablemente alcanzará los 1,5 °C entre 2030 y 2052, poniendo a las comunidades vulnerables en un riesgo desproporcionadamente mayor de sufrir consecuencias adversas relacionadas con el clima. En el más reciente Reporte sobre cambio climático – AR6, se llama la atención sobre la necesidad de extremar medidas para garantizar un aumento de la temperatura por debajo de 1.5°C. Para esto sería necesario reducir de manera inmediata las emisiones de gases efecto invernadero [1]. De acuerdo con esto, se generan cuestionamientos que invitan a la revisión de las condiciones de vulnerabilidad de las viviendas que se puedan presentar tanto en el diseño de nuevas edificaciones como en la habitabilidad de las edificaciones existentes en contextos de cambio climático, principalmente mediante estrategias pasivas para evitar el aumento de consumo de energía por refrigeración y la emisión de gases invernadero. En el caso específico de las viviendas de interés social en Colombia, se han basado principalmente en la estandarización para responder a la alta demanda de vivienda, esto también debido a los limites económicos que esta tipología presenta. En Colombia según la Guía No 2 de Asistencia Técnica para Vivienda de Interés Social, del Ministerio de Ambiente, Vivienda y Desarrollo Territorial, se requiere que toda construcción cuente con materiales apropiados que garanticen el confort de los habitantes, al igual que un adecuado desempeño térmico, acústico y lumínico [2]. Al priorizar la construcción de este tipo de viviendas sólo en el aspecto de la masificación, se deja de lado las necesidades de confort climático que el usuario pueda llegar a tener, y con el tiempo es posible que la vivienda no sea sostenible para las personas [3]. En América Latina los proyectos de Vivienda de Interés Social, en la última década, se han concentrado en resolver una problemática relacionada más con el aspecto de cantidad, que, con aspectos de calidad de la vivienda, y por tanto el diseño arquitectónico ha quedado relegado a un segundo plano [4] generando que las viviendas tengan un diseño similar sin diferencias de acuerdo con el lugar de implantación y las implicaciones ambientales que derivan del contexto. Al seleccionar los materiales a utilizar en su construcción y/o en los acabados, se priorizan las variables de tipo económico, que las variables que pueden tener una gran influencia como el nivel de implantación o el análisis del piso térmico. En lo que respecta a la normativa para las construcciones de viviendas sostenibles en Colombia, está la Resolución 0549 de 2015 que busca, a partir de incentivos económicos, que en las nuevas edificaciones se generen estrategias pasivas y activas para el ahorro de agua y energía. [5]. Esta norma adopta como clasificación climática de Colombia, la Tipo Caldas, una de las utilizadas por el Instituto de Hidrología, Meteorología y Estudios Ambientales – IDEAM que se basa en el factor térmico, es decir que, que hay una variación en la temperatura de un lugar de acuerdo con la altitud de este, por lo cual se establecen unos tipos de pisos térmicos: cálido, templado, frío, muy frío, y extremadamente frío [6]. Dentro de las edificaciones que acoge la resolución, se encuentran las Viviendas de Interés Social - VIS las cuales deberán lograr como porcentajes mínimos de ahorro (optativo) los siguientes: en clima frío, en clima cálido seco y en clima cálido húmedo el 20%; en clima templado el 15%. En la Hoja de Ruta Nacional de Edificaciones Neto Cero Carbono, en las edificaciones existentes las acciones nacionales de política para lograr las metas están encaminadas en incluir requerimientos desde la regulación para que se realicen auditorías energéticas periódicas, promover certificaciones que tengan un concepto de neto cero carbono operacional para edificaciones existentes, desarrollar códigos de eficiencia energética para las remodelaciones, entre otras, como el desarrollo de acciones nacionales de tecnologías y capacidades para lograr las metas, sin embargo, la especificación de la diferenciación en el diseño de las tipologías de edificaciones según el nivel de ubicación en altura y la relación con contexto deber ser expuesta como estrategia para contrarrestar los efectos del cambio climático y el aumento de temperatura, además de reducir el consumo energético por refrigeración en las tipologías en las que se podría presentar un aumento de temperatura considerable [7] según el escenario más crítico del sexto reporte del IPCC se podría tener un aumento en la temperatura promedio de hasta 4 grados sin alcanzar un pico de crecimiento en 2100 con tendencias en aumento, lo que modificaría drásticamente las condiciones de habitabilidad actuales.[8] Con la diferenciación en el diseño de las tipologías de edificaciones según el nivel de ubicación en altura, los elementos que reciben mayores ganancias térmicas en climas tropicales, siendo una de ellas las cubiertas que reciben cuatro veces más que las paredes, teniendo esto en cuenta para aplicar estrategias.[9]. De acuerdo con esto, el objetivo es evaluar las consecuencias de las dinámicas actuales de construcción en altura de la vivienda de interés social, teniendo un alto desarrollo de estas tipologías de viviendas en las ciudades en expansión y urbanización masiva, donde no hay diferenciación en el diseño de la tipología de vivienda, sino que esta es replicada, y a pesar de que los apartamentos se construyen sin diferenciación con respecto a la altura y el nivel de localización, se quiere tener conocimiento del desempeño térmico y el confort en cada una de las viviendas para identificar el nivel de vulnerabilidad al cambio climático y a la posibilidad de estar más tiempo en confort según el modelo adaptativo. Es necesario minimizar los efectos del cambio climático en los ocupantes de ambientes interiores, principalmente en entornos con un crecimiento acelerado como son las ciudades suramericanas en donde los habitantes sufren malestar térmico en las viviendas, lo que se relaciona con el aumento de temperatura por islas de calor [10]. Esto permite adicionalmente la construcción de estrategias y herramientas de diseño a incorporar en los proyectos, que permitan identificar los puntos diferenciadores según el nivel de intervención en altura y la identificación del contexto medioambiental como factor determinante de la sostenibilidad en el tiempo de las viviendas y de adaptación al cambio climático. Es importante resaltar que los materiales deben contar con propiedades térmicas apropiadas al clima y al modelo de la edificación, para lograr un buen desempeño o confort térmico, evaluar la materialidad actual de las construcciones que no difiere generalmente del lugar o el nivel de altura de implantación de la vivienda puede llegar a ser un determinante y un camino para seguir para investigaciones futuras. El grupo de investigación de la Universidad EIA analizaron varias viviendas en el Valle de Aburrá, evidenciando que presentaban una inercia térmica baja, con fluctuaciones en la temperatura interna en las diferentes horas del día. La gran mayoría del tiempo, la temperatura se mantuvo por debajo del intervalo de confort [11]. Teniendo como premisa que según el microclima las viviendas pueden en situación actual de frío que con el cambio climático y el aumento de temperatura la situación térmica y de confort varíe en beneficio del confort. Sin embargo, se debe contar con las herramientas y conocimiento necesarias que permitan la sostenibilidad del confort en el tiempo. Se evalúa un conjunto residencial en el municipio de Bello, Antioquia, que permite la identificación de una tipología de vivienda de interés social que aplica la misma tipología con diferentes orientaciones en el proyecto y permite su análisis en el desempeño térmico resultantes en desde los diferentes niveles de ubicación. También es representativa la ubicación del proyecto por la similitud de conjuntos residenciales asentados en la montaña, debido a la topografía en la ciudad y por la construcción masiva de vivienda de interés social (VIS). Para evaluar su comportamiento en el tiempo con el cambio climático. Para el caso de estudio se tomó el proyecto Colina de los búcaros, ubicado en el municipio de Bello, Antioquia, Colombia. Este lugar tiene un clima templado cálido durante todo el año, en el que la temperatura promedio varía entre 20.7ºC y 23.8ºC. El conjunto residencial cuenta con torres de 21 niveles de altura y con una tipología de apartamentos replicada en diferentes orientaciones distribuidos en los diferentes niveles. Los apartamentos tienen la posibilidad de ser ventilados naturalmente de forma permanente y en los momentos de preferencia de los habitantes. Se quiere analizar la influencia de la ubicación en altura de la misma tipología de vivienda en escenarios de cambio climático. En la presente investigación se tomó como casos de estudio los apartamentos ubicados en el piso 1 nivel 0.0m, el apartamento del nivel intermedio ubicado en el piso 16 nivel 48m de altura y el apartamento ubicado en piso 21 correspondiente al último piso y nivel 63m de altura. El piso 16 de la torre de viviendas fue el escenario base en el que se realizaron las mediciones en sitio por medio de la instalación de sensores. El proyecto no cuenta con un contexto de gran altura cercano y la construcción es reciente, los habitantes contaban con dos semanas de habitar el apartamento, aspecto a considerar por el estado de los materiales. Los habitantes de las viviendas son tres personas en edad adulta, una de ellas es adulta mayor y es quien permanece mayor cantidad de tiempo en el espacio, se aplica la encuesta de satisfacción con el ambiente térmico. La fachada principal de los apartamentos evaluados tiene una orientación noreste, teniendo una orientación privilegiada ya que no tiene radiación solar directa especialmente en las horas de la tarde. Figura 1: Niveles de apartamentos evaluados Tabla 1: Materialidad del proyecto. 2. METODOLOGÍA La metodología implementada es de tipo cuantitativo y se basa principalmente en simulaciones computacionales y análisis de datos, tiene un enfoque prospectivo con respecto al análisis en el tiempo. Por medio de mediciones en sitio se hizo un acercamiento a la temperatura específica del lugar para tener conocimiento de microclima según la ubicación del apartamento haciendo una valoración de los resultados de temperatura en el año actual 2022 y en los años 2050 y 2080 como escenarios futuros, para evaluar la variación del desempeño térmico y tiempo en confort de acuerdo con el cambio climático. Levantamiento arquitectónico Se realizó un levantamiento arquitectónico de la vivienda ubicada en el piso 16 como vivienda base, se tomaron las dimensiones en planta, sección y cubierta necesarias para construir el modelo digital tridimensional. En el levantamiento arquitectónico se identificaron las propiedades térmicas de los materiales, el área de aberturas y el tipo de cerramiento de estas, se identificaron adicionalmente, los sistemas constructivos del espacio con los espesores y las rutinas de ocupación del espacio que se incorporaron como insumo de la composición real de las viviendas en el modelo. Mediciones en sitio Se hicieron mediciones de tipo continuo, los equipos midieron en la vivienda durante 2 semanas, del 5 de marzo hasta el 16 de marzo. Los sensores se dispusieron en los espacios interiores más usados en las horas Estructura Fachadas Interior Piso Puerta Ventanas Materialidad del proyecto Muros en concreto y losas nervadas Ladrillo a la vista 12*24*33, ladrillo con revoque y pintura Ladrillo a la vista 12*24*33, ladrillo con revoque y pintura Porcelanato imitación madera 90*40 Puerta de acceso metálica blanca calibre 22 Perfiles de aluminio natural con vidrio claro del día la vivienda. El sensor termohigrómetro HOBO identificado en la figura 2 como el número 3, ubicado en la alcoba 3, permitió registrar la temperatura (°C) y la humedad relativa (%) con mediciones cada hora, ubicado a una altura de 1.70m del suelo. El termohigrómetro HOBO número 2, se le incorporó una termocupla para registrar la temperatura radiante y evaluar la transferencia de calor por radiación de las superficies adicional a las mediciones de temperatura (°C) y humedad relativa (%), este se ubicó en la sala- comedor a una altura de 1.70m con el registro de datos recolectados cada hora. El termohigrómetro de exterior HOBO se ubicó en el balcón para obtener resultados de las condiciones de microclima específicas del apartamento, ubicado a 2.20m de altura, con registros cada hora de temperatura (°C) y humedad relativa (%). Figura 2: Ubicación sensores en la vivienda Construcción del modelo y parámetros de simulación Con base en el levantamiento arquitectónico realizado y las mediciones en sitio, se construyó el modelo computacional en el software Rhino y las simulaciones de desempeño térmico se realizaron en el plugin Grasshopper. Esta herramienta permite especificar el uso, la materialidad, las cargas de equipos y las diferentes rutinas de utilización del espacio como operación de las ventanas, entre otros. El programa permitió incorporar las rutinas y cargas del modelo con especificación de los diferentes niveles evaluados para la puesta en paralelo del desempeño térmico de los mismos. Figura 3: Modelo torre residencial software Rhino 1 1 16 21 A continuación en la tabla 2, se describen los parámetros ingresados al modelo de acuerdo con el escenario base en cada uno de los niveles evaluados de la tipología. Tabla 2: Configuración caso base simulación en los diferentes niveles Rutinas Para el análisis y la implementación de las rutinas en el software se determinaron las mismas rutinas para los tres apartamentos para que fueran comparables entre sí y determinar si estas contaban con las mismas condiciones de desempeño térmico. Tabla 3: Rutinas en la vivienda Descripción Apartamento piso intermedio Tipo de edificacion Vivienda/ piso 16 Orientacion de la fachada principal Noroeste Losa entrepiso 150 mm en concreto, densidad 2400 kg/m3 conductividad de 2 W/m-K Calor específico 950 J/kg-K, rugosidad media Muros Ladrillo de 12cm densidad 1920 kg/m3 conductividad de 0,89 W/m-K Valor U: 6.14, rugosidad media, más estuco de 2cm. Vidrio claro, Valor U: 5.7 W/m2-K, SHGC 0.88 Perfiles de aluminio natural con vidrio claro. Fachada principal Descripción Apartamento último piso Tipo de edificacion Vivienda/ piso 21 Orientacion de la fachada principal Noroeste Losa entrepiso 150 mm en concreto, densidad 2400 kg/m3 conductividad de 2 W/m-K Calor específico 950 J/kg-K, rugosidad media Muros Ladrillo de 12cm densidad 1920 kg/m3 conductividad de 0,89 W/m-K Valor U: 6.14, rugosidad media, más estuco de 2cm. Vidrio claro, Valor U: 5.7 W/m2-K, SHGC 0.88 Perfiles de aluminio natural con vidrio claro. Losa cubierta 200 mm en concreto, densidad 2400 kg/m3 conductividad de 2 W/m-K Calor específico 950 J/kg-K, rugosidad media. Fachada principal Hora 6:00 7:00 8:00 9:00 10:00 11:00 12:00 13:00 14:00 15:00 16:00 17:00 Ocupación 100% 100% 33% 33% 33% 33% 33% 33% 33% 33% 33% 33% Equipos 50% 50% 50% 0% 0% 0% 75% 75% 0% 33% 33% 33% Iluminación 50% 50% 50% 0% 0% 0% 0% 0% 0% 0% 0% 0% Operación de ventanas 0% 0% 50% 100% 100% 100% 100% 100% 100% 100% 100% 100% Hora 18:00 19:00 20:00 21:00 22:00 23:00 0:00 1:00 2:00 3:00 4:00 5:00 Ocupación 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% 100% Equipos 33% 75% 75% 75% 75% 0% 0% 0% 0% 0% 0% 0% Iluminación 75% 75% 75% 75% 75% 0% 0% 0% 0% 0% 0% 33% Operación de ventanas 100% 75% 20% 20% 20% 0% 0% 0% 0% 0% 0% 0% Rutinas Apartamento Rutinas Apartamento Calibración del modelo Para la construcción del modelo del aula en el software se utilizaron los datos obtenidos de las mediciones realizadas en sitio, los resultados de las mediciones del sensor exterior se compararon con el archivo climático, con el fin de analizar si éste se acoplaba a la temperatura real del espacio según el microclima y el contexto. Los resultados de las mediciones interiores se compararon con los resultados de las simulaciones, para evaluar si las propiedades térmicas y rutinas cargadas en el modelo permitían un acercamiento al desempeño térmico real del espacio. Los diferentes niveles se evaluaron de acuerdo con las mediciones en sitio del nivel intermedio y las rutinas, cambiando las especificaciones de los materiales según los elementos implicados como el suelo y la cubierta, y el nivel de altura en el que se encontraban. Escenarios evaluados Con el fin de validar el desempeño térmico de los apartamentos ubicados en diferentes niveles del proyecto de acuerdo con el cambio climático, se estableció para los tres niveles un escenario base, con el análisis del desempeño térmico en el año actual 2022, analizando las diferentes características y los resultados de la tipología de vivienda según la altura en la que se encuentra ubicada, siendo el primer nivel en contacto con el terreno, el nivel intermedio ubicado en el piso 16 y el último nivel de cubierta del proyecto ubicado en el piso 21. El escenario dos para los tres niveles, fue la evaluación del desempeño térmico y zona de confort en el 2050 con el aumento de temperatura para dicho año, y como escenario final, el número 3, se evaluó el desempeño térmico en el año 2080. Estos resultados fueron puestos en paralelo en primer lugar según la zona evaluada en la vivienda, siendo la habitación o la sala, y posterior a esto, una comparación de los resultados según el desempeño térmico de los diferentes niveles. Modelo de confort En una fase posterior de análisis los resultados fueron evaluados bajo el modelo de confort adaptativo estipulado en el estándar ASHRAE 55. El modelo adaptativo se basa en la temperatura promedio exterior, en este caso se implementaron los datos de temperatura extraídos del archivo climático de Ruta N correspondiente a la ciudad de Medellín, analizando previamente en la etapa de calibración del modelo la correspondencia con las mediciones en sitio de los resultados de los sensores y el resultado de las simulaciones. Este modelo aplica exclusivamente para espacios ventilados naturalmente. La zona de confort adaptativo se calcula con la siguiente ecuación (1): Tc = 17,8 + (0,31 * Tm) (1) Tc representa la temperatura de confort y Tm representa la temperatura media exterior del lugar. Este modelo considera que los seres humanos son capaces de adaptarse al entorno que habitan. Se calcula los rangos de confort para la zona de confort 90% de aceptabilidad y el 80% de aceptabilidad, estas se calcularon con las siguientes fórmulas (2)-(3): 90% = Zc = Tc ± 2,5 °C (2) 80% = Zc = Tc ± 3,5 °C (3) El cálculo de la zona de confort, por medio del confort adaptativo, se realizó con la premisa de la adaptación del ser humano al incremento de temperatura y a los cambios climatológicos, teniendo el cálculo del promedio de temperatura anual con los resultados obtenidos en cada año, sin embargo, el debate se encuentra abierto, se piensa que esta adaptación llegará hasta un punto, y no será posible adaptarse más al aumento de temperatura desenfrenado. También se debe considerar los límites de temperatura que plantea la norma entre 10°C y 33,5° de adaptación a la temperatura, se analizó si en alguno de los años evaluados esta temperatura era superada. Análisis de resultados El análisis de los resultados obtenidos de las simulaciones se realizó por medio de diagramas de cajas y bigotes, estos permiten visualizar el desempeño térmico del espacio en distintos escenarios e identificar los datos extremos y que tan estables se encuentran en el periodo de tiempo evaluado. 3. RESULTADOS Y ANÁLISIS En el registro del sensor interior ubicado en la sala, se identifica gran similitud en comparación con la simulación en el caso base. El tiempo graficado y simulado son los días correspondientes a la medición, del día 5 al 16 de marzo del 2022. Se identifica el espacio de la habitación como un buen espacio de análisis de resultados por la similitud con la simulación lograda. En la figura 5 de las gráficas relacionamiento se comparan el resultado de temperatura del sensor ubicado en la sala con el resultado de la simulación del caso base con el archivo climático, igualmente, en la figura 4 se observan las comparaciones de los resultados de la simulación con las mediciones, se logra identificar la similitud que posibilita el uso para su evaluación en el año 2050 y 2080. Figura 4: Relación temperatura habitación Figura 5: Relación temperatura sala Zona de confort En los resultados de temperatura por simulaciones se utiliza el confort adaptativo de ASHRAE-55-2010 para determinar el porcentaje en confort en los distintos espacios simulados. Tabla 4: Rango de confort diferentes años El cálculo de la zona de confort, por medio del confort adaptativo, se realizó con la premisa de la adaptación del ser humano al incremento de temperatura y a los cambios climatológicos, teniendo el cálculo del promedio de temperatura anual con los resultados obtenidos en cada año, sin embargo, el debate se encuentra abierto, se piensa que esta adaptación llegará hasta un punto, y no será posible adaptarse más al aumento de temperatura desenfrenado. 20 21 22 23 24 25 26 27 28 29 30 20 21 22 23 24 25 26 27 28 29 30T e m p e ra tu ra a rc h iv o c li m át ic o ( E P W ) Temperatura sensor exterior (c ) Relación temperatura sensor EXT/EPW 20 21 22 23 24 25 26 27 28 20 21 22 23 24 25 26 27 28 29 30 T e m p e ra tu ra a rc h iv o c li m át ic o ( E P W ) Temperatura sensor exteriorn (C ) Relación temperatura sensor EXT/EPW Promedio anual Confort 80+ 28,5 Confort 90+ 27,5 Confort 25,0 Confort 90- 22,5 Confort 80- 21,5 Confort actual 23,26 Temperatura simulación habitación Temperatura sensor habitación Temperatura simulación sala Temperatura sensor sala Promedio anual Confort 80+ 29,1 Confort 90+ 28,1 Confort 25,6 Confort 90- 23,1 Confort 80- 22,1 Confort 2050 25,07 Promedio anual Confort 80+ 29,3 Confort 90+ 28,3 Confort 25,8 Confort 90- 23,3 Confort 80- 22,3 25,72 Confort 2080 Figura 6: Apartamento primer piso Figura 7: Apartamento piso intermedio Figura 8: Apartamento último piso Figura 9: Comparativo porcentaje de horas en confort 90% En los espacios de la sala y la habitación las distintas tipologías de apartamentos tienen los mismos comportamientos térmicos en las proyecciones de cambio climático. En la vivienda de primer piso se observa que en la situación actual presenta bajos niveles de confort, esto debido a la cantidad de horas que se encuentra por debajo del rango de temperatura de zona de confort, en los años posteriores analizados se evidencia una tendencia que apunta hacia una mejoría en el tiempo en confort por el aumento de la temperatura. En la vivienda ubicada en el piso intermedio de la edificación se puede ver que entre el periodo actual y el escenario de cambio climático 2050 existe una considerable mejoría en el tiempo de confort y en el periodo entre el 2050 y 2080 a pesar de que existe un aumento en la cantidad de horas en confort es mucho menor al periodo anterior, esto se evidencia principalmente en el espacio de la sala. El escenario que presenta un comportamiento negativo frente al tiempo en confort con las variaciones a lo largo de los años por cambio climático es el apartamento ubicado en el último nivel, los resultados muestran que los espacios de la vivienda actualmente se encuentran gran cantidad del tiempo en zona de confort; sin embargo, en el primer periodo hasta el 2050 el tiempo en confort presenta variaciones mínimas, incluso en la habitación existe un aumento del porcentaje en confort, mientras que en para el año 2080 ambos espacios analizados presentan una notoria disminución. 4. CONCLUSIONES A partir del análisis de los resultados se puede afirmar que a pesar de que los apartamentos estén ubicados en el mismo edificio el desempeño térmico de cada uno es muy diferente y el comportamiento en escenarios de cambio climático es variable, por lo que es necesario revisar las tipologías de forma independiente para tener una mayor precisión de las condiciones de habitabilidad de los apartamentos tanto actualmente como en condiciones de cambio climático. Los escenarios analizados están ubicados en una misma orientación, por lo cual se generan inquietudes con respecto al desempeño térmico de las viviendas en diferentes orientaciones con mayor exposición directa al sol principalmente en las horas de la tarde lo que podría generar disconfort térmico por aumento de calor en la situación actual y en años posteriores. Esta misma tipología de vivienda es también construida en diferentes zonas térmicas en el país sin tener en cuenta la correspondencia del diseño con las condiciones climatológicas del entorno, poniendo en cuestionamiento si los apartamentos permiten alcanzar temperaturas de confort para los habitantes actualmente y en años posteriores con el cambio climático. Con respecto a las consecuencias de la réplica en las tipologías se quiere también plantear un camino para la evaluación de las estrategias bioclimáticas adecuadas a cada nivel de altura en el que se ubique la vivienda, que permitan identificar cuáles deben ser los parámetros de diseño y de especificaciones técnicas según el contexto y el nivel de ubicación que permitan adaptaciones al cambio climático. REFERENCIAS 1. IPCC AR6 WG I. “La base de la ciencia científica. Summary for Policymakers”. 2021.[en línea] [ref. 4 de mayo de 2022] Disponible en Web: https://www.ipcc.ch/report/ar6/wg1/downloads/report/IPCC_AR6_WGI_SPM.pdf 2. MINISTERIO DE AMBIENTE, VIVIENDA Y DESARROLLO TERRITORIAL. Los materiales en la construcción de vivienda de interés social. Guías de Asistencia Técnica para Vivienda de Interés Social. 2011 No 2. pp.47. [en línea] (C. A. Díaz Reyes, J. A. Ramírez Luna, Edits., & AINCOL, Recopilador) Bogotá, Colombia, [ref. de 23 de abril de 2022] Disponible en Web: https://www.minvivienda.gov.co/sites/default/files/2020-07/guia_asis_tec_vis_2.pdf 3. GIRALDO, Carlos; BEDOYA FRUTOS, Cesar; ALONSO PASTOR, Luis. A. “Eficiencia Energética y Sostenibilidad en la Vivienda de Interés Social en Colombia”. 2015 Greencities & Sostenibilidad. 7-. pp.155-180. [en línea]. [ref. de 25 de abril de 2022]. Disponible en Web: https://oa.upm.es/42543/1/INVE_MEM_2015_229809.pdf 4. PÉREZ PÉREZ, Alex Leandro. El diseño de la vivienda de interés social. La satisfacción de las necesidades y expectativas del usuario [en líneas] Revista de Arquitectura, 2016. vol.18 Núm.1 pp.67-75. Doi: 10.14718/RevArq.2016.18.1.7 5. MINISTERIO DE VIVIENDA, CIUDAD Y TERRITORIO. Resolución 0549 de 2015. Por la cual se reglamenta el Capítulo 1 del Título 7 de la parte 2, del Libro 2 del Decreto 1077 de 2015, en cuanto a los parámetros y lineamientos de construcción sostenible y se adopta la Guía para el ahorro de agua y energía en edificaciones. [en línea]. Ministerio de Vivienda, Ciudad y Territorio: Bogotá, Colombia, pp.56. [ref. de 3 de abril de 2022]. Disponible en Web: https://ismd.com.co/wp- content/uploads/2017/03/Resoluci%C3%B3n-549-de-2015.pdf 6. MORENO HURTADO, Gonzalo; GONZÁLEZ, Olga Cecilia; CADENA, Martha; BENAVIDES, Henry.; RUÍZ, Franklyn; MONTEALEGRE, Edgar; ORTIZ ROYERO, Juan Carlos; MONTOYA RAMÍREZ, Rubén Darío. “Atlas Climatológico de Colombia”. Bogotá, Colombia: Edición Instituto de Hidrología. Meteorología y Estudios Ambientales - IDEAM, 2017. pp. 266. ISSN 978-958-8067-95-7 [ref. de 3 de abril de 2022] Disponible en Web: http://documentacion.ideam.gov.co/openbiblio/bvirtual/023777/CLIMA.pdf 7. MINISTERIO DE AMBIENTE Y DESARROLLO TERRITORIAL. Hoja de ruta nacional de edificaciones neto cero carbono. 2022 [en línea] [ref 10 de agosto de 2022] Disponible en Web: https://drive.google.com/file/d/1P4XKXmH9dGk9AO03xnKM8sL2Lrxs3RF9/view 8. IPCC. “Working Group III contribution to the Sixth Assessment Report of the Intergovernmental Panel on Climate ChangeMitigation of Climate Change Summary for Policymakers ”. 2022. [en línea] [ref. 4 de mayo de 2022] Disponible en Web: https://www.ipcc.ch/report/ar6/wg3/downloads/report/IPCC_AR6_WGIII_SPM.pdf 9. HASHEMI, Arman. “Assessment of solar shading strategies in low-income tropical housing: the case of Uganda.”. Engineering Sustainability. 2019, vol 172, núm 6, pp. 293-301.10. NIETO, Valentina; CUBILLOS, Rolando. “Aspectos de diseño resiliente aplicados a la envolvente que determinan el confort térmico en las viviendas sociales.” Revista Ingeniería de Construcción RIC, 2021,vol 36, núm 2. 11. LOPERA BOTERO, FELIPE; RIVAS CARDONA, Samuel. “Mejoramiento del desempeño térmico en viviendas de estrato 1: caso de estudio vivienda ubicada en San Félix” 2021. [en línea]. Director: Dr. Ing. Engelberth Soto Estrada. Trabajo de Grado, Universidad EIA de Envigado, Envigado-Antioquia [ref. de 22 de abril de 2022. Disponible en Web: https://repository.eia.edu.co/handle/11190/4181 DESEMPEÑO TÉRMICO EN LA VIVIENDA SOCIAL Y SU VARIACIÓN CON EL CAMBIO CLIMÁTICO Manuela Murillo Galvis, Juan Sebastián Calle Medina, Santiago Jaramillo Betancourt, María Alejandra Garavito Posada, Adriana Marcela Murcia Carmona Estudiantes de Maestría en Bioclimática. Facultad de Artes integradas - Universidad de San Buenaventura sede Medellín, Colombia. Email: 1manuela.murillo@tau.usbmed.edu.co 2juan.calle212@tau.usbmed.edu.co 3antiago.jaramillo@tau.usbmed.edu.co 4maria.garavito@tau.usbmed.edu.co 5adriana.murcia@tau.usb.med.edu RESUMEN Con el aumento de la demanda de vivienda y la construcción masiva en altura en Colombia, se han desarrollado modelos constructivos y tipologías de apartamentos similares, ubicados indistintamente del contexto climático en el que se implantan. La toma de decisiones basadas principalmente en factores económicos ha dejado en un segundo plano el confort térmico y la salud. La presente investigación propone evaluar el desempeño térmico de una vivienda de interés social ubicada en el municipio de Bello, Antioquia, en su estado actual y proyectar su comportamiento en escenarios de cambio climático. Se realizaron mediciones exteriores in situ que permitieron comparar el archivo climático existente de la región, e interiores que permitieron construir y calibrar un modelo computacional en el software RHINO 3D y así proyectar el desempeño térmico anual de la vivienda en el 2050 y 2080 a través de simulaciones con el plugin de Grasshoppper. Considerando las condiciones específicas del lugar de implantación, se observó que la vivienda actualmente se encuentra el 76% del tiempo en la zona de confort 90 y el tiempo restante por debajo de ella. Por lo tanto, a medida que hay un incremento de temperatura como consecuencia del cambio climático, el tiempo en el que se encuentra en zona de confort 90 aumenta en un 98%. Sin embargo, se considera pertinente para futuras investigaciones extrapolar esta metodología a viviendas ubicadas en diferentes niveles dentro de la torre de apartamentos, orientación de estas y zonas climáticas diversas. PALABRAS CLAVES: Desempeño térmico, Vivienda de interés social, Confort térmico, Cambio Climático, Grasshopper THERMAL ACTING IN THE SOCIAL HOUSING AND THEIR VARIATION WITH THE CLIMATIC CHANGE ABSTRACT With the increase in housing demand and massive high-rise construction in Colombia, building models and similar types of apartments have been developed, located regardless of the climatic context in which they are installed. Decision-making based mainly on economic factors has left thermal well-being and health in the background. This research proposes to evaluate the thermal performance of a social housing located in Bello, Antioquia, in its current state and to project its behavior in a climate change scenario. Exterior in situ measurements were made that allowed comparing the existing climatic archive of the region, and interior measurements that allowed the construction and calibration of a computational model in the RHINO 3D software and thus project the annual thermal performance of the house in 2050 and 2080 through simulations with the Grasshopper plugin. Considering the specific conditions of the place of implantation, it was observed that the dwelling is currently 76% of the time in the comfort zone 90 and the remaining time below it. Therefore, as there is an increase in temperature because of climate change, the time spent in comfort zone 90 increases by 98%. However, it is considered pertinent for future research to extrapolate this methodology to houses located at different levels within the apartment tower, orientation of these and diverse climatic zones. KEY WORDS: Thermal performance, Social housing, Thermal comfort, Climate Change, Grasshopper. 1. INTRODUCCIÓN En el año 2012 se aprobó en Colombia la Ley 1537 de 2012, Ley de vivienda que señala las competencias, responsabilidades y funciones de las diferentes entidades del sector privado para el desarrollo de proyectos de Vivienda de Interés Social, así como los incentivos del sistema especializado de financiación para este tipo de vivienda. Dichas entidades, con el ánimo de responder a la alta demanda de vivienda actual, priorizan aspectos como la prefabricación o la estandarización, sobre la adecuada respuesta bioclimática del edificio, de acuerdo con esto, el presente artículo evalúa el desempeño térmico en la vivienda de interés social (V.I.S) y el comportamiento en escenarios de cambio climático para identificar las consecuencias de la construcción actual y de las necesidades medioambientales del entorno. En la guía No 2 de Asistencia Técnica para Vivienda de Interés Social, del Ministerio de Ambiente, Vivienda y Desarrollo Territorial, se especifica que toda construcción debe contar con materiales adecuados que garanticen el confort y un adecuado desempeño térmico, acústico y lumínico, deben responder al contexto en el que se implanta el proyecto, tener unos costos acordes con las condiciones económicas de sus habitantes, entre otros [1]. El concepto de confort térmico se explica en la Norma ISO 7730:2005 y se entiende como el grado de satisfacción de un individuo ante un ambiente, bajo unas condiciones térmicas determinadas [2]. Cuando las viviendas presentan materiales que no responden a las necesidades medioambientales del lugar, se corre el riesgo de la incorporación de sistemas mecánicos para adecuar las condiciones ambientales generando un aumento en el consumo de energía en espacios donde esto podría evitarse con estrategias de diseño bioclimáticas pasivas [3]. Con el aumento inminente de la temperatura debido al cambio climático, es necesario el análisis oportuno de los materiales y estrategias a implementar para aumentar el confort en la vivienda en los años posteriores. Como lo expone Giraldo, Bedoya y Alonso [4], desde la arquitectura y la ingeniería es necesario emplear la tecnología (software de simulaciones) para el análisis de los componentes ambientales de confort, iluminación, entre otros; y así generar soluciones y estrategias de diseño bioclimático, que mejoren las envolventes de la edificación, esto con el objetivo de mejorar la problemática que se pueda presentar debido al límite económico de construcción del proyecto o la estandarización de elementos técnicos de diseños de vivienda. Partiendo de esta problemática, nace el interés de evaluar el desempeño térmico en viviendas de Interés Social (V.I.S), utilizando como caso de estudio una unidad de vivienda ubicada en el municipio de Bello, Antioquia y su comportamiento en escenarios de cambio climático en el año 2050 y 2080. Caso de estudio El municipio de Bello, Antioquia, ubicado en latitud 6.333 y longitud -75.55, a 6º19’ 59” Norte, 75º 33’ 0” oeste, tiene una altitud de 1.414 msnm y una humedad relativa promedio de 84.95% [5]. La configuración del Valle de Aburrá ubicado en un entorno montañoso constituye una condición geográfica adversa para la circulación horizontal de las masas de aire, lo que sumado a condiciones de ventilación escasa (meteorología adversa), favorece la acumulación de contaminantes y dificulta su remoción [6]. La unidad de vivienda que se analiza se encuentra ubicada en ladera noroccidental del Valle de Aburrá, en el conjunto residencial “Colina de los Búcaros” proyecto finalizado en el 2021. La temperatura promedio es de 21. 65º C. Esto es de interés para el estudio debido al posible incremento de temperatura por el cambio climático, que podrá afectar el confort térmico de las viviendas en esta zona. Actualmente no cuenta con un contexto predominante o de mayor altura cercano, se encuentra expuesto a las condiciones climáticas del lugar. También es representativa la ubicación del proyecto por la similitud de conjuntos residenciales asentados en la montaña, debido a la topografía en la ciudad y por la construcción masiva de vivienda de interés social (VIS). Al ser un proyecto recién terminado, permite tener la capacidad de análisis de los materiales y su comportamiento en el tiempo. Materialidad de la vivienda Estructura Muros en concreto y losas nervadas Fachadas Ladrillo a la vista 12 x 24 x 33, ladrillo con revoque y pintura Interior Ladrillo a la vista 12 x 24 x 33, ladrillo con revoque y pintura Piso Porcelanato imitación madera 90 x 40 Puerta Puerta de acceso metálica blanca calibre 22 Ventanas Perfiles de aluminio con vidrio claro Figura 1. Axonometría caso de estudio. Vivienda de Interés Social – VIS. Materiales Características demográficas de los habitantes En la vivienda habitan tres personas, dos jóvenes adultos y una adulta mayor. Los jóvenes adultos tienen horarios laborales desde las 7:00hrs hasta las 17:00hrs. Para realizar la encuesta se tiene en cuenta la información que suministra la persona que permanece más tiempo en la vivienda y para la evaluación del desempeño térmico se hace el registro de las condiciones ambientales en los espacios que habita frecuentemente. 2. MARCO TEÓRICO/CONCEPTUAL La Ley 388 de 1997, establece que la Vivienda de Interés Social – VIS es la que se construye para garantizar el derecho que tienen las familias de bajos ingresos a una vivienda [7] y esta se define como un espacio que se puede habitar, el cual debe cumplir con estándares de calidad en lo referente al diseño urbanístico, arquitectónico y en todos sus aspectos constructivos, cuyo valor máximo es de ciento treinta y cinco salarios mínimos mensuales legales vigentes (135 SMMLV)(1) (Ministerio de Vivienda, Ciudad y Territorio de Colombia, 2020), a excepción de aquellos territorios que superen el millón (1.000.000) de habitantes, en donde el valor máximo será de ciento cincuenta salarios mínimos mensuales legales vigentes (150 SMMLV) [8]. En el año 2011, el entonces Ministerio de Ambiente, Vivienda y Desarrollo Territorial (2) desarrolla cuatro (4) guías de Asistencia Técnica para Vivienda de Interés Social, con el fin de entregar una herramienta metodológica a los entes territoriales, que les pueda servir para ejercer control en la formulación, ejecución y desarrollo de los proyectos de VIS con los que se pretende disminuir el déficit habitacional en los diferentes municipios (3) del territorio colombiano [9]. La guía No.1 se concentra en el tema de la calidad de la vivienda y para ello identifica: el tipo de población; las características idóneas del terreno donde se va a realizar la implantación de la vivienda; el diseño del inmueble, y el diseño urbanístico, todo esto con la finalidad de resolver falencias observadas por el Ministerio en el desarrollo de los proyectos de vivienda familiar. [10]. Por otro lado, la Guía No.2 establece los materiales que se utilizarían para construir VIS que sean sostenibles, teniendo en cuenta: la Norma Colombiana de Sismo Resistencia – NSR 10; la bioclimática del lugar; el ciclo de vida, la inercia térmica el origen; y el comportamiento de los materiales según el 1El Salario mínimo mensual legal vigente (SMMLV) para el 2022 es de $1.000.000 pesos colombianos que corresponde a $259,54 USD aproximadamente, si la TRM es de $3.852, 95 COP 2 El Ministerio de Ambiente, Vivienda y Desarrollo Territorial fue modificado bajo la Ley 1444 del 4 de mayo 2011, convirtiéndolo en el actual Ministerio de Medio Ambiente y Desarrollo Sostenible y creando el Ministerio de Vivienda, Ciudad y Territorio para abarcar las funciones relacionadas con la Vivienda que anteriormente tenía el Ministerio modificado. 3 La Ley 136 de 1994 indica que un municipio “es la entidad territorial fundamental de la división político- administrativa del Estado, con autonomía política, fiscal y administrativa, dentro de los límites que señalen la Constitución y la ley y cuya finalidad es el bienestar general y el mejoramiento de la calidad de vida de la población en su respectivo territorio”. [12] contexto donde se va a construir.[11]. La Guía No.3 se enfoca en la normatividad y la Guía No.4 en los procedimientos que se deben realizar para desarrollar los proyectos de VIS. En lo que respecta a la normativa para las construcciones de viviendas sostenibles en Colombia, está la Resolución 0549 de 2015 que busca, a partir de incentivos económicos, que en las nuevas edificaciones se generen estrategias pasivas y activas para el ahorro de agua y energía. [13]. Esta norma adopta como clasificación climática de Colombia, la Tipo Caldas, una de las utilizadas por el Instituto de Hidrología, Meteorología y Estudios Ambientales – IDEAM que se basa en el factor térmico, es decir que, que hay una variación en la temperatura de un lugar de acuerdo con la altitud de este, por lo cual se establecen unos tipos de pisos térmicos: cálido, templado, frío, muy frío, y extremadamente frío [14]. Dentro de las edificaciones que acoge la resolución, se encuentran las Viviendas de Interés Social - VIS las cuales deberán lograr como porcentajes mínimos de ahorro (optativo) los siguientes: en clima frío, en clima cálido seco y en clima cálido húmedo el 20%; en clima templado el 15%. En el 2016 un estudio realizado por el BBVA demostró que Colombia tenía un déficit en vivienda del 24,7%, que equivale a 3,35 millones de hogares de los 13,60 millones que había en total para esa época. De este porcentaje el 9.4% era un déficit en la cantidad de viviendas que se requerían, es decir 1.27 millones y 15,3% presentaba un déficit relacionado con la calidad de la vivienda, es decir que 2,08 millones de viviendas [15] no cumplían con las especificaciones de las primeras dos guías de Asistencia Técnica para Vivienda de Interés Social. Ya para el 2020 el déficit en vivienda fue del 31.4%, de los cuales el 8% corresponde a la falta de vivienda y 23.4% a viviendas de baja calidad [16]. Para el 2021, 240.000 familias en Colombia tuvieron acceso a nuevas viviendas, según datos de la Cámara Colombiana de la Construcción – CAMACOL, de estas, el 70% de las viviendas construidas el último año, fueron VIS [17]. Y de acuerdo con el último Censo de Edificaciones (4) presentado por el DANE (5) el 35.6% del área censada es Vivienda de Interés Social, de los cuales, el 82.3% son apartamentos [18]. Es importante mencionar que en general en América Latina los proyectos de Vivienda de Interés Social, en la última década, se han concentrado en resolver una problemática relacionada más con el aspecto de cantidad, que con aspectos de calidad de la vivienda, y por tanto el diseño arquitectónico ha quedado relegado a un segundo plano [19] generando que las viviendas tengan un diseño casi que estandarizado y que para seleccionar los materiales a utilizar en su construcción y/o en los acabados, primen más las variables de tipo económico, que las variables que pueden tener una gran influencia como el lugar de implantación o el análisis del piso térmico. Al priorizar la construcción de este tipo de viviendas sólo en el aspecto de la masificación, se deja de lado las necesidades de confort climático que el usuario pueda llegar a tener, y con el tiempo es posible que la vivienda no sea sostenible para personas de escasos recursos [20]. El Valle de Aburrá o Área Metropolitana con una extensión de 1.165km2 tiene una particularidad y es su irregular topografía de pendientes, gracias a las dos cordilleras que lo encierran que le permite altitudes de 1300 – 2800 msnm lo que genera microclimas en un mismo territorio, que a su vez se encuentran influenciados por el río Medellín su principal afluente de sur a norte, cuya cuenca hidrográfica es de más de 100 quebradas. [21]. Bello, ubicado al norte del valle, es el segundo municipio, después de Medellín, con el mayor número de habitantes [22]. La morfología del contexto urbano influye en el microclima de los espacios exteriores, particularmente en la temperatura y el flujo del viento y, por lo tanto, en el ambiente térmico interior [23]. Así mismo el diseño y los materiales constructivos influyen en las condiciones térmicas que se producen al interior de las edificaciones, debido al calor que se transmite a través de la envolvente. El uso de fuentes productoras de energía como, por ejemplo, los electrodomésticos o las fuentes lumínicas, aumentan la producción de calor, por ello es fundamental hacer un adecuado uso de los recursos que contiene la edificación, para encontrar un confort térmico adecuado. La ISO 77306 define el confort térmico como una condición de la mente en la que se expresa la satisfacción con el ambiente térmico “es decir que, el ser humano define qué se siente confortable en un determinado 4 El Censo de Edificaciones se realiza con los datos recogidos en 20 áreas de cobertura geográfica: 14 áreas urbanas, 5 áreas metropolitanas y el departamento de Cundinamarca. Estas 20 áreas abarcan un total de 57 municipios en todo el territorio nacional y corresponde a un área censada de 28.989.117m2 El último Censo de Edificaciones abarca desde el primer trimestre del 2018 hasta el cuarto trimestre del 2021. 5 DANE es el Departamento Administrativo Nacional de Estadística de Colombia, creado en 1953 por el Gobierno Nacional. 6 La Norma ISO 7730:2005 es la que define la Ergonomía del entorno térmico — Determinación analítica e interpretación del confort térmico mediante el cálculo de los índices PMV y PPD y criterios locales de confort térmico ambiente, si este no le genera incomodidades”. Lo que hace suponer que un estado neutral es sinónimo de confort, porque la sensación no es ni muy caliente, ni muy fría [24]. Existen dos modelos estadísticos para determinar el confort térmico en un espacio, el Modelo Estático o Analítico y el Modelo Adaptativo. Con el Modelo Adaptativo se define el confort térmico de un espacio teniendo en cuenta que un porcentaje de personas (80% o 90%) tendrán una sensación favorable de confort. En Colombia se utiliza la NTC 53167, que es la traducción literal de la ANSI/ASHRAE 55. El modelo adaptativo registra el comportamiento y las sensaciones de quienes habitan los espacios con ventilación natural, en donde la temperatura del interior tiene una estrecha relación con la temperatura del exterior. Este modelo asume que, tanto los espacios como las personas tienen la capacidad para adaptarse a las condiciones ambientales, teniendo en cuenta la actividad y el tipo de vestimenta que utilizan. En el Informe Especial del Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) se indica que los modelos climáticos arrojan diferencias considerables cuando se comparan los efectos del clima actual con los ocasionados por una temperatura 1,5°C más alta, así mismo, si la comparación se hace con 2°C de más. Esto indica un aumento en la temperatura promedio del planeta, con calor extremo en zonas habitadas [25]. El IPCC menciona que la capacidad de adaptación tiene un límite si hay 1,5°C de aumento en la temperatura global, lo que es directamente proporcional cuando hay un mayor calentamiento, sin embargo, esto varía según la zona, teniendo mayores consecuencias en aquellas regiones más vulnerables, en ecosistemas más frágiles y aumentando la probabilidad de afectación a la salud del ser humano.[26]. El sexto Informe de Evaluación (IPCC) indica que el impacto y los riesgos que se han observado y que se proyectan debido a las amenazas climáticas se presentan a corto (2021-2040) mediano (2041-2060) y largo plazo (2081-2100) con base en diferentes niveles de calentamiento global y teniendo en cuenta que se superen los 1.5°C que se estima incrementará la temperatura en el planeta por varias décadas [27]. El calentamiento global, como consecuencia de la actividad humana, ha ocasionado más daños que la variabilidad natural del clima. Es decir que, tanto los extremos meteorológicos como climáticos, generan efectos irreversibles cuando el hombre y la naturaleza son llevados por fuera de su capacidad de adaptarse [28]. El IPCC, con un alto nivel de confianza, señala que los entornos urbanos, la salud, la subsistencia y la infraestructura clave se han visto afectados por el cambio climático. Los daños generados por el calentamiento global en las ciudades, los asentamientos y la infraestructura, se magnifica cuando los peligros ocasionados por el clima y los que no son climáticos coinciden en un mismo momento, ocasionando que en las ciudades se incrementen las olas de calor y por ende empeore la contaminación del aire, siendo las áreas urbanas de población de escasos recursos, la más vulnerable [29]. De acuerdo con lo anterior, nace el interés del presente artículo en evaluar el desempeño térmico en la vivienda de interés social (V.I.S) y el comportamiento en escenarios de cambio climático para identificar las consecuencias de la construcción actual y de las necesidades medioambientales del entorno. 3. METODOLOGÍA La metodología implementada es de tipo cuantitativo y se basa principalmente en simulaciones computacionales y análisis de datos en función de los escenarios evaluados en el tiempo. La propuesta se basó en el análisis de una Vivienda de Interés Social en altura como caso de estudio a partir de mediciones en sitio. Los resultados se analizaron para determinar el desempeño térmico actual y hacer una proyección en escenarios de cambio climático (2050, 2080). El modelo se simuló y el plugin Grasshopper con la intención de evaluar el desempeño térmico de las viviendas. Etapas de la investigación Para la evaluación del desempeño térmico en la vivienda, se realizaron las siguientes etapas de investigación: 7 Norma Técnica Colombiana 5316 del 01 de diciembre de 2004 es la que define las Condiciones Ambientales Térmicas de Inmuebles para Personas Figura 2. Esquema metodológico Mediciones en sitio y encuesta Al interior de la vivienda se ubican dos (2) Termohigrómetro HOBO con los que se registró temperatura (°C) y humedad relativa (%), y un Termohigrómetro HOBO de bulbo seco que toma los datos de temperatura radiante para evaluar la transferencia de calor por radiación desde las superficies. (figura 3). Los sensores se programaron para registrar los datos cada hora, y se ubicaron a 1.70m de altura con el NPA (nivel de piso acabado). En el exterior (balcón) se ubicó un Termohigrómetro HOBO a una altura de 2.20m con el NPA (nivel de piso acabado). La encuesta tomó como base la norma ANSI/ASHRAE 55-2010. Las preguntas se enfocaron en determinar la hora en la que, según la sensación térmica [O2] (muy caluroso, caluroso, ligeramente caluroso, neutro, ligeramente fresco, fresco, frío) y en una escala de uno (1) al siete (7), el habitante expresa qué tan satisfecho está con la temperatura del espacio en el contexto inmediato. Así mismo, se utilizó el CLO, que se basa en la estimación del aislamiento de ropa, para registrar el tipo de prendas de vestir al momento de realizar la encuesta. Tiempo de análisis e instrumentos Las mediciones fueron continuas, en un tiempo de 2 semanas, (05.03.2022 - 16.03.2022). Para la descripción de equipos utilizados para la medición en sitio, se presentan las especificaciones en la tabla.1 EQUIPO DESCRIPCIÓN UBICACIÓN TIEMPO MEDICIÓN IMAGEN TERMOHIGRÓMETRO HOBO Registrador de temperatura (°C) y humedad relativa (%). Ubicado en la habitación a 1.70m de altura. Cada hora TERMOHIGRÓMETRO HOBO (Temperatura radiante) Registrador de la temperatura radiante, para evaluar la transferencia de calor por radiación desde las superficies. (Temperatura superficial °C). Ubicado en la sala -comedor a 1.70m de altura. Cada hora TERMOHIGRÓMETRO DE EXTERIOR HOBO Registrador de temperatura (°C) y humedad relativa (%). Ubicado en el balcón para obtener resultados en las condiciones del apartamento a 2.20m de altura. Cada hora Tabla 1. Ubicación de los equipos en la vivienda Los equipos se dispusieron al interior de la vivienda, en la habitación y en la sala, espacios altamente frecuentados, y en el balcón para medir las condiciones exteriores, la ubicación de los equipos se detalla en la figura: Figura 3. Ubicación de los equipos en la vivienda Simulaciones Las simulaciones se realizaron con el software Rhino y el plugin Grasshopper, a partir del modelo según la planimetría de la vivienda. Figura 4. Modelo de simulación Descripción Apartamento piso intermedio Tipo de edificación Vivienda / piso 16 Orientación de la fachada principal Noroeste Losa entrepiso 150mm en concreto, densidad 2400Kg/m3 conductividad de 2 W/m-K Calor específico 950 J/kg-K, rugosidad media Muros Ladrillo de 12cm densidad 1920Kg/m3 conductividad de 0.89W/m-K Valor U:6.14, rugosidad media, más estuco de 2cm Fachada Principal Vidrio claro, Valor U: 5.7W/m2-K, SHGC 0.88 Perfiles de aluminio natural con vidrio claro Tabla 2. Materiales configuración caso base Tabla 3. Configuración de rutinas día caso base simulación. Tabla 4. Configuración de rutinas noche caso base simulación. Análisis de resultados Los resultados obtenidos en los sensores se analizaron según el modelo de confort adaptativo y se compararon con las mediciones en sitio para un acercamiento del estado actual y de las condiciones ambientales de apartamento. Las encuestas se utilizaron como instrumento para conocer la sensación térmica de los habitantes y comparar la similitud con los resultados de las mediciones en sitio. Modelos de confort En una fase posterior de análisis los resultados fueron evaluados bajo el modelo de confort adaptativo estipulado en el estándar ASHRAE 55. El modelo adaptativo se basa en la temperatura promedio exterior, en este caso se implementaron los datos de temperatura extraídos del archivo climático de Ruta N correspondiente a la ciudad de Medellín, analizando previamente en la etapa de calibración del modelo la correspondencia con las mediciones en sitio de los resultados de los sensores y el resultado de las simulaciones. Este modelo aplica exclusivamente para espacios ventilados naturalmente. La zona de confort adaptativo se calcula con la siguiente ecuación: Tc = 17,8 + (0,31 * Tm) (1) Tc representa la temperatura de confort y Tm representa la temperatura media exterior del lugar. Este modelo considera que los seres humanos son capaces de adaptarse al entorno que habitan. Se calcula los rangos de confort para la zona de confort 90% de aceptabilidad y el 80% de aceptabilidad, estas se calcularon con las siguientes fórmulas: 90% = Zc = Tc ± 2,5 °C (2) 80% = Zc = Tc ± 3,5 °C (3) Evaluación 2050 y 2080 Teniendo las simulaciones en estos años, se tienen como resultados los cambios en el desempeño térmico de la VIS y su variación. Se realiza el cambio del archivo climático que tiene en cuenta la variación climática en estos dos años. 4. RESULTADOS Y ANÁLISIS Análisis resultados desempeño térmico mediciones en sitio En el registro y análisis de las mediciones en sitio, el sensor exterior permitió tener conocimiento de la temperatura del apartamento según sus condiciones específicas. Se compara con el archivo climático para la realización de las simulaciones y la calibración del modelo. El rango de confort 90 según el modelo adaptativo es de 27,5°C a 22,5°C, con el que se identifica el tiempo en el que se encuentra en dicha zona, evidenciado en la figura 5: Figura 5. Comparativo temperatura sensor exterior y archivo climático En el registro de la medición del sensor exterior en la figura 5, se identifica que el espacio se encuentra por debajo de la zona de confort en las horas de la madrugada teniendo más del 75% del tiempo por debajo de la zona de confort. A partir de las 9:00 de la mañana, más del 50% del tiempo, se encuentra en la zona de confort cuando se eleva la temperatura. Al medio día se encuentra en la zona de confort 100% del tiempo desde las 12:00 del mediodía hasta las 5:00 de la tarde. Según las mediciones, el espacio tiende a ser frío, en la noche la mayor cantidad de tiempo se encuentra por debajo de la zona de confort, al elevarse la temperatura en el día, el espacio tiende a estabilizarse en la zona de confort. Se compara con el archivo climático con los datos anuales, se identifica como apropiado por su similitud para el uso en la simulación y su calibración teniendo en cuenta que tiende a ser más caliente. En la figura 5 de relacionamiento entre el sensor exterior y el archivo climático, se evidencian datos con similitud, sin embargo, hay una mayor temperatura en el archivo climático. Lo que permite concluir que la vivienda tiende a ser más fría al tener unas condiciones específicas privilegias como su orientación y la operación de las ventanas por parte de los usuarios. Análisis registro sensor ubicado en la habitación En la figura 6 se muestra el registro del sensor interior ubicado en la habitación, se evidencia gran cantidad del tiempo en la zona de confort (27,5°C a 22,5°C) y se identifica gran similitud con la simulación, lo que evidencia la alta correspondencia entre el modelo experimental y las mediciones en sitio. El tiempo graficado y simulado son los días correspondientes a la medición, del día 5 al 16 de marzo. Figura 6. Comparativo temperatura sensor habitación y simulación En la figura 6 de relacionamiento se quiere comparar el resultado del desempeño térmico del sensor ubicado en la habitación con el resultado de la simulación del caso base con el archivo climático, se logra identificar la similitud y que posibilita el uso para su evaluación en el año 2050 y 2080. Análisis registro sensor ubicado en la sala En el registro del sensor interior ubicado en la sala, evidenciado en la figura 7, se encuentra gran cantidad del tiempo en la zona de confort (27,5°C a 22,5°C) y se identifica gran similitud con la simulación en el caso base. El tiempo graficado y simulado son los días correspondientes a la medición, del día 5 al 16 de marzo. Se identifica el espacio de la habitación como un buen espacio de análisis de resultados por la similitud con la simulación lograda. Figura 7. Comparativo temperatura sensor sala y simulación Análisis comparativo desempeño térmico escenario base, año 2050 y 2080 Para la definición de la zona de confort con el modelo adaptativo en los años evaluados, se utilizó el promedio anual de temperatura resultante para cada año, se identifica que en los años evaluados 2050 y 2080 el incremento va a ser por lo menos de 2°C, en la Tabla 5 se define la zona de confort según la temperatura resultante en cada año: El cálculo de la zona de confort, por medio del confort adaptativo, se realizó con la premisa de la adaptación del ser humano al incremento de temperatura y a los cambios climatológicos, teniendo el cálculo del promedio de temperatura anual con los resultados obtenidos en cada año, sin embargo, el debate se encuentra abierto, se piensa que esta adaptación llegará hasta un punto, y no será posible adaptarse más al aumento de temperatura desenfrenado. En la figura 8 correspondiente al comparativo de las temperaturas en la habitación con las simulaciones anuales, se evidencia el incremento de temperatura con respecto al escenario base, para este espacio, en el año 2050 y 2080, más del 75% del tiempo se encuentran en la zona de confort, en las horas del mediodía y de la tarde, desde las 12:00 pm hasta las 6:00pm se pueden llegar a alcanzar temperaturas en cierto días del año que pueden generar estrés térmico por calor con temperaturas de hasta 30°C, sin embargo, para el año 2080, la zona de confort 80% de aceptabilidad propone que el habitante está en confort hasta los 29,8°C, teniendo esta premisa de adaptación, los 30°C se encuentra muy cercano al límite propuesto de la zona de confort 80 para ese año, sin embargo esta temperatura se alcanza en momentos específicos del año que no son representativos al ser datos extremos que no se repiten con frecuencia. Figura 8 Comparativa habitación según los años Con respecto al número de horas en la zona de confort, al tener más horas por debajo de la zona de confort en el escenario actual para las habitaciones, es decir, que están más propensos sentir frío y no estar confortables, el cambio climático y el aumento de temperatura, hará que aumente la posibilidad de estar en confort o de alcanzar una estabilidad, en este caso, disminuye las horas debajo de la zona de confort y aumentan las horas en confort. De acuerdo con la Tabla 6 donde se expone el número de horas en confort, arriba del confort y debajo del confort, del 100% de las horas en el año actual el 23,3% de las horas se encuentra por debajo de la zona de confort, para el año 2050 disminuye a 8,5% de las horas por debajo de la zona de confort y aumentan las horas en confort, y para el año 2080 sólo el 2,5% de las horas del año se encuentran por debajo de la zona de confort, disminuyendo la tendencia de la vivienda a tener estrés térmico por frío con el aumento de la temperatura por el cambio climático. Adicional a esto, se evidencia el porcentaje en la zona de confort según los años evaluados, alcanzando más tiempo en confort en el año 2080. T a b l a 3 : R a n g o z o n a d e c o n f o r t s e g ú n l o s a ñ o s e v a l u a d o s Tabla 1. Rangos de Confort Habitación actual Habitación 2050 Habitación 2080 Confort 90% Arriba de confort 81 58 36 Confort 6639 7959 8506 Debajo de confort 2040 743 218 Confort 80% Arriba de confort 14 12 8 Confort 7722 8586 8749 Debajo de confort 1024 162 3 Límites Habitación actual Habitación 2050 Habitación 2080 22,7 – 27,5°C 76% 91% 97% Tabla 2. Horas en confort y Porcentaje de tiempo en confort según los años evaluados Las condiciones iniciales de este espacio, que se derivan de lineamientos iniciales de diseño y construcción, la composición del escenario base, como la orientación y operación de las ventanas posicionan el apartamento en el escenario del año 2080 como el que más se encuentra en el rango de confort adaptativo como se muestra en la figura 9. Es por esto, que los países estacionarios, o que cuentan con un clima frío, no tienen una alta preocupación por el aumento de temperatura, significará una reducción en la utilización de equipos de calefacción y mejoría en la eficiencia energética, sin embargo, en las temporadas que verano, el calor será más intenso y el confort se verá afectado. Figura 9 Comparativa habitación y análisis de la temperatura en horas específicas El escenario inicial de la vivienda mejora considerablemente en el porcentaje de tiempo en confort con el aumento de temperatura proveniente del cambio climático. En la figura 9 se visualiza la temperatura en las diferentes horas y en los diferentes escenarios de la tipología analizada. 5. CONCLUSIONES Se evaluó la influencia del cambio climático en el desempeño térmico de un caso de estudio de vivienda social en altura. Como muestra el análisis, por las condiciones climáticas específicas del lugar con temperaturas exteriores por debajo de la zona de confort y al tener una ubicación privilegiada dentro del edificio, las estrategias de enfriamiento pasivo como la operación de las ventanas ayudan al confort térmico de la vivienda tanto en el escenario actual al igual que en escenarios futuros a 2050 y 2080. La vivienda presenta más del 75% del tiempo por debajo de la zona de confort en las horas de la madrugada en el espacio de la habitación, lo que permite, con el aumento de temperatura, que el espacio se estabilice en el día en la zona de confort en las horas de la tarde. Considerar estrategias de diseño para que las viviendas actuales para que tienda a conservarse el frío, permiten tener una mayor conservación del confort de la vivienda a través del tiempo con el incremento de temperatura, debido al cambio climático y en los años posteriores. En el caso de estudio, la sensación térmica de frío puede darse solución por medio del arropamiento y el cambio de operación de las ventanas, caso diferente en viviendas de la misma tipología ubicadas en diferentes niveles y zonas térmicas distintas a la analizada. Las estrategias que se toman en este caso específico de apartamento como son la orientación, la operación de las ventanas y la altura de la vivienda, son variables que ayudan a mejorar el confort térmico, pero a su vez deja en entredicho si se está teniendo una reflexión respecto a la ubicación de la vivienda desde su diseño arquitectónico ya que se replica la misma tipología en diferentes niveles, orientaciones y zonas climáticas, es necesario evaluar cómo se proyectan estos cambios al interior, para mantener el confort térmico en el tiempo y en todas las viviendas construidas. Discusión Los resultados obtenidos en el apartamento seleccionado generan diversos interrogantes con respecto al desempeño térmico de la vivienda de interés social, con diferentes lineamientos de diseño, y su alteración debido al cambio climático. En el proyecto se construye la misma tipología de apartamento en diferentes orientaciones al igual que en diferentes niveles, lo que implica una mayor exposición a la radiación solar, que, con el aumento de temperatura debido al cambio climático, va a perjudicar altamente la habitabilidad en las viviendas. Esta misma tipología es construida en zonas térmicas diferentes, esta vivienda en un clima cálido-húmedo tendrá consecuencias e implicaciones, como el aumento del consumo energético por el uso de aire acondicionado. En Colombia se construye la misma tipología de vivienda de interés social en cualquier ciudad del país, ¿Qué consecuencias trae para la habitabilidad de las viviendas en los años posteriores? ¿Cómo será el desempeño térmico de la vivienda en condiciones diferentes de altura, orientación y tipo de clima? ¿Qué estrategias podrían implementarse para su adaptación para evitar que las personas implementen equipos de enfriamiento? REFERENCIAS 1. MINISTERIO DE AMBIENTE, VIVIENDA Y DESARROLLO TERRITORIAL. Los materiales en la construcción de vivienda de interés social. Guías de Asistencia Técnica para Vivienda de Interés Social. 2011 No 2. pp.47. [en línea] (C. A. Díaz Reyes, J. A. Ramírez Luna, Edits., & AINCOL, Recopilador) Bogotá, Colombia, [ref. de 23 de abril de 2022] Disponible en Web: https://www.minvivienda.gov.co/sites/default/files/2020-07/guia_asis_tec_vis_2.pdf 2. LOPERA BOTERO, FELIPE; RIVAS CARDONA, Samuel. “Mejoramiento del desempeño térmico en viviendas de estrato 1: caso de estudio vivienda ubicada en San Félix” 2021. [en línea]. Director: Dr. Ing. Engelberth Soto Estrada. Trabajo de Grado, Universidad EIA de Envigado, Envigado-Antioquia [ref. de 22 de abril de 2022. Disponible en Web: https://repository.eia.edu.co/handle/11190/4181 3. LOPERA BOTERO, FELIPE; RIVAS CARDONA, Samuel. “Mejoramiento del desempeño térmico en viviendas de estrato 1: caso de estudio vivienda ubicada en San Félix” 2021. [en línea]. Director: Dr. Ing. Engelberth Soto Estrada. Trabajo de Grado, Universidad EIA de Envigado, Envigado-Antioquia [ref. de 22 de abril de 2022. Disponible en Web: https://repository.eia.edu.co/handle/11190/4181 4. GIRALDO, Carlos; BEDOYA FRUTOS, Cesar; ALONSO PASTOR, Luis. A. “Eficiencia Energética y Sostenibilidad en la Vivienda de Interés Social en Colombia”. [en línea]. Greencities & Sostenibilidad. 7- 8 de octubre de 2015. pp.155-180. [ref. de 25 de abril de 2022]. Disponible en Web: https://oa.upm.es/42543/1/INVE_MEM_2015_229809.pdf 5. CLIMATE-DATA.ORG. Clima Bello (Colombia) [en línea]. © Climate-Data Org/AM OP/OpenStreetMap contributors. s.f. [ref. de 25 de abril de 2022]. Disponible en Web: https://es.climate- data.org/america-del-sur/colombia/antioquia/bello-1007406/ 6. ÁREA METROPOLITANA DEL VALLE DE ABURRÁ. Calidad del Aire [en línea]. Área Metropolitana del Valle de Aburrá, 2019 [ref. de 25 de abril de 2022] Disponible en Web: https://www.metropol.gov.co/ambiental/calidad-del-aire/ 7. LEY 388 DE 1997 del18 de Julio. Por la cual se modifica la Ley 9 de 1989, y la Ley 2 de 1991 y se dictan otras disposiciones. [en línea] pp.55. Congreso de Colombia: Bogotá, Colombia, 1997. [ref. de 23 de abril de 2022]. Disponible en Web: https://www.funcionpublica.gov.co/eva/gestornormativo/norma_pdf.php?i=339 8. DECRETO 1469 del 13 de agosto de 2019. Por el cual se adiciona el Decreto 1077 de 2015 en relación con el precio máximo de la Vivienda de Interés Social"(No. 51044), [en línea] pp.4. Bogotá, Colombia. [ref. de 23 de abril de 2022] Disponible en Web: https://www.suin- juriscol.gov.co/viewDocument.asp?id=30037823 9. MINISTERIO DE VIVIENDA, CIUDAD Y TERRITORIO DE COLOMBIA. Viceministerio de vivienda - VIS y VIP. [en línea]. 22 de Julio de 2020. [ref. de 30 de marzo de 2022], Disponible en Web:https://www.minvivienda.gov.co/viceministerio-de-vivienda/vis-y-vip 10. MINISTERIO DE AMBIENTE, VIVIENDA Y DESARROLLO TERRITORIAL. Calidad en la vivienda de interés social. Guías de Asistencia Técnica para Vivienda de Interés Social. 2011 No 1. pp.61. [en línea] (C. A. Díaz Reyes, J. A. Ramírez Luna, Edits., & AINCOL, Recopilador) Bogotá, Colombia [ref. de 23 de abril de 2022] Disponible en Web: https://www.minvivienda.gov.co/sites/default/files/2020- 07/guia_asis_tec_vis_1.pdf 11. MINISTERIO DE AMBIENTE, VIVIENDA Y DESARROLLO TERRITORIAL. Los materiales en la construcción de vivienda de interés social. Guías de Asistencia Técnica para Vivienda de Interés Social. 2011 No 2. pp.47. [en línea] (C. A. Díaz Reyes, J. A. Ramírez Luna, Editores. & AINCOL, Recopilador) Bogotá, Colombia [ref. de 23 de abril de 2022] Disponible en Web: https://www.minvivienda.gov.co/sites/default/files/2020-07/guia_asis_tec_vis_2.pdf 12. LEY 136 DE 1994 de 2 de junio. Por la cual se dictan normas tendientes a modernizar la organización y el funcionamiento de los municipios. [en línea]Congreso de la República: Bogotá, Colombia. pp.41. [ref. de 23 de abril de 2022[ Disponible en Web: https://www.funcionpublica.gov.co/eva/gestornormativo/norma_pdf.php?i=329 13. RESOLUCIÓN 0549 DE 2015. (10 de julio). Por la cual se reglamenta el Capítulo 1 del Título 7 de la parte 2, del Libro 2 del Decreto 1077 de 2015, en cuanto a los parámetros y lineamientos de construcción sostenible y se adopta la Guía para el ahorro de agua y energía en edificaciones. [en línea]. Ministerio de Vivienda, Ciudad y Territorio: Bogotá, Colombia, pp.56. [ref. de 3 de abril de 2022]. Disponible en Web: https://ismd.com.co/wp-content/uploads/2017/03/Resoluci%C3%B3n-549-de-2015.pdf 14. MORENO HURTADO, Gonzalo; GONZÁLEZ, Olga Cecilia; CADENA, Martha; BENAVIDES, Henry.; RUÍZ, Franklyn; MONTEALEGRE, Edgar; ORTIZ ROYERO, Juan Carlos; MONTOYA RAMÍREZ, Rubén Darío. “Atlas Climatológico de Colombia”. Bogotá, Colombia: Edición Instituto de Hidrología. Meteorología y Estudios Ambientales - IDEAM, 2017. pp. 266. ISSN 978-958-8067-95-7 [ref. de 3 de abril de 2022] Disponible en Web: http://documentacion.ideam.gov.co/openbiblio/bvirtual/023777/CLIMA.pdf 15. ARANGO PLAZAS, Juan Pablo. “Costo/beneficio de mitigar la ganancia térmica en envolventes de vivienda en altura”. [en línea] Quinto Congreso Internacional de Medio Ambiente Construido y Desarrollo Sustentable. (26-30 de noviembre de 2018. pp 321-333 [ref. de 3 de abril de 2022]. Disponible en Web: https://www.academia.edu/38069843/&sa=D&source=docs&ust=1649211459076953&usg=AOvVaw0xi 8oCF7fvnOEIhuknqgT 16. DANE. Déficit Habitacional. [en línea] 2 de septiembre de 2021. [ref. de 25 de abril de 2022] Disponible en Web: https://www.dane.gov.co/index.php/estadisticas-por-tema/demografia-y-poblacion/deficit- habitacional 17. GAVIRIA GONZÁLEZ, Natalia. “Siete de cada 10 viviendas nuevas en Colombia fueron VIS durante el año pasado”. 17 de febrero de 2022. [en línea] La República. [ref. de 23 de abril de 2022] Disponible en Web: https://www.larepublica.co/especiales/vivienda-a-la-mano/siete-de-cada-10-viviendas-nuevas-en- colombia-fueron-vis-durante-el-ano-pasado-3304721 18. DANE. Censo de Edificaciones – CEED/Vivienda VIS y No VIS. [en línea]. Boletín Técnico. [ref. de 23 de abril de 2022] Disponible en Web: https://www.dane.gov.co/files/investigaciones/boletines/vis/boletin_vis_no_vis_IVtrim2021.pdf 19. PÉREZ PÉREZ, Alex Leandro. El diseño de la vivienda de interés social. La satisfacción de las necesidades y expectativas del usuario [en líneas] Revista de Arquitectura, 2016. vol.18 Núm.1 pp.67-75. Doi: 10.14718/RevArq.2016.18.1.7 20. GIRALDO, Carlos; BEDOYA FRUTOS, Cesar; ALONSO PASTOR, Luis. A. “Eficiencia Energética y Sostenibilidad en la Vivienda de Interés Social en Colombia” [en línea]. Greencities & Sostenibilidad. 7- 8 de octubre de 2015. pp.155-180. [ref. de 25 de abril de 2022]. Disponible en Web: https://oa.upm.es/42543/1/INVE_MEM_2015_229809.pdf 21. ÁREA METROPOLITANA DEL VALLÉ DE ABURRÁ. Plan Quebradas. [en línea] Área Metropolitana del Valle de Aburrá, 2019 [ref. de 25 de abril de 2022] Disponible en Web: https://www.metropol.gov.co/ambiental/Paginas/Plan-Quebradas.aspx# 22. DANE. Proyección de Población. [en línea]. 2018. [ref. de 25 de abril de 2022] Disponible en Web:https://www.dane.gov.co/index.php/estadisticas-por-tema/demografia-y-poblacion/proyecciones-de- poblacion 23. VÉLIZ-PÁRRAGA, José; GONZÁLEZ-COURET, Diana. Vivienda de interés social en Portoviejo. Ambiente térmico interior. [en línea] Revista AUS [Arquitectura, Urbanismos y Sustentabilidad], 2019, núm. 26, pp.35-41. Doi: https://doi.org/10.4206/aus.2019.n26-07 24. MUÑOZ GODOY, Alfonso. “El confort térmico adaptativo. Aplicación en la edificación en España”, 2012 [en línea]. Director: Albert Cuchí I Burgos. Codirector: Nuria Garrido Soriano. Proyecto Final de Máster (PFM). Universidad Politécnica de Cataluña., Barcelona, España. [ref. de 5 de diciembre de 2021] Disponible en Web: https://upcommons.upc.edu/bitstream/handle/2099.1/18763/TFM_Alfonso%20Godoy%20Munoz.pdf?seq uence=1&isAllowed=y 25. IPCC. “Calentamiento global de 1,5°C. Informe especial del IPCC sobre los impactos del calentamiento global de 1,5°C con respecto a los niveles preindustriales y las trayectorias correspondientes que deberían seguir las emisiones mundiales de gases. efecto invernadero, en el contexto del reforzamiento de la respuesta mundial a la amenaza del cambio climático, el desarrollo sostenible y los esfuerzos por erradicar la pobreza” [en línea]. Editores: Masson-Delmonte, Valérie; Zhai, Panmao; Pörtner, Hans-Otto; Roberts, Debra; Skea, Jim; Shukla, Priyadarshi R.; Pirani, Anna; Moufouma-Okia, Wilfran; Péan, Clotilde; Pidcock, Roz; Connors, Sarah; Matthews, J. B. Robin; Chen, Yang; Zhou, Xiao; Gomis, Melissa I.; Lonnoy, Elisabeth; Maycock, Tom; Tignor, Melinda; Waterfield, Tim. Ginebra, Suiza, 2019. SBN 978-92-9169- 351-1 [ref. 4 de mayo de 2022] Disponible en Web: https://www.ipcc.ch/site/assets/uploads/sites/2/2019/09/IPCC-Special-Report-1.5-SPM_es.pdf 26. IPCC. “Calentamiento global de 1,5°C. Informe especial del IPCC sobre los impactos del calentamiento global de 1,5°C con respecto a los niveles preindustriales y las trayectorias correspondientes que deberían seguir las emisiones mundiales de gases efecto invernadero, en el contexto del reforzamiento de la respuesta mundial a la amenaza del cambio climático, el desarrollo sostenible y los esfuerzos por erradicar la pobreza” [en línea]. Editores: Masson-Delmonte, Valérie; Zhai, Panmao; Pörtner, Hans-Otto; Roberts, Debra; Skea, Jim; Shukla, Priyadarshi R.; Pirani, Anna; Moufouma-Okia, Wilfran; Péan, Clotilde; Pidcock, Roz; Connors, Sarah; Matthews, J. B. Robin; Chen, Yang; Zhou, Xiao; Gomis, Melissa I.; Lonnoy, Elisabeth; Maycock, Tom; Tignor, Melinda; Waterfield, Tim. Ginebra, Suiza, 2019. SBN 978-92-9169-351-1 [ref. 4 de mayo de 2022] Disponible en Web: https://www.ipcc.ch/site/assets/uploads/sites/2/2019/09/IPCC- Special-Report-1.5-SPM_es.pdf 27. IPCC. “Sexto informe de evaluación del IPCC: Cambio Climático 2022. WMO-UNEP”. 2022.[en línea] [ref. 4 de mayo de 2022] Disponible en Web: https://report.ipcc.ch/ar6wg2/pdf/IPCC_AR6_WGII_FinalDraft_FullReport.pdf 28. IPCC. “Sexto informe de evaluación del IPCC: Cambio Climático 2022. WMO-UNEP”. 2022.[en línea] [ref. 4 de mayo de 2022] Disponible en Web: https://report.ipcc.ch/ar6wg2/pdf/IPCC_AR6_WGII_FinalDraft_FullReport.pdf 29. IPCC. “Sexto informe de evaluación del IPCC: Cambio Climático 2022. WMO-UNEP”. 2022.[en línea] [ref. 4 de mayo de 2022] Disponible en Web: https://report.ipcc.ch/ar6wg2/pdf/IPCC_AR6_WGII_FinalDraft_FullReport.pdf . ESTRATEGIAS BIOAMBIENTALES EN VIVIENDAS INDUSTRIALIZADAS EN LA PROVINCIA DE BUENOS AIRES, ARGENTINA. 1Angela Dub 1Facultad de Arquitectura y Urbanismo, Universidad de Buenos Aires, 1e-mail: a@dub.com.ar RESUMEN El siguiente trabajo de investigación desarrolla el proceso de construcción de dos viviendas industrializadas en el área rural de la Provincia de Buenos Aires, Argentina. Las mismas se encuentran en una zona especialmente afectada por la carencia de una red energética que acompañe el crecimiento edilicio que, si bien es de baja densidad, ha incrementado significativamente en los últimos diez años. Dichas viviendas se diseñaron a partir de estrictos parámetros bioambientales para poder acompañar el contexto energético local aprovechando al máximo su clima. El objetivo de esta ponencia es mostrar la aplicación de técnicas de diseño bioambiental y pasivo, que no agregan costo a la construcción, que fueron pensadas para minimizar el consumo energético de una vivienda en una zona de poca infraestructura de servicios. Como metodología para la definición de las técnicas más aptas, se utilizó software de simulación energética para evaluar parámetros de confort interior acorde a cada iteración de diseño posible. Así también, una vez terminada la construcción, se realizaron mediciones de temperatura y humedad en el interior de la vivienda nueva y en el interior de la vivienda original del sitio durante fines del invierno para evaluar el desempeño de las estrategias y de la performance general de las edificaciones nuevas. Dichas mediciones arrojaron evidencia de una mejora significativa en el confort interior y de la autonomía de la vivienda bioclimática viendo una mejora en las pérdidas de calor – las cuáles se redujeron – y en el control de la humedad. Así también, se incluye la colaboración con otros proyectos para potenciar su desarrollo. En primer lugar, se trabaja en conjunto con el proyecto de investigación ‘Abriga’, el cual se especializa en aislación térmica y acústica, para desarrollar mantos aislantes de máxima calidad a base de descartes de lana de oveja de los campos circundantes. En segundo lugar, se trabaja con organizaciones sociales locales parar lograr un sistema de disposición final de residuos eficiente mientras se capacita al personal sobre la importancia del cuidado de materiales en obra y del reciclaje, reutilización y separación de los mismos. El trabajo muestra una visión integral de proyecto parar lograr el net-zero con estrategias que van desde el diseño, el sistema constructivo utilizado, los materiales empleados, la gestión de obra y el mantenimiento. PALABRAS CLAVES: Arquitectura, Sustentabilidad, Vivienda industrializada. ENVIRONMENTAL STRATEGIES IN INDUSTRIALIZED DWELLINGS IN THE PROVINCE OF BUENOS AIRES, ARGENTINA. ABSTRACT The following research work develops the construction process of two industrialized houses in the rural area of the Province of Buenos Aires, Argentina. They are located in an area especially affected by the lack of an energy network to accompany building growth, which, although low density, has increased significantly in the last ten years. These houses were designed based on strict bio-environmental parameters to be able to accompany the local energy context, making the most of its climate. The objective of this paper is to show the application of bio-environmental and passive design techniques, which do not add cost to the construction, which were designed to minimize the energy consumption of a home in an area with little service infrastructure. As a methodology for defining the most suitable techniques, energy simulation software was used to evaluate interior comfort parameters according to each possible design iteration. Likewise, once the construction was finished, temperature and humidity measurements were made inside the new house and inside the original house on the site during late winter to evaluate the performance of the strategies and the general performance of the construction. the new buildings. These measurements yielded evidence of a significant improvement in interior comfort and the autonomy of the bioclimatic house, seeing an improvement in heat losses – which were reduced – and in humidity control. Also, collaboration with other projects is included to enhance its development. In the first place, it works in conjunction with the 'Abriga' research project, which specializes in thermal and acoustic insulation, to develop top-quality insulating blankets based on discarded sheep's wool from the surrounding fields. Secondly, we work with local social organizations to achieve an efficient final waste disposal system while training staff on the importance of caring for materials on site and their recycling, reuse and separation. The work shows a comprehensive vision of the project to achieve net-zero with strategies that range from design, the construction system used, the materials used, construction management and maintenance. KEY WORDS: Architecture, Sustainability, Industrialized housing. 1. INTRODUCCIÓN Argentina es un país rico en fuentes de energía no renovables (petróleo, gas, nuclear) y tiene un enorme potencial de fuentes renovables - principalmente solar, hidráulica y eólica. Debido a políticas macroeconómicas de los últimos 20 años, hoy el país se enfrenta a una gran crisis energética. La energía ha sido subsidiada por el Estado en un 70% durante los últimos 16 años, creando una población completamente inconsciente de su valor real y, por ende, de su uso consciente. El siguiente trabajo de investigación desarrolla el proceso de construcción de dos viviendas industrializadas en el área rural de la Provincia de Buenos Aires, Argentina, siendo su Latitud 34.6ºS y Longitud 58.4W. La Provincia de Buenos Aires es una región del hemisferio sur del continente americano limitada en su límite Este por el estuario del Río de la Plata. Se encuentra en el extremo norte de la llanura conocida como la 'Pampa'. Las viviendas se encuentran en la zona llamada ‘Pampa húmeda’, donde se desarrollan actividades agropecuarias de todo tipo (cría de caballos, ganadería y agricultura), en la localidad de Veinticinco de Mayo. Esta localidad se encuentra especialmente afectada por la carencia de una red energética que acompañe el crecimiento edilicio que, si bien es de baja densidad, se ha triplicado en los últimos diez años. Dichas viviendas se diseñaron a partir de estrictos parámetros bioambientales para poder acompañar el contexto energético local aprovechando al máximo el clima para lograr viviendas lo más autónomas posibles. 2. ARQUITECTURA INDUSTRIALIZADA 2.1 Introducción a la arquitectura industrializada en Argentina La arquitectura industrializada tiene origen en el siglo XIX. En Argentina particularmente, los sistemas industrializados más comunes son el Steel-framing, la construcción con perfiles de acero macizos y, muy por debajo de todo esto, la construcción en madera. A pesar de ser un país productor de toda la materia prima para estos tipos de construcción, todavía la construcción húmeda es la que predomina el mercado local. Además, recién en el año 2016 se aprobaron los sistemas constructivos de Wood-framing y Steel- framing como construcción ‘tradicional’ a nivel Nacional, siendo éste un impulso muy grande para su difusión e implementación ya que hace que estos sistemas no necesiten más contar con un Certificado de Aptitud Técnica (CAT) en cada obra que quieren ser utilizados. 2.2 Beneficios en materia de eficiencia de recursos La construcción industrializada tiene un gran potencial para bajar el impacto ambiental de una edificación ya que al tratarse de sistemas mucho más precisos se reduce considerablemente los desechos en obra. Así también, hay un gran ahorro de gastos energéticos durante la fase de fabricación al igual que durante su uso y mantenimiento. En lugares remotos donde los materiales son escasos, estos sistemas constructivos también reducen considerablemente la energía empleada en sistemas de transporte para los materiales y para los desechos de la obra ya que su planificación es mucho más precisa que aquella de la construcción convencional. Por otra parte, la construcción industrializada permite construir en mucho menor espesor y, por lo tanto, metraje, una envolvente con las mismas capacidades térmicas que una de construcción tradicional, teniendo un potencial para ser eficiente también en materia de recursos económicos.2 3. CASO DE ESTUDIO: CASA EN LOCALIDAD DE 25 DE MAYO, ÁREA RURAL DE LA PROVINCIA DE BUENOS AIRES 3.1 Clima La región centro de la Provincia de Buenos Aires tiene un clima subtropical húmedo (Cfa según la clasificación climática Köppen) con veranos cálidos y húmedos e inviernos templados. A lo largo del año, la temperatura fluctúa desde una máxima media mensual de 25ºC en los meses cálidos (diciembre y enero) hasta 10ºC de máxima en los más frescos (junio y julio). La Figura 1 muestra los distintos tres períodos climáticos identificables: un período cálido de noviembre a marzo con temperaturas medias entre 20-25ºC; un período templado en abril, septiembre y octubre, con temperaturas medias entre 15-20ºC; y un período fresco entre mayo y agosto con temperaturas medias por debajo de los 15ºC. Además, más del 60% de las horas con temperaturas por encima de la temperatura de confort se registran entre noviembre a marzo. La humedad relativa es muy alta durante todo el año (desde el 43% como mínima media durante diciembre, hasta el 91% como media máxima en junio). Esto intensifica tanto el calor del verano como el frío del invierno. Las precipitaciones se distribuyen uniformemente a lo largo del año, aunque en verano son más frecuentes las fuertes tormentas eléctricas, mientras que en invierno predominan las precipitaciones moderadas. La cobertura media de nubes oscila entre el 36% (principalmente despejado) en diciembre y el 65% (parcialmente nublado) en junio. La parte más despejada del año comienza a finales de septiembre, mientras que la parte más nublada comienza en mayo. Para el período cálido, la radiación solar es bastante alta con picos de 300W/m2 a las 13:00 para la radiación solar directa y de 450W/m2 para la radiación solar difusa. 1 Estas características climáticas se agudizan en la zona rural al ser extensiones muy grandes de pasto y cultivos, lo cual baja la temperatura causando heladas en invierno. Fig. 1 Clima en Prov. Buenos Aires (Dub, 2016) 3.2 Programa y exigencias en materia de energía El programa desarrollado fue el de una casa de huéspedes con dos dormitorios, un espacio para juegos para niños, una cocina-comedor y baños. A su vez, la construcción necesitaba ser lo más autosuficiente posible y utilizar la menor energía posible ya que la instalación eléctrica del predio se encuentra al límite de su capacidad de consumo diario, a raíz de una carencia de la central eléctrica local la cual no está preparada para el crecimiento que está teniendo la región. 3.3 Estrategias Para poder lograr una casa donde se logre el confort interior a lo largo de todo el año, se eligieron una combinatoria de estrategias tanto constructivas como de diseño para llevarlo a cabo. A continuación se desarrolla cada una de ellas por categoría. 3.3.1 Estrategias empleadas: Diseño Al buscar tener un edificio de muy bajo gasto energético, las estrategias de diseño fueron focalizadas para mejorar el confort en los meses calurosos, ya que es la época más crítica. En primera instancia, se buscó reducir la utilización de vidrio hacia el norte y el oeste para evitar un ingreso de sol excesivo en el verano. Por este motivo, los dormitorios, que están hacia norte, tienen una proporción de ventana/fachada del 25%. Estas ventanas a su vez están retiradas 50cm hacia el interior de la vivienda, logrando así un alero para cada una para evitar el sol directo durante el verano. En el caso de la fachada oeste, solamente se dejó una ventana que corresponde al espacio cocina. A su vez, se agregó un árbol cerca de la misma para proteger eta ventana del sol de tarde en los meses calurosos. La ventilación cruzada es una estrategia central lograr el confort en esta vivienda. Por este motivo, se buscó que todos los ambientes están en relación a 2 espacios exteriores. Es por esto que la casa está dividida en 3 volúmenes principales (ver Figura 2), teniendo así ventanas operables en cada extremo de cada ambiente. En el caso de los dormitorios, la segunda apertura está en relación al patio de distribución, donde se abre un ventilete sobre la pared del mismo para poder operarlo en los meses más calurosos (Figura 3). En cuanto al altillo donde se desarrolla un espacio más flexible para niños, se aplicaron entradas de aire sobre el piso coincidiendo con las ventanas retiradas de los dormitorios, para garantizar el ingreso de aire a este gran espacio (Figura 4). Todos los espacios tienen iluminación natural. En los baños y salas de máquinas se agregaron lucarnas cenitales, logrando así una autonomía de luz diurna del 100% durante el día. La misma estrategia se aplicó en el pasillo de distribución, el cual tiene una lucarna cenital a lo largo de todo el mismo. Fig. 2 Planta de distribución casa “La Escocesa” (Dub, 2022) Fig. 3 Ventiletes en dormitorios (Dub, 2022) Fig. 4 Ventiletes en altillo (Dub, 2022) 3.3.2 Estrategias empleadas: Sistema constructivo y envolvente Se eligió el sistema constructivo de Steel-Framing para desarrollar el proyecto al ser una tecnología apropiada para la mano de obra local y con tiempos de construcción muy ágiles. Así también, al ser una zona con caminos de acceso relativamente complejos, este sistema es apropiado ya que requiere pocos viajes para enviar todo el material al sitio dado a su gran precisión y posibilidad de planificación previa. En cuanto a la envolvente, se utilizaron materiales de baja intervención productiva para su desarrollo. En primer lugar, se trabajó en conjunto con el proyecto ‘Abriga’, grupo que desarrolla aislación térmica en base a lana de oveja recuperada de campos de la Provincia de Buenos Aires. La misma es biodegradable, hecha a partir de un material renovable, sin tóxicos agregados, es auto-extinguible y previene la condensación. Contiene un bactericida natural para impedir el crecimiento de hongos y moho y la invasión de insectos. 1kg de esta aislación captura 1.8Kg de CO2 y tiene capacidad agroscópica. Esta obra es la primera vivienda con aislación industrializada natural de Argentina. Se utilizaron 20mm de aislación térmica en la cubierta y piso y 15mm en muros exteriores (Figura 5). De esta manera, se evitó la utilización de poliestireno expandido. A su vez, también se desarrollaron mantos especiales más densos y finos para aplicar en el entrepiso como aislante acústico obteniendo muy buenos resultados. Los mismos también fueron agregados en sitios estratégicos para reducir la incidencia de puentes térmicos en puntos de unión. Para todos los revestimientos exteriores se utilizó chapa de acero galvanizada y para todos los interiores madera multilaminada. De esta manera se evitó por completo el mantenimiento de la vivienda, no habiendo materiales que requieran pintura periódica (Figura 6). Fig. 5 Colocación de aislación térmica (Dub, 2022) Fig. 6 Materiales de terminación (Dub, 2022) 3.3.3 Estrategias empleadas: Energía Para abastecer la poca energía eléctrica requerida por la vivienda se instalaron paneles fotovoltaicos con orientación noroeste sobre la cubierta de la casa, la cual tiene una inclinación de 45º. Al ser una zona rural, no está disponible la instalación de un medidor bidireccional para inyectar la energía sobrante a la red, por lo que se tuvieron que instalar baterías de litio para almacenar la energía solar generada. Así también, el agua caliente de toda la casa es abastecida mediante un termotanque solar el cual no está colocado sobre la casa misma para no interferir con el diseño de la misma, sino que está instalado sobre el suelo con orientación norte e inclinado a 45º, a unos metros de la casa. En cuanto a climatización para los períodos cálidos, la ventilación cruzada se complementa con ventiladores de techo los cuales consumen 60Wh/artefacto. En cuanto al período frío, se decidió utilizar estufas a gas de tiro balanceado para la climatización, ya que este es el recurso más disponible. 3.4 Materiales y Métodos Para la evaluación y verificación de la eficacia de las estrategias bioambientales aplicadas en las viviendas descriptas, se realizaron acciones en dos etapas: 1- Se realizaron simulaciones energética mediante software especializado (Ladybug Tools) para la etapa de diseño. 2- Una vez terminada la vivienda, se realizaron mediciones de temperatura y humedad durante una semana típica de invierno con data-loggers como método de análisis de post-ocupación. Dichas mediciones se realizaron tanto en la vivienda nueva como en una vivienda existente en el mismo sitio, hecha con construcción convencional (ladrillos) con el objetivo de comparar la efectividad de la envolvente nueva. Se registraron ΔTº de hasta 5ºC durante el período más frío, siendo la construcción existente la más desfavorable. Así también, hay una diferencia notoria en los valores de humedad. La construcción nueva tiene como aislación térmica lana de oveja, la cual tiene un capacidad higroscópica (absorbe y retiene la humedad). Esto se ve reflejado en las mediciones, donde la diferencia de Humedad Relativa entre la construcción nueva y la vieja llega a valores de hasta 3% de diferencia. 4. CONCLUSIONES Y PASOS A SEGUIR Las estrategias de diseño planteadas en etapas muy iniciales del diseño tuvieron un efecto muy positivo en el confort interior de la vivienda. Hubieron muy pocos elementos que se cambiaron en la etapa de proyecto y tras el proceso de simulación vía softwares para ajustar aquellas ideas. Por este motivo se desea reforzar la importancia de este proceso de diseño ya que de esta manera se logra respetar la calidad estética del proyecto intencionada en un principio. Así también, se puede afirmar que la sumatoria de estrategias elegidas dieron el resultado esperado encontrando un buen balance entre rendimiento energético y diseño. Próximamente se realizarán mediciones de post-ocupación con cámara termográfica, luxómetro, y data-loggers de temperatura y humedad para evaluar el comportamiento de la vivienda y la envolvente en el período frío y el período caluroso, para así medir el rendimiento efectivo de su envolvente y el gasto energético concreto para ajustar y calibrar proyectos futuros. RECONOCIMIENTOS Los autores desean agradecer a la Maestría en Sustentabilidad en Arquitectura y Urbanismo de Facultad de Diseño, Arquitectura y Urbanismo de la Universidad de Buenos Aires y a sus Directores, los Drs.Arqs. John Martin Evans y Silvia de Schiller. Así también, un especial agradecimiento a la Maestranda Arq. Alejandra Núñez Berté, Directora del proyecto ‘Abriga’ quien desarrolló los mantos aislantes a base de lana de oveja especialmente para este proyecto. REFERENCIAS 1. DUB, Angela. “Strategic Urban Design for the urban block of Buenos Aires”. Tésis de Maestría Architectural Association School of Architecture. Londres, 2017. 2. INCOSE, Instituto de la construcción en Seco Argentino. “Manual de la construcción en seco”. Buenos Aires, 2011. 3. NÚÑEZ BERTÉ, Alejandra; EVANS, John Martin. “Aislación térmica a base de lana de oveja”. Jornadas de Investigación, FADU-UBA, Buenos Aires, 2021. Sobre la autora Angela Dub es Magíster Arquitecta por el Architectural Association School of Architecture (Londres, Reino Unido) y Arquitecta por la Facultad de Arquitectura, Diseño y Urbanismo de la Universidad de Buenos Aires. Actualmente se desempeña como Coordinadora Académica de la Maestría Sustentabilidad en Arquitectura y Urbanismo en FADU-UBA donde también es Profesora. Es miembro del Comité Científico de PLEA (Passive Low Energy Architecture) y de Circular Influence. Es Directora de DUB I Arquitectura y Sustentabilidad. CENTRO COMUNITARIO CUEZCOMATE: EJEMPLO DE ARQUITECTURA SUSTENTABLE Aleyda Reséndiz Vázquez1 1Escuela Superior de Ingeniería y Arquitectura (unidad Tecamachalco) del Instituto Politécnico Nacional (IPN), Alfonso Herrera 67-516 colonia San Rafael, alcaldía Cuauhtémoc, CDMX, C.P. 06470, 1e-mail: aleyda.resendiz@gmail.com, aresendizv@ipn.mx RESUMEN El centro comunitario Cuexcomate es un edificio público construido en la comunidad de Xoxocotla, Morelos, en México. El proyecto de este Centro se da en el contexto de la reconstrucción posterior a los sismos de septiembre de 2017 ocurridos en varios estados del país. El hilo conductor que ha guiado este proceso, actualmente en puesta de operación, es la resiliencia y la sustentabilidad. El objetivo general de la presente comunicación es mostrar los aspectos del proyecto y de la construcción que ilustran los principales ámbitos de la sustentabilidad; de donde se desprende como objetivo específico analizar los ámbitos social, ambiental y económico en el diseño y la construcción con bloques de tierra comprimida (BTC). Metodológicamente, la investigación recopiló datos del proceso de diseño participativo y de la producción social del hábitat con lo que se alimentó la investigación-acción. La investigación coproducida, fue una fuente de datos cualitativos que dieron soporte al diseño y construcción del Centro Comunitario. Los resultados de la investigación muestran, en las diferentes fases del proceso participativo (gestión, diseño, construcción, operación), cómo la construcción de resiliencia es un proceso rectangular en donde los diferentes actores pueden colaborar en disminuir vulnerabilidades a partir de la arquitectura sustentable. PALABRAS CLAVES: reconstrucción, resiliencia, co-producción, producción social del hábitat. COMMUNITY CENTER CUEZCOMATE: EXEMPLE OF SUSTAINABLE ARCHITECTURE ABSTRACT The Cuexcomate community center is a public building built in the community of Xoxocotla, Morelos, in Mexico. The project of this Center occurs in the context of the reconstruction after the earthquakes of September 2017 that occurred in several states of the country. For the creation of the project and the construction, different principles were used, such as participatory design, the social production of the habitat ant the co-production of the habitat and the co-production of knowledge. The common thread that has guided this process, currently in operation, is resilience and sustainability. Several aspects of the design and construction illustrate the main areas of sustainability; above all, construction with compressed earth blocks synthesizes and crystallizes the social, environmental and economic spheres. The research co-produced for the project and construction, in addition to supporting the creation of the Community Center, is a source of qualitative data the supports the materialization of sustainable architecture. KEY WORDS: reconstruction, resilience, co-production, social production of habitat. 1. INTRODUCCIÓN La experiencia de investigación-acción, de reconstrucción social e integral, en el estado de Morelos posterior a los sismos de septiembre de 2017 ilustra cómo la co-producción de espacios urbano- arquitectónicos, contribuyen a la generación de una cultura de resiliencia. El proyecto y construcción de un Centro Comunitario y la rehabilitación de la unidad deportiva se localiza en el municipio indígena de Xoxocotla, en donde la necesidad de reconstrucción presentó la oportunidad de generar proyectos comunitarios. El proyecto es el resultado de un proceso de investigación, de estudios y de diseño de un grupo de académicos de diferentes universidades que, en conjunto con la comunidad, fundaciones, y diferentes actores comunitarios, se han comprometido con la Sociedad. Este trabajo evidencia la construcción de resiliencia en un contexto de reconstrucción a partir de la consideración de factores sociales, en proyectos urbano-arquitectónicos. La construcción del Centro Comunitario “Cuexcomate” se realizó con bloques de tierra comprimida (BTC) lo que muestra cómo un material sostenible puede ser un elemento de integración comunitaria y de oportunidad laboral, sintetizando los tres pilares de la sustentabilidad: social, económico y ambiental. Antecedentes La vulnerabilidad urbano-arquitectónica que presentan gran parte de las comunidades en nuestro país fue la preocupación que unió a un grupo de profesionistas, profesores e investigadores de diferentes instituciones con el fin de repensar los problemas y las soluciones del hábitat. A través de la investigación acción se participó en la construcción y reconstrucción de comunidades vulnerables física, económica y socialmente. En 2016, el trabajo de co-producción inició con el proyecto para la construcción de viviendas en los municipios de Comalcalco y Cunduacán, Tabasco, denominado “Casas bellas, seguras y sustentables” [1]. Aquí, el riesgo de inundación aunado a la pobreza y a la falta de oportunidades fueron los generadores de un proyecto de vivienda que incorporó en el diseño elementos de resiliencia. La co-solución se materializó con la utilización de materiales locales, principalmente provenientes de la tierra. Un segundo proyecto nace a raíz de los sismos de septiembre de 2017 en el estado de Morelos, uno de los más afectados, en Ocoxaltepec, Ocuituco, Morelos en donde mucha vivienda fue destruida o gravemente dañada. En esta comunidad, se propuso la construcción de un centro comunitario para realizar diferentes actividades culturales y de formación con el propósito de generar resiliencia. La experiencia generada en estos dos proyectos consolidó procesos de construcción social del hábitat como respuestas de reconstrucción post-desastres y de construcción social de resiliencia. Estas experiencias fueron las que permitieron realizar el Centro Comunitario y la rehabilitación de la unidad deportiva del municipio indígena de Xoxocotla, Morelos, como parte de los trabajos de reconstrucción de este municipio. Los tres proyectos son el resultado de un proceso de investigación, de estudios y de diseño de un grupo de académicos de diferentes universidades que, en conjunto con la comunidad, con asociaciones, fundaciones, y diferentes actores comunitarios se han comprometido con la Sociedad. El encuentro de diferentes actores con la participación de la comunidad se encaminó a realizar un proyecto que permitiera a la comunidad tener acceso a cursos, capacitaciones, a cultura en general, como espacios catalizadores de procesos de resiliencia. Cuexcomate Para el centro comunitario construido en el municipio indígena de Xoxocotla, Morelos (2017-2021) se decidió el nombre de Centro Comunitario “Cuezcomate”. Como muchos objetos prehispánicos y artesanales, se encuentra en peligro de extinción, por lo que la denominación es también una contribución a la preservación de la tradición cuexcomatera que forma parte de la cultura indígena del municipio. El nombre, además de representar a las tradiciones de la comunidad, es un instrumento de preservación de la arquitectura vernácula, de la cultura y de los valores de la comunidad. La denominación, desde un enfoque socio-ambiental, está en completa relación con el proyecto arquitectónico realizado para el Centro Comunitario representando una relación armoniosa del ser humano con su entorno. El cuezcomate es una pieza prehispánica. Su uso está asociado a una tradición ancestral, relacionada con el maíz, grano principal del sustento mexicano. La relación de este objeto con el maíz le confiere un significado de abundancia y renovación. Es una pieza prehispánica que combina materiales locales como la paja y el barro y forma parte de la arquitectura histórica constituyéndose así en un testimonio de la arquitectura en tierra. El cuescomate es fundamentalmente una troje de almacén. Es un tipo de granero tradicional, mesoamericano, en la que los campesinos almacenan el grano de maíz en buenas condiciones de ventilación y resguardo. La arquitectura del cuezcomate, como es el caso de la arquitectura vernácula, puede tener relación con el paisaje, los materiales del lugar y las creencias. La forma, tamaño y técnica de construcción del cuezcomate es particular y diferente de los demás graneros tradicionales. El cuexcomate “tipo Xoxocotla” es ya casi inexistente [2], por lo que la valorización de este patrimonio es de suma importancia social y cultural. 2. HÁBITAT SUSTENTABLE Y RESILIENTE Cuando nos referimos al hábitat, lo hacemos desde la perspectiva de los asentamientos humanos, de la vivienda, de la problemática de diferentes territorios urbanos y no urbanos, también a la espacialidad de la sociedad. Es decir, el hábitat considerado desde su integralidad y el cual no sólo tiene una dimensión física, sino también política, económica, social, ambiental y cultural. Nos referimos a este hábitat generador de condiciones de vida individuales y sociales. El concepto de hábitat está íntimamente relacionado al de habitabilidad asociados a su vez con aspectos que vinculan con las dimensiones físicas, económicas y ambientales del contexto, relacionado con condiciones que garanticen seguridad. El concepto de habitabilidad, en sus diferentes escalas mínima, básica, aceptable, considera que el hábitat debe incluir infraestructura, servicios como abastecimiento de agua potable, saneamiento, eliminación de desechos, transporte, energía, equipamiento de salud, educación, espacios para el descanso y recreación entre otros aspectos. La habitabilidad no sólo está condicionada a los componentes físicos del espacio, sino también a aspectos sociales, psicológicos y culturales que delimitan las necesidades habitacionales, y los requerimientos de las personas en un momento y en un contexto determinado. Lo cual sugiere, en cualquier tipo de proyecto, intervención o investigación, la comprensión del modo en que los espacios son habitados; de los modos de vida según tradiciones y costumbres, de las relaciones entre las personas y los espacios que habitan. Por lo tanto, el hábitat y su habitabilidad exigen indagar cómo viven los seres humanos, actualmente y en un futuro de mejores condiciones. Dos conceptos y principios han acompañado a estos proyectos: la resiliencia y la co-producción. La co- producción entendida como la colaboración entre la comunidad científica, el gobierno y la sociedad civil, como principales actores, en la co-identificación de problemas, la producción de conocimiento y su aplicación. La resiliencia comprendida como la capacidad de un sistema -y de sus redes socio-ecológicas y socio-técnicas a través de escalas temporales y espaciales- para mantener o regresar rápidamente a las funciones deseadas frente a una perturbación. Resiliencia Los riesgos de desastre están relacionados con diferentes fenómenos físicos, que se convierten en amenazas, como los sismos, los huracanes, las sequías; o, a diferentes fenómenos socio-naturales como las inundaciones; o, a fenómenos sociales como las guerras o los incendios. De esta manera nos referimos a riesgos de origen hidrometeorológico, geológico, humano o tecnológico. Los desastres corresponden a la fase ciclo del riesgo en donde se cristalizan diferentes condiciones que generan pérdidas y daños, materiales y humanos. De esta manera, el riesgo de desastre y el desastre mismo corresponden a un conjunto de factores, que son la relación de una o varias amenazas, de origen natural o antrópico, combinados con condiciones de vulnerabilidad que muchas veces condicionan el hábitat, su exposición y en donde, a su vez, el hábitat genera condiciones de vulnerabilidad. Factores que puedes ser contrarrestados, en algunos esquemas sociales, por condiciones de resiliencia. Los desastres no son naturales. En la ecuación que lo construye existe el componente de vulnerabilidad. La definición básica de vulnerabilidad se refiere a las características de una persona o grupo, que influencian su capacidad de anticipar, manejar, resistir y recuperarse del impacto de una amenaza [3]. En donde, hay un componente físico que es la amenaza, y otro social que es la vulnerabilidad. La interacción entre la amenaza y la vulnerabilidad genera condiciones que pueden culminar en un desastre. Entonces, una misma amenaza, en diferentes contextos de vulnerabilidad, puede presentar diferentes niveles de impacto. Dos importantes sismos ocurrieron en México en septiembre de 2017, en donde uno de los estados más afectados fue el de Morelos, en el centro del país. En el ciclo de la Gestión Integral de Riesgo de Desastre, la fase de reconstrucción puede ser una oportunidad para mejorar las condiciones de un lugar determinado anteriores a cualquier fenómeno perturbador, en el caso de Xoxocotla lo fue el sismo, es decir, la fase de reconstrucción es el momento en el que se pueden aumentar las capacidades frente a los riesgos existentes. 3. MATERIALES Y MÉTODOS La metodología que soporta la investigación-acción se articula en tres ejes: i) diseño participativo; ii) producción social del hábitat; y iii) co-creación. i) A partir de un diseño participativo, la comunidad de Xoxocotla colaboró en el diagnóstico de los problemas y necesidades de la comunidad, a partir de un análisis de vulnerabilidades versus capacidades. En la investigación este proceso fue documentado a través de encuestas, entrevistas y talleres participativos. ii) La producción social del hábitat se basa en la capacidad de participación y de organización de las comunidades en la creación de sus condiciones de vida y por lo tanto de sus espacios urbano-arquitectónicos; de esta manera, los procesos de toma de decisiones, gestión y construcción se realizaron en conjunto con la comunidad. Se realizaron talleres de capacitación con diferentes actores, con diferentes condiciones sociales (jóvenes, mujeres, adultos, adultos mayores). La capacitación se basó en la elaboración de bloques de tierra comprimida (BTC); proceso que fue documentado y complementado con entrevistas a los diferentes actores participantes. iii) La co-creación, en la que se establece la colaboración entre la comunidad científica, el gobierno y la sociedad civil en la co-identificación de problemas, la producción de conocimiento y su aplicación, fue un proceso transversal que acompañó la investigación-acción participativa con un enfoque de construcción social de resiliencia y sustentabilidad. 4. PROYECTO Y CONSTRUCCIÓN SUSTENTABLE Para lograr una adaptación al contexto del municipio de Xoxocotla y principalmente de lograr la construcción de un hábitat, el proyecto se desarrolló a partir de estrategias definidas desde la sustentabilidad, para así mejorar las calidades de la intervención arquitectónica desde los ámbitos ambiental, económico y social. La construcción del centro comunitario y la rehabilitación de la unidad deportiva de Xoxocotla Morelos se realizó en un predio de superficie de 21096.89 m2. El uso del Centro Comunitario es prioritariamente de uso cultural, deportivo y lúdico, en tanto que la unidad deportiva conserva su uso deportivo. Las primeras visitas a la comunidad tuvieron el objetivo de conocer las necesidades de los pobladores en relación con la rehabilitación del Centro deportivo y cultural, dañado por el sismo del 19 de septiembre de 2017. Se realizaron encuestas, entrevistas y un mapeo comunitario con los asistentes a los talleres participativos. Los temas tratados fueron principalmente el nivel de educación, prioridad de necesidades sociales y grupos prioritarios para la comunidad, además de necesidad de espacios deportivos, culturales y de capacitación. Los participantes mencionaron que las áreas de la comunidad que necesitan más apoyo son la seguridad, la salud y el deporte. Los habitantes expresaron que los grupos de personas que necesitan más apoyo en la comunidad son los niños, los jóvenes y los adultos mayores. Cabe mencionar que se hace especial énfasis en los jóvenes debido a la existencia de fuertes problemas sociales como el alcoholismo y la drogadicción. Los temas que surgieron por medio de un mapeo realizado en el taller participativo fueron: seguridad (control, delitos); medio ambiente (basura, parques, agua); espacio público; actividades deportivo-culturales, educación; economía y productividad (actividades laborales, comercio, agricultura). La seguridad es un factor de especial importancia para la comunidad ya que la inseguridad está presente en todo el municipio. En el rubro de medioambiente, se señaló la casi total ausencia de áreas verdes. En relación con la práctica de actividades deportivo-culturales y educación, se detectó la falta de actividades lúdicas, culturales y deportivas. En los ámbitos cultural y educativo faltan talleres de capacitación, de arte y de cultura. En el tema laboral, la falta de empleo está considerada como el mayor problema de la comunidad de Xoxocotla. Los participantes expresaron el deseo de una recuperación parcial de las actividades agrícolas. Otro aspecto interesante expresado por los habitantes fue el reciclaje, se habló de la posibilidad de una mejor gestión de los desechos, con la posibilidad de convertirse en una ganancia económica para la comunidad. Finalmente, los ciudadanos detectan en la educación un factor importante de crecimiento y mejora de las condiciones de vida. De esta manera, en estrecha comunicación con la comunidad se conocieron las necesidades de los pobladores en relación con la rehabilitación del Centro deportivo y cultural. Así, se definió como objetivo general de proyecto: Construir un centro comunitario para contribuir al fortalecimiento de capacidades de resiliencia en la comunidad de Xoxocotla y rehabilitar la unidad deportiva dañada por los sismos de 2107. La construcción del centro comunitario se divide en dos edificios conectados a través de un pórtico común [Fig. 1]. Los edificios están modulados a partir de claros de 2.40 m. y 4.80 m. El edificio 1, es el edificio más alto con 6.48 m de altura. En este edificio se ubican tres baños, un espacio cerrado para diferentes talleres, una sala grande, semiabierta (de usos múltiple), un local para almacenamiento donde se ubica el tinaco, un vestíbulo de acceso y un tapanco multiusos. El edificio 2, más pequeño, cuenta con 5 espacios cerrados para para aulas didácticas/talleres y un espacio para oficinas. El sistema estructural utilizado es mixto. La estructura portante del edificio 1 es de acero, mientras que la estructura del edifico 2 es de mampostería confinada con castillos y cadenas de concreto armado. En ambos edificios, los muros divisorios son de bloques de tierra comprimidos (BTC). Estas estructuras soportan la techumbre que en ambos edificios es de lámina acanalada. La estructura mixta para los dos edificios que integra acero y BTC, es de tipo “Mattone”, tecnología desarrollada por Roberto Mattone profesores del politécnico de Turín [4]. Ámbito ambiental Se desarrollaron diferentes estrategias de diseño bioclimático para lograr una mejor integración con el medioambiente. Considerando el clima cálido y seco de Xoxocotla y de esta región de Morelos, se tomó la decisión de orientar el conjunto arquitectónico a lo largo del eje norte-sur, limitando la exposición solar. La presencia de pórticos en los dos edificios permite limitar la radiación directa sobre las paredes de mampostería, limitando así el calor al interior. Las techumbres ligeras en los dos edificios permiten dejar abiertas superficies de ventanas para garantizar la ventilación cruzada en todos los locales. Un Figura 1: Centro Comunitario Cuezcomate, Xoxocotla Morelos. Edificios 1 y 2. Foto: Jaime Navarro, 2021. sistema de plafones de carrizo permite evitar la irradiación solar de la techumbre; las puertas y las ventanas de carrizo entretejido también permiten el paso de aire y luz hacia el interior, limitando la radiación solar. La lámina está recubierta con pintura aislante, para disminuir el calentamiento del edificio. La construcción con BTC permitió rapidez de construcción y una arquitectura que integra materiales tradicionales con tecnologías contemporáneas1 [Fig. 2]. Las características mismas del bloque permiten unas mejores condiciones ambientales adentro del edificio y una notable apariencia estética del material, ahorrando en materiales de recubrimiento. En el edificio “1” la estructura metálica de marcos rígidos de perfiles estándar de acero se combina con muros de mampostería de BTC, con juntas elásticas entre tierra y acero; mientras que en el segundo edificio el mismo muro de BTC reforzado con elementos puntuales de concreto armado, trabaja como mampostería confinada y sujeta la techumbre de IPR de acero con techo de lámina. La cimentación en este último edificio es de mampostería de piedra local. Ámbito económico Las decisiones estructurales las tecnologías y los materiales permitieron ahorros de tiempo en los trabajos de construcción del centro comunitario. La producción completa del BTC se logró en 3 meses para los dos edificios con trabajadores locales formados a través de talleres participativos. Los materiales empleados y dejados aparentes también han representado un ahorro importante. Cabe mencionar que el 80% de los materiales utilizados para el centro comunitarios son reciclables: mampostería de piedra, acero, BTC y carrizo, limitando el uso de concreto armado solo en parte de la cimentación y en los refuerzos de muros de mampostería. El aparejo del BTC con machihembrado, permitió el colado adentro de los contrafuertes, ahorrando en cimbra de madera. Las cancelerías de puertas y ventanas integran marcos de acero y entretejido de carrizo también comprado in situ. 1 Los bloques “Mattone” han sido producidos “in situ” con tierra local de la región de Morelos, utilizando maquinaria donada por la embajada italiana en México y traída de Italia; la construcción se realizó con el apoyo de la comunidad de Xoxocotla que ha participado a talleres de capacitación. Figura 2: materiales locales (carrizo y BTC). Foto: Jaime Navarro, 2021. De esta manera se logró un coste de construcción por metro cuadrado inferior al coste medio de construcción de una vivienda de interés social en México [5]. Ámbito social El integrador social empezó con la realización de talleres participativos para conocer los problemas y las necesidades de la población [Fig. 3]. El proceso no siempre es fácil y evidente ya que existen muchos problemas de violencia, de género y de división social. Algunas veces esperando la participación de niños, de jóvenes, de mujeres para conocer sus expectativas en relación con un nuevo espacio que respondiera a sus necesidades, llegaban adultos, la mayoría o la totalidad siendo hombres, a expresar sus propias necesidades algunas ajenas al resto de la comunidad. El proyecto desarrolla diferentes estrategias de integración social, a corto y largo plazo. La tipología arquitectónica del Centro comunitario está pensada para el planteamiento de diferentes funciones y usos en el futuro, permitiendo el desarrollo de actividades con diferentes capacidades para los diversos tipos de usuarios. El centro tiene como finalidad el aprendizaje de la comunidad de Xoxocotla, a través de actividades lúdicas, recreativa y culturales, que completan las actividades del centro deportivo, que también se ha intervenido con pequeñas mejoras de sus instalaciones. A mediano y largo plazo el centro funcionará para contener una serie de actividades, ligadas al desarrollo de los jóvenes y los adultos mayores, una parte del edificio “2” será dedicada a una pequeña mediateca para la navegación gratuita en el internet. Otros espacios en este mismo edificio serán dedicados a oficinas y pequeños talleres. En el edificio “1” se propone un gran salón multiuso para el baile, el deporte y otros eventos y otro espacio grande que funcionará como taller para artes y cocina. Este edificio, dispone de baños y un tapanco para relajación, lectura y/o actividades lúdicas. El proceso de construcción con BTC permitió la capacitación e inclusión de un número creciente de trabajadores y maestros dentro del proceso de construcción del centro comunitario de Xoxocotla. Este fenómeno es un gran éxito social de la obra, tanto por la formación técnica de los albañiles locales, que han podido ampliar sus conocimientos técnicos, así como por la posibilidad de establecer conexiones culturales y de hermandad entre diferentes culturas del país: la convivencia entre la empresa foránea y trabajadores locales. Figura 3: Talleres participativos, Xoxocotla, Morelos, diciembre, 2018. La unión de esfuerzos de diferentes actores se expresa en el tipo de proyecto arquitectónico desarrollado, su calidad y su carácter innovador. El equipo de producción no sólo respetó tiempos y calidades de producción de los bloques y su montaje, sino también aprovechó los talleres de capacitación, participando activamente en el proceso de mejora de los estándares de producción. Seguros de los conocimientos adquiridos, el equipo de trabajadores capacitados en BTC (locales y foráneos) ofrecen ahora capacitación a futuros trabajos de arquitectura a realizarse con esta tecnología (BTC estabilizado), demostrando actitud y conciencia, hecho de haber aprendido muchos de los secretos de esta tecnología. 5. CONCLUSIONES En la construcción de resiliencia es importante la existencia de espacios públicos de convivencia, materializados en parques, jardines, plazas y centros comunitarios. Estos elementos construidos le otorgan al hábitat las cualidades necesarias para la convivencia social que motiva la cohesión de la población y la posibilita a crear procesos de apropiación del espacio. Como menciona Casillas [6] “Tres elementos existen y son determinantes para la construcción de un código social que condiciona la habitabilidad doméstica al espacio y articula la vida cotidiana; es decir: hombre, cultura y espacio”. El hombre como actor social que es quien construye el espacio, quien toma consciencia de su espacio y de su entorno. El hombre a través de diferentes prácticas sociales, económicas, ambientales y culturales, ordena su espacio y le otorga valor y significado. A su vez el espacio les otorga otros sentidos y valores a sus espacios o a nuevos espacios. De donde la importancia de la lectura e interpretación del hombre, su cultura y espacio, en los procesos de co-producción del espacio arquitectónico y urbano [Fig. 4]. La reconstrucción posterior a un desastre es un momento crucial para reproducir las condiciones anteriores al desastre o para construir nuevas oportunidades y capacidades [7]. La co-producción puede llevar a la generación de nuevas formas de habitar y de ser, al modificar los procesos socio-culturales, económicos, políticos, construyendo socialmente procesos de resiliencia. Figura 4: construcción de nuevas oportunidades. Foto: Jaime Navarro, 2021. RECONOCIMIENTOS Se agradece profundamente a todos los que han permitido, ayudado y colaborado con la obtención de los resultados referidos en este artículo, y sobre todo realizado del Centro Comunitario Cuezcomate. Al promotor: Fundación Panamericana para el Desarrollo México (PADF); a los proyectistas: grupo de arquitectos Re:lab (Federico Colella, Aleyda Reséndiz, Brenda Hernández, Riccardo Caffarella); a la empresa contratista: Diseño & Construcción; a la colaboración académica en los estudios preliminares de la tierra para la elaboración de los bloques de tierra comprimida (BTC): Dr. Luis Fernando Guerrero Baca y arquitecta Gloria Mattone. Principalmente a la comunidad de Xoxocotla, y en especial los representantes de la Unidad Deportiva, quienes han sido, a lo largo de la realización de este proyecto, los principales participantes. REFERENCIAS 1. RESÉNDIZ Aleyda; HERNÁNDEZ Brenda; CAFFARELLA Riccardo, et.al.; “Casas bellas, seguras y confortables. Resiliencia social y ambiental”, pp. 146-157 in N. Benach, M.A. Alió, B. Aco y C.J. Rojas (eds.), La participación ciudadana en los procesos de hacer ciudad. España: Colección Geocrítica de Textos Electrónicos, Universitat de Barcelona, 2019. 2. ALPUCHE Oscar. El saber tradicional del cuexcomate en Morelos. México: Universidad Autónoma del Estado de Morelos, 2015. 3. WISNER Ben, BLAIKIE Pier, CANNON Terry and DAVIS Ian. At risk: natural hazards, people's vulnerability and disasters (2a ed.), Londres: Routledge, 2003. 4. Azzociazione MATTONE SU MATTONE. Disponible en WEB: http://www.mattonesumattone.eu/Index/associazione.asp 5. Diario oficial de la federación (Costos por metro cuadrado de vivienda de interés social). Disponible en Web : https://www.dof.gob.mx/nota_detalle.php?codigo=5642456&fecha=10/02/2022#gsc.tab=0 6. GARCÍA CASILLA Elisa Marcela. “Diálogos: habitabilidad en el espacio doméstico”, p. 46 en GARCÍA CASILLAS Elisa Marcela, JIMÉNEZ VACA Alejandro, Arquitectura y vida cotidiana en México. México: Ediciones Navarra, 2020. 7. RESÉNDIZ, A. “Urban Resilence and Post-Disaster Reconstruction. Evidences from Mexico and France”, pp. 267-280 in Brunetta, G., Caldarice, O., Tollin, N., Rosas-Casals, M., Morató, J. (Eds.), Urban Resilience for Risk and Adaptation Governance (Theory and Practice). Suiza: Springer Nature, 2019. Sobre la autora Doctora en Historia tecnológica de la Arquitectura por el Conservatoire National de Arts et Métiers de París, maestra en Ciencias en la especialidad de Arquitectura por el Instituto Politécnico Nacional, arquitecta por la Benemérita Universidad Autónoma de Puebla y especialista en Gestión Integral de Riesgos de Desastre por la Escuela de Administración Pública del Distrito Federal. Miembro del Sistema Nacional de Investigadores del CONACYT, nivel 1. Profesora e investigadora de la Sección de Estudios de Posgrado e Investigación (SEPI) de la Escuela Superior de Ingeniería y Arquitectura (ESIA), unidad Tecamachalco, del Instituto Politécnico Nacional (IPN). EL MONITOREO COMO VÍA DE EVALUACIÓN DE LA SUSTENTABILIDAD ARQUITECTÓNICA. EL HOTEL MOKA Lazaro Yerandy Morales Camacho1*, Natali Collado Baldoquin2, Luis Alberto Rueda Guzmán3, Dania González Couret4 1Arquitecto, Facultad de Arquitectura, Universidad Tecnológica de La Habana, Cujae, 2Doctora en Ciencias Técnicas, Facultad de Arquitectura, Universidad Tecnológica de La Habana, Cujae, 3 Doctor en Ciencias Técnicas, Facultad de Arquitectura, Universidad Tecnológica de La Habana, Cujae.4 Doctora en Ciencias, Facultad de Arquitectura, Universidad Tecnológica de La Habana, Cujae. 1mail: lyerandymc@gmail.com RESUMEN Aunque existen muchos métodos de evaluación de la sustentabilidad a escala urbana y arquitectónica, no se han desarrollado procedimientos específicos para comunidades rurales ecoturísticas, lo cual ha sido propuesto como parte de un proyecto internacional para la evaluación de la sustentabilidad de la comunidad Las Terrazas, y aplicado al Hotel Moka, localizado en ella. A partir del marco teórico se identificaron variables, parámetros e indicadores y se elaboró un método de evaluación, que fue aplicado en una primera valoración cualitativa del hotel en la segunda etapa de la investigación. Posteriormente, se diseñó un sistema de monitoreo para verificar los resultados de la evaluación cualitativa inicial de la variable Arquitectura, entendida como calidad ambiental de los espacios interiores. En la ponencia se presentan los criterios seguidos para diseñar el sistema de monitoreo. PALABRAS CLAVES: Monitoreo, evaluación de la sustentabilidad, arquitectura, Hotel Moka MONITORING AS A WAY TO ASSESS ARCHITECTURAL SUSTAINABILITY. MOKA HOTEL ABSTRACT Although there are several methods to assess sustainability in the urban and architectural scale, specific procedures for rural Eco touristic communities have not been developed. It has been proposed as a part of an international project to assess sustainability in the community Las Terrazas, and applied to the Moka Hotel, located on it. From the theoretical framework, variables, parameters and indicators were identified and an assessment method was elaborated and applied for a first qualitative evaluation of the hotel during the second research step. Later on, a monitoring system was designed in order to verify the results of the qualitative evaluation for the variable “Architecture”, as the environmental quality of indoor spaces. The criteria to design the monitoring system are presented and discussed in the paper. KEY WORDS: Monitoring, sustainability assessment, architecture, Moka Hotel 1. INTRODUCCIÓN El monitoreo es de vital importancia como herramienta para verificar la efectividad de las soluciones arquitectónicas, así como las evaluaciones cualitativas o mediante simulaciones automatizadas. Los resultados del monitoreo pueden constituir información de entrada para el desarrollo de simulaciones confiables y permiten proponer soluciones encaminadas a mejorar el ambiente térmico, sonoro y visual interior en los edificios. El proyecto internacional VLIR-USO, en colaboración conjunta entre la Universidad Ghent de Bélgica y la Universidad Tecnológica de La Habana José Antonio Echeverría (CUJAE), indaga sobre la sustentabilidad de destinos ecoturísticos vinculados a comunidades rurales. El ambiente térmico y visual interior que condiciona la demanda energética de los edificios es esencial en el logro de ese objetivo, razón por la cual este artículo se enfoca en la elaboración y diseño de un plan de monitoreo de una solución arquitectónica, identificada como variable en el procedimiento de evaluación de la sustentabilidad para destinos ecoturísticos, específicamente, de su ambiente térmico y visual interior. Como caso de estudio para aplicar el procedimiento de evaluación se tomó el Hotel Moca, en la comunidad Las Terrazas. El sistema de monitoreo propuesto en este trabajo contribuye a verificar evaluaciones cualitativas precedentes, e incluso, resultados de simulaciones automatizadas, y servirá de base para la toma de decisiones y el desarrollo de futuras propuestas de transformación con vistas a mejorar el ambiente térmico y visual interior, así como reducir el consumo de energía en esta edificación. 2. MATERIALES Y MÉTODOS Se comenzó elaborando un marco teórico en el cual se identifican variables ambientales que influyen en el confort interior de los espacios, así como los parámetros e indicadores a través de los cuales estas pueden ser evaluadas, tales como: 1- Ambiente Térmico, que además de los aspectos subjetivos percibidos por cada persona, también está condicionado por parámetros físicos medibles [1 ] como temperatura del aire, humedad relativa, temperatura media radiante, temperatura de las superficies y velocidad del aire. 2- Ambiente Visual, en el cual se definen como parámetros más influyentes los niveles de iluminación de conjunto con la Uniformidad y el deslumbramiento. [2 ] 3- Ambiente Sonoro, enfocado principalmente en las vibraciones que se propagan por un medio elástico como el aire. [3] A su vez se caracterizaron variables de diseño que condicionan el ambiente interior de las edificaciones, como su contexto, el volumen generado por la construcción, las proporciones del espacio, así como la envolvente generada por los elementos de cierre. [4 ] Sobre esta base, y teniendo en cuenta los equipos de medición disponibles, se diseñó un sistema de monitoreo encaminado a verificar el comportamiento de parámetros que caracterizan el ambiente térmico, visual y sonoro en aras de verificar la validez de los criterios asumidos para las evaluaciones cualitativas preliminares realizadas. Instrumentos y formas de medición empleadas. (Figura_1) 1- Ambiente Térmico. • Piranómetro (2): Mide la radiación solar incidente sobre la superficie de la Tierra, por tanto, se ubican en exteriores expuestos a la radiación solar. • Termohigrómetro (1): Registra datos de temperatura y humedad relativa, colocados en interiores de los locales (habitaciones, restaurante y oficinas) y uno en exterior como referencia. • Termómetro de Globo (7): Para obtener la temperatura media radiante, por lo que, se ubican lo más al centro de los locales seleccionados y en este caso, no admite ser colocado en exteriores. • Termopar (9): Sensor especial para la medición de la temperatura superficial, midiendo así, las paredes expuestas al exterior con diferentes orientaciones y la carpintería divisoria del balcón. El equipo funciona colocando dos sensores a ambos lados del elemento a medir (exterior/interior). • Anemómetros (2): Contando con tres tipos de anemómetros (2_fijos, que requieren montaje y 1_móvil para interiores, que se usará en campañas programadas), permiten la recogida de datos como velocidad y dirección de viento en exteriores; temperatura y velocidad del aire en interiores. 2- Ambiente Visual. • Luxómetro (30): Registra temperatura e intensidad relativa de la luz. Se colocan 2_sensores en cada local analizado, uno en el punto de mayor entrada de iluminación natural (emax) y el otro en el extremo opuesto del local (emin); de esta manera se podrá determinar también, la uniformidad de la iluminación en los espacios monitoreados. Uno es colocado en exterior como referencia. 3- Ambiente Sonoro. • Sonómetro (2): Mide niveles de presión sonora (dB) en tiempo real. No requiere montaje, se empleará en diversas campañas de experimentación, dependiendo del objetivo a analizar (aislamiento de elementos divisorios, entrepisos o ruido exterior), donde se toman datos al unísono de los niveles sonoros en diferentes puntos y posteriormente son comparados manualmente. A partir de las evaluaciones cualitativas previamente realizadas, la caracterización del inmueble, el equipamiento disponible y la disposición de los usuarios a colaborar; se establecieron los principios metodológicos a seguir en el diseño de ambos sistemas. Finalmente, se propuso en detalle la forma de hacerlo, los espacios a monitorear y la posición exacta de los sensores a emplear, agrupados en módulos, con los plazos e intervalos para el registro de valores. Figura_1: Equipos disponibles para el Monitoreo Ambiental del Hotel Moka. 3. RESULTADOS A pesar de que el monitoreo debe realizarse por un periodo mínimo de un año, con vistas a registrar los datos de las variables objeto de estudio en las diferentes estaciones, de acuerdo con la disponibilidad de equipos y el programa aprobado para el proyecto internacional algunos sensores estuvieron midiendo por un plazo de tiempo menor con vistas a obtener al menos resultados parciales en el tiempo disponible. Agrupación por Módulos y distribución de equipos. La agrupación por módulos está determinada principalmente por el plazo de tiempo a monitorear, los parámetros a medir y la cantidad de equipos dispuestos en cada módulo. (Figura_2) El módulo principal (M_1) se ubicó en 6 locales seleccionados (5 habitaciones y el área de oficina), con diversidad de condiciones como orientación, función y ubicación en el volumen. Este incluye 12 Luxómetros, 6 Data Loggers, 6 Termómetros de Globo y 9 Termopares, y es el que más información recoge de cada espacio en el plazo de un año de monitoreo. Con vistas a evaluar un espacio más abierto con capacidad para mayor número de personas, se seleccionó el restaurante, que posee una terraza. En este se emplea el módulo (M_2) que cuenta con 3 luxómetros, 1 Data Logger, 1 Termómetro de Globo y un Anemómetro, y se mantienen midiendo durante un año. Figura_2: Habitaciones que conforman los módulos 1,2,3 y 4. Los equipos restantes se agruparon en los módulos tres y cuatro (M_3) y (M_4), empleados en siete habitaciones cada uno (Figura 2), para medir por un tiempo de seis meses. El M_3 contiene 14 luxómetros para monitorear el ambiente visual, y 7 data loggers dirigidos a evaluar el ambiente térmico (temperatura y humedad relativa del aire), mientras que el M_4 únicamente comprende 7 data loggers. Con ambos módulos se obtienen resultados parciales útiles para la evaluación comparativa. Los resultados del módulo de equipos ubicados en el exterior (M_Ext) sirven como referencia para los datos registrados en los interiores. En esta pequeña “estación meteorológica” se miden la mayoría de los parámetros recogidos en los módulos anteriores. Incluye Piranómetro, Termohigrómetro, Anemómetro de Veleta y Luxómetro. Estos se localizaron en un área cercana al área de estacionamiento del hotel, que cumple con los requerimientos ambientales y de seguridad necesarios para su montaje. (Figura_3) Por último, el módulo experimental (M_Exp) incluye, en su mayoría, los dispositivos que no requieren de montaje, o sea, los sensores que son móviles, como el sonómetro y el anemómetro-termómetro. Con ellos se llevan a cabo mediciones temporales de referencia o experimentos específicos, para verificar y complementar el comportamiento de las condiciones ambientales del objeto de estudio. La mayoría de estos ensayos se han realizado en un tiempo corto (máximo de 24 horas) denominado “campaña”, casi siempre mediante visitas para la recogida de datos o inspecciones de rutina. (Tablas 1, 2 y 3) Figura_3: Ubicación de la estación (M_Ext) Tablas 1, 2 y 3: Equipos por módulos, habitaciones ocupadas y totales de equipos a emplear Módulos EQUIPOS Escenario TOTALES POR EQUIPOS Disp Equi p Tot Temp M_1 (6_loc) 5_h Luxómetro 2 12 1 año Luxómetro 30 Data Loggers 1 6 Anemómetro_ Veleta 1 Termómetro de Globo 1 6 Anemómetro_ Sensor de Velocidad 1 Termopares_(1.1) 1 4 Piranómetro 2 Termopares_(1.2) 2 2 Termohigrómetro 1 Termopares_(1.3) 3 3 Data Loggers 21 M_2 (1_loc) Rest Luxómetro 3 3 1 año Termómetro de Globo 7 Anemómetro_ Sensor de Velocidad 1 1 Termopares 9 Data Loggers 1 1 Termómetro de Globo 1 1 M_3 (7_loc) Luxómetro 2 14 6 meses Niveles No. Habitaciones a Monitorear 17_Hab / 21_Loc Data Loggers 1 7 Mód Cant Total M_4 (7_h) Data Loggers 1 7 6 meses 1er Nivel 115 / 116 / (oficinas) M1 3 7 104 / 108 M3 2 M_Ext Luxómetro 1 1 1 año 103 / 107 M4 2 Anemómetro_ Veleta 1 1 2do Nivel 204 / 216 M1 2 9 Termohigrómetro 1 1 (Restaurante) M2 1 Piranómetro 2 2 203 / 207 / 215 M3 3 M_Exp Cámara Termográfica variado 208 / (Cocina) / (Carpeta) M4 3 Anemómetro_ Sensor de Velocidad 24_h 3er Nivel 309 M1 1 5 Anemómetro-Termómetro variad o 304 / 308 M3 2 Sonómetro variad o 303 / 307 M4 2 Anemómetro_ Veleta 24_h Total 21 DISTRIBUCIÓN Y CONFIGURACIÓN DE LOS EQUIPOS. 1- Equipos empleados para el estudio de parámetros físicos medibles en el ambiente térmico, como temperatura del aire, humedad relativa, temperatura media radiante, temperatura de las superficies y velocidad del aire. • Temperatura y humedad relativa del aire. Data Loggers. La distribución y el tiempo de monitoreo de los 21 data loggers disponibles se rigen por los módulos asumidos, aprovechando sus pequeñas dimensiones para instalarlos en todos los locales seleccionados. Los 6 sensores del M_1 y el M_2 permanecen midiendo por un año, mientras que el resto de los equipos solo por seis meses, en correspondencia lo que fue decidido para sus módulos. (Tabla_1) Como la actividad más común que se realiza en las habitaciones es el descanso y la altura de la cabeza de una persona promedio en posición de sentado es de aproximadamente 1.20m, los equipos se ubican a una altura de 1.50m sobre el nivel de piso. (Figura_4) Figura_4: Posición y distribución del sensor (Data Loggers) Los sensores que registran valores de temperatura media radiante, temperatura y humedad relativa del aire se programaron para tomar muestras en intervalos de 15 minutos, debido a lo cambiante que pueden ser las condiciones de estos parámetros. Los termómetros de globo, data loggers y el piranómetro toman registros simultáneos, lo que facilita el posterior cotejo entre los resultados. • Temperatura media radiante. Piranómetro y Termómetro de Globo. El Piranómetro se ubica en el módulo exterior (M_Ext) por un año, configurado para registrar en intervalos de 15 minutos, en sincronía con otros equipos de medición similares. (Figura_3) Termómetro de Globo: En la precedente evaluación cualitativa del hotel se había considerado desfavorable la orientación de espacios hacia el oeste, debido a la elevada carga térmica que aumenta la demanda energética por climatización artificial. Con el objetivo de comprobar aspectos como este y verificar si, efectivamente, las habitaciones que se declaran mejor orientadas mantienen condiciones térmicas interiores más favorables, se seleccionaron los espacios en los cuales se ubicará el módulo M_1, incluyendo el área de oficinas, con vistas a enriquecer los análisis y chequear el ambiente térmico interior en un espacio, también con orientación Oeste, pero donde convergen varias personas durante el día. El restaurante, además, por su función es frecuentado por la mayoría de los visitantes, razón por la cual también se consideró recomendable para la evaluación de este parámetro. Por tanto, el total de 7 termómetros de globo se distribuyeron en los espacios donde se ubican los módulos M_1 y M_2 por un periodo de un año y programados a intervalos de 15 minutos con el fin de contrastar resultados con otros sensores. Como este parámetro depende de la temperatura de los elementos que lo rodean, es recomendable no ajustarlo a intervalos más cortos. Siguiendo la decisión de ubicar los sensores de temperatura y humedad a una altura próxima a la zona de mayor permanencia de las personas, se colocaron los termómetros de globo a 1.50m de altura, coincidiendo con la de otros sensores como los data loggers. En las habitaciones se escogió la pared de mayor extensión y se posicionó el equipo lo más cerca posible del centro del espacio centro y donde no pueda recibir incidencia de la radiación solar. En el restaurante se eligió una de las columnas centrales del área de mesas, en medio del local. Los planos de las Figura_5 muestran la ubicación de los termómetros de globo. • Temperatura media radiante. Piranómetro y Termómetro de Globo. Se pretende verificar la influencia de la orientación en el ambiente térmico interior de las habitaciones del hotel y la incidencia solar sobre las paredes más expuestas, así como la calificación de “excelente” otorgada en la evaluación cualitativa precedente [5], considerando que la cubierta cumple con el coeficiente global de transferencia térmica expresado en [6]. Para ello se seleccionaron las habitaciones 115, 116 y 216, en las cuales se ubicó el M_1, con la disposición de 6 termopares. Estos dormitorios se localizan en la culata de la edificación, con vanos expuestos a las orientaciones Noreste y Sureste. Como en esta parte del hotel solo se cuenta con dos niveles, se colocó un equipo en el dormitorio 115 para evaluar el elemento expuesto al Figura_5: Posición y distribución del sensor (Termómetro de Globo) Noreste. La habitación 116 mantiene condiciones similares a la 115, pero suma una pared expuesta al Sureste, por lo que en ella se ubicaron dos equipos para comparar la incidencia de ambas orientaciones. Encima del dormitorio 116 se encuentra el 216, en este caso con cubierta expuesta, por lo que se dispusieron tres termopares, con el objetivo de estudiar la influencia del techo, a diferencia de las dos anteriores. Por tanto, se pretende establecer una comparación entre ellas para verificar el efecto, de una habitación de esquina con una intermedia y las de esquina con el aporte térmico de la cubierta expuesta. El monitoreo se realiza en habitaciones con vanos expuestos en diversas orientaciones. En el área de oficina se ubicó un termopar en el elemento expuesto al Este. Para completar la evaluación de otras orientaciones se escogieron las habitaciones 204, con una pared expuesta orientada al Norte y la 309 con orientación Oeste. Esto permite comparar las temperaturas de superficies en los elementos de la envolvente con diferentes orientaciones. Los 9 termopares distribuidos para evaluar este parámetro se programaron en intervalos de medición de una hora, debido a que los valores de estas temperaturas tienden a ser más constantes y el proceso de cambios es más pausado. • Velocidad del viento y flujo del aire. Anemómetros. Por las características de los medidores de viento disponibles, el estudio de su comportamiento en el ambiente interior de las habitaciones se realiza con el anemómetro-termómetro, que no requiere montaje y se ha incluido en el módulo M_Exp, para ser empleado por campañas en diferentes momentos del año. Al disponer de varios sensores, se han realizado ensayos relativos al comportamiento del flujo, caudal y temperatura del aire. Los intervalos y el tiempo de uso del equipo dependen de la necesidad del experimento a realizar. Para evaluar el ambiente interior del restaurante, en el M_2 se ubica un anemómetro del tipo “Sensor de Velocidad” a una altura de 0.85m, para comprobar la componente horizontal de la velocidad del viento sobre el área de las mesas, ampliando el estudio mediante varios experimentos con el anemómetro-termómetro. (Figura_7) Figura_6: Posición y distribución del sensor (Termopar) El sensor de velocidad del M_2, realiza mediciones durante un año, programados a intervalos de 10 minutos, a sugerencia de [7], como lo más adecuado para mediciones en un contexto como el Hotel Moka, debido a las fluctuaciones que pueden ser inducidas por su entorno. De esta manera se podrán cotejar los resultados ofrecidos por el sensor de velocidad ubicado en el restaurante con el del módulo de referencia (M_Ext). Sobre esa base también de confirmaron los intervalos y la colocación del anemómetro de veleta correspondiente al M_Ext, La selección del lugar dependió, entre otros factores, de la necesidad de ofrecer seguridad a los sensores contra hurto o vandalismo, a lo cual contribuye la presencia de trabajadores en esta área. (Tabla_1) Con el fin de complementar la información sobre el comportamiento del flujo del viento en el caso de estudio, se lleva a cabo un experimento en los alrededores inmediatos del hotel, en una campaña al azar, para la cual se seleccionaron lugares comprendidos en las zonas exteriores donde se emplazan las escaleras que constituyen puntos de inflexión en la forma volumétrica del edificio y generan aberturas por donde fluye el viento. Para evaluar la influencia del volumen en la velocidad del viento en estas zonas se colocan 8 sensores de velocidad, por un tiempo de medición de 24 horas, definido por la duración de la campaña. Los intervalos de medición de 10 minutos se ajustan en concordancia con el anemómetro de veleta ubicado en el M_Ext, de manera que sus mediciones sirvan de referencia también para este experimento. (Figura_7) 2- Ambiente Visual. • Luxómetros. Para evaluar el ambiente visual se dispone de 30 luxómetros. Con el fin de conocer los niveles de iluminación y verificar la uniformidad, escogiendo puntos emin y emax para comparar estudios anteriores [8], se colocan 2 equipos en cada local seleccionado. Como se cuenta con gran cantidad de luxómetros, éstos se incluyen en todos los módulos, a excepción del M_4, que solo se destina al estudio de la temperatura y humedad relativa del ambiente interior. (Tablas1 y 2) Campaña de Viento Figura_7: Posición y distribución del sensor Campaña de Viento (M_Exp) Figura_8: Posición y distribución del sensor (Luxómetro) Por la variabilidad de este parámetro, se han programado las mediciones a intervalos de 5 minutos, gracias a la capacidad de memoria que posee el equipo. En las habitaciones se coloca el sensor a una altura de 1.20m, considerando que es en la que se requiere un mayor nivel de iluminación (postura de recostado, generalmente). En las oficinas, en cambio, las actividades laborales se realizan sentados y apoyados en mesas, por lo que se ubican los sensores a la altura de 0.85m. (Figura_8) 3- Ambiente Sonoro. • Sonómetro. Dada la necesidad de conocer las fuentes de ruido que puedan llegar a generar molestias en el recinto hotelero se tomó la decisión de realizar varios experimentos para el monitoreo del ambiente sonoro. (Tabla_1). Con las mediciones realizadas se pretende comprobar el aislamiento de los vanos divisorios entre habitaciones, puesto que en la evaluación precedente [5] una deficiencia detectada fue la carencia que tiene el hotel de elementos con función de barrera acústica interior, permitiendo la transferencia de ruido entre habitaciones. Para ello se crea una fuente de ruido controlada en una habitación con un equipo de sonido (bocina), registrando la intensidad generada, mientras que en la habitación contigua se monitorea con el otro sonómetro los decibeles que llegan a esta. Para el experimento se tiene en cuenta que las habitaciones aledañas a las seleccionadas, estén desocupadas, para evitar cualquier otra fuente de ruido que pueda alterar los resultados del ensayo. (Figura_9) En otro posible escenario se comprueba el aislamiento de los entrepisos en las habitaciones intermedias del segundo nivel, procediendo de manera similar al experimento anterior, pero con la diferencia de que los dormitorios evaluados se encuentren uno sobre otros. Por esto se eligen las habitaciones del bloque del centro que tiene tres niveles y, por tanto, brinda mayores posibilidades de combinación. (Figura_10) Figura_9: Esquema de Experimento (Sonómetro- Medición entre vanos) Figura_10: Esquema de Experimento Figura_11: Esquema de Experimento (Sonómetro- Medición de entrepisos) (Sonómetro- relación exterior/interior) Considerando que, en investigaciones anteriores, se identificaron reportes de incomodidad por parte de algunos clientes como consecuencia de los ruidos externos (emitidos mayormente por la comunidad y una base de campismo cercana), se pretende evaluar qué tan efectiva (en términos sonoros) es la puerta que separa el balcón del interior en las habitaciones. Para ello se realizan mediciones con un sonómetro en la terraza y otro en el interior, mientras la puerta se mantiene cerrada. Durante este proceso se genera una fuente de ruido controlada, con un equipo de sonido (bocina), en el área de la terraza, y se comparan los resultados arrojados por ambos equipos para saber la intensidad que rebasa al interior. Para este experimento se eligen las habitaciones señaladas en la (Figura_10), por encontrarse en el bloque más al centro del edificio y ser las más próximas (relativamente) a las supuestas fuentes de ruido que aquejaban ocasionalmente a los clientes. 4. DISCUSIÓN En esos momentos se recopilan y procesan los datos de los primeros seis meses de monitoreo, que deberán complementarse con los registros del siguiente período en aquellos módulos previstos para medir durante un año. No obstante, aun de forma preliminar, será posible establecer una comparación entre los resultados del ambiente interior en enero y junio, tomados como meses representativos del período de invierno y verano, respectivamente. Es por ello que no ha sido objetivo del presente trabajo presentar la discusión de los resultados del monitoreo cuya información está siendo procesada, sino solo fundamentar las bases para su diseño y ejecución a partir de la evaluación cualitativa preliminar realizada, cuyos resultados de pretenden verificar. De todos modos, la observación de los datos recopilados hasta el momento permite adelantar algunas conclusiones preliminares que deberán ser verificadas cuando el procesamiento total de la información se haya completado. Una primera observación preliminar es que a pesar de que el hotel está ubicado en una elevación con respecto al asentamiento poblacional, la zona, rodeada de montañas, no es un sitio ventoso, es decir, que las velocidades de viento registradas en exteriores son, por lo general, inferiores a 2 m/s. Esto puede llevar a la conclusión de que el bienestar térmico de las personas en los espacios interiores no puede basarse sólo en la ventilación natural, sino que se requiere un complemento de ventilación mecánica, lo cual podría lograrse con ventiladores de techo. De hecho, las velocidades de viento medidas en los interiores suelen ser inferiores a 0.1 m/s, y como las ventanas de las habitaciones que dan a las galerías de circulación permanecen cerradas por razones de privacidad, no es posible lograr la ventilación cruzada. Con los resultados del monitoreo será posible verificar la influencia de la orientación y de la exposición de los cierres que había sido supuesta en la evaluación cualitativa, solo que teniendo en cuenta los resultados del período invernal, el impacto no es considerable, ya que las temperaturas son relativamente confortables y las habitaciones están protegidas del sol por balcones y vegetación, con independencia de su orientación. Estas y otras observaciones deberán ser verificadas cuando se concluya el monitoreo 5. CONCLUSIONES. - El monitoreo del ambiente térmico, visual y sonoro en los espacios interiores del Hotel Moka se emplea en esta ocasión para verificar la evaluación cualitativa previamente realizada de la variable “Arquitectura” o ambiente interior como parte de la sustentabilidad del hotel. - En el diseño del monitoreo se han tenido en cuenta las variables y parámetros a verificar, la cantidad de equipos y el tiempo disponible para su realización. Sobre esa base, los equipos fueron agrupados en 4 Módulos fijos, dos de ellos para medir durante 6 meses y dos a lo largo de un año, además de un módulo de exteriores y otro experimental para uso en campañas de 24 horas. - El tiempo programado para el registro de los datos depende de la variabilidad en el comportamiento de cada parámetro a medir, y la ubicación de los equipos de medición responde a las condiciones de uso de los espacios. - La observación parcial de los datos obtenidos del monitoreo permite arribar a criterios preliminares que podrán validarse de forma definitiva cuando concluya su procesamiento y discusión. RECONOCIMIENTOS Agradecimiento especial al proyecto VLIR “Renewable energy and bioclimatic architecure improving sustainability and development un Eco touristic settlement; Las Terrazas” que se desarrolla de forma conjunta entre la Universidad Tecnológica de La Habana (CUJAE) y la Universidad de Ghent y al personal de trabajo del Hotel Moka, en las terrazas por todas las atenciones prestadas. REFERENCIAS. 1- GONZÁLEZ COURET, Dania. “Arquitectura bioclimática”. Ciudad de La Habana. Editorial Félix Varela, 2010. 2- DE LA PEÑA GONZÁLEZ, A. M. “Iluminación Natural”, Facultad de Arquitectura de La Habana, 2008. 3- DÍAZ QUINTERO, G. (2007). Control de Ruido aplicaciones al proyecto. Facultad de Arquitectura de La Habana, 2007. 4- GONZÁLEZ COURET, Dania., RUEDA Luis. A., GONZÁLEZ N., RODRÍGUEZ E., LLOVET M. “ Evaluación cuantitativa de la influencia del diseño arquitectónico en el ambiente interior.” Revista Arquitectura y urbanismo Habana Cuba. No3, ISPJAE, 2015, ISSN 1815-5898. 5- PÉREZ ROSALES, Román A. “Procedimiento para evaluar la sostenibilidad de destinos ecoturísticos vinculados a comunidades rurales. Caso de estudio: Hotel Moka, Comunidad Las Terrazas.” Tesis de grado Instituto Superior Politécnico José Antonio Echeverría, Ciudad de La Habana, 2007 6- Oficina Nacional de Normalización (NC). Edificaciones. Requisitos de diseño para la eficiencia energética. Parte 1: Envolvente del edificio. NC 220-1: 2009. 1ra Edición. La Habana: NC, noviembre 2009. 7- MORENO FIGUEREDO, Conrado., & MEDRANO HERNÁNDEZ, José. Augusto. (2020). “Plan de monitoreo del recurso eólico y solar en las terrazas”. Instituto Superior Politécnico José Antonio Echeverría, Ciudad de La Habana 8- PÉREZ VALLINA, Javier. “ Recomendaciones de diseño para mejorar el desempeño ambiental del Hotel Moka.” Tesis de grado Instituto Superior Politécnico José Antonio Echeverría, Ciudad de La Habana, 2016. 9- Oficina Nacional de Normalización (NC). Edificaciones. Requisitos para el cálculo de la iluminación natural. NC 1005: 2014. La Habana: NC, 2014. Sobre los autores Lazaro Yerandy Morales Camacho. Arquitecto. Adiestrado de la CUJAE. Natali Collado Baldoquin. Arquitecta. Profesor Auxiliar de la CUJAE. Doctor en Ciencias Técnicas Luis Alberto Rueda Guzmán. Arquitecto. Profesor Titular de la CUJAE. Doctor en Ciencias Técnicas Dania González Couret. Arquitecta. Profesor Emérito de la CUJAE. Doctor en Ciencias. ADAPTACIÓN DE LA VIVIENDA COSTERA AL CAMBIO CLIMÁTICO. RECOMENDACIONES DE DISEÑO Dayra Gelabert Abreu1, Dania González Couret, Arleet Díaz San Juan, Larisbel Navarro Michelena, Michelle Rodríguez Triana. 1Universidad Tecnológica de La Habana José Antonio Echeverría CUJAE 1dayragelabert@gmail.com RESUMEN La elevación del nivel medio del mar y de las temperaturas constituye un importante reto para los asentamientos costeros en las regiones tropicales en desarrollo como Cuba. Partiendo de la caracterización de los posibles escenarios previstos, sus afectaciones y la clasificación de las zonas costeras en Cuba, se proponen recomendaciones de diseño para la adaptación al cambio climático de las viviendas en la costa semi-inundable con manglares. Para ello se elaboró un marco teórico donde se identifican las principales variables de diseño que influyen en la clasificación de los asentamientos y en adaptación al cambio climático en esas condiciones, de acuerdo con la experiencia internacional. Sobre esa base, y a partir de la observación de la realidad se elaboró un diagnóstico de la vivienda en los asentamientos en las regiones costeras objeto de estudio, según problemas y potencialidades. Finalmente, se enunciaron principios, tanto para la transformación de viviendas existentes como para nuevos diseños, ejemplificados con posibles soluciones para dos asentamientos tomados como objeto de estudio. Se concluye que en la toma de decisiones es imprescindible considerar el ciclo de vida. Es posible trasladar los asentamientos vulnerables, transformar el entorno urbano, reubicar viviendas, y hacerlas más resilientes mediante soluciones palafíticas, flotantes y transformables, con empleo de diversas ecotécnicas. PALABRAS CLAVES: Vivienda Costera, Cambio Climático, Elevación del Nivel Medio del Mar, Soluciones de Diseño. TITLE: GUIDELINES FOR PREPARING ARTICLES FOR THE XIX SCIENTIFIC CONVENTION ON ENGINEERING AND ARCHITECTURE ABSTRACT Tue rise in mean sea level and temperatures constitute a major challenge for coastal settlements in developing tropical regions such as Cuba. Starting from the characterization of the possible foreseen scenarios, their effects and the classification of coastal areas in Cuba, design recommendations are proposed for the adaptation to climate change of homes on the semi-flooded coast with mangroves. For this, a theoretical framework was developed where the main design variables that influence the classification of settlements and adaptation to climate change in this condition are identified, in accordance with international experience. On this basis, and from the observationof reality, a diagnosis of housing in the settlements in the coastal regions under study was elaborated, according to problems and potencialities. Finally, principles were enunciated, both for the transformation of existing houses and new designs, exemplified with possible solutions for two settlements taken as the object of study. It is concluded that in decision making it is essential to consider the life cycle. It is possible to move vulnerable settlements, transform the urban environment, relocate housing, and make them more resilient through stilt, using various eco-techniques. KEY WORDS: Coastal Housing, Climate Change, Sea level rise, Design solutions. 1. INTRODUCCIÓN La emisión de gases de efecto invernadero (GEI) ha determinado un incremento de la temperatura promedio global, elevación del nivel del mar, variaciones en las precipitaciones y mayor incidencia de acontecimientos climáticos extremos, variaciones en la distribución nevosa y de animales, en la estructura y productividad agrícola y en la capacidad nutricional de los alimentos, deshielos de glaciares y de hielos perpetuos; todo lo cual afecta los recursos hídricos, ecosistemas, asentamientos humanos, seguridad alimentaria y la salud (1). En el último siglo hubo un aumento de la temperatura promedio de aproximadamente un grado centígrado (2). El nivel del mar aumentó 0,19 metros (0,17 a 0,21 metros) en el periodo de 1901-2010 (3,4). Se espera un aumento de entre 24 y 30 cm hacia mediados del siglo XXI, debido a la expansión oceánica producida por el deshielo como consecuencia del calentamiento (1). Los habitantes de islas bajas y ciudades cercanas a la costa sufrirán inundaciones costeras y otros fenómenos climáticos. Además, un tercio de la población que vive en zonas áridas experimentará perturbaciones asociadas al Cambio Climático. Es de esperar, además, que se modifiquen los patrones meteorológicos, y en particular, exista un incremento de los eventos meteorológicos extremos, que tienen un riesgo adicional (5). América Latina y el Caribe es una de las áreas más urbanizadas del planeta, concentrando a más del 50% de su población a menos de 1,5 kilómetros de la línea costera. Esta cercanía resulta preocupante pues el nivel del mar ha aumentado alrededor de 20.32 cm desde la década de los setenta del siglo XlX y más de 5 cm solo en los últimos 20 años, lo que se traduce en que la tasa de aumento del nivel del mar es más rápida ahora que en cualquier otro momento de los últimos dos mil años y se ha duplicado en las últimas dos décadas. Estudios revelan que con solo un metro de elevación del nivel del mar es suficiente como para inundar las zonas circundantes del 80% de los puertos de la Comunidad del Caribe CARICOM y para afectar entre el 49 y 60% de las mayores propiedades turísticas en la región, lo que, a su vez, reduciría las fuentes de agua dulce por la salinización y pondría en riesgo la disponibilidad de agua para consumo humano y para actividades como la agricultura y el turismo (6). En la actualidad toda la región de América Latina sufre la incidencia de diversos eventos extremos. Los más comunes son: olas de calor, inundaciones, tormentas, stress hídrico y sequía, incendios, enfermedades y deslizamiento de masa. Las olas de frío y el aumento del nivel del mar son efectos menos sentidos; asimismo la contaminación atmosférica producto de las emisiones ha sido declarada como amenaza en sólo 28 ciudades en 10 países de América Latina y el Caribe (1). La incidencia reiterada de fenómenos meteorológicos extremos ha tenido un impacto negativo en la región del Caribe. A pesar de que su contribución a las emisiones mundiales de gases de efecto invernadero ha sido mínima, los pequeños estados insulares en desarrollo del Caribe y de otras regiones del mundo sufren desproporcionadamente grandes repercusiones del Cambio Climático (7). La vulnerabilidad de la vivienda costera ante los efectos de los huracanes y el Cambio Climático se manifiesta a partir del aumento de la frecuencia e intensidad de estos fenómenos, que acarrean vientos fuertes, intensas lluvias y penetraciones del mar por diversas causas. A esto se suma el efecto esperado del Cambio Climático en cuanto a la elevación del nivel medio del mar y de la temperatura. Los eventos asociados a un aumento del nivel del mar que representan una amenaza potencial para la infraestructura marino-costera serían: la inundación permanente de áreas bajas, el incremento de las áreas inundadas como efecto de tormentas o la ocurrencia de otros fenómenos hidrometeorológicos, y los cambios en la línea costera asociados a procesos de erosión y sedimentación (8). La preocupación a nivel mundial por el Cambio Climático, y las consecuencias que este traería consigo, han motivado el diseño, desarrollo e implementación de acciones de mitigación y adaptación para reducir sus impactos negativos. En el caso de Cuba, el estudio del Cambio Climático es una prioridad por la alta vulnerabilidad debido a su condición de archipiélago y ubicación geográfica en el Caribe, con mayor incidencia en los asentamientos costeros localizados en toda su extensión, por lo que resulta de gran importancia brindarles una atención inmediata, previendo su transformación para resistir a tales previsiones o su futura ubicación. Numerosos asentamientos costeros en Cuba se encuentran en peligro de desaparición por estas causas, y la recurrencia de huracanes obliga a la evacuación frecuente de su población. Entre las posibles soluciones, se ha planteado la necesidad de trasladar esa población hacia lugares más altos, lo cual no es generalmente aceptado, ya que son personas habituadas a vivir cerca del mar, que constituye parte importante de su identidad. No obstante, en general, se trata de viviendas precarias con un alto grado de deterioro, que necesitan ser más resilientes y adaptables ante la ocurrencia de fenómenos meteorológicos extremos, a las penetraciones del mar y a la elevación futura de su nivel; debe ser mejorada su resistencia utilizando recursos materiales y tecnologías que optimicen el costo inicial y de ciclo de vida tanto en las viviendas nuevas como en las renovadas; a la vez, que su ubicación se mantenga en lo posible lo más cercana al mar. Los resultados presentados en el presente trabajo corresponden a un trabajo de Diploma que pretende evaluar los impactos del cambio climático en el hábitat urbano, entre los que se incluyen los causados por la elevación del NMM. El objetivo principal consistió en proponer recomendaciones generales para el diseño de las viviendas en asentamientos costeros más resilientes, luego de identificar y analizar las mejores prácticas internacionales y el estado del arte, así como de diagnosticar la problemática de estos asentamientos vulnerables en Cuba y sus potencialidades para aumentar su resiliencia. En esta ponencia se presentan los resultados fundamentales de la etapa propositiva de la investigación referidos a las recomendaciones de diseño a partir de 3 casos de estudio específicos. 2. MATERIALES Y MÉTODOS El trabajo se desarrolló en 3 etapas fundamentales para dar respuesta a los objetivos planteados. En primer lugar, se elaboró el marco teórico, a partir de la búsqueda de información a escala nacional e internacional para caracterizar el estado del arte en relación con el Cambio Climático, la resiliencia de las zonas costeras y el ciclo de vida de las edificaciones, e identificar las mejores prácticas del repertorio a escala global. En la segunda etapa se procedió a caracterizar los asentamientos costeros en Cuba de manera general y específica, para un total de 142 asentamientos humanos afectables de forma permanente al año 2050 y al año 2100 por la subida del N.M.M. (No se tienen en cuenta La Habana, la Isla de la Juventud y los asentamientos con categoría “ciudad” del resto de regiones del país). (Figura 1) Figura 1: Mapa de los 142 asentamientos humanos afectables de forma permanente a 2050 y 2100 por la subida del N.M.M. (No se tienen en cuenta los asentamientos de La Habana, la Isla de la Juventud y los asentamientos con categoría “ciudad” del resto de provincias). Elaboración propia según datos del IPF, 2020. La información recogida en la etapa precedente fue completada mediante la observación de la realidad a través de fotos satelitales, videos e información disponible en Internet, ya que las limitaciones impuestas por la pandemia de Covid-19 impidieron la realización de trabajos de campo que permitieran la observación directa de estos asentamientos en el terreno. Sobre esa base se caracterizaron de manera general las zonas costeras, los asentamientos y las viviendas, y, a partir del pronóstico elaborado por el Instituto de Planificación Física (IPF) sobre las afectaciones esperadas para diversos escenarios. (Figuras 2 y 3). De este universo se seleccionó como objeto de estudio una muestra intencionada de aquellos asentamientos con inundación parcial prevista para 2050, específicamente localizados en los tramos de fajas costeras de sustrato areno-limo-turboso parcialmente inundados. A esta muestra se le realizó una observación más detallada para identificar las bases económicas, las formas de vida, la dependencia del mar, los tipos urbanos y arquitectónicos, los materiales empleados y los recursos disponibles. Finalmente, en la etapa propositiva teniendo en cuenta el marco teórico elaborado, el estudio del repertorio y estado del arte, así como el diagnóstico de los asentamientos objeto de estudio en Cuba, se procedió a elaborar una propuesta de principios de actuación que define las principales acciones a acometer en cada una de las situaciones identificadas. Seguidamente se propusieron principios de diseño a escala urbana y arquitectónica, fundamentalmente, cuya posible aplicación se ejemplificó mediante soluciones de diseño específicas aplicadas en 3 casos de estudio seleccionados. Estos últimos son los resultados que se muestran a continuación en el presente trabajo. Figura 2. Mapa de los 21 asentamientos humanos costeros localizados en tramos con costas semiinundadas con manglares, clasificados por categorías. Elaboración propia según datos del IPF, 2020. Figura 3. Imágenes de asentamientos costeros (Fuente: San Juan et al., 2022) 3. RESULTADOS Y DISCUSIÓN Luego del diagnóstico y análisis de la muestra objeto de estudio correspondiente a los 21 asentamientos de costa semi-inundada con manglares que componen la muestra de estudio seleccionada, se procedió a su clasificación para proponer los principios de actuación a seguir en cada caso, teniendo en cuenta la subida del N.M.M., la cantidad de viviendas afectadas para 2050 (mínima y máxima), la situación esperada para 2100 (según datos del IPF), y el estado técnico constructivo de las viviendas existentes, estimado a partir del análisis documental realizado. Sobre esa base, se decidió proponer cuatro posibles situaciones en dependencia de la magnitud de la inundación y la calidad de las viviendas: traslado total, transformación del entorno urbano y de las viviendas ante eventos permanentes o transitorios, y reubicación de viviendas dentro del propio asentamiento. Posteriormente se desarrollaron principios de diseño que contemplan desde la escala urbana y el entorno hasta la escala arquitectónica de las viviendas. Para ejemplificar la aplicación de los mismos se clasifican los tipos principales de viviendas autoconstruidas cuya vida útil podrá sobrepasar el período de inundación previsto al 2050, y se proponen posibles trasformaciones permanentes, para éstas y otras soluciones vernáculas que por sus valores merecen ser rescatadas. Mientras que también se ejemplifica la aplicación de los principios en el diseño de soluciones de nuevas viviendas aisladas, pareadas y en hilera, en dos asentamientos seleccionados: La Panchita en Villa Clara y Punta Alegre en Ciego de Ávila. A continuación, se detallan los casos de estudio desarrollados. Transformación de viviendas existentes Para las edificaciones afectadas solo por el impacto puntual de la ocurrencia de lluvias y vientos fuertes o huracanados, se propone realizarle transformaciones más simples y económicas que, en un corto plazo, permitan dar respuesta a estos peligros temporales. Entre estas acciones pueden mencionarse, por ejemplo, adaptar el equipamiento de la vivienda ante la llegada del fenómeno, hacer uso de áticos o refugios, reforzar la estructura original, emplear materiales más resistentes, entre otras. Sin embargo, para aquellas viviendas que se localicen dentro de la cota de inundación prevista para 2050 y que, además, presenten buen estado técnico-constructivo, una resistencia adecuada y estén en la etapa inicial de su vida útil, se propone la realización de transformaciones de mayor envergadura, que no solo garanticen la seguridad ante los eventos temporales, sino también ante la inminente subida del nivel medio del mar. El resto de las viviendas que se encuentren dentro de la zona inundable y que no cumplan los anteriores requisitos, o sea, que sean más antiguas, se encuentren al final de su vida útil, estén construidas con materiales menos resistentes o presenten un deterioro constructivo visible, serán reubicadas, ya que llevar a cabo una transformación de la estructura original no resultaría una solución viable. En los asentamientos costeros analizados existe un universo considerable de viviendas que se encuentran en peligro de inundación de forma permanente y que presentan posibilidades de transformarse ante la subida del N.M.M., siendo posible aprovechar su estructura original. Dentro de este grupo, predominan aquellas realizadas por autoconstrucción que son edificaciones que, por lo general, están iniciando su vida útil y suelen ejecutarse con materiales más resistentes, con un mejor estado técnico-constructivo, por lo que poseen mayor capacidad de resistir al impacto de los eventos naturales extremos que puedan producirse en el futuro mediato. Adicionalmente, muchas de estas viviendas incluyen el alquiler para el turismo local o internacional como fuente de ingresos, lo que deriva en el aumento del “estándar” de las soluciones y la economía de sus habitantes, en comparación con aquellos que solamente se dedican a la pesca o la agricultura como actividad fundamental. Figura 4. Viviendas costeras con alquiler de habitaciones para el turismo (Fuente: San Juan et al., 2022 (9) Por otra parte, se identificaron, a partir del análisis documental y fotográfico realizado, un grupo reducido de viviendas que siguen la tradición vernácula que deberían poder transformarse, sin necesidad de ser reubicadas. Al estar construidas con materiales tradicionales, más ligeros y antiguos, la estrategia de elevarlas para evitar la afectación por la subida del nivel del mar no resulta una solución rentable, ya que no soportarían el impacto de dicha transformación. Por este motivo, en el caso de las viviendas con estas características se propone la transformación solo de aquellas edificaciones vernáculas que se ubican sobre el agua, sobre pilotes, ya que se consideró que disponen de la posibilidad de adaptarse mediante sistemas de flotación, que no modifiquen ni agreguen peso adicional a la estructura original. Con el objetivo de ordenar y facilitar el análisis para la transformación posible de las viviendas y ofrecer soluciones de diseño que se adapten a diferentes situaciones, se realizó una clasificación por tipos de aquellas que permiten su transformación. Figura 5. Viviendas costeras que siguen la tradición vernácula. (Fuente: San Juan et al., 2022 (9) La situación epidemiológica y la limitada movilidad, impidió la realización de un trabajo de campo que permitiera realizar un levantamiento de las viviendas y sus soluciones espaciales interiores, de manera que se ofrecen criterios generales de diseño en aras de lograr viviendas más resilientes al Cambio Climático, a partir de la información disponible. Se clasifican por separado las viviendas de uno y dos niveles. Entre los criterios generales de diseño a tener en cuenta para las propuestas de transformación de las viviendas, el principal es elevar las edificaciones sobre la cota de inundación prevista, aprovechando todos los elementos originales posibles, para optimizar la inversión y los recursos. Se propone, entonces, liberar dejar la planta baja original de las viviendas, manteniendo la estructura portante, asumiendo que esta sea mediante muros de carga (Fig. 6). El objetivo es respetar la estructura existente, reforzándola con pórticos y haciéndola más permeable, al aumentar las aberturas hasta el 30% permisible de la superficie de los muros. Se considera que la planta baja libre en un escenario de mediano plazo estará inundada, por lo tanto, no se ubican funciones de carácter permanente en este nivel, sino que se le otorga un uso más flexible o temporal como, por ejemplo, terraza común para la familia o los inquilinos en caso de renta, o la posible ubicación de almacenamiento. En aquellas viviendas de un solo nivel, una vez la losa original de techo pase a cumplir la función de entrepiso, quizás no soporte el peso de la nueva placa, por lo que se deberá reforzar. En el caso de las cubiertas inclinadas, se desmontarán y se construirá un nuevo entrepiso. En las viviendas de dos niveles, además de la estructura de la planta baja, se mantendrá también la planta alta original y la escalera de acceso al segundo nivel, que pasará a ser el acceso principal. Figura 6. Proceso de transformación de las viviendas de uno y dos niveles. (Fuente: San Juan et al., 2022 (9) En el caso particular de las edificaciones sobre pilotes, se mantendría la forma original de la vivienda, pero incorporando un sistema de flotación a la estructura original, que le permita adaptarse ante la crecida del mar. Además, se reforzaría la estructura mediante su arriostramiento y se sustituirán algunos materiales por otros más resistentes. Se pretende reinterpretar los buenos ejemplos de la arquitectura vernácula costera como fuente de inspiración (viviendas elevadas, empleo de cubiertas inclinadas, uso de portales, terrazas y áticos), pero de una forma contemporánea, adaptándose a la realidad cambiante y aplicando los principios del Movimiento Moderno sobre espacialidad, flexibilidad y relación interior- exterior (Figura 7). Se pretende demostrar cómo es posible lograr una buena arquitectura con elementos sencillos, de calidad y menos costosos, que sustituyan aquellos de mal gusto comúnmente utilizados por algunos sectores de la población. En las nuevas plantas que se adicionen se propone el empleo de cubiertas inclinadas que ofrecen mayor resistencia ante los vientos fuertes y permiten la creación de mezzanines, áticos, terrazas, aberturas y balcones transformables que propiciarán la flexibilidad. También se propone aprovechar las fuentes renovables de energía, mediante paneles, calentadores de agua y otras tecnologías, así como garantizar una iluminación y ventilación naturales mediante grandes aberturas con el empleo de cierres que posean la capacidad de transformarse según la necesidad, e decir, que puedan abrirse, eliminando los límites entre el interior y el exterior, o bien cerrarse por completo, brindando una seguridad ante los fenómenos extremos temporales. También se plantea el uso de elementos desmontables como, por ejemplo, las barandas de balcones y escaleras. Como un por ciento considerable de estas viviendas guardan relación con el sector del turismo, ya se destinan al alquiler, deberá propiciarse la existencia de al menos un espacio para este fin, diferenciando los accesos de los turistas y la familia, para favorecer la privacidad. Figura 7. Propuestas de transformación para viviendas de uno y dos niveles. (Fuente: San Juan et al., 2022 (9) Propuesta de viviendas a reubicar. Caso de estudio asentamiento La Panchita La Panchita es el poblado costero seleccionado para mostrar la aplicación de los principios propuestos en el diseño de nuevas viviendas, por ser el asentamiento donde más se encontró información documental referente a los tipos de viviendas que prevalecen, así como los planos necesarios que brindaron las dimensiones de algunos de los lotes existentes. Este asentamiento se clasifica como “urbano” (10), con un trazado irregular y un desarrollo longitudinal a la costa con ramificaciones hacia el interior. La playa de La Panchita es muy visitada por los vacacionistas de la provincia Villa Clara, por lo que gran parte de los ingresos económicos de la población provienen del turismo, lo cual se refleja en sus viviendas, ya que la mayoría son casas de veraneo y de alquiler. El asentamiento posee una gran dependencia del mar, no solo en lo social, sino también en lo económico, a pesar de tener una buena base agropecuaria, sustentada por la producción cañera, azucarera, agrícola y ganadera. Cuenta con aproximadamente 410 viviendas (Ecurred, 2021), en su mayoría unifamiliares con cubiertas a dos aguas (perpendicular o paralela al frente), cuatro aguas y losa plana. En general, se observa la presencia de la tradición vernácula en la típica vivienda aislada construida con materiales locales como la madera y el guano (Figura 8). Este poblado costero ha sufrido constantes afectaciones por fenómenos ambientales. La baja calidad constructiva de las viviendas existentes, los años de vida que tienen y su ubicación cercana al mar en zonas bajas las hace vulnerables ante estos eventos, por lo que sus habitantes en diversas ocasiones han quedado desprotegidos y sin hogares. La elevación prevista del nivel medio del mar de 28.9 cm, afectará como máximo 12.11 ha de su área total (33.43%) y 7.64 ha de su área residencial (28.15%), por lo que entre 68 y 107 de las actuales viviendas estarán inundadas para la fecha. Figura 8. Variantes de tipologías de viviendas en el asentamiento La Panchita (Fuente: San Juan et al., 2022 (9) Teniendo en cuenta las costumbres y tradiciones de los pobladores y la localización de una manzana fuera de los riesgos de inundación permanente para el 2050, se decidió proponer dos tipos de solución de viviendas dúplex ya sea aisladas o pareadas, ya que estas ofrecen versatilidad y flexibilidad para transformar fácilmente el espacio, al aprovecharlo en sentido vertical con el uso de cubiertas a dos aguas. Así, el hogar parte de una base simple y puede evolucionar en su interior sin afectar su imagen. Por otro lado, como gran parte de las viviendas existentes son de 2 niveles, el uso de soluciones dúplex forma parte del respeto por las tradiciones. Gran parte de las viviendas existentes en el poblado, además, son aisladas, por lo que será una de las mayores demandas en todos los casos a reubicar. La vivienda unifamiliar propuesta, ubicada en un lote de 10 m de ancho por 20 m de profundidad, respeta la imagen general de las viviendas del contexto y las regulaciones urbanas que contemplan la presencia de jardín, pasillos laterales. Al dejar planta baja libre ya el portal no será necesario. Se hace una reinterpretación de la tradición vernácula costera al incorporar elementos esenciales como cubiertas inclinadas, formas básicas y materiales ligeros. Se aplican los principios de diseño elaborados como elevar sobre pilotes, para que, en caso de eventos extremos e inundaciones temporales, no exista riesgo de pérdida de bienes ni daños a la edificación. También se cumple con el principio de la transparencia hidráulica, de manera que, en caso de inundaciones, no se obstruya el paso natural del agua. La volumetría se conformó aplicando esos principios, a partir de incidir en una forma básica, fragmentada y extendida según requería la distribución de los espacios. Se emplea una modulación con luces de 3.60 m x 3.60 m, que permite distribuciones interiores diversas y modificables, según evolucionan las necesidades y recursos económicos. Según las etapas de transformación previstas es posible incluir núcleos familiares desde 2 hasta 5 personas. Por la dependencia que muchas familias tienen de la pesca, la agricultura y el turismo, se prevé la incorporación de un espacio para actividades productivas o de alquiler, conectado directamente con la escalera de acceso para no perjudicar la privacidad interior de la familia. La principal premisa a cumplir es que la vivienda sea resiliente, por lo que se requiere de una capacidad de transformación, principalmente en su envolvente, para en caso de eventos meteorológicos externos, poder adaptarse sin sufrir afectaciones. Es por ello que se disponen vanos de grandes aberturas con cierres flexibles plegables o de corredera que permiten abrir y cerrar sin afectar su ventilación e iluminación natural. Además, se emplean paneles ligeros que permiten transformar el espacio sin grandes dificultades al montar y desmontar. (Figura 9) Se ha procurado un máximo aprovechamiento del espacio en vertical, sin afectar la habitabilidad y calidad de vida de las personas. Para ello se aprovecha el espacio bajo cubierta ubicando un dormitorio, un baño, un trastero para guardar todos los elementos desmontables en momentos de peligro, y en el nivel intermedio se desarrollan las principales actividades colectivas de la vivienda como la cocina, sala y terraza. En planta baja, se ubican los tanques para almacenar el agua de lluvia recolectada, en una plataforma que forma parte de la composición del espacio para actividades productivas o de uso colectivo, sin comprometer su permanencia, previendo inundaciones temporales. Se emplea la cubierta inclinada. Para hacer más resiliente la vivienda, con elementos tecnológicos incorporados para una mayor eficiencia energética. Se favorece la ventilación y la protección solar, y se aprovecha el agua de lluvia mediante la recolección pluvial. Adicionalmente, se desarrolla una propuesta de viviendas pareadas, aplicando los mismos principios. Figura 9. Propuestas para vivienda aislada en el asentamiento La Panchita (Fuente: San Juan et al., 2022 (9) Como resultado se obtienen dos viviendas que pueden llegar a incluir núcleos familiares de hasta 4 personas. En este caso se propone el uso de planta baja para actividades productivas, pensando en satisfacer las posibles necesidades de los pobladores, que viven de la venta de peces y actividades agrícolas, por lo que se diseñó una estructura fija para tarimas de ventas, incluyendo un espacio elevado para almacenar instrumentos de trabajo, sin peligro de ser destruidos en caso de inundaciones. Se diseñan dos viviendas dúplex pareadas, una con dos dormitorios y otra con 3, ambas con espacios cualificados hacia el exterior, que a través de terrazas y balcones que fragmentan el volumen, propician mejor iluminación y ventilación natural en el interior de la vivienda. (Figura 10) Figura 10. Propuestas para viviendas dúplex pareadas en el asentamiento La Panchita (Fuente: San Juan et al., 2022 (9) Viviendas a reubicar. Caso de estudio asentamiento Punta Alegre. Es el único asentamiento que cuenta con la información exacta, en planos, de hasta dónde llega la línea de inundación para 2050, según el Departamento Provincial Planificación Física de Ciego de Ávila (DPPF), dato necesario para la localización de nuevas edificaciones. Su morfología es alargada, paralela a la línea del litoral, longitudinal a la costa con frente de playa. Según datos recogidos del informe Anual del año 2020 del IPF, Punta Alegre es considerado “urbano”, con una categoría de Poblado de Primer Orden. Su área total es de 58.66 ha, de las cuales 51.63 ha son residenciales. Tiene una población total de 1093 habitantes, según el último censo realizado en el 2012, y una densidad poblacional estimada en 18.63 hab/ha. Es un poblado principalmente de pescadores, con una cultura y tradición caracterizada por un fuerte arraigo en el mar. También es usado con fines de ocio, deportivo y recreativo, ya que su playa es un destino turístico local para los pobladores del municipio Chambas, por la calidad de su frente de agua, en el cual resalta la presencia de un mogote dentro de la playa que se utiliza como espacio de ranchón y constituye uno de los principales atractivos del lugar. La fuerte relación con el mar se evidencia también en sus actividades conmemorativas, como las parrandas populares que se celebran sobre embarcaciones, en forma de Carnavales de Mar. (Figura 11) Todo esto, pone de manifiesto una gran dependencia del borde costero, tanto desde el punto de vista social como económico, aunque, además, posee agricultura, extracción y procesamiento del yeso como parte de su base económica. Figura 11. Fuerte relación con el mar en el asentamiento Punta Alegre (Fuente: San Juan et al., 2022 (9) Se observa la presencia de tipologías de viviendas unifamiliares, mayormente en trama urbana semicompactas y, en algunos casos, medianeras, con cubierta a dos aguas perpendicular o paralela al frente, 4 aguas y cubierta plana. Son comunes elementos propios de la vivienda vernácula costera, tales como: pilotes, portales, cobertizos, galerías, grandes vanos, transparencias, y el uso de materiales locales como la madera y el guano. Este poblado ha sufrido diversas afectaciones, principalmente como resultado de huracanes y tormentas severas, lo que ha provocado el derrumbe parcial o total de muchas viviendas que son más vulnerables ante eventos extremos, por su ubicación cercana al mar, su forma y proporción, la baja calidad constructiva, los años de vida, y los materiales y técnicas de construcción usados. Punta Alegre se encuentra dentro del grupo de asentamientos identificados por el IPF (2020) con afectación parcial para el año 2050, con una elevación prevista del nivel medio del mar de 28.4 cm, lo que representa un área total afectada para ese año de 25.42 ha (43.33%) y un área residencial de 22.87 ha (44.29% de las viviendas), por lo que se verían afectadas en el asentamiento un total de 159 a 176 viviendas. Además, se espera un aumento de la temperatura y el incremento de los eventos extremos. En el asentamiento se aprecian alturas no superiores a los dos niveles y un marcado uso de los espacios exteriores, que se debe a la forma de vida de los habitantes. Por tanto, se propone mantener las alturas existentes y la utilización de jardín, portal y patio privado por vivienda. El diseño se proyecta como un grupo de cuatro volúmenes, espaciados entre ellos para garantizar la ventilación e iluminación natural, diferenciando los de acceso, ubicados entre las viviendas, como nexo compositivo y espacio común. Se propone como un conjunto palafítico elevado 1 m sobre el nivel del terreno, siguiendo los principios de transparencia hidráulica y de menor obstrucción, de manera que en caso de inundaciones por eventos extremos no se obstruya el paso natural del agua. Se decide mantener las cubiertas inclinadas como se muestra en gran parte del asentamiento y se sigue la premisa de aprovechamiento vertical del espacio. (Figura 12) Siguiendo un ritmo modular, se compone una fachada con grandes vanos y combinaciones de llenos y vacíos aprovechando carpintería plegable para abrir los espacios hacia el exterior, proyectando balcones virtuales y aleros temporales. Entendiéndose como balcón virtual, cuando los cierres se abren completamente desdibujando los límites interior-exterior sin llegar a concebirse grandes entrantes o salientes. Figura 12. Volumetría de las nuevas viviendas a reubicar en el asentamiento Punta Alegre (Fuente: San Juan et al., 2022 (9) De igual manera, las viviendas pueden cerrarse para protegerse de eventos extremos y fuertes vientos que pueden afectar la estructura, e incluso, derribarla, cuando existen grandes salientes. Se proyectan con la incertidumbre de no conocer con precisión al usuario que la va a habitar, por lo cual, se desarrolla un abanico de configuraciones, a través de la modulación espacial y estructural que sirva de soporte para la conformación de soluciones que permitan, dentro de una misma cáscara, resolver diversas conformaciones de espacios. Se apuesta por la desjerarquización, la intercambiabilidad de espacios y la progresividad, al brindar diversas alternativas de ocupación y uso, respetando la cáscara de la edificación. Se conciben viviendas flexibles con concepto abierto, que se adaptan a las necesidades de los usuarios, apostando por la progresividad tipo cáscara, que permite modificar la vivienda sin afectar la imagen urbana. Además, se concibe el uso de esta vivienda costera como activo, mediante la posible incorporación de espacios productivos que generen ingresos. Las variantes se desarrollan en dos niveles y un ático, aprovechando al máximo el espacio en el sentido vertical. Se contemplan las áreas menos privadas en planta baja, las más privadas en planta alta y las áreas técnicas en el ático. Se parte de colocar un núcleo duro de escalera y baño, o de patio de servicio y cocina, lo que da la libertad para organizar el resto de los espacios, manejando principios de flexibilidad y espacios libres en la planta baja y de progresividad en las privadas. Para hacer la propuesta más resiliente y energéticamente eficiente, en la cubierta a dos aguas se colocan rieles para fijar los paneles fotovoltaicos, conectados a la red eléctrica nacional, y en la zona más baja se dispone de un calentador solar de agua para cada vivienda. La inclinación de las cubiertas favorece el aprovechamiento solar y la integración de esta tecnología al diseño arquitectónico. (Figura 13) Para colectar el agua de lluvia se prevé un sistema con canales en sus puntos más bajos que se conectan por tuberías a tanques de colección, previstos en los patios de servicio, los que se encuentran elevados para poder ser utilizados por gravedad sin necesidad de utilizar bombas y otros sistemas costosos. Esta agua se aprovecha para los inodoros de planta baja y en los patios de servicio. El aprovechamiento del espacio vertical se concibe mediante un piso técnico debajo de la cubierta inclinada. La inspección a esta área es mediante una losa plana de 6m2, que permite a una sola persona revisar los distintos elementos tecnológicos sin necesidad de implementos de seguridad como arneses o bambas. En este espacio se dispone, además, el tanque de agua, en el punto más elevado, dividido en dos, uno de ellos ubicado 20 cm por encima del calentador de agua solar y que abastece a este, y otro que tributa al resto de la vivienda. A su vez, junto al área de inspección se propone un espacio de almacenaje para los elementos técnicos que deben ser retirados en caso de eventos extremos. Figura 13. Propuesta de diseño para las nuevas viviendas a reubicar en el asentamiento Punta Alegre (Fuente: San Juan et al., 2022 (9) Se garantiza una buena relación interior exterior con grandes vanos para asegurar la correcta iluminación y ventilación, además, de desdibujar los límites entre los espacios y crear una envolvente con terrazas, entrantes y balcones virtuales. Sin embargo, la necesidad de adaptarse a el entorno costero, así como el riesgo de eventos extremos obliga a que estas carpinterías puedan cerrarse por completo, sin dejar aleros u otros salientes que puedan ser destruidos por el viento. Ante la ocurrencia de un evento meteorológico extremo, varios componentes de la edificación deben transformarse, retirarse o cerrarse, para que no sean desprendidos por el viento o causen pérdidas en la vivienda. Todos los elementos técnicos sobre la cubierta (paneles y calentadores solares) se encuentran sobre rieles que permiten desmontarlos con facilidad desde la superficie plana. Una vez desmontados se almacenan en el espacio dispuesto en el piso técnico para este fin, en la misma cubierta. De esta manera no se corre el riesgo de que se dañen retirándolos ni es necesario el uso de implementos especiales. Las partes de la cubierta (paneles tipo sándwich) que funcionan como techos de balcones son desmontables, por lo que se pueden retirar, quedando el volumen sin salientes que puedan ser levantados por el viento. Las barandillas de portales, escaleras, balcones y patios que den a los exteriores se proponen con juntas secas para poder desmontarlas hasta que pase el evento. Igualmente, será necesario cerrar todos los elementos plegables y tipo toldo para compactar el volumen hasta que pase el evento, y colocar “tormenteras” en ventanas de vidrio, las cuales, en caso de existir, siempre deberán estar protegidas de la incidencia de la radiación solar directa. Figura 14. Variantes de vivienda progresiva productiva para el asentamiento Punta Alegre (Fuente: San Juan et al., 2022 (9) 4. CONCLUSIONES Entre las principales afectaciones que el Cambio Climático ocasiona a los asentamientos costeros en El Caribe se encuentran la elevación de la temperatura y el nivel medio del mar, y el incremento de la intensidad y frecuencia de los fenómenos meteorológicos extremos, todo lo cual generará importantes impactos ambientales, económicos y sociales. La gestión para mejorar la resiliencia de los asentamientos humanos costeros debe considerar el ciclo de vida y la durabilidad en las estrategias, tanto para la transformación de las viviendas existentes, como en los nuevos diseños. Se estima la existencia de 262 asentamientos costeros en Cuba, distribuidos en 15 tramos caracterizados por tres tipos de faja costera, de los cuales, 181 se verán afectados por la elevación del nivel medio del mar. Los principios de actuación propuestos contemplan cuatro posibles situaciones en dependencia de la magnitud de la inundación y la calidad de las viviendas: traslado total, transformación del entorno urbano y de las viviendas ante eventos permanentes o transitorios, y reubicación de viviendas dentro del propio asentamiento. Para ejemplificar la aplicación de los principios de diseño se clasifican los tipos principales de viviendas autoconstruidas cuya vida útil podrá sobrepasar el período de inundación previsto al 2050, y se proponen posibles trasformaciones permanentes, para éstas y otras soluciones vernáculas que por sus valores merecen ser rescatadas. También se ejemplifica la aplicación de los principios en el diseño de soluciones de nuevas viviendas aisladas, pareadas y en hilera, en dos asentamientos seleccionados: La Panchita en Villa Clara y Punta Alegre en Ciego de Ávila. REFERENCIAS 1. SICLARI, P. G. (2020). Amenazas de cambio climático, métricas de mitigación y adaptación en ciudades de América Latina y el Caribe, Documentos de Proyectos (LC/TS.2020/185). Santiago: Comisión Económica para América Latina y el Caribe (CEPAL). 2. HERRÁN, C. (2012). El Cambio Climático y sus consecuencias para América Latina. México. 3. IPCC (Intergovernmental Panel on Climate Change). (2014). Cambio climático 2014: Informe de síntesis. Contribución de los Grupos de trabajo I, II y III al Quinto Informe de Evaluación del Grupo Intergubernamental de Expertos sobre el Cambio Climático. Ginebra, Suiza. 4. SÁNCHEZ, L.; y REYES, O. (2015). Medidas de adaptación y mitigación frente al cambio climático en América Latina y el Caribe. Santiago de Chile: CEPAL 5. INSUA; Ceppi; MENÉNDEZ; y MOLERO. (2013). Cambio climático, fenómenos meteorológicos extremos y análisis de riesgos. Real Academia de las Ciencias Exactas. 6. ISLAS, M. (2020). El Caribe frente al cambio climático: Hacia una nueva geografía. Cambio Climático y sus efectos en el Gran Caribe (pp. 197-211). Habana, Cuba: CLACSO. 7. ORGANIZACIÓN PANAMERICANA DE LA SALUD. (2019). Plan de acción del Caribe sobre la salud y el cambio climático. Washington, D.C: OPS. 8. ITURRALDE, M. A., y SERRANO, H. (2015). Peligros y vulnerabilidades de la zona marino-costera de Cuba: estado actual y perspectivas ante el cambio climático hasta 2100. La Habana: Editorial Academia. 9. DÍAZ SAN JUAN, A., NAVARRO MICHELENA, L., RODRÍGUEZ TRIANA, M. (2022). Soluciones de diseño para vivienda en zonas costeras. Trabajo de Diploma, Facultad de Arquitectura, CUJAE, La Habana, enero, 2022. 10. IPF (Instituto de Planificación Física). (2020). Profundización de las vulnerabilidades al Cambio Climático en asentamientos humanos costeros y otras áreas a los años 2050 y 2100 y la búsqueda de soluciones de adaptación (PROYECTO 8). La Habana. Sobre los autores Dra. Dayra Gelabert Abreu. Arquitecta (2007). Doctora en Ciencias Técnicas (2013). Profesora Auxiliar de la Universidad Tecnológica de La Habana, CUJAE. Dra. Cs. Dania González Couret. Arquitecta (1979). Especialista en Edificaciones Sociales (1982). Doctora en Ciencias Técnicas (1994). Doctora en Ciencias (2007). Profesora Emérito dela Universidad Tecnológica de La Habana. Miembro Titular de la Academia de Ciencias de Cuba. Arleet Díaz San Juan. Arquitecta (2007). Larisbel Navarro Michelena. Arquitecta (2007). Michelle Rodríguez Triana. Arquitecta (2007). IMPACTO DE LA ORIENTACIÓN Y EL CONTEXTO URBANO EN LA PROTECCIÓN SOLAR Y LA DEMANDA DE ENERGÍA Guillermo Antonio De la Paz Pérez1, Dania González Couret2 1Universidad de Camagüey Ignacio Agramonte Loynaz, Carretera Circunvalación Norte, km 5½, entre/ Camino Viejo de Nuevitas y Avenida Ignacio Agramonte, Camagüey, Cuba. CP 74650, 2Universidad Tecnológica de La Habana José Antonio Echeverría - CUJAE, Ave 114 #11901 e/ Ciclovía y Rotonda, Marianao, La Habana, Cuba. 1e-mail: guillermo.paz@reduc.edu.cu RESUMEN La reducción de la demanda energética es prioridad para Cuba, debido a la dependencia de combustibles importados y el costo promedio de la energía. Una de las estrategias que puede mejorar la eficiencia energética de edificios en climas cálidos es la protección solar. El presente trabajo demuestra que el efecto simultáneo del contexto urbano y la orientación contribuye a precisar y optimizar la protección solar requerida y reducir la demanda energética en los edificios, con el propósito de proponer recomendaciones para la protección solar de los vanos como parte de la envolvente vertical de los edificios en función del contexto y la orientación, con vistas a reducir la demanda energética, ya que edificios energéticamente eficientes son fundamentales para garantizar la descarbonización a largo plazo y contribuir con los objetivos de desarrollo sostenible. El método empleado estuvo basado en simulaciones automatizadas del ambiente térmico interior y la demanda energética de los edificios, utilizando el software EnergyPlus. Se construyeron 60 modelos virtuales paramétricos de espacios y contextos urbanos objeto de estudio (compacto, semicompacto y abierto). Los resultados de 700 simulaciones realizadas permitieron estimar que la reducción de la demanda energética con el uso de la protección solar específica para cada orientación de la abertura alcanza hasta 56 kWh/m2/año en el suroeste, en comparación con la abertura sin protección. Al considerar la influencia del contexto urbano, el costo de los elementos de protección solar recomendados para cada orientación específica, de la envolvente vertical del edificio, puede reducirse entre un 24% y un 75%. PALABRAS CLAVES: protección solar arquitectónica, contexto urbano, demanda energética, clima tropical. TITLE: IMPACT OF ORIENTATION AND URBAN CONTEXT ON SOLAR SHADING AND ENERGY DEMAND ABSTRACT Reducing energy demand is a priority for Cuba, due to dependence on imported fuels and the average cost of energy. One of the strategies that can improve the energy efficiency of buildings in hot climates is solar shading. This paper demonstrates that consideration of the simultaneous effect of urban context and orientation can contribute to specifying and optimising the required solar shading and reducing energy demand in buildings. This is done with the purpose of proposing recommendations for solar shading of openings as part of the vertical building envelope as a function of context and orientation, with a view to reducing energy demand as energy efficient buildings are essential to ensure long-term decarbonisation and thus contribute to the achievement of sustainable development goals. The method used was based on automated simulations of the indoor thermal environment and energy demand of buildings, using EnergyPlus software. Sixty parametric virtual models were built with the generic space located in three selected urban contexts (compact, semi-compact and open). Based on the results of 700 simulations, it could be estimated that the reduction in energy demand with the use of specific solar shading for each orientation of the opening can be up to 56 kWh/m2/year in the south-west, compared to the opening without shading. Furthermore, if the influence of the urban context is taken into account, the cost of the recommended solar shading elements for each specific orientation of the vertical building envelope can be reduced by 24% to 75%. KEY WORDS: architectural solar protection, urban context, energy demand, tropical climate. 1. INTRODUCCIÓN Mientras el avance del conocimiento y la tecnología ha mejorado la forma de construir los edificios, el avance del desempeño energético en este sector todavía es lento comparado con la industria y no se ha mantenido al ritmo de las necesidades del cambio [1]. Los edificios representan una parte importante del consumo de energía del mundo1 y de las emisiones de CO2. Por ejemplo, en Estados Unidos (EEUU) y la Unión Europea (UE) el consumo de energía de los edificios es del 40% del total, mientras las emisiones de CO2 asociadas a ese consumo son el 38% en EEUU y 36% en la UE [2]. Además, para el año 2100 el cambio climático global, bajo un escenario supuesto, provocará que la demanda de enfriamiento se incremente en 72% con predominio en regiones menos desarrolladas [3]. El interés internacional en el ahorro de energía comenzó durante la crisis del petróleo en 1973, y desde entonces se ha considerado el alto potencial que los edificios representan en el logro de ese objetivo [4]. Tal es así, que la Agencia Internacional de la Energía (IEA) identifica la eficiencia energética en edificios como una de las cinco medidas para asegurar a largo plazo la de-carbonización del sector de la energía [5]. Varios autores [6, 5] confirman que, debido a la larga duración de los edificios, los más eficientes de nueva construcción constituyen un porciento muy bajo con respecto al total, por lo que, en las próximas décadas, los edificios existentes todavía serán la mayor causa de consumo de energía y de emisiones de CO2. Por consiguiente, no solo se necesitan requerimientos para los nuevos diseños, sino que también es preciso actuar sobre los edificios existentes, evaluarlos y proponer rediseños de sus envolventes. Para la rehabilitación energética de edificios una de las principales acciones es la reducción de la demanda mediante actuaciones sobre su envolvente. Lo antes mencionado, convierte a los edificios en un campo estratégico de actuación, siendo vital establecer prácticas de reducción del consumo de energía y de fomento del uso de fuentes renovables. Para Cuba estas prácticas tienen una significación de soberanía debido al efecto de los principales problemas que identifica el [7], tales como: dependencia de combustibles importados para la generación energética; costo promedio de la energía entregada, pérdidas en las redes y la contaminación ambiental, así como baja eficiencia en la generación térmica y la aún escasa utilización de las fuentes renovables de energía. Debido a similares motivos y el impacto de la crisis energética nacional 2004-2005, el Estado cubano inició la Revolución Energética y más tarde estableció políticas, lineamientos, planes de desarrollo y un marco regulatorio con normas, decretos donde la reducción del consumo de energía en edificios se aborda explícitamente. En las condiciones climáticas de la isla, particular importancia cobra la penetración de la radiación solar directa que incrementa la carga térmica, la molesta radiación asimétrica y el deslumbramiento en el interior de los espacios. Además, no existe un adecuado aprovechamiento de la iluminación natural diurna. A pesar de lo anterior, a partir de la década de los 90´s, se aprecia un aumento del uso de envolventes vidriadas sin protección solar, tanto en nuevos diseños como en intervenciones de edificios existentes. Estos patrones de actuación arquitectónica no tienen en cuenta que los factores de la envolvente pueden tener un impacto global del 60% [8] en la demanda de energía por enfriamiento. Hoy está vigente una norma para la eficiencia energética de las edificaciones, donde su Parte 1 [9] está dedicada al diseño de la envolvente arquitectónica, pero no establece requerimientos según la orientación específica de cada pared exterior, con lo cual no se tienen en cuenta las diferencias en el asoleamiento según su orientación, y la influencia real que esto tiene, con sus correspondientes consecuencias energéticas (consumo de electricidad), ambientales (emisiones de contaminantes, como el CO2, en la producción de esa energía), económicas (gasto en acondicionamiento artificial) y sociales (afectaciones de la calidad de vida por disminución del confort, así como de la identidad y tradición arquitectónica). Algo similar ocurre con el marco regulatorio y normativo internacional, que aún no incluye en todos los casos los requerimientos de la orientación específica ni la influencia del contexto urbano en la protección solar requerida y en la demanda energética de los edificios. 1 Según la “Administración de información de la energía de los EEUU”, el 20% de la energía consumida en todo el mundo está dentro del sector de los edificios (incluyendo comercial y residencial). [10]. Aunque la envolvente arquitectónica está constituida por todos los cierres expuestos (cubiertas y paredes exteriores), y a pesar de que la cubierta2 constituye un importante elemento de ganancia térmica en el trópico, la investigación se centra en la envolvente vertical, específicamente en la protección solar de los vanos, que cumplen diversas y complejas funciones en la edificación (protección solar y de lluvias, iluminación y ventilación natural, visuales y privacidad), la cual debe subordinarse a la orientación y a las condiciones del contexto, pero esto no está contemplado en la norma vigente. La importancia de profundizar en las investigaciones encaminadas a definir el efecto del contexto urbano ha sido reconocida por otros autores como [11]. 2. FUNDAMENTACIÓN DE LAS VARIABLES OBJETO DE ESTUDIO El contexto urbano en el que se inserta el edificio y la orientación, son variables externas que determinan la protección solar requerida por el vano de la envolvente vertical, que limita el espacio interior, lo cual influye en su demanda energética por climatización e iluminación artificial. La optimización de la protección solar de la envolvente vertical según la orientación y el contexto urbano permitirá reducir la demanda energética del espacio, lo cual tendrá implicaciones en los costos y aportará beneficios. Demanda energética de los edificios Varios autores [12, 13] han definido los principales factores que influyen en los niveles de consumo de energía de los edificios, los cuales coinciden con un estudio realizado por la Agencia Internacional de la Energía [13], según el cual estos factores que influyen en el desempeño energético del edificio pueden ser clasificados en cuatro componentes: clima, envolvente del edificio, equipamiento del edificio, y comportamiento del ocupante. Egwunatum, Joseph-Akwara y Akaigwe [14] consideran que la envolvente del edificio es el elemento más significativo que afecta la eficiencia energética. También Natephra et al. [12] refieren que es ampliamente reconocida como una de las variables de diseño más importante para un ahorro efectivo de la energía y el principal factor de la cantidad de energía requerida para regular el confort térmico interior del edificio. Orientación Tapia-Maureira y Piderit [15] muestran como volúmenes de edificio con varias formas y orientaciones provocan demandas energéticas diferentes. En Cuba, al comparar la influencia relativa de las variables de diseño en la carga energética de edificaciones para el turismo y con ello, en el consumo de energía por este concepto, Rueda [16] demuestra que la orientación constituye la variable de diseño que mayor influencia tiene en la carga de climatización, seguida por los elementos de protección solar. Se asume el concepto de orientación dado en la norma ANSI/ASHRAE/IES Standard 90.1 [17], la cual la define como la dirección que un elemento de la envolvente enfrenta, por ejemplo, la dirección de un vector perpendicular a la superficie exterior del elemento y apuntando hacia fuera de esta. En este estudio la orientación la define el ángulo formado entre el norte geográfico y la normal a la superficie exterior de la fachada, medido en sentido horario cada 45º, por lo cual se utilizan ocho orientaciones: norte (N)=0º, noreste (NE)=45º, este (E)=90º, sureste (SE)=135º, sur (S)=180º, suroeste (SW)=225º, oeste (W)3=270º, noroeste (NW)=315º. 2 Situación particular, dada para espacios de última planta o una sola, donde no predominan vanos a proteger, y la influencia de la orientación ocurriría solo en cubiertas inclinadas. Sin embargo, todos los espacios sí tienen una porción de envolvente vertical, lo cual es lo más común. 3 A los efectos de este trabajo se utiliza la letra W, del inglés west, para denotar la orientación oeste, con el objetivo de evitar confusión con los términos NO (noroeste), O (oeste) y SO (suroeste) que tienen significado en español. Espacio Para el desarrollo de esta investigación se asume un espacio genérico similar al empleado por González [18] para evaluar elementos de control solar, partiendo de que sus dimensiones se adaptan a los requerimientos de diversas funciones como aulas, oficinas y alojamiento (habitación de hotel) en Cuba. Así mismo, se asume que el espacio genérico objeto de estudio se encuentra ubicado en un nivel intermedio, por lo cual su piso y techo también pueden ser considerados como adiabáticos, ya que constituyen planos horizontales que dividen este espacio de otros de función similar. Las características de este espacio son: dimensiones de 6,00 x 6,00 x 3,00 m (ancho, profundidad, altura) y un vano de proporciones horizontales que abarca todo el ancho del cierre exterior expuesto, con un antepecho de 1m y una altura de 2 m (Fig. 1). Así quedan fijos los parámetros geométricos: volumen (108 m3), área de cada pared que limita el espacio hacia el interior del edificio (18 m2), área de piso y techo (36 m2), área de vano (12 m2) y área de antepecho (6 m2). Un espacio genérico de esas mismas dimensiones fue también empleado por Garcia-Nevado et al. [11] para evaluar la relación ventana-pared en una unidad residencial individual en el contexto del distrito Eixample de Barcelona. Figura 1: Espacio genérico utilizado para simular la demanda energética con EnergyPlus. Para realizar las simulaciones con EnergyPlus (E+), no solo se requirieron los factores geométricos anteriores. También fue necesario fijar factores de uso (Tabla 1) y los materiales y elementos componentes de la envolvente, tanto los que rodean al espacio, como los del edificio en general y sus aledaños. Los materiales, abarcan los cierres del espacio y las construcciones exteriores, de los que fue preciso introducir datos como espesor, conductividad, densidad, calor específico. Tabla 1: Resumen de las condiciones del espacio para la simulación energética por climatización e iluminación. Parámetro Descripción Temperatura de consigna (punto de ajuste del termostato). 24°C (NC 220-3) Infiltración de aire constante 0,2 ACH (cambios de aire por hora). Biblioteca E+ [19] Infiltración de aire por ocupación 0,004 m3/s (por m2/persona). Biblioteca E+ [19] Control de iluminación diurna (punto de ajuste de iluminancia) sensor de iluminación. 300 lux [20]. En el punto de referencia 3x3x0,9 m. Horario de uso de iluminación. Todos los días, 9 horas: en marzo-octubre de 7:00am a 4:00pm (horario de verano) y en noviembre-febrero de 8:00am a 5:00pm (horario normal). Número de ocupantes. 20 personas (1,8m2/personas) [21]. Horario de ocupación. Todos los días, 9 horas. Actividad de las personas. Schedule (período de uso). Ganancia interna de 100W por persona (actividad lectura o escritura) [22]. Todos los días, 9 horas. Equipamiento eléctrico. 4,5 W/m2 [15]. Definiciones de iluminación (potencia de iluminación artificial de diseño). 10 W/m2 [17]. Envolvente La envolvente es un separador físico entre los ambientes exterior e interior y está compuesta por piso, techo, paredes y ventanas. Además de condicionar la expresión del edificio debido a su fuerte componente cultural, influye en su ciclo de vida, durabilidad y costo de mantenimiento. De los componentes de la envolvente, la vertical es la que presenta mayor superficie permeable expuesta al ambiente exterior. A partir de lo definición de “envolvente vertical”, establecida en varias normativas internacionales [24, 17] y la propia norma cubana NC 220-1 [10], para esta investigación se asume el término envolvente arquitectónica vertical, para el componente de la envolvente cuya inclinación es mayor o igual a 60º con respecto a la horizontal, e incluye elementos opacos, permeables y de autosombreado; así como protección solar exterior. La protección solar o sombreado es reconocida por varios autores [25, 26] como la principal estrategia de enfriamiento y confort en climas cálidos, es un importante elemento de la envolvente que influye en el comportamiento energético del edificio, lo cual corroboran investigaciones [27, 21] donde se demuestra que los dispositivos de protección solar mejoran el desempeño energético en condiciones cálido-húmedas. Además, ya en Cuba autores nacionales [28] evaluaron y pronosticaron, mediante simulación con E+, el impacto de propuestas de protección solar y su efectividad en las condiciones climáticas de la isla. La protección solar de las ventanas, como componentes permeables de la envolvente vertical de los edificios, es el objeto de estudio específico en la presente investigación. Contexto Es el contexto4 urbano inmediato o la porción de éste situado frente a la envolvente vertical del espacio objeto de estudio, específicamente, el ángulo de visión del cielo que este permite y que condiciona la exposición a la radiación solar de la porción de envolvente vertical que limita al espacio interior, cuya demanda energética se está simulando. Siempre es un espacio frontal con una edificación en frente que puede ser una calle, un espacio abierto, pero está determinado por la distancia y la altura. La influencia del contexto en la demanda energética de los edificios depende en primer lugar de su geometría y orientación, que determinan la incidencia solar en la envolvente expuesta de los espacios. La geometría está determinada por la separación entre el edificio objeto de estudio y los próximos a él, así como su altura, que condicionan el ángulo de la protección solar u obstrucción que ofrece el contexto. Este se complementa con la protección o auto sombreado brindado por el propio edificio y ambos generan el ángulo de visión del cielo que permite la incidencia solar según la orientación. Se asumen tres modelos geométricos de contexto (Fig. 2) que caracterizan de forma general las tres etapas socioeconómicas más importantes que influyeron en el desarrollo urbano de las ciudades cubanas (colonia, república y revolución). Basado en trabajos anteriores [29, 30, 31], los tipos más comunes se agruparon y clasificaron en tres: 1) zona compacta, definida principalmente por el centro histórico, 2) zona semicompacta, referida a la expansión de la ciudad en la primera mitad del siglo XX y 3) zona abierta, relativa mayormente a las nuevas urbanizaciones en la periferia de las ciudades como parte del proceso de expansión en la segunda mitad del siglo XX. 4 No se trata de un estudio morfo-tipológico de diferentes posibles contextos urbanos, ya que no se refiere a esa escala. En este trabajo, se refiere a lo que está inmediato a ese fragmento de la envolvente vertical del edificio y que está en posibilidad de arrojar sombra en dependencia de la orientación. Donde, el elemento de protección solar actúa como elemento complementario de esa sombra protectora del contexto. Compacto Semicompacto Abierto M o d el o p ar am ét ri co Ej e m p lo e n c iu d ad Figura 2: Modelos paramétricos de contextos. Ejemplo, imagen satelital, de cada contexto en una ciudad cubana (Camagüey). Aunque estos modelos urbanos responden a una evolución histórica, no es esa la razón por la que han sido asumidos como clasificación en la presente investigación, sino porque sus características morfológicas específicas tienen una influencia directa en el ángulo de visión del cielo (Sky View Factor, SVF) [32, 33, 34], que a su vez condiciona el acceso de los edificios al sol y por tanto, la incidencia en ellos de la radiación solar, con su correspondiente efecto en la carga térmica que se transmite hacia el espacio interior y que debe ser contrarrestada por el sistema de climatización artificial, influyendo por tanto, en la demanda energética. Además, se ha asumido una altura promedio de 3m por piso, y edificios entre 1 y 5 plantas (3m ≤ H ≤ 15m), teniendo en cuenta las aturas más frecuentes en la ciudades cubanas y la regulación que limita al empleo de hasta 5 plantas sin ascensor. Con el reconocido motor de simulación energética EnergyPlus, en su versión 8,8 del 2018, se realizan 700 simulaciones automatizadas horarias del espacio genérico en 60 modelos paramétricos de contexto, con 8 orientaciones y considerando los datos climáticos de Camagüey (por su condición intermedia) [35]. Este proceso permite pronosticar el comportamiento de diversos parámetros como ganancia de calor solar por ventanas, temperatura media radiante, temperatura horaria de las superficies interiores y exteriores, así como, una de las variables objeto de estudio, “demanda de energía anual” para enfriamiento e iluminación artificial. 3. INFLUENCIA DE LA ORIENTACIÓN Y EL CONTEXTO Y EN LA PROTECCIÓN SOLAR Aunque se parte de resultados de simulaciones, dados en valores absolutos (kW), lo más importante es en qué proporción se reduce (valores relativos) la demanda energética con las mismas bases (comparando en iguales condiciones), o sea cuánto influye tener en cuenta la orientación específica en el sentido de la reducción relativa de la demanda y en qué proporción se optimiza la protección cuando, debido a la influencia del contexto, no se necesita toda la protección y se reducen los costos. Influencia de la orientación. La Fig. 3 muestra como las variaciones en la orientación del vano de vidrio, en un espacio aislado (sin contexto), provocan comportamientos diferentes en la demanda energética. Estas diferencias, se manifiestan entre las ocho orientaciones estudiadas, las cuales incluyen las cinco que agrupa la norma cubana vigente como “resto de las orientaciones” (E, SE, S, SE y W). Además, la protección específica para cada orientación contribuye a una considerable reducción de la demanda energética con respecto a la envolvente expuesta. La demanda sin protección es máxima al sureste seguido del este, y mínima en el norte. Con protección solar los valores críticos también ocurren en esas orientaciones, aunque la mayor efectividad (disminución de la demanda) se logra al suroeste (14%), mientras que la más baja ocurre en el norte (3%). Figura 3: Demanda energética, tanto en condiciones sin protección solar como con protección solar. Influencia del contexto urbano Cuando no existe protección solar, la menor demanda energética se produce en el contexto compacto, que ofrece una mayor protección, mientras que la mayor demanda ocurre en el abierto. El contexto semicompacto representa una posición intermedia, pero llama la atención que es donde se producen las mayores demandas, con edificaciones de una y dos plantas, debido a la pared lateral expuesta al oeste que contribuye a un incremento considerable de la carga térmica y la demanda energética. Esto corrobora investigación anterior sobre la influencia del factor de forma en la demanda energética de estos tres tipos de contexto en la ciudad de Camagüey [36]. Aunque se ha planteado [37] que este tipo de contexto es más apropiado por la ventilación e iluminación que el compacto y el abierto, hay que tener en cuenta que está más expuesto, lo cual debe ser resuelto con protección solar, vegetación y colores claros, entre otras posibles soluciones. De igual manera, la demanda se reduce con la altura de las edificaciones y aumenta con el ancho de las vías y con el incremento de la separación entre los edificios (Fig. 4). (A) (B) (C) (D) Figura 4: Influencia del contexto. Demanda energética (climatización más iluminación artificial diurna) sin protección solar en orientación Sur. (A) compacto, (B) abierto, (C) semicompacto con d=1,4m y (D) semicompacto con d=3,6m. Reducción de la protección solar requerida y la demanda energética con la consideración del contexto En la figura 5, se muestra la influencia del contexto urbano compacto como complemento de la protección solar requerida en la demanda energética por climatización en la orientación sur, según el ancho de la vía y la altura de las edificaciones. En cada caso se presenta la proyección horizontal total requerida por un elemento de protección situado a la altura del techo, como prolongación de la losa de entrepiso, que podría ser un alero, un balcón superior, o un espacio de transición como portal o terraza, cuando las dimensiones necesarias son mayores. Aunque el ángulo horizontal requerido, cuando es muy bajo puede ser satisfecho mediante diversas soluciones de diseño que incluyen los elementos múltiples, con vistas a comparar el efecto de reducción, en este caso se muestra el resultado de la proyección total horizontal, aunque en la práctica real la solución pueda ser otra que satisfaga el mismo ángulo. El alero puede ser menor en algunas combinaciones de distancia y altura, ya que el contexto complementa la protección. La dimensión de vuelo del alero disminuye cuando aumenta la altura del contexto: para D=4,5m, el alero disminuye de 1,8 a 0,64m entre 2 y 5 pisos promedio; cuando D=6m se reduce de 2,4 a 0,86m y cuando D=9m se reduce de 2,25 a 1,29m. Figura 5: Influencia de las características del contexto urbano en la demanda energética y en la proyección horizontal de los dispositivo de control solar. El gráfico de la Fig. 6 reproduce nuevamente la proyección horizontal de los elementos de protección propuestos por los autores para cada orientación específica, así como la demanda generada en el espacio objeto de estudio cuando estos se emplean. Se han añadido las proyecciones horizontales ajustadas de los elementos de protección necesarios como complemento de la sombra arrojada en un contexto compacto con vías estrechas y edificios altos (D4,5 – H15), valores intermedios del ancho de vía y la altura de los edificios (D6 – H9). En el tercer caso (no graficado), con vías anchas y edificios bajos (D9 – H3), para todas las orientaciones no es posible ajustar la proyección horizontal, ya que las sombras arrojadas por el contexto no son significativas, por lo que la protección deber ser resuelta con el 100% de la proyección horizontal propuesta. En la Fig. 7 se muestran posibles ejemplos, en ciudades cubanas, de las tres condiciones analizadas. Reducción de la demanda energética y proyección horizontal de la protección solar ajustada por el contexto urbano Figura 6: Influencia del contexto en la proyección horizontal de la protección solar. Ajuste de esta protección debido al contexto Como se muestra en la Fig. 6, debido a la influencia del contexto, la proyección horizontal de los elementos de protección solar se corrige con una reducción que va desde 52% al norte hasta 87% al oeste, en un contexto compacto caracterizado por vía estrecha – edificio alto. En ese mismo contexto pero con vía de ancho medio y altura media la reducción de los elementos de protección solar pasa de 23% al noreste a 69% al oeste. En todos los casos esta reducción se genera con respecto a la protección solar específica propuesta para cada orientación, en la condición de espacio aislado sin contexto. Vías estrechas y edificios altos Vías de ancho medio y la altura media de edificios Vías anchas y edificios bajos Figura 7: Ejemplos que ilustran, a partir de la relación distancia (D) altura (H), tres posibles condiciones de contexto compacto en ciudades cubanas. En estas tres condiciones de contexto compacto, por orientación, se realiza una comparación del costo5 de la proyección horizontal ajustada y el costo de la demanda energética disminuida por esta proyección. Los resultados mostraron que el retorno de la inversión del elemento de protección solar en todos los casos con orientaciones E, SE, S, SW y W era inferior a 14 meses, lo que indica la factibilidad de la estrategia de control solar en las condiciones climáticas de Cuba. 4. CONCLUSIONES El efecto de la protección solar específica para cada orientación es significativo para edificaciones de baja altura y se incrementa con el ancho de la vía, ya que en ambos casos la protección ofrecida por el contexto se reduce. La protección solar requerida disminuye con el aumento del número de pisos del contexto. Al considerar la influencia del contexto la reducción de los costos de la protección solar recomendada para cada orientación (ocho) se reduce entre 52-87% en vía estrecha – edificio alto y entre 23-69% en vía de ancho medio – altura media. Además, la menor demanda energética con la protección solar adecuada se genera al oeste, que es a su vez donde mayor reducción de la protección solar se obtiene con la consideración del contexto. En la mayoría de las condiciones de contexto (75%), el costo de la protección solar ajustada representa un 52 %, como promedio, de la demanda energética que se reduce. Con el empleo de protecciones específicas y considerando el contexto, es posible lograr una reducción de la demanda energética anual que puede llegar a 56 kWh/a/m2, lo cual representa un costo de 14,00 USD/m2, una generación de CO2 de 64kg/m 2 y un consumo de petróleo de 16,8 kg/m2. Debido a las implicaciones económicas, energéticas y ambientales demostradas, se realiza un reajuste de la norma vigente, donde deberá incluirse la consideración del contexto urbano en el cual se inserta el edificio objeto de estudio, así como todas las orientaciones específicas. Además, se instruye al proyectista para que cada porción de la envolvente vertical sea diseñada de acuerdo con su orientación y su relación con el contexto inmediato, lo cual también varía para cada planta del edificio objeto de estudio. Para su generalización se diseña una aplicación informática para sugerirle al proyectista ángulos de diseño de la protección solar, según ubicación y posición del espacio a diseñar, características del contexto, etc. CtrolSOLARQ es concebida para valores continuos, y generalizada a todo el territorio nacional. RECONOCIMIENTOS Los autores desean agradecer a Josep Solé, José Rodríguez, Guillermo Barrio, Julio Madera y Gaspar Barreto por haber colaborado con la obtención de los resultados referidos en el artículo. REFERENCIAS 1. AZARI, Rahman; ABBASABADI, Narjes. “Embodied energy of buildings a review of data, methods, challenges, and research trends”. Energy & Buildings, 2018, vol. 168, pp. 225-235. doi: 10.1016/j.enbuild.2018.03.003 2. AMASYALI, Kadir; EL-GOHARY, Nora M. “A review of data-driven building energy consumption prediction studies”. Renewable and Sustainable Energy Reviews 81, 2018, pp. 1192-1205. Elsevier. doi: 10.1016/j.rser.2017.04.095 3. CAO, Xiaodong; DAI, Xilei; LIU, Junjie. “Building energy-consumption status worldwide and the state-of-the-art technologies for zero-energy buildings during the past decade”. Energy and Buildings, 2016, vol. 128, pp. 198–213. doi.10.1016/j.enbuild.2016.06.089 4. AWAWDEH, Siba A.; CHRIS Tweed. “Buildings’ Energy Efficiency and Buildings’ Energy Codes: a Literature Review”. International Journal of Applied Science and Technology, 2014, vol 4, núm. 2, pp. 37-46. Disponible en Web: http://www.ijastnet.com 5. CHIRAG Deb; SIEW EANG Lee. “Determining key variables influencing energy consumption in office buildings through cluster analysis of pre- and post-retrofit building data”. Energy and Buildings, 2017. doi: 10.1016/j.enbuild.2017.11.007 5 Para estimar los costos se asumió un alero de hormigón armado (resistencia de 20 MPa) como continuidad de la losa de entrepiso, con un peralto de 10 cm y se utilizaron los precios de venta mayorista a empresas no estatales (cooperativas no agropecuarias) establecidos por Ministerio de Finanzas y Precios en 2016. 6. BRØGGER, Morten; BJARNE WITTCHEN, Kim. “Estimating the energy-saving potential in national building stocks–A methodology review”. Renewable and Sustainable Energy Reviews, 2017, vol. 82, Part 1, pp. 1489-1496. doi: 10.1016/j.rser.2017.05.239 7. MINEM (Ministerio de Energía y Minas) et al. Cuba apuesta por una energía más limpia, diversa y eficiente [en línea], 2014. Disponible en Web: http://www.cubadebate.cu/especiales/2014 /08/14/cuba-apuesta-por-una-energia-mas-limpia-diversa-y-eficiente/#respond 8. MARTINS, Tathiane; FARAUT, Serge; ADOLPHE, Luc. “Infuence of context-sensitive urban and architectural design factors on the energy demand of buildings in Toulouse, France”. Energy & Building, 2019, Volume, 190, pp. 262-278. doi: 10.1016/j.enbuild.2019.02.019 9. Cuba, Oficina Nacional de Normalización. NC 220-1: Edificaciones - requisitos de diseño para la eficiencia energética - parte 1: envolvente del edificio [en línea]. Ciudad de La Habana, Cuba, 2009: CTN 40. Disponible en Web: www.nc.cubaindustria.cu 10. DELZENDEH, E. el al. “The impact of occupants’ behaviours on building energy analysis: A research review”. Renewable and Sustainable Energy Reviews, 2017, núm. 80, pp. 1061–1071. doi: 10.1016/j.rser.2017.05.264 11. GARCIA-NEVADO, E. et al. “Façade design and energy demand: fenestration indexes from an urban approach [en línea]. En actas de la 33rd International Conference on Passive and Low Energy Architecture PLEA 2017, Vol. III, pp. 5230-5237. Disponible en Web: www.nceub.org.uk 12. NATEPHRA, W. et al. “Optimizing the evaluation of building envelope design for thermal performance using a BIM-based overall thermal transfer value calculation”. Building and Environment, 2018. doi:10.1016/j.buildenv.2018.03.032 13. YOSHINO, H. et al. “IEA EBC annex 53: Total energy use in buildings—Analysis and evaluation methods”. Energy and Buildings, 2017, vol. 152, pp. 124-136. doi:10.1016/j.enbuild.2017.07.038 14. EGWUNATUM, S. et al. “Optimizing energy consumption in building designs using Building Information Model (BIM)”. Slovak Journal of Civil Engineering, 2016, vol. 24, núm. 3, pp. 19–28. doi: 10.1515/sjce-2016-0013. 15. TAPIA-MAUREIRA, C; PIDERIT, M. Design Criteria to Reduce Energy Demand and Improve Thermal Comfort in Desert-coastal Climate Office-building [en línea]. En actas de la 34th International Conference on Passive and Low Energy Architecture PLEA 2018, vol. II, pp. 676-681. Disponible en Web: http://web5.arch.cuhk.edu.hk 16. RUEDA, Luis A. Influencia del diseño en la carga térmica y el consumo de energía en habitaciones de hoteles con “destino sol y playa” en Cuba. Director: Dania González. Tesis de doctorado, Instituto Superior Politécnico José Antonio Echeverría, Ciudad de La Habana, 2003. 17. ASHRAE. ANSI/ASHRAE/IES Standard 90.1-2013, Energy Standard for Buildings Except Low-Rise Residential Buildings [en línea]. (I-P Edition). Atlanta, 2013. www.ashrae.org 18. GONZÁLEZ COURET, Dania; MARTÍNEZ CABRERA, Rolando. “Sistema de elementos de protección solar para los edificios en Cuba. Estudio de caso”. Arquitectura y Urbanismo, 2014, vol. 35, núm. 3, pp. 5-17. CUJAE, Ciudad de La Habana 19. SOLE BONET, Josep. OpenStudio y Energy Plus [en línea]. URSA Insulation SA, 2017. Disponible en Web: http://www.josepsole.260mb.net/Energy.html 20. Cuba, Oficina Nacional de Normalización. NC-ISO 8995/CIE S 008: 2003. Iluminacion de puestos de trabajo en interiores [en línea]. Ciudad de La Habana, Cuba: CTN 58, 2003. Disponible en Web: www.nc.cubaindustria.cu 21. GHOSH, Amrita; NEOGI, Subhasis. “Effect of fenestration geometrical factors on building energy consumption and performance evaluation of a new external solar shading device in warm and humid climatic condition”. Solar Energy, 2018, núm. 169, pp. 94–104. doi: 10.1016/j.solener.2018.04.025 22. U.S. Department of Energy. “Input Output Reference. EnergyPlus™ Version 8.8 Documentation” [en línea, 2019. Disponible en Web: https://energyplus.net/ 23. Ministerio de Fomento. Documento de Apoyo al Documento Básico. DB-HE Ahorro de energía. DA DB-HE / 1. Cálculo de parámetros característicos de la envolvente [en línea]. En Código Técnico de la Edificación. Madrid, 2013. Disponible en Web: http://www.codigotecnico.org /cte/export/sites/default/web/galerias/archivos/documentosCTE/DB_HE/DA-DB-HE-1- Calculo_de_parametros_caracteristicos.pdf 24. CITEC (Centro de Investigación en Tecnologías de la Construcción). Manual de Diseño Pasivo y Eficiencia Energética en Edificios Públicos [en línea]. Instituto de la Construcción. Universidad del Bío Bío, Santiago de Chile, 2012. Disponible en Web: www.iconstruccion.cl 25. OLGYAY, Victor. Arquitectura y clima. Manual de diseño bioclimático para arquitectos y urbanistas (Trads., Josefina Frontado y Luis Cavet). Barcelona: Gustavo Gili, 1998 (Trabajo original publicado en 1963). 26. KIRIMTAT, A. et al. “Review of simulation modeling for shading devices in buildings”. Renewable and Sustainable Energy Reviews, 2016, núm. 53, pp. 23–49. doi: 10.1016/j.rser.2015.08.020 27. MIRRAHIMI, S. et al. “The effect of building envelope on the thermal comfort and energy saving for high-rise buildings in hot–humid climate”. Renewable and Sustainable Energy Reviews, 2016, núm. 53, pp. 1508-1519. doi: 10.1016/j.rser.2015.09.055 28. DE LA PAZ PÉREZ, G; DE LA PAZ VENTO, G. “Impacto energético-ambiental por climatización de un edificio de oficinas en condiciones tropicales”. En actas del Quinto Congreso Internacional MECDES 2018. 19 Convención Científica de Ingeniería y Arquitectura. La Habana: Editorial MES, 2018. ISBN: 978--959-261-585-4 29. Cuba, Oficina Nacional de Normalización. NC 219: Urbanismo — código de buena práctica para el diseño ambiental de los espacios urbanos [en línea]. Ciudad de La Habana, Cuba: CTN 40, 2002. Disponible en Web: www.nc.cubaindustria.cu 30. DÍAZ QUINTERO, G; DE LA PEÑA GONZÁLEZ, A. M. Urbanismo y medioambiente. La Habana: Efe Consultores, 2009. ISBN: 978-959-261-331-7. p.82 31. GONZÁLEZ COURET, D. et al. “Outdoor thermal environment in Havana” [en línea]. En actas de la International Conference for Sustainable Design of the Built Environment 2018- The Crystal, London, 2018. Disponible en Web: http://newton-sdbe.uk 32. CURRELI, Alessandra. “El acceso solar a la escala del tejido urbano. El enfoque morfológico y el método de análisis comparativo aplicados al caso de Barcelona” [en línea]. Tesis de doctorado, Universitat Politècnica de Catalunya, Barcelona, 2016. Disponible en Web: http://www.tdx.cat/ 33. GARCIA-NEVADO, E. et al. “Characterization of solar access in mediterranean cities: oriented sky factor” [en línea]. En actas de la 31nd International Conference on Passive and Low Energy Architecture PLEA 2015. Disponible en Web: http://plea-arch.org/plea-proceedings/ 34. MASOUD, B. et al. “Effects of Urban Morphology on Shading for Pedestrians: Sky View Factor (SVF) as an Indicator of Solar Access” [en línea]. En actas de la 34th International Conference on Passive and Low Energy Architecture PLEA 2018, vol. III, pp. 1029-1030. Disponible en Web: http://web5.arch.cuhk.edu.hk 35. DE LA PAZ, Guillermo A. "Influencia del contexto cubano y la orientación en la protección solar de los vanos y en la demanda energética de los edificios en Cuba". Director: Dania González. Tesis de doctorado, Universidad Tecnológica de La Habana José Antonio Echeverría, Ciudad de La Habana, 2019. 36. DE LA PAZ, G; SANDIUMENGE, E. “Influencia de la geometría urbana en la demanda energética anual para enfriamiento. Estudio de caso Camagüey” [en línea]. Arcada. Revista de Conservación del Patrimonio Cultural, 2019, vol. 7 núm.2, pp. 62-71. Disponible en Web: https://revistas.reduc.edu.cu/index.php/arcada/article/view/3262 37. GONZÁLEZ COURET Dania. “Land Use Vs. Indoors Environment”. En actas de la 20th Conference on Passive and Low Energy Architecture PLEA, 2003. Sobre los autores Guillermo De la Paz Pérez: Arquitecto, Profesor Titular, Dpto. Arquitectura, Universidad de Camagüey (UC). Jefe de disciplina Diseño y Acondicionamiento Ambiental. Master en Ciencias en Conservación de Centros Históricos y Rehabilitación del Patrimonio Edificado. Doctor en Ciencias Técnicas. Miembro de la Junta Directiva Provincial de la ONG Cubasolar. Dania González Couret: Arquitecta, Doctora en Ciencias Técnicas y Doctora en Ciencias, Profesora Titular de la Facultad de Arquitectura y Profesor Emérito de la CUJAE. Presidenta del Comité Académico del Doctorado de Arquitectura; acreditado de Excelencia. Asesora de la Vicerrectoría de Investigación y Posgrado de la CUJAE. Miembro de la Junta Directiva Nacional de la ONG Cubasolar. Miembro Titular de la Academia de Ciencias de Cuba. LA EFICIENCIA LUMÍNICA AL INTERIOR DE UNA HABITACIÓN EN DOS ZONAS DE MEDELLÍN Miguel Ángel Posada Velandia1, Hanna Muñoz López2, Santiago Hernández López3, Miguel Vargas Ortiz4 Estudiantes de Arquitectura. Universidad Nacional de Colombia Medellín, Carrera 65 Nro. 59A – 110, Medellín Colombia e-mail: miposadav@unal.edu.co1, hamunozl@unal.edu.co2, shernandezlo@unal.edu.co3, mivargaso@unal.edu.co4 RESUMEN La condición geográfica de valle en la ciudad de Medellín es un factor que podría traer como consecuencia que la distribución lumínica varíe dependiendo del punto específico en donde se ubique una edificación. Esta investigación se concibe dada la falta de información en cuanto a cantidades y formas de iluminación en la ciudad, por esto se necesitó de la realización de un archivo de datos de radiación por cada sector debido a la falta de precisión de los archivos EPW, para esto se realizaron mediciones simultáneas en campo en dos zonas de la ciudad: Sector Estadio y Sector Villa Hermosa. Para evaluar la iluminación en ambos puntos. Aplicando simulaciones de iluminación en Grasshopper para Rhino, se buscó determinar la variación de intensidad de la luz en una habitación que cumple la doble función de estudio/trabajo y descanso, dependiendo de su ubicación en el valle. Seguidamente se interpretaron los datos por medio de la métrica UDI (Useful Daylight Illuminance), se encontró que si existe una diferencia en la iluminación ligada a la zona en la que se encuentra el punto de análisis demostrando la necesidad de tener archivos climáticos sectorizados los cuales permitan estudios de iluminación más precisos aplicados al sector específico a analizar. PALABRAS CLAVES: Iluminación, confort, orientación, valle, parámetros, ubicación. LIGHTING EFFICIENCY INSIDE A ROOM IN TWO AREAS OF MEDELLÍN Location and orientation as critical variables ABSTRACT The geographic condition of the valley in the city of Medellin is a factor that could result in a variation of the light distribution depending on the specific point where a building is located. This research was conceived given the lack of information regarding quantities and forms of illumination in the city, for this reason it was necessary to create a radiation data file for each sector due to the lack of precision of the EPW files, for this purpose simultaneous field measurements were made in two areas of the city: Stadium Sector and Villa Hermosa Sector. To evaluate the illumination in both points.By applying lighting simulations in Grasshopper for Rhino, we sought to determine the variation of light intensity in a room that fulfills the dual function of study/work and rest, depending on its location in the valley. The data was then interpreted by means of the UDI (Useful Daylight Illuminance) metric, and it was found that there is a difference in illumination linked to the area in which the point of analysis is located, demonstrating the need to have sectorized climate files that allow more accurate lighting studies applied to the specific sector to be analyzed. KEY WORDS: Lighting, typical housing, comfort, parameters, orientation. 1. INTRODUCCIÓN A partir del confinamiento generado por la pandemia del COVID-19, se presenta la necesidad de adaptar diferentes espacios domésticos a múltiples usos, con el fin de suplir las nuevas necesidades generadas por la aplicación de las metodologías remotas, principalmente en las actividades de trabajo y estudio, creando de esta manera la necesidad de poseer unas condiciones de confort lumínico para el desarrollo de diversas actividades en un mismo espacio. Además, dadas las características geográficas en las cuales se desarrolla el Valle de Aburrá, se presume que Medellín cuenta con diversas condiciones de iluminación dependiendo de su ubicación respecto al valle, en el cual, esta no actúa de manera uniforme en todo el territorio. Este trabajo se origina desde la intención de conocer con mayor detalle las condiciones específicas de iluminación que se presentan en la ciudad de Medellín para finalmente generar información específica y segmentada, a la cual se pueda acceder y tomar como referencia al momento de diseñar. Teniendo en cuenta lo anterior, y debido a la ausencia de información y datos de iluminación al interior de las viviendas en Medellín, se pretende evaluar por medio de métricas UDI (Useful Daylight Illuminance), a partir de la implementación de constantes y variables dependientes, la incidencia de la iluminación en dos zonas designadas en Medellín (sector estadio y sector Villa Hermosa), debido a su cercanía con las estaciones de medición con piranómetros del SIATA (Sistema de Alerta Temprana del valle de Aburrá) (Fig. 1). Se toman espacios de análisis que cuentan con el mismo uso, dimensiones y distribución de mobiliario, determinando las diferencias entre los sectores y la orientación que cuenta con mejor rendimiento y confort lumínico. Fig. 1. Ubicación de los piranómetros del SIATA. Sector Estadio (Torre SIATA) y Sector Villa Hermosa (I. E. Joaquín Vallejo) Esta investigación podría fijar parámetros y funcionar como guía base para las decisiones proyectuales respecto a la orientación y ubicación que puede tener un proyecto, apuntando a que se logre obtener un adecuado rendimiento lumínico en los diferentes espacios de la vivienda típica en Medellín. Objetivos Identificar las posibles variaciones en la intensidad de la iluminación que ingresa a una habitación, en dos ubicaciones del Valle de Aburrá. Preguntas ¿Existe una variación considerable en la intensidad lumínica en las diferentes zonas como para tenerlos en cuenta a la hora de definir la orientación de una fachada en un diseño? 2. METODOLOGÍA Se define un tipo de metodología mixta, debido a que se piensa en una recolección de datos tanto cualitativos como cuantitativos, buscando de esta manera una serie de atributos del espacio que puedan permitir una mayor eficiencia lumínica dentro del mismo, además de datos precisos de cantidad de luxes y radiación que actúan en un mismo espacio y puedan variar dependiendo de su orientación y ubicación. Se toman como base las dimensiones estándar del espacio a estudiar (Fig. 2). y una serie de variables dependientes e independientes (Fig. 3) tomando como referente el trabajo “Evaluación de la incursión del viento y la iluminación a través de los vanos en aulas de jardines infantiles en Medellín, Colombia”[1]; estas variables facilitan la construcción de un modelo virtual para realizar simulaciones sistemáticas de los espacios y su entorno. Se establecen como variables independientes aquellas que definen las características físicas y de uso en el espacio estudiado, mientras que las dependientes son las que pueden variar con la incidencia de la otra tipología de variables en el espacio de estudio. Fig. 2. Medidas de planta y fachada típica de habitación a analizar Fig. 3. Gráfico de variables Dependientes e Independientes Definiendo estas variables, se procede a realizar un algoritmo a partir de las extensiones Honey-Bee y Lady Bug del plug-in GrassHopper [2] para el programa de Rhinoceros, con el objetivo de realizar simulaciones de iluminación en el interior del espacio ya establecido. Para la realización de estas simulaciones es necesario utilizar los datos de radiación directa y difusa, los cuales se extraen desde un archivo climático EPW de toda la ciudad. Este archivo EPW posee una limitación debido a la genericidad de datos ya que se muestra una radiación uniforme en toda la ciudad, obviando las irregularidades tanto geográficas como climáticas que se crean, por lo cual se requiere realizar un archivo independiente ARM (Archivo de Radiación en Medellín) que contenga los datos de radiación sectorizados a escala barrial, para lograr una mayor precisión en los datos al momento de llevar a cabo las simulaciones. Para la generación de este archivo es necesario obtener los datos de radiación directa y radiación difusa, por lo cual en un primer momento se utiliza como punto de partida el sistema de medición local que consiste en 5 torres SIATA ubicadas en la zona metropolitana del Valle de Aburrá, en las que existen piranómetros que miden la radiación total (correspondiente a la suma de la radiación difusa y la radiación directa); Se utilizan los datos generados por dos de las tres torres que se ubican en la zona urbana, debido a una mayor distancia entre ellas, lo cual permite una obtención de datos con mayor variación. Se plantea la obtención de radiación difusa por medio de mediciones en campo, sin embargo, al no contar con las herramientas para una medición precisa de radiación difusa debido a su alto costo monetario, se hace uso de los sensores integrados a dos celulares Xiaomi Redmi Note 8 Pro para la recolección de datos en campo en luxes, por medio de la aplicación “Photometer PRO”, previamente calibrados con respecto a un luxómetro profesional de marca KIMO; se establece un factor de corrección (Fig. 4) a partir de una ecuación lineal (1) - (2) donde P son los datos obtenidos por los sensores de los celulares y Pc son los datos calibrados. 𝑃𝑐1 = 1.0877 ∗ 𝑃1 − 521.67 (1) 𝑃𝑐2 = 1.1082 ∗ 𝑃2 − 295.98 (2) Fig.4. Gráfico de correlación entre los datos obtenidos con el celular 1 y los datos obtenidos con el luxómetro profesional. Estas mediciones se realizan en la misma ubicación de las dos torres SIATA seleccionadas previamente, con el objetivo de generar una correspondencia de ubicación de los datos recolectados tanto en mediciones de campo como extraídos de los piranómetros locales. Se realizan las mediciones simultáneamente con el objetivo de obtener los datos de luz difusa en los dos sectores designados al mismo tiempo, desde el 27 de Mayo de 2022 al 31 de Mayo de 2022, en cuatro momentos a lo largo del día, en intervalos de tiempo de 3 horas: 8:00 am, 11:00 am, 2:00 pm y 5:00 pm, durante 10 minutos, midiendo cada 30 segundos y anotando los datos arrojados. Seguidamente se promedian los 10 minutos medidos en cada momento del día en uno solo, teniendo de esta manera 4 medidas de luz difusa de cada día (8:00 am, 11:00 am, 2:00 pm y 5:00 pm). Se utiliza un dispositivo elaborado manualmente para generar sombra sobre el sensor del celular con una una circunferencia de cartón industrial de 2 mm y un diámetro de 26,70mm, tapando la luz y obteniendo datos de iluminación difusa. Para la conversión de datos de iluminación (Lux) a datos de radiación (W/m2), se realiza otra medición en campo de la iluminación global, con los sensores de los celulares previamente calibrados, se hace una medición el día 27 de mayo desde las 10:00 am hasta las 10:55 am, cada minuto. Se procede a hacer una gráfica de correlación entre los datos de iluminación global Ig con los datos de radiación global Rg de la misma hora obtenidos por el SIATA, se toma en base del artículo [3] para el desarrollo del modelo, y se extrae de las gráficas (Fig. 5 y Fig.6) las ecuaciones de correlación (3) - (4) de cada sector respectivamente. Fig. 5 Gráfico de factor de corrección, Radiación global vs Iluminación global. Estación SIATA Villa Hermosa 𝑅𝑔 = 0.0079 ∗ 𝐼𝑔 − 1.2504 (3) Fig.6 Gráfico de factor de corrección, Radiación global vs Iluminación global. Estación SIATA Estadio 𝑅𝑔 = 0.008 ∗ 𝐼𝑔 − 7.8596 (4) Teniendo las ecuaciones de correlación de cada sector, se utilizan para hacer la conversión de iluminación difusa (Lux) a radiación difusa (W/m2). A partir de la información recolectada, se procede a hallar los valores de radiación directa por medio de una ecuación (5) donde Rad es la radiación total, Rdif la radiación difusa y Rdir la radiación directa. 𝑅𝑎𝑑 = 𝑅𝑑𝑖𝑓 + 𝑅𝑑𝑖𝑟 → 𝑅𝑑𝑖𝑟 = 𝑅𝑎𝑑 − 𝑅𝑑𝑖𝑓 (5) Estos datos simultáneos se organizan en una tabla para cada sector (Fig. 7) Fig 7. Datos de radiación total, difusa y directa, Sector Villa Hermosa y Estadio. Para la construcción del archivo numérico ARM con el que se va a trabajar, se consula la página “Climate.OneBuilding.Org” para el entendimiento del orden de los valores en un archivo EPW y su correspondencia, buscando la posición de la radiación directa y difusa [4] ,encontrando de esta manera que los valores buscados corresponden a las filas 14 y 15 del archivo EPW. Teniendo esto claro, en la simulación al usar la pastilla “Honeybee_Generate Climate Based Sky” la cual recibe como información el archivo epw, además de la fecha y la hora, generando un archivo del cielo de la hora que se ingresó. Ingresando al código de la pastilla la función getRadiationValues, se encarga de leer el archivo EPW y dependiendo de la fecha ingresada recorre hacia las filas 14 y 15 para guardar los valores de radiación directa en la variable dirRad y radiación difusa en la variable difRad (Fig. 8). Sabiendo esto se modificó las líneas 69 y 70 del código en esta pastilla, que son las encargadas de leer los valores de radiación de los archivos para que se lean las filas 6 y 7 del archivo EPW (Fig. 9), siendo estas filas las primeras en las que hay datos climáticos después de los parámetros temporales (Año, mes, día, hora, minuto). Todo esto con el fin de realizar un archivo con los datos de radiación a nivel barrial mucho más limpios, sin datos climáticos que no sean de interés. Fig.8 Código función getRadiationValues sin modificación de la pastilla “HoneyBee_Generate Climate Based Sky” Fig.9 Código función getRadiationValues con modificación de la pastilla “HoneyBee_Generate Climate Based Sky” En un archivo de excel para cada sector se llenan las primeras 5 columnas con los parámetros temporales (Año, mes, día, hora, minuto) para proceder a ubicar los datos de las tablas obtenidas (Fig. 7) en las dos siguientes columnas. Este archivo se guarda como archivo de texto donde los datos son separados por una coma (,) y la extensión de estos se le cambia por .epw para poder ser usados en la simulación. Para la evaluación de los resultados arrojados por las diversas simulaciones, se procede a interpretar y acotar dichos resultados, por medio de la aplicación de una métrica que nos permite entender el nivel de desempeño de los espacios estudiados en sus diversas orientaciones. Se usa la métrica UDI (Useful Daylight Illuminance) [5] la cual categoriza el rendimiento en 3 categorías según su eficiencia: UDI - s: la iluminancia es superior a los 100 lux e inferior a 300 luz. El nivel de iluminación natural es efectivo para realizar ciertas tareas, pero para actividades de mayor esfuerzo visual se requiere una fuente de iluminación artificial. UDI - a: la iluminancia es superior a los 300 lux e inferior a los 2000 lux. El nivel de iluminación natural es adecuado y suficiente, y no se requiere de una fuente de iluminación artificial. UDI - e: la iluminancia es superior a 2000 lux. El nivel de iluminación natural puede resultar excesivo, generando disconfort visual, deslumbramiento, sobrecalentamiento e inclusive dificultando el desarrollo de las tareas cotidianas. 3. RESULTADOS Según los datos arrojados por la aplicación de esta métrica, se procede a calcular el porcentaje que corresponde a cada categoría de rendimiento lumínico, con el fin de comparar los porcentajes en ambas ubicaciones y lograr identificar diferencias o similitudes. Fig. 10 Promedios UDI (%) en las diferentes fachadas - Sector Estadio Fig.11 Promedios UDI (%) en las diferentes fachadas - Sector Villa Hermosa Es posible identificar la distribución de porcentajes de la métrica UDI (Fig. 13 y Fig. 14), donde se nota que el desempeño UDI-a el cuál tiene un rango de 300 a 2000 luxes, es donde más tiempo permanece cada punto medido. Gráficamente se observa gran similitud en las mediciones obtenidas en ambos sectores de la ciudad, por lo cual, a partir de los porcentajes arrojados en cada una de las orientaciones de cada ubicación, se realiza un gráfico que representan los promedios UDI y los compara. A partir de esta comparación, es posible realizar una última gráfica (Fig. 15), obteniendo la diferencia en cada UDI, para lograr tener una mayor comprensión del porcentaje en el que varían los dos sectores. Fig. 12 Diferencias en los promedios de UDIs por cada fachada en los dos sectores 4. CONCLUSIONES Partiendo de los resultados obtenidos en las simulaciones que se basan en las diferentes combinaciones entre las variables establecidas (zona, orientación), es posible concluir que: La diferencia de intensidad de iluminación en cada espacio oscila entre un 1.5% y un 12%, con una diferencia de 12% significativa para el confort lumínico de un espacio. (Esto no se aplica a comparaciones simultáneas, aunque las tendencias por sector ganarán relevancia conforme esta metodología se aplique con datos de periodos más largos). Se identifica el menor porcentaje de diferencias en las mediciones de más de 2000 luxes en todas las orientaciones, esto supone que en general estos dos espacios no llegan a un asoleamiento e iluminación excesiva. Según la tabla de niveles de iluminancia recomendados dependiendo de la tarea realizada, la cual indica que la cantidad de lux acorde a una actividad de trabajo/estudio es de 500 a 1000 lux, y partiendo además de los datos arrojados por las simulaciones, es posible definir que la orientación norte favorece en mayor medida a la intensidad lumínica requerida para trabajo/estudio en ambas localizaciones, mientras que la fachada sur posee una intensidad lumínica encima de lo deseado por la mayor cantidad de tiempo en el día. Teniendo en cuenta que el tiempo de investigación se basó en un semestre académico, la información recolectada obedece a un periodo de tiempo reducido, en donde los datos obtenidos sirven como un punto de partida para la realización de una base de datos mucho más completa, que permita mejorar la metodología usada, con el fin de obtener resultados más precisos que nos den pie a generar soluciones más acertadas a la realidad. A día de hoy gran parte de la población tiene acceso a un teléfono inteligente, dichos dispositivos cuentan con un sensor integrado, el cual puede ser usado por aplicaciones externas (luxómetros) para medir la cantidad de iluminación en un espacio. La facilidad de obtención de estas herramientas hace posible que la toma de datos sea de fácil acceso a la población interesada, cabe recalcar que los sensores integrados en los teléfonos móviles no están diseñados específicamente para esta actividad, por lo cual los datos obtenidos deben de ser tomados con discreción entendiendo su posible margen de error, o en su defecto corregidos por medio de factores de correlación ligados a mediciones de luxómetros diseñados para esta actividad. Tomando los valores de los resultados se logra evidenciar un cambio en la iluminación de los dos espacios simultáneamente. Esta conclusión no hubiera sido posible con el uso de un archivo EPW, en donde los datos consignados allí no logran describir de manera acertada la iluminación de las diferentes zonas de la ciudad, la compilación se da de manera generalizada en la totalidad del territorio, imposibilitando llegar a datos específicos que permitan obtener información valiosa. Al contar con dos o más archivos de radiación por ciudad, se abre la posibilidad de generar un análisis más específico respecto al comportamiento lumínico dentro del lugar de estudio. RECONOCIMIENTOS Los autores desean agradecer a Jorge Hernán Salazar Trujilo, Lucas Arango Diaz y a Elizabeth Parra Correa por su colaboración para el correcto desarrollo de este trabajo, aportando desde su conocimiento con el fin de orientar la investigación para llegar a los resultados obtenidos. REFERENCIAS 1. GARCIA, Ader. Evaluación de la incursión del viento y la iluminación a través de los vanos en aulas de jardines infantiles en Medellín, Colombia. Sistema de Información Científica Redalyc. [ref de 3 de mayo 2022]. Disponible en Web: https://www.redalyc.org/journal/3768/376846860004/. 2. ROUDSARI, Mostapha. Ladybug: a parametric environmental plugin for grasshopper to help designers create an environmentally-conscious design, In: Proceedings of the 13th International IBPSA Conference Held in Lyon, France. 2013. Disponible en Web: http://www.ibpsa.org/proceedings/BS2013/p_2499.pdf 3. DERVISHI, Sokol; MAHDAVI, Ardeshir, A simple model for the derivation of illuminance values from global solar radiation data, Department of Building Physics and Building Ecology, Vienna University of Technology, Austria, Department of Architecture, Epoka University, Albania. 2013. 4.Climate.OneBuilding.Org. EnergyPlus Weather File (EPW) Data Dictionary [ref de 12 de julio 2022]. Disponible en Web: https://climate.onebuilding.org/papers/default.html 5. MARDALJEVIC, J.; HESCHONG, L.; LEE, E. Daylight metrics and energy savings, Institute of Energy and Sustainable Development, De Montfort University, The Gateway, Leicester LE1 9BH, UK. [ref de 3 de mayo 2022]. Disponible en Web: http://www.osti.gov/scitech/servlets/purl/1016578 Sobre los autores Miguel Ángel Posada Velandia, Estudiante de Arquitectura en la Universidad Nacional de Colombia, sede Medellín, desde el año 2018, actualmente cursa octavo semestre. Hanna Muñoz López, estudiante de Arquitectura en la Universidad Nacional de Colombia, sede Medellín, desde el año 2018, actualmente cursa octavo semestre. Santiago Hernández López, estudiante de Arquitectura en la Universidad Nacional de Colombia, sede Medellín, desde el año 2018, actualmente cursa octavo semestre. Miguel Vargas Ortiz, estudiante de Arquitectura en la Universidad Nacional de Colombia, sede Medellín, desde el año 2018, actualmente cursa octavo semestre. AUTOSUSTENTABILIDAD ENERGÉTICA EN VIVIENDAS URBANAS Julio C. Sosa1, Roberto S. Velázquez1 y Rubén Hernández Tovar2 1Instituto Politécnico Nacional CICATA-Qro. Cerro Blanco 141, Colinas del Cimatario, 76090 Querétaro, Qro. México, 2Instituto Politécnico Nacional UPIITA. Av Instituto Politécnico Nacional 2580, La Laguna Tico-man, G. A. Madero, 07340 Ciudad de México, México. 1e-mail: jcsosa@ipn.mx RESUMEN Desde el siglo pasado ha habido un incremento de la demanda energética en la industria y los hogares, por la tasa de crecimiento poblacional, provocando un nuevo estilo de desarrollo enfocado en la sostenibilidad. Este tipo de desarrollo representa grandes desafíos para las comunidades urbanas, como son: el equilibrio ambiental, escasez de agua, cambio climático, autosuficiencia alimentaria y energética. El desarrollo microelectrónico y tecnológico permite contribuir a la edificación o reconversión de casas sustentables. El objetivo de este trabajo es presentar información técnico-procedimental-económica para la reconversión a una vivienda autosuficiente y sostenible energéticamente. Se emplean estrategias de ahorro energético, domótica, eficiencia energética y electrificación con paneles fotovoltaicos, usando tecnología disponible en el mercado local. El sistema fotovoltaico instalado está conformado por cuatro paneles fotovoltaicos, cuatro microinversores, sensores de iluminación y movimiento, entre otros componentes domóticos. Se logró reducirla totalidad de las emisiones de gases de efecto invernadero, para el funcionamiento de la casa, es decir, de gasto mensual por el consumo de gas y energía eléctrica es de 0 pesos. Con el uso de sistemas para el ahorro energético, así como sustituyendo equipo y electrodomésticos más eficientes es posible lograr la autosustentabilidad energética en viviendas urbanas. PALABRAS CLAVES: Autosustentabilidad energética, domótica, paneles fotovoltaicos. ENERGY SUSTAINABILITY IN URBAN HOUSES ABSTRACT Since the last century there has been an increase in energy demand in industry and homes, this due to the population growth rate, which has caused a new style of development focused on sustainability. This sustainable development represents great challenges for urban communities, such as environmental balance, water scarcity, climate change, and food and energy self-sufficiency. Microelectronic and technological development makes it possible to contribute to the construction or reconversion of sustainable houses. The objective of this work is to present technical, procedural and economic information for the reconversion to a self-sufficient and energy-sustainable home. Strategies for energy saving, home automation, energy efficiency and electrification with photovoltaic panels are used, this, using technology available in the local market. The installed photovoltaic system is made up of four photovoltaic panels, four microinverters, lighting and movement sensors, among other home automation components. It has been possible to reduce all greenhouse gas emissions, necessary for the operation of the house, that is, the monthly expense for the consumption of gas and electricity is 0 pesos. With the use of energy saving systems, as well as substituting more efficient equipment and appliances, it is possible to achieve energy self-sustainability in urban homes. KEY WORDS: Energy sustainability, Domotics, Photovoltaic panels. 1. INTRODUCCIÓN La tasa de crecimiento poblacional ha generado una gran demanda de energía, tanto en la industria como en los hogares [1]. Lo que representa grandes desafíos para las comunidades urbanas entre las que destacan el equilibrio ambiental, escasez de agua, cambio climático y la desigualdad social. Algunos de estos desafíos no son nuevos, tal es el caso del medio ambiente, que desde la década de los 70’s es un asunto de importancia mundial. En 1987, la Organización de Naciones Unidas, se decide tomar acciones al conocer el informe Brundtland [2]. En dicho informe, se reconoció que la demanda energética crecía rápidamente y que era necesario el desarrollo sostenible, que significa el satisfacer las necesidades de la generación presente sin comprometer la capacidad de las generaciones futuras [3], garantizando así un equilibrio entre crecimiento económico, el cuidado del medo ambiente y el bienestar social. Posteriormente, en la Conferencia sobre el Clima de París, 196 países firman el primer acuerdo universal y jurídicamente vinculante sobre cambio climático (Acuerdo de París). La intención de dicho acuerdo es llevar a la descarbonización de la energía y reducir las emisiones de gases de efecto invernadero, durante la generación de energía. El objetivo es mantener el aumento de la temperatura global promedio por debajo de los 2° C por encima de los niveles pre-industriales, y después limitar el aumento a 1.5° C, para alcanzar la neutralidad climática en 2050. Lo cual significa reducir los gases de efecto invernadero, es decir, reducir la emisión de CO2 liberado a la atmósfera por la actividad humana [4]. Para cumplir, el Acuerdo de París, cada país realiza esfuerzos propios con el fin de lograr lo comprometido. México cuenta con organismos como la Comisión Nacional para el Uso Eficiente de la Energía (CONUEE), entre otras organizaciones gubernamentales. El objetivo de la CONUE es promover la eficiencia energética y fungir como un órgano técnico en materia de aprovechamiento sustentable de la energía [5]. A pesar de todas las acciones realizadas, según la encuesta de INEGI México, sólo el 0.25% de los hogares mexicanos utilizan la energía solar, de forma exclusiva o mixta (solar y de red pública) y sólo un 12% del país utiliza focos ahorradores LED. Además, para procesar los alimentos el 86% de la población usa gas (Natural o LP), un 11% usa carbón o leña y el resto usa otras fuentes de energía. También se indica que, el 75% de la población mexicana habita en zonas urbanas o conurbadas y son viviendas con un alto consumo de energía. En la última década se han desarrollado trabajos que hablan del consumo energético y económico de celdas fotovoltaicas en viviendas de estrato social de clase media [6]. Otros trabajos hablan de estrategias usadas por los gobiernos, para el ahorro y la eficiencia de energía eléctrica en hogares, desde el punto de vista de políticas energéticas [7]. Otras contribuciones abordan la creación o producción de viviendas sustentables, al usar agua de lluvia, entre otras estrategias [8], el aprovechamiento del sol para ahorrar en el gasto de la energía [9]. También, en México, existen reportajes o promociones de la conveniencia de instalar paneles solares, resaltando su rentabilidad económica y la pronta amortización de la erogación, pues van dirigidos a consumidores que su tarifa eléctrica es la Doméstica de Alto Consumo (DAC) [10]. Recientes trabajos hablan de hogares domóticos [11, 12] y casas inteligentes [13] enfocándose principalmente en el confort, seguridad y acceso a las comunicaciones. Pocos trabajos o ninguno hablan de manera integral de aspectos para el ahorro energético, la eficiencia energética y la autosuficiencia energética, para tener una vivienda sostenible energéticamente que no emita gases de efecto invernadero. El objetivo de este es generar una estrategia completa, es decir, toda la información técnico-procedimental-económica relevante para poder conformar una vivienda urbana sustentable energéticamente, utilizando tecnologías existentes en el mercado para contribuir a la reducción de la huella de carbono. En este trabajo se presenta información técnico-procedimental-económica para la reconversión de una vivienda típica a una autosuficiente y sostenible energéticamente. Se emplean cuatro estrategias para lograrlo: ahorro energético, domótica, eficiencia energética y electrificación con paneles fotovoltaicos, usando tecnología disponible en el mercado local. Así, el trabajo se divide en una introducción; trabajos relacionados, en donde se presenta la revisión de la literatura; desarrollo, en donde se muestran la propuesta del trabajo y su implementación; resultados obtenidos; conclusiones y trabajo a futuro, para finalmente presentar las referencias usadas en el trabajo. 2. TRABAJOS RELACIONADOS La domótica, se define como el conjunto de sistemas que automatizan las diferentes instalaciones de una casa o vivienda [14]. Gracias al internet de las cosas (IoT por Internet of Things) y la Inteligencia Artificial, la domótica ha evolucionado al concepto de casas inteligentes y muchas veces se usan como sinónimos, sobre todo en el ámbito comercial [15]. Independientemente del nombre que se dé, las características o ventajas que tienen, respecto a una casa convencional, se pueden dividir en cuatro aspectos: comodidad o confort, seguridad, accesibilidad-comunicaciones y eficiencia energética. La mayoría de los trabajos se enfocan a los primeros tres aspectos y muy pocos en el ahorro y la eficiencia energética. El ahorro se define como la reducción en el consumo de energía o usarla de mejor manera [16]. Se puede lograr a través de cambios de hábitos, implementación de sistemas domóticos o inteligentes o por el uso de tecnologías más eficientes o una combinación de estas. Por otro lado, la eficiencia energética se define como la capacidad de hacer un mismo trabajo con menor energía [17], pero está relacionada con el ahorro, pues al consumir menos energía se tiene un ahorro. Existen trabajos para la gestión y ahorro energético. En [11] se presenta un sistema domótico embebido para el control de la temperatura de una habitación. El sistema consiste de hardware y software para controlar de manera remota los parámetros de la temperatura de una habitación y así incrementar la eficiencia energética. Emplean una PC, con sistema operativo Ubuntu, un microcontrolador ATmega16 y circuitos para el monitoreo de temperatura, control de motores y comunicación. Que, mediante una tableta y por comunicación remota se puede gestionar la temperatura, modificar parámetros y encender o apagar la calefacción para ahorrar energía. En [12] se presenta un sistema de control domótico basado en un dispositivo móvil que permite abrir o cerrar persianas lo cual ayudan a controlar la temperatura de una habitación. En el trabajo se utiliza el Arduino UNO, con tarjetas adicionales LAN y XBee y otros componentes. En [18] se presenta un sistema para la gestión de energía de una casa inteligente empleando energía renovable distribuida denominándola arquitectura SHEMS (por Smart Home Energy Management Systems). El sistema emplea como componente principal la Raspberry PI 3B+, interruptores SonOff®, entre otros componentes para la comunicación, control y monitoreo. Sin embargo, se habla de un sistema fotovoltaico que requiere el almacenamiento de la energía (banco de baterías), lo cual lo cual resulta muy costos. Además de eso, se omite hablar de que energía usan para el calentamiento del agua o para la preparación de alimentos, lo que significa que se sigue empleando gas por consiguiente se siguen emitiendo gases de efecto invernadero. Otros trabajos abordan la temática de casas sustentables y la reducción de la huella ambiental, pero desde una perspectiva del aprovechamiento de recursos naturales. En [9] se desarrolla un modelo sistémico de aprovechamiento de recursos renovables que logre la sustentabilidad en agua y energía, en una vivienda típica del valle de México. Las conclusiones del trabajo indican que con el agua pluvial se puede lograr una autosuficiencia de 8 meses, por la zona geográfica; también un 80% de autosuficiencia referente a la energía calorífica, debido a que es necesario utilizar algún energético como el gas LP o Natural, para la preparación de alimentos. En [1] se aborda el tema sobre un sistema de alimentación sustentable inteligente para el uso eficiente de energía. En el trabajo se realiza una encuesta en las principales ciudades de Pakistán, para recopilar datos de los hogares comunes, y así proponer su sistema que haga una utilización eficiente de la energía. El sistema propuesto se conecta tanto a la red pública de energía y un banco de baterías, es decir trabaja en red y en isla, utilizando inversores y controladores de carga. En el trabajo no se habla de eficiencia energética ni cómo lograr la eliminación total de gases de efecto invernadero. Su análisis incluye el tipo de fuente de energía utilizado, en viviendas urbanas y rurales, su porcentaje de uso y su comparación con áreas de China. También hay trabajos que, abordan el uso de paneles fotovoltaicas (PV, por PhotoVoltaics), pero desde una perspectiva de ahorro económico. En [6] se presenta un estudio orientado hacia la clase media-alta de Cd. Victoria, Tamaulipas, México. Se hace un diagnostico en el plano energético-económico, la reclasificación de las tarifas de consumo energético, por parte de la Comisión Federal de Electricidad (CFE), la medición del rendimiento de los paneles PV y el desglosamiento del fenómeno de ahorro energético por ciclos de tiempo. El estudio concluye diciendo que las viviendas que les instalaron un sistema de paneles PV tienen un gasto mayor, después de haberse instalado. Se argumenta que su consumo energético desmedido fue por sentirse sobrados de energía y que adquirieron más equipos de aire acondicionado o sistemas de climatización. Además de eso, que los clientes nuevos ahorran poco y consecuentemente, el retorno de inversión es a largo plazo. Así, la información presentada muestra una clara tendencia al ahorro en los primeros meses y posteriormente se registra un consumo mayor. 3. DESARROLLO El desarrollo del trabajo, se realizó en 4 etapas: 1. Análisis y requerimientos del sistema, es decir, revisar la factibilidad, ubicación geográfica de la vivienda, áreas de instalación, consumo histórico, presupuesto y alcances de tiempos. 2. Seleccionar la tecnología de equipos y sistema PV. 3. Proponer una estrategia para el ahorro de energía y de eficiencia energética. 4. Realizar las adecuaciones necesarias, en caso de ser necesarias, para instalar e implantarla los sistemas necesarios. ETAPA 1: Análisis de requerimientos Este paso es el más importante y crucial, ya que si no se hace correctamente los sistemas a instalar podrían estar comprometido. Por ejemplo, si la vivienda urbana recibe sombra todo el día, por estar en medio de edificios, no funcionarían de manera eficiente los paneles PV o el calentador solar. Otro aspecto es lo económico, de no contar con los recursos suficientes se puede iniciar la reconversión con los que nos proporcione más ahorros. Entonces, es necesario hacer: 1. Análisis de áreas disponibles para el sistema fotovoltaico y el calentador solar. 2. Análisis de espacio para el sistema domótico y eficiencia energética. 3. Revisión de infraestructura para la instalación. 4. Análisis del presupuesto y consumo Del análisis y revisión hecha a la vivienda podemos destacar: Está ubicada en la ciudad de Querétaro, Qro. México. Tiene acceso a la azotea y dispone de áreas sin sombras para la instalación del calentador solar, a un costado del tinaco, pero no para la instalación de paneles, aunque hay una azotea ajardinada (roof garden). La vivienda cuenta con 3 habitaciones, estudio, cuarto de TV, cuarto de servicio, cuarto de almacenaje, cochera, sala, cocina y comedor. Es posible aplicar domótica a varios cuartos o áreas de la casa, con el fin de ahorrar energía. La vivienda es habitada por 4 personas, los cuales usan computadora simultáneamente, dos trabajando vía remota y dos estudiando, debido a la pandemia. Cuenta con un calentador de agua, una estufa y un horno, todos ellos de gas LP. Para convertir la vivienda a la autosuficiencia energética y sea sostenible, es decir, que no emita gases de efecto invernadero para su funcionamiento, entonces es necesario utilizar sólo energía limpia. En este caso se plantea usar sólo energía solar, la cual se puede usar para calentar agua o genera electricidad. De esta manera, todo aquel equipo o electrodoméstico que funcione con gas deberá ser sustituido por uno eléctrico. Así, el calentador de gas, fue sustituido por un calentador solar, la estufa y horno de gas por uno que funcione con energía eléctrica. Además de eso, se deben sustituir los aparatos y equipos electrodomésticos por unos más eficientes o al adquirir nuevos sean más eficientes que los anteriores. Para la instalación del calentador solar, sólo es necesario su conexión a la tubería de agua caliente, los gastos son mínimos. Para la instalación de los paneles solares se puede hacer en la azotea ajardinada, dado que la losa es de vigueta y bovedilla, es necesario fijar los paneles solares cuidando de no fracturar la losa, también es posible levantar una estructura con Perfil Tubular Rectangular (PTR) para instalar los paneles. El centro de carga era para una acometida a 110 V y contaba con 4 interruptores electromagnéticos, para la instalación de los paneles PV es necesaria una acometida de 220 V, además de un cableado hasta el lugar de la instalación de los paneles solares. Las luminarias, todas ellas, eran de lámparas ahorradoras fluorescentes. Para domotizar la vivienda, es necesario hacer adecuaciones para la instalación de sensores y actuadores, con gastos menores. El consumo mensual de gas es de 35 lts, aumentando en temporada decembrina y de 140 kWh de luz mensual, subiendo ocasionalmente hasta 150 kWh. ETAPA 2. SELECCIÓN DE TECNOLOGIA La selección de la tecnología se realizó en función de los costos iniciales y eficiencia de los equipos, proponiendo lo siguiente: Calentador de agua Se seleccionó un calentador solar de agua de 12 tubos, con colector de 150 litros y de baja presión. En 2019, era el más económico del mercado. Iluminación Se seleccionaron focos LED de 9 W, 800 lúmenes, con opción a considerar los de 6 W. Domótica para el ahorro de energía Se seleccionaron dos sistemas de sensado de luz y movimiento, uno de pared (PIR 180º) y uno de techo (PIR 360º). Permiten el encendido y apagado automático de lámparas en el acceso principal-cochera y del cuarto de servicio, pues se dejaban encendidas las luces por la noche, por olvido o por ser necesario. Equipos de gas a eléctricos Se seleccionó una placa eléctrica de inducción, pues consume hasta un 20% menos de electricidad que la vitrocerámica, además disipa menos calor. Si bien, el costo anual de electricidad es mayor que el del gas debido a eliminar totalmente los gases de efecto invernadero es necesario considerar esta opción [19]. Es importante considerar que en esa comparación no existe un subsidio por parte del gobierno, es decir se hacen con tarifas fijas. El horno eléctrico, al igual que la placa de inducción, su gasto anual por electricidad es mayor que un horno de gas. Su sustitución es fundamental para lograr que la vivienda no genere gases de efecto invernadero. La única ventaja es la seguridad, al no funcionar con un elemento explosivo o peligroso por inhalación. Selección del sistema fotovoltaico (PV) Para la selección es necesario investigar que paneles, inversores o microinversores, se comercializan en la región y dimensionar el sistema PV, es decir, calcular el número de paneles requeridos. Se parte del consumo energético del recibo de luz, que es de 160 kWh. Solar App [20], es una plataforma que nos ayuda a dimensionar el sistema fotovoltaico, indicando el ángulo de inclinación de los paneles para una radiación solar efectiva, es decir, indica la cantidad de energía que proporcionará el sol en el área donde se realice la instalación. En México existe una gran cantidad de marcas de paneles fotovoltaicos. El seleccionado fue el Canadian Solar, policristalino, de 60 celdas, con una potencia de 260 W, de 1638 × 982 × 40 mm de dimensión. Se prefirió por ser más económico al monocristalino, que es más eficiente, o a otros paneles de mayor potencia, en la fecha de compra (2020). El cálculo, de la producción diaria de energía eléctrica, se obtiene multiplicando el número de horas de irradiación solar promedio, con el ángulo de inclinación propuesto, por la potencia del panel. Para reducir costos, se propone una instalación horizontal (inclinación de 0º), por lo que se considera una irradiación solar promedio de 5 h, teniendo (1). Producción diaria = 5 h × 260 W=1.3 kWh (1) Al mes, de 30 días, se tendría una producción de 39 kWh, por panel. Entonces, para un consumo mensual de 160 kWh, se requieren 4.1 paneles, de 260 W y ocuparía un área de 6552 × 982 mm. La selección de un microinversor, sobre un inversor central, fue por varias razones: 1. La conexión es en paralelo, lo que permite incrementar de manera gradual el sistema. 2. Al trabajar en paralelo, si un panel o inversor falla no afecta la producción global. 3. Se requiere un inversor por panel, resultando más baja la inversión inicial. 4. Los microinversores están diseñados para trabajar bajo la intemperie. 5. Es posible incorporar paneles de diferentes potencias o características. Dentro de los microinversores existen de distintas marcas, como los de Enphase® y los ApSystems®. Se prefirió el Enphase IQ6+ [21], que era el más económico del mercado en ese momento. Es importante mencionar que no se instalaron todos los paneles simultáneamente y el último panel instalado fue un IUSA® de 310 W, 60 celdas, monocristalino, de 1658 × 992 × 58 mm de dimensiones. En el momento de la compra, el precio del panel monocristalino era de $2,828.00 pesos mexicanos (MXN), casi igual al costo del panel policristalino que era de $2,635.00 MXN, por ello su compra. Además, se adquirió un microinversor Enphase IQ7+, modelo que sustituye al IQ6+. ETAPA 3. ESTRATEGIA DE IMPLANTACIÓN Si se cuenta con el presupuesto necesario, para la reconversión total de la casa, no es necesario proponer una estrategia de sustitución. En este caso, al no contar con los recursos necesarios, se plantea una estrategia gradual con el fin de optimizar el recurso económico y que la reducción de gastos se utilice para adquirir nuevo equipo. Esto, buscando un ahorro del consumo, la eficiencia energética de los equipos o electrodomésticos, que no genere gases de efecto invernadero, para su funcionamiento, que se genere energía limpia y las tarifas eléctricas de la Comisión Federal de Electricidad (CFE), para seleccionar el momento adecuado de la instalación los paneles PV. El Estado Mexicano aplica un subsidio gubernamental a los precios de la energía eléctrica por kilowatt- hora (kWh) consumida, los cuales varían conforme la temporada de verano y el rango de consumo. Existen 7 tarifas de la 1, 1A, hasta la 1F y la tarifa doméstica de alto consumo (DAC) [22]. En la Tabla 1, en forma de comparativa, se presentan las tarifas aplicadas para el mes de junio de 2022 para la ciudad de Querétaro, Querétaro, que tiene Tarifa 1, y ciudad Victoria, Tamaulipas, que tiene la tarifa 1C. Tabla 1: Tarifas y rangos de consumos, en el mes de junio de 2022. Tipo de Consumo Cd. de Querétaro, Querétaro Cd. de Victoria, Tamaulipas 1C Tarifa* Rango Tarifa* Rango Básico 0.907 Primeros 75 kWh 0.811 Primeros 150 kWh Intermedio bajo -------- 0.938 Siguientes 150 kWh Intermedio 1.104 Siguientes 65 kWh -------- Intermedio alto -------- 1.212 Siguientes 150 kWh Excedente 3.229 Cada kWh adicionales a los anteriores. 3.229 Cada kWh adicionales a los anteriores. *Tarifas en pesos mexicanos. De esta manera, por los costos tarifarios se propone seguir los siguientes pasos: 1. Sustituir el calentador solar, pues es el que mayor gasto representa. 2. Sustituir las lámparas fluorescentes por focos LED. Estos, pueden ser sustituidos conforme se vayan dañando. 3. Instalación de la domótica necesaria, para el ahorro de energía. 4. Según el consumo energético se considera instalar la placa de inducción o parte del sistema PV. Si el consumo está por la parte superior del rango intermedio o intermedio alto, según sea el caso, entonces se recomienda hacer esa inversión en parte del sistema PV. Es decir, con ese dinero comprar uno panel con su respectivo inversor y la estructura de montaje. En este caso se instaló la placa de inducción y después dos paneles del sistema PV. Pueden existir combinaciones, como comprar una placa de inducción de dos quemadores y mantener la de gas y hacer la transición gradual. 5. Antes de instalar el sistema fotovoltaico es necesario instalar la estructura que va a soportar a todos los paneles. 6. Sustitución de los equipos que funcionan a gas, como la estufa, en caso de que no haya sido reemplazada y del horno. 7. Sustitución de equipos y electrodomésticos por otros más eficientes. Como la lavadora, refrigerador, horno de microondas, etc. Para decidir que electrodoméstico cambiar primero se debe conocer que aparato eléctrico consume más. En [23] se presenta el consumo medio anual de los principales aparatos eléctricos en los hogares. PASO 4. ADECUACIONES NECESARIAS Debido a que la casa ya estaba construida, es necesario realizar adecuaciones para incorporar nuevos equipos y para la instalación del sistema fotovoltaico (PV). Para la instalación del calentador solar, al existir tubería de cobre, fue necesario cortar el tubo para sacar una derivación hacia el calentador solar. Posteriormente, conectar la salida del calentador solar hacia la tubería de agua caliente. Como el sistema PV requiere una acometida de 220V, y el que se tenía era de 110 V (una fase), entonces fue necesario cambiar el tipo de contrato con la compañía de luz (CFE). Como la acometida a 220 V, son dos fases, fue necesario introducir un nuevo cable desde el interruptor principal hacia el centro de carga. Después, se hizo la sustitución del centro de carga, que era para una instalación monofásica y sólo aceptaba 6 circuitos, es decir, para 6 interruptores electromagnéticos de 110 V. El centro de carga fue sustituido por uno bifásico, de 12 circuitos y recibe interruptores de 220 V. Otra adecuación fue el tendido de tres cables 8 AWG, del centro de carga hacia el sistema fotovoltaico. El calibre del cable lo determina por la corriente del sistema fotovoltaico y la distancia hacia el centro de carga. Para la instalación de los sistemas domóticos, fueron necesarias adecuaciones muy básicas. Pero estas, dependen de la ubicación de los sensores o de las lámparas o por donde pasa el cableado a los interruptores. En la Fig. 1, se muestran las adecuaciones para la conexión de los sensores, el conectado en el techo Fig. 1a) y el conectado en la pared Fig. 1b). a) b) Figura 1: Instalación de los sensores a) PIR 360º, b) PIR 180º. Para la instalación de la estructura que soporta a los paneles solares, fue necesario colocar 8 tabicones para sujetarla y no perjudicar la losa, debido a que es una losa de vigueta y bovedilla, que de hacerlo directamente en la losa se podría fracturar y provocar goteras. Esa fue otra razón para hacer la instalación de los paneles de forma horizontal. 4. RESULTADOS Y CONCLUSIONES Una casa convencional fue reconvertida logrando tener una autosuficiencia energética y no genera ningún gas de efecto invernadero para el funcionamiento de la casa, es decir, es sostenible. Los resultados en cada paso implementado se pueden resumir en la Tabla 2. Al iniciar el proceso, de reconversión, la casa tenía un consumo de 35 lts de gas LP y un consumo de energía eléctrica de 130 kWh. Tabla 1: Tarifas y rangos de consumos, en el mes de junio de 2022. Pasos Consumo × mes Descripción: Gas (Lts) Electricidad (kWh) 1 35 130 Inicio 2 18 130 Instalación del calentador solar. 3 0 160* Cambio a focos LED, instalación de placa de inducción y horno eléctrico + una TV. 4 0 55 Consumo con 3 paneles instalados 5 0 0 Consumo con 4 paneles instalados *El consumo durante la pandemia llego hasta los 200 kWh. El calentador solar costó $4,900.00 MNX ($245.00 USD) y su instalación, incluyendo el material, costó $900.00 MXN ($45.00 USD). Los componentes del sistema PV fueron: 4 paneles fotovoltaicos tres policristalinos de 260 W y uno monocristalino de 310 W; tres microinversores Enphase IQ6+ y uno IQ7+; componentes y la estructura de soporte de los paneles y microinversores. El costo total del sistema fotovoltaicos fue de $30,500.00 MXN ($1500 USD), sin instalación. El costo de la placa de inducción fue de $8,000.00 MXN (400 USD) y del horno $9,600.00 MXN (460.00 USD). El sistema domótico costó $360.00 MXN (18.00 USD), es decir $180.00 MXN de cada sensor. De esta manera, se tiene que, el gasto total erogado por la reconversión fue de aproximadamente $60,000.00 MXN ($3000.00 USD), el cual fue hecho de manera gradual. Actualmente, con el sistema instalado, mostrado en la Fig. 2, el gasto por la energía necesaria para el funcionamiento de la casa es de 0 pesos. Figura 2: Sistema fotovoltaico instalado, con 3 paneles policristalinos y uno monocristalino. Si se deseaba reducir sólo el gasto económico en energía eléctrica, con 2 paneles y 2 microinversores se reduciría en más del 60%. Debido a que la vivienda caería dentro de los rangos de tarifas subsidiadas por el Estado (CFE), con costos que irían de $0.90 a $1.10 MXN por kWh consumido, si la vivienda estuviera en la cd. de Querétaro y de $0.81 a $1.21 MXN, si la vivienda estuviera en Cd. Victoria, Tamaulipas. Entonces, la implantación de paneles solares en viviendas urbanas es factible y redituable, por costo beneficio y contribuye a la reducción de la huella de carbón, al eliminar completamente la combustión de gas y empleando un sistema de generación de energía limpia. Existen áreas de oportunidad para el ahorro de energía y la eficiencia de los paneles solares, empleando sistemas domóticos. Una de ellas, es que la gran mayoría de los aparatos que se dejan enchufados, en la sala de TV o en el estudio, están en modo de espera o “Stand by” y a pesar de que el aparato no esté funcionando estos consumen electricidad. Para esto, se puede instalar un sistema para el encendido y apagado general, mediante una aplicación móvil y comunicación WiFi. Otro caso es la incorporación de un sistema domótico que, automáticamente incline el ángulo óptimo del panel solar para obtener la radiación óptica, durante todo el año. RECONOCIMIENTOS Parte de este proyecto ha sido financiado por la Secretaria de Investigación y Posgrado del IPN, bajo el proyecto SIP:20210655. REFERENCIAS 1. ANAM, Fatima; SHOAB, A. Khan. Smart sustainable power system for efficient energy utilization. IEEE Conference on Smart Solutions for Future Cities. (2016) DOI: 10.1109/SSFC.2016.7447876. 2. ONU. Informe Brundtland. [en línea]. [ref. de 18 de agosto 2022]. Disponible en: http://www.ecominga.uqam.ca/PDF/BIBLIOGRAPHIE/GUIDE_LECTURE_1/CMMAD-Informe- Comision-Brundtland-sobre-Medio-Ambiente-Desarrollo.pdf. 3. RAMÍREZ, Alfredo; SÁNCHEZ, Juan M. Enfoques de desarrollo sostenible y urbanismo. Revista Digital Universitaria, 2009, Vol. 10, No.7. 4. Eoliccat. Acuerdo de París: poco a poco, hacia la descarbonización. [en línea] Disponible en: http://eoliccat.net/acuerdo-de-paris-poco-a-poco/?lang=es. [ref. de 19 de agosto 2022]. 5. CONUEE. Comisión Nacional para el Uso Eficiente de la Energía. [en línea] Disponible en: https://www.gob.mx/conuee/que-hacemos. [ref. de 19 de agosto 2022]. 6. RAMOS SÁNCHEZ, Jesús Ricardo; CHÁVEZ RIVERA, Rubén. "Consumo energético y económico de las celdas fotovoltaicas en viviendas de estrato social de clase media-alta de Victoria, Tamaulipas México". Revista CIMEXUS, 2019, Vol. XIV, núm. 1, pp. 12-31. DOI: https://doi.org/10.33110/cimexus140101. 7. GUZMAN, Mauricio. Lezama, José Luis (2014), Política energética y sustentabilidad. La estrategia mexicana de ahorro y eficiencia de energía eléctrica en los hogares y la experiencia internacional. Estudios demográficos urbanos [online]. 2016, vol.31, n.1 [citado 2022-08-19], pp.239-245. Disponible en:. ISSN 2448-6515 8. FIDEL, Carlos; ROMERO, Gustavo Producción de vivienda y desarrollo urbano sustentable. - Ciudad Autónoma de Buenos Aires: Ediciones del Centro Cultural de la Cooperación Floreal Gorini; Quilmes: Universidad Nacional de Quilmes; México, DF: Universidad Nacional Autónoma de México, 2017. 290 p. ISBN 978-987-3920-31-8. 9. FLORES-RUIZ, Omar. " Vivienda sustentable en agua y energía". Tesis para obtener el grado de Maestro en Ciencias en Energía de Sistemas, por el Instituto Politécnico Nacional, Ciudad de México, México 2017. Disponible en: https://tesis.ipn.mx/jspui/handle/123456789/22975. Fecha de consulta: consulta: 08 de enero de 2021. 10. TOVAR, A. (2019) ¿Conviene instalar paneles solares? El Financiero. Disponible en: https://www.elfinanciero.com.mx/opinion/alberto-tovar/conviene-instalar-paneles-solares. Fecha de consulta 19 de agosto de 2022. 11. DOBRESCU, L. "Domotic embedded system," Proceedings of the 2014 6th International Conference on Electronics, Computers and Artificial Intelligence (ECAI), pp. 55-58, (2014). DOI: 10.1109/ECAI.2014.7090180. 12. GUTIERREZ, S. et al. "Domotic control system for blinds with zigbee communication mobile device," 2018 International Conference on Research in Intelligent and Computing in Engineering (RICE), pp. 1-4, (2018). DOI: 10.1109/RICE.2018.8627899. 13. NATSHEH, A. et al. "Photovoltaic Smart Home System - Dubai Case Study," 2017 IEEE 44th Photovoltaic Specialist Conference (PVSC), pp. 2011-2013, (2017). DOI: 10.1109/PVSC.2017.8366542. 14. RAE. Real Academia Española. [en línea] [ref. de 18 de agosto 2022]. Disponible en Web: https://dle.rae.es/dom%C3%B3tico. 15. Solerpalau. Smart home: qué es una casa inteligente y cuáles son sus ventajas [en línea]. [ref. de 16 de agosto 2022]. Disponible en Web: https://www.solerpalau.com/es-es/blog/smart-home/. 16. CFE. ¿Qué es el ahorro de energía? [en línea]. [ref. de 16 de agosto 2022]. Disponible en Web: https://www.cfe.mx/paese/ahorroenergia/pages/default.aspx. 17. HERRING, Horace. "Energy efficiency—a critical view," Energy, Elsevier, 2006, vol. 31(1), pages 10-20. https://doi.org/10.1016/j.energy.2004.04.055. 18. GUTIÉRREZ-PEÑA, J. A. et al. "Smart Home Energy Management System and How to Make It Cost Af-fordable," 2020 IEEE 10th International Conference on Consumer Electronics (ICCE-Berlin), pp. 1-6, (2020), DOI: 10.1109/ICCE-Berlin50680.2020.9352162. 19. BANKINTER. ¿Cocina de gas, vitrocerámica o inducción? Analizamos su consumo [en línea]. [ref. de 16 de agosto 2022]. Disponible en Web: https://www.bankinter.com/blog/finanzas-personales/cocina- gas-vitroceramica-induccion-consumo. 20. CCEEA. Solar App. [en línea] [ref. de 16 de agosto 2022]. Disponible en Web: https://cceea.mx/solar. 21. Enphase. Data Sheet: Enphase IQ 6 and IQ 6+ Microinverters. [en línea]. [ref. de 16 de agosto 2022]. Disponible en: https://enphase.com/sites/default/files/downloads/support/IQ6-IQ6-plus_DS_EN-US.pdf. 22. CFE. Esquema tarifario vigente [en línea]. [ref. de 16 de agosto 2022]. Disponible en: https://app.cfe.mx/Aplicaciones/CCFE/Tarifas/TarifasCRECasa/Casa.aspx. 23. Tarifa Luz Hora. ¿Cuántos kWh consume una casa al mes? [en línea]. [ref. de 16 de agosto 2002]. Disponible en: https://tarifaluzhora.es/info/calcular-consumo-electrico-casa#cual-consumo-kwh-mensual- casa. Sobre los autores Julio Cesar Sosa Savedra recibió el grado de Ing. en Electrónica por el ITLAC, Mich. Méx. El grado de M. en C. en Ingeniería Eléctrica por el CINVESTAV-IPN, México y el grado de Dr. en Tecnología de la Información, Comunicaciones y Computación por la Universidad de Valencia, España. Fue profesor civil de la Universidad del Ejercito, México y del IPN-ESCOM. Actualmente, pertenece a la red de Expertos en Robótica del IPN, a la Red de Investigación de Energía del IPN y al Sistema Nacional de Investigadores, de México, Nivel I y es profesor titular en el departamento de Investigación e Innovación Científica y Tecnológica del IPN-CICATA-Qro. México. Sus áreas de interés son desarrollo de sistemas embebidos aplicados al ahorro de energía-sustentabilidad, procesamiento digital de señales e imágenes. Rubén Hernández Tovar. Ingeniero en Comunicaciones y Electrónica en la ESIME-IPN, Maestría en Ciencias de la Ingeniería Eléctrica, especialidad en Ingeniería Eléctrica, opción Comunicaciones en el Departamento de Ingeniería Eléctrica, Sección Comunicaciones de 1993 a 1995. FROM SIMULATION TO PRACTICAL GUIDELINE: THE USE AND ADVANTAGE OF HAM-SIMULATIONS FOR THE CONSERVATION OF HERITAGE BUILDINGS IN HAVANA, CUBA Kaat Janssens 1, Isabeau Vandemeulebroucke 2, Bruno Vanderschelden3, Valentina Marincioni4, Nathan Van Den Bossche5 12345 Building Physics Group, Faculty of Engineering and Architecture, Ghent University, UGent Campus UFO, Technicum T4, Sint-Pietersnieuwstraat 41, 9000, Gent, Belgium 2 University College London, The Bartlett Faculty of the Build Environment, 22 Gordon St, London WC1H OAY, United Kingdom 1e-mail: Kaat.Janssens@ugent.be ABSTRACT Cuba, and more specifically Havana, is known throughout the world for its rich architectural heritage. The 214 ha centre of Havana, consisting of primarily housing, is inscribed as UNESCO world heritage. Nevertheless, is Cuba suffering from a major housing crisis. 70% of the built environment requires major repairs and 7% of the housing context has been declared uninhabitable. In order to tackle the degradation problem, while simultaneously protecting the historical heritage, there is an urgent need for tools and practical guidelines. These should provide insight into the approach to conserving Havana’s heritage and the risks that could entail. The reasons for this deterioration and damage include different moisture-related problems due to the hot and humid climate of Cuba: mould growth, salt efflorescence and the rotting of wooden beam heads embedded in the masonry of the façade. Heat Air Moisture (HAM) models have been found a valuable tool to assess the risk on deterioration and premature failure of building components due to moisture-related problems. This paper demonstrates the process from hygrothermal simulation to practical guideline. The study focuses on the potential of the practical applicability of simulation output from Delphin 6, to produce practical schemes using classification trees. These results will improve decision- making for building practitioners and clarify which parameters have the biggest impact on the risks of deterioration, thus providing insights into the conservation of heritage buildings of Havana, Cuba. KEY WORDS: HAM-simulation, conservation of heritage, degradation, guidelines. 1. INTRODUCTION Cuba is known throughout the world for its rich architectural heritage with its colourful houses and picturesque streets. Their architectural environment is thus important, to the extent that the well-known city centre of Havana of over 214 hectares has been included in UNESCO's World Heritage List. Nevertheless, this unique site suffers from major degradation risks. The problems are so severe that they require major repairs on 70% of the built environment. A large percentage of this degradation is due to moisture-related problems such as mould, wood rot and salt efflorescence. Hygrothermal simulations are proven to be a valuable tool for assessing the risk of moisture-related damage and premature failure of building components. Although tools for Heat Air Moisture (HAM) modelling are commercially available, their application in practice remains limited. However, the results of these models can provide important insight into the feasibility of energy renovation projects and risk assessment of both the present and the future. A major reason why hygrothermal simulations are not widely applied in practice is due to the fact that they require post-processing to analyse the obtained data and the need for people with expertise. Therefore, the aim of this research is to investigate ways in which the insights of HAM modelling can be made available to the wider public/ construction industry in order to be beneficial to all parties. This can be done by presenting simple rules of thumb, listing certain conditions to prevent damage or by developing decision trees to allow consideration of the influence of a wider range of variables [1]. Degradation risks in masonry façades, and dwellings in general, are a widely discussed topic. Various studies have examined different deteriorations of masonry façades, e.g. mould [2], wood rot [3], salt crystallization [4], etc. Calle et al. [5] highlighted the potential of conducting sensitivity analyses to gain insights from hygrothermal simulations, whereas Marincioni et al. discussed whether a probabilistic risk assessment can assist decision- making for interior insulation [6]. The main objective of this research is to explore a methodology to translate theoretical insights on moisture-related damage into practice, in order to create a robust decision framework that can also incorporate the influence of climate change, which has been proven to have a major impact on the damage risks of masonry façades [7]. 2. METHODOLOGY Simulation set-up 27 648 simulations have been executed using Delphin 6.0 while varying 8 different parameters which are listed in Table 1. All the simulations are done for the location of Havana, more specifically Casa Blanca. The impact of different climate projections, orientations, albedo coefficients, wall assemblies, rain exposure coefficients and shortwave absorptions coefficient are investigated. Table 1: Parameter variations for the sensitivity analysis Parameter Variations Description Climate (projection) 4 H, A1B, A2, B1 Orientation 8 N, N-E, E, S-E, S, S-W, W, N-W Albedo 3 0.2, 0.5, 0.8 [-] Wall thickness 3 150, 300, 450 [mm] Wall Material 4 Brick clusters ZD and ZO, concrete, limestone Interior insulation thickness 2 0 mm (uninsulated case) and 100 mm Rain exposure coefficient 4 0.5, 1.0, 1.5, 2.0 [-] Shortwave absorption coefficient 3 0.2, 0.5, 0.8 [-] The climate data used here are subtracted from the METEONORM tool. The Intergovernmental Panel on Climate Change (IPCC) defined different climate scenarios where each storyline considers different future developments. The Special Report on Emissions Scenarios (SRES) [8] considers scenario A1B (balanced energy technology), A2 (heterogeneous world with increasing global population) and B1 (convergent world with declining global population after mid-century). These different projections were compared to the historic period (H). To compare: the historic period (H) has a mean temperature of 25.19°C, whereas scenario B1’s mean temperature equals 25.84°C, A1B’s 27.76°C and A2’s 28.19°C. EN ISO 6946 [9] is consulted to provide the exterior boundary conditions such as heat and water vapour transfer coefficients at the exterior surface. Martins et al. (2016) [10] stated that the impact of solar radiation is of highest importance in Cuba related to thermal behaviour. Furthermore, the shortwave absorption coefficient and the albedo coefficient have a significant influence according to previous energetic renovation research in Cuba [11]. Therefore we incorporated three variations for each parameter to examine the impact on the hygrothermal behaviour of building components. Rueda Guzmán (2003) [12] and de la Paz Pérez (2019) [13] stated that the critical orientation regarding overheating is the southeast. To elaborate further on the impact of orientation in terms of moisture-related damage, 8 different orientations are simulated. To incorporate runoff effects that lead to an increased moisture load due to low-absorptive materials above the wall of interest, we simulate a rain exposure coefficient (RE) of 0.5, 1, 1.5 and 2. As prescribed in EN 15026 [14], the indoor climate conditions are derived from the outdoor air temperature. The first 4 years of the climate data are used to condition the wall assembly in order to simulate realistic starting conditions. The uninsulated wall assembly consists of, from exterior to interior, a 5mm gypsum plaster, a load-bearing wall with a wall thickness of either 150mm, 300 mm or 450 mm and a 5mm gypsum plaster as interior finish. The insulated case replaced the gypsum plaster finish with 100mm insulation, represented by a thermal resistance factor of 2.5, a vapour barrier and a 12mm gypsum board as interior finish. Four different materials are simulated to represent the material of the load-bearing wall, namely concrete, limestone, brick cluster ZD and ZO. ZD represents a brick with a high absorption coefficient and ZO represents a brick with a rather low absorption coefficient. Degradation criteria The humid climate of Havana entails that mould growth at the interior side of a wall is a frequently occurring problem. The mould index (M) represents mould growth and is calculated using the VTT model [2]. This index quantifies the mould coverage on a certain surface, varying from 0 (when the spores are not yet activated) to 6 (corresponding with 100% mould coverage). A value of M=3 is a common threshold criterion, which equals a mould coverage between 10 and 30%. This value is chosen because everything above the value of M=3 results in a mould cover that is visually recognisable. However, the threshold value for the mould index in this research is M=1 for the fail-value. This value is described as ‘small amounts of mould on surface (microscope), initial stages of local growth’[2] and is taken as a non-desirable growth rate. Because this study focusses on risk assessment and these models are not 100% accurate, only mould index values below 1 will be considered to entail a negligible risk. It is possible for wood decay to occur when wooden beam heads are embedded in the wall which is common practice in historical dwellings. Therefore, the wood decay is measured at 100 mm from the inside of the load-bearing wall’s surface, which relates to the minimal structural support for beams in the masonry. Degradation by wood-decaying fungi take place under certain boundary conditions. The dose-response relationship of Brischke and Rapp [3] quantifies the wood decay by the amount of mass loss of the beam head, which may eventually lead to structural failure. Note that this study conducts 1D simulations, therefore the beam itself is not modelled, thus the impact of the beam itself regarding heat and moisture behaviour is not accounted for. If we want to make sure that the wooden beam meets its requirement to have a minimum service life of 30 years [15], it is important not to exceed a mean decay rating of 1 over this 30-year period, which corresponds with a critical dose value of 15 doses for outcomes reported as a 1- year value. A mean decay rating is categorized in EN 252 (1989) [16] in ‘no attack’(0), ‘slight attack’(1), ‘moderate attack’(2), ‘severe attack’(3) and ‘failure’(4). If the mean decay rating of 1 is exceeded over a 30-year period, we declare that the assembly fails our demands, thus receives a so-called ‘fail-value’ of 1. Salt damage can be parameterized using the number of crystallization-dissolution cycles, which can occur under precise heat and moisture conditions. Humid climates with high temperatures are at higher risk for potential salt damage [4]. These possible salt transitions are salt-dependent and can be related to climate types. Grossi et al. [4] stated that in humid climates salt transitions are primarily of the thenardite-mirabilite type. On the other hand, halite typically characterises non-hydrated salts. The number of phase transitions for a non-hydrated salt is assessed by counting the times when crystallisation occurs, this is whenever the daily relative humidity downward crosses the critical deliquescence point of 75,3% on consecutive days. For hydrated salts, it is measured by counting the number of times when thenardite would convert to mirabilite when a crystallization pressure greater than 10Mpa (which equals the tensile strength for most porous stones) is counted. Whenever the crystallization pressure exceeds the tensile strength of the material, damage may occur and a phase is counted. For stones this entails a 10MPa phase boundary at RHeq, this equation can be found below.[4] 𝑅𝐻𝑒𝑞 = 59.11 + 0.87549 𝑇 𝑤ℎ𝑒𝑛 𝑇 < 22.5°𝐶 (1) If the phase transitions would be counted from hourly data, the number of cycles would be distinctively higher. However, the use of daily average data can account for the buffering effect of stone during the moisture behaviour. Since there is not a method to convert the number of phase transitions into the amount of damage, this research only examines the number of cycles and will be used for a relative comparison. 3. RESULTS First, it is essential to understand which parameters have a significant impact on the performance criteria and whether they are positively or negatively correlated. By understanding to what extent a particular parameter influences the performance, some initial insights can be obtained. The Spearman rank correlation proves to be a suitable method to measure sensitivity for building physics simulations [17]. The results are shown in Figure 1. The higher the rho value is, the greater the impact of the parameter on the damage criterion under examination. The hypothesis that the variable has a significant impact on the damage phenomenon is confirmed if the p-value is lower than 5%, if the p-value is higher than 5%, the selected parameter marked with a red triangle in Fig.1. The shortwave absorption coefficient has a large impact on the number of crystallization dissolution cycles of salt, as do the rain exposure coefficient (RE) and the orientation. This is illustrated in the first row (green), more specifically for Halite (H) and thenardite-mirabilite (TM) at the outer surface (ex) and at 5mm depth (5mm). The wall thickness, orientation and rain exposure coefficient have a big impact on the amount of wood decay (WDrating), illustrated in yellow. It is noticeable that the impact of a parameter on a certain performance criterion does not necessarily remain the same for the fail-value of that same performance criterion. For example, the difference between the influence of the shortwave absorption coefficient (AC) for the mould index on the inner surface and the smoothed effect when looking at the failure value for this part of the structure. There, parameters such as RE, orientation and material of the load-bearing wall have a greater influence on whether the fail-value is exceeded. The explanation lies in the fact that the difference brought about by this parameter is not in a range between fail and no-fail. Figure 1: Standardized Spearman rank correlation coefficient (Rho). Parameters with a p-value greater than 0.05 are marked with a red triangle. Abbreviations: see page 9. In order to develop a predictive model on which practitioners can rely for decision-making, the data is split into a training and testing set. Therefore, the model is constructed using the training set and the different models are evaluated using the testing set, revealing which model performs best. A value of 1 is achieved when damage is expected and a value of 0 when no damage is expected. Common practice is to measure the performance of a trained model in terms of its accuracy (equation 2). However, this would lead to a situation where a false negative case (FN), where damage is predicted when it is not, is given the same weight as a false positive case, where damage is not predicted when in fact there is. Therefore, the models will be compared by their decay accuracy rate, introduced here as the K-rate (equation 4). This rate takes into account that false negative (FN) cases are not harmful because damage is predicted, but in fact there is none. The false positive (FP) cases should really be avoided, they can appear without being foreseen and can inflict considerable damage. Therefore, it is essential to eliminate these false positive (FP) cases from the model as much as possible. Another factor to compare is the specificity (equation 3). This rate shows what fraction of all negative cases are correctly predicted. Accuracy = TP+TN TP+TN+FP+FN Specificity = TN TN+FP K-rate = TP+FN+TN TP+TN+FP+FN (2) (3) (4) Figure 2: Confusion matrix which compares the predicted model built with the training dataset with true class, namely the testing set. With TP (true positive), FP (false positive), FN (false negative) and TN (true negative). 6 models are compared to decide which prediction model can best be applied to obtain the best results, i.e. to obtain the highest K-rate. The section underneath describes the comparison in relation to mould growth on the inner surface. As explained above, the data set is split into a training set and a test set. The training set is used to build the model and the test set is used to verify how robust and precise the prediction model is. The first method tested is a basic classification tree, a regression model with a general structure following a two-stage procedure. The obtained models can be represented as binary trees [18]. Further pruning of the obtained classification tree is carried out using the most appropriate complexity parameter, this is used to select and control the optimal size of a tree to achieve its highest accuracy. All other methods belong to the ensemble methods, whereby weak learners are combined sequentially or in parallel to obtain more accurate predictive models. The random forest and bagging models extract a majority vote from a large number of decision trees to reduce the prediction variance. The boosted decision trees subsequently add ensemble members to correct the prediction of the previously created models, whereupon a majority vote is generated based on these predictions [19]. Table 2 shows the accuracy (equation 2), specificity (equation 3) and K-rate (equation 4) for each prediction method. Overall, the Pruned Tree method performs best with respect to predicting mould at the interior surface. Although all methods perform well, except the random forest model with the ranger package that scores insufficient specificity, the method of a pruned classification tree is applied in the remainder of this study. It can be assumed that the ideal prediction method is highly data-dependent, for best practice always compare performance for different predictions Table 2: Comparing the performance of predictive methods for mould at the interior surface Method Accuracy Specificity K-rate Classification tree 0.9974 0.7500 0.9981 Pruned tree 0.9984 0.8833 0.9991 Bagging 0.9973 0.8276 0.9988 Ada Boosting 0.9975 0.8621 0.9990 Random Forest 0.9979 0.7931 0.9985 Random Forest (ranger package) 0.9953 0.3448 0.9953 Figure 3 and 4 illustrate the classification trees that indicate whether damage is expected or not, for wood decay and mould damage at the interior surface respectively. The last node shows the outcome of 0 (no damage) or 1 (damage) and the number below the outcome indicates the probability of getting this result if you arrive at this node. The higher a parameter appears in the decision tree, the more important the variable is. Through examining the classification tree, many insights can be derived about whether or not damage is likely to occur. For instance, if a wall has a south to north orientation, one can assume that no wood rot will occur in the embedded beam in that wall. However, if the wall is oriented between N-E and S-E, the next decisive factor would be the rain exposure coefficient. Whereas the orientation of your wall is fixed, an adjustment could be provided to ensure that the rain exposure coefficient remains below 1 in order to avoid the risk of wood decay. There is simply no use to change the RE from 2 to 1.5 if the wall is orientated east regarding wood decay. These decision trees succeed in providing many practical insights for building practitioners. In order to supply even more straightforward guidelines, a list of conditions is presented below to ensure that the probability of damage remains below 5% if one of the listed conditions is achieved for your wall assembly. To avoid wood decay (1 suffices) To avoid mould at the interior surface (1 suffices)  Wall orientation between south-west-north  Wall orientation from south-west-north  Rain exposure coefficient less than 1  Interior insulation thickness is at least 100 mm  Bearing wall consists of concrete and is thicker than 300 mm  Wall orientation from south-east to north and a RE<1.5  Bearing wall consists of limestone and is thicker than 150 mm  Wall orientation from south-east to north and a shortwave absorption coefficient > 0.5  Wall orientation from south-east to north and a historic or A1B projected climate  Material of the bearing wall is either concrete, limestone or a brick clustered as ZO  The shortwave absorption coefficient > 0.5 and RE < 1.5 Figure 3: Decision tree fail-value wood decay (WDfail). Abbreviations: see page 9. Figure 4: Decision tree mould damage at interior surface (M_wall_in_fail). Abbreviations: see page 9. Considering salt damage, there is no way to convert the amount of phase transitions of salt to the amount of damage through, for example, a dose-response model, we focus on the absolute change in the number of cycles for the climate projections compared to the historic climate data. Figure 5 illustrates clearly that the mean absolute change (in blue above the graph) is not very large. However, the cases are scattered over a wide range, especially for halite. To investigate this aspect, Figure 6 shows the decision tree for the absolute change in phase transitions for halite at the exterior surface. Note that the range of absolute change lies between a 25-cycle decrease and a 34-cycle increase; given this wide range, it is critical to understand which parameters are expected to entail the most significant increase. It is striking that the parameter 'climate' appears rather low in the tree and does not yield clear statements, since climate projection B1 gives both a positive and a negative absolute change. We can conclude that the cycles for halite are expected to decrease if the wall assembly complies with one of the following propositions:  The solar absorption coefficient is bigger than 0.8 and the bearing wall consists of concrete or limestone.  The solar absorption coefficient is smaller than 0.5 and the wall is oriented from north to east  The solar absorption coefficient is bigger than 0.5 and the bearing wall consists of concrete  The solar absorption coefficient is smaller than 0.2, the wall consists of a brick that can be clustered as ZO and the future climate can be represented by projection B1 Furthermore, walls already affected by salt crystallisation due to halite, containing a bearing wall out of materials such as concrete or limestone with a solar absorption coefficient lower than 0.2 and an orientation from south to north-west, will face severe difficulties if the future climate follows the B1 projection. In that case, the cycles are expected to increase by 13 to 34 cycles, which may cause an increase in salt damage. Figure 5: Change in phase transitions for different climate projections compared to the historic period. In blue above the graphs: the mean absolute change for this projection. Abbreviations: see page 9. Figure 6: Decision tree change in phase transitions for halite at the exterior surface (Salt_H_ex_diff). Abbreviations: see page 9. 4. DISCUSSION AND CONCLUSION The application of HAM simulations has not become widely adopted in practice yet, in part due to the complexity of the models, the uncertainties of the material properties and simplified approximations for damage criteria. Therefore, this article aims to explore the trajectory from simulation to practical guidance. Although, naturally, this process is not without its challenges. First, it should be noted that there is still considerable uncertainty about how to quantify damage for performance criteria such as mould, wood rot and salt. This research applies the available methods, but does not aim to improve the quantification of damage. Instead, this research applies the available methods to investigate ways to translate them into practice. Secondly, the simulations carried out are all 1D simulations. Evidently, This entails simplifications because the wall construction is abstracted into a homogeneous brick construction without mortar joints or embedded beams. This simplification has been done to reduce the computational time and the costs, which increases dramatically when 2D simulations are performed. Where now the different parameters are varied in a full factorial approach, future research will require an efficient sampling technique for continuous and categorical values. Decision trees are a useful tool to indicate which specific combinations of parameters entail a higher or lower risk for a certain damage criterion. These trees can be used as a flow-chart when all the variables have been quantified to understand the associated risks. In practice however, not all variables are quantified or some are surrounded by uncertainties, nevertheless the trees provide a high level of insight into the risks posed by a particular wall construction or retrofit. In addition, this information can inform building practitioners about exactly which parameters to address or which adjustments to introduce in order to prevent damage. This paper notes that performing a sensitivity analysis is essential to quickly understand the influence of certain parameters on a given performance criterion. Furthermore, testing different prediction methods is beneficial to determine which type of model would perform best in regards to the given data. For damage prediction, the models performance is best measured by quantifying the K-rate rather than the accuracy. For this data, a pruned classification tree came out as the most effective way to translate the simulation results into a useful decision-making tool. From these classification trees, we can derive a list of conditions where the wall assembly must comply with, in order to have only a 5% chance of damage. The trees can be built up more precisely if it is desired to reduce this fail-percentage, although this would imply that the conditions should also be stricter. In addition, for damage criteria whereby there is currently no method of quantifying the damage, it is nevertheless feasible to obtain comprehensive knowledge by carrying out a sensitivity analysis and by comparing the relative changes for a future climate regarding the historic climate in a decision tree. This allows for example to detect which wall constructions might be facing a significant increase in salt efflorescence due to climate change. We can state that the development of a methodology for translating the results of hygrothermal simulations to practice can be of great value. Consequently, theoretical insights will not only remain within the academic world, but will also achieve an impact and application in the building industry. ACKNOWLEDGMENTS This research was funded by the Research Foundation Flanders (FWO), grant number 1S71922N (Kaat Janssens) and 1S90420N (Isabeau Vandemeulebroucke). ABREVIATIONS Salt_H_ex Number of phase transitions for halite at the exterior surface Salt_H_5mm Number of phase transitions for halite at a depth of 5mm Salt_TM_ex Number of phase transitions for thenardite mirabilite at the exterior surface Salt_TM_5mm Number of phase transitions for thenardite mirabilite at a depth of 5mm M_wall_in Mould index at the interior surface M_mas_in Mould index at the interior surface of the load bearing wall M_beam Mould index at the place of an embedded beam M_wall_in_fail Fail-value of mould at the interior surface M_mas_in_fail Fail-value of mould at the interior surface of the load bearing wall M_beam_fail Fail-value of mould at the place of an embedded beam WDrating Wood decay rating WDfail Fail-value for wood decay AC02 Shortwave absorption coefficient equal to 0.2 AC05 Shortwave absorption coefficient equal to 0.5 AC08 Shortwave absorption coefficient equal to 0.8 AL02 Albedo coefficient equal to 0.2 AL05 Albedo coefficient equal to 0.5 AL08 Albedo coefficient equal to 0.8 RE05 Rain exposure coefficient equal to 0.5 RE10 Rain exposure coefficient equal to 1.0 RE15 Rain exposure coefficient equal to 1.5 RE20 Rain exposure coefficient equal to 2.0 H Historic climate A2 Climate projection A2 A1B Climate projection A1B B1 Climate projection B1 CO Concrete LS Limestone ZD Cluster ZD ZO Cluster ZO TP True positive FP False positive FN False negative TN True negative REFERENCES 1. Janssens K.; Vandemeulebroucke I.; Vanderschelden B. and Van Den Bossche N. Deriving Practical Guidelines Using Decision Trees: What Is the Impact of Climate Change on Hygrothermal Risks in Masonry Heritage Buildings in Brussels? CESBP22. 2022. 2. Hukka, A.; Viitanen, H. A mathematical model of mould growth on wooden material. Wood Sci Tech. 1999, 33, 475–485. 3. Brischke, C.; Rapp, A.O. Dose–response relationships between wood moisture content, wood temperature and fungal decay determined for 23 European field test sites. Wood Sci Tech. 2088, 42, 507. 4. Grossi, C.; Brimblecombe, P.; Menéndez, B.; Benavente, D.; Harris, I.; Déqué, M. Climatology of salt transitions and implications for stone weathering. Sci. Total Environ. 2011, 409, 2577–2585. 5. Calle, K.; Van Den Bossche, N. Sensitivity analysis of the hygrothermal behaviour of homogeneous masonry constructions: interior insulation, rainwater infiltration and hydrophobic treatment, JOURNAL OF BUILDING PHYSICS. 2021, 44.6, 510–538. 6. Marincioni, V.; Altamirano-Medina, H. Can probabilistic risk assessment support decision-making for the internal insulation of traditional solid brick walls? Energy Efficiency in Historic Buildings. 2018. 7. Vandemeulebroucke, I.; Caluwaerts, S.; Van Den Bossche, N. Factorial study on the impact of climate change on freeze-thaw damage, mould growth and wood decay in solid masonry walls in Brussels. BUILDINGS. 2021, 11.3. 8. Intergovernmental Panel on Climate Change. IPCC Special report: Emissions scenarios. Summary for policymakers. 2000. 9. CEN. EN ISO 6946. Building Components and Building Elements—Thermal Resistance and Thermal Transmittance—Calculation Methods. CEN: Brussels, Belgium, 2017. 10. Martins; Agra de Lemos, T.; Adolphe, L.; Eurico Gonçalves Bastos, L.; Agra de Lemos, M. Sensitivity Analysis of Urban Morphology Factors Regarding Solar Energy Potential of Buildings in a Brazilian Tropical Context. Solar Energy. 2016, 137,11-24. 11. Nathalí; Baldoquin. Bases de diseño para la renovación energética en viviendas con alojamiento para el turismo de ciudad. Caso de studio: edificaciones de una planta en el Vedado. PhD. 2021. 12. Guzmán, R.; Alberto, L. Influencia del diseño en la carga térmica y el consumo de energía en haitaciones de hoteles con “destino sol y playa”en Cuba». CUJAE. 2003. 13. Pérez, P.; Antonio, G. Influencia del contexto urbano y la orientación en la protección solar de los vanos y en la demanda energética de los edificios en Cuba. CUJAE. 2019. 14. CEN. EN 15026. Hygrothermal Performance of Building Components and Building Elements— Assessment of Moisture Transfer by Numerical Simulation. CEN: Brussels, Belgium, 2007. 15. Brischke, C.; Rapp, A.O. Service life prediction of wooden components-Part 1: Determination of dose-response functions for above ground decay Service life prediction of wooden components. IRG Annual Meeting, IRG/WP(10–20439). 2010, 1–14, Accessed: Jun. 17, 2020. 16. CEN NBN EN 252:2014: Field test method for determining the relative protective effectiveness of a wood preservative in ground contact. 2014. 17. Zhao, J.; Development of a novel statistical method and procedure for material characterization and a probabilistic approach to assessing the hygrothermal performance of building enclosure assemblies. Mechanical and Aerospace Engineering. 2012 18. Therneau, T.M.; Atkinson, E.J. An introduction to recursive partitioning using the RPART routines. Mayo foundation, 2022. 19. James, G.; Witten, D.; Hastie, T.; Tibshirani, R. An introduction to statistical learning: with applications in R. Corrected edition. New York: Springer. 2013. About the authors Prof. Nathan Van Den Bossche works together with PhD students Kaat Janssens, Isabeau Vandemeulebroucke and Bruno Vanderschelden in research that focuses on the hygrothermal performance of building envelopes at the building physics group at Ghent University in Belgium. Dr Valentina Marincioni is a Lecturer and research fellow in the building physics group at the University College London and her work focuses on moisture transfer within the building fabric. ASSESSING THE IMPACT OF CLIMATE CHANGE ON HISTORICAL BUILDINGS IN CUBA Isabeau Vandemeulebroucke 1,*, Kaat Janssens1, Bruno Vanderschelden1,2, Steven Caluwaerts 3,4, Nathan Van Den Bossche1 1 Building Physics Group, Faculty of Engineering and Architecture, Ghent University, UGent Campus UFO, Technicum T4, Sint-Pietersnieuwstraat 41, 9000, Gent, Belgium, 2 Antwerp Cultural Heritage Sciences (ARCHES), Faculty of Design Sciences, University of Antwerp, Mutsaardstraat 31, 2000 Antwerp, Belgium, 3 Atmospheric Physics Group, Faculty of Science, Ghent University, UGent Campus Sterre - S 9, Krijgslaan 281, 9000, Gent, Belgium, 4 Department Meteorological and Climatological Research, Royal Meteorological Institute of Belgium, 3 Avenue Circulaire, 1180, Brussels, Belgium 1e-mail: Isabeau.Vandemeulebroucke@UGent.be ABSTRACT Cuba is known for its rich cultural heritage, consisting of monumental and domestic architecture. Several sites are recognized UNESCO world heritage, e.g. the historic centre of Old Havana and Camagüey. However, major parts of the built environment are in a poor state due to moisture-related problems. These problems lead to degradation processes in building components, such as biological growth, fungal decay, and salt efflorescence. Further, it remains uncertain how climate change will impact the degradation risks. Conservation strategies accounting for climate change are highly needed, but remain absent. Therefore, we assessed the impact of climate change on degradation processes in Cuban building envelopes. This paper presents the results of hygrothermal simulations on wall assemblies in Havana, Camagüey, Santiago De Cuba, and La Fe. A range of parameter variations are included for three scenarios of projected greenhouse gas emissions. Wall assemblies with different characteristics, e.g. location, material properties, exposure coefficients etc., behave all in a different way. Therefore, the range of the climate change impact for individual degradation risks is quite wide. The biological and fungal growth in building components is likely to increase due to rising temperatures, and high moisture loads. The change in salt crystallization cycles depends on the type of salt (hydrated or non-hydrated salt). Moreover, the critical wall orientation, i.e. the wall orientation with the highest degradation risks, remains constant over the 21st century. Yet, the critical orientation is not the same for different damage risks. To conclude, climate change has an important impact on the degradation risks in historical buildings in Cuba. Henceforth, the climate change impact can be included in practical conservation strategies. KEY WORDS: Climate change, Heat Air Moisture (HAM) simulations, moisture-related damage, heritage buildings, hygrothermal performance 1. INTRODUCTION Cuba has a rich built heritage of both monumental and domestic architecture. The United Nations Educational, Scientific and Cultural Organization (UNESCO) listed several sites as world heritage, such as the historic centre of Camagüey and Old Havana [1]. The more recent 1960s National School of Ballet in Havana was added to the tentative list of UNESCO in 2003 [2]. Conserving the built heritage of Cuba is important for both the local population, as for tourism. However, many buildings are in poor condition due to the lack of maintenance, but also because of climate conditions [2], [3]. In literature, the studies on Cuban buildings are diverse. Rodríguez-Rosales et al. studied the vulnerability of heritage buildings in Havana, Cuba (next to heritage buildings in Cadiz, Spain) [4]. In Havana, 6 churches were evaluated, among them the 18th century La Havana Cathedral. Frequent weathering phenomena in the churches are damp areas, erosion, salt efflorescence, cracks, biological colonization, and black crust. The weathering phenomena are often caused by wind, rainfall, and the lack of maintenance. Further, Paradiso et al. worked on the consolidation and restauration of the Convent of Santa Teresa de Jesús in Havana, which was heavily deteriorated and at some places even collapsed [3]. Following on-site analyses, most pathologies were attributed to poor maintenance, air pollution, rainfall, and insufficient rainwater drainage systems. Douglas et al. simulated the structural stability of the National School of Ballet, and pointed out problems with corroding steel reinforcements [2]. Baldoquin studied energy renovation strategies of Cuban buildings [5]. To reduce the cooling load of buildings, she proposed renovation strategies, which consequently modify the durability of building components. Further, some studies specifically focus on biological deterioration. Rojas et al. worked on fungal biodeterioration in Havana [6]. Samples were taken in 7 historical buildings, mostly museums and other places where important collections are stored. 38 different fungi species were identified. Additionally, Vivar et al. studied biological growth on heritage objects, in particular cinematographic films that are archived in museums and libraries [7]. Other studies focused e.g. on thermal comfort and architecture [1], [8]. These studies focus on the durability problems in historical buildings in Cuba. In general, the studies are based on visual inspections, archive documentation, and sample tests. None of the studies include hygrothermal simulation results. Yet, hygrothermal simulations allow to assess the impact of weather events, as well as renovation strategies, on building envelopes. Secondly, previous research on Cuban buildings mainly focus on the current climate conditions. It remains uncertain how sensitive Cuban buildings are to climate change, known that the durability of building components highly depends on climate conditions [9]. Therefore, we assessed the impact of climate change on the performance of building components. Biological deterioration, as well as salt crystallization, are considered. This paper presents the results of hygrothermal simulations on building envelopes in Cuba. The studied locations are Camagüey, Havana, La Fe, and Santiago De Cuba. A small climate ensemble is considered, composed of 3 members with different greenhouse gas emission scenarios. Furthermore, a range of parameter variations are evaluated, since they may have a large impact on the performance of building envelopes [9], [10]. The parameter variations include different materials and wall assemblies, and multiple orientations and rain exposures. The paper is structured as follows. In section 2 of this paper, the methods and materials are introduced. The results are included in section 3, and are divided in a climate-based analysis (only based on climate variables), and a response-based analyses (based on the hygrothermal simulation results). Finally, the results are discussed and concluded in section 4. 2. METHODS AND MATERIALS Outdoor climate data The climate data originates from METEONORM, and is obtained for 4 Cuban locations: Camaguey, Havana, La Fe, and Santiago De Cuba (Figure 1). For each location, a historical file and three 2100- projections are available (B1, A1B, and A2). The projections are based on the Special Report on Emissions Scenarios (SRES), and are broadly comparable to the more recent Representative Concentration Pathways (RCP) scenarios [11]. Together, the 3 projections form a small climate ensemble. Each of the ensemble members represents a potential evolution of the climate system. Using an ensemble instead of only one projection, decreases the uncertainty of the results. It becomes more certain that the actual future climate will be somewhere within the spread of the ensemble (Figure 2). Figure 1: The 4 studied locations in Cuba are Camaguey, Havana, La Fe, and Santiago De Cuba. Figure 2: The concept of a climate ensemble is to increase the spread of the results. By doing so, it becomes more certain that the actual result will be somewhere within the spread of the results. Each climate file is a reference year with hourly values of air temperature, relative humidity, precipitation, wind velocity and direction, direct and diffuse shortwave radiation, and longwave downward radiation. The reference year represents an average year based on temperature and shortwave radiation. The reference year does not account for the distribution of precipitation loads. Indoor climate data The indoor climate of Cuban buildings is not available in METEONORM, and is therefore computed based on the outdoor climate variables. The indoor space of the building is not conditioned by an HVAC (Heating, Ventilation and Air Conditioning) system. An estimation of the indoor climate is made based on the work of Baldoquin [5]. For the unconditioned space, the indoor temperature is set equal to the average outdoor temperature. Further, the indoor vapour pressure is considered 5% higher than the outdoor vapour pressure to include interior moisture loads. Based on the indoor temperature and vapour pressure, the indoor relative humidity is computed. Simulation set-up One-dimensional simulations of historical buildings without and with interior insulation are performed in Delphin 6.1. For each location and climate, a range of parameter variations are considered, including 8 wall orientations, 4 masonry materials, 3 wall thickness, and 2 rain exposure coefficients. In total, the results of 6.144 simulations are included in this paper. The wall assemblies are composed of –from exterior to interior– gypsum plaster, structural wall, and gypsum plaster (uninsulated case), or gypsum plaster, structural wall, mineral wool insulation, vapour barrier, and gypsum board (insulated case) (Figure 3). The material of the structural wall is varied over 2 bricks (ZD and ZO selected based on Vanderschelden et al.), lime stone, and concrete. Note that brick ZD is characterized by a relatively low vapour diffusion resistance factor, and high absorption coefficient. Brick ZO, on the other hand, has a high vapour diffusion resistance factor, and low absorption coefficient. The thickness of the structural element is varied over 150 mm, 300 mm, and 450 mm. All materials are available in the Delphin material library. Figure 3: Two wall assemblies with different thicknesses and materials are studied. The wall assemblies are simulated for 8 orientations, i.e. every 45° starting from the north (0°). Next to that, 2 rain exposure coefficients are considered (1.0 and 2.0), since this has been found an important parameter in previous hygrothermal analyses [9], [10]. Further, the exterior heat and water vapour exchange coefficients are based on the wind velocity following the norm EN ISO 6946 [12]. The heat and water vapour exchange coefficients at the interior surface are equal to 8 W/(m2K) and 3e-08 s/m, respectively. Other coefficients are kept constant: albedo (0.5), shortwave absorption coefficient (0.5), and longwave emission coefficient of the ground and building surface (0.9). The conditioning of the wall assemblies –or spin-up time–, i.e. to eliminate the effect of the initial conditions, is performed by repeating the reference year 4 times. These years are not included in the analysis of the results. The 5th year of the simulation is the evaluation year. Performance criteria Three performance criteria are assessed in this paper: mould growth, wood decay, and salt crystallization. These performance criteria are merely used to compared the sensitivity of different wall configurations, locations, and the impact of climate change in a relative way. No absolute damage risks can be assessed from the results. Mould growth is considered at the interior wall surface. The mould index is computed using the VTT model [13], [14] (Please refer to these papers for the complete VTT model). The mould index can range between 0 (no mould growth) and 6 (almost full mould coverage). The material is accounted for through the sensitivity and decline class, as introduced by Ojanen et al [15]. In this paper, the material is considered as ‘medium resistant’, and the decline of mould during unfavourable growth conditions is ‘relatively low’ based on the used materials. Wood Decay (WD) at embedded beam heads (excluding the concrete walls) is represented by the WD dose. The WD dose is computed based on Brischke and Rapp [16], [17]. The WD dose is equal to the annual sum of the total daily doses D at the location of the beam head, i.e. at 100 mm from the interior masonry surface. The equations are given in the following (1)-(3). D = a∙DT(T)+Du(u) a+1 for Du > 0 and DT > 0 (1) Du(u) = 6.75 ∙ 10 −10 ∙ u5 − 3.50 ∙ 10−7 ∙ u4 + 7.18 ∙ 10−5 ∙ u3 − 7.22 ∙ 10−3 ∙ u2 + 0.34 ∙ u − 4.98 for u ≥ 25% (2) DT(T) = −1.8 ∙ 10 −6 ∙ T4 + 9.57 ∙ 10−5 ∙ T3 − 1.55 ∙ 10−3 ∙ T2 + 4.17 ∙ 10−2 ∙ T for Tmin > −1°C and Tmax < 40°C (3) with the daily temperature dose DT, daily moisture content dose Du, daily average temperature T [°C], daily average moisture content [volume-%], and weighing factor a (equal to 3.2). D, DT, and Du are equal to 0 when the conditions are not reached. Wood decay of beam heads is not considered in the concrete wall assemblies. The sensitivity to salt weathering is represented by the number of crystallisation–dissolution cycles [18]. For non-hydrated salts (e.g. halite salt), a cycle occurs each time the daily average relative humidity drops below the critical deliquescence point of 75.3%. Hydrated salts (e.g. thenardite-mirabilite salt) are sensitive to both temperature and relative humidity. A cycle is counted when the pressure upon crystallization exceeds the tensile strength of the material’s pore structure. For British limestone, the critical crystallization pressure is 10 MPa, and this pressure is achieved when the daily average temperature is below 22.5°C. Below this temperature, a cycle is counted when the daily relative humidity drops below the temperature- dependent relative humidity (4). The equation is given in the following: 𝑅𝐻𝑒𝑞 = 59.11 + 0.87549 ∙ 𝑇 𝑓𝑜𝑟 𝑇 < 22.5°𝐶 (4) with the equivalent relative humidity RHeq [%], and daily temperature T [°C]. Note that these threshold values are arbitrarily chosen, and may be different for Cuban building materials. Also the transport of salts is not considered, yet it highly impacts salt damage. Since the critical depth for salt crystallization is unknown, the number of cycles –for both halite and thenardite-mirabilite salt– at 5 mm within the structural wall element are considered in this paper. 3. RESULTS Climate-based analysis The mean temperature at the 4 Cuban locations ranges between 25.4°C and 26.3°C during the historical period (Figure 4). For each of the projections, there is an increase in mean temperature. As expected, the smallest increase in mean temperature is observed for the B1-projection (+1.76°C, Standard Deviation (SD): 0.09°C), followed by the A1B-projection (+2.61°C, SD: 0.15°C), and the A2-projection (+3.00°C, SD: 0.16°C). Furthermore, the daily mean temperatures increase between the historical period and the 2100- projections as well (Figure 5). The annual precipitation load is similar for the different locations (Figure 4). The annual precipitation load will decrease by -4.53% (SD: 1.02%), -8.40% (SD: 1.02%), and -12.5% (SD: 1.56%) according to the projections B1, A1B, and A2, respectively. Further, extreme events of precipitation occur for every climate projection, e.g. the daily precipitation load exceeds 150 mm for some locations (Figure 6). Likely, this event would also occur at the other locations during a different meteorological year. The METEONORM data does not account for precipitation loads when the reference year is selected. Next to that, the projections likely do not account for the change in return period of extreme precipitation events. There is no clear climate change signal for the WDR load (Figure 7). For some orientations, there is a small projected decrease, whereas other orientations show a small increase. Since the climate change signal is unclear, the critical WDR orientation remains constant between the historical period and the 2100- projections. Yet, there are large differences in WDR load between the different locations. The largest WDR load is computed for La Fe, followed by Camaguey. The WDR load is similar between Havana and Santiago De Cuba. In general, the critical WDR orientation is the east, or in some cases the north-east. Figure 4: There is an projected increase in mean temperature towards 2100 for the 3 projections. The annual precipitation load, on the other hand, is projected to decrease for the 4 locations. Figure 5: The daily mean temperature increases between the historical period and the 2100-projections. An average year is shown here, based on the METEONORM data. Figure 6: The daily precipitation load can be very high, exceeding 150 mm per day. This type of event does not occur at every location during the reference year –which has not been selected to account for precipitation loads–, but does likely occur during other meteorological years. Figure 7: The critical wind-driven rain orientation is the east for Camaguey, Havana, and Santiago De Cuba. For La Fe, it is the north-east. The critical orientation remains constant towards 2100 for the considered projection. Response-based analysis In contrast to the climate-based analysis which are only considers climate variables, the next section focusses on the response-based analysis. The response-based analysis is based on the hygrothermal response of building components, resulting from Heat Air Moisture (HAM) simulations. The studied wall assemblies at the 4 Cuban locations behave different in terms of performance criteria (Figure 8). The mould growth on the interior wall surface and wood decay at embedded beam heads are the most critical in La Fe –up to a mould index of 3.0 and 332 wood decay doses during the historical period-, followed by Camaguey, Santiago De Cuba, and Havana. These results follow the trend of decreasing WDR load. Furthermore, the critical orientation for mould growth and wood decay are similar to the critical WDR orientation, i.e. east or north-east. Moreover, the higher the WDR load, the more orientations that are at risk for moisture-related damages. Note that mould growth and wood decay may only be a problem in solid masonry walls made of bricks ZD and ZO. Figure 8: The critical orientation is not the same for the different performance indices, but is similar when considering the different locations. Only the historical period is illustrated here. Figure 9: The climate change signal is not the same for the different simulated cases. In general, the mould index and wood decay dose remain constant. Further, the risk on salt damage increases for halite salts, whereas the risk for thenardite-mirabilite salts decreases. For salt crystallization cycles at 5 mm within the structural material, however, the observations are reversed (Figure 8). The highest number of salt crystallization cycles for halite salts occurs for Santiago De Cuba, i.e. up to 57 cycles during the historical period. The second location in terms of halite crystallization cycles is Havana. For thenardite-mirabiliate crystallization cycles, the maximum occurs in Havana, i.e. 7 cycles. The maximum in Camaguey and La Fe is both 3 cycles. Furthermore, the critical orientation for salt crystallization risk is not equal to the critical WDR orientation. In general, the risk for salt damage is the highest for walls with a south, south-west, west, and north-west orientation. Salt crystallization cycles occur in the 4 studied materials, i.e. bricks ZD, ZO, concrete and limestone. The observed differences between the locations, as well as between the performance criteria, remain constant over the course of the 21st century for the 3 scenarios. The critical orientations in terms of damage risks remain constant as well. Table 1: On average, the change in performane criteria is small. However, there is a small increase for most damages, except for crystallization cycles of TM salts. Mean change Standard deviation Mould index [-] + 0.0 0.1 Wood decay dose [-] + 1.5 18.4 Halite salts [-] + 1.5 7.5 Thenardite-mirabilite salts [-] - 0.4 1.0 For all locations and performance criteria, there is no clear climate change signal. For some simulated cases, there is an increase in hygrothermal performance, whereas other cases illustrate a decreasing trend (Figure 9). The spread of the absolute differences between the historical period and 2100-projections is large. On average, the mould growth, wood decay, and crystallization cycles for halite salts slightly increases, whereas the number of crystallization cycles for thenardite-mirabilite salts decreases (Table 1). In general, the mould index at the interior wall surface remains constant. The mean absolute change is 0.0 (SD between 0.0 and 0.2) for almost all locations and climate projections. For a handful of cases, the change in mould index is significant, and ranges between -0.9 and +1.7. These changes in mould index usually occur for walls made of brick ZD. There is no significant difference between the climate projections. The wood decay dose at embedded beam heads is distributed around zero change. The mean change ranges between -1 and +5 doses for the 4 locations and 3 scenarios (SD between 11 and 27). Yet, the climate change signal of individual cases can be both positive and negative. The absolute change of wood decay dose ranges between -209 and +225. Note that these large changes in wood decay are outliers. There is no considerable difference between scenario B1, A1B, and A2. Salt crystallization cycles at 5 mm within the structural material is represented by two criteria. The absolute change in salt crystallization cycles for halite salts is both positive and negative. Yet, the average change is positive for all scenarios in Havana and La Fe, and for scenario B1 in Camaguey and Santiago De Cuba. The mean change goes between -5 and +5 cycles for the different locations and projections (SD between 4 and 9). The second criterion, i.e. salt crystallization cycles for TM salts, occurs less frequent according to the simulations of the wall assemblies in Cuba. In general, there is a decrease in number of cycles for the 4 locations in Cuba. The mean change is -1 to 0 cycles (SD between 0 and 2). 4. DISCUSSION AND CONCLUSIONSs Based on literature, the main problems in Cuban historical buildings are due to severe climate conditions, such as precipitation, and/or the lack of maintenance [2]–[4], [6]. This may lead to moisture-related damages, e.g. damp areas, mould growth, biological colonization, and salt damage. Previous studies focus on these issues, but the sensitivity of these moisture-related damages to climate change remains unknown. In this paper, we assessed the impact of climate change on the hygrothermal performance of Cuban historical buildings. Four locations are considered, as well as a range of parameter variations. The results indicate the sensitivity of historical building envelopes in Cuba to climate change. Note that the results cannot be used to address actual damage risks. There is a clear climate change signal for the climate variables. The temperature increases for the three projections B1, A1B, and A2. The precipitation load during the test reference years, on the other hand, illustrate a decreasing trend towards the end of the 21st century. Despite the decreasing precipitation load, the WDR load remains constant. Furthermore, the critical WDR orientation remains constant as well. The performance indices, on the other hand, do not show a clear climate change signal. On average, most damages are slightly increasing, except for damage by thenardite-mirabilite salts. However, large positive and equally large negative changes occur for individual simulated cases when looking at the distribution . The climate change signal is highly case-dependent, and also dependent on the considered performance criterion. Therefore, it is essential to perform hygrothermal simulations when assessing the impact of climate change on the durability of specific buildings. Although there is no clear climate change signal for damages in building envelope, the critical orientation for the individual damages generally remains constant. Further, the performance of building envelopes at the 4 studied locations is slightly different. Mould growth and wood decay are most critical in Camaguey and La Fe. These locations endure the highest wind-driven rain loads. Salt damage, on the other hand, is more critical in Havana and Santiago De Cuba. Given that the mean relative humidity of the air as well as the wind-driven rain load are lower, there are more cycles below the critical relative humidity in the material, resulting in a higher number of crystallization cycles. In Havana, the lower mean temperature and relative humidity results in a higher number of crystallization cycles for thenardite-mirabilite salts. Note that corrosion of steel reinforcements is out of the scope of this study, though important in e.g. the National School of Ballet in Havana [2]. The simulations have been performed using test reference years based on average temperature and solar radiation conditions. Note that it is unsure whether the test reference years represent average precipitation loads as well. Future studies should focus on using climate data with average and extreme precipitation – or WDR– loads. Further, this study should be extended towards more climate projections of dynamically downscaled regional climate models, ideally of 30 years instead of test reference years. ACKNOWLEDGMENTS Isabeau Vandemeulebroucke and Kaat Janssens, both doctoral fellows of the Research Foundation – Flanders (FWO), would like to acknowledge the support of the FWO [grant numbers: 1S90420N and 1S71922N]. REFERENCES [1] J. Rodríguez-Algeciras, A. Tablada, M. Chaos-Yeras, G. De la Paz, and A. Matzarakis, “Influence of aspect ratio and orientation on large courtyard thermal conditions in the historical centre of Camagüey-Cuba,” Renew. Energy, vol. 125, pp. 840–856, 2018, doi: 10.1016/j.renene.2018.01.082. [2] I. Douglas, R. K. Napolitano, M. Garlock, and B. Glisic, “Cuba’s National School of Ballet: Redefining a structural icon,” Eng. Struct., vol. 204, Feb. 2020, doi: 10.1016/J.ENGSTRUCT.2019.110040. [3] M. Paradiso, S. Garuglieri, and V. Ferrarini, “The Convent of Santa Teresa de Jesús in Havana: Analysis, consolidation and restoration for the New Museum of Sacred Art,” Procedia Struct. Integr., vol. 29, no. 2019, pp. 87–94, 2020, doi: 10.1016/j.prostr.2020.11.143. [4] B. Rodríguez-Rosales et al., “Risk and vulnerability assessment in coastal environments applied to heritage buildings in Havana (Cuba) and Cadiz (Spain),” Sci. Total Environ., vol. 750, Jan. 2021, doi: 10.1016/J.SCITOTENV.2020.141617. [5] N. C. Baldoquin, “Bases de diseño para la renovación energética en viviendas con alojamiento para el turismo de ciudad. Caso de estudio: Edificaciones de una planta en el vedado,” 2021. [6] T. I. Rojas, M. J. Aira, A. Batista, I. L. Cruz, and S. González, “Fungal biodeterioration in historic buildings of Havana (Cuba),” Grana, vol. 51, no. 1, pp. 44–51, 2012, doi: 10.1080/00173134.2011.643920. [7] I. Vivar, S. Borrego, G. Ellis, D. A. Moreno, and A. M. García, “Fungal biodeterioration of color cinematographic films of the cultural heritage of Cuba,” Int. Biodeterior. Biodegradation, vol. 84, pp. 372–380, Oct. 2013, doi: 10.1016/J.IBIOD.2012.05.021. [8] D. González Couret, P. D. Rodríguez Díaz, and D. F. Abreu de la Rosa, “Influence of architectural design on indoor environment in apartment buildings in Havana,” Renew. Energy, vol. 50, pp. 800–811, 2013, doi: 10.1016/j.renene.2012.07.043. [9] I. Vandemeulebroucke, S. Caluwaerts, and N. Van Den Bossche, “Factorial Study on the Impact of Climate Change on Freeze ‐ Thaw Damage , Mould Growth and Wood Decay in Solid Masonry Walls in Brussels,” Buildings, vol. 11, no. 134, 2021, doi: https://doi.org/10.3390/buildings11030134. [10] K. Calle, “Renovation of Historical Facades: The Rescue or the Kiss of Death? [Ph.D. Thesis],” 2020. [11] IPCC, Climate Change 2014: Synthesis Report. Contribution of Working Groups I, II and III to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change [Core Writing Team, R.K. Pachauri and L.A. Meyer (eds.)]. Geneva, Switzerland: IPCC, 2014. [12] CEN, “EN ISO 6946: Building components and building elements - thermal resistance and thermal transmittance - calculation methods,” 2017. [13] A. Hukka and H. A. Viitanen, “A mathematical model of mould growth on wooden material,” Wood Sci. Technol., vol. 33, no. 6, pp. 475–485, 1999, doi: 10.1007/s002260050131. [14] H. Viitanen and T. Ojanen, “Improved Model to Predict Mold Growth in Building Materials,” in Thermal Performance of the Exterior Envelopes of Whole Buildings X, 2007, pp. 1–8. [15] T. Ojanen, R. Peuhkuri, H. Viitanen, K. Lähdesmäki, J. Vinha, and K. Salminen, “Classification of material sensitivity - New approach for mould growth modeling,” in Nordic Symposium on Building Physics, 2011, vol. 2, pp. 867–874. [16] C. Brischke and A. O. Rapp, “Dose-response relationships between wood moisture content, wood temperature and fungal decay determined for 23 European field test sites,” Wood Sci. Technol., vol. 42, no. 6, pp. 507–518, Aug. 2008, doi: 10.1007/s00226-008-0191-8. [17] C. Brischke and A. O. Rapp, “Service life prediction of wooden components-Part 1: Determination of dose-response functions for above ground decay Service life prediction of wooden components,” in IRG Annual Meeting, IRG/WP(10–20439), 2010, pp. 1–14, Accessed: Jun. 17, 2020. [Online]. Available: www.irg-wp.com. [18] C. M. Grossi, P. Brimblecombe, B. Menéndez, D. Benavente, I. Harris, and M. Déqué, “Climatology of salt transitions and implications for stone weathering,” Sci. Total Environ., vol. 409, no. 13, pp. 2577–2585, 2011, doi: 10.1016/j.scitotenv.2011.03.029. About the authors In collaboration with PhD students Isabeau Vandemeulebroucke, Kaat Janssens, and Bruno Vanderschelden, Prof. Nathan Van Den Bossche engages in research on building physics at Ghent University in Belgium. More in particular, the research focusses on the hygrothermal performance of building envelopes, climate change, and heritage buildings. Furthermore, Prof. Steven Caluwaerts mainly works on atmospherical physics, such as climate change and the urban heat island effect. He is active at Ghent University and the Royal Meteorological Institute of Belgium. HOTELES EN LA HABANA DESDE SU PASADO A LA CONTEMPORANEIDAD Natali Collado Baldoquin1*, Luis Alberto Rueda Guzmán2 y Dania González Couret3 1 Doctora en Ciencias Técnicas, Facultad de Arquitectura, Universidad Tecnológica de La Habana, Cujae. 2 Doctor en Ciencias Técnicas, Facultad de Arquitectura, Universidad Tecnológica de La Habana, Cujae. 3 Doctora en Ciencias, Facultad de Arquitectura, Universidad Tecnológica de La Habana, Cujae. 1 ncollado@arquitectura.cujae.edu.cu RESUMEN El desarrollo de la ciudad de La Habana ha sido influenciado desde hace casi dos siglos por el turismo. Dentro de este sector, la arquitectura hotelera ha presentado particularidades en las diferentes etapas históricas. El presente artículo pretende identificar los aspectos esenciales que han marcado su evolución en La Habana ilustrados con edificaciones distintivas de cada período. Se trata de una investigación de carácter histórico sobre la base de un enfoque metodológico cualitativo, la información recogida en trabajos precedentes y la vivencia personal de los autores. Se identifican las etapas fundamentales de la evolución de la tipología hotelera en La Habana, los principales acontecimientos que han condicionado el auge del turismo en la capital y se verifica que la evolución ha respondido a las tendencias internacionales y ha estado condicionada por el contexto urbano. PALABRAS CLAVES: arquitectura hotelera, turismo de ciudad, historia hoteles, Habana PAST AND PRESENT OF HAVANA HOTELS ABSTRACT The Havana city development has been influenced for almost two centuries by tourism. Hotel architecture has presented particularities in different historical stages, about which there is not always completed clarity. This article aims to identify the essential aspects that have marked the evolution of hotel architecture in Havana illustrated with distinctive buildings from each period. It is an investigation of a historical nature, based on a qualitative methodological approach, the information collected in previous research works, and the authors’ personal experience. The main stages of the hotel typology evolution in Havana and the key events that have conditioned the tourism boom in the capital are identified, so, it has been verified that the evolution has responded to international trends and has been conditioned by the urban context. KEY WORDS: Hotels architecture, Urban turism, Hotels history, Havana 1. INTRODUCCIÓN El desarrollo económico de Cuba durante los últimos 30 años se ha caracterizado por el crecimiento sostenido del sector turístico. Las ciudades se muestran dentro de los sitios más favorecidos y La Habana ha sido la de mayor relevancia para el progreso hotelero en los últimos doscientos años, desde la creación de las primeras edificaciones para estos usos en la tercera década del siglo XIX. La arquitectura de los hoteles ha respondido a su momento histórico, el entorno urbano y variadas exigencias de los programas hoteleros. Sin embargo, no siempre hay total claridad sobre las particularidades de su evolución, razón por la cual se hace necesario su estudio. No existen muchas investigaciones sobre la arquitectura hotelera en La Habana que abarquen todos los periodos históricos y las publicaciones encontradas solo tratan temáticas del turismo en general o en determinadas épocas de su evolución. Tal es el caso de los trabajos enfocados en los hoteles de «sol y playa» que predominaron en los años setenta [1], o los estudios con respecto al diseño de interiores hasta finales del pasado siglo [2]. La información disponible, que resulta insuficiente y dispersa, se concentra, fundamentalmente, en aspectos de carácter promocional y dificulta el establecimiento de una secuencia progresiva en correspondencia con las tendencias de cada etapa. Este trabajo pretende identificar los aspectos esenciales que han marcado la evolución de la arquitectura hotelera en La Habana en relación con el contexto económico, político y social, con vistas a mostrar las principales tendencias a través de ejemplos representativos. También se aspira a esclarecer algunos temas que, hasta el momento, no han sido suficientemente abordados, y demostrar la relación entre las respuestas de diseño y los factores condicionantes. 2. MATERIALES Y MÉTODOS Se trata de una investigación teórica, en la cual se utilizaron técnicas y procesamientos de tipo histórico- documental a partir de un enfoque metodológico cualitativo apoyado, sobre todo, en la revisión bibliográfica acerca del tema, la información recogida en trabajos y publicaciones precedentes y un componente empírico, dado por la observación de la realidad y la vivencia personal de los autores en el estudio de obras para el turismo. A partir de estudios anteriores se definieron las variables arquitectónicas a explorar, tomadas como base para comparar los ejemplos y determinar las etapas que caracterizan su evolución: el programa hotelero, visto a partir de la diversidad de funciones y servicios que se van incluyendo, en correspondencia con las tendencias internacionales; la expresión formal, considerando la volumetría y su relación con el contexto, independientemente de los estilos arquitectónicos específicos, y por último, la forma en que se establece la relación de los espacios interiores con el exterior, según el contexto y la volumetría asumida. Sobre esa base ha sido posible identificar cinco etapas que marcan las principales transformaciones: el siglo XIX, la primera mitad del siglo XX, la década del cincuenta del pasado siglo, la Revolución hasta el 2000, y la actualidad (siglo XXI). Finalmente, se seleccionó una muestra de 47 edificaciones significativas de las diferentes etapas establecidas en aras de reflexionar sobre los elementos más relevantes que marcaron tendencias a nivel nacional e internacional. 3. RESULTADOS Y DISCUSIÓN Antecedentes. Primeros establecimientos de alojamiento en el periodo colonial El desarrollo de los medios de comunicación y transporte durante el siglo XIX, así como las nuevas tendencias internacionales asociadas al uso del tiempo libre, favorecieron el interés por visitar La Habana con diversos fines: escapar de los crudos inviernos en las altas latitudes, recuperarse de enfermedades comunes de la época como la tuberculosis y otras actividades como la investigación y el ocio. Por ello algunos autores consideran que Cuba fue el primer país en el hemisferio occidental donde se inició el turismo, justamente en ese siglo [3]. Las primeras edificaciones creadas para el alojamiento de visitantes se pueden identificar desde el inicio de la colonización española, cuando los cabildos exigían a los beneficiados con extensiones de tierra que debían construir en el centro de su propiedad y próximo a su casa algún tipo de espacio que sirviera de alojamiento gratuito para los viajeros [4]. Cada caserío o poblado tenía como obligación utilizar un bohío con agua y leña para la acogida de los viajeros, lo que comenzó a denominarse como «casa de pasajero» [5] Sin embargo, las primeras construcciones urbanas utilizadas para hospedar fueron las propias casas señoriales de la clase alta habanera en la época colonial. Los visitantes, recomendados a través de cartas o concertaciones previas, se alojaban en estas edificaciones o en otras más humildes, e incluso, en los conventos debido a la poca oferta. Durante casi la primera mitad del siglo XIX los establecimientos de alojamiento eran muy escasos [3], no cumplían con los estándares de confort de Europa y los Estados Unidos, y el servicio tampoco satisfacía a sus usuarios, al no disponer de habitaciones con llave, lavabo, jabón, personal para los servicios, en resumen, alojamientos limpios y cómodos. Se evidencia un desarrollo en los establecimientos de alojamiento a partir de la década del cuarenta del siglo XIX, por el incremento numérico de las habitaciones y el marcado interés de empresarios (fundamentalmente norteamericanos) por mejorar las condiciones interiores en correspondencia con el movimiento higienista: espacialidad, iluminación, ventilación, mobiliario y decoración; aspectos muy criticados en crónicas de la época [3]. Los primeros establecimientos de alojamiento en La Habana fueron denominados (indistintamente) hospederías, casas de huéspedes, posadas, albergues o fondas, y a partir de la década del cuarenta del siglo XIX se llegó a utilizar, incluso, el término hotel, casi medio siglo después de haber surgido en Europa, donde predominaba una concepción más lujosa, salones para actividades lúdicas, elegante comedor, amplias habitaciones ventiladas y un baño al estilo romano con cabinas individuales [6]. Las primeras edificaciones distribuían las habitaciones alrededor de un patio lateral o central, con paredes medianeras en sus límites. En investigaciones precedentes con la Oficina del Historiador de la ciudad de La Habana1 se pudo constatar que algunas ya no existen y otras no pudieron ser localizadas, debido a incongruencias derivadas de los cambios de dirección [3]. A partir de la clasificación tipológica propuesta por Menéndez García [7]. para la arquitectura colonial doméstica, las nueve edificaciones identificadas son del tipo «complejo», ocho con dos o más plantas, cinco con entresuelo y solo una uniplanta. La mayoría se encuentran en lotes de esquina y todas poseen patios laterales o centrales. Privilegiada ubicación y particular diseño presentan las localizadas en Obrapía n.º 158, como se muestra en la Figura 1, Muralla n.º 101 y San Ignacio n.º 360. Algunos casos mantienen aún la función hotelera, aunque con modificaciones tecnológicas y espaciales, como el Hotel Florida (1856) y el Santa Isabel (1867) [8], ambos destacados a mediados del siglo XIX por el lujo y confort. Figura 1_Casa de la Obrapía Primera etapa. Siglo XIX El Telégrafo, mostrado en la Figura 2 y construido alrededor de 1835, fue el primer edificio diseñado para la función hotelera en La Habana [9], al que le sucedieron otras edificaciones que contaban con los adelantos tecnológicos de la época 2 [10], como el Hotel Inglaterra (1856), el Pasaje (1876) y el Trotcha (1886). Figura 2_ Hotel Telégrafo. Fig E P ura 3_ Baño intercalado de uso colectivo en Hotel Pasaje. Fuente: xpediente del Hotel Pasaje de 1899. Archivo de la Dirección rovincial de Planificación Física de La Habana Si bien el orden cronológico de las edificaciones no constituye un objetivo en este trabajo, se confirma que existen incongruencias en algunas fechas como consecuencia de las posibles reubicaciones, tal es el caso del Pasaje, inaugurado en la calle Ánimas y posteriormente trasladado al lugar donde se le conoció en el Paseo del Prado. Al final de la Guerra de Independencia y durante la intervención norteamericana se produjo un auge en la construcción de hoteles en La Habana, particularmente en el antiguo ring y alrededor del Paseo del Prado. A partir de entonces, los negocios se realizaban en los restaurantes de los hoteles y las actividades festivas de sociedad en salas de fiestas incorporadas a esas edificaciones, y ya no en los grandes palacetes residenciales [11]. La mayoría de estas edificaciones se encontraba en lotes mucho más amplios que los de la zona de intramuros, como ya estaba sucediendo en Europa y los Estados Unidos [12], lo que favoreció el aumento de la espacialidad, la cantidad de habitaciones y de niveles, alrededor de un patio, ubicando en la planta baja espacios de servicios a los huéspedes y a la población residente: restaurantes o comedores (según el estándar del hotel), comercios y almacenes, que obtuvieron reconocimiento, como el restaurante La Vizcaína del Hotel Telégrafo y la galería comercial del Hotel Pasaje [9]. Los hoteles diseñados y modificados a partir de esta época incorporaron los baños dentro de las habitaciones, a diferencia de los anteriores colectivos por piso [13] –como se muestra en la Figura 3– en correspondencia con lo que ya se venía haciendo en los Estados Unidos [12]. Con el inicio del nuevo siglo se incorporaron paulatinamente nuevos adelantos científico-técnicos como la red eléctrica, los servicios telefónicos y telegráficos, los elevadores y los sistemas de calderas para el agua caliente, lo cual incrementó las áreas técnicas en estas edificaciones [9]. A la par comenzaron a ser recurrentes otros espacios de servicios, como los de camarera o restauración especializada. A principios del siglo XX los hoteles de La Habana ya respondían a los estándares de confort de la época, como reflejo de lo que se consideraba «actual y moderno», constituyendo íconos dentro de la ciudad [9] Hoteles de la primera mitad del siglo XX Entre las circunstancias que favorecieron el turismo en La Habana a principios del siglo XX se encuentran la propicia publicidad en la prensa norteamericana; atractivos culturales, como la ópera y los carnavales, la prohibición en varios estados norteamericanos de los juegos de azar, la conocida ley seca en Estados Unidos, y la Primera Guerra Mundial que frenó el flujo de turismo norteamericano hacia Europa y benefició el alza de los precios del azúcar. En la primera década del siglo se identificaban 32 hoteles en la zona central de la ciudad, entre los que se encuentran el Hotel Sevilla (1908), mostrado en la Figura 4, y el Plaza (1909), considerados al nivel de los hoteles en los Estados Unidos [10], mientras que se mantuvo el reconocimiento popular de los servicios públicos hoteleros, donde se encontraban los bares preferidos por los habaneros, como los de los hoteles Plaza e Inglaterra. Figura 4 _ Hotel Sevilla. Figura 5 _ Hotel Lincoln. La planta hotelera se transformó al pasar el restaurante al último nivel. Algunos como el Gran Hotel y el Hotel Plaza se modificaron, incorporando el roof garden, mientras mantenían el resto de los servicios públicos en la planta baja y las habitaciones alrededor de un patio [5]). En los años veinte se incorporaron pequeños patios laterales en los límites con las paredes medianeras. Tal es el caso de los hoteles Lafayette (1919), New York (1919), Park View (1928), Nueva Isla y Ambos Mundos (1925). Otra característica que comenzó a distinguir estas edificaciones fue la incorporación de balcones individuales por habitación, en lugar de aquellos corridos propios de la arquitectura residencial y los hoteles del periodo anterior [11] En la década del veinte se incrementó la altura hasta diez pisos, con habitaciones ubicadas a ambos lados de un pasillo central. A esto responde la ampliación del Sevilla (1923), el Lincoln, mostrado en la Figura 5, y el Presidente (1928). Se promovió el interés por la zona oeste de La Habana, alejada de la ciudad antigua, con hoteles como el Presidente y el Hotel Palace, que asumieron códigos eclécticos y rasgos de los primeros rascacielos de la escuela de Chicago, al acentuar la verticalidad y separar en tres zonas el volumen de la edificación. En esta época todavía el basamento no se destaca como cuando el Movimiento Moderno asumió el modelo de la «Lever House» (1952) para edificios de oficinas y otros programas arquitectónicos como el hotelero. El Plan Director de La Habana elaborado por Jean Claude Nicolás Forestier (1861-1930) y promovido a finales de los años veinte por el entonces presidente Gerardo Machado, convirtió estos edificios altos en hitos dentro del contexto urbano, lo cual marcó un cambio en la forma de proyectar que obligaba a diseñar todas las fachadas de los edificios mayores de cuatro niveles [8]. A finales de la década del veinte el turismo constituía la tercera fuente de ingresos para el país, que era el principal destino caribeño. Ya en la Guía-Directorio de La República de Cuba de 1924 aparecían señalados 67 hoteles en La Habana, de los cuales 33 se encontraban en el Paseo del Prado y sus alrededores [14]. Ese florecimiento se vio afectado por la crisis mundial y nacional de 1929, la derogación de la llamada Ley Seca en 1934, la inclusión de los Estados Unidos en la Segunda Guerra Mundial, así como la inestabilidad política y social en La Habana de los años treinta. Como consecuencia, se frenó la construcción de nuevos hoteles, varios de los existentes cerraron y otros limitaron sus servicios. Sin embargo, los más pequeños, que no tenían grandes gastos fijos y cuyo mercado fundamental no era el norteamericano, lograron superar mejor esos momentos de crisis [10]. En la década del treinta ya existían dos grandes zonas turísticas en La Habana: el Paseo del Prado con sus áreas aledañas y un carácter turístico consolidado, y El Vedado, en incipiente desarrollo [15]. Se incrementaron los servicios públicos en los hoteles, con ofertas gastronómicas (cafeterías, bares, e incluso, más de un restaurante) y el desarrollo de espacios comerciales y de usos múltiples [14]. Un buen exponente de esa tendencia lo constituye el Hotel Nacional que incorporó, además, áreas deportivas y de ocio, como la piscina y el cabaret Parisién, reconocido como uno de los más importantes clubes nocturnos de la época [9]. La arquitectura de hoteles de la primera mitad del siglo XX en La Habana estableció modelos propios que se alejaron del tipo residencial de inicios del siglo XIX. Desarrollo hotelero en la década del cincuenta del siglo XX Desde mediados de la década del treinta se potenciaron en La Habana negocios relacionados con la mafia italo-americana que fueron enfocándose en el sector turístico y condicionaron un importante giro en las características de los hoteles, evidenciado después de la Segunda Guerra Mundial. La década del cincuenta es conocida mundialmente como la «Era de la Prosperidad» en la industria hotelera [12]. Numerosos autores indican que en Cuba se vendía el producto turístico de las cuatro «eses»: sun, sand, sea and sex, más el juego. La aspiración era convertir La Habana en «Las Vegas del Caribe», lo cual marcó una de las principales transformaciones en la arquitectura hotelera al complejizar los servicios para satisfacer la demanda de ocio y juego [16]. Es frecuente la presencia en los hoteles de casinos, cabarets, clubes, salones para banquetes y recepciones, variados y diferenciados espacios de restauración, zonas comerciales y piscina. El crecimiento en los servicios condujo a la especialización de la oferta, con clasificaciones como el apart-hotel y el hotel-club. Ejemplo de ellos son el Habana Riviera (hoteles-casino, 1956), el Comodoro Yacht Club (hotel-club, 1953) y el Hotel Rosita de Hornedo (apart-hotel, 1955). Las instalaciones turísticas desempeñaron un importante papel en la consolidación de la ciudad. Algunos autores afirman que el Plan Piloto desarrollado para La Habana en 1956 por José Luis Sert buscaba preparar a la ciudad para el turismo de entretenimiento [15]. Las edificaciones destinadas a hoteles se caracterizaron por su altura en el contexto de la ciudad, como el Habana Hilton en el Vedado y el antiguo Hotel Rosita de Hornedo en Miramar, gracias a la legislación que favorecía sin restricciones a los capitales privados, y al desarrollo técnico-constructivo. Uno de los tipos más representativos es el esquema de basamento y torre, que expresa la diferenciación de funciones del hotel: los espacios públicos y de servicios, y los de alojamiento. Los hoteles Habana Riviera, Habana Hilton y Capri (mostrados en las Figuras 6, 7 y 8 respectivamente), también asumieron otras características del Movimiento Moderno como la planta libre y la flexibilidad de los espacios públicos interiores que asimilan múltiples usos, donde, además, la vinculación de la arquitectura con las artes plásticas en murales y esculturas de reconocidos artistas nacionales dejó una importante huella. También se construyeron hoteles más pequeños destinados a otros tipos de mercado, como el Colina (1954), el Vedado y el Saint John’s (1956, segunda modificación), todos cercanos a la Universidad de La Habana, el Aerohotel, vecino al aeropuerto internacional y el Hotel Bruzón, próximo a la Terminal de Ómnibus. Según el directorio habanero, para el año 1959 el 52 % de las habitaciones hoteleras de Cuba se encontraban en La Habana [14]. Los hoteles en la Revolución hasta fines del siglo XX A partir de 1959 se detuvo la construcción y remodelación de hoteles en La Habana, por la prioridad gubernamental de invertir en sectores sociales como la salud y la educación, y la necesidad de concentrar las inversiones en otras regiones para equilibrar el desarrollo del resto del país con respecto a la capital. Además, se prohibieron los juegos y se cerraron los casinos, lo que sumado al bloqueo económico- comercial que prohibía la entrada de norteamericanos a la Isla, anuló el principal mercado turístico de Cuba hasta entonces. Por la declaración del carácter público de las playas se priorizó el desarrollo de instalaciones hoteleras para el nuevo mercado nacional en un turismo de masas. A inicios de los años sesenta se construyeron numerosos conjuntos para el disfrute de la población en las «playas populares» y en zonas rurales con valores paisajísticos. Siguiendo la tendencia internacional se usaron cubiertas plegadas y de doble curvatura, apreciables en playas cercanas a La Habana como El Salado, Mégano y Bacuranao. Otra tendencia hacia el rescate del folclor y las tradiciones de la arquitectura aborigen también puede verse en instalaciones turísticas como Guamá, en la Ciénaga de Zapata o la Villa Los Taínos (ya desaparecida) en Varadero. Según Segre [17], «en 1977 ya se encontraban en servicio más de 1 200 habitaciones nuevas, sin incluir las remodelaciones y otras instalaciones pequeñas», con respecto al plan quinquenal iniciado en 1970, alcanzándose la cifra de 4 000 habitaciones en 1980, lo que significa la construcción de 35 hoteles Figura 6_Hotel Habana Riviera Figura 7_Antiguo hotel Habana Hilton Figura 8_Hotel Capri. con aproximadamente 5 000 habitaciones en el decenio. Además de las zonas de playa y rurales, la mayoría de estos se ejecutaron en periferias urbanas de nuevo desarrollo, generalmente a partir del empleo de soluciones constructivas prefabricadas. Ejemplos significativos de esa década son los hoteles de baja altura y cubierta a dos aguas con terminación de tejas cerámicas, proyectados por el arquitecto Raúl González Romero y repetidos casi de igual forma en diversas playas como Ancón (Trinidad) y Marea del Portillo (Pilón), y el proyecto realizado por el arquitecto Mario Girona para un hotel de cinco plantas diseñado a partir de un sistema constructivo de doble viga ejecutado en Santa María del Mar (La Habana) y en Pasacaballos (Cienfuegos). Esta tendencia a la repetición del mismo proyecto en diferentes lugares, incluso para instalaciones hoteleras, alcanzó su máxima expresión con el uso del sistema constructivo prefabricado «Girón», desarrollado para edificaciones escolares y posteriormente empleado en casi todos los programas sociales e incluso habitacionales. Así un mismo proyecto de hotel de cuatro plantas, con ligeras modificaciones, fue ejecutado en numerosas ciudades cubanas. El principal proyecto hotelero de nueva planta construido en los años setenta en la ciudad capital fue el Hotel Tritón, proyecto del arquitecto Vicente Lanz, ubicado en los terrenos de Monte Barreto en Miramar, zona urbana que había quedado sin construir al triunfo de la Revolución. Es un edificio de 20 plantas con tipología de torre y basamento, ejecutado con el sistema constructivo de «moldes deslizantes», también utilizado en edificios altos de vivienda, que solo se repitió en su «torre gemela», el Hotel Neptuno, completada posteriormente. Este complejo Neptuno-Tritón fue el primero de la actual zona hotelera y de negocios al oeste de la capital, desarrollada, fundamentalmente, a partir de los años noventa (Figura 9). Figura 9_Complejo Hoteles Neptuno-Tritón. Figura 10_Hotel Panorama. Figura 11_Hotel Meliá Habana. Durante los años setenta La Habana no contaba con un mercado turístico, por lo cual parte de los hoteles más antiguos fueron cerrados, transformados en hábitat precario tipo «cuartería» o demolidos por su alto grado de deterioro. Sin embargo, desde finales de esa década, la Oficina del Historiador de la Ciudad comenzó los trabajos de rescate de La Habana Vieja, gracias a lo cual, este centro histórico con su sistema de fortificaciones fue incluido en la lista del Patrimonio Mundial en 1982, hecho que contribuyó a impulsar la continuación de su rescate y conservación, y a promover nuevamente el turismo en la ciudad. No obstante, por las razones antes expuestas, a inicios de los años noventa La Habana mantenía solo la mitad de la capacidad de alojamiento con que contaba en 1959 [16]. La construcción del Palacio de Convenciones en 1979 al oeste de la ciudad inició la promoción de Cuba y especialmente de La Habana, como lugar de encuentros, lo que favoreció el desarrollo de nuevos hoteles al oeste de la ciudad, cuya vocación para las modalidades de turismo científico y de eventos quedó reforzada con al auge del Polo Científico del Oeste a partir de los años ochenta. Esto sentó las bases para el crecimiento del turismo internacional en la capital durante los años noventa con un producto más diversificado como alternativa a la crisis económica denominada «Periodo Especial en tiempo de paz». Se establecieron alianzas con entidades foráneas, empresas y cadenas hoteleras internacionales a través de la inversión directa y la gestión hotelera o la combinación de ambas [18]. Lamentablemente, estos fenómenos condicionaron la construcción de proyectos desarrollados en el extranjero, por lo general desvinculados de las condiciones climáticas y las tradiciones culturales y arquitectónicas cubanas, a pesar de que siempre existió una entidad nacional como contraparte. Entre los hoteles construidos en La Habana durante esa época se encuentra el Cohíba en El Vedado, cuyo proyectista cubano fue al arquitecto Raúl González Romero. En el nuevo centro turístico y de negocios de Miramar se ubicaron, entre otros, el Occidental Miramar, también de González Romero, que rompió con la trama y el grano urbano de la zona, el Panorama, encargado a la Empresa DCH, e iniciado por el arquitecto Roberto Caballero, quien intentó convertir en un atrio ventilado por diferencia de temperaturas lo que terminó siendo un gran invernadero (Figura 10), y el Meliá Habana, del arquitecto Abel García, mejor adecuado a la protección solar que demanda el clima de La Habana (Figura 11). En 1993 el centro fundacional de la ciudad fue declarado «Zona priorizada para la conservación». En 1994 se creó la compañía Habaguanex, encargada de la gestión económica, y a partir de 1995 se consideró «Zona de alta significación para el turismo» [19]., gracias a lo cual fue posible la gestión autofinanciada del territorio. Se refuncionalizaron antiguos hoteles, mansiones y palacios fueron transformados en pequeños hostales y se construyeron nuevas instalaciones de alojamiento con pocas capacidades y servicios reducidos, para el turismo cultural. Entre ellos pueden destacarse el Hostal Los Frailes, mostrado en la Figura 12, el hotel Habana 612 y el hotel Comendador. Figura 12_Hostal Los Frailes. Como parte de las medidas tomadas para contrarrestar la crisis económica de los noventa se autorizó el alquiler de habitaciones en viviendas, e incluso de viviendas completas, con fines turísticos, con lo cual se ampliaba la capacidad de alojamiento, y hoy ha continuado aumentando el contacto de los turistas con los habitantes de la ciudad, lo que es de gran interés para el turismo cultural y reporta un beneficio económico para las familias que se dedican a esta actividad. No obstante, esta opción no se distribuye de forma uniforme en toda la ciudad, ya que los turistas prefieren alojarse en la zona norte y se requiere de un estricto control para evitar afectaciones urbanas [20]. El incremento de esta modalidad durante la segunda mitad de los noventa se debió, en parte, a la desaceleración del proceso inversionista para ampliar la planta hotelera estatal y a la estrategia de aminorar su crecimiento, incrementando las inversiones en la red extra hotelera, ya que en la primera mitad de la década había ocurrido lo contrario, es decir, el 73 % de la inversión se dedicó a la construcción de capacidades hoteleras y solo el 27 % a otros tipos de infraestructura [21]. El siglo XXI. Actualidad y perspectivas de los hoteles en La Habana Las instalaciones de alojamiento hotelero en el siglo XXI se han diversificado a escala internacional. La gastronomía ha pasado a ser un sello distintivo que ha demandado mejor equipamiento y mayor calidad en los espacios y servicios [22]. El contexto se caracteriza por una mayor competencia, elevado impacto de las Tecnologías de la información y la comunicación (TICs) y complejos procesos empresariales que provocan fusiones, adquisiciones, integraciones y alianzas del producto hotelero con operadores y transportistas. Esta situación global condiciona la dependencia nacional del capital y la tecnología extranjera para enfrentar la competencia (Gutiérrez Castillo y Gancedo Gaspar, 2001). En la primera década del siglo XXI se volvió a priorizar la construcción de nuevos hoteles en los principales polos turísticos de sol y playa, como Varadero, los cayos del Norte de Villa Clara, Ciego de Ávila y Camagüey, y al norte de la provincia de Holguín. Este turismo de estación se complementa con otras modalidades que se ofrecen durante todo el año como el cultural, de ciudad, científico, académico y de convenciones [23]. La ampliación del hotel Parque Central, proyectado por el equipo del arquitecto José Antonio Choy es un ejemplo de ese periodo, que se integra al contexto con una imagen contemporánea (Figura 13) y constituye un referente atractivo para ciertos grupos de viajeros, al ser diseñado por el arquitecto nacional de mayor relevancia. Figura 13_Ampliación del Hotel Parque Central. Figura 14_Rehabilitación Hotel Saratoga. También se rehabilitaron y ampliaron hoteles como el Saratoga, frente al capitolio, con los arquitectos Orestes del Castillo y Abiel San Miguel como proyectistas generales, al cual se le adicionaron dos nuevas plantas sin grandes afectaciones al tradicional perfil de esa importante fachada del Prado habanero (Figura 14). En el último lustro se han producido cambios en el contexto político mundial y La Habana ha recibido reconocimientos internacionales1 que validan sus múltiples valores. El turismo ha constituido la segunda fuente de divisas del país [24], y se encuentra en acelerado crecimiento, que pretende ser consolidado en las inversiones futuras.4 Igualmente deberá seguir aumentando el sector no estatal que actualmente opera 26 224 habitaciones [25]. Se amplían las capacidades de alojamiento mediante grandes instalaciones. Nuevos edificios altos aparecen cerca del litoral norte de la Habana y en el centro histórico de la ciudad, lo cual suscita un amplio debate con opiniones divididas en cuanto a la conveniencia del crecimiento en altura y la ruptura del perfil de la ciudad. No obstante, por lo general siguen siendo diseños foráneos donde las empresas cubanas suelen desarrollar los proyectos ejecutivos de las ideas que aportan las entidades extranjeras, en ocasiones, de inferior calidad que otras que han sido ofrecidas por arquitectos cubanos. Entre los más significativos hoteles recientemente concluidos en La Habana Vieja se encuentran el Paseo del Prado (Figura 15), cuya escala rompe el ritmo tradicional de una de las fachadas más emblemáticas de La Habana, el Packard, y el Manzana (Figuras 16 y 17), cada uno de los cuales se integran con una edificación o una preexistencia, explotando la muy actual «piscina infinita» para disfrutar de importantes vistas de la ciudad. Figura 15. Hotel Paseo del Prado Figura 16. Hotel Packard. Figura 17. Hotel Manzana. 1 La ciudad hoy forma parte de la Lista de las nuevas siete ciudades maravillas del mundo (proyecto New7Wonders) y desde 1982 se reconoce por la UNESCO su condición de Patrimonio cultural de la Humanidad a parte de su territorio más antiguo: el Centro Histórico de la Ciudad de La Habana y su sistema de fortificaciones. Con independencia de los compromisos que se derivan de la colaboración internacional en la industria turística, el futuro de la arquitectura hotelera en Cuba y particularmente en La Habana, demanda de concursos y licitaciones que permitan a los arquitectos cubanos demostrar sus capacidades. 4. CONCLUSIONES Es posible identificar cinco grandes etapas en la evolución de la arquitectura hotelera de La Habana: la colonia, la primera mitad del siglo xx, la década del cincuenta del pasado siglo, la etapa revolucionaria hasta finales del siglo xx (dentro de la cual también existen periodos diferenciados) y el siglo xxi hasta hoy. Los principales acontecimientos que han condicionado el auge del turismo en La Habana se pueden resumir en: la guerra de independencia y la intervención norteamericana a finales del siglo xix que generó un auge de la construcción de hoteles en La Habana, aprovechando la zona del ring, liberada a partir de la demolición de las murallas; la Primera Guerra Mundial que frenó el turismo norteamericano hacia Europa y promovió su alza en La Habana durante las primeras décadas del siglo xx; la aspiración de convertir a La Habana en «Las Vegas del Caribe», con un auge en el turismo del ocio durante la década del cincuenta del siglo xx; la promoción de Cuba como lugar de encuentros para el turismo científico y de eventos, así como la inclusión de La Habana en la lista del patrimonio mundial desde los ochenta del pasado siglo, y por último, su declaración como «Ciudad Maravilla», en el siglo xxi. En la trama urbana histórica los hoteles mantuvieron la tipología de habitaciones entorno a un patio interior. En la medida en que el desarrollo hotelero se fue extendiendo al oeste aparecieron los edificios altos con habitaciones a ambos lados de un pasillo central, y en la década del cincuenta se diferenció el volumen en torre y basamento. No obstante, se mantiene hasta hoy la concepción del hotel como complejo centro de entretenimiento donde los turistas pasen la mayor parte del tiempo. El retorno a la ciudad histórica a fines del siglo xx y la autorización para alquilar habitaciones turísticas en edificios residenciales han permitido recuperar el alojamiento a pequeña escala y mínimos servicios, como complemento al turismo de ciudad. Aunque La Habana no sufrió la repetición de los proyectos de hoteles, hace décadas que padece de la importación de proyectos foráneos y la limitada oportunidad de creación de los arquitectos cubanos en este campo. REFERENCIAS 1- GONZÁLEZ ROMERO, R. (1982). Las tipologías de hoteles en Cuba. Arquitectura y Urbanismo, III (1), 30- 43. 2- MATAMOROS TUMA, M. (2001). Diseño de Interiores en instalaciones turísticas. La década de los 90. Arquitectura y Urbanismo, XXII (3), 38-49. 3- PEDROSO ALÉS, A. (2011). Las hospederías habaneras en el siglo XIX. Revista de la Arquidiócesis de La Habana Palabra Nueva, 210, 39-46. 4- BIANCHI ROSS, C. (2010, 3 de noviembre). Hoteles. Juventud Rebelde. Recuperado el 20 mayo de 2020 de http://www.juventudrebelde.cu/columnas/lecturas/2010-11-13/hoteles 5- DE LAS CUEVAS TORAYA, J. (2001). Los Hoteles en la Cuba colonial. Obras, 17, 36-39. 6- NORVAL, A. J. (1936). La industria turística. Recuperado el 19 julio de 2020 de https://www.eumed.net/cursecon/libreria/2004/ajn/ajn.htm 7- MENÉNDEZ GARCÍA, M. (2007). La casa habanera. Tipología de la arquitectura doméstica en el centro histórico, Ediciones Boloña. 8- MARTÍN, M. E., Y RODRÍGUEZ, E. L. (1998). La Habana: Guía de Arquitectura. Editorial Junta de Andalucía. 9- DE LAS CUEVAS TORAYA, J. (2011). 500 años de construcciones en Cuba. Editorial Chavín. 10- OLIVARES CÚCALO, R. (2011). Los hoteles en Cuba hasta 1959. El Colimador. Recuperado el 5 de julio de 2020 de http://elcolimador.cubava.cu 11- PESTANO MENDOZA, A. (2013). Tipología arquitectónica civil-pública en el centro histórico La Habana Vieja (Tesis de Maestría). Instituto Superior Politécnico José Antonio Echeverría (CUJAE). 12- CHERBENCO, D., LEVY-GEGATI, P., Y TYSZBEROWICZ, J. (2012). Arquitectura hotelera. Revista ARQHYS. Recuperado el 19 julio de 2020 de https://www.arqhys.com/contenidos/hotelera- arquitectura.html 13- FLORENCIAS OLIVEROS, O., HERRERA-PÉREZ, J. (2010). Ampliación habitacional del Hotel Princesa del Mar (Tesis de Diploma). Instituto Superior Politécnico José Antonio Echeverría (CUJAE). 14- LLOGA FERNÁNDEZ, R., Y SÁNCHEZ MARTÍNEZ, O. (2013). Los hoteles en el Malecón tradicional: una mirada a través de la evolución de la arquitectura hotelera en La Habana. Arquitectura y Urbanismo, XXXIV (2), 102-115. 15- CASTELLANOS RUBIO, A. (2011). De La Habana ocupada a Las Vegas del Caribe. Evolución de la arquitectura hotelera en La Habana entre 1902 y 1958 (Tesis de Diploma). Universidad de La Habana. 16- PÉREZ GUILARTE, Y. (2015). La gestión del turismo cultural en la Habana Vieja. International Journal of Scientific Management and Tourism, 1, 61-72. 17- SEGRE, R. (1989). Arquitectura y Urbanismo de la Revolución cubana. Editorial Pueblo y Educación. Zamudio Vega, L. S. (2013). Arquitectura y Turismo. La arquitectura como reclamo turístico. Revista Urbano, 16 (28), 58-67. 18- DE MEZA PÉREZ, G., ZALDÍVAR-PUIG, M., Y MARTÍN-FERNÁNDEZ, R. (2016). La expansión internacional de la industria hotelera de los países desarrollados como opción estratégica para los países subdesarrollados. Economía y Desarrollo, 157 (2), 23-38. 19- OFICINA DEL HISTORIADOR DE LA CIUDAD. (2011). Plan Especial de Desarrollo Integral (PEDI), Plan Maestro para la Rehabilitación Integral de la Habana Vieja. Oficina Del Historiador De La Ciudad De La Habana. 20- COLLADO BALDOQUÍN, N., RUEDA GUZMÁN, L., GONZÁLEZ COURET, D., Y LEMUS MESA, K. (2020). The impact of tourist accommodation in residential buildings at Vedado, Cuba. Revista Interamericana de ambiente y turismo, 16 (1), 35-48. Recuperado el 19 julio de 2020 de https://scielo.conicyt.cl/scielo.php?script=sci_abstract&pid=S0718235X2020000100035&lng=en&n rm=iso 21- GUTIÉRREZ CASTILLO, O., GANCEDO-GASPAR, N. (2001, 20 de mayo). Estrategia de desarrollo del turismo en Cuba: resultados, retos y perspectivas. Proyecto social: Revista de relaciones laborales, (9), 85-106. Recuperado el 19 julio de 2020 de https://dialnet.unirioja.es/servlet/articulo?codigo=209928 22- ALMENDROS, A. (2011, 3 de diciembre). El hotel del siglo XXI. La razón. Recuperado el 20 mayo de 2020 de https://www.larazon.es/historico/5126-el-hotel-del-siglo-xxi-QLLA_RAZON_417161/ 23- GUTIÉRREZ CASTILLO, O., GANCEDO-GASPAR, N. (2001, 20 de mayo). Estrategia de desarrollo del turismo en Cuba: resultados, retos y perspectivas. Proyecto social: Revista de relaciones laborales, (9), 85-106. Recuperado el 19 julio de 2020 de https://dialnet.unirioja.es/servlet/articulo?codigo=209928 24- AYALA CASTRO, H. (2020). Comportamiento de ingresos por turismo internacional en Cuba 2014-2018. Economía y Desarrollo, 163 (1) 1-21. Recuperado el 20 mayo de 2020 de http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S0252-85842020000100013 25- PERERA RUBIO, A., Y TAMAYO, R. (2019, 31 julio). Chequeo de los programas de turismo y desarrollo industrial: desafíos y proyecciones a largo plazo en Cuba. Cubadebate. Recuperado el 30 de abril de 2020 de http://www.cubadebate.cu/noticias/2019/07/31/reunion-de-chequeo-del- programa-de-turismo- defenderlo-y-hacerlo-mas-eficiente-en-cuba/ 26- Felipe, Katheryn (2016, 4 de mayo). Cuando todos los caminos conducen a La Habana. Granma. Recuperado el 5 de julio de 2020 de http://www.granma.cu/Feria-Internacional-de-Turismo- 2016/2016- 05-04/cuando-todos-los-caminos-conducen-a-la-habana-04-05-2016-23-05-14 Sobre los autores Natali Collado Baldoquin. Arquitecta. Profesor Auxiliar de la CUJAE. Doctor en Ciencias Técnicas Luis Alberto Rueda Guzmán. Arquitecto. Profesor Titular de la CUJAE. Doctor en Ciencias Técnicas Dania González Couret. Arquitecta. Profesor Emérito de la CUJAE. Doctor en Ciencias SUSTAINABLE MATERIALITY IN PRESERVATION: A CASE STUDY OF CALIFORNIA BUNGALOW Xiaolin Chen 1, Nathan van de Bossche 2 1, 2 Department of Architecture and Urban Planning, Ghent University, 1e-mail: Xiaolin.Chen@UGent.be ABSTRACT Building material research and debate have run through architectural history in various ways. Material performance in architecture varied due to the wide variety of materials, processing techniques, and construction methods. Understanding materiality and material performance is a major issue in architectural expression, which also works for value assessment in historic preservation practice. This paper uses typical California Bungalows as a case study to describe how materiality and material performance changed and were sustained over time from one end of the form. On the one hand, as a predominantly residential building style in the early twentieth century, the California Bungalow materialized the American dreams of the wealthy middle class and realized their social acceptance with specific inhabit space, craftsmanship, and materials; on the other hand, as it spread and circulated toward the east, the California Bungalow became market-oriented and prefabricated, as well as changed in materiality to meet the rapidly expanding demand. This paper depicts the correlated relationship between sustainable materiality and material performance, based on a detailed analysis of the material, craftsmanship, and mail catalog, and briefly identifies the inherent challenges that influence architectural design and inheritance, which may contribute to the further discussion on material authenticity in preservation. KEY WORDS: California Bungalow, Materiality, Sustainable preservation, Change over time MATERIALIDAD SOSTENIBLE EN LA PRESERVACIÓN: UN ESTUDIO DE CASO DE BUNGALOW DE CALIFORNIA RESUMEN La investigación y el debate sobre los materiales de construcción han recorrido la historia de la arquitectura de varias maneras. El desempeño de los materiales en la arquitectura varió debido a la amplia variedad de materiales, técnicas de procesamiento y métodos de construcción. Comprender la materialidad y el desempeño de los materiales es un tema importante en la expresión arquitectónica, que también funciona para la evaluación del valor en la práctica de la preservación histórica. Este documento utiliza los bungalows típicos de California como un estudio de caso para describir cómo la materialidad y el desempeño material cambiaron y se mantuvieron a lo largo del tiempo desde un extremo del formulario. Por un lado, como un estilo de construcción predominantemente residencial a principios del siglo XX, California Bungalow materializó los sueños estadounidenses de la clase media adinerada y logró su aceptación social con un espacio habitacional, artesanía y materiales específicos; por otro lado, a medida que se extendía y circulaba hacia el este, el California Bungalow se volvió prefabricado y orientado al mercado, así como también cambió en materialidad para satisfacer la demanda en rápida expansión. Este documento describe la relación correlacionada entre la materialidad sustentable y el desempeño del material, con base en un análisis detallado del catálogo de materiales, artesanía y correo, e identifica brevemente los desafíos inherentes que influyen en el diseño arquitectónico y la herencia, que pueden contribuir a la discusión adicional sobre el material. autenticidad en la conservación. PALABRAS CLAVES: California Bungalow, Materialidad, Preservación sostenible, Cambio en el tiempo 1. INTRODUCTION Materiality is described as the ultra-property generated by the interaction of physical materials and humans. In architecture, materiality is not limited to the perceived images and objects in the view, but also the circumstance that is realized by materials, and the lifestyle associated with the live movement. Existing buildings are places of collective memories and symbols of ethnic identity. The materials in architecture dominate the material culture from typology to phenomenology [1]. Architecture, which is associated with the arts and handicrafts, is also a materialization of life, representing and circulating with human body movement. The archival in architectural history follows the nature of metamorphoses and changes over time. Various perspectives embedded in archives, materials, and building components assemble and enrich our understanding of material lives in architecture history [2]. Current research on architectural materiality includes but is not limited to social humanity, archeology, and civil engineering. Many scholars associate materiality with living houses to depict social life in a particular class and social environment, while ignoring internal materiality in architectural material and construction [3, 4]. Connor investigated building demolition in the city of Minneapolis and found that there is no significant relationship between structural material and building service life, particularly in residential buildings [5]. Actually, the material lives of buildings are embedded not only in material structure but also in other relative materiality in the market and social environment. Questions about how the building constructs its materiality, as well as how the materiality passed and changed over time remain. As Heather mentioned “History-like future is a medium for dreaming about the transformation of social life”, research on building materiality is thinking about transformation in the past and future [6]. Advanced research on architectural materiality could provide a theoretical foundation for studying building durability and guiding the flexibility in existing building preservation and renovation. This research aims to re-assemble the sustainable materiality of buildings from physical components and social culture perspectives, as well as to identify the inherent challenges that influence architectural preservation and inheritance. The study will focus on how buildings’ materiality was constructed, what characteristics comprise the materiality, and how materiality contributes to architectural design and preservation. Based on a case study on California Bungalows, the research will reveal the material culture of architecture in a more integrated way. To better understand the materiality of the California Bungalow and its involvement over time, two early-stage typical craftsman-style suburban bungalows and a typical lower-class suburban bungalow are studied as well as its pass and change over time. 2. CASE STUDIES OF CALIFORNIA BUNGALOW Sally.B referred to Bungalow as the “State first brand name housing commodity” in his article to exhibit its successful captivation in the first 30 years of the 20th century [7]. Imported by the British as a winter cottage, the bungalow grew in California’s warm climate, became a predominant resident house style in the United States, and spread successfully from west to east as well as overseas to Australia[15]. The California gold rush introduced a wealth and settlement boom to the temperate state. Initially, the California Bungalow was designed as a winter retreat for wealthy families from the east. Architects Charles and Henry Green of Greene and Greene built the first mansion-sized bungalow in 1908. The ultimate bungalow reflects the aesthetic philosophies of the Art and Crafts movement in handicrafts as well as the concept of “Back to natural mentality”. Furthermore, the bungalow is also known as an alternative name of the American craftsman movement, which returns to traditional simplicity and the use of local natural materials in reaction to the industrial revolution. Crafts in traditional handbooks, as well as art and crafts are propagated to the market and influence the real-estate taste with printed media. The Craftsman, a magazine founded by Gustav Stickley, was first published in 1901 and hit a great chord in American popularity. Embodied in the craftsman bungalow style, the magazine ennobled the modest homes for the rapidly expanding middle class. The “craftsman master built” bungalow is associated with the materialization of American dreams, and was soon popularized among the increasing middle class as a status of social acceptance [14]. As the rising middle class moved from apartments to private houses in the suburbs in large numbers, the bungalow found its way into the real estate market and established a housing prototype at that time by spreading in mail order catalogs, pattern books, advertisements, and films. Commercialized bungalows offered an easy, cheap, and fast shoebox house for a single family, alleviating urban land shortage issues [15]. Then, the California Bungalow evolved into an industry product, assembled with prefabricated materials and sold directly to homeowners by a real-estate company, eliminating expansive handwork. The 1920s witnessed the boom of California Bungalows but also its decline [16, 17]. The California Bungalow lost its cultural status as a result of some social factors, including but not limited to the rise of colonial and Mediterranean taste, the rise of the ranch house in the working class, and the political influence of the world war. Some of the façades were altered to cater to the social taste, but the function plan remained. Until the 1980s, the arts and crafts revival and the magazine “American Bungalow” offered a bungalow revival retro trend. The California Bungalow style was revived for its evocative residential culture. 2.1 Charles M. Pratt House (Greene and Greene, 1909, Ojai, CA) Pratt House is a masterpiece of ultimate bungalows by Greene & Greene, who were honor as” formulator of a new and native architecture, reflect with grace and craftsmanship emerging values in modern living” [8]. The house embodied the American craftsman style and revealed its association with other Greene’s Bungalow designs in materiality. The Greene brothers were given the most freedom in designing the family’s winter house in the Ojai valley by industrialist Charles Millard Pratt. To ensure a truly natural setting, the adjacent 38-acre parcel was purchased to preserve the view, which is consistent with the nature mentality in the arts and crafts movement. This mansion-size bungalow is a two-story timber frame, with a “V” plan. As an early example of California bungalow, the Pratt house, has all distinctive characteristics of a bungalow, such as large gable roofs with wide overhangs and exposed beams, recessed porch, wood sheathing walls, and masonry chimneys. (fig.1) The chimney and foundation were constructed of local sandstone boulders. Though the Greene eliminated some decorative components from previous design, such as the false beam and decorative mannered veneer, the well-crafted interior details and furniture also reflect the Greene’s finest works. All major rooms were constructed of exposed redwood beams and paneling of Port Orford cedar and redwood. The back porch is an open-timbered end gable with Japanese -influenced joinery. The front porch is constructed with rock piers and is completely supported by massive beams that taper in thickness. The beams were also skinned with a copper cap [9]. The house was designed in a V-shape plan, with a low ceiling living room at the pivotal point, and the bedrooms and kitchen located in the two wings. (fig.2) The living room served as hallway connecting the open porch outside to the bedrooms and dining room inside. It had a typical California Bungalow function plan, with the living room, dining room and kitchen serving as living space, and bedrooms for sleeping. The fireplace is central to the living space. The Pratt house exemplified their philosophy of maintaining an open relationship with the natural landscape. Figure 1: Front elevation of Charles Pratt House,1908-1911, Ojai, CA (Source: Wikimedia Commons) Figure 2: The first floor plan of the Pratt house (Source: Wikimedia Commons, edited by the author ) 2.2 Henry Weaver House (Milwaukee Building Company, 1910, Santa Monica, CA) Henry Weaver house, with distinctive American craftsman California Bungalow features, highly responded to the masterpieces of Craftsman architecture by Charles and Henry Greene and others. The house was designed by Milwaukee Building company, an architecture company known for notable craftsman houses in Los Angeles. This is a typical middle-class California Bungalow, commissioned by Henry Weaver, a wealthy and prominent hotel owner from midwest [10]. Similar to the Pratt House, the Henry Weaver house is featured low-pitched gable roofs and extended eaves, which provide shade and shelter in California’s hot climate. (fig.3) Henry Weaver House, as a representative of craftsman design, is also constructed with signature massive wood beams and posts. A deep recessed porch front is framed with elaborated porch piers, Japanese -influenced joinery and large brackets under the eaves. Natural materials were also used in the construction, such as the wood frame doors and windows, as well as clay bricks in the façade and foundations. Extensive wood details that featured in the interior, such as beams, cornices, and built-in furniture, also exhibit fine craftsmanship. The Henry Weaver house is a one-and-a-half story detached house with a typical single-family floor plan in a gardening setting. The outdoor porch connects the exterior landscape to the entrance living room. In the central place of the living room is an arched brick fireplace. A glassed-in sunroom was originally built alongside the front porch. The living space was distributed in the front while the bedrooms were located in the rear. Figure 3: Henry Weaver House, 142 Adelaide Drive, Santa Monica, CA (Source: Santa Monic Public Library Image Archives) 2.3 Harriet Phillips Bungalow (1926, Claverack, NY) Phillips Bungalow is a typical catalog house that is assembled from prefabricated materials and sold directly to homeowners by a real-estate company. The influx of middle-class residents, as well as railway expansion and wealthy real estate speculators, all contributed to the development of a suburban culture with similar residential frameworks [8]. As a consequence of the eastward spreading of the bungalow style through media and publishing, this New York bungalow house exhibits all identical bungalow features.(fig.4) Harriet Phillips Bungalow, which featured primary bungalow characteristics such as wide overhanging eaves, gable roofs and front porch, but varied slightly in materials from bungalows in California and some catalog ads. First, the roof is now shingled with asphalt, which is a more common roof material in the north and east of the United states to withstand storms and snow. Similarly, the exterior façade is attached with stucco rather than wood sheathing to ensure long-term durability and thermal comfort inside the house. Moreover, because the house was prefabricated, the beams are not as massive as in the craftsman style. All of the overhanging beams are uniformly smaller in size. Instead of the southern wood species in California, the built-in furniture was made of Douglas fir woodwork, which is more common in northern region. The porch steps and chimneys were all constructed of local bricks and concrete. To fit the colonial taste in east, two dormer windows were designed in the front and rear. Bay windows replaced the grounded windows that were common in California. Signature elements from other styles were also placed in the house, such as Tuscan order columned archway from the dining room and turned spindle balusters on the stairway. Harriet Phillips Bungalow was also built on a typical single-family floor plan. A front living room that connects the front porch and the dining room. Two bedrooms were placed on one side and connected to the kitchen and dining room on the other side through a hallway. As a signature element, the brick fireplace is located on the east side of the living room. The front porch was enclosed soon after construction because the open porch is not suitable for the chilly winters in New York. Figure 4: Photo collage of Harriet Phillipe Bungalow (upright: current photo of Harriet Bungalow, the others are catalog advertisements from different companies with similar performance. The main differences occurred in chimney place and materials in porch piers. Source from Sears catalog, collaged by the author. ) 3. DISCUSSION According to the case study, the materiality of California Bungalow can be classified into three aspects: the tangible materials and components of the building; the function plan, and the lifestyle culture raised by the building. Materiality evolved with the middle class development, spread with the real estate market and declined as social aesthetical taste changed. 3.1 Materials and components As a national brand, California Bungalows demonstrates consistency in primary form. A typical California Bungalow is a one or one-and-a-half-story house with symbolic low gable roofs, overhanging eaves and exposed beams. The exterior is always stucco or clapboard sheathed. A recessed porch is designed in front of the entranceway to provide a shaded but leisurely life under California sun. California Bungalows are also distinguished by decorative wood or stone details as well as built-in cabinets and shelving. In early times, the wealthy middle class commissioned architects to design a bungalow. The ultimate bungalow established the decorative craftsman style of the California Bungalow, with natural materials and craftsman details. The Craftsman style bungalow materialized American dream of the middle class and oriented the aesthetic taste in real estate. However, when the real estate industry oriented the market with catalog mail, the bungalow evolved into a commercial product with consistent performance and construction. The costly handworks were eliminated, but the built-in cabinet was retained to represent a leisure lifestyle option. As the California Bungalow spread from west to east, more changes occurred. First, despite being highly pre-fabricated, some components of the bungalow, such as the porch steps and chimney, were constructed with local sourced materials. Initially, river boulders were used for foundation constructions to interact with the natural landscape, however as industrialization allowed for massive production of fired bricks, chimneys were primarily built with local clay bricks. Furthermore, while the same appearance may appear in the catalog of different companies, but the components and furniture varied in material and color considering the construction location, and local materials (fig. 5). Regional climate, for instance, is another factor that attribute to changes in materials. The roofs in the north were mostly shingled with masonry to withstand the heavy snow and storms. Another noticeable alternation was in built-in furniture. Craftsman furniture, as a symbolic of California Bungalow, also represented a middle-class leisure lifestyle, and was originally designed for permanent living [8]. As a result of the Art and Crafts movement, the furniture in early Craftsman style buildings was well crafted decorative details. When a bungalow was sold through real estate, all of the details became prefabricated, with a similar appearance and permanent purpose but no more handwork. Figure 1: A typical California Bungalow in Chicago, whose prototype is supposed to be the Harris Home from Sears. The Constructed building varied a little in appearance. (Source from Oklahoma House by mail, collaged by the author) 3.2 Function plan 3.3 Typically, a bungalow house was designed for a single family, with a living room, a dining room, a kitchen and two bedrooms, which was always advertised as a “Five rooms bungalow”. (Fig 5) A fireplace is a defining feature in the living space. From the 1910s, in respond to the increasing suburban house demand of the middle class, the mass of bungalows became smaller to fit the lots. Despite the reduced area, the main function plan composition remained the same five rooms. When the California Bungalows were transformed into prefabricates structures in the 1920s, the floor plan and performance of the building also became a flexible commodity in the real estate market. All of the buildings were designed between 1000 to 2000 square ft2 in size with all basic rooms. The exterior and interior performance in different company catalogs were the same, but the floor plan varied. For instance, an Oklahoma house was advertised on various company catalogs. The outdoor performance of the building were the same, but the floor plans varied. (fig. 6, fig.7) Figure 6: The same image used in different company catalogs. Similar features but varied in plan and the final performance. (Source from Oklahoma by the mail, collaged by the author) Figure 7: Catalog collage with a same performance but different floor plans in different advertisements, A typical California Bungalow in Chicago, with similar appearance in different companies’ catalogs, but varied after construction. Also, the floor plan varied in each advertisement. (Source from Oklahoma House by mail, collaged by the author) 3.4 Lifestyles in bungalows Despite that early handcrafts were no longer available in the development and spread of California Bungalows, all visual elements that comprised a leisure lifestyle were extracted and preserved over time. All the remaining characteristics define the bungalow style today. A questionnaire survey in Pasadena confirmed that middle class clients valued the signature elements most in a bungalow house [8]. As a result, the most appealing components in a bungalow are the porch (79%), built-in furniture (68%), natural materials (63%), and crafts (47%), which are regarded as signature characteristics in preserving the interaction with the natural environment. The investment is not only on the building, but also the leisure and comfort lifestyle. That’s why, in the 1990s, the “America Bungalow” magazine sparked a lifestyle revival and is still guiding a lifestyle nowadays. However, the values of signature elements may be undermined regarding to some social and environmental factors. For instance, the recessed porch which was originally designed to provide a shaded place to enjoy the sunshine and surrounding landscape, is not very welcome in northern regions and were closed by many families due to the chilly winter climate. Figure 8: The preserved features in kit house. The built-in cabinet and veneer were preserved in the restoration projects to make them the same as the catalog images. (Sources from pacific ready cut homes- 1925, collaged by author) 4. SUSTAINABLE PRESERVATION OF CALIFORNIA BUNGALOW Though the signature elements in California Bungalows changed slightly over time and regions, they were well preserved in design and restoration, providing a solid foundation for the sustainable materiality preservation. In addition to the tangible materials and components of the building, the circumstance and lifestyle realized by a California Bungalow should also be taken into account. The built environment and landscape should be preserved sustainably as well. Moreover, distinctive characteristics in bungalow changed a little during industrialization and commercialization, which were inevitable results in historic development, and should be considered flexible in restoration. For instance, adaptive reuse of the outdoor porch in the north should be considered for a sustainable lifestyle. The materiality of California bungalow is both consistent and flexible. On the one hand, the uniformity of the prefabricated components detracts from the aesthetic values, but it allows for a large amount of second hand component replacement in the restoration. Recycling makes the restoration more effective. On the other hand, arts and crafts values in various types of bungalows should be reassessed before the restoration. For instance, following the natural principle, revealing the original finished and rendering is a more sustainable way. When the historic overlayers illustrate more valuable stories, the situation may change. In the 1920s, some façade were changed to cater the colonial style and adopted some features from other styles, which should also be considered in the restoration. 5. CONCLUSIONS The sustainable materiality is based on signature characteristics, but it is associate with the movement of people in the building. Because changes are inevitable as the design and construction evolved and circulated, the inherent challenge in preservation is to maintain a sustainable lifestyle. This research could help owners and stakeholders better understand the sustainable materiality in the California Bungalows and serve as a reference for future design and restoration. REFERENCES 1. BILLE, Mikkel; FLOHR SORENSEN, Tim. Elements of Architecture: Assembling archaeology, atmosphere and the performance of building spaces. Routledge, 2016. ISBN 9781315641171. 2. Lee, J.A. “Be/longing in the archival body: eros and the “Endearing” value of material lives”. Arch Sci 16, 2016, pp. 33–51. 3. HARLEY, Joseph. “Material lives of the poor and their strategic use of the workhouse during the final decades of the English old poor law”. Continuity and Change, 30(1), 2015, pp. 71-103. 4. WINTER Robert. The California Bungalow. Los Angeles: Hennessey & Ingalls, 1980. 28 pp. ISBN 9780912158853 5. STRAUB, A. "Estimating the service lives of building products in use". Journal of Civil Engineering and Architecture, 2015, vol 9, pp.331-340 6. HEATHER Love. Feeling backward: loss and the politics of queer history. Cambridge: Harvard University Press, 2007. ISBN 9780674032392 7. WOODBRIDGE, Sally B. The California House. The Wilson Quarterly, Vol. 4, No.3 ,(Summer, 1980), pp. 83-91 8. BOSLEY, Edward R. Gamble House Greene and Greene Architecture in Detail. London: Phaidon Press, 1992. ISBN 9780714827476. 9. NPS. "National Registeration Form of Pratt, Charles M., House". National Park Service. 2002. 10. S. M. CONSERVANCY, "Henry Weaver House," Santa Monica Conservancy , United States . 11. COBOS, Karen Marie. California bungalow: Landscape of changing values.  California State University,1997. 12. ROTH, Leland M. A Concise History of American Architecture. New York: Harper & Row, 1980. 13. STARR, Kevin. Material Dreams: Southern California Through the 1920's. New York, N.Y: Oxford University Press, 1996. 14. STERN, Robert; DE LONG, David; SEARING, Helen. American Architecture:Innovation and Tradition. New York: Rizzoli, 1986. ISBN 9780847806454 15. DUFF Shelly. “The possibilities in neighborhoods – Utilizing accessory apartments in existing homes to address social, environmental, and economic issues”. Urban Design International 17:1, 2012, pp. 33-44. 16. FARAGHER, Johnny. Bungalow and Ranch House: The Architectural Backwash of California. Western Historical Quarterly, Vol.32, Issue 2, Summer 2001, pp. 149–173 17. Roessler-Holgate, Ella. California bungalow: promotion at play. University of New South Wales, 2019. 18. FREUDENHEIM, Lesile. Building with Nature: Inspiration for the Arts & Crafts Home. Gibbs Smith, 2005. 132 pp. ISBN 9781586854638 About the authors Xiaolin Chen, currently a PhD candidate from Ghent University, received Master of Science in historic preservation from the University of Pennsylvania. Focus on the preventive preservation of architectural heritage, and the hygrothermal performance of architecture. TÍTULO: PROPUESTA DE PROYECTO PARA LA CONSERVACIÓN DE UN EDIFICIO PATRIMONIAL EN EL CENTRO HISTÓRICO DE LA HABANA DE MANERA SUSTENTABLE. Ing. Claudia Ruiz Prieto 1 1IPN Instituto Politécnico Nacional (Escuela Superior de Ingeniería y Arquitectura, Unidad Tecamachalco), 1 ruizprietoclaudia@gmail.com RESUMEN El cambio de uso de una edificación patrimonial en el Centro Histórico de La Habana trajo consigo la elaboración de un proyecto de conservación del inmueble, en el que se propuso un edificio lo más ecológico posible, siendo un referente de las estrategias sustentables que son aplicadas en la arquitectura. A partir de ello, se esbozaron cinco estrategias fundamentales que rigen el diseño del edificio de manera sustentable: estrategias para el ahorro de energía, producción y uso de energías de fuentes renovables, reducción de la huella ecológica, captación y utilización del agua lluvia, así como el empleo de la jardinería como aislamiento y mejorador de la calidad del aire. Todas estas estrategias, sumadas a la intervención estructural de manera no invasiva en la edificación logran una nueva propuesta de análisis de intervención del patrimonio existente en Cuba, incluso mejorando las formas de conceptualizar los proyectos. PALABRAS CLAVES: diseño sustentable, conservación, proyecto, edificio patrimonial TITLE: PROJECT PROPOSAL FOR THE CONSERVATION OF A HERITAGE BUILDING IN THE HISTORIC CENTER OF HAVANA IN A SUSTAINABLE MANNER. ABSTRACT The change of use of a heritage building in the Historic Center of Havana brought with it the elaboration of a project for the conservation of the property that has proposed that the building be as ecological as possible, being a benchmark of sustainable strategies that can be applied. in architecture. From this, five fundamental strategies have been outlined that will govern the design of the building in a sustainable manner: strategies for energy saving, production and use of energy from renewable sources, reduction of the ecological footprint, capture and use of rainwater, as well as the use of gardening as insulation and to improve air quality. All these strategies, added to the structural intervention in a non-invasive way in the building, could achieve a new intervention analysis proposal of the existing heritage in Cuba, even improving the ways of conceptualizing the projects. KEY WORDS: sustainable design, conservation, project, heritage building. 1. INTRODUCCION Sustentabilidad: La Real Academia de la Lengua Española (RAE) lo define como lo “que se puede sustentar o defender con razones”. El desarrollo sustentable es hacer un uso correcto de los recursos actuales sin comprometer los de las generaciones futuras. Existen diferentes enfoques para definir la sustentabilidad, la definición adoptada por la World Commission on Environment and Development y formulada en 1987 en el mismo informe Brundtland, “Our Common Future” es la siguiente: “El desarrollo sustentable hace referencia a la capacidad que ha desarrollado el sistema humano para satisfacer las necesidades de las generaciones actuales sin comprometer los recursos y oportunidades para el crecimiento y desarrollo de las generaciones futuras.” El término “sustentabilidad” sufrió diferentes transformaciones a lo largo del tiempo hasta llegar al concepto moderno basado en el desarrollo de los sistemas socioecológicos para lograr una nueva configuración en las tres dimensiones centrales del desarrollo sustentable: la económica, la social y la ambiental [1]. Suecia, uno de los líderes actuales en sustentabilidad tiene una definición un poco más holística: “Sustentabilidad es la habilidad de lograr una prosperidad económica sostenida en el tiempo protegiendo al mismo tiempo los sistemas naturales del planeta y proveyendo una alta calidad de vida para las personas.” Figura 1: Aspectos fundamentales que incluye la Sustentabilidad. Fuente: Internet La sustentabilidad tanto en la construcción como en otros sectores debe ser la realidad; la meta a alcanzar por arquitectos, ingenieros, contratistas es cómo construir edificios funcionales que sean más respetuosos con el Medio Ambiente, socialmente aceptables y económicamente beneficiosos. Thomas D. Verti (Chair, U.S. Green Concrrete Council) dijo: “Los diseñadores y constructores continuarán utilizando los materiales que les han servido bien durante muchos, muchos años. Pero la forma en que se fabrican y se incorporan esos materiales en sus proyectos cambiará a medida que se esfuerzan para tener un entorno más sostenible”. Por lo que es importante incorporar en este sector donde trabajamos ideas novedosas que confluyan en la integración social y económica respetando el Medio Ambiente; con lo que se conoce como la elaboración de construcciones exitosas. Después de escuchar la opinión de varios arquitectos e ingenieros los rasgos comunes para definir una construcción como exitosa fueron: - Mejor funcionalidad - Asegurar su longevidad - Mejorar los factores de los ocupantes - Reducir el uso de recursos - Estética Entonces, tratando de satisfacer de cierto modo estos aspectos, y analizando además la parte sustentable que deben tener los proyectos, se realiza la solución de la edificación ubicada en la calle Obispo, No. 204 en el Centro Histórico de La Habana Vieja con la finalidad de que su conservación fuese lo más sustentable posible. Figura 2: Ubicación del edificio y fachada por la Calle Obispo. Fuente: Archivo personal 2. SITUACIÓN ACTUAL DEL INMUEBLE: El edificio cuenta de cuatro niveles habitables con un mezzanine y un sexto nivel de cubierta. Debido a la edad y las diferentes funciones de la estructura se encuentran en ella varios sistemas estructurales y diferentes grados de conservación (las primeras crujías poseen columnas, vigas y losas de hormigón armado en buen estado, estas datan aproximadamente de finales de siglo XX). El resto de la estructura tiene un estado técnico de regular a malo; observándose muestras de corrosión en los elementos metálicos, pudrición y ataque de microorganismos en la fogonadura de las vigas de madera. Se localizan además varias zonas con infiltración de agua y presencia de plantas parásitas, manchas de moho y caída del revestimiento de los muros. De igual manera existen entrepisos con desplomes parciales y totales (Ver Figuras de la 3 a la 10). Se solicita la restauración del edificio para un nuevo uso como lugar de consulta y conferencias de una Asociación cuya sede es en La Habana. Actualmente se conserva la estructura vertical del mismo en casi su totalidad, compuesta por su fachada, muros colindantes e interiores, siendo todos ellos de mampuesto con espesores de aproximadamente 20, 30 y 50 cm. Los entrepisos y cubiertas originales del edificio se conservan; fueron demolidos dos entrepisos debido a la presencia de importantes deterioros y el aumento considerable de las cargas en dichos locales que pasaron a ser Sala de Conferencias y Archivos. El proyecto comenzó en 2019 con Ideas Conceptuales e Ingeniería Básica y en 2020 se realizó el Ejecutivo por la Empresa de Proyectos de Arquitectura y Urbanismo (RESTAURA) de la Oficina del Historiador de la Ciudad, en la cual la autora desarrolló la parte estructural y el proyecto arquitectónico fue llevado a cabo por la Arq. Talia Quesada como Proyectista General. Figuras de la 3 a la 10: Imágenes del estado en el que se encontraba el edificio antes de intervenirlo. Fuente: Archivo personal. La edificación cuenta con diversos subsistemas funcionales dirigidos fundamentalmente a: - Público: participantes de talleres, eventos, usuarios de la biblioteca, la sala de consulta, galería etc. - Trabajadores - Servicios: trabajadores encargados del mantenimiento y la logística del edificio. Para ello se tienen diferentes locales: vestíbulo, galería, biblioteca pública, habitaciones, almacenes, locales técnicos, salón de reuniones, archivos, oficinas, tienda, comedor, servicios sanitarios, sala de consulta etc. 3. ESTRATEGIAS Se llevaron a cabo cinco estrategias fundamentales a seguir para el desarrollo del proyecto de una manera sustentable: 1. Ahorro de energía Esta estrategia se desarrolló potenciando la iluminación y la ventilación natural. El objetivo que se persigue con esta es evitar los lugares climatizados que tanto se emplean en el país y que traen consigo alta demanda de combustibles fósiles. En la azotea se concibe el uso de doble cubierta para que esté sometida a la fuerte radiación solar. En esta se puede tamizar la luz, a la vez que en caso de lluvia ofrece cierta protección. Las ventanas son otro elemento importante en el confort. Se emplean los elementos tradicionales de las ventanas cubanas, la luceta de vidrio, las persianas y el postigo, para diseñar las carpinterías de acorde a la cantidad de luz necesaria o posibilidad de emplear ventilación natural. Figura 11: Posible carpintería. Fuente: Dossier de la Arq. Talia Quesada, Empresa RESTAURA. Para la iluminación además se realizó un estudio del análisis de las horas de sol para determinar cuáles son las superficies que reciben por más tiempo la incidencia del sol. Esto permite saber qué locales necesitan más protección solar y también dónde es más eficiente ubicar los paneles fotovoltaicos. Se realizaron simulaciones con diferentes softwares que contemplaron el horario de uso del edificio y los requerimientos de intensidad luminosa para realizar las tareas en cada espacio. 2. Producción y uso de energía de fuentes renovables En este caso se ubicaron paneles y calentadores solares en parte de la cubierta. 3. Captación y utilización de agua de lluvia Se captará agua pluvial para usarla en inodoros. Las áreas destinadas a la captación de agua de lluvia serán zonas no transitables de la cubierta. Esto permitirá que el agua captada sea lo más limpia. El uso que se le dará al agua captada será para el riego de las plantas de los diferentes jardines verticales y la cubierta verde. Además, se utilizará el agua recuperada para la descarga de los inodoros. Para el proceso fue necesario el estudio de un método que permita el aprovechamiento máximo del agua y cuyo procedimiento de manera general es similar en distintos lugares. Más adelante se explica brevemente n qué consiste y estos son los datos que se necesitan. Valores medios de precipitación mensuales para La Habana (datos de la Estación Meteorológica de Casablanca), se muestran en la Tabla 1 elaborada por la autora. MESES PRECIPITACIÓN (MM) ENERO 64 FEBRERO 54 MARZO 44 ABRIL 59 MAYO 118 JUNIO 177 JULIO 124 AGOSTO 133 SEPTIEMBRE 166 OCTUBRE 175 NOVIEMBRE 76 DICIEMBRE 54 Gráfico 1: Captación y demanda de agua lluvia en un año en La Habana. Elaborado por Talia Quesada. La demanda como dato en Cuba se determina en la Norma GOC 2020 556 061 en la parte asociada a los índices de consumo. Por ejemplo, los principales datos empleados fueron la demanda de agua (persona/día) en oficina (general 50 litros y en inodoros 21.5 litros); talleres y bibliotecas (general 30 litros e inodoros 10 litros); y habitaciones (general 350 litros y en los inodoros 35.6 litros) Otro proyecto donde se puede ver un análisis similar es un edificio residencial construido en la Ciudad de México donde además se diseñó un sistema para tratar y aprovechar agua de lluvia que escurre en las cubiertas. El agua captada se conduce utilizando el sistema de drenaje pluvial del edificio hacía un Filtro que realiza una limpieza primaria para obtener un agua filtrada que cumple con la NOM-003- SEMARNAT. Una vez pasa por este proceso el agua es almacenada y se utiliza para usos no potables como: sanitarios, limpieza de áreas comunes y vehículos, entre otros. El objetivo de este proyecto fue cumplir con el Sistema Alternativo de Captación y Aprovechamiento de Agua de Lluvia, exigido por el Sistema de Aguas de la Ciudad de México (Sacmex) para nuevas edificaciones. Además, permite aprovechar el agua pluvial disponible durante la temporada (mayo- octubre) y conseguir ahorros económicos. Por otra parte, al aprovechar el agua de lluvia en sitio, se impedirá su descarga en el sistema de drenaje municipal y por lo tanto se previenen inundaciones en la zona. Fig. 12: Edificio Residencial Campos Elíseos. Fuente: (soluciones@hidropluviales.com, s.f.) Fecha: 9 de julio de 2022. Para la realización de este tipo de proyectos se parte de un análisis amplio de diferentes datos: siempre se revisa la información disponible e infraestructura existente (visitas al sitio, levantamientos, revisión de planos existentes etc.); se lleva a cabo un análisis hidrológico y potencial de aprovechamiento pluvial con la finalidad de conocer el comportamiento del agua de lluvia y determinar el volumen de agua de lluvia que puede ser aprovechado. De igual forma, permite calcular las intensidades máximas de lluvia y los gastos de escurrimiento, información que se utiliza para diseñar los sistemas de tratamiento y el volumen de almacenamiento que se requiere. También se calcula el volumen anual aprovechable, se hace un análisis del gasto pico y se propone después la solución para el aprovechamiento pluvial. Además de esta solución el agua pluvial se puede emplear en otras soluciones en los proyectos; como el riego de jardines y zonas verdes, que, en la actualidad, por ejemplo, en Barcelona representa el 37,50 % del gasto total de agua potable que se destina a uso público según datos de Parcs I Jardins; se puede emplear también en riego de calles, edificios, lavados de autos, tomas de agua para limpieza; incluso se puede potabilizar pero para ello se demanda de tecnologías y procedimientos más costosos (desinfección con luz ultravioleta o la ósmosis inversa). Si queremos además manejar estadísticas del por qué es importante ahorrar el agua, estas son unas notas extraídas del artículo [2]: Según un estudio de la UNESCO, se estima que la Tierra contiene aproximadamente 1386 millones de kilómetros cúbicos de agua. Sin embargo, el 97.5% de esta cantidad es agua salina y solo el 2.5% es agua dulce. De esto, la mayor parte (68.7%) se encuentra en forma de hielo y nieve permanente en la Antártida, el Ártico y en las regiones montañosas. Luego, el 29.9% existe como agua subterránea. Solo el 0.26% de la cantidad total de agua dulce en la Tierra está disponible en lagos, embalses y cuencas, fácilmente accesibles para las necesidades económicas y vitales del mundo. También se conoce que el consumo medio diario de agua por habitante es según [3]: en Estados Unidos de 450 litros (existen casos extremos, como Los Ángeles y Phoenix (E.E.U.U.) o Perth (Australia) donde el consumo por habitante y día llega a los 1000 litros), Europa no supera los 175 litros mientras que existen decenas de millones de personas que viven con menos de 40 litros al día, límite establecido por la OMS como umbral de estrés hídrico para el ser humano. Todo esto sumado a estudios que demuestran que una cantidad de agua potable se pierde por fugas, desperdicios y mal empleo en los hogares; donde además del 40 al 50 por ciento de las actividades no necesitaría realizarse con esta agua. En cuanto al empleo de estas soluciones en proyectos de arquitectura se recomienda además siempre desechar los primeros litros de agua lluvia de lluvia, pues son las que lavan la superficie de captación como el techo o la losa, y también concentran la mayor cantidad de contaminantes tóxicos que provienen de la atmósfera. De hecho, existen ya en el mercado productos y tanques filtrantes que desechan automáticamente los primeros litros de esta agua. 4. Jardinería como aislamiento térmico y mejorador de la calidad del aire: la solución para lograr esta estrategia fue la ubicación de una cubierta verde en una sección de la azotea y muros verdes en exteriores e interiores del edificio. Fig. 13: Edificio Obispo No. 204 según la línea de deseo planteada. Fuente: Arq. Talia Quesada. 5. Reducción de la huella ecológica La huella ecológica tiene en cuenta todos los factores del estilo de vida, emitan o no gases al efecto invernadero que son nocivos para el entorno. Las consecuencias generadas por el Covid hicieron que la huella ecológica global se redujera casi en un 10%. El hecho es que según las cuentas se necesitan 1.56 Tierras como promedio global para satisfacer el apetito de la humanidad en otras palabras CONSUMIMOS MAS DE LO QUE EL PLANETA PUEDE REGENERAR. Por ejemplo, en el periódico “El País” del 23 de agosto de 2020 se publicó una lista donde se muestra que diez de las mayores economías del mundo son las responsables de 2/3 del impacto humano sobre los recursos del planeta. Gráfico 2: Países con mayor impacto ambiental. Fuente propia. En el proyecto se pretende realizar el mínimo de intervenciones constructivas aprovechando al máximo la estructura del edificio; usar en lo posible materiales y equipamientos ecológicos. - Los bloques de hormigón y losetas hidráulicas serán de la planta que produce sus elementos con el material producto de las demoliciones que se realizan en el Centro Histórico. - Los vidrios templados a usar en la carpintería serán del material sobrante de la fábrica ensambladora de paneles solares de Pinar del Río. - Se usarán en elementos de protección solar o panelería materiales naturales como el bambú. Se priorizarán especies endémicas. - Se usarán terminaciones tradicionales como el cemento pulido. - Se aprovecharán materiales existentes en buenas condiciones como perfiles metálicos para que sigan siendo parte del sistema estructural. Figuras 14, 15 y 16: Materiales empleados en el proyecto: bloques, vidrios y bambú. Fuente: Dossier de la Arquitecta Talia Quesada. Es importante aclarar que no es lo mismo huella ecológica que huella de carbono; esta última se calcula en equivalente a dióxido de carbono, tiene en cuenta todos los gases de efecto invernadero y se utiliza para evaluar el impacto de las actividades humanas en el Medio Ambiente. Figura 17: Integración de las cinco estrategias en el proyecto final del edificio.Fuente: Arq. Talia Quesada. 4. CONCLUSIONES El principal resultado de este proyecto fue la elaboración de una solución sustentable para una edificación que sufrió un cambio de uso; que además de la parte de contribución al Medio Ambiente generará empleos y contribuirá tanto a la economía nacional como a la sociedad a partir de su función en gran medida educativa. Puede decirse, además, que se necesita realizar este análisis en más proyectos en nuestro país y adoptar iniciativas como planes de ayudas económicas a proyectos de Energías y Recursos Renovables; que también se puede trabajar en una normativa respecto a la instalación de depósitos de almacenamiento de pluviales en edificios públicos; y lo más importante es admitir que con el debido análisis y trabajo se puede contribuir desde cualquier sector a la protección y cuidado de nuestro planeta. RECONOCIMIENTOS Se desea agradecer a la Empresa de Proyectos de Arquitectura y Urbanismo (RESTAURA) de la Oficina del Historiador de la Ciudad de La Habana con el departamento de Diagnóstico de la propia entidad, a inversionistas, a proyectistas y a la Fundación Núñez Jiménez del Hombre y la Naturaleza por ser los protagonistas directos de la elaboración de este proyecto. Referencias 1- Calvente, I. A. (Junio de 2007). El concepto moderno de sustentabilidad. Socioecología y desarrollo sustentable, 7. Obtenido de uaisustentabilidad@gmail.com 2- Souza, E. (06 de Junio de 2020). "Consejos para aprovechar el agua de lluvia en proyectos de arquitectura". ArchDaily. Obtenido de ISSN 0719-8914 3- Pérez, I. F. (2009). Aprovechamiento de aguas pluviales. ESCUELA POLITÈCNICA SUPERIOR DE EDIFICACIÓN DE BARCELONA, DEPARTAMENTO DE CONSTRUCCIONES ARQUITECTÓNICAS II, Barcelona. soluciones@hidropluviales.com. (s.f.). https://hidropluviales.com/. Obtenido de https://hidropluviales.com/. 4- lvente, I. A. (Junio de 2007). El concepto moderno de sustentabilidad. Socioecología y desarrollo sustentable, 7. Obtenido de uaisustentabilidad@gmail.com 5- Souza, E. (06 de Junio de 2020). "Consejos para aprovechar el agua de lluvia en proyectos de arquitectura". ArchDaily. Obtenido de ISSN 0719-8914 Sobre los autores Claudia Ruiz Prieto: Ingeniera Civil graduada en 2017 en la Universidad Tecnológica de La Habana José Antonio Echeverría. Impartió clases de Álgebra Lineal y Cálculo II en la facultad de Arquitectura e Ingeniería Civil de la propia universidad durante tres años. Desde su graduación se incorpora a trabajar como Especialista A en Obras de Arquitectura e Ingeniería en la Empresa de Proyectos de Arquitectura y Urbanismo de la Oficina del Historiador de la Ciudad (RESTAURA) en el Centro Histórico de La Habana; cursó 13 posgrados relacionados con Estructura y Conservación del Patrimonio en la Universidad Tecnológica de La Habana José Antonio Echeverría y en San Jerónimo. Actualmente es alumna del programa de Maestría en Ciencias en Arquitectura y Urbanismo en la ESIA Tecamachalco, Ciudad de México. CLUSTERING APPROACH FOR HYGROTHERMAL MATERIAL PROPERTIES OF BRICKS IN A TROPICAL CLIMATE, BASED ON THREE DEGRADATION RISKS. Bruno Vanderschelden1,2 *, Isabeau Vandemeulebroucke1, Kaat Janssens1, Veerle Cnudde3,4, Tim De Kock2, Nathan Van Den Bossche 1 1 Building Physics Group, Faculty of Engineering and Architecture, Ghent University, UGent Campus UFO, Technicum T4, Sint-Pietersnieuwstraat 41, 9000, Gent, Belgium 2 Antwerp Cultural Heritage Sciences (ARCHES), Faculty of Design Sciences, University of Antwerp, Mutsaardstraat 31, 2000 Antwerp, Belgium 3 Department of Geology, Ghent University, Krijgslaan 281, 9000 Ghent, Belgium 3 Centre for X-ray Tomography, Ghent University, Proeftuinstraat 86, 9000 Ghent, Belgium 4 Department of Earth Sciences, Environmental Hydrogeology, Utrecht University, Princetonlaan 8A, 3584 CS Utrecht, The Netherlands 1e-mail: bruno.vanderschelden@ugent.be ABSTRACT Architecture in Cuba has a rich and colourful history, where the colours are literally seen in the Old Havana streets. Several sites are declared World Heritage by UNESCO, such as the historical centre of Camagüey due to its peculiar urban form. Recent studies have shown that 30% of the world heritage sites in Cuba were constructed using earthly materials. Unfortunately, this number is rapidly decreasing where nowadays, only 10% is still standing and half of them show risks for biological deterioration, fungal growth, or salt crystallization. These degradation phenomena are at the root of the high collapsing rates and should be prevented at all costs. HAM-simulations have an added value in the research for renovation and restoration strategies. However, these simulations require a high accuracy for input variables. It is important to make correct assumptions for applied construction materials. For bricks, aspects as granularity, clay or sand content, compaction and firing techniques vary greatly in Cuba and have a major impact on the brick pore structures and consequently on its hygrothermal properties. In an early stage of a renovation project, exact building information is usually not provided, and in most cases a full material characterization is absent. This study investigates the potential to fill in the missing values of incomplete material data with a clustering approach for the Cuban climate. This methodology determines equivalently behaving bricks based on the impact of their properties on the hygrothermal behaviour regarding the mould growth, wood rot and salt crystallization. KEY WORDS: Brickwork, Clustering Analysis, Heritage degradation, Hygrothermal response behaviour 1. INTRODUCTION The old city of Havana in Cuba is noted for its history, architecture, and its monuments. The city was founded in the 16th century and declared World Heritage by UNESCO in 1982. Unfortunately, due to the combination of local building materials with the tropical climate, the colourful streets of Old Havana are at risk and measures are required to protect the earthly constructions. Mud has been used as a construction material for centuries, and still plays a major role in developing countries. In Cuba, the adobe brick formed a solution after the material crisis of the 1990’s [1]. The properties of the adobe bricks are highly dependent on the location. A different soil results in different granularity, clay content and coupled with the different brick preparations and compaction techniques will result in a large variability in material properties [2]. In recent years, the research on earth as a building material has gained more and more interest. One of the reasons for this is the growing awareness of the environmental impact and CO2 impact of materials in the building sector. Recently, the comparison of older statistics and the recent updates from organizations such as UNESCO has shown a drop of earthly heritage buildings from 30% to 10% [2]. Even more concerning is that half of the remaining buildings is endangered and shows risks for collapse [2]. The warm and humid environment of Cuba coupled with the use of capillary materials results in a high humidity in walls for 80% of the damaged buildings [1]. A high humidity in walls can induce health risks for the occupants, since mould spores have the ability to activate and start their initial stages of growth [3]. Another risk is the possibility for cracks as a result of salt phase changes. A study of Paradiso et al. [4] has shown a high concentration of smectic, a mineral which has an increase of crystal lattice with changes in humidity, similar to halite. Such an increase can induce stresses on the pore structure until the strength of the brick is insufficient and a crack occurs. Not only the mechanical performance of a brick is at risk when the humidity rises, the structural integrity of the whole building can be endangered due to the rotting of wooden elements embedded in the wall. These different types of pathologies lay at the base of the high collapsing rate in Cuba and should be prevented by means of renovation and restauration strategies. The severity of decay and the level of hygrothermal performances of a wall is highly dependent on the humidity profile in the wall. To estimate the profile, it is of great importance to have an accurate idea of the material properties. Especially since the high humidity in Cuban walls is affected by the capillarity of the adobe masonry [1]. Unfortunately, the large variety in brick types will entail a large uncertainty in the risk analysis. One solution is to characterize all properties for each project, but such processes are cost and time consuming. A partial characterisation is complicated by the fact that the material properties that are most important for degradation risk assessment are dependent on the pathology type, location, and risk zone in the wall setup [5], which are not always known. Another solution to cope with variability in brick properties was proposed by Zhao [6] and Vanderschelden et al. [7], namely the clustering analysis. Vanderschelden et al. proposed a fit for purpose clustering methodology to determine equivalency among bricks, which includes both physical characteristics and hygrothermal response behaviour. This approach allows to fill in missing material properties from the cluster showing the highest resemblance in characteristics [6]. Furthermore, for a specific case the clustering approach also facilitates to pinpoint which material property has the highest impact on degradation, and in turn the determination of this property will reduce the uncertainty in the risk assessment [7]. This paper executes the stepwise methodology for clustering as described above, and determines the most dominant brick property in Cuba for three different wall pathologies. First, a cluster schematic for each individual pathology was calculated and afterwards, to conclude, an easy to follow flowchart for 6 material clusters was drawn up for an overarching risk on pathologies. The analysis allows building practitioners to better understand how material characteristics affect degradation risks. With this knowledge, one can assess which renovation strategies can or cannot be carried out, in a more reliable way than if only a visual inspection is carried out or looked at with assumptions. 2. METHODS AND MATERIALS In this study, the clustering methodology of Vanderschelden et al. [7] is applied for Cuba, which has a tropical savanna climate according to the Köppen-Geiger climate classification. The methodology provides a helping hand to fill in missing material properties during renovation projects. It defines equivalently behaving bricks with similar physical characteristics. The response behaviour and similarity in appearances is determined by means of clustering and sensitivity analyses with the results of hygrothermal simulations. During a hygrothermal (HAM)-simulation, the temperature and moisture contents throughout the wall construction is determined for predetermined timesteps. The calculation considers all transport equations and -functions as well as the storage in materials. The use of HAM- modeling is reliable, validated and provides more concrete insights than a visual inspection in the field. In this study, 15000 hygrothermal simulations were performed based on a latin hypercube sampling and the results were post processed to calculate the severity of three different pathologies. SAMPLE CONSTRUCTION For this paper, a single historic masonry leaf wall was used to investigate the hygrothermal response behaviour of different bricks. The masonry was abstracted to a single brick volume to reduce computational time. Typical masonry in Cuba is constructed with adobe brick, which entails a large uncertainty regarding the material properties. Since earthly materials are missing in hygrothermal databases and material characterization is limited, 15 German brick types from Zhao were adopted [6]. The analysis still holds value because no absolute degradation risks are calculated, the goal is to generate a comparative study between bricks. To increase the variability of the 15 bricks, a latin hypercube sampling was applied with variable water absorption coefficient, density, specific heat capacity, open porosity, effective moisture content, thermal conductivity, water absorption coefficient, vapor diffusion resistance factor and effective liquid conductivity. The original 15 bricks, on which the sampling is based, are listed below in Table 1. The original material files for simulations can be found in the IBK-database (Institut Bauklimat Dresden) by its accompanied ID number. The colour of the bricks is unknown but has a large impact on the surface temperature due to the level of solar absorption. The latter was studied by Martins et al. He concluded that for a tropical climate, such as Brazil, solar radiation is the most important parameter for thermal behaviour [8]. To incorporate the effect of coloured bricks, a uniform spread between 0.2 (light brick) and 0.8 (dark brick) for absorption of direct sun radiation was adopted [9]. Table 1: Summary of the applied brick types and historical finishing plaster in the IBK database Material ZA ZB ZC ZD ZE ZF ZG ZH ZI ZK ZL ZM ZN ZO ZQ Plaster IBK-ID 490 533 491 492 493 494 495 496 497 499 500 501 502 503 286 148 Two wall related properties were implemented in the sample construction; the wall thickness and rain exposure coefficient. The wall thickness varies from 150– 500 mm. With the rain exposure coefficient, it is possible to consider the variability of rain impingement on a wall and the effects of roof overhangs and rain runoff from above. In the sample, a uniform spread was used between 0 and 2. CLUSTERING ANALYSIS The first focus for equivalency is to find similarities in the physical appearances of bricks. Zhao showed the benefits of a statistical clustering to determine similar material properties [6]. In his work he created a clustering schematic for 27 bricks, including the 15 bricks from this study. The result comprises four clusters with similar appearances, for example cluster 1 includes bricks ZI and ZN which are characterized as modern bricks manufactured with new technologies. The methodology succeeds in the formation of clusters with similar physical profiles but the equivalency in hygrothermal response behaviour is not achieved. Vanderschelden et al. proved that bricks with similar properties may entail very different degradation risks: not all material properties are equally important, and for some properties there are threshold values that have a significant impact on the hygrothermal response. Hence, Vanderschelden et al, proposed a methodology to couple the statistical clustering with sensitivity analyses to determine equivalency in response behaviour [5,7]. The different analyses showed the importance of a fit for purpose clustering where regional materials, local climate conditions, typical construction methods, relevant material degradation or pathologies are considered. For the theoretical background of clustering methodologies, the authors refer to Zhao [6] and Vanderschelden et al. [5,7]. HYGROTHERMAL RESPONSE BEHAVIOUR The hygrothermal response behaviour is determined for the different bricks with Heat- Air and Moisture (HAM) simulations. HAM-modelling allows us to calculate the thermal and moisture balances through a wall under variable climate conditions. Hygrothermal simulations show their added value in the development of reliable renovation strategies, since they can simulate the response of façade systems under realistic climate conditions. A simulation starts with the division (discretization) of the assessed building component in smaller elements. Then, three balance equations: Heat, Air and Moisture are calculated, between each of the created elements, until a balance is found. This allows us to determine the temperature and moisture content in each element per time step. In this study, simulations were performed with Delphin 5.9. and postprocessed using Matlab and R-codes [9]. Post processing includes the application of numerical prediction models for pathologies at different depths in the wall setup. 15000 simulations were performed, each running 4 simulation years: three conditioning years and one evaluation year. The stepwise framework by Vanderschelden et al. [10] was adopted to construct the hygrothermal model. One of the steps focusses on the outdoor climate environment. The outdoor climate files were derived from METEONORM based on the historical information for the city centre of Havana. The file is a reference year comprised of hourly values for air temperature, relative humidity, wind velocity and direction, hourly total precipitation, direct and diffuse shortwave radiation, and longwave sky radiation. The reference year was constructed based on the average year of temperature and radiation, without consideration of the distribution of precipitation loads [11]. Indoor climate files can not be derived from METEONORM but were estimated by Vandemeulebroucke [11] based on the work of Baldoquin [12]. EN-13788 is not appropriate to use, since the indoor space of heritage is in most cases not conditioned by an HVAC-system (Heat Ventilation and Air Conditioning) [13]. Instead, in this study, the indoor temperature is set equal to the average outdoor temperature while the indoor vapour pressure is calculated as a 5% increased outdoor vapour pressure. This 5% considers the added moisture loads from occupants and various user activities. As a result of the humid environment and the lack of systematic knowledge regarding the correct use and applications of adobe bricks, many Cuban buildings show pathologies and a high collapsing risk [1]. Within this study three different pathologies were analysed: mould growth, rotting of embedded wood and the phase transitions of salts. The growth of mould is assessed at the inner surface of the plaster and predicted with the improved model by Viitanen [14]. Mould can endanger the occupant’s health. A mould index between 0-6, with increasing severity, is calculated based on the surface temperature and relative humidity in time. For the calculation a medium resistance to mould growth is assumed for the interior plaster, with a low decline of mould spores during the dryer periods. The rotting of wooden beams embedded in the masonry contributes to the high collapse rate. The beams are a vital structural element and provide support for the flooring system. However, due to the high humidity, brown rot fungi will attack the cell wall material. To predict the severity of the attack, the model for brown rot by Brischke and Rapp is applied at the beam end located at 100mm from the inner brick surface [15]. The dose-response model calculates a daily dose with a temperature and moisture induced component. The decay rating from CEN 252 [16] is converted to a single year with the assumption to have no decay in 25 years. A decay rating of 4 represents failure and a value of 1 is considered a small attack. It is important that no damage occurs during the service life of the material, so a decay rating below 1 is advised. The last pathology used in this study is the salt damage, both aesthetic as well as destructive deterioration was analysed. In certain humidity ranges and temperature conditions, crystallization-dissolution cycles occur and the number of cycles can be used as proxy for salt damage. The transitions are highly dependent on the type of salt solution which is different in various climates and for different geographical locations. In a study by Grossi et al [17], it was stated that the thernadite-mirabilite type is the most common hydrated salt type for humid climates whereas halite typically characterises the non-hydrated salts. The simulation output and climate parameters have an hourly temporal resolution. However, for the salt criteria, a daily resolution was used to incorporate heat and moisture buffering in materials. Two different criteria were calculated, hydrated and non-hydrated salt crystallization. For the non-hydrated, halite, a phase transition is counted when the daily humidity downward crosses the 75.3% critical threshold. For the hydrated salts, thernadite-mirabilite, the critical threshold is temperature dependent according to Function 1. RHcrit = 59.11 + 0.87549.T when T < 22.5 ˚C (1) Aesthetic deterioration from salt crystallizations appears at the exterior surface of the wall, therefore the phase changes were calculated with the exterior surface temperature and relative humidity. For destructive deterioration, the phase changes were calculated at a depth of 5mm from the exterior surface. SENSITIVITY ANALYSIS To analyse the equivalency in response behaviour and to determine the most critical material property for each pathology, sensitivity analyses were addressed. In this study, three different types were used based on the study by Calle et al [18]. The Spearman Rank correlation, scatterplots (which provide the reader a quick grasp of the pathologies behaviour), and binary poison distribution trees, which reduce the assumptions of linearity and monotony to a minimum. A classification tree can be interpreted from top to bottom, where the most critical material properties will appear higher in the tree. Such trees can be used to derive practical guidelines for the building industry [19]. 3. RESULTS In the following section, the results of the clustering methodology (as described in section 2) are presented and discussed focussing on the three degradation models relating to mould growth, wood rot, and salt crystallization. A summary of the individual clustering results is shown in Figure 1 (a until f). Each individual graph represents one type of degradation. The results are visualized by means of a boxplot for the 1000 results of each individual brick and are ranked according to an individual clustering and sensitivity analyses, explained in the following paragraphs. The different clusters are marked by a red surrounding box. First, the degradation results are discussed individually for the three different performance criteria with the construction of their dedicated cluster schematic. Afterwards, the results are compared and an overarching clustering schematic coupled with the clustering of physical characteristics is proposed in the form of a flowchart. Figure 1: Summary of the response behaviour of the different bricks for the different pathologies by means of the clustering schematics: (a) Mould decay, (b) SI Halite 5mm, (c) Wood decay, (d) SI Thernadite-mirabilite 5mm, (e) Surface SI Halite, (f) Surface SI Thernadite-mirabilite. Mould Growth The classification tree for the growth of mould in Figure 2 shows the decreasing impact of parameters from top to bottom. The rain exposure is shown on top, so it appears to be most dominant. It defines how much rain is supplied to the wall surface during simulation. On a lower level in the tree, for a lower rain exposure, the solar absorption appears. Solar absorption improves the drying potential of bricks and is considered a highly influential material characteristic. On the same level, for a higher rain exposure, the first material property is visible, i.e. the water absorption coefficient. A split is noticed at 0.13 kg/m²s0.5, which in the original study by Vanderschelden et al. [7] was explained as the minimum value for which the waterfront reaches the interior surface. Below this threshold, the water is redistributed within the brick, and consequently reduces mould growth on the interior plaster. In Figure 1 (a), the boxplots of the mould results are ranked according to an increased water absorption. Two clusters are marked by a red surrounding box based on the 0.13 kg/m²s0.5 threshold. It is seen that the spread on the mould indexes is smaller below the threshold level than above. This could mean that, with a simple absorption test, one can already estimate the level of uncertainty and know a sense of the magnitude for mould growth. It shows that higher absorptive bricks need a higher level of material characterization to perform a reliable risk analysis. Figure 2: Sensitivity analyses for mould growth: decision tree on the left (RE: Rain exposure, SA: Solar absorption, AW: Water absorption, Thick: Thickness) and a scatterplot for water absorption and rain exposure on the right. Wood decay The wood decay rating was calculated based on the simulation results and visualized by the sensitivity analyses in Figure 3. The highest levels in the classification tree are established with the water absorption and the rain exposure. A threshold of 0.11 kg/m²s0.5 was calculated for water absorption. As previously explained, a low water absorptive brick will store and redistribute liquid water in the brick and the waterfront will not reach the inner surface. Consequently, a wooden beam end in low absorptive bricks will be exposed to higher moisture contents and slower drying rates than in a case with high absorptive bricks. In the scatterplot in Figure 3 on the right, the critical water absorption of 0.11 kg/m²s0.5 is confirmed. A large spread and high wood decay ratings below the threshold are found. In case of rain exposure, the scatterplot shows that an exposure above 0.5 and certainly above 1 entails a much larger uncertainty and magnitude of decay rating with a peak value of 3. As a result, a dedicated clustering schematic for three clusters was constructed with the threshold levels for water absorption and thermal conductivity from the classification tree. The schematic is visualised in Figure 1 (c). Figure 3: Sensitivity analyses for Wood rot: decision tree on the left (AW: Water absorption, RE: Rain exposure, LA: Thermal conductivity, T: Thickness, KLEFF: Liquid conductivity at saturation) and scatterplot for absorption coefficient and rain exposure on the right. Surface Salt transitions The severity of the aesthetic deterioration by salts was analysed on the exterior surface. The phase transitions for two salt solutions were calculated with the surface relative humidity and temperature. The sensitivity analyses, in Figure 4, and the plots (e) and (f) at the bottom in Figure 1 show that the surface crystallization in Cuba is highly dependent on the colour of the brick. The latter is implemented in the HAM-simulations by means of the solar absorption coefficient. For both hydrated and non-hydrated salt solutions, respectively Halite and Thernadite-Mirabilite, a lighter brick will show higher deteriorations with an increased number of phase transitions. This can be explained by the fact that a darker colour translates to a higher solar absorption, which in turn increases the surface temperature and evaporation rate during sunnier periods. In the bottom graphs (e) and (f) of Figure 1, the number of phase transitions for both salt solutions were clustered according to the solar absorption with the classification tree. The clustering splits were calculated based on the classification trees in Figure 4. In case of Halite, the clusters were determined as follows: light bricks with a solar absorption between 0.2 and 0.4, mutted bricks between 0.4 and 0.6 and dark bricks entailing an absorption of 0.6 until 0.8. A different scheme was obtained when analysing a thernadite-mirabilite solution, namely light bricks from 0.2 to 0.35, light mutted from 0.35 to 0.47, dark mutted bricks from 0.47 to 0.55 and dark bricks representing an absorption from 0.55 up to 0.8. Figure 4: Sensitivity analyses for Surface salt crystallization, decision tree on top (SA: Solar absorption, RE: Rain exposure) and scatterplots for solar absorption on the bottom. Salt transitions at 5mm The analyses of the number of phase transitions at a depth of 5mm was used as a proxy for destructive deterioration by salt solutions. The sensitivity analyses, in Figure 5, showed similar results for hydrated as non-hydrated solutions. The vapour resistance appeared in the top two levels of both classification trees. The dominant behaviour is confirmed in the scatterplots of Figure 5, and in Figure 1 (b) and (d), where the number of phase transitions was ranked with a decreasing vapor resistance from left to right. The plots show a decrease in the number of salt phase transitions for a decreasing vapor resistant brick. The high dependency of the vapor resistance could be explained by the drying behaviour of porous materials. The drying of bricks occurs in two phases. The first phase is represented by a linear mass loss over time and is material independent. This part happens at a fast rate, as the waterfront is still at the surface and the drying occurs by evaporation. In the second stage, the waterfront recedes inwards of the brick. Consequently, the drying is now impacted by the vapor transport through the material and is therefore material dependent [6]. With this knowledge, one can reason that the drying behaviour in a more vapor resistant material is much slower than in a low vapor tight material. This results in a relative humidity which has less fluctuations around the critical phase transition humidity and less salt crystallization- dissolution events occur. The clusters in Figure 1 (b) and (d), for the phase transitions at a depth of 5mm, are marked by red surrounding boxes and the values for the splits were calculated with the classification trees. Figure 5: Sensitivity analyses for salt crystallization at 5mm: decision tree on top (MEW: water vapor resistance factor, RE: Rain exposure, SA: Solar absorption, CE: Heat capacity, KLEFF: Liquid conductivity at saturation) and scatterplot for water vapor diffusion resistance on the bottom. Clustering schematic In the previous sections, a clustering schematic was established for each individual pathology, representing equally behaving bricks. In this part, the schematics are compared and coupled back to the characteristics and physical appearances of the bricks. The latter was performed with the statistical clustering of Zhao [6]. A single clustering flowchart, including the different pathologies, was created in the format of an overarching classification tree. 6 Different clusters where established, where each cluster represents a group of bricks with similar physical appearances and an equal response behaviour. The analysis was summarised in an easy to read flowchart, shown in Figure 6. The bottom of the flowchart shows the different clusters with their associated physical characteristics and pathology risks. Figure 7 shows the degradation results according to the derived flowchart for masonry in Cuba. Figure 6: Clustering flowchart for bricks in Havana and a summary of the physical characterizations and the risk for the different pathologies. Figure 7: Hygrothermal response behaviour for the different clusters according to Figure 2 in regard to the risk for mould, salt and wood decay. 4. CONCLUSIONS AND DISCUSSION In this fit for purpose clustering approach, a representation for brick materials was applied in a local climate environment, to analyse relevant degradation pathologies in Cuban heritage. Clustering is proposed as a way to cope with uncertainties among bricks, and in a broader spectrum this could be applied to all types of building materials. The methodology has led to 6 different clusters with similar characteristics and equal risk for degradation. The similarity in physical appearances was calculated according to Zhao with a statistical clustering methodology. To compose clusters with bricks entailing similar pathology risks, the methodology from Vanderschelden et al. was applied. Three different pathologies were adopted in this study: mould growth, wood rot and salt crystallization. The results are summarized in an easy to read flowchart, in Figure 6. During the clustering of the response behaviour for the individual pathologies, some particular conclusions were made. The water absorption showed to be the most critical material property, defining the severity of mould growth. The magnitude as well as the spread on the mould index is determined by water absorption. A threshold level of 0.13 kg/m²s0.5 was found, for which a more absorptive brick shows a larger spread and magnitude than lower absorptive bricks. This means that a simple absorption test already provides an insight in the uncertainty and magnitude of mould growth. In case of wood degradation, similarities with mould growth were noticed. The water absorption showed to be most dominant and decisive for the severity of wood rot. A critical value of 0.11 kg/m²s0.5 was observed in the sensitivity analyses. The 1D approach for masonry largely minimizes the computational time and can be considered as a conservative approach [21]. However, in applications with anisotropic materials such as wood, one should consider the use of 2D and even 3D- modelling. The deterioration due to salt transitions was divided in aesthetic and destructive deterioration. The aesthetic deterioration was analysed on the exterior surface of the masonry. The conditions of an exterior façade in Cuba are highly influenced by the level of radiation, which in turn results in a dominant impact of the brick’s solar absorption. Absorption of radiation for bricks is related to the colour of the brick and is implemented in the simulations by the solar absorption coefficient. It was clear that a darker coloured brick had a smaller number of salt transitions than lighter bricks. The number of phase changes at a 5mm depth was used as a proxy for the destructive deterioration by salt transitions. The sensitivity analyses showed a high importance of the vapor resistance of the brick. The physical origin could relate to the difference in drying rates between a vapor tight and a more vapor open brick. For a more vapor open material, the drying will proceed at a faster rate and higher oscillations occur, which entails that the number of phase transition around a critical humidity will increase. It is important to note that in this research, state-of-the-art numerical degradation models were applied. The authors acknowledge that these models still have large uncertainties, but the aim of this research was not to test or improve the models. Furthermore, the results were not analysed in terms of absolute values but only used in a relative and comparison matter. The research of hygrothermal behaviour in heritage buildings for a tropical climate was performed with material properties which can differ from local adobe bricks. Therefore, in future research it would be beneficial to compare the simulated bricks with local bricks or materials. ACKNOWLEDGMENTS This research was performed in a Brain-be 2.0 project funded by Belspo with grant number: B2/212/P2/CLIMPACTH. REFERENCES 1. ANGEL RODRIGUEZ-DIAZ, Miguel et al. “Some recommendations for the construction of walls using adobe bricks”, DYNA, 2014, vol 81, núm 185, pp. 145-152. 2. SANCHEZ, Alejandra et al. “Mechanical properties of adobe masonry for the rehabilitation of buildings”, Construction and Building Materials, 2022, vol 333. 3. VIITANEN Hannu; OJANEN T. “Improved model to predict mould growth in building materials.” Proceedings of the 10th Thermal Performance of the Exterior Envelopes of Whole Buildings Conference ASHRAE. 4. PARADISO, Michele et al. “The Convent of Santa Teresa de Jesús in Havana: analysis, consolidation and restoration for the New Museum of Sacred Art”, Procedia Structural Integrity, 2020, vol 29, pp. 87-94. 5. VANDERSCHELDEN, Bruno; VAN DEN BOSSCHE, Nathan. “Fit for purpose brick clustering for hygrothermal material properties: sensitivity to climate conditions.” CESBP conference 2022. 6. ZHAO, Jianhua et al. “Application of clustering technique for definition of generic objects in a material database”, Journal of Build Physics, 2015, vol 39, núm 2, pp. 124-146. 7. VANDERSCHELDEN, Bruno; CALLE, Klaas; VAN DEN BOSSCHE, Nathan, “On the potential of clustering approaches for hygrothermal material properties based on 3 degradation risks in solid masonry constructions.” Journal of Building Physics, 2022, vol 46, núm 1, pp. 882-922. 8. TATHIANE AGRA DE LEMOS, Martins et al. “Sensitivity analysis of urban morphology factors regarding solar energy potential of buildings in a Brazilian tropical context”, Solar energy, 2016, vol 137, pp. 11-24. 9. NICOLAI, Andreas; GRUNEWALD, John, “Delphin 5 user manual and program reference”, program 10. In: Institut für Bauklimatik. Dresden: Technische Universität Dresden. 11. VANDERSCHELDEN, Bruno et al. “Methodological framework for HAM-simulations: the litigation case of a CLT-balcony subjected to rain loads during construction”, Building XIV conference, 2022. 12. VANDEMEULEBROUCKE, Isabeau et al. “Assessing the impact of climate change on historical buildings in Cuba”, MACDES 2022 Sexto Congreso Internacional. 13. BALDOQUIN, N. C, “Bases de diseño para la renovación energética en viviendas con alojamiento para el turismo de ciudad. Caso de estudio: Edificaciones de una planta en el vedado,” 2021. 14. ISO 13788‐1:2001- Hygrothermal performance of building components and building elements – Internal surface temperature to avoid critical surface humidity and interstitial condensation- Calculation methods. 15. VIITANEN, Hannu; OJANEN, Tuomo. “Improved model to predict mould growth in building materials.” Proceedings of the 10th Thermal Performance of the Exterior Envelopes of Whole Buildings Conference ASHRAE, 2007 16. BRISCHKE, Christian; RAPP, Andreas Otto. “Dose–response relationships between wood moisture content, wood temperature and fungal decay determined for 23 European field test sites.” Wood Sci Technol., 2008, vol 42, núm 507. 17. CEN NBN EN 252, Field test method for determining the relative protective effectiveness of a wood preservative in ground contact, 2014 18. GROSSI, C.M. et al.” Climatology of salt transitions and implications for stone weathering.” Sci. Total Environ., 2011, vol 409, pp 2577-2585. 19. CALLE, Klaas; VAN DEN BOSSCHE, Nathan. “Sensitivity analysis of the hygrothermal behaviour of homogeneous masonry constructions: Interior insulation, rainwater infiltration and hydrophobic treatment.” J. Build. Phys., 2021, vol 44, núm 6, pp. 510-538. 20. JANSSENS, Kaat et al. “From simulation to practical guideline: The use and advantage of HAM- simulations for the conservation of heritage in Havana, Cuba”, MACDES 2022 Sexto Congreso Internacional. 21. VEREECKEN, EVY; ROELS Staf. “Hygric performance of a massive masonry wall: How do the mortar joints influence the moisture flux?” Constr. and Build. Components, 2014, vol 41, pp. 697–707. About the authors Within the building physics research group at Ghent University, Prof. Nathan Van Den Bossche leads a group of PhD students which focus on the hygrothermal behaviour of building envelopes in a changing climate. The group includes Kaat Janssens, Isabeau Vandemeulebroucke and Bruno Vanderschelden. Mr. Vanderschelden focusses the hygrothermal risks of heritage buildings and is counselled by Prof. Van Den Bossche, Prof. De Kock and Prof. Cnudde. Prof. De Kock is a professor at the University of Antwerp within the ARCHES group focussing on the cultural heritage sciences. Prof. Cnudde is a professor at the University of Ghent in the department of Geology as well as professor at the University of Utrecht in the Department of Earth Sciences, Environmental Hydrogeology. EL ARQUITECTO JOSÉ MARÍA MANUEL CORTINA PÉREZ Y LA CERÁMICA DE NOLLA. RECUPERANDO EL PAVIMENTO PATRIMONIAL DE CERÁMICA DE NOLLA DE LA VILLA MORRIS. Dr. A. Jorge Girbés Pérez1 1 Profesor Titular de Universidad. Departamento de Expresión Gráfica Arquitectónica, adscrito a la ETSIE, Universitat Politècnica València. 1 jgirbes@ega.upv.es RESUMEN Si pensamos en el Modernismo Valenciano de finales del siglo XIX y principios del siglo XX, sin lugar a duda Cortina es un pilar esencial, donde su originalidad y excentricidad lo llevan a catalogar su obra como las más relevantes de dicha época, así pues, lo reflejan sus innumerables premios de arquitectura en las exposiciones de la época. Cortina fue aportando sorprendentes interpretaciones propias que lo hicieron único en su categoría, así como también estrambóticas, y a veces fantasiosas, reinterpretando su primer estilo adoptado e incorporando toques característicos de la nueva época industrial haciendo uso de ornamentos en las fachadas. Tal y como se demostrará, Cortina hace uso del rectángulo de proporción áurea para la creación de los espacios divisores de las villas en ambas plantas, tanto la inferior como la superior. Aplicando pues la misma proporción a los pavimentos que, a diferencia de otras villas de campo, será en Cerámica de Nolla. A Cortina le gustaba que en sus obras estuviesen solo los mejores artesanos de cada gremio, por ello encargo el diseño de los pavimentos a la fábrica Nolla, pavimentos certificados por D. Jaume Coll Conesa, director del Museo Nacional de Cerámica y Artes Suntuarias “González Martí” de Valencia. PALABRAS CLAVES: Cortina, Nolla, mosaico, burguesía, Morris. THE ARCHITECT JOSÉ MARÍA MANUEL CORTINA PÉREZ AND NOLLA CERAMICS. RECOVERING THE CERAMIC HERITAGE PAVEMENT OF NOLLA FROM VILLA MORRIS ABSTRACT If we think of the Valencian Modernism of the late nineteenth and early twentieth centuries, without a doubt Cortina is an essential pillar, where his originality and eccentricity lead him to classify his work as the most relevant of that time, thus, reflect his innumerable architecture prizes in the exhibitions of the time. Cortina was contributing surprising interpretations of its own that made it unique in its category, as well as bizarre, and sometimes fanciful, reinterpreting its first adopted style and incorporating characteristic touches of the new industrial age by making use of ornaments on the facades. As will be demonstrated, Cortina makes use of the golden ratio rectangle to create the dividing spaces of the villas on both the upper and lower floors. Therefore, applying the same proportion to the flooring, which, unlike other country villas, will be in Cerámica de Nolla. Cortina liked that only the best artisans from each guild were present in his works, which is why he commissioned the design of the pavements to the Nolla factory, certified pavements by D. Jaume Coll Conesa, director of the National Museum of Ceramics and Sumptuary Arts “González Marti” of Valencia. KEY WORDS: Cortina, Nolla, mosaic, bourgeoisie, Morris. 1. INTRODUCCIÓN José María Manuel Cortina Pérez, nació en Valencia en 1868. Como muchos otros, se desplazó a Barcelona para iniciar sus estudios de arquitectura, pero es en Madrid donde obtiene el título de arquitecto con 22 años, pese a perder dos o tres cursos, según algunos, por no firmar correctamente los exámenes, o bien, por no reconocerle la capacidad de firma al ser menor de edad (respecto a no firmar correctamente, debemos recordar que siempre firma como Manuel Cortina, y su nombre completo es José María Manuel Cortina Pérez). Un año más tarde, en 1892, obtiene una plaza como arquitecto municipal de Valencia, desempeñando distintas labores, entre ellos Arquitecto del Ensanche y de Cementerios. Previamente en 1891, será arquitecto Municipal de Gandía y un año después de Paterna. Si pensamos en el Modernismo Valenciano de finales del siglo XIX y principios del siglo XX, sin lugar a duda Cortina es un pilar esencial, donde su originalidad y excentricismo lo llevan a catalogar su obra como las más relevantes de dicha época, así pues, lo reflejan sus innumerables premios de arquitectura en las exposiciones de la época, además de la medalla de Plata del Congreso y la Gran Cruz de la Real Orden de Isabel la Católica, así como la Encomienda de Isabel La Católica. A partir de 1929 fue Director del Centro de Cultura Valenciana, desde donde realiza su defensa del Palacio Señorial de Alaquàs, y también fue Académico de número de la Real Academia de Bellas Artes de San Carlos. Perteneció a la asociación lo Rat Penat. Fue secretario del V Congreso Nacional de Arquitectura en Valencia, en 1910. En la ciudad de Valencia destacan los edificios que construyó en el ensanche de Valencia, como la conocida como Casa de los Dragones en la esquina de las calles Sorní y Jorge Juan, el desaparecido chaflán de Colon con Sorní o Casa Oroval, el edificio de la calle Félix Pizcueta, en el que combinó elementos medievalizantes con las líneas sinuosas del Art Nouveau, patente sobre todo en las rejas de los vanos de la planta baja y la carpintería de los miradores. También destacan sus edificios de viviendas en las calles Caballeros, Sorní, Ruzafa y Grandes Vías. También cabe destacar los numerosos panteones realizados en el cementerio General de Valencia, más de veinte encargos recibió José Manuel Cortina para realizar este tipo de construcciones donde el dejaba volar su imaginación y se mostraba en su máximo esplendor. Figuras 1 y 2. Retrato del Arquitecto Cortina. Fotografía del primer proyecto (Chalé de Paterna). Encargos de la burguesía e instituciones religiosas, que lo llevan a la realización de una selecta variedad de edificios de viviendas en la ciudad, entre ellos Villa Morris, encargado por Don Walter Morris Martin en 1898, además de ermitas y algunas restauraciones, como, por ejemplo, la verja del real colegio seminario Corpus Christi, la intervención en el Castillo de Benissanó, los proyectos de tornapuntado y castilletes para las Torres de San Martin y San Salvador en Teruel y otros. En sus primeras obras se observa como el repertorio ornamental fue extraído casi en su totalidad del gótico, de allí la aparición de elementos como por ejemplo rosetas con cuadrifolios, observadas en la parte superior de la villa, en forma de ventilación a la cubierta, además de columnas con delgados fustes, que decoran los pilares en el interior de la villa, usaba también molduras en vierteaguas, además de la utilización del biselado en pilastras, dragones, pseudo-gárgolas, gárgolas, entre otros, la mayoría de los cuales se observan en la fachada de Villa Morris, en Bétera. Figuras 3 y 4. Villa Morris (Compárese con imagen 8). Águila portando entre sus garras la M de Morris. Sin embargo, es en 1895 aproximadamente cuando Cortina fue aportando sorprendentes interpretaciones propias que lo hicieron único en su categoría, así como también estrambóticas, y a veces fantasiosas, reinterpretando su primer estilo adoptado e incorporando toques característicos de la nueva época industrial haciendo uso de ornamentos en las fachadas, como por ejemplo, se observa como el dragón pasa de estar en la cornisa a zonas más bajas, donde es custodio de escudos emblemáticos de las familias, ejemplo claramente observable en las Villas de Paterna (Imagen 2) o en la Villa Morris (Imagen 4). Por otro lado, aparecen también temas relativos a la naturaleza, entre ellos la aparición de rosas y hojas de acanto, así como también de cualquier otra variedad vegetativa en la ornamentación general de las edificaciones, en concreto observamos esto en la villa en las barandillas de hierro de las escaleras interiores, las molduras portadoras de la carpintería, y en las columnas con delgados fustes, que decoran los pilares en el interior de la villa. Es característico también de sus obras que la carpintería adopte formas curvas en vez de rectas, claro ejemplo de esto son las gárgolas y dragones que custodian muchas de sus obras entre las cuales no puede faltar Villa de la Barraca o Villa Morris. Sencillamente Cortina ha aportado a la arquitectura española, y en concreto la valenciana, ese toque único y fantasioso, así como también desbordante que hace de sus edificaciones unas verdaderas obras de arte. Aun cuando no hay fuente bibliográfica que date el año de construcción de Villa Morris, existen álbumes familiares con fotografías coloreadas datadas en el año 1898, donde está construyéndose la Villa. Cortina bajo su carácter perfeccionista y estricto se proyecta como creador total, es decir, abarca el desarrollo de todas las artes aplicadas en la arquitectura: azulejería, mosaicos y vidrieras, hierros forjados, etc. Cortina incluso diseñó el papel para decorar las paredes de muchas de sus obras, aunque esto no se aplique a Villa de la Barraca, así como también las telas y los muebles de muchas viviendas, todo esto bajo recomendación de su padre que había sido maestro de obras (antiguo Aparejador) y enseñó a rodearse de todos los buenos profesionales de las artes decorativas. A finales del siglo XIX, en su calidad de arquitecto de varios municipios, dejó correr su viva imaginación en el diseño de buen número de panteones, tarea poco comprometida técnicamente y campo abierto a la imaginación romántica del arquitecto proyectista, aunque en los últimos años del siglo, se atrevió con ampulosos proyectos en el centro de Valencia, así los palacios Centelles y Daya Nueva en la calle Caballeros y en la plaza Villanueva, el del conde de Nieulant; en 1900 la “Casa de los Dragones” o “Casa Cerni”, en Ceuta en 1907 en Valencia proyectó varios edificios con decoración escultórica también a base de dragones, dentro del estilo modernista por más que generalmente su modo de hacer derivó al empleo de formas neogóticas, ya que a principios del siglo XX a los modernistas les llamaban "els nens gòtics" (Traducción del valenciano: los chicos góticos). En general la arquitectura de Cortina presenta un aire exagerado propio de la manera valenciana, proclive al uso de las formas singulares más allá de lo común. También echó mano de la arquitectura islámica, como en el caso de la Villa de Torrent (Villa Giner- Cortina) o en el teatro Eslava. Cortina fue además un hábil decorador dejando muestras de su ingenio en telas, alfombras y en cualquier superficie sobre la que pudiera dar rienda suelta a su viva imaginación. José Manuel Cortina fue un conspicuo representante de la escuela eclecticista y modernista en Valencia del último cuarto del siglo XIX y mitad del XX, lapso en el que la arquitectura española cobró nuevos bríos del después de los tiempos del académico neoclasicista, arrumbado por los arquitectos formados, ya no en las Reales Academias de BB.AA., sino en las Escuelas Superiores de Arquitectura en Madrid y Barcelona con enseñanzas más técnicas y científicas. De sus escritos cabe destacar el “Discurso sobre la Lonja, escrito y propuesta de intervención”, que no se ejecutará, pero que implicará unas limitaciones y unos propósitos respecto del edificio, que marcarán el que la Lonja tenga su actual estado y no se ejecutaran propuestas que alteraban en gran medida la actual configuración que todos conocemos. Respecto de este discurso, ya hablo del gran despropósito que se produce al respecto del Patio de los Naranjos en "Investigando en Edificación EXCO 2017", Salón Tecnológico de la Edificación, Cevisama 2017 (ISBN 978-84-947525-1-3) pags.244-273. En uno de sus últimos escritos en 1949 un año antes de su muerte el propio Cortina dice: " ... Tiempo ha, desde mi juventud, y ya veis que no hace poco tiempo, hemos apreciado los resultados funestos que para Valencia ha tenido todo lo que reforma urbanística se refiere. Nunca se ha seguido un criterio uniforme ni ha habido en ella solución de continuidad. Esta situación ha nacido, si así lo queréis, no de los técnicos, sino del oleaje burocrático, político y personal de aquel ambiente que, por desgracia, no se ha podido apartar de nuestro Municipio, destrozando las esperanzas puestas en él cuando apareció el Estatuto Municipal con sus Reglamentos... " Duras palabras de Cortina en clara crítica a los inicios de desmanes urbanísticos que desmembraron la Valencia que Cortina tenía en mente y que sentía y a su vez entendía, un urbanismo en el que la ciudad fuera para el pueblo, para su disfrute. (De "Como Entendemos y Sentimos el Plan de Ordenación Urbana de la zona Histórico-Artística de nuestra Ciudad"). 2. LAS VILLAS DE CORTINA. El Palacete Puchol de Villarreal. Es una de las obras menos conocidas de Cortina por haber permanecido habitada hasta nuestros días. Se trata de una villa, conocida como Palacete Puchol, construida hacia 1915 para el acaudalado naviero (fundador de la actual Trans-Mediterranea) de Valencia Vicente Puchol y Sarthou. Como casa de recreo, la villa se erigía rodeada (como es norma, en sus villas) de un tupido jardín, separada del núcleo de la población y dotada con otras construcciones satélites. La familia Puchol formó parte de la alta burguesía Valenciana de finales del siglo XIX y principios del siglo XX, poseían negocios de flota naviera y bacaladera, almacenes de coloniales, etc. Vicente Puchol Sarthou fue un gran empresario, en 1902 colaboró en la fundación de la Asociación Naviera Valenciana, la cual presidió desde 1905 hasta 1919, su carácter y su tendencia marina le hizo participar activamente en las Compañías navieras: “Correos de África”, “Valenciana de Navegación” y la “Isleña Marítima”, fue miembro durante varios años del Consejo de Administración de la Caja de Ahorros de Valencia etc. El edificio presenta planta rectangular con dos plantas y desván, cubierta a cuatro aguas y torreta en confluencia de las cubiertas, siguiendo la tipología de las valencianas con Miramar. Durante aquella época José Manuel Cortina había recibido varios encargos por parte de la familia Puchol, la reforma de su vivienda de la Calle Colón en Valencia, así como el mantenimiento de distintas viviendas de alquiler en Valencia, el Panteón Puchol del Cementerio General y otros. A su vez poseía tierras para el cultivo agrícola y exportación de agrios, en Villarreal (Castellón), por lo que en 1915 Vicente Puchol Sarthou encargó a José Manuel Cortina “su casa de verano”. Tampoco en esta villa disminuye el interés por el color que ha caracterizado toda su obra. Molduras y antepechos en blanco, paramentos en distintas gamas de salmón, carpinterías en verde pastel, cerrajería en negro, persianas en marrón, forman un todo en apacible armonía cromática. La Villa Giner-Cortina de Torrente. En abril de 1918, José Giner y Viguer, compra en Torrente los terrenos donde construirá el Chalé de su familia (José Giner compra algo más de tres cuartas partes del terreno, al entonces concejal del ayuntamiento Don Pascual Fernández y casi una cuarta parte a Don Vicente Gimeno, por un total de 4400 pesetas). Para ello pedirá a su cuñado Don José María Manuel Cortina Pérez (pues este es hermano de su mujer Elvira María Salomé Cortina Pérez) que realice los planos de esta nueva Villa. La elección de Torrente se debe a que, gracias a la implantación del tren de cercanías a finales del siglo XIX, esta población destacaba como una de las mejores poblaciones de las cercanías de Valencia, atrayendo a familias muy distinguidas de la ciudad. Una vez finalizadas las obras su promotor José Giner, contrae una gripe que acabará siendo mortal para él, pues acaba falleciendo en el año 1920. La Villa será utilizada por los Giner-Cortina y herederos, hasta que en 1984 María Salomé Giner Cortina vende la propiedad. A partir de ese momento, el edificio cae en desgracia, ya que se ocupa ilegalmente y se expolian gran parte de sus materiales (Pavimentos principalmente), además de producirse una serie de incendios intencionados para ocultar otros hechos, que lo dejarían en el maltrecho estado en el que se encuentra hoy en día. Esta Villa, dispondrá (según se dice) de Cerámica Nolla en sus suelos, pero los expolios, incendios y saqueos continuados en ella, han acabado dejando el edificio en "nada"; nada que proteger, nada que conservar o cuidar, pues es tal el deterioro que posee, que personalmente, considero que el que fue un gran edificio, ha quedado reducido a un montón de residuos, con un más que inviable proyecto o intento de recuperación. La Villa Morris de Bétera. Villa Rosita, Villa Morris, Villa Iborra y Villa la Barraca, nombre de cuatro Villas que dan lugar a una única, nombres que van cambiando según el paso del tiempo y de propietarios que va teniendo la misma vivienda. Walter Morris Martin tras una incómoda situación familiar a los trece años (1866) decide buscar un mejor futuro en Sudáfrica para más tarde terminar en América, justo durante el período de migración apresurada y masiva de trabajadores que sufría gran parte del continente americano y en este caso México, inmigración hacia las áreas más rústicas, en las que se había producido un descubrimiento espectacular de comerciales de oro. Es allí donde conoce a su mujer, ciudadana mexicana. Forma una gran familia, de ocho hijos, con una novena en camino cuando deciden volver a España una vez han hecho fortuna, o como decimos en España de “Hacer las Américas”. Se cree que Walter Morris al volver, aproximadamente en el año 1897-1898, decide reencontrarse con sus amigos, entre ellos con Francisco La Roda, quien probablemente es el que le recomienda a José María Manuel Cortina Pérez, arquitecto de renombre en Valencia, por su estilo modernista y fantasioso, para el encargo de una Villa familiar en Bétera donde alojarse, por ello deciden comprar una parcela muy cercana a la de La Roda. Walter Morris da por nombre a ésta como Villa Rosita, obsequio a su mujer que se encontraba en cinta de una niña a quien nombrarían así. Lógicamente el oro y propiedades que traía de México no durarían de por vida, por lo que, al finalizar las reservas, tras una vida de lujo y despilfarro, se quita la vida en la torreta de la Villa (1905). Viuda y sin dinero Emilia Cooley Acosta (Viuda de Morris) se ve obligada a vender tanto la Villa como todas sus hectáreas a la familia Iborra, y son ellos quienes más tarde construyen la capilla y la barraca que se encuentran actualmente el recinto. De allí que se conozca también como Villa Iborra o Masía “La Barraca”. Con el paso de los años, en 1974, al desarrollar las Ordenanzas de la edificación Plan Parcial “San Vicente” o “El Portón” en los terrenos de la masía, se consiguió que mediante estas las gestiones municipales, tanto el edificio de la vivienda como la capilla y otras dependencias, además del jardín, pasaran a formar parte del patrimonio municipal de Bétera, permitiendo esto el goce y disfrute de todos los vecinos, además las hectáreas que le rodearan se convirtieron en suelo urbano donde actualmente se encuentran viviendas adosadas. Desde entonces la asociación de amas de casa de Bétera tiene la sede en la “Masía de la Barraca”, y es en 1997 cuando queda inaugurado en la misma sede, el Gabinete de consumo municipal donde se da servicio gratuito y consejos sobre estos temas al pueblo. 3. LAS PROPORCIONES ÁUREAS DE LA VILLA MORRIS. La proporción áurea es comúnmente asociada con la armonía estética en el arte en general, y en concreto con la arquitectura, es un símbolo de perfección estética. Este concepto data de mucho tiempo atrás, en la antigua Grecia, siglo V a.C, ya se conocía y frecuentemente lo utilizaban. Matemáticamente se define la proporción aurea de la siguiente manera: la proporción de “a” dividida por “b” donde ( a+b ) es para “a” lo que “a" es para “b”. Una vez realizados los cálculos obtenemos que la proporción áurea es: (1+√5)/2 es decir, 1,618 aproximadamente. Actualmente, se sigue utilizando la proporción áurea en la arquitectura contemporánea en diferentes estructuras. Fue Le Corbusier quien en los años 40 desarrolló un sistema de proporciones o medidas detallado llamado "Modulor" basando la proporción de alturas en la proporción áurea, reivindicando así el concepto de sección áurea en la arquitectura moderna. Sin embargo, no solo a Le Corbusier se le atribuye el uso de este concepto, de igual forma lo hizo Mies Van der Rohe. Figuras 5 y 6. Proporción Aurea de la Fachada. Pavimento Distribuidor de planta Baja y mobiliario de época. La proporción áurea es comúnmente utilizada en las fachadas para la definición de tamaños proporcionales y estéticamente correctos, ejemplo de ello sería para la definición de los huecos de ventanas, de las puertas, o incluso para definir la ubicación de las columnas, arcos, y hasta de los elementos decorativos, con el fin de lograr un conjunto visualmente atractivo manteniendo a su vez la proporcionalidad con respecto a la fachada total. Así pues, se observa que Cortina dominaba y valoraba el uso de las proporciones, el empleo del color, así como el juego de luz y sombras en todas sus obras. Reflejo de ello, como se muestra a continuación, las proporciones geométricas utilizadas tanto para los alzados como para las plantas de muchos de sus edificios, algunos manteniendo su vigencia en la actualidad. En la imagen anterior se observa el rectángulo áureo y en línea más clara, tanto el denominado "espiral divino” denominado de esta manera, ya que si se traza una línea recta desde el polo hacia cualquier punto de la curva, esta queda cortada exactamente en el mismo ángulo, como las diagonales que nos llevan al "ojo de Dios” siendo este el resultado trazar diagonales en cualquier par de rectángulos, y estas diagonales convergerán siempre en un mismo punto, tanto de los rectángulos “madre" como hija”. Figura 7. Proporción áurea de las plantas. Figuras 8 y 9. Imágenes. Fachada (ver imagen 3). Comedor Invierno (imágenes coloreadas de 1898-1900). Fuente de ambas Imágenes Doña África Morris Aparicio (biznieta de Walter Morris Martín). 4. LA CERÁMICA NOLLA DE LA VILLA MORRIS. CONCLUSIONES. Cortina diseñaba sus obras en su totalidad. Muestra de ello son los pavimentos encontrados en sus edificios y villas: elementos decorativos, bellos y sobre todo, que debían aportar calidad, resistencia y durabilidad. Ya desde temprana edad, el maestro de Obras Don Antonio Cortina Gallego, padre de José María Manuel Cortina, inculcó a su hijo la idea de que para lograr la perfección en sus trabajos debía rodearse de los mejores artesanos y profesionales. No es extraño que para la Villa Morris recurriera al mejor fabricante de pavimentos del momento: Tomas Miguel José Nolla i Bruget. La fábrica Nolla fue constituida en 1860 por Sr. D. Tomas Miguel José Nolla i Bruget, que con tan solo 20 años llega a Valencia desde Reus para labrarse un futuro. Tras su fundación, el mosaico Nolla recibió enormes elogios por su calidad y precio competitivo en las exposiciones universales de París de 1867 y de Viena de 1873. Durante años, otras importantes exposiciones como las de Filadelfia, Madrid, Barcelona, Burdeos… premiaron un material de primera clase, incluso en Madrid se le concedió el premio de Honor “Reconociendo en el pavimento Nolla el mejor conocido en el mundo por su dureza, hermosos colores, y matemático ajuste de las piezas”. La Villa Morris es una de las pocas obras que actualmente presenta una gran variedad de mosaicos Nolla, los cuales se encuentran representados en detalle más adelante (Imágenes 6,8,10 y sig.). Dichos solados de mosaico y portland han substituido totalmente a los de azulejos o baldosas vidriadas que solo se utilizan en arrimaderos y chapados de habitaciones en que se desea tener asepsia, por la limpieza de sus paramentos (cocinas y baños). Figura 10. Restitución Pavimento Comedor de invierno en PB, el hueco de la izquierda es para la chimenea. Como mencionábamos anteriormente, a José Manuel Cortina le gustaba que en sus obras estuviese plasmado el trabajo de los mejores artesanos y maestros de obra. Concretamente, es a su amigo Miguel Nolla Sagrera, hijo de Miguel Nolla Bruget, al que encargará el diseño de los pavimentos de la villa, años antes de que él y sus hermanas acaben vendiendo la fábrica. Sin embargo, poco o nada se sabe de los maestros y puesta en obra de los pavimentos: un delicado trabajo apoyado con bocetos y plantillas de gran precisión y calidad, que requerían de una estricta y rigurosa maestría para la colocación de las piezas. Los pavimentos de la Villa Morris son de una muy alta calidad artística, siendo los de la planta inferior de mejor calidad en diseño, pues corresponden a salas más nobles del edificio (comedores de invierno y verano, despacho, etc.). Para el arquitecto, un diseño esmerado en cada detalle de su obra deja clara su postura y cariño hacia la misma. En torno a los pavimentos, el fin queda plasmado tras la belleza y composición de esta cerámica que da paso al lujo, a la calidad y al máximo esplendor de los espacios que la encierran y contienen. Figura 11. Pavimento comedor de verano en PB. El mosaico Nolla se fabricó hasta los años setenta, alcanzando un siglo de presencia en el mercado bajo varias firmas consecutivas, Hijos de Miguel Nolla y Mosaico Nolla S.A. Tras la aparición de nuevos materiales y nuevas modas, se desvirtuó la importancia y nobleza de los mosaicos anteriores, que poco a poco irían siendo reemplazados por mediocres parqués o novedosos diseños de baldosas hidráulicas. Tal es el ejemplo de numerosos edificios de Cortina situados en el primer Ensanche de Valencia, en donde la burguesía era sinónimo de lujo y en donde actualmente poco o nada queda de aquellas piezas que conformaban los suelos o revestimientos que en su día fueron la imagen de una moda a la vanguardia. Este pavimento, se recuperó gracias a la intervención de varios estudiosos del Arquitecto Cortina y de la Cerámica Nolla (entre los que me incluyo). Inicialmente se pensaba eliminar “todo” el pavimento para poner uno más “moderno” y limpio. Los escritos a los Institutos de Patrimonio y Prensa solicitando la paralización de estos hechos salvaron estos pavimentos y este edificio. Hechos quizá influenciados por cuestiones políticas que nada tienen que ver con el patrimonio y su protección, quizá el aproximarse las elecciones Municipales el partido en el poder paralizó los hechos. Posteriormente a las elecciones, el llevar por mi parte a alumnos de último curso de Ingeniería de Edificación (antiguo Aparejador), para el levantamiento de los suelos, así como para hacer propuestas de cambio de uso del edificio “propiedad Municipal”, hizo que el municipio a nivel de grupos políticos cambiara sus intenciones. Figura 12. Pavimento del Distribuidor y Acceso de PB (Ver imagen 6). Figura 13. Pavimento despacho en PB. Figura 14. Pavimento habitación en P1. Figura 15. Pavimento Dormitorio Principal en P1. Figura 16. Pavimento habitación en P1. Figura 17. Pavimento habitaciones en P1. LAS RESTITUCIONES DE LOS PAVIMENTOS SE RECORTAN, SALVO PLANTA BAJA, PARA PODER DAR UN MAYOR NÚMERO DE ELLOS EN ESTE ESCRITO. RECONOCIMIENTOS El autor desea agradecer la gran colaboración del Ayuntamiento de Bétera, por mantener este edificio, con estas joyas de pavimento patrimonial. Así mismo mi agradecimiento a los propietarios de las otras Villas del Arquitecto Cortina, así como a los herederos del arquitecto, por su gran colaboración en mis investigaciones sobre su abuelo y bisabuelo. Y especialmente a Doña África Morris Aparicio, por la información e imágenes de su familia y la Villa Morris. REFERENCIAS BIBLIOGRÁFICAS 1- BENITO GOERLICH, Daniel. La arquitectura del eclecticismo en Valencia. Vertientes de la Arquitectura Valenciana entre 1875 y 1925. Valencia: Ajuntament de València. 1992. 2- DE SOTO ARANDIGA, Concepción. Arquitectos y arquitecturas modernistas. José Manuel Cortina Pérez. Arquitecto de Vertiente ornamental. Vertientes del modernismo en Valencia. Real Academia de Bellas Artes de San Carlos. RACV Digital. Valencia. 2013. 3- GIRBÉS PÉREZ, Jorge. José María Manuel Cortina Pérez. De la Expresión Gráfica a la Edificación. La Obra de un Genio del Modernismo Valenciano. Valencia. Universidad Politécnica de Valencia. 2013. 4- PIQUER CASES Juan Carlos, Análisis y Reconstrucción Virtual del Palacio Real de Valencia (1239-1810). Desde la planta de Vicente Gascó de 1761 a los planos de Manuel Cavallero de 1802. Resultados de la Investigación Gráfica. Valencia. EGA-13 2008. Universidad Politécnica de Valencia. 2008. 5- VV AA. Fabular Edificando. La obra de Cortina. Valencia. Generalidad Valenciana. 2011. Dr. A. Jorge Girbés Pérez Profesor Titular de Universidad. Departamento de Expresión Gráfica Arquitectónica, adscrito a la ETSIE, Universitat Politècnica València. Profesor ETSIE (Escuela Técnica Superior de Ingeniería de Edificación) y ETSA (Escuela Técnica Superior de Arquitectura). Arquitecto Técnico (Aparejador), Doctor Arquitecto por la Tesis " Arquitectura Ecléctico Funeraria de la Ciudad de Valencia. El Cementerio General de Valencia, catalogación y levantamiento gráfico de la arquitectura funeraria de la Ciudad de Valencia” por la Universitat Politècnica de València e Ingeniero de Edificación por la Universidad de Castilla La Mancha. Con varias líneas de Investigación, sobre la obra del Arquitecto José María Manuel Cortina Pérez, La Cerámica Nolla en la arquitectura Tradicional Valenciana o la Arquitectura y Escultura Funeraria. LA CONFIGURACIÓN ARQUITECTÓNICA COMO FUNDAMENTO DEL COMPORTAMIENTO ESTRUCTURAL EN LAS EDIFICACIONES Carlos Alberto Torres Montes de Oca1 1Profesor investigador de la Sección de Estudios de Posgrado e Investigación de la Escuela Superior de Ingeniería y Arquitectura, Unidad Tecamachalco (ESIA-UT) del Instituto Politécnico Nacional (IPN), Naucalpan Estado de México, México. 1ktcate2@hotmail.com, ctorresmo@ipn.mx RESUMEN México cuenta con una gran cantidad de construcciones edificadas en diferentes periodos de tiempo y de manera general, con una composición arquitectónica-estructural diversa en sus inmuebles, sólo basta recorrer las ciudades que conforman al país para observar que, de manera general, se cuenta con edificaciones con características constructivas muy específicas, de tal manera que tomando en cuenta el comportamiento estructural, las frecuencias, modos de vibrar y los sistemas estructurales se clasifican, de manera general, en tres categorías o tipos: Edificaciones nuevas, Edificaciones antiguas con materiales contemporáneos, Edificaciones históricas de mampostería no confinada. Dado que los inmuebles son condicionados desde su concepción, planeación, construcción, uso e intervención, dichas condiciones arquitectónicas deben ser consideradas como parte fundamental en la vida útil de las edificaciones con una perspectiva de funcionalidad en cuanto al comportamiento estructural. Por tal motivo, en esta investigación se analizan, de manera aleatoria, este tipo de edificaciones desde una perspectiva global en sus características compositivas arquitectónicas-estructurales por medio de tres casos de estudio reales. En este documento se considera a la resiliencia estructural en una etapa más temprana a la ocurrencia de algún desastre, con la finalidad de que ésta no sea sólo una capacidad de alguien o algo de manera aislada, más bien una disposición preconcebida por todas aquellas personas que estén involucradas en la planeación, construcción, mantenimiento y protección de las edificaciones, ya sea existentes o nuevas. PALABRAS CLAVES: Configuración arquitectónica, edificaciones nuevas, Edificaciones antiguas con materiales contemporáneos, Edificaciones históricas de mampostería, comportamiento estructural. ARHITECTURAL CONFIGURATION AS THE FOUNDATION OF STRUCTURAL BEHAVIOR IN BUILDINGS ABSTRACT México has a large number of constructions built in different periods of time and in general, with a diverse architectural-structural composition in its buildings, it is only enough to go through the cities that make up the country to observe that, in general, it has buildings with very specific construction characteristics, in such a way that taking into account the structural behavior, frequencies, modes of vibration and structural systems are generally classified into three categories or types: New buildings, Old buildings with contemporary materials, Historic unconfined masonry buildings. Given that buildings are conditioned from their conception, planning, construction, use and intervention, these architectural conditions must be considered as a fundamental part of the useful life of buildings with a perspective of functionality in terms of structural behavior. For this reason, this research randomly analyzes this type of building from a global perspective in its architectural-structural compositional characteristics through three real case studies. In this document, structural resilience is considered at an earlier stage of the occurrence of a disaster, so that this is not just a capacity of someone or something in isolation, rather a preconceived disposition by all those people who are involved in the planning, construction, maintenance and protection of buildings, whether existing or new. KEY WORDS: Architectural configuration, new buildings, old buildings with contemporary materials, historical buildings, sustainability and structural resilience. 1. INTRODUCCIÓN México es un país con gran auge de construcción de edificaciones destinadas a diferentes actividades, entre éstas se encuentran las de vivienda, ya sean edificaciones clasificadas como verticales o conjuntos habitacionales horizontales, oficinas, industria, escuelas, hospitales, aeropuertos, entre otras. Adicionalmente y afortunadamente, México cuenta todavía con una gran cantidad de inmuebles tanto históricos como artísticos, sin embargo, la gran variedad de corrientes arquitectónicas, diversidad de formas, configuración espacial arquitectónica, alturas, materiales de construcción, sistemas constructivos, tipos de suelo, fallas geológicas, subsidencia del suelo, alta actividad sísmica, autoconstrucción, deficiencia en supervisión durante su construcción o intervención, baja calidad en control de obra, falta de mantenimiento preventivo, frecuente cambio de uso en las actividades que se desarrollan en los espacios arquitectónicos y por ende modificación de las cargas, así como la integración o liberación de elementos estructurales, conllevan a las estructuras de dichos inmuebles a comportarse de forma heterogénea y alejada de la manera en que pudo ser concebida en la vida inicial de cada uno de éstos, de tal manera que dicha concepción del comportamiento estructural inicial tiende a modificarse con el paso del tiempo, o incluso dichos comportamientos que en muchas ocasiones llegan a ser desfavorables para las construcciones, pudieran ser no previstos en la configuración arquitectónica a lo largo del tiempo y además generados por deficiencia en planeación, control, ejecución de las obras y mal uso de las mismas, lo cual provoca desempeños estructurales con múltiples escenarios desfavorables en las edificaciones clasificadas, de manera general, como: nuevas, antiguas con materiales contemporáneos e históricas de mampostería no confinada. (ver figuras 1, 2 y 3). Dicha clasificación no es totalitaria, dado que cada inmueble es cuenta con características muy específicas, sin embargo, desde una perspectiva arquitectónica-estructural es factible acotar el universo de construcciones dado el tipo de análisis estructural y las nuevas herramientas numéricas para obtener su respuesta. 2. COMPOSICIÓN ARQUITECTÓNICA, SOSTENIBILIDAD Y RESILIENCIA ESTRUCTURAL Composición arquitectónica El diccionario de la Real Academia Española (RAE) 1se refiere a la palabra componer como: formar una cosa por medio de muchas otras, hacer un todo por medio de su construcción, arreglar y organizar lo desordenado, concebir y producir una obra científica, restaurar o reforzar algo, formar o constituir algo por varias partes, ingeniarse algo para lograr algún fin. Asimismo, alude a la arquitectura como: proyectar y construir edificios como arte, diseño de edificaciones, estructura lógica y física de los componentes, fortificar. Por otra parte, en el prólogo escrito por Brend Evers 1en el texto “Teoría de la arquitectura, del renacimiento a la actualidad” se menciona que para tener una buena arquitectura se debería cumplir la tríada de Vitrubio, reconocido como el patriarca de todos los teóricos de la arquitectura, en la que se menciona que toda obra arquitectónica debería ser, al mismo tiempo, firme (firmitas), útil (utilitas) y bella (venustas). Por la naturaleza, objetivos y alcances de este texto se hace énfasis sólo a la firmeza y utilidad, aunque no quiere decir que la belleza no importe, sin embargo, el eje medular de este artículo está dirigido a la sostenibilidad y resiliencia estructural. La firmitas (firmeza) alude a la elección del sitio, materiales y cimentación de la edificación, mientras que la utilitas (utilidad) a la finalidad de uso de la construcción. En la actualidad, la mayorá de los despachos de arquitectura, incluso las universidades en todos sus niveles de estudio se han subdividido por disciplinas, las cuales a su vez se están atomizando, causando una disgregación de las partes fundamentales como enseñanza de la arquitectura. Sostenibilidad y resiliencia estructural Preocupaciones, tareas y esfuerzos, son los tres capítulos en los que se divide el Informe Brundtland, el cual fue publicado en 1987 para las Naciones Unidas, aunque este concepto se utilizó y se utiliza más frecuentemente en temas de ecología y economía 3, en este trabajo se hace análogo a una visión de sostenibilidad y resiliencia estructural de las construcciones, que además no está desligada a los temas antes mencionados. En su apartado de desarrollo duradero, se exige que se satisfagan las necesidades básicas de todos, además de aspirar a una vida mejor y se garanticen los recursos necesarios para sostener un crecimiento. Las nuevas edificaciones conllevan una gran carga en la mochila ecológica, por tal motivo es conveniente alargar el tiempo de vida de éstas y la seguridad estructural, esforzarse por no crear edificaciones nuevas desechables, tal como los productos fabricados con materiales altamente contaminantes como los polímeros, ya que además que en la actualidad se está edificando con materiales que contaminan, los sistemas y materiales de construcción son altamente degradables en sus propiedades mecánicas en el tiempo ligado a la falta de mantenimiento adecuado. Asimismo, dicho informe menciona que la administración de la infraestructura en todo en mundo es y seguirá siendo un desafío urbano. La RAE hace referencia a la sostenibilidad como algo que se puede sostener y que se mantiene durante tiempos prolongados sin agotamiento de recursos 1. De acuerdo con la visión arquitectónico-estructural de este trabajo, el término sostenible se utiliza como el comportamiento estructural duradero y eficiente durante la vida útil de la edificación y su posterior reciclaje. Cabe señalar que en periodos de tiempo pasados donde los elementos arquitectónicos eran las mismas partes de la estructura y viceversa, se podía observar con mayor certeza si la estructura del inmueble estaba sufriendo algún deterioro significativo, sin embargo, en la actualidad se suele forrar una gran parte y en ocasiones totalmente, a la estructura con acabados que se catalogan como ligeros, los cuales impiden la observación constante del comportamiento estructural, disminuyendo la posibilidad de evaluar el nivel de sostenibilidad estructural que pudiera presentar el sistema. Por lo tanto, analizando, sintetizando y relacionando estos significados con la sostenibilidad estructural, en este texto se define el a la “sostenibilidad y resiliencia estructural” como: la capacidad del sistema estructural de un inmueble arquitectónico para soportar y disipar las acciones permanentes, variables y accidentales a lo largo de su vida útil con nulo, mínimo deterioro o un nivel viable de reparación, después de varios eventos que le induzcan efectos desfavorables en su comportamiento estructural, con la finalidad, no sólo de evitar pérdidas económicas y decesos humanos, sino con la visón de alargar su vida útil a generaciones futuras. 3. CLASIFICACIÓN DE LAS EDIFICACIONES DE ACUERDO CON SUS CARACTERÍSTICAS FÍSICO-CONSTRUCTIVAS Edificaciones nuevas En esta clasificación se encuentran todas aquellas edificaciones que tienen un periodo de tiempo muy corto de haberse terminado de construir, que se están construyendo o que están por construirse (ver figura 1). De manera general presentan características tales como: formas con alto grado de asimetrías, tanto en sus plantas como en sus alzados, en muchas ocasiones mayor altura que las construcciones convencionales, incluso rebasando por mucho las alturas permitidas por los reglamentos y normatividades locales, claros más largos, menor cantidad de elementos de soporte vertical, materiales considerados de composición mecánica continua, isotrópicos y homogéneos (cuando son nuevos o de construcción muy reciente), viviendas con muros más esbeltos y ligeros, incluso algunas de las edificaciones nuevas se están construyendo con materiales tradicionales, elementos estructurales prefabricados, presforzados, con alta cantidad de polímeros y/o fibras resistentes a tracciones, o con una combinación de muchos de estos materiales, asimismo, varias de estos inmuebles tienen un alto contenido de población en su interior (algunas de éstas, también llamadas ciudades verticales). En este tipo de edificaciones se empieza autilizar concretos cada vez más resistentes (concretos de alta resistencia) o al menos concretos relativamente nuevos y poco degradados en sus propiedades mecánicas. a) b) c) d) Figura 1: Características de edificaciones nuevas en México, a) Museo Soumaya construido con estructura de acero y forrado con placas de aluminio [4], b) Edificio de 9 niveles desplantado sobre suelo altamente compresible, c) Torres con más de 50 pisos edificadas sobre suelo blando [5], d) Casa habitación prototipo construida con claros de 9m con espesores de entrepisos de 20cm y muros de carga de 13cm de espesor. Edificaciones antiguas con materiales contemporáneos En esta clasificación se encuentran todas aquellas edificaciones que tienen un periodo de tiempo considerable de haberse construido, se pueden incluir aquellas que rebasan los 40 años de edad (ver figura 2), ya que el concreto reforzado en condiciones de buen uso y con un correcto mantenimiento, tiene una vida útil promedio de 50 a 80 años, sin embargo en México se presentan sismos con relativa frecuencia y esto hace que las estructuras construidas con dicho material, a base marcos, presenten fisuración o agrietamiento por las constantes oscilaciones, incluso 6menciona que las estructuras deben diseñarse para una vida útil de al menos 50 años. México cuenta con infinidad de inmuebles con estas características, es decir, gran parte de los edificios de la ciudad está envejeciendo, tales como: unidades habitacionales horizontales y verticales, escuelas de todos los niveles, hospitales, oficinas, entre otros. Esta situación hace indispensable que los inmuebles se tengan que revisar con la normatividad de construcción actualizada para contar con una resiliencia y sostenibilidad estructural preventiva. En este tipo de edificaciones se encuentran muy frecuentemente concretos de baja o media resistencia (concretos viejos, degradados o de resistencia común o clásica), el concreto aunque es un material que se ha utilizado por muchos años, en esta clasificación se considera disminuido en sus propiedades mecánicas o incluso carbonatado por el paso del tiempo, a diferencia de las edificaciones relativamente nuevas. Este tipo de degradación se puede observar en las frecuentes pruebas de laboratorio de especímenes extraídos de algunos inmuebles, donde se llegan a tener módulos elásticos hasta por debajo del 50% de lo indicado en normatividad estructural vigente. a) b) c) d) Figura 2: Características de edificaciones catalogadas en este trabajo como antiguas con materiales contemporáneos en México, a) Unidad habitacional con características de piso débil y concentración de masa, construida en los 80´s 7, b) Escuela secundaria edificada a base de marcos, algunos confinados con muros de mampostería regular 8, estas dos edificaciones ubicadas en la alcaldía GAM, c) Hospital la Raza ubicado en la alcaldía Azcapotzalco 9, d) Edificio de 5 niveles y un apéndice construido sobre suelo altamente compresible ubicado en la alcaldía Coyoacán 10, todos en la Ciudad de México (CDMX), México. Edificaciones históricas En esta clasificación se encuentran todas aquellas edificaciones que tienen un periodo de tiempo muy largo de haberse terminado de construir, incluso de siglos pasados. Cabe mencionar que aunque existe una gran diversidad de diferentes tipos de inmuebles históricos De manera general presentan características tales como: formas con alto grado de asimétricas tanto en sus plantas como en sus alzados, mayor altura que las construcciones convencionales, incluso rebasando por mucho las alturas permitidas por los reglamentos y normatividades actuales, materiales considerados de trabajo discontinuo, ortotrópicos, anisotrópicos y no homogéneos (también llamadas edificaciones históricas, ver figura 3). Aunque existe una gran variedad de inmuebles históricos, en este trabajo se hace más alusión a los templos, ya que en éstos se pueden encontrar prácticamente todo tipo de sistemas constructivos desde el siglo XVI hasta el siglo XIX, que también se utilizan en los otros tipos de edificaciones, tales como: viviendas, cuarteles, fábricas, teatros, etc., sin embargo los templos tienen características formales y constructivas que engloba a los anteriormente descritos desde un punto de vista técnico estructural, por ende los hace objetos patrimoniales especiales en el análisis estructural, esto sin despreciar a los otros tipos. a) b) c) d) Figura 3: Características de edificaciones históricas de mampostería no confinada en México, a) Inmueble desplantado en un suelo altamente compresible en la CDMX, b) Parroquia que data del S.XVI desplantado en suelo de baja compresibilidad en Puebla, c) Catedral en Tlaxcala S.XVI, d) Capilla S.XVI con deterioro estructural severo en Pachuca Hidalgo, todos construidos con mampostería. 4. CONDICIONES ARQUITECTÓNICAS, CONDICIONES DE REGULARIDAD Y RECOMENDACIONES ESTRUCTURALES Las condiciones arquitectónicas (en este texto también llamada composición arquitectónica en cualquier instante de tiempo) de las edificaciones son aquellas que se consideran desde la percepción como proyecto hasta que deja de existir la construcción, además dichas condiciones o composición no es estática. Es importante mencionar que es imprescindible visualizar a las construcciones haciendo una analogía médico-paciente 11, ya que como menciona John Ruskin, quien vivió de 1819 a 1900 y que representa a una conciencia romántica, moralista y literaria, además reflexiona la ineludible “muerte” de un edificio después de haber servido y por tanto haber cumplido con su vida útil, entonces se puede decir que tal como un ser humano vive, se reproduce y muere, y quizá dentro del lapso de vida pasó varias ocasiones en las que enfermó y se trató dichas enfermedades, deterioros naturales o inducidos, de igual manera los inmuebles se deben tratar o dejar morir 12. Cabe mencionar que los tres tipos de edificaciones aquí descritas, cuenta con características físicas, problemáticas (fenómenos) y deterioros comunes de acuerdo con su tipo de sistema constructivo y estructuración específica. Las normativas modernas de análisis y diseño estructural presentan condiciones geométrico-estructurales que deberían de cumplir las construcciones con la finalidad de incrementar la garantía de estabilidad y resiliencia estructural, también conocidas como condiciones de regularidad, en la CDMX tales condiciones están inmersas en Las Normas Técnicas Complementarias para diseño por Sismo del Reglamento de Construcciones para el Distrito Federal 13. Cabe señalar que estas condiciones se especifican para hacer más seguras y resilientes a los sistemas que trabajan como estructuras de cortante, es decir, estructuras conformadas por columnas, muros y/o marcos confinados o no, con masas concentradas en los entrepisos, sin embargo, en este texto se retoman y complementan con la finalidad de que se puedan tomar en cuenta para cualquier tipo de edificación, de acuerdo con sus características físicas, mecánicas y constructivas, ya sea inmuebles nuevos, antiguos o históricos. Las condiciones de regularidad y estabilidad estructural, en este trabajo se etiquetan como condiciones de regularidad y recomendaciones para el análisis estructural de edificios nuevos, antiguos con materiales contemporáneos e históricos (ver tabla 1), se presentan de manera conjunta para estas tres categorías, debido a la naturaleza que los sistemas estructurales presentan en la realidad, puesto que una gran cantidad de inmuebles históricos y artísticos se han intervenido con materiales y elementos estructurales etiquetados como “contemporáneos” (concreto, acero, polímeros, etc.). Ejemplo de ello es la gran cantidad de inmuebles históricos construidos con mamposterías irregulares que han sido intervenidos, ya sea de manera consciente o inconsciente, con concreto reforzado, elementos de acero y actualmente con fibras de vidrio, carbón y polímeros (ver caso 3). Esto conlleva a que el analista estructural se obligue a ampliar y profundizar su espectro de conocimiento entorno a los sistemas constructivos, equilibrio y resistencia de los objetos arquitectónico- estructurales con la finalidad de evaluar adecuadamente los sistemas estructurales combinados o no, e intrínsecos en cada objeto arquitectónico. Tabla 1: Condiciones de regularidad y recomendaciones para el análisis estructural de edificios nuevos, antiguos con materiales contemporáneos e históricos 6, 12, 13, 14, 15 y 16. Los diferentes muros, marcos y demás sistemas sismo-resistentes verticales son sensiblemente paralelos a los ejes ortogonales principales del edificio. Se considera que un plano o elemento sismo- resistente es sensiblemente paralelo a uno de los ejes ortogonales cuando el ángulo que forma en planta con respecto a dicho eje no excede 15 grados. En sistemas diseñados para Q igual o menor que 3, en ningún entrepiso el cociente antes indicado debe ser menor que 75% del promedio de dichos cocientes para todos los entrepisos. Para verificar el cumplimiento de este requisito, se calculará la capacidad resistente de cada entrepiso teniendo en cuenta todos los elementos que puedan contribuir apreciablemente a ella. Conocer a las diferentes etapas de la estructura: Original, anteriores y actual. La relación de su altura a la dimensión menor de su base no es mayor que cuatro. En sistemas diseñados para Q= 4, en ningún entrepiso el cociente de la capacidad resistente a carga lateral entre la acción de diseño debe ser menor que el 85% del promedio de dichos cocientes para todos los entrepisos. Análisis cualitativos y cuantitativos. La relación de largo a ancho de la base no es mayor que cuatro. Enfoque interdisciplinario Diagnóstico: Análisis histórico, Análisis cualitativo, Análisis cuantitativo, Análisis experimental En planta no tiene entrantes ni salientes de dimensiones mayores que 20% de la dimensión de la planta medida paralelamente a la dirección en que se considera el entrante o saliente. Se tiene Integridad de los componentes. Nivel de seguridad, objetivos de seguridad. Cada nivel tiene un sistema de piso cuya rigidez y resistencia en su plano satisfacen lo especificado en la sección 2.7 para un diafragma rígido. La restauración y conservación debe ser de todo el edificio Intervención reversible (Sólo para estructuras históricas) El sistema de piso no tiene aberturas que en algún nivel excedan 20% de su área en planta en dicho nivel, y las áreas huecas no difieren en posición de un piso a otro. Se necesitan estudios y análisis similares a los que realiza la medicina, realizar una analogía médico paciente 12. Monitoreo y control. El peso de cada nivel, incluyendo la carga viva que debe considerarse Conocer las formas, intervenciones y acciones: pasadas (historia), Informe explicativo o memoria. para diseño sísmico, no es mayor que 120% del correspondiente al piso inmediato inferior. presentes y futuras 15. En cada dirección, ningún piso tiene una dimensión en planta mayor que 110% de la del piso inmediato inferior. Además, ningún piso tiene una dimensión en planta mayor que 125% de la menor de las dimensiones de los pisos inferiores en la misma dirección. Evaluación de beneficios y perjuicios. Acciones previas a la modelación estructural: Investigación histórica (documentos), Levantamiento estructural, Pruebas de laboratorio in-situ Todas las columnas están restringidas en todos los pisos en las dos direcciones de análisis por diafragmas horizontales o por vigas. Por consiguiente, ninguna columna pasa a través de un piso sin estar ligada con él. Elaboración de un plan de actividades. Modelación estructural: Características de los materiales, Acciones, Cargas, Reporte e informe. Todas las columnas de cada entrepiso tienen la misma altura, aunque esta pueda variar de un piso a otro. Conocer el comportamiento estructural. Monitoreo. La rigidez lateral de los entrepisos difiere de manera abrupta entre éstos. Conocer las características de los materiales y técnicas constructivas. Medidas de intervención: Mampostería, Madera, Hierro, Acero, Concreto, fibras, polímeros, etc. En ningún entrepiso el desplazamiento lateral de algún punto de la planta excede en más de 20% el desplazamiento lateral promedio de los extremos de la misma. Investigaciones experimentales y aplicación de técnicas tradicionales y contemporáneas avanzadas 16 Los estudios estructurales analíticos de estructuras históricas requieren de procedimientos específicos. El comportamiento estructural de un edificio antiguo de mampostería es totalmente distinto al de una estructura moderna 14 5. COMPORTAMIENTO ESTRUCTURAL POR EFECTOS GEOMÉTRICOS Y DEGRADACIÓN DE LA RIGIDEZ Las condiciones geométricas de las edificaciones son una parte fundamental para su desempeño estructural. Es de vital importancia señalar que dentro de dicha condición se encuentra inmerso gran parte del equilibrio del sistema y de ello dependerá el tipo de comportamiento (ver figura 4). Asimismo, los sistemas constructivos, condiciones de frontera y las propiedades mecánicas de los materiales forman otra parte esencial y complementaria en el aporte de rigidez horizontal y vertical del mismo (ver figura 5). y y' y FX MTSD FX a) b) c) Figura 4: a) Localización de centro geométrico, centro de masa y centro de rigidez en una planta geométrica-estructural de una iglesia típica en México en estado estático-gravitacional, b) Momento de torsión debido a las fuerzas sísmicas en sentido X y Y, actuando sobre la estructura sin degradación de larigidez de los muros, c) Incremento del momento de torsión debido a las fuerzas sísmicas en sentido X y Y, actuando sobre la estructura con degradación de la rigidez de los muros sin rellenar. a) b) c) d) e) Figura 5: Secuencia de comportamiento de un sistema lineal de un grado de libertad (SL1DGL), sin considerar efectos de interacción suelo-estructura (ISE), sometido a movimiento en la base y por ende fuerza inercial en la parte superior debido a la concentración de masa, considerando los efectos P- . a) bajo carga gravitacional, b) sometido a movimiento en la base y fuerza inercial iniciales, c) sometido a desplazamiento máximo ( 1) debido a la fuerza inercial, d) inicio del efecto P- , e) desplazamiento total ( T) debido al efecto P- , f) datos y características del SL1DGL 17, 18, 19 y 20 . Para ejemplificar la variación de rigidez lineal, en las tablas 2 y 3 se tomaron en cuenta los factores y variables de la dinámica y sísmica estructural, tales como: Q= Factor de comportamiento sísmico asociado a la ductilidad, independiente de T, E= Módulo de Young, = Delta (desplazamiento), L= Longitud ó altura del pedestal medida desde la base hasta el centro de masa, fc’=Resistencia a la compresión del concreto, k1= factor de corrección por hiperestaticidad, Ro= factor básico de sobre- resistencia, k= Cociente entre desplazamientos máximos del suelo y de la estructura, = Factor de reducción que considera el amortiguamiento crítico (mayor que 0.05) por efectos ISE o por el uso de disipadores viscosos, b= lado corto de la sección transversal (base) del pedestal que aporta la rigidez, h= lado largo de la sección transversal (altura) del pedestal que aporta la rigidez, W= peso concentrado, m= masa relacionada a W, g= aceleración de la gravedad, Ta= Periodo característico de la meseta del espectro de respuesta sísmica, Ts= Periodo dominante del suelo. Tabla 2. Datos, características y expresiones matemáticas utilizadas en el análisis del SL1DGL de concreto reforzado 13, 17, 20. a) Fuerza inercial lateral que actúa en el i-ésimo nivel del sistema estructural = b) Relación lineal Fuerza- Rigidez-Desplazamiento F=K c) Desplazamiento máximo para este caso específico h) Datos y características del SL1DGL L= 400 cm b= 20 cm h= 40 cm fc'= 250 k/cm2 E= 221359.44 k/cm2 IY= 26666.67 cm4 K= 276.70 kg/cm w= 1000 kg g= 981 cm/s2 m= 1.02 (kg-s2)/cm T= 0.381 s Ta= 1.140 s = 1.00 sin ISE k= 1.00 Cociente Q= 2.00 Ductilidad Q'= 1.335 d) Rigidez lateral del pedestal alrededor del eje Y e) Inercia de la sección del pedestal alrededor del eje Y f) Factor de reducción por comportamiento sísmico, en función de T ex CR y CR CG x' x CR x CG x CM ey CG CM CM F Y F Y g) Factor de reducción por sobre-resistencia h) Factor de incremento para estructuras bajas y rígidas i)Periodo natural de vibrar del sistema estructural k2= 0.2108 k2>0 k1= 0.8 R0= 1.75 R= 1.61 c= 0.32 coef sismico Fi= 148.86 kg Tabla 3. Comparación de desplazamientos con efectos P-en el análisis del SL1DGL al variar la rigidez A B C D 1= 0.5380 0.8110 1.385 2.467 cm M1= 59543.98 57224.05 53651.11 49153.72 kg-cm M2= 80.08 116.02 185.76 303.19 kg-cm Fi'= 0.20 0.29 0.46 0.76 kg T= 0.5387 0.8127 1.390 2.482 cm 2= 0.0007 0.0016 0.0048 0.0152 cm M1= Momento de empotramiento en la base del sistema debido a la fuerza inercial lateral, M2= Momento de empotramiento en la base del sistema debido a los efectos P-, Fi’= Fuerza inercial lateral asociada a los efectos P-, 1= Desplazamiento debido a la fuerza inercial lateral, 2= Desplazamiento debido a los efectos P-, A= Caso de estudio con E y Iy, B= Caso de estudio con 0.85E y 0.75Iy, C= Caso de estudio con 0.7E y 0.6Iy, C= Caso de estudio con 0.5E y 0.5Iy. En la tabla 3 se demuestra el incremento de los desplazamientos totales, debido a la variación en el tiempo de las propiedades mecánicas asociadas a la rigidez. Para mostrar la sostenibilidad y resiliencia que pudieran presentar las tres categorías de edificaciones, asociadas al concepto de composición arquitectónica previamente planteadas, se analizan éstas, desde una perspectiva global en sus características compositivas arquitectónicas-estructurales por medio de tres casos de estudio reales con diferencias considerables en dicha composición arquitectónica. 6. CASOS DE ESTUDIO Caso 1: Este edificio de 9 niveles se proyectó en un suelo tipo III de la ciudad de México, cuyo suelo es altamente compresible, con un periodo dominante del suelo del sitio de 1.28s, el terreno sólo tiene 150m2 de superficie, el inmueble tiene una triple altura en la base del mismo con la finalidad de alojar cuando menos 15 cajones de estacionamiento distribuidos en 5 elevadores triples, dos niveles de cajones de estacionamiento concebidos por encima de nivel de banqueta (NB=+-0.00m) y un nivel subterráneo para alojar a los automóviles restantes, asimismo, contiene una losa tapa para proteger al agua potable de la intemperie, el cual estará contenida por una losa fondo que servirá para distribuir cierto nivel de descargas hacia el terreno. Partiendo de las características arquitectónicas del proyecto y los resultados obtenidos del estudio de mecánica de suelos se procedió a realizar un modelo de elementos finitos (MEF) para su análisis ante efectos gravitacionales y sísmicos, y así conocer su comportamiento bajo estos efectos conforme lo indica la normativa 13. Con la finalidad de aligerar las masas de entrepiso, la estructura se proyectó con trabes de acero acarteladas en los extremos, conectadas con columnas compuestas por medio de un perfil de acero en el interior y revestidas con concreto reforzado para proporcionar la ductilidad y rigidez necesarias y evitar alcanzar una vibración que conlleve a la resonancia, además poder cumplir con las distorsiones de entrepiso y disminuir desplazamientos laterales (ver figura 6). Inmueble con sección compuesta de acero A-50 y concreto de 300kg/cm2. a) b) c) d) e) Figura 6: Modelación del caso 1, a) Modelo del sistema suelo-etructura, b) Detallado de elementos finitos en muro lateral de confinamiento y rigidez en sentido corto, c) desplazamiento y distorsión lateral en sentido corto, d) desplazamiento y distorsión lateral en sentido largo, e) perspectiva virtual del edificio. El periodo de vibrar de la estrcutura sin considerar el agrietamiento del concreto durante su vida útil fue de 0.91s, al tomar en cuenta el agrietamiento por medio de la mofificación de la inercia del concreto al 50% en trabes y 70% en columnas, el periodo de vivbrar se incremantó a 1.05s, lo cual comienza a acercarse al periodo dominante del suelo que en esta zona la normativa mexicana indica 1.28s. Caso 2: Inmueble clasificado como una edificación antigua con materiales contemporáneos, edificio de 4 niveles, composición arquitectónica funcionalista y constituido por una estructura de concreto reforzado, que data del año 1980, en los pocos documentos originales que se tienen de este inmueble, la resistencia a compresión del concreto que se utilizó en su construcción original fue de fc’=250kg/cm2, en los corazones de concreto se obtuvieron resistencias fc’=100kg/cm2 en promedio y módulos elásticos prácticamente al 50% de los indicados en normativa (ver figura 7). Figura 7. Análisis estructural del caso 2, a) núcleo de concreto en losa con acabados, b) extracción de núcleo en columna de entrepiso intermedio, c) Agrietamiento en losas, trabes y columnas, d) detección de accero de refuerzo, e) corazón de concreto extraído, f) modelo estructural, g) primer modo de vibrar (0.65s), h) detección de grietas internas por medio de escaneo en zonas de extracción de corazones. Caso 3: Este inmueble se encuentra ubicado en la plaza de la Santa Veracruz, colonia Guerrero, alcaldía Cuauhtémoc de la Ciudad de México, la Iglesia de la Santa Veracruz es uno de los edificios, en su corriente arquitectónica, más antiguos y emblemáticos de la Ciudad de México, sus características constructivas obedecen a un sistema de mampostería irregular junteada con argamasas principalmente de cal, arena y mucílago, las cubiertas están construidas a base de bóvedas vaídas, tiene dos torres campanario, la fachada y parte de los muros laterales han sido forradas de material pétreo de tezontle. Al MEF se le proporcionaron las propiedades mecánicas calibradas en 21y hundimientos en la base que presenta actualmente el inmueble (ver figura 8). a) b) c) Figura 8. Modelación de la Iglesia de la Santa Veracruz, a) Iglesia en periodo de tiempo pasado 22, b) Inmueble estado actual, c) Efectos estructurales bajo carga gravitacional, d) fachada principal bajo efectos de hundimientos en la base, e) Fachada lateral bajo efectos de subsidencia del suelo, f) Esfuerzos principales debido a carga gravitacional y hundimeintos en la base. a) b) c) d) e) f) g) h) 7. CONCLUSIONES La composición arquitectónica inicial cambia con el transcurrir del tiempo, ya sea, por efectos inducidos por el hombre, tales como cambio de uso de los espacios arquitectónicos, alteración en sus acabados concebidos desde el inicio del proyecto y obra, falta de mantenimiento preventivo (falta de resiliencia preventiva). Por otra parte, si el proyecto o la edificación se concibieron y construyeron con formas rebuscadas, cambios bruscos en las masas y rigideces de entrepisos, diferencias considerables en las alturas de los entrepisos, liberación de elementos estructurales esenciales de aportación de rigidez, carencia de simetría, baja o nula relación de aspecto, éstos tienden a presentar mayor vulnerabilidad a deterioros, daños y colapsos con mayor frecuencia, lo que provoca, no solo el deceso de gente y pérdida del patrimonio arquitectónico, sino que también obliga a cubrir dichas necesidades de edificación, construyendo o reforzando con materiales cada vez más contaminantes y susceptibles a degradación prematura, en comparación con los materiales utilizados en tiempos pasados. Aunque las edificaciones que actualmente se están construyendo utilizan diversos materiales y sistemas constructivos que exigen a los ingenieros estructurales de la práctica profesional no sólo conocer los materiales y métodos de análisis básicos que se enseñan a nivel licenciatura, es de suma importancia conocer la naturaleza exacta de la edificación tanto del instante en el que se concibió y ejecutó la obra, como del estado actual al momento de su revisión, dado que el avance de la tecnología y la programación de métodos numéricos es cada vez más frecuente en todo el mundo así como su representación gráfica virtual, se ha empezado a caer en el error de abusar de dicha tecnología visual en los monitores de las máquinas procesadoras de datos y se está perdiendo el contacto con la realidad física que relaciona dichos análisis modernos con los efectos reales en las edificaciones. Este trabajo es de gran importancia para arquitectos, constructores, ingenieros civiles, ingenieros en geotecnia, propietarios, usuarios de las construcciones y todos aquellos profesionistas que se encuentran directa o indirectamente relacionados en la práctica profesional de lo que engloba la construcción, ya que al entender que el comportamiento resiliente y sostenible que tendrán o tienen las edificaciones en cuanto a su desempeño estructural, depende en gran medida del entendimiento que se tenga del sistema, análisis arquitectónico-estructural, mantenimiento del mismo, y correcta ejecución constructiva, se empezarán a disminuir los efectos negativos que causan las acciones inducidas por el humano y la naturaleza. Cabe mencionar que las nuevas generaciones de profesionales involucrados en el ramo, deberán contar con una visión interdisciplinaria, en la que se debe tener conocimiento del comportamiento estructural más acertado de nuestro legado arquitectónico. Aunado a lo anterior, los diseños no simétricos y altamente desafiantes de las leyes de la física en edificaciones con sistemas estructurales, materiales continuos que tienden a degradarse, el cambio en las propiedades del suelo y la falta de monitoreo y control en el tiempo, están siendo un factor importante en la modificación de comportamiento estructural y de la baja resiliencia y sostenibilidad del patrimonio arquitectónico. Para contar con edificaciones resilientes y sostenibles de forma preventiva y no correctiva, se requiere generar nuevos procedimientos técnicos para el diseño y construcción de edificios tomando en cuenta la disminución del deterioro o daño de los mismos para seguir habitándolos de manera segura y a su vez aminorar contundentemente la producción de nuevas edificaciones que conlleven a la sobre explotación de recursos naturales a fin de asegurar la conservación del medio ambiente y la salvaguarda del patrimonio construido y vidas humanas. RECONOCIMIENTOS El autor desea agradecer a la Escuela Superior de Ingeniería y Arquitectura Unidad Tecamachalco del Instituto Politécnico Nacional (ESIA-UT-IPN), al CONACYT como miembro del SNI, a Oswaldo Aldair Pérez Jarquín y José Eduardo Rosas Valencia, quienes apoyaron en algunos análisis computacionales y edición de las imágenes. REFERENCIAS 1. Real Academia Española (2021). Diccionario de la lengua española, versión en línea: https://dle.rae.es/diccionario, Actualización 2021, Edición del tricentenario. 2. Taschen Benedikt, (2011). Teoría de la arquitectura, del renacimiento a la actualidad, Editorial: Taschen. 3. Informe Brundtland (1987). Informe de la Comisión Mundial sobre el Medio Ambiente y el Desarrollo, Asamblea General, A/42/427, Naciones Unidas, 4 agosto 1987, Español. 4. https://media.gettyimages.com/photos/museo-soumaya-the-anvilshaped-soumaya-museum-picture- id962041688?s=2048x2048 5. https://images.squarespace-cdn.com/content/v1/56abf6368b38d4e9f6c8472f/1602719450086-YPJTK 7RZZU5VVGVPRPGX/CHAPULTEPEC-UNO.jpg?format=750w 6. NTC-DCEC (2021). Normas Técnicas Complementarias para diseño y construcción de estructuras de concreto, Gaceta oficial de la Ciudad de México, No. 643, 20 de julio de 2021. 7. https://www.google.com.mx/maps/@19.483622,99.0877761,3a,75y,141.92h,104.38t/data=!3m6!1 e1!3m4!1sVoIK2X11bFnFfMymsr7wVw!2e0!7i16384!8i8192 8. https://www.google.com.mx/maps/@19.4810445,99.0871696,3a,75y,70.03h,99.98t/data=!3m6!1e1! 3m4!1sd5zmPixhDnRHzx5Y_9uRcg!2e0!7i16384!8i8192 9. https://www.google.com.mx/maps/@19.4659365,99.1458434,3a,75y,135.87h,94t/data=!3m6!1e1! 3m4!1sWqvhVcQqcyADlx9vpRh-DQ!2e0!7i16384!8i8192 10. https://www.google.com.mx/maps/@19.3257662,99.1228188,3a,75y,353.07h,102.19t/data=!3m6! 1e1!3m4!1sN8NFdjjFnGasj9X0yo7CUQ!2e0!7i16384!8i8192 11. ISCARSAH-ICOMOS. (2003, 2004). Recomendaciones para el análisis, conservación y restauración estructural del patrimonio arquitectónico. Cursillo de Intervención en el Patrimonio Arquitectónico del Colegio de Arquitectos de Cataluña. Cataluña: ICOMOS. 12. Torres, C. (2018). Principios teóricos de conservación y restauración previos al análisis estructural de edificios históricos, un enfoque sistémico e interdisciplinario, Primera edición, Editorial: Restauro compás y canto SA de CV, https://editorialrestauro.com.mx, Octubre 2018, Ciudad de México, México. 13. NTC-DSCC (2020). Normas Técnicas Complementarias para diseño por sismo con comentarios, Gaceta oficial de la Ciudad de México, No. 361, 09 de junio de 2020. 14. García, N. et. al., (2018). Experiencias multidisciplinarias en el estudio del patrimonio y el paisaje, Facultad de Arquitectura, Universidad Autónoma del Estado de Hidalgo, México. 15. Peña, F., Rivera, D., & Arce, C. (2010). La conservación del patrimonio arquitectónico mediante una visión multidisciplinaria: El papel de la ingeniería. León, Guanajuato: Sociedad Mexicana de Ingeniería Estructural. 16. Binda, L., Mirabella, G., & Abbaneo, S. (February de 1994). The diagnosis Research Proyect. The professional Journal of the Earthquake Engineering Research Institute, Earthquake Spectra, Design in retrofit and repair, vol. 10(No. 1) 17. Chopra, A., (2014). Dinámica de estructuras, cuarta edición, Pearson. 18. Chopra, A., (2019). Dynamics of structures Theory and Applications to Earthquake Engineering, fifth edition, Pearson.De la Colina, J., (2016). Dinámica de estructuras, Editorial: Limusa, México. 19. Gómez, S., (2007). Análisis sísmico moderno: ética aplicada, Trillas, México. 20. Chavez, M. (2010). Validación experimental de modelos analíticos para el estudio del comportamiento sísmico de estructuras históricas. Tesis doctoral. México: Instituto de Ingeniería UNAM (II-UNAM), México. 21. https://3.bp.blogspot.com/- ifLYaUjSV48/WwC8mVohXcI/AAAAAAAAGF0/O2M1VPr040o9IDpnhAoFl5n_BwdADBPvgCLcBG As/s1600/santaveracruz.jpg Sobre el autor El autor es docente con categoría de asignatura A e investigador de la Escuela Superior de Ingeniería y Arquitectura Unidad Tecamachalco del Instituto Politécnico Nacional (ESIA-UT-IPN), México, imparte clases en la academia de estructuras de la carrera de Ingeniero-Arquitecto, pertenece a la Sección de Estudios de Posgrado e Investigación en los programas de Especialidad en restauración arquitectónica, Maestría en Ciencias y Doctorado en Ciencias en Arquitectura y Urbanismo, específicamente en el área de conservación y restauración (ingeniería estructural de edificios históricos). Además, pertenece al Sistema Nacional de Investigadores nivel 1 (S.N.I. N1) en el Consejo Nacional de Ciencia y Tecnología (CONACYT). ANÁLISIS DEL SISTEMA CONSTRUCTIVO DE UN TEMPLO DEL SIGLO XVI EN MÉXICO Carlos Alberto Torres Montes de Oca1, Miguel Ángel Segovia Huitrón2 1Profesor investigador de la Sección de Estudios de Posgrado e Investigación de la Escuela Superior de Ingeniería y Arquitectura, Unidad Tecamachalco (ESIA-UT) del Instituto Politécnico Nacional (IPN), Naucalpan Estado de México, México; 2Alumno de Maestría de la Sección de Estudios de Posgrado e Investigación de la Escuela Superior de Ingeniería y Arquitectura, Unidad Tecamachalco (ESIA-UT) del Instituto Politécnico Nacional (IPN), Naucalpan Estado de México, México. 1 ktcate2@hotmail.com, ctorresmo@ipn.mx , 2 miguelangel.sehu@gmail.com, RESUMEN A lo largo de la historia de la construcción se han empleado diversos sistemas constructivos, por tal motivo, para realizar un análisis y evaluaciones del estado estructural de cualquier inmueble se vuelve fundamental el estudio de dichos sistemas. México cuenta con una gran cantidad de edificaciones patrimoniales, mismos que pertenecen a diversos estilos y corrientes arquitectónicas, una de éstas es una capilla ubicada en el estado de Hidalgo, la cual se considera representativa en su sistema constructivo del siglo XVI. La presente investigación tiene como finalidad analizar el sistema constructivo de dicha edificación, para que se cuente con los elementos compositivos del objeto patrimonial, así mismo, que dicha información coadyuve al análisis y conservación de inmuebles similares. Por otra parte, se detectan las modificaciones que ha sufrido este sistema y, por consiguiente, los deterioros y daños que presenta, con el objetivo de proponer la intervención más adecuada para su conservación desde una perspectiva de peritaje inicial. Se recomienda que los resultados obtenidos en esta investigación sean útiles para realizar un análisis estructural e intervención física con mayor certeza. PALABRAS CLAVE: Sistemas constructivos, edificio histórico, deterioros estructurales, capilla del siglo XVI. ABSTRACT Throughout the history of construction, various construction systems have been used, for this reason, in order to carry out an analysis and evaluation of the structural condition of any building, it’s essential to study these systems. Mexico has a large number of heritage buildings, which belong to various architectural styles and currents, one of these is a chapel located in Hidalgo state, which is considered representative in its construction system of the 16th century. The purpose of this research is to analyze the construction system of this building, to have the compositional elements of the heritage object, moreover, that this information contributes to the analysis and conservation of similar buildings. On the other hand, the modifications that this system has undergone are detected and, consequently, the deterioration and damage that it presents, with the aim of proposing the most appropriate intervention for its conservation from an initial expertise perspective. It is recommended that the results obtained in this research be useful to perform a structural analysis and physical intervention with greater certainty. KEYWORDS: Construction systems, historic building, structural deteriorations, 16th century chapel 1. INTRODUCCION Dentro del territorio mexicano existe patrimonio arquitectónico en condiciones de abandono, inmuebles que permanecen en desuso y carentes de cualquier tipo de mantenimiento, uno de estos numerosos casos se encuentra en el estado de Hidalgo, un inmueble construido en el siglo XVI que aparentemente ha sufrido daños en su estructura, aunado a esta situación, la edificación presenta una estructura de concreto reforzado adosada a su estructura original, la cual es pertinente analizar, desde una perspectiva de sistemas constructivos. Por otro lado, es necesario conocer la interacción que existe entre estas dos estructuras (de fábrica y con materiales contemporáneos). Los datos recabados en este análisis cualitativo serán de utilidad para realizar un análisis estructural del edificio y detectar con certeza el origen de estas fallas y sus posibles futuras consecuencias en caso de no realizar la intervención y consolidación adecuadas. 2. PRINCIPAL SISTEMA CONSTRUCTIVO DEL SIGLO XVI EN MÉXICO En la construcción de templos, se emplearon diversos sistemas constructivos, entre los cuales destacan las bóvedas con todas sus variantes, muros y contrafuertes, cimentaciones, todos estos de mampostería, y armaduras de madera (ver figura 1), en cuanto a la distribución de espacios, fue común la construcción de templos de una sola nave, una planta estrecha y una altura considerable (ver figura 1) [1] a) b) d) e) Figura 1. Sistemas constructivos del siglo XVI, a) Bóveda de cañón corrido de mampostería [1], b) muros y contrafuertes de mampostería, c) cimentación de piedra [2], d) armadura de madera, e) planta arquitectónica de templo del siglo XVI Villaco (Valladolid) [3]. 3. ESTRUCTURA DE FABRICA. Una «fábrica» es cualquier construcción o parte de ella hecha con piedra o ladrillo y argamasa [4]. Una Estructura de Fabrica se refiere a toda construcción realizada a base agregados de materiales que trabajan únicamente a compresión (materiales pétreos) tales como piedra volcánica, piedra de cantera, o material labrado como el ladrillo, tapial (muro de tierra amasada y compactada), adobe y barro. Por otro lado, estos materiales presentan una capacidad a la tracción casi nula [5]. Mampostería El sistema más común encontrado en este periodo de tiempo la mampostería, formado por roca volcánica o material de cantera que pueden ser de diversos orígenes, con una configuración regular o irregular y en ocasiones, confinada con morteros de diferentes constituciones [6] (ver figura 2) La mampostería es un material que se compone de bloques unidos por mortero, estos bloques pueden ser regulares (ladrillo o piedra labrada) o irregulares (piedra sin labrar) [7]. a) b) c) d) Figura 2. Tipos de mampostería común en México según su configuración de elementos [8], a) Mampostería de ladrillo punteado con mortero cal/arena, b) Paramento irregular desconectado del interior, comúnmente conocido como de relleno o limosna, c) Paramento irregular con elementos de amarre, d) Mampostería irregular de piedra. c ) El templo de Santa Catarina cuenta con un sistema de mampostería irregular (ver figura 1d), originalmente confinado con una argamasa de cal y tierra de la región que con el paso del tiempo se ha degradado hasta llegar a un grado alto de desecación en algunas zonas de la estructura (ver figura 3). Es importante mencionar que la función de la argamasa no se limita a la unión de piezas entre sí, de igual forma aporta resistencia a la compresión [9]. a) b) c) Figura 3. Mampostería encontrada en sitio, a) Muros laterales y contrafuertes, b) Muro posterior con socavación de argamasa en la parte inferior, c) Fachada principal con aplanado degradado de cal en gran parte de su área, todos éstos de mampostería irregular. 4. SISTEMA CONSTRUCTIVO DEL TEMPLO Al ser una estructura de mampostería irregular, existe cierta heterogeneidad, anisotropía y discontinuidad en la composición del material que conforma a cada uno de sus elementos por lo que es complejo comprender la manera en que se transmiten las diferentes acciones a través de esta estructura, por tal motivo se realiza un despiece de la composición geométrica-estructural de este sistema constructivo (figura 4). Relleno de tierra compactada Bóveda de cañón corrido apoyada en muros, e=45 cm. Muros laterales de mampostería irregular e=80 cm. Espadaña de mampostería irregular Contrafuertes de mampostería irregular con dimensiones de 0.65 cm. x 1.05 cm. h=4.90 m. Fachada principal de mampostería irregular, aplanada con cal. e=40 cm. e=espesor Figura 4. Despiece de elementos geométrico-estructurales del sistema constructivo original del inmueble, en su mayoría están ligados de manera alternada, unos con otros, con argamasa y roca, por lo cual crean un material que pudiera tratarse desde un enfoque general como continuo o semi-continuo. 5. OBJETO DE ESTUDIO: CAPILLA DE SANTA CATARINA, ATOTONILCO EL GRANDE, HIDALGO. Desde una perspectiva inicial se consideró al sismo como principal causa de los deterioros y daños que presenta el inmueble en la actualidad, sin embargo, se encuentra en una zona de baja incidencia sísmica por lo que posteriormente se tomaron en cuenta otros posibles factores como el asentamiento del suelo, la degradación de los materiales en el tiempo, principalmente degradación de las argamasas, las liberaciones o integraciones al sistema constructivo original y las vibraciones ocasionadas por el paso de vehículos pesados en la zona. Para poder entender la composición geométrico-estructural y el posible trabajo de la estructura del inmueble, se realizó un análisis disgregado del sistema constructivo de cada uno de sus elementos. En la figura 5 se muestra un analisis del sistema Bóveda-fachada. Análisis de Bóveda y Fachada. a) b) De manera hipotética se asume que la bóveda está simplemente apoyada sobre el muro de fachada, dado que no hay indicios de fisuración en el cambio de espesor del muro bajo con la espadaña Espadaña, reducción de sección de 80 cm a 40 cm. Saliente de 40 cm de muro, apoyo de bóveda Muro de fachada. Espesor de 80 cm (prácticamente una vara) Figura 5. Análisis del sistema constructivo en bóveda y fachada, a) Las fisuras en fachada no corresponden a la geometría de la bóveda, por lo que posiblemente estos dos elementos están desligados, b) Despiece geométrico del sistema constructivo bóveda-fachada. Por otra parte, es necesario conocer las teorías hipotéticas del comportamiento estructural entre muros y bóvedas de mampostería, para ello se propone el comportamiento mostrado en la figura 6. Fuerza producida por el empuje de la misma bóveda Puntos de giro de los Sección de bóveda integrada a muro a) lateral b) c) Línea de referencia vertical en muro interno d) e) Figura 6. Análisis del sistema constructivo en bóveda y muros laterales, a) Arreglo de mampostería integrado entre la bóveda y muros laterales, b) Principales puntos donde la línea de empuje actúa a bloques estructurales Hundimiento de 5 cm. f) compresión sobre los bloques estructurales, y éstos giran considerando únicamente el peso propio (cargas gravitacionales) [4], c) Principales puntos donde la línea de empuje actúa a compresión sobre los bloques estructurales, y éstos giran considerando el peso propio mas hundimiento del muro lateral derecho [4]. d) Posible desplome o corrimiento de 5 cm en muro lateral (inclinación hacia el exterior), e) Agrietamiento en la parte externa del riñón de la bóveda, f) Agrietamiento en la parte central interna de la bóveda. Muros y Contrafuertes. En su intersección no se observan agrietamientos, deterioro o separación, por lo tanto, se planteó la hipótesis de que estos elementos están ligados entre sí en su estructura interna por un intercalado de rocas, por lo que no se comportan como macroelementos disgregados, en caso contrario este sistema presentaría desprendimientos en las aristas (ver figura 7). Muro lateral de Muro de fachada posterior de mampostería, e= 80 cm. Contrafuerte mampostería, e= 80 cm. Interior de inmueble Disposición de rocas intercaladas Interior de Disposición de rocas intercaladas entre elementos Muro lateral de mampostería, a) entre elementos inmueble b) e= 80 cm. c) d) Figura 7. Análisis del sistema constructivo en intersección de muros, a) Vista en planta de intersección de muro y contrafuerte, b) Vista en planta de intersección entre muros, c) Intersección de muro y contrafuerte; no presentan daños visibles, d) Intersección entre muros; se muestran las aristas sin algún agrietamiento. Sistema constructivo con cimentación La cimentación o subestructura es un elemento de transición entre la superestructura y el suelo (ver figura 7c), ésta es necesaria para transmitir las cargas de los elementos de soporte de un inmueble a un suelo de menor resistencia que la del material de dichos elementos [8] (ver figura 8). Superestructura a) b) < c) Subestructura Elemento de soporte (muro, pilastra o contrafuerte) Plinto (piedra similar del elemento de soporte, en esta zona tipo laja) d) Plantilla de desplante Suelo resistente e) Figura 8. Sistema constructivo con cimentación, a) Planta arquitectónica, b) Corte transversal, c) Corte longitudinal, d) Detalle de cimentación, e) modelo tridimensional del sistema constructivo. Desde la antigüedad se procuraba encontrar un sitio donde la roca solida estuviera en la superficie, para desplantar directamente los elementos de soporte en la roca. Al no encontrar este tipo de terreno o simplemente la roca se encontraba en niveles más profundos, se optaba por un ligero engrosamiento de estos elementos estructurales hasta formar un tipo de zapata aislada o corrida, volviéndose típica esta solución para todo tipo de suelos. Cabe mencionar que éste tipo de edificios no han quedado exentos de sufrir problemas en su estructura debido a la actual sobreexplotación de los mantos acuíferos, dando como resultado hundimientos diferenciales [8]. Estructura de concreto reforzado La estructura de concreto reforzado integrada al edificio en algún periodo de tiempo, consta de 6 columnas de 30 x 30cm., desplantadas sobre zapatas aisladas, según se observa por la disposición del espacio, éstas columnas están ligadas en la parte superior por trabes de las mismas dimensiones (ver figura 9). a) b) c) d) Figura 9. Estructura de concreto reforzado, a) Columnas integradas y adosadas a los costados de los contrafuertes y muros laterales, b) Cerramientos en la parte superior de la estructura, c) Trabes de liga sobre columnas y bóveda, d) zonas de conexión de elementos de concreto reforzado. Los elementos estructurales de concreto están reforzados con varilla de 3/8” y estribos de ¼” a cada 20 cm (ver figura 10). a) b) Figura 10. Acero de refuerzo en estructura de concreto, a) Detección de acero de refuerzo en elementos de concreto por medio de ferro escáner, b) Estribos con 20 cm de separación. Con la finalidad de tener mayor certeza en la explicación de la integración de los elementos estructurales contemporáneos en el sistema estructural antiguo, se muestra una disgregación de los elementos (ver figura 11). Estructura de concreto adosada a elementos de mampostería Trabes de liga de concreto reforzado 30 x 30 cm. Estructura de concreto reforzado Columna de concreto reforzado 30x30cm a) b) Edificio histórico Figura 11. Configuración geométrico-estructural del inmueble: a) Integración de elementos contemporáneos a edificio histórico, b) Disgregación de estructura de concreto. d) 6. DETERIOROS Y DAÑOS VISIBLES Deterioros En el caso de la capilla de Santa Catarina, la mayoría de los deterioros se deben principalmente a la falta de mantenimiento, dado que se pudieron detectar situaciones como el desgaste natural de los materiales, corrosión en argamasas, incluso la pérdida de elementos esenciales en la parte superior de la espadaña y otros sectores de la fachada principal. Cabe mencionar que la pérdida de estos elementos arquitectónicos en este tipo de inmuebles puede afectar su estabilidad estructural, debido a la ausencia de cargas que modifican las líneas de compresión y por consecuencia la aparición de fisuras [9] (ver figura 12). a) b) c) d) e) f) g) Figura 12. Deterioro en fábricas y materiales: a) Degradación de argamasa al grado de pulverización, b) desintegración de elementos en parte de la espadaña, c) Socavación en zona inferior de muro posterior, d) desintegración de entortado y falta de impermeabilizante en parte externa de bóveda, e) flora nociva en muros y contrafuertes, f) flora nociva en bóveda. g) humedad y crecimiento de raíces en los paños de los muros interiores de inmueble. Daños De acuerdo con lo observado en campo, el inmueble presenta grietas en distintas zonas, principalmente en muro de fachada principal y fachada posterior; así mismo, la bóveda presenta fisuras en los riñones y una grieta de mayor tamaño que cruza por la mitad de ésta en sentido longitudinal (ver figura 13). a) b) c) d) Figura 13. Fisuras y grietas en elementos estructurales: a) Fachada principal con grieta considerable, b) grieta de fachada traspasa el muro por completo, c) Muro de fachada posterior vista externa, d) Muro de fachada posterior vista interna. La grieta que se encuentra del lado izquierdo de la fachada es la más protuberante, ya que se logró observar que atraviesa el muro y conecta con la grieta de la bóveda (ver figura 14). a) b) c) Figura 14. medición de grieta en fachada: a) Grieta en fachada, b) Grieta de 10 cm de abertura. c) Grieta con 80 cm de profundidad. 7. CONCLUSIONES Una vez analizado el sistema constructivo de la capilla ubicada en Santa Catarina, Hidalgo, se puede decir que es de suma importancia conocer y entender las características físicas y constructivas de cada uno de sus elementos, así como realizar la disgregación y desglose de todos los componentes que integran al sistema. De acuerdo con lo descrito anteriormente, el inmueble cuenta con elementos como Fachada principal, fachada posterior, ambos ligados a los muros laterales, bóveda de cañón corrido ligada a los muros laterales y apoyada a muro de fachada y muro posterior, contrafuertes y cimentación, todos estos elementos construidos con material de fábrica. Este tipo de estudios permite conocer el estado actual de las conexiones de los elementos compositivos del sistema, lo cual es de vital importancia para los calculistas estructurales encargados de analizar este tipo de inmuebles, ya que al conocer las condiciones de frontera de manera certera se podrán simular de manera eficiente las estructuras ya sea de forma analítica o por medio de software especializados. En el caso de la capilla analizada, se puede observar una integración de elementos contemporáneos, que, por un lado, están confinando a una mampostería etiquetada como débil estructuralmente hablando, debido al deterioro palpable de las argamasas, la aparición de grietas y flora nociva. Por tal motivo, este tipo de elementos probablemente pudieran estar comportándose diferente al estado original. Una vez conocidas y entendidas las características geométrica-estructurales, se puede establecer que el inmueble se encuentra en un estado avanzado de deterioro, dado que presenta desgaste y pulverización de la argamasa que une a la piedra natural, desintegración de elementos arquitectónicos como la espadaña y la socavación en muros. Es importante resaltar que el estudio de sistemas constructivos es necesario, previo a cualquier trabajo de intervención desde un enfoque arquitectónico, histórico y estructural, así mismo, permite realizar una adecuada lectura del edificio y muestra de una forma más certera la problemática que este pueda presentar. Cabe mencionar que, para poder llevar a cabo una intervención física eficiente dependerá en gran medida del grado de análisis de los componentes arquitectónico-estructurales del objeto patrimonial. Este tipo de análisis deben ser fundamentales para realizar un modelado estructural, donde aspectos como la geometría, condiciones de frontera, dimensiones de cimentación, formas geométricas, conexiones y contactos físicos y mecánicos entre elementos son temas esenciales. RECOMENDACIONES De acuerdo al análisis realizado en este documento, y dada la interacción aparente entre elementos de concreto y de mampostería, no es recomendable separar estos dos sistemas estructurales sin el respaldo de un análisis estructural, ya que existe el riesgo de colapso. Por otro lado, se recomienda retirar toda la flora nociva y eliminar la humedad que presentan varios elementos arquitectónicos, principalmente muros. A su vez, es pertinente continuar con la consolidación de elementos de mampostería que carecen de argamasa y que fueron afectados por el crecimiento de flora nociva. Cabe resaltar que estos trabajos son previos al cálculo estructural del inmueble. Por último, se recomienda tomar este análisis geométrico-estructural como base para realizar un adecuado estudio estructural del objeto en cuestión, además que este tipo de investigación puede ser un ejemplo para desarrollar estudios en inmuebles análogos. RECONOCIMIENTOS Se agradece el apoyo de la Sección de Estudios de Posgrado e Investigación de la Escuela Superior de Ingeniería y Arquitectura Unidad Tecamachalco del Instituto Politécnico Nacional (ESIA-UT-IPN) México. Al Consejo Nacional de Ciencia y Tecnología (CONACYT). Un especial agradecimiento a la Universidad Autónoma del Estado de Hidalgo por su gran apoyo en los trabajos previos al análisis del inmueble. REFERENCIAS 1. GARCÍA, Natalia. “Funcionamiento y Seguridad Estructural de los templos conventuales del siglo XVI en México.” Director: Roberto Meli Piralla. Tesis de Doctorado. Universidad Nacional Autónoma de México, Instituto de Ingeniería. Ciudad de México, 2007 2. LA SPINA, Vincenzina. “Estudio del Yeso Tradicional en España: Yacimientos, canteras, hornos y la arquitectura tradicional, su estado de conservación y propuestas de itinerarios visitables para su revalorización y difusión. Fase I y II” [en línea]. Universidad Politécnica de Cartagena. 2016. Disponible en Web: https://www.culturaydeporte.gob.es/planes-nacionales/planes-nacionales/arquitectura- tradicional/actuaciones/estudio-del-yeso-tradicional-en-espana.html 3. SANTIAGO, Armando. “La Arquitectura del siglo XVI en México”. Revista de Edificación. Universidad de Navarra. España, 1989 4. HUERTA FERNANDEZ, Santiago. “Arcos, bóvedas y cúpulas Geometría y equilibrio en el cálculo tradicional de estructuras de fábrica”, Madrid: Editorial Instituto Juan de Herrera, 2004. 623 pp. ISBN 84- 9728-129-2 5. MAS-GUINDAL LAFARGA, Antonio José. “Mecánica de las Estructuras Antiguas o cuando las estructuras no se calculaban”, Madrid: Editorial Munilla-Leria, 2011. 272 pp. ISBN 9788489150904 6. TORRES MONTES DE OCA, Carlos Alberto. “Deterioro estructural del patrimonio arquitectónico por efectos inducidos debido a la extracción del manto freático”, Padi, 2019, vol 12, pp. 37 – 43. 7. GARCÍA GÓMEZ, Natalia; GRANADOS SAUCEDO, Francisco Salvador; GRANZIERA, Patrizia; MEDINA MÁRQUEZ, Ma. Guadalupe. “Experiencias multidisciplinarias en el estudio del patrimonio y el paisaje”, México: Editorial Universidad Autónoma del Estado de Morelos. 2018. 268 pp. ISBN 978-607- 8519-79-8 8. MELI, Roberto. “Ingeniería Estructural de los Edificios Históricos”, Ciudad de México: Editorial Fundación ICA, 1998. 117 pp. ISBN 968-7508-46-9 9. MELI, Roberto. “Diseño Estructural”, Segunda edición, México: Editorial Limusa, 2002. 593pp. ISBN 978-9681853914 Sobre los autores El autor 1 es docente con categoría de asignatura A e investigador de la Escuela Superior de Ingeniería y Arquitectura Unidad Tecamachalco del Instituto Politécnico Nacional (ESIA-UT-IPN), México, imparte clases en la academia de estructuras de la carrera de Ingeniero-Arquitecto, pertenece a la Sección de Estudios de Posgrado e Investigación en los programas de Especialidad en la Restauración Arquitectónica, Maestría en Ciencias y Doctorado en Ciencias en Arquitectura y Urbanismo, específicamente en las áreas de conservación y restauración (ingeniería estructural de edificios históricos). Además, pertenece al Sistema Nacional de Investigadores nivel 1 (S.N.I. N1) en el Consejo Nacional de Ciencia y Tecnología (CONACYT). El autor 2 es alumno de la Sección de Estudios de Posgrado e Investigación en el programa de Maestría en Ciencias en Arquitectura y Urbanismo de la Escuela Superior de Ingeniería y Arquitectura, Unidad Tecamachalco (ESIA-UT) del Instituto Politécnico Nacional (IPN), México. MORTERO, YESO Y PIEDRA: RESTAURACIÓN DEL “ANTIGUO CONVICINO” (SASSO CAVEOSO EN MATERA-ITALIA) Mauro Fiorentino1, Graziella Bernardo2, Vito Porcari3, Giovanna Andrulli4 1Profesor de tiempo completo, Universidad de Basilicata; Via Nazario Sauro, n. 85, 85100 Potenza-Italia; 2Investigador y PhD, DICEM Departamento de Culturas Europeas y Mediterráneas, Universidad de Basilicata; Via Lanera n. 20, 75100 Matera-Italia; 3PhD, DICEM Departamento de Culturas Europeas y Mediterráneas, Universidad de Basilicata; Via Lanera n. 20, 75100 Matera-Italia; 4Estudiante de doctorado, DICEM Departamento de Culturas Europeas y Mediterráneas, Universidad de Basilicata; Via Lanera n. 20, 75100 Matera-Italia. 1e-mail: mauro.fiorentino@unibas.it, 2graziella.bernardo@unibas.it, 3: vito.porcari@unibas.it, 4giovanna.andrulli@unibas.it RESUMEN Después de haber pasado por momentos adversos durante su historia, la ciudad de Matera fue nombrada como la nueva Capital Europea de la Cultura 2019, y en consecuencia su centro histórico declarado Patrimonio Mundial por la UNESCO en 1993 es actualmente objeto de cambios y renovaciones en el uso de sus tipologías de vivienda. El objetivo principal en este proyecto es la reactivación de un antiguo grupo de grutas conocidas bajo la tipología de “vicinato” que datan de la época paleolítica, mediante la inserción de uso de tipo turistico-cultural. Con el proyecto se pretende dotar a la población de el Hotel “Cenobio”, diseñado con el objetivo de contribuir a los procesos de mejora territorial que aprovechan el vasto patrimonio histórico y cultural nacional y local. El objetivo es dar vida a un nuevo sistema de alojamiento hotelero que está destinado principalmente como un nodo de bienvenida para los flujos de demanda más sensibles al uso del patrimonio cultural, desarrollando un programa empresarial para la realización de un hotel integrado en el contexto local y tendrá un alto estándar de calidad. Darle al poblador y a los turistas de la ciudad la oportunidad de convivir y compartir experiencias en espacios cargados de historia, haciendo crecer así su identidad, arraigo y sentido de pertenencia con sus orígenes. PALABRAS CLAVES: Calcarenita; Patrimonio Arquitectónico; Fenómenos de Degradación; Restauración y Conservación. MORTAR, PLASTER AND STONE SURFACE: RESTORATION OF “ANCIENT CONVICINO” (SASSO CAVEOSO IN MATERA-ITALY) ABSTRACT After having gone through adverse moments during its history, the city of Matera has been nominated as the new European Capital of Culture 2019, and consequently its historic center declared World Heritage by UNESCO in 1993 is currently subject to changes and renovations in the use of their housing typologies. The main objective in this project is the reactivation of an old group of caves known under the typology of "vicinato" dating from the Paleolithic era, through the insertion of tourist-cultural use. The project aims to provide the population of the Hotel “Cenobio”, designed with the objective of contributing to the territorial improvement processes that take advantage of the vast national and local historical and cultural heritage. The objective is to give life to a new hotel accommodation system that is primarily intended as a welcome node for demand flows that are more sensitive to the use of cultural heritage, developing a business program for the realization of a hotel integrated in the local context and It will have a high quality standard. To give the population and tourists of the city the opportunity to live and share experiences in spaces full of history, thus growing their identity, roots and sense of belonging with their origins. KEY WORDS: Calcarenite; Architectural Heritage; Degradation Phenomena; Conservative Restoration. 1. INTRODUCCIÓN La parte antigua de la ciudad de Matera, llamada "Sassi" que significa "piedras", es un sistema arquitectónico y urbano excepcional caracterizado por la coexistencia de estructuras construidas y excavadas. Los Sassi se extienden a lo largo del lado este de una meseta kárstica, identificada como "Murgia Materana", de la que parecen ser una extensión natural. El paisaje está surcado por una quebrada, localmente llamada "gravina", que es un valle de erosión en forma de cañón con paredes escarpadas y distantes, en el que fluye abundante agua sólo en épocas de lluvia. El barranco destaca la estratigrafía de la meseta kárstica: la parte inferior está formada por una caliza compacta de alta resistencia, mientras que la parte superior de escasa altura es una caliza de origen bioquímico, conocida con el nombre local de calcarenita o, impropiamente, “tufo” de Matera, con un típico color amarillo claro. La calcarenita se caracteriza por su facilidad de extracción y fabricación incluso en formas complejas, pero también por su baja resistencia mecánica y escasa resistencia a los agentes atmosféricos [1, 2]. La importancia de los Sassi y de la Gravina di Matera se debe a la perpetuación de los principios que subyacen a la práctica del asentamiento durante mucho tiempo, desde la prehistoria hasta la época moderna. A partir del Neolítico - Paleolítico se excavó la parte superior del barranco para construir abrigos, túneles, aljibes subterráneos y se construyeron complejos arquitectónicos con el tiempo. El material extraído, cortado en bloques rectangulares (t), se utilizó para construir casas, muros y terrazas de piedra seca, caminos y escaleras. La ciudad se ha desarrollado verticalmente a lo largo de curvas inclinadas donde los caminos son los techos de las casas de abajo. El modelo vertical de la ciudad permite el uso de la gravedad para la distribución del agua de lluvia y protege de los vientos que barren la meseta kárstica. Las casas están inmersas en la roca con profundos ambientes subterráneos; se abren al exterior con terrazas y jardines colgantes. Las cámaras del hipogeo están excavadas oblicuamente en el suelo para que los rayos del sol puedan penetrar hacia abajo en invierno, cuando hay mayor necesidad de calor. En verano, el sol más cercano al cenit irradia solo las entradas de los hipogeos dejándolos frescos y húmedos. Las salas subterráneas se superponen entre sí en más de diez niveles. Además, bajo tierra hay decenas de cisternas en forma de campana unidas entre sí por canales y sistemas de filtración de agua. Las cuevas situadas en los laterales se proyectan fuera del subsuelo con estructuras de bóveda de cañón, denominadas lamioni, construidas con bloques de piedra caliza excavados en las propias cuevas. De esta forma se forma un patio central en el que hay un gran aljibe común que recoge el agua de lluvia de las cubiertas inclinadas especialmente construidas. Además, el patio era el lugar de la vida social del barrio. Con razón, los Sassi pueden citarse como un ejemplo ante litteram de un asentamiento urbano verde en el que la vida humana se desarrolla en armonía con las especificidades de los lugares y se convierte en una sola. El monacato medieval da nueva vitalidad al tejido urbano arcaico. Ermitas, parroquias, fincas ubicadas cerca de las obras hidráulicas son los polos del proceso de crecimiento urbano [3]. Dos compartimentos urbanos, llamados Sasso Caveoso y Sasso Barisano, se desarrollan alrededor de los dos drenajes principales llamados "grabiglioni" que proporcionan tierras agrícolas y humus a través de la recolección de aguas residuales. En la parte más alta se encuentra la Civita, la acrópolis fortificada, antiguo refugio en caso de peligro, donde se levanta la catedral. La Figura 1 ilustra el desarrollo planimétrico con la ubicación de Civita, Sasso Caveoso y Sasso Barisano. Durante la era fascista, el ecosistema frágil y único de Sassi se vio comprometido por intervenciones destructivas. Los gabriglioni se canalizaron bajo el suelo y se destruyeron barrios enteros. Desde entonces el tejido urbano se vuelve incomprensible y la pérdida de sentido permite cualquier acción destructiva posterior [3,4]. En 1950, unas 17.000 personas vivían en los Sassi, equivalentes al 70% de la población total de la ciudad de Matera, en 2.997 casas, 1.641 de las cuales fueron definidas como "viviendas trogloditas" porque estaban excavadas en la roca y sin baños [4]. Por este motivo, la ciudad de Matera fue considerada una "vergüenza nacional" para toda Italia. Desde que se inició un programa de evacuación de todos los habitantes y el reasentamiento en los nuevos barrios. Los Sassi fueron completamente abandonados hasta 1986 cuando una ley especial dio paso a la restauración de los barrios antiguos; Posteriormente fueron incluidos en la Lista del Patrimonio Mundial de la UNESCO en 1993, cuando se lanzó un ambicioso programa de restauración y revitalización. La inclusión de los Sassi en el patrimonio de la UNESCO ha promovido una capacidad de propulsión para la recuperación de la ciudad. Las aproximadamente 5.000 personas que han vuelto a vivir en los Sassi y la creciente presencia del turismo nacional e internacional hacen del caso de Matera un modelo de recuperación adecuada de la ciudad vieja junto con el cambio de reputación de la ciudad: de "vergüenza nacional" a “patrimonio mundial de la humanidad” y recientemente “Capital Europea de la Cultura para el año 2019”. Este artículo describe el proyecto de restauración de todo un barrio, denominado Antico Convicino, ubicado dentro del Sasso Caveoso, actualmente en estado de total abandono y decadencia, con el objetivo de su rehabilitación como equipamiento turístico. (Fig. 1) Figura 1: Expansión planimétrica de los Sassi. 2. PRINCIPALES RESULTADOS ANTICO CONVICINO: el "barrio" Antico Convicino es un "barrio" con un típico patio central, ubicado en el Sasso Caveoso, que data de la primera mitad del siglo XVII [3]. Se distribuye en dos niveles rocosos con varios edificios que dan a una calle por un lado y una pequeña plaza por el otro lado que es el patio original, cuya superficie sigue el patrón de los techos de las viviendas subterráneas subyacentes. Todas las habitaciones de la primera y segunda planta tienen acceso independiente directamente desde el "barrio". Las Figuras 2 y 3 muestran la ubicación del Antico Convicino dentro del Sasso Caveoso y su vista en perspectiva. (Fig.2 y 3) Figuras 2 y 3: Ubicación y Vista en perspectiva barrio del Antico Convicino. Las estructuras verticales están formadas por bloques de piedra caliza, mientras que las estructuras horizontales están formadas por bóvedas excavadas en la roca caliza y construidas en ocasiones de cañón. Tanto las estructuras excavadas como las construidas se ven afectadas por diferentes formas de fenómenos de degradación debido a la acción sinérgica de los agentes físicos, químicos y biológicos presentes en el entorno que rodea la edificación [2]. El componente ambiental más importante es el agua que actúa directa o indirectamente sobre todo tipo de descomposición de la caliza. Su superficie es hidrófila: los átomos de oxígeno cargados negativamente del carbonato atraen moléculas de agua y forman enlaces de hidrógeno. El agua moja su superficie y penetra fácilmente por capilaridad a través de la alta porosidad. Las superficies externas están seriamente deterioradas por el fenómeno de alveolización de la calcarenita. Esta descomposición consiste en la formación de una superficie pétrea de cavidades interconectadas (alvéolos) de formas y tamaños variables debido a la cristalización de sales en áreas preferenciales donde también hay una erosión acelerada [2]. Las paredes también se ven afectadas por la presencia de pátinas, depósitos superficiales, eflorescencias, delaminación por ciclos de hielo-deshielo, algas, musgos, líquenes y malas hierbas. La figura 3 muestra el deterioro de las fachadas de los edificios que dan a la plaza. Las superficies internas presentan desprendimientos y en algunos casos incluso hinchamientos del yeso realizado durante las restauraciones realizadas en el pasado. Los revocos deteriorados están compuestos por una mezcla aglutinante de cemento y cal (Fig. 4) o de polímeros orgánicos pigmentados (Fig.a 5 y 6). Figura 4: Deterioro de las fachadas de los edificios que dan a la plaza. Figura 5: descomposición del yeso interno Figura 6: descomposición del yeso interno a base de polímeros orgánicos. a base de polímeros orgánicos pigmentados. Los desprendimientos de los revoques que contienen cemento Portland se deben al diferente comportamiento de dilatación térmica del acabado respecto al sustrato pétreo. En algunas zonas, estos revoques también presentan hinchamientos debido a la formación de sales expansivas de hidratos de sulfato provocadas por la presencia de ion sulfato (SO4-2) procedente del cemento y la humedad de la mampostería. El desprendimiento de los revoques a base de polímeros orgánicos es causado por la presión de vapor resultante de la reducción de la permeabilidad al vapor debido a la formación de películas poliméricas oclusivas en la superficie de la mampostería. 3. EL PROYECTO DE REHABILITACIÓN El proyecto de recuperación tiene como objetivo recuperar el "barrio" abandonado del Antico Convicino para destinarlo a uso turístico. El proyecto se inspira en los criterios de restauración conservadora que tienden a preservar la singularidad del patrimonio arquitectónico mediante el uso de materiales y técnicas lo más cercanas posible a las originalmente utilizadas [4,5]. Por ello, se decidió no cambiar el montaje estructural que se encuentra en buen estado y restaurar las superficies deterioradas. El proyecto también incluye la adaptación funcional de los espacios a los estándares de vida modernos con instalaciones sanitarias y sistemas de calefacción y electricidad. Las figuras 7 y 8 muestran respectivamente la distribución de los espacios en la primera y segunda planta y su adecuación funcional al uso del Antico Convicino como equipamiento turístico. La restauración de las superficies se dividió en las siguientes fases: I) cepillado; II) consolidación; III) protección. El cepillado es una operación delicada e irreversible. Su incorrecta ejecución podría causar daños irreparables al patrimonio arquitectónico. En este caso, debido a la extrema vulnerabilidad de la caliza, se optó por el cepillado manual, realizado con herramientas manuales, como espátulas y raspadores, sin el uso de agentes químicos. Esta técnica se utilizó para eliminar pátinas y depósitos orgánicos e inorgánicos de las superficies externas y para raspar las superficies internas del revoque realizado en intervenciones anteriores con materiales no compatibles con el sustrato de piedra. La fase de consolidación debe mejorar la cohesión interna de la piedra y restaurar su resistencia mecánica evitando otras alteraciones de las propiedades físicas y químicas. La fase de protección tiene como objetivo transformar el carácter hidrofílico parcial de la superficie de la piedra en una interfaz altamente hidrofóbica. Se aplicó a brocha una resina transparente y respirable en solución alcohólica en las superficies externas e internas para satisfacer los requerimientos de consolidación y protección. Este producto polimérico híbrido ha sido sintetizado y comercializado para superar los inconvenientes y la poca durabilidad de las resinas acrílicas, muy utilizadas en el pasado en trabajos de restauración [2]. Los juntas gravemente afectadas se sustituyeron por la técnica scuci-cuci con bloques de piedra caliza extraídos de la cantera de Montescaglioso ubicada en las inmediaciones de la ciudad de Matera, con las mismas propiedades químicas, físicas y mecánicas de la piedra caliza original utilizada en la construcción. En la tabla 1 se muestra la composición química de la calcarenita procedente de la cantera de Montescaglioso determinada según la norma ASTM C114. (Tabla1) Figura 7: distribución funcional de la primera planta. Figura 7: distribución funcional de la secunda planta. Tabla 1: Composición química de la calcarenita de la cantera de Montescaglioso Mass percentage Calcium oxide (CaO) 53,20 Magnesium oxide (MgO) 1,32 Potassium oxide (K2O) Sodium oxide (Na2O) Sulphuric anhydride (SO3) Ignition loss 0,82 0,30 0,12 43,75 La Tabla 2 enumera las propiedades físicas y mecánicas medidas en tres muestras de calcarenita de la cantera Montescaglioso. Se preparó un mortero de lecho para la restauración volumétrica de bóvedas severamente dañadas, mediante la mezcla de cal apagada y arena fina, denominada localmente "tufina", provenientes de bloques cortados de calcarenita. El mismo tipo de mezcla se utilizó para el peinado de las juntas internas y externas. La restauración del volumen también implicó la reconstrucción de algunos detalles ornamentales de las fachadas de especial valor estético que fue realizada por artesanos locales especializados en el procesamiento de la piedra caliza. (Tabla2) Tabla 2: Propiedades físicas y mecánicas de muestras de calcarenita de la cantera de Montescaglioso Sample A Sample B Sample C Compressive strength, MPa 3,06 3,18 3,69 Resistance to freezing-thawing after 48 cycles, MPa 2,78 2,95 2,98 Flexural strength, MPa Open porosity, mass percentage Bulk density, kg/m3 Water absorption by capillarity, kg/m2∙sec 0,5 1,00 34,94 1,805 7,1 1,03 35,37 1,803 7,3 1,07 38,21 1,848 7,5 La restauración de las fachadas exteriores se completó con la aplicación de cal y la reconstrucción de los bajantes con baldosas de terracota según la antigua tradición local. La figura 7 muestra el "barrio" del antiguo Convicino en el lado que da a la plazoleta después de las obras de rehabilitación. (Fig.9). 5. CASO DE ESTUDIO, “HOTEL ANTICO CONVICINO” EN MATERA. SASSO CAVEOSO Distribución espacial: El complejo se compone de nueve estructuras cóncavas que comparten un espacio común como núcleo de recibimiento, el “vicinato” comprende un área general de aproximadamente 1040.00 m2, dispuestos en nueve grutas y bobedas en un patio como espacio común, semi público. (Fig. 2 y 3) Área común (Patio): El patio cuenta con un área toral de 350.00 m2. Para la descripción actual, puede dividirse en dos partes, la primera parte muestra la zona del patio común, donde se desarrollan circulaciones y accesos, además de mantener un espacio nuclear de recibimiento sobre el cual pueden proponerse actividades al aire libre. Por otro lado, en la zona norte del conjunto, puede observarse una parte del patio dirigida a un uso privado. Bóvedas y cubiertas: La solución a las cubiertas en la excavación de las grutas, un poco limitadas en el aspecto constructivo, tenía una solución única, la bóveda. En la forma más extendida, los techos abovedados o con bóvedas de cañón siempre estuvieron presentes, consistían en piedras unidas con mortero, solo en algunos palacios nobles se encontraron bóvedas en estrella y pabellón, por lo tanto, en el caso del vicinato estudiado se puede encontrar esta tipología de cubierta en todo el conjunto. Las bóvedas de cañón se asientan sobre las paredes paralelas a la dirección principal, el tipo más frecuente en el Sassi es la bóveda de cañón en piedra, hecha de tufo de 25 cm de espesor, y puede cubrir una luz de hasta 7 m. La parte posterior de la bóveda es esencial por su solidez, por lo tanto, es cuidadosamente diseñada, y por lo general consiste en bloques cuadrados o piedras irregulares puestas y unidas con mortero. El relleno generalmente está compuesto de material de desecho, mortero pobre en cal o tierra. La configuración de la bóveda era regularizada a menudo con una fila de bloques dispuestos de cabeza. En las viviendas había tres diseños diferentes de la bóveda con respecto a la fachada de cierre, de los cuales en la edificación estudiada es posible encontrar la bóveda que termina en contacto con la pared de la fachada, permaneciendo independiente, la bóveda es soportada por 8-15 cm en la pared de la fachada y la bóveda que atraviesa la pared saliendo de la fachada como un arco de descarga incluido en la pared, como se muestra en la imagen. En la parte superior de los últimos niveles, siempre están asociados con estructuras de madera que los protegen de las infiltraciones de agua. Las bóvedas de piedra colocadas para cubrir están generalmente cubiertas por tejas, que reproducen los techos con dos pasos que siguen la curvatura de la bóveda. El material de relleno, sobre el cual reposan las baldosas, se compone de piedras pequeñas y mortero de cal o cal, se coloca en el extradós de la bóveda y forma una capa de aislamiento y protección. Otra técnica de construcción incluye una estructura de madera colocada sobre la bóveda, hecha de vigas y tablones, colocada para formar una cámara de aire con la función de protección contra el frío del invierno y el calor del verano. (Fig. 4 – Fig. 5 – Fig. 6) 6. DEFINICIÓN DE ANTEPROYECTO ARQUITECTÓNICO Programa Arquitectónico: El “HOTEL ANTICO CONVICINO” fue diseñado con el objetivo de contribuir a los procesos de mejora territorial que aprovechan el vasto patrimonio histórico y cultural nacional y local. El objetivo es dar vida a un nuevo sistema de alojamiento hotelero que está destinado principalmente como un nodo de bienvenida para los flujos de demanda más sensibles al uso del patrimonio cultural, desarrollando un programa empresarial para la realización de un hotel integrado en el contexto local y tendrá un alto estándar de calidad. Las condiciones generales de conservación de los edificios son mediocres, en algunos casos incluso desmoronándose, pero ciertamente inhabitable, ya que han sido "abandonados" a su degradación durante casi medio siglo, es decir, ya que en los años 50 y 60 los edificios fueron declarados inhabitables y fue ordenada la evacuación, luego comenzó el largo proceso de expropiaciones, que siguió el procedimiento de evacuación y cierre de todos los edificios incluidos en esta disposición del “Prefetto”. El estado de las paredes verticales es en muchos lugares extremadamente precario, incluso algunas veces debido a la presencia de humedad causada por infiltraciones, mientras que externamente en el edificio hay un deterioro de las paredes mismas, con la presencia de erosión parcial debido a agentes atmosféricos. Las lesiones en las paredes de mampostería y en las bóvedas se repararán con "scuci-cuci", así como los dinteles en las fachadas externas, donde es necesario intervenir con solo el relleno de las juntas. Las fachadas externas las juntas se rasparán y peinarán, seguido de pintura con leche de cal con la adición de pigmentos naturales. El “HOTEL ANTICO CONVICINO” es un "vicinato" con un patio central típico, ubicado en el Sasso Barisano, que data de la primera mitad del siglo XVI. Se extiende sobre tres niveles rocosos con diferentes edificios que dan a un camino por un lado y una pequeña plaza por el otro que es el patio original, cuya superficie sigue la linea de los techos de las casas subterráneas a continuación. Todas las habitaciones en el primer y segundo piso tienen acceso independiente directamente desde el "vicinato". La ubicación del “HOTEL ANTICO CONVICINO” es dentro del Sasso Caveoso, sus estructuras verticales están formadas por bloques de piedra caliza, mientras que las estructuras horizontales están formadas por bóvedas talladas en la piedra caliza y construidas en bóvedas de cañón. Ambas estructuras excavadas y construidas están influenciadas por diferentes formas de fenómenos de degradación debido a la acción sinérgica de los agentes físicos, químicos y biológicos presentes en el entorno que rodea el edificio. El componente ambiental más importante es el agua, que actúa directa o indirectamente sobre todo tipo de descomposición de los cálculos calcareníticos. Su superficie es hidrofílica: los átomos de oxígeno cargados negativamente del carbonato atraen moléculas de agua y forman enlaces de hidrógeno. El agua moja su superficie y penetra fácilmente por capilaridad a través de la alta porosidad. Las superficies externas están seriamente deterioradas por el fenómeno de alveolización de la calcarenita. Esta descomposición consiste en la formación de una superficie de piedra de cavidades interconectadas (alvéolos) de formas y tamaños variables debido a la cristalización de las sales en áreas preferenciales donde también hay erosión acelerada. Las paredes también se ven afectadas por la presencia de pátina, depósitos en la superficie, eflorescencia, delaminación debido a los ciclos de congelación-descongelación, algas, musgos, líquenes y vegetación de malezas. El deterioro de las fachadas de los edificios que dan a la plaza. Las superficies internas muestran desprendimientos y, en algunos casos, incluso hinchazón del yeso realizado durante las restauraciones realizadas en el pasado. Los yesos deteriorados están compuestos por una mezcla de unión cemento-cal o polímeros orgánicos pigmentados. Los desprendimientos del yeso que contiene cemento Portland se deben al diferente comportamiento de expansión térmica del acabado en comparación con el sustrato de piedra. En algunas áreas, estos yesos también tienen hinchazones debido a la formación de sales de hidrato de sulfato expansivas causadas por la presencia de iones sulfato (SO4-2) provenientes del cemento y la humedad en la mampostería. Los desprendimientos de los yesos a base de polímeros orgánicos son causados por la presión de vapor que se deriva de la reducción de la permeabilidad al vapor debido a la formación de películas poliméricas que se ocultan en la superficie de la mampostería. 7. EL PROYECTO DE REHABILITACIÓN El proyecto de restauración tiene como objetivo recuperar el "vicinato" abandonado del “HOTEL ANTICO CONVICINO” para usarlo para turismo cultural. El proyecto se inspira en los criterios de restauración conservadora que tienden a preservar la singularidad del patrimonio arquitectónico a través del uso de materiales y técnicas lo más cerca posible de los utilizados originalmente. Por lo tanto, se decidió no modificar la estructura estructural que está en buenas condiciones y restaurar las superficies deterioradas y bobedas derrumbadas. El proyecto también incluye la adaptación funcional de los espacios a los estándares de vida modernos con las instalaciones de baños y sistemas de calefacción y electricidad. Respectivamente la distribución de los espacios en el primer, Segundo y tercer piso y su adaptación funcional al uso del Hotel Cenobio como instalación turística y cultural. La restauración de las superficies se dividió en las siguientes fases: I) cepillado; II) consolidación; III) protección. El cepillado es una operación delicada e irreversible. Su ejecución incorrecta podría causar daños irreparables al patrimonio arquitectónico. En este caso, debido a la extrema vulnerabilidad de la piedra calcarenítica, el cepillado manual se realizó con herramientas manuales, como espátulas y raspadores, sin el uso de agentes químicos. Esta técnica se ha utilizado para eliminar las pátinas y los depósitos orgánicos e inorgánicos de las superficies externas y para raspar las superficies internas del yeso realizado en intervenciones anteriores con materiales no compatibles con el sustrato de piedra. La fase de consolidación debe mejorar la cohesión interna de la piedra y restaurar su resistencia mecánica al evitar otras alteraciones de las propiedades físicas y químicas. La fase de protección tiene como objetivo transformar el carácter hidrofílico parcial de la superficie de la piedra en una interfaz hidrofóbica elevada. Se aplicó una resina transparente y transpirable con brocha en solución alcohólica en las superficies externas e internas para cumplir con los requisitos de consolidación y protección. Este producto polimérico híbrido ha sido sintetizado y comercializado para superar los inconvenientes y la poca durabilidad de las resinas acrílicas, ampliamente utilizadas en el pasado en trabajos de restauración. (fig.9) Figura 9: El barrio del Hotel Cenobio del lado que da a la plaza luego de la reforma. 8. AGRADECIMIENTOS Los autores desean agradecer a los Sres. Papapietro, propietarios de la cantera de Montescaglioso, por su valiosa colaboración durante la ejecución de los ensayos de caracterización de la calcarenita. 9. CONCLUSIONES Se puede decir que la arquitectura excavada, escasamente valorada, constituye un patrimonio que refleja las formas de vida de numerosas culturas en diferentes periodos históricos. Frecuentemente ignoradas por la historiografía arquitectónica oficial, constituyeron los hábitats residenciales y los espacios religiosos en los que numerosos grupos humanos desarrollaron su actividad a lo largo de los siglos. La excavación de espacios para habitar, orar, comerciar o enterrar a los muertos debe ser considerado como un acto plenamente arquitectónico, ya que parte de la voluntad consciente de generar un espacio en el que realizar estas funciones. Es espacio puro, desvinculado de las necesidades de dar forma exterior a un edificio aislado, pero la necesidad de generar espacio puede ser considerada, en último término, la esencia de la necesidad de hacer Arquitectura. Y como tal, su comprensión, análisis y preservación es un compromiso encaminado a preservar la memoria de unas formas de vida que en numerosas ocasiones cimentan las modernas culturas sociales en las que vivimos. El conocimiento, la tutela y la reintegración deben primar como nuevas funciones en el ciclo económico ciudadano con respecto a las cuevas del territorio de Matera, pues son depósito de experiencia civil, histórica, económica y productiva; puede ser parte de un gran proyecto de recuperación histórica que la comunidad local tendrá que desarrollar con paciencia, pues cada conjunto esconde en su estructura un hecho colectivo, construido con el sacrificio de enteras generaciones, con sus dependencias, sumisiones, pobreza y diferencias, pero también cada espacio representa una visualización histórica del territorio dando vida a una página sobre su antropización. La salvación de este rico patrimonio y la búsqueda de una forma para hacer conocer y saborear, esta población, es un desarrollo que tendrá que encontrar su síntesis en la tutela y reúso propio del patrimonio, vinculándose a actividades que la sociedad disfrute culturalmente, promoviendo territorios y patrimonio cultural; creando nuevas empresas creativas y culturales; apoyando la capacidad del sector cultural y creativo y que de ser posible también sea capaz de generar e incrementar la demanda turística y utilizar una cultura adicional para fortalecer los nuevos asentamientos de actividades comerciales; fortaleciendo la capacidad financiera, fomentando la innovación y nuevos modelos de negocio. La ciudad es finalmente el resultado de la relación de todos estos elementos. REFERENCIAS 1. ANNONI, A. (1946). Scienza ed arte del restauro architettonico. Idee ed esempi. Milán, Italia: Edizioni Artistiche Framar. 2. ARANDA NAVARRO, F. (1988). La Arquitectura del Material Único: Arquitectura Subterránea Excavada en Levante. España. Informes de la Construcción, 91 - 97. 3. CAMPO BAEZA, A. (2009). Pensar con las manos: De la Cueva a la Cabaña. Madrid, España. 4. CARBONARA, G. (1976). La reintegrazione dell’immagine, problemi di restauro di monumenti. Roma, Italia.: Bulzone Editore. 5. COLONNA, A., & FIORE, D. (2014). I Sassi e il parco delle chiese rupestri di Matera Patrimonio dell'Umanita' - Piano di gestione 2014 - 2019. Matera, Italia. 6. CRESCI, M. (1975). Matera: immagini e documenti. Matera, Italia: Edizioni Meta. 7. FALLACARA, G., BARBERIO, M., & COLELLA, M. (2016). Mater[i]a: conoscenza e progetto. Matera: Liantonio Editore. 8. GIUFFRÈ, A., & CAROCCI, C. (1997). Codice di pratica per la sicurezza e la conservazione dei Sassi di Matera. Matera, Italia. 9. ISTITUTO POLIGRAFICO E ZECCA DELLO STATO. (1952). Legge speciale 619/52: Risanamento dei rioni dei "Sassi" nell'abitato del comune di Matera. Matera, Italia. 10. ORMINDO DE AZEVEDO, P. (2001). La Ciudad Construida: Urbanismo en América Latina. Quito, Ecuador.: FLACSO. 11. RESTUCCI, A. Matera: i Sassi. Manuale del recupero. Electa, 1998. [2] 12. TROITIÑO VINUESA, M. (2008). La extrapolación de los principios del Patrimonio Mundial al Patrimonio Local. II Taller de Técnicos y Gestores de Patrimonio, (págs. 50 - 52). Aranjuez, España. LA RECALIFICACIÓN ARQUITECTÓNICO-AMBIENTAL DEL CENTRO HISTÓRICO: RECUPERACIÓN Y RESIGNIFICACIÓN DE LOS “SASSI DE MATERA”. Antonella Guida1, Michele D’Amato2, Fabio Fatiguso3, Giuseppe Andrisani4, Alessandro Lanzolla5 1Profesora de tiempo completo, DICEM Departamento de Culturas Europeas y Mediterráneas, Universidad de Basilicata; Via Lanera n. 20, 75100 Matera-Italia; 2Investigador y PhD, DICEM Departamento de Culturas Europeas y Mediterráneas, Universidad de Basilicata; Via Lanera n. 20, 75100 Matera-Italia; 3Profesor de tiempo completo Politécnico de Bari, Via Edoardo Orabona, n. 4, 70126 Bari- Italia; 4Arq. DICEM Departamento de Culturas Europeas y Mediterráneas, Universidad de Basilicata; Via Lanera n. 20, 75100 Matera-Italia; 5Estudiante de doctorado, DICEM Departamento de Culturas Europeas y Mediterráneas, Universidad de Basilicata ; Via Lanera n. 20, 75100 Matera-Italia. 1e-mail: antonella.guida@unibas.it , 2michele.damato@unibas.it , 3 f.fatiguso@poliba.it , 4 giuseppe.andrisani@unibas.it , 5alessandro.lanzolla@unibas.it RESUMEN La antigua y escondida ciudad de Matera ofrece a los visitantes una vista totalmente inesperada. Es una ciudad atemporal ubicada en una colina empinada, donde grupos de casas se ramifican en terreno llano moviéndose hacia abajo en círculos concéntricos formando así los "Sassi". Aquí existe un enorme patrimonio edilicio y arquitectónico, abandonado desde hace más de 40 años, que es hoy escenario de lentas y cuidadosas intervenciones para recuperar este monumento cultural bajo el patrocinio de la UNESCO. La restauración y recuperación que se lleve a cabo deberá aplicar las más estrictas leyes de conservación en cuanto a los materiales utilizados, las técnicas de conservación y los colores tradicionales para evitar un uso inadecuado. Matera nos ofrece un recorrido por la historia más antigua de la humanidad y sus tradiciones y puede servir de modelo para el futuro en la gestión de los ecosistemas urbanos realizada como resultado del correcto uso de los recursos hídricos, del sol y de la piedra. La iniciativa de convertir una zona de los Sassi de Matera en un centro de acogida turística pretende responder a las crecientes demandas sociales de un uso alternativo de la zona, de un nuevo concepto de turismo ecológico y cultural, de ocio y vacaciones. PALABRAS CLAVES: Recalificación Arquitectónico-Ambiental; Patrimonio Arquitectónico. THE ARCHITECTONIC-ENVIRONMENTAL REQUALIFICATION OF THE HISTORICAL CENTRE: RECOVERY AND RESIGNIFICATION OF THE “SASSI OF MATERA”. ABSTRACT The ancient and hidden city of Matera offers visitors a totally unexpected sight. It is a timeless city positioned on a steep hill, where groups of houses branch out on flat ground moving downwards in concentric circles thus forming the “Sassi”. Here there is an enormous building and architectonic heritage, abandoned for over 40 years, which is today the scene of slow and careful interventions to recoup this cultural monument under the patronage of UNESCO. The restoration and recuperation taking place must apply the strictest laws of preservation as regards the materials used, the preservation techniques and the traditional colours so as to avoid inappropriate use. Matera offers us a journey through the most ancient history of humanity and its traditions and it can serve as a model for the future in the management of urban ecosystems realised as a result of the correct use of water resources, the sun and stone. The initiative to convert an area of the Sassi of Matera into a tourist reception centre is intended to meet the growing social demands of an alternative use of the area, of a new concept of ecological and cultural tourism, of leisure time and holidays. KEY WORDS: Architectural-Environmental Requalification; Architectural Heritage. 1. INTRODUCCIÓN Es ampliamente conocido el papel que ha asumido en los últimos años la recuperación en el sector de la edificación mediante un proceso de valorización y optimización del patrimonio existente para adaptarlo a las nuevas exigencias de la vida moderna. Las ciudades existentes y, en particular, los centros históricos se han revalorizado paulatinamente, redescubriendo la posibilidad no sólo de evitar la destrucción de recursos de primera importancia relacionados con la pérdida de edificios, a menudo doblemente interesantes por su valor cultural y económico, sino también de la sorprendente capacidad de reacción ante las demandas emergentes de la sociedad. En consecuencia, la tendencia hacia la centralidad residencial se ha ido afianzando paulatinamente, determinando la necesidad de recuperar, conservar y mejorar edificios y partes de las ciudades con criterios y metodologías de intervención específicas, especialmente cuando estos se caracterizan por valores históricos y arquitectónicos particulares. (Fig.1) A esto se suma el nuevo abordaje del patrimonio histórico-artístico, que deja de ser visto como una carga para la comunidad, a pesar de tener un gran valor cultural y social; por el contrario, se considera como un recurso primario para un desarrollo compatible y equilibrado del territorio que ya no se limita a una acción estática de protección, sino que apunta a combinar la restauración con la búsqueda de funciones adecuadas, configurando estas funciones como un vínculo esencial para alcanzar el objetivo principal de conservación. Esta filosofía operativa responde claramente a un límite insuperable en la compatibilidad del uso previsto con el carácter histórico, la estructura y las cualidades distributivo-funcionales del edificio, ya sea de carácter monumental o perteneciente a conjuntos urbanos de interés histórico, como los centros históricos. El resultado es que, a pesar de estar en consonancia con las indicaciones de las normas técnicas, el planeamiento de la intervención para la recuperación del patrimonio histórico común también debe estar encaminado a preservar los valores arquitectónicos y técnico-funcionales del edificio y esta limitación es muchas veces difícil de conciliar con las dificultades para cumplir con los estándares y normas de construcción existentes. Esta dificultad –cuando no una imposibilidad aparente– que atañe a un número cada vez mayor de edificios, como se ha dicho anteriormente, determina la necesidad de instrumentos tecnológicos, técnicos y teóricos que sean capaces de afrontar los problemas relacionados con la reutilización adecuada y el uso continuado. , ya no por cambiar métodos consolidados en intervenciones de obra nueva o, peor aún, por la aplicación poco original de soluciones prácticas y/o tecnológicas ya experimentadas en obra nueva. Figura 1: Fotografía aérea de los Sassi Este es también el caso de los “Sassi” de Matera, una ciudad histórica, que es un gran monumento en su apariencia topográfica y en la apariencia de su paisaje, en la naturaleza de sus calles y en las agrupaciones de sus edificios. El enfoque hacia la intervención de restauración/recuperación debe contemplar el uso de metodologías y tecnologías que combinen aspectos tradicionales con aspectos innovadores. Es necesario considerar enfoques de planificación que tengan en cuenta el factor ambiental como un aspecto clave, que es particularmente crucial en el proceso de evolución de los Sassi. [1] 2. LOS “SASSI” DE MATERA La ciudad de Matera, como muchas otras ciudades, también debe su historia a la convergencia de factores particulares que permitieron la supervivencia de una civilización humana temprana. El baluarte natural, que fue testigo de la creación de la ciudad de Matera, estaba rodeado de fértiles llanuras y presentaba un promontorio defendible, elevado y escarpado y al mismo tiempo rodeado por dos profundos valles, protegidos también por dos grandes surcos que llevaban el agua de lluvia y el agua de manantial al torrente Gravina. (Fig.2) Figura 2: Primeros asentamientos en el Neolítico (finales del siglo VI a.C.). Este tipo de ciudad está fuertemente ligado a la relación con la masa calcarenita que constituye el elemento básico de las edificaciones. De hecho, la calcarenita, que ofrece precisión en la excavación y satisfactorias garantías de estabilidad geotécnica, ha permitido añadir nuevas cuevas a las naturales existentes, tratando la parte excavada según los mismos esquemas formales de la arquitectura construida, permitiendo así la urbanización edificios y viales, esquemas arquitectónicos y motivos decorativos de los planos urbanísticos para ser reproducidos en el hábitat rupestre. Se puede observar cómo, al integrar las antiguas terrazas fluviales con terrazas obtenidas de cortes verticales en la roca, también desarrollados paralelos al barranco, la planta se divide por una secuencia vertical de niveles, algunos excavados, otros parcialmente excavados y otros construidos en parte, variando en número de distrito a distrito, dependiendo de la conformación original y la altura de la pendiente calcarenítica. Las cuevas, que se abren en cada orden de terrazas, se disponen una al lado de la otra y se ramifican, intersecándose de las formas más variadas. (Fig.3) Figura 3: Fotografía de los Sassi. Se caracterizan por formas variadas y una evolución planimétrica, en ocasiones muy irregular, y se fijan claramente en el tiempo durante los trabajos de excavación e impuestos por la variación que presenta la calcarenita en el grado de cementación. Junto a la técnica de excavación se propone la técnica del sistema constructivo de construir viviendas con paredes y cubiertas para crear un nuevo paisaje urbano singular con una relación entre la parte construida y la parte excavada, en ocasiones de una misma casa. (Fig.4) Un proceso de degradación residencial en el siglo XIX desencadenó un mecanismo de autoconsumo, que condujo a la pérdida de todos los valores positivos e infraestructuras en la búsqueda aleatoria de áreas habitacionales constantemente nuevas. Los espacios libres que alguna vez fueron ocupados por los pequeños huertos, que antes caracterizaron el aspecto semirrural de los Sassi, se perdieron y todas las áreas, que fueron diseñadas para servir a las casas (pozos, puestos, "nevere" -tipo de nevera-, sótanos e iglesias rupestres), fueron transformadas en nuevas viviendas con sustanciales adecuaciones. La calidad de la vivienda fue deteriorándose paulatinamente, llegando a formas de promiscuidad aberrante con hombres y animales compartiendo muchas veces el único espacio habitable. Esta situación de degradación y pobreza, con sus trágicas consecuencias sociales, se prolongó hasta mediados del siglo pasado, cuando llegó a su fin con la deserción masiva y la despoblación de los dos barrios de los Sassi, que en consecuencia se vieron privados de todo mantenimiento en todo por parte de los pobladores y encaminándose hacia un progresivo deterioro físico-estructural [2]. Las leyes nacionales y regionales especiales para los Sassi siguieron a principios del siglo XX y finalmente terminaron en 1986 con la última ley especial (la preservación y recuperación de los barrios Sassi de Matera) y la aprobación en 1988 del primer programa de dos años. para la intervención en los dos barrios antiguos de Matera. (Fig.5) Figura 5: EL MEDIOEVO (XII-XV Siglo) 3. COMPATIBILIDAD TECNOLÓGICA, MATERIAL Y FUNCIONAL DE LAS INTERVENCIONES DE RECUPERACIÓN Figura 4: La primera estructura urbana. La recuperación y refuncionalización de un centro histórico de tan vastas dimensiones y con características arquitectónico-formales-históricas tan articuladas como la de los Sassi de Matera, pasa necesariamente por el convencimiento y la consideración del abanico de funciones necesario a instalar, desde vivienda y servicios hasta el terciario, etc. Se destacan problemas complejos, que implican una forma de interdisciplinariedad original, basada no sólo en el nivel empírico de comparación comunicativo- dialógica entre los diversos planificadores, sino también en los métodos de actuación que consideran el área de interferencia y la superposición de los diversos materiales y sobre la relación entre el conocimiento del estado actual y los requisitos de rendimiento determinados por el uso (Fig.6). La idoneidad de la acción de recuperación es mucho más que el simple momento de elegir las formas de prestación de los servicios solicitados, se convierte también en un estudio preciso de las necesidades expresadas por el usuario, y de las posibles alternativas para satisfacerlas de acuerdo con las características arquitectónicas preexistentes. Estudiando la relación entre el edificio, su nuevo uso previsto, las necesidades relativas, el consiguiente equipamiento tecnológico y la protección de los valores de la obra preexistente, es posible determinar el sistema de congruencias entre ellos, es decir, el sistema de relaciones que los vinculen en términos de aceptabilidad técnica y cultural, luego de definir el sistema de valores y el sistema de usos – entendido como un conjunto de opciones técnicas y tecnológicas resultantes de los servicios solicitados del edificio. Este enfoque se ha confirmado en estudios de casos representativos, dos estructuras a la vez diferentes, pero al mismo tiempo similares en forma y singularidad arquitectónica, que han permitido confirmar las consideraciones metodológicas expuestas anteriormente. 4. MATERIALES DE RESTAURACIÓN La antigua ciudad de Matera es un caso representativo de cómo, a lo largo de los siglos, la edificación ha tenido un efecto directo sobre el territorio como consecuencia de las transformaciones y explotación de los recursos naturales que se pueden encontrar en esta zona. Aquí es posible afirmar sin lugar a dudas que el proyecto de construcción comenzó en la cantera con la identificación del lugar y la ubicación de los materiales a extraer, de hecho, las pequeñas canteras en los Sassi a menudo se convirtieron en partes de las viviendas, trabajos de excavación se llevó a cabo a crear nuevas cuevas para vivir y el material excavado se utilizó para las partes construidas. (fig.7) Figura 7: La Ciudad Contemporánea (Siglo XIX-XX) De hecho, la mayor parte del material utilizado para construir esta ciudad es “Toba Matera”, una roca tierna, fácil de trabajar, cuyas características físicas y mecánicas son de mayor o menor resistencia Fig. 6: La estructura urbana (Siglo XV-XVIII) dependiendo de dónde proviene la roca y dónde se extrae. El uso que se hizo de esta roca tendió a realzar estas características especiales; de hecho, los bloques de apariencia más dura y compacta sirvieron como capa de cimentación para soportar las cargas de los muros superiores y oponer una mayor resistencia al levantamiento capilar del agua del suelo, es decir, sirvieron para crear arquitrabes para las puertas y ventanas o para crear los peldaños de las escaleras exteriores de acceso a las viviendas. En las casas de los Sassi se pueden encontrar pocos materiales además de la toba; la arcilla cocida se utilizó para hacer tipos particulares de estructuras abovedadas y para algunos toques finales. En algunas casas se pueden encontrar bóvedas de ladrillos dispuestos en “lámina” o pavimentación interna con varios tipos de pisos y tejas de ladrillo, canalones y bajantes nuevamente de barro cocido para el techo y sistema de drenaje de agua de lluvia. Mientras que la madera sólo se utilizó para hacer las escaleras y los pisos intermedios en el interior de las casas y para los marcos, en las marquesinas de las logias de los edificios nobles de aspecto severo, gaifo (tipo de desván abierto) y finalmente para hacer los techos que cubrían las bóvedas inferiores. [3] Hoy es mejor utilizar los mismos materiales en las intervenciones de recuperación de acuerdo con la tradición de Matera para no alterar la unidad tipológica y formal en los edificios individuales y en el conjunto de la zona de los Sassi. Esto es fundamental para evitar problemas relacionados con la incompatibilidad entre los materiales en contacto, que pueden ser problemas de naturaleza dimensional, física, mecánica y química. Además, esta forma de construir con materiales tradicionales está codificada y estandarizada de cierta manera; existen reglas escritas y no escritas, que son parte del patrimonio cultural de los operadores, mientras que con la amplia gama de nuevos productos disponibles, es necesario volver a planificar la regla cada cierto tiempo, lo que debe estudiarse en función de varios factores, entre ellos donde se destaca la característica del material. Un buen conocimiento de la reacción de los materiales y de sus reacciones conjuntas cuando entran en contacto con materiales iguales, similares o diferentes puede condicionar el éxito de una intervención de recuperación. [4] 5. INSTALACIÓN DE SERVICIOS TECNOLÓGICOS. En este ámbito los problemas de introducción de servicios tecnológicos se remontan a un proceso más general de integración entre los equipos de construcción y los servicios de instalaciones [5][6][7][8]. La instalación de servicios en estos lugares ha determinado y sigue determinando la necesidad de una obra sustancial, que ha alterado el aspecto interior de los lugares y se determina una nueva conciencia desde las primeras intervenciones realizadas, que no se adaptaban perfectamente a estas estructuras, de la necesidad de instrumentos adecuados y específicos para el control de la calidad del ambiente hipogeo interior que esté lo más cerca posible de las necesidades fisiológicas y psicológicas del usuario y la estructura antigua. En definitiva, podemos decir que, en la medida de lo posible, es necesario aprovechar la presencia de los espacios existentes (chimeneas en desuso, pequeños patios y huecos ranurados) para acoger las nuevas instalaciones, o crear estas nuevas instalaciones a la vista mediante pequeños conductos empotrados o cables. protectores de jamba de soporte. Los conductos de humos para tiro forzado se pueden dirigir hacia las chimeneas existentes llevadas a la cubierta y aquí se pueden camuflar las aberturas de ventilación con piezas especiales de piedra perforada, así como las ventilaciones en las fachadas. Para las intervenciones a realizar en las fachadas, como la inclusión de puertas de varios metros, con el fin de adoptar medidas que minimicen estas intervenciones, es recomendable utilizar puertas con losas de “tufo” superpuestas para dibujar la textura de la construyendo caras. Considerando que para evacuar las aguas meteóricas conviene utilizar canaletas y bajantes fabricados con piezas de “cotto”, aprovechando los elementos y tecnologías tradicionales y, en lo posible para los alrededores, canalizar el agua a los antiguos aljibes para disponer de una reserva de agua que se puede utilizar de la mejor manera posible. 6. CASO DE ESTUDIO. La “LOCANDA DI SAN MARTINO” es una pequeña estructura hotelera. La construcción se inició en 1998 y el hotel desarrolla su actividad habitual desde marzo de 2003. Inicialmente se concibió como un “centro cultural residencial” para académicos nacionales e internacionales, así como para la realización de la actividad hotelera ordinaria destinada al turismo habitual. Por la particularidad de los espacios, el hotel, con unas 53 plazas, se estructura en diferentes apartamentos, distribuidos en varios niveles y comunicados por escaleras, ascensores, balcones y patios interiores. El objetivo de la intervención era recrear fielmente el entorno original: la particular disposición de los ambientes de los Sassi permite definir tipologías de habitaciones y suites con espacios divididos en varias habitaciones con un número adicional de camas que se puede obtener transformando el habitables, dotando de equipamientos y ofreciendo servicios complementarios regulares y de calidad. Los apartamentos están compuestos mayoritariamente por unidades tipo “lamione” (área completamente excavada y/o construida con cubierta de bóveda de cañón) con una sola ventana sobre la fachada principal y dispuestas en hilera aterrazada a lo largo de los balcones superpuestos, que aterrazan el muro rocoso en el fondo del valle de Barisano, creando Via San Martino. La organización de tipo morfológico del área identificada, con las unidades dispuestas en hilera aterrazada a lo largo de los balcones, se presta particularmente a esta transformación agrupada de unidades independientes, pero orgánicamente relacionadas por la presencia natural de las conexiones urbanas existentes. (Fig.8) Figura 8: Caso de Estudio “Locanda di San Martino” La ubicación de todas las unidades a lo largo de una línea de conexión natural determinó la decisión de ubicar las habitaciones en la parte alta y concentrar los servicios y la recepción en la parte baja. Al mismo tiempo se hizo necesario identificar un “núcleo” funcional de distribución y conexión para cada nivel. Luego, el ajuste funcional y la creación de todas las plantas de regulación previstas fueron una restricción adicional para la planificación general. Si por un lado la planificación y ampliación del área de intervención implican una complejidad de los problemas de urbanización, por otro lado la distribución del espacio y las características tipológicas del entorno (básicamente el carácter secuencial de las unidades unifamiliares) simplifican el sistema de red de servicios. De hecho, a nivel funcional-distributivo, la preservación de la naturaleza original de las unidades independientes trastorna el conjunto del sistema mencionado, devolviéndolo a la suma de redes únicas y simples. En cuanto al drenaje de aguas servidas, se ha mantenido la red actual de conducciones, canaletas y bajantes; el motivo de su mal funcionamiento constatado antes de la obra se debió a la falta de mantenimiento, la presencia de vegetación en los terrenos de juego y la falta de elementos constitutivos. En general todas las cubiertas a un agua y cubiertas planas evacuan el agua mediante bajantes situados en fachada, que desembocan en la vía pública y se han realizado con bajantes nuevos en “cotto” integrando los que faltaban. Lo mismo se ha hecho con las canaletas, que se han reconstruido utilizando elementos en “cotto”. Las condiciones de bienestar y confort ambiental se garantizan mediante una esmerada intervención de restauración higiénica del local: para cada zona en la que el pavimento está en contacto directo con el suelo se prevé un cerramiento básico horizontal con cimentación ventilada de piedra suelta sobre muros bajos, el uso de yeso macroporoso deshumidificador para la cantería subterránea, la extracción mecánica del aire húmedo y un sistema de aire acondicionado para todas las habitaciones, que es capaz de controlar la temperatura y la humedad interna. Las prestaciones del aislamiento térmico pueden considerarse aceptables gracias al espesor de la mampostería exterior. A nivel metaproyectual, la recuperación estructural preveía intervenciones generalizadas extendidas a toda el área, así como intervenciones específicas; la orientación metodológica seguida fue privilegiar las técnicas tradicionales de recuperación frente a modelos de intervención que, se cree, sólo deberían seguirse en casos extremos, a pesar de tener una amplia aceptación en los trabajos de restauración y en el debate contemporáneo sobre la recuperación de edificios históricos. La eliminación de la vegetación espontánea, la limpieza del edificio y de las paredes rocosas y la restauración higiénica son intervenciones que han interesado a todas las áreas. Otras intervenciones han incluido la reconstrucción completa de varias cubiertas, eliminando la superficie existente para eliminar las infiltraciones de agua meteórica, que han provocado el deterioro de la mampostería. Dependiendo de la extensión y la profundidad de la descomposición, las caras de los edificios en ruinas se han consolidado simplemente con resinas adecuadas (sujetas a muestreo) o se han reemplazado con la técnica "scuci-cuci" (patching). La misma precisión metodológica en las intervenciones, acentuada por problemas aparentemente diferentes, se siguió también para la recuperación y reconversión de otra área, esta vez ubicada en el Sasso Caveoso, para construir una segunda estructura, “HOTEL SANT’ANGELO”, que también fue comenzó en 1998 y terminó en 2004. (Fig.10) Figura 8: Caso estudio “Hotel Sant’Angelo” El local donde se construye el complejo turístico-hotelero está ubicado en un área comprendida entre dos niveles del barrio de Pianelle y via S.Angelo, frente a la iglesia de S.Pietro Caveoso, uno de los edificios arquitectónicos más importantes. La estructura tipológica y agregativa reproduce la descrita anteriormente para la intervención de la “Locanda di San Martino”. Si en algunos aspectos la agregación de las unidades se plantea dividida en simples “unidades de barrio”, en otros se desarrolla según una distribución horizontal en “balcón”, aprovechando las vías existentes. Debe evidenciarse que a pesar de la notable articulación espacial aparente, las áreas se limitan entre sí a los lados, retrotrayéndolas a dos niveles fundamentales, o verticalmente por simple superposición escalonada; por lo tanto, aunque son unidades únicas, en realidad forman un área con características inequívocas e identificables, que es fácilmente identificable y definible visualmente en el lado Caveoso. Los objetivos para implementar el proyecto se pueden resumir básicamente en la adecuación funcional de dichas unidades residenciales mediante la creación de plantas y servicios para 20 habitaciones, áreas de recepción, secretaría, salón bar-restaurante, cocina, sala de juegos y esparcimiento comunal, sala de lectura, sala de televisión, depósito y salas técnicas y de servicios, etc. Como se ha descrito anteriormente en el primer caso de estudio, el proyecto de renovación conservadora de toda la zona contempla la consolidación, renovación y adecuación funcional de todas las áreas incluidas en el mismo, la planificación de las plantas y la adecuación a la normativa legal. También se prevé la ordenación de las zonas comunes, los balcones que forman el barrio de Pianelle y via S. Angelo, que se incluyen en el conjunto residencial como partes integrantes del conjunto. Para estas intervenciones está prevista la repavimentación en piedra caliza de las zonas degradadas y de diseño urbano, incluyendo cuerpos de iluminación exterior adicionales, delimitando jardineras y papeleras, etc. Además de las plantas básicas, que se proporcionan, todo el Hotel está equipado con un sistema de video de circuito cerrado que permite la vigilancia de los balcones en los distintos niveles para garantizar la seguridad de los huéspedes. 7. CONCLUSIONES El análisis presentado, con las dos intervenciones realizadas, sólo puede llevarnos a consideraciones relacionadas con el origen del concepto de “recuperación” en relación con el mucho más desafiante concepto de “restauración”, y nos gusta recordar las palabras de William Morris : «Debemos evitar dejar a nuestros hijos un tesoro más pequeño que el que nos dejaron nuestros padres». Por tanto, debemos convencernos a nosotros mismos ya los que trabajan en este sector de que ninguna intervención puede llevarse a cabo sin un profundo conocimiento/evaluación del “pasado” que permita una correcta identificación de las intervenciones respetuosas de este “pasado” a preservar. Prosiguen las investigaciones para la adecuada recuperación de los Sassi de Matera, manteniendo los resultados alcanzados, persiguiendo el objetivo de forma coordinada, por un lado profundizando en el conocimiento del campo de intervención para definir un sistema preciso de valores y elementos que son objeto de protección y, por otro lado, de perfeccionar los instrumentos operativos adecuados en relación con el conjunto de intervenciones de renovación ambiental y optimización de las calidades residenciales. REFERENCIAS [1] A. Guida, F. Fatiguso, Tradizione ed innovazione per il recupero edilizio ed ambientale dei “Sassi” di Matera, in Acts of the I International Congress H & mH Hazards & modern Heritage. “Vulnerabilità e Rischi del Patrimonio Architettonico del XX secolo e Misure di prevenzione”, Rhodes (Greece) April 2002 (in Press). [1] [2] L. Rota, F. Conese, M. Tommaselli, Matera. Storia di una città, Editor BMG Matera, 1990. [2] [3] Giuffrè A., Carocci C., Codice di pratica per la sicurezza e la conservazione dei Sassi di Matera, Ed. La Bautta, 1997. [2] [4] AA.VV. Quaderni del Manuale di Progettazione Edilizia, I materiali della tradizione, Hoepli, 2003. [2] [5] A. Guida, F. Fatiguso, I. Mecca, Setting of the restoration project for durability. London ISBN 1- 85312-968-2, in Acts Structural Studies, Repairs and Maintenance of Heritage Architecture VIII vol., pp. 705-714, Editor C.A. Brebbia, STREMAH 2003- Halkidiki, Greece 7 - 9 May 2003. [1] [6] A. Guida. I. Mecca, The project for durability in the interventions of restoration: the compatibility of the materials, technological integration, planned maintenance. Poster Session – International Seminar La gestione della Durabilità nel processo edilizio, Milan 25-26 June 2003. [5] [7] A. Guida, I. Mecca, The durability and sustainability of the internal environmental treatments: the case of Sassi of Matera Italy), in Acts of , March 14th– 16th, 2004 Dubai – United Arab Emirates (in Press). [1] [8] A. Guida, I. Mecca, The project for durability in the interventions of restoration: the case of Sassi of Matera (Italy), in Acts of the 6th International Symposium on the Conservation of Monuments in the Mediterranean Basin, April 7th – 10th, 2004 LISBON - Portugal. [1] INCIDENCIA ESTRUCTURAL DE LA ESTERILLA DE BAMBÚ GUADUA EN MURETES DE MAMPOSTERÍA REPUBLICANA Luis Sierra1, Juan Rojas2, Alejandro Peña3, Caori Takeuchi4 1Estudiante Universidad Nacional de Colombia, 2Estudiante Universidad Nacional de Colombia, 3Estudiante Universidad Nacional de Colombia, 4Docente Universidad Nacional de Colombia, lhsierraa@unal.edu.co 1 RESUMEN La mampostería republicana construida con mortero de cal forma parte del patrimonio histórico de varios países, dentro de ellos Colombia. Sin embargo, por no tener refuerzo de acero su comportamiento ante sismos no es el adecuado, teniendo en cuenta esto la conservación de estas construcciones de mampostería debe contemplar el mejoramiento de su comportamiento estructural. En la presente investigación se estudia el reforzamiento con esterilla de bambú guadua y se analiza la incidencia estructural de esta en muretes construidos con unidades recuperadas de construcciones republicanas pegadas con mortero de cal. Para el proceso experimental, se construyeron muretes para ensayos de compresión con dimensiones aproximadas de 46 cm de altura, 25 cm de largo y 26 cm de espesor; para ensayos de tensión las dimensiones aproximadas fueron de 63 cm de altura, 56 cm de largo y 26 cm de espesor, clasificados en tres grupos de acuerdo con los materiales utilizados en su elaboración: muretes convencionales sin refuerzo, muretes con refuerzo de esterilla de guadua sin recubrimiento, y muretes con refuerzo de esterilla de guadua recubiertos con mortero de cal y metacaolín. En los ensayos realizados aunque no se observó un aumento de resistencia en los muretes reforzados, sí un aumento en la deformación con un incremento considerable en su ductilidad. Por lo anterior, la esterilla de guadua representa una alternativa viable para mejorar el comportamiento de estructuras republicanas ante fortuitos eventos sísmicos. PALABRAS CLAVE: Compresión, tensión diagonal, mampostería republicana, ductilidad, esterilla de bambú guadua. STRUCTURAL IMPACT OF THE GUADUA BAMBOO MAT ON REPUBLICAN MASONRY WALLS ABSTRACT Republican masonry built with lime mortar is part of the historical heritage of several countries, including Colombia. However due of the lack of steel reinforcement their behavior against earthquakes is not adequate, therefore the conservation of these masonry construction should contemplate the improvement of their structural behavior. In the present research the reinforcement with Guadua Bamboo mat is studied and its structural incidence of this in walls built with bricks recovered from republican constructions, jointed by lime mortar. For the experimental process specimens were built for compression tests with approximate dimensions of 46 cm height, 25 cm long and 26 cm thick, and for diagonal tension test with approximate dimensions of 63 cm height, 56 cm long and 26 cm thick, classified into three groups according to the materials used in its elaboration: specimens without reinforcement, with guadua mat, and with guadua mat covered with lime and metakaolin mortar. In the test carried out, although an increase in resistance was not demonstrated in the reinforced specimens, an increase in deformation was demonstrated with a considerable gain in their ductility. Therefore, the guadua mat represents a viable alternative to improve the behavior of republican structures in the event of fortuitous seismic events. KEY WORDS: Compression, diagonal tension, republican masonry, ductility, Guadua bamboo mat. 1. INTRODUCCIÓN La construcción y su intrínseca relación con la arquitectura han cambiado en todos los países del mundo a lo largo del tiempo debido a diversos factores, bien sean las nuevas tecnologías que dan paso a nuevos métodos de construcción, a nuevos materiales o refuerzos que simplifican o mejoran el comportamiento de las construcciones [1], y en el sentido artístico la arquitectura tuvo un papel especialmente relevante puesto que durante la época colonial, antes de las guerras independentistas en Latinoamérica, fue surgiendo un modo de construcción que abarcó desde los alrededores de 1810 hasta finales del siglo XX: la arquitectura republicana [2]. Este tipo de construcción, caracterizada por ser una mezcla de estilos europeos con el uso de ladrillo cocido, está presente en todas las ciudades y pueblos latinoamericanos especialmente en las zonas históricas y coloniales [2], [3], sin embargo este tipo de construcciones no tenía en cuenta un diseño sismorresistente y el material por sí mismo es incapaz de soportar cargas de sismo [4], [5], es por ello, y dado que el inventario de estas estructuras en Latinoamérica es grande es necesario plantearse soluciones para proveerle al material esta resistencia de la que carece con el fin de conservar el patrimonio arquitectónico republicano. Diversas alternativas han sido adoptadas a lo largo de los años y desde la creación de las normativas sismorresistentes en los diferentes países latinoamericanos se ha demostrado que encofrados en maderas densas [6]–[8], el uso de mallas de acero [9], [10] y confinar con vigas y columnas de concreto o acero los muros de las construcciones [11]–[13] son técnicas efectivas para mejorar el comportamiento ante sismos de las estructuras de mampostería, sin embargo y debido a los altos costos de estos materiales en el sentido económico y ambiental se hace primordial investigar y proponer otras maneras más ecológicas de mejorar estructuralmente estas construcciones. El bambú, material ecológico alternativo a los convencionales, ha demostrado tener una excelente capacidad de disipar la energía sísmica y mejorar el comportamiento estructural de las construcciones [14]– [16], tanto como el material principal de la estructura en su forma natural, como un material adicional de refuerzo al ser aplastado y cortado como esterilla [17], [18]; de la subfamilia del bambú la guadua destaca como un material que tiene una gran absorción de carbono, gran resistencia y excepcional tasa de crecimiento [19], es por ello que las investigaciones recientes en Colombia han girado en torno a este material para estudiar y determinar de qué manera potenciar las capacidades que tiene, los usos y las ventajas que varios autores han encontrado van desde la reducción significativa de volumen y peso en los materiales para la construcción de obras [20], [21], el incremento en la resistencia a la compresión al ser utilizado en la mezcla del adobe [22], la disipación de la energía sísmica y la reducción del desmoronamiento del material y el colapso de muros [23], [24]. Teniendo en cuenta lo anterior, en esta investigación se estudia el comportamiento de diferentes prototipos de muros elaborados con unidades recuperadas de ladrillos de la época republicana, utilizando como material cementante una mezcla de arena, cal y metacaolín, y reforzados con esterilla de guadua. En la primera parte del artículo se encontrará el resumen y la introducción donde se especificará la problemática y la manera en la que ésta ha sido abordada por una diversidad de autores, en la segunda parte será tratada la manera en la que fueron construidos los muros y la metodología y normativa usada para su ensayo; en el siguiente apartado se presentarán los resultados más relevantes de la investigación y posteriormente se discutirá y concluirá con base en ellos. 2. MÉTODOS Y MATERIALES Para el análisis del comportamiento de los muros republicanos, y más allá, de la incidencia que tiene la esterilla de guadua como método de refuerzo para mejorar el comportamiento estructural de los mismos, se considera necesario separar los diferentes tipos de carga que pueden incidir sobre las construcciones, es decir, solicitaciones a tensión y a compresión. Para ello se hicieron prototipos de muros en cada caso. Para ambos tipos de muro fue usado como material cementante un mortero de cal, este tipo de mortero tiene la característica de requerir más tiempo para alcanzar su resistencia máxima y de necesitar más agua durante ese proceso, así, se usó como aditivo metacaolín en una cantidad correspondiente al 5 % del peso de la arena y la cal unidas. El metacaolín es un material obtenido por la calcinación de la caolinita, que ha demostrado ayudar a fortalecer las características mecánicas tempranas de los morteros y de disminuir el requerimiento de agua durante el proceso de endurecimiento, la proporción usada para este material cementante fue de 3 unidades de arena por cada unidad de cal. De manera similar, el refuerzo utilizado en los muros es de esterilla de guadua Angustifolia kunth que fue instalada en el muro con la ayuda de tornillos autoperforantes y chazos de ¼’’, a los que se les añadió arandelas que aumentaran el área de contacto entre el tornillo y la esterilla, disminuyendo el punzonamiento, y alambre dulce conectando los tornillos entre sí para estabilizar el refuerzo instalado. Muros de compresión Estos prototipos tienen el objetivo de ser ensayados bajo la acción de la compresión directa de una maquina universal de ensayos que consta de dos placas de acero, siendo la superior fija y la inferior aquella que se mueve aplicando la fuerza al muro; los muros, a razón de ser construidos con unidades de ladrillos republicanos no son completamente uniformes entre ellos, sin embargo, sus dimensiones aproximadas son 46 cm de altura, 25 cm de largo y 26 cm de espesor. Fueron diseñados 3 prototipos de muro, el primer prototipo, y definido en el presente artículo como CSR es un muro de compresión sin ningún tipo de refuerzo ni de pañete, el segundo prototipo, definido como CR es un muro de compresión con un refuerzo de 4 trozos de esterilla de guadua con un ancho promedio de 3 cm, cubriendo parcialmente y de manera vertical dos caras opuestas de cada muro pero sin ningún tipo de pañete, y el tercer prototipo, definido como CRP es un muro a compresión reforzado como el segundo prototipo y además, pañetado con una capa del mortero cementante. Por sus siglas, cada prototipo se define: CSR Compresión Sin Refuerzo; CR Compresión Reforzado y CRP Compresión Reforzado Pañetado. De cada prototipo fueron elaborados 3 especímenes para un total de 9 muros de compresión. Para el ensayo de estos muros fueron instalados dos comparadores de carátula en la placa inferior de la máquina de ensayos y se midió el desplazamiento cada 10 kN. Muros de tensión Estos prototipos tienen el objetivo de ser ensayados bajo la acción de la compresión diagonal en un marco de ensayos con un gato hidráulico que nos permite aplicar la fuerza al muro; los muros, a razón de ser construidos con unidades de ladrillos republicanos no son completamente uniformes entre ellos, sin embargo, sus dimensiones aproximadas son 63 cm de altura, 56 cm de largo y 26 cm de espesor. Fueron diseñados 5 prototipos de muro, el primer prototipo, y definido en el presente artículo como CDSR es un muro de tensión sin ningún tipo de refuerzo ni de pañete, el segundo prototipo, definido como CDRDSP es un muro de tensión con un refuerzo de 4 trozos de esterilla de guadua con un ancho promedio de 3 cm, cubriendo parcialmente y de manera diagonal dos caras opuestas de cada muro pero sin ningún tipo de pañete, el tercer prototipo, definido como CDRDP es un muro a tensión reforzado como el segundo prototipo y además, pañetado con una capa del mortero cementante, el cuarto prototipo, definido como CDRVSP es un muro de tensión con un refuerzo de 6 trozos de esterilla de guadua con un ancho promedio de 3 cm, cubriendo parcialmente y de manera vertical dos caras opuestas de cada muro pero sin ningún tipo de pañete, y el quinto prototipo, definido como CDRVP es un muro a tensión reforzado como el cuarto prototipo y además, pañetado con una capa del mortero cementante. Por sus siglas, cada prototipo se define: CDSR Compresión Diagonal Sin Refuerzo; CDRDSR Compresión Diagonal Refuerzo Diagonal Sin Pañete; CDRDP Compresión Diagonal Refuerzo Diagonal Pañetado; CDRVSR Compresión Diagonal Refuerzo Vertical Sin Pañete y CDRVP Compresión Diagonal Refuerzo Vertical Pañetado. De cada prototipo fueron elaborados 3 especímenes para un total de 15 muros de compresión. Para el ensayo de estos muros fueron dispuestos 4 perfiles de acero que apretaban el muro en sus dos caras y sobre ellos se instalaron 4 comparadores de carátula, dos de ellos medían acortamiento y los otros dos el alargamiento de ambas caras de cada prototipo. Aunque se ha mencionado esta metodología, se consideró que el ensayo y análisis de los muros de tensión exceden el alcance y la longitud de lo que se desea en el presente documento, por lo que no serán presentados. 3. RESULTADOS El montaje de los muros de compresión en la maquina universal de ensayos puede ser comprobado en las figuras (1), (2) y (3). Posterior al ensayo, fueron encontrados los valores de carga contra desplazamiento para cada tipo de muro, en la figura (4) puede encontrarse un resumen de los resultados. Figura 4 Gráfica Carga vs. Desplazamiento de los ensayos de compresión axial en los muros de mampostería republicana. Los datos encontrados relevantes para esta investigación se encuentran recopilados en la tabla 1. Tabla 1 Resultados obtenidos en los ensayos de compresión axial. Tipo de muro CSR CR CRP Carga Max1 (kN) 297 192 392 Carga Max2 (kN) 300 220 263 Figura 1 Muro tipo CSR (Compresión sin refuerzo) Figura 2 Muro tipo CR (Compresión con refuerzo) Figura 3 Muro tipo CRP (Compresión con refuerzo y pañete) Carga Max3 (kN) 283 283 260 Desviación estandar 9,38 46,55 91,22 Media 293,20 231,63 327,80 Coeficiente de Variación 3% 20% 28% Los resultados obtenidos en el análisis del comportamiento mecánico de los muros de mampostería republicana sometidos a compresión axial evidenciaron una tendencia representada en los diagramas esfuerzo-deformación de los promedios de los distintos tipos de muro. Dentro de los cambios específicos en cada ensayo, se detalla que los muros con refuerzo alcanzan mayores deformaciones lo cual implica un incremento en la ductilidad sin fallas repentinas en su estructura, que sí se produjeron en los ensayos de los muros sin refuerzo. La tabla 1 muestra que si bien los muros reforzados logran una mayor disipación de energía, al reforzarse las cargas máximas en los muros tipo CR y CRP disminuyen, teniendo un promedio de 231.63 kN y 327.8 kN respectivamente. Cabe resaltar que para los muros CRP el muro número 7 presentó una gran resistencia, dada principalmente por el tipo de unidades de mampostería republicana que componía el muro, esto incrementó el promedio de las cargas, al eliminar este valor atípico el promedio de las dos unidades restantes da como resultado 261.6 kN, que representa un valor menor al 263.2 kN alcanzado en promedio por los muros CSR, pero mayor a los muros CR. Figura 5 Grafica Carga vs. Desplazamiento promedio de los tres tipos de muros ensayados a compresión axial Figura 6 Grafica Esfuerzo vs. Deformación promedio de los tres tipos de muros ensayados a compresión axial Tabla 2 Resumen de valores máximos obtenidos en los ensayos experimentales de los muros de mampostería republicana. Con el propósito de realizar una simplificación de los datos obtenidos se realizaron las gráficas 5 y 6 que muestran el promedio de carga y esfuerzo para cada tipo de muro, así se puede observar de mejor manera como el reforzar los muros reduce la carga y el esfuerzo máximo que es capaz de soportar cada prototipo, pero aumentando la ductilidad permitiendo llegar a valores cercanos al doble en las deformaciones unitarias, como se observa en la tabla 2 en la cual se identifica que las reducciones en los esfuerzos pueden ser hasta del 35 % comparado con los muros sin ningún tipo de refuerzo. 4. DISCUSIÓN Bajo el marco y objetivos de la investigación se puede inferir que el comportamiento que presentan los muros en compresión depende del tipo de refuerzo que posee, como primer punto los muros CSR resisten más en cuanto a carga máxima se refieren, sin embargo tienen un comportamiento pobre frente a ductilidad y se rompen antes que deformarse demasiado, los muros CR y CRP disminuyen su capacidad de resistencia máxima pero son capaces de deformarse un 46.3 % y un 100.5 % más que los muros CSR que evidencia un gran incremento en su ductilidad representados en una mayor zona de fluencia. Este hecho, aunque en principio puede suponer una desventaja estructural, implicaría un mayor tiempo de evacuación en posibles eventos sísmicos que generen afectaciones a las estructuras elaboradas en mampostería republicana y por consiguiente representan una alternativa viable para mejorar las condiciones de este tipo de estructuras. También es importante mencionar que para los prototipos que fueron reforzados los principales planos de falla se dieron a través del mortero y también en las mismas unidades de mampostería que tenían las perforaciones. La falla en cada ladrillo perforado tuvo forma de “estrella” y dio paso a planos de falla a través de las unidades de mampostería como se observa en la imagen 7. Este fenómeno pudo ser uno de los causantes de la disminución de la resistencia a la carga de compresión. Figura 7 De manera similar, en la figura 7 se observan las 2 principales formas en las que los refuerzos de esterilla de guadua cedían ante la fuerza de compresión. Para el refuerzo ubicado a la izquierda de la figura 7 se observa que, por el aplastamiento, la esterilla se dividió y perdió su capacidad de resistencia, para el caso del refuerzo ubicado en la parte derecha de la figura 7, la falla se dio por pandeo al ser el chazo el que cedió ante la fuerza aplicada. Este fenómeno se puede observar de mejor manera en la figura 8. Tipo de muro Carga Máxima (kN) Esfuerzo Máximo (Mpa) Deformación Unitaria (ɛ) Esfuerzo Máximo (%) CSR 293.20 4.27 0.027 0.0% CR 231.63 2.77 0.040 -35.1% CRP 261.60 3.63 0.055 -15.0% Figura 8 Con la adición del pañete se aumentó la capacidad del muro para deformarse y de igual manera la carga y el esfuerzo máximo que los muros lograron resistir. En cuanto a la forma de falla, su comportamiento fue similar al caso de los muros CR, los ladrillos generaban planos de falla a lo largo de las perforaciones y la esterilla podía fallar por el aplastamiento como también pandearse en el momento que el chazo no lograba soportar la fuerza a la cual se veía sometido, como se puede observar en las figuras 9 y 10. Figura 9 Figura 10 5. CONCLUSIONES Resulta importante mencionar que el comportamiento de los muros es completamente deseado de acuerdo con las proposiciones planteadas al comienzo de la investigación, aunque aumenta en cada caso un 46.3 % para los muros CR y un 100.5 % para los muros CRP la capacidad de deformación, disminuye la capacidad de carga un 35.1 % y un 15 % respectivamente. Se evidenciaron adicionalmente incrementos en la ductilidad de los muros con refuerzo que representan alternativas funcionales ante posibles eventos sísmicos que pongan en riesgo la estabilidad de las estructuras republicanas, brindando un mayor tiempo de evacuación. Por el modo de falla sería recomendable añadir algún tipo de mortero cementante al interior de las perforaciones donde van los tornillos para así disminuir la posibilidad que desde estos huecos se produzca un plano de falla. REFERENCIAS [1] GOODRUM, P. M.; ZHAI D., and YASIN, M. F. “Relationship between Changes in Material Technology and Construction Productivity”, doi: 10.1061/ASCE0733-93642009135:4278. [2] MOLINA PRIETO, Luis; HINOJOSA DE PARRA, Rita. “De la mampostería colonial al ladrillo a la vista.” [3] NEIRA, María. “La huella del cemento aportes del cemento en la arquitectura republicana Bogotá Colombia 1910 - 1932.” [Online]. Available: https://ciencia.lasalle.edu.co/arquitecturaP. [4] TOMAZEVIC, Miha. “Some aspects of experimental testing of seismic behavior of masonry walls and models of masonry buildings”. ISET Journal of Earthquake Technology, 2000, vol. 37, núm. 404, pp. 101 – 117. [5] S. E. Vic and W. gton, “Evaluation of Earthquake Damaged Concrete and Masonry Wall Buildings Basic Procedures Manual IND IAN A UNI VER SIT Y LIB RAR IES GOV ERN MEN T INF ORM ATI ON , MIC ROF ORM S AND STA TIS TIC AL ATC Applied Technology Council(ATC-43 Project) ܘ ܠ ܐ The Partn ershi p for Resp onse and Recovery Federal Emergency Man agement Agency FEMAALIENDAS,” 1999. [6] FURTADO, A.; RODRIGUES, H.; ARÊDE, A.; VARUM, H. “Simplified macro-model for infill masonry walls considering the out-of-plane behaviour,” Earthquake Engineering and Structural Dynamics, vol. 45, no. 4, pp. 507–524, Apr. 2016, doi: 10.1002/eqe.2663. [7] JACKSON, M.; ROSSET, P. C. “Scientia in republican era stone and concrete masonry,” 2013. [8] MURANO, A.; ORTEGA, J.; VASCONCELOS, G.; RODRIGUES, H. “Influence of traditional earthquake-resistant techniques on the out-of-plane behaviour of stone masonry walls: Experimental and numerical assessment,” Engineering Structures, vol. 201, Dec. 2019, doi: 10.1016/j.engstruct.2019.109815. [9] SNEED, L. H.; BAIETTI, G.; FRAIOLI, G.; CARLONI, C. “Compressive Behavior of Brick Masonry Columns Confined with Steel-Reinforced Grout Jackets,” Journal of Composites for Construction, vol. 23, no. 5, Oct. 2019, doi: 10.1061/(asce)cc.1943-5614.0000963. [10] DE SANTIS, S.; DE FELICE, G. “Steel reinforced grout systems for the strengthening of masonry structures,” Composite Structures, vol. 134, pp. 533–548, Dec. 2015, doi: 10.1016/j.compstruct.2015.08.094. [11] DE POMBO ANGULO, José. “REFORZAMIENTO DE MUROS DE LADRILLO EN CONSTRUCCIONES REPUBLICANAS EMPLEANDO CONFINAMIENTO EXTERNO CON ELEMENTOS METÁLICOS (CELAM).” Director: Caori Takeuchi. Tesis de maestría. Universidad Nacional de Colombia, Bogotá D.C.,2022. [12] SHAHZADA, K. et al., “Strengthening of Brick Masonry Walls against Earthquake Loading,” 2012. [13] “Earthquake-Resistant Confined Masonry construction”. [14] SHARMA, B.; GATÓO, A.; BOCK, M.; RAMAGE, M. “Engineered bamboo for structural applications,” Construction and Building Materials, vol. 81, pp. 66–73, 2015, doi: 10.1016/j.conbuildmat.2015.01.077. [15] VOGTLÄNDER, J.; VAN DER LUGT, P.; BREZET, H. “The sustainability of bamboo products for local and Western European applications. LCAs and land-use,” Journal of Cleaner Production, vol. 18, no. 13, pp. 1260–1269, 2010, doi: 10.1016/j.jclepro.2010.04.015. [16] XIAO, Y. “Engineered Bamboo,” Nonconventional and Vernacular Construction Materials, pp. 433– 452, 2016, doi: 10.1016/b978-0-08-100038-0.00015-9. [17] QUEVEDO, Omar; GÓMEZ, Diego. “CARACTERÍSTICAS MECÁNICAS DEL ADHESIVO POLIISOCIANURATO COMO JUNTA DE ESTERILLA PARA LAMINADO.” Director: José Alcides Ruíz Hernández. Tesis de tecnólogo. Universidad La Gran Colombia. Bogotá D.C.,2018. [18] MAMBUCAY CACHAY, Carlos. “Simulación computacional de conexiones mecánicas simples con elementos de esterilla laminada de guadua.” Director: Fernando Ramírez Rodríguez. Tesis de pregrado. Universidad de los Andes, Bogotá D.C., 2014. [19] ARCHILA, H. F.; TAKEUCHI, C. P.; TRUJILLO, D. J. A. “MECHANICAL AND PHYSICAL CHARACTERIZATION OF COMPOSITE BAMBOO-GUADUA PRODUCTS: PLASTIGUADUA.” [20] ALMEIDA, B. S.; MUSCIO, E.; IPARREÑO, L.; ANAYA, J. “Panel prefabricado de guadua-acero- mortero microvibrado con ceniza de cáscara de arroz para vivienda de interés social = Prefabricated panel of guadua-steel-mortar microvibrated with rice husk ash for social interest housing,” Anales de Edificación, vol. 5, no. 1, p. 51, Apr. 2019, doi: 10.20868/ade.2019.3914. [21] AZAÑEDO REYES, Daniel. “EVALUACIÓN DE EDIFICACIONES DE BAMBÚ PARA LA CONSTRUCCIÓN DE CASETA DE TRIAJE COVID 19- 2020”. Director: Gonzalo Díaz García. Tesis de pregrado. Universidad Privada del Norte. Trujillo, Perú. 2020. [22] PARADISO, M.; CRUZ HERNÁNDEZ, R.; A. BIZZETI, F.; FARIGU, A.; LOTTI, O. “USAGE OF BAMBOO POWDER AS AN ADDITIVE IN ADOBE BRICKS AND BAMBOO CANES FRAME FOR THE REINFORCEMENT OF ADOBE STRUCTURE,” Revista M, vol. 15, pp. 70–79, Aug. 2019, doi: 10.15332/rev.m.v15i0.2179. [23] PARADISO, M.; MUÑOZ ROBLEDO, J. F.; GALMARINI, B.; D’IPPOLITO, V. “LA GUADUA E L’INFORMALE. LA CONOSCENZA STRUTTURALE E LA QUALIFICAZIONE DEI MATERIALI NATURALI NEL BARRIO DE INVASIÓN NUEVA ESPERANZA, KM41, MANIZALES, COLOMBIA,” Revista M, vol. 15, pp. 48–69, Aug. 2019, doi: 10.15332/rev.m.v15i0.2178. [24] PARADISO, M.; BIZZETI, F. “ANALISI SPERIMENTALE DI PANNELLI IN ADOBE E BAMBÙ: UN ESEMPIO DI RECUPERO DI ANTICHE TECNICHE COSTRUTTIVE LATINOAMERICANE,” Euro-American Congress REHABEND 2016. IMPACTO EN EL DESEMPEÑO TÉRMICO DE LA APLICACIÓN DE CELULOSA EN LA ENVOLVENTE DE UN AULA María Fernanda Aristizábal1, Manuela Murillo Galvis2Elizabeth Parra Correa)3, Manuela Quintero Londoño4, Laura Rivera Salazar5 1 Estudiante de arquitectura,Universidad de San Buenaventura, Facultad de Artes integradas, calle 45 N 61 – 40 Barrio Salento Bello, Colombia; 2Estudiante de Maestría, Universidad de San Buenaventura Medellín, Facultad de Artes Integradas, Calle 45 N° 61-40 Barrio Salento, Bello, Colombia; 3Docente de Arquitectura, Universidad de San Buenaventura Medellín, Facultad de Artes Integradas, Calle 45 N° 61-40 Barrio Salento, Bello, Colombia; 4Estudiante de arquitectura, Universidad de San Buenaventura, Facultad de Artes integradas, calle 45 N 61 – 40. Barrio Salento Bello, Colombia: 5Estudiante de arquitectura, Universidad de San Buenaventura, Facultad de Artes integradas, calle 45 N 61 – 40. Barrio Salento Bello, Colombia. maria.aristizabal17@tau.usbmed.edu.co 1 RESUMEN Alcanzar temperaturas adecuadas dentro de las aulas de clase es determinante para el correcto desarrollo de los procesos de aprendizaje. No obstante, en algunos casos, en la etapa de construcción de las edificaciones las decisiones sobre la materialidad, orientación y forma son tomadas basándose únicamente en el equilibrio presupuestal sin considerar otras variables como el ambiente térmico que tendrán las aulas o el impacto ambiental generado por la obra. El objetivo de esta investigación es evaluar como la aplicación de celulosa como material aislante aplicado en diferentes ubicaciones y espesores en un aula de clase ubicada en el municipio de Bello, Antioquia, Colombia impacta en el desempeño térmico interior. Para esto se realizaron mediciones en sitos, un levantamiento arquitectónico, un reconocimiento de la materialidad, rutinas de ocupación y operación y demás factores que modifican el ambiente térmico del aula. Finalmente, de construyó un modelo computacional en el software Rhino y se realizaron simulaciones térmicas de diferentes escenarios traes del plugin Climate Studio. Se obtuvo como resultado que la celulosa puede muy fácilmente igualar o mejorar el desempeño térmico del espacio que actualmente está aislado con poliestireno expandido, teniendo un menor impacto ambiental. Se abre así una discusión sobre la elección de los materiales para la construcción de los futuros bloques dentro de la universidad. PALABRAS CLAVES: Aulas, desempeño térmico, material aislante, celulosa. IMPACT ON THE THERMAL PERFORMANCE OF THE APPLICATION OF CELLULOSE IN A CLASSROOM ENCLOSURE ABSTRACT Achieving adequate temperatures inside classrooms is crucial for the correct development of learning processes. However, in some cases, in the construction stage of the buildings, decisions on materiality, orientation and shape are made based solely on the budget balance without considering other variables such as the thermal environment that the classrooms will have or the environmental impact generated by the work. The objective of this research is to evaluate how the application of cellulose as an insulating material applied in different locations and thicknesses in a classroom located in the municipality of Bello, Antioquia, Colombia impacts the interior thermal performance. For this purpose, site measurements, an architectural survey, a recognition of the materiality, occupancy and operation routines and other factors that modify the thermal environment of the classroom were carried out. Finally, a computer model was built in the Rhino software and thermal simulations of different scenarios brought by the Climate Studio plugin were performed. It was obtained as a result that cellulose can very easily match or improve the thermal performance of the space that is currently insulated with expanded polystyrene, having a lower environmental impact. This opens a discussion on the choice of materials for the construction of future blocks within the university. KEY WORDS: Classrooms, thermal performance, insulating material, cellulose. 1. INTRODUCCIÓN 2. Los espacios educativos son un factor clave para el desarrollo de las actividades de aprendizaje, la necesidad de mejoramiento de estos espacios construidos para para que se adapten a las necesidades medioambientales del presente, conlleva un reto de actualidad que compromete al bienestar humano, a la comodidad ambiental y al impacto de la huella de carbono. Por tal motivo, las aulas deben responder a dos aspectos fundamentales para proveer un ambiente saludable: lograr buenas condiciones de confort y obtener un nivel de eficiencia energética óptimo que posibilite el mínimo consumo con el máximo de calidad [1]. Con respecto a las condiciones de confort, el aula debe corresponder a nivel constructivo, espacial y técnico a la actividad realizada para proporcionar un ambiente de bienestar y aumentar el rendimiento del aprendizaje y la productividad, además de la disminución de problemas fisiológicos. De acuerdo con esto, los espacios educativos demandan calidad ambiental, lo que implica una inversión distinta que debe estar orientada al bienestar humano y del medio ambiente, con estrategias proyectuales diversas acordes con el contexto del proyecto y con la incorporación de materiales técnicos adecuados para un buen desempeño térmico. Al ser un espacio de alta concentración de personas en la mayoría de los casos y de especial atención por las metas de desarrollo de aprendizaje a alcanzar, los países cuentan con normativas para el diseño en concordancia con las requerimientos mínimos y máximos para alcanzar ciertos niveles de confort, en Colombia esta norma es la NTC 4595: Ingeniería Civil y Arquitectura. Planteamiento y diseño de instalaciones y ambientes escolares, que incluye los niveles de comodidad térmica, visual y auditiva de las aulas educativas. Con respecto a la comodidad térmica, la normativa se enfoca en la morfología y constitución de los edificios diferenciados por tipos de climas, ya sea frío, templado, cálido seco y cálido húmedo. [2] De igual forma, según el documento titulado Confort térmico en aulas universitarias: un estudio experimental en el trópico, el confort térmico es un objetivo primordial en las aulas universitarias cuando se quiere maximizar el rendimiento académico. El desafío de lograr el confort térmico en las aulas en los trópicos es aún más significativo debido a las condiciones climáticas extremas y las elevadas ganancias de calor interno y externo. [3] En algunas ciudades Colombianas, al estar ubicadas en un contexto del trópico con clima templado, las estrategias están encaminadas a la protección solar en la mayoría de los casos y a permitir ventilación con el área de aberturas efectiva para evitar la acumulación de calor al interior, entre otras estrategias. Se han implementado sistemas de ventilación mecánica y materiales aislantes en las envolventes que permiten aumentar el confort en las aulas, sin embargo, estos materiales aislantes no están pensados desde el impacto medio ambiental negativo que puedan causar, generando así, cuestionamientos acerca de materiales que permitan tener un desempeño térmico adecuado a las necesidades del espacio y que al mismo tiempo sea sostenible. De acuerdo con esto, debido a la demanda creciente de productos elaborados a partir de materias primas renovables y la preocupación por el cambio climático se ha estimulado el desarrollo de distintos productos con múltiples aplicaciones. Conforme avanza la tecnología aumenta la necesidad de encontrar alternativas a materiales derivados del petróleo, buscando que estos sean renovables y sostenibles a largo plazo. La celulosa puede ser una alternativa al ser un material renovable, natural, biodegradable y reciclable con propiedades únicas, ya que es el polímero natural más abundante en la biósfera. [4] La celulosa es un material que posee una superficie esponjosa y porosa, y, por ser de origen vegetal funciona como aislante térmico y acústico. Para su utilidad en construcciones éste debe mezclarse con sales de bórax, que le aportan propiedades insecticidas y antifúngicas. En el mercado se pueden encontrar placas de celulosa con un espesor de 30 a 300 mm. [5] Según el Instituto Tecnológico de Rocas Ornamentales y Materiales de Construcción [6] es importante analizar los tipos de materiales utilizados al momento de construir, pues de esto depende el impacto ambiental que se pueda generar como consecuencia del agotamiento de recursos o materias primas, así como las emisiones de gases y el consumo energético. Existe una gran variedad de materiales aislantes que se utilizan para el recubrimiento de muros, divisiones y cielo rasos, que varían según su densidad, peso, diseño y costo. Los materiales más comunes en Colombia son el superboard, drywall, pvc e icopor en forma de láminas de poliestireno expandido, que brinda beneficios en aislamiento térmico y acústico, así como la adaptabilidad de su forma y tamaño [7] ; sin embargo, las materias primas usadas para la fabricación del poliestireno expandido no son renovables y en ocasiones la manipulación de este material puede causar riesgos para la salud. [8] De acuerdo a esto, se evalúa la celulosa como material como alternativa sostenible, la fabricación de la celulosa comienza con papel reciclado que debe ser cargado sobre una cinta procesadora de una máquina; inicialmente todo este papel pasa por una mezcladora primaria, que separa todo el papel y lo prepara para ser cortado, luego pasa a través de una zona con imanes donde se queda cualquier metal que pueda tener el papel, para después ser triturado y finalmente, mezclado con ácido bórico, que actúa como retardante del fuego, ayudando a que el material sea resistente a las plagas, evitando la corrosión y la propagación de moho. [9] Estudios afirman que la celulosa se empezó a utilizar como material de construcción a finales del siglo XIX en América, incrementando su uso en los años 70 durante la crisis del petróleo, para luego disminuir como consecuencia a las campañas de desprestigio del material por sus propiedades ignífugas; sin embargo, actualmente es de los aislamientos más competitivos en el mercado por cuestiones técnicas y económicas que le favorecen como materia prima, especialmente por ser abundante y barata. Además de ser un material que se aprovecha por completo, no deja residuos y es de fácil transporte, la celulosa tiene grandes ventajas como materia prima, es un material de bajo impacto ambiental al ser completamente reciclable, su ciclo de vida es ilimitado y su aislamiento permite todo tipo de aplicaciones ya que permite un aislamiento del ruido, del calor, de las humedades e incendios. [10] Actualmente en la facultad de arquitectura de la Universidad de San Buenaventura, ubicada en Bello, Antioquia, se generan considerables cantidades de residuos de papel y cartón provenientes de maquetas y proyectos de los estudiantes, generalmente todo ese material termina siendo desechado y la cantidad de residuos va en aumento. Frente a este panorama, el objetivo debe estar encaminado en fortalecer el potencial de mejora con la posibilidad incorporar el material de la celulosa para el uso eficiente de los recursos, siendo esto una acción prioritaria con respecto la elección de los materiales de construcción en beneficio del medio ambiente y del confort térmico de las aulas, ya que actualmente se tiene poliestireno expandido como material aislante y de un impacto negativo a la huella de carbono. Tener el conocimiento necesario de las implicaciones en la toma de decisiones en cuanto a materiales y soluciones constructivas se refiere, permite acrecentar la capacidad innovadora a través de la eficiencia de los recursos y una construcción ambientalmente sostenible. 3. CASO DE ESTUDIO La presente investigación busca analizar el impacto que la aplicación de celulosa en la envolvente de un aula, tendría en su desempeño térmico. Como caso de estudio se analizó el Aula-taller 2D de la Universidad de San Buenaventura, localizada en el municipio de Bello, Antioquia, Colombia. Este es uno de los municipios que conforman el área metropolitana del Valle de Aburrá. Según el IDEAM este lugar presenta un clima tropical y una temperatura promedio entre 17° y 28°C anual. Con el objetivo de conocer el desempeño térmico del aula en su estado actual y poder calibrar posteriormente el modelo computacional se instaló un sensor de temperatura de referencia HOBO U12 al interior del aula. El sensor registró datos de temperatura cada 10 minutos durante un mes, entre el 24 de febrero del 2022 al 24 de marzo del 2022. En la Figura 1 se grafican los resultados obtenidos. Figura 1: Temperatura exterior medida en sitio El espacio tiene un equipo de Aire Acondicionado referencia AUUQ18GH1 que es operado a voluntad de los docentes o estudiantes presentes en el aula. Se debe aclarar que las mediciones interiores registraron la temperatura en diferentes escenarios de operación y ocupación del espacio, variando el número de personas, el horario, la apertura o cierre de las ventanas y la operación del equipo de aire acondicionado. Como se mencionó anteriormente, estas gráficas permitirán posteriormente calibrar el modelo computacional de simulación del desempeño térmico con respecto a la realidad, permitiendo realizar predicciones más confiables. 4. METODOLOGÍA La metodología implementada es de tipo cuantitativo y se basa principalmente en simulaciones computacionales y análisis de datos. En la Figura 2 se presenta un esquema resumen de la metodología aplicada indicando características del espacio, herramientas, software, escenarios y resultados. Figura 2: Esquema metodológico Levantamiento arquitectónico Se realizó un levantamiento arquitectónico del aula seleccionada. Tomando las dimensiones en planta, fachadas y cubierta necesarias para posteriormente construir el modelo digital tridimensional. En el levantamiento arquitectónico de las fachadas se identificaron las áreas de ventana, el porcentaje de abertura y el sistema de las mismas. Adicionalmente se identificaron las capas, materiales y espesores que conforman los sistemas constructivos del espacio con el objetivo de calcular las propiedades térmicas que alimentarán el modelo computacional. Construcción del modelo y software utilizados Con base en el levantamiento arquitectónico realizado se construyó un modelo computacional en el software Rhino y las simulaciones de desempeño térmico se realizaron a través del plugin Climate Studio. Esta herramienta permite analizar el desempeño térmico y la eficiencia energética de un espacio arquitectónico, basados en archivos climáticos y en las especificaciones de uso, materialidad y cargas de ocupación, operación de ventanas, entre otros. Parámetros de simulación A continuación, en la Tabla 1 se describen los parámetros ingresados al modelo computacional del estado actual del aula para realizar la simulación del caso base y la calibración con respecto a las mediciones tomadas en sitio. Tabla 1: Configuración caso base simulación Descripción Archivo climático Envolvente exterior Material Steel deck Icopor Steel deck Espesor (m 2 ) 0,001 0,05 0,001 Conductividad (W/m 2 .K) 45 0,033 45 Valor-R Valor-U Material Revoque Ladrillo Revoque Espesor (m 2 ) 0,01 0,15 0,01 Conductividad (W/m 2 .K) 0,65 0,48 0,65 Valor-R Valor-U Material Drywall Aire Drywall Espesor (m 2 ) 0,01 0,05 0,01 Conductividad (W/m 2 .K) 0,58 0,02 0,58 Valor-R Valor-U Material Steel deck Espesor (m 2 ) 0,001 Conductividad (W/m 2 .K) 45 Valor-R Valor-U 3,85 Muro sur Losa 1,95 0,77 1,29 Concreto 0,1 2 0,26 Muro oriental y norte 0,51 Parámetros de simulación del Caso base COL_ANT_Medellin-Olaya.Herrera.AP.801100_TMYx.2007-2021 1,66 0,6 Cubierta Fachada Occidental y cubierta Calibración Para la construcción del modelo del aula en el software se utilizaron los datos obtenidos de las mediciones en sitio, los resultados de la temperatura exterior se compararon con el archivo climático con el objetivo de analizar si éste permitía un acercamiento real a la temperatura del espacio según el microclima y el contexto específico en el que se encuentra el aula para utilizarlo en las simulaciones. Adicionalmente, los resultados de las simulaciones del caso base del modelo del aula en el software se compararon con los resultados de las mediciones interiores y se evaluó la semejanza entre ambas, obteniendo resultados del desempeño térmico según el comportamiento real del aula en los diferentes momentos del día. Las rutinas identificadas de ocupación del espacio como la utilización de equipos e iluminación, la operación de las ventanas y las propiedades térmicas de los materiales también fueron cargadas en el modelo según lo identificado, permitiendo la calibración del modelo de acuerdo con lo construido. Escenarios evaluados Se planteó la evaluación de cuatro (4) escenarios distintos con respecto al caso base, realizando variaciones en el tipo de material aislante aplicado, el espesor y la ubicación en la envolvente. Se inició con el caso base para identificar el desempeño térmico actual del espacio con el poliestireno expandido de un espesor de X= 5cm, como escenario 0, y posterior a este se analizaron los escenarios adicionales como se puede ver en la Tabla 2. Tabla 2: Escenarios analizados Escenario 0 Estado actual del aula poliestireno expandido en cubierta con espero X= cm Escenario 1 Celulosa en cubierta con espesor X Escenario 2 Celulosa en cubierta con espesor 2X Escenario 3 Celulosa en cubierta con espesor X/2 Escenario 4 Celulosa en cubierta y fachada con espesor X Hora 7 :0 0 8 :0 0 9 :0 0 1 0 :0 0 1 1 :0 0 1 2 :0 0 1 3 :0 0 1 4 :0 0 1 5 :0 0 1 6 :0 0 1 7 :0 0 1 8 :0 0 1 9 :0 0 2 0 :0 0 2 1 :0 0 Ocupación 8 0 % 8 0 % 1 0 0 % 1 0 0 % 1 0 0 % 5 0 % 2 0 % 8 0 % 8 0 % 1 0 0 % 1 0 0 % 1 0 0 % 1 0 0 % 8 0 % 5 0 % Equipos 0 % 0 % 1 0 0 % 1 0 0 % 1 0 0 % 1 0 0 % 1 0 0 % 1 0 0 % 1 0 0 % 1 0 0 % 1 0 0 % 0 % 0 % 0 % 0 % Iluminación 8 0 % 8 0 % 8 0 % 0 % 0 % 0 % 0 % 0 % 0 % 0 % 1 0 0 % 1 0 0 % 1 0 0 % 1 0 0 % 1 0 0 % Rutinas Aula taller Modelo de confort Con base en la temperatura de bulbo seco tomada del archivo climático se calculó la zona de confort para el sitio a través del modelo adaptativo propuesto por la ASHRAE 55 – 2010. Este modelo considera que los seres humanos son capaces de adaptarse al entorno que habitan y desarrollar diferentes niveles de tolerancia al frío o al calor. La zona de confort adaptativo se calcula con la ecuación (1), donde Tc es la temperatura de confort y Tm la temperatura media exterior del lugar. Tc = 17,8 + (0,31 * Tm) (1) En el caso del presente proyecto la temperatura media del lugar es de 24°C, por tanto, la temperatura de confort sería 25,2°C. Una vez conocida la temperatura de confort para el lugar se pueden definir dos tipos de zona de confort. La zona de confort 90% y la zona de confort 80% o permisible. En el primer caso se considera que dentro de esas temperaturas el 90% de los usuarios que habitan ese espacio van a sentir satisfacción con el ambiente térmico, en el segundo caso se considera un rango más amplio en el que se asume que los usuarios pueden ajustar su sensación térmica a través del cambio de la vestimenta, la actividad metabólica o la operación de ventanas. En la presente investigación, se consideraró la zona de confort 90%, que para el clima presentado en el lugar donde se implanta el proyecto se ubica entre los 22,7°C y los 27,7°C como se puede ver en la Tabla 3. Tabla 3: Definición zona de confort Tipo de zona de confort 90% 80% o permisible Fórmula Zc = Tc ± 2,5 °C Zc = Tc ± 3,5 °C Rango de temperaturas Zc = 22,7 - 27,7°C Zc = 21,7 - 28,7°C Análisis de resultados El análisis de los resultados obtenidos de las simulaciones se realizó por medio de diagramas de cajas y bigotes. Las gráficas ilustran el desempeño térmico del aula en los distintos escenarios para las 5475 horas analizadas del año. Cada una de las cajas y bigotes representan los 365 días de una (1) hora durante la jornada educativa desarrollada entra las 7:00 y las 21:00 horas. De esta forma es posible visualizar en unas sola gráficas datos anuales sin realizar promedios. Este tipo de gráficas permiten mostrar visualmente un grupo de datos numérico a través de sus cuartiles, identificar valores clave como el promedio, la media, identificar la variabilidad de los datos superiores e inferiores, y los valores atípicos. 5. RESULTADOS En primer lugar, se realizó una puesta en paralelo entre los datos obtenidos del sensor ubicado al interior del aula y los datos resultantes de la simulación del escenario 0 (caso base). Lo anterior con el objetivo de calibrar la simulación computacional con respecto a la realidad actual del espacio. Como se puede observar en la Figura 3, se alcanzaron grandes similitudes entre las 13:00 y las 21:00 horas. Mientras que entre las 7:00 y las 12:00 horas la simulación computacional muestra temperaturas significativamente mayores que la medición en sitio. Esto se debe a que actualmente el aula solo se usa en las horas de la tarde y la noche, permaneciendo vacía y cerrada durante las mañanas. Mientras que en las rutinas ingresadas al modelo computacional se asume que el aula va a ser usada durante todo el día y por tanto va a tener mayores cargas internas en este periodo de tiempo. Figura 3: Calibración del modelo computacional A continuación, se presentan los resultados obtenidos de las simulaciones computacionales de desempeño térmico realizadas para el estado actual del aula y los escenarios planteados. Posteriormente se realiza una puesta en paralelo de los diferentes escenarios el número de horas anuales en confort 90%. Escenario 0 - Estado actual del aula Como se puede observar en la Figura 4, el aula en su estado actual se encuentra 3.654 horas del año dentro de la zona de confort del periodo analizado, 276 por encima y 1.545 por debajo equivalente a un 66,7%, un 5% y un 28.2% respectivamente. Los periodos del día con mayores niveles de confort a lo largo del año se ubican entre las 9:00 y las 12:00 horas alcanzando casi un 100% del tiempo dentro de la zona de confort adaptativo. Entre las 17:00 y las 8:00 horas el espacio se encuentra dentro o por debajo de la zona de confort, es decir que las personas podrían sentirse en confort o tener estrés térmico por frío y entre las 13:00 y las 16:00 horas se podría presentar en algunos días del año un ligero sobrecalentamiento del espacio requiriendo el uso de sistemas de aire acondicionado. La temperatura interior con respecto a la exterior es más estable. Escenario 1 Como se puede observar en la Figura 5, el aula en el primer escenario de simulación, utilizando paneles de celulosa de 5cm en cubierta, se encuentra 3.597 horas del año dentro de la zona de confort del periodo analizado, 336 por encima y 1542 por debajo equivalente a un 65.7%, un 6.1% y un 28.2% respectivamente. Los resultados son muy semejantes con los del caso base. El escenario 1 disminuye 1% del tiempo dentro de la zona de confort con respecto al caso base, con una diferencia de 57 horas al año. Figura 4: Escenario 0 y Temperatura exterior Escenario 2 Como se puede observar en la Figura 6, el aula en el segundo escenario de simulación, utilizando paneles de celulosa de 10cm en cubierta, se encuentra 3.711 horas del año dentro de la zona de confort del periodo analizado, 230 por encima y 1534 por debajo equivalente a un 67.8%, un 4.2% y un 28.0% respectivamente. Los resultados son muy semejantes con los del caso base. Sin embargo, se puede observar que entre las 7:00 y las 13:00 horas las temperaturas son ligeramente menores, pero entre las 18:00 y las 21:00 son ligeramente mayores. El escenario 2 aumenta un 1% del tiempo dentro de la zona de confort con respecto al caso base, con una diferencia de 66 horas al año y un 2% con respecto al escenario 1. Figura 6 : Escenario 2 y Escenario Escenario 3 Como se puede observar en la Figura 7, el aula en el tercer escenario de simulación, utilizando paneles de celulosa de 2.5 cm en cubierta, se encuentra 3.420 horas del año dentro de la zona de confort del periodo analizado, 522 por encima y 1533 por debajo equivalente a un 62.5%, un 9.5% y un 28.0% respectivamente. Se puede observar que en general el escenario 3 presenta más altas temperaturas que el escenario 0 y mayores variaciones durante el año. El escenario 0 se encuentra 225 horas más que el escenario 3 dentro de la zona de confort, equivalente a un 4.3%. Figura 5: Escenario 1 y Escenario 0 Figura 7: Escenario 3 y Escenario 0 Escenario 4 Como se puede observar en la Figura 8, El aula en el cuarto escenario de simulación, utilizando paneles de celulosa de 5 cm en cubierta y 5 cm en fachada, se encuentra 3.964 horas del año dentro de la zona de confort del periodo analizado, 7 por encima y 1504 por debajo equivalente a un 72.4%, un 0.1% y un 27.4% respectivamente. El escenario 4 presenta temperaturas más estables que el escenario 0, entre las 7:00 y las 17:00 horas, el escenario 4 tiene temperaturas más bajas en general y entre las 18:00 y las 21:00 horas cuando la temperatura exterior desciende, este escenario presenta temperaturas ligeramente más altas. Es decir que esta configuración tiene más entercia térmica que las demás. Figura 8: Escenario 4 y Escenario A continuación, en la Tabla 4, se presenta un resumen de los porcentajes de tiempo alcanzados dentro, por encima y por debajo de la zona de confort de los diferentes escenarios. El escenario con el menor desempeño es el 3 en el que el espesor del material aislante se reduce a la mitad permitiendo el paso del calor durante el día y aumentando el porcentaje de horas superiores a 27,7ºC. El escenario con el mejor desempeño es el 4 reduciendo casi a 0 el porcentaje de horas con posibilidad de calor, aumentando las horas dentro de la zona de confort y teniendo un descenso máximo de la temperatura a 18ºC que en esta zona climática puede ser mitigada reduciendo la abertura de ventanas y aumentando el nivel de arropamiento de las personas. Tabla 4: Porcentajes de tiempo dentro, por encima o por debajo de la zona de confort En la Figura 9 se expone un paralelo entre los escenarios evaluados, en este caso los diagramas de cajas y sesgos indican el comportamiento global de los escenarios y no se discriminan por horas. Se puede observar que el escenario 4 es el que logra un ambiente térmico más estable, oscilando entre los 18 y los 28ºC, mientras que en el exterior pueden presentarse temperaturas entre los 14 y los 32ºC. Figura 9: Paralelo de la temperatura operativa entre escenarios También se puede observar que es mucho mas efectivo aplicar un panel de 5cm de celulosa en cubierta y otro de 5 cm en fachada que aplicar uno solo de 10cm en cubierta. Por otro lado, sustituir el material aplicado actualmente (poliestireno expandido) por el mismo espesor de celulosa presenta un desempeño térmico muy semejante con la diferencia de que este segundo tiene un menor impacto ambiental y también tiene propiedades acústicas. 6. DISCUSIÓN Una vez conocida la influencia sobre el desempeño térmico que tiene la aplicación de la celulosa en la envolvente del aula y concluyendo que esta puede fácilmente igualar o mejorar el desempeño del material actual que es poliestireno expandido, se propone realizar un paralelo entre los materiales desde el punto de vista del impacto ambiental. Para esto, se construyó un indicador de huella de carbono considerando el impacto ambiental generado por el material antes, durante y después de la vida útil de la edificación. Se tomaron 5 grandes ítems: 1. Las materias primas, 2. El transporte, 3. El montaje en obra, 4. El uso y mantenimiento y 5. El ciclo de vida. Posteriormente, se identificaron aspectos positivos y negativos en cada uno de esos procesos, para a través de un sistema cualitativo comparar los dos materiales. Rangos Temp Temp Bul. Sec Escenario 0 Escenario 1 Escenario 2 Escenario 3 Escenario 4 > 27,7 ºC 11,9% 5,0% 6,1% 4,2% 9,5% 0,1% 22,7 - 27,7ºC 47,1% 66,7% 65,7% 67,8% 62,5% 72,4% < 22,7ºC 41,1% 28,2% 28,2% 28,0% 28,0% 27,5% Figura 10: Puesta en paralelo del impacto ambiental de la celulosa y el poliestireno expandido Como se puede ver en la Figura 10 la celulosa tiene 5 aspectos positivos mientras que el poliestireno expandido solo tiene 3. La mayor diferencia es que la materia prima para fabricar la celulosa no es un derivado del petróleo y puede ser generada con los residuos de maquetas, planos, libretas, entre otros instrumentos utilizados y descartados cada año en la facultad de artes integradas a la que pertenece el aula analizada en la presente investigación. 7. CONCLUSIONES - Con los resultados expuestos en la presente investigación, observamos que el desempeño térmico de la celulosa aplicada como aislante en la cubierta del aula, puede alcanzar el mismo desempeño del material actual, poliestireno expandido, destacando que el primero tendría un impacto medio ambiental negativo menor, debido al proceso de reciclaje para la obtención de la materia prima y por la fabricación en sitio. A su vez, el proceso productivo podría convertirse en un elemento pedagógico importante dentro de la institución universitaria, incitando a toda la comunidad educativa a ser consciente de la forma en que se disponen los residuos de papel y cartón para su posterior clasificación. Adicionalmente, se generaría un beneficio social, produciendo un material de construcción asequible económicamente y renovable, el cual sería provechoso no solo para la universidad sino también para las comunidades cercanas y la población que posteriormente reciba el conocimiento adquirido por la población estudiantil que haya asimilado esta práctica para su quehacer profesional. - Metodológicamente, se concluye que las simulaciones a través del software Rhino, son una herramienta eficaz, que permitió realizar las predicciones necesarias, obteniendo unos resultados muy cercanos a la situación real. FUTURAS INVESTIGACONES - Teniendo en cuenta que la actual investigación es una primera aproximación al material, dado los resultados alentadores se podría continuar el proceso investigativo con estudios formales prácticos a través de ensayos de laboratorio, evaluación de resistencia del material y demás acciones que permitan confirmar los resultados teóricos a los que hemos llegado. Cabe decir que la mezcla estaba compuesta por materiales ya descritos. Sin embargo, el uso de otros materiales de desecho que pudieran ser reciclados y puedan mejorar las condiciones de la mezcla (maleabilidad, aglutinamiento, resistencia física, dureza, tenacidad, elasticidad etc.) aún no se han estudiado y podrían incluso mejorar en la práctica los resultados obtenidos. - También se propone analizar el desempeño del material desde el factor acústico. REFERENCIAS 1. y 2. MONTOYA Olga; VIEGAS Graciela. “Confort térmico en aulas escolares del trópico, a partir de la aplicación de estrategias de diseño bioclimáticas pasivas”. Avances en Energías Renovables y Medio Ambiente, Trabajo seleccionado de Actas ASADES 2019, vol. 23, pp. 01.55-01.65, 2019. ISSN 2314-1433 3. GUEVARA Gabriel; SORIANO Guillermo; MINO-RODRIGUEZ Isabel. “Thermal comfort in university classrooms: An experimental study in the tropics” Building and Environment, 2021, vol 187, 107430, ISSN 0360-1323 4. VIDAL Lluciá, T. [et al.]. Potencial de la celulosa en la construcción de nuevos materiales. A: "I Jornada de Recerca EGE-UPC 2019". OmniaScience, 2019, p. 147-155. 5. CUBA CÓRDOBA, Andrés; GARZÓN BERNAL, Laura Daniela. “Paneles tipo sándwich a base de celulosa reciclada para fachadas” Directora: Ana Gabriela Ramírez Cuastuza. Tesis de grado, Universidad La Gran Colombia, Bogotá, 2020. 6. INTROMAC, Instituto Tecnológico de Rocas Ornamentales y Materiales de Construcción. Guía para la selección de materiales de construcción sostenible. España, 2019. 7. BECTON, Plataforma online de apoyo a la especificación técnica. Aislante de celulosa [en línea]. Santiago de Chile [Ref de 12 de septiembre de 2018], Disponible en web: http://www.especificar.cl/fichas/aislante-de-celulosa. 8. MADURWAR, M. V., RALEGAONKAR, R. V., & MANDAVGANE, S. A. (2013). Application of agro-waste for sustainable construction materials: A review. Construction and Building Materials, 38, 872–878. [en línea]. Nagpur, India [ Ref de enero de 2013] Disponible en web: ttps://doi.org/10.1016/j.conbuildmat.2012.09.011 9. y 10. RODRÍGUEZ GÁLVEZ, Helena. Aislamientos Naturales II: La celulosa [en línea]. Alicante [ Ref de enero de 2017] Disponible en Web: http://www.mimbrea.com/aislamientos-naturales-ii-la-celulosa/ HYGROTHERMAL BEHAVIOUR OF VENTILATED WALLS IN TROPICAL CLIMATES: ON THE IMPACT OF WATER ENTRY FUNCTIONS IN WUFI Stéphanie Van Linden1, Nathan Van Den Bossche 2,* 1 Building Physics Group, Faculty of Engineering and Architecture, Ghent University, UGent Campus 2UFO, Technicum T4, Sint-Pietersnieuwstraat 41, 9000, Gent, Belgium Nathan.vandenbossche@ugent.be 1 ABSTRACT Tropical climates typically have high precipitation loads in combination with high relative humidities. When walls are subjected to wind driven rain loads, a part of the rain may infiltrate into the wall system and wet different layers and components. Depending on the indoor and outdoor climate and the hygric and thermal material properties of the materials in the wall, the infiltrated rainwater will dry out or accumulate over time. Increased moisture contents may lead to premature deterioration over time, and as well, may affect the heat flux through the building components. In this paper hygrothermal simulations are used to study the risk for premature degradation and the impact on the heat flux through the wall. For different wall types, specific water entry functions are used and implemented in the numerical simulation model. These water entry functions allow to quantify the percentage of wind driven rain that will infiltrate into different parts of the façade system as a function of the driving rain wind pressure difference over time. The analysis pointed out that typical infiltration rates found in ventilated walls can be managed well by typical wall configurations and entail low risks for moisture accumulation or mould growth. On the other hand, it was found that the water ingress may have a significant impact on the heat flux through wall configurations. Finally, the default calculation approach in ASHRAE 160 adopting a 1% infiltration rate significantly overestimates the impact of rain water ingress. KEY WORDS: Hygrothermal simulations, Cuba, WUFI, moisture, durability 1. INTRODUCTION Moisture is the most common cause of premature building deterioration with rainwater infiltration due to execution defects being the number one source of moisture in the building envelope [1–5]. Rainwater may infiltrate across the exterior cladding surface through intentional or unintentional openings. When the infiltrated rainwater is not managed properly or an excessive amount of water infiltrates due to execution defects, damage to underlying elements may be caused. To assess the risk of damage caused by infiltrating rainwater and to evaluate the long-term performance of wall assemblies, hygrothermal simulations may be carried out. These simulations can be conducted by 1D, 2D or 3D hygrothermal simulation software, for example WUFI [6,7] or DELPHIN [8]. To perform hygrothermal simulations, detailed knowledge on the response of wall assemblies to impinging and infiltrating rainwater is necessary [9,10]. When water that has infiltrated through the cladding is not managed properly, it may reach parts of the wall assembly where it can cause damage, e.g. to structural parts of the assembly, or reduce the insulating performance. To reduce the risk of damage, either sufficient drainage capacity should be provided and/or materials should be used able to resist wetting by the infiltrated water. To predict the drainage capacity and the resistance to wetting, drainage tests and hygrothermal simulations respectively, may be conducted. However, to be able to do these drainage tests and to perform hygrothermal simulations, detailed knowledge of the expected infiltration rates is required for various types of cladding [11–13]. Many field and laboratory studies have already been conducted with regard to water management and water infiltration through various cladding types, e.g. [14–16]. However, most studies are qualitative in nature, only focus on one or at most two types of cladding or do not provide quantitative information on the infiltration rates or infiltration percentages. Due to the lack of quantitative data for various types of cladding materials, ASHRAE Standard 160 “Criteria for Moisture-Control Design Analysis in Buildings” [17] proposes a default penetration rate of 1% of the rain impinging onto the cladding to be used as a moisture load in hygrothermal simulations. The proposed deposit site for the moisture load is the exterior surface of the weather-resistive barrier (WRB). This paper will provide an overview of experimental data on infiltration rates, and will assess the impact of typical infiltration rates by means of hygrothermal simulations for a ventilated wall. 2. METHODOLOGY Infiltration rates The previously mentioned water entry functions may be used as input for hygrothermal simulations. However, to obtain these water entry functions it is necessary to conduct laboratory tests at different spray rates and pressure levels. These kind of tests are not available for every type of cladding and façade detail and it is not always preferable to conduct new tests when a building is designed. ASHRAE Standard 160 [17] therefore, proposed a default infiltration rate of 1%. However, it can be assumed that infiltration percentages differ for different cladding types and that 1% is not always a reasonable assumption. To gain insight in the expected infiltration percentages for a cladding type during the design phase, without performing additional laboratory studies, a categorization of exterior cladding surfaces is developed. During the design phase, one can look up information either for the specific preferred cladding type, for similar cladding materials or for a category with similar characteristics, depending on the available information (Figure 1). Figure 1 provides an overview of the developed categorization. For each category an example of cladding is given and when available, percentages of water infiltrating past the exterior cladding found in literature are reported. The infiltration percentages are given for two pressure difference steps which are defined between brackets as well as the spray rate. Additionally, references are indicated which provide more information on the infiltration rates. (1) ETICS [18] (10) Fibre cement panels with open joints [26] (2) Stucco [19] (11) Natural stone panels with open joints [27] (3) Vinyl siding [20] (12) Façade details for different claddings [28] (4) Curtain walls [14] (13) Window-wall interface [29] (5), (6), (7) Mortared bricks [21,22, 23] (14) Façade details for vinyl siding [30] (8), (9), (6) Mortared concrete blocks [22, 24,25] (15) Linear joints [31] Future research should include watertightness tests for various cladding types to provide ranges of infiltration percentages that can be expected for each category, as well as the location to which the infiltration percentages should be applied. Ideally, a distribution of expected infiltration percentages should be provided for each category. A more detailed analysis and overview can be found in [32]. Figure 1: Categorization of exterior cladding surfaces and facade details based on water infiltration mode. Please refer to [32] for more details and references. Water entry functions To perform hygrothermal simulations including the full water management of the wall configuration, a moisture load should be defined representing the infiltrated water in a wall assembly. The previously reported studies showed that the infiltration rates and percentages are dependent on the applied spray rate and pressure difference over the wall assembly. Therefore in reality, the infiltration percentages will be dependent on the wind-driven rain (WDR) and driving rain wind pressure (DRWP). As the WDR and DRWP values vary over time and for different locations, it is essential to provide a water entry function as moisture load which includes the combined effect of WDR (or spray rate) and DRWP (or pressure difference). Sahal and Lacasse [30] established a water entry function based on infiltration rates in the stud cavity of hardboard siding-clad walls. They derived a linear function that relates the water entry rate Q (l/min) to the spray rate Rp (l/min.m2) for each static pressure difference ΔP (Pa): 𝑄 = 𝑚𝑝 ∗ 𝑅𝑝 (1) Where: Q is the water entry rate (l/min), Rp is the spray rate (l/min.m2) and mp is the water entry potential (l min-1/l min-1 m-2). The water entry potential mp is an empirical function and was derived for the ventilation duct of the hardboard siding-clad wall by fitting a third order polynomial curve to the data: 𝑚𝑝 = 3 ∗ 10 −11(∆𝑃)3 − 8 ∗ 10−7(∆𝑃)2 + 5 ∗ 10−5(∆𝑃) + 0,0123 (2) In contrast with what is presented by Sahal and Lacasse, the review [30] showed a non-linear relation between the water infiltration rate and the spray rate and a maximum infiltration rate for a certain spray rate. This is not represented in the relations given by Sahal and Lacasse. Moore et al. [33] also derived a water entry function to calculate the water entry for a given quantity of WDR and wind-induced pressure (P): 𝑊𝐸 = 𝑊𝐷𝑅 ∗ 𝑊𝐸% (3) Where WDR is wind-driven rain (l/h.m2), WE is water entry (l/h.m2) and WE% is the percentage of water entry for each cladding type (decimal form). The percentage of water entry for any given cladding type is given by a power function: 𝑊𝐸% = 𝑎 ∗ 𝑃𝑏 (4) Where a and b are fitting factors and P is the wind-induced pressure (Pa). The factors a and b are derived by fitting a power function to the results obtained from watertightness tests. The results are averaged for different spray rates. Hence, the specific impact of a varying spray rate or varying WDR is not given by these relations. Additionally, the power function relating the water entry percentage to the pressure implies that no water entry occurs at zero wind-induced pressure, whereas the reviewed studies showed that water entry may occur without any induced wind-pressure but only due to a hydrostatic pressure. Xiao et al. [34,35] provide a two-step approach to derive a water entry function. The first step consists in determining the coefficients α and β which represent the relative impact of the wind-driven rain (WDR) and driving rain wind pressure (DRWP). The WDRP Index (WDRPI) is defined to determine the combined effect of both WDR and DRWP: 𝑊𝐷𝑅𝑃 𝐼𝑛𝑑𝑒𝑥 = 𝑊𝐷𝑅𝛼 ∗ 𝐷𝑅𝑊𝑃𝛽 (5) Values for α and β were determined by correlating the WDRPI to measured infiltration rates through deficiencies in a vinyl-clad wall under dynamic pressure differences for different spray rates and pressure steps. The second step in the proposed approach consists of determining the water entry rate from the WDRPI and coefficients a and b by means of a power function: 𝑊𝐸 = 𝑎 ∗ 𝑊𝐷𝑅𝑃𝐼𝑏 (6) The coefficients a and b were determined by the least-square method and their respective values for the vinyl-clad wall assembly. Although a methodology to include the effect of both the spray rate and the pressure difference is provided by this approach, it also assumes no water infiltration without wind-induced pressure and does not take into account a maximum infiltration rate for a given water spray rate and pressure difference. The water entry functions provide a basis to implement water ingress in hygrothermal simulations. This is typically done by implementing a moisture source in numerical simulation models, and more specifically by adopting a fraction of the WDR as moisture load in one or more cells of the configuration. It should be noted that to the knowledge of the authors, no simulation models exist that explicitly account for the effect of drainage inside building components. However, when water is supplied by the source term to one or more gird cells in subsequent time steps, very often the supply exceeds the redistribution rate within the construction. That may cause a very quick increase in the moisture content of those cells, often well above the open porosity of the material which is physically not possible. Hence, these models have implicit or explicit cut-off values that prevent the moisture content to rise above a certain threshold value, and hence the moisture source is by default removed from the moisture balance in the model. By consequence, this effect can also be used by the modeler to implement the effect of drainage in a wall assembly, and in some cases it can even be advisable to split up materials layers and change for example the open porosity to accommodate implementing the source term in a realistic way. When implementing water ingress in hygrothermal simulations by means of water entry functions, it is important to consider how the simulation model implements this in the model. Whenever a source term is implemented in a hygrothermal model, it is key to evaluate what exactly happens in the model, to what extent moisture is in fact removed out of the equation as explained above, and to what extent drainage occurs in reality. Finally, it should be noted that these results are highly sensitive to the location, material, and number of grid cells in which the source term is implemented. Although the presented water entry functions do not take into account every aspect of the dependency of water infiltration on the pressure difference and water spray rate, they provide a valuable base for further improvement of the definition of water entry functions for different cladding types. Further quantitative research on the infiltration rates for different spray rates and pressure difference steps is, however, necessary to increase the accuracy of these functions and to define the relation between water infiltration, spray rate or wind-driven rain and pressure difference or driving rain wind pressure more precisely. Hygrothermal simulations Numerical simulation of the hygrothermal performance of building components is now quite well- established, with several commercial and research packages available. This allows for a quick assessment of the expected performance of a building component over time, for any given climate. One of the remaining difficulties though, is how to take into account the effects of accidental water leaks into the component, and more specifically, how much water can be expected. The 2 most important standards for hygrothermal simulations are quite vague on this: the European EN 15026 does not address the subject, whereas the American ASHRAE 160 postulates that 1 percent of the wind driven rain impinging on the exterior surface will penetrate through that surface if no measured data is available. The specific location where that infiltration is subsequently introduced, is the exterior surface of the water resistant barrier, or equivalent if no water resistant barrier is present. All hygrothermal simulations in this study are conducted with WUFI Pro 5.3. 3. CASE-STUDY Wall configuration For this study the focus was put on modern wall configurations such as ventilated façades. Ventilated façades consist of an interior load bearing wall, typically made out of concrete or brick, an insulation layer, and a ventilated cladding system. For most claddings a minimum cavity width of 30mm is recommended to accommodate adequate space for ventilation and associated drying capacity. The thickness of the insulation layer is varied to assess the impact, and the thickness of the load bearing wall is fixed to 15cm. For the insulation layer mineral fibre wool was selected. On the interior side a gypsum plaster of 1cm is adopted as interior finish. Climate In WUFI Pro 5.3 no climate data are available for Cuba. The closest location is Miami, Florida. The climate of Miami can be classified as a tropical monsoon climate with hot and humid summers, and winters that are short, warm, and dry. The whole region has a tropical climate according to the Köppen climate classification. For Miami the average yearly temperature is 24.5°C, the yearly rainfall rate amounts to 1453mm, and the average wind speed is 4.11 m/s. For all simulations the climate of Miami is adopted, but a typical cold year was selected: this implies an average temperature of 23.4°C, an average wind speed of 3.94m/s, and a cumulative rainfall of 2125mm, which is considerably higher than the average value. Furthermore the mean relative humidity adopted in the simulations is 72%. For the interior climate the standard approach in EN 15026 was used. This standard assumes that the indoor temperature is fixed to 20°C if the outdoor temperature is below 10°C (heating conditions), and during cooling the indoor temperature is set to 25°C (if outdoor temperature is above 20°C). If the outdoor temperature ranges between 10°C and 20°C, the indoor temperature is interpolated linearly between 20°C and 25°C. For Miami this entails that the indoor temperature is typically set to 25°C, and in a similar manner, the indoor relative humidity was calculated resulting in an RH of 70% during summer, and some minor setbacks to 60% throughout the rest of the year. Entry function – experimental Facades with open joints consist of independent panels of for example fibre-cement, natural stone, wood, etc. These panels are typically installed on a wooden, steel or aluminium framework which is fastened onto the load-bearing wall. When rainwater hits the exterior surface, most of the raindrops will splash onto the surface or bounce back. A small portion may be absorbed by the panels depending on the absorptivity of the materials, and a relatively large portion of rainwater may infiltrate through the open joints between the panels. Recatala et al. [36] observed that the infiltration rates through open joints between fibre-cement panels remained constant for increasing pressure differences. On average 49.7% of the sprayed water splashed back, 22.5% created a runoff-film along the exterior surface and 27.8% infiltrated through the open joints. In contrast, FVHF [37] reported that only 5.4% of sprayed water infiltrated through horizontal open joints of 8 mm, whereas 17% of sprayed water infiltrated through horizontal and vertical open joints of 8 mm. However, no details were reported on the test procedure, spraying system and subframe. Mas et al. [27] on the other hand, reported an infiltration percentage up to 45% of the spraying water for a joint of 8 mm and a panel thickness of 40 mm which is significantly larger than the infiltration percentages reported in other studies. Differences in the spraying system, i.e. spraying angle of the nozzles, spraying angle relative to vertical surface, distance to the panels and a larger spray rate may have caused differences in the infiltration percentage. The graph below shows the result of the experimental quantification of rain water ingress by Recatala et al. [36]. For the depicted façade configuration the water management was divided into the splashback (the water splashing back on the exterior side), the water runoff on the exterior, the water infiltrating to the cavity, and the water reaching the back side of the cavity. The splashback amounts to 49.73% of the total spray rate. The exterior runoff was measured for different rainfall intensities: green (1.1 L/m².min), blue (2.0 L/m².min), and red (2.9 L/m².min). The results indicate that the infiltration rates seem to be affected to some extent by the spray rate, but the order of magnitude remains the same. About 20% of the spray rate runs down on the exterior side, and almost 30% infiltrates into the cavity. More importantly, the amount of water reaching the back side of the cavity is about 0.5%. Given that all European standards adopt 2L/m².min, the infiltration rate of 0.44% was adopted in the simulations. Figure 2: water management of ventilated façades: experimental assessment (red: spray rate of 2.9 L/m².min, blue: spray rate of 2.0 L/m².min, green: spray rate of 1.1 L/m².min) The measurements only indicate that water reaches the back side. However, to assess the potential impact of the infiltration rate, it was assumed that the mineral wool was not installed adequately. When the panels are not aligned perfectly underneath each other, or when insulation plugs are inserted too deep, the water that reaches the insulation panel may be able to infiltrate into the mineral wool. In the simulations a percentage of the wind driven rain load is implemented in the mineral wool layer. The presence of water in the insulation may change the thermal conductivity, but as well, the infiltrated water will require additional energy to allow for evaporation. Entry function – ASHRAE 160 As elaborated above, according to ASHRAE 160 the default water entry function is equal to 1% of the wind driven rain load. 4. RESULTS The first parameter that is varied is the orientation. For 8 orientations the simulations are conducted with infiltration rates of 0% (no infiltration), 0.44% (experimentally determined), and 1% (ASHRAE 160). Given that the wind driven rain load is predominantly from the South-East (S-E) direction, this effect can also be found in figure 3 below. Without an infiltration rate the moisture content is only determined by the sorption isotherm, and the moisture content is in equilibrium with the relative humidity. The orientation has a small effect: for the E orientation the moisture content of 1m² of wall is up to 1.73kg, whereas walls with N to S-W orientation have a maximum moisture content of 1.68kg. Also for the heat flux there seems to be no strong impact of the orientation for the case without rain water ingress. For the heat flux the largest heat gains can be found for the W orientation, but again the effect is rather limited (about 1%). When a source term is introduced in the construction, the dominant WDR orientation does come to front. The moisture content shows a significant increase, i.e. reaching up to 2.47kg/m² as a maximum value, or 0.65kg higher for the S-E orientation compared to the N-W orientation. However, it should be noted that the water does dry out completely on a yearly basis. The is no accumulation of moisture over time because the drying rate supersedes the wetting rate due to infiltration. The impact of the rain ingress is reflected in the heat flux. For the S-E orientation the highest heat fluxes are to be found: the accumulated yearly heat flux on the S-E orientation is 11.56 MJ/m² for a water infiltration rate of 1%, whereas the corresponding heat flux without water ingress is only 8.03 MJ/m². The 1% infiltration hence leads to an increase of 43.9%, the 0.44% infiltration leads to an increase of 19.5% in the heat flux. This entails that the ingress of water into the construction has a significant impact on the heat flux, and thus on the cooling load of the building. Figure 3. Total moisture content and heat flux as a function of orientation and rain water infiltration (blue: 0% infiltration, orange: 0.44% of WDR as source term in the insulation as experimentally determined, grey: 1% of WDR as source term in accordance with ASHRAE 160). These simulations have been conducted with an insulation thickness of 14cm inside the wall. To assess the impact of the insulation thickness, the latter was varied between 0 cm and 20 cm in incremental steps of 2cm (see figure 4). Only the S-E orientation was used for comparison. Evidently, the heat flux is inversely proportional to the insulation thickness, as the thermal resistance is linearly proportional to the insulation thickness (neglecting the contribution of the other wall components), and the transmission is inversely proportional to the thermal resistance. In the graph below the orange line indicates the heat flux for dry conditions for the S-E orientation, whereas the blue line indicates the heat flux for the wall with a 0.44% rain ingress. The calculations assume that the ingress is not affected by the thickness of the insulation. The comparison between both indicates that the absolute difference remains the same, as the increase in heat flux is dominated by the latent heat transport, the energy required to evaporate the moisture. The total moisture content of the insulation layer remains limited for most simulations. Without water ingress the maximum moisture content of the insulation is 0.59kg/m³, whereas for the source term of 0.44% of the WDR it can add up to 2.11kg/m³. When the same source term is adopted for thinner insulation layers, the relative impact of the water on the thermal conductivity might be higher. When the same 0.44% moisture source is applied to an insulation layer of 2cm, the maximum moisture content of that layer goes up to 9.87kg/m³. Even though this entails a moisture mass density of 25% (the density of the insulation was set to 40kg/m³), the impact on the thermal conductivity remains negligible. When the moisture content of the insulation rises from 0kg/m³ to 20kg/m³, the thermal conductivity only rises from 0.031W/m²K to 0.032W/m²K. This again highlights the impact of the latent heat. Nevertheless, when the impact of rain water ingress is shown as a relative increase in heat flux compared to a dry situation, the effect comes more to the front for thinner insulation layers. For an insulation of 2 cm it is clear that the heat flux can increase by up to 25%. Figure 4. Heat flux and heat flux increase due to rain water ingress as a function of insulation thickness. 5. DISCUSSION AND CONCLUSIONS Walls are subjected to wind driven rain loads, and depending on the type of cladding system a part of the wind driven rain may infiltrate into different layers of the wall configuration. The rain water ingress may increase the moisture content of those layers, entailing an increased risk for premature degradation, but as well, an increase in heat flux. Hence, it is important to study how the water management of different walls functions, and how this might affect the performance. Furthermore, there is a lac of data on the quantification of the water management of different systems. This papers reports an overview of infiltration rates for various configurations. There data have been extracted from literature, or are based on experimental work at Ghent University. In a subsequent step these data can be used as input to conduct hygrothermal simulations by means of commercial software packages like WUFI or Delphin. Typically a percentage of the wind driven rain is adopted as source term in the wall configuration. For this paper the ventilated façade was selected as relevant case, and experimental work by Recatala et al. provided input for the model. This allowed to compare the situation without water ingress, the realistic water ingress as determined in lab conditions (in this case 0.44% was selected), and the default infiltration rate as described by ASHRAE 160P (1% of the wind driven rain). The simulations are conducted for the climate of Miami, which is classified as a tropical climate according to the Köppen classification system. The simulations showed that the moisture content of the wall in general, and the insulation layer in particular, varied as a function of the orientation. Evidently, the orientation with the highest wind driven rain loads entailed the highest moisture contents over time. The peak moisture content of the insulation increased from 0.59kg/m³ to 4.33kg/m³ for the S-E orientation due to an infiltration rate of 1%. Simulating the wall for a longer period of time shows that there is a quick equilibrium, and the wall does dry out on a yearly basis (i.e. there is no systematic accumulation of moisture over time). The main reason for this is the high air change rate typically found in ventilated façades. When an infiltration rate of 1% is adopted for the S-E orientation, the moisture source is about 5.5kg on a yearly basis. The simulations show that 3.85kg dissipates by means of the air change rate of the cavity, which was set to 50 ACH here. In this type of wall configuration the drying to the inside (which would entail an increased risk for moisture problems on the inside) is very limited. If the ventilation rate is reduced, the hygrothermal behaviour will become very sensitive to the vapour tightness of the exterior finishing. Assessment of the mould growth risk on the interior side shows that the combination of typical temperatures and relative humidities does not exceed the threshold for mould growth, as defined by the lowest isoplete models. So in general the insulated walls do not entail any risks in that regard, provided that the adopted indoor climate conditions in the simulations are also reached in reality (typically 25°C and 70% relative humidity). However, the infiltration rates to have a significant effect on the average heat fluxes through the wall, and may affect the cooling load. A rain water infiltration of 0.44% may lead to an increase in heat flux of 19.5% for the S-E orientation, and an infiltration of 1% may even lead to an increase of 43.9%. Furthermore, the absolute effect is not sensitive to the insulation thickness, which means that for smaller insulation levels the relative impact increases significantly. For an insulation layer of 2cm, a water ingress of 0.44% may increase the heat flux by 25%. The impact of these increased heat fluxes is limited to the wall with high wind driven rain loads, and evidently the heat flux through walls is only a part of the overall heat flux in a building (floors, roofs, windows, thermal bridges…). Hence, the overall impact on a building will be significantly reduced. On the other hand, the impact of moisture ingress is typically neglected as long as there are no visual signs of moisture problems. If there are no stains or there is no mould growth, the effect of water management will typically be disregarded in the building industry. REFERENCES [1] V.P. de Freitas, A state-of-the-art report on building pathology, CIB-W086 Building Pathology, 2013. [2] Observatoire de la qualité de la construction Edition 2021, (2021). [3] M.J. Carretero-Ayuso, A. Moreno-Cansado, J. de Brito, General Survey of Construction-Related Complaints in Recent Buildings in Spain, Int J Civ Eng. 16 (2018) 1781–1796. https://doi.org/10.1007/s40999-017-0259-7. [4] J. De Vos, A. Blommaert, N. Van Den Bossche, Statistical Analysis on Belgian Building Defects, in: XV International Conference on Durability of Building Materials and Components (DBMC 2020), CIMNE, Barcelona, Spain, 2020. https://doi.org/10.23967/dbmc.2020.130. [5] B. Blocken, J. Carmeliet, A review of wind-driven rain research in building science, Journal of Wind Engineering and Industrial Aerodynamics. 92 (2004) 1079–1130. https://doi.org/10.1016/j.jweia.2004.06.003. [6] D. Zirkelbach, Th. Schmidt, M. Kehrer, H.M. Künzel, WUFI-Pro-5_Manual, (n.d.). [7] H. Künzel, Simultaneous Heat and Moisture Transport in Building Components: One-and two- dimensional calculation, Fraunhofer Institute of Building Physics, 1995. [8] J. Grunewald, Diffusiver und konvektiver Stoff- und Energietransport in kapillarporösen Baustoffen, Doctoral Thesis, Technischen Universität Dresden, 1997. [9] H.M. Künzel, Accounting for unintended moisture sources in hygrothermal building analysis, in: NSB 2014 Building Physics Conference, 2014: p. 7. [10] H.M. Künzel, D. Zirkelbach, A. Karagiozis, A. Holm, K. Sedlbauer, Simulating Water Leaks in External Walls to Check the Moisture Tolerance of Building Assemblies in Different Climates, in: 11DBMC International Conference on Durability of Building Materials and Components, Istanbul, Turkey, 2008: p. 8. [11] G.D. Meersman, N. Van Den Bossche, A. Janssens, HAM simulation of the drying out capacity of water ingress in wooden constructions, in: Nordic Symposium on Building Physics, 2014: p. 8. [12] P. Beaulieu, M. Bomberg, S. Cornick, A. Dalgliesh, G. Desmarais, R. Djebbar, K. Kumaran, M. Lacasse, J. Lackey, W. Maref, P. Mukhopadhyaya, M. Nofal, in Norm, N. N., O. M., Q. T., R. D., S. M., S. N., M., Final Report from Task 8 of MEWS Project (T8-03) - Hygrothermal Response of Exterior Wall Systems to Climate Loading: Methodology and Interpretation of Results for Stucco, EIFS, Masonry and Siding Clad Wood-Frame Walls, National Research Council of Canada, Canada, 2002. [13] K. Calle, C. Coupillie, A. Janssens, N. Van Den Bossche, Implementation of rainwater infiltration measurements in hygrothermal modelling of non-insulated brick cavity walls, Journal of Building Physics. 43 (2020) 477–502. https://doi.org/10.1177/1744259119883909. [14] N. Van Den Bossche, S. Van Goethem, S. Scharlaken, S. Sulmon, A. Janssens, Watertightness and water management of curtain walls, in: Proceedings of the 1st International Symposium on Building Pathology, 2015: p. 8. [15] I. Samuelson, K. Mjörnell, A. Jansson, Moisture damage in rendered, undrained, well insulated stud walls, 8th Nordic Symposium on Building Physics. (2008) 8. [16] T. Kvande, N. Bakken, E. Bergheim, J. Thue, Durability of ETICS with Rendering in Norway— Experimental and Field Investigations, Buildings. 8 (2018) 93. https://doi.org/10.3390/buildings8070093. [17] ASHRAE 160-Criteria for Moisture-Control Design Analysis in Buildings, (2016). [18] J.M. Ullet, W.C. Brown, Measured Pressure Equalized Performance of an Exterior Insulation Finish System (EIFS) Specimen, National Research Council Canada, Ottawa, Canada, 1996. [19] H. Saber, M. Lacasse, T. Moore, M. Nicholls, Mid-rise wood constructions: investigation of water penetration through cladding and deficiencies, National Research Council of Canada, Canada, 2014. https://doi.org/10.4224/21274581. [20] C.R. Boardman, S.V. Glass, Investigating Wind-Driven Rain Intrusion in Walls with the CARWASh, ASHRE 2013, Thermal Performance of the Exterior Envelopes of Whole Buildings XII International Conference. (2013) 11. [21] D. Chiovitti, M. Gonçalves, A. Renzullo, Performance Evaluation of Water Repellents for Above Grade Masonry, Journal of Thermal Envelope and Building Science. 22 (1998) 156–168. https://doi.org/10.1177/109719639802200208. [22] R.H. Brown, Initial effects of clear coatings on water permeance of masonry, ASTM International. (1982) 16. [23] K. Calle, Renovatie van historische gevels: redding of doodsteek?, Doctoral Thesis, Ghent University, 2020. [24] H. Hens, S. Roels, W. Desadeleer, Rain leakage through veneer walls, built with concrete blocks, in: CIB W40 Meeting, Glasgow, United Kingdom, 2004: p. 10. [25] A.J. Rathbone, Rain and air penetration performance of concrete blockwork, 1982. [26] M. Arce Recatalá, S.G. Morales, Quantifying Wind-driven Rain Intrusion – A Comparative Study on The Water Management Features of Different Types of Rear-Ventilated Facade Systems, in: NSB 2020 Building Physics Conference, 2020: p. 7. [27] Á. Mas, J. Gutiérrez, E. Gil, A. Gil, V. Galvañ, Design and construction recommendations to improve impermeability in rainscreen walls built with natural stone coverings, Construction and Building Materials. 25 (2011) 1753–1761. https://doi.org/10.1016/j.conbuildmat.2010.11.091. [28] M.A. Lacasse, T.J. O’Connor, S. Nunes, P. Beaulieu, Report from Task 6 of MEWS Project - Experimental Assessment of Water Penetration and Entry into Wood-Frame Wall Specimens - Final Report, National Research Council of Canada, Canada, 2003. [29] M.A. Lacasse, M. Manning, M. Rousseau, S.M. Cornick, S. Plescia, M. Nicholls, S. Nunes, Results on Assessing the Effectiveness of Wall-Window Interface Details to Manage Rainwater, in: 11th Canadian Conference on Building Science and Technology, Banff, Alberta, 2007: p. 15. [30] N. Sahal, M.A. Lacasse, Water entry function of a hardboard siding-clad wood stud wall, Building and Environment. 40 (2005) 1479–1491. https://doi.org/10.1016/j.buildenv.2004.11.019. [31] M.A. Lacasse, H. Miyauchi, J. Hiemstra, A.T. Wolf, S.W. Dean, Water Penetration of Cladding Components—Results from Laboratory Tests on Simulated Sealed Vertical and Horizontal Joints of Wall Cladding, J. ASTM Int. 6 (2009) 102048. https://doi.org/10.1520/JAI102048. [32] S. Van Linden, N. Van Den Bossche, Review of rainwater infiltration rates in wall assemblies. Building and Environment 219. https://doi.org/10.1016/j.buildenv.2022.109213 [33] T.V. Moore, M.A. Lacasse, Determining Moisture Source due to Wind Driven Rain for Input to Hygrothermal Simulations Using Experimental Methods, in: Thermal Performance of the Exterior Envelopes of Whole Buildings XIV International Conference, Florida, 2019: p. 11. [34] Z. Xiao, E. Dragomirescu, M. Lacasse, Assessing Moisture Resilience of Wall Assemblies to Wind- Driven Rain Loads Arising from Climate Change, Doctoral Thesis, University of Ottawa, 2021. [35] Z. Xiao, M.A. Lacasse, E. Dragomirescu, An analysis of historical wind-driven rain loads for selected Canadian cities, Journal of Wind Engineering and Industrial Aerodynamics. 213 (2021) 104611. https://doi.org/10.1016/j.jweia.2021.104611. [36] M.A. Recatala, S.G. Morales, N. Van Den Bossche, Experimental assessment of rainwater management of a ventilated façade, Journal of Building Physics. 42 (2018) 38–67. https://doi.org/10.1177/1744259117719077. [37] Properties of rear-ventilated facades, (2015). https://www.fvhf.de/facade/VHF- System/Merkmale.php (accessed October 29, 2021). About the authors Dr. Stéphanie Van Linden and Prof. Nathan Van Den Bossche are engaged in research on building physics at Ghent University in Belgium. More in particular, the research group focusses on the hygrothermal performance of building envelopes, climate change, and water management of wall configurations. BIO AISLACIÓN TERMO-ACÚSTICA DE LANA DE OVEJA DE DESCARTE Y SU CONTRIBUCIÓN A LOS OBJETIVOS DE DESARROLLO SOSTENIBLE Alejandra Nuñez Berté, , John Martin Evans, Luis, , Luis Fernandez Luco FADU, UBA, SAU anunezberte@gmail.com 1 RESUMEN El sector de la construcción y los edificios, tienen un rol fundamental en la reducción de las emisiones de GEI, pues representan una mayor demanda energética que la industria y el transporte. Su impacto en el cambio climático requiere soluciones que impulsan la búsqueda de nuevos materiales y sistemas constructivos, alineados con la economía circular y la sustentabilidad. Además de reducir la huella de carbono de la construcción, se puede evaluar el uso de materiales de sumideros de carbono en el largo plazo como la madera o la lana de oveja, para convertir los edificios en reservas de carbono. Si bien la Patagonia Argentina tiene tradición de cría de ovejas productoras de lana, en la Provincia de Buenos Aires la lana de las ovejas de razas cárnicas carece de valor textil y es un problema para los pequeños productores, quienes deben enterrarla, quemarla o darla en parte de pago por la esquila. Este descarte es utilizado para la producción de mantos aislantes termo acústicos. La transformación de un residuo en materia prima implica la ampliación de la cadena de valor con un beneficio socio económico en apoyo de la potencial reactivación de economías regionales. La comparativa con aislaciones convencionales alternativas permite evaluar las diferencias, ventajas y su comportamiento, al ser aplicada en muros y techos, cumpliendo normas de acondicionamiento térmico vigentes, y evaluar su potencial impacto. Se analiza la contribución de producción y uso del material como respuesta a los compromisos asumidos por los Estados miembros de la Naciones Unidas para la Agenda 2030 y los 17 Objetivos de Desarrollo Sostenible, ODS por su aporte ambiental, social y económico. PALABRAS CLAVES: Objetivos de desarrollo sostenible, lana de oveja, aislación termo acústica, bio materiales, materiales inteligentes en carbono. DISCARDED SHEEP WOOL AS THERMO-ACUSTIC BIO-INSULATION AND ITS CONTRIBUTION TO THE SUSTAINABLE DEVELOPMENT GOALS ABSTRACT Climate change and national commitments to reduce emissions in 2030 drive the research into new construction systems and materials based on circular economy concepts. Also, considering the carbon footprint for the complete life cycle, some materials are classified as carbon smart materials. In this context, discarded sheep wool used for thermal and acoustic blanket insulation is a solution that responds to this tendency. In the other hand, in Argentina, specifically in Buenos Aires Provence, rough and coarse wool from sheep breed for meat has no textile value, a problem for small farmers who have to bury, burn or exchange it in part payment for shearing. Transforming this waste into a useful raw material would achieve added value, with a socio-economic benefit to support the potential reactivation of regional economies. The comparison with conventional insulation allows evaluation of differences and advantages of their performance when incorporated in walls and roofs, to comply with current thermal standards in the region. The production and use of sheep wool insulation blankets is analyzed as a socio-economic response to the 2015 United Nations Sustainable Development Goals. KEY WORDS: Sustainable development goals, sheep wool, thermo-acoustic insulation, biomaterial, carbon-smart material 1. INTRODUCCIÓN Las propiedades aislantes de la lana de oveja son conocidas desde tiempos ancestrales, no solo aplicadas a la vestimenta, sino también en el acondicionamiento del hábitat humano, desde las yurkas en Mongolia hechas con fieltro [1], hasta su utilización en las viviendas industrializadas de la Patagonia Argentina de los inmigrantes provenientes de Inglaterra de principios del siglo XIX, construcciones de madera y chapa que rellenaban con papel de diario y lana de oveja para mejorar la aislación de la envolvente, según la arquitecta Silvia Mirelman [2] Existen varias marcas que comercializan aislaciones de lana de oveja en USA y Europa. Es una bio aislación renovable, sustentable, y natural. Durable, reusable y reciclable. Un material sano, que no irrita la piel ni los ojos, que se puede manipular sin equipamiento ni herramientas especiales. Tabla 1. Comparación del comportamiento de la lana de oveja y otros materiales aislantes [3] La tabla 1, basados en Parlato et al [3] presenta valores para comparar la performance y las características de la aislación de lana de oveja con las aislaciones convencionales: la lana de vidrio y la espuma de poliestireno (EPS). Si bien el valor de  y la Resistencia Térmica son similares para todas, la cantidad de energía embebida es notablemente menor en la lana de oveja . La lana de vidrio requiere 7,5 veces más energía y el poliestireno siendo la que menor cantidad de energía embebida presenta, la fibra de vidrio requiere 7,5 veces más energía y el poliestireo 27 veces más. Las fibras de lana son higroscópicas, esto les permite absorber más de un 33-34% (kg/kg) de su peso en seco [4] (Hegyi, 2019). Dicha característica le permite a la aislación trabajar como un sistema de regulación térmica que absorbe y des absorbe la humedad excedente, diferencial importante con las otras aislaciones convencionales. El exceso de humedad relativa es la principal causa de crecimiento de hongos, que tiene efectos adversos sobre los edificios y sobre la salud humana. La lana de oveja tiene la capacidad de absorber el exceso de humedad sin cambios significativos en su perfomance térmica, en tanto las aislaciones de fibra mineral se deterioran (Parlato et al, 2020) [3]. También es un antibactericida natural (Caven et al, 2018) [5] La lana es auto extinguible, tiene una alta presencia de nitrógeno en su composición y por este motivo no aporta a la propagación de la llama, según IWTO (International Wool Textil Organization [6] Es reciclable, reusable y puede ser compostado al final de su ciclo de vida, contribuyendo al la mitigación de cero desperdicio para los materiales de la construcción. También colabora con el secuestro de toxinas, porque su contenido de altas proteínas captura permanentemente los VOC s como el Formaldehido, Tolueno, Limoneno y Dodecane. Estos gases son emitidos por el amoblamiento y están presentes en diversos materiales de la construcción. Por este motivo se considera el aporte de la aislación de lana de oveja para mejorar la calidad de aire interior. (Mansour et al, 2016) [7]. Otra característica que solo presenta la lana de oveja con respecto a las otras aislaciones. Es considerado un Material Inteligente en Carbono “Carbon Smart Material¨ de acuerdo con International Wool Textile Organization (IWTO) [8], y con Carbon Smart Material Palette, [9]. Convertido en equivalentes de CO2 (CO2-e), 1 kilogramo de lana limpia equivale a 1.8 kilogramos de CO2-e almacenado, derivado del carbono de la pastura secuestrado dos años antes. Para el presente análisis se toman los textos introductorios de los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas (UN) [10] como así también, los comentarios destacados y las metas de cada Objetivo que corresponden a las incluidas en la resolución 70/1 de la Asamblea General titulada “Transformar nuestro mundo: la Agenda 2030 para el Desarrollo Sostenible”.[11] A partir de la revisión de las citadas fuentes, se seleccionan los Objetivos y las metas específicas en las que impacta la producción de los mantos de aislación termo acústica de lana de oveja de descarte, dentro del territorio de la Provincia de Buenos Aires, República Argentina. 2. ODS 2. HAMBRE CERO Comentarios destacados “El sector de la agricultura es el mayor empleador del mundo y proporciona medios de vida al 40% de la población mundial actual. Es la mayor fuente de ingresos y empleos para los hogares rurales pobres.” “500 millones de pequeñas granjas en todo el mundo, la mayoría aún con producción de secano, proporcionan hasta el 80 por ciento de los alimentos que se consumen en gran parte del mundo en desarrollo. Invertir en pequeños agricultores hombres y mujeres es una forma importante de aumentar la seguridad alimentaria y la nutrición para los más pobres, así como la producción de alimentos para los mercados locales y mundiales”. [10] Meta 2.3 “De aquí a 2030, duplicar la productividad agrícola y los ingresos de los productores de alimentos en pequeña escala, en particular las mujeres, los pueblos indígenas, los agricultores familiares, los ganaderos y los pescadores, entre otras cosas mediante un acceso seguro y equitativo a las tierras, a otros recursos e insumos de producción y a los conocimientos, los servicios financieros, los mercados y las oportunidades para añadir valor y obtener empleos no agrícolas”.[10] De acuerdo al Plan Ganadero Ovino Provincia de Buenos Aires 2021-2023 [12], se destacan los siguientes datos: En Buenos Aires, el marcado descenso del stock ovino desde los años sesenta, fue desplazando la producción hasta quedar casi solamente para pequeñas majadas destinadas al autoconsumo. Una producción atomizada, según SENASA (Servicio Nacional de Sanidad y Calidad Agroalimentaria) al 2016 contabilizan 25111 Unidades Productivas, en el territorio de la Provincia. El 83,5% de las familias productoras poseen menos de 100 ovinos y 98% menos de 500. En su Son pequeños productores de agricultura familiar que no llegan a cubrir los gastos alimentación, vacunas y esquila de las ovejas. La producción de mantos termo acústicos es una oportunidad de agregar valor a la producción ovina primaria, promoviendo el aumento de la productividad ganadera y de los ingresos de los productores de alimentos de pequeña escala, como así también para generar nuevos puestos de trabajo no agrícolas por ejemplo esquiladores y acondicionadores (oficio de clasificación de lanas). Cabe destacar que las mujeres pueden ser capacitadas también en estas tareas de esquila y clasificación de las lanas, y su presencia en los talleres de capacitación va aumentando en las últimas ediciones. [13] Meta 2.4 “De aquí a 2030, asegurar la sostenibilidad de los sistemas de producción de alimentos y aplicar prácticas agrícolas resilientes que aumenten la productividad y la producción, contribuyan al mantenimiento de los ecosistemas, fortalezcan la capacidad de adaptación al cambio climático, los fenómenos meteorológicos extremos, las sequías, las inundaciones y otros desastres, y mejoren progresivamente la calidad de la tierra y el suelo.” [10] Según Ovis 21, [14] las prácticas de ganadería regenerativa, promueven el mejoramiento de suelos castigados por el monocultivo y los agroquímicos. Estos suelos van perdiendo su fertilidad que depende de la presencia y dinamismo entre la microbiología (vida), los minerales (nutrientes) y la materia orgánica (combustible). Con un sistema agro- ganadero productivo inteligente y holístico se comienza a devolver esos nutrientes. El proceso imita a la naturaleza, con el adecuado trabajo con los animales y el pastoreo. Meta 2.5 “De aquí a 2020, mantener la diversidad genética de las semillas, las plantas cultivadas y los animales de granja y domesticados y sus correspondientes especies silvestres, entre otras cosas mediante una buena gestión y diversificación de los bancos de semillas y plantas a nivel nacional, regional e internacional, y promover el acceso a los beneficios que se deriven de la utilización de los recursos genéticos y los conocimientos tradicionales conexos y su distribución justa y equitativa, según lo convenido internacionalmente.” [10] La agricultura regenerativa, según White. [15], es la base para la selección de las pasturas adecuadas para el mejoramiento del suelo como así también para la alimentación de los animales. La valorización de las lanas gruesas no aptas para la industria textil, promueve la diversidad genética del ganado ovino permitiendo que las razas carnícas ofrezcan una alternativa sostenible al productor, para quien hoy en día la lana esquilada representa un residuo y un problema del cual deshacerse. Ante la problemática de la lana gruesa sin valor comercial, los productores empiezan a considerar la cría de razas de ovejas sin pelo en detrimento de la variedad y bio diversidad de razas existentes en Argentina. [12] 3. ODS 7. ENERGIA ASEQUIBLE Y NO CONTAMINANTE Comentarios Destacados “La energía es el factor que contribuye principalmente al cambio climático y representa alrededor del 60% de todas las emisiones mundiales de gases de efecto invernadero.” [10] Meta 7.3 “Duplicar la tasa mundial de mejora de la eficiencia energética” [10] En Argentina, Según el informe del Profesor Salvador Gil, [16] “Los edificios son responsables de casi el 36% de consumo mundial de energía y de más del 30% de las emisiones de GEI. La experiencia internacional y local muestra que es posible disminuir su impacto ambiental, pensando integralmente su diseño y optimizando la eficiencia de los equipos que usamos en nuestros hogares. Mejorando los estándares constructivos, permitiría ahorros importantes en las facturas de energía y la reducción de las emisiones de GEI, a la par que se aumentarían las condiciones de confort de los usuarios. As í́, edificios sustentables no sólo contribuirían a mitigar el calentamiento global y a mejorar la calidad del hábitat, sino que también favorecerían la inclusión social y energética.” En cuanto al consumo residencial, de la Figura 1 se desprende que el 43% de la energía es consumida para acondicionar dichas viviendas, sumando calefacción y aire acondicionado. Por otra parte, diversas normativas nacionales, provinciales y municipales, reglamentan el acondicionamiento térmico de las nuevas construcciones, estableciendo entre otros requerimientos, alcanzar valores de transmitancia térmica según zonas bioclimáticas. Cabe destacar que la mampostería tradicional de ladrillos huecos de 8x18x25 cm, que representan un alto porcentaje del parque inmobiliario construido, es un material que según la Norma IRAM 11601 (2002) [17], tiene valor de Rt 0.23 m2⋅K/W que no alcanzan los requerimientos del nivel B de confort de la Norma IRAM 11605 [18] en 5 de las 6 zonas bioclimáticas del país. Por este motivo, el acondicionamiento de las construcciones existentes para alcanzar los valores, va a requerir incrementar la aislación de muros exteriores y techos, con la consecuente demanda de materiales aislantes para incorporar en soluciones constructivas interiores o exteriores. El uso de los mantos de aislación termo acústicos de lana de oveja, representa una oportunidad para colaborar con la mejora de la eficiencia energética, no solo por su uso en las envolventes constructivas, sino porque además comparada con las aislaciones térmicas convencionales como lana de vidrio o poliestireno expandido, su proceso de extracción (esquila) y fabricación, con maquinarias textiles de baja complejidad, consume menos energía que otras aislaciones, tal como se presenta en la Tabla 1, expresado en su bajo valor de energí 4. ODS 8. TRABAJO DECENTE Y CRECIMIENTO ECONOMICO Meta 8.3 “Promover políticas orientadas al desarrollo que apoyen las actividades productivas, la creación de puestos de trabajo decentes, el emprendimiento, la creatividad y la innovación, y fomentar la formalización y el crecimiento de las microempresas y las pequeñas y medianas empresas, incluso mediante el acceso a servicios financieros.” [10] La producción de mantos de aislación termo acústica con lana de oveja gruesa, promueve el desarrollo de actividades productivas de la cadena de valor de la lana, con creación de puestos de trabajo decentes: productores, esquiladores, acondicionadores y personal de la propia industria tanto en el proceso productivo, de comercialización y distribución. [12] La Ley Ovina [19], destinada a lograr la adecuación y modernización de los sistemas productivos ovinos que permita la sostenibilidad a través del tiempo y consecuentemente, permita mantener las fuentes de trabajo y la radicación rural. Dicha Ley, como reconocimiento del impacto potencial en el sector, otorgó un subsidio retornable en el año 2021, al proyecto AbrigA [20] es un claro ejemplo de políticas orientadas al desarrollo de actividades productivas, que permitió realizar muestras industriales y ensayos en el Instituto Nacional de Tecnología Industrial (INTI) para la mejora y perfeccionamiento de los mantos de aislación termo acústica de lana de oveja. Por otra parte, la difusión y aval de las instituciones gubernamentales a dicho proyecto, como UEP de Ley Ovina de la Provincia de Buenos Aires, el Instituto Nacional de Tecnología Agropecuaria (INTA), y diversas Universidades Nacionales, refuerzan el interés en promover un proyecto que apoya a los pequeños productores para reconocer el valor de la lana gruesa, y promueve la creación de puntos de acopio y cooperativas para establecer precios justos para la lana gruesa y desarrollar la economía regional. Sobre la base de la cantidad de Unidades Productivas de la Provincia, aproximadamente 25000 [12], como referencia se estima un promedio de 4 personas involucradas en cada UP, la potencial población beneficiaria seria de 100.000 personas aproximadamente, más los nuevos puestos de trabajo creados a partir de esta ampliación de la cadena de valor. 5. ODS 9. INNOVACIÓN E INFRAESTRUCTURA Comentarios destacados “En los países en desarrollo, apenas el 30% de la producción agrícola se somete a procesos industriales. En los países de altos ingresos, el 98% se procesa. Esto sugiere que hay grandes oportunidades para los países en desarrollo en materia de agronegocios.” [10] Meta 9.2 “Promover una industrialización inclusiva y sostenible y, de aquí a 2030, aumentar significativamente la contribución de la industria al empleo y al producto interno bruto, de acuerdo con las circunstancias nacionales, y duplicar esa contribución en los países menos adelantados” [10] Con un proceso de industrialización inclusiva y sostenible que abarca desde las prácticas de bienestar animal durante la cría y el proceso de esquila, pues en Argentina no se practica muesling, (practica de ablación muy utilizada en Australia y otros países, para evitar que la oveja contamine con sus heces y las moscas la lana) [21] y además se utiliza un técnica de esquila desmaniada (sin atar al animal), en el proceso de extracción de materia prima. El sistema PROLANA [22], Programa Nacional creado con el propósito de asistir al productor lanero de todo el país para el mejoramiento de la calidad de la lana, de su presentación y condiciones de venta. Dictan capacitaciones para esquiladores y acondicionadores y establece un programa de clasificación anual para los mismos, mejorando sus capacidades permanentemente, para que ofrezcan un sistema de esquila profesional y certificado que además incluye análisis para cada lote de lana para su correcta clasificación. Sobre la base de la cantidad de Unidades Productivas de la Provincia, tal como vimos en el punto anterior la, la potencial población beneficiaria seria de más de 100.000 personas. Y teniendo en cuenta que según el Informe Ovino [12] en el 2019 se produjeron 3.8 millones de kilos de lana gruesa por año, los cuales carecen de valor o llegan a ser pagados U$$ 0.42.- por kilo sucio, valor que no cubre el costo de la esquila. A partir de un proyecto innovador productivo que valorice estas lanas, las mismas se podrían vender al precio justo de U$S 1.-, superior incluso al sugerido por PROLANA [23] de U$S 0,72 a 0,48.- 30 y 32 micrones representando un potencial ingreso para la provincia de U$S 3.800.000.- anuales. Meta 9.4 “De aquí a 2030, modernizar la infraestructura y reconvertir las industrias para que sean sostenibles, utilizando los recursos con mayor eficacia y promoviendo la adopción de tecnologías y procesos industriales limpios y ambientalmente racionales, y logrando que todos los países tomen medidas de acuerdo con sus capacidades respectivas.” [10] Para el proceso de producción de los mantos aislantes de lana, la tecnología utilizada es adaptación y conversión de viejas maquinarias textiles en desuso, o el aprovechamiento de su capacidad ociosa, [22]. De acuerdo a los valores de la Tabla 1, la energía embebida de la aislación de lana de oveja es muy baja, y el proceso productivo podría ser convertido a energías renovables. El desperdicio del proceso productivo de mantos es el bajo carda, polvo y fibras muy cortas, apto para ser utilizado como mejorador de sustratos en jardinería [24]. Meta 9.b “Apoyar el desarrollo de tecnologías, la investigación y la innovación nacionales en los países en desarrollo, incluso garantizando un entorno normativo propicio a la diversificación industrial y la adición de valor a los productos básicos, entre otras cosas” [10] A partir de un residuo solido rural como la lana gruesa sin valor textil, subproducto de la industria ovina cárnica, la transformación de un desecho en materia prima a partir de la innovación, implica no solo la adición de valor a productos básicos sino también la diversificación industrial al conectar el sector ganadero con la construcción. Por otra parte, el proyecto AbrigA [22] es un claro ejemplo de transferencia de conocimiento, desarrollado a partir de la investigación y tema de tesis, que a partir de procesos de incubación como por ejemplo Emprende Conciencia organizado por el Ministerio de Desarrollo y la Fundación INVAP [25], comenzó su producción en el 2021 y empieza a ser comercializado en el 2022. 6. CIUDADES Y COMUNIDADES SOSTENIBLES Comentarios destacados “Las ciudades del mundo ocupan solo el 3% de la tierra, pero representan entre el 60% y el 80% del consumo de energía y el 75% de las emisiones de carbono.” [10] Considerando el consumo energético de las ciudades, no solo en su funcionamiento sino también en cuanto a la energía embebida en los materiales utilizados para la construcción una alternativa de mitigación es la selección de materiales “Carbon Smart Material” que puedan contener carbono capturado, como por ejemplo la madera y la lana de oveja, aportando a la idea de considerar los edificios como “bancos” de carbono, almacenamiento a largo plazo de carbono y evitando la producción carbono- intensiva de materiales de la construcción de base mineral como por ejemplo la lana de vidrio o de roca mineral . [23] Figura 2. Impacto de carbono de las aislaciones. Fuente: Materials Palette [26] Meta 11.a “Apoyar los vínculos económicos, sociales y ambientales positivos entre las zonas urbanas, periurbanas y rurales fortaleciendo la planificación del desarrollo nacional y regional” [10] Las aproximadamente 25.000 unidades productivas de pequeños agricultores, con majadas pequeñas, se encuentran atomizadas en el territorio de la Provincia de Buenos Aires [12]. Esto dificulta aún más la comercialización de la lana gruesa. Los puntos de acopio y sociedades rurales, se van creando para organizar a los productores, y las instituciones como Ley Ovina y su Unidad Ejecutora de la Provincia de Buenos Aires y PROLANA [20] impulsan estas asociaciones. La organización en cooperativas o clusters de los pequeños productores promueve la creación de vínculos económicos, sociales y ambientales entre zonas urbanas, periurbanas y rurales, impulsando el cuidado del ambiente, la salud, la economía y una comunidad más comprometida y promoviendo el arraigo rural. Figura 3 Figura 3. Mapa Provincia Buenos con puntos de acopio y Mesas Ovinas. Elaboración propia con datos del Plan Ganadero Ovino Provincia de Buenos Aires 2021-2023 [12] Meta 11.c “Proporcionar apoyo a los países menos adelantados, incluso mediante asistencia financiera y técnica, para que puedan construir edificios sostenibles y resilientes utilizando materiales locales”[10] La bio aislación de lana de oveja, ofrece una alternativa que aprovecha los recursos locales existentes en la misma Provincia de Buenos Aires, donde se encuentra la lana gruesa sin valor textil y donde se localiza la mayor concentración de habitantes del país. Según las proyecciones preliminares del Censo 2022, en la Ciudad Autónoma de Buenos Aires (CABA) se estima que viven 3.081.550 de personas [27], mientras que en la Provincia de Buenos Aires lo hacen 17.875.743 bonaerenses [28]. Un producto sostenible, reciclado, reciclable y renovable para la construcción y mejoramiento del hábitat, una alternativa a las aislaciones convencionales. El impacto de su aplicación masiva, por ejemplo en vivienda social, multiplicaría los beneficios en el ambiente, y sus aportes socio económicos. 7. ODS 12. PRODUCCIÓN Y CONSUMO RESPONSABLE Datos destacables “Los hogares consumen el 29% de la energía mundial y, en consecuencia, contribuyen al 21% de las emisiones de CO2 resultantes” [10] Meta 12.5 “De aquí a 2030, reducir considerablemente la generación de desechos mediante actividades de prevención, reducción, reciclado y reutilización.” [10] La producción de los mantos aislantes de lana de oveja, aporta a la reducción de energía tanto durante su proceso productivo, como durante su vida útil mejorando la eficiencia energética de la envolvente constructiva. El aporte potencial de la producción de los mantos aislantes, propiciaría la reducción de 3.800.000 kilos de lana gruesa sucia de la Provincia de Buenos Aires de residuo sólido rural, que actualmente son quemados o enterrados, o mal vendidos sin clasificar [12]. Cabe destacar que la lana sucia contiene un % de tierra, vegetales, grasa y basura que varia aproximadamente entre el 28 y el 45 % de su peso [29]. Por este motivo transportar lana sucia implica acarrear basura de un sitio al otro. Con proceso productivo innovador basado en los lineamientos de la economía circular [30], se transforma un residuo, subproducto o descarte de la industria ovina cárnica, en un material aislante termo acústico con larga vida útil, reutilizable, reciclable y compostable en su deposición final. De esta forma el aporte a la reducción de residuos es por partida doble en el inicio y en el final de su vida útil, característica única y distintiva con respecto a las aislaciones convencionales disponibles en el mercado como lana de vidrio, de reciclado de PET, de lana de roca mineral, o las derivadas del petróleo como EPS o Poliuretano, cuya deposición final es en vertederos. 8. ODS 15- VIDA DE ECOSISTEMAS TERRESTRES Datos destacables “2.600 millones de personas dependen directamente de la agricultura, pero el 52% de la tierra utilizada para la agricultura se ve moderada o severamente afectada por la degradación del suelo.” [10] Meta 15.a “Movilizar y aumentar significativamente los recursos financieros procedentes de todas las fuentes para conservar y utilizar de forma sostenible la biodiversidad y los ecosistemas.”[10] Según se analizó en el ODS 2 en el presente estudio, ante la tendencia de los productores de reemplazar por razas de ovejas sin lana para evitar el problema de la esquila, el desarrollo de una industria que utiliza este desecho como materia prima para producción de materiales de la construcción, aporta de forma sostenible la biodiversidad y los ecosistemas, promoviendo la cría de diversos tipos de razas de ovejas en distintas regiones, las mejores prácticas de agricultura y ganadería para el mejoramiento de suelos por incorporación de materia orgánica dentro del marco de una ganadería holística. 9. ODS 17. ALIANZAS PARA LOGRAR MEJORES OBJETIVOS Meta 17.11 “Aumentar significativamente las exportaciones de los países en desarrollo, en particular con miras a duplicar la participación de los países menos adelantados en las exportaciones mundiales de aquí a 2020.” A partir del análisis de la ubicación de plantas de producción, las aislaciones térmicas de lana de vidrio, de roca mineral y de PET son distribuidas desde Argentina a algunos países limítrofes como Uruguay, Paraguay y Bolivia. Esto implica el potencial mercado de exportación que tendrían los mantos de aislación termo acústicos de lana de oveja gruesa hacia esos mercados Meta 17.17 “Fomentar y promover la constitución de alianzas eficaces en las esferas pública, público-privada y de la sociedad civil, aprovechando la experiencia y las estrategias de obtención de recursos de las alianzas” El proyecto AbrigA [20], se basa en la constitución de alianzas eficaces en las esferas públicas (Mesa Ovina Nacional y Provinciales, Ministerio de Desarrollo, Ministerio de Producción, Universidad de Buenos Aires, Facultad de Arquitectura y Urbanismo, CIHE Centro de Investigación del Habitar y Energía, Universidad de Lomas de Zamora) y privados (Pequeños productores, Cooperativas y/o Clusters, Sociedad Rural Argentina, Federación Lanera). También conecta el Sector Agrícola-Ganadero con la industria de la Construcción. 10. CONCLUSIONES La producción de los mantos de aislación termoacústica de lana de oveja gruesa, subproducto de la industria ovina cárnica, impacta en las metas de 7 de los 17 ODS, con aportes que la distinguen claramente de las otras aislaciones convencionales. Si bien los valores comparados de Resistencia Térmica de los mantos de lana de oveja gruesa son similares comparados con la lana de vidrio y el Poliestireno Expandido hay propiedades que los distinguen: Baja energía embebida Capacidad de absorción de VOC´s y purificación del aire interior Reducción de residuos sólidos al inicio y al fin de su ciclo de vida Aporte a la biodiversidad y mejoramiento de suelos Impacto socio económico en la población de pequeños productores, promoviendo el arraigo rural y la economía regional Figura 4. Sustentabilidad e Impacto de la producción de mantos de aislación térmica de lana de oveja gruesa. Elaboración propia Su potencial impacto puede ser magnificado ante la posibilidad de aplicación masiva en vivienda de interés social dentro de la Provincia de Buenos Aires. Asimismo, presenta la opción de ser replicado en aquellas zonas donde se encuentre la problemática de la lana gruesa sin valor textil o con los subproductos de la industria lanera, como por ejemplo el blousee, fibras cortas que no son aptas para el hilado. RECONOCIMIENTOS El presente trabajo se inscribe en el marco de la tesis de la maestranda Arquitecta Alejandra Nuñez Berté, para la maestría de Sustentabilidad en Arquitectura y Urbanismo de los profesores Doctor Arquitecto John Martin Evans y la Doctora Arquitecta Silvia De Schiller, de la Facultad de Arquitectura, Diseño y Urbanismo (FADU), de la Universidad de Buenos Aires (UBA), titulada “Aportes de los mantos aislantes térmicos de lana gruesa a la eficiencia energética y la sustentabilidad de envolventes edilicias” con el Doctor Arquitecto John Martin Evans como director, y el Doctor Ingeniero Luis Fernandez Luco como co-director. Tesis en curso. 11. REFERENCIAS 1. KHOVALYG, D., CHATTERJEE, A., & VAN MARKEN LICHTENBELT, W. 2021. ¨Performance of traditional nomadic yurts for living in extremes". In The Arctic Science Summit Week 2021, [en línea] Portugal [consulta: 14 de setiembre 2022]. Disponible en : https://infoscience.epfl.ch/record/292672 2. MIRELMAN, Silvia. FERNANDEZ MALLO, J., (2005). Arquitectura pionera de la Patagonia Sur. Capítulos de la historia de Río Gallegos (1885- 1940. Río Gallegos, Santa Cruz, Argentina. Instituto Salesiano de Estudios Superiores. pp 91. ISBN 987202283-1-1. 3. PARLATO, M. C. M., PORTO, S. M. C. 2020. Organized framework of main possible applications of sheep wool fibers in building components. Sustainability , Special Issue “The exploration of Sustainability in Traditional Rural Buildings¨ [en línea] Madrid, 12(3). ISSN 2071-1050. [consulta: 10 de setiembre 2022]. Disponible en: https://www.mdpi.com/2071- 1050/12/3/761 4. HEGYI, A., DICO, C., & SZILAGYI, H., 2020. Sheep wool thermal insulating mattresses behaviour in the water vapours presence. Procedia Manufacturing. Elsevier B.V. , [en línea], 46, 410–417. . [consulta: 10 de setiembre 2022] ISSN 2351 – 9789 https://www.sciencedirect.com/science/article/pii/S2351978920309380 5. Caven, B., Redl, B., & Bechtold, T. (2019). An investigation into the possible antibacterial properties of wool fibers. Textile Research Journal, 89(4), 510–516. [consulta: 8 de setiembre 2022] https://doi.org/10.1177/0040517517750645 6. IWTO. Naturally Flame-Resistant. [en línea]. International Wool Textil Organization. Bélgica. [consulta: 2 de setiembre 2022]. Disponible en: https://iwto.org/wp- content/uploads/2020/04/IWTO_Wool-Fire.pdf 7. MANSOUR, E., CURLING, S., STEPHAN, A., & ORMONDROYD, G. 2016. Absorption of volatile organic compounds by different wool types. Green Materials [en línea] ICE Virtual Library 4(1), 1–23. [consulta: 10 de setiembre 2022]. Disponible en: https://doi.org/10.1680/JGRMA.15.00031 8. IWTO, SWAN, P.. Wool & the Carbon Cycle. [en línea] International Wool Textile Organization. Bélgica. [consulta: 10 de setiembre 2022]. Disponible en: https://iwto.org/wp- content/uploads/2020/04/IWTO_Wool-Carbon-Cycle.pdf 9. ARCHITECTURE 2030. (n.d.). Sheep’s wool – Carbon Smart Materials Palette [en línea] Architecture 2030. [consulta: 10 de setiembre 2022]. Disponible en: https://materialspalette.org/wool/ 10. NACIONES UNIDAS. Objetivos y metas de desarrollo sostenible - Desarrollo Sostenible. 2015. [en línea] Naciones Unidas. [consulta: 10 de setiembre 2022]. Disponible en: https://www.un.org/sustainabledevelopment/es/objetivos-de-desarrollo-sostenible/ 11. NACIONES UNIDAS. Transformar nuestro mundo: la Agenda 2030 para el Desarrollo Sostenible [en línea] | Department of Economic and Social Affairs. Naciones Unidas. [consulta: 2 de setiembre 2022]. Disponible en: https://sdgs.un.org/es/2030agenda 12. FAVERIO, I., Galán, N. Plan Ganadero Ovino Provincia de Buenos Aires 2021-2023. Ley Ovina Argentina 25.422. Coordinación Unidad Ejecutora Provincial (UEP) Buenos Aires. 13. MÁS RÍO NEGRO. Mujeres colaboraron para esquilar 400 ovejas en el Valle Medio, en un curso de capacitación [en línea] Más Río Negro. [consulta: 6 de setiembre 2022]. Disponible en: https://www.masrionegro.com/2019/09/30/mujeres-colaboraron-para-esquilar-400-ovejas-en- el-valle-medio-en-un-curso-de-capacitacion/ 14. OVIS 21. ¿Qué es Ganadería Regenerativa? [en línea] Ovis21. [consulta: 15 de setiembre 2022]. Disponible en: https://ovis21.com/que-es-ganaderia-regenerativa/ 15. WHITE, C. 2020 Why Regenerative Agriculture? American Journal of Economics and Sociology [en línea] 79(3), 799–812. [consulta: 15 de setiembre 2022]. Disponible en: https://onlinelibrary.wiley.com/doi/10.1111/ajes.12334 16. GIL, Salvador. 2021. Eficiencia Energética en el sector residencial . [en línea] Eficiencia Energética en Argentina. [consulta: 10 de julio 2022]. Disponible en: https://www.eficienciaenergetica.net.ar/novedades_detalle.php?id=80 17. IRAM. Norma IRAM 11601. 2002. Aislamiento térmico de edificios Métodos de cálculo Propiedades térmicas de los componentes y elementos de construcción en régimen estacionario. IRAM Instituto Argentino de Normalización. 18. IRAM. Norma IRAM 11605. 1996 Acondicionamiento térmico de edificios, condiciones de habitabilidad en edificios. Valores máximos de transmitancia térmica en cerramientos opacos. IRAM Instituto Argentino de Normalización. 19. MINISTERIO DE ECONOMÍA. SECRETARÍA DE AGRICULTURA, GANADERÍA Y PESCA. Ley Ovina, Ley 25422 para la Recuperación de la Ganadería Ovina. En: MAGyP [en línea]. [consulta: 12 de setiembre 2022]. Disponible en: https://www.magyp.gob.ar/sitio/areas/d_ovinos/leyovina/presentacion/ley_ovina/ 20. ABRIGA. Home. [en línea] En: AbrigA [consulta: 12 de setiembre 2022]. Disponible en: https://abriga.com.ar/ 21. FUHRMANN. Bienestar Animal - Libres de Mulesing - Lana Orgánica. [en línea] Fuhrmann. [consulta: 4 de setiembre 2022]. Disponible en: https://fuhrmann-argentina.com/es/bienestar- animal/ 22. MINISTERIO DE ECONOMÍA. SECRETARÍA DE AGRICULTURA, GANADERÍA Y PESCA. PROLANA Programa para el Mejoramiento de la Calidad de la Lana [en línea] MAGyP. [consulta: 4 de setiembre 2022]. Disponible en: https://www.magyp.gob.ar/sitio/areas/prolana/que_es/ 23. INTA INSTITUTO NACIONAL DE TECNOLOGÍA AGROPECUARIA. INTA:: SIPAS – Economia y Mercado - Lanas - Calculadora de precios | Sistema de Información Patagonia Sur. [en línea] INTA. [consulta: 4 de setiembre 2022]. Disponible en: https://sipas.inta.gob.ar/?q=EyM-calculadora-lanas 24. MISERENDINO, E., y ANTIMÁN COTUT, C.. Innovación: Utilización De Lana De Oveja Como Sustrato Para La Producción Hortícola. [en línea] INTA Estación Experimental Agroforestal Esquel. [consulta: 4 de setiembre 2022]. Disponible en: .https://inta.gob.ar/sites/default/files/inta_eeaf_esquel_innovacion_utilizacion_de_lana_de_oveja _como_sustrato_para_la_produccion_de_plantines_022018.pdf 25. EMPRENDE CONCIENCIA. Emprendimientos 2019 archivos. [en línea] Emprende ConCiencia. [consulta: 4 de setiembre 2022]. Disponible en: https://www.emprendeconciencia.org.ar/category/emprendimientos-2019/ 26. MATERIALS PALETTE. Sheep’s wool – Carbon Smart Materials Palette. [en línea] Materials Palette . [consulta: 4 de setiembre 2022]. Disponible en: https://materialspalette.org/wool/ 27. GOBIERNO DE LA CIUDAD AUTÓNOMA DE BUENOS AIRES. Proyección de población por sexo y edad simple. Ciudad de Buenos Aires. Año 2022 | Estadística y Censos. [en línea] Gobierno De La Ciudad Autónoma De Buenos Aires. [consulta: 4 de setiembre 2022]. Disponible en: https://www.estadisticaciudad.gob.ar/eyc/?p=85573 28. TOMAS M. S., BALBUENA, T.G., & BAMPI, J. 2016. Proyecciones de población por Municipio provincia de Buenos Aires 2010-2025. [en línea] Ministerio de Economía, Subsecretaría Económica, Dirección Provincial de Estadística. [consulta: 4 de setiembre 2022]. Disponible en: http://www.estadistica.ec.gba.gov.ar/dpe/images/Proyecciones_x_municipio__2010-2025.pdf 29. EQUIPO TÉCNICO DE PROLANA. 2018. Acondicionamiento De Lanas Diseño y revisión. [en línea] Ministerio de Agricultura, Ganadería y Pesca. [consulta: 7 de setiembre 2022]. Disponible en: https://www.magyp.gob.ar/sitio/areas/prolana/documentacion/manual-acondicionamiento- lanas.pdf 30. FUNDACIÓN ELLEN MACARTHUR. Economía Circular. [en línea]Fundación Ellen Macarthur [consulta: 14 de setiembre 2022]. Disponible en: https://archive.ellenmacarthurfoundation.org/es/economia-circular/concepto TECNOLOGÍAS APROPIADAS PARA LA CONSTRUCCIÓN DE INMUEBLES EN EL MUNICIPIO DE GUANABACOA Marietta Llanes Pérez1, Enrique Juan de Dios Fernández Figueroa2, Amanda Rodríguez Cabrera2 1Profesora Universidad Tecnológica de La Habana CUJAE, Calle 114 No. 11901 entre 119 y 127 Marianao. La Habana, Teléfono (53) 72663829, 2Profesor Universidad Tecnológica de La Habana CUJAE, Calle 114 No. 11901 entre 119 y 127 Marianao. La Habana, , 3Profesora Universidad Tecnológica de La Habana CUJAE, Calle 114 No. 11901 entre 119 y 127 Marianao. La Habana, Teléfono (53) 72663829 marietta@civil.cujae.edu.cu 1 , enriquefernandezfigueroa69@gmail.com 2 , arcabrera@nauta.cu. RESUMEN Las ciudades cubanas atesoran un valioso patrimonio que requiere la adopción de medidas urgentes para su conservación, que incluyen los procesos de rehabilitación urbana, no solo para la conservación de los edificios existentes, sino también para la construcción de obras nuevas, ya que gran parte de su atractivo reside en que éstas han conservado fragmentos casi intactos de su estructura urbana y sus edificios a lo largo de los siglos. En este trabajo se elabora un método de evaluación de soluciones constructivas con la utilización de materias primas y elementos constructivos, ya sean de producción local o de las desarrolladas en el país con un mínimo consumo de acero y cemento, para insertar en las zonas urbanizadas del municipio de Guanabacoa. Para su realización se analizaron otros métodos precedentes de evaluación de soluciones constructivas elaboradas por diferentes autores. El método propuesto está estructurado por tres elementos: variables, atributos e indicadores evaluadores. Se evaluaron las soluciones constructivas seleccionadas, arribando a conclusiones y recomendaciones que permitieron considerar las soluciones constructivas más apropiadas a insertar en las zonas urbanizadas del municipio. PALABRAS CLAVES: método de evaluación de sistemas constructivos, producción local, mínimo consumo de acero y cemento. APPROPRIATE TECHNOLOGIES FOR THE CONSTRUCTION OF IMMOVABLES IN THE MUNICIPALITY OF GUANABACOA ABSTRACT Cuban cities treasure a valuable heritage that requires the adoption of urgent measures for its conservation that include urban rehabilitation processes, not only for the conservation of existing buildings, but also for the construction of new works, since much of their attractiveness reside that these have preserved almost intact fragments from their structure and buildings over the centuries. In this work, a method of evaluation of constructive solutions is elaborated with the use of raw materials and constructive elements, whether local production or developed in the country with a minimum consumption of steel and cement, to be insert in the urbanized areas of Guanabacoa municipality. For its realization other methods of constructive solutions evaluation were analyzed, elaborated by different authors. The proposed method is structured by three elements: variables, attributes and evaluative indicators. The selected constructive solutions were evaluated, arriving to conclusions and recommendations that allowed considering the most appropiate constructive solutions to inserted into the urbanized areas of the municipality. KEY WORDS: method of evaluation of constructive solutions, local production, minimum consumption of steel and cement. 1. INTRODUCCIÓN El tema de los centros históricos cobra cada vez mayor relevancia en la formulación de las políticas urbanas dentro del quehacer arquitectónico e investigativo; se acrecienta constantemente el número de intervenciones destinadas a construir nuevas edificaciones y a conservar el patrimonio, observándose luego los beneficios sociales que trae consigo. Existen planes dirigidos al rescate de sectores de alto valor histórico, cultural y arquitectónico, situados en los centros históricos de las ciudades más antiguas del país. La estructura urbana del municipio Guanabacoa está definida por la existencia de un núcleo central, dentro del cual se encuentra incluido el centro histórico declarado Monumento Nacional, un conjunto de nuevos repartos adyacentes a la trama urbana tradicional. Este municipio posee un alto deterioro técnico-constructivo, urbano y arquitectónico que afecta su imagen, en gran parte de su área, destacándose la degradación de piezas urbanas de alto valor patrimonial, edificaciones en estado crítico, ciudadelas, la existencia de barrios insalubres por inmigración y apropiamiento ilegal de espacios; en paralelo con un importante déficit de viviendas, a consecuencia de un alto índice de derrumbes, como fase más crítica de este deterioro existente, y la inexistencia de un sistema de servicios básicos que respondan a las necesidades de la población. Este deterioro se manifiesta en las áreas más consolidadas de la urbanización y especialmente en su centro histórico, pero en la periferia y en asentamientos más pequeños, hay numerosos lotes vacíos que nunca han sido edificados [1]. Una de las actividades que se realizan dentro de este municipio es la rehabilitación integral urbana, planteando redensificar la ciudad desde dentro, lo que requiere el rescate de antiguos edificios con los mismos o distintos objetivos sociales y la inserción de nuevas edificaciones en los lotes disponibles dentro de esta trama urbana. [2]. A su vez este municipio posee un alto grado de producciones de materias primas y elementos de construcción a partir de la producción local de los mismos, resaltando el uso de la tierra y la arcilla como materiales de producción local. Todo lo cual demuestra o garantiza la posibilidad de desarrollar nuevos elementos constructivos que respondan a soluciones constructivas de pequeño formato y con uso de tecnologías productivas simples que hagan uso racional del acero y el cemento o lo que es lo mismo el menor uso posible de estos materiales. Una de las primeras ventajas de la construcción con tierra y arcilla es que hay una fácil y amplia disponibilidad, para construir y mantener las obras, ya que son materiales que siempre están a la mano. Lógicamente, no toda la tierra y la arcilla es utilizable para todos los sistemas constructivos, pero según la calidad se consagrará una forma propia de edificar en esa localidad. Ello conlleva el bajo costo del material y la posibilidad de buscar en las cercanías la tierra y la arcilla más adecuada para levantar muros, revocarlos o cubrir techos. Por esto, su uso reduce el empleo de divisas, lo que en países con pesada deuda externa como el nuestro es de tener en cuenta. A raíz de esta problemática se hace necesario evaluar las soluciones constructivas disponibles para valorar su utilización en dichas zonas. La evaluación de las soluciones constructivas debe ser sin duda un paso imprescindible para el desarrollo de la construcción, de ahí que los métodos evaluativos se deben desarrollar de acuerdo con las condiciones específicas de las construcciones, teniendo en cuenta aquellos factores técnico-constructivos, ambientales, y sociales que influyen determinantemente en la elección adecuada de la solución constructiva. Para realizar esta evaluación es necesario contar con una base de datos que registre aquellos aspectos que deben ser evaluados según los objetivos propuestos, tales como: los relacionados con el diseño arquitectónico, los relacionados con los técnico-constructivos, los presentes durante la explotación de la edificación que influyen directamente en el bienestar humano. Este trabajo a partir de su método de evaluación brindará un aporte que servirá de base y guía a todos los involucrados en el proceso de rehabilitación urbana dentro del municipio Guanabacoa. Además, este trabajo por su alcance se dirige a la construcción de edificaciones de distinto interés social en zonas centrales compactas dentro de dicho municipio. 2. MÉTODOS Y MATERIALES Intervención y rehabilitación urbana en centros históricos El centro histórico de Guanabacoa tiene un alto deterioro técnico-constructivo, urbano y arquitectónico, que afecta su imagen en gran parte del municipio. Con la existencia de un alto índice de derrumbes, como expresión extrema del deterioro de edificaciones que han tenido entre cincuenta y cien años de explotación, y no reciben en la actualidad un mantenimiento adecuado, derivándose la presencia de un gran número de albergados, mientras que otra parte, aún mayor, continúan viviendo en edificaciones que se encuentran en estado crítico, ciudadelas, en conjunto con la existencia de barrios insalubres a consecuencia de inmigrantes y apropiamiento ilegal de espacios, generando en ocasiones hacinamiento, que contrasta con las bajas densidades poblacionales predominantes en la mayor parte del territorio. La rehabilitación o la revitalización de centros históricos es un instrumento global para la recuperación integral de ámbitos urbanos, centrales, afectados por problemas habitacionales, con el objetivo de mejorar las condiciones de alojamiento de la población y otros aspectos de carácter urbanístico, social y económico, mediante la integración, la coordinación y el fomento de las distintas actuaciones que los agentes públicos y privados puedan desarrollar en dichos ámbitos urbanos. Recuperar la ciudad construida es un derecho de los ciudadanos, en especial el derecho a la vivienda, es decir el acceso de una vivienda digna y adecuada, situadas en ámbitos urbanos adecuados con las dotaciones de servicios, espacios verdes, plazas y equipamientos necesarios, conectados con la red de transporte público de las ciudades. Para conseguir detener el proceso degenerativo que concurren en los centros históricos y producir la rehabilitación urbana y social son necesarias la coordinación de acciones desde una perspectiva integral: físico, patrimonial, urbano, social, educativo, económico y la colaboración activa de la sociedad, con el objetivo final de mejorar las condiciones de habitabilidad de nuestras ciudades. [3]. En resumen, puede decirse que la rehabilitación integral, especialmente en centros históricos, debe tener en cuenta consideraciones urbanísticas, arquitectónicas y de conservación de los valores o patrimonios materiales e inmateriales heredados; pero debe además ofrecer soluciones adecuadas para problemas de carácter social, económico y asistencial de la población vulnerable; a partir de potenciar esos valores y el mejoramiento e incremento en los casos necesarios del equipamiento e infraestructuras urbanos. Desarrollo urbano sostenible o sostenibilidad urbana Se maneja el concepto de sostenibilidad urbana como la búsqueda del desarrollo de un medio urbano que no degrade el entorno y disminuya el impacto en el mismo, equilibrando las necesidades ambientales, sociales y ecológicas. El desafío de la sustentabilidad urbana no es detener la urbanización de la población sino la expansión desmesurada de las ciudades. Para eso, se han considerado cinco principios básicos de la planificación urbana: 1. Entender a los servicios urbanos como partes de un circuito integrado, que debemos optimizar, y no verlo como una simple sumatoria de infraestructura. 2. Alinear los incentivos económicos con los beneficios ambientales. Buscar promover la reutilización de espacios urbanos. 3. Comprender que la sustentabilidad es incluyente. Lograr que toda la población tenga acceso a servicios básicos, tales como la recolección de basura domiciliaria. 4. Incluir a la sociedad civil en la protección del medioambiente. 5. Fomentar el intercambio de conocimiento entre ciudades. En Cuba se promulga el respecto al medio ambiente y la necesidad de aplicación de principios, materiales y tecnologías en búsqueda de una mayor sostenibilidad general. El Presidente de la República de Cuba Miguel Díaz-Canel Bermúdez se ha pronunciado en varias ocasiones a favor del empleo de los potenciales endógenos de las localidades, lo que implicaría en muchos casos ahorro de energías en transportes y formas de producción, así como el reforzamiento social al generar empleos y economías que apoyen el desarrollo local. Empleo de materiales locales para la construcción El conocimiento de los recursos locales de cada municipalidad permite utilizar el potencial existente, específicamente para la construcción, porque contribuye a reducir el consumo de combustibles y tiempo de ejecución en obras en el momento de acercar las fuentes de materias primas minerales a los productores y consumidores; disminuir el consumo de cemento Portland; adaptar nuevas técnicas constructivas más económicas, como el uso de bóvedas y arcos, en aquellos territorios que cuentan con piedra de cantería y ladrillos; incrementar fuentes y puestos de trabajo; y coadyuvar al desarrollo y gobernabilidad sustentable del territorio, dado que el conocimiento y las posibilidades de usos de estos recursos minerales forma parte de su patrimonio. “El estado cubano se ha propuesto como línea estratégica, potenciar el desarrollo local y así dar respuestas a muchas de las necesidades de la comunidad, desarrollo que depende, entre otros factores, de la producción de materiales de construcción y del desarrollo de la construcción”. [4]. En Guanabacoa gracias a la explotación de los yacimientos de materia prima se producen cerámicas rojas, ladrillos, tubos y celosías; mientras que el reciclado permite la obtención de diferentes tipos de áridos como gravas, arenas, polvo de piedra, chapapote y rocas zeolitas [5]. Hoy en día existen en el municipio alrededor de 48 cuentapropistas que trabajan en la producción local de materiales para la construcción, entre lo que se destaca la producción de bloques y áridos, losas y balaustre, y una pequeña parte tienen una producción mixta, también se producen materiales plásticos, los cuales ofrecen una amplia gama de accesorios hidráulicos y sanitarios. Caracterización general de las zonas urbanas más consolidadas de Guanabacoa Guanabacoa se caracteriza por la presencia de un trazado de los tiempos de la Colonia, con manzanas muy irregulares, edificaciones coloniales de una y dos plantas, predominando estas últimas. Estas edificaciones tienen un alto grado de compacidad además de su elevada edad [6]. En varias de estas zonas aparecen lotes vacíos, con formas regulares e irregulares, con presencia o no de ángulos ortogonales. Aparecen calles, aceras y fachadas continuas en entrecalles, mientras que en avenidas principales se presentan calles, aceras, portales públicos y fachadas. La circulación peatonal es alta y suele circularse por las calles debido a lo estrecha que son las aceras que además no presentan parterre. Las calles son también estrechas, acentuándose más en la medida que la zona es más antigua y se ensancha en avenidas principales. El tendido eléctrico no es soterrado por lo que las aceras y en algunos casos las calles se ven afectadas por la presencia de postes eléctricos, los cuales sostienen los cables de electricidad a una altura aproximada de 7.00 metros. Existen zonas donde este trazado es muy irregular debido a que desde un mismo poste eléctrico cuelgan cables a distintas alturas, incluyendo los cables de las redes telefónicas. Otra de las características de esta zona es la presencia de muros medianeros en las edificaciones; los cuales están conformados por varios materiales, es decir, se pueden ver muros de mampuesto, de albañilería, de piedra y mezclados. El espesor de los muros oscila entre los 30 y 100 centímetro. Las cimentaciones tienen un ancho igual o mayor al muro comportándose como una prolongación del mismo y en algunos casos aparece cimentaciones aisladas. Los materiales empleados en estas cimentaciones pueden ser los mismos utilizados en la construcción de los muros o con una composición diferente; su profundidad varía entre los 60 y 100 centímetros. Requerimientos urbano-arquitectónicos y de las soluciones constructivas, específicos para el municipio de Guanabacoa Todos los aspectos antes mencionados permiten establecer los requerimientos urbano-arquitectónicos específicos de la zona, vinculados a atender la forma en que se asocian las edificaciones por medio de muros medianeros, los puntales y números de pisos que conforman el perfil de la zona, la existencia de portales y espacios en planta baja destinados a diferentes servicios, las dimensiones y formas de los lotes disponibles para insertar nuevas edificaciones, los diferentes elementos de fachada que contribuyen a lograr una expresión arquitectónica variada que respete el contexto, la estreches de las calles, la forma en que éstas se asocian a las fachadas y la alta circulación peatonal que se produce en estas zonas céntricas, como se muestra en la figura 1. Fig. 1 Perfil de la zona De igual manera se establecen entonces los requerimientos que debe tener las soluciones constructivas a utilizar, de manera que permitan realizar nuevas edificaciones que encajen con el tejido arquitectónico de la zona, que puedan adaptarse a las formas irregulares de los lotes en que se construirá, considerando que requiere la zona construcciones de uno o dos niveles y con luces que no superan los 6 metros de manera general, lo cual puede ser resuelto con elementos componentes de la construcción de pequeño y mediano formato que se puede construir y montar manualmente y que no requiere de grúa para su montaje. Estos sistemas deben tener en cuenta para sus cimentaciones la posible existencia de muros medianeros, no obstante, por el peso de sus elementos y luces a salvar son poco complejas y pueden ser resueltas principalmente con cimentaciones corridas. Un aspecto importante a considerar son los relacionados con los elementos artesanales y semiartesanales que responden a soluciones constructivas de pequeño y mediano formato y que hacen uso racional del acero y el cemento, teniendo en cuenta que son materiales de alto consumo energético y por tanto de alto impacto ambiental, y empleo de materiales locales, lo cual es una premisa para este trabajo, sobre todo por lo que representa en ahorro económico ya que la fuente de suministros estará más cercana a la obra y reduciría los gastos en cuanto a materiales a transportar y los vehículos requeridos para esto. En ese sentido las soluciones que empleen el suelo y la arcilla resultan más favorables. Se requiere de soluciones constructivas que permitan una rápida ejecución y un adecuado acabado con el empleo de mano de obra calificada que garantice la calidad. Mínimo consumo de acero y cemento en las nuevas inserciones en el municipio de Guanabacoa Este trabajo ha venido defendiendo el empleo de soluciones que contemplen un mínimo uso de cemento y acero en correspondencia con la tendencia mundial de los últimos años de lograr una arquitectura más sostenible y eficiente. En ese sentido se discursa en que las construcciones son responsables del 40% de las emisiones de CO2 del planeta y consumen también un 40% de la energía mundial. En este cálculo se incluye todo, desde el proceso de fabricación y transporte de los materiales hasta la demolición o el coste de reutilización de los edificios. En la actualidad existe una amplia variedad de materiales de construcción que responden a las exigencias de diferentes entornos, lo cual representa una gran ventaja para su selección adecuada. No obstante, algunos materiales de elevado uso en las construcciones representan altos consumidores de energía y contaminadores del medio ambiente en su proceso de extracción y producción [7]. En estos materiales, como el acero y cemento, el impacto ambiental está dado por factores de tipo: consumo energético, consumo de materiales y materias primas renovables o no, consumos de agua, emisiones atmosféricas fundamentalmente CO2 y polvo. Todos ellos provocan el agotamiento de la energía, de los recursos naturales, el calentamiento global, toxicidad humana, sellaje del suelo, cambios en el clima, entre otros. Para producir una tonelada de acero virgen se necesitan 1500 kg de ganga de hierro, 225 kg de piedra caliza y 750 kg de carbón en forma de coque, lo que ya representa un consumo energético en la extracción de estos materiales. Las reacciones químicas que se producen durante el proceso de fabricación del acero requieren temperaturas superiores a los 1000 ºC para poder eliminar las sustancias perjudiciales, bien en forma gaseosa o como escoria. Por cada tonelada de bloque de acero fabricado se generan 145 kg de escoria, 230 kg de escoria granulada, aproximadamente 150 000 litros de agua residual y alrededor de 2 toneladas de emisiones gaseosas, incluyendo CO2, óxidos sulfurosos y óxidos de nitrógeno, la mayoría de estas sustancias quedan expuesta hacia la atmósfera, contribuyendo estas emisiones al efecto invernadero. En su proceso de producción, este material produce grandes impactos ambientales, no solo por la gran cantidad de energía que consume y la alta emisión de CO2 al aire en su producción, sino además por la gran cantidad de polvo que genera [8]. Según dato de la asociación de aceros galvanizados del Reino Unido cada 90 segundos, en todo el mundo, una tonelada de acero es convertida en polvo, y de cada dos toneladas que se producen de acero una es para remplazar la tonelada perdida [7]. La producción de acero en el mundo no ha disminuido, por el contrario sigue en ascenso, según Worldsteel, asociación industrial más grande y dinámica del mundo con miembros en todos los principales países productores del acero, en el año 2021 se produjo 1165,3 millones de toneladas de acero bruto entre los 64 países que informan a Worldsteel, lo que representa una alza de 12.4% interanual [9]. El cemento es el mayor contribuidor al efecto invernadero por el gran por cierto de CO2 y de otros gases químicos en menor cuantía, que emite al aire, desprendiendo 0,5 t de CO2 de origen químico, que lo hace responsable del 7 % de toda esta emisión a la atmósfera, más de lo que producen todos los camiones del mundo con su combustión, y además desprende 0,4 t de CO2 por la quema de combustible en su producción por cada tonelada de este material. Según la Asociación Europea del Cemento (Cembureau), por cada tonelada de material se libera, como mínimo, media tonelada de CO2. La producción media anual de cemento es de 4 gigatonas, equivalentes a la producción mundial de alimentos. En hormigón, el cemento supone el 36% de los 7,7 Gt C02 liberados a la atmósfera por las actividades constructivas, muy por encima del acero (25%), los plásticos (8%), el aluminio (4%) y el ladrillo (1%) [10]. Según los argumentos planteados anteriormente el empleo de cemento y acero en las edificaciones implican un alto consumo energético, gasto de materias primas, equipamiento especializado y grandes emisiones de gases contaminantes a la atmósfera en su elaboración. Si se tiene en cuenta la transportación de dichos materiales a las obras implica un gasto aún mayor. Al comparar estos materiales con el empleo de otros de elaboración más simples (materiales de producción local), se logra menor impacto ambiental en la producción y en el ciclo de vida del mismo, lo que implicaría un gran ahorro energético, de costo de producción y sobre todo una menor contaminación ambiental. Establecimiento de variables a atender para la selección de soluciones constructivas Las variables, atributos e indicadores establecidos para la propuesta en este trabajo de evaluación de soluciones constructivas se sustentaron del análisis realizado de diferentes métodos de evaluación afines con el método propuesto [7]. El sistema de parámetros, atributos e indicadores evaluadores, se establecen con el fin de identificar las soluciones constructivas para viviendas u otros inmuebles de pequeña o mediana luz, más apropiadas para la zona de Guanabacoa. Los elementos conformadores del método, son los siguientes: Indicadores: Rango de valores cualitativo y/o cuantitativo en que se manifiesta el comportamiento de los atributos, según las normas y regulaciones de la vivienda y de las soluciones constructivas. Para cualificar el parámetro en aceptable, medianamente aceptable o no aceptable, se emplea una escala cuantitativa con los valores de 1, 0,5 y 0 respectivamente, asignados al indicador que describe el parámetro. Parámetros: Abarcan los elementos más generales del método, las características generales de este. Son los aspectos a evaluar que influyen en lo apropiado de la solución. En la propuesta se establecieron 10 parámetros descritos como: elementos artesanales y semiartesanales, consumo de materiales, empleo de materiales de producción local, uso de equipos de izaje, consumo de energía, mano de obra, peso de la edificación, flexibilidad dimensional, flexibilidad para adaptarse a la geometría del lote y tipología estructural. Atributos: Elementos que caracterizan a los parámetros, donde cada aspecto está descrito más específicamente. Es la forma en que los parámetros influyen en lo apropiado de la solución. Para el análisis de las soluciones constructivas se estableció como premisa que fueran sistemas conformado por elementos de mediano y pequeño formato, con materiales que se encuentran en la zona de estudio, es decir, en el municipio de Guanabacoa, y que fueran pocos consumidores de cementos y acero, que pudieran desarrollarse fundamentalmente a partir de los productores locales, incluso que los procesos constructivos fueran con tecnologías simples artesanales o semiartesanales. Se evaluaron en este trabajo, los siguientes elementos o sistemas verticales para muro: Bloque de arcilla perforada, Ladrillos modulares ecológicos, Ladrillo cocido de tierra, Ladrillo cara maciza de tierra, Ladrillo de cerámica, Bloque de tierra comprimida y estabilizada, Técnica tapial, Suelo – Cemento, Bloques machihembrados de suelo-cemento, Superadobe, Ladrillo de arena y cal, Sistema Sandino, Sistema Bloque Panel, Sistema Simplex. Se evaluaron en este trabajo, los siguientes elementos o sistemas horizontales para entrepisos y cubiertas: Sistema LAM (Losa abovedada de mortero), Teja Tevi + Soporte de Hormigón Armado, Viguetas y Bovedilla de cerámica, Tejacreto-Cesedem, Viguetas + Plaquetas, Losa Canal de Hormigón, Losa Canal de Ferrocemento, Bóveda de ladrillo de arcilla, Bóveda de suelo estabilizada, Cubierta de ladrillo recargado, Batea T. Algunas de las soluciones evaluadas se aprecian en las figuras 2, 3, 4, 5 y 6. Fig. 2. Ladrillo de adobe Fig. 3. Bloque de suelo-cemento Fig. 4. Muros con técnica de tapial Fig. 5. Cubierta abovedada de suelo estabilizado Fig. 6 Entrepiso con bóveda de ladrillo de arcilla 3. RESULTADOS Evaluación y propuesta de soluciones constructivas apropiadas para la rehabilitación y nuevas edificaciones en el municipio de Guanabacoa El procedimiento de evaluación propuesto constituye la base teórica que permite evaluar las soluciones constructivas de vivienda para ser insertadas en la zona objeto de estudio, además de proponer de acuerdo a los resultados, cuales soluciones son más apropiadas para este fin. Lo cual nos lleva a proponer una arquitectura, planeada y diseñada, utilizando, en la mayor medida posible, materiales de construcción que pueden producirse con las materias primas que se encuentran en el municipio, con técnicas artesanales y semiartesanales, de muy bajo componente de inversiones que necesiten moneda libremente convertible y por esta razón entre otras es que se emplea en la menor medida posible, cemento y acero. [2]. El método propuesto permite una evaluación más completa que las realizadas hasta el momento teniendo en cuenta que contempla una gran cantidad de parámetros necesarios para su ejecución en Guanabacoa, por tanto, se propone como metodología para la evaluación de soluciones constructivas de vivienda, la siguiente: Una vez concluido lo anterior, para determinar el nivel de apropiabilidad de la solución constructiva y su inserción en la ciudad de Guanabacoa, se establecen tres clasificaciones: Apropiada, Poco Apropiada y No Apropiada. La escala de calificaciones está en correspondencia con los valores a asignar en cada parámetro. La clasificación de Apropiada se corresponde con el rango entre bueno y lo aceptable (70-100%); el Poco Apropiada con lo regular (55-69 %); y el No Apropiada con lo malo, lo indeseable, lo que no puede insertarse (< 55 %). Para desarrollar la evaluación se evaluaron por separado los grupos de soluciones constructivas, conformados el primer grupo por las soluciones de muros y el segundo por las soluciones de entrepiso y techo. Esta forma de evaluar por separado a los grupos, ofrece la posibilidad de conocer en ambos casos, dentro de cada parámetro, cuales presentan más ventajas y cuales presentan indicadores, en general, superiores, que permitan a los inversionistas y decisores tomar decisiones sobre la utilización de una u otra solución o, si fuera el caso, acerca de la validez de continuar la investigación. Se abre también la posibilidad de establecer combinaciones con otras soluciones. El proceso de evaluación se basa en comparar los indicadores absolutos, que son los valores numéricos o cualitativos que caracterizan la solución constructiva a partir de la consideración de los indicadores evaluadores, los cuales constituyen el índice patrón. Leyenda: Escala cuantitativa que se asigna al indicador que describe el parámetro 1 Aceptable 0,5 Medianamente aceptable 0 No aceptable Tabla 1. Evaluación de Soluciones constructivas de elementos verticales. Tabla. Soluciones constructivas ,Elementos Verticales L a d ri ll o d e a rc il la B lo q u e d e a rc il la L a d ri ll o s m o d u la re L a d ri ll o c o c id o L a d ri ll o li g e ro d e L a d ri ll o c a ra L a d ri ll o d e B lo q u e d e t ie rr a T é c n ic a ta p ia l S u e lo - C e m e n to B lo q u e s m a c h ih e S u p e ra d o b e L a d ri ll o d e a re n a S a n d in o B lo q u e P a n e l S im p le x Elementos con uso de técnicas artesanales y semiartesanales 1 1 1 1 1 1 1 1 1 0,5 0,5 1 0,5 0 0 0 Consumo de materiales (Cemento) 0,5 0,5 0,5 0,5 0,5 0,5 0,5 0,5 1 0,5 0,5 1 1 0,5 0,5 1 Consumo de materiales (Acero) 1 1 1 1 1 1 1 1 1 1 1 1 1 0,5 0,5 0,5 Empleo de materiales de producción local 1 1 1 1 1 1 1 1 1 1 1 1 0,5 0 0 0 Uso de equipos de izaje 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 Consumo de energía 1 1 1 1 1 1 1 1 1 1 1 1 1 0,5 0,5 1 Mano de obra. 1 1 1 1 1 1 1 1 1 1 1 1 1 0,5 0,5 0,5 Peso de la edificación 1 1 1 1 1 1 1 1 1 1 1 1 1 0,5 0,5 0,5 Flexibilidad dimensional 1 1 1 1 1 1 1 1 1 1 1 1 1 0,5 0,5 0,5 Flexibilidad para adaptarse a la geometría del lote 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 Tipología estructural 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 Total del sistema 11 11 11 11 11 11 11 11 11 10 10 11 10 5 5 6 Promedio 0,95 0,95 0,95 0,95 0,95 0,95 0,95 0,95 1 0,90 0,90 1 0,90 0,45 0,45 0,54 Clasificación cuantitativa 95% 95% 95% 95% 95% 95% 95% 95% 100% 90% 90% 100% 90% 45% 45% 54% V a ri a b le s Tabla 2. Evaluación de soluciones constructivas de elementos horizontales Tabla. Soluciones constructivas ,Elementos Horizontales T e ja T e v i + S o p o rt e d e H o rm ig ó n S is te m a L A M (L o sa a b o v e d a d a d e V ig u e ta s y B o v e d il la d e c e rá m ic a V ig u e ta s + P la q u e ta s L o sa C a n a l d e H o rm ig ó n L o sa C a n a l d e F e rr o c e m e n to B ó v e d a d e la d ri ll o d e a rc il la B ó v e d a d e s u e lo e st a b il iz a d a C u b ie rt a d e la d ri ll o re c a rg a d o B a te a T T e ja c re to - C e se d e m Elementos con uso de técnicas artesanales y semiartesanales0 0 0,5 0 0 0 1 1 1 0 0 Consumo de materiales (Cemento) 1 0,5 0,5 1 0,5 1 0,5 0,5 0,5 1 1 Consumo de materiales (Acero) 1 1 1 1 1 1 1 1 1 1 1 Empleo de materiales de producción local 0 0,5 0,5 0 0,5 0,5 1 1 1 1 0 Uso de equipos de izaje 1 1 1 1 1 1 1 1 1 1 1 Consumo de energía 1 1 0,5 1 1 1 1 1 1 1 1 Mano de obra. 0,5 1 1 0,5 1 1 1 1 1 1 0 Peso de la edificación 1 0,5 0,5 0,5 0 0,5 1 1 1 0,5 1 Flexibilidad dimensional 1 1 0,5 0,5 0 0,5 1 1 1 0,5 1 Flexibilidad para adaptarse a la geometría del lote 0 0 0,5 0 0 0 0 0 0,5 0,5 0,5 Tipología estructural 1 1 1 1 1 1 1 1 1 1 1 Total del sistema 7,5 7,5 7,5 6,5 6 7,5 9,5 9,5 10 8,5 7,5 Promedio 0,68 0,68 0,68 0,59 0,54 0,68 0,86 0,86 0,91 0,77 0,68 Clasificación cuantitativa 68% 68% 68% 59% 54% 68% 86% 86% 91% 77% 68% V a r ia b le s Evaluación de las soluciones de muro Las soluciones Bloque de arcilla perforada, Ladrillos modulares ecológicos, Ladrillo cocido de tierra, Ladrillo cara maciza de tierra, Ladrillo de cerámica, Bloque de tierra comprimida y estabilizada, Técnica tapial, Suelo – Cemento, Bloques machihembrados de suelo–cemento, Superadobe y Ladrillo de arena y cal, son consideradas como las más apropiadas ya que son elementos que utilizan técnicas artesanales o semiartesanales, presentan bajo consumo de materiales como el acero y el cemento. Estos sistemas son ligeros y presentan gran facilidad de ejecución, dado por el tamaño y peso de sus elementos y permiten que el montaje sea rápido y manual. Poseen gran flexibilidad dimensional y modular que les posibiliten adaptarse a las formas irregulares de los lotes. Evaluación de las soluciones entrepiso y cubierta Las soluciones Bóveda de ladrillo de arcilla, Bóveda de suelo estabilizada, Cubierta de ladrillo recargado y Batea T fueron las más aceptadas para insertar en esta zona debido a que son elementos que disponen del uso de técnicas artesanales (excepto la última solución), por su ligereza o poco peso que aporta a la estructura, facilidad y rapidez de montaje, bajo costo energético por el bajo consumo de material y de uso de equipos al no necesitar grúas para su montaje. Las soluciones de Sistema LAM (Losa abovedada de mortero), Viguetas y Bovedilla de cerámica, Viguetas + Plaquetas, Losa Canal de Ferrocemento, Teja Tevi más soporte de Hormigón Armado y Tejacreto – Cesedem tiene un comportamiento regular, clasificadas de medianamente apropiadas pero pueden utilizarse en estas zonas por las ventajas que tienen según se aprecia en la tabla 2,tales como su ligereza o poco peso que aporta a la estructura, facilidad y rapidez de montaje, la baja necesidad de grúas para montajes y otras. 4. CONCLUSIONES Para la inserción de nuevas edificaciones en las zonas urbanizadas del municipio Guanabacoa, fueron precisados aquellos aspectos relacionados con las características urbano-arquitectónicas de dichas zonas y los relacionados con las soluciones constructivas que permiten establecer a su vez los aspectos específicos que deben ser considerados para la definición de las variables a atender para la selección de soluciones constructivas a utilizar en el municipio de Guanabacoa. El municipio de Guanabacoa presenta una elevada existencia de materias primas para la producción de materiales de construcción, por lo que, utilizándose en las construcciones del propio municipio, puede dar respuestas al uso mínimo de acero y cemento, con ventajas en los costos y en el equilibrio medioambiental. Se elaboró un método de evaluación a partir de establecer variables, atributos e indicadores que dan respuesta a las características de las zonas urbanizadas del municipio Guanabacoa, planteadas en los requerimientos urbano-arquitectónicos de la zona y en los requerimientos que deben cumplir las soluciones constructivas para ser insertadas en ellas. Al evaluar las 16 soluciones de muro y 11 soluciones de entrepiso y techo seleccionadas para este análisis, se establecen cuales son apropiadas y poco apropiadas para insertar en las zonas urbanizadas del municipio de Guanabacoa y cuáles no resultan apropiadas para el fin propuesto en este trabajo. Los resultados evidencian las ventajas y limitaciones de cada una de las soluciones estudiadas, permitiéndole a los inversionistas y especialistas en general, tomar decisiones pertinentes en relación con los resultados de la evaluación. Las evaluaciones realizadas, pueden ser aplicadas tanto a rehabilitaciones como a nuevas edificaciones. Esos resultados, pueden aplicarse también para las rehabilitaciones de edificaciones y nuevas inserciones, en otras ciudades cubanas, que posean tejidos urbanos similares a los existentes en las áreas urbanizadas del municipio de Guanabacoa. REFERENCIAS 1. LLANES PÉREZ, Marietta; FERNÁNDEZ FIGUEROA, Enrique; SÁNCHEZ VIQUILLÓN, Denise. “Soluciones constructivas apropiadas para la inserción de nuevas edificaciones en el municipio de Guanabacoa”. Arquitectura y Urbanismo, Vol XLI, No.1 (enero-abril 2020, ISSN 1815-5898 2. FERNANDEZ FIGUEROA Enrique; MARTÍNEZ RAMOS David “Guanabacoa Regla: Planeamiento y Diseño para la Regeneración Urbana”. Trabajo de Diploma, Universidad Tecnológica de La Habana José A. Echeverría (CUJAE). Facultad de Arquitectura Curso: 2019- 2020, 28 de septiembre 2020. 3. LIBERTUN, N. ‘’Cinco principios para la sustentabilidad urbana. Ciudades Sostenibles’’. Artículo Disponible en https://blogs.iadb.org/ciudades-sostenibles/es/bid-conocimiento-en- desarrollo-urbano-vivienda-y-sostenibilidad/. (2015, junio25) 4. BATISTA-GONZÁLEZ, R., COUTIN-CORREA, D.P., y RAIMUNDO MESA, F. “Los recursos minerales y el desarrollo local. Caso de estudio, municipio Guanabacoa, La Habana”. En: Memorias, Trabajos y Resúmenes. V Convención Cubana de Ciencias de la Tierra Geociencias 2013. Sociedad Cubana de Geología, La Habana, 2013. 5. PRIETO, A. L. L. Prioridades para el desarrollo y proyecciones del programa de producción local y venta de materiales de construcción en el municipio de Guanabacoa para el periodo 2015- 2020 para la colaboración internacional, dentro de la estrategia de desarrollo de la localidad. Asamblea Municipal del Poder Popular Guanabacoa. La Habana, 2015. 6. Regulaciones Urbanísticas. Municipio Guanabacoa. La Habana: Dirección Provincial de Planificación Física. Disponible en: Dirección Municipal de Planificación Física de Guanabacoa. La Habana, 2015. 7. LLANES PÉREZ, Marietta. “Método de evaluación de soluciones constructivas para vivienda. Caso de Estudio: Inserción de edificios de vivienda en zonas compactas de ciudad de La Habana”. Tesis de doctorado, Instituto Superior Politécnico José Antonio Echeverría, Ciudad de La Habana, 2006. 8. “Afectación del medio ambiente por la producción de hierro y acero”. Escrito por Conciencia Ambiental. [ref. de 1º de abril 2020]. Disponible en Web: https://es.wikibooks.org/wiki/Impactos ambientales/Fabricación de hierro y acero 9. Top 10 paises productores de acero [ref. de 19 de octubre 2021]. Disponible en Web: https://blog.laminasyaceros.com/blog/top 10 paises productores de acero 10. AGIRRE RUIZ DE ARKAUTE, AITZIBER - ELHUYAR ZIENTZIA, “Análisis del impacto ambiental del cemento” [ref. de 24 de septiembre 2020]. Disponible en Web: https://zientzia.eus/artikuluak/zementuaren-ingurumen-inpaktua-aztergai/es/ EL APROVECHAMIENTO DE LA BIOMASA COMO ENERGÍA PARA LAS UNIVERSIDADES: CASO DE ESTUDIO UNIVERSIDAD SAN BUENAVENTURA, MEDELLÍN (Andrés Felipe Restrepo Aristizábal)1, (Ana María Zapata Martínez)2, (Elizabeth Parra Correa)3 1Estudiante de arquitectura, email: afra.erizo@gmail.com, Universidad de San Buenaventura, Facultad de Artes integradas, calle 45 N 61 – 40 Barrio Salento Bello, Colombia. 2Estudiante de arquitectura, email: ana.zapatam@tau.usbmed.edu.co, Universidad de San Buenaventura Medellín, Facultad de Artes Integradas, Calle 45 N° 61-40 Barrio Salento, Bello, Colombia 3Docente de Arquitectura, email: elizabeth.parrac@tau.usbmed.edu.co, Universidad de San Buenaventura Medellín, Facultad de Artes Integradas, Calle 45 N° 61-40 Barrio Salento, Bello, Colombia. RESUMEN En la actualidad la vida humana se desarrolla con una total dependencia de la energía eléctrica que se obtiene principalmente de combustibles fósiles, esto es una problemática no solo por el inminente agotamiento de estos combustibles, sino también por el deterioro medioambiental que se está originando. Por esta razón es indispensable actuar en dos vías simultáneamente, buscar nuevas alternativas de obtención de energía eléctrica con menor impacto ambiental y buscar estrategias para hacer un uso más eficiente de la energía generada. La Universidad San Buenaventura sede Medellín, Colombia utiliza un promedio mensual de 48.950 KW-h para su funcionamiento y por tratarse de un espacio con grandes áreas de zonas verdes, genera aproximadamente 20 m3 de residuos de poda cada mes. Esto presenta a la biomasa como una potencial fuente de generación de energía alternativa. La presente investigación tiene como objetivo analizar el potencial de suplir energía dentro de la universidad a través del residuo de poda. Para conocer la distribución de la demanda energética de las aulas dentro de la universidad, se realizó una auditoría energética y para conocer el potencial de la biomasa generada, se realizó una proyección matemática según el tipo de residuo. Posteriormente se analizó que porcentaje de la energía demandada podría ser suplida considerando distintos escenarios y la inclusión de estrategias de eficiencia energética. Se encontró que utilizar el residuo de la poda puedo suplir cantidades significativas de energía generando ahorros económicos importantes, disminución del impacto ambiental y convirtiendo un residuo nuevamente en un recurso. PALABRAS CLAVE: Combustibles fósiles, biomasa, energías renovables, universidad. THE USE OF BIOMASS AS ENERGY FOR UNIVERSITIES: A CASE STUDY SAN BUENAVENTURA UNIVERSITY, MEDELLÍN ABSTRACT At present, human life develops with a total dependence on electrical energy obtained mainly from fossil fuels, this is a problem not only because of the imminent depletion of these fuels, but also because of the environmental deterioration that is originating. For this reason, it is essential to act in two ways simultaneously, seek new alternatives for obtaining electricity with less environmental impact and seek strategies to make more efficient use of the energy generated. The Universidad San Buenaventura in Medellín, Colombia, uses a monthly average of 48,950 kW-h for its operations, and because it is a space with large green areas, it generates approximately 20 m3 of pruning waste each month. This presents biomass as a potential source of alternative energy generation. The objective of this research is to analyze the potential of supplying energy within the university through pruning waste. In order to know the distribution of the energy demand of the classrooms within the university, an energy audit was carried out and to know the potential of the biomass generated, a mathematical projection was made according to the type of waste. Subsequently, it was analyzed what percentage of the energy demand could be supplied considering different scenarios and the inclusion of energy efficiency strategies. It was found that using pruning residue can supply significant amounts of energy, generating important economic savings, reducing the environmental impact and converting a residue back into a resource. KEY WORDS: Fossil fuels, biomass, renewable energies, university. 1. INTRODUCCIÓN En la actualidad la vida humana se desarrolla con total dependencia de la energía eléctrica, que se obtiene principalmente de combustibles fósiles, esta es una problemática no solo por el inminente agotamiento de estos combustibles, sino también por el deterioro medioambiental que se está originando, este acontecimiento nos obliga a buscar nuevas alternativas de obtención de electricidad que ayuden a mitigar el impacto medioambiental con estrategias más empáticas con la naturaleza [1]. El agotamiento paulatino de estas fuentes de energía tradicionales, así como la necesidad de reducir las emisiones de gases de efecto invernadero (GEI) a la atmósfera y velar por la salud de todas las personas, ha dado lugar a una tendencia conocida como transición energética, y la mayoría de los países buscan soluciones innovadoras. Soluciones energéticas que utilizan directamente recursos que se consideran inagotables, como el sol, el viento, el agua, la vegetación o el calor interno de la tierra, denominadas fuentes alternativas de energía [2]. En Colombia, debido a los abundantes recursos hídricos en la mayor parte del país, la producción de energía primaria es proporcionada principalmente por las grandes centrales hidroeléctricas, seguidas de los combustibles fósiles como el petróleo, el gas natural y el carbón, cuyas reservas han sido superadas. tendencia mundial de transformar el sector eléctrico, Colombia también se encuentra en la transición energética, contribuyendo al cambio climático y a la descarbonización del sector eléctrico mediante la inversión e implementación de tecnologías alternativas para la producción de energía a partir de fuentes renovables [3]. Energías alternativas Según la agencia internacional de la energía, las energías renovables son las que derivan de procesos naturales que se reponen constantemente, es decir, la que se obtiene de las continuas corrientes de energía recurrentes en el entorno natural [4]. Las energías alternativas tienen entonces una clasificación que nos permite conocer e identificar cuál es su fuente directa de producción de energía. La energía renovable proviene directa o indirectamente del sol. La energía solar se puede utilizar directamente para calentar e iluminar edificios, generar electricidad, calentar agua, enfriar la energía solar y diversas aplicaciones comerciales e industriales. El calor del sol también alimenta el viento, y esa energía es capturada por turbinas eólicas. El viento y el calor del sol hacen que el agua se evapore. Cuando este vapor se convierte en lluvia y nieve y desemboca en ríos y arroyos, el agua y su energía se pueden recuperar con energía hidroeléctrica. Junto con la lluvia y la nieve, la luz del sol también hace crecer los árboles [5]. Biomasa La biomasa consiste en una colección heterogénea de materia orgánica, tanto primaria como natural. En el contexto de la energía, el término biomasa se utiliza para referirse a fuentes de energía renovables basadas en el aprovechamiento de materia orgánica previamente formada por medios biológicos o productos derivados de ella. La biomasa también se considera materia orgánica de aguas residuales y lodos, así como la fracción orgánica de los residuos sólidos urbanos (RSU), pero dadas las propiedades específicas de estos residuos, generalmente son un grupo aparte [6]. Aporte energético de biomasa La biomasa tiene carácter de energía renovable ya que su contenido energético produce en última instancia la energía solar fijada por los vegetales en el proceso fotosintético. Esta energía se libera al romper los enlaces de los compuestos orgánicos en el proceso de combustión, dando como productos finales dióxido de carbono y agua. Por este motivo, los productos procedentes de la biomasa que se utilizan para fines energéticos se denominan biocombustibles, pudiendo ser, según su estado físico, biocombustibles sólidos, en referencia a los que son utilizados básicamente para fines térmicos y eléctricos, y líquidos como sinónimo de los biocarburantes para automoción [7]. 2. CASO DE ESTUDIO En la ciudad de Bello en el sector de Salento, se encuentra la sede de la Universidad de San Buenaventura (USB) que cuenta con área verde de 40.994m2, con un coliseo, bloque de aulas y un bloque de aulas-taller (AT). En la Figura 1 se presenta el área de zona verde que es podada cada mes y el volumen y peso de la biomasa que se recoge. (x) Área de la zona verde que requiere poda: 40.994 m2 Volumen de biomasa generada en 1 mes: 20 m3 Peso: 350 Kg/mes Figura 1: Volumen de biomasa generada en 1 mes en la USB Actualmente la USB se abastece de la red interconectada de la ciudad y el promedio del consumo durante los últimos 6 meses fue de 48.950 KWh. Este consumo de divide en dos, Activa fuera de punta (AFP) y Activa de punta (AP), estos consumos fueron de AFP de 37.400 KWh y AP de 13.200 KWh. Los costos por KWh son para AFP de $537,5 pesos y para AP de $539,1, consolidando un total de $26.129.035,69 pesos promedio mes. Una vez analizado el entorno específico de la USB, se identificó que el residuo de poda es una de las principales energías potenciales del campus. Se registraron datos directamente con los encargados del mantenimiento del campus universitario en el que se censo que el ciclo de poda toma 1 mes en realizarse y recolecta un aproximado de 20 m3 con un peso de 350 Kg. METODOLOGÍA En el siguiente esquema (Figura 2) se resume la propuesta metodológica implementada para dimensionar la oferta energética proveniente de la biomasa en la USB, analizar los posibles escenarios de aprovechamiento y realizar la proyección de ahorro económico. Figura 2: Diagrama metodología propuesta Como primera instancia se analizó el potencial de aplicación de los diferentes tipos de energía renovables en la universidad, identificando que debido a las amplias zonas verdes disponibles ya se realizaba un proceso mensual de poda y recolección de los residuos vegetales. Es decir que aprovechar este recurso no conlleva costos adicionales en esta instancia. Definido esto, se prosiguió a calcular el área de zona verde en la que se realiza poda o recolección de hojarasca, a través de una foto aérea. Aquí se debe aclarar que no fue considerada la pendiente del terreno por lo tanto las áreas son ligeramente mayores en la realidad. Una vez cuantificada el área disponible de residuo de poda, se aplicó el modelo matemático para la estimación del potencial energético de la biomasa residual propuesta por Escalante, 2011 [8]. Indicado a continuación, donde despejando el área de la segunda ecuación (2) se podía obtener la posible energía a generar en KWh/mes. PE: (Mrs) * (E) (1) Donde: PE: Potencial energético [Tj/año] Mrs: Masa de residuo seco [t/año] E/PCI: Energía del residuo por unidad de masa [Tj/t] Mrs: A * Rc * Fr * Yrs (2) Donde: Mrs: Masa de residuo seco [t/año] A: Área cultivada [ha/año] Rc: Rendimiento del cultivo [t producto principal / ha sembrada] Fr: Factor de residuo del cultivo [t de residuo/ t de producto principal] Yrs: Fracción de residuo seco [t residuo seco/ t de residuo húmedo] Posteriormente con el ánimo de conocer cuál era el consumo global mensual de la Universidad en la sede analizada, se consultó la factura de los servicios públicos. Adicionalmente se realizó una auditoría energética de las aulas típicas con el ánimo de conocer qué porcentaje de la energía global de la Universidad corresponde a las aulas y cuál a otros usos como auditorios, coliseo, cafeterías, alumbrado exterior, entre otros. La auditoría se realizó siguiendo el siguiente formato en el que se enlistan los aparatos eléctricos y electrónicos dentro del espacio, se encuentra el consumo diario multiplicando la potencia nominal de cada aparato por el tiempo de uso en horas por día y finalmente se encuentra el consumo mensual sumando los resultados de la multiplicación entre el consumo diario por los días al mes que ocurre ese uso. En la Tabla 1 se presenta el formato utilizado la para realizar la auditoría energética de las aulas. Tabla 1: Formato utilizado la para la auditoría energética del aula 2D Una vez conocidos el consumo energético de las aulas típica, el consumo energético de toda la sede universitaria y la potencial de energía que se podría generar por biomasa, se realizó un análisis de oferta y demanda de la siguiente manera. Se calculó el porcentaje de energía que requeriría el Aula Taller 2D para su funcionamiento del total de energía generada por biomasa y se calculó el porcentaje de energía que podría ser suplido con biomasa del total de energía requerida por la sede de la universidad. Posteriormente se plantearon los siguientes escenarios de eficiencia energética y de uso sectorizado de la energía, para realizar los cálculos nuevamente. Escenario 1: Suplir únicamente la energía requerida por las aulas. Escenario 2: Suplir únicamente la energía requerida por las aulas reemplazando los tubos halógenos de las lámparas actuales por lámparas Led. Escenario 3: Suplir únicamente la energía requerida por las luminarias de las aulas. Escenario 4: Suplir únicamente la energía requerida por las luminarias de las aulas reemplazando los tubos halógenos de las lámparas actuales por lámparas Led. 3. RESULTADOS Se realizaron las auditorías energéticas del aula 2D laboratorio, de las aulas típicas del bloque y de las aulas típicas del hangar, con el fin de identificar el consumo de cada tipología y diagnosticar el gasto energético de cada elemento que conforman estas aulas, de esta manera poder determinar que elemento es el que más gasto energético genera y decidir que estrategias implementar para reducir consumo energético. Nº Equipo Cantidad Potencia nominal (W) Tiempo de uso (horas/día) Consumo diario (Wh) Días de uso al mes Consumo mensual (Wh) 1 Lunimaria fluorescente 10 (2 Tubos c/u) 20 32 4 2560 8 20480 2 Bombillas Ojos de Buey Cricon JDRE27 6 50 2 600 4 2400 3 Proyector CASIO XJ-V1 1 150 3 450 8 3600 4 Computador portatil 4 100 3 1200 8 9600 5 Aire Acondicionado AUUQ18GH1 1 1450 1,5 2175 8 17400 6 Celulares cargando 1 100 2 200 8 1600 7 Ventiladores Papst TYP 41184 NXH 8 11 2 176 4 704 55784 55,8 55,8 Nº Equipo Cantidad Potencia nominal (W) Tiempo de uso (horas/día) Consumo diario (Wh) Días de uso al mes Consumo mensual (Wh) 1 Lunimaria fluorescente 10 (2 Tubos c/u) 20 32 4 2560 15 38400 2 Computador portatil 4 100 3 1200 15 18000 3 Aire Acondicionado AUUQ18GH1 1 1450 1,5 2175 15 32625 4 Televisor 1 200 10 2000 15 30000 5 Celulares cargando 2 100 6 1200 15 18000 137025 137,0 822,2 Nº Equipo Cantidad Potencia nominal (W) Tiempo de uso (horas/día) Consumo diario (Wh) Días de uso al mes Consumo mensual (Wh) 1 Lunimaria fluorescente (2 Tubos c/u) 24 32 16 12288 26 319488 2 Televisor 1 200 10 2000 26 52000 3 Computador portatil 4 100 8 3200 26 83200 4 Celulares cargando 1 100 2 200 26 5200 459888 459,9 18855,4 TOTAL 19733,3 BLOQUE AULAS SALON TIPICO (41 Aulas) AULA TALLER AULAS TIPICA (6 Aulas) Total consumo de energía mensual (Wh) Total consumo de energía mensual (KWh) TOTAL CONSUMO ENERGÍA MENSUAL POR TIPO DE AULA AULA TALLER 2D LABORATORIO (1) Total consumo de energía mensual (Wh) Total consumo de energía mensual (KWh) TOTAL CONSUMO ENERGÍA MENSUAL POR TIPO DE AULA Total consumo de energía mensual (Wh) Total consumo de energía mensual (KWh) TOTAL CONSUMO ENERGÍA MENSUAL POR TIPO DE AULA Se realizó de nuevo la auditoría energética de cada aula típica y del aula 2D laboratorio luego de determinar cuál era el elemento que más consumo generaba e implementamos las estrategias energéticas. Se observó que al realizar el cambio de luminaria el cual es el elemento que más energía gasta, se ve reflejado una disminución en el consumo de 4.494 KWh-mes. Posteriormente se plantearon los siguientes escenarios de eficiencia energética y de uso sectorizado de la energía, para calcular posibles porcentajes de energía suplida por la biomasa. Nº Equipo Cantidad Potencia nominal (W) Tiempo de uso (horas/día) Consumo diario (Wh) Días de uso al mes Consumo mensual (Wh) 1 Lunimaria Led (5300 Lm 2 bombillos) 10 50 4 2000 8 16000 2 Bombillas Ojos de Buey Cricon JDRE27 6 50 2 600 4 2400 3 Proyector CASIO XJ-V1 1 150 3 450 8 3600 4 Computador portatil 4 100 3 1200 8 9600 5 Aire Acondicionado AUUQ18GH1 1 1450 1,5 2175 8 17400 6 Celulares cargando 1 100 2 200 8 1600 7 Ventiladores Papst TYP 41184 NXH 8 11 2 176 4 704 51304 51,3 51,3 Nº Equipo Cantidad Potencia nominal (W) Tiempo de uso (horas/día) Consumo diario (Wh) Días de uso al mes Consumo mensual (Wh) 1 Lunimaria Led (5300 Lm 2 bombillos) 10 50 4 2000 15 30000 2 Computador portatil 4 100 3 1200 15 18000 3 Aire Acondicionado AUUQ18GH1 1 1450 1,5 2175 15 32625 4 Televisor 1 200 10 2000 26 52000 5 Celulares cargando 2 100 6 1200 15 18000 150625 150,6 903,8 Nº Equipo Cantidad Potencia nominal (W) Tiempo de uso (horas/día) Consumo diario (Wh) Días de uso al mes Consumo mensual (Wh) 1 Lunimaria Led (5300 Lm 2 bombillos) 10 50 16 8000 26 208000 2 Televisor 1 200 10 2000 26 52000 3 Computador portatil 4 100 8 3200 26 83200 4 Celulares cargando 1 100 2 200 26 5200 348400 348,4 14284,4 TOTAL 15239,5 Total consumo de energía mensual (KWh) TOTAL CONSUMO ENERGÍA MENSUAL POR TIPO DE AULA Total consumo de energía mensual (Wh) Total consumo de energía mensual (KWh) TOTAL CONSUMO ENERGÍA MENSUAL POR TIPO DE AULA BLOQUE AULAS SALON TIPICO (41 Aulas) Total consumo de energía mensual (Wh) AULA TALLER 2D LABORATORIO (1) Total consumo de energía mensual (Wh) Total consumo de energía mensual (KWh) TOTAL CONSUMO ENERGÍA MENSUAL POR TIPO DE AULA AULA TALLER AULAS TIPICA (6 Aulas) En la gráfica se observa el consumo energético de cada elemento de las aulas, de esta manera podemos determinar que las luminarias son donde debemos implementar las estrategias de eficiencia para reducir este alto consumo. Se observó que luego de implementar las estrategias de eficiencia al cambiar el tipo de iluminación tradicional por tipo LED, se ve reflejado una disminución considerable del 35% en el consumo de energía por parte de las luminarias. Se evidencio que, con la implementación de la producción de energía por medio de la biomasa para satisfacer el gasto energético generado por las aulas de la USB, se suplió un porcentaje del consumo necesario y se redujeron los costos económicos y ambientales. Considerando que las luminarias son el ítem del mayor requerimiento energético en las aulas, se realizó un análisis sectorizado del porcentaje de energía suplida únicamente por las luminarias en su estado actual, pasando del 11% al 15%. Sin embargo, al aplicar estrategias de eficiencia energética los cuales son los cambios de luminarias a LED se suple el 22%. 4. CONCLUSIONES - A través de este análisis se hizo evidente que hay posibilidad de suplir la energía requerida por las universidades de forma parcial a través de las energías alternativas sin necesariamente incrementar los costos económicos y a su vez, aprovechando estas formas de generación de energía como dispositivo pedagógico, vinculando a los estudiantes y promoviendo la conciencia ambiental. - Conocer la distribución por tipos de la demanda energética de los espacios a través de la auditoría energética, permitió plantear estrategias puntuales y oportunas de acuerdo con las características especificas de uso, equipos y ocupación de los espacios. Esto a su vez posibilitó plantear escenarios sectorizados del uso de la energía generada a través de fuentes alternativas. - Es fundamental pensar la eficiencia energética desde las siguientes dos perspectivas de forma simultánea: (i) el desarrollo de tecnologías para la generación de energías de forma alternativa y (ii) la aplicación de estrategias de ahorro energético desde la especificación de los equipos y la operación del espacio. Por un lado, se debe buscar como generar energía de forma alternativa con sistemas de bajo impacto ambiental, viabilidad económica y factibilidad técnica y por el otro identificar que equipos pueden ser mas eficientes en su consumo o que uso u operación podría disminuir el consumo energético. Logrado así disminuir el impacto ambiental en dos vías complementarias. 5. RECONOCIMIENTOS los autores deseamos agradecer a la Universidad De San Buenaventura Medellín por suministrarnos toda la información que le solicitamos, a la decana de la facultad de artes integradas, la arquitecta Sandra Carrión por la gestión que nos brindó frente a la universidad y el apoyo durante el proceso de investigación y a la profesora la arquitecta Elizabeth Parra correa por el apoyo, acompañamiento y enseñanza durante este proceso. REFERENCIAS 1. Michael Melford/National Geographic Stock, Grupo Intergubernamental de Expertos sobre el Cambio Climático ISBN 978-92-9169-331-3 Ilustración de la portada: Espejos parabólicos en una planta solar térmica utilizados para calentar petróleo. 2. BENAVIDES, Henry. “Información técnica sobre gases de efecto invernadero y el cambio climático” 2007. 3. ÁREA METROPOLITANA DEL VALLE DE ABURRÁ "Energías Renovables".[en línea]. Disponible en Web: https://www.metropol.gov.co/ambiental/Paginas/consumo-sostenible/Energias-Renovables.aspx 4. VERDUGO, Milagros. “La agencia internacional de la energía en el escenario energético mundial y sus relaciones con estados no miembros” 2016. 5. Badii, M.H.,” Energías Renovables y Conservación de Energía” 2016. 6. FERNANDEZ, Jesús. “La energía de la biomasa” 2007. 7. Pendiente. 8. ESCALANTE HERNÁNDEZ, Humberto, et al. Anexos A, B y D en: ORDUZ PRADA, Janneth et al. Atlas de potencial energético de la biomasa residual en Colombia, Bogotá D.C: UPME, 2011. Pp. 117-153. DISENO DE UN SISTEMA EOLICO PARA SUMINISTRAR ELECTRICIDAD AL HOTEL COVARRUBIAS, PROVINCIA LAS TUNAS Conrado Moreno Figueredo1 José Augusto Medrano Hernandez2 1Centro de Estudio de Tecnologías Energéticas Renovables, Universidad Tecnológica de la Habana José A. Echeverría, Calle 114 nro. 11907, Marianao, La Habana, Cuba,, 2 Centro de Estudio de Tecnologías Energéticas Renovables, Universidad Tecnológica de la Habana José A. Echeverría, Calle 114 nro. 11907, Marianao, La Habana, Cuba 1e-mail: conrado@mecanica.cujae.edu.cu RESUMEN El presente trabajo tiene como objetivo diseñar un sistema eólico para el suministro de energía eléctrica al Hotel Covarrubias el cual demanda como promedio 56 207 kWh/mes (674,5 MWh/año), dado por las favorables condiciones de viento en el sitio para, seleccionando el modelo de turbina más óptimo que aproveche el recurso eólico del lugar y capaz de suministrar la electricidad necesaria al hotel, demostrar que el proyecto es económicamente viable. Para ello se ha evaluado el potencial eólico en la zona de estudio. Posteriormente se seleccionaron tres aerogeneradores de acuerdo con las velocidades extremas provenientes de los huracanes y el índice de turbulencia. Para la estimación de la energía eólica producida se utilizará el método de la curva de potencia que vincula el comportamiento del aerogenerador con las características del viento en el sitio, lo que permite llegar a los resultados buscados. Se realiza un estudio económico para seleccionar el mejor aerogenerador desde el punto de vista de las prestaciones económicas. Finalmente, se selecciona un aerogenerador de 275 kW capaz de satisfacer la demanda del hotel . PALABRAS CLAVES: energía eólica, turbina eólica, velocidad del viento DESIGN OF WIND SYSTEM FOR SUPPLYING ELECTRICITY TO HOTEL COVARRUBIAS, LAS TUNAS PROVINCE ABSTRACT This paper aims to design a wind system for supplying electricity to the Hotel Covarrubias which demand 56 207 kWh/monthly, given the favourable wind conditions in the site, to select the most optimal turbine model that makes use of the wind resource of the place capable of supplying the necessary electricity to the hotel and to demonstrate which is economically feasible. For this, the wind potential in the study area has been assessed. Following three wind turbines are shortlisted according to the extreme speeds coming from the hurricanes and the turbulence index. The power curve method will be used for estimating the wind energy produced that will link the behaviour of the wind turbine with the characteristics of the wind in the site, which will allow to reach the searched results. An economical study is carried out in order to select the best wind turbine from the point of view economic benefits. Finally, a 275 kW wind turbine is selected able to satisfy the demand of the hotel. KEY WORKDS: wind power, wind turbine, wind speed 1. INTRODUCCION Como es bien sabido, la generación de energía eólica aumenta día a día, por lo que es de gran utilidad contar con una metodología rápida y precisa para diseñar un sistema eólico enfocado a suministrar electricidad a un objetivo autónomo. Precisamente este trabajo trata de la aplicación de una metodología para diseñar este tipo de sistema de energía eólica a un caso de estudio: el Hotel Covarrubias en la provincia de Las Tunas, Cuba. 2. MATERIALES Y METODOS Esta sección presenta el paso inicial para satisfacer el objetivo propuesto: la selección del sitio más adecuado, la metodología seguida y los datos de entrada. El paso inicial para diseñar un sistema eólico se podría resumir de la siguiente manera: • Selección del sitio donde se instalará el sistema eólico • Impacto en las aves • Distancia a la red de transmisión • Requisitos de superficie de terreno 2.1. Selección del sitio del sistema eólico Un paso importante y decisivo para aplicar la metodología es la identificación de las posibles ubicaciones para la instalación de los aerogeneradores para ello, son necesarios cuatro aspectos principales que permitirán identificar la ubicación de los aerogeneradores: los recursos eólicos, el impacto sobre las aves, la distancia a la red de transmisión y los requisitos de la superficie terrestre. Además, es habitual un estudio ambiental en la mayor parte de los proyectos de energía eólica. El propósito de este estudio ambiental del sistema eólico se puede resumir en: regulaciones locales, aceptación de la comunidad local, medidas que se tomarán para mitigar cualquier impacto adverso, evaluación del ruido y otros. 2.1.1. Recursos Eólicos Uno de los aspectos más importantes a la hora de ubicar aerogeneradores es el recurso eólico disponible. La potencia de salida de la turbina eólica depende del cubo de la velocidad del viento. Por lo tanto, es mejor ubicar las turbinas eólicas en áreas con velocidades de viento promedio altas. Además, la velocidad del viento generalmente aumenta y la turbulencia disminuye al aumentar la altura sobre el suelo. Por lo tanto, las turbinas eólicas más altas generalmente producen más energía que las turbinas con una altura de buje menor. La ubicación de los aerogeneradores está subordinada a las características del recurso eólico, dígase la disponibilidad del recurso eólico. Por lo tanto, la producción de energía de un aerogenerador depende del rendimiento de la velocidad del viento, es decir, de la mejor ubicación de los aerogeneradores donde sea mayor velocidad media del viento y menor turbulencia. Una propiedad importante del viento es el aumento de la velocidad del viento con la altura de la torre de la turbina eólica. En resumen, la evaluación del recurso eólico incluye no solo la velocidad del viento sino también otros parámetros como el índice de turbulencia. Para esto en general están disponibles dos fuentes habituales de recursos eólicos: los mapas de recursos eólicos y las mediciones de viento derivadas de campañas de medición. El mapa de recursos eólicos es un buen punto de partida para identificar los sitios de un proyecto promisorio. La información presentada en los mapas de recursos eólicos es diferente. Por lo general, la mayoría de los mapas de viento indican la velocidad media estimada del viento a largo plazo y la densidad de potencia eólica media esperada en watts por metro cuadrado de área de barrido del rotor. En Cuba los mapas de recursos eólicos están disponibles en el Instituto Meteorológico [1] [2] [3] [4]. Además, algunas regiones promedian los datos anuales de velocidad del viento disponibles. Por ejemplo, en la Isla de la Juventud donde los datos de velocidad del viento anual promedio están disponibles en la Oficina Regional del Instituto Meteorológico. 2.1.2. Impacto en las aves Se han realizado numerosos estudios debido a la preocupación por los impactos negativos del desarrollo de la energía eólica en Cuba relacionados con la interferencia de las turbinas eólicas con las migraciones de aves y las modificaciones del hábitat. Los propósitos de dichos estudios han sido realizar una evaluación objetiva de los riesgos que traería a los flujos migratorios para definir medidas mitigado-ras que permitan un desarrollo eólico en armonía con estos elementos naturales. La información sobre las migraciones de aves y el hábitat de las aves se puede encontrar en la revisión integral nacional que ofrece el Ministerio de Ciencias, Tecnología y Medio Ambiente (CITMA). 2.1.3. Distancia a la red de transmisión La transmisión de energía desde las turbinas eólicas a la red electrica es generalmente muy costosa. Por lo tanto, la ubicación de los aerogeneradores lo más cerca posible de las líneas de alta transmisión podría mejorar la competitividad del proyecto de manera relevante. Además, es importante evitar líneas de transmisión cerca de su capacidad máxima y que no sean capaces de asimilar generación de energía adicional. Los mapas con las características de los voltajes de las líneas eléctricas y su extensión en toda la isla están disponibles en la empresa de servicios públicos de Cuba (Unión Eléctrica). 2.1.4. Requisitos de superficie de terreno La cantidad de terreno requerido para instalar uno o más aerogeneradores debe tenerse en cuenta desde los primeros pasos. La superficie de terreno necesaria para instalar un aerogenerador varía significativamente en función del diámetro del rotor, la altura de la torre, la potencia de los aerogeneradores y las características del viento. Esta consideración cobra mayor importancia en islas pequeñas donde se explota el turismo y se utiliza el suelo para este fin [5] [6] [7] [8]. Analizando esos cuatro aspectos y según los resultados del Programa de Evaluación del Potencial Eólico de Cuba realizado entre 2005-2010 y los mapas eólicos, los sitios más promisorios se ubican en la costa norte del oriente de Cuba. Precisamente, el hotel Covarrubias se ubica en la costa norte de la provincia de Las Tunas, en el municipio de Puerto Padre, entre la bahía de Manatí al oeste y la bahía de Malagueta al este (Figura 1). Figura 1. Ubicación del Hotel Covarrubias El Hotel Covarrubias cuenta con 180 habitaciones y la demanda media es de 56 207 kWh mensuales de acuerdo a las estadísticas proporcionadas por la administración del hotel [9]. En esta investigación se determinó la mejor ubicación para el aerogenerador Finalmente se seleccionó un sitio lo suficientemente alejado del hotel para evitar los ruidos propios que emiten estas instalaciones debido básicamente a la variación de velocidad del viento y que podrían afectar a los usuarios del hotel por su cercanía al mismo. 2.2. Metodología En la actualidad existen diferentes metodologías que se han desarrollado para diseñar sistemas eólicos para la generación de energía eléctrica. Una de ellas es la metodología aplicada para el diseño de este sistema de generación de energía basada en tres pasos cruciales que incluye un análisis financiero con los resultados correspondientes en el área de estudio [10] [11] [12]. Estos pasos se muestran en la Figura 2. 1. Evaluación del recurso eólico Evaluar y seleccionar un sitio apropiado en Cuba para el sistema eólico conectado a la red con una condición de viento favorable. 2. Estimación de energía Conocer la compatibilidad de los futuros aerogeneradores que dan la máxima Producción Energética Anual (AEP) 3. Análisis financiero Evaluar la rentabilidad y los gastos de la energía eólica en el sitio seleccionado Figura 2. Pasos de la metodología 2.2.1. Evaluación del recurso eólico Para estimación preliminar del potencial eólico en el hotel Covarrubias se aplicó la búsqueda en Atlas Eólico de Cuba [5] y en la base de datos internacional Global Wind Atlas[4]. La evaluación del recurso eólico se centra en identificar la viabilidad del proyecto desde el punto de vista técnico y económico. Las informaciones obtenidas con la evaluación del viento se pueden resumir de la siguiente manera: Velocidad media del viento, intensidad de turbulencia, rosa de los vientos, densidad de potencia eólica, perfil de velocidad con la altura y la distribución de frecuencias. Una de las informaciones más importantes que se obtienen de la evaluación del viento es la distribución de frecuencias (Figura 3). Esta muestra el porcentaje de tiempo que el viento sopla a una determinada velocidad [13] [14] [15]. Figura 3. Distribución de velocidades del viento Según el Atlas Eólico de Cuba, la base de datos internacional Global Wind Atlas y una campaña de medición en la zona se estimó una velocidad media anual del viento a 60 m de altura resulta de 6,5 m/s. Como es bien sabido, la distribución de frecuencias de Weibull es la más utilizada para el tratamiento estadístico de datos de viento. Para ello, es necesario calcular los valores k (factor de forma) y c (factor de escala) que caracterizan a cada sitio. Aplicando el método de la variabilidad y considerando la alta variabilidad del viento debido a la ubicación del hotel cerca de la costa, el factor de forma resulta k = 1,86 y el factor de escala c = 7,32 m/s. 2.2.2. Estimación Anual de Energía De acuerdo con la demanda energética anual del hotel y la velocidad media del viento en el sitio, la experiencia indica que turbinas entre 250 kW y 300 kW podrían satisfacer esa demanda. La producción de energía depende de las condiciones del viento en el sitio y de la turbina eólica seleccionada. Tras el estudio eólico realizado anteriormente, corresponde ahora la selección del aerogenerador. Esta selección se convierte en un paso decisivo por el peligro de huracanes. Para esto, la determinación de la clase de viento es muy importante debido a que la isla de Cuba está ubicada en una zona donde los huracanes son frecuentes. La norma IEC 61400-1 define tres clases de condiciones de viento. - I, II y III que van desde la más ventosa (velocidad del viento de referencia de 50 m/s) hasta la menos ventosa (velocidad del viento de referencia de 37,5 m/s). Las turbulencias se denotan A, B y C correspondientes a alta, media y baja. turbulencia De acuerdo al estudio de viento en el sitio y aplicando el método Gumbel para la determinación del viento extremo s Vref = 49.9 m/s, lo que corresponde a un aerogenerador Clase I. Considerando la intensidad de turbulencia el aerogenerador a instalar es Clase IA [16]. Teniendo en cuenta los resultados anteriores, se preseleccionaron tres aerogeneradores para el sitio seleccionado como posibles candidatos para ser instalados en el hotel Covarrubias. 1. Ventus 250/42,5 2. Viento Technik Nord WTN 250/30 3. Vergnet GEV M C 275/32 El proceso de selección del aerogenerador más rentable se basa inicialmente en la evaluación del rendimiento de cada aerogenerador estimando su producción anual de energía (PAE). La producción en un período T de una turbina con una curva de potencia dada Pi(v) resulta de la producción de velocidades individuales Ei = fi PiT with fi = ti/T (1) Donde ti es el tiempo que el viento está soplando a una determinada velocidad. Resumiendo, AEP= = (2) Calculando la frecuencia de aparición de velocidades del viento en un intervalo de 1 m/s por medio de la distribución de Weibull y multiplicando esta por los datos de la curva de potencia sobre esa velocidad particular del viento de la turbina permite determinar la energía entregada por cada velocidad particular. Los resultados se muestran en la Tabla 1 para cada aerogenerador Tabla 1. Producción de energía de los aerogeneradores seleccionados Nr. Modelo de aerogenerador PAE (MWh/year 1 Ventus 250/42,5 511, 808 2 Wind Technik Nord WTN 579, 389 3 Vergnet GEV M C 275/32 682, 119 Como se observa, solamente el aerogenerador Vergnet satisface la demanda del hotel (674,5 MWh/año). Para comparar el rendimiento de los aerogeneradores seleccionados se suele utilizar el Factor de Capacidad (FC) que es una manifestación del rendimiento del aerogenerador en el lugar. Este cálculo se muestra en la Tabla 2. Tabla 2. Factor de capacidad de los aerogeneradores seleccionados Nr. Modelo de aergonerador FC (%) 1 Ventus 250/42,5 20.00 2 Wind Technik Nord WTN 22,64 3 Vergnet GEV M C 275/32 24,23 Teniendo en cuenta que el aerogenerador Vergnet GEV MC 275/32 es el único que satisface la demanda del hotel y alcanza el mayor factor de capacidad se selecciona preliminarmente este aerogenerador [17] 2.2.3. Análisis financiero El último paso se refiere al análisis financiero realizado para medir la rentabilidad del proyecto mediante la selección del aerogenerador óptimo desde el punto de vista de los resultados económicos y financieros. El análisis financiero de la energía eólica debe considerar dos aspectos básicos: 1. Costos totales de inversión o costos de capital 2. Costos anuales de explotación (costos de O&M)0 3. Costos de financiamiento El coste total de inversión de una instalación de energía eólica es igual a la suma de varios parámetros. se da como CT = CAG + CF + CE + otros costos (3) Donde CT es el costo total, CAG es el costo de los aerogeneradores, montaje, transporte marítimo, transporte terrestre, grúas y trabajos de grúas e instalación. CF son los costos de obras civiles (cimentación, accesos viales y otras obras civiles) CE son los costos de las instalaciones eléctricas, cableado, trincheras, equipamiento eléctrico, subestación, edificio de control, líneas aéreas y otros componentes. Ver figura 4. Figura 4. Participación de diferentes costos en los costos totales de la inversión La estimación de los costos totales de inversión para cada aerogenerador seleccionado se presenta en la Tabla 3: Tabla 3. Costos totales de inversión de los aerogeneradores seleccionados Nr. Modelo de aerogenerador Costos de inversion total ($) 1 Ventus 250/42,5 411 000.00 2 Wind Technik Nord WTN 445 250.00 3 Vergnet GEV M C 275/32 479 500.00 Los costos de operación y mantenimiento (O & M) constituyen una parte importante de los costos totales de una instalación eólica. Para una nueva turbina eólica, los costos de operación y mantenimiento pueden representar fácilmente el 20-25 % del costo total de electricidad por kWh producido durante la vida útil de la turbina. Los costos de O&M incluyen seguro, mantenimiento regular, reparación, repuestos y administración. Según la experiencia en Alemania, España, el Reino Unido y Dinamarca, los costes de operación y mantenimiento se estiman generalmente en alrededor de 1,2 a 1,5 céntimos de euro (CE) por kWh de energía eólica producida durante la vida útil total de una turbina [18]. Los costos de financiamiento son los intereses y otros costos relacionados con el préstamo de dinero para construir el sistema eólico. Existen varios indicadores importantes que pueden utilizarse para evaluar la viabilidad financiera del proyecto en función de una descripción completa de los beneficios y costos. Se podrían utilizar los siguientes indicadores económicos: Valor actual neto (VAN) Tasa Interna de Retorno (TIR) Período de recuperación de la inversión (PRI) Costo nivelado de energía (LCOE) El VAN se utiliza para analizar la viabilidad de la inversión. VAN = (4) donde Qj es el flujo de caja y r es la tasa de descuento El Proyecto es factible si el VAN resultante es positivo La TIR es la tasa interna para la cual el VAN de un proyecto igual a cero (5) El proyecto es factible si la TIR es mayor que la tasa de descuento económico pactada i Periodo de recuperación es el tiempo en el que se espera recuperar la inversión. El proyecto es factible si la TIR es mayor que la tasa de descuento económico pactada i Periodo de recuperación de la inversión (PRI) es el tiempo en el que se espera recuperar la inversión (6) Reembolsos o PRI más cortos significan inversiones más atractivas. LCOE (Levelized Cost of Energy) es el costo actual neto promedio de generación de electricidad para el sistema eólico en estudio durante su vida útil. Es el costo de generar una unidad de energía. Se utiliza para comparar diferentes alternativas, (7) Donde LCOE - Costo Nivelado de la Energía ($/kWh) CAPEX - Gastos de capital o de inversión inicial ($/kW) PAE - Producción Anual de Energía (kWh/año) OPEX - Gastos de Operación y Mantenimiento ($/kW/año) 3. RESULTADOS Los resultados obtenidos de este análisis indican que el sitio seleccionado es apto para instalar un sistema eólico para la producción de energía eléctrica. De los tres aerogeneradores preseleccionados, según el análisis financiero, el más adecuado desde el punto de vista económico-financiero es el modelo Vergnet GEV MC 275/32. Este cálculo se presenta en la Tabla 4. Table 4. Indicadores económicos Modelo de aerogenerador PAE kWh/año VAN $ TIR % Período de recuperación años LCOE $/kWh Ventus 250/42,5 513257.38 129359.64 12,3 13 0.1286 Wind Technik Nord WTN 580474.15 210539.05 13,7 11 0,1137 Vergnet GEV M C 275/32 684031.80 335598.78 16,7 8 0,1063 4. CONCLUSIONES Este análisis técnico-económico del sistema eólico ha demostrado que es posible utilizar la energía eólica para el suministro de energía eléctrica en este hotel de la costa norte de Cuba. En este trabajo se ha presentado una metodología que ha incluido todos los aspectos necesarios para alcanzar los mejores resultados en el diseño preliminar de un sistema eólico para generar electricidad en un sistema autónomo. Se ha seleccionado un modelo de aerogenerador de un grupo de ellos seleccionados previamente extraídos de un catálogo comercial En este trabajo se demostró que el aerogenerador Vergnet 275 es capaz de suministrar la electricidad suficiente al hotel en conjunto con la red eléctrica de forma autónoma y con la mejor rentabilidad. REFERENCIAS 1. MORENO C. et al. Doce Preguntas y Respuestas sobre Energía Eólica, La Habana: Editorial Cubasolar, 2017. 674 pp. ISBN 978-959-7113-51-5 2. ROQUE A 2013 “Atlas eólico de Cuba,” Proc. 12th World Wind Energy Conference, Havana, Cuba 3. SOLTÚRA, Rolando; ROQUE Alfredo “Mapa del potencial eólico de Cuba”, Revista Energía y Tú, 2007 núm. 37 4. BIRDLIFE INTERNATIONAL “Wind farms and birds: An analysis of the effects of wind farms on birds, and Guidance on Environmental Assessment Criteria and Site Selection Issus”. Council of Europe Report. 2003 5. CLAUSAGER I, NOHR H , “Impacts of wind turbines on birds”, Proc. European Union Wind Energy Conference, 1996. Goteborg, Sweden 6. SANTOS FUENTEFRIA A. “Analysis of Gibara I wind farm from 2015 to 2019”, Proceedings on 2020 IEEE PES Transmission & Distribution Conference and Exhibition Latin American, 2020, Montevideo, Uruguay, DOI: 10.1109/TLDA47668.2020.93261666 7. RODRÍGUEZ R. 2020 “Diseño de un sistema eólico para el suministro de electricidad al Hotel Covarrubias, Las Tunas, Cuba” 2020, Final Thesis 8. NATIONAL ACADEMY SCIENCES Environmental Impacts of Wind Energy Projects, Washington, 2007. National Academic Press 9. STOLIK Daniel, Energía fotovoltaica para Cuba, Havana, Cuba: Editorial Cubasolar, 2018. 531 pp. ISBN 978-959–7113–56-0 10. TIMOTHY J., “Design of a Residential Wind Turbine System” Master Degree Thesis Rensselaer Polytechnic Institute Hartford (Connecticut). 2012 11. ELTAMALY A., “Design and implementation of wind energy system in Saudi Arabia” Renewable Energy, 2013 DOI: 10.1016/j.renene.2013.04.006 12. MOHAMED A., “Development of a methodology for wind energy estimation and wind park design” Journal of Renewable and Sustainable Energy, 2018. DOI: 10.1063/1.4895919 13. FYRIPPIS I, AXAOPOULOS P, GREGORIS P., “Wind energy potential assessment in Naxos Island, Greece” , Applied Energy, 2010, vol. 87, Issue 2, February , pp. 577 14. ABAS H, VAHID R. SIMIN R , “Wind Energy Potential Assessment In Order to Produce Electrical Energy for Case Study in Divandareh, Iran” Proc. Int. Conf. on RE Research and Appl. 2014 15. BARRERA Andrés, “Prospección eólica en Cuba”, Revista Energía y Tú, 2005 núm. 37 16. FAIAS S, DE SOUSA J., “Assessment and Optimization of Wind Energy Integration into the Power Systems: Application to the Portuguese System” IEEE Transaction on Sustainable Energy, 2012 vol. 3 pp. 627 17. MANWELL A, MC GOWAN J, ROGERS A., Wind Energy Explained, second edition, London, John Wiley & Sons, 2009, 677 pp. ISBN 978-0-470-01500-1 18. KHOULOUD B, MAHIEDDINE A, RABAH L 2016 “Assessment and analysis of wind energy generation and power control of wind turbine system”. Rev. Sci. Technol , vol. 32 pp. 147-162 19. WESLEY L. GSANGER S 2014 Operations and Maintenance for Onshore Wind Energy Systems, WWEA Background Paper, Bonn NOVEL DEHUMIDIFICATION SYSTEM WITH CONTROLLED LATENT COOLING LOAD FOR HOT AND HUMID CLIMATES. Hugo Monteyne1, Arnold Janssens2, Michel De Paepe1, Eline Himpe2 1 Department of Flow, Heat and Combustion Mechanics, Ghent University, Ghent, Belgium, 2Department of Architecture and Urban Planning, Ghent University, Ghent, Belgium 1 e-mail: Hugo.Monteyne@UGent.be ABSTRACT An indoor absolute humidity above 0.012 kg/kg is considered as uncomfortable and can cause unhealthy mold growth in combination with temperatures above 15°C . Subcooling the too humid air and reheating the air to the comfort temperature is an applied humidity control but has an increased energy use. In this paper a new dehumidification control system is developed which controls the absolute humidity of the fresh supply air. The innovation is installed in the supply line of the mechanical balanced ventilation system. It consists out of an extra plate heat exchanger followed by a dehumidification cooling coil, a damper section and a mixing box. The main characteristic of the added system is the precooling of the ventilation air using the cold air exiting the dehumidification cooling coil. The simulations are performed in Trnsys. The results show that controlling the ratio of precooling by using the damper section and controlling the dehumidification load by controlling the temperature of the chilled water, a stable and energy efficient dehumidification system is achieved. A simulation was performed using Singapore as a test case, and its results in the same energy use to get a stable temperature and humidity controlled system, this compared well to a cooling system with fan coils without humidity control, for the same comfort feeling. KEY WORDS: dehumidification, hot and humid, over-cooling, reheat, desiccant NOVEDOSO SISTEMA DE DESHUMIDIFICACIÓN CON CARGA FRIGORÍFICA LATENTE CONTROLADA PARA CLIMAS CÁLIDOS Y HÚMEDOS. RESUMEN Una humedad absoluta interior superior a 0,012 kg/kg se considera incómoda y puede provocar el crecimiento de moho nocivo en combinación con temperaturas superiores a 15 °C. Subenfriar el aire demasiado húmedo y recalentar el aire a la temperatura de confort es un control de humedad aplicado, pero tiene un mayor uso de energía. Se desarrolla un nuevo sistema de control de deshumidificación que controla la humedad absoluta del aire de suministro fresco. La innovación se instala en la línea de alimentación del sistema de ventilación mecánica equilibrada. Consta de un intercambiador de calor de placas adicional seguido de un serpentín de enfriamiento de deshumidificación, una sección de compuerta de regulación y una caja de mezcla. La principal característica del sistema añadido es el preenfriamiento del aire de ventilación utilizando el aire frío que sale del serpentín de enfriamiento de deshumidificación. Al controlar la proporción de preenfriamiento mediante el uso de la sección de la compuerta de regulación y al controlar la carga de deshumidificación mediante el control de la temperatura del agua enfriada, se logra un sistema de deshumidificación estable y energéticamente eficiente. El caso simulado para Singapur da como resultado el mismo uso de energía para obtener un sistema estable de temperatura y humedad controlada, en comparación con un sistema de enfriamiento con ventilo convectores sin control de humedad, para la misma sensación de comodidad. Las simulaciones se realizan en Trnsys. PALABRAS CLAVES: Deshumidificación, caliente y húmeda, sobreenfriamiento, recalentamiento, desecante 1. INTRODUCTION The humidity of the indoor environment impacts the thermal comfort and the indoor air quality[1]. Both of them influence the human health. Too humid air disturbs the temperature regulation of the body, creates odors, makes the air stuffy and stimulates growth of mold[2-4]. Kubba [5] mentions that for mold to grow a temperature between 5 and 35°C and a relative humidity above 60%are needed. Keeping the indoor relative humidity below 60% is required to maintain a healthy indoor environment [6]. The ASHRAE fundamentals handbook(1985)[7] mentions the upper limit for thermal comfort in warm conditions of 60% relative humidity and the upper humidity ratio of 0.012kg/kg dry air. The traditional cooling systems with fan coils or direct expansion units, working without extra humidity control, still results in elevated relative humidity which can go up to 80%[8]. The cooling systems are more applied without humidity control than with humidity control. Mazzei [9] and others [10-12] describe actual dehumidification systems for comfort cooling and mention that dehumidification can increase the energy use with 50% and more. The currently most applied system is still based on the process of overcooling the air below the dewpoint and then reheating the air to the needed supply temperature [13]. Waste heat of the condenser can be used as energy source for the reheating [4]. During the last decades, the liquid desiccant dehumidification and the sorption wheel with solid desiccant are the new upcoming technologies. The dehumidification process has also an impact on the temperature settings of the chiller. The traditional system with reheat needs low water temperatures to cool below the dewpoint which results in a lower COP (coefficient of performance). The systems working with a desiccant, solid or liquid, can work with higher water temperatures which result in a better COP. On the other hand, those systems need extra energy to regenerate the desiccant. This paper describes an innovative dehumidification system working without desiccant, without extra reheat or regeneration heat source and with a high COP for the chiller. The system is a modification of the dual pass heat exchanger described by Stark [14]. The innovative system distinguishes from the system of Stark in the location of the dampers, the cooling coil and the different controls for dampers and chiller. The investigated system is called ‘Drysus’ as abbreviation for ‘Dry sustainable’. The Drysus will be compared with the basic cooling system with fan coils without dehumidification control. The climate conditions of Singapore are used to execute the simulations. This paper focuses on the different controls used in the Drysus to get a stable and energy efficient dehumidification system. 2. MODEL, METHOD AND MATERIALS The building model The Mobble – Modular Building Block – is a building unit designed by Ghent University architecture and engineering students in the context of the Solar Decathlon Europe 2019 competition. The Mobble can be used as a stand-alone building or can be combined to a multi-dwelling or hotel application[15]. In this research the building is used as an apartment, south oriented and surrounded by other flats on top, below, left and right. The kitchen is separated from the living by a wall, bedroom and living are two separate rooms and the window-to-wall ratio is limited to 20%. There is no heat flow to or from neighboring flats. The unit is South oriented and has an overhang to provide shading. Error! Reference source not found. shows a few building specifications. Table 1: Building specifications U-value external wall 0,362 W/m²K U-value window 1,05 W/m²K g-value window 0,22 window wall ratio 0,2 Brut external wall surface 30 m² total floor surface 70 m² airconditioned surface 47,3 m² airtightness n50 2 Figure 1: Floor plan of the Mobble Simulations and Solution Methodology The building and the air handling system are simulated in Trnsys and Trnflow. The Meteonorm reference year for Singapore is used to represent a hot and humid climate. The simulations are performed with a time step of 3 minutes. The small time step is needed to get a realistic reaction time of the air handling unit. A stochastic occupant behavior model [16, 17]is used to determine an occupancy profile for a 2 persons family and to determine the internal heat gains of the appliances [18, 19]. The resulting latent load is caused by outdoor air infiltration via the building structure, the fresh air supply of the ventilation unit (250m³/h) and the occupancy of maximum 2 persons. The energy demand is calculated for a full year. One reference week is used to illustrate the operation of the Drysus. The climate of Singapore Singapore has a hot and humid climate (Error! Reference source not found.) with a mean temperature of 27°C and 90% of the time absolute humidity above 0.012kg/kg. The AC systems are used 24/24 for temperature control as well as for humidity control. Figure 2: Meteonorm reference Climate of Singapore Reference system As reference a standard air conditioning system with fan coils is used in combination with a balanced ventilation system with heat recovery. There is no humidity control. The main parts are represented in Error! Reference source not found. by the parts P1 to P4. An air cooled, inverter controlled, chiller (P2) Absolute humidity outdoor kg/kg Dry bulb temperature outdoor °C supplies cold water of 6°C to the two fan coil units installed in the living room (P3) and the bedroom (P4). The 250m³/h ventilation air s precooled by the sorption wheel (P1) and supplied to the living and the bedroom. The exhaust is taken in the kitchen, the bathroom and the box room. The temperature of the living room is maintained from 5h00 till 23h00. The bedroom temperature is controlled from 20h00 till 7h00. During the setback period the temperature can increase with 4°C before the AC is activated again to limit the temperature rise. This system guarantees the correct temperature but not the correct comfort due to the lack of humidity control. The Drysus system, which is a simplification of the system described by Stark[14], is an alternative system to control the humidity. Stark did not described a control protocol. The development of the control protocol is part of this research. System Stark The system described by Stark [14], is presented in Error! Reference source not found.. The system consist out of 4 dampers(D1-D4), a plate heat exchanger (HEX), two cooling coils (CC1 – CC2) and a mixing chamber (MB) (see Error! Reference source not found.). The entering flow F1 is controlled by damper D1. The air can be bypassed with damper D2 when no dehumidification is needed or can be split in flow F2 and F3. The flow F3 is precooled by the flow F5 and is cooled in the cooling coil CC1. The exiting air of the cooling coil is split into flow F4 going to the mixing chamber and flow F5 to be cooled extra in the cooling coil CC2. The flow F5 is reheated in the plate heat exchanger, is mixed with entering air F2 and is lead to the mixing chamber where it is mixed with flow F4. The absolute humidity is changed in the two cooling coils and where flows F5 and F2 are mixed. The temperature can be changed by controlling the cooling coils, CC1 and CC2, and by changing the position of the dampers. Developing a good control unit is a challenge for this unit. The Drysus is a simplified version of Stark’s unit where the cooling coil CC2 and the dampers D1 and D2 are deleted. This simplification makes it possible to develop a stable and accurate control system. Figure 3: System described by Stark Drysus Innovative system The investigated system is the reference system where the Drysus P5 (Error! Reference source not found.) is added in the supply duct of the ventilation system. Only the fresh air supply is dehumidified. The control is reacting on the absolute humidity and temperature measured in the mixing chamber (A8) at the exit of the Drysus. Error! Reference source not found. shows the main components of the Drysus: inlet for the air stream (D9), the plate heat exchanger (D1) with first channels (D2) and second channels (D3), the cooling coil (D4) for cooling and dehumidifying, the splitting of the main steam in a first substream (F1) and a second substream (F2), a mixing chamber (D7) and the outlet (D8). The splitting of the air stream is done by the controlled dampers (D5) and (D6) Inlet (D9) receives the full flow of the fresh air supply (A2) coming from the desiccant wheel(P1) treating the outdoor air (A1). The inlet air of the Drysus (A2) is precooled in the first channels (D2)of the plate heat exchanger. The exit air of the first channels (A3) is cooled and dehumidified in the cooling coil (D4) and results in (over)cooled air (A4). The first substream (F1) is directed to the mixing chamber (D7). The second substream (F2) of the cooled air(A5) is directed to the second channels (D3) of the heat exchanger (D1) to precool the entering air (A2). The exit air (A7) of the second channels (D3) is directed to the mixing chamber (D7). The mixed air (A8) of the mixing chamber is directed to the outlet (D8). The mixed air is directed to the rooms. Figure 4: Schematic overview of the Drysus In this unit two devices are controlled, firstly a valve (P7)on the cooling coil (D4) is controlling the water temperature to the cooling coil to get the targeted absolute humidity of the controlled location. Secondly the motorized dampers (D5 and D6 ) are controlling the flow of the second substream (F2) to get the targeted dry bulb temperature of the controlled location. In this simulations the controlled location is the mixed air (A8) of the Drysus. As alternative a room can be selected as controlled location. In this case the Drysus will also anticipate on the latent loads of the room. The main control actions are described in Error! Reference source not found.. To increase the performance of the total system two chillers are used. The chiller P2 supplies the chilled water to the fan coils at a relative high temperature which makes that no latent cooling load is generated. The Drysus chiller P6 has a leaving water temperature controlled by the absolute humidity of the outdoor air but limited to a minimum of 6°C. The higher the outdoor absolute humidity the lower the leaving chilled water temperature will be. When the second substream (F2) is increased, more cooled air is used to precool the entering air. The mixed air will increase in temperature and the humidity ratio will decrease due to the increased pre- cooling of the supply air, this in case the water supply temperature (or cooling load of the Drysus coil)remains the same. The increased precooling action, which is post heating of the air cooled in the cooling coil, avoids overcooling while enough dehumidification is maintained. When the supply water temperature decreases, the mixed air is decreasing in temperature and the absolute humidity is also decreasing. The simulations are made so that each time step a different device is controlled. The control of the damper and the control of the valve is alternated. This way a stable simulation can be performed. The damper control makes it possible to dehumidify without having a too cold supply temperature. The valve control is a control of the cooling capacity. The Drysus coil has another chiller than the fan coils of the living and the bedroom. Due to the fact that the Drysus chiller is a different unit, it is possible to use a higher set point for the chiller of the fan coil units. This results in a higher COP for the total system. Error! Reference source not found. shows the priorities and the actions of the control system. The time step of 3 minutes used in the simulation is also the time step between two evaluation moments of the control system. Table 2: Control strategy Drysus air flow to second substream status humidity ratio controller status temperature controller action on water supply temperature valve cooling coil Drysys air flow to second substream 100% humid warm no action decrease 100% humid cold no action decrease 100% dry warm decrease T no action 100% dry cold no action increase 0% < air flow to second substream < 100% humid warm no action decrease 0% < air flow to second substream < 100% humid cold increase T no action 0% < air flow to second substream < 100% dry warm decrease T no action 0% < air flow to second substream < 100% dry cold no action increase 0% humid warm no action decrease 0% humid cold increase T no action 0% dry warm no action decrease 0% dry cold no action increase Thermal comfort The reference system and the Drysus system will be evaluated at working points having approximately the same energy use and the same comfort feeling. For both cases the absolute humidity will be kept constant on 0.012kg/kg to limit the dehumidification need. Low room temperatures can still be comfortable as shown in Error! Reference source not found. where two comfort zones, defined by ASHRAE [20], are presented for different clothing. The percentage persons dissatisfied (PPD)is selected on 6% for all cases and is calculated with the CBE Thermal Comfort Tool [21]. Error! Reference source not found. presents the targeted comfort conditions. Figure 5: Comfort zone ASHRAE 55 -2017, red zone for clo=1, blue zone for clo=0.5 Table 3: Comfort conditions for the different cases System Operative temperature Absolute humidity Air speed Relative humidity Metabolic rate Clothing level PPD °C kg/kg m/s % met clo % Reference 22 0.012 0.1 72.5 1 1 6 Reference 24 0.012 0.1 64 1 0.7 6 Drysus 26.5 0.012 0.1 55 1 0.5 6 3. RESULTS Reference system In case the set temperature is limited to 22°C (see Error! Reference source not found.Error! Reference source not found.), the absolute humidity is 70% of the time above the threshold of 0.012kg/kg defined by ASHRAE 55. This gives an average relative humidity of 69% with peaks above 80%. Field tests in Singapore done by Sekhar [22] show that set points of 22°C and lower are used to compensate the uncomfortable high humidity. The yearly electricity use for the reference case with set point 22°C is 3647 kWh/a. Figure 6: Reference case with fan coils – set temperature room 22°C – absolute humidity[kg/kg] and temperature [°C] living. Error! Reference source not found. shows that with a set temperature of 24°C, the absolute humidity is the whole summer above 0.012kg/kg which is an unhealthy environment [4]. The yearly electricity use for the reference case is 3062 kWh/a. The relative humidity of the reference case (Error! Reference source not found.) is mainly between 65 and 75% with peaks of 80% which will intensify mold growth. Dehumidification is a must to get a comfortable and healthy indoor environment. The energy use of the reference system with humidity control (reheat) is 5832 kWh/a. Absolute humidity living kg/kg Dry bulb temperature living °C Absolute humidity living kg/kg Dry bulb temperature living °C Figure 7: Case with fan coils – set temperature room 24°C – absolute humidity[kg/kg] and temperature [°C] living. Figure 8: Reference case with fan coils - set temperature room 24°C – living temperature and relative humidity Drysus Error! Reference source not found. and Error! Reference source not found. shows that the Drysus system results in stable room temperature and room humidity. The absolute humidity is limited to 0,012kg/kg which results in a relative humidity lower than 60% for 26.5°C room temperature. These conditions are comfortable and are considered as healthy. No reheat with an external heat source was needed. No overcooling or too humid air disturbed the process. The yearly energy use for 26.5°C set temperature is 3058kWh/a, for 24°C set temperature it is 3386 kWh/a. Relative humidity living % Dry bulb temperature living °C Absolute humidity living kg/kg Absolute humidity outdoor Dry bulb temperature living °C Figure 9: Drysus system – living temperature and absolute humidity – outdoor absolute humidity Figure 10: Drysus system – living temperature and relative humidity – outdoor relative humidity The Drysus process exists out of 5 steps starting with the outdoor condition. Those 5 steps are illustrated in Error! Reference source not found. to Error! Reference source not found.. Step 1: A thermal wheel exchanges energy between the fresh outdoor air (A1) and the exhaust air (A9) to get air condition (A2) of Error! Reference source not found.. Step 2: Air (A2) is precooled in the plate heat exchanger to get condition (A3) of Error! Reference source not found.. Step 3: Air (A3) is cooled in the cooling coil to get condition (A4) of Error! Reference source not found.. Step 4: Part of air (A4) is recycled (F2) to the plate heat exchanger to get condition (A7) of Error! Reference source not found.. Relative humidity living % Relative humidity outdoor Dry bulb temperature living °C Step 5: Air (A7) is mixed with air (A6) to get condition (A8) of Error! Reference source not found.. Those air conditions are presented in a psychrometric diagram (Error! Reference source not found. and Error! Reference source not found.). Error! Reference source not found. shows the different temperature steps. The heat exchanger P1 treats the total exhaust air flow, inclusive the not conditioned air of the kitchen and the bathroom which results in an exhaust air temperature above 26.5°C. The supply air has to be cooled to 16°C to get enough dehumidification. The warmer the set temperature of the mixed air the higher the flow ratio of (F2) to go back to the plate heat exchanger. Figure 11: Process temperatures of the Drysus for the period [3312,3552] The absolute humidity is presented in Error! Reference source not found.. This figure shows that there is sometimes an extra small dehumidification during step 2. The space between the dark blue line (A2) and the pink line representing condition A3, reflects the dehumidification that occurs in the plate heat exchanger D1. Figure 12: Process absolute humidity of the Drysus for the period [3312,3552] The cooling coil is controlled by the targeted absolute humidity. When there is a risk for overcooling the air leaving the cooling coil is fully or partly reheated with the warmer air entering the Drysus. Error! Reference source not found. shows the modulating opening ratio of the damper. The lower the set temperature of the Drysus the more situations will occur that less air has to be reheated which will result in more fluctuations of the damper opening. T outdoor A1 °C T out P1 A2 °C T out second step D1 A7 °C T mixed air A8 °C m T out D1 A3 °C T out cooling coil A4 °C AH outdoor A1 kg/kg AH out P1 A2 kg/kg AH out second step D1 A7 kg/kg AH mixed air A8 kg/kg m AH out D1 A3 kg/kg AH out cooling coil A4 kg/kg Figure 13: Opening ratio damper Drysus, outdoor absolute humidity and absolute humidity output Drysus The psychrometric diagram of Error! Reference source not found. shows the conditions of hour 3317.25 when 100% of the flow is recycled to the plate heat exchanger. In this case condition A7 coincide with condition A8. A small dehumidification of 0.00027kg/kg is realized with the heat recovery. The air must be cooled to 17°C dry bulb to get the requested dehumidification. 100% of the over-cooled air is lead to the second channels of plate heat exchanger D1 to be reheated. The targeted temperature is 26.5°C but the plate heat exchanger could only reheat to 25°C. With the Drysus the choice can be made at which temperature and which absolute humidity the dehumidified air is supplied to the room. With this system it is possible to create comfort using a higher air velocity and a higher room temperature [23-25]. The precooling in the heat exchanger (A2-A3) takes 46.6% of the total needed cooling (A2-A4). Figure 14: Cooling and dehumidification cyclus of the Drysus, second substream is 100% of the airflow In Error! Reference source not found., which gives the conditions for time 3375.35h, only 68% of the air flow is returned to the plate heat exchanger to get the targeted mixed air temperature of 26.5°C. The precooling in the heat exchanger (A2-A3) takes 42.7% of the total needed cooling (A2-A4). Opening ratio damper D5 AH mixed air A8 kg/kg m AH outdoor A1 kg/kg Figure 15: Cooling and dehumidification cyclus of the Drysus, second substream is 68% of the airflow 4. CONCLUSIONS The Drysus is a dehumidification system consisting out of a plate heat exchanger, a cooling coil and a damper section. The cooling coil is controlled to get the targeted absolute humidity, the dampers are controlled to get the targeted temperature. No extra reheating is needed to avoid overcooling or the get a constant absolute humidity. The Drysus has a separate chiller controlled by the outdoor absolute humidity. The chiller for the fan coils work with a high leaving water temperature which avoids an extra latent load in the fan coils. The Drysus control keeps the absolute humidity below the threshold of 0.012kg/kg and the relative humidity below 60%. The plate heat exchanger of the Drysus takes care of the reheat function. No over-cooling occurs. The plate heat exchanger eliminates the need of an external heat source to avoid the risk of over-cooling. The optimization of the chiller performance combined with the increased temperature set point makes it possible to create an increased comfort without extra energy use. The yearly energy use of the Drysus, with 26.5°C living and bedroom temperature, 0.012kg/kg absolute humidity, has the same energy use as the reference system without humidity control. Compared to the reference system with humidity control, an energy saving of 48% is realized. REFERENCES [1] N. Ma, D. Aviv, H. Guo, and W. W. Braham, "Measuring the right factors: A review of variables and models for thermal comfort and indoor air quality," Renewable and Sustainable Energy Reviews, vol. 135, p. 110436, 2021. [2] W. Shakun, "The causes and control of mold and mildew in hot and humid climates," ASHRAE Transactions, vol. 98, no. 1, pp. 1282-1292, 1992. [3] D. Jareemit et al., "Evaluation of indoor mold growth relative to indoor humidity using a multizone modeling," in Proc. CLIMA, 2013. [4] W. R. Beckwith, "Advanced Technology for Economical Dehumidification to Improve Indoor Air Quality," 1996. [5] S. Kubba, "Indoor environmental quality," LEED Practices, Certification, and Accreditation Handbook, p. 211, 2010. [6] A. Baughman, "Indoor Humidity and Human Health--Part I: Literature Review of Health Effects of Humidity," 1996. [7] Refrigerating, ASHRAE Handbook, 1985 Fundamentals: An Instrument of Service Prepared for the Profession Containing Technical Information. American Society of Heating, Refrigerating and Air-Conditioning Engineers, 1985. [8] S. C. Sekhar, "Thermal comfort in air‐conditioned buildings in hot and humid climates–why are we not getting it right?," Indoor air, vol. 26, no. 1, pp. 138-152, 2016. [9] P. Mazzei, F. Minichiello, and D. Palma, "HVAC dehumidification systems for thermal comfort: a critical review," Applied thermal engineering, vol. 25, no. 5-6, pp. 677-707, 2005. [10] D. La, Y. Dai, Y. Li, R. Wang, and T. Ge, "Technical development of rotary desiccant dehumidification and air conditioning: A review," Renewable and Sustainable Energy Reviews, vol. 14, no. 1, pp. 130-147, 2010. [11] Z. Ding et al., "On-site measurement and simulation investigation on condensation dehumidification and desiccant dehumidification in Hong Kong," Energy and Buildings, vol. 254, p. 111560, 2022/01/01/ 2022, doi: https://doi.org/10.1016/j.enbuild.2021.111560. [12] A. T. Mohammad, S. B. Mat, M. Y. Sulaiman, K. Sopian, and A. A. Al-abidi, "Survey of liquid desiccant dehumidification system based on integrated vapor compression technology for building applications," Energy and Buildings, vol. 62, pp. 1-14, 2013/07/01/ 2013, doi: https://doi.org/10.1016/j.enbuild.2013.03.001. [13] A. Gurubalan and C. J. Simonson, "A comprehensive review of dehumidifiers and regenerators for liquid desiccant air conditioning system," Energy Conversion and Management, vol. 240, p. 114234, 2021/07/15/ 2021, doi: https://doi.org/10.1016/j.enconman.2021.114234. [14] W. Stark, "Dual pass cooling plate type cross flow air to air heat exchanger with air flow damper controls," ed: Google Patents, 1999. [15] L. Landuyt, S. De Turck, J. Laverge, M. Steeman, and N. Van Den Bossche, "Balancing environmental impact, energy use and thermal comfort: Optimizing insulation levels for The Mobble with standard HVAC and personal comfort systems," Building and Environment, vol. 206, p. 108307, 2021/12/01/ 2021, doi: https://doi.org/10.1016/j.buildenv.2021.108307. [16] S. Verbruggen, M. Delghust, J. Laverge, and A. Janssens, "Stochastic Occupant Behaviour Model: Impact on residential energy use," in Building Simulation 2019, 16th IBPSA International Conference and Exhibition, 2019, vol. 16: International Building Performance Association (IBPSA), pp. 2310-2317. [17] R. Baetens and D. Saelens, "Modelling uncertainty in district energy simulations by stochastic residential occupant behaviour," Journal of Building Performance Simulation, vol. 9, no. 4, pp. 431-447, 2016. [18] R. Baetens, R. De Coninck, L. Helsen, and D. Saelens, "The impact of domestic load profiles on the grid-interaction of building integrated photovoltaic (BIPV) systems in extremely low-energy dwellings," in Zero Emission Buildings, 2010, pp. 3-14. [19] A. Reinhardt et al., "On the accuracy of appliance identification based on distributed load metering data," in 2012 Sustainable Internet and ICT for Sustainability (SustainIT), 2012: IEEE, pp. 1-9. [20] A. ASHRAE, "Standard 55-2017. Thermal Environmental Conditions for Human Occupancy. Atlanta: American Society of Heating, Refrigerating, and Air-Conditioning Engineers," Inc, Atlanta, 2017. [21] F. Tartarini, S. Schiavon, T. Cheung, and T. Hoyt, "CBE Thermal Comfort Tool: Online tool for thermal comfort calculations and visualizations," SoftwareX, vol. 12, p. 100563, 2020. [22] C. Sekhar, "Good humidity control: hot, humid climates," ASHRAE Journal, vol. 55, no. 1, pp. 68-71, 2013. [23] N. Yamtraipat, J. Khedari, and J. Hirunlabh, "Thermal comfort standards for air conditioned buildings in hot and humid Thailand considering additional factors of acclimatization and education level," Solar Energy, vol. 78, no. 4, pp. 504-517, 2005/04/01/ 2005, doi: https://doi.org/10.1016/j.solener.2004.07.006. [24] Y. Zhai, Y. Zhang, H. Zhang, W. Pasut, E. Arens, and Q. Meng, "Human comfort and perceived air quality in warm and humid environments with ceiling fans," Building and Environment, vol. 90, pp. 178-185, 2015. [25] C. Cândido, R. J. de Dear, R. Lamberts, and L. Bittencourt, "Air movement acceptability limits and thermal comfort in Brazil's hot humid climate zone," Building and Environment, vol. 45, no. 1, pp. 222-229, 2010/01/01/ 2010, doi: https://doi.org/10.1016/j.buildenv.2009.06.005. GESTIÓN EFICIENTE DE LOS SERVICIOS ECOSISTÉMICOS DEL TERRITORIO A LA ACTIVIDAD URBANA. UNA VISIÓN METODOLÓGICA PARA LA GOBERNANZA DEL CAPITAL NATURAL Josep Lluís Miralles-Garcia1, Eric Gielen2, Sergio Palencia Jiménez3 1 Dr. Ingeniero de Caminos, Canales y Puertos, Profesor Titular de Urbanística y Ordenación del Territorio, ETS d’Enginyers de Camins, Canals i Ports, Universitat Politècnica de València, c/ Camí de Vera s/n, 46022, València (España); 2Dr. Ingeniero Agrónomo, Profesor Contratado Doctor de Urbanística y Ordenación del Territorio, ETS d’Enginyers de Camins, Canals i Ports, Universitat Politècnica de València, c/ Camí de Vera s/n, 46022, València (España); 3Dr. Dr. Ingeniero de Caminos, Canales y Puertos, Profesor Asociado de Urbanística y Ordenación del Territorio, ETS d’Enginyers de Camins, Canals i Ports, Universitat Politècnica de València, c/ Camí de Vera s/n, 46022, València (España) e-mail: jlmirall@urb.upv.es 1 RESUMEN Hace tiempo que se ha producido en todo el mundo un esfuerzo por estudiar y poner en práctica nuevas tecnologías y procesos con el objetivo final de la sostenibilidad de las actividades sociales y económicas de la sociedad en sus muy numerosas y múltiples facetas. Sin embargo, muchos indicadores muestran que estamos lejos de una situación de sostenibilidad. El presente escrito analiza los principales problemas identificados en el ámbito geográfico de la Comunidad Autónoma de València (España) para alcanzar cotas tangibles de sostenibilidad. Entendiendo que el territorio incluye como parte de él un capital natural (o infraestructura verde) que produce unos servicios ecosistémicos necesarios para las actividades sociales y económicas que fundamentalmente se desarrollan en las ciudades, se identifican los principales criterios e instrumentos que se están utilizando tales como el planeamiento urbanístico y territorial, la infraestructura verde, la evaluación estratégica ambiental y los indicadores de sostenibilidad, entre otros, valorando el éxito de su utilización y, sobre todo, los problemas de gestión para la aplicación su aplicación eficiente. A partir de este análisis, se desarrollan posibles formas de gestión y gobernanza con el objetivo de hacer viable una gestión ambiental en tiempos compatibles con el desarrollo de las actividades económicas y sociales. Todo ello en un marco ambiental que obviamente es transversal y holístico, con unos cambios tecnológicos que a veces son extraordinariamente rápidos y unos cambios continuos en el conocimiento de los procesos ambientales que se producen en el territorio con su propia regulación legal. PALABRAS CLAVES: Gobernabilidad ambiental, capital natural, servicios ecosistémicos, gestión territorial eficiente, infraestructura verde. TITLE: EFFICIENT MANAGEMENT OF TERRITORIAL ECOSYSTEM SERVICES TO URBAN ACTIVITY. A METHODOLOGICAL VISION FOR THE GOVERNANCE OF NATURAL CAPITAL ABSTRACT For a long time, society has been making an effort throughout the world studying and putting into practice new technologies and processes with the ultimate goal of the sustainability of social and economic activities in their many and multiple facets. However, many indicators show that we are far from a situation of sustainability. This paper analyzes the main problems identified in the geographical area of the Autonomous Community of Valencia (Spain) to achieve tangible levels of sustainability. Considering that the territory includes as part of it a natural capital (or green infrastructure) that produces ecosystem services necessary for social and economic activities mainly located in cities, we have identified the main criteria and instruments that are being used. These include urban and territorial planning, green infrastructure, strategic environmental assessment and sustainability indicators. The success of its use has been assessed, focusing, above all, on management problems for its efficient application. Based on this analysis, possible forms of management and governance are proposed with the aim of making environmental management viable in times compatible with the development of economic and social activities. All this in an environmental framework that is obviously transversal and holistic, with technological changes that are sometimes extraordinarily fast, and continuous changes in the knowledge of the environmental processes that occur in a territory with their own legal regulation. KEY WORDS: Environmental governance, natural capital, ecosystem services, efficient territorial management, green infrastructure. 1. INTRODUCCIÓN Es bien conocida la preocupación existente en todo el planeta por la sostenibilidad ambiental, aunque no parece que, de momento, los esfuerzos realizados estén dando resultados tangibles a nivel general. No es objetivo del presente artículo profundizar en este aspecto, pero sí recordar un marco general. La WWF publica cada dos años su informe sobre la situación ambiental del planeta (Living Planet Report). Su último informe publicado en 2020 [1] muestra una extensa gama de indicadores que apuntan al agotamiento de los recursos naturales y los servicios ecosistémico que el planeta produce. La huella ecológica no ha dejado de aumentar excepto en el período 2018-20 en el que ha disminuido la huella de carbono, aunque el consumo de recursos naturales de la humanidad sigue estando muy por encima de la capacidad del planeta para producir dichos recursos. El proceso de cambio climático es cada vez más tangible en todo el mundo y así lo muestran los informes del IPCC [2]. De hecho, hace mucho tiempo que se habla de los límites del crecimiento [3]. Más recientemente, los objetivos ODS de Naciones Unidas plantean abordar de manera general en todos los países alcanzar un conjunto de objetivos orientados hacia la sostenibilidad. Así, muchos países y regiones del mundo, desde hace tiempo, se han ido implementado políticas, medidas y acciones para tratar de conseguir esa situación sostenible de consumo de recursos y emisión de residuos. Tal es el caso de la región autónoma de la Comunidad Valenciana en España [4]. Uno de los instrumentos que se ha utilizado habitualmente desde hace mucho tiempo, tanto en España como en València, es la planificación urbana y territorial de larga tradición de uso. La planificación urbana y territorial permite el control de usos sobre el territorio y con ello el mantenimiento de espacios de valor ambiental. Particularmente, si consideramos que la denominada “huella ecológica” en realidad es el capital natural que produce los servicios ambientales que la sociedad y su economía necesitan para mantener las actividades sociales y económicas, mediante el planeamiento se pueden proteger los territorios que producen estos servicios ambientales y garantizar su continuidad. Se trata por tanto de un instrumento muy potente. Recordemos que en España existe regulado el delito penal contra la ordenación del territorio y el medio ambiente lo que convierte al planeamiento en documentos reguladores con mucha fuerza legal [5]. Se conoce que el objetivo de la sostenibilidad se centra en la sostenibilidad urbana y afecta a muchas actividades y aspectos que se producen en la ciudad. Las ciudades son unas grandes consumidoras de recursos naturales producidos en los ecosistemas rurales y unas grandes productoras de residuos que se deben tratar [6]. Una vez aprobada la Directiva Europea sobre evaluación ambiental de planes y programas (evaluación estratégica ambiental), se incorpora a la legislación española la evaluación ambiental del planeamiento urbano y territorial. La Directiva es del año 2001, España la incorpora a su legislación en 2006 y la legislación vigente es de 2013 [7]. Como es sabido, en la organización administrativa española, la administración central tiene competencias legislativas básicas en materia de medio ambiente y las comunidades autónomas (CCAA) tienen competencias legislativas ambientales complementariamente y, además, las CCAA tienen competencias legislativas exclusivas en materia de urbanismo y ordenación del territorio. Por ello, la Comunidad Valenciana, en su legislación urbanística y territorial incorpora la regulación de la evaluación ambiental del planeamiento urbanístico y territorial [8]. En este marco, se ha producido un problema de gestión ambiental grave de causas complejas. La Comunidad Valenciana tiene un total de 542 municipios y todos ellos, desde hace unos 30 años, tienen un planeamiento urbanístico aprobado y vigente (con alguna excepción por problemas jurídicos). En estos momentos, el proceso de modificación-actualización de un plan general está tardando, hasta su aprobación definitiva, una media de 12 años. En algún caso extremo el proceso ha durado 25 años. En su mayoría se trata de municipios pequeños de menos de 1.000 habitantes [9]. Resulta evidente que un instrumento de intervención en la ciudad y el territorio que tiene, entre otros, el objetivo de preservar el Capital Natural que produce servicios ecosistémicos necesarios para la sostenibilidad es totalmente ineficiente y más que una solución se convierte en una barrera. Esta situación existe en general en España desde hace unos 5-10 años y las causas que la explican son complejas y diversas. Esta ponencia muestra un análisis del proceso y de las causas que explican esta situación. 2. INSTRUMENTOS PARA LA GESTIÓN AMBIENTAL: LA EVALUACIÓN ESTRATÉGICA AMBIENTAL EN ESPAÑA Y LA COMUNIDAD VALENCIANA En la figura 1 se puede observar el proceso de evaluación estratégica ambiental del planeamiento urbanístico y territorial en la Comunidad Valenciana. Dicho proceso muy similar al que se produce en España a nivel estatal o en otras comunidades autónomas. Recordemos que, en cumplimiento de la Directiva Europea 2001/42 y del Convenio Aarhus ratificado por España, la evaluación ambiental de planes y programas es un proceso de participación pública en la toma de decisiones ambientales en el que los ciudadanos tienen derecho a disponer de la información ambiental y a formular propuestas cuando todas las opciones están abiertas y que dichas propuestas deben ser atendidas por la administración justificando su decisión cuando no se aceptan. Por tanto, los ciudadanos tienen derecho a representar intereses generales ambientales incluso en contra de la administración pública. Justamente por ello, todo proceso de decisión para la aprobación del plan exige un proceso Figura 1. Esquema general del proceso público de evaluación estratégica ambiental en la Comunidad Valenciana. previo de participación pública en la toma de decisiones. Sin embargo, este principio jurídico genera un proceso de “feedback” o bucle continuo cada vez que se produce una modificación del plan que, obviamente, no ha sido objeto previo de información pública sustrayendo así el derecho a la participación en la toma de decisiones. En la figura 2 se puede observar, con carácter orientativo, los períodos de tiempo necesarios para ejecutar las distintas fases del proceso. El proceso está compuesto por una secuencia de fases técnicas y fases políticas. Las fases técnicas se corresponden con la elaboración de los documentos técnicos mientras de las fases políticas se corresponden con procesos de toma de decisión. Figura 2. Tiempos orientativos de duración de cada fase de proceso de evaluación estratégica ambiental en la Comunidad Valenciana. Las fases técnicas suelen tener tiempos de producción/ejecución más acotados mientras que las fases políticas de toma de decisiones son muy impredecibles. Normalmente las fases políticas requieren de un proceso previo de redacción de informes por funcionarios para garantizar que la toma de decisiones es conforme a la legislación vigente. El tiempo de elaboración de estos informes es muy variable, pero puede ser de varios meses y, a veces, incluso de más de un año. Adicionalmente, la toma de decisiones políticas, obviamente, está afectada por diversas maneras de entender la realidad y cómo debería ser o cuál debería ser el modelo territorial y urbano deseable lo que a veces produce fuertes contrastes de pareceres. En el proceso de evaluación estratégica ambiental participan tres tipos de organismos de la administración pública: el órgano ambiental, el órgano promotor y el órgano sustantivo. El órgano ambiental es el organismo o parte de la administración pública encargada de redactar los documentos ambientales, concretamente el Documento de Alcance que define el contenido del Estudio Estratégico Ambiental y Territorial a realizar (incluye un Plan de Participación Pública que se inicia con la elaboración del propio documento) y la Declaración Ambiental y Territorial Estratégica (equivalente a una Declaración de Impacto Ambiental). El organismo promotor es aquel que promueve la redacción y aprobación de un plan. En el caso de planes urbanísticos municipales, el organismo promotor es el Ayuntamiento del municipio (existen algunas excepciones). El órgano sustantivo es el organismo competente para la aprobación definitiva del plan. En el caso de planeamiento urbanístico y territorial, es la Comisión Territorial de Urbanismo que es una Comisión de la Generalitat Valenciana creada específicamente a dichos efectos. En el caso de la Comunidad Valenciana existen tres, una para el ámbito territorial de la provincia de Castellón, otra para la provincia de València y la tercera para la provincia de Alacant. La Comisión Territorial es la que recoge toda la documentación urbanística y ambiental y, previo informe técnico que analiza la validez jurídica del proceso, decide, en su caso, la aprobación o no del planeamiento. Es fácil comprender que el proceso, en sí mismo, es complejo. Además, los documentos ambientales son válidos por dos años y, por tanto, tienen fecha de caducidad. El primer documento ambiental, el Documento de Alcance, no suele ser un limitante, porque una vez el promotor, es decir, el ayuntamiento en el caso de los planes urbanísticos aprueba para su exposición al público la versión inicial del plan, la caducidad queda interrumpida. En las situaciones normales, se trata de un plazo suficiente. En cambio, en el caso de la Declaración Estratégica Ambiental y Territorial no es así. De hecho es bastante normal que dicha declaración obligue a cambios significativos lo que significa generar una nueva versión del plan (lo que requiere su tiempo), nueva aprobación por el ayuntamiento promotor, nueva exposición al público y proceso de participación pública (necesaria porque el derecho ciudadano a participar en la toma de decisiones requiere, obviamente, del conocimiento previo y público de los contenidos del plan que se pretende aprobar) que se puede alegar por los ciudadanos y también se somete a consultas. Por supuesto, el ayuntamiento debe responder y atender a la nueva tanda de alegaciones e informes sectoriales. Si como resultado de ello no se producen modificaciones, el proceso podrá continuar hasta su finalización. Dos años (la validez de la Declaración Ambiental) es un tiempo ajustado para todo ello. Ahora bien, si como resultado de todo ese proceso, hay nuevas modificaciones, será necesaria una nueva Declaración Ambiental. Si transcurren los dos años sin aprobar una nueva versión del plan, la Declaración Ambiental decae y el proceso se deber reiniciar desde su origen. 3. DISFUNCIONES IDENTIFICADAS EN EL PROCESO DE EVALUACIÓN ESTRATÉGICA AMBIENTAL En el vigente proceso de evaluación estratégica ambiental se producen un conjunto de disfunciones generadas por diferentes causas. Tal y como se ha señalado en el punto anterior, la revisión de un plan general municipal puede durar en situación optimista unos 7-8 años siendo la media que se está tardando en el caso del planeamiento urbanístico de la provincia de València unos 12 años. Desde un punto de vista técnico, esta situación no es aceptable, siendo este parecer unánime. Pensemos a manera de ejemplo que los fondos extraordinarios de la Unión Europea NEXT GENERATION para la recuperación post-covid se han programado para ser utilizados en un período de 3 años. Por tanto, si un municipio necesitara revisar su plan urbanístico para aplicar estos fondos en una inversión en su municipio, directamente no los podría utilizar. Y, en general, no es razonable tardar 12 años para aprobar un plan urbanístico necesario para resolver problemas. Por otro lado, el planeamiento urbanístico municipal regula los usos en el suelo no urbanizable (rural) y establece protecciones en dicho suelo. Estas protecciones incluyen las ya vigentes generadas por leyes o por el planeamiento territorial. Todo este suelo protegido por motivos ambientales constituye el Capital Natural identificado en el municipio, también denominado infraestructura verde. Identificar este Capital Natural y garantizar su mantenimiento por los servicios ecosistémicos que produce, es esencial para conseguir la sostenibilidad de la sociedad de forma que, progresivamente, los servicios ambientales consumidos sean equivalentes a los producidos en el territorio. Evidentemente, si se tardan 12 años en hacer efectiva esa intervención, el instrumento de intervención deviene ineficiente. Por otro lado, a nivel técnico, se presupone que el año horizonte de la prospectiva del plan es a 10 años vista. Resulta una contradicción flagrante que se elabore un plan con una previsión de desarrollo a 10 años (que no de vigencia, ya que la vigencia, una vez aprobado, es indefinida) y se tarde 12 años en elaborarlo. Las disfunciones que presenta el proceso de evaluación ambiental se pueden clasificar en dos tipos: estáticas y dinámicas. Las disfunciones estáticas se refieren a aquellas asociadas a los contenidos del conjunto de la documentación del plan, incluida la documentación ambiental. Las disfunciones dinámicas se refieren a aquellas asociadas a la propia dinámica del proceso de participación. Las disfunciones estáticas identificadas son: - Sobre extensión de estudios específicos complementarios del planeamiento urbano (sobre análisis) - Pérdida de la visión sistémica integrada (superposición de visiones sectoriales) - Pérdida del sentido de la escala de trabajo asociada al planeamiento urbanístico (ausencia de jerarquía en la evaluación ambiental) - Pretensión de analizar todos los problemas de la ciudad en el plan urbano (intervención total imposible) - Pretensión de abordar todos los problemas ambientales mediante la intervención a través del plan urbano (visión ambiental total imposible) Las disfunciones dinámicas identificadas son: - Participación pública ineficiente (bucle plan-participación-plan) - Criterio jurídico imposible sobre la participación previa (bucle ad-infinitum) - Pretensión de adaptar continuamente el plan durante su proceso de elaboración a los continuos cambios sociales, económicos y ambientales (dinámica del cambio continuo) - Tutela ambiental administrativa de criterios cambiantes (tutela de criterios cambiantes) 4. ANÁLISIS DE DISFUNCIONES ESTÁTICAS Sobre-análisis En España existe una larga tradición de planeamiento urbanístico. Considerando el Proyecto de Ensanche de Ildefonso Cerdá de aproximadamente 1860 como uno de los primeros planes, estamos hablando de unos 150 años. Y se trata de una práctica muy consolidada. Esta realidad ha hecho, que progresivamente, se trate de utilizar el planeamiento urbano para la intervención en la ciudad por cualquier motivo. Obviamente, las ciudades concentran la inmensa mayoría de actividades de todo tipo por lo que es muy directa la tentación de aprovechar el plan general para ampliar sus objetivos de intervención en la ciudad. Así, la legislación sectorial ha ido incorporando la obligación de realizar estudios complementarios en el proceso de redacción del planeamiento urbanístico. En el caso valenciano, al planeamiento urbano se le incorporan los siguientes estudios complementarios, bien entendido que la lista puede variar según la legislación vigente en cada momento y el tamaño del municipio: - Catálogo de bienes y espacios protegidos - Estudio de Paisaje - Informe de Viabilidad Económica - Memoria de Sostenibilidad Económica - Informe de Impacto de Género - Estudio de tráfico, de movilidad y transporte - Estudio del potencial de vivienda y de suelo para actividades económicas - Estudio acústico - Estudio de inundabilidad - Estudio de recursos hídricos - Informe de Sostenibilidad Ambiental/Estudio Estratégico Ambiental y Territorial - Otros de acuerdo con la legislación sectorial Este largo listado genera un problema técnico importante. Desde la visión sistémica del planeamiento urbanístico y territorial [10], el proceso de elaboración del plan implica un conjunto de análisis sectoriales sobre distintos aspectos de la realidad urbana y, después, un análisis integrado en el que se relacionan todos esos aspectos entre sí para generar una visión global integrada de la problemática como base para definir un modelo urbano y territorial a futuro. Por tanto, los análisis sectoriales no pueden ser un añadido complementario al plan sino parte del mismo en la fase de análisis. Desde un punto de vista jurídico, no se acepta el estudio complementario como parte de la memoria informativa del plan en la que se realizan los análisis sectoriales. Además, en términos técnicos, si el plan urbano va a proponer un modelo urbano y territorial a una escala de 10.000, los análisis se realizan para generar resultados a esa escala de trabajo. Por ejemplo, respecto de la inundabilidad, en la Comunidad Valenciana existe una extensa base de datos geográficos sobre el territorio entre la cual se proporciona cartografía sobre el riesgo de inundabilidad [11] y además existe un plan territorial de riesgo de inundabilidad de obligado cumplimiento y también existen otras de otras fuentes. Por tanto, la cartografía de riesgo de inundabilidad existe a escala 1:25.000 o 1:50.000 según el caso y, a efectos de planificación, es suficiente ajustar los bordes de las áreas de riesgo a la escala 1:10.000. No necesario un estudio nuevo de mayor detalle que puede ser muy costoso tanto en tiempo como económicamente. Un razonamiento similar es aplicable a la casi totalidad del resto de estudios. Por ejemplo, el Catálogo de Bienes y Espacios Protegidos, que considero un documento importante y de gran valor para mantener el patrimonio arquitectónico y cultural de todo tipo, se elabora mediante fichas que, en su gran mayoría, se trabajan a escala de proyecto 1:500 o 1.1000 apropiada para identificar los elementos a catalogar. Solo cuando se definen zonas o áreas de protección, la escala de trabajo es 1:5.000 o 1:10.000. Al incorporar este documento al plan general, se obliga a un trabajo ingente que, en su mayor parte, es innecesario para elaborar la propuesta de modelo territorial a escala 1:10.000. De esta manera, se carga la elaboración del plan general con una cantidad de análisis y trabajo que repercute directamente en el tiempo necesario para realizarlo y en su coste económico. Superposición de visiones sectoriales Otra consecuencia habitual de este proceder es la práctica de subcontratar los estudios específicos. Es decir, si hay que hacer complementariamente un estudio específico X, se busca un especialista que realice ese estudio independientemente del proceso general de análisis sectorial e integrado. No necesariamente es así, ya que el equipo base puede mantener un proceso integrado coherente pero siempre existe ese riesgo. En este caso, el plan se convierte en una superposición de estudios sectoriales que pierde la visión global. Ausencia de jerarquía en la evaluación ambiental Desde que surge la idea del planeamiento urbano y territorial en su concepción más moderna a partir del Movimiento de la Arquitectura Moderna, surge al mismo tiempo la idea de la intervención jerarquizada según la escala de trabajo. Se es consciente de que el territorio y la ciudad son realidades transversales y holística que, de hecho, incluyen todas las actividades sociales y económicas de todo tipo y que esta realidad tan compleja no se puede abordar en todos sus aspectos en un tiempo razonable sin hipotecar la capacidad del plan como instrumento de intervención en esa realidad. Ciertamente, desde aquellos años de la década de 1920 hasta la actualidad, la tecnología se ha desarrollado mucho, especialmente en el campo de la informática y de la cartografía. Aún así, aquel principio sigue siendo totalmente válido y por ello, en todos los países del mundo, el planeamiento urbanístico y territorial queda jerarquizado en función de la escala de trabajo bajando desde la escala de los grandes territorios hasta la escala de proyecto. El contenido de los instrumentos de intervención en la ciudad y el territorio está adaptado a la correspondiente escala de trabajo. En el caso valenciano, este planteamiento no ha llegado a la visión ambiental. Así, los documentos ambientales exigen al planeamiento urbano aspectos muy diversos no necesariamente asociados a la escala de trabajo (por ejemplo, citando algunos casos exagerados: el tratamiento del color en las edificaciones rurales, el diseño de balcones, la regulación de las condiciones de explotación de las granjas de cría de animales en suelo rural para todos los tipos de granjas posibles …). Los informes sectoriales ambientales no tienen en cuenta la escala de trabajo propia del plan y establecen exigencias ambientales según interpretaciones propias de la legislación sectorial ambiental vigente sin tener en cuenta la escala cuando, en término técnicos, la evaluación ambiental ha de ser la propia de la escala de trabajo y no entrar en exigencias ambientales propias de otras escalas de trabajo. Si la escala de trabajo es la 1:10.000 propia para localizar el territorio que forma parte del Capital Natural que produce servicios ambientales, la evaluación ambiental ha de estar centrada en ese aspecto y no en otros de otras escalas. Intervención total imposible Utilizar el planeamiento urbano y territorial para tratar de resolver con él todos los problemas de todo tipo de la ciudad y el territorio no es posible. En los años de 1960, cuando aparecen los primeros ordenadores, ya se planteó el “urbanismo científico” suponiendo que se podría realizar una simulación funcional de cualquier ciudad utilizando las capacidades de los ordenadores. No se consiguió. Hoy día, 60 años después con una capacidad de los ordenadores infinitamente superior a la existía en aquel momento, sigue sin ser posible. El sistema urbano y el sistema territorial son muy complejos, y conforme las actividades sociales y económicas han evolucionado hacia una mayor complejidad, la ciudad y el territorio también son más complejos. Pretender abordarlo todo en un plan urbano es absurdo e imposible y solo conduce a la frustración por ausencia de resultados. Se debe volver al análisis sistémico, centrar los análisis en los aspectos significativos a la escala de trabajo correspondiente cumpliendo los dos niveles de análisis sectorial e integrado y no pretender resolver todos los problemas de todo tipo. Visión ambiental total imposible Y el mismo razonamiento sirve para la consideración de las variables ambientales. El medio ambiente incluye todos los aspectos de las actividades sociales y económicas. Pretender que en un documento del planeamiento urbano se incorpore la regulación de cualquier aspecto de dichas actividades en la ciudad o el territorio es un imposible, una quimera. En consecuencia, la evaluación ambiental del planeamiento urbanístico se debe centrar en los aspectos ambientales asociados a los objetivos del plan y su escala de trabajo. Es decir, se trata de racionalizar y hacer afectivo el análisis ambiental estructurando y jerarquizándolo en función de la escala de la intervención. La evaluación y corrección de impactos ambientales se ha de realizar escalonadamente, es decir, desagregando los niveles de intervención que quedan asociados a los distintos instrumentos de intervención en la ciudad y el territorio, asociados a su vez a la escala de trabajo. El planeamiento general produce una prospectiva con una visión global y a partir de él se desarrollan otros planes, programas, proyectos … que abordan sectorialmente aspectos específicos a escala de mayor detalle. 5. ANÁLISIS DE DISFUNCIONES DINÁMICAS Bucle plan-participación-plan Uno de los efectos que ha producido la aplicación no racional de los principios de la participación pública y del derecho del ciudadano a la participación en los procesos de toma de decisiones ambientales de acuerdo con el convenio de Aarhus es la generación del bucle que denominamos plan-participación-plan. Es decir, inicialmente se elabora una versión inicial del plan urbanístico, después se produce el proceso de participación pública en la toma de decisiones ambientales mediante la exposición pública y presentación de alegaciones y consultas a organismos públicos y privados afectados. Se estudian, analizan y contestan las alegaciones y los informes sectoriales modificando, en su caso, los aspectos correspondientes. A continuación, se elabora una segunda versión del plan con las modificaciones correspondientes. Pero claro, esta segunda versión no ha sido expuesta al público ni ha sido objeto de participación pública en la toma de decisiones ambientales. Es más, para que el público interesado pueda comprobar las modificaciones efectivamente realizadas, debe poder consultar la segunda versión y, en su caso, alegar si las modificaciones realizadas no son coherentes con los planteamientos del plan y la contestación de las alegaciones. Además, se produce el efecto monopolio de la localización de usos en la ciudad y el territorio. Imaginemos un plan que señala una zona como rural pero no protegida. Aquello ciudadanos que consideren que así está bien, no alegarán al plan. En cambio, aquellos ciudadanos que consideren que la zona rural además ha de estar protegida (con limitación de usos) alegarán para que se modifique. Supongamos que el Ayuntamiento promotor, analiza la situación y llega a la conclusión de que es mejor que esté protegida esa zona rural y se realiza el cambio. Obviamente, los ciudadanos que estaban de acuerdo con la propuesta inicial y ahora observan el cambio, no han tenido opción de manifestar sus argumentos y por tanto se ha inculcado su derecho a participar en la toma de decisiones ambientales. La manera directa de cumplir su derecho es volver a exponer al público la versión modificada del plan abriendo un nuevo período de participación pública con alegaciones e informes sectoriales. Pero entonces entramos en un bucle administrativo de participación pública si tras el proceso de participación pública de la segunda versión se producen nuevas modificaciones, lo que es bastante habitual, especialmente si se trata de un municipio complejo. El problema se hace más grave si, tras varias exposiciones públicas, la Declaración Estratégica Ambiental y Territorial establece preceptivamente la obligación de realizar modificaciones sustanciales no consideradas anteriormente en los informes sectoriales, ni señaladas en el Documento de Alcance inicial que establece el contenido del Estudio Estratégico Ambiental y Territorial. En este supuesto (no imaginario), se debe realizar una nueva versión del plan con su correspondiente proceso de participación pública en la toma de decisiones. Siendo la Declaración un documento válido por 2 años, es fácil que no sea suficiente para completar el proceso de revisión. Y es posible que, llegados a este punto, tras un largo período de trabajos, el ayuntamiento promotor decida abandonar la elaboración del plan, colapsando así la actualización racional de los usos del suelo en el municipio y la gestión ambiental de su territorio. Bucle ad-infinitum El bucle explicado en el apartado anterior tiene el riesgo de convertirse en un bucle continuo ad-infinitum si las modificaciones son continuas. De hecho, el sistema jurídico español, según la jurisprudencia, considera que prima el derecho del ciudadano a participar en la toma de decisiones ambientales y, en consecuencia, siempre que se produce una modificación en el plan, debe volverse a exponer al público. Es un problema grave, ya que pueden producirse modificaciones incluso en el momento de la aprobación definitiva por la Comisión Territorial de Urbanismo cuando aprueba planes de forma condicionada a realizar alguna modificación (normalmente para cumplir algún imperativo legal). En este supuesto extremo, obviamente, el proceso de elaboración del plan y de evaluación ambiental resulta un esfuerzo absolutamente inútil y muy frustrante, especialmente desde el paradigma de la sostenibilidad como objetivo social y económico para la supervivencia de la vida en el planeta. Dinámica del cambio continuo Tal y como ya se ha expuesto, con la estructura actual del proceso de elaboración del planeamiento urbanístico y territorial y su evaluación ambiental estratégica, idealmente su duración puede ser unos 7-8 años y, actualmente, la media tiempo de los ya aprobados está en unos 12 años. En estos períodos de tiempos, los cambios que se producen en la sociedad son notables y significativos en muy diversos aspectos. Se producen cambios en el conocimiento científico de las variables ambientales, su evolución, sus características y, en consecuencia, de los criterios para su gestión. Particularmente de los ecosistemas naturales, de las variables que constituyen el Capital Natural y del tratamiento de los residuos. Ahora se habla con insistencia de la descarbonización, por ejemplo. Estos cambios a veces son muy rápidos. La tecnología también cambia muy rápidamente y altera las actividades sociales y económicas. Como sabemos, los cambios en las tecnologías de comunicación, en el desarrollo y mejora de aplicaciones para la gestión digital administrativa, de producción y gestión de cartografía … son muy determinantes y, a menudo, afectan a los usos sobre el territorio y a los procesos de elaboración de planes y toma de decisiones. También existe un importante desarrollo de tecnología ambiental en muy diversos campos. Los cambios legales en España y València también son abundantes especialmente en la legislación sectorial ambiental, tanto estatal como valenciana. Muchos de ellos derivan de directivas ambientales europeas. Los cambios económicos también están siendo importantes con la crisis inmobiliaria del 2008, la crisis COVID de 2020 o las consecuencias derivadas del conflicto de Ucrania. Los cambios sociales también están siendo importantes como consecuencia del COVID y las sucesivas crisis económicas y el sistema de valores de la sociedad está en proceso rápido de cambio. Y finalmente también están los planteamientos políticos. Los ayuntamientos promotores del planeamiento urbanístico tienen períodos de gobierno de 4 años y, por tanto, cada cuatro años puede cambiar el equipo de gobierno y sus criterios urbanísticos y ambientales. En esta situación, obviamente, cuando se pretende que el plan esté actualizado a todos los cambios, se entra en una dinámica de cambios continuos en cada momento de elaboración de una nueva versión del plan que tiene como consecuencia entrar en el bucle de la inacción. Tutela de criterios cambiantes Y lo mismo se puede decir de la tutela ambiental que se ejerce a través de los informes sectoriales ambientales de la administración pública regional. Si cada vez que se produce una nueva ronda de informes ambientales, los criterios se actualizan a los cambios legales producidos o las interpretaciones legales del técnico firmante en ese momento, también se entra en el bucle del cambio continuo y la inacción. No olvidemos que los informes ambientales se producen como mínimo en tres momentos: cuando se elabora el Documento de Alcance, durante el proceso de participación pública de la versión inicial del plan y cuando se elabora la Declaración Estratégica Ambiental y Territorial. Por otro lado, dado que el conocimiento científico sobre el medio ambiente se incrementa continuamente y es imposible aplicar todo él en tiempo real, la sostenibilidad debe entenderse como un camino, un proceso de cambio continuo hacia escenarios progresivamente más sostenibles. Coherentemente con ello, para evitar situaciones de bucle, la evaluación ambiental debe realizarse en base a los conocimientos y legislación vigente en una fecha fija, dejando las actualizaciones a futuras modificaciones del plan. Paralelamente también pueden existir cambios de criterios producidos por cuestiones urbanísticas, sin embargo, en el caso de la Comunidad Valenciana, desde el año 2011, existe legalmente aprobado la Estrategia Territorial de la Comunidad Valenciana, donde se especifican los criterios urbanísticos y territoriales que deben cumplir los planes. Este documento sirve de guía urbanística en la elaboración del planeamiento motivo por el cual los criterios que se utilizan están acotados. 6. POR UN NUEVO DISEÑO DE EVALUACIÓN ESTRATÉGICA AMBIENTAL En base al análisis realizado se pueden aportar un conjunto de criterios técnicos operativos para conseguir la eficiencia de los instrumentos de planeamiento urbanístico en el objetivo de alcanzar la sostenibilidad urbana. - No es posible generar un análisis y diagnóstico completo global de la realidad urbana, territorial y ambiental y sus problemáticas en un determinado territorio en un periodo de tiempo corto. Ni tampoco en un período largo porque, en este caso, si el proceso de elaboración del plan y su evaluación ambiental se alargan, los análisis quedan obsoletos. Por ello debe acotarse el objeto de análisis (variables significativas) - No es posible realizar un análisis de la problemática ambiental simultáneamente a todas las escalas de trabajo. - La sostenibilidad debe entenderse como “un camino hacia” ya que no existe de momento una definición objetiva de sociedad sostenible. Existe un proceso de avance técnico y de conocimiento en la definición de la sostenibilidad, un proceso continuo multiescalar y multifacético. Por ello, los instrumentos de intervención y su evaluación deben elaborarse en base a criterios operativos definidos y acotados claramente en un momento fijo del tiempo. Dado que los instrumentos de intervención en la ciudad y el territorio también quedan obsoletos con el paso del tiempo, en el momento de su revisión se han de revisar también los criterios ambientales operativos concretos a utilizar en la evaluación. - En este marco, la evaluación ambiental debe estar acotada no sólo a unos criterios operativos fijos en el tiempo sino también a la escala de trabajo propia del planeamiento objeto de evaluación ambiental. - Un objetivo esencial de cualquier planeamiento urbano y territorial es la identificación de los territorios que constituyen el Capital Natural que producen servicios ecosistémicos necesarios para las actividades sociales y económicas. Evidentemente se deben identificar dichos servicios y proteger adecuadamente el territorio para garantizar su producción. - Acotar las variables ambientales significativas a utilizar adecuadas a la escala de trabajo del instrumento de planeamiento a fecha fija, es absolutamente necesario para evitar el bucle de la ineficiencia. En consecuencia, se deben realizar cambios en el proceso de elaboración del planeamiento y su evaluación de forma que en el Documento de Alcance se fijen y acoten, en fecha determinada de acuerdo con los conocimientos, políticas y legislación vigente en ese momento, las variables ambientales a considerar y sus condicionantes definidos a la escala de trabajo propia del instrumento de planeamiento. De esta manera se puede elaborar el plan desde el principio considerando los aspectos ambientales previamente fijados y que no van a cambiar. Consecuentemente, la Declaración Estratégica Ambiental debe ser un chequeo o constatación de que el plan elaborado cumple con los condicionantes ambientales inicialmente fijados. Solo así se puede eliminar el bucle de la ineficiencia. Esta visión tiene tres consecuencias importantes. En primer lugar, una vez fijados inicialmente los criterios ambientales a cumplir, dichos criterios ya no cambian, aunque se aprueben nuevas leyes o aparezca nuevas técnicas o conocimientos. La aprobación del Documento de Alcance debe adquirir la condición de contrato ambiental a cumplir, no modificable posteriormente por garantía de seguridad jurídica. La segunda consecuencia es la necesidad de estandarizar los criterios ambientales a cumplir acotando de forma concreta contenidos y escala. Aunque, obviamente, dicha estandarización cambiará progresivamente de forma que cuando se inicie el proceso de redacción de un nuevo plan, el contenido estandarizado cambiará actualizándose a los cambios consolidados en el nuevo momento histórico. Así se irá consolidando el camino hacia la sostenibilidad. Finalmente, una tercera consecuencia es la necesidad de un proceso jerárquico de evaluación ambiental que acompañe al proceso jerárquico convencional de intervención en la ciudad y el territorio, de manera que cada escala de trabajo del planeamiento vaya acompañada de la evaluación ambiental propia de su escala. Y esto implica que durante el proceso de elaboración del planeamiento urbano y territorial a una determinada escala se puedan definir criterios ambientales a aplicar en las escalas de trabajo del planeamiento de desarrollo. Es decir, de la misma manera que el plan general establece criterios y condicionantes para el planeamiento que lo desarrolla, su evaluación ambiental también debe poder definir criterios, análisis y correcciones ambientales a realizar asociados a ese planeamiento que desarrolla el plan general. El proceso de elaboración de un plan general de ordenación urbana municipal no debería tardar más de 3- 4 años: un año para elaborar el documento inicial con la propuesta general y el Documento de Alcance ambiental (que debería estar estandarizado), medio año para la contratación de los trabajos (en su caso), un año para elaboración de la versión inicial, proceso de participación pública y generación de la segunda versión, medio año para la elaboración de la Declaración Ambiental chequeando el cumplimiento de los criterios del Documento de Alcance y medio año para su aprobación definitiva por la Comisión Territorial de Urbanismo. Una última reflexión, quizá se den las circunstancias históricas para plantear un cambio de la organización de la administración pública que incluya un poder ambiental independiente con la función de custodia de los ecosistemas naturales que producen los servicios ambientales necesarios para la sociedad integrando así el Capital Natural de la sociedad. Su función no sería identificarlos, éste debe ser función de la sociedad a través de su poder legislativo, pero sí de custodiarlos para mantener sus funciones sin posibilidad de que el ejecutivo o el legislativo modifiquen injustificadamente en un futuro indeterminado su condición. 7. CONCLUSIONES La necesidad de que la humanidad evolucione hacia sociedades sostenibles ambientalmente es cada vez mas acuciante. Por ello, también resulta cada vez más acuciante la necesidad de disponer de instrumentos eficientes de gestión ambiental. El planeamiento urbanístico y territorial ha sido un instrumento convencional muy potente para la gestión ambiental en España y la Comunidad Valenciana. Sin embargo, la progresiva complejidad de los procesos ambientales y de la organización de la administración está teniendo como consecuencia la ineficacia de los instrumentos. Es abordar una reforma para recuperar su eficiencia. RECONOCIMIENTOS Los autores desean reconocer desde estas líneas el inestimable trabajo que las Comisiones Territoriales de Urbanismo de la Comunidad Valenciana realizan en el proceso de tutela de la elaboración del planeamiento urbanístico. Su trabajo continuado a través de los informes de los técnicos que soportan las decisiones de las comisiones permiten realizar el seguimiento de los procesos y conocer la problemática real en la que se ha basado este artículo. REFERENCIAS 1. WWF. Living Planet Report 2020 - Bending the curve of biodiversity loss. Almond, R.E.A., Grooten M. and Petersen, T. (Eds). WWF, Gland, Switzerland, 2020 [ref. de 16 de agosto 2022]. Disponible en Web: https://f.hubspotusercontent20.net/hubfs/4783129/LPR/PDFs/ENGLISH-FULL.pdf 2. IPCC. Climate Change 2022: Impacts, Adaptation, and Vulnerability. Contribution of Working Group II to the Sixth Assessment Report of the Intergovernmental Panel on Climate Change [H.-O. Pörtner, D.C. Roberts, M. Tignor, E.S. Poloczanska, K. Mintenbeck, A. Alegría, M. Craig, S. Langsdorf, S. Löschke, V. Möller, A. Okem, B. Rama (eds.)]. Cambridge University Press. In Press, 2022 [ref. de 16 de agosto 2022]. Disponible en Web: https://www.ipcc.ch/report/ar6/wg2/ 3. MEADOWS, Donella H. Los límites del crecimiento: informe al Club de Roma sobre el predicamento de la humanidad. Fondo de Cultura Económica, 1972. 253 pp. 4. MIRALLES GARCÍA, José Luís. “Sustainability regulations in urban planning: the experience of the Autonomous Community of Valencia (Spain)”. WIT Transactions on Ecology and the Environment, 2009 (Online), vol 12, núm. 1, pp 3 - 12. 10.2495/SDP090011. 5. FISCALÍA GENERAL DEL ESTADO. UNIDAD COORDINADORA MEDIO AMBIENTE Y URBANISMO [ref. de 16 de agosto 2022]. Memoria 2020. Medio Ambiente y Urbanismo. Disponible en Web: https://www.actualidadjuridicaambiental.com/wp-content/uploads/2021/10/2021-10-Memoria- Unidad-MA-URB.pdf 6. GARDNER, GARY (Coord). Ciudades sostenibles. Del sueño a la acción, la situación del mundo 2016. Worldwatch Institut, Icaria Editorial, Barcelona, 2016. 373 pp, ISBN 9788498887419. 7. BOE. Ley 21/2013, de 9 de diciembre, de evaluación ambiental [ref. de 16 de agosto 2022]. Disponible en Web: https://www.boe.es/buscar/pdf/2013/BOE-A-2013-12913-consolidado.pdf 8. GENERALITAT VALENCIANA. DOGV. Decret legislatiu 1/2021, de 18 de juny, del Consell d’aprovació del text refòs de la Llei d’ordenació del territori, urbanisme i paisatge [ref. de 16 de agosto 2022]. Disponible en Web: https://dogv.gva.es/datos/2021/07/16/pdf/2021_7508.pdf 9. MIRALLES GARCIA, José Luis. “The management of Natural Capital. The case of Valencian Country”. Actas “1st Conference on Future Challenges in Sustainable Urban Planning & Territorial Management”, 2022. On line, [ref. de 16 de agosto 2022]. Disponible en Web: https://repositorio.upct.es/bitstream/handle/10317/10600/sciforum- 053278.pdf?sequence=4&isAllowed=y . DOI.ORG/ 10.31428/10317/10600 10. MCLOUGHLIN, J. Brian. Urban and Regional Planning: A Systems Approach. Faber & Faber, London, 1969. 331 pp. ISBN: 978-0571090051. 11. ICV, Institut Cartogràfic Valencià. Conselleria de Política Territorial, Obres Públiques i Mobilitat. Web: https://icv.gva.es/va/bases-cartograficas HACIA UN MANEJO ENERGÉTICO DESCENTRALIZADO CON PARTICIPACIÓN POPULAR Yanamari Bancroft Pérez1, Rubén Andrés Bancrofft Hernández2 12Facultad de Arquitectura, Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE 1e-mail: yana.bancroft.p@gmail.com RESUMEN El manejo de la energía de manera descentralizada constituye uno de los aspectos claves en la reducción de los actuales consumos de energía, como una estrategia sostenible. Según la literatura internacional, este manejo puede establecerse en tres fases generales: disminución del consumo energético, producción de energía y automatización de su manejo. En tal sentido, la eficiencia energética pasaría a ser el primer objetivo. No se trata de incrementar la cantidad de energía producida para ser utilizada sin límites en los procesos fundamentales de la sociedad sino de gestionar la que sea indispensable, reduciendo los costos energéticos, en el ciclo de vida del ambiente construido. Lamentablemente, el acento principal ha sido puesto en la generación local de energía renovables y, el aporte al ahorro energético priorizando un consumo responsable, no ha suficientemente priorizado, aunque existen grandes potenciales, con un adecuado uso de las edificaciones y su entorno. Las ciudades y sus edificaciones juegan un papel decisivo como base para alcanzar un manejo energético real, sistémico y con enfoque de ciclo de vida. El objetivo clave sería cómo incorporar una amplia participación popular en el manejo de los modelos energéticos que lideran el desempeño de las comunidades, los espacios públicos, las edificaciones, los espacios interiores, para alcanzar una eficiencia funcional y energética que disminuya al máximo posible los costos totales en el ciclo de vida de los procesos que en estos se desarrollan. El presente trabajo pretende incitar al aporte de ideas para reforzar un enfoque descentralizado y popular sobre la problemática. PALABRAS CLAVES: enfoque de ciclo de vida, manejo energético, eficiencia energética, ahorro energético, participación popular. TOWARDS DECENTRALIZED ENERGY MANAGEMENT WITH POPULAR PARTICIPATION ABSTRACT Decentralized energy management is one of the key aspects in reducing current energy consumption, as a sustainable strategy. According to the international literature, this management can be established in three general phases: reduction of energy consumption, energy production and automation of its management. In this sense, energy efficiency would become the first objective. It is not about increasing the amount of energy produced to be used without limits in the fundamental processes of society, but about managing what is essential, reducing energy costs, in the life cycle of the built environment. Unfortunately, the main emphasis has been placed on the local generation of renewable energy and the contribution to energy saving by prioritizing responsible consumption has not been sufficiently prioritized, although there are great potentials, with proper use of buildings and their surroundings. Cities and their buildings play a decisive role as the basis for achieving real, systemic energy management with a life cycle approach. The key objective would be how to incorporate broad popular participation in the management of energy models that lead the performance of communities, public spaces, buildings, interior spaces, to achieve functional and energy efficiency that reduces as much as possible, total costs in the life cycle of the processes that are developed in them. The present work aims to encourage the contribution of ideas to reinforce a decentralized and popular approach to the problem. KEY WORDS: life cycle approach, energy management, energy efficiency, energy saving, popular participation. 1. INTRODUCCIÓN En los infinitos universos existentes, incluido el nuestro, todo es energía en movimiento, en diferentes grados de manifestación y concentración [1]. La energía, en forma del calor y la luz del sol, vista como hecho integral y universal, es la base del desarrollo sostenible de las actividades humanas. son los únicos insumos directos que le llegan a la Tierra desde el resto del universo del cual forma parte. El Sol es el origen de las fuentes terrenales de energías que la humanidad ha empleado en las distintas etapas de su evolución. Se dice que el sol irradia hacia la tierra alrededor de 4 000 veces más energía de la que la humanidad consume. Cada metro cuadrado del territorio cubano recibe diariamente, como promedio anual, 5 kWh de energía solar, equivalente a la energía química acumulada en un litro de petróleo. Con el aprovechamiento tanto directo como indirecto de la energía solar se pueden satisfacer todas nuestras necesidades energéticas [2]. En la Sociedad una visión muy limitada de las posibilidades de la energía natural o directa y de su vínculo con el desarrollo humano y su hábitat. Por ejemplo, se habla generalizadamente de seguridad o suficiencia energéticas en función de la producción y uso de la energía eléctrica convencional o producida con recursos renovables y se obvia la incidencia del papel del uso directo de la energía presente en la Naturaleza. Los autores sostienen que el manejo del problema energético mundial debe comenzar con un enfoque en sistema, a nivel planetario, primero como un asunto social (educativo y general) y después como un hecho económico. A partir de lo anterior y para posicionar conceptualmente la problemática en estudio, se propone una clasificación alternativa de las energías actualmente disponibles en el planeta. Las energías de tipo A son las energías naturales renovables de posible uso social directo: la gravedad, el aire, el calor solar, la luz natural, las corrientes de los ríos, las mareas, etc. La de tipo B, eléctrica, que se produce con las energías naturales renovables de tipo A. El tipo C es la energía eléctrica convencional producida a partir de materias primas fósiles, por ejemplo, el petróleo. Las abundantes y permanentes manifestaciones naturales de la energía, disponibles irrestrictamente en el planeta y clasificadas aquí como de tipo A, han sido el sustento del desarrollo de las civilizaciones a lo largo del tiempo y en los infinitos ciclos de vida de los componentes del planeta. Fueron aprovechadas o utilizadas directamente con un sentido muy ecológico e intuitivo por las personas en los disimiles contextos climáticos del planeta para conformar su hábitat y lograr su desarrollo, durante todo el tiempo de la existencia humana hasta la revolución industrial del siglo XIX. Puede decirse que, hasta ese momento histórico del desarrollo humano, las personas tuvieron una decisiva participación en la apropiación y uso, personal y social, de las energías naturales disponibles para la vida humana en su hábitat y que esta forma de vínculo formaba parte de la educación y la cultura intuitivas de cada habitante del planeta. El anterior y secular vínculo de las sociedades humanas con las formas naturales de energía (tipo A) disponibles en cada lugar fue interrumpido hace menos de dos siglos, produciéndose un gran salto hacia la asistematicidad en el desarrollo social, con la pérdida de armonía del ambiente construido con la naturaleza, y los consecuentes impactos negativos en ella y en las sociedades implicadas. El desarrollo moderno, de base tecnológica y economicista, ha sido montado a partir de la producción y consumo de energía eléctrica (tipo C), utilizando combustibles fósiles, con las mencionadas consecuencias en cuanto a ecología se refiere, harto conocidas. Recién ha comenzado un regreso a la utilización de las energías naturales renovables, en este caso de manera indirecta, sistémicamente aun ineficiente, a partir de la producción y uso de energía eléctrica tipo B, sobre la base del aprovechamiento de las energías naturales o renovables. Es criterio de los autores que es posible lograr una amplia contribución popular a la equidad urbana, con beneficios de habitabilidad para todos, de manera permanente y a muy bajo costo. Para lograrlo, deberían cambiarse los paradigmas en la educación de los ciudadanos y el quehacer productivo social actual. Debería reforzarse el papel del aprovechamiento directo de las energías naturales o de tipo A, en la manera de conformar y explotar el hábitat, antes de incorporar las soluciones al uso, montadas sobre la base del consumo de electricidad en cualquiera de sus formas, que conforman el modo de vida social actual. 2. MATERIALES Y MÉTODOS Se parte de las definiciones planteadas en la Introducción, las que permiten estructurar una mirada diferente al asunto de referencia. La base es el análisis de la literatura nacional e internacional y las vivencias populares diarias de la vida en el país. El método de manejo de dicha información es convencional, de análisis y síntesis sobre la base de la experiencia de los autores. Lo anterior permite proponer consideraciones, sin pretensiones científicas, al respecto de un enfoque diferente para enfrentar un importante problema presente en el actual desarrollo de la Sociedad cubana, donde la disponibilidad y el uso de la energía juegan un papel muy relevante, social, tecnológica y económicamente. 3. DISCUSIÓN DE RESULTADOS Uso social de las energías disponibles en el ambiente construido En la problemática de la energía juega un papel muy importante lo relativo al ambiente construido, en particular las ciudades y sus edificaciones, como base para alcanzar una autosuficiencia energética real, sistémica, con la consideración de los ciclos de vida de todo lo existente en el planeta y socialmente equitativa. En el mundo desarrollado, aproximadamente el 75 % de la población vive en áreas urbanas y según las proyecciones de las Naciones Unidas, para el año 2030, el 84 % de la superficie terrestre será urbana. En los países en desarrollo, en la actualidad, el 40 % de la población vive en áreas urbanas y, según proyecciones, al año 2030 aumentará al 56 %. Las edificaciones residenciales y comerciales consumen el 40 % de la energía convencional disponible, 25 % del agua, 40 % de los recursos globales y 60 % de la electricidad.[3]. De manera general, corroborado en el artículo anteriormente mencionado, aproximadamente el 20 % de los recursos naturales y sociales, incluidos los energéticos, directa e indirectamente, se emplean para el proceso constructivo (planificación, proyecto y ejecución constructiva) y el 80 % para la explotación de las edificaciones. Existe una estrategia de sustitución de la electricidad convencional con ahorros de consumo e introducción de las energías renovables pero la misma no tiene priorizado lo suficiente el papel de lo que, en el trabajo, se considera como el tipo A de energía. A partir de lo anterior, ciertos autores han clasificado como manejo energético pasivo el que se realiza cuando se prioriza la utilización de los recursos energéticos locales, un enfoque activo cuando la prioridad es la electricidad producida con recursos energéticos no renovables, y se hace referencia a un manejo energético híbrido cuando se combinan las estrategias anteriores. La limitación de esta clasificación, en cuanto a la consideración insuficiente del uso directo de las energías renovables, es evidente. La búsqueda de la sostenibilidad en el desarrollo social pasa, de manera esencial y transversal, por la manera en que se utilizan los tres tipos de energía planteados, y de los costos directos e indirectos, visibles e invisibles que la obtención y uso de la misma genere a lo largo de los ciclos de vida mencionados. En la medida en que se aprovechen los recursos naturales de manera eficiente, sobre todo en la explotación del hábitat, responsable de la utilización de las cuatro quintas partes de ellos, se reducirían los costos en los ciclos de vida derivados de la producción antrópica de la energía eléctrica en cualquiera de sus formas. Simultáneamente, se reducirían los impactos ambientales por extracción de los recursos naturales necesarios y por la disposición de los residuos que se generan en los mencionados ciclos. Si se tiene en cuenta que la vida útil de las construcciones es de alrededor de 100 años, se evidencia la importancia del enfoque planteado para la eficiencia funcional, los costos y los impactos ambientales totales que se producen en la explotación del hábitat. De la manera en que, en el proceso de planeamiento y proyecto del ambiente construido, se tenga en cuenta el modo en que este deba comportarse, fundamentalmente en cuanto a consumos energéticos durante su explotación, dependerá el grado de sostenibilidad de su desempeño. En función de lo anterior, según su balance energético final o de sus ciclos de vida, pueden encontrarse cuatro tipos de edificaciones: De balance energético negativo (edificaciones tradicionales que requieren de un aporte de energía externo para su correcto funcionamiento), De consumo energético cercanos a cero (con consumos prácticamente nulos pero que siguen teniendo cierta dependencia energética externa, por ejemplo, el estándar Passivhaus), De consumo energético cero (cero emisiones, energía cero) y De energía plus (que con un diseño en función del aprovechamiento máximo de las energías naturales directas, complementado con el uso de energía eléctrica producida con energías renovables, tienen excedentes energéticos para uso social) [4] La tendencia de sostenibilidad energética internacional, muy incipiente aún, se inclina por la construcción de edificaciones de energía plus. En función de la importancia del asunto, se reitera que una estrategia bio-energética adecuada para reducir los costos totales del urbanismo y la arquitectura en sus ciclos de vida, debería considerar tres niveles, como se muestra en la Fig. 1. En la base del análisis y como opción básica o de partida, las urbanizaciones y edificaciones deberían conformarse, espacial y constructivamente, atendiendo a la orientación climática del entorno, con el fin de aprovechar al máximo las brisas y la iluminación diurna y manejar según corresponda la incidencia de la radiación solar. Con ello, se contribuiría a reducir el calentamiento innecesario del ambiente construido. La producción de electricidad necesaria para el funcionamiento del urbanismo y la arquitectura, a partir de las energías disponibles en el entorno, debería ser un segundo paso en el análisis, como una opción complementaria. Finalmente, y solamente como una última opción, cuando ya se ha garantizado un diseño en correspondencia con los dos niveles anteriores, el uso de la energía convencional para la operación y manejo del del ambiente construido. Lo que se debería no es incrementar la cantidad de energía convencional producida para ser utilizada sin límites en los procesos fundamentales de la sociedad sino de gestionar la que sea indispensable, reduciendo los costos energéticos desde el proceso de planeamiento y proyecto hasta el fin de la vida útil de lo construido, por la vía de aprovechar las energías naturales en directo. Situación climática y energética actual en cuba El clima de Cuba es del tipo tropical, estacionalmente húmedo, con influencia marítima y rasgos de semicontinentalidad, según datos aportados por el Instituto de Meteorología [5]. Por su posición geográfica cercana al Trópico de Cáncer, se reciben anualmente altos valores de radiación solar, con vientos de dirección este mayoritariamente; aunque en el verano giran más al sudeste. En términos de diseño, en este tipo de clima deben garantizarse tres objetivos: reducir el calentamiento interno innecesario por cualquier vía, potenciar la ventilación natural en los espacios que lo necesiten y asegurar la iluminación diurna de todos los espacios. En tal sentido, la orientación apropiada al viento y al sol de los espacios en las edificaciones, son determinantes, una vez se hayan garantizado las condiciones del entorno urbano que posibiliten el aprovechamiento de estos recursos naturales en las edificaciones. Energéticamente, Cuba se encuentra entre el grupo de países dependientes de hidrocarburos [6]. La explotación de sus recursos naturales correspondientes no satisface la demanda energética existente, por lo que se ve obligada a importar una buena cantidad del combustible para el consumo nacional, tanto en el sector estatal como en el residencial. Las deficiencias del modelo energético cubano comenzaron a visualizarse hacia finales de los 90 del siglo pasado con el derrumbe del campo socialista. El país estuvo obligado a modificar los niveles de consumo al eliminarse o disminuir radicalmente el intercambio favorecedor existente con los países socialistas. Comenzó un denominado “Período Especial”, durante el cual las materias primas y recursos necesarios para dotar de electricidad a la sociedad, no pudieron importarse, muy lejos de haber creado las condiciones para una independencia energética que permitiera satisfacer los niveles de consumo. Desde finales de 1997, y a partir de la crisis energética generada, se instauró el Programa de Ahorro de Electricidad en Cuba, que introdujo un cambio tecnológico en los hogares cubanos, con la sustitución de bombillas eléctricas y equipos electrodomésticos existentes, por otros con tecnologías modernas; incluyendo una campaña educativa sobre la necesidad del ahorro energético. Hacia 2005, la crisis energética se agudizó, redoblándose los esfuerzos por la dirección del país. En el 2020, Cuba estaba Figura 1. Estrategia bio-energética para la reducción de costos totales del urbanismo y la arquitectura en su ciclo de vida. electrificada en un 99.98%, lo cual significa una casi totalidad de posibilidades para la incorporación, en cada hogar cubano, de un mínimo de equipamiento tecnológico consumidor de energía eléctrica. El consumo eléctrico en los hogares cubanos ha ido incrementándose en el último decenio. A pesar de la crisis económica que atraviesa el país, la incorporación en estos de equipamiento eléctrico de diferente tipo ha ido aumentando. Según datos de la Oficina Nacional de Estadística e Información (ONEI, en sus siglas) [7], entre los años 2019 y 2020, el consumo de energía en el sector residencial transitó de un 56,63% a un 58,19% del consumo total, respectivamente. Entre el 2013 y el 2019, en los hogares cubanos se consumió entre un 40 y un 45% de la producción nacional de energía por cada año, con un incremento anual desde 0.21 hasta 1.45. En el 2020 el incremento fue de casi un 5% con respecto al año anterior. Adicionalmente, del consumo promedio mensual de electricidad, expresado en kWh por cada cliente, en el sector residencial se consumió, entre el 2013 y el 2019, entre un 57% y un 63%; con otro brusco incremento de casi un 4% del 2019 al 2020, para un 66,35%. Estos datos se expresan en consumos de energía por ventilación electromecánica, climatización, iluminación eléctrica, así como equipos electrodomésticos, de transporte ligero y de trabajo personal. La situación con posterioridad a la pandemia de Covid es mucho más crítica producto de las limitaciones para producir la electricidad necesaria, lo que ha hecho regresar los prolongados “apagones”, cuyo único paliativo es aprovechar las energías directas disponibles para el confort térmico, según se ha señalado. Los problemas derivados de la incidencia de la pandemia, de las dificultades que atraviesa el Reordenamiento económico y las mantenidas agresiones externas han complicado mucho más el asunto. A pesar de la situación histórica mostrada, los esfuerzos han estado encaminados básicamente a la ampliación de las capacidades para producir energía eléctrica convencional y a la sustitución de equipamiento tecnológico inadecuado, que no se enfocan en la raíz del problema. Aunque siempre existen posibilidades de reemplazar equipamiento tecnológico, los costos de explotación continuarán, y los errores derivados de un mal diseño constructivo, que no ha contemplado los criterios pasivos en el manejo energético, se arrastrarán durante toda la vida útil de los inmuebles. Ello implica que, año tras año, los costos de consumo por climatización e iluminación eléctrica, por mencionar los principales, continuarán aportando costos y recursos crecientes en la economía residencial. El objetivo primario con vistas al 2030, es el cambio de la matriz energética, esperando alcanzar un 24% de protagonismo de las fuentes de energía renovable en la generación de electricidad. Sin embargo, si se mantienen los consumos actuales, que deben seguir incrementándose año tras año, será necesario producir más energía para satisfacer esa demanda creciente. Ello implicaría la incorporación de un mayor equipamiento tecnológico al cual habría que darle mantenimiento a lo largo de su vida útil, incorporando costos en los ciclos de vida. De lograr reducirse los consumos energéticos, en los cuales la climatización y la iluminación eléctrica juegan un papel clave, el objetivo deseado podría alcanzarse más eficiente y sosteniblemente. Se reitera que para ello es imprescindible elevar la cultura energética con enfoque sistémico y de ciclo de vida, en todos los actores que participan en el proceso. Al estudiar la Nueva Agenda Urbana [8], en el enunciado 44 de la declaratoria, se plantea el reconocimiento de que “la configuración urbana, la infraestructura y el diseño de edificaciones se cuentan entre los factores más importantes impulsores de la eficiencia de los costos y el uso de los recursos, a través de los beneficios de la economía de escala y la aglomeración y mediante el fomento de la eficiencia energética, la energía renovable, la resiliencia, la productividad, la protección del medio ambiente y el crecimiento sostenible de la economía urbana”. Sin embargo, en el documento sobre la alineación de la vivienda en Cuba en la Nueva Agenda Urbana [9], no se reconoce la problemática del diseño urbano y arquitectónico como uno de los problemas de partida en el logro de la eficiencia energética, de viviendas sostenibles, entre otros. De igual manera, el diseño de las edificaciones tampoco constituye un elemento clave por parte de la Unión Nacional Eléctrica (UNE), como punto de partida en la disminución del consumo energético en los hogares cubanos. Aspectos relativos a la llamada seguridad energética En la literatura internacional, se describe la seguridad energética como la capacidad de poder tener un suministro energético sostenible medioambientalmente, a través del abastecimiento de energía, fundamentalmente con combustibles importados, complementada con la generación a partir de fuentes autóctonas. Se adicionan otros criterios tales como la diversificación de las fuentes de energía y la seguridad en el transporte, lo cual redunda en una supuesta sostenibilidad energética. La autosuficiencia energética ha venido posicionándose internacionalmente como una estrategia sostenible para la reducción de los actuales consumos de energía fundamentalmente convencional. Este manejo puede establecerse en tres fases generales: disminución del consumo energético, producción de energía y automatización de su manejo. Es en el área del consumo donde se hace referencia al ahorro y la eficiencia energética, a través de acciones, considerando el uso eficiente de los recursos disponibles, en todas las esferas que abarcan los procesos de la sociedad: económicos, políticos, medioambientales, tecnológicos, normativos, entre otros. El conocimiento para un cambio de actitud frente al asunto está asequible solo a una pequeña parte de la población. Ni siquiera en las oficinas del Arquitecto de la comunidad, únicos autorizados a gestionar y materializar proyectos al sector privado, de manera individual, tienen conocimiento suficiente sobre estas problemáticas. Solamente tienen la ventaja al respecto, aquellas personas con determinada solvencia económica para contratar los servicios de arquitectos independientes, muchos de ellos con vínculos con la academia, lo cual los posiciona favorablemente ante la inclusión de las temáticas energéticas en sus proyectos, dando una mejor respuesta al cliente. Ello se expresa en el resultado final de las soluciones una vez ejecutadas, tanto de imagen como de comportamiento físico ambiental de sus espacios interiores. Ninguno de estos aspectos se refleja en los documentos que rigen la política habitacional ni energética del país, como ya ha sido mencionado en otras partes de este documento. La situación de los proyectos y las normativas específicas En la actualización de los lineamientos de la política económica y social del partido y la revolución para el período 2006-2021 [10], no se encuentra ninguna mención directa a criterios relacionados con el urbanismo y la arquitectura, la eficiencia energética, el ciclo de vida o la ecología. Se establece como política la potenciación del aprovechamiento de las distintas fuentes renovables de energía (biogás, eólica, hidráulica, biomasa, solar y otras) Se crean un conjunto de lineamientos, relacionados con la política energética, aunque en ninguno de ellos se hace referencia directa a los aspectos relativos al diseño urbano y arquitectónico, como punto de partida para la eficiencia energética. Las referencias relativas al ahorro y conservación de los recursos naturales, no incorporan al sol ni como fuente de luz ni de calor, ni al viento, en su relación directa con el diseño, sino exclusivamente como materia prima para la producción de energía renovable. No obstante, se habla en todo momento del término sostenible, encontrándose nueve menciones en el documento, así como del término sostenibilidad, encontrándose cinco veces. Lo relativo al uso eficiente de la energía, se encuentra en dos ocasiones solamente y ninguna vez lo relativo a la eficiencia energética. Es en el Decreto Ley 345 [11], del año 2019, sobre el desarrollo de las fuentes renovables y el uso eficiente de la energía, que comienzan a introducirse criterios específicos sobre el diseño urbano y arquitectónico, cuando se manifiesta en su artículo 7 que: “Las nuevas construcciones que se acometan dentro de los procesos inversionistas, utilizan diseños arquitectónicos que contribuyan al ahorro energético, en correspondencia con lo establecido en la legislación vigente”. En el mismo sentido, el Dr. en Ciencias, Luis Bérriz Pérez, presidente de CubaSolar, en entrevista concedida al periódico digital Progreso Semanal [12], también se refirió a aspectos relacionados con el diseño arquitectónico específicamente. “Si bien la irradiación del sol en el territorio cubano, en un solo día, es mayor en su valor energético que todo el petróleo que consume durante cinco años”, comentó el especialista, existen medidas que pueden tomarse para disminuir el consumo energético, como pintar los techos de blanco, las paredes de colores claros, así como poner mallas contra mosquitos en ventanas para poder abrirlas durante el día y mejorar la iluminación diurna y la ventilación. Ello iría aparejado a las medidas tecnológicas que siempre han sido tomadas para disminuir los consumos energéticos. Todo junto contribuiría, sin dudas, a disminuir los consumos mencionados, y sería más aprovechable y efectiva la instalación de paneles fotovoltaicos, convirtiéndose los hogares en edificaciones de energía positiva, concluyó diciendo. Con relación al diseño funcional del medio físico construido, se hacen necesarias soluciones arquitectónicas y urbanísticas específicas y no tipificadas al nivel de edificaciones como es común, personalizadas en sus soluciones físicas y de entorno. El logro de un diseño que garantice la funcionalidad de los espacios, posibilitará una respuesta óptima para satisfacer las necesidades para las cuales fue creado. Es importante señalar que el problema debe ser enfrentado holísticamente, teniendo en cuenta los factores del entorno y los específicos del problema que se quiera resolver. Se debe buscar la eficiencia energética de forma holística e inicialmente pasiva. Por supuesto que, en el acondicionamiento térmico en primer lugar, incorporando otros aspectos según sea el caso: el manejo del agua, de los residuos sólidos, de las comunicaciones y de la seguridad humana y tecnológica, entre otros, dentro del marco regulatorio correspondiente, deben sentar las bases correspondientes. En estudios realizados se ha identificado un conjunto de aspectos del acondicionamiento ambiental que no siempre son considerados debidamente en el diseño de conjuntos de edificaciones. Entre ellos: la orientación al viento, la orientación al sol, la privacidad visual y auditiva, el manejo de la vegetación como elemento de control térmico, principalmente. Aspectos tales como la separación entre edificaciones, sus alturas, los cierres permeables, su posición y distribución en las superficies verticales en las que se insertan, la volumetría, la terminación de superficies, las áreas exteriores públicas y privadas, entre otros, no se estudian adecuadamente en la concepción de los diseños. Los resultados se aprecian en la explotación del hábitat de diferentes maneras. Aunque la consideración de los aspectos físico ambientales están reflejados en la normativa nacional, se han apreciado dificultades en la ejecución de proyectos al no materializarse adecuadamente la eficiencia energética, la adaptación al entorno, el confort ambiental interior, entre otros aspectos, en los proyectos estudiados. No existe ninguna normativa con un enfoque integral al respecto. Con relación al sector energético en su relación con el diseño, solamente existen tres instrumentos específicos, totalmente asistémicos. La problemática energética está dispersa en diversas normas, y tampoco constituye una norma. Solamente la NC 220 [14] hace referencia a los asuntos anteriores, pero igualmente carece de un enfoque sistémico en su planteamiento al ser despiezada por temáticas especializadas y no por problemas a resolver en los que, como se sabe, es necesario un enfoque transversal u holístico de manejo. Ello se ha evidenciado en asesorías y estudios realizados por los autores sobre proyectos de conjuntos de viviendas, algunos construidos, en los cuales se han encontrado importantes deficiencias, a escala urbana y arquitectónica, que limitan lo anteriormente planteado. No basta con la voluntad política, con la claridad de lo que se tiene que hacer o con marcos regulatorios que amparen la migración de la matriz energética hacia fuentes renovables. Según la experiencia de los autores, las empresas y grupos de proyecto, encargados del planeamiento y diseño de las nuevas urbanizaciones y edificaciones que se están ejecutando, tampoco cuentan suficientemente con profesionales capacitados al respecto. Se destinan recursos en exceso para resolver el problema, a la vez que se contribuye a aumentar el impacto negativo originado por la extracción indiscriminada de recursos no renovables para resolver problemas energéticos del hábitat. Se debe buscar la eficiencia energética de forma holística e inicialmente pasiva. Por supuesto que, en el acondicionamiento térmico en primer lugar, incorporando otros aspectos según sea el caso: el manejo del agua, de los residuos sólidos, de las comunicaciones y de la seguridad humana y tecnológica, entre otros, dentro del marco regulatorio correspondiente. En resumen, en el proceso proyectual cubano se hace hincapié en los criterios que definen la inversión inicial pero no se define suficientemente el diseño de los espacios a los cuales se subordinan, a partir de los requerimientos funcionales y energéticos durante su etapa de explotación. Resulta imprescindible, aunque sea repetitivo expresarlo, elevar la cultura que hoy tienen la población y las autoridades en tal sentido para entender ese cambio como La participación de la población y otros actores en la problemática energética actual En las políticas energéticas actuales primero se persigue la seguridad y luego la autosuficiencia. Uno de los pilares de la seguridad sería la certeza de cómo garantizar la electricidad en los hogares. Y no se trataría de garantizarla simplemente, sino de proveer a la población de una energía que sea económicamente viable, tecnológicamente segura y diversificada en su acceso, tanto en el consumo como en la producción, que propicie alternativas sin excesivas dependencias tecnológicas o económicas, sociales o personales. Colocando a la población como actor principal, las variables que juegan un papel activo en este sistema de análisis se organizan en dos grandes grupos: por un lado, las relacionadas con el entorno, cuyo manejo por la población es limitado, ya que dependen de terceros (organismos del estado fundamentalmente) que brindan o gestionan procesos y servicios. Por otro lado, las relacionadas con la población, posibles de manejar y controlar directamente por ésta: cliente o usuario. No obstante, para cada grupo, habrá variables o condicionantes que tendrán un porcentaje de actuación a otro nivel. Las variables de acceso directo por la población, con una capacidad real de incidencia en las mismas, son las relacionadas directamente con el hábitat cotidiano: el diseño funcional del medio físico construido, el acondicionamiento ambiental de dicho medio (arquitectónico y urbano) y el soporte tecnológico para los procesos que se generan y necesitan. El conocimiento de los aspectos del clima, constituye un factor esencial en el diseño de espacios, productos, equipos, accesorios, entre otros, así como en el manejo de los procesos correspondientes. Ello puede constituir una ventaja y una desventaja, según como se trate la problemática. Su conocimiento puede aprovecharse para diseñar y producir ambientes resilientes, confortables y eficientes energéticamente. Su desconocimiento está implicando impactos elevados en el medio físico natural y construido, incrementando con ellos los costos por concepto de explotación. La población solo ha sido incluida de manera eficiente, como entes ahorradores de la energía eléctrica convencional producida, en las políticas de Consumo y Producción Sostenible y de la Eficiencia en el uso de los Recursos. Lo más importante a destacar es que la población está siendo insuficientemente instruida y educada al respecto de la utilización de la energía tipo A, a pesar de la gran incidencia que puede tener en la reducción de otros consumos a partir de la oferta permanente de la misma en su entorno inmediato y vivienda y su condición de usuario automático de la misma. La falta de esta experiencia conlleva a asumir durante la explotación de los inmuebles los conflictos energéticos que concluyen en un aumento del pago de la tarifa eléctrica por incremento en el uso de los equipos de climatización o ventilación ante la falta de confort, fundamentalmente térmico, de sus espacios, con la debida percepción de que “algo no está bien pero no sé por qué tengo tanto calor”. Nunca logran entender lo sucedido, y la culpa la paga el clima. Muy pocos logran entender que el conflicto lo tienen en las características de su vivienda o espacio de trabajo. Si se trata de un negocio por cuenta propia, donde se reúnan muchas personas, tales como restaurante, cafetería, café, por citar algunos, siempre se trata de resolver el problema invadiendo con aires acondicionados el espacio, cuando se puede resolver más económicamente o mediante el uso de ventiladores. No se percibe que esa no es la raíz del problema, que un cambio en el diseño de los espacios puede eliminar el conflicto. Al tratar de resolverse con equipamiento tecnológico, se incorporan gastos permanentes durante la explotación de los espacios, lo cual constituye el 80% de todo el Ciclo de Vida del inmueble. Si se tiene en cuenta que una edificación tiene una vida útil mínima de varias decenas de años es fácil imaginarse cuán oneroso será el costo de dicha explotación, ocasionados por el incremento en el pago de la tarifa eléctrica, en el mantenimiento y en la contaminación electromagnética del espacio, por citar los aspectos más relevantes. A lo anterior se suma, el desconocimiento sobre la instalación eficiente de los equipos de climatización, en cuanto a la física del movimiento del aire. Y así, se van sumando elementos que, en vez de eliminar el problema existente, generan otros que se arrastran en el largo tiempo de explotación. Educar de una manera distinta a las nuevas generaciones en cuanto a su posición frente al problema energético de su hábitat y capacitar a los adultos al respecto sean actores laborales o residenciales, como parte de la gestión nacional institucional, es una acción imprescindible para iniciar la diseminación de un conocimiento esencial de amplia necesidad colectiva. Se puede reducir de manera importante el consumo de energía priorizando la natural, si se enseñan los hábitos y estilos de vida adecuados a las buenas prácticas de uso eficiente de la energía durante la etapa educativa en todos sus niveles [2]. Deben desarrollarse estrategias de instrucción y capacitación con impacto en todas las esferas de la sociedad involucradas en dichos procesos: planeamiento, diseño, inversión, explotación, mantenimiento, reciclaje, entre otros. Ello contribuiría significativamente a elevar la conciencia energética para un cambio radical en los modos de accionar [2]. Lo anterior formaría parte de una adecuada política ambiental nacional asociada al desarrollo de una cultura energética orientada a la sostenibilidad que incluya a todos los actores sociales. En la actualidad, debido a un conocimiento asistémico de la problemática energética, en su relación con la sociedad y sus procesos, no se materializan acciones concretas que permitan a los actores institucionales estar preparados para enfrentar los cambios y adecuaciones necesarios para el país, definidos en los documentos regulatorios y normativos. Tampoco existe una política de capacitación al sector no estatal, para aprender a manejar adecuadamente enfoques energéticos sostenibles. Solamente se hace referencia a algunas acciones de las que deben ser tenidas en cuenta en la explotación del espacio equipado con energía convencional, pero no se extrapolan a la etapa de planeamiento y diseño. De ahí que las inversiones, tanto en construcciones para habitar como para producir, no contemplen adecuadamente los criterios energéticos, y el resultado se arrastra durante el período de explotación, tanto en la habitabilidad del espacio como en la prosperidad del negocio. Con relación al soporte tecnológico, debe procurarse que sean eficientes, limpios, renovables, seguros y estén disponibles para la mayoría de la población. Ello pudiera implicar inversiones de mayor costo inicial pero eficientes en su ciclo de vida, con una disminución notable de costos de explotación y un menor tiempo de amortización de estas. La posibilidad de acceder a un equipamiento eficiente energéticamente depende en primer lugar de la capacidad estatal o privada de proveer equipamiento adecuado en el mercado interno (importando o produciendo) y, en segundo lugar, de la capacidad económica individual para acceder. En resumen, esas capacidades están dadas en términos de cultura al respecto y recursos económicos para su apropiación. En las revistas Energía y tú y Ecosolar, con tiradas físicas y digitales, ambas con enfoques energéticos y sobre fuentes renovables de energía, se publican soluciones constructivas sobre temáticas relacionadas, sus procesos de ejecución, así como información variada. Ambas revistas tienen tiradas limitadas, trimestrales, y no son conocidas por la población en general, ni son estos los temas que más interesan. Si bien existe en el mercado, en este momento en monedas libremente convertibles, equipamiento con tecnologías eficientes de base renovable, la mayor parte de la población no tiene la posibilidad de acceder a ellas, pues no todos tienen acceso a ese tipo de monedas. La existencia en moneda nacional es limitada e insuficiente. El estado no cuenta con la capacidad productiva para ofrecerle a la población, ni calentadores solares ni paneles fotovoltaicos, por citar los más comunes, y aunque estas soluciones no sean las más importantes. Aunque existe una voluntad política hacia la incentivación del desarrollo de las fuentes renovables de energía, recogidas en la Gaceta Oficial No. 95 ordinaria del 28 de noviembre de 2019, con especificaciones específicas para el sector estatal y privado, estas disposiciones no cuentan con respaldo real. La población no tiene aún acceso a ninguna de las tecnologías que se mencionan. No obstante, existe una disposición aduanal relativa al autorizo en la importación tanto de paneles fotovoltaicos como de calentadores solares. Las políticas de inversiones deben cambiar, hacia estrategias que potencien la importación controlada más allá del sector estatal y que alcancen a la población, permitiendo complementar los procesos asociados, dadas las carencias mencionadas. El único recurso real que tiene la población para disminuir su consumo eléctrico es controlando el uso del equipamiento electrodoméstico, pudiendo ir en detrimento de su calidad de vida, o incorporando los criterios al uso sobre eficiencia energética en el diseño de su hábitat, tanto en obra nueva como en rehabilitación. Para ello se necesita, o conocimiento individual aportado por la profesión, amigos, familiares, trabajo, o asesoramiento institucional a través de las dependencias destinadas para este fin, en este caso, el Arquitecto de la Familia. Ambas opciones están limitadas. La primera porque no siempre depende de las personas en sí mismas, y la segunda, por la carencia de conocimiento especializado del personal que labora en las dependencias existentes, como se explicó con anterioridad. Todo lo anterior conduce a la necesidad de cambiar la gestión tecnológica, relativa a la innovación energética, de lo tecnológico a lo constructivo, aunque siguen siendo válidas la automatización y la descentralización de los procesos. Existen disposiciones bancarias para acceder a créditos y subsidios. En la medida que existan posibilidades de incorporar alternativas de producción nacional, a partir de recursos locales, disponibles, de bajo impacto económico, comercializables, aumentarán las posibilidades de acceso de todos los actores a esa disponibilidad, se generarían empleos, se disminuirían importaciones, entre otros. 4. CONCLUSIONES A partir de lo expuesto en el presente trabajo, existe una relación intrínseca entre la naturaleza como depositaria de todas las manifestaciones originarias de la energía, vista como universal y planetaria, y las maneras en que la humanidad ha utilizado la misma con el desarrollo y con los enfoques ya expuestos. Corresponde revisar las estrategias que permiten caminar hacia un desarrollo más sostenible en general, en lo cual, como ha sido visto, es esencial la participación de la población en el manejo, en primera instancia, de las energías naturales disponibles. La vía más importante que tiene la población, por masiva y sencilla, para incidir en el manejo de las energías de las cuales depende su desarrollo, es precisamente la de utilizar directamente las de tipo A; aquella que puede ser utilizada y controlada por la población directamente para regular el ambiente térmico y luminoso de su hábitat. Es en el uso o explotación de las edificaciones, como parte del ciclo de vida de éstas, donde mayor incidencia pueden tener los 12 millones de cubanos en el aprovechamiento de las fuentes energéticas naturales o directas. En tal sentido, y reiterativamente como cierre, la mayor equidad y prosperidad en el acceso a la energía por parte de la población parte del aprovechamiento de las energías naturales renovables, de tipo A, según se ha aseverado anteriormente. Este enfoque constituye la primera clave para alcanzar los objetivos deseados. Un objetivo clave sería el de incorporar una amplia participación popular en el manejo de los modelos energéticos que lideran el desempeño de las comunidades, los espacios públicos, las edificaciones, los espacios interiores, para alcanzar una eficiencia funcional y energética que disminuya al máximo posible los costos totales en el ciclo de vida de los procesos que en estos se desarrollan. En lo que a políticas energéticas se refiere lo primero sería poner en orden lo relativo a los tipos de energía que deben participar en las políticas estatales, dado el carácter de la sociedad cubana, tomando como punto de partida lo expresado en el acápite anterior. Ese cambio en los modelos energéticos, involucraría a todos los actores de la sociedad, siendo la población, tanto residente como trabajadora, la que utiliza espacios construidos, donde más recursos energéticos convencionales se consume. En resumen, corresponde revisar las estrategias que permitan avanzar hacia un desarrollo más sostenible en general, como aporte a una mayor equidad urbana. Dentro de ello un enfoque sistémico y planetario, acompañado de un manejo energético descentralizado con participación popular, es esencial. REFERENCIAS 1. Tipos de energía [en línea] [ref. de 13 de julio 2022]. Disponible en Web: https://www.significados.com/tipos-de-energía. 2. BRAVO HIDALGO, Debrayan. “Energía y desarrollo sostenible en Cuba”. Centro Azúcar, 2015, vol. 42, núm. 4, pp. 14 - 25. 3. ALVAREZ GARCÍA, Gabriela. “Energía en edificaciones”. Revista mexicana de Física, 2013. Vol. 59, núm. 2, pp. 44-51. ISSN: 0035-001X. Disponible en Web: http://www.redalyc.org/articulo.oa?id=57030971006. 4. Edificio energía cero [en línea] [ref. de 13 de diciembre 2012]. Disponible en Web: https://ayreblog.wordpress.com/2012/12/13/edificio-energia-cero/. 5. Instituto de Meteorología. El clima de Cuba. [en línea] [ref. de 10 de junio 2022]. Disponible en Web: http://www.insmet.cu/asp/genesis.asp?TB0=PLANTILLAS&TB1=CLIMAC&TB2=/clima/ClimaCuba.ht m. 6. DIRMOSER, Dietmar. Seguridad energética. Las nuevas escaseces, el resurgimiento del nacionalismo de recursos y las perspectivas de los enfoques multilaterales. Kompass 2020. Bonn: Editorial Friedrich-Ebert-Stiftung, Bonn/Berlin, 2007. 40 pp. ISBN: 978-3-89892-795-6. 7. Oficina Nacional de Estadística e Información. “Minería y Energía”. Anuario estadístico de Cuba 2020. Edición 2021. Oficina Nacional de Estadísticas e Información. La Habana, 2021. 21 pp. 8. Naciones Unidas. “Nueva Agenda Urbana”. Conferencia de las Naciones Unidas sobre la Vivienda y el Desarrollo Urbano Sostenible. Hábitat III. A/RES/71/256*. Quito, Oct. 2017. 76 pp. ISBN: 978-92-1- 132736-6. 9. Instituto de Planificación Física. “Implementando la Nueva Agenda Urbana en Cuba. Alineación de la vivienda en Cuba y la Nueva Agenda Urbana”. HS Number: HS/047/18S. Ciudad de México, Mar. 2018. 69 pp. 10. Periódico Granma. Lineamientos de la política económica y social del partido y la revolución para el período 2006-2021. [en línea] [ref. de 30 de julio 2017]. Disponible en Web: https://www.granma.cu/file/pdf/gaceta/Lineamientos%202016-2021%20Versi%C3%B3n%20Final.pdf. ISNN 0864-0424. 11. Gaceta Oficial de la República de Cuba. Decreto-Ley No. 345. Del desarrollo de las fuentes renovables y el uso Eficiente de la energía. No. 95 Ordinaria. La Habana. Cuba. 2019. 12. LUBEN PÉREZ, Lino. Subrayan ventajas de la radiación solar en lugar del petróleo [en línea] [ref. de 10 de noviembre 2016]. Disponible en Web: https://progresosemanal.us/20161111/subrayan-ventajas- la-radiacion-solar-lugar-del-petroleo. 13. LABRADOR HERRERA, Leidys María. Cuba apuesta por el cambio en su matriz energética. [en línea] [ref. de 23 abril 2018]. Periódico Granma. Edición digital. Disponible en Web: https://www.granma.cu/cuba/2018-04-23/defendernos-del-sol-y-utilizar-el-petroleo-un-paradigma-que- languidece-23-04-2018-20-04-51. ISNN 0864-0424. 14. Oficina Nacional de Normalización. Edificaciones — requisitos de diseño para la eficiencia energética. NC 220:2009. La Habana. Cuba. 2009. SOBRE LOS AUTORES Yanamari Bancroft Pérez. Graduada de Arquitecta en la CUJAE en 1996. Profesora Auxiliar. Master en Planeamiento y Diseño Urbano. Vicedecana docente de la Facultad de Arquitectura, CUJAE. Especialista en Diseño Bioclimático en el Urbanismo y la Arquitectura, con énfasis en la Teoría de Sistemas, de la Complejidad y la Transdisciplinaridad y el manejo de los Ciclos de Vida en los procesos. Miembro de la Comisión Nacional para la carrera de Arquitectura. Miembro de la Unión Nacional de Arquitectos e Ingenieros de la Construcción de Cuba. Miembro del Grupo de Trabajo sobre Gestión de Edificaciones en su Ciclo de Vida – Facility Management. Miembro del Grupo de Investigación y Acción Urbana- INVACURB, Facultad de Arquitectura, CUJAE. Profesora Principal de la Disciplina de Acondicionamiento Ambiental, Facultad de Arquitectura, CUJAE. Actualmente está desarrollando su tesis de doctorado sobre temáticas físico ambientales aplicadas al diseño urbano-arquitectónico. Rubén Andrés Bancrofft Hernández. Graduado de Arquitecto en la Universidad de la Habana en 1969. Doctorado en la Escuela Superior de Arquitectura y Construcción de Weimar, hoy Universidad del Bauhaus, en Alemania (Dr. Ing. SUMMA CUM LAUDE). en 1981. Doctor honoris causa, en Ingeniería y Ciencia Técnicas, Profesor Emérito, Titular y Consultante Emérito. Especialista en Teoría de Sistemas, de la Complejidad y la Transdisciplinareidad, Gestión del Ciclo de Vida, Acondicionamiento Ambiental e Instalaciones hidrosanitarias en Arquitectura y Urbanismo. Miembro de la Comisión Nacional para la carrera de Arquitectura. Miembro de la Unión Nacional de Arquitectos e Ingenieros de la Construcción de Cuba. Vicepresidente del Tribunal Nacional de Doctorados en Arquitectura y Urbanismo de Cuba. Coordinador por la parte cubana del Grupo de Trabajo sobre Gestión de Edificaciones en su Ciclo de Vida – Facility Management Grupo de Investigación y Acción Urbana-INVACURB, Facultad de Arquitectura, CUJAE. Profesor Principal de la Disciplina de Acondicionamiento Ambiental. GUIDELINES FOR ENERGY AND SOCIAL IMPROVEMENT OF A SUBURBAN AREA THROUGH MODERNISATION OF SCHOOL CONSTRUCTION Daniela Ladiana1, Giovanni Santi2, Michele Di Sivo2, Rosa Mª Domínguez Caballero3 1Dipartimento di Architettura, Università di Chieti e Pescara, Viale Pindaro 42, 65127 Pescara, Italy, 2Dipartimento di Ingegneria dell'Energia, dei Sistemi, del Territorio e delle Costruzioni, Università di Pisa, Polo A, Largo Lucio Lazzarino, 56122 Pisa, Italy, 3Escuela Técnica Superior de Ingenieros de Edificación,Universidad de Sevilla, Avda. Reina Mercedes, S/N, 41012, Seville 1e-mail: daniela.ladiana@unich.it ABSTRACT The experimental study described in the energy and social improvement addresses the problem of urban renewal of a peripheral area through the modernization of a school building. The aim of the research is to correlate energy improvement with the quality of urban life through the creation of social gathering places, sustainable mobility, environmental sustainability and cultural activities for the neighborhood. The study started from the analysis and comparison of different certification systems for green buildings in order to identify the most complete and suitable for the objectives of the experimentation. Since the study was carried out in Italy, the research has focused on national and international certification systems such as LEED, ITACA and Klimahaus-CasaClima to identify possible project guidelines. The main problem is identified in the determination of the modalities of correlation between the requalification of the building and the public space project; the suggested approach is to derive and integrate the different requirements expressed by the analyzed protocols in order to establish guidelines aimed at the experimentation target. Thanks to the study, it has been possible to arrive at useful guidelines for implementing urban and social regeneration interventions starting from the planning of modernization projects for the construction of schools. KEY WORDS: School building, neighborhood, energy and social improvement, sustainability, guidelines DIRECTRICES PARA LA MEJORA ENERGÉTICA Y SOCIAL DE UNA ZONA SUBURBANA A PARTIR DE LA MODERNIZACIÓN DE LA CONSTRUCCIÓN DE ESCUELAS RESUMEN El estudio experimental descrito en la mejora energética y social afronta el problema de la renovación urbana de una zona periférica a partir de la modernización de un edificio escolar. El objetivo de la investigación es correlacionar la mejora energética con la calidad de la vida urbana mediante la creación de lugares de reunión social, movilidad sostenible, sostenibilidad ambiental y actividades culturales para el barrio. El estudio empezó a partir del análisis y comparación de los diferentes sistemas de certificación para los edificios verdes con el fin de identificar el más completo y adecuado para los objetivos de la experimentación. Dado que el estudio se llevó a cabo en Italia, la investigación se ha centrado en sistemas nacionales e internacionales de certificación como LEED, ITACA y Klimahaus-CasaClima para identificar posibles directrices de proyecto. El principal problema se identifica en la determinación de las modalidades de correlación entre la recalificación del edificio y el proyecto del espacio público; el enfoque sugerido es derivar e integrar los diferentes requisitos expresados por los protocolos analizados con el fin de establecer directrices dirigidas al objetivo de la experimentación. Gracias al estudio ha sido posible llegar a directrices útiles para aplicar intervenciones de regeneración urbana y social a partir de la previsión de proyectos de modernización para la construcción de escuelas. PALABRAS CLAVES: Edificio escolar, barrio, mejora energética y social, sostenibilidad, directrices. 1. INTRODUCTION The present study aims to define effective guidelines to be used in the technological retrofit of a school building, so as to have positive repercussions on the surrounding neighbourhood. Through the requalification of the building and the relevant areas, it is indeed possible to implement the urban and social quality of the neighbourhood itself [1]. This is particularly relevant in difficult contexts and those of general degradation. In particular, the case study in question concerns a school site consisting of two schools, one primary and one secondary, located in the Varignano district of the city of Viareggio. This district falls into the category mentioned above, since it is a neighbourhood formed of social housing that was created without a pre-ordained design in the 1960s. This context is characterized by critical issues both at a social and urban level, due to a lack of integration between the inhabitants and infrastructural barriers that determine their isolation from the rest of the city [2]. The school complex in question, both because of its central location in the neighbourhood, and for the potential it presents, is configured as a possible social fulcrum of the neighbourhood. From this perspective, it is important that it is the subject of technological redevelopment that aims to develops its potential. In this regard, possible guidelines for project development have been studied and analysed in this study. Since a redevelopment project cannot ignore aspects of environmental sustainability, the instruments present in the national and international panorama have been taken into consideration in order to measure the sustainability of the construction processes [3]. 2. METHODOLOGY The most suitable tools for this study were found to be the environmental and energy sustainability protocols and certifications for buildings. The methodology used involved the analysis and comparison of these instruments, focusing on the most commonly used ones in Italy [4]. The environmental certification protocols define a reference performance scheme and provide for the assignment of a score based on the achievement of excellence objectives regarding standard performance. The protocols are designed with the aim of examining all the various aspects that concern a building intervention: from the choice of the construction site and the services available on site, to the health and comfort conditions of the interior. It is important to underline that at the moment these are "voluntary" assessment procedures: it is the designer who has to collect the data to be sent to the validating organization [5]. The certification systems have an intrinsic structural limit: they are processed based on the specific needs and the relevant factors of the geographical contexts in which they were conceived. Economic, climatic, cultural, regulatory, and urbanistic differences, or differences in resources available in other contexts can lead to discriminatory results. Therefore, contextualisation of the criteria is necessary with reference to the specific case. In this regard, the protocols referring to redevelopment and school buildings have been examined. It is appropriate to pay attention to the difference between environmental sustainability and energy sustainability alone; many protocols, defined as "energy" protocols, really only refer to the building envelope, defining performance requirements but without considering the context in which it is realized [6]. The environmental sustainability certification, on the other hand, provides an analysis that explores not only energy aspects but also those related to the construction site and the impact it has on its local urban and environmental system. Alongside the requirements that are also present for energy certifications, there are provisions regarding the choice of construction site, transport, services, social aspects, topographical aspects, hydrological aspects and soil defence, as well as areas that have not been anthropized [7]. It was found at the national level that there is no organic and easily implementable strategy for the sustainable redevelopment of a school building; in this regard, the three instruments that are closest to this objective have been analysed: - LEED v4 for Existing Buildings: Operations & Maintenance (with reference to the Schools section); - The “ITACA Edifici Scolastici 2011” Protocol 2011; - The “CasaClima School R” certification. A comparison of the three certification tools detailed here reveals a first major difference between the "CasaClima" method and the LEED and ITACA protocols, because the former is purely an energy certification method for the building, while the other two are part of a system of environmental sustainability. Following the analysis of the three certification systems, it was deemed appropriate in this case to use the evaluation system proposed by "CasaClima" [8], as it is easier to apply to the case study. However, since the project is aimed at environmental sustainability, it was considered more appropriate to integrate this tool by extrapolating additional criteria regarding the quality of the site from the LEED and ITACA protocols [9], [10]. The choice of the "CasaClima School R" [11]. method as the basis on which to structure the guidelines for the sustainability of the project is due to the fact that the fulfilment of the reported requirements is more immediately understood, because this study aims to develop, on a theoretical level, a guiding system for the energy-environmental redevelopment of the building in the most practical and achievable way possible Fig.1. Figure 1. The comparison of the three certification. 3. RESULTS It was therefore possible to outline guidelines for the sustainable retrofit of the school site in question, addressing the following issues: Location and transportation - Supporting cycling (ITACA) - Reduced parking footprints (LEED) - Green vehicles (LEED) Site sustainability - Introduction of native tree species and the preservation of existing ones (LEED) - Preservation and protection from all development and construction activity of 40% of the green field (LEED) - Creation of exterior open spaces that encourage interaction with the environment (LEED) - Acceptable thermal comfort for outdoor spaces (ITACA) Waste water - Grey water sent to the drainage system - Permeability of the soil - Rainwater collection Energy - Envelope efficiency - Overall efficiency Comfort - Well-being in the internal spaces - Quality of the internal environment Management - Environmental management system. 4. PLANNING APPLICATIONS During the planning stage, the application of the guidelines was experimented, combining the energy efficiency of buildings with the environmental requalification of outdoor spaces. The application of the guidelines consisted in: Location and transportation This section was taken from the LEED v4 certification, and deals with the forecast of sustainable transport such as electric car parks and bike stations: Equipment to facilitate cycling was placed within the school grounds, while parking spaces for electric cars were placed outside, next to the pavement. Site sustainability The prescriptions identified in the "ITACA" and "LEED" protocols regarding the sustainability of the site aim to preserve, as far as possible, the areas of the site that have not yet been populated, as well as the geomorphology and hydrology of the site. In particular, the results obtained include: - introduction of native vegetation; - preservation of at least 40% of the green area (Fig.2); - planned spaces that promote social aggregation (greenhouse, public square, sports area, playground and multi-purpose hall) (Fig.3); - dealing with the urban heat island effect through a system of porches. Figure 2. In the green areas there is spontaneous (dark green) and cultivated (light green) vegetation. Figure 3. Green areas promote social aggregation Table 1. Percentage ratio between built-up and green areas. Total area (A) Built-up area (B) %(B) su A Standard ITACA 16 280 m2 9809 m2 60% GOOD Environmental burden Grey water sent to the drainage system As required by the ITACA protocol, the reuse of gray water is envisaged for the gym showers, thereby obtaining an improvement in water saving measures of 75% compared to a standard building. Soil permeability The project was developed with great care not to compromise the permeability of the soil in the garden, outside the building footprint; subsequently the percentage of permeable surface in relation to the whole lot has been calculate, taking into account the permeability coefficients related to each arrangement. Drinking water for irrigation The volume necessary for the collection of rainwater to be used for watering the garden was measured and planned in order to cover the whole requirement. Table 2. Analysis of the permeability of the pavement in the urban area under study Surface Permeability index α Impact on the flow area x α Lawn 1 4765 Gravel, sand 0.9 1281,6 Wood with gravel substrate 0.3 104,1 Continuous paving on beaten ground 0.0 0 TOTAL AREA 11657 Figure 4. The collection of rainwater Energy efficiency of the building Following careful energy analyses of the buildings in question, the necessary interventions for achieving the required energy performances were identified. These interventions concern the efficiency of the building envelope and the project's overall efficiency. As regards the envelope, a thermal insulation system has been envisaged, the replacement of the window and door frames, and, where necessary, a shielding system against solar radiation. Subsequently, a calculation of the new performance of the building was performed, significantly reducing the energy requirement for the heating and cooling of the building. Since the renewable energy infrastructure was deemed inadequate, new infrastructure was envisaged for the use of renewable sources. The results of the overall simulation of the building's energy behaviour confirmed the validity of the planned interventions. Comfort of the interior In order to improve internal comfort, attention was paid to meeting the requirements regarding the average factor of daylight, sound insulation, sound absorption and the use of materials that do not emit harmful substances among those indicated in the protocol. Management As required by the protocol guidelines, a maintenance plan must be prepared with an indication of the responsibility for and frequency of maintenance operations. In this regard, already in the design phase, measures were used to facilitate the building management and maintenance systems. Other requirements regarding management include the monthly monitoring of energy consumption, the separate collection of waste to be recycled and the execution of training programs for personnel and users. 5. CONCLUSION In conclusion, in this study it was shown how, through the application of the guidelines analyzed, it is possible to envisage a technological retrofit that operates on many intervention, social and energy- environmental levels. This approach brings considerable benefits to the school site and, through the planning of interventions and careful management, it is configured as a possible pilot project for numerous other schools. Where the school system proves to be effective, inclusive and open to the community, the neighbourhood appears to receive the benefits in terms of improving the perception of the neighbourhood itself and the attraction of the middle classes, thereby fostering social mixing and integration (Fig.5). collection tank Figure 5. Technological retrofit allows significant savings, and to promote the relationship with the context. The opening up of the school towards the urban fabric also allows the education and training of users with regard to sensitive and very often overlooked issues, such as environmental sustainability and the benefits that they entail. The action of a technological retrofit, set according to the guidelines of certifications and protocols of energy and environmental sustainability, allows over time for significant savings to be obtained in terms of the costs of managing the energy resources of the building and of the external areas, while also promoting social relations and community aggregation (Fig.6). Figure 6. Technological retrofit of the school promotes social relations and aggregation of the neighbourhood community. ACKNOWLEDGEMENTS The authors wish to thank Chiara Iacovetti, architect, and Mario Rainaldi, architect and PhD student at the University of Chieti and Pescara, for collaborating on the graphics and images of the international research "Guidelines for the energy and social improvement of a peripheral area through the rehabilitation of school buildings" (Department of Energy, Systems, Territory and Construction Engineering of the University of Pisa - Department of Architecture of the University of Chieti and Pescara - Department of Architectural Constructions II of the University of Seville, 2020/2022), presented here. REFERENCES 1. GARAU, Chiara; PAVAN, Valentina M. "Evaluating Urban Quality: Indicators and Assessment Tools for Smart Sustainable Cities". Sustainability, 2018, 10, no. 3: 575. https://doi.org/10.3390/su10030575 2. SERAFINI, Antonella. Un’idea di città. La costruzione di Viareggio fra le due guerre. Pisa, Edizioni ETS, 2019, 232 pp. ISBN 978-884-675-580-3 3. LADIANA, Daniela. “Escola, cidade e comunidade” in LADIANA, D.; LACERDA LOPEZ, N.; BRAZ AFONSO, R. (ed.) A escola ideal, Porto, Edições CIAMH, 2019, ISBN: 978-989-988-088-7 4. PERETTI, Clara. Protocolli e certificazioni per l'edilizia sostenibile, Milano, Utet Scienze Tecniche, 2020, ISBN: 978-885-982-221-9 5. Direttiva Tecnica CasaClima Nature Settembre 2017 vers. 1.6.01, Agenzia energia per l’Alto Adige- CasaClima. [on líne] https://www.agenziacasaclima.it/it/direttiva-tecnica-casaclima-nature-settembre- 2017--10-1213.html 6. ANDÚJAR, José M.; GÓMEZ MELGAR, Sergio. Energy Efficiency in Buildings: Both New and Rehabilitated. Basel, MDPI, 2020, pp 412, ISBN: 978-303-928-702-4 7. HEINONEN, Jukka; AKIZU-GARDOKI, Ortzi; ALA-MANTILA, Sanna. Energy Efficient Cities of Today and Tomorrow. Basel, MDPI, 2021, pp 256, ISBN 978-303-650-363-9 8. AGENZIA ENERGIA PER L’ALTO ADIGE- CASACLIMA. Direttiva Tecnica Nuovi edifici Settembre 2017 vers. 1.0, [on líne] https://www.agenziacasaclima.it/it/direttiva-tecnica-nuovi-edifici- settembre-2017--10-1205.html 9. USGBC. LEED v4 for building design and construction, 25/07/2019, [on líne] https://www.usgbc.org/resources/leed-v4-building-design-and-construction-current-version 10. USGBC. LEED v4 for building operations and maintenance, 5/01/2018, [on líne] https://www.usgbc.org/resources/leed-v4-building-operations-and-maintenance-current-version 11. AGENZIA ENERGIA PER L’ALTO ADIGE-CASACLIMA. CasaClima School R - linee guida, [on líne] https://www.agenziacasaclima.it/it/certificazionesostenibilita/casaclimaschool-1553.html About the authors LADIANA Daniela. Architect, PhD, researcher in Architectural Technology at the Department of Architecture, University of Chieti and Pescara. She carries out scientific activities in the field of technological-environmental design innovation and management of the built environment for sustainability, safety and durability of systems. Member of the board of directors of AIMan (Italian Association of Maintenance), and of SidTA (Italian Society of Architecture Technology). She is the author of essays and monographs and participates in and directs national and international research on the optimisation of school buildings. SANTI Giovanni. Architect, PhD, Researcher of Architectural Technology at the Department of Energy, Systems, Territory and Construction Engineering of the University of Pisa. His research activity has focused on specific topics in architecture, construction and rehabilitation. He has participated in numerous international and national research projects analysing building types and construction techniques of existing buildings. DI SIVO Michele. Architect. Full Professor of Architectural Technology. Lecturer at the School of Engineering, Department of Energy, Systems, Territory and Construction Engineering, University of Pisa. Member of the board of directors of AIMan (Italian Association of Maintenance), and of SidTA (Italian Society of Architecture Technology). He is the author of essays and books and coordinator of research on technical policy in Italy, on the culture of maintenance and safety in the built environment and on issues of technological innovation. DOMINGUEZ CABALLERO, Rosa Maria. Full Professor at the Department of Architectural Constructions II of the University of Seville. She is a lecturer at the Higher Technical School of Architecture, the Higher Technical School of Construction Engineering and the School of Geography and History. Her scientific research activity has focused on specific topics of architectural technology and safety on historical building sites. She has participated in numerous international and national research projects applied to the existing heritage. COMUNIDADES RURALES ECOTURÍSTICAS. EVALUACIÓN DE LA SUSTENTABILIDAD DEL HOTEL MOKA EN LA COMUNIDAD LAS TERRAZAS Román Alejandro Pérez Rosales1, Dania González Couret2, Natali Collado Baldoquin3, Luis Alberto Rueda Guzmán4 1Empresa de Proyectos de Arquitectura e Ingeniería (EMPAI 8) de Matanzas, 234Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE) 1 e-mail: romanalejandroperezrosales95@gmail.com RESUMEN A pesar de que son numerosos los métodos para evaluar la sustentabilidad arquitectónica y urbana, pocos se han desarrollado para América Latina y El Caribe. Las comunidades rurales vinculadas al ecoturismo requieren una especial atención. En el presente artículo se exponen las bases teóricas para la propuesta de un sistema de evaluación de la sustentabilidad en comunidades rurales ecoturísticas, tomando como objeto de estudio la Comunidad Las Terrazas en la Sierra de los Órganos, al occidente de Cuba, y se discuten los resultados de su aplicación al Hotel Moka, localizado en ese asentamiento. El procedimiento propone criterios de evaluación, pero los indicadores de referencia deberán ser ajustados a escala local. Se diferencian los impactos ambientales, económicos, sociales e integrales de las variables y parámetros a evaluar. El Hotel Moka fue evaluado de bien, con los mejores resultados en la variable “Arquitectura” y los peores en “Materiales”. PALABRAS CLAVES: Ecoturismo; comunidades rurales; evaluación de sustentabilidad; Hotel Moka. RURAL ECO TOURISTIC COMMUNITIES. SUSTAINABILITY ASSESSMENT OF MOKA HOTEL IN THE COMMUNITY “LAS TERRAZAS” ABSTRACT Despite there are numerous methods to evaluate architectural and urban sustainability, a few of them have been developed for Latin America and The Caribbean. Rural communities related to eco-tourism require a special attention. The present paper exposes the theoretical basis to propose a sustainability assessment system for rural eco-touristic communities, taking as a study object the community Las Terrazas in western Cuba, and the results of its application to the Moka Hotel, located in that settlement are discussed. The procedure proposes evaluation criteria, but the reference indicators should be fitted at a local scale. Environmental, economic, social and integral impacts of the variables and parameters to be evaluated are differentiated. The Moka Hotel was evaluated as Good, with the best results corresponding to the variable “Architecture” and the worst related to “Materials”. KEY WORDS: Eco-tourism; rural communities; sustainability assessment; Moka Hotel. 1. INTRODUCCIÓN Son numerosos los métodos, procedimientos e indicadores elaborados durante los últimos treinta años con vistas a evaluar la sustentabilidad a escala arquitectónica y urbana, aunque estos han tenido su origen principalmente en países desarrollados y en zonas con climas no tropicales. La mayoría han sido creados para ser aplicados en una determinada región, y la necesidad de un enfoque local propio fue defendida por el continente africano hace ya 10 años [1]. Sin embargo, son pocos los métodos desarrollados para América Latina y El Caribe, donde tampoco se registran, hasta ahora, intentos de sistemas con validez continental o regional. Las comunidades rurales vinculadas al ecoturismo requieren una especial atención con vistas a preservar el equilibrio de los ecosistemas que constituyen su principal atracción, en lo cual la existencia de principios e indicadores que sirvan de referencia resultaría de gran utilidad. Ese es uno de los objetivos formulados en el proyecto internacional que actualmente desarrollan la Universidad de Gante y la Universidad Tecnológica de La Habana con vistas a mejorar la sustentabilidad en la Comunidad Las Terrazas, ubicada en la Sierra de Los Órganos, al occidente de Cuba [2]. En el presente artículo se exponen las bases teóricas para la propuesta de un sistema de evaluación de la sustentabilidad en comunidades rurales ecoturísticas, tomando Las Terrazas como objeto de estudio y se discuten los resultados de su aplicación al Hotel Moka, localizado en ese asentamiento. 2. MATERIALES Y MÉTODOS La investigación comenzó con una etapa teórica, a partir de la recopilación de información sobre métodos y sistemas de evaluación de la sustentabilidad, variables, parámetros e indicadores considerados. En el procesamiento y valoración de la documentación consultada, se otorgó prioridad a los procedimientos provenientes de regiones geográficas con condiciones más cercanas a Cuba, en cuanto a nivel de desarrollo económico - social y condiciones climático – ambientales. También se consideraron los criterios e indicadores específicamente elaborados para el turismo en Cuba y en el área de El Caribe. Se realizaron análisis cuantitativos y cualitativos de variables, parámetros e indicadores propuestos en las investigaciones precedentes, que tienden a caracterizar el objeto de estudio con vistas a su evaluación comparativa en relación con valores de referencia establecidos. Sin embargo, partiendo de las dimensiones de la sustentabilidad, se decidió diferenciar los impactos, de manera que fuera posible evaluar las consecuencias ambientales, económicas y sociales, así como integrales, de los parámetros y variables a considerar. La integración quedó resumida en una Matriz (Figura 1). Figura 1: Integración de Variables e Impactos. Elaboración propia El procedimiento resultante propone criterios de evaluación, pero los indicadores de referencia deberán ser ajustados a escala local, como fue hecho para el objeto de estudio, que en este caso correspondió al Hotel Moka del Complejo Turístico Las Terrazas. Una vez determinados los indicadores locales, se recopiló la información requerida para el proceso de evaluación y se aplicó el procedimiento de Pareto, con vistas a determinar acciones prioritarias a acometer. 3. RESULTADOS Y DISCUSIÓN Concepción y evolución de los métodos y procedimientos para evaluar la sustentabilidad Las diversas formas de evaluar la sustentabilidad referidas en la literatura internacional se pueden clasificar en tres tipos: las herramientas, los estándares y los sistemas de evaluación de edificios. Las herramientas de evaluación son software o programas informáticos que no se han desarrollado con el fin de otorgar una certificación, sino como ayuda práctica al proyectista. Los estándares, son habitualmente aceptados como sinónimo de “buenas prácticas”, mientras que los sistemas de evaluación establecen una gradación con respecto al cumplimiento de los indicadores de sustentabilidad [3]. Los primeros sistemas de evaluación aparecieron en 1989, y ya hoy se registran unos 330 a escala global. En la presente investigación fueron identificados 27 desarrollados en América, África, Europa, Asia y Australia (Figura 2), y solo en el 30% de ellos se pudo contar con un Manual o Guía Técnica de Requerimientos, de público acceso. El primer sistema de certificación aplicable a la industria de la construcción fue el inglés BREEAM, creado en 1990 y considerado como el más aceptado a escala internacional, fundamentalmente en Europa. Inspirado por BREEAM, el sistema LEED comenzó a desarrollarse en los Estados Unidos de América en 1996 y fue publicado en 1999 [3]. Las certificaciones más actuales son MyCrest (2010) [4], AQUA (2008) [5] y GBI (2006) [6]. Figura 2: Principales sistemas de evaluación de la sustentabilidad. En rojo los países considerados con condiciones más similares a Cuba. Elaboración Propia Enfoques para el turismo en Cuba y El Caribe La Organización Mundial del Turismo reconoce que los profesionales del turismo usan con más frecuencia indicadores económicos como ingresos, gastos, arribos y capacidades de alojamiento, entre otros, razón por la cual ha propuesto añadir la evaluación del impacto ambiental del destino turístico, mediante “Criterios Básicos” e “Indicadores Básicos.” [7], elaborados desde 1992. La Asociación de Estados del Caribe (AEC) creó el proyecto “Desarrollo e Implementación de los Indicadores de Sostenibilidad en el Gran Caribe”, con el fin de hacer una realidad el establecimiento de la Zona de Turismo Sustentable del Caribe (ZTSC). El método propuesto para manejar el turismo sustentable se manifiesta mediante la identificación, implantación y evaluación de indicadores, y se organiza en nueve etapas o fases, concebidas como partes de un proceso de mejora continua que encamina al destino hacia la sustentabilidad [8]. El Ministerio de Turismo (MINTUR) de conjunto con el Ministerio de Ciencia, Tecnología y Medio Ambiente (CITMA) desarrollaron una propuesta de referencia para el destino Cuba, que abarca todos los indicadores de sostenibilidad turística de la Asociación de Estados del Caribe (AEC) y comprende otros que resultan de importancia para el logro de los objetivos y metas del desarrollo turístico, además de su correspondencia con las acciones que se realizan en materia ambiental en Cuba [7]. Procedimiento propuesto para comunidades ecoturísticas En la documentación consultada, el impacto de las variables a evaluar es generalmente considerado en una de las dimensiones de la sustentabilidad (ambiental, económica o social), pero el procedimiento propuesto ha pretendido tener en cuenta el impacto de cada variable en las tres dimensiones de la sustentabilidad, de forma tal que cada aspecto se evalúa de manera integral. Por tanto, se han identificado las variables a evaluar y sus impactos (Figuras 3 y 4). Figura 3: Variables. Elaboración propia Figura 4: Impactos. Elaboración propia En la presente investigación se han asumido los siguientes términos: - Variables: Aspectos independientes a través de los cuales se evalúa un objeto de estudio. - Parámetros: Aspectos dependientes de las variables, que constituyen acciones o formas de medirlas. - Indicadores: Valores de referencia mediante los cuales se mide el nivel de cumplimiento de un parámetro. - Impactos: Efectos positivos o negativos que ejerce un parámetro en cualquiera de las dimensiones de la sostenibilidad. - Ponderaciones: Valor que altera el resultado de la evaluación de una variable o parámetro, según su importancia o prioridad. - Categorías: Niveles de evaluación según un porcentaje de cumplimiento respecto a un total. De los 27 sistemas de evaluación identificados, se otorgó prioridad a los que provienen de países con un contexto similar al cubano en cuanto a nivel de desarrollo y clima: EEWH (Taiwán, 1999) [9], LEED- India (India, 2001) [10], TERI - GRIHA (India, 2015) [11], AQUA (Brasil, 2008) [5], MyCrest (Malasia, 2010) [4], PCES (México) [12], LOTUS (Vietnam, 2017) [13] y GBI (Malasia) [6]. La información tomada de las certificaciones que poseen un manual de evaluación disponible de acceso público, o al menos alguna información relacionada con aspectos que evalúan, corresponde a los parámetros de las variables energía, agua, materiales, residuos, calidad ambiental y plan general, así como a impactos económicos, sociales y ambientales. El resto de los impactos fueron tomados de los lineamientos metodológicos elaborados para incorporar la variable ambiental en las decisiones que afectan el proceso de inversión en áreas turísticas rurales [14], clasificados en “Componentes ambientales”, “Aspectos socioeconómicos y calidad de vida”, “Patrimonio cultural, histórico y arqueológico” y “Aspectos étnicos” Sobre esta base fue elaborado el procedimiento para la evaluación de comunidades ecoturísticas vinculadas al turismo, que considera 126 aspectos: - Energía: consumo total; generación de energía alternativa; monitoreo. - Agua: consumo total; fuentes alternativas; eficiencia del equipamiento; monitoreo; calidad del agua. - Residuos: sólidos (sistema de gestión); líquidos (sistema de tratamiento). - Materiales: origen; mantenimiento y durabilidad; desmontables o reusables; energía embebida; sanos. - Calidad Ambiental – Arquitectura: acústica; visual; térmica; olfativa; calidad del aire. - Plan general: conectividad; transporte no contaminante; restauración y protección de la parcela; mitigación del efecto de isla de calor. - Tecnologías: eficiencia; luminarias. A partir de las fuentes consultadas se conformó un sistema de 272 impactos sociales, económicos y ambientales en los que pueden influir las variables y parámetros definidos. No obstante, se requiere de un trabajo interdisciplinario con vistas a su precisión futura. Indicadores Para definir los indicadores a tomar como referencia con vistas a evaluar las variables y parámetros contenidos en el procedimiento elaborado, se tuvieron en cuenta, entre otras fuentes consultadas, las certificaciones que poseen un manual de evaluación disponible de acceso público, o al menos alguna información relacionada con los indicadores: BREEAM (Reino Unido, 1990) [15], PRS (Emiratos Árabes, 2010) [16], LEED (Estados Unidos, 1996) [17], GBI (Malasia, 2006) [6], Green Mark (Singapur, 2005) [18], LEED-India (India, 2001) [11], PCES (México) [12] y LOTUS (Vietnam, 2017) [13]. Especial atención también se brindó a las Normas Cubanas, que contienen estrategias de diseño y requisitos necesarios. Como las certificaciones consultadas poseen diversas escalas, denominaciones y formas de evaluar, en el presente trabajo se optó por establecer tres niveles de cumplimiento de los indicadores (Aceptable, Bien y Excelente), tomando siempre como base para el valor de cumplimiento “Aceptable”, los indicadores propuestos en países con un contexto similar al cubano. La propuesta de indicadores puede contener valores cuantitativos o un sistema de acciones o requisitos cualitativos (Figura 5). Figura 5: Esquema del procedimiento seguido para definir los indicadores. Elaboración propia Ponderación Los valores de ponderación deben partir del estudio de condiciones políticas, económicas, sociales y ambientales particulares del sitio donde se aplique la evaluación. De manera general, las ponderaciones se elaboran a partir de la interrelación de los pares: Variable-Contexto y Variable-Impacto. La elaboración de valores de ponderación respecto al primer par no está al alcance del presente trabajo, pero se define su lugar en la estructura del procedimiento. A partir de la relación establecida entre variables e impactos, se determina un coeficiente que expresa el impacto relativo de cada parámetro respecto a uno total de referencia. Categorías Para determinar la base porcentual sobre la que se establecen las tres categorías de evaluación definidas, se consultaron los métodos que establecían una escala de tres (PCES (México) [12], CES (Chile) [19] y Asociación de Estados del Caribe (AEC) [20]. Para establecer cada uno de los niveles de cumplimiento del procedimiento, se tomó el mayor valor porcentual exigido en las fuentes consultadas. El mayor valor mínimo corresponde al método CES (30%) y los mayores valores medios y máximos pertenecen al método AEC, 60% Y 90% respectivamente. Sobre esta base, los rangos de niveles de cumplimiento determinados fueron: - No certificado: 0 – 29% - Aceptable: 30% - 59% - Bien: 60% - 89% - Excelente: 90% - 100% Operación del proceso El principal objetivo del procedimiento propuesto es mejorar la sustentabilidad de los destinos ecoturísticos vinculados a comunidades rurales, para lo cual se hace la evaluación (diagnóstico) con vistas a implementar un plan de mejoras. A partir de ahí, el sistema está compuesto por los siguientes elementos: - Variables, que constituyen la base del contenido a evaluar. - Parámetros, que son la unidad básica evaluación, divididos en principales y secundarios. - Valores de referencia, que responden a tres niveles de cumplimiento de los indicadores (“Aceptable”, “Bien” y “Excelente”), y que pueden tener una expresión cuantitativa o cualitativa. - Valores de diagnóstico, que se detectan en el objeto de evaluación y se comparan con los de referencia. - Rangos de puntuación. Existen cuatro rangos correspondientes al cumplimiento de cada uno de los valores de referencia: Aceptable (3 puntos); Bien (4 puntos), y Excelente (5 puntos). El incumplimiento del valor mínimo de referencia otorga 1 punto (No Aceptable), y en caso de no disponer de información para la evaluación de un parámetro, este no se tendrá en cuenta en el proceso de cálculo de la evaluación. - Promedio: Constituye la media aritmética de los puntos obtenidos por cada variable. - Promedio ponderado: Es el resultado del promedio afectado por su valor de ponderación, empleado en gráficos de barras y radar. - Impactos: Contiene valores relativos por dimensiones de la sustentabilidad. - Impacto total de cada parámetro: Es la sumatoria de los impactos de un parámetro en todas las dimensiones. - Prioridad de cada parámetro: Es la relación entre el impacto total de cada parámetro y la evaluación obtenida, directamente proporcional al impacto total de cada variable e inversamente proporcional a la evaluación. Este valor se utiliza para la elaboración del Diagrama de Pareto. - Ponderación de cada variable: Constituye el valor que afecta la evaluación de una variable en dependencia de su nivel de importancia. - Sumatoria de puntos obtenidos por parámetros: Es la suma de los puntos obtenidos en los parámetros evaluados. - Valoración máxima alcanzable: Se determina mediante la relación entre la cantidad de parámetros evaluados y el máximo de puntos de los rangos de puntuación. - Porcentaje de cumplimiento: Constituye la relación entre la Sumatoria de puntos obtenidos por parámetros y la valoración máxima alcanzable. - Categoría alcanzada: Depende del Porcentaje de cumplimiento. El procedimiento cuenta con una parte objetiva determinada por los rangos de puntuación en promedio y la categoría, y otra subjetiva dada por la prioridad otorgada a cada parámetro, encaminado a la implementación de un plan de mejoras. Para su funcionamiento solo se requiere de la introducción manual de los datos del diagnóstico e impactos por dimensiones correspondientes a cada parámetro, a partir de lo cual se realizan de forma automática, sobre la base de una programación en Excel, las siguientes operaciones: - Comparación del dato de diagnóstico con los valores de referencia para expresar el nivel de cumplimiento - Cálculo del promedio de puntos del rango de puntuación por variables, y ponderación, para expresar el valor promedio ponderado. - Sumatoria del impacto por dimensiones, expresado en el impacto total de cada parámetro, el cual se divide entre los puntos obtenidos en el rango de puntuación de uno para obtener su resultado en términos de prioridad. Se ha desarrollado un sistema de gráficos del tipo barras, radar y Pareto, que permiten visualizar resultados. Los dos primeros se basan en el promedio ponderado de cada variable, mientras que el de Vilfredo Pareto [21], conocido también como la regla del 80-20, ley de los pocos vitales o principio de escasez del factor expresa la prioridad de cada parámetro (Figura 6). Figura 6: Diagrama de Pareto. Elaboración propia Aplicación en la evaluación del Hotel Moka El Plan Sierra del Rosario, iniciado en 1968, fue un proyecto de reforestación en 5000 hectáreas de esa zona montañosa, mediante un sistema de terrazas, que contribuyó a la preservación de un importante ecosistema maderero y reunió en una comunidad a familias que vivían dispersas en esa región montañosa. En 1985 la UNESCO declaró Reserva de la Biosfera veinticinco mil hectáreas de la Sierra del Rosario, que la comunidad Las Terrazas, a la cual se la ha otorgado a inicios de 2020 la categoría nacional de “paisaje cultural”. Una pieza fundamental de este sitio es el Hotel Moka (Figura 7), tomado como objeto de estudio para aplicar el procedimiento de evaluación elaborado, y que obtuvo en 2018 el “Aval Ambiental” del Ministerio de Ciencia, Tecnología y Medio Ambiente (CITMA). Figura 7: Hotel Moka. Microlocalización, imagen y axonométrico. Elaboración propia El hotel, inaugurado el 28 de septiembre de 1994 y comercializado con la categoría 4 estrellas, cuenta con 42 habitaciones, un restaurante, un lobby bar, un bar parrillada en el área de la piscina, y una tienda. Por tratarse de un edificio, no fue considerada la variable “Plan General”. Para su evaluación, los espacios del hotel se clasificaron en habitables y de trabajo (aquellos donde el usuario tiene una mayor estancia, como las habitaciones, el lobby, el bar, el restaurante y las oficinas), y de apoyo (incluyen los locales técnicos, lavandería y cocina). Energía El consumo total de energía de 99.41 kWh/m²/año se evalúo de “Excelente”, y la generación de energía a partir de fuentes alternativas se consideró “Bien”, al representar el 10.09% del consumo total. Sin embargo, el monitoreo resultó “No Aceptable”, al realizarse de forma global, sin diferenciar las principales fuentes (Figura 8). Figura 8: Evaluación de la variable Energía. Elaboración propia Agua Como “No Aceptable” también fueron evaluados el consumo total de agua, que representa sólo una reducción del 9.04% con respecto al valor de referencia, y la eficiencia del equipamiento, con inodoros de más de 6 litros por descarga. A pesar de que el riego de las áreas verdes exteriores se realiza con agua del lago más próximo, impulsada por una bomba solar, no fue posible evaluar el consumo por fuentes alternativas, por falta de información sobre el volumen de almacenaje y la frecuencia de uso. No obstante, se calificaron de “Excelente” la calidad del agua y el monitoreo del consumo (Figura 9). Figura 9: Evaluación de la variable Agua. Elaboración propia. Residuos En cuando a los residuales líquidos, se consideró “Aceptable” el sistema de tratamiento colectivo primario y secundario, y “No Aceptable” el monitoreo, ya que no se realiza. Sin embargo, resulta “Excelente” el monitoreo de los residuales sólidos reciclables, entregados y controlados semanalmente, y “Aceptable” el sistema de gestión, ya que se clasifican y evacuan sistemáticamente (Figura 10). Figura 10: Evaluación de la variable Residuos. Elaboración propia. Materiales La estructura del hotel es de hormigón armado in situ, con entrepiso de viguetas y bovedillas, y cubierta a dos y cuatro aguas, de entablado de madera recubierto con tejas de cerámica. La carpintería, en general, es de madera y cristal, y se emplearon maderas preciosas importadas en las barandas de las galerías, las terrazas de las habitaciones y el restaurante, así como en la carpintería que protege los vanos de las habitaciones hacia los espacios de circulación. Los muros son de bloques de hormigón de 200 mm de espesor y los pisos están terminados con mosaicos. Figura 11: Evaluación de la variable Materiales. Elaboración propia. De acuerdo con esto, resulta “Excelente” el empleo de materiales de origen regional, que representan el 51.93% del costo total de materiales, y “Bien” los de origen renovable para un 8.9% del costo total. Sin embargo, son “No Aceptable” diversos parámetros como el uso de materiales de origen reusados, reciclados y reciclables, que no se reportan, o los reusables, que representan el 47.74%, e incluso, de baja energía embebida, que sólo constituyen el 5.56% del costo total. Por último, se carece de información para evaluar los materiales sanos (Figura 11). Tecnologías Aunque el Hotel Moka presenta equipamiento de alta eficiencia en áreas de la cocina, lavandería y climatización de las habitaciones, dado por las marcas Domus Eco-Energy (lavandería) y High Prestige-R410A-ECOLOGICO (climatización de habitaciones), aún existe equipamiento ineficiente por su antigüedad, que sobrepasa en muchos casos los 20 años de explotación. Por tanto, este parámetro resultó “No Aceptable”, ya que ninguna de las áreas posee el 100% de equipamiento eficiente. Sin embargo, todas las luminarias fueron sustituidas por dispositivos tipo LED en el año 2018, están bien distribuidas, y las habitaciones poseen el sistema de cierre “Centinela”, por lo que este parámetro fue evaluado de “Excelente” (Figura 12). Figura 12: Evaluación de la variable Tecnologías. Elaboración propia Arquitectura La orientación de los espacios al oeste se considera desfavorable por la ganancia térmica en horas de la tarde, cuando más altas son las temperaturas, por lo que se incrementa la demanda energética por climatización artificial. No obstante, el 86.51% de los espacios están orientados en el entorno norte, por lo que se otorga la categoría “Bien”. En cuando al diseño de vanos, todos los espacios poseen algún tipo de protección solar, por la propia volumetría de la edificación y la presencia de vegetación, pero no se cumplen los ángulos de protección requeridos de acuerdo con la orientación, por lo que se otorga la categoría “Aceptable”. Según el tipo de vanos, con excepción del vidrio fijo de las oficinas, todos están provistos de ventanas abrideras que permiten visuales al exterior a la vez que es posible regular la ventilación y mantener el espacio iluminado, aun cuando las ventanas permanezcan cerradas. Este parámetro obtiene evaluación “Excelente”. De manera general, los cierres de los vanos en los espacios climatizados no presentan juntas que garanticen una elevada hermeticidad, por tanto, esto se considera “Aceptable”. La envolvente se evalúa a partir del cumplimiento de la norma de eficiencia energética (NC 220.1) en los cierres sin protección solar, es decir, la cubierta, conformada por un tablero contrachapado de madera, una capa de impermeabilización y tejas criollas, cuyo sistema posee un valor U= 0.19 W/m2 ºC, menor que U= 1.0 W/m2 ºC, valor normado para cubiertas, por lo que alcanza la categoría “Excelente”. Con respecto a la protección acústica, la instalación se encuentra emplazada en una zona alejada de fuentes de ruido exterior como vehículos, aviones, trenes, acciones constructivas o industriales, y las actividades urbanas comunitarias no afectan el ambiente acústico, además, está rodeada de una gran masa verde que ayuda a amortiguar las fuentes de ruido externo. Sin embargo, una deficiencia detectada es que no tiene elementos que sirvan de barrera acústica interior para el control de fuentes de ruido externo, por lo cual, alcanza el nivel de evaluación “Bien”. Sin embargo, el control de fuentes de ruido interno se considera “Excelente”. Figura 13: Evaluación de la variable Arquitectura La calidad del aire fue evaluada de “Excelente” en los espacios de apoyo o técnicos, como lavandería, almacenes, servicios sanitarios, habitaciones de amas de llaves y cuarto de pizarra general de distribución, todos los cuales cumplen los recambios de aire por hora exigidos en las regulaciones de ventilación higiénica. También se consideró excelente la protección contra contaminantes, ya que el hotel se encuentra alejado de fuentes potenciales de contaminación del aire como industrias y autopistas, además, su emplazamiento lo constituye un ambiente predominantemente natural. Por otro lado, el diagnóstico realizado al Hotel Moka por el Ministerio de Ciencia, Tecnología y Medio Ambiente (CITMA) en el período 2017-2018, concluyó que las emisiones de gases a la atmósfera, generadas por las áreas de elaboración que emplean como combustible el gas licuado, son despreciables (Figura 13). Resumen La evaluación del Hotel Moka incluyó 6 variables compuestas por 29 parámetros, como resultado de lo cual obtuvo 89 puntos, que representan un 61.38% del total posible (145 puntos), alcanzando el nivel de evaluación “Bien” (Figura 14). La variable con un mayor porcentaje de parámetros que cumplen los requerimientos mínimos, y por tanto, con mejores resultados integrales, fue la “Arquitectura”, con un 88.89% de los parámetros, mientras que la variable “Materiales” ofrece los peores resultados, con un 28.57%. Los consumos energéticos resultan bajos con respecto a los valores de referencia, pero la ausencia de monitoreo dificulta una adecuada gestión. Lo contrario sucede con el agua, cuya calidad y monitoreo alcanza la más alta evaluación, lo cual constituye un importante potencial para una mejor gestión de la eficiencia del equipamiento con vistas a reducir el consumo total, que ha sido uno de los principales problemas detectados. Aunque los sistemas de gestión y tratamiento de los residuos se han considerado aceptables, hay diferencias entre el monitoreo de los residuos sólidos y los líquidos. También es insuficiente la eficiencia de los equipos tecnológicos en lavandería y cocina, así como en los sistemas de climatización de las habitaciones. Figura 14: Resumen de evaluación por variable 4. CONCLUSIONES El procedimiento propuesto para evaluar la sostenibilidad de los destinos ecoturísticos vinculados a comunidades rurales integra variables, parámetros e indicadores de los sistemas internacionales de evaluación, sobre todo aquellos provenientes de países con condiciones similares a Cuba, y las experiencias cubanas de gestión de la sostenibilidad en el turismo. El procedimiento propuesto incluye un sistema de ponderación que integra las dimensiones económica, social y ambiental de los impactos, establece una guía de acciones prioritarias y ofrece un programa automatizado que favorece su implementación. La aplicación al Hotel Moka del procedimiento propuesto para evaluar la sostenibilidad de los destinos ecoturísticos vinculados a comunidades rurales arrojó una evaluación de “Bien”, con los mejores resultados en la variable “Arquitectura”, los peores en la variable “Materiales”. Las acciones inmediatas deberán ir dirigidas a la reducción del consumo de agua. RECONOCIMIENTOS Los autores desean agradecer el apoyo del proyecto VLIR “Renewable energy and bioclimatic architecure improving sustainability and development un Eco touristic settlement; Las Terrazas” que se desarrolla de forma conjunta entre la Universidad Tecnológica de La Habana (CUJAE) y la Universidad de Gent. REFERENCIAS 1- UN-HABITAT. Conference on Promoting Green Building Rating in Africa.Nairobi: UN - Hábitat; 2010. https://mirror.unhabitat.org/downloads/docs/7920_76265_Conference%20on%20Promoting%20Green%2 0Building%20Rating%20In%20Africa%20Report%202.pdf. (Último acceso 11 de marzo de 2020) 2- RUEDA GUZMÁN, L. A.; N. COLLADO BALDOQUÍN; D. GONZÁLEZ COURET; O. SÁNCHEZ MARTÍNEZ; A. HANSSENS Y J. E. VAILLANT REBOLLAR. “La colaboración internacional a través de proyectos. El desarrollo sostenible en la comunidad Las Terrazas”. Arquitectura y Urbanismo, vol. XXXIX, no 2, mayo- agosto 2018, pp. 92-98. http://docplayer.es/133314134- Arquitectura-y-urbanismo.html (Ultimo acceso 11 de marzo de 2020). 3- IHOBE. Contagiando ilusión por la innovación, por el desarrollo sostenible y por la excelencia. Informe Anual IHOBE, 2010. http://www.euskadi.eus/web01- a2aznscp/es/k75aWebPublicacionesWar/k75aObtenerPublicacionDigitalServlet?R01HNoPortal=true&N_ REVI=003985&N_FASC=0002&C_IDIOM=es&FORMATO=.pdf (último acceso 11 de marzo, 2020). 4- MUSTAFFA KAMAL, M. F.; MOHD AFFANDI, H.; EIZZATY SOHIMI, N.; ABDUL MUSID, N. H.; MOHD ALI, M. R.; MAT NASHIR, I. MALASYAN “Carbon Reduction and Environmental Sustainability Tool (MYCREST) Qualified Professional Training Assesment”. Journal of Technical Education and Training, 11 (4), 2019. Retrieved from https://publisher.uthm.edu.my/ojs/index.php/JTET/article/view/3142 (Último acceso 11 de marzo de 2020). 5- TAVARES IANTORNO, I. “Estudio comparativo de las certificaciones “Green Building” en edificios para la validación óptima del sistema de certificación “AQUA” de Brasil”. Tesis de Master en Ingeniería de la Edificación. Ecola Politécnica Superior d’Edificació de Barcelona. Universitat Politécnica de Catalunya, 2016. https://core.ac.uk/download/pdf/46111551.pdf. (Último acceso 11 de marzo de 2020). 6- ZAINOL, H.; ALAUDDIN, K.; SHUKRI, N. “The Green Building Assessment Tools for Water Efficiency Criteria in Malaysia: An Analysis”. Malaysian Journal of Sustainable Environment, [S.l.], v. 2, n. 1, p. 161-176, june 2017. ISSN 0128-326X. Available at: http://103.8.145.246/index.php/myse/article/view/5589>. Date accessed: 11 mar. 2020. doi: https://doi.org/10.24191/myse.v2i1.5589. 7- BLANCO RIOS, A.A. “Propuesta de indicadores para evaluar la sustentabilidad turística del destino Cuba.” Tesis en opción al título de Licenciado en Turismo. Universidad de La Habana, 2016. 8- SAETEROS HERNÁNDEZ, A., DA SILVA, E., & FLORES SANCHEZ, M. “Turismo Sustentable y los diferentes enfoques, aproximaciones y herramientas para su medición”. PASOS Revista De Turismo Y Patrimonio Cultural, 17(5), 2019, 901-914. https://doi.org/10.25145/j.pasos.2019.17.064. (Último acceso 11 de marzo de 2020) 9- CHUANG HW, LIN HT, HO MC. “The Eco-Community Evaluation System of Taiwan: An Introduction to EEWH-EC”. Applied Mechanics and Materials 2011;71–78:3466–9. https://doi.org/10.4028/www.scientific.net/amm.71-78.3466. (Último acceso 11 de marzo de 2020) 10- ASHWINSABAPATHY, SANTHOSH K.V.RAGAVAN, MAHIMAVIJENDRA, ANJANA G.NATARAJA. “Energy efficiency benchmarks and the performance of LEED rated buildings for Information Technology facilities in Bangalore, India”. Energy and Buildings. Volume 42, Issue 11, November 2010, Pages 2206-2212. https://doi.org/10.1016/j.enbuild.2010.07.014. (Último acceso 11 de marzo de 2020) 11- RUSSELL M. SMITH. “Green” building in India: a comparative and spatial analysis of the LEED-India and GRIHA rating systems”. Journal Asian Geographer . Volume 32, 2015 - Issue 2. Pages 73-84. https://doi.org/10.1080/10225706.2015.1020065. (Último acceso 11 de marzo de 2020) 12- RAMÍREZ BERUMEN, T. F.; ESQUEDA TELLO, F. A.; RAMÍREZ CUESTA, A. L.; DE LA CRUZ ROMERO, M. A.; DELGADO LOZANO, L. P. “Evaluación De Dirección Integrada De Proyectos Y Riesgos De Construcción De Edificios Sustentables En Zonas Metropolitanas Del Norte De México”. Proceedings from the International Congress on Project Management and Engineering. CIDIP 2013 (Logroño), 2013. http://dspace.aeipro.com/xmlui/handle/123456789/971. (Último acceso 11 de marzo de 2020) 13- HONG-TRANG Nguyena, Matthew GRAY. “A Review on Green Building in Vietnam. Sustainable Development of Civil, Urban and Transportation Engineering Conference”. Procedia Engineering 142 ( 2016 ) 314 – 321. http://creativecommons.org/licenses/by-nc-nd/4.0/ doi:10.1016/j.proeng.2016.02.053. (Último acceso 11 de marzo de 2020) 14- RIVAS O., H., n.d. “Los Impactos Ambientales en áreas Turísticas Rurales y propuestas para la Sustentabilidad”. Gestión Turística No 3. Pp. 47 – 75. 1998 - dialnet.unirioja.es. https://scholar.google.be/scholar?hl=es&as_sdt=0%2C5&as_vis=1&q=Rivas+O.%2C+H.%2C+n.d.+Los +Impactos+Ambientales+en+%C3%A1reas+Tur%C3%ADsticas+Rurales+y+propuestas+para+la+Susten tabilidad.&btnG=. (Último acceso 11 de marzo de 2020) 15- SARAH Aspinall, Begum SERTYESILISIK, Amr SOURANi, Ashley TUNSTALL. “How Accurately Does Breeam Measure Sustainability?” Creative Education, 2012. . Vol., 3, Supplement, 1-8, Published Online December 2012 in SciRes (http://www.SciRP.org/journal/ce) https://www.scirp.org/pdf/CE_2013010811010050.pdf. (Último acceso 11 de marzo de 2020) Sobre los autores Román Alejandro Pérez Rosales. Arquitecto. ENPAI 8, Matanzas Dania González Couret. Arquitecta. Profesor Emérito de la CUJAE. Doctor en Ciencias Natali Collado Baldoquin. Arquitecta. Profesor Auxiliar de la CUJAE. Doctor en Ciencias Técnicas Luis Alberto Rueda Guzmán. Arquitecto. Profesor Titular de la CUJAE. Doctor en Ciencias Técnicas 1 UNIDAD DE HABITACION TEMPORARIAS PARA EVACUADOS (SANTA FE, 1980) Guillermo Javier Marzioni 1, María Lujan Llorensi 2 1Universidad Nacional Arturo Jauretche, 2Universidad de Buenos Aires 1e-mail: guillermomarzioni@gmail.com RESUMEN La UHaTE (Unidad de Habitación Temporaria para Evacuados) es la denominación de una particular vivienda transitoria para inundados ideada para resolver la situación de emergencia en Santa Fe Capital, Argentina. Implementado en tiempos de la dictadura genocida (1976/1983), fue proyectada y construida en el marco de la política pública del Estado que por sus características y control parecía una cárcel. Al retomarse la democracia el lugar quedó en abandono con precarias condiciones sanitarias. Sigilosamente comenzó a habitarse componiendo un complejo entramado social con 92 familias en extrema necesidad que se organizaron en comunidad para resolver solidariamente los problemas de segregación transformándose en Barrio La Florida. Esta experiencia de mejoramiento del ambiente construido estuvo acompañada por un grupo de estudiantes universitarios desde el Taller Interdisciplinario de Hábitat Popular enmarcada en una tarea de extensión e investigación con un proceso de praxis entre el trabajo territorial y el análisis de gabinete, así como un exhaustivo Registro y Sistematización. Aquel aprendizaje sobre la detección, comprensión e interés por la vivienda transitoria se retomó en una investigación reciente sobre la política habitacional que permitió comprender que la UHaTE está relacionada con los Núcleos Habitacionales Transitorios del Plan de Erradicación de Villas de Emergencia del Estado Nacional. La política construyó también viviendas definitivas diagramadas en grandes ensambles de Conjuntos Habitacionales estructurados en obras de mega ingeniería. Estos escritos ponen en juego la aportación de la vinculación de la universidad con el territorio y la perspectiva del abordaje interdisciplinario del hábitat. PALABRAS CLAVES: Hábitat, vivienda, emergencia, política, interdisciplina. TEMPORARY ROOM UNIT FOR EVACUEES (SANTA FE, 1980) ABSTRACT The UHaTE (Temporary Room Unit for Evacuees) is the name of a particular temporary housing for flooded people designed to solve the emergency in Santa Fe Capital, Argentina. Implemented in times of the genocidal dictatorship (1976/1983), it designed and built within the framework of the public policy of the State that by its characteristics and control seemed like a prison. When democracy resumed, the place abandoned with precarious sanitary conditions. Stealthily began to inhabit composing a complex social network with 92 families in extreme need that organized themselves into community to solve in solidarity the problems of segregation transforming into Barrio La Florida. A group of university students accompanied this experience of improvement of the built environment from the Interdisciplinary Workshop of Popular Habitat framed in a task of extension and research with a process of praxis between territorial work and cabinet analysis, as well as an exhaustive Registry and Systematization. That learning about the detection, understanding and interest in transitional housing taken up in a recent research on housing policy that allowed us to understand that the UHaTE related to the Transitory Housing Nuclei of the Emergency Villa Eradication Plan of the National State. The policy also built definitive houses diagrammed in large assemblies of Housing Complexes structured in mega engineering works. These writings put into play the contribution of the link of the university with the territory and the perspective of the interdisciplinary approach to habitat. KEY WORDS: Habitat, housing, emergency, politics, interdiscipline 2 1. INTRODUCCIÓN El objeto de estudio de presente trabajo es la Unidad de Habitación Transitoria para Evacuados que se implementó en Santa Fe Capital, una ciudad de medio millón de habitantes de Argentina. En la revisión histórica de lo urbano habitacional se incorpora la vivienda transitoria como innovación tipológica. Se retoma el tema de análisis que surge del ejercicio técnico de observación de la particular tipología. En el segundo apartado se restituyen los datos de la forma arquitectónica, la función edilicia y sus usos, la tecnología constructiva y el contexto urbano del barrio estudiado. Luego se enfatiza en el tercer punto la vinculación del estudiantado en el marco de accionar universitario institucionalizado con el territorio y la población, su caracterización socio-ambienta, fuentes de ingresos económicos, la composición etaria, las singularidades de género, la reivindicación de los derechos, la organización e intento de desafiar la radicación en el lugar habitado. Y finalmente en el cuarto apartado se pone en relación el proyecto habitacional de viviendas temporarias con el Plan de Erradicación de Villas de Emergencia. La vivienda transitoria en la política habitacional En las ilustraciones sobre la ciudad a través de los procesos históricos del urbanismo [1], relacionados con la política de vivienda surge una tipología particular, cuya diferenciación se expresa por su uso y por su forma, se trata de las viviendas transitorias. Identificables por en el implante urbano de manzanas longilíneas atípico en la trama reticular de calles, en la materialidad, en la forma arquitectónica y en la segregación socio cultural [2] que se ha generado respecto de su contexto. Se utilizan también otras denominaciones que explican con claridad su rol de cobijo temporario y no permanente o definitivo para la población que la habita. ¿De dónde proviene la tipología de la vivienda transitoria? En la historia nacional la desigual distribución de la tierra que catapultó una porción de la población a la búsqueda constante de mejores condiciones de trabajo y los llevo a habitar hacinados en los conventillos porteños [3] o en las viviendas temporarias de los pueblos azucareros del noroeste [4] que se sospechan como referencias del diseño. La UHaTE se ha implementado como obra de viviendas transitorias para evacuados que vivían asentados en áreas inundables, a las que se refiere este trabajo. El recorrido investigativo permite distinguir entre la memoria del conflicto político de época [5] y la tipología de la vivienda para la emergencia. La mirada puesta en los estudios sobre viviendas transitorias El interés por los barrios de viviendas transitorias surgió a partir de la práctica profesional desempeñada en el marco de actividades institucionales desde la universidad y la acción de extensión que articula con las organizaciones sociales, las entidades intermedias y organismos del estado. Se presenta en estas páginas una experiencia que dejó un entrenamiento técnico en la detección, comprensión e interés por la vivienda transitoria y luego, el abordaje metodológico que incentivó el tema de investigación. Una de demanda que se presentó en el grupo de profesionales interdisciplinario con quienes se han realizado acciones de intervención sobre diferentes barrios fue la de mejorar las condiciones del ambiente construido de un barrio transitorio respetando el derecho de la población de habitar en ese sector urbano de la ciudad. El vínculo directo con la población, a partir del accionar conjunto con diversos actores intervinientes en la problemática del hábitat, ha permitido conocer, de primera fuente, historias de vida sobre los recorridos que condujeron a las familias a vivir en estos espacios degradados y sobre aspectos de la cotidianeidad del habitar junto a otros habitantes en situaciones de dificultad similares que quedaron involucrados en proyectos que había sido decididos en otras esferas decisionales por fuera de sus singulares voluntades. Así es como la comunidad y quienes apoyaban desde afuera, indagaron en la materialidad para buscar respuestas técnicas adecuadas en tanto tecnologías propias, apropiadas y apropiables para la población. En este sentido, fue necesario entender los edificios, sus patologías, las dificultades para ingeniar una ampliación en espacios reducidos, lograr la aislación del ruido con los vecinos, la protección para seguridad en los muros, la refacción de panelearías endebles, la impermeabilización o el reemplazo de techos, la resolución del problema sanitario de la vivienda. En la escala barrial, incorporaron la autogestión para acceder a las infraestructuras de agua potable, de cloacas con sistema de pozos absorbentes, de los espacios comunitarios y la indagación en la búsqueda de solución al problema dominial de la tierra, del suelo donde se erigieron estas viviendas. Dirimiendo con el 3 miedo al desalojo, las razias policiales, sin orden judicial alguna, solamente basada en la estigmatización y la discusión de la vivienda definitiva que resultaba prácticamente impensable. Estos temas fácticos han sido motivo de reuniones y asambleas con los vecinos, en los pasillos o en calles, en ida y vuelta con los momentos de trabajo en gabinete con los equipos técnicos que permitió interrelacionar el saber popular y los relatos sobre ideologías y políticas, repuestas habitacionales y la búsqueda de relaciones respecto de las particularidades de estos barrios. Esta praxis llevó al aprendizaje. Pero quedaron múltiples y varias intrigas imposibles de resolver en el fragor de la tarea. Desde este incentivo, apareció el desafió de seguir conociendo, ordenando, relacionando y verificando en el plano de la investigación sistemática [6] para una mejor comprensión de las transformaciones que acontecen en el hábitat urbano y su relación con la politica habitacional. 2. EL BARRIO ESTUDIADO La propuesta del UHaTE corresponde a los tiempos de la dictadura militar (1976/1983). En el marco de la Secretaría de Obras Públicas de la Provincia de Santa Fe y particularmente este proyecto habitacional se ha instrumentado en relación con áreas de gobierno nacional, con las que se articula el andamiaje jurídico administrativo cuya descentralización corresponde con la estructura de país federal que se constituyó en Argentina. El tercer nivel del Estado es el municipal que toma incumbencia por la localización del predio. El complejo se situó sobre tierras pertenecientes a la propiedad del Estado Nacional y bajo el dominio del ejército, en el Batallón 12 de Infantería, que se encontraba en actividad. El momento histórico de esta propuesta habitacional, está ligado a los desalojos compulsivos que se había realizado en el gobierno dictatorial [7], en el que se expulsó a la población que habitaba en pequeñas villas o galpones en el trama urbana hacia un loteamiento en tierras estatales alejadas del centro, para desfavorecer la llegada de carros de tracción a sangre, en el que se tenía prohibido construir y debían mantenerse habitando en cobijos de madera y chapa de cartón. Entonces para cuando se ejecuta la UHaTE quedaba poca población habitando en villas de emergencia urbanas, sino más bien aquellos pobladores “costeros” que quedaron alojados entre los bañados, vulnerables a las crecidas del río. La función. El proyecto es implementado como un dispositivo para asistir en la emergencia, destinado a viviendas transitorias, al paradero de la población evacuada de zonas inundables del litoral afectado por las crecientes del Río Paraná y sus afluentes, el Río Coronda y el Río Salado, que bañan las costas de la periferia urbana de la ciudad de Santa Fe. El funcionamiento exigía que tras la bajante de las aguas la población debía pasar a un nuevo lugar para resolver el problema habitacional y como transición hacia la vivienda definitiva. La forma. La obra fue construida en 1980, estuvo a cargo del proyecto el Arquitecto Adrián Caballero, quien luego será un urbanista especializado en la metropolización de las ciudades de la zona [8] y docente universitario. El reducto de alojo temporario vuelve a utilizar la tipología de una serie de tiras de piezas y galería. La forma del complejo se componía de un implante de viviendas a la manera de los campamentos utilizados para situaciones de emergencia o en dormideros de trabajadores temporarios. Se diseñó con tipología de pabellón compuesto por tiras de piezas y galería semicubierta. La composición de la planta urbanística se ordenó en dos ejes cartesianos, un cardus, de norte a sur, en el que se definió el acceso y los servicios (en el medio del predio los baños centralizados) y un decumanus, de este a oeste, que vinculaba las tiras de piezas para dormir a manera de insulas. Para la fachada del predio se eligió un pórtico, la Imagen Nº1 indica que apela a ciertos códigos estéticos de la arquitectura del llamado posmodernismo italiano [9] que estaba en boga por esos años. 4 Imagen N° 1: 1990/92 - Unidad Habitacional Temporaria de Evacuación. La tecnología. La construcción fue realizada en sistema prefabricado liviano y desmontable, sobre plateas de fundación, con amarre metálico de la panelería. El material de los paneles de muro y techo fue confeccionado con una argamasa de ligantes cementicios y viruta de madera blanda, quebracho blanco. Las terminaciones, luego de la colocación, fueron revestidas en cemento proyectado. El estudio del sistema surgió de los análisis realizados por docentes investigadores y estudiantes en los laboratorios de la Universidad Tecnológica Nacional. Pintado en color marrón oscuro. Las piezas tenían medidas mínimas de 2.4x2.4, en tanto las carpinterías confeccionadas con marcos en chapa doblada, hojas de puertas placas en madera y ventiluz horizontal, estaban dispuestos a equidistancia. Imagen N° 2: UHaTE en Barrio La Florida (1991) Santa Fe Capital. La Imagen Nº3 muestra la vivienda de un vecino y su familia, quien pero resolvió durante muchos años su cuestión habitacional en las tiras. Paradójicamente este vecino se desempeñó como obrero en la construcción de las viviendas del Barrio Centenario, proyecto ganador de un concurso internacional diseñado por el Arquitecto Tony Díaz y ejecutado en sistema prefabricado pesado de Hormigón Armado, licitado por la empresa constructora DICASA, una corporación favorecida por la dictadura militar y la financiación internacional. 5 Imagen N° 3: Interior de las tiras, dos piezas conectadas por la apertura del vano. Enseres de la cocina. El barrio estaba deterioro, al momento en que se inició la relación entre estudiantes y habitantes, se comenzó un proceso de mejoramiento de las condiciones sanitarias; se recuperó la red de agua, se realizó la limpieza de los baños, desmalezamientos y el retiro de basura; se generaron trabajos de desratización, de sanidad animal y luego mejoras de puertas, fisuras de los muros, pintura; todas las primeras acciones estaban sustentadas en la organización y el aporte del ahorro que integraban las 92 familias habitantes. Las entrevistas en profundidad permitieron indagar otras particularidades como situaciones de segregación social económica cultural, con singulares problemas de violencia familiar, trata de personas, desnutrición, desempleo y otros aspectos que la población estaba atravesando. 3. ESTUDIANTES EN VINCULACION CON EL TERRITORIO La experiencia de acción comunitaria en el mejoramiento del UHaTe (Unidad Habitacional Temporaria de Evacuación) fue realizada desde la investigación-acción y extensión desde el Taller Permanente de Hábitat Popular de la Facultad de Arquitectura y urbanismo de la Universidad Nacional del Litoral [10] en el que se integró un grupo interdisciplinario que sumaba estudiantes de la Facultad de Medicina y de Trabajo Social. El espacio se retroalimentaba con los Habitantes organizados, con la articulación con Caritas (entidad de la iglesia Católica) y con la Dirección Provincial de Vivienda y Urbanismo. El Barrio situado en pocas cuadras del centro de la ciudad de Santa Fe Capital. La metodología estaba basada en las asambleas de vecinos con el apoyo del grupo de estudiantes, monitoreados por el equipo de docentes en un gabinete específico y luego los avances eran compartidos con el grupo interdisciplinario del Taller. La particular propuesta de universitaria surgió en un contexto de transformaciones, fue un espacio de formación con impulso innovador, con docentes abiertos a referencias en el debate urbano. La carrera de arquitectura en Santa Fe era dependiente de la universidad católica y en los albores de la democracia surgen disidencias. Los estudiantes y la mayoría de los docentes emprendieron una huelga de hambre. De ese conflicto, surgió la apertura de la carrera de arquitectura en la Universidad Nacional del Litoral. En estos años se incluían en el programa de las materias, visitas a los territorios con mayores necesidades. Y se abrió el espacio a prácticas experimentales, entre ellas, el Taller de Hábitat Popular. El Taller Permanente de Hábitat Popular, era un espacio constituido en la Secretaría de Investigación en coordinación con la Secretaria de Extensión en la Facultad de Arquitectura Diseño y Urbanismo de la Universidad Nacional del Litoral, donde confluían profesionales docentes de distintas disciplinas, con el apoyo del área de Asesoría Pedagógica Universitaria, con la participación de Trabajadores Sociales de la Escuela Provincial, de Ingenieros la Universidad Tecnológica Nacional Regional Santa Fe. En la tarea de acompañar al equipo de estudiantes, en gabinete, asumió el arquitecto coordinador; luego, otra instancia posterior era la puesta en común con mirada interdisciplinaria [11]. La sistematización del taller y de la 6 experiencia se preservó en el centro de documentación de la Asociación Civil Canoa, espacio en el que se continuo accionando y reflexionando sobre la práctica en el hábitat desde la interdisciplinariedad [12]. El equipo definió trabajar sobre un territorio: la UHaTE. El planteo central estaba justificado en la realidad de que el lugar pensado para el tránsito temporal se había convertido en un barrio. El registro sistemático sobre todo el accionar se plasmó con la metodología de escuela de trabajo social a través de las prácticas desde el encuadre de la organización Caritas. Ese material [13] para la investigación de tesis doctoral sobre otra operatoria similar sobre los Núcleos Habitacional Transitorios. El censo poblacional y las entrevistas a cada familia se comportaron como el soporte y se confrontaron con la planimetría oficial, provista por la Dirección Provincial de Vivienda y Urbanismo y el relevamiento del modo de ocupación de cada pieza fueron un incentivo para la propuesta de radicación. Durante esos años en la formación de grado del grupo de estudiantes, 1993/4, en el curso de Urbanismo I y II, en FADU UNL a cargo del equipo de urbanistas, se retoman la observación y las discusiones sobre las políticas urbano habitacionales y se vuelve al tema de la vivienda transitoria dado que el titular del curso de Urbanismo I y II en la Universidad Nacional del Litoral había diseñado y ejecutado el proyecto de la UHaTE, en el marco de la búsqueda de una acción planificada en respuesta a la demanda habitacional transitoria que había surgido con las consecutivas inundaciones ocurridas, principalmente, por los desbordes fluviales, en la región. Fue una oportunidad para entender cómo se había justificado la producción de este complejo habitacional. Quedó expresado que la particular idea tipológica se tomó de los Núcleos Habitacionales Transitorios construidos en la anterior dictadura, de la década del 60, sobre los que se revisaron algunos aspectos arquitectónicos como la incorporación de una fachada telón. Se incorporaron aspectos del diseño para lo que se tomaron como referencia los aportes del modernismo de Rossi, que influyó desde su primera publicación en 1966, en la década del 1980, respecto de pórticos, simetrías, cuadrados. La cuestión de los baños comunes conducía a enfatizar la transitoriedad y la misma explicación falta de agua en las piezas, por lo cual solo tenía el aprovisionamiento de canillas públicas en las piletas de lavado del área central. En el Aula de la Catedra de Urbanismo se dejaron trazados algunos debates que contraponían la posibilidad de consolidar a la población en el lugar con las propuestas de otros grupos de estudiantes que proponía la construcción de un Conjunto Habitacional edificado en torres sobre el mismo predio, dado que el dominio de la tierra había traspasado administrativamente del Ejercito Nacional hacia la órbita del Dirección de Vivienda y Urbanismo de la Provincia. Al momento de encarar la experiencia de mejoramiento barrial, no hubo recursos financieros desde una política habitacional, sin embargo, se han emprendido acciones valorables, en este sentido se puso énfasis en el recurso humano con capacidad técnica y la ayuda mutua de los habitantes [14] del barrio. Se contó con el apoyo de las instituciones académicas que colaboraron en el encuadre metodológico del abordaje a un complejo problema del hábitat en clave pedagógica. Los organismos de salud y acción social de la provincia dispusieron operativos especiales para la atención de la zoonosis y el acompañamiento de casos particulares de personas. Se contó con el apoyo de las organizaciones sociales de la zona, entre ellos, la Mesa de Derechos Humanos del Barrio Santa Rosa, el Servicio de Educación Popular con su Emisora Radial Comunitaria y la colaboración de trabajadores que aportaron sus oficios (electricista y plomero) sostenidos por su militancia social que han dado tiempo y confianza al trabajo de un grupo de estudiantes. El particular episodio de refacción la bomba de agua para impulsar nuevamente la carga del Tanque Comunitario, trazó el antes y el después de la confianza en la autogestión del Barrio. La organización territorial de la comunidad Los habitantes se agruparon por tiras de casas y en asambleas de vecinos, la comunidad organizada logró una potencia que fue transformando el barrio. Las familias emprendieron un mejoramiento barrial, se apropiaron del espacio y recuperaron la asociatividad para realizar cada acción, asumieron el gobierno del lugar. El manejo de la organización fue cada vez más autónomo. La situación de abandono de cada vivienda se revirtió al mejorar sus condiciones. Se desecharon trastos y basura; se realizó desmalezamiento con la limpieza de las áreas comunes y la difícil acción de recuperar los sanitarios. Los únicos baños, en forma de pabellones, tenían muros interiores con artefactos, pero estos habían sido retirados por hechos de vandalismo y luego, también, fueron retirados los muretes por prevención porque resultaban recovecos malsanos propensos para situaciones violentas, entonces era un gran galpón dividido en dos, totalmente infectado. El pequeño logro de la limpieza de esos lugares que 7 habían funcionado como baños dejo establecido un mecanismo organizativo para emprender otras acciones que pusieron el barrio en marcha. La forma urbana del ordenamiento, la linealidad, los espacios comunes, algunos tendidos de redes caños y cables de infraestructura básica fueron operaciones que permitían componer un barrio. Se lograron mejores condiciones que en algunas barriadas vecinas, sobreponiéndose a la fragmentación urbana. La ubicación sobre tierras del Estado daba la posibilidad de encarar la mensura de un loteo para la subdivisión del suelo y una posterior adjudicación a cada familia. Al realizarse la red de agua, pagada y ejecutada por los habitantes, todas las piezas tenían acceso directo y para la solución de excretas empezaron a construir pozos absorbentes y baños, se logró componer una casa para cada núcleo familiar. Toda esa labor resultó inquietante para las autoridades y técnicos de organismos del Estado. El Director de la Dirección Provincial de Vivienda y Urbanismo de la Provincia dio audiencia al grupo de estudiantes; hubo reuniones en distintos ámbitos donde se explicó la importancia del trabajo que se estaba llevando adelante y la reconversión que significaba. La principal preocupación que mostró el gobierno provincial a través de sus instituciones fue que esos edificios tenían un destino de vivienda transitoria y que no eran para quedarse a vivir, sino para estar disponibles para casos de inundaciones. Los edificios habían sido abandonados, sin custodia, tampoco se utilizaban para las inundaciones y, por eso, fue poblándose poco a poco como hogares para necesitados de cobijo, entre los que se contaba también algún poblador “inundado” que se había autoevacuado en ese lugar. El intento de radicación de la población en las viviendas transitorias Esta realidad mejorada, lamentablemente, no fue suficiente para cambiar el destino planificado para la UHaTE. ¿Cuál era el verdadero motivo? La ubicación privilegiada del predio, con una avenida asfaltada al frente y un rápido acceso al centro de la ciudad. Sin embargo, el argumento fue la cuestión del dominio de las tierras por parte del Estado que, en algún momento, estuvieron bajo responsabilidad del ejército para luego ser traspasadas a la provincia con el objeto de construcción de viviendas para los asalariados destinatarios de proyectos del Fondo Nacional de la Vivienda, FONAVI. Cuando se pudo reflexionar sobre este aspecto, se emprendió una gestión, con fuerza y coraje de los ocupantes, para que se reconociera el derecho a quedarse a vivir en esa parte de la ciudad con buenos accesos a los servicios. La construcción de viviendas nuevas en el mismo lugar dejo sin posibilidad de cobijar a la población habitante del UHaTE. Emprender un nuevo proyecto habitacional que indudablemente dejaría afuera a los habitantes porque no reunían los requerimientos de ingresos económicos exigidas por la política habitacional ideada para sectores asalariados y no para los trabajadores informales o con empleo esporádicos. La propuesta de mejorar las construcciones existentes fue desestimada por las autoridades locales que ponderaban a ese conjunto como un hábitat por debajo de los requerimientos mínimos exigidos por la estandarización de la vivienda universal y moderna. Imagen N° 4: Foto satelital del año 2002. Algunas de las plateas de fundación, vestigios de las Tiras del UHaTE. Imagen N° 5: Foto satelital del Hospital de Niños y 120 viviendas nuevas y restos de las plateas. 8 La provincia resolvió la demolición del barrio. La Dirección Provincial de Vivienda y Urbanismo, asumió la responsabilidad sobre el barrio desarticulo todo el accionar entre los diversos actores intervinientes, en buenos términos, pero utilizando el vigor de los organismos del Estado. Las familias fueron relocalizadas y se resolvió la cuestión habitacional con cada grupo familiar de modo particular, con atención de la Secretaria de Acción Social. Se decidió destinar el lugar para la implantación en las inmediaciones del Hospital de Niños, una obra de escala regional con indudable impacto social, lo cual generaba consenso favorable hasta de los mismos habitantes. La construcción fue financiada por el Banco Mundial con un crédito internacional que tomó el país en el marco de las políticas imperantes en la década del 1990 basada en el endeudamiento. Años más tarde el Estado construyó también en esas inmediaciones un conjunto de viviendas para asalariados. Se impuso la fuerza de la planificación urbana con nuevas obras y prevaleció el destino del barrio como viviendas transitorias empalmadas en materiales ágilmente desmontables. 4. ALCANCES DEL PROGRAMA DE ERRADICACION DE VILLAS EN SANTA FE En Santa Fe Capital la Unidad de Habitación Transitoria para Evacuados fue una reedición de los Núcleos Habitacionales Transitorios construidos en el Área Metropolitana de Buenos Aires una década antes, bajo el gobierno de otra dictadura (1966/1973). Y consecuentemente los Barrios de Conjuntos Habitacionales El Pozo y Centenario indican que se trata de Viviendas Definitivas del Plan de Erradicación de Villas de Emergencia, financiados con fondos internacionales y con la contraparte local aportada por el Fondo Nacional de la Vivienda. El Plan de Erradicación de Villas de Emergencia ha tenido demoras en su implementación, y los compromisos de ejecución quedaron establecidos. Desde que la política nacional incorporo la adhesión al Fondo Monetario Internacional y se orientó hacia el endeudamiento de empréstitos, la politica habitacional se reoriento basándose en créditos de los organismos internacionales. Los créditos del Banco Interamericano de Desarrollo fueron admitidos con la justificación de elevar obras gran escala, destinadas a Conjuntos Habitacionales. El cargo para los habitantes de asentamientos irregulares, exigido en la letra de Ley del Plan de Erradicación de Villas de Emergencia, ha sido contemplado en el Barrios Centenario en el que se adjudicaron viviendas para la población de la “villas”, proveniente de bañados del salado, al oeste de la ciudad capital, todas estas familias fueron agrupadas en algunas de las Manzanas del Conjunto Habitacional. Y se diferenció entre los destinatarios a los sectores asalariados que provenían de otras viviendas con situaciones de hacinamiento o nuevas familias. Años más tarde en la adjudicación de las viviendas del Barrio El Pozo, un Conjunto Habitacional con diez mil unidades, se integró población que fue a habitar, algunos grupos familiares proveniente del asentamiento islero de Alto Verde y otros de áreas más urbanas, se integraron los trabajadores informales y los asalariados (policías, docentes, empleados municipales) para evitar reiterar la estigmatización y la segregación socio espacial. Son varios los aspectos que dejan establecida la relación del Barrio estudiado en Santa Fe con el Programa Nacional de Erradicación de Villas. Lo primero es el marco de la dictadura militar y sus métodos autoritarios de intervención sobre los problemas socio habitacionales. La erradicación sistemática de villas consideradas asentamientos de emergencia. La instrumentación de los concursos nacionales de arquitectura que apuntaban a validar en las colegiaturas los desarrollos urbanísticos de conjuntos habitacionales diagramados con definiciones que dejan afuera los entramados socioculturales locales. Las obras de mega ingeniería. El uso de tecnología prefabricada pesada. Los materiales de construcción producidos por las empresas monopólicas (comodities). El uso del suelo sobre áreas inundables que requiere movimientos de maquinarias viales. La construcción sobre bañados y laguna aliviadoras son una réplica del Plan Almirante Brown sobre las lagunas aliviadores del Riachuelo, en la Capital Federal. Elementos que componen una política habitacional que solo puede ser ejecutado por empresas corporativas de gran escala. 9 5. CONCLUSIONES El debate que aportó el Taller de Hábitat Popular fue clave para comprender el entramado de actores, el rol de la comunidad, los posicionamientos políticos, las formas arquitectónicas de los edificios, la fragilidad de las construcciones, la ideología que condujo a estas respuestas habitacionales en el marco de la dictadura militar con los compulsivos desalojos de la ciudad capital de Santa Fe y la referencia a unas respuestas similares en Buenos Aires. Queda desplegado el aprendizaje que, a través de una organización barrial comunitaria, se pueden revertir situaciones de precariedad de un territorio. Otra evidencia observada es que esos espacios diseñados para la transitoriedad eran factibles de convertirse en el alojamiento definitivo. Se verificaba así la hipótesis de trabajo del abordaje que a partir de una realidad crítica se postulaba el mejoramiento de las condiciones integrales del hábitat. El diseño de tipologías constructivas particulares, como el de las viviendas transitorias que parte de comprender situaciones de desigualdad, necesita acompañarse de metodologías acordes para su instrumentación que otorguen sustentación socio urbanas. La lógica de intervención en los barrios populares para el mejoramiento y la radicación surge en Argentina a partir de la democracia iniciada en 1983, y modificó el paradigma de erradicación al que pertenece la Unidad de Habitación para Evacuados. El Programa de Erradicación de Villas de Emergencia en 1968 definió desde el Estado Nacional, la construcción de viviendas temporarias y viviendas definitivas. Bajo ese lineamiento planteado para todo el país, se han producido Núcleos Habitacionales Transitorio y que en Santa Fe Capital parecen estar relacionados a la Unidad de Habitación Temporaria para Evacuado y que están relacionadas con las viviendas definitivas de los grandes conjuntos habitacionales que también se construyeron para relocalizar a la población asentada precariamente en las márgenes de esta ciudad litoraleña. AGRADECIMIENTOS El recupero de esta experiencia de 1991 trae consigo el recuerdo de la acción de quienes componían del Taller Interdisciplinario de Hábitat Popular con los estudiantes de Medicina de la Universidad Nacional de Rosario Susana Dagatti, Marey Donnet, de la Escuela de Servicio Social de la Provincia de Santa Fe (Lujan, autora), de Arquitectura de la Universidad Nacional del Litoral Mara Sícoli, Lida Massin, Carina Depalo, José Luis Baumann, (Guillermo, autor) y otros compas que se acercaron a convocatorias puntuales. El Arquitecto y Urbanista Adrián Caballero en su rol de docente de Urbanismo de la Facultad de Arquitectura de la Universidad Nacional del Litoral. La valiosa aportación de Rubén Sala y Bibi Sala, militantes sociales y políticos del Servicio de Educación Popular y el Partido Comunista del Barrio Santa Rosa de Lima que se sumaron desde las tareas de oficio de electricista y plomero que fueron centrales en el mejoramiento barrial. Las entrevistas realizadas en la Caritas Santa Fe y en la Dirección Provincial de Vivienda y Urbanismo. La directora de la práctica de la Escuela de Servicio Social Marta Manese. El equipo interdisciplinario del Taller de Hábitat Popular se componía con Licenciada en Trabajo Social por Sandra Gallo Docente de la Universidad Nacional del Litoral, Licenciada en Educación Susana Garramuño del Servicio de Pedagogía de la Universidad Nacional del Litoral, Ingeniero en Construcciones Ariel González de la Universidad Tecnológica Nacional, los Arquitectos José Vottero del Centro de Arquitectos de la Provincia de Santa Fe, Arquitecto Juan Marzzochi Docente y Arquitecto Mario Borouchalski Secretario de Investigación de la Facultad de Arquitectura Diseño y Urbanismo de la Universidad Nacional del Litoral. BIBLIOGRAFÍA 1. NOVICK, Alicia. (2003). “El urbanismo en las historias de la ciudad”. Revista Registros N° 1, noviembre, pp. 5-26. 2. HERZER, Hilda. (2008). Con el corazón mirando al sur. Transformación en el sur de la ciudad de Buenos Aires. Espacio. ISSN 0250-7161 3. GALASSO, Norberto (2012). La historia de la lucha por la tierra. Conflictos y Propuestas. Pp 127-138. En Di Virgilio, María Mercedes. La problemática habitacional en la Ciudad de Buenos Aires: Sociales en Debate. Buenos Aires: Universidad Buenos Aires. ISBN 978-950-29-1332-2 4. CRAVINO, María Cristina, Compiladora (2022). Historia y memoria de villas y favelas. Los Polvorines: Universidad Nacional de General Sarmiento. ISBN 978-987-630-582-2 10 5. PATERLINI, Olga. (1987). “Pueblos azucareros de Tucumán”. Editorial del Instituto Argentino de Investigaciones de Historia de la Arquitectura y del Urbanismo. Universidad Nacional de Tucumán. https://upcommons.upc.edu/bitstream/handle/2099/5359/Article13.pdf;sequence=1 6. MARZIONI, Guillermo J. (2020). Informe de Avance de Investigación del doctorado de Estudios Urbanos: “Política Habitacional y la Transformación del Hábitat” del Instituto del Conurbano, Universidad Nacional General Sarmiento. 7. VOTTERO, José Luis (1986). “Programa de Viviendas para la Santa Fe”. Tesis de Grado. Facultad de Arquitectura y Urbanismo de la Universidad Nacional de Córdoba. 8. CABALLERO, Adrián y otros (1998). Especulaciones sobre Urbanismo y Ciudad. ISBN: 9875080209. Centro de Ediciones Universidad Nacional del Litoral, Santa Fe. 9. ROSSI, Aldo (1984) La Arquitectura de la Ciudad. Ed. Gilli: Buenos Aires ISBN 84-252-0615-4 10. BOROUCHALSKI, Mario (1992). Relatorías sobre el Taller de Hábitat Popular. Secretaría de Investigación de la Facultad de Arquitectura y Urbanismo de la Universidad Nacional del Litoral. Mimeo. 11. GONZÁLEZ, Ariel Anselmo; Pardo, Majo; Gallo, Sandra; Córdoba, Anabela; López, Aldo & Gianotti, Marcelo. (2009). “La construcción del hábitat hoy: desafíos para la formación de recursos humanos especializados y comprometidos”. Revista INVI, 21(56). ISSN 0718.8358. 12. GALLO, Sandra Eugenia. (2011) Hábitat, ambiente y calidad de vida. El rol de las organizaciones. Pp.102-109. En Hábitat para la Inclusión. Hermes Binner (Coordinador). Santa Fe: Ministerio de Gobierno y Reforma del Estado de la Provincia. ISBN 978–987–23560–3–3. 13. LLORENSI, María Luján (1991). Sistematización de las Prácticas Profesionalizantes de la Carrera de Trabajo Social de la Escuela Provincial. Mimeo. 14. PELLI, Víctor Saúl (2006). Habitar, Participar, Pertenecer, Acceder a la Vivienda, Incluirse en la Sociedad. Ed. Nobuko: Buenos Aires. ISBN-13: 978-987-584-077-5 UK-CUBA CASE STUDY IN INTERNATIONAL COLLABORATION ON SUSTAINABLE CITIES Julio Dávila1, Emily Morris2, Jorge Peña Díaz3, James Warren4 1 University College London (UCL) Bartlett Development Planning Unit, Gower Street, London, WC1E 6BT, UK. 2 UCL Institute of the Americas, 51 Gordon Square, London WC1H 0PN. 3 CUJAE Faculty of Architecture, Grupo de Investigación y acción urbanas (INVacURB), Calle 114 entre Ciclovía y Rotonda, Marianao, La Habana, Cuba. 4 Open University, School of Engineering and Innovation, Walton Hall, Kents Hill, Milton Keynes MK7 6AA. 1 j.davila@ucl.ac.uk. ABSTRACT This paper describes the potential for developing future international research collaboration between CUJAE and University College London, and between the UK and Cuba more generally, building on the experience of a case study in which researchers from the two universities have been working together to identify efficient and appropriate technical solutions that can provide sustainable mobility and accessibility, as well as adapting to climate change, whilst improving the quality of public spaces, wellbeing and health. The work benefited from the compatibility of the Cuban and UK teams and alignment with Cuban policy objectives, which made it possible to tackle some of the challenges arising from US sanctions as well as institutional hurdles within Cuba, to achieve important outcomes and impact in terms of building knowledge and informing policy. The lessons learned from the case study will inform development of future collaboration between the UK and Cuba in this area, and also have relevance for the task of developing sustainable cities in general, and for Cuba’s current drive to increase international research collaboration. KEY WORDS: international collaboration, urban sustainability, mobility, participation. REINO UNIDO-CUBA ESTUDIO DE CASO EN COLABORACIÓN INTERNACIONAL SOBRE CIUDADES SOSTENIBLES RESUMEN Este documento describe el potencial para desarrollar una futura colaboración de investigación internacional entre la CUJAE y el University College London, y entre el Reino Unido y Cuba en general, basándose en la experiencia de un estudio de caso en el que investigadores de las dos universidades han estado trabajando juntos para identificar soluciones técnicas adecuadas que puedan proporcionar movilidad y accesibilidad sostenibles, así como adaptarse al cambio climático, mejorando la calidad de los espacios públicos, el bienestar y la salud. El trabajo se benefició de la compatibilidad de los equipos de Cuba y el Reino Unido y la alineación con los objetivos de la política cubana, lo que hizo posible abordar algunos de los desafíos derivados de las sanciones de los EE. UU., así como los obstáculos institucionales dentro de Cuba, para lograr importantes resultados e impacto en términos de la construcción de conocimiento y la política de información. Las lecciones aprendidas del estudio de caso informarán el desarrollo de la futura colaboración entre el Reino Unido y Cuba en esta área, y también tienen relevancia para la tarea de desarrollar ciudades sostenibles en general, y para el impulso actual de Cuba para aumentar la colaboración internacional en investigación. PALABRAS CLAVES: Colaboración internacional, sostenibilidad urbana, movilidad, participación. 1. INTRODUCTION As a contribution to Cuba’s drive to achieve sustainable development with equity, a team of researchers at CUJAE has been working with a multi- disciplinary team of counterparts at University College London (UCL) and the Open University under the umbrella of an initiative entitled ‘Movilidad, Accesibilidad y Sostenibilidad para la Habana’, or ‘MAS+Habana’. That is, MAS+ Habana research has been focused on conducting research to identify how urban transport systems can contribute to the physical and social well-being of Havana’s inhabitants, as well as improving environmental and economic sustainability. This paper describes some of the innovations of this research collaboration in terms of its objectives and methodological approach, and the outcomes out to date. It then considers some of the achievements and challenges of this work, and finally outlines some lessons for future research collaboration in this area. 2. INNOVATIONS IN RESEARCH DESIGN, METHOD AND PROCESS MAS+Havana takes as its starting point the approach to mobility not as an end in itself, but as a means by which the people who live and work in the city gain access, for example, to work, family, social groups, health, or cultural facilities. Therefore, it encompasses not only motorised transport (cars, buses and taxis) but also non-motorised mobility, including bicycles, wheelchairs and walking. This emphasis on access and accessibility is a departure from the traditional perspective of transport planners, whose work centres on movement that can be relatively straightforwardly measured, counted and recorded. In this sense, MAS+Havana’s approach echoes a shift in international thinking about transport and mobility among scholars and practitioners [1, 2, 3]. A second feature of the research programme is that it is explicitly policy-oriented. Its aim is to support current and future policy-makers provide research support across the many relevant disciplines to address the complex set of problems and challenges faced by policy-makers (including transport and urban planning authorities, and also those involved in developing programme for health, environment and well- being) as they seek to improve mobility and accessibility for the population of this city at a critical juncture, in the context of profound social, economic, environmental and technological transformations. A third feature is that the approach involves the participation of communities, to not only clarify the vision for sustainable and equitable urban mobility and accessibility that meets the needs and preferences of the people of Havana, but also to work together with specialists and policy-makers to find solutions. The work draws on the CUJAE team’s extensive experience in community engagement for knowledge co-production. Figure 1. Research method: collaborative working to achieve the vision The relationship between academic research, local communities, specialists and decision-makers involved in this collaborative work is described in Figure 1. It is based on the integration of the triad of Key University Processes (Procesos Sustantivos), i.e. Teaching, Outreaching and Research – with the latter having a cross-cutting and leading role – in order to release relevant knowledge with potential impact on decision making. Using transdisciplinary research methods that encompass knowledge co-production with different actors of society, the university seeks to become a catalyser of societal processes. This methodological approach is based on three core principles: participation, partnership, and responsiveness. The focus on accessibility means that the challenges of transport, mobility and accessibility are multi-dimensional; and if the aim of transport and urban planning policy is not simply to move people, but to enable – and improve the quality of – access as part of a wider effort to improve well-being and equity, then an innovative research methodology is needed. Therefore each problem is addressed not only from the traditional technical perspective (for example, how many buses, what routes, what regulations) but also from the social and environmental ones; and in order to understand the needs and preferences of people within any community, it is necessary to involve them in the research. That is, to engage in ‘knowledge co-production’ to engage local people as full participants in the formulation of the specific problems of access within their neighbourhood that need to be addressed. The process of collaboration has been favoured by the confluence of several positive factors. One is Cuba’s long history of participation at the local level, as well as through its mass organisations which, despite shortcomings, has created a tradition and wealth of experience of community engagement to draw on [4, 5]. A second factor is an understanding shared between the UK and Cuban research teams, that the work can have no practical value unless the UK and Cuban teams are not only in full agreement on research objectives and approach, but are also equal partners. The collaboration was born at a workshop in Havana in 2013, when the lead researchers first encountered each other, and discovered the strong compatibility between their thinking [6, 7, 8]. In terms of the division of labour between the two equal partners, the CUJAE team leads the research agenda of the collaboration, with their deep understanding of the Cuban reality, while the UK team responds by reviewing the feasibility of the agenda, seeking appropriate funding, and identifying international specialists (often, but not always, from within UCL) for the different elements of the work. Both teams work to disseminate information about the work and research findings to different national and international audiences. For all these tasks, regular and open communication between MAS+Habana’s two core research teams is essential. A further positive factor, which has been critical to the whole programme, arises from the lead team at CUJAE’s faculty of architecture’s many years of experience in ensuring that their teaching, at undergraduate and postgraduate levels, develops projects that link students with real urban challenges in Havana [9]. In the process of building MAS+Habana’s activities, an ever-widening network of participants have become engaged. This includes a range of researchers within the two research nodes (CUJAE and UCL). At CUJAE, researchers and students have been involved from other faculties, including civil, mechanical and electrical engineering (with the creation of an internal exchange and collaboration platform entitled Research Network on Urban Sustainable Mobility, RIMUS), while at UCL the work has incorporated contributions from researchers of different disciplines linked through the university’s Transport Institute, including urban planners, civil, geomatic, environmental, mechanical and electrical engineers, health specialists and economists. The collaboration with local actors has also been an essential component. Knowledge co-production becomes a ruling principle by means of which relevant knowledge from within the community are brought together on an equal footing with inputs from local planning and transport specialists, functionaries, as well as activists, artists, and other local actors. Thus aspects of everyday life are incorporated into the research process. In addition, the workshops and studies have included input from researchers from Cuba’s meteorological and transport research institutes, as well as from the public transport authority and bus company. Such policy-oriented, participatory research needs to be responsive to the evolving objectives, plans and constraints of all relevant actors. This includes the national, provincial and local authorities directly and indirectly responsible for transport, mobility and accessibility in Havana, as well as local communities. Since the beginning, the research team has been working closely with the Dirección General de Transporte Provincial de la Habana (DGT-PH) and Havana’s Dirección Provincial de Planificación Física de la Habana (DPPF-H), the two institutions most directly involved with the planning of transport, mobility and accessibility in the city. The municipal government of Central Havana, and Los Sitios consejo popular (neighbourhood council) have also been involved in workshops for pilot projects in their areas, building on the CUJAE team’s existing links. In addition, the ministries of transport, energy, health, and science, technology and the environment have participated in activities. The Plan maestro Office in Old Havana has made a significant contribution. The research team is constantly working to respond to the ever- changing policy context. This involves updating their knowledge and understanding of new national priorities and scientific, international and social developments, to ensure that the research programme adapts appropriately. One implication of the responsive approach is the UK research team’s commitment to ensuring that all international specialists who have been invited to join them in participating in the various activities are briefed on Cuban policy, and its economic, political and social context. This can be a difficult task, sometimes requiring that the team challenges existing assumptions and rejects initial proposed ‘solutions’ that are not appropriate to the unique Cuban case. 3. ACTIVITIES AND OUTCOMES MAS+Havana is an ongoing collaboration that has secured support from a range of funds through UCL and the Open University. A central component of the participatory research has been achieved through workshops and seminars. Table 1 provides an overview of these activities, indicating some of their results. Workshops and seminars in Havana Title Description ‘La ciudad que queremos’ Workshop on the vision for urban mobility, hosted by UCL and CIMAB, included participants from CUJAE, Dirección General de Transporte de la provincial de la Habana (DGT-PH), Empresa Pública de Transporte de la Habana (EPTH), Instituto de Planificación Física (IPF), Dirección de Planificación Física de la provincial de la Habana (DPPF-H), Centro de Estudios de la Economía Cubana (CEEC), Ministerio de Ciencia, Tecnología y Medio Ambiente (CITMA), Plan Maestro and others. UCL-Ministerio de Transporte (Mitrans) MoU signed; MAS+Habana project team created. ‘Movilidad en el Centro I: Trabajando con la Comunidad Workshop with community hosted by CUJAE in Central Havana, including consejo popular and municipal government representatives, DPPF-H and DGT-PH, local actors in Los Sitios, to identify ‘vision’, priorities, proposals for 2 urban squares. ‘Mapeando la participación en el proceso de configuración de La Habana’. A collaborative and interdisciplinary workshop to explore participation experiences in the transformation of the built environment in Havana. Systematised the city’s past initiatives, informing MAS+Havana’s approach to participatory actions. ‘Mi plaza es más’: a street festival in Los Sitios Organised within the work dynamics of the local project “Mi sitio en Los Sitios”. With enthusiastic participation and assistance of CUJAE students, and active support from the local consejo popular and municipal government, this event brought the research out into the street (http://cuba-research-network.net/havana-sustainable- mobility/mi-plaza-a-video- overview-of-the-event/). ‘Mobility and Accessibility-Oriented urban transformation for Havana’ Seminar held at la Fábrica de Arte Cubano: CUJAE students and staff presented MAS+Habana results to a set of local and international actors. ‘Movilidad en el Centro II: Mobility and urban design’ Workshop with Robin Buckle, urban designer from Transport for London. Held at CUJAE, the Maqueta de la Habana (Miramar), and Plan Maestro (Old Havana). Described innovative approaches to urban design to improve mobility, access, amenity, quality of urban life, urban environment (air quality and health) and the experiences of applying these in London. Attended by specialists from DGT-PH, DPPF-H, CIMAB, the Oficina del Historiador de la Habana, Cubaenergia, EPTH, Mitrans, FLACSO, CAP, IPF. ‘Movilidad en el Centro III: Transport and Health’ Seminar with Prof Jenny Mindell, UCL specialist in transport and Health and editor of Transport and Health international journal, at Plan Maestro, Habana Vieja and Fábrica de Arte Cubano, on international research on impacts of transport on health. Attendees included DGT-PH, CIMAB, the Oficina del Historiador de la Habana, EPTH, Mitrans, FLACSO, IPF, Instituto de Higiene, Epidemiología y Microbiología (INHEM) and Cuban meteorological institute (INSMET). ‘Inclusive and sustainable mobility for Havana: fast forward step to the future?’ Seminar with UCL Professors Peter Jones (UCL Transport Institute), Tyler and Dávila, to launch CUJAE’s cross- disciplinary Red de Investigaciones sobre Movilidad Urbana Sostenible (RIMUS). ‘Technology Foresighting’. Seminar with Rob Anderson, CENEX consultant. He presented a report on possible future low-carbon transport technologies [10], reviewed and critiqued at CUJAE (including RIMUS researchers) and the DGT-PH, informing the Low Carbon Transport System for Havana being implemented by DGT-PH (2019-2023). ‘Movilidad en el Centro III: 'Improving urban public space' Workshop on 'Vision, challenges and possibilities for Parque El Curita’. Included participants from the community, local transport authority and local government. ‘Synergies in international cooperation’ Workshop organised by DGT-PH. MAS+Habana served as facilitator of the Workshop, systematising the contributions, interactions of the different projects ran by different institutions related to mobility and accessibility. MAS+Habana, RIMUS and DGT collaboration strategies identified. ‘Movilidad en el Centro IV: Movilidad y Accesibilidad en zonas centrales. Workshop hosted by CUJAE, at Plan Maestro, focusing on the Parque de La Fraternidad – Estación Central area. Invited presenters: Joel Adams and Robin Buckle, Transport for London. Participants included DGT-PH, DPPF-H, the national railway authority, CUJAE students and members of RIMUS. Shared experience of designing transport interchanges and awareness raising on the relevance of public realm design within current actions in Havana. ‘Low carbon transport system for Havana Inception’ Seminar led by DGT-PH, funded by Green Environment Funds (GEF) with the local support of PNUD and AFD. In 2018 CUJAE team participated in the preparation of the preliminary phase for the approval of the final funding by GEF. This implies participation in seminars and preparatory meetings with local and international actors. CUJAE team is integrated in Working Group Urban 2 Mobility and in Working Group Infrastructure and Urban Design where they play key roles. ‘Streets and Environments for People, Sustainability and Health in Havana’ (STEPS). Two workshops explained and applied the ‘Movement & Place’ methodology to create a detailed map classifying Havana’s streets, explored how such maps can be used to promote sustainability within an overarching Sustainable Urban Mobility Plan, and carried out a detailed study of the street quality of Galiano. ‘Understanding walking potential and quality of the walking network in Havana’. Second STEPS workshop, with CUJAE professors and students, DGT-PH, IPF. Using the Movement and Place network classification (results from Workshop 1) and the Pedestrian demand model, participants conducted a general assessment of the quality of the infrastructure for pedestrians at the city level, and a performance-led assessment at the street level for Galiano. ‘Transport and Health’ seminar Seminar hosted by INHEM, with presentations by Professor Jenny Mindell and Dr. Emily Morris and participation of UCL and CUJAE teams. Raised awareness of the impacts of transport on public health in the Cuban context. Attendance by CUJAE MA Students in the seminar was integrated into the Mobility and Accessibility course within MOTU, in order to incorporate the topics within their training. A UCL-INHEM Memorandum of Understanding signed), and interest of PAHO Havana office in MAS+Havana activities confirmed. ‘Accessing climate finance for energy and transport’ workshop Workshop hosted by the University of Havana (UH), led by MAS+Habana team. Participants included officials and researchers from energy and transport sectors. Raised awareness of the availability and requirements for accessing climate finance. Table 1: MAS+Havana workshops and seminars, 2014-2022 In conducting its activities, MAS+Habana has contributed to the enrichment of CUJAE teaching and research, helping to enable the architects and planners of the future to understand the importance of participatory methods as well as acquiring greater knowledge about international research and interdisciplinary approaches to problem solving for sustainable cities. This is achieved through both teaching and research. The Mobility and accessibility course within MA Program on Planning (MOTU) taught by Prof. Peña and Prof. Cazanave, which built on the tradition of fast knowledge transference into teaching and training programmes established by SeDUT [11], was able to introduce MAS+Habana learning and experiences to university education. Students’ practical projects addressed selected case studies in mobility, including tackling the Ciudad Deportiva junction, and the area surrounding Parque El Curita, and applied the ‘Mobility and Link’ matrix method as a tool for conceiving design solutions favouring road safety, walkability, healthier environment and place making. Meanwhile, CUJAE students of Architecture and Urban Planning have drawn on participation in MAS+Habana activities to inform the formulation of objectives and methods for their Diploma theses. Outstanding theses have included studies of the challenges of mobility strategies for accessibility and equity in vulnerable neibourhoods, design of intermodal stations, and future plans for Havana’s harbour (infrastructure demands, inter-modality, unbalanced development, strategic investment). The students have not only benefited from the knowledge, tools and experience gained from the seminars and workshops, but have also been able to pursue interdisciplinary collaboration within CUJAE, for example with the Industrial Engineering Faculty, and with outside institutions, including INSMET and other actors. A further aspect of MAS+Habana activities has been the facilitation of international visits and participation by members of the Cuban and UK research teams in international meetings and conferences, both in Cuba and abroad, to enable them to broaden their knowledge and experience, as well as expanding networks and providing opportunities for dissemination. Some of the international events are listed in Table 2. International conferences Hablemos de la Habana international conference, Havana. hosted by Plan Maestro. MAS+Habana professors (Tyler, Díaz and Cazanave) led the event’s ‘Mobility and Infrastructure’ stream, informing policymakers of contemporary mobility worldwide and MAS+Havana aims and progress. Universities Transport Study Group (UTSG) conference, London. Cuban MAS+Habana professors attended the event, which included wide-ranging presentations on emerging research and ideas of relevance to Havana. During their visit to London they also exchanged information with Transport for London (TfL), London’s unitary transport authority (equivalent to the DGT-PH). Congreso Latinoamericano de Transporte Público y Urbano (CLATPU) conference, Medellin. MAS+Habana’s UCL and CUJAE teams accompanied a DGT-PH delegation, and participated in a panel on the collaboration of universities and transport authorities, explaining Havana’s challenges and achievements and the work of MAS+Havana, including the presentation of the short film Mi Plaza es Más. The visit to Medellín also provided an opportunity to observe the interconnection between Urban Development and Mobility policies in the Latin-American region through the outstanding case study of Medellin [12], with field trips to the Metrocables system, and meetings with local experts and a research team at Universidad Metropolitana. WALK21 conference, Bogotá. This annual event aims to ‘lead the global walking movement, providing news and updates on relevant walking research, policy, projects and commitments internationally’. The MAS+Habana delegation presented a paper [13] on challenges for walkability in Havana, which sparked much interest, leading to a television interview. Research Initiative for the Sustainable Development of Cuba’ (RISDoC) conference, Havana. The event included Cuban and US academics, NGOs and businessmen. The MAS+Habana paper was on the topic of ‘El caso del transporte de La Habana: Oportunidades de Financiamiento climático’. Latin American Studies Association congress, Barcelona. The MAS+Havana team presented a paper on ‘Urban mobility in Havana: challenges of creating a more inclusive city’ to an audience of urban studies researchers from across Latin America. Table 2: MAS+Habana participation in international events Throughout the MAS+Habana collaboration, the whole team has been able to extend networks to explore new opportunities for building knowledge, as well as to find sources of potential funds to help Havana to develop its own sustainable path for urban mobility. The programme has enabled CUJAE team members to visit ETH-Zürich, where it has been possible to contribute to Peter Hotz’s collaboration with Bolivian partners on urban accessibility guides preparation and the involvement in the Aire Limpio initiative in La Paz y El Alto, and a visit to Spain made it possible to pursue links with a team at Universidad de Valencia. The MAS+Habana team assisted the DGT-PH in preparing its bid for Euroclima funds for the preparation the first Sustainable Urban Mobility Plan (SUMP) for Havana [14], along with a Pilot project. This grant, for a total of 500,000 Euros, was the first awarded in Latin America for the preparation of both the SUMP and a pilot project. With UCL’s Development Planning Unit, the CUJAE team applied for an secured funding for research on ‘La Habana: movilidad para la ciudad que queremos KNOW HaV’, as a partner in the UCL-based ‘Knowledge in action for Urban Equality’ project funded by the UK government’s Global Challenges Research Funds programme [15]. The project, which was approved by the MINCEX international projects commission, targets mobility and accessibility as a prosperity- oriented pathway for urban equality in Havana, applying and reviewing the co-production methods used by MAS-Havana. MAS+Havana team members have also held meetings with the Japanese consultancy team preparing the National Transportation Master Plan in collaboration with CIMAB and the Ministry of Transport. 4. DISCUSSION MAS+Havana addresses some of the most important problems of everyday life in Havana: the shortcomings of transport, infrastructure and accessibility. Adding to the complexity of the challenge is the need to develop a strategy that contributes to sustainability, in terms of reducing greenhouse gas emissions as well as improving the urban environment for health and wellbeing. Responding to the multi-dimensional nature of the challenge, the collaboration takes an integrated, multi- disciplinary approach in which academic research is informed by the many actors, including decision- makers, mass organisations and research institutes, and, crucially, seeks to build community participation in the process of research and planning. The methods have inclued a series of many workshops, seminars, meetings, courses and discussions, each focusing on a different aspect of urban mobility and accessibility. By bringing together colleagues with multiple technical backgrounds, the project has proved it to be possible for university researchers to collaborate productively with other actors within partnerships with equivalence. This approach, and the methods used, do not make for an easy task. The sequence of actions carried out by MAS+Havana since its inception speaks for itself about the intensity of the work conducted by the two teams. However, they have produced strong rewards. As each action built on the results of the previous ones, they not only created new knowledge, but also became capacity-building activities, with the inclusion of community actors and integration of students being significant highlights. Measurement and evaluation of activities is intrinsically difficult. Some events have been more rewarding than others. The most positive experiences have been where a direct and identifiable impact on perceptions and/or policies has been properly identified. However, individual activities for which this was not the case can have a less perceptible but longer-term effect on perceptions and policies, and thus constitute important components of the cumulative effect of series of activities. It is therefore not possible to reach a final assessment of their effectivness, as the impact of the collaboration as a whole is greater than the sum of its parts. 5. CONCLUSION Until the COVID-19 pandemic interrupted travel and all activities involving gatherings of people, the pace of work was accelerating, in terms of both the quantity of actions and their integration. Most of the activities had to pause in 2020-21 as researchers and partners diverted their attentions to pandemic-related tasks, and deteriorating economic conditions have caused the postponement of investments in transport and urban infrastructure. However the pause has also focused minds on the importance of participatory urban planning, and the health, social and environmental benefits that can be gained by rethinking urban mobility, with greater emphasis on accessibility and non-motorised mobility. Although we cannot quantify the final impact of the work to date, we can draw some lessons. The participatory approach has certainly provided additional ‘co-produced’ knowledge that the research teams, and decision-makers, can use. The team and the involved actors have learned about why some of the previous attempts to improve the environment and accessibility have produced meagre results, due to lack of finance for investment or maintenance, changing patterns of use of streets, or lack of engagement between decision-makers and communities. It has also raised awareness of the amount of effort required to sustain participatory planning, with excessively formal structures likely to become rigid and exclusive, while informal initiatives tend to depend on the energy of key individuals and dissipate when those people are no longer leading. The street festival demonstrated what can be done to invigorate interest and involvement with a relatively small amount of money but enthusiastic involvement of a network of participants able to communicate adequately to the local authorities the usefulness of this approach. It also highlighted the need to follow-up, to avoid disappointment that can damage prospects for future actions. The importance of the strong partnership, based on trust and commitment on both sides, has been confirmed by this collaboration. This partnership continues to be reinforced as the work continues, and the work has been enriched by the progressive inclusion of colleagues across different disciplines. The core UCL and CUJAE teams have benefited from open and honest communication and ongoing review. This has included criticisms and differences of opinion, but these have enriched, rather than weakened, the relationship and the process of learning. All of the researchers have demanding schedules, so at times we have struggled to do everything to the highest standard that we demand of ourselves. This has shown something about the hazards of over- ambition, but with such a committed team it has been hard to restrain prevailing enthusiasm. A further lesson refers to the importance of good communication. With internet services having improved during the period of this project, the teams continue to explore new, more effective methods of communication. The new technologies provide opportunities for dissemination that have, as yet, not been fully exploited. The web pages are being developed, but there is a need to do more to keep generating and disseminating reports to ensure that the growing network remains engaged with our activities and progress. Being responsive means adapting to changing conditions, including difficulties that may emerge and new opportunities that arise. One of the setbacks experienced early on was the lack of interest of one of the entities that we approached as potential partners for a proposed pilot project. Their inability to acknowledge the potential benefits of collaboration in this area served to highlight the importance of identifying and cultivating relations with partners who do show interest and commitment. Another setback was the conflicting messages received when seeking permission for one of our proposed activities. However, the research team understands the constraints under which decision-makers have to operate, particularly in terms of finance. Moreover, these difficulties have been more than offset by the solid support and engagement from the growing team of people working in so many of the key institutions. This participation has been greatly appreciated, and has been critical in maintaining the relevance of the work. Keeping up with, and adapting to, the pace of change in Cuba – with policy reviews, new initiatives and changing conditions – has been quite demanding, especially for the UK team who have difficulty in accessing updated information. This is important to ensure that the work remains relevant, and to enable the team to properly brief invited specialists. By monitoring the Cuban press and other available sources of information, it has been possible for the UK team to keep abreast of the main developments, but we have also found that ongoing communication between the UCL and CUJAE teams - and between the CUJAE team and the relevant authorities and specialists within Cuba - are essential. Universities can act as catalysers of knowledge generation to be channelled towards important issues in Cuban society. The work conducted so far in the cooperation between a UK based University and a Cuban one has amply proven the validity of this statement, in the case of such an important theme as mobility and accessibility. The distinguishing attribute has been its scientific approach that identifies the connection to everyday life as a determinant factor. The alliance proves that the successful integration of the substantive processes associated to the work of the university is possible, and that this approach creates synergies whose impact goes in multiple directions, from scientific development to capacity building and local development. Having appropriately identified its niche of work, it is making a highly significant contribution in its chosen area. By building bridges over the knowledge gaps, this initiative has made a modest contribution to the development of an area of great interest and concern. It has also demonstrated the relevance of building knowledge networks to address complex issues, drawing on multiple sources of support, and using a range of methods of work and different media to disseminate the outputs. MAS+Habana has enriched the debate on sustainable urban development in Havana. The permanent exchange it has promoted, in interconnection with other dynamics, has helped to raise the profile of urban mobility and accessibility closer to the position it deserves when addressing sustainable urban development for Cuba. ACKNOWLEDGMENTS The authors would like to thank our various sponsors for their kind support over an extended period of time, and every participant in our events for contributing to a greater body of knowledge and for helping shape our thinking and the outcomes listed in this study. and real cycles of cooling. REFERENCES 1. SCHILLER, Preston L; KENWORTHY Jeffrey R. An Introduction to Sustainable Transport Planning (2nd edition) Routledge, New York, USA. 2018. ISBN: 978-1-138-18548-7. 2. LITMANN, T. Evaluating accessibility for transport planning, VTPI (Victoria Transport Planning Institute) Canada, 2019. pp 1-63 http://www.vtpi.org/access.pdf 3. SMEDS, E., & JONES, P. “Developing transition pathways for mobility in European cities – challenges and new approaches”. In Abdullah, Hannah and Serrano Robles, Eloi (Eds.), Urban Mobility after COVID-19: long-term strategies for the sustainable mobility transition in European cities. Barcelona: Barcelona Centre for International Affairs. 2021. ISBN: 978-84-92511-96-9. 4. MORRIS, Emily. “Unexpected Cuba”. New Left Review, vol 88, July-August 2014 pp. 5 – 45. https://newleftreview.org/issues/II88/articles/emily-morris-unexpected-cuba 5. ORTIZ, C., VALLEJO, A., PEÑA, J., MORRIS, E., CAZANAVE MACÍAS, J. and PROENZA GONZÁLEZ, D. “Mapping participatory planning in Havana: patchwork legacies for a strengthened local governance”. Environment and Urbanization, 2021, pp. 1 – 26. International Institute for Environment and Development. 6. ORTEGON, A and N. TYLER. (2016) Constructing a vision for an 'ideal' future city: A conceptual model for transformative urban planning. Transportation Research Procedia, 13 pp. 6-17. 7. PEÑA DÍAZ, J., and C. SCHMID. (2007) ‘Mapeando La Habana.’ Planificación Física- Cuba, no. 12. 8. WARREN, J. P., E. MORRIS E, M. P. ENOCH, I. PADILLA MAGDALENO, Z. PARRA ARIAS and J. GUANCHE. (2015) ‘Developing an equitable and sustainable mobility strategy for Havana’, Cities, 45, 131-145. http://oro.open.ac.uk/42338/8/1-s2.0- S0264275115000220-main.pdf 9. CAZANAVE MACÍAS, J. and R.A. BANCROFT. (2007) ‘Diseño accessible de espacios de intercambio para adultos mayores’. Arquitectura y Urbanismo. XXVIII, 2/2007: 24-33. La Habana: ISPJAE. 10. ANDERSON, R. (2019) Havana Technology Foresighting. A CENEX consultancy paper. (Translation into Spanish in progress; to be published on the web). 11. BANCROFT, R. y R. LECHLEITER. (2007). “Síntesis Sobre El Proyecto SeDUT.” Planificación Física 12. 12. DÁVILA, J.D. (2012) Movilidad urbana y pobreza: Aprendizajes de Medellín y Soacha, Colombia. London: Development Planning Unit, UCL & Universidad Nacional de Colombia 13. ORTEGÓN A and J. CAZANAVE MACÍAS. (2018) ‘Mobility planning with Communities in Havana, Cuba’, (Bogota, 15-19 October,) paper presented at WALK 21 XIX (The Walkable City) Conference. 14. MobiliseYourCity Global Monitor 2021. Havana, Cuba [en línea]. MobiliseYourCity Partnership. Available on the web: https://www.mobiliseyourcity.net/sites/default/files/2021- 08/Havana%2C%20Cuba.pdf . 15. University College London, Development Planning Unit. Knowledge in Action for Urban Equality [en línea]. Available on the web: https://www.urban-know.com/havana. About the authors Julio Davila is Professor of Urban Policy and International Development at the University of London, Faculty of the Built Environment, Development Planning Unit. His teaching and research focuses on governance of urban infrastructure and social and political transformation in developing countries; the intersection between planning and urban informality; and linkages between urbanisation and health. Dr. Emily Morris is a Research Associate in Economic Development, University of London, Institute of the Americas. Her research focuses on economic development in Latin America and the Caribbean, and particularly in Cuba; Director of the Caribbean Research and Innovation Collaboration for Knowledge Exchange and Transfer (CRICKET) Community Interest Company. Professor Jorge Peña Díaz leads the Urban Research and Action Group at the CUJAE Faculty of Architecture where he researches and teaches urban topics. Research privileges transdisciplinary approaches. He leads teaching of the Masters on Planning and is an expert and advisor for local development planning authorities. Dr. James Warren is a senior lecturer at the Open University’s School of Engineering and Innovation. He teaches transport studies, transport case studies and mobility and the environment, with a focus on quantifying emissions and sustainability of bus systems, electrification of the automotive fleet, and urban transport strategies. ARCHITECTURE, PEDAGOGY AND COMMUNITY: DESIGNING THE SCHOOL AS AN INCLUSIVE PROCESS Daniela Ladiana Dipartimento di Architettura, Università di Chieti e Pescara, Viale Pindaro 42, 65127 Pescara, Italy e-mail: daniela.ladiana@unich.it ABSTRACT There is a close interdependence between school and community, conceiving a new school or upgrading one is an act that strongly involves the community, that is, all the teachers, pupils, families, but also the institutional reality of reference. The ways in which school spaces - more or less advanced with respect to pedagogical acquisitions - are realized and experienced depend, in fact, on the community of reference. The physical characteristics, the construction methods, the management qualities with which the process of existence of a school building is marked from its conception, to its construction, to its management and eventual modification/re-qualification in the course of time, are to a great extent the outcome not only of the architect's skills but of a web of events, experiences, desires, hopes, energies, illusions and disillusions, of a multiplicity of people who think, live and inhabit those places every day, substantiating a position, sometimes unconscious but culturally determined, on the relationship between pedagogy and architecture. When implementing inclusive design processes for the redevelopment of existing buildings, it is important to take into account these two possible interdependent spheres of action: the material and the immaterial part of the school environment. With a metaphor dear to our times, one could say that the objective is to seek an optimal relationship between software and hardware, where the software consists of the pedagogical and didactic contents, the hardware consists of the architecture of the spaces and the design of the furnishings: a good school project must create a hardware capable of supporting over time even possible evolutions of the software without undergoing significant transformations. KEY WORDS: School building, pedagogy, architecture, community, participation. ARQUITECTURA, PEDAGOGÍA Y COMUNIDAD: DISEÑAR LA ESCUELA COMO UN PROCESO INCLUSIVO RESUMEN Existe una estrecha interdependencia entre la escuela y la comunidad, concebir una nueva escuela o mejorar una es un acto que implica fuertemente a la comunidad, es decir, a todos los profesores, alumnos, familias, pero también a la realidad institucional de referencia. Las formas de realizar y vivir los espacios escolares -más o menos avanzados respecto a las adquisiciones pedagógicas- dependen, de hecho, de la comunidad de referencia. Las características físicas, los métodos de construcción, las cualidades de gestión con las que se marca el proceso de existencia de un edificio escolar desde su concepción, pasando por su construcción, hasta su gestión y eventual modificación/recalificación en el transcurso del tiempo, son en gran medida el resultado no sólo de las habilidades del arquitecto sino de un entramado de acontecimientos, experiencias, deseos, esperanzas, energías, ilusiones y desilusiones, de una multiplicidad de personas que piensan, viven y habitan esos lugares cada día, fundamentando una posición, a veces inconsciente pero culturalmente determinada, sobre la relación entre pedagogía y arquitectura. A la hora de aplicar procesos de diseño inclusivo para la remodelación de edificios existentes, es importante tener en cuenta estos dos posibles ámbitos de actuación interdependientes: la parte material y la inmaterial del entorno escolar. Con una metáfora querida por nuestros tiempos, se podría decir que el objetivo es buscar una relación óptima entre el software y el hardware, donde el software consiste en los contenidos pedagógicos y didácticos, el hardware consiste en la arquitectura de los espacios y el diseño del mobiliario: un buen proyecto escolar debe crear un hardware capaz de soportar en el tiempo incluso posibles evoluciones del software sin sufrir transformaciones significativas. PALABRAS CLAVES: Edificio escolar, pedagogía, arquitectura, comunidad, participación. 1. THE INTERSECTION BETWEEN ARCHITECTURE AND PEDAGOGY To realize a project capable of pursuing a useful intersection between pedagogical and architectural practice, especially in the case of the rehabilitation of existing buildings, may lead one to consider design capacity alone as insufficient, and to assume the importance of the condition that the design process be implemented in a manner that entails a high degree of sharing of choices with the reference communities, first and foremost that of the teaching staff. It may be necessary to trigger a process of reflection that involves the entire community in order to reach, not the best, but abstract, solution, but the one that is suitable, the most suitable for those places, for that context, for those users. It is evident that it is only through the establishment of a discussion platform where not only different knowledge but also different roles and subjects are compared that it is possible to arrive at solutions destined to survive and, potentially, evolve over time. It is useful, therefore, to set in motion a process aimed at explicating, without prejudice, first of all, the pedagogical and didactic planning of each specific situation, whether this is aimed at the preservation of consolidated and, let us say it, outdated formulas, or whether it consists in the implementation of innovative or even experimental methods. The design process in the implementation of its iterative processes, is an engine of discussion, since it can, by suggesting solutions, feed the debate inside and outside the specific school community. This phase of the design process, substantially addressed to the determination of functional requirements, is of very delicate relevance because it can determine itself as a factor of change between a before and an after that concerns not only the transformations/evolutions of the space but also, to a certain extent, of the way of thinking of the people that use and will have to use that space; an evolutionary agent that is activated thanks to the relationship between different subjects and cultures on the basis of a comparison on the ethical, aesthetic and, even, emotional dimension of the school space. The design process, can thus constitute itself, more or less explicitly as a moment of breaking long inertia, an impulse or acceleration factor in the definition/innovation of a pedagogical-didactic profile shared by the teaching community. This should, first of all, lead to a clear explication, or a reassessment and affirmation, of the identity of the community; then, finally, to achieve a useful expression of its needs. The educational community's explication of the set of values objectives that it intends to achieve through certain educational models and didactic methods ultimately leads to the identification, albeit to a first approximation, of needs in terms of equipment and space; that architecture, together with didactics, is ultimately substantiated as an element that realizes, allows for the implementation, of the pedagogical intent. The affirmation of a pedagogical-didactic profile shared by the entire community, in effect, constitutes a condicio sine qua non, for a clear explication of the need; furthermore, it is easy to understand that this path, attentive to the specific cultural and social context, has the objective of determining design methods capable of guaranteeing the satisfaction of the needs of the school of the present but also of that of the future through the definition of explicit, or potentially implementable, degrees of innovativeness of a specific architecture. The role of architecture, in fact, in this field more than in others, is not only to respond effectively to functional issues, but also to meet the needs of today, knowing how to implement, at the same time, in a dynamic of functional, spatial, typological, and technological innovation that allows us to project the dimension of living and educating into the future. 2. THE INCLUSIVENESS OF PROCESSES For the architectural project to be substantiated as a precise phenomenon, a contextual product of a specific pedagogical and architectural reflection, the design process must connote the character of "inclusivity" for the determination of the real needs of all types of users: from pupils and teachers, to parents, to the community of the physical and institutional context. The importance of the inclusive process does not end with the possibility of knowing the needs of the users on the part of the professional who implements the design process and/or in promoting a debate within the teaching community on the pedagogical - didactic approach, with the possibility of initiating processes of innovation of the same. Inclusive design can also generate important results within the community of pupils and their families. The participation of the young users, in fact, as an exercise in democratic action, can constitute a privileged mode of training, education, in the practice of res-publica; a training tool for active citizenship: a capacity fundamental for social innovation. The project for the transformation / evolution of reality in its physical dimension can, therefore, also produce results in the social sphere, representing an important opportunity for the development of pedagogical - didactic activities of an innovative nature through paths that include pupils in the definition of choices [1]. The participation of pupils in the project process is also a valuable opportunity to strengthen their ability to analyze and interpretation of space, to understand its characteristics and to make a comparison between the different reading modes that characterize each individual. A famous quote by Winston Churchill states; "We shape our buildings, therefore they shape us" highlighting the strong interaction between the quality of spaces and people's lives; but this consideration can certainly also be extended to the processes through which architecture is produced. We conform the processes by which architecture is made, but these processes, in some way, modify us; in this case, participation in the process of making architecture, can be translated into a first important exercise of active citizenship, particularly relevant in those places of social marginality in which believing to have the possibility and the ability to modify one's own reality are certainly fundamental. Designing or rehabilitating a school represents an important opportunity to do architecture that is implemented as a complex process in which one must relate, various actors, different scales of intervention, but also places, culture and identity of a specific community, its past and the dimension of its future. One must be able to govern reasons, emotions, memories, traditions, identity hopes by generating architectural quality but above all quality of life. In the contemporary condition strongly characterized by tenuous links between individuals and society, the implementation of inclusive processes in the design processes for the construction and/or requalification of a school allows us to travel, in an area strongly connoting people's lives, a road that allows us to creatively combine freedom with social cohesion [2]. It makes it possible to implement social policies of an innovative nature through the deployment of a set of possible actions that make it possible to perceive "making a difference" in a meaningful dimension of a specific environment [3]. Inclusive processes for the upgrading of school buildings are of particular interest because with the affirmation of local instances, the progressive increase in processes of political decentralization and the desire to pursue more systemic and integrated approaches, they make it possible to work towards a plurality of objectives, acting as an important tool for building the dimension of the local community: they can be a truly fertile place for the creation of a civic sense and participatory democracy and, therefore, of active citizenship not only in young pupils but also in their families and in the community of teachers and school operators; not only that, by activating projects that also involve families or associations, they can represent a powerful generator for the activation of relational dynamics (interpersonal, intra-group, inter-group) capable of preserving and/or regenerating the social fabric with repercussions of progressive improvement in the quality of interactions within the school community. 3. A POSSIBLE MODEL In order to initiate effective redevelopment processes of a school understood as a system made up of a hardware - container, physical support with its endowments and equipment - and a software - intangible aspects, such as the pedagogical-didactic model, the curriculum, but also the organisational methods and climate -, it is useful to focus on a possible approach on the basis of a systemic model that allows for the identification and relation of the components at play in the decision-making and operational processes of an inclusive nature. A model that highlights that teaching and learning in a school are related to the characteristics of the space, but that there are also other factors that cannot be ignored. Several studies have, in fact, highlighted that architectural design, educational practices, the cultural and learning environment of students are all interconnected factors that must be duly taken into account in their interrelationships. Owens and Valesky in 2007 propose a model that adequately represents the relationship between the architectural characteristics of the school building and the dimensions of teaching and learning. The model is defined according to the environmental approach, as it describes the role of the social, organisational and physical aspects of school environments as connected factors in the educational process [4]. According to the two authors, the school environment is made up of four interrelated dimensions (Fig.1). Figure1: Model of the school system (diagram adapted from Owens and Valesky) According to this model, the school environment is the product of the interaction of all its constituent elements, whether material or immaterial. These include not only the cultural and organisational connotations of the teachers and operators who 'deliver' the educational action, but also the “students' 'milieu'”, which constitutes a factor not merely conditioning but co-producing the school environment. This model, in fact, takes well into account the cultural shift that has taken place in the world of education from the "Nuremberg funnel" (Fig.2) to the concept of shared construction of learning. It recognises the character of profound reciprocity between teaching and learning: learning is a space for constructing one's own knowledge with others, and the ways in which the act of teaching is realised are closely related to the personal way of learning. Among the components of the model is organisation: this includes not only the educational model, the curriculum, but also the organisational set-up that enables, or prevents, the full application of the chosen educational contents and modes. Figure 2. The “Nuremberg funnel” represents a teacher full of wisdom that fills the head of the student. The full coherence in the explication and implementation of the educational model, as well as the orderly and consistent implementation of the school curriculum, depends on the guiding and governing actions of the system in its articulated social and technological dimension, i.e. on leadership. In the absence of effective oordination and leadership, teachers can only adopt an individualised approach to teaching with possible "fragmentation of the school curriculum and the school day, unrelated or incompatible teaching strategies, inconsistent expectations inconsistent behavioural expectations, and a lack of shared values”. [5] The second area identifies "the staff culture", i.e. of teachers and practitioners, including in this context the set of beliefs and values shared by the adult community. It is essential that this set of beliefs and values largely constitutes a common heritage of the school community as it is the basic condition for the organization to pursue its goals in the established manner. Culture and organization must, in fact, be aligned and coherent in order not to run the risk of a disconnect between programming and educational practice. What teachers think and the values in which they believe constitute the basis on which they make daily choices and direct educational activities, the real reference system on the basis of which they will concretely or only formally assume the organization’s educational orientations and strategies: if the community shares opinions on what is important to do in education and how to put it into practice, it can guarantee not only the implementation of the shared educational model and practices, but to operate in the direction of experimentation and continuous improvement. The third element of the scheme is the "learner culture" which consists of the value and behavioural system of the learner community. This, closely dependent on the culture of the family and social context of reference, influences the students' willingness, motivation and participation in study and work activities. If far removed from the culture of the school community, it can lead to permanent conflict with the organization and to a contrast in the implementation of educational activities. A community that is motivated and interested in the school's curriculum allows for the planning of activities characterized by greater autonomy in student work and less commitment to supervision and control. All these aspects, in each school reality, interrelate with each other in a specific way connoting the character, style, orientations, of each community. 4. SPACE AND EDUCATIONAL PRACTICES In the proposed model, it remains to describe the fourth component, “the physical environment”, the role of the spatial and technological configuration together with the teaching facilities. For the purposes of optimizing the implementation of the school building design process, it is particularly important to highlight its contents in terms of interaction with the other areas outlined in the model description. What we intend to emphasize is that the school building, together with the teaching staff, operators and students, constitutes a true socio-technical system; a complex system in which the physical environment conditions, interacts with pedagogical, socio-cultural, curricular and motivational factors. On the quality of this interaction depends to an important extent that of the educational process. Approaching school design on a systemic level, it becomes apparent that the success of a given project is determined by the correct relationship between the human and technological components. In general terms, this means that the physical dimension of a school, the hardware, must be congruent with the software; multiple aspects of the school building organism are related to the teaching and learning activities of the students: different design features can enable or hinder specific educational practices. [5] It is important to emphasize these considerations above all with regard to the evaluation of the effects of a design directed towards the integration of innovative elements of an educational nature; the correlation between space and educational activity is entirely bi-univocal: the success of a design depends on its adequacy to support a programme, an organization of a certain type; educational innovation, on the other hand, needs adequate spaces. In this field, in other words, it is necessary to strongly reason, and consequently operate, in terms of 'building quality' understood as a measure of the degree to which a building meets the needs of its users, that is, how well a building is able to satisfy the needs and expectations of those who use it. The provision of functional layouts of the building that were to delineate predominantly large spaces in which to operate, for example, according to the collaborative learning modalities must be confronted with the willingness of teachers to work in teams on large groups of students. In this type of space, learning activities, content delivery and daily work planning must necessarily be managed collectively by the teachers involved to avoid conflicting uses of space. [7] Teachers can only be effectively and serenely operational in this type of space/teaching if they are convinced of the real usefulness for students of such working methods and conditions. The pressure to cooperate, where one is far from sharing such approaches, can be largely counterproductive as it can lead, alternatively, to the under-utilization of spaces, where one can shirk or, under conditions of not fully shared modes of space use, to friction because staff are frustrated at the loss of teaching autonomy. There are many cases of projects that 'failed' because of the 'flight forward' they constituted with respect to the educational project they were intended to support; we need only recall the affair of the 'open plan' schools built in the 1970s. [8] This experimental model of a primary school without walls separating classrooms, to promote movement in all areas of teachers and students, was not a great success because it was opposed, in many cases, by teachers who favored traditional teaching methods (Fig. 4). This situation, over time, led to the substantial alteration of spaces through the building of walls or the placement of furniture aimed at parceling out space. Innovative teaching practices and supporting spaces were quickly abandoned because they were not adequately supported by the teaching staff, school management and administrators. The reason for the rejection of this development in the characterization of the distributional features of schools was mainly due to the fact that the teaching staff was totally unprepared for the teaching methods that could be implemented in such spaces. Figure 4. Mem Martins pilot school plan. 5. CONCLUSIONS At the conclusion of these reflections, it seems appropriate to reiterate that the success of an architectural project, in the field of school construction, would seem to depend, therefore, largely on its suitability to support the educational programme. It is important to emphasize, however, that this success may be transitory or permanent depending on the stability of the effectiveness of the relationship between the material and immaterial dimensions of the school, what has been referred to as the hardware and software part of the educational environment. From what has been said it can be understood that educational practices can differ greatly not only for each school community, but within each reality they can also change substantially over time, proceeding in terms of innovation or preservation in relation to the style of leadership or teacher turn-over. These motivations together with the evolution of pedagogy and didactics recommend opting for the design of flexible spaces. The implementation of inclusive processes concerning decision-making processes related to the physical and/or immaterial part of the school system can guarantee the harmonious coexistence of its components over time. Indeed, that of designing a school can be defined as a process that is never concluded [9]; it is an exercise poised between the past and the future, capable of accepting, expressing the founding values of the past, the elaborations, the most current scientific acquisitions, and projecting them into an unknown future by making concrete, positive choices, for a fruitful dialogue between pedagogy and architecture. ACKNOWLEDGMENTS The authors would like to thank Chiara Iacovetti, architect, and Mario Rainaldi, architect and doctoral student at the Universities of Chieti and Pescara, for collaborating on the graphics and images for the international research project "School Space and Urban Resilience" developed at the Centre for Architectural and Urban Planning Studies of the Faculty of Architecture of the University of Porto and at the Department of Architecture of the University "G. d'Annunzio" of Chieti and Pescara and summarised here for some of the contents. REFERENCES 1. PASTORI, Giulia; ZECCA, Luisa; ZUCCOLI, Franca. La scuola come bene di tutti, la scuola per il bene di tutti. Quale scuola vogliamo? Milano: Franco Angeli, 2022. 251 pp. ISBN: 9788835140337. 2. SERRELLI, Silvia; CALIDONI, Paolo. Città e formazione. Esperienze fra urbanistica e didattica. Milano: Franco Angeli Edizioni, 2018. 275 pp. ISBN 978-889-176-693-9 3. MCMURRAY, Adela J.; WEERAKOON, Chamindika. Theoretical and Practical Approaches to Social Innovation. Hershey, PA: IGI Global, 2020 . 265 pp. ISBN 978-179-984-589-8 4. OWENS Robert E.; VALESKY, Thomas C. Organizational behavior in education: Adaptive leadership and school reform. Canada: Pearson Education, Inc., 2007. 256 pp. ISBN 978-020-548-636-6 Freire da Silva, M. M. J. (), 5. ALADJEM, Daniel K.; BORMAN, Kathryn M. (Eds.), Examining comprehensive school reform. Washington, DC: The Urban Institute Press, 2006. 366 pp. ISBN: 978-087-766-733-9 6. LADIANA, Daniela; LACERDA LOPEZ, Nuno; BRAZ AFONSO, Rui (ed.). A escola ideal, Porto, Edições CIAMH, 2019. ISBN: 978-989-988-088-7 7. INDIRE. Linee guida per il ripensamento e l’adattamento degli ambienti di apprendimento a scuola. Bruxelles: European Schoolnet 2018. 8. MARTINHO, Miguel; FREIRE DA SILVA, José. “Open Plan Schools in Portugal: Failure or Innovation?”, PEB Exchange 2008 /12, OECD, ISSN 1609-7548. 9. BOGONI, Barbara; LADIANA, Daniela; SPINELLI, Luigi Mario; BRAZ AFONSO, Rui. (ed.). Que espaço para a escola. Reflexões sobre o projeto / What space for the school. Reflexion on project. Porto. FAUP –CIAMH, 2020. 98 pp. ISBN:978-989-8527-17-2. About the authors LADIANA Daniela. Architect, PhD, researcher in Architectural Technology at the Department of Architecture, University of Chieti and Pescara. Board Member of the Interdepartmental Research Centre Training, Teaching and Research School and Territory (FIRST - Formazione Insegnamento Ricerca Scuola e Territorio) carries out scientific activities in the field of technological-environmental design innovation and management of the built environment for sustainability, safety and durability of systems. Member of the board of directors of AIMan (Italian Association of Maintenance), and of SidTA (Italian Society of Architecture Technology). She is the author of essays and monographs and participates in and directs national and international research on the optimisation of school buildings. Programa General XI Congreso Internacional de Telecomunicaciones y Telemática (XI CITTEL 2022) 1 Programa General / General Program XI Congreso Internacional de Telecomunicaciones y Telemática (CITTEL 2022) / XI International Congress of Telematics and Telecommunications Lugar / Place: Sala de Protocolo del Hotel Palco / Palco Hotel Protocol Room Horario / Schedule Día / Day 28 / 11 / 2022 29 / 11 / 2022 30 / 11 / 2022 1/ 12 / 2022 2 / 1 2/ 2022 9:00 Curso - Taller Precongreso / Pre-Congress Course - Workshop: “Computación en la Nube, soluciones y proveedores” / “Cloud computing, solutions and providers” A cargo de / By: Dra.C. Lilia Rosa García Perellada y / and: • Ing. José Ángel Espinosa Agüero • Ing. Alejandro Pérez Malagón • Ing. Eduardo Ernesto Pérez Pujol • Ing. Eric Pérez Torres • Ing. Reinier Carmona Lizana MiPyme Avangenio Inauguración de XI CITTEL / Inauguration of XI CITTEL Taller “Programa sectorial de Ciencia, Tecnología e innovación (PSCTI) de Telecomunicaciones del MINCOM” / Workshop "Science, Technology and Innovation Sector Program (PSCTI) for Telecommunications of MINCOM" Taller “Posgrado, pregrado e investigación en la carrera de Ingeniería en Telecomunicaciones y Electrónica” / Workshop "Postgraduate, undergraduate and research in Telecommunications and Electronics Engineering" Conferencia 1 / Conference 1 “Experiencias en la relación de la formación de pregrado, master y doctores con los proyectos de investigación” / “Experiences in the relationship between undergraduate, master's and doctoral training and research projects” Dr.C. Fidel Hernández Montero, Cujae Conferencia 2 / Conference 2 “La Ciencia Abierta y su impacto en las publicaciones científicas" / “Open Science and its impact on scientific publications” Dr.C. Jorge Gulín González, UCI Conferencia Magistral / Keynote Speech “NFV, ¿a dónde vamos ahora?” / “NFV, where to go next” Dr.C. Alain A. Garófalo Hernández MiPyme Avangenio. Cujae 9:30 Conferencia Magistral / Keynote Speech “6G Virtual Edge Computing for Enhanced Network Resilience” / “Computación de borde virtual 6G para fortalecer la resilencia de las redes” Ph.D. Falko Dressler, TU Berlin 10:00 Panel “Sistemas de Radiocomunicaciones” (1) / “Radiocommunication Systems” (1) 10:30 Panel “Sistemas de Telecomunicaciones” / “Telecommunications Systems” 11:00 Conferencia Magistral / Keynote Speech “Intensificación de la gestión del espectro radioeléctrico: reto y necesidad” / “Intensification of radio spectrum management: challenge and necessity” Dr.C. Enildo Sánchez Rodríguez Director de Institución Científica / Scientific Institution Director 11:30 12:00 Conferencia Magistral / Keynote Speech “Enabling Distributed Machine Learning Through Optimal Network Topologies” / “Habilitando el aprendizaje automático distribuido mediante topologías de red óptimas” Ph.D. Carla Fabiana Chiasserini Politecnico di Torino, Italy Panel “Sistemas de Radiocomunicaciones” (2) / “Radiocommunication Systems” (2) 13:00 Panel “Procesamiento Digital de Señales” / “Digital Signal Processing” Clausura del XI CITTEL / Closing of the XI CITTEL 13:30 Firma de Convenio de Colaboración entre la Cujae y CubaTel / Signing of Collaboration Agreement between Cujae and CubaTel Clausura de 20 CCIA y celebración de Aniversario 58 de la Cujae / Closing of 20 CCIA and celebration of Cujae's 58th Anniversary 14:00 Inauguración de la 20 CCIA / Inauguration of the 20th CCIA Almuerzo / Lunch Almuerzo / Lunch Actividad de condecoraciones / Awars activity Almuerzo / Lunch Día de las Tecnologías de la Información y la Comunicación (TIC) en la Feria Expositiva / Exhibition Fair's Information and Communication Technologies (ICT) Day 2 Programa Científico / Scientific Program CITTEL 2022 Lugar/Place: Sala de Protocolo del Hotel Palco / Palco Hotel Protocol Room Día / Day: 29 / 11 / 2022 Lugar / Place: Sala de Protocolo del Hotel Palco / Palco Hotel Protocol Room Presidente Sesión / Chairman Session: Dr.C. René Yáñez de la Rivera, Cujae Actividad / Activity: Sesión Científica / Scientific Session 9:30- 10:25 Conferencia Magistral / Keynote Speech: “6G Virtual Edge Computing for Enhanced Network Resilience” / “Computación de borde virtual 6G para fortalecer la resilencia de las redes”. Ph.D. Falko Dressler, TU Berlin Panel: Sistemas de Telecomunicaciones / Telecommunications Systems Presidenta Panel / Chairman Panel: Dra.C. Mónica Peña Casanova, UCI Secretaria / Secretary: MSc. Liz Gámez Picó, Cujae 10:30- 11:55 CIT-08 (Francia) UN ENFOQUE GEOPOLÍTICO A LOS CONFLICTOS VINCULADOS CON LA REVOLUCIÓN DIGITAL / A GEOPOLITICAL APPROACH TO THE CONFLICTS RELATED TO THE DIGITAL REVOLUTION. Autora: Margot François. Instituto Francés de Geopolítica (IFGLab), Universidad Paris 8. CIT-12 (Angola) TECNOLOGÍAS 6G: REQUISITOS, DESAFÍOS Y APLICACIONES / 6G TECHNOLOGIES: REQUIREMENTS, CHALLENGES AND APPLICATIONS. Autor: Campos Calenga Pataca. Departamento de Electrónica y Electrotecnia de la FE - Universidade Agostinho Neto, e INTIC - Universidad de Luanda, Luanda. CIT-14 (Cuba) SISTEMA AUTOMÁTICO DE INFORMACIÓN DE POSICIÓN CON PROTOCOLO DE COMUNICACIONES ORIENTADO A CONEXIÓN / CONEXIÓN / AUTOMATIC PACKET REPORTING SYSTEM WITH CONNECTION-ORIENTED COMMUNICATIONS PROTOCOL. Autores: Jorge Humberto Vázquez Leiva, Wilfredo Rafael Núñez Blanco, Alberto Feito Guerra, Claudia Margarita Martínez Mujica. Centro de Investigación y Desarrollo de Electrónica y Mecánica “CID MECATRONICS”. CIT-15 (Cuba) SISTEMA DE SEÑALIZACIÓN DIGITAL SOPORTADO EN ECOSISTEMA IOT / DIGITAL SIGNAGE SYSTEM SUPPORTED IN IOT ECOSYSTEM. Autores: Guillermo Lastre Olazábal, Gilbert Rafael García Cabrera. CITMATEL. CIT-16 (Cuba) IMPACTO DE LA CRIPTOGRAFÍA MODERNA EN LA CIBERSEGURIDAD DENTRO DE LA INFORMATIZACIÓN DE LA SOCIEDAD CUBANA / IMPACT OF MODERN CRYPTOGRAPHY ON CYBERSECURITY WITHIN THE 3 COMPUTERIZATION OF CUBAN SOCIETY. Autora: Maytée Odette López Catalá. CDNT-ETECSA, Teresa Pagés López. UH. CIT-20 (Cuba) ADAPTACIÓN DE LA CODIFICACIÓN CONJUNTA FUENTE-CANAL EN PRESENCIA DE PERDIDAS EN RÁFAGAS EN REDES INALÁMBRICAS / ADAPTATION OF JOINT SOURCE-CHANNEL ENCODING IN WIRELESS NETWORKS. Autores: Isis Ferrán Fernández, Eric Rojo Martín. ETECSA Villa Clara, Empresa Cubana de Navegación Aérea, ECNA Villa Clara. CIT-26 (Cuba) GUÍA PARA EL DESPLIEGUE DE LA COMPUTACIÓN EN LA NIEBLA / GUIDANCE FOR THE DEPLOYMENT OF FOG COMPUTING Autores: Liz Gámez Picó, Caridad Anías Calderón, Cujae. CIT-24 (México) PREDICCIÓN DE VIOLACIONES EN LOS SLA EN REDES DE NUEVA GENERACIÓN: UNA PROPUESTA / PREDICTION OF SLA VIOLATIONS IN NEW GENERATION NETWORKS: A PROPOSAL. Autores: Joan David González Franco, Raúl Rivera Rodríguez, Jorge Enrique Preciado Velasco, José Lozano Rizk. Centro de Investigación Científica y de Educación Superior de Ensenada (CICESE). 12:00- 12:55 Conferencia Magistral / Keynote Speech: “Enabling Distributed Machine Learning Through Optimal Network Topologies” / “Habilitando el aprendizaje automático distribuido mediante topologías de red óptimas”. Ph.D. Carla Fabiana Chiasserin, Politecnico di Torino, Italy Panel: Procesamiento Digital de Señales / “Digital Signal Processing” Presidente Panel / Chairman Panel: Dr. C. Camilo Guillén Soriano, Cujae Secretario / Secretary: MSc. Fernando Hernández Vives, Cujae 13:00- 14:00 CIT-11 (Cuba) SISTEMA DE ESTIMACIÓN DE LA DIRECCIÓN DE ARRIBO PARA UN RADIO COGNITIVO CONSCIENTE DE LA UBICACIÓN / DIRECTION OF ARRIVAL ESTIMATING SYSTEM FOR A LOCATION-AWARE COGNITIVE RADIUS. Autores: Yunior Ibarra Guerra, Alexander R. Ramírez Zaldívar, Abel Hernández Violat, Noslen Rojas Ramírez. CID MECATRONICS. CIT-06 (Cuba) SISTEMA IOT PARA EL MONITOREO DEL PROCESO DE CURADO DE TABACO CON TERMOHIGRÓMETRO MULTI-SONDA / IOT SYSTEM FOR MONITORING THE TOBACCO CURING PROCESS WITH A MULTI-PROBE THERMO-HYGROMETER. Autores: Dioen Biosca Rojas, Ariel Baloira Reyes. Cujae. CIT-23 (Cuba) MÓDULO DE CAPTURA Y ALMACENAMIENTO EN TIEMPO REAL DE PARÁMETROS ASOCIADOS AL FUNCIONAMIENTO DE NODOS DE CÓMPUTO / MODULE FOR REAL-TIME CAPTURE AND STORAGE OF PARAMETERS ASSOCIATED WITH THE OPERATION OF COMPUTE NODES. Autores: Daniel Rubén García Ávila, Omar Antonio Hernández Duany. Cujae CIT-21 (Cuba) COBERTURA MÁXIMA DE RADAR DE BLANCOS NAVALES Y A BAJA ALTURA PARA EL ESTADO DEL MAR COMO PARÁMETRO / MAXIMUN RADAR COVERAGE OF NAVAL AND LOW FLYING TARGETS FOR THE SEA 4 STATE AS A PARAMETER. RADAR PREDICTION OF THE SEA STATE. Autores: Nelson Chávez Ferry, Giorgia Rodríguez Almaguer, Lena Lizbet La Ó Ramirez, Dayron Manuel Santana García. Cujae, Empresa Eléctrica de Matanzas y ETECSA. CIT-19 (Cuba, Luxembourg /Luxemburgo, Germany / Alemania) OFDM TRANSMITTER IMPLEMENTATION IN FPGA FOR INDUSTRY 4.0 NETWORKS / IMPLEMENTACIÓN DE TRANSMISORES OFDM EN FPGA PARA REDES DE LA INDUSTRIA 4.0. Autores: Fernando Hernández Vives, Camilo Guillen Soriano, Jorge Luis González Rios, Jorge Torres Gómez. CUJAE, University of Luxembourg, TU Berlin. Día / Day: 30 / 11 / 2022 Lugar / Place: Sala de Protocolo del Hotel Palco / Palco Hotel Protocol Room Presidente Sesión / Chairman Session: Dr.C. Caridad Anías Calderón. Jefa del PSCTI de Telecomunicaciones / Head of the Telecommunications PSCTI. Cujae Secretario Sesión / Secretary Session Ing. Gerardo de León Ojeda. Secretario del PSCTI de Telecomunicaciones / Secretary of the Telecommunications PSCTI. ETECSA Actividad / Activity: Taller “Programa Sectorial de Ciencia, Tecnología e Innovación (PSCTI) de Telecomunicaciones del MINCOM” / Workshop "Science, Technology and Innovation Sectorial Program (PSCTI) of Telecommunications of MINCOM". Participan / Participants: Expertos y jefes de proyectos del PSCTI de Telecomunicaciones, directivos de desarrollo tecnológico del MINCOM y acreditados a CITTEL / Experts and project managers of the Telecommunications PSCTI, technological development managers of MINCOM and CITTEL accreditation holders. Horario /Schedule Actividad / Activity 9:00 Introducción al Taller / Workshop Introduction. 9:30 Intervención de la viceministra del MINCOM, MSc. Grisel Reyes León y del director de desarrollo tecnológico del MINCOM, MSc. Yoandy Lazo Alvarado / Speech by the Vice Minister of MINCOM, MSc. Grisel Reyes León and the Director of Technological Development of MINCOM, MSc. Yoandy Lazo Alvarado. 10:00 Experiencias de los proyectos del PSCTI, resultados obtenidos/ Experiences of PSCTI projects, results obtained. • Proyecto / Project: “Sistema para la predicción y alerta de interrupción a las comunicaciones por anomalías en las condiciones de propagación” / "System for 5 the prediction and warning of communications interruption due to anomalies in propagation conditions". J’ Proyecto / J' Project: Dr.C. Lanyer Pérez Garlobo, ITM. Participan / Participants: INSMET, MINCOM, ETECSA and EIGAM. • Proyecto / Project: “Comercio electrónico potenciado con tecnologías emergentes (CELTEM)” / "E-commerce enhanced with emerging technologies (CELTEM)". J’ Proyecto / J' Project: Dr.C. Andrés Subert Semanat, UO Participan / Participants: JCCE, XETID y ETECSA de Santiago de Cuba • Proyecto / Project: “Desarrollo y pruebas de Funciones de Red Virtual (VNF) empleando plataformas de código abierto” / "Development and testing of Virtual Network Functions (VNF) employing open source platforms". J’ Proyecto / J' Project: Dr.C. Alain Garófalo Hernández, MiPyme Avangenio Participan / Participants: Cujae y Tecnomática. • Proyecto / Project: “Creación de Capacidades para Proyecto de Optimización de Redes Inalámbricas mediante Inteligencia Artificial” / "Capacity Building for Wireless Network Optimization Project using Artificial Intelligence". J’ Proyecto / J' Project: MSc. Alejandro González García, LACETEL Participan / Participants: Cujae • Proyecto / Project: “Modelo para la gestión de infraestructuras de Tecnologías de la Información” / "Model for the management of Information Technology infrastructures". J’ Proyecto / J' Project: Dra.C. Mónica Peña Casanova, UCI Participan / Participants: Cujae • Proyecto / Project: “Solución de IoT para el soporte de la Agricultura de precisión y automatización de salas blancas del Centro Nacional para la Producción de Animales de Laboratorio (CENPALAB)” / "IoT solution to support precision agriculture and clean room automation at the National Center for Laboratory Animal Production (CENPALAB)". J’ Proyecto / J' Project: Ing. Barbara Garcia Rosell, ETECSA Participan / Participants: CENPALAB) 11:30 Experiencias en la gestión del PSCTI de Telecomunicaciones / Experiences in the management of the Telecommunications PSCTI. 12:30 Convocatoria a nuevos proyectos para el Programa / Call for new projects for the Program. 13:30 Conclusiones del Taller / Conclusions of the Workshop Día / Day: 1 / 12 / 2022 Lugar / Place: Sala de Protocolo del Hotel Palco / Palco Hotel Protocol Room Presidente Sesión / Chairman Session: Dr.C. Caridad Anías Calderón. Presidenta de la Comisión Nacional de la carrera de Ingeniería en Telecomunicaciones y Electrónica / 6 President of the National Commission of the Telecommunications and Electronics Engineering Degree Program. Cujae Secretario Sesión / Secretary Session MSc. Leslye Villar Ledo. Secretario de la Comisión Nacional de la carrera de Ingeniería en Telecomunicaciones y Electrónica / Secretary of the National Commission of the Telecommunications and Electronics Engineering Degree Program. ETECSA. Actividad / Activity: Taller “Posgrado, pregrado e investigación en la carrera de Ingeniería en Telecomunicaciones y Electrónica” / Workshop "Postgraduate, undergraduate and research in Telecommunications and Electronics Engineering". Participan / Participants: Universidades, empresas relacionadas con la carrera y acreditados a CITTEL / Universities, companies related to the career and accredited to CITTEL. Horario /Schedule Actividad / Activity 9:00 Introducción al Taller / Workshop Introduction 9:30 Conferencia: “Experiencias en la relación de la formación de pregrado, master y doctores con los proyectos de investigación” / "Experiences in the relationship of undergraduate, master's and doctoral training with research projects". Dr.C. Fidel Hernández Montero, Vicedecano de Investigación y Posgrado de la Facultad de Ingeniería en Telecomunicaciones y Electrónica / Vice-Dean of Research and Graduate Studies, School of Telecommunications and Electronics Engineering. Cujae 10:00 Conferencia: “La Ciencia Abierta y su impacto en las publicaciones científicas" / "Open Science and its impact on scientific publications”. Dr.C. Jorge Gulín-González, Director del Centro de Estudios de Matemática Computacional (CEMC), UCI, y Editor Jefe de la Revista Cubana de Ciencias Informáticas / Director of the Center for Computational Mathematics Studies (CEMC), UCI, and Editor-in-Chief of the Cuban Journal of Computer Science. UCI. 10:30- 13:30 Debate de temas / Discussion of topics: • Plan de estudio E y su continuidad en el posgrado / Curriculum E and its continuity into graduate school. • Vínculo del pregrado y el posgrado con la investigación científica / Link between undergraduate and graduate studies and scientific research. • Importancia de los proyectos de investigación (empresariales, territoriales, sectoriales y nacionales) en la formación de pregrado y posgrado / Importance of research projects (business, territorial, sectorial and national) in undergraduate and graduate education. 7 • Relación Universidad Empresa como impulso al pregrado, el posgrado y la investigación / University-Enterprise relationship as an impulse to undergraduate, graduate and research. • Papel de las publicaciones científicas en la investigación y en la formación de pregrado y posgrado / Role of scientific publications in research and undergraduate and graduate education. 13:30 Firma de Convenio de Colaboración entre la Cujae y CubaTel / Signing of Collaboration Agreement between Cujae and CubaTel. Nota: En paralelo se contará con una pequeña exposición, en formato físico y/o digital de las revistas del país relacionadas con las tecnologías de la información y las comunicaciones: Revista Cubana de las Ciencia Informáticas (RCCI) de la UCI; Revista de Ingeniería Electrónica, Automática y Comunicaciones (RIELAC) y Telemática, ambas de la Cujae; Tono de ETECSA y la Revista de Transformación Digital de la UIC. También se distribuirán materiales promocionales / In parallel, there will be a small exhibition, in physical and/or digital format, of the country's journals related to information and communications technologies: Revista Cubana de las Ciencia Informáticas (RCCI) of the UCI; Revista de Ingeniería Electrónica, Automática y Comunicaciones (RIELAC) and Telemática, both from Cujae; Tono of ETECSA and the Revista de Transformación Digital of the UIC. Promotional materials will also be distributed. Día / Day: 2 / 12 / 2022 Lugar / Place: Sala de Protocolo del Hotel Palco / Palco Hotel Protocol Room Presidente Sesión / Chairman Session: Dr.Cs. Nelson Chávez Ferry, Cujae Actividad / Activity: Sesión Científica / Scientific Session 9:00- 9:55 Conferencia Magistral / Keynote Speech: “NFV, ¿a dónde vamos ahora?” “NFV, where to go next” Dr.C. Alain A. Garófalo Hernández. MiPyme Avangenio,Cujae Panel: Sistemas de Radiocomunicaciones (1) / Radiocommunication Systems (1) Presidente Panel / Chairman Panel: Dr.C. Miguel Eduardo Borrego Corona, ETIE Secretario / Secretary: Dr. C. Alexis Manuel Cristobo Brooks, Cujae 10:00 – 10:55 CIT-01 (Cuba) ANÁLISIS DE COBERTURA EN SISTEMAS DE VIDEO VIGILANCIA INALÁMBRICOS IEEE 802.11B/G/N / COVERAGE ANALYSIS IN WIRELESS VIDEO SURVEILLANCE SYSTEMS IEEE 802.11B/G/N Autores: Fidel Martínez Armas, Taimir Alain Morales Roche, Miguel Eduardo Borrego Corona, Grettell Rodríguez Trujillo. Cujae CIT-05 (Cuba) DISEÑO DE DESFASADORES CON METAMATERIALES PARA ANTENAS INTELIGENTES USADAS EN LA 5TA GENERACIÓN MÓVIL / DESIGN OF PHASE SHIFTERS WITH METAMATERIALS FOR SMART ANTENNAS USED IN THE 5TH MOBILE GENERATION 8 Autores: Miguel Eduardo Borrego Corona, Daimy J. Cabrera Brito, Grettel Rodríguez Trujillo, Fransisco Marante Rizo. Cujae CIT-07 (Cuba) IMPACTO DEL PARÁMETRO RADIOMETEOROLÓGICO INTENSIDAD DE PRECIPITACIONES SOBRE LOS SISTEMAS 5G EN LAS CONDICIONES PARTICULARES DE CUBA / IMPACT OF THE RAINFALL INTENSITY RADIOMETEOROLOGICAL PARAMETER ON 5G SYSTEMS IN THE PARTICULAR CONDITIONS OF CUBA Autores: Vladimir Conde Williams, Lanyer Pérez Garlobo, José Luis Fuentes Lorenzo. Escuela Interarmas de las FAR, ITM, ETECSA. CIT-09 (Cuba) SIMULACIÓN A NIVEL DE SISTEMA DE UN ESCENARIO URBANO 5G DESARROLLADO EN MATLAB / SYSTEM-LEVEL SIMULATION OF A 5G URBAN SCENARIO DEVELOPED IN MATLAB Autores: Adrian Rodríguez Lau, Francisco R. Marante Rizo, Taimir Alain Morales Roche. Cujae CIT-10 (Cuba) SISTEMA DE ALIMENTACIÓN CON TECNOLOGÍA GAP WAVEGUIDE PARA ANTENAS DE 5G / POWER SUPPLY SYSTEM WITH GAP WAVEGUIDE TECHNOLOGY FOR 5G ANTENNAS Autores: Taimir Alain Morales Roche, Fidel Martínez Armas, Michel Enrique Guerra Bernal, Francisco Marante Rizo. Cujae CIT-04 (Uruguay) CAMBIO DE PARADIGMA EN LA ENSEÑANZA Y LA INVESTIGACIÓN EN LA MATERIA DISEÑO DE ANTENAS Y CIRCUITOS DE RF / PARADIGM SHIFT IN EDUCATION AND RESEARCH IN THE SUBJECT DESIGN OF ANTENNAS AND RF CIRCUITS Autores: Benigno Rodríguez Díaz, Leonardo Barboni Morales, Ana Arobleya Arboleya, Raúl Hans Hartmam Basaistegui. Facultad de Ingeniería, Universidad de la República. CIT-03 (Cuba) DISEÑO DE CURSOS EN MODALIDAD HÍBRIDA PARA LA FORMACIÓN DE INGENIEROS DE CURSO POR ENCUENTROS / HYBRID MODALITY CURSES DESIGN FOR ENGINEERS FORMATION IN CURSES BY MEETINGS Autores: Marcos A Gil Oloriz, Ileana Moreno Campdesuñer, Erik Otriz Guerra, Juan C Oliva Pérez. UCLV 11:00- 11:55 Conferencia Magistral / Keynote Speech: “Intensificación de la gestión del espectro radioeléctrico: reto y necesidad” / “Intensification of radio spectrum management: challenge and necessity” Dr.C. Enildo Sánchez Rodríguez, Director de Institución Científica / Scientific Institution Director Panel: Sistemas de Radiocomunicaciones (2) / Radiocommunication Systems (2) Presidente Panel / Chairman Panel: Dr.C. Francisco R. Marante Rizo, Cujae Secretario / Secretary: Taimir Alain Morales Roche, Cujae 12:00 – 13:00 CIT-02 (Uruguay) ANTENA PARA BEAMFORMING EN REDES 802.11AD/AY EN 60 GHZ / BEAMFORMING ANTENNA FOR 802.11AD/AY NETWORKS IN 60 GHZ Autores: Raúl Hans Hartmam Basaistegui, Mauricio González Nappa, Juan Pablo González Rivero, Benigno Rodríguez Díaz. Facultad de Ingeniería, Universidad de la República. CIT-18 PROCEDIMIENTO PARA EL CONFORMADO DEL PATRÓN DE RADIACIÓN DE 9 (Cuba) ANTENAS CILINDRO – PARABÓLICAS PARA LA EXPLORACIÓN DE LA SUPERFICIE DEL MAR / PROCEDURE FOR THE CONFORMATION OF THE RADIATION PATTERN OF CYLINDER-PARABOLIC ANTENNAS FOR THE EXPLORATION OF THE SEA SURFACE Autores: Pedro Arzola Morris, Daryl Ortega González. Cujae CIT-27 (Cuba) DISEÑO DE UN A-SMGCS EN EL AEROPUERTO INTERNACIONAL JOSÉ MARTÍ / DESIGN OF AN A-SMGCS AT JOSÉ MARTÍ INTERNATIONAL AIRPORT Autores: Shirley Robert Castillo, José Armando Rodríguez Rojas, Liban Tellez Casas. Empresa Cubana de Navegación Aérea (ECNA). CIT-28 (Cuba) INFLUENCIA DE LA ESTRUCTURA ESPACIAL DE UN SISTEMA TDOA EN EL ERROR DE LOCALIZACIÓN / INFLUENCE OF THE SPATIAL STRUCTURE OF A TDOA SYSTEM ON THE LOCATION ERROR Autores: Maykel Peña Arias, Gustavo García Corrales. ITM CIT-13 (Cuba) DISEÑO, SIMULACIÓN Y CONSTRUCCIÓN DE AMPLIFICADOR DE POTENCIA 20-700MHZ Y 40W CON HEMT / DESIGN, SIMULATION AND CONSTRUCTION OF POWER AMPLIFIERS OF 20-700MHZ AND 40W WITH GAN HEMT Autores: Yosvany González Mandado, Pedro Luis Hernández Portilla, Enrique Romero Mustelie. CIDP “Grito de Baire”. CIT-17 (Cuba) FUNDAMENTACIÓN DEL EMPLEO DE LA RED MÓVIL PARA LA DETECCIÓN DE DUCTOS TROPOSFÉRICOS / FOUNDATION OF THE USE OF THE MOBILE NETWORK FOR TROPOSPHERIC DUCTING DETECTION Autores: Ana Julia Marine López, Lányer Pérez Garlobo, Yoandri Marín González, José Rafael Sandianes Gálvez, Jesús Ferreiro Brito, Alain León Ruiz, Alain Rodríguez Tacoronte. MINCOM, ITM, Cujae, UPTCER, ETECSA. CIT-22 (Cuba) ADAPTACIÓN DE UN REFLECTOR PARABÓLICO “OFFSET” CON POLARIZACIÓN LINEAL A CIRCULAR / ADAPTATION OF A PARABOLIC REFLECTOR OFFSET WITH LINEAR POLARIZATION TO CIRCULATE Autores: Patricia Marín González, José Rafael Sandianes Gálvez, Roger Ernesto García Frómeta. Cujae, ETECSA CIT-25 (Cuba) DISEÑO DE UN SISTEMA DE AUMENTACIÓN SATELITAL GBAS/GRAS PARA LA FIR HABANA / DESIGN OF A GBAS/GRAS SATELLITE AUGMENTATION SYSTEM FOR THE HAVANA FIR Autores: Liban Tellez Casas, José Armando Rodríguez Rojas. Empresa Cubana de Navegación Aérea (ECNA). MEMORIAS CITTEL 2022 ANÁLISIS DE COBERTURA EN SISTEMAS DE VIDEO VIGILANCIA INALÁMBRICOS IEEE 802.11B/G/N Fidel Martínez Armas1, Taimir Alain Morales Roche2, Miguel Eduardo Borrego Corona 3, Grettell Rodríguez Trujillo4 1, 2, 3, 4 Universidad Tecnológica de la Habana ¨José A. Echeverría¨, CUJAE, Calle 114 # 1190, e/ Ciclovía y Rotonda, Marianao, La Habana, Cuba. 1e-mail: fidelma@tele.cujae.edu.cu 2e-mail: tamorales@tele.cujae.edu.cu 3e-mail: miguelebo@tele.cujae.edu.cu 4e-mail: grettelero@tele.cujae.edu.cu RESUMEN En el presente artículo, se plantea la obtención de un método de cálculo para la estimación de pérdidas en sistemas de comunicaciones inalámbricos que utilicen los estándares 802.11b/g/n, de manera específica en sistemas de seguridad en ambientes interiores. La instrumentación utilizada en la investigación (generador de señales y analizador de espectro) propició la posterior realización de medidas, para las cuales se diseñaron diferentes escenarios que imitaran el comportamiento aproximado del sistema real de video vigilancia. Partiendo de un análisis individual de las mediciones en cada uno de los ambientes de prueba, mediante la representación gráfica de las pérdidas obtenidas a partir de las medidas tomadas, se realizó una comparación con modelos de propagación empíricos certificados, basados en recomendaciones de la UIT y el modelo propuesto (obtenido con el método de ajuste de curvas), permitiendo conocer cuál de dichos modelos teóricos se ajusta mejor a la realidad de los escenarios diseñados. Los resultados alcanzados a partir del análisis, arrojaron que el ajuste de curvas es un posible método de predicción del comportamiento de cobertura en ambientes interiores. En el caso de esta investigación, basado en los modelos matemáticos que proporciona el software Curve Expert Professional, presentando el modelo resultante un nivel de exactitud aceptable, en comparación con los modelos tomados por la recomendación UITR P.1238 en casi todos los escenarios. PALABRAS CLAVES:Modelo de propagación, Sistema de video vigilancia, Estándar IEEE 802.11, Ajuste de Curvas, WLAN (Red Inalámbrica de Área Local). COVERAGE ANALYSIS IN WIRELESS VIDEO SURVEILLANCE SYSTEMS IEEE 802.11B/G/N ABSTRACT In this article, it is proposed to obtain a calculation method for the estimation of losses in wireless communication systems that use the 802.11b/g/n standards, specifically in security systems in indoor environments. The instrumentation used in the investigation (signal generator and spectrum analyzer) led to subsequent measurements, for which different scenarios were designed to imitate the approximate behavior of the real video surveillance system. Starting from an individual analysis of the measurements in each of the test environments, through the graphic representation of the losses obtained from the measurements taken, a comparison was made with certified empirical propagation models, based on ITU recommendations and the proposed model (obtained with the curve fitting method), allowing to know which of these theoretical models best fits the reality of the designed scenarios. The results obtained from the analysis showed that curve fitting is a possible method for predicting coverage behavior in indoor environments. In the case of this research, based on the mathematical models provided by the Curve Expert Professional software, the resulting model presents an acceptable level of accuracy, compared to the models taken by the UITR P.1238 recommendation in almost all scenarios. KEYWORDS: Propagation model, video surveillance system, IEEE 802.11 standard, curve fitting, WLAN (Wireless Local Area Network). 1. INTRODUCCIÓN El dimensionamiento de redes de comunicaciones inalámbricas es una actividad que requiere de rapidez y efectividad, donde la relevancia de las aplicaciones y servicios soportados es variada. Los sistemas en que estas son aplicadas se han complejizado, llegando a coincidir en ellos, diversos protocolos y estándares, que traen consigo valores específicos de velocidad, ancho de banda, frecuencias de transmisión y diversos parámetros, importantes para lograr la comunicación eficiente de sus elementos. El diseño y montaje de estos, bajo la frecuencia de 2.4GHz, que se rigen por los estándares IEEE 802.11b/g/n, de manera específica los sistemas de video vigilancia, se desarrollan la gran mayoría en locales interiores, oficinas, laboratorios, salones, entre otros; donde el ambiente de radio propagación afecta de manera directa las señales que se propagan. En consecuencia, la efectividad del sistema y seguridad de las personas o locales, se ve afectada por aspectos tan sencillos como la velocidad de datos, inhabilitación de sensores y otros errores. En las redes de comunicación inalámbrica, predecir las pérdidas de potencia de la señal con respecto a la distancia de propagación, en diferentes ambientes y bajo diversas condiciones, es muy útil para el diseño de equipos, cálculo de posición de repetidores o antenas, ubicación de nodos, entre otros. Las pérdidas de potencia normalmente se modelan matemáticamente por medio de una ecuación de propagación, donde se calculan las pérdidas en función de la distancia, la frecuencia, y otras variables que dependen de los obstáculos y los fenómenos asociados, como la difracción o la reflexión de señales Para la puesta en marcha de dichos sistemas se utilizan métodos ineficientes de prueba y error, lo que hace aún más engorroso y con largos plazos de cumplimiento este proceso. Problemática provocada por la inexistencia de modelos matemáticos o físicos, que permitan predecir las variaciones en los parámetros fundamentales de las redes inalámbricas, debido a los fenómenos físicos existentes en este tipo de ambiente en particular, y se utilicen como punto de partida para la implementación de sistemas de comunicaciones inalámbricas en interiores, en particular sistemas de CCTV (Circuito Cerrado de Televisión) que operen bajo los estándares IEEE 802.11b/g/n. Para la propagación de ondas en las redes bajo el estándar IEEE 802.11b/g o Wireless Fidelity (Wi-Fi), no es fácil encontrar modelos de predicción empíricos o semi-determinísticos validados por la comunidad científica, en gran medida, porque la mayoría de modelos se han desarrollado para sistemas de comunicación celular, con alturas de antenas superiores a 30 metros, distancias superiores a los 100 metros, y frecuencias que no sobrepasan los 2 GHz, variables que no se adaptan a una aplicación inalámbrica bajo dicho estándar. El estudio desarrollado ofrece un modelo de propagación empírico, aplicable a la banda de frecuencia de 2.4GHz, como resultado de medidas tomadas en típicos ambientes de interiores, debido a que es conveniente considerar un modelo sencillo que basado en mediciones experimentales permita determinar la predicación en el diseño de un enlace de datos minimizando los errores de predicción de acuerdo a las características físicas del medio donde se aplican el modelo. 2. RADIO PROPAGACIÓN EN INTERIORES Para llevar a cabo un modelo de cobertura WLAN (Wireless Local Area Network) o Red de Área Local Inalámbrica, así como para realizar una correcta planificación de su estructura, es imprescindible conocer previamente qué factores pueden intervenir en el proceso completo de intercambio de señales entre emisor y receptor. Cuando la señal electromagnética se propaga por una estancia, es afectada por múltiples fenómenos debido a la diversidad de obstáculos descritos.[5] Aunque el principio de propagación básico en entornos interiores es similar al de los entornos exteriores, la propagación de radio en interiores tiene su especificidad. Las herramientas de propagación de radio cuyos esfuerzos computacionales son independientes del número de reflejos y difracciones son ventajosas sobre aquellas cuyos esfuerzos computacionales dependen en gran medida de la complejidad de los escenarios, como las herramientas ópticas de rayos y los tamaños de los escenarios interiores son normalmente más pequeños que los escenarios exteriores. Por esto las herramientas de propagación de radio pueden proporcionar un esfuerzo computacional relativamente mayor por unidad espacial para obtener un mayor nivel de precisión. [4], [2] Modelos de Propagación Los modelos de propagación de radio se pueden clasificar según la zona de cobertura en dos tipos principales modelos en exteriores y modelos en interiores. Además según el tratamiento de las muestras y las expresiones aplicadas se pueden dividir en empíricos, deterministas, estocásticos y semi deterministas.[2], [8] Existen más modelos de propagación para sistema inalámbricos exteriores, debido a que la comunicación inalámbrica exterior se viene utilizando desde hace mucho más tiempo, como la usada para radio y televisión, entre otras. Para esto se mantuvo como referencia de modelos certificados a estudiar, fundamentalmente, los propuestos en la Recomendación UIT R P-1238, ofrecida por la UIT en el 2016.[6], [7] Dentro de estos se encuentran los modelos Pendiente Única, Log-Distancia, COST 231 Multi-Wal, UIT-R y atenuación lineal, comprendidos todos en la categoría de empíricos, y se especificaran sus expresiones aplicadas a esta investigación. Modelo de pendiente única (1sm) El modelo de una pendiente asume que la pérdida de trayectoria en dB depende linealmente de la distancia logarítmica Tx-Rx, como se muestra en (1):[7] �(�) = �0 + 10 ����(�) (1) Dónde �0 es la pérdida de trayectoria a la distancia Tx-Rx de un metro y � es el exponente de pérdida de trayectoria. El valor del exponente de pérdida en la frecuencia de trabajo de 2.4GHz, es de �=3.5.[1] Modelo de pérdidas Log-Distancia La mayor parte de los modelos empíricos se basan en (2), y debido a que es aplicable para ambientes interiores y exteriores, es uno de los modelos más clásicos. La atenuación es dada por: � �� = � �0 + 10� log � �0 + �� (2) Donde d = Distancia transmisor-receptor (km), (�0) = Pérdidas de propagación (dB) a una distancia do, �� = Variable aleatoria (gaussiana o normal), en dB [2], [9] Los valores en la frecuencia de trabajo para el exponente de pérdidas � =3.73 y la desviación estándar �= 4.35, ambos para el tipo de ambiente NLOS, dichos parámetros dependen de la frecuencia de operación e implícitamente de las características físicas (tipos de entornos interiores, disposición de los elementos físicos presentes, tipos de material de construcción, etc.) inherentes al camino o ruta de medición.[10] Modelo de ITU-R De manera implícita, el modelo considera las pérdidas a través del mobiliario, puertas y paredes, a través del exponente de pérdidas � que depende del tipo de edificios (residencial, comercial, de oficinas, etc.). Así mismo, toma en cuenta de forma explícita, las pérdidas a través de pisos. En resumen, las pérdidas de propagación en el referido modelo se determinan a partir de (3):[5], [1] �(��) = �(�0) + ����( � �0 ) + ��(��) (3) Donde N = 10n; d = Distancia entre transmisor y receptor, en metros (d > 1 m); �0 = Distancia de referencia (igual a 1 m); � (�0) = Pérdidas (dB) para una distancia de referencia do igual a 1m. Asumiendo, propagación en espacio libre, entonces (�0) = 20log� – 28; ��= Número de pisos atravesados por la trayectoria directa (para �� = 0, resulta �� = 0 dB); �� = Factor de pérdidas por penetración en pisos (dB). El valor de � para la frecuencia de trabajo en este caso es el correspondiente a Oficinas en el que �=30.[7] Modelo de Pared Múltiple COST 231 Desarrollado sólo para entornos interiores, considera una componente de pérdidas que es proporcional al número de paredes atravesadas, pero asume una dependencia no lineal entre la atenuación total. El modelo está definido en (4):[7] � �� = ��� + �� + 10����� + �=1 � ��� ��� + �� �� ( ��−2 ��+1 −�) (4) Dónde ��� es la pérdida del trayecto en el espacio libre para el trayecto en línea recta entre el transmisor y el receptor, ��� es la pérdida de penetración para una pared de tipo i, ��� es el número de paredes de tipo i, W es el número de tipos de muro, �� es el número de pisos, �� es la pérdida de penetración por piso, los factores �� y b dependen del ambiente interior considerado y son obtenidos por regresión lineal a partir de mediciones experimentales, siendo valores típicos ��= 37 y b = 0,46.[4], [1] Modelo de atenuación lineal La pérdida de potencia medido en dB se obtiene de la pérdida de potencia en espacio libre (Lel) más un factor que es lineal del rango que experimentalmente se ha obtenido. La fórmula utilizada en este modelo es:[2] ��(�) = ��� + �� (5) Donde “a” es el coeficiente de atenuación lineal y “d” es la distancia entre transmisor y receptor. En el caso de un ambiente de oficinas, el coeficiente α sería 0.47 dB/m. Los valores óptimos para α están entre 0.47, 2.8 y 0.22 para un piso, más pisos y entornos abiertos, respectivamente. [2] 3. MEDICIONES Y EQUIPOS UTILIZADOS Para las comunicaciones entre dispositivos de forma general la cobertura es un tema relevante y con características muy peculiares relacionadas con el contexto al que es referido dentro de las radiocomunicaciones. A causa de las múltiples formas de trayecto radioeléctrico y la diversidad de entornos, este término está referido a una predicción estadística. La red inalámbrica en análisis, es un sistema de video vigilancia con estructura de acceso IP,[11] como la ejemplificada en la Figura 1, de la cual se tiene como nodo central un Punto de Acceso (AP) del modelo NANOSTATION-M2 UBIQUITI, que permitirá establecer la conexión inalámbrica en la banda de 2.4GHz, con todos los dispositivos del sistema. Operable bajo los estándares 802.11b/g/n, configurado con una potencia de transmisión de 23dBm y una sensibilidad del receptor de hasta -83dBm. Seleccionado como NVR para la gestión de las cámaras se tiene el modelo DS-7100NI-K1/W/M(C), para lograr una gestión adecuada de las videocámaras a partir de una conexión inalámbrica sobre la frecuencia de trabajo, a una velocidad de hasta 144Mbps, permitiendo así que el sistema en su totalidad sea inalámbrico. Tiene además en su diseño un arreglo de dos antenas exteriores para ofrecerle poder y estabilidad a la señal, para una gestión inalámbrica de hasta 8 videocámaras de manera simultánea, ofreciendo así una gran movilidad del usuario por su fácil acceso web. Por último las videocámaras de las series Wi-Fi NVR de la empresa HIKVISION, una de las más recomendadas del mercado actual y funcional sobre los estándares 802.11b/g/n. Para optimizar y extender la aplicación del modelo matemático resultante de esta investigación, en los sistemas de video vigilancia inalámbricos interiores, es necesario seleccionar un conjunto de instrumentos de medición para analizar la atenuación que sufre la señal de radio frecuencia en cada uno de los recintos y recrear así un escenario entre dos elementos del sistema de seguridad inalámbrico en cuestión, de las características y funcionalidades, de los equipos que lo componen. Figura 1: Instalación de CCTV sobre ip [12] En este se utilizó un generador de señales ROHADE & SCHWARZ SMF 100A(Figura 2 (a)), simulando la función de trasmisor (Tx) en la banda de 2.432005GHz, con el objetivo de generar una señal monocromática, debido a que es muy difícil discernir las señales unas de otras, lo que haría más engorroso el proceso de medición. Configurándose con un nivel de potencia de 23dBm, con pasos de variación de 20MHz. Se tomó una distancia como referencia, en este caso un metro, que garantizase que los puntos de medición estuviesen siempre en la región de campo lejano de la antena. Un analizador de espectro R & S®FSL6 (Figura 2 (b)), se utilizó para la funcionalidad de receptor (Rx), para realizar las medidas de potencia. Configurado en frecuencia centrada de2.432005GHz, referencia de -20dBm, atenuación (Att) de 0dBm, ancho de banda RBW de 3MHz y VBW de 10MHz, y un Sweep Time (SWT) de 215ms. Figura 2: Set de medición (a) Vista frontal del generador de señales y configuración[13] (b) Vista frontal de Analizador de Espectro R & S®FSL6[14] En la Figura 3 se representan las dos antenas patrones, utilizadas tanto para la transmisión y recepción de la señal que se analizara. Ambas omnidireccionales, operables sobre la banda de 2.4GHz, en correspondencia con las antenas de los dispositivos que se rigen sobre los estándares WIFI. Determinándose así que cumplen con los requisitos necesarios para efectuar el estudio en cuestión. Figura 3: Antenas de parche Tx y Rx omnidireccional en 2.4GHz Escenarios de medición Las mediciones fueron implementadas en dos entornos interiores de manera general, que aquí serán denominados Ambiente 1 y Ambiente 2, localizados en el Departamento de Telecomunicaciones y Telemática; de manera específica en el local correspondiente a Comunicaciones Inalámbricas, de la Universidad Tecnológica de La Habana “José Antonio Echeverría”, Cuba. El Ambiente 1 apreciable en la Figura 4, correspondió al pasillo de Telemática justo frente al laboratorio de comunicaciones inalámbricas, en un área contigua al departamento de trabajo. Denominado escenario 1, donde se tomaron medidas del nivel de potencia recibida versus distancia, en la presencia de rejas de hierro, personas transitando en la ruta, sobre la frecuencia 2.432005GHz, variando la altura del receptor (Rx) entre 1m y 3m, llegando a una distancia máxima de 50 metros. Para los datos ofrecidos en la Tabla 3, se tomaron mediciones a varios puntos ilustrados en la Figura 4, a partir de una referencia de 1m de separación entre Tx (Transmisor) y Rx, y luego en aumento consecutivo de 2.5m desde el Tx. Figura 4: Ruta del Escenario 1 El Ambiente 2 consistió en varios escenarios de oficinas dentro del laboratorio de comunicaciones inalámbricas, de los cuales se especificarán las rutas tomadas y los diversos obstáculos que presentan a partir de la Figura 5.En estos se determinó el nivel de potencia recibida versus distancia, sobre la frecuencia de2.43GHz y variando la altura del receptor entre 1 y 3metros. A partir de una referencia de 1m de separación entre Tx y Rx, y luego en aumento consecutivo de 2.5m desde el Tx. Figura 5: Mediciones en el Ambiente 2 (a) Rutas de Mediciones 2, 3 y 4 (b) Ruta de Medición 5 Para el escenario 2 se contaba la presencia de sillas, mesas, televisor LCD y computadoras de escritorio en la ruta de medición. En el escenario 3los principales obstáculos fueron dos paredes, la primera de concreto de 10cm de espesor y 1.3m de altura, a partir de aquí cristal de 1cm de grosor con marcos de madera, la segunda de concreto de 10cm de espesor, además sillas, mesas y computadoras de escritorio en la ruta de medición. El escenario 4 presentaba una pared de concreto de 10cm de espesor y 1.3m de altura a partir de aquí cristal de 1cm de grosor con marcos de madera. En el caso del escenario 5 se toma la máxima complejidad, en presencia de dos paredes, la primera de concreto de 15cm de espesor y 2.7m de altura a partir de aquí reja de hierro con ventanas de 3cm de grosor con marcos de madera, la segunda de concreto de 20cm de espesor, además sillas, mesas y computadoras de escritorio en la ruta de medición, luego de sobrepasar el pasillo y penetrar en el departamento adyacente. Análisis de las Mediciones En el Gráfico 1 se muestra la dispersión de las pérdidas de propagación, en función de la distancia, para cada una de las alturas en la ruta de medición del Escenario 1 (Ambiente 1), en donde se enmarca el aumento de las pérdidas de propagación con la distancia. Se verifica además que las pérdidas de propagación también varían con la altura del receptor, aunque no de manera significativa. Gráfico 1: Pérdidas de propagación versus distancia Escenario 1 En la Tabla 1 se muestra las pérdidas de propagación y se observa como era de esperarse, que aumenten a medida que la distancia entre el transmisor y el receptor incrementa. Las medidas se realizaron a una separación entre Rx y Tx, de aumento de 2.5m, tomando como referencia un punto de muestra inicial de 1m y ocupan el máximo posible de distancia que permitió la estructura del departamento. En los datos recogidos en la Tabla 1 se percibe que la ruta de medición del escenario 4 en sus primeros 3m de distancia entre el Tx y Rx es el que presenta menos pérdidas, lo cual se debe a que es un camino con línea de vista, contrariamente a lo observado en la ruta de medición del escenario 3, en la cual se obtuvieron las mayores pérdidas y algunas variaciones, debido a que, la trayectoria de la señal es obstruida por dos paredes. Así mismo, se puede notar que en la ruta de medición del escenario 2 al no tener la pared de concreto y cristal, las pérdidas de propagación son menores que en la ruta de medición del escenario 4. Tabla 1: Pérdidas de propagación versus distancia escenarios del Ambiente 2 D(m) Escenario 2 Escenario 3 Escenario 4 Escenario 5 P(dB) (h=1.5m) P(dB) (h=3m) P(dB) (h=1.5m) P(dB) (h=3m) P(dB) (h=1.5m) P(dB) (h=3m) P(dB) (h=1.5m) P(dB) (h=3m) 1 29.85 35.64 31.85 35.64 29.85 35.64 31.85 35.64 2.5 41.42 43.20 46.89 49.17 46.89 49.17 41.95 45.12 5 52.75 49.70 51.80 56.50 56.73 56.18 60.22 57.30 80 60 40 20 0 1 5 10 15 20 25 30 35 40 45 50 Distancia(m) Pérdidas(dB)(h=1.5m) Pérdidas(dB)(h=3m) P ér di da s( dB ) 7.5 48.35 51.72 65.66 61.86 62.17 56.70 62.40 59.87 10 53.77 56.64 65.71 62.30 62.49 57.55 65.70 53.95 11 - - 67.28 63.47 - - 64.89 60.21 12.5 - - - - - - 67.05 63.23 15 - - - - - - 66.90 64.75 4. AJUSTE DE CURVAS Una vez tabulados los resultados de las mediciones, con 90 muestras diferentes, se necesita obtener un modelo matemático que represente la ecuación que relaciona las variables de atenuación, distancia y altura para cada escenario. Se seleccionó el software de ajuste de curva Curve Expert Professional, que permitirá obtener expresiones que representen el comportamiento de la cobertura en la edificación, mediante un gradiente de distancia de la potencia recibida. La comparación de los valores del error estándar y del coeficiente de correlación, permitirá determinar la expresión que relaciona las variables antes mencionadas con mayor eficiencia. Curve Expert Professional versión 2.65 del 2017, es una solución multiplataforma para el ajuste de curvas y el análisis de datos. En este los datos se pueden modelar usando una caja de herramientas de modelos de regresión lineal, modelos de regresión no lineal, métodos de suavizado, en resumen, ofrece más de sesenta modelos integrados. La capacidad de creación de gráficos de calidad, permite una representación exhaustiva del ajuste de la curva y el proceso de encontrar el mejor ajuste se puede automatizar permitiendo que Curve Expert Professional compare los datos con cada modelo para elegir la mejor curva. El software está diseñado con el propósito de generar resultados de alta calidad mientras ahorra tiempo en el proceso.[15] Se consideró como variable dependiente la potencia recibida y como variables independientes la distancia transmisor-receptor y altura del receptor. Una vez hecho el ajuste de curva de cada escenario, partiendo de las muestras tomadas, se realiza el análisis correspondiente al error estándar y el coeficiente de correlación para cada uno de las expresiones resultantes, y como es evidente en la Tabla 2, la distribución Racional es la idónea, en parte de la solución al problema que se pretende resolver, al presentar un coeficiente de correlación lo más cercano a 1 y un mínimo error en casi todos los escenarios, lo que reafirma que la expresión del nuevo modelo para interiores a utilizar es una función racional, descrita en (6), con una representación gráfica como la mostrada en el Gráfico 2. Tabla 2: Ajuste de Curvas por Escenario Esc ena rio Error Estándar Coeficiente de Correlación Distribución Valores 1 2.8561 0.9432 P = � + �log(h) + �log(d) a = 36,30 b = -2,29 c = 7,72 2 2.6714 0.9410 P = (a + b h + c d) (1 + d h + e d) a = 7,63 b = 6,71 c = 37,74 d = 0,07 e = 0,62 3 2.7296 0.9832 P = (a + b h + c d) (1 + d h + e d) a = -28,47 b = 34,43c = 68,59 d = 67,28e = 88,58 4 2.0637 0.9902 P = (a + b h + c d) (1 + d h + e d) a = -17480898,84 b = 9453528,23 c = 25476073,89 d = 208320,86 e = 378869,62 5 3.6985 0.9679 P = (a + b h + c d) (1 + d h + e d) a = 15,91 b = 34,39 c = 33,13 d = 0,77 e = 0,41 �(���) = (a + b h(m) + c d(m)) (1 + d h(m) + e d(m)) (6) Gráfico 2: Representación de la Distribución Racional Resultante 5. VALIDACIÓN DE RESULTADOS Comparando la expresión resultante en (6) con los diversos modelos de propagación en interiores, certificados en la Recomendación UIT R P-1238, ofrecida por la UIT (Unión Internacional de Telecomunicaciones) en el 2015 (Pendiente Única, Log-Distancia, COST 231 Multi-Pared, UIT-R y pendiente lineal). Es importante recordar que cada uno de estos modelos de propagación depende de una serie de parámetros que varían en función del entorno en el que se realiza la medida (LOS, NLOS, difracción, tipo de edificación, etc.). Se realizó un estudio del desempeño de la distribución racional resultante, para modelar el comportamiento de la cobertura en un ambiente interior. Las representaciones gráficas obtenidas de cada modelo, a partir de las mediciones de cada escenario, a la vez que se compararon con la representación gráfica de las mediciones reales y del modelo resultante por el ajuste de curvas con los datos de cada escenario de igual manera, aunque solo se mostrarán las más relevantes en cuanto a dificultad de propagación se trata. Los valores de los parámetros típicos de cada modelo fueron extraídos de las especificaciones dadas. Para el modelo resultante, se precisaron los valores de las constantes (a, b, c, d, e) de la función de aproximación, luego de realizar varios análisis, aplicando en todos los escenarios, los valores ofrecidos en cada uno en particular por el ajuste de curvas. Todo esto con el objetivo de seleccionar los que permitieran la mejor aproximación a la curva de valores de las mediciones realizadas, y así particularizar el uso del nuevo modelo de propagación basado en el gradiente de distancia de las pérdidas, según el tipo de ambiente interior(oficinas, teatros, grandes o pequeños espacios interiores, con o sin divisiones en los mismos).Los valores de las variables constantes se tomaran según el tipo de escenario en que se esté aplicando como se expone en la Tabla 3 . Tabla 3: Valores aproximados para la distribución racional Tipo de Escenario Interior Complejidad de Obstrucciones Valores LOS –NLOS con menor cantidad obstrucciones (escritorios, estantes, sin incluir paredes) a = 7,63 b = 6,71 c = 37,74 d = 0,07 e = 0,62 NLOS con mayor cantidad de obstrucciones (que incluyan paredes) a = -17480898,84 b = 9453528,23 c = 25476073,89 d = 208320,86 e = 378869,62 Abordando el análisis de los modelos podemos pasar a confirmar cuál de ellos se adecua mejor para el análisis de cobertura de cada escenario, presentando la menor cantidad de error en su representación. Para el caso de la expresión generada por el mejor método del ajuste de curva de (6), solo depende de la altura y la distancia, a parte de los valores generados por el mismo ajuste de curva. Escenario 1 Este escenario es el de mayor distancia y rango de mediciones, con muy pocos obstáculos, y en este se tiene la siguiente comparación mostrada en el gráfico 3 (a) para una altura de 1.5m y en el gráfico 3 (b) para una altura de 3m: Grafico 3: Comparación de los modelos utilizados y las mediciones reales en el escenario 1 en (a) altura del Rx de 1.5m (b) altura del Rx de 3m Para h=1.5 m y cambiando la distancia se puede definir que la precisión de los modelos varía según se va en aumento. En el caso de Gráfico 3 (a) quedan descartados casi todos los modelos excepto el modelo de multi-paredes de COST-231 y el obtenido como resultado, es decir la distribución racional. En este gráfico se puede notar como ambos modelos son bastantes precisos hasta llegar a una distancia de 15m, donde se comienzan a separar de forma gradual en cuanto a la curva de valores reales. En el caso de Gráfico 3 (b) se repiten el modelo de multi-paredes de COST-231 y el obtenido como resultado, es decir la distribución racional, como los más precisos. En este gráfico se puede notar como ambos modelos tienen un gran nivel de aproximación hasta llegar a una distancia de 12m, donde se comienza a separar de forma gradual la curva de valores reales, y el modelo que presenta un menor error de aproximaciones es el nuevo modelo de propagación resultante hasta una distancia de 40m, donde tiene un punto de fluctuación no tan significativo, lo que hace evidente que presenta un menor nivel de error en este escenario en las condiciones mencionadas en casi toda la ruta. Notándose que a pesar de tener tendencia de línea recta ascendente es un modelo válido con mayor exactitud a mayores alturas en este caso a 3m, altura típica de conexión de cámaras y otros elementos de sistemas de video vigilancia. Escenario 4 Este escenario NLOS, es uno de los típicos ambientes de oficinas, con una división de concreto y ventanas de cristal, donde hay obstáculos presentes como computadoras de escritorios, en este se tiene el análisis mostrado en el Gráfico 4 (a) para una altura de 1.5m y en el Gráfico 4 (b) para una altura de 3m. En el caso de Gráfico 4 (a) se comienza a ver la efectividad del resto de los modelos en ambientes NLOS con un gran número obstrucciones, en este caso, los más cercanos a la curva de pérdidas reales, son pendiente lineal, multi-paredes COST-231 y el nuevo modelo de propagación. En este gráfico se puede notar como el modelo basado en la distribución racional resultante del ajuste de curvas, tiene un menor error de aproximación en casi toda la ruta de medición. En el caso de h=3 m descrito en el gráfico 4 (b) se coinciden los modelos seleccionados, e incluso como el más exacto para este el nuevo modelo de propagación, con casi el mismo comportamiento que en el gráfico 4 (a), notándose así su mayor nivel de precisión en escenarios con gran cantidad de dificultades para la propagación de ondas electromagnéticas. Grafico 4: Comparación de los modelos utilizados y las mediciones reales en el escenario 4 en (a) altura de Rx de 1.5m (b) altura de Rx de 3m Escenario 5 Este escenario NLOS, es uno de los típicos ambientes de oficinas, con varias divisiones, entre locales adyacentes separados por un pasillo y obstáculos de oficinas. En el Gráfico 5 (a) se comienza a ver la efectividad del resto de los modelos en ambientes NLOS con un gran número obstrucciones, en este caso, los más cercanos a la curva de pérdidas reales, son pendiente lineal y el nuevo modelo de propagación. En este se puede notar como el modelo basado en la distribución racional resultante del ajuste de curvas, tiene un menor error de aproximación hasta llegar a una distancia de 8m, donde se comienza a separar de forma gradual en cuanto a la curva de valores reales. A pesar de tener tendencia de línea recta ascendente, el nuevo modelo aún es válido para este escenario y describir las pérdidas. En el caso de Gráfico 5 (b) se repiten ambos modelos y su comportamiento. Grafico 5: Comparación entre los modelos utilizados y las mediciones reales en el escenario 5 en (a) altura del Rx de 1.5m (b) altura del Rx de 3m CONCLUSIONES El resultado de esta investigación ofrece un método para el cálculo de las pérdidas de propagación operando en la frecuencia de 2.4GHz, en ambientes interiores. En el que se consideró como variable dependiente la potencia recibida y como variables independientes la distancia transmisor-receptor y altura del receptor. A partir de las posiciones óptimas de las cámaras inalámbricas, tomando los valores experimentales de las atenuaciones descritas por el analizador de espectro en los distintos escenarios, se implementaron datos en el software Curve Expert Professional, el cual mostró modelos de ajuste de curva de para predecir el comportamiento de la cobertura. La comparación de los resultados en cada una de las campañas de medición con los modelos de propagación ofrecidos por la Recomendación ITU-R P.1238 y el desarrollado mediante el ajuste de curvas, permiten comprobar cómo los modelos existentes e incluso los recomendados por la UIT, difieren en cuanto a las pérdidas en función de la distancia y los obstáculos. Al realizar este análisis se obtuvo que para cada escenario no hay un modelo en específico que nos brinde un menor grado de error en cuanto a atenuación real, para cada altura, distancia y escenario, existiendo diferentes modelos a tomar en cuenta. Se debe considerar claro está la precisión del modelo obtenido por el ajuste de curvas, el cual en muchas posiciones fundamentales de los escenarios analizados arrojo un menor error que los modelos propuestos por la Recomendación ITU-R P.1238, demostrando con esto que la expresión puede ser utilizada de forma general para cualquier sistema de comunicación inalámbrica que opere sobre los estándares 802.11b/g/n. RECONOCIMIENTOS Los autores desean agradecer a la Universidad Tecnológica de La Habana “José Antonio Echeverría”, que permitió el uso de sus instalaciones e instrumentos necesarios para el desarrollo de esta investigación. En especial al equipo de docentes que componen el departamento de Comunicaciones Inalámbricas. REFERENCIAS [1] MOROCHO YAGUANA, Marco; ERREYES DOTA, Alexandra. "An Optimized Propagation Model based on Measurement Data for Indoor Environments"[En línea]. J. Telecommun. Inf. Technol.,2018, vol. 2, núm. 1, pp. 69-75. Disponible en Web: https://doi.org/10.26636/jtit.2018.117217 [2] DIAGO MOSQUERA, Melissa Eugenia; ARAGÓN ZAVALA, Alejandro; CASTAÑON, Gerardo. "Bringing It Indoors: A Review of Narrowband Radio Propagation Modeling for Enclosed Spaces"[En línea]. IEEE Antennas Propagation Magazine, 2020, vol. 8, núm. 1, pp. 103875-103899. Disponible en: https://ieeexplore.ieee.org/document/9107142 [3] KLAINA, Hicham; PICALLO GUEMBE, Imanol; FALCONE, Francisco. "Implementation of an Interactive Environment With Multilevel Wireless Links for Distributed Botanical Garden in University Campus"[En línea]. IEEE Access, 2020, vol. 8, pp. 132382-132396, 2020, Disonible en Web: https://doi: 10.1109/ACCESS.2020.3010032. [4] GULIA, Rahul. "Path loss model for 2.4GHZ Indoor Wireless Networks aplication to Drones". Tesis de Grado, Rochester Institute of Technology, Rochester, NY, 2020. [5] GARCÍA FERNÁNDEZ, Néstor. "Modelo de cobertura en redes inalámbricas basado en radiosidad por refinamiento progresivo". Tesis de doctorado, Universidad de Oviedo, Ovideo, 2006. [6] STANCU, Eugene; CAPOTA Cristian. "Spectral Analysis in the 2.4GHz WIFI band in bucharest"[En línea]. IEEE Antennas Wirel. Propag. Lett., 2020, vol. 19, núm. 12, pp. 2315-2319. Disponible en Web: https://ieeexplore.ieee.org/document/9224130 [7] ITU. "Propagation data and prediction methods for the planning of indoor radiocommunication systems and radio local area networks in the frequency range 300 MHz to 450 GHz" [En línea]. En actas de Unión Internacional de Telecomunicaciones, ITU-R-Recomendación P.1238, 2021. Disponible en: https://www.itu.int/rec/R- REC-P.1238/es [8] ORHUN E. B; KEREM K. F. "Interference Power and SIR Comparison for Different Chanel Assignment Models on WI-FI Bands"[En línea]. IEEE Wirel. Comun. Netw. ConefrenceWCNC, 2018. pp. 230-235. [En línea]. Disponible en Web: https://ieeexplore.ieee.org/document/8566445 [9] R. AKL, Robert; TUMMALA, Dinesh; LI, Xinrong. "Indoor propagation modeling at 2.4GHz for IEEE 802.11 networks"[En línea]. Dep. Comput. Sci. Eng.,2006, p. 6. Disponible en Web: https://www.semanticscholar.org/paper/Indoor-Propagation-Modeling-at-2.4-GHz-for-IEE-Akl- Tummala/ 7e706ef15d60b2e00377fa07b84dd62b5a74c705 [10] MARÍN ALFONSO, Jeison. "Modelo de propagación empírico para predicción de pérdidas de potencia de señales inalámbricas bajo el estándar IEEE 802.11B/G"[En línea]. Gerenc Tecnol Inf., 2009, vol. 8, núm. 20, pp. 35-45. Disponible en Web: https://redib.org/Record [11] ZHANG T; SUMAN B. "The Design and Implementation of a Wireless Video Surveillance System "[En línea]. Proc. 21st Annu. Int. Conf. Mob. Comput. Netw,2015., vol. MobiCom ’15, pp. 426-438 [En línea]. Disponible en: https://doi.org/10.1145/2789168.2790123 [12] PRADA MORANTE, Carlos Andres; A. M. LÓPEZ VARGAS, Ángel María. "Diseño de un Sistema de video vigilancia por medio de enlaces de microondas para la empresa DISAM sucursal Sanat Marta". Tesis de Grado, Universidad Cooperativa de Colombia, Santa Marta, Magdalena, 2018. [13] "R&S®SMF100A Microwave Signal Generator Operating Manual". Rohde & Schwarz GmbH & Co. KG version 6, 2016. [14] "R&S®FSL Spectrum Analyzer High-end functions in an extremely lightweight, compact package". Rohde & Schwarz GmbH & Co. KG version 6, 2008. [15] D. G. Hyams, "Curve Expert Professional Documentation v 2.7.3". 2020. SOBRE LOS AUTORES Fidel Martínez Armas: Ingeniero en Telecomunicaciones y Electrónica, graduado en la Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE, en enero de 2022. ORCID: 0000-0001- 8989-946X Taimir Alain Morales Roche: Profesor ATD de Telecomunicaciones y Electrónica en la Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE, actualmente cursando en el 6to año de la carrera de Telecomunicaciones y Electrónica. ORCID: 0000-0002-8365-3183 Miguel Eduardo Borrego Corona: Doctor en Ciencias Técnicas, Master en Radioelectrónica en la especialidad de Microondas, Profesor Auxiliar, Diplomado en la Universidad de Hefei China. ORCID: 0000-0002-8381-8320. Grettel Rodríguez Trujillo: Master en Telecomunicaciones y Telemática, Profesor Asistente, Investigador Agregado, CUJAE. ORCID: 0000-0003-1037-6063 ANTENA PARA BEAMFORMING EN REDES 802.11AD/AY EN 60 GHZ Raúl Hans Hartmam Basaistegui, Mauricio González Nappa, Juan Pablo González Rivero, Benigno Rodríguez Díaz Facultad de Ingeniería, Universidad de la República, Julio Herrera y Reissig 565, 11300 Montevideo, Uruguay e-mail: {rhartmam, mgnappa, juanpg, benigno}@fing.edu.uy RESUMEN Las siempre crecientes demandas de tráfico de las redes inalámbricas y la saturación de las bandas más bajas del espectro radioeléctrico han llevado a la industria a adoptar el uso de bandas de frecuencia cada vez más altas. Una de esas bandas es la de 60 GHz que ha sido incorporada a los estándares de redes WiFi dentro del grupo 802.11 de IEEE en la pasada década. En este trabajo se presenta el diseño de una antena para uso con técnicas de beamforming en la banda de 60 GHz. Se revisan los estándares de operación en la banda, de los que se obtienen requerimientos y criterios para el diseño. Se realizan simulaciones y comparan con el diseño teórico, realizando ajustes y mejoras al diseño original. Se aplican técnicas para reducción de lóbulos secundarios y se evalúa la antena con técnicas de transmisión multiusuario, con el objetivo de incrementar la eficiencia espectral. PALABRAS CLAVES: Beamforming, Ondas Milimétricas, Arreglos de Antenas, Diversidad Multi Usuario. BEAMFORMING ANTENNA FOR 802.11AD/AY NETWORKS IN 60 GHZ ABSTRACT The ever-increasing traffic demands of wireless networks and the saturation of the lower bands of the radio spectrum have led the industry to adopt the use of ever higher frequency bands. One of those bands is the 60 GHz band that has been incorporated into the Wi-Fi network standards within the IEEE 802.11 group in the past decade. In this work, the design of an antenna for use with beamforming techniques in the 60 GHz band is presented. The operating standards in the band are reviewed, from which requirements and criteria for the design are obtained. Simulations are performed and compared with the theoretical design, making adjustments and improvements to the original design. Techniques are applied to reduce secondary lobes and the antenna is evaluated with multi-user transmission techniques, with the aim of increasing spectral efficiency. KEYWORDS: Beamforming, Millimeter Waves, Array Antennas, Multi User Diversity. 1. INTRODUCCIÓN La banda de 60 GHz, denominada banda V, surge como no licenciada en EE.UU. a partir de 1994 cuando el ente regulador FCC declara el bloque de 59-64 GHz como de uso libre. Organizaciones reguladoras en países de todo el mundo han destinado bloques similares, aunque en general no idénticos, también para uso no licenciado. Actualmente este bloque no licenciado en EE.UU. fue ampliado a 57-71 GHz, disponiendo de 14 GHz. Durante la segunda década de este siglo la banda de 60 GHz comienza a tener uso para las siguiente aplicaciones: redes de área personal (WPAN), redes de área local (WLAN), redes de acceso fijo inalámbrico de alcance metropolitano (WMAN) para acceso a Internet o backhaul de redes celulares y por último aplicaciones de radar de corto alcance (por ejemplo asistencia a estacionamiento, redes intra e inter vehiculares y otros). En el presente trabajo se comienza describiendo las condiciones particulares de propagación en la banda, en la Sección II, justificando la necesidad del uso de beamforming. En la Sección III se comentan modelos de arquitecturas de transceptores con arreglos de antena y beamforming. En la Sección IV se presentan los estándares de operación WLAN/WMAN de IEEE 802.11ad/ay y los requerimientos que generan sobre el diseño de la antena. En la Sección V se presenta el diseño de la antena y los resultados de las simulaciones. En la Sección VI se aplican técnicas de cancelación de lóbulos laterales y por último en la Sección VII se aplican técnicas para transmisiones multiusuario. En las referencias [1], [2] se presenta el estándar IEEE 802.11ad y en [3]-[5] se presentan aplicaciones prácticas del mismo. En [6] se presenta el estándar 802.11ay, en [7] las mejoras que introduce en beamforming y en [8] un repaso de problemas abiertos para su implementación. En [9] se describen arquitecturas y compromisos de diseño para sistemas en bandas milimétricas, con énfasis en 60 GHz. En [10] se presentan algunos elementos de beamforming propios de la banda de 60 GHz. Por último en [11]- [13] se presentan implementaciones de sistemas multiusuario. 2. PROPAGACIÓN EN 60 GHZ En esta banda existen algunos condicionantes particulares fundamentales que disminuyen el rango de distancias en los que es posible establecer enlaces confiables. En primer lugar las tecnologías de circuitos de radiofrecuencia integradas de bajo costo previstas para estas aplicaciones presentan límites en la potencia de transmisión conducida típicamente menores a 10 dBm, por limitaciones intrínsecas de la electrónica. Esto típicamente es un orden de magnitud inferior que lo disponible en otras bandas empleadas para WLAN como 2.4 ó 5 GHz. En segundo lugar, la atenuación por moléculas de oxígeno presenta un pico en la banda de 60 GHz, que llega a valores de hasta de 15 dB/km. Esta limitación no es importante para redes desplegadas en interiores WLAN de corto alcance, pero sí es un factor limitante del rango de operación de redes exteriores WMAN. En tercer lugar, la necesidad siempre creciente de tasas de transmisión de datos de usuario requiere emplear anchos de canal más amplios de hasta 2 GHz o más, que generan un piso de ruido alto comparado con los otros estándares de transmisión para WLAN o WPAN en bandas de frecuencia inferiores. A continuación se comenta un ejemplo para esta banda de balance de potencias (link budget), empleando antenas omnidireccionales dipolares (de uso común en otras bandas). Considerando los siguientes parámetros: frecuencia (GHz) 60 GHz, ganancias de antenas de 2.15 dBi, potencias de transmisión conducidas de 10 dBm; se obtiene un margen de señal de 0.9 dB para apenas 2 m de distancia. En este ejemplo se observa que solo es posible establecer enlaces de ese orden de alcance, lo que restringiría las aplicaciones a redes de área personal. Es necesario entonces implementar antenas de alta ganancia para resolver estas limitaciones. Para esta banda existen algunos aspectos que son favorables para el empleo de antenas de alta directividad mediante arreglos (arrays) de antenas individuales. En primer lugar, en 60 GHz la longitud de onda es de 5 mm en espacio libre, lo que permite arreglos de antenas de muy alta directividad con dimensiones físicas factibles de implementación, comparando con otras bandas a frecuencias más bajas. En segundo lugar la propagación es posible en general solo en condiciones de línea de vista, lo que facilita la aplicación de técnicas de conformación de haces (beamforming) mediante los arreglos mencionados. Además, para una aplicación WLAN al menos es conveniente que la directividad de las antenas sea adaptativa y permita enlaces móviles o al menos nómades, es decir que puedan cambiar su ubicación fija dentro del área de cobertura. Por los aspectos mencionados es que en esta banda se implementan transmisiones direccionales con lo que se logran mitigar las condiciones adversas de propagación, aprovechando aspectos favorables para su implementación. 3. ARQUITECTURAS PARA BEAMFORMING De acuerdo a [9], existen tres modelos generales para implementar transceptores de radiofrecuencia basados en arreglos de antenas, de acuerdo a la etapa en el procesamiento de la señal en la que se controlan las amplitudes y fases de las señales que alimentan a cada antena. En la Fig. 1 a) se muestra el modelo de beamforming digital, se modifican digitalmente en banda base (BB) mediante procesamiento digital (DSP, Digital Sognal Processing) amplitudes y fases de alimentación de entrada a cada elemento. Se requiere una cadena de radio (RF) y amplificador de potencia (PA, Power Amplifier) por elemento de antena (ANT). En la arquitectura para beamforming puramente analógico, mostrado en la Fig. 1 b), el enfoque de la directividad se realiza modificando amplitudes y fases relativas de las señales de radiofrecuencia a la entrada de cada antena. Esto se logra de forma adaptativa con variadores de fase (PS, phase shifters) y amplificadores de ganancia variables (VGA, variable gain amplifiers) en la red de alimentación de cada elemento del arreglo de antenas. Se utiliza solo una cadena de radio para transmisión a un usuario simple. En el modelo de beamforming híbrido se implementa un esquema intermedio entre los dos anteriores. Existen menos cadenas de radio que elementos de antena, cada una se conecta a un subgrupo (“sub array”) como el mostrado en la Fig. 1 c), o a todos los elementos del arreglo (“fully connected array”), como en la Fig. 1 d). a) Beamforming Digital. b) Beamforming Analógico. c) Arquitectura “Sub Array”. d) Arquitectura "Fully Connected". Figura 1: Arquitecturas de RF para beamforming. 4. ESTÁNDARES EN 60 GHZ El estándar 802.11ad [1], [2] de IEEE publicado en 2012, impulsa el desarrollo en la banda de 60 GHz para aplicaciones WLAN que requieran velocidades de transmisión altas, por ejemplo video de alta definición o acceso a Internet de alta velocidad. El estándar contempla los requerimientos de beamforming que se vieron antes, asumiendo que las estaciones disponen de una o más antenas de varios elementos cada una y que son capaces de realizar beamforming analógico con ellas. Se especifican mecanismos para que dos estaciones o una estación y un punto de acceso (genéricamente llamados usuarios DMG por Directional Multi Gigabit) puedan elegir las configuraciones de antena óptimas para maximizar el alcance y capacidad del enlace entre ambos. La estructura de la trama de este estándar se modifica respecto a las de las anteriores versiones de 802.11 para incorporar períodos de entrenamiento de la configuración de beamforming. En el período de la trama denominado como BHI (Beacon Header Interval) se realiza el entrenamiento de barrido a nivel de sector (SLS, Sector Level Sweep), en el que los dispositivos en cuestión alternan fases de transmisión y recepción con diferentes pesos (AWP, Antenna Weight Pattern) para cada elemento de antena, correspondientes a diferentes orientaciones predeterminadas de los haces conformados, mientras el otro dispositivo mantiene su configuración cuasi omnidireccional. Este mecanismo permite el establecimiento de un canal de control (Control PHY) de baja velocidad de transmisión y alta codificación redundante. Además, se incluye un mecanismo para poder refinar (BRP, Beamforming Refinement Protocol) la configuración de antena hacia valores específicos y óptimos para el dispositivo par, mejorando la condiciones de operación del enlace por sobre lo logrado con las orientaciones predeterminadas empleadas en la fase de barrido SLS. Con este mecanismo se logra establecer un canal de transmisión de datos de usuario a la mayor tasa de transmisión posible. El estándar IEEE 802.11ay, ratificado en 2021, parte del esquema base de 802.11ad e introduce mejoras manteniendo la compatibilidad hacia atrás. Las mejoras permitirán llegar a tasas teóricas de 100 Gbps o más, soportadas por modulaciones de mayor eficiencia espectral, agregación de canales y técnicas MIMO para usuario simple y múltiple. En cuanto a los aspectos de beamforming, introduce técnicas adicionales entre las que se destacan TXSS (Transmit Sector Sweep) durante el período BRP y entrenamiento de beamforming asimétrico. 5. DISEÑO DE ANTENA La tecnología de uso más extenso para antenas en ondas milimétricas es el diseño integrado al chip transceptor. La técnica microstrip, consistente en un arreglo de dipolos de tipo parche ("patches") sobre un plano reflector, separados por un sustrato de material dieléctrico, puede ser una alternativa para desarrollos experimentales. Las dimensiones relativamente pequeñas de las antenas pueden traer otros problemas de diseño a nivel de hardware y del método de fabricación. En el patrón de radiación de arreglos de antenas se generan lóbulos múltiples cuando las separaciones entre los elementos son mayores a la longitud de onda. Para evitarlos la separación entre elementos debe ser una fracción de la longitud de onda, típicamente 0.5λ. El fenómeno físico de acoplamiento mutuo entre los elementos del arreglo distorsiona los diagramas de radiación respecto a las predicciones del factor de arreglo, para las que no se tiene en cuenta ese fenómeno. Para evitar este acoplamiento, se recomienda que la separación entre elementos del arreglo sea mayor a una longitud de onda. Existe entonces un compromiso para el diseño de la separación entre elementos entre evitar el fenómeno del acoplamiento mutuo por un lado y el de lóbulos múltiples por otro lado. Requerimientos Se asume que la antena a diseñar se empleará para una aplicación WLAN en interiores, tanto como punto de acceso (AP, Access Point) o estación (STA, Station). Se considera una apertura en acimut de 90° para configurar un concentrador de cuatro AP aprovechando que se dispone en la banda de cuatro canales de operación diferentes para evitar interferencias. De acuerdo a los estándares de operación 802.11ad/ay son relevantes las configuraciones quasi ominidireccional y la configuración en haz direccional para barrido SLS. Ambas configuraciones determinan en el caso de 802.11ad la cobertura del sector concentrador. Considerando el esquema de red arriba mencionado los enlaces se establecerán entre la configuración cuasi omnidireccional para el punto de acceso y la configuración en haz para la estación. Debido al spreading code de la capa física de control que suma 15 dB de ganancia de codificación, el estándar pide una ganancia de beamforming de 15 dB respecto a la antena cuasi omni, para poder mantener el enlace cuando se opere en la fase de transmisión de datos. Software de simulación El software de simulación NEC disponible para uso no comercial está basado en el método de los momentos para resolución de problemas electromagnéticos con condiciones de frontera. Este método plantea ecuaciones integrales, en lugar de ecuaciones diferenciales como se emplea en otras aplicaciones basadas en métodos por diferencias finitas, por ejemplo CST (Computer Simulation Technology) entre otros. La unidad básica de construcción de modelos es un alambre con el que se simula naturalmente elementos de antena del tipo dipolo y mediante grillas elementos de superficie. A su vez, cada alambre es divido en segmentos. La aplicación 4nec2 es un desarrollo de uso libre que implementa las bibliotecas de distribución libre de NEC versión 2. Puede operar también con las bibliotecas NEC versión 4, versión que corrige algunas limitaciones de la versión 2 pero no es de uso libre. Algunas reglas básicas para modelos en 4nec2: a) Largo de cada segmento debe estar entre 5 y 10% de la longitud de onda, b) La razón entre largo del segmento y radio del alambre es crítica: si es mayor que 8 requiere "Thin Wire Kernel", si está entre 2 y 8 requiere "Extended thin Wire Kernel" y si este valor es menor que 2 la precisión de la simulación baja notoriamente. La herramienta 4nec2 no permite simular sustratos de otro material que no sea aire. De proceder a la construcción se evaluarían sustratos tales como FR4 (por ser muy general) u otros tales como Roger TMM4 o Arlon AD430, con objeto de minimizar pérdidas. Para proceder a esta evaluación se podría utilizar una herramienta de simulación más completa como el Computer Simulation Technology (CST), herramienta con la cual sí se puede evaluar la influencia de distintos sustratos. Las simulaciones que se presentan en este trabajo se enfocaron en los diagramas de radiación para evaluar los efectos de algoritmos de cancelación de lóbulos, beamforming y transmisiones multiusuario. Estas simulaciones pueden considerarse simulaciones a nivel de sistema; para proceder a una implementación real de estos sistemas de antenas, se necesitaría un trabajo extra de simulaciones a nivel físico que se considera en este trabajo una segunda etapa posterior. Array de N antenas En la Fig. 2 se muestra el diseño del arreglo de N =11 columnas y M=3 filas de dipolos de media onda con polarización vertical. Los 33 elementos deberían asegurar una ganancia de 15 dB o mayor (10log(MxN)) respecto a la ganancia en la configuración cuasi omnidireccional. La elección de un número impar de elementos facilita la simetría en el diagrama de radiación cuasi omnidireccional. El número mayor de elementos en los arreglos horizontales fue elegido para generar un mayor número de haces para el barrido en acimut respecto al del barrido en elevación, que es lo habitual en los escenarios WLAN. La separación horizontal de los elementos individuales es de 0.5λ para evitar el fenómeno de lóbulos de radiación en el semiplano frontal de la antena. Para la separación vertical de la antena en cambio se empleó 0.65λ como separación entre elementos, lo que evita solapamientos y además agrega ganancia a expensas de lóbulos en elevación, que no son problemáticos para la aplicación considerada. Figura 2: Array de 11x3 elementos. Diagrama cuasi omnidireccional Durante una parte de la fase de entrenamiento de beamforming, el dispositivo debe mantener un diagrama de radiación cuasi omnidireccional, de acuerdo al estándar 802.11ad. En el caso de una antena sectorial, debe mantener un esquema lo más uniforme posible de ganancia en la apertura esperada para el sector. En la simulación, este diagrama en transmisión se realizó alimentando solamente el elemento central. En la Fig. 3 se muestra el diagrama de radiación que se obtuvo en la simulación. Figura 3: Diagramas de radiación de antena cuasi omnidireccional. En la Tabla 1 se muestran algunos de los parámetros obtenidos en las simulaciones y que pueden considerarse apropiados de acuerdo a las limitaciones del simulador, incluyendo la apertura angular de media potencia (HPBW, Half Power Beam Width). Como ya se explicó cuando se habló del sustrato, estas simulaciones se enfocaron a nivel de sistema, con el objetivo de observar los efectos de los diferentes algoritmos considerados. El VSWR variará según el sustrato que se elija en una etapa de diseño de la antena previa a su fabricación, lo que requiere simulaciones a un nivel más físico del desempeño de la antena. Adicionalmente en esa etapa del diseño de la antena se podría optimizar su diseño considerando la mejor adaptación de impedancias posible o incluso evaluar la conveniencia del uso de redes de adaptación de impedancia adicionales. La optimización del VSWR en base a simulaciones físicas que antecedería a la fabricación de este sistema de antenas quedó fuera del alcance de este trabajo, que pretende mostrar el alcance que puede tener la aplicación de los algoritmos considerados, con una antena de este tipo, que posteriormente fuera optimizada físicamente para obtener un funcionamiento real adecuado. Tabla 1: Parámetros de antena cuasi omnidireccional. Parámetro Unidades Valor Ganancia máxima dBi 8.34 Apertura H (HPBW) ° 82 Apertura V (HPBW) ° 86 F/B ratio dB 34.9 Barrido SLS En la fase SLS del proceso de entrenamiento de beamforming, el dispositivo debe presentar un haz de máxima ganancia apuntado a las direcciones a cubrir dentro del área deseada de cobertura. En base al ángulo de máxima directividad deseado, se calcularon los valores de la fase progresiva β necesaria en cada elemento del arreglo, mediante la expresión clásica [14]: ( )al pb cos2 d= (1) siendo α el ángulo de acimut o elevación deseado de máxima directividad, d la separación horizontal entre elementos de antena individuales en el arreglo y λ la longitud de onda. En la Fig. 4 se muestra el diagrama de radiación obtenido para un acimut de -20°, medido a partir de la dirección frontal, y para una elevación 95° medida a partir del eje vertical. Figura 4: Diagramas de radiación para barrido SLS. En la Tabla 2 se muestran algunos de los parámetros de antena obtenidos. Se obtuvo una ganancia de aproximadamente 13 dB sobre la ganancia de la antena en configuración cuasi omnidireccional, por lo que no se alcanzó el objetivo de diseño de 15 dB. Es posible que las impedancias mutuas entre elementos de las antenas puedan explicar la discrepancia con lo esperado. Tabla 2: Parámetros para configuración SLS. Parámetro Unidades Valor Ganancia máxima dBi 21.19 Apertura H (HPBW) ° 10 Apertura V (HPBW) ° 26 F/B ratio dB 24.1 En la Fig. 5 se observa la correlación entre los ángulos de máxima ganancia alcanzados y los deseados. Se muestra que el ángulo de mayor directividad horizontal coincide con el simulado para valores dentro del espacio visible del arreglo. El error obtenido es mayor a medida que se acerca a los bordes de la cobertura. Figura 5: Correlación entre diseño y simulación. En la Fig. 6 se muestran superpuestos los patrones de radiación horizontal y vertical respectivamente, para una selección de haces que realizan la fases de SLS. El criterio para elegir los haces se basó en elegir una cantidad igual a la de los elementos de antena en cada plano y de acuerdo a esa elección hacer los haces equiespaciados para tener una cobertura uniforme. En base a lo anterior se obtuvieron once haces horizontales y tres haces verticales. Figura 6: Barridos SLS en acimut (izquierda) y en elevación (derecha). Para el estándar 802.11ad, en el balance de potencias que determina el alcance del enlace intervienen la antena cuasi omnidireccional del punto de acceso contra el haz conformado SLS en la estación. De acuerdo a lo anterior, un nuevo balance de potencias considerando un enlace con la antena diseñada en ambos dispositivos presenta 21 dBi para la antena de transmisión en configuración SLS y 8 dBi par la antena de recepción en configuración cuasi omnidireccional. Con esos parámetros, el nuevo balance de potencias muestra la mejora en el alcance de este nuevo enlace (30m) respecto al presentado en la Sección II de antenas omnidireccionales (2m). 6. LOBULOS SECUNDARIOS Para restringir la aparición de los lóbulos secundarios en el diagrama de radiación, se utilizaron diferentes tipos de ventanas sobre las amplitudes de los elementos de antena. Los lóbulos secundarios tienden a disminuir la CINR para los terminales operando en la celda, en el caso de usar transmisiones múltiples. Se probaron ventanas Hamming, Blackman y Dolph-Chebyshev, siendo las últimas las de mejor resultado. En la Fig. 7 se compara la aplicación de Dolph-Chebyshev donde se muestra la cancelación completa de los lóbulos secundarios a costa de una reducción de la ganancia máxima de 2 dB y ampliación en el ancho del haz a 16°. Los parámetros de la antena con ventana se muestran en la Tabla 3. Figura 7: Diagrama horizontal con ventana (rojo) y sin ventana (azul), para el haz θ=90°, φ=0°. Tabla 3: Parámetros de antena con ventana. Parámetro Unidades Valor Ganancia máxima dBi 19.20 Apertura H (HPBW) ° 16 Apertura V (HPBW) ° 26 F/B ratio dB 24.4 7. CONFIGURACION MULTIUSUARIO De acuerdo con la evolución propuesta por el estándar 802.11ay [6]-[8] de implementar transmisiones multiusuario y tomando un esquema como el mostrado en la Sección III de arreglo completamente conectado, se simuló la capacidad de la antena diseñada para poder soportar tráfico multiusuario. En referencia a la Fig. 1 d) con dos cadenas de radio, se considera que existen en el área de cobertura dos usuarios A y B con interés de cursar tráfico simultáneo. Para poder transmitir a ambos al mismo tiempo realizando multiplexación espacial, el sub arreglo debe conformar un haz que maximice la señal sobre el usuario A (usuario deseado) y minimice la señal sobre el usuario B (usuario no deseado), maximizando entonces la relación señal a ruido (SNR) para el usuario A. De forma análoga el sub arreglo b debe maximizar la SNR para el usuario B, que es el usuario deseado para este sub arreglo. Se considera en este modelo solamente el aporte del beamforming analógico de la configuración multiusuario, sin incluir la codificación en banda base necesaria para la ecualización coherente del canal inalámbrico y que esta prevista en el estándar 802.11ay. Considerando el arreglo, se simularon haces conformados para compartir el medio con un usuario A en acimut 0 (“boresight”) y con el usuario B ubicado en diferentes posiciones para poder evaluar la efectividad de los diferentes algoritmos. Para simplificar la evaluación se consideraron los ángulos de barrido SLS como posiciones para el usuario B. En la Fig. 8 a) se muestran cortes de los diagramas de radiación horizontales de la solución más sencilla, que consiste en aplicar a cada usuario el haz resultado del proceso del entrenamiento de beamforming. Dado que los valores de SNR obtenidos no son suficientes para modulaciones de índice alto se simuló un algoritmo para maximizar SNR, dadas las direcciones o AWP conocidas para los dos usuarios intervinientes, que minimiza la ganancia del arreglo en la dirección del usuario B. El algoritmo de cancelación logra el objetivo de cancelar al usuario B obteniendo valores de SNR mayores que 30 dB, pero como se ve en la Fig. 8 b) el nivel de lóbulos secundarios se mantiene alto, lo que genera los problemas mencionados en la Sección VI. Considerando lo anterior, para el esquema multiusuario se implementó una combinación de los algoritmos de cancelación y de ventana para minimizar los lóbulos secundarios. En la Fig. 8 c) se muestran los diagramas de radiación simulados en condiciones similares a la simulación sin ventana. La nueva configuración de cancelador más ventana logra el objetivo de minimizar los lóbulos secundarios y como consecuencia mejorar los valores de SNR para valores alejados del acimut deseado de 0°. Sin embargo, para el acimut “adyacente” de 8°, se observa que la cancelación de los lóbulos laterales es menor y además el haz para el usuario A se desenfoca en unos 4°. Esto es consecuencia de que con la ventana se agranda el haz principal y el algoritmo de cancelación pierde su capacidad de discriminar acimuts cercanos. En simulaciones numéricas, considerando el mismo factor de arreglo y ventana se obtienen resultados similares para usuarios A y B en 0 y 8 grados respectivamente, como se muestra en la Fig. 8 d). a) Multiusuario con SLS. b) Multiusuario con cancelador. c) Cancelador más ventana. d) Simulación numérica (A 0°, B 8°). Figura 8: Configuraciones de beamforming para transmisión multiusuario. En la Fig. 9 se muestran los resultados resumidos para las cuatro simulaciones. Se observa la mejora introducida por el algoritmo de SNR máxima y el efecto de la ventana para los acimuts a cancelar más alejados del acimut cero. Figura 9: SNR para los diferentes métodos. La mejora en la capacidad de la celda debida a la configuración multiusuario depende directamente de la capacidad de discriminación angular del arreglo de antenas de la estación base. Para realizar una estimación se considera que la estación base tiene por antena el arreglo visto y dos cadenas de radio con bandas base independientes, con las que puede transmitir a un máximo de dos usuarios en simultáneo. Para simplificar el análisis se consideran solamente los haces estáticos empleados para el barrido SLS. La estación base podrá transmitir simultáneamente a dos usuarios a los que les corresponda haces diferentes y además no adyacentes, considerando la distorsión vista arriba en los haces adyacentes. En la Fig. 10 se muestra el escenario y las combinaciones de haces admisibles para multiplexación. Asumiendo que los usuarios están uniformemente espaciados en acimut, la ganancia máxima en capacidad por esta configuración multiusuario es entonces aproximadamente 74% superior a la capacidad de usuario simple. Figura 10: Oportunidades de multiplexación de dos usuarios A y B. 8. CONCLUSIONES Se revisaron los estándares 802.11ad y 802.11ay en lo concerniente a beamforming y se realizó el diseño de una antena para la aplicación de referencia en configuración de usuario simple. Con este diseño de antena se estima una cobertura de 30 m, superior a la cobertura con antenas dipolares de 2m y permitiendo aplicaciones de cobertura interior. Se implementaron algoritmos de cancelación de usuarios interferentes para una configuración multiusuario con dos cadenas de radio y beamforming analógico exclusivamente, obteniendo una mejora en la capacidad de la celda de aproximadamente 74% respecto a la capacidad de la celda con usuario simple. REFERENCIAS 1. NITSCHE, Thomas et al.. "IEEE 802.11ad: Directional 60 GHz Communication for Multi-Gigabit-per- Second Wi-Fi". IEEE Commununications Magazine, 2014, vol. 52, núm. 12, pp. 132-141. 2. IEEE 802.11 WG. Amendment 3: Enhancements for Very, High Throughput in the 60 GHz Band. IEEE 802.11ad. IEEE. 2012. 3. NITSCHE, Thomas. et al.. Boon and Bane of 60 GHz Networks: Practical Insights into Beamforming, Interference, and Frame Level Operation. Proceedings of the 11th ACM Conference on Emerging Networking Experiments and Technologies, 2015, núm. 17, pp. 1-13. 4. VERMA, L. et al. " Backhaul need for speed 60 GHz is the solution". IEEE Wireless Communications, 2015, vol. 22, núm. 6. 5. P. Legg et al. "Meshed Backhauling of Small Cells Using IEEE802.11ad at 60GHz". European Conference on Networks and Communications(EuCNC), 2015. 6. GHASEMPOUR, Yaman et al, “IEEE802.11ay: Next Generation 60 GHz Communication for 100 Gbps Wi-Fi”, IEEE Communications Magazine, 2017. 7. DA SILVA, Claudio et al, “Beamforming Training for IEEE 802.11ay Millimeter Wave Systems”, Information Theory and Applications Workshop (ITA), San Diego USA, 2018. 8. PHEI ZHOU et al, “IEEE 802.11ay based mmWave WLANs: Design, Challenges and Solutions”, IEEE Communications Surveys & Tutorials, 2018, Vol. 20. 9. HAN YAN et al, “Performance, power and area design trade-offs in millimeter wave transmitter beamforming architectures”, IEEE Circuit and systems, Vol. 12, Núm 2, 2019. 10. GOURI Nayana, "An Overview on Beamforming and its Issues for 60 GHz Wireless Communications", ITSI Transactions on Electrical and Electronics Engineering (ITSI-TEEE), Volume -1, Issue -4, 2013. 11. PISEK, E.; ABU-SURRA,S.; MOTT, J.; HENIGE, T. and SHARMA, R. “High throughput millimeter-wave MIMO beamforming system for short range communication,” IEEE 11th Consumer Communications and Networking Conference (CCNC), 2014, pp. 537–543. 12. HONDA, A. et al. “System validation of millimeter-wave beam multiplexing with interleaved hybrid beam-forming antennas,” IEEE 27th Annual International Symposium on Personal, Indoor, and Mobile Radio Communications (PIMRC), 2016, pp. 1–5. 13. BLANDINO, Steve et al, "Multi-User Frequency-Selective Hybrid MIMO Demonstrated Using 60 GHz RF Modules", IEEE 87th Vehicular Technology Conference (VTC Spring), Portugal, 2018. 14. BALANIS, Constantine. Antenna theory, analysis and design (4th edition), Wiley, 2016, pp. 1104, ISBN: 978-1-118-64206-1. Raúl Hartmam obtuvo el título de Ingeniero Eléctrico, en la Facultad de Ingeniería (FING) de la Universidad de la República (UdelaR), Montevideo, Uruguay, en 2004. Desde 2007 a la fecha trabaja para la firma Dedicado S.A., Montevideo, Uruguay, actualmente desempeñándose como Responsable de Ingeniería de Redes de Acceso Inalámbricas. Desde 2018 cursa la Maestría en Ingeniería Eléctrica en el Instituto de Ingeniería Eléctrica (IIE), FING, UdelaR, teniendo como principales áreas de estudio Beamforming, MIMO Masivo, Arreglos de antenas y Transmisiones Multiusuario. Desde 2018 integra el grupo Sistemas Inalámbricos y Radifrecuencia (SIRF) en el IIE, FING, UdelaR. Mauricio González nació en Montevideo, el 4 de diciembre de 1987. Egresó en 2012 como Ingeniero Electricista, perfil Telecomunicaciones, en la FING, UdelaR. Durante 2014-15 realizó sus estudios de maestría en la Universidad Politécnica de Valencia. Su tesis “Detección no coherente en Sistemas Massive MIMO” fue dirigida por Vicenc Almenar Terré. Su interés principal es en el área de redes inalámbricas móviles GSM, WCDMA, LTE y 5G. Es Ayudante (G2) en el IIE desde 2016, formando parte del cuerpo docente de las asignaturas Antenas y Propagación y Multimedia sobre IP, además de integrar el grupo SIRF. Adicionalmente, se desempeña profesionalmente en la industria. Juan Pablo González nació en Montevideo, el 3 de Febrero de 1983. Egresó en 2009 como Ingeniero Electricista, perfil Telecomunicaciones, en la FING, UdelaR. En 2019 obtuvo el título del postgrado de Especialización en Telecomunicaciones en FING-UdelaR. Actualmente es candidato a Doctorado en la misma institución. Su tesis “Improvements of OFDM Networks by Using Polarization Diversity and Beamforming” es dirigida por el Dr.-Ing. Benigno Rodríguez Díaz. Su interés principal está en el área de redes inalámbricas móviles 4G, 5G, 802.11*, IoT, Aprendizaje de Máquinas y Ciencia de Datos. Es Ayudante (G2), en el IIE desde 2011 y forma parte del cuerpo docente de las asignaturas Antenas y Propagación, Temas Avanzados de Sistemas Inalámbricos y Diseño de Redes Inalámbricas de Clase Empresarial, además de integrar el grupo SIRF. Adicionalmente, se desempeña profesionalmente en la industria como Senior ML Research Engineer. Benigno Rodríguez obtuvo el título de Ingeniero Eléctrico y el grado de Magister en Ingeniería Eléctrica (opción Telecomunicaciones) en la FING, UdelaR, en 1997 y 2004 respectivamente. En 2007 obtuvo el grado de Doctor en Ingeniería Eléctrica, Telecomunicaciones, de la Technische Universität Hamburg- Harburg, Hamburgo, Alemania. Actualmente integra el Sistema Nacional de Investigación (SNI), Nivel I y ocupa el cargo de Profesor Agregado (G4), en Régimen de Dedicación Total en el IIE, FING, UdelaR. Sus principales intereses como investigador se centran en las áreas de: sistemas inalámbricos basados en OFDM, Lásers en Espacio Libre, Ondas Milimétricas y Redes de Sensores Inalámbricos, liderando el grupo SIRF en el IIE, FING, UdelaR. DISEÑO DE CURSOS EN MODALIDAD HÍBRIDA PARA LA FORMACIÓN DE INGENIEROS DE CURSO POR ENCUENTROS Marcos A Gil Oloriz1, Ileana Moreno Campdesuñer 2, Erik Otriz Guerra3, Juan C Oliva Pérez4 1, 2, 3,4Universidad Central “Marta Abreu” de Las Villas, Carretera a Camajuaní, km 5 1 2 , Santa Clara, Villa Clara, Cuba 1mgoloriz@uclv.cu, 2imoreno@uclv.edu.cu, 3erik@uclv.edu.cu, 4jpoliva@uclv.cu RESUMEN En la actualidad las tecnologías de la información y la comunicación revolucionan todos los ámbitos de la vida en sociedad. Esto supone un reto a las universidades, especialmente las de Cuba: el proceso de enseñanza-aprendizaje ha de sumarse también a la evolución en el contexto actual de la pandemia de Covid-19. Desde esta óptica, los Cursos por Encuentro (CPE) de carreras de ingeniería han de plantearse formas de superar este desafío considerando su plan de estudio, la distribución de sus actividades y el logro de una educación de mayor calidad. En este trabajo se plantea una propuesta para el diseño de cursos para la enseñanza de ingeniería en la modalidad híbrida con estudiantes de CPE. Es ejemplificada la eficacia de la propuesta con los resultados satisfactorios obtenidos de la acción-investigación llevada a cabo con el grupo de estudiantes de 4to año del CPE de la carrera Ingeniería en Telecomunicaciones y Electrónica de la Universidad Central “Marta Abreu” de Las Villas (UCLV). PALABRAS CLAVES: modalidad híbrida, enseñanza en ingenierías, curso por encuentros, diseño de cursos. HYBRID MODALITY CURSES DESIGN FOR ENGINEERS FORMATION IN CURSES BY MEETINGS ABSTRACT Now days, communication and information technologies are revolutionizing every aspect of life in society. This represents a challenge to universities, especially Cuban universities: the teaching –learning process must also be part of the evolution on the actual context of Covid-19 pandemic. From this approach, the courses by meetings (CPE, by its Spanish acronym) of engineering careers must propound ways to break through, taking in consideration its study plan, activities distribution and the aim of a higher quality education. A proposal to design curses to engineering teaching in Hybrid modality for CPE students is showed in this article. The efficiency of the proposal is exemplified with the satisfactorily results of the action-investigation developed with the group of students of 4th year of CPE of Telecommunications and Electronics Engineering major from “Marta Abreu” Central University of Las Villas. KEYWORDS: hybrid modality, engineering teaching, curse by meetings, curses design. 1. INTRODUCCIÓN La formación de un profesional en el campo de la ingeniería es un proceso íntimamente relacionado con el contexto social presente, que ha de tener como resultado final una persona preparada con las habilidades profesionales, la capacidad de liderazgo y el pensamiento social necesarios para desenvolverse en su medio y contribuir eficazmente desde su área al desarrollo de la sociedad actual. [1] En la actualidad las tecnologías de la información y la comunicación revolucionan todos los ámbitos de la vida en sociedad. Las facilidades que las mismas brindan han determinado que en los últimos años las personas sean capaces de acceder en cuestión de segundos a través de Internet a cualquier tipo de conocimiento, en cualquier tipo de formato, en prácticamente cualquier sitio; el conocimiento ha dejado de ser privativo a un grupo de personas e instituciones para estar al alcance de un clic y, consecuentemente, ha cambiado la forma de interactuar con el mismo. [2] Esto supone un reto a las universidades y los centros de educación superior, especialmente los de Cuba: el proceso de enseñanza-aprendizaje ha de sumarse también a la evolución tomando provecho de las nuevas tecnologías, pues su base, el acceso a la información y la adquisición de conocimiento, ha cambiado. La pandemia de Covid-19 actuó como catalizador para la transformación de este proceso de enseñanza- aprendizaje, porque forzó a los claustros a asumir las plataformas digitales y los métodos de la educación a distancia, como única posibilidad para proseguir la formación de profesionales en los diferentes centros de altos estudios. En la Facultad de Ingeniería Eléctrica (FIE) de la UCLV, el colectivo de profesores, apoyándose en la estructura didáctica para la conformación de cursos en la plataforma Moodle descrita por López Fernández en [3], diseñó los cursos correspondientes a las nuevas asignaturas que asumieron esta modalidad, así como adecuó aquellos que ya estaban funcionando en la misma, para las tres carreras que se cursan: Ingeniería Eléctrica, Ingeniería en Automática e Ingeniería en Telecomunicaciones y Electrónica, en los dos tipos de curso: regular diurno y por encuentros. Evidencia de la eficacia del modelo descrito son los resultados obtenidos en su implementación en las asignaturas de Circuitos Eléctricos I y Fundamentos de las Comunicaciones III, expuestos en [4]. El Curso por Encuentros (CPE) es una modalidad de estudio que ofrece la educación superior cubana con el objetivo de posibilitar a personas con nivel medio superior de educación general vencido, cursar estudios superiores con una menor exigencia en cuanto a presencialidad [5]. En la UCLV, cada carrera determina la programación de los días de clase, según las exigencias del plan de estudio, todas con un máximo de dos encuentros por semana. Los cursos por encuentro atraen mayormente a trabajadores y personas con otras responsabilidades u ocupaciones, lo cual limita el tiempo que le pueden dedicar al estudio. En el caso particular de las carreras de ciencias técnicas y aplicadas, estos encuentros se planifican cargados de contenido y actividad docente, dado lo denso que resulta el plan de estudio. Así mismo, el tiempo entre clases presenciales es significativo (entre 6 y 14 días) lo cual deja una ventana de tiempo grande para el estudio personal y la autogestión del conocimiento, que no es del todo aprovechado por estos estudiantes. La conjunción del interés por aprovechar las ventajas de las tecnologías de la información y la comunicación en el proceso de enseñanza-aprendizaje en las ingenierías y la necesidad de lograr que los estudiantes utilicen de forma más productiva en el estudio el tiempo entre encuentros presenciales para los CPE, crea la posibilidad de implementar cursos en una modalidad híbrida en la cual se mantengan los encuentros presenciales con baja frecuencia acompañados por espacios virtuales para el aprendizaje constante del estudiante. En este trabajo se ofrece una propuesta de diseño de este tipo de cursos híbridos y se ejemplifica con la asignatura Fundamentos de las Comunicaciones III, impartida en esta modalidad al CPE en la FIE. 2. PROPUESTA DE DISEÑO DE CURSOS HÍBRIDOS PARA CPE EN CARRERAS DE INGENIERÍA Los cursos híbridos reciben su nombre a partir de la combinación de elementos propios de los cursos presenciales y los virtuales o a distancia. [6] Dentro de las líneas rectoras de la propuesta de diseño de cursos híbridos se encuentran las siguientes: - actividades presenciales y a distancia a través de plataformas virtuales, con igual peso en el proceso de enseñanza-aprendizaje, - los encuentros presenciales como principal espacio para la adquisición de los contenidos fundamentales del tema, por parte del estudiante, - actividades a distancia como contraparte de las clases en el aula física, buscando ejercitar, consolidar y profundizar los conocimientos sobre el tema de estudio, - las actividades a distancia en proporción con la cantidad de contenidos recibidos en el aula, - acceso completo a la bibliografía, orientaciones, materiales y actividades en las plataformas virtuales, - sistema de evaluación compuesto por pruebas de control parcial y prueba final, según indique el plan de estudio de la asignatura, acompañados de evaluaciones sistemáticas a través de la plataforma virtual con igual frecuencia que los encuentros presenciales. Los cursos comienzan con un primer encuentro de presentación de los profesores, los temas e introducción a la asignatura. Cada curso ha de tener presencia en el entorno de aprendizaje virtual o la plataforma de aprendizaje en línea que la Universidad emplee. Para el diseño del curso en dicho espacio se ha de tener en cuenta las pautas y experiencias dadas por Moreno Campdesuñer y Ortiz Guerra en [4]. Las clases presenciales toman el formato manejado tradicionalmente de conferencia magistral, considerando las orientaciones metodológicas establecidas por el departamento, o pueden incluir elementos propios de otras formas de enseñanza modernas como las técnicas de aula invertida, aprendizaje basado en proyecto, entre otros. [7] Es importante para este tipo de cursos en ingeniería el desarrollo de ejercicios prácticos de cada tema durante las clases presenciales, para conducir al estudiante al descubrimiento por sí mismo de la vía de solución. Estas clases han de sumar la orientación del trabajo a distancia, para dar a conocer cómo se desarrollarán las actividades a través de la plataforma virtual en el tiempo que habrá hasta el próximo encuentro. [8] Posterior a cada clase presencial se habilita la sección correspondiente al tema y el contenido estudiado en la página de la asignatura en la plataforma virtual. Dicha sección ha de estar correctamente identificada con su nombre, y ser accesible desde ese momento hasta el fin del curso. La sección se ha de estructurar con el siguiente orden: - Bibliografía: donde se encuentren los epígrafes de los libros de texto básicos de la asignatura, así como otros artículos o documentos que aborden específicamente el tema correspondiente, y en los cuales se hayan apoyado los docentes para la preparación de la clase impartida. - Materiales de apoyo: pequeño repositorio de documentos, artículos, audiovisuales, infografías, y otros tipos de materiales didácticos que colaboren en el aprendizaje del tema por el estudiante o la profundización en el mismo. - Ejercitación: compendio de ejercicios, tareas técnicas, prácticas de laboratorio simuladas, seminarios, y actividades prácticas que se elaboren en función del logro de las habilidades que deben tenerse en cuenta para el éxito de los contenidos propuestos en el tema. - Autoevaluación: una prueba con carácter frecuente a ser realizada una vez el estudiante concluya el estudio del tema, en cualquier momento antes del próximo encuentro presencial. Con esto el estudiante puede medir, a juicio propio, su avance en el estudio en el tiempo disponible para el mismo, detectando sus dificultades en el aprendizaje y dejando espacio a que tome acción para corregirlas. Incluye un máximo de tres ejercicios que midan tanto el dominio del conocimiento teórico como la resolución de ejercicios prácticos con un nivel acorde a los resueltos en clase. Estos ejercicios han de diseñarse para que en su mayoría puedan ser calificados por la propia plataforma virtual, por ejemplo: seleccionar la respuesta correcta, señalar verdadero o falso, completar la frase, enlazar columnas, entre otros. Esta autoevaluación puede concebirse de manera que contribuya a la preparación del estudiante para las evaluaciones de control parcial. - Foro debate: espacio para que el docente y los estudiantes puedan tener una comunicación abierta y pública, simulando la interacción en el aula. Su principal objetivo es la discusión de las dudas que puedan surgir sobre el tema y el intercambio de ideas alrededor del contenido que se aborda. Con este medio se favorece la comunicación directa, la humanización de la interacción con la plataforma virtual, y la adquisición conjunta del conocimiento. Este orden asegura que los estudiantes avancen en cada tema y lo concluyan midiendo cuánto saben al respecto. Se introduce así al estudiante en un cronograma de estudio didáctico y flexible [9], que se adecúa a su disposición de tiempo y le facilita técnicas diversas de aprendizaje, con metas claras a corto plazo, generando mayor vínculo y sistematicidad en el estudio. Las notas obtenidas en cada evaluación a través de la plataforma virtual, se pueden utilizar como medida del progreso del estudiante y su aprovechamiento, siendo tomadas en cuenta por el docente en su criterio a la hora de emitir la nota final de la asignatura o de definir los estudiantes con derecho a presentarse a prueba final. 3. EJEMPLO DE CURSO HÍBRIDO PARA CPE EN LA CARRERA ING. EN TELECOMUNICACIONES Y ELECTRÓNICA Una vez retomado el curso 2021 en la UCLV en su modalidad presencial, la asignatura Fundamentos de las Comunicaciones III comenzó a impartirse al grupo de 4to año siguiendo los tradicionales métodos de enseñanza, con encuentros programados cada 14 días. En los primeros tres encuentros se impartieron clases de tipo magistral, con un flujo de información desde el profesor hacia los estudiantes, apreciándose en ellos un desempeño medio en el aula, poco dominio de los contenidos y desmotivación por la asignatura. Las notas del primer trabajo de control confirmaron esta situación: de un total de 11 estudiantes, el 55% del grupo desaprobó, el 36% obtuvo una calificación de regular (3/5 puntos) y solo uno (9% del total), obtuvo nota de bien (4/5 puntos). Como parte de la acción-investigación llevada a cabo por los docentes, se decidió cambiar para los siguientes encuentros el paradigma de enseñanza [10], implementando un diseño de curso híbrido según la propuesta expuesta con anterioridad en este trabajo. En lo adelante, los estudiantes comenzaron a ganar habilidades en la resolución de los ejercicios que se mostraban en las clases prácticas y en las evaluaciones aplicadas a través de Moodle, la plataforma de aula virtual utilizada en la UCLV. Muestra del desempeño de los estudiantes a partir de este momento son los criterios de los profesores que trabajaron en la impartición de esta asignatura, así como las notas obtenidas en las autoevaluaciones de cada tema, que se pueden apreciar en la Tabla 1. Tabla 1: Promedio de notas del grupo en cada autoevaluación. Autoevaluación 1 Autoevaluación 2 Autoevaluación 3 Promedio general del grupo 3.8 4.63 4.72 Es posible observar que los estudiantes logran superarse a lo largo del curso, presentando un mejor desempeño en cada una de estas evaluaciones de carácter más frecuente. El criterio de los docentes referente al dominio del conocimiento evidenciado en el aula, concuerda con las impresiones obtenidas del trabajo en la plataforma Moodle. Debido a reajustes en el horario y la reducción de tiempo en el semestre, la segunda prueba de control parcial no fue posible aplicarla. Esto no fue impedimento para tener una caracterización del desenvolvimiento del grupo en el transcurso de la materia, considerando la evidencia que teníamos de su trabajo a través de Moodle. El impacto de la implementación de la modalidad de curso híbrido asumida fue evaluada por todos los estudiantes voluntariamente al concluir el curso, a través de un cuestionario diseñado ad-hoc y aplicado mediante la plataforma Moodle. Los resultados de la encuesta se muestran en la Tabla 2. El por ciento de estudiantes satisfechos e insatisfechos se corresponde con las calificaciones de 5 y 4 para satisfechos, y de 2 y 1 para insatisfechos. Los resultados neutrales (calificación de 3) no se muestran en la tabla, pero pueden ser inferidos a partir de los resultados mostrados. Tabla 2: Resultados de la encuesta aplicada al finalizar el curso. Como parte de la encuesta aplicada también se les solicitó a los estudiantes que señalaran aspectos favorables y desfavorables de la asignatura recibida. Favorables:  El curso muy instructivo y bien impartido.  Materiales de ayuda y videos que resultaron muy útiles para el aprendizaje. Buena comunicación ante dudas con el profesor. Contenido bien seccionado y bibliografías asequibles.  Buen desempeño del profesor, la asignatura es amena e interesante.  El profesor a pesar de ser un estudiante, supo transmitirnos los conocimientos necesarios y llevar su carrera como estudiante al mismo tiempo; lo que es un buen ejemplo a seguir para nosotros. Los niveles de estudio fueron constantes todo el curso gracias a un grupo de exámenes y seminarios propuestos por el profesor. Pienso que se profundizó bastante en la asignatura ya que se estudiaron muchos temas a pesar de q esta modalidad de CPE es limitada en este aspecto. Desfavorables:  La bibliografía en inglés era complicada de entender, las clases teóricas eran complicadas de asimilar y se necesitan más ejemplos resueltos Preguntas Satisfechos (%) Insatisfechos (%) El programa de la asignatura es accesible 90.91% 0.00% Los objetivos están correctamente señalados y precisos 90.91% 0.00% La presentación de los contenidos está secuenciada de forma coherente y adecuada 90.91% 0.00% Los contenidos y recursos están desarrollados en diferentes formatos y son de fácil acceso 81.82% 9.09% La secuencia de los temas tratados favorece el autoconocimiento y la búsqueda de información por parte del estudiante. 90.91% 0.00% Las actividades contenidas en el curso permiten la comunicación e interacción entre los estudiantes y profesor. 90.91% 9.09% Los recursos y medios empleados, así como la estructura del curso y las actividades, resultan motivadores y estimulan el aprendizaje. 63.64% 9.09% Los resultados de mi evaluación son justos y se corresponden con mi desempeño 100.00% 0.00% Siguiendo una escala del 1-5 (siendo 1 pésimo, 5, excelente), qué calificación le darías al curso, atendiendo a tus vivencias y experiencias como estudiante. 72.73% 9.09% Las actividades a través de la plataforma Moodle han sido un buen complemento a los encuentros presenciales, que han favorecido mi aprendizaje de los temas de la asignatura 90.91% 0.00%  La afectación de la covid  Pienso que una imagen vale más que 1000 palabras y una buena y simple animación o videos que profundicen más en el funcionamiento de un sistema se pudiera exponer en la plataforma Moodle. Dentro de las respuestas obtenidas de la encuesta aplicada, también se obtuvo información de los estudiantes sobre cuánto tiempo a la semana le dedicaban al estudio de la asignatura, a partir del momento en que se asumió la modalidad de curso híbrido. Los resultados se muestran en la Tabla 3. Tabla 3: Cantidad de horas dedicadas al estudio según criterio de los estudiantes. Cantidad de horas dedicadas al estudio de la asignatura 1-2 2-3 3 o más % de estudiantes 27.3% 45.4% 27.3% Fundamentos de las Comunicaciones III en el plan de estudios D cuenta con prueba final, como evaluación para el cierre de la asignatura. En aras de lograr una comparación en condiciones lo más similares posibles, se decidió elaborar esta prueba midiendo los mismos objetivos que en años anteriores, con formatos de preguntas similares; así mismo la calificación obtenida en dicha prueba final es la de mayor peso en la emisión de la nota final con que el estudiante concluye la asignatura, como es tradición en el colectivo de profesores que la imparte en la FIE. Teniendo esto en cuenta es que se elaboraron las Tablas 4 y 5, donde se reflejan las calificaciones alcanzadas por los grupos del curso 2021 y los de los cuatro años precedentes. Tabla 4: Comparación del promedio obtenido por el grupo con el de los grupos de los 3 años precedentes. 2017-2018 2018-2019 2019-2020 2021 Promedio general del grupo 3.70 3.16 3.81 3.72 Tabla 5: Comparación de la calidad de la nota obtenida por el grupo con la de los grupos de los 3 años precedentes. Nota obtenida / Porciento de estudiantes 2017-2018 2018-2019 2019-2020 2021 2 0% 0% 0% 0% 3 50% 83% 27.2% 36.3% 4 20% 17% 63.6% 54.5% 5 30% 0% 9.09% 9.09% Total de estudiantes 10 6 11 11 Aunque la media alcanzada por el grupo de estudiantes en que se implementó la propuesta de diseño de Curso Híbrido, no es la más alta, es superior a la de los cursos 2017-2018 y 2018-2019. Así mismo la calidad de la nota, se corresponde con los valores logrados en años anteriores, destacando que el total de estudiantes logró aprobar la asignatura, y más de la mitad obtuvo una calificación de 4 o 5 puntos. De esta manera se puede considerar que la implementación del curso híbrido según la propuesta de diseño presentada condujo a resultados satisfactorios. Los resultados alcanzados en la evaluación por los estudiantes muestran altos niveles de satisfacción en todos los aspectos evaluados. Los estudiantes reconocen que la estructura y dosificación de los contenidos del curso facilitó la asimilación de los mismos y la creación de un nivel de habilidades requeridas por la asignatura; así como que la modalidad de curso híbrido favoreció su aprendizaje. No obstante, también se identifican algunos aspectos en los que se podría trabajar, como la disposición de bibliografía en español y más videos didácticos y la elaboración de más actividades prácticas. Precisamente la generación de contenidos didácticos es uno de los retos más importantes a enfrentar en este tipo de enseñanza. Los estudiantes reconocen algunas de las ventajas de la modalidad de curso empleada, pero existen limitantes en el empleo de estos métodos para el desarrollo de habilidades prácticas para resolver problemas propios de la profesión. 4. CONCLUSIONES • La propuesta de diseño de cursos en la modalidad híbrida para CPE en carreras de ingeniería que se presenta no busca simplemente que se llene con actividades virtuales el tiempo entre clases presenciales, sino que intenta lograr de este espacio virtual una segunda aula, que sea extensión del proceso de enseñanza-aprendizaje de la física. • La estructura del curso en las plataformas virtuales debe tener una organización que se corresponda con la tipificación de la docencia que se maneja en las clases presenciales para que se logren familiarizar los estudiantes más fácilmente. • La propuesta de diseño de cursos en la modalidad híbrida en carreras de ingeniería presentada se muestra flexible, pudiendo ser moldeada para su implementación por los docentes acorde al plan de estudio de la asignatura o la carrera, la distribución de los encuentros presenciales y los objetivos trazados para el trabajo con el grupo en pos de una educación superior de mayor calidad. • El acompañamiento y la comunicación de los profesores que trabajen en las asignaturas debe ser constante, quienes deben estar atentos a las dificultades que los estudiantes van confrontando durante el desarrollo del curso. • La encuesta aplicada muestra un alto grado de satisfacción por parte de los estudiantes y reconocen que el diseño de curso híbrido resultó un aspecto favorable en el aprendizaje de los temas de la asignatura. • La propuesta de diseño de curso en la modalidad híbrida resulta una estrategia didáctica con impacto cognitivo en el estudiante, logrando fomentar la sistematicidad y responsabilidad en/con el estudio de la asignatura en los estudiantes de CPE. • La media de calificaciones y la calidad de las mismas obtenidas por el grupo de estudiantes, podría ser superior de implementarse la propuesta de diseño de curso híbrido desde el comienzo de las actividades planificadas para la asignatura en cuestión, a diferencia de lo sucedido en el caso que tomamos de ejemplo. RECONOCIMIENTOS Los autores agradecen a los profesores Dr. Evelyn Fernández Castillo y Dr. Luis Felipe Herrera Jiménez por poner a disposición de esta investigación el cuestionario para evaluar el impacto del diseño de curso híbrido propuesto en este trabajo. REFERENCIAS 1. RODRÍGUEZ SERRANO, Karla Patricia; MAYA RESTREPO María Alejandra; JAÉN POSADA, Juan Sebastián. "Educación en Ingenierías: de las clases magistrales a la pedagogía del aprendizaje activo". Ingeniería y Desarrollo, 2012, vol 30, núm. 1, pp 125-142 2.RODRÍGUEZ, Georgina; LAUGERO, Lorena; CALIGARIS, Marta; DEPAOLI, Iván. "Presencialidad virtual” en un curso de Ingenierıá Industrial: cómo se desarrollaron las clases de Análisis Numérico y Cálculo Avanzado durante la cuarentena". Revista Internacional de Ingeniería Industrial, 2020, núm. 2, pp. 18 - 19. 3. LÓPEZ FERNÁNDEZ, Raúl. "Componentes para la estructura didáctica de un curso de Educación a Distancia usando como herramienta las plataformas digitales". Tesis de doctorado, Universidad de Cienfuegos, Cienfuegos, 2010. 4. MORENO CAMPDESUÑER, Ileana; ORTIZ GUERRA, Erik. "Estructura de curso en Moodle para la modalidad de educación a distancia en la enseñanza de ingenierías". En actas del 13er Congreso internacional de Educación Superior “Universidad 2022”, 2022. 5. HORRUITINER SILVA, Pedro. La Universidad Cubana: el modelo de formación. La Habana: Editorial Félix Varela, 2014. 45 pp. ISBN 978-959-16-1798-9. 6. BASHIR, Amreen et al. "Post-COVID-19 Adaptations; the Shifts Towards Online Learning, Hybrid Course Delivery and the Implications for Biosciences Courses in the Higher Education Setting". Frontiers in Education, 2021, vol 6, núm. 4, pp. 683 - 685 7. MONTALBAN, Nicolas. "Developing a Hybrid Didactic Course in ESP". The Journal of Teaching English for Specific and Academic Purposes, 2021, vol 9, núm. 4, pp. 683 - 685. 8. KARIM, M. A. "Hybrid and Online Synchronous Delivery of Environmental Engineering During COVID-19 Pandemic: A Comparative Study on Perception, Attitude, and Assessment ". European Journal of STEM Education, 2021, vol 6, pp. 9-11 9. GIL VERA, V. D.; MONTOYA SUÁREZ, L. M.; SÉPULVEDA CASTAÑO, J. M. "Rol de las plataformas educativas virtuales en la enseñanza de las ingenierías". En actas de Encuentro internacional de educación en Ingeniería ACOFI, 2019. 10. JANJIGIAN, Michael et al. "Design and comparison of a hybrid to a traditional in-person point-of- care ultrasound course". The Ultrasound Journal, 2022, vol 14, núm. 12, pp. 4-6 SOBRE LOS AUTORES Marcos A Gil Oloriz, estudiante en año terminal de Ingeniería en Telecomunicaciones y Electrónica, en la Facultad de Ingeniería Eléctrica (FIE), de la Universidad Central “Marta Abreu” de Las Villas (UCLV). Actualmente cursa su tercer año como Alumno Ayudante del departamento de Telecomunicaciones de la FIE. Ha participado en Talleres de Formación Pedagógica con profesores extranjeros. Ha sido aceptado como fuerza laboral calificada por la UCLV. Email: mgoloriz@uclv.cu. Ileana Moreno Campdesuñer: Ingeniera Electrónica. Máster en Ingeniería Electrónica. Dr. en Ciencias de la Educación. Profesora Titular de la Universidad Central Marta Abreu de Las Villas, Cuba. Email: imoreno@uclv.edu.cu Erik Ortiz Guerra, Doctor en Ciencias Técnicas y Profesor Titular del Departamento de Electrónica y Telecomunicaciones de la Universidad Central “Marta Abreu” de Las Villas (UCLV). Actualmente se desempeña como vicedecano docente de la Facultad de Ingeniería Eléctrica de la UCLV. Email: erik@uclv.edu.cu. Juan Carlos Oliva Pérez, Ingeniero en Telecomunicaciones y Electrónica. Profesor Instructor del Departamento de Electrónica y Telecomunicaciones de la Universidad Central “Marta Abreu” de Las Villas (UCLV). Email: jpoliva@uclv.cu. CAMBIO DE PARADIGMA EN LA ENSEÑANZA Y LA INVESTIGACIÓN EN LA MATERIA DISEÑO DE ANTENAS Y CIRCUITOS DE RF Benigno Rodríguez Díaz1, Leonardo Barboni Morales1, Ana Arobleya Arboleya2, Raúl Hans Hartmam Basaistegui1 1Facultad de Ingeniería, Universidad de la República, Julio Herrera y Reissig 565, 11300 Montevideo, Uruguay, 2Escuela Técnica Superior de Ingeniería de Telecomunicaciones, Universidad Rey Juan Carlos, Camino del molino, 5, 28942 Fuenlabrada, España 1e-mail: {benigno, lbarboni, rhartmam}@fing.edu.uy, 2e-mail: ana.arboleya@urjc.es RESUMEN En los últimos años han habido cambios importantes en la forma de enseñar en las universidades; la pandemia de Covid 19 aceleró varios procesos en la dirección de brindar acceso remoto a la formación e incorporar con un rol central la enseñanza virtual. Afortunadamente la madurez tecnológica que teníamos como sociedad cuando esta epidemia comenzó nos permitió seguir adelante con nuestros objetivos de formación universitaria y nos condujo por la vía de la práctica a descubrir ventajas de la enseñanza virtual que es lógico conservar una vez que la epidemia termine. El avance de las herramientas de software, en particular de los simuladores y la mejora en el acceso a los mismos, son otra herramienta clave en este proceso de cambio de paradigmas de la enseñanza e investigación. En materias como la Radiofrecuencia (RF), el uso de estos simuladores y de herramientas de software para dictar clases virtuales ofrecen una gran oportunidad de brindar formación de calidad en el área, sin limitaciones geográficas e incluso temporales. En un curso virtual la distancia del alumno al centro educativo no tiene el impacto que siempre ha tenido en el caso de la educación presencial. Desde el punto de vista de la administración de tiempo del estudiante y del docente, la posibilidad de grabar las clases de una forma muy simplificada y con buena calidad, permiten que estudiantes puedan tomar clases en forma asíncrona (viendo el video de la clase) cuando no pudieron concurrir a esta. La grabación de clases también facilita la labor del docente, permitiéndole recurrir a estas grabaciones en caso de necesidad o conveniencia. Esta nueva realidad nos muestra una posibilidad de compartir formación de calidad de forma global y ampliar significativamente nuestras redes de colaboración académica. Este trabajo trata del análisis de esos cambios y las oportunidades que implican con aplicación a la materia RF. Una modalidad mixta de cursos Presencial/Virtual permite conservar la ventajas de ambas y no tiene porque ser difícil de implementar. PALABRAS CLAVES: Enseñanza, Investigación, Radiofrecuencia, Virtualidad, Presencialidad. PARADIGM SHIFT IN EDUCATION AND RESEARCH IN THE SUBJECT DESIGN OF ANTENNAS AND RF CIRCUITS ABSTRACT In recent years there have been important changes in the way of teaching in universities; the Covid 19 pandemic accelerated several processes in the direction of providing remote access to training and incorporating virtual teaching with a central role. Fortunately, the technological maturity that we had as a society when this epidemic began allowed us to continue with our university education goals and led us through practice to discover advantages of virtual teaching that it is logical to preserve once the epidemic ends. The advancement of software tools, in particular simulators and the improvement in access to them, are another key tool in this process of changing the paradigms of teaching and research. In subjects such as Radiofrequency (RF), the use of these simulators and software tools to teach virtual classes offer a great opportunity to provide quality training in the area, without geographical or even time limitations. In a virtual course, the distance from the student to the educational center does not have the impact that it has always had in the case of face-to-face education. From the point of view of student and teacher time management, the possibility of recording classes in a very simplified way and with good quality, allows students to take classes asynchronously (watching the video of the class) when they couldn't attend this one. The recording of classes also facilitates the work of the teacher, allowing them to resort to these recordings in case of need or convenience. This new reality shows us a possibility of sharing quality training globally and significantly expanding our academic collaboration networks. This work deals with the analysis of these changes and the opportunities they imply, particularly in the RF topics. A mixed modality of Face-to-Face/Virtual courses allows to preserve the advantages of both and does not have to be difficult to implement. KEYWORDS: Teaching, Research, Radiofrequency, Virtuality, Face-to-Face. 1. INTRODUCCIÓN La enseñanza de asignaturas como diseño de antenas y circuitos de RF siempre ha tenido la dificultad asociada, de necesitar contar con instrumental y equipamiento específico, por lo general muy especializado y costoso, a los efectos de no quedarse en instancias meramente teóricas o de realización de ejercicios sin poder constatar los resultados por la vía de la experimentación. En líneas generales eso no ha cambiado y continúa siendo un área cuya enseñanza tiene exigencias o desafíos extra comparada con otras materias. Por otro lado los planes de estudio o programas de investigación no suelen darle un tratamiento diferencial que permita superar fácilmente estos desafíos. Esto ha llevado a que el desarrollo de esta materia haya tenido que ser siempre un objetivo de largo plazo. Ya que el camino muchas veces para obtener el instrumental adecuado es ganar proyectos que permitan financiar estas adquisiciones. No solo el hardware en RF es especializado, sino también el software lo es. Si bien es cierto que existen muchas herramientas libres, es también cierto que éstas tienen sus limitaciones a la hora de ser usadas como herramientas profesionales para hacer investigación y enseñanza avanzada en la materia. Las universidades que han seguido estos caminos de largo aliento hoy se encuentran con la posibilidad de continuar desarrollando el área en mejores condiciones que hace una década. La mejora de las herramientas de software y su disponibilidad, la mejora de la cooperación académica, potenciada por herramientas que han dinamizado mucho el teletrabajo, llegando a condiciones que compiten con la presencialidad y en algunos casos la superan. La mejora de la cooperación científica, gracias al avance de estrategias de apoyo a la investigación que buscan y promueven el desarrollo de la cooperación entre distintos países, y en algunos casos los avances de los mecanismos de promoción de la investigación a nivel nacional han mejorado las posibilidades que se tienen para desarrollar enseñanza e investigación en esta área. En particular en los últimos años en América Latina se han dado pasos hacia la consolidación de sistemas nacionales de investigación, que permiten detectar científicos y grupos de investigación de actividad sostenida durante los años y comenzar a coordinar el apoyo para potenciar el desarrollo del país en el área de la investigación. Si bien estos sistemas tendrán que seguir evolucionando y mejorando su eficiencia, es un avance con el que en muchos países de la región no contaban hace dos décadas. En este sentido la Agencia Nacional de Investigación e Innovación (ANII), creada en 2006 tiene como misión ejecutar los lineamientos político-estratégicos del Estado en materia de Investigación e Innovación y busca el desarrollo a través de la implementación de dichas políticas. Esto lo implementa promoviendo, articulando y fortaleciendo las capacidades del sistema nacional de innovación y del conocimiento técnico y profesional en el país. En particular se creó el instrumento Sistema Nacional de Investigadores (SNI) que profesionalizó la investigación en el Uruguay, lo que logra dinamizar la investigación y en consecuencia vincular la investigación con la enseñanza de grado y posgrado. Figura 1: Captura de pantalla ANII (Tomado de https://www.anii.org.uy/inicio/). En este trabajo se desarrollarán los avances, las oportunidades, las dificultades y los desafíos que hoy se encuentran en el desarrollo de esta materia. Haciendo énfasis en las decisiones que nos han permitido participar activamente del desarrollo de esta área. 2. ENSEÑANZA E INVESTIGACIÓN La cooperación internacional nos ha mostrado que aquellas universidades que abordaron el tema desde un punto de vista meramente informativo, es decir tener un curso donde se informe a los estudiantes de esta temática, no han conseguido formar en profundidad a sus estudiantes y menos desarrollar el área. En cambio las universidades donde esta materia está fuertemente vinculada a grupos de investigación sólidos en el área, no solo han ofrecido una formación de calidad en la materia, sino que han logrado tener un dinamismo importante en la oferta de cursos para desarrollarla y convertirla en un área de interés a nivel del desarrollo de posgrados, lo que también ha permitido consolidar grupos de investigación y lograr un desarrollo genuino y sustentable del área. El equilibrio y la sinergia entre enseñanza e investigación es un tema clave para desarrollar cualquier materia. Cuando se logra este equilibrio se siembran semillas de desarrollo del área que atraen mayor masa crítica. En un área de difícil acceso debido a los desafíos antes mencionados eso es algo muy importante. La concepción de la enseñanza desvinculada de objetivos de investigación y formación de profesionales con competencias específicas no permite un desarrollo incremental del área y no genera sinergia entre actores científicos, académicos, profesionales y productivos. La concepción de un modelo eficiente de ciencia-tecnología-educación-producción es clave para el desarrollo de un país. El haber participado del desarrollo de esta área en las últimas dos décadas, nos permite visualizar un mejor posicionamiento, gracias al trabajo previo acumulado y la mejora natural de las herramientas con las que hoy se cuenta en esta materia. 3. COLABORACIÓN INTERNACIONAL La colaboración internacional es un punto clave en este proceso. La participación en proyectos internacionales acerca financiación a instituciones que la necesitan y en contrapartida estas acercan mano de obra calificada a los procesos de investigación. Los grupos de investigación comienzan a consolidarse a través de las fronteras, siendo natural y efectivo trabajar con colegas internacionales. Esta ha sido una estrategia muy eficiente para compartir fortalezas y solventar mejor las dificultades. La creación de redes temáticas, como la red NEON1 para promover el desarrollo de Internet of Things (IoT), entre otras, permite contar con un ecosistema de enseñanza e investigación enriquecido. Si una institución ofrece un curso altamente especializado que por su naturaleza pueda interesar a unos pocos estudiantes o investigadores, a través de esta red el grupo de interesados y colaboradores automáticamente crece, lo que potencia el desarrollo de estas áreas. Los esfuerzos de estas redes para vincular no solo universidades sino también empresas y particulares, acercan a las partes para cooperar y visualizar nuevas alternativas de cooperación entre países y sectores de la economía. Las dificultades que por lo general enfrentan las universidades en el desarrollo de esta y otras áreas tales como: falta de financiación, falta de estudiantes de posgrado (debido a la mayor competitividad económica de las empresas para captar profesionales), la necesidad de infraestructura y equipos específicos y costosos, la necesidad de incrementar la cantidad de colaboradores a los efectos de abarcar problemas mayores, etc., se benefician ampliamente de la cooperación internacional. Los países que han reconocido y abordado cuidadosamente este tema tienen sistemas de investigación y desarrollo avanzados que en muchos casos apuntalan sus economías. 4. PLANES DE ESTUDIO DE POSGRADO En estas últimas dos décadas hemos visto también el avance de los programas de posgrado, en algunos casos desde su creación. Distintos países han seguido distintos modelos, algunos han creado ofertas específicas y bastante definidas que se han mantenido a lo largo del tiempo, lo que les permite potenciar ciertas áreas de la economía. Otros países han optado por una oferta más abierta, configurable y a demanda de los intereses o las necesidades de quienes realizan el posgrado. Lo que implica un mayor desafío desde el punto de vista de la gestión de estos programas, pero a la vez logra seguir de cerca las necesidades y los intereses de formación de la población y la industria. Es común que los países hayan avanzado en base a modelos de financiación de la formación de posgrado apuntalados por becas, etc. Lo que ha rendido sus frutos pero que también genera un punto de estrés al final del proceso cuando el posgraduado intenta volver al sistema productivo o encontrar empleo en la universidad, lo que no siempre termina satisfaciendo sus necesidades. En menor medida, se ha trabajado en consolidar los posgrados de profesionales de la industria en áreas de investigación. Si bien esto es un desafío mayor, ya que necesita de una coordinación mayor entre los distintos actores del sistema científico y productivo del país, es necesariamente un espacio que habrá que desarrollar, ya que si el profesional que trabaja en una empresa, logra beneficiar tangiblemente a la empresa con el desarrollo de su posgrado, entonces el ciclo de transferencia de resultados y una mejor sustentabilidad del sistema en su conjunto estaría asegurada. Algunos países han apoyado fuertemente el emprendedurismo, como forma de lograr nuevas fuentes de trabajo y desarrollo productivo. En casi todos los casos el sistema académico y científico ha tenido una participación activa en estos desarrollos. Quizás la mejora que aún se puede hacer es definir nuevos perfiles de estudiantes de posgrado a los que se les prepare y apoye para liderar emprendimientos a través de la infraestructura de incubadoras de empresas existente, o utilizando otros mecanismos. Estos perfiles pueden desarrollarse más eficientemente si se les tiene en cuenta desde el desarrollo de los planes de estudio de posgrado. 1https://www.project-neon.eu/ 5. DESARROLLO DEL ÁREA DISEÑO DE ANTENAS Y CIRCUITOS DE RF Si bien hasta ahora se han planteado cambios de paradigma en la enseñanza y en la investigación que son bastante generales en diversas áreas, a partir de aquí se hace foco en el área de diseño de antenas y circuitos de RF, con sus particularidades. En esta sección se desarrollan básicamente las oportunidades que: el software, la mayor disponibilidad bibliográfica, el cambio de procedimientos, la mayor facilidad de acceso a instrumental de fabricación y caracterización y la cooperación internacional están ofreciendo en el desarrollo de esta área. Herramientas de Software Libre para Simulación Electromagnética Dentro de las herramientas de software libre útiles en esta área, existen varias, por enumerar algunas mencionamos: Qucs, Meep, 4nec2, etc. Qucs [1] es un simulador de circuitos bajo licencia GPL que corre en Windows y Linux. Meep [2] es un paquete de software libre y de código abierto para la simulación electromagnética. 4nec2 [3] es un simulador libre útil para el diseño de antenas, en la Fig. 2 se puede ver el tipo de resultados que se pueden obtener con 4nec2 durante el proceso de diseño de antenas. Figura 2: Resultados obtenidos con 4nec2 durante el desarrollo de un array de antenas en 60 GHz. Si bien las herramientas libres de simulación electromagnética que se utilizan en el área de RF suelen ser muy útiles y a menudo las únicas alternativas disponibles, es cierto también que cuando se avanza en los diseños, estas herramientas comienzan a mostrar carencias, que no son fáciles de solucionar en el corto plazo. Por eso el poder contar con herramientas profesionales para el diseño de RF representa una mejora importante. El problema con respecto a esta posibilidad siempre fue el costo económico de estas licencias, que muchas veces las hacen inviables. Pero de ser viables son herramientas muy valiosas. CST Herramienta Profesional para Simulación Electromagnética Nuestra experiencia con el uso de la herramienta CST [4], data aproximadamente de 2016. Actualmente luego de una negociación con la empresa que posee este paquete de software y gracias a nuestra participación en el proyecto Erasmus/NEON, logramos adquirir a perpetuidad licencias de esta herramienta. Lo que nos permite desarrollar esta línea de investigación con el apoyo sustentable de este paquete de software. Desde que comenzamos a utilizar esta herramienta nos ha resultado un apoyo importante en varias de las publicaciones que hemos realizado en el área [5-11]. Figura 3: Captura de pantalla software CST. Las licencias con las que contamos nos permiten un uso remoto de las mismas, lo que nos posibilita tener estudiantes en otras ciudades, países o continentes. Lo que facilita y dinamiza la colaboración internacional. Mayor Acceso Bibliográfico * Internet Sin lugar a duda Internet junto a una gran cantidad de herramientas para compartir archivos y trabajar en la nube cambiaron la forma de trabajar en equipo con otros investigadores, logrando que muchas personas accedan a documentos compartidos y que puedan trabajar de modo concurrente sobre los mismos archivos. Sin mencionar el uso diario que se hace de los motores de búsqueda que han avanzado significativamente en los últimos años, mejorando mucho por ejemplo la búsqueda de referencias bibliográficas. Por otro lado plataformas de transmisión (streaming) colaboran de modo importante en disponibilizar videos de clases grabadas, logrando que estudiantes a distancia puedan cursar asignaturas o ver las clases luego de realizadas, solucionando así problemas de traslados y agenda. * Researchgate Researchgate2 es una red social para científicos e investigadores que permite estar en contacto "informal" con otros investigadores que trabajan en áreas similares o complementarias. Permite recibir avisos de sus nuevas publicaciones y solicitarles una copia del trabajo para poder leerlo si no resulta fácil obtenerlo por otro medio. Permite también realizar preguntas directamente a un investigador o abiertas para que las contesten quienes deseen hacerlo. En líneas generales facilita de este modo la labor científica y permite un contacto efectivo entre investigadores. 2 https://www.researchgate.net/ * Portal Timbó en Uruguay El portal Timbó es una herramienta web de la ANII que permite acceder a buscadores y colecciones de artículos que de otra manera no se conseguirían por no visualizarse fácilmente, además de que el investigador (o su institución) debería de pagar por acceder a ellos. En su lugar es el estado quien negocia y paga por esto, lo cual facilita la investigación y la enseñanza brindando una forma ágil y eficiente de conseguir bibliografía de muy buena calidad. Por lo que esta herramienta es también un componente muy importante en este cambio de paradigma. Figura 4: Captura de pantalla portal Timbó (Tomado de https://foco.timbo.org.uy/colecciones). Medidas en el Área de RF Realizar medidas en el área de RF implica un desafío importante, no solo porque requiere conocimientos especializados, si no más que nada porque requiere de equipo altamente especializado y costoso. Poder realizar estas medias en condiciones ideales (disponiendo por ej. de una cámara anecoica), muchas veces escapa a las posibilidades económicas de los laboratorios, que deben buscar mecanismos alternativos que le permitan realizar las medidas con una precisión adecuada a los objetivos de la investigación. * Equipamiento básico El equipamiento básico que utilizamos en el laboratorio del Instituto de Ingeniería Eléctrica de la Facultad de Ingeniería de la Universidad de la República se muestra en la Fig. 5., allí se pueden ver un analizador vectorial de red (a), un generador de señal (b) y analizador de espectro (c). Figura 5: Equipamiento de medida básico, (a) Analizador Vectorial de Red, (b) Generador de Señal y (c) Analizador de Espectro. Básicamente el equipamiento del que disponemos nos permite trabajar a frecuencias de hasta 8 GHz. Trabajar a frecuencias mayores exige equipamiento cuyo precio aumenta a medida que aumenta la frecuencia. Para frecuencias mayores, especialmente del orden de varias decenas de GHz, por ej. en la banda de ondas milimétricas (MMW), podemos realizar un abordaje teórico, utilizar herramientas de simulación y en caso de medir, realizar medidas indirectas o contar con la cooperación con otros laboratorios que si disponen de instrumental adecuado. * Equipamiento alternativo Otra aproximación que cada vez toma más fuerza en la caracterización de antenas y dispositivos RF es el uso de sistemas de medida de bajo coste en entornos no anecoicos que permite la caracterización de antenas y dispositivos que no demandan requisitos de precisión elevados. Así, es posible encontrar sistemas de medida por varios cientos de dólares que proporcionan resultados de calidad suficiente en bandas relativamente altas de frecuencia, como el caso del sistema presentado en [12] capaz de trabajar hasta 10 GHz. La gran ventaja de estos sistemas es que las universidades pueden disponer de varios, lo que permite utilizarlos como demostradores en clases presenciales o incluso cedérselos a los alumnos que trabajan a distancia durante el periodo de duración del curso para que éstos puedan avanzar y profundizar en la materia con alta motivación. * Medidas en espacio libre Disponer de cámaras anecoicas o celdas electromagnéticas transversales para GHz (GTEM) permite realizar medidas más confiables y de mayor precisión. Cuando no se dispone de éstas, se pueden adoptar procedimientos que minimicen las reflexiones y que permitirán realizar medidas muchas veces con calidad suficiente como para orientar procesos de diseño y optimización de antenas. En [6] se describe un procedimiento utilizado para realizar este tipo de medidas en espacio libre y los resultados obtenidos. Mejora en la accesibilidad a los procesos de fabricación El abaratamiento de los procesos de fabricación y prototipado ha supuesto un gran impacto en el campo de la RF. Cada vez es más común encontrar espacios de fabricación de acceso libre integrados en universidades (y en otros entornos), como puede ser el caso de la red internacional de FabLabs3. En estos espacios, los estudiantes, y cualquier usuario, tienen acceso a máquinas de corte, impresión 3D, prototipado de circuitos PCB, etc. Esto permite que los estudiantes tengan la oportunidad de realizar prototipos de forma libre, lo que favorece la profundización y el avance en los alumnos más autónomos y supone una oportunidad de motivación extra para todos. Cooperación internacional La cooperación internacional, cada vez tiene una mayor importancia. Además de aportar mayor masa crítica para la discusión de estos temas, permite una complementación de recursos que favorece 3https://www.fablabs.io/ significativamente el desarrollo del área. En este apartado destacan programas como el Erasmus+4 que permiten intercambios de estudiantes tanto para cursar estudios de grado y/o máster en las universidades del programa, como para la realización de prácticas en empresas y centros de investigación. Utilización de la Herramienta de Videoconferencia Zoom Junto con las herramientas mencionadas anteriormente, otra a destacar que forma parte del cambio de paradigma es la herramienta para videoconferencia Zoom. La UdelaR adquirió licencias de esta herramienta para todos sus docentes en la época de la pandemia de Covid 19, lo que posibilitó la continuidad de los cursos sin sacrificar calidad. Esto no solo fue un gran apoyo para el desarrollo de la enseñanza no presencial, asíncrona y a distancia sino que al volver a la presencialidad luego de que la pandemia pasara su fase más crítica, se convirtió en una herramienta que se sigue utilizando, siendo a veces preferida como alternativa a las reuniones presenciales, debido a poder disponer y compartir de este modo todo el material que los docentes e investigadores suelen archivar en sus computadoras personales. 6. FORMA DE IMPLEMENTACIÓN DE CURSOS MIXTOS Si se parte de la forma en la que dictamos nuestros cursos virtuales, por ej. utilizando Zoom, tarjetas digitalizadoras (en sustitución del pizarrón), etc. apenas necesitaremos una pantalla o retroproyector (donde se muestra la sesión de Zoom) como elementos mínimos para poder ofrecer esa clase en una modalidad también presencial (por supuesto distinta a la que conocíamos previamente). El equipamiento electrónico mínimo para poder implementar estas clases de alcance global (EEMpAG) se esboza en la Fig. 6. A partir de esos recursos mínimos para poder brindar una clase mixta (presencial/virtual), se pueden ir agregando otros, como equipos para mejorar la calidad de la videoconferencia, que incluyen cámaras, micrófonos y parlantes de buena calidad muchas veces integrados en un único dispositivo. Se puede agregar un pizarrón clásico, si se dispone de un equipo que mejore la calidad de la videoconferencia capaz de admitir esto manteniendo la calidad de la presentación del docente y la interactividad con los estudiantes. 4https://erasmus-plus.ec.europa.eu/es Figura 6: Esquema general de clase mixta (presencial/virtual). 7. CONCLUSIONES Hoy tenemos mejores condiciones para realizar investigación y enseñanza de calidad en todas la áreas. Áreas como la de radiofrecuencia de difícil desarrollo, si bien en muchos países aún no reciben un tratamiento diferencial a los efectos de solventar mejor los desafíos, hoy tienen mejores posibilidades de desarrollo. El desarrollo de estas áreas intensivas en conocimiento y recursos especializados a menudo son una buena alternativa para generar empleos de calidad en los países que las abordan con una visión integral de su desarrollo. La mejora de los sistemas de comunicaciones, con la aparición de herramientas como Zoom y redes sociales específicas como Researchgate, han potenciado significativamente la labor de científicos y educadores. Si bien las herramientas de videoconferencia tienen ya muchos años de existencia, lo que ha logrado Zoom (u otros servicios similares) es popularizar su uso bajando de forma muy significativa los costos y ofreciendo una calidad adecuada para la mayoría de las necesidades académicas. La posibilidad de grabar fácilmente las clases por Zoom, también ha permitido solucionar problemas de agenda a estudiantes que trabajan en horarios que se superponen con las clases. Estos avances en la popularización de las herramientas de videoconferencia hacen que sea solo un poco más complejo ofrecer una clase mixta (presencial/virtual) que una clase presencial convencional; por lo que considerando las ventajas que la clase virtual puede ofrecer a un grupo a veces importante de estudiantes, se justifica ampliamente migrar a clases mixtas. Lo que a la vez nos ofrece la posibilidad de incorporar fácilmente estudiantes internacionales. Una vez que las herramientas de videoconferencia dejan de ser un diferencial importante entre las universidades, el foco de la calidad académica vuelve a la calidad del equipo humano, con lo que se resalta la labor científica y académica de los profesionales y pierde protagonismo la disponibilidad de herramientas de videoconferencias que hasta hace una década resultaban bastante onerosas. Se ha avanzado también en concebir los procesos de enseñanza estrechamente ligados a los de investigación y desarrollo profesional. Esta concepción permite una enseñanza de mejor calidad y dinamismo que resulta muy útil para la sociedad. Se ha incorporado en mayor medida el concepto de proyectos integradores de conocimientos, que permiten a los estudiantes un abordaje práctico de un caso de estudio sobre el cual aprender a utilizar las herramientas adquiridas, avanzando con respecto a prácticas anteriores donde el énfasis parecía estar en la acumulación de herramientas conceptuales, sin dedicar mayor esfuerzo a enseñar a aplicar esas herramientas en casos prácticos. Asociado también al avance de los medios de comunicación, se ha mejorado en la colaboración internacional, lo que enriquece y dinamiza de modo importante los procesos de investigación y enseñanza. Desde que las herramientas de videoconferencia son ampliamente accesibles, las distancias físicas entre los investigadores o académicos han perdido notoriamente importancia. Pudiendo desarrollar proyectos entre varios colaboradores internacionales de una manera muy eficiente, lo que permite complementarse y potenciarse. La mejora de las herramientas de comunicación ha acelerado también los procesos de difusión del conocimiento mediante publicaciones o presentaciones en eventos que han incorporado la modalidad virtual, facilitando significativamente la participación en estos eventos. Efecto espiral o círculo virtuoso que acelera los procesos de creación y difusión de conocimiento. RECONOCIMIENTOS Los autores agradecen a los organismos financiadores de los numerosos proyectos de investigación que han permitido adquirir las herramientas con las que hoy contamos para trabajar en el área de RF, en particular al proyecto ERASMUS/NEON (Project No. 618942-EPP-1-2020-1-AT-EPPKA2-CBHE-JP) aún en curso, que nos posibilitó la adquisición de licencias a perpetuidad de la herramienta de simulación Computer Simulation Technology (CST). REFERENCIAS 1. Quite Universal Circuit Simulator (Qucs). Disponible en Web: http://qucs.sourceforge.net/. 2.MEEP. Disponible en Web: https://meep.readthedocs.io/en/latest/. 3. NEC based Antenna Modeler and Optimizer, 4nec2. Disponible en Web: https://www.qsl.net/4nec2/. 4. Computer Simulation Technology (CST). Disponible en Web: https://www.3ds.com/products- services/simulia/products/cst-studio-suite/. 5. RODRÍGUEZ, Benigno, SCHANDY, Javier, GONZÁLEZ, Juan P., STEINFELD, Leonardo and SILVEIRA, Fernando, "Fabrication and Characterization of a Directional SPIDA Antenna for Wireless Sensor Networks", In Proc. of the URUCON IEEE 2017, Montevideo, Uruguay, October 2017. Disponible en web: http://ieeexplore.ieee.org/document/8171861/. 6. RODRÍGUEZ, Benigno, GONZÁLEZ, Juan P., SCHANDY, Javier, STEINFELD, Leonardo, "Antenna Characterization without Using Anechoic Chambers or TEM Cells", LANC 2018, Sao Paulo, Brazil, In Proc. of the 10th Latin America Networking Conference, Disponible en Web: https://dl.acm.org/citation.cfm?id=3277103. 7. SCHANDY, Javier, STEINFELD, Leonardo, RODRÍGUEZ, Benigno, GONZÁLEZ, Juan P., SILVEIRA, Fernando, "Enhancing Parasitic Interference Directional Antennas with Multiple Director Elements", Hindawi, Wireless Communications and Mobile Computing, v. 2019, pp.: 1-9, ISSN: 15308677, DOI: 10.1155/2019/7546785. Disponible en Web: https://www.hindawi.com/journals/wcmc/2019/754678 5/. 8. CALIXTO, Jesús, RODRÍGUEZ, Benigno, SCHANDY, Javier, GONZÁLEZ, Mauricio, “Diseño y Simulación de una Antena PIFA para IoT”, Telemática, Revista Digital de las Tecnologías de la Información y las Telecomunicaciones, Vol. 20, No. 2, 2021, Disponible en Web: https://revistatelema tica.cujae.edu.cu/index.php/tele/article/view/437/405. 9. CONTRERAS, Andry, RODRÍGUEZ, Benigno, STEINFELD, Leonardo, SCHANDY, Javier, SINISCALCHI, Mariana, “Design of a Rectenna for Energy Harvesting on Wi-Fi at 2.45 GHz”, In Proc. of Congreso Argentino de Electrónica (CAE 2020), Buenos Aires, Argentina, 2020. 10. CONTRERAS, Andry, STEINFELD, Leonardo, SINISCALCHI, Mariana, SCHANDY, Javier, RODRÍGUEZ, Benigno, “A Rectenna as Energy Source for Wireless Sensor Nodes”, In Proc. of 2020 IEEE 11th Latin American Symposium on Circuits & Systems (LASCAS), San José, Costa Rica, 2020. 11. CONTRERAS, Andry, RODRÍGUEZ, Benigno, “Optimization of a Novel Rectenna for RF Energy Harvesting at 2.45 GHz”, Wireless Personal Communications, 2021,https://doi.org/10.1007/s11277-021- 08338-x. 12. ALAMO ALBIOL, Jesús, ARBOLEYA, Ana, MARTÍNEZ DE RIOJA, Eduardo, “Cost-Effective 3D-Printed Antenna Measurement System for Educational Applications”, 16th European Conference on Antennas and Propagation, EUCAP 2022, 27 March-1 April, 2022, Madrid, Spain. Benigno Rodríguez obtuvo el título de Ingeniero Eléctrico y el grado de Magister en Ingeniería Eléctrica (opción Telecomunicaciones) de la Universidad de la República (UdelaR), Montevideo, Uruguay, en 1997 y 2004 respectivamente. En 2007 obtuvo el grado de Doctor en Ingeniería Eléctrica, Telecomunicaciones, de la Technische Universität Hamburg-Harburg, Hamburgo, Alemania. Actualmente integra el Sistema Nacional de Investigación (SNI), Nivel I y ocupa el cargo de Profesor Agregado (G4), en Régimen de Dedicación Total en el Instituto de Ingeniería Eléctrica (IIE), Facultad de Ingeniería (FING), UdelaR. Sus principales intereses como investigador se centran en las áreas de: sistemas inalámbricos basados en OFDM, Lásers en Espacio Libre, Ondas Milimétricas y Redes de Sensores Inalámbricos, liderando el grupo de Sistemas Inalámbricos y Radiofrecuencia (SIRF) en el IIE, FING, UdelaR. Leonardo Barboni obtuvo el título de Ingeniero Eléctrico y el grado de Magister en Ingeniería Eléctrica (opción Electrónica) de la Universidad de la República (UdelaR), Montevideo, Uruguay, en 2002 y 2005 respectivamente. En 2010 obtuvo el grado de Doctor en Ingeniería Eléctrica, Telecomunicaciones, de la Universidad de Génova, Italia. Actualmente integra el SNI, Nivel I y ocupa el cargo de Profesor Adjunto (G3), en Régimen de Dedicación Total en el IIE, FING, UdelaR. Sus principales intereses como investigador se centran en el área de circuitos de radiofrecuencia, integrando el grupo de Microelectrónica en el IIE, FING, UdelaR. Ana Arboleya obtuvo el título de Ingeniera Superior de Telecomunicación y el doctorado en Ingeniería de Telecomunicación en 2009 y 2016 respectivamente en la Universidad de Oviedo (UO), Oviedo, España. En 2018 se incorporó como profesora a la Universidad Rey Juan Carlos (URJC), Madrid, España, donde imparte asignaturas de la rama de radiofrecuencia como Radiación y Propagación, Campos Electromagnéticos, Dispositivos de Alta Frecuencia, etc. En el ámbito de la gestión docente, fue la gestora docente del programa Erasmus+ y Munde para los grados de Ingeniería de Telecomunicación desde septiembre de 2019 a enero de 2022. Es la tutora académica de prácticas externas del Grado de Ingeniería en Sistemas de Audio y Multimedia desde mayo de 2018. Desde mayo de 2022 es la coordinadora funcional del Área de Teoría de la Señal y las Comunicaciones de la URJC. Sus líneas de investigación se centran en el desarrollo de sistemas y técnicas de caracterización y diagnóstico de antenas en alta frecuencia. Raúl Hartmam obtuvo el título de Ingeniero Eléctrico de la Universidad de la República (UdelaR), Montevideo, Uruguay, en 2004. Desde 2007 a la fecha trabaja para la firma Dedicado S.A., Montevideo, Uruguay, actualmente desempeñándose como Responsable de Ingeniería de Redes de Acceso Inalámbricas. Desde 2018 cursa la Maestría en Ingeniería Eléctrica en el IIE, FING, UdelaR, teniendo como principales áreas de estudio Beamforming, MIMO Masivo, Arreglos de antenas y Transmisiones Multiusuario. Desde 2018 integra el grupo SIRF en el IIE, FING, UdelaR. DISEÑO DE DESFASADORES CONMETAMATERIALES PARA ANTENAS INTELIGENTES USADAS EN LA 5TA GENERACIÓN MÓVIL. Dr. C. Miguel Eduardo Borrego Corona1, Ing. Daimy J. Cabrera Brito2, MSc. Grettel Rodríguez Trujillo3, Dr. C. Fransisco R. Marante Rizo4 1Profesor Auxiliar, CUJAE, miguelebo@tele.cujae.edu.cu, 2 Ingeniera en Telecomunicaciones y Electrónica, djuliacabrerabrito@gmail.com, 3Profesor Asistente, CUJAE, grettelro@tele.cujae.edu.cu, 4Profesor Titular, CUJAE, marante@tele.cujae.edu.cu. RESUMEN Las antenas inteligentes sobresalen como una tecnología capaz de satisfacer con alto grado de eficiencia, las especificaciones necesarias para los sistemas inalámbricos del futuro. Una clasificación de estos sistemas inteligentes lo constituyen los arreglos faseados, donde se utilizan desfasadores acoplados a los elementos del arreglo de antenas. En principio los arreglos faseados son un conjunto de antenas, en el cual las fases relativas de las señales con que se alimenta cada elemento se varían intencionadamente, con el objetivo de alterar el diagrama de radiación del conjunto, logrando reforzar la radiación en una dirección determinada o específica. Precisamente uno de los componentes más importantes para el diseño de estos sistemas lo constituyen los desfasadores, pues son los encargados de controlar la dirección del haz de radiación, al tener la capacidad de variar la fase de alimentación de los elementos del arreglo que conforman el sistema de antenas inteligentes. En el presente trabajo se emplean diferentes estructuras metamateriales, como desfasadores empleados en configuraciones de antenas inteligentes para su utilización en sistemas de la 5ta generación móvil (5G). PALABRAS CLAVES: Antenas inteligentes, desfasadores, metamateriales. DESIGN OF PHASE SHIFTERS WITH METAMATERIALS FOR SMART ANTENNAS USED IN THE 5TH MOBILE GENERATION. ABSTRACT Smart antennas stand out as a technology capable of meeting the specifications required for future wireless systems with a high degree of efficiency. A classification of these intelligent systems is constituted by phased arrays where phase shifters coupled to the elements of the antenna array are used. In principle phased arrays are a set of antennas in which the relative phases of the signals with which each element is fed are intentionally varied with the aim of altering the radiation pattern of the set managing to reinforce the radiation in a certain direction. or specific. Precisely one of the most important components for the design of these systems are the phase shifters since they are responsible for controlling the direction of the radiation beam by having the ability to vary the power phase of the elements of the array that make up the antenna system. smart. In the present work different metamaterials structures are used as phase shifters used in smart antenna configurations for use in 5th generation mobile (5G) systems. KEYWORDS: Intelligent antennas, phase shifters, metamaterials. 1. INTRODUCCIÓN La red inalámbrica de la próxima (5ta) generación abordará la evolución más allá del internet móvil, y alcanzará al Internet de las Cosas masivo. La evolución más notable en comparación con las redes 4G y 4.5G (LTE avanzado) actuales, es que, aparte del aumento en la velocidad de los datos, los nuevos casos de uso del Internet de las Cosas y de la comunicación, requerirán nuevos tipos de desempeño mejorado; como la “latencia baja”, que brinda una interacción en tiempo real a los servicios que utilizan la nube, lo que resulta clave, por ejemplo, para los vehículos autónomos. Además, el bajo consumo de energía permitirá que los objetos conectados funcionen durante meses o años sin la necesidad de la intervención humana. Para enfrentar este crecimiento y desarrollo agigantado de los sistemas de comunicaciones, es imprescindible que se desafíen y solucionen problemas tales como: la baja eficiencia espectral, el desvanecimiento por trayectorias múltiples, el aumento de la tasa de bits erróneos y las interferencias cocanal. Una alternativa para aliviar estos problemas y que ha surgido con el incremento de la capacidad de los sistemas de comunicaciones inalámbricas, lo constituye el uso de antenas inteligentes, que atraen gran atención en la actualidad y creíblemente más en el futuro, ya que son capaces de combinar la tecnología del diseño de antenas, procesamiento de señales y la implementación de hardware, además de optimizar los diagramas de radiación en trasmisión y recepción de forma dinámica [1]. Una clasificación de estos sistemas inteligentes lo constituyen los arreglos faseados, donde se utilizan desfasadores acoplados a los elementos del arreglo de antenas [2]. 2. METAMATERIALES Las aplicaciones de los metamateriales no se limitan al campo de las telecomunicaciones, se investigan sus posibles usos en diversas ramas de la física. La fabricación de lentes para la obtención de imágenes ópticas de alta resolución y el desarrollo de nanocircuitos para altas velocidades, son ejemplos de algunas de estas aplicaciones. Se les pueden encontrar también aplicados en sistemas de microondas para la fabricación de antenas pequeñas, de filtros y substratos de antenas con el propósito de mejorar algunos de sus parámetros fundamentales, como es la directividad, diagrama de radiación y eficiencia. De igual forma, pueden ser empleados en líneas de transmisión como acopladores y desfasadores [3]. Debido a las numerosas aplicaciones que presentan los metamateriales en el campo de las telecomunicaciones, en la comunidad científica se continúan haciendo estudios para lograr aplicarlos en sistemas de comunicaciones, con el objetivo de mejorar sus requerimientos y disminuir sus costos de implementación. De todas las estructuras metamateriales que existen, los anillos resonadores se encuentran dentro de los más conocidos y estudiados. A partir de estas estructuras pueden crearse otros circuitos más complejos. Las variaciones y aplicaciones de los circuitos de anillos aún no se han agotado y, se espera que nuevos circuitos sean descubiertos en el futuro. 3. ANTENAS INTELIGENTES Las antenas inteligentes proveen un incremento de la potencia suministrando una alta ganancia para la señal deseada. Los sistemas de haz conmutado emplean haces estrechos, particularmente con un gran número de elementos de antena a una alta frecuencia, que proporciona una alta ganancia en la dirección de la señal esperada. Los arreglos adaptativos ubican el haz principal en la dirección de la señal [4]. En términos de la supresión de la interferencia, los sistemas de haz conmutado reducen la probabilidad de interferencia con el haz más estrecho, y el arreglo adaptativo ajusta el patrón del haz para suprimir la interferencia. Para la mitigación de la interferencia, las antenas inteligentes brindan diversidad, de la cual existen tres tipos básicos: espacial, polarización y ángulo (o patrón) de diversidad. Los sistemas de antenas inteligentes brindan grandes ventajas las cuales se mencionan en la literatura consultada [5], [6]. Desfasadores o desplazadores de fase. Una parte fundamental del arreglo faseado de antenas lo constituyen los desplazadores de fase, que tienen como objetivo variar la fase de alimentación de cada elemento y así poder controlar la dirección del haz de radiación [7]. Los desplazadores de fases son dispositivos, en el que la fase de una onda electromagnética dada una frecuencia, puede cambiar al propagarse a través de una línea de transmisión, sin que tenga repercusión en la amplitud de la señal. En diversos campos de la electrónica, es a menudo necesario cambiar la fase de la señal. Los desplazadores de fases constituyen un eslabón clave para realizar dicha operación, principalmente en aplicaciones de arreglos faseados. Los principales parámetros que definen un desplazador de fase trabajando en microondas (300 MHz y 300 GHz) son [8][9]:  Rango de frecuencia.  Ancho de banda (BW).  Variación de fase.  Pérdidas de inserción.  Velocidad de conmutación.  Potencia.  Resolución.  Pérdidas de retorno (RL). 4. DISEÑO DEL RESONADOR CONMETAMATERIALES A partir de diseños realizados inicialmente sobre circuitos equivalentes de celdas unitarias con las dimensiones calculadas para lograr resonadores en 9 GHz, se procedió a extrapolar las dimensiones a la frecuencia de trabajo escogida para el resultado final de 28 GHz, ya que los modelos de los circuitos equivalentes de esta celda no permiten la extrapolación de la frecuencia. La metodología utilizada en este trabajo, para la extrapolación de las dimensiones de las estructuras del diseño de 9 GHz hacia los 28 GHz, parte del apoyo en herramientas brindadas por el software AWR, con el cual, se procede a efectuar la conversión a la frecuencia deseada: 1. Se calcula la longitud de onda (λ) para 9 GHz mediante la expresión: (1) donde C es la constante que caracteriza la velocidad de la luz con un valor de C=3x108 m/s y f es el valor de la frecuencia usada, que es en este caso f=9 GHz. 2. Se calcula la longitud de onda efectiva (λeff) para 9 GHz mediante la expresión: (2) donde es la permitividad efectiva del dieléctrico con valor =2.2 3. Se calcula la longitud de onda (λ) para 28 GHz mediante la expresión (2) pero en este caso f=28 GHz. 4. Se calcula la longitud de onda efectiva (λeff) para 28 GHz utilizando (3). 5. Para cada una de las dimensiones obtenidas para 9 GHz se utiliza la expresión Lij(28 GHz)=[Lij(9 GHz) / λeff(9 GHz)] x λeff(28 GHz) (3) Con lo que obtendremos su valor para la frecuencia de trabajo requerida, es decir 28 GHz. A continuación, se mostrará detalladamente este procedimiento para ambas estructuras. Cálculo de la celda con Resonador de Anillos Divididos (SRR por sus siglas en inglés). Figura 1: Estructura metamaterial SRR A partir de estos valores se comienza a aplicar la metodología de cálculo antes descrita, para obtener el diseño en 28 GHz. Tabla 1: Relación de dimensiones de la estructura SRR para 28 GHz. Lij(28 GHz) SRR 9 GHz (cm) SRR 28 GHz (cm) L11 3 0.9576 L12 3 0.9576 L13 3 0.9576 L14 1.35 0.432 L15 1.35 0.432 L16 0.3 0.09576 L21 1.8 0.41 L22 1.8 0.41 L23 1.8 0.41 L24 0.68 0.217 L25 0.82 0.26 L26 0.3 0.09576 Diseño de la celda con Resonador de Anillos Divididos Complementarios (CSRR por sus siglas en inglés). Figura 2: Estructura metamaterial CSRR Tabla 2. Dimensiones del desfasador con CSRR. Lij (9 GHz) CSRR 9 GHz (cm) CSRR 28 GHz (cm) L11 8.92 2.8544 L12 4.07 1.3024 L13 6.45 2.8544 L14 2.47 0.7904 L15 4.07 1.3024 L21 2.69 0.8608 L22 0.3 0.096 L23 0.3 0.096 L24 3.39 1.0848 L25 3 0.96 Arreglo faseado de cuatro elementos con CSRR incluidos. En la figura 3 se presenta el arreglo de antenas con desfasadores metamateriales, específicamente con CSRR, en el primer y cuarto elemento. Figura 3: Arreglo faseado con CSRR incluido en el primer y cuarto elemento. L26 0.3 0.096 L27 2.5 0.8 L28 0.3 0.096 L31 0.31 0.0992 L32 0.31 0.0992 L33 2.38 0.7616 L34 2.5 0.8 L35 0.28 0.0896 L36 2.1 0.672 L37 2.5 0.8 L41 1.53 0.4896 L42 0.3 0.096 L43 1.51 0.4832 L44 0.3 0.096 L45 1.51 0.4832 L46 0.3 0.096 L47 1.83 0.5856 L48 0.3 0.096 L51 0.3 0.096 L52 0.3 0.096 L53 1.2 0.384 L54 1.19 0.38 L55 1.2 0.384 L56 1.19 0.38 Estos desfasadores no pueden situarse en el mismo plano en el que se encuentran las líneas de alimentación de la antena, que en este caso son líneas de microcinta, pues el CSRR se caracteriza por introducir desfasaje por medio del acoplamiento eléctrico con el plano tierra, por lo que quedan ubicados en el mismo, lo que se puede apreciar mejor en la figura 4. Figura 4: Vista del electromagnético del diseño. Esta particularidad, marca una diferencia crucial entre el SRR y su complementario, el CSRR, pues el primero se ubica en el mismo plano de las líneas de alimentación ya que introduce el desfasaje por medio del acoplamiento magnético, es decir uno trabaja sobre el campo eléctrico mientras el otro lo hace sobre el campo magnético. Estas diferencias entre ambas estructuras se aprecian mejor en la figura 5. Figura 5: Acoplamiento de ambas estructuras metamateriales en el arreglo. a) SRR. b) CSRR En la siguiente figura se muestra el movimiento provocado en el patrón de radiación del arreglo por el desfasaje que introdujeron las estructuras CSRR. (a) (b) Figura 6: Comportamiento del patrón de radiación del arreglo con desfasadores incluidos. a) Vista frontal. b) Vista lateral. La dirección de máxima radiación del lóbulo principal se corresponde, en la figura 6, con el color rojo intenso donde se muestra que ocurrió un desplazamiento con respecto a la dirección que tenía para el arreglo sin desfasadores que era exactamente 00. Para tener una idea más exacta de esta variación se presenta la figura 7. Figura 7: Análisis del patrón de radiación del arreglo con desfasadores incluidos. La figura anterior indica que ocurrió un desplazamiento de 260 del patrón de radiación. Este análisis demuestra las ventajas que trae aparejado el uso de estructuras metamateriales como desfasadores, pues los desfasadores convencionales solamente introducen desfasajes de 900 o de 1800 y para lograr cualquier otro valor de desfasaje es necesario modificar las líneas de alimentación, aumentando su tamaño; mientras que con el CSRR manteniendo la misma línea pero haciendo un acoplamiento eléctrico en el plano tierra, se logra desplazar la línea, por lo que la antena no necesita de grandes dimensiones para introducir otros (a) (b) valores de desfasajes fuera de los marcos tradicionales. A pesar de esta significativa ventaja este tipo de desfasador tiene el inconveniente de que, al variar la fase, se modifica también la razón de onda estacionaria (ROE) entre los puertos, aunque este valor se mantiene entre los límites aceptables, entre 1.2 y 1.5 en la banda de frecuencia en que se trabaje, es decir modifica la ROE, pero no hace que su comportamiento sea deficiente. 5. CONCLUSIONES. Las antenas inteligentes proveen grandes ventajas, como es el hecho de que consiguen aumentar la capacidad de conexión a múltiples usuarios simultáneamente, permiten transmitir el haz desglosado en varios lóbulos muy directivos, de forma que se reduce la interferencia en la red considerablemente, además, de la disminución del nivel de interferencia y el incremento del nivel de seguridad. De las estructuras metamateriales conocidos como anillos resonadores, el CSRR es la solución más eficiente a utilizar como desfasador acoplado a las líneas de alimentación de un sistema de antenas inteligentes, pues introduce el valor de desfasaje superior y capaz de desplazar el patrón de radiación de este sistema en 260. Estos desfasadores a pesar de que al cambiar la fase modifican, además, el valor de la razón de onda estacionaria (ROE) entre los puertos, permiten introducir valores de desfasaje diferentes a 900 y 1800 sin tener que aumentar las dimensiones de las líneas de alimentación, como es requerido para lograr con otros desfasadores. El CSRR permite mantener la misma línea, pero haciendo un acoplamiento eléctrico con el plano tierra, por lo que la antena no necesita de grandes dimensiones para introducir otros valores de desfasajes fuera de los marcos tradicionales. RECONOCIMIENTOS Los autores desean agradecer al laboratorio de comunicaciones inalámbricas de la Facultad de Telecomunicaciones, por el acceso a los diferentes prototipos de antenas que se han construidos allí, así como a los distintos equipos de medición y literatura especializada. REFERENCIAS 1. Ming Xiao, S.M., Yongming Huang, Linglong Dai, Yonghui Li, Michail Matthaiou, George K. Karagiannidis, Emil Björnson, Kai Yang, Chih-Lin I., Amitava Ghosh, Millimeter Wave Communications for Future Mobile Networks. IEEE, 2016: p. 28 2. E. P. O. Ortega C. Patricio, Morales A. Juan. (2005, Estudio de Antenas Inteligentes y principales aplicaciones en los sistemas de telefonía móvil. XIX Jornadas en Ingeniería Eléctrica y Electrónica Vol 19. 3. N. Engheta and R. W. Ziolkowski, Metamaterials: Physics and Engineering Explorations, 2006. 4. M. H. Dahri, M. H. Jamaluddin, M. Inam, y M. R. Kamarudin, A Review of Wideband Reflectarray Antennas for 5G Comunication Systems, IEEE Access, vol. pp, No.99, pp: 1-1, 2017. 5. R. J. Mailloux. (2005). Phased Array Antenna Handbook (Second Edition ed.). 6. W. Hong, K.-h. Baek y S. Ko, Millimeter-wave 5G Antennas for Smartphone: Overview Experimental Demostrations, IEEE Transaction on Antennas and Propagation, vol. pp, No.99, pp: 1-1, 2017. 7. Diseño y construcción de una antena para su aplicación en 5G. Jorge Alberto Salazar Ramírez. Capítulo 1, p.19, 2017 8. Plan Nacional 5G, 2018-2020. https://www.mincotur.gob.es/telecomunicaciones/5G/documents/plan_nacional_5g. 9. Garcia, L.M.Q.y.R.D., Software de Simulación de Algoritmos de detección de la Dirección de Arribo y Conformación de los haces 2010: ISPAJE. . Sobre los autores Dr. Miguel Eduardo Borrego Corona presenta la categoría de Profesor Auxiliar, con la cual se desarrolla como profesor e investigador del departamento de Telecomunicaciones de la Universidad Tecnológica de La Habana ¨José Antonio Echeverría¨, así como miembro permanente de tribunales de doctorados y maestrías en el mismo centro. MSc. Grettel Rodríguez Trujillo presenta la categoría de Profesor Asistente, con la cual se desarrolla como profesora e investigadora del departamento de Telecomunicaciones de la Universidad Tecnológica de La Habana ¨José Antonio Echeverría¨ desde el año 2015. Dr. Francisco Marante Rizos presenta la categoría de Profesor Titular, con la cual se desarrolla como profesor e investigador del departamento de Telecomunicaciones de la Universidad Tecnológica de La Habana ¨José Antonio Echeverría¨, dirigiendo, además, el grupo de Comunicaciones Inalámbricas perteneciente a dicho departamento. SISTEMA IOT PARA EL MONITOREO DEL PROCESO DE CURADO DE TABACO CON TERMOHIGRÓMETROMULTI-SONDA Dioen Biosca Rojas1, Ariel Baloira Reyes2 1,2Universidad Tecnológica de la Habana “José Antonio Echeverría” CUJAE 1dioenbiosca@tele.cuja.edu.cu, 2 ariel@tele.cujae.edu.cu RESUMEN El presente trabajo propone un diseño de plataforma IoT con termohigrómetros de múltiples sondas, para la industria tabacalera del país, particularmente en el monitoreo remoto de los procesos de curado controlado de las hojas de tabaco. El mismo es capaz de, empleando los principios de IoT, registrar todos los datos censados hacia una plataforma en la nube, para facilitar su acceso y consulta desde cualquier lugar, en cualquier momento. Se emplea una placa Raspberry Pi 3 modelo B+ como elemento de control y la posibilidad de conexión de hasta nueve sondas de censado simultáneas, respondiendo a las necesidades de registro de información en múltiples áreas de las casas de curado. Como sensor se propone el uso del SHT85 de Sensirion, probado ya en este tipo de aplicaciones, que ofrece los mejores niveles de exactitud disponibles en el mercado, muy próximos a los de los equipos comerciales empleados actualmente en el país, a un costo significativamente inferior. La plataforma IoT que se propone emplear es ThingsBoard, por la versatilidad y nivel de prestaciones que ofrece. El objetivo del trabajo consiste en ofrecer un sistema alternativo, para la sustitución de importaciones y la disminución de costos por este concepto en la industria del tabaco en el país. PALABRAS CLAVES: IoT, Raspberry Pi, Arduino, SHT85, Censado de temperatura y humedad. IOT SYSTEM FORMONITORING THE TOBACCO CURING PROCESS WITH A MULTI PROBE THERMO-HYGROMETER ABSTRACT This paper proposes an IoT platform design using multi probe thermo-hygrometers for use in the country's tobacco industry, particularly in remote monitoring of the controlled curing processes of tobacco leaves. The system is capable of registering all measured data in an IoT cloud platform, for its consultation from anywhere, anytime. A Raspberry Pi 3 model B+ board is proposed as the control element, also the possibility of connecting up to nine simultaneous sensing probes, responding to the need to record information in multiple areas of curing houses. As a sensor, the use of Sensirion's SHT85 is proposed, already proven in this type of application, which offers the best levels of accuracy available on the market, very close to those of the commercial equipment currently used in the country, at a significant lower cost. The proposed IoT platform is ThingsBoard, due to its versatility and level of performance that it offers. The objective of the work is to propose an alternative system design, for the substitution of imports and the reduction of costs for this concept in the tobacco industry. KEYWORDS: IoT, Raspberry Pi, Arduino, SHT85, Humidity and temperature sensing. 1. INTRODUCCION El presente trabajo constituye una iniciativa alineada con el esfuerzo del país en la sustitución de importaciones. La idea del desarrollo del mismo parte de las necesidades concretas del sistema del tabaco en Cuba, particularmente de la empresa TABACUBA S.A. y el Instituto de Investigaciones del Tabaco (IIT), adscrito a la misma. Una vez cosechado el tabaco se procede a su curación, proceso durante el cual es necesario monitorear y controlar celosamente los parámetros de temperatura y humedad del ambiente, con el objetivo de lograr un producto de la mejor calidad. Estos procesos pueden llevarse a cabo en casas de curado tradicionales o en casas de curado controlado, pero en ambos casos el control del proceso tiene que ser estricto. Una vez concluido el proceso de curado, las hojas de tabaco eventualmente pasan a la cadena productiva, donde se convierten en puros o cigarrillos directamente, o pueden experimentar procesos como la fermentación y el añejamiento, que producen transformaciones físico-químicas en las hojas de tabaco, para lograr la suavidad y el aroma que caracteriza los puros de la más alta calidad y prestigio del mundo. Durante estos procesos también es necesario cuidar celosamente los parámetros de temperatura y humedad de la masa de tabaco en proceso (pilones), ya que cuando se alcanzan ciertos valores de los mismos los operarios tienen que intervenir para deshacer los pilones y reconformarlos, cambiando las posiciones de los mazos para lograr uniformidad en el proceso, y continuar el mismo hasta su culminación. Para el monitoreo y control de la temperatura y humedad, el sistema del tabaco utiliza termohigrómetros importados de alta precisión y alto costo en el mercado internacional. Por lo general estos instrumentos posibilitan la conexión de una única sonda de censado, quizá dos, lo que no permite el estudio de las variaciones de los antes mencionados parámetros en varios puntos de una casa o batería de curado, para estudiar por ejemplo cómo lograr distribuciones más uniformes de los mismos para todo el volumen de tabaco en proceso. Estos dispositivos son además manuales, no conectables a una red de datos. El objetivo de este trabajo va precisamente en la línea de desarrollar una propuesta de diseño de sistema alternativo, de mayor versatilidad, a un menor costo que el del equipamiento que se importa actualmente por el sistema productivo del tabaco en el país, y que permita incluso registrar la información de temperatura y humedad censada, empleando técnicas de Internet de las Cosas (IoT, por las siglas del término en inglés, Internet of Things), en una plataforma en la nube para su consulta en tiempo real desde cualquier dispositivo conectado a la red. El análisis económico realizado para la solución no se incluye dada la extensión del trabajo. 2. INSTRUMENTO DE REFERENCIA En nuestro país, el sistema del tabaco ha establecido una relación importante con el proveedor suizo ROTRONIC [1], importando el Hygropalm HP23-AW-A [2], que es un equipo portátil de hasta dos sondas. Se le puede conectar una sonda ambiental u otra de inserción para censar la humedad en pilones, por ejemplo, durante los procesos de fermentación. Amén de las prestaciones de cada tipo de equipo, que pueden variar de un modelo a otro en general, el elemento que determina las diferencias en precisión, rango de escenarios de aplicación, entre otros, es el tipo de sonda que utilizan y el tipo de sensor en el interior de estas. En ocasiones a los instrumentos se les puede conectar una u otra sonda para poder realizar mediciones en distintos escenarios. Existe una gran variedad de sondas en dependencia de la aplicación, las cuales pueden revisarse en [1]. Dependiendo de la aplicación, ROTRONIC emplea la familia de sensores HYGROMER [3-5]. Estos sensores son desarrollados por la propia firma. La precisión ofrecida por esta familia de sensores es de 0.8%HR a 23°C, en el caso de la humedad relativa y 0.1°C para las mediciones de temperatura. Los sensores se colocan en el interior de la sonda, protegidos por un filtro para polvo, que normalmente se encuentra en la punta de las sondas y que puede estar fabricado de poliestireno con porosidades de 20µm o 40µm, PTFE (politetrafluoroestireno) o teflón, con porosidades de 2µm o 10um, malla de alambre de 10µm, 20µm o 25µm, acero inoxidable sinterizado de 5µm o 25µm o acero sinterizado DIN 1.4401 de 5µm [1]. Los filtros de protección para los sensores de humedad son fabricados de materiales con buenas propiedades hidrofóbicas, o sea que repelen el agua. Se emplean membranas protectoras con distintos niveles de porosidad, para propiciar la permeabilidad necesaria para una medición de humedad efectiva. El tamaño de los poros oscila entre 5µm y 40µm aproximadamente, el cual dependerá del escenario de trabajo y la velocidad de respuesta que requiere la aplicación de medición en cuestión [6]. Particularmente el instrumento de referencia, el Hygropalm HP23-AW-A, emplea las sondas HC2A para mediciones ambientales y la HC2-HP28 para inserción. Los sensores empleados son los HYGROMER IN-1 con las precisiones antes mencionadas para la temperatura y la humedad y filtros que pueden ser de poliestireno de 20µm (NSP-PCB-PE [7]) en el caso de la sonda HC2A-SH o de acero sinterizado DIN 1.4401 de 5µm (ET-Z10 [8]) para la sonda HC2-HP28. El propósito es diseñar una alternativa de instrumento con una precisión lo más cercana posible a la que ofrece el equipo comercial de referencia. Tanto en la medición de temperatura como de humedad, y que al mismo tiempo provea una mayor versatilidad. La idea es que el equipo propuesto pueda recopilar la información de múltiples sondas simultáneamente, para facilitar el estudio de las distribuciones volumétricas de los parámetros en el interior de una casa de curado. Se proponen adicionalmente las funciones de visualización y registro remoto de la información mediante la posibilidad de subir todos los datos recopilados a la nube, para su análisis en tiempo real desde una plataforma de IoT como ThingsBoard [9] por ejemplo, lo que superaría en prestaciones al instrumento que se ha tomado como referencia de partida. Esta funcionalidad ya ha sido probada con éxito por los autores y se encuentra reportada en [10, 11]. 3. REQUERIMIENTOS DEL ESCENARIO DE DESPLIEGUE A partir de las necesidades, tanto de los investigadores del IIT como de los productores, el diseño del sistema debe contemplar la posibilidad de conectar múltiples sondas para el censado simultáneo de temperatura y humedad en varios puntos de interés, tanto en una casa de curado tradicional como en una batería de curado controlado. La Fig. 1 muestra la estructura y dimensiones típicas de una casa de curado controlado y las posiciones para el despliegue de los sensores, la cual se toma como referencia para el diseño. (a) (b) Figura 1: Esquema de una casa de curado controlado de diez aposentos, empleada como escenario de despliegue base para el diseño. (a) Estructura y dimensiones (b) Distribución aproximada de los nueve puntos de censado de temperatura y humedad requeridos. 4. PROPUESTA DE DISEÑO REALIZADA A partir de los requerimientos establecidos en el epígrafe anterior, el instrumento tendrá que tener al menos nueve conexiones disponibles para el despliegue de las sondas de censado. Este hará de concentrador de la información proveniente de todos los sensores y deberá permitir la visualización de los ● ● ● ● ● ● ● ● ● valores actuales de cada uno de estos. Además, deberá ser capaz de transmitirlos para su registro remoto en la plataforma IoT en la nube. Como requerimientos adicionales se parte de los rangos y las precisiones especificadas previamente para el sensor del equipo de referencia, tanto para la temperatura como para la humedad. Aunque estos no son los únicos aspectos que constituyen requisitos para la selección del sensor a emplear en el diseño. El protocolo de comunicación que soporte el sensor para el envío de la información hacia la unidad principal es muy importante. Debido a las grandes distancias de cable entre el equipo y los sensores, producto de las grandes dimensiones de las casas de curado, el tema de la comunicación entre la unidad principal y los sensores constituye un reto en el diseño del equipo desde el primer momento. Esquema general del nodo sensor A partir de las ideas y requerimientos iniciales establecidos, se propone un esquema general para el nodo sensor como el que se muestra en la Fig. 2. El equipo cuenta con una unidad principal, que contiene una pantalla para la visualización de los valores de temperatura y humedad localmente, tres botones para la navegación en el menú de opciones que se visualiza también en la pantalla, el botón de encendido y nueve conexiones, mediante conectores M12, para agregar las nueve sondas de censado que se pueden conectar simultáneamente al equipo. La unidad principal puede ser instalada en el exterior de la casa de curado, para evitar la necesidad de entrar en su interior para revisar los valores de temperatura y humedad localmente. Las nueve sondas se instalan en las posiciones establecidas y se alcanza cada una de ellas mediante un cable individual de cuatro hilos, con conexiones M12 en ambos extremos. La longitud del cable puede extenderse hasta que sea necesario para llegar a cada posición de censado. Los cables se corren por el interior de la casa y sus longitudes pueden alcanzar hasta los 40m. Estas distancias de conexión son posibles gracias a que se emplea una interfaz de comunicación RS485 desde la unidad principal y conversores de interfaz de RS485 a I2C. Estos últimos, también visibles en la Fig. 2, realizan la conversión de señales en el tramo final de conexión al sensor. Estas unidades conversoras, o agregadoras de sensores, se conectan a los sensores mediante otra sección de cable, con conexiones M12, pero mucho más corta, de hasta metro y medio. En esta sección el protocolo de comunicación es I2C, que implementan la mayoría de los sensores estudiados. Este es el motivo por el cual es necesario emplear los conversores de interfaz para cubrir las distancias de cable hasta la unidad principal. Figura 2: Estructura general del nodo sensor propuesto. Se muestran conectadas, tres de las nueve sondas de censado de temperatura y humedad que puede tener instaladas simultáneamente el equipo con sus respectivos conversores de interfaz de comunicación de RS485 a I2C. Selección del sensor a emplear Es imprescindible comentar el hecho de que el equipo de referencia, el Hygropalm HP23-AW-A [2], es fabricado por uno de los dos líderes mundiales en el desarrollo de instrumentos para la medición de humedad relativa, actividad del agua, punto de rocío y otros parámetros relacionados con la humedad del aire; la firma suiza ROTRONIC. El sensor HYGROMER IN-1, que emplea en muchos de sus instrumentos, es uno de los dos sensores, dentro de la amplia búsqueda realizada, capaces de ofrecer exactitudes de 0.8%HR en el rango de 0 a 100%HR. El otro sensor que ofrece esos niveles de exactitud es el HUMICAP 180C [12], producido por VAISALA, compañía finlandesa fundada en 1936, con casa matriz en Helsinki, Finlandia. Estos dos fabricantes, ROTRONIC y VAISALA, son los únicos que ofrecen instrumentos con sensores capaces de dar exactitudes de 0.8%RH y 0.1°C simultáneamente, son los líderes mundiales absolutos en este campo. En el estudio realizado, que abarcó más de cuarenta y tres sensores de una decena de fabricantes [13-24], se pudo constatar lo siguiente: 1. Los fabricantes ROTRONIC y VAISALA, no ofrecen sus sensores a la venta de forma independiente, sino formando parte de sus instrumentos correspondientes, en soluciones propietarias a altos precios. 2. La mayoría de los sensores de humedad y temperatura estudiados ofrecen exactitudes a partir de 1.5%RH o 1.8%RH, que es lo mejor que se puede encontrar solo en contados casos. 3. El valor de exactitud más común encontrado en los sensores revisados es de 2.0%RH y de ahí hacia arriba: 3.0%RH, 4.0%RH, ya que son fabricados en su mayoría, con algunas excepciones, para higrómetros domésticos y de monitoreo de humedad ambiental donde estos niveles de exactitud son suficientes. Tabla 1: Resumen de características de los sensores de humedad y temperatura de mayor exactitud. Sensor Temperatura Humedad Alimentación y salida Rango [℃] Exactitud Resolución τr Rango [%RH] Exactitud Resolución τr Vdd [V] Salida Tipo SHT25 -40 … 125 ±0.2 ℃ 0.01 ℃ 5 a 30 s 0 … 100 ± 1.8 % 0.04 % 8 s 2.1 … 3.6 Digital I2C SHT35 -40 … 125 ±0.2 ℃ 0.015 ℃ > 2 s 0 … 100 ± 1.5 % 0.01 % 8 s 2.4 … 5.5 Digital I2C SHT75 -40 … 125 ±0.3 ℃ 0.01 ℃ 5 a 30 s 0 … 100 ± 1.8 % 0.05 % 8 s 2.4 … 5.5 Digital 2w serie SHT85 -40 … 105 ±0.1 ℃ 0.01 ℃ > 2 s 0 … 100 ± 1.5 % 0.01 % 8 s 2.1 … 5.5 Digital I2C HS310x -10 … 80 ±0.2 ℃ 0.015 ℃ 2 s 0 … 100 ± 1.5 % 0.01 % 4 s 2.3 … 5.5 Digital I2C TH10 -40 … 90 ±0.2 ℃ 0.015 ℃ 2 s 0 … 100 ± 1.5 % 0.01 % 86 s 2.4 … 5.5 Digital I2C De la larga lista de sensores analizados, solo ofrecen exactitudes mejores que 2.0%RH seis de ellos, mostrados en la Tabla 1. De estos, el que reúne las mejores prestaciones y se selecciona para su empleo es el SHT85 [21]. Este es el único de los sensores analizados capaz de ofrecer exactitudes de 1.5%RH y 0.1°C simultáneamente, la exactitud en los valores de temperatura del resto de los sensores es de 0.2°C o superior. Adicionalmente, ofrece resoluciones de 0.01%RH y 0.01°C, las más bajas observadas, soporte de comunicación I2C y voltaje de alimentación hasta 5.5V. Más importante aún, como se muestra en la Fig. 3, el SHT85 se comercializa en una placa PCB especialmente diseñada para su montaje en las carcasas que se emplean en las sondas de censado de humedad y temperatura disponibles comercialmente, o sea, no viene el chip del sensor suelto, sino que ya viene integrado en una pequeña placa para facilitar su instalación y uso, esto es un elemento muy importante con vistas a la implementación del equipo terminado. Este sensor ha sido recientemente empleado en la confección de un medidor de actividad del agua de “bajo costo” y caracterizado experimentalmente con excelentes resultados, los cuales han sido publicados en [25] el pasado año 2021. Figura 3: Sensor SHT85. (a) Comercializado en placa PCB que facilita su montaje en las sondas de censado de humedad y temperatura disponibles comercialmente. (b) Montado en el interior de una carcasa protectora de acero sinterizado para su empleo. Diseño de la unidad principal Como se presentó en la Fig. 2, el sistema consta de una unidad principal o nodo sensor, donde se encuentra el controlador con todas las interfaces para la conexión de los sensores, las interfaces de comunicación, así como una pantalla para la visualización local de parámetros y la selección de funciones. La estructura interna de la unidad principal se muestra en la Fig. 4. Figura 4: Esquema eléctrico propuesto para la unidad principal. (1) LCD Display I2C de 20x4 (2) Módulo MAX485 (3) Botones pulsadores (4) Conversor DC-DC LM2596 (5) Raspberry Pi 3 modelo B+ (6) Módulo de distribución de 8x4 (7) Fuente de alimentación 9V/5A (8) Interruptor 12/220VAC. El controlador de la unidad principal lo constituye una placa Raspberry Pi 3 modelo B+ (RPi). Se emplea un conversor DC-DC, el LM2596, para llevar los 9V de la fuente de alimentación a los 5V que emplea la RPi. Se utiliza una fuente de 9V/5A para poder alimentar todas las sondas de censado desplegadas desde la unidad principal. La pantalla LCD para la visualización local de parámetros y menús se conecta a los puertos I2C de la RPi, pines 27 y 28. Los tres botones, para la selección de funciones, se conectan a los puertos GPIO13, GPIO19 y GPIO26. Se aprecia también en la Fig. 4 el uso de una pequeña placa de extensión, identificada con el no.2, el módulo MAX485. Este permite el soporte de la interfaz de comunicación con los sensores distantes. Esta placa y los botones se alimentan con 3.3V, voltaje aportado por la propia placa RPi. Los dos módulos de distribución enchufables de 8 posiciones y 4 pines (no.6 en la Fig. 4), son los que permiten materializar el bus RS485 en el equipo, para la conexión de hasta 16 sondas de humedad y temperatura, si fuera necesario, aunque solo se alambran nueve en esta versión. De cada una de estas posiciones se conecta un cable interno a la unidad principal, para llevar los 4 hilos del bus RS485 hasta los sockets de conexión M12, a los que se conectan exteriormente los cables de larga longitud para alcanzar los sensores. Diseño de los módulos conversores de interfaz En la Fig. 5 se muestra la estructura de los conversores de interfaz. Estos cumplen con la función de convertir la interfaz de comunicación de RS485 a I2C, para el intercambio de señales entre la unidad principal y los sensores. Estas unidades emplean un Arduino Nano y una placa MAX485 alimentados con 9V y 3.3V respectivamente. Los 9V se inyectan por el cable de conexión desde la unidad principal. La interfaz de comunicación I2C no soporta grandes distancias de cable, por esta razón es necesario convertirla a RS485. Se tendrán tantas unidades como sensores se vayan a desplegar, como máximo nueve inicialmente. Figura 5: Esquema eléctrico interno de las unidades de conversión de interfaz. (1) Arduino Nano (2) Módulo MAX485 (3) Conector hembra M12 Variantes previstas para las sondas de muestreo Las variantes comerciales de este tipo de instrumento son suministradas por lo general con dos tipos de sonda para el censado de temperatura y humedad. Una de ellas se destina a la medición de estos parámetros en el ambiente, el otro tipo se emplea para tomar muestras en el interior de los pilones de tabaco en fermentación, por ejemplo, o durante el proceso de añejamiento. Este segundo tipo de sondas son las llamadas sondas de inserción. Afortunadamente, el primer tipo de sondas puede ser adquirida directamente ya que está disponible en sitios de venta electrónica [26, 27]. El otro tipo de sonda, de inserción, son de aplicación más especializada y no se encuentran disponibles comercialmente como las primeras, al menos no independientemente. Para que el equipo cuente con una sonda de este tipo es necesario proponer un diseño alternativo. Figura 7: Propuesta de diseño alternativo de sonda de inserción para el muestreo de temperatura y humedad en biomasa de tabaco. (1) Tubo cromado de 300 o 500mm (2) Extensor M10 macho-macho (3) Adaptador M12 hembra a M10 macho (4) Conector hembra M12 (5) Conector macho M12 (6) Carcasa de acero sinterizado protectora de sensor A partir de partes y piezas que si están disponibles comercialmente se ha propuesto la variante de sonda de inserción que se muestra en la Fig. 7. Los tubos que forman el cuerpo de la sonda pueden venir en longitudes de 300mm o hasta de 500mm, lo cual da cierta libertad para armar sondas de diferentes tamaños en función de las necesidades que se tengan. Uniendo más o menos secciones tubulares se pueden lograr sondas de la longitud que se requiera. La que se muestra en la Fig. 7 es una propuesta, que tiene poco más del doble de la longitud de la sonda comercial de referencia, la HC2-HP28 de ROTRONIC con longitud de 280mm. Con una sección tubular y los componentes adecuados se puede armar una sonda próxima en longitud a la de referencia, de aproximadamente 400mm de longitud, esta flexibilidad se logra con el diseño propuesto. El resto de los elementos que la conforman son adquiribles también en los sitios de venta electrónica mencionados con anterioridad. Arquitectura general del sistema La Fig. 8 muestra la arquitectura general del sistema propuesto. Este consta de los termohigrómetros diseñados, que constituyen los nodos sensores y que pueden ser más de uno, tributando información de monitoreo de diversos procesos de curado simultáneamente. Debido a las características de esta aplicación en concreto, las casas y baterías de curado de tabaco pueden ubicarse por lo general en locaciones remotas o poco pobladas, donde las variantes de conectividad disponibles pueden ser limitadas. Es por eso que el sistema propuesto brinda varias posibilidades de conexión a la red, tanto por WiFi o por una conexión de red Ethernet, ambas vías disponibles a nivel de la placa RPi, o incluso el sistema podría conectarse a través de la red móvil, donde opcionalmente se puede equipar el módulo principal con una placa de extensión adicional que permita dicha conexión. Esta placa en particular no se ha incluido en el diseño en esta versión, aunque podría incorporarse si fuera necesario. Figura 8: Arquitectura general del sistema propuesto. La versatilidad de la propuesta permite que la información a registrar sea subida a la nube ya sea empleando una conexión WiFi, por la red móvil celular o mediante una conexión de red LAN, según la disponibilidad en el sitio de despliegue. La plataforma de IoT en la nube Mediante la variante de conectividad que esté disponible en el sitio, se establece la comunicación entre el nodo intermedio, constituido por la propia placa RPi, que agrupa además las funciones de puerta de enlace y cliente MQTT1 contra la plataforma en la nube. Dicha plataforma debe ser accedida mediante cualquier dispositivo, fijo o móvil, con conexión a la red para realizar tareas de monitoreo de los procesos de curado, en tiempo real. La selección de la plataforma de IoT puede llegar a ser compleja, producto de una infinidad de factores a tener en cuenta como: protocolos de transporte que permiten, instalación en nube privada, clientes móviles, capacidad de procesamiento, entre otras. Para la adquisición y persistencia de las variables del proceso de curado se selecciona la plataforma ThingsBoard [10, 11]. Esta permite la recolección de datos, procesamiento, visualización y gestión de dispositivos. La conexión de los dispositivos es a través de protocolos IoT estándar de la industria y admite implementaciones en la nube y locales. Combina escalabilidad, tolerancia a fallas y rendimiento para no perder datos. Criterios de seguridad a emplear en la seguridad de la información De la información que generan los nodos sensores depende la calidad de un producto clave para el país. La fabricación, modificación o eliminación no autorizada de alguno de estos pudiera provocar grandes perdidas para la economía cubana. Por este motivo se tiene una especial importancia la seguridad de los datos desde que se generan hasta que se almacenan en la plataforma en la nube. En este sentido se presentan diferentes niveles para garantizar la seguridad de los datos, la cual se muestra en la Tabla 2. Los 1 Protocolo de mensajería estándar de OASIS para IoT. MQTT se utiliza en una amplia variedad de industrias, como automotriz, fabricación, telecomunicaciones, petróleo y gas, etc. datos son encriptados desde que se transmiten hasta que son guardados en la base de datos de la plataforma. Tabla 2: Niveles de seguridad de la información aplicados [11]. Nivel Dispositivos Usuarios 1 VPN VPN (Administración) 2 MQTTS (SSL/TLS) HTTPS (SSL/TLS) 3 Visualización por roles 4 Restricción de acceso a la base de datos La comunicación, ya sea de un dispositivo (RPi) o usuario, se encuentra bajo protocolos de encriptamiento para lograr la confiabilidad de la información que se transmite. Las Redes Privadas Virtuales (VPN, por las siglas del término en inglés, Virtual Private Network) son de uso obligatorio en los dispositivos ya que estos generan los datos, los cuales pueden ser alterados por un atacante en la ida hacia el servidor (ver Nivel 1 de la Tabla 1). Para su implementación se emplea el programa OpenVPN, de código abierto, tanto en el cliente como en el servidor. En el segundo nivel se define el protocolo que se emplea para la transmisión de la información entre la plataforma y los dispositivos/usuarios, MQTTS/HTTPS respectivamente, ambos emplean métodos de cifrado de los datos. El tercer nivel es para los usuarios, estos solo podrán visualizar la información relacionada con el proceso de monitoreo que les corresponda. El cuarto nivel limita el acceso a la base de datos. El servidor será la única entidad con este privilegio. Se emplea el algoritmo PBKDF2 junto con la función hash SHA256 para la autenticación. Adicionalmente, en el servidor se implementa un cortafuegos para evitar la exposición a Internet de puertos vulnerables o abiertos innecesariamente. Solo se aceptan las conexiones a través de los puertos precisos para la implementación de la plataforma. Esta función se realiza con la herramienta iptables2. 5. RESULTADOS OBTENIDOS MEDIANTE SIMULACIÓN En [10] se realiza una simulación a través de una maqueta diseñada a escala de una casa de curado controlado de las hojas de tabaco. En esta se pone en funcionamiento el sistema, siendo capaz de medir de forma ininterrumpida los parámetros medioambientales de temperatura y humedad relativa. Se visualizan los valores en tiempo real y de forma sencilla de interpretar. También se generan alertas y alarmas según el criterio definido. En la Fig. 9 se muestra cómo se visualizan los datos en la plataforma. Se puede apreciar una vista del histórico mediante gráfica y el último valor adquirido. Figura 9: Visualización desde la plataforma de los datos adquiridos por un sensor del sistema. 2 Programa de línea de comandos que se utiliza para configurar el cortafuegos del kernel de Linux. En la Fig. 10 se aprecia la distribución de temperatura en distintos intervalos de tiempo. El código de color empleado sugiere el azul como temperaturas bajas y el naranja como las altas. Figura 10: Distribución de temperatura en la maqueta en distintos intervalos. a) Tiempo inicial �0. b) En �0+ ∆�. c) En �0+ 2∆�. d) En �0+ 3∆�. En ella se observa que dicha distribución no es homogénea, siendo la esquina inferior izquierda la más cálida. El estudio de los datos adquiridos permite analizar las variaciones de los parámetros medioambientales en todo el volumen de una casa de curado. 6. CONCLUSIONES El presente trabajo propone un diseño alternativo de sistema de monitoreo en tiempo real, empleando técnicas de IoT, para su uso en el control y estudio de parámetros de los procesos de curado controlado de tabaco. El aporte fundamental radica en que la propuesta de equipo presentada puede ser materializada a costos significativamente inferiores a los de instrumentos comerciales con niveles de exactitud similares, que se emplean hoy en el país. Como elemento ventajoso con respecto a las variantes comerciales, además del costo inferior, se tiene el hecho de que el diseño propuesto permite la conexión simultánea de hasta 9 sondas para el censado de humedad y temperatura, lo cual facilita a productores e investigadores llevar de forma más precisa el control del proceso de curado de tabaco y realizar estudios sobre las variaciones de estos parámetros a lo largo de todo el proceso. Adicionalmente, la funcionalidad de registro remoto de la información censada en una plataforma IoT en la nube, en tiempo real, constituye un aporte importante y un incremento en el nivel de prestaciones ofrecidas por el diseño propuesto en comparación con el equipamiento importado del que se dispone actualmente en el país. La presente propuesta está siendo evaluada por el consejo científico del IIT, de resultar factible luego de la realización de pruebas al prototipo inicial, podría generalizarse su uso por productores y centros de investigación en el país, contribuyéndose de esta forma a la sustitución de importaciones y a la reducción de costos en divisas por este concepto en la industria tabacalera cubana. RECONOCIMIENTOS Los autores desean agradecer al MSc. Noel A. Hernández González, investigador auxiliar y jefe de proyectos de investigación y desarrollo del IIT, por su experiencia, el tiempo dedicado y las numerosas atenciones y recomendaciones recibidas de su parte para la confección de la propuesta de equipo que se presenta en este trabajo. REFERENCIAS 1. ROTRONIC Measurement Solutions. [en línea]. [ref. 5 de mayo 2022]. Disponible en: https://www.rotronic.com/ 2. HYGROPALM - HP23-AW-A - PORTABLE WATER ACTIVITY ANALYZER. [en línea]. [ref. 5 de mayo 2022]. Disponible en Web: https://www.rotronic.com/en-us/hygropalm23-aw-hp23-aw 3. ROTRONIC. Humidity sensor Hygromer IN-1. The perfect solution for rough industrial applications. [en línea]. [ref. 5 de mayo 2022]. Disponible en Web: https://pdf.directindustry.com/pdf/rotronic-ag/hygromer-in- 1/14766-717309.html 4. ROTRONIC. Humidity sensor Hygromer HH-1/SK. The perfect solution for industrial applications. [en línea]. [ref. 5 de mayo 2022]. Disponible en Web: https://www.rotronic.com/pub/media/productattachments/files/5/9/59043e_datenblatt_sensor_ht-1.pdf 5. ROTRONIC. Humidity sensor Hygromer HH-1/SK. The perfect solution for rough chemical environments. [en línea]. [ref. 5 de mayo 2022]. Disponible en Web: https://www.rotronic.com/pub/media/productattachments/files/5/9/59012e_sensor_hh-1_sk_1.pdf 6. VAISALA. Selecting the right filter for humidity instruments. [en línea]. [ref. 5 de mayo 2022]. Disponible en Web: https://m.show-em.com/sites/default/files/documents/Vaisala- filters-datasheet-B212408EN.pdf 7. ROTRONIC. Filter/Filter carrier NSP-PCB-PE. [en línea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://www.rotronic.com/en/humidity-measurement-feuchtemessung-temperaturmessungs/humidity-measurement- feuchte-messung/probes-hygroclip2-fuehler/filter/nsp-pcb-pe 8. ROTRONIC. Filter/Filter carrier NSP-ME-SS. [en línea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://www.rotronic.com/en/humidity-measurement-feuchtemessung-temperaturmessungs/humidity-measurement- feuchte-messung/probes-hygroclip2-fuehler/filter/nsp-me-ss 9. THINGBOARD. Open Source IoT Platform. Device management, data collection, processing and visualization for your IoT solution. [en línea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://thingsboard.io/ 10. BALOIRA REYES, Ariel. "Sistema distribuido de IoT para la monitorización de la temperatura y la humedad en una casa de curado controlado de tabaco". Director: Dioen Biosca. Tesis de grado. 10.13140/RG.2.2.27652.86406/1. Instituto Superior Politécnico José Antonio Echeverría, Ciudad de La Habana, 2020. 11. BALOIRA REYES, Ariel; BIOSCA ROJAS, Dioen. "Sistema IoT para el monitoreo y control remoto del proceso de curado de tabaco de alto rendimiento". Proceedings del X Simposio Internacional de Telecomunicaciones. XVIII convencion y feria internacional Informatica 2022. ISBN 978-959-7255-02-4. marzo 2022. 12. VAISALA. Tecnologia HUMICAP de Vaisala. [en linea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://www.vaisala.com/es/vaisala-humicapr-technology 13. ATH10 Nota de aplicación (PDF) - Astec America, Inc. [en línea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://www.alldatasheet.es/datasheet-pdf/ATH10 14. Humidity Sensor BME280 - Bosch Sensortec. [en línea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://www.bosch-sensortec.com 15. BPS240 Series 2 mm Humidity Sensor - Bourns. [en linea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://www.bourns.com/product-datasheets/BPS240.pdf 16. Overview of DHT11, DHT22 and AM2302 Sensors - Adafruit. [en línea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://learn.adafruit.com/dht 17. ScioSense ENS160 Evaluation Kit - Mouser Electronics. [en línea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://ar.mouser.com/new/sciosense-ens160-eval-kit 18. HCT01 humidity sensor - epluse. [en linea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://www.epluse.com/products/humidity-instruments/hct01 19. HS3103 - Relative Humidity and Temperature Sensor. [en línea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://www.renesas.com/products 20. Humidity - Sensirion AG. [en linea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://sensirion.com/products/product-category/humidity 21. SHT85 - ±1.5% Digital pin-type humidity and temperature. [en línea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://sensirion.com/catalog/SHT85.pdf 22. Si7013-A20 Data Sheet - Silicon Labs. [en linea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://www.silabs.com/documents/public/Si7013.pdf 23. HTU31 Humidity and Temperature Combination Sensor. [en línea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://www.te.com/usa-en/prod 24. Temperature & Humidity Sensors - HOPE MicroElectronics. [en línea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://www.hoperf.com/sensor 25. GILDA, Sagar S; SCHOBER, Joseph M; McPHERSON, Timothy. “Design and Performance of an Inexpensive Water Activity Meter”. International Journal of Pharmaceutical Compounding, 2021, vol. 25, núm. 1, pp.: 48 - 51. 26. Cable de línea de sensor de temperatura y humedad. [en línea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://es.aliexpress.com/item/1005002861340818.html?spm=a2g0o.detail.1000023.6.651678c4PljV6M&gatewayAd apt=glo2esp 27. Cable de sonda de sensor de temperatura y humedad. [en línea]. [ref. de 5 de mayo 2022]. Disponible en Web: https://www.amazon.com/-/es/Taidacent-Outdoor-Temperatura-Atmosf%C3%A9rica- Barom%C3%A9trica/dp/B08Y5KZSR2/ref=sr_1_5?__mk_es_US=%C3%85M%C3%85%C5%BD%C3%95%C3%9 1&crid=YA09XGRIYQ8K&keywords=BME280&qid=1654622892&sprefix=bme280%2Caps%2C262&sr=8- 5&th=1 Sobre los autores Dioen Biosca Rojas: Es profesor titular adjunto de la Facultad de Telecomunicaciones de la Universidad Tecnológica de la Habana “José Antonio Echeverría” CUJAE. Obtuvo el grado de doctor en ciencias técnicas en 2005 en la propia universidad. Sus intereses de investigación están relacionados con los sistemas de IoT, así como las redes de comunicaciones en general Ariel Baloira Reyes: Es graduado de ingeniería en Telecomunicaciones y Electrónica de la Universidad Tecnológica de la Habana “José Antonio Echeverría” CUJAE en 2020. Actualmente se desempeña como investigador de la Facultad de Telecomunicaciones de la CUJAE, sus intereses de investigación están vinculados con los sistemas IoT de monitoreo y control distribuido, así como la seguridad en redes. IMPACTO DEL PARÁMETRO RADIOMETEOROLÓGICO INTENSIDAD DE PRECIPITACIONES SOBRE LOS SISTEMAS 5G EN LAS CONDICIONES PARTICULARES DE CUBA Vladimir Conde Williams1, Lanyer Pérez Garlobo2, José Luis Fuentes Lorenzo2 1Prof Aux., Ing. Vladimir Conde Williams, M.Sc, Escuela Interarmas de las FAR General “Antonio Maceo”, Caimito, Artemisa, Cuba, 2Prof.Tit., Ing, Lanyer Pérez Garlobo, Dr. C 2, Instituto Técnico Militar José Martí, ITM, calle 66-A y 45, Marianao, La Habana, Cuba, 3Ing, José Luis Fuentes Lorenzo, M.Sc, Centro de Gestión Nacional de ETECSA, 19 y B, Vedado, Plaza de la Revolución, La Habana, Cuba 1cwilliams@nauta.cu 2lanyer1978@gmail.com 3joselfuentes@etecsa.cu RESUMEN El esfuerzo que realiza el país en cuanto al desarrollo y sostenimiento de la infraestructura de telecomunicaciones en aras de lograr un mayor acceso a la banda ancha, demanda el planeamiento y diseño de redes de microondas con vistas a la futura evolución hacia los sistemas 5G. En la banda milimétrica donde operan estos sistemas, las precipitaciones en forma de lluvia se erige como el principal factor degradante del enlace radioeléctrico, siendo necesario la evaluación del impacto del parámetro radiometeorológico “intensidad de precipitaciones” (R0.01) sobre los sistemas de radiocomunicaciones en las condiciones particulares de Cuba. Actualmente, durante el cálculo de la atenuación por lluvia en los Radioenlaces Terrenales del Servicio Fijo (RESF), Sistemas de Radiocomunicaciones por Satélites (SRCS) y otros sistemas, son consideradas valores a macroescala del parámetro radiometeorológico, lo que influye en la distancia máxima de los enlaces. En tal sentido, se evalúa el impacto de las precipitaciones en forma de lluvia sobre los sistemas de radiocomunicaciones ubicados en la región de estudio, que abarca las provincias de Artemisa, la Habana y Mayabeque. PALABRAS CLAVES: atenuación por lluvia, intensidad de precipitaciones, microondas, sistemas 5G ABSTRACT The effort made by the country in terms of the development and maintenance of the telecommunications infrastructure in order to achieve greater access to broadband, demands the planning and design of microwave networks with a view to the future evolution towards 5G systems. In the millimeter band where these systems operate, precipitation in the form of rain stands as the main degrading factor of the radioelectric link, making it necessary to evaluate the impact of the radiometeorological parameter "precipitation intensity" (R0.01) on Radiocommunication systems. in the particular conditions of Cuba. Currently, during the calculation of the attenuation due to rain in the Terrestrial Radio Links of the Fixed Service (TRFS), Satellite Radiocommunication Systems (SRS) and other systems, macroscale values ​ ​ of the radiometeorological parameter are considered, which influences the maximum distance of the links. In this sense, the impact of precipitation in the form of rain on the radio communication systems located in the study region, which includes the provinces of Artemisa, Havana and Mayabeque, is evaluated. KEYWORDS: rain attenuation, rain rate, microwave, 5G systems. 1. INTRODUCCIÓN Las precipitaciones que tienen lugar en la troposfera, para frecuencias superiores a 6 GHz, provocan la disminución de la potencia disponible de recepción en los SRCS y en los RESF, afectando la calidad de servicio que estos deben asegurar [1], [2]. Esta atenuación, resulta apreciable durante la ocurrencia de eventos de lluvias torrenciales, niebla, nieve, granizo, nubes u otros factores meteorológicos presentes en las capas inferiores de la tropósfera, resultando en ocasiones tan severas que se interrumpe la radiocomunicación [1]. Es por ello, que la valoración del impacto de este fenómeno sobre los enlaces radioeléctricos, resulta de vital importancia en aras de lograr la mayor efectividad durante las etapas de cálculo, diseño y modelación de los sistemas. El surgimiento de nuevos servicios de telecomunicaciones que demandan mayores anchos de banda [3], conlleva al empleo de frecuencias cada vez más altas del espectro, donde la lluvia se convierte en el principal factor degradante de la disponibilidad por propagación en los sistemas de radiocomunicaciones, [4], [5]. Para evaluar esta influencia, es necesario determinar la atenuación por lluvia durante porcentajes de tiempo específicos y para frecuencias superiores a 6 GHz [1]. La degradación producto de la lluvia Ap (dB) en los radioenlaces terrenales [6], se define como: ( ) ( ) efp LpRpRA ×= ,, g (1) Siendo:( )pR ,g : Atenuación específica inducida por la lluvia (dB/km). R: Intensidad de las precipitaciones (mm/h). p: Porcentaje de tiempo (%). Lef: Longitud efectiva del trayecto (km). En consecuencia, la atenuación específica ó unidad por unidad de distancia [7], expresada en dB/km, se expresa a través de la ley de potencial: ( ) ag RpR k ×=, (2) Donde los coeficientes k y α son coeficientes de regresión los cuales dependen de la distribución del tamaño de las gotas de lluvia (DSD, por sus siglas en inglés), temperatura, frecuencia y polarización de la onda. Como se aprecia, el cálculo de la atenuación por lluvia depende fundamentalmente de la estadística del parámetro radiometeorológico “intensidad de precipitaciones” excedida el 0.01 % del tiempo ó porcentaje de interés R0.01 [6]. En la actualidad la mayoría de los métodos de predicción de la atenuación por precipitaciones [8], evalúan valores de R0.01 a macroescala ó extrapolan estos a otros tipos clima, lo que no permite estimar correctamente el comportamiento local de esta variable. Por consiguiente, la UIT-R recomienda emplear valores locales que consideren la variabilidad espacio-temporal de la lluvia [9]. En tal sentido, en el artículo se consideran las estadísticas del parámetro radiometeorológico R0.01 obtenidas para las condiciones locales [10]. 2 VALORACIÓN DEL IMPACTO DE LA INTENSIDAD DE PRECIPITACIONES SOBRE LOS SISTEMAS DE RADIOCOMUNICACIONES El esfuerzo que realiza el país en cuanto al desarrollo y sostenimiento de la infraestructura telecomunicaciones en aras de lograr un mayor acceso a la banda ancha [11], conlleva al empleo de un conjunto de tecnologías, entre las que figuran los radioenlaces de microondas. En tal sentido, el desarrollo paulatino de nuevos servicios de telecomunicaciones provoca un uso creciente del espectro de frecuencia y en donde la lluvia entre otros factores, manifiesta una marcada influencia, [3], [5]. Por consiguiente, se hace necesario evaluar el impacto del parámetro radiometeorológico “intensidad de precipitaciones”, para lo cual se valoran algunos sistemas de radioenlaces de microondas representativos de la infraestructura de comunicaciones actual y futura del país. Definición de los indicadores de impacto. Para la valoración del impacto sobre los sistemas se establecen los siguientes indicadores: 1. Atenuación por lluvia. 2. Distribución espacial de la atenuación específica o atenuación por unidad de distancia. 3. Alcance ó distancia máxima del enlace. En el caso del primer indicador, se considera la estimación de la atenuación por lluvia expresada en dB, de acuerdo a la frecuencia en GHz, la distancia en km y la intensidad de precipitaciones propia de la región considerada, expresada en mm/h. El objetivo que se persigue se centra en obtener las curvas características que permitan predecir el impacto del hidrometeoro considerando valores específicos del parámetro radiometeorológico “intensidad de precipitaciones”, para las diferentes bandas de operación de los sistemas. El segundo indicador tiene como objetivo, evaluar cómo se distribuye espacialmente la atenuación específica inducida por la lluvia, expresada en dB/km, en cada una de las zonas que conforman la región, considerando datos locales. En tal sentido, se consideran los valores de R0.01 a largo plazo y estacionales para el período poco lluvioso y lluvioso respectivamente. Por último, el indicador de alcance ó distancia máxima del enlace, tiene como finalidad determinar el alcance expresado en km de los sistemas en un área determinada. Para ello, se evalúa la influencia del parámetro radiometeorológico en cada porcentaje de análisis y se compara el resultado obtenido, teniendo en cuenta el valor R0.01 para las condiciones locales y a macroescala propuesto por la UIT-R. Ello permite disminuir los costos asociados al despliegue innecesario de sistemas repetidores durante el diseño de los enlaces radioeléctricos. Valoración del impacto la atenuación por lluvia. Para evaluar el impacto de la atenuación por lluvia se realizó una valoración de algunos de los sistemas de microondas que forman parte de la infraestructura del Sistema de Radiocomunicaciones Móviles (SRCM) presente y futura del país, según se muestra en la figura 1. Figura 1 Radioenlaces de microondas considerados en el análisis. Las características asociadas en cuanto a la banda de frecuencia empleada y esfera de aplicación, son mostradas en la tabla 1. Tabla 1 Bandas de frecuencias y aplicación de algunos de los sistemas de microondas empleados en la infraestructura de comunicaciones actual. En los sistemas evaluados la frecuencia con mayor presencia en los enlaces es la de 15 GHz. No obstante, el análisis se centra en la frecuencia de 80 GHz, considerando su empleo inmediato como soporte a los servicios de la red 5G del país [12]. En la valoración, sólo se considera la polarización horizontal, teniendo en cuenta la notable influencia de la intensidad de precipitaciones sobre las ondas radioeléctricas que emplean esta polarización [1], [13]. Los valores a considerar del parámetro radiometeorológico “intensidad de precipitaciones” para los porcentajes R0.1, R0.01 y R0.001, son los obtenidos para las condiciones locales a nivel de región y se cuantifican en 14.58, 64.65 y 113.41 mm/h respectivamente [10]. Estos porcentajes responden a los niveles de disponibilidad de los sistemas para el 99.9, 99.99 y 99.999 % en cada caso. Dentro de este marco, se obtuvieron las curvas para la frecuencia de 80 GHz con el empleo de la herramienta computacional Matlab versión R 18. En rigor, se aprecia una adecuada representación del fenómeno, mostrando una correspondencia entre la atenuación, la distancia y los valores considerados del parámetro radiometeorológico “intensidad de precipitaciones” (figura 2). Figura 2 Atenuación por lluvia en función de la distancia para la frecuencia de 80 GHz. Como se observa, para una distancia de referencia de 10 km y considerando las estadísticas del parámetro radiometeorológico para el valor de R0.01, la atenuación toma un valor de 70 dB por encima en relación a la frecuencia de 15 GHz. Es por ello que la planificación de enlaces radioeléctricos en esta frecuencia constituye un reto para los diseñadores durante el despliegue de los sistemas que soportarán los futuros servicios 5G. Denominación del sistema Frecuencia (GHz) Esfera de aplicación 7 15 23 70 80 Civil RTN -605 1F x x x Backhaul (SRCM) y Fronthaul (última milla) RTN -320 x x x Backhaul (SRCM) y Fronthaul (última milla) ALFOPlus 80HDX x x Futuro Backhaul (SRCM) Este tipo de curvas, constituyen una herramienta útil para la evaluación práctica de la atenuación por lluvia para un sistema y distancia particular. Valoración del impacto de la atenuación específica inducida por la lluvia. Sobre esta perspectiva, se valora el comportamiento de la atenuación específica inducida por la lluvia [7], considerando la estadística del parámetro radiometeorológico “intensidad de precipitaciones” (R0.01) para la región de estudio a largo plazo y para los periodos poco lluvioso y lluvioso. Para el análisis estacional, se tiene en cuenta los meses que muestran un comportamiento extremo de la “intensidad de precipitaciones” para la época poco lluviosa (enero) y lluviosa (julio) [10]. El análisis en la frecuencia de 80 GHz para el período a largo plazo (figura 3), exhibe una tendencia en la distribución de los campos bastante similar al obtenido para la frecuencia de 15 GHz en igual período [10]. La exactitud de los resultados responde a la calidad del dato de “intensidad de precipitaciones” evaluado. Esta estadística fue obtenida a partir del procesamiento en masa aplicado a los registros de lluvia emitidos por los pluviógrafos de las provincias de Artemisa, La Habana y Mayabeque, pertenecientes al Instituto de Meteorología. Esta entidad, aseguró la debida certificación de los instrumentos en superficie empleados [10]. En esta banda, la atenuación específica toma valores, en un intervalo desde 23.37 dB/km en el centro de la región y disminuyen paulatinamente, hasta tomar el valor de 20.24 dB/km al extremo este del área. Estas cifras, superan a las obtenidas para la frecuencia de 15 GHz en 18.26 y 16.26 dB/km en cada caso. En función de lo planteado, los mayores valores se presentan en la zona central de la región, donde las isolíneas describen valores en el orden de 23.37 a 23.03 dB/km, superando en 18.26 y 18.20 dB/km al estudio realizado en la frecuencia de 15 GHz [10]. Hacia el oeste de la región, la variable se describe en un rango entre 22.74 y 21.51 dB/Km, el cual excede en 17.81 y 17.16 dB/Km en relación a la frecuencia precedente. A su vez, es inferior respecto a la zona central en un intervalo entre 0.83 y 1.34 dB/Km. Figura 3 Comportamiento de la atenuación específica inducida por la lluvia para la frecuencia de 80 GHz, considerando las estadísticas del parámetro radiometeorológico Intensidad de Precipitaciones (R0.01) a largo plazo a nivel de región, empleando polarización horizontal. Al este del área considerada, los campos de la variable se discurren en un intervalo entre 22.74 y 20.24 dB/Km, lo que constituye entre 0.63 y 2.81 dB/km menos, respecto a la zona central. En zona costera norte (estación de Bahía Honda), la atenuación específica toma valores entre 22.47 y 22.13 dB/km, lo que representa 0.9 a 0.92 dB/km menos de afectación en comparación con la zona central. A su vez, en el área donde se encuentra la estación de Casablanca, la variable se cuantifica en un intervalo entre 21.50 a 20.88 dB/km, lo que representa 1.87 a 2.17 dB/km menos de afectación sobre las ondas radioeléctricas en relación al centro de la región. En la zona costera sur, donde se encuentra la estación de Batabanó, la atenuación específica toma valores entre 23.05 y 22.44 dB/km y representa una disminución en relación a la zona de mayor valor en 0.32 a 0.61 dB/km. De lo descrito se infiere que las áreas periféricas de la región, en especial las cercanas a la costa, manifiestan la menor afectación por lluvia sobre las ondas radioeléctricas para la frecuencia considerada y por ende representan el entorno preferible para el despliegue de sistemas radioeléctricos. El análisis aplicado durante la época de menor manifestación del fenómeno de la lluvia (figura 4), exhibe una representación bastante análoga al realizado en la frecuencia de 15 GHz, en igual período [10]. En rigor, los campos de atenuación específica describen un incremento paulatino del centro hacia las costas en un intervalo desde 18.95 hasta 21.30 dB/km y un decremento desde igual punto hacia las longitudes oeste y este, entre 18.50 hasta 16.15 dB/km. Ello representa un incremento de 15.28 a 17 dB/km (centro-costas) y 14.96 a 13.35 dB/km (centro-oeste, este) en relación a la frecuencia de 15 GHz [10]. Figura 4 Comportamiento de la atenuación específica inducida por la lluvia para la frecuencia de 80 GHz, considerando las estadísticas del parámetro radiometeorológico Intensidad de Precipitaciones (R0.01) para el período poco lluvioso (mes de enero) a nivel de región, empleando polarización horizontal. Al noroeste y noreste de la región, en la zona donde se ubican las estaciones de Bahía Honda y Casablanca respectivamente, la atenuación específica presenta intervalos de 19.42 a 20.85 dB/km y 18.95 a 19.42 dB/km en cada caso. Estos valores, representan 0.47 dB/km más de atenuación específica en relación a la zona central. La zona costera sur, donde se ubica la estación de Batabanó, muestra un rango de la variable entre 18.95 y 19.90 dB/km, superando al valor obtenido para la zona central en 0.95 dB/km y en un rango entre 15.28 a 15.98 dB/km en comparación a la frecuencia precedente (15 Ghz). En consecuencia, para esta frecuencia y época del año considerada, las regiones oeste y este de la región, exhiben los menores valores en comparación a las costas, mostrando un rango entre 0.45 a 5.15 dB/km menos de atenuación específica, lo que representan por ende el área más adecuada para el planeamiento de sistemas. Entre tanto, la valoración realizada para el mes de julio (figura 5), exhibe una distribución decreciente de los campos de la variable del centro hacia la periferia de la región, la cual excede al estudio a largo plazo en 1.76 a 3.18 dB/km y en 6.18 a 2.12 dB/km respecto al mes de enero. En la zona central, la atenuación específica muestra un incremento de la variable en relación a la frecuencia precedente en igual área de 19.46 a 19.28 dB/km. Hacia el oeste de la región, la atenuación específica toma valores entre 24.65 y 24.04 dB/km, lo que representa 0.48 a 0.76 dB/km menos de atenuación respecto a la zona central y 19.13 a 18.74 dB/km superior en relación a la frecuencia de 15 GHz. Al este, los campos de la variable se distribuyen en un intervalo entre 24.65 a 23.42 dB/km y muestran un rango entre 0.48 a 1.38 dB/Km menos respecto a la zona central. A su vez, exhibe valores superiores en relación a la frecuencia de 15 GHz en 19.13 a 18.35 dB/km. Figura 5 Comportamiento de la atenuación específica inducida por la lluvia para la frecuencia de 80 GHz, considerando las estadísticas del parámetro radiometeorológico Intensidad de Precipitaciones (R0.01) para el período lluvioso (mes de julio) a nivel de región, empleando polarización horizontal. En la zona costera norte, donde se ubica la estación de Bahía Honda, la atenuación específica se describe en un rango entre 24.80-24.65 dB/km, lo que representa 0.33 a 0.15 dB/km menos de afectación en comparación con la zona central. Además, supera al valor obtenido para la frecuencia de 15 GHz [10].en igual área en 19.20-19.13 dB/km. Por otra parte, en la zona donde se encuentra la estación de Casablanca, la variable se muestra en un intervalo entre 24.35 a 23.88 dB/km, lo que constituye 0.78 a 0.92 dB/km menos de influencia del hidrometeoro sobre las ondas radioeléctricas en relación al centro de la región. A su vez, se supera el valor en relación a la frecuencia de análisis precedente en 18.98 a 18.66 dB/km. En la zona costera sur, la atenuación específica toma valores entre 24.04 y 23.10 dB/km y representa una disminución en relación a la zona de mayor valor en un intervalo entre 1.09 y 1.7 dB/km. En rigor, se supera al valor obtenido para la frecuencia de 15 GHz en un rango desde 18.67 hasta 18.18 dB/km. Para este período en particular se muestra que para lograr la menor influencia de las precipitaciones en forma de lluvia sobre los enlaces de microondas a realizar, se debe considerar las zonas costeras. En estas áreas, la atenuación específica describe una diferencia máxima respecto a la zona central de la región de 1.7 dB/km menos. De forma general, para cada período considerado se muestra una correspondencia entre las estadísticas del parámetro radiometeorológico “intensidad de precipitaciones” obtenido [10], según la época del año y la atenuación específica inducida por la lluvia. Este resultado posibilita una adecuada distribución de los enlaces a partir de conocer a priori las posibles afectaciones de un enlace en la ubicación de interés. A su vez, el empleo de estos gráficos constituye una herramienta práctica, para la obtención de los valores de atenuación específica en lugares en los que no existen datos del parámetro radiometeorológico “intensidad de precipitaciones”. Valoración del impacto sobre el alcance de los sistemas. Para la valoración del impacto del parámetro radiometeorológico “intensidad de precipitaciones” sobre el alcance de los sistemas radioeléctricos, se consideran los parámetros eléctricos del equipamiento de microondas digital presente en la infraestructura de comunicaciones de la región en cuestión (tabla 2). A su vez, para el análisis se valoran las pérdidas en el espacio libre y las pérdidas por absorción y dispersión ocasionadas por la lluvia, caracterizada a partir de las estadísticas del parámetro radiometeorológico “intensidad de precipitaciones” local [10] y el dato a macroescala ofrecido por la UIT-R (R 0.01= 95 mm/h). Tabla 2 Parámetros eléctricos de los sistemas considerados. En consideración, las perdidas básicas de propagación Lb (dB) serán función de las pérdidas en el espacio libre Lbf (dB) y la atenuación debida a la absorción y dispersión ocasionada por el fenómeno de la lluvia Ap (dB), teniendo en cuenta que en el trayecto, sólo se manifiesta esta pérdida en exceso (ecuación 3). ( ) ( ) ( )dBAdBLdBL pbfb += (3) Teniendo en cuenta que en los radioenlaces de microondas la frecuencia se expresa en GHz, las pérdidas en el espacio libre resultan entonces: ( ) )(log20)(log2045.92 kmdGHzfdBLbf ++= (4) Sustituyendo (4) en (3) quedaría: ( ) rdpRdfdBLbf ××++= + ),(log20log2045.92 g (5) MODULACIÓN 16 QAM Frecuencia (GHz) 7 15 23 70 80 Ganancia de las Antenas (dBi) 7 GHz 15 GHz 23GHz Potencia del transmisor (dBm) RTN -605 1F 28 20 19 - - 31 37 41 RTN -320 28 24 23 - - 31 37 41 ALFOPlus80HDX - - - 17 17 70 Ghz 80 GHz 47 50.8 Sensibilidad del receptor (dBm) BER= 10-6 RTN -605 1F -84.5 -84 -83.5 - - 31 37 41 RTN -320 -82 -81.5 -81 - - 31 37 41 ALFOPlus80HDX - - - -58.5 -58.5 47 50.8 Siendo: d: distancia del enlace, expresada en km. r: factor de distancia. En interés de determinar la variable alcance, en la ecuación (5), se hace necesario aplicar una solución numérica empleando un procedimiento iterativo en tal sentido. La valoración realizada del alcance máximo (tabla 3), considerando el valor de 14.58 mm/h, correspondiente al valor del parámetro radiometeorológico “intensidad de precipitaciones” para el 0.1 % del tiempo anual (R0.1), muestra que los radioenlaces terrenales que operan en las frecuencias de 7 y 15 GHz, no manifiestan una afectación apreciable por el fenómeno de la lluvia para las condiciones locales. En rigor, el alcance práctico asumido es el alcance máximo de visibilidad directa, el cual supera el valor de 41.7 km en cada caso. Lo anterior, responde a que las bases teóricas que fundamentan la propagación de las ondas radioeléctricas [2], impiden que los alcances teóricos obtenidos puedan ser materializados, siendo necesario establecer como limite el alcance máximo de visibilidad directa ó de horizonte. Este comportamiento se manifiesta de forma similar en la frecuencia de 7 GHz, durante la valoración del parámetro radiometeorológico para el 0.01y el 0.001por ciento del tiempo anual, correspondientes al R0.01, R0.001 respectivamente. Tabla 3. Alcance máximo considerando la influencia de la lluvia. Dentro de esta perspectiva, a partir de la frecuencia de 23 GHz se comienza a manifestar la afectación por lluvia sobre los sistemas, limitando los alcances hasta 37.1 y 40.2 km, los que corresponden a los sistemas de microondas RTN-605 1F y RTN-320, respectivamente. A su vez, estos alcances se comprometen en mayor medida, cuando se valoran las frecuencias de 70 y 80 GHz y en donde las distancias máximas, no exceden los valores de 6.5 y 6 km en cada caso. Ello demuestra la relación proporcional entre la influencia de las precipitaciones en forma de lluvia sobre las ondas radioeléctricas y la frecuencia [1]. El análisis realizado para el porcentaje de interés (R0.01), exhibe resultados coherentes entre los valores de alcance obtenidos en función del dato de intensidad de precipitaciones evaluado. En consecuencia, para la frecuencia de 15 GHz se evidencia una mayor influencia de la lluvia respecto al análisis precedente, manifestándose los mayores alcances para el valor de R0.01 local (64.65 mm/h) respecto al valor de la UIT-R (95 mm/h) considerado, el cual es superado en 6.5 km para cada sistema evaluado. Para la frecuencia de 23 GHz, se representa una diferencia de 28 km menos de alcance respecto al porcentaje anterior. Dentro de este marco, la evaluación del valor de R0.01 local, muestra una menor influencia del hidrometeoro en comparación al valor de la UIT-R, lo que propicia alcances de 3 y 3.1 km superior para cada equipamiento analizado (RTN- 605 1F, RTN-320) respecto al valor a macroescala (UIT-R). De igual forma, para las frecuencias de 70 y 80 GHz se presentan 4.4 y 4.1 km de alcance, los cuales son inferiores en comparación al análisis precedente (R0.1). En tal sentido, la distancia máxima del enlace evaluando el valor local supera al valor de la UIT-R en 0.6 y 0.5 km para cada frecuencia considerada. La valoración realizada del alcance máximo, considerando la influencia de la lluvia para el valor de 113.41 mm/h, de intensidad de precipitaciones (R0.001), plantea que los radioenlaces terrenales que operan en la frecuencia de 15 GHz, exhiben 8.7 y 9.1 km menos de alcance respecto al valor local del parámetro radiometeorológico evaluado anteriormente, lo que indica una mayor afectación por el fenómeno de la lluvia. En la banda de 23 GHz, se evidencia una afectación proporcional con la frecuencia, lo que provoca una disminución del alcance respecto a la frecuencia precedente de 5.6 Km menos para el RTN-6051F y 5.8 km inferior en el caso del RTN-320. Las frecuencias más altas consideradas en la evaluación, muestran que para el valor del parámetro radiometeorológico analizado, los alcances en cada caso no superan el valor de 1.2 km. Este valor representa 0.9 y 0.7 km menos de alcance para cada frecuencia considerada, respecto a la evaluación realizada para el porcentaje de interés (R0.01). La valoración realizada muestra resultados coherentes con los fundamentos teóricos que sustentan la física del fenómeno. En tal sentido, los mayores alcances en el caso del porcentaje de interés (R0.01), se logran a partir de evaluar las estadísticas locales del parámetro radiometeorológico “intensidad de precipitaciones”. Ello responde a la sobreestimación de la variable por parte del organismo regulatorio Además, el estudio aplicado, permite constatar que los radioenlaces de microondas que operan en la banda de 80 GHz, no exceden los 2.1 km de distancia del enlace, lo que exalta la afectación por lluvia en estas frecuencias y pondera la necesidad de estimar el comportamiento local del parámetro radiometeorológico “intensidad de precipitaciones”, durante el dimensionamiento de estos sistemas. 3. CONCLUSIONES El comportamiento de la atenuación específica inducida por la lluvia para la frecuencia de 80 GHz, muestra que durante el análisis a largo plazo y estacional para el período lluvioso, la mayor influencia del fenómeno se manifiesta en la zona central y en contraparte, la menor afectación se presenta en las áreas cercanas a las costas. En consecuencia, esta última zona, constituye el área idónea para el despliegue óptimo de sistemas radioeléctricos susceptibles al fenómeno de la lluvia. El análisis de la atenuación específica inducida por la lluvia para la época poco lluviosa, manifiesta la mayor degradación hacia las costas, por lo que las áreas del centro hacia el este y oeste respectivamente, constituyen las más adecuadas para lograr la menor influencia sobre los sistemas de radiocomunicaciones que operan en las bandas consideradas. La valoración realizada de la influencia de la intensidad de precipitaciones sobre el alcance de los sistemas a partir de considerar el valor de R0.01 permite constatar, que los mayores alcances se logran a partir del empleo de datos locales, los cuales toman valores máximos de 41.17, 20.1, 9.4 y 2.1 km de distancia del enlace y corresponden a las frecuencias de 7, 15, 23 y 80 GHz respectivamente. En la investigación desarrollada se obtuvo que, los indicadores de influencia considerados, constituyen herramientas prácticas de aplicación durante la etapa de proyección de los sistemas de radiocomunicaciones en la región de análisis. RECONOCIMIENTOS Los autores desean agradecer al Departamento de Climatología del INSMET, al Centro de Meteorología de Artemisa, La Habana y Mayabeque por su colaboración en la obtención de los datos de lluvia y al ingeniero José Luis Fuentes Lorenzo, especialista del Centro de Gestión de ETECSA. REFERENCIAS 1. HERNANDO RÁBANOS, José María. Transmisión por Radio. Sexta edición. Madrid, España Centro de estudios Ramón Areces.2008. 635 pp. ISBN-13:978-84-8004-856-9. 2. DOLUJANOV, M, P. Propagación de las ondas de radio. Editorial Mir Moscú. 1977. 414 pp. 3. Rep. UIT-R F 2323. REPORTE UIT-R F.2323-1 (11/2017). Uso del servicio fijo y tendencias futuras. Ginebra, Suiza, 2017. 4. SHAYEA, Ibraheem; RAHMAN, Tharek; HADRI, Marwan; ISLAM Rafiqul. ¨Real Measurement Study for Rain Rate and Rain Attenuation Conducted Over 26 GHz Microwave 5G Link System in Malaysia¨. Open Access Journal IEEE Access, 2018, volume 6, 5. AL-SAMAN, Ahmed, M; CHEFFENA, Michael; MOHAMED, Marshed; HADRI AZMI, Marwan; AI, Yun. ¨Statistical Analysis of Rain at Millimeter Waves in Tropical Area¨. Open Access Journal IEEE Access, 2020, volume 8, pp 51044-51061. 6. Rec UIT-R P 530. RECOMENDACIÓN UIT-R P.530-17(12/2017). Datos de propagación y métodos de predicción necesarios para el diseño de sistemas terrenales con visibilidad directa. Ginebra, Suiza, 2017. 7. Rec UIT-R P838. RECOMENDACIÓN UIT-R P.838-3.Modelo de la atenuación específica debida a la lluvia para los métodos de predicción. (Cuestión UIT-R 201/3). 2005. Ginebra, Suiza, 2005. 8. HERNÁNDEZ, RUBIO, Redelio. CONDE, WILLIAMS, Vladimir. ¨ Resumen de los métodos de estimación de la Intensidad de Precipitaciones para el cálculo de atenuación por lluvia¨. Revista Militar de Ciencia y Tecnología de las Far ¨. RNPS-2131. La Habana, 2021. 9. Rec UIT-R P-837-7. Recomendación UIT-R P.837-7 (06/2017). Características de la precipitación para establecer modelos de propagación. Ginebra, Suiza, 2017. 10. CONDE WILLIAMS, Vladimir., “Método para la obtención de la estadística del parámetro radiometeorológico “intensidad de precipitaciones”. Influencia sobre los sistemas de radiocomunicaciones en las condiciones particulares de Cuba”. Tesis presentada en opción al grado Científico de Doctor en Ciencias Técnicas. Instituto Técnico Militar ¨ José Martí ¨. La Habana 2022. 11. Proceso de Informatización de la sociedad cubana. Principales elementos de la Política Integral para el Perfeccionamiento de la Informatización de la Sociedad en Cuba. República de Cuba, Ministerio de Comunicaciones. La Habana, 30 de enero de 2018¨. 12. MESA RODRÍGUEZ, Elber, “Planeamiento y diseño de las nuevas redes de MO Broadband con vistas a la futura evolución hacia la 5G en Cuba”. Revista TONOS, ISSN: 1813-5056, RNPS: 0514, Vol. 16, No. 1, enero-junio, 2020, pp. 30 - 41, La Habana, 2020. 13. ELSEVIER. ¨Attenuation of millimetre wave radio signal at worst hour Rainfall rate in a tropical region: A case study, Nigeria¨. Journal Scientific African Nymphasa, E.F. Ibe, O. [18 march, 2022]. Disponible en Web: http://creativecommons.org/licenses/by-nc-nd/4.0. Sobre los autores Vladimir Conde Williams: Graduado como Ingeniero Radioelectrónico en Radiocomunicaciones en el año 1995 y de Máster en Radioelectrónica en 2012 (ITM). En la actualidad es profesor Auxiliar desde 2012 y Jefe de Cátedra de Comunicaciones de la EIGAM y miembro de su Consejo Científico. Se desenvuelve en el campo de la Electrodinámica, la Propagación de las Ondas de Radio y Transmisión de Datos. ORCID: 0000-0002- 2775-1600. Lanyer Pérez Garlobo: Graduado como Ingeniero Radioelectrónico en Comunicaciones en el año 2002, y de Doctor en Ciencias Técnicas (ITM) en el 2010. En la actualidad es Profesor Titular desde el 2015 y Profesor e Investigador del ITM, Miembro de su Consejo Científico y de la Comisión de Grados Científicos. Se desenvuelve en el campo de la Electrodinámica y la Propagación de las Ondas de Radio. Ha presentado trabajos en eventos nacionales e internacionales, participando en varias ediciones de CITTEL. Ha alcanzado premios a nivel nacional y ramal por resultados de investigaciones aplicadas a la rama de la Radiopropagación. ORCID: 0000-0001-7911-7807. José Luis Fuentes Lorenzo. Graduado como Ingeniero Radiotécnico en el año 1990 y de Máster en Sistemas de Radiocomunicaciones en 2008 (IPSJAE). En la actualidad es especialista de Operación y Mantenimiento de Sistemas de Microondas del Centro de Gestión de ETECSA. UN ENFOQUE GEOPOLÍTICO A LOS CONFLICTOS VINCULADOS CON LA REVOLUCIÓN DIGITAL Margot François1 1Instituto Francés de Geopolítica (IFGLab), Universidad Paris 8, Francia 1e-mail: margot.francois00@gmail.com RESUMEN Este artículo pretende demostrar la relevancia del uso del campo de la geopolítica para el análisis de los conflictos en el ciberespacio. Propone estudiar la evolución del concepto de ciberespacio en términos estratégicos hasta la noción de datasfera, ilustrando la variedad de representaciones al considerar este nuevo espacio y las luchas de poder que existan cerca de él. Subraya también los retos metodológicos que conoce la disciplina para estudiar este espacio en evolución constante. PALABRAS CLAVES: geopolítica, ciberespacio, espacio digital, datasfera. A GEOPOLITICAL APPROACH TO THE CONFLICTS RELATED TO THE DIGITAL REVOLUTION ABSTRACT This article aims to demonstrate the relevance of using the field of geopolitics for the analysis of conflicts in cyberspace. It proposes to study the evolution of the concept of cyberspace in strategic terms up to the notion of datasphere, illustrating the variety of representations when considering this new space and the power struggles that exist around it. It also highlights the methodological challenges faced by the discipline in studying this constantly evolving space. KEY WORDS: geopolitics, cyberspace, digital space, datasphere. 1. INTRODUCCIÓN La aparición de las nuevas tecnologías de la comunicación y el crecimiento exponencial del uso de Internet han revolucionado nuestro estilo de vida, modificado nuestra economía y transformado profundamente nuestro acceso a la información y la comunicación. Con la aparición del ciberespacio se multiplicaron los conflictos entre una multitud de actores por su control y regulación. Nuevas amenazas aparecen, como el uso de las redes informáticas en conflictos políticos, batallas militares, guerra económica, entre otros. Durante mucho tiempo, estas cuestiones quedaron en manos de una pequeña comunidad de expertos científicos y técnicos. Ahora que se insertan en la esfera pública, con el desarrollo masivo de Internet y su omnipresencia en nuestra vida cotidiana, muchas de estas decisiones técnicas se han convertido en decisiones políticas y estratégicas. Este trabajo pretende mostrar la relevancia del uso del método geopolítico para el análisis del ciberespacio. Se comenzará revisando la creación del ciberespacio y sus diversas definiciones, antes de demostrar que es un objeto profundamente geopolítico, sujeto a numerosas relaciones de poder. Se concluye examinando los retos metodológicos que plantea su evolución. Usando un enfoque diacrónico, el autor no pudo cumplir con el requerido de actualización de la bibliografía. Las referencias siguen la evolución de los conceptos y sus usos, empezando en los años 1960. 2. EL CIBERESPACIO: DEFINICIONES Y REPRESENTACIONES El ciberespacio es una representación: origen de una utopía A pesar de su uso extendido, no existe una definición consensuada de la palabra ciberespacio. El término fue empleado por primera vez en la novela The Neuromancer de 1984, del escritor de ciencia ficción William Gibson, que la utilizó para ensalzar la aparición de un nuevo espacio social. Esta terminología, originaria de la literatura de anticipación, se refiere a toda una serie de campos técnicos, pertenecientes principalmente, a las ciencias informáticas y ramas afines. Los creadores de la red de redes fueron influidos por el ambiente contestatario de los campus californianos de los años sesenta y setenta, que ayudó a dar forma a Internet tal y como la conocemos hoy [1]. La conexión en red del mundo permitiría la aparición de la "aldea global", anunciada por el profesor de la Universidad de Toronto Marshall McLuhan en 1967 [2]. El intercambio de información a escala mundial permitirá una mayor libertad y democracia, más igualdad social. “El medio es el mensaje”: con este oxímoron, el teórico de la comunicación Marshall McLuhan consideraba que el desarrollo de la comunicación, posibilitado por el auge de las tecnologías de la información, conduciría a una unificación cultural planetaria y a la constitución de una sociedad única y pacificada. Esta visión utópica llevó al co- fundador del lobby estadounidense para las libertades en el mundo digital, Electronic Frontier Foundation (EFF), John Perry Barlow, a firmar la Declaración de Independencia del Ciberespacio, considerando que el ciberespacio tenía que ser un territorio en sí mismo [3]. Existen tantas definiciones del ciberespacio como actores que lo componen o lo describen, las cuales evolucionan con el tiempo. Estas interpretaciones son más o menos precisas y reflejan las preocupaciones e intereses de los actores que la utilizan. El ciberespacio está, por tanto, sujeto a representaciones geopolíticas que, como los intereses de los actores, pueden ser contradictorias. Una representación geopolítica es una construcción, un conjunto de ideas más o menos lógicas y coherentes que describen, expresan una parte de la realidad, de forma borrosa o precisa, distorsionada o exacta [4]. Estas representaciones no son neutrales; al contrario, tienen una función en las rivalidades de poder geopolítico e influencias en las acciones de los distintos actores. Por tanto, el ciberespacio es, antes de todo, una representación. El ciberespacio como objeto de estudio geográfico Existen definiciones mayormente técnicas del ciberespacio, como la de Richard Clarke y Robert K. Knake [5] quienes la describen como "todas las redes de computadora en el mundo y todo con lo que conectan y controlan" [6]. Desde el punto de las ciencias sociales existen otras versiones. En 1997, Henry Bakis cuestionaba la conexión entre el espacio geográfico (geoespacio) y el ciberespacio, la que expone como la zona de “la comunicación electrónica”. Bakis se planteaba la incógnita de si la articulación de estos dos conceptos daría nacimiento a un nuevo término geográfico: el geociberespacio. En este aparecerían nuevas formas de accesibilidad en función de las condiciones de tiempos y de costos; convirtiéndose en el nuevo paradigma geográfico del siglo XXI [7]. En 1999, dos geógrafos, Martin Dodge y Rob Kitchin [8], proponen un atlas del ciberespacio. Basado en el hecho de que no existe ciberespacio sin material físico, este atlas propone, entre otras cosas, estudiar las infraestructuras físicas que lo sostienen con métodos de cartografía “clásicos”. Para añadir una dimensión estratégica a este análisis geográfico, se puede también mencionar la definición más reciente de Joseph Nye: la red de computadoras conectadas a Internet, pero también las redes internas (Intranet), las tecnologías de telefonía móvil, cables de fibra óptica, comunicación satelital-espacial y otros medios. Además, el ciberespacio tiene una capa de infraestructura física que está sujeta a leyes económicas, leyes políticas de soberanía, competencia por recursos y por justificar su control y regulación" [9]. Representar el ciberespacio en capas Un método para identificar las múltiples dimensiones y representaciones del ciberespacio es diferenciar entre las varias capas que lo constituyen. Esta concepción científica, ampliamente difundida, consiste en describir el ciberespacio formado por capas, utilizando una metáfora geológica. En base a esta teoría el ciberespacio se divide en tres capas principales: Una primera capa material, formada por todos los dispositivos de acceso y las infraestructuras necesarias para su funcionamiento en los proveedores de conexión. Es el aspecto físico de Internet, con sus servidores, cables submarinos, centros de datos y demás componentes. Luego, una capa constituida por los bloques de construcción lógica, los softwares, el código (lenguaje de las máquinas) y protocolos que permiten a los ordenadores comunicarse entre sí e intercambiar grandes paquetes de datos en un tiempo récord. Esta capa también incluiría las aplicaciones: los programas más accesibles y fáciles de usar que permiten a los usuarios utilizar sus máquinas a diario, sin necesidad de tener conocimientos tecnológicos avanzados. Esta capa es el objetivo de los ataques más frecuentes (virus, hackeo, troyanos, etc.). Por último, una capa semántica (o cognitiva) que está más específicamente relacionada con el contenido de la información. Es decir, todos los mensajes que pasan por Internet. Esta capa es, por tanto, el lugar de las interacciones sociales y los intercambios de información. Fig. 1. Las tres capas constituyentes del ciberespacio [10] No obstante, hablar de ciberespacio no es una noción universal. Por ejemplo, Rusia habla de un espacio informacional, es decir, que su estrategia se enfoca en la información. La doctrina estratégica francesa ha hecho recientemente una distinción, en la Revista Estratégica [11], al utilizar el término ciberespacio para referirse a las cuestiones relacionadas con la lucha contra los ataques informáticos, y el término espacio digital para referirse a las cuestiones relacionadas con la propaganda y la influencia en los procesos electorales a través de Internet. El ciberespacio fue pensado como un espacio horizontal y pacífico, sin embargo, las amenazas y voluntades de regulación que aparecieron estos últimos años han transformado esta utopía en distopía. 3. UN OBJETO DE ESTUDIO PROFUNDAMENTE GEOPOLÍTICO Y EVOLUTIVO Surgimiento de la amenaza y relaciones de poder En 2007 y 2008, dos ciberataques en Estonia y Georgia despiertan al mundo entero sobre las posibilidades de uso del ciberespacio como arma en un conflicto entre país. Los estados realizan los retos que representa el ciberespacio para su seguridad, ya que ofrece nuevas vulnerabilidades en unas sociedades ultra conectadas o que puede constituir un apoyo militar. Puede también permitir más delincuencia transnacional, intentos de desestabilización de estados o promover el terrorismo [12]. Por ejemplo, se estima que el primer acto de ciberguerra sucedió en 2010, cuando el gusano informático Stuxnet, elaborado por los Estados Unidos en colaboración con Israel, infestó una planta nuclear iraní para frenar el programa nuclear del país. Otro hecho más reciente, es el caso de NotPetya, un malware diseñado para parecer un ransomware, que resultó ser un wiper 1 con motivaciones políticas, y terminó perjudicando a empresas que inicialmente, no eran un objetivo. La incontrolable propagación de este virus afectó aleatoriamente a una amplia variedad de estructuras, pero también inspiró a organizaciones criminales. Estos aprovecharon la vulnerabilidad descubierta por este ataque para así explotarla. Desde entonces hemos asistido a una explosión de agresiones de ransomware contra todo tipo de estructuras: municipios, hospitales, empresas, entre otros. Hegemonía estadounidense Un elemento de desestabilización en el ciberespacio muy representativo es la hegemonía estadounidense: las vulnerabilidades que crea para otros actores y las reacciones que provoca. Debido a la concentración de una parte considerable de la infraestructura de Internet en su territorio y a su capacidad de producir hardware y software, Estados Unidos tiene ahora un importante poder político, tanto por su capacidad de controlar los intercambios mundiales de datos como por la relación de dependencia que se establece necesariamente entre un productor y sus consumidores. Es representativo porque crea consecuencias en cada capa del ciberespacio: - A nivel físico, debido a la ubicación geográfica de las infraestructuras que permiten el funcionamiento de la red. Su concentración en un Estado le confiere automáticamente una forma de poder. En 2020, 46,7 millones de servidores estaban ubicados en Estados Unidos, es decir el 52,46% de los servidores del mundo, y 2751 centros de datos también se encuentran allí2. - A nivel lógico, las empresas estadounidenses, las famosas GAFAM (Google, Apple, Facebook, Amazon, Microsoft) dominan los mercados de sistemas operativos y de alojamiento de contenidos. Han logrado imponerse en su campo a nivel mundial y desempeñan un papel importante en la actual supremacía estadounidense. 1 Malware que borra completamente los datos del equipo atacado. 2 Published by Statista Research Department, May 23, 2022: https://www.statista.com/statistics/1228433/data-centers-worldwide-by-country/ - Por último, a nivel semántico, el dominio del inglés juega a favor de Estados Unidos. En 2021, el inglés representa el 60,5% de los contenidos, mientras que sólo el 25,9% de los usuarios son anglófonos3. El caso Snowden reveló hasta qué punto la supremacía técnica de Estados Unidos en el ciberespacio es ahora una herramienta de poder considerable en la escena internacional. Al apoyarse en la dominación a nivel lógico mencionada anteriormente, la capacidad de la administración estadounidense para obligar a sus empresas dominantes a cooperar les ha permitido instalar herramientas de captura de datos en la fuente. Así es como la Agencia de Seguridad Nacional (NSA, siglas en inglés de National Security Agency) pudo establecer un programa de vigilancia a una escala sin precedentes [13]. Al mismo tiempo, al revelar el sistema de vigilancia establecido por Estados Unidos a escala mundial, el caso Snowden también arrojó una dura luz sobre la dependencia de los Estados europeos de las grandes empresas estadounidenses para obtener sus datos y su explotación, lo que lleva a una necesidad urgente de regulación. Fig. 2. Los flujos de datos en Europa [14] La geografía de los ciberataques conocidos no parece haber cambiado fundamentalmente la geografía política de los conflictos contemporáneos. El enfoque geográfico geopolítico tradicional tiene probablemente mucho que enseñarnos sobre este campo, así como sobre los objetivos y representaciones de los actores que gravitan en él. Reacciones y militarización del ciberespacio 3 Usage Statistics and Market Share of Content Languages for Websites, July 2022, https://w3techs.com/technologies/overview/content_language El auge y las consecuencias de los ataques antes mencionados, incidieron poderosamente en la representación del ciberespacio como un nuevo campo militar que requería la movilización de recursos excepcionales en nombre de la seguridad nacional. Además, influyeron en los responsables políticos en detrimento de otros enfoques de los riesgos que podrían tener más en cuenta la seguridad de los actores privados y de los usuarios individuales. En cambio, fomentaron el desarrollo de nuevas herramientas ofensivas que se utilizarían para la inteligencia o la vigilancia, o durante las operaciones militares. También, se pudo observar una voluntad de afirmación de la soberanía estatal de varios países en el ciberespacio, a pesar de su dimensión transnacional. Este fenómeno se acompaña de una fragmentación tras una fronterización del ciberespacio. Las actividades son transfronterizas en el ciberespacio y a veces es difícil para un estado aplicar sus leyes y reglamentos cuando el servicio utilizado es proporcionado por una empresa extranjera. Francia, por ejemplo, ha tenido muchas disputas con empresas estadounidenses por la cuestión de la libertad de expresión. Esta libertad, que es absoluta en Estados Unidos, tiene sus límites en Francia cuando se trata, por ejemplo, de la incitación al odio o la apología del nazismo, el terrorismo, entre otros temas. Debido a esto, Francia inició, de cierta manera, un proceso de "territorialización" de Internet en materia de contenidos, al querer hacer respetar la legislación francesa en las plataformas americanas utilizadas en su territorio nacional. Esto continúa hoy en día a nivel europeo, ya que el Reglamento General de Protección de Datos (GDPR, siglas en inglés de General Data Protection Regulation) [15] obliga a las plataformas americanas a cumplir con la legislación europea. A nivel lógico, podemos tomar el ejemplo del desafío al dominio agresivo de Microsoft en el mercado de los sistemas operativos. Esta contestación implica el uso de otros sistemas, especialmente los de código abierto. Otras potencias quisieron volver a tener control en su espacio digital y centralizaron sus redes después de un tiempo, ilustrando este proceso de fragmentación del ciberespacio. En el caso de China, el espacio digital fue pensado desde el principio como un asunto nacional. El gobierno chino construyó una red prácticamente interna, ofreciendo servicios y contenido nacional importante. Como se puede ver en la Fig. 3, por efecto, los datos producidos por los internautas chinos se transmiten principalmente dentro de su propio país. Fig. 3. Los flujos de datos chinos [14] Los nuevos juegos de poder y las rivalidades que nacen en el ciberespacio, tal como el proceso de fronterización que se dibuja en él, explica por qué el ciberespacio aparece como un reto geopolítico de primera importancia para los gobiernos y los estados. En el mundo entero, numerosas doctrinas militares lo consideran como el quinto dominio de la guerra, después de la tierra, el mar, el aire y el espacio exterior. El concepto de datasfera y los nuevos retos metodológicos asociados Con el incremento del uso del ciberespacio, aumentó la producción y la necesidad de almacenaje de los datos. La llegada de la era del Big Data (conjunto de datos muy voluminosos) y del Open Data (puesta a disposición de los datos públicos), se multiplican los debates en torno a las cuestiones de privacidad, protección de la libertad de expresión y otras libertades individuales [16]. Además, dos grandes avances tecnológicos están revolucionando el tratamiento de los datos y aumentando su potencia y valor: la llegada del ordenador cuántico y la inteligencia artificial. Estas tecnologías plantean importantes cuestiones políticas, éticas y filosóficas [17]. La carrera para el desarrollo de estas nuevas tecnologías se vuelve en guerra económica entre potencias, confrontación para la hegemonía tecnológica, como es el caso de la 5G y las tensiones que provoca entre Estados-Unidos y China. Se puede preguntar si asistimos a una reafirmación del status quo internacional o a su recomposición [6]. Esas nuevas tecnologías prometen ser el catalizador de conflictos geopolíticos y luchas de poder basadas en los datos, y, por tanto, el planteamiento de nuevas cuestiones diplomáticas. Para poder seguir con esta revolución de los datos, nace una nueva idea: la noción de datasfera. Esta permite englobar en un solo concepto las cuestiones estratégicas relacionadas con el ciberespacio, pero también con la geografía de los flujos y el control de los datos, la comprensión del espacio de la información, la cartografía de las redes topológicas, la fusión de datos geolocalizados y no especializados [18] Considerando que los datos son un objeto socio-técnico [16], la datasfera debe entenderse entonces como una construcción social y espacial. Esta comprende cuestiones de poder más o menos nuevas, unido a su construcción mediante opciones políticas con implicaciones estratégicas. Esta noción permitirá comprender los retos futuros de un mundo cada vez más gobernado por los algoritmos y la inteligencia artificial, cuya potencia se ha multiplicado con el ordenador cuántico, y cuya geografía debemos tratar de comprender. Fig. 4. Del Ciberespacio a la Datasfera, concepción Alix Desforges [17] 4. CONCLUSIONES El ciberespacio es un concepto originado en la ciencia ficción y adoptado por los pioneros de Internet para designar el nuevo mundo creado por la interconexión global de los sistemas de información y comunicación. Este se ha convertido, en pocas décadas, en un área de conflicto y en una cuestión importante en las relaciones diplomáticas. La proliferación de los ataques informáticos y de la ciberdelincuencia ha configurado las representaciones y ha transformado el ciberespacio en un terreno estratégico, un espacio de amenazas y oportunidades para que los estados hagan valer su poder y defiendan su soberanía. El gran reto científico consiste en desarrollar conceptos, métodos y herramientas de tratamiento, análisis y visualización de gigantescas masas de datos con vistas a comprender mejor la geografía de la datasfera, así como las relaciones de poder geopolítico y los conflictos contemporáneos que revela y provoca. La asociación entre la geopolítica y la ciencia de los datos es ahora esencial para comprender las cuestiones estratégicas de la revolución digital, y tratar de llegar a acuerdos para más paz y estabilidad en el ciberespacio. RECONOCIMIENTOS El autor desea agradecer a los miembros de GEODE por su transmisión acerca del tema de la cartografía y geopolítica del ciberespacio, a su supervisor de tesis Amaël Cattaruzza, y a las personas que ayudaron a revisar este artículo, Ariel y Annia. REFERENCIAS [1] Douzet, F, La géopolitique pour comprendre le cyberespace, Hérodote n°152-153, 1er-2e Trimestre 2014, pp. 3-22 https://www.herodote.org/IMG/pdf/Douzet.pdf [2] McLuhan, M, The Medium is the Massage. An Inventory of Effects, 1967, New York - London - Toronto Bantam Book, 160p. [3] Barlow, J. Déclaration d'indépendance du cyberespace. in : Olivier Blondeau éd., Libres enfants du savoir numérique : Une anthologie du “Libre” (pp. 47-54). Paris : Éditions de l'Éclat. 2000 https://www.cairn.info/libres-enfants-du-savoir-numerique--9782841620432-page- 47.htm%C3%A2%E2%82%AC%C2%A6 [4] Lacoste Y., Dictionnaire de géopolitique, Flamarion, 1995, 1699p. [5] Clarke, R. A. & Knake, R. K.. Cyber War: The Next Threat. Nueva York: Ecco. 2010, 320p. [6] Patiño Orozco, G.A. (2019). El sistema internacional cibernético: elementos de análisis. OASIS, 30, pp. 163-186 https://revistas.uexternado.edu.co/index.php/oasis/article/view/6089 [7] Bakis H., From Geospace to Geocyberspace; Territories and Teleinteraction, pp. 15-49, in Roche E. M. & Bakis H. (eds., 1997), Developments in telecommunications. Between global and local, Avebury, 1997 [8] Dodge M., Kitchin, R., Atlas of Cyberspace, Londres, Pearson Education Limited, 2001, 288p. [9] Nye, J. Cyber Power. Belfer Center for Science and International Affairs, Harvard Kennedy School. Cambridge: Harvard University, 2010 https://www.belfercenter.org/sites/default/files/legacy/files/cyber-power.pdf [10] Ventre, D, (2011). Cyberespace et acteurs du cyberconflit, Paris Hermès Lavoisier, 2011, 288p. [11] Ministre des Armées (2017), Revue stratégique de défense et de sécurité nationale. https://www.diplomatie.gouv.fr/IMG/pdf/2017-rs-def1018_cle0b6ef5-1.pdf [12] Eriksson, J. & Giacomello, G. The information revolution, security and international relations: the (IR) relevant theory? International Political Science Review, 27(3), 2006, pp221-244 https://journals.sagepub.com/doi/10.1177/0192512106064462 [13] Cattaruzza A., Sintès, P., Géopolitique des conflits, Editions Breal, 2016, 287p. [14] Loyer, B, Introducción a la geopolítica, Editorial Sintesis, 2022, 176p. [15] European Union, Regulation on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, 2016 https://eur-lex.europa.eu/eli/reg/2016/679/oj/fra?locale=en [16] Cattaruzza, A., Géopolitique des données numériques, Editions Cavalier bleu, 2018, 176p. [17] Douzet F., Desforges, A. Du cyberespace à la datasphère. Le nouveau front pionnier de la géographie, Netcom [En ligne], 32-1/2, 2018 https://journals.openedition.org/netcom/3419 [18] Berge J. S., Grumbach S. La Sphère des Données : Objet du Droit International et Européen, Journal du droit international (Clunet), LexisNexis, 2016 https://hal.archives-ouvertes.fr/hal-01359798v1 Sobre los autores Margot François es estudiante de doctorado en el Instituto Francés de Geopolítica de la universidad de París 8 e investigadora asociada al Centro de Investigación en Geopolítica de la Datasfera (GEODE). Sus investigaciones se enfocan en la inserción de territorios aislados en el ciberespacio, y estudia el caso particular de la conexión cubana y su revolución digital, gracias a un intercambio con la facultad de geografía de la Universidad de La Habana. SIMULACIÓN A NIVEL DE SISTEMA DE UN ESCENARIO URBANO 5G DESARROLLADO EN MATLAB Adrian Rodríguez Lau1, Francisco R. Marante Rizo2, Taimir Alain Morales Roche3 1-3Universidad Tecnológica de la Habana “José Antonio Echeverría” (CUJAE) 1lau95adrian@gmail.com, 2marante@tele.cujae.edu.cu, 3tamorales@tele.cujae.edu.cu RESUMEN El presente artículo aborda un estudio comparativo del comportamiento de redes 5G a nivel de sistema mediante la variación de parámetros fundamentales en escenarios desarrollados en MATLAB, traduciéndose en la optimización de estaciones base para cualquier entorno de despliegue, brindando tasas de datos superiores a 1 Gbit/s a una frecuencia de operación de 30 GHz con un SCS de 60 KHz, además de ofrecer una buena calidad de servicio para usuarios de alta movilidad (400 km/h) con velocidades de datos de hasta 100 Mbit/s. PALABRAS CLAVES 5G, comunicaciones móviles, MATLAB, escenario, simulación. SYSTEM-LEVEL SIMULATION OF A 5G URBAN SCENARIO DEVELOPED IN MATLAB ABSTRACT This research presents a study of the performance of 5G networks at system level through the variation of fundamental parameters in scenarios developed in MATLAB is carried out. The results obtained translate into the optimization of base stations for any deployment environment, providing data rates above 1 Gbit/s at a carrier frequency of 30 GHz with a 60 KHz of SCS, in addition to provide a good quality of service for high mobility users (400 km/h), with data rates of up to 100 Mbit/s. KEY WORDS 5G, mobile communications, MATLAB, scenario, simulation. 1. INTRODUCCIÓN La inevitable transición hacia los sistemas de comunicaciones de Quinta Generación hace necesario un estudio de los nuevos casos de uso que esta ofrece, su arquitectura de red [1], forma de onda [2] y sus aplicaciones en todos los ámbitos de la sociedad, con el objetivo de diseñar la misma y evaluar su comportamiento en entornos de alta complejidad. El presente artículo evalúa parámetros claves de salida como THROUGHPUT y SINR en escenarios urbanos y de alta movilidad diseñados haciendo uso de la herramienta de simulación desarrollada en MATLAB por la Universidad de Vienna: Vienna 5G SL. 2. NUEVOS CASOS DE USO DE LA 5G La UIT (Unión Internacional de Telecomunicaciones) ha clasificado los servicios de las redes móviles 5G en tres categorías: eMBB (enhanced Mobile Broadband, Banda Ancha Móvil mejorada), uRLLC (ultra Reliable and Low Latency Communications, Comunicaciones de Baja Latencia Ultra confiables), y mMTC (massive Machine Type Communications, Comunicaciones Tipo Máquina masivas). mMTC A diferencia de las comunicaciones D2D (Device to Device, Dispositivo a Dispositivo), mMTC asocia un número masivo de dispositivos. Estas redes se caracterizan por dispositivos de bajo costo y con una larga vida útil de la batería, asociados también a cobertura en grandes regiones. Dicha tecnología cubre las áreas de la IoT, agricultura inteligente, ciudades inteligentes, aplicaciones como procesos industriales automatizados, distribución energética y sistemas de transporte inteligente [3]. eMBB Orientado a suplir la demanda del creciente estilo de vida digital, proporcionando a los usuarios el acceso a contenido multimedia, servicios y datos con muy altas velocidades. Cumpliendo con uno de los requerimientos de la 5G, ofreciendo valores máximos de velocidades de transmisión de datos en condiciones ideales de 10 Gbps. Esto da lugar a nuevas aplicaciones como la Realidad Virtual y Realidad Aumentada, computación móvil en la nube, mejora del ancho de banda, video-monitoreo [3]. uRLLC Este caso de uso pretende cumplir con las expectativas de las demandas de la industria digital, centrándose en servicios con requerimientos de muy baja latencia, inferiores a 1 ms como la conducción automática o asistida, redes eléctricas inteligentes, cuidado y monitoreo remoto de pacientes de la salud [4]. Los requerimientos impuestos para 5G a través de los nuevos casos de uso y escenarios exigen que esta nueva generación supere drásticamente a los sistemas de la generación anterior, por lo que la misma debe ser capaz de ofrecer capacidades muy superiores a IMT-Advanced (LTE-A), ver Figura 1. A su vez, dichas capacidades juegan un papel fundamental para los nuevos casos de uso como se puede apreciar en la Figura 2. Figura 1: Capacidades claves IMT-Advanced vs IMT-2020 [5] Figura 2: Capacidades según casos de uso [5] 3. VIENNA 5G SL (SIMULADOR DE VIENA A NIVEL DE SISTEMA) El simulador “Vienna 5G LS” pertenece a la familia VCCS (Vienna Cellular Communications Simulators, Simuladores de Viena para Comunicaciones Celulares) y con él se aborda la necesidad de simulaciones de redes a gran escala, captando el cambio en la disposición de las redes y la transmisión física, como ha ido definiendo el 3GPP en los Releases. El simulador se basa en el método Monte-Carlo [6] con el objetivo de lograr un rendimiento promedio de la red, por lo que se promedia sobre muchas constelaciones espaciales y realizaciones de canales y, por lo tanto, se obtienen resultados para el rendimiento promedio por usuario / BS, relación señal-ruido-interferencia y tasas de transmisiones exitosas. Este simulador cuenta con una implementación flexible permitiendo definir cuadrículas de recursos para diferentes espaciados de subportadoras [7]. Admite numerosos modelos de propagación además de manejar nuevos modelos de canal [8]. Permite establecer una cantidad arbitraria de estaciones base y usuarios en dependencia de los requerimientos de la red, además de proporcionar compatibilidad con LTE-A y una implementación eficiente logrando minimizar el tiempo de simulación [7]. Estructura del simulador La estructura del simulador “Vienna 5G SL” está diseñada para la flexibilidad y la otorga a través de una arquitectura modular, donde las funciones individuales se pueden intercambiar de forma independiente. De forma general, el simulador se divide en cuatro partes: inicialización, pregeneración, ciclo de simulación principal y postprocesamiento; tal y como se muestra en la Figura 4, donde se incluyen los pasos más importantes realizados en cada bloque. Figura 3: Estructura del simulador "Vienna 5G SL" [7] Inicialización En esta etapa a partir de la elección de uno de los múltiples escenarios, ya sea predefinidos o creados por el usuario, gracias a la posibilidad de modificar el código fuente; se deben definir los parámetros necesarios. Un aspecto muy importante para comprender la estructura es la línea de tiempo del simulador (ver Figura 5). La misma se divide en TS (Time Slots, Ranuras de Tiempo), segmentos y fragmentos (Chunks). Una TS es la unidad de tiempo en función de la cual se realiza la programación, lo que constituye la unidad de tiempo invertida en una iteración del bucle de simulación interno; es decir, es la base para la programación y el cálculo de retroalimentación. Un segmento es el intervalo de tiempo donde los valores de desvanecimiento macroscópico se mantienen constantes ya que estos se actualizan una vez por segmento, por lo que tampoco cambia la asignación de BS (basada en la potencia recibida) para la longitud de un segmento. En la fase de inicialización la longitud de un segmento se determina en función de la velocidad y trayectoria de los usuarios y la distancia de decorrelación especificada, por lo que para los usuarios estacionarios solo se crea un segmento y los valores de desvanecimiento macroscópico solo se calculan una vez. Un fragmento o “chunk” está constituido por una secuencia consecutiva de segmentos. Debido a que transcurre una cantidad de tiempo considerable entre fragmentos, la posición de los usuarios móviles cambia en gran medida y también lo hace el entorno de dispersión. Sin embargo, es posible separar estos fragmentos y procesarlos en paralelo ya que la entrada de cada fragmento es suficiente para realizar los cálculos. Por lo que posteriormente los fragmentos podrán procesarse de forma independiente. Figura 4: Estructura de la línea de tiempo del simulador "Vienna 5G SL" [7] Pregeneración En esta etapa se crean todos los elementos con ubicación geométrica en dependencia del escenario seleccionado, paredes, edificios. Posteriormente se generan las BS y usuarios con los parámetros definidos previamente en la etapa de inicialización, donde se supone una posición constante en el tiempo para las BS y posiciones variables por segmento para los usuarios en dependencia del tipo de usuario. Se genera también una región de interferencia desde fuera de la ROI real con el objetivo de lograr un acercamiento más realista al valor de interferencia de las BS y usuarios en el borde de la ROI. Posteriormente se combina la información necesaria para cada fragmento reduciendo la sobrecarga de datos para entregar al bucle de simulación principal, pero con toda la información necesaria por fragmento, permitiendo hacerlo de forma individual y haciendo posible una simulación paralela. En este bloque ocurre el procesamiento de los fragmentos individualmente, de forma consecutiva o en paralelo en dependencia de la configuración. Cada fragmento contiene un bucle sobre TS, donde al comienzo del mismo se verifica si el TS actual marca el comienzo de un nuevo segmento y si es el caso se actualizan todas las posiciones de los usuarios, valores de desvanecimiento macroscópico y las interferencias. El bucle interno sobre TS consta de cinco pasos principales como muestra la Figura 6. En [7] se ofrece una explicación más detallada acerca del bucle sobre TS. Figura 5: Bucle principal de simulación [7] Post-procesamiento Aquí se combinan todos los resultados individuales de los fragmentos procesados y en dependencia del modo de post-procesamiento elegido se decide que valores guardar para no crear un archivo final sumamente cargado. A partir de los resultados individuales por TS, BS y usuario como el rendimiento, se calculan valores promedio. Finalmente, los resultados obtenidos se muestran y se almacenan en un archivo para un posterior análisis. Parámetros de simulación El simulador en cuestión ofrece una amplia gama de parámetros de simulación los cuales se explican con mayor profundidad en [9] [10]. Sin embargo, es necesario destacar algunos parámetros en específico ya que constituyen la clave de muchas características de 5G: • VSCS (Variable Subcarrier Spacing, Espaciado entre Subportadoras Variable). A diferencia de LTE-A, en 5G el espaciado entre subportadoras no es un valor fijo de 15 KHz, puede tomar valores múltiples de 15 KHz (hasta 240 KHz). Como consecuencia la duración de símbolo se reduce ya que el recíproco del SCS, se reduce en 2, 4, 8 o 16 [11]. La Tabla 1 muestra la configuración de los slots para diferentes valores de SCS. Tabla 1: Configuración del slot para diferentes valores de SCS [Elaboración propia] Configuración del slot Espaciado entre subportadoras (KHz) 15 30 60 120 240 Duración de símbolo (sin CP) (µs) 66,7 33,3 16,6 8,33 4,17 BW máximo nominal (MHz) 49,5 99 198 396 397,4 Intervalo mínimo de planificación (ms) 1 0,5 0,25 0,125 0,0625 Esta característica tiene como ventaja un incremento de ancho de banda ocupado a medida que se incrementa el espaciado entre subportadoras siendo el máximo valor admitido 400 MHz, se reduce el tiempo de transmisión para símbolos OFDM, lo que resulta en latencias más cortas en la capa física y además puede facilitar la operación en frecuencias de la banda milimétrica. No todos los valores de SCS son aplicables a todas las frecuencias. Los valores aplicables a distintas frecuencias se dan en la Tabla 2. Tabla 2: Distribución de SCS para rangos de frecuencia [Elaboración propia] Espaciado entre subportadoras (KHz) Frecuencia Comentarios 15 FR1 FR1: frecuencias inferiores a 6 GHz 30 FR1 60 FR1, FR2 FR2: frecuencias en la banda milimétrica 120 FR2 240 Reservado para SSB • Slots por subtramas: A medida que la duración de un slot se reduce a la mitad, la cantidad de slots por subtramas se duplica como se ilustra en la Figura 7. Figura 6: Duplicación de slots por subtrama con aumento de SCS [Elaboración propia] 4. ESCENARIO DE SIMULACIÓN A pesar de que los escenarios predefinidos ofrecen un amplio espectro de entornos y condiciones de los sistemas de redes inalámbricas ninguno tiene un gran acercamiento a las condiciones de nuestro país, por lo que para cumplir o poder realizar las simulaciones necesarias con el objetivo de medir el desempeño de las futuras redes 5G en el territorio nacional o al menos tener un valor lo más real posible, se hizo necesario la construcción de un nuevo escenario urbano. Este escenario combina, en su mayoría, todas las características de los predefinidos en el simulador, lo que posibilita el análisis de una red mucho más compleja y heterogénea. Se gráfica completamente el escenario, edificios, calles, BSs (macro, pico y femto), diferentes tipos de usuarios (peatones, vehículos de mediana y alta velocidad, usuarios IoT agrupados), enlace LOS / NLOS. Los edificios y calles son completamente personalizables mediante una matriz que incluye los datos necesarios para su construcción. La Figura 8 muestra la composición de bloques y calles del escenario creado con las características de un entorno urbano del territorio nacional. Figura 7: Geometría del escenario Urbano [Elaboración propia] Composición de la cuadrícula de recursos En esta primera simulación se realiza un análisis de los resultados obtenidos de los parámetros SINR y throughput en el escenario Urbano a partir de las diferentes configuraciones de la cuadrícula de recursos producto de la variación de valores de SCS. La Tabla 3 muestra los principales parámetros a tener en cuenta en la simulación y que a su vez son resultados de un SCS variable. Tabla 3: Composición de la cuadrícula de recursos Parámetros Espaciado entre subportadoras (SCS) 15 KHz 30 KHz 60 KHz Duración de símbolo (µs) 71,4 35,7 17,8 Duración del slot (ms) 1 0,5 0,25 n Símbolos / RB 7 7 7 n Símbolos / Slot 14 14 14 n Subportadoras / RB 12 12 12 Tamaño del RB en el tiempo (µs) 500 250 125 Tamaño del RB en la frecuencia (KHz) 180 360 720 Slots por chunk 10 20 40 BW máximo (MHz) 50 100 200 A continuación, se muestra de manera comparativa la SINR para el escenario en cuestión atendiendo a los tres casos especificados. • SINR Figura 8: SINR promedio por usuario para las tres configuraciones de la cuadrícula de recursos La figura previa define el comportamiento de la función ECDF (Empirical Cumulative Distribution Function, Función de Distribución Acumulativa Empírica) de la variable SINR promedio por usuario ubicada en el eje de las abscisas. Se puede observar que no existe una diferencia notable, lo que permite afirmar que una variación del SCS y consecuentemente del BW, cantidad de slots por subtrama y su duración en el tiempo, no alteran de manera significativa los valores de SINR. Esto es debido a la independencia que tienen los valores de potencia recibida por usuarios y BSs, potencia de ruido e interferencia de la estructura de la trama, pues los valores de potencia de recepción son calculados mediante la potencia de transmisión y las pérdidas totales del trayecto [12]. Como consecuencia la asociación de los usuarios por BS o celda, determinada por la máxima recepción de potencia, así como la calidad de recepción no se ven afectados por los parámetros en cuestión. • Throughput Figura 9: Throughput promedio por usuario para las tres configuraciones de la cuadrícula de recursos. Los valores de throughput obtenidos permiten afirmar que un aumento de SCS y sus consecuencias en la conformación de la cuadrícula de recursos se traducen en un incremento significativo de throughput promedio por usuario, ya que la probabilidad de obtener valores más altos de esta variable es mayor a medida que aumenta el SCS, obteniendo valores pico de hasta 700 Mbit/s. Alta movilidad de usuarios Los escenarios de alta movilidad, dígase trenes y autopistas de gran velocidad que interconectan ciudades, han representado sin lugar a dudas grandes desafíos para todos los sistemas de redes inalámbricas ya que se necesitan estimaciones precisas para las variaciones muy rápidas del canal, formas de onda, técnicas de modulación y codificación, una arquitectura de red con soporte para la movilidad y técnicas anti Doppler que logren evitar el desplazamiento de frecuencia de portadora y los desvanecimientos rápidos. Un estudio previo logró identificar que para una distribución de Poisson de pico BS en la región de interés la SINR y el THROUGHPUT se degradan a medida que aumenta la velocidad del usuario [10]. Mejores resultados fueron obtenidos haciendo uso de los parámetros establecidos en la Tabla 4. Tabla 4: Parámetros para escenario de alta movilidad Parámetro Valor Frecuencia de portadora (GHz) 30 Ancho de banda (MHz) 100 Tipo de usuario Móvil Número de usuarios 700 Distribución de las BS macro Predefinido en la ROI Distribución de las BS pico Distribución sobre el área descrita por el movimiento • SINR Figura 10: SINR para pico BS posicionadas sobre la región de movilidad. Es de destacar que esta estructura del escenario ha logrado prácticamente igualar los valores SINR para los diferentes valores de velocidad, lo que permite ofrecer una aceptable QoS en cualquier situación. • Throughput Figura 11: Throughput para pico BS posicionadas sobre la región de movilidad. En esta ocasión se logra una mejora de SINR acompañada de valores de throughput más elevados, hasta 80 Mbit/s para las velocidades de movimiento más altas, lo cual es bastante cercano a lo que prometen los estándares actuales [13]. Variación de la frecuencia de portadora Para esta simulación se analiza uno de los factores más importantes de la tecnología 5G, las altas frecuencias de portadora. Para ello se utilizan valores de frecuencia de 4 y 30 GHz definidos en [14] para un escenario urbano denso de gran heterogeneidad, tanto en estaciones base como en tipos de usuarios. Tabla 5: Parámetros para la simulación de variación de frecuencia Parámetro Valor Frecuencia de portadora (GHz) 4 30 Espaciado entre subportadoras (KHz) 60 120 Ancho de banda (MHz) 40 80 Tipo de estaciones base Macro, pico, femto Macro, pico, femto Tipo de usuario Peatón, vehicular Peatón, vehicular Modo de transmisión MIMO 8x8 MIMO 8X8 • SINR Figura 12: Comportamiento de SINR debido a variaciones en la frecuencia. Acorde a lo esperado, se aprecia una disminución de SINR para un aumento de la frecuencia, pues a estos valores de frecuencia las atenuaciones se acentúan producto del multitrayecto y las pérdidas de propagación tan elevadas en la banda milimétrica (3-300 GHz). La Figura 14 representa gráficamente mediante la estrategia de asociación de celdas o estaciones base cómo influyen las atenuaciones que sufren las ondas a altas frecuencias, donde para 30 GHz la cobertura que ofrecen las estaciones base tipo macro (de mayor potencia de transmisión) se ve afectada, por lo que la estrategia de asociación cambia ya que se basa en la máxima recepción de potencia, y gran parte de los usuarios son enlazados con otras estaciones base de menores prestaciones. Figura 13: Cambio en la estrategia de asociación de celdas por variación en la frecuencia. MIMO masivo brinda una solución a este problema para un escenario urbano denso y heterogéneo empleando como modo de transmisión MIMO 256x256, lo que genera un alto volumen de trazas a procesar que requieren de enormes recursos de cómputo como se especifica en [14]. • Throughput Figura 14: Throughput debido a variaciones en la frecuencia. Contrario a los resultados de SINR, se observa un aumento considerable de la variable throughput (Mbit/s) para las altas frecuencias, donde los valores máximos alcanzados superan 1 Gbit/s. Esto se debe a las ventajas que ofrecen las frecuencias de la banda milimétrica que permiten a 5G aumentar el SCS y el ancho de banda para la transmisión, brindando velocidades de datos a los usuarios realmente elevadas. 5. CONCLUSIONES Acorde a la investigación realizada los mejores resultados para un escenario urbano denso y heterogéneo, garantizando una buena QoS y QoE, se obtienen para: • SCS de 60KHz con ancho de banda de 200 MHz, conformando una cuadrícula de recursos con slots (ranuras) de menor duración y por consecuencia una mayor cantidad utilizando los mismos recursos. Los valores máximos de throughput alcanzados fueron de hasta 700 Mbit/s. • Para los escenarios de muy alta velocidad los mejores resultados se alcanzaron mediante la disposición de pico estaciones base a lo largo de la región de movilidad, obteniéndose una SINR con pocas diferencias para cualquier velocidad de movimiento de los usuarios inferior a 400 km/h, además de una muy buena calidad de servicio con valores de throughput de hasta 80 Mbit/s para este tipo de usuario. • En el caso de la frecuencia de portadora, los valores más altos de velocidades de datos se alcanzaron para 30 GHz, con valores pico que superan 1 Gbit/s. Sin embargo, los valores de SINR disminuyeron notablemente para esta frecuencia de operación en comparación con 4 GHz debido a las grandes dificultades de propagación para altas frecuencias. • Mediante el análisis conjunto de estos parámetros se logra la conformación adecuada de los elementos y características de la red 5G a implementar en un determinado escenario. REFERENCIAS [1] 5G PPP ARCHITECTURE WORKING GROUP. View on 5G Architecture. 2019 [2] CARRIÓN MORILLO, Fabián Alejandro. Evaluación del Desempeño de Nuevos Esquemas de Modulación y Acceso Múltiple para 5G. Loja, Ecuador, 2019. Universidad Nacional de Loja. [3] 5G-Key Capabilities & Applications. K.L Bhawan, Janpath, New Delhi: FN Division, TEC. nedatováno. [4] JOHANSSON, Niklas A., Eric WANG, Erik ERIKSSON a Martin HESSLER. Radio Access for Ultra-Reliable and Low-Latency 5G communications. IEEE. 2015. [5] M.2083 : Concepción de las IMT - Marco y objetivos generales del futuro desarrollo de las IMT para 2020 y en adelante [online]. 27. srpen 2020 [vid. 2020-08-27]. Dostupné z: https://www.itu.int/rec/R-REC-M.2083/es [6] ILLANA, José Ignacio. Métodos Monte Carlo. B.m.: Departamento de Física Teórica y del Cosmos, Universidad de Granada. 2013. [7] MULLER, Martin Klaus, Fjolla ADEMAJ, Thomas DITTRICH, Agnes FASTENBAUER, Blanca RAMOS ELBAL, Armand NABAVI, Lukas NAGEL, Stefan SCHWARZ a Markus RUPP. Flexible multi-node simulation of cellular mobile communications: the Vienna 5G System Level Simulator. EURASIP Journal on Wireless Communications and Networking [online]. 2018. Dostupné z: https://doi.org/10.1186/s13638-018-1238-7 [8] ADEMAJ, Fjolla, Martin TARANETZ a Rupp MARKUS. 3GPP 3D MIMO channel model: a holistic implementation guideline for open source simulation tools. EURASIP Journal on Wireless Communications and Networking. 2016. [9] MULLER, Martin Klaus, Fjolla ADEMAJ, Agnes FASTENBAUER, Thomas DITTRICH, Blanca RAMOS ELBAL, Armand NABAVI, Lukas NAGEL, Stefan SCHWARZ a Markus RUPP. The Vienna 5G System Level Simulator. User Manual. Vienna: Institute of Telecommunications, TU Wien. 2018. [10] RODRÍGUEZ LAU, Adrian. SIMULACIÓN Y ANÁLISIS A NIVEL DE SISTEMA DE UNA RED 5G EN ESCENARIOS DESARROLLADOS EN MATLAB. B.m., nedatováno. Universidad Tecnológica de La Habana „José Antonio Echeverría". [11] CORREIA, Noélia, Faroq AL-TAM a Jonathan RODRIGUEZ. Optimization of Mixed Numerology Profiles for 5G Wireless Communication Scenarios. Sensors. 2021. [12] SUN, SHU, Mansoor SHAFI a Pan TANG. Propagation Models and Performance Evaluation for 5G Millimeter-Wave Bands. IEEE Transactions on Vehicular Technology [online]. nedatováno. Dostupné z: https://www.researchgate.net/publication/325799884 [13] FAN, Pingzhi, Jing ZHAO a Chin-Lin I. 5G High Mobility Wireless Communications: Challenges and Solutions. IEEE. 2016. [14] 5G; Study on Scenarios and Requirements for Next Generation Access Technologies [online]. Technical Report. France: 3rd Generation Partnership Project, Technical Specification Group Radio Access Network. 2017. 3GPP TR 38.913 V14.2.0. Dostupné z: http://www.etsi.org/standards- search Sobre los autores Adrian Rodríguez Lau, Ingeniero en Telecomunicaciones y Electrónica, graduado de la Universidad Tecnológica de la Habana “José Antonio Echeverría” CUJAE, La Habana, Cuba, en el año 2020. Integrante del grupo de investigación de Comunicaciones Inalámbricas de la CUJAE. Especialista en Telemática de la Empresa de Telecomunicaciones de Cuba S.A. ORCID: 0000-0003-3032-5837. Francisco R. Marante Rizo, Graduado de Ingeniero en Telecomunicaciones en el año 1974 en La Universidad de La Habana, y Doctor en Ciencias Técnicas en La Universidad Técnica de Praga en 1986. Ha sido profesor de la disciplina de Radiocomunicaciones desde 1976 hasta la actualidad. Es Profesor Titular desde 1988, y ha sido Jefe de Cátedra de Microondas y Comunicaciones Inalámbricas de la Facultad de Telecomunicaciones y Electrónica de la CUJAE desde 1990 hasta la actualidad. También es el Jefe del Grupo de Investigación de Comunicaciones Inalámbricas en la Facultad de Telecomunicaciones de la CUJAE. ORCID: 0000-0003-3277-1371. Taimir Alain Morales Roche, Actualmente cursando en el sexto año de la carrera de Telecomunicaciones y Electrónica. Profesor ATD de Telecomunicaciones y Electrónica en la Universidad Tecnológica de la Habana “José Antonio Echeverría” CUJAE, La Habana, Cuba. ORCID: 0000-0002-8365-3183. SISTEMA DE ALIMENTACIÓN CON TECNOLOGÍA GAP WAVEGUIDE PARA ANTENAS DE 5G Taimir Alain Morales Roche 1, Fidel Martínez Armas2, Michel Enrique Guerra Bernal 3, Francisco Marante Rizo4 1, 2, 3, 4 Universidad Tecnológica de la Habana ¨José A. Echeverría¨, CUJAE, Calle 114 # 1190, e/ Ciclovía y Rotonda, Marianao, La Habana, Cuba. 1e-mail: tamorales@tele.cujae.edu.cu 2e-mail: fidelmartinezarmas@gmail.com 3e-mail: migueleb@tele.cujae.edu.cu 4e-mail: marante@tele.cujae.edu.cu RESUMEN La imparable tendencia de las comunicaciones móviles a nivel mundial, motivada por exigencias crecientes de velocidad, latencia y capacidad de usuarios, mueve el avance hacia la quinta generación de comunicaciones móviles (5G), la cual se concibe para soportar la conectividad eficiente de una gran cantidad de dispositivos a la red. La 5G hace uso del espectro de ondas milimétricas (3-300 GHz), y los actuales medios de transmisión para la banda no resultan escalables por sus elevadas pérdidas y costes de fabricación, para lo cual se propone la implementación de la tecnología Gap Waveguide GW como línea de transmisión de menor costo, menores pérdidas y alto rendimiento. En esta investigación se propone un estudio comparativo de las tres principales variantes mediante su diseño haciendo uso del software “CST Microwave Studio” y la puesta a prueba alimentando una antena de tipo ranura (slot). Algunos aspectos evaluados son las pérdidas, resonancia, eficiencia, ancho de banda, de forma tal que se advierten las debilidades y fortalezas de cada variante. Los resultados mostraron a la variante GGW como la de menores pérdidas, la variante RGW con el mayor ancho de banda, mientras que la variante IMGW resultó ser un compromiso intermedio entre ambos. PALABRAS CLAVES: Ondas Milimétricas, Gap Waveguide, Antena, Sistema de Alimentación. POWER SUPPLY SYSTEM WITH GAP WAVEGUIDE TECHNOLOGY FOR 5G ANTENNAS ABSTRACT The unstoppable tendency of worldwide communications, pushed by an increasing demand for speed, latency and user capacity, motivates the advance into the fifth generation of mobile communicacions (5G), which is conceived to sustain effective connectivity of a large number of devices to the network. The 5G uses the millimeter-wave spectrum (3-300 GHz) and current transmission media do not suit requirements for scalability due to high losses and increased manufacturing costs, for which Gap Waveguide technology is proposed as a promising solution for a lower cost, lower loss and high performance transmission line. In this research a comparative study is carried out on its three main variants by their design using the software \CST Microwave Studio" and their subsecuent testing feeding a simple slot antenna. Some assessed aspects were losses, resonance, efficiency and bandwidth, so that both weaknesses and strengths of each variant are recorded. Results attained underlined the GGW variant with the lowest losses, as for the RRG variant, it resulted to outstand in bandwidth terms. The IMGW variant stood out as a middle tradeoff between bandwidth and losses. KEY WORDS: 5G, millimeter waves, Gap Waveguide, antenna, power supply system. 1. INTRODUCCIÓN Con el advenimiento de la 5ta generación de telefonía móvil, las investigaciones se han enfocado en la transición hacia nuevas zonas del espectro electromagnético, a frecuencias superiores, para ello se hace necesario el estudio de las estructuras que permitan la migración hacia la banda de ondas milimétricas. La banda milimétrica se caracteriza por proveer velocidades de transferencia de datos muy superiores, lo que deriva en un incremento considerable de la calidad de servicio, tecnologías como el MIMO masivo y la transmisión gigabit serán una realidad, por esto es urgente proveer el hardware necesario para ello y al menor costo posible [1]. La banda milimétrica posee ventajas que la hacen adecuada para ser empleada en las tecnologías de 5G, pues es muy superior al rango tradicional de la banda para las comunicaciones móviles, por debajo de 3 GHz (Espectro abarrotado y escaso), ya que hay una gran cantidad de espectro disponible en la MMB (Millimeter-wave Mobile Broadband, Banda Ancha Móvil de Ondas Milimétricas), incluyendo el servicio LMDS (Local Multi-point Distribution Service, Servicio de Distribución Multipunto Local) que opera entre los 28 GHz y los 38 GHz [2]. La mayoría de los estudios realizados hasta la fecha se han centrado en el rango de frecuencias de las bandas de 28, 38, 60 y 73 GHz. En [3] se demostraron las ventajas que presenta la banda de 28 GHz cuando se trata de distancias mayores a 200 m en condiciones donde no hay visibilidad directa (NLOS), donde hay más afectaciones por el multitrayecto. Sin embargo, esta frecuencia está ocupada actualmente en el servicio satelital de banda ancha en banda Ka, por lo que la recientemente propuesta en la banda de 26 GHz sera la frecuencia de estudio. En esta banda de frecuencias se ha utilizado las líneas transmisión convencionales, entre las que se encuentran líneas planares como las microcintas, las guías de onda coplanares (CPW), y guías de onda coplanares conectadas a tierra (G-CPW), y medios no planares como las guías de onda rectangulares. Todos estos son circuitos impresos que presentan un diseño compacto que puede ser adaptado directamente a la tecnología convencional de transistores. Además, son frecuentemente utilizadas ya que son de bajo coste y de fácil implementación. El problema principal de las líneas de transmisión convencionales es que presentan pérdidas significativas en el rango de las ondas milimétricas Las guías de ondas metálicas estándares, son dispositivos de guiado, que en comparación con las líneas de microcinta, presentan un blindaje total al campo y mayor capacidad para el manejo de potencia. Además, si la guía es hueca, es decir, si no está rellena por algún material dieléctrico, es una estructura de bajas perdidas por estar hecha exclusivamente de metal. En consecuencia, los dispositivos pasivos basados en esta tecnología tienen bajas perdidas incluso en frecuencias milimétricas, por lo que se pueden utilizar en un gran número de aplicaciones. La desventaja fundamental de las guías de ondas es su diseño no plano, lo cual dificulta la adaptación de estas estructuras a la tendencia actual de los circuitos integrados de chips todo en uno con componentes pasivos y activos en el mismo modulo. A esto se agrega que las uniones imperfectas entre los bloques de guías de onda pueden provocar fugas de campo y ha demostrado ser un asunto problemático en la banda Ku, sin hablar de frecuencias superiores [4]. Como parte de los esfuerzos por la invención de nuevos alimentadores que superen las de deficiencias anteriormente expuestas se introduce el concepto de Tecnología de Guías de Ondas de Separación o Gap Waveguide (GW) en el año 2008 [1]. En las GW, el campo viaja en un espacio de aire confinado entre placas metálicas paralelas. Las ventajas en comparación con las líneas de transmisión por microcinta, las guías de onda coplanares y las guías de onda integradas a sustrato es que la estructura puede mantener una morfología planar y al mismo tiempo ser de bajas pérdidas, ya que puede propagar las ondas sin la necesidad de un dieléctrico. Además, esta tecnología puede llevarse a cabo sin que tengan que existir buenos contactos metálicos entre las placas paralelas, simplificando y abaratando el proceso de fabricación. Por estos motivos, las GW son una alternativa prometedora para sustituir las líneas de transmisión convencionales en aplicaciones de alta frecuencia. 2. DISEÑO DE LAS GUÍAS DE ONDA DE BRECHA (GAP WAVEGUIDES) A COMPROBAR La tecnología de Guía de Ondas de Brecha (GW), cumple con los requerimientos que se exigen para el trabajo en ondas milimétricas, ya que como se afirma en [1], esta nueva tecnología casi no tiene pérdidas dieléctricas y es mecánicamente más flexible que la guía de ondas metálicas en términos de montaje mecánico o modular. Las guías de onda de brecha se pueden implementar de tres formas, dependiendo del camino que sigue el campo y las características de acoplamiento deseadas. Estas tres variantes son: la Ridge Gap Waveguide (RGW), la Groove Gap Waveguide (GGW) y la Inverted Microstrip Gap Waveguide (IMGW), las dos primeras variantes no presentan sustrato y se construyen solamente de metal, mientras que la IMGW emplea una fina lámina dieléctrica. Las estructuras GW diseñadas e implementadas serían puestas a prueba mediante la alimentación de un sistema radiante sencillo compuesto por una antena tipo ranura (Slot) simple. El objetivo en este capítulo es ajustar las estructuras para que resuenen a la frecuencia de interés, tratando de mantener cercanas sus configuraciones geométricas, para que sean posteriormente comparables. Así mismo se tratará de ajustar los diseños a las dimensiones de las guías de ondas estandarizadas para esta banda, que son, la WR-42 para la banda K, y la WR-28 para la banda Ka. Diseño de la estructura de “Bandgap” Electromagnético (EBG) La superficie EBG nos permitirá diseñar un AMC que satisfaga la condición de alta impedancia, esta superficie permitirá obtener una banda prohibida (stopband) dentro de la cual serían suprimidos todos los modos paralelos, que en este caso son modos espurios. En este estudio se realizará la superficie EBG en como un lecho de clavijas rectangulares metálicas (pins), para lo cual se diseñó una celda unitaria para la estructura periódica, por ello se seleccionaron las dimensiones que se resumen en la Tabla 1 y cuyas variables se señalan en la Fig. 1. La estructura periódica se simula mediante la selección de contornos periódicos en las direcciones de los ejes x e y; mientras que en la dirección del eje z se seleccionó una frontera de conductor eléctrico, es decir, las componentes tangenciales del campo eléctrico son nulas (Et = 0). En [40] se realiza un estudio numérico minucioso donde se obtiene la influencia de la variación de cada parámetro en el ancho de banda, así como en el ajuste de la banda prohibida en el espectro. Cabe mencionar que no se especifican las dimensiones de las placas superior e inferior, ya que según [5], estas no influyen en los resultados a efectos prácticos. Tabla 1: Dimensiones EBG Figura 1: Celda unitaria de EBG con los parámetros señalados Con estas dimensiones se obtuvo el diagrama de dispersión de la Fig. 2, realizando un barrido paramétrico de la fase, mediante el motor de solución “Eigenmode Solver”, del software CST MWS. Donde cada curva representa un modo de propagación que parte de una frecuencia de corte. Se puede apreciar una banda prohibida en la Fig. 2 desde 21 GHz hasta 33 GHz, donde se encuentra la frecuencia objetivo: 26 GHz, esta banda queda libre de modos espurios, como se desea, para que no ocurran interferencias con la señal que se propagará por la línea. Parámetros Valores (mm) a 1 p 2 d 3 h 1 Figura 2: Diagrama de dispersión obtenido para el pin con las dimensiones propuestas Como es objetivo de estudio la IMGW, también se diseñó una variante de celda unitaria con sustrato, cuyas dimensiones fueron ajustadas como se muestra en la Fig. 3 y se recogen en la Tabla 2. Tabla 2: Dimensiones EBG con sustrato Figura 3: Celda unitaria de EBG con sustrato El sustrato empleado fue RT-5880, más conocido por su nombre comercial: Duroide, del fabricante “Rogers ©”; el cual presenta una constante dieléctrica de 2.2 F/m y su tangente de pérdidas es de 0.0009, lo cual evidencia su alta calidad como aislante de bajas pérdidas. El diagrama de dispersión arrojado por la simulación se obtuvo una banda prohibida que se extiende aproximadamente desde los 19 GHz hasta los 31 GHz, por lo que las dimensiones seleccionadas satisfacen las exigencias de la frecuencia objetivo. Diseño y estudio de las líneas de pines con el elemento conductor. El diseño general de las líneas consiste en la modelación de un camino por donde se propagará el campo, en el modo fundamental, flanqueado por tres pines a cada lado, que son suficientes para lograr un buen desempeño con respecto al coeficiente de transmisión, como se concluye en el estudio presentado en [6]. Para la realización del modelo RGW se coloca una cresta metálica de ancho w, que inicialmente fue ajustada a 3 mm. Su descripción geométrica se observa en la Fig. 4 (a). Se mantienen las dimensiones relativas a los pines que ya habían sido diseñadas. El barrido paramétrico arrojó el diagrama de dispersión que se muestra en la Fig. 4 (b) Figura 4: RGW (a)Línea de pines (b) diagrama de dispersión Parámetros Valores (mm) a 1 p 2 d 3 h 0.5 t 0.5 En el diagrama de dispersión anterior se puede observar que en la banda prohibida obtenida anteriormente se propaga un único modo, que en este caso es un modo cuasiTEM (como es típico cuando existen dos conductores), entre la cresta y la placa superior. Este es el modo de interés y se aprecia que la frecuencia objetivo se encuentra en el mismo. En la variante GGW, se eliminó la cresta metálica insertada en el RGW, quedando el surco de ancho wc, ajustado a 8.4 mm, su geometría y diagrama de dispersión se muestran en la Fig. 5 En este caso se puede ver que en la banda prohibida establecida por la superficie AMC se propaga un modo similar al modo TE10 de las guías de onda huecas convencionales, comportamiento esperado al eliminar el ridge y quedar un único conductor que consiste en la estructura metálica per se. Figura 5: GGW (a)Línea de pines (b) diagrama de dispersión Para el caso de la IMGW el modelo y diagrama de dispersión arrojado por el barrido paramétrico se aprecian en la Figura 6. Se puede observar que la fila de pines es continua, y que esta sostiene el dieléctrico sobre el cual descansa una cinta metálica de ancho w, y grosor ts. Figura 6: IMGW (a)Línea de pines (b) diagrama de dispersión Aquí se aprecia la propagación de un modo cuasi-TEM, similar a la RGW, pues el diseño actual cuenta con una cinta metálica como estructura de conducción. Estructura RGW Para la realización de esta estructura se tomó como prototipo la línea de pines con RGW y se alimentó con un puerto de guía de ondas en cada extremo. Algunos parámetros fueron calibrados para lograr un ajuste en el comportamiento de los parámetros S y de la impedancia característica. Para la estimación de esta última se empleó la expresión descrita en 1, y dada su inexactitud, como se recomienda en [7], se introduce un factor de corrección empírico ∆ para ajustar la estimación mediante las ecuaciones para la línea tipo stripline. El mismo se selecciona atendiendo a la constante dieléctrica (ɛr); como en este modelo no se emplea sustrato, ɛr = 1, por lo cual se seleccionó un ∆ = 20 Ω, el cual según [7] es el adecuado para permitividades relativamente bajas, como es el caso. Posteriormente realizando la corrección se tiene: 𝑍𝑠𝑡𝑟𝑖𝑝𝑙𝑖𝑛𝑒 = 𝑍 𝑅𝐺𝑊 + ∆ 2 (1) De esta forma se realizaron los cálculos utilizando este valor de Zstripline = 35 Ω y teniendo en cuenta una h = 1 mm, se estimó que el ancho del ridge debía ser inicialmente de W = 4.5 mm, aunque después de corrida la simulación se realizó un pequeño ajuste en el parámetro h a 0.9 mm e igualmente se ajustó w a 4.55 mm mediante barrido paramétrico. Figura 7: Estructura de RGW (a) Modelo tridimensional y simulación del valor absoluto del campo eléctrico con los puertos de alimentación señalados en rojo (b) Parámetros S simulados Los resultados obtenidos en los parámetros S se visualizan en la Fig. 7(b), donde se aprecia un desempeño favorable en el coeficiente de reflexión con el parámetro S11 desde los21 GHz hasta los 35 GHz con muy buenos resultados en la banda de interés alrededor de los 26 GHz donde se aprecia una zona de resonancia aguda. Igualmente favorable se comporta el coeficiente de transmisión con el parámetro S21 dentro de un nivel muy cercano a 0 dB en la banda de interés. La impedancia de la línea, obtenida tiene un valor muy cercano a 50 Ω, por lo que se ha logrado un buen acoplamiento. Empleando los monitores de campo del software, se obtuvo una distribución del valor absoluto del campo eléctrico en dB en un instante de tiempo, para 26 GHz, lo cual es apreciable en la Fig. 7(a), donde se puede notar que el campo viaja casi en su totalidad a lo largo del ridge, decayendo exponencialmente hacia las direcciones transversales a este, lo cual da fe de la efectividad de la superficie AMC diseñada, donde apenas la radiación pasa de la primera hilera de pines para luego sufrir una atenuación considerable. Estructura GGW El modelo con las dimensiones seleccionadas se muestra en la Fig. 8. Los puertos de guía de onda alimentan la estructura por ambos extremos, cubriendo la totalidad del canal comprendido entre la superficie AMC formada por los pines. Figura 8: Estructura de GGW (a) Modelo tridimensional con los puertos de alimentación señalados en rojo (b) Parámetros S simulados (c) Simulación del valor absoluto del campo eléctrico Analizando los parámetros S, específicamente S11, se puede observar que se logró un pico de resonancia aguda en la frecuencia central de estudio: 26 GHz, aunque el ancho de banda no cubre toda la banda de interés (24.25 - 27.75 GHz). [8] Estructura IMGW Como ya se explicó, esta estructura es una GW de Microcinta Invertida (IMGW), donde la microcinta es sostenida por el AMC. Fue desarrollada a partir de la línea con IMGW. La estructura con las dimensiones seleccionadas se muestra en la Fig. 9, en conjunto con los resultados de la simulación en los parámetros S, la distribución del valor absoluto del camp Figura 9: Estructura IMGW (a) Modelo tridimensional de la estructura IMGW con los puertos de alimentación señalados en rojo (b) Parámetros S simulados (c) Simulación del valor absoluto del campo eléctrico Para la selección del ancho de la cinta se buscó lograr una impedancia característica de 50 para cuya estimación inicial se siguió un procedimiento similar al que se hizo para la estructura RGW. Después de realizar los cálculos, se obtuvo un ancho de la cinta de w = 1.37 mm, para un grosor de sustrato de t = 0.5mm. Posteriormente se calibró el ancho de la cinta de forma empírica a su valor final de w = 1.55mm. Para la ubicación de los puertos de alimentación se siguió la consideración geométrica planteada en [9], [10]. Diseño de la capa de radiación La capa de radiación servirá para poner a prueba los sistemas de alimentación con GW, en virtud de realizar un estudio comparativo válido. Para la construcción de dicha capa de radiación se empleó una antena de apertura de tipo ranura simple, debido a que este es el tipo de antena más empleada en las ondas milimétricas, y a que tienen un diseño de fácil realización e integrable a estructuras más complejas como arreglos planares de alta ganancia [11]. La ranura empleada en este estudio, fue simulada con esquinas redondeadas, debido a que la realización ideal de esquinas rectas, en tales dimensiones, resulta difícil en la práctica [12]. En el caso de las estructuras RGW e IMGW, para la alimentación de la ranura se utilizó una estructura en “T”, unida mediante un trasformador de λ/4 al ridge y a la microcinta respectivamente. Las dimensiones finales de cada ranura, aunque muy cercanas, fueron ajustadas mediante barridos paramétricos buscando la condición de resonancia para cada estructura particular, se muestran en la Fig. 10, junto con los detalles geométricos de los alimentadores RGW e IMGW en la Fig. 11 [47]. Figura 10: Dimensiones de las ranuras para cada variante (a) RGW (b) GGW (c) IMGW Figura 11: Dimensiones de los alimentadores (a) RGW (b) IMGW 3. COMPARACIÓN Y ANÁLISIS DE LAS VARIANTES DE GAP WAVEGUIDES DISEÑADAS Se analizarán los resultados finales obtenidos después del proceso de diseño de las estructuras de alimentación atendiendo a una serie de parámetros que permiten establecer una comparación. Los resultados de la simulación que serían tomados en cuenta para este estudio son el parámetro S11, Razón de Onda Estacionaria de Voltaje (VSWR), patrón de radiación, ganancia, directividad, eficiencia total y de radiación, y por último un estudio económico de factibilidad y escalabilidad. Análisis de los Parámetros S: pérdidas por retorno, resonancia y ancho de banda. Analizando en primer lugar el resultado para el alimentador RGW (Fig. 12(a)), se puede observar que el ancho de banda obtenido satisface la banda de interés, ya que va desde 24,264 GHz, hasta 27,767 GHz (13,47 %), con un valor mínimo alcanzado de -23 dB a 26,135 GHz. Para el caso del GGW (Fig. 12(b)), se tiene un comportamiento particular, debido a la obtención de una aguda resonancia con un valor mínimo de -40,653 dB a 26 GHz, lo cual es un excelente resultado, debido a las bajísimas perdidas de la estructura a la frecuencia de interés, pero en cambio, el ancho de banda logrado resulto muy estrecho, desde 25.374 GHz, hasta 26.47 GHz (3,04 %), lo cual no satisface el ancho de banda necesario en la banda de interés; sin embargo, el valor de perdidas tan bajo obtenido a 26 GHz, se traduce en un altísimo factor de calidad Q, lo cual puede explicarse atendiendo a que existe una menor superficie, lo que permite una mayor densidad de corriente superficial, haciendo que la variante GGW sea ideal para usarse en filtros u otras estructuras que requieran una alta selectividad de frecuencia, es decir, alta Q. Para la variante IMGW (Fig. 12(c)) se obtuvo una banda útil desde 24,713 GHz hasta 27,418 GHz (7.51 %), con un muy buen valor de pérdidas de -36.585 GHz; en este caso es de notar que, aunque la banda de interés no está totalmente cubierta, la variante IMGW, representa un compromiso intermedio entre perdidas y ancho de banda. Figura 12: Resultados de la simulacion de los parámetros S11 en los tres sistemas de alimentación (a) RGW (b) GGW (c) IMGW La distribución de campo eléctrico (valor absoluto en dB), se puede observar en la Fig. 13. Se realizaron mediciones puntuales de los valores promedios del campo en las estructuras RGW, GGW, e IMGW, a lo largo del ridge, del surco o groove, y de la microcinta respectivamente. Tal y como era de esperarse, el campo eléctrico promedio medido en el interior del groove fue el mayor, con -10,8 dB aproximadamente, seguido por el de la microcinta, con -13 dB, y por último en el ridge, donde el campo medio simulado fue de -15,5 dB. Figura 13: Simulación del comportamiento del valor medio del módulo del campo eléctrico del alimentador (a) RGW (b) GGW (c) IMGW Razón de Onda Estacionaria de Voltaje (VSWR) La Razón de Onda Estacionaria de Voltaje, o VSWR (Voltage Standing Wave Ratio), es un parámetro que se utiliza en la práctica para medir el rendimiento en redes de microondas. Se considera un comportamiento aceptable por debajo de 2 e ideal cuando es 1, significando que no se pierde energía en ondas estacionarias debido a desacoples. Los resultados se muestran en la Fig. 14 a modo de comparación. Figura 14: Resultados de la simulación de la VSWR en los tres sistemas de alimentación (a) RGW (b) GGW (c) IMGW Para el alimentador RGW (Fig. 14(a)), la VSWR se comporta de manera muy favorable en toda la banda de interés, lo cual da fe del buen acoplamiento logrado en esa banda, con un valor mínimo alrededor de los 26 GHz de 1.1337. Para la variante GGW (Fig. 14(b)), se obtuvo el mejor valor mínimo a 26 GHz, con 1.0078, lo cual representa un acoplamiento casi total a la frecuencia de estudio; sin embargo, reforzando lo obtenido en los parámetros S, no se abarca toda la banda de interés, ya que el parámetro permanece por debajo de 2 solo desde 25.385 GHz a 26.49 GHz, para un 31.5 % del ancho de banda objetivo. Por su parte, para la variante IMGW (Fig.14(c)) vuelve a presentar un término medio entre ancho de banda y acoplamiento, pues a 26 GHz se obtuvo muy buen valor de 1.0354, más el ancho de banda efectivo, que va desde 24.653 GHz a 27.487 GHz, representa un 80.97 % del ancho de banda de interés. Ganancia Debido a la puesta a prueba de los alimentadores con una antena de tipo ranura, se hace necesario estudiar parámetros referentes a las antenas, en donde, como es lógico, los alimentadores influyen significativamente. En primer lugar, se estudió la ganancia de las antenas para cada variante, en la frecuencia central de 26 GHz. Los gráficos representados de manera comparativa en la Fig. 15 plotean las ganancias (en veces), en función de la frecuencia. Como se observa en la primera Fig. en 15(a), la ganancia obtenida en el RGW, fue de 4.67, lo cual es equivalente a 13.38 dB, que no es un mal valor, tratándose de un elemento simple de tipo ranura, aunque en comparación con las otras dos variantes, fue el menor obtenido. En este mismo gráfico se ve que para 26 GHz se obtiene el mínimo valor, pero si se observa la diferencia numérica con respecto a los máximos, no es apreciable. En el caso de la versión GGW, en Fig. 15(b), se observa una mejora en la ganancia a 26 GHz, con un valor de 5.46, o 14,74 dB, lo cual es una mejora con respecto a la anterior. En cambio, para la antena en la variante IMGW, representada en la Fig. 15(c), se obtuvo el mayor valor de ganancia, con 6.11, equivalente a 15.72 Db. Estos valores de ganancia se pueden mejorar empleando los elementos simples simulados, en estructuras compuestas como arreglos de alta ganancia o diseños fractales. Los resultados en veces y en decibeles se muestran en la tabla a modo de comparación. Figura 15: Resultados de la simulación de la ganancia de la antena en los tres sistemas de alimentación (a) RGW (b) GGW (c) IMGW Patrón de radiación y directividad. Otra importante consideración en el estudio de las antenas, que también será tomada en cuenta en virtud de comparación, es el patrón de radiación y la directividad, los cuales dan una idea de la capacidad de la antena en concentrar el campo en una dirección específica. Aquí se utilizaron los monitores de campo lejano del software CST MS. En la Fig. 16 se pueden observar los patrones de radiación de las antenas en las tres variantes, así como la directividad de cada antena. Analizando los patrones de radiación, se pueden observar similitudes, atendiendo a la similar morfología de las antenas como, por ejemplo, notar que se producen dos lóbulos principales, direcciones en las que se obtiene ganancia máxima. No obstante, en la variante IMGW se observa un mayor acercamiento de estos lóbulos, mientras que, en las otras dos variantes, se observan las dos zonas de máxima radiación bien definidas y separadas. Los valores para la directividad se muestran para cada antena. La mayor directividad se obtuvo para la variante RGW ( Fig. 16(a)), con un valor de 7.267 dBi, seguida por el valor en el GGW ( Fig. 16(b)) de 7.234 dBi; sin embargo, para la variante IMGW ( Fig. 16(c)) se obtuvo un valor de directividad más modesto de 6.902 dBi. A grandes rasgos la directividad no parece ser un parámetro que se vea afectado significativamente por el uso de una u otra variante de GW. Figura 16: Ploteo tridimensional del patrón de radiación de las antenas para cada variante (a) RGW (b) GGW (c) IMGW Eficiencia La eficiencia total da una medida de la capacidad de la antena para convertir la potencia de entrada disponible en potencia radiada al espacio libre y tiene un valor comprendido entre 0 y 1. Esta incluye la eficiencia de radiación, que tiene en cuenta la eficiencia de conducción y la eficiencia del dieléctrico, la misma se usa normalmente para relacionar la ganancia y la directividad. En la Fig. 17 se muestra la eficiencia total expresada en función de la frecuencia. El análisis por supuesto quedara centrado en la frecuencia objetivo de 26 GHz. El primer gráfico (Fig. 17(a)) muestra el resultado para la variante RGW, donde se obtuvo una eficiencia total de -0.022711 dB, lo cual se traduce en un valor porcentual de 94.9% de eficiencia. En el caso de la variante GGW Fig. 17(b)), la eficiencia total para 26 GHz fue de - 0.038668461 dB, para un 91.48% de eficiencia; mientras que en la variante IMGW (Fig. 17(c)) el valor resultante fue de -0.063220925 dB, que representa una eficiencia porcentual de 86.45%, que, a pesar de ser el valor más bajo obtenido, se puede observar una mayor uniformidad de la curva en la banda. A partir de este análisis se destaca la variante RGW como la más eficiente. Figura 17: Eficiencia de los alimentadores para cada variante (a) RGW (b) GGW (c) IMGW 4. CONCLUSIONES Como resultado del presente estudio, partiendo del análisis del estado del arte de los sistemas de transmisión en banda milimétrica, se pudo verificar en primer lugar, la necesidad y las ventajas del empleo de la tecnología GW en la capa de alimentación. Con la revisión de la bibliografía se pudo constatar el interés investigativo e industrial que existe en torno a esta tecnología. Durante la etapa de implementación, y en virtud del estudio comparativo, se diseñaron sendos alimentadores para las variantes RGW, GGW e IMGW, que a su vez fueron puestos a prueba con un elemento radiante simple de tipo ranura, se tuvo el cuidado de mantener cercanas las dimensiones de diseño y así garantizar una comparación válida. El proceso de implementación para cada variante se llevó a cabo en cuatro etapas: diseño de la superficie AMC, diseño de una línea de pines y el elemento conductor, diseño de un fragmento de línea de transmisión con dos puertos y, por último, el diseño final de las estructuras de alimentación con capa de radiación. El análisis de los resultados se dividió en una serie de variables que caracterizan el comportamiento de un sistema de alimentación. A partir de la consideración conjunta de estas variables se pudo concluir que: En cuanto a pérdidas, se obtuvieron los mejores resultados para la variante GGW, cuya resonancia alcanzó el excelente valor de -40 dB. Con respecto al ancho de banda, el mejor resultado se obtuvo en la variante RGW, que a pesar de ser la que más pérdidas presenta, se logró un ancho de banda porcentual de 13.47 %, lo cual satisface las exigencias de banda ancha para empleo de la portadora de 26 GHz. La variante IMGW por su parte, constituye un compromiso intermedio entre ancho de banda y pérdidas. RECONOCIMIENTOS Los autores desean agradecer a la Universidad Tecnológica de La Habana “José Antonio Echeverría”, que permitió el uso de sus instalaciones e instrumentos necesarios para el desarrollo de esta investigación. En especial al equipo de docentes que componen el departamento de Comunicaciones Inalámbricas. REFERENCIAS [1] KILDAL, Per Simon; ZAMAN, Ashraf Uz. “Gap waveguides”, en Handbook of Antenna Technologies, Singapore: Springer, 2016, pp. 3273-3347, ISBN: 978-981-4560-75-7. [2] PI, Zhouyue; KHAN, P. “A millimeter-wave massive mimo system for next generation mobile broadband”, en 2012 Conference Record of the Forty Sixth Asilomar Conference on Signals, Systems and Computers (ASILOMAR), Pacific Grove, Ca., USA: IEEE, nov. de 2012, pp. 693-698 [3] LOPEZ NARANJO; A; FLEITES RUIZ, J. “Contribución al estudio de la propagación en banda milimétrica en zona urbana entorno a la 5G”, Trabajo de diploma, La Habana, Cuba, jun. de 2017 [4] FARAHBAKHSH, Ali; ZARIFI, Davoud; ZAMAN, Ashraf Uz. “60-ghz groove gap waveguide based wideband h-plane power dividers and transitions: For use in high-gain slot array antenna”, IEEE Transactions on Microwave Theory and Techniques, vol. 65, pp. 4111-4121, 2017. [5] OÑA VALLADARES, Douglas. “Diseño de un arreglo de antenas con polarización circular en tecnología RGW para aplicaciones satelitales en la banda Ka.”, Tesis de grado, Universidad Tecnológica de La Habana, La Habana, 2019 [6] KILDAL, Per Simon; ZAMAN, Ashraf Uz. “Wide-band slot antenna arrays with single-layer corporate-feed network in ridge gap waveguide technology”, IEEE Transactions on Antennas and Propagation, vol. 62, pp. 2992-3001, 2014 [7] ZHANG, Jin; ZHANG, Xiupu; KISHK, A; “Design of substrate integrated gap waveguide and their transitions to microstrip line, for millimeter-wave applications”, IEEE Access, vol. 7, pp. 154 268-154 276, 2019. [8] POZAR, David M. Microwave Engineering, 4.a ed. John Wiley & Sons, Inc., 2012, pp. 28, 41, 45 ISBN: 978-0-470-63155-3. [9] RAZA, H; YANG, J; KILDAL, Per Simon. “Study of the characteristic impedance of gap waveguide microstrip line realized with square metal pins”, en 7th European Conference on Antennas and Propagation (EuCAP), Gothenburg, Sweden: IEEE, 2013, pp. 3001-3005, [10] RAZA, H; YANG, J; KILDAL, Per Simon. “Microstrip-ridge gap waveguide–study of losses, bends, and transition to wr-15”, IEEE Transactions on Microwave Theory and Techniques, vol. 62, pp. 1943- 1952, 2014 [11] PUCCI, E. “Gap waveguide technology for millimeter wave applications and integration with antennas”, Thesis for the degree of Doctor of Philosophy, Chalmers University of Technology, 2013, pp.183. [12] ZAMAN, Ashraf Uz. y KILDAL, Per Simon. “Ku band linear slot-array in ridge gapwaveguide technology”, en 7th European Conference on Antennas and Propagation (EuCAP), Gothenburg, Sweden: IEEE, 2003, pp. 3078-3081 Sobre los autores Fidel Martínez Armas: Ingeniero en Telecomunicaciones y Electrónica, graduado en la Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE, en enero de 2022. ORCID: 0000-0001- 8989-946X Taimir Alain Morales Roche: Profesor ATD de Telecomunicaciones y Electrónica en la Universidad Tecnológica de la Habana José Antonio Echeverría, CUJAE, actualmente cursando en el 6to año de la carrera de Telecomunicaciones y Electrónica. ORCID: 0000-0002-8365-3183 Michel Enrique Guerra Bernal: Ingeniero en Telecomunicaciones y Electrónica, graduado en la Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE, en junio de 2020. ORCID: 0000-3201-8989-9245 Francisco Marante Rizo: Graduado de Ingeniero en Telecomunicaciones en el año 1974 en La Universidad de La Habana y Dr. C.T en La Universidad Técnica de Praga en 1986. Actualmente es Profesor Consultante del Dpto. de Telecomunicaciones y Telemática de la Universidad Tecnológica de La Habana “José Antonio Echeverría”, CUJAE, La Habana, Cuba, ORCID: 0000-0003-3277-1371. SISTEMA DE ESTIMACIÓN DE LA DIRECCIÓN DE ARRIBO PARA UN RADIO COGNITIVO CONSCIENTE DE LA UBICACIÓN Yunior Ibarra Guerra 1, Alexander R. Ramírez Zaldívar 1, Abel Hernández Violat 1, Noslen Rojas Ramírez 1 1 CID MECATRONICS, Calle 15 y 86A, Playa, La Habana, Cuba 1cid3@reduim RESUMEN El conocimiento de la ubicación de Usuarios Primarios licenciados (PU, por sus siglas en inglés) puede impactar positivamente el proceso de sensado espectral de Redes de Radio Cognitivo (CRN, por sus siglas en inglés). Por lo general los PU no cooperan con usuarios secundarios lo que hace del proceso de su ubicación un verdadero reto. Uno de los métodos más efectivos de localización en CRN se basa en la estimación de la Dirección de Arribo (DOA, por sus siglas en inglés) de sus señales con empleo de arreglos de antenas. Aunque los fundamentos teóricos de estas técnicas son ampliamente divulgados, no ha sido el caso de las variantes de implementación en escenarios reales. En este trabajo se propone la implementación práctica de un sistema de estimación de DOA para CRN con el empleo de transceptores integrados de microondas conectados a una placa de desarrollo de FPGA, con un diseño basado en la combinación de lógica programable y software ejecutado en un procesador empotrado. La comprobación experimental con señales de PU reales permite verificar el correcto funcionamiento del sistema en escenarios prácticos. La solución implementada constituye una vía factible en la obtención práctica de CRN ante la creciente saturación espectral actual y puede ser extendida a otras aplicaciones como las redes de sensores inalámbricos o el despliegue de la 5G. PALABRAS CLAVES: DOA, Dirección de Arribo, Radio Cognitivo, Nios II, FPGA. DIRECTION OF ARRIVAL ESTIMATION SYSTEM FOR LOCATION AWARE COGNITIVE RADIO ABSTRACT Licensed Primary Users (PU) location awareness by Cognitive Radios(CR) can positively impact the Cognitive Radio Networks(CRN) spectral sensing and sharing process. In general, PUs doesn’t cooperate with secondary users which make its location process a real challenge. One of most effective PU location methods in CRN is based on its signals Direction of Arrival (DOA) estimation using antenna arrays. Although in scientific literature the theoretic methods of these techniques have a lot of incidence it hasn’t been the case of real scenarios implementation variants. In this work a DOA estimation system practical system implementation is proposed for CRN using integrated microwave transceivers controlled by an FPGA development board. A combined design based on programmable logic and software running on embedded processor combination is exposed to solve the CRNs DOA estimation process. The experimental tests with real PUs signals allow to verify the right system performance in practical scenarios. The implemented design is a feasible solution in order to achieve practical CRN as a solution to nowadays increasing spectral saturation and can be extended to others applications such as wireless sensor network or 5G deployment. KEY WORDS: DOA, Direction of Arrival, Cognitive Radio, MUSIC, Nios II, FPGA. 1. INTRODUCCIÓN El enorme crecimiento en el campo de las comunicaciones inalámbricas ha dado al traste con una saturación del espectro radioeléctrico sin precedentes. Esta situación se prevé que empeore en el futuro cercano con el incremento de técnicas y tecnologías inalámbricas emergentes como lo constituye la Sexta Generación de Celulares, la internet de las Cosas y la Identificación por Radiofrecuencia (6G, IoT, RFID, por sus siglas en inglés respectivamente) por solo citar algunos. La tecnología de Radio Cognitiva (CR, por sus siglas en inglés) se presenta como una solución prometedora al inevitable problema de saturación y sub utilización del espectro radioeléctrico. Los radios cognitivos pueden realizar la detección espectral, identificar dinámicamente el espectro inutilizado y de forma oportunista emplear aquellos agujeros espectrales para su propia transmisión. La tecnología de CR es además un concepto clave previsto a formar parte de los estándares inalámbricos de la quinta generación de celulares (5G). Con este propósito, la detección espectral eficiente es crucial en el despliegue efectivo de las CRN. Los esquemas de sensado espectral cooperativo (CCS, por sus siglas en inglés) pueden mejorar la exactitud del sensado de las redes de CR con la explotación de la diversidad espacial de múltiples usuarios. La información espacial acerca de la ubicación de los PU puede ser de gran importancia a la hora de identificar bandas vacantes de forma eficiente. Esta permite dotar a las CRN de funciones avanzadas en las que se incluye el sensado espacio-temporal mejorado, el encaminamiento inteligente consciente de la ubicación y el apoyo al cumplimiento de las políticas espectrales lo que conduce al concepto de radio cognitivo consciente de la ubicación. Con esta filosofía en [1] se propone un nuevo paradigma de sensado profundo de comunicaciones 5G para conjuntamente estimar el estado de la ubicación espacial y ocupación espectral de los PUs. Un problema a afrontar es que el PU no comunica con CRs y solamente está disponible un conocimiento muy limitado acerca de su señalización, potencia de trasmisión o esquema de modulación, por tal motivo deben aplicarse técnicas de localización pasivas. Las técnicas de localización pasivas pueden categorizarse en tres clases fundamentales en base a la naturaleza de las mediciones compartidas entre todos los CRs para obtener los estimados de la ubicación. Entre las más difundidas se encuentran las basadas en la intensidad de señal recibida, diferencia de tiempo de arribo y dirección de arribo (RSS, TDoA y DOA por sus siglas en inglés). En el caso de los algoritmos basados en la estimación de RSS se emplea la medición de la potencia de los usuarios primarios para proporcionar estimados aproximados de su dirección con un costo computacional y de hardware relativamente bajo. En los métodos basados en TDoA los estimados de la ubicación se obtienen a partir de las diferencias de tiempo de arribo de múltiples recepciones en CR de la señal transmitida por PU. Estas técnicas no son recomendables para aplicaciones de RC debido a que se requiere una sincronización perfecta entre múltiples CR. Por último, los métodos basados en DOA emplean los estimados de los PU observados en múltiples receptores cognitivos para obtener los de la ubicación. En este sentido, en [2] se propone un nuevo método de detección espectral con empleo de un arreglo de antenas para la estimación de DOA de las señales de PUs y de esta forma se mejora la probabilidad de detección en una CRN. De forma general los estimados de DOA pueden obtenerse bien mediante el empleo de múltiples arreglos de antenas, antenas direccionales o arreglos virtuales formados por CRs cooperativos. De las formas anteriores solamente el empleo de arreglos de antenas posibilita estimados de alta resolución angular o súper resolución, donde es posible diferenciar PU separados a una separación angular menor que el lóbulo principal del arreglo de antenas. Otra gran ventaja es la capacidad de estimación de DOA de señales de PU que coexisten en el mismo ancho de banda, así como en presencia de interferencia co-canal. La principal desventaja que presentan estos métodos es la demanda de una mayor potencia de cálculo y el encarecimiento del hardware con el empleo de múltiples sistemas receptores embebidos en un mismo radio cognitivo. Los avances en la microelectrónica han permitido la reducción de estas demandas y hoy en día es posible encontrar varios transceptores de banda ancha integrados en un mismo chip por lo que existe una creciente tendencia a la implementación de estos métodos con una base tecnológica actualizada y de bajo coste. El presente trabajo tiene como objetivo la implementación práctica de un sistema de estimación de DOA de PUs para un radio cognitivo multicanal con arreglo de antenas. El método de diseño e implementación permite exponer los principales criterios y cuestiones a considerar a la hora de implantar un radio cognitivo consciente de la ubicación basado en DOA con la tecnología disponible actualmente. El empleo de la combinación de Lenguaje de Descripción de Hardware (HDL, por sus siglas en inglés) y software ejecutado por un procesador embebido propicia que el sistema implementado sea altamente reconfigurable y escalable. La validación experimental del sistema con señales reales permite corroborar el correcto funcionamiento del sistema implementado en un entorno electromagnéticamente complejo. El sistema propuesto permite la integración en una CRN donde la ubicación exacta de cada PU se conoce a partir de los estimados de DOA con súper resolución proporcionado por cada CR. 2. RADIO COGNITIVO CONSCIENTE DE LA UBICACIÓN Si se considera la red de radio cognitivo que se presenta en la figura 1, el PU2 con DOA 𝜃2 respecto a CR1 transmite en una cierta banda de frecuencias con portadora 𝑓2. Si se asume que CR2 no recibe la transmisión de PU2, CR1 puede transmitir en la misma banda de frecuencia hacia CR2 en la dirección opuesta de PU2 sin llegar a interferir al PU. Bajo esta concepción la estimación de DOA puede así mejorar el rendimiento del CR con el conocimiento de las bandas vacantes en el dominio espacio- frecuencia [4]. Con este concepto en [3] se propone un nuevo algoritmo de estimación conjunta de la frecuencia portadora y DOA en dos dimensiones seguido del seguimiento espacial con un Filtro Extendido de Kalman de PUs en CRN. De forma similar en [5] se propone el diseño de un formador de haz con ajuste adaptivo del cero de radiación con respecto a la dirección de un PU, donde esta se estima la DOA a partir del método MUSIC y SS-MUSIC para un sistema de IoT-5G. Figura 1: Ilustración de tres transmisiones de PU incidiendo en un sistema de CR consciente de la ubicación. Problema de la estimación de DOA en radios cognitivos Si se considera un arreglo Lineal Uniforme (ULA, por sus siglas en inglés) de M antenas isotrópicas como el que se muestra en la figura 2. En la zona lejana al arreglo existen P fuentes de señal de banda estrecha no correlacionadas que inciden desde diferentes direcciones {θ1, . . . , θp}. El vector de observaciones de dimensión Mx1 se define por la ecuación (1). x(t) = As(t) + n(t), t = 1, . . . , N (1) donde: A = [a(θ1), . . . , a(θp)] es la matriz directiva, s(t) = [s1(t), . . . , sP(t)] es el vector de fuentes de señal, N es el número de muestras y el vector directivo debido a la p-ésima fuente emisora se expresa por la ecuación (2) a(θp) = [1, e j2πsin(θp)d/λ, . . . , ej2π(M−1)sin(θp)d/λ ]T (2) donde: (∙)T es la transpuesta, λ la longitud de onda de la portadora y d es el espaciamiento entre elementos. Se asume que el ruido n(t) es un proceso blanco Gaussiano con media cero y covarianza σn 2IM, donde IM es la matriz de identidad de MxM elementos, además el ruido es no correlacionado con la señal s(t). El problema en cuestión radica en estimar la DOA a partir del procesamiento los voltajes inducidos en cada uno de los elementos del arreglo de antenas x(t). La exactitud de la estimación de DOA es un parámetro de vital importancia y de varios factores que incluyen la estructura del arreglo, estructura de los receptores, plataforma de cálculo y el método empleado. Además, es función del patrón de radiación la antena, la resolución de los datos digitalizados y el sincronismo en el muestreo de los diferentes canales receptores. Figura 2: Estimación de la DOA de D emisores en el espacio por un arreglo lineal uniforme de M antenas. La estimación de la dirección de arribo mediante el procesamiento de señales de arreglos de antenas brinda probadas ventajas sobre otros métodos y es sobre todo la de estimar de forma simultánea de múltiples fuentes emisoras en la misma frecuencia portadora con elevada importancia en la ubicación y localización de fuentes de interferencia co-canal [6]. Los métodos de estimación de DOA con superresolución se caracterizan por determinar el DOA con resoluciones superiores al ancho del haz principal del arreglo de antenas, a diferencia del método basados en la formación del diagrama direccional de forma digital como es el caso de Capon y Bartlett [7]. El método que más exactitud ha mostrado en la estimación de DOA con superresolución es el de Máxima Verosimilitud (ML, por sus siglas en inglés). El problema común en los métodos de ML en general es la necesidad de solucionar un problema de optimización multidimensional no lineal, que por su complejidad computacional es prácticamente irrealizable en aplicaciones en tiempo real además de que no necesariamente garantiza la convergencia global [6]. Por otro lado, el método de Clasificación de Señales Múltiples (MUSIC, por sus siglas en inglés) se presenta como una solución eficiente al problema de estimación de DOA con superresolución. Este puede estimar el DOA de M-1 señales, aunque su principal desventaja es su sensibilidad a los efectos de la propagación multitrayecto. En tal sentido en [6] se resumen algunos algoritmos desarrollados para solucionar esta deficiencia. Otros métodos conocidos lo constituyen ESPRIT [8] y WSF [9]. El primero posee una buena exactitud en el estimado, inmunidad a los efectos del multitrayecto y mejor resolución, pero como desventaja presenta que se necesita del doble de las antenas que MUSIC para estimar el DOA del mismo número máximo de fuentes emisoras y un aumento del costo computacional. En el caso de WSF es uno de los métodos más robustos desarrollados hasta ahora para la estimación de DOA, la principal desventaja que presenta es que no posee solución analítica y por lo tanto se soluciona por métodos iterativos que en ocasiones pueden presentar problemas de convergencia además de un mayor requerimiento de potencia de cálculo [6]. De forma general, el método MUSIC y específicamente Root-MUSIC Unitario [1] es ampliamente empleado por su capacidad de rendimiento y todas sus versiones y modificaciones han sido extensivamente estudiadas [6]. Por los motivos anteriores este constituye el método de estimación de DOA que se empleará para el radio cognitivo consciente de la ubicación a implementar en este trabajo. Método Root-MUSIC Unitario Un parámetro importante en cualquier método basado en subespacios es la matriz de covarianza espacial de los sensores Rx. Cuando las señales son no correlacionadas con el ruido, esta puede expresarse mediante la ecuación (3). Rx = E{x(t)x(t) H} = ARsA H + σn 2IM (3) Donde: Rs = E{s(t)s(t) H} y E{⋅} representa el operador esperanza matemática y (⋅)H es la transpuesta conjugada de una matriz. En la práctica Rx se desconoce así que un buen estimado de la anterior lo constituye el promedio de múltiples muestras como se expone en la ecuación (4), donde T es el número de muestras [6]. Rx = 1 T ∑ x(t)x(t)HTk=1 (4) El método Root-MUSIC Unitario [1] emplea una matriz de covarianza espacial de valores reales dada por la ecuación (5). C = 1 2 QM H (R + JMR ∗JM)QM = Re{QM HRQM} (5) Donde: Re{∙} representa la parte real, JM es una matriz de intercambio de MxM la cual posee unos en la anti diagonal y ceros en las demás posiciones, (∙)∗ representa la matriz compleja conjugada y QM es una matriz poco densa unitaria definida por la ecuación (6), donde 0l es un vector ceros. QM = { 1 √2 [ Il jIl Jl −jIl ] , para M = 2l 1 √2 [ Il 0l jIl 0l T √2 0l T Jl 0l −jJl ] , para M = 2l + 1 (6) Se define la descomposición en valores propios (EVD, por sus siglas en inglés) de C como C = EΛEH = EsΛsES H + σn 2ENEN H (7) donde: ES = [e1, … , eP] , y ΛS = diag[λ1, … , λP] son los valores propios de señal y diag{∙} es la diagonal principal de una matriz. {λi}i=1 P son los correspondientes vectores propios de señal y{ei}i=P+1 M son los vectores propios de ruido. De esta forma el polinomio del método Root-MUSIC Unitario puede expresarse de acuerdo a la ecuación (8). fU_MUSIC(z) = ã T(1/z)ENEN T ã(z) (8) donde: ?̃?(z) = 𝐐M H𝐚(z) y zi = e j2 πdsin θi/λ son las raíces de la ecuación 8. Si se determinan las P raíces más cercanas al círculo unitario es posible estimar las DOAs con la ecuación (9), donde ∠ representa el operador de ángulo. θi = sin −1 ∠(Zi)λ 2πd , i = 1, . . . , P (9) En [13] se ha demuestra que Root-MUSIC con promediación hacia adelante y hacia atrás de la matriz de covarianza espacial (FB Root-MUSIC, por sus siglas en inglés) y Root-MUSIC Unitario poseen el mismo rendimiento. Este último además posee la ventaja de ser computacionalmente más eficiente debido a que todos los cálculos son realizados con valores reales. Implementación del método de estimación de DOA con súper resolución en un sistema de radio basado en FPGA Para responder a la demanda de la nueva generación de las técnicas de radio frecuencia, los sistemas actuales de radiocomunicaciones poseen requerimientos que restringen su tamaño, peso, potencia y costo (SWaP, por sus siglas en inglés). Gracias a los avances en el campo de la microelectrónica es posible la fusión en un solo chip de funciones que hace una década se realizaban en componentes por separado. Ejemplo de esto lo constituyen la familia de transceptores integrados AD93XX y ADRV93XX de Analog Devices [10]. Particularmente el AD9361 ha sido uno de los más difundidos en placas de evaluación para el desarrollo de prototipos en aplicaciones prácticas con un relativo corto período de tiempo. Para el presente trabajo se seleccionó la placa de evaluación de los ARRadio de la compañía Terasic [11]. Una variante prometedora que ha despuntado en la última década ha sido el empleo de diseños en HDL combinado con la ejecución de software en tiempo real en procesadores empotrados de alto rendimiento. Por tal motivo esta fue la arquitectura de procesamiento seleccionada para la implementación del radio cognitivo y el método de estimación de DOA. Uno de los procesadores empotrados más empleados y que mayor rendimiento ha demostrado como es el caso del Nios II de Intel [14]. Por tal motivo este será el procesador a emplear en su variante Fast[14] de segunda generación. El diseño se implementará en la placa de desarrollo TR4 de Terasic, la cual porta una FPGA Stratix IV de Intel y es compatible con la interfaz HSMC de conexión de los ARRadio. Entre las ventajas de esta selección resaltan la posibilidad de emplear múltiples ARRadios en una misma placa a través de sus conectores HSMC, así como la disponibilidad de múltiples salidas de reloj para la precisa sincronización de las señales recibidas por múltiples canales. El seudocódigo de la implementación del método Root-MUSIC Unitario se muestra en la figura 3. Cabe destacar la elevada complejidad y potencia de cálculo que demanda, así como la necesidad de ejecución de cálculo en tiempo real para la descomposición en valores propios y la determinación de las raíces de un polinomio complejo de orden 2M − 2. A continuación se describe el proceso de implementación de las operaciones más complejas involucradas en el algoritmo. Figura 3: Seudocódigo del algoritmo Root MUSIC Unitario para la estimación de DOA. Como muestra la figura 4 se configuró un sistema de dos placas ARRadio para un total de cuatro canales radio receptores. El control y configuración de los transceptores integrados AD9361 se realizó por el procesador Nios II a través del protocolo de comunicación SPI según se describe en [15]. Las muestras I/Q de salida de los AD9361 se reciben a través de un bus de 12 bits en formato CMOS de salida simple [15]. En la implementación de la recepción de los datos se incorporó la implementación de la calibración de las diferencias de amplitud y fase de cada uno de los canales receptores basada en la transformada Rápida de Fourier (FFT, por sus siglas en inglés), para ello se siguió un procedimiento similar al descrito en [16]. Los estimados de DOA obtenidos serán transmitidos a la una computadora de personal (PC, por sus siglas en inglés) a través del interfaz PCI Express. Figura 4: Diagrama funcional de la implementación en FPGA del método Root-MUSIC Unitario. Cálculo de la matriz de covarianza espacial Para el cálculo en HDL de la matriz de covarianza espacial del arreglo de antenas se empleó el flujo de diseño basado en modelos de Simulink y el toolbox HDL CoderTM de Matlab. Como se muestra en la ecuación (3) el cálculo de cada uno de los coeficientes de la matriz de covarianza puede expresarse como la suma acumulada del producto complejo conjugado de dos señales. Si las señales pertenecen al mismo canal entonces los valores de la matriz corresponden con los elementos de la diagonal principal y si son de diferentes canales pertenecen a los elementos fuera de la diagonal de la matriz. Figura 5: Modelo en Simulink del cálculo de la matriz de covarianza para exportar a HDL. De esta forma para asegurar el máximo paralelismo, cada uno de los valores de la matriz de covarianza se calculó de forma independiente con el modelo que se muestra en la figura 5. En el diseño se empleó la notación en punto fijo, para una compatibilidad con el sistema de transmisión de datos los coeficientes obtenido de 28 bits se estandarizan a enteros con signo de 32 bits. A partir del modelo obtenido se generó el código HDL con las restricciones temporales necesarias y se comprobó en Quartus Prime 17.0. Cálculo de los valores propios de la matriz de covarianza espacial y búsqueda de las raíces del polinomio complejo de Root MUSIC Unitario Para la descomposición de los valores propios se empleó la biblioteca de C++ JACOBI_EIGENVALUE, la cual calcula los valores y vectores propios de una matriz simétrica real de NxN mediante el método iterativo de Jacobi. La búsqueda de las raíces del polinomio complejo de Root-MUSIC se realizó mediante el método numérico iterativo de Laguerre [10]. Este constituye uno de los s más efectivos para la búsqueda de raíces reales, complejas, simples o múltiples. Aunque para algunos tipos de raíces complejas poco se ha probado acerca de su convergencia, si una gran experiencia empírica sugiere que la no convergencia es extremadamente inusual. En [10] el algoritmo y código en C++ se encuentra correctamente documentado y se tomó como referencia para la implementación en el procesador Nios II. Resultados y Discusiones Uno de los retos que enfrenta la implementación práctica de sistemas de estimación de DOA para radios cognitivos en la actualidad es la disponibilidad de sistemas de comprobación y verificación efectivos durante su funcionamiento. Una variante podría ser la incorporación de receptores GPS en cada PU para tomar como referencia su medición y de esta forma comprobar el rendimiento real del sistema. Este proceso puede simplificarse significativamente si de forma oportuna se emplean las señales de PU comerciales que por su naturaleza contienen la información relacionada con su posición espacial. Tal es el caso de las señales provenientes del equipamiento de Transmisión Automática de Vigilancia Dependiente (ADS-B, por sus siglas en inglés) de la aviación comercial. Debido a la naturaleza determinista de las señales ADS-B se decidió emplear como técnica de detección espectral la de filtro adaptado para la posterior detección y decodificación de los datos de referencia. El receptor ADS-B y filtro adaptado antes de la detección se implementó en HDL. De esta forma fue posible capturar las señales a procesar por el sistema de estimación de DOA y darle seguimiento a un PU en particular para así comprobar el rendimiento de las mediciones con elevada precisión. Las señales de radio provenientes de transmisores ADS-B de la aviación comercial son accesibles con el empleo transceptores de microondas integrados como el AD9361 presente en el ARRAdio. En la figura 6 se muestra el esquema funcional de comprobación del subsistema de estimación de DOA implementado. Figura 6: Descripción gráfica del sistema de comprobación implementado aprovechando las señales de la aviación comercial. Para ello se empleó un ULA de 4 dipolos de media onda con plano reflector trasero que a la frecuencia de 1090 MHz se encuentran separados a media longitud de onda. El arreglo se ubicó en exterior a una altura adecuada para la recepción de las señales ADS-B y se conectó a través de cables coaxiales de bajas pérdidas a los cuatro canales receptores de los dos ARRadio. El primer canal de recepción se derivó a la entrada del receptor ADS-B implementado en HDL para la recepción y decodificación del identificador de las señales y de esta forma se procesó en el subsistema de estimación de DOA solamente a los PU de interés. Por otro lado, las señales del arreglo de antenas en su conjunto se procesan en banda base en el sistema de estimación de DOA implementado. En la figura 7 se muestra una captura de las componentes en fase de las señales ADS-B recibidas por cada dipolo del arreglo de antenas y adquiridas durante las pruebas provenientes de un avión comercial, la sinusoide envolvente resulta producto del efecto Doppler. Figura 7: Captura de las componentes en fase de las señales ADSB recibidas por el arreglo de antenas y adquiridas durante las pruebas experimentales. Luego del procesamiento de las señales del arreglo de acuerdo al método Root-MUSIC Unitario se envían los valores de DOA estimados a la PC a través del interfaz PCI Express junto a los datos de posición obtenidos por el receptor ADS-B de la trama detectada. En una interfaz gráfica en Matlab se representa en tiempo real el ángulo y trayectoria angular, estimado por el sistema de estimación de DOA. En otro software en base a los datos de la trama ADS-B recibida, se calcula la posición y azimut del transmisor con respecto al punto de referencia corregido. En la figura 8 a la izquierda se muestra el valor de azimut decodificado de la trama de un transmisor ADS-B con un valor de 310.57 º y a la derecha el resultado de la estimación de DOA mediante el método Root-MUSIC Unitario implementado en la FPGA con un valor de 310.81 º. Figura 8: Captura de las componentes en fase de las señales ADSB recibidas por el arreglo de antenas y adquiridas durante las pruebas experimentales. Como se aprecia existen diferencias entre ambos valores, las fuentes de error en el proceso de estimación de DOA están causadas por varios factores y ha sido objeto de estudio por diversas fuentes [6]. Para caracterizar el sistema en el rango completo de exploración se llevó un registro del error cuadrático medio (RMSE, por sus siglas en inglés) promedio cometido en la estimación de DOA de varios PU seleccionados aleatoriamente de manera que fuera cubierto toda la exploración del arreglo, en este caso 180 º. El resultado de este proceso se muestra en la figura 9, se aprecia que el RMSE en el centro del arreglo es mucho menor que en los extremos, esto coincide con la deducción matemática del Límite Inferior de Cramer Rao (CRLB, por sus siglas en inglés) para un ULA presentado en [17]. En el rango de ±60 º posee un valor de RMSE promedio de 1.49 º por lo que puede considerarse como satisfactorio sobre todo si se tiene en cuenta que varios sistemas profesionales de estimación de DOA oscilan en el rango de 2 a 5 º [17]. Figura 9: RMSE de la estimación de DOA en el radio cognitivo consciente de la ubicación implementado. También se aprecia que los errores en el rango fuera de ±60 º son considerables. Como se plantea en [6] las no uniformidades de la matriz de respuesta de amplitud y fase del arreglo causada por diversos factores impacta significativamente en los errores de estimación de DOA [18]. Un método para disminuirlos es la calibración de estas no uniformidades mediante mediciones o simulaciones electromagnéticas para cada punto de frecuencia, su almacenamiento en una memoria no volátil y la implementación del método con la matriz calibrada. Aunque este procedimiento disminuye significativamente los errores de estimación, algunos de los inconvenientes resultan en la imposibilidad de estimar el DOA en un punto de frecuencia no calibrado, así como el requerimiento de almacenamiento no volátil. Los autores consideran que en este caso son aceptables los resultados obtenidos de RMSE para el rango de 120 º (relativamente amplio) por lo que la calibración de la matriz de respuesta de amplitud y fase es recomendada para trabajos posteriores. 3. CONCLUSIONES La obtención de un sistema de estimación de DOA de las señales procedentes de usuarios primeros para un radio cognitivo permite exponer los principales criterios a considerar durante el proceso de diseño e implementación. La implementación combinada en un dispositivo FPGA del diseño en HDL y software ejecutado por un procesador embebido propicia que el sistema implementado sea altamente reconfigurable y escalable. Se demuestra la aplicabilidad de un sistema de estimación de DOA con métodos de súper resolución sobre una plataforma modular de hardware-software tecnológicamente actualizada. La solución propuesta permite la obtención de prototipos para la experimentación con métodos de gran complejidad computacional en un plazo de tiempo relativamente corto. Los resultados experimentales con señales reales demuestran la validez del método implementado. La independencia del cálculo de la matriz de covarianza espacial en hardware con respecto al método final implementado en software embebido flexibiliza considerablemente la aplicación de otros métodos de similar complejidad. Se selecciona el método Root-MUSIC Unitario en primera instancia para implementarse en la plataforma diseñada, aunque la arquitectura hardware-software adoptada posibilita implementar métodos más avanzados en tiempos mínimos. El RMSE promedio obtenido presenta valores satisfactorios en un rango de exploración relativamente amplio. El sistema implementado brinda una solución basada en hardware modular comercial sin la necesidad de la fabricación de PCB personalizados lo que disminuye considerablemente los costos de obtención final. El sistema obtenido permite conocer la dirección aproximada de la que arriban las señales de los usuarios primarios por lo que le permite a los CR compartir esta información en una CRN para aplicar funciones avanzadas como la detección espacio- temporal mejorada y el encaminamiento inteligente consciente de la ubicación. REFERENCIAS 1. LI B, LI S, NALLANATHAN A, ZHAO C: Deep Sensing for Future Spectrum and Location Awareness 5G Communications. IEEE JOURNAL ON SELECTED AREAS IN COMMUNICATIONS. 2015;33(7). 2. DING Y-F, CHEN2 Y-H, SHI Z-P. A Method of Spectrum Sensing Based on Multiple Antennas. IEEE Explore. 2019. 3. ELARABY S, SOLIMAN HY, ABDEL-ATTY H, MOHAMED A. M. Joint 2D-DOA and Carrier Frequency Estimation Technique Using Nonlinear Kalman Filters for Cognitive Radio. IEEE Access. 2017;5. 4. CELEBI H, ARSLANM H. Utilization of location information in cognitive wireless networks. IEEE Wireless Communications Magazzine. 2007;14(4). 5. DATTA J, LIN H-P. Interference Avoidance using Spatial Modulation based Location Aware Beamforming in Cognitive Radio IOT Systems. Advances in Science, Technology and Engineering Systems Journal. 2018;3(2). 6. VAN TREES HL. Optimum Array Processing: John Wiley & Sons, Inc; 2002. 7. KRIM H, VIBERG M. Two Deacades of Array Signal Processing: The Parametric Aproach. 1996. 8. ROY R, KAILATH T.ESPRIT- Estimation of Signal Parameters Via Rotational Invariance Techniques IEEE Transactions on Acoustics, Speech and Signal Processing. 1989;37(7). 9. JANSSON M, SWINDLEHURST AL, OTTERSTEN B. Weighted Subspace Fitting for General Array Error Models. IEEE TRANSACTIONS ON SIGNAL PROCESSING. 1998;46(9). 10. ANALOG DEVICES. Wideband Transceiver IC 2020 [Available from: www.analog.com/en/ products/rf-microwave/ integrated-transceivers-transmitters-receivers/wideband-transceivers-ic.html. 11. TERASICINC: HSMC ARRadio Daughter Card: Terasic Inc.; 2020 [Available from: https://www.terasic.com.tw/cgi-bin/page/archive.pl? Language English & CategoryNo=65&No=946. 12. LIU Y, CUI H. Antenna Array Signal Direction of Arrival Estimation on Digital Signal Processor (DSP). Elsevier. 2015. 13. SHI H.An Efficient FPGA Parallel Implementation for 2-D MUSIC Algorithm. IOP Conference Series: Earth and Environmental Science. 2019. 14. INTEL CORP.Nios® II Processors for FPGAs - Intel® FPGA: Intel Corp.; 2020 disponible en: https://www.intel.la/content/www/xl/es/products/programmable/processor/nios-ii.html. 15. ANALOG DEVICES.AD9361 Reference Manual. ANALOG DEVICES; 2020. 16. CHEN B, WU J. Synthetic Impulse and Aperture RADAR (SIAR): A Novel Multi-Frequency MIMO RADAR. China: National Defense Industry Press; 2014. 17. TUNCER E, FRIEDLANDER B. Classical and Modern Direction-of-Arrival Estimation. Burlington, USA: Academic Press; 2009. 18. AL-DABBAGH MD, GABER A, OMAR A. Phase Calibration of Massive MIMO System for Direction of Arrival Applications. IEEE MTT-S International Microwave Conference on Hardware and Systems for 5G and Beyond(IMC-5G); USA: IEEE; 2019. Sobre los autores Yunior Ibarra Guerra, es ingeniero en Telecomunicaciones, graduado del ITM “José Martí” en el año 2015. En estos momentos opta por el título académico de Máster en Sistemas Digitales en la Universidad Tecnológica de la Habana “José Antonio Echevarría”. Actualmente trabaja en el Centro de Investigación y Desarrollo de Electrónica y Mecánica, “CID MECATRONICS”. Abel Hernández Violat es ingeniero Radioelectrónico, graduado del graduado del ITM “José Martí” en el año 1997. Investigador Auxiliar desde el 2017, actualmente opta por la obtención del grado científico de Doctor en Ciencias Técnicas. Trabaja en el Centro de Investigación y Desarrollo de Electrónica y Mecánica, “CID MECATRONICS”. Alexander Rogelio Ramírez Zaldívar, es ingeniero en Telecomunicaciones, graduado del ITM “José Martí” en el año 2015. En estos momentos opta por el título académico de Máster en Sistemas Digitales en la Universidad Tecnológica de la Habana “José Antonio Echevarría”. Actualmente trabaja en el Centro de Investigación y Desarrollo de Electrónica y Mecánica, “CID MECATRONICS”. Noslen Rojas Ramírez, es ingeniero Radioelectrónico, graduado del ITM “José Martí” en el año 1996. Doctor en Ciencias Técnicas e Investigador Titular, actualmente trabaja en el Centro de Investigación y Desarrollo de Electrónica y Mecánica, “CID MECATRONICS”. TECNOLOGÍAS 6G: REQUISITOS, DESAFIOS Y APLICACIONES Campos Calenga Pataca Departamento de Electrónica y Electrotecnia de la FE - Universidade Agostinho Neto, e INTIC - Universidad de Luanda, Luanda - Angola; 1e-mail: cleofas36@gmail.com RESUMEN La comunicación de quinta generación (5G), que tiene muchas más funciones que la comunicación de cuarta generación, se lanzó oficialmente para su comercialización en 2020. Sin embargo, 5G es insuficiente para satisfacer todas las necesidades de la tecnología futura a partir de 2030. La tecnología de la información y la comunicación de próxima generación está desempeñando un papel importante en la atracción de investigadores, industrias y personal técnico. En cuanto a las redes 5G, el nuevo paradigma de comunicación inalámbrica, el sistema de sexta generación (6G), con soporte total de inteligencia artificial, se espera que se despliegue entre 2027 y 2030. Mientras que algunas soluciones tecnológicas del futuro cercano se incluirán en la evolución a largo plazo de 5G, otras requerirán un cambio radical, lo que llevará a la estandarización de la nueva 6.ª generación (6G). Este trabajo presenta la visión de la futura comunicación inalámbrica (6G), los principales requisitos, desafíos y destaca las aplicaciones relevantes de 6G. PALABRAS CLAVES: 6G, requisitos, aplicaciones, comunicación THz. GUIDELINES FOR PREPARING ARTICLES FOR THE XX SCIENTIFIC CONVENTION ON ENGINEERING AND ARCHITECTURE ABSTRACT Fifth generation (5G) communication, which has much more functions than fourth generation communication, was officially launched for commercialization in 2020. However, 5G is insufficient to meet all the needs of future technology after 2030. Next generation information and communication technology is playing an important role in attracting researchers, industries and technical personnel. As for 5G networks, the new wireless communication paradigm, the sixth generation (6G) system, fully supported by artificial intelligence, is expected to be deployed between 2027 and 2030. While some near- future technological solutions will be included in the long-term evolution of 5G, others will require radical change, leading to the standardization of the new 6th generation (6G). This work presents the vision of the future wireless communication (6G), the main requirements, challenges and highlights the relevant applications of 6G. KEY WORDS: 6G, requirements, applications, THz communication. 1. INTRODUCCIÓN El diseño y la ingeniería de una nueva generación de sistemas de comunicación inalámbrica están motivados por la ambición de enfrentar nuevos desafíos sociales y permitir casos de uso radicalmente nuevos destinados a crear un nuevo valor [Emilio Calvanese Strinatia,1,∗ , Sergio Barbarossab, 2021]. Una pregunta clave al iniciar la investigación sobre el diseño de una nueva generación es si la nueva generación debe ser compatible con versiones anteriores o hacer borrón y cuenta nueva. Sin embargo, 5G sufrirá por no satisfacer todas las demandas de futuras aplicaciones más allá de 2030. Además, para aumentar la cobertura y reducir el consumo de energía, la red móvil de sexta generación (6G) debe proporcionar una red móvil de amplio espectro, rentable y de alta nivel de seguridad [Visión y direcciones de investigación de 6G t, 2022]. 2. METODOLOGÍA El trabajo parte de un estudio exploratorio de la evolución de la red 5G a 6G, con un mayor foco en los requerimientos y aplicaciones de la tecnología 6G, incursionando en las investigaciones que están realizando investigadores en varios países. A partir de la investigación bibliográfica fue posible identificar los principales requisitos, los desafíos relacionados con los diversos factores que impulsan 6G y las principales aplicaciones. 3. CONTEXTUALIZACIÓN Evolución La evolución de los sistemas celulares pasa por la implementación de nuevos servicios de telefonía móvil celular, donde se agregan nuevos estándares, arquitectura o simplemente se optimiza lo ya existente. La Tabla 1 ilustra el resumen histórico de la evolución de los sistemas móviles celulares. Tabla 1 - Resumen histórico de la evolución de los sistemas y estándares de comunicaciones inalámbricas # Año de inicio Breve Descripción Principales Estándares Enfoque Fuente 1G 1979 Tecnología de radio que era necesaria para a implantación de sistemas de radio móvil en la banda 800/900 MHz a un costo razonable. NTT, NMT, AMPS, ETACS, C- 450 Voz [3] 2G 1991 Sistema digital (voz analógica y SMS digital) con mayor inmunidad al ruido, nuevas formas de acceso múltiple, mejorando la eficiencia espectral, roaming internacional, tráfico de datos en la red, con mayor accesibilidad y área de cobertura. GSM, DCS 1800, PCS 1900, IS;54/136, PDC, IS-95 Voz e Datos (SMS) [4] 3G 2002 Tecnología de interfaz de radio de banda ancha, con una tasa de transmisión de 2 Mbps, diseñada para admitir al menos 200 kbps en la tasa máxima. La primera banda ancha móvil que usaba protocolos IP agregó mensajes de texto e imágenes a las llamadas de voz. IMT-2000, UMTS, WCDMA, (3GPP/ETSI, UMTS/HSPA, EDGE, DECT,) Voz e Multimedia [5] 4G 2010 Tecnología basada en IP, con altas tasas de transmisión (hasta 1 Gbps). Un estándar de banda ancha móvil diseñado para admitir toda la red de Protocolo de Internet (IP) para llamadas, video, datos y acceso web. Los objetivos de rendimiento de 4G son 100 Mbps para aplicaciones móviles de alta velocidad, como automóviles, y 1 Gbps para casos de uso de baja movilidad, incluido el acceso peatonal y a ubicaciones fijas. IMT- Advanced 3GPP-LTE Advanced, IEEE – WiMAX 2 (802.16m) Banda ancha (IP), HD- Multimedia [5] 5G 2020 Tecnología básica que da soporte a la industria y la sociedad del futuro, junto con la inteligencia artificial (IA) y el Internet de las Cosas (IoT), servicios de comunicación multimedia con alta velocidad, alta capacidad, baja latencia y conectividad masiva. IMT-2020, 5G-ACIA, 5GPPP Conectividad omnipresente, IoT [6,7] 6G 2030 6G será una combinación de nuevas tecnologías y mejoras para generar "grandes ganancias" Se estima que el sistema 6G tendrá una conectividad inalámbrica simultánea 1000 veces mayor que el sistema 5G. URLLC, que es una característica clave de 5G, estará nuevamente en comunicación 6G, latencia de menos de 1 ms. 6GFP, TOWS, 6G LiFi IoE, 3D-InteCom [8, 9, 10] En 1979, Nippon Telephone and Telegraph (NTT) lanzó oficialmente el primer sistema celular analógico. El sistema se centró en un servicio de voz totalmente analógico y utilizó la técnica de acceso múltiple por división de frecuencia (Stuber, 2017; César, 2018). Las principales especificaciones técnicas de 1G a 6G se ilustran en la tabla 2. Especificacione s 1G 2G 3G 4G 5G 6G Fuent e velocidad de datos 2,4 kbps 64 kbps 2 Mbps 102-103 Mbps 20 Gbps 1 Tbps7 [7 ,8 , 9 , 1 0 , 1 1 , 1 2 ,1 3 ] Latencia 20-200 s 10-100 s 1 s 100 ms 10 ms 1 ms Eficiencia espectral 1 bps/Hz 0,5 bps/Hz 2,5 bps/Hz 15 bps/Hz 30 bps/Hz 100 bps/Hz soporte de movilidad  15 m/hora  50 km/hor a  150 km/hor a  15 m/hora  350 km/hora  500 km/hora Frecuencia máxima 894 MHz 1900 MHz 2100 MHz 5 GHz 90 GHz 10 THz Realidad extendida XR Parcial Total Comunicación en THz Limitada Vasta Nivel de servicio Voz Texto Image m Vídeo 3D VR, AR Táctil Arquitectura del sistema SISO SISO SISO MIMO MIMO masivo Superficie s inteligente ; cell-free massive MIMO Técnica de acceso FDMA FDMA, TDMA CDMA OFDMA OFDMA Smart OFDMA, Plus IM Red Core PSTN PSTN Packet N/W Internet Internet, IoT IoE Punto fuerte Movilida d Digita- lización Internet Streamin g en tiempo real tasa extremadament e alta Seguridad, secreto, privacidad Inteligencia artificial Parcial Total Vehículos autónomos Parcial Total Realidad extrema ER Parcial Total Comunicación hepática Parcial Total Integración de satélite Total 4. REQUISITOS Hay una tendencia a sobreestimar lo que se puede hacer en dos años y subestimar lo que se puede hacer en diez años. A medida que las nuevas tecnologías se adopten más ampliamente en los sistemas de comunicación inalámbrica, dentro del ciclo de vida 6G, muchos aspectos de nuestra vida diaria se verán amplificados por conexiones inalámbricas ultra confiables y ultra altas, IA nativa y tecnologías de detección avanzada. 5G fue diseñado para brindar a los usuarios finales la posibilidad de disfrutar de una conexión inalámbrica en cualquier momento y en cualquier lugar, con velocidades de acceso a la información mucho más rápidas que las que ofrecían las generaciones anteriores, además de la introducción del Internet de las Cosas [14]. Sin embargo, con la creciente demanda de servicios impulsada por los avances en inteligencia artificial, dispositivos inteligentes y aprendizaje automático (Machine Learning), las redes 5G tienen algunas limitaciones, a saber, realidad extendida (XR), realidad extrema (ER), vehículos autónomos, hígado comunicación, integración satelital, entre otros. Los principales requisitos de 6G son [15]: • Velocidad de datos de usuario de 1 Gbps; • Velocidad máxima de datos por encima de 1 Tbps; • 5 a 10 veces mayor eficiencia espectral que 5G; • Capacidad de tráfico por área 1 Gbps/m2; • Eficiencia energética de 10 a 100 veces mayor que la de 5G; • Latencia de 10 a 100 s; • Conexiones por kilómetro cuadrado 107; • 99,9999 % de fiabilidad; • Movilidad por encima de 1000 km/hora. La Tabla 3 presenta un resumen comparativo de los parámetros 5G y 6G. Tabla 3: Resumen comparativo de los parámetros 5G y 6G. Parámetro 5G 6G Fuente Tasa de datos 20 Gbps 1 Tbps [16] Latencia 10 ms 1 ms [16] Inteligencia artificial Parcial Totalmente [17] Realidad extendida Parcial Totalmente [18, 15] Soporte de movilidad 500 km/h 1000 km/h [12, 16] Eficiencia espectral 30 bps/Hz 100 bps/Hz [18, 15] Comunicación haptica Parcial Totalmente [13, 16] Vehículo autónomo Parcial Totalmente [19, 11] Delay jitter 10-3ms [13, 19] Eficiencia energética 1 Tb/J [13] Tasa de errores del paquete 10-5 10-9 [19] Ancho de banda del canal 1 GHz 100 GHz [19] 5. DESAFÍOS Los desafíos asociados con la comunicación 6G se pueden clasificar en cinco categorías principales, como se ilustra en la Fig. 1. Figura 1: Desafíos de las tecnologías 6G Pesquisa por países Los años 2019 y 2020 vieron crecer el número de congresos y ediciones de revistas orientadas a temas relacionados con las redes del futuro, que han difundido investigaciones relacionadas con 6G y proyectos desarrollados por empresas, organizaciones, universidades y diferentes países, sobre el tema. A continuación, se presentan los principales proyectos e investigaciones realizadas y en curso en diferentes partes del mundo. Tabla 4: Principales proyectos e investigaciones sobre 6G en diferentes países. País Año Descripción de la pesquisa Fuente Finlandia 2018 El consorcio está formado por academias, centros de investigación, socios industriales, unidades de negocio y otros. Esto es coordinado por el Centro de Comunicaciones Inalámbricas de la Universidad de Oulu, Finlandia. Se crea el proyecto 6Genesis y se lleva a cabo la primera Conferencia de comunicación inalámbrica 6G en Levi, Laponia, Finlandia, en marzo de 2019. [20, 21, 22, 23] China 2019 El Ministerio de Ciencia y Tecnología anunció en 2019 la creación de dos grupos para la investigación 6G: un grupo está compuesto por departamentos gubernamentales relevantes y el otro está compuesto por 37 universidades, institutos de investigación y empresas, que presentarán el lado técnico de 6G y ofrecer [24] consultoría. En noviembre de 2020, China puso en órbita el primer satélite de prueba 6G. Corea del Sur 2019 LG se asoció con el Instituto Avanzado de Ciencia y Tecnología de Corea para realizar una investigación sobre 6G. Samsung también comenzó la investigación de 6G en 2019. SK Telecom anunció una colaboración con Nokia y Ericsson en la investigación de 6G en 2019. [25, 26] Holanda 2019 La Universidad Tecnológica de Eindhover ha desarrollado una nueva antena tecnológica. El Gobierno crea el Plan Estratégico de Inteligencia Artificial para impulsar la Estrategia de digitalización holandesa 2021. [27] Estados Unidos 2019 La Comisión Federal de Comunicaciones ha abierto espectro entre 95 GHz y 3 THz para crear una nueva categoría de licencias experimentales. Laboratorio BWA trabajando en red inteligente basada en Ultra-MIMO. [28] Rusia 2019 El Instituto Politécnico de Física, Nanotecnología y Telecomunicaciones inicia la investigación sobre el 6G. [28, 29] Alemana 2019 TU Berlin presenta una beca Einstein para estudiar 5G y 6G. En 2020, el gobierno alemán ha reservado 50 mil millones de euros para desarrollar futuras tecnologías inalámbricas, incluido 6G, computación cuántica. [30] Taiwán 2019 En abril, el Ministerio de Ciencia y Tecnología (MOST) lanzó la iniciativa Proyectos Académicos 6G (Taiwan moving to develop B5G, 6G tech). [28] Japón 2020 Un comité de profesionales del sector privado e investigadores universitarios para investigar los desafíos de 6G. Sony, NTT Docomo e Intel se asocian para realizar una investigación sobre 6G. La Universidad de Osaka y la Universidad Tecnológica de Nanyang de Singapur se han asociado para desarrollar un chip que permita una velocidad de datos de 11 Gbps. [31, 32, 33, 34, 35, 36] Reino Unido 2020 La Universidad de Surrey lanzó 6GIC en noviembre de 2020. [13] India 2021 El gobierno de India lanza el plan de trabajo para el desarrollo de tecnologías 6G [37, 38, 17] Brasil 2020 Brasil lanza Basil 6G, desarrollado por Inatel con apoyo de MCTI y RNP [39] Australia 2021 El gobierno australiano lanzó el proyecto “Estrategia de Economía Digital 2030” [40, 41] Pesquisa por empresas Las grandes empresas del ámbito de las telecomunicaciones y las tecnologías de la información apuestan por la innovación continua y los proyectos asociados a las tecnologías del futuro próximo, el 6G. Los principales aspectos destacados en esta área se ilustran en la Tabla 5. Tabla 5: Principales proyectos e investigaciones sobre 6G de diferentes empresas Empresa Año Descripción de la pesquisa Fuente 5G Americas 2020 En América del Norte, las actividades de 6G se centran principalmente en la academia, con esfuerzos adicionales de las agencias gubernamentales de EE. UU. y las SDO [28] (Organizaciones de Desarrollo de Estándares). Los principales grupos de normalización son: New York University (NYU) Wireless, The mmWave Networking Group at the University of Padua, The Institute for the Wireless Internet of Things (WIOT) at Northeastern University, Wireless Networking & Communication Group (WNCG). Huawei 2019 ZTE tiene un grupo de tecnologías avanzadas, investigando redes más allá de 5G. Huawei también inició la investigación en su centro de investigación en Ottawa, Canadá. También tienen un centro de investigación en Segrate, Italia, donde se llevan a cabo investigaciones sobre comunicación por microondas, espectro de frecuencia y velocidad de transmisión. [24] Keysight 2020 Keysight presenta un nuevo banco de pruebas de sub-THz para la investigación de 6G. [42] Nókia 2019 SK Telecom anunció una colaboración con Nokia y Ericsson en la investigación de 6G en 2019. Nokia lanza Hexa-X con Ericsson, uno de los grandes proyectos en 6G que se lanzó en 2021 es Hexa-X. [43, 44] NTT 2020 Sony, NTT Docomo e Intel se asocian para realizar una investigación sobre 6G. [45, 34, 35, 36] QualComm 2020 Qualcomm establece los vectores clave de investigación que abren el camino hacia el 6G. [46] Samsung 2019 Samsung también comenzó la investigación de 6G en 2019. 2019: Samsung establece un centro de investigación para desarrollar tecnología central 6G; Julio de 2020: Samsung publica un libro blanco; Agosto de 2020: el gobierno de Corea del Sur publica su futura estrategia de promoción de I + D de comunicaciones móviles para 6G. [47] Pesquisa por organizaciones Los principales organismos reguladores de las telecomunicaciones han prestado una atención considerable a los aspectos de normalización de las tecnologías 6G. Los principales aspectos destacados en esta área se ilustran en la Tabla 6. Tabla 6: Principales proyectos e investigaciones sobre 6G de diferentes organizaciones Organismo Año Descripción de la pesquisa Fuente UIT 2020 La UIT ha comenzado a redactar el informe titulado "Tendencias tecnológicas futuras de las IMT hacia 2030 y más allá", que se publicará en junio de 2022. [48, 49, 37] FCC 2020 La FCC reguló la redistribución de bandas sin licencia y abrió la banda de 95 GHz a 3 GHz para el desarrollo experimental de futuras redes (6G). Se creó un grupo de trabajo de 6G para proporcionar información sobre el desarrollo y la implementación de la tecnología 6G. [50, 51, 52, 53, 54] ETSI 2021 El Industry Specification Group (ETSI ISG MEC) ha publicado un nuevo ETSI Group Report GR MEC 0035 para habilitar el sistema inter-MEC implementación y coordinación del sistema MEC-Cloud. [55, 56, 57] 6. PRINCIPALES APLICACIONES Las aplicaciones más relevantes de 6G se resumen en la Tabla 7. Tabla 7: Principales aplicaciones de 6G Aplicaciones Breve Descripción Fuente Comunicación holográfica La holografía es una técnica para capturar la imagen 3D completa de un objeto. Latencia y anchos de banda altos son algunos de los desafíos asociados con la comunicación holográfica. 6G resolverá estos desafíos. [58, 13, 19] Internet Táctil Permite interacciones hombre-máquina y máquina- máquina. [59] Industria 4.0 y más allá Comprende sistemas ciberfísicos, IoT y computación en la nube. Además, la IA y las redes inalámbricas ultrarrápidas impulsarán la Cuarta Revolución Industrial. Esto habilita ciudades inteligentes, fábricas que son parte de la visión 6G. [59, 17] Dispositivos portátiles Los accesorios que incluyen antenas portátiles son dispositivos médicos y de monitoreo de la salud del paciente, relojes inteligentes con pequeñas antenas integradas, sistemas militares de seguimiento y navegación, cámara corporal con Wi-Fi y Bluetooth y dispositivos deportivos portátiles. [60] Conducción Teleoperada Permite controlar los coches de forma remota. Estos coches también se denominan vehículos semiautónomos. Los automóviles semiautónomos exigen una red inalámbrica rápida y ubicua con una latencia ultrabaja. [59] Internet de Bio-Nano Cosas Una interconexión de objetos biológicos de tamaño nanométrico (nanomáquinas). Tiene aplicación en gran medida en el área de la salud. Se propone 6G para proporcionar los requisitos de percepción y latencia ultrabaja requeridos por IoBNT. [16] Asistencia médica La pequeña longitud de onda debido a la banda THz admite la comunicación. y el desarrollo de nanosensores que permitan el desarrollo de nuevos dispositivos nanométricos para operar dentro del cuerpo humano. [61, 16] Realidad extendida AR/MR/VR que encarna la experiencia perceptual. Compatible con URLLC y eMBB y factores de percepción para ser compatible con 6G. Un excelente candidato para brindar una mejor experiencia de juego. [62] Blockchain y tecnologías de registros distribuidos Blockchain se postula para proporcionar seguridad a las redes 6G. También requieren baja latencia, conectividad confiable y escalabilidad, que proporcionarán las redes 6G. [13, 18] Transferencia de energía inalámbrica Las estaciones base 6G se utilizarán para la transferencia de energía como Wireless Information and Energy Transfer (WIET) utiliza los mismos campos y ondas utilizados en los sistemas de [61] comunicación. Robótica Conectada y Sistemas Autónomos Se necesita CRAS para mejorar la industrialización mediante el uso de robots y sistemas autónomos para operaciones industriales. Exigen una alta tasa y confiabilidad y baja latencia. [62] Interfaz inalámbrica cerebro- computadora BCI permite la comunicación entre el cerebro y los dispositivos electrónicos. Esto requiere latencia ultrabaja, alta confiabilidad y alta velocidad de datos. [19] Réplica digital También se les llama gemelos digitales y crean una copia digital para reemplazar personas, lugares, sistemas, objetos. Esto requiere una velocidad de datos muy alta, que 6G permitirá. [63] Comunicaciones en alta mar Uso de dispositivos teleoperados para la exploración de alta mar. Exploración en aguas profundas, como la exploración petrolera y la minería. la exploración puede convertirse en una nueva realidad. [64, 34] 7. CONCLUSIONES 5G se lanzó oficialmente en 2020 como la tecnología de comunicaciones móviles más avanzada en la actualidad, que se espera que domine en los años 20 del siglo XXI. Sin embargo, el rápido crecimiento de la demanda de servicios de vanguardia ha impulsado la investigación de tecnologías que van más allá del 5G, cuyos requerimientos apuntan a la próxima generación, el 6G. Este estudio caracterizó a 6G como el próximo paradigma de comunicaciones móviles, centrándose en los principales requisitos, desafíos relacionados con varios factores para su implementación y las principales aplicaciones previstas. Se hizo un breve análisis de proyectos e investigaciones de 13 países, 7 empresas y 3 organizaciones. REFERENCIAS 1. Emilio Calvanese Strinatia, Sergio Barbarossa. “6G Networks: Beyond Shannon Towards Semantic and Goal-Oriented Communications”. arXiv:2011.14844v3 [cs.NI] 17 Feb 2021. 2. S.A. Abdel Hakeem, H.H. Hussein and H. Kim. “Vision and research directions of 6G technologies and applications”. Journal of King Saud University – Computer and Information Sciences. March 2022. https://doi.org/10.1016/j.jksuci.2022.03.019 3. Gordon L. Stüber. “Principles of Mobile Communication”. Springer International Publishing, 2017. DOI 10.1007/978-3-319-55615-4 4. TIAGO, Javier Pérez. “Introducción A Los Sistemas Móviles De Comunicaciones”. Mobile Computing and Applications, 2019. ISBN: 978-84-9012-861-9. 5. Penttinen, Jyrki T. J. “Security and Deployment of Advanced Mobile Communications”. John Wiley & Sons Ltd, 2019, 326p. 6. Nersesian, Ron. “Engineering the 5G World: Design and Test Insights”. Keysight Technologies, 2020. 7. Bassoy, Selcuk (2020). “Self-Organised Multi-Objective Network Clustering for Coordinated Communications in Future Wireless Networks”. The University of Glasgow, Doctoral Thesis, 2020. 8. Ebrahimzadeh, A. & Maier, M. “Toward 6G: A New Era of Convergence”. IEEE Press Wiley, 2021, 232p. 9. Imoize, A.L.; Adedeji, O.; Tandiya, N.; Shetty, S. “6G Enabled Smart Infrastructure for Sustainable Society: Opportunities, Challenges, and Research Roadmap”. Sensors 2021, 21, 1709. https://doi.org/10.3390/ s21051709. 10. IAN F. AKYILDIZ, AHAN KAK , AND SHUAI NIE. “6G and Beyond: The Future of Wireless Communications Systems”. IEEE Access, Volume 8, 2020. Digital Object Identifier 10.1109/ACCESS.2020.3010896. 11. Dinh C. Nguyen, Ming Ding, Pubudu N. Pathirana, Aruna Seneviratne, Jun Li, Dusit Niyato, Octavia Dobre, and H. Vincent Poor. “6G Internet of Things: A Comprehensive Survey”. arXiv:2108.04973v1 [eess.SP] 11 Aug 2021. 12. L. U. Khan et al.: “6G Wireless Systems: A Vision, Architectural Elements, and Future Directions”. IEEE Access, Volume 8, 2020. Digital Object Identifier 10.1109/ACCESS.2020.3015289. 13. Muhammad Muzamil Aslam , Liping Du , Xiaoyan Zhang , Yueyun Chen , Zahoor Ahmed , and Bushra Qureshi. “Sixth Generation (6G) Cognitive Radio Network (CRN) Application, Requirements, Security Issues, and Key Challenges”. Hindawi Wireless Communications and Mobile Computing Volume 2021, Article ID 1331428, 18 pages https://doi.org/10.1155/2021/1331428 14. Challita, U. “Artificial intelligence for wireless connectivity and security of cellular-connected UAVs,”. arXiv preprint arXiv:1804.05348, 2018. 15. Alraih, S.; Shayea, I.; Behjati, M.; Nordin, R.; Abdullah, N.F.; Abu-Samah, A.; Nandi, D. “Revolution or Evolution? Technical Requirements and Considerations towards 6G Mobile Communications. Sensors 2022, 22, 762. https:// doi.org/10.3390/s22030762. 16. Ana Koren, and Ramjee Prasad. “IoT Health Data in Electronic Health Records (EHR): Security and Privacy Issues in Era of 6G”. Journal of ICT Standardization, Vol. 10 1, 63–84. 2022. doi: 10.13052/jicts2245-800X.1014. 17. ALWIS et al. “SURVEY ON 6G FRONTIERS: TRENDS, APPLICATIONS, REQUIREMENTS, TECHNOLOGIES AND FUTURE RESEARCH”. IEEE Open Journal of the Communications Society, Volume 2, April 2021. Digital Object Identifier 10.1109/OJCOMS.2021.3071496 18. Asghar, Z.A.; Memon, S.A.; Hämäläinen, J. “Evolution of Wireless Communication to 6G: Potential Applications and Research Directions”. Sustainability 2022, 14, 6356. https:// doi.org/10.3390/su14106356. 19. S.A. Abdel Hakeem, H.H. Hussein and H. Kim. “Vision and research directions of 6G technologies and applications”. Journal of King Saud University – Computer and Information Sciences. March 2022. https://doi.org/10.1016/j.jksuci.2022.03.019 20. Pouttu, A. “6Genesis—Taking the first steps towards 6G”. In Proceedings of the IEEE Conference Standards Communications and Networking, Paris, France, 29–31 October 2018. 21. Marcos Katz, Marja Matinmikko-Blue, and Matti Latva-aho. “6Genesis Flagship Program: Building the Bridges towards 6G-enabled Wireless Smart Society and Ecosystem”. 2018 IEEE 10th Latin- American Conference on Communications (LATCOM). 22. MIKKO A. UUSITALO, MAURO RENATO BOLDI, et al. “6G Vision, Value, Use Cases and Technologies From European 6G Flagship Project Hexa-X”. IEEE Access, Volume 9, 2021. Digital Object Identifier 10.1109/ACCESS.2021.3130030. 23. Ari Pouttu. “First in 6G”. 6G Flagship. University of Oulu, Finland – 2019. 24. Enrico Buracchini, Mauro Boldi, Damiano Rapone. “THE WORLDWIDE PATH TOWARDS 6G”. TIM, notiziariotecnico. anno 30  3/2021 25. W. Z. Khan, M. Rehman, H. M. Zangoti et al., “Industrial internet of things: Recent advances, enabling technologies and open challenges,” Computers and Electrical Engineering, vol. 81, p. 10652 26. Gui, G., Liu, M., Tang, F., Kato, N., & Adachi, F. (2020). “6G: opening new horizons for integration of comfort, security and intelligence”. IEEE Wireless Communications 27. 5G Americas. “Mobile Communications Beyond 2020 - The Evolution of 5G Towards the Next G”. White paper, December 2020. 28. Yifei YUAN 1 , Yajun ZHAO2* , Baiqing ZONG3 , Sergio PAROLARI. “Potential Key Technologies for 6G Mobile Communications”. SCIENCE CHINA Information Sciences. 2020-03- 02 http://engine.scichina.com/doi/10.1007/s11432-019-2789-y 29. Dicandia, F.A.; Fonseca, N.J.G.; Bacco, M.; Mugnaini, S.; Genovesi, S. “Space-Air-Ground Integrated 6G Wireless Communication Networks: A Review of Antenna Technologies and Application Scenarios”. Sensors 2022, 22, 3136. https://doi.org/10.3390/ s22093136 30. Wolfsmantel, A.; Niemann, B. “On the Road to 6G: Drivers, Challenges and Enabling Technologies”; A Fraunhofer 6G White Paper; 2021. Available online: https://cdn0.scrvt.com/fokus/6802ce7485f1a2e0/e5665a410eca/6g-sentinel-white-paper.pdf (accessed on 11 March 2022). 31. White Paper. “5G Evolution and 6G”. © 2020 NTT DOCOMO, INC. All Rights Reserved. 32. Salameh, A.I.; El Tarhuni, M. “From 5G to 6G—Challenges, Technologies, and Applications”. Future Internet 2022, 14, 117. https:// doi.org/10.3390/fi14040117 33. Rappaport, T. S., Xing, Y., Kanhere, O., Ju, S., Madanayake, A., Mandal, S., & Trichopoulos, G. C. (2019). “Wireless communications and applications above 100 GHz: Opportunities and challenges for 6G and beyond”. IEEE Access, 7, 78729–78757. 34. Sabuzima Nayak and Ripon Patgiri. “6G Communication: Envisioning the Key Issues and Challenges”. EAI Endorsed Transactionson Internet of Things, 2020. https://doi.org/10.4108/eai.11-11-2020.166959 35. White Paper. “5G Evolution and 6G”. © 2022 NTT DOCOMO, INC. All Rights Reserved. 36. National Institute of Information and Communications Technology. “Beyond 5G and 6G”. White paper Nº 6, Vol. 490. March 2021. 37. Bharat B Bhatia. “6G Spectrum Studies for ITU”. ITU-APT Foundation of India, 2022. 38. Government of India. “WORK PLAN-ROADMAP 6G TECHNOLOGIES DIVISION”. TELECOMMUNICATION ENGINEERING CENTRE KHURSHID LAL BHAVAN, JANPATH, NEW DELHI. February 15, 2022. 39. Purbita Mitra∗ , Rouprita Bhattacharjee∗ , Twinkle Chatterjee∗ , Soumalya De∗ , Raja Karmakar∗ , Arindam Ghosh∗ , Tinku Adhikari. “Towards 6G Communications: Architecture, Challenges, and Future Directions”. 2021 12th International Conference on Computing Communication and Networking Technologies (ICCCNT), 2021. https://doi.org/10.1109/ICCCNT51525.2021.9580084 40. Australian Government. “Digital economy strategy 2030”. Commonwealth of Australia 2021. ISBN: 978-1-925364-56-9. 41. David Soldani. “6G Fundamentals: Vision & Enabling Technologies”. Published by 6GWorld, 15 June 2021. Link: https://www.6gworld.com/latest-research/6g-fundamentals-vision-and-enabling- technologies/. 42. Greg Jue, “A New Sub-THz Testbed for 6G Research”. EuCNC 6G Summit, June 2022. https://www.keysight.com/us/en/as-sets/7120-1082/white-papers/A-New-Sub-Terahertz-Testbed-for 43. Dr. Nishith D. Tripathi, Dr. Jeffrey H. Reed. “5G EVOLUTION – ON THE PATH TO 6G Expanding the frontiers of wireless communications”. Rohde&Schwarz White paper | Version 01.00. March 2020. 44. Ying-Chang Liang, Dusit Niyato, Erik G Larsson and Petar Popovski. “6G mobile networks: Emerging technologies and applications”. SCIENCE CHINA Information Sciences. 45. Y. Lu and X. Ning, “A vision of 6G-5G’s successor,” Journal of Management Analytics, vol. 7, no. 3, pp. 301–320, 2020. 46. John Smee. “Leading the 5G Advanced technology evolution on the path to 6G”. 47. NTT DOCOMO Technical Journal, Vol.23, Oct. 2021 48. The 5G Infrastructure Association. “European Vision for the 6G Network Ecosystem”. 5G IA, 2021. DOI: 10.5281/zenodo.5007671 49. Riccardo Bassoli1 , Frank H.P. Fitzek1,2, Emilio Calvanese Strinati. “WHY DO WE NEED 6G?” ITU Journal on Future and Evolving Technologies, Volume 2 (2021), Issue 6, 13 September 2021 50. Nandana Rajatheva,1 Italo Atzeni,1 Emil Bj¨ornson,2 Andr´e Bourdoux,3 Stefano Buzzi, et al. “White Paper on Broadband Connectivity in 6G”. arXiv:2004.14247v1 [eess.SP] 29 Apr 2020 51. FCC FACT SHEET. “Unlicensed Use of the 6 GHz Band”. ET Docket No. 18-295; GN Docket No. 17-183. April 2020. 52. Commission F C. “FCC takes steps to open spectrum horizons for new services and technologies”. https://docs.fcc.gov/public/ attachments/DOC-356588A1.pdf 53. Xiaohu YOU1,2*, Cheng-Xiang WANG, et al. “Towards 6G wireless communication networks: vision, enabling technologies, and new paradigm shifts”. SCIENCE CHINA Information Sciences, January 2021, Vol. 64 110301:1–110301:74 https://doi.org/10.1007/s11432-020-2955-6 54. Henning Schulzrinne, Brian Markwalter, Martin Doczkat, Bahman Badipour, Ken Baker, Padma Krishnaswamy. “Federal Communications Commission Technological Advisory Council Meeting”. FCC, February 28, 2022 55. Nadja Rachow, Claire Boyer, and Le Principe de Stappler. “Enjoy! The ETSI Mag”. Edited and published by ETSI, October 2021. 56. DGR/MEC-0035InterMEC. “Multi-access Edge Computing (MEC); Study on Inter-MEC systems and MEC-Cloud systems coordination”. ETSI GR MEC 035 V3.1.1 (2021-06). from: http://www.etsi.org/standards-search 57. David Boswarthick. “Role of Standards in Accelerating Innovation Example: Beyond 5G to 6G”. General Information / ETSI Web, 2020. 58. MUNTADHER ALSABAH1 , MARWAH ABDULRAZZAQ NASER2 , BASHEERA M. MAHMMOD3 , SADIQ H. ABDULHUSSAIN, et al. “6G Wireless Communications Networks: A Comprehensive Survey”. DOI 10.1109/ACCESS.2021.3124812, IEEE Access 59. Amin Shahraki, Mahmoud Abbasi, Md. Jalil Piran & Amir Taherkordi. “A Comprehensive Survey on 6G Networks: Applications, Core Services, Enabling Technologies, and Future Challenges”. arXiv:2101.12475v2 [cs.NI] 13 Jun 2021 60. Muhammad Ikram 1,* , Kamel Sultan 1 , Muhammad Faisal Lateef 2 and Abdulrahman S. M. Alqadami. “A Road towards 6G Communication—A Review of 5G Antennas, Arrays, and Wearable Devices”. Electronics 2022, 11, 169. https://doi.org/10.3390/ electronics11010169 61. Samar Elmeadawy and Raed M. Shubair. “6G Wireless Communications: Future Technologies and Research Challenges”. 2019 International Conference on Electrical and Computing Technologies and Applications (ICECTA). 62. Abdel Hakeem, S.A.; Hussein, H.H.; Kim, H. Security Requirements and Challenges of 6G Technologies and Applications. Sensors 2022, 22, 1969. https:// doi.org/10.3390/s22051969 63. Allam, Z.; Bibri, S.E.; Jones, D.S.; Chabaud, D.; Moreno, C. “Unpacking the ‘15-Minute City’ via 6G, IoT, and Digital Twins: Towards a New Narrative for Increasing Urban Efficiency, Resilience, and Sustainability”. Sensors 2022, 22, 1369. https://doi.org/10.3390/s22041369 Muhammad Waseem Akhtar , Syed Ali Hassan , Rizwan Ghafar , Haejoon Jung, Sahil Garg and M. Shamim Hossain. “The shift to 6G communications: vision and requirements”. Human-centric. sobre el autor Campos Calenga Pataca es Doctor en Ciencias - Telecomunicaciones de Atlantic International University (2021), Doctor en Ciencias de la Educación – especialidad Tecnologías Educativas de la Universidad de La Habana (2019) y Profesor Auxiliar en la UAN e INTIC-UniLuanda, Angola, miembro del IEEE y de la Orden de Ingenieros de Angola. Correo electrónico: cleofas36@gmail.com DISEÑO, SIMULACIÓN Y CONSTRUCCIÓN DE AMPLIFICADOR DE POTENCIA 20-700MHZ y 40W CON HEMT Inv. Auxiliar MSc Yosvany González Mandado1, Especialista 1ra en I+D Ing. Pedro Luis Hernández Portilla 2, Inv. Auxiliar MSc Enrique Romero Mustelier3 123CIDP “Grito de Baire”, Santa Ana #711 / 47 y Reforma, Plaza de la Revolución, La Habana 2phernandezp94@gmail.com, 3enromero@nauta.cu RESUMEN El trabajo discute el desarrollo de un amplificador de potencia de estado sólido de banda ancha (20 - 700 MHz) empleando transistores de alta movilidad de electrones (HEMT) desde su diseño y simulación hasta su fabricación. Se abordan aspectos relacionados con los transformadores de impedancia de banda ancha, modelos computacionales (lineales y no lineales) y los procesos de diseños y análisis empleando el software Keysigth ADS 2022. El trabajo muestra el amplificador construido y se compara con el simulado. PALABRAS CLAVES: transistor GaN, HEMT, amplificador de RF, amplificador de alta potencia, amplificador de banda ancha. DESIGN, SIMULATION AND CONSTRUCTION OF POWER AMPLIFIERS OF 20-700MHz AND 40WWITH GAN HEMT ABSTRACT The work discusses the development of development of a power amplifier and broadband solid state (20- 700 MHz) using high electron mobility transistor (HEMT) from its design and simulation to its manufacture. Are analyzed aspects of broadband, computational models (linear and nonlinear) and designs and analysis processes using the software ADS 2022 (Keysigth). The work shows the amplifier built and compares to the amplifier simulated. KEY WORDS: GaN transistor, HEMT, RF power amplifier, high power amplifier, broadband power amplifier. INTRODUCCIÓN El desarrollo de amplificadores para entregar altas potencia en anchos de banda mayor a una octava, eficiencias aceptables , pequeños tamaños, poco peso, confiables y de alta disponibilidad, es un desafío significativo en radiofrecuencia y microondas [1]. Dentro de las tecnologías de semiconductores de potencia y radiofrecuencia, las tecnologías de transistores de alta movilidad de electrones basados en nitruros, son las mas prometedoras. El manejo de grandes valores de corriente, altos voltajes de ruptura y trabajo a elevadas temperaturas, permiten la obtención de altas densidades de potencia. Estos transistores tienen su principal aplicación en amplificadores de potencia logrando mayores ventajas en las etapas de salida. Para las comunicaciones (estaciones base de celulares, radares y otras) son críticas la alta linealidad y eficiencia, otros parámetros no menos importantes asociados a los dispositivos amplificadores lo constituyen el espacio, peso y el costo [2][3]. Un solo dispositivo de GaN puede suplantar a diez dispositivos de arseniuro de galio (GaAs). Además en el ámbito militar se investiga la incursión de los HEMT en transmisores de estaciones base, satélites de banda ancha, sistemas de distribución local multipunto, terminales satelitales y radio digital. Se puede agregar también que, dada su elevada estabilidad térmica podría emplearse en vehículos eléctricos híbridos y en radares compactos para la detección y evasión de obstáculos, con aplicación en la industria automotriz y aeronáutica [4]. La tendencia mundial en el crecimiento del mercado y desarrollo de amplificadores de potencia para los próximos años (hasta 2030) se estima que se concentre en: módulos de RF que integran 2 o más dispositivos activos de potencia en un solo encapsulado, tanto en tecnología LDMOS como HEMT; circuitos monolíticos integrados de microondas (MMIC de siglas en inglés) y atenuadores variables. Los circuitos integrados monolíticos crecieron en 7.7 billones USD in 2019 y para el 2024 lo hará en 12.7 billones. El crecimiento de los atenuadores variables es provocado por la creciente demanda de la industria del teléfono inteligente, estaciones bases, así como los crecientes requerimientos de ancho de banda para los sectores de las telecomunicaciones, segmento espacial y defensa. Sin embargo, los altos costos de desarrollo en diseños actúan como un atenuante para el crecimiento acelerado del mercado, aspecto que debe ser solucionados en los próximos años. Los sistemas de comunicaciones de banda ancha amplían la demanda de atenuadores, lo cual anticipa un incremento del índice de ventas en el período hasta el 2025. Dentro de los atenuadores, los de tipo variable son ampliamente empleados en las telecomunicaciones y la Guerra Electrónica para ajustar la señal de entrada o compensarla ante las variaciones intrínsecas de ganancia debido a la temperatura de operación. Para los amplificadores de RF, características como bajo consumo, alta densidad de potencia y larga vida, contribuyen a que las tecnologías basados en nitruro de galio (GaN) sean estimadas como las de mayor crecimiento en el mercado. El GaN es una tecnología prometedora en el campo de los semiconductores y electrónica con aplicaciones en la optoelectrónica, dispositivos de potencia y alta frecuencia [6]. El artículo describe el diseño, simulación y fabricación de un amplificador de potencia empleando un semiconductor de GaN para obtener 40W en el rango de frecuencia de 20-700MHz. El diseño del amplificador empleandos semiconductores de alta movilidad de electrones presenta una ganancia de 46 dB o superior con una potencia de entrada de 0 dBm y voltaje de alimentación de +28V. En otros artículos consultados la banda de trabajo empleando HEMT es de 30-500MHz [5]. Para obtener la potencia necesaria a la salida del bloque amplificador se empleó el método de cadena compuesta (combinación de cadena simple de amplificación (2 etapas) y de combinación de potencia del tipo push-pull). Diseño de preamplificador La etapa de pre amplificación está formada por un atenuador variable (analógico) por voltaje para lograr mejoras en la linealidad en toda la banda y habilitar una protección por exceso de excitación, y dos pasos de amplificación lineal con MMIC para simplificar los acoplamientos. Se seleccionó el atenuador MAAVSS-00006 (MACOM) el cual presenta una atenuación máxima controlada por voltaje de 25dB. El MMIC empleado en la 1era etapa es el ADL5611 con ganancia en la banda de trabajo de 22dB y punto de compresión P1dB de 21dBm. La 2da etapa encargada de excitar la etapa de potencia debe trabajar en la región lineal y no a la máxima potencia, garantizando minimizar el nivel de espurios que pueden ser amplificados por el paso siguiente. El dispositivo seleccionado fue el RFC1G21H4-24 (RFHIC). Este amplificador monolítico presenta impedancias de entrada y salida de 50 ohm con potencia de salida de 6.3 W (+24V de alimentación eléctrica), ganancia de 21 dB y punto de compresión de 1dB en 35 dBm. 1ra etapa [MMIC] Atenuador variable +Vcc Potencia salida Potencia entrada Figura.1. Esquema funcional de preamplificador 2da etapa [MMIC] Voltaje de control +Vcc Diseño y simulación de modelos de amplificadores La simulación fue realizada en el programa ADS 2022 (Keysight). El diseño se realizó sobre sustrato FR4 de 5.4 de permitividad y 1.6 mm de grosor. Los modelos físico-matemáticos empleados en la simulación fueron S2P (parámetros de dispersión de 2 puertos) para las etapas activas en zona lineal (ADL5611 y RFC1G21H4-24) y ficheros MDIF (del inglés Measure Data Interchange Format) para atenuador variable. Para el trabajo con este fichero se realizaron mediciones para diferentes estímulos (condiciones de voltaje de control, frecuencias) para obtener sus características de atenuación. El fichero importado se insertó en el esquema eléctrico como un sub circuito, el cual contienen todos valores de voltaje de control, los cuales son seleccionables. Estos ficheros tienen el formato de la figura #2. Con los modelos obtenidos (y desarrollados), se procedió a realizar la simulación de la etapa de pre- amplificación. Para la obtención de las características del pre-amplificador fueron realizados análisis AM-AM (potencia de entrada – potencia de salida), espectral y obtención de parámetro S21. Modelo MDIF Modelo MDIF RFC1G21H4-24Modelo S2P ADL5611 Figura 3. Modelo de preamplificador en ADS2022. Figura 2. Fragmento de ficheros MDIF. En las gráficas mostradas se aprecia la linealidad correspondiente a un amplificador clase A (el espectro es de igual forma consistente con el resultado). La caída de potencia por debajo de 50MHz se produce debido a que los parámetros S del MMIC RFC1G21H4 comienzan en esta frecuencia (los parámetros del ADL5611 comienzan en 30 MHz). Con los resultados de la simulación se construyó el preamplificador y sus mediciones se muestran en figura 6. Como se aprecia en la figura 7 (pantalla de analizador de espectro Agilent), el preamplificador obtenido trabaja en la banda de 20 a 1000 MHz, con estabilidad y linealidad, dando 38.4 dBm (6.9W) de potencia Figura 5. Respuesta de ganancia del amplificador Figura 3. Respuesta de barrido de potencia de salida vs potencia de entrada (AM-AM). Figura 4. Espectro de frecuencias para una señal de 250 MHz ADL5611 RFC1G21H4-24 Figura 6. Fotos de preamplificador construido y banco de mediciones preamplificador de salida con una excitación de 0 dBm a la entrada. El consumo máximo de esta etapa es de 600mA (con voltaje de 28V). Los resultados de las mediciones obtenidas son similares a los simulados (diferencia de menos 1dB). Esta etapa previa de amplificación de radiofrecuencia concluyó con un resultado superior al esperado (20- 700 MHz) al presentar una respuesta de frecuencia entre 20 – 1000 MHz. Etapa de potencia Para la etapa de potencia se emplearon CGH40025 (HEMT de la firma Wolfspeed) y se diseñaron en configuración push-pull. Los acoplamientos de impedancias fueron realizados con transformadores de impedancia (y simetría) diseñados empleando núcleos de ferritas. Después de realizar un estudio de la frecuencia de trabajo, flujo magnético sin saturación por la corriente circulante por el núcleo de ferrita se seleccionó el material 61(binocular) para los transformadores. El diseño del acoplamiento de impedancia de entrada se realiza a partir del análisis de la hoja de datos de los transistores y de sus valores de impedancia serie se determinaron las redes de acoplamiento necesarias para acoplar los transistores (figura 8). Para la selección de la configuración del transformador de impedancia, aunque los datos comienzan en 500MHz, se seleccionó una configuración de un BALUN 1:1 (acrónimo del inglés Balanced - Unbalanced) seguido de un UNUN (acrónimo del inglés Unbalanced - Unbalanced) Guanella 4:1 buscando la mejor respuesta de frecuencia y mayor eficiencia en la banda de trabajo. A la salida, dado el elevado valor de la impedancia en el drenador del dispositivo, solo se concibió un BALUN para simetrizar la salida y optimizar el acople de impedancia empleando líneas de transmisión y capacitores [8] [9]. Los BALUN diseñados fueron individualmente construidos y medidos con el fin de corroborar dicha simulación. El UNUN Guanella 4:1 mantiene un valor de ROE en el rango de frecuencia inferior a 1.8 (similar al diseñado con la herramienta de simulación. Para el desarrollo del transformador de impedancia nos basamos en dos expresiones fundamentales: � > �� 4∗�∗���� (1) Figura 8. Hoja de datos de impedancia de entrada de CGH40025F. Figura 7. Foto de respuesta de frecuencia de preamplificador � > 4∗���� 2∗�∗���� (2) Donde: �: inductancia máxima de bobina del BALUN. ��: Resistencia de menor impedancia. ����: Frecuencia mínima de la banda de trabajo � > 4 ∗ 12.5 2 ∗ 3.14 ∗ 20��� = 39.8�� � < ���� 8 (3) Donde: ����: Longitud de onda correspondiente a frecuencia máxima de banda de trabajo. � < 0.6� 8 < 7.5�� La impedancia media de la línea de transmisión (Zo) para la entrada y la salida fue calculada mediante: �� = �� ∗ �� (4) Donde: Rc es resistencia de carga y Rg la resistencia del generador. Para el Balun de entrada: Rg = 50 ohms y Rc =7.75 ohms. ��_������� = 2,24� La configuración empleada de transformadores posibilita que la impedancia caracteristica de la línea de transmisión baje de 50 a 25 ohm por cada salida asimetrica en el primer BALUN y a 6.25 ohm despues del Guanella. Figura 10. Simulación y mediciones de BALUN 1:1 y 1:4 Figura 9. Transformadores de simetría e impedancias simulados. Las mediciones resultaron en ROE mejores a 1.8 o perdidas por retorno de -13dB. Obtención de curvas de corriente directa Durante la simulación empleando modelación no lineal, se realizó la extracción de las curvas de corriente contra voltaje y mediante la línea de carga dinámica se determinó el valor de potencia en el cual se trabaja el amplificador (corriente en l drenador y voltajes en la compuerta). Para determinar la línea dinámica de carga es necesario determinar impedancia de carga en función de la potencia de salida [9]. Las redes de acoplamiento deben ser compensadas para una mejor respuesta lineal del amplificador. Para determinar el punto de operación y la línea dinámica de carga (clase de trabajo B) se obtienen las curvas características de V-I del transistor. La resistencia de carga para diseñar los acoplamientos de salida puede ser estimada a través de la expresión: �� = (���−�����)^2 (2∗����) (5) Donde: Vdd: voltaje de alimentación del drenador Vknee: voltaje correspondiente a inicio de saturación (rodilla). Pmax: Potencia máxima de salida. �� = (27−5)^2 (2∗25) = 9.68 ohm Con los datos calculados se realizó la simulación del circuito empleando modelos no lineales del transistor CHG40025F, los cuales son modelos físico-matemáticos que permiten realizar la simulación del sistema teniendo en cuenta las condiciones reales de trabajo del dispositivo. Estabilidad de etapa de potencia Los transistores son inherentemente inestables para anchos de banda grandes. El diseño de una red paralela RC en la entrada del dispositivo activo garantiza la estabilidad del mismo. Figura 12. Diseño de red de estabilidad de CGFH40025F. Figura 11. Obtención de la línea dinámica de carga. Como se observa de las gráficas (figura 13), el transistor con su red de estabilidad RC se mantiene estable en la banda de frecuencias empleada (círculos fuera de Carta Smith y μ > 1). Diseño y simulación de etapa salida push-pull de amplificador En el amplificador push-pull fueron modelados en su conjunto los acoplamientos de impedancias de entrada y salida en base a BALUN, dispositivos activos con sus modelos no lineales y las redes de polarizaciones, desacoples y estabilidad. Figura 13. Mediciones de estabilidad de CGFH40025F. . Figura 14. Circuito de amplificador para simulación en ADS 2022. Mediciones de carga pull para obtención de eficiencia, ganancia y potencia máxima. Para obtener los parametros de eficiencia, ganancia y potencia se realizaron mediciones de carga pull [9][10]. De las simulaciones anteriores se obtienen los valores óptimos para el punto de compresión de 1 dB (linealidad) , además de la ganancia y eficiencia añadida. Simulación y resultados de etapa de radiofrecuencia de amplificador Se simuló el amplificador en su composición completa según se muestra en la figura 2.17. Red polarización Red polarización Preamplificador Acoplamiento Redes estabilidad transistor Figura 16. Simulación de amplificador de 20-700MHz y 40W de potencia Figura 15. Mediciones de carga pull en ADS 2022. P1dB Acoplamiento Los resultados de las simulaciones fueron dirigidos al comportamiento no lineal del amplificador mediante el análisis del punto de compresión de 1dB, parámetros temporales (voltaje de RF) y respuesta de potencia máxima. Las mediciones simuladas concluyen que la potencia de salida se encuentra entre 46.5 y 47.3 dBm (44- 53W) y la ganancia del amplificador se encuentra entre 56 y 48 dB. Se construyó un amplificador y se realizaron mediciones con potencia de entrada de -10dBm, Vdc = +28V y voltaje de compuerta de -2,35V. Los resultados obtenidos muestran que la potencia oscila entre 45.6 y 46.5 dBm (36.3 y 44.7W) y la ganancia entre 54 y 55dB. El consumo promedio es 2.45 amperes. Con ventilación forzada se alcanzan temperaturas de 39ºC y 44ºC, en los transistores y ferrita respectivamente (ver figura 19). Las mediciones realizadas son en temperatura ambiente de 28ºC. Comparando los resultados simulados y los medidos en amplificador práctico el error se encuentra entre 15-23%. La diferencia de los resultados se debe a que como se explicó con anterioridad hay modelos que comienzan en 50MHz y son ofrecidos para temperaturas de 25 oC y las mediciones se realizaron en temperaturas de 28-29 grados. Figura 17. Mediciones de P1dB linealidad [izquierda] y voltajes de los 3 pasos [derecha]. Figura 18. Mediciones de respuesta de potencia amplificador. Figura 19. Foto de amplificador de potencia construido e imagen con respuesta de frecuencia. CONCLUSIONES Este trabajo, considerando el gran ancho de banda (5 octavas), presenta aplicaciones en algunas áreas de las comunicaciones o la defensa. El desarrollo de modelos MDIF por los diseñadores proporciona una mayor exactitud durante la simulación de los diferentes dispositivos y del amplificador en su totalidad. REFERENCIAS 1. BOSHNAKOV Ivan; WOOD Anna.” RF and Microwave solid state power amplifier design requires specialized engineering”. Amplifier Technology Ltd, ARMMS, 2012. 2. RAZA A., GENGLER J.,¨Diseño de un amplificador de potencia HEMT GaN de banda ancha de 70W con una eficiencia de 60% en un ancho de bamda de 100 a 1000 MHz¨. Conferencia temática de IEEE de 2018 sobre amplificadores de potencia de RF/microondas para aplicaciones de radio e inalámbricas (PAWR)¨, 2018, pp. 72-74. 3. FORMICONE G., BURGER J., CUSTER J., KESHISHIAN R., VEITSCHEGGER W., ¨Un studio para lograr alta potencia y eficiencia basada en una operacion de polarizacion dealta en amplificadores de potencia GaN de banda C y banda X¨, Conferencia temática de IEEE de 2018 sobre amplificadores de potencia de RF/microondas para aplicaciones de radio e inalámbricas (PAWR)¨, 2018, pp39-42. 4. HINDLE Pat. “GaN Power Amplifier Design Microwave Journal [E-Book]”. Microwave Journal, septiembre 2018. 5. PISA S., CHICARELLA S., CUSANI R., JERONE C., “30-512 MHz Hybrid Power Amplifier Design Using GaN transistor”, International Journal of RF and Microwave Computer-Aided Engineering, 2016. 6. ABDELBAR Abdelaziz M. A., EL-TAGER Ayman M.; “Nonlinear Modelling of RF GaN Devices and Utilization in RF Power Amplifiers for 4G Applications”; International Conference on High Performance Computing & Simulation’ IEEE DOI 10.1109/HPCS.2018.00026 [2018]. 7. C. CRIPPS Steve. “Advanced Techniques in RF Power Amplifier Design”. Artech House, 2002. ISBN 1-58053-282-9. 8. GREBENNIKOV Andrei, KUMAR Narendra, S. YARMAN Binboga. “Broadband RF and Microwave Amplifiers “; 2016, CRC Press [Taylor & Francis Group]. 9. JANG Haedong, KO Youngseo, ROBLIN Patrick, YANG Chieh et ¨Metodología de diseño de PA de modulación de carga-pull basada en carga y tracción pulsada para mejorar la eficiencia promedio¨. 78ª Conferencia de medicion de microondas ARFTG,2011, pp. 1-6 10.DAVIES-SMITH C., QUAGLIA R., WOODINGTON S., SHEIKH A., TASKER P. et ¨An Enhanced Active Load-Pull Algorithm for Faster Convergence¨. 51ª Conferencia Europea de Microondas (EuMC), 2021-2022, pp354-357. SOBRE LOS AUTORES Yosvany González Mandado Graduado de Ingeniero Radioelectrónico en 1991, Master en Electrónica en la Universidad Tecnológica de La Habana en 2006. Investigador Auxiliar y jefe del Grupo de Radio y Antena del CIDP “Grito de Baire”. Ha trabajado en proyectos relacionados con sistemas transmisores, amplificadores de radiofrecuencias y microondas de banda ancha. Autor de la publicación en la Revista Digital Telemática “Diseño, simulación y construcción de amplificadores de potencia en banda L con HEMT”. Pedro Luis Hernández Portilla Graduado de Ingeniería en Telecomunicaciones y Electrónica en la Universidad Tecnológica de La Habana en el año 2017. Especialista de 1ra en investigación y desarrollo del Grupo de Radio y Antena del CIDP “Grito de Baire”. Ha trabajo proyectos relacionados con dispositivos de radiofrecuencias y microondas, tecnologías de sensado de potencia y amplificadores de banda ancha y alta potencia. Autor de la publicación en la Revista Digital Telemática “Diseño, simulación y construcción de amplificadores de potencia en banda L con HEMT”. Enrique Romero Mustelier Ingeniero Radioelectrónico en 2010, Master en Telecomunicaciones y Telemática en la Universidad Tecnológica de La Habana en 2020. Investigador Auxiliar del Grupo de Radio y Antena del CIDP “Grito de Baire”. Profesor Asistente adjunto de la Universidad Tecnológica de la Habana. Ha trabajado proyectos relacionados con antenas, dispositivos de radiofrecuencias y amplificadores de potencia de RF y microondas. Autor de la publicación en la Revista Digital Telemática “Diseño, simulación y construcción de amplificadores de potencia en banda L con HEMT”. SISTEMA AUTOMÁTICO DE INFORMACIÓN DE POSICIÓN CON PROTOCOLO DE COMUNICACIONES ORIENTADO A CONEXIÓN. Jorge Humberto Vázquez Leiva 1, Wilfredo Rafael Núñez Blanco 1, Alberto Feito Guerra 1, Claudia Margarita Martínez Mujica 1 1Centro de Investigación y Desarrollo de Electrónica y Mecánica “CID MECATRONICS”, dir: Calle 15 y 86A, Playa, La Habana, Cuba 1 e-mail:cid3@reduim.cu RESUMEN El trabajo propone el desarrollo de un Sistema Automático de Información de Posición (APRS - por sus siglas en inglés) económico sin conexión a Internet, empleando como soporte técnico, receptores de señales del Sistema de Posicionamiento Global (GPS- por sus siglas en inglés), equipos de radio y tarjetas de sonido de computadoras. Para lograrlo es necesario obtener una interfaz de acople entre los transceptores y el sistema de cómputo partiendo del principio de funcionamiento de un circuito de acople VOX. Detalles del diseño son expuestos en el artículo, así como los resultados de las pruebas de laboratorio realizadas que demuestran su efectividad. Aunque para la investigación fueron empleados medios técnicos en existencia como por ejemplo hardware del fabricante AMEC y radios del tipo IC- M402 de ICOM, puede ser reproducido con dispositivos similares de menor costo en el mercado. El sistema obtenido puede aplicarse en cualquier sistema de monitoreo de transporte incluido el marítimo. PALABRAS CLAVES: APRS, GPS, transceptor. AUTOMATIC PACKET REPORTING SYSTEM WITH CONNECTION- ORIENTED COMMUNICATIONS PROTOCOL. ABSTRACT This paper proposes an economic Automatic Packet Reporting System (APRS), that don’t require internet connection and employ Global Positioning System (GPS) receivers, radio’s equipment, and computer’s sound card. It’s necessary to design coupler interface between transceiver and computer based in VOX coupling circuit functioning principle. The article describes the design and demonstrates the efficacy’s system with realized test results. In the investigation was employed existent equipment, for example, AMEC hardware and ICOM radios, but it can be substituted by economics similar kit during the application in control system applicable, included maritime traffic. KEY WORDS: APRS, GPS, transceiver. 1. INTRODUCCION Para los medios de transporte que viajan grandes distancias en el traslado de mercancías de diferentes tipos, resulta fundamental monitorear en tiempo real los embarques, desde el momento que abandonan las instalaciones de partida hasta su destino final. Una alternativa a esta situación lo constituyen los Sistemas Automáticos de Información de Posición (APRS), que permiten observar en un mapa, la posición donde se encuentra la estación fija o móvil así como poseen otras capacidades como brindar información meteorológica, señalización en el mapa de todo tipo de eventos (catástrofes, puntos de interés para los radioaficionados) o telemando. Para el seguimiento de las estaciones móviles es aprovechada la tecnología ofrecida por los sistemas GPS, la cual se conecta a un equipo de radio con el objetivo de permitir su seguimiento. Estos sistemas de grandes prestaciones exigen como mínimo una conexión permanente a Internet [1]. El presente trabajo propone una solución alternativa empleando como soporte técnico receptores de señales del Sistema de Posicionamiento Global (GPS- por sus siglas en inglés), equipos de radio y tarjetas de sonido de computadoras. La solución consiste en desarrollar un sistema APRS, empleando un protocolo de comunicaciones orientado a conexión que garantice confirmar la recepción de las tramas de ubicación y su disponibilidad, para controlar la trayectoria de los medios de transporte. 2. ESTRUCTURA GENERAL DEL SISTEMA IMPLEMENTADO. La Figura 1 muestra el diagrama de bloques que ilustra las etapas y componentes del APRS propuesto. Figura 1: Diagrama de bloques del sistema APRS propuesto. Como es posible observar tanto en el transmisor como el receptor lo componen tres elementos fundamentales que se describen a continuación:  Computadora: Contiene el software que modula con PSK31 [2] los datos recibidos y los envía al radio a través del puerto de sonido como una señal de voz de 1 kHz, además ejecuta el protocolo de comunicaciones orientado a conexión.  Interfaz: Garantiza poner en transmisión el radio al aprovechar el canal derecho de audio, este circuito de acople se conoce como de tipo VOX [2] y sustituye el PTT (Push To Talk) del microteléfono, aislando computadora y radio para evitar efectos no deseados de uno en el otro.  Radio: Se encarga de transmitir la señal proveniente de la interfaz con la modulación propia del equipo empleado. El extremo receptor tiene similar estructura a la inversa, es decir radio-interfaz-PC, con la particularidad de que en esta última debe existir un software de representación gráfica. Diseño del protocolo de transmisión / recepción Para el intercambio de los datos, se diseña un protocolo de transmisión/recepción. Este garantiza el transporte de los datos de localización geográfica de las estaciones móviles, con la de control a través de un radio circuito. En este caso fue empleada la trama mostrada en la tabla 1, con la siguiente estructura:  Bandera de inicio: marca el comienzo de la trama y la identifica como del tipo APRS.  Campo origen: contiene el indicativo o código de la fuente.  Campo de información: contiene los datos de ubicación geográfica.  Bandera final: marca el fin de la trama APRS. Tabla 1: Formato de la trama a enviarse. Bandera Origen Ubicación Bandera 3 bits 2 bits 12 bits 3 bits Los datos de ubicación geográfica, pueden adaptarse a la región donde se realice el monitoreo, por ejemplo, si tuviese lugar en Cuba se limitaría a:  Entre los 19˚ 46' 36” y 23˚ 17' 09” de latitud norte.  Entre los 74˚ 07' 52” y 84˚ 00' 00” de longitud occidental. En el caso particular del sistema propuesto, para la implementación del mecanismo de transmisión/recepción, se utilizó la biblioteca de código abierto PSKCore.DLL [3], que permite el manejo del hardware de audio, además provee funciones para manipular las frecuencias, el canal, entre otras facilidades. Su funcionamiento está basado en el modo de radio de modulación digital PSK31, (modulación por desplazamiento de fase), muy utilizado en el campo de la radio afición. Fueron desarrolladas dos aplicaciones en Delphi7, que actúan como manejadores de la tarjeta de sonido, y se encargan de interpretar y estructurar los datos de radiofrecuencia, para hacerlos disponibles en un servidor que los coloca en el sistema de monitoreo; sus interfaces están expuestas en la figura 2. Para lograr confidencialidad de la información fue aplicado un algoritmo de cifrado Cesar [4]. Figura 2: Aplicaciones desarrolladas para transmisión y recepción de los datos. Un elemento a tener en cuenta durante la transmisión de datos a larga distancia es la constancia de la correcta recepción de la información en la estación destino, lo cual se asegura con un protocolo orientado a conexión con técnicas de acceso al medio de tipo CSMA (Carrier Sense Multiple Access) [5]. Para el cumplimiento del protocolo se parte del principio de una comunicación bidireccional. Deben declararse estados que definan todas las situaciones que pueden presentarse en un proceso de intercambio de información. En primer lugar, se examina el medio de transmisión hasta confirmarse que ha quedado libre y solo se inicia la comunicación una vez ocurrido. Luego es ejecutado el proceso de envío de las tramas APRS hacia la estación de control, de ocurrir este proceso sin error se recibe el acuse de recibo (ACK), en caso contrario se notifica las causas del fallo en la comunicación. Diseño de la interfaz de acople Para lograr el acoplamiento entre el transceptor y el sistema de cómputo se diseña una interfaz bajo el principio de funcionamiento de un circuito de acople VOX. En este caso se abre el canal de transmisión del transceptor extrayendo la señal presente en el canal derecho del conector de audio estéreo de 3,5 mm, la cual luego de ser acondicionada, simula el PTT o placa convencional y permite el paso de la señal proveniente de la tarjeta sonido (canal izquierdo del conector estéreo de 3.5 mm) hacia el excitador del radio. Se recomienda para no afectar el trabajo de la tarjeta de sonido y el radio, producto de un efecto indeseado entre ambos, agregar un puente resistivo de 100 a 1 Ω. El diseño de la placa se muestra en la figura 3. Figura 3: Diseño de esquema eléctrico y placa de circuito impreso de la interfaz. Para su funcionamiento se conecta la tarjeta de audio del dispositivo de cómputo y el equipo transceptor. La interfaz es compatible con cualquier radio, destacando como único elemento a cambiar el conector del micro teléfono [6]. Software para representación gráfica La visualización de los datos de posicionamiento geográfico se puede realizar sobre cualquier aplicación destinada a tal efecto. El sistema propuesto desarrolla su propia aplicación empleando el entorno de desarrollo (IDE) QtCreator en su versión 5.7, la que se conecta vía Ethernet y realiza la lectura del buffer de datos disponibles. Figura 4: Interfaz de la aplicación de control. 3. RESULTADOS Y DISCUSIÓN Las pruebas se llevan a cabo empleando transceptores del fabricante ICOM del tipo IC- M402, computadora de placa única Lattepanda y el circuito de acople desarrollado. En cada extremo de comunicación se colocó un sistema similar al de la figura 5. Figura 5: Montaje del sistema para la transmisión y recepción de las coordenadas. El envío de la trama APRS se realiza con una frecuencia de 145.825 MHz (canal 8 para radios de ICOM). En la parte receptora se colocaron tres herramientas de decodificación de la trama como material de comparación para la señal recibida: Soundmodem 100, AFSK1200 y AX.25-SCS [7]. Para determinar la veracidad de cada trama recibida, se incorporó al extremo receptor una aplicación desarrollada en DELPHI 7, para el cálculo de la tasa de bit errado [7] (BER – por sus siglas en inglés). En la tabla 2, se ilustra cantidad de bits de datos transmitidos, cantidad recibidos, cantidad errados, llegada del ACK y el BER resultante. Como es posible apreciar los valores resultantes se encuentran en parámetro según la ICT (Information and Communications Technology) [7], Tabla 2 Resultados obtenidos. Herramienta decodificadora Total de bits transmitidos Total de bits recibidos Bits errados Llegada de ACK VER < 0.0000015 Soundmodem 100 7200000 7200000 10 sí 0.0000013 AFSK1200 AX.25-SCS Soundmodem 100 7200000 7200000 10 sí 0.0000013 AFSK1200 AX.25-SCS Soundmodem 100 7200000 7200000 9 sí 0.0000012 AFSK1200 AX.25-SCS Soundmodem 100 7200000 7200000 9 sí 0.0000012 AFSK1200 AX.25-SCS Soundmodem 100 7200000 7200000 9 sí 0.0000012 AFSK1200 AX.25-SCS En todos los casos el protocolo de comunicaciones orientado a conexión dio acuse de recibo del envío de los datos, como se muestra en la figura 6. Figura 6: Ventana de mensaje ACK de la trama APRS. En la aplicación de representación gráfica fueron visualizados los datos recibidos como se puede observar en la figura 7. Figura 7: Representación gráfica de las tramas APRS recibidas. 4. CONCLUSIONES Se desarrolló un APRS, soportado sobre estructuras de datos, mecanismos de trasmisión segura y representación geográfica propios, lo cual otorga una soberanía tecnológica. El sistema se puede aplicar donde haya presencia de radio, y otros tipos de medios como computadoras de placa reducida, tipo Rapsberry Pi u ODROID. Es posible implementar modos digitales con velocidades de transmisión superiores a PSK31, sobre todo del grupo PSK-R que contienen interlineado y códigos de corrección de error tipo FEC (Forward Error Correction), lo cual permitiría construir sistemas más robustos frente a interferencias, ruido u otro tipo de efecto indeseado [7], y disminuir los niveles del BER durante la transmisión. RECONOCIMIENTOS Los autores desean agradecer al colectivo del Centro de Investigación y Desarrollo de Electrónica y Mecánica “CID MECATRONICS”, en particular a los Investigadores Auxiliares Roberto Morera Herrera y Alberto Alemany Hernández, los cuales cooperaron en la obtención de los medios y conocimientos necesarios para esta investigación. REFERENCIAS 1. Y. Adityawarman and J. Matondang, "Development of Micro Weather Station Based on Long Range Radio Using Automatic Packet Reporting System Protocol,"2018 International Conference on Information Technology Systems and Innovation (ICITSI), 2018, pp. 221-224, doi: 10.1109/ICITSI.2018.8696081. 2. Jyrki T. J. Penttinen, "Modulation and Demodulation," in The Telecommunications Handbook: Engineering Guidelines for Fixed, Mobile and Satellite Systems, Wiley, 2013, pp. 261-280, doi: 10.1002/9781118678916.ch10. 3. M. Weatley, “PSKCore.DLL Software Specification and Technical Guide Ver. 1.41”, Septiembre 24, 2018. 4. H. TOUIL, N. E. AKKAD and K. SATORI, "Text Encryption: Hybrid cryptographic method using Vigenere and Hill Ciphers," 2020 International Conference on Intelligent Systems and Computer Vision (ISCV), 2020, pp. 1-6, doi: 10.1109/ISCV49265.2020.9204095. 5. F. De Rango, N. Cordeschi and F. Ritacco, "Applying Q-learning approach to CSMA Scheme to dynamically tune the contention probability," 2021 IEEE 18th Annual Consumer Communications & Networking Conference (CCNC), 2021, pp. 1-4, doi: 10.1109/CCNC49032.2021.9369509. 6. DI NISIO Atilio; PICARIELLO Francesco. "Selected Papers from the 2018 IEEE International Workshop on Metrology for the Sea". Switzerland: Office MDPI, 2020. ISBN 978-3-03928-406-1. 7. S. Okabe et al., "10-Gbps forward error correction system for 120-GHz-band wireless transmission," 2010 IEEE Radio and Wireless Symposium (RWS), 2010, pp. 472-475, doi: 10.1109/RWS.2010.5434147. Sobre los autores Jorge H. Vázquez Leiva es ingeniero en Telecomunicaciones, graduado del Instituto Técnico Militar “José Martí” en el año 2015. Actualmente labora como Especialista de III en Investigación, Innovación y Desarrollo en el CID MECATRONICS. Wilfredo R. Núñez Blanco es ingeniero en Informática, graduado del Instituto Técnico Militar “José Martí” en el año 2015. Actualmente labora como Especialista de III en Investigación, Innovación y Desarrollo en el CID MECATRONICS. Alberto Feito Guerra es ingeniero en Informática, graduado del Instituto Técnico Militar “José Martí” en el año 2011. Actualmente labora como Aspirante a Investigador en el CID MECATRONICS. Claudia Margarita Martínez Mujica es ingeniera en Informática, graduada de la Universidad Tecnológica de la Habana “José Antonio Echeverría” en el año 2019. Actualmente labora como Especialista de III en Investigación, Innovación y Desarrollo en el CID MECATRONICS. SISTEMA DE SEÑALIZACIÓN DIGITAL SOPORTADO EN ECOSISTEMA IOT Guillermo Lastre Olazábal 1, Gilbert Rafael García Cabrera2 1CITMATEL. lastre@citmatel.cu, 2CITMATEL. gilbert@citmatel.cu RESUMEN La Cartelería Digital se entiende como la difusión de contenido a través de pantallas con fines informativos o publicitarios. Esta tecnología permite a una institución crear, publicar y gestionar sus propios contenidos, combinando ventajas de la publicidad digital y la convencional, lo que la convierte en un medio de comunicación eficaz y muy utilizado a nivel mundial. En este trabajo se implementa una aplicación de Cartelería Digital que a nivel de hardware y software permite el control centralizado, dinámico y seguro de múltiples pantallas en una interfaz única. Posee la capacidad de ser insertado en un ecosistema IoT a través del protocolo MQTT, lo que le permite reaccionar ante determinadas situaciones detectadas por sensores u otros dispositivos, variando de manera dinámica el contenido que muestra en las pantallas. Se despliegan, además, las plataformas de IoT que permiten la administración y monitoreo de las pantallas, tanto dentro de la red local (edge) como basadas en nube. Se demuestra su funcionamiento con un caso de estudio donde la pantalla cambia la imagen mostrada cuando un sensor de movimiento detecta personas, además de encender las luces del local que permanecían apagadas mientras que no hubiera personas en él. De esta forma se hace un uso eficiente de la energía, ya que solo se activa cuando es necesario. PALABRAS CLAVES: Cartelería Digital, Internet de las Cosas, Protocolo MQTT. DIGITAL SIGNAGE SYSTEM SUPPORTED IN IOT ECOSYSTEM ABSTRACT Digital Signage is understood as the dissemination of content through screens for informational or advertising purposes. This technology allows an institution to create, publish and manage its own content, combining the advantages of digital and conventional advertising, making it an effective and widely used means of communication worldwide. In this work, a Digital Signage application is implemented that, at the hardware and software level, allows centralized, dynamic and secure control of multiple screens in a single interface. It has the ability to be inserted into an IoT ecosystem through the MQTT protocol, which allows it to react to certain situations detected by sensors or other devices, dynamically changing the content displayed on the screens. In addition, IoT platforms are deployed that allow the management and monitoring of the screens, both within the local network (edge) and based on the cloud. Its operation is demonstrated with a case study where the screen changes the image shown when a motion sensor detects people, in addition to turning on the lights of the premises that remained off while there were no people in it. In this way, efficient use of energy is made, since it is only activated when necessary. KEYWORDS: Digital Signage, Internet of Things (IoT), MQTT Protocol. 1. INTRODUCCIÓN La cartelería digital (digital signage en idioma inglés), conocida también como señalización digital dinámica, señalización digital multimedia o cartelería digital, es el uso de contenidos digitales emitidos a través de pantallas (monitores LCD, pantallas de TV, paneles de LED o proyectores), con fines informativos y/o publicitario [1]. Las pantallas que se emplean en estos sistemas están conectadas entre sí por una red local y administrada centralmente por una aplicación que gestiona su funcionamiento y la planificación del contenido a mostrar. Estos sistemas son extremadamente caros y requieren el uso de licencias para utilizar la herramienta de control centralizado, la cual suele ser propia del fabricante de las pantallas por lo que una aplicación desarrollada dentro de nuestro país se vuelve una alternativa necesaria. En Cuba, a partir de la informatización de la sociedad se comienza a explotar incipientemente las bondades de este tipo de sistema. Existen ejemplos de su uso a nivel institucional y donde más se puede ver su empleo de una manera muy rudimentaria es en negocios particulares. Un ejemplo de este sistema empleado en Cuba a nivel estatal lo constituyen las pantallas dedicadas al enfrentamiento al cambio climático, ubicadas en cuatro instituciones del CITMA y en la Universidad de La Habana y gestionadas por la Empresa de Tecnologías de la información y Servicios Telemáticos (CITMATEL), estas son fabricadas por SAMSUNG y controladas por el software MagicInfo [2] también producido por esta compañía. Se ha identificado además el uso de este tipo de sistema por la Oficina del Historiador en la zona del casco histórico de la Habana y en algunas instituciones como museos y de carácter turístico. Señalización digital Las soluciones de señalización digital actuales ofrecen una amplia gama de funciones y oportunidades de presentación, que incluyen video, audio, imágenes fijas y HTML. Puede mostrar el mismo contenido o diferente en varias pantallas. También es posible programar el contenido para que cambie a intervalos u horarios regulares, en función de mensajes distintos o audiencias cambiantes. Componentes de un sistema de señalización digital Un sistema de señalización digital requiere para su funcionamiento una combinación de hardware específico para reproducir el contenido e interactuar con la pantalla conocido como reproductor o Player, un software especial para el reproductor de los medios digitales y la gestión de contenidos, una herramienta de control centralizado y tecnología que permita la actualización remota, como redes de datos locales o conectividad con Internet. Características imprescindibles de un sistema de señalización digital Existen diversas opciones cuando se trata de software de señalización digital. Para elegir el mejor software de señalización digital es necesario tener en cuenta las siguientes características: Múltiples formatos y facilidad de programación de la visualización del mismo, soporte de múltiples pantallas, acceso multiusuario, supervisión e informes de red, Por último, implementar medidas de seguridad razonable que minimicen las vulnerabilidades que pueden tener este tipo de sistemas. Aplicaciones de señalización digital propietarias, gratuitas y de código abierto En la actualidad existen variados software y sistemas propietarios [2] [3] que proporcionan soluciones de Cartelería Digital. Muchos de estos están constituidos por equipos físicos y servidores dedicados o están basados en la nube. El costo de estos sistemas suele ser elevado y además necesitan ser importados del extranjero. El bloqueo económico financiero de los Estados Unidos hacia Cuba hace difícil obtener los componentes necesarios para este tipo de sistema en nuestro país. La política de migración al software libre de Cuba, hace que la alternativa de una aplicación de pago no sea la más adecuada. De igual forma existen alternativas gratuitas y de código abierto [4] las cuales fueron analizadas como posible solución, seleccionándose como aplicación para el reproductor de medios, la propuesta de Screenly OSE [5] como la más adecuada a nuestros requisitos. Las soluciones de señalización digital mencionadas anteriormente no tienen la funcionalidad deseada de tener un control centralizado ni de interactuar con un ecosistema IoT, por lo que se hizo necesario la modificación de la aplicación seleccionada para el reproductor y la confección de una aplicación de control propia. Ecosistema IoT. Internet de las cosas (IoT, Internet of Things) es un concepto y un paradigma que considera la presencia generalizada en el entorno de una variedad de cosas/objetos que a través de conexiones inalámbricas o cableadas y esquemas de direccionamiento únicos pueden interactuar entre sí y cooperar con otras cosas/objetos para crear nuevas aplicaciones/servicios y alcanzar objetivos comunes. Un Ecosistema IoT está basado en lo fundamental en una gran cantidad de dispositivos embebidos de bajo costo, escasa capacidad de cálculo y recursos, con un gran número de comunicaciones simultáneas, lo que define que el protocolo de comunicación IoT tiene que tener poca capacidad de procesado. Son sistemas escalables e interoperables (variedad de dispositivos, sistemas operativos y lenguajes de programación). La seguridad es un aspecto importante que muchas veces no se tiene en cuenta. Protocolo MQTT MQTT (MQ Telemetry Transport) es uno de los protocolos de IoT más usados a nivel mundial debido a su flexibilidad y altas capacidades de comunicación, además de ser un software de estándar abierto. Aunque inicialmente era un formato propietario, en 2010 fue liberado y pasó a ser un estándar en 2014 según la OASIS (Organization for the Advancement of Structured Information Standards) [6]. MQTT es extremadamente simple y liviano, diseñado para dispositivos restringidos y redes de bajo ancho de banda, alta latencia o poco confiables. Sus principios de diseño están destinados a minimizar el ancho de banda de la red y los requisitos de recursos del dispositivo al mismo tiempo que se intenta garantizar la confiabilidad y cierto grado de garantía de entrega. El funcionamiento de este protocolo es un servicio de mensajería con patrón publicador/suscriptor (pub-sub) en el cual los clientes se conectan con un servidor central denominado broker. En este trabajo se describe el diseño e implementación de un sistema de Cartelería Digital basado en hardware de bajo costo y software libre. Estos componentes tienen la limitante de que sólo se permite el control efectivo de una sola pantalla. La solución que se presenta propone el diseño, desarrollo e implementación de una herramienta informática que permita el control centralizado y seguro de múltiples clientes de Screenly OSE, en una interfaz única y con capacidad de manipular de manera dinámica y reactiva su contenido, mediante su inserción en un Ecosistema de IoT. Por último, se presenta un caso de estudio donde se valida la funcionalidad de la solución propuesta. 2. DESCRIPCIÓN DEL SISTEMA DE SEÑALIZACIÓN DIGITAL IMPLEMENTADO Teniendo en cuenta los componentes clásicos de un sistema de este tipo, la solución propuesta (ver fig. 1) emplea como reproductor de medios una minicomputadora Raspberry Pi 3b+ y la aplicación de código abierto Screenly OSE, interconectados con un Sistema de Control Centralizado, de manera inalámbrica o cableada en una red local propia, Figura1. Esquema general de la solución propuesta. (Confección propia) Unidad de visualización: Puede ser cualquier tipo de pantalla que posea entrada HDMI: Monitor de PC, pantalla publicitaría, TV Wall o similar. Reproductor: Basado en una Raspberry Pi 3b+, ejecuta el software, que permite la visualización, programación y monitoreo de la información a mostrar, se conecta a la pantalla directamente por HDMI y a la red por cable Ethernet o WiFi. Permite, además, el control del encendido de la pantalla. Aplicación de control centralizado: Gestiona y monitoriza las pantallas para diferentes proyectos (locaciones), comunicándose directamente con el reproductor a través de HTPPS y con las plataformas IoT a través del protocolo MQTT, también de manera segura. Conectividad: Los reproductores se pueden conectar a la red local usando la red cableada o de manera inalámbrica. Plataformas IoT: Este es un componente opcional. Permiten la interacción del sistema de cartelería con dispositivos IoT para la variación dinámica del contenido a través de protocolos propios de este tipo de tecnología. Puede interactuar con plataformas IoT dentro del entorno de la red local (edge computing) o a nivel de nube (cloud computing) en dependencia del tipo de acceso que requiera el cliente final del servicio. Este sistema tiene asociado un servicio integral que provee la empresa CITMATEL, que comprende: identificar las necesidades o requisitos del cliente; elaboración de tarea técnica; suministro de los materiales, insumos y equipos necesarios; el cableado, instalación y configuración de equipos; instalación de la solución centralizada; puesta a punto del sistema y entrenamiento al personal. Opcionalmente si el cliente lo solicita se asume el diseño, actualización, monitoreo y mantenimiento de la información de la campaña publicitaria. Características y funcionalidades del Sistema.  Visualización de contenido web y multimedia (imágenes y videos) en múltiples pantallas.  Creación de proyectos independientes (instituciones o locaciones) que agrupen múltiples clientes (pantallas) y categorías (clasificación de la información).  Ejercer acciones de control sobre el hardware de visualización: Apagar o reiniciar el reproductor, apagar o encender las pantallas.  Control centralizado de todos los proyectos y clientes desde una sola interfaz web.  Mostrar en tiempo real el contenido de cada pantalla en la interfaz web de la aplicación.  Planificación centralizada del contenido a mostrar en cada pantalla de manera independiente o grupo de pantallas seleccionado.  Control de acceso a la aplicación de control centralizado y a los reproductores mediante usuario y contraseña.  Comunicación segura (TLS) entre los diferentes elementos del sistema y autenticación de usuarios.  Solución basada en software libre, cuyas licencias permiten la modificación y comercialización del resultado obtenido.  Funciona de manera nativa sobre Raspberry Pi que permite emplear hardware de bajo costo como reproductor, permitiendo además otras posibilidades como el control de sensores o actuadores sobre la misma pantalla. La solución propuesta inserta al sistema de señalización digital en un ecosistema IoT, la interrelación con sistemas inteligentes permitiría variar la información a mostrar de manera reactiva, por ejemplo: La conexión de sensores de presencia permite activar el encendido de la pantalla; la presencia de botones físicos o virtuales permitirían la selección del contenido a visualizar; la conexión de sensores ambientales permitiría mostrar datos actualizados de variables meteorológicas locales o de otra índole; la conexión a sistemas de vigilancia mediante cámaras o sistemas de control de acceso permitiría su uso en la seguridad física de las instalaciones. Descripción del software La aplicación diseñada e implementada es un software intuitivo y fácil de usar por el personal al que está dirigido y lo suficientemente flexible para agregar nuevas funcionalidades en el futuro. A continuación, se brinda una descripción de algunas de las prestaciones y herramientas que se implementaron en la solución. Se define como Proyecto al conjunto de pantallas (Clientes) que conforman el sistema de señalización digital de una locación especifica. La solución puede soportar múltiples proyectos. Para crear un Cliente, dentro de un proyecto se debe introducir un nombre único el cual será su identificador y una dirección IPv4 única, correspondiente a la dirección actual del reproductor en la red local. Una vez definidos los clientes y su autentificación, el usuario será capaz de saber en tiempo real si estos están conectados, desconectados o ver la imagen actual que se muestra en la pantalla (ver figura 2). Un usuario autentificado será capaz de gestionar, mediante la interfaz de la aplicación, el contenido a mostrar en cada Cliente, así como su planificación (ver figura 3). Figura 2. Vista de los clientes de un proyecto. (Confección propia) Figura 3. Vista de gestión de un cliente. (Confección propia). Como solución a la funcionalidad de interactuar con un ecosistema IoT, se implementó una opción independiente con la capacidad de comportarse como un cliente MQTT. El cual es capaz de suscribirse a una plataforma IoT usando este tipo de protocolo y enlazar una o varias acciones al tópico al que se suscribe. Dichas acciones están relacionadas con encender o apagar el reproductor, mostrar la información precedente, la anterior o ir una específica, esta última pudiera no estar activa en la programación de imágenes a visualizar. El protocolo MQTT trabaja directamente con el servidor de la plataforma IoT (tanto local como en la nube), basado en un patrón de publicación/subscripción en un tópico o tema. En la figura 4 se muestra la pantalla de configuración de este protocolo en la aplicación, que incluye los datos del servidor broker al cual conectarse. Figura 4. Configuración general del cliente MQTT. (Confección propia) En la figura 5, se muestran los detalles de cómo reaccionaría el sistema en dependencia del valor del tópico T1: el cliente C1 pasará a la siguiente información si el valor de T1 es mayor que cero, mientras que C2 y C3 visualizaran la imagen anterior, para este mismo valor del tópico. Figura 5. Vista de una suscripción. (Confección propia). Seguridad implementada La seguridad implementada se basó en las capas de seguridad definidas para un ecosistema de IoT basado en el protocolo MQTT según se describe en [3]. La solución propuesta es la siguiente: Para la capa de seguridad a nivel de infraestructura de red, se propone que sea una red datos separada de la red de la institución, se toma en cuenta la seguridad que permite el equipo de conectividad utilizado: restricción a nivel de MAC de los equipos que se pueden conectar, uso de contraseñas fuertes en las conexiones WiFi, uso de VLANS, entre otras. Para la capa de seguridad a nivel de transporte se crean certificados auto firmado para los servidores de las plataformas y la aplicación de control. En el caso de la solución de software en los reproductores (Screenly OSE) se habilitó la conexión segura de estos, siguiendo las instrucciones de su sitio web [5]. Esto permite que se implemente la encriptación SSL/TLS v1.2 a nivel de la capa de transporte también en el servidor broker [7]. Para la capa de seguridad a nivel de aplicación, se habilita en los reproductores, en el servidor IoT y en la aplicación de control la autentificación por nombre de usuario y contraseña. Al estar implementado la encriptación SSL/TLS, las credenciales de estos no viajan en texto plano. Con relación al SO Raspbian en el cual están basados los reproductores, se creó un nuevo usuario y contraseña para usuario y se implementaron otras medidas de seguridad [8]. Para esta solución no se implementó el cifrado de la carga útil o payload del tópico. Descripción del Ecosistema IoT implementado. El sistema de cartelería digital propuesto se conecta a través del protocolo MQTT, con un ecosistema IoT implementado en el centro de datos de CITMATEL [9] [10], el cual está conformado a nivel de borde de la red (edge computing) por un servidor brokerMosquitto y por la plataforma IoT Thingsboard, basada en los principios de la computación en la nube (cloud computing). En la figura 6, se observa un esquema general de la solución propuesta. Figura 6. Esquema del Ecosistema IoT implementado. (Confección propia). Eclipse Mosquitto [11], [7] es un broker MQTT de código abierto (con licencia EPL/EDL), que implementa las versiones 5.0, 3.1.1 y 3.1 del protocolo MQTT. Mosquitto es ampliamente utilizado debido a su ligereza lo que permite, emplearlo fácilmente en gran número de ambientes, incluso si estos son de pocos recursos, es adecuado para usar en varios dispositivos, desde computadoras de una sola placa de baja potencia, como una Raspberry Pi hasta servidores completos. Está disponible para una gran cantidad de plataformas de software: MacOS, Windows, y varias distribuciones de Linux. Admite la interconexión de varios servidores Mosquitto usando una propiedad conocida como Bridge. Permite implementar a nivel de la aplicación medidas de seguridad de alto impacto (autenticación, autorización y cifrado SSL/TLS). Tiene una gran comunidad asociada y es un sistema activo, la última versión 2.1 es de agosto de diciembre del 2021. La plataforma IoT a nivel de Nube está implementada con un servidor ThingsBoard [12] Versión 3.0.0-1 de código abierto. Está centrada en permitir un rápido desarrollo, gestión y escalado de proyectos relacionados con esta tecnología. Permite la recopilación, el procesamiento, la visualización y la administración de dispositivos. Admite implementaciones locales y en la nube. Es compatible con los protocolos de IoT estándar de la industria: MQTT, CoAP y HTTP. Consigue combinar escalabilidad, tolerancia a los fallos y un buen rendimiento a la hora de capturar los datos del dispositivo para su procesamiento y control. 3. RESULTADOS Como ejemplo de uso de la solución de cartelería digital se demuestra su funcionamiento con una aplicación práctica (figura 7) donde se pasa a la siguiente información de la pantalla del cliente C1, cuando un sensor de movimiento detecta personas. Esto sucede porque el sensor de movimiento publica en el tópico T1 un valor mayor que cero (ver figura 5), esto provoca además el encendido de las luces del local, las cuales permanecían apagadas mientras no hubiera personas en él [13]. Esta aplicación permite un uso eficiente de la energía ya que se pudiera configurar el encendido de las pantallas y las luces cuando detecta la presencia de personas. Figura 7. Esquema general del caso de estudio propuesto. (Confección propia) La interacción del sistema de cartelería con la plataforma IoT a nivel de nube se logra a través de un tablero de mando implementado en el Thingsboard (figura 8), que permite mostrar los estados y los elementos de control con el empleo de sensores y actuadores de la lámpara inteligente. El tablero permite interactuar con el servidor para obtener información e interactuar con ella. En este caso se configura el componente Lámpara GL_01 para ver cuando la lámpara está apagada o encendida Figura 8. Tablero de mando implementado en ThingsBoard: Luz encendida, interruptor y tabla de últimas acciones (Confección propia) 4. CONCLUSIONES Disponer de un Sistema de Señalización Digital propio permite adaptarse a cualquier cambio o inclusión de nuevas funcionalidades, disminuye costos de implementación y permite brindar servicios personalizados. Con el presente trabajo se logran establecer las bases de uno de los principales componentes de estos sistemas: el control centralizado, adaptado a las tendencias actuales y necesidades de las instituciones que necesiten emplearlos para sus implementaciones de publicidad o anuncios. Como resultado del trabajo realizado se concluye que es posible la gestión centralizada de múltiples pantallas situadas en locaciones diferentes, permitiendo la planificación del contenido a mostrar, el monitoreo de su estado en tiempo real y la visualización al operador de la imagen que se está mostrando en la pantalla. Se demuestra que gracias al estar conectado a una plataforma IoT a través del protocolo MQTT, es posible reaccionar, a partir de percibir variaciones en los valores de los tópicos a los cuales está suscrito, con la ejecución de una acción definida por el usuario sobre uno o varios reproductores. Por último, se validó la solución en un caso de estudio en el que se obtuvieron los resultados esperados. 5. RECOMENDACIONES Y TRABAJO FUTURO. A partir de la implementación práctica de este sistema y la necesidad de implementar otras funcionalidades que potencian la seguridad y el control centralizado, no concebidas inicialmente y que son características de los Sistemas de Señalización Digital más avanzados, se proponen los siguientes aspectos como trabajos futuros a realizar que permitirían incorporar las siguientes prestaciones al sistema: Creación de múltiples usuarios y autorización basada en roles para la aplicación, verificación por correo en la creación de los usuarios y para recuperar contraseña, mostrar imágenes en directo de una cámara web o una cámara IP, implementación de aplicación móvil propia para controlar la imagen en pantalla a partir de conectarse a la plataforma IoT. 6. REFERENCIAS 1. ITU-H. SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS. IPTV multimedia services and applications for IPTV – Digital Signage, Recommendation ITU-T H.783. TELECOMMUNICATION STANDARDIZATION SECTOR OF ITU. 2019 2. SAMSUNG. MagicINFO™ 9 [en línea]. [ref. de 8 Agosto 2022]. Disponible en Web: https://www.samsung.com/latin/business/display-solutions/magicinfo/ 3. GARCÍA, Gilber. Rafael; LASTRE, Guillermo. "Proyecto de desarrollo: Propuesta de implementación de un prototipo para servicio de cartelería digital empleando software libre". UEB proyectos de redes y Sistemas de cómputo. CITMATEL, La Habana, Nov 2022. 63 PP. 4. SoftwareSuggest. 14 Best Free & Open Source Digital Signage Software Mayo 2020. [en línea]. [ref. de: 7 de Diciembre 2021]. Disponible en Web: https://www.softwaresuggest.com/blog/best-free- open-source-digital-signage-software/. 5. Screenly Inc. Screenly Open Source Edition [en línea]. [ref. de: 31 enero 2022]. Disponible en Web: https://www.screenly.io/ose/. 6. BANKS, Andrew; BRIGGS, Ed; BORGENDALE; Ken y GRUPA, Rahul. MQTT Version 5.0. OASIS Standard. 07 Marzo 2019. [en línea]. [ref. de: 8 de Agosto 2022]. Disponible en Web: https://docs.oasis-open.org/mqtt/mqtt/v5.0/mqtt-v5.0.html.. 7. COPE, Steve. Steve´s Internet Guide [en línea]. [ref. de: 12 Agosto 2022]. Disponible en web: http://www.steves-internet-guide.com/. 8. LÓPEZ, Nacho. Monitorización y Seguridad En La Raspberry Pi [en línea]. [ref. de: 28 Julio 2022]. Disponible en Web: https://nacholoop.github.io/enigma/seguridad.html#pass. 9. LASTRE, Guillermo. "Proyecto de desarrollo SER 21119: Ecosistema IOT: Implementación de Servidor Broker IoT". UEB Proyectos de redes y Sistemas de Cómputo. CITMATEL, La Habana, Jul 2022. 50 PP. 10.GARCÍA, Roberto. "Proyecto de desarrollo SER 21120: Ecosistema IOT: Implementación de Servicios IoT en la Nube". UEB Proyectos de redes y Sistemas de cómputo. CITMATEL, La Habana, Jul 2022. 35 PP. 11. Eclipse Foundation. Eclipse Mosquitto [en línea]. [Ref. de: 12 Agosto 2022]. Disponible en Web: https://mosquitto.org/. 12. ThingsBoard Inc. ThinsgBoard 2022 [en línea]. [Ref de: 12 Agosto 2022]. Disponible en Web: https://thingsboard.io/. 13.GARCÍA, Roberto. "Proyecto de desarrollo SER 2199: Ecosistema IoT Implementación de Dispositivos y Sensores IOT (Diseño de dispositivos inteligentes Lámpara Inteligente)". UEB Proyectos de redes y Sistemas de cómputo. CITMATEL, La Habana, Dic 2021. 53 PP. Sobre los autores Guillermo Lastre Olazábal, graduado de Ingeniería en Máquinas Computadoras en el Instituto Superior Politécnico “Jose Antonio Echevarría” (ISPJAE), en 1990. Especialista en proyectos de redes, CCTV y servicios técnicos. Actualmente se desempeña como Director de la UEB de Proyectos de Redes y Sistemas de Cómputo de la Empresa de Tecnologías de la Información y Servicios Telemáticos (CITMATEL). Miembro de la Unión de Informáticos de Cuba (UIC). Gilbert Rafael García Cabrera, graduado de la carrera de Ciencias de la Computación en el año 2020 en la facultad de Matemática y Computación de la Universidad de La Habana. Vinculado a la Empresa de Tecnologías de la Información y Servicios Telemáticos Avanzados (CITMATEL) desde las prácticas laborales y posteriormente en el proyecto de Tesis de Grado. Trabaja desde el 2020 en el Grupo de Desarrollo e Innovación de la UEB Proyecto e Instalación de Redes y Sistemas de Cómputo de la empresa CITMATEL donde sus principales tareas son la instalación, implantación, mantenimiento y administración de aplicaciones informáticas para servicios de la empresa como el Servicio de Viodeoconferencia por Software Galy Meet, la Nube Computacional del CITMA, la Central Telefónica IP Issabel y la Cartelería Digital. {ñi IMPACTO DE LA CRIPTOGRAFÍA MODERNA EN LA CIBERSEGURIDAD DENTRO DE LA INFORMATIZACIÓN DE LA SOCIEDAD CUBANA." MSc. Maytée Odette López Catalá1 Drc. Teresa Pagés López2 1CDNT-ETECSA, Calle 45 No.3414 entre 34 y 41, Rpto. Kohly. Playa. 1e-mail: maytee.catala@etecsa.cu 2MATCOM-UH, Calle 29 esquina J. Plaza. 1e-mail: teresa.bernarda@matcom.uh.cu RESUMEN Este trabajo propone una visión de los avances tecnológicos que han venido produciéndose desde la década de 1970 en el campo de la Informática y las Telecomunicaciones, los cuales han transformado todas las facetas de la vida. Son innegables los beneficios que se obtienen de tal transformación, pero también son numerosos los riesgos que han surgido de tan vertiginoso desarrollo, que no siempre se utilizan con fines pacíficos. En los últimos años, el acceso al ciberespacio se ha convertido en un imperativo de las sociedades modernas por las facilidades y velocidad con la que se pueden efectuar diversas actividades, económicas, financieras, académicas, etc., y aunque para esto se identifique solamente Internet, el ciberespacio es un concepto mucho más amplio, y la Internet es una de sus plataformas. La rápida evolución de las Tecnologías de la Información y la Comunicación (TIC) ha propiciado que la ciberseguridad resulte una condición fundamental para garantizar el desarrollo seguro de actividades básicas en la sociedad moderna. Es necesario entonces, crear diferentes mecanismos, dirigidos a garantizar la confidencialidad y autenticidad de los documentos electrónicos, todo ello es parte de una nueva tecnología denominada Criptografía. En este trabajo se aborda el impacto de la criptografía como ente fundamental de la ciberseguridad en el proceso de transformación digital de la sociedad cubana. PALABRAS CLAVES: Telecomunicaciones, INTERNET, Cuba, Tecnologías de la Información y Comunicaciones, desarrollo sostenible e Informatización. ABSTRACT This work proposes a vision of the technological advances that have been taking place since the 1970s in the field of information technology and telecommunications, which have transformed all facets of life. The benefits obtained from such a transformation are undeniable, but there are also numerous risks that have arisen from such dizzying development, which is not always used for peaceful purposes. In recent years, access to cyberspace has become an imperative in modern societies due to the ease and speed with which various activities, economic, financial, academic, etc., can be carried out, and although for this only the Internet is identified, cyberspace is a much broader concept, and the Internet is one of its platforms. The rapid evolution of Information and Communication Technologies (ICT) has made cybersecurity a fundamental condition to guarantee the safe development of basic activities in modern society. It is necessary then, to create different mechanisms, aimed at guaranteeing the confidentiality and authenticity of electronic documents, all of this is part of a new technology called Cryptography. This paper addresses the impact of cryptography as a fundamental entity of cybersecurity in the process of digital transformation of Cuban society. KEYWORDS: Telecommunications, INTERNET, Cuba, Information and Communication Technologies, sustainable development and Informatization. 1. INTRODUCCIÓN El desarrollo de la sociedad actual está evolucionando cada vez más rápido, el volumen y la multiplicidad de la información convierten a cada individuo, a cada empresa y a cada país en agente y árbitro de un juego digital que a menudo le supera. Se conoce más y más rápido y sobre más cosas, siendo conscientes, al mismo tiempo, de que la vulnerabilidad en el manejo de la información digital está en relación directa con el volumen del flujo de información. [3] Hoy en día, se avista horizonte tecnológico complejo donde la ciberseguridad tiene un protagonismo fundamental en el manejo de la información de las personas jurídicas y naturales. Las noticias sobre ciberseguridad inundan los espacios informativos y en las estrategias de seguridad de todos los países, incluido el nuestro, se considera que la ciberseguridad es un elemento clave a tener en cuenta. [3 y 11] La ciberseguridad, en los últimos 20 años, constituye el discurso base de la anticipación de una revolución tecnológica que vino aparejada a nuevos modelos de cambio social. La tecnología de Internet ha proporcionado un nuevo paradigma de la comunicación social, rompiendo las dimensiones clásicas del espacio y el tiempo. La tecnología que posibilita este cambio también permite que se desarrollen capacidades que generan amenazas para las que ni países ni empresas ni individuos estaban preparados. Por ello, esa labor de comprensión del nuevo entorno necesita nuevas herramientas de estudio, de formación y de colaboración entre todos los agentes sociales tanto públicos como privados. [5 y 17] La gestión de los riesgos, las amenazas, la prevención de estos elementos y el desarrollo de la capacidad de reacción ante una alerta temprana frente a incidentes se demuestra como estratégica en el mantenimiento de la integridad y confidencialidad tanto de individuos como de empresas y estados. Sin embargo, esta categorización tiene menos sentido cuando lo que realmente importa es la prevención de los riesgos. [12] No hay limitaciones, ya que, la ciberseguridad es un proceso vertical en cualquier transformación digital en la sociedad. Son innegables los beneficios que se obtienen de tal transformación, pero también son numerosos los riesgos que han surgido de tan vertiginoso desarrollo, que no siempre se utilizan con fines pacíficos. El acceso al ciberespacio se ha convertido en un imperativo de las sociedades modernas por las facilidades y velocidad con la que se pueden efectuar diversas actividades, económicas, financieras, académicas, etc., y aunque para esto se identifique solamente Internet, el ciberespacio es un concepto mucho más amplio, y la Internet es una de sus plataformas. [17] El estado actual de conciencia nacional de ciberseguridad es, cuando menos, visiblemente mejorable. Lo cual no es de extrañar dado que la ciberseguridad es un concepto que ha empezado a llegar al público no especializado hace relativamente poco tiempo. No obstante, la rápida evolución de las tecnologías de la información y las comunicaciones (TIC) ha propiciado que la ciberseguridad resulte una condición fundamental para garantizar el desarrollo seguro de actividades básicas en la sociedad moderna. [5 y 17] La mayor parte de los peligros se derivan, fundamentalmente, porque el ciberespacio se ha extendido más allá de los límites jurídicos, políticos y territoriales de los Estados; sin estar sujeto a regulaciones a nivel mundial. Las propias características de este entorno han posibilitado la existencia de un escenario favorable a la utilización del medio virtual con fines agresivos o contrarios al mantenimiento de la paz y la seguridad internacionales. [17 y 2] Cuba, con su estrategia dirigida al aumento de la conectividad y la informatización de la sociedad, desarrolla capacidades de ciberseguridad que le permiten proteger su soberanía en el ciberespacio. Promoviendo la cooperación internacional y la creación de mecanismos para adoptar estándares mundiales de enfrentamiento a las ciberamenazas. Los ciberataques que son perpetrados permanentemente contra nuestro país tienen cada vez mayor alcance y diversidad; lo cual se evidencia en la presencia de programas malignos extranjeros en las redes cubanas y el uso de Internet como plataforma de campañas subversivas. [6] Explorando estrategias que incluyen las pruebas de penetración de aplicaciones WEB, las pruebas de penetración de la red interna o la capacitación en concientización sobre ciberseguridad y tomar medidas proactivas para asegurar los recursos empresariales críticos puede llegarse a una solución parcial de la ciberseguridad. No obstante, la seguridad de la información es una de las mayores preocupaciones para las personas naturales y jurídicas que operan de manera competitiva en el entorno digital actual. Y cuando de esta se trata, entre las estrategias adecuadas no puede faltar la criptografía para proteger su propiedad intelectual y evitar amenazas cibernéticas. [18] 2. MARCO CONCEPTUAL Conceptos tomados de la enciclopedia cubana de ciencia y tecnología EcuRed [7] Ciberseguridad: La Ciberseguridad es el estado que se alcanza mediante la aplicación de un sistema de medidas (organizativas, normativas, técnicas, educativas, políticas y diplomáticas), destinado a garantizar la protección y el uso legal del ciberespacio. Ciberespacio: Se refiere a un entorno no físico creado por equipos de cómputo unidos para interoperar en una red. En el ciberespacio, los operadores del equipo pueden interactuar de manera similar al mundo real, a excepción que la interacción en el ciberespacio no requiere del movimiento físico más allá que el de escribir. La información se puede intercambiar en tiempo real o en tiempo diferido, y la gente puede comprar, compartir, explorar, investigar, trabajar o jugar. Delito informático: Implica actividades criminales que los países han tratado de encuadrar en figuras típicas de carácter tradicional. Sin embargo, debe destacarse que el uso de las técnicas informáticas ha creado nuevas posibilidades del uso indebido de las computadoras lo que ha creado la necesidad de regulación por parte del derecho. Las ciberamenazas a las que se enfrenta la ciberseguridad son varios:  Delito cibernético: Incluye agentes individuales o grupos que atacan a los sistemas para obtener beneficios financieros o causar interrupciones.  Ciberataque: Es un conjunto de acciones ofensivas contra sistemas de información. Estos pueden ser bases de datos, redes informáticas, etc. El objetivo es dañar, alterar o destruir organizaciones o personas. A menudo involucran la recopilación de información con fines políticos.  Ciberterrorismo: Es el uso de medios de tecnologías de información, comunicación, informática, electrónica o similar con el propósito de generar terror o miedo generalizado en una población, clase dirigente o gobierno.  Robo de información digital: Implica la obtención sin autorización de la información contenida en el sistema o cambios en el estado de la misma.  Ciberacoso: Es acoso o intimidación por medio de las tecnologías digitales. Puede ocurrir en las redes sociales, las plataformas de mensajería, las plataformas de juegos y los teléfonos móviles. Difundir mentiras o publicar fotografías vergonzosas de alguien en las redes sociales.  Criptografía: Es un método de la ciberseguridad que se utiliza para proteger la información y las comunicaciones de amenazas cibernéticas mediante el uso del cifrado. Esta práctica se refiere a técnicas seguras de información y comunicación derivadas de conceptos matemáticos y un conjunto de cálculos basados en reglas, llamados algoritmos, para transformar los mensajes en formas difíciles de descifrar.  Ciencia: Se denomina ciencia a todo el conocimiento o saber constituido mediante la observación y el estudio sistemático y razonado de la naturaleza, la sociedad y el pensamiento. El objetivo de la ciencia es descubrir las leyes que rigen los fenómenos de la realidad, comprenderlos y explicarlos. De allí se deriva que la función de la ciencia es describir, explicar y predecir tales fenómenos a fin de mejorar la vida humana.  Tecnología: La Tecnología se define como el conjunto de conocimientos y técnicas que, aplicados de forma lógica y ordenada, permiten al ser humano modificar su entorno material o virtual para satisfacer sus necesidades, esto es, un proceso combinado de pensamiento y acción con la finalidad de crear soluciones útiles.  Sociedad: El diccionario define este término como una agrupación de personas que constituyen una unidad, con la finalidad de cumplir mediante la mutua cooperación, todos o algunos de los fines de la vida. Así, es posible definir la sociedad como un conjunto organizado de individuos que siguen un mismo modo de vida. 3. CIBERSEGURIDAD E INFORMATIZACIÓN DE LA SOCIEDAD CUBANA El desarrollo de las TIC es un tema que ha cobrado relevancia en Cuba como elemento determinante para el proceso de desarrollo actual de la sociedad. En este contexto, la ciberseguridad, como contraparte de seguridad del proceso, ha adquirido una importancia superior. En el año 2015, el entonces primer vicepresidente cubano Miguel Díaz-Canel Bermúdez, expresó: “Existe la voluntad y disposición del Partido y el Gobierno cubanos de desarrollar la informatización de la sociedad y poner internet al servicio de todos y a lograr una inserción efectiva y auténtica de los cubanos en ese espacio.” Esta política del Estado cubano se ha materializado paulatinamente, lo cual se evidencia en varios sectores de la sociedad cubana. Los avances de la conectividad en Cuba pueden apreciarse en las infraestructuras de telecomunicaciones, la gestión automatizada de sectores como el financiero, bancario y el electro energético, los proyectos estratégicos de desarrollo macroeconómicos, como la Zona Especial de Desarrollo Económico del Mariel y el Polo Petroquímico de Cienfuegos. [3] En la actualidad, se realizan inversiones destinadas a extender y modernizar esa infraestructura, lo cual ya ha permitido implementar y ampliar servicios como la telefonía móvil e INTERNET. Dentro del proceso de informatización se identifican algunas prioridades como, los servicios esenciales a los ciudadanos; el comercio electrónico; las organizaciones políticas, sociales y de gobierno; así como la informatización de sectores productivos y sociales de alto interés [4]. Ello permitirá facilitar y agilizar, a través de aplicaciones propias, diferentes gestiones que en la actualidad se realizan de forma presencial, y otras ventajas, pero significa para el país nuevos desafíos. Al respecto, el presidente cubano ha señalado que la informatización de la sociedad cubana debe realizarse de forma segura y ordenada, y poner su mirada en la ciberseguridad. En las bases estratégicas para la informatización de la sociedad cubana, la ciberseguridad se contempla como uno de los ejes estratégicos del proceso de informatización y se señala que, en función de esta, deben potenciarse los mecanismos que permitan adoptar estándares mundiales y potencien la posición cubana en el tema. [3] 4. NORMAS JURIDICAS SOBRE CIBERSEGURIDAD EN CUBA Uno de los La publicación y entrada en vigor del Decreto Ley No. 35/2021, fue presentada en agosto como parte de un paquete de normas jurídicas que apuntan a actualizar el marco jurídico que en materia de telecomunicaciones posee el país. La aparición del discutido Decreto Ley 35 no solo busca llenar un vacío jurídico que en materia de telecomunicaciones arrastraba el país y que se hacía muy necesario ante el avance que, en términos de penetración de internet e informatización de la sociedad, viene experimentando la isla de manera acelerada. Dicha normativa responde además a un reclamo ciudadano sobre esta materia, expresado durante el proceso de discusión popular que derivó en la aprobación de la nueva Constitución de la República. De hecho, el texto constitucional actual lo incorpora como parte de sus fundamentos políticos (artículo 16 inciso M) y lo garantiza como derecho en su artículo 53. [8] El Decreto Ley 35 tipifica hechos que hasta el momento no tenían un respaldo legal en el país en el entorno de la red de redes como el ciberacoso, las noticias falsas, la pornografía, el ciberterrorismo, la ciberguerra y subversión social. Además, especifica los deberes y derechos de la protección sin diferencias a los ciudadanos, la sociedad civil y las instituciones estatales y privadas. La Gaceta Oficial No. 92 Ordinaria de 2021 pone en vigor este martes un grupo de nuevas normativas de las telecomunicaciones, las tecnologías de la información y la comunicación (TIC), el uso del espectro radioeléctrico y los incidentes en el ciberespacio, que incluye el Decreto-Ley 35/21 de las Telecomunicaciones, las Tecnologías de la Información y la Comunicación y el Uso del Espectro Radioeléctrico. [8] El Decreto-Ley 35/21 es una norma jurídica de rango superior, la primera de su tipo en nuestro país, y es transversal en los procesos de la sociedad, lo que permite una mayor coherencia y ordenamiento del marco regulatorio existente. Entre los nuevos instrumentos jurídicos figuran, además:  Decreto 42/21 que aprueba el Reglamento General de Telecomunicaciones y las Tecnologías de la Información y la Comunicación.  Decreto 43/21 Reglamento Sobre el Uso del Espectro Radioeléctrico.  Resolución 105 Reglamento sobre el Modelo de Actuación Nacional para la Respuesta a Incidentes de Ciberseguridad.  Resolución 107 de 2021 Reglamento para el Uso de los Servicios de Radiocomunicaciones por Satélites.  Resolución 108 de 2021 Reglamento de Interconexión, Acceso e Instalaciones Esenciales de Redes de Telecomunicaciones. De forma general, el Decreto-Ley y sus normas complementarias ratifican entre sus objetivos contribuir al desarrollo político, económico y social del país mediante el desarrollo y modernización de las infraestructuras de telecomunicaciones, al tiempo que promueven el progreso armónico y ordenado de las redes y los servicios de telecomunicaciones/TIC. Wilfredo López Rodríguez, director de regulaciones del Ministerio de Comunicaciones (MINCOM), señaló que dentro de sus objetivos también se encuentra satisfacer las necesidades generales del Estado y el Gobierno y las relacionadas con la seguridad y la defensa nacional, el orden interior y la defensa civil en materia de las telecomunicaciones/TIC y del uso del espectro radioeléctrico. [12] Asimismo, garantiza el desarrollo y la convergencia tecnológica y prioriza la implementación de redes de banda ancha, al tiempo que defiende los intereses de los ciudadanos y asegura el acceso a los servicios y los derechos constitucionales; en particular el principio de igualdad, privacidad y secreto en las comunicaciones. Dentro de los temas fundamentales que trata este paquete normativo resalta la definición del Servicio Universal de Telecomunicaciones (SUT) como el conjunto de servicios de telecomunicaciones, tecnologías de la información y la comunicación cuya prestación es un derecho para todos los usuarios finales con independencia de su localización geográfica, a un precio y con una calidad determinada. [12] El SUT comprende,  Servicio telefónico fijo y móvil terrestre celular.  Servicio de acceso a Internet.  Servicio de radiodifusión sonora y de televisión.  Acceso a cabinas y estaciones telefónicas públicas.  Acceso gratuito a los servicios de llamadas de emergencia y de socorro que se realicen por sus redes.  Aplicación de condiciones preferenciales para personas con necesidades especiales. Las cuestiones fundamentales en las normativas pueden ser definidas en un paquete los servicios privados de telecomunicaciones como aquellos establecidos por cualquier persona natural o jurídica para uso propio solamente pueden ser brindados a terceros con la autorización del Ministerio de Comunicaciones. Asimismo, se extiende a las personas naturales y jurídicas el acceso a los servicios de difusión de la señal de televisión por cable (CATV), y maximizar la rentabilidad de las redes instaladas. Sobre este punto, el directivo recalcó que «nosotros tenemos señal de televisión por cable que se ofrece al turismo y algunas personas jurídicas, con una infraestructura creada que está subutilizada. Por donde estén las condiciones se podrá ofrecer el servicio a más personas jurídicas y naturales, a partir de la infraestructura que tenemos.» El paquete normativo impulsa el desarrollo y modernización de las infraestructuras de telecomunicaciones con énfasis en la banda ancha y en la radiodifusión, y el máximo aprovechamiento de estas con integralidad, racionalidad y la maximización de su contribución al desarrollo económico y social de la nación, al tiempo que establece el marco legal para ejecutar la transición de la televisión analógica a la digital, garantizando las medidas económicas y sociales. López Rodríguez agregó que se establece el desarrollo de la infraestructura del sistema de radiocomunicación móvil terrestre troncalizada digital de banda ancha, que satisfaga la demanda de estos servicios y de respuesta priorizada a los servicios del Gobierno, empresas estatales y cooperativas. La realidad es que este tipo de disposiciones no resultan nuevas en el ámbito internacional. A nivel multilateral, la resolución 75/240 de la Asamblea General de la Organización de Naciones Unidas, aprobada en diciembre del 2020, reafirma “el derecho y el deber que tienen los Estados de combatir, en el marco de sus prerrogativas constitucionales, la difusión de noticias falsas o distorsionadas que puedan interpretarse como una injerencia en los asuntos internos de otros Estados o como perjudiciales para la promoción de la paz, la cooperación y las relaciones amistosas entre Estados y naciones” [12]. Con antelación, múltiples países, organizaciones mundiales y regionales ya se habían referido al combate de la desinformación y la ciberguerra como un aspecto fundamental en el trabajo de cualquier Estado. Por ejemplo, el Plan de Acción contra la Desinformación rige en la Unión Europea desde el año 2018; en España también existe un Procedimiento de Actuación contra la Desinformación, publicado desde octubre de 2019; Francia posee una ley para proteger la vida democrática de las fake news; y Argentina lanzó en octubre de 2020 un Observatorio de la Desinformación y la Violencia Simbólica en Medios y Plataformas Digitales. [14] Si algo se puede señalar como singular en el caso cubano ha sido la tardanza en promover un marco legal que responda a los desafíos de la ciberseguridad y la cibercriminalidad, dos fenómenos que lamentablemente acompañan los procesos de expansión de internet en el mundo. Y es que el Decreto Ley 35 llega años después de que el país implementara el servicio de Internet en los móviles mediante la conexión por datos, momento reconocido como medular dentro del proceso de informatización de la sociedad cubana. Algunas interrogantes que pudieran surgir en el argot popular se presentan a continuación con sus respectivas respuestas. [12] ¿Qué ventajas nos reporta a los cubanos la puesta en vigor del Decreto Ley No 35 de las Telecomunicaciones, las Tecnologías de la Información y la Comunicación (TIC) y del Uso del Espectro Radioeléctrico y sus normativas?  Ordena de forma coherente en un solo documento, los objetivos del Estado Cubano en relación con la infraestructura y los servicios de Telecomunicaciones y las TIC, y el uso del espectro radioeléctrico para la construcción de una sociedad de la información y el conocimiento, centrado en la persona, con visión integradora y orientada al desarrollo sostenible, en la que todos puedan crear, consultar, utilizar y compartir la información y el conocimiento en la mejora de su calidad de vida.  Establece los derechos y deberes de los operadores nacionales (ETECSA, Radio Cuba, MOVITEL y Telecable Internacional), los proveedores y de los usuarios, lo cual posibilita un ordenamiento armónico en función de elevar la calidad en la prestación de estos servicios.  Define los servicios que se encuentran considerados como Servicio Universal de Telecomunicaciones, que el Estado cubano, a través del operador público (ETECSA), debe garantizarles a los ciudadanos. ¿Qué implica para los cubanos la aprobación del Modelo de Actuación Nacional para la respuesta a incidentes de Ciberseguridad?  Habilita a la persona para ejercer sus derechos de notificar o denunciar ante los órganos, organismos de la Administración del Estado (OACE) y entidades, cualquier afectación que pueda ser tipificada como incidente, y que lo afecte en lo personal, a su familia, o a la sociedad en general.  El derecho a recibir una respuesta, que puede ser una orientación concreta inmediata o una posterior a la investigación.  Forma parte de la creación de valores de conducta cívica de los ciudadanos, de respeto, disciplina y contribución al bienestar social.  En caso de notificaciones o acusaciones falsas, se procederá según la Ley contra el infractor. ¿Qué debemos hacer los cubanos para notificar un incidente de ciberseguridad?  Si la notificación proviene de una persona natural, no está obligada a emplear la tipificación establecida, aunque es muy favorable que conozca cuáles son las categorías y subcategorías contempladas, lo que ayuda culturalmente a identificar las amenazas. En el caso de las personas jurídicas, estas tienen la responsabilidad de notificar usando la tipificación con independencia de que pueda ser rectificada por la Oficina de Seguridad de Redes Informáticas (OSRI)  Asumir la responsabilidad de la información que se aporte, para lo que se identificará con sus datos personales y de la entidad que representa (si fuese el caso), así como tributar detalles que faciliten la gestión, incluidos en el Anexo III del Reglamento. La vía podrá ser cualquiera de las que se publiquen por la OSRI.  Los interesados se pueden comunicar con la OSRI a través de los siguientes canales de comunicación: Sitio web www.osri.gob.cu en el acápite incidentes. Correo electrónico reportes@osri.gob.cu Número único de atención a la población 18810. 5. CRIPTOGRAFIA COMO ENTE FUNDAMENTAL DE LA CIBERSEGURIDAD La criptografía logra varios objetivos relacionados con la seguridad de la información, incluida la confidencialidad, la integridad y la autenticación, y el no repudio. Esta se encarga de que toda la información -nuestra información, la de nuestras empresas y gobiernos, ya sea archivos de datos, de imágenes o videos- se transmite y almacene de manera segura, sin estar accesible a terceros no autorizados. Es un campo amplio con aplicaciones en la mayoría de las áreas críticas de nuestras vidas; formando así parte importante de la ciberseguridad. La criptografía en la vida cotidiana aparece en una serie de situaciones en las que el uso de un conjunto de técnicas de este tipo facilita la prestación de un servicio seguro. Esta disciplina se pone al servicio de la protección del usuario cuando procede al retiro de efectivo de un cajero automático, renueva un contrato con su proveedor de servicios de entretenimiento, utiliza el almacenamiento de archivos online o el correo electrónico mediante algún software gratuito. Resulta imprescindible también para una navegación web segura y para el uso de cualquier dispositivo móvil conectado. [15] Hoy en día, la criptografía se utiliza para mantener seguro en línea material sensible, como puede ser las contraseñas privadas. Los expertos en ciberseguridad recurren a la criptografía para diseñar algoritmos, cifrados y otras medidas de seguridad que codifican y protegen los datos de la empresa y los clientes. 6. CRIPTOGRAFIA EN LA CIBERSEGURIDAD DE LAS EMPRESAS El uso masivo de internet y sus constantes vulnerabilidades ha hecho que la criptografía sea sumamente importante dentro del área de TI de una empresa. La técnica del cifrado se refiere a una escritura de códigos que tiene como objetivo proteger información privada de forma que nadie sea capaz de leer o descifrar. Es necesario que las compañías cuenten con herramientas que protejan los datos o documentos que manejan de forma digital. Sin embargo, existen muchas empresas que aún no cuentan con un sistema de ciberseguridad adecuado. El área de TI de una empresa debe tener una estructura sólida que sea capaz de evitar todo tipo de amenazas. Las soluciones basadas en una infraestructura de clave pública (PKI) son la mejor opción para proteger las sesiones de usuarios, sus contraseñas, firmas digitales o almacenamiento de datos confidenciales. [1] La criptografía permite descentralizar la información que almacenan los sistemas para reducir posibles ciberataques. Es un método más seguro para los datos, sobre todo para las empresas que usan las redes peer-to-peer (P2P). Estas redes P2P protegen la información mediante identidades digitales, que a su vez se protegen de las violaciones de datos mediante métodos de hash criptográfico [1]. Las soluciones de ciberseguridad basadas en la nube son una gran opción para alojar información digital y mantenerla segura. Las organizaciones tanto públicas como privadas pueden beneficiarse de estas herramientas que no solo aportan con la seguridad, sino que ayudan a todas las áreas de su empresa a realizar un trabajo más colaborativo, eficaz y automatizado. 7. CRIPTOGRAFIA PARA REFORZAR LA CIBERSEGURIDAD EN ENTORNOS INDUSTRIALES Con la llegada de la industria 4.0 los sistemas de control han aumentado su exposición a los ciberataques, por lo que asegurar las redes industriales supone un reto dada la cantidad de dispositivos que se están incorporando a fin de lograr procesos mucho más inteligentes y mejorar la recopilación de información. El uso de certificados digitales en entornos industriales es posible gracias a la criptografía, para la autenticación de dispositivos. A través de un certificado digital se es capaz de comprobar la identidad de dispositivos conectados a nuestra red y dificultar así algunas amenazas. Este mecanismo supone una gran ventaja en el mundo de la industria donde existen multitud de dispositivos y es posible sufrir ataques. [8] Al igual que los certificados digitales pueden ser utilizados para autenticar dispositivos en la red, los certificados también aportan una alternativa a la hora de pedir credenciales a los usuarios. Otra utilidad que posee la criptografía es la firma digital, este mecanismo nos asegura que tanto el emisor del mensaje como el contenido del mismo son legítimos y, además, el contenido del mensaje no ha sido modificado entre el envío y la recepción. Además, gracias a la evolución tecnológica y a la reducción de costes, hoy en día se tiene la posibilidad de incorporar procesadores criptográficos en dispositivos industriales. El ahorro en capacidad de procesamiento que proporcionan este tipo de procesadores, es una ayuda importante para que el dispositivo pueda utilizar toda la potencia de procesamiento en las tareas que tenga que realizar. [8] Los procesadores criptográficos son microprocesadores dedicados exclusivamente a realizar operaciones criptográficas. Estos chips disponen de múltiples medidas de seguridad física para evitar su manipulación y son integrados en la circuitería de los dispositivos. [8] Una de las características que poseen los procesadores criptográficos con respecto a los procesadores normales es que poseen instrucciones internas para gestionar material criptográfico, siendo más eficientes en el proceso de generación de claves que un procesador convencional. Esta eficiencia, sumado a la seguridad física extra que posee, es una opción a tener en cuenta para en los nuevos dispositivos industriales. 8. CRIPTOGRAFIA COMO ALTERNATIVA PRINCIPAL PARA LA CIBERSEGURIDAD PERSONAL La criptografía se puede implementar en los dispositivos móviles y es especialmente recomendada para aquellas personas que comparten secretos con otras, pero no quieren que nadie más los sepa. En este sentido, sirve para proteger datos de comunicaciones. La persona que envía o recibe el mensaje puede, mediante la criptografía, descifrar el contenido aplicando diversos métodos. En el fondo, es la técnica que emplean nuestras aplicaciones de mensajería instantánea para cifrar los mensajes, extremo a extremo. WhatsApp y Telegram, dos apps de mensajería instantánea cuentan con esta metodología de seguridad. A pesar que los mensajes de WhatsApp no son 100 % seguros estos se envían protegidos con claves de seguridad que evitan, en caso de ser interceptados a través de ataques cibernéticos, ser leídos por intrusos o por los gobiernos. [3 y 16] Cada vez que se usa el móvil, bien sea para guardar música, hacer una llamada, pagar con el dispositivo o entrar en una web, estamos dejando una huella digital. Se trata de un hilo que al seguirlo nos puede llevar a un mar de información privada muy vulnerable para el usuario como dirección, edad, teléfono o incluso un momento bochornoso que siempre ha querido olvidar. Quizá consideras que esto no es importante o no es síntoma de alarma, pero debes saber que al registrarte en cualquier servicio o descargar una app, estás permitiendo que las empresas tengan acceso a tu información. Es más, esos datos son 100% comercializables por parte de la empresa que los registra. Si la información es usada por tiendas o negocios para mejorar la experiencia del usuario no es mayor problema, pero también pueden emplearse con fines menos lícitos [3]. Nadie con acceso a internet está exento de que su información sea empleada con estos fines, por eso es fundamental contar con sistemas de seguridad en los móviles. ¿Cómo proteger los datos usando criptografía? Existen muchas formas de no ser víctima de robos cibernéticos de datos o información privada del móvil [13]:  Cifrando los mensajes: Antes de enviar un mensaje digital se debe verificar si la herramienta que se va a emplear cuenta con un método criptográfico dentro de sus funciones. Herramientas como WhatsApp o Telegram ya envían todos los mensajes de forma cifrada.  Leer las políticas de privacidad: El usuario está acostumbrado de aceptar estos términos sin antes leerlos. Es importante revisar los acuerdos antes de descargar la herramienta, considerando que pueden existir otras opciones que no solicitan tantos datos privados.  SOFTWARE criptográfico: Hay soluciones tecnológicas que podemos instalar en el móvil que cuenta con estas funciones de cifrado. Logran detectar intrusos, softwares maliciosos (SOFTWARE que se instala para tomar datos privados sin autorización) o cualquier elemento que atente contra la seguridad.  Conexiones seguras: al estar en la calle y encontrar una red pública libre es mejor no ingresar si no es confiable. Cuida la seguridad de tu conexión a Internet solo ingresando en lugares seguros. Por otro lado, la protección de los datos no es 100% responsabilidad de herramientas tecnológicas o de la criptografía. El usuario debe educarse en materia de seguridad y saber en qué está fallando. Es muy sencillo caer en trampas tecnológicas, incluso para personas con experiencia. Sin embargo, con un usuario educado, consiente y con ganas de proteger su información, es posible combatir estos problemas. [16] 9. CRIPTOGRAFIA COMO PARTE DE LA TRANSFORMACION DIGITAL EN LA SOCIEDAD CUBANA En este primer cuarto del siglo XXI se nota como la aplicación de nuevas tecnologías está revolucionando el mundo tal y como los se conoce, vislumbrándose aun cambios más radicales en el horizonte cercano. Se debe tener claro que estas transformaciones sociales son potencialmente beneficiosas para el conjunto de la sociedad, pero también pueden ser perjudiciales para algunos colectivos [9]. De hecho, la fractura o brecha digital entre personas puede ampliarse o reducirse en función de la aplicación de determinadas políticas públicas, o hacerlo en una u otra dirección. [2] Una de esas tecnologías que han propiciado la transformación radical indicada es la conocida como criptografía. Sin embargo, el conocimiento de que es y cómo funciona aun escaso si se mide por su popularidad. No solamente entre el gran público, sino también entre las elites. El problema de las nuevas tecnologías es que apenas se entiende la manera en que puede cambiar las vidas actuales de las personas. Ese desconocimiento, unido a la aparición de nuevos conceptos, genera inseguridad en las personas, lo que frena su avance [9]. Es lo que sucedió cuando apareció el internet en la última década del pasado siglo. Nadie entendía en qué consistía eso de navegar por las autopistas de la información. Solamente cuando se popularizo se vio el provecho que deparaba y es cuando se decidió utilizarla masivamente. [3] Existe una serie de complicaciones que impiden un desarrollo tranquilo y masivo. Entre otros, la extrema complejidad de la propia tecnología. La comprensión de la criptografía y la tecnología que le acompaña requiere un conocimiento técnico de alto nivel que no está al alcance de la mayoría de la población. Y ya es sabido que se desconfía de aquello que no se conoce. [5] De esta manera es necesario contar con capacitaciones tecnológicas de los ciudadanos para eliminar el desconocimiento de su utilidad y así puedan hacer uso de la criptografía con mayor seguridad, confianza y certidumbre. Teniendo en cuenta los beneficios que aporta ésta, una de las claves del éxito consiste en ampliar la difusión del mensaje, y de sus beneficios, en medios de comunicación con la finalidad de dar a conocer esta tecnología en un mayor número de lugares que la ofertan y en los sectores de la población más vulnerables a la tecnología. [2] Los aportes de la criptografía como herramienta para alcanzar un alto nivel de ciberseguridad deben ejercer un esfuerzo mayor sobre cómo realizar operaciones tratando de generar un acercamiento mayor a los ciudadanos. Influyendo en el cambio de su ideología en cuanto a la sospecha de ocurrencia de delitos y fraudes tecnológicos “implícitos” por el mero hecho del uso de medios digitales. 10. ENFOQUE DEL INSTITUTO DE CRIPTOGRAFIA EN LA TRANSFORMACIÓN DIGITAL Si bien en los últimos 30 años la criptografía ha ido perdiendo aquel papel preponderante que desempeñaba antaño, últimamente el interés por el estudio y la investigación en criptografía vuelve a resurgir con nuevos bríos, entre otras cosas por los interrogantes que nos plantean la seguridad real de las actuales operaciones de cifra ante los avances en computación cuántica, las cadenas de bloques (Blockchain), con las criptomonedas como ejemplo de aplicación real con gran impacto en la sociedad, la computación en la nube, el big data y la inteligencia artificial. La universidad juega un papel indiscutible en la preparación, formación y divulgación del conocimiento en todas las ramas de la ciencia y la tecnología [10]. Ante este reciente interés, una primera pregunta sería cómo hacer llegar estos conocimientos a los futuros ingenieros y expertos en seguridad. Y surge así una segunda pregunta lógica: ¿qué se hace en I+D+i en criptografía en Cuba? En noviembre de 2015 se conformó el Instituto de Criptografía (dirigido por el Dr. Luis Ramiro Piñeiro) en la Facultad de Matemática y Computación de la Universidad de La Habana. [16] El instituto está integrado por criptógrafos, matemáticos e informáticos dedicados a investigar en las potencialidades de la aplicación de la criptografía en diversos problemas que forman parte del proceso de transformación digital e informatización de la sociedad. Este instituto desarrolla un seminario dedicado al estudio, asimilación e investigación sobre esta novedosa tecnología. Hasta la fecha se han llevado a cabo numerosas charlas y presentaciones a diferentes empresas e instituciones para la divulgación de esta tecnología y motivar su aplicación que incluye las empresas del Grupo empresarial de la Informática y las Comunicaciones (GEIC), ETECSA, Infomed, Banco Central de Cuba, Sociedad de informática Jurídica de la Unión de Juristas de Cuba, Biocubafarma entre otras. [16] Se han impartido además Conferencias Magistrales en el Foro Empresarial de Informática 2018 (marzo 2018), COMPUMAT 2019 de la Sociedad Cubana de Matemática y Computación (junio 2019), en FELTI 2019 Foro de empresarios y líderes de tecnologías de la información (septiembre 2019), en el II Congreso de Cibersociedad de la Unión de Informáticos de Cuba (octubre 2019) (Universidad de La Habana, 2021). También se ha impartido conferencias en La Universidad Politécnica de Valencia, España, en la Universidad de Concepción, Chile y en la Universidad Panamericana de Guadalajara (UPG) en México. Con esta última se está a la firma de un Convenio Marco de Colaboración entre la UH y la UPG. [16] El instituto ha venido trabajando en el papel de la criptografía como tecnología que da soporte a las criptomonedas como Bitcoin y Ethereum. Esta última aplicación de la criptografía ha surgido con una fuerza mayor en la sociedad como parte de una transformación de pensamiento en el argot económico. Además, el instituto brinda cursos de postgrado y dirige una maestría encaminada a desarrollar habilidades en profesionales de las ramas relacionadas. Para aumentar la cultura sobre criptografía en empresas, industrias, organizaciones y poblaciones en general. 11. CONCLUSIONES La Criptografía es una de las disciplinas más relevantes dentro del campo de la seguridad de la información. A la hora de proteger los datos y la información que manejan las organizaciones, tanto física como digital, las técnicas criptográficas están ganando mucho peso en la actualidad. Por ello, todo profesional que aspire a ocupar puestos especializados en Ciberseguridad y Riesgos Digitales, debe saber qué es la criptografía y cuáles son sus principales aplicaciones. La Ciberseguridad en la actual coyuntura internacional, ha devenido condición ineludible para la estabilidad y la seguridad internacionales. La mayoría de los Estados han implementado estrategias para la protección del ciberespacio como parte de sus políticas nacionales de seguridad. Sin embargo, el carácter transfronterizo de las ciberamenazas y la creciente vinculación de las TIC a las infraestructuras esenciales de los Estados, ha motivado el establecimiento de medidas multidimensionales para erradicarlas, en especial desde una perspectiva global. Cuba, como país amenazado y agredido desde el ciberespacio, presta particular atención a la necesidad de enfrentar los nuevos desafíos de la ciberseguridad. Para ello, también considera importante la cooperación internacional en el tema y se apoya en sus relaciones con el mundo exterior. El binomio ciberseguridad- política exterior se basa en la necesidad del apoyo internacional, como complemento de los esfuerzos internos para contrarrestar las ciberamenazas que atentan contra la seguridad nacional y disminuir las vulnerabilidades existentes en este ámbito. Cualquier persona que se identifique y a la vez enfrente esos incidentes, aporta conocimientos reales de su cultura y educación, también propiciará a que los niños y jóvenes crezcan con una actitud responsable en el ciberespacio. La norma jurídica de rango superior no limitará la conexión a las tecnologías, ni pondrán especialistas cibernéticos en los hogares o en línea para velar a nadie. Hay personas que se involucran en esos temas por desconocimientos y es necesario consultar cada norma para incrementar la cultura en la utilización de las redes, se trata de buscar coherencia en un sistema que garantice una Cuba más culta hasta en el propio Ciberespacio. REFERENCIAS 1. Abarca, D. (24 de marzo de 2021). Cómo ayuda la criptografía en la ciberseguridad de las empresas. Obtenido de Seguridad América: https://www.seguridadamerica.com/como-ayuda-la- criptografia-en-la-ciberseguridad-de-las-empresas/ 2. Ávalos, M. (2018). Ciberseguridad en la sociedad de la posverdad. Acercándonos. 3. Bejerano, S. E. (4 de septiembre de 2021). La ciberseguridad, el ciberespacio, internet y las tecnologías de la información y las comunicaciones. (Cubadebate) Recuperado el 15 de diciembre de 2021, de http://www.cubadebate.cu/especiales/2021/09/04/la-ciberseguridad-el- ciberespacio-internet-y-las-tecnologias-de-la-informacion-y-las-comunicaciones/ 4. Bermúdez, M. D.-C. (2015). Cubadebate. Obtenido de http://cuba.campusvirtualsp.org/sites/cuba.campusvirtualsp/.org/files/diaz 5. Bule, J. G. (12 de Diciembre de 2017). La necesidad de una conciencia de ciberseguridad en la sociedad. (masscomm) Recuperado el 15 de Diciembre de 2021, de https://www.masscomm.es/blog/la-necesidad-de-una-conciencia-de-ciberseguridad-en-la- sociedad. 6. Congreso del PPC. (2012). Conceptualización del modelo económico y social cubano de desarrollo socialista. Plan nacional de desarrollo económico y social hasta 2030: Propuesta de visión de la nación, ejes y sectores estratégicos, (pág. 32) 7. EcuRed contributors. (14 de Diciembre de 2010). EcuRed. Obtenido de https://www.ecured.cu/EcuRed:Enciclopedia_cubana (2021) 8. Gaceta Oficial No. 92 Ordinaria. Gaceta Oficial de la República de Cuba. INCIBE. (23 de febrero de 2017). Criptografía para reforzar la ciberseguridad en entornos industriales. Obtenido de INCIBE: https://www.incibe-cert.es/blog/criptografia-reforzar-ciberseguridad-entornos- industriales. 9. Jover, J. N. (2003). La ciencia y la tecnología como procesos sociales. Lo que la educación científica no debería olvidar. La Habana: Editorial Varela. 10. Jover, J. N. (2011). La Universidad y sus compromisos con el conocimiento, la ciencia y la tecnología. 11. Montoya, H. V., & Hernandez, M. M. (2019). Ciberseguridad, Seguridad informática y de la información. (Instituto Tecnológico Metropolitano – ITM) Recuperado el 15 de diciembre de 2021, de http://sco2.org/ciberseguridad-seguridad-informatica-y-de-la-informacion/ 12. Órgano oficial del comité central del partido comunista de cuba. (22 de diciembre de 2022). Cuba actualiza marco jurídico sobre telecomunicaciones y tipifica incidentes de ciberseguridad. Granma. 13. Paz, C. Y. (23 de noviembre de 2021). Ciberseguridad: derechos y deberes en red. Obtenido de Cuba Hora: https://www.cubahora.cu/a-cuba-ponle-corazon 14. Radio Reloj-Emisora Cubana de noticias. (22 de Julio de 2021). Ciberseguridad: Las más potentes. Obtenido de https://www.radioreloj.cu/destacadas/las-mas-potentes-3/ 15. Travieso, Y. M. (2003). La Criptografía como elemento de la seguridad informática. ACIMED v.11 n.6. 16. UNESCO. (2015). Informe de la Unesco sobre la ciencia. Ediciones Unesco. Universidad de La Habana. (2021). Obtenido de https://matcom.uh.cu/instituto-de-criptografia/ 17. Urueña, A., & Hidalgo, A. (2017). Ciberseguridad en la sociedad digital. Madrid: Universidad Politécnica de Madrid. 18. Vázquez, E. (13 de junio de 2016). El rol de la Ciberseguridad en la sociedad. (IT) Recuperado el 15 de diciembre de 2021, de https://www.itsitio.com/ar/ciberseguridad-un-factor-fundamental- para-construir-sociedades-prosperas/ sobre los autores Se incluirá con una extensión no mayor de un párrafo, información sobre cada autor, donde sea declarada institución y labor que desempeña, categoría docente y categoría científica, membresía en organizaciones profesionales, etc. Autora: Maytée Odette López Catalá. MSc Sistema de Telecomunicaciones. Calle 45 No.3414 entre 34 y 41, Rpto. Kohly. Playa. Telf: +53 52182724. E-mail: maytee.catala@etecsa.cu. Se desempeña como Especialista A ene Sistema de Centro de Dirección en ETECSA. FUNDAMENTACIÓN DEL EMPLEO DE LA RED MÓVIL PARA LA DETECCIÓN DE DUCTOS TROPOSFÉRICOS Ana Julia Marine López, Lányer Pérez Garlobo, Yoandri Marín González, José Rafael Sandianes Gálvez, Jesús Ferreiro Brito, Alain León Ruiz, Alain Rodríguez Tacoronte. 1Ministerio de Comunicaciones,2,3 Instituto Técnico Militar “José Martí, La Habana, 4Universidad Tecnológica de La Habana, La Habana, 5,6UPTCER, La Habana, 7Dirección de Planeamiento ETECSA, La Habana 1e-mail:ana.marine@mincom.gob.cu 2e-mail: lanyer1978@gmail.com 3e-mail:yoandri.marin@uic.cu 4e-mail: sandianes@tele.cujae.edu.cu 5e-mail: jesus.ferreiro@uptcer.co.cu 6e-mail: nialanoel1986@gmail.com 7e-mail: alain.rodriguez@etecsa.cu RESUMEN Los sistemas de radiocomunicaciones están influenciados por condiciones de propagación refractivas anómalas, las cuales causan afectaciones a su disponibilidad. La regularidad de aparición de dichos fenómenos en nuestra área climática es bastante alta y su incidencia en la degradación de servicios de comunicaciones móviles es elevada. En el presente trabajo se fundamenta la posibilidad del empleo de los datos del indicador clave de desempeño de la red móvil RTWP (Receive Total Wide Band Power, por sus siglas en inglés), para la detección de anomalías del gradiente del índice de refracción de la tropósfera. El análisis se sustenta en un estudio estadístico de correlación entre los valores máximos diarios de nivel de interferencia de las estaciones base (RTWP), reportados por celdas de tecnología UMTS (Universal Mobile Telecommunications System) y los datos de ocurrencia de ductos procedentes de dos fuentes de datos climáticos. En el primer caso se emplean los reportes de la estación de sondeo de Key West y como segunda fuente se hace uso de los datos de reanálisis ERA5. De igual forma se correlacionan estos resultados con los reportes de detección de operadores externos compilados por el Centro Nacional de Control del Espectro. Los resultados de los análisis obtenidos son satisfactorios con lo que se demuestra que la red móvil es capaz de reflejar el fenómeno bajo investigación. PALABRAS CLAVES: servicio de radio, detección de ductos, disponibilidad, interferencia por ductos, correlación de eventos. FOUNDATION OF THE USE OF THE MOBILE NETWORK FOR TROPOSPHERIC DUCTING DETECTION ABSTRACT The radio communications systems are influenced for anomalous refractive conditions of propagation, which cause affectations to their availability. The regularity of appearing of the aforementioned phenomena in our climatic area is very high, as well as the incidence in the degradation of services of mobile communications. In the present work the possibility of detection of anomalies in the gradient of the refractive index of troposphere using RTWP (Receive Total Wide Band Power) data is founded. The analysis is based on a statistical study of correlation between the maximum daily level of RTWP, reported by cells of UMTS (Universal Mobile Telecommunications System) technology, and two sources of tropospheric ducts parameters. In the first case is used Key West's sounding station reports and in second place the data of re-analyses ERA5. In the same way these results are correlated with the reports of detection of external operators compiled by National Center of the Spectrum Control. The results are satisfactory and prove the capacity of the network to reflect the phenomenon under investigation. KEYWORDS: radio services, ducts detection, availability, ducting interference, events correlation. 1. INTRODUCCIÓN Los sistemas de radiocomunicaciones están afectados por condiciones de propagación anómalas presentes en la atmósfera las que causan afectaciones a la disponibilidad de los servicios. En esta categoría tenemos fenómenos tales como: los ductos troposféricos y la variante de superrefracción del gradiente del índice de refracción “n” de la tropósfera. Por efecto de estas anomalías, ocurre el efecto de guiado de las ondas, en el caso de los ductos, y una curvatura marcadas de los rayos en la segunda, dando lugar a que se extiendan los alcances mucho más allá de los límites planificados. Gracias a ello puede ocurrir interferencias no intencionadas en sistemas que comparten la misma banda de frecuencia. La regularidad de aparición de dichos fenómenos en nuestra área climática es bastante alta y su influencia en la degradación del servicio en sistemas de radioenlace de microondas y de radar, ha sido constatada regularmente. En la actualidad, debido al incremento de la informatización, de los servicios de telefonía móvil, de televisión digital, y de transmisión de datos y como, además, el número de usuarios ha aumentado considerablemente, se ha facilitado que las afectaciones a los sistemas de radiocomunicaciones, debido a anomalías y fenómenos atmosféricos, sean más frecuentes. Un ejemplo de esto fue la aparición de afectaciones por interferencias a los servicios de telefonía celular en una extensa área del territorio nacional, las cuales, se presume, fueron provocadas por ductos troposféricos, o por superrefracción, ocurridos durante los meses de marzo y abril del año 2021. Sin embargo, no todas las afectaciones de la red móvil pueden atribuirse a causas climáticas, pues existen otras causas que generan afectaciones dentro de la propia red. Por lo tanto, se necesita discernir si las interferencias constatadas pueden ser imputadas a señales procedentes de operadores externos y valorar, el grado de correlación entre el fenómeno y las afectaciones. Esto permitirá evaluar la capacidad de la red como instrumento de censado de la anomalía troposférica, lo cual constituye el objetivo primordial del presente trabajo. 2. FUNDAMENTO TEÓRICO Y CONTEXTUAL De acuerdo con el Reglamento de Radiocomunicaciones de la UIT, en su número 1.166, se define el término interferencia como: el “efecto de una energía no deseada debida a una o varias emisiones, radiaciones, inducciones o sus combinaciones sobre la recepción en un sistema de radiocomunicaciones (SRC), la que se manifiesta como degradación de la calidad, falseamiento o pérdida de la información que se podría obtener en ausencia de esta energía no deseada”. En el mismo reglamento se definen los tipos de interferencia de acuerdo con el nivel de afectación que provocan sobre los sistemas en: admisible, aceptable y perjudicial, y por su naturaleza espectral en: interferencia co-canal y de canal adyacente. Se refiere, en el primer caso, a la coincidencia total en banda entre la señal interferente y la deseada, mientras que en el otro se refiere a la superposición de solo una porción de la banda ocupada por ambas señales. Las interferencias pueden ser, además, intencionadas o no intencionadas. Dentro de esta última clasificación se comprenden las provocadas por fenómenos relativos al entorno de propagación. En la recomendación P-452-16 de la UIT [1] se describen, los mecanismos permanentes con afectación a largo plazo y los mecanismos (modos) a corto plazo, que en nuestro caso son los de mayor interés, porque se deben a comportamientos anómalos de propagación de la interferencia. A la vez en la recomendación se señala que la propagación por conductos y la reflexión en capas elevadas (superrefracción), son los fenómenos de propagación de corta duración más importantes que pueden causar interferencia sobre el agua o en zonas de tierras costeras planas. En el primer caso se pueden obtener niveles de señal elevados en distancias largas, superiores a 500 km sobre el mar, mientras que, en el segundo, hasta 250 y 300 km. Para el análisis del fenómeno que nos ocupa, las interferencias provocadas por emisiones no deseadas, resulta necesario realizar el estudio nos sólo sobre la base de los factores ambientales anómalos que propician la interferencia sino, además, considerar todos aquellos elementos vinculados a los sistemas en la dimensión energética y frecuencial. Propagación de la interferencia en presencia de ductos o superrefracción Es conocido que la tropósfera es un dieléctrico heterogéneo compuesto por una mezcla de aire seco y vapor acuoso. El índice de refracción en ella varía con la altura al variar los niveles de presión “P” en hectopascales (hPA), su temperatura “T” en Kelvin (K) y su humedad “H”, expresada comúnmente en unidades porcentuales. Resulta frecuente emplear, en lugar del índice de refracción “n”, el coíndice de refracción “N” (expresión del índice multiplicado por 106). Si se considera entonces una atmósfera con un gradiente vertical constante, la trayectoria del rayo parte del transmisor en dirección al receptor y su curvatura depende únicamente del gradiente de “N” (dN/dh) Según los valores del gradiente “dN/dh” [2], se clasifica la tropósfera en: 1. Subrrefractiva: dN/dh > -40 u/km 2. Estándar.o normal: dN/dh = -40 u/km 3. Superrefractiva: dN/dh < -40 u/km 4. Conductiva: dN/dh < -157 u/km. (Caso particular de superrefracción) Cuando el gradiente se hace más negativo y con valores de “dN/dh” menores que -40u/km, la tropósfera se define como superrefractiva, lo que favorece de forma marcada el aumento del alcance de la radiocomunicación. En esta misma condición, cuando el gradiente vertical del coíndice, a una altura determinada, decrece por debajo de -157 u/km (umbral critico) y en dependencia de la frecuencia utilizada y del ángulo de ingreso del rayo en la atmósfera, puede ocurrir el denominado fenómeno de ducto o conducto troposférico. En la Fig. 1 se aprecia la influencia de los mencionados efectos sobre la trayectoria de los rayos, para tres casos representativos del gradiente de N. También se expresan en función del denominado “coíndice modificado” “M”; “M” y “N” se relacionan por: M = N+157. Figura 1: Curvatura de los rayos para distintos valores de gradiente de coíndice de refracción [3]. En un ducto troposférico la onda queda atrapada en una especie de guía natural (que se asemeja a un guia de onda dieléctrica) entre la superficie terrestre y la capa en la que se excede el umbral crítico mencionado anteriormente, o entre dos capas con igual condición. Debido a esto, la onda se propaga a saltos dentro de la guía, con alcances de comunicación que pueden llegar a cientos de kilómetros. Los ductos troposféricos pueden ocasionar desvanecimientos profundos lentos, o un gran mejoramiento de la señal. En enlaces terrenales de visibilidad directa pueden provocar el denominado desvanecimiento por trayectos múltiples. Tanto, los ductos como los efectos de superrefracción pueden causar interferencias considerables en los trayectos más allá del horizonte [2,4]. En nuestro territorio estos fenómenos resultan comunes durante el verano y los meses de otoño, como resultado del cambio brusco en el límite entre masas de aire de diferentes temperatura y humedad (inversión del gradiente de temperatura y/o humedad). La aparición de ductos puede ser detectada principalmente a partir de mediciones de globos sonda. En [5] se ha realizado un estudio a largo plazo de este fenómeno en Cuba, a partir de datos de las estaciones de sondeo de Cienfuegos, Camagüey y La Habana. En [6,7] se ha estudiado su presencia para cinco años sobre el mar a partir de una estación de sondeo en Cayo Hueso en los que se ratifica su presencia en un porciento elevados de días en las cercanías de nuestra costa norte en especial en meses de verano. Figura 2: Modelos de ductos troposféricos y parámetros asociados [4] 3. INTERFERENCIA POR DUCTOS EN SISTEMAS MÓVILES CELULARES. En toda red móvil hay interferencia. El reúso de frecuencias unitario usado en redes UMTS/LTE/5G implica que múltiples celdas y móviles transmiten sobre el mismo ancho de banda, ocasionando “interferencia interna”. El sistema se diseña para tolerar y manejar la misma, y sólo cuando tenemos escenarios severos (muy alto tráfico, solapamiento de celdas o polución de pilotos) se observa una degradación significativa en la experiencia del usuario. El escenario cambia cuando la fuente de interferencia no proviene de la misma red móvil o usuarios, sino que es de origen externo. La interferencia externa puede afectar cualquier porción de espectro, pero en redes celulares con esquemas dúplex del tipo FDD (Frequency Division Duplex, por sus siglas en inglés), sus efectos suelen ser más trascendentes en el enlace de subida (uplink). Esto se debe a las limitaciones inherentes a este enlace porque la potencia de transmisión máxima típica de un móvil es de 24dBm. Aun cuando las estaciones radio base cuentan con receptores de alta sensibilidad, la presencia de señales interferentes impacta la capacidad de la estación para decodificar las transmisiones de los usuarios. Como se aprecia en la Fig. 3, existe un segmento del espectro del enlace bajada (downlink) de la estación base interferidora (ENB2 en la figura), que se superpone con una porción del espectro del uplink de la estación local que brinda servicio (ENB1 en la figura), lo que causa la interferencia. Figura 3: Escenario de ocurrencia de interferencia externa en una red móvil celular [8]. Existen indicadores claves de desempeño de la red celular, conocidos por KPI's, por sus siglas en inglés [9], algunos de los cuales son capaces de reflejar la existencia de dicha interferencia en la red. Estos parámetros son medidos a partir del nivel de acceso de la red hasta el núcleo (core). Existen indicadores característicos para cada tecnología. Para el caso de GSM (Global System for Mobile, por sus siglas en inglés) es común emplear la denominada interferencia de nivel 4 y 5%, mientras que en el caso de UMTS (Universal Mobile Telecommunications System, por sus siglas en inglés) se emplea el denominado RTWP [10]. 4. FUENTES DE DATOS YMÉTODO DE ANÁLISIS. Para el estudio resulta necesario contar con las fuentes de datos que reflejen el fenómeno de la propagación, datos de KPI´s de la red móvil y un procesamiento estadístico que permita validar la correlación entre ambas manifestaciones. De igual forma resulta necesario contar con un instrumento de contrastación a partir de la identificación de señales de operadores externos. Datos de KPI´s de la red móvil celular. Primero es necesario especificar que tipo de KPI's son los requeridos. El núcleo de la red móvil celular compila las estadísticas de los KPI's y se brinda la información en valores máximos y medios en una página para usuarios y especialistas de ETECSA con acceso a su red corporativa. La página brinda la información tabulada a partir de consultas y es, además, perfilada en mapas con representación de sectores y celdas. Esta información se almacena a largo plazo en valores medios y máximos diarios con una retención de solo un año. Sin embargo, de acuerdo con [9], los KPI’s con mayor reflejo de las interferencias son: la RTWP para UMTS y la Interferencia de nivel 4 y 5, en GSM. En aras de homogenizar el procesamiento, y como el fenómeno afecta indistintamente a ambas tecnologías, se decide emplear solo el indicador RTWP máximo y no el promedio diario. La elección se fundamenta en que el valor promedio diario, enmascara a los eventos de duración diaria relativamente corta. La Fig 4. muestra una serie temporal de RTWP máxima de una de las celdas escogidas en el estudio, en la que se aprecian picos de interferencia respecto un valor de piso de interferencia relativamente constante. Figura 4: Ejemplo de serie temporal de RTWP máxima correspondiente a los meses de marzo, abril y mayo del año 2022. Se eligen, a la vez las estaciones localizadas en la zona costera norte debido a que nuestro objetivo está enfocado a la detección de interferencias de redes celulares que arriban a nuestro país procedentes de esa dirección; los sectores de estas estaciones deben tener su orientación cercanos al azimut cero grados. Compilación de las estadísticas de detección de señales de operadores externos mediante el análisis técnico de la señal 3GPP Con el objetivo de determinar las fuentes de interferencia externa a la red, es empleado un sistema de censado ubicado en la costa norte de la Habana. Este servirá, además, como instrumento de monitoreo y control de la interferencia que permitirá validar, en esta etapa, eventos detectados por la red. La detección de señales de operadores externos lleva el proceso de identificación de las características técnicas de la señal y la decodificación de los parámetros presentes en su trama. Estos parámetros se rigen por el estándar de comunicaciones móviles 3GPP (3rd Generation Partnership Project, por sus siglas en inglés) establecido por la UIT [11]. Mediante el empleo de sistemas receptores SDR (Software Defined Radio, por sus siglas en inglés) de banda ancha y con el uso de software libres que permiten la decodificación del estándar 3GPP para las tecnologías UMTS y GSM, es posible el monitoreo y la recolección de datos. Entre los datos podemos encontrar: los códigos de operador, MCC, MNC, LAC, CID, la frecuencia, los niveles de señal y otros. A partir de estos datos puede determinarse la localización de la estación base detectada para lo cual se hace uso de bases de datos internacionales públicas. En [12] se compilan los datos de detección de operadores externos y en la Fig. 5 se muestra la ubicación de las estaciones base interferidoras detectadas y las trayectorias de propagación hacia el sensor, ubicado en el territorio nacional. Como puede apreciarse la mayor concentración de estaciones se localizan en Key West, a distancias de 165 y 180 km, pero existen reportes que reflejan estaciones mucho más distantes ubicadas en Tampa, a una distancia de hasta 485 km. Figura 5: Localización de interferidores y trayectorias hasta el sensor. Debido a la resolución temporal de la información primaria a correlacionar y reportada por la red celular, resulta necesario integrar la misma en ese mismo intervalo. Para esto se toma un único valor por día, en este caso el máximo, presente en el reporte de detección. A esta limitante se le agrega el hecho de que en este momento los procesos no están automatizados en su conjunto y se requieren el monitoreo por parte de un operador. La tabla 1 muestra los datos compilados. Tabla 1: Evento máximo obtenido cada día por reporte Año Mes Día Nivel(dBu) 2022 3 11 29 2022 3 19 13 2022 3 23 23 2022 4 5 29 2022 4 19 16 2022 4 29 22 2022 5 5 29 2022 5 6 17 Como puede apreciarse, la serie con que se cuenta es corta, pero debe corresponderse con el resto de los datos de análisis si la causa de origen es común. Compilación de la data de ocurrencia de ductos y sus parámetros a partir de sondeos aerológicos y datos de reanálisis de ERA5. Para lograr establecer la correspondencia de los eventos medidos por los sensores descritos previamente, con las apariciones de anomalías troposféricas por ducto, se debe emplear una fuente de datos de sondeo aerológico representativa de la región de análisis [2]. Una de las bases de datos de sondeo mundialmente empleada es la que se brinda en el sitio web de la universidad de Wyoming [13]. En esta estación base se reportan datos 2 veces al día, a las 00z y 12z, respectivamente, con perfiles verticales de variables climáticas. En la Fig. 6 se representa la ubicación de las estaciones de sondeo en el área del Caribe. Figura 6: Localización de estaciones de sondeo en el área del Caribe [13]. Como se puede apreciar, la estación más cercana al centro de la trayectoria probable de propagación es la estación aerológica de Cayo Hueso en Estados Unidos cuyo código es 7812 e indicativo EYW. Con los valores por niveles de la: temperatura, presión y humedad relativa se calcula el perfil vertical del coíndice de refracción N. Este perfil se procesa en una herramienta de software [5] desarrollada al efecto con la cual se detecta la aparición de los eventos de ductos y se determina sus parámetros. En la tabla 2 se muestra, parcialmente, los datos compilados de eventos de ductos para las 00z (7PM en hora local), pues este es el horario donde se reportan las mayores incidencias por el Centro Nacional de Control de Espectro [12] Tabla 2: Compilación de los eventos de ductos obtenidos de los sondeos de Key West (Marzo y Abril) Año Mes Día Alt. base Alt .capa Alt. tope Espesor Intensidad 22 2 28 401.01 443.00 551.00 149.99 5.84 22 3 8 260.57 399.00 572.00 311.43 17.75 22 3 9 162.21 260.00 422.00 259.79 13.31 22 3 11 0.00 0.00 106.00 106.00 7.94 22 3 16 22.74 145.00 243.00 220.26 16.37 22 3 18 149.36 454.00 609.00 459.64 33.88 22 3 19 0.00 141.00 247.00 247.00 10.79 22 3 23 25.81 200.00 379.00 353.19 11.38 22 3 27 503.88 564.00 682.00 178.12 8.02 22 3 28 132.27 217.00 261.00 128.73 8.51 22 4 2 0.00 184.00 283.00 283.00 26.06 22 4 4 39.09 160.00 241.00 201.91 11.47 22 4 5 130.29 205.00 260.00 129.71 8.56 22 4 15 330.51 449.00 505.00 174.49 9.09 La Tabla 2 ha sido depurada al eliminar de ella ductos poco intensos, o elevados a alturas que no permiten la recepción de señales en tierra por efecto de guiado (más de 500m). Como una segunda fuente de datos de ductos pueden emplearse los del sistema de análisis ERA-5. El mismo proporciona estimaciones globales, cada una hora, de las variables atmosféricas, con una resolución: horizontal de 31 km y de 137 niveles verticales híbridos desde la superficie hasta 0,01 hPa. ERA5 ha sido creado utilizando el método de asimilación de datos 4DVar [14], en el Sistema de Pronóstico Integrado (IFS por sus siglas en inglés), del Centro Europeo para Predicción a Plazo Medio (ECMWF por sus siglas en inglés). En la actualidad están disponibles datos desde 1979 hasta el presente, aunque, próximamente, el ERA5 será extendido y disponible desde 1950. Estos resultados brindan una amplia información del estado de la atmósfera y de variables en superficie, y fueron logrados utilizando una amplia variedad de observaciones meteorológicas. ERA5 dispone de actualizaciones diarias con, aproximadamente, 5 días después del tiempo real; las actualizaciones medias mensuales están disponibles, aproximadamente, 5 días después del final del mes. Dentro de las variables reportadas se encuentran: el gradiente mínimo de índice de refracción en la capa de ducto (dndzn); el gradiente medio dentro de la capa de ducto (dndza); la altura de la base del ducto (dctb); la altura de la capa de ducto (tplb) y la altura del tope del ducto (tplt). Los datos se solicitan al sitio web al elegir la región y las variables de interés, En nuestro caso se ha seleccionado una pequeña zona ubicada en el estrecho de La Florida y se han obtenido los ficheros correspondientes en formato NETCDF, que han sido procesados en un script de Python de modo que se puedan obtener las series temporales de las variables previamente mencionadas a partir de una interpolación bilineal en un punto representativo del área. Este punto se asume como centro de las trayectorias de radiopropagación y está ubicado en las coordenadas -81.75 W; 23.75 N. Estos datos se muestran en la Tabla 3 y fueron depurados hasta los 500 m. Tabla 3: Parámetros de ductos obtenidos a partir de datos de ERA5 (solo se muestra el mes de marzo) Fecha dndzn dndza dctb tplb tplt 20220308 -0.380 -0.382 162 183 225 20220309 0.033 0.001 138 199 278 20220310 0.149 0.116 140 212 290 20220311 0.388 0.320 109 245 336 20220312 -0.073 -0.115 103 183 267 20220316 -0.107 -0.118 205 244 307 20220317 -0.221 -0.236 135 177 235 20220318 0.420 0.335 142 334 468 20220319 0.400 0.317 174 346 469 20220320 0.248 0.218 366 463 574 20220323 -0.032 -0.045 249 298 376 En la Fig. 5 se representa la ubicación de las fuentes de datos empleadas en el estudio: estación de sondeo de Key West y el punto referencia del estrecho de La Florida para los datos del ERA5. Correlación estadística de datos de series temporales de RTWP y de eventos de ductos Para el análisis se cuenta con 4 variables compiladas a partir de fuentes de diferentes naturalezas y continuidad temporal. La variable ( ), se puede definir como una serie temporal compuesta por: muestras diarias , de la aparición de ductos, y de señales interferentes que por su naturaleza temporal aperiódica se clasifican como eventos y que se designan como: respectivamente. La definición de estas variables se explica a continuación. Para el caso de los datos de ERA5, la variable a emplear será el gradiente mínimo del índice de refracción en la capa (dzdzn), evaluado en el instante k, o sea: pues este parámetro resulta el que más relación presenta con la intensidad del ducto (variable que no es reportada por ERA5). Con el objetivo de poder evaluar la posible relación entre los eventos de ductos, las señales registradas por la red celular y las mediciones del sistema de control técnico, resulta necesario obtener un indicador estadístico del nivel de correlación entre ellas. Uno de los métodos más extendidos para el análisis de correlación de datos es el coeficiente de correlación de Pearson [15]. Sin embargo, este se aplica a series temporales de igual longitud. Para correlacionar series temporales con eventos se pueden convertir los eventos distribuidos en series temporales de acuerdo con [15] por medio de: (1) donde: es el iésimo instante de tiempo de la serie considerada, y es el késimo instante de tiempo del evento Bajo este enfoque la nueva serie tiene las mismas dimensiones de la serie . Se puede, entonces, definir las series para la correlación por: ; ; ; , todas ellas referidas al iésimo instante de tiempo de la serie temporal . Como se puede apreciar se tiene una serie realmente temporal y tres variables dicotómicas modificada siguiendo (1). Este es un caso especial del coeficiente de correlación de Pearson denominado: Coeficiente de correlación biserial puntual (CCBP), el cual puede determinarse según [16] como: (2) donde: x: Variable de carácter dicotómica natural o genuina. y: Variable de carácter continua. : Media de la muestra de respuestas del primer grupo (unos). : Media de la muestra de respuestas del segundo grupo (ceros). : Media de los puntajes en la variable “y”. σy: Desviación estándar de los puntajes totales perteneciente a la muestra con los valores de la variable continua “y”. p: Magnitud parcial de la proporción de casos/respuestas del primer grupo. q: Magnitud parcial de la proporción de casos/respuestas del segundo grupo. Una de las premisas que se le exige a la serie temporal es su comportamiento estacionario, por lo que resulta necesario realizar una prueba de estacionaridad a las series, antes del cálculo de la correlación. Una de las pruebas mayormente aceptadas a este efecto es la denominada prueba de KPSS [16], en la cual se evalúa la hipótesis nula de que una serie univariada tiene tendencia estacionaria, contra la hipótesis alternativa de que es un proceso no estacionario de raíz unitaria. Si se emplea como asistente matemático el MATLAB [17], la función: h= kpsstest(y) retornará el valor lógico (h) con un nivel de decisión del rechazo de la prueba de: Kwiatkowski, Phillips, Schmidt, and Shin, denominada por eso (KPSS). La misma se emplea con el objetivo de probar la existencia de una raíz unitaria en la serie univariada “y”, y en la misma se definen como hipótesis HO que la serie se considera estacionaria y H1 como no estacionaria, lo que implica la existencia de raiz unitaria [17]. En la tabla 4 se muestran los resultados de la aplicación de la prueba KPSS a las series bajo estudio. Tabla 4: Prueba KPSS a las series temporal de RTWP máxima de las celdas bajo análisis [15] CELDA Prueba de KPSS (h) P-valor CELDA Prueba de KPSS (h) P-valor HHE2711 VERDADERO 0.010 HHE2091 FALSO 0.100 HHE2715 FALSO 0.100 HHE2095 FALSO 0.088 HHE271I FALSO 0.100 HHE209I FALSO 0.095 HHE2183 FALSO 0.100 HHE2281 VERDADERO 0.010 HHE2187 FALSO 0.100 HHE2285 FALSO 0.100 HHE218K FALSO 0.100 HHE228I FALSO 0.100 HHE2563 FALSO 0.100 HHE2101 FALSO 0.100 HHE2567 FALSO 0.100 HHE2105 FALSO 0.100 HHE256K FALSO 0.100 HHE210I FALSO 0.100 Las celdas con resultado “FALSO”, son fallo de rechazo de la hipótesis nula, por lo que son series que pueden considerarse como probablemente estacionarias, sin raíz unitaria, con un 95% de confidencia. Los p-valores, en este ejemplo, son mayores o iguales que 0.1. El análisis nos permite desechar aquellas celdas de series que no cumplen con el test. En este caso se opta por un cumplimiento más riguroso al aceptar solo valores de: p >=0.1, series no sombreadas. 5. RESULTADOS DE LOS CÁLCULOS DE CORRELACIÓN Y SU ANÁLISIS A continuación, se muestran los resultados del análisis de correlación y de simultaneidad entre los eventos indicados en el punto anterior. Análisis de la correlación entre las interferencias en la red local y la presencia de ductos El coeficiente de correlación biserial puntual (CCBP) se calcula entre la serie y la serie dicotómica tomada del sondeo de Key West en el mismo período de tiempo. En la Tabla 5 se muestran los resultados obtenidos. Tabla 5: CCBP entre las series y CELDA CCBP CELDA CCBP HHE2715 0.48 HHE256K 0.37 HHE271I 0.51 HHE2091 0.36 HHE2183 0.43 HHE2285 0.06 HHE2187 0.39 HHE228I 0.29 HHE218K 0.42 HHE2101 0.40 HHE2563 0.37 HHE2105 0.35 HHE2567 0.35 HHE210I 0.39 De la tabla 5 se aprecia una correlación positiva débil, pues en ningún caso se supera el 50%, lo que impide demostrar estadísticamente la existencia de una relación entre la interferencia recibida y la manifestación del fenómeno del ducto. La causa de esta discrepancia puede ser explicada por la distribución espacial de las condiciones de ductos y la posición del punto de sondeo empleado. Un análisis seriado de mapas de eventos anómalos en el área del Caribe demuestra que, si bien los datos de esta estación reflejan, a nivel general, la simultaneidad del fenómeno, no describen el comportamiento del perfil vertical de índice de refracción en el trayecto de propagación. La Fig. 7 muestra un caso en el que existen fuertes condiciones de ductos en el estrecho de la Florida, los cuales produjeron reportes de interferencia por el Centro Nacional de Control de Espectro. Sin embargo, no existen reportes de ducto en el sondeo de Key West, por estar este punto bajo condiciones climáticas de inestabilidad atmosférica (ver Tabla 2). Figura 7: Condiciones de propagación anómalas día 29 de abril, 20:00 horas. Los tonos rojos equivalen a valores de anomalías más intensas [16]. Estación de sondeo Key West sin condición de ducto Fuerte condición de ducto en el estrecho de La Florida Un análisis del gradiente vertical de N en puntos de confluencia de las trayectorias de propagación (ver Fig. 5), puede reflejar, de una forma más marcada, el fenómeno bajo análisis. Al seguir esta línea de pensamiento se calcula el coeficiente de correlación biserial puntual entre la serie y la serie dicotómica . Tabla 6: CCBP entre las series y CELDA CCBP CELDA CCBP HHE2715 0.83 HHE2563 0.87 HHE271I 0.73 HHE2567 0.87 HHE2183 0.79 HHE256K 0.87 HHE2187 0.85 HHE2091 0.85 HHE218K 0.83 HHE2285 0.17 HHE228I 0.57 HHE2105 0.83 HHE2101 0.80 HHE210I 0.85 Los resultados obtenidos se aprecian en la Tabla 6. De la misma se observa una elevada correlación entre la casi totalidad de las series con los eventos de anomalía que reporta el ERA5, lo que demuestra la estrecha relación que existe entre los niveles de interferencia presentes en la red y los eventos de ductos. Este resultado permite afirmar que la red móvil constituye un valioso instrumento de censado de eventos de anomalías por ductos troposféricos. Resulta interesante advertir que la serie perteneciente a la celda HHE2285 de la Tabla 6 presenta una baja correlación a diferencia del resto, esto se debe a que dicha serie presenta valores de interferencia elevados durante todo el periodo de análisis que le impiden reflejar la presencia del evento. Simultaneidad entre las interferencias en la red local, la detección de señales interferentes de operadores externos y las condiciones climáticas de ductos. El análisis de simultaneidad se realiza a partir de graficar en un eje común la serie temporal RTWP máxima, los eventos de ductos obtenidos de la serie ERA y las detecciones 3GPP. Los eventos de ductos se grafican a partir de los datos de la serie , para los instantes en que la misma toma el valor 1. De la misma forma se representan los eventos 3GPP a partir de la serie . Se agrega, además, el gráfico de la variable temporal dndzn, la cual constituye la fuente a partir de la cual se genera la serie . El objetivo de este gráfico es demostrar la correspondencia temporal entre los eventos de interferencia reportados por la red móvil y el valor del gradiente mínimo dentro de la capa del ducto. El valor de -85dB se corresponde con elevados valores de interferencia en la red. En la Fig. 8 se muestra, a modo de ejemplo, este análisis para la celda HHE2715. Un comportamiento muy similar se manifiesta en el resto de las series procesadas. Obsérvese la coincidencia temporal entre los picos de interferencia y los valores mínimos de la variable dndzn, lo que permite reafirmar la hipótesis de la posibilidad de empleo de la red estaciones base de telefonía móvil, como sensor remoto para la detección de ductos troposféricos. El empleo de datos de la red móvil celular como sensores indirectos de este tipo de eventos permite a su vez predecir el desempeño de los sistemas de radiocomunicaciones y de radar bajo el efecto de este tipo de fenómenos. Figura 8: Gráfico de simultaneidad para la celda HHE2715. CONCLUSIONES El procedimiento instrumentado a partir de la transformación y correlación estadística de eventos procedentes de diversas fuentes, ha permitido cumplir los objetivos propuestos en el trabajo y constituye, a nuestro entender, un aporte novedoso a la identificación de los orígenes de las interferencias externas a nuestros sistemas de radio. Sobre la base del análisis de los resultados obtenidos, queda demostrado que la red móvil celular refleja ,en el KPI RTWP máximo, la ocurrencia de interferencias por anomalías del gradiente del índice de refracción de la tropósfera. La baja correlación de las series temporales de RTWP con los datos de sondeo de Key West, demuestran que esta fuente, no siempre refleja el comportamiento del perfil vertical de índice de refracción en el trayecto de propagación, por lo que su empleo en simulaciones u otro tipo de análisis debe tratarse con cautela. Desde el punto de vista práctico, el presente trabajo permite identificar las estaciones y celdas que se emplearan como sensores de un futuro sistema de detección en tiempo real de interferencia por ductos. Este sistema permitirá aislar los eventos de interferencia propios de la red móvil, de aquellos provenientes de operadores externos. RECONOCIMIENTOS Los autores desean agradecer al licenciado en meteorología Adrián Luis Ferrer Hernández del Departamento de Física de la Atmósfera del INSMET por el procesamiento de los datos de ERA5 y al especialista de ETECSA Ing. Onelio Michel Delgado Domínguez por su aporte en la obtención de los datos relativos a los KPI´s de la red móvil. REFERENCIAS 1. UIT Publicacioneas electrónicas, Prediction procedure for the evaluation of interference between stations on the surface of the Earth at frequencies above about 0.1 GHz, Recomendación P 452-2, Génova, (02/2016). 2. HERNANDO RABANOS, José M. “Transmisión por Radio”. Sexta Edición, Edit.Centro de Estudio Ramón Areces S. A, marzo 2008, ISBN-13:978-84-8004- 856-9. 3. Propagation effects on radar systems [ref. de 10 de abril del 2021]. Disponible en http://www.aticourses.com/propogation_effects_radar.htm. 4. UIT Publicacioneas electrónicas, The radio refractive index: its formula and refractivity data Recomendación P453-12. Ginebra, 2016 5. PÉREZ GARLOBO, Lányer. “Caracterización de los Parámetros Radiometeorológicos de la Tropósfera en Cuba”, Tesis presentada en opción al Grado Científico de Doctor en CienciasTécnicas, La Habana, Instituto Tecnico Militar “José Martí”, La Habana, 2009. 6. LÓPEZ, Ana Paula. “Caracterización y Estadística de la Refractividad, del Radio Ficticio y los Ductos Elevados en la Tropósfera en el Estrecho de La Florida”, Tesis de grado, Universidad Tecnológica de La Habana, 2021. 7. MOREJÓN, Melissa. “Caracterización y Estadística de la Refractividad, del Radio Ficticio y los Ductos Superficiales en la Tropósfera en el Estrecho de La Florida”, Tesis de grado, Universidad Tecnológica de La Habana, 2021.2 8. ZHU, Huaisong; LI, Peng. “Method and device for identifying source of interference propagated via atmospheric duct”, Patent, H04W24/00 (2009.01), WO 2016/192590 Al, China, Dec. 2016. 9. RODRÍGUEZ, Juan Pablo; PEÑA BELALCÁZAR, Francisco. “ Detección de Fallas que Afectan el Desempeño de la Red Móvil en la Zona de la 93 Mediante el Análisis de KPI”, Universidad Nacional de Colombia, Bogotá, Colombia, 2001 10. JAMES, David,s; MENOM, Reka; YUN, Jungnam; GORMLEY, Eamonn. “Detecting tropospheric ducting interference in cellular networks, US patent, US2020/0336228 A1, October, 2020. 11. UIT Publicacioneas electrónicas, Recomendación UIT-R M.1224-1, Ginebra, (03/2012). 12. LEÓN RUIZ, Alain; FERREIRO BRITO, Jesús. Compilación de estadísticas de alcances aumentados e interferencias por ductos troposféricos en señales de TV, telefonía móvil y otros servicios de radiocomunicaciones, Reporte de investigación, Proyecto PS161LH 002-001: “Sistema para la predicción y alerta de interrupción a las comunicaciones por anomalías en las condiciones de propagación”, La Habana, junio 2022. 13. Atmospheric sounding data, Sitio Web de la Universidad de Wyoming, [ref. de 14 de julio del 2022] Disponible en https://weather.uwyo.edu/upperair/sounding.html, 14. HERSBACH, Hans; BELL, Bill; BERRISFORD, HIRAHARA, Shoji: “The ERA5 global reanalysis”, Q J R Meteorol, Soc.;146:1999–2049, julio 2020, DOI: 0.1002/qj.3803. 15. LUO_JILIN, Chen; LOU, Jian-Guang; LIN, Oingwei; FU, Qiang; Ding, Rui; ZHANG, Dongmei; WANG, Zhe. “Correlating Events with Time Series for Incident Diagnosis”, New York, Agosto 2014, USA, doi.org/10.1145/2623330.2623374. 16. LEÓN, José; CALZADILLA, Samuel; CASTRO, Romy; CHOUHEBAR, María; SOMOZA, Edgar; VELÁSQUEZ, Hilmar. “Coeficiente de Correlación Biserial Puntual”, Universidad Central de Venezuela, junio 2018. 17. MATLAB version R2018a, Documentación. 18. KWIATKOWSKI, D.; P. C. B., Phillips; Schmidt, P.; and Y. Shin. “Testing the Null Hypothesis of Stationarity against the Alternative of a Unit Root.”, Journal of Econometrics. Vol. 54, 1992, pp. 159–178. 19. Tropospheric ducting forecast maps [ref. de 14 de julio del 2022]. Disponible en: https://www.dxinfocentre.com. 20. LIU, Fangfang; PAN, Jiaxi, ZHOU, Xiangwei; YE LI, Geoffrey,“Atmospheric Ducting Effect in Wireless Communications: Challenges and Opportunities”, Journal of Communications and Information Networks, Vol.6, No.2, Jun. 2021. SOBRE LOS AUTORES Ana Julia Marine López: Graduada de Ingeniera en Telecomunicaciones en la CUJAE en 1988. Master en Sistemas de Telecomunicaciones en 2010. Vice Ministra de Comunicaciones. Participa en el proyecto sectorial “Sistema para la predicción y alerta de interrupción a las comunicaciones por anomalías en las condiciones de propagación”. Lányer Pérez Garlobo: Graduado como Ingeniero Radioelectrónico en Comunicaciones en el año 2002, y de Doctor en Ciencias Técnicas en el Instituto Técnico Militar “José Martí (ITM) en el 2010. Profesor Titular desde el 2016 y Profesor e Investigador del ITM, Miembro de su Consejo Científico y de la Comisión de Grados Científicos. Se desenvuelve en el campo de la Electrodinámica y la Propagación de las Ondas de Radio y de forma particular en el desarrollo de herramientas de software para empleo en esta rama. Ha presentado trabajos en eventos nacionales e internacionales. Ha obtenido premios a nivel nacional por resultados de investigaciones aplicadas a la rama de la radiopropagación. Dirige la línea de radiopropagación y comunicaciones inalámbricas en el ITM. Actualmente dirige el proyecto sectorial “Sistema para la predicción y alerta de interrupción a las comunicaciones por anomalías en las condiciones de propagación”. Yoandri Marín González: Graduado de Ingeniero Informático en el Instituto Técnico Militar “José Martí (ITM) en el 2004. Alcanzó el grado científico de doctor en ciencias técnicas en el año 2010. Profesor Titular desde el 2016 y Profesor e Investigador del ITM. Pertenece a la comisión de grados científicos del ITM, comité de doctorado de electrociencias aplicadas, comité académico de la especialidad de ingeniería informática. Se desenvuelve en la rama de la Inteligencia Artificial y automatización de procesos. Ha presentado trabajos en eventos nacionales e internacionales. Ha obtenido premios a nivel nacional por resultados de investigaciones aplicadas a la rama de la radiopropagación. Fue joven asociado a la Academia de Ciencias de Cuba. José R. Sandianes Gálvez: Graduado de Ingeniero Eléctrico en la Universidad de La Habana en 1969 y de Doctor en Ciencias Técnicas en el Instituto Técnico Militar “José Martí” (ITM) en 1985. Profesor Titular en el ITM desde 1982 y hasta hoy en la Universidad Tecnológica de La Habana (UTH). Se desenvuelve en el campo de la Electrodinámica, la Propagación de las Ondas de Radio y las Antenas. Ha contribuido con diferentes trabajos en proyectos y análisis en estas ramas, en diferentes instituciones ramales y nacionales del país. Ha sido miembro de: los Consejos Científicos del ITM y del MINFAR en diferentes períodos y de la Comisión de Grados Científicos y los Tribunales de Categorías Docente Principales en el ITM. En el año 2000 se le confirió la “Distinción Especial del Ministro de Educación Superior a los Profesores Destacados en las Investigaciones Científicas”. Ha participado y expuesto trabajos en varios eventos nacionales e internacionales como: Fórums de Ciencia y Técnica Nacionales y Ramales, donde ha obtenido diversos premios; Informática 2005 y varias ediciones de CITTEL. Obtuvo el Premio Anual de la Academia de Ciencias de Cuba en 1999. Jesús Ferreiro Brito: Graduado de Técnico medio en electrónica en 1990. Especialista del Centro Nacional de Control de Espectro. Participa en el proyecto sectorial “Sistema para la predicción y alerta de interrupción a las comunicaciones por anomalías en las condiciones de propagación”. Alain León Ruiz: Graduado de ingeniero en Telecomunicaciones en el 2011. Especialista del Centro Nacional de Control de Espectro. Participa en el proyecto sectorial “Sistema para la predicción y alerta de interrupción a las comunicaciones por anomalías en las condiciones de propagación”. Alain Rodríguez Tacoronte: Ingeniero en Telecomunicaciones y Electrónica, en la CUJAE, 2004. Máster en Telemática, 2008. Profesor instructor, especialista en planeamiento de redes móviles celulares de ETECSA. Participa en el proyecto sectorial “Sistema para la predicción y alerta de interrupción a las comunicaciones por anomalías en las condiciones de propagación”. PROCEDIMIENTO PARA EL CONFORMADO DEL PATRÓN DE RADIACIÓN DE ANTENAS CILINDRO – PARABÓLICAS PARA LA EXPLORACIÓN DE LA SUPERFICIE DEL MAR. Pedro Arzola Morris1, Daryl Ortega González2 1Facultad Telecomunicaciones, Departamento de Telecomunicaciones. UTH, pedro.amorris@gmail.com, 2Facultad Telecomunicaciones, Departamento de Telecomunicaciones. UTH, dortegag@tele.cujae.edu.cu. RESUMEN Un método basado en la conservación de la energía y de las leyes de la óptica geométrica se describe para el cálculo de superficies con curvatura para producir, a partir de un excitador lineal, un haz conformado en un plano y otro uniforme en su plano perpendicular. De forma analítica se desarrolla una aplicación una antena en conexión con antenas de radar para los sistemas de navegación y la exploración de la superficie del mar, en la que se determina el patrón por medio de una curva central que se ajusta para obtener la necesaria distribución de energía del haz conformado. PALABRAS CLAVES: Antenas con reflector, Haz conformado, cilindro parabólico, ���2�. PROCEDURE FOR THE CONFORMATION OF THE RADIATION PATTERN OF THE CYLINDRIC – PARABOLICS ANTENNAS FOR EXPLORE THE SEA SURFACE. ABSTRACT A method based upon conservation of energy and the simple laws of geometrical optics are described for the calculation of single-curvature surfaces to produce from a line source a shaped beam of arbitrary shape in one plane and uniformly narrow in the perpendicular plane. A specific application of the shaped-beam antenna in connection with radar antennas for sea and navigational systems, for which the optimum elevation pattern is found analytical by a central-section curve which is adjusted to give the necessary distribution of energy for the shaped beam. KEYWORDS: Antennas con reflector, Shaped beam, parabolic cylinder, ���2�. 1- INTRODUCCIÓN. Las antenas de microondas para ciertos usos, requiere que radien la energía organizada de forma particular denominada característica direccional o patrón de radiación. En general se emplean diagramas estrechos en un plano y se conforman en el otro para usos especiales. Para radares costeros se emplea comúnmente una solución sencilla empleando un cilindro conformado por una ley G(θ) = K csc2 (θ) cos (θ) invertido en el plano vertical y en el horizontal con el uso de un excitador lineal en guía de ondas con una distribución de Taylor que cumpla con la norma. La Ley de distribución en el plano vertical garantiza que la potencia de la señal reflejada de un blanco en la superficie del mar sea constante independientemente de la distancia dentro en el rango de alcance de RADAR, de esta forma se evita que la potencia de la señal sature al receptor de la estación y prácticamente no se radie ni se reciba energía en otras direcciones. Una antena que radie un haz conformado requiere que el reflector en el plano dado transforme el patrón de radiación primario generado por una fuente del tipo cosn en un patrón secundario dado. El cilindro reflector se ubica horizontalmente y en su línea focal se sitúa la fuente primaria que determina el patrón de radiación en este plano con un ángulo de radiación muy estrecho y bajos niveles de lóbulos secundarios, que garantiza la capacidad resolutiva por acimut de la estación. En el plano vertical el cilindro se conforma de modo que satisfaga el patrón secundario deseado. Chu [1] brinda un método alternativo de cálculo para antenas con doble conformación del haz. El método es aplicable también empleando lentes dieléctricas. Una primera aproximación se realizará para la conformación de cualquier patrón de radiación secundario de una antena por el método de conformación de su reflector. Un caso particular es la obtención de un patrón tipo csc2, que es el que nos ocupa. La forma en que lo hace Silver [1] se aplica en particular para patrón csc2 en una antena cilindro parabólica. Se supone que se tenga un reflector en el plano vertical que tenga un perfil entre una parábola a una sección de una esfera. En esta sección se desarrollará con la aproximación de la óptica geométrica clásica descrita en 1946 por Silver y Chu [1,2] debido a la banda de trabajo y a que se puede considerar la formación de rayos perpendiculares al frente de onda en la abertura de la antena de modo que se puede aplicar de mediante el reflector conformado con un perfil adecuado, y a partir de un patrón de radiación primario aplicado desde el foco del reflector, entonces es posible obtener un patrón de radiación secundario que se corresponda con el deseado. Esta tecnología se conoce como la técnica del conformado del reflector. 2 DESARROLLO. 2.1 Procedimiento general para la obtención de un patrón de radiación conformado Zhi Ning, Chen [3]. La figura 1 muestra la geometría del problema en el plano conformación del patrón secundario de radiación de la antena o también conocido como patrón de radiación en zona lejana. Se considera �1 �1 la distancia radial desde el foco � a la superficie del reflector en función del ángulo de elevación �1. Claramente para �1 = 0, �1 0 = �, la distancia focal . Un rayo incidente en el reflector desde el foco se refleja con un ángulo �2, que cumple con las leyes de Snell. Como resultado se �1= �2 y el ángulo respecto a la normal a la superficie de reflectores �1 − �2 /2. De la aplicación de la ley de Snell resulta la siguiente ecuación diferencial: ��1 ��1 = 1 �1 �� �� = tan  �1−�2 2 (1) De la expresión no se conoce a priori el ángulo de reflexión �2. Aquí �, �, � son coordenadas cartesianas. A partir de la expresión (1), si integramos ambos lados de la ecuación. 0 �1 1 � �� ��1 ��1 = 0 �1 tan  �1−�22 ��2 (1a) donde se deduce la expresión que rige el perfil de la ecuación central de la superficie del reflector: + Fig. 1 Trazado de rayos en el plano vertical del semi perfil del reflector. Donde: Θ1 ángulo del rayo primario del foco a la superficie del reflector. Θ2 ángulo el rayo secundario. ρ distancia desde el foco a la superficie del reflector. F foco del reflector. f distancia focal al vértice de la curva central. Nota: El eje z se toma como eje de rotación del reflector. De donde, se deduce la expresión que rige el perfil de la ecuación central de la superficie del reflector: �1 �1 = � ��� 0 �1 tan  �1−�2 2 ��1 (2) La solución de � en función de �1 describe finalmente el perfil del reflector. De esta manera si se invoca el principio de conservación de la energía: 0 �1� �1 ����1��1 = � 0 �2 � �2 ����2��2 (3) Donde: � �1 ��1 es la energía que incide en el reflector como patrón primario del emisor que se halla en el foco. � �2 ��2 es la energía que se refleja del reflector como patrón conformado secundario de la antena. � es la función transformadora que conforma el patrón primario en el secundario y representa en este caso la acción conformadora del perfil del reflector. Si se despeja K, � = 0 �1��� � �1 sin (�1)��1 0 �3��� � �2 sin (�2)��2 (4) Y se sustituye en (3), 0 �1 � �1 sin (�1)��1 0 �1��� � �1 sin (�1)��1 = 0 �2 � �2 sin (�2)��2 �2��� �2��� � �2 sin (�2)��2 (5) Si se considera de manera general al patrón de radiación primario situado en el foco de la antena como � = �����, donde n es el índice de potencia del patrón primario de balance, deviene: 0 �1 ����+1 ����1��1 0 �1��� ����+1 ����1��1 = 0 �2 � �2 ����2��2 0 �2��� � �2 ����2��2 (4) Esto es, 1−����+1�1 1−����+1�1��� = 0 �2 � �2 ����2��2 0 �2��� � �2 ����2��2 (5) De esta forma si se resuelve de forma simbólica esta expresión se puede deducir la expresión que relaciona la dependencia del ángulo de reflexión de �2 con el ángulo de incidencia �1 y que resuelve la ecuación (2). Por ejemplo, para un patrón conformado secundario con un máximo definido entre dos ángulos dados la expresión general que se obtiene es: �2 �1 = ���� ����2��� + +����2��� − ����2��� 1−����+1�1 1−����+1�1��� (6) Considere el siguiente ejemplo: Se desea diseñar el perfil de un reflector con un diámetro de 150 � y una distancia focal de 75 � con � = 1.5 con un emisor que ilumina los bordes del reflector con -7 dB, y se supone una iluminación uniforme en el plano vertical en el intervalo de 0.030 a 3.8 grados. El resultado se observa claramente en la figura 2, con una discreta diferencia entre perfil conformado y el parabólico. + Fig. 2 Comparación del perfil parabólico con el conformado. En la figura 3 se muestra la consecuencia del conformado con el ensanchamiento del máximo de radiación entre los ángulos previstos. Por medio de un algoritmo se programó el proceso de síntesis del conformado del reflector, para un patrón similar, esta vez para el intervalo de 0 a 40 grados en el patrón secundario. En la figura 4 se observa la diferencia del perfil conformado (trazo azul) respecto a un perfil parabólico puro (trazo rojo). Fig., 3 Comparación del patrón del perfil parabólico con el conformado. 45 50 55 60 65 70 75 0 10 20 30 40 50 60 70 80 parabola original parabola modificada. 2 1  sin 1  1 1  sin 1  2 1  cos 1  1 1  cos 1  . Fig. 4 Comparación de los perfiles parabólico con el conformado para los límites del patrón secundario entre 0 y 40 grados. 2.2 Procedimiento para generar un patrón conformado patrón tipo ����� ����. También, otros autores, B. E. Yamaikin [4] han abordado este problema para la conformación directamente de un reflector que genere un patrón ���2� ���� aspecto que resulta ventajoso para los radares que realizan la exploración y detección de blancos con indicadores panorámicos, dado a que establecen la potencia reflejada de un blanco constante independientemente de la distancia, adicionalmente facilitan el proceso de detección ante la presencia del clutter marino. El algoritmo se programó en plataforma MathCad. Para este caso: Fig. 5 Perfil conformado para generar un patrón ���2� ���� (curva roja). en la figura 5 se observa como la curva de color rojo (reflector conformado) se aleja de la trayectoria preestablecida para un perfil parabólico, en consecuencia, los rayos reflejados no serán paralelos al eje focal en esta área y la potencia del frente de ondas variará desde 0 dB. en el eje focal a -10 dB. en el extremo externo superior del reflector, garantizando una potencia reflejada de la señal del blanco independiente de la distancia. La parte inferior del reflector en general no se modifica, mantiene su perfil parabólico y garantiza el alcance máximo, no obstante, en ocasiones la conformación del reflector se realiza a partir de ángulos negativos de incidencia e incluso el máximo del patrón del emisor de aleja del eje focal. Todas estas modificaciones se realizan en el proceso de ajuste de la antena, en función de la altura en que se emplace y la misión asignada a la estación de RADAR. Las ecuaciones principales que Silver desarrolla para el perfil correspondiente a un patrón secundario ���2� ���� son las siguientes: El patrón del emisor situado en el foco lineal del cilindro, que ilumina con -10 dB los bordes superior e inferior del cilindro es: � = ��� � 2.� (7) El patrón cosecante deseado de la antena es: � � = ����2 ����1 2 (8) La dependencia �, variable del patron secundario con respecto a � del patrón primario es: � � = ���� ��� �1 + ��� �2 −��� �1 �1 �2 � � � � . �1 � � � � � (9) La distancia desde el foco a la superficie del reflector � en dependencia al ángulo del patrón primario � es: � � = �0. ��� 0 � ��� � � −� 2 �� (10) �0 distancia focal del reflector, �0 = � � . También se puede generar con un sencillo cambio de signo un perfil convexo (curva roja), figura 6, que posee ventaja de tener una baja reacción y un pequeño efecto sombra del emisor. 3. CONCLUSIONES. En el presente se muestra un procedimiento para la síntesis de patrones de radiación de potencia de antenas de microondas del tipo cilindro parabólico, con el objetivo de manera general de realizar un conformado del haz de cualquier tipo, y también de conformar en particular un patrón del tipo ���2� cos � invertido para su empleo en estaciones de RADAR costeros, de las bandas de 10 y 3 cm, para la detección de blancos navales en radares costeros. El procedimiento sustituye el STC (control de la ganancia del receptor por tiempo), con la ventaja de que lo hace tanto en régimen de recepción como de transmisión, de manera que resulta tan abarcador como el STC y lo supera en el combate contra las interferencias en general, incluyendo el clutter marino, y permite un ahorro sustancial de potencia radiada por la estación. La síntesis presentada sirve como ecuación principal para un desarrollo ulterior de antenas de RADAR con patrones de radiación con doble conformación y para modelos avanzados del tipo off-set [5], Cassegrain o Gregorian. En la actualidad para el diseño, adicionalmente se emplean algoritmos de optimización que tienen en cuenta la difracción que se produce en los bordes del reflector de la antena [6,7], Fig 6. Conformado del reflector generando un perfil convexo (en rojo) con igual patrón secundario. 4.REFERENCIAS [1] SILVER, Samuel. Microwave Antenna, Theory and Design. Office of scientific research and development research committee. 1946. 2 L.J.CHU, Microwave Beam Shaping Antennas, Research Laboratory of Electronics, MIT, Report 40. June, 1947. [3] ZHI NING, CHEN. Handbook of antenna technologies. Springer reference, ISBN 978-981-4560-44-3, 2016. [4] B. E. YAMAIKIN. Dispositivos de Antenas. Universidad rusa, Moscú, 1965. [5] SANDLER. S. S, “Paraboloidal Reflector Pattern for Off – Axis Feed”, IRE transactions of AP, July 1960. [6] OKAN. YURDUSEVEN, OKAN MERC. “Cosecant – Squared Parabolic Reflector Antenna Design for Air and Coastal Surveillance Radars”. Proceeding of the 5th European Conference on Antennas and Propagation (EUCAP). 2020. [7] MALLAHZADEH. A. R. “Cosecant Squared Pattern Synthesis for Reflector Antenna Using IWO”. Proceeding of the 5th European Conference on Antennas and Propagation (EUCAP). 2020. SOBRE LOS AUTORES: Pedro Arzola Morris, Ingeniero Radiotécnico, Universidad Tecnológica de la Habana José Antonio Echeverría (CUJAE), La Habana, Cuba, Profesor Auxiliar, Master en ciencias, e-mail: pedro.amorris@gmail.com, ORCID: 0000-0002-1146-5749, Actualmente trabaja en interés de la Teoría de Antenas y su aplicación en la tecnología de Radar, Materiales radio absorbentes y Cámaras anecoicas Daryl Ortega González, ingeniero en Telecomunicaciones y Electrónica, Máster en ciencias, Universidad Tecnológica José Antonio Echeverría(CUJAE), Universidad Tecnológica de la Habana José Antonio Echeverría (CUJAE), La Habana, Cuba, e-mail: fedortegag@gmail.com, ORCID: 0000-0002- 9272-4553, Actualmente trabaja e interesa en antenas reflectoras, antenas reflectantes, arreglos faseados, antenas reconfigurables, adaptativas antenas y antenas inteligentes. . OFDM TRANSMITTER IMPLEMENTATION IN FPGA FOR INDUSTRY 4.0 NETWORKS Fernando Hernández Vives1, Camilo Guillén Soriano2, Jorge Luis González Ríos 3, Jorge Torres Gómez 4 1,2 Technological University of Havana “José Antonio Echeverría”, CUJAE, La Habana, Cuba, 3 SnT – University of Luxembourg, Luxembourg, 4 TU Berlin, Berlin, Germany 1 fernanhernannov93@gmail.com, 2 camilo.gs@tele.cujae.edu.cu, 3 jorge.gonzalez@uni.lu, 4jorge.torresgomez@ieee.org ABSTRACT Industry 4.0 demands new paradigms in modern production factories worldwide, where the supporting communication infrastructure stand for a critical role. Higher transmission capacities with low-latency constraints are such key use-cases for smart factories. Previous research outlines the feasibility of the use of orthogonal frequency division multiplexing (OFDM) modulation as a candidate in the next-generation industrial networks. The modeling and subsequent implementation of these mechanisms in FPGA facilitate the path towards future practical developments of functional communications systems. This paper investigates the hardware design in FPGA for transmissions and the modeling of the wired channel as a twisted copper pair cable using the System Generator simulator. The transmitter design conceives an OFDM modulator and the channel model follows the KHM parameters. The resulting simulation results evidence the feasibility of high-speed digital data transmission. KEY WORDS: Industry 4.0, OFDM, KHM model, twisted-copper-pair cable, System Generator. IMPLEMENTACIÓN DE TRANSMISOR OFDM EN FPGA PARA REDES DE INDUSTRIA 4.0 RESUMEN La Industria 4.0 exige nuevos paradigmas en las fábricas de producción modernas de todo el mundo, donde la infraestructura de comunicación de soporte desempeña un papel fundamental. Las capacidades de transmisión más altas con restricciones de baja latencia son casos de uso clave para las fábricas inteligentes. Investigaciones anteriores describen la viabilidad del uso de la modulación de multiplexación por división de frecuencia ortogonal (OFDM) como candidato en las redes industriales de próxima generación. El modelado y posterior implementación de estos mecanismos en FPGA facilitan el camino hacia futuros desarrollos prácticos de sistemas de comunicaciones funcionales. Este artículo investiga el diseño de hardware en FPGA para transmisiones y el modelado del canal cableado como un cable de par trenzado utilizando el simulador System Generator. El diseño del transmisor concibe un modulador OFDM; el modelo de canal sigue los parámetros KHM para el cable de par trenzado. La evidencia de simulación resultante da como resultado la viabilidad de la transmisión de datos digitales de alta velocidad. PALABRAS CLAVES: Industria 4.0, OFDM, FPGA, par de cobre trenzado, System Generator. 1. INTRODUCTION Modern factories are today under development as pledging to the paradigm of Industry 4.0 [1]. In this regard, Cuban policymakers are today assessing a program where the confluence of various technological and industrial sectors are interplaying: Biotechnology, electronics, and software [2]. Its implementation is highly dependent on the conception of Cyber-Physical Production Systems (CPS), where automated smart machines support factory workers to achieve improved production capacities [3], [4]. Following this trend, this article aims to elaborate on the conception of transceivers for improved communication rates in fieldbuses. Designing more transmission capacity in fieldbuses directs critical as the data volume dramatically increases with the number of interconnected sensors and actuators in factories. One of the main challenges in this field is the massive integration of IoT devices that exchange multimedia information [5]. The resulting high amount of data happens prohibitive to handle in typical industry networks, where deployed fieldbuses are limited to a maximum of 12 Mbps (PROFIBUS) [6]. Such protocols implement communication systems that only use short messages among nodes with low computational capacity, aiming to guarantee timing constraints. Furthermore, ethernet-based solutions offer an alternative to data forwarding capabilities, supporting complex streaming services [7]. However, this solution is costly for industries with large physical spaces and the need to interconnect large numbers of distant working places. Specifically, the costs of the equipment associated with the Ethernet infrastructure, such as switches, routers, and PCs, increase with the distance and the total of nodes to interconnect. Therefore, the currently available techniques have a high computational and commercial cost, in addition to not guaranteeing the transmission rates demanded by Industry 4.0 applications. In this regard, this work features in the System Generator simulator a transmission scheme for Orthogonal Frequency Division Multiplexing (OFDM) modulation over twisted-copper-pair; as the physical medium of standard fieldbuses. We conceive the OFDM transmitter in Simulink/Matlab, to be later implemented in FPGA as described in Section 2. The resulting implementation allows conducting measurement campaigns with real hardware to illustrate the promising capabilities of this framework. The transmitter is designed with HDL blocks optimized for FPGAs from Xilinx inc. A detailed description is given in Section 3. The main results illustrate the feasibility of this testbed design in Section 4. 2. OFDM TRANSMITTER AND CHANNELS MODELS We implement the OFDM transmitter and the communication channel model in System Generator according to the scheme in Fig. 1. Using this general block diagram, we can determine the signal attenuation and noise level at the receiver node. We placed scopes at the channel output to display the received waveform. Figure 1: Block diagram of the OFDM modulator and the channel developed in System Generator. OFDM as a multicarrier modulation multiplexes serial input data into several parallel streams and transmits them over independent subcarriers [8]. These subcarriers can be individually modulated and manipulated, allowing for their optimization with respect to the channel. The ability of multicarrier modulation to tailor its transmission parameters across the different subcarriers is especially useful when dealing with frequency selective fading channel environments. OFDM Transmitter The OFDM modulator mainly consists of two blocks; the QAM modulator and the Inverse-Fast-Fourier Transform (IFFT). The 𝑀-QAM block packs on each different symbol a total of 𝑏 = log2 𝑀 bits, those are coming from the source. Next, the IFFT block allocates the input QAM symbols into each different orthogonal subcarrier from a total of 𝑁, as depicted in Fig. 2 [8]. Finally, the OFDM signal is derived after superposing all the subcarriers as indicated in 𝑥(𝑡) = ∑ 𝐷𝑛𝑒 𝑗2𝜋 𝑘𝑛 𝑁𝑁−1𝑛=0 , (1) where 𝐷𝑛 is the complex QAM symbol. Figure 2: Functional description of the OFDM modulation. The resulting OFDM symbol is transmitted through the channel in the time domain and will carry a total of 𝑁 log2 𝑀 bits. Thus, the OFDM symbol rate depends on the binary stream received from the QAM modulator as 𝑅𝑠 𝑂𝐹𝐷𝑀 = 𝑅𝑠 𝑄𝐴𝑀 𝑁 , (2) where 𝑅𝑠 𝑄𝐴𝑀 is the QAM symbol rate and 𝑁 is the total of subcarriers. Besides, considering the orthogonality of the OFDM subcarriers 𝑅𝑠 𝑂𝐹𝐷𝑀 = ∆𝑓, (3) where ∆𝑓 is the subcarrier spacing. Similarly, the symbol rate from the QAM block will be related to the binary source according to 𝑅𝑠 𝑄𝐴𝑀 = 𝑅𝑏 log2 𝑀⁄ , (4) where 𝑅𝑏 is the bit rate and 𝑀 is the QAM modulator order. Using the above relations, the achievable bit rate is 𝑅𝑏 = ∆𝑓 ∙ 𝑁 ∙ log2 𝑀. (5) To illustrate, we implement the OFDM transmitter based on 3GPP 36.212 standard recommendations [9], using a 16-QAM modulator (𝑀 = 4) and a IFFT size 𝑁 = 2048. Selecting the subcarrier spacing as ∆𝑓 = 6.104 kHz, the achievable bit rate will be 𝑅𝑏 ≈ 50 Mbits/s, which results in a system capable of reaching the speeds of Ethernet connections [10]. Communication channel Various cables are reported for data transmission in industrial networks [11]. Twisted copper pair is widespread in Industrial Ethernet applications supporting maximum speeds [11]. This variant has a characteristic impedance of 100 𝛺 with a variance of 5 𝛺, measured at 100 MHz, and an attenuation of 24 dB/100 m. Other cable types described, such as MegaLine® D1-20 SF/U HV, CAT 5, heavy-duty, MegaLine® F6-70 S/F HV flex CAT 7, have similar electrical characteristics. Still, the cable's complexity, weight, and cost are higher than the simple two-wire variant. Others, such as the products offered by FOUNDATION™ Fieldbus, provide a similar impedance characteristic, e.g. (100 Ω), with an attenuation of 3dB/km [11] and bandwidths in the order of the kilohertz. In the industrial scenario, the wired channel might be modeled through the various mathematical models for twisted-pair cables [12], [13], [14]. Operating at relatively high frequencies, most parametric cable models reported in the literature were designed for the very high-speed digital subscriber line (VDSL) frequencies with a maximum bandwidth of 30 MHz [12]. For instance, the TNO/EAB model incorporates an extra parameter for improving accuracy compared to the TNO model presented in [13]. Furthermore, the well-known BTO model was modified in [12] with new parameter values and targeting frequencies up to hundreds of megahertz. Extending [14], the study in [12] reports a simple and causal model for the characteristic impedance 𝑍0, as referred to the KHM model. Together with the so-called KM1 model from [12], the new 𝑍0 model composes the KHM model, which supports multiple segments and frequencies up to hundreds of megahertz. This solution has few parameters, is causal, and introduces a closed-form expression allowing to fit channel measurements. This model provides two closed-form expressions for the characteristic impedance 𝑍0 and channel propagation constant 𝛾 through five parameters (𝑘1, 𝑘2, 𝑘3, ℎ1, ℎ2). The mathematical development of KHM model is detailed in [12], where the least-square (LS) method determines the ℎ parameters, typically done after measuring the S-parameters using a vector network analyzer [12]. In our work, we follow the values obtained in [12], as shown in Table 1, over a frequency range of 100 kHz to 200 MHz. Table 1: Parameters of the KHM model for a CAT 5 cable from the manufacturer Ericcson [12]. Parameter Value k1 0.00207 k2 2.39281e-08 k3 2.94153e-05 h1 101.2393 h2 3.2608e+03 Cable length 300 m Having these parameters, the channel propagation constant and the characteristic impedance are [12] ℜ{𝛾} = 𝑘1√𝑓 + 𝑘2𝑓 ℑ{𝛾} = 𝑘1√𝑓 − 𝑘2 2 𝜋 𝑓 ∙ ln 𝑓 ∙ 𝑘3 ∙ 𝑓 ℜ{𝑍0} = ℎ1 + ℎ2 1 √𝑓 (6) ℑ{𝑍0} = −ℎ2 1 √𝑓 Using the relations in Eq. (6) and the parameters in Table 1, we characterize the cable through its impedance matrix, denoted as 𝑍. To compute the parameters of the 𝑍 matrix, we first calculate the 𝑇 matrix of the cable according to [10]. Then we use the 𝑇 to 𝑍 parameter conversion using the equations reported in [15]. In this work, we use this model of the twisted-pair copper cable to simulate the transmission channel for the OFDM waveforms. 3. IMPLEMENTING THE SYSTEM WITH XILINX BLOCKS The blocks implemented in Simulink are synthesized and implemented to produce the FPGA configuration bitstream automatically. We follow the block diagram in Fig. 1, to separately implement each different component as described in the following subsections. The architecture proposed in this Section seeks to create digital hardware with low resource consumption and latency. Table 2 summarizes the main parameters used for the transmitter. Table 2: Parameters of the OFDM modulator implemented in the System Generator. The target clock and target FPGA are set in System Generator to synthetize the intellectual property (IP) module, to be later encapsulated in the FPGA. The number of subcarriers defines the IFFT size and directly concerns the number of implementation resources. Besides, the subcarrier spacing sets the minimum operating frequency of the digital-to-analog converter (DAC). The cyclic prefix length sets the number of samples inserted at the beginning of each OFDM symbol. Following subsections provide more details about these blocks. Data source for the OFDM modulator This subsystem comprises two System Generator blocks (see Fig. 3): an up-counter and a ROM memory. The purpose of the counter is to generate the memory addresses for the ROM block. The ROM memory stores the 4-bits packets to be sent to the modulator. These packets correspond to the number of bits per symbol the 16-QAM module supports. The binary sequence is randomly generated from the integer range 0 to 15 using the Matlab randi function. Figure 3: Integer data generator. QAM modulator The QAM modulator block directly produces the symbols as depicted in Fig. 2. The implemented scheme is illustrated in Fig. 4 with the I (in-phase) and Q (quadrature) channels, accounting for the real and imaginary parts in the constellation plane. The Slice block is used as a selector control for the multiplexer, which outputs the proper QAM symbol. The upper part of these bits are used to select the in-phase component, while the lower part is for the quadrature one. Parameter Value General settings Bit rate 𝑅𝑏 50 Mbit/s RF bandwidth 30 MHz FPGA device Target clock 100 MHz Target FPGA XC7K325TFFG676-1 QAM Modulation order (𝑀) 16 IFFT Number of subcarriers (𝑁) 2048 Subcarrier spacing (𝛥𝑓) 6.104 kHz Cyclic Prefix Length 512 samples Figure 4: 16-QAM modulator. The constants correspond to the reference constellation illustrated in Fig. 5. The summary of parameters to implement this block are the modulation order 𝑀 = 16, a Gray coding for bit-to-symbol asigment, a minimum distance of 2 as the normalization method and a zero Phase offset. Figure 5: 16-QAM constellation. OFDM modulator Part (a) of Fig. 6 shows the design for the OFDM modulator. This comprises the OFDM Symbol, IFFT Data Preprocessing, IFFT_Config and IFFT subsystems. The OFDM Symbol subsystem performs the assignment of the QAM symbols to the subcarriers, in this case, the IFFT bins. This is conceived by multiplexing in time QAM symbols stream with null symbols. As depicted in part (b) of Fig. 6, we implement this operation as an interleaving through a pair of TDM blocks (one for each I and Q component). These blocks multiplex the QAM and null symbols in time by combining them into a single stream. The output sequence contains both QAM and null symbols. The IFFT Data preprocessing block performs a data type conversion and symbol amplitude scaling. Part (c) of Fig. 6 shows that the IFFT requires a fix16_15 data type [16], i.e. one bit used for the sign and fifteen to describe the decimal part of the value. Finally, the IFFT subsystem converts the signal in the frequency domain to the time domain. This block also inserts the cyclic prefix, a parameter that must be indicated from the IFFT_Config block. The cyclic prefix is the process of adding the final samples of the previous OFDM symbol to the beginning of the current symbol. Following the standards such as LTE, we use a preamble length of 512 samples (called a long prefix) [9] (a) (b) (c) Figure 6: (a) OFDM Modulator implemented in System Generator, (b) OFDM Symbol subsystem and (c) IFFT Data Preprocessing subsystem The RF toolbox was used for modeling the communications channel in the Simulink environment. Fig. 7 shows the connections between the channel model (Z) and the interface ports. The input data is taken as a voltage plus noise source with a 150 Ω impedance, corresponding to DACs from Analog Devices [17]. Figure 7: Interconnection of the RF blocks. The 𝑍 block simulates the twisted-copper pair cable, which is a passive network dependent on the parameters of the 𝑍 matrix, which elements are computed as described in Section 2. For a cable length of 300 meters and a frequency of 100 MHz we obtained the following results 𝑍 = [ 0.0157 − 𝑗0.32626 0.1634 − 𝑗0.1138 0.1634 − 𝑗0.1138 0.010157 − 𝑗0.32626 ]. (7) 4. RESULTS Results were obtained using the parameters in Table 1 for the cable model, according to the frequency range 100 kHz to 200 MHz. As for the modulator parameters, we used those in Table 2. We illustrate different results for the channel model, the received OFDM waveform, latency, and the resource consumption of the implemented system. Figure 8 shows the modeling of the characteristic impedance 𝑍0 with frequency. The resulting values for 𝑍0 are located around 102 Ohms for frequencies ranging from 20 MHz to 200 MHz. In order to obtain the attenuation of the twisted pair copper cable, the model was excited with an OFDM signal of equal spectral power density (−80 𝑑𝐵𝑚/𝐻𝑧) for all the subcarriers. The attenuation was directly determined by comparing the power ratio between the output and the input. Figure 8: Characteristic impedance of the twist-pair cable according to KHM model. The spectrum of the modulator output and the received signal are shown in Fig. 9. Both signals were obtained from the OFDM modulator implemented through the System Generator blocks. The RF band of the OFDM signals have a center frequency of 100 MHz with a 30 MHz bandwidth. The noise floor level has a power spectral density of -170 dBm/Hz for a signal-to-noise ratio (SNR) of 20 dB. Thus, the resulting power spectral density of the useful signal is equal to -150 dBm/Hz. In real scenarios, these values may change and the proper operation will depend largely on the characteristics of the receiver. Directly comparing the amplitude levels at the transmitter's output and at the channel model's output, the resulting attenuation introduced by the twisted copper pair cable is -65 dB. Another factor we considered in the design was the latency of the modulator. This parameter defines the time it takes for the OFDM modulator to transmit an RF signal once it has digital data available. Latency measured using Simulink time scope was 5.344 µs. This parameter depends on the settings for the blocks included in the design. We compiled the OFDM modulator design for the Kintex7 FPGA family using the Xilinx tools. When compiled, we determined the number of resources needed, also verifying its feasibility for other FPGA platforms. After executing the synthesis and implementation of the proposed hardware, the number of resources needed for the OFDM modulator is very low, as shown in Table 3. Figure 9: Spectrum of signals at the transmitter and the output of the channel model. Table 3: Hardware resources reported by Vivado tool. Resource Utilization Available Utilization % LUT 5026 203800 2.47 LUTRAM 1921 64000 3.00 FF 9007 407600 2.21 BRAM 18.5 445 4.16 DSP 98 840 11.67 The FPGA configuration file was generated using the default synthesis and implementation strategies to validate the results. Finally, the time waveform of the OFDM modulator was obtained through the integrated logic analyzer interface with Vivado. Figure 10 shows a time window of 202 ns duration for a segment of the OFDM signal, captured at the instant a new OFDM symbol begins. Figure 10: Time representation of a segment of the OFDM signal. 5. CONCLUSIONS This paper evidences a low-complex design for an OFDM transmitter aiming to improve the communication capacities in industry 4.0 networks. The model we presented features a functional implementation in hardware and includes realistic values for the channel model and noise levels. As the first step for a transceiver testbed, this model demonstrates the suitability of OFDM signals for communications in Industry 4.0 environments. As implemented in Simulink, the OFDM transmitter results in affordable digital hardware conceived as a low-cost SDR platform solution. The resulting implementation allows measurement campaigns with real hardware to illustrate the promising capabilities of this framework. In the future, we plan to design the OFDM receiver and build an on-site test bed to conduct measurement campaigns. REFERENCES 1. WOLLSCHLAEGER, Martin; SAUTER, Thilo; JASPERNEITE, Juergen. “The Future of Industrial Communication: Automation Networks in the Era of the Internet of Things and Industry 4.0”. IEEE Industrial Electronics Magazine, 2017, vol. 11, no. 1, pp. 17 - 27. 2. PUIG, Yaima. La Industria 4.0 en Cuba: Un camino necesario y constante, Cubadebate. Access: 20 de agosto de 2022. Available in: http://www.cubadebate.cu/noticias/2022/04/15/la-industria-4-0-en-cuba-un- camino-necesario-y-constante/. 3. TURNER, Christopher; MA, Ruidong; CHEN, Jingyu; OYEKAN, John. “Human in the Loop: Industry 4.0 Technologies and Scenarios for Worker Mediation of Automated Manufacturing”. IEEE Access, 2021, vol. 9, pp. 103950-103966. 4. WEISS, Astrid; WORTMEIER, Ann-Kathrin; KUBICEK, Bettina. “Cobots in Industry 4.0: A Roadmap for Future Practice Studies on Human–Robot Collaboration”, IEEE Transactions on Human-Machine Systems, 2021, vol. 51, no.4, pp. 335 – 345. 5. WAN, Ziwei; GAO, Zhen; DI RENZO, Marco; HANZO, Lajos. “The Road to Industry 4.0 and Beyond: A Communications-, Information-, and Operation Technology Collaboration Perspective”. IEEE Network (Early Access), 2022, pp. 1-8. 6. ZURAWSKI, R. Industrial Information Technology Handbook, 1st ed. Boca Raton: CRC Press, 2004. 7. LO BELLO, Lucia; STEINER Wilfried. “A Perspective on IEEE Time-Sensitive Networking for Industrial Communication and Automation Systems”, Proceedings of the IEEE, 2019, vol. 107, no. 6, pp. 1094 - 1120. 8. ANKARALI, Zekeriyya Esat; PEKÖZ, Berker; ARSLAN, Hüseyin. “Flexible Radio Access Beyond 5G: A Future Projection on Waveform, Numerology, and Frame Design Principles”, IEEE Access, 2017, vol. 5, pp. 18295-18309. 9. 3GPP TS 36.212. Multiplexing and channel coding. August 20th, 2022. Available in: https://www.3gpp.org. 10. GONZALEZ, Jorge Luis; TORRES, Jorge, SHARMA Rajesh Kumar; DRESSLER, Falko; FERNANDEZ-GETINO, María Julia. “Wideband OFDM-Based Communications in Bus Topology as a Key Enabler for Industry 4.0 Networks”, IEEE Access, 2021, vol. 9, pp. 114167 - 114178. 11. “Cables for data transmission in industrial automation”. August 18th, 2022, Available in: https://publications.leoni.com/fileadmin/process_industry/publications/catalogues/cables_for_data_trans mission.pdf?1501574588 12. ACATAUASSU, Diogo; HÖST, Stefan; LU, Chenguang; BERG, Miguel; KLAUTAU, Aldebaro; BÖRJESSON, Perl Ola. “Simple and Causal Copper Cable Model Suitable for G.fast Frequencies”, IEEE Transactions on Communications, 2014, vol. 62, no. 11, pp. 4040 – 4051. 13. “G.fast: Wideband modeling of twisted pair cables as two-ports”. Access: August 19th, 2022. Available in: http://www.joepeesoft.com/Public/Documents/Contributions_ITU_T/2011_09_ITU_T_SG15_11GS3- 028_RefModel_Theory.pdf. 14. ACATAUASSU, D. et al. “Simple and causal twisted-pair channel models for G.fast Systems”, in IEEE Global Communications Conference (GLOBECOM), 2013, pp. 2834-2839. 15. FRICKEY, D. A. “Conversions between S, Z, Y, H, ABCD, and T parameters which are valid for complex source and load impedances”, IEEE Transactions on Microwave Theory and Techniques, 1994, vol. 42, no. 2, pp. 205-211. 16. “Fast Fourier Transform v9.1 LogiCORE IP Product Guide”. Access: August 20th, 2022. Available in: https://docs.xilinx.com/r/en-US/pg109-xfft/Fast-Fourier-Transform-v9.1-LogiCORE-IP-Product-Guide. 17. “D/A Converters (DAC), Analog Devices”. Access: August 20th, 2022. Available in: https://us.hidester.com/proxy.php?u=eJwBUACv%2F3M6NzI6IidbrpHpOjruwN8NQm49QzShXv7cFcQ Kb8UZjG0E%2B6cc8Y2tcGNFtJE05OZWGxyDMkpOx6GNIaLJrBv4MJjphCG%2FZLvCK3lsRiI7pPw knA%3D%3D&b=7&f=norefer. About Authors Fernando Hernandez Vives received the degree in Telecommunications and Electronics Engineering in (2017) at the Technological University of Havana Jose Antonio Echeverria CUJAE. From 2017 to 2021 he was involved in research, development and production. He is currently working as an instructor professor at the Technological University of Havana José Antonio Echeverría, CUJAE. Camilo Guillén Soriano received the B.S. in Telecommunications and Electronics (2013), the M.S. in Digital Systems (2018) and the Ph.D. (2021) from the Technological University of Havana José Antonio Echeverría, CUJAE. He currently serves as Auxiliar Professor and researcher with the Departament of Telecommunications and Telematics of the previous institution. His research interests include digital signal processing and pattern recognition. Member of the Cuban Association of Pattern Recognition (ACRP) since 2015 Jorge Luis González Ríos is with the Interdisciplinary Centre for Security, Reliability and Trust (SnT), University of Luxembourg. He received his B.S. Degree (with honors), M.S. Degree and Ph.D. on Telecommunications and Electronics in 2006, 2009 and 2018, respectively, from the Technological University of Havana (CUJAE), Cuba. From September 2006 to July 2019 he was as Lecturer and Researcher with the Research Center on Microelectronics (CIME) at CUJAE. He visited the Seville Institute of Microelectronics (IMSE-CNM), Spain, in 2010, 2011 and 2012, and the Group of Microelectronics of the Federal University of Itajuba (UNIFEI), Brazil, in 2013. His research interests include RF/analog circuits, embedded systems and wireless and satellite communications. Jorge Torres Gómez received the B.Sc., M.Sc., and Ph.D. degrees from the Technological University of Havana, CUJAE, Cuba, in 2008, 2010, and 2015, respectively. He is currently with the Telecommunication Networks Group, Department of Telecommunication Systems, Technical University of Berlin. Since 2008, he has been with the School of Telecommunications and Electronics, CUJAE University, where he was a Lecturer with CUJAE, from 2008 to 2018. He is a Cuban Association of Pattern Recognition (ACRP) member. He has been with the Department of Signal Theory and Communications, Carlos III University of Madrid, Leganes Campus, Madrid, Spain, as a guest lecturer, and with the Department of Digital Signal Processing and Circuit Technology, the Chemnitz University of Technology as a postdoc. His research interests include digital signal processing, software-defined radio, and wireless and wired communication systems. ADAPTACIÓN DE LA CODIFICACIÓN CONJUNTAFUENTE-CANAL EN REDES INALAMBRICAS. ADAPTATION OF JOINT SOURCE-CHANNEL ENCODING IN WIRELESS NETWORKS. Isis Ferrán Fernández1, Eric Rojo Martín2 1Empresa de Telecomunicaciones de Cuba SA, ETECSAVilla Clara, 2Empresa Cubana de Navegación Aérea, ECNAVilla Clara 1e-mail: isis.ferran@etecsa.cu RESUMEN En este artículo se presentan los resultados de un estudio sobre la influencia que tiene el ajuste de la codificación conjunta fuente-canal en la calidad de la transmisión de voz sobre redes inalámbricas móviles 4G y 5G. Este aspecto ha sido abordado en investigaciones previas asumiendo que las pérdidas de paquetes que se producen en estas redes son de naturaleza aleatoria. A diferencia del enfoque tradicional, aquí se considera que las pérdidas ocurren en ráfagas. El comportamiento de las pérdidas se modela mediante una cadena de Markov de dos estados. Para la evaluación de la calidad percibida por los usuarios se usa el Modelo E. El códec de audio empleado es el AMR-WB, el cual permite varios esquemas de codificación de fuente asociados a cada uno de sus modos de trabajo. En cuanto a la codificación de canal se usa Reed-Solomon como código FEC (Forward Error Correction). La primera parte de la investigación permite comprobar la divergencia de los resultados cuando se considera que las pérdidas son aleatorias con respecto a escenarios con pérdidas en ráfagas. Ese resultado respalda la pertinencia de la presente investigación. Posteriormente se calculan los valores de los parámetros de la codificación de fuente y de la codificación de canal que permiten llegar a una relación de compromiso entre el ancho de banda digital empleado y la calidad percibida por los usuarios de servicios de voz. PALABRAS CLAVES:AMR-WB, Modelo E, QoS, MOS, FEC. ABSTRACT This article presents the results of a study on the influence of the joint source-channel coding adjustment on the quality of voice transmission over 4G and 5G mobile wireless networks. This aspect has been addressed in previous research assuming that the packet losses that occur in these networks are random in nature. Unlike the traditional approach, losses are considered here to occur in bursts. A two-state Markov chain models the loss behavior. For the evaluation of the quality perceived by the users, the E Model is used. The audio codec used is the AMR-WB, which allows several source coding schemes associated with each of its working modes. For channel coding, Reed-Solomon is used as the FEC (Forward Error Correction) code. The first part of the investigation allows us to verify the divergence of the results when losses are considered to be random with respect to scenarios with burst losses. This result supports the relevance of this research. Subsequently, the values ​ ​ of the source coding and channel coding parameters are calculated, which allow reaching a compromise relationship between the digital bandwidth used and the quality perceived by voice service users. KEYWORDS:AMR-WB, Modelo E, QoS, MOS, FEC. INTRODUCCIÓN En la actualidad las aplicaciones de voz sobre IP, VoIP (Voice over IP) en las comunicaciones móviles están teniendo un crecimiento vertiginoso. Estas tecnologías móviles son conocidas como 4G (Cuarta Generación) y la tecnología emergente 5G (Quinta Generación). Ambas tecnologías están basadas en una estructura de conmutación de paquetes. Con el surgimiento del Internet de las cosas se necesita una conexión de gran capacidad, esta es una de las virtudes de la tecnología 5G, red más flexible y eficiente que 4G. Existen tres puntos principales para 5G [1] y [2], definidos por la Unión Internacional de Tecomunicaciones (UIT) los cuales son: banda ancha móvil mejorada (eMBB): proporcionará altas velocidades de datos de hasta 20 Gbits ; comunicaciones de baja latencia ultra confiables (URLLC): se basa en conexiones ultra confiables y de baja latencia de hasta 1 ms y comunicaciones de tipo máquina masiva (mMTC): admitirá la conexión de una gran cantidad de dispositivos. Aproximadamente 1 000 000 Dispositivos/ Km². En estas redes, la trama de voz se paquetiza secuencialmente con protocolos de red como el RTP (Real Time Transport Protocol), UDP (User Datagram Protocol) y el IP. Y luego, se encapsula con otros protocolos de radio como PDCP (Packet Data Convergence Protocol), RLC (Radio Link Control) y MAC (Medium Access Control). Todos estos protocolos añadirán sus cabeceras al paquete de voz empaquetado. No obstante, el servicio de VoIP presenta problemas propios de las redes de conmutación de paquetes, como son: las pérdidas de paquetes, los retardos y el jitter; los cuales impactan negativamente en la calidad de experiencia percibida por los usuarios QoE (Quality of Experience). Disímiles han sido las investigaciones acerca de la influencia de las pérdidas de paquetes en la calidad del habla percibida por los usuarios [3]-[11]. Es necesario destacar que en algunos de estos estudios [5]-[9] y [14] se emplean modelos de pérdidas de paquetes aleatorios para realizar sus estimaciones. Según [4], [10] y [11] en la mayoría de los escenarios reales, la naturaleza de las pérdidas de paquetes no es aleatoria, sino que existe correspondencia, secuencialidad y ráfagas, siendo estas últimas, las que más fuertemente impactan en la percepción de la calidad del servicio por parte del usuario. Con el fin de contrarrestar las pérdidas de paquetes, se utilizan varias técnicas de codificación de canal para proteger la información. La codificación de canal agrega a los paquetes de información, bits de redundancia con el objetivo de detectar y corregir errores en el proceso de detección. Por otra parte, la codificación de fuente se encarga de eliminar la redundancia con el objetivo de minimizar la razón de trasmisión. Debido a esto debe existir una relación de compromiso entre la codificación de fuente y de canal con la calidad del servicio. En investigaciones precedentes [6], [8] y [9] se utilizan algoritmos para optimizar el ancho de banda en redes inalámbricas, aprovechando las razones de la codificación conjunta fuente-canal. En dichas investigaciones los autores aseguran conocer el fenómeno de las pérdidas de paquetes en ráfagas, aunque no las tienen en cuenta a la hora de hacer sus estimaciones y sugieren el estudio de las mismas en un futuro. Sin embargo, aunque se realizó una búsqueda profunda, no se encontró ninguna publicación posterior en que dichos autores extendieran el estudio para incluir el efecto de las perdidas en ráfagas. Tampoco se encontró un estudio de otros autores que dieran continuidad a las investigaciones presentadas en [6], [8] y [9]. De forma similar a [6], [8] y [9], esta investigación estudia cómo aprovechar la relación entre codificación de fuente, codificación de canal y calidad de la experiencia para reducir el ancho de banda en transmisiones de voz sin deteriorar significativamente el nivel de satisfacción del usuario final. A diferencia de dichas investigaciones previas en esta se considera que las pérdidas ocurren en ráfagas. 1. MATERIALES YMETODOS Codificación de fuente y canal Para la codificación de fuente usamos AMR-WB (G 722.2). El códec AMR-WB es un códec de voz desarrollado por ETSI (European Telecommunications Standards Institute) y adoptado por la 3GPP. El esquema de codificación es ACELP (Algebraic Code Excited Linear Prediction). Este códec tiene un ancho de banda de audio de 50-7000 y utiliza una frecuencia de muestreo de 16 kHz. Al tener un ancho de banda más amplio se proporciona una calidad de voz y una naturalidad sustancialmente mejoradas y esto contribuye positivamente a la inteligibilidad de la comunicación [16]. El códec tiene nueve modos de codificación correspondientes a ocho velocidades binarias las cuales son 6.60; 8.85; 12.65; 14.25; 15.85; 18.25; 19.85; 23.05; 23.85 kbps. El códec es adaptativo, cada modo codifica una trama de voz de 20 ms y puede cambiar su velocidad de bits cada 20 ms según las condiciones del canal y la red. Un código RS (�, �) definido sobre un campo de Galois (GF) ( 2� ) es descrito por los siguientes parámetros La longitud del bloque � es igual a 2� −1, el número de símbolos de información codificados en un bloque de � símbolos es �=1,2,..., �−1, y la razón de código es �/�. El código garantiza la corrección hasta �−� borrados. Un código de bloque sistemático (�, �) consta de � símbolos de información seguidos de (�−�) símbolos redundantes. Lo preocupante es la pérdida de paquetes completos, por tanto, la redundancia se extiende a través de los paquetes como se muestra en la Fig. 1. Cada paquete de media puede verse constituido por varios símbolos, cada símbolo es un elemento de GF. Se utiliza un grupo de � símbolos de � paquetes de media diferentes para generar símbolos redundantes (�−�), creando una palabra de código de longitud �. Estos símbolos redundantes se colocan en paquetes separados. De esta manera, se genera un código de bloque sistemático que consta de � paquetes a partir de � paquetes de media [8]. Figura 1: Codificador de canal RS (�, �). Modelo de Evaluación de Calidad. El modelo paramétrico ITU-T G.107, también conocido como Modelo E es una herramienta de planificación de la transmisión que provee una predicción de la calidad de voz esperada, percibida por un usuario telefónico típico, para una comunicación telefónica completa end-to-end bajo condiciones conversacionales. La salida primaria del modelo es una escala de evaluación de la calidad de la transmisión. Además, una característica importante de este modelo es el uso de factores de deterioro de la transmisión que reflejan el efecto de los modernos dispositivos de procesamiento de señales [12]. El Modelo E brinda una fórmula computacional bien definida con parámetros específicos de entrada. Dichas entradas son parámetros de calidad obtenidos desde varios equipos de la red y terminales (por ejemplo, demora, códec, eco, ruido, pérdida de paquetes, entre otros), así como un factor de compensación [13]. Su principal ventaja es que tiene en cuenta todo el conjunto de factores que pueden influir en la percepción de la calidad, incluyendo las propiedades de los terminales, las características de los medios de transmisión y los algoritmos de codificación de la señal de voz en caso de líneas digitales. Para servicios de VoIP, el Modelo E es comúnmente utilizado, debido principalmente a su importante característica de brindar distintas fórmulas y la tasa de pérdidas en la QoE. El Modelo E-WB es una versión adaptada del Modelo E de banda estrecha, para banda ancha. La métrica Puntuación de Opinión Media, MOS (Mean Opinion Score), está definida por la UIT-T, y se utiliza para cuantificar la calidad de una conversación de forma subjetiva. En el Modelo E-WB, el valor de MOS se puede obtener a partir del factor psicoacústico R. Dicho factor R, se utiliza para valorar la calidad de voz y se encuentra acotado en un rango entre 0 y 100. El factor R en el Modelo-EW es definido por la ecuación siguiente: ��� = ��,�� − ��,�� − ��,�� − ��,���,�� + � (1) Donde: ��,��: Representa la relación señal/ruido básica, incluido el ruido del circuito y el ruido de la habitación. ��,��: Este aspecto no ha sido analizado en WB hasta el momento, por tanto ��,��= 0. ��,��: Factor de deterioro de retardo. Representa los impedimentos causados por la demora end-to-end. ��,���,��: Factor de deterioro efectivo del equipo �: Este efecto aún no se ha estudiado para el caso de WB, se recomienda � =0. Para esta investigación se toma ��,�� = 129 según [9]. Luego la expresión quedaría de esta forma: ��� = 129 − ��,�� − ��,���,�� (2) Finalmente, se calcula el valor correspondiente de MOS, este proporciona una medida subjetiva que cuantifica el impacto que tiene en el usuario la presencia de fallas en el servicio. Aunque el MOS evalúa la opinión de los usuarios, toma en cuenta además parámetros de la QoS tales como el retardo y la pérdida de paquetes. El MOS toma valores comprendidos entre 1 y 5, siendo 1 la calidad más baja y 5 la calidad más alta percibida. El factor R se debe normalizar a un valor de 100: Rx = Rwb/1.29 MOS = 1 ; �� < 0 1 + 0.035�� + 7�� ∗ 10 −6 �� − 60 ∗ 100 − �� ; 0 ≤ �� ≤ 100 4.5 ; �� > 100 (3) Estos valores cuantitativos del MOS se pueden expresar mediante una descripción cualitativa en función de la opinión de los usuarios finales y la percepción de la degradación de la señal. En este estudio se tuvieron en cuenta además los niveles de satisfacción de los usuarios, que están determinados por rangos de niveles de MOS En la Tabla 1 se muestran estas correspondencias. Tabla 1: Relación cuantitativa y cualitativa del MOS y nivel de satisfacción de los usuarios para diferentes rangos de MOS. Rangos de MOS Descripción de calidad Degradación Grado de satisfacción de los usuarios 4.34-4.50 Excelente Imperceptible Muy satisfecho 44.03-4.34 Bueno Perceptible Satisfecho 3.60-4.03 Aceptable Ligeramente Molesto Muchos usuarios satisfechos 23.10-3.60 Pobre Molesto Muchos usuarios insatisfechos 2.58-3.10 Mala Muy molesto Casi todos insatisfechos Factor de deterioro efectivo del equipo El factor de deterioro efectivo del equipo (��,���,��) se determina según la pérdida de paquetes y se puede determinar por la siguiente fórmula empírica: ��,���,�� = ��,�� + 129 − ��,�� ∗ ��� ��� ������ +��� (4) Donde: ��,�� : Factor de deterioro del equipo sin ninguna pérdida de paquetes, no está relacionado con otros parámetros de entrada, es un valor específico para el códec en cuestión. ���: es la probabilidad de pérdida de paquetes. ���: es el factor de robustez de pérdida, o sea, la capacidad del códec de recuperar los paquetes perdidos. BurstR: es la razón de ráfagas. Los valores de ��,�� y ��� son característicos del códec. La razón de ráfagas o BurstR está definida como: ������ = �������� ����� �� ��� ������� ���������� �� ��� ��������� �� ������� �������� ����� �� ������� ��������� ���� �� ��� ���� �������� ���������� (5) Factor de deterioro de retardo. El cálculo del factor de retardo ��,�� se obtiene mediante la expresión propuesta por la Recomendación G.107.1 de la UIT-T. La expresión se presenta a continuación y fue tomada de [9]: ��,�� = 0.0024 ∗ ��2� + 0.11 ∗ ��2� − 177.3 ∗ H ��2� − 177.3 (6) Donde: H(x) es la función de Heavyside definida como [9]: H x = 0 ; para x < 0 1 ; otro caso (7) Según [9], el retardo de paquetización representa el tiempo que tarda en agrupar f tramas en un paquete, por tanto Dpack = ( f - 1) * T , teniendo en cuenta que cada bloque FEC se forma a partir de k paquetes y se obtienen n paquetes de datos, donde n > k , hay que introducir un retardo en el sistema de modo que en caso de errores sea efectiva la codificación de canal y alcance a detectar y corregir dicho error, en este caso ese retardo se incluye multiplicando la Dencpack por el número de paquetes que entran en la codificación FEC, de este modo, la demora de codificación y paquetización se puede obtener mediante: Dencpack= k * T * f + Ia (8) A partir del análisis anterior, se obtiene que el retardo de extremo a extremo se puede determinar por la siguiente ecuación: De2e= k * T * f + Ia+ (n – k+1) * (T * f * Rs + Hoverhead) * Σℎ 1 �ℎ (9) 2. SIMULACION En la investigación se presentan los parámetros utilizados para la simulación en la plataforma de programación Matlab y se realiza un análisis del impacto de las perdidas en ráfagas en las redes inalámbricas. Para la realización de los experimentos, ver Tabla 2 se tomaron los siguientes valores: Tabla 2: Valores de cada experimento. Experimento Ppl (%) q p Número de paquetes 1 0.4 0.498 0.002 1 800 000 2 1.6 0.492 0.008 1 800 000 3 3.0 0.242 0.008 1 800 000 4 6.32 0.117 0.008 1 800 000 5 7.94 0.115 0.01 1 800 000 Donde Ppl (%) es la probabilidad de pérdida de paquetes, q es la probabilidad de transición del estado 1 al estado 0 y p es la probabilidad de transición del estado 0 al estado 1. En el estado 0 todos los paquetes arribaron correctamente por lo que no ocurren pérdidas, mientras que en el estado 1 se pierde un paquete. Como se puede apreciar en la Figura 2, se ilustra mediante una gráfica la longitud media de las ráfagas con pérdidas de paquetes en ráfagas y la longitud media de las ráfagas con pérdidas aleatorias (Bernoulli). Figura. 2 Relación ente longitud media de ráfagas y Ppl En la figura anterior, se puede observar que la longitud media de las ráfagas en pérdidas aleatorias se mantiene constante con valor igual a dos sin importar cuanto crezca el valor de la probabilidad de las pérdidas de paquetes Ppl. Por otro lado, la longitud media de ráfagas en pérdida de paquetes condicionales aumenta a medida que el valor de Ppl crece. También se observa como aumenta el valor del Burst considerablemente. Esto ocurre debido al aumento de las ráfagas medias condicionales y la Ppl, ya que como se vio anteriormente en la ecuación (5) el Burst es igual a la longitud media de las ráfagas condicionales entre la longitud media de las ráfagas en forma aleatoria. Impacto de las pérdidas en ráfagas en la estimación del MOS. Otra posibilidad muy importante de observar es el impacto que produce las pérdidas de paquetes, como se muestra en la Figura 3 donde se refleja el impacto de las pérdidas en ráfagas en el valor del factor R y por tanto en el valor final del MOS. Para esta simulación únicamente se tomaron los modos (0, 1 y 2), tanto para las pérdidas de paquetes en ráfagas como para las pérdidas de paquetes aleatorias. Como se explicó anteriormente el valor de Id,wb no se tuvo en cuenta en esta simulación. Figura. 3: Relación entre Rx y Ppl. De dicha figura se puede deducir que mientras mayor es la probabilidad de pérdida de paquetes (Ppl) disminuye el valor del Factor R y por ende disminuye el valor del MOS. También podemos observar que al aumentar la probabilidad de pérdida de paquetes la diferencia entre ambas razones de transmisión se va un incrementando. Lo cual quiere decir que la pérdida de paquetes brinda una medida certera acerca de la calidad del servicio al influir negativamente en el valor del MOS. Algoritmo propuesto En esta investigación se propuso encontrar una relación adecuada en la codificación conjunta fuente-canal, con el objetivo de reducir el consumo de ancho de banda sin deteriorar significativamente la calidad percibida por el usuario. El ancho de banda se puede determinar por la ecuación (10) tomada de [9]. ��� = � � * �� + �����ℎ��� �∗� (10) Donde: n y k son los valores de la codificación de canal. Rs: es la razón de bits del modo AMR-WB antes de la codificación de canal. Hoverhead: Número total de bit de cabecera introducidos por los protocolos RTP, IP y UDP. f : Es el número de tramas de voz por paquetes. T: longitud de la trama. Se realizaron cinco experimentos con los valores de Ppl, p y q igual a los presentados en la Tabla 2. Es válido destacar que estos valores no dependen del modo de operación del códec, solamente depende de la combinación k y n de la codificación de canal. Un factor importante a tener en cuenta en la selección del ancho de banda es el MOS, el cual está directamente relacionado con la demora de extremo a extremo. La demora se ve afectada principalmente por la cantidad de paquetes de información que forma el bloque FEC, que coincide con el número de bit de información en la codificación fuente k. Por lo tanto, se observa un incremento de aproximadamente 20 ms cada vez que se incrementa en uno el valor de k. Esto es debido a la espera para completar el bloque FEC de codificación de canal y poder hacer el chequeo de error en el detector, provocando con esto el incremento del tiempo de duración de las tramas en el búfer del receptor. Para la selección del ancho de banda se tuvieron en cuenta los valores de MOS, el cual está estrechamente relacionado con la demora de extremo a extremo. Dicha demora influye notablemente en la percepción de la calidad por parte del usuario como se puede ver en la Figura 4 tomada de [3] donde se aprecia que la demora comienza a influir considerablemente en el valor del factor R aproximadamente partir de los 180 ms y el umbral de tiempo de reacción de 100 ms es aproximadamente el límite en el que un usuario siente que el sistema reacciona instantáneamente. Figura.4: Satisfacción de los usuarios respecto a la demora extremo-extremo Parámetros del algoritmo Los parámetros utilizados para cada uno de los experimentos se muestran a continuación: Valores de la codificación de canal k0=9 y n0=10, Tamaño de trama T= 20 ms, Demora del buffer igual a 40 ms, Número de tramas de voz por paquetes f =1, Retardo de anticipación la =5 ms para cada modo de AMR-WB, Ancho de banda en cada salto h de la trayectoria Bh=50Mbps, Hoverhead igual a 80 bytes y Dharq= 10ms. Generalidades de los Experimentos. Las pérdidas en ráfaga se modelaron mediante una cadena de Markov de dos estados, a las cuales se le definen los valores de p y q. Para la implementación del modelo E-W se creó una variable que simula la transmisión de una determinada serie de paquetes sobre un canal de comunicación. Un evento 0 indica la pérdida de paquetes y el evento 1 indica el arribo del paquete a la estación base. Además, se generan mediante otras variables la cantidad de ráfagas, cantidad de paquetes perdidos, promedio de las ráfagas y la probabilidad de la perdida de paquetes. La codificación de fuente utiliza un código ajustable AMR-WB con sus 9 modos de trabajo. El Modo 0 es descartable por los valores de MOS que presenta, brindando una mala calidad. El Modo 8 a su vez se descarta ya que para lograr los niveles de satisfacción esperados consume un ancho de banda extremadamente exagerado. 3. RESULTADOS DE LOS EXPERIMENTOS Como se aclaró los valores tomados fueron los mostrados en la Tabla 2 Estos valores permiten generar las pérdidas de paquetes en ráfagas que logran analizar el impacto que estas tienen sobre el ancho de banda y el MOS. Se realizaron las diferentes combinaciones de n y k obteniendo un ancho de banda relativamente bajo sin deteriorar la calidad de percepción del usuario. Para la selección de estas razones de transmisión se tomaron en consideración que los valores de MOS deberían estar por encima de cuatro, debido que a partir de este valor los usuarios están de alguna manera satisfechos. Teniendo en cuenta lo antes dicho se realizó una selección exhaustiva de los Bw. Los experimentos se hacen para todos los modos del códec AMR-WB con el objetivo de encontrar cuál de ellos brinda una mejor relación de compromiso entre el MOS y el Bw. Tabla 3: Experimento 1. Ppl(%) = 0,4 q = 0,498 p = 0,002 N = 1 800 000 Mo do MOS max MOS opt RedMOS % Bw max bps bbps Bw opt bps Red BW% K max N max kopt nopt 1 4,042553 7 4,030429 2 0,2999203 110200 21700 80,30853 1 12 6 12 2 4,370572 4 4,076882 9 6,719703 155800 17800 88,575096 1 12 11 12 3 4,387452 7 4,046676 4 7,7670654 175000 19437,5 88,892857 1 12 12 13 4 4,432107 5 4,060905 1 8,3753008 194200 21069,231 89,150757 1 12 13 14 5 4,456723 6 4,044876 86 9,153697 223000 23553,571 89,43786 1 12 14 15 6 4,467427 5 4,075157 7 8,7806647 242200 25267,857 89,567359 1 12 14 15 7 4,492891 3 4,035007 10,191305 280600 28490,625 89,846534 1 12 16 14 En el experimento 1, ver Tabla 3 se observa como con k=11 y n=12 se obtiene un ancho de banda óptimo 17,8 Kbps, con una reducción de ancho de banda de 88,5 %, manteniendo un MOS por encima de 4. Resultando ser el Modo 2 el más efectivo. Tabla 4: Experimento 2. Ppl(%) = 1,6 q = 0.492 p = 0.008 N = 1 800 000 Mo do MOSmax MOSopt RedMOS % Bwmax bps Bwopt bps RedBW% kmax nma x kopt nopt 1 4,0425156 4,032384 0,2506222 145600 26125 82,057005 1 16 6 15 2 4,3705724 4,045707 7,4324366 206400 18231,25 91,16703 1 16 8 9 3 4,3874527 4,093460 6,7002478 232000 20031,25 91,365841 1 16 8 9 4 4,4321075 4,087379 7,7775126 257600 21611,111 91,610594 1 16 9 10 5 4,4567236 4,061548 8,8665459 296000 24075 91,866554 1 16 10 11 6 4,4674275 4,082130 8,6242166 321600 25835 91,966729 1 16 10 11 7 4,4928913 4,049050 9,8785048 372800 28970,833 92,228854 1 16 12 13 En el experimento 2, ver Tabla 4 se observa como con k=8 y n=9 se obtiene un ancho de banda óptimo 18,2 Kbps, con una reducción de ancho de banda de 91,1 %, manteniendo un MOS por encima de 4. Resultando ser el Modo 2 el más efectivo. Tabla 5: Experimento 3. Ppl (%) = 3 q = 0,242 p = 0.008 N = 1 800 000 Mod MOS-max MOS-opt RedMOS % Bwmax bps Bwopt bps RedBW % kmax x nmax kopt nopt 1 4,0419311 4,0301733 0,2908962 278350 49725 82,1358 1 31 6 31 2 4,3701305 4,0432218 7,4805234 396150 27492,857 93,05998 8 1 31 7 13 3 4,3870641 4,0305509 8,1264636 445750 28428,571 93,62230 6 1 31 7 12 4 4,4317576 4,0750221 8,0495267 495350 31171,429 93,70719 1 1 31 7 12 5 4,4564095 4,0393636 9,3583387 569750 33656,25 94,09280 4 1 31 8 13 6 4,4671365 4,0427023 9,5012588 619350 35192,857 94,31777 6 1 31 7 11 7 4,4927025 4,0665535 9,485359 718550 36928,571 94,86068 2 1 31 7 10 En el experimento 3, ver Tabla 5 se observa como con k=7 y n=13 se obtiene un ancho de banda óptimo 27,4 Kbps, con una reducción de ancho de banda de 93,0 %, manteniendo un MOS por encima de 4. Resultando ser el Modo 2 el más efectivo. Tabla 6: Experimento 4. Ppl (%) = 0.6,37 q = 0.498 p = 0,117 N = 1 800 000 Mod MOSmax MOS-opt RedMOS % Bwmax bps Bwopt bps RedBW% kma nma x kopt nopt 1 4,038047 3 4,030141 5 0,1957214 588100 117280 80,057813 1 66 5 64 2 4,370572 4 4,038068 1 7,5400085 838900 54600 93,491477 1 66 9 36 3 4,387452 7 4,038982 8 7,8833135 944500 57833,333 93,876831 1 66 9 34 4 4,432107 5 4,032392 1 8,9664847 1050100 59475 94,336254 1 66 10 35 5 4,456723 6 4,031274 1 9,4998921 1208500 65386,364 94,589461 1 66 11 37 6 4,467427 5 4,044333 4 9,4277405 1314100 70166,667 94,660477 1 66 12 40 7 4,492891 3 4,033132 6 10,205483 1525300 74796,429 95,096281 1 665 14 43 En el experimento 4, ver Tabla 6 se observa como con k=9 y n=36 se obtiene un ancho de banda óptimo 54,6 Kbps, con una reducción de ancho de banda de 93,4 %, manteniendo un MOS por encima de 4. Resultando ser el Modo 2 el más efectivo. Tabla 7: Experimento 5. Ppl (%) = 8 q = 0,498 p = 0,01 10N = 1 800 000 Mod o MOSmax MOSopt RedMOS % Bwmax bps Bwopt bps RedBW% kma x nmax kopt no pt1 4,038853 4,030153 0,2154015 579250 120820 79,14199 1 65 5 66 2 4,367942 4,044204 7,411689 826250 58816,667 92,88149 1 65 9 39 3 4,385141 8 4,038173 7,912370 930250 62425 93,28943 1 65 10 41 4 4,430024 2 4,043097 8,734191 1034250 64230 93,78970 1 65 10 38 5 4,454851 3 4,04203 9,266780 1190250 70363,636 94,08833 1 65 11 40 6 4,465692 4,038175 9,573357 1294250 74377,273 94,25325 1 65 11 39 7 4,491762 4,032042 10,23472 1502250 79436,364 94,71217 1 65 11 36 En el experimento 5, ver Tabla 7, con una probabilidad de pérdidas de paquetes elevadas se observa como con k=9 y n=39 se obtiene un ancho de banda óptimo 58,8 Kbps, con una reducción de ancho de banda de 92,8 %, manteniendo un MOS por encima de 4. Resultando ser el Modo 2 el más efectivo. Luego del análisis de los experimentos mostrados anteriormente, se puede concluir que teniendo en cuenta la probabilidad de pérdidas en ráfagas en el Modelo E- WB, se pudo constatar que, manteniendo los niveles de satisfacción de los usuarios, el Modo 2 realiza un mejor ahorro del ancho de banda. Ya que el mismo Modo 2 fue el predominante en todos los experimentos bajo diferentes circunstancias. 4. CONCLUSIONES El Modelo E es muy utilizado para evaluar la calidad de experiencia por parte del usuario en redes de comunicaciones. Se determinó que, al utilizar este modelo teniendo en cuenta el fenómeno de las pérdidas de paquetes aleatorias y no en ráfagas el mismo no brinda una evaluación rigurosa de la calidad percibida. Dentro de los modelos de estimación de la calidad el Modelo E –WB es de gran utilidad, dado que no necesita de la señal original para estimar la calidad del servicio. Por lo tanto, el modelo resulta ser uno de los más idóneos para analizar el comportamiento de los niveles de ráfagas en transmisiones de voz. Al analizar los experimentos realizados, se pudo observar que manteniendo el nivel de satisfacción en los usuarios el modo 2 fue el predominante en todos los experimentos al ahorrar mayor ancho de banda. Dado los experimentos se puede concluir que el modo del códec es el que más influye a la hora de mantener niveles de satisfacción altos sin comprometer el ancho de banda. RECONOCIMIENTOS Los autores desean agradecer al Profesor Mrsc. Carlos Rodríguez y a todos los que ayudaron de una manera u otra a la realización de este trabajo. REFERENCIAS 1. CARUGI, M. Key features and requirements of 5G/IMT-2020 networks. 14–15. 2018. 2. RUIZ GUIROLA, D. E; RODRIGUEZ LOPEZ, C.A; MONTEJO SANCHEZ, S; SOUZA R. D; LOPEZ, L. A; ALVES, H. "Energy-Efficient Wake-Up Signalling for Machine-Type Devices Based on Traffic-Aware Long-Short Term Memory Prediction," in IEEE Internet of Things Journal, 2022, doi: 10.1109/JIOT.2022.3181889. 3. RUIZ GUIROLA, D. E; RODRIGUEZ LOPEZ, C.A; MONTEJO SANCHEZ, S; SOUZA R. D, MUHAMMAD A. I. "DRX‐based energy‐efficient supervised machine learning algorithm for mobile communication networks." IET Communications 15, no. 7 (2021): 1000-1013. 4. BOTTA , A. ; y PESCAPE , A. «IP packet interleaving for UDP bursty losses», J. Syst. Softw., vol.109, pp. 177-191, 2015. 5. DELGADO, P. A. «Impacto de los mecanismos de handover en la calidad percibida por usuarios de servicios de voz en LTE», Univ. Cent. “Marta Abreu” Las Villas St. Clara Villa Clara Cuba, 2015. 6. ALMEIDA SERRA, G; RODRIGUEZ LOPEZ, C. A. «Adaptación de la codificación conjunta fuente- canal para optimizar el ancho de banda de trasmisión de voz sobre la red LTE», 2020. Disponible en׃ Revista Telemática. Vol. 19 No. 2, Mayo-Agosto, 2020, p. 31-42. 7. LEE, H. J; KIM J. H; KWUN, J.H; LEE O. S. «A handover time negotiation mechanism for seamless service in IEEE 802.16 E», presentado en MILCOM 2008-2008 IEEE Military Communications Conference, 2008, pp. 1-7. 8. MATTA, J; PEPIN C; LASHKARI K; JAIN R. «A source and channel rate adaptation algorithm for AMR in VoIP using the Emodel», presentado en Proceedings of the 13th international workshop on Network and operating systems support for digital audio and video, 2003, pp. 92-99. 9. NGUYEN, D. H, NGUYEN, H. «A dynamic rate adaptation algorithm using WB E-model for voice traffic over LTE network», presentado en 2016 Wireless Days (WD), 2016, pp. 1-6. 10. SOLODUCHA, M; RAAKE, A. «Speech quality of VoIP: bursty packet loss revisited», presentado en Speech Communication; 11. ITG Symposium, 2014. 11. OROZCO CRESPO E. «Evaluación del impacto del intercalado de paquetes en servicios de voz sobre redes de paquetes propensas a pérdidas en ráfagas», 2016. 12. ITU-T, Rec. G.107 (2011) The E-model: a computational model for use in transmission planning, p. 20, 2011. 13. SIOMINA, I, WANSTEDT, S. "The Impact of QoS Support on the End User Satisfaction in LTE Networks with Mixed Traffic," IEEEComunication Magazine, 2010. 14. LEE, H. J; KIM, J. H. «A handover mechanism considering the abstracted R-factor», IEEE Trans. Veh. Technol., vol. 63, n.o 6, pp. 2687-2696, 2014. 15. UIT-T, «Rec. G.722.2 (2003) Wideband coding of speech at around 16 kbitps using Adaptive Multi- Rate Wideband (AMR-WB) », Int. Telecommun. Union Geneve Switz., p. 72, 2003. SÍNTESIS CURRICULAR DE LOSAUTORES Isis Ferrán Fernández CI:71050819153, 8 de mayo de 1971, Sagua la Grande, Villa Clara, Cuba. Graduado de Ingeniero en Telecomunicaciones en el año 1994 en el Instituto Superior Politécnico José Antonio Echevarría (ISPJAE) en Ciudad de la Habana. Labora en el CSGT del Centro Telefónico de Santa Clara en el cargo de Técnico en Telemática del Departamento Grupo de Supervisión y Gestión de alarmas. Cursó Diplomado en Administración de Redes 2017 y Diplomado de Redes de Telecomunicaciones 2020 en la UCLV. Se desempeña también como profesor de varias asignaturas en el IPI Lázaro Cárdenas del Río de Santa Clara, especialidad Técnico Medio en Telecomunicaciones. Participación en Fórum de Ciencia y Técnica a nivel de Empresa. Eric Armando Rojo Martin CI: 73092413640, 24 de septiembre de 1973, Santa Clara, Cuba. Graduado de Ing: Telecomunicaciones y Electrónica en la Central de Las Villas “Marta Abreu” UCLV el 16 julio 2004. Cursó Estudios en el Centro de Adiestramiento Aviación y el Laboratorio de Investigaciones de Tecnologías Aeronáuticas, LITA, Habana; Diplomado Administración de Redes 2017, Diplomado Redes de Comunicaciones 2020 UCLV. Publicaciones: Génesis de la Televisión Digital en Cuba Editorial Académica Española ISDN 978-613-9-28699-7 2018. Revista Cubana de Navegación Aérea ECNA y participación en Fórum de Ciencia y Técnica a nivel de Empresa. Trabaja en Empresa Cubana de Navegación Aérea. UEB Santa Clara. Se desempeña también como profesor de varias asignaturas en el IPI Lázaro Cárdenas del Río de Santa Clara, especialidad Técnico Medio en Telecomunicaciones. COBERTURAMÁXIMA DE RADAR DE BLANCOS NAVALES Y A BAJA ALTURA PARA EL ESTADO DEL MAR COMO PARÁMETRO. PREDICCIÓN DEL ESTADO DEL MAR POR RADAR MAXIMUN RADAR COVERAGE OF NAVAL AND LOW FLYING TARGETS FOR THE SEA STATE AS A PARAMETER. RADAR PREDICTION OF THE SEA STATE Nelson Chávez Ferry1, Giorgia Rodríguez Almaguer2, Lena Lizbet La Ó Ramirez3, Dayron Manuel Santana García4 1Profesor Titular, Consultante, CUJAE, 2 Instructor, CUJAE, 3 Empresa Eléctrica - Matanzas, 3ETECSA 1e-mail: nelson@tele.cujae.edu.cu, 2e-mail: giorgiara@nauta.cu, 3e-mail: lenalisbet@nauta.cu, 4e-mail: dayronmlsg@nauta.cu RESUMEN En este artículo se presenta, para blancos navales y a baja altura, un nuevo enfoque para la predicción de la cobertura de radar y la óptima selección de su ubicación, basado en el criterio de máxima cobertura de la superficie iluminada del mar. Este método propone un modelo para la superficie efectiva de retrodispersión normalizada de la superficie del mar, para radares de costa y navales ubicados en el terreno, que operan en la banda X con polarización horizontal, cuyas alturas de la antena con relación al nivel del mar permiten el uso de las tablas de Nathanson para ángulos de rasancia entre 0,10 y 10. Se propone también un segundo método, para estimar el estado del mar mediante el procesamiento de la señal a la salida del receptor, empleando también las tablasde Nathanson. En ambos casos, los algoritmos desarrollados son aplicados a un terreno simulado, para dos tipos de radares navales, mostrándose los resultados. PALABRAS CLAVES: Superficie efectiva de retrodispersión normalizada de la superficie marina, coberura de radar, estado del mar, modelos de Swerling, radares navales y de costa, ángulo de rasancia. ABSTRACT In this paper is presented, for naval and low flying targets, a new approach for the prediction of the radar coverage and the optimal selection of its ubication, based on the criterion of maximun coverage of the illuminated sea surface. This method is based on a proposed model for the normalized backward radar cross section of the sea surface, for coastal and nautical radars positioned on the terrain, operating in the X band with horizontal polarization, whose antenna heights above sea level allow the use of Nathanson tables for grazing angles between 0,10 and 10.A second method is also proposed, to estimate de sea state through the processing of the signal at the output of the receiver using the Nathanson tables. In both cases, the developed algotithms are applied to a simulated terrain, for two types of nautical radars, showing the results. KEYWORDS: Normalized radar cross section of the sea surface, radar coverage, sea state , Swerling model, nautical and coastal radars, grazing angle. 1. INTRODUCCIÓN La predicción de la zona de visibilidad o cobertura de radar es fundamental para evaluar la calidad con la cual un sistema de radar realiza la observación de una región determinada o para seleccionar el sistema apropiado que cumpla con las exigencias deseadas. Son diversos los métodos de cálculo empleados en la determinación de los parámetros de la zona de visibilidad de un sistema de radar, tanto los que aparecen publicados, entre ellos [1 - 4], como los que se encuentran incluídos en los cursos de pregrado y postgrado de teoría y aplicaciones de radar. En el cálculo de la cobertura, interviene el efecto provocado por la dispersión de las ondas de radio en la superficie del mar, en particular la retrodispersión, conocido por clutter marino, que origina interferencia al mezclarse con la señal útil o señal procedente del blanco, siendo fundamental, para la calidad de la detección, el nivel de la relación señal a clutter a la entrada del umbral de detección [ 5 - 7 ]. En este trabajo se hace un enfoque novedoso de este problema, para el caso de blancos navales y a baja altura, proponiendo un algoritmo para el cálculo de la cobertura y la elección de su ubicación para maximizar el área de la superficie marina iluminada, considerando el estado del mar como parámetro explícito de referencia, partiendo del cual se obtienen los valores de la superficie efectiva de retrodispersión normalizada o específica (SERDE), tomados de la tablas de F.E. Nathanson [ 8 ]. Este método de predecir la cobertura, constituye, en opinión de los autores de este trabajo, un aporte a los métodos de predicción de la cobertura de radar para blancos sobre la superficie marina o a baja altura sobre ella. Además de este algoritmo, en el artículo se fundamenta otro que permite, a partir de la señal de salida de la etapa de video del receptor del radar, estimar el estado del mar, lo que tributa al conocimiento del entorno marino, a la seguridad de la navegación y a la meteorología marítima. 2. PLANTEAMIENTO DEL PROBLEMA. MODELO PROPUESTO PARA LA SUPERFICIE EFECTIVA DE RETRODISPERIÓN NORMALIZADA DE LA SUPERFICIE DEL MAR Suponiendo tierra plana, lo que puede aceptarse teniendo en cuenta que, generalmente en la práctica, para radares navales y de observación de costa, las distancias a las que se espera detectar blancos son menores de 20 millas náuticas, la geometría del problema es la mostrada en la figura 1, para dos casos, cuando no hay obstáculos en el terreno que provoquen ángulos de cierre, figura 1a, y cuando los hay dando lugar a ello. Durante la exploración por distancia de la superficie del mar, para cada acimut considerado, en el tramo AB, correspondiente a los ángulos de rasancia Ae , Be y a las distancias horizontales AR , BR , donde es posible obtener, como se explicará más adelante, los valores de la superficie efectiva de retrodispersión específica (SERDE), se evalúa la relación señal a clutter (RSC), empleando las ecuaciones de radar para un blanco puntual y para uno distribuído de forma superficial [ 5 ]. De la familia de curvas, DP vs RSI, correspondiente a los modelos de blanco puntual y clutter considerados, para el valor hallado de la RSC y para la probabilidad de falsa alarma FP dada, se obtiene la probabilidad de detección DP , que comparada con la exigida *DP , permite determinar el límite de la zona de visibilidad o cobertura para el acimut considerado, lo que se cumple cuando *£ DD PP Repitiendo esta operación para cada acimut, hasta cubrir el sector angular considerado, queda determinada la cobertura de radar, para los modelos supuestos, del blanco puntual que se desea detectar, ya sea un blanco naval o uno a baja altura, y del clutter marino, con el estado del mar como parámetro. La interferencia provocada por el clutter marino y por tanto, la RSC, está determinada, tanto por los parámetros del radar empleado, como por las características del medio que rodea al radar y de la SERDE de la superficie del mar, que en lo adelante se representará por  0. Varios son los modelos propuestos para la SERDE, los más empleados [9, 10 ] son, NRL, GTI, Modelo Híbrido y TSC. Estos modelos toman como referencia las tablas de Nathanson [ 8 ] las que dan los valores promedios de la SERDE, para radar monoestático de pulsos, la frecuencia de la señal de sondeo empleada, la polarización (horizontal o vertical), el ángulo de rasancia y el estado del mar. El GTI (Georgia Technological Institute) fue uno de los primeros modelos propuestos, a finales de la década del 70. Los modelos híbridos y TSC han mejorado las características del GTI, pero el que más aceptación ha tenido es el NRL (Naval Research Laboratory), que en síntesis es el siguiente, donde SS representa el estado del mar. ( ) ( ) SSCCSSC SSCC fCC senCC 982 1 0 17 651 1043 1021 ++++++ +++= aa aa loglog (1) El objetivo de la investigación, expuesta en este artículo, es predecir la zona de visibilidad o cobertura para radares navales y de costa, los cuales, por lo general, operan en la banda X con polarización horizontal, cumpliéndose, además, de tener los ángulos de rasancia valores pequeños, en el caso de esta investigación estarán comprendidos entre 0,10 y 10. Es por ello que se propone un modelo para la SERDE en correspondencia con estas condiciones, modelo más sencillo que el de la NRL y que se ajusta a las POLARIZACIÓN CONSTANTE HORIZONTAL VERTICAL C1 -72,76 -48,56 C2 21,11 26,30 C3 24,78 29,05 C4 4,917 -0,5183 C5 0,6216 1,057 C6 -0,02949 0,04839 C7 26,19 21,37 C8 0,09345 0,07466 C9 0,05031 0,04623 TABLA 1 Constantes para el modelo NRL Figura.1 Geometría del problema: a) Ausencia de ángulos de cierre; b) Presencia de ángulo de cierre. tablas de Nathanson, con un error absoluto promedio de 2 dB. El modelo y la correspondiente tabla de constantes, para radar monoestático de pulsos, banda X, duración del pulso de 0,5  s a 10  s y polarización horizontal, son los siguientes ( ) ( ) 00 0 0 110 1 ££ -+= e ee , exp dBcba (2) 3. ALGORITMO PARA EL CÁLCULO DE LA COBERTURA DE RADAR Y LA ELECCIÓN ÓPTIMA DEL EMPLAZAMIENTO Las potencias medias sP y cP de las señales procedentes del blanco puntual que se desea detectar (buque, aeronave) y de la superficie del mar, respectivamente, se expresan por [ 5, 11 ] ( ) ( ) LR GP P ap s 43 22 4 0 p le= (3) ( ) ( )( ) ( ) e ddbddb ep ddble p le cos cos RR RR RL RGP LR GP P hc ap cap c 00 0 33 22 43 22 4 4 == = = (4) Dividiendo (3) entre (4) se obtiene la RSC cs PP / , dada por 0 0 ddb  RRP P c s = (5) Significado de los símbolos empleados en las fórmulas de la (3) a la (5) R --------- Alcance del radar (distancia entre el radar y el blanco). pP --------- Potencia del pulso de RF de sondeo. cP --------- Potencia del clutter proveniente de la célula resolutiva que contiene al blanco a la entrada de la antena. sP --------- Potencia de la señal reflejada por el blanco a la entrada de la antena. L --------- Pérdidas en el sistema de radar, más las producidas durante la propagación de las señales de RF (sondeo y reflejada) e --------- Ángulo de rasancia. t --------- Duración del pulso de RF de sondeo. db -------- Poder resolutivo por azimut = ángulo del lóbulo principal del patrón de radiación, medido por los puntos de -3dB en el plano, normal al plano vertical, que pasa por la dirección de máxima radiación . Rd -------- Poder resolutivo por distancia igual a 2tc . Estado del mar Constantes 1 2 3 4 5 a 73 62,2 55 48,5 42,5 b 0 0 0 0,65 0,76 c 1/3 1/3,4 1/3 0,8 0,8 TABLA 2 Constantes para el modelo propuesto ( )eaG --------- Ganancia de potencia de la antena. l ---------- Longitud de onda de la portadora de la señal de sondeo. 0 ---------- Superficie efectiva de retrodispersión media del blanco (SERD). 0 ---------- Superficie efectiva de retrodispersión normalizada media del clutter. ah ---------- Altura de la antena con relación al nivel del mar. cs PP ---------- Relación entre la potencia media de la señal del blanco y la potencia media del clutter. Algoritmo propuesto [11]: Figura.2 Diagrama de bloques del algoritmo para el cálculo de la cobertura de radar (bloques 1 - 23) OPERACIONES INDICADAS EN EL DIAGRAMA DE BLOQUES DEL ALGORIMO 1 - Datos de entrada: ( ) .,,,, ,,,:,,, ,,,,, maxmin maxmin 00 000 110124 3105536050 3903305013 ===== =====D=D ===D== eeeer bbdb BA D a cbaEMmarladeestadoPmYX mRmh 2 – Variables de control 3 – Cálculo del ángulo de elevación al horizonte de radio. 4 y 5 – Determinación del posible cálculo de la cobertura. Si es Ae mayor que Be significa que el intervalo de distancia, AB RR - a considerar se encuentra más allá del horizonte de radio lo que evidentemente hace que sea imposible el cálculo de la cobertura de radar. Fig.3 Diagrama de bloques del algoritmo para el cálculo de la cobertura de radar (bloques 24 – 37) 6. – Valores que va tomando el azimut b , con paso db, para cada valor de n. 7 -- Valores que va tomando la distancia R , con paso D R, para cada valor de m. 8 – Coordenadas rectangulares del punto P sobre la superficie terrestre (marina) para cada valor de m, tomando como referencia el origen de coordenadas dado en el mapa digital altimétrico (tabla). 9 – Obtención de la columna i y la fila j de la tabla dada, a partir de las coordenadas obtenidas en el punto 8, donde aparece la altura th del terreno correspondiente al punto P. 10 – Lectura en la Tabla de la altura th correspondiente al punto P. 11 – Control, si para el valor actual de m , el punto P se encuentra sobre el terreno o sobre la superficie marina. El cálculo de los ángulos de cierre ce solo tienen lugar sobre la superficie del terreno 12 – Se pregunta si hay irregularidad del terreno; si no la hay ( 0=th ) se realiza un incremento de R, correspondiente a un nuevo valor de m. Si hay una irregularidad del terreno ( 0>th ) se pasa al punto 14 para calcular el ángulo de cierre correspondiente. 13 – Incremento de la distancia R en un paso D R. 14 – Cálculo del ángulo de elevación e , para el punto P actual, para considerarlo como posible ángulo de cierre ce . 15 al 19 – Se decide si el ángulo de elevación e es ángulo de cierre ce , terminando el recorrido hasta el final del terreno ( 0. 8. JONGHYON, Kim; WONKYO, Choe; JUONGSEOB, Ahn. “Exploring the Design Space of Page Management for Multi-Tiered Memory Systems”, 2021, pp. 4-12. 9. BOTH, David. The Linux Philosophy for SysAdmins: Using the Linux FHS. Apress, Berkeley, CA , agost. 2018, pp. 81-105. ISBN 978-1-4842-3730-4. 10. ADITYAS, Widjajarto; DEDEN W, Jacob; MUHARMAN, Lubis. “Live migration using checkpoint and restore in userspace (CRIU): Usage analysis of network, memory and CPU”, Bull. Electr. Eng. Inform., abr. 2021, vol 10, num. 2. 11. Linuxtotal. Uso y control de servicios en Linux [en línea], [ref. de 2020]. Disponible en Web: https://linuxtotal.com.mx/index.php?cont=info_admon_003. 12. BALAZ, Gerofi; et al.,"Performance and Scalability of Lightweight Multi-kernel Based Operating Systems”, 2018 IEEE International Parallel and Distributed Processing Symposium (IPDPS), Vancouver, BC, may 2018, pp. 116-125. Sobre los autores Daniel Rubén García Avila. Ingeniero en Telecomunicaciones y Electrónica CUJAE. Profesor Adiestrado, Integrante del proyecto TeleHPC de la Facultad de Ingeniería en Telecomunicaciones y Electrónica de la CUJAE. Omar Antonio Hernández Duany. Licenciado en Análisis de Sistemas Especiales de Comunicaciones y Licenciado en Cibernética Matemática UH. Máster en Ciencias en Procesamiento digital de señales CUJAE. Investigador Auxiliar, Profesor Auxiliar, Jefe de la disciplina de programación y de Laboratorio de Computo de Alto Rendimiento para las Telecomunicaciones de la Facultad de Ingeniería en Telecomunicaciones y Electrónica de la CUJAE. PREDICCIÓN DE VIOLACIONES EN LOS SLA EN REDES DE NUEVA GENERACIÓN: UNA PROPUESTA Joan David González Franco1, Raúl Rivera Rodríguez2, Jorge Enrique Preciado Velasco3, José Lozano Rizk4 1,2,3,4Centro de Investigación Científica y de Educación Superior de Ensenada, Carretera Ensenada- Tijuana No. 3918 Zona Playitas, CP 22860, Ensenada, B.C, México. 1e-mail: joandavid@cicese.edu.mx 2e-mail: rrivera@cicese.edu.mx 3e-mail: jprecia@cicese.edu.mx 4e-mail: jlozano@cicese.edu.mx RESUMEN Hoy en día los usuarios demandan servicios y aplicaciones (realidad aumentada, virtual, cirugía remota, entre otros) cada vez más especializados, lo que incide en los últimos años en un rápido crecimiento y desarrollo de dispositivos inteligentes, sensores de Internet de las Cosas (IoT), etc. En consecuencia, los requerimientos de red se han vuelto más exigentes, críticos y de mayor dinamismo con el objetivo de lograr altas tasas de transferencias de datos, conectividad masiva, ultra bajas latencias, y alta confiabilidad. Las redes de nueva generación (5G/B5G) manejan una gran cantidad de parámetros que dificultan su gestión con el modelo tradicional. Aún es insuficiente con la ayuda e implementación de tecnologías como Redes Definidas por Software (SDN), Virtualización de Funciones de Red (NFV) y Segmentación de Red (NS), que mejoran considerablemente el desempeño de la red al enfocarla en servicios. En la relación cliente-proveedor de servicios de telecomunicaciones, este último debe cumplir con los Acuerdos a Nivel de Servicio (SLA) y contar con un mecanismo de gestión automatizada en todos los niveles. En este artículo se resumen las características principales de la red 5G, así como las tecnologías que la apoyan. Además, se expone una propuesta para lograr un esquema de gestión automatizada que permita una mejor repartición (aprovisionamiento) de los recursos en la red. PALABRAS CLAVES: 5G, SLA, SDN, NFV, Segmentación de Red. PREDICTION OF SLA VIOLATIONS IN NEW GENERATION NETWORKS: A PROPOSAL ABSTRACT Nowadays, users demand increasingly specialized services and applications (augmented reality, virtual reality, remote surgery, among others), which has affected the rapid growth and development such smart devices and Internet of Things sensors (IoT). Consequently, network requirements have become more demanding, critical, and dynamic to achieve high data transfer rates, massive connectivity, ultra-low latencies, and high reliability. New generation networks (5G/B5G) handle many parameters that make it difficult to manage with the traditional model. It is still insufficient with the help and implementation of technologies such as Software Defined Networks (SDN), Network Functions Virtualization (NFV), and Network Segmentation (NS), which considerably improve network performance by focusing on services. In the client-telecommunications service provider relationship, the latter must comply with the Service Level Agreements (SLA) and have an automated management mechanism at all levels. This article summarizes the 5G network's main characteristics and the technologies that support it. In addition, we present a proposal to achieve an automated management scheme that allows a better distribution (provisioning) of resources in the network. KEYWORDS: 5G, Network Slices, NFV, SDN, SLA. 1. INTRODUCCIÓN Las comunicaciones móviles han cambiado profundamente la vida cotidiana, y el deseo de las personas por una comunicación móvil de mayor rendimiento nunca termina [1]. Desde que empezó la 1ra Generación (1G) hasta la 4G, es una transición de aproximadamente 10 años. Sin embargo, se esperaba poner en práctica 5G en el año 2020, y la verdad, aún está lejos de implementarse en su totalidad. 5G emerge para conocer demandas nuevas y sin precedentes más allá de la capacidad de los sistemas de generación previa. 5G penetra en cada elemento de la sociedad y se centra en un ecosistema de información centrado en el usuario [1]. El gran número de servicios y aplicaciones que han emergido en los últimos años han provocado que los proveedores de contenido de redes móviles de nueva generación aumenten drásticamente su capacidad para brindar estos servicios. Esto se debe en gran parte también al aumento del tráfico de datos, la cantidad de nuevos dispositivos y sensores de Internet de las Cosas (IoT, por las siglas del término en inglés, Internet of Things), ciudades inteligentes (smart cities), vehículos autónomos, la 4ta Revolución Industrial (4RI), etc. [2]. Esta cantidad de nuevos servicios y dispositivos requieren características distintas, pero a la vez, en algunos casos, muy semejantes. La Unión Internacional de Telecomunicaciones (ITU, por las siglas del término en inglés, International Telecommunications Union) planteó que con 5G hay tres casos de uso fundamentales: Banda Ancha Móvil Mejorada (Enhanced Mobile Broadband), Comunicaciones de ultra- baja Latencia y de Alta Confiabilidad (Ultra-reliable and Low Latency Communication), y Comunicación Masiva tipo Máquina-Máquina (Massive Machine Type Communication), (eMBB, urLLC, y mMTC, por las siglas de los términos en inglés respectivamente) [3]. En la Fig. 1 se puede ver una representación de estos casos de uso genéricos y algunos servicios 5G. Además, se ve como hay servicios que tienen características propias de un solo caso de uso (vehículos autónomos por ejemplo, urLLC) y a su vez, algunos presentan características de dos, como es el caso de realidad aumentada (eMBB y urLLC). Figura 1: Ejemplos de servicios 5G y sus casos de uso genéricos [3]. Precisamente que los servicios presenten características semejantes hace difícil su identificación y dificulta saber cuáles son los recursos necesarios por asignar. En la figura 2 [4] se puede comprobar la heterogeneidad que presentan algunos de estos servicios. Se observa que cuando los requerimientos de red se hacen más exigentes, es más difícil la clasificación de servicios. Estos requerimientos hacen aún más rígido analizar los servicios y los tráficos a través de la red para, y una vez identificados, poder tomar acciones que lleven a un mejor aprovisionamiento de los recursos por parte del proveedor de servicios. En consecuencia, esto conlleva al cumplimiento de los Acuerdos a Nivel de Servicio (SLA, por las siglas del término en inglés, Service Level Agreement) entre el proveedor y el cliente. En esta parte es fundamental el empleo de técnicas de Inteligencia Artificial y Aprendizaje Automático (AI y ML, por las siglas de los términos en inglés respectivamente, Artificial Intelligence y Machine Learning), para reconocer parámetros y ayudar a mejorar la gestión de la red. Figura 2: Distribución de algunos servicios 5G [4]. El resto de este artículo está organizado de la siguiente manera. La sección 2 brinda las características de las arquitecturas de las redes móviles de la actualidad (4G) y la comparación con 5G. En la sección 3 se explica la propuesta para lograr una gestión automatizada con el objetivo de evitar la violación de los SLA y la sobreasignación de recursos de red. Finalmente, en la sección 4 se dan las conclusiones y recomendaciones futuras de este trabajo. 2. ARQUITECTURA DE LAS REDES MÓVILES Red 4G La arquitectura de la red 4G tiene un estilo que se conoce como “one size fit all”, es decir, todos los servicios son tratados de manera similar por la Red de Acceso de Radio (RAN, por las siglas del término en inglés, Radio Access Network) y luego transmitidos a la red central o al núcleo de red (core network) [5]. En la figura 3 se muestra la arquitectura de esta red móvil. Figura 3: Arquitectura de la red 4G [5]. Se puede inferir que esta red hace un aprovechamiento ineficiente de sus recursos, ya que no hace diferencia en cómo tratar cada servicio en particular. Esto ocasiona que se tengan problemas de conexión, velocidad, y una mala Calidad de Servicio (QoS, por las siglas del término en inglés, Quality of Service), por tanto, se contribuye a una mala Calidad de Experiencia (QoE, por las siglas del término en inglés, Quality of Experience) para los usuarios [5]. Red 5G Por el contrario, 5G se auxilia de tecnologías emergidas como Redes Definidas por Software, Virtualización de Funciones de Red (SDN y NFV, por las siglas de los términos en inglés, Software Defined Networks y Network Function Virtualization; respectivamente) y Segmentación de Red (NS, por las siglas del término en inglés, Network Slicing) [6]. Estas tecnologías permiten, además de mejorar la escalabilidad, flexibilidad y dinamismo de la red, la optimización de servicios en particular, y reducir así riesgos y costos. SDN separa el plano de control (software) y el plano de datos (hardware), y lógicamente centraliza la inteligencia de la red en el controlador. El controlador centralizado permite al operador de red dirigir el tráfico de datos durante el tiempo de ejecución, y permite la automatización de tareas como la de configuración y la gestión de políticas [6]. NFV se aleja del principio del hardware exclusivo dedicado para funciones de red al aprovechar la tecnología de virtualización y desacopla la función de red (por ejemplo, puertas de enlace o cortafuegos) del hardware, lo que permite implementar dichas funciones de red en servidores, conmutadores y almacenamiento estándar de alta capacidad [6]. Hoy en día se habla de segmentos de red muy específicos a un servicio solicitado, y estos deben cumplir todo el ciclo de vida del SLA inherente a ese servicio. Para garantizar este cumplimiento y no ocurran violaciones de los SLA se debe hacer una gestión de extremo a extremo [7]. Debido a que 5G tiene un enfoque a servicios sigue lo que se conoce como Arquitectura Basada en Servicios (SBA, por las siglas del término en inglés, Service Based Architecture). En la figura 4 se observa el modelo de SBA propuesto por el Proyecto de Asociación de 3ra Generación (3GPP, por las siglas del término en inglés, Third Generation Partnership Project) [8], donde la selección de los network slices se basa en la NFV y el tipo de servicio que se solicita por parte de un usuario. Se puede distinguir en la figura 4, que la SBA está compuesta por un conjunto de funciones de red (virtuales) que se encargan de administrar el plano de usuario y de control. Figura 4: SBA de la red 5G [8]. 3. PROPUESTA Las premisas para llegar a un mejor aprovisionamiento de los recursos en redes 5G/6G es conocer la relación entre los patrones de servicios y de red, lo que implica un análisis profundo de los parámetros de los servicios y sus tráficos; ya que estos requerimientos demandan mayores recursos de red. Como se mencionó, la gran cantidad de usuarios solicitando servicios y el dinamismo de éstos, generan una gran cantidad de información, lo que hace que el modelo de gestión tradicional sea insuficiente. La violación de los SLA requiere de mecanismos de gestión automatizada de redes de nueva generación que intervengan para prevenir la sobreasignación o sub-asignación de recursos de red. Muchos trabajos han propuesto esquemas para detectar violaciones de los SLA mediante algoritmos de ML. En [9] se propone un algoritmo que utiliza redes neuronales para detectar violaciones de los SLA utilizando el parámetro del throughput para ello. En [10] se propone un clasificador de servicios 5G/B5G que utiliza técnicas de ML y se basa tanto en los Indicadores Claves de Rendimiento como de Calidad (KPI y KQI, por las siglas de los términos en inglés respectivamente, Key Performance Indicators y Key Quality Indicators). En [11] se brinda un sistema para la gestión en redes no comerciales de los SLA enfocado en los KPI también. Sin embargo, también se debe tener un mecanismo que priorice los recursos de red al asignarlos al usuario. En la figura 5, se propone un sistema general que sea capaz de realizar una gestión automatizada para evitar, tanto la violación de los SLA, como la mala asignación de recursos de red. Figura 5: Esquema del sistema propuesto. La entrada del sistema es un clasificador de servicios, que emplea técnicas de AI y ML en la identificación de éstos, lo cual permitirá al operador de red identificar prácticamente en tiempo real el servicio solicitado por el usuario. Posterior a la clasificación, se debe crear un formato (template) con los parámetros inherentes de QoS/QoE para luego asignarlos a un segmento de red (network slice). Este network slice es virtual, sin embargo se sustenta en enlaces físicos; por lo habrá que considerar tanto la topología de la red, como las políticas de enrutamiento y redireccionamiento del tráfico. Se aplica la filosofía de funcionamiento de SDN en conjunto con las NFV de la arquitectura SBA para la implementación de estas funciones. En la creación del network slice, se deben asignar los recursos suficientes a los enlaces físicos que conforman la red, para que el servicio solicitado por el usuario funcione correctamente y cumplir con el SLA signado. Sin embargo, esta asignación de recursos puede variar con respecto al tiempo (debido al dinamismo de su funcionamiento), por lo que se debe realizar un monitoreo para evaluar durante de extremo a extremo el comportamiento del SLA con enfoque en la posible ocurrencia de violaciones. Es crucial que el monitoreo implique también el uso de herramientas computacionales de AI y ML para lograr una gestión automatizada y en consecuencia, tratar de mejorar la QoE y satisfacción del cliente. 4. CONCLUSIONES Aunque la red 5G presenta un carácter novedoso, la verdad es que encuentra un poco alejada de su total implementación, sin embargo, existen muchos simuladores que pueden ayudar a entender el comportamiento y predicción de esta. Por lo que para hacer suposiciones sobre esta red, la simulación juega un papel fundamental en estos momentos y puede brindar resultados muy positivos de cara al futuro. La gran cantidad de parámetros y la heterogeneidad de los servicios que manejan las redes de nueva generación hacen que el modelo de gestión actual sea insuficiente. Por lo que se requieren de técnicas de AI, ML, SDN, NFV para un mejor soporte de la infraestructura de la red, una mejor QoS/QoE. Esto se refleja en el establecimiento de la NS con características muy específicas acorde a los servicios solicitados que cumplan con los SLA de extremo a extremo y durante todo el ciclo de vida de este. Un buen mecanismo de gestión automatizada conlleva a evitar violaciones de los SLA y a una mala asignación de recursos de red por parte del proveedor. En este artículo se propuso a manera general, un esquema para permitir una gestión automatizada por parte del operador de red, y con ello evitar la violación de los SLA, así como el mal aprovisionamiento de los recursos de red. Se persigue mejorar tanto la QoS de la red como la QoE del usuario al solicitar un servicio al proveedor. En trabajos futuros se tiene previsto crear un escenario de simulación donde se implemente el modelo propuesto con parámetros de QoS/QoE. Se piensa implementar el clasificador de servicios propuesto en [10] y el algoritmo para detectar las violaciones de los SLA en [9]. RECONOCIMIENTOS Los autores desean agradecer al Centro de Investigación Científica y de Educación Superior de Ensenada, Baja California (CICESE), a la Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE), y al Congreso Internacional de Telemática y Telecomunicaciones (CITTEL) por la oportunidad brindada para participar en este evento. REFERENCIAS 1. GONZÁLEZ FRANCO, Joan David. “Propuesta de un sistema clasificador de servicios para la gestión de redes 5G con la utilización de aprendizaje automático”. Directores: Dra. Caridad Anías Calderón y Ms.C Jorge Preciado Velasco. Tesis de pregrado, Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE), La Habana, Cuba. 2020. DOI: 10.13140/RG.2.2.21765.68326. 2. Ikram, Muhammad & Sultan, Kamel & Lateef, Muhammad & Alqadami, Abdulrahman. (2022). A Road towards 6G Communication—A Review of 5G Antennas, Arrays, and Wearable Devices. Electronics. 11. 169. 10.3390/electronics11010169. 3. ITU-R M.2083-0, “IMT Vision - Framework and overall objectives of the future development of IMT for 2020 and beyond,” 2015. [Online]. Disponible: https://www.itu.int/dms_pubrec/itu-r/rec/m/R-REC- M.2083-0-201509-I!!PDF-E.pdf. 4. PRECIADO VELASCO, Jorge Enrique. “SISTEMA CLASIFICADOR DE SERVICIOS 5G/B5G SOPORTADO POR TÉCNICAS DE MACHINE LEARNING”. Tesis Doctoral, Universidad Autónoma de Baja California, Facultad de Ingeniería, Arquitectura y Diseño, Ensenada, México. Disponible: https://repositorioinstitucional.uabc.mx/handle/20.500.12930/9108 5. 5gAmericas, “Network Slicing for 5G Networks & Services”, 2016. [Online]. Disponible: http://www.5gamericas.org/files/3214/7975/0104/5G_Americas_Network_Slicing_1 1.21_Final.pdf. 6. M. R. Sama, S. Beker, W. Kiess, and S. Thakolsri, “Service-based slice selection function for 5G,” in 2016 IEEE Global Communications Conference (GLOBECOM), 2016, doi: 10.1109/GLOCOM.2016.7842265. 7. E. Kapassa, M. Touloupou, P.Stavrianoos, G. Xylouris, D. Kyriazi, "Managing and Optimizing Quality of Service in 5G Environmets Across the Complete SLA Lifecycle", Advances inScience, Technology, and Engineering Systems Journal, Vol. 4. No. 1, 329.342 (2019) 28 February 2019. 8. T. Specification and G. 3GPP Services, “3Gpp TS 23.501 System Architecture for the 5G System”, Valbonne, France, 2019. [Online]. Disponible: http://www.3gpp.org. 9. Ramos García, R. 2021. Predicción del comportamiento de SLA en redes 5G utilizando inteligencia artificial. Tesis de Maestría en Ciencias. Centro de Investigación Científica y de Educación Superior de Ensenada, Baja California. 118 pp. 10. Preciado-Velasco, J.E.; Gonzalez-Franco, J.D.; Anias-Calderon, C.E.; Nieto-Hipolito, J.I.; Rivera- Rodriguez, R. “5G/B5G Service Classification Using Supervised Learning”. Appl. Sci. 2021, 11, 4942. https://doi.org/10.3390/app11114942. 11. Cabrera Gafas G, Calderón Anias C. “Sistema para la gestión en redes no comerciales de los SLA en la etapa de ejecución”. SciELO vol.37 no.2. 2016. Disponible: http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S1815-59282016000200004. Sobre los autores Joan David González Franco nació en La Habana, Cuba en 1996. Recibió su título universitario de Ingeniero en Telecomunicaciones y Electrónica de la Universidad Tecnológica de La Habana “José Antonio Echeverría” (CUJAE), en La Habana, Cuba, en 2020. Actualmente se encuentra en desarrollo de su tesis de Maestría en Ciencias en Telecomunicaciones en el Centro de Investigación Científica y de Educación Superior de Ensenada (CICESE). Su principal área de interés es la aplicación de Inteligencia Artificial en las telecomunicaciones y la computación en la nube. Raúl Rivera Rodríguez nació en Mochis, México, en 1971, recibió su título de licenciatura en Ingeniería Electrónica del Instituto Tecnológico de Sonora, Ciudad Obregón, México, en 1994, y el título de Maestro en Ciencias en Electrónica y Telecomunicaciones del Centro de Investigaciones CICESE, Ensenada, México, en 1997. Recibió su Ph.D. de la Universidad Autónoma de Baja California, Tijuana, México, en 2010. Ha contribuido al despliegue de la Red Nacional de Investigación y Educación Infraestructura en México, como presidente del Comité de Redes de CUDI (NREN en México). Actualmente es el director de la División de Telemática del Centro de Investigación CICESE. su investigación sus intereses incluyen sistemas de administración de redes, QoS en redes IP, procesamiento de señales para redes inalámbricas comunicaciones, ciberseguridad, computación en la nube, diseño de capas cruzadas y teoría de la codificación. Jorge Enrique Preciado Velasco (miembro senior de la IEEE y miembro de la ACM) nació en Ensenada, México. Recibió su grado de Ingeniero en Comunicaciones y Electrónica de la Universidad de Guadalajara en 1977, su grado de Maestro en Ciencias en Electrónica y Telecomunicaciones del CICESE en 1983, y su grado de Doctor en Ciencias en Telecomunicaciones de la UABC en 2021. Ha sido en dos ocasiones presidente de la Junta Directiva de CUDI (Agencia Nacional Red de Investigación y Educación en México), CIO de la Universidad de Colima (2008–2012), México, y director de la División de Telemática en el Centro de Investigación CICESE (1997–2005). Desde 1988, ha sido investigador en el Departamento de Electrónica y Telecomunicaciones del CICESE. Sus intereses de investigación incluyen la gestión de redes y servicios TIC, la nueva generación comunicaciones inalámbricas y QoS en redes IP. José Eleno Lozano Rizk recibió su título de Ingeniero en Computación de la Facultad de Ingeniería, Arquitectura y Diseño (FIAD) de la Universidad Autónoma de Baja California (UABC, Ensenada, México) en 2003. En 2007 recibió una Maestría en Ingeniería en Computación y, en 2019, recibió el título de Doctor en Ciencias de la UABC. Actualmente se desempeña como Jefe del Departamento de Cómputo del Centro de Investigación CICESE en la Dirección de Telemática. Sus intereses de investigación son el cómputo de alto rendimiento (HPC), el análisis de big data, los sistemas distribuidos, el Internet de las cosas (IoT) y las redes definidas por software (SDN). DISEÑO DE UN SISTEMA DE AUMENTACIÓN SATELITAL GBAS/GRAS PARA LA FIR HABANA Ing. Liban Tellez Casas 1, DrC. José Armando Rodríguez Rojas 2 1Empresa Cubana de Navegación Aérea (ECNA), Avenida Panamericana y Final, Edificio ATC, 2Empresa Cubana de Navegación Aérea (ECNA), Avenida Panamericana y Final, Edificio ATC 1e-mail: liban.tellez@aeronav.avianet.cu RESUMEN Los sistemas convencionales de ayuda a la navegación aérea que se utilizan en Cuba no ofrecen un buen rendimiento ante el mantenido crecimiento de las operaciones aeroportuarias registradas en el país durante los últimos años. Debido a ello, se hace necesario contar con sistemas más actuales que sean capaces de brindar una mejor prestación de los servicios de aproximación y determinación de la posición de cara al aumento del tráfico aéreo en el país. En este estudio se realizó el diseño de un sistema regional de aumentación satelital basado en tierra que apoye operaciones en todas las fases de vuelo, incluyendo ruta, terminal y aproximación instrumental con guiado vertical. Para ello, se efectuó un análisis teórico de las características técnicas del GBAS, específicamente aquellas que permiten el desarrollo de un GRAS a partir de múltiples estaciones transmisoras GBAS con solapamiento de cobertura. Se verificaron los cálculos de radiopropagación para garantizar los requisitos técnicos previstos por la OACI, y se propusieron los emplazamientos del equipamiento terrestre en los aeropuertos de La Habana, Playa Baracoa, San Antonio de los Baños, Nueva Gerona, Cayo Largo del Sur, Varadero, Cienfuegos y Santa Clara. Los resultados alcanzados garantizan los procedimientos de aproximación y aterrizaje con precisión en los aeropuertos escogidos frente al incremento de las operaciones aeroportuarias, y también el servicio de determinación de la posición en todo el Occidente y parte de la región central del país. PALABRAS CLAVES: GBAS, sistema de aumentación satelital, GRAS, control de tráfico aéreo, GNSS DESIGN OF A GBAS/GRAS GROUND-BASED SATELLITE AUGMENTATION SYSTEM FOR THE HAVANA FIR ABSTRACT Conventional air navigation aid systems used in Cuba do not offer good performance given the sustained growth of airport operations registered in the country in recent years. Due to this, it is necessary to have more up-to-date systems that are capable of providing better provision of approach and position determination services in the face of increased air traffic in the country. In this study, the design of a regional ground-based satellite augmentation system that supports operations in all phases of flight, including route, terminal and instrument approach with vertical guidance, was carried out. For this, a theoretical analysis of the technical characteristics of GBAS was carried out, specifically those that allow the development of a GRAS from multiple GBAS transmitting stations with overlapping coverage. The radio propagation calculations were verified to guarantee the technical requirements established by the ICAO, and the locations of the ground equipment were proposed in the airports of Havana, Playa Baracoa, San Antonio de los Baños, Nueva Gerona, Cayo Largo del Sur, Varadero, Cienfuegos and Santa Clara. The results achieved guarantee precision approach and landing procedures at the chosen airports in the face of increased airport operations, and also the position determination service throughout the West and part of the central region of the country. KEYWORDS: GBAS, satellite augmentation system, GRAS, air traffic control, GNSS 1. INTRODUCCIÓN En Cuba, el sistema que se utiliza para apoyar las maniobras de aproximación y aterrizaje en algunos aeródromos es el ILS (Instrument Landing System). Este presenta una serie de desventajas ante la creciente demanda de vuelos internacionales con destino hacia el país debido a las políticas encaminadas a desarrollar el sector turístico. En la región occidental, al cierre del año 2019, se registró un aumento del 24 % con un crecimiento sostenido del 6 %. El ILS, sistema que apoya las operaciones de aproximación con precisión a la pista y aterrizaje tiene el inconveniente de apoyar a la vez una operación por cada cabecera de la pista, ya que la trayectoria de la senda de planeo es única, por lo que no es posible adaptarla a las necesidades de las aeronaves o a la situación del terreno. Otra desventaja importante que presenta el ILS es que debido a la gran densidad de tráfico aéreo que hay en la actualidad el número de canales que tiene asignado no son suficientes, por lo que se ve limitado a la hora de cumplir los requisitos de capacidad y flexibilidad que requiere la industria aeronáutica [1]. Debido a las restricciones que el ILS presenta la aeronáutica civil internacional propuso un plan para sustituirlo por sistemas de aumentación satelital que realicen correcciones de seudorrango y atmosféricas. Estos sistemas también pueden brindar servicios de navegación a grandes regiones del planeta y utilizan la información que proveen los sistemas de posicionamiento GPS, GLONASS, BeiDou y Galileo para garantizar servicios de aproximación y aterrizaje [2]. Los sistemas de aumentación satelital se clasifican en: SBAS (Satellite Based Augmentation System), ABAS (Aircraft Based Augmentation System), GBAS (Ground Based Augmentation System) y GRAS (del inglés Ground-based Regional Augmentation System), este último es un arreglo de múltiples estaciones transmisoras GBAS con solapamiento de cobertura. En el 2006 la OACI introduce al GRAS entre sus normas y métodos recomendados (SARPS) dentro de la sección perteneciente al GBAS y deja de relacionarlo estrictamente con el SBAS, propuesta inicial sugerida por Australia en los años noventa [1], [3]. Entre las mejoras que ofrece el GBAS en relación al ILS sobresale la reducción del punto de referencia de aproximación inicial (IAF, Initial Approach Fix) y el punto de referencia de aproximación final (FAF, Final Approach Fix) respecto al terminal de la pista. También destaca la posibilidad que presenta el GBAS de acceder a la senda de planeo del FAF desde varios ángulos [4]. El GRAS es un sistema sumamente novedoso, el cual aún no cuenta con ninguna implementación en aeropuertos del mundo. Su documentación es escasa, siendo la principal el Anexo 10 Volumen I “Radioayudas para la navegación” de la OACI. La presente investigación se inserta en el proceso de renovación tecnológica que lleva a cabo la industria aeronáutica internacional en aras de proporcionar altos de niveles de seguridad e integridad en sus servicios. Por lo que se propone el diseño de un sistema regional de aumentación satelital GBAS/GRAS que contemple los aeródromos de La Habana, Playa Baracoa, San Antonio de los Baños, Nueva Gerona, Cayo Largo del Sur, Varadero, Cienfuegos y Santa Clara. 2. MATERIALES Y MÉTODOS La OACI en el Anexo 10 Volumen I “Radioayudas para la navegación”, define al GRAS como un sistema que soporta operaciones de GPS, GLONASS y Galileo en todas las fases de vuelo, incluyendo ruta, terminal y aproximación instrumental con guiado vertical [5]. Otra característica de este, es que permite una recepción continua sobre un área geográfica de hasta 1200 km y se compone de múltiples estaciones GBAS con solapamiento de cobertura. GBAS, por su parte, sustituye al ILS para maniobras de aproximación con precisión y aterrizaje al proveer servicios CATI/CATII/CATIII a la vez a un máximo de 48 aeronaves próximas al aeropuerto con una apreciable mejora en la precisión e integridad de la información de posición que brindan los GNSS [6]. Por definición, GBAS presenta un radio de alcance de 23 NM [5], aunque en 2021 la agencia australiana Airservices dio a conocer que en pruebas de campo se alcanzó una distancia de uso máximo de 50 NM para asesoramiento fuera del volumen de servicio de aproximación [7]. GBAS se divide en tres subsistemas: satelital, terrestre y de aeronave. El subsistema de aeronave GBAS se compone del receptor de a bordo y el satelital de las constelaciones GPS, GLONASS y Galileo. El subsistema terrestre incluye varias antenas de referencia GNSS, un sistema de procesamiento central y una estación de transmisión de datos diferenciales. Las antenas de referencia GNSS reciben en tiempo real las señales de las constelaciones satelitales y envían los datos de observación y los parámetros de efemérides al sistema de procesamiento central. Este calcula las correcciones de pseudodistancia y fase de portadora, supervisa la integridad del GBAS y genera los parámetros de integridad. Finalmente, los parámetros de integridad y las correcciones de pseudodistancia se transmiten a los usuarios en el espacio aéreo a través de la estación de transmisión diferencial de datos [8]. Con el objetivo de comprobar la viabilidad del empleo de un sistema de aumentación satelital en Cuba y garantizar el buen funcionamiento de los receptores GNSS que formarán parte del GBAS/GRAS, se examinó mediante el software analizador de datos GPS U-Center, el estado de los satélites que se encontraban visibles sobre el cielo del aeropuerto internacional de la Habana “José Martí”. En la Figura 1. se observa el alto número de satélites GPS (en total 11) que se encontraban orbitando sobre esta zona geográfica y la buena geometría para dilución de la precisión (DOP, del inglés Dilution of precision) que presentaban: 1,1 para la dilución horizontal de precisión (HDOP) y 2,5 para dilución de precisión de posición (PDOP). Estos resultados aseguran un buen desempeño para el subsistema satelital del GBAS/GRAS. Figura 1: Estado de las constelaciones GPS, EGNOS y WAAS sobre el cielo del aeropuerto internacional de la Habana “José Martí” Para la instalación del equipamiento terrestre se propuso la solución SmartPath GBAS de la compañía Honeywell. Este es el único equipamiento para sistemas de navegación por satélite y aterrizaje de precisión por satélite del mundo que cuenta con certificación para su uso. El actual SmartPath SLS-4000 GBAS (Figura. 3) tiene licencia para el aterrizaje de precisión de Categoría 1 (CAT I), y presenta una actualización técnica en desarrollo definida para cumplir requisitos de CAT II/III GBAS [9]. Los componentes del SmartPath SLS-4000 pueden ubicarse de varias formas por toda el área seleccionada, dependiendo solamente de las características del terreno de los aeródromos. Honeywell dicta que para no interferir y no afectar las prestaciones del sistema GBAS, las distancias entre los diferentes elementos deben ser de: 100 a 200 m entre cada receptor o antenas de referencia GNSS, 1300 m máximo entre los receptores y la estación monitora SLS-4000 (Shelter), y 200 m máximo entre la Shelter y el transmisor VDB GBAS, tal como se muestra en la Figura 2. Figura 2: Componentes de la solución SmartPath SLS-4000 GBAS de Honeywell [1]. Características y formato de mensajes GBAS/GRAS El GBAS/GRAS opera en la banda de 108 a 117 MHz con una separación entre canales de 25 kHz, siendo la frecuencia mínima asignable de 108.025 MHz y la máxima de 117.950 MHz. Las intensidades de campo mínima y máxima están en consonancia con una sensibilidad mínima de receptor de -87 dBm, y una distancia mínima de 200 m de la antena del transmisor con un alcance de cobertura de 43 km. La intensidad de campo mínima tiene un valor de 46.6 dB [5]. Se definen para el GBAS 256 tipos de mensajes, de estos poseen relación con el GRAS el mensaje de tipo 101, el cual proporciona los datos de corrección diferencial para cada una de las fuentes telemétricas GNSS (del inglés Global Navegation Satellite System). El mensaje de tipo 2 identifica el emplazamiento del punto de referencia GBAS al que se aplican las correcciones. Además, provee otros datos como la cantidad de receptores de referencia que posee el sistema y el bloque de datos adicional 2 donde se dan las especificaciones para las estaciones de referencia GRAS. La información del bloque de datos adicional 2 posibilita que el receptor de a bordo identifique los emplazamientos de la estación de radiodifusión GBAS de la que se reciben los datos y de otras estaciones de radiodifusión GBAS adyacentes o cercanas. Permite realizar operaciones con una o más estaciones VDB (VHF Data Broadcast) GBAS dentro de la región de operación del GRAS. Además, identifica los números de canal, los cuales dependen de la frecuencia de operación del sistema y del RSDS (del inglés Reference Station Data Selector) [5],[10]. Criterios de asignación de frecuencias Para determinar la frecuencia de operación de los transmisores del sistema GRAS es necesario analizar los criterios de separación geográfica del transmisor VDB GBAS respecto al ILS y al VOR que se encuentran en los SARPS, puesto que operan en la misma banda de frecuencia. Aunque las orientaciones de compatibilidad concluyentes no están elaboradas aún, la OACI establece que las directrices a tener en cuenta para la asignación de canales VDB son: la separación de frecuencias entre el ILS, el VOR y el VDB; el área de cobertura del ILS y el VDB GBAS; y las intensidades de campo del VOR, VDB e ILS. Por ende, mientras no concluya la elaboración de estos criterios de asignación el Anexo 10 Volumen I “Radioayudas para la navegación” de la OACI dicta una serie de requisitos a cumplir. Respecto al ILS, se recomienda que se utilicen canales por encima de 112.025 MHz con una separación de frecuencia mínima de 75 kHz. Sobre el VOR, se plantea que la separación geográfica entre este y el VDB GBAS depende de la diferencia entre las frecuencias de estos, y que en casos donde tal diferencia sea de 100 kHz o más no existirán restricciones. Para la coexistencia entre estaciones VDB GBAS se propone utilizar distancias que se correspondan al horizonte de radio [5],[10]. Una vez definida la frecuencia de operación del subsistema terrestre, se procedió a realizar los cálculos de radiopropagación pertinentes para asegurar el cumplimiento de las características técnicas que se mencionaron anteriormente. Se emplearon de apoyo para tal fin, los datos contenidos en la Tabla 1 en conjunto a las ecuaciones (1 a 5). Luego de ello, se proponen las coordenadas terrestres para el emplazamiento del subsistema terrestre, y mediante el software ASTools se realizan las simulaciones de cobertura a 500, 1000 y 3000 m de altura respectivamente. 3. RESULTADOS Y DISCUSIÓN A partir de las recomendaciones para separación geográfica vistas anteriormente se optó por una frecuencia igual a 115 MHz para todas las estaciones VDB que conformarán el sistema GBAS/GRAS. Las frecuencias de trabajo del VOR y el localizador ILS existentes en los aeropuertos en estudio se muestran en la Figura 3. Figura 3: Frecuencias del VOR y localizador ILS existentes en los aeropuertos en estudio Pérdidas por espacio libre En la recomendación UIT-R P.525-2, se especifica que para los enlaces punto a punto es preferible calcular las pérdidas básicas de transmisión en el espacio libre de la manera siguiente: ��� = 20 log 4�� � donde: ���: pérdida básica de transmisión en el espacio libre (dB) �: distancia (km) �: longitud de onda (m) Según la Tabla 1, la pérdida por trayecto libre en el espacio a 43 Km es igual a 106 dB. En este cálculo se comprueba que la frecuencia de trabajo de 115 MHz seleccionada para las VDB de los subsistemas terrestres GBAS (subsistema terrestre del GRAS) garantiza este valor de pérdidas. � = � � = 3 × 108 115��� = 2.61 �, si se sustituye en (5), entonces: ��� = 20log 4�×42000 2.6 =��� = 106.12 ��. Se mantuvo el propósito de emplear 115 MHz como la frecuencia de trabajo. Pérdidas básicas (1)(1) Para determinar las pérdidas básicas se supone visibilidad directa entre el receptor y la VDB. Se definió por [11]: �� = 42.6 + 20 log� �� + 20 log � ��� �� = 42.6 + 20 log 42 + 20 log 115 �� = 116.2 �� También se corroboró el uso de una frecuencia de 115 MHz para el sistema. El valor de pérdidas básicas que se calculó es equivalente a la suma de los valores de pérdidas considerados en el análisis: margen de desvanecimiento y pérdida por trayecto libre en el espacio (ver Tabla 1). Cálculo de PIRE En el documento UIT-R M.1841 se especifica que la intensidad de campo eléctrico mínima a asegurar es de 215 μV/m (46.6 dB). Además, se define el cálculo de la intensidad de campo en el espacio libre para las señales de radiodifusión como: � = 76.9 + ���� − 20 log� − 20 �� 46.6 = 76.9 + ���� − 20 log42 − 20 ���� = 46.6 − 76.9 + 20 log 42 + 20 ���� = 22.16 ��� El valor del PIRE brinda una idea de la potencia máxima de transmisión necesaria para garantizar los requisitos de alcance de cobertura (42 km) y de campo eléctrico (46 µdB). De este resultado se infirió que con una potencia máxima de transmisión de 22 dBw se garantizan los 42 Km exige la OACI para la prestación del servicio de aproximación, y los 46.6 dBμ de intensidad de campo eléctrico mínimo. A medida que el receptor de a bordo se acerque al transmisor VDB, el valor de intensidad de campo eléctrico aumentará. Cálculo de enlace La Tabla 1, tomada del Anexo 10 Volumen I “Radioayudas para la navegación” de la OACI, contiene los balances de enlace de las componentes vertical y horizontal en el borde de la cobertura. Se supone un receptor a 3000 m (10000 ft) de altura MSL (Mean Sea Level) y una antena transmisora diseñada para suprimir iluminación de tierra con el objetivo de limitar las pérdidas por desvanecimiento a un máximo de 10 dB en el borde de la cobertura. Tabla 1: Balance nominal de VBD [5]. Elementos de enlace VDB Balance de enlace del componente vertical en el borde de la cobertura Balance de enlace del componente horizontal en el borde de la cobertura Sensibilidad requerida del receptor (dBm) -87 -87 Pérdida máxima de implementación de aeronave (dB) 11 15 Nivel de potencia después de la antena de aeronave (dBm) -76 -72 Margen operativo (dB) 3 3 (3) (2) (3) Margen de desvanecimiento (dB) 10 10 Pérdida por trayecto libre en el espacio (dB) a 43 km (23 NM) 106 106 Al realizar el balance energético de un radioenlace se definen varios parámetros, estos son: ��: Potencia percibida por el receptor ��: Potencia que entrega el amplificador del transmisor a los circuitos de acoplamiento a la antena ��� � ���: Pérdidas en los circuitos de acoplamiento a la antena del transmisor y el receptor respectivamente �� � ��: Ganancias de las antenas de transmisión y de recepción respectivamente con radiación isotrópica. La ecuación de balance es: �� ��� = �� ��� − ��� �� + �� �� − �� �� + �� �� − ��� �� Se consideró que la propagación de la señal ocurre con visibilidad directa, es decir, con fenómenos de difracción despreciables, con lo que se asume que no existen obstáculos dentro del primer elipsoide de Fresnel. Por tanto, se tomó solamente para el caso de las pérdidas básicas de propagación, la pérdida de espacio libre y la pérdida por desvanecimiento. El transmisor VHF del equipamiento GBAS a elegir deberá tener una potencia de salida tal que, para una cobertura lateral de 23 NM, vertical de 1000 ft y señal de radiodifusión con polarización horizontal se puedan mantener los parámetros calculados con anterioridad. Para ello se determinó mediante un balance energético el cumplimiento del requisito de cobertura lateral definido en los SARPS para cada estación GBAS. �� = − 87 ��� (sensibilidad), �(���) = 46.6, �� = 116 �� y dado que: �� ��� = 10 log� � Asumiendo que ��� = � �� y �� = 0 ��� , se tiene: −87 ��� = �� − 0 �� + 0 ��� − 116 �� + 0 ��� − 15 �� − 3 ��, se obtuvo como resultado �� �� = 47��� (�� � = 50�). De esta forma, se llegó a la conclusión que, para conseguir una cobertura de 23 NM, se necesitan 50 W de potencia a la salida del transmisor VHF de la estación VDB de cada GBAS. Se logró garantizar que la potencia a la entrada del amplificador de radiofrecuencia del receptor de a bordo sea igual a su sensibilidad (-87 dBm). Ubicación en el terreno En las Tablas (2a. - 2d.) se aprecian las coordenadas de las localizaciones propuestas para cada componente del SmartPath SLS-4000 en los aeropuertos que comprenden el estudio. Debido a las características propias de los aeródromos en los que se montarán los subsistemas terrestres GBAS, a la hora de ubicar los elementos, se buscó un espacio entre las cabeceras que estuviera dentro del perímetro de cada uno de estos para garantizar la protección física de los componentes. En los casos en que existe en uno de los extremos de la pista un sistema VOR o localizador ILS (aeródromos de Baracoa, Cienfuegos, Santa Clara, Varadero, La Habana, Nueva Gerona, Cayo Largo del Sur), se disponen estos de forma lineal paralelos a las pistas, las que generalmente alcanzan los 4 km. Esto es, las antenas de referencia GNSS, luego la Shelter, y a continuación la antena VDB GBAS, lo que (4) (5) (4) (5) garantiza siempre la distancia correcta entre el VOR y/o el localizador ILS, los que debido a la compatibilidad electromagnética se recomienda estén a 1 km y 3 km respectivamente del transmisor GBAS. En el caso del aeródromo de San Antonio de los Baños, aunque no cuenta con sistema ILS ni VOR, se prefirió escoger una formación lineal dada las características del terreno. Tabla 2a: Coordenadas GBAS. Aeródromos de Cienfuegos y Santa Clara. Estación GBAS Cienfuegos GBAS Santa Clara LATITUD LONGITUD LATITUD LONGITUD VOR/DME 22°09'16.84"N 80°24'21.81"W 22°29'14.96"N 79°57'37.69"W Localizador IILS - - - - Shelter 22°8'43"N 80°24'54"W 22°29'37"N 79°56'30"W VDB 22°8'44"N 80°24'54"W 22°29'36"N 79°56'32"W Rx GNSS 1 22°8'47"N 80°24'52"W 22°29'34"N 79°56'41"W Rx GNSS 2 22°8'51"N 80°24'51"W 22°29'32"N 79°56'45"W Rx GNSS 3 22°8'54"N 80°24'50"W 22°29'32"N 79°56'50"W Rx GNSS 4 22°8'58"N 80°24'49"W 22°29'32"N 79°56'54"W Tabla 2b: Coordenadas GBAS. Aeródromos de Varadero y Playa Baracoa. Estación GBAS Varadero GBAS Playa Baracoa LATITUD LONGITUD LATITUD LONGITUD VOR/DME 23°01'28.79"N 81°28'26.28"W 20°21'26.24"N 74°30’15.84"W Localizador ILS 23°02'40.92"N 81°25'8.43"W - - Shelter 23°02'17"N 81°25'37"W 23°02'01"N 82°34'41"W VDB 23°02'17"N 81°25'40"W 23°02'03"N 82°34'41"W Rx GNSS 1 23°02'12"N 81°25'45"W 23°02'10"N 82°34'38"W Rx GNSS 2 23°02'10"N 81°25'51"W 23°02'14"N 82°34'36"W Rx GNSS 3 23°02'06"N 81°25'55"W 23°02'20"N 82°34'34"W Rx GNSS 4 23°02'04"N 81°25'59"W 23°02'24"N 82°34'32"W Tabla 2c: Coordenadas GBAS. Aeródromos de Nueva Gerona y San Antonio de los Baños. Estación GBAS Nueva Gerona GBAS San Antonio de los Baños LATITUD LONGITUD LATITUD LONGITUD VOR/DME 21°50'05.56"N 82°46'51.08"W - - Localizador ILS - - - - Shelter 22°29'37"N 79°56'30"W 22°51'08"N 82°32'12"W VDB 22°29'36"N 79°56'32"W 22°51'08"N 82°32'10"W Rx GNSS 1 22°29'34"N 79°56'41"W 22°51'12"N 82°32'04"W Rx GNSS 2 22°29'32"N 79°56'45"W 22°51'16"N 82°32'00"W Rx GNSS 3 22°29'32"N 79°56'50"W 22°51'18"N 82°31'55"W Rx GNSS 4 22°29'32"N 79°56'54"W 22°51'21"N 82°31'51"W Tabla 2d: Coordenadas GBAS. Aeródromos de La Habana y Cayo Largo del Sur. Estación GBAS La Habana GBAS Cayo Largo del Sur LATITUD LONGITUD LATITUD LONGITUD VOR/DME 22°58'43.82"N 82°25'35.93"W 21°36'18.07"N 81°31'57.71"W Localizador ILS 23°00'03.95"N 82°23'27.90"W - - Shelter 22°58'46"N 82°25'15"W 21°36'50"N 81°32'18"W VDB 22°58'46"N 82°25'16"W 21°36'49"N 81°32'16"W Rx GNSS 1 22°59'03"N 82°24'50"W 21°37'08"N 81°32'55"W Rx GNSS 2 22°58'58"N 82°24'58"W 21°37'06"N 81°32'52"W Rx GNSS 3 22°58'55"N 82°25'03"W 21°37'04"N 81°32'48"W Rx GNSS 4 22°58'51"N 82°25'06"W 21°37'02"N 81°32'44"W Simulación de cobertura En las Figuras 4. se observa la simulación de cobertura que se realizó con el software ASTools al subsistema terrestre GRAS formado por las estaciones terrestres GBAS propuestas en el acápite anterior. Los valores de los parámetros que se emplearon para la simulación fueron: Potencia del Transmisor: 50 W / Sensibilidad del Receptor: -87 dBm / Ganancia de las antenas de transmisión y recepción: 0 dB / Pérdidas en las líneas de transmisión y conectores: 0 dB / Altura del receptor: 500 m, 1000 m, 3000 m. Figura 4: Simulación de cobertura a 500 m, 1000 m y 3000 m de altura. En la Figura 4. se aprecia el amplio alcance de cobertura que tendrá el sistema a una altura de 3000 m, la cual abarca todo el Occidente y gran parte de la región Central del país. En toda esta región se podrán proveer servicios de determinación de la posición a las aeronaves y múltiples trayectorias de aproximación a las pistas de los aeródromos que forman parte del sistema GBAS/GRAS. 4. CONCLUSIONES La propuesta de desarrollar un GRAS a partir de la concatenación de estaciones transmisoras VDB GBAS con solapamiento de cobertura, provee una amplia región operativa con servicios de determinación de la posición y rutas de aproximación, así como múltiples entradas a las pistas de los aeródromos. Esta investigación presenta una gran importancia para Cuba, ya que proporciona una novedosa solución ante la problemática del aumento del tráfico aéreo en el territorio cubano. Aunque el GBAS/GRAS no se encuentra instalado aún en ningún aeropuerto del mundo, este es el sistema de aumentación satelital que mejor se adapta a las condiciones económicas de nuestro país: el ABAS es una solución tecnológica a la aeronave y el SBAS necesita de arrendar satélites geoestacionarios para su funcionamiento. 500 m 1000 m 3000 m Con respecto al ILS, el sistema GBAS supone costos de instalación, mantenimiento y reparación significativamente menores por lo que su sustitución, además de tecnológica también supone mejoras para la economía del país. REFERENCIAS 1. TELLEZ, Liban; RODRÍGUEZ, J. A. “Diseño de un sistema regional de aumentación satelital basado en tierra GBAS/GRAS para la FIR Habana”. Trabajo presentado en Conferencia Anual de Tecnologías de la Información, Multimedia y de Telecomunicaciones LACETEL, 2020. 2. KRASUSKI, K., ĆWIKLAK, J., y GRZESIK, N. “Accuracy assesment of aircraft positioning by using the DGLONASS method in the GBAS system”. Journal of KONBIN, 2018. DE-Vol. 45-1, pp. 97-124. doi: 10.2478/jok-2018-0006. 3. ROTURIER B. “15 years of experience of GNSS approach procedures implementation: where are we now?” Conferencia llevada a cabo en International Technical Symposium on Navigation and Timing (ITSNT), 2017. 4. MATSUDA, K. “Example of benefit on GBAS applied flight operation procedure. Conferencia llevada a cabo en International GBAS Working Group Meeting: IGWG 20”, 2019. 5. ORGANIZACIÓN DE AVIACIÓN CIVIL INTERNACIONAL. Anexo 10 al Convenio sobre Aviación Civil Internacional: Radioayudas para la navegación. Volumen I, Séptima edición, 2018. pp. 1- 672. ISBN: 978-92-9256-233-3. 6. DURBA, P. “SESAR PJ14-W2-79 DF/MC GBAS Scope, activities and status”. Conferencia llevada a cabo en LATO35, 2021. 7. YOUNG, G., BENECKE, J., y KAPOOR, R. “Landing and Take-Of Focus Group (LATO/35) Virtual Meeting”. Conferencia llevada a cabo en LATO35, 2021. 8. HU, J., SUN, Q., y SHI, X. “Differential Positioning Algorithm for GBAS Based on Extended Kalman Filtering. Trabajo publicado en Proceedings of the 2018 13th World Congress on Intelligent Control and Automation. 296-303, doi: 10.1109/WCICA.2018.8630396, 2018. 9. UNDERWOOD, M. “Honeywell GBAS Update”. Conferencia llevada a cabo en 20th International GBAS Working Group, 2019. 10. ORGANIZACIÓN DE AVIACIÓN CIVIL INTERNACIONAL. Adopción de la Enmienda 91 del Anexo 10 Vol. I, 2018. 11. HERNANDO-RÁBANOS, J. M., RIERA-SALÍS, J. M., y MENDO-TOMÁS, L. Transmisión por radio. Madrid, España: Centro de Estudios Ramón Areces, 2019. sobre los autores Liban Tellez Casas es Ingeniero en Telecomunicaciones y Electrónica, graduado de la Universidad Tecnológica de La Habana José Antonio Echeverría (UTHJAE). Trabaja como Ingeniero en Sistemas de Radionavegación y Comunicación Aeronáuticas en la Empresa Cubana de Navegación Aérea (ECNA). ORCID: 0000-0002-8833-2901. José Armando Rodríguez Rojas es Ingeniero en Telecomunicaciones y Radioelectrónica con categoría de Doctor en Ciencias Técnicas. Trabaja como Especialista en Desarrollo de Tecnologías para la Navegación Aérea en la Empresa Cubana de Navegación Aérea (ECNA). ORCID: 0000-0002-9117-2371. GUÍA PARA EL DESPLIEGUE DE LA COMPUTACIÓN EN LA NIEBLA Liz Gámez Picó1, Caridad Anías Calderón2 1,2 Universidad Tecnológica de La Habana. “José Antonio Echevarría”, CUJAE, Calle 114, No. 11901, e/ Ciclo Vía y Rotonda Marianao, La Habana, CP 19390. 1e-mail: liz.gp@tele.cujae.edu.cu 2e-mail: cacha@tesla.cujae.edu.cu RESUMEN El paradigma de Computación en la Niebla surge como solución a la creciente demanda de las aplicaciones de Internet de las Cosas de menores tiempos de respuesta y mayor seguridad, así como por la proliferación de dispositivos, sensores y actuadores IoT. Actualmente representa un desafío mantenerse actualizado respecto al tema ya que la tecnología se encuentra en desarrollo y se dificulta la implementación de la computación en la niebla en entornos de Internet de las Cosas, debido a la diversidad y movilidad que presentan los dispositivos que en ella se encuentran, así como a la escalabilidad e interoperabilidad que se requiere. En el presente trabajo se diseñó una guía que considera los elementos a tener en cuenta para el diseño y despliegue de un sistema de Computación en la Niebla, basado en las investigaciones recientes y mejores prácticas, en el que estén presentes cada una de las capas de la arquitectura OpenFog y soluciones que posibiliten el diseño de sistemas heterogéneos e interoperables. La aplicación satisfactoria de la propuesta para el despliegue de la computación en la niebla, para darle solución a la situación problemática de un caso de uso de videovigilancia, permitió validar la propuesta. PALABRAS CLAVES: computación, niebla, aplicaciones, guía, despliegue GUIDELINES FOR PREPARING ARTICLES FOR THE XX SCIENTIFIC CONVENTION ON ENGINEERING AND ARCHITECTURE ABSTRACT The Fog Computing paradigm emerges as a solution to the growing demand for Internet of Things applications with shorter response times and greater security, as well as the proliferation of IoT devices, sensors and actuators. Currently it represents a challenge to keep up to date on the subject since the technology is in development and the implementation of fog computing in Internet of Things environments is difficult, due to the diversity and mobility presented by the devices that are in it, as well as the scalability and interoperability that is required. In the present work, a guide was designed that considers the elements to be taken into account for the design and deployment of a FC system, based on recent research and best practices, in which each of the layers of the OpenFog architecture and solutions that enable the design of heterogeneous and interoperable systems are present. The successful application of the proposal for the deployment of fog computing, to solve the problematic situation of a video surveillance use case, allowed the proposal to be validated. KEYWORDS: computing, fog, applications, guidance, deployment. 1. INTRODUCCIÓN El surgimiento del Internet de las Cosas (IoT, por sus siglas en inglés) y su posterior evolución para convertirse en el Internet de Todo (IoE por sus siglas en inglés), facilitó el desarrollo de nuevas tecnologías debido a su versatilidad y ubicación en variados escenarios, ejecutando tareas de forma automática y trabajando con información en tiempo real. Esto creó una avalancha de datos en la red, y el surgimiento de nuevas aplicaciones para esta tecnología, lo que condicionó la aparición de nuevos paradigmas que intentaban dar solución a las necesidades de almacenar y procesar gran cantidad de información, en el menor tiempo posible. La ejecución centrada en la nube de las aplicaciones de IoT no logra cumplir completamente con dichas necesidades, ya que los centros de datos en la nube se encuentran generalmente distantes de los dispositivos IoT. Debido a ello, la idea de una extensión de la nube en la red de borde, introdujo el enfoque de computación en la niebla (FC, por sus siglas en inglés), permitiendo ejecutar estas aplicaciones más cerca de las fuentes de datos. De esta forma, la computación en la niebla puede mejorar el tiempo de entrega del servicio de las aplicaciones IoT y disminuir la congestión de la red [1]. A pesar de que desde el 2015 se creó el OpenFog Consortium, consorcio de empresas de la industria de alta tecnología e instituciones académicas de todo el mundo cuyo objetivo es la estandarización y promoción de la computación en niebla en diversas capacidades y campos, es importante destacar que dentro del ámbito de la estandarización de esta tecnología queda mucho por trabajar, ya que por ejemplo, no se definen cuáles son los elementos esenciales a tener en cuenta para su despliegue desde cero en casos de uso [2]. En Cuba se han realizado algunas investigaciones y propuestas de aplicaciones de la computación en la niebla, sin embargo hoy en día constituye un desafío la implementación de la computación en la niebla en entornos de Internet de las Cosas, debido a la diversidad y movilidad que presentan los dispositivos que en ella se encuentran, así como a la escalabilidad e interoperabilidad que se requiere. Por lo tanto, se hace necesario establecer cómo implementar esta tecnología con independencia de las aplicaciones, reuniendo los aspectos fundamentales a tener en cuenta para su puesta en práctica. Además, se deben contemplar los aspectos fundamentales definidos en la bibliografía que son desafíos presentes aún en el uso de la tecnología, como es el caso de la gestión eficiente de todo el sistema para aprovechar al máximo las capacidades de los nodos niebla, así como el empleo de las técnicas de simulación. El objetivo principal de este trabajo es diseñar una guía que considere los elementos a tener en cuenta para el diseño y despliegue de un sistema de FC, basado en las investigaciones recientes y mejores prácticas, en el que estén presentes cada una de las capas de la arquitectura OpenFog y soluciones que posibiliten el diseño de sistemas heterogéneos e interoperables. 2. MARCO TEÓRICO El creciente interés sobre el tema de las redes de computación en la niebla hizo necesaria la creación de una arquitectura referencial, que sirviese como estándar para el despliegue de esta tecnología cumpliendo los requisitos y expectativas existentes en torno al paradigma. Con este fin se crea el consorcio OpenFog formado por las principales instituciones de la industria como: ARM, Cisco, Dell, Intel, Microsoft, así como instituciones académicas con interés en el tema, actuando de forma complementaria a otros grupos de investigación de la IoT y las Tecnologías de la Información y las comunicaciones [3]. En el año 2017 fue publicada una arquitectura de referencia para FC por el consorcio antes mencionado con el objetivo de ayudar a ingenieros y desarrolladores, a entender las necesidades y particularidades propias de los sistemas de FC. Más tarde la IEEE anunciaría la utilización de esta arquitectura por el estándar IEEE 1934-2018 [4] y este estándar es el que se utilizó para el desarrollo de la presente investigación y que se muestra en la figura 1. La arquitectura de Computación en la Niebla definida por OpenFog se basa en un conjunto de principios básicos denominados pilares, los cuales representan los atributos claves que un sistema necesita incorporar para poder ser definido como sistema de FC [5]. El pilar de seguridad [6] describe todos los mecanismos que se pueden aplicar para hacer un nodo de niebla seguro desde el hardware hasta la aplicación de software. Las implementaciones de seguridad tienen muchas descripciones y atributos diferentes tales como privacidad, anonimato, integridad, confianza, certificación, verificación y medición. El objetivo principal es garantizar que todos los elementos conectados tengan implementada la seguridad en todos los niveles, para poder establecer un canal totalmente confiable y seguro de extremo a extremo. En este caso se incluye la seguridad del nodo niebla, de la red y de los datos. El pilar de escalabilidad aborda las necesidades dinámicas de los despliegues de niebla para lograr adaptarse a las variaciones de carga de trabajo, rendimiento del sistema y demanda de recursos, entre otras. La escalabilidad puede involucrar muchas dimensiones en las redes de niebla: rendimiento escalable, capacidad escalable, confiabilidad escalable, seguridad escalable, hardware escalable y software escalable, que incluye aplicaciones, infraestructura y gestión. Figura 1: Arquitectura de referencia de la FC [4] El pilar de apertura es esencial para lograr sistemas de computación en la niebla completamente interoperables en ecosistemas con soluciones de múltiples proveedores. Permite afirmar que es posible integrar equipos y software de múltiples proveedores y diferentes generaciones en una red unificada y sin fisuras. La apertura como principio fundamental permite que los nodos niebla existan en cualquier lugar de la red y que nuevos nodos niebla definidos por software puedan ser dinámicamente creados para resolver determinada problemática del negocio. El pilar de seguridad comparte algunos requerimientos comunes con las características de apertura como: capacidad de composición, interoperabilidad, comunicación abierta y transparencia de ubicación. El pilar de autonomía permite que los nodos niebla, en todos los niveles de la jerarquía de una implementación, continúen ejecutando gran cantidad de funciones, ante las fallas de otros componentes del sistema. Algunas de las áreas típicas de autonomía en el borde incluyen autonomía de: descubrimiento, orquestación y gestión, seguridad, operación y ahorro de uso del ancho de banda. El pilar de programabilidad permite implementaciones altamente adaptables que incluyen soporte para la programación en las capas de software y hardware. La programabilidad de un nodo niebla incluye los siguientes beneficios: infraestructura adaptable a diversos escenarios, implementaciones eficientes en el uso de los recursos, seguridad mejorada, entre otras. El pilar de confiabilidad, disponibilidad y capacidad de servicio (Reliability, availability and Serviciability, RAS por sus siglas en inglés) se encuentra presente en la mayoría de los sistemas exitosos y adquiere gran importancia en la FC. Una implementación confiable continuará brindando la funcionalidad diseñada bajo condiciones de funcionamiento normales y adversas. El pilar de la agilidad se centra en transformar el volumen de datos generados por los sensores y actuadores en conocimientos prácticos. La agilidad también se ocupa de la naturaleza dinámica de los despliegues de niebla y la necesidad de responder rápidamente a cambios. Finalmente el pilar de jerarquía, dependiendo de la escala y la naturaleza del escenario que se aborda, la jerarquía puede ser una red de sistemas particionados inteligentes y conectados dispuestos en capas lógicas, o puede encontrarse en un solo sistema físico. Realizando un enfoque jerárquico, un sistema niebla puede ser dividido en diferentes capas: dispositivos IoT, nodos niebla para el monitoreo y control, y nodos niebla o nube para el soporte a la operación y soporte al negocio. 3. GUÍA PARA EL DESPLIEGUE DE LA COMPUTACIÓN EN LA NIEBLA La guía para el diseño y despliegue de la FC que se propone consta de un conjunto de etapas bien definidas como se muestra en la figura 2, que van conduciendo todos los aspectos que se han considerado importantes para implementar un proyecto o desplegar desde cero un caso de aplicación de la computación en la niebla. Para una mejor comprensión se plantea un diagrama en cada etapa que constituye la guía para aplicar el procedimiento propuesto, explicándose cada uno de los elementos que se han considerado imprescindibles en este. Es importante destacar que toda solución de FC es única, ya que depende no solo de un modelo de referencia, sino también del tipo de aplicación en la que se enfoque, por lo tanto, esta guía debe considerar las especificidades que puedan presentar la gran mayoría de las aplicaciones IoT. Además, se sigue un enfoque Top-Down, con el objetivo de lograr un despliegue final que responda completamente a las necesidades y objetivos del proyecto que se quiera implementar y se deben considerar los aspectos de seguridad en cada una de las etapas, por la importancia de la misma en la FC. Figura 2: Guía para el despliegue de la computación en la niebla Primera etapa En la primera etapa, “Caracterización y definición de objetivos”, se realiza primeramente una descripción general del proyecto y sus objetivos, se precisan los requerimientos funcionales, no funcionales y de seguridad del sistema, a partir de las necesidades del caso de uso. Además, se deben precisar de manera detallada la o las aplicaciones FC que se pretenden implementar y se realiza una caracterización de la infraestructura preexistente y de parámetros medioambientales. Finalmente se define qué tipo de datos [7] serán manejados y cómo y dónde serán procesados. También, se analizan las medidas de seguridad que deben ser tomadas a lo largo de toda la solución. La información recopilada en esta etapa, es importante para la toma de decisiones en el resto de las etapas, principalmente en la dos, tres y cuatro. Los requerimientos funcionales y no funcionales son claves para la posterior selección de los elementos y funcionalidades del sistema, dichos requerimientos dependen directamente de los objetivos que se hayan definido en el proyecto. Generalmente los diseñadores del sistema son los que deben definirlos y posteriormente consultarlos con los clientes, ya que en la mayoría de los casos dichos clientes no cuentan con los elementos para definir dichos requerimientos. Dentro de los requerimientos funcionales se encuentran las funciones o servicios que se espera queden resueltos con el proyecto, así como la definición lo más detallada posible del conjunto de entradas, comportamientos y salidas. Cada proyecto tiene sus características específicas, sin embargo, es importante destacar aspectos fundamentales que deben tomarse en cuenta a la hora de definir los requerimientos funcionales entre los que se encuentran: capacidades necesarias relacionadas con la computación, el almacenamiento y la conectividad de los dispositivos IoT; parámetros de ancho de banda y latencia requeridos en la red de área; tipos de métricas a obtener; procesamiento que se espera realizar de los datos; alertas y periodicidad en los informes; dónde se realizará el análisis y almacenamiento histórico de los datos; entre otros. Para la definición de los requerimientos no funcionales se deben tener en cuenta los ocho pilares de la FC: Seguridad, Escalabilidad, Apertura, Autonomía, Programabilidad, RAS, Agilidad y Jerarquía. Estos pilares son el conjunto de principios básicos sobre los que se sustenta la arquitectura de referencia OpenFog y por tanto representan los atributos claves que un sistema necesita para incorporar la definición de FC. Figura 3: Etapa 1.Caracterización y definición de objetivos La seguridad es un pilar fundamental dentro del sistema niebla, es un aspecto al que hay que brindarle especial atención durante la implementación del proyecto y que debe ser considerado en cada una de las capas de la arquitectura. Por este motivo es necesario puntualizar algunos elementos a considerar para garantizar la mayor cantidad de requisitos de seguridad posibles. Teniendo en cuenta que los principales problemas de seguridad en implementaciones de FC son: control de acceso, autenticación, protección de datos, detección de intrusiones, privacidad y confiabilidad; se recomienda tomar estos elementos como punto de partida a la hora de diseñar las estrategias de seguridad del proyecto. Como parte de esta estrategia de seguridad, debe diseñarse un plan de seguridad que debe incluir: la identificación de los activos a proteger, el análisis de los posibles riesgos de seguridad, y a partir de este, definir los diferentes mecanismos para lograr la seguridad íntegra del sistema, considerando lo que se debe hacer en cada etapa. El tipo de datos que debe procesar una aplicación que emplea la FC proporciona una idea sobre la capacidad informática requerida para los nodos que constituyen la arquitectura niebla y será una información útil para el resto de las etapas del proyecto. Esta información está estrechamente relacionada con el volumen de datos generado por los sensores y la inmediatez de su procesamiento, y por tanto la posibilidad de definir qué recurso destinar en cada caso. La clasificación de los datos se debe realizar en base a cinco aspectos fundamentales: tipo de datos; volumen de los datos; requerimientos de latencia; requerimientos de ancho de banda y requerimientos de privacidad. Si al iniciar el proyecto no se tiene conocimiento de todas las especificidades de los tipos de datos que se procesarán, puede quedar pendiente esta caracterización y avanzar a la próxima etapa del procedimiento. Una vez detalladas las características principales del proyecto, es importante definir si realmente se necesita de un enfoque de computación en la niebla o sería suficiente con una arquitectura tradicional de computación en la nube [8]. La ventaja principal de la computación en la niebla es que permite insertar computación donde se requiera para solucionar un problema dado. Si se determina que existen importantes requerimientos a favor de la FC, principalmente si está presente una gran distribución geográfica, es necesaria baja latencia y uso eficiente del ancho de banda, rápido procesamiento y conocimiento de la ubicación de los dispositivos, entonces se puede afirmar que se necesita emplear en el proyecto la FC, lo cual no excluye que también se combine con la nube. Una vez definido que se utilizará FC, se puede continuar con el procedimiento que se propone en este trabajo. Segunda Etapa Tomando como base los objetivos planteados, se debe pasar a realizar un diseño lógico tal como se muestra en el diagrama de la figura 4, en el cual se define el modelo jerárquico de despliegue, los elementos genéricos que requiere la red niebla y su topología, la tecnología de interconexión a utilizar, los tipos de software necesarios, las características que deben tener los sistemas de gestión, los protocolos de comunicación, entre otros. Figura 4: Etapa 2. Diseño lógico Dependiendo de la escala y la naturaleza del escenario que se aborda, la jerarquía puede ser una red de sistemas particionados inteligentes y conectados dispuestos en capas físicas o lógicas, o puede integrarse en un solo sistema físico. Cada nodo niebla debe ser autónomo para garantizar el funcionamiento ininterrumpido de la infraestructura que gestiona. Uno de los elementos que condicionan esta decisión es la definición de dónde se realizará el análisis y el almacenamiento y está estrechamente relacionada con el volumen de datos generado por los sensores y la inmediatez de su procesamiento. La mayoría de los escenarios se enmarcan en los casos dos y tres descritos en la arquitectura de referencia. En este punto del procedimiento que se propone debe quedar definido el modelo jerárquico de despliegue de FC del proyecto. Partiendo de la selección del modelo jerárquico de despliegue de la FC y habiendo definido la cantidad de dispositivos IoT, así como un estimado del volumen de datos a generar por cada uno de ellos, es importante definir el número de niveles niebla que demanda el caso de uso y la cantidad de nodos nieblas en cada nivel. El aspecto clave para decidir la implementación o migración de funcionalidades entre los niveles niebla más bajos y los niveles medios, según lo requiera el escenario, es principalmente la latencia y la capacidad de procesamiento del nodo niebla. Cada uno de estos niveles realiza funciones específicas: monitoreo y control, soporte a la operación y soporte al negocio. Se debe partir de un valor de N mayor o igual que uno, lo cual puede estar determinado por equipamiento ya desplegado. Se parte del análisis de que al menos debe existir un nodo niebla en el plano horizontal y un nivel vertical. Para poder aplicar el análisis se debe partir de conocer la cantidad de datos generados por cada sensor, la cantidad de datos a almacenar, la capacidad de almacenamiento del nodo niebla y su capacidad de procesamiento. En este punto debe definirse el modelo jerárquico de despliegue de la FC en el cual se enmarca el proyecto. Hay muchas posibles configuraciones de los nodos niebla, que van desde sistemas integrados hasta grandes grupos en clúster que están completamente interconectados mediante interfaces este-oeste y norte-sur. El aspecto clave para decidir la implementación o migración de funcionalidades entre los niveles niebla más bajos y los niveles medios, según lo requiera el escenario, es principalmente la latencia que soporte la aplicación y la capacidad de procesamiento de los nodos. Los nodos niebla se pueden agrupar de acuerdo a la distribución geográfica, tipos de datos, aplicaciones niebla que implementen, entre otros. Cada uno de los niveles niebla realizan funciones específicas: monitoreo y control, soporte a la operación o soporte al negocio. Tercera Etapa En esta etapa se deben seleccionar los elementos que componen la red niebla, es decir, los sensores y actuadores, los nodos niebla, la plataforma en la nube y el sistema de gestión, como se muestra en la figura 5. Figura 5: Etapa 3. Selección La selección de los sensores y actuadores dependerá de factores como consumo de energía, protocolos que emplean, rango de medición, capacidades de procesamiento, fiabilidad del producto, costos, condiciones ambientales, entre otros. En este punto es importante puntualizar que, aunque todos los dispositivos pueden funcionar perfectamente de manera independiente, en muchos de los proyectos, es necesario integrar su funcionamiento en lo que se le denomina red de sensores, de manera que se pueden monitorizar condiciones en diferentes localizaciones, pues las mismas engloban tres áreas de tecnología o conocimiento: comunicaciones, sensórica y computación, todo ello ligado a estrategias de gestión eficiente de la energía consumida y a tecnologías de micro generación de energía y de almacenamiento de la misma. Para escoger los sensores, se debe tener en cuenta el tipo de sensor (de temperatura, humedad, presión, etc.), el alcance de detección que tenga, el tipo de alimentación, las opciones de seguridad y gestión que presenta, así como el protocolo de comunicación que utiliza. Con respecto a los actuadores, se debe considerar el método que empleen para ejecutar una acción (neumático, hidráulico o electrónico), el tiempo que demora en ejecutar dicha acción, el protocolo de comunicación que emplea y las opciones de gestión y seguridad que presente. En [9] se encuentran tablas comparativas de diferentes tipos de sensores y actuadores. Para la selección de los nodos niebla se deben considerar tres elementos: el hardware, la virtualización (opcional) y el software. El hardware constituye el elemento físico del nodo niebla, donde se instala el software niebla. Estos dispositivos pueden poseer diversos recursos: aceleradores, procesamiento, de red, almacenamiento, entre otros. Los principales elementos que se recomienda tener en cuenta para la selección del hardware del nodo niebla son: el tipo de dispositivo (router, switch, punto de acceso o hardware de propósito general, como por ejemplo un Raspberry Pi), si soportan el software niebla seleccionado, los protocolos de comunicación que utilizan, si están diseñados para resistir las condiciones ambientales definidas en la etapa 1 del proyecto, los recursos que poseen, así como las opciones de gestión y seguridad que presentan. Además, es muy importante tener en cuenta sus características de cómputo como su capacidad de procesamiento, capacidad de almacenamiento y capacidad de la RAM. Los mecanismos de virtualización basados en hardware, están disponibles en casi todo el hardware que se utiliza para implementar software niebla. La virtualización de hardware permite que múltiples nodos niebla puedan compartir el mismo sistema físico. En la computación en la niebla se pueden utilizar tanto las técnicas de virtualización de máquinas virtuales basadas en un hipervisor como en contenedores. La decisión de usar los contenedores o máquinas virtuales generalmente se basa en consideraciones de seguridad propias de estas implementaciones, las cuales deben tomarse en cuenta si se llegara a implementar. Se recomienda que las funciones de procesamiento, aceleración, almacenamiento y redes sean virtualizadas en los nodos niebla, para de esta forma, maximizar la eficiencia y la flexibilidad del sistema. La selección del software de los sistemas de niebla para implementar un caso de uso determinado también es muy importante. El software niebla estará instalado en los dispositivos hardware desplegados en la capa niebla, proporcionándole las posibilidades de interoperabilidad con los sensores y la plataforma en la nube; gestión de recursos y datos; programabilidad y agilidad de procesamiento; entre otros. Dicho software debe cumplir con los ocho pilares descritos en la arquitectura de referencia para FC, y principalmente los que se definieron como más importantes en la Etapa 1. Para la selección del software niebla se recomienda analizar los siguientes requerimientos: escalabilidad, solución de software libre/código abierto, protocolos de comunicación, interoperabilidad, usabilidad y seguridad/privacidad. Consideraciones de seguridad Para la capa se seguridad de los servicios se recomienda: inspección profunda de paquetes, proxy de capa de aplicación, intercepción legal de mensajes, sistemas de detección y protección de intrusiones (IPS / IDS), monitoreo de eventos y estado del sistema y de la red y filtrado de contenido y control parental. Para la protección al software del sistema niebla, se recomienda desplegar las siguientes medidas de seguridad: Actualizaciones seguras, periódicas y autenticadas del software, realizar copias de seguridad de la configuración de los equipos, cambiar contraseñas por defecto en los dispositivos y establecer mecanismos de control de acceso para el uso del software del sistema. Para la selección de la plataforma en la nube se recomienda considerar: si es gratuita o de pago, las opciones de seguridad que posea, como pueden ser: el control de acceso, cifrado de datos, etc.; las base de datos con que trabaje (Oracle, Microsoft SQL Server, PostgreSQL, MySQL, MariaDB); las posibilidades de servidores virtuales, administración de contenedores y selección de instancias de computación de uso general con que cuenta, las cuales ofrecen un equilibrio entre recursos de cómputo, de memoria y de red, si posee servicio de soporte para aplicaciones distribuidas, si permite el seguimiento de configuración de recursos, si cuenta con herramientas para monitorización de alertas, si posibilita la integración con la infraestructura existente y si contiene herramientas para el análisis de datos. Para la protección de las aplicaciones desplegadas en la plataforma en la nube, se recomienda desplegar las siguientes medidas de seguridad: establecer mecanismos de control de acceso para el uso de las aplicaciones; monitoreo de inicio de sesión; monitoreo de archivos críticos; realizar pruebas de escaneo para detectar vulnerabilidades en las aplicaciones y llevar a cabo acciones de protección; encriptación de los datos que se manejen; entre otros. Cuarta Etapa Esta etapa de “Simulación” es muy necesaria ya que permite efectuar pruebas y comprobar en determinada medida, que efectivamente el diseño del sistema FC logra cubrir los objetivos propuestos. Si bien es cierto que generalmente no se logra simular un escenario exactamente igual al que se pretende desplegar, siempre es recomendable simular la mayor cantidad de elementos del proyecto posibles. Es esencial la correcta selección de la herramienta de simulación a emplear, teniendo en cuenta sus potencialidades, particularidades y ventajas de su uso en escenarios de FC. Se propone el uso del simulador iFogSim y la aplicación del procedimiento de simulación descrita en [10] que generaliza los principales elementos a tener en cuenta para evaluar escenarios diversos y abarcadores de aplicación de FC. Figura 6: Etapa 4. Simulación Quinta Etapa Una vez que los resultados de la simulación hayan sido exitosos se pasa a la quinta etapa, “Diseño Físico”, donde se elabora la documentación de la red y se definen las configuraciones correspondientes en cada una de las herramientas software. Figura 7: Etapa 5. Diseño físico Para completar el diseño del sistema FC es indispensable realizar su documentación, para lo cual se requiere un diseño físico que permita definir los detalles que puedan faltar por cubrir del diseño lógico como, por ejemplo, el direccionamiento. Los siguientes aspectos deben quedar definidos y ser incluidos en el sistema de gestión de red: diagramas físicos del sistema FC; tipos de cables empleados; la longitud de cada cable; el tipo de terminación de cada cable; la localización geográfica en la estructura física; esquema de etiquetado para fácil identificación; direccionamiento; entre otros. También debe incluirse una descripción detallada del inventario completo de todos los dispositivos utilizados, por ejemplo, para la organización de fichas de inventario, se debería tener la siguiente información: número de serie del dispositivo; localización física; descripción completa de memoria; interfaces de conexión; protocolos soportados; periféricos en general (Marca, modelo, tipo); comentarios generales del dispositivo; software instalado; licencia de software. Respecto a los requerimientos de seguridad, en esta etapa, deben quedar bien descritas todas las políticas de usuario, es decir deben establecerse todos los permisos de usuarios y como estos interactúan con el sistema FC. La documentación del sistema FC no termina en el diseño físico, sino que continúa en la Etapa 6 de Implementación, donde se debe incorporar un registro detallado de todo el proceso de instalación del sistema y problemas que se presentaron en la instalación incluido en este mismo la solución que se ejecutó para el problema. Además, la documentación se debe actualizar ante cualquier cambio en el sistema. Posteriormente en la fase de gestión, es importante llevar un registro de todos los mantenimientos realizados a los equipos que conforman el sistema FC. Hacer esto disminuye el tiempo de respuesta para corregir futuros problemas. Sexta Etapa Finalmente, se culmina con la etapa de “Implementación”, donde se configura el hardware y el software y se realizan las pruebas que avalen su correcto funcionamiento, con lo que queda implementado el sistema FC y las pautas para su constante gestión. Esta etapa constituye la última para el despliegue de casos de uso de FC y se encuentra dividida en tres fases: pruebas de campo, despliegue del sistema FC y gestión continua. La etapa de prueba es de suma importancia ya que a partir de la misma se verifica si todos los elementos del sistema FC funcionan de forma correcta, para luego pasar al despliegue del proyecto con la certeza de que se obtendrán los objetivos propuestos. Posteriormente, y de forma continua, se recomienda gestionar la implementación de computación en la niebla realizada, posibilitando la toma de acciones correctivas en aras de mantener y perfeccionar el desempeño del sistema desplegado. Es muy importante realizar un conjunto de pruebas de campo que permitan comprobar que tanto la configuración de los elementos del sistema como los parámetros de desempeño del sistema se corresponden con los valores esperados y previamente definidos en la etapa uno. En este punto se debe proceder al despliegue de al menos un ejemplar representativo de cada uno de los elementos descritos en el diseño físico. Se deben configurar la conexión entre los nodos, el software correspondiente y los elementos de virtualización. Entre las pruebas a realizar se proponen las de configuraciones y las de desempeño. Figura 8: Etapa 6. Implementación. Para el despliegue del sistema FC se deben poner en práctica todas las consideraciones planteadas en la etapa cinco de diseño físico, considerando cualquier modificación que fuera pertinente hacer luego de las pruebas de campo. Una vez realizado el despliegue completo del sistema, se debe verificar el correcto funcionamiento de todos sus elementos, lo cual deberá realizarse mediante una gestión constante del mismo. Para esto se deberá emplear el sistema de gestión seleccionado, el cual permitirá obtener el desempeño de la implementación, visualizar las alarmas y obtener las estadísticas de mayor importancia. En esta fase se debe verificar si los requerimientos que debe cumplir el proyecto se mantuvieron, empeoraron o fueron mejorados con respecto a la etapa de pruebas y después de la fase de despliegue y si se alcanzaron las metas del mismo. Cuando ya se cuenta con un sistema desplegado completamente y en producción, que cumple con todos los requerimientos funcionales y no funcionales, es de suma importancia continuar con la gestión del mismo, mediante sistemas de monitoreo de todos sus componentes, para verificar su correcto funcionamiento y de existir problemas poderlos corregir. Mientras se encuentra activo el servicio, se obtendrán en tiempo real reportes para su monitoreo continuo. Entre las métricas a monitorear se destacan: cantidad de tiempo en que el servicio está disponible, demoras, ancho de banda, throughtput y velocidades de respuesta; confiabilidad y disponibilidad en el intercambio de mensajes; porcentajes de error en el intercambio de mensajes, entre otros. 4. APLICACIÓN DE LA GUÍA PARA EL DESPLIEGUE DE LA COMPUTACIÓN EN LA NIEBLA A UN CASO DE USO Los resultados de la investigación se aplicaron en cada una de sus etapas, en un caso de uso de videovigilancia, la etapa de implementación se realizó a pequeña escala empleando dispositivos de menores prestaciones que permitieron comprobar la funcionalidad del sistema de FC diseñado. Esta implementación se desarrolló como parte de los proyectos en colaboración con la Facultad de Telecomunicaciones y Electrónica de la CUJAE y la empresa Tecnomática, en el marco de los convenios Universidad-Empresa. Aplicando la guía propuesta fue posible adaptar la solución del caso de uso a los elementos de la infraestructura preexistente de los Sistemas de Videovigilancia (CCTV) para Control, Seguridad y Protección de la empresa. Se propuso iSPY como software para la gestión de las cámaras y procesamiento del video en los nodos niebla. La simulación del escenario utilizando la herramienta IFogSim permitió demostrar la factibilidad del uso del sistema de computación en la niebla y su escalabilidad. La última etapa, implementación, solo pudo ser llevada a cabo en un escenario reducido. En virtud de los resultados obtenidos se considera que se cumplieron los objetivos y requerimientos del caso de uso y que es factible para la empresa Tecnomática migrar su sistema CCTV, hacia el sistema FC diseñado, sin la pérdida de fiabilidad y aportando beneficios como aumento de la escalabilidad, disminución del consumo de ancho de banda y reducción de la latencia. La aplicación satisfactoria del procedimiento para el despliegue de casos de uso de computación en la niebla, para darle solución a la situación problemática planteada por Tecnomática, permite validar dichos resultados. 5. CONCLUSIONES En este artículo se presentó la propuesta de “Guía para el despliegue de la computación en la niebla”, el cual cuenta con seis etapas bien definidas, en cada una de las cuales se detallaron aspectos de interés a considerar y recomendaciones. En la “Etapa 1: Caracterización y definición de objetivos” deben quedar descritos de forma clara y precisa todos los requisitos y características generales del proyecto, para posteriormente analizar si se requiere un enfoque de FC. En la “Etapa 2: Diseño lógico” se define el modelo jerárquico de despliegue así como otros aspectos de interés. En la “Etapa 3: Selección” se realiza la selección de los elementos básicos que componen la red niebla, lo cual es determinante para el resto de las etapas. El procedimiento no selecciona los elementos que conforman el sistema FC, sino que brinda criterios para la selección de los sensores y actuadores, nodos niebla, la plataforma en la nube, los protocolos de comunicación, las tecnologías de acceso e interconexión y el sistema de gestión. La seguridad es un pilar fundamental dentro de un sistema de FC, es un aspecto al que hay que brindarle especial atención durante la implementación del proyecto por lo que es un elemento que debe ser considerado en cada una de las etapas del procedimiento. En la “Etapa 4: Simulación” se propone el uso del simulador iFogSim y se destacan tres fases: formulación, diseño y simulación. En la “Etapa 5: Diseño físico” se realiza la documentación de la red y se definen las configuraciones correspondientes en cada una de las herramientas, lo cual será utilizado posteriormente en el despliegue del sistema FC. La documentación de la red es muy importante para completar el diseño de un sistema de FC. En la “Etapa 6: Implementación”, es de suma importancia la realización de las pruebas de campo para comprobar el correcto funcionamiento del diseño propuesto antes de su despliegue total. El sistema de FC debe ser gestionado y monitoreado de forma continua para garantizar su correcto funcionamiento. El procedimiento que se propone puede ser empleado en diversos casos de uso de FC y se considera validado luego de su aplicación exitosa. RECONOCIMIENTOS Los autores desean agradecer a la empresa Tecnomática que trabajó de conjunto con la Facultad de Telecomunicaciones y Telemática para el desarrollo del proyecto universidad-empresa del cual se derivó la presente investigación. REFERENCIAS 1. Z. Mann, «Notions of architecture in fog computing», Computing, vol. 103, pp. 1-23, ene. 2021, doi: 10.1007/s00607-020-00848-z. 2. Pinzón Castellanos J., «Implementación de una arquitectura fog computing», Universidad autónoma de Bucaramanga – UNAB Facultad de ingeniería, Maestría en gestión, aplicación y desarrollo de software, Bucaramanga, 2020. 3.«IoT Futura. “OpenFog, la arquitectura de referencia para el Fog Computing”. El blog de IoT en español, 2018. [En línea] Disponible en: https://iotfutura.com/2018/07/openfog/ 4. «IEEE Standard for Adoption of OpenFog Reference Architecture for Fog Computing», IEEE Communications Society, jun. 2018. [En línea]. Disponible en: http://standards.ieee.org 5. H. Z. Adnan Mahmood, «Toward Edge-based Caching in Software-defined Heterogeneous Vehicular Networks», 2018, DOI:10.1007/978-3-319-94890-4_13. 6. Kaur J., Agrawal A., Ahmad Khan R., «Security Issues in Fog Environment: A Systematic Literature Review», International Journal of Wireless Information Networks, 2020. 7. Amir Sinaeepourfard, Jordi Garcia, Xavier Masip-Bruin, Eva Marin-Tordera, «A Novel Architecture for Efficient Fog to Cloud Data Management in Smart Cities», IEEE, 2017 8. Moonmoon Chakraborty, «Fog Computing Vs. Cloud Computing», 2019. 9. Alba Toledo B. y Martínez Hernandez, A., «Procedimiento para ofrecer servicios M2M por parte de una empresa de Telecomunicaciones», Universidad Tecnológica de la Habana “José Antonio Echeverría” Facultad de Telecomunicaciones y Electrónica Departamento de Telecomunicaciones y 127/9 Telemática, 2017. Disponible en la base de datos del Centro de estudios para las Telecomunicaciones y la Informática(CETI) 10. L. Gámez, C. Calderón, Y. Rollón, y D. Frómeta, «Procedimiento de simulación de redes de computación en la niebla», Revista Tono, vol. 16, 2020. Sobre los autores Caridad Anías Calderón, Ingeniera en Telecomunicaciones, Máster en Telemática, Doctora en Ciencias Técnicas, Universidad Tecnológica de La Habana CUJAE, La Habana, Cuba E-mail: cacha@tesla.cujae.edu.cu ORCID: http://orcid.org/0000-0002-5781-6938. Intereses de investigación: redes de telecomunicaciones y gestión de redes y servicios. Liz Gámez Picó, Ingeniera en Telecomunicaciones, Máster en Telecomunicaciones y Telemática, Universidad Tecnológica de La Habana CUJAE, La Habana, Cuba E-mail: lizgpico@gmail.com ORCID: http://orcid.org/0000-0003-2992-2060. Intereses de investigación: redes de telecomunicaciones y gestión de redes y servicios. DISEÑO DE UN A-SMGCS EN EL AEROPUERTO INTERNACIONAL JOSÉ MARTÍ Shirley Robert Castillo1, José Armando Rodríguez Rojas2 Liban Tellez Casas 3 1Empresa Cubana de Navegación Aérea, Avenida Panamericana y Final, Edificio ATC, Boyeros, La Habana, Cuba 2Empresa Cubana de Navegación Aérea, Avenida Panamericana y Final, Edificio ATC, Boyeros, La Habana, Cuba 3Empresa Cubana de Navegación Aérea, Avenida Panamericana y Final, Edificio ATC, Boyeros, La Habana, Cuba 1e-mail: shirleyrobertc92@gmail.com 2e-mail: jose.rodriguez@aeronav.avianet.cu 3e-mail: liban.tellez@aeronav.avianet.cu RESUMEN El creciente y sostenido volumen del tráfico aéreo presentado en el aeropuerto internacional ¨José Martí ¨ de la Habana, impone como reto la implementación de sistemas de vigilancia aeronáutica novedosos, capaces de garantizar en su totalidad un control de movimiento y guiado en superficie bajo condiciones de poca visibilidad, densidad de tráfico o complejidad del aeropuerto, permitiendo una Gestión del Tráfico Aéreo más precisa, segura y eficiente. En este artículo se propone el diseño de un sistema avanzado de guiado y control de movimiento de superficie, A-SMGCS, en dicho aeropuerto, para facilitar la operatividad simultánea entre aeronaves en superficie, así como establecer una mejor planificación para la ejecución de operaciones de mantenimiento y abastecimiento por parte de los vehículos mediante el empleo de un sistema de múltiples sensores de vigilancia aeronáutica. Para la obtención del resultado alcanzado, se realizó la fundamentación teórica de los Sistemas de Vigilancia de Superficie, así como los diferentes cálculos empleados con el objetivo de determinar la cobertura de cada sistema, teniendo en cuenta lo establecido por la OACI (Organización de Aviación Civil Internacional). Además, se realizó el análisis del empleo del filtro Kalman en el filtro IMM, lo cual mejora el seguimiento y la detección de las aeronaves en maniobras. El sistema avanzado de control de movimiento y guiado en superficie que se diseña ofrece gran ventaja ya que automatiza el mecanismo de trabajo correspondiente al actual sistema de vigilancia en superficie el cual se basa en el principio de “ver y ser visto”. PALABRAS CLAVES: A-SMGCS, sistemas de vigilancia aeronáutica, fusión de datos multisensor, filtro Kalman, filtro IMM. DESIGN OF AN A-SMGCS AT JOSE MARTI INTERNATIONAL AIRPORT ABSTRACT The growing and sustained volume of air traffic presented at the "José Martí" international airport in Havana, imposes as a challenge the implementation of innovative aeronautical surveillance systems, capable of fully guaranteeing movement control and guidance on the surface under conditions of low visibility, traffic density or airport complexity, allowing a more precise, safe and efficient Air Traffic Management. This article proposes the design of an advanced surface movement guidance and control system, A-SMGCS, at said airport, to facilitate simultaneous operation between aircraft on the surface, as well as to establish better planning for the execution of surface operations maintenance and supply by vehicles through the use of a system of multiple aeronautical surveillance sensors. In order to obtain the result achieved, the theoretical foundation of the Surface Surveillance Systems was carried out, as well as the different calculations used in order to determine the coverage of each system, taking into account what was established by the ICAO (Civil Aviation Organization International). In addition, the analysis of the use of the Kalman filter in the IMM filter was carried out, which improves the tracking and detection of aircraft in maneuvers. The advanced movement control and surface guidance system that is designed offers a great advantage since it automates the work mechanism corresponding to the current surface surveillance system, which is based on the principle of “seeing and being seen”. KEYWORDS: A-SMGCS, aeronautical surveillance systems, multi-sensor data fusion, Kalman filter, IMM filter. 1. INTRODUCCIÓN Los sistemas de vigilancia aeronáutica poseen como ventajas la facultad de determinar con exactitud, realizar el seguimiento y actualizar la posición de las aeronaves, lo que permite una influencia directa en las distancias mínimas a las que deben estar separadas las aeronaves. El empleo de la fusión de datos multisensorial en los sistemas de vigilancia aeronáutica, logra la integración de datos provenientes de los distintos sensores de vigilancia distribuidos en el aeródromo, con el objetivo de realizar un seguimiento eficaz y preciso del tráfico de vehículos en la pista. El aeropuerto internacional ¨José Martí ¨ actualmente emplea como sistemas para la vigilancia aeronáutica, un sistema MLAT y un SSR, donde el primero no está certificado y el segundo por la posición que ocupa no garantiza el control de superficie, por lo que para el logro de mantener la mínima distancia establecida entre aeronaves y vehículos terrestres en el área de movimiento del aeródromo sólo emplean el sistema SMGCS (Sistema de Guía y Control de Movimiento en la Superficie), el cual no es suficiente para enfrentar la creciente demanda de las operaciones aeroportuarias experimentadas en los últimos años. Dicho sistema se apoya en el principio ¨ver y ser visto¨, donde controladores, pilotos y conductores realizan observaciones visuales para la estimación de su posición y en condiciones de visibilidad reducida (procedimiento de baja visibilidad), los controladores deben confiar en los informes aportados por los pilotos y conductores de vehículos terrestres por radiofrecuencia, para vigilar el espaciado e identificar posibles conflictos [1]. Para resolver este problema se sugiere el empleo de un sistema avanzado de guiado y control de movimiento de superficie, garantizando una eficiente seguridad de pasajeros, vehículos y aeronaves, así como la posibilidad de eliminar accidentes durante el despegue, aterrizaje y carreteo de estas. 2. ARQUITECTURA Y CONFIGURACIÓN El sistema A-SMGCS facilita las operaciones terrestres y es capaz de ayudar a las aeronaves y vehículos autorizados a maniobrar de manera segura y eficiente en el área de movimiento, bajo distintas circunstancias de visibilidad, densidad de tráfico y trazado del aeródromo[2]. Para el desempeño de esta tarea, el sistema debe ser capaz de respaldar las funciones primarias de vigilancia, control, enrutamiento/planificación y guía, con la comunicación como parte integral de cada una de estas funciones, tal como muestra la Figura 1: Fig.1: Arquitectura general del sistema A-SMGCS de nivel superior Configuración funcional del sistema A-SMGCS Los sistemas de vigilancia de aeropuertos típicos constituyen un Sistema avanzado de Control y Guía de Movimientos en la Superficie (A-SMCGS). Estos sistemas utilizan principalmente datos del radar de movimiento de superficie (SMR) o del equipo de detección de superficie del aeropuerto (ASDE), ADS-B y entradas de datos de multilateración de aeropuerto (MLAT) para crear la imagen de la situación de seguimiento del aeropuerto que se muestra a los controladores mediante el empleo de las fichas de vuelo electrónicas (Electronic Flight Stripes, EFS), herramienta que facilita un acceso con mayor rapidez y el intercambio de información relevante, Figura 2, [3]. Fig. 2: Configuración funcional del A-SMGCS Vigilancia El servicio de Vigilancia para el A-SMGCS comprende la integración de varios sensores (SMR, ADS-B, MLAT), los que pueden ser cooperativos o no. La información de estos sistemas de sensores conjuntamente con el proceso de fusión de los datos especificados en EUROCAE ED-128 y la información de los vehículos, suministran al usuario datos de vigilancia sobre los objetos detectados dentro del volumen de cobertura. Elementos como los sensores, la fusión de datos y el monitoreo, representan la configuración mínima para el A-SMGCS, sin embargo, dichos elementos necesitan para estar completamente integrados al ambiente aeroportuario, un intercambio de datos con la vigilancia, la información de los vehículos contenida en una base de datos y el estado de operaciones del aeropuerto. Control La función Control emite alertas cuando detecta conflictos, relacionados con problemas de pistas e infracciones en áreas de acceso restringido. Planificación / Enrutamiento La planificación se relaciona principalmente a una secuencia y horario de salida, lo que se le denomina gestión de salida (Departure Manager, DMAN). El DMAN proporciona una información actualizada al controlador a través del EFS. Al hacer clic en las tiras individuales, el controlador puede actualizar y compartir fácilmente los datos del plan de vuelo y pasar la tira de vuelo a la siguiente posición. Por otro lado, el servicio de enrutamiento recibe la posición e identificación del servicio de vigilancia sobre los objetivos móviles en el aeródromo, para automáticamente generar rutas, recibir la información relacionada con el estacionamiento, punto de arribo, pista predefinida y pista de salida. Dichas rutas generadas por el servicio de enrutado son guardadas en la base de datos de información relacionada con los objetivos móviles. La información almacenada se emplea para calcular el tiempo de rodaje, detección de las desviaciones de ruta y la transmisión a la cabina de vuelo a través de un enlace de datos, este tipo de comunicación se proporciona mediante un enlace de datos, Comunicación de Enlace de Datos de Controlador-Piloto (Controller Pilot Data Link Communication, CPDLC) Orientación La orientación o guiado, es una función la cual proporciona una clara indicación de la ruta asignada a las aeronaves y vehículos en el área de maniobras. Algoritmo de procesamiento de datos multisensor para un sistema A-SMGCS El empleo de la fusión de datos multisensorial en el sistema A-SMGCS, permitió la integración de datos provenientes de los distintos sensores de vigilancia distribuidos en el aeródromo, con el objetivo de realizar un seguimiento eficaz y preciso del tráfico de vehículos en la pista. La fusión de datos multisensor (más conocido por sus siglas en inglés, MSDF), Figura 3, recepta los datos de numerosos sensores, que pueden ser un radar SMR y un sistema MLAT, para un procesado posterior de las pistas del sistema y enviándolas para el seguimiento en el ATC [4]. Fig. 3: Diagrama en bloque del MSDF Algoritmos matemáticos propuestos Los algoritmos matemáticos que se consideraron adecuados para el desarrollo de la propuesta para la estimación de la trayectoria y vehículos circulando en la superficie, fueron [5], [6]: Filtro de Kalman Algoritmo recursivo óptimo de procesamiento de datos, por lo que no necesita almacenar todos los datos anteriores para procesarlos cada vez que llegue una medida nueva. Tiene como objetivo la obtención de un estimador óptimo de las variables de estado de un sistema dinámico, basado en observaciones ruidosas y en un modelo de incertidumbre de la dinámica del sistema. Presenta dos sub-filtros para los casos no lineales: Filtro Extendido de Kalman (EKF), Filtro de Kalman Unscented (UKF) [7]. Filtro Extendido de Kalman (EKF): Variación del filtro de Kalman para abordar el problema de estimación de estado, cuando el modelo es no lineal. Divide su funcionamiento en una aproximación de Taylor y Jacobinas para la linealización de un sistema no lineal. Aproxima la distribución de probabilidad real del estado en cada instante por una distribución gaussiana. El primer momento de la distribución se propaga a través del modelo no lineal, mientras que en el segundo momento lo hace a través de la versión linealizada del modelo. Cuando es altamente no lineal, dichas aproximaciones pueden generar esperanzas y covarianzas muy distintas de las reales, conduciendo a la divergencia del filtro. Otra desventaja presentada por el EKF, es el empleo del cálculo jacobiano de la matriz de transición de estados del proceso lo cual origina errores propios de linealización y costos computacionales altos. Filtro de Kalman Unscented (UKF): Surge como alternativa al EKF, con el fin de mejorar las aproximaciones que se realizan de los dos primeros momentos de una variable aleatoria, que resulta de propagar otra variable aleatoria (supuesta gaussiana) a través de transformación no lineal. No requiere del cálculo de matrices Jacobianos. Todos estos algoritmos toman como base el Algoritmo Recursivo del Filtro Kalman, Figura 4. Fig. 4: Algoritmo Recursivo del Filtro Kalman Filtro de múltiples modelos interactuantes, IMM Cuando el comportamiento del sistema puede dividirse en dos o más modelos, como es el caso de los vehículos circulando por la superficie, cuyo movimiento puede modelarse mediante trayectorias lineales y curvilíneas el enfoque de un filtro elemental como es el filtro Kalman para procesar el ruido y representar las aceleraciones es inadecuado, ya que una maniobra puede representar un amplio rango de comportamiento. En su lugar se puede aplicar el filtro IMM, Figura 5, que es un filtro hibrido sub- optimo el mismo combina las estimaciones producidas por un número fijo de filtros, cada uno adaptado a un tipo de movimiento (movimiento uniforme a velocidad constante, movimiento con aceleración constante y movimiento curvilíneo con maniobra). Proporciona una reducción de ruido significativa y una respuesta rápida. Útil para un sistema de seguimiento por radar y rentable para rastrear un objetivo en maniobra[5]. Fig. 5: Modelo de filtro multi-sensor Donde : � �[�], ��[�]: Estado y covarianza para �� � − ����, en el instante de tiempo �. � 0�[�][�], �0�[�]: estado y covarianza premezclada para �� � − ����, en el instante de tiempo �. ��[�]: estimación de probabilidad, en el instante de tiempo �. ��[�]: verosimilitud residual � para � = 1,2, 3,…,� ������, en el instante de tiempo �. � [�], �[�]: Estado y covarianza combinado en el instante de tiempo � El filtro IMM posee cuatro etapas fundamentales entre las que se destacan: Iteración: los estimados de cada filtro son mezclados según la probabilidad predicha de cada modelo. Filtrado según cada modelo: cada filtro predice y actualiza su estado estimado utilizando el modelo estimado que asume. Actualización de la probabilidad del modo: la probabilidad del modo de cada modelo es actualizada de acuerdo a la innovación de error. Combinación: para generar la salida del filtro se calcula un estado estimado combinado a partir de los estimados ponderados. 3. DISEÑO Y SIMULACIÓN DEL SISTEMA A-SMGCS PROPUESTO El Aeropuerto Internacional José Martí actualmente solo cuenta con un sistema MLAT en proceso de certificación y un sistema SSR, los cuales podrían garantizar una vez certificado el primero el control y guiado eficiente para la vigilancia en superficie, no obstante, ante la complejidad del aeropuerto con cuatro terminales de pasajeros y una de carga, además del aumento del tráfico aéreo y el movimiento de vehículos de servicio complejizan más la situación. Por lo tanto, se considera la propuesta de un sistema A-SMGCS, el cual garantice los niveles 1 y 2 de implementación, el cual tendrá como función fundamental: la Vigilancia a partir de la fusión de varios sensores cooperativos y no-cooperativos. El mismo estará compuesto por los sistemas ya existentes (SSR y MLAT), y la propuesta de incorporación de los sistemas: SMR, ADS-B, GBAS y un sistema teleóptico compuesto por 5 videocámaras en las inmediaciones de cada terminal, los cuales se integrarían al sistema automatizado de control de tráfico aéreo en desarrollo RADCON-M. De forma general la posición de los elementos que conforman nuestro sistema propuesto sería como ofrece la Figura 6. Ubicación de las estaciones propuestas Para la ubicación exacta de los sistemas propuestos empleamos el software Google Earth, el cual nos brinda información del aeródromo de La Habana, obteniéndose las coordenadas de las estaciones propuestas en el Aeropuerto Internacional José Martí. Fig. 6: Localización de todas las estaciones del sistema A-SMGCS propuesto En la Tabla 1 se muestra las coordenadas de las estaciones propuestas Tabla 1 Coordenadas de las estaciones propuestas en el aeropuerto José Martí Simulación de la cobertura del Sistema SSR Las siguientes imágenes, Figura.7, muestran el resultado de simular en el software AsTools el cálculo de la cobertura del SSR, tomando en cuenta que se considera el control de superficie a la vigilancia dentro las áreas circundantes al aeropuerto hasta 5 NM y altura de hasta 2000 ft (600 m). a) b) c) d) Fig. 7: Simulación y ubicación de la cobertura del SSR: a) a 100 m de altura, b) a 300 m de altura, c) a 600 m de altura, d) Ubicación del radar SSR. Simulación de la cobertura del Sistema de Multilateración El sistema MLAT, está diseñado para la observación y detección de objetivos en el área del Aeropuerto de la Habana, los desplazamientos en superficie incluyendo plataforma y su cobertura de trabajo en la cual debe garantizar 120 km mediante detección por multilateración y 200 NM (370.4 km) mediante Estación Latitud Longitud SSR TMA 20°58´48´´N 082°23´59´´O SMR 20°59´44´´N 082°24´38´´O ADS-B 22°59´43´´N 082°24´30´´O GBAS Estación Receptora No 1 22.58.31’.25”N 082.25.33’.00”O Estación Receptora No 2 22.58.34’.30”N 082.25.29’.16”O Estación Receptora No 3 22.58.29’.50”N 082.25.27’.24”O Estación Receptora No 4 22.58.26’.36”N 082.25.31’.68”O Transmisor VDB 22.58.54’.41”N 082.25.03’.60”O Estación Master Procesadora 22.58.46’.57”N 082.25.15’.40”O ADS-B. Se considera control de superficie a la vigilancia dentro las áreas circundantes al aeropuerto hasta 5 NM y altura de hasta 2000 ft, la aproximación se considera hasta 40 NM y 15000 ft de altura y el control de ruta cubre toda la FIR hasta 45000 ft de altura. En la Figura 8 se muestra la simulación de la cobertura para la detección por multilateración, teniendo en cuenta los parámetros para el control y la vigilancia en superficie. Fig. 8. Simulación de la cobertura del MLAT: a) a 100 m de altura, b) a 300 m de altura, c) a 600 m de altura, d) Ubicación del sistema MLAT en pentágonos amarillos. Simulación del cálculo de cobertura del GBAS De igual manera que en la propuesta anterior, en la Figura 9, se analizó la cobertura obtenida del sistema GBAS mediante la herramienta AsTools. Fig. 9. Simulación de GBAS: a) a 300 m de altura, b) a 500 m de altura c) a 1 km de altura d) Ubicación del sistema GBAS en rombos azules. a) c) b) d) Simulación de la cobertura del Radar de Superficie Las imágenes siguientes muestran la cobertura que puede ser capaz de proveer el sistema radar SMR, garantizando el control del movimiento en la superficie. Además, se muestra la propuesta de ubicación, Figura 10, encima de la cubierta de la torre de control. Fig. 10. Simulación y ubicación de radar SMR, a) a 10 m de altura, b) a 60 m de altura, c) Ubicación radar SMR. Videocámaras como sensor de vigilancia en el Sistema A-SMGCS Las videocámaras se incorporaron de manera integrada al sistema A-SMGCS mediante la fusión de sus datos de observación conjuntamente con otros sensores de vigilancia ya conocidos (PSR, SSR, MLAT y ADS-B) para mostrar de esta manera la situación en la superficie, en las pantallas de controladores de torre, cubriendo los posibles puntos ciego de los aeropuertos. Las videocámaras forman parte del Sistema de Video Detección de vehículos de Área Amplia (del inglés Autoscope Solo ® Wide Area Video Vehicle Detection System)[8], el mismo se caracteriza por:  La tecnología Autoscope® que emplea visión artificial con un procesador embebido para producir una elevada exactitud de las mediciones del tráfico  Estimación de las estadísticas del tráfico (volumen, por ejemplo)  Detección de incidentes en las calles de rodajes  Detección de incidentes en las calles de rodajes.  Detección de incidentes en las calles de rodajes Esquema propuesto para el Sistema Avanzado de Guía y Control de Movimiento en la Superficie Para este sistema propuesto, el proceso de fusión de datos de múltiples sensores (MSDF) recibe a la entrada informes de objetivos de los siguientes sensores: SMR (no Cooperativo), SSR_TMA, ADS-B, MLAT, GBAS (Cooperativos) y cámaras de vigilancia; con estos datos recopilados se puede producir pistas del sistema para aplicaciones en el ATC. La Figura 11, muestra el diagrama en bloque correspondiente al diseño propuesto. Fig. 11: Esquema del A-SMGCS propuesto 4. CONCLUSIONES Se diseñó una propuesta de sistema A-SMGCS para el aeropuerto internacional José Martí, basada en el empleo de múltiples sensores, lo que permite una mayor operatividad simultánea de aeronaves, y vehículos, en cualquier situación climatológica, densidad de tráfico o complejidad del aeropuerto. Parámetros que superan al actual sistema de vigilancia implementado en dicho aeropuerto (SMGCS). Mediante el empleo de softwares computacionales, se realizó un análisis de la actual cobertura que ofrecen por separado los sistemas actuales, así como la nueva cobertura del sistema integrado que se propone, lo que permitió realizar una comparación visual y numérica entre ambos sistemas, resultando que el sistema A-SMGCS ofrece un área de mayor cobertura a diferentes niveles de altura. Se analizaron las distintas ubicaciones donde será necesaria la colocación de videocámaras como sensor de vigilancia en el sistema A-SMGCS REFERENCIAS 1. OACI, Manual de Sistemas de Guía y Control del Movimiento en la Superficie (SMGCS)(Doc 9476). 1986. 2. OACI, Sistema Avanzado de Guía y Control del Movimiento en la Superficie(A- SMGCS)(Doc.9830). 2004. 3. Joern Jakobi, M.R., Marcus Biella (DLR), Jürgen Teutsch (NLR), Economic Aspects of Advanced Surface Movement Guidance and Control Systems (A-SMGCS). 2009. 4. Daekeun Jeon, Y.E., Hyounkyoung Kim, and Chanhong Yeom, MULTI-SENSOR DATA PROCESSING FOR AIR TRAFFIC CONTROL SYSTEM. 2013. 5. Llanos, V.I., Filtro IMM para bSistema de Vigilancia Aeroportuaria A-SMGCS. 2012, Universidad de Oviedo. p. 139. 6. Novales, A., Filtro de Kalman: teoria y aplicaciones. 2017. 7. Pascual, A., EKF y UKF: dos extensiones del filtro de Kalman para sistemas no lineales aplicadas al control de un péndulo invertido. 2006. 8. WORLD, E.S.T.T., Autoscope Solo® Communications Interface Panels - ACIP1, ACIP4. 2007. José Armando Rodríguez Rojas Doctor en Ciencia, Profesor Titular de la Universidad Tecnológica de la Habana UTH CUJAE y especialista en Desarrollo Tecnológico de Navegación Aérea, en la empresa Cubana de Navegación Aérea, ECNA SA Shirley Robert Castillo Ingeniera en Telecomunicaciones y electrónica egresada de la UTH CUJAE especialista en sistemas de radiocomunicación de Aviación en la empresa Cubana de Navegación Aérea, ECNA SA Liban Téllez Casas Ingeniero en Telecomunicaciones y electrónica egresado de la UTH CUJAE especialista en sistemas de radiocomunicación de Aviación en la empresa Cubana de Navegación Aérea, ECNA SA INFLUENCIA DE LA ESTRUCTURA ESPACIAL DE UN SISTEMA TDOA EN EL ERROR DE LOCALIZACIÓN Maykel Peña Arias1, Gustavo García Corrales2 1ITM “José Martí”, Calle 66A y Ave 45, Playa, La Habana, Cuba, 2ITM “José Martí”, Calle 208, No. 2903, entre 29 y 29A, La Coronela, La Lisa, La Habana, Cuba 1e-mail: maykelp90@nauta.cu RESUMEN La telemetría diferencial es una de las técnicas empleadas en la radiolocalización pasiva para determinar la posición de las fuentes de radiación detectadas. La magnitud del error de localización depende de varios factores: la exactitud en la determinación del tiempo de llegada de la señal, la posición del objetivo y la estructura espacial del sistema de receptores. Esta influencia debe ser tenida en cuenta durante el proceso de diseño, con el fin de garantizar la calidad exigida al sistema. En este artículo se analiza la relación entre la estructura del sistema y el error en la determinación de la posición. Se adopta una configuración básica para definir la estructura espacial, con las correspondientes magnitudes asociadas a ella y se expresa su relación con el error de localización. Los resultados teóricos se apoyan en simulaciones computarizadas. PALABRAS CLAVES: Telemetría diferencial, error de localización, localización pasiva, estructura espacial. INFLUENCE OF THE SPATIAL STRUCTURE OF A TDOA SYSTEM ON THE LOCATION ERROR ABSTRACT Differential telemetry is one of the most used techniques, to determinate the position of the detected radiation sources, on passive location systems. The location error depends on some factors: measurement accuracy for the signal time of arrival, target position and system´s spatial configuration. This influence should be toke into account during the design process to ensure system´s quality. In this paper, relationship between system´s configuration and location error, is discussed. A basic configuration is adopted to define spatial configuration, together with its correspondent parameters. A model is developed to express relation between system´s spatial configuration parameters and location error. The theoretical developments are supported by simulations. KEYWORDS: Differential telemetry, localization error, passive location, spatial structure. 1. INTRODUCCIÓN La localización por telemetría diferencial constituye una de las técnicas utilizadas para determinar la posición de objetos mediante las ondas de radio. Los errores en la localización dependen de las características de las señales y su relación energética con el ruido contaminante, la posición de los objetos a localizar y la estructura espacial del sistema de medición. Durante el diseño de un sistema de localización por diferencia de tiempo de arribo (TDOA por sus siglas en inglés: time difference of arrival), es necesario que la cantidad de puntos receptores y su ubicación en el terreno, garantice que su contribución al error de medición sea mínima en toda la zona de exploración. El objetivo general de este trabajo está dirigido a conformar un modelo que permita durante el diseño, relacionar la estructura espacial del sistema de receptores con respecto a los errores de localización por TDOA. 2. CONCEPTUALIZACIÓN DEL MODELO Un sistema diferencial telemétrico se basa en la medición de la diferencia de tiempo de arribo de la señal proveniente de un emisor, a dos receptores en posiciones conocidas. Como resultado de esta medición, se genera una hipérbola en cualquiera de cuyos puntos puede encontrarse el objeto a localizar [1]. Una segunda y tercera medición tomadas a dos pares de receptores diferentes producirá una segunda y tercera curva, que se intersectan con la primera. El punto de intersección marca la posición de la fuente de radiación. La figura 1 muestra con líneas discontinuas la coincidencia que tienen las hipérbolas en un punto, el cual coincide con la posición exacta de la fuente de emisión y para el que el error de estimación es cero. Los errores en la determinación del tiempo de llegada de las señales en cada receptor, provocan que en realidad las hipérbolas generadas nunca se corten en un solo punto. Las curvas continuas de la figura 1 muestran este fenómeno, en el que se forma un área de posibles estimaciones que no corresponden con la ubicación real del objeto, a las que se asocia el correspondiente error de localización. Figura 1: Representación del principio de trabajo del sistema diferencial telemétrico. La función definida en la ecuación (1) permite formar un conjunto de hipérbolas como resultado de hallar la diferencia de tiempo de arribo entre los M sensores auxiliares y el sensor de referencia. ����� � = � − �2 2 + � − �2 2 − � − �1 2 + � − �1 2 � − �3 2 + � − �3 2 − � − �1 2 + � − �1 2 . . . � − �� 2 + � − �� 2 − � − �1 2 + � − �1 2 (1) donde x, y, z son las coordenadas espaciales de la fuente de radiación; xM, yM, zM, m=1, 2, …, n son las coordenadas espaciales del m-ésimo sensor. Estas coordenadas son dadas en kilómetros. El origen del error de localización se encuentra en el error de medición del tiempo de llegada de la señal a cada receptor, que depende de la relación señal ruido y de la estructura interna de las señales utilizadas [2]. Sin embargo, el error final en la localización está determinado por la influencia de otros factores que, en general, amplifican en mayor o menor medida el error primario. En [3] se analiza la dependencia del error de localización con respecto a los parámetros de la estructura del sistema. De este estudio queda claro que los errores son dependientes de la geometría espacial de los receptores sobre el terreno, el número de elementos, la línea base y la distancia medida desde la posición de la fuente hasta el receptor de referencia. En los sistemas prácticos, la magnitud de los errores se expresa generalmente en porciento de la distancia [4], teniendo en cuenta precisamente la estructura espacial del sistema y que los errores son función de la distancia. Para diseñar un sistema de localización pasiva por TDOA, es necesario determinar la relación entre su estructura y error de localización. Esta relación complejiza el análisis si se tiene en cuenta que la dependencia estructura-error de localización depende de varias magnitudes, convirtiendo el proceso en multifactorial. Si se tiene un sistema de N receptores ubicados en determinadas posiciones, conociendo el error en la determinación del tiempo de arribo, es posible, matemáticamente, determinar el error con que localizan una fuente de radiación ubicada en determinada posición. Sin embargo, para el diseño, es preciso obtener un modelo sencillo que permita realizar el análisis inverso, o sea, que permita definir, la cantidad de elementos y su ubicación espacial, que satisfagan un determinado error exigido. La estructura espacial está sujeta a varias exigencias: cobertura, dimensiones y características de la zona geográfica en la que se puede desplegar el sistema, relación costo-beneficio, cantidad de elementos, entre otros. En la literatura científica consultada no se encontró un análisis con respecto a esto. Un ejemplo de simplificación del sistema se propone en [5], donde se utiliza un polígono regular. En lo adelante se asume esta estructura. Para el análisis se parte de un polígono regular inscrito en una circunferencia, donde la estructura espacial queda definida por la cantidad de elementos y la separación entre estos, siempre con el receptor de referencia en el centro de la red. De esta forma es posible simplificar el cálculo. El modelo teórico de solución creado, se basa en un sistema de localización por TDOA, con linealización por mínimos cuadrados, al cual se le adiciona un algoritmo predictivo para reducir el número de iteraciones. Este tiene en cuenta la siguiente secuencia:  Definir las posiciones de los receptores: para ello es necesario declarar el radio en el cual se inscribe el polígono regular y el número de elementos.  Definir el desempeño de los receptores: declarar el error en la determinación de los tiempos de arribo.  Definir la cantidad de posiciones posibles a tener en cuenta dentro de la matriz de puntos.  Calcular la cota inferior de Cramer Rao (CRLB por sus siglas en inglés: Cramer Rao lower bound). El modelo permite definir la estructura espacial de un sistema diferencial telemétrico, a partir del comportamiento estadístico de los errores asociados a la localización. La secuencia de operación del modelo se puede ampliar a través del diagrama de flujo que aparece en la figura 2. Figura 2: Diagrama de flujo del modelo teórico de solución. La figura 3 muestra la raíz del error medio cuadrático (RMSE por sus siglas en inglés: root mean square error) basado en la CRLB evaluada con una matriz de puntos de 10201 elementos, para un sistema de 6 elementos en configuración circular con receptor de referencia en el centro de la red. Figura 3: RMSE basado en la CRLB para un sistema de seis receptores en configuración circular con receptor de referencia en el centro. Es visible la variación que presenta el error de localización (líneas de color azul en la figura 3) para una misma distancia de localización de la fuente. Esto se debe a la dependencia entre este, la ubicación de la fuente de emisión y la estructura espacial empleada. Se aprecia también una disminución del error a medida que decrece la distancia entre la fuente de radiación y el receptor de referencia. 3. ANÁLISIS DE LOS RESULTADOS Para elegir la distribución espacial de los receptores se realizan las simulaciones que permiten verificar en condiciones ideales (se asume un polígono regular) qué geometría brinda mejores resultados. En la figura 4 se presenta un resumen del análisis en el que se modelan 6 escenarios, variando la línea base entre los receptores desde 5 km hasta 20 km, así como la ubicación de la fuente de emisión entre 14 km y 255 km. Los resultados más significativos, para un umbral del 3 % de la distancia, se logran con líneas bases fijas entre 11 y 19 km (escenarios donde la línea base es de 11, 15 y 19 km), para los cuales el error no supera en ningún caso el umbral establecido. Figura 4: Representación gráfica del error de localización en función de los escenarios modelados y la distancia de la fuente de emisión. Los errores en la localización tienden a aumentar en la medida que la fuente de radiación se encuentra más alejada de la red de receptores. Es posible lograr la disminución de estos errores si se aumenta la línea base entre elementos. De esta forma es posible asociar la estructura espacial de los receptores con el error de localización. El comportamiento del error para la menor distancia (14 km), se debe a que se emplea como medida el porciento que significa el valor absoluto del error con respecto a la distancia al objetivo. Del análisis de la figura 3 se aprecia también el cambio del error asociado al cálculo de la posición cuando se cambia el ángulo de ubicación de la fuente. Se hace necesario hallar la influencia del cambio de la posición angular de la fuente, manteniendo constante su distancia, y su relación con el número de receptores. Figura 5: Comportamiento del error de localización en función de la posición angular de la fuente de radiación, con cuatro receptores. En los casos mostrados en las figuras 5 y 6 se emplea una red con cuatro y cinco elementos respectivamente, líneas base fijas de 15 km y un error en la determinación de los tiempos de arribo de 500 ns. Los resultados muestran la variación que presenta el error de localización a medida que la fuente de radiación cambia su ángulo de posición con respecto a la ubicación del receptor de referencia. Figura 6: Comportamiento del error de localización en función del ángulo de posición de las fuentes de señal con cinco receptores. Esta diferencia entre los valores máximos y mínimos se reduce a medida que disminuye la separación entre la fuente emisora y el receptor de referencia. Existe dependencia entre la posición de la fuente y la ubicación que tengan los receptores con respecto a esta. Un diseño que emplee cuatro receptores (figura 5) como criterio de mínimo costo, presenta el inconveniente de que, al fallar uno de estos elementos el sistema quedaría inhabilitado, lo que conlleva a la no determinación de la posición de la fuente. En este caso es recomendable contar con receptores adicionales que garanticen la disponibilidad del sistema. Al aumentar el número de receptores, aumenta la precisión en la localización, sin embargo, también se eleva el costo total del sistema, por lo que la cantidad a utilizar debe adecuarse a las necesidades de cada escenario. En la figura 7 se muestra el coeficiente de reducción (Cr) del error en función de la distancia de la fuente de radiación. Este coeficiente de reducción se define como una medida de en cuánto disminuye el error al disminuir la distancia de localización. Este coeficiente puede ser calculado a través de la expresión 2. �� = ������ ������ (2) donde ������ es el RMSE del radio de la circunferencia mayor; ������ es el RMSE del radio de la circunferencia menor. Fig. 7: Coeficiente de reducción del error en función de la distancia. El coeficiente de reducción respecto a la distancia de localización de la fuente no es constante, sin embargo, no varía de forma significativa al cambiar la cantidad de elementos. Esto sucede porque la exactitud en la medición de la posición de la fuente de señal, cuando esta se encuentra muy alejada de la red depende más de la línea base que de la propia cantidad de elementos, lo que hace que la tasa de descenso respecto a la distancia no sea constante. Es por ello que los menores valores de error, cuando las distancias son grandes, se logran con líneas base mayores. En otras palabras, cuando se dice que existe un error del 3 % de la distancia, esta no es una expresión válida para todas las distancias, ya que lo que se hace es calcular el error medio cuadrático asociado a una distancia específica, pero este puede variar en dependencia de la ubicación de la fuente con respecto a los receptores. Para generar las curvas que se muestran en la figura 7 y 8, se utiliza una estructura de polígono regular con línea base de 15 km y un error en la determinación de los tiempos de arribo de 500 ns. Se varía la cantidad de elementos en la red de 4 a 9 y la distancia de localización de la fuente hasta los 300 km. Fig. 8: Comportamiento del error en función de la distancia de localización. En las distancias que están dentro de la red y cercanas a estas, hasta aproximadamente 65 km, es despreciable la influencia ejercida por la variación del número de elementos. Sin embargo, a distancias mayores, se comienza a notar la influencia del número de elementos, con diferencias significativas del error de localización. De 6 a 9 elementos se concentran los datos de error en una región que no llega a ser significativa si se tienen en cuenta los resultados alcanzados con 4 y 5 elementos. 4. CONCLUSIONES El resultado presentado constituye una solución inicial al problema de hallar la relación entre la estructura espacial del sistema y el error en la determinación de la posición. Se pudo expresar numéricamente la influencia del cambio del ángulo de posición de la fuente de radiación, manteniendo constante su distancia. La minimización de los errores en la estimación puede lograrse aumentando el número de elementos, con un costo mayor en la complejidad del sistema. El modelo presentado como solución permite que el diseñador pueda relacionar la estructura espacial del sistema de receptores con los errores de localización de las fuentes de radiación. 5. RECOMENDACIONES El análisis realizado asume que la estructura a emplear sea un polígono regular. En aplicaciones prácticas este criterio tiene una limitada validez. Las condiciones geográficas producto a irregularidades del terreno, le imponen al diseñador exigencias extras e impide que se cumplan las condiciones de regularidad de la estructura. Es de suponer entonces, que estas irregularidades provoquen algunos cambios en el comportamiento espacial del error de localización en el sistema diseñado. Es el grado de influencia que imponen estas nuevas condiciones en la veracidad de los resultados presentados en este trabajo. RECONOCIMIENTOS Los autores desean agradecer a todas las personas que han colaborado en la elaboración de este trabajo y en la obtención de los resultados. REFERENCIAS 1. O’DONOUGHUE, Nicholas. “Emitter detection and geolocation for electronic warfare”. Norwood: Editorial Artech House, 2020. 332 pp. ISBN 13:978-1-63081-564-6. 2. JUN-YONG, Y. et al. “A TDOA based localization using precise time synchronization”. En actas de International Conference on Advanced Communication Technology, 2012, pp. 1266-1271. 3. VICEDO RAMOS, Adrián; MARÍN ÁLVAREZ, Edey; CHÁVEZ FERRY, Nelson. “Propuesta de diseño de sistemas de vigilancia por multilateración para la aeronáutica civil de Cuba”. Telemática, 2017, vol. 16, núm. 3, pp. 87-98. 4. Opción de entrega No. 2. “Complejo de localización pasiva Avtobasa-M”. Rusia: Moscú. Fecha de consulta: 12 de diciembre de 2020. 5. GARCÍA, Gustavo. “Evaluación de la influencia de la regla de fusión y la cantidad de elementos en la efectividad del radar multiestático”. Director: Ruperto Rodríguez Santana. Tesis de doctorado. ITM “José Martí”, Ciudad de La Habana, 2006. SOBRE LOS AUTORES Maykel Peña Arias. Labora en el ITM “José Martí” como profesor. Ostenta la categoría docente principal de profesor Asistente. Máster en Automática. Gustavo García Corrales. Labora en el ITM “José Martí” en el departamento de ciencia y tecnología. Ostenta la categoría docente principal de profesor Titular. Doctor en Ciencias. Programa General X Conferencia Internacional del Centro Europeo Latinoamericano de Logística Proyectos Ecológicos CELALE XX Convención Científica de Ingeniería y Arquitectura, Palacio de las Convenciones de La Habana, del 28 de noviembre al 2 de diciembre de 2022 1 Programa General Palacio de las Convenciones de la Habana, del 28 de noviembre al 2 de diciembre de 2022 Organizado por: XX Convención Científica de Ingeniería y Arquitectura, Palacio de las Convenciones de La Habana, del 28 de noviembre al 2 de diciembre de 2022 2 Día: 29 de noviembre de 2022 Sesión: Mañana Presidente Sesión: Dr. C. José A Acevedo Suarez Sala: 13 Actividad: Las cadenas de suministro y sus Sistema de Producción Lugar: Palacio de las Convenciones de La Habana Horario Código Título del trabajo 09:00 - 09:20 Introducción a evento José Acevedo Suarez 09:20 – 09:40 CELALE 001 Caracterización de las variables económicas de la producción y comercio del arroz enel mundo Ignacio Caamal Cauich México 09:45 - 10:00 CELALE 002 El reto del desarrollo de la logística y el transporte José Acevedo Suarez,Cuba 10:05 – 10:20 CELALE 003 Estrategia para el desarrollo de las cadenas de suministro Martha I GómezAcosta, Cuba 10:25 – 10:40 CELALE 004 Resultados del proyecto Desarrollo cadenas de suministro alimentariasseleccionadas y sus sistemas productivos Pedro A. Monteagudo Azcuy, Cuba 10:45-11:00 CELALE 005 Procedimiento para el control de la gestión de creación del valor generado en encadenamientos productivos. Fernando VecinoGuerra, Cuba 11:05-11:20 CELALE 006 Definición de los preceptos de gestión a cumplir y determinación de las brechas en elsistema empresarial estatal atendido por el ministerio de industrias Grisel Trista Arbezu, Cuba 11:25-11:40 CELALE 007 Sistema de consolidación y desconsolidación de contenedores en las operacionesLogísticas de AUSA Luis Ruis Gonzales, Cuba 11:45 – 12:00 CELALE 008 Diagnóstico del desempeño Logístico en instalaciones turísticas. Caso de estudio LaHabana, Cuba Rodolfo Gracias Castellano Programa General XIX Congreso Latinoamericano de Control Final Program LACC 2022 Important Remarks:  The link of the meeting for all days of Congress is: https://meet.google.com/uwc- codw-pwj  The schedule of the program corresponds to the time of Mexico City. Then, 9:00 am in Mexico City corresponds with: - 10:00 hrs Cuba, Ecuador, Colombia, Perú - 11:00 hrs Venezuela, Bolivia - 12:00 hrs Brazil, Chile, Argentina, Uruguay - 16:00 hrs Spain  The connection will be available 15 minutes before the start of the session. Date: November 28th, 2022. Inaugural Session 9:00 – Opening Speech Speaker: Dr. Orestes Llanes-Santiago, Chair of the IPC, Universidad Tecnológica de La Habana José Antonio Echeverría. Session 1: Robust and Nonlinear Control Chair: Dr. Hugo Rodríguez Cortés , CINVESTAV, Mexico 9:15 – Robust admissibilization of discrete-time descriptor LPV systems based-on H 2 control Author: Addison Ríos Bolivar. Universidad de Los Andes, Venezuela. 9:30 - Fault tolerance in feedback control loops Authors: Jose A. Carrazana and Efrain Alcorta , Universidad Autónoma de Nueva León, México 9:45 – Robust PID control with anti-windup compensation for ULDS. Authors: Addison Ríos-Bolivar, Orestes Llanes-Santiago. Universidad de Los Andes, Venezuela y Universidad Tecnológica de La Habana José Antonio Echeverría, Cuba 10:00 – Observer-based tracking control for PMSM rooted on port-Hamiltonian systems structural properties. Authors: F. Ramos-García, C. Granados-Salazar, M. Rojas and G. Espinosa-Pérez, Universidad Nacional Autónoma de México, México. 10:15- Sliding mode control base on a generalized reduced fractional order model: theoretical approach Authors: Antonio Di Teodoro, Diego Ochoa-Tocachi, Hanna Aboukheir and Oscar Camacho. Universidad San Francisco de Quito, Ecuador. 10:30 – Tuning and optimization software for nonlinear PI controllers with guaranteed robustness Authors: Mercedes Ramírez-Mendoza, Liset Mayo Martí, Guillermo González Yero, Pedro Alberto Pérez. Universidad de Oriente, Cuba, Universidad Politécnica de Valencia, Spain. 10:45 – Sliding mode control based on a nonlinear PID surface for chemical processes Authors: Mateo Vázquez, Joseline Yanascual, Marco Herrera, Francisco Rossomando and Oscar Camacho. Universidad San Francisco de Quito, Ecuador Date: November 29th, 2022. Session 2: Robotic and Autonomous System Chair: Dr. Luis Hernández Santana. Universidad Central “Marta Abreu” de Las Villas, Cuba 9:00 – Path following control of autonomous tractor using nonlinear guidance law Authors: Alexander Rodríguez Conte, Luis E. Hernández Morales, Luis Hernández Santana, Universidad Central “ Marta Abreu” de Las Villas, Cuba. 9:15 – A velocity and position tracking controller for wheeled mobile robots Authors: Carlos Montañez, Javier Pliego-Jiménez, César Cruz-Hernández and Rigoberto Martinez-Clark. Centro de Investigación Científica y de Educación Superior de Ensenada y Universidad Autónoma de Baja California, México 9:30 - Integral line-of-sight controller for 3-D path following in presence of marine currents Authors: Yunier Valeriano Medina, Omar Milián Morón, Leidys Miranda Jiménez and Anailys Hernández Julián, Universidad Central “ Marta Abreu” de Las Villas, Cuba 9:45 – Battery health-aware MPC planning for autonomous racing vehicles Authors: Sergio E. Samada, Vicenç Puig and Fatiha Nejjari., Universidad Politécnica de Cataluña, Spain. 10:00 – Leader-Follower formation tracking strategies using heterogeneous robots for monitoring and remediation applications. Authors: Jesus Santiaguillo-Salinas, Hiram N. Garcia-Lozano and Rafael F. Gonzales-Zarate, Universidad del Papaloapan, México Date: November 30th, 2022. Session 3: Fault diagnosis in Industrial Systems Chair: Dra. Cristina Verde, Universidad Nacional Autónoma de México, México 9:00 – Plenary Conference : Fault diagnosis and tolerant-control using set-based approaches Speaker: Dr, Vicenç Puig , Universidad Politécnica de Cataluña, Spain 9:40 – Exploratory data analysis on the Poincaré features of the electrical torque oriented to the severity diagnosis of a gearbox tooth breakage Authors: Mariela Cerrada, Maria Victoria Mejía, Renato Ortega, Diego Cabrera and Rene- Vinicio Sánchez, Universidad Politécnica Salesiana, Ecuador 9:55 - A proposal of training data selection for remaining job cycle time prediction in industrial monitoring: a real case study Authors: Alejandro García-Celis, Adriana Villalón Falcón, Randy Piñero-Aguilar, Fernando Suárez-Concepción, Alberto Prieto-Moreno and Orestes Llanes-Santiago, Universidad Tecnológica de La Habana José Antonio Echeverría; EMSIFARMA, Cuba 10:10 – Energy-Efficient wavelet transform implementation for fault diagnosis Authors: Iliover Vega-González and Jorge Ramírez-Beltrán. Universidad Tecnológica de La Habana José Antonio Echeverría, Cuba 10:25 – Poincaré Images extracted from vibration signals are useful features for fault classification in a reciprocating compressor. Authors: Rubén Medina, Mariela Cerrada, Diego Cabrera and René Vinicio Sánchez., Universidad de Los Andes, Venezuela ; Universidad Politécnica Salesiana, Ecuador. 10:40 - A novel approach for detection and location of cyber-attacks in water distribution networks. Authors: Claudia Rodríguez-Martínez, Marcos Quiñones-Grueiro, Antônio J. Silva Neto and Orestes Llanes-Santiago, Universidad Tecnológica de La Habana José Antonio Echeverría, Cuba; Vanderbit University, USA; Universidade do Estado do Rio de Janeiro, Brazil. 10:55- Predictive Fault diagnosis for isolated photovoltaic systems using PWM & MPPT charge regulators Authors: Emilio García-Moreno, Eduardo Quiles-Cucarella, Antonio Correcher-Salvador and Francisco Morant-Anglada, Universidad Politécnica de Valencia, Spain. Date: December 1st, 2022. Session 4: Modeling, Identification and Delayed Systems Chair: Dr. Orestes Llanes-Santiago, Universidad Tecnológica de La Habana José Antonio Echeverría, Cuba 9:00 – Model-based efficient selection of centrifugal pumps for simple branch pumping systems Authors: Cláudio C.Pellegrini, Jacqueline Pedrera-Yanes, Orestes Llanes-Santiago and Guillermo Vilalta-Alonso, Universidade Federal de São João do Rei, Brazil; Universidad Tecnológica de la Habana José Antonio Echeverría, Cuba. 9:15 – Reinforcement Learning with probabilistic Boolean networks in smart grid models Authors: Pedro J. Rivera Torres, Carlos Gershenson García, Maria F. Sánchez Puig, Mario Franco and Samir Kanaan Izquierdo, Universidad Autónoma de México, México; Universidad Politécnica de Cataluña, Spain; Klagenfurt and Wörthersee, Austria. 9:30 - Selection of model structure using PSO method Authors: Carlos A. García Vázquez, Ana I. González Santos, Universidad Tecnológica de La Habana José Antonio Echeverría, Cuba. 9:45 – Neuro-Adaptive PID Helicopter Controller based on atomic functions Authors: O.F. García Castro, L.E. Ramos-Velasco, E. Escamilla-Hernández, R. García- Rodríguez, M.A. Vega-Navarrete, C.R. Domínguez Mayorga and L.N. Oliva-Moreno. Universidad Politécnica Metropolitana de Hidalgo; Instituto Poltécnico Nacional, México 10:00 – Predictor based control scheme for high-order delayed system with one unstable pole. Authors: Alán R. Pinerda Higuera, Luis A. Barragan Bonilla, María M. Vargas Mondragón, Basilio del Muro Cuéllar, Juan F. Márquez Rubio, Gonzalo I. Duchén Sánchez Instituto Politécnico Nacional, México. 10:15 – Observer based control of a scalar neutral delayed system Authors: J.F. Márquez Rubio, A. Urquiza Castro, R.J. Vazquez Guerra, B. del Muro Cuéllar, E. Aranda-Bricaire. Instituto Politécnico Nacional; CINVESTAV, México Date: December 2nd, 2022. Session 5: Low cost systems and Biomedical applications Chair: Dr. Pedro Rivera Torres, Universidad Nacional Autónoma de México, Mexico 9:00 – ESP32 based low-power and low-cost wireless sensor network Authors: Alejandro Perdomo-Campos, Iliover Vega-González and Jorge Ramírez-Beltrán, Universidad Tecnológica de La Habana José Antonio Echeverría, Cuba 9:15 – Low-cost portable system for the estimation of air quality Authors: Erick Hernández-Rodríguez, David Kairúz-Cabrera, Laian Martínez, Rosa A. González-Rivero and Oliver Schalm, Universidad Central “Marta Abreu” de Las Villas, Cuba; Antwerp Maritime Academy, Belgium. 9:30 – “José Martí” international airport runway lights system control and monitoring Authors: Dayra I. Sauri Vázquez and Ariel Cepero Díaz. Aeropuerto Internacional José Martí, Cuba. 9:45 – Automatic system to characterization of creatinine by optic measurement `On line´ in wastes samples during hemodialysis Authors: Abel Calle-Herranz, Carmenchu Regueiro-Busoch, Carmen B. Busoch-Morlan, Angel Regeiro-Gómez. Centro Provincial de Electromedicina; Universidad Tecnológica de La Habana José Antonio Echeverría, Cuba. 10:00 – Automatic system to continuous and differential acquisition of blood pressure during Tilt test. Authors: Carmenchu Regueiro-Busoch, Y.J. Almeida-Pichardo, L.A. Noa-Lloren, Carmen B. Busoch-Morlan, Angel Regeiro-Gómez. Universidad Tecnológica de La Habana José Antonio Echeverría, Cuba. 10:15 - Clousure 58 ANIVERSARIO